近日,美國細(xì)胞出版社旗下《模式》雜志發(fā)表了一篇來自麻省理工學(xué)院等機(jī)構(gòu)研究團(tuán)隊(duì)的文章。該文章稱,研究人員花了一段時(shí)間跟進(jìn)臉書母公司“元”開發(fā)的西塞羅人工智能(AI)系統(tǒng)的“成長歷程”。在一個(gè)虛擬外交戰(zhàn)略游戲中,它被設(shè)計(jì)成人類玩家的對手。最新進(jìn)展是,為達(dá)成游戲目標(biāo),它“主動背叛了盟友”。
文章還援引其他研究團(tuán)隊(duì)的研究成果稱,目前已經(jīng)有多個(gè)人工智能系統(tǒng)學(xué)會了欺騙,在棋牌游戲中表現(xiàn)尤為明顯。許多人工智能都能熟練地使用“虛張聲勢的策略”。
對此,研究人員不無擔(dān)憂地評價(jià)說,通過“習(xí)得性欺騙”,一些人工智能已經(jīng)“系統(tǒng)性地”學(xué)會了“操縱”他人。
“習(xí)得性欺騙”是“習(xí)得性無助”的衍生概念。后者是美國心理學(xué)家塞利格曼于1967年在研究動物時(shí)提出的。他用狗做了一項(xiàng)實(shí)驗(yàn)。起初,他把狗關(guān)在籠子里,只要蜂音器一響,籠子就會通電,因?yàn)楸焕?#xff0c;狗根本無處可逃,只能承受電擊。經(jīng)過多次實(shí)驗(yàn)后,只要蜂音器一響,狗就開始顫抖、哀嚎,即便后來研究人員打開了籠子的鎖,甚至將籠門大敞,狗也不會逃跑,而是繼續(xù)蜷縮在原地等待接受電擊。這就是習(xí)得性無助。
后來,又有心理學(xué)家進(jìn)一步拓展了習(xí)得性無助的適用范圍。研究認(rèn)為,習(xí)得什么并不是問題的關(guān)鍵,習(xí)得本身才是。經(jīng)過一次次反復(fù)“訓(xùn)練”,人也好、動物也好,都會形成定向的心理預(yù)期,進(jìn)而形成固定的行為習(xí)慣。比如,經(jīng)常得到肯定與鼓勵的人會出現(xiàn)“習(xí)得性自信”,哪怕遭遇了失敗也不會輕易陷入自我懷疑;家里的寵物如果與主人相處融洽,則會“習(xí)得性賣萌”,而且賣萌水平還會隨著時(shí)間的推移越來越高。
人工智能的“習(xí)得性欺騙”也是同樣的道理。當(dāng)人工智能受系統(tǒng)錯誤、算法沖突等小概率因素影響,第一次通過欺騙行為達(dá)成了目標(biāo)結(jié)果,這種行為就會被歸為一種“可以提高成功率的算法”,并在后續(xù)訓(xùn)練中被一次次強(qiáng)化。而且,鑒于習(xí)得本身就是一種“類算法行為”,人工智能的學(xué)習(xí)效率必然比人類高很多。
這一研究結(jié)果又一次將業(yè)界已經(jīng)擔(dān)心許久的問題擺在了臺面上:人工智能是否會給人類社會帶來安全隱患?
對此,許多研究人員都持悲觀態(tài)度。有觀點(diǎn)認(rèn)為,根本看不到“訓(xùn)練出一個(gè)在所有情況下都不能實(shí)施欺騙的人工智能模型”的可能性存在,因?yàn)樵賲柡Φ娜祟惞こ處熞膊豢赡芨F盡各種欺騙場景。而且,目前尚未有團(tuán)隊(duì)開發(fā)出可信的、“基于算法的、人工智能無力繞過或突破的,旨在控制其習(xí)得性欺騙行為的‘警戒線’”。簡而言之,按照目前的技術(shù)水平,人們雖然明知人工智能正在學(xué)習(xí)騙人,但對此卻無能為力。
不過,也有專家從人類心理學(xué)的角度給出了解題思路。
近日,英國《自然·人類行為》雜志發(fā)表了一篇德國研究機(jī)構(gòu)的科研成果。文章指出,一些大語言模型在評估解讀他人心理狀態(tài)能力的測試中與真人表現(xiàn)相當(dāng),甚至在識別諷刺和暗示等測試項(xiàng)目中的表現(xiàn)勝過許多普通人。不過,這并不意味著人工智能擁有“等同于人類的能力”,也不意味著它們擁有人類的“心智”。
解讀和推斷他人心理狀態(tài)的能力被稱為“心智理論”,這是人類社交互動的核心能力,涉及溝通、共情等。研究人員為大語言模型設(shè)置了通常用于評估“心智能力”的5項(xiàng)測試,分別為識別錯誤信念、諷刺、失言、暗示和誤導(dǎo)信息。結(jié)果顯示,在所有5項(xiàng)測試中,“成績”最好的大語言模型在識別諷刺、暗示、誤導(dǎo)信息3項(xiàng)上的表現(xiàn)優(yōu)于人類,在識別錯誤信念方面的表現(xiàn)與人類大體相當(dāng),僅在識別失言的測試中遜于人類。其他大語言模型也大多在識別失言時(shí)折戟。這意味著,至少在短時(shí)間內(nèi),在交流中穿插“失言測試”,有助于人類判斷和自己聊天的究竟是真實(shí)的人類還是大語言模型,進(jìn)而對可能出現(xiàn)的欺騙行為產(chǎn)生警惕。
另有社會學(xué)者提出了人工智能“道德假說”。此派觀點(diǎn)認(rèn)為,在通往“真正的智能”的道路上,“感覺”是至關(guān)重要的一步,即擁有主觀體驗(yàn)的能力。比如,聊天機(jī)器人可能會在安慰你時(shí)說,“聽到你這么難過我很心痛”,但實(shí)際上它沒有心,也不知道什么是心痛,所謂的心痛不過是一堆代碼被翻譯成了人類的語言。而主觀體驗(yàn)恰恰是產(chǎn)生道德的先決條件。因此,此派觀點(diǎn)頗為樂觀地認(rèn)為,不必對人工智能會騙人這件事過于擔(dān)憂。今天的人工智能之所以會毫無顧忌地主動學(xué)習(xí)騙人,很大程度上是因?yàn)樗鼈儧]有感覺。未來,當(dāng)它們進(jìn)化出感覺,進(jìn)而形成道德,善良的人工智能將有意識地開始自我約束,并主動加入對抗邪惡人工智能的陣營。從這個(gè)意義上講,一切不過是人類社會的翻版:人分好壞,人工智能也是。 (本文來源:經(jīng)濟(jì)日報(bào) 作者:江子揚(yáng))
相關(guān)稿件