近日,美國細胞出版社旗下《模式》雜志發(fā)表了一篇來自麻省理工學院等機構(gòu)研究團隊的文章。該文章稱,研究人員花了一段時間跟進臉書母公司“元”開發(fā)的西塞羅人工智能(AI)系統(tǒng)的“成長歷程”。在一個虛擬外交戰(zhàn)略游戲中,它被設(shè)計成人類玩家的對手。最新進展是,為達成游戲目標,它“主動背叛了盟友”。
文章還援引其他研究團隊的研究成果稱,目前已經(jīng)有多個人工智能系統(tǒng)學會了欺騙,在棋牌游戲中表現(xiàn)尤為明顯。許多人工智能都能熟練地使用“虛張聲勢的策略”。
對此,研究人員不無擔憂地評價說,通過“習得性欺騙”,一些人工智能已經(jīng)“系統(tǒng)性地”學會了“操縱”他人。
“習得性欺騙”是“習得性無助”的衍生概念。后者是美國心理學家塞利格曼于1967年在研究動物時提出的。他用狗做了一項實驗。起初,他把狗關(guān)在籠子里,只要蜂音器一響,籠子就會通電,因為被困,狗根本無處可逃,只能承受電擊。經(jīng)過多次實驗后,只要蜂音器一響,狗就開始顫抖、哀嚎,即便后來研究人員打開了籠子的鎖,甚至將籠門大敞,狗也不會逃跑,而是繼續(xù)蜷縮在原地等待接受電擊。這就是習得性無助。
后來,又有心理學家進一步拓展了習得性無助的適用范圍。研究認為,習得什么并不是問題的關(guān)鍵,習得本身才是。經(jīng)過一次次反復“訓練”,人也好、動物也好,都會形成定向的心理預期,進而形成固定的行為習慣。比如,經(jīng)常得到肯定與鼓勵的人會出現(xiàn)“習得性自信”,哪怕遭遇了失敗也不會輕易陷入自我懷疑;家里的寵物如果與主人相處融洽,則會“習得性賣萌”,而且賣萌水平還會隨著時間的推移越來越高。
人工智能的“習得性欺騙”也是同樣的道理。當人工智能受系統(tǒng)錯誤、算法沖突等小概率因素影響,第一次通過欺騙行為達成了目標結(jié)果,這種行為就會被歸為一種“可以提高成功率的算法”,并在后續(xù)訓練中被一次次強化。而且,鑒于習得本身就是一種“類算法行為”,人工智能的學習效率必然比人類高很多。
這一研究結(jié)果又一次將業(yè)界已經(jīng)擔心許久的問題擺在了臺面上:人工智能是否會給人類社會帶來安全隱患?
對此,許多研究人員都持悲觀態(tài)度。有觀點認為,根本看不到“訓練出一個在所有情況下都不能實施欺騙的人工智能模型”的可能性存在,因為再厲害的人類工程師也不可能窮盡各種欺騙場景。而且,目前尚未有團隊開發(fā)出可信的、“基于算法的、人工智能無力繞過或突破的,旨在控制其習得性欺騙行為的‘警戒線’”。簡而言之,按照目前的技術(shù)水平,人們雖然明知人工智能正在學習騙人,但對此卻無能為力。
不過,也有專家從人類心理學的角度給出了解題思路。
近日,英國《自然·人類行為》雜志發(fā)表了一篇德國研究機構(gòu)的科研成果。文章指出,一些大語言模型在評估解讀他人心理狀態(tài)能力的測試中與真人表現(xiàn)相當,甚至在識別諷刺和暗示等測試項目中的表現(xiàn)勝過許多普通人。不過,這并不意味著人工智能擁有“等同于人類的能力”,也不意味著它們擁有人類的“心智”。
解讀和推斷他人心理狀態(tài)的能力被稱為“心智理論”,這是人類社交互動的核心能力,涉及溝通、共情等。研究人員為大語言模型設(shè)置了通常用于評估“心智能力”的5項測試,分別為識別錯誤信念、諷刺、失言、暗示和誤導信息。結(jié)果顯示,在所有5項測試中,“成績”最好的大語言模型在識別諷刺、暗示、誤導信息3項上的表現(xiàn)優(yōu)于人類,在識別錯誤信念方面的表現(xiàn)與人類大體相當,僅在識別失言的測試中遜于人類。其他大語言模型也大多在識別失言時折戟。這意味著,至少在短時間內(nèi),在交流中穿插“失言測試”,有助于人類判斷和自己聊天的究竟是真實的人類還是大語言模型,進而對可能出現(xiàn)的欺騙行為產(chǎn)生警惕。
另有社會學者提出了人工智能“道德假說”。此派觀點認為,在通往“真正的智能”的道路上,“感覺”是至關(guān)重要的一步,即擁有主觀體驗的能力。比如,聊天機器人可能會在安慰你時說,“聽到你這么難過我很心痛”,但實際上它沒有心,也不知道什么是心痛,所謂的心痛不過是一堆代碼被翻譯成了人類的語言。而主觀體驗恰恰是產(chǎn)生道德的先決條件。因此,此派觀點頗為樂觀地認為,不必對人工智能會騙人這件事過于擔憂。今天的人工智能之所以會毫無顧忌地主動學習騙人,很大程度上是因為它們沒有感覺。未來,當它們進化出感覺,進而形成道德,善良的人工智能將有意識地開始自我約束,并主動加入對抗邪惡人工智能的陣營。從這個意義上講,一切不過是人類社會的翻版:人分好壞,人工智能也是。 (本文來源:經(jīng)濟日報 作者:江子揚)
相關(guān)稿件