隨著GPT等大語言模型與人類關系越來越密切,AI也表現出與人類更相似的行為甚至個性。如何更好地理解AI行為,從而更好地與之相處?近日,受《美國科學院院刊》(PNAS)邀請,北京大學光華管理學院孟涓涓教授對探索ChatGPT與人類行為相似性的研究(Mei et al. 2024)展開評論。
孟涓涓表示,AI行為科學成為新前沿,有助于輔助人類決策和設計去偏見機制。隨著大語言模型展現出更廣泛的人類行為特征,它們不僅能在決策中模仿人類行為,還能在實驗中替代人類參與者,為政策評估和調整提供經濟有效的手段。當然,它們也會對人類心智和社會關系產生不確定的影響。
當前,隨著大語言模型(LLM)特別是生成式預訓練轉換器(GPT)驅動的應用程序廣泛傳播,AI越來越多地表現出人類特性,比如AI模型對風險、時間和社交互動產生了明確偏好,甚至會產生獨特的個性和看似情緒化的反應,這些現象引發(fā)了學術界的好奇心,一些近期的研究探索了ChatGPT的理性程度(Chen et al. 2023)和認知能力(Binz et al. 2023)。
Mei et al. (2024)將經濟學和心理學的經典行為評估方法應用于探索ChatGPT-3和ChatGPT-4等AI聊天機器人的行為特征。該研究使用了一個特征數據庫,囊括了來自50多個國家108314個人類主題的綜合行為,實現了人類和AI決策之間的比較。
孟涓涓表示,這些研究標志著一個新的研究方向的出現,可以稱之為“AI行為科學”,即利用人類行為科學的方法來評估和設計AI的行為。采用行為科學方法研究AI時,應該保持以人為中心的視角。
研究AI行為有何意義?
談及研究AI行為的意義,孟涓涓列舉了以下三個方面:
首先,理解AI尤其是大語言模型的行為,可以更好地輔助人類決策。在大語言模型出現之前,一個常見的現象是“算法厭惡”:例如人們不愿接受算法作為勞動者,或排斥在消費時與AI聊天機器人互動,這種傾向源于人類的過度自信、對AI能力的懷疑或對與算法互動的本能抵觸。這對發(fā)揮AI潛力幫助人類決策構成了挑戰(zhàn)。然而,隨著AI在大語言模型出現后開始更接近地模仿人類行為,算法厭惡的傾向可能已經開始減弱。為了讓人們能夠有信心將他們的選擇交給大語言模型,這些模型需要在關鍵決策中表現出與人相似的行為。因此,讓大語言模型的偏好與基本的人類行為特征一致是至關重要的。
其次,行為經濟學已經證明,人們經常表現出行為偏誤,設計助推或選擇架構機制來糾正這些行為偏誤是行為科學和政策設計中的一個開創(chuàng)性主題。利用大語言模型消除偏誤是技術進步帶來的新可能性,或比現有的方法更系統(tǒng)化。人們不需要一步一步地被推著做出決策,只需要一次性把決策委托給大語言模型,就能做出更系統(tǒng)、更好的選擇。事實上,目前的證據表明,ChatGPT在選擇一致性方面表現出比人類更高的理性水平,這也成為一個值得探索的新方向。
此外,大語言模型可以在實驗中替代人類參與者,扮演不同背景的個體進行政策實驗或模擬。這使得政策的評估和調整更加經濟有效。隨著大語言模型表現出更廣泛的人類行為特征,也可以設計出基于異質反應的個性化政策。
如何應用行為科學方法研究AI?
“采用行為科學方法來研究人工智能時應該建立一個全面的行為評估框架,其中需要包含適用于重要決策環(huán)境的行為特征維度?!泵箱镐刚f,“例如,如果目標是讓大語言模型協助資產配置決策,那么識別影響此類背景的行為特征就至關重要。”
孟涓涓介紹,Mei et al. (2024)主要采用了一個經濟學的框架,將重要的決策背景分為兩種類型:個人決策和人際決策。
從經濟學的角度來看,個人決策通常分為四種情境:直接消費選擇(例如選擇蘋果還是香蕉)、在不確定性下的選擇、跨期選擇和概率判斷(包括信念更新和學習)。這幾類情境支撐了人們經常做出的大多數決策。對于每種情境,經濟學家都會識別出驅動這些決策的基本行為特征。例如,不確定性下的選擇在很大程度上受到風險偏好和損失厭惡的影響。對于跨期選擇,一個人的耐心水平起著重要的作用,沖動的決策或拖延也經常影響這些選擇。對于概率判斷,根據信息形成準確的信念是至關重要的。這一過程中的常見偏誤包括信息回避、先入為主和過度自信。
在這一方向上,Mei et al. (2024)采用了一種掃雷游戲來測量風險偏好,他們的圖靈測試比較了GPT和人類的決策,結果顯示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情況下,GPT的選擇看起來與人類相似。然而,與人類規(guī)避風險的傾向不同,GPT主要表現出風險中立性。有趣的是,ChatGPT-3似乎能夠從過去的損失中學習,變得更加謹慎,而ChatGPT-4則不然。這種變化是否來自對未來風險水平判斷的改變,或來自某種形式的路徑依賴偏好,仍有待進一步研究。
人際決策涉及到如利他主義、信任、互惠、社會從眾和戰(zhàn)略考量等社交偏好。孟涓涓進一步介紹,Mei et al. (2024)在研究人機決策時通過幾個游戲(包括獨裁者游戲、最后通牒游戲、信任游戲、公共物品游戲和有限重復囚徒困境游戲等),來研究GPT是否表現出如利他主義、不平等厭惡、信任和互惠等偏好。一個值得注意的發(fā)現是,GPT在這些游戲中一致地表現出比人類更高的慷慨程度,表現出更強的利他主義和合作傾向。然而,ChatGPT-4的慷慨并非是無條件的,它確實展現出了一定程度的策略思考,在有限重復的囚徒困境游戲中使用了以牙還牙的策略。
孟涓涓表示,采用行為科學方法研究人工智能涉及兩項任務:
第一項是基于特定框架的AI行為評估。這類框架使用包含數值偏好參數的數值模型,在統(tǒng)一結構中捕捉行為特征。這項任務中一個重要的探索方向是結構估計方法,即以建模的方式揭示潛在偏好參數。Mei et al. (2024)以估計一個人與另一個人收益之間的權重函數為例來證明這種方法,他們發(fā)現AI通常給予他人的權重大約是0.5,這比人類通常的做法要多。對此,孟涓涓認為,這個估計值有助于預測AI在不同場景(如團隊合作或企業(yè)社會責任等涉及利他主義的場景)中的行為。這種跨情境預測的能力來自于在結構模型中估計基本行為參數,使AI能夠在各種情況下輔助人類做出決策。
第二個任務是設計AI行為。Mei et al. (2024)自然地引出了一些問題,例如為什么ChatGPT 4.0表現出比人類更慷慨的行為,以及為什么它似乎與ChatGPT 3.0有所不同。鑒于當前訓練過程的不透明性,為這些問題提供明確的答案是具有挑戰(zhàn)性的。因此,孟涓涓表示,未來一個有趣的研究方向有可能是:探索如何訓練大語言模型以表現出特定的行為特征。將捕捉基本行為參數的結構引入到訓練過程中或許是方法之一。設計AI行為的其他可能途徑包括調整獎勵函數,在訓練過程中引入明確的規(guī)則或約束,或者對表現出所需行為的數據進行模型訓練。找到設計人工智能行為的最有效方法是一項復雜的挑戰(zhàn),需要計算機科學家和行為科學家緊密合作。
AI發(fā)展會對人類心智和社會關系產生何種影響?
孟涓涓表示,采用行為科學方法來研究人工智能,有助于使人工智能更快更自然地融入人類社會。然而,人工智能的發(fā)展也可能會影響人類行為和社會文化。
首先,算法偏見是一個主要問題,因為它會影響人類的決策。當算法受到利潤最大化的商業(yè)動機的驅動,從而強化人類已存在的偏見時,就會出現更復雜的問題。例如,社交媒體上的個性化推薦系統(tǒng)可能會加劇人們對證實其現有信念的信息的偏見,導致極端化。Levy (2021)發(fā)現,這些系統(tǒng)對Facebook回聲室效應的貢獻率為40%,而個人訂閱的貢獻率則為27%。
其次,過度依賴諸如GPT之類的人工智能,可能會導致人類在多個方面出現認知退化。由于AI能夠迅速提供解決方案,人們的探索欲、創(chuàng)造性和獨立思考能力可能會下降。更重要的是,由于人工智能提供的觀點往往比較集中,人們的行為特征可能變得更加同質化。Mei et al. (2024)發(fā)現GPT的行為明顯比人類的反應更同質化,ChatGPT-4的決策比ChatGPT-3更集中。這種多樣性的缺乏可能在進化角度對人類不利,可能會降低人類應對風險的能力。
第三,盡管存在潛在缺點,但AI也可以對人類行為產生積極影響,例如增強人們的平等觀念。研究顯示 ,ChatGPT-4普遍表現出比人類更多的利他行為。更廣泛地說,大語言模型可以在勞動力市場上顯著縮小“外行”和“專家”之間的表現差距,使機會更加平等;在消費市場上,隨著AI產品變得更加實惠,它們可能有助于構建更加平等的社會。例如,大語言模型驅動的個性化教育可以使農村地區(qū)的學生接觸到以前只有城市孩子才能接觸到的一流教育資源,也許會培養(yǎng)出更加平等的世界觀。
(孟涓涓,北京大學光華管理學院應用經濟系系主任、教授)
相關稿件