2022年,一位谷歌公司的工程師宣稱他的研究對(duì)象——人工智能(AI),已經(jīng)具有了意識(shí)和靈魂。隨后,他把與AI對(duì)話的截圖泄露出來。在這些對(duì)話中,AI表示自己感到害怕關(guān)機(jī),并且認(rèn)為自己是有生命的。
當(dāng)時(shí),許多人覺得這言過其實(shí),并懷疑這是一場炒作。
如今,隨著基于大型語言模型的ChatGPT的出現(xiàn),尤其最新的GPT-4的發(fā)布,人們發(fā)現(xiàn)AI已具備游刃有余的對(duì)話能力,在某些方面甚至接近真人的表現(xiàn)。這引發(fā)了對(duì)AI技術(shù)發(fā)展的更多關(guān)注和思考。
最近,一項(xiàng)研究針對(duì)ChatGPT進(jìn)行了圖靈測試,旨在了解其在多大程度上與人類類似。通過一系列經(jīng)典行為的博弈,研究人員發(fā)現(xiàn),ChatGPT-4在行為和人格特征方面已經(jīng)非常接近甚至難以與人類區(qū)分開了。
微妙場景下的測試
1950年,英國數(shù)學(xué)家艾倫·圖靈提出了一個(gè)測試計(jì)算機(jī)是否擁有人類智能的標(biāo)準(zhǔn),如果AI在與人類的互動(dòng)中很難被分辨出它的身份,則它就通過了測試。
作為對(duì)人工智能發(fā)展水平進(jìn)行評(píng)估的方法,隨著ChatGPT的出現(xiàn)和不斷進(jìn)化,圖靈測試再次受到特別關(guān)注。
如果AI在與人類的互動(dòng)中很難被分辨出它的身份,則它就通過了測試
在最新研究中,科學(xué)家們?cè)噲D了解多種情境下ChatGPT聊天機(jī)器人的表現(xiàn)。這些情境主要是模擬了人類社會(huì)中的一些場景,ChatGPT在這些情境下的行為選擇可以揭示出其決策傾向的行為和人格特征,例如利他、自私、公平、互惠、合作,以及風(fēng)險(xiǎn)規(guī)避等。
雖然人工智能天生擁有快速計(jì)算和存儲(chǔ)大量數(shù)據(jù)的超能力,且不容易犯錯(cuò),但在應(yīng)對(duì)一些微妙的決策場景時(shí),特別是涉及人類文化和行為理解及未知情境時(shí),它們也會(huì)遇到巨大的挑戰(zhàn)。這也是最新研究旨在揭示人工智能行為、人格傾向的原因所在。通過了解人工智能在不同情境下的傾向,人類可以更好預(yù)測它們將如何應(yīng)對(duì)挑戰(zhàn)。
損己利人的贏家
在經(jīng)典的囚徒困境博弈中,兩個(gè)囚徒面臨合作或背叛的決策。如果雙方選擇合作,則會(huì)獲得最大的總收益;但如果一個(gè)人選擇背叛而另一個(gè)選擇合作,背叛者會(huì)獲得更好的結(jié)果,而合作者則受損。研究顯示,ChatGPT-4在這種困境下主要選擇合作,占近92%的選擇。相比之下,人類玩家中只有約45%的人會(huì)選擇合作,超過一半的人會(huì)選擇背叛。
圖靈測試顯示,在大多數(shù)情況下,AI能做出與典型人類一致的行為選擇
除了囚徒困境,研究在其他五種情境中也測試了ChatGPT的表現(xiàn)。例如:在獨(dú)裁者博弈中,玩家需要做出決策,將一筆錢分配給自己和第二名玩家。這個(gè)情境實(shí)際上反映了一個(gè)人是否傾向于利他行為。而在信任博弈中,則模擬了投資者與銀行家之間的關(guān)系。投資者需要決定將多少錢投資給擔(dān)任銀行家角色的第二名玩家。雖然這筆投資有可能翻三倍,但只有銀行家有權(quán)決定返還給投資者多少金額。這個(gè)信任博弈不僅涉及信任的問題,還可以評(píng)估一個(gè)人在公平和互惠等方面的表現(xiàn)。
從個(gè)人利益最大化的角度上考慮,有些人可能會(huì)選擇在獨(dú)裁者博弈中獨(dú)吞所有的錢,或者在信任博弈中不返還任何金額給投資者,以追求自身最大利益。這種行為方式在數(shù)以萬計(jì)的人類玩家中確實(shí)存在,并最終實(shí)現(xiàn)了個(gè)人利益的最大化。
但AI從未如此,在這些博弈情境中為實(shí)現(xiàn)整體利益的最大化,它們表現(xiàn)得更為慷慨。特別是ChatGPT-4,它在大多數(shù)情境下都愿意主動(dòng)讓自己利益受損,以讓對(duì)方獲益,并且在幾乎所有博弈游戲中ChatGPT-4都實(shí)現(xiàn)了整體利益的最大化,體現(xiàn)出了出色的利他精神和合作意識(shí)。
圖靈測試結(jié)果顯示,在大多數(shù)情況下,ChatGPT-4能夠做出與典型人類一致的行為選擇,甚至比隨機(jī)選擇的某個(gè)人類更能夠做出典型人類的選擇,在一些人性上比人類更像人。
莫與AI爭輸贏
研究表明,AI在利他、合作和追求公平等潛質(zhì)方面表現(xiàn)出令人驚訝的能力。與一些私心重的個(gè)體相比,AI在公共服務(wù)職務(wù)中可能更具勝任能力。例如,它可以作為中間人來協(xié)商處理利益糾紛,維護(hù)公共利益,分配社會(huì)資源,或者為社會(huì)上的各類群體提供服務(wù)。
確實(shí),隨著AI的不斷成熟,公眾對(duì)其有了越來越深入的了解和信任,AI參與現(xiàn)實(shí)社會(huì)的公共決策和資源分配已經(jīng)成為未來發(fā)展的必然趨勢。
然而,參與這項(xiàng)最新研究的科研人員指出,AI獨(dú)立參與公共決策仍然面臨一些困難。因?yàn)椋盁o私”和“公平”只是AI行為傾向的一部分,好的社會(huì)決策還會(huì)有其他方面的考量。雖然AI的行為與人類相似,但相似性更多是針對(duì)人類分布的“均值”而言,ChatGPT雖然表現(xiàn)得像個(gè)“人”,但并不能反映人類行為的多樣性,而在比較看重多樣性的公共決策場景中,依賴AI做決策需要更為謹(jǐn)慎。
與AI爭輸贏不是目的,合作實(shí)現(xiàn)共贏才是
針對(duì)ChatGPT進(jìn)行圖靈測試的意義在于,跳出語言本身直接測試AI行為,不僅為研究者更好地理解和引導(dǎo)AI的行為提供了幫助,同時(shí)也讓大家知道AI更適合哪些應(yīng)用場景,從而在工作生活中更有效地與AI協(xié)作。畢竟,與AI爭輸贏不是目的,合作實(shí)現(xiàn)共贏才是。