版權(quán)歸原作者所有,如有侵權(quán),請(qǐng)聯(lián)系我們

“人工智能,有必要像人類一樣嗎?”

學(xué)術(shù)頭條
一起見(jiàn)證人類探索征途上的每一個(gè)重大突破。
收藏

機(jī)器會(huì)思考嗎?人工智能可以像人類一樣聰明嗎?

一項(xiàng)最新研究表明,人工智能或許可以做到了。

在一項(xiàng)非語(yǔ)言圖靈測(cè)試中,意大利技術(shù)研究院 Agnieszka Wykowska 教授領(lǐng)銜的研究團(tuán)隊(duì)發(fā)現(xiàn),類人行為變異性(Behavioral variability)可以模糊人與機(jī)器之間的區(qū)別,即可以幫助機(jī)器人看起來(lái)更像人類。

具體來(lái)說(shuō),他們的人工智能程序在與人類隊(duì)友玩有關(guān)形狀和顏色匹配的游戲時(shí),模擬了人類反應(yīng)時(shí)間的行為變異性,通過(guò)了非語(yǔ)言圖靈測(cè)試。

相關(guān)研究論文以“Human-like behavioral variability blurs the distinction between a human and a machine in a nonverbal Turing test”為題,已發(fā)表在科學(xué)期刊 Science Robotics 上。

研究團(tuán)隊(duì)表示,這一工作可以為未來(lái)的機(jī)器人設(shè)計(jì)提供指導(dǎo),賦予機(jī)器人具有人類可以感知的類似人類的行為。

對(duì)于這一研究,林雪平大學(xué)認(rèn)知系統(tǒng)教授 Tom Ziemke 和博士后研究員 Sam Thellman 認(rèn)為,研究結(jié)果“模糊了人與機(jī)器之間的區(qū)別”,為人們對(duì)人類社會(huì)認(rèn)知的科學(xué)理解等方面做出了非常有價(jià)值的貢獻(xiàn)。

但是,“人類相似性不一定是人工智能和機(jī)器人技術(shù)發(fā)展的理想目標(biāo),讓人工智能不那么像人類可能是一種更加明智的做法。****”

圖片

通過(guò)圖靈測(cè)試

1950 年,“計(jì)算機(jī)科學(xué)與人工智能之父”艾倫·圖靈(Alan Turing)提出了一種用于判定機(jī)器是否具有智能的測(cè)試方法,即圖靈測(cè)試。

圖靈測(cè)試的關(guān)鍵思想是,有關(guān)機(jī)器思維和智能可能性的復(fù)雜問(wèn)題,可以通過(guò)測(cè)試人類是否能夠分辨出他們是在與另一個(gè)人還是與一臺(tái)機(jī)器在交互來(lái)驗(yàn)證。

如今,圖靈測(cè)試被科學(xué)家用來(lái)評(píng)估應(yīng)該在人工智能體上實(shí)現(xiàn)什么樣的行為特征,才能使人類不可能將計(jì)算機(jī)程序和人類行為區(qū)分開(kāi)。

人工智能先驅(qū)司馬賀(Herbert Simon)就曾表示:“如果程序表現(xiàn)出的行為類似于人類表現(xiàn)出來(lái)的,那我們就稱它們是智能的?!?/strong> 類似地,Elaine Rich 將人工智能定義為“研究如何讓計(jì)算機(jī)去做目前人做得更好的事情”。

而非語(yǔ)言圖靈測(cè)試,是圖靈測(cè)試的一種形式。對(duì)于人工智能來(lái)說(shuō),通過(guò)非語(yǔ)言圖靈測(cè)試并不容易,因?yàn)樗鼈冊(cè)跈z測(cè)和區(qū)分其他人(物體)的微妙行為特征方面,表現(xiàn)得并不像人類那樣熟練。

那么,一個(gè)類人機(jī)器人是否能夠通過(guò)非語(yǔ)言圖靈測(cè)試,在其物理行為中體現(xiàn)人類特征呢?

在非語(yǔ)言圖靈測(cè)試中,研究團(tuán)隊(duì)試圖搞清楚能否通過(guò)編程讓人工智能在類似于人類行為變異的范圍內(nèi)改變反應(yīng)時(shí)間,從而被視為人類。為了做到這一點(diǎn),他們將人類和機(jī)器人安排在一個(gè)屏幕上有不同顏色、形狀的房間里。

圖片

圖|機(jī)器人與人類共同執(zhí)行任務(wù)。(來(lái)源:該論文)

當(dāng)形狀或顏色改變時(shí),參與者就會(huì)按下按鈕,而機(jī)器人則通過(guò)點(diǎn)擊屏幕上顯示的相反顏色或形狀來(lái)響應(yīng)這一信號(hào)。

圖片

圖|通過(guò)按下按鈕來(lái)響應(yīng)(來(lái)源:該論文)

在測(cè)試過(guò)程中,機(jī)器人有時(shí)由人類遠(yuǎn)程控制,有時(shí)由被訓(xùn)練模仿行為變異性的人工智能控制。

圖片

圖|參與者被要求判斷機(jī)器人行為是預(yù)先編程的還是由人類控制的(來(lái)源:該論文)

結(jié)果表明,參與者可以很容易地分辨出機(jī)器人何時(shí)是被另一個(gè)人操作的。

但是,當(dāng)機(jī)器人被人工智能操作時(shí),參與者猜錯(cuò)的概率卻超過(guò)了 50%。

圖片

圖|圖靈測(cè)試的平均準(zhǔn)確率。(來(lái)源:該論文)

這就意味著,他們的人工智能通過(guò)了非語(yǔ)言圖靈測(cè)試。

但是,研究人員也表示,類人行為的可變性可能只是通過(guò)實(shí)體人工智能的非語(yǔ)言圖靈測(cè)試的一個(gè)必要不充分條件,因?yàn)樗谌祟惌h(huán)境中也可以表現(xiàn)出來(lái)。

圖片

人工智能,有必要像人類一樣嗎?

長(zhǎng)期以來(lái),人工智能研究一直將人類相似性作為目標(biāo)和衡量標(biāo)準(zhǔn),Wykowska 團(tuán)隊(duì)的研究證明,行為變異性或許可以用來(lái)讓機(jī)器人更像人類。

Ziemke 等人卻認(rèn)為讓人工智能不那么像人類可能是一種更加明智的做法,并以自動(dòng)駕駛汽車和聊天機(jī)器人兩個(gè)案例做了闡述。

比如,當(dāng)你在馬路上準(zhǔn)備穿過(guò)人行橫道時(shí),看到一輛汽車正在接近你,從遠(yuǎn)處看,你可能無(wú)法判斷它是否是一輛自動(dòng)駕駛汽車,所以你只能根據(jù)汽車的行為來(lái)判斷。

圖片

(來(lái)源:Pixabay)

但是,即使你看到有人坐在方向盤前面,你也不能確定這個(gè)人是在主動(dòng)控制車輛,還是僅僅在監(jiān)控車輛的行駛操作。

“這對(duì)交通安全有著非常重要的影響,如果自動(dòng)駕駛汽車不能向其他人表明它是否處于自動(dòng)駕駛模式,可能就會(huì)導(dǎo)致不安全的人機(jī)互動(dòng)?!?/strong>

也許有些人會(huì)說(shuō),理想情況下,你并不需要知道一輛車是不是自動(dòng)駕駛,因?yàn)閺拈L(zhǎng)遠(yuǎn)來(lái)看,自動(dòng)駕駛汽車可能比人類更擅長(zhǎng)駕駛。但是,目前而言,人們對(duì)自動(dòng)駕駛汽車的信任還遠(yuǎn)遠(yuǎn)不夠。

聊天機(jī)器人,則是更接近圖靈最初測(cè)試的現(xiàn)實(shí)場(chǎng)景。許多公司在他們的在線客戶服務(wù)中使用聊天機(jī)器人,其中的對(duì)話話題和互動(dòng)方式相對(duì)有限。在這種情況下,聊天機(jī)器人通?;蚨嗷蛏倥c人類沒(méi)有區(qū)別。

圖片

(來(lái)源:Pixabay)

那么,問(wèn)題就來(lái)了,企業(yè)是否應(yīng)該將聊天機(jī)器人的非人類身份告訴客戶呢?一旦告訴了,往往會(huì)導(dǎo)致消費(fèi)者產(chǎn)生負(fù)面反應(yīng),比如信任下降。

正如上述案例所說(shuō)明的那樣,雖然從工程學(xué)的角度來(lái)看,類人行為可能是一項(xiàng)令人印象深刻的成就,但人機(jī)的不可區(qū)分性卻帶來(lái)了明顯的心理、倫理和法律問(wèn)題。

一方面,與這些系統(tǒng)交互的人必須知道他們所交互的內(nèi)容的性質(zhì),以避免欺騙。以聊天機(jī)器人為例,美國(guó)加州自 2018 年起就制定了聊天機(jī)器人信息披露法,明確披露是一項(xiàng)嚴(yán)格的要求。

另一方面,還有比聊天機(jī)器人和人類客服更無(wú)法區(qū)分的例子。例如,當(dāng)涉及到自動(dòng)駕駛時(shí),自動(dòng)駕駛汽車和其他道路用戶之間的交互并沒(méi)有同樣明確的起點(diǎn)和終點(diǎn),它們通常不是一對(duì)一的,而且它們有一定的實(shí)時(shí)約束。

因此,問(wèn)題在于,關(guān)于自動(dòng)駕駛汽車的身份和能力,應(yīng)該在何時(shí)、以何種方式來(lái)傳達(dá)。

此外,完全自動(dòng)化的汽車可能還需要幾十年的時(shí)間才能出現(xiàn)。因此,在可預(yù)見(jiàn)的未來(lái),混合交通和不同程度的部分自動(dòng)化可能會(huì)成為現(xiàn)實(shí)。

關(guān)于自動(dòng)駕駛汽車可能需要以什么樣的外部接口來(lái)與人交流,已有很多研究。然而,人們對(duì)于兒童、殘疾人等弱勢(shì)道路使用者實(shí)際上能夠和愿意應(yīng)對(duì)的復(fù)雜性,還知之甚少。

因此,上述的一般規(guī)則,即“與這樣的系統(tǒng)交互的人必須被告知交互對(duì)象的性質(zhì)”,可能只有在更明確的情況下才有可能遵循。

同樣,這一矛盾心理也反映在社交機(jī)器人研究的討論中:鑒于人類傾向于將精神狀態(tài)擬人化并賦予其類似人類的屬性,許多研究人員旨在讓機(jī)器人在外觀和行為上更像人類,這樣它們就可以或多或少地以類似人類的方式進(jìn)行互動(dòng)。

然而,也有人認(rèn)為,機(jī)器人應(yīng)該很容易被識(shí)別為機(jī)器,以避免過(guò)度擬人化的屬性和不切實(shí)際的期望。

“因此,更明智的做法可能是利用這些發(fā)現(xiàn)讓機(jī)器人變得不那么像人類?!?/p>

在人工智能的早期,模仿人類可能是一個(gè)業(yè)內(nèi)的共同目標(biāo),“但在人工智能已經(jīng)成為人們?nèi)粘I畹囊徊糠值慕裉欤覀冎辽傩枰伎迹?strong>在什么方向努力實(shí)現(xiàn)類似人類的人工智能才真正有意義”。

參考鏈接:

https://www.science.org/doi/10.1126/scirobotics.abo1241

https://www.science.org/doi/10.1126/scirobotics.add0641

學(xué)術(shù)頭條

評(píng)論
科普科普知識(shí)的搖籃!
大學(xué)士級(jí)
機(jī)器人智能的發(fā)展是科學(xué)家們智慧的結(jié)晶,逐漸運(yùn)用到各種領(lǐng)域。
2022-07-29
熱愛(ài)科普的俊哥
庶吉士級(jí)
人工智能的發(fā)展不可估量。
2022-07-28
科普 鄉(xiāng)村星藝
太師級(jí)
機(jī)器人應(yīng)該很容易被識(shí)別為機(jī)器,以避免過(guò)度擬人化的屬性和不切實(shí)際的期望
2022-07-29