版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

AI能否與人類價值對齊?專家認(rèn)為“非常有吸引力”但現(xiàn)階段做不到

科普平羅
通過視頻、圖文等方式,向公眾傳播科學(xué)理論、科普知識
收藏

12月16日,在由復(fù)旦大學(xué)主辦的“2023科技倫理高峰論壇”上,多所高校的學(xué)者圍繞數(shù)字技術(shù)時代,中國科技倫理的理論與實踐問題進行探討。

AI“價值對齊”可能嗎?

如何將人類的規(guī)范、道德、價值接入AI系統(tǒng)?是否能實現(xiàn)人工智能與人類的價值對齊?中國科學(xué)院大學(xué)教授、中國科學(xué)院科技戰(zhàn)略咨詢研究院研究員李真真在論壇上表示,AI的“價值對齊”可理解為使人工智能的價值體系和人類的價值觀相一致。

近年來,人們一直十分關(guān)注人工智能的價值對齊問題與人機倫理關(guān)系,尤其是生成式AI的出現(xiàn),再次喚起人類對人機倫理關(guān)系的關(guān)注。

目前,許多將“價值對齊”概念納入AI大模型的研發(fā)實踐,也表現(xiàn)出將AI置于人類可控范圍內(nèi)的價值目標(biāo),但實施價值對齊仍然面臨很大的挑戰(zhàn)。有學(xué)者認(rèn)為,AI的價值對齊是一種AI的社會化進程,就像一個人類兒童成長的過程,AI也要學(xué)習(xí)并遵守社會價值規(guī)范。

李真真認(rèn)為,這種說法“非常有吸引力”但現(xiàn)階段做不到,因為AI和人類的思維方式并不相同,它只是模仿了人類的理性思維方式而不具有感性思維。人類文明的開化始于愛,得益于情感、意志、情緒和經(jīng)驗等方面的自然交互,而目前,在擁有自身的自由意志之前,AI并不具有這些屬性。

李真真還提到,要實現(xiàn)AI價值對齊需要具備兩個前提條件。一是在人機關(guān)系中,人要處于主導(dǎo)地位,因為人類受到法律和道德的約束。然而,道德實際上是最大公約化的價值共識,它的本質(zhì)是“空洞”的,具象化的道德依據(jù)個體差異而不同。如何給智能機器進行道德編碼,這還需要技術(shù)人員與社科學(xué)者的進一步探索。其次,要明確人類對AI的需求與目標(biāo),明確是要設(shè)計通用型AGI還是解決特定問題的AI系統(tǒng),這也是一種規(guī)避大規(guī)模風(fēng)險的方式。

當(dāng)人類忽略螞蟻的時候,超級智能為什么要聽人類的?

“現(xiàn)在人工智能的實存風(fēng)險是什么?在我看來,當(dāng)人工智能進入社會的時候,它會以一種非常不合適的方式在誤導(dǎo)公眾。”被評為“全球百大AI人物”之一的中國科學(xué)院自動化研究所研究員、人工智能倫理與治理中心主任曾毅表示。

曾毅說,當(dāng)我們在問生成式AI“你對某某問題怎么看”的時候,它所回復(fù)的“我認(rèn)為/我建議/我覺得”只是依據(jù)統(tǒng)計到的信息的顯著性做出的呈現(xiàn)。有的公眾就會認(rèn)為,AI的回復(fù)就像一個“朋友”,像一位“長者”,但它本身并非一個道德的主體,更不是一個負(fù)責(zé)任的主體,迄今為止沒有任何一個AI能夠負(fù)責(zé)任,目前階段一定是人在為人工智能負(fù)責(zé)任。作為人工智能的工作者,應(yīng)當(dāng)做到技術(shù)上不要誤導(dǎo)公眾。

曾毅回憶起大一上人工智能課程時,老師給他們放的斯皮爾伯格《人工智能》影片里的一句臺詞:“如果機器人真的能愛一個人,這個人對機器人又該負(fù)有什么責(zé)任?” 如果影片成為現(xiàn)實,在人工智能演化成“超級智能”的時代,我們應(yīng)該怎么和超級智能共處?

曾毅提出一個有趣的類比。當(dāng)我們在網(wǎng)上搜索“人與螞蟻的關(guān)系”時,800條搜索結(jié)果中,799條在講的是世界各地的人用不同的方式吃螞蟻,只有一條講到“螞蟻的合作范式是人類合作范式的典范”。

“當(dāng)人類忽略螞蟻的時候,超級智能為什么要聽人類的?”曾毅說,“如果我是超級智能,我會問人類,當(dāng)你都不尊重其他生命的存在的時候,我作為一個認(rèn)知能力全面超越你的智能體,為什么要尊重你的存在?”

曾毅認(rèn)為,未來我們并非要將人工智能與人類進行價值對齊(alignment),而是一種價值協(xié)調(diào)(coordination)。面對超級智能,人類社會的價值觀需要調(diào)整和演化,“我們要從人類中心主義變成生態(tài)中心主義(ecology centrism),這是必須做出的變化?!?/p>