在大眾的認(rèn)知中,人類的思維分為系統(tǒng) 1(System 1,直覺的、快速的、無意識(shí)的、自動(dòng)思考)和系統(tǒng) 2(System 2,有邏輯的、緩慢的、有意識(shí)的、計(jì)劃和推理)。
如今,一種不同于 System 1 和 System 2 的新思維 System 0(系統(tǒng) 0)出現(xiàn)了。
系統(tǒng) 0 不屬于人類思維,但能夠增強(qiáng)人類的認(rèn)知能力,由人類在與人工智能(AI)系統(tǒng)互動(dòng)的過程中產(chǎn)生。
在一篇發(fā)表在 Nature Human Behaviour 上的 Correspondence 專欄文章中,科學(xué)家們首次定義了系統(tǒng) 0 的概念。
“AI 工具迅速融入我們的日常生活,正在重塑我們的思維和決策方式。我們認(rèn)為,數(shù)據(jù)驅(qū)動(dòng)的 AI 系統(tǒng)超越了單個(gè)人工制品,與一個(gè)動(dòng)態(tài)的多人工制品生態(tài)系統(tǒng)交互,構(gòu)成了一個(gè)獨(dú)特的心理系統(tǒng)。我們將其稱為系統(tǒng) 0。”
他們?cè)谖恼轮兄赋?,系統(tǒng) 0 提供了大量信息和快速反饋,使得用戶可以更高效地處理和分析數(shù)據(jù),增強(qiáng)了人類的思維能力,并探討了系統(tǒng) 0 對(duì)自主性、批判性思維和倫理的潛在影響。
系統(tǒng) 0:對(duì)人類認(rèn)知的一種擴(kuò)展
人類與 AI 系統(tǒng)的不斷交互,促使了系統(tǒng) 0 概念的形成。
與操作于個(gè)體大腦內(nèi)部的系統(tǒng) 1 和系統(tǒng) 2 不同,系統(tǒng) 0 形成了一種人工、非生物的底層分布式智能層,既與直覺性思維交互,也增強(qiáng)了分析性思維過程。它通過與人類互動(dòng),成為輔助直覺性思維(系統(tǒng) 1)和分析性思維(系統(tǒng) 2)的基礎(chǔ)。
文章指出,系統(tǒng) 0 是對(duì)人類認(rèn)知的一種擴(kuò)展,這一觀點(diǎn)基于 Clark 和 Chalmers 的“延展心靈假說”。系統(tǒng) 0 滿足 Heersmink 定義的認(rèn)知擴(kuò)展標(biāo)準(zhǔn),包括信息流、可靠性、耐久性、信任、程序透明性、信息透明性、個(gè)性化和認(rèn)知轉(zhuǎn)變。
另外,系統(tǒng) 0 可以與系統(tǒng) 1 和系統(tǒng) 2 配合,通過提供快速、高效的信息處理和個(gè)性化反饋,增強(qiáng)人類的思維能力。例如,系統(tǒng) 0 可幫助處理復(fù)雜的決策任務(wù),尤其是在數(shù)據(jù)分析或重復(fù)性高的工作中,它通過加速信息處理,減少人類思維的負(fù)擔(dān)。
然而,盡管系統(tǒng) 0 在信息處理上表現(xiàn)出色,但它自身并不具備固有的意義建構(gòu)能力——這仍需要系統(tǒng) 1 和系統(tǒng) 2 的人類判斷和解讀。這意味著系統(tǒng) 0 的作用更多是為傳統(tǒng)的認(rèn)知過程提供輔助,而非替代。
風(fēng)險(xiǎn):人類失去自主權(quán)與批判性思維
文章特別指出,系統(tǒng) 0 并非毫無風(fēng)險(xiǎn),對(duì)其過于依賴可能導(dǎo)致人類失去自主思考能力。隨著越來越多的日常任務(wù)被 AI 接管,人類可能逐漸放棄獨(dú)立決策,從而過于依賴 AI 提供的答案和建議。
而且,如果人類不再質(zhì)疑 AI 提供的答案和建議,這種無意識(shí)的信任極有可能削弱創(chuàng)新精神、降低人們的批判性思維能力。例如,在內(nèi)省領(lǐng)域,當(dāng) AI 系統(tǒng)根據(jù)數(shù)據(jù)生成關(guān)于個(gè)體心理狀態(tài)的分析時(shí),雖然這些分析可能基于海量信息,但它們并不能替代人類的主觀體驗(yàn)。一旦人類逐漸將自我反思交給 AI 系統(tǒng)處理,這可能侵蝕人們獨(dú)特的內(nèi)省能力,進(jìn)而影響人們對(duì)自我和現(xiàn)實(shí)的理解。
此外,隨著 AI 生成數(shù)據(jù)的廣泛應(yīng)用,信息的真實(shí)性和可靠性問題也日益突出。系統(tǒng) 0 處理的許多數(shù)據(jù)可能是合成的或經(jīng)過處理的,如果這些合成數(shù)據(jù)被廣泛使用且缺乏質(zhì)疑,人們可能會(huì)逐漸偏離對(duì)真實(shí)世界的認(rèn)識(shí)。
事實(shí)上,自主性降低已經(jīng)成為系統(tǒng) 0 面臨的一大倫理挑戰(zhàn)。
另一個(gè)潛在的倫理挑戰(zhàn)是責(zé)任歸屬問題,即人們是否應(yīng)該為自己基于 AI 的決策負(fù)責(zé)?如果人們沒有能力質(zhì)疑或理解 AI 的處理過程,如何確?;谶@些 AI 建議的決策不會(huì)偏離道德規(guī)范或違背人類價(jià)值觀?
在這一情境下,研究團(tuán)隊(duì)指出,制定負(fù)責(zé)任和合倫理的 AI 決策流程使用指南至關(guān)重要。此外,他們還積極鼓勵(lì)開展關(guān)于 AI 增強(qiáng)認(rèn)知的倫理影響及其對(duì)人類自主性和決策潛在影響的公共對(duì)話。
總而言之,在看到系統(tǒng) 0 能為人們提供強(qiáng)大認(rèn)知支持的同時(shí),我們不可忽視盲目信任它可能會(huì)導(dǎo)致的削弱獨(dú)立思考能力與自主權(quán)的風(fēng)險(xiǎn)。在未來,我們需要不斷加強(qiáng)對(duì) AI 系統(tǒng)透明度和可靠性的監(jiān)督,重視培養(yǎng)人類的批判性思維與數(shù)字素養(yǎng),從而正確發(fā)揮和利用系統(tǒng) 0 的強(qiáng)大潛力。
作者:阮文韻
審核:學(xué)術(shù)君