版權(quán)歸原作者所有,如有侵權(quán),請(qǐng)聯(lián)系我們

人工智能(AI)武器化,為何俄羅斯研制多年,沒在烏克蘭進(jìn)行實(shí)戰(zhàn)

觀察哨
原創(chuàng)
對(duì)于軍事心懷敬畏,對(duì)于文字力求嚴(yán)謹(jǐn)
收藏

我們知道,俄羅斯人一直在試驗(yàn)人工智能(AI)的武器化,但我們沒有看到?jīng)Q定性的證據(jù)表明他們?cè)诙頌鯌?zhàn)爭中以任何有意義的方式使用它。

這有幾個(gè)潛在的原因。最有可能的是,他們還沒有進(jìn)展到足以信任人工智能在戰(zhàn)場上的獨(dú)立使用。最不可能的是,鑒于他們對(duì)烏克蘭平民的殘暴行為,以及他們相對(duì)不受阻礙地使用不分青紅皂白的火炮和導(dǎo)彈打擊,他們對(duì)使用這種技術(shù)的武器有任何道德上的顧慮。我們還知道,中國人和伊朗人正在研究人工智能的軍事化問題,但關(guān)于這個(gè)問題的公開資料并不多。

殺手級(jí)人工智能長期以來一直是科幻小說猜測的來源?!敖K結(jié)者”和“戰(zhàn)爭游戲”電影是對(duì)這種不受人類控制的武器的警示性警告。在《星際迷航》的一個(gè)著名情節(jié)中,人工智能被允許在一次軍事演習(xí)中控制星艦企業(yè)號(hào),并造成死亡和破壞,直到柯克船長和他的船員重新獲得指揮。直到現(xiàn)在,這類問題還是推測性的。今天,技術(shù)上的進(jìn)步正迫使我們真正解決這些問題。

《終結(jié)者》這個(gè)經(jīng)典形象和“天網(wǎng)”成為了美國形容失控人工智能的代名詞

西方國家,特別是美國,已經(jīng)表現(xiàn)出不愿意讓人工智能在沒有人類成年監(jiān)督的情況下在戰(zhàn)場上獨(dú)立運(yùn)作。然而,如果對(duì)手對(duì)人工智能的使用顯示出決定性的戰(zhàn)術(shù)和行動(dòng)優(yōu)勢,這種情況可能會(huì)改變。毫無疑問,人工智能可以比人類操作員更快地做出決定,但問題是,這些決定是否會(huì)更好?

奧薩馬-本-拉登2001年從阿富汗的托拉博拉山逃脫,主要?dú)w咎于美國中央司令部的目標(biāo)定位小組的深思熟慮的決策過程,在那里,一個(gè)軍官委員會(huì)沒有同意開槍,直到預(yù)定目標(biāo)消失在山洞里。海軍陸戰(zhàn)隊(duì)的新興威脅和機(jī)會(huì)中心(CETO)進(jìn)行了一項(xiàng)實(shí)驗(yàn),研究模擬的人工智能決策過程是否可以改善目標(biāo)選擇問題。兩個(gè)小組得到了一套相同的20個(gè)瞄準(zhǔn)問題,模擬裝備有地獄火導(dǎo)彈的MQ-1“捕食者”無人駕駛飛機(jī)。這些問題從簡單到非常復(fù)雜不等。有些問題涉及到平民與敵方戰(zhàn)斗機(jī)的混合。

MQ-1“捕食者”是美國陸軍的固定翼無人機(jī),也是最早投入實(shí)戰(zhàn)的察打一體無人機(jī),實(shí)際上他有自我識(shí)別攻擊能力,但美國人沒敢用

第一個(gè)小組是由情報(bào)人員、業(yè)務(wù)律師和公共事務(wù)專家組成的人類瞄準(zhǔn)小組,由一名經(jīng)驗(yàn)豐富的行動(dòng)官員領(lǐng)導(dǎo)--類似于托拉博拉局勢中的決策小組。第二小組假設(shè)“捕食者”無人機(jī)上有 “開槍或不開槍”的AI決策。模擬人工智能的單一人類有一套嚴(yán)格的標(biāo)準(zhǔn),以模擬計(jì)算機(jī)編程的方式做出決定。結(jié)果是非常有趣的。不足為奇的是,人工智能模擬的決策速度比瞄準(zhǔn)小組快,但兩者都有大約20%的時(shí)間做出了錯(cuò)誤的決定。兩者出錯(cuò)的情況普遍不同,但與實(shí)際作戰(zhàn)一樣,兩者都無法避免戰(zhàn)爭迷霧的影響。

這里最大的區(qū)別是問責(zé)制。人類團(tuán)隊(duì)可以對(duì)其決定負(fù)責(zé),而且當(dāng)無辜平民出現(xiàn)時(shí),它通常會(huì)在安全方面犯錯(cuò)。人工智能受到的限制較少,被要求嚴(yán)格按照編程指令的限制行事。在一個(gè)案例中,它向一群武裝叛亂分子藏身的街道遮陽篷開火,殺死了模擬露天市場中的一群購物者。諸如此類的情況引起了誰將對(duì)死亡負(fù)責(zé)的問題。會(huì)是為人工智能編程的人嗎?會(huì)是制造商嗎?我們總是可以讓飛機(jī)退役,但這能解決什么問題?

這里的真正問題仍然是道德問題。除了機(jī)器人對(duì)機(jī)器人的戰(zhàn)斗情況,使用人工智能將要求機(jī)器人決定奪取人類的生命。如前所述,我們的潛在對(duì)手很可能不會(huì)被道德或法律問題所嚇倒,而且這有可能給他們帶來獨(dú)特的戰(zhàn)術(shù)優(yōu)勢。

現(xiàn)在比起技術(shù)問題,道德問題才是主要的

在某種程度上,我們今天在武器中使用有限的計(jì)算機(jī)決策。巡航導(dǎo)彈和其他“發(fā)射后不管”系統(tǒng)自己飛向目標(biāo),但最初的交戰(zhàn)決定仍然是由人類做出的。如果無辜者被殺,就會(huì)有一個(gè)責(zé)任鏈。

戰(zhàn)爭中總是會(huì)發(fā)生附帶的平民損害,而且要對(duì)拯救的友軍生命進(jìn)行權(quán)衡,但這是人類的決定。將人類排除在循環(huán)之外,不應(yīng)純粹停留在技術(shù)考慮上。這是一個(gè)可能與地雷、化學(xué)武器和核武器一樣嚴(yán)重的問題。如果戰(zhàn)爭太重要了,不能只留給將軍們,那么我們需要問一問,我們是否希望戰(zhàn)爭掌握在機(jī)器人的手中。

加里-安德森是海軍陸戰(zhàn)隊(duì)新興威脅和機(jī)遇中心的創(chuàng)始主任。本文首先出現(xiàn)在Military.com上。

評(píng)論
科普5ddb7d23f0b11老虎哥哥
舉人級(jí)
為人民服務(wù)
2022-11-26
劉海飛123
少師級(jí)
已閱讀
2022-11-25
科普中國俄體鎮(zhèn)023
太師級(jí)
2022-11-25