我們知道,俄羅斯人一直在試驗人工智能(AI)的武器化,但我們沒有看到?jīng)Q定性的證據(jù)表明他們在俄烏戰(zhàn)爭中以任何有意義的方式使用它。
這有幾個潛在的原因。最有可能的是,他們還沒有進展到足以信任人工智能在戰(zhàn)場上的獨立使用。最不可能的是,鑒于他們對烏克蘭平民的殘暴行為,以及他們相對不受阻礙地使用不分青紅皂白的火炮和導(dǎo)彈打擊,他們對使用這種技術(shù)的武器有任何道德上的顧慮。我們還知道,中國人和伊朗人正在研究人工智能的軍事化問題,但關(guān)于這個問題的公開資料并不多。
殺手級人工智能長期以來一直是科幻小說猜測的來源?!敖K結(jié)者”和“戰(zhàn)爭游戲”電影是對這種不受人類控制的武器的警示性警告。在《星際迷航》的一個著名情節(jié)中,人工智能被允許在一次軍事演習(xí)中控制星艦企業(yè)號,并造成死亡和破壞,直到柯克船長和他的船員重新獲得指揮。直到現(xiàn)在,這類問題還是推測性的。今天,技術(shù)上的進步正迫使我們真正解決這些問題。
《終結(jié)者》這個經(jīng)典形象和“天網(wǎng)”成為了美國形容失控人工智能的代名詞
西方國家,特別是美國,已經(jīng)表現(xiàn)出不愿意讓人工智能在沒有人類成年監(jiān)督的情況下在戰(zhàn)場上獨立運作。然而,如果對手對人工智能的使用顯示出決定性的戰(zhàn)術(shù)和行動優(yōu)勢,這種情況可能會改變。毫無疑問,人工智能可以比人類操作員更快地做出決定,但問題是,這些決定是否會更好?
奧薩馬-本-拉登2001年從阿富汗的托拉博拉山逃脫,主要歸咎于美國中央司令部的目標定位小組的深思熟慮的決策過程,在那里,一個軍官委員會沒有同意開槍,直到預(yù)定目標消失在山洞里。海軍陸戰(zhàn)隊的新興威脅和機會中心(CETO)進行了一項實驗,研究模擬的人工智能決策過程是否可以改善目標選擇問題。兩個小組得到了一套相同的20個瞄準問題,模擬裝備有地獄火導(dǎo)彈的MQ-1“捕食者”無人駕駛飛機。這些問題從簡單到非常復(fù)雜不等。有些問題涉及到平民與敵方戰(zhàn)斗機的混合。
MQ-1“捕食者”是美國陸軍的固定翼無人機,也是最早投入實戰(zhàn)的察打一體無人機,實際上他有自我識別攻擊能力,但美國人沒敢用
第一個小組是由情報人員、業(yè)務(wù)律師和公共事務(wù)專家組成的人類瞄準小組,由一名經(jīng)驗豐富的行動官員領(lǐng)導(dǎo)--類似于托拉博拉局勢中的決策小組。第二小組假設(shè)“捕食者”無人機上有 “開槍或不開槍”的AI決策。模擬人工智能的單一人類有一套嚴格的標準,以模擬計算機編程的方式做出決定。結(jié)果是非常有趣的。不足為奇的是,人工智能模擬的決策速度比瞄準小組快,但兩者都有大約20%的時間做出了錯誤的決定。兩者出錯的情況普遍不同,但與實際作戰(zhàn)一樣,兩者都無法避免戰(zhàn)爭迷霧的影響。
這里最大的區(qū)別是問責(zé)制。人類團隊可以對其決定負責(zé),而且當(dāng)無辜平民出現(xiàn)時,它通常會在安全方面犯錯。人工智能受到的限制較少,被要求嚴格按照編程指令的限制行事。在一個案例中,它向一群武裝叛亂分子藏身的街道遮陽篷開火,殺死了模擬露天市場中的一群購物者。諸如此類的情況引起了誰將對死亡負責(zé)的問題。會是為人工智能編程的人嗎?會是制造商嗎?我們總是可以讓飛機退役,但這能解決什么問題?
這里的真正問題仍然是道德問題。除了機器人對機器人的戰(zhàn)斗情況,使用人工智能將要求機器人決定奪取人類的生命。如前所述,我們的潛在對手很可能不會被道德或法律問題所嚇倒,而且這有可能給他們帶來獨特的戰(zhàn)術(shù)優(yōu)勢。
現(xiàn)在比起技術(shù)問題,道德問題才是主要的
在某種程度上,我們今天在武器中使用有限的計算機決策。巡航導(dǎo)彈和其他“發(fā)射后不管”系統(tǒng)自己飛向目標,但最初的交戰(zhàn)決定仍然是由人類做出的。如果無辜者被殺,就會有一個責(zé)任鏈。
戰(zhàn)爭中總是會發(fā)生附帶的平民損害,而且要對拯救的友軍生命進行權(quán)衡,但這是人類的決定。將人類排除在循環(huán)之外,不應(yīng)純粹停留在技術(shù)考慮上。這是一個可能與地雷、化學(xué)武器和核武器一樣嚴重的問題。如果戰(zhàn)爭太重要了,不能只留給將軍們,那么我們需要問一問,我們是否希望戰(zhàn)爭掌握在機器人的手中。
加里-安德森是海軍陸戰(zhàn)隊新興威脅和機遇中心的創(chuàng)始主任。本文首先出現(xiàn)在Military.com上。