![]() 大外交·青年智庫 讓壹億中國大外交青年智慧被全球看見 為中國青年智庫代言 Glory Diplomacy 來源@大外交青年智庫(GDYT) 國際軍控在人工智能領(lǐng)域的可行性:核軍控的三點(diǎn)啟示
作者:馬特斯·馬斯(Matthijs M. Maas),法律優(yōu)先項目(Legal Priorities Project)高級研究員,主要研究方向為人工智能治理、人工智能軍事應(yīng)用及其軍備控制等。 摘要:在不少人看來,人工智能軍事應(yīng)用會在國際上掀起新一輪軍備競賽,且該趨勢有可能引發(fā)道德、法律問題,危及全球戰(zhàn)略穩(wěn)定。本文基于核軍控的歷史經(jīng)驗,考察了軍備控制在人工智能領(lǐng)域所面臨的機(jī)遇和挑戰(zhàn),并得出了推動人工智能軍控的三點(diǎn)啟示:一是通過規(guī)范制度化遏制或減緩人工智能軍事化;二是塑造專家間的“認(rèn)知共同體”以促進(jìn)人工智能軍控;三是認(rèn)識到“有意義的人類控制”遠(yuǎn)遠(yuǎn)不夠,人工智能軍事應(yīng)用仍受“常態(tài)性事故”的影響。因此,盡管核武器與軍用人工智能技術(shù)之間存在本質(zhì)性差異,但對于未來的全球軍控體系而言,透過核軍控視角得出的這些經(jīng)驗仍具有重要意義。 要詞:人工智能;軍備競賽;軍備控制;不擴(kuò)散體系;認(rèn)知共同體;常態(tài)性事故;全球治理 文源:Maas, Matthijs M. “How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons”, Contemporary Security Policy, Vol. 40, No. 3, February 2019, pp. 285-311. 收錄:《大譯編參》2023年第15期,總第291期,大外交智庫(GDYT)外文編譯評議組創(chuàng)辦。 編譯:謝名茵,《大譯編參》外文編譯評議員,就讀于外交學(xué)院國際關(guān)系研究所; 審校:鄧敏祺,《大譯編參》外文編譯評議員,就讀于廣東外語外貿(mào)大學(xué)國際關(guān)系學(xué)院; 再審:馬宇杭,《大譯編參》外文編譯評議員,就讀于外交學(xué)院國際關(guān)系研究所; 終校:孫海涵,《大譯編參》編輯部執(zhí)行副主編,就讀于山東大學(xué)政治學(xué)與公共管理學(xué)院。 編譯精選 一、引言 人工智能(Artificial Intelligence, AI)作為一種通用技術(shù),主要用于提升復(fù)雜環(huán)境中機(jī)器決策的速度、規(guī)模和準(zhǔn)確度。盡管目前人工智能的效用有限,但它能夠完成諸如預(yù)測、優(yōu)化、模式識別和自主決策等一般性任務(wù),在軍事領(lǐng)域具有戰(zhàn)略性意義。有些學(xué)者認(rèn)為,這種顛覆性技術(shù)將打破國際力量平衡,促進(jìn)全球治理體系變革,從而引發(fā)“人類歷史上最重大的地緣政治革命”。 當(dāng)前,人工智能的軍事應(yīng)用并不成熟,但鑒于其潛在的戰(zhàn)略意義,許多國家開始強(qiáng)調(diào)該技術(shù)在國家戰(zhàn)略和軍事準(zhǔn)則方面的基石作用。決策者、學(xué)者和公眾普遍認(rèn)為,人工智能的全球性發(fā)展正在迅速升級為一場國家間的戰(zhàn)略軍備競賽,有人擔(dān)心人工智能的廣泛軍事化及其在戰(zhàn)場上的部署只是一個時間問題;也有人質(zhì)疑這種“軍備競賽”敘述不僅歪曲了人工智能創(chuàng)新的本質(zhì),還導(dǎo)致了零和思維的泛濫。鑒于人工智能軍事化已然成為趨勢,本文認(rèn)為探究人工智能軍備競賽的戰(zhàn)略影響十分必要。 國際社會曾基于倫理性、合法性、穩(wěn)定性、安全性四個原則,限制化學(xué)武器、生物武器、地雷、彈道導(dǎo)彈防御系統(tǒng)等軍事技術(shù),防止它們擴(kuò)散、生產(chǎn)、發(fā)展及投入實戰(zhàn)。當(dāng)前,軍用人工智能技術(shù)也面臨著類似的倫理、法律挑戰(zhàn),其穩(wěn)定性與安全性也備受質(zhì)疑,因此國際社會有必要采取行動,以遏制人工智能軍事化進(jìn)一步發(fā)展,預(yù)防因此產(chǎn)生的軍備競賽。在接下來的部分中,本文通過考察核軍控的歷史進(jìn)程,以探究在人工智能領(lǐng)域推動軍備控制的可行性,以及國際社會在遏制人工智能軍事化的進(jìn)程中所面臨的機(jī)遇和挑戰(zhàn)。 二、核武器——軍用人工智能技術(shù)的類比案例 鑒于核武器與軍用人工智能技術(shù)之間存在著明顯差異,本文將兩者進(jìn)行類比的做法必然存在局限性。首先,這兩種技術(shù)的實際應(yīng)用情況截然不同。自廣島、長崎事件以來,核武器就沒有大規(guī)模地使用過,而人工智能卻在戰(zhàn)場上廣泛扮演著不同的角色。其次,國家行為體一直是核武器研發(fā)的主要參與者,而在人工智能領(lǐng)域,多數(shù)的人才和創(chuàng)新成果都源于私營實體。最后,發(fā)展和部署核武器需要獲取諸如鈾等稀有資源,建造鈾濃縮設(shè)施,并進(jìn)行引人注目的武器和運(yùn)載系統(tǒng)試驗。相比之下,人工智能的發(fā)展限制少,并不適用于以限制關(guān)鍵資源為路徑的不擴(kuò)散制度。此外,軍用人工智能技術(shù)的開發(fā)設(shè)施和測試更易于隱藏,削弱了核查軍控協(xié)議遵守情況的有效性。 然而,正如學(xué)者肯尼斯·佩恩(Kenneth Payne)所言,核武器與人工智能都屬于技術(shù)含量很高的科學(xué)成果,兩者之間的共性不可忽視:一是這兩種技術(shù)“革命”集中發(fā)生在少數(shù)幾個國家,研究具有一定程度的保密性;二是這兩種武器都引發(fā)了人們的道德和法律關(guān)切;三是這兩種技術(shù)對戰(zhàn)略制定、機(jī)構(gòu)設(shè)置,乃至整個社會生活都產(chǎn)生了深遠(yuǎn)影響;四是兩者都可能造成災(zāi)難性的后果,引起了激烈的哲學(xué)辯論。此外,兩者都能夠為國家提供不對稱的戰(zhàn)略優(yōu)勢,都涉及軍民兩用的零件、技術(shù)和應(yīng)用,這不僅會吸引國家或非國家行為體進(jìn)行單方面開發(fā),還給軍備控制和不擴(kuò)散體系帶來嚴(yán)峻挑戰(zhàn)。 可見,從表面上看,核武器和軍用人工智能技術(shù)之間存在著天壤之別。但實際上,兩者同為戰(zhàn)略性、革命性技術(shù),且核不擴(kuò)散與核軍控的歷史由來已久,為單邊、雙邊、多邊、區(qū)域各類技術(shù)治理框架提供了大量經(jīng)驗。因此,本文通過考察核軍控的歷史得失來探究在人工智能領(lǐng)域?qū)崿F(xiàn)軍備控制的可行性。 三、人工智能軍備控制的三點(diǎn)啟示 本文將核武器作為研究軍用人工智能技術(shù)的案例,透過三個分析視角來審視核不擴(kuò)散、核軍控及其管理的歷史,并從中得出推動人工智能軍控的三點(diǎn)啟示:其一為規(guī)范的意義;其二為專家“認(rèn)知共同體(epistemic communities)”的效用;其三為“常態(tài)性事故(normal accidents)”對“人類的有效控制(Meaningful Human Control,MHC)”的影響。 (一)規(guī)范與國內(nèi)政治 在軍事領(lǐng)域存在著一種悲觀的看法,即永久禁止國家追求戰(zhàn)略性技術(shù)是不可能的,因為它們始終擔(dān)心對手會搶先一步。因此,人工智能軍備競賽似乎是不可避免的,自主性、致命性軍事人工智能系統(tǒng)的擴(kuò)散或許也只是時間問題。 這種悲觀主義與歷史上的“核恐懼”遙相呼應(yīng)。在冷戰(zhàn)早期,決策者認(rèn)為核武器是各國所必需的戰(zhàn)略資產(chǎn),因而必然會迅速擴(kuò)散。然而,自20世紀(jì)60年代以來,核武器的“橫向”擴(kuò)散形勢十分緩慢。據(jù)統(tǒng)計,多達(dá)56個國家曾擁有發(fā)展核武器計劃的理論能力,而其中則有39個國家選擇從事“核武器活動”,但大多數(shù)國家最終自愿終止了這些尚未完成的計劃。目前,世界上只有9個擁核國家。 這種“核克制”的歷史經(jīng)驗表明,以“核禁忌(nuclear taboo)”為代表的反核武規(guī)范,以及包括《核不擴(kuò)散條約》《全面禁止核試驗條約》等在內(nèi)的國際文件已成為限制核擴(kuò)散的重要因素。它們?yōu)閲H社會提供了共同的規(guī)范性框架,促進(jìn)核不擴(kuò)散規(guī)范在國內(nèi)政治層面?zhèn)鞑ァ?/p> 因此,涉及戰(zhàn)略性技術(shù)的軍備競賽是可以減緩、引導(dǎo)甚至停止的,軍用人工智能技術(shù)也不例外。首先,核武器的歷史進(jìn)程表明,國家對安全的擔(dān)憂有可能助長軍備競賽,但這并非決定性因素。因為少數(shù)大國在不擴(kuò)散制度上存在共同利益,它們往往傾向于借此遏制人工智能軍事系統(tǒng)的擴(kuò)散,避免較弱的對手利用人工智能技術(shù)增強(qiáng)實力。其次,國內(nèi)聯(lián)盟在防止人工智能武器擴(kuò)散方面具有重要作用。盡管軍用人工智能技術(shù)可能比核武器有更廣泛的吸引力,但對各方而言,人工智能武器意味著不同程度的利害關(guān)系,這為引導(dǎo)或調(diào)整國內(nèi)聯(lián)盟的意向提供了空間。再次,鑒于人工智能屬于全球科技前沿,國家決策者可能會追求該領(lǐng)域的主導(dǎo)地位以彰顯實力。然而,從公共規(guī)范的角度出發(fā),這種價值不適用于軍用人工智能技術(shù)。相反,公開發(fā)展“殺手機(jī)器人(killer robots)”可能會因缺乏正當(dāng)性而引發(fā)公眾的普遍反對。最后,宣傳工作也很可能改變涉及人工智能軍事應(yīng)用的公共規(guī)范,從而對違反或遵守限制性制度的行為產(chǎn)生相應(yīng)的有益或有損其聲譽(yù)的影響。 然而,對自主性武器的譴責(zé)在多大程度上會轉(zhuǎn)移到其他類型的人工智能軍事應(yīng)用上,這是值得思考的問題。事實上,除“殺手機(jī)器人”之外,各國是否面臨與“核禁忌”同等強(qiáng)度的“人工智能軍事禁忌”,目前尚不清楚。畢竟,核武器是一種“單一”技術(shù),在使用上具備一條自然而明確的禁用“紅線”。而在人工智能領(lǐng)域,許多軍事部署已然成為事實。因此,盡管“殺手機(jī)器人”會引發(fā)公眾的譴責(zé)而出臺相應(yīng)的限制性措施,其他具備物流系統(tǒng)、跟蹤導(dǎo)彈潛艇能力的軍用人工智能技術(shù)則不會。因此,想要有效推動人工智能軍控,國際社會必須考慮這些軍事應(yīng)用其他潛在的不道德、不安全或不穩(wěn)定的用途,從而推動相關(guān)規(guī)范的更新。 總體而言,雖然公共規(guī)范或相關(guān)行動對抵制人工智能軍事化的國內(nèi)聯(lián)盟是有利的,但它們并不總是能夠在第一時間左右決策者。因此,塑造決策者的規(guī)范,從而間接改造國內(nèi)政治格局至關(guān)重要。這不僅依賴于國際制度自上而下的規(guī)范影響力,還需要通過專家“認(rèn)知共同體”進(jìn)行自下而上的規(guī)范制度化。 (二)認(rèn)知共同體 在核軍控的歷史進(jìn)程中,美國研究界就核武器形成了“認(rèn)知共同體”,并成功地將統(tǒng)一共識傳遞到了決策者當(dāng)中,最終為1972年《反彈道導(dǎo)彈條約》(Treaty on the Limitation of Anti-Ballistic Missile Systems, ABM)的簽訂奠定了基礎(chǔ)。 20世紀(jì)50年代至60年代,在諸如蘭德公司、哈佛大學(xué)、麻省理工學(xué)院,以及總統(tǒng)科學(xué)咨詢委員會(the Presidential Science Advisory Committee, PSAC)等科學(xué)家、戰(zhàn)略家聚集地,誕生了核戰(zhàn)略的“想象(imaginary)”科學(xué)。當(dāng)時在缺乏核戰(zhàn)爭實際經(jīng)驗的情況下,專家們可以通過考究其效用及潛在影響來實現(xiàn)假設(shè)戰(zhàn)爭情景的理論化。美國認(rèn)識到,盡管發(fā)展有效的反彈道導(dǎo)彈系統(tǒng)能使其實施第一次打擊,但卻無法確保美國免受蘇聯(lián)的全面突襲。因此,這種部署在名義上是“防御性”的,卻可能刺激對手先發(fā)制人,破壞威懾的穩(wěn)定。因此,專家向決策者指出,只有超級大國都參與到軍控協(xié)議中,美國的安全利益才能得到維護(hù),全球核戰(zhàn)爭才得以避免。 《反彈道導(dǎo)彈條約》的簽訂表明,一個國家的“認(rèn)知共同體”可以引導(dǎo)政策行動早日實現(xiàn)目標(biāo)。這種共同的期望還有機(jī)會擴(kuò)散到其他關(guān)鍵國家的“認(rèn)知共同體”中,由此產(chǎn)生的共識可以成為雙邊軍備控制的基礎(chǔ)。即使在不信任或敵對的國家之間,這一論點(diǎn)也具有適用性。 然而,軍控制度的穩(wěn)定性嚴(yán)重依賴于健康的國際關(guān)系,這意味著相關(guān)協(xié)定恰恰會在最緊張的時刻失去有效性。此外,“認(rèn)知共同體”只有在特定或偶然的歷史環(huán)境中才能夠發(fā)揮效用,與技術(shù)發(fā)展程度、關(guān)鍵政黨之間的權(quán)力分配、國內(nèi)政治情緒、對技術(shù)的文化認(rèn)知等要素有關(guān)。反彈道導(dǎo)彈軍控“認(rèn)知共同體”在20世紀(jì)60年代和70年代取得了勝利,但早期的核軍控嘗試,如1946年的巴魯克計劃(Baruch Plan)卻錯過了歷史的機(jī)會窗口。 在人工智能軍控領(lǐng)域,相關(guān)的“認(rèn)知共同體”同樣無法選擇所在的“外部”歷史環(huán)境,但核軍控的成功經(jīng)驗至少可以為其“內(nèi)部”改革提供經(jīng)驗教訓(xùn),這包括共同體達(dá)成共識的路徑,以及推進(jìn)知識創(chuàng)新、國內(nèi)規(guī)范制度化、全球規(guī)范傳播等戰(zhàn)略。 (三)“常態(tài)性事故”與“有意義的人類控制” “常態(tài)性事故”理論(Normal Accident Theory, NAT)由社會學(xué)家查爾斯·佩羅(Charles Perrow)提出,指在災(zāi)難性事故中,某些機(jī)械、軟件、操作員、組織故障是無法避免的,它們都是系統(tǒng)運(yùn)作的“常態(tài)性”后果。 近年來,圍繞人工智能軍事應(yīng)用的討論都集中在對這些系統(tǒng)進(jìn)行“有意義的人類控制”上[ 譯者注:“有意義的人類控制”是在人工智能自主權(quán)擴(kuò)大的背景下,為解決人工智能倫理、法律與社會監(jiān)管困境所提出的理論框架。在其影響下,人工智能的治理強(qiáng)調(diào)人類必須掌握對智能機(jī)器自主決策行為的控制權(quán)。]。然而,核軍控的歷史經(jīng)驗表明,“常態(tài)性事故”的爆發(fā)往往會削弱這種“控制”的有效性,自主性武器也不例外,主要包含四點(diǎn)原因。首先,人工智能軍事系統(tǒng)具有交互復(fù)雜性。與安裝了各種雷達(dá)、傳感器和通信陣列的復(fù)雜核指揮和控制網(wǎng)絡(luò)類似,前沿人工智能技術(shù)往往是復(fù)雜、不透明且不可預(yù)測的。這意味著在使用過程中,人們無法準(zhǔn)確追蹤其行為,也不可能在訓(xùn)練期間對所有真實場景進(jìn)行詳盡的測試。其次,許多人工智能軍事應(yīng)用在網(wǎng)絡(luò)空間中以極快的速度或大規(guī)模運(yùn)行,依賴于傳感器、模塊、執(zhí)行器緊密耦合的網(wǎng)絡(luò),這意味著單一錯誤會在系統(tǒng)中迅速級聯(lián)(cascade)[ 譯者注:“級聯(lián)”指在計算機(jī)科學(xué)里,多個對象之間的映射關(guān)系。],而在觸發(fā)災(zāi)難性后果之前人們往往難以發(fā)現(xiàn)或控制它們。再次,操控技術(shù)的具體部門除了安全目標(biāo)外,還有其他相互競爭的目標(biāo),直接增加了事故風(fēng)險。以核武器為例,操作人員需要在收到打擊信號的幾分鐘內(nèi)完成“接到警報就發(fā)射”的戰(zhàn)略目標(biāo),極大地縮短了核實警報的時間。而在這個過程中,軍方或官員可能會為了維護(hù)組織聲譽(yù),尋求淡化安全事故,從而削弱了組織從過去事件中學(xué)習(xí)的能力,更不必說與其他軍事部門甚至是對手分享這些經(jīng)驗教訓(xùn)了。最后,由于競爭環(huán)境要求行為體快速行動和先發(fā)制人,各方之間溝通不暢或判斷失誤的可能性增大,因此上述風(fēng)險都會加劇。 可見,盡管從“有意義的人類控制”框架考慮,保留人類“參與”可能使人工智能軍事系統(tǒng)的操作更為安全,但由于“常態(tài)性事故”不可避免,“人類控制”并不能最終解決解決人工智能軍事應(yīng)用的安全問題,不應(yīng)成為軍控協(xié)定或治理的基石。 三、結(jié)語 近年來,各界彌漫著人工智能軍備競賽迫近的悲觀情緒,但通過回顧核軍控與核不擴(kuò)散的歷史進(jìn)程,本文發(fā)現(xiàn)人工智能軍事應(yīng)用有管理、引導(dǎo)甚至是停止的空間,人工智能軍控可以通過接觸國內(nèi)政治聯(lián)盟、塑造自上而下(國際制度)或自下而上(認(rèn)知共同體)的規(guī)范加以實現(xiàn)。 1972年《反彈道導(dǎo)彈條約》的成功簽訂表明,專家團(tuán)體自下而上的規(guī)范制度化在制定全球軍控合作框架方面發(fā)揮著重要作用。在人工智能軍事領(lǐng)域,鑒于共識有限,組織一個有效的“認(rèn)知共同體”十分困難,全球規(guī)范制度化的機(jī)會之窗可能已經(jīng)關(guān)閉。因此,人們不應(yīng)只停留在諸如“人機(jī)回環(huán)(Human-in-the-loop, HITL)[ 譯者注:“人機(jī)回環(huán)”指將個人的判斷融入到人工智能系統(tǒng)的運(yùn)作流程中,構(gòu)成運(yùn)行的閉環(huán)。]”或“有意義的人類控制”等較狹隘的話題里,因為它們往往容易受到“常態(tài)性事故”的影響。 此外,對抗軍用人工智能技術(shù)的“認(rèn)知共同體”須超越道德和法律兩個層面,考究禁止“殺手機(jī)器人”的其他緣由,如戰(zhàn)略穩(wěn)定性與安全性,這有助于規(guī)范的傳播和制度化,以及控制人工智能軍事系統(tǒng)帶來的各種風(fēng)險。 總體而言,本文只是初步考察了核軍控的歷史進(jìn)程,以揭示在人工智能領(lǐng)域?qū)崿F(xiàn)軍控的經(jīng)驗教訓(xùn)。在未來,學(xué)界還需要進(jìn)行更多的研究,以確定哪些全球治理途徑具有可行性,哪些可能不具有可行性。與過去核軍控的支持者不同,人工智能軍控的倡導(dǎo)者能夠以史為鑒、鑒古知今。因此,后者須充分利用這段歷史,為將來軍備控制領(lǐng)域的研究作準(zhǔn)備。 譯者評述 近年來,以人工智能為代表的革命性技術(shù)引領(lǐng)了新一輪的科技革命,日益成為影響全球戰(zhàn)略格局的重要變量。在人機(jī)對弈、模式識別、自動工程等技術(shù)成果更新迭代的同時,軍用人工智能技術(shù)也開始進(jìn)入國際社會視野。各方以“自主性武器系統(tǒng)”(Autonomous Weapons System)、“殺人機(jī)器人”、“致命性自主武器系統(tǒng)(lethal autonomous weapons systems, LAWS)”等不同的稱謂為對象展開討論。這些可以在沒有人類有效控制的情況下識別、選擇和攻擊目標(biāo)的智能武器系統(tǒng),極大地改變了傳統(tǒng)作戰(zhàn)模式,對國際軍事競爭態(tài)勢有著顛覆性作用??梢姡斯ぶ悄艿能娛聭?yīng)用有機(jī)會改變當(dāng)前的戰(zhàn)略力量平衡,甚至削弱擁核國家的威懾力量,不少主要軍事大國已將軍用人工智能技術(shù)視為戰(zhàn)略競爭的最新制高點(diǎn)。 然而,在人工智能軍事化深入推進(jìn)的進(jìn)程中,隨之而來的是一系列全球性安全問題。首先,不少人認(rèn)為人工智能軍備競賽正在迫近,現(xiàn)有全球戰(zhàn)略穩(wěn)定的根基將遭到破壞。此外,鑒于人工智能武器的性質(zhì),國家實施“先發(fā)制人”攻擊的可能性增加,國際危機(jī)意外升級的幾率也隨之提高。最后,由于致命性自主武器的戰(zhàn)爭主體并非人類,軍用人工智能技術(shù)因而面臨著倫理、法律、道德等嚴(yán)峻挑戰(zhàn)。 在這篇文章中,馬特斯·馬斯強(qiáng)調(diào)了回溯核軍控歷史的重要性,呈現(xiàn)了與大眾悲觀情緒截然不同的觀點(diǎn)。在他看來,核軍控的歷史經(jīng)驗表明,軍事人工智能技術(shù)并非沒有管理、引導(dǎo)甚至是制止的空間。人工智能軍控可以通過接觸國內(nèi)政治聯(lián)盟、塑造自上而下(國際制度)或自下而上(認(rèn)知共同體)的規(guī)范加以實現(xiàn)。此外,他還從常態(tài)性事故理論出發(fā),論證了“有意義的人類控制”并不能成為人工智能軍控或治理的基礎(chǔ)。 誠然,在人工智能軍事領(lǐng)域,“人類控制”存在一定的局限性。然而,人工智能技術(shù)本身弱化了人類的能動性和控制能力,致使其技術(shù)性行為的責(zé)任歸屬變得模糊不清,從而有可能造成馬提亞斯(Andreas Matthias)所說的“責(zé)任缺口”問題。因此,盡管學(xué)界尚未就“有意義的人類控制”的概念達(dá)成共識,其實施路徑也不乏質(zhì)疑之聲,但該理念作為人工智能領(lǐng)域一項新的倫理治理準(zhǔn)則,強(qiáng)調(diào)以人類為實踐主體,對化解人工智能倫理困境、推動人工智能武器軍控都具有不可替代的啟發(fā)性意義。正如《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》所言,各國研發(fā)、部署和使用人工智能武器系統(tǒng)“應(yīng)遵循人類共同價值觀,堅持以人為本,秉持'智能向善’的原則”。此外,國際社會須不斷提升“人工智能技術(shù)的安全性、可靠性和可控性,增強(qiáng)對人工智能技術(shù)的安全評估和管控能力,確保有關(guān)武器系統(tǒng)永遠(yuǎn)處于人類控制之下,保障人類可隨時中止其運(yùn)行”。因此,在未來的人工智能軍控或治理中,盡管“有意義的人類控制”準(zhǔn)則不足以成為根基,但國際社會仍須基于這個思路,堅持人類的主導(dǎo)地位,重視發(fā)揮自上而下或自下而上的規(guī)范引導(dǎo)作用,從而化解人工智能武器系統(tǒng)的倫理、法律、安全、穩(wěn)定等困境。 注釋 [1]劉永安. 在有意義的人類控制下發(fā)展負(fù)責(zé)任的人工智能[J].自然辯證法通訊, 2022, 44(09): 95-101. [2]王玫黎, 杜陳潔. 針對自主性武器實施“有意義的人類控制”——國際法視角下的研究[J]. 杭州師范大學(xué)學(xué)報(社會科學(xué)版), 2022, 44(01): 78-90. [3]張東冬. 人工智能軍事化與全球戰(zhàn)略穩(wěn)定[J].國際展望, 2022, 14(05): 142-161+166. [4]張煌, 杜雁蕓. 人工智能軍事化發(fā)展態(tài)勢及其安全影響[J].外交評論(外交學(xué)院學(xué)報), 2022, 39(03): 99-130+7-8. 問題互動 問題1、如何理解人工智能與核武器的類比? 問題2、“有意義的人類控制”準(zhǔn)則的改革方向是什么? 譯文拾貝 1、epistemic communities:認(rèn)知共同體 2、meaningful human control:有意義的人類控制 3、normal accidents:常態(tài)性事故 4、killer robots:殺手機(jī)器人 5、nuclear taboo:核禁忌 |
|
|