基于這份報(bào)告,美國很有可能成為全世界首個(gè)推出人工智能軍事化倫理標(biāo)準(zhǔn)的國家。11月1日,美國國防部下屬的國防創(chuàng)新委員會推出了最終版的《
基于這份報(bào)告,美國很有可能成為全世界首個(gè)推出人工智能軍事化倫理標(biāo)準(zhǔn)的國家。
11月1日,美國國防部下屬的國防創(chuàng)新委員會推出了最終版的《人工智能倫理道德標(biāo)準(zhǔn)》。其實(shí)該標(biāo)準(zhǔn)醞釀已有數(shù)年。2018年7月,該委員會提出了標(biāo)準(zhǔn)的草案版本,并通過聽證會接受了上百位業(yè)內(nèi)人士的意見。此次最終版本在委員會投票中得到一致支持。
近年來,美國軍方顯著加快了人工智能應(yīng)用的速度,試圖借助這一新顛覆性技術(shù),徹底改變美軍的作戰(zhàn)模式。早在2019年2月,國防部發(fā)布首份美軍人工智能戰(zhàn)略文件,要求利用人工智能促進(jìn)美國安全與繁榮,將人工智能賦能引入到具體軍事任務(wù)中。
美軍快速引入人工智能技術(shù),也在美國內(nèi)外引起了廣泛擔(dān)憂。一些觀察人士開始擔(dān)心美軍的步子邁得太快,可能產(chǎn)生新的安全風(fēng)險(xiǎn)。而此次國防創(chuàng)新委員會的倫理道德標(biāo)準(zhǔn),就是著眼于解決這些潛在風(fēng)險(xiǎn),明確美軍利用和研發(fā)人工智能的限制。
國防創(chuàng)新委員會提出了五項(xiàng)核心標(biāo)準(zhǔn):即負(fù)責(zé)、公平、可追蹤、可靠、可控。其中,公平和可控兩條標(biāo)準(zhǔn)的爭議性較大。
委員會所提出的公平是指,美軍在開發(fā)和部署人工智能化的裝備時(shí)要避免出現(xiàn)意料之外的偏差,而這些偏差會在無意中對人員造成傷害。實(shí)現(xiàn)這條標(biāo)準(zhǔn)有很高難度。
可控的理念,則試圖給人工智能技術(shù)加上“保險(xiǎn)絲”。委員會建議美軍在人工智能系統(tǒng)和裝備中設(shè)有“自動或手動”停機(jī)開關(guān),一旦該設(shè)備運(yùn)轉(zhuǎn)偏離使用者和設(shè)計(jì)者初衷,作戰(zhàn)和指揮人員就能立即關(guān)閉系統(tǒng)。
委員會所提出的倫理道德標(biāo)準(zhǔn)看似嚴(yán)苛,但解除了美軍應(yīng)用人工智能的最大禁忌。
五條倫理標(biāo)準(zhǔn)中既沒有包括禁止美軍將人工智能技術(shù)應(yīng)用于致命性武器,也沒有限制人工智能化武器的攻擊目標(biāo)。這意味著美國已經(jīng)徹底放棄了“人工智能非軍事化”理想目標(biāo),將其全面引入作戰(zhàn)領(lǐng)域。這也給美軍未來應(yīng)用人工智能提供了有利的說辭和合法性依據(jù),讓美國社會接納一個(gè)人工智能化的美軍。
基于委員會的此份報(bào)告,美國很有可能成為全世界首個(gè)推出人工智能軍事化倫理標(biāo)準(zhǔn)的國家。
從全球范圍看,倫理標(biāo)準(zhǔn)是人工智能治理的先導(dǎo)性規(guī)則。從道德和倫理上探討人工智能,表明該技術(shù)的發(fā)展和使用可能對人類社會帶來重大的影響,可能改變?nèi)祟惿鐣幕拘螒B(tài)。人類社會當(dāng)前所依賴的道德和倫理標(biāo)準(zhǔn),對人工智能研發(fā)者和使用者尚沒有足夠限制,需要基于該技術(shù)發(fā)展變化提出新的倫理標(biāo)準(zhǔn)。
倫理標(biāo)準(zhǔn)也是國際社會在人工智能治理領(lǐng)域最廣泛談?wù)摰膬?nèi)容。谷歌等美國科技巨頭、各國政府、科技界的非政府組織都提出了自己的人工智能倫理。各方在這一問題上的博弈與合作剛剛開始。
美國則在這場人工智能的國際規(guī)則之爭中開辟了新的戰(zhàn)場,即人工智能軍事化領(lǐng)域。美國所提出的標(biāo)準(zhǔn)與聯(lián)合國致命自主武器系統(tǒng)所倡導(dǎo)的原則有一定差異,也不同于歐盟、中國等反對“人工智能軍事化”的基本立場。
下一階段,美國會試圖將自己的倫理標(biāo)準(zhǔn)演變?yōu)樵擃I(lǐng)域國際規(guī)則的根本性原則,獲取人工智能軍事化的“最終解釋權(quán)”。(李崢)