人工智能界為何對“殺手機器人”說(shuō)不
聯(lián)合國《特定常規武器公約》政府專(zhuān)家小組9日在瑞士日內瓦召開(kāi)會(huì )議,預定討論致命自主武器系統研發(fā),也就是常說(shuō)的“殺手機器人”可能帶來(lái)的影響。
本文引用地址:http://dyxdggzs.com/article/201804/378083.htm50多名世界知名人工智能和機器人研究人員4日宣布,將聯(lián)合抵制韓國科學(xué)技術(shù)院,抗議該機構研發(fā)人工智能武器的計劃。
與此同時(shí),一封公開(kāi)信已在美國谷歌公司內部流傳數周,超過(guò)3000名谷歌員工簽名要求公司退出一項美國五角大樓人工智能軍事計劃。
人工智能迅速發(fā)展給社會(huì )各個(gè)領(lǐng)域帶來(lái)深遠影響,對軍事作戰系統研發(fā)也帶來(lái)全新理念。然而,人工智能界的專(zhuān)家學(xué)者及防務(wù)分析人士認為,機器人暴動(dòng)僅是科幻小說(shuō)式的終極噩夢(mèng),軍事機器人革命帶來(lái)的倫理、法律及政策等問(wèn)題,尤其是自主武器能否自行判斷殺敵與否,才是人們亟須擔憂(yōu)和討論的現實(shí)問(wèn)題。
大多數專(zhuān)家學(xué)者一直認為,使用致命武器時(shí),人應當是負責啟動(dòng)的關(guān)鍵要素。對什么樣的人工控制才是最適宜的討論還未結束,相關(guān)的政策制定又已被人工智能技術(shù)的飛速發(fā)展甩在身后。隨著(zhù)具有認知能力人工智能系統的出現,更復雜的問(wèn)題出現了。
新美國基金會(huì )研究人員、防務(wù)政策分析人士辛格在其著(zhù)作《連線(xiàn)戰爭:21世紀機器人革命和沖突》中指出,地緣政治、知識前沿領(lǐng)域不斷前進(jìn)的動(dòng)力甚至是追求利益的科技企業(yè),都是人工智能發(fā)展不可阻擋的力量。簡(jiǎn)單來(lái)說(shuō),大部分人現在最感到恐懼的是該不該讓能夠“思考”的人工智能系統決定是否殺人。
新美國安全中心技術(shù)和國家安全項目主管沙雷表示,自主武器系統可能因代碼問(wèn)題或黑客攻擊而失靈,機器人攻擊人類(lèi)部隊,人類(lèi)無(wú)法作出反應或局部局勢迅速升級的情況都有可能發(fā)生。自主武器系統的可靠性難以測試,會(huì )“思考”的機器系統可能以人類(lèi)操控者從未想象到的方式行事。
美國國防部前副部長(cháng)米勒認為,自主武器系統在戰事激烈的地區執行任務(wù),讓機器全權負責的誘惑可能會(huì )難以抵制,技術(shù)上的可能總是讓人們作出利于形勢的選擇。
對于自主武器系統,人工智能界的專(zhuān)家學(xué)者頻頻說(shuō)“不”,拒絕進(jìn)行相關(guān)領(lǐng)域的研發(fā)。例如,韓國科學(xué)技術(shù)院研制的機器人曾經(jīng)贏(yíng)得2015年美國國防部高級研究項目局機器人挑戰賽的冠軍。據《韓國時(shí)報》報道,韓國科學(xué)技術(shù)院和軍工企業(yè)韓華系統合作成立研發(fā)中心,目的就是為了研發(fā)可以“無(wú)需人工控制就能搜尋并清除目標”的人工智能武器。
對此,50多名頂尖人工智能研究人員在公開(kāi)信中說(shuō),他們將抵制和韓國科學(xué)技術(shù)院的任何合作,直到該機構宣布不會(huì )研發(fā)任何缺乏人類(lèi)控制的自主武器。韓國科學(xué)技術(shù)院隨后發(fā)表聲明說(shuō),他們沒(méi)有研發(fā)“致命自動(dòng)武器系統或殺手機器人”的計劃。
美國五角大樓“梅文計劃”始于2017年,旨在找到加速軍方應用最新人工智能技術(shù)的方式。盡管五角大樓和谷歌都表示,谷歌的產(chǎn)品不會(huì )創(chuàng )造出無(wú)需人類(lèi)操作者就能開(kāi)火的自主武器系統,但谷歌員工在公開(kāi)信中說(shuō),參與“梅文計劃”將對谷歌的品牌和人才吸引力造成不可挽回的傷害,谷歌不應卷入戰爭,谷歌及其合約商永遠不應該發(fā)展戰爭科技。
在2017年人工智能?chē)H會(huì )議上,有硅谷“鋼鐵俠”之稱(chēng)的馬斯克、蘋(píng)果聯(lián)合創(chuàng )始人之一沃茲尼亞克、研發(fā)“阿爾法圍棋”的深度思維公司哈薩比斯等人,都曾簽署公開(kāi)信,呼吁聯(lián)合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。
評論