專(zhuān)家建議把人類(lèi)價(jià)值"植入"機器人 防范人工智能
外媒稱(chēng),隨著(zhù)人工智能技術(shù)越來(lái)越先進(jìn),人們愈發(fā)擔心,機器人可能變成一種威脅。據加利福尼亞大學(xué)伯克利分校計算機學(xué)教授斯圖爾特·拉塞爾說(shuō),這種危險是可以避免的,如果我們能夠解決如何把人類(lèi)價(jià)值變成可編程的代碼。
本文引用地址:http://dyxdggzs.com/article/282294.htm據美國石英財經(jīng)網(wǎng)站11月1日報道,拉塞爾說(shuō),在機器人領(lǐng)域,“道德哲學(xué)將是一個(gè)非常重要的產(chǎn)業(yè)部門(mén)”。他指出:“隨著(zhù)機器人從事更加復雜的任務(wù),我們絕對有必要把我們人類(lèi)的道德轉化為人工智能語(yǔ)言。”
比如說(shuō),如果機器人在房子里做雜務(wù)——預計未來(lái)幾十年將會(huì )出現這種場(chǎng)面——的話(huà),你可不想機器人把寵物貓放進(jìn)烤箱里,給饑腸轆轆的孩子們做頓大餐。拉塞爾說(shuō):“你會(huì )希望給那個(gè)機器人預先載入一大套人類(lèi)價(jià)值。”
人們已將基本的人類(lèi)價(jià)值編入了一些機器人的程序?,旣惻醮髮W(xué)計算機學(xué)教授彼得·麥克歐文說(shuō),可移動(dòng)機器人就被編入了與人類(lèi)保持適當距離的程序。
他說(shuō):“這是機器人行為可被視為體現某種價(jià)值的一個(gè)極為簡(jiǎn)單的例子。如果機器人在你和別人說(shuō)話(huà)時(shí)靠近你們的私人空間,你就會(huì )認為,這不是一個(gè)有教養的人會(huì )做的事情。”
創(chuàng )造更復雜的、具備道德規范的機器人是可能的,但條件是我們要找到把人類(lèi)價(jià)值設定成明確規則的辦法。
麥克歐文說(shuō):“這種價(jià)值設定工程要有研究人類(lèi)價(jià)值的專(zhuān)家參與進(jìn)來(lái),其中包括哲學(xué)家、心理學(xué)家、人種學(xué)家以及外行人士。就像你把專(zhuān)業(yè)知識轉化成一套規則一樣,你可以將這個(gè)討論組提供的信息轉化成一系列規則。”
此外,機器人還可以選取根據有關(guān)人類(lèi)行為的大套數據制成的模型來(lái)學(xué)習人類(lèi)價(jià)值。
麥克歐文說(shuō),只有在程序員不負責任的情況下,機器人才會(huì )成為一種危險。
他說(shuō):“就機器人違反人類(lèi)價(jià)值這一問(wèn)題,人們最擔心的是,如果人類(lèi)因為沒(méi)有進(jìn)行充分測試而沒(méi)有給機器人正確編程的話(huà),機器人就不會(huì )有充分的安全保障,它們就會(huì )有辦法去打破某種禁忌。”
簡(jiǎn)單的方法是,當出現特殊情況時(shí),給機器人編入讓人去檢查機器人行為是否正確的程序。
麥克歐文說(shuō):“如果機器人不確定一種動(dòng)物是否適合被放進(jìn)微波爐時(shí),它可以停下來(lái),發(fā)出嗶嗶的信號聲,以請求人給出指示。”
把人類(lèi)價(jià)值編成程序最困難的一步是,要確定什么才是我們認為的道德行為,以及如何制定一套道德規則。如果我們有了答案,那么機器人對人類(lèi)就會(huì )是有益的。
評論