專(zhuān)家稱(chēng)人工智能對道德倫理問(wèn)題提出重大挑戰
據國外媒體報道,人工智能如今無(wú)處不在。從決定購買(mǎi)哪本書(shū)、訂哪一班航班,到申請工作、獲取銀行貸款,我們生活的各個(gè)方面都與人工智能有著(zhù)或多或少的聯(lián)系。
本文引用地址:http://dyxdggzs.com/article/201703/345570.htm如今,這類(lèi)事情主要由復雜的軟件系統做決定。人工智能在過(guò)去幾年中取得了巨大進(jìn)展,有望從許多方面改善我們的生活。
幾年來(lái),人工智能的崛起已成了必然趨勢。人工智能初創(chuàng )公司收到了大筆投資。許多現有的科技公司,如亞馬遜、Facebook和微軟等巨頭,都已創(chuàng )建了研究實(shí)驗室??梢院敛豢鋸埖卣f(shuō),軟件如今就代表著(zhù)“人工智能”。
有些人預言,人工智能將掀起一場(chǎng)比因特網(wǎng)更加猛烈的變革。而至于機器帶來(lái)的迅速變化將對人類(lèi)產(chǎn)生怎樣的影響,幾乎所有科技人員都將道德倫理視為關(guān)注重點(diǎn)。
對于谷歌研究帶頭人和機器學(xué)習的領(lǐng)軍人物皮特·諾維格(Peter Norvig)而言,雖然由數據驅動(dòng)的人工智能技術(shù)近期取得了一系列成功,但關(guān)鍵問(wèn)題在于,我們必須弄清如何使這些新系統造福整個(gè)社會(huì ),而不僅是該系統的控制者。“人工智能可高效開(kāi)展實(shí)際任務(wù),如給照片貼標簽、理解口頭和書(shū)面自然語(yǔ)言、甚至幫助確診等。”他指出,“而我們必須確保所有人都能從中受益。”
最大的問(wèn)題在于,這些軟件往往極為復雜,無(wú)法參透人工智能系統采取某一行動(dòng)的原因。如今的人工智能以機器學(xué)習技術(shù)為基礎,導致我們無(wú)法透過(guò)表面、看個(gè)究竟。因此我們只能姑且信任它們。但我們必須找出新方法,有效監控和審查人工智能參與的系統。
哈佛法學(xué)院網(wǎng)絡(luò )法教授喬納森·齊特林(Jonathan Zittrain)認為,隨著(zhù)計算機系統日趨復雜,人們或許將難以對人工智能系統進(jìn)行密切監視。“隨著(zhù)我們的計算機系統越來(lái)越復雜、聯(lián)系越來(lái)越緊密,人類(lèi)的自主控制權也不斷減少,這使我很擔心。”他表示,“如果我們‘放手不管,忘到腦后”,不考慮道德倫理問(wèn)題,計算機系統的演化或許會(huì )令我們懊悔不已。”
其他人也表達了同樣的憂(yōu)慮。“我們如何判斷這些系統是否安全呢?”美國杜克大學(xué)人類(lèi)與自主實(shí)驗室主管米西·康明斯(Missy Cummings)指出。她曾是美國海軍首批戰斗機飛行員之一,如今是一名無(wú)人機專(zhuān)家。
人工智能需要受到監視,但具體做法尚不清楚。“目前我們還未就監視方法達成統一意見(jiàn),”康明斯表示,“在缺乏系統測試的行業(yè)標準的情況下,這些技術(shù)很難得到大規模應用。”

隨著(zhù)人工智能的發(fā)展,機器人可以勝任更加復雜的工作。例如,日本的一家商店采用了機器人“導購”。
但當今世界日新月異,監管機構往往落后一步。在刑事司法系統和醫療保健等重要領(lǐng)域,許多公司已經(jīng)開(kāi)始探索人工智能在假釋和診斷等問(wèn)題上的決策能力。但如果將決策權交予機器,我們就面臨著(zhù)失控的風(fēng)險——這些系統真能在每起案例中做出正確的判斷嗎?
微軟研發(fā)部門(mén)的主要研究員丹娜·博伊德(Danah Boyd)稱(chēng),我們必須嚴肅考慮此類(lèi)系統附含的價(jià)值,還要確定最終擔責方。“監管機構、公民社會(huì )和社會(huì )理論學(xué)家都強力要求這些技術(shù)公平公正、符合道義,但這些理念仍然含糊不清。”
道德問(wèn)題對就業(yè)影響頗深。隨著(zhù)人工智能的發(fā)展,機器人可以勝任更加復雜的工作,能夠取代越來(lái)越多的人類(lèi)工人。例如,中國富士康集團已經(jīng)宣布將用機器人取代六萬(wàn)名工廠(chǎng)工人。福特汽車(chē)在德國科隆的工廠(chǎng)也啟用了機器人,與人類(lèi)工人并肩工作。
此外,如果不斷提升的自動(dòng)化水平對就業(yè)產(chǎn)生了重大沖擊,便會(huì )影響人類(lèi)心理健康。“人生的意義來(lái)自三個(gè)方面:有意義的人際關(guān)系,充滿(mǎn)激情的興趣愛(ài)好、以及有意義的工作。”美國前總統奧巴馬醫療顧問(wèn)、生物倫理學(xué)家伊齊基爾·伊曼努爾(Ezekiel Emanuel)指出,“有意義的工作是自我認同感的重要組成部分。”他還表示,在工廠(chǎng)倒閉率和員工失業(yè)率較高的地區,居民自殺、濫用藥物和患抑郁癥的概率也較高。
因此,社會(huì )需要更多的倫理學(xué)家。“公司當然會(huì )跟隨市場(chǎng)潮流行事,這不是壞事,但我們不能指望他們負倫理責任。”麻省理工學(xué)院法律與倫理專(zhuān)家凱特·達爾林(Kate Darling)指出,“我們應當將監管措施落實(shí)到位。每當有新技術(shù)出現,我們都會(huì )開(kāi)展這一討論,研究應對策略。”

許多工廠(chǎng)中,機器人已經(jīng)開(kāi)始與人類(lèi)并肩工作。有些人認為這會(huì )使工人的心理健康受到影響。
達爾林指出,谷歌等許多知名公司已經(jīng)成立了倫理委員會(huì ),監控人工智能技術(shù)的研發(fā)和部署。但這一做法還應進(jìn)一步普及。“我們無(wú)意阻止創(chuàng )新,但眼下也許我們就該成立這樣的機構。”
有關(guān)谷歌倫理委員會(huì )的成員和工作細節,我們還知之甚少。但去年九月,Facebook、谷歌和亞馬遜達成合作,旨在為人工智能為安全和隱私造成的挑戰提出解決方案。一家名為OpenAI的組織致力于研發(fā)和推廣造福全民的開(kāi)源人工智能系統。“機器學(xué)習必須得到廣泛研究,并通過(guò)公開(kāi)出版物和開(kāi)源代碼傳播,這樣我們才能實(shí)現福利共享。”谷歌研究員諾維格指出。
為制定行業(yè)與倫理標準、充分了解當前面臨的風(fēng)險,需要倫理學(xué)家、科技人員和企業(yè)領(lǐng)導人共同參與。這一問(wèn)題涉及如何駕馭人工智能、使人類(lèi)更加擅長(cháng)自己最拿手的領(lǐng)域。“我們更應關(guān)注如何利用相應技術(shù)幫助人類(lèi)思考和決策、而非將人類(lèi)取而代之。”齊特林指出。
評論