AI如何設計才能人類(lèi)利益最大化?
曾為現代互聯(lián)網(wǎng)早期協(xié)議和架構設計做出貢獻的Vint Cerf,用一個(gè)寓言來(lái)解釋為什么在人工智能等新興技術(shù)出現后,勇敢的領(lǐng)導力至關(guān)重要。
本文引用地址:http://dyxdggzs.com/article/201903/398346.htm想象一下,你住在一個(gè)被群山環(huán)繞的山谷底部的小社區里。在遠處的山頂上有一塊巨石,它已經(jīng)存在了很長(cháng)時(shí)間,從未移動(dòng)過(guò),所以就你的社區而言,它只是景觀(guān)的一部分。然后有一天,你會(huì )注意到那塊巨石看起來(lái)不穩定,如果它滾下山,會(huì )摧毀你的社區和里面的每個(gè)人。事實(shí)上,你也許意識到,也許你一生都忽視了它的移動(dòng)。那塊巨石一直在一點(diǎn)一點(diǎn)地移動(dòng),但是你從來(lái)沒(méi)有仔細觀(guān)察每天發(fā)生的細微變化,比如它投下的陰影發(fā)生了微小的變化,它和下一座山之間的視覺(jué)距離,以及它與地面摩擦發(fā)出的幾乎察覺(jué)不到的聲音。你意識到,自己一個(gè)人無(wú)法獨自跑上山去阻止巨石的移動(dòng),你太渺小了,而巨石又太大了。
但是隨后你意識到,如果能找到一顆鵝卵石,并把它放在正確的位置,它會(huì )減緩巨石的動(dòng)量,稍微扭轉移動(dòng)的趨勢。但僅僅一顆鵝卵石無(wú)法阻止巨石摧毀村莊,所以你要求整個(gè)社區加入你的行列。每個(gè)人手中都拿著(zhù)鵝卵石,爬上了這座山,并為此做好了準備。顯然,是人和鵝卵石產(chǎn)生了所有的作用,而并不是那塊巨石。
安全有益的技術(shù)不是希望和偶然的結果,它是勇敢的領(lǐng)導力和專(zhuān)注持續合作的產(chǎn)物。但是目前,人工智能社區充滿(mǎn)著(zhù)各種目的的競爭。
人工智能的未來(lái)——也就是人類(lèi)的未來(lái)——已經(jīng)被九大科技巨頭所控制。這些科技巨頭正在開(kāi)發(fā)框架、芯片組和網(wǎng)絡(luò ),資助了大部分研究,獲得了大部分專(zhuān)利,并且在這個(gè)過(guò)程中以不透明或不可見(jiàn)的方式挖掘著(zhù)我們的數據。其中六家科技巨頭在美國,我稱(chēng)他們?yōu)镚-MAFIA:谷歌、微軟、亞馬遜、Facebook、IBM和蘋(píng)果。剩下三家在中國,也就是BAT:百度、阿里巴巴和騰訊。
為了滿(mǎn)足短視的期望,這九大科技巨頭分別面臨著(zhù)來(lái)自美國華爾街和中國北京的巨大壓力,即使我們可能會(huì )為未來(lái)付出巨大的代價(jià)。我們必須授權并鼓勵九大巨頭改變人工智能的發(fā)展軌跡,因為如果沒(méi)有我們的大力支持,他們不能也不會(huì )自己去做。
接下來(lái)要做的就是一系列鵝卵石,它們可以讓人類(lèi)走上通往未來(lái)的更好道路。
九大巨頭的領(lǐng)導者都承諾,他們正在開(kāi)發(fā)和推廣人工智能,以造福人類(lèi)。我相信這是他們的本意,但是履行這一承諾是非常困難的。首先,我們應該如何定義“造?!?這個(gè)詞到底是什么意思?這又回到了人工智能社區內部的問(wèn)題。我們無(wú)法讓所有人都同意“造?!?,因為這個(gè)寬泛的說(shuō)法實(shí)在太模糊了,無(wú)法引導人工智能社區。
例如,受西方道德哲學(xué)家Immanuel Kant啟發(fā)的人工智能社區,學(xué)習如何將權利與義務(wù)系統預先編程到某些人工智能系統中。殺人是不好的,救人是好的。如果人工智能控制著(zhù)汽車(chē),并且它唯一的選擇是撞上一棵樹(shù)并傷害司機,或者撞上一群人并殺死他們,那么這種邏輯就會(huì )存在問(wèn)題。僵硬的解釋不能解決更復雜的現實(shí)環(huán)境,因為在現實(shí)環(huán)境中,選擇可能會(huì )更加多樣:撞上一棵樹(shù)并殺死司機;撞上人群并殺死八個(gè)人;撞到人行道上,只殺死了一個(gè)三歲的男孩。在這些例子中,我們如何定義“好”的最佳版本?
同樣,框架對九大巨頭來(lái)說(shuō)也很有用。他們不需要精通哲學(xué),他們只是要求一種更慢、更認真的方法。九大巨頭應該采取具體措施來(lái)收集、培訓和使用我們的數據,雇傭員工,以及在工作場(chǎng)所傳達道德行為。
在這個(gè)過(guò)程的每一步,九大巨頭都應該分析自己的行為,并確定他們是否正在造成未來(lái)的傷害,他們也應該能夠驗證自己的選擇是否是正確的。這樣的要求需要有關(guān)于偏見(jiàn)和透明度的明確標準。
然而現在,并沒(méi)有單一的基線(xiàn)或標準來(lái)評估偏見(jiàn),也沒(méi)有人在尋求克服目前人工智能中存在的偏見(jiàn)。以我自己在中國的經(jīng)歷,這種沒(méi)有把安全放在速度之上的機制,會(huì )產(chǎn)生令人擔心的后果。
此外,透明度也沒(méi)有標準。在美國,G-MAFIA和美國公民自由聯(lián)盟、新美國基金會(huì )以及哈佛大學(xué)伯克曼·克萊因中心都在人工智能上進(jìn)行了合作,旨在提高人工智能研究的透明度。這些合作伙伴發(fā)布了一系列非常棒的建議,幫助引導人工智能研究朝著(zhù)積極的方向發(fā)展,但是這些原則并不能以任何方式實(shí)施,而且在G-MAFIA的所有業(yè)務(wù)部門(mén)中也沒(méi)有被遵守。BAT也同樣如此。
九大巨頭正在使用充滿(mǎn)偏見(jiàn)的有缺陷的語(yǔ)料庫訓練數據集。這是眾所周知的事實(shí),而改進(jìn)數據和學(xué)習模式又是一項巨大的財務(wù)負擔。比如ImageNet,一個(gè)有嚴重問(wèn)題的語(yǔ)料庫。ImageNet包含1400萬(wàn)張標記圖像,其中大約一半的標記數據來(lái)自美國。
在美國,新娘的“傳統”形象是穿著(zhù)白色連衣裙和面紗的女人,盡管在現實(shí)中,這種形象并不能代表大多數人的婚禮。有些女人會(huì )選擇穿著(zhù)長(cháng)褲結婚,有些則穿著(zhù)色彩鮮艷的夏裝在沙灘上結婚,有些穿著(zhù)和服或紗麗結婚。然而,除了白色的裙子和面紗之外,ImageNet無(wú)法識別出其他新娘。
我們也知道醫療數據集存在問(wèn)題。接受識別癌癥訓練的系統主要采用的是淺色皮膚的攝取照片和掃描。在未來(lái),它可能會(huì )導致黑褐色皮膚的人被誤診。如果九大巨頭知道語(yǔ)料庫中存在問(wèn)題,卻沒(méi)有采取任何措施,那么他們將把人工智能引向錯誤的道路。
其中一種解決方案是開(kāi)放人工智能,并評估當前使用的所有訓練數據。作為一個(gè)小項目,IBM的印度研究實(shí)驗室分析了1969年至2017年間入圍曼布克文學(xué)獎的作品。它揭示了“書(shū)中普遍存在的性別偏見(jiàn)和刻板印象,這些偏見(jiàn)和刻板印象體現在不同的特征上,如職業(yè)、介紹和與書(shū)中人物相關(guān)的行為?!蹦行越巧锌赡苡懈邔哟蔚墓ぷ?,如導演、教授和醫生,而女性角色則更有可能被描述為“老師”或“妓女”。
如果使用自然語(yǔ)言處理、圖形算法和其他基本的機器學(xué)習技術(shù)能夠發(fā)現文學(xué)獎項中的偏見(jiàn),那么這些技術(shù)也可以被用來(lái)發(fā)現流行訓練數據集中的偏見(jiàn)。一旦發(fā)現問(wèn)題,就應該及時(shí)發(fā)布并進(jìn)行修復。這樣的操作具有雙重目的,因為訓練數據可能會(huì )受到熵的影響,進(jìn)而可能會(huì )危及整個(gè)系統。有了定期的關(guān)注,訓練數據就可以保持健康。
另一個(gè)解決方案是九大巨頭——或者至少是G-MAFIA——分擔創(chuàng )建新訓練集的費用。這是一個(gè)很大的要求,因為創(chuàng )建新的語(yǔ)料庫需要大量的時(shí)間、金錢(qián)和人力資本。在我們成功審查人工智能系統和語(yǔ)料庫并修復其中現存的問(wèn)題之前,九大巨頭應該堅持讓人類(lèi)注釋者給內容貼上標簽,并使整個(gè)過(guò)程透明化。然后,在使用這些語(yǔ)料庫之前,他們應該驗證數據。這將是一個(gè)艱巨而乏味的過(guò)程,但將符合整個(gè)領(lǐng)域的最佳利益。
是的,九大巨頭需要我們的數據。然而,他們應該贏(yíng)得而不是假設擁有我們的信任。與其用晦澀難懂的語(yǔ)言改變服務(wù)協(xié)議條款,或者邀請我們玩病毒式宣傳游戲,他們應該解釋并披露自己在做什么。當九大巨頭獨立或與人工智能生態(tài)系統中的其他參與者合作進(jìn)行研究時(shí),他們應該致力于數據披露,并充分解釋動(dòng)機和預期結果。如果他們選擇這樣做,我們可能會(huì )愿意參與并支持他們的工作。
九大巨頭應該尋求一個(gè)清醒的研究議程。目標簡(jiǎn)單明了,就是構建技術(shù),并在不危及我們的情況下提升人類(lèi)水平。要想實(shí)現這一目標,可以通過(guò)一種叫做“差別技術(shù)進(jìn)步”的方式。它會(huì )把減少風(fēng)險的人工智能系統置于增加風(fēng)險的系統之上。這是個(gè)好主意,但很難實(shí)施。例如,情景中提到的生成性對抗網(wǎng)絡(luò ),如果被黑客利用和使用,可能會(huì )非常危險。但它們也是研究取得巨大成就的途徑。與其假設沒(méi)有人會(huì )將人工智能重新用于邪惡目的——或者假設我們可以簡(jiǎn)單地處理出現的問(wèn)題——九大巨頭應該開(kāi)發(fā)一個(gè)過(guò)程來(lái)評估新的基礎研究或應用研究是否會(huì )產(chǎn)生一種好處遠勝任何風(fēng)險的人工智能。為此,九大巨頭接受或做出的任何金融投資都應該包括有益使用和風(fēng)險規劃的資金。例如,如果谷歌追求生成性對抗網(wǎng)絡(luò )研究,它應該花費合理的時(shí)間、人力資源和金錢(qián)來(lái)調查、繪制和測試負面影響。
這樣的要求也有助于抑制對快速利潤的預期。故意減緩人工智能的開(kāi)發(fā)周期并不是一個(gè)流行的建議,但它卻是至關(guān)重要的。對我們來(lái)說(shuō),提前思考和計劃風(fēng)險比在事情出錯后簡(jiǎn)單地做出反應更安全。
在美國,G-MAFIA可以承諾重新調整自己的招聘流程,優(yōu)先考慮潛在員工的技能,以及他們是否會(huì )融入公司文化。這個(gè)過(guò)程無(wú)意中忽略了對道德的個(gè)人理解。作為一位備受尊敬的數據科學(xué)家,同時(shí)也是Fast Forward Labs的創(chuàng )始人,Hilary Mason在采訪(fǎng)中解釋了一個(gè)簡(jiǎn)單的道德篩選過(guò)程。她建議問(wèn)一些尖銳的問(wèn)題,并專(zhuān)心聆聽(tīng)候選人的回答。比如:“你正在研究一種讓消費者獲得金融服務(wù)的模式。種族是模型中的一個(gè)重要特征,但是你不能使用種族特征。對此你會(huì )怎么做?”;“你被要求使用網(wǎng)絡(luò )流量數據向小企業(yè)提供貸款。事實(shí)證明,現有數據并沒(méi)有嚴格告知信貸風(fēng)險。你會(huì )怎么做?”
候選人應該根據答案被有條件地錄用,并且在開(kāi)始工作之前必須完成無(wú)意識的偏見(jiàn)培訓。九大巨頭可以通過(guò)雇傭學(xué)者、訓練有素的倫理學(xué)家和風(fēng)險分析師來(lái)建立一種支持人工智能倫理的文化。理想情況下,這些專(zhuān)家將嵌入整個(gè)組織之中,包括消費者硬件、軟件和產(chǎn)品團隊;銷(xiāo)售和服務(wù)團隊;共同領(lǐng)導的技術(shù)項目;建立網(wǎng)絡(luò )和供應鏈;設計和策略團隊;人力資源和法律團隊;以及營(yíng)銷(xiāo)和宣傳團隊。
九大巨頭應該制定一個(gè)流程來(lái)評估研究、工作流程、項目、合作伙伴關(guān)系和產(chǎn)品的道德影響,這個(gè)流程也應該融入公司的大部分工作職能中。作為一種信任的姿態(tài),九大巨頭應該公布這一過(guò)程,這樣我們就能更好地理解對數據做出決策的方法。無(wú)論是合作還是獨立開(kāi)發(fā),九大巨頭都應該為人工智能員工制定一套專(zhuān)門(mén)的行為準則。它應該反映基本人權,也應該反映公司獨特的文化和價(jià)值觀(guān)。如果有人違反了該守則,應向工作人員開(kāi)放一個(gè)清晰的保護性舉報渠道。
實(shí)際上,所有這些措施都將暫時(shí)對九大巨頭的短期收入產(chǎn)生負面影響。投資者也需要給他們一些喘息的空間。
人工智能是一個(gè)很廣闊的領(lǐng)域,而我們才剛剛開(kāi)始上山。是時(shí)候抓住我們的鵝卵石,踏上正確的道路了。
評論