美專(zhuān)家:機器人與人類(lèi)是伙伴 中國落后美國5年
二、人與機器關(guān)系的思考
本文引用地址:http://dyxdggzs.com/article/201601/286077.htm1、懸而未決的倫理困境
縱觀(guān)人類(lèi)歷史,技術(shù)雖然已經(jīng)取代了人類(lèi)勞動(dòng)力,火車(chē)頭和拖拉機仍然不會(huì )作出人類(lèi)級別的決策,但在以后,隨著(zhù)技術(shù)的進(jìn)步,“會(huì )思考的機器”可以。它還可以了解到技術(shù)與人性共同進(jìn)化的過(guò)程,這一過(guò)程同樣又會(huì )提出同樣的問(wèn)題:誰(shuí)將處于主導地位?在硅谷,慶祝機器的崛起已成為時(shí)尚,可以從奇點(diǎn)研究中心(Singularity Institute)這類(lèi)公司的崛起和凱文·凱利 2010 年的《科技想要什么》(What Technology Wants)這類(lèi)書(shū)籍中清晰地看出這一點(diǎn)。早在 1994 年的《失控》(Out of Control)中,凱利就已堅定地站在了機器一邊。他在書(shū)中描述了人工智能先驅馬文·明斯基和道格拉斯·恩格爾巴特兩人間的一次會(huì )談。
20 世紀 50 年代,當這兩個(gè)家伙在麻省理工學(xué)院見(jiàn)面后,人們認為他們之間進(jìn)行了如下對話(huà)。
明斯基:我們要讓機器變得智能,我們要讓它們擁有意識。恩格爾巴特:你要為機器做這些事?那你又打算為人類(lèi)做些什么呢?
通常,那些致力于讓計算機變得更友好、更人性化、更以人為本的工程師們會(huì )講這個(gè)故事,但是,我直接站在了明斯基一邊——站在了機器一邊。人們會(huì )存活下來(lái),我們會(huì )訓練我們的機器來(lái)服務(wù)我們。但是,我們又將為機器做些什么呢?
凱利指出,明斯基和恩格爾巴特分別持有不同的立場(chǎng),這一點(diǎn)毋庸置疑。但是,認為“人類(lèi)會(huì )存活下來(lái)”的觀(guān)點(diǎn)顯然輕視了它們的影響。他基本上是在復述明斯基對人工智能到來(lái)的意義的回答:“如果我們夠幸運,或許它們會(huì )把我們當寵物養。”
明斯基的觀(guān)點(diǎn)反映了 AI 和 IA 之間的鴻溝。到目前為止,人工智能圈子在絕大多數時(shí)候都選擇忽視他們認為只是強大工具的系統帶來(lái)的影響,規避了對道德問(wèn)題的討論。當我詢(xún)問(wèn)自動(dòng)化對人類(lèi)影響的話(huà)題時(shí),一位正在打造新一代機器人的工程師告訴我:“你不能這樣想。你只需決定你將盡己所能,為全人類(lèi)改善世界。”
在已經(jīng)過(guò)去的 50 年中,麥卡錫和恩格爾巴特的理論仍然各自為政,他們最為核心的沖突仍然懸而未決。一種方法要用日益強大的計算機硬件和軟件組合取代人類(lèi);另一種方法則要使用相同的工具,在腦力、經(jīng)濟、社會(huì )等方面??發(fā)展人類(lèi)的能力。盡管鮮有人注意這些方法之間的鴻溝,這場(chǎng)新技術(shù)浪潮的爆炸 (一個(gè)正在影響現代生活方方面面的技術(shù)浪潮)將極力壓縮這種分化,并防止反彈的發(fā)生。
機器是會(huì )取代人類(lèi)工人還是增強他們的能力?在某種層面上,這兩種結果都會(huì )實(shí)現,但需要再次注意的是,這個(gè)問(wèn)題本身就存在問(wèn)題,它只會(huì )讓我們得到偏頗的答案。軟件和硬件機器人都已足夠靈活,它們最終都會(huì )變成我們在程序中為它們設計的模樣。在我們當前的經(jīng)濟體系中,機器人(包括機器和智能系統) 被如何設計、怎樣使用,都完全是由成本和收益確定的,而且成本正在以不斷加快的速度下降。在我們的社會(huì )中,經(jīng)濟學(xué)理論指出,如果一項工作能夠由機器(硬件或軟件)完成,并且成本更低,那么在大多數情況下,人們會(huì )選擇讓機器來(lái)完成這項工作。只不過(guò)是時(shí)間早晚的問(wèn)題。
該在這場(chǎng)爭論中站怎樣的立場(chǎng)實(shí)在很難抉擇,因為沒(méi)有顯而易見(jiàn)的正確答案。盡管無(wú)人駕駛汽車(chē)將取代數以百萬(wàn)計的崗位,但它們也將拯救更多的生命。今天,在大多數情況下,人們會(huì )以收益和效率為根據決定實(shí)現哪些技術(shù), 但也明顯需要新的道德演繹。然而,決定成敗的不只有細節。就像核武器和核動(dòng)力一樣,人工智能、基因工程和機器人學(xué)將在未來(lái) 10 年內產(chǎn)生人們意料之中和意料之外的廣泛的社會(huì )影響。
2、手推車(chē)難題,是否選擇“更小的惡魔”
所謂的“手推車(chē)難題”通常是這樣的:一輛失控的手推車(chē)正一路向下狂奔,如果它繼續前進(jìn)的話(huà),將有 5 個(gè)人會(huì )被殺死。你可以讓這輛手推車(chē)轉向另一個(gè)不同的方向,從而拯救這 5 個(gè)人的生命,在那個(gè)方向上只有 1 個(gè)人,而這個(gè)人將被手推車(chē)撞死。掉轉手推車(chē),以犧牲 1 個(gè)人的代價(jià)來(lái)避免 5 個(gè)人的死亡,道德會(huì )允許嗎? 1967 年,英國哲學(xué)家菲利帕·富特(Philippa Foot)在一篇論述流產(chǎn)倫理問(wèn)題的論文中首先提出了這個(gè)難題,最終引發(fā)了針對選擇“更小的惡魔”這一概念的無(wú)止境的哲學(xué)辯論。最近,它又演變成“機器人汽車(chē)是否應該為了躲避跑到路中央的 5 個(gè)孩子而選擇開(kāi)到人行道上撞死 1 個(gè)成年人”的議題。
通常,人們可以設計讓軟件選擇那個(gè)“較小的惡魔”,但問(wèn)題的框架似乎在其他層面上存在錯誤。因為 90% 的交通事故是由駕駛員錯誤導致的,似乎自動(dòng)駕駛汽車(chē)能夠令傷亡總數出現顯著(zhù)下降,所以,盡管仍然有少數事故純粹是技術(shù)失敗導致的,但更好的產(chǎn)品應該服務(wù)人類(lèi)。從某種程度上說(shuō),汽車(chē)產(chǎn)業(yè)已經(jīng)贊同了這一邏輯,例如,緊急氣囊拯救的生命遠比問(wèn)題氣囊包導致的傷亡要多。
對這一問(wèn)題狹隘的關(guān)注也忽視了自動(dòng)駕駛汽車(chē)在未來(lái)可能的運行方式。很有可能到那個(gè)時(shí)候,路上的工人、警察、緊急車(chē)輛、汽車(chē)、行人和騎行者都會(huì )以電子化形式告知其他人自己的存在,甚至沒(méi)有完全自動(dòng)化的功能都能顯著(zhù)提高安全性。一項名為“V2X”的技術(shù)正在全球范圍內接受測試,它能夠讓附近汽車(chē)的位置進(jìn)行共享。在未來(lái),甚至正在上小學(xué)的孩子們也會(huì )拿上傳感器, 向汽車(chē)警告自己的存在,降低事故發(fā)生的可能性。
令人困惑的是,哲學(xué)家們通常不會(huì )從更宏觀(guān)的角度探究手推車(chē)難題,而只是將其當作獨立事件的一個(gè)縮影。誠然,如果技術(shù)失敗,這將成為一出獨立的悲劇。改善運輸整體安全性的系統似乎十分必要,盡管它們并不完美。將人類(lèi)排除出駕駛所帶來(lái)的哲學(xué)問(wèn)題遠比它對經(jīng)濟學(xué)、社會(huì )學(xué)甚至文化產(chǎn)生的影響更有趣。2013 年,美國有 3.4 萬(wàn)人死于交通事故,236 萬(wàn)人受傷。2012 年,全美有 380 萬(wàn)人以駕駛維生。對比一下這些數字。如果無(wú)人駕駛汽車(chē)在未來(lái) 20 年內出現,它們很有可能取代很多人的工作。
3、人與機器,是伙伴不是敵人
微軟公司的園區不規則地分布著(zhù)環(huán)環(huán)相扣的人行道、建筑物、運動(dòng)場(chǎng)、食堂和有冷杉點(diǎn)綴的停車(chē)場(chǎng)。這兒看起來(lái)與硅谷的 GooglePlex 園區有些不同, 沒(méi)有色彩鮮艷的自行車(chē)。但相同點(diǎn)是年輕的技術(shù)工人可以輕松地進(jìn)入社區大學(xué), 甚至高中生也可以在園區里漫步。
當你靠近 99 樓(微軟研究實(shí)驗室的所在地)大廳的電梯時(shí),電梯大門(mén)會(huì )感應到你的存在,然后自動(dòng)開(kāi)啟。這有些像《星際迷航》里的場(chǎng)景,柯克船長(cháng)也從來(lái)沒(méi)有按過(guò)一個(gè)按鈕。這臺智能電梯是微軟高級研究員、雷蒙德研究中心主管埃里克·霍維茨的杰作。在眾多使用統計技術(shù)改善人工智能應用性能的第一代計算機科學(xué)家中,霍維茨算得上是知名度較高的人工智能研究人員。
霍維茨和許多人一樣,也是因為對理解人類(lèi)思維如何工作產(chǎn)生了濃厚興趣,開(kāi)始了自己的學(xué)習。20 世紀 80 年代,他從斯坦福大學(xué)獲得醫學(xué)學(xué)位,馬上又開(kāi)始了神經(jīng)生物學(xué)的碩士研究。
一天夜里,他獨自一人待在實(shí)驗室,把探針插入老鼠大腦中的一個(gè)神經(jīng)元中?;艟S茨興奮不已。屋子里很黑,有一臺示波器和一個(gè)音頻揚聲器。當聽(tīng)到神經(jīng)元發(fā)出的聲音時(shí),他對自己說(shuō):“我終于進(jìn)來(lái)了,我進(jìn)到了一個(gè)脊椎動(dòng)物的思想里。”與此同時(shí),他也意識到,自己并不明白這次沖擊在這個(gè)小動(dòng)物的思維過(guò)程中到底意味著(zhù)什么?;艟S茨看了一眼自己的實(shí)驗臺,注意到一臺最近拿來(lái)的蘋(píng)果 IIe 型計算機的蓋布滑落到了一邊。他的心一沉,意識到自己正在運用一種完全錯誤的方法。他正在做的事情無(wú)異于隨機將一只探針塞進(jìn)計算機里,試圖理解計算機軟件。
霍維茨離開(kāi)了醫學(xué)領(lǐng)域,轉而開(kāi)始研究認知心理學(xué)和計算機科學(xué)。他選擇了卡內基·梅隆大學(xué)的認知科學(xué)家、人工智能先驅赫伯特·西蒙作為自己的遠程導師,也開(kāi)始接觸加州大學(xué)洛杉磯分校計算機科學(xué)教授朱迪亞·珀爾 (Judea Pearl)。珀爾開(kāi)創(chuàng )了人工智能研究的新方法,這種方法與早期的邏輯和基于規則的方法具有明顯區別,專(zhuān)注于建立嵌套式的概率網(wǎng)絡(luò )來(lái)識別模式。從概念上來(lái)講,這與 20 世紀 60 年代遭到明斯基和珀爾特批評的神經(jīng)網(wǎng)絡(luò )的思路相距不遠。
因此,20 世紀 80 年代,霍維茨在斯坦福大學(xué)遠離了計算機科學(xué)研究的主流。許多主流人工智能研究者認為,他對概率論的興趣是過(guò)時(shí)的,回到了過(guò)去的“控制論”方法。
1993 年,霍維茨來(lái)到微軟研究院,他的任務(wù)是打造一個(gè)團隊,研發(fā)可以改善公司商業(yè)產(chǎn)品的人工智能技術(shù)。微軟的 Office 助手(即“Clippy”)1997 年問(wèn)世,主要是為了幫助用戶(hù)掌握不易使用的軟件,它在很大程度上就是霍維茨團隊在微軟研究院的研究成果。得更加容易,如今市面上已經(jīng)出現了幾種這一類(lèi)型的增強產(chǎn)品。例如,早在 2005 年,兩位象棋愛(ài)好者使用一個(gè)下棋程序贏(yíng)了一位象棋大師,以及其他下棋程序。
霍維茨仍在研究如何通過(guò)人類(lèi)智能讓機器學(xué)習和計算機決策結合起來(lái), 以此深化人機交互。舉例來(lái)說(shuō),他的研究人員與引導全民科學(xué)的工具 Galaxy Zoo的設計者們密切合作,利用人類(lèi)網(wǎng)絡(luò )沖浪者的力量對銀河系圖片進(jìn)行分類(lèi)。
眾籌勞動(dòng)力正在科學(xué)研究中變成十分重要的資源:專(zhuān)業(yè)科學(xué)家可以指導業(yè)余愛(ài)好者,而業(yè)余愛(ài)好者要做的,只是玩一些利用人類(lèi)認知的精密游戲,來(lái)幫助科學(xué)家解決像繪制蛋白質(zhì)結構一樣棘手的問(wèn)題。
在很多情況下,人類(lèi)專(zhuān)家團隊已經(jīng)超過(guò)了某些最強大的超級計算機的能力。在評估完人類(lèi)和機器的組合后,通過(guò)給每一個(gè)組分配一個(gè)特定的研究任務(wù), 科學(xué)家能夠創(chuàng )造一支強大的混合科研團隊。
計算機擁有驚人的圖像識別能力,它們可以創(chuàng )建數百個(gè)視覺(jué)表格,分析目前望遠鏡能夠觀(guān)測到的所有星系。這種做法并不昂貴,但也沒(méi)能產(chǎn)生最好的結果。在這個(gè)程序的新版本 Galaxy Zoo 2 中,擁有機器學(xué)習模型的計算機能夠解釋星系圖片,以便為人類(lèi)分類(lèi)員提供準確的樣本,使之可以比之前更容易地為星系進(jìn)行登記。
在另一個(gè)改進(jìn)中,這個(gè)系統增加了識別不同參與者的特定技能的功能, 并能夠恰當地予以平衡。Galaxy Zoo 2能夠自動(dòng)對遇到的問(wèn)題進(jìn)行分類(lèi),并且知道哪些人可以更有效地解決這個(gè)問(wèn)題。
在 2013 年的一場(chǎng) TED 演講中,霍維茨向觀(guān)眾展示了一名微軟實(shí)習生第一次遇到迎賓機器人時(shí)的反應?;艟S茨展示了一小段視頻,里面記錄了從系統的視角來(lái)看這次互動(dòng)的過(guò)程,尤其是記錄了這名女性實(shí)習生的臉部。這位年輕的女性靠近系統,系統告訴她,霍維茨正在辦公室里與某人交談,并且提出可以為她安排會(huì )面時(shí)間,她猶豫了一下,??絕了計算機的提議。
“哇,這太驚人了。”這位年輕的女性低聲說(shuō)。然后,為了結束這次對話(huà), 她急匆匆地說(shuō)了一句:“很高興認識你!”霍維茨總結道,這是一個(gè)好的跡象。他認為,這種類(lèi)型的互動(dòng)展現了人類(lèi)和機器人成為伙伴的世界。
也許,與機器人交互的那種自由、放松之感,正是因為在連的另一邊并不是一個(gè)令人難以捉摸的人類(lèi)。也許,這根本與人際關(guān)系無(wú)關(guān),更多的在于是取得控制成為主人還是成為奴隸。
4、選擇,一切與機器無(wú)關(guān)
在人工智能和機器人技術(shù)之間,未來(lái)既可能是烏托邦,也可能是地獄,還有可能是介于兩者之間的某種世界。如果生活和自由的標準有機會(huì )得到提高,但是否值得以犧牲自由和隱私為代價(jià)呢?是否存在能夠設計出這種系統的正途或是歧路?我堅信,答案就在這些設計師身上。
一組設計師設計出強大的機器人,讓人們可以完成此前無(wú)法想象的任務(wù),比如用于空間探索的編程機器人;而另一組人則研究用機器取代人類(lèi),比如設計出人工智能軟件,讓機器人可以為醫生和律師的工作“代班”。有必要讓這兩個(gè)陣營(yíng)找到互相交流的途徑。我們如何設計這些日益智能的機器、如何與它們互動(dòng), 將決定未來(lái)社會(huì )和經(jīng)濟的本質(zhì)。這將不斷影響現代世界的方方面面,從我們是否生活在一個(gè)階層更加分明(或更加模糊)的世界, 到身為人類(lèi)究竟意味著(zhù)什么。
對于當今人工智能技術(shù)狀況的討論已經(jīng)突然轉向科幻小說(shuō)或宗教領(lǐng)域。不過(guò),機器自治的現實(shí)不僅屬于哲學(xué)范疇,也不是純粹的假設性問(wèn)題了。我們已經(jīng)進(jìn)入了新時(shí)期,機器能夠執行很多需要智慧與體力的人類(lèi)工作:它們可以勝任工廠(chǎng)的工作、駕駛無(wú)人駕駛汽車(chē),將人類(lèi)排除在外汽車(chē)、診斷疾病,也能以人類(lèi)律師的眼光閱讀文件,它們當然也能控制武器,以極高的精準度展開(kāi)屠殺。
無(wú)論是機器設備,還是讓它們運轉的軟件,實(shí)際上都是由人類(lèi)設計的。馬歇爾·麥克盧漢(Marshall McLuhan)對這一過(guò)程的描述最為清晰:“我們塑造了工具,而之后,這些工具又塑造了我們。”
現實(shí)情況是,人類(lèi)將繼續決定機器的能力。那些創(chuàng )造了日益強大、自動(dòng)化的機器人和人工智能軟件的工程師們,將決定這些發(fā)明將要增強人類(lèi)、控制人類(lèi)還是完全去除人類(lèi)的存在。
同樣可以確定的是,人類(lèi)與機器的關(guān)系在每一種文化中都呈現了各自的特征。長(cháng)久以來(lái),日本人都對機器人情有獨鐘,而在美國,人們在崇敬機器的同時(shí),又多了幾分懷疑和惶恐。
這些都不是什么新問(wèn)題。在計算時(shí)代的黎明期,應用數學(xué)家、控制論創(chuàng )始人諾伯特·維納(Norbert Wiener)就曾明確指出,智能機器時(shí)代的到來(lái),帶來(lái)了一些清晰的選擇。不過(guò)到目前為止,大多數可選方案仍然僅限于推理與猜測。如今,隨著(zhù)機器變得自動(dòng)、敏捷、能夠四處移動(dòng),工程師、科學(xué)家、程序員以及老百姓所作出的每一個(gè)決定,都會(huì )即刻發(fā)生作用。今天,機器人學(xué)和人工智能軟件都在不斷喚起人們對個(gè)人計算時(shí)代早期的回憶。正如業(yè)余愛(ài)好者們締造了個(gè)人計算機產(chǎn)業(yè),人工智能設計師和機器人學(xué)家對技術(shù)進(jìn)步、新產(chǎn)品和它們身后的科技公司都抱有極大的熱情。與此同時(shí), 多數軟件設計師和機器人工程師在被問(wèn)到自己的發(fā)明會(huì )帶來(lái)什么潛在影響時(shí)都會(huì )感到不快,只能頻繁地以幽默來(lái)轉移話(huà)題,化解尷尬,但是,問(wèn)題仍然是必要的。機器人發(fā)展中可沒(méi)有“盲眼鐘表匠”(blind watchmaker)。無(wú)論是增強還是自動(dòng)化,都是由一個(gè)個(gè)人類(lèi)設計師作出的設計決定。
評論