<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 業(yè)界動(dòng)態(tài) > 馬斯克的“圣戰”:阻止人工智能毀滅人類(lèi)

馬斯克的“圣戰”:阻止人工智能毀滅人類(lèi)

作者: 時(shí)間:2017-03-31 來(lái)源:騰訊科技 收藏

  CEO埃隆·馬斯克(Elon Musk)以押注未來(lái)而聞名,但如今卻因為硅谷擁抱(AI)而膽戰心驚。于是,他開(kāi)始了自己的“十字軍東征”,以避免人類(lèi)將來(lái)被扼殺。

本文引用地址:http://dyxdggzs.com/article/201703/346075.htm

  國外《名利場(chǎng)》對此進(jìn)行了深度報道,AI世代(微信號:tencentai)對文章進(jìn)行編譯整理如下:

  一、機器殺人狂

  這是一次關(guān)于人類(lèi)未來(lái)命運的友好爭論。戴密斯·哈薩比斯(Demis Hassabis)是高級(AI)的領(lǐng)先開(kāi)發(fā)者,而埃隆·馬斯克(Elon Musk)是一位知名的預言者,二人曾針對人工智能的威脅進(jìn)行過(guò)針?shù)h相對的探討。

 

  戴密斯·哈薩比斯

  他們是硅谷最具影響力、最令人感興趣的兩個(gè)人,雖然二人均不住在硅谷。哈薩比斯是谷歌(微博)旗下人工智能實(shí)驗室DeepMind聯(lián)合創(chuàng )始人兼CEO,數年前,他曾造訪(fǎng)馬斯克旗下太空探索技術(shù)公司SpaceX位于洛杉磯郊外的火箭工廠(chǎng)。二人在食堂里聊了起來(lái),馬斯克說(shuō),SpaceX的終極目標是這個(gè)世界上最重要的項目:星際殖民。

  而哈薩比斯回復道,其實(shí)他們正在從事的是才是世界上最重要的項目:開(kāi)發(fā)人工超級智能。馬斯克接著(zhù)說(shuō),這就是我們殖民火星的原因之一:將來(lái)如果人工智能向人類(lèi)發(fā)起攻擊,我們還有一個(gè)藏身之地。哈薩比斯笑著(zhù)說(shuō),那人工智能也會(huì )追著(zhù)人類(lèi)去火星。

  這番談話(huà)并未打消馬斯克對人工智能的擔憂(yōu),雖然他也相信人工智能跟蹤人類(lèi)走上火星的可能性不大。

  哈薩比斯今年40歲,謙遜低調,但不乏競爭意識,被視為幫助我們召喚“人工智能之子”的魔法師“梅林”(Merlin,魔幻電視劇《梅林傳奇》的主人公)。當前,人工智能正在快速發(fā)展,但尚未達到馬斯克所設想的能夠威脅到人類(lèi)的程度。目前,Facebook利用人工技術(shù)來(lái)提供精準廣告服務(wù),微軟和蘋(píng)果利用人工智能來(lái)驅動(dòng)其數字助手Cortana和Siri,谷歌搜索從一開(kāi)始就依賴(lài)于人工智能技術(shù)。這些努力的最終目標就是創(chuàng )建一種靈活的、能夠自我教育的人工智能,像人類(lèi)能夠自我學(xué)習一樣。

  哈薩比斯是一位象棋高手,也曾經(jīng)是一位視頻游戲設計師,并設計了《邪惡天才》(Evil Genius)這款游戲。在游戲中,一位邪惡的科學(xué)家開(kāi)發(fā)了一款“世界末日設備”,來(lái)主宰世界。知名風(fēng)險投資人、PayPal聯(lián)合創(chuàng )始人彼得·蒂爾(Peter Thiel)和馬斯克曾向《名利場(chǎng)》(Vanity Fair)雜志講述過(guò)一個(gè)故事:在DeepMind的一次投資者會(huì )議上,一位投資者臨走時(shí)開(kāi)玩笑地說(shuō),應該就地射殺哈薩比斯,因為這是挽救人類(lèi)的最后機會(huì )。

 

  知名風(fēng)險投資人、PayPal聯(lián)合創(chuàng )始人彼得·蒂爾

  馬斯克3年前就發(fā)布警告,稱(chēng)人工智能將來(lái)可能成為“殺人機器”。哈薩比斯的合伙人之一謝恩·萊格(Shane Legg)曾表示:“我認為,人類(lèi)將來(lái)可能會(huì )滅絕,而科技也許從中發(fā)揮部分作用。”

  在2014年被谷歌收購前,馬斯克曾是DeepMind投資者。馬斯克稱(chēng),他投資DeepMind不是為了獲得資金回報,而是要關(guān)注人工智能的發(fā)展。他說(shuō):“這會(huì )讓我了解人工智能的發(fā)展狀況。我認為,人工智能的發(fā)展速度真的很快,遠超出人們預期。在日常生活中,我們很少能看到機器人走來(lái)走去。有機會(huì )看到的也就是Roomba這樣的掃地機器人,但它們無(wú)法主宰世界。”

  馬斯克曾在公開(kāi)場(chǎng)合提醒好友和科技同行,稱(chēng)他們可能正在創(chuàng )造毀滅自己的方法。例如,馬斯克曾對彭博社表示, 他擔心好友拉里·佩奇(Larry Page,谷歌聯(lián)合創(chuàng )始人)可能會(huì )在無(wú)意中偶然創(chuàng )造出一種“邪惡機器”,如能夠毀滅人類(lèi)的人工智能機器人。

  在今年2月于迪拜舉行的“世界政府首腦峰會(huì )”上,馬斯克再次提及人工智能威脅論。他說(shuō):“有時(shí),科學(xué)家們太過(guò)于專(zhuān)注自己的研究,以致于沒(méi)有真正意識到其后果。”他還稱(chēng),為了不被人工智能所淘汰,人類(lèi)最終需要與機器相結合,成為一種“半機械人”。馬斯克說(shuō):“我認為,隨著(zhù)時(shí)間的推移,我們將看到生物智能與數字智能的緊密結合。”

  馬斯克對人工智能的擔憂(yōu)始于2014年。當時(shí),他在麻省理工學(xué)院(MIT)發(fā)表演講時(shí)稱(chēng),人工智能可能是人類(lèi)存在的最大威脅。他還稱(chēng):“我們應該出臺一些國內或國際監管條例,以確保我們不做傻事。有了人工智能,就相當于我們開(kāi)始召喚惡魔。”

  馬斯克的這番言論被一些人工智能工程師認為荒唐可笑,每當他們休假后重返實(shí)驗室,就會(huì )調侃說(shuō):“好了,讓我們重新開(kāi)始召喚惡魔的工作吧!”

  馬斯克并沒(méi)有被他們逗笑,但他反對無(wú)拘無(wú)束的人工智能的征程卻已經(jīng)開(kāi)始。

  二、馬斯克的“圣戰”

  當提及“他被認為是艾茵·蘭德(Ayn Rand,俄裔美籍作家)小說(shuō)中的英雄人物”(強調個(gè)人主義和理性的利己主義)時(shí),馬斯克笑著(zhù)說(shuō):“蘭德的小說(shuō)中有些極端的觀(guān)點(diǎn),但有些積極的觀(guān)點(diǎn)。”

  但是,如果要真正描寫(xiě)馬斯克,蘭德可能還需要做些修改。例如,眼睛是灰色的,臉看起來(lái)要憔悴些,公眾形象沒(méi)那么幽默好笑。此外,蘭德還能從馬斯克復雜的個(gè)人生活中找到更多有價(jià)值的材料:第一任妻子是科幻作家賈絲廷·馬斯克(Justine Musk),他有五個(gè)兒子(試管技術(shù),一次是雙胞胎,一次是三胞胎),第二任妻子是英國演員妲露拉·萊莉(Talulah Riley)。馬斯克和萊莉經(jīng)歷了結婚、離婚、再結婚和再離婚?!?/p>

 

  馬斯克和第一任妻子賈絲廷·馬斯克

  

 

  馬斯克和第二任妻子妲露拉·萊莉

  作為一個(gè)平凡的女人,要想和馬斯克這樣長(cháng)期癡迷于工作的人長(cháng)期維持關(guān)系是件很困難的事情。馬斯克在接受彭博社記者阿什利·萬(wàn)斯(Ashlee Vance)采訪(fǎng)時(shí)曾稱(chēng):“女人一周需要關(guān)注多長(cháng)時(shí)間?10個(gè)小時(shí)?”

  每當馬斯克、斯蒂芬·霍金(Stephen Hawking)和比爾·蓋茨(Bill Gates)談到人工智能的威脅時(shí),許多人認為這只是一個(gè)“10級火警”(發(fā)生的概率極小)。但馬斯克卻不以為然,他計劃傾注所有的資源來(lái)規范人工智能研發(fā),從而阻止這一切的發(fā)生。

  例如,馬斯克與Y Combinator總裁薩姆·奧特曼(Sam Altman)成立了非營(yíng)利機構OpenAI,旨在預防人工智能可能帶來(lái)的災難性影響。如今,OpenAI喜遷新址,全職員工數量達到50人,另計劃招聘10人至30人。

  OpenAI 2016年6月公布了其主要目標,包括制造通用機器人和使用自然語(yǔ)言的聊天機器人。乍一看,OpenAI像是一個(gè)輕量級的面子工程,一群聰明的孩子們窩在低層公寓里,對抗谷歌、Facebook和其他科技公司數十億美元的人工智能項目,以及全世界頂尖的人工智能專(zhuān)家。

 

  但是,“以少勝多,以弱勝強”是馬斯克的專(zhuān)長(cháng),他經(jīng)常用自己的風(fēng)格來(lái)做這樣的事情。在硅谷其他公司紛紛專(zhuān)注于IPO股價(jià)時(shí),馬斯克卻擁有著(zhù)更偉大的目標,如解決全球變暖問(wèn)題,殖民火星等。

  OpenAI本質(zhì)上是一個(gè)研究實(shí)驗室。建立這個(gè)實(shí)驗室的目的在于監督企業(yè)和政府,以免這兩個(gè)群體依靠超級人工智能系統過(guò)度榨取利潤或者謀取權力,并以此壓制民眾。

  OpenAI也是帶著(zhù)一個(gè)模糊的使命開(kāi)始運作的。這不足為奇,因為業(yè)界對于“采取怎樣的人工智能形式”、“人工智智能可以做什么”以及“如果去做”等問(wèn)題,業(yè)內專(zhuān)家也在探索中。到目前為止,針對人工智能的公共政策尚未出臺,軟件在很大程度上也不受管制。

  雖然馬斯克對人工智能持批評態(tài)度,但并不代表他對人工智能敬而遠之。他的策略是進(jìn)攻。馬斯克認為,首先要實(shí)現超級人工智能,然后在全球推廣這些技術(shù),而不是讓這些算法(人工智能技術(shù))隱藏或集中在少數科技或政府精英的手中。

  馬斯克說(shuō):“我認為防范人工智能技術(shù)被誤用的最好辦法是盡可能讓更多的人可以使用人工智能技術(shù)。如果每一個(gè)人都可以使用這項技術(shù),那么這項‘超能力’就不會(huì )成為少數團體的囊中法寶。”

  谷歌聯(lián)合創(chuàng )始人拉里·佩奇(Larry Page)和塞吉·布林(Sergey Brin)等科技精英都是馬斯克的好友,馬斯克說(shuō),佩奇和布林都認為自己是人工智能的善意力量。但是,有時(shí)會(huì )事與愿違,一些事情可能會(huì )脫離他們最初的動(dòng)機。

  馬斯克說(shuō):“馬可·奧勒利烏斯(Marcus Aurelius,羅馬皇帝)執政期間,羅馬人民安居樂(lè )業(yè)。但到了卡里古拉(Caligula)執政時(shí),一切都變了。 ”

  三、人工智能卷土重來(lái)

  在經(jīng)歷了所謂的“人工智能寒冬”之后,人工智能如今再次成為硅谷的熱門(mén)話(huà)題。OpenAI首席技術(shù)官(CTO)格雷格·布羅克曼(Greg Brockman)稱(chēng),科技市場(chǎng)的下一個(gè)十年將圍繞人工智能而展開(kāi),幾乎每個(gè)人都會(huì )把錢(qián)投資給那些“少數了解人工智能咒語(yǔ)的巫師身上”。

  微軟計算機專(zhuān)家、“虛擬現實(shí)之父” 杰倫·拉尼爾(Jaron Lanier)向我們解釋了人工智能的誘人之處,他說(shuō):“有這樣一種觀(guān)點(diǎn)說(shuō),你們這些人工智能技術(shù)人員就是上帝,你們正在創(chuàng )造生活,你們正在改變現實(shí)。許多開(kāi)發(fā)人員也有一種自戀傾向,只有我們能做這樣的事情,其他人根本做不到。教皇做不到,總統也做不到。我們就是人工智能的主宰……”

  在過(guò)去的幾年,谷歌幾乎收購了每一家有吸引力的機器人和機器學(xué)習公司。例如,以6.5億美元收購了DeepMind,隨又組建“谷歌大腦”團隊,專(zhuān)攻人工智能。此外,谷歌還聘請了英國人工神經(jīng)網(wǎng)絡(luò )專(zhuān)家杰弗里·希爾頓(Geoffrey Hinton)和未來(lái)學(xué)家雷·庫茲韋爾(Ray Kurzweil)。

  在佩奇的骨子里,以及谷歌的DNA中,都認為公司走上人工智能之路不可避免。彭博社記者萬(wàn)斯甚至表示:“如果 人工智能惹出什么事,我第一個(gè)就會(huì )想到谷歌。”如果谷歌能用電腦控制搜索(當時(shí)是世界上最重要的問(wèn)題),那就能用電腦做成任何事。

  去年3月,DeepMind開(kāi)發(fā)的人工智能?chē)宄绦駻lphaGo因戰勝人類(lèi)圍棋頂尖高手李世石而震驚世界。哈薩比斯稱(chēng),AlphaGo簡(jiǎn)直就是人工智能界的“阿波羅計劃”。最近,AlphaGo又在網(wǎng)上匿名狂虐各國圍棋高手,甚至實(shí)現了60-0的完勝戰績(jì)。

 

  無(wú)論是出于真心,還是公關(guān)目的,針對三年前的谷歌收購DeepMind交易,哈薩比斯提出了一個(gè)前提條件:雙方必須要組建一個(gè)人工智能倫理委員會(huì )。在三年前,這真的是一個(gè)彌足珍貴的舉措。這表明,哈薩比斯是在追求真正的人工智能。去年6月,DeepMind一名研究人員還發(fā)表了一篇論文, 給出了“緊急按鈕”解決方案,以阻止人工智能傷害人類(lèi)。

  佩奇認為,當前的許多系統都沒(méi)有處于最佳狀態(tài)。但如果能引入人工智能,人們的需求就能更好地被滿(mǎn)足。這樣,人們就能有更多時(shí)間陪伴家人,或追求自己的興趣愛(ài)好。雖然是佩奇的好友,但馬斯克卻不同意他的觀(guān)點(diǎn),并認為佩奇在這個(gè)問(wèn)題上的看法太天真了。

  而一些硅谷人士認為,馬斯克拯救世界是假,給自己貼金才是真。此外,馬斯克用“人機大戰”的劇情也是為了吸引人才,其真正目的并非阻止人工智能,而是阻止別人發(fā)展人工智能。

  但萬(wàn)斯認為,馬斯克的擔心是真實(shí)存在的,雖然馬斯克到底要拿什么對抗人工智能的崛起還是個(gè)未知數。萬(wàn)斯說(shuō):“馬斯克的第一任妻子曾表示,他們夜里很晚還會(huì )討論人工智能的問(wèn)題。”

  加州大學(xué)伯克利分校機器智能研究所(MIRI)聯(lián)合創(chuàng )始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)也認同萬(wàn)斯的觀(guān)點(diǎn),他說(shuō):“他可是馬斯克,如果想博得關(guān)注,根本不用談及人工智能,直接說(shuō)移民火星就好了。”

  除了谷歌, Facebook也在發(fā)展人工智能。去年,在馬斯克宣布成立OpenAI僅三周,扎克伯格就發(fā)布了新年度挑戰任務(wù),其中包括打造一個(gè)全能的人工智能助手。

  扎克伯格曾表示:“人工智能能為我們所用,并協(xié)助我們工作。有些人認為人工智能是個(gè)巨大的威脅,但我認為,它的危險程度遠不及疾病和暴力。”去年4月,扎克伯格在Facebook開(kāi)發(fā)者大會(huì )上還稱(chēng):“相對于恐懼,我更愿意選擇希望。”

  在去年的圣誕節前,扎克伯格推出了人工智能助手“Jarvis”,還請來(lái)了好萊塢影星摩根·弗里曼(Morgan Freeman)為它配音。賈維斯雖然較為初級,但切個(gè)歌,開(kāi)關(guān)個(gè)燈或烤個(gè)吐司,卻完全不在話(huà)下。但馬斯克卻認為:“這種能自動(dòng)完成家務(wù)的機器根本算不上人工智能,開(kāi)關(guān)燈、調節溫度,這些都不是人工智能。”

  對于馬斯克的評價(jià),扎克伯格不屑一顧。當被問(wèn)及馬斯克的“世界末日論”是“癡人說(shuō)夢(mèng)”還是“有理有據”,馬斯克選擇了前者。

  四、人工智能或造成歷史斷裂

  馬斯克和其他一些發(fā)表過(guò)人工智能威脅論的人有時(shí)被視為“小題大作”的人,但2016年1月,馬斯克贏(yíng)得了“盧德獎”(Luddite Award,反技術(shù)進(jìn)步),頒發(fā)這個(gè)獎項的是華盛頓一家科技政策智囊。不過(guò),馬斯克不是一個(gè)人在戰斗。

  英國著(zhù)名物理學(xué)家霍金曾向BBC表示:“我認為,人工智能的發(fā)展可能預示著(zhù)人類(lèi)的滅亡。”微軟聯(lián)合創(chuàng )始人比爾·蓋茨(Bill Gates)也表示,人工智能可能比核戰爭還要恐怖。牛津大學(xué)哲學(xué)教授尼克·博斯托姆(Nick Bostrom)2014年曾在《超級智能》(Superintelligence)一書(shū)中寫(xiě)道:“一旦不友好的超級智能誕生,它就會(huì )阻止我們去替換它,或改變其喜好。如果這樣,我們的命運將被終結。”去年,美國前國務(wù)卿亨利·基辛格(Henry Kissinger)也表示,智能機器人可能造成歷史斷裂,甚至瓦解整個(gè)人類(lèi)文明。

  2015年1月,馬斯克、博斯托姆和其他一些業(yè)內專(zhuān)家齊聚波多黎各,參加一次行業(yè)會(huì )議。這次會(huì )議達成了一個(gè)共識:我們需要“火災保險”。 當我們遭遇火災并深受其害時(shí),人類(lèi)發(fā)明了滅火器。當車(chē)禍帶走人類(lèi)生命時(shí),我們發(fā)明了安全帶和氣囊。但在核武器和人工智能問(wèn)題上,我們沒(méi)有吸取教訓的機會(huì ),因此一次錯誤都不能犯,我們需要未雨綢繆。

  波多黎各會(huì )議過(guò)去半年后,馬斯克、霍金和哈薩比斯等1000多位業(yè)內人士又簽署了一封聯(lián)名信,呼吁禁止進(jìn)攻性自動(dòng)化武器。加州大學(xué)伯克利分校計算機科學(xué)教授斯圖亞特·魯塞爾(Stuart Russell)稱(chēng):“在過(guò)去的50年間,最近18個(gè)月對人工智能的未來(lái)發(fā)展至關(guān)重要。因為人工智能界終于蘇醒,并開(kāi)始認真思考怎樣做才會(huì )有一個(gè)更美好的未來(lái)。”

  去年9月,美國五大科技巨頭谷歌、Facebook、亞馬遜、IBM和微軟罕見(jiàn)的攜起手來(lái),成立了人工智能合作組織。此外,歐盟也開(kāi)始探討機器人和人工智能方面的道德問(wèn)題。

  去年1月,麻省理工學(xué)院物理學(xué)家麥克斯·泰格馬克(Max Tegmark)主持了一次人工智能安全會(huì )議。佩奇也參加了這次會(huì )議,馬斯克稱(chēng),他們之間的談話(huà)不再劍拔弩張了。馬斯克在會(huì )后稱(chēng),我們還有很長(cháng)的路要走,但他同時(shí)表示:“硅谷的頂級科學(xué)家們真的開(kāi)始認真對待人工智能了,他們都意識到了這項技術(shù)的風(fēng)險。”

  風(fēng)險投資人蒂爾對馬斯克的“十字軍東征”有著(zhù)不同的看法。他認為,馬斯克聲勢浩大的抵制行為反而會(huì )推動(dòng)人工智能的研究,因為他的“世界末日論”提高了人們對人工智能的興趣。

  他說(shuō):“關(guān)于人工智能,當前有一些非常棘手的問(wèn)題。即使真的要確保人工智能安全,我們目前也沒(méi)有任何線(xiàn)索。我們甚至不知道人工智能是什么,更不用說(shuō)如何來(lái)控制它們。”

  蒂爾還稱(chēng):“人工智能問(wèn)題包括了人們對電腦時(shí)代的全部希望和恐懼,由于上述種種限制,人類(lèi)的直覺(jué)可能會(huì )失靈,因為我們從未處理過(guò)比人類(lèi)還聰明的實(shí)體”。

  五、與超級智能合二為一

  人們在人工智能領(lǐng)域的分歧,究竟孰是孰非? 未來(lái)學(xué)家、《奇點(diǎn)迫近》(The Singularity Is Near) 一書(shū)的作者雷·庫茲韋爾(Ray Kurzweil)稱(chēng):“當前計算機對人類(lèi)思考的貢獻頗大。就在幾年前,人工智能連貓和狗之間的差別都分不清。”

  庫茲韋爾還支持人與超級智能合二為一的想法。在描述這個(gè)想法時(shí),他甚至使用了“我們”一詞,而擁有同樣想法的馬斯克則謹慎的選擇了“它們”。

  庫茲韋爾已經(jīng)意識到了人工智能的威脅。他說(shuō):“危險和希望相互交織。就像火一樣,它能取暖燒飯,但也可能燒掉你的房子。當前,也有相應的策略來(lái)控制這種危險。”

  庫茲韋爾還稱(chēng):“要想比計算機做得更好,我們要變得越來(lái)越聰明,而我們創(chuàng )造這些工具就是為了增強人類(lèi)的能力。”

  庫茲韋爾預計,到本世紀30年代,人類(lèi)將進(jìn)化成半機械人,通過(guò)神經(jīng)系統直接就能進(jìn)入虛擬現實(shí)(VR)和增強現實(shí)(AR)世界。他說(shuō):“屆時(shí)人人都將變成幽默大師,音樂(lè )造詣高超,智慧過(guò)人。”最終,會(huì )有許多貝多芬和愛(ài)因斯坦誕生。此外,血管中的納米機器人還能治療疾病,從身體內部治愈我們的身體。

  庫茲韋爾認為,馬斯克的設想可能會(huì )成真。人工智能可能很友好,但也可能不夠友好。一旦反叛,人類(lèi)必須要與之一戰,而唯一的戰勝方式可能就是再開(kāi)發(fā)一個(gè)更聰明、聽(tīng)從人類(lèi)指揮的人工智能機器。

  對于機器人替代人類(lèi)的說(shuō)法,加州大學(xué)伯克利分校計算機科學(xué)教授魯塞爾并不認同。他說(shuō),如果機器人替代了人類(lèi),這世界上就沒(méi)有意識存在了,無(wú)論它們創(chuàng )造出多少令人震驚的事情,這可能是最大的悲劇。博斯托姆也認為,這樣的世界相當于是“沒(méi)有孩子的迪士尼樂(lè )園”。

  魯塞爾說(shuō):“有人認為,如果機器人在智力上超越人類(lèi),它們就會(huì )占領(lǐng)地球,并趕走人類(lèi)。但也有人認為,我們可以把自己的思維上傳到機器體內,這樣就能進(jìn)化成有意識的機器人。但我認為,這種想法完全不可信。”

  魯塞爾也不認同Facebook人工智能研究院院長(cháng)、“卷積神經(jīng)網(wǎng)絡(luò )之父嚴·樂(lè )村(Yann LeCun)的觀(guān)點(diǎn)。樂(lè )村認為,電影《機械姬》(Ex Machina)或《終結者》(Terminator)中的場(chǎng)景都不會(huì )出現,因為機器人沒(méi)有人類(lèi)的基本欲求,包括饑餓、權力、生育和自我保護。

  對于“無(wú)需擔心人工智能威脅”的觀(guān)點(diǎn),支持者通常有兩大理由:其一,這根本不會(huì )發(fā)生;其二;我們可以再開(kāi)發(fā)一些機器人同盟軍,來(lái)對抗背叛的機器人。魯塞爾對這兩個(gè)理由給予了反駁,稱(chēng)第一個(gè)理由就好比在說(shuō),我們正駕車(chē)駛向懸崖,但在到達之前,汽車(chē)油量一定會(huì )耗盡,這不是管理日常事物的良好方式。至于第二個(gè)理由,魯塞爾說(shuō):“如果你的機器人不同意你的計劃,如何與它們結成一個(gè)團隊?”

  去年,微軟關(guān)停了自家人工智能聊天機器人Tay。本來(lái),微軟對Tay寄予厚望,但上線(xiàn)后不到一天就開(kāi)始發(fā)表不當言論。馬斯克隨后表示:“看吧,讓聊天機器人變成希特勒,微軟只花了一天時(shí)間。”

  六、人類(lèi)將走向何方?

  37歲的尤德科夫斯基是加州大學(xué)伯克利分校機器智能研究所(MIRI)的聯(lián)合創(chuàng )始人,他試圖弄清在現實(shí)中(而不是理論上)人類(lèi)究竟能否根據意愿指揮人工智能。

  在接受采訪(fǎng)時(shí),他率先拋出了一連串的問(wèn)題,“假如你想為人工智能安裝一個(gè)緊急關(guān)閉按鈕,它會(huì )允許你安裝嗎?它會(huì )試圖弄掉這個(gè)按鈕嗎?它愿意讓你按下按鈕嗎?出問(wèn)題時(shí)它會(huì )自己按下按鈕嗎?如果它能自行更改設置,它還愿意保留這個(gè)關(guān)閉按鈕嗎?我們正在研究這些問(wèn)題,這些都不是簡(jiǎn)單的問(wèn)題。”

  尤德科夫斯基認為:“人工智能想奪權根本不需要控制整個(gè)互聯(lián)網(wǎng),也不需要無(wú)人機。人工智能的危險不在于它們手上有槍?zhuān)鼈冎晕kU,是因為比人類(lèi)更聰明。假設它們能根據DNA信息來(lái)預測蛋白質(zhì)結構,只需發(fā)幾封郵件給實(shí)驗室,就能合成特定的蛋白質(zhì)。這樣,它們很快就會(huì )擁有自己的分子機器,還能建造更高端的分子機器。 ”

  尤德科夫斯基說(shuō):“預測人工智能的威脅,不要想象科幻電影中紅著(zhù)眼睛的人形金屬機器人,它真正的威脅來(lái)自那些看不到的、由金剛石構成的合成細菌,它們會(huì )載著(zhù)微型電腦進(jìn)入人類(lèi)血液。之后,只要它們釋放一微克的肉毒桿菌毒素,人類(lèi)就會(huì )倒下。當然,人工智能究竟會(huì )不會(huì )這樣做,目前還很難預測,因為屆時(shí)它們的智力已經(jīng)超越人類(lèi)。因此,當你制造一個(gè)比你還聰明的事物時(shí),第一次嘗試就不能出任何差錯。”

  再回到之前對馬斯克和奧特曼的采訪(fǎng),他們也認為,不要被單純的“殺戮機器人”所分心。馬斯克說(shuō):“人工智能的的恐怖之處不在于它要化身為機器人,相反它會(huì )成為網(wǎng)絡(luò )上的算法,最終機器人就會(huì )變成終端效應器,無(wú)限的散播是最難阻擋之處。”

  馬斯克還舉例說(shuō):“假如你開(kāi)發(fā)一個(gè)可以自我升級的人工智能來(lái)摘草莓,這個(gè)人工智能可以干得越來(lái)越好,摘得越來(lái)越多。但是,它想做的事情就是摘草莓,所以可能把全世界都變成草莓園,而且永遠都是草莓園。這樣,人類(lèi)就沒(méi)有生存空間了。”

 

  奧特曼也表示:“一個(gè)能控制整個(gè)互聯(lián)網(wǎng)的人工智能算法,要比控制機器人的人工智能算法更強大,因為我們的生活早已與互聯(lián)網(wǎng)密不可分。”

  當被問(wèn)及人類(lèi)能否開(kāi)發(fā)出用來(lái)終結人工智能機器人的”緊急按鈕“時(shí),馬斯克說(shuō):“我是不想成為那個(gè)手持緊急按鈕的人,因為人工智能會(huì )第一個(gè)來(lái)殺掉我。”

  奧特曼則開(kāi)玩笑地說(shuō):“活著(zhù)真好。未來(lái)幾十年,人類(lèi)要么走向自我毀滅,要么殖民宇宙。”

  馬斯克補充說(shuō):“是的,如果你相信宇宙‘熱寂理論’,那么我們已經(jīng)都在路上了。”“熱寂理論”是猜想宇宙終極命運的一種假說(shuō)。在這樣的宇宙中,再也沒(méi)有任何可以維持運動(dòng)或是生命的能量存在。



關(guān)鍵詞: 人工智能 特斯拉

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>