霍金:人工智能要么為人所用 要么終結人類(lèi)
當前控制人工智能技術(shù)的工具,例如強化學(xué)習,簡(jiǎn)單實(shí)用的功能,還不足以解決這個(gè)問(wèn)題。因此,我們需要進(jìn)一步研究來(lái)找到和確認一個(gè)可靠的解決辦法來(lái)掌控這一問(wèn)題。
本文引用地址:http://dyxdggzs.com/article/201705/358613.htm近來(lái)的里程碑,比如說(shuō)之前提到的自主駕駛汽車(chē),以及人工智能贏(yíng)得圍棋比賽,都是未來(lái)趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來(lái)幾十年后可能取得的成就相比,必然相形見(jiàn)絀。而且我們遠不能預測我們能取得什么成就,當我們的頭腦被人工智能放大以后。也許在這種新技術(shù)革命的輔助下,我們可以解決一些工業(yè)化對自然界造成的損害。關(guān)乎到我們生活的各個(gè)方面都即將被改變。簡(jiǎn)而言之,人工智能的成功有可能是人類(lèi)文明史上最大的事件。
但是人工智能也有可能是人類(lèi)文明史的終結,除非我們學(xué)會(huì )如何避免危險。我曾經(jīng)說(shuō)過(guò),人工智能的全方位發(fā)展可能招致人類(lèi)的滅亡,比如最大化使用智能性自主武器。今年早些時(shí)候,我和一些來(lái)自世界各國的科學(xué)家共同在聯(lián)合國會(huì )議上支持其對于核武器的禁令。我們正在焦急的等待協(xié)商結果。目前,九個(gè)核大國可以控制大約一萬(wàn)四千個(gè)核武器,它們中的任何一個(gè)都可以將城市夷為平地,放射性廢物會(huì )大面積污染農田,最可怕的危害是誘發(fā)核冬天,火和煙霧會(huì )導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動(dòng)蕩,很可能導致大部分人死亡。我們作為科學(xué)家,對核武器承擔著(zhù)特殊的責任,因為正是科學(xué)家發(fā)明了它們,并發(fā)現它們的影響比最初預想的更加可怕。
現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會(huì )者,重要的是,你們要認清自己在影響當前技術(shù)的未來(lái)研發(fā)中的位置。我相信我們團結在一起,來(lái)呼吁國際條約的支持或者簽署呈交給各國政府的公開(kāi)信,科技領(lǐng)袖和科學(xué)家正極盡所能避免不可控的人工智能的崛起。
一個(gè)新的機構,試圖解決一些在人工智能研究快速發(fā)展中出現的尚無(wú)定論的問(wèn)題?!袄バ菽分悄芪磥?lái)中心”是一個(gè)跨學(xué)科研究所,致力于研究智能的未來(lái),這對我們文明和物種的未來(lái)至關(guān)重要。我們花費大量時(shí)間學(xué)習歷史,深入去看——大多數是關(guān)于愚蠢的歷史。所以人們轉而研究智能的未來(lái)是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂(lè )觀(guān)態(tài)度,我相信創(chuàng )造智能的潛在收益是巨大的。也許借助這項新技術(shù)革命的工具,我們將可以削減工業(yè)化對自然界造成的傷害。
我們生活的每一個(gè)方面都會(huì )被改變。我在研究所的同事休·普林斯承認,“利弗休姆中心”能建立,部分是因為大學(xué)成立了“存在風(fēng)險中心”。后者更加廣泛地審視了人類(lèi)潛在問(wèn)題,“利弗休姆中心”的重點(diǎn)研究范圍則相對狹窄。
人工智能的最新進(jìn)展,包括歐洲議會(huì )呼吁起草一系列法規,以管理機器人和人工智能的創(chuàng )新。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,以確保最有能力和最先進(jìn)的人工智能的權利和責任。歐洲議會(huì )發(fā)言人評論說(shuō),隨著(zhù)日常生活中越來(lái)越多的領(lǐng)域日益受到機器人的影響,我們需要確保機器人無(wú)論現在還是將來(lái),都為人類(lèi)而服務(wù)。向歐洲議會(huì )議員提交的報告,明確認為世界正處于新的工業(yè)機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時(shí)候,研究和設計人員都應確保每一個(gè)機器人設計都包含有終止開(kāi)關(guān)。在庫布里克的電影《2001太空漫游》中,出故障的超級電腦哈爾沒(méi)有讓科學(xué)家們進(jìn)入太空艙,但那是科幻。我們要面對的則是事實(shí)。奧斯本·克拉克跨國律師事務(wù)所的合伙人,洛納·布拉澤爾在報告中說(shuō),我們不承認鯨魚(yú)和大猩猩有人格,所以也沒(méi)有必要急于接受一個(gè)機器人人格。但是擔憂(yōu)一直存在。報告承認在幾十年的時(shí)間內,人工智能可能會(huì )超越人類(lèi)智力范圍,人工智能可能會(huì )超越人類(lèi)智力范圍,進(jìn)而挑戰人機關(guān)系。報告最后呼吁成立歐洲機器人和人工智能機構,以提供技術(shù)、倫理和監管方面的專(zhuān)業(yè)知識。如果歐洲議會(huì )議員投票贊成立法,該報告將提交給歐盟委員會(huì )。它將在三個(gè)月的時(shí)間內決定要采取哪些立法步驟。
我們還應該扮演一個(gè)角色,確保下一代不僅僅有機會(huì )還要有決心,在早期階段充分參與科學(xué)研究,以便他們繼續發(fā)揮潛力,幫助人類(lèi)創(chuàng )造一個(gè)更加美好的的世界。這就是我剛談到學(xué)習和教育的重要性時(shí),所要表達的意思。我們需要跳出“事情應該如何”這樣的理論探討,并且采取行動(dòng),以確保他們有機會(huì )參與進(jìn)來(lái)。我們站在一個(gè)美麗新世界的入口。這是一個(gè)令人興奮的、同時(shí)充滿(mǎn)了不確定性的世界,而你們是先行者。我祝福你們。
謝謝!
以下為中國科技大咖、科學(xué)家、投資家和網(wǎng)友與霍金問(wèn)答實(shí)錄:
創(chuàng )新工場(chǎng)的CEO李開(kāi)復(問(wèn)):互聯(lián)網(wǎng)巨頭擁有巨量的數據,而這些數據會(huì )給他們各種以用戶(hù)隱私和利益換取暴利的機會(huì )。在巨大的利益誘惑下,他們是無(wú)法自律的。而且,這種行為也會(huì )導致小公司和創(chuàng )業(yè)者更難創(chuàng )新。您常談到如何約束人工智能,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭?
霍金:據我了解,許多公司僅將這些數據用于統計分析,但任何涉及到私人信息的使用都應該被禁止。會(huì )有助于隱私保護的是,如果互聯(lián)網(wǎng)上所有的信息,均通過(guò)基于量子技術(shù)加密,這樣互聯(lián)網(wǎng)公司在一定時(shí)間內便無(wú)法破解。但安全服務(wù)會(huì )反對這個(gè)做法。
第二個(gè)問(wèn)題來(lái)自于獵豹移動(dòng)CEO傅盛(問(wèn)):靈魂會(huì )不會(huì )是量子的一種存在形態(tài)?或者是高維空間里的另一個(gè)表現?
霍金:我認為近來(lái)人工智能的發(fā)展,比如電腦在國際象棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦并沒(méi)有本質(zhì)差別。這點(diǎn)上我和我的同事羅杰·彭羅斯正好相反。會(huì )有人認為電腦有靈魂嗎?對我而言,靈魂這個(gè)說(shuō)法是一個(gè)基督教的概念,它和來(lái)世聯(lián)系在一起。我認為這是一個(gè)童話(huà)故事。
第三個(gè)問(wèn)題來(lái)自于百度總裁張亞勤(問(wèn)):人類(lèi)觀(guān)察和抽象世界的方式不斷演進(jìn),從早期的觀(guān)察和估算,到牛頓定律和愛(ài)因斯坦方程式,到今天數據驅動(dòng)的計算和人工智能,下一個(gè)是什么?
霍金:我們需要一個(gè)新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱(chēng)這是弦理論,但我對此表示懷疑,目前唯一的推測是,時(shí)空有十個(gè)維度。
第四個(gè)問(wèn)題來(lái)自于斯坦福大學(xué)物理學(xué)教授張首晟(問(wèn)):如果讓你告訴外星人我們人類(lèi)取得的最高成就,寫(xiě)在一張明信片的背面,您會(huì )寫(xiě)什么?
霍金:告訴外星人關(guān)于美,或者任何可能代表最高藝術(shù)成就的藝術(shù)形式都是無(wú)益的,因為這是人類(lèi)特有的。我會(huì )告訴他們哥德?tīng)柌煌陚涠ɡ砗唾M馬大定理。這才是外星人能夠理解的事情。
文廚(問(wèn)):我們希望提倡科學(xué)精神,貫穿GMIC全球九站,清您推薦三本書(shū),讓科技屆的朋友們更好的理解科學(xué)及科學(xué)的未來(lái)。
霍金:他們應該去寫(xiě)書(shū)而不是讀書(shū)。只有當一個(gè)人關(guān)于某件事能寫(xiě)出一本書(shū),才代表他完全理解了這件事。
微博用戶(hù)(問(wèn)):您認為一個(gè)人一生中最應當做的一件事和最不應當做的一件事是什么?”
霍金:我們絕不應當放棄,我們都應當盡可能多的去理解(這個(gè)世界)。
微博用戶(hù)(問(wèn)):人類(lèi)在漫漫的歷史長(cháng)河中,重復著(zhù)一次又一次的革命與運動(dòng)。從石器、蒸汽、電氣……您認為下一次的革命會(huì )是由什么驅動(dòng)的?
霍金:(我認為是)計算機科學(xué)的發(fā)展,包括人工智能和量子計算??萍家呀?jīng)成為我們生活中重要的一部分,但未來(lái)幾十年里,它會(huì )逐漸滲透到社會(huì )的每一個(gè)方面,為我們提供智能地支持和建議,在醫療、工作、教育和科技等眾多領(lǐng)域。但是我們必須要確保是我們來(lái)掌控人工智能,而非它(掌控)我們。
最后一個(gè)問(wèn)題來(lái)自于音樂(lè )人、投資者胡海泉(問(wèn)):如果星際移民技術(shù)的成熟窗口期遲到,有沒(méi)有完全解決不了的內發(fā)災難導致人類(lèi)滅絕?拋開(kāi)隕星撞地球這樣的外來(lái)災難。
霍金:是的。人口過(guò)剩、疾病、戰爭、饑荒、氣候變化和水資源匱乏,人類(lèi)有能力解決這些危機。但很可惜,這些危機還嚴重威脅著(zhù)我們在地球上的生存,這些危機都是可以解決的,但目前還沒(méi)有。
評論