<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 霍金:人工智能要么為人所用 要么終結人類(lèi)

霍金:人工智能要么為人所用 要么終結人類(lèi)

作者: 時(shí)間:2017-05-02 來(lái)源:網(wǎng)易智能 收藏
編者按:霍金認為,人工智能的崛起要么成為人類(lèi)歷史上最好的事,要么成為最糟糕的事情。所以,霍金呼吁人類(lèi)研究人工智能一定要規避風(fēng)險,并警告人類(lèi)意志轉變的人工智能可能會(huì )毀滅人類(lèi)。

  一年一度的GMIC大會(huì )今日在北京國家會(huì )議中心舉行。在上午的領(lǐng)袖峰會(huì )上,世界著(zhù)名物理學(xué)家斯蒂芬·威廉·霍金做了演講并回答了一些關(guān)于的問(wèn)題。

本文引用地址:http://dyxdggzs.com/article/201705/358613.htm

  雖然霍金的演講的題目為《讓造福人類(lèi)及其賴(lài)以生存的家園》,但是霍金一再表示了其對發(fā)展的擔憂(yōu)。

  霍金稱(chēng),我目前見(jiàn)證的最深刻的社會(huì )變化是人工智能的崛起。

  為了支持這一論點(diǎn),霍金解釋到,文明所產(chǎn)生的一切都是人類(lèi)智能的產(chǎn)物,從國際象棋和圍棋人機大戰的結果來(lái)看,霍金認為生物大腦可以達到的和計算機可以達到的,沒(méi)有本質(zhì)區別。因此,它遵循了“計算機在理論上可以模仿人類(lèi)智能,然后超越”這一原則。人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設計自身。人類(lèi)由于受到漫長(cháng)的生物進(jìn)化的限制,無(wú)法與之競爭,將被取代。


霍金:人工智能要么為人所用 要么終結人類(lèi)


  霍金呼吁,研究人員必須能夠創(chuàng )造出可控的人工智能。在具體的問(wèn)題上,霍金稱(chēng)自己短期的擔憂(yōu)在無(wú)人駕駛方面,從民用無(wú)人機到自主駕駛汽車(chē)。比如說(shuō),在緊急情況下,一輛無(wú)人駕駛汽車(chē)不得不在小風(fēng)險的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔憂(yōu)在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過(guò)失應該如何問(wèn)責。還有另外一些擔憂(yōu),由人工智能逐漸可以解讀大量監控數據引起的隱私和擔憂(yōu),以及如何管理因人工智能取代工作崗位帶來(lái)的經(jīng)濟影響。而長(cháng)期擔憂(yōu)主要是人工智能系統失控的潛在風(fēng)險,隨著(zhù)不遵循人類(lèi)意愿行事的超級智能的崛起,那個(gè)強大的系統威脅到人類(lèi)。

  “人工智能的成功有可能是人類(lèi)文明史上最大的事件,但是人工智能也有可能是人類(lèi)文明史的終結?!被艚鹂偨Y道。

  以下為霍金在GMIC2017上的演講實(shí)錄:

  在我的一生中,我見(jiàn)證了社會(huì )深刻的變化。其中最深刻的,同時(shí)也是對人類(lèi)影響與日俱增的變化,是人工智能的崛起。簡(jiǎn)單來(lái)說(shuō),我認為強大的人工智能的崛起,要么是人類(lèi)歷史上最好的事,要么是最糟的。我不得不說(shuō),是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來(lái)發(fā)展對我們和我們的環(huán)境有利。我們別無(wú)選擇。我認為人工智能的發(fā)展,本身是一種存在著(zhù)問(wèn)題的趨勢,而這些問(wèn)題必須在現在和將來(lái)得到解決。

  人工智能的研究與開(kāi)發(fā)正在迅速推進(jìn)。也許我們所有人都應該暫停片刻,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會(huì )效益上面?;谶@樣的考慮,美國人工智能協(xié)會(huì )(AAAI)于2008至2009年,成立了人工智能長(cháng)期未來(lái)總籌論壇,他們近期在目的導向的中性技術(shù)上投入了大量的關(guān)注。但我們的人工智能系統須要按照我們的意志工作??鐚W(xué)科研究是一種可能的前進(jìn)道路:從經(jīng)濟、法律、哲學(xué)延伸至計算機安全、形式化方法,當然還有人工智能本身的各個(gè)分支。

  文明所產(chǎn)生的一切都是人類(lèi)智能的產(chǎn)物,我相信生物大腦可以達到的和計算機可以達到的,沒(méi)有本質(zhì)區別。因此,它遵循了“計算機在理論上可以模仿人類(lèi)智能,然后超越”這一原則。但我們并不確定,所以我們無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類(lèi)正在從事的工作,并迅速地消滅數以百萬(wàn)計的工作崗位。

  在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時(shí),我也在擔憂(yōu)創(chuàng )造一個(gè)可以等同或超越人類(lèi)的事物所導致的結果:人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設計自身。人類(lèi)由于受到漫長(cháng)的生物進(jìn)化的限制,無(wú)法與之競爭,將被取代。這將給我們的經(jīng)濟帶來(lái)極大的破壞。未來(lái),人工智能可以發(fā)展出自我意志,一個(gè)與我們沖突的意志。盡管我對人類(lèi)一貫持有樂(lè )觀(guān)的態(tài)度,但其他人認為,人類(lèi)可以在相當長(cháng)的時(shí)間里控制技術(shù)的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問(wèn)題的潛力。但我并不確定。

  2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專(zhuān)家簽署了一份關(guān)于人工智能的公開(kāi)信,目的是提倡就人工智能對社會(huì )所造成的影響做認真的調研。在這之前,埃隆·馬斯克就警告過(guò)人們:超人類(lèi)人工智能可能帶來(lái)不可估量的利益,但是如果部署不當,則可能給人類(lèi)帶來(lái)相反的效果。我和他同在“生命未來(lái)研究所”的科學(xué)顧問(wèn)委員會(huì ),這是一個(gè)為了緩解人類(lèi)所面臨的存在風(fēng)險的組織,而且之前提到的公開(kāi)信也是由這個(gè)組織起草的。這個(gè)公開(kāi)信號召展開(kāi)可以阻止潛在問(wèn)題的直接研究,同時(shí)也收獲人工智能帶給我們的潛在利益,同時(shí)致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。此外,對于決策者和普通大眾來(lái)說(shuō),這封公開(kāi)信內容翔實(shí),并非危言聳聽(tīng)。人人都知道人工智能研究人員們在認真思索這些擔心和倫理問(wèn)題,我們認為這一點(diǎn)非常重要。比如,人工智能是有根除疾患和貧困的潛力的,但是研究人員必須能夠創(chuàng )造出可控的人工智能。那封只有四段文字,題目為《應優(yōu)先研究強大而有益的人工智能》的公開(kāi)信,在其附帶的十二頁(yè)文件中對研究的優(yōu)先次序作了詳細的安排。

  在過(guò)去的20年里,人工智能一直專(zhuān)注于圍繞建設智能代理所產(chǎn)生的問(wèn)題,也就是在特定環(huán)境下可以感知并行動(dòng)的各種系統。在這種情況下,智能是一個(gè)與統計學(xué)和經(jīng)濟學(xué)相關(guān)的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力?;谶@些工作,大量的整合和交叉孕育被應用在人工智能、機器學(xué)習、統計學(xué)、控制論、神經(jīng)科學(xué)、以及其它領(lǐng)域。共享理論框架的建立,結合數據的供應和處理能力,在各種細分的領(lǐng)域取得了顯著(zhù)的成功。例如語(yǔ)音識別、圖像分類(lèi)、自動(dòng)駕駛、機器翻譯、步態(tài)運動(dòng)和問(wèn)答系統。

  隨著(zhù)這些領(lǐng)域的發(fā)展,從實(shí)驗室研究到有經(jīng)濟價(jià)值的技術(shù)形成良性循環(huán)。哪怕很小的性能改進(jìn),都會(huì )帶來(lái)巨大的經(jīng)濟效益,進(jìn)而鼓勵更長(cháng)期、更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩步發(fā)展,而它對社會(huì )的影響很可能擴大,潛在的好處是巨大的,既然文明所產(chǎn)生的一切,都是人類(lèi)智能的產(chǎn)物;我們無(wú)法預測我們可能取得什么成果,當這種智能是被人工智能工具放大過(guò)的。但是,正如我說(shuō)過(guò)的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規避風(fēng)險是非常重要的。

  現在,關(guān)于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長(cháng)期來(lái)討論。一些短期的擔憂(yōu)在無(wú)人駕駛方面,從民用無(wú)人機到自主駕駛汽車(chē)。比如說(shuō),在緊急情況下,一輛無(wú)人駕駛汽車(chē)不得不在小風(fēng)險的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔憂(yōu)在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過(guò)失應該如何問(wèn)責。還有另外一些擔憂(yōu),由人工智能逐漸可以解讀大量監控數據引起的隱私和擔憂(yōu),以及如何管理因人工智能取代工作崗位帶來(lái)的經(jīng)濟影響。

  長(cháng)期擔憂(yōu)主要是人工智能系統失控的潛在風(fēng)險,隨著(zhù)不遵循人類(lèi)意愿行事的超級智能的崛起,那個(gè)強大的系統威脅到人類(lèi)。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什么樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,或智能爆發(fā)的出現?


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: 人工智能

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>