<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 消費電子 > 業(yè)界動(dòng)態(tài) > 人工智能是否會(huì )終結人類(lèi)?聽(tīng)聽(tīng)7位業(yè)界大牛的聲音

人工智能是否會(huì )終結人類(lèi)?聽(tīng)聽(tīng)7位業(yè)界大牛的聲音

作者: 時(shí)間:2016-05-06 來(lái)源:騰訊科技 收藏
編者按:人工智能是會(huì )終結人類(lèi),挽救人類(lèi),還是讓人類(lèi)變得無(wú)足輕重?人工智能未來(lái)到底會(huì )怎樣發(fā)展?

  5月6日消息,據《時(shí)代》雜志網(wǎng)站報道,從谷歌(微博)AlphaGo擊敗李世石,到語(yǔ)義網(wǎng)絡(luò )掌握4歲兒童的語(yǔ)言能力,這一切都表明,正在到來(lái)。

本文引用地址:http://dyxdggzs.com/article/201605/290779.htm

  關(guān)于未來(lái)的發(fā)展,以下是當代最睿智的程序員、哲學(xué)家和創(chuàng )業(yè)者的說(shuō)法。

  薩姆·阿爾特曼(Sam Altman),知名孵化器Y Combinator總裁

  阿爾特曼的公司OpenAI正在開(kāi)發(fā)開(kāi)源的技術(shù),這樣的技術(shù)面向所有人,而非一小群人。他認為,未來(lái)的人工智能設計將實(shí)現自我管理,從而只帶來(lái)有益的用途。阿爾特曼認為,OpenAI人工智能系統的智力將在未來(lái)幾十年中勝過(guò)人類(lèi)。但由于這項技術(shù)被開(kāi)放給所有人,因此風(fēng)險將被消除。

  尼克·博斯特羅姆(Nick Bostrom),牛津大學(xué)人類(lèi)未來(lái)研究所所長(cháng)

  博斯特羅姆對人工智能的未來(lái)看法悲觀(guān)。他在2014年的著(zhù)作《超級智能:道路、危險與戰略》中警告稱(chēng),人工智能將很快表現出黑暗的一面。隨之而來(lái)的世界將“充滿(mǎn)經(jīng)濟奇跡和技術(shù)繁榮,但沒(méi)有人能從中受益”。這就像是“沒(méi)有孩子的迪士尼樂(lè )園”。

  比爾·蓋茨(Bill Gates),微軟聯(lián)合創(chuàng )始人

  蓋茨認為,短期內,智能程度較低的人工智能將成為積極的勞動(dòng)力替代工具。他認為,如果進(jìn)行適當的管理,那么人工智能革命將會(huì )是有益的。不過(guò),他也擔心未來(lái)幾十年出現超級智能。這樣的超級智能將“強大到足以令人擔憂(yōu)”。他坦言,他無(wú)法理解為何有人不擔心這件事。

史蒂芬·霍金(Stephen Hawking),理論物理學(xué)家

  霍金認為,人工智能可能既不可思議,又帶來(lái)嚴重災難。與其他多名科學(xué)家一樣,他將人工智能稱(chēng)作“人類(lèi)歷史上的最大事件”,有助于消除戰爭、疾病和貧困。然而由于指數式的發(fā)展,人工智能或許會(huì )在金融市場(chǎng)興風(fēng)作浪,在發(fā)明領(lǐng)域超過(guò)人類(lèi)研究員,甚至開(kāi)發(fā)出人類(lèi)無(wú)法理解的武器?;艚鹜瑫r(shí)警告稱(chēng),超級智能的出現可能是“人類(lèi)歷史上的最終事件”,除非我們能提前了解如何規避風(fēng)險。

  米奇奧·卡庫(Michio Kaku),理論物理學(xué)家、未來(lái)學(xué)家

  卡庫的看法相對務(wù)實(shí)。他將人工智能稱(chēng)作“世紀末的問(wèn)題”。他指出,到那時(shí),如果人類(lèi)沒(méi)有更好的辦法去限制惡意人工智能,那么在人工智能機器人的大腦中安裝緊急關(guān)閉芯片將會(huì )非常重要。

  雷伊·庫茲韋爾(Ray Kurzweil),未來(lái)學(xué)家、谷歌工程總監

  庫茲韋爾認為,人類(lèi)水平的人工智能將于2029年成為現實(shí)。這項技術(shù)將有助于治療疾病,保護環(huán)境,因此勢在必行的做法是承認其前景,同時(shí)控制好風(fēng)險。

  伊隆·馬斯克(Elon Musk),特斯拉及SpaceX CEO

  馬斯克將人工智能稱(chēng)作“我們現存的最大威脅”,而發(fā)展人工智能等同于“召喚惡魔”。他對此非常認真,并表示與作為創(chuàng )業(yè)者的直覺(jué)相反,他“越來(lái)越認為,這一領(lǐng)域需要引入監管,而這樣的監管可以在全國層面或國際層面,以確保我們不會(huì )做蠢事”。



關(guān)鍵詞: 人工智能

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>