谷歌成立人工智能安全倫理委員會(huì )
進(jìn)入文明時(shí)代以來(lái),人類(lèi)就一直擔心有朝一日會(huì )遭遇“滅頂之災”,比如說(shuō)變異的病毒、小行星撞擊地球,以及核災難等。隨著(zhù)機器人技術(shù)的不斷演進(jìn),人類(lèi)的“噩夢(mèng)清單”上恐怕又多了一項:人工智能有可能發(fā)展出自己的思想,進(jìn)而引發(fā)人類(lèi)的“身份危機”。
本文引用地址:http://dyxdggzs.com/article/201712/372433.htm

近來(lái)發(fā)出類(lèi)似警告的是兩位頂尖科學(xué)家。一位是理論物理學(xué)家斯蒂芬·霍金,他甚至認為,當人工智能發(fā)展完全,就是人類(lèi)的末日;另一位是電動(dòng)汽車(chē)品牌特斯拉的掌門(mén)人馬斯克,他曾公開(kāi)表示:“我們要十分小心人工智能,它可能比核武器更危險。”
對人工智能的研究始于上世紀50年代。近幾年,科學(xué)界和產(chǎn)業(yè)界對它的興趣超越了以往。最近一年半來(lái),谷歌收購了十幾家機器人公司,并正在開(kāi)發(fā)人工智能的一個(gè)圖騰——無(wú)人駕駛汽車(chē);去年,社交媒體臉譜成立了新的人工智能實(shí)驗室……數據顯示,2009年以來(lái),人工智能吸引了超過(guò)170億美元的投資,僅去年就有20多億美元投向擁有類(lèi)人工智能技術(shù)的322家公司。
在并行計算、數字化神經(jīng)網(wǎng)絡(luò )、云技術(shù)、大數據以及深度學(xué)習算法等技術(shù)的推動(dòng)下,人工智能的形態(tài)正逐漸顯現:它既不是擁有與人類(lèi)相似意識的機器人,也不是奇點(diǎn)論(人工智能與人腦智慧兼容的時(shí)刻)者宣稱(chēng)的超智能,而是應用在狹窄的專(zhuān)業(yè)領(lǐng)域,如醫學(xué)、教育、法律、太空等高度專(zhuān)一的“行家”。隨著(zhù)人工智能的發(fā)展,人類(lèi)終有一天將被其取代的恐慌感也應運而生。美國奇點(diǎn)大學(xué)人工智能項目負責人尼爾·杰卡布斯坦早就說(shuō)過(guò):“要應對即將到來(lái)的人工智能革命,我們需要在數學(xué)素養、生態(tài)素養尤其是道德素養上不斷自我提升。”
科學(xué)的發(fā)展總是出乎我們的預料。在一項技術(shù)推廣前,審慎的評估和良好的風(fēng)險控制是必要的,克隆技術(shù)、大數據、基因測序無(wú)不如此。杰卡布斯坦認為,假設人類(lèi)成功構建了超級計算機,而它想的跟我們不一樣,我們就得加以控制,就像對待孩子一樣。走在前沿的人和公司,已經(jīng)采取了一些行動(dòng)阻止可能出現的混亂。谷歌在年初收購了以神經(jīng)系統科學(xué)為基礎的人工智能公司迪普曼德,隨后即成立了“人工智能安全倫理委員會(huì )”,以確保技術(shù)安全發(fā)展。
我們有充分理由樂(lè )觀(guān)看待人工智能研究。為了遙遠未來(lái)可能發(fā)生的危險而遏制技術(shù)的發(fā)展是愚蠢的。但在過(guò)去60年中,隨著(zhù)人工智能每一次成功地“復制”只有人類(lèi)才有的行為和能力,人類(lèi)便不得不對人工智能進(jìn)行重新定義,也不得不重新定義“人類(lèi)”的含義。人工智能——這個(gè)除了人以外最像人的東西,其實(shí)是我們心理投射中一個(gè)再好不過(guò)的客體。在人工智能高度發(fā)展的未來(lái),人類(lèi)或許將面對一場(chǎng)“身份危機”:人類(lèi)到底是偉大還是渺小,自我存在的意義是什么……這或許將成為人類(lèi)的困擾。
評論