霍金:人工智能崛起要么是歷史最好的事 要么是最糟的
12月13日消息,在由長(cháng)城會(huì )主辦的天工開(kāi)悟高端論壇上,霍金通過(guò)視頻發(fā)表了關(guān)于人工智能的演講。
本文引用地址:http://dyxdggzs.com/article/201712/372996.htm霍金認為,強大的人工智能的崛起,要么是人類(lèi)歷史上最好的事,要么是最糟的。人工智能是好是壞我們仍不確定,但我們應該竭盡所能,確保其未來(lái)發(fā)展對我們和我們的環(huán)境有利。
“我們別無(wú)選擇。我認為人工智能的發(fā)展,本身是一種存在著(zhù)問(wèn)題的趨勢,而這些問(wèn)題必須在現在和將來(lái)得到解決。人工智能的研究與開(kāi)發(fā)正在迅速推進(jìn),也許我們所有人應該暫停片刻,把我們的研究重點(diǎn)從提升人工智能的能力轉到最大化人工智能的社會(huì )效益。”
霍金表示,人工智能也遵循“計算機在理論上可以模仿人類(lèi)智能,然后超越”這一原則。但我們并不確定,所以我們無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。“的確,我們擔心聰明的機器將能夠代替人類(lèi)正在從事的工作,并迅速地消滅數以百萬(wàn)計的工作崗位。”
霍金提到,近來(lái)人工智能的里程碑,比如說(shuō)之前提到的自主駕駛汽車(chē),以及人工智能贏(yíng)得圍棋比賽,都是未來(lái)趨勢的跡象。“人工智能的成功有可能是人類(lèi)文明史上最大的事件。”
但同時(shí)人工智能也有可能是人類(lèi)文明史的終結,除非我們學(xué)會(huì )如何避免危險。“我曾經(jīng)說(shuō)過(guò),人工智能的全方位發(fā)展可能招致人類(lèi)的滅亡,比如最大化使用智能性自主武器。”霍金提到了一個(gè)報告,該報告承認在幾十年的時(shí)間內,人工智能可能會(huì )超越人類(lèi)智力范圍,人工智能可能會(huì )超越人類(lèi)智力范圍,進(jìn)而挑戰人機關(guān)系。
評論