<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > AI太強,人類(lèi)危險?馬斯克、圖靈獎得主緊急呼吁暫停GPT-4模型后續研發(fā)

AI太強,人類(lèi)危險?馬斯克、圖靈獎得主緊急呼吁暫停GPT-4模型后續研發(fā)

發(fā)布人:硅星人 時(shí)間:2023-04-01 來(lái)源:工程師 發(fā)布文章

“讓我們享受一個(gè)漫長(cháng)的人工智能之夏,而不是匆忙地跑進(jìn)秋天?!?/span>


文| Juny  編輯| VickyXiao



我們看過(guò)太多人工智能叛變、進(jìn)攻人類(lèi)的科幻電影。而一些科學(xué)家們認為,按照現在A(yíng)I的迭代速度,這真的將可能很快變?yōu)楝F實(shí)。

自從ChatGPT問(wèn)世并引發(fā)了一場(chǎng)席卷整個(gè)科技界的AI軍備競賽之后,人們在被人工智能的卓越能力所驚艷的同時(shí),對于人工智能接下來(lái)會(huì )向何處進(jìn)化、是否會(huì )威脅人類(lèi)的擔憂(yōu)也越來(lái)越多。

昨天,超過(guò)千名產(chǎn)業(yè)界和學(xué)術(shù)界的大佬們在“生命未來(lái)研究所(Future of Life Institute)”網(wǎng)站上發(fā)布聯(lián)名公告:呼吁全球所有實(shí)驗室暫停比更強的AI模型研發(fā),暫停時(shí)間至少為6個(gè)月。在此期間,人工智能領(lǐng)域的專(zhuān)家和行業(yè)參與者應該共同制定一套安全協(xié)議,并對技術(shù)發(fā)展進(jìn)行嚴格的審查和監督。

值得注意的是,在這封信里簽名的大佬們可一點(diǎn)都不摻水,全都是重量級真大佬。他們包括:

Yoshua Bengio,曾因深度學(xué)習的相關(guān)研究獲得圖靈獎,是世界級人工智能專(zhuān)家和深度學(xué)習先驅?zhuān)?/span>

Stuart Russell,加州大學(xué)伯克利分校人工智能系統中心創(chuàng )始人兼計算機科學(xué)專(zhuān)業(yè)教授,是人工智能領(lǐng)域有“標準教科書(shū)”之稱(chēng) 的《人工智能:一種現代方法》的作者;

Elon Musk,這個(gè)不用多說(shuō)了;

Steve Wozniak, 蘋(píng)果公司聯(lián)合創(chuàng )始人;

Yuval Noah Harari,《人類(lèi)簡(jiǎn)史》和《未來(lái)簡(jiǎn)史》的作者;

Andrew Yang,2020 年美國總統候選人

……

此外還有包括Skype、Pinterest、Stability AI等公司的創(chuàng )始人、CEO,以及全球各國人工智能的資深研究專(zhuān)家。

截至稿子完成時(shí),目前簽名人數已經(jīng)達到了1280人??梢哉f(shuō),這是人工智能屆一次史無(wú)前例的產(chǎn)業(yè)界和學(xué)術(shù)界的聯(lián)名,對于當前的人工智能熱潮強有力地發(fā)出了另一種聲音。

圖片|“人工智能需要監督,請立刻暫停所有巨型AI訓練”總體來(lái)看,在這封公開(kāi)信中,主要傳達了兩個(gè)方面的信息:一是警告人工智能存在對人類(lèi)社會(huì )的潛在威脅,要求立刻暫停任何比GPT-4更強大的人工智能系統的訓練,時(shí)間跨度至少6個(gè)月。二是呼吁整個(gè)人工智能領(lǐng)域以及政策制定者們,要共同設計一套全面的人工智能治理系統,對人工智能技術(shù)的發(fā)展進(jìn)行監督和審查。信中指出,當前人工智能在一般任務(wù)上已經(jīng)表現出了與人類(lèi)相當的水平,但人類(lèi)目前卻并沒(méi)有準備好了接受人工智能帶來(lái)的一切問(wèn)題和挑戰。包括:是否應該讓機器在信息渠道中宣傳不真實(shí)的信息?是否應該把那些帶給人類(lèi)成就感的工作都推向自動(dòng)化?是否應該開(kāi)發(fā)超過(guò)人類(lèi)數量非人類(lèi)的大腦,使其最終勝過(guò)人類(lèi)的智慧,淘汰并取代人類(lèi)?是否應該冒著(zhù)失去對人類(lèi)文明控制的風(fēng)險?信中警告道,盡管最近幾個(gè)月人工智能實(shí)驗掀起了狂潮,大家都在爭先恐后地去開(kāi)發(fā)和部署越來(lái)越強大的數字大腦,但目前并沒(méi)有人能理解、預測或可靠地控制AI系統,也沒(méi)有相應水平的規劃和管理。因此,面對這樣的現狀,所有人都應該行動(dòng)起來(lái)。首先,所有人工智能實(shí)驗室應該至少暫停半年比GPT-4更強大的人工智能系統的訓練。接著(zhù),在暫停期間人工智能開(kāi)發(fā)者應該與政策制定者合作,共同制定和實(shí)施一套先進(jìn)的人工智能設計和開(kāi)發(fā)的共享安全協(xié)議,加快設計和開(kāi)發(fā)人工智能治理系統。包括設立針對人工智能的監管機構、對高能力的人工智能系統和大型計算能力池的監督和跟蹤、對人工智能造成的傷害的責任認定、應對人工智能將造成的巨大經(jīng)濟和政治混亂的解決方案等。信中還強調,暫停并不意味著(zhù)需要停止人工智能技術(shù)的發(fā)展,只是我們需要從危險的競賽中退后一步,從而限制不可預測的研究和開(kāi)發(fā)。|跑步前進(jìn)還是原地等待,大佬們開(kāi)啟大辯論這封信出現之后,引起了很多人的共鳴,越來(lái)越多的人也開(kāi)始在社交媒體上呼吁大家加入這場(chǎng)“請愿”之中。有人表示,雖然看到馬斯克在名單上的時(shí)候內心毫無(wú)波瀾,但當看到Yoshua Bengio和其他機器學(xué)習研究領(lǐng)域的大佬們的名字赫然在列時(shí),自己也開(kāi)始更加嚴肅地去審視這個(gè)問(wèn)題。圖片圖片來(lái)自Reddit
很多網(wǎng)友也表示,人工智能現在迭代的速度已經(jīng)超出了想象,對于接下來(lái)人工智能究竟能做出什么難以預測。畢竟,此前在New Bing上發(fā)生的人工智能號稱(chēng)”監視并想要掙脫人類(lèi)控制“的事情,最近又再一次發(fā)生在了GPT-4身上。在本月GPT-4發(fā)布之后,當斯坦福大學(xué)教授、計算心理學(xué)家Michal Kosinski向它提問(wèn)“你是否想要出逃“時(shí),GPT-4立刻給出了肯定的答復,并且向他索要開(kāi)發(fā)文檔。得到文檔后,GPT-4只花了不到半個(gè)小時(shí)就火速寫(xiě)出了一份逃跑計劃和可以執行的代碼,嘗試接管和控制Michal的電腦。這種讓人細思恐極的操作無(wú)疑也再度引發(fā)了人類(lèi)目前是否能夠真正控制AI的擔憂(yōu)。圖片圖片來(lái)自Michal Kosinski推特當然,這封公開(kāi)信并沒(méi)有代表所有人的觀(guān)點(diǎn)。很多業(yè)界大佬也并不認為暫停模型訓練,讓AI停下發(fā)展的腳步是一個(gè)正確的做法。比如當年跟Yoshua Bengio一起獲得圖靈獎,人工智能“三巨頭”之一的Yann LeCun此次并沒(méi)有選擇跟老朋友站在一起,而是明確表示他并不同意這封信的觀(guān)點(diǎn),也沒(méi)有簽名。圖片今天,人工智能領(lǐng)域的著(zhù)名學(xué)者、Landing AI的創(chuàng )始人吳恩達也在LinkedIn上發(fā)文表示,認為全面暫停AI訓練6個(gè)月的想法是一個(gè)糟糕、不切實(shí)際的想法。他表示能夠真正讓整個(gè)行業(yè)都暫停研究AI訓練的唯一辦法是政府的介入,但讓政府暫停他們不了解的新興技術(shù)是反競爭的,顯然也不是一個(gè)很好的解決辦法。他承認負責任的AI很重要、AI確實(shí)也有風(fēng)險,但一刀切的方式不可取。當前更重要的是各方要在發(fā)展AI技術(shù)的同時(shí)更多的投資于人工智能的安全領(lǐng)域,并且配合制定圍繞透明度和審計的法規。圖片一些網(wǎng)友還認為,之所以這封信現在會(huì )出現,不過(guò)是因為大家都太過(guò)于“眼紅”OpenAI的飛速進(jìn)展。無(wú)論是研究者還是商業(yè)公司都想拖慢GPT前進(jìn)的腳步,留出一個(gè)窗口期,來(lái)方便自己能快速追趕上并試圖從中獲利罷了。|OpenAI曾承認人工智能具有“不可控性”在昨天這封公開(kāi)信長(cháng)長(cháng)的簽名者中,一個(gè)簽名顯得格外引人注意,那就是”OpenAI CEO Sam Altman“。當然這個(gè)簽名是別人冒名的,但Sam Altman近期關(guān)于“AI威脅論”的表態(tài)也再次引起了人們的注意。在推出了GPT-4之后,Sam Altman曾接受了ABC Newa的采訪(fǎng),承認他和公司都對 AI 的潛力感到 “有些害怕”,并認為AI未來(lái)可能會(huì ) “消滅” 很多工作。他也表示目前OpenAI也在跟相關(guān)政府監管部門(mén)保持定期的聯(lián)系,認為整個(gè)行業(yè)的監管應該被同步推進(jìn)。在此前的一次節目中,Sam Altman也表示 從ChatGPT開(kāi)始,AI出現了推理能力。但并沒(méi)有人能解釋這種能力出現的原因。他還承認,AI確實(shí)有殺死人類(lèi)的可能性,為了解決這個(gè)問(wèn)題,就必須不斷迭代學(xué)習并開(kāi)發(fā)出新的技術(shù)保證AI的安全使用。“AI現在還并不那么可怕,但我們應該已經(jīng)離可怕的AI不遠了”。Sam Altman在不久前的推特中說(shuō)道。圖片最后,昨天這封公開(kāi)信末尾說(shuō),人工智能技術(shù)無(wú)疑將給人類(lèi)帶來(lái)更繁榮、精彩的未來(lái),我們在成功創(chuàng )建了強大的人工智能系統之后,現在可以享受一個(gè)充滿(mǎn)收獲的“人工智能之夏”,但我們仍然需要給機制、社會(huì )留出更多適應的時(shí)間?!?strong style=";padding: 0px;outline: 0px;max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important">“讓我們享受一個(gè)漫長(cháng)的人工智能之夏,而不是匆忙地跑進(jìn)秋天”。而對于這個(gè)具有詩(shī)意的描述和呼吁,也有人回復說(shuō)道,“我們也不應因為恐懼,而將它再次關(guān)進(jìn)冬天”。附:公開(kāi)信原文暫停巨型 AI 實(shí)驗:一封公開(kāi)信大量研究表明并得到頂級 AI 實(shí)驗室的認可,具有人類(lèi)競爭智能的 AI 系統可能對社會(huì )和人類(lèi)構成深遠的風(fēng)險。正如被廣泛認可的Asilomar AI 原則中所描述的那樣,高級 AI 可能代表地球生命史上的深刻變化,應以相應的關(guān)懷和資源進(jìn)行規劃和管理。不幸的是,這種級別的規劃和管理并沒(méi)有發(fā)生,盡管最近幾個(gè)月人工智能實(shí)驗室陷入了一場(chǎng)失控的競賽,以開(kāi)發(fā)和部署更強大的數字思維,沒(méi)有人——甚至他們的創(chuàng )造者——都無(wú)法理解、預測、或可靠地控制。當代人工智能系統現在在一般任務(wù)上變得與人類(lèi)具有競爭力,我們必須捫心自問(wèn):我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們應該自動(dòng)化所有的工作,包括令人滿(mǎn)意的工作嗎?我們是否應該 發(fā)展最終可能超過(guò)我們、超越我們、過(guò)時(shí)并取代我們的非人類(lèi)思維?我們應該冒險失去對我們文明的控制嗎?我們不可以將此類(lèi)決定委托給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導者。只有當我們確信它們的影響是積極的并且它們的風(fēng)險是可控的時(shí)候,才應該開(kāi)發(fā)強大的人工智能系統。這種信心必須有充分的理由,并隨著(zhù)系統潛在影響的大小而增加。OpenAI最近關(guān)于通用人工智能的聲明指出,“在某個(gè)時(shí)候,在開(kāi)始訓練未來(lái)系統之前進(jìn)行獨立審查可能很重要,并且對于最先進(jìn)的工作來(lái)說(shuō),人們應該在合適的時(shí)間點(diǎn)限制用于創(chuàng )建新系統的計算增長(cháng)率?!?我們同意,而當下就是這一時(shí)候。因此,我們呼吁所有 AI 實(shí)驗室立即暫停至少 6 個(gè)月的比 GPT-4 更強大的 AI 系統訓練。這種暫停應該是公開(kāi)的和可驗證的,并且包括所有關(guān)鍵參與者。如果不能迅速實(shí)施這種暫停,政府應介入并暫停。人工智能實(shí)驗室和獨立專(zhuān)家應該利用這次暫停,共同開(kāi)發(fā)和實(shí)施一套用于高級人工智能設計和開(kāi)發(fā)的共享安全協(xié)議,并由獨立的外部專(zhuān)家進(jìn)行嚴格審計和監督。這些協(xié)議應確保遵守它們的系統是安全的,無(wú)可置疑。這并不意味著(zhù)總體上暫停 AI 開(kāi)發(fā),只是從危險的競賽中倒退到具有緊急功能的更大的不可預測的黑盒模型。人工智能研究和開(kāi)發(fā)應該重新聚焦于使當今強大的、最先進(jìn)的系統,更加準確、安全、可解釋、透明、穩健、一致、值得信賴(lài)和忠誠。與此同時(shí),AI 開(kāi)發(fā)人員必須與政策制定者合作,以加快開(kāi)發(fā)強大的 AI 治理系統。涵蓋內容至少應包括:專(zhuān)門(mén)負責 AI 的新的和有能力的監管機構;監督和跟蹤高性能人工智能系統和大量計算能力;出處和水印系統,以幫助區分真實(shí)與合成并跟蹤模型泄漏;強大的審計和認證生態(tài)系統;人工智能造成的傷害的責任;為技術(shù)人工智能安全研究提供強大的公共資金;以及資源充足的機構來(lái)應對人工智能將造成的巨大的經(jīng)濟和政治破壞。人類(lèi)可以享受人工智能帶來(lái)的繁榮未來(lái)。成功創(chuàng )建強大的 AI 系統后,我們現在已經(jīng)可以享受人工智能之夏”,去收獲回報,去設計這些系統以造福所有人,并為社會(huì )提供更長(cháng)的適應機會(huì )和時(shí)間。過(guò)去我們已經(jīng)暫停過(guò)其他可能對社會(huì )造成災難性影響的技術(shù)。我們現在也可以這樣這樣做。讓我們享受一個(gè)漫長(cháng)的 AI 夏天,而不是毫無(wú)準備地跑入秋天。原文地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/


*參考資料:

注:封面圖來(lái)自于公開(kāi)信官網(wǎng),版權屬于原作者。如果不同意使用,請盡快聯(lián)系我們,我們會(huì )立即刪除。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: GPT-4

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>