外媒評GPT-4:人工智能領(lǐng)域的一次巨大飛躍,也是技術(shù)道德規范的又一重大轉變
3月15日消息,當地時(shí)間周二,人工智能研究實(shí)驗室OpenAI發(fā)布了最新版的大型語(yǔ)言模型GPT-4。這一讓人期待已久的高級工具不僅可以自動(dòng)生成文字,還可以描述分析圖像內容;不僅推高人工智能浪潮的技術(shù)水平,也讓技術(shù)開(kāi)發(fā)的道德邊界愈發(fā)變得不可忽視。
本文引用地址:http://dyxdggzs.com/article/202303/444497.htmOpenAI早期上線(xiàn)的聊天機器人ChatGPT用自動(dòng)生成的流暢文字獲得了大量關(guān)注,也讓公眾對其杜撰論文、虛構劇本的能力感到不安。要知道,ChatGPT用的還是一年多前就已經(jīng)落伍的老一代技術(shù)GPT-3。
相比之下,最先進(jìn)的GPT-4模型不僅能夠自動(dòng)生成文字,還能夠根據用戶(hù)的簡(jiǎn)單要求描述圖像。例如,當向GPT-4展示拳擊手套掛在一端有球的木制蹺蹺板上的照片時(shí),用戶(hù)問(wèn)如果手套掉下來(lái)會(huì )發(fā)生什么,GPT-4會(huì )回答說(shuō)它會(huì )撞到蹺蹺板,讓球飛起來(lái)。
早期測試者曾聲稱(chēng),GPT-4在推理和學(xué)習新事物的能力方面非常先進(jìn)。微軟周二也透露,上個(gè)月發(fā)布的必應人工智能聊天機器人一直在使用GPT-4。
開(kāi)發(fā)者周二表示,這項技術(shù)將進(jìn)一步徹底改變人們的工作和生活。但同時(shí)這也讓公眾擔心,人工該如何與這種精密得可怕的機器競爭,人們該如何相信自己在網(wǎng)上看到的內容。
OpenAI高管們表示,GPT-4跨文本和圖像的“多模式”使其在“高級推理能力”方面遠超過(guò)ChatGPT。由于擔心功能被濫用,公司推遲發(fā)布GPT-4的圖像描述功能,而且GPT-4支持的ChatGPT Plus服務(wù)訂閱用戶(hù)只能用文本功能。
OpenAI政策研究員桑迪尼·阿加瓦爾(Sandhini Agarwal)稱(chēng),公司之所以還沒(méi)發(fā)布這一功能,是為了更好地了解潛在風(fēng)險。OpenAI發(fā)言人尼科·費利克斯(Niko Felix)表示,OpenAI正計劃“實(shí)施保障措施,防止圖像中的個(gè)人信息被識別”。
OpenAI還承認,GPT-4仍會(huì )有“產(chǎn)生幻覺(jué)”、出現無(wú)稽之談、延續社會(huì )偏見(jiàn),以及提供糟糕建議等慣常錯誤。
微軟已經(jīng)向OpenAI投資幾十億美元,希望人工智能技術(shù)能成為旗下辦公軟件、搜索引擎和其他在線(xiàn)產(chǎn)品的殺手锏。該公司將這項技術(shù)宣傳成超級高效的合作伙伴,可以處理重復性工作,讓人們專(zhuān)注于創(chuàng )造性工作,比如說(shuō)幫助軟件開(kāi)發(fā)人員完成整個(gè)團隊工作。
但有關(guān)注人工智能的人士表示,這些可能只是表象,人工智能可能會(huì )導致沒(méi)人能預料的商業(yè)模式和風(fēng)險。
人工智能的快速發(fā)展,加上ChatGPT的爆火,導致業(yè)內公司圍繞爭奪人工智能領(lǐng)域主導地位展開(kāi)激烈競爭,競相發(fā)布新軟件。
這種狂熱也引發(fā)了不少批評。很多人認為這些公司急于推出未經(jīng)測試、不受監管且不可預測的技術(shù),可能會(huì )欺騙用戶(hù),破壞藝術(shù)家的作品,并給現實(shí)世界帶來(lái)傷害。
由于設計上就是為了生成令人信服的措辭,人工智能語(yǔ)言模型經(jīng)常會(huì )提供錯誤答案。而且這些模型要用網(wǎng)絡(luò )上的信息和圖像接受訓練,也學(xué)會(huì )了模仿人類(lèi)偏見(jiàn)。
OpenAI研究人員在一份技術(shù)報告中寫(xiě)道,“隨著(zhù)GPT-4和類(lèi)似的人工智能系統被廣泛采納”,它們“會(huì )強化固有見(jiàn)解”。
OpenAI前研究員、開(kāi)源人工智能公司Hugging Face政策總監艾琳·索萊曼(Irene Solaiman)認為,這種技術(shù)進(jìn)展的速度需要全社會(huì )對潛在問(wèn)題及時(shí)做出反應。
她進(jìn)一步表示,“作為社會(huì )一員,我們已經(jīng)可以在一些不應該由模型造成的危害方面達成廣泛共識”,“但許多傷害是微妙的,主要影響的是少數群體?!彼a充說(shuō),那些有害的偏見(jiàn)“不能成為人工智能性能的次要考慮因素?!?/p>
最新的GPT-4也并不完全穩定。當用戶(hù)祝賀人工智能工具升級為GPT-4時(shí),它的回應是“我仍然是GPT-3模型”。然后被糾正后它為此道歉,并說(shuō):“作為GPT-4,我感謝你的祝賀!”隨后用戶(hù)又開(kāi)玩笑稱(chēng),它實(shí)際上仍然是GPT-3模型,人工智能再次道歉,并說(shuō)自己“確實(shí)是GPT-3模型,而不是GPT-4”。
OpenAI發(fā)言人費利克斯表示,公司研究團隊正在調查問(wèn)題出在哪里。
周二,人工智能研究人員批評OpenAI披露的信息不足。公司并沒(méi)有公布有關(guān)GPT-4存在哪些偏見(jiàn)的評估數據。熱切的工程師們也失望發(fā)現,關(guān)于GPT-4模型、數據集或訓練方法的細節信息很少。OpenAI在技術(shù)報告中表示,考慮到面對的“競爭格局和安全影響”,該公司不會(huì )透露這些細節。
GPT-4所處的多感官人工智能領(lǐng)域競爭激烈。谷歌母公司Alphabet旗下人工智能公司DeepMind去年發(fā)布了一個(gè)名為Gato的全能模型,可以描述圖像和玩視頻游戲。谷歌本月發(fā)布了一款多模式系統PaLM-E,能將人工智能視覺(jué)和語(yǔ)言分析整合到單臂機器人中。例如,如果有人讓它去取一些芯片,它可以理解這個(gè)請求,轉向抽屜,選擇合適的物體。
類(lèi)似系統激發(fā)了人們對這項技術(shù)潛力的無(wú)限樂(lè )觀(guān),一些人甚至從中看到幾乎與人類(lèi)同等的智能水平。然而,正如批評者和人工智能研究人員認為那樣,這些系統只是在重復訓練數據中發(fā)現既定模式和固有關(guān)聯(lián),并沒(méi)有清楚理解其中之意。
GPT-4是自2018年OpenAI首次發(fā)布以來(lái)的第四個(gè)“生成式預訓練轉換器”,基于2017年開(kāi)發(fā)的突破性神經(jīng)網(wǎng)絡(luò )技術(shù)“轉換器”。這種通過(guò)分析網(wǎng)絡(luò )文字和圖像進(jìn)行“預訓練”的系統讓人工智能系統在如何分析人類(lèi)語(yǔ)音和圖像的方式方面取得了飛速進(jìn)展。
多年來(lái),OpenAI也從根本上改變了向大眾發(fā)布人工智能工具的潛在社會(huì )風(fēng)險。2019年,該公司曾拒絕公開(kāi)發(fā)布GPT-2,稱(chēng)雖然人工智能表現非常好,但他們擔心會(huì )出現使用它的“惡意應用程序”。
但去年11月,OpenAI公開(kāi)上線(xiàn)了基于GPT-3微調版本的ChatGPT。在發(fā)布后的短短幾天內,用戶(hù)就超過(guò)了100萬(wàn)。
ChatGPT和必應聊天機器人的公開(kāi)實(shí)驗表明,如果沒(méi)有人工干預,這項技術(shù)離完美表現還很遠。在出現一系列奇怪對話(huà)和錯誤答案后,微軟高管承認,就提供正確答案而言,人工智能聊天機器人仍然不值得信賴(lài),但表示正在開(kāi)發(fā)“信心指標”來(lái)解決這個(gè)問(wèn)題。
GPT-4有望改進(jìn)一些缺點(diǎn),科技博主羅伯特·斯科博(Robert Scoble)等人工智能倡導者認為,“GPT-4比任何人預期的都要好?!?/p>
OpenAI首席執行官薩姆·奧爾特曼(Sam Altman)曾試圖緩和人們對GPT-4的期望。他在1月份表示,對GPT-4能力的猜測已經(jīng)達到了不可能的高度,“關(guān)于GPT-4的謠言是荒謬的”,“他們會(huì )失望的?!?/p>
但奧爾特曼也在推銷(xiāo)OpenAI的愿景。在上個(gè)月的一篇博客文章中,他表示,公司正在計劃如何確?!八腥祟?lèi)”都受益于“通用人工通用能”(AGI)。這個(gè)行業(yè)術(shù)語(yǔ)指的是一種仍然不切實(shí)際的想法,要讓超級人工智能和人類(lèi)一樣聰明,甚至比人類(lèi)更聰明。
評論