AI都會(huì )和人類(lèi)談判了?Meta AI最新研究登上Science,LeCun稱(chēng)里程碑式成果
AI都學(xué)會(huì )和人類(lèi)談判了?還能成功說(shuō)服人類(lèi)聽(tīng)它安排?
話(huà)術(shù)一流到人類(lèi)完全分辨不出它是AI。
這就是Meta AI的最新成果——AI模型CICERO(西塞羅),現已登上Science。
嗯,就是和古羅馬著(zhù)名政治家、演說(shuō)家西塞羅同名。
研究人員讓這個(gè)AI西塞羅隱藏身份加入到一個(gè)外交游戲里,82名人類(lèi)玩家在40場(chǎng)游戲中,都沒(méi)有懷疑過(guò)它其實(shí)是個(gè)AI。
而且還戰績(jì)斐然,全程平均分達到25.8%,是人類(lèi)玩家平均分的2倍,并且最終排名為前10%。
成果一經(jīng)發(fā)布,就在網(wǎng)上引發(fā)熱議。
有人評價(jià):這意味著(zhù)AI在最具人類(lèi)特點(diǎn)的游戲里戰勝人類(lèi),超乎想象…
LeCun都稱(chēng)它為:里程碑式的研究!
目前,模型代碼已在GitHub上開(kāi)源。
真有AI縱橫家那感覺(jué)了
AI嘮嗑其實(shí)一直都引人詬病,更別提外交這種需要超高話(huà)術(shù)的場(chǎng)景了。
它需要理解對方的語(yǔ)言、動(dòng)機,制定自己的話(huà)術(shù)策略,并調整好措辭。
有時(shí)甚至還需要“耍心眼”,故意說(shuō)一些假話(huà)給對方設套。
這種超高難度任務(wù),怎么挑戰?
俗話(huà)說(shuō)一口吃不成胖子。
Meta AI就想到了先從游戲場(chǎng)景來(lái)切入(畢竟AI在玩游戲上是老手了)。
不過(guò)和之前棋類(lèi)或競技游戲不同,外交游戲并沒(méi)有那么強的規則性,運籌帷幄、隨機應變的環(huán)節不少。
實(shí)驗中用到的游戲是webDiplomacy(以下用“外交游戲”指代它)。
這款游戲的背景是1901年的歐洲,7位玩家每人控制一個(gè)大國,通過(guò)相互合作、協(xié)商,盡可能地占領(lǐng)更多領(lǐng)土。
西塞羅的核心是由一個(gè)對話(huà)引擎和一個(gè)戰略推理引擎共同驅動(dòng)的。
簡(jiǎn)單理解,這里的對話(huà)引擎和GPT-3、LaMDA類(lèi)似,戰略推理引擎和AlphaGo相近。
用到的對話(huà)模型,是從一個(gè)類(lèi)似于2.7億參數的BART模型訓練而來(lái)。
BART吸收了GPT和BERT各自的特點(diǎn),它比BERT更適合文本生成的場(chǎng)景,還能雙向理解上下文語(yǔ)境信息。
具體來(lái)看,研究人員先從互聯(lián)網(wǎng)上獲取文本訓練對話(huà)模型,然后再在實(shí)際的外交游戲場(chǎng)景中微調。
戰略推理引擎用到的是一個(gè)規劃算法(planning algorithm)。
該算法能夠基于現況計算出一個(gè)最優(yōu)選擇。再通過(guò)強化學(xué)習訓練,懲罰模型做出的“不像人”的策略,以此讓模型給出的策略更合理。
畢竟,在外交游戲中是和人打交道,讓AI更像人也是最基本的要求之一。
而且強化學(xué)習這種迭代式的訓練,可以不斷改進(jìn)AI做出的策略預測。比傳統方法中常用的監督學(xué)習(即打標簽的方式)效果更好。
實(shí)操中,西塞羅首先會(huì )根據目前為止的游戲狀態(tài)和對話(huà),對每個(gè)人的會(huì )采取的動(dòng)作做一個(gè)初步預判。
接下來(lái),在不斷地協(xié)商過(guò)程中,它都會(huì )不斷地改進(jìn)預測,然后使用這些預測為自己和合作伙伴設置一個(gè)共同的目標。
其次,它會(huì )根據局勢狀態(tài)、對話(huà)及其目標,從對話(huà)模型中生成幾個(gè)候選消息,使用分類(lèi)器等過(guò)濾機制過(guò)濾掉無(wú)意義的,生成最終的高質(zhì)量輸出文本。
例如,以下圖為例,在這一局中,西塞羅扮演“奧地利”。
當玩家“意大利”向它詢(xún)問(wèn)意見(jiàn),自己是否應該攻擊土耳其時(shí),西塞羅會(huì )根據場(chǎng)上局勢——土耳其正在攻擊俄羅斯,判斷出這是一個(gè)兩面夾擊的好機會(huì ),然后勸意大利跟進(jìn)攻打土耳其。
這一步既建立了與意大利的伙伴關(guān)系,又消滅了一個(gè)潛在的對手。
不僅如此,談判也是西塞羅的拿手好戲。
這次西塞羅扮演的是“德國”,與玩家“法國”一直在交戰。這時(shí)法國南部同時(shí)受到了意大利的攻擊,于是向西塞羅請求和談。
西塞羅則趁機獅子大開(kāi)口,要求法國歸還侵略的領(lǐng)土,并保證不攻擊荷蘭。雙方在討價(jià)還價(jià)中順利達成了協(xié)議。
就像上述展示的例子一樣,兩個(gè)月間,西塞羅共參與了40場(chǎng)外交游戲,與82名人類(lèi)參賽者交鋒。
在每場(chǎng)比賽中,西塞羅都會(huì )發(fā)送和接收平均130條消息。
其游戲水平甚至強過(guò)了人類(lèi):平均得分是人類(lèi)玩家的2倍以上,甚至在玩過(guò)一場(chǎng)以上游戲的參與者中也能排到前10% 。
看完西塞羅在外交上的精彩表現,有網(wǎng)友感慨AI的發(fā)展速度:
Deep Blue擊敗了卡斯帕羅夫,Watson擊敗了智力競賽的兩位人類(lèi)冠軍,現在輪到Meta AI敲響馬基雅維利(近代政治思想奠基人)的大門(mén)了。
還有人表示,這難道是邁向通識語(yǔ)言大模型的第一步嗎?
LeCun給出了肯定回復:
至少語(yǔ)言是基于事實(shí)的。
不過(guò)由于這款外交游戲以爾虞我詐著(zhù)稱(chēng),不少人也對此表示擔憂(yōu):
這是直接鼓勵研究人員開(kāi)發(fā)更多擅長(cháng)騙人的模型。
有網(wǎng)友就表示,玩這游戲甚至會(huì )失去朋友哦。
而從AI西塞羅的戰績(jì)來(lái)看,它可以迷惑人類(lèi)玩家,并且說(shuō)服人類(lèi)聽(tīng)從它的策略。
所以有人就表示,這不是AI控制人類(lèi)的選擇乃至生活?
不過(guò)Meta AI表示,AI西塞羅不是全沒(méi)有失誤的。
并且游戲中也還有很多需要和人類(lèi)協(xié)作的環(huán)節,西塞羅的表現同樣很好。
目前,它還只被放在游戲場(chǎng)景中測試過(guò),并沒(méi)有嘗試過(guò)在開(kāi)放語(yǔ)境下和人類(lèi)談判。
來(lái)源:量子位
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。
EMC相關(guān)文章:EMC是什么意思
低通濾波器相關(guān)文章:低通濾波器原理
電容傳感器相關(guān)文章:電容傳感器原理 雙絞線(xiàn)傳輸器相關(guān)文章:雙絞線(xiàn)傳輸器原理 衰減器相關(guān)文章:衰減器原理