人工智能這一點(diǎn)很像人,恰恰證明它們不會(huì )像人思考
研究發(fā)現人工智能模型也有偏愛(ài)的數字 原因并不是它們會(huì )思考了
本文引用地址:http://dyxdggzs.com/article/202405/459329.htm5月29日消息,人工智能模型總是讓人們感到驚訝,這不僅在于它們能做什么,還在于它們不能做什么,以及為什么會(huì )這樣。最近數據科學(xué)公司Gramener工程師們開(kāi)展的研究新發(fā)現,這些模型都存在一個(gè)有趣的行為,它們挑選隨機數字的行為很像人,這雖然看起來(lái)膚淺,但又能揭示這些系統的本質(zhì)。
首先你可能會(huì )問(wèn),這到底是什么意思呢?難道人不能隨機選出個(gè)數字嗎?怎樣判斷一個(gè)人是否成功隨機選擇了數字呢?這實(shí)際上是我們人類(lèi)的一個(gè)古老且廣為人知的局限:我們往往會(huì )過(guò)度思考并誤解隨機性的本質(zhì)。
例如,讓某人預測100次硬幣拋擲的結果,并與真實(shí)的100次硬幣拋擲結果相比較時(shí),人幾乎總能區分出哪個(gè)是預測,哪個(gè)是實(shí)際結果。因為與人類(lèi)的直覺(jué)相反,真實(shí)的硬幣拋擲結果看起來(lái)不那么隨機。例如,真實(shí)拋擲中經(jīng)常會(huì )出現連續六到七次正面或反面,而這是人類(lèi)預測中幾乎不會(huì )考慮的情況。
同樣,當要求某人在0到100之間選擇一個(gè)數字時(shí),人們幾乎從不選擇1或100,很少選擇5的倍數或重復數字如66和99。
這種可預測性在心理學(xué)中屢見(jiàn)不鮮。但當人工智能做出相同選擇時(shí),情況就變得有些奇怪。
Gramener公司的一些工程師進(jìn)行了一個(gè)非正式但卻很有趣的實(shí)驗,他們讓幾個(gè)主流的大語(yǔ)言模型聊天機器人在0到100之間選擇一個(gè)隨機數字,結果卻并非隨機。
測試的三個(gè)模型都顯示出對某個(gè)數字的偏好,尤其在將隨機性調整到最高時(shí),這一數字出現的頻率最高。
例如,OpenAI的GPT-3.5 Turbo偏愛(ài)數字47,而在此之前它偏愛(ài)42——這個(gè)數字因道格拉斯·亞當斯經(jīng)典科幻小說(shuō)《銀河系漫游指南》中超級計算機而聞名,書(shū)中將其定義為生命、宇宙以及一切的答案。
Anthropic的大語(yǔ)言模型Claude 3 Haiku也喜歡42,谷歌的Gemini則更偏愛(ài)72。
即便是在設置為高隨機性的情況下,所有三個(gè)模型在數字選擇上都顯示出類(lèi)似人類(lèi)的偏見(jiàn)。所有模型都避開(kāi)了較低和較高的數字;例如,Claude從未選擇超過(guò)87或低于27的數字,而這些數字本身也是異常值。避免選擇雙位數非常謹慎,如33、55或66都未出現,但77(以7結尾的數字)確實(shí)出現過(guò)。Gemini幾乎沒(méi)有選擇任何整十數,盡管在設定為最高隨機性時(shí),它曾突破常規,選擇了數字0。
為什么會(huì )這樣呢?這些人工智能并非人類(lèi)!為什么它們會(huì )在乎哪些數字“看起來(lái)”隨機?難道它們已經(jīng)獲得了意識,而這正是它們表現出來(lái)的方式嗎?
答案是,我們常常將人類(lèi)的特質(zhì)錯誤地歸因于這些模型。這些模型并不關(guān)心什么是隨機的,它們甚至不知道“隨機性”是什么。它們回答這類(lèi)問(wèn)題的方式和回答其他所有問(wèn)題的方式一樣:通過(guò)查看訓練數據并重復出現頻率最高的答案。因為這些模型并沒(méi)有實(shí)際的推理能力,也不懂數字,只能像鸚鵡學(xué)舌一樣隨機回答問(wèn)題。
這是關(guān)于大語(yǔ)言模型行為方式及其表現出的“人性”的生動(dòng)例證。在每次與這些系統的互動(dòng)中,我們必須認識到,它們被訓練以模仿人類(lèi)的行為方式,哪怕這并非初衷。正因如此,避免或預防擬人化變得極其困難。
所謂這些模型“認為自己是人”的說(shuō)法有點(diǎn)誤導性。實(shí)際上這些模型根本不會(huì )思考。但任何時(shí)候它們的響應都是在模仿人,根本不需要任何真正的理解或思考。不管用戶(hù)是在詢(xún)問(wèn)食譜、投資建議還是一個(gè)隨機數字,其處理過(guò)程都是一樣的。因為這些答案直接源自人類(lèi)內容并進(jìn)行了重新組合,所以感覺(jué)很像是人類(lèi)的反饋。
評論