普林斯頓大學(xué)開(kāi)發(fā)“AI顏狗”,第一眼看到照片,就能預測人們對你的第一印象
來(lái)源:大數據文摘
世人皆是顏狗。
心理學(xué)家弗雷特說(shuō),以貌取人是人類(lèi)的一種本能,這有可能是長(cháng)期自然進(jìn)化選擇的結果。
因為人的大腦總是會(huì )選擇對自己來(lái)說(shuō),是最不需要動(dòng)腦思考的思維方式。
所以,人們就更傾向于通過(guò)外貌來(lái)判斷一個(gè)人(能力、學(xué)識、身份、地位、個(gè)性特征)。而從遺傳學(xué)和進(jìn)化心理學(xué)角度來(lái)看,“以貌取人”很可能是人的一種進(jìn)化缺陷。
這種缺陷表明,“顏值即正義”真的是有原因的。
這些第一印象,盡管常常不準確,卻可能非常強大,塑造我們的關(guān)系,我們生活的方法面面,從找工作面試到法庭審判。
不過(guò),這種通過(guò)顏值判斷一個(gè)人的受歡迎程度的能力,AI也學(xué)會(huì )了。
史蒂文斯理工學(xué)院的研究人員,與普林斯頓大學(xué)和芝加哥大學(xué)合作,現在已經(jīng)教會(huì )了一個(gè)人工智能算法來(lái)模擬人們的第一印象,并準確地預測人們將如何看待別人的臉部照片。這項研究成果發(fā)表在4月21日出版的《美國國家科學(xué)院院刊》上。
論文鏈接:https://www.pnas.org/doi/full/10.1073/pnas.2115228119
AI模型反映人類(lèi)刻板印象:戴眼鏡的更聰明
史蒂文斯商學(xué)院(School of Business at Stevens)的認知科學(xué)家和人工智能專(zhuān)家Jordan w. Suchow說(shuō),“目前有大量研究集中在模擬人臉的物理外觀(guān)上?!?/span>
“我們將人類(lèi)的判斷和機器學(xué)習結合起來(lái),研究人們之間那種充滿(mǎn)偏見(jiàn)的第一印象?!?/span>
Suchow和他的團隊,包括普林斯頓大學(xué)的Joshua Peterson和Thomas Griffiths,以及芝加哥大學(xué)布斯商學(xué)院的Stefan Uddenberg和Alex Todorov。
他們收集了數千人給出的他們對1000多張電腦生成的人臉照片的第一印象,并根據照片主體的智商、選舉能力、宗教信仰、是否值得信賴(lài)或外向程度等標準進(jìn)行排名。
然后,這些反應被用來(lái)訓練一個(gè)神經(jīng)網(wǎng)絡(luò ),讓它僅僅根據人們的面部照片就對人們做出類(lèi)似的快速判斷。
通過(guò)這個(gè)AI模型,就可以做到,“給你一張臉的照片,我們可以利用這個(gè)算法來(lái)預測人們對你的第一印象,以及當他們看到你的臉時(shí),他們會(huì )把哪些刻板印象投射到你身上,”Suchow解釋說(shuō)。
該算法的許多發(fā)現都與常見(jiàn)的直覺(jué)或文化假設相一致:例如,微笑的人往往被認為更值得信賴(lài),而戴眼鏡的人往往被認為更聰明。
有些特征是難以理解的
微笑的人更值得信賴(lài),戴眼鏡的更聰明,這種判斷是很容易理解的,不過(guò),在其他情況下,要準確理解算法為什么將某種特征賦予某個(gè)人就有點(diǎn)困難了,也就是說(shuō),盡管是根據人類(lèi)的判斷訓練出來(lái)的模型,但是其中的機制大部分還是“黑箱”。
“這個(gè)算法并沒(méi)有提供有針對性的反饋,也沒(méi)有解釋為什么給出的圖片會(huì )引發(fā)特定的判斷,”Suchow說(shuō)?!暗幢闳绱?,它也能幫助我們理解別人如何看待我們——我們可以根據哪張照片讓你看起來(lái)最值得信任來(lái)對一系列照片進(jìn)行排名,例如,讓你選擇如何展現自己?!?/span>
雖然最初開(kāi)發(fā)這個(gè)算法是為了幫助心理學(xué)研究人員生成用于感知和社會(huì )認知實(shí)驗的人臉圖像,但是這個(gè)新算法可以在現實(shí)世界中得到應用。
現代人都在小心翼翼地策劃他們的公眾形象,例如,只分享他們認為讓他們看起來(lái)最聰明、最自信或最有吸引力的照片,很容易看出如何使用算法來(lái)支持這個(gè)過(guò)程,Suchow說(shuō)。
因為已經(jīng)有一種社會(huì )規范圍繞著(zhù)以積極的方式展現你自己,這回避了圍繞著(zhù)這項技術(shù)的一些道德問(wèn)題,他補充說(shuō)。
更讓人苦惱的是,這個(gè)算法還可以用來(lái)處理照片,讓拍攝對象以一種特殊的方式出現——也許讓政治候選人看起來(lái)更值得信任,或者讓他們的對手看起來(lái)不聰明或多疑。
雖然人工智能工具已經(jīng)被用于制作“Deepfake”視頻,展示從未發(fā)生過(guò)的事件,但新算法可以巧妙地改變真實(shí)的圖像,以便操縱觀(guān)眾對其中人物的看法。
“有了這項技術(shù),我們可以拍一張照片,然后創(chuàng )建一個(gè)修改版本,以便給人留下某種印象,”Suchow說(shuō)?!俺鲇陲@而易見(jiàn)的原因,我們需要對這項技術(shù)的使用方式保持謹慎?!?/span>
為了保護他們的技術(shù),研究團隊獲得了一項專(zhuān)利,現在正在創(chuàng )建一個(gè)初創(chuàng )公司,為預先批準的道德目的授權該算法?!拔覀冋诓扇∫磺锌赡艿拇胧?,以確保這不會(huì )被用來(lái)造成傷害,”Suchow說(shuō)。
雖然目前的算法只關(guān)注一大群觀(guān)眾對一張給定面孔的平均反應,但Suchow接下來(lái)希望開(kāi)發(fā)出一種算法,能夠預測一個(gè)人對另一個(gè)人的面孔的反應。這可以讓我們更深入地了解快速判斷是如何影響我們的社會(huì )互動(dòng)的,并可能幫助人們在做出重要決定時(shí)認識到并超越他們的第一印象。
“重要的是要記住,我們正在模仿的判斷并不能揭示一個(gè)人的真實(shí)個(gè)性或能力,”Suchow 解釋說(shuō)?!拔覀冊谶@里所做的是研究人們的刻板印象,這是我們都應該努力去更好地理解的東西?!?/span>
相關(guān)報道:https://www.pnas.org/doi/full/10.1073/pnas.2115228119https://www.sciencedaily.com/releases/2022/04/220421181212.htm
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。