<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 市場(chǎng)分析 > 誰(shuí)才是讓AI產(chǎn)生偏見(jiàn)的幕后推手?

誰(shuí)才是讓AI產(chǎn)生偏見(jiàn)的幕后推手?

作者: 時(shí)間:2020-07-15 來(lái)源:科技日報 收藏

  美國麻省理工學(xué)院媒體實(shí)驗室研究項目顯示,人工智能識別淺色皮膚男性的平均錯誤率不超過(guò)1%,識別深色皮膚女性的平均錯誤率達35%……

本文引用地址:http://dyxdggzs.com/article/202007/415639.htm

  所導致的偏見(jiàn)問(wèn)題一直受到廣泛關(guān)注。近期,一篇關(guān)于圖像超分辨率的論文引發(fā)了對于產(chǎn)生偏見(jiàn)原因的新?tīng)幷摗?/p>

  網(wǎng)友利用論文中的開(kāi)源代碼進(jìn)行了模型推理,在使用時(shí)發(fā)現,非白人面孔的高糊照片被還原成了一張白人面孔。對此,2018年圖靈獎得主、領(lǐng)軍人物楊立昆(Yann LeCun)在推特上指出,當數據有偏見(jiàn)時(shí),系統就變得有偏見(jiàn)。而這一觀(guān)點(diǎn),掀起一場(chǎng)爭論浪潮。有人說(shuō),系統產(chǎn)生偏見(jiàn)不應只歸咎于數據集,這種甩鍋的做法是不公平的,還有技術(shù)、人類(lèi)觀(guān)念等原因。

現在還沒(méi)有100%無(wú)偏見(jiàn)的數據集

  隨著(zhù)人工智能時(shí)代的到來(lái),技術(shù)正被越來(lái)越廣泛地應用在執法、廣告及其他領(lǐng)域。然而,這項技術(shù)在識別性別、膚色等過(guò)程中,存在著(zhù)一定偏見(jiàn)。

  “在美國,系統中白人男性的識別率最高,而黑皮膚女性的識別率則最低;在亞洲國家的人臉識別系統中黃種人的識別率相比白種人的識別率差距就會(huì )小一些?!备V荽髮W(xué)數學(xué)與計算機科學(xué)學(xué)院、福建省新媒體行業(yè)技術(shù)開(kāi)發(fā)基地副主任柯逍博士說(shuō)。

  這次陷入爭論中心的人臉識別偏見(jiàn)問(wèn)題其實(shí)是一個(gè)存在很久、熱度很高的話(huà)題。

  早前,美國麻省理工學(xué)院媒體實(shí)驗室主導的一項名為《Gender Shades》的研究項目在研究了各個(gè)前沿科技公司的面部識別系統后發(fā)現,各系統在識別男性面臉與淺色面臉?lè )矫姹憩F更佳,淺色皮膚男性的平均識別錯誤率不超過(guò)1%,淺色皮膚女性的平均識別錯誤率約為7%,深色皮膚男性的平均識別錯誤率約為12%,深色皮膚女性的平均識別錯誤率則高達35%。

  那么本次爭議中,楊立昆指出的數據集問(wèn)題是如何產(chǎn)生偏見(jiàn)的?有無(wú)100%沒(méi)有偏見(jiàn)的數據集?“不均衡的數據,導致了系統在學(xué)習時(shí),更好地擬合了比重較大的數據,而對占比小的數據的擬合則表現不佳,這就可能最終導致了偏見(jiàn)的產(chǎn)生?!笨洛薪榻B說(shuō),如一個(gè)常見(jiàn)的人臉識別數據集LFW,數據集中有近77%的男性,同時(shí)超過(guò)80%是白人。

  “目前,幾乎可以肯定的是沒(méi)有100%無(wú)偏見(jiàn)的數據集?!笨洛信e例說(shuō),在收集數據時(shí),可以針對性地讓男性與女性數目一樣,甚至也可以讓各種膚色的數據數目都一樣。但是,其中可能大部分人是沒(méi)有戴眼鏡的,這可能就對戴眼鏡的人進(jìn)行識別時(shí)帶來(lái)了偏見(jiàn)。進(jìn)一步講,各個(gè)年齡段的人臉也很難做到完全一致,導致最后學(xué)習到的模型可能對戴眼鏡、年長(cháng)或年幼的人臉產(chǎn)生偏見(jiàn)。所以有時(shí)候討論數據偏見(jiàn)的產(chǎn)生,會(huì )發(fā)現其產(chǎn)生的原因是考慮問(wèn)題的角度不同。

出現偏見(jiàn)不能只歸咎于數據

  眾多專(zhuān)家也指出,數據可能是系統中偏見(jiàn)的來(lái)源,但不是唯一的來(lái)源。

  其實(shí),在本次爭議中,楊立昆在推特中已經(jīng)很明確地表示,他的本意并不是說(shuō)問(wèn)題都出在數據集上,只是針對這篇論文,其算法在特定場(chǎng)景下,換個(gè)數據集就能解決問(wèn)題,但并不是說(shuō)所有的機器學(xué)習系統偏見(jiàn)都來(lái)源于數據集。

  那么,誰(shuí)才是產(chǎn)生偏見(jiàn)真正的“幕后推手”?

  學(xué)習過(guò)程應該是架構、數據、訓練算法等的相互作用。算法包括了特征的選擇、損失函數的選擇、訓練方法的選擇以及超參數調節等,其本身的缺陷也是偏見(jiàn)產(chǎn)生的一個(gè)原因。

  2019年12月,美國國家標準技術(shù)研究院進(jìn)行的一項研究發(fā)現,在大多數當前評估的人臉識別算法中,跨人種差異確實(shí)存在廣泛的準確性偏差。

  柯逍介紹說(shuō),在算法設計的時(shí)候,往往會(huì )選擇L1損失函數或者L2損失函數。若在將一個(gè)低分辨率人臉圖像還原成高分辨率人臉圖像的方法中,使用L2損失函數,得到的大多數人臉圖像更像白人;而使用L1損失函數,得到大多數人臉圖像更像黑人。這說(shuō)明由于損失函數的選擇不同,某個(gè)群體(黑人或白人)在一定程度上就會(huì )受算法的忽視,進(jìn)而產(chǎn)生偏見(jiàn)。

  這當中還存在另一種情況,假如數據帶有少量的偏見(jiàn),算法系統會(huì )將其放大,并變得更具有偏見(jiàn)。一項研究表明,如果初始數據中,下廚與女性的聯(lián)系概率是66%,將這些數據喂給人工智能后,其預測下廚與女性聯(lián)系起來(lái)的概率會(huì )放大到84%。一般來(lái)說(shuō),機器學(xué)習系統會(huì )選擇最符合通用情況的策略,然而這樣會(huì )導致一些非典型情況或較為特殊情況被忽略。

  除此之外,產(chǎn)生偏見(jiàn)的原因還有相似性的偏見(jiàn)。信息推送系統總會(huì )向用戶(hù)推薦他已經(jīng)看到、檢索過(guò)的相關(guān)內容。最終的結果是導致流向用戶(hù)的信息流都是基于現存的觀(guān)點(diǎn)和看法?!跋到y會(huì )自動(dòng)幫助用戶(hù)屏蔽與他們意見(jiàn)相左的信息,這就催生了一個(gè)信息泡沫,用戶(hù)看到的都是人工智能讓你看到的。這種偏見(jiàn)根本上也是數據與算法共同作用產(chǎn)生的?!笨洛姓f(shuō)。

  “總體而言,偏見(jiàn)還是源于規則制定者?!敝袖J網(wǎng)絡(luò )人工智能產(chǎn)品總監葉亮說(shuō),工程師從頭到尾參與了整個(gè)系統設計,尤其是機器學(xué)習的目標設定。算法就好像一只嗅探犬,當工程師向它展示特定東西的氣味后,它才能夠更加精準地找到目標。

算法糾偏工具已經(jīng)上崗

  近期,國際多家機構相繼宣布禁用人臉識別技術(shù)。有色人種被還原成白人的事件,再次掀起了人們對于人工智能系統產(chǎn)生偏見(jiàn)的批判浪潮,也再次警醒人們,技術(shù)帶有偏見(jiàn)所帶來(lái)的潛在危機。

  偏見(jiàn)可能導致無(wú)辜者蒙冤。在2018年夏天,英國媒體就報道過(guò),由于人臉識別技術(shù)的誤判,導致一名年輕黑人男性被誤認為嫌疑犯,在公眾場(chǎng)合被警察搜身。

  也有報告顯示,一些國外執法機構可以根據識別出的發(fā)色、膚色和面部特征對視頻中的人物進(jìn)行檢索。這種技術(shù)上的偏見(jiàn)也在一定程度上放大了人們的偏見(jiàn)。

  除了對人種與性別的識別偏差之外,人臉識別技術(shù)還因其在侵犯隱私方面的問(wèn)題而引起擔憂(yōu)。2020年初,美國一家人臉識別技術(shù)公司便受到了嚴密的審查,有關(guān)部門(mén)發(fā)現,其面部識別工具由超過(guò)30億張圖像構建而成,然而這些圖像大部分都是通過(guò)抓取社交媒體網(wǎng)站收集的,并且已被許多企業(yè)廣泛使用。

  偏見(jiàn)存在的同時(shí),一批新興的算法糾偏工具也涌入了人工智能。

  早在2018年,臉書(shū)曾發(fā)布一個(gè)算法模型,表示會(huì )在算法因種族、性別、年齡等因素做出不公正判斷時(shí)發(fā)出警告以提醒開(kāi)發(fā)者;2019年麻省理工學(xué)院就提出了一種糾偏算法,可以通過(guò)重新采樣來(lái)自動(dòng)消除數據偏見(jiàn)。

  那么克服偏見(jiàn)還需要人工智能技術(shù)做出哪些努力?“開(kāi)源方法和開(kāi)源技術(shù)都有著(zhù)極大的潛力改變算法偏見(jiàn)?!比~亮指出,開(kāi)源方法本身十分適合消除偏見(jiàn)程序,開(kāi)源社區已經(jīng)證明它能夠開(kāi)發(fā)出強健的、經(jīng)得住嚴酷測試的機器學(xué)習工具。如果線(xiàn)上社團、組織和院校能夠接受這些開(kāi)源特質(zhì),那么由開(kāi)源社區進(jìn)行消除算法偏見(jiàn)的機器設計將會(huì )順利很多。

  柯逍認為,可以看出偏見(jiàn)基本來(lái)源于數據與算法,加強對人工智能所使用的數據、算法以及模型的評估,能夠在一定程度上緩解潛在的、可導致偏見(jiàn)與歧視的因素。同時(shí),人工智能的偏見(jiàn)其實(shí)都是人類(lèi)偏見(jiàn)的反映與放大,因此人們放下偏見(jiàn)才是最根本的解決方案。



關(guān)鍵詞: 人臉識別 AI 機器學(xué)習

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>