<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 皮膚不白,會(huì )遭到人臉識別技術(shù)的 “歧視”?

皮膚不白,會(huì )遭到人臉識別技術(shù)的 “歧視”?

作者: 時(shí)間:2018-02-22 來(lái)源:騰訊科技 收藏

  《紐約時(shí)報》近日發(fā)表文章,稱(chēng)技術(shù)的發(fā)展近來(lái)可謂突飛猛進(jìn),目前已經(jīng)有一些商業(yè)軟件可以用來(lái)識別照片中人物的性別,當照片中的人是白人時(shí),99%的情況下識別結果都是正確的,但如果照片中是黑人,錯誤率就比較高了。以下為原文內容:

本文引用地址:http://dyxdggzs.com/article/201802/375869.htm

  技術(shù)在識別不同種族和性別的人臉時(shí),效果有多大的不同呢?一項新的研究對此進(jìn)行了測量,結果表明,膚色越黑,識別率就越低。在識別黑皮膚女性時(shí),它的錯誤率幾乎達到了35%。

  MIT媒體實(shí)驗室的研究員喬伊o布蘭威尼(Joy Buolamwini)進(jìn)行的這項研究,顯示了現實(shí)世界中的一些偏見(jiàn)已經(jīng)滲透到了人工智能()領(lǐng)域,因為技術(shù)就是建立在之上的。

  在計算機視覺(jué)技術(shù)中,顏色很重要

  使用微軟、IBM和Face ++的人臉識別算法在識別黑人女性時(shí),錯誤率高于識別白人男性。

  

皮膚不白,會(huì )遭到人臉識別技術(shù)的 “歧視”?

  在一組385張膚色較白的男性照片中,性別判斷的錯誤率為1%。

  

皮膚不白,會(huì )遭到人臉識別技術(shù)的 “歧視”?

  在一組296張膚色較白的女性照片中,性別判斷的錯誤率為7%。

  

皮膚不白,會(huì )遭到人臉識別技術(shù)的 “歧視”?

  在一組318張膚色較黑的男性照片中,性別判斷的錯誤率為12%。

  

皮膚不白,會(huì )遭到人臉識別技術(shù)的 “歧視”?

  在一組271張膚色較黑的女性照片中,性別判斷的錯誤率為35%。

  在現代技術(shù)中,數據是關(guān)鍵。 用來(lái)訓練AI的數據有多好,AI效果就會(huì )有多好。如果訓練數據中的白人男性比黑人女性多,那么它識別黑人女性的能力就比較差。

  另一項研究報告顯示,在一種獲得廣泛使用的人臉識別數據集中,75%以上的圖像都是男性,80%以上是白人。

  因此這項新的研究就提出了一個(gè)問(wèn)題:當AI獲得的投資額和采用量日益增長(cháng)時(shí),AI的公平性和問(wèn)責性又該怎么保證呢?

  今天,商業(yè)公司正以各種方式部署人臉識別軟件,其中就包括根據社交媒體上的資料圖片來(lái)對產(chǎn)品進(jìn)行精準宣傳。但是,一些公司也正在嘗試把人臉識別和其他AI技術(shù)納入到一些自動(dòng)決策過(guò)程中,比如招聘和貸款決策。

  喬治城大學(xué)法學(xué)院的研究人員估計,執法部門(mén)的人臉識別網(wǎng)絡(luò )涵蓋了1.17億美國成年人的數據(警方拍攝的罪犯或嫌疑犯的面部照片),而非洲裔美國人最有可能被挑出來(lái),因為他們在這個(gè)數據庫中占的比例格外高。

  人臉識別技術(shù)受到的監管還很少

  猶他大學(xué)計算機科學(xué)教授Suresh Venkatasubramanian說(shuō):“現在是時(shí)候了,我們要認真研究AI系統的工作方式和問(wèn)題,要從社會(huì )角度向它們問(wèn)責。”

  之前已經(jīng)有一些計算機視覺(jué)技術(shù)犯錯的例子,顯示存在著(zhù)歧視。例如在2015年,谷歌的圖像識別照片app把非洲裔美國人標記為“大猩猩”,后來(lái)谷歌為此道了歉。

  哈弗福德學(xué)院的計算機科學(xué)家索列爾o弗里德勒(Sorelle Friedler)說(shuō),專(zhuān)家們早就懷疑人臉識別軟件對不同人群的效果不同。

  “但這是我所知道的第一個(gè)顯示存在這種不同的研究,”弗里德勒說(shuō)。

  28歲的布蘭威尼是非裔美國計算機科學(xué)家,曾經(jīng)歷過(guò)人臉識別偏見(jiàn)。她在喬治亞理工學(xué)院就讀本科時(shí),人臉識別技術(shù)對她的白人朋友們來(lái)說(shuō)效果很好,但是卻無(wú)法識別出她的臉。她當時(shí)覺(jué)得這個(gè)缺陷在不久之后就會(huì )修復。

  但是幾年后,當她進(jìn)入MIT媒體實(shí)驗室時(shí),又再次遇到了這個(gè)問(wèn)題——只有當她戴上白色面具后,軟件才能將她的臉識別出來(lái)。

  那時(shí),人臉識別軟件正在日益走出實(shí)驗室,進(jìn)入主流社會(huì )。

  “這是個(gè)很?chē)烂C的問(wèn)題,”她回憶說(shuō)。 “是時(shí)候做點(diǎn)事情了。”

  于是她將注意力轉向與數字技術(shù)中的偏見(jiàn)作斗爭。布蘭威尼現在在讀博,作為羅德學(xué)者和富布賴(lài)特研究員,她倡導“算法問(wèn)責制”,致力于讓自動(dòng)化決策變得更加透明、有解釋力,以及公平。

  她在TED上關(guān)于“編碼偏見(jiàn)”的演講視頻瀏覽量已經(jīng)超過(guò)94萬(wàn)次,她還創(chuàng )立了 “算法正義聯(lián)盟”,這個(gè)項目旨在增進(jìn)人們對這個(gè)問(wèn)題的認識。

  對三家公司人臉識別軟件進(jìn)行的實(shí)驗

  布蘭威尼將在本月一個(gè)會(huì )議上介紹一篇最新發(fā)表的論文。她為這篇論文研究了微軟、IBM和中國曠視科技這三家公司的人臉識別系統的性能,對它們識別不同膚色用戶(hù)的性別的效果進(jìn)行了衡量。她之所以選擇這些公司,是因為它們的人臉?lè )治鲕浖峁┝诵詣e判斷功能,并且它們的代碼已經(jīng)公開(kāi)發(fā)布,可以用來(lái)測試。

  她發(fā)現,這三家公司軟件的識別效果有待提高。

  布蘭威尼為該測試建立了一個(gè)數據集,共有1270張人臉,使用的是女議員較多的國家的議員面部圖像,包括三個(gè)以黑皮膚為主的非洲國家,以及三個(gè)以白皮膚為主的北歐國家。

  然后她根據皮膚科醫生使用的 “六點(diǎn)標志體系”對非洲和北歐的這些人臉資料進(jìn)行評分,對皮膚進(jìn)行分類(lèi)。相對于種族分類(lèi),醫學(xué)分類(lèi)更加客觀(guān)和準確。

  她再對這些人臉圖像進(jìn)行性別和膚色上的取舍,然后使用三家公司的軟件來(lái)識別它們。微軟識別黑皮膚女性的錯誤率是21%,而IBM和Megvii的錯誤率則接近35%。三家公司在識別白皮膚男性時(shí)的錯誤率都低于1%。

  布蘭威尼發(fā)布這項研究的成果之后。 IBM發(fā)表聲明說(shuō),該公司已經(jīng)穩步改善了人臉?lè )治鲕浖?,鄭重致力?ldquo;不帶偏見(jiàn)”和“透明度”。IBM表示將在本月推出的軟件升級版在識別膚色較深的女性時(shí),精確度會(huì )提高近10倍。

  微軟則表示它已經(jīng)“已經(jīng)采取措施來(lái)提高人臉識別技術(shù)的準確性”,并且正在投入資源,研究如何“識別、理解和消除偏見(jiàn)”。

  布蘭威尼說(shuō),曠視科技的Face ++軟件廣泛應用于中國的在線(xiàn)支付和網(wǎng)約車(chē)服務(wù),但該公司沒(méi)有回復置評請求。

  布蘭威尼發(fā)布了她的數據集,供其他人使用。她稱(chēng)自己的研究是“解決方案的起點(diǎn),基本上是第一步”。

  布蘭威尼還采取了進(jìn)一步的行動(dòng),她與IEEE(一家大型計算機專(zhuān)業(yè)組織)合作,成立了一個(gè)團隊,為人臉?lè )治鲕浖贫▎?wèn)責制和透明度標準。

  她還定期與其他關(guān)注AI影響的學(xué)者、公共政策組織和慈善機構會(huì )面。福特基金會(huì )主席達倫o沃克(Darren Walker)表示,這種新技術(shù)可能是一個(gè)“機會(huì )平臺”,但如果它復制并放大了過(guò)去的偏見(jiàn)和歧視,就發(fā)揮不了作用。

  沃克說(shuō):“數字世界正在進(jìn)行一場(chǎng)公平、包容和正義之戰。”



關(guān)鍵詞: 人臉識別 AI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>