<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > AI也會(huì )“學(xué)壞”?都是人類(lèi)搗的鬼!

AI也會(huì )“學(xué)壞”?都是人類(lèi)搗的鬼!

作者: 時(shí)間:2017-08-29 來(lái)源:科技行者 收藏
編者按:人工智能除了技術(shù)和應用本身,還有很多的社會(huì )和道德問(wèn)題需要解決。

  隨著(zhù)技術(shù)的普及,我們似乎開(kāi)始“無(wú)條件”相信計算機算法所提供的結果,然而有些問(wèn)題是不可忽略的。除了對就業(yè)產(chǎn)生的影響,由于往往基于人類(lèi)提供的樣本數據進(jìn)行學(xué)習,并且“來(lái)者不拒”,包括人類(lèi)的“負能量”,因此,極有可能和小孩一樣學(xué)壞,在價(jià)值取向上出現扭曲。人類(lèi)在學(xué)習過(guò)程中可能出現的任何一種認知偏差都有可能在人工智能系統的學(xué)習過(guò)程中出現。

本文引用地址:http://dyxdggzs.com/article/201708/363653.htm

  這樣的事件已經(jīng)在不斷發(fā)生,比如不久前Google公司的圖像識別程序將幾個(gè)黑人的面孔標記為大猩猩;LinkedIn的一個(gè)招聘廣告計劃顯示偏好是男性;而名為T(mén)ay的Microsoft聊天機器人,僅僅在Twitter學(xué)習了一天,就開(kāi)始出現了反猶太人的信息。

AI也會(huì )“學(xué)壞”?都是人類(lèi)搗的鬼!

  人工智能正在成為“種族主義者”

  人工智能在“價(jià)值觀(guān)”上的這種偏差,給社會(huì )帶來(lái)的影響將是巨大的。

  去年五月,就有一則報道稱(chēng)美國法院用于犯罪風(fēng)險評估的計算機程序對黑人罪犯存有偏見(jiàn)。根據調查新聞組織ProPublica的說(shuō)法,在COMPAS(懲教罪犯管理分析替代制裁)的項目中,關(guān)于判斷嫌疑人是否是累犯的問(wèn)題,算法給出的黑人風(fēng)險值(45%)幾乎是白人風(fēng)險值的兩倍(24%),所以會(huì )更容易將黑人定為再犯嫌疑人。

  與COMPAS類(lèi)似的很多項目還在全美數百個(gè)法院中應用,而這無(wú)疑將影響法官和其他官員的判決。我們似乎看到,由于存在種族歧視而被詬病的美國司法制度,已經(jīng)開(kāi)始尋求技術(shù)的幫助來(lái)改變這樣的局面,但最終卻發(fā)現算法本身也存在種族偏見(jiàn)。

  提供該軟件的公司Northpointe對報告的結論提出異議,但聲稱(chēng)該項目由于敏感的商業(yè)機密拒絕透露內部算法。無(wú)論如何,ProPublica的指責還是揭示了一個(gè)困擾許多社會(huì )學(xué)家和計算機科學(xué)家多年的問(wèn)題,即在計算工具變得越來(lái)越先進(jìn)的同時(shí),其計算原理也變得越來(lái)越不透明。計算工具所依賴(lài)的逮捕記錄、郵政編碼、社會(huì )關(guān)系和收入等數據,不僅帶有偏見(jiàn),也有可能進(jìn)一步加深人類(lèi)的偏見(jiàn)。

  當我們?yōu)橛嬎銠C算法提供的信息越多,機器學(xué)習和其它利用大數據的程序所展現出來(lái)的性能也就越好。據麥肯錫的全球管理顧問(wèn)透露,在過(guò)去的一年中,針對人工智能這一領(lǐng)域,科技公司大約投入了200億到300億的資金,并主要用于研發(fā)。這些公司相信人工智能能夠篩選社會(huì )所產(chǎn)生的大量信息,并找到有助于人類(lèi)社會(huì )變得更高效、更富有、更高幸福指數的模式。

  許多科學(xué)家都希望利用機器學(xué)習實(shí)現很多事情,例如幫助失業(yè)人員找到工作、預測養老基金的走勢,以及整理稅務(wù)和海關(guān)工作。這些項目將會(huì )涉及到人類(lèi)生活的方方面面,成為一種得到廣泛認可的智慧。如其中一位計算機科學(xué)家所說(shuō):“我們可能不知道人工智能的應用現在有多么廣泛,但是,我卻知道我們不能后退?!?/p>

  然而,目前人們對人工智能的關(guān)注點(diǎn)往往是在預測未來(lái)趨勢上,關(guān)于如何阻止相關(guān)項目進(jìn)一步加劇過(guò)去社會(huì )中存在的不平等現象卻關(guān)注得很少。

  舊金山非盈利性人權數據分析組(HRDAG)的首席統計師Kristian Lum表示:“人們常常一不小心就會(huì )讓程序自動(dòng)執行不該有的偏見(jiàn)認知?!比ツ?,Lum和一位合作伙伴一起展示了一個(gè)稱(chēng)為“PredPol”的項目,計算機基于對過(guò)去的犯罪報告的“學(xué)習”,可以幫助警察部門(mén)預測未來(lái)犯罪可能發(fā)生的熱點(diǎn)地區。而這也導致了警察部門(mén)對于黑色和棕色人種聚集的地區過(guò)度警惕。一位政策研究員Samuel Sinyangwe表示,這種做法“特別惡毒”,一方面,警察可以說(shuō)自己沒(méi)有偏見(jiàn),只是根據數據的分析結果執行;另一方面,這也在暗示公眾計算機的算法是公正的。

  計算機的偏見(jiàn)認知是人類(lèi)賦予的

  事實(shí)上,計算機本身是不會(huì )有偏見(jiàn)的,但是它會(huì )從人類(lèi)所提供的數據中快速學(xué)會(huì )歧視。雖然機器學(xué)習使得計算機可以做很多例如語(yǔ)言翻譯、人臉識別或在Netflix隊列中推薦電影的工作。但是,隨著(zhù)算法得以從原始代碼不斷“循環(huán)學(xué)習”,其中的原理也變得越來(lái)越復雜、越來(lái)越不透明。而對此,很多像Northpointe一樣的公司,礙于算法的商業(yè)敏感性往往也不愿意透露算法的內部運行原理。

AI也會(huì )“學(xué)壞”?都是人類(lèi)搗的鬼!

  此前,巴斯大學(xué)(University of Bath)的一位研究員Joanna Bryson開(kāi)發(fā)了一個(gè)旨在“學(xué)習”詞匯之間的關(guān)聯(lián)性的程序,并發(fā)現這一程序在讀取了互聯(lián)網(wǎng)上數百萬(wàn)頁(yè)的文本之后,開(kāi)始將女性的名字和代詞與“接待員”和“護士”等工作聯(lián)系起來(lái)。令她更為震驚的是,這個(gè)結果與美國政府數據所顯示的結果一致,性別的確與職業(yè)存在著(zhù)近90%的相關(guān)性。

  Bryson表示:“人們希望人工智能是公正客觀(guān)的,而這本身就是錯誤的。如果基礎數據反映了人們的固有印象和判斷,或者如果你根據人類(lèi)的文化來(lái)訓練人工智能,那么,你還是會(huì )發(fā)現偏見(jiàn)在人工智能領(lǐng)域中也是普遍存在的?!?/p>

  那么,在這樣的情況下,誰(shuí)會(huì )是“受害者”?根據Cathy O‘Neil所著(zhù)的《數學(xué)殺傷性武器(Weapons of Math Destruction)》一書(shū)中所說(shuō),在當今社會(huì )里,最大的“受害者”通常是那些最容易受到自動(dòng)化系統評估影響的人。比如說(shuō),真正富有的人不太可能通過(guò)網(wǎng)絡(luò )去找工作,也不會(huì )讓銀行行政人員以外的任何人評估他們的貸款申請。而在司法制度中,那些成千上萬(wàn)沒(méi)有錢(qián)雇傭律師或其他法律顧問(wèn)的被告,將成為最有可能接受計算機自動(dòng)評估的人。

  在Kristian Lum 2016年發(fā)表的一篇論文中,她具體揭示了由于人工智能系統中偏見(jiàn)的存在,哪些人群會(huì )成為“受害者”。以PredPol為例——該項目根據奧克蘭市警察局提供的近期犯罪和逮捕記錄的統計數據進(jìn)行分析,總結出了未來(lái)可能發(fā)生犯罪的地域,從而為警方部署提供依據。盡管統計學(xué)家們以國家統計數據為基礎,統計出的整個(gè)國家的毒品使用量白人和黑人的概率差不多,但是,PredPol項目顯示的犯罪集中區域的結果中黑人社區的數量卻是白人社區數量的兩倍。

  而如果美國警方根據PredPol所預測的結果在這些區域不斷開(kāi)展行動(dòng)并增加了逮捕數量,就會(huì )進(jìn)入一個(gè)惡性循環(huán),在那些警察最常訪(fǎng)問(wèn)的地區,PredPol預測的犯罪行為也會(huì )越來(lái)越多。同時(shí),這也將導致更多的警察被安排到這些地區。如此循環(huán)往復。

  要解決偏見(jiàn)認知的問(wèn)題還沒(méi)有“萬(wàn)全之策”

  雖然,我們大多數人都不了解PredPol等程序中的復雜代碼,但是,洛杉磯一個(gè)處理警方監視的社區小組Stop LAPD Spying Coalition,其組織者Hamid Khan表示,人們認為預測性警務(wù)是一種自上而下的保持治安水平不變的方法,這將會(huì )導致那些本就不穩定的地區陷入病態(tài)化。

  在計算機科學(xué)界有這么一句話(huà),錯誤的輸入,就會(huì )導致錯誤的輸出。這意味著(zhù)程序并不是萬(wàn)能的,如果你給計算機的信息是有缺陷的,計算機并不會(huì )修復這些缺陷,而只是根據已有的信息進(jìn)行處理。用Khan的話(huà)說(shuō):“輸入了種族主義,就會(huì )導致種族歧視信息的輸出”。

  但現在我們還不清楚的是,現行的法律怎么樣去防止歧視,以及如何規范算法決策來(lái)解決這個(gè)問(wèn)題。2016年,曾為微軟研究員的康奈爾大學(xué)教授Solon Barocas表示,當涉及大數據和機器學(xué)習時(shí),現行法律是幾乎不能解決歧視問(wèn)題的。目前在美國,已經(jīng)有許多傳統的民權主義者,包括美國公民自由聯(lián)盟(ACLU)在內,正在不斷維護民眾在這方面的權利,甚至試圖通過(guò)城市政策,要求警方披露其采用的包括人工智能在內的所有技術(shù)。

  但是,由于政府機構采用私有企業(yè)的技術(shù),其內部工作原理可能不透明,因而這一過(guò)程非常復雜并且曲折。

  對此,英國也實(shí)施了一系列的保護措施。例如,如果一項決定被完全交給計算機,那么,政府的服務(wù)商和公司就必須進(jìn)行披露。但是,牛津大學(xué)的阿蘭圖靈研究所的法律學(xué)者Sandra Wachter則表示,現行法律并沒(méi)有完全符合技術(shù)進(jìn)步的方向,很多漏洞都可能造成算法的不公開(kāi)使用。因此,他要求政府提供“解釋權”,所有對應的實(shí)施方案都必須以更高的透明度完全公開(kāi)。

  針對這一話(huà)題,很多科學(xué)文獻都反映了當今社會(huì )關(guān)于“公平”本質(zhì)的辯論,而研究人員正在采用一切方法,從幾十年的歷史數據中剝離“不公平”的因素,并修改算法模型,從而保護受反歧視法保護的所有群體。然而,圖靈研究所的一名研究員仍然認為這是非常困難的,因為“改變變量可能會(huì )引入新的偏見(jiàn),有時(shí)我們甚至不知道偏見(jiàn)如何影響數據,以及什么才是偏見(jiàn)?!?/p>

  所以說(shuō),人工智能除了技術(shù)和應用本身,還有很多的社會(huì )和道德問(wèn)題需要解決??梢哉f(shuō),計算機科學(xué)家面臨著(zhù)一個(gè)陌生又熟悉的挑戰:他們的工作要面向未來(lái),但是,在面對有學(xué)習能力的機器的時(shí)候,卻發(fā)現自己卻還被困在非常古老而傳統的問(wèn)題中。



關(guān)鍵詞: AI 人工智能

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>