有偏見(jiàn)的人工智能云出現一線(xiàn)改善的希望
盡管算法支持的人工智能產(chǎn)品現在已經(jīng)從夢(mèng)想變成了現實(shí),但是如果使用不當,它們很快就會(huì )成為現代噩夢(mèng)。作為一家提供人工智能平臺的公司的CSO,我知道我們在設計人工智能系統時(shí)匆忙做出的選擇可以將任何原本高尚的行動(dòng)變成躲在革命大旗后的怪物。對于設計粗心大意的人工智能系統,我曾經(jīng)見(jiàn)過(guò)的最為常見(jiàn)但也是無(wú)意識帶來(lái)的副作用之一就是預測結果針對特定利益相關(guān)方(一個(gè)人、一個(gè)群體或者一個(gè)國家)出現系統性的偏差,并導致了歧視。人工智能系統的偏見(jiàn)問(wèn)題已經(jīng)引發(fā)了長(cháng)時(shí)間的討論,政府機構——例如美國政府和歐盟基本權利機構(European Union Agency for Fundamental Rights )也已經(jīng)就此問(wèn)題發(fā)布了專(zhuān)門(mén)的報告。然而,直到最近,主要商業(yè)相關(guān)方對這一問(wèn)題似乎都無(wú)所作為。但最終,我們看到了一線(xiàn)希望,該領(lǐng)域最大的參與者開(kāi)始行動(dòng)了。
本文引用地址:http://dyxdggzs.com/article/201903/398509.htm
云端
盡管人工智能領(lǐng)域取得了巨大的成就,但構成人工智能基礎的算法只是冷酷的數學(xué)方程,它們本身無(wú)法做任何事情。它們就像停車(chē)場(chǎng)閑置的汽車(chē),等待有人為它們加油并賦予它們存在的正確意義。算法的燃料是數據。數據教導算法理解我們的世界規則和數據。然而,這里的薄弱環(huán)節在于數據是由人準備的。這種知識傳播鏈可能導致現實(shí)世界中的偏見(jiàn)和不公正會(huì )影響算法的思維方式,盡管這種影響可能是始料未及的。
一些比較壯觀(guān)的日常例子可能包括《紐約時(shí)報》報道的面部識別軟件在識別白人面部時(shí)表現得更好;一些作家稱(chēng)語(yǔ)音識別軟件更難以理解女性的聲音或者某些口音。然而,有很多例子表明帶有偏見(jiàn)的系統可能會(huì )造成更大的社會(huì )影響:一項研究認為美國刑事司法系統使用的累犯風(fēng)險評分可能存在著(zhù)偏見(jiàn),而另一些報道則稱(chēng)基于數據的教師評估系統也可能帶有偏見(jiàn)。
幸運的是,我最近觀(guān)察到這個(gè)領(lǐng)域的一些最大的玩家采取了一些行動(dòng),為更光明的未來(lái)帶來(lái)了一線(xiàn)希望。
曙光初現
在2018年5月初,Facebook宣布它已經(jīng)創(chuàng )建了一個(gè)特殊的內部機構,評估該公司算法做出的決策是否符合道德規范并且不含有偏見(jiàn)。此外,它還透露該團隊的工作將得到“離散軟件”的支持。
Facebook的這個(gè)團隊廣泛地同公司內部和外部的利益相關(guān)者合作(例如,Better Business Bureau’s Institute for Marketplace Trust和Brookings Institution)。盡管Facebook不會(huì )公開(kāi)該軟件的內部細節,但它正在考慮通過(guò)學(xué)術(shù)出版物提供調查結果。該公司希望獲得更多元化的人工智能人才,積極推動(dòng)對抗偏見(jiàn)的斗爭。
大約在同一時(shí)間,微軟采取了類(lèi)似的行動(dòng)——開(kāi)發(fā)“一種能夠自動(dòng)識別各種人工智能偏見(jiàn)的工具”。我相信這一舉措肯定會(huì )幫助該公司提高有問(wèn)題的算法的檢出率。該公司似乎已經(jīng)明白,參與創(chuàng )建人工智能的人是人工智能偏見(jiàn)的主要來(lái)源。
而IBM則提出了另一種稍微不同的主張——這可能是目前最強大的一項舉措,因為它可以直接適用于整個(gè)行業(yè)。該公司的研究人員發(fā)表了一篇論文,建議采用供應商符合性聲明(SDoc),在多個(gè)層面上確定算法的性能,例如性能標準化測試、公平性、風(fēng)險因素和安全措施。任何想要使用這一算法的人都可以看到這些結果。
雖然這些努力都建立在善意的基礎上的,但我們不得不承認,我們每天都在使用認知偏見(jiàn);僅維基百科就列出了200個(gè)。偏見(jiàn)在我們的學(xué)習過(guò)程中發(fā)揮著(zhù)重要作用。無(wú)論它們多么有害,我相信它們是我們大腦探索的一種形式,可以讓我們更快地做出決定。因此,建立毫無(wú)偏見(jiàn)的人工智能存在著(zhù)固有的挑戰,特別是如果你在人類(lèi)制作的內容上進(jìn)行訓練的話(huà),就更是如此。隨著(zhù)近幾年對人工智能的炒作,我們傾向于忘記盡管技術(shù)和算法的改進(jìn)讓我們離科幻電影中真正可以思考的機器更近了一步,我們離真正自動(dòng)化并且更理性的機器還有很遠。
結論
我們現在就要開(kāi)始解決因使用有偏見(jiàn)的人工智能而產(chǎn)生的所有潛在問(wèn)題。自學(xué)機器的概念不再只是一個(gè)愿景,社會(huì )已開(kāi)始接受這一事實(shí)。與此同時(shí),我們仍將人工智能視為新生事物,我們仍在等待革命的真實(shí)面目。我們走得越遠,我們聽(tīng)到的人工智能故事就越令人驚訝。而且,大規模使用未經(jīng)檢測、帶有偏見(jiàn)并無(wú)法解釋的算法可能會(huì )悄然引發(fā)悲劇,每個(gè)人創(chuàng )建自學(xué)產(chǎn)品越容易,這種悲劇就越發(fā)難以避免。我相信上述提到的所有舉措都應該得到贊揚、支持和復制,人工智能革命所有的利益相關(guān)方都應該這樣做。
評論