AI進(jìn)入“深水區”,算法是潛在偏見(jiàn)的最后解決方案?
人工智能本來(lái)并不存在偏見(jiàn),它不會(huì )因為無(wú)法通過(guò)邏輯來(lái)解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng )建算法到解釋數據,機器學(xué)習中存在著(zhù)人類(lèi)的偏見(jiàn),并且直到現在,幾乎沒(méi)有人試圖解決這個(gè)嚴重的問(wèn)題。
本文引用地址:http://dyxdggzs.com/article/201804/378701.htm本周二,外媒表示,由谷歌前首席技術(shù)官Varun Kacholia和Facebook前搜索引擎工程師Ashutosh Garg一起創(chuàng )立的AI公司,近日完成了2400萬(wàn)美元的融資,投資方為L(cháng)ightspeed Ventures和Foundation Capital。
這是一家旨在通過(guò)公開(kāi)收集世界各地的勞動(dòng)力的信息,解決雇傭、求職和晉升的信息鴻溝與招聘歧視問(wèn)題的初創(chuàng )公司,依托于自主研發(fā)的軟件收集處理招聘職位和應聘者的個(gè)人信息,人工智能系統的處理減輕了信息不對稱(chēng)的問(wèn)題,匹配率比傳統招聘的提高了八倍,同時(shí)還節約了90%的篩選成本。
將大數據和算法自動(dòng)化決策應用于勞動(dòng)力的篩選上無(wú)可厚非,龐大的數據基礎也可以提高決策的效率。但算法的結果一定沒(méi)有偏差嗎?對此,Gary表示:“人們在招聘過(guò)程中也存在偏見(jiàn),這是因為個(gè)體獲取的信息是有限的。而數據算法為招聘人員提供了充足的信息和洞見(jiàn),彌補了招聘人員可能因不了解某些技能或公司而產(chǎn)生的誤差,從而大幅增加合格候選人的數量。”
按照該公司的說(shuō)法,產(chǎn)品的篩選機制將消除任何潛在的人類(lèi)偏見(jiàn),使其完成符合平等就業(yè)機會(huì )委員會(huì )的規定,年齡、性別、種族、宗教、殘疾等都不會(huì )成為算法的參考標準。消除人們固有的成見(jiàn),使人事決策變得不那么“私人化”固然有可取之處,但前提是決策系統本身不受這些偏見(jiàn)的影響。對算法的監督和修正,必然成為算法運行的重中之重。
其實(shí),對于人工智能的偏見(jiàn)問(wèn)題,在2017年的時(shí)候,一篇來(lái)自MIT Technology Review的文章就曾針對這一問(wèn)題發(fā)表過(guò)相關(guān)評論。
“在機器學(xué)習和人工智能發(fā)展的關(guān)鍵時(shí)刻,算法偏見(jiàn)正逐漸成為一個(gè)重大的社會(huì )問(wèn)題。如果算法中潛在的偏見(jiàn)導致很重要的決策不被承認、不受控制,這可能會(huì )造成更嚴重的負面后果,尤其是對較貧窮的社區和少數群體。另外,最終的抗議可能會(huì )阻礙一項極其有用的技術(shù)的進(jìn)步。”
而算法專(zhuān)家凱文·斯拉文(Kevin Slavin)也曾在TED演講中表示,算法“提煉自這個(gè)世界,來(lái)源于這個(gè)世界”,而現在則“開(kāi)始塑造這個(gè)世界”。在算法“塑造世界”的時(shí)代,我們應該思考的是:該如何突破算法的瓶頸,賦予AI正向的價(jià)值。
1.算法其實(shí)并不客觀(guān)
在我們的認知里,算法最大的優(yōu)勢是能夠根據用戶(hù)的“數字自我”實(shí)現智能化、精準化推薦。換句話(huà)說(shuō),算法是人們在眾多的信息中尋找自己所需材料的快速通道,這個(gè)過(guò)程的實(shí)現也是基于人們對算法的信任,即它具有“客觀(guān)性”。
不過(guò),人們都忘了一點(diǎn),AI算法及其決策程序是由開(kāi)發(fā)者塑造的。開(kāi)發(fā)者寫(xiě)入的代碼,使用的訓練數據以及對算法進(jìn)行應力測試的過(guò)程,都會(huì )影響算法之后的選擇。這就意味著(zhù)開(kāi)發(fā)者的價(jià)值觀(guān)、偏見(jiàn)和人類(lèi)缺陷都會(huì )反映在軟件上。
就像Facebook一直過(guò)不去的“劍橋分析丑聞”事件,利用先進(jìn)的計算技術(shù)或者AI技術(shù),試圖通過(guò)人們的隱私數據來(lái)操縱選舉,其實(shí)質(zhì),就是基本數據倫理的問(wèn)題。每個(gè)公司都有屬于自己的一套算法,因為他們都有不同的目的和價(jià)值觀(guān)。獲取信息時(shí),我們覺(jué)得自己有權利去做選擇,但實(shí)際上,所有的選項都是算法給出的既定選項。這么看來(lái),算法并不客觀(guān)。
2.在不客觀(guān)中學(xué)會(huì )自救
對算法的質(zhì)疑從其誕生起就一直存在,這種質(zhì)疑反映出了人類(lèi)的科學(xué)理性。在對算法的設計提出繼續完善的同時(shí),學(xué)會(huì )自救也是必要的,換句話(huà)說(shuō)我們要學(xué)會(huì )自我保護。
就整體情況而言,算法的最大問(wèn)題,在于其不透明性。對于這個(gè)復雜的領(lǐng)域,專(zhuān)業(yè)的技術(shù)人員至今也未能全部摸清楚,搞明白,更不用說(shuō)普通人了。所以,在不確定其設計理念或者運行邏輯的情況下,我們要做的是明確“算法并不客觀(guān)”的理念,時(shí)刻對其限制表示警惕。
或許,這個(gè)時(shí)候,較為激進(jìn)的思維模式更受歡迎,我們要學(xué)會(huì )提問(wèn),從提問(wèn)中了解算法發(fā)生的作用以及其最初的設計目的。比如,用傳統網(wǎng)頁(yè)方式瀏覽新聞,盡量不依靠智能搜索,雖然不一定能成功,但是還是要學(xué)著(zhù)用自己的邏輯對抗算法可能帶來(lái)的信息窄化,從而不被算法限制。
3.如何減少人工智能的偏見(jiàn)
至于如何減少人工智能的偏見(jiàn),微軟的研究員表示,最好的方式是從算法訓練的數據開(kāi)始審查,這是一種有效的方式。
數據分布本身有一定的偏見(jiàn)性。還是以美國大選為例,開(kāi)發(fā)者手中的美國公民數據分布并不均衡,本地居民的數據多于移民者,富人多于窮人,這都是可能出現的情況。而數據的不均衡可能會(huì )使AI對社會(huì )的組成得出錯誤的結論,比如僅僅通過(guò)機器學(xué)習算法分析,就得出“大多數美國人都是富有的白人”這個(gè)結論。
同樣的,也有研究表明,用于執法部門(mén)的AI 在檢測新聞中出現的罪犯照片時(shí),結果會(huì )偏向黑人和拉丁美洲裔居民。此外,訓練數據中存在的偏見(jiàn)還有很多其他形式,只不過(guò)這些提到的更多一些。但是訓練數據只是審查方式的一種,通過(guò)“應力測驗”找出人類(lèi)存在的偏見(jiàn)也同樣重要。
其實(shí)要讓AI變得沒(méi)有偏見(jiàn),我們就要勇于去揭開(kāi)算法的“黑箱”??焓諧EO宿華曾說(shuō),如果沒(méi)有很好的對社會(huì )的認知、對人文的思考,僅靠技術(shù)本身會(huì )很容易走偏,要用哲學(xué)的智慧將算法、技術(shù)力量放大,從而避免表達幸福感的種種障礙?,F在,我們要做的就是盡最大的努力去避免這些事情的發(fā)生。
評論