人民日報:解決算法智能帶來(lái)的問(wèn)題已經(jīng)不可回避
算法,曾被描述為一件相當溫和的事情——計算過(guò)程明確,步驟可控,結果一目了然。近年來(lái),算法通常與大數據結合,通過(guò)打分、排序、評級的方式在用戶(hù)、環(huán)境和推薦對象之間建立聯(lián)系,進(jìn)行自動(dòng)化推薦。搜索引擎中的網(wǎng)頁(yè)呈現,電子商務(wù)中的商品推薦,社交網(wǎng)絡(luò )中“你可能認識的好友”,內容推薦引擎中的新聞推薦等,都是算法應用的豐富場(chǎng)景。
本文引用地址:http://dyxdggzs.com/article/201901/396511.htm然而,算法的廣泛應用也引發(fā)一些問(wèn)題。不久前,英國伯明翰地方警局表示正在研發(fā)一套名為“國家數據分析方案”的系統,旨在通過(guò)對居民個(gè)人數據資料的分析,預測公民的“犯罪指數”,引導警方提前干預。盡管警方一再強調不會(huì )僅根據風(fēng)險指數就進(jìn)行逮捕,但這個(gè)消息還是引發(fā)了廣泛爭議。
由于算法具有技術(shù)門(mén)檻,很多時(shí)候出現問(wèn)題難以追責,造成傷害無(wú)從補償。如何讓數據分析系統自證其算法“公平有效”,這是人們十分關(guān)心的問(wèn)題,也是一道現實(shí)難題。2015年,美國芝加哥法院使用的犯罪風(fēng)險評估算法就被證明對黑人造成了系統性歧視:黑人更有可能被這個(gè)系統錯誤地標記為具有高犯罪風(fēng)險,從而被法官判處更長(cháng)的刑期。另外,數百萬(wàn)人由于該算法無(wú)法獲得保險、貸款和租房等服務(wù),如同被算法“囚禁”。美國皮尤研究中心發(fā)布的《公眾對計算機算法的態(tài)度》報告則顯示,58%的受訪(fǎng)者認為,算法和其他計算機程序總會(huì )包含偏見(jiàn)。
顯然,算法的設計、目的、數據使用等都是設計開(kāi)發(fā)者的主觀(guān)選擇,其主觀(guān)偏見(jiàn)有可能被嵌入算法系統。數據的有效性和準確性,也會(huì )影響整個(gè)算法決策和預測的準確性。正是由于設計偏向、數據缺陷,再加上無(wú)法公開(kāi)透明的“算法黑箱”,使得算法過(guò)濾、算法偏見(jiàn)、算法歧視和算法操控的情況屢屢發(fā)生。近幾年,全球互聯(lián)網(wǎng)平臺紛紛開(kāi)發(fā)智能推薦系統,大多數都是根據用戶(hù)使用痕跡進(jìn)行關(guān)聯(lián)推薦。算法越智能,越能使用戶(hù)被“安排”進(jìn)所謂“信息繭房”,即陷入為其量身定制的信息之中。久而久之,用戶(hù)處于信息“自我禁錮”困境,從而失去了解更大范圍事物的機會(huì )。其后果,有可能就是導致人們視野日趨偏狹,思想日趨封閉、僵化甚至極化。
大數據背景下,解決算法智能帶來(lái)的麻煩已是不可回避的課題。越來(lái)越多人提出著(zhù)手研究算法治理的主張,雖然注定是十分艱巨的事情,但也當屬值得邁出的一步。
評論