為了搞懂AI的「腦回路」,騰訊走出了重要的一步
人工智能可以幫助我們進(jìn)行決策,但誰(shuí)能來(lái)解釋 AI 做出的判斷對不對呢?
2020 年 6 月,杜克大學(xué)一項發(fā)表在 AI 頂會(huì ) CVPR 的研究曾經(jīng)引發(fā)人們的討論熱潮。一個(gè)名為 PULSE 的人工智能算法可以把加了馬賽克的人臉照片恢復成清晰的面部圖像。
PULSE 模型使用著(zhù)名的生成對抗網(wǎng)絡(luò ) StyleGAN 來(lái)生成高分辨率圖像,與其他方法相比生成的圖片效果更好,清晰度更高,細節也更加豐富。
不過(guò)人們在測試之后也發(fā)現了一些問(wèn)題,比如你把美國前總統奧巴馬的打碼照片交給 AI,它會(huì )將其還原成一個(gè)白人:
在 PULSE 的「偏見(jiàn)」被曝光后,人工智能社區瞬間被引爆,項目作者首先給出了回應,表示出現這種情況可能是因為 StyleGAN 的訓練數據集,也有可能存在其他未知因素。
人工智能領(lǐng)域的先驅?zhuān)瑘D靈獎獲得者 Yann LeCun 對此甚至還在社交網(wǎng)絡(luò )上和人們論戰,他先是解釋為什么 PULSE 會(huì )出現這樣的偏見(jiàn),但并未引來(lái)普遍的認同。
之后 Yann LeCun 又在多條推文中解釋了自己關(guān)于偏見(jiàn)的立場(chǎng),由此引發(fā)的討論遠遠超出技術(shù)的范疇。
對此,從事數據科學(xué)領(lǐng)域超過(guò)十年的 Luca Massaron 認為,盡管從技術(shù)角度來(lái)看 Yann LeCun 是完全正確的,但看看這種觀(guān)點(diǎn)被拋出之后公眾的反應,你就會(huì )知道談?wù)撍嵌嗝吹拿舾小?/p>
PULSE 還只是一項學(xué)術(shù)研究,去年在 Facebook 的推薦算法中,包含黑人與白人平民和警察發(fā)生爭執的片段被標記為「有關(guān)靈長(cháng)類(lèi)動(dòng)物的視頻」的事件引發(fā)了軒然大波,臉書(shū)一度禁用了視頻推薦功能并道歉。
在獲得廣泛應用的背后,由于 AI 是由大規模數據驅動(dòng),無(wú)需闡明推理邏輯性的方法,所作出的「統計規律」判斷經(jīng)常會(huì )受到人們的質(zhì)疑。
可解釋性,AI 的發(fā)展的重要方向
深度學(xué)習的運行機制難以理解,對于 AI 工程師們來(lái)說(shuō)就像「煉丹」——難以溯因,難以調參,對于大眾和監管機構而言則是個(gè)「黑箱」——不知如何運作,也不知它給出的結果是否公正。
雖然并非所有人工智能系統都是黑盒,AI 也并不比傳統形式的軟件更加不可解釋?zhuān)谌斯ぶ悄苣P蛷碗s度直線(xiàn)上升的今天,問(wèn)題正在逐漸變得明顯,AI 越來(lái)越先進(jìn),我們面臨的挑戰也越來(lái)越大。
人們一直在各個(gè)方向上,為 AI 技術(shù)的可解釋性而努力著(zhù)。
2010 年,吳恩達等人在 Google AI 發(fā)表的「識別貓」研究中,神經(jīng)網(wǎng)絡(luò )通過(guò)樣本學(xué)習理解了貓的概念,通過(guò)特征可視化方法我們可以看到算法學(xué)習的結果。
近年來(lái),各國面對人工智能技術(shù)落地的政策著(zhù)重強調了保護隱私和可解釋性。2018 年 5 月,有「史上最嚴格的隱私和數據保護法」之稱(chēng)的歐盟《通用數據保護條例》(GDPR)正式生效。該法案被稱(chēng)為是 20 年來(lái)數據隱私條例的最重要變化,同時(shí),有關(guān)「算法公平性」的條款要求所有公司必須對其算法的自動(dòng)決策進(jìn)行解釋。
在我國,去年 8 月通過(guò)的《個(gè)人信息保護法》第 24 條也明確要求必須確保自動(dòng)化決策的透明度和結果公正。
如何才能讓人工智能在帶來(lái)便利的同時(shí)保證可解釋性?這意味著(zhù)我們需要構建起可信的 AI 體系。在業(yè)界看來(lái),在 AI 技術(shù)應用時(shí)考慮可解釋性,需要考慮公平性并消除偏見(jiàn),減小模型漂移,實(shí)行風(fēng)險管理,在模型部署的全生命周期進(jìn)行持續監控,最終形成的工具體系需要在多種不同硬件環(huán)境下部署。
可解釋 AI 并非算法模型中某個(gè)獨立的環(huán)節或具體工具,要想構建可解釋 AI,就需要在 AI 模型整個(gè)生命周期的每個(gè)步驟持續介入,在每個(gè)環(huán)節都構建不同的可解釋方法。近幾年來(lái),眾多科技企業(yè)紛紛加大投入,構建了各種可解釋 AI 相關(guān)工具和服務(wù)。
在 AI 模型構建的數據準備階段,微軟提出了 Datasheets for Datasets,用于記錄數據集的創(chuàng )建、組成、預期用途、維護等屬性,關(guān)注數據集是否存在偏見(jiàn)。
而谷歌提出的 Model Cards 工具包則主要關(guān)注模型的部署和監控環(huán)節,可報告機器學(xué)習模型的出處、效果和道德信息評估,對算法本身的表現提供解釋。
國內的互聯(lián)網(wǎng)企業(yè)也在采取行動(dòng)。比如,美團在去年 9 月發(fā)布文章,公開(kāi)了關(guān)于配送時(shí)間的四種評估算法,介紹了預估送達時(shí)間背后的算法邏輯。
從機制上來(lái)看,業(yè)內實(shí)現算法可解釋的主流方式有「事前可解釋性」(Ante-hoc)和「事后可解釋性」(Post-hoc)兩種。顧名思義,前者使用的算法結構相對簡(jiǎn)單,可以通過(guò)觀(guān)察模型本身來(lái)理解模型的決策過(guò)程,又可稱(chēng)之為「內在可解釋模型」。事后可解釋方法則是給定訓練好的模型及數據,嘗試理解模型預測的原理。目前業(yè)界流行的大部分 AI 可解釋機制屬于事后可解釋的范疇。
構建 AI 系統的說(shuō)明書(shū)
人工智能技術(shù)發(fā)展到現在,人們大多數時(shí)間都在性能上應用上作努力,如今對于可解釋 AI 的研究可以說(shuō)才剛剛開(kāi)始。我們不能為了追求效率忽視 AI 系統的公平性和透明度,也不應該完全反過(guò)來(lái),對新技術(shù)簡(jiǎn)單持不接受態(tài)度。
1 月 11 日,在騰訊舉行的科技向善創(chuàng )新周活動(dòng)中,騰訊研究院、騰訊天衍實(shí)驗室、騰訊優(yōu)圖、Tencent AI Lab 等機構聯(lián)合完成的《可解釋 AI 發(fā)展報告 2022——打開(kāi)算法黑箱的理念與實(shí)踐》正式發(fā)布。
該報告用超過(guò)三萬(wàn)字的篇幅,對于可解釋 AI 的現狀進(jìn)行了概述,展望了這一領(lǐng)域的發(fā)展趨勢。此外,該報告對可解釋 AI 未來(lái)的方向提出了一些看法。
從 1 月 17 日起,該報告可在騰訊研究院的微信公眾號下載。
報告鏈接(或點(diǎn)擊文末「閱讀原文」):https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu
報告指出,在不同的領(lǐng)域,面對不同的對象,人工智能解釋的深淺與目標都存在區別。在對于 AI 可解釋性要求相對較高的醫療、教育、金融、自動(dòng)駕駛等領(lǐng)域中,存在不同的解釋方法;另一方面,對于監管、終端用戶(hù)和開(kāi)發(fā)者來(lái)說(shuō),對于可解釋性的需求也各不相同。這意味著(zhù)可解釋 AI 是一個(gè)龐雜的領(lǐng)域,需要業(yè)界和學(xué)界共同努力,構建一個(gè)完整的體系。
同時(shí),對 AI 應用系統的透明性與可解釋性要求,需要考慮效率、安全、隱私、網(wǎng)絡(luò )安全、知識產(chǎn)權保護等目的平衡,界定不同場(chǎng)景的最小可接受標準,必要時(shí)采取常規監測、人工審核等機制,不應僅限于算法的可解釋性。
來(lái)自業(yè)界、學(xué)界的專(zhuān)家均對《可解釋 AI 發(fā)展報告 2022》的發(fā)布表示歡迎:
「可解釋的 AI 好比一個(gè)老師在大學(xué)里面教課——我們需要注意跟學(xué)生的互動(dòng),講的東西學(xué)生得聽(tīng)懂,聽(tīng)了得有受益。這就需要我們和學(xué)生之間有更多的了解,」微眾****首席人工智能官楊強說(shuō)道?!溉斯ぶ悄懿皇枪铝⒋嬖诘?,它必須在和人互動(dòng)的情況下才能產(chǎn)生效果。這份報告開(kāi)了一個(gè)好頭,在這個(gè)基礎上我們可以展開(kāi)長(cháng)期的研究?!?/p>
除了行業(yè)研究,騰訊近年來(lái)也在可解釋 AI 技術(shù)方面有了諸多成果。
自 2014 年起,深度學(xué)習技術(shù)發(fā)生了巨大的進(jìn)步,識別準確率從 96.3% 提升到了 99.5%,直接促成了人臉識別技術(shù)的實(shí)用化。最近疫情期間,需要用到人臉識別做身份驗證的場(chǎng)景越來(lái)越多。在騰訊支持的健康碼上,一年累計亮碼次數已超過(guò) 240 億次。
騰訊優(yōu)圖實(shí)驗室在人臉識別任務(wù)中構建了非監督的訓練方式。在驗證交互過(guò)程中對圖片的選擇進(jìn)行了優(yōu)化。在特征層面上,算法又引入了馮 · 米塞斯分布來(lái)對人臉特征進(jìn)行建模,將模型學(xué)到的特征表示為概率分布,在圖像識別的過(guò)程中,AI 除了輸出相似度之外,還可以輸出自信度,為人們提供了額外的解釋。
優(yōu)圖提出的可解釋人臉識別技術(shù)。
騰訊覓影《肺炎 CT 影像輔助分診及評估軟件》是騰訊首款獲得國家****品監督管理局第三類(lèi)醫療器械注冊證的輔助診斷軟件產(chǎn)品。其可用于肺部 CT 影像的顯示、處理、測量和肺炎病灶識別,并不單獨給出對患者的診斷意見(jiàn),而是采取與人類(lèi)醫生結合的方式進(jìn)行診斷。
這種方式大幅提高了醫生的工作效率,針對 AI 技術(shù)人員則滿(mǎn)足全局可解釋性。
騰訊天衍可信可解釋疾病風(fēng)險預測模型,其中綠色箭頭表示增強主要輸出可解釋性的輔助輸出。
此外,軟件研究資料中對于訓練及測試數據的來(lái)源、數量、多維分布進(jìn)行了詳盡分析,可幫助開(kāi)發(fā)者和用戶(hù)理解模型特性,消除因數據偏移而導致模型輸出結果問(wèn)題的疑慮。
可解釋 AI 的未來(lái)
可解釋 AI 是一個(gè)新興的研究領(lǐng)域,現在還缺乏統一的理論框架和技術(shù)路線(xiàn)。我們現在也很難找到準確率很高,同時(shí)可解釋性極好的算法。更多的時(shí)候,我們需要進(jìn)行效率與可解釋性之間的選擇。
從技術(shù)的角度看,深度學(xué)習可解釋性的矛盾就像 20 世紀初物理學(xué)中的「烏云」,反映了人們對于新發(fā)現事物理解的缺失。在這些方向的研究對于技術(shù)進(jìn)步將會(huì )起到巨大的推動(dòng)作用。從方法上,研究人員正在通過(guò)理論和實(shí)驗兩條道路試圖理解算法運作的機制。
而在實(shí)踐過(guò)程中,我們需要注意到這一問(wèn)題是多元性的:針對不同的算法、不同的領(lǐng)域和不同的受眾需要有不同的標準。
「可解釋性就像物理學(xué)定義的邊界函數——當我們進(jìn)行優(yōu)化時(shí),總要定義一個(gè)邊界的共識??山忉尵褪羌纫獙Ψ嚼斫?,又要它的性能高,這是一件非常難的事?!箺顝姳硎?,「我認為這會(huì )是一個(gè)長(cháng)期存在的問(wèn)題。解決方法或許是在一個(gè)細分領(lǐng)域里,根據領(lǐng)域知識來(lái)給予回答,為我們指明方向,進(jìn)而逐漸推廣?!?/p>
隨著(zhù)技術(shù)的進(jìn)步和制度的完善,期待在不久的將來(lái),我們能夠建立起一套完整可信的可解釋 AI 體系。
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。