騰訊發(fā)布人工智能倫理報告 “幸福、信任、可持續”成核心詞
近日,騰訊研究院和騰訊AI Lab聯(lián)合發(fā)布了人工智能倫理報告《智能時(shí)代的技術(shù)倫理觀(guān)——重塑數字社會(huì )的信任》。人工智能倫理是國際社會(huì )近幾年關(guān)注的焦點(diǎn)話(huà)題。最近,國內外都有重大進(jìn)展,OECD成員國采納了首個(gè)由各國政府簽署的AI原則,即“負責任地管理可信AI的原則(Principles for responsible stewardship of trustworthy AI)”,這些原則之后被G20采納,成為人工智能治理方面的首個(gè)政府間國際共識,確立了以人為本的發(fā)展理念和敏捷靈活的治理方式。無(wú)獨有偶,我國新一代人工智能治理原則也于近日發(fā)布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開(kāi)放協(xié)作、敏捷治理八項原則,以發(fā)展負責任的人工智能。
本文引用地址:http://dyxdggzs.com/article/201907/402673.htm在此背景下,在騰訊研究院過(guò)去幾年對人工智能倫理進(jìn)行的持續研究的基礎上,騰訊研究院和騰訊AI Lab聯(lián)合研究形成了這份人工智能倫理報告《智能時(shí)代的技術(shù)倫理觀(guān)——重塑數字社會(huì )的信任》,認為在“科技向善”理念之下,需要倡導面向人工智能的新的技術(shù)倫理觀(guān),包含三個(gè)層面:技術(shù)信任,人工智能等新技術(shù)需要價(jià)值引導,做到可用、可靠、可知、可控(“四可”);個(gè)體幸福,確保人人都有追求數字福祉、幸福工作的權利,在人機共生的智能社會(huì )實(shí)現個(gè)體更自由、智慧、幸福的發(fā)展;社會(huì )可持續,踐行“科技向善”,發(fā)揮好人工智能等新技術(shù)的巨大“向善”潛力,善用技術(shù)塑造健康包容可持續的智慧社會(huì ),持續推動(dòng)經(jīng)濟發(fā)展和社會(huì )進(jìn)步。
以下為《智能時(shí)代的技術(shù)倫理觀(guān)——重塑數字社會(huì )的信任》主要內容:
互聯(lián)網(wǎng)的前三十年,是一個(gè)連接一切的故事,這個(gè)故事以前所未有的速度和規模改變著(zhù)人類(lèi)和人類(lèi)社會(huì )。如今,以人工智能、大數據為代表的新技術(shù)集群加速發(fā)展,有望引領(lǐng)第四次工業(yè)革命,智能時(shí)代的大幕正在拉開(kāi),無(wú)處不在的數據和算法正在催生一種新型的人工智能驅動(dòng)的經(jīng)濟和社會(huì )形式,生物層、物理層、技術(shù)層可能融合為三位一體。簡(jiǎn)言之,人工智能正在改變這個(gè)世界。
因此在當前,以人工智能為代表的這一輪新技術(shù)具有巨大的潛力和價(jià)值,無(wú)疑能夠成為一股“向善”的力量,繼續造福于人類(lèi)和人類(lèi)社會(huì )。但任何具有變革性的新技術(shù)都必然帶來(lái)法律的、倫理的以及社會(huì )的影響。例如,互聯(lián)網(wǎng)、大數據、人工智能等數字技術(shù)及其應用帶來(lái)的隱私保護、虛假信息、算法歧視、網(wǎng)絡(luò )安全、網(wǎng)絡(luò )犯罪、網(wǎng)絡(luò )過(guò)度使用等問(wèn)題已經(jīng)成為全球關(guān)注焦點(diǎn),引發(fā)全球范圍內對數字技術(shù)及其應用的影響的反思和討論,探索如何讓新技術(shù)帶來(lái)個(gè)人和社會(huì )福祉的最大化。
因此,人工智能倫理開(kāi)始從幕后走到前臺,成為糾偏和矯正科技行業(yè)的狹隘的技術(shù)向度和利益局限的重要保障。正如華裔AI科學(xué)家李飛飛所言,要讓倫理成為人工智能研究與發(fā)展的根本組成部分。在此背景下,從政府到行業(yè)再到學(xué)術(shù)界,全球掀起了一股探索制定人工智能倫理原則的熱潮,歐盟、德國、英國、OECD、G20、IEEE、谷歌、微軟等諸多主體從各自的角度提出了相應的人工智能倫理原則,共同促進(jìn)AI知識的共享和可信AI的構建。要言之,各界已經(jīng)基本達成共識,人工智能的發(fā)展離不開(kāi)對倫理的思考和倫理保障。
從最早的計算機到后來(lái)的信息再到如今的數據和算法,伴隨著(zhù)技術(shù)倫理的關(guān)注焦點(diǎn)的轉變,技術(shù)倫理正在邁向一個(gè)新的階段。在新的發(fā)展階段,我們提出新的技術(shù)倫理(technology ethics),探索AI、個(gè)人、社會(huì )三者之間的平衡。就AI技術(shù)自身而言,AI需要價(jià)值引導,應做到可用、可靠、可知、可控(“四可”),從而讓人們可以信任AI,讓AI可以給個(gè)人和社會(huì )創(chuàng )造價(jià)值;就AI與個(gè)人之關(guān)系而言,幸福是人生的終極目的,需要構建和諧共生的人機關(guān)系,保障個(gè)人的數字福祉和幸福工作權利,實(shí)現智能社會(huì )人機共生,讓個(gè)體更自由、智慧、幸福地生活和發(fā)展;就AI與社會(huì )之關(guān)系而言,AI所具有的巨大的“向善”潛力是歷史上任何時(shí)候都無(wú)法比擬的,可以成為一股“向善”的力量,助力經(jīng)濟社會(huì )健康包容可持續發(fā)展。
信任(trust):人工智能需要價(jià)值引導,做到可用、可靠、可知、可控(“四可”)
就AI而言,雖然技術(shù)自身沒(méi)有道德、倫理的品質(zhì),但是開(kāi)發(fā)、使用技術(shù)的人會(huì )賦予其倫理價(jià)值,因為基于數據做決策的軟件是人設計的,他們設計模型、選擇數據并賦予數據意義,從而影響我們的行為。所以,這些代碼并非價(jià)值中立,其中包括了太多關(guān)于我們的現在和未來(lái)的決定。更進(jìn)一步,現在人們無(wú)法完全信任人工智能,一方面是因為人們缺乏足夠信息,對這些與我們的生活和生產(chǎn)息息相關(guān)的技術(shù)發(fā)展缺少足夠的了解;另一方面是因為人們缺乏預見(jiàn)能力,既無(wú)法預料企業(yè)會(huì )拿自己的數據做什么,也無(wú)法預測人工智能系統的行為。因此,我們需要構建能夠讓社會(huì )公眾信任人工智能等新技術(shù)的規制體系,讓技術(shù)接受價(jià)值引導。
作為建立技術(shù)信任的起點(diǎn),我們認為,人工智能等新技術(shù)的發(fā)展和應用需要遵循倫理原則。為此,秉持“負責任研究與創(chuàng )新”(responsible research and innovation)、“科技向善”等理念,我們進(jìn)一步闡述“四可”原則,用以引導負責任地發(fā)展和應用工智能技術(shù),使其可以造福于人類(lèi)和人類(lèi)社會(huì )。并將“四可”翻譯為“ARCC”(available,reliable,comprehensible,controllable,即ARCC,讀作ark)。正如傳說(shuō)中保存人類(lèi)文明火種的諾亞方舟,人工智能的健康發(fā)展需要以“倫理方舟”為保障,確保將來(lái)友好、和諧、共生的人機關(guān)系。
第一,可用(available)。發(fā)展人工智能的首要目的,是促進(jìn)人類(lèi)發(fā)展,給人類(lèi)和人類(lèi)社會(huì )帶來(lái)福祉,實(shí)現包容、普惠和可持續發(fā)展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術(shù)紅利,避免出現技術(shù)鴻溝??捎眯赃€意味著(zhù)以人為本的發(fā)展理念、人機共生、包容性以及公平無(wú)歧視,要求踐行“經(jīng)由設計的倫理”(ethics by design)理念,將倫理價(jià)值融入到AI產(chǎn)品、服務(wù)的設計當中。
第二,可靠(reliable)。人工智能應當是安全可靠的,能夠防范網(wǎng)絡(luò )攻擊等惡意干擾和其它意外后果,實(shí)現安全、穩定與可靠。一方面人工智能系統應當經(jīng)過(guò)嚴格的測試和驗證,確保其性能達到合理預期;另一方面人工智能應確保數字網(wǎng)絡(luò )安全、人身財產(chǎn)安全以及社會(huì )安全。
第三,可知(comprehensible)。人工智能應當是透明的、可解釋的,是人可以理解的,避免技術(shù)“黑盒”影響人們對人工智能的信任。研發(fā)人員需要致力于解決人工智能“黑盒”問(wèn)題,實(shí)現可理解、可解釋的人工智能算法模型。此外,對于由人工智能系統做出的決策和行為,在適當的時(shí)候應能提供說(shuō)明或者解釋?zhuān)ū澈蟮倪壿嫼蛿祿?,這要求記錄設計選擇和相關(guān)數據,而不是一味追求技術(shù)透明。換句話(huà)說(shuō),技術(shù)透明或者說(shuō)算法透明不是對算法的每一個(gè)步驟、算法的技術(shù)原理和實(shí)現細節進(jìn)行解釋?zhuān)?jiǎn)單公開(kāi)算法系統的源代碼也不能提供有效的透明度,反倒可能威脅數據隱私或影響技術(shù)安全應用。相反,在A(yíng)I系統的行為和決策上實(shí)現有效透明將更可取,也能提供顯著(zhù)的效益。此外,在發(fā)展和應用人工智能的過(guò)程中,應為社會(huì )公眾參與創(chuàng )造機會(huì ),并支持個(gè)人權利的行使。
第四,可控(controllable)。人工智能的發(fā)展應置于人類(lèi)的有效控制之下,避免危害人類(lèi)個(gè)人或整體的利益。短期來(lái)看,發(fā)展和應用人工智能應確保其帶來(lái)的社會(huì )福祉顯著(zhù)超過(guò)其可能給個(gè)人和社會(huì )帶來(lái)的可預期的風(fēng)險和負面影響,確保這些風(fēng)險和負面影響是可控的,并在風(fēng)險發(fā)生之后積極采取措施緩解、消除風(fēng)險及其影響。長(cháng)期來(lái)看,雖然人們現在還無(wú)法預料通用人工智能和超級人工智能能否實(shí)現以及如何實(shí)現,也無(wú)法完全預料其影響,但應遵循預警原則(precautionary principle),防范未來(lái)的風(fēng)險,使未來(lái)可能出現的通用人工智能和超級人工智能能夠服務(wù)于全人類(lèi)的利益。
當然,信任的建立,需要一套規則體系。在這些原則之下,人們可以探索制定標準、法律、國際公約等。對于人工智能需要采取包容審慎、敏捷靈活的治理方式,應避免嚴格、細致的法律要求,而是可以采取事后監管或者通過(guò)出臺標準、行業(yè)公約、倫理框架、最佳實(shí)踐、技術(shù)指南等調整人工智能等新技術(shù)的發(fā)展應用,支持行業(yè)自律。
幸福(happiness):在人機共生的智能社會(huì ),確保人人都有追求數字福祉、幸福工作的權利
各種智能機器正在成為人類(lèi)社會(huì )不可或缺的一部分,和我們的生活和生產(chǎn)息息相關(guān)。這給人類(lèi)與技術(shù)之間的關(guān)系提出了新的命題,需要深入思考智能社會(huì )如何實(shí)現人機共生(human-computer symbiosis)。
第一,保障個(gè)人的數字福祉,人人都有追求數字福祉的權利。一方面需要消除技術(shù)鴻溝和數字?zhù)櫆?,全球還有接近一半人口沒(méi)有接入互聯(lián)網(wǎng),老年人、殘疾人等弱勢群體未能充分享受到數字技術(shù)帶來(lái)的便利。另一方面減小、防止互聯(lián)網(wǎng)技術(shù)對個(gè)人的負面影響,網(wǎng)絡(luò )過(guò)度使用、信息繭房、算法偏見(jiàn)、假新聞等現象暴露出了數字產(chǎn)品對個(gè)人健康、思維、認知、生活和工作等方面的負面影響,呼吁互聯(lián)網(wǎng)經(jīng)濟從吸引乃至攫取用戶(hù)注意力向維護、促進(jìn)用戶(hù)數字福祉轉變,要求科技公司將對用戶(hù)數字福祉的促進(jìn)融入到互聯(lián)網(wǎng)服務(wù)的設計中,例如Android和iOS的屏幕使用時(shí)間功能、Facebook等社交平臺的“數字福祉”工具、騰訊視頻的護眼模式對用戶(hù)視力的保護等。
第二,保障個(gè)人的工作和自由發(fā)展,人人都有追求幸福工作的權利。目前而言,人工智能的經(jīng)濟影響依然相對有限,不可能很快造成大規模失業(yè),也不可能終結人類(lèi)工作,因為技術(shù)采納和滲透往往需要數年甚至數十年,需要對生產(chǎn)流程、組織設計、商業(yè)模式、供應鏈、法律制度、文化期待等各方面做出調整和改變。雖然短期內人工智能可能影響部分常規性的、重復性的工作。長(cháng)遠來(lái)看,以機器學(xué)習為代表的人工智能技術(shù)對人類(lèi)社會(huì )、經(jīng)濟和工作的影響將是深刻的,但人類(lèi)的角色和作用不會(huì )被削弱,相反會(huì )被加強和增強。未來(lái)二十年內,90%以上的工作或多或少都需要數字技能。人們現在需要做的,就是為當下和未來(lái)的勞動(dòng)者提供適當的技能教育,為過(guò)渡期勞動(dòng)者提供再培訓、再教育的公平機會(huì ),支持早期教育和終身學(xué)習。
可持續(sustainability):踐行“科技向善”,善用技術(shù)塑造健康包容可持續的智慧社會(huì )
技術(shù)創(chuàng )新是推動(dòng)人類(lèi)和人類(lèi)社會(huì )發(fā)展的最主要因素。而這一輪技術(shù)革命具有巨大的“向善”潛力,將對人類(lèi)生活與社會(huì )進(jìn)步帶來(lái)突破性的提升。在二十一世紀的今天,人類(lèi)擁有的技術(shù)能力,以及這些技術(shù)所具有的“向善”潛力,是歷史上任何時(shí)候都無(wú)法比擬的。換言之,這些技術(shù)本身是“向善”的工具,可以成為一股“向善”的力量,用于解決人類(lèi)發(fā)展面臨著(zhù)的各種挑戰,助力可持續發(fā)展目標。與此同時(shí),人類(lèi)所面臨的挑戰也是歷史上任何時(shí)候都無(wú)法比擬的。聯(lián)合國制定的《2030可持續發(fā)展議程》確立了17項可持續發(fā)展目標,實(shí)現這些目標需要解決相應的問(wèn)題和挑戰,包括來(lái)自生態(tài)環(huán)境的,來(lái)自人類(lèi)健康的,來(lái)自社會(huì )治理的,來(lái)自經(jīng)濟發(fā)展的,等等。
將新技術(shù)應用于這些方面,是正確的、“向善”的方向。例如,人工智能與醫療、教育、金融、政務(wù)民生、交通、城市治理、農業(yè)、能源、環(huán)保等領(lǐng)域的結合,可以更好地改善人類(lèi)生活,塑造健康包容可持續的智慧社會(huì )。因此,企業(yè)不能只顧財務(wù)表現,只追求經(jīng)濟利益,還必須肩負社會(huì )責任,追求社會(huì )效益,服務(wù)于好的社會(huì )目的和社會(huì )福祉,給社會(huì )帶來(lái)積極貢獻,實(shí)現利益與價(jià)值的統一。包括有意識有目的地設計、研發(fā)、應用技術(shù)來(lái)解決社會(huì )挑戰。如今,“人工智能造福人類(lèi)”(AI for Good)已經(jīng)成為全球發(fā)展趨勢,呼吁與行動(dòng)并存。以騰訊為例,自2018年1月在國內首次提出“科技向善”以來(lái),騰訊已將“科技向善”作為新的愿景與使命,并身體力行地在醫療、社會(huì )治理(如尋找失蹤人口)、FEW(糧食、能源、水源)等方面踐行“科技向善”理念。
以智能時(shí)代的技術(shù)倫理重塑數字社會(huì )的信任
互聯(lián)網(wǎng)、人工智能等數字技術(shù)發(fā)展到今天,給個(gè)人和社會(huì )帶來(lái)了諸多好處、便利和效率,未來(lái)還將持續推動(dòng)經(jīng)濟發(fā)展和社會(huì )進(jìn)步。如今,步入智能時(shí)代,為了重塑數字社會(huì )的信任,我們需要呼吁以數據和算法為面向的新的技術(shù)倫理觀(guān),實(shí)現技術(shù)、人、社會(huì )之間的良性互動(dòng)和發(fā)展。最終,我們希望以新的技術(shù)倫理觀(guān)增進(jìn)人類(lèi)對于技術(shù)發(fā)展應用的信任,讓人工智能等技術(shù)進(jìn)步持續造福人類(lèi)和人類(lèi)社會(huì )發(fā)展進(jìn)步,塑造更健康包容可持續的智慧社會(huì )。
評論