人工智能應用和隱私保護如何兼得?
在人們越來(lái)越看重個(gè)人隱私和信息安全的當下,人工智能技術(shù)是把雙刃劍。如何讓人工智能在保障用戶(hù)隱私安全的軌道上有序發(fā)展,正成為國內外共同關(guān)注的焦點(diǎn)和難點(diǎn)。
本文引用地址:http://dyxdggzs.com/article/201906/401660.htm5月16日,美國舊金山市政府通過(guò)《停止秘密監察條例》法案,禁止舊金山的政府機構使用人臉識別技術(shù),并將“靠人臉識別技術(shù)獲得某些信息”列為違法行為。這無(wú)疑是一種隱私保護的措施,但也引起諸多爭議。
國內某著(zhù)名計算機視覺(jué)創(chuàng )業(yè)公司一位要求匿名的副總裁在接受《中國科學(xué)報》采訪(fǎng)時(shí)反問(wèn):“舊金山已經(jīng)不再是一座能讓人感到安全的城市,人臉識別作為提高安全系數的基礎工具,反而禁止使用,不知道什么技術(shù)手段可以保證安全?”
人工智能和隱私安全不可兼得?
有意思的是,最近亞馬遜公司的股東以壓倒性多數票,否決了該公司停止向政府機構出售其人臉識別技術(shù)的一項提議,只有2.4%的股東投票贊成這項禁令。
“這兩件事情放在一起看非常有意思?!鄙鲜龈笨偛谜f(shuō),這說(shuō)明圍繞個(gè)人隱私、群體安全問(wèn)題,對于人臉識別技術(shù)的使用需要一個(gè)平衡?!斑@個(gè)平衡,就是一個(gè)好的規則規范——不僅要去規范人臉識別技術(shù)企業(yè),還要去規范使用這些技術(shù)的機構?!?/p>
實(shí)際上,人臉識別技術(shù)所創(chuàng )造的價(jià)值是被認可的。該副總裁認為,假使只是因為不確定使用人臉識別技術(shù)能夠帶來(lái)什么后果就直接禁用,那么這只能是一種短視或者短期行為。
“在滿(mǎn)足某些條件的情況下,這種技術(shù)當然是可以應用的?!彼f(shuō)道,“作為發(fā)明和使用新技術(shù)的人,都要去認真思考這些問(wèn)題,并且一起努力促使新規范的形成,而不是直接禁止掉?!?/p>
隨著(zhù)大數據的使用、算力的提高和算法的突破,人工智能正變得無(wú)處不在。由此帶來(lái)的問(wèn)題是,人們一方面享受人工智能帶來(lái)的“紅利”,另一方面則面臨隱私被當做“資源”過(guò)度和非法使用的困境。如何應對人們隱私“裸奔”的挑戰變得越發(fā)嚴峻。
技術(shù)手段:區塊鏈技術(shù)被派上場(chǎng)
以“人工智能+醫療”為例,人工智能技術(shù)在醫療健康領(lǐng)域的應用潛力巨大,但也面臨著(zhù)數據的問(wèn)題——用以訓練人工智能模型的大量醫學(xué)數據,可能是圖像、基因組、電子健康記錄等這些非常敏感的信息。
基于醫院的數據進(jìn)行訓練的人工智能算法有望獲得診斷、預防疾病和甚至治療疾病的能力。但在許多國家,由于法律原因,醫療記錄無(wú)法輕易共享并提供給算法。這使得利用人工智能在醫學(xué)圖像或數據中發(fā)現疾病的研究通常只能涉及相對較小的數據集,極大地制約了技術(shù)應用前景。
美國加州大學(xué)伯克利分校一家創(chuàng )業(yè)公司“綠洲實(shí)驗室”(Oasis Labs),致力于探索利用云計算和區塊鏈等技術(shù)確保用于研究的醫療數據等信息不被泄露或濫用。目前,斯坦福大學(xué)醫學(xué)院已經(jīng)批準綠洲實(shí)驗室與相關(guān)的研究人員一道在該院開(kāi)展實(shí)驗,測試他們的技術(shù)對解決上述兩難問(wèn)題是否有效果。
綠洲實(shí)驗室首先將患者的個(gè)人數據存儲在一款合作設計的安全芯片上,并保存在云端。外部人員——希望以數據集訓練算法的工程師們,可以在該系統(安全芯片+云端)下,利用數據運行算法并輸出結果。該系統也會(huì )在接收到數據訪(fǎng)問(wèn)請求時(shí),觸發(fā)基于區塊鏈的軟件上的智能合約系統,智能合約不僅會(huì )記錄數據的使用方式,還能檢查機器學(xué)習計算是否被正確執行。
綠洲實(shí)驗室聯(lián)合創(chuàng )始人兼加州大學(xué)伯克利分校教授Dawn Song介紹說(shuō),該技術(shù)還可以推及人工智能在其他領(lǐng)域的應用,例如財務(wù)記錄、個(gè)人購買(mǎi)習慣或網(wǎng)頁(yè)瀏覽數據。不過(guò)他表示,在探索其他領(lǐng)域之前,他們的計劃是先推動(dòng)此技術(shù)在醫療領(lǐng)域的應用。
盡管綠洲實(shí)驗室的技術(shù)探索展現出了潛力,但美國弗吉尼亞大學(xué)專(zhuān)門(mén)研究機器學(xué)習與安全問(wèn)題的專(zhuān)家埃文斯仍持保守態(tài)度。他指出,在安全硬件中存儲數據也有失敗的風(fēng)險。一旦硬件制造方遭遇攻擊,它所處理的數據就會(huì )面臨風(fēng)險。并且,現在也沒(méi)有證據證明,區塊鏈一定就是可靠的技術(shù)。
立法約束:讓合規應用有章可循
在沒(méi)有好的技術(shù)措施解決問(wèn)題之前,使用法規法律保護隱私和個(gè)人信息安全,是全球通用的做法。
2018年5月,歐盟頒布的被稱(chēng)為“史上最嚴”的《通用數據保護條例》(GDPR),就對企業(yè)獲取及使用數據的方式進(jìn)行了嚴格的限定。GDPR要求經(jīng)營(yíng)者告知并獲得客戶(hù)同意才可記錄用戶(hù)搜索等記錄,且不能使用模糊、冗長(cháng)的語(yǔ)言政策來(lái)獲取用戶(hù)數據使用許可等。并且,GDPR對違法企業(yè)的懲處力度也是空前的。
中國科學(xué)院自動(dòng)化研究所研究員曾毅認為,GDPR值得我國借鑒。雖然GDPR在實(shí)施初期,遭到很多企業(yè)質(zhì)疑且難以推行,但隨著(zhù)企業(yè)接受并按要求落實(shí),他們將得到更多用戶(hù)的認可和信任。
曾毅告訴《中國科學(xué)報》,如果人工智能系統不能盡力確保個(gè)人數據的安全性,不但無(wú)法贏(yíng)得用戶(hù)信賴(lài),而且將觸犯相關(guān)法律。人工智能的研發(fā)者、服務(wù)提供者、使用者都應充分了解有關(guān)個(gè)人數據安全的行業(yè)共識、規范、管理辦法、法律,以促進(jìn)人工智能的健康發(fā)展。
“加快立法的同時(shí),還應考慮我國國情,保護人工智能的發(fā)展‘土壤’?!眹鴥戎悄茉O備體系安全服務(wù)提供商同余科技創(chuàng )始人袁開(kāi)國對《中國科學(xué)報》舉例說(shuō),比如要明確數據的所有權屬于用戶(hù),企業(yè)不能非法使用、兜售用戶(hù)數據;但如果企業(yè)是為了更好地服務(wù)用戶(hù),在經(jīng)過(guò)用戶(hù)授權允許下,可以對用戶(hù)數據進(jìn)行深層次分析,明確數據的使用權。
“隱私保護是對公民基本人權的保護,也影響著(zhù)國民經(jīng)濟的發(fā)展?!敝袊鐣?huì )科學(xué)院哲學(xué)研究所研究員、北京協(xié)和醫學(xué)院生命倫理學(xué)研究中心學(xué)術(shù)委員會(huì )主任邱仁宗在接受《中國科學(xué)報》采訪(fǎng)時(shí)表示,隨著(zhù)技術(shù)的發(fā)展,人們的各種信息可以被輕易獲取。
“我反對這種未經(jīng)授權的‘人肉搜索’?!鼻袢首诒硎?,應該認真研究GDPR,開(kāi)展由人工智能專(zhuān)家、倫理學(xué)家、公眾代表、監管人員參與的個(gè)人數據保護研討會(huì ),盡快制定我國的專(zhuān)門(mén)法律法規。
評論