曠視發(fā)布《人工智能應用準則》 涉及數據安全等六項
據報道,曠視科技發(fā)布基于企業(yè)自身管理標準的《人工智能應用準則》(以下簡(jiǎn)稱(chēng)《準則》)。
本文引用地址:http://dyxdggzs.com/article/201907/402905.htm《準則》提到6項人工智能應用準則:正當性、人的監督、技術(shù)可靠性和安全性、公平和多樣性、問(wèn)責和及時(shí)修正、數據安全與隱私保。曠視表示,希望對人工智能正確有序發(fā)展作出明確規范,同時(shí)給出相應干預措施或指導意見(jiàn),確保人工智能能夠在可控范圍內持續發(fā)展。
《準則》全文如下:
《人工智能應用準則》
1、正當性:技術(shù)應該是一種正面的力量。我們致力于成為一個(gè)負責任的企業(yè)公民,遵守適用的法律和普遍接受的道德原則,增進(jìn)社會(huì )福祉。
2、人的監督:人工智能不應該超越人的自主性。人類(lèi)應該能夠監督人工智能技術(shù)的發(fā)展以及人工智能系統的決策,并在必要時(shí)進(jìn)行干預。
3、技術(shù)可靠性和安全性:人工智能解決方案應該能夠做出準確有效的決策,同時(shí)對外部攻擊具有足夠的安全性和防御力。人工智能解決方案應該進(jìn)行廣泛的測試,謹慎使用并嚴格監控。
4、公平和多樣性:人工智能技術(shù)的開(kāi)發(fā)人員應盡量減少人工智能解決方案的系統性偏差,這種系統性偏差可能來(lái)自于用于開(kāi)發(fā)解決方案的數據和算法中固有的偏差。無(wú)論年齡,性別,種族或其他特征如何,所有人都應該可以使用人工智能解決方案。
5、問(wèn)責和及時(shí)修正:人工智能解決方案應該是可審核、可追責的。人工智能解決方案的錯誤、缺陷、偏見(jiàn)或其他負面影響,一經(jīng)發(fā)現,應立即予以承認并積極地加以處理。
6、數據安全與隱私保護:人工智能解決方案的開(kāi)發(fā)及使用過(guò)程中,需嚴格保護用戶(hù)的個(gè)人隱私、保障數據安全。
評論