OpenAI、谷歌等七家 AI 頭部企業(yè)承諾:將為人工智能內容添加水印,開(kāi)放第三方審查
IT之家 7 月 21 日消息,據路透社報道,美國政府今日宣布,已獲得多家人工智能頭部公司的自愿承諾,將對人工智能生成的內容加水印等措施,以幫助提高技術(shù)的安全性。
本文引用地址:http://dyxdggzs.com/article/202307/448883.htm亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和 OpenAI 這七家公司都同意提高其系統的安全性和透明度,包括允許第三方專(zhuān)家對其模型進(jìn)行審查。
在發(fā)給 TechRadar 的一份聲明中,美國政府表示:“正在開(kāi)發(fā)這些新興技術(shù)的公司有責任確保其產(chǎn)品的安全。為了充分發(fā)揮人工智能的潛力,美國政府鼓勵該行業(yè)堅持最高標準,以確保創(chuàng )新不會(huì )以犧牲美國人的權利和安全為代價(jià)?!?/span>
首先,這七家公司承諾在向公眾發(fā)布 AI 系統之前,對其進(jìn)行內部和外部安全測試,并與相關(guān)行業(yè)參與者、政府、學(xué)術(shù)界和公眾共享信息,以幫助管理人工智能風(fēng)險。
這些公司還將致力于網(wǎng)絡(luò )安全投資和內部威脅控制,以“保護專(zhuān)有和未發(fā)布的模型權重”,這對于驅動(dòng)生成人工智能的數據模型的運行至關(guān)重要。他們還同意促進(jìn)第三方調查并報告系統中的任何安全漏洞。
七家公司還同意采取措施提高公眾對其系統的信任,包括開(kāi)發(fā)一種方法來(lái)確保讓人們知道,他們何時(shí)看到人工智能生成的內容,例如水印或其他措施。這些公司還將優(yōu)先研究人工智能模型帶來(lái)的社會(huì )風(fēng)險,包括可能導致的種族歧視和其他形式的偏見(jiàn),以及“保護隱私”。
不過(guò)IT之家從公告中發(fā)現,這些承諾都是相關(guān)企業(yè)自愿采取的措施,而且沒(méi)有違反的懲罰措施,因此并不能百分百保證嚴格執行。
評論