ChatGPT 太猖狂?OpenAI 欲打假并研發(fā)“文本水印”,網(wǎng)友吐槽:太“雞肋”!
出品 | CSDN(ID:CSDNnews)
這到底是人干的,還是 AI 干的?
隨著(zhù) AIGC 的爆火,在 ChatGPT、Stable Diffusion 模型的推動(dòng)下,當下想要辨別我們所見(jiàn)的代碼、圖像、文章、小說(shuō)、腳本、詩(shī)句、Debug 程序等內容究竟是「真」還是「假」時(shí),那可太難了。
只要其背后的“主謀”不外揚,外人也幾乎看不出來(lái)作品究竟是出自誰(shuí)手。然而,往往越是這樣,就越容易造成學(xué)術(shù)造假、藝術(shù)界的混亂、版權的爭議等多種亂象。
為了減少這種情況的出現,ChatGPT 的創(chuàng )建者 OpenAI 終究還是準備站出來(lái)填坑了。計算機科學(xué)教授 Scott Aaronson (目前是 OpenAI 的客座研究員)在德克薩斯大學(xué)奧斯汀分校的一次演講中透露,OpenAI 正在開(kāi)發(fā)一種工具,用于對 AI 系統生成的內容加個(gè)水印。每當系統(如 ChatGPT)生成文本時(shí),該工具就會(huì )嵌入一個(gè)“不易察覺(jué)的水印”,以此顯示文本的來(lái)源。
人工智能需要束縛
事實(shí)證明,要控制像 ChatGPT 這樣的系統是很困難的。作為開(kāi)發(fā)商,雖然 OpenAI 在 ChatGPT 政策規定寫(xiě)道,當從其系統共享內容時(shí),用戶(hù)應明確表明它是由人工智能生成的,但現實(shí)使用過(guò)程中,OpenAI 可以控制 ChatGPT 不生成暴力、血腥有害的內容,但是卻無(wú)法掌控它的使用者會(huì )將其應用到何處。
幾天前,知名編程問(wèn)答網(wǎng)站 Stack Overflow 決定“封殺” ChatGPT,稱(chēng) ChatGPT 答案的正確率非常低,對整個(gè)網(wǎng)站以及尋求正確答案的用戶(hù)來(lái)說(shuō)是有害的。例如,要求 ChatGPT 寫(xiě)一個(gè)公眾人物的傳記,它可能會(huì )很自信地插入不正確的傳記數據。再比如要求它解釋如何為特定功能編寫(xiě)軟件程序,它同樣可以生成可信但最終不正確的代碼。如果用戶(hù)被發(fā)現使用 ChatGPT 回答問(wèn)題,他們可能會(huì )受到禁止繼續發(fā)帖的懲罰。
除此之外,與之前的許多文本生成系統一樣,ChatGPT 也會(huì )被用于編寫(xiě)高質(zhì)量的網(wǎng)絡(luò )釣魚(yú)郵件和有害的惡意軟件,甚至會(huì )被用于考試作弊等等。
因此,但凡 ChatGPT 所到之處,便亟須這樣一款工具進(jìn)行束縛。
加水印的工作原理
過(guò)去,OpenAI 已經(jīng)有一種方法可以標記 DALL-E 生成的內容 ,并在它生成的每個(gè)圖像中嵌入簽名。但是如今想要追蹤文本的來(lái)源,實(shí)則要困難得多。
那如何在文字上面加上追蹤或打上“水印”?
Scott Aaronson 教授認為,最有前途的方法是密碼學(xué)。
Scott Aaronson 表示,他在今年春天的學(xué)術(shù)休假期間,一直在 OpenAI 研究為 GPT 等文本模型的輸出內容添加水印的工具。
對于“AI 水印”的設想,Scott Aaronson 在自己的博客中進(jìn)行了詳解。其表示,“我們希望每當 GPT 生成一些長(cháng)文本時(shí),能夠在它的選詞上有一個(gè)不易察覺(jué)的秘密標記,你可以用它來(lái)證明,這是來(lái)自 GPT 生成的內容。”
那么這種水印到底是如何實(shí)現的?
Scott Aaronson 教授稱(chēng),對于 GPT 來(lái)說(shuō),每一個(gè)輸入和輸出都是一串 token(標記),可以是單詞,也可以是標點(diǎn)符號、單詞的一部分,或者更多--總共有大約 10 萬(wàn)個(gè) token。GPT 的核心是以先前 token 的字符串為條件,不斷地生成下一個(gè)要生成的 token 的概率分布。在神經(jīng)網(wǎng)絡(luò )生成分布后,OpenAI 服務(wù)器實(shí)際上會(huì )根據該分布或該分布的某些修改版本進(jìn)行采樣,這取決于一個(gè)名為 "temperature"的參數。不過(guò),只要 temperature 參數不為零,下一個(gè) token 的選擇通常會(huì )有一些隨機性,這也是為什么你對 GPT 用同一段話(huà)提問(wèn),會(huì )得到不同的答案的主要原因。
「OpenAI 的水印工具就像現有文本生成系統的一個(gè) "包裝",利用在服務(wù)器層面運行的加密功能,"偽隨機 "地選擇下一個(gè)標記」,Scott Aaronson 說(shuō)道。
從理論上講,這個(gè)系統生成的文本對大家而言都是隨機的,但是任何擁有加密功能“鑰匙”的人能夠發(fā)現水印。
也許有人會(huì )好奇:如果 OpenAI 控制了服務(wù)器,那么為什么要費盡心思去做水???為什么不直接將 GPT 的所有輸出存儲在一個(gè)巨大的數據庫中,然后如果大家想知道某些東西是否來(lái)自 GPT,就可以查閱該數據庫?
Scott Aaronson 贊同地說(shuō)道,這樣的確可以做到的,甚至可能在涉及執法或其他方面的高風(fēng)險案件中必須這樣做。但這將引起一些嚴重的隱私問(wèn)題,譬如你可以揭示 GPT 是否生成或未生成給定的候選文本,而不可能揭示其他人是如何使用 GPT 的?數據庫方法在區分 GPT 唯一生成的文本和僅僅因為它具有很高概率而生成的文本(例如,前一百個(gè)素數的列表)方面也存在困難。
當前,來(lái)自 OpenAI 工程師 Hendrik Kirchner 已經(jīng)構建了一個(gè)工作原型,并希望將其構建到未來(lái) OpenAI 開(kāi)發(fā)的系統中。
截至目前,據外媒 Techcrunch 報道,OpenAI 和 Aaronson 并未透露過(guò)多關(guān)于“水印原型”的信息,只是稱(chēng)水印是他們正在探索的幾種 "注明出處技術(shù) "之一,以檢測人工智能產(chǎn)生的產(chǎn)出。
“水印”功能很“雞肋”?
不過(guò)對于這種技術(shù),業(yè)界也頗有爭議。
有人認為,該工具是基于服務(wù)器端的,這意味著(zhù)它不一定適用于所有文本生成系統。他們認為,對于競爭對手來(lái)說(shuō),繞過(guò)它是微不足道的。
來(lái)自麻省理工學(xué)院的計算機科學(xué)教授 Srini Devadas 認為:"通過(guò)重新措辭、使用同義詞等來(lái)繞過(guò)它的篩查是相當容易的。"
OpenAI 的競爭對手 AI21 實(shí)驗室的聯(lián)合創(chuàng )始人兼聯(lián)合首席執行官 Yoav Shoham 認為,水印并不足以幫助識別 AI 生成文本的來(lái)源。他呼吁采用一種 "更全面 "的方法,包括差異化水印,即對文本的不同部分進(jìn)行不同的水印,以及更準確地引用事實(shí)文本來(lái)源的 AI 系統。
艾倫人工智能研究所的研究科學(xué)家 Jack Hessel 指出,很難在不知不覺(jué)中對人工智能生成的文本進(jìn)行加注“水印”,因為每個(gè) token 都是一個(gè)離散的選擇。太明顯的“水印”可能會(huì )導致選擇奇怪的詞,從而降低流暢性。不過(guò),一個(gè)理想的“水印”是人類(lèi)讀者無(wú)法辨別的,并能實(shí)現高度檢測。根據它的設置方式,由于“簽名”過(guò)程的運作方式,OpenAI 自己可能是唯一能夠自信地提供這種檢測的一方。
Scott Aaronson 也表示,該計劃只有在像 OpenAI 這樣的公司在擴展最先進(jìn)系統方面處于領(lǐng)先地位的世界中才會(huì )真正起作用——而且他們都同意成為負責任的參與者。即使 OpenAI 與其他文本生成系統提供商(如 Cohere 和 AI21Labs)共享水印工具,也不會(huì )阻止其他人選擇不使用它。
雖然 OpenAI 帶來(lái)了 ChatGPT、GPT-3、Dell-2 這些極具創(chuàng )新性的產(chǎn)品,引發(fā)用戶(hù)的狂歡,但不少網(wǎng)友仍質(zhì)疑“AI 水印”的必要性:
@knaik94:
這似乎是在浪費能源。倘若一次生成的文本內容很短,根本無(wú)法判斷它是否是由 AI 生成的。此外,我想在生成的內容中再多走一步,如改寫(xiě)某些內容、使用同義詞和短語(yǔ)替換、統一標點(diǎn)符號或者一些輔助語(yǔ)法檢查/修飾符等工具,都可以逃避“AI 水印”的檢測。
況且行業(yè)也有一些開(kāi)放性的替代方案,如 GPT2,已經(jīng)在 MIT 許可下發(fā)布。在 NSFW 文本上訓練的社區語(yǔ)言模型也已經(jīng)存在。在我看來(lái),OpenAI 這樣的舉動(dòng)從長(cháng)遠來(lái)看只會(huì )把大多數人趕走。如果在未經(jīng)審查的足夠好模型和經(jīng)過(guò)審查的優(yōu)秀模型之間進(jìn)行選擇,我會(huì )為 99% 的長(cháng)期項目選擇足夠好的模型。
@norwalkbear :
現在很多人看到了人工智能的潛力。如果你限制太多,人們會(huì )開(kāi)發(fā)自己的 AI 模型,甚至迫切需要 OpenAI 的開(kāi)源替代品。
最后,看到 OpenAI 正在研發(fā)這樣的工具,也有網(wǎng)友強烈呼吁 OpenAI 遲幾年再推出,譬如等到 2026 年 5 月,因為這個(gè)時(shí)候,他剛好畢業(yè)了。
你覺(jué)得給 AI 生成的內容、作品加上水印能阻止濫用情況的發(fā)生嗎?
參考資料:
https://news.ycombinator.com/item?id=33892587
https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/
https://scottaaronson.blog/?p=6823
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。
電容式觸摸屏相關(guān)文章:電容式觸摸屏原理 電容屏相關(guān)文章:電容屏原理