跟AI聊天?這五件事千萬(wàn)別說(shuō)!
ChatGPT等聊天機器人如今已經(jīng)成為人們的常用工具。但在使用過(guò)程中,不要讓自己的隱私成為人工智能的訓練素材,或者因為數據泄露而被曝光。
本文引用地址:http://dyxdggzs.com/article/202503/468823.htm3月31日消息,過(guò)去幾年,用戶(hù)能從OpenAI的ChatGPT中學(xué)到了不少東西,而這個(gè)聊天機器人也記錄了許多關(guān)于用戶(hù)的個(gè)人信息。
它從無(wú)數次的用戶(hù)交流中收集了大量個(gè)人信息,比如誰(shuí)喜歡吃雞蛋,某些用戶(hù)的小寶寶需要靠哺乳入睡,還有用戶(hù)因為背痛需要調整運動(dòng)方式。
它甚至記住了更多更為私密、不便詳述的細節信息。
無(wú)論選擇哪種聊天機器人:分享越多,它們就越有用?;颊呱蟼餮簣蟾娣治?,工程師粘貼未發(fā)布代碼尋求調試。但人工智能專(zhuān)家提醒,我們應該對這類(lèi)擬人化工具保持警惕,諸如社會(huì )保障號碼、企業(yè)機密數據等敏感信息尤其需要防范。
盡管科技公司急于利用數據來(lái)優(yōu)化模型,但它們并不希望獲取用戶(hù)隱私數據。OpenAI明確警示,“請勿在對話(huà)中透露任何敏感信息?!惫雀枰蚕騁emini用戶(hù)強調:“避免輸入機密信息或您不愿意被審核者查看的內容?!?/p>
人工智能研究人員認為,關(guān)于奇怪皮疹或財務(wù)失誤的聊天記錄,既可能成為訓練新版人工智能的素材,也可能因為數據泄露而曝光。以下列舉用戶(hù)應當避免輸入的內容,并分享一些保護隱私的對話(huà)技巧:
聊天機器人逼真的人性化表達方式常會(huì )使人放下戒備。斯坦福以人為本人工智能研究所研究員詹妮弗·金(Jennifer King)提醒,一旦在聊天機器人中輸入信息,“你就失去了對這些信息的掌控?!?/p>
2023年3月,ChatGPT漏洞使得部分用戶(hù)可以窺見(jiàn)他人初始對話(huà)內容,所幸公司很快就修復了漏洞。OpenAI此前還曾誤發(fā)訂閱確認郵件,導致用戶(hù)姓名、電子郵件地址和支付信息外泄。
若遭遇數據黑客攻擊或需配合司法搜查令,聊天記錄可能被包含在泄露數據中。建議為賬戶(hù)設置高強度密碼并啟用多重認證,同時(shí)避免輸入以下具體信息:
身份標識信息。包括社會(huì )保障號碼、駕照號碼和護照號碼,出生日期、住址和聯(lián)系電話(huà)。部分聊天機器人具備此類(lèi)信息自動(dòng)脫敏功能,系統會(huì )主動(dòng)屏蔽敏感字段。OpenAI發(fā)言人表示,“我們致力于讓人工智能模型學(xué)習世界而非個(gè)人隱私,并積極減少個(gè)人信息收集?!?/p>
醫療檢測報告。醫療保密制度本為防止歧視和尷尬,但聊天機器人通常不受醫療數據的特殊保護。若需要人工智能解讀檢測報告,斯坦福研究中心的金建議:“請先對圖片或文檔進(jìn)行裁剪編輯處理,盡量只保留測試結果,并對其他信息進(jìn)行脫敏處理?!?/p>
金融賬戶(hù)信息。銀行及投資賬戶(hù)號碼可能成為資金監控或盜取的突破口,務(wù)必嚴加防護。
公司機密信息。如果用戶(hù)在工作中喜歡使用各種通用版聊天機器人,即使只是編寫(xiě)一封普通電子郵件,也可能無(wú)意中泄露客戶(hù)數據或商業(yè)機密。三星曾因工程師向ChatGPT泄露內部源代碼,全面禁用該服務(wù)。如果人工智能對工作確實(shí)有幫助,企業(yè)就應當選擇商用版或者部署定制化人工智能系統。
登錄憑證。隨著(zhù)能夠執行各種現實(shí)任務(wù)的智能體興起,向聊天機器人提供賬戶(hù)憑證的需求增多。但這些服務(wù)并非按數字保險庫標準構建,密碼、PIN碼及密保問(wèn)題應該交由專(zhuān)業(yè)密碼管理器保管。
當用戶(hù)對機器人回復給予好評或差評時(shí),可能視為允許將提問(wèn)及AI回復用于評估和模型訓練。如果對話(huà)因涉及暴力等敏感內容而被標記,公司員工甚至可能會(huì )進(jìn)行人工審核。
Anthropic公司開(kāi)發(fā)的Claude默認不將用戶(hù)對話(huà)用于訓練人工智能,并會(huì )在兩年后刪除這些數據。OpenAI的ChatGPT、微軟的Copilot和谷歌的Gemini雖然會(huì )使用對話(huà)數據,但都在設置中提供關(guān)閉這項功能的選項。如果用戶(hù)注重隱私,可以參考以下建議:
定期刪除記錄。Anthropic首席信息安全官杰森·克林頓(Jason Clinton)建議,謹慎型用戶(hù)要及時(shí)清理對話(huà)。人工智能公司通常會(huì )在30天后清除被標記為“已刪除”的數據。啟用臨時(shí)對話(huà)。ChatGPT的“臨時(shí)聊天”功能類(lèi)似于瀏覽器的無(wú)痕瀏覽模式。用戶(hù)啟用后,可防止信息被存入用戶(hù)檔案。此類(lèi)對話(huà)既不保存歷史記錄,也不會(huì )用于訓練模型。
匿名提問(wèn)。隱私搜索引擎支持匿名訪(fǎng)問(wèn)Claude、GPT等主流人工智能模型,承諾這些數據不會(huì )用于模型訓練。雖然無(wú)法實(shí)現全功能聊天機器人的文件分析等高級操作,但基礎問(wèn)答足夠使用。
謹記,聊天機器人永遠樂(lè )于繼續對話(huà),但何時(shí)結束對話(huà)或點(diǎn)擊“刪除”鍵,始終取決于用戶(hù)自己。
評論