<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 如何保障AI安全?OpenAI詳細解答,將積極與各國政府接觸

如何保障AI安全?OpenAI詳細解答,將積極與各國政府接觸

作者: 時(shí)間:2023-04-06 來(lái)源:網(wǎng)易科技 收藏

4月6日消息,美國當地時(shí)間周三,Open發(fā)帖,詳細介紹了其確保安全的方法,包括進(jìn)行安全評估、改進(jìn)發(fā)布后的保障措施、保護兒童以及尊重隱私等。該公司表示,確保系統的構建、部署和安全使用對實(shí)現其使命至關(guān)重要。

本文引用地址:http://dyxdggzs.com/article/202304/445323.htm

以下是帖子的全文:

致力于確保強大的AI安全,讓盡可能多的人受益。我們知道,我們的AI工具為當今人們提供了許多幫助。世界各地的用戶(hù)向我們反饋,ChatGPT有助于提高他們的工作效率、增強他們的創(chuàng )造力,并提供量身定制的學(xué)習體驗。但我們也認識到,與任何技術(shù)一樣,這些工具也存在真正的風(fēng)險。因此,我們正在努力確保在各個(gè)系統層面上的安全性。

打造更加安全的人工智能系統

在推出任何新的人工智能系統之前,我們都會(huì )進(jìn)行嚴格的測試,征求外部專(zhuān)家的意見(jiàn),并通過(guò)人工反饋的強化學(xué)習等技術(shù)來(lái)改善模型的表現。同時(shí),我們還建立了廣泛的安全和監控系統。

以我們最新的模型GPT-4為例,完成訓練后,我們在整個(gè)公司范圍內進(jìn)行了長(cháng)達6個(gè)月的測試,以確保其在公開(kāi)發(fā)布之前更加安全可靠。

我們認為,強大的人工智能系統應該接受?chē)栏竦陌踩u估。監管是必要的,以確保這種做法被廣泛采納。因此,我們積極與各國政府接觸,探討最佳的監管形式。

從實(shí)際使用中學(xué)習,提高保障措施

我們盡力在系統部署之前預防可預見(jiàn)的風(fēng)險,但實(shí)驗室中的學(xué)習永遠有限。我們廣泛研究和測試,但無(wú)法預測人們會(huì )如何使用我們的技術(shù),或濫用它。因此,我們認為從實(shí)際使用中學(xué)習,是創(chuàng )建和發(fā)布越來(lái)越安全的人工智能系統的關(guān)鍵組成部分。

我們謹慎地將新的人工智能系統逐步發(fā)布給人群,并采取實(shí)質(zhì)性的保障措施,并根據我們吸取的教訓不斷改進(jìn)。

我們提供自己服務(wù)和API中最強大的模型,以便開(kāi)發(fā)人員可以直接將技術(shù)集成到他們的應用程序中。這使我們能夠監控濫用行為并采取行動(dòng),同時(shí)制定應對措施。這樣,我們可以采取實(shí)際行動(dòng),而不僅僅在理論上想象如何應對。

實(shí)際使用中的經(jīng)驗也促使我們制定了越來(lái)越細化的政策,以應對對人們構成真正風(fēng)險的行為,同時(shí)仍然允許我們的技術(shù)以更有益的方式使用。

我們認為,社會(huì )需要更多時(shí)間適應日益強大的人工智能,每個(gè)受其影響的人都應該在人工智能的進(jìn)一步發(fā)展方面擁有發(fā)言權。迭代部署有助于不同利益相關(guān)者更有效地參與人工智能技術(shù)的對話(huà)中,而擁有使用這些工具的第一手經(jīng)驗至關(guān)重要。

保護兒童

我們的安全工作關(guān)注重點(diǎn)之一是保護兒童。我們要求使用我們的人工智能工具的人必須年滿(mǎn)18歲或以上,或者在父母同意的情況下年滿(mǎn)13歲或以上。目前,我們正在研究驗證功能。

我們不允許我們的技術(shù)用于生成仇恨、騷擾、暴力或成人等內容。與GPT-3.5相比,最新的GPT-4對受限制內容請求做出響應的可能性降低了82%。我們已經(jīng)建立了強大的系統來(lái)監控濫用行為。GPT-4現在可供ChatGPT Plus的訂戶(hù)使用,我們希望隨著(zhù)時(shí)間的推移能讓更多人體驗它。

我們已經(jīng)采取重大措施,最大限度地減少我們的模型產(chǎn)生傷害兒童內容的可能性。例如,當用戶(hù)試圖將兒童安全虐待材料上傳到我們的圖像生成工具時(shí),我們會(huì )阻止它并向國家失蹤和受剝削兒童中心報告此事。

除了默認的安全防護,我們與非營(yíng)利組織可汗學(xué)院(Khan Academy)等開(kāi)發(fā)機構合作,為他們量身定制了安全措施??珊箤W(xué)院已經(jīng)開(kāi)發(fā)了一款人工智能助手,它可以作為學(xué)生的虛擬導師,也可以作為教師的課堂助手。我們還致力于開(kāi)發(fā)允許開(kāi)發(fā)者為模型輸出設置更嚴格標準的功能,以更好地支持需要此類(lèi)功能的開(kāi)發(fā)者和用戶(hù)。

尊重隱私

我們的大型語(yǔ)言模型是在廣泛的文本語(yǔ)料庫上進(jìn)行訓練的,其中包括公開(kāi)可用的內容、獲得授權的內容以及由人類(lèi)審核人員生成的內容。我們不利用這些數據來(lái)銷(xiāo)售我們的服務(wù)或廣告,也不用它們來(lái)建立個(gè)人檔案。我們只是利用這些數據來(lái)讓我們的模型更好地為人們提供幫助,例如通過(guò)與人們進(jìn)行更多對話(huà)來(lái)提高ChatGPT的智能水平。

盡管我們的許多訓練數據中包括可以在公共網(wǎng)絡(luò )上獲得的個(gè)人信息,但我們希望我們的模型了解的是整個(gè)世界,而不是個(gè)人。因此,我們致力于在可行的情況下從訓練數據集中刪除個(gè)人信息,微調模型以拒絕個(gè)人信息的查詢(xún)請求,并響應個(gè)人從我們的系統中刪除其個(gè)人信息的請求。這些措施將我們的模型生成包含個(gè)人信息的響應的可能性降至最低。

提高事實(shí)準確性

現今的大型語(yǔ)言模型,基于之前的模式和用戶(hù)輸入的文本,可以預測下一個(gè)可能要使用的詞匯。但在某些情況下,下一個(gè)最有可能出現的詞匯實(shí)際上可能存在事實(shí)性錯誤。

提高事實(shí)準確性是和許多其他AI研究機構關(guān)注的重點(diǎn)之一,我們正在取得進(jìn)展。通過(guò)利用被標記為不正確的ChatGPT輸出的用戶(hù)反饋作為主要數據來(lái)源,我們提高了GPT-4的事實(shí)準確性。相比于GPT-3.5,GPT-4更可能產(chǎn)生符合事實(shí)的內容,提高幅度達到40%。

當用戶(hù)注冊使用該工具時(shí),我們努力做到盡可能透明,以避免ChatGPT可能給出錯誤回復。然而,我們已經(jīng)認識到,要進(jìn)一步降低誤解的可能性,并教育公眾了解這些AI工具目前的局限性,還有很多工作要做。

持續的研究和參與

我們認為,解決AI安全問(wèn)題的一個(gè)切實(shí)可行方法是,投入更多的時(shí)間和資源來(lái)研究有效的緩解和校準技術(shù),并針對現實(shí)世界可能被濫用的情況進(jìn)行測試。

重要的是,我們認為提高AI的安全性和能力應該同時(shí)進(jìn)行。我們迄今為止最好的安全工作來(lái)自于與我們最有能力的模型合作,因為它們更擅長(cháng)遵循用戶(hù)的指示,更容易駕馭或“引導”它們。

我們將越來(lái)越謹慎地創(chuàng )建和部署能力更強的模型,并將隨著(zhù)AI系統的發(fā)展而繼續加強安全預防措施。

雖然我們等了6個(gè)多月才部署GPT-4,以更好地了解其功能、好處和風(fēng)險,但有時(shí)可能需要更長(cháng)的時(shí)間來(lái)提高AI系統的安全性。因此,政策制定者和AI開(kāi)發(fā)商需要確保AI的開(kāi)發(fā)和部署在全球范圍內得到有效監管,這樣就沒(méi)有人會(huì )為了保持領(lǐng)先而采取捷徑。這是一項艱巨的挑戰,需要技術(shù)和制度創(chuàng )新,但我們渴望為此做出貢獻。

解決AI安全問(wèn)題還需要廣泛的辯論、實(shí)驗和參與,包括為AI系統的行為設置界限。我們已經(jīng)并將繼續促進(jìn)利益相關(guān)者之間的合作和開(kāi)放對話(huà),以創(chuàng )建更安全的AI生態(tài)系統。




關(guān)鍵詞: AI OpenAI

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>