OpenAI推出新版圖像生成器DALL-E 3,10月份開(kāi)發(fā)
9月21日消息,周三, OpenAI發(fā)布了其新版圖像生成器DALL-E的預覽版本,該工具可以根據書(shū)面提示生成圖像。同時(shí),OpenAI計劃將其整合到廣受歡迎的ChatGPT聊天機器人中。在立法者呼吁對生成式人工智能施加更多限制之際,OpenAI正在擴展這項有爭議技術(shù)的應用范圍。
本文引用地址:http://dyxdggzs.com/article/202309/450799.htm這款名為DALL-E 3的新工具在理解用戶(hù)命令和將文本轉化為圖像方面表現更出色,這是之前人工智能圖像生成器的短板。OpenAI的研究人員表示,語(yǔ)言的進(jìn)步使DALL-E 3能夠更好地解析復雜指令,避免混淆詳細請求中的元素。
DALL-E 3團隊負責人阿迪提亞·拉梅什(Aditya Ramesh)表示:“普通用戶(hù)可以登錄ChatGPT聊天機器人,向它詢(xún)問(wèn)一些模糊的問(wèn)題?!痹谘菔酒陂g,拉梅什分享了一個(gè)企業(yè)主為名為Mountain Ramen的公司測試不同標識場(chǎng)景的例子。
盡管這個(gè)新工具目前僅供少數用戶(hù)進(jìn)行早期測試,但OpenAI計劃在10月份向ChatGPT付費訂戶(hù)開(kāi)放,從而大大增加與該技術(shù)互動(dòng)的人數。
OpenAI正面臨越來(lái)越大的競爭壓力。谷歌推出了一系列人工智能驅動(dòng)的產(chǎn)品,導致DALL-E和OpenAI旗艦聊天機器人的流量和月度用戶(hù)增長(cháng)放緩。但通過(guò)將其新穎的圖像生成器整合到ChatGPT中,OpenAI正在擴大市場(chǎng),并將該技術(shù)作為聊天機器人的一個(gè)功能,而不是獨立產(chǎn)品。
OpenAI的公關(guān)主管林賽·海德·博爾頓(Lindsey head Bolton)表示,在新聞發(fā)布會(huì )上記者們無(wú)法測試該功能,因為DALL-E 3在發(fā)布時(shí)還存在一些小故障。不過(guò),OpenAI后來(lái)表示,到周三發(fā)布時(shí),DALL-E 3會(huì )穩定下來(lái)。
之前推出的DALL-E 2、Midjourney和Stable Diffusion等文本轉圖像生成器在早期就吸引了用戶(hù),為公眾提供了掌握高級軟件能力的機會(huì ),而無(wú)需技術(shù)技能。廣告商、營(yíng)銷(xiāo)人員、政界人士和視頻游戲開(kāi)發(fā)商都在利用這些工具進(jìn)行宣傳活動(dòng)。
然而,數據分析公司SimilarWeb的數據顯示,DALL-E工具的在線(xiàn)訪(fǎng)問(wèn)量已經(jīng)放緩,從2023年3月OpenAI升級ChatGPT底層技術(shù)時(shí)的3200萬(wàn)峰值降至8月份的約1300萬(wàn)。
盡管文本轉圖像人工智能技術(shù)的未來(lái)存在不確定性,但其發(fā)展幾乎沒(méi)有限制,引發(fā)了人們對其制作逼真圖像能力對社會(huì )和政治產(chǎn)生巨大影響的擔憂(yōu)。
舊版DALL-E生成的街道標志和文本顯得十分混亂,因此很容易識別出人工智能生成的圖像。然而,DALL-E 3的改進(jìn)使外行人更難識別圖像的真偽。加州大學(xué)伯克利分校教授哈尼·法里德(Hany Farid)表示:“你不再能相信自己的眼睛?!?法里德是數字取證研究專(zhuān)家,與Adobe合作支持內容真實(shí)性倡議。
法里德強調,DALL-E 3的改進(jìn)并不足為奇,因為人工智能每六個(gè)月左右就會(huì )在模仿現實(shí)世界方面取得更好的表現。他呼吁采用先進(jìn)技術(shù),從人工智能中消除人類(lèi)創(chuàng )造的東西。
OpenAI的競爭對手Stability AI和Midjourney面臨來(lái)自藝術(shù)家和Getty Images的訴訟,指控訓練生成式人工智能模型所需的大量互聯(lián)網(wǎng)數據構成版權侵權。
執法部門(mén)、監管機構和倡導團體最近開(kāi)始關(guān)注這些工具的用途,例如用于制作深度偽造的成人內容以及為即將到來(lái)的總統選舉制作人工智能廣告等。
DALL-E 3團隊表示,他們優(yōu)先考慮了這些風(fēng)險,并邀請外部專(zhuān)家組成的“紅隊”測試最壞情況,將其經(jīng)驗融入公司的應對策略中。
對于DALL-E 2,OpenAI在一張系統卡片中發(fā)表了該過(guò)程的詳細簡(jiǎn)介,詳述了AI模型的開(kāi)發(fā)、微調和安全測試的公開(kāi)說(shuō)明。政策研究員桑德希尼·阿加瓦爾(Sandhini Agarwal)表示,OpenAI計劃在DALL-E 3向公眾開(kāi)放之前發(fā)布一張類(lèi)似的卡片。作為6月份在參加白宮峰會(huì )自愿承諾的一部分, OpenAI同意開(kāi)發(fā)和部署預防機制,用于識別由人工智能生成的視頻或音頻內容,通過(guò)圖像水印或編碼來(lái)源數據等方法指示內容創(chuàng )建的服務(wù)或模型。拉梅什說(shuō),DALL-E 3正在試驗一種分類(lèi)器,可以查看圖像的來(lái)源或內容的“來(lái)源”,這是白宮承諾中提到的一種方法。
開(kāi)源模型庫公司Hugging Face的研究科學(xué)家、谷歌倫理人工智能前聯(lián)合負責人瑪格麗特·米切爾(Margaret Mitchell)表示,這些機制有助于識別深度偽造,同時(shí)也可以幫助藝術(shù)家追蹤他們的作品是否未經(jīng)同意或賠償地用于訓練模型。
米切爾補充說(shuō):“這不一定符合公司的利益,但我認為它符合更多人的利益?!?/p>
評論