谷歌聊天機器人 Bard 遭員工嘲諷:是個(gè)“病態(tài)的騙子”
北京時(shí)間 4 月 20 日上午消息,據報道,在 3 月份面向公眾推出人工智能聊天機器人 Bard 的前不久,谷歌要求內部員工測試這個(gè)新工具。
本文引用地址:http://dyxdggzs.com/article/202304/445789.htm根據內部討論的截圖,一名員工的結論是,Bard 是個(gè)“病態(tài)的騙子”。另一名員工則表示,Bard“令人尷尬”。一名員工寫(xiě)道,當他們向 Bard 詢(xún)問(wèn)如何降落飛機時(shí),聊天機器人往往給出會(huì )導致墜機的建議。還有一名員工表示,Bard 提供的關(guān)于潛水的建議“可能會(huì )導致重傷或死亡”。
不過(guò),谷歌依然推出了 Bard。根據多名在職員工和前員工的說(shuō)法,以及谷歌的內部文件,作為一家以往非常受信任的互聯(lián)網(wǎng)搜索巨頭,谷歌通過(guò) Bard 提供的是低質(zhì)量的信息,目的是跟上競爭對手,同時(shí)將科技倫理承諾放在了很低的優(yōu)先級來(lái)考慮。2021 年,谷歌曾經(jīng)承諾,將人工智能倫理研究團隊擴大一倍,并投入更多資源評估人工智能技術(shù)的潛在危害。然而,隨著(zhù)競爭對手 OpenAI 的聊天機器人 ChatGPT 在 2022 年 11 月首次亮相并大受歡迎,谷歌開(kāi)始匆忙將生成式人工智能技術(shù)融入其最重要的產(chǎn)品中。
對這項技術(shù)本身來(lái)說(shuō),這樣做帶來(lái)的發(fā)展速度明顯更快,并可能會(huì )給社會(huì )產(chǎn)生深遠的影響。谷歌的在職員工和前員工們表示,谷歌承諾加強的科技倫理團隊目前沒(méi)有話(huà)語(yǔ)權,士氣低落。他們透露,負責新產(chǎn)品安全和科技倫理影響的員工已被告知,不要妨礙或試圖扼殺正在開(kāi)發(fā)中的任何生成式人工智能工具。
谷歌的目標是圍繞這項尖端技術(shù)振興其日益成熟的搜索業(yè)務(wù),搶在微軟支持的 OpenAI 前面,推動(dòng)生成式人工智能應用進(jìn)入全球數千萬(wàn)的手機和家庭,并贏(yíng)得競爭。
權益組織 Signal Foundation 主席、谷歌前經(jīng)理梅雷迪思?惠特克(Meredith Whittaker)表示:“人工智能倫理已經(jīng)退居次要地位。如果科技倫理不能被置于利潤和增長(cháng)之上,它們最終就不會(huì )起作用?!?/p>
對此谷歌表示,負責任的人工智能仍是該公司的首要任務(wù)。谷歌發(fā)言人布萊恩?加布里艾爾(Brian Gabriel)表示:“我們將繼續投資將人工智能原則應用于技術(shù)的團隊?!睆氖仑撠熑稳斯ぶ悄苎芯康膱F隊在 1 月份的一輪裁員中至少減員 3 人,其中包括技術(shù)治理和項目主管。此次裁員影響了谷歌及其母公司的約 1.2 萬(wàn)名員工。
多年來(lái),谷歌一直引領(lǐng)著(zhù)支撐當前人工智能發(fā)展的大部分研究,然而在 ChatGPT 推出時(shí),谷歌還沒(méi)有將對用戶(hù)友好的生成式人工智能技術(shù)集成到產(chǎn)品中。谷歌的員工們說(shuō),以往在將新技術(shù)應用于搜索和其他重要產(chǎn)品時(shí),谷歌會(huì )謹慎地評估自身的能力和道德倫理考量。
然而去年 12 月,谷歌高級管理層發(fā)布了“紅色警報”,并改變了對風(fēng)險的偏好。員工們說(shuō),谷歌的領(lǐng)導團隊決定,只要把新產(chǎn)品定位為“實(shí)驗”,公眾就會(huì )原諒其中的缺陷。不過(guò),谷歌仍然需要讓科技倫理團隊加入進(jìn)來(lái)。當月,人工智能治理負責人簡(jiǎn)恩?詹納伊(Jen Gennai)召開(kāi)了負責任創(chuàng )新團隊的會(huì )議,該團隊負責維護谷歌的人工智能原則。
詹納伊建議,為了加快產(chǎn)品發(fā)布的步伐,谷歌可能有必要做出一些妥協(xié)。谷歌為幾個(gè)重要類(lèi)別的產(chǎn)品進(jìn)行打分,以衡量這些產(chǎn)品是否準備好向公眾發(fā)布。在一些領(lǐng)域,例如兒童安全,工程師仍然需要 100% 解決潛在問(wèn)題。但她在會(huì )上表示,在其他領(lǐng)域,谷歌可能沒(méi)時(shí)間繼續等待。她說(shuō):“‘公平’可能不是,并不需要達到 99 分。在這個(gè)方面,我們可能只要到 80 分,85 分,或更高的水平,就可以滿(mǎn)足產(chǎn)品發(fā)布的需求?!边@里的“公平”指的是減少產(chǎn)品的偏見(jiàn)。
今年 2 月,谷歌一名員工在內部消息群中提出:“Bard 的問(wèn)題不僅僅是毫無(wú)用處:請不要發(fā)布這款產(chǎn)品?!庇薪?7000 人查看了這條消息。其中許多人都認為,在簡(jiǎn)單的事實(shí)問(wèn)題上,Bard 的回答自相矛盾,甚至大錯特錯。然而消息人士透露,詹納伊在次月駁回了團隊成員提交的風(fēng)險評估報告。當時(shí)報告的結論是 Bard 尚未做好準備,可能造成危害。不久之后,谷歌就面向公眾開(kāi)放了 Bard,并將其稱(chēng)作是一次“實(shí)驗”。
在一份聲明中,詹納伊表示,這不僅僅是她這個(gè)層級的決定。在團隊做出評估之后,她“列出了潛在風(fēng)險清單,并將分析結果”升級提交給產(chǎn)品、研究和業(yè)務(wù)線(xiàn)的高級管理者。她說(shuō),該團隊隨后判斷,“可以通過(guò)有限制的實(shí)驗性發(fā)布的形式向前推進(jìn),包括繼續進(jìn)行預訓練,提高安全圍欄,以及做出適當的免責聲明”。
作為一個(gè)整體,硅谷仍然在努力解決競爭壓力和技術(shù)安全之間的矛盾?!叭说兰夹g(shù)研究中心”在最近的一次演示中表示,人工智能研究者與專(zhuān)注于人工智能安全的研究人員的數量之比達到 30:1。這表明,在大型組織中提出對人工智能的擔憂(yōu)往往會(huì )孤掌難鳴。
隨著(zhù)人工智能的加速發(fā)展,人們正在越來(lái)越擔憂(yōu)人工智能對社會(huì )的不利影響。作為 ChatGPT 和 Bard 背后的技術(shù),大語(yǔ)言模型從新聞報道、社交媒體貼文和其他互聯(lián)網(wǎng)信息源處獲得大量文字信息,隨后用這些信息來(lái)訓練軟件,讓軟件根據用戶(hù)的輸入信息或問(wèn)題自動(dòng)預測并生成內容。這意味著(zhù),從本質(zhì)上來(lái)看,這些產(chǎn)品有可能會(huì )產(chǎn)生攻擊性、有害或不準確的言論。
然而,ChatGPT 在首次亮相時(shí)引發(fā)了轟動(dòng)。到今年年初,這方面的發(fā)展已經(jīng)無(wú)法回頭。2 月份,谷歌開(kāi)始發(fā)布一系列的生成式人工智能產(chǎn)品,推出聊天機器人 Bard,隨后升級了視頻平臺 YouTube。當時(shí)谷歌表示,YouTube 的創(chuàng )作者很快就可以在視頻中進(jìn)行虛擬換裝,以及使用生成式人工智能創(chuàng )建“奇幻的電影場(chǎng)景”。兩周后,谷歌宣布谷歌云加入新的人工智能功能,展示了谷歌 Docs 和 Slides 等服務(wù)如何自動(dòng)創(chuàng )建演示文稿、銷(xiāo)售培訓文件和電子郵件。同一天,谷歌還宣布將把生成式人工智能融入醫療健康產(chǎn)品線(xiàn)。員工們表示,他們擔心,這樣的發(fā)展速度意味著(zhù)谷歌沒(méi)有足夠的時(shí)間來(lái)研究人工智能潛在的危害。
是否應該以符合科技倫理的方式去開(kāi)發(fā)尖端的人工智能技術(shù),長(cháng)期以來(lái)這一直是谷歌內部爭論的一個(gè)話(huà)題。在過(guò)去幾年里,谷歌產(chǎn)品發(fā)生的錯誤備受矚目。例如,在 2015 年一起令人尷尬的事件中,谷歌相簿錯誤地將一名黑人軟件開(kāi)發(fā)者和他朋友的照片標記為“大猩猩”。
三年后,谷歌表示,沒(méi)有修復底層的人工智能技術(shù),而是刪除了搜索關(guān)鍵詞“大猩猩”、“黑猩猩”和“猴子”的所有結果。根據谷歌的說(shuō)法,“一群不同背景的專(zhuān)家”評估了這一解決方案。該公司還成立了人工智能倫理部門(mén),主動(dòng)開(kāi)展相關(guān)研究,確保人工智能對用戶(hù)更加公平。
然而根據多名在職員工和前員工的說(shuō)法,一個(gè)重要轉折點(diǎn)是人工智能研究員蒂姆尼特?格布魯(Timnit Gebru)和瑪格麗特?米切爾(Margaret Mitchell)的離職。他們曾共同帶領(lǐng)谷歌的人工智能倫理團隊。然而,因為一場(chǎng)關(guān)于谷歌人工智能研究公平性的爭議,他們分別在 2020 年 12 月和 2021 年 2 月離開(kāi)。最終,負責管理他們工作的計算機科學(xué)家薩米?本吉奧(Samy Bengio)和其他幾名研究者也在幾年時(shí)間里紛紛離職,加入了谷歌的競爭對手。
丑聞發(fā)生后,谷歌也采取措施試圖恢復公眾聲譽(yù)。負責任人工智能團隊在當時(shí)的工程副總裁瑪麗安?克羅克(Marian Croak)的領(lǐng)導下進(jìn)行了重組。她承諾,將把人工智能倫理團隊的規模擴大一倍,并強化該團隊與公司其他部門(mén)的聯(lián)系。
不過(guò)即使在公開(kāi)發(fā)表聲明之后,一些人也發(fā)現,在谷歌從事人工智能倫理工作難度很大。一名前員工表示,他們提出要求,解決機器學(xué)習公平性的問(wèn)題。然而他們也發(fā)現,自己往往不被鼓勵這樣做,以至于甚至影響了他們工作的績(jì)效打分。他表示,經(jīng)理們也提出抗議,認為人工智能倫理問(wèn)題的提出妨礙了他們“真正的工作”。
那些繼續在谷歌從事人工智能倫理研究的員工則面臨兩難:如何既能保住自己在谷歌的工作,又能繼續推進(jìn)這方面研究。亞倫?穆羅希(Nyalleng Moorosi)曾是谷歌的研究員,目前則在格魯布創(chuàng )立的“分布式人工智能研究所”擔任高級研究員。她表示,人工智能倫理研究崗位的設立就是為了說(shuō)明,技術(shù)可能沒(méi)有做好大規模發(fā)布的準備,而公司需要放慢速度。
兩名員工表示,到目前為止,谷歌對產(chǎn)品和功能的人工智能倫理審核幾乎完全是自愿性質(zhì)的,僅有的例外是研究論文的發(fā)表,以及谷歌云對客戶(hù)合作和產(chǎn)品發(fā)布的審核。生物識別、身份識別,以及與兒童相關(guān)的人工智能研究必須由詹納伊的團隊進(jìn)行“敏感話(huà)題”審核,但其他項目不一定需要。不過(guò),一些員工也會(huì )在沒(méi)有被要求的情況下聯(lián)系人工智能倫理團隊。
盡管如此,當谷歌產(chǎn)品和工程團隊的員工試圖了解,谷歌的人工智能為何在市場(chǎng)上進(jìn)展緩慢時(shí),他們往往會(huì )注意到公眾對人工智能倫理的關(guān)切。但谷歌的一些人相信,新技術(shù)應當更快地被提供給公眾,以便通過(guò)公眾反饋對技術(shù)進(jìn)行優(yōu)化。
另一名前員工表示,在紅色警戒發(fā)布之前,谷歌工程師可能很難接觸到公司最先進(jìn)的人工智能模型。他說(shuō),谷歌的工程師經(jīng)常會(huì )通過(guò)研究其他公司的生成式人工智能模型來(lái)進(jìn)行頭腦風(fēng)暴,探索這項技術(shù)的可能性,隨后再去研究如何在公司內部去實(shí)現這一技術(shù)。
谷歌前產(chǎn)品經(jīng)理、在 2020 年之前一直從事谷歌聊天機器人開(kāi)發(fā)的高拉夫?內馬德(Gaurav Nemade)表示:“毫無(wú)疑問(wèn)我看到‘紅色警戒’和 OpenAI 的觸動(dòng)給谷歌帶來(lái)的積極變化。他們真的能成為領(lǐng)導者,在自己的游戲中挑戰 OpenAI 嗎?”近期的一系列變化,例如三星考慮在手機中用微軟必應替換谷歌作為默認搜索引擎,充分表明了技術(shù)的先發(fā)優(yōu)勢有多么重要。微軟必應也采用了 ChatGPT 的技術(shù)。
谷歌的一些員工表示,他們認為谷歌已經(jīng)對最新的生成式人工智能產(chǎn)品進(jìn)行了足夠的安全檢查,并且 Bard 比競爭對手的聊天機器人更安全。然而,現在的當務(wù)之急是快速發(fā)布生成式人工智能產(chǎn)品,因此再怎么強調科技倫理問(wèn)題都是徒勞的。
研發(fā)新人工智能功能的團隊目前正在封閉狀態(tài)中,因此普通的谷歌員工很難看到谷歌人工智能技術(shù)的全貌。以往,員工還可以通過(guò)公司的郵件組和內部頻道來(lái)公開(kāi)表達自己的疑慮,但現在谷歌以減少毒性為由提出了一系列社區指南,限制員工這樣去做。幾名員工表示,他們認為這些限制是控制言論的一種方式。
米切爾表示:“這帶來(lái)了挫敗感。我們的感覺(jué)是,我們到底在做什么?”即使谷歌沒(méi)有明確的指令,要求停止科技倫理的工作,但在當前的氛圍下,從事這類(lèi)工作的員工會(huì )很明顯的感覺(jué)到,自己不受支持,最終可能會(huì )因此減少工作量?!霸诠雀韫芾韺庸_(kāi)討論科技倫理問(wèn)題時(shí),他們傾向于探討假想的未來(lái),即全能的技術(shù)無(wú)法被人類(lèi)控制,而不太涉及已經(jīng)可能帶來(lái)危害的日常場(chǎng)景。這種做法也被一些業(yè)內人士批評為一種營(yíng)銷(xiāo)形式。
曾在谷歌擔任研究科學(xué)家的艾爾馬蒂?艾爾瑪穆迪(El-Mahdi El-Mhamdi)于今年 2 月從谷歌離職,原因是谷歌拒絕正面探討人工智能倫理問(wèn)題。他表示,去年底他參與合著(zhù)的一篇論文提出,從數學(xué)上來(lái)看,基礎性的人工智能模型不可能同時(shí)做到大規模、健壯,以及保障隱私安全。
他表示,谷歌通過(guò)雇傭關(guān)系對他參與的研究提出質(zhì)疑。隨后,他并沒(méi)有為自己的學(xué)術(shù)研究辯護,而是直接放棄了與谷歌的雇傭關(guān)系,選擇了學(xué)術(shù)身份。他說(shuō):”如果你想留在谷歌,就必須為整個(gè)系統服務(wù),而不是與其發(fā)生沖突?!?/p>
評論