Nature調查:1600余名科學(xué)家,僅4%認為AI當前是“必需品”
過(guò)去十年,關(guān)于人工智能(AI)的研究論文數量在各個(gè)領(lǐng)域都有顯著(zhù)增加。
本文引用地址:http://dyxdggzs.com/article/202310/451310.htm科學(xué)家們已經(jīng)開(kāi)始運用 AI 工具來(lái)協(xié)助總結和撰寫(xiě)研究論文和編寫(xiě)代碼。一些研究者嘗試借助生成式 AI 技術(shù)來(lái)探索新的領(lǐng)域,如蛋白質(zhì)結構的發(fā)現、天氣預報的改進(jìn)以及醫學(xué)診斷的創(chuàng )新等各種有前景的領(lǐng)域。
AI 已然滲透到科學(xué)研究中。那么,科學(xué)家們是如何看待它們的?
近日,頂級期刊《自然》(Nature)對全球 1600 多名研究人員進(jìn)行了一項調查。結果表明,AI 工具在科學(xué)領(lǐng)域越來(lái)越常見(jiàn),并且許多科學(xué)家預計它們將很快成為研究實(shí)踐的核心。另外,超過(guò)一半的受訪(fǎng)者認為 AI 工具將在未來(lái)十年內變得非常重要或必不可少。
相關(guān)調查結果以“AI and science: what 1,600 researchers think”為題,已發(fā)表在Nature上。
在這項調查中,有 2/3 的受訪(fǎng)者認為 AI 提供了更快的數據處理方式,58% 的人認為 AI 加速了以前不可行的計算,55% 的人則提到 AI 節省了時(shí)間和金錢(qián)。
來(lái)自杜克大學(xué)的計算生物學(xué)家 Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學(xué)問(wèn)題中取得進(jìn)展?!?/p>
然而,也有 69% 的研究人員表示,AI 工具可能導致更多地依賴(lài)模式識別而不是深刻理解,58% 的人認為 AI 可能會(huì )在數據中強化偏見(jiàn)或歧視,55% 認為這些工具可能會(huì )增加欺詐的發(fā)生概率,53% 的人指出草率使用可能會(huì )導致研究無(wú)法重現。
任職康涅狄格州的杰克遜實(shí)驗室、從事癌癥圖像分析的 Jeffrey Chuang 表示:“主要問(wèn)題在于 AI 正在挑戰我們現有的證據和真相標準?!?/p>
科學(xué)家的擔憂(yōu)與興奮
為了評估活躍研究人員的觀(guān)點(diǎn),《自然》雜志通過(guò)電子郵件聯(lián)系了在 2022 年最后 4 個(gè)月內發(fā)表論文的 4 萬(wàn)多名科學(xué)家,并邀請《自然簡(jiǎn)報》的讀者參與調查。
在這些受訪(fǎng)者中,48% 的人直接開(kāi)發(fā)或研究 AI,30% 的人在研究中使用了 AI,剩下的 22% 的人在科學(xué)中沒(méi)有使用 AI。
在那些在研究中使用 AI 的人中,超過(guò) 1/4 的人認為 AI 工具將在未來(lái)十年內變得必不可少,而認為 AI 工具現在是“必需品”的人只占 4%。另有 47% 的人認為 AI 將變得非常有用。然而,不使用 AI 的研究人員對此并不太感興趣。即便如此,仍然有 9% 的人認為這些技術(shù)將在未來(lái)十年內變得必不可少,另有 34% 的人表示它們將非常有用。
當被要求從可能的生成式 AI 負面影響列表中選擇時(shí),68% 的研究人員擔心信息傳播不準確,另有 68% 的人認為這將使抄襲更容易,檢測更難,66% 的人擔心會(huì )引入錯誤或不準確的內容到研究論文中。
此外,受訪(fǎng)者還提到,如果用于醫學(xué)診斷的 AI 工具是基于具有歷史偏見(jiàn)的數據進(jìn)行訓練,他們擔心會(huì )出現偽造研究、虛假信息和偏見(jiàn)??茖W(xué)家們已經(jīng)看到了這方面的證據:例如,美國的一個(gè)團隊報告說(shuō),當他們要求 GPT-4 為臨床案例研究提供診斷和治療建議時(shí),答案會(huì )根據患者的種族或性別而變化。
英國布里斯托爾大學(xué)攻讀醫學(xué) AI 博士學(xué)位的軟件工程師和前企業(yè)家 Isabella Degen 表示:“大型語(yǔ)言模型(LLMs)被濫用,存在不準確和虛假但聽(tīng)起來(lái)專(zhuān)業(yè)的結果。在我看來(lái),我們對于正確使用和濫用之間的界限認識還不夠清晰?!?/p>
研究人員認為,最明顯的好處是 LLMs 可以幫助非英語(yǔ)母語(yǔ)的研究人員,改進(jìn)他們研究論文的語(yǔ)法和風(fēng)格,總結或翻譯其他工作。新加坡國立大學(xué)材料科學(xué)家 Kedar Hippalgaonkar 指出,“盡管存在一小部分惡意玩家,但學(xué)術(shù)界可以展示如何善用這些工具?!?/p>
即使在對 AI 感興趣的研究人員中,經(jīng)常在工作中使用 LLMs 的研究人員也仍占少數。那些學(xué)習AI 的人中有 28% 表示每天或每周使用生成式 AI 產(chǎn)品,而僅使用 AI 的人中有 13% 這樣做,而其他人中只有 1%,盡管許多人至少?lài)L試過(guò)這些工具。此外,所有群體中最流行的用途是與研究無(wú)關(guān)的創(chuàng )意娛樂(lè );較少一部分人使用這些工具來(lái)編寫(xiě)代碼、構思研究思路和幫助撰寫(xiě)研究論文。
另外,一些科學(xué)家對 LLMs 的輸出并不滿(mǎn)意。一位使用 LLMs 來(lái)幫助編輯論文的研究人員寫(xiě)道:“ChatGPT 好像復制了人類(lèi)的所有不良寫(xiě)作習慣?!狈姨m圖爾庫大學(xué)的物理學(xué)家 Johannes Niskanen 則表示:“如果我們開(kāi)始使用 AI 來(lái)閱讀和撰寫(xiě)文章,科學(xué)很快就會(huì )從‘由人類(lèi)為人類(lèi)(for humans by humans)’轉變?yōu)椤蓹C器為機器(‘for machines by machines)’?!?/p>
AI 發(fā)展面臨困境
在這項調查中,大約一半的科學(xué)家表示他們在開(kāi)發(fā)或使用 AI 方面遇到了阻礙。直接研究 AI 的研究人員最擔心的問(wèn)題包括計算資源不足、為其工作提供的融資不足以及獲取運行 AI 所需的高質(zhì)量數據不足。而那些在其他領(lǐng)域工作但在研究中使用 AI 的人則更擔心缺乏熟練的科學(xué)家和訓練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用 AI 的研究人員表示他們不需要 AI 或認為它不實(shí)用,或者缺乏研究 AI 的經(jīng)驗和時(shí)間。
調查中出現的另一個(gè)主題是商業(yè)公司主導了 AI 的計算資源和 AI 工具的所有權。研究 AI 的科學(xué)家中有 23% 表示他們與開(kāi)發(fā)這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而使用 AI 的人中只有 7% 這樣做??傮w而言,略多于一半的受訪(fǎng)者認為,使用 AI 的研究人員與這些公司的科學(xué)家合作是非常重要或有些重要的。
此前,已有研究人員多次警告稱(chēng),科學(xué)中對 AI 工具的天真使用可能導致錯誤、虛假陽(yáng)性和無(wú)法重現的研究結果,從而潛在地浪費時(shí)間和精力。一些科學(xué)家表示,他們擔心使用 AI 的論文中存在質(zhì)量不佳的研究。
堪薩斯州立大學(xué)曼哈頓分校的計算機科學(xué)家 Lior Shamir 表示,“機器學(xué)習有時(shí)可能有用,但 AI 引發(fā)的問(wèn)題比幫助多??茖W(xué)家在不了解自己在做什么的情況下使用 AI,可能會(huì )導致虛假的發(fā)現?!?/p>
當問(wèn)及期刊編輯和同行評審人是否能夠充分審查使用 AI 的論文時(shí),受訪(fǎng)者意見(jiàn)不一。在那些使用 AI 進(jìn)行工作但不直接開(kāi)發(fā) AI 的科學(xué)家中,大約一半表示不知道, 1/4 認為審查是充分的,1/4 認為不充分。直接開(kāi)發(fā) AI 的人傾向于對編輯和審查過(guò)程持更積極的看法。
另外,《自然》還詢(xún)問(wèn)了受訪(fǎng)者對于 AI 在社會(huì )的 7 種潛在影響的擔憂(yōu)程度,2/3 的人表示他們對此非常擔憂(yōu)或很擔憂(yōu)。自動(dòng)化 AI 武器和 AI 輔助監視也高居榜首,最不令人擔憂(yōu)的是 AI 可能對人類(lèi)構成生存威脅的想法。
然而,許多研究人員表示,AI 和 LLMs 已經(jīng)成為不可回避的趨勢。波士頓馬薩諸塞州貝斯以色列圣救主醫療中心的肝病專(zhuān)家 Yury Popov 寫(xiě)道:“AI 是具有變革性的,我們現在必須關(guān)注如何確保它帶來(lái)更多的好處,而不是問(wèn)題?!?/p>
評論