AI論文“抄觀點不抄字”引激辯
【今日視點】
◎本報記者 張夢然 實習生 周思彤
人工智能(AI)生成的科研成果正引發(fā)學界對“思想抄襲”的激烈爭論。
《自然》雜志日前一則報道稱,部分研究人員發(fā)現(xiàn),一些標注為大型語言模型生成的論文,雖未直接復制文字,卻存在挪用他人研究方法或核心觀點且不標注出處的情況,即“抄觀點不抄字”。
但對這種“思想抄襲”或“思想挪用”的指控,有學者及AI研發(fā)團隊予以否認。
“思想挪用”案例頻引爭議
今年1月,韓國高等科學技術研究院研究員樸炳俊收到印度班加羅爾科學研究所“揭發(fā)團隊”的郵件,被告知一款名為“The AI Scientist”的工具生成的未正式發(fā)表手稿,疑似使用了他論文中的研究方法,卻并未署名?!癟he AI Scientist”由東京Sakana AI公司于2024年推出,是計算機科學領域全自動科研工具的代表,能通過大型語言模型生成思路、自主編寫運行代碼,并撰寫研究論文,且會明確標注為“AI生成”。
樸炳俊核查后發(fā)現(xiàn),該AI手稿雖提出了新架構,與他的論文主題不同,但兩篇論文的核心方法高度相似。
發(fā)現(xiàn)這一問題的印度“揭發(fā)團隊”指出,類似情況并非個例。他們在今年2月發(fā)表的研究中提到,經(jīng)外部專家評估,多個AI生成手稿存在未直接復制文字,卻挪用他人觀點且不署名的現(xiàn)象。這些由大型語言模型生成的研究觀點表面看似新穎,實則是“巧妙地抄襲”,其原創(chuàng)性難以驗證。
此外,“揭發(fā)團隊”還發(fā)現(xiàn),Sakana AI今年3月宣布的、首篇通過國際學習表征會議研討會同行評審的全AI生成論文,疑似挪用了2015年發(fā)表的一項研究中的核心成果,且未標引用,同時,其還借鑒了另一篇2015年的未署名手稿。專家評估認為,這篇AI論文與2015年的研究相似性達到了5級,即具有極高的相似性。
為進一步驗證,“揭發(fā)團隊”選取了美國斯坦福大學團隊2024年發(fā)布的4份AI生成研究方案、Sakana AI的10份AI手稿,以及與Sakana AI使用相同方法生成的36份新方案,邀請13位領域?qū)<野础?級相似度量表”評估(5級為方法完全對應,4級為融合2—3項前人成果)。結果顯示,24%的AI生成作品達到4—5級相似度。
如何定義“抄襲”仍存分歧
針對上述指控,“The AI Scientist”研發(fā)團隊予以否認,稱“抄襲指控不實,毫無根據(jù)且應被無視”。團隊表示,被質(zhì)疑的AI手稿與前人研究假設不同、應用領域各異,即便方法存在部分關聯(lián),也只是“未引用相關文獻”,這在人類研究者中也屬常見現(xiàn)象,且團隊已承認工具存在引用不足問題,但強調(diào)AI生成成果并非抄襲。
學界對“是否構成抄襲”的判斷也存在分歧。美國佐治亞理工學院機器學習研究員本·胡佛認為,樸炳俊提及的AI論文與他本人的研究相似度僅為3級,“遠不足以構成抄襲”。韓國高等科學技術研究院研究生白真宥則指出,新穎性本身就具有主觀性,人類評審在學術會議中也常就何為原創(chuàng)爭論不休。
樸炳俊本人雖認為其研究與AI論文的方法相似度達5級,但也表示“這未必符合法律或倫理層面的抄襲定義”。
柏林應用科學大學專家德博拉·韋伯-伍爾夫指出,爭議根源在于“抄襲”定義的認知差異:部分計算機科學家認為抄襲需“主觀故意欺詐”,但她主張“意圖不應作為判斷標準”,因為AI沒有主觀意識,且現(xiàn)有AI系統(tǒng)無法追溯觀點來源。她引用國際學術誠信中心前主任泰迪·菲什曼的定義:“未恰當標注他人可識別的觀點或成果,且存在原創(chuàng)性預期時,即構成抄襲”。
現(xiàn)有學術體系飽受沖擊
爭議背后,是AI科研對現(xiàn)有學術體系的深層挑戰(zhàn)。德國錫根大學機器學習專家喬拉恩·比爾指出,計算機科學等領域每年論文數(shù)量激增,研究者本就難以驗證自身觀點的新穎性;而大型語言模型通過重組訓練數(shù)據(jù)生成觀點的特性,會加劇學術信用流失,因為AI天然傾向于借鑒前人成果。
更關鍵的是,“思想抄襲”的驗證尚無有效解決方案。韋伯-伍爾夫坦言,目前沒有統(tǒng)一方法能證明“思想抄襲”與“文字抄襲”不同,觀點挪用難以量化。新加坡南洋理工大學AI研究員劉陽也表示,現(xiàn)有技術可檢測句子語義相似度,但“觀點或概念層面的相似度檢測研究極少”。
研究測試顯示,商業(yè)抄襲檢測工具Turnitin未能識別出專家判定的AI論文來源文獻,學術搜索大型語言模型工具OpenScholar僅識別出1篇。
“The AI Scientist”雖會通過“大型語言模型生成關鍵詞+語義學者搜索引擎+大型語言模型評估”的流程驗證原創(chuàng)性,但比爾認為,該過程過于簡化,因為關鍵詞難以完整概括觀點,搜索引擎可能遺漏關鍵文獻,無法媲美領域?qū)<业呐袛唷?/p>
AI使用標準亟待明晰
面對爭議,學界普遍認為需規(guī)范AI科研工具的使用。
新加坡國立大學計算機科學家靳民彥表示,AI工具終將普及,關鍵是找到正確的使用方式?!癟he AI Scientist”研發(fā)團隊則表示,其成果僅是“概念驗證”,旨在證明“AI生成科研論文已具備可行性”,未來這類系統(tǒng)有望實現(xiàn)“重大原創(chuàng)發(fā)現(xiàn)”。團隊同時承認AI生成論文存在質(zhì)量問題,建議當前階段僅將這一工具用于“啟發(fā)思路”,研究者需自行驗證其輸出內(nèi)容的可靠性。
目前,關于AI生成科研成果的學術規(guī)范尚未成形,如何平衡AI的科研輔助價值與學術誠信,仍是學界亟待解決的課題。(科技日報)

社會新聞精選:
- 2025年10月14日 13:51:03
- 2025年10月14日 13:49:59
- 2025年10月14日 09:16:58
- 2025年10月14日 08:11:16
- 2025年10月14日 05:57:17
- 2025年10月13日 18:23:43
- 2025年10月13日 16:43:55
- 2025年10月13日 15:20:49
- 2025年10月13日 14:56:16
- 2025年10月13日 13:33:20