GPT-4「榮升」AI頂會同行評審專家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%評審是ChatGPT生成

0 評論 2110 瀏覽 0 收藏 9 分鐘

斯坦福的一篇案例研究表示,提交給AI會議的同行評審文本中,有6.5%到16.9%可能是由LLM大幅修改的,而這些趨勢可能在個體級別上難以察覺。

LLM在飛速進步的同時,人類也越來越難以區分LLM生成的文本與人工編寫的內容,甚至分辨能力與隨機器不相上下。

這加大了未經證實的生成文本可以偽裝成權威、基于證據的寫作的風險。

盡管在個例上難以察覺,但由于LLM的輸出趨于一致性,這種趨勢可能會放大語料庫級別的偏見。

基于這一點,一支來自斯坦福的團隊提出一種方法,以此來對包含不確定量的AI生成文本的真實世界數據集進行可比較的評估,并在AI會議的同行評審文本中驗證。

論文地址:https://arxiv.org/abs/2403.07183

一、AI會議的同行評審可能是AI?

同行評審是一種學術論文發表前的質量評估機制。

這些同行評審者通常具有相關領域的專業知識,他們會對論文的原創性、方法學、數據分析、結果解釋等進行評價,以確保論文的科學性和可信度。

斯坦福團隊研究的AI會議包括ICLR 2024、NeurIPS 2023、CoRL 2023和EMNLP 2023,他們的研究發生在ChatGPT發布之后,實驗觀察估計LLM可能會顯著修改或生成的大語料庫中的文本比例。

結果顯示,有6.5%到16.9%可能是由LLM大幅修改的,即超出了拼寫檢查或微小寫作更新的范圍。

在下圖中,可以看到ICLR 2024同行評審中,某些形容詞的頻率發生了顯著變化,例如「值得稱贊的」、「細致的」和「復雜的」,它們在出現在句子中的概率分別增加了9.8倍、34.7倍和11.2倍。而這些詞大概率是由人工智能生成的。

同時研究還發現,在報告較低自信度、接近截稿時間以及不太可能回應作者反駁的評論中,LLM生成文本的估計比例較高。

二、最大似然讓LLM現形

因為LLM檢測器的性能不穩定,所以比起嘗試對語料庫中的每個文檔進行分類并計算總數,研究人員采用了最大似然的方法。

研究方法主要分成四個步驟:

1. 收集(人類)作者的寫作指導——在這個情況下是同行評審指導。將這些指導作為提示輸入到一個LLM中,生成相應的AI生成文檔的語料庫。

2. 使用人類和AI文檔語料庫,估算參考標記使用分布P和Q。

3. 在已知正確比例的AI生成文檔的合成目標語料庫上驗證方法的性能。

4. 基于對P和Q的這些估計,使用最大似然法估算目標語料庫中AI生成或修改文檔的比例α。

上圖對方法進行了流程可視化。

研究人員首先生成一個具有已知科學家或AI作者身份的文檔語料庫。利用這些歷史數據,我們可以估算科學家撰寫的文本和AI文本的分布P和Q,并驗證我們方法在留存數據上的性能。最后,使用估算的P和Q來估算目標語料庫中 AI 生成文本的比例。

在驗證集中,該方法在LLM生成反饋比例方面表現出高精度,預測誤差不到2.4%。同時,團隊對魯棒性也進行了驗證。

另外,一位審稿人可能會分兩個不同階段起草他們的審稿意見:首先,在閱讀論文時創建審稿的簡要大綱,然后使用LLM擴展這個大綱以形成詳細、全面的審稿意見。

在這種場景的驗證中,算法仍舊表現出色,能夠檢測到LLM用于大幅擴展由人提供的審稿大綱的情況。

實驗結果中還發現了什么

首先,團隊將AI會議的同行評審和Nature Portfolio期刊的α進行了比較。

與AI會議相反,Nature Portfolio期刊在ChatGPT發布后沒有顯示出估計α值的顯著增加,ChatGPT發布前后的α估計值仍在α = 0驗證實驗的誤差范圍內。

這種一致性表明,在與機器學習專業領域相比,廣泛的科學學科對AI工具的反應有明顯的不同。

除了發現同行評審文本中,有6.5%到16.9%來自于LLM的手筆之外,該研究還發現了一些有意思的用戶行為,在四個AI會議里保持一致:

1. 截至日期效應:在審稿截止日期前3天內提交的評審往往更傾向于用GPT

2. 參考文獻效應:包含「et al.」一詞的評審,即有學術引用的評審,更不會用GPT

3. 回復率降低效應:審稿討論期間,審稿人回復數量越多,評審更不會用GPT

4. 同質化效應:與同論文其他審稿意見越相似的評審,越可能用GPT

5. 低置信度效應:自評置信度在5分制度中為2分或以下的評審與較高置信度(3分或以上)的評審相比,更可能用了GPT

盡管這項研究存在一定的局限性,比如只涉及了四個會議、僅使用了GPT-4來生成AI文本,并且可能存在其他誤差來源,比如由于主題和審稿人的變化而導致的模型時間分布的偏差。

但是,研究的結論啟示了LLM可能對科學界產生的潛在影響,這有助于激發進一步的社會分析和思考。希望這些研究結果能夠促進對于LLM在未來信息生態系統中應該如何使用以及可能帶來的影響的深入探討,從而推動出臺更加明智的政策決策。

參考資料:

https://arxiv.org/abs/2403.07183

編輯:Mindy

來源公眾號:新智元(ID:AI_era),“智能+”中國主平臺,致力于推動中國從“互聯網+”邁向“智能+”。

本文由人人都是產品經理合作媒體 @新智元 授權發布,未經許可,禁止轉載。

題圖來自 Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!