商傳媒|葉安庭/綜合外電報導
美國聖路易華盛頓大學奧林商學院(WashU Olin Business School)近日發表一項分析報告,揭露人工智慧(AI)對學術研究及期刊出版造成的深遠影響。這項研究指出,自ChatGPT問世以來,學術期刊的投稿量大幅增加,然而論文品質卻明顯下滑,引發學術倫理與同儕審查機制永續性的擔憂。
由《Organization Science》期刊總編輯 Lamar Pierce (Lamar Pierce) 與 Claudine Gartenberg (Claudine Gartenberg)、Sharique Hasan (Sharique Hasan)、Alex Murray (Alex Murray) 等學者共同撰寫的這項研究,是首度深入探討AI對主要學術期刊投稿與審查流程影響的報告。研究團隊運用AI內容偵測軟體 Pangram,分析《Organization Science》期刊五年內的 6,957 篇投稿論文,其中包含 11,887 位作者及 2,519 名審稿者的 10,389 份審查報告。研究也以 ChatGPT 於 2022 年底發布前的兩年數據作為對照組。
報告指出,自 2022 年底 ChatGPT 推出以來,《Organization Science》收到的投稿數量激增 42%。然而,投稿數量增加的同時,寫作品質卻迅速下降,導致絕大多數新增投稿在初步篩選階段就被副編輯駁回。研究也發現,最終能順利發表的研究,通常是那些AI分數極低的稿件。Lamar Pierce 提及,過往期刊編輯們雖感覺到AI的影響,但缺乏具體數據,這項研究正是為了解決此資訊落差。
AI不僅影響了投稿,也滲透到審查環節。該研究發現,超過三成的《Organization Science》審查報告都不同程度地使用了AI工具。這些AI輔助生成的審查意見,往往難以閱讀,且過度側重理論,對數據分析的關注度不足。這使得編輯與作者難以有效採納審稿意見,可能進一步影響手稿的品質。
Lamar Pierce 教授強調,現行的「不發表即淘汰」(publish-or-perish)學術升等制度,加上AI工具的推波助瀾,正讓學術同儕審查系統面臨無法持續的壓力。他認為,如果大學與研究機構持續以出版數量而非品質來評估學者,便很難指責年輕學者為了晉升與經費,而追求「多」而非「好」的研究成果。
儘管AI的快速發展令人興奮,其潛力巨大,Lamar Pierce 也警告,若學者在不理解AI運作與產出內容的情況下使用,將阻礙其成為真正的專家。他指出,AI在程式編寫、研究方法建議、資料搜尋以及批判人類論點等方面極具潛力,但人類作者仍需負責評估AI的貢獻,並充分理解其背後的原理。對於學術期刊,Lamar Pierce 認為,目前的重點不應放在如何調整現有審查流程以適應AI,而是應重新思考「如何最佳地評估與推廣卓越研究」。他呼籲學術界應集體努力,從零開始設計新的評估系統。
這項研究自 4 月 27 日發表以來,一週內已累積超過一萬次下載,並獲得《自然》(Nature)、《富比士》(Forbes) 及《金融時報》(Financial Times) 等主要新聞與學術媒體的廣泛討論。






