跳到主要內容區

抄襲、重複發表、ChatGPT 孫以瀚談學倫創新思維

【管理學院提供】近年來論文抄襲議題引發關注,如今又有大量生成式AI應用,用AI輔助研究算抄襲嗎?抄襲該如何定義?國立中山大學管理學術研究中心邀請國科會前副主委孫以瀚分享「抄襲、重複發表、ChatGPT」,一一說明AI時代下的學術倫理與創新思維,希望加深研究者對於學術倫理的認識與理解。

孫以瀚開宗明義指出,抄襲是學術倫理中不可忽視的問題,它不僅是文字上的複製,更反映一種「企圖讓他人誤以為這些成果是自己擁有」的不當意圖。因此,在判定抄襲問題時,應著眼於其是否牽涉到文章的原創核心,如研究結果及研究討論;對於非核心內容的抄襲,則需判斷其嚴重程度;而在共同著作的情境下,則應注意合理使用與清楚註明貢獻出處,避免抄襲的發生。他提到,抄襲經常被視為研究者偷懶和盜取名聲的行為,但其帶來的問題不僅於此,抄襲會影響研究資源的分配,因重複計算研究成果而導致資源錯置,使資源未能有效利用。這樣的行為不僅影響學術公正性,更可能導致資源的浪費和不公平的分配,從而損害整體研究環境的健康發展。

抄襲同時會討論到自我抄襲的議題,孫以瀚提出,將「自我抄襲」重新定義為「重複發表」更為恰當,由於抄襲一詞隱含將他人貢獻視為自己的意涵,然而,使用自己的研究內容並非竊取他人貢獻,而是透過重複發表來謀取「重複獲利」的情況。對此,他也提供多項建議幫助學者理解和應對重複發表的問題。孫以瀚說明,首先應了解重複內容存在不同的容許情況,包括:內容完全相同但針對不同讀者群的翻譯版本、為了讀者的易讀性而使用自己已發表的文字、同一研究成果在研究過程中的系列文件,如IRB計畫、學生進度報告、研討會論文等。其次,針對計畫的重複發表提供明確的原則,例如同計畫向不同機構申請補助需清楚注明、避免一稿二投等。最後,他強調上述情況會依不同學術領域和期刊審核的態度而有不同,學者需要遵守不同期刊的要求。

生成式AI工具如ChatGPT的崛起,部分學者開始將其應用於教學或研究中。然而,ChatGPT的資料是根據大數據學習而生成,並非直接引用,使得研究者無從得知資訊的真實來源,甚至難以判斷資料是否存在偏誤,這是使用ChatGPT需注意的問題。針對ChatGPT應用所帶來的影響,孫以瀚認為,雖然使用ChatGPT輔助研究不涉及抄襲,但研究者應在期刊上明確揭露其使用、且研究內容的正確性與可信度有待人為檢視。再者,關於ChatGPT導致內容可能缺乏創新的問題,並不在學倫的討論範圍,但卻是對研究價值的反思。

面對AI技術的快速發展,孫以瀚主張保持開放態度迎接AI在學術研究中帶來的變革,並調整過去的評鑑方式。同時,他也提醒作品的創新性來自於學者提出正確的問題,這意味著即使在AI輔助下,仍需要學者的智慧和洞察力來確定研究的方向和深度,突顯出學術界應更加關注研究的品質、創新及價值。

(公共事務組編修)
瀏覽數: