新智元報道 【新智元導(dǎo)讀】最近,一篇數(shù)學(xué)論文被發(fā)現(xiàn)ChatGPT痕跡,慘遭撤稿。打假人痛心疾呼:我們的學(xué)術(shù)圈,早已被AI寫的論文吞沒了!科研圈,快被ChatGPT生成的論文吞沒了! 8月9日,一篇收錄于<Physica Scripta>期刊上的論文,提出了一種復(fù)雜數(shù)學(xué)方程的全新解決方案。 論文地址:https://iopscience./article/10.1088/1402-4896/aceb40/meta 本來是皆大歡喜的事,直到科學(xué)打假人Guillaume Cabanac在論文的第三頁,發(fā)現(xiàn)了一處可疑的短語——「重新生成回復(fù)」(Regenerate Response)。 經(jīng)常用ChatGPT的小伙伴,看到這個短語,都會會心一笑。 「Regenerate Response」是網(wǎng)頁版ChatGPT上的一個按鈕,現(xiàn)在更新成了「Regenerate」。 Cabanac火速把這一發(fā)現(xiàn)po到了PubPeer上,這也意味著,事情鬧大的話,這篇論文基本就被判死刑了。 果然,論文作者不得不承認(rèn),在寫作論文稿件時確實(shí)使用了ChatGPT。 論文的通訊作者為Abdullahi Yusuf,他有兩個工作單位,一個是伊斯坦布爾的Biruni University,一個是貝魯特的Lebanese American University。 這篇論文在5月被提交,7月發(fā)出了修訂版,在兩個月的同行評審期間,都沒有人發(fā)現(xiàn)其中的異常。 現(xiàn)在,<Physica Scripta>決定撤回這篇論文,理由是作者在提交論文時,并沒有聲明自己使用了ChatGPT。 期刊的同行評審和研究誠信主管Kim Eggleton表示,「這種行為違反了我們的道德政策?!?/span> 只是冰山的一角 然而,這篇論文,只是少數(shù)被曝光出來的「倒霉」選手。 從今年4月以來,Cabanac已經(jīng)「打假」了十幾篇論文,掛到了PubPeer上。它們無一例外,都留下了ChatGPT的使用痕跡——「Regenerate response」或「作為一個語言模型,我……」 所以,寫論文時究竟可不可以用ChatGPT呢? 對于這個問題,Elsevier(愛思唯爾)和Springer Nature(施普林格·自然)在內(nèi)的許多出版商都有明確規(guī)定:大語言模型工具用是可以用的,只要作者聲明自己使用了即可。 不過目前看來,大部分使用了ChatGPT的同行評審論文,都沒有聲明這一點(diǎn)。 已經(jīng)被逮到的論文,只是因?yàn)樽髡叽中模瑳]有小心清除掉ChatGPT留下的痕跡而已。?? 只要作者足夠細(xì)心,用沒用ChatGPT,又有誰能知道呢? 打假人Cabanac表示,目前自己發(fā)現(xiàn)的論文,才只是冰山一角。 在愛思唯爾期刊中,他也發(fā)現(xiàn)了一些典型的ChatGPT「黑話」。 比如一篇8月3日發(fā)表在<Resources Policy>上的論文,主題是電子商務(wù)對發(fā)展中國家化石燃料效率的影響。 其中,Cabanac就注意到,文章里有些方程完全就是不知所云。 不過最大的可疑之處在于,在某張表格上方,出現(xiàn)了這樣一行字:「請注意,作為一個語言模型,我無法生成具體的表格或進(jìn)行測試……」 對此,Elsevier的一位發(fā)言人表示,他們已經(jīng)發(fā)現(xiàn)了這個問題,正在對這篇論文進(jìn)行調(diào)查。 AI的大作,已經(jīng)完美混進(jìn)了人類作品 那么,一篇論文如果完全或部分由AI寫成,但作者不說,我們就沒有辦法發(fā)現(xiàn)了嗎? 大部分時候,的確如此。 最近美國南佛羅里達(dá)大學(xué)的一項(xiàng)研究表明,AI生成的文字內(nèi)容,可能已經(jīng)無法與人類寫的區(qū)分開來了。 他們邀請了72名世界頂級語言學(xué)期刊的專家,要求他們來審查各種研究摘要,但即使是這樣的專業(yè)人士,也很難識別出哪些摘要是人寫的,哪些是AI寫的。 在62%的情況下,他們會被AI騙過去。 具體來說,每位專家都被要求檢查四份摘要,能全部正確識別出來作者是人還是AI的,一個都沒有。 甚至13%的專家,一個都沒做對。 專家們的識別依據(jù)是語言習(xí)慣和文體特征,盡管他們的分析頭頭是道、合乎邏輯,但總體的陽性識別率也只有38.9%。 學(xué)術(shù)界要被攻陷了!同行評審:時間緊,人不夠 |
|