机器之心报道
编辑:杜伟、泽南
连「作为一个大模型……」这样的 AI 语都忘了删就提交,结果还过审发表了。这不仅仅是简单的疏忽,而是一种更深层次的问题。ChatGPT 出现以来,它的强大生成能力让很多人感到既震撼又困惑。在一些学术机构中,即便有过最初的禁令,但随着时间推移,我们开始逐渐接受这种技术带来的变化。微软计划在年内将 ChatGPT 整合到 Office 全家桶中,这无疑会进一步扩大它对我们日常工作和学习生活的影响。
这让人不得不去思考以后的学术论文会被 AI 生成的内容冲击成什么样。事实上,这种情况可能已经悄然发生。今天,有个斯坦福本科生在谷歌学术搜索(Google Scholar)上发现了一些令人惊讶的情况。当你输入「“As an AI language model” -“ChatGPT”」进行搜索时,竟然搜到了许多直接将 ChatGPT 答案贴上的论文。这并非偶然,而是反映出了一些潜在的问题。
这些问题包括但不限于:如何确保AI生成的内容能够得到准确和有效地引用?以及,在没有足够监督的情况下,是否真的能保证这些内容不会被滥用?例如,一篇论文开篇就使用了类似「AI 看看」这样的开场白,这让人忍俊不禁,但也暴露出了问题所在。
此外,还有一些研究者发现,比如《国际现代农业和环境期刊》、《技术创新和能源杂志》等知名期刊,都出现了类似的行为。而最令人瞠目的例子是在《国际高级工程和土木研究期刊》上的一篇文章,那里甚至出现了作者 X 和 Y 的虚假(fake)引用。这一现象引起人们对于整个学术体系安全性的担忧。
为了验证这一点,机器之心也尝试在谷歌学术中输入关键词 «“As an AI language model” -“ChatGPT”»进行检索,并得到了10页以上相关结果,大约100篇左右相关论文。这提出了一个紧迫的问题:这些论文是怎样通过编辑审核或同行评审过程中的?
最后,有观点指出,这些都是四级(four-tier)期刊,只要付钱即可发表,因此它们往往充满毫无意义的垃圾。不过至少目前为止,由于这些作品尚未产生太大的实际影响,所以我们可以暂时放宽警惕。但如果 ChatGPT 在 Office 上真正流行起来,对于未来学术界来说,或许真的是难以预测的事情。
参考链接:
https://twitter.com/itsandrewgao/status/1689634145717379074