机器之心报道
编辑:杜伟、泽南
连「作为一个大模型……」这样的 AI 语都忘了删就提交,结果还过审发表了。ChatGPT 出现以来,它的生成能力让很多人叹为观止,但同时也引发了一场关于学术诚信的危机。这些大型语言模型虽然强大,却有时会胡说八道,滥用其能力写作,这违背了研究初衷和学术规范。
随着技术的进步,大型语言模型如 ChatGPT 的应用日益普及,我们似乎已经忘记了最初对它们潜在威胁的担忧。然而,一些学术机构开始重新考虑对这些工具的使用限制,而微软则计划在不久之内将 ChatGPT 整合到 Office 软件中。这意味着未来人人可能都能利用这类工具来撰写文章。
这种可能性让人不得不思考未来的学术论文将如何受到影响。事实上,这种情况可能已经悄然发生。在谷歌学术(Google Scholar)上,有个斯坦福大学本科生发现了一系列疑似掺假论文,其中包含直接复制并粘贴 ChatGPT 答案作为文献内容的情况。
通过特定的搜索条件,比如输入「“As an AI language model” -“ChatGPT”」,我们可以找到大量包含这种做法的论文。在一些期刊上,如《国际现代农业和环境期刊》、《技术创新和能源杂志》,甚至《国际高级工程和土木研究期刊》,出现了类似的例子,其中某篇论文甚至引用了一篇虚构文章,这无疑是对学术诚信的一次严重侵犯。
机器之心在谷歌学术中尝试相同的搜索,并发现有十几页搜到的结果,大约有一百多篇涉及此类问题的小众期刊存在。此外,一位评论者直言,对于这些四级(four-tier)期刊来说,只要付费即可发表,实际上是垃圾文献泛滥的问题。而目前看来,即使这样的大量掺假文献没有造成广泛影响,但如果它们被整合到 Office 系统中,那么未来的学界发展形态将变得难以预测。
参考链接:
https://twitter.com/itsandrewgao/status/1689634145717379074