机器之心报道
编辑:杜伟、泽南
连“作为一个大模型……”这样的AI语都忘了删就提交,结果还过审发表了。ChatGPT的出现让人不禁感慨,虽然它的生成能力强大,但有时也会胡说八道,这种滥用大模型写文章方式严重违背了做研究的初衷。许多学术机构因此发出了禁令。但随着技术的发展,我们很快就从最初的恐惧中走出来,有些学术机构已经解除了对这种AI使用的限制,微软甚至计划在年内将ChatGPT整合到Office全家桶中。这意味着未来或许人人都可以利用这些大型语言模型来撰写文章。
这让人们不得不深入思考,以后的学术论文会被AI生成内容冲击成什么样子?实际上,这种现象可能已经悄然发生。在谷歌学术搜索(Google Scholar)上,一位斯坦福大学本科生发现了一些明显涉及掺假的情况下的论文,其中包括直接将ChatGPT回答贴上的论文。当你输入“‘As an AI language model’ -‘ChatGPT’”进行搜索,你能找到大量这样的案例。
例如,一篇发表在《国际现代农业和环境期刊》的一篇论文开篇竟然是由AI开始讲述;另一篇发表在《技术创新和能源杂志》的论文则更为荒唐,因为其中包含了对作者X和Y虚构(fake)文章的引用。更令人震惊的是,还有一篇发表在《国际高级工程和土木研究期刊》的论文中,ChatGPT甚至引用了一份虚构文档。
通过输入同样的关键词进行检索,“‘As an AI language model’ -‘ChatGPT’”,我们发现至少有十页结果,每一页都列出100多篇相关文献。这使得我们不得不质疑这些如何能够通过编辑审核或同行评审过程。此外,有人直言,只要付费,就能在四级(four-tier)期刊上发布任何内容,因此这些都是毫无意义的小料。而目前看来,即便是这样的大规模问题,也尚未造成太大的影响。但当这种工具真正融入Office并普及至各个层面时,对于学术界来说,将是一个怎样的变革呢?
参考链接:
https://twitter.com/itsandrewgao/status/1689634145717379074