在阿拉伯联合酋长国阿布扎比,OpenAI首席执行官山姆·奥特曼(Sam Altman)于2023年6月6日星期二发表了一次演讲。这场演讲不仅标志着人工智能技术的新纪元,也引起了人们对生成式人工智能系统“幻觉”的关注。这些系统,如ChatGPT和其他聊天机器人,能够模仿人类交流,但它们并不总是准确无误。
事实上,随着时间的推移,这些系统已经开始产生所谓的“幻觉”或虚构内容。这种现象在企业、机构乃至高中生中越来越常见,因为它们被用于撰写文档、完成工作甚至进行医疗建议等任务。在这场讨论中,我们将探索这一问题,并思考如何解决它。
一些专家认为,“幻觉”是不可避免的一部分,是技术与拟议用例不匹配造成的问题。而其他专家则认为,即使存在错误,这些错误也可能是可接受的,因为它们通常不是显而易见的。
语言学教授艾米丽·本德(Emily Bender)指出,这种情况并非偶然,而是一种设计原则。她解释道:“我们训练模型以预测下一个单词,它们根据训练数据‘建模’不同词形字符串。”这样的模型可以帮助自动翻译和转录服务,使输出看起来更像目标语言中的典型文本。但本德也警告说,即使经过微调,这样的模型仍然会出现失误,而且这些失误往往很难被发现。
尽管如此,有些公司正致力于改进这些模型,以提高其准确性。例如,谷歌正在开发一种新闻写作的人工智能产品,对新闻机构来说准确性至关重要。此外,一些研究人员正在使用OpenAI合作伙伴美联社提供的人工智能系统来改进其模型。
然而,就像加内什·巴格勒(Ganesh Bagler)所说的,当食谱出现“幻觉”时问题就会严重起来。他提到,由ChatGPT编制出的南亚菜肴食谱可能导致味道上的差异,从而影响最终结果。他质疑:“你怎么看待这个问题?”对于一些专家来说,比如华盛顿大学计算语言学实验室主任艾米丽·本德,这一问题远未得到充分解决。本德表示:“这是无法解决的是技术与拟议用例不匹配的问题。”
尽管如此,不少研究人员相信通过不断迭代和改进,可以逐步减少这类错误。一位初创公司Jasper AI总裁谢恩·奥利克(Shane Orlick)表示,他们看到客户利用Jasper提出创意故事或从他们想不到角度切入,而这就是他寄希望于未来大型语言模型能达到的境界。
随着时间推移,一直有声音预言乐观前景,其中包括微软联合创始人比尔·盖茨,他相信随着时间推移,大型语言模型将学会区分事实与虚构。不过即便是开拓者们也不指望在寻找信息时依赖这些工具时能获得完全准确的情报。因此,在科技发展的大潮中,我们不得不重新审视我们的期望,以及我们如何利用这一强大的工具去塑造我们的未来世界。