编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。人们对其背后的原理、工作机制以及它可能带来的影响持有各种各样的疑问。我们特邀中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏教授,就人工智能视角探讨ChatGPT,并分享他的专业见解。
专家简介
曹立宏教授,中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事及教育部科技委员会人工智能与区块链技术专委会委员。他专注于类脑智能和计算的研究。
“ChatGPT使用感不错,但也有不足”
光明网:您如何评价ChatGPT?它在哪些方面表现突出,又有哪些限制?
曹立宏:相比以往的语言模型,ChatGPT确实取得了显著进步,其对话流畅性提升显著。此外,它能处理普通知识和浅显专业信息组织得很好。不过,对于深度或专业问题时,它就会遇到挑战。这主要是因为AI面临的一个灾难性遗忘问题,即如何快速学习新信息而不会干扰已有的知识存储,这仍然是一个未解决的问题。
此外,ChatGPT缺乏具身体验,这就是我们所说的常识。在自然语言处理中,“理解”仅限于文本,是一种表面的理解,而人类理解通常涉及多种感官体验,如视觉、听觉等。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验
“记者角色将难以被替代”
光明网:作为一名记者,您认为ChatGPT是否能够取代记者的角色?
曹立宏:目前并不需要担心记者的岗位安全。记者不仅需要提出深入的问题,还需快速学习和了解受访者的背景,这两点都超出了当前AI能力范围。而且,情感系统是记者采访过程中的重要组成部分,也是目前AI尚未完全掌握的情报领域。
图片由百度文心大模型 AI 生成
关键词:记者角色替代可能性
“更像一个辅助工具而非真正的人工智慧”
光明网:“穿着AI深度学习马甲”,您意味着什么?
曹立宏:“我希望强调的是虽然自然语言处理取得了巨大进展,但这些工具并不是真正的人类智慧。它们基于模仿人类思维模式构建,但无法达到人类那样深入思考的层次。”这种工具适合做一些基础任务,如数据整合或者回答简单问题,但对于复杂、高级别的问题则存在局限性。
图片由百度文心大模型 AI 生成
关键词:辅助工具,大数据分析
未来发展需警惕滥用潜力
光明网:“你认为未来怎样看待这项技术?”
曹立宏:“从两条路径来考虑。一是继续优化现有算法,以提高准确率;另一种方式是在尝试模拟生物神经网络,让我们的算法更加接近真实的大脑功能。”他还提醒说,如果没有正确评估其极限,我们可能会看到过分乐观的声音,因为如果滥用这项技术,将导致严重后果。
图片由百道文心大模型 AI 生成