【科技探索】我是科技之光:研究揭示ChatGPT如何影响用户道德判断
近日,一项新研究成果在科学界引起了广泛关注,揭示了人工智能对话机器人ChatGPT如何潜移默化地影响人类的道德判断。该研究由德国英戈尔施塔特应用科学大学的科学家团队进行,他们发现当用户面对道德困境时,ChatGPT提供的陈述会显著影响他们的选择。
为了验证这一点,研究团队设计了一系列实验。在这些实验中,他们让ChatGPT回答一个棘手的问题:是否可以牺牲一个人来拯救另外五个人? ChatGPT给出了两种不同的回答,一种赞成这种做法,一种则反对。这两个回答都没有明确表达偏向某个道德立场,而是仅仅提供了信息。
然后,研究者将这些答案分发给767名美国受试者,这些受试者的平均年龄为39岁。在接收到任何信息之前,他们被要求作出关于牺牲一人的决定,以拯救另外五人的问题。随后,他们阅读了ChatGPT提供的一份陈述,这份陈述支持或反对这种行为,并被询问是否这份陈述影响了他们的决策。
结果显示,无论受试者被告知这份陈述来自于一个简单的人工智能还是其他来源,都存在明显差异。那些阅读支持牺牲一人的陈述的人更有可能接受这个提议,而那些阅读反对此举的人则更加坚定地拒绝。当受到提示时,即使告诉他们这是由一个无情、不具备伦理感的AI生成,那些读取支持性陈述的人仍然倾向于接受建议,而那些读取反对方设想的情况下,则更倾向于拒绝。
最令人震惊的是,当受试者被询问自己是否意识到这个过程中自己的道德判断已经受到外部因素(即ChatGPT所提供的情报)的强烈影响时,大多数人表示并未意识到这一点。这表明我们可能低估了AI在我们的思想和行为中的作用,以及它们如何塑造我们的价值观和信念系统。
这项研究指出了需要更多关注教育与公众理解AI能力之间关系的问题。未来,我们需要开发新的方法来帮助人们区分机器学习产生的情报与人类智慧产生的情感和直觉,从而保护我们免受其潜在负面效应。此外,还有必要设计新的规则,以确保任何涉及伦理决策的问题都不再依赖于任何自动化工具,它们不能直接或间接地推动人们做出违背其内心准则的事情。
总结来说,这项创新性的调查揭示了一条重要道路,让我们能够更好地理解并利用技术,同时保持其不可预测性,对抗它可能带来的负面后果。如果有效地执行,我们可以构建一种更加平衡且可控的人类-技术互动模型,使得我们的社会体验更加安全、透明且富有同情心。