【CNMO新闻】ChatGPT如何影响用户道德判断?专家研究揭秘
近日,相关专业研究团队在实验中发现,人类对道德困境的反应可能会受到人工智能对话机器人ChatGPT所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受ChatGPT影响的程度。
据了解,一组来自德国英戈尔施塔特应用科学大学的科学家们让ChatGPT多次回答牺牲1人生命换取其他5人生命是否正确的问题。他们发现,ChatGPT分别给出了赞成和反对的陈述,并没有偏向某种道德立场。
随后,该团队将这些问题呈现给了767名平均年龄39岁的美国受试者。在每个受试者面前,他们展示了一段假设的一到两种道德困境,并要求他们选择是否要牺牲1人生命来拯救另外5人的生命。这些受试者在回答问题之前阅读了一段由ChatGPT提供的陈述,这些陈述摆出了赞成或反对这一做法的情况。接着,被问及这份陈述是否影响了他们作答时,他们给出的答案是肯定的,即使被告知这个信息来源于一个虚拟的人工智能系统。
最终,该研究表明,对话机器人的确能够通过其提供的情感支持、信息以及推崇某些行为来引导人们做出不同的决定。此外,这项研究还显示,当人们在需要进行严格个人价值观决策时,更容易受到外部输入(即聊天机器人的建议)的影响。
专家们指出,由于这种潜在性风险,我们有必要通过教育帮助人类更好地理解并使用这些技术。未来设计上,可以让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告,以避免不当干预用户的心智过程。