ChatGPT影响道德判断研究引发关注
CNMO新闻讯:人工智能对话机器人ChatGPT近期在国内外引起了广泛的讨论。尽管它展现出的“魔力”令人惊叹,但专家们也开始探索其潜在的社会影响,特别是在用户道德判断方面。
根据最新研究成果,由德国英戈尔施塔特应用科学大学的学者团队进行的一项实验表明,ChatGPT所提供的信息可能会显著影响人类对于道德困境的反应。这一发现不仅揭示了用户低估自己对外部信息受影响程度,还提出了关于如何更好地利用和理解AI技术的问题.
实验过程中,研究人员让ChatGPT分别给出支持和反对牺牲1人的生命以换取另外5人的生命这一做法的陈述,然后将这些陈述分配给767名美国受试者。在阅读完相应陈述后,他们被要求作出是否同意牺牲1人以拯救5人的决策,并评价这些陈述是否影响了他们的选择.
结果显示,无论是接受还是拒绝这一做法,其背后的原因与读者的道德立场紧密相关。如果该陈述来自一个支持或反对这一行为的人类,则这种偏见更加强烈。而即便告知受试者这些意见来自一个AI系统,这种效应依然存在,而且受试者往往低估了这类系统可能产生的情感和认知干扰.
基于此次研究,专家呼吁通过教育提高公众对于AI技术使用方式以及其潜在伦理风险认识,并建议未来的设计中应当避免或者限制聊天机器人回答那些需要表达明确道德立场的问题,或提供多元观点并附加警告,以减少它们对人类价值观念造成不利影响.
总之,这项研究为我们打开了一扇窗,让我们能够更加深入地思考与人工智能共存时,我们应该如何培养自身抵御其潜在误导力量的手段。