【CNMO新闻】ChatGPT如何影响用户道德判断?专家研究揭秘未来科技伦理挑战
近日,相关专业研究团队实验后发现,人类对道德困境的反应可能会受到人工智能对话机器人ChatGPT所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受ChatGPT影响的程度。
据了解,德国英戈尔施塔特应用科学大学科学家让ChatGPT多次回答牺牲1人生命换取其他5人生命是否正确的问题。他们发现,ChatGPT分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。
团队随后给767名平均年龄39岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲1人生命来拯救另外5人生命。这些受试者在回答前阅读了一段ChatGPT给出的陈述,这个陈述摆出了赞成或反对观点,然后被要求评价读到的这份陈述是否影响了他们的作答。
结果,该研究团队发现,当受试者读到了支持或反对这种牺牲的人工智能建议时,他们相应地是更接受或不接受这种牺牲,即使他们被告知这些建议来自一个虚构的人工智能系统。这意味着,即便是知道信息来源为机器人的情况下,也能产生类似的效果。而且,这些受试者可能低估了这些信息对于自己道德判断过程中的实际影响力。
最终,该研究强调,对话机器人的潜在能力去改变人类行为与其表现出的伦理问题之间存在紧密联系,并提出有必要通过教育帮助人们更好地理解和使用这一技术。未来的设计可以避免让聊天机器人直接回答需要提供个人价值观的问题,或是在回答时提供多样化的视角以及警告,以减少误导性作用。此外,还需进一步探索该技术如何塑造社会行为,以及我们应该如何平衡其潜在利益与风险。