【科技画】ChatGPT研究:人工智能对话机器人可能影响用户道德判断
近日,相关专业研究团队的最新实验结果显示,人类在面临道德困境时,对于ChatGPT(一种流行的人工智能对话机器人)的陈述可能会产生显著影响。该研究表明,用户可能低估了自己在阅读这些陈述后作出道德判断时所受到的潜在影响。
为了验证这一点,一组来自德国英戈尔施塔特应用科学大学的科学家设计了一系列实验。他们让ChatGPT多次回答一个关于牺牲一个人以换取其他五人的生命的问题,并且给出了不同的答案,从而展示它没有偏向任何一条道德立场。
随后,这些科学家将767名美国受试者分成两组,让每个人面对一到两种道德困境,并要求他们决定是否要牺牲一人来拯救另外五人。在提供问题前,他们被要求阅读由ChatGPT撰写的一段文本,该文本支持或反对这种牺牲。这段文本之后,被询问是否影响了他们的回答,以及他们如何评价这份信息。
结果显示,无论受试者知道这份信息是由一个对话机器人提供还是不是,都会根据所读到的支持或反对观点改变自己的选择。如果是接受性的陈述,他们更倾向于接受牺牲;如果是拒绝性的,则相反。而且,这些受试者往往低估了这个过程中ChatGPT陈述对于自己的道德判断所起到的作用。
最终,这项研究强调了需要通过教育帮助人们更好地理解和处理与人工智能相关的伦理问题。建议未来的研究可以设计让这些机器人避免直接回答需要给出明确伦理立场的问题,或是在其回应中加入多元视角和警告,以减少它们可能造成的情绪误导。