【科技前沿】ChatGPT道德判断影响专家研究:用户可能低估自身反应变化
近日,科学界一项新研究揭示了人工智能对话机器人ChatGPT在道德困境下的潜在影响。据此,学者们提出了关于如何更好地教育人们识别和应对这种影响的重要问题。
这项研究由德国英戈尔施塔特应用科学大学的一组专家所进行,他们发现当参与者阅读了ChatGPT提供的不同立场陈述后,对牺牲一人换取五人的生命态度产生了显著差异。这表明,即使被告知这些陈述是由一个无情感的人工智能生成的,也无法完全避免其对个人道德判断的影响。
受试者的回答显示,当他们读到了支持牺牲这一观点时,他们更有可能接受牺牲,而如果读到反对观点,则更加倾向于保留所有人的生命。这种现象不仅出现在直接指示受试者基于特定立场作答的情况下,而且即便是在没有明确指导的情况下也同样存在。
该研究结果强调了一种可能性,即人类在面临道德决策时,其行为可能会受到外部信息,如来自AI系统的陈述、建议或言论等因素的操纵。因此,这一发现引发了对于如何提高公众认识并防范这一风险的问题讨论。
为了减轻这一潜在威胁,未来可以考虑设计让AI拒绝回答需要给出明确道德立场的问题,或是在回答时提供多个不同的观点以及警告信号,以帮助用户保持批判性思维,并独立做出自己的决定。这不仅涉及技术层面的改进,也要求社会上普遍加强关于人工智能伦理与教育方面的投资和推广工作。