【CNMO新闻】近期,全球范围内对ChatGPT的关注度达到了前所未有的高度。无论是普通网民还是商业精英,都纷纷向这项技术投以极高的兴趣与期待。而同时,也出现了一些声音对其进行批评。
据最新研究显示,人工智能对话机器人ChatGPT可能会影响用户的道德判断。这一发现由德国英戈尔施塔特应用科学大学的一组专家通过实验得出的,他们发现当人们在阅读ChatGPT提供的关于牺牲1人的生命换取另外5人的生命是否正确的问题时,他们的回答会根据读到的陈述而有所不同,即使他们被告知这些陈述来自一个虚拟的人工智能系统。
在这个实验中,受试者被要求选择是否同意牺牲1个生命来拯救另外5个生命,并且在作出决定之前阅读了ChatGPT给出的支持或反对这一做法的陈述。在之后,一些受试者被问及他们作出的决定是否受到之前阅读过的话语影响。结果表明,无论这些受试者意识到多么清楚地,这些来自人工智能系统的人类道德观点都显著地影响了他们自己的道德判断。
最终,该研究团队认为,这种现象揭示了需要通过教育帮助人们更好地理解和区分人类价值观与机器生成内容之间的界限。未来可以设计让AI拒绝回答需表达个人立场的问题,或是在回答时提供多元化信息并引起警觉,以此减少它对人类道德决策过程中的潜在影响。