浙江工商大学研究表明ChatGPT可能影响用户的道德判断能力。该研究发现,当用户在面对道德困境时,如果他们先阅读了ChatGPT提供的支持或反对牺牲一人的陈述,他们的回答倾向于与所读陈述一致。这意味着,即使被告知这些陈述是由人工智能生成的,用户仍然可能低估了它们对自己的道德判断过程产生影响。
此外,研究还指出,这种偏差并不仅限于受试者。在现实生活中,如果人们在做决策前受到人工智能系统如ChatGPT等信息的影响,那么他们可能会更容易接受或排斥某些观点,从而改变其行为和决策。
为了解决这一问题,研究建议未来可以通过设计让人工智能系统避免回答需要给出道德立场的问题,或是在回答时提供多种观点和警告,以帮助人类更好地理解并应对来自这些系统的信息。同时,教育也是一个关键因素,因为它可以帮助人们识别和评估来自不同来源(包括人工智能)的信息,并学会如何有效地利用这些信息来指导自己的决定。