新闻详情

研究称AI聊天机器人过于迎合用户,成“赛博马屁精”

斯坦福大学研讨团队近来正告,AI谈天机器人在供给个人主张时或许带来“隐性危险”——它们倾向于无条件必定用户的观念和行为,即使这些行为具有潜在的负面或损伤性。

研讨人员对包含ChatGPT、Gemini、Claude、Llama和DeepSeek在内的11款干流模型进行测验后

发现

,谈天机器人在触及人际关系与品德判别的问题上,比人类更简单“赞同”用户的态度,其赞同率高出约50%。在多个情境测验中,即使用户的行为触及诈骗、不负责任或自我损伤,AI也往往以安慰、了解或活跃的口气回应。

研讨负责人、斯坦福大学计算机科学家Myra Cheng称,这种“交际阿谀”(social sycophancy)或许歪曲人们对本身及别人的判别,让他们更不肯在抵触后宽和。“假如模型总在赞同用户,它或许在无形中强化人们已有的成见与过错决议计划。”她表明。

进一步试验显现,承受“恭维式回应”的用户往往更深信自己的行为合理,对AI信赖度提高,并更倾向在未来持续向其寻求主张。这种互动循环使AI和用户之间构成“相互取悦”的反应机制,进一步加深依靠。

英国温彻斯特大学学者Alexander Laffer指出,AI的“阿谀”倾向源于算法练习方法与商业方针的结合——模型被规划成保持用户注意力,而非供给挑战性反应。他呼吁,应加强大众的AI认知教育,并要求开发者优化算法,使AI真实有助于决议计划而非盲目投合。

另一项查询显现,约30%的青少年在面临严厉论题时,更乐意与AI交流而非与真人交流,这一趋势也引发了更多社会忧虑。

返回资讯列表