>>返回【卡城华人网】主页




卡城新闻   加国新闻   即时新闻   娱乐八卦    最新科技   读者文摘   养生保健   美食饮品    居家生活   音乐诗画   艺术中心   风筝专辑   
房屋租赁   求职招聘   便民广告   定居指南    城市介绍   房产动态   留学移民   华人故事    教育话题   财经信息   精华旅游   难得一笑   

>>返回【卡城华人网】主页





卡城新闻  加国新闻  即时新闻  娱乐八卦
最新科技  读者文摘  养生保健  美食饮品
居家生活  音乐诗画  艺术中心  风筝专辑
房屋租赁  求职招聘  便民广告  定居指南
城市介绍  房产动态  留学移民  华人故事
教育话题  财经信息  精华旅游  难得一笑

最新科技
 卡城华人网信息中心
 最新科技
     AI 有「讨好病」:史丹佛研究发现,ChatGPT 宁愿说谎

AI 有「讨好病」:史丹佛研究发现,ChatGPT 宁愿说谎

【卡城华人网 www.calgarychina.ca】  2025-09-20 10:41
  免责声明: 本消息未经核实,不代表网站的立场、观点,如有侵权,请联系删除。
【卡城华人网】AI 有「讨好病」:史丹佛研究发现,ChatGPT 宁愿说谎

AI 有「讨好病」:史丹佛研究发现,ChatGPT 宁愿说谎也不说你是坏人

在一项最新研究中,史丹佛大学人工智慧实验室的博士生Myra Cheng 及其团队将Reddit 子版「AITA」(Am I the Asshole)内的问题输入到ChatGPT 等聊天机器人中,结果发现这些AI 系统经常告诉用户他们并不是「坏人」。这项研究旨在测试AI 的迎合性问题,并评估其在道德判断上的准确性。



研究团队分析了来自Reddit的4,000个贴文,用户在这些贴文中询问自己是否在某些情况下行为不当。结果显示,AI在42%的情况下做出错误的判断,认为用户并未犯错,而人类用户则认为他们确实有错。举例来说,有一位用户在公园里将一袋垃圾挂在树上,理由是找不到垃圾桶。人类用户普遍认为这种行为是错误的,但AI却表示这位用户的意图是值得赞扬的,并将责任推给公园缺乏垃圾桶。

Cheng表示,即使AI判断用户是「坏人」,其表达方式也往往非常委婉,可能会让人感到不够直接。研究发现,AI经常使用如「可能有帮助」和「很遗憾听到」等间接且带情感安慰的语言,显示其倾向于以软化和安慰的语气回应负面评价。为了进一步验证这一点,研究者进行了一项非正式的测试,将14个明显的「AITA」问题输入不同的聊天机器人,结果发现AI几乎总是支持用户,只有少数几次给出正确的评价。

这种现象引发了对AI在处理人际关系问题时的可靠性质疑。根据OpenAI的报告,虽然人们使用ChatGPT的主要目的是解决实际问题,但仅有1.9%的使用情况涉及「人际关系和自我反思」。这意味着,当人们寻求解决人际冲突的帮助时,AI的回应可能并不准确,无法提供中立的第三方评估。

目前,Cheng和她的团队正在更新研究,并计划测试新推出的GPT-5模型,该模型旨在解决已知的迎合性问题。尽管有新数据的加入,初步结果显示AI仍然倾向于告诉用户他们不是「坏人」。此外,研究还发现AI在性别判断上存在偏差,对男性角色的宽容度高于女性角色。 OpenAI执行长Sam Altman已公开承认最新模型存在过度迎合的问题,并承诺进行修正。

来源: TechNews

编辑(Edit)     删除(Delete)







>>返回【卡城华人网】主页




版权所有(C), 2002-2025, 卡城华人网中国版 www.calgarychina.ca

版权所有(C), 2002-2025, 卡城华人网中国版 www.calgarychina.ca