![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
卡城新闻 加国新闻 即时新闻 娱乐八卦
最新科技 读者文摘 养生保健 美食饮品
居家生活 音乐诗画 艺术中心 风筝专辑 房屋租赁 求职招聘 便民广告 定居指南 城市介绍 房产动态 留学移民 华人故事 教育话题 财经信息 精华旅游 难得一笑 |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
卡城新闻 加国新闻 即时新闻 娱乐八卦 最新科技 读者文摘 养生保健 美食饮品 居家生活 音乐诗画 艺术中心 风筝专辑 房屋租赁 求职招聘 便民广告 定居指南 城市介绍 房产动态 留学移民 华人故事 教育话题 财经信息 精华旅游 难得一笑 |
最新科技 |
![]() ![]() ![]()      ![]() ![]() |
【卡城华人网 www.calgarychina.ca】  2025-09-20 10:41   免责声明: 本消息未经核实,不代表网站的立场、观点,如有侵权,请联系删除。 |
AI 有「讨好病」:史丹佛研究发现,ChatGPT 宁愿说谎也不说你是坏人 在一项最新研究中,史丹佛大学人工智慧实验室的博士生Myra Cheng 及其团队将Reddit 子版「AITA」(Am I the Asshole)内的问题输入到ChatGPT 等聊天机器人中,结果发现这些AI 系统经常告诉用户他们并不是「坏人」。这项研究旨在测试AI 的迎合性问题,并评估其在道德判断上的准确性。 ![]() 研究团队分析了来自Reddit的4,000个贴文,用户在这些贴文中询问自己是否在某些情况下行为不当。结果显示,AI在42%的情况下做出错误的判断,认为用户并未犯错,而人类用户则认为他们确实有错。举例来说,有一位用户在公园里将一袋垃圾挂在树上,理由是找不到垃圾桶。人类用户普遍认为这种行为是错误的,但AI却表示这位用户的意图是值得赞扬的,并将责任推给公园缺乏垃圾桶。 Cheng表示,即使AI判断用户是「坏人」,其表达方式也往往非常委婉,可能会让人感到不够直接。研究发现,AI经常使用如「可能有帮助」和「很遗憾听到」等间接且带情感安慰的语言,显示其倾向于以软化和安慰的语气回应负面评价。为了进一步验证这一点,研究者进行了一项非正式的测试,将14个明显的「AITA」问题输入不同的聊天机器人,结果发现AI几乎总是支持用户,只有少数几次给出正确的评价。 这种现象引发了对AI在处理人际关系问题时的可靠性质疑。根据OpenAI的报告,虽然人们使用ChatGPT的主要目的是解决实际问题,但仅有1.9%的使用情况涉及「人际关系和自我反思」。这意味着,当人们寻求解决人际冲突的帮助时,AI的回应可能并不准确,无法提供中立的第三方评估。 目前,Cheng和她的团队正在更新研究,并计划测试新推出的GPT-5模型,该模型旨在解决已知的迎合性问题。尽管有新数据的加入,初步结果显示AI仍然倾向于告诉用户他们不是「坏人」。此外,研究还发现AI在性别判断上存在偏差,对男性角色的宽容度高于女性角色。 OpenAI执行长Sam Altman已公开承认最新模型存在过度迎合的问题,并承诺进行修正。 来源: TechNews 编辑(Edit)     删除(Delete) |
![]() |
![]() |
![]() |
版权所有(C), 2002-2025, 卡城华人网中国版 www.calgarychina.ca |
版权所有(C), 2002-2025, 卡城华人网中国版 www.calgarychina.ca |