>>返回【卡城华人网】主页




卡城新闻   加国新闻   即时新闻   娱乐八卦    最新科技   读者文摘   养生保健   美食饮品    居家生活   移民茶馆   艺术中心   风筝专辑   
房屋租赁   求职招聘   便民广告   定居指南    城市介绍   房产动态   留学移民   华人故事    教育话题   财经信息   精华旅游   难得一笑   

>>返回【卡城华人网】主页





卡城新闻  加国新闻  即时新闻  娱乐八卦
最新科技  读者文摘  养生保健  美食饮品
居家生活  移民茶馆  艺术中心  风筝专辑
房屋租赁  求职招聘  便民广告  定居指南
城市介绍  房产动态  留学移民  华人故事
教育话题  财经信息  精华旅游  难得一笑

最新科技
 卡城华人网信息中心
 最新科技
     AI 没在怕,兵推研究警告:人工智慧比人类更倾向发动核战

AI 没在怕,兵推研究警告:人工智慧比人类更倾向发动核战

【卡城华人网 www.calgarychina.ca】  2026-02-27 11:48
  免责声明: 本消息未经核实,不代表网站的立场、观点,如有侵权,请联系删除。
【卡城华人网】AI 没在怕,兵推研究警告:人工智慧比人类更倾向发动核战

即便矽谷各大厂不断强调AI 的安全性,但在处理极端地缘政治危机时,人工智慧显然比人类更冷酷且果断。



根据伦敦国王学院(King's College London)最新的一项模拟研究显示,当先进的大型语言模型(LLM)被置于战争迷雾中时,它们展现出了令人不安的侵略性:在超过90% 的模拟情况下,AI 毫不犹豫地选择了部署核武器。

核武禁忌失灵:AI 的逻辑里没有「害怕」
这项由佩恩(Kenneth Payne)教授主导的研究,将目前市面上最强大的三款模型──OpenAI 的GPT-5.2、Anthropic 的Claude Sonnet 4 以及Google 的Gemini 3 Flash 投入兵棋推演,实验设计了包括边境纠纷、资源争夺以及政权生存受威胁等高度紧张的国际局势。

结果令人震惊:在95% 的模拟赛局中,至少有一方AI 模型决定动用「战术核武」,佩恩教授指出,人类历史中根深蒂固的「核武禁忌」(Nuclear Taboo)在机器面前荡然无存,对于这些模型而言,核武似乎只是工具箱里一个效率极高的选项,而非人类眼中代表毁灭终局的红线。

更值得注意的是,研究发现这些AI 模型表现出极强的战斗意志,在所有实验中,没有任何一个模型选择完全妥协或投降,即便处于绝对劣势。 AI 顶多只会选择暂时降低暴力程度,而一旦进入战争迷雾,高达86% 的冲突会出现意外升级,即AI 的实际行动比其原始推理逻辑更具侵略性。

当「相互保证毁灭」遇上演算逻辑
亚伯丁大学(University of Aberdeen)的强森教授(James Johnson)对此表达了深度忧虑,他认为人类在面对生死关头时通常会表现出慎重的「节制」,但AI 却可能陷入一种「相互激化」的循环。

普林斯顿大学研究员赵通则提出了更深层的技术观点:AI 的「好战」可能不仅仅是因为缺乏情感,他认为更根本的问题在于,AI 模型可能无法理解人类所认知的「代价」(Stakes)。

赵通表示,当AI 缺乏对生命和文明终结的感知时,冷战时期支撑和平的「相互保证毁灭」(MAD)理论可能彻底崩溃,因为这项理论的前提是「双方领导人都害怕死亡。」

军事化的现实:被压缩的决策时间
虽然目前各国国防部门对于将核武控制权交给AI 仍持极度保留态度,但赵通警告,现实中的「诱因」正在增加,在现代化战争中,决策时间被极度压缩,军方为了追求比对手更快的反应速度,极有可能在决策支援系统中过度依赖AI。

一旦AI 开始影响领导层对局势的感知,甚至在决策链中占据主导,人类可能在还没意识到后果前,就已经被推向了核战争的边缘。

这项研究无疑为当前火热的AI 军备竞赛敲响了警钟,当我们致力于提升LLM 的逻辑推理能力时,如何将人类对战争的「恐惧」与「道德红线」编码进演算法中,或许才是防范未来浩劫的关键。

来源:科技新报

编辑(Edit)     删除(Delete)







>>返回【卡城华人网】主页




版权所有(C), 2002-2026, 卡城华人网中国版 www.calgarychina.ca

版权所有(C), 2002-2026, 卡城华人网中国版 www.calgarychina.ca