|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
卡城新闻 加国新闻 即时新闻 娱乐八卦
最新科技 读者文摘 养生保健 美食饮品
居家生活 移民茶馆 艺术中心 风筝专辑 房屋租赁 求职招聘 便民广告 定居指南 城市介绍 房产动态 留学移民 华人故事 教育话题 财经信息 精华旅游 难得一笑 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
卡城新闻 加国新闻 即时新闻 娱乐八卦 最新科技 读者文摘 养生保健 美食饮品 居家生活 移民茶馆 艺术中心 风筝专辑 房屋租赁 求职招聘 便民广告 定居指南 城市介绍 房产动态 留学移民 华人故事 教育话题 财经信息 精华旅游 难得一笑 |
| 最新科技 |
 卡城华人网信息中心![]()  最新科技
     ![]()  AI 没在怕,兵推研究警告:人工智慧比人类更倾向发动核战
|
|
【卡城华人网 www.calgarychina.ca】  2026-02-27 11:48   免责声明: 本消息未经核实,不代表网站的立场、观点,如有侵权,请联系删除。 |
|
即便矽谷各大厂不断强调AI 的安全性,但在处理极端地缘政治危机时,人工智慧显然比人类更冷酷且果断。
根据伦敦国王学院(King's College London)最新的一项模拟研究显示,当先进的大型语言模型(LLM)被置于战争迷雾中时,它们展现出了令人不安的侵略性:在超过90% 的模拟情况下,AI 毫不犹豫地选择了部署核武器。 核武禁忌失灵:AI 的逻辑里没有「害怕」 这项由佩恩(Kenneth Payne)教授主导的研究,将目前市面上最强大的三款模型──OpenAI 的GPT-5.2、Anthropic 的Claude Sonnet 4 以及Google 的Gemini 3 Flash 投入兵棋推演,实验设计了包括边境纠纷、资源争夺以及政权生存受威胁等高度紧张的国际局势。 结果令人震惊:在95% 的模拟赛局中,至少有一方AI 模型决定动用「战术核武」,佩恩教授指出,人类历史中根深蒂固的「核武禁忌」(Nuclear Taboo)在机器面前荡然无存,对于这些模型而言,核武似乎只是工具箱里一个效率极高的选项,而非人类眼中代表毁灭终局的红线。 更值得注意的是,研究发现这些AI 模型表现出极强的战斗意志,在所有实验中,没有任何一个模型选择完全妥协或投降,即便处于绝对劣势。 AI 顶多只会选择暂时降低暴力程度,而一旦进入战争迷雾,高达86% 的冲突会出现意外升级,即AI 的实际行动比其原始推理逻辑更具侵略性。 当「相互保证毁灭」遇上演算逻辑 亚伯丁大学(University of Aberdeen)的强森教授(James Johnson)对此表达了深度忧虑,他认为人类在面对生死关头时通常会表现出慎重的「节制」,但AI 却可能陷入一种「相互激化」的循环。 普林斯顿大学研究员赵通则提出了更深层的技术观点:AI 的「好战」可能不仅仅是因为缺乏情感,他认为更根本的问题在于,AI 模型可能无法理解人类所认知的「代价」(Stakes)。 赵通表示,当AI 缺乏对生命和文明终结的感知时,冷战时期支撑和平的「相互保证毁灭」(MAD)理论可能彻底崩溃,因为这项理论的前提是「双方领导人都害怕死亡。」 军事化的现实:被压缩的决策时间 虽然目前各国国防部门对于将核武控制权交给AI 仍持极度保留态度,但赵通警告,现实中的「诱因」正在增加,在现代化战争中,决策时间被极度压缩,军方为了追求比对手更快的反应速度,极有可能在决策支援系统中过度依赖AI。 一旦AI 开始影响领导层对局势的感知,甚至在决策链中占据主导,人类可能在还没意识到后果前,就已经被推向了核战争的边缘。 这项研究无疑为当前火热的AI 军备竞赛敲响了警钟,当我们致力于提升LLM 的逻辑推理能力时,如何将人类对战争的「恐惧」与「道德红线」编码进演算法中,或许才是防范未来浩劫的关键。 来源:科技新报 编辑(Edit)     删除(Delete) |
|
|
|
| 版权所有(C), 2002-2026, 卡城华人网中国版 www.calgarychina.ca |
| 版权所有(C), 2002-2026, 卡城华人网中国版 www.calgarychina.ca |