Palmer Luckey:应允许AI在战场上决定谁生谁死

Palmer Luckey:应允许AI在战场上决定谁生谁死


Luckey 在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。 与此同时,科技企业在是否参与军用 AI 研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将 AI 应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。 去年有研究团队使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base 等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。


Published at: 2025-12-08 12:35:20

Still want to read the full version? Full article