随着人工智能发展,像 ChatGPT、DeepSeek 这样的**大语言模型(LLM)**在军事领域的潜力引起广泛讨论。它们是否可能真正参与战争规划、甚至指挥?公开资料显示,答案是:LLM可以成为军事决策辅助工具,但绝不应成为独立指挥者。
一、LLM在军事中的潜在用途
决策支持与快速方案生成
LLM可以快速分析大量资料、生成多种作战方案,并提供优缺点对比,辅助指挥官做决策。
战争演练与红方模拟
LLM可模拟对手行动或测试多种“假设场景”,加速战争演练和战术评估。
情报汇总与异常分析
对海量传感器和信息流,LLM可帮助撰写简报、整理情报并标记异常数据,但输出仍需人工验证。
人机协作
LLM可协调无人机、后勤、支援系统等多种模块,实现“忠诚翼伴”的协作,但必须在人类监督下运作。
二、LLM不能独立指挥的原因
信息幻觉与错误
LLM可能生成自信但错误的建议,若直接用于指挥,将带来严重风险。
脆弱性与对抗风险
模型可被对抗性输入或篡改数据误导。
可解释性不足
很难证明模型为什么做出某个方案,难以追责。
升级与误判风险
自动化决策可能导致冲突升级,增加不可控风险。
三、各国实践与政策
四、关键保障措施
人类在环/在控:关键决策必须有人类批准。
严格测试与红队演练:确保模型在各种压力环境下可靠。
数据与训练安全:防止训练数据或传感器数据被篡改。
可追溯性与审计:所有输出必须有解释、日志记录以备审查。
权限与边界控制:模型不能擅自建议超出权限的行动。
国际规范与透明:减少误判和冲突风险。
五、战略风险
六、总结
LLM将改变军事规划和思维方式:加速分析、自动化生成方案、丰富模拟与演练。
但在关键指挥、致命行动和冲突升级决策上,LLM仍不能独立作主。正确的方向是:让大语言模型辅助人类指挥官决策,并配合严格治理、测试和国际规范。