美国国防部正加快引入先进算法工具,将商业领域的通用模型应用于机密系统。OpenAI近日宣布与美国国防部达成合作,其模型将被部署在五角大楼的机密网络中执行特定任务。,就在合作公布前一天,另一家美国科技公司因与军方在技术使用范围和风险控制上存分歧而谈判破裂。这表明美军与科技界在技术应用的边界和责任划分上仍存在明显矛盾。 原因: 1. 美军长期推进"数据驱动作战",对指挥控制、情报分析和无人系统的升级需求日益迫切,希望通过引入商业公司的算力、模型和工程化优势来缩短研发周期。 2. 资本对前沿模型的追捧加剧了企业的扩张压力,商业公司在高成本训练、算力采购和全球竞争中需要稳定的订单和资金支持。 3. 技术外溢引发的安全担忧促使美国防部倾向于在可控环境中引入并锁定关键技术能力,形成研发到部署的闭环。公开资料显示,OpenAI近年来逐步淡化对军事用途的限制条款,反映出其战略重心正向商业化和规模化应用转移。 影响: 1. 军事应用边界面临重新界定。虽然OpenAI强调合作遵循企业原则,包括禁止用于"国内大规模监控"和确保人类对武力使用的最终责任,但这些原则多为自我约束,具体如何落实到合同条款、系统设计和追责机制中仍缺乏透明信息。 2. 加速无人化和自主能力发展。OpenAI此前参与了军方资助的自主无人机群项目,其模型被用于将语音指令转换为数字指令。这类技术与目标识别、路径规划等系统结合后可能大幅提升作战效率,但也可能加剧关于人类控制程度的争议。 3. 企业面临声誉压力。若公众将这种合作视为"利润优先于安全",可能影响企业形象、产品生态和人才吸引力。同时,巨额融资和高估值也让外界更加关注其商业动机。 对策: 1. 明确使用范围和禁止事项,将其写入合同和技术规范,并建立可追溯的日志管理系统。 2. 完善人类控制机制,在高风险环节设置强制确认和分级授权程序。 3. 引入第三方审计和安全评估,持续测试模型偏差、误判风险等问题。 4. 推动国际规则制定,在自主武器、算法决策各上形成基本共识。 前景: 大国竞争背景下,美军与科技公司的合作将更加频繁,更多通用模型进入涉密领域可能成为趋势。但技术的双重用途特性决定了有关争议将持续存在:一上是追求军事优势的效率竞赛,另一方面是伦理法律的实际约束。未来的竞争不仅在于技术实力强弱,更在于治理体系的可靠性和责任划分的明确性。
技术本身是中性的,但应用方向的选择关乎人类共同命运;当商业利益主导技术发展、安全承诺让位于市场竞争时,人工智能的发展轨迹就可能偏离造福人类的初衷。国际社会需要警惕技术军事化的系统性风险,建立完善的技术伦理和国际治理机制。历史经验表明,忽视安全和伦理的技术狂奔终将付出沉重代价。确保新兴技术服务于和平与发展而非加剧冲突对抗至关重要。