美国国防部与谷歌的深度合作正在加速推进。
根据彭博社报道,谷歌已向美国国防部超过300万名文职与军职人员部署了Gemini AI智能体系统。
美国国防部负责研究与工程事务的副部长埃米尔·迈克尔表示,这些工具初期仅限于非机密网络环境使用,将其扩展到机密和最高机密系统的计划仍在讨论阶段。
从实际应用看,首批上线的八个AI智能体主要承担行政事务处理职能。
这些智能体可以自动整理会议纪要、编制部门预算、审查行动计划是否符合美国国家防务战略等工作。
谷歌副总裁吉姆·凯利在最近的声明中指出,国防部工作人员还可以通过自然语言指令自行创建定制化的AI智能体,这大幅提升了系统的灵活性和适用范围。
自去年12月GenAI.mil门户正式启用以来,五角大楼约120万名员工已通过谷歌AI聊天机器人完成各类非机密任务。
数据显示,工作人员提交了约4000万条不同提示,上传了超过400万份文件。
这些数字充分反映了国防部对AI工具的实际需求和使用热情。
然而,人员培训进度明显滞后于实际应用需求。
自12月以来,仅有26000人完成了正式的AI培训课程,与数百万使用者的规模形成鲜明对比。
尽管如此,培训场次已经全部约满,越来越多员工正在排队加入AI工具的使用行列,这表明国防部内部对这一技术的认可度在不断提升。
美国国防部正在迅速扩大与多家AI公司的合作范围。
值得注意的是,国防部与AI公司Anthropic之间曾发生合作冲突。
Anthropic拒绝移除其技术中针对国内监控和自主武器系统的安全限制,随后被国防部列为"供应链风险"。
Anthropic随即表示将通过诉讼挑战这一决定。
这一事件在科技行业内引发广泛争议,约900名谷歌员工和100名OpenAI员工签署公开信,呼吁各自公司坚持保留相关安全限制。
在与Anthropic关系紧张之后,美国国防部已分别与OpenAI和xAI达成合作协议,将AI技术部署到受限网络环境中。
与此同时,谷歌也在2月初悄悄修改了涉及这些用途的"AI原则"政策,调整了对军事应用的限制条件。
从历史背景看,谷歌与五角大楼的合作并非一帆风顺。
2018年,谷歌因参与"Project Maven"项目而引发公司内部强烈反弹。
该项目利用AI技术分析无人机视频画面,数千名员工为此进行了抗议。
谷歌最终选择不续签该合同。
然而,近年来谷歌对军事项目合作的态度逐渐放松,与国防部的合作范围不断扩大,这反映出科技企业在国家安全需求面前的政策调整。
智能技术在军事领域的应用浪潮已不可逆转,但其引发的安全伦理争议将持续考验各方智慧。
如何在技术创新与责任约束之间找到平衡点,不仅关乎单次合作的成败,更将深刻塑造未来人机协作的边界与规则。
这场科技与伦理的博弈,或将成为检验现代社会治理能力的重要标尺。