中国信通院启动智能助理智能体标准编制与试评估筹备,聚焦权限可控与行为可信

人工智能技术发展步入新阶段;随着以OpenAI等机构推出的自主执行型智能体产品面世,AI应用正从被动的"对话助手"模式向主动的"自主执行"模式转变。该转变标志着人工智能技术应用范畴的重大拓展,但同时也带来了前所未有的管理挑战。 当前,智能体类产品在实际应用中暴露出多个值得关注的问题。首先是产品定位边界不清。智能体产品特点是跨越多个应用场景,其产品分类、功能定义诸上存模糊地带,容易导致市场监管和用户理解的偏差。其次是决策过程缺乏透明度。智能体在执行任务时,其决策依据、推理过程往往处于"黑箱"状态,用户难以了解系统如何做出特定决策。第三是权限管理存在漏洞。智能体被赋予的操作权限范围不清晰,可能超出预期范围执行操作,造成权限泛化问题。最后是行动风险控制不足。当智能体独立执行复杂任务时,其潜在风险难以事先评估和预防。 这些问题的出现,根本上源于智能体技术发展速度远超行业标准制定速度。在技术快速迭代的背景下,涉及的产业标准、行业规范严重滞后,产业界缺乏统一的质量评价体系和可信能力标准。此外,智能体涉及多个技术领域交叉融合,包括自然语言处理、知识图谱、任务规划等,标准制定的复杂性也随之提升。 为应对这一形势,中国信通院的标准编制工作聚焦核心问题。《智能助理智能体(Claw)产品可信能力要求》标准将从四个维度展开规范:一是用户权限可管,明确智能体的操作权限边界和权限分级机制;二是执行过程透明,要求系统记录和展示决策路径;三是行为风险可控,建立风险识别和应急预案机制;四是平台和工具能力可信,确保底层支撑系统的安全可靠。 ,中国信通院计划在2026年3月底启动首批试评估工作,并发布评估结果。这一时间节点的选择充分考虑了产业发展周期,为企业预留了充足的整改和适配时间。试评估的推进有助于在标准正式实施前进行充分的市场验证和迭代优化,确保标准的科学性和可操作性。 从更深层的意义看,这项工作说明了我国在人工智能治理上的主动担当。面对全球范围内AI技术快速发展带来的治理空白,中国信通院率先制定行业标准,既为国内产业发展提供指引,也为国际标准制定贡献中国方案。

当人工智能开始替代人类做出决策,建立与之匹配的责任框架就成为数字文明时代的必答题;此次标准建设不仅关乎技术合规,更是对"控制权如何交予机器"这个哲学命题的实践探索。在科技创新与风险防控的平衡上,中国正尝试给出新的范式。