2025年9月15日,在2025年国家网络安全宣传周主论坛上,《人工智能安全治理框架》2.0版(以下简称《框架》2.0版)正式发布。这是继2024年9月发布《人工智能安全治理框架》1.0版(以下简称《框架》)后的又一重大制度性成果,体现了我国在人工智能安全治理领域持续深化、与时俱进的战略布局。《框架》2.0版在前一版本的基础上,梳理调整了风险分类,探索提出分级治理原则,强化全生命周期技术治理手段,标志着我国人工智能治理理念从“初步确立”迈向“体系升级”,为推动人工智能在安全可控前提下健康发展提供了制度保障和战略引领。

一、细化风险分类:风险体系的升级与调整

在风险体系上,《人工智能安全治理框架》1.0版将人工智能安全风险分为“内生安全风险”和“应用安全风险”两大类,主要聚焦算法、数据、系统本身以及在应用中可能引发的现实、网络、认知与伦理问题。而《框架》2.0版则对风险分类进行了系统优化,将安全风险细化为三类:技术内生安全风险、技术应用安全风险和应用衍生安全风险。其中,技术内生安全风险主要指算法模型、数据、系统等自身带来的风险,还特别增加了“模型开源风险”,指出基础模型开源可能被不法分子用于训练“作恶模型”;技术应用安全风险侧重模型在具体应用中的风险,强调低质有害信息经网络扩散会污染内容生态;应用衍生安全风险则明确指向人工智能应用衍生出的社会层面风险,如冲击就业结构、资源供需平衡、科研伦理风险等,例如“AI+科研”可能降低高伦理风险科研领域的准入门槛,引发违背社会伦理的研究行为等。这一调整体现了治理思路从“静态治理”向“动态治理”的转变,不仅关注技术本身的安全性,也兼顾其在复杂社会环境中的外溢效应。

二、强化技术治理:构建全生命周期安全能力

在技术治理方面,此次发布的《框架》2.0版引入了多项全新举措,突出研发与应用的全生命周期安全治理理念,特别指出要在人工智能系统的设计、开发、测试、部署、运维等各个环节全面嵌入安全考量。对比《框架》,《框架》2.0版明显加大了对技术和工程措施的重视,体现了从技术到管理的协同框架。前者的技术应对措施主要针对模型算法、训练数据、算力设施等提出静态加固手段,而新版则更多强调持续演进与动态更新。例如,《框架》2.0版要求建立治理措施动态调整机制,应对技术迭代带来的不确定性;新增的“分级管理”也意味着根据不同风险等级采取差异化的技术手段。

这些变化标志着我国的人工智能治理思路正在从“被动补救”向“主动驾驭”转变,希望建立更敏捷、高动态的治理体系。同时,《框架》2.0版的技术治理更加侧重早期介入、全环节覆盖与灵活调整,与国际上推动可信AI和安全评估的趋势更加契合。国内科研机构制定技术标准与评测体系,搭建了算法安全评估试验场基础设施,支撑从数据安全评估、模型设计与开发安全审计、算法运行时风险监测等贯穿全生命周期的智能算法安全评估,与《框架》2.0版重点强调的全生命周期安全治理不谋而合,也为框架的落地实施提供了可行的技术路径支撑。

三、人才培养与共治共享:共建协同治理生态

此外,《框架》2.0版在人才培养方面和共治共享方面也有一些新表述和新观点值得关注。

在人才培养方面,此前的《框架》曾提出“加大人工智能安全人才培养力度”,要求推动AI安全教育与学科同步发展、依托学校和科研机构培养AI安全设计、开发和治理人才。新版本延续了这一思路,并倡导通过高校、企业与政府合作培养复合型安全人才。有国内媒体就此评论:“《框架》2.0版发布后,需要与产业、学界共同落实人才培养计划,形成产学研一体化的良性互动。”

在共治共享方面,新框架明确倡导多方协同和跨界治理。中央网信办指出,《框架》2.0版将促进构建“跨国界、跨领域、跨行业的协同治理格局”,推动国际多边合作和技术成果共享。也就是说,《框架》2.0版不仅继续强调国际规则和最佳实践的共享,也突出不同部门、领域和国家之间的联动机制。

这一升级体现出人工智能安全治理从“单点发力”向“体系联动”的转变:一方面,通过系统化的人才培养为治理体系提供长效支撑;另一方面,以多元主体的协同合作,形成法律、伦理与标准的共同约束力和执行力。这不仅是我国对人工智能安全治理的深化布局,也是面向全球的制度性贡献,有望推动形成广泛的国际共识与合作机制。

总体来看,《框架》2.0版在风险分类上实现了更为细化和全面的体系升级,在治理方式上体现出从被动向主动的范式转变,在生态建设上凸显了跨界协同和共治共享的战略导向。这不仅为我国人工智能安全治理提供了制度性遵循,也为国际治理贡献了具有中国特色的“中国方案”。(作者:程学旗,中国科学院计算技术研究所副所长、研究员)