k8·凯发天生赢家·一触即发(中国区)官方网站

人工智能安全治理框架1.0版
2024.10.16 | Author:Xiaonan SHI | Source:Merits & Tree Law Offices
2024年9月9日,国家网络安全宣传周主论坛上,全国网络安全标准化技术委员会(以下称“网安标委”)发布了《人工智能安全治理框架》1.0版(以下称“《AI安全治理框架》”)。
 
本次发布的《AI安全治理框架》是为了贯彻我国2023年10月18日提出的《全球人工智能治理倡议》制定的指导性文件,针对人工智能安全治理提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享的治理原则,因此我们针对该文件的相关要点进行梳理,以期明晰我国人工智能安全的主要风险点以及应当采取的治理措施。
 
 
一、目前我国人工智能相关法律法规体系

 

目前我国虽然尚未完成《人工智能法》的制定,但是已经有多部法律法规、国标,以及待出台的重要文件(以下称“已生效法律法规等”)专门针对人工智能,特别是生成式人工智能提出了完善的监管要求,主要包括:
 
 
 

名称以及主要内容

发布部门

1

《生成式人工智能服务管理暂行办法》

针对生成式人工智能产品的数据合规、算法合规、知识产权合规、内容合规进行全方位合规要求的规定

国家互联网信息办公室等

2

《互联网信息服务算法推荐管理规定》

针对包括生成合成类算法在内的各类算法的合规规定

国家互联网信息办公室等

3

《互联网信息服务深度合成管理规定》

针对深度合成类算法进行的合规规定

国家互联网信息办公室等

4

《人工智能生成合成内容标识办法》(征求意见稿)

针对生成式人工智能的生成合成内容进行内容标识的合规要求

国家互联网信息办公室

5

TC260-003《生成式人工智能服务安全基本要求》

作为网安标委发布的技术文件,引导、示范生成式人工智能服务安全的基本要求

全国网络安全标准化技术委员会

6

《网络安全标准实践指南—生成式人工智能服务内容标识方法》

针对生成式人工智能内容标识方法的国家标准

全国网络安全标准化技术委员会

 
 
而《AI安全治理框架》作为目前中国人工智能监管体系中的整体框架性、原则性指导文件,与其他强制性,或者非强制性但有较强指导性的文件相同,都具有重要的指导意义,人工智能企业可以予以遵循,以避免可能发生的风险。同时相关企业也应当注意,除遵守已生效法律法规等以外,《AI安全治理框架》等指导性文件的遵守也同样可以帮助企业降低人工智能新技术带来的各方面风险。
 
 
二、人工智能安全治理框架

 

《AI安全治理框架》对人工智能安全治理框架进行了梳理,主要的人工智能安全治理包括:针对不同的安全风险,提出了技术应对措施与综合治理措施,并汇总整理了安全开发应用指引。基于人工智能企业可以从如上四方面对人工智能安全风险进行防范。
 
2.1 内生安全风险方面
 
由于人工智能与其他技术相比,其安全风险更多的是来自于其自身存在的安全缺陷,特别是模型算法安全、数据安全风险、系统安全风险,因此针对这部分风险相关企业应当理解人工智能的内生缺陷的前提下,针对相关风险进行防范:
 
  • 模型算法安全:
 
由于人工智能存在可解释性差、偏见/歧视、鲁棒性弱风险、被窃取/篡改、输出不可靠内容、对抗攻击的各类风险,因此目前已生效法律法规等已经明确要求生成式人工智能服务提供者应当建立算法机制机理审核、信息发布审核、建立投诉机制等要求降低偏见/歧视、鲁棒性弱等风险,但《AI安全治理框架》进一步建议人工智能服务相关企业从人工智能可解释性、可预测性上,为人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确说明,正确反应人工智能系统产生结果的过程;以及在人工智能设计、研发、部署、维护的全过程中建立实施安全开发规范;同时加强人工智能可解释性研究、建立负责任的研发应用体系。
 
  • 数据安全风险:
 
人工智能在数据安全方面存在违规收集使用数据、训练数据含有不当内容、被投毒、训练数据标注不规范、数据泄露风险,目前已生效法律法规等已经明确要求生成式人工智能服务提供者应当遵守知识产权、个人信息、数据安全等法律法规,并且建立数据安全和个人信息保护、反电信网络诈骗等管理制度和技术措施,但《AI安全治理框架》进一步建议人工智能相关企业对训练数据进行严格筛选,确保不包含核生化导武器等高危领域敏感数据,以及明确要求如果涉及向境外提供人工智能模型算法,应符合出口管制要求;同时也建议完善人工智能数据安全和个人信息保护规范。
 
  • 系统安全风险:
 
人工智能在系统安全方面存在缺陷/后门被攻击利用、算力安全、供应链安全风险,目前已生效法律法规等虽然明确了算法服务/技术提供者应当建立相应的安全评估监测、安全事件应急处置等管理制度和技术措施,采取显性和隐性标识标记人工智能生成物,但《AI安全治理框架》进一步建议人工智能相关企业对聚合多个人工智能模型或系统的平台,应加强风险识别、监测、防护,防止因平台恶意行为或被攻击入侵影响承载的人工智能模型或系统;加强算力平台和系统服务;高度关注包括芯片、软件、工具、算力和数据资源的供应链安全等技术措施;强化人工智能供应链安全保障和建立安全风险威胁信息共享和应急处置机制。
 
2.2 人工智能应用安全风险
 
人工智能用在应用安全层面,由于会通过网络传播因此存在网络域安全风险(信息内容安全、混淆事实/误导用户/绕过鉴权、不当使用引发信息泄露、滥用域网络攻击、模型复用的缺陷传导相关风险);因为会用于金融、能源、电信、交通、民生等传统领域等,因此也会存在现实域安全风险(诱发传统经济社会安全、用于违法犯罪活动、两用物项和技术滥用的相关风险);因为会影响人类认知而可能存在认知域安全风险(加强“信息茧房”效应、用于开展认知战的相关风险);因为会导致伦理问题而存在伦理域安全风险(加剧社会歧视偏见、扩大智能鸿沟、挑战传统社会秩序、未来脱离控制的多方风险)。
 
在存在上述风险的情况下,目前已生效法律法规等在明确规定生成式人工智能服务提供者应当承担网络信息内容生产者责任,履行网络信息安全义务,利用生成式人工智能服务从事违法活动的报告等机制、确保生成内容的可追溯性等,但《AI安全治理框架》建议人工智能相关企业建立安全防护机制、数据护栏等;明确服务提供边界;防范可以对用户身份、喜好以及个人思想倾向进行判断的人工智能系统的滥用;明确建议实施人工智能应用分类分级管理以及建立人工智能服务可追溯管理制度,以及加大人工智能安全人才培养力度,建立健全人工智能安全教育等,促进人工智能安全治理国际交流合作。
 
 
三、针对不同主体制定了安全开发应用指引
 
《AI安全治理框架》针对模型算法研发者、人工智能服务提供者、重点领域使用者(包括政府部门、关键信息基础设施以及直接影响公共安全和公民生命健康安全的领域等重点领域使用者)、社会公众分别制定了安全开发/应用指引,这部分指引可以成为相关主体人工智能安全开发应用解决方案的重要参考。

《AI安全治理框架》从目前人工智能产品以及服务的全方位风险提供了技术应对措施和综合治理措施的解决方案,同时还为不同主体提供了安全开发应用指引方案,建议人工智能相关企业除遵守已生效法律法规等外,也参考《AI安全治理框架》搭建尽可能降低人工智能各方面风险的安全治理机制。

One-stop legal services, with you every step of the way.

Subscribe
*
*
*
*
*
*
Click Refresh
Business areas that interest you (multiple choices)
The industry field you are interested in (multiple choices)
Reminder:
Submitting this form is considered as your request to receive industry research reports and publications from Zhi De Law Firm.
Disclaimers:
The industry research reports and publications you subscribe to do not represent the legal opinions of Zhide Law Firm on relevant issues. If you need legal advice, please consult or seek assistance from qualified professionals.
WeChat official account
友情链接: