人工智能安全治理-《人工智能安全治理框架》1.0版解读

《人工智能安全治理框架》1.0版 解读

安全风险与技术应对措施、综合治理措施映射表

image-20240910092008297

image-20240910092021113

站在使用AI的公司的角度

安全风险

主要有以下几个风险。

数据安全风险:

  • 违规收集使用数据风险:人工智能训练数据的获取,以及提供服务与用户交互过程中,存在未经同意收集、不当使用数据和个人信息的安全风险。
  • 数据泄露风险:人工智能研发应用过程中,因数据处理不当、非授权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。

系统安全风险:

  • 缺陷、后门被攻击利用风险:人工智能算法模型设计、训练和验证的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。

网络域风险:

  • 不当使用引发信息泄露风险:政府、企业等机构工作人员在业务工作中不规范、不当使用人工智能服务,向大模型输入内部业务数据、工业信息,导致工作秘密、商业秘密、敏感业务数据泄露。

技术对应措施

数据安全风险:

  • 应对违规收集使用数据风险:在训练数据和用户交互数据的收集、存储、使用、加工、传输、提供、公开、删除等各环节,应遵循数据收集使用、个人信息处理的安全规则,严格落实关于用户控制权、知情权、选择权等法律法规明确的合法权益。

  • 应对数据泄露风险

    • ①对训练数据进行严格筛选,确保不包含核生化导武器等高危领域敏感数据。
    • ②训练数据中如包含敏感个人信息和重要数据,应加强数据安全管理,符合数据安全和个人信息保护相关标准规范。

系统安全风险:

  • 应对缺陷、后门被攻击利用风险
    • ①对人工智能技术和产品的原理、能力、适用场景、安全风险适当公开,对输出内容进行明晰标识,不断提高人工智能系统透明性。
    • ②对聚合多个人工智能模型或系统的平台,应加强风险识别、检测、防护,防止因平台恶意行为或被攻击入侵影响承载的人工智能模型或系统。

综合治理措施

应对数据安全风险中的违规收集使用数据风险数据泄露风险

  • 完善人工智能数据安全和个人信息保护规范:针对人工智能技术及应用特点,明确人工智能训练、标注、使用、输出等各环节的数据安全和个人信息保护要求

应对系统安全风险缺陷、后门被攻击利用风险

  • 人工智能安全风险威胁信息共享和应急处置机制:持续跟踪分析人工智能技术、软硬件产品、服务等方面存在的安全漏洞、缺陷、风险威胁、安全事件等动向,协调有关研发者、服务提供者建立风险威胁信息通报和共享机制。构建人工智能安全事件应急处置机制,制定应急预案,开展应急演练,及时快速有效处置人工智能安全威胁和事件。

应对网络域风险中的不当使用引发信息泄露风险

  • 在使用人工智能产品前,应全面了解其数据处理和隐私保护措施
  • 使用高安全级别的密码策略,启用多因素认证机制,增强账户安全性
  • 增强网络安全、供应链安全等方面的能力,降低人工智能系统被攻击、重要数据被窃取或泄露的风险,保障业务不中断。
  • 合理限制人工智能系统对数据的访问权限,制定数据备份和恢复计划,定期对数据处理流程进行检查。
  • 确保操作符合保密规定,在处理敏感数据时使用加密技术等保护措施

原文地址

https://mp.weixin.qq.com/s/vaFo4eMqHA_U0WFPhJEFcQ
image-20240910100210514

https://www.tc260.org.cn/front/postDetail.html?id=20240909102807

pdf下载地址:

人工智能安全治理框架(中文版).pdf:
https://www.tc260.org.cn/upload/2024-09-09/1725849142029046390.pdf

人工智能安全治理框架(英文版).pdf:

https://www.tc260.org.cn/upload/2024-09-09/1725849192841090989.pdf