人工智能安全治理框架 1.0
各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当 使用、滥用甚至恶意利用带来的安全风险。 3.1 人工智能内生安全风险 3.1.1 模型算法安全风险 (a)可解释性差的风险。以深度学习为代表的人工智能算法内部运行逻 辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如 有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)不当使用引发信息泄露风险。政府、企业等机构工作人员在业务工 作中不规范、不当使用人工智能服务,向大模型输入内部业务数据、工业信息, 导致工作秘密、商业秘密、敏感业务数据泄露。 (d)滥用于网络攻击的风险。人工智能可被用于实施自动化网络攻击或- 6 - 人工智能安全治理框架 提高攻击效率,包括挖掘利用 训练数据、算力设施、模型算法、产品服务、应用场景各方面采取技术措施予 以防范。 4.1 针对人工智能内生安全风险 4.1.1 模型算法安全风险应对 (a)不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、- 8 - 人工智能安全治理框架 推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结 果的过程。 (b)在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可0 码力 | 20 页 | 3.79 MB | 1 月前3Rust 程序设计语言 简体中文版 1.85.0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 15.5. RefCell与内部可变性模式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 我们把每种可能的状态称为一种 枚举成员(variant)。 第六章将介绍枚举的更多细节。这里的 Result 类型将用来编码错误处理的信息。 Result 的成员是 Ok 和 Err,Ok 成员表示操作成功,内部包含成功时产生的值。Err 成员则意 味着操作失败,并且 Err 中包含有关操作失败的原因或方式的信息。 Result 类型的值,像其他类型一样,拥有定义于其实例上的方法。Result 的实例拥有 5 上。接着通过 let x = 创建了一个新变量 x,获取初始值并加 1,这样 x 的值就变成 6 了。然后,在使用花括号创建的内部作用域内,第三个 let 语句也遮 蔽了 x 并创建了一个新的变量,将之前的值乘以 2,x 得到的值是 12。当该作用域结束时, 内部遮蔽的作用域也结束了,x 又返回到 6。运行这个程序,它会有如下输出: $ cargo run Compiling variables 0 码力 | 562 页 | 3.23 MB | 10 天前3
共 2 条
- 1