人工智能安全治理框架 1.0
或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 甚至输出存在民族、宗教、国别、地域等歧视性内容。 (c)鲁棒性弱风险。由于深度神经网络存在非线性、大规模等特点,人 工智能易受复杂多变运行环境或恶意干扰、诱导的影响,可能带来性能下降、 决策错误等诸多问题。- 4 - 人工智能安全治理框架 (d)被窃取、篡改的风险。参数、结构、功能等算法核心信息,面临被 逆向攻击窃 施制造发展壁垒,恶意阻断 全球人工智能供应链,带来突出的芯片、软件、工具断供风险。 3.2 人工智能应用安全风险 3.2.1 网络域安全风险 (a)信息内容安全风险。人工智能生成或合成内容,易引发虚假信息传播、 歧视偏见、隐私泄露、侵权等问题,威胁公民生命财产安全、国家安全、意识 形态安全和伦理安全。如果用户输入的提示词存在不良内容,在模型安全防护 机制不完善的情况下,有可能输出违法有害内容。 模型算法安全风险应对 (a)不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、- 8 - 人工智能安全治理框架 推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结 果的过程。 (b)在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可 能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。 4.1.2 数据安全风险应对 (a) 在训练数据和用户交互数据的收集、存储、使用、加工、传输、提0 码力 | 20 页 | 3.79 MB | 29 天前3Rust 程序设计语言 简体中文版 1.85.0
= {s2}"); 这段代码能正常运行,并且明确产生图 4-3 中行为,这里堆上的数据确实被复制了。 当出现 clone 调用时,你知道一些特定的代码被执行而且这些代码可能相当消耗资源。你很容 易察觉到一些不寻常的事情正在发生。 只在栈上的数据:拷贝 这里还有一个没有提到的细节。这些代码使用了整型并且是有效的,它们是示例 4-2 中的一部 分: let x = 5; let 5 来提取变量 s 的第一个 单词,不过这是有 bug 的,因为在我们将 5 保存到 word 之后 s 的内容已经改变。 我们不得不时刻担心 word 的索引与 s 中的数据不再同步,这既繁琐又易出错!如果编写这么 一个 second_word 函数的话,管理索引这件事将更加容易出问题。它的签名看起来像这样: fn second_word(s: &String) -> (usize, usize) height: 50, } 107/562Rust 程序设计语言 简体中文版 我们可以看到第一点输出来自 src/main.rs 第 10 行,我们正在调试表达式 30 * scale,其结 果值是 60(为整数实现的 Debug 格式化是只打印它们的值)。在 src/main.rs 第 14 行 的 dbg! 调用输出 &rect1 的值,即 Rectangle 结构。这个输出使用了更为易读的0 码力 | 562 页 | 3.23 MB | 9 天前3
共 2 条
- 1