人工智能安全治理框架 1.0
不完备、标注人员能力不够、标注错误等问题,不仅会影响模型算法准确度、 可靠性、有效性,还可能导致训练偏差、偏见歧视放大、泛化能力不足或输出 错误。 (d)数据泄露风险。人工智能研发应用过程中,因数据处理不当、非授 权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。 3.1.3 系统安全风险 (a)缺陷、后门被攻击利用风险。人工智能算法模型设计、训练和验证 的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 机制不完善的情况下,有可能输出违法有害内容。 (b)混淆事实、误导用户、绕过鉴权的风险。人工智能系统及输出内容 等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统, 难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)不当使用引发信息泄露风险。政府、企业等机构工作人员在业务工 闻、- 7 - 人工智能安全治理框架 图像、音频、视频等,宣扬恐怖主义、极端主义、有组织犯罪等内容,干涉他 国内政、社会制度及社会秩序,危害他国主权;通过社交机器人在网络空间抢 占话语权和议程设置权,左右公众价值观和思维认知。 3.2.4 伦理域安全风险 (a)加剧社会歧视偏见、扩大智能鸿沟的风险。利用人工智能收集分析 人类行为、社会地位、经济状态、个体性格等,对不同人群进行标识分类、区0 码力 | 20 页 | 3.79 MB | 29 天前3Rust 程序设计语言 简体中文版 1.85.0
`target/debug/variables` The value of x is: 5 The value of x is: 6 通过 mut,允许把绑定到 x 的值从 5 改成 6。是否让变量可变的最终决定权仍然在你,取决于 在某个特定情况下,你是否认为变量可变会让代码更加清晰明了。 常量 类似于不可变变量,常量 (constants) 是绑定到一个名称的不允许改变的值,不过常量与变量 还是有一些区别。 当尝试在调用 takes_ownership 后使用 s 时,Rust 会抛出一个编译时错误。这些静态检查使 我们免于犯错。试试在 main 函数中添加使用 s 和 x 的代码来看看哪里能使用它们,以及所有 权规则会在哪里阻止我们这么做。 返回值与作用域 返回值也可以转移所有权。示例 4-4 展示了一个返回了某些值的示例,与示例 4-3 一样带有类 似的注释。 文件名:src/main.rs fn main() 所以什么也不会发生 变量 s 有效的作用域与函数参数的作用域一样,不过当 s 停止使用时并不丢弃引用指向的数 据,因为 s 并没有所有权。当函数使用引用而不是实际值作为参数,无需返回值来交还所有 权,因为就不曾拥有所有权。 我们将创建一个引用的行为称为 借用(borrowing)。正如现实生活中,如果一个人拥有某样 东西,你可以从他那里借来。当你使用完后,必须还回去。因为我们并不拥有它的所有权。0 码力 | 562 页 | 3.23 MB | 9 天前3
共 2 条
- 1