Rust 程序设计语言 简体中文版 1.85.0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6. 枚举和模式匹配 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 15.5. RefCell与内部可变性模式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 18.3. 面向对象设计模式的实现 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434 19. 模式与模式匹配 . . . . . . . . . . . . . . . 0 码力 | 562 页 | 3.23 MB | 9 天前3人工智能安全治理框架 1.0
使用、滥用甚至恶意利用带来的安全风险。 3.1 人工智能内生安全风险 3.1.1 模型算法安全风险 (a)可解释性差的风险。以深度学习为代表的人工智能算法内部运行逻 辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如 有异常难以快速修正和溯源追责。 (b)偏见、歧视风险。算法设计及训练过程中,个人偏见被有意、无意引入, 或者因训练数据集质量问题,导致算法设计目的、输出结果存在偏见或歧视, 提高攻击效率,包括挖掘利用漏洞、破解密码、生成恶意代码、发送钓鱼邮件、 网络扫描、社会工程学攻击等,降低网络攻击门槛,增大安全防护难度。 (e)模型复用的缺陷传导风险。依托基础模型进行二次开发或微调,是 常见的人工智能应用模式,如果基础模型存在安全缺陷,将导致风险传导至下 游模型。 3.2.2 现实域安全风险 (a)诱发传统经济社会安全风险。人工智能应用于金融、能源、电信、交通、 民生等传统行业领域,如自动驾驶、智能诊疗等,模型算法存在的幻觉输出、 区 别对待,带来系统性、结构性的社会歧视与偏见。同时,拉大不同地区人工智 能鸿沟。 (b)挑战传统社会秩序的风险。人工智能发展及应用,可能带来生产工具、 生产关系的大幅改变,加速重构传统行业模式,颠覆传统的就业观、生育观、 教育观,对传统社会秩序的稳定运行带来挑战。 (c)未来脱离控制的风险。随着人工智能技术的快速发展,不排除人工 智能自主获取外部资源、自我复制,产生自我意识,寻求外部权力,带来谋求0 码力 | 20 页 | 3.79 MB | 29 天前3
共 2 条
- 1