Rust 程序设计语言 简体中文版 1.85.0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.1. 变量与可变性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 4.2. 引用与借用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 7.2. 定义模块来控制作用域与私有性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .0 码力 | 562 页 | 3.23 MB | 9 天前3人工智能安全治理框架 1.0
(e)输出不可靠风险。生成式人工智能可能产生 “幻觉”,即生成看似合理, 实则不符常理的内容,造成知识偏见与误导。 (f)对抗攻击风险。攻击者通过创建精心设计的对抗样本数据,隐蔽地 误导、影响,以至操纵人工智能模型,使其产生错误的输出,甚至造成运行瘫痪。 3.1.2 数据安全风险 (a)违规收集使用数据风险。人工智能训练数据的获取,以及提供服务 与用户交互过程中,存在未经同意收集、不当使用数据和个人信息的安全风险。 (b)训练数据含不当内容、被 (c)两用物项和技术滥用风险。因不当使用或滥用人工智能两用物项和 技术,对国家安全、经济安全、公共卫生安全等带来严重风险。包括极大降低 非专家设计、合成、获取、使用核生化导武器的门槛;设计网络武器,通过自 动挖掘与利用漏洞等方式,对广泛潜在目标发起网络攻击。 3.2.3 认知域安全风险 (a)加剧 “信息茧房” 效应风险。人工智能将广泛应用于定制化的信息 服务,收集用户信息,分析用户类型、需求、意图、喜好、行为习惯,甚至特 4 伦理域安全风险 (a)加剧社会歧视偏见、扩大智能鸿沟的风险。利用人工智能收集分析 人类行为、社会地位、经济状态、个体性格等,对不同人群进行标识分类、区 别对待,带来系统性、结构性的社会歧视与偏见。同时,拉大不同地区人工智 能鸿沟。 (b)挑战传统社会秩序的风险。人工智能发展及应用,可能带来生产工具、 生产关系的大幅改变,加速重构传统行业模式,颠覆传统的就业观、生育观、 教育观,对传统社会秩序的稳定运行带来挑战。0 码力 | 20 页 | 3.79 MB | 28 天前3
共 2 条
- 1