人工智能安全治理框架 1.0
(d)被窃取、篡改的风险。参数、结构、功能等算法核心信息,面临被 逆向攻击窃取、修改,甚至嵌入后门的风险,可导致知识产权被侵犯、商业机 密泄露,推理过程不可信、决策输出错误,甚至运行故障。 (e)输出不可靠风险。生成式人工智能可能产生 “幻觉”,即生成看似合理, 实则不符常理的内容,造成知识偏见与误导。 (f)对抗攻击风险。攻击者通过创建精心设计的对抗样本数据,隐蔽地 误导、影响,以至操纵人 风险。 (b)训练数据含不当内容、被 “投毒” 风险。训练数据中含有虚假、偏见、 侵犯知识产权等违法有害信息,或者来源缺乏多样性,导致输出违法的、不良 的、偏激的等有害信息内容。训练数据还面临攻击者篡改、注入错误、误导数 据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度下降。 (c)训练数据标注不规范风险。训练数据标注过程中,存在因标注规则 不完备、标注人员能力不够、标 (d)数据泄露风险。人工智能研发应用过程中,因数据处理不当、非授 权访问、恶意攻击、诱导交互等问题,可能导致数据和个人信息泄露。 3.1.3 系统安全风险 (a)缺陷、后门被攻击利用风险。人工智能算法模型设计、训练和验证 的标准接口、特性库和工具包,以及开发界面和执行平台可能存在逻辑缺陷、- 5 - 人工智能安全治理框架 漏洞等脆弱点,还可能被恶意植入后门,存在被触发和攻击利用的风险。 (b)算力安全风险。人工智能训练运行所依赖的算力基础设施,涉及多源、0 码力 | 20 页 | 3.79 MB | 29 天前3Rust 程序设计语言 简体中文版 1.85.0
这样所有这些改变都是安全的并符合借用规则。 哈希函数 HashMap 默认使用一种叫做 SipHash 的哈希函数,它可以抵御涉及哈希表(hash table) 的 拒绝服务(Denial of Service, DoS)攻击。然而这并不是可用的最快的算法,不过为了更高的 安全性值得付出一些性能的代价。如果性能监测显示此哈希函数非常慢,以致于你无法接受, 你可以指定一个不同的 hasher 来切换为其它函数。hasher behavior)。你会得到任何 对应数据结构中这个元素的内存位置的值,甚至是这些内存并不属于这个数据结构的情况。这 被称为 缓存区过读(buffer overread),并可能会导致安全漏洞,比如攻击者可以像这样操作 索引来读取储存在数据结构之后未经授权的数据。 为了保护程序不受此类漏洞的影响,如果尝试读取一个索引不存在的元素,Rust 会停止执行 并拒绝继续。让我们来试一试,看看结果: $ 程处理完任务时,它会返回空闲线程池中等待处 理新任务。线程池允许我们并发处理连接,提高服务端的吞吐量。 我们会将池中线程限制为较少的数量,以防拒绝服务(Denial of Service,DoS)攻击;如果 程序为每一个接收的请求都新建一个线程,某人向服务端发起千万级的请求时会耗尽服务器的 资源并导致请求处理陷入停滞。 不同于分配无限的线程,线程池中将有固定数量的等待线程。当新进请求时,将请求发送到线0 码力 | 562 页 | 3.23 MB | 9 天前3
共 2 条
- 1