Rust 程序设计语言 简体中文版 1.85.0
与之相关联的地址数据是 127.0.0.1。第二个实例,loopback, kind 的值是 IpAddrKind 的另一个变体,V6,关联的地址是 ::1。我们使用了一个结构体来将 kind 和 address 打包在一起,现在枚举变体就与值相关联了。 我们可以使用一种更简洁的方式来表达相同的概念,仅仅使用枚举并将数据直接放进每一个枚 举变体而不是将枚举作为结构体的一部分。IpAddr 枚举的新定义表明了 V4 错误是软件开发中不可避免的事实,所以 Rust 有一些处理出错情况的特性。在许多情况下, Rust 要求你承认错误的可能性,并在你的代码编译前采取一些行动。这一要求使你的程序更 加健壮,因为它可以确保你在将代码部署到生产环境之前就能发现错误并进行适当的处理。 Rust 将错误分为两大类:可恢复的(recoverable)和 不可恢复的(unrecoverable)错误。对 于一个可恢复的错误,比如文件未找到 中很多并发错误都是编译时错误,而非运行时错误。 因此,相比花费大量时间尝试重现运行时并发 bug 出现的特定情况,不正确的代码会直接编 译失败并提供解释问题的错误信息。因此,你可以在开发时修复代码,而不是在部署到生产环 境后修复代码。我们给 Rust 的这一部分起了一个绰号无畏并发(fearless concurrency)。无畏 并发令你的代码免于出现诡异的 bug 并可以轻松重构且无需担心会引入新的 bug。0 码力 | 562 页 | 3.23 MB | 9 天前3人工智能安全治理框架 1.0
4 安全开发应用指引方面。明确模型算法研发者、服务提供者、重点 领域用户和社会公众用户,开发应用人工智能技术的若干安全指导规范。 3. 人工智能安全风险分类 人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期 各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当 使用、滥用甚至恶意利用带来的安全风险。 3.1 人工智能内生安全风险 3.1.1 模型算法安全风险 (a)不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、- 8 - 人工智能安全治理框架 推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结 果的过程。 (b)在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可 能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。 4.1.2 数据安全风险应对 (a) 在训练数据和用户交互数据的收集、存储、使用、加工、传输、提 途管理,对特定人群及场景下使用人工智能技术提出相关要求,防止人工智能 系统被滥用。对算力、推理能力达到一定阈值或应用在特定行业领域的人工智 能系统进行登记备案,要求其具备在设计、研发、测试、部署、使用、维护等 全生命周期的安全防护能力。 5.2 建立人工智能服务可追溯管理制度。对面向公众服务的人工智能 系统,通过数字证书技术对其进行标识管理。制定出台人工智能生成合成内容 标识标准规0 码力 | 20 页 | 3.79 MB | 28 天前3
共 2 条
- 1