人工智能安全治理框架 1.0
策有重大影响时,做好解释说明预案。 (e)服务提供者应检查研发者提供的责任说明文件,确保责任链条可以 追溯到递归采用的人工智能模型。 (f)服务提供者应提高人工智能风险防范意识,建立健全实时风险监控 管理机制,持续跟踪运行中安全风险。 (g)服务提供者应评估人工智能产品与服务在面临故障、攻击等异常条 件下抵御或克服不利条件的能力,防范出现意外结果和行为错误,确保最低限 度有效功能。 加密技术等保护措施。 (h)重点领域使用者应对人工智能行为和影响进行有效监督,确保人工 智能产品和服务的运行基于人的授权、处于人的控制之下。 (i) 重点领域使用者应避免完全依赖人工智能的决策,监控及记录未采 纳人工智能决策的情况,并对决策不一致进行分析,在遭遇事故时具备及时切 换到人工或传统系统等的能力。 6.4 社会公众安全应用指引 (a)社会公众应提高对人工智能产品安全风险的认识,选择信誉良好的0 码力 | 20 页 | 3.79 MB | 28 天前3
共 1 条
- 1