动手学深度学习 v2.0
softmax运算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.4.5 小批量样本的矢量化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.4.6 损失函数 . . . 读取数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.5.2 读取小批量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 3.5.3 整合所有组件 4.3 训练模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 7.5 批量规范化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268 7.50 码力 | 797 页 | 29.45 MB | 1 年前3Hadoop 迁移到阿里云MaxCompute 技术方案
...................................................................................... 56 8.1.4 批量迁移 Hive 的表和数据 ..................................................................................... ...................................................................................... 57 8.1.6 批量迁移 Oozie 工作流和节点任务 ................................................................................. Cloud MaxCompute 解决方案 15 资源调度 Fuxi 阿里自研的资源调度系统,类似 Yarn。 数据上传下载 Tunnel 不暴露文件系统,通过 Tunnel 进行批量数据上传下载。 流式接入 Datahub MaxCompute 配套的流式数据接入服务,粗略地类似 kafka,能够通过简单配置归档 topic 数据到 MaxCompute 表 用户接口0 码力 | 59 页 | 4.33 MB | 1 年前3OpenShift Container Platform 4.8 Service Mesh
NetworkPolicies 资源。这是为了确保应用程序和 control plane 可以相互通信。 如果要禁用自动创建和管理 NetworkPolicies 资源,例如为了强制执行公司安全策略,您可以编辑 ServiceMeshControlPlane,将 spec.security.manageNetworkPolicy 设置设置为 false 注意 注意 当您禁用了 spec.security smcp-templates ConfigMap 的用户可升级到 Red Hat OpenShift Service Mesh 2.1。升级后,您可以继续使用现有的 ConfigMap 及其包含的配置集,而 无需编辑 CSV。以前使用不同名称的 ConfigMap 的客户需要重命名 ConfigMap 或升级后更新 CSV。 MAISTRA-2010 AuthorizationPolicy 不支持 request 的 问题无法被简单修复。ServiceMeshControlPlane 资源中的无效项会导致无法恢复的错误。在这 个版本中,这个错误可以被恢复。您可以删除无效的资源,并将其替换为新资源或编辑资源来修 复错误。有关编辑资源的更多信息,请参阅 [配置 Red Hat OpenShift Service Mesh 安装]。 MAISTRA-1502 由于在版本 1.0.10 中修复了 CVE,Istio0 码力 | 344 页 | 3.04 MB | 1 年前3OpenShift Container Platform 4.14 分布式追踪
API。解决办法是禁用 mTLS。(TRACING-3510) 临时 临时解决方案 解决方案 禁用 mTLS,如下所示: 1. 运行以下命令,打开 Tempo Operator ConfigMap 进行编辑: OpenShift Container Platform 4.14 分布式追踪 分布式追踪 6 1 安装 Tempo Operator 的项目。 2. 通过更新 YAML 文件来禁用 Operator API。解决办法是禁用 mTLS。(TRACING-3510) 临时 临时解决方案 解决方案 禁用 mTLS,如下所示: 1. 运行以下命令,打开 Tempo Operator ConfigMap 进行编辑: 安装 Tempo Operator 的项目。 2. 通过更新 YAML 文件来禁用 Operator 配置中的 mTLS: 3. 运行以下命令来重启 Tempo Operator pod: API。解决办法是禁用 mTLS。(TRACING-3510) 临时 临时解决方案 解决方案 禁用 mTLS,如下所示: 1. 运行以下命令,打开 Tempo Operator ConfigMap 进行编辑: 安装 Tempo Operator 的项目。 2. 通过更新 YAML 文件来禁用 Operator 配置中的 mTLS: 3. 运行以下命令来重启 Tempo Operator pod:0 码力 | 100 页 | 928.24 KB | 1 年前3【PyTorch深度学习-龙龙老师】-测试版202112
语言环境为例,介绍如何安装 PyTorch 框架及其它开发软件。 一般来说,开发环境安装分为 4 大步骤:安装 Python 解释器 Anaconda,安装 CUDA 加速库,安装 PyTorch 框架和安装常用编辑器。 1.6.1 Anaconda 安装 Python 解释器是让以 Python 语言编写的代码能够被 CPU 执行的桥梁,是 Python 语言 的核心软件。用户可以从 https://www 命令安装时,可能会出现下载速度缓慢甚至连接断开的情况,需要配置 国内的 pip 源,只需要在 pip install 命令后面带上“-i 源地址”参数即可。上述命令即使用 了清华大学的 pip 源。 1.6.4 常用编辑器安装 使用 Python 语言编写程序的方式非常多,可以使用 ipython 或者 ipython notebook 方式 交互式编写代码,也可以利用 Sublime Text、PyCharm (0.5,), (0.5,)) ])) # 创建 Dataloader 对象,方便以批量形式训练,随机打乱顺序 train_loader=torch.utils.data.DataLoader(train_db, batch_size=batch_size, sh uffle=True)0 码力 | 439 页 | 29.91 MB | 1 年前3Docker 从入门到实践 0.9.0(2017-12-31)
1.16.5 1.16.6 1.17 1.17.1 1.17.2 1.17.3 1.17.4 1.17.5 1.17.6 1.18 1.18.1 自定义网桥 工具和示例 编辑网络配置文件 实例:创建一个点到点连接 Docker 三剑客之 Compose 项目 简介 安装与卸载 使用 命令说明 Compose 模板文件 实战 Django 实战 Rails 改为 edge 或者 test。从 Docker 17.06 开始,edge test 版本的 APT 镜像源也会包含稳定版本的 Docker CE。 Debian 7 需要进行额外的操作: 编辑 /etc/apt/sources.list 将 deb-src 一行删除或者使用 # 注释。 deb-src [arch=amd64] https://download.docker.com/linux/debian mirror 阿里云加速器 DaoCloud 加速器 我们以 Docker 官方加速器为例进行介绍。 Ubuntu 14.04、Debian 7 Wheezy 对于使用 upstart 的系统而言,编辑 /etc/default/docker 文件,在其中的 DOCKER_OPTS 中 添加获得的加速器配置: DOCKER_OPTS="--registry-mirror=https://registry0 码力 | 370 页 | 6.73 MB | 1 年前3Keras: 基于 Python 的深度学习库
categorical_crossentropy, optimizer=keras.optimizers.SGD(lr=0.01, momentum=0.9, nesterov=True)) 现在,你可以批量地在训练数据上进行迭代了: # x_train 和 y_train 是 Numpy 数组 -- 就像在 Scikit-Learn API 中一样。 model.fit(x_train, y_train json_string = model.to_json() # 保存为 YAML yaml_string = model.to_yaml() 生成的 JSON/YAML 文件是人类可读的,如果需要还可以手动编辑。 你可以从这些数据建立一个新的模型: # 从 JSON 重建模型: from keras.models import model_from_json model = model_from_json(json_string) 1])[0] 3.3.9 如何用 Keras 处理超过内存的数据集? 你可以使用 model.train_on_batch(x,y) 和 model.test_on_batch(x,y) 进行批量训练 与测试。请参阅 模型文档。 或 者, 你 可 以 编 写 一 个 生 成 批 处 理 训 练 数 据 的 生 成 器, 然 后 使 用 model.fit_generator(data_0 码力 | 257 页 | 1.19 MB | 1 年前3消息中间件RocketMQ原理解析 - 斩秋
任务提交到线程池。 长轮询向 broker 拉取消息是批量拉取的, 默认设置批量的值为 pullBatchSize = 32, 可配置 消费端 consumer 构建一个消费消息任务 ConsumeRequest 消费一批消息的个数是 可配置的 consumeMessageBatchMaxSize = 1, 默认批量个数为一个 ConsumeRequest 任务 判断是否是正常恢复,系统启动的启动存储服务(DefaultMessageStore)的时候会创 建一个临时文件 abort, 当系统正常关闭的时候会把这个文件删掉 ,这个类似在 linux 下打开 vi 编辑器生成那个临时文件, 所有当这个 abort 文件存在,系统认为是异常恢 复 1) 先按照正常流程恢复 Consume Queue 为什么说先正常恢复, 那么异常恢复在哪呢? 当0 码力 | 57 页 | 2.39 MB | 1 年前3OpenShift Container Platform 4.7 日志记录
字节,这会导致 Elasticsearch 拒绝消息并阻塞整 个缓冲的有效负载。在这个版本中解决了这个问题:被拒绝的载荷丢弃了无效的日志条目并重新 提交剩余的条目。(LOG-1574) 在更新前,编辑 ClusterLogging 自定 自定义资 义资源 源 (CR)不会将 totalLimitSize 的值应用到 Fluentd total_limit_size 字段,这会限制缓冲插件实例的大小。因此,Fluentd 根端点并检索 Elasticsearch 版本所需的 monitor 权限。现在,非管理员用户可以查询 Elasticsearch 部署的根 端点。(BZ#1906765) 在以前的版本中,在某些批量插入的情况下,Elasticsearch 代理在 fluentd 和 Elasticsearch 之间 的连接可能会出现超时问题。因此,fluentd 无法发送信息,并在日志中记录一个 Server Fluentd 日志记录收集器 Pod 及其详情: 输 输出示例 出示例 4.2.3. 配置日志收集器 CPU 和内存限值 日志收集器允许对 CPU 和内存限值进行调整。 流程 流程 1. 编辑 openshift-logging 项目中的 ClusterLogging 自定义资源(CR): 根据需要指定 CPU 和内存限值及请求。显示的值是默认值。 $ oc get pods --selector0 码力 | 183 页 | 1.98 MB | 1 年前3OpenShift Container Platform 4.14 发行注记
命名的资源且标准搜索功 能没有缩小搜索范围时,这个操作很有用。 点工具栏上的 Help 按钮并点下拉列表中的 Share Feedback 来提供有关功能并报告错误的直接 反馈。 在 YAML 编辑器中显示和隐藏工具提示。因为工具提示仍然存在,所以每次进入到页面时,您不 需要更改工具提示。 为所有用户配置 web 终端镜像。如需更多信息,请参阅配置 Web 终端。 1.3.4.1.1. 动态插件增 章 OPENSHIFT CONTAINER PLATFORM 4.14 发 发行注 行注记 记 37 开 开发人 人员控制台 控制台 在以前的版本中,如果您尝试在 Developer 控制台中编辑 Helm chart repository 仓库,进入 Helm,点 Repositories 标签页,然后在 菜单中选择 Edit HelmChartRepository,则会出 现一个错误页面,它显示了一个 上运行的集群,在安装取消置备阶段,安装程序会按顺序删除 对象存储容器。这个行为会导致对象的缓慢和低效删除,特别是对于大型容器来说。此问题部分 发生,因为使用 Swift 容器随时间积累的对象的镜像流。现在,批量对象删除发生在最多 3 个对 RHOSP API 的调用时,通过每个调用处理较高的对象数来提高效率。此优化可在取消置备过程中 加快资源清理速度。(OCPBUGS-9081) 在以前的版本中,当堡垒主机在与集群节点相同的0 码力 | 73 页 | 893.33 KB | 1 年前3
共 114 条
- 1
- 2
- 3
- 4
- 5
- 6
- 12