李东亮:云端图像技术的深度学习模型与应用
GPU服务框架-图像特点 通用计算(Caffe/Tensorflow/Mxnet) SACC2017 GPU服务框架 人形检测 人脸识别 100台-> 10台服务器 300QPS/台(4*k40) 轮询结果 SACC2017 SACC20170 码力 | 26 页 | 3.69 MB | 1 年前3微博在线机器学习和深度学习实践-黄波
模型训练 Task 模型训练 Task Metrics输出 3 在线机器学习-工作流 互动行为日志 数据处理 点击行为日志 阅读行为日志 曝光行为日志 数据过滤 样本拼接 定时轮询 Kafka Hdfs 样本输出 3 在线机器学习-实时样本生成 • 多流拼接 • 曝光,互动,点击,真实阅读等多种数据流接入并多流拼接 • 如何解决日志延时问题 • 延迟等待机制,先到先走0 码力 | 36 页 | 16.69 MB | 1 年前3动手学深度学习 v2.0
3.3 自然语言统计 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 8.3.4 读取长序列数据 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 8.4 循环神经网络 . . . (LeCun et al., 1998) 、长短期记忆网络 (Graves and Schmidhuber, 2005) 和Q学习 (Watkins and Dayan, 1992) ,在相对休眠了相当长一段时间之后,在过去十年中被“重新发现”。 最近十年,在统计模型、应用和算法方面的进展就像寒武纪大爆发——历史上物种飞速进化的时期。事实上, 最先进的技术不仅仅是将可用资源应用于几十年前的算法的结 (Bahdanau et al., 2014) 找到了一个优雅的 解决方案。不需要记住整个文本序列(例如用于固定维度表示中的机器翻译),所有需要存储的都是指 向翻译过程的中间状态的指针。这大大提高了长序列的准确性,因为模型在开始生成新序列之前不再 需要记住整个序列。 • 多阶段设计。例如,存储器网络 (Sukhbaatar et al., 2015) 和神经编程器‐解释器 (Reed and De0 码力 | 797 页 | 29.45 MB | 1 年前3复杂环境下的视觉同时定位与地图构建
是集束调整的一个近似,不是最优解。 基于自适应分段的集束调整 • 将长序列分成若干段短序列; • 每个短序列进行独立的SfM并根据公共匹配对进行对齐,每个段由7个自由 度的相似变换控制; • 如果投影误差比较大,检测分裂点将序列分段,然后优化; • 重复上述步骤直至投影误差小于阈值或不能再分裂为止。 Garden数据集的SfM结果 6段长视频序列,将近10万帧,特征匹配74分钟,SfM求解16分钟(单线程),平均170 码力 | 60 页 | 4.61 MB | 1 年前3阿里云上深度学习建模实践-程孟力
计算量小 训练推理: 高qps, 低rt 支持超大模型 性价比 流程长、环节多: 推荐场景: 召回 + 粗排 + 精排 + 多样性/冷启动 实人认证: 卡证识别 + 人脸检测 + 活体检测 + 人脸 识别 … 模型构建: 问题: ✗ 方案复杂周期长/见效慢 ✗ 细节多难免踩坑 解决方案: 标准化 标准化模型库 标准化解决方案0 码力 | 40 页 | 8.51 MB | 1 年前3Keras: 基于 Python 的深度学习库
当使用该层作为模型第一层时,需要提供 input_shape 参数(整数元组或 None),例如, (10, 128) 表示 10 个 128 维的向量组成的向量序列,(None, 128) 表示 128 维的向量组成的变 长序列。 参数 • filters: 整数,输出空间的维度(即卷积中滤波器的输出数量)。 • kernel_size: 一个整数,或者单个整数表示的元组或列表,指明 1D 卷积窗口的长度。 • strides: 个整数表示的元组或列表,指明 2D 卷积窗口的宽度和高度。 可以是一个整数,为所有空间维度指定相同的值。 • strides: 一个整数,或者 2 个整数表示的元组或列表,指明卷积沿宽度和高度方向的步 长。可以是一个整数,为所有空间维度指定相同的值。指定任何 stride 值!= 1 与指定 dilation_rate 值!= 1 两者不兼容。 • padding: "valid" 或 "same" 个整数表示的元组或列表,指明 2D 卷积窗口的宽度和高度。 可以是一个整数,为所有空间维度指定相同的值。 • strides: 一个整数,或者 2 个整数表示的元组或列表,指明卷积沿宽度和高度方向的步 长。可以是一个整数,为所有空间维度指定相同的值。指定任何 stride 值!= 1 与指定 dilation_rate 值!= 1 两者不兼容。 • padding: "valid" 或 "same"0 码力 | 257 页 | 1.19 MB | 1 年前3【PyTorch深度学习-龙龙老师】-测试版202112
维度数大于 2 时,PyTorch 会默认选择?和?的最后两个维度进行矩阵相乘,前面所有的维度都视作 Batch 维度。 根据矩阵相乘的定义,矩阵?和?能够完成矩阵相乘的条件是,?的倒数第一个维度长 度(列)和?的倒数第二个维度长度(行)必须相等。比如张量 a shape:[4,3,28,32]可以与张量 b shape:[4,3,32,2]进行矩阵相乘,代码如下: In [100]: 预览版202112 6.8 汽车油耗预测实战 21 年,Jürgen Schmidhuber 提出了 LSTM 网络,作为 RNN 的变种,它较好地克服了 RNN 缺 乏长期记忆、不擅长处理长序列的问题,在自然语言处理中得到了广泛的应用。基于 LSTM 模型,Google 提出了用于机器翻译的 Seq2Seq 模型,并成功商用于谷歌神经机器翻 译系统(GNMT)。其他的 RNN 变种还有 GRU、双向 /?方向移动步长相同的情况,这也 是神经网络中最常见的设定。如下图 10.22 所示,绿色实线代表的感受野窗口的位置是当 前位置,绿色虚线代表是上一次感受野所在位置,从上一次位置移动到当前位置的移动长 度即是步长的定义。图 10.22 中感受野沿?方向的步长为 2,表达为步长? = 2。 1 -1 0 2 0 -1 -2 2 3 1 1 2 -2 1 0 0 -1 -1 -3 2 2 00 码力 | 439 页 | 29.91 MB | 1 年前3Qcon北京2018-《文本智能处理的深度学习技术》-陈运文
编码器/解码器结构,都是神经网络结构 l 输入的原文经过编码器编码变成向量 l 解码器从向量里面提取关键信息,组合成生成式摘要 深度学习内部注意力机制的引入 l 内部注意力机制在解码器里面做 l 关注已生成词,解决长序列摘要生成时,个别字词重复出现的问题 Bi_LSTM Bi_LSTM Bi_LSTM RNN RNN 解码器内部注意力机制 输入序列 输入序列 输入序列。。。 编码器 解码器 摘要序列。。。0 码力 | 46 页 | 25.61 MB | 1 年前3机器学习课程-温州大学-时间序列总结
不是区间整块的滑行,而是一个单位一个单 位的滑行。 例如,窗口向右边滑行一个单位,此时窗口框住的时间 区间范围为2017-08-25到2017-09-03。 56 数据统计—滑动窗口 每次窗口移动,一次只会移动一个单位的长 度,并且窗口的长度始终为10个单位长度, 直至移动到末端。 由此可知,通过滑动窗口统计的指标会更加 平稳一些,数据上下浮动的范围会比较小。 57 数据统计—滑动窗口 Pandas中提供了一个窗口方法rolling()。0 码力 | 67 页 | 1.30 MB | 1 年前3机器学习课程-温州大学-特征工程
图像特征提取 3. 特征提取 22 许永洪,吴林颖.中国各地区人口特征和房价波动的动态关系[J].统计研究,2019,36(01) 1.词袋模型 将整段文本以词为单位切分开,然后每篇文章可以表示成一个长向量,向量的每 一个维度代表一个单词,而该维度的权重反映了该单词在原来文章中的重要程度 采用 TF-IDF 计算权重,公式为 ?? − ???(?, ?) = ??(?, ?) × ???(?)0 码力 | 38 页 | 1.28 MB | 1 年前3
共 12 条
- 1
- 2