【PyTorch深度学习-龙龙老师】-测试版202112
∈ {0,1} ∈ {0,1} 图 1.4 MP 神经元模型 1958 年,美国心理学家 Frank Rosenblatt 提出了第一个可以自动学习权重的神经元模 型,称为感知机(Perceptron),如图 1.5 所示,输出值?与真实值 之间的误差用于调整神经 元的权重参数{? , ? , … , ? }。Frank Rosenblatt 随后基于“Mark 1 ort Vector Machine,简称 SVM)为 代表的传统机器学习算法兴起而逐渐进入低谷,称为人工智能的第二次寒冬。支持向量机 拥有严格的理论基础,训练需要的样本数量较少,同时也具有良好的泛化能力,相比之 下,神经网络理论基础欠缺,可解释性差,很难训练深层网络,性能也相对一般。图 1.8 绘制了 1943 年~2006 年之间的重大时间节点。 ① 图片来自 https://slideplayer 底抛弃了,目前 在图片识别、目标检测、语义分割、图像变换等方向,几乎都是基于深度学习端到端地训 练,获得的模型性能好,适应性强;在 Atria 游戏平台上,DeepMind 设计的 DQN 算法模 型可以在相同的算法、模型结构和超参数的设定下,在 49 个游戏上获得人类相当的游戏水 平,呈现出一定程度的通用智能。图 1.14 是 DQN 算法的网络结构,它并不是针对于某个 游戏而设计的,而是可以控制0 码力 | 439 页 | 29.91 MB | 1 年前3动手学深度学习 v2.0
模型选择、欠拟合和过拟合 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 iii 4.4.1 训练误差和泛化误差 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 4.4.2 模型选择 . . . . . 能,这里的“新数据集”通常称为测试数据集(test dataset,或称为测试集(test set))。 综上所述,可用数据集通常可以分成两部分:训练数据集用于拟合模型参数,测试数据集用于评估拟合的模 型。然后我们观察模型在这两部分数据集的性能。“一个模型在训练数据集上的性能”可以被想象成“一个学 生在模拟考试中的分数”。这个分数用来为一些真正的期末考试做参考,即使成绩令人鼓舞,也不能保证期 末考 态,从而执行推理链中的后续步骤,类似于处理器如何修改用于计算的存储器。 • 另一个关键的发展是生成对抗网络 (Goodfellow et al., 2014) 的发明。传统模型中,密度估计和生成模 型的统计方法侧重于找到合适的概率分布(通常是近似的)和抽样算法。因此,这些算法在很大程度上 受到统计模型固有灵活性的限制。生成式对抗性网络的关键创新是用具有可微参数的任意算法代替采 样器。然后对这些0 码力 | 797 页 | 29.45 MB | 1 年前3云计算白皮书
数字世界通过数字记录、描绘并模拟现实世界,是现实世界的 数字映射。数字技术实现了对现实世界的数据采集、存储,并能提 供分析处理数据所需的算力。云计算作为链接数字世界计算资源与 数字应用的纽带,能够有效整合海量、泛在的算力资源,加速数字 应用的感知、判断和执行。 (一)数字应用方式与算力资源供给的变革,推动云计 算作用转变 人工智能大模型的快速发展,引发数字应用使用方式和算力资 源供给的双向变革,加速了云计算向面向大体量分布式应用体系化、 接入方面,云计算纳管能力持续加强,使多样性算力资源提供 成为可能。传统数据中心以提供通用算力为主,随着科学计算、自 然语言处理、视频渲染、知识图谱等计算需求的增长,通用算力资 源已不能满足这些超强计算型应用的需要,而云计算逐渐发展出多 样性算力资源池的能力,高性能计算云平台(HPC)、FPGA 云主机、 GPU 云主机、智算平台等多样性算力资源均通过云的方式统一接入, 极大地丰富了科研机构、企业、高校以及个人触达算力的便捷性与 算力调度模式,多以算力规格作为调度内容。云计算资源池化技术 实现算力资源根据用户需求动态分配,充分满足用户多样算力使用 场景。二是算力资源使用时,调度要素由“单一类型”走向“复合 类型”。传统算力调度要素仅考虑算力这种单一类型资源的调度,云 计算中虚拟化技术使得算力、网络、存储等多种资源可在同一个应 用场景下被协同管理、编排、调度。例如,电信运营商依托网络基 础设施优势,综合评估算力、网络、存储等复合资源状态,推出能0 码力 | 47 页 | 1.22 MB | 1 年前3机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入
隐式方法即使用某类无监督学习学习或强化学 习模式将文本属性及内容自动分离,常见的有 生成对抗方式,即通过GAN实现目标属性和 文本量性完全由不同的编码控制的状态。 对话式文本生成适用于智能客服等任务型和闲聊型机器人等 非任务型人机交互场景,可分类为管道模式及端对端模式。 结构性的文本生成,首先通过注意力机制、多层感知器等系 统进行语句内容预选,对数值、时间等类型数据进行推理。 增强数据间的结构信息。其次通过Transformer等模式结合 GPT的发展 37 资料来源:《 Language Models are Few-Shot Learners》论文 • 预训练加微调范式中,可能在这种范式下实现的 泛化可能很差,因为该模型过于特定于训练分布, 并且在其之外无法很好地泛化。 • 微调模型在特定基准上的性能,即使名义上是人 类水平,也可能夸大基础任务的实际性能。 存在的问题03: 因为人类学习大多数语言任务不需要 大型受监督的数据集,当前NLP技术0 码力 | 44 页 | 2.36 MB | 1 年前3Qcon北京2018-《文本智能处理的深度学习技术》-陈运文
签提取,情感分析,主题模型 NLP发展简史 1950S 1980s 1990s 2006~至今 以机器翻译为开端,作 为早期尝试,但不是很 成功 基于统计机器学习技术 及语料库,使用统计模 型,NLP发展产生革新 多数自然语言处理系统 基于规则,人工修订等 方式,包括问答、翻译、 搜索等 深度学习起步、发展及 成熟,同样影响NLP领 域,从传统的机器学习 逐渐过渡到深度学习 CNN RNN CLSTM 序列标注 传统机器学习(CRF) • 需要大量特征工程 • 不同领域需要反复调整 深度学习(Bi-LSTM+CRF) • 多领域通用 • 输入层采用词向量,提升泛化能力 • 循环神经网络(LSTM,GRU等)能学 到一些较远的的上下文特征以及一些 非线性特征 序列标注 字/词向量 Bi-LSTM 会 数 据 开 观 达 去 明 小 LSTM LSTM • 关系类型{CF,CP,...} • 关系角色{1(entity1),2(entity2)} 根据标签序列,将同样关系类型的实体合并成一个三元组作为最后的结果,如果一个句子包含一个以上同一类 型的关系,那么就采用就近原则来进行配对。 目前这套标签并不支持实体关系重叠的情况。 B-CP-1 O B-CP-2 E-CP-2 O B-CF-1 I-CF-1 O O O I-CF-2 O O 标签:0 码力 | 46 页 | 25.61 MB | 1 年前3Kubernetes平台比較:Red Hat OpenShift、SUSE Rancher及 Canonical Kubernetes
本。 Canonical Kubernetes支援最新的5個Kubernetes版本。其中最新的3個版本可獲 得完整功能、產品更新及安全性修補程式,比較舊的2個版本則僅獲得安全性更新。 這種更為廣泛的支援方式,可消除混合雲之中的問題,因為雲端供應商採用現行 Kubernetes修訂版的步調緩慢,並持續支援舊版本。 6. 邊緣支援 在邊緣運作對Kubernetes產生全新挑戰:資源的規模、大小及可存取性很快 Initiative,OCI)相容的執行階段,因此具備相當高的彈 性。 容器登錄檔是另一項建構成功Kubernetes策略的基礎。登錄檔是儲存容器映像的地 方,這些映像對應用程式開發及擴充能力至為關鍵。容器登錄檔以多種類型提供, Canonical Kubernetes、Red Hat Openshift及Rancher 均支援私有登錄檔、公有 雲登錄檔及DockerHub。 10.聯網 Kubernetes的聯網 供選擇,但並不是所有 Kubernetes發行版本都支援所有網路功能軟體。有鑑於此,組織應謹慎選擇 Kubernetes發行版本,不是選擇版本支援本身所需的特定網路功能解決方案,就是 要選擇提供最廣泛選項的版本。 • Canonical Kubernetes支援 Flannel、 Canal、 Calico、 Tigera EE,Multus、 SR-IOV、CIlium 和 JuniperContrail0 码力 | 10 页 | 1.26 MB | 1 年前3机器学习课程-温州大学-机器学习项目流程
探索性数据分析(EDA) 11 探索性数据分析(EDA) 单变量图显示此变量的分布 plt.hist()可以显示单变量图,也叫 直方图 12 探索性数据分析(EDA) boxplot :箱型图又称为盒须图、盒式图或箱线图,是一种用作显示一组数据分散情 况资料的统计图。它能显示出一组数据的最大值、最小值、中位数及上下四分位数。 13 探索性数据分析(EDA) IQR = Q3-Q1,即上四分位数与下四分位数之间的 选择数据中最相关的特征的过程。在特征选择中,我们删除特征 以帮助模型更好地总结新数据并创建更具可解释性的模型。一般来说,特 征选择是减去特征,所以我们只留下那些最重要的特征。 20 特征工程 主要方法 离散型变量处理 分箱/分区 交叉特征 特征缩放 特征提取 …… 特征工程在数据挖掘中有举足轻重的位置数据领域一致认为: 数据和特征决定了机器学习的上限,而模型和算法只能逼近这 个上限而已。 效果! 3.特征工程 21 特征选择 主要方法 去除变化小的特征 去除共线特征 去除重复特征 主成分分析(PCA) …… 特征选择主要有两个功能: 1.减少特征数量、降维,使模型泛化能力更 强,减少过拟合 2.增强对特征和特征值之间的理解 3.特征工程 22 数据划分 训练集 测试集 数据集 验证集 训练集 测试集 验证集 时间序列 不考虑时间因素,通常打乱数据0 码力 | 26 页 | 1.53 MB | 1 年前3企业云原生的探索与落地深圳沙龙-RacherLabs-20-11-14/小程序+容器:前端后端全链路敏捷化
将得到什么样的松绑、激活 如何基于Rancher容器云平台快速搭建小程序,扩大企业数字化系统生态 传统移动应用开发模式以及转型升级顾虑 #移动应用开发现状# 单体应用 工具型APP 服务化、模块化 平台型APP 动态化、高可用 超级APP 开放、生态 新阶段 移动应用发展历程 2013年 2015年 2018年 ING Native HTML5 ReactNative Flutter 将合作伙伴小程序上架至自己APP中 引入高频业务生活小程序,丰富APP协同场景 #实战操作,小程序触手可达# XX银行小程序开放平台 立足金融和交易,向其上下游不断延伸,通过小程序的形式引入 更多元的泛金融和生活服务场景,为用户提供更丰富的生活服务 车主专区 故宫美妆 1、引入了饿了么、 高德打车、货拉拉、顺丰速运、申通快递等 多家优质生活服务类的商家,聚焦用户生活服务领域的服务深 化;0 码力 | 27 页 | 3.74 MB | 1 年前3這些年,我們一起追的Hadoop
.. 再來一下交叉比對: 基本資料 歷史購物記錄 ... Hadoop 是 Big Data 的好朋友 7 / 74 Hadoop + Big Data 的預測 然後就可以寄更精準的型錄給你(女兒)! 8 / 74 Hadoop + Big Data 的分析 然後一堆書(作者)就被打臉了! 9 / 74 1. Submit Job 2. JT 分派 Task 給 TT 3 PB-Scale Processing 的需求 三大目標: Speed:比 Hive 10 快 100 倍 Scale:撐的下 TB 到 PB 等級的資料 SQL Compatibility:最廣泛的 SQL 語法支援 13 個月內一共有來自 44 家公司 145 位 Developer 貢獻了 39 萬行程式碼給 Hive,產出 3 個 Release! 33 / 74 Stinger Initiative0 码力 | 74 页 | 45.76 MB | 1 年前3机器学习课程-温州大学-07机器学习-决策树
稍糊 凹陷 硬滑 否 训练集 验证集 在已经生成的决策树上进行剪枝,从而 得到简化版的剪枝决策树。 后剪枝决策树通常比预剪枝决策树保留 了更多的分支。一般情况下,后剪枝的 欠拟合风险更小,泛化性能往往优于预 剪枝决策树。 24 C4.5的剪枝 后剪枝 基于表生成未剪枝的决策树 平坦 纹理 色泽 好瓜 坏瓜 根蒂 色泽 脐部 坏瓜 坏瓜 坏瓜 坏瓜 好瓜 好瓜 替这课子树是否有益。如果剪枝后与剪枝前相比其错 误率是保持或者下降,则这棵子树就可以被替换掉。 C4.5 通过训练数据集上的错误分类数量来估算未知样 本上的错误率。 后剪枝决策树的欠拟合风险很小,泛化性能往往优于 预剪枝决策树。 25 C4.5的剪枝 后剪枝 后剪枝的决策树 剪枝方法 在已经生成的决策树上进行剪枝,从而得到简化版的 剪枝决策树。 C4.5 采用的悲观剪枝方法,用递归的方式从低往上针 替这课子树是否有益。如果剪枝后与剪枝前相比其错 误率是保持或者下降,则这棵子树就可以被替换掉。 C4.5 通过训练数据集上的错误分类数量来估算未知样 本上的错误率。 后剪枝决策树的欠拟合风险很小,泛化性能往往优于 预剪枝决策树。 平坦 色泽 好瓜 坏瓜 根蒂 脐部 坏瓜 坏瓜 好瓜 好瓜 好瓜 凹陷 硬挺 蜷曲 稍蜷 稍凹 浅白 青绿 乌黑 ① ⑥ ⑤ ④ ③0 码力 | 39 页 | 1.84 MB | 1 年前3
共 141 条
- 1
- 2
- 3
- 4
- 5
- 6
- 15