机器学习课程-温州大学-05深度学习-深度学习实践
1 2023年03月 深度学习-深度学习实践 黄海广 副教授 2 01 数据集划分 02 数据集制作 03 数据归一化/标准化 04 正则化 05 偏差和方差 本章目录 3 训练集(Training Set):帮助我们训练模型,简单的说就是通过 训练集的数据让我们确定拟合曲线的参数。 验证集(Validation Set):也叫做开发集( Dev 确定的, 用来辅助我们的模型的构建,即训练超参数,可选; 测试集(Test Set): 为了测试已经训练好的模型的精确度。 三者划分:训练集、验证集、测试集 机器学习:60%,20%,20%;70%,10%,20% 深度学习:98%,1%,1% (假设百万条数据) 数据集划分 数据集 训练集 验证集 测试集 4 交叉验证 1. 使用训练集训练出10个模型 2. 用10个模型分别对交叉验证集 的样本能够让模型学习 到更多更有效的特征,减小噪声的影响。 2.降维 即丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一 些模型选择的算法来帮忙(例如PCA)。 3.正则化 正则化(regularization)的技术,保留所有的特征,但是减少参数的大小(magnitude) ,它可以改善或者减少过拟合问题。 4.集成学习方法 集成学习是把多个模型集成在一起,来降低单一模型的过拟合风险。0 码力 | 19 页 | 1.09 MB | 1 年前3深度学习与PyTorch入门实战 - 56. 深度学习:GAN
深度学习:GAN 主讲人:龙良曲 https://blog.openai.com/generative-models/ Our Goal: ?(?) https://www.mathworks.com/help/stats/simulate-data-from-a-gaussian-mixture- model.html What does ? ? looks like? http://www0 码力 | 42 页 | 5.36 MB | 1 年前35 Python深度学习实践
深度学习实践 from Tensorflow to AI-Hub 王顺 – Google Cloud 目录 CONTENTS 从零开始 初步修改 业务升级 实践指南 1 从hello world开始 以深度学习的第一个案例MNIST为例 学习Tensorflow框架的使用及代码编写风格 理解TF Mac CPU运行结果 GPU运行结果 TPU运行结果 TPU的创建和使用 TPUs • https://www.tensorflow.org/tutorials/distribute/tpu_custom_training 3 业务升级 以上已经针对MNIST做了一些深入学习 接下来思考如何满足实际业务上的需要 LEGO积木 22 Component: ExampleGen examples = csv_input(os.path.join(data_root JS 5. Pipeline Kubeflow Runtime Airflow Runtime 6. 协作 Takeaways • 在不同设备上执行训练 • 基于AI产品的全流程 • 深度学习实践: • 质量 • 效率 • 专注 • 稳定 • 参与和行动!!! THANK YOU 希望对大家有所帮助和启发0 码力 | 38 页 | 4.85 MB | 1 年前3机器学习课程-温州大学-08深度学习-深度卷积神经网络
1 2023年04月 深度学习-深度卷积神经网络 黄海广 副教授 2 01 经典网络 02 深度残差网络 04 卷积神经网络使用技巧 本章目录 03 其它现代网络 3 01 经典网络 1.经典网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 4 经典网络-LeNet-5 • LeNet 分为两个部分组成: O F T M A X 120 84 10 F C FC2 LeNet-5 32x32x1 400 6 AlexNet • 2012年,AlexNet 横空出世。它首次证 明了学习到的特征可以超越手工设计 的特征。它一举了打破计算机视觉研 究的现状。 AlexNet 使用了8层卷积神 经网络,并以很大的优势赢得了2012 年 ImageNet 图像识别挑战赛。 LeNet (左), AlexNet 10 VGG16 VGG16 11 VGG16 12 01 经典网络 2.深度残差网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 13 2.深度残差网络 梯度消失和梯度爆炸问题 14 2.深度残差网络 Input Conv3-32 Conv3-32 Conv3-32 Max-Pool Conv3-320 码力 | 32 页 | 2.42 MB | 1 年前3机器学习课程-温州大学-01深度学习-引言
2023年03月 深度学习-引言 黄海广 副教授 2 本章目录 01 深度学习概述 02 神经网络的基础 03 深度学习的背景知识 04 深度学习的开发流程 3 1. 深度学习概述 01 深度学习概述 02 神经网络的基础 03 深度学习的背景知识 04 深度学习的开发流程 4 深度学习与机器学习、人工智能的关系 人工智能:机器展现的人类智能 人工智能:机器展现的人类智能 机器学习:计算机利用已有的数 据(经验),得出了某种模型,并利 用此模型预测未来的一种方法。 深度学习:实现机器学习的一种 技术 5 杨立昆(Yann LeCun) 杰弗里·欣顿(Geoffrey Hinton) 本吉奥( Bengio ) 共同获得了2018年计算机科学的最高奖项 ——ACM图灵奖。 深度学习界的执牛耳者 Andrew Ng 中文名吴恩达,斯坦福大学副教 现任字节跳动科技有限公司人 工智能实验室总监,北京大学、南京 大学客座教授,IEEE 会士,ACM 杰 出科学家,CCF 高级会员。 代表作:《统计学习方法》 国内泰斗 周志华,南京大学计算机科学与技 术系主任 、人工智能学院院长。 代表作:《机器学习》(西瓜书) 7 陈天奇,陈天奇是机器学习领域著名的青 年华人学者之一,本科毕业于上海交通 大学ACM班,博士毕业于华盛顿大学计 算机系。 主要贡献:设计了XGBoost算法。0 码力 | 80 页 | 5.38 MB | 1 年前3机器学习课程-温州大学-15深度学习-GAN
2023年06月 深度学习-生成式深度学习 黄海广 副教授 2 03 GAN 的应用 本章目录 01 生成式深度学习简介 02 GAN的理论与实现模型 04 GAN的思考与前景 3 03 GAN 的应用 01 生成式深度学习简介 02 GAN的理论与实现模型 04 GAN的思考与前景 1.生成式深度学习简介 4 深度学习中常见生成式模型 在生成器和判别器中添加某一标签信息 深度卷积生成式对抗网络(DCGAN) 判别器和生成器都使用了卷积神经网络(CNN)来替代GAN 中的多层感知机 为了使整个网络可微,拿掉了CNN 中的池化层 将全连接层以全局池化层替代以减轻计算量。 1.生成式深度学习简介 5 自编码(AE)结构图 1.生成式深度学习简介 6 变分自编码(VAE)结构图 1.生成式深度学习简介 7 变分自编码(VAE)生成图像 变分自编码(VAE)生成图像 1.生成式深度学习简介 8 03 GAN 的应用 01 生成式深度学习简介 02 GAN的理论与实现模型 04 GAN的思考与前景 2. GAN的理论与实现模型 9 GAN的概念简介及提出背景 概念简介 提出背景 GAN (Generative Adversarial Networks) ,中文翻译为生成式对抗网络,是 Ian0 码力 | 35 页 | 1.55 MB | 1 年前3机器学习课程-温州大学-13深度学习-Transformer
1 2023年05月 深度学习-Transformer 黄海广 副教授 2 03 Transformer的训练 本章目录 01 Transformer介绍 02 Transformer的工作流程 04 BERT 3 1.Transformer介绍 01 Transformer介绍 03 Transformer的训练 02 Transformer的工作流程 使用位置编码表示序列的顺序 到目前为止,我们对模型的描述缺少了 一种理解输入单词顺序的方法。 为了解决这个问题,Transformer为每个 输入的词嵌入添加了一个向量。这些向 量遵循模型学习到的特定模式,这有助 于确定每个单词的位置,或序列中不同 单词之间的距离。这里的直觉是,将位 置向量添加到词嵌入中使得它们在接下 来的运算中,能够更好地表达的词与词 之间的距离。 34 工作,它之后就是Softmax层。 线性变换层是一个简单的全连接神经网络,它可 以把解码组件产生的向量投射到一个比它大得多 的、被称作对数几率(logits)的向量里。 不妨假设我们的模型从训练集中学习一万个不同 的英语单词(我们模型的“输出词表”)。因此 对数几率向量为一万个单元格长度的向量——每个 单元格对应某一个单词的分数。 接下来的Softmax 层便会把那些分数变成概率(都 为正数、上限10 码力 | 60 页 | 3.51 MB | 1 年前3机器学习课程-温州大学-09深度学习-目标检测
1 2023年04月 深度学习-目标检测 黄海广 副教授 2 01 目标检测概述 02 目标检测算法 03 YOLO算法 04 Faster RCNN算法 本章目录 3 01 目标检测概述 1.目标检测概述 02 目标检测算法 03 YOLO算法 04 Faster RCNN算法 4 1.目标检测概述 分类(Classification) 分类(Classification) 即是将图像结构化为某一 类别的信息,用事先确定 好的类别(string)或实例ID 来描述图片。这一任务是 最简单、最基础的图像理 解任务,也是深度学习模 型最先取得突破和实现大 规模应用的任务。 检测(Detection) 分类任务关心整体,给出的 是整张图片的内容描述,而 检测则关注特定的物体目标 ,要求同时获得这一目标的 类别信息和位置信息。 分割(Segmentation) 类间相似性(inter-class similarity) 1.目标检测概述 10 1.目标检测概述 学术和工业界主要将目标检测算法分成三类: 1.传统的目标检测框架 2.基于深度学习的Two Stages目标检测框架 (准确度有优势) 3.基于深度学习的One Stage目标检测框架 (速度有优势) 11 1.目标检测概述 1.传统的目标检测框架 (1)候选区域选择(采用不同尺寸、比例的滑动窗口对图像进行遍历);0 码力 | 43 页 | 4.12 MB | 1 年前3机器学习课程-温州大学-06深度学习-优化算法
1 2023年04月 深度学习-优化算法 黄海广 副教授 2 01 小批量梯度下降 本章目录 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 3 01 小批量梯度下降 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 1.小批量梯度下降 4 小批量梯度下降 小批量梯度下降(Mini-Batch db corrected ?db corrected+? 。 13 学习率衰减 加快学习算法的一个办法就是随时间慢慢减少学习率,我们将之称为学习率衰减 可以将?学习率设为? = 1 1+?????????∗epoch−num ?0 (decay-rate称为衰减率,epoch-num为代数,?0为初始学习率) 14 Pytorch的优化器 # 超参数 LR = 0.01 优化算法 03 超参数调整和BatchNorm 04 Softmax 3.BatchNorm 19 超参数调整的方法 0.0001 0.001 0.1 1 假设你在搜索超参数(学习率),假设你怀疑其值最小是0.0001或最大是1。如果 你画一条从0.0001到1的数轴,沿其随机均匀取值,那90%的数值将会落在0.1到1 之间,结果就是,?在0.1到1之间,应用了90%的资源,而0 码力 | 31 页 | 2.03 MB | 1 年前3机器学习课程-温州大学-03深度学习-PyTorch入门
带tf.GradientTape来记 录正向 运算过程,然后反播磁带自动 得到梯度值。 ②对常量也可求导,需要增加 watch。 ③对tf.Variable可以通过参数 trainable 控制是否可学习,缺 省是True。 是否支持GPU 不支持 支持 支持 常量示例 5.6 torch.tensor([5.6]) a=tf.constant([3.2, 4.3], dtype=tf.float16) 在训练一个神经网络时,梯度的计算是一个关键的步骤,它为神经 网络的优化提供了关键数据。 但是在面临复杂神经网络的时候导数的计算就成为一个难题,要求 人们解出复杂、高维的方程是不现实的。 这就是自动求导出现的原因,当前最流行的深度学习框架如PyTorch 、Tensorflow等都提供了自动微分的支持,让人们只需要很少的工作 就能神奇般地自动计算出复杂函数的梯度。 PyTorch之自动梯度 20 2. Autograd自动求导 它有一些可学习的参数(或者权重); • 在数据集上迭代; • 通过神经网络处理输入; • 计算损失(输出结果和正确值的差距大小) • 将梯度反向传播回网络的参数; • 更新网络的参数,主要使用如下简单的更新原则: weight = weight - learning_rate * gradient 31 定义 网络 1 损失 函数 2 优化 3 深度学习的三个步骤 深度学习很简单……0 码力 | 40 页 | 1.64 MB | 1 年前3
共 899 条
- 1
- 2
- 3
- 4
- 5
- 6
- 90