pytorch 入门笔记-03- 神经网络
链滴 pytorch 入门笔记 -03- 神经网络 作者:zyk 原文链接:https://ld246.com/article/1639540087993 来源网站:链滴 许可协议:署名-相同方式共享 4.0 国际 (CC BY-SA 4.0) 前言 本节主要内容是如何使用 torch.nn 包来构建神经网络。 上一讲已经讲过了 autograd,nn 包依赖 autograd output。 例如: 它是一个简单的前馈神经网络,它接受一个输入,然后一层接着一层地传递,最后输出计算的结果。 神经网络的典型训练过程如下: 1. 定义包含一些可学习的参数(或者叫权重)神经网络模型; 2. 在数据集上迭代; 3. 通过神经网络处理输入; 4. 计算损失(输出结果和正确值的差值大小); 5. 将梯度反向传播回网络的参数; 6. 更新网络的参数,主要使用如下简单的更新原则: weight weight = weight - learning_rate * gradient 原文链接:pytorch 入门笔记 -03- 神经网络 定义网络 开始定义一个网络: import torch import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self0 码力 | 7 页 | 370.53 KB | 1 年前3全连接神经网络实战. pytorch 版
全连接神经网络实战 . pytorch 版 Dezeming Family Dezeming Copyright © 2021-10-02 Dezeming Family Copying prohibited All rights reserved. No part of this publication may be reproduced or transmitted in any 2 导入样本数据 7 2 构建神经网络 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1 基本网络结构 11 2.2 使用 cuda 来训练网络 13 3 更完善的神经网络 . . . . . . . . . 模型的加载与保存 15 3.2 初始化网络权重-方法一 16 3.3 初始化网络权重-方法二和三 17 4 构建自己的数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 4.1 自定义 Variable 数据与网络训练 19 4.2 准确率的可视化0 码力 | 29 页 | 1.40 MB | 1 年前3QCon北京2018-《从键盘输入到神经网络--深度学习在彭博的应用》-李碧野
Technologies Automation Xiangqian Yu Team Lead, Derivatives Data From Keyboards to Neural Networks 从键盘到神经网络 © 2018 Bloomberg Finance L.P. All rights reserved. What is Bloomberg? The Bloomberg Terminal delivers0 码力 | 64 页 | 13.45 MB | 1 年前3MLP网络层
0 码力 | 13 页 | 992.88 KB | 1 年前3经典卷积网络
经典卷积网络 主讲人:龙良曲 ImageNet LeNet-5 ▪ 99.2% acc. ▪ 5/6 layers LeNet5 Demo AlexNet ▪ GTX 580 ▪ 3GBx2 ▪ 11x11 ▪ 8 layers VGG ▪ 3x3 ▪ 1x1 ▪ 11-19 layers 1x1 Convolution ▪ less computation ▪0 码力 | 13 页 | 1.20 MB | 1 年前3卷积神经网络
卷积神经网络 主讲人:龙良曲 Convolution Moving window Several kernels Animation https://medium.freecodecamp.org/an-intuitive-guide-to-convolutional-neural- networks-260c2de0a050 Notation Input_channels: Kernel_channels:0 码力 | 14 页 | 1.14 MB | 1 年前3机器学习课程-温州大学-07深度学习-卷积神经网络
1 2023年03月 深度学习-卷积神经网络 黄海广 副教授 2 01 计算机视觉概述 02 卷积神经网络简介 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 3 01 计算机视觉概述 02 卷积神经网络概述 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 4 计算机视觉 图像获取 提取二维图像 一张图片数据量是64×64×3,因为每张图片都有3个颜色通道。 如果计算一下的话,可得知数据量为12288 12 01 计算机视觉概述 02 卷积神经网络概述 03 卷积神经网络计算 04 卷积神经网络案例 本章目录 13 深层神经网络和卷积神经网络 Input Layer Hidden Layers Output Layer a[4] X Ŷ a[1] 1 a[1] 2 3 a[3] n 进行卷积计算,处理大量特征 14 深层神经网络和卷积神经网络 15 卷积神经网络 深度学习=表示学习+浅层学习 16 多层卷积能抽取复杂特征 浅层学到的特征为简单的边缘、角 点、纹理、几何形状、表面等 深层学到的特征则更为复杂抽象,为狗 、人脸、键盘等等 17 边缘检测 神经网络的前几层是通常检测边缘 的,然后,后面的层有可能检测到 物体的部分区域,更靠后的一些层0 码力 | 29 页 | 3.14 MB | 1 年前3机器学习课程-温州大学-04深度学习-深层神经网络
1 2023年03月 深度学习-深层神经网络 黄海广 副教授 2 神经网络的概念 3 神经网络的概念 ? 1 = ?1 1 ?2 1 ?3 1 4 神经网络的概念 我们不将输入层 看作一个标准的 层。 ? 1 = ?1 1 ?2 1 ?3 1 5 ?1 1 ?2 1 ?3 1 ?4 1 = . . . ?1 ሾ1]?. . . ሾ1]?. . . . . . ?4 ሾ1]?. . . ? 1 ∗ ฑ ?1 ?2 ?3 ????? + ?1 1 ?2 1 ?3 1 ?4 1 ? 1 2.神经网络的向量化 6 3.激活函数 Sigmoid函数 ? = ?(?) = ?(?) = 1 1+?−? 当? ? 大于等于0.5时,预测 y=1 当? ? 小于0.5时,预测 y=0 sigmoid z z = − 8 3.激活函数 ReLu函数 ? = ???(0, ?) 在输入是负值的情况下, 它会输出0,那么神经元 就不会被激活。这意味着 同一时间只有部分神经元 会被激活,从而使得网络 很稀疏,进而对计算来说 是非常有效率的。 9 3.激活函数 Leaky ReLu函数 ? = ???(0.01?, ?) Leaky ReLu通常比Relu激活函数效果要好, 尽管在实际中Leaky0 码力 | 28 页 | 1.57 MB | 1 年前3机器学习课程-温州大学-13机器学习-人工神经网络
2022年01月 机器学习-人工神经网络 黄海广 副教授 2 本章目录 01 发展历史 02 感知机算法 03 BP算法 3 1.人工神经网络发展历史 01 发展历史 02 感知机算法 03 BP算法 4 1.人工神经网络发展历史 发展历史 1943年,心理学家McCulloch和逻辑学家Pitts建立神经网络的数学模型, MP模型 神经元数学模型 神经元数学模型 神经元生理结构 输入层 输出层 隐藏层 5 1.人工神经网络发展历史 1960年代,人工网络得到了进一步地发展 感知机和自适应线性元件等被提出。 M.Minsky仔细分析了以感知机为代表的神 经网络的局限性,指出了感知机不能解决 非线性问题,这极大影响了神经网络的研 究。 单层感知机的数学模型 1 w b 2 w iw N w 1x 2x ix N ?=1 ? ???? + ? 6 1.人工神经网络发展历史 1982年,加州理工学院J.J.Hopfield 教授提出了Hopfield神经网络模型 ,引入了计算能量概念,给出了网 络稳定性判断。 离散Hopfield神经网络模型 1T 2T IT N T … … 1x 2x ix nx 7 1.人工神经网络发展历史 1986年,Rumelhart和 McClelland为首的科学家提出了0 码力 | 29 页 | 1.60 MB | 1 年前3机器学习课程-温州大学-08深度学习-深度卷积神经网络
2023年04月 深度学习-深度卷积神经网络 黄海广 副教授 2 01 经典网络 02 深度残差网络 04 卷积神经网络使用技巧 本章目录 03 其它现代网络 3 01 经典网络 1.经典网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 4 经典网络-LeNet-5 • LeNet 分为两个部分组成: 400 6 AlexNet • 2012年,AlexNet 横空出世。它首次证 明了学习到的特征可以超越手工设计 的特征。它一举了打破计算机视觉研 究的现状。 AlexNet 使用了8层卷积神 经网络,并以很大的优势赢得了2012 年 ImageNet 图像识别挑战赛。 LeNet (左), AlexNet (右) 7 • 在 AlexNet 的第一层,卷积窗口的形状是 11×11 。由于大 AlexNet 10 VGG16 VGG16 11 VGG16 12 01 经典网络 2.深度残差网络 02 深度残差网络 03 其它现代网络 04 卷积神经网络使用技巧 13 2.深度残差网络 梯度消失和梯度爆炸问题 14 2.深度残差网络 Input Conv3-32 Conv3-32 Conv3-32 Max-Pool Conv3-320 码力 | 32 页 | 2.42 MB | 1 年前3
共 70 条
- 1
- 2
- 3
- 4
- 5
- 6
- 7