机器学习课程-温州大学-线性代数回顾
2021年07月 机器学习-线性代数回顾 黄海广 副教授 2 目录 01 行列式 02 矩阵 03 向量 06 二次型 05 矩阵的特征值和特征向量 04 线性方程组 3 1.行列式 01 行列式 02 矩阵 03 向量 06 二次型 05 矩阵的特征值和特征向量 04 线性方程组 4 (1) 设? = 05 矩阵的特征值和特征向量 04 线性方程组 7 ? × ?个数???排成?行?列的表格 ?11 ?12 ⋯ ?1? ?21 ?22 ⋯ ?2? ⋯ ⋯ ⋯ ⋯ ⋯ ??1 ??2 ⋯ ??? 称为矩阵, 简记为?,或者 ??? ?×? 。若? = ?,则称?是?阶矩阵或?阶方阵。 2.矩阵 矩阵 8 矩阵的线性运算 2.矩阵 1.矩阵的加法 设? = ( 矩阵的特征值和特征向量 04 线性方程组 15 3.向量 1.有关向量组的线性表示 (1) ?1, ?2, ⋯ , ??线性相关 ⇔至少有一个向量可以用其余向量线性表示。 (2) ?1, ?2, ⋯ , ??线性无关,?1, ?2, ⋯ , ??,?线性相关 ⇔ ?可以由?1, ?2, ⋯ , ??唯一线性表示。 (3) ?可以由?1, ?2, ⋯ , ??线性表示 ⇔ ?(?1, ?20 码力 | 39 页 | 856.89 KB | 1 年前3机器学习课程-温州大学-02机器学习-回归
2022年09月 机器学习-第二章 回归 黄海广 副教授 2 本章目录 01 线性回归 02 梯度下降 03 正则化 04 回归的评价指标 3 1. 线性回归 01 认识Python 01 线性回归 02 梯度下降 03 正则化 04 回归的评价指标 4 监督学习分为回归和分类 ✓ 回归(Regression、Prediction) T恤? ✓ 根据肿瘤的体积、患者的年龄来判断良性或恶性? 回归的概念 标签连续 标签离散 5 线性回归-概念 线性回归(Linear Regression) 是一种通过属性的线性组合来进行预测 的线性模型,其目的是找到一条直线或 者一个平面或者更高维的超平面,使得 预测值与真实值之间的误差最小化。 6 线性回归-符号约定 建筑面积 总层数 楼层 实用面积 房价 143 上图的: ?? ? 代表特征矩阵中第 ? 行的第 ? 个特征 ?(2) = 162.2 31 8 118 ?(2) =37000 上图的?2 2 = 31, ?3 2 = 8 7 线性回归-算法流程 ℎ ? = ?0 + ?1?1 + ?2?2 + . . . +???? ? 和 ? 的关系 可以设?0 = 1 则:ℎ ? = ?0?0 + ?1?1 + ?2?2+. .0 码力 | 33 页 | 1.50 MB | 1 年前3机器学习课程-温州大学-03机器学习-逻辑回归
1 2022年02月 机器学习-逻辑回归 黄海广 副教授 2 本章目录 01 分类问题 02 Sigmoid函数 03 逻辑回归求解 04 逻辑回归代码实现 3 1.分类问题 01 分类问题 02 Sigmoid函数 03 逻辑回归求解 04 逻辑回归代码实现 4 监督学习的最主要类型 ✓ 分类(Classification) Sigmoid函数 01 分类问题 02 Sigmoid函数 03 逻辑回归求解 04 逻辑回归代码实现 8 ? ? 代表一个常用的逻辑函数(logistic function)为?形函数(Sigmoid function) 则:? ? = ? ? = 1 1+?−? 合起来,我们得到逻辑回归模型的假设函数: 当? ? 大于等于0.5时,预测 y=1 当? ? 小于0 Sigmoid函数 注意:若表达式 ℎ ? = ? = ?0 + ?1?1 + ?2?2+. . . +???? + ? = ?T? + ?, 则?可以融入到?0,即:?=?T? 9 2.Sigmoid函数 线性回归的函数 ℎ ? = ? = ?T?,范围是(−∞, +∞)。 而分类预测结果需要得到[0,1]的概率值。 在二分类模型中,事件的几率odds:事件发生与事件不发生的概率之比为 ? 1−?,0 码力 | 23 页 | 1.20 MB | 1 年前3简单回归案例
0 码力 | 12 页 | 748.45 KB | 1 年前3简单回归案例实战
0 码力 | 7 页 | 860.99 KB | 1 年前3PyTorch OpenVINO 开发实战系列教程第一篇
��� 7 1.5 线性回归预测������������������������������������������������������������������������������������������������������������������������������������������������������������� 9 1.5.1 线性回归过程 ��������� ���������������������������������������������������������������������������������������� 9 1.5.2 线性回归代码演示 ��������������������������������������������������������������������������������������������� 参见官方的开发文档。 1.5 线性回归预测 上一小节介绍了 Pytorch 框架各种基础操作,本节我们学习一 个堪称是深度学习版本的 Hello World 程序,帮助读者理解模 型训练与参数优化等基本概念,开始我们学习 Pytorch 框架编 程的愉快旅程。 1.5.1 线性回归过程 很坦诚的说,有很多资料把线性回归表述的很复杂、一堆公式 推导让初学者望而生畏,无法准确快速理解线性回归,这里作 者0 码力 | 13 页 | 5.99 MB | 1 年前3动手学深度学习 v2.0
48 2.2.3 转换为张量格式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.3 线性代数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.3.11 关于线性代数的更多信息 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.4 微积分 . . . . . . . . . . . . . . . . . . . . . . . . 82 3 线性神经网络 85 3.1 线性回归 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.1.1 线性回归的基本元素 . . . . . . . . . . . . . . . .0 码力 | 797 页 | 29.45 MB | 1 年前3《TensorFlow 快速入门与实战》4-实战TensorFlow房价预测
(输入和预期输出)中学到一个模型(函数), 并根据模型可以推断新实例的方法。 函数的输出通常为一个连续值(回归分析)或类别标签(分类)。 训练数据 学习算法 模型 新数据 推断结果 前置知识:监督学习典型算法 • 线性回归(Linear Regression) • 逻辑回归(Logistic Regression) • 决策树(Decision Tree) • 随机森林(Random 深度神经网络(DNN) 前置知识:线性回归 在统计学中,线性回归是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变 量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线 性组合。 前置知识:单变量线性回归 理想函数 假设函数 损失值(误差) 前置知识:单变量线性回归 前置知识:梯度下降 前置知识:多变量线性回归 假设函数 损失值(误差) 方法专门用于线性关系的可视化,适用于回归模型。 数据分析(2D) seaborn.lmplot 方法专门用于线性关系的可视化,适用于回归模型。 数据分析(3D) Axes3D.scatter3D 方法专门用于绘制3维的散点图。 数据归一化(3D) 数据处理:NumPy NumPy 是一个 BSD 开源协议许可的,面向 Python 用户的基础科学计算库,在多 维数组上实现了线性代数、傅立叶变换和其他丰富的函数运算。0 码力 | 46 页 | 5.71 MB | 1 年前3【PyTorch深度学习-龙龙老师】-测试版202112
知识,体会到知 识是为了解决问题而生的,避免陷入为了学习而学习的窘境。 尽管作者试图将读者的基础要求降到最低,但是人工智能不可避免地需要使用正式化的 数学符号推导,其中涉及到少量的概率与统计、线性代数、微积分等数学知识,一般要求读 者对这些数学知识有初步印象或了解即可。比起理论基础,读者需要有少量的编程经验,特 别是 Python 语言编程经验,显得更加重要,因为本书更侧重于实用性,而不是堆砌公式。 6 开发环境安装 1.7 参考文献 第 2 章 回归问题 2.1 神经元模型 2.2 优化方法 2.3 线性模型实战 2.4 线性回归 2.5 参考文献 第 3 章 分类问题 3.1 手写数字图片数据集 3.2 模型构建 3.3 误差计算 3.4 真的解决了吗 3.5 非线性模型 3.6 表达能力 3.7 优化方法 3.8 手写数字图片识别体验 映射关系??: ? → ?,其中??代表模型函数,?为模型的参数。在训练时,通过计算模型的预 测值??(?)与真实标签?之间的误差来优化网络参数?,使得网络下一次能够预测更精准。常 见的有监督学习有线性回归、逻辑回归、支持向量机、随机森林等。 无监督学习 收集带标签的数据往往代价较为昂贵,对于只有样本?的数据集,算法需 要自行发现数据的模态,这种方式叫作无监督学习。无监督学习中有一类算法将自身作为 监督信号,即模型需要学习的映射为0 码力 | 439 页 | 29.91 MB | 1 年前3机器学习课程-温州大学-09机器学习-支持向量机
机器学习-支持向量机 黄海广 副教授 2 本章目录 01 支持向量机概述 02 线性可分支持向量机 03 线性支持向量机 04 线性不可分支持向量机 3 1.支持向量机概述 01 支持向量机概述 02 线性可分支持向量机 03 线性支持向量机 04 线性不可分支持向量机 4 1.支持向量机概述 支 持 向 量 机 ( Support Vector learning)方式对数据进行二元分类的广义线性 分类器(generalized linear classifier),其决 策边界是对学习样本求解的最大边距超平面( maximum-margin hyperplane) 。 与逻辑回归和神经网络相比,支持向量机,在学 习复杂的非线性方程时提供了一种更为清晰,更 加强大的方式。 支持向量 距离 5 1.支持向量机概述 硬间隔、软间隔和非线性 SVM 假如 假如数据是完全的线性可分的,那么学习到的模型可以称为硬间隔支持向 量机。换个说法,硬间隔指的就是完全分类准确,不能存在分类错误的情 况。软间隔,就是允许一定量的样本分类错误。 软间隔 硬间隔 线性可分 线性不可分 6 支持向量 1.支持向量机概述 算法思想 找到集合边缘上的若干数据(称为 支持向量(Support Vector)) ,用这些点找出一个平面(称为决 策面),使得支持向量到该平面的0 码力 | 29 页 | 1.51 MB | 1 年前3
共 73 条
- 1
- 2
- 3
- 4
- 5
- 6
- 8