pdf文档 机器学习课程-温州大学-02机器学习-回归

1.50 MB 33 页 0 评论
语言 格式 评分
中文(简体)
.pdf
3
摘要
本文档系统阐述了机器学习中回归的核心内容,重点介绍了线性回归的理论和算法流程。线性回归通过属性的线性组合进行预测,旨在找到最佳直线或超平面以最小化预测误差。文档详细解释了损失函数、代价函数和目标函数的概念,强调了梯度下降在优化模型参数中的应用,并讨论了正则化技术用于防止过拟合。最后,介绍了回归评价指标,如均方误差(MSE)、均方根误差(RMSE)和平均绝对误差(MAE),这些评价指标帮助评估模型预测性能。
AI总结
以下是对文档内容的总结: --- ## 《机器学习课程-温州大学-02机器学习-回归》摘要 ### 1. 回归的基本概念 - **回归(Regression)**:用于预测连续值,例如房价预测或股票走向预测。 - **分类(Classification)**:用于预测离散值,例如判断肿瘤性质(良性或恶性)。 ### 2. 线性回归 - **定义**:通过属性的线性组合进行预测,目标是找到一条直线或超平面,使预测值与真实值的误差最小化。 - **符号约定**: - $m$:训练样本数量。 - $n$:特征数量。 - $x$:输入变量(特征)。 - $y$:目标变量(输出)。 - $(x^{(i)}, y^{(i)})$:第$i$个样本。 - $h$:学习算法的假设函数,$h(x) = w_0 + w_1x_1 + w_2x_2 + \dots + w_nx_n$。 - $\hat{y} = h(x)$:预测值。 - **损失函数**:平方损失函数(Least Square Loss),即单样本预测错误的平方。 - **代价函数**:残差平方和(RSS)的平均值,即均方误差(MSE)。 - **目标函数**:由代价函数和正则化项组成,便于优化。 ### 3. 梯度下降 - 梯度下降是一种优化算法,用于最小化损失函数。 - 学习率($\alpha$)控制更新步长,影响收敛速度。 ### 4. 正则化 - 目的:防止模型过拟合。 - 常用方法:L1正则化和L2正则化。L2正则化通过添加模型权重的平方项到目标函数中实现。 ### 5. 回归的评价指标 - **均方误差(MSE)**:预测值与真实值误差的平方的平均值。 - **均方根误差(RMSE)**:MSE的平方根,单位与真实值一致。 - **平均绝对误差(MAE)**:预测值与真实值误差的绝对值的平均值。 --- 总结完毕。
P1
P2
P3
P4
P5
P6
P7
下载文档到本地,方便使用
- 可预览页数已用完,剩余 26 页请下载阅读 -
文档评分
请文明评论,理性发言.