注:参考B站视频教程
视频链接:【(强推|双字)2022吴恩达机器学习Deeplearning.ai课程】
文章目录
- 第一周
- 一、监督学习与无监督学习
- 二、线性回归
- 三、梯度下降
- 第二周
- 一、向量化
- 二、特征缩放
- 第三周
- 一、逻辑回归
- 二、训练逻辑回归模型
- 三、逻辑回归中的梯度下降
- 四、正则化
第一周
一、监督学习与无监督学习
监督学习:输入数据和标签,让机器进行学习后,再输入一个它从未见过的数据,让机器预测输出。
一些监督学习的例子:

1、回归:房价预测

2、分类:乳腺癌检测


分类需要找到一个“决策边界”

3、监督学习总结

无监督学习:数据和标签之间没有联系

4、聚类:新闻&基因序列&人员分组
聚类:获取没有标签的数据,尝试将他们自动分组到不同的簇中去。



5、无监督学习的总结


二、线性回归
线性回归模型是一种特殊类型的监督学习模型
1、线性回归模型

训练集:

预测函数 f(x)

2、代价函数
a、代价函数公式



b、理解代价函数




c、可视化代价函数
当只有一个参数w时,代价函数看起来像U型曲线

当有两个参数w和b时:


三、梯度下降
编写算法,能够自动找到w和b,最小化代价函数,使用梯度下降进行训练
1、梯度下降的实现

出现局部最小值:
同步更新w和b:

2、理解梯度下降

3、学习率

局部最小值:

接近最小值,导数会自动变小,参数更新步伐变小:

4、导数更新过程


用于线性回归的梯度下降,代价函数不会出现多个局部最小值,只会有一个全局最小值,图像是一个凸函数

5、运行梯度下降

第二周
一、向量化
1.1多维特征

含有n个特征的模型的定义:

多元线性回归模型:

1.2向量化-part1

1.3向量化-part2
使用Numpy的点积运算,效率更高


1.4用于多元线性回归的梯度下降法


二、特征缩放
2.1特征缩放-part1


重新缩放这些特征,使它们具有可比较的值的范围,可以显著加快梯度下降速度

2.2特征缩放-part2
最大值归一化

均值归一化

Z-Score归一化

当数据差别较大时,最好进行特征缩放

2.3判断梯度下降是否收敛

2.4如何设置学习率
当把α设置为很小的值时,发现损失函数J的值还会增大,说明是程序出现了bug


2.5特征工程

2.6多项式回归


第三周
一、逻辑回归
1.1分类

线性回归不适合于分类问题

1.2逻辑回归
逻辑回归虽然有“回归”这个词,但它是用来分类的

逻辑回归模型


1.3决策边界

线性决策边界

非线性决策边界

逻辑回归可以学会拟合非常复杂的数据
如果不用高阶多项式,也就是说你使用的特征只有x1,x2,x3,那么逻辑回归的决策边界永远是线性的,永远是一条直线

二、训练逻辑回归模型
2.1逻辑回归中的代价函数
给定训练集,如何选择参数w和b

对逻辑回归来说,平方损失函数不是一个好的选择,用它生成的图中会有很多局部最小值

逻辑回归模型定义


总结

2.2简化逻辑回归代价函数
y不是0就是1,不能取其他任何值


三、逻辑回归中的梯度下降

逻辑回归中的梯度下降方法

虽然逻辑回归的梯度下降公式和线性回归中的十分相似,但是本质并不一样,因为函数f(x)的定义变了

四、正则化
4.1过拟合问题


4.2解决过拟合问题
- 收集更多训练数据
- 减少特征数量
- 正则化


正则化要做的是尽可能地让算法缩小参数的值,而不是要求一定要把参数变为0
正则化的作用是:保留所有的特征,但防止特征权重过大,只有时候会导致过拟合

参数b是否正则化,并没有太大的区别
总结

4.3正则化

正则化的思想是:参数值越小,模型可能越简单,也许是因为模型的特征变少了,那它过拟合的可能性也变小了

选择合适的正则化参数λ

4.4用于线性回归的正则化方法

以下是可选内容
正则化在每次迭代中做的就是,将w乘上一个略小于1的数

推导过程:

4.5用于逻辑回归的正则化方法


![[运维]如何快速压缩一个数据库的硬盘占用大小(简单粗暴但有效)](https://img-blog.csdnimg.cn/0dc175448b2e41ddb7a05ca6477f8aa6.jpeg)














![[附源码]JAVA毕业设计日常办公管理系统(系统+LW)](https://img-blog.csdnimg.cn/9aa1ede28d7e472cab8d2841c1b45ffe.png)



