✍个人博客:https://blog.csdn.net/Newin2020?spm=1011.2415.3001.5343
📣专栏定位:为学习吴恩达机器学习视频的同学提供的随堂笔记。
📚专栏简介:在这个专栏,我将整理吴恩达机器学习视频的所有内容的笔记,方便大家参考学习。
📝视频地址:吴恩达机器学习系列课程
❤️如果有收获的话,欢迎点赞👍收藏📁,您的支持就是我创作的最大动力💪
六、过拟合及正则化
1. 过拟合问题
在开始介绍这节课内容之前,我们先来看一个线性回归的例子。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Mf4W8nIJ-1669683155508)(吴恩达机器学习.assets/image-20211105123753222.png)]](https://img-blog.csdnimg.cn/af17cfd5af244d1f93fe263e9e7ef9d7.png)
左图我们发现,所用的假设函数是一条直线,所以无法很好拟合数据,这我们称之为欠拟合(高偏差),中图即是最理想的拟合曲线,而右图的曲线就显得十分扭曲,但它经过了所有的数据点,可我们最后还是不能用它去预测新的数据,这我们称之为过拟合(高方差),当然除了线性回归问题,逻辑回归同样可能会出现过拟合的现象。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0qVHwqTb-1669683155511)(吴恩达机器学习.assets/image-20211105124601460.png)]](https://img-blog.csdnimg.cn/bc434fdaa8c44228abe03fd9b52be2c4.png)
过拟合(Overfitting)
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aXZ6JsNI-1669683155513)(吴恩达机器学习.assets/image-20211105124049027.png)]](https://img-blog.csdnimg.cn/bf7b65391a7240d1b38264db63d53f41.png)
这种问题,通常会出现在过量变量但数据过少的情况,J(θ)的值会接近于0,但却无法去预测新样本。
想要解决过拟合问题有下面两种方法:
-
减少变量的数量
- 可以人工的去选择一些可以删除的变量。
- 也可以用之后要讲到的算法模型,去自动筛选变量。
缺点:这种方法,可能会导致一些有用变量的丢失,失去了一些有效信息。
-
正则化(Regularization)
- 保留所有变量,但是减小量级(magnitude)或者参数θj的大小。
优点:这种方法可以很好地确保那些对y的预测有帮助的变量不会丢失。
2. 正则化
正则化(Regularization)
通过减小对结果没什么用的θ值使其值接近于零,从而弱化其对结果的影响,简化函数。
线性回归的正则化
其正则化的代价函数如下:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PsPvLzVw-1669683155517)(吴恩达机器学习.assets/image-20211105133321077.png)]](https://img-blog.csdnimg.cn/b026541d22934a229baba12b7125db33.png)
在代价函数中表示正则化的是上图的公式中带λ的式子,因为不知道哪个参数会对结果产生影响,所以就交给模型去判断该减小哪个θ值,所以选择都进行减小。其中λ是用来平衡正则化式子与其左边优化式子的关系,而将θ平方是为了防止正负号影响结果。但是如果λ值过大的话,可能会使所有参数都趋于0,那得出的曲线就接近于一条曲线了。
-
梯度下降
在线性回归中使用正则化时,如果用梯度算法,则其中对J(θ)求θ偏导的式子也会有一点改变,实际上就在θj公式后面加一个(λ/m)θj小式子。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XrGBA05p-1669683155519)(吴恩达机器学习.assets/image-20211105141059080.png)]](https://img-blog.csdnimg.cn/166f630111ca428cb351c550b7a1a3ad.png)
我们通过将含θj的项合并,可以得到1-α(λ/m),而这个式子其实之比1小一点点,可能是0.99,这样将0.99×θj每次 就只会缩小θj一点点,后面的式子都跟之前所示一样。
-
正规方程
在正规方程中用正则化,只需在原来的公式中加上一个λ×一个矩阵即可。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-trWrQAkC-1669683155522)(吴恩达机器学习.assets/image-20211105142243701.png)]](https://img-blog.csdnimg.cn/908ff2fb9e5c41a2b2ebf5215f3fb995.png)
用正则化有一个好处就是可以解决一些矩阵不可逆的问题,因为前面我们讲到,如果样本数量比特征数量还要大时(XTX)-1是不可逆的,但是如果用正则化的话,只要保证λ大于0,就可以保证其中逆矩阵的式子一定可逆。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0JeHD2pn-1669683155524)(吴恩达机器学习.assets/image-20211105142922329.png)]](https://img-blog.csdnimg.cn/040aef24b6e146d58c561206b8784345.png)
逻辑回归的正则化
其正则化的代价函数如下:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dybDboon-1669683155526)(吴恩达机器学习.assets/image-20211105145131284.png)]](https://img-blog.csdnimg.cn/e489dbc7d8af4537ae7113a8770f4f5f.png)
其实与线性回归的正则化代价函数的相似之处,都在原有函数后加上一个正则化公式。
- 梯度下降
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0k6O9HEc-1669683155529)(吴恩达机器学习.assets/image-20211105145641496.png)]](https://img-blog.csdnimg.cn/713a5eff25644f75b4f2359c61aa167b.png)
式子与线性回归的梯度下降很相似,表面上没什么区别,但还是那个原因,两者的假设函数不同。
-
高级优化函数
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-r8fPi9fi-1669683155532)(吴恩达机器学习.assets/image-20211105151514222.png)]](https://img-blog.csdnimg.cn/22e3c8bc3b9d473dbd8984f170e1bb85.png)
这里还是类似,同样是在公式后面加上了一个正则化的式子。

![[附源码]计算机毕业设计springboot贷款申请审核管理系统论文](https://img-blog.csdnimg.cn/2e3b20e982c74790afbbca38165be692.png)

















