Framework of ML
- Loss on training data
- 1. large
- 1.1 Model Bias
- 1.2 Optimization
- 2. small
- Loss on testing data
- 2.1 large
- 2.1.1 overfitting
- 2.1.2 mismatch
- 2.2 small
通关手册:祝我通关成功!!!


Loss on training data
1. large
1.1 Model Bias

1.2 Optimization
优化做的不好,比如gradient descent这种方法有local minima的问题

那究竟是哪个问题呢?

- 显然56层的弹性更大,后36层copy identity可以轻而易举的做到,所以不是model bias的问题
怎样知道你的optimazation做的够不够好呢?

- 甚至是linear model或者support vector model

2. small
Loss on testing data
2.1 large
2.1.1 overfitting
training data的loss小,testing data的loss大,才叫做overfitting
为什么会出现这样的状况呢?


解决方案:
- 合理的augmentation

- 减弱flexible

如何制造限制?

-
CNN:比较没有弹性的model,根据影像的特性来限制模型的弹性。
但是限制也不要太多

这显得有些矛盾。。

model bias → overfitting
那是不是可以选择一个中庸的Model呢?
如果你直接从public testing set 中选出一个最优秀的就万事大吉了呢~

This explains why machine usually beats human on benchmark corpora.
这就是为什么我们要把 testing set 分开呀~

实操直接取validation最小的就好啦。
how to split training set?

2.1.2 mismatch
哈哈哈好可爱呀!!!

有人说它也是一种overfitting,但其实mismacth和overfitting的原因其实不同,overfitt可以用更多的训练资料来解决,但是mismatch ——

如何判断是不是dismatch,需要你对训练资料和测试资料的产生有
2.2 small
😃



















