Adaboost In MNIST
adaboost模型简介
boosting(提升)方法是一种常用的统计学习方法。在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能。本文中所介绍的adaboost就是在boost中具有代表性的方法。
我们学习分类器的基本思想是:因为相对于强分类器,弱分类器更加容易发现;所以我们通过学习一系列的弱分类器,通过对弱分类器的线性组合构成一个强分类器。其实就是”三个臭皮匠顶个诸葛亮”的基本思想。
其中adaboost方法中的特点有:
- 我们通过上一轮学习到的弱分类器来对下一轮的数据集权重进行改变。当前学习的分类器的误分类误差率越大的其分类器权重越高,反之则不然。
- 在通过当前分类器更改数据集的权重的时候,误分类的数据样本权重增大,正确分类的样本权重降低。
代码如下:
|
|
预测结果:
在设定弱分类器个数为50个的情况下,adaboost模型在mnist上的表现还是不错的: