朴素贝叶斯分类器可以作为adaboost算法的基分类器吗

我现在也遇到这个问题了,我感觉如果直接套用adaboost的一个最大问题是,朴素贝叶斯没有学习参数,每次adaboost调整的都是训练数据的权重分布,而这种调整不影响送入朴素贝叶斯分类器的训练数据样本,这样就有一个问题,那就是朴素贝叶斯训练的结果完全一样。弱分类器岂不是毫无差别了?我感觉楼上的论文可能是正解,单纯套用应该不行,还望大神指正!
■网友
可以的,A Hybrid Discriminative/Generative Approach for Modeling Human Activities看这篇文章,作者用了naive bayesian 和decision stump作为基分类器,只是结果得出decision stump 的效果要好点。
■网友
朴素贝叶斯分类器应该不能选做Adaboost的基分类器,因为贝叶斯分类器在分类时需要知道先验概率。Adaboost的一大优势就是分类之前并不需要先验概率。选择Adaboost的基分类器不少,决策树一类的都可以用,比如ID3,C4.5,CART算法等。我最近在做分类器融合算法的研究,知道就这些,希望对你有些帮助
■网友
其实是可以的。(参考文献:Kim, Y.-H., Hahn, S.-Y., and Zhang, B.-T. 2000. Text ?ltering by boosting naive Bayes classi?ers. In Proceedings of SIGIR-00, 23rd ACM International Conference on Research and Development in Information Retrieval (Athens, GR, 2000), pp. 168–75.)不过这里面每次迭代调整的是训练数据的抽样。文章里分类器的训练数据是通过Roulette Wheel Selection得来的。通过adaboost中每次计算权重向量D来调整抽样,从而使训练出来的朴素贝叶斯分类器达到最优。
■网友
正巧作业就是实现boosting naive Bayesian classifier 。老师给的hint是通过修改先验概率,来达到修改类似模板中权重的目的。
因为对于一个样本,若猜错了它的分类,那说明其正确分类的概率不够大,可以调大对应的先验概率,使得后验增大。
【朴素贝叶斯分类器可以作为adaboost算法的基分类器吗】 个人猜测,同理,对于这种lazy learning 例如还有KNN,也可以通过迭代调整K,来套boosting。


    推荐阅读