%0 Journal Article %T 一种提高神经网络集成差异性的学习方法 %A 李凯 %A 黄厚宽 %J 电子学报 %P 1387-1390 %D 2005 %X 集成学习已经成为机器学习的研究方向之一,它可以显著地提高分类器的泛化性能.本文分析了Bagging及AdaBoost集成方法,指出了这两种方法的缺陷;然后提出了一种新的基于神经网络的分类器集成方法DBNNE,该方法通过生成差异数据增加集成的差异性;另外,当生成一个分类器后,采用了测试方法确保分类器集成的正确率;最后针对十个标准数据集进行了实验研究,结果表明集成算法DBNNE在小规模数据集上优于Bagging及AdaBoost集成方法,而在较大数据集上也不逊色于这两种集成方法. %K 神经网络 %K 集成 %K 小规模数据集 %K 差异性 %K 泛化 %U http://www.ejournal.org.cn/CN/abstract/abstract4935.shtml