搜索资源列表
FASBIR
- Descr iption: FASBIR(Filtered Attribute Subspace based Bagging with Injected Randomness) is a variant of Bagging algorithm, whose purpose is to improve accuracy of local learners, such as kNN, through multi-model perturbing ensemble. Reference:
bagging-and-boosting-NNE
- 主要是给新手熟悉bagging和boosting算法在虹膜中的运用。-bagging and boosting algorithm in the application of the iris.
Baggingboostingandc45
- 模式识别bagging boosting c4.5算法-Bagging boosting c4.5 algorithm for pattern recognition
BoostingandBagging
- boosting算法和bagging算法综述-boosting algorithm and bagging Algorithms
OCD--code
- 通过对集成误差公式的理论分析,提出了一种能主动引导个体网络进行差异性学习的集成网络学习算法。该方法通过对集成误差的分解,使个体网络的训练准则函数中包含个体网络误差相关度的因素,并通过协同训练,引导个体网络进行差异性学习。该方法在基于油气分析的变压器故障诊断的实验结果表明,该方法的故障诊断准确率优于传统的三比值法与BP神经网络,其性能也比经典的集成方法Bagging和Boosting方法更稳定可靠。-A learning algorithm is proposed in this paper by
ADL-code
- 通过对集成误差公式的理论分析,提出了一种能主动引导个体网络进行差异性学习的集成网络学习算法。该方法通过对集成误差的分解,使个体网络的训练准则函数中包含个体网络误差相关度的因素,并通过协同训练,引导个体网络进行差异性学习。该方法在基于油气分析的变压器故障诊断的实验结果表明,该方法的故障诊断准确率优于传统的三比值法与BP神经网络,其性能也比经典的集成方法Bagging和Boosting方法更稳定可靠。-A learning algorithm is proposed in this paper by
adaboos
- 当弱分类器算法使用简单的分类方时,boosting的效果明显地统一地比bagging要好.当弱分类器算法使用C4.5时,boosting比bagging较好,但是没有前者的比较来得明显.-When the weak classifier algorithm using simple classification method, boosting the effect clearly uniformly better than bagging. When the weak classifier
adaboost
- AdaBoost元算法属于boosting系统融合方法中最流行的一种,说白了就是一种串行训练并且最后加权累加的系统融合方法。 具体的流程是:每一个训练样例都赋予相同的权重,并且权重满足归一化,经过第一个分类器分类之后, 计算第一个分类器的权重alpha值,并且更新每一个训练样例的权重,然后再进行第二个分类器的训练,相同的方法....... 直到错误率为0或者达到指定的训练轮数,其中最后预测的标签计算是各系统*alpha的加权和,然后sign(预测值)。 可以看出,训练流程是串行的
55e9ae658d29
- 基于bagging算法的C++程序,包括matlab程序的结合。代码简单易懂,适合模式识别的初学者。-Based bagging algorithm C++ procedures, including combining matlab program. Code is easy to understand for beginners pattern recognition.
bagging
- bagging算法的R语言实现,完整代码,运行速度较快-bagging algorithm R language, the complete code to run faster
RandomForest
- 随机森林是由多棵树组成的分类或回归方法。主要思想来源于Bagging算法,Bagging技术思想主要是给定一弱分类器及训练集,让该学习算法训练多轮,每轮的训练集由原始训练集中有放回的随机抽取,大小一般跟原始训练集相当,这样依次训练多个弱分类器,最终的分类由这些弱分类器组合,对于分类问题一般采用多数投票法,对于回归问题一般采用简单平均法。随机森林在bagging的基础上,每个弱分类器都是决策树,决策树的生成过程中中,在属性的选择上增加了依一定概率选择属性,在这些属性中选择最佳属性及分割点,传统做法
Ensemble-Learning
- 集成学习将若干基分类器的预测结果进行综合,具体包括Bagging算法和AdaBoost算法;还有随机森林算法,利用多棵树对样本进行训练并预测的一种分类器-Integrated learning integrates the prediction results of several base classifiers, including Bagging algorithm and AdaBoost algorithm and random forest algorithm, using a t
SelectedEnsembleClassfier
- 选择性集成学习,遗传算法,Bagging算法(Selective integrated learning ,Genetic algorithm, Bagging algorithm)
SVM
- 选择性集成学习、遗传算法、Bagging算法(Selective integrated learning, genetic algorithm and Bagging algorithm)
vote
- 可以集成多个分类器的投票算法,采用python实现(The voting algorithm of multiple classifiers can be integrated and implemented by python.)
balancevote
- 针对不平衡样本的,可以综合多个分类器的投票算法。(For the unbalanced samples, the voting algorithm of multiple classifiers can be synthesized.)