搜索资源列表
广义异或集成神经网络算法
- 本程序用C语言实现了集成神经网络解决广义异或问题。用神经网络集成方法做成表决网,可克服初始权值的影响,对神经网络分类器来说:假设有N个独立的子网,采用绝对多数投票法,再假设每个子网以1-p的概率给出正确结果,且网络之间的错误不相关,则表决系统发生错误的概率为 Perr = ( ) pk(1-p)N-k 当p<1/2时 Perr 随N增大而单调递减. 在工程化设计中,先设计并训练数目较多的子网,然后从中选取少量最佳子网形成表决系统,可以达到任意高的泛化能力。 -this pro
DM4
- 执行流程: 1. 用户输入参数:K的选择,训练数据,测试数据的路径; 2. 读取训练数据集和测试数据集文件,用ArffFileReader类读取并组织起InstanceSet数据结构; 3. 利用上面的相似度量标准,对每一个测试集中的Instance,计算与其最相似的K个训练集中的Instance,通过投票进行分类,将分类结果存储经Instance的成员变量targetGuess中; 4. 对分类结果进行度量,包括分类正确率,各种类别实例的Precision,Recall;Con
gyy
- 从因子分析的角度出发解决基因表达谱分析问题。为解决独立成分分析方法在求解过程中的不稳定性,提出一种基于选择性独立成分分析的DNA微阵列数据集成分类器。首先对基因表达水平的重构误差进行分析,选择部分重构误差较小的独立成分进行样本重构,然后基于重构后的样本同时训练多个支持向量机基分类器,最后选择部分分类正确率较高的基分类器进行最大投票以得到最终结果。在3个常用测试集上验证了本文设计方法的有效性。-This paper tries to deal with gene expression proble
RandomForest
- ID3决策树+随机森林算法生成决策森林,采用投票机制进行决策;有训练数据aaa和测试数据bbb;非常适合机器学习的初学者-The ID3 the+ random forest algorithm to generate decision forests voting mechanism for decision-making training data the the aaa and test data bbb ideal for machine learning beginners
RandomForest
- ID3决策树+随机森林算法生成决策森林,采用投票机制进行决策-The ID3 the+ random forest algorithm to generate decision forests voting mechanism for decision-making training data
VELM
- 采用多个超限学习机(ELM)投票机制来提升算法准确率。-Voting based Extreme Learning Machine
01DTree
- 步骤: 为了判断未知实例的类别,以所有已知类别的实例作为参照 选择参数K 计算未知实例与所有已知实例的距离 选择最近K个已知实例 根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别(steps: In order to determine the unknown instance categories, with examples of all known categories
机器学习之随机森林
- Bagging是并行式集成学习方法最著名的代表,Bagging通常对分类任务使用简单投票法,随机森林(RF)是Bagging的一个扩展变体,RF在以决策树为基学习器构建Bagging 集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。在RF中,集成模型的每棵树构建时所需的样本都是由训练集经过有放回的随机抽样得来(即自助采样法bootstrap sample)。