搜索资源列表
ZDT4
- 为了有效地应用遗传算法解决 鲁棒控制系统设计问题,将遗传算法与局部优化方法相结合,提出了基于降维扫描方法的自适应多目标遗传算法(DRSA-MOGA)。通过引入适应度函数标准化方法、基于最优Pareto解集搜索的降维扫描方法和适应度函数自适应调整方法,提高了算法的全局优化性能和局部搜索能力。仿真结果表明,DRSA-MOGA算法在不损失解的均匀度的情况下可以达到很高的逼近度
SVMcgForRegress
- 支持向量回归机的参数选择程序,通过交叉验证选择惩罚参数、损失函数以及核函数-SVM parameter selection procedure
fisher-linear-discriminant-analysis
- 本函数的功能是通过使用fisher线性判别方法求取数据的fisher直径,最佳分类数和最小分类损失函数。-Features of this function is to strike a diameter of data by using fisher fisher linear discriminant analysis method, the optimal number of categories and minimum loss function classification.
jinlinhanshuzhunzejuleifangfa
- 近邻函数值准则聚类算法 m 程序,一种跟好用的分类函数方法。 第一步 得到距离矩阵D 第二步 得到近邻系数矩阵M 第三步 得到近邻函数值矩阵,其中的元素也是相应的连接损失 第四步 建立类似数据库的变量s class_num 是每个元素所属的类,如class_num(1)=3表示第一个样本应属于第3类 注意,这里的3紧是类号,很多类号里是没有元素的 class_info 的第二行是类号,的第一行是该类的个数 s 的第一行存样本,第二
baggingPLS
- bagging PLS 一种集合建模的策略,可以根据需要改变子模型的大小,更改模型的损失函数。-A collection of bagging PLS modeling strategy, you can change the size of the sub-models necessary, change the loss function model.
fitness
- 比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型。常见的最优化方法有梯度下降法、牛顿法和拟牛顿法
多输出支持向量回归
- (13.1)具有多分段损失函数的多输出支持向量机回归算法(MSVR algorithm with piecewise loss function): (13.2)MSVR。