搜索资源列表
ZDT4
- 为了有效地应用遗传算法解决 鲁棒控制系统设计问题,将遗传算法与局部优化方法相结合,提出了基于降维扫描方法的自适应多目标遗传算法(DRSA-MOGA)。通过引入适应度函数标准化方法、基于最优Pareto解集搜索的降维扫描方法和适应度函数自适应调整方法,提高了算法的全局优化性能和局部搜索能力。仿真结果表明,DRSA-MOGA算法在不损失解的均匀度的情况下可以达到很高的逼近度
astrom
- 以《随机控制理论导论》为基础,使用astrom算法计算控制系统的损失函数,支持符号计算与数值计算
svm4
- -s svm类型:SVM设置类型(默认0) 0 -- C-SVC 1 --v-SVC 2 – 一类SVM 3 -- e -SVR 4 -- v-SVR -t 核函数类型:核函数设置类型(默认2) 0 – 线性:u v 1 – 多项式:(r*u v + coef0)^degree 2 – RBF函数:exp(-r|u-v|^2) 3 –sigmoid:tanh(r*u v + coef0) -d degree
hidden-space
- 最小二乘隐空间支持向量机 王玲 薄列峰 刘芳 焦李成 ! 在隐空间中采用最小二乘损失函数$提出了 最 小 二 乘 隐 空 间 支 持 向 量 机#0*&**52H 8 同 隐 空 间 支 持 向 量机#&**52H 一样$最小二乘隐空间支持向量机不需 要 核 函 数 满 足 正 定 条 件$从 而 扩 展 了 支 持 向 量 机 核 函 数 的 选择范围 8 由于采用了最小二乘损失函数$最小二乘隐空间支持向量机产生的优 化 问 题 为 无 约 束 凸 二 次 规
SVMcgForRegress
- 支持向量回归机的参数选择程序,通过交叉验证选择惩罚参数、损失函数以及核函数-SVM parameter selection procedure
fisher-linear-discriminant-analysis
- 本函数的功能是通过使用fisher线性判别方法求取数据的fisher直径,最佳分类数和最小分类损失函数。-Features of this function is to strike a diameter of data by using fisher fisher linear discriminant analysis method, the optimal number of categories and minimum loss function classification.
jinlinhanshuzhunzejuleifangfa
- 近邻函数值准则聚类算法 m 程序,一种跟好用的分类函数方法。 第一步 得到距离矩阵D 第二步 得到近邻系数矩阵M 第三步 得到近邻函数值矩阵,其中的元素也是相应的连接损失 第四步 建立类似数据库的变量s class_num 是每个元素所属的类,如class_num(1)=3表示第一个样本应属于第3类 注意,这里的3紧是类号,很多类号里是没有元素的 class_info 的第二行是类号,的第一行是该类的个数 s 的第一行存样本,第二
baggingPLS
- bagging PLS 一种集合建模的策略,可以根据需要改变子模型的大小,更改模型的损失函数。-A collection of bagging PLS modeling strategy, you can change the size of the sub-models necessary, change the loss function model.
ReadGreen
- 调用scooter 软件生成的格林函数,计算传播损失等。-Call the scooter green function generated by the software, computing transmission loss, etc.
lrCostFunction
- 输入权值、学习率、输入和输出,就可以计算得到损失值和梯度值(Input weight, learning rate, input and output can be calculated for loss value and gradient value)
fitness
- 比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型。常见的最优化方法有梯度下降法、牛顿法和拟牛顿法
gan
- 对抗网络的基本代码,实现了两种gan,包括了网络架构,损失函数的定义(Two kinds of Gan are implemented against the basic code of the network)
Chapter04
- 基于tensorflow 的神经网络的损失函数,学习率,正则化,滑动平均等方法(Method of loss function, learning rate, regularization and sliding average of neural network based on tensorflow)
多输出支持向量回归
- (13.1)具有多分段损失函数的多输出支持向量机回归算法(MSVR algorithm with piecewise loss function): (13.2)MSVR。
深度学习CNN手写数字识别
- 利用CNN网络手写数字识别,注释清楚,损失函数用的是focalloss,标注明确,可以跑通,框架是pytorch