搜索资源列表
unconstrained_optimization
- VC实现的,多维函数搜索,无约束优化方法, (1)最速下降法 (2)阻尼牛顿法(3)共轭梯度法 (4)鲍维尔法(5)变尺度法(6)单纯形法 -VC implementation, multi-dimensional function of search, unconstrained optimization methods, (1), steepest descent method (2) damped Newton' s method (3) conjugate gradient
opt_steep
- 最速下降法,沿梯度下降的方法寻找最优解的经典方法-Steepest descent method
Newton
- 压缩包里包含了无约束优化问题常用的几种求解方法的源程序:变量轮换法(variable_rotation.m)、最速下降法(steepest_descent.m)、修正牛顿法(modified_newton.m)、共轭梯度法(conjugate_gradient.m)。另外,coefficient_matrix.m为目标函数系数获得矩阵,minval.m为最小值计算函数,gradient.m为梯度计算函数-Compression bag contains unconstrained optimiz
multidimensional-extremum-problems
- 无约束多维极值问题,包含 用模式搜索法求解多维函数的极值 用Rosenbrock法求解多维函数的极值 用单纯形搜索法求解多维函数的极值 用Powell法求解多维函数的极值 用最速下降法求解多维函数的极值 用共轭梯度法求解多维函数的极 用牛顿法求解多维函数的极值 用修正牛顿法求解多维函数的极值 用DFP法求解多维函数的极值 用BFGS法求解多维函数的极值 用信赖域法求解多维函数的极值 用显式最速下降法求正定二次函数的极值 -Unconstrain
matlabprogram
- 改进的最速梯度下降法,优于数值优化,matlab实现-Improved the speed gradient descent method, which is higher than that of numerical optimization
CG1
- matlab 最速下降法与共轭梯度法在matlab中的实现-matlab CG
conjugateGradient
- 共轭梯度法(Conjugate Gradient)是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。-failed to translate
LogisticRegression
- 用python实现逻辑回归,实现了梯度下降,随机梯度下降法收敛。-Realized the logistic regression by python, using gradient decescent, stochastic gradient decescent to diverge to the final point.
Exercise8
- LES算法。包含梯度下降法优化算法,并且以图示每一步迭代权值如何更新。-LES algorithms. Contains gradient descent optimization algorithm, and with each iteration illustrates how to update the weights.
MIT
- 基于梯度下降法的自适应控制的源代码,程序详细,可运行-Based on gradient descent method of adaptive control of source code, procedures detailed, can run
net_test_ok
- bp神经网络预测退火炉钢带温度,效果很好,对于理解负梯度下降法有很大帮助。-Steel temperature prediction.
zuisuxiajiang_2+gongetidu_4
- 使用最速下降法和共轭梯度法实现优化功能,基于MATLAB平台使用m语言编写(Based on the MATLAB platform, steepest descent method and conjugate gradient method are used to achieve the optimization function with M language.)
XOR2
- 该程序用BP神经网络解决XOR问题,其中设置了恒定权值、阈值和随机权值、阈值;并且将梯度下降法进行添加记忆一项来改进。(Using BP neural network to solve XOR problem, the program which set up a constant weight and threshold and random weight and threshold value;And the gradient descent method to add a to impro
优化算法
- 解决了最小无约束优化问题 步长由ARmijo非精确一维搜索生成,迭代方向分别由最速下降法,阻尼牛顿法,共轭梯度法,拟牛顿法(BFGS)产生(This code solves the minimum unconstrained optimization problem, and the step size is generated by ARmijo inexact one-dimensional search. The iterative directions are generated b
gradient.m
- 最速下降法的简明例子,注释详细,可以做参考意见(the easy example of steepest descent method)
智能优化算法资料
- 优化算法有很多,经典算法包括:有线性规划,动态规划等;改进型局部搜索算法包括爬山法,最速下降法等,模拟退火、遗传算法以及禁忌搜索称作指导性搜索法。而神经网络,混沌搜索则属于系统动态演化方法。 梯度为基础的传统优化算法具有较高的计算效率、较强的可靠性、比较成熟等优点,是一类最重要的、应用最广泛的优化算法。但是,传统的最优化方法在应用于复杂、困难的优化问题时有较大的局限性。(There are many optimization algorithms, the classical algori
L-BFGS-B-C-master
- 基于梯度下降法的最优迭代算法,在深度学习和神经网络中应用非常广泛,也非常好用(The optimal iterative algorithm based on gradient descent method is widely used in depth learning and neural network, and it is also very useful.)
最小二乘法-梯度下降法-牛顿法
- 用Python3在jupyter notebook实现最小二乘法,梯度下降法和牛顿法(Using Python3 to realize least square method, gradient descent method and Newton method in jupyter notebook)
梯度下降法求解回归问题
- 使用SOFTMAX分类器对已有的数据集进行分类(Classification of existing data sets using SOFTMAX classifier)