搜索资源列表
-
1下载:
这是一个快速的拟牛顿法程序,非常实用,非常强大-FMINLBFGS is a Memory efficient optimizer for problems such as image registration with large amounts of unknowns, and cpu-expensive gradients.
Supported:
- Quasi Newton Broyden–Fletcher–Goldfarb–Shanno (BFGS).
-
-
-
3下载:
计算梯度下降法计算极值,只能找到局部最小点。可以通过调整步长实现全局最小-Calculation of gradient descent method to calculate extreme value, can only find local minimum point. By adjusting the step size can achieve the global minimum
-
-
0下载:
最速梯度下降法-Steepest gradient descent method
-
-
0下载:
比较了三种学习方法 1 gradient descent 2 steepest descent with line search
3 conjugate gradient method. 三种方法都在一个.m文件中被实现。-compare three learning methods: 1 gradient descent 2 steepest descent with line search
3 conjugate gradient method.
-
-
0下载:
两种不同编码的黄金分割法 基于信息熵的免疫算法 最速下降法 梯度算法-Two different coding golden section method immune algorithm based on information entropy gradient algorithm steepest descent method
-
-
0下载:
BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法(梯度法),通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input layer)、隐层(hide layer)和输出层(outpu
-