搜索资源列表
data-mining-gradient-descent
- 机器学习,数据挖掘,利用梯度下降的算法来实现。-Machine learning, data mining, using the gradient descent algorithm.
bp-neural
- 采用动量梯度下降算法来训练 BP 神经网络,效果很好-BP neural training
bp-neural-training
- 采用动量梯度下降算法来训练 BP 神经网络,效果很好-BP neural training
conjugateGradient
- 共轭梯度法(Conjugate Gradient)是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。-failed to translate
dongliangsuanfa
- 采用动量梯度下降算法训练BP网络,证明,一个3层的BP网络能够实现任意的连续映射,可以任意精度逼近任何给定的连续函数。-Using momentum gradient descent algorithm to train the BP network, proved that a three-layer BP network to any continuous mapping can be arbitrary-precision approach any given continuous fun
Exercise8
- LES算法。包含梯度下降法优化算法,并且以图示每一步迭代权值如何更新。-LES algorithms. Contains gradient descent optimization algorithm, and with each iteration illustrates how to update the weights.
SVD_Simon
- SVD算法,用来实现矩阵分解,采用了梯度下降的思想来进行计算- SVD algorithm is used to implement matrix decomposition, using a gradient descent ideas to be calculated
gradient_descent-
- 梯度下降算法Python实现,用于logistic regression的训练问题。-Python implementation gradient descent algorithm for training logistic regression problems.
FNN
- 模糊神经网络,梯度下降算法。能以任意精度逼近任意连续函数-Neural network, gradient descent algorithm. Arbitrary precision can approximate any continuous function
haml
- 用C++实现了梯度下降求多元函数极值的算法,有可能会陷入局部最优解-By c++ implementation of a gradient descent algorithm of multivariate function extreme value, is likely to fall into local optimal solution
机器学习梯度下降
- 机器学习监督学习算法,梯度下降、批梯度下降(Machine learning supervised learning algorithms, gradient descent, batch gradient descent.)
Untitled
- 建立BP神经网络, 12个隐层神经元,4个输出神经元 tranferFcn属性 'logsig' 隐层采用Sigmoid传输函数 tranferFcn属性 'logsig' 输出层采用Sigmoid传输函数 trainFcn属性 'traingdx' 自适应调整学习速率附加动量因子梯度下降反向传播算法训练函数 learn属性 'learngdm' 附加动量因子的梯度下降学习函数(The BP neural network is established, with 12 hidden la
BPdaqi
- 利用BP神经网络,以及梯度下降算法,实现对大气PM2,5的预测。(The prediction of atmospheric PM2. 5 is realized by BP neural network and gradient descent algorithm.)
tdxj
- 机器学习中的梯度下降算法的python版本的代码实现。有需要的可以下载(Implementation of the python version of the gradient descent algorithm in machine learning. There is a need to download)
优化算法
- 解决了最小无约束优化问题 步长由ARmijo非精确一维搜索生成,迭代方向分别由最速下降法,阻尼牛顿法,共轭梯度法,拟牛顿法(BFGS)产生(This code solves the minimum unconstrained optimization problem, and the step size is generated by ARmijo inexact one-dimensional search. The iterative directions are generated b
智能优化算法资料
- 优化算法有很多,经典算法包括:有线性规划,动态规划等;改进型局部搜索算法包括爬山法,最速下降法等,模拟退火、遗传算法以及禁忌搜索称作指导性搜索法。而神经网络,混沌搜索则属于系统动态演化方法。 梯度为基础的传统优化算法具有较高的计算效率、较强的可靠性、比较成熟等优点,是一类最重要的、应用最广泛的优化算法。但是,传统的最优化方法在应用于复杂、困难的优化问题时有较大的局限性。(There are many optimization algorithms, the classical algori
A1
- 基于梯度下降的推荐算法, 数据库来自neflix网站所注册的用户。(recommendation algorithm based on gradient descent)
L-BFGS-B-C-master
- 基于梯度下降法的最优迭代算法,在深度学习和神经网络中应用非常广泛,也非常好用(The optimal iterative algorithm based on gradient descent method is widely used in depth learning and neural network, and it is also very useful.)