搜索资源列表
Untitled
- 手写体数字辨别,样本数据与训练数据均来自UCI 机器学习数据库网站:http://archive.ics.uci.edu/ml/datasets.html 采用BP多学习率算法-BP algorithm of neuro network
w-h
- 利用W-H规则进行网络训练时应该选取小学习率使其收敛,大的学习率会使网络发散-WH rules for network training, it should select small learning rate convergence, the learning rate will make the network divergence
enhanced-BP
- bp神经网络改进算法加入局部学习率自适应调整机制程序用于拟合函数-bp Neural Network Algorithm local learning rate adaptive adjustment mechanism procedure for fitting function
BP
- BP神经网络是一个前向网络,它利用误差反向传播算法对网络进行训练,结构简单,可塑性强。本例选择3层BP神经网络(隐层为1层)来逼近函数,单输入单输出,隐层包含7个神经元,预设精度为0.1,学习率设为0.1,循环次数为5000次,达到循环次数,或结果达到预设精度要求,结束计算。激活函数选择双曲函数,采用梯度下降法,通过神经元的输入和误差,以及权值的学习速率来计算权值的变化率。将输入提供给网络后,神经元的激活值从输入层经各中间层向输出层传播,输出层的神经元获得网络的输入相应。接下来,按照减少目标输出
BP-neural-networks-algorithm
- 本程序为一个误差向后传播的三层前馈神经网络有指导的学习算法:Gauss变异动态调整BP算法中学习率参数和冲量系数-This program is a three-layer error back propagation feedforward neural networks supervised learning algorithm: the Gauss variation dynamically adjusts the learning rate in BP algorithm paramet
CODpredict
- 有附加动量项和可变学习率的BP神经网络建模和预测!-Additional momentum term and variable learning rate BP neural network modeling and prediction!
backprop
- BP神经网络算法实现 批量处理的BP算法,隐层数为1 Z为特征向量组成的矩阵,n*m维,一行为一个样本 labZ为数据的类别,n*1维,每行对应样本的类别 M为隐层节点个数,T为迭代次数上限, epsilon为用于判断收敛的误差值,eta为学习率 W1为输入到隐层的权重,M*m维,B1为偏差,也就是乘以1的那个权重,M*1维 W2为隐层到输出的权重,c*M维,B2意义同B1,c*1维 estored为MLP的均方误差,每行是一次的误差
steepest_lin_ex
- 沿直线最小化优化学习率的梯度下降法matlab版本的一个实例源代码,带轨迹收敛图。-a source code of steepest descent with learning rate to minimize along the line by matlab
MLPNN
- bp神经网络,在线训练,函数逼近,可以研究学习率,神经元个数,采样频率对网络精度的影响-BP neural network, online training, function approximation
ILC_PID_paratemer
- ILC算法中PID学习率中PID参数的选择优化程序-Select the PID algorithm optimization program ILC learning rate in PID parameters
ZSYFLJS
- 基于自适应学习率独立分量分析的图像盲分离-Blind adaptive learning rate based on independent component analysis separated
bpann
- 严格按照BP网络计算公式来设计的一个matlab程序,对BP网络进行了优化设计 优化1:设计了yyy,即在o(k)计算公式时,当网络进入平坦区时(<0.0001)学习率加大, 出来后学习率又还原 优化2:v(i,j)=v(i,j)+deltv(i,j)+a*dv(i,j) -A Matlab procedures in strict accordance with the BP network computing formula to design, the optimizati
gaijinBPdaima
- BP神经网络,采用差异化学习率,进行自适应调节网络权值与阈值-BP u799E u7ECE u7EF1 u7EDR uFF0C u91C7 u758 u5DEE u5F02 u5316 u5B66 u4E60 u7387 uFF0C u8FDB u884C u81EA u9002 u5E94 u8C03 u8283 u7F51 u7EDC u6743 U503C u4E0E u9608 u503C
rbf
- 自己编写RBF神经网络程序,RBF神经网络隐层采用标准Gaussian径向基函数,输出层采用线性激活函数,其中数据中心、扩展常数和输出权值均用梯度法求解,它们的学习率均为0.001。其中隐节点数选为10,初始输出权值取[-0.1,0.1]内的随机值,初始数据中心取[-1,1]内的随机值,初始扩展常数取[0.1,0.3]内的随机值,输入采用[0 1]的随机阶跃输入(Write your own RBF neural network, RBF neural network hidden layer
Project1
- 多层神经网络,在训练过程中采用自适应学习率Adagrad方法。可以实现回归或分类问题。(The adaptive learning rate Adagrad method is adopted in the training process of the multilayer neural network. Regression or classification problems can be achieved.)
lrCostFunction
- 输入权值、学习率、输入和输出,就可以计算得到损失值和梯度值(Input weight, learning rate, input and output can be calculated for loss value and gradient value)
CNN-matlab
- 卷积神经网络在matlab中的应用,可自行修改学习率和循环次数(Convolutional Neural Network in Matlab)
剪枝操作.tar
- 这是用于人脸识别相关论文,包括迁移学习,神经网络训练学习率,超参数设置等(This is for face recognition related papers, including migration learning, neural network training learning rate, super parameter setting, etc.)
ADAM
- ADAM (Adaptive Moment Estimation)是另外一种自适应学习率算法,它结合动量梯度 下降法,在不同参数方向上采用不同学习率,保留前几次迭代的梯度,能够很好 的适应于稀疏数据。(ADAM (Adaptive Moment Estimation) is another adaptive learning rate algorithm, which combines momentum gradient. The descent method, which uses di
IDBD
- IDBD算法是一种增量元学习算法。包括两个部分,第一部分针对作为其基础的LMS算法,其中包括利用时变步长参数的一个细小改动,并且FIR滤波器的M个抽头权值都依照向量方法自动调整;第二部分由三个公式组成的附加项,其中两个涉及相关记忆参数,第三个是元学习率参数的人工调整。