搜索资源列表
backprop
- BP神经网络算法实现 批量处理的BP算法,隐层数为1 Z为特征向量组成的矩阵,n*m维,一行为一个样本 labZ为数据的类别,n*1维,每行对应样本的类别 M为隐层节点个数,T为迭代次数上限, epsilon为用于判断收敛的误差值,eta为学习率 W1为输入到隐层的权重,M*m维,B1为偏差,也就是乘以1的那个权重,M*1维 W2为隐层到输出的权重,c*M维,B2意义同B1,c*1维 estored为MLP的均方误差,每行是一次的误差
MLPNN
- bp神经网络,在线训练,函数逼近,可以研究学习率,神经元个数,采样频率对网络精度的影响-BP neural network, online training, function approximation
ZSYFLJS
- 基于自适应学习率独立分量分析的图像盲分离-Blind adaptive learning rate based on independent component analysis separated
rbf
- 自己编写RBF神经网络程序,RBF神经网络隐层采用标准Gaussian径向基函数,输出层采用线性激活函数,其中数据中心、扩展常数和输出权值均用梯度法求解,它们的学习率均为0.001。其中隐节点数选为10,初始输出权值取[-0.1,0.1]内的随机值,初始数据中心取[-1,1]内的随机值,初始扩展常数取[0.1,0.3]内的随机值,输入采用[0 1]的随机阶跃输入(Write your own RBF neural network, RBF neural network hidden layer
Project1
- 多层神经网络,在训练过程中采用自适应学习率Adagrad方法。可以实现回归或分类问题。(The adaptive learning rate Adagrad method is adopted in the training process of the multilayer neural network. Regression or classification problems can be achieved.)
lrCostFunction
- 输入权值、学习率、输入和输出,就可以计算得到损失值和梯度值(Input weight, learning rate, input and output can be calculated for loss value and gradient value)
CNN-matlab
- 卷积神经网络在matlab中的应用,可自行修改学习率和循环次数(Convolutional Neural Network in Matlab)
剪枝操作.tar
- 这是用于人脸识别相关论文,包括迁移学习,神经网络训练学习率,超参数设置等(This is for face recognition related papers, including migration learning, neural network training learning rate, super parameter setting, etc.)
DNN实现手写数字识别
- DNN实现手写数字的识别,准确率80以上,可以自行改变学习率等,希望能帮助到大家。