搜索资源列表
LMSE-HoKashyap
- 最小平方误差(LMSE)算法实现,可训练的确定性分类器的迭代算法。用于对训练一个向量,使得向量与给定矩阵的乘积的结果向量足够小。-least square error (LMSE) algorithm can be trained classifier uncertainty iterative algorithm. For a pair of training vectors, making vector and matrix given the results of the product
ACOforTSP
- tsp问题的群蚁算法实现,其中c为测试矩阵,代表各点的相对坐标,NC_max 最大迭代次数 ,m蚂蚁个数,Alpha 表征信息素重要程度的参数,Beta 表征启发式因子重要程度的参数,Rho 信息素蒸发系数,Q 信息素增加强度系数,R_best 各代最佳路线,L_best 各代最佳路线的长度,运行后得到最佳路线和收敛曲线-ant problem tsp algorithm group, of which c for the test matrix, the representative of
ACATSP
- C表示 n个城市的坐标,为n×2的矩阵 NC_max为最大迭代次数 m表示蚂蚁个数 Alpha 表征信息素重要程度的参数 Beta 表征启发式因子重要程度的参数 Rho 信息素蒸发系数 Q 信息素增加强度系数 R_best 各代最佳路线 L_best 各代最佳路线的长度-C indicated that the coordinates of n cities, in order to n × 2 matrix NC_max maximum numbe
3-5LDPC
- 3-5循环移位码是LDPC码准循环码中一种典型的构造校验矩阵的方法,较小的(155 64)码通常也是对比测试其他码的性能好坏的重要测试标准,程序详细描述了构造的步骤和方法,结果是采用AList的结果存储方法,译码性能可以由BP迭代译码直接得出-3-5 cyclic shift LDPC codes are quasi-cyclic codes in the code structure of a typical calibration matrix method, the smaller (15
bss_ydm
- 通过基于负熵和牛顿迭代方法的fastica算法实现了随机产生的非高斯独立成分混合后矩阵的盲源分离-By FastICA and Matlab,implementint BSS.
lsyc
- 信道容量C的迭代算法 函数说明: [CC,Paa]=ChannelCap(P,k) 为信道容量函数 变量说明: P:输入的正向转移概率矩阵,k:迭代计算精度 CC:最佳信道容量,Paa:最佳输入概率矩阵 Pa:初始输入概率矩阵,Pba:正向转移概率矩阵 Pb:输出概率矩阵,Pab:反向转移概率矩阵 C:初始信道容量, r:输入符号数,s:输出符号数 -Channel capacity C o
xxs
- 信道容量C的迭代算法 函数说明: [CC,Paa]=ChannelCap(P,k) 为信道容量函数 变量说明: P:输入的正向转移概率矩阵,k:迭代计算精度 CC:最佳信道容量,Paa:最佳输入概率矩阵 Pa:初始输入概率矩阵,Pba:正向转移概率矩阵 Pb:输出概率矩阵,Pab:反向转移概率矩阵 C:初始信道容量, r:输入符号数,s:输出符号数 -Channel capacity C o
backprop
- BP神经网络算法实现 批量处理的BP算法,隐层数为1 Z为特征向量组成的矩阵,n*m维,一行为一个样本 labZ为数据的类别,n*1维,每行对应样本的类别 M为隐层节点个数,T为迭代次数上限, epsilon为用于判断收敛的误差值,eta为学习率 W1为输入到隐层的权重,M*m维,B1为偏差,也就是乘以1的那个权重,M*1维 W2为隐层到输出的权重,c*M维,B2意义同B1,c*1维 estored为MLP的均方误差,每行是一次的误差
BP
- BP神经网络识别代码,可以选择任意的传递函数,迭代函数。参数只需要输入矩阵和输出矩阵即可-BP neural network identification code, you can choose any of the transfer function, iterated function. Parameters only need to enter the matrix and output matrix can be
elm
- 极限学习机[1](Extreme Learning Machine, ELM)是在单隐层神经网络(Single hidden Layer Feed-forward Neural networks, SLFNs)基础上提出的一种高效的学习方法。不同于传统的神经网络, ELM 中所有的隐层参数均为随机产生,而不需要烦琐的迭代过程;其输出权值则通过求解矩阵的广义逆得到。因此,相较于传统的SLFNs,在保证学习性能的基础上,ELM 的训练速度得以显著提升。-Extreme Learning Ma
tbtained-numerical
- 用数值方法来求解雅克比矩阵的迭代过程,并且有仿真结果(The iterative process of Jacobian matrix is solved by numerical method, and the simulation results are obtained.)
som算法
- 机器学习中的som算法,用来聚类分析的,代码中 :param X: 形状是N*D, 输入样本有N个,每个D维 :param output: (n,m)一个元组,为输出层的形状是一个n*m的二维矩阵 :param iteration:迭代次数 :param batch_size:每次迭代时的样本数量 初始化一个权值矩阵,形状为D*(n*m),即有n*m权值向量,每个D维