搜索资源列表
遗传算法TDOA解决
- 用遗传算法解决通信中的TDOA问题 文件名 program 完成功能 求出在进行account_test次的试验中每一次的最优染色体,并且求出均值MV,和均方误差MSE 文件名 definition_constant( ) 完成功能 对各个常量试验参数进行设定 文件名 main_program 完成功能 完成一次试验的计算 文件名 all_Noise 完成功能 计算TDOA值(由基站所测量的TDOA(受到噪声的干扰)) 文件名 gen_ini_pop_
BP
- 基于BP神经网络的 参数自学习控制 (1)确定BP网络的结构,即确定输入层节点数M和隐含层节点数Q,并给出各层加权系数的初值 和 ,选定学习速率 和惯性系数 ,此时k=1; (2)采样得到rin(k)和yout(k),计算该时刻误差error(k)=rin(k)-yout(k); (3)计算神经网络NN各层神经元的输入、输出,NN输出层的输出即为PID控制器的三个可调参数 , , ; (4)根据(3.34)计算PID控制器的输出u(k); (5)进行神经网络学习,在线调整加权
zouyiwei
- dv-hop的定位算法,已知网络中几个锚节点就可以计算出网络中其他点的坐标,但这种算法有时由于网络密度的稀疏,可能误差会有一些
BP神经网络源程序
- 基于C开发的三个隐层神经网络,输出权值、阈值文件,训练样本文件,提供如下函数:1)初始化权、阈值子程序;2)第m个学习样本输入子程序;3)第m个样本教师信号子程序;4)隐层各单元输入、输出值子程序;5)输出层各单元输入、输出值子程序;6)输出层至隐层的一般化误差子程序;7)隐层至输入层的一般化误差子程序;8)输出层至第三隐层的权值调整、输出层阈值调整计算子程序;9)第三隐层至第二隐层的权值调整、第三隐层阈值调整计算子程序;10)第二隐层至第一隐层的权值调整、第二隐层阈值调整计算子程序;11)第一
bp算法源程序
- 反向传播(back-propagation,BP)算法是一种计算单个权值变化引起网络性能变化值的较为简单的方法。由于BP算法过程包含从输出节点开始,反向地向第一隐含层(即最接近输入层的隐含层)传播由总误差引起的权值修正,所以称为\"反向传播\"。-BP (back-propagation BP) algorithm is a calculation of the weights of individual changes in network performance changes in the
hmm.zip
- 隐马尔可夫链模型和例程(包括前向、后向算法、Viterbi解码以及为了减少概率数值计算误差编写的对数运算程序),Introduction to Hiden Markov Model and Example Codes
Perceptron-and-ADALINE-network
- 这些程序包括以下方面1.使用感知器和ADALINE网络对字母进行识别。2.随机选取初始权向量,选取适当的迭代步长(对ADALINE网络),用给出的四个输入训练样本,对上述两个网络分别进行训练,直到网络收敛;3.对Adaline网络选取不同的值,分别画出误差曲线,观察它们的变化规律;4.对感知器选取不同的初始权向量,分别计算每类训练样本到超平面的距离,观察它们的异同;5.训练结束后,检验网络的识别能力(使用100个检测样本,对应于每个取25个含噪的变形):6.比较Adaline和单神经元感知器的分
SURFACESMATCHINGALGORITHMBASEDONGENETICALGORITHMAN
- 针对基于最小二乘法的ICP 曲面匹配算法难以处理待比较曲面的局部大变形问题, 提出一种改进算 法。即采用遗传算法确定曲面初始相对位置以保证匹配优化结果为全局最优值, 利用ICP 算法匹配结果构造 偏差阈值, 以此阈值过滤点群后再以最小二乘法进行匹配处理, 消除局部大变形影响, 获得合理的变换矩阵。以此变换矩阵变换初始点群再进行误差计算, 从而获得理想的匹配结果-Least square method based on the ICP surface matching algorithm
textureclassfication
- 提出了一种基于函数联接的感知器神经网络的纹理分类方法.它采用高斯2马尔柯夫随机场模型(GM RF)对纹理进行描述,模型参数即为纹理特征,参数估计采用最小平方误差方法获得.将估计参数作为表达纹理的特征向量,用感知器网络对特征进行分类,并且采用函数联接的方式解决线性不可分问题.对纹理图象进行的实验表明,采用这种方法能够提高学习速度,简化计算过程,并取得较好的纹理分类效果. -Based on the function connected perceptron neural network tex
BP-matlab
- 基于C开发的三个隐层神经网络,包括 1)初始化权、阈值子程序; 2)第m个学习样本输入子程序; 3)第m个样本教师信号子程序; 4)隐层各单元输入、输出值子程序; 5)输出层各单元输入、输出值子程序; 6)输出层至隐层的一般化误差子程序; 7)隐层至输入层的一般化误差子程序; 8)输出层至第三隐层的权值调整、输出层阈值调整计算子程序; 9)第三隐层至第二隐层的权值调整、第三隐层阈值调整计算子程序; 10)第二隐层至第一隐层的权值调整、第二隐层阈值调整计算子
C
- C#神经网络 验证码识别 源代码 遗传算法根据输出层每个节点上的误差来调整隐层与输出层之间的权值将输出层的输出与理想输出比较计算输出层每个结点上的误差前向输入激活 -C#
using-adaptive-chebyshev
- 提出了一种基于自适应 Chebyshev 多项式神经网络(ACNN)的 Logistic 混沌系统控制算法。该算法采用 Chebyshev 正交多项式作为神经网络的激励函数, 构建 Logistic 混沌系统的预测与控制模型。为了保证算法的稳定性, 提出和证明了收敛定 理, 并利用自适应学习率算法提高神经网络的学习效率和收敛速度。通过采用自适应 Chebyshev 神经网络直接学习 Logistic 混 沌系统的动态特性, 并对系统实施目标函数控制。实验仿真结果表明, 该算法在 L
Adaptive-Embedding-Dimension
- 嵌入维数自适应最小二乘支持向量机 状态时间序列预测方法 Condition Time Series Prediction Using Least Squares Support Vector Machine with Adaptive Embedding Dimension 针对航空发动机状态时间序列预测中嵌入维数难于有效选取的问题, 提出一种基于嵌入维数自适应 最小二乘支持向量机( L SSVM ) 的预测方法。该方法将嵌入维数作为影响状态时间序列预测精度的重要参
BP-neural-network_c
- 基于C开发的三个隐层神经网络,输出权值、阈值文件,训练样本文件,提供如下函数: 1)初始化权、阈值子程序; 2)第m个学习样本输入子程序; 3)第m个样本教师信号子程序; 4)隐层各单元输入、输出值子程序; 5)输出层各单元输入、输出值子程序; 6)输出层至隐层的一般化误差子程序; 7)隐层至输入层的一般化误差子程序; 8)输出层至第三隐层的权值调整、输出层阈值调整计算子程序; 9)第三隐层至第二隐层的权值调整、第三隐层阈值调整计算子程序; 10)第二隐层
lubanglssvm
- 基于鲁棒学习的最小二乘支持向量机及其应用 鉴于最小二乘支持向量机比标准支持向量机具有更高的计算效率和拟合精度, 但缺少标准支持向量机的鲁 棒性, 即当采样数据存在奇异点或者误差变量的高斯分布假设不成立时, 会导致不稳健的估计结果, 提出了一种鲁棒 最小二乘支持向量机方法. 该方法在最小二乘支持向量机基础上, 通过引入鲁棒学习方法来获得鲁棒估计. 仿真分析 及某湿法冶金厂的应用实例验证了该方法的可行性和有效性.- Least squares support vector mac
BP
- 用BP神经网络进行预测,误差计算,具有较好的性能-BP neural network prediction, error calculation, and has better performance
hbf
- 运用环比法计算规律型变化数据,并进行预测结果误差分析-The use of the ring than the calculated changes in the law-type data
bp
- 简单的BP神经网络的编程实现,利用样本计算误差值。-Simple BP neural network programming
BP
- BP神经网络是一个前向网络,它利用误差反向传播算法对网络进行训练,结构简单,可塑性强。本例选择3层BP神经网络(隐层为1层)来逼近函数,单输入单输出,隐层包含7个神经元,预设精度为0.1,学习率设为0.1,循环次数为5000次,达到循环次数,或结果达到预设精度要求,结束计算。激活函数选择双曲函数,采用梯度下降法,通过神经元的输入和误差,以及权值的学习速率来计算权值的变化率。将输入提供给网络后,神经元的激活值从输入层经各中间层向输出层传播,输出层的神经元获得网络的输入相应。接下来,按照减少目标输出
BP-neural-network-training
- BP神经网络训练程序,可计算误差与学习速率,训练采用的拟合函数为Y=sin(X)\n,-BP neural network training procedures, fitting function Y = sin (X) \ n, calculate the error and learning rate,