搜索资源列表
模拟退火例子1
- 模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据Metropolis准则,粒子在温度T时趋于平衡的概率为e-ΔE/(kT),其中E为温度T时的内能,ΔE为其改变量,k为Boltzmann常数。用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对
模拟退火例子2
- 模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据Metropolis准则,粒子在温度T时趋于平衡的概率为e-ΔE/(kT),其中E为温度T时的内能,ΔE为其改变量,k为Boltzmann常数。用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对
模拟退火例子3
- 模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据Metropolis准则,粒子在温度T时趋于平衡的概率为e-ΔE/(kT),其中E为温度T时的内能,ΔE为其改变量,k为Boltzmann常数。用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对
GeneticAlgorithm
- 用遗传算法解决函数优化问题原代码 求出最优解与迭代次数-genetic algorithm optimization function source obtained with the optimal solution iterations
PsoForMatlab
- PSOt为PSO的工具箱,该工具箱将PSO算法的核心部分封装起来,提供给用户的为算法的可调参数,用户只需要定义好自己需要优化的函数(计算最小值或者最大值),并设置好函数自变量的取值范围、每步迭代允许的最大变化量(称为最大速度,Max_V)等,即可自行优化。
psot
- 粒子群算法工具箱 该工具箱将PSO算法的核心部分封装起来,提供给用户的为算法的可调参数,用户只需要定义好自己需要优化的函数(计算最小值或者最大值),并设置好函数自变量的取值范围、每步迭代允许的最大变化量(称为最大速度,Max_V)等,即可自行优化。
PSOt
- 微粒群工具箱PSOt为PSO的工具箱,该工具箱将PSO算法的核心部分封装起来,提供给用户的为算法的可调参数,用户只需要定义好自己需要优化的函数(计算最小值或者最大值),并设置好函数自变量的取值范围、每步迭代允许的最大变化量(称为最大速度,Max_V)等,即可自行优化。
ICP
- ICP迭代最近点算法的使用,使用matlab实现了ICP迭代最近点算法的方针,还包括了四元函数法和线性约束等基本方法的代码实现。-Iterative closest point ICP algorithm for the use of matlab to achieve the iterative closest point ICP algorithm approach, including the quaternary function method and the linear constr
TSP
- 模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据Metropolis准则,粒子在温度T时趋于平衡的概率为e-ΔE/(kT),其中E为温度T时的内能,ΔE为其改变量,k为Boltzmann常数。用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,
fga-1.4.tar
- 使用Visual C++ 2003编写的遗传算法库,具有详细的说明文档,使用接口函数传入相关适应度函数与基因个数、迭代次数相关信息,进行目标优化,使用类模板的形式支持函数并行化-Using Visual C++ 2003 prepared by the genetic algorithm library, a detailed descr iption of the document, use the interface function is passed the fitness functi
jixieshou
- :本文提出了一种基于单纯形方法的机械手位姿逆解的分步求解方法。这种方法充分利用了单纯形法 大范围收敛和计算简单的特性,在不计算目标函数一阶导数的情况下,确定极值点的查找方向与步长,多次迭代,直至目标函数满足所给条件。最后,用一个六自由度的肘机器人验证了该求解方法的有效性。- This paper presents a simplex method based on robot position and orientation of the sub-step inverse solution
mnth
- 模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据Metropolis准则,粒子在温度T时趋于平衡的概率为e-ΔE/(kT),其中E为温度T时的内能,ΔE为其改变量,k为Boltzmann常数。用固体退火模拟组合优化问题,将内能E模拟为目标函数值f,温度T演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对
Genetic
- 用遗传算法解决旅行商问题,种群规模为2000,变异方法是将第二位上的基因放到第一位之前,适应函数为1除以路径长度8次方 ,算法迭代125次。 -Solve the using genetic algorithms, population size is 2000, the second mutation is the gene into the first before the fitness function as a path length divided by the 8
Cpp1
- 模式识别中的函数判断迭代的代码 自己编写的-Pattern recognition of the function of the iteration code judge
Immunity-clone-algorithm-with-mutation-coevolution
- 利用免疫系统的克隆选择机制,提出一种用于函数优化的算法. 算法的主要特点是:在迭代过程中,不仅抗体得到进化,同时建立变异向量集,令变异向量同步进化,协同工作,达到优化的目的. 仿真实验表明,所提出的算法能以较快的速度完成给定范围的搜索和全局优化任务-By using the clonal selection echanism of the immune system , a method for function optimizing is proposed. The character of
lsyc
- 信道容量C的迭代算法 函数说明: [CC,Paa]=ChannelCap(P,k) 为信道容量函数 变量说明: P:输入的正向转移概率矩阵,k:迭代计算精度 CC:最佳信道容量,Paa:最佳输入概率矩阵 Pa:初始输入概率矩阵,Pba:正向转移概率矩阵 Pb:输出概率矩阵,Pab:反向转移概率矩阵 C:初始信道容量, r:输入符号数,s:输出符号数 -Channel capacity C o
xxs
- 信道容量C的迭代算法 函数说明: [CC,Paa]=ChannelCap(P,k) 为信道容量函数 变量说明: P:输入的正向转移概率矩阵,k:迭代计算精度 CC:最佳信道容量,Paa:最佳输入概率矩阵 Pa:初始输入概率矩阵,Pba:正向转移概率矩阵 Pb:输出概率矩阵,Pab:反向转移概率矩阵 C:初始信道容量, r:输入符号数,s:输出符号数 -Channel capacity C o
TSP110707
- 本文首先提出了基于TSP 的多点位加工路径优化模型以最高生产效率为目标 函数并以数控中心的多孔位加工和多点位焊接两个典型的自动化加工系统为例来 验证该模型的经济性和适用性其次分别为这两个系统建立了基于TSP 的路径优 化模型模型中考虑了实际加工时的系统中约束条件的影响如数控加工中心的换 刀速度主轴移动速度和焊接机器人的工作台转动速度等提出了近似法将数 控加工中心主轴对同一个孔位n 次重复遍历如钻粗镗精镗等简化对n 个 极小间距的相邻点位的一次遍历从而建立相应的多点位数控加
BP
- BP神经网络识别代码,可以选择任意的传递函数,迭代函数。参数只需要输入矩阵和输出矩阵即可-BP neural network identification code, you can choose any of the transfer function, iterated function. Parameters only need to enter the matrix and output matrix can be
code2
- 线性神经网络和单层感知机非常相似,输入层、输出层甚至是误差迭代函数都相同,唯一的区别就是他们的传输函数不同(Linear neural network and single-layer perceptron are very similar. Input layer, output layer and even error iteration function are all the same. The only difference is their transmission function