搜索资源列表
Hermit多项式在线学习ran算法
- 本程序用资源分配网(Resource_Allocation Network,简称RAN)实现了Hermit多项式在线学习问题。训练样本产生方式如下,样本数400,每个样本输入Xi在区间[-4,4]内随机产生(均匀分布),相关样本输出为F(Xi) = 1.1(1-Xi + Xi2)exp(-Xi2/2),测试样本输入在[-4,+4]内以0.04为间隔等距产生,共201个样本。训练结束后的隐节点为:11个,训练结束后的平均误差可达:0.03 -this program resources dis
ball
- 随机分布在球面上的100各节点连通性分析-connectivity analysis of the node Randomly distributed in a spherical surface
Travel
- 寻找TSP的最优解问题,随机生成坐标,寻找所有节点的最有路径-Path to find the optimal solution of TSP, randomly generated coordinates, find all nodes
meunier08age
- 人脑功能网络。利用小波相关,发现年轻被试和老年被试都具有显著优于随机网络的模块性,但随着年龄老化, 脑功能网络模块化结构和各模块内节点地位会逐渐发生变化-Age-related changes in modular organization of human brain functional networks ARTICLE in NEUROIMAGE · DECEMBER 2008 Impact Factor: 6.36 · DOI: 10.1016/j.neuroimage.20
dypah
- 快速扩展随机生成树算法,采用加权网络中节点强度和权重都是幂率分布的模型,关于神经网络控制。- Rapid expansion of random spanning tree algorithm, Using weighted model nodes in the network strength and weight are power law distribution, On neural network control.
rbf
- 自己编写RBF神经网络程序,RBF神经网络隐层采用标准Gaussian径向基函数,输出层采用线性激活函数,其中数据中心、扩展常数和输出权值均用梯度法求解,它们的学习率均为0.001。其中隐节点数选为10,初始输出权值取[-0.1,0.1]内的随机值,初始数据中心取[-1,1]内的随机值,初始扩展常数取[0.1,0.3]内的随机值,输入采用[0 1]的随机阶跃输入(Write your own RBF neural network, RBF neural network hidden layer
deepwalk-master
- skipgram的deepwalk算法,复杂网络节点表征学习文中有部分地方还是有很大的改进空间的,比如随机游走过程,本文提出的更像是随机地进行深搜,后来的很多文章,例如LINE、Node2vec都有在这方面有进行改进。还有一点就是LINE里面提到的,Deepwalk中没有提出一个明确的目标函数(这是不是机器学习专家的职业病,非得把问题转化为最优化问题…)(Deepwalk skipgram algorithm, the complex network node in the characteri