搜索资源列表
sPl1Pl21
- 论文 Least Squares Loss for Multi-class (task) Learning via the sparse group Lasso penalty 的算法源代码,是sparse+l1+lq,1的稀疏属性选择算法。- Least Squares Loss for Multi-class (task) Learning via the sparse group Lasso penalty Problem
best_kmeans
- 该算法克服了kmeans算法需要手动设置k值得缺陷,使用多次迭代,可以自动得到合适的k值,并进行聚类计算。该算法不是本人所写,这里上传供同行传阅。http://www.mathworks.com/matlabcentral/fileexchange/49489-best-kmeans-x--this program is come form the link:http://www.mathworks.com/matlabcentral/fileexchange/49489-best-kmeans
k_clique
- [X,Y,Z] = k_clique(k,A) Inputs: k - clique size A - adjacency matrix Outputs: X - detected communities Y - all cliques (i.e. complete subgraphs that are not parts of larger complete subgraphs) Z - k-clique matrix-k-clique alg
X-R
- x-r控制图,用于分析工序稳定性,判定产品的合格性能-X-r control chart, used to analyze the process stability, and to determine acceptable performance of the product
x
- python scikit-learn lshforest的使用-use lshforest
WordCount2
- 基于hadoop1.x的wordcount程序,jar包是全的,只要设置一下即可使用-a word count program depend on hadoop 1.x with all jar files needed,easy to use
LSSVM
- 最小二乘支持向量机,程序粘到command window里,设定 2 两个参数,可以更改,以达到最优化-igam=0.001 isig2=0.001 [gam,sig2]=tunelssvm({X,Y, f ,igam,isig2, RBF_kernel },... [0.001 0.001 10000 10000], gridsearch ,{}, leaveoneout_lssvm ) type= function approximation kernel= RBF_
rlhust
- 可以进行曲线回归拟合算法的四参数算法,函数为 y (a-d) (1+(x c) b) +d ec50 m 为其主要函数()
nain
- 用改进的欧拉方法求解初值问题,其中一阶微分方程未y f(x,y) 初始条件为x x[0]时,y=y[0] 输入 f--()
sthemus_iteratian
- 设T[0 n-1]是n个元素的一个数组,对任一元素x,设S(x) i T[i] x ,当 S(x) >n 2时,称x为T的主元素,设()
oveqaoad
- 设T[0 n-1]是n个元素的一个数组,对任一元素x,设S(x) i T[i] x ,当 S(x) >n 2时,称x为T的主元素,设()
75105901
- 设X[0 n-1]和Y[0 n-1]为两个数组,每个数组中都有n个已经排好序的数字,试设计一个Ologn时间的算法,找出X()
286858
- 程序之所以称之为扩展功能的DFT,是因为,它有如下扩展功能 1 可以自动扩展输入序列X,如果你输入的长度不足N,会自动以N()
CAN_ACM SIGKDD_2014
- Nie F, Wang X, Huang H. Clustering and projected clustering with adaptive neighbors[C]//Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining. 2014: 977-986.