搜索资源列表
GAdownload
- 遗传求解求解一元二次方程的解源程序(下载点击GAdownload.c) 说明: 1 popu变量表示群体规模 2 L变量表示染色体的长度 3 pc,pm变量分别代表是交叉概率和变异概率 4 gen是迭代的代数 4 chromosome是一个全局的二维数组,里面存放的是个体的编码 5 程序最后的执行结果输出到了text.txt文本文件中-genetic solving quadratic equation to solve one yuan source solutio
KNN(CSHARP)
- 基于不断学习的贝叶斯-KNN文本分类算法的设计与实现,给出原始几个类别的文本文件,通过机器学习,获取各个类别文本内容的主要特征,在这个基础上,给出待分类的文件库,系统通过自动分类,对文件库中的文本进行分类,把文件分配到最有可能的类别中。-based learning Bayesian-KNN text classification algorithm design and implementation given several types of the original text file,
discriminable_matirx_builder
- 实现了粗糙集理论的可辨识矩阵的生成,输入为一个文本文件的数据方阵,以数据之间用Tab分开,用回车键分行,用Skowron用可辨识矩阵的方法实现对不分明类的生成。压缩包里面还有一个测试数据。-realization of the rough set theory of identification matrix generation, import text files to a data matrix. Data used to Tab between the separate branches
WebExtract20070417
- 从htm/html格式的网页文件中提取内容。将要提取内容的网页文件用鼠标拖入窗口,按回车即可完成转换。转换后的文件是与原文件同名的文本文件。 支持文件夹批量转换!-from htm / html format of the document from the website content. Will be from the website content with the mouse into the document window, press the Enter conversion
vsm
- 用TFIDF和特征增益两种方式实现了特征向量空间的建立,将文本文件表示成特征向量的形式,为接下来的聚类做了准备。程序用JAVA写成
txt2pajek_2009-02
- 复杂网络文本文件转换为pajek软件所支持的数据格式-Text file into a complex network pajek data format supported by software
HanZiFreq
- 汉字字频统计软件说明: 1. 这个小工具可以对一个文本文件中出现的汉字的字形数和字种数进行频次统计; 2. 字频统计结果按照降序输出; 3. 可同时选中多个文本文件进行字频统计; 4. 程序启动后点击主菜单中“统计字频”下“选取文件”就可以开始进行字频统计; 5. 统计结果保存在HanZiFreq_Result.txt文件中; 6. 这个工具不能处理非纯文本格式的文件(比如rtf,word .doc文件等),并且只能处理GB码的文件。 7. \test目录下有一
nineGrid(aStar)
- 九宫格 人工智能 小程序! 使用方法: 在debug文件夹下面有两个 文本文件 相当于配置文件,作为程序的输入变量配置!-Small squares of artificial intelligence program! Usage: debug folder in the following two configuration files is equivalent to a text file as input variables to configure the procedure!
ksp
- 求解K短路问题的一种创新算子的单亲遗传算法源程序,该程序需要一个distance.txt文本文件,从中读取任意两点间距离数据。本程序所解决的为有26个节点的任意两点间K短路问题。-Solving K shortest path problem in an innovative operator of single-parent genetic algorithm source code, the program requires a distance.txt text file, read fr
supermarket
- 大四上学期做的一个人工智能里有关数据挖掘的课程设计,里面包括数据挖掘算法和数据库文件。。。对于想学好人工智能的非常有用-Last semester to do a senior artificial intelligence in the design of data mining programs, which include data mining algorithms and database files. . . The artificial intelligence is very u
GA
- 经典的遗传算法,用于求解TSP问题,高效,方便,城市坐标已附于文本文件夹中-Classical genetic algorithm for solving TSP problems, efficient and convenient, the city coordinates is attached to a text file folder
docProcess
- 获取文档集合的向量空间,输入文本文件集合,程序按照tfidf权重计算每个文档中每个词的权重。最后输出所有文档的特征向量。-acquire the vector space of documents
stopword-list
- 在文本进行分类聚类之前,必须对文本进行预处理。预处理的第一步是分词,这中间需要去除停用词。这个文件就是停用词列表-Must preprocess the text before the text classification clustering. The first step in preprocessing is the word, the middle need to remove the stop words. This file is the stop word list
Hannoi
- 输入层高,即可一步一步移动,最后生成文本文件,移动的所有过程。-Enter the story, you can move step by step, and finally generate a text file, move all the processes.
vsm
- 用TFIDF方式实现了特征向量空间的建立,将文本文件先进行特征词的准备 再生成特征向量的形式,为接下来的聚类做了准备。用C-The TFIDF way to achieve the establishment of the feature vector space, the preparation of the text file first feature words and then generate the form of feature vectors, and made prepara
Text-Classification_libSVM
- 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
simhash_sourcecode
- 文本文件,网页内容相似度匹配hash算法源代码,用于生成文件指纹,并根据文件指纹生成文件相似度。有windows和linux2个系统的源代码。-the sourcecode is about fies and web pages similarity match algrithm.
NB_for_text_classification
- 文本分类:朴素贝叶斯分类器例子,采用Multi-Variate Bernoulli Event Model。一个文件为训练,一个文件为测试,采用20newsgroups数据集。-Text classification: Naive Bayes classifier example, the use of Multi-Variate Bernoulli Event Model. A file for training, a file for testing, using 20newsgroups
char-rnn-master
- 此代碼實現多層遞歸神經網絡(RNN,LSTM和GRU)從字符級語言模型訓練/採樣。換句話說,模型採用一個文本文件作為輸入和火車一個遞歸神經網絡的學習來預測下一個字符的序列。-This code implements multi-layer Recurrent Neural Network (RNN, LSTM, and GRU) for training/sampling character-level language models. In other words the model tak
MNIST_data
- MNIST数据集是一个手写体数据集,这个数据集由四部分组成,分别是一个训练图片集,一个训练标签集,一个测试图片集,一个测试标签集;我们可以看出这个其实并不是普通的文本文件或是图片文件,而是一个压缩文件,下载并解压出来,我们看到的是二进制文件。其中包含60000张手写体识别数字图片。(MNIST data set is a handwritten data set, which consists of four parts: a training picture set, a training l