搜索资源列表
AutoChatting.rar
- 用AIML语言开发的一款中文自动聊天软件,附加有部分AIML中文对话语料库,AIML language developed by a Chinese auto-chat software, additional dialogue, some Chinese Corpus AIML
PoS-Tagging-based-on-HMM
- 基于隐马尔科夫的中文词性标注系统的C++源代码,包括训练集和测试集语料库,单词量和词性数目都没有写死,可适应任意大的训练和测试数据集,程序已经过优化,一次标注只需要不到10秒的时间。-Based on Hidden Markov of the Chinese part of speech tagging system in C++ source code, including the training set and test set corpus, vocabulary and speech
IDFCal
- tf-idf程序,朋友写的,很好。对中文句子进行相似度计算,有计算句子权值、排序、两两句子之间的相似度计算。有语料,可以直接运行-tf-idf program, friends wrote, very good. Similarity calculation for Chinese sentences, the sentence weights are calculated, sort, twenty-two similarity between sub-calculation. A corpu
WekaTest
- weka包+eclipse完成中文语料库分词 分类-weka package+ eclipse complete classification of Chinese word segmentation corpus
identified-in-set
- 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的五个人做集合内的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. The program on five specific identification collection
identified-out-of-set
- 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的三个人的声音做训练,并用来识别这三个人之外的30个人的发音,即特定人的集合外的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. Do training of the progr
fenci
- 利用HMM,针对《1998年人民日报》语料库进行研究,最终实现了中文语句的自动分词-By HMM, research, and ultimately the Chinese statement for the 1998 People' s Daily " Corpus automatic segmentation
ygrx
- 这是一个简单的中文分词程序,可以在没有语料库的情况下通过各个词语的相关度将中文词汇抽取出来-A simple Chinese segmentation procedures, speed is also good
program
- 中文分词程序,使用的是1998年的人民日报语料进行的处理,有做相同研究的可以下载使用-Chinese word segmentation program
natural-language-understanding
- 中文分词、自然语言理解、机器学习及语料切分,完整的工程报告。-Chinese word segmentation Natural language understanding of machine learning and data segmentation, a complete project report
电脑中的所有汉字
- 所有中文的汉字,可以用于OCR训练等,需要自己写脚本。(all china words set, use for ocr training etc.)
Chinese
- 是做文本预处理时候利用爬虫收集的500个中文文档,包括分词部分、去掉特殊符号部分以及最后的相似度计算等(It is the 500 Chinese document collected by a crawler for text preprocessing, including the part of the participle, the removal of the special part of the symbol, and the final similarity calculatio
HMM-master
- python实验中文词性标注,包括预处理,实验数据为新闻语料。(Chinese word pos-of-speech with python)
BosoNnlp
- 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。(He focuses on Chinese semantic analysis technology and has rich experience. Independently developing tens of millions of Chinese
自然语言处理课程设计代码
- 一、宋词词频统计:语料库:ci.txt 要求:编程序,输入ci,自动分析统计ci.txt,统计宋词的单字词,双字词等。统计后,输出的是单字词和双字词的词典文件。文件中包括相应的词和频度(次数)。 二:宋词自动生成:语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 四、中文词法分析系统:语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最