搜索资源列表
ictclas_Source_Code
- 计算所汉语词法分析系统ICTCLAS介绍 词是最小的能够独立活动的有意义的语言成分。 但汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的基础与关键。为此,我们中国科学院计算技术研究所在多年研究基础上,耗时一年研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),该系统的功能有:中文分词;词性标注;未登录词识别。分词正确率高达97
OrgTag
- 分词词典软件,采用HMM方法同时在HMM识别后再次用规则对结果进行优化,优化专门针对商业机构。-dictionary software, the method used in HMM HMM identification rules used again after the results of optimization, Optimization of specific businesses.
mmseg-v0.1
- 基于词典和最大匹配算法的的中文分词组件,达到很好的分词准确率-Dictionary and the largest based on the matching algorithm of the Chinese word segmentation components, to achieve good word accuracy rate
Dict
- 中文分词词典,可以用来进行中文分词。 一个比较全面的词库。
FreeICTCLAS
- 中科院的汉语词法分析系统ICTCLAS,主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。
MFC查词典、分词、词频统计程序
- MFC编程,功能是查词典(用户可自己导入文本),分词,统计词频,还可以保存结果!我们MFC课的期末作业,强烈推荐!-MFC programming function is to check dictionary (users can import their own version), participle, statistical, frequency, the results can be saved! We MFC class at the end operations, strongly
hash结构最大逆向中文分词算法
- 建立hash结构的中文词典,并实现了最大逆向中文分词算法
SW_I_WordSegment
- SW-I中文分词算法,MFC程序,在visual studio 2008中调试通过。默认词库为mdb,由于较大未包含在源文件中,请自行下载mdb格式的词典。-SW-I Chinese word segmentation algorithm, MFC procedures, visual studio 2008 in debug through. Default thesaurus for the mdb, as a result of the larger not included in the
wordsegment1
- 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数!-It s an arithmetc of word segment,it has a very high efficiency!
ictclas4j
- 基于词典的分词工具,用与对文本文件的分词-word parsing tools based on dictionary
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
ICTCLASAPIManual
- 中科院中文进行分词并对其词性标注;命名实体识别;新词识别;同时支持用户词典-Chinese Academy of Sciences Chinese word segmentation and POS tagging named entity recognition new word identification At the same time support the user dictionary
Dictory
- 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
wordsDivide
- 输入一个词典和待分词的文档,输出按照词典分词后的文档-Enter a word dictionary and a document to be output according to the document after the word dictionary
pp
- 基于机械分词的中文分词技术代码,使用最大概率法去歧义。词典很全。-Chinese word segmentation based on mechanical technology code word, using the maximum probability method to ambiguity. Dictionary is full.
nlp
- 自然语言分词,内带有词典以及需要分词的内容-natural language divide
IKAnalyzer2012_u6
- 可用于中英文分词,可以自己扩展词典,内有说明文档。-Chinese and English word can be segmented, can extend the dictionary, there are documented.
je-analysis-1.5.3
- 中英文分词工具,可以扩展词典,使用比较方便-English and Chinese word segmentation tool, can be extended dictionary
words
- 北大天网分词所用的词典,用这个分词效果很不错-North Skynet sub-word dictionary, the effects of this segmentation is very good!!