搜索资源列表
divide
- 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
wordpress-seo
- 什么是中文分词众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I ama student,用中文则为:“我是一个学生”。-What is the Chinese word is known, is based on English words separated by spaces between words and word as a unit, and the Chinese as words, sentences
PORT
- 中国所有港口词库。适用于中文分词及中文港口专名抽取。-port dictionary
fenci
- 专业提供中文分词PHP扩展和中文词库。使中文分词,全文搜索不再是难点,一个php函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了-Professional Chinese word segmentation PHP extension and Chinese thesaurus. So that Chinese word segmentation, full-text search is no longer a difficult point, a p
FileDemo
- 对文件进行分词的例子.输出带词性的中文分词,已经去掉了停用词.-Examples of the file segmentation output of the Chinese word with POS, has been removed stop words.
PHPkz_v0.2
- NNABC PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单。 PHP扩展级的IP地址查询函数,查询IP地址速度更快。 -NNABC PHP extension of the existing two functions: Chinese word function nnabc_fenci () IP address query function nnabc_ipaddr ().
Divide
- 使用Java语言,用前向匹配算法与后向匹配算法实现中文分词- The use of Java language, with the forward matching algorithm to achieve the Chinese word segmentation
NLP-speech-tagging
- 基于隐马尔可夫模型的中文分词、词性标注、命名实体识别-Based on Chinese word hidden Markov model, speech tagging, named entity recognition
ciku
- 中文分词词库,包括了QQ使用词库、sougou使用的词库,以及其他常用词库下载连接等-ci ku of china
lucene-unit
- 可以反射自定义索引类型,自定义索引路径-默认类路为上两级下的indexWrite目录,中文分词,自定义搜索Query,分页搜索并缓存一部分数据-Can reflect the custom index type, the index of the custom path- the default class on the road to indexWrite directory, under the two levels of Chinese word segmentation, custom
IKAnalyzer
- IKAnalyzer中文分词,是一种有效的中文分词API-IKAnalyzer Chinese divide
ltp-3.4.0
- 自然语言处理开源项目源代码,中文分词,词性标注等功能介绍(Natural language processing open source project source code, Chinese word segmentation, speech tagging and other functions)
bus
- 利用中文分词,从文章中提取中文关键字,并进行权值排序(Chinese word segmentation is used to extract Chinese key words, and the weights are sorted)
matlab程序
- 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
ICTCLAS50_Linux_RHAS_64_C
- 中科院分词的c语言版本,中科院分词是目前最好的中文分词(C version of the Chinese Academy of Sciences)
ansj5.1.1
- 分词工具用于中文分词 有不同的调教模型 包含NLP(The word segmentation tool for Chinese word segmentation includes NLP)
TFIDF
- 经典的中文分词算法 亲测可行,效果一般般,可供小白学习。(Classical Chinese word segmentation algorithm, pro test feasible)
coreseek-3.2.14.tar
- 全文检索,可用于中文分词检索,是基于sphinx的开源。(Full text retrieval, which can be used in Chinese word segmentation, is open source based on sphinx.)
IKAnalyzer2012_u6
- java 搜索引擎中文分词包,拆分中文词组(Java search engine Chinese word segmentation package)
ZEPPXFY
- 基于中文分词的bbs源程序,具有很好的全站信息检索功能,()