搜索资源列表
HanLP-1.2.7
- HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of
sentence_split
- 中文分词算法,输出以\作为分隔符,需要词典-Chinese word segmentation algorithm, the output with \ as the delimiter, needs dictionary
ExtractChinese
- Java编写的一个中文分词功能的代码,能实现中文分词功能-A Chinese word function written in Java code, to achieve the Chinese word function
syzlsearch_v3.1
- 基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站,资讯,博客等多类型同时搜索,支持按相关度/时间检索,支持按时间过滤搜索,同时还有智能提示,相关搜索,搜索历史记录等实用功能。-Based on the development of the station within the Lucene search solutions, integrated site search designed specifi
IK-src
- ik 中文分词功能,使用中文分词,可以自己设置词库。区分于二元分出法-ik Chinese word function, using the Chinese word, you can set your own thesaurus. Separation method to distinguish two yuan
Twitter-LDA-master
- twitter-LDA算法的JAVA实现,LDA算法针对于微博短文本的改进算法,目前只是简单的英文分词功能,没有中文分词功能,-twitter-LDA algorithm JAVA implementation, LDA algorithm for improved algorithm for short text microblogging, now just a simple English word function, there is no Chinese word function,
php_ext_v0.2
- mfsou PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单;PHP扩展级的IP地址查询函数,查询IP地址速度更快。 演示:查看 http://php.mfsou.com/ 中的 使用说明 中代码演示。-PHP mfsou expansion of the existing two functions: Chinese word segmentation fun
ictclas
- 用java语言实现中文分词去停用词,中科院分词软件ICTCLAS-To achieve the Chinese word to stop word
wwwsqldesigner-2.7
- 这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。-This is a dictionary-based word frequency mechanical Chinese word segmentation engine, it will be a whole section of the Chinese text of the basic r
New-folder
- 自然语言处理中的隐尔可夫马中文分词方法,利用java实现-NLP, using HMM to automatic word segmentation
fenci
- 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
HanLP-1.2.8
- 汉语言文学包,比较好的自然语言处理源码,可以进行中文分词,主题模型提取,关键字提取,自动摘要的生成等-Chinese language and literature package, relatively good Natural Language Processing source code, you can carry out the Chinese word segmentation, keyword model extraction, keyword extraction, automa
SiteSearchPub3.5
- 搜易站内搜索引擎(SearchEasy Site Search Engine)是面向互联网网站的站内搜索解决方案,其针对网站使用数据库搜索性能差,体验差等问题,将搜索引擎技术应用于站内搜索;本系统具备中文分词,智能摘要,关键词高亮等技术,可与数据库无缝集成,目前支持MS SQL 2000/2005,My SQL数据库。-Search within easy to search site search engine for the Internet site station solutions,
cws_theano-master
- 中文分词在theano的deep learning的运用,-chinese word segmentetion
CWS_LSTM-master
- 一款基于LSTM的中文分词工具包!很支持!-A LSTM based Chinese word Kit! Very supportive!
MeCab-Chinese-master
- MeCab的中文分词工具包哦!-MeCab Chinese word Toolkit
CWS_GatedRNN-master
- RNN深度学习的一款中文分词的工具,很支持大家参考的-A Chinese word learning tool RNN depth, very supportive of reference
ICTCLAS
- 中科院的中文分词系统ICTCLAS,eclipse直接引入项目就可以用,已经测试过很好用的。- Chinese Academy of Sciences Chinese word breaker ICTCLAS, eclipse introduced directly into the project can be used, it has been tested very good use.
6_29
- 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
fenci
- 易语言中文分词,很难得可以分析出词性。3000字每秒-Part of speech analysis module