搜索资源列表
Win-32bit-JNI-lib
- java实现的NLPIR汉语分词系统源代码-java implementation NLPIR Chinese word segmentation system source code
NLPIR-JNI
- 这是张华平博士发布NLPIR汉语分词系统(又名ICTCLAS2013).可用于对语料进行分词,预处理.-ictclass word split
Nlpir
- 前NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。国内国际排名均为第一。 项目已经配置好环境,导入Eclipse即可使用,文件内src下的TestUTF8.java可以直接运行,提供了分词接口-Before NLPIR Chinese word segmentation system (aka I
NlPIR
- 实现了中文分词,我还自己加入了if-idf和聚类。-Achieve a Chinese word, I myself joined the if-idf and clustering.
JnaTest_V1
- 基于中科院NLPIR分词系统做的分词以及新词发现系统,第二十届全国信息检索学术会议(CCIR2014)题目2.3,微博新词发现与情感分析的源码,可处理大语料的微博出局-Based on NLPIR Chinese Academy of Sciences, to solve the problem CCIR2014,Blog content s new words discover and sentiment classify.
NlPIR
- 中文分词与词频统计 64位 为eclipse工程文件,可直接运行,效果不错-Chinese word and word frequency statistics 64
use_nlpir
- 解决NLPIR-ICTCLAS2014分词系统词库过大,造成读取缓慢问题 -Solve NLPIR-ICTCLAS2014 segmentation system lexicon is too large, resulting in slow read issue
ICTCLAS2016
- NLPIR/ ICTCLAS 2016系统分词实例-ICTCLAS2016 wordSegment demo
OntologyLearning
- 本体学习相关研究 (1)ConcepLearing 从文本中学习本体概念,使用中科院NLPIR进行分词(也有jieba分词版本的),然后在根据统计(互信息/卡方值)和Topic Model(PLSA)的方法进行实验对比。 -Ontology learning research (1) ConcepLearing learning ontology concept the text, use the CAS NLPIR word segmentation (also jieba Wo
NLpirTest
- 使用中文信息处理的开源工具包NLpir完成分词工作(Use the Open Source Toolkit NLpir to do word segmentation)
fenci
- 用NLPIR工具包实现中文分词,很用的中文分词工具。(Implementation of Chinese word segmentation with NLPIR Toolkit.)
TextCluster-master
- 基于汉语分系统开发的聚类分析方法,可以直接运行(Clustering analysis method based on the development of the Chinese system)
pynlpir-develop
- windos环境下的python的nlpir 安装包,直接解压,pip 即可安装在anaconda上(Under the windos environment python nlpir installation package, directly extract, pip can be installed on anaconda)