搜索资源列表
PHP_MYSQL
- PHP_MYSQL环境下的中文分词技术研究-PHP_MYSQL environment of Chinese word
ChineseWordsDemo
- 中文分词系统的java源代码,中文分词中文分词中文分词中文分词-Chinese word java
ICTCLAS_JAVA
- 使用汉语分词系统ICTCLAS_JAVA版本进行中文分词、词性标注-Use of Chinese word segmentation system ICTCLAS_JAVA version of Chinese word segmentation, POS tagging
IK_Tokenize
- IK_Analyzer中文分词的实现。输入为某个特定文件夹,工具将该文件夹下所有文件进行分词-Tokenize with IK_Analyzer.
InPutTextFile
- java中文分词系统,很好用的。欢迎下载与修改,并提出宝贵意见。-chinese words splitting system
sse4j
- SSE4J(Spatial Search Engine for Java)是针对地理信息数据源构建的垂直搜索引擎应用接口,是基于Lucene+JTS Topology Suite开源库设计的框架。 规划的SSE4J包含: 1)SSE4J应用开发包 2)SSE4J Webservice应用接口 3)SSE4J工具集 规划的SSE4J包含的功能: 1) POI搜索(名称、地址、类型等关键字搜索;周边搜索) 2)道路搜索、区域搜索 3)地址匹配、
forictclas
- 1.在vs2008下,解压缩即可运行 2.该代码为中科院的中文分词系统ictclas源码,本人修改部分bug后上传 3.运行后输入 中文字符串就可以-1. In vs2008, the extract to run 2. The code word for the Chinese Academy of Sciences of the sub-system ictclas source, I modified some bug and upload 3. Run and enter the
Chinese_wordspliter
- 使用正向最大匹配法的中文分词器 分别读入待分词文本文件及字典文件后,将经处理后的结果输出至另一文件予以保存。所用待分词文件样例约有字符184万个,处理时间在11s左右。程序使用C++语言编写。-Using the forward maximum matching device of Chinese words segmentation, respectively, to be read into the text file and dictionary file, the result will
SearchEngine
- Java实现的搜索引擎,有网页爬虫,查询服务,中文分词,索引建立等- realize search engine in Java
ICTCLAS50_Windows_32_C
- python中文分词\ CDict.py-Chinese word python \ python Chinese word \ CDict.py
ICTCLAS
- 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009。-Institute of Computing Technology, Chinese Academy of resear
small
- 一个测试用的中文分词代码,基于FMM分词算法-Chinese word segment code
MyWordSpliter1
- java实现的分词程序,Nutch中文分词-java implementation of segmentation procedures
C_CPPfds
- 中文分词技术属于自然语言处理技术范 畴,是语义理解过程中最初的一个环节。 它 将组成语句的核心词提炼出来供语义分析模 块使用。对于一句话人可以通过自己的知识 来判断哪些是词,哪些不是词。但计算机如 何能理解,其处理过程就称为分词算法。-This is a dictionary of algorithms, algorithmic techniques, data structures, archetypal problems,
scws-1.1.7
- scws,中文分词,开源,机械分词法,简单分词-scws, Chinese word segmentation, open source
fencigongju
- 是一个开发搜索引擎的中文分词工具,如果想做个搜索引擎,可以用这段代码-a tool for Search engine,which is simple if you want to Development a Search engine.you can Applications this code
IKAnalyzer_V3.2.8
- IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。-IK Analyzer 3.X
zwfc
- 应用中文分词.zip,也就是中文分词,是用E语言来写的,其实也很简单,通过某网站进行的中文分词。-Application of the Chinese word segmentation, also is. Zip Chinese word segmentation, it is to use language to write, E is also very simple, through a web site for a Chinese word segmentation.
Yard0.2.0
- 一个非常好的中文分词,用的是搜狗的词库,非常适合中文方面的分词-A very good Chinese word, using a thesaurus search dogs, ideal for a word in Chinese
bin
- 可以将一段话分成若干个词语,本工具是针对一个翻译公司定制的,要求输入的为一个三列表格的word文档,只对中间的中文分词。-Passage can be divided into several words, this tool is customized for a translation company, asks for a three-column table in word document, only the middle of the Chinese word.