搜索资源列表
zhongqijiancha
- 中文分词的基本实现功能,带有界面的处理,实现文件内容的分词,可以计算算法处理时间-Chinese word basic function and interface with the processing, and the contents of the paper, the sub-term calculation algorithm processing time
src_seg(java)
- 一个用java语言编写的中文文本分词算法
segmenter
- 一个简单有效的中文分词算法,包含正向最大匹配算法,java实现。
IKAnalyzer3.2.8-bin
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, java based development o
IKAnalyzer3.2.8-source
- IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
chinese_segment
- 一个中文分词算法的java语言实现,词典采用文本文件形式。-A Chinese word segmentation algorithm java language implementation
lucene-3.0.1-src
- Lucene算法最新源码包,提供给中文分词器开发者最好的工具!-Lucene algorithm is the latest source package available to the Chinese word device developers the best tools!
IKAnalyzer3.2.0Stable_src
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
zhengdike
- (个人原创)《中文网页自动分类》 牵扯的技术有:分词,统计词频,踢出网页中一些特殊字符(用正则表达式),还有需要提取培训集等等!! 此软件禁止商业活动,版权所属“qyTT论坛--www.qyclass.org/bbs” 本文来自: qyTT论坛 http://www.qyclass.org/bbs 我们的使命:让世界认识qyTT,让qyTT认识世界! 结果分析的思想:就是把得到的词频与建立的词库里每一类进行比较,如果存在一个最大匹配程度,就去这个类作为结果,如果存
IKAnalyzer_V3.2.8
- IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。-IK Analyzer 3.X
FastSeg
- 搜索引擎相关,中文分词算法,java编写-Search engines related, Chinese word segmentation algorithm, written in Java
chinese-_segmentation
- 中文分词算法介绍,正向最大匹配。word-word for chinese segmentation algrithm
ansj_seg-master
- 这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化 内存中中文分词每秒钟大约100万字(速度上已经超越ictclas) 文件读取分词每秒钟大约30万字 准确率能达到96 以上-This is a ictclas of java. Basically rewrite all the data structures and algorithms. Dictionary is prov
Split
- Java实现逆向最大匹配中文分词算法,本程序可以实现较为简单的中文分词-Java implementation reverse maximum matching Chinese word segmentation algorithm, the program can be implemented relatively simple Chinese word segmentation
ictclas4j
- 中文分词器ictclas4j的源码,含有分词器的算法源码,以及案例-Chinese tokenizer ictclas4j source containing the word algorithm source code, as well as case
909aae2c-4f2c-4771-83e4-6894516f14e1
- 一个中文分词算法,可以实现将分词文本切分成自定义字典中的单词-A Chinese word segmentation algorithm, you can achieve the word segmentation text into a dictionary of words
totsearch_v3.3
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 淘特站内搜索引擎(C#版)v3.3更新内容: 1、解决生成的文件链接始终是第一个的错误 2、解决GbK编码搜索程序Default_Gbk.aspx下一页链接错误的
Twitter-LDA-master
- twitter-LDA算法的JAVA实现,LDA算法针对于微博短文本的改进算法,目前只是简单的英文分词功能,没有中文分词功能,-twitter-LDA algorithm JAVA implementation, LDA algorithm for improved algorithm for short text microblogging, now just a simple English word function, there is no Chinese word function,
fenci
- 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
TFIDF
- 经典的中文分词算法 亲测可行,效果一般般,可供小白学习。(Classical Chinese word segmentation algorithm, pro test feasible)