搜索资源列表
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
ProbWordSeg
- 最大概率分词法.中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂
theshortest
- 最短路径法分词程序.将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的-The shortest path segmentation process. After the Chinese sentence after splitting atoms to generate a directed acyclic graph, and then use the Dijkstra algorithm derived from the point of origi
dyueerzipa
- 前几天因为好久没发blog了,就拿我毕设中的一段算法凑数,没想到引起非常多人的兴趣。因此就把我的分分词算法单独拎出来做了一个项目叫作DartSplitter。暂时把分词算法的名称叫做树状词库分词法。 -A few days ago because of the long time no hair blog, Take I completed the set for some algorithm to make up the numbers, I did not expect to cause
httpcws-php-demo
- php分词 中文分词 分词算法 HTTPCWS-php sub-word Chinese word segmentation segmentation algorithm HTTPCWS
shootseg-4235
- 基于统计的分词算法 以/为分隔符 分词 C# -Statistics-based segmentation algorithm/word delimiter
totsearch
- 淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy special stations within the search engine (C# version) is based on Lucene.Net core through e
fencisuanfa
- 正逆向的分词算法 已经测试通过了 里面有完整的源码 和测试程序-Forward and reverse segmentation algorithm has been tested by the complete source code and testing procedures
123897
- n_gram,分词算法,准确率很高 ,值得参考!--n_gram, segmentation algorithm, the accuracy rate is high, and worth considering!-
mmseg
- MMSEG 中文分词算法内有说明及例子,源代码-failed to translate
mmseg
- MMSEG 中文分词算法内有说明及例子,源代码-failed to translate
nixiang
- 最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码-New reverse maximum matching word segmentation algorithm Pangu Chinese word segmentation algorithm source
Word_Seg1
- 分词算法本实验采用已有的分词算法——双向匹配算法,对中文分词进行研究,以获取与了解中文分词的知识。双向匹配算法综合了正向最大匹配算法与逆向最大匹配算法,以提高中文分词的正确率。-word participles
LBChSeg
- 这是用c++写的一个正向最大匹配中文分词算法,主要实现的是中文的分词,从左向右,实现分词的最大匹配-This is the biggest match using c++ to write a forward maximum matching Chinese word segmentation algorithm, the main achievement is the Chinese word, and left to right, to achieve sub-word
sentence_split
- 中文分词算法,输出以\作为分隔符,需要词典-Chinese word segmentation algorithm, the output with \ as the delimiter, needs dictionary
6_29
- 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
4925660
- 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
fenci
- 用Java实现stemming 分词算法(Use Porter stemming algorithm achieve stemming function.)
fenci2
- 可以提供中文分词算法,同时能够支持英文的分词(Chinese and English words stemming algorithm)
argkmebt
- 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()