搜索资源列表
GP
- 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
FMM_RMM
- 中文分词 以及词性标注,在awt界面上将中文分词,用的是最大正向匹配以及反向最大匹配-Chinese word segmentation and tagging, the interface will be in awt Chinese word segmentation, matching with the maximum forward and reverse maximum matching
Chinese-Word-Segmentation
- Chinese Word Segmentation 中文分词 python2.7.5代码,自己编写亲测可用,最大整下匹配算法效果良好-Chinese Word Segmentation
split_words
- 分词程序,正向最大匹配法,JAVA语言。核心思想是从句子最左端开始,单字节扫描匹配,直至句末-Segmentation procedure, forward maximum matching, JAVA language. Core idea is to start from the leftmost sentence, single-byte scan match until end of the sentence
chinese-word-ppl
- 中文分词以及具有简单界面中文分词系统,使用双向匹配算法,并可选择算法不同进行分词-Chinese word segmentation, and has a simple interface Chinese word segmentation system
cpp
- 分词系统的原理是基于词典匹配进行分词,就是说它会先去文件的一行,在去这行中的四个字然后去和词典比较,如果词典中有这个字则输出加空格,如果没有则把左边的字去除剩下3个字后再和词典进行比较-The principle of word segmentation system is based on word segmentation dictionary matching, which means it will go first to file a line, in the four words i
CnFenci
- 基于字典的分词,采用正向最大匹配和反向最小匹配相结合。-Based on a dictionary word, using the forward and reverse maximum matching minimum matching combined.
CnFenci
- 基于字典的分词,采用正向最大匹配和反向最小匹配相结合。-Based on a dictionary word, using the forward and reverse maximum matching minimum matching combined.
CnFenci
- 基于字典的分词,采用正向最大匹配和反向最小匹配相结合。-Based on a dictionary word, using the forward and reverse maximum matching minimum matching combined.
znmhss
- 一个站内使用模糊查询的ASP实例,可用于asp 站内搜索,可把匹配的关键词排在前面,关键词可以模糊匹配,就像是百度搜索一样。实现思路:1、利用分词技术,先把关键词拆分为多个词组。2、数据库标题字段完全匹配关键字的排在前面,数据库标题字段模糊匹配关键字中多个词组的分别排在后面。3、数据库内容字段完全匹配关键字的也排在后面。具体请参见ASP代码示例文件-Examples of fuzzy query using ASP in a station that can be used to search
DividWords
- 主要利用词典来实现最大匹配算法来实现分词-divid wordss
Word_Seg1
- 分词算法本实验采用已有的分词算法——双向匹配算法,对中文分词进行研究,以获取与了解中文分词的知识。双向匹配算法综合了正向最大匹配算法与逆向最大匹配算法,以提高中文分词的正确率。-word participles
HmmPos
- 本文主要研究在给定的机械词频词典下的基于字符串匹配的中文分词系统,将一整段文字基本正确的切分成词,并标注上词性。在实现分词的过程中,最重要的两个因素就是分词速度和分词精度。因此,我们以分词速度、分词正确率和分词召回率作为中文分词评测标准,力求达到较高的分词速度和分词精度-word Tagging
divide
- 基于最大概率和正向匹配的中文分词器,自然语言处理-Based on the maximum probability of the Chinese sentence divide
fenci
- 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
Split
- Java实现逆向最大匹配中文分词算法,本程序可以实现较为简单的中文分词-Java implementation reverse maximum matching Chinese word segmentation algorithm, the program can be implemented relatively simple Chinese word segmentation
IKAnalyzer
- JAVA实现简单客服的机器人系统,分词用系统用IK分词,机器人语言用AIML。程序已经实现java socket服务的建立。实现了中文分词,同义词输出,答案匹配。用到的库有IK、program-ab。搞了一个月的小成果,希望大家能用到。-JAVA simple customer service robotic systems, word by word IK systems, robot language with AIML. Procedures have been implemented t
Sina-weibo
- 运行环境为C#+MYSQL,并融合了ICTCLAS分词和TF*PDF算法,能够对采集到的信息,做趋势分析和热点发现等分析;此外,您可以通过调整程序中的正则表达式,以匹配相关代码区域的数据。-Runtime environment for C#+ MYSQL, and the integration of ICTCLAS word and TF* PDF algorithm, able to collect information, analyze trends and hot spots dis
suanfa
- 基于双向匹配法和特征选择算法的中文分词技术研究-Words in technology selection algorithm based on two-way matching and feature Chinese sub
MMSeg
- 中文自动分词系统,java编写,有界面。可以实现正向最大匹配FMM和逆向最大匹配B-Chinese automatic segmentation system, java write, there are interfaces. You can achieve maximum matching FMM forward and reverse maximum matching BMM