CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 匹配 分词

搜索资源列表

  1. GP

    0下载:
  2. 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-06-03
    • 文件大小:15278996
    • 提供者:董旭
  1. Chinese-Word-Segmentation

    0下载:
  2. Chinese Word Segmentation 中文分词 python2.7.5代码,自己编写亲测可用,最大整下匹配算法效果良好-Chinese Word Segmentation
  3. 所属分类:Other systems

    • 发布日期:2017-05-24
    • 文件大小:3399875
    • 提供者:Lorenzo
  1. split_words

    0下载:
  2. 分词程序,正向最大匹配法,JAVA语言。核心思想是从句子最左端开始,单字节扫描匹配,直至句末-Segmentation procedure, forward maximum matching, JAVA language. Core idea is to start from the leftmost sentence, single-byte scan match until end of the sentence
  3. 所属分类:File Operate

    • 发布日期:2017-04-10
    • 文件大小:540
    • 提供者:Jakeris
  1. chinese-word-ppl

    0下载:
  2. 中文分词以及具有简单界面中文分词系统,使用双向匹配算法,并可选择算法不同进行分词-Chinese word segmentation, and has a simple interface Chinese word segmentation system
  3. 所属分类:CSharp

    • 发布日期:2017-05-06
    • 文件大小:1394082
    • 提供者:wyp
  1. cpp

    0下载:
  2. 分词系统的原理是基于词典匹配进行分词,就是说它会先去文件的一行,在去这行中的四个字然后去和词典比较,如果词典中有这个字则输出加空格,如果没有则把左边的字去除剩下3个字后再和词典进行比较-The principle of word segmentation system is based on word segmentation dictionary matching, which means it will go first to file a line, in the four words i
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-06
    • 文件大小:1323838
    • 提供者:江鹏源
  1. DividWords

    0下载:
  2. 主要利用词典来实现最大匹配算法来实现分词-divid wordss
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-11
    • 文件大小:748
    • 提供者:qiao
  1. Word_Seg1

    0下载:
  2. 分词算法本实验采用已有的分词算法——双向匹配算法,对中文分词进行研究,以获取与了解中文分词的知识。双向匹配算法综合了正向最大匹配算法与逆向最大匹配算法,以提高中文分词的正确率。-word participles
  3. 所属分类:Other systems

    • 发布日期:2017-05-11
    • 文件大小:2333780
    • 提供者:侯小爱
  1. HmmPos

    0下载:
  2. 本文主要研究在给定的机械词频词典下的基于字符串匹配的中文分词系统,将一整段文字基本正确的切分成词,并标注上词性。在实现分词的过程中,最重要的两个因素就是分词速度和分词精度。因此,我们以分词速度、分词正确率和分词召回率作为中文分词评测标准,力求达到较高的分词速度和分词精度-word Tagging
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-12
    • 文件大小:2850962
    • 提供者:侯小爱
  1. divide

    0下载:
  2. 基于最大概率和正向匹配的中文分词器,自然语言处理-Based on the maximum probability of the Chinese sentence divide
  3. 所属分类:Other windows programs

    • 发布日期:2017-04-13
    • 文件大小:3141
    • 提供者:weiyuan
  1. fenci

    0下载:
  2. 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4175947
    • 提供者:吴佩
  1. IKAnalyzer

    0下载:
  2. JAVA实现简单客服的机器人系统,分词用系统用IK分词,机器人语言用AIML。程序已经实现java socket服务的建立。实现了中文分词,同义词输出,答案匹配。用到的库有IK、program-ab。搞了一个月的小成果,希望大家能用到。-JAVA simple customer service robotic systems, word by word IK systems, robot language with AIML. Procedures have been implemented t
  3. 所属分类:AI-NN-PR

    • 发布日期:2016-04-14
    • 文件大小:5376000
    • 提供者:su
  1. Sina-weibo

    0下载:
  2. 运行环境为C#+MYSQL,并融合了ICTCLAS分词和TF*PDF算法,能够对采集到的信息,做趋势分析和热点发现等分析;此外,您可以通过调整程序中的正则表达式,以匹配相关代码区域的数据。-Runtime environment for C#+ MYSQL, and the integration of ICTCLAS word and TF* PDF algorithm, able to collect information, analyze trends and hot spots dis
  3. 所属分类:CSharp

    • 发布日期:2017-05-14
    • 文件大小:3111412
    • 提供者:刘朝
  1. MMSeg

    0下载:
  2. 中文自动分词系统,java编写,有界面。可以实现正向最大匹配FMM和逆向最大匹配B-Chinese automatic segmentation system, java write, there are interfaces. You can achieve maximum matching FMM forward and reverse maximum matching BMM
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-24
    • 文件大小:3535815
    • 提供者:梁惠源
  1. LBChSeg

    0下载:
  2. 这是用c++写的一个正向最大匹配中文分词算法,主要实现的是中文的分词,从左向右,实现分词的最大匹配-This is the biggest match using c++ to write a forward maximum matching Chinese word segmentation algorithm, the main achievement is the Chinese word, and left to right, to achieve sub-word
  3. 所属分类:Other systems

    • 发布日期:2017-05-16
    • 文件大小:3811238
    • 提供者:李好
  1. emotionalPjar

    0下载:
  2. 利用IKanalyzer进行分词1.可自定义词表,2.读取本地文件3.将词表与本地文件分词后进行中文词匹配- 1. use IKanalyzer be customizable word vocabulary, 2. 3. After reading the local papers and local papers vocabulary word were Chinese words Match
  3. 所属分类:File Operate

    • 发布日期:2017-05-16
    • 文件大小:3892761
    • 提供者:孙阳征
  1. dedesplit

    0下载:
  2. 本站采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法,目前对岐义识别还处于初步研究阶段.-Powered by is a composite word segmentation algorithm with a minimum and maximum matching method combined reverse, the current recognition of ambiguity still in the preliminary research stage.
  3. 所属分类:Web Server

    • 发布日期:2017-05-06
    • 文件大小:676767
    • 提供者:vhnd
  1. 6_29

    0下载:
  2. 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
  3. 所属分类:Other systems

    • 发布日期:2017-06-16
    • 文件大小:25073687
    • 提供者:段冰倩
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
  1. matlab程序

    1下载:
  2. 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-26
    • 文件大小:234496
    • 提供者:ly206452
  1. phpanalysis2.0.tar

    1下载:
  2. PHPAnalysis是目前广泛使用的中文分词类,使用反向匹配模式分词,因此兼容编码更广泛,现将其变量与常用函数详解如下: 一、比较重要的成员变量 $resultType = 1 生成的分词结果数据类型(1 为全部, 2为 词典词汇及单个中日韩简繁字符及英文, 3 为词典词汇及英文) 这个变量一般用 SetResultType( $rstype ) 这方法进行设置。 $notSplitLen =
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:2915328
    • 提供者:MEISENN
« 1 2 3 4 56 »
搜珍网 www.dssz.com