CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
  1. wordpress-seo

    0下载:
  2. 什么是中文分词众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I ama student,用中文则为:“我是一个学生”。-What is the Chinese word is known, is based on English words separated by spaces between words and word as a unit, and the Chinese as words, sentences
  3. 所属分类:Web Server

    • 发布日期:2017-05-04
    • 文件大小:74696
    • 提供者:fhnon
  1. PORT

    0下载:
  2. 中国所有港口词库。适用于中文分词及中文港口专名抽取。-port dictionary
  3. 所属分类:transportation applications

    • 发布日期:2017-04-12
    • 文件大小:857
    • 提供者:wangzhao
  1. fenci

    0下载:
  2. 专业提供中文分词PHP扩展和中文词库。使中文分词,全文搜索不再是难点,一个php函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了-Professional Chinese word segmentation PHP extension and Chinese thesaurus. So that Chinese word segmentation, full-text search is no longer a difficult point, a p
  3. 所属分类:Web Server

    • 发布日期:2017-05-07
    • 文件大小:1508453
    • 提供者:lrru
  1. FileDemo

    0下载:
  2. 对文件进行分词的例子.输出带词性的中文分词,已经去掉了停用词.-Examples of the file segmentation output of the Chinese word with POS, has been removed stop words.
  3. 所属分类:JavaScript

    • 发布日期:2017-04-13
    • 文件大小:1616
    • 提供者:
  1. PHPkz_v0.2

    0下载:
  2. NNABC PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单。 PHP扩展级的IP地址查询函数,查询IP地址速度更快。 -NNABC PHP extension of the existing two functions: Chinese word function nnabc_fenci () IP address query function nnabc_ipaddr ().
  3. 所属分类:Web Server

    • 发布日期:2017-05-09
    • 文件大小:1540811
    • 提供者:huy
  1. Divide

    0下载:
  2. 使用Java语言,用前向匹配算法与后向匹配算法实现中文分词- The use of Java language, with the forward matching algorithm to achieve the Chinese word segmentation
  3. 所属分类:Java Develop

    • 发布日期:2017-05-20
    • 文件大小:5243071
    • 提供者:张甲佳
  1. NLP-speech-tagging

    0下载:
  2. 基于隐马尔可夫模型的中文分词、词性标注、命名实体识别-Based on Chinese word hidden Markov model, speech tagging, named entity recognition
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-05
    • 文件大小:73064
    • 提供者:Orange
  1. ciku

    1下载:
  2. 中文分词词库,包括了QQ使用词库、sougou使用的词库,以及其他常用词库下载连接等-ci ku of china
  3. 所属分类:software engineering

    • 发布日期:2017-05-23
    • 文件大小:6665887
    • 提供者:willow
  1. lucene-unit

    0下载:
  2. 可以反射自定义索引类型,自定义索引路径-默认类路为上两级下的indexWrite目录,中文分词,自定义搜索Query,分页搜索并缓存一部分数据-Can reflect the custom index type, the index of the custom path- the default class on the road to indexWrite directory, under the two levels of Chinese word segmentation, custom
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-12-11
    • 文件大小:1205377
    • 提供者:伽蓝古风
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer中文分词,是一种有效的中文分词API-IKAnalyzer Chinese divide
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-12-11
    • 文件大小:2562335
    • 提供者:王阳
  1. ltp-3.4.0

    1下载:
  2. 自然语言处理开源项目源代码,中文分词,词性标注等功能介绍(Natural language processing open source project source code, Chinese word segmentation, speech tagging and other functions)
  3. 所属分类:其他

    • 发布日期:2017-12-21
    • 文件大小:6902784
    • 提供者:liyue35
  1. bus

    0下载:
  2. 利用中文分词,从文章中提取中文关键字,并进行权值排序(Chinese word segmentation is used to extract Chinese key words, and the weights are sorted)
  3. 所属分类:C#编程

  1. matlab程序

    1下载:
  2. 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-26
    • 文件大小:234496
    • 提供者:ly206452
  1. ICTCLAS50_Linux_RHAS_64_C

    0下载:
  2. 中科院分词的c语言版本,中科院分词是目前最好的中文分词(C version of the Chinese Academy of Sciences)
  3. 所属分类:其他

    • 发布日期:2017-12-23
    • 文件大小:9441280
    • 提供者:tutu2333
  1. ansj5.1.1

    0下载:
  2. 分词工具用于中文分词 有不同的调教模型 包含NLP(The word segmentation tool for Chinese word segmentation includes NLP)
  3. 所属分类:移动互联网开发

    • 发布日期:2017-12-28
    • 文件大小:31099904
    • 提供者:Echo_union
  1. TFIDF

    0下载:
  2. 经典的中文分词算法 亲测可行,效果一般般,可供小白学习。(Classical Chinese word segmentation algorithm, pro test feasible)
  3. 所属分类:Java编程

    • 发布日期:2017-12-12
    • 文件大小:1913241
    • 提供者:胡峰
  1. coreseek-3.2.14.tar

    0下载:
  2. 全文检索,可用于中文分词检索,是基于sphinx的开源。(Full text retrieval, which can be used in Chinese word segmentation, is open source based on sphinx.)
  3. 所属分类:网络编程

    • 发布日期:2017-12-29
    • 文件大小:4150272
    • 提供者:蜜儿
  1. IKAnalyzer2012_u6

    0下载:
  2. java 搜索引擎中文分词包,拆分中文词组(Java search engine Chinese word segmentation package)
  3. 所属分类:Java编程

    • 发布日期:2017-12-23
    • 文件大小:2143232
    • 提供者:qwe123asd
  1. ZEPPXFY

    0下载:
  2. 基于中文分词的bbs源程序,具有很好的全站信息检索功能,()
  3. 所属分类:网络编程

« 1 2 ... 23 24 25 26 27 2829 30 31 32 33 34 35 »
搜珍网 www.dssz.com