CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. HanLP-1.2.7

    0下载:
  2. HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of
  3. 所属分类:Algorithm

    • 发布日期:2017-06-14
    • 文件大小:22308798
    • 提供者:黄灿奕
  1. sentence_split

    0下载:
  2. 中文分词算法,输出以\作为分隔符,需要词典-Chinese word segmentation algorithm, the output with \ as the delimiter, needs dictionary
  3. 所属分类:Other systems

    • 发布日期:2017-04-29
    • 文件大小:307048
    • 提供者:LYC
  1. ExtractChinese

    0下载:
  2. Java编写的一个中文分词功能的代码,能实现中文分词功能-A Chinese word function written in Java code, to achieve the Chinese word function
  3. 所属分类:Java Develop

    • 发布日期:2017-04-15
    • 文件大小:4848
    • 提供者:jiangxin
  1. syzlsearch_v3.1

    0下载:
  2. 基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站,资讯,博客等多类型同时搜索,支持按相关度/时间检索,支持按时间过滤搜索,同时还有智能提示,相关搜索,搜索历史记录等实用功能。-Based on the development of the station within the Lucene search solutions, integrated site search designed specifi
  3. 所属分类:Web Server

    • 发布日期:2017-05-14
    • 文件大小:3504141
    • 提供者:q1
  1. IK-src

    0下载:
  2. ik 中文分词功能,使用中文分词,可以自己设置词库。区分于二元分出法-ik Chinese word function, using the Chinese word, you can set your own thesaurus. Separation method to distinguish two yuan
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-05-07
    • 文件大小:1049619
    • 提供者:conan
  1. Twitter-LDA-master

    0下载:
  2. twitter-LDA算法的JAVA实现,LDA算法针对于微博短文本的改进算法,目前只是简单的英文分词功能,没有中文分词功能,-twitter-LDA algorithm JAVA implementation, LDA algorithm for improved algorithm for short text microblogging, now just a simple English word function, there is no Chinese word function,
  3. 所属分类:Java Develop

    • 发布日期:2017-06-14
    • 文件大小:21889688
    • 提供者:张勇
  1. php_ext_v0.2

    0下载:
  2. mfsou PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单;PHP扩展级的IP地址查询函数,查询IP地址速度更快。 演示:查看 http://php.mfsou.com/ 中的 使用说明 中代码演示。-PHP mfsou expansion of the existing two functions: Chinese word segmentation fun
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-09
    • 文件大小:1540343
    • 提供者:chenxi
  1. ictclas

    0下载:
  2. 用java语言实现中文分词去停用词,中科院分词软件ICTCLAS-To achieve the Chinese word to stop word
  3. 所属分类:Java Develop

    • 发布日期:2017-05-18
    • 文件大小:5004186
    • 提供者:阮东东
  1. wwwsqldesigner-2.7

    0下载:
  2. 这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。-This is a dictionary-based word frequency mechanical Chinese word segmentation engine, it will be a whole section of the Chinese text of the basic r
  3. 所属分类:Web Server

    • 发布日期:2017-04-30
    • 文件大小:112644
    • 提供者:张群
  1. New-folder

    0下载:
  2. 自然语言处理中的隐尔可夫马中文分词方法,利用java实现-NLP, using HMM to automatic word segmentation
  3. 所属分类:Java Develop

    • 发布日期:2017-05-07
    • 文件大小:1487431
    • 提供者:撸撸
  1. fenci

    0下载:
  2. 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
  3. 所属分类:Java Develop

    • 发布日期:2017-05-03
    • 文件大小:713728
    • 提供者:
  1. HanLP-1.2.8

    2下载:
  2. 汉语言文学包,比较好的自然语言处理源码,可以进行中文分词,主题模型提取,关键字提取,自动摘要的生成等-Chinese language and literature package, relatively good Natural Language Processing source code, you can carry out the Chinese word segmentation, keyword model extraction, keyword extraction, automa
  3. 所属分类:source in ebook

    • 发布日期:2017-06-14
    • 文件大小:22312960
    • 提供者:zhangzhen
  1. SiteSearchPub3.5

    0下载:
  2. 搜易站内搜索引擎(SearchEasy Site Search Engine)是面向互联网网站的站内搜索解决方案,其针对网站使用数据库搜索性能差,体验差等问题,将搜索引擎技术应用于站内搜索;本系统具备中文分词,智能摘要,关键词高亮等技术,可与数据库无缝集成,目前支持MS SQL 2000/2005,My SQL数据库。-Search within easy to search site search engine for the Internet site station solutions,
  3. 所属分类:Windows Develop

    • 发布日期:2017-05-14
    • 文件大小:3551665
    • 提供者:yeye
  1. cws_theano-master

    0下载:
  2. 中文分词在theano的deep learning的运用,-chinese word segmentetion
  3. 所属分类:Java Develop

    • 发布日期:2017-05-04
    • 文件大小:13947
    • 提供者:小琦
  1. CWS_LSTM-master

    1下载:
  2. 一款基于LSTM的中文分词工具包!很支持!-A LSTM based Chinese word Kit! Very supportive!
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-04
    • 文件大小:47350
    • 提供者:小琦
  1. MeCab-Chinese-master

    0下载:
  2. MeCab的中文分词工具包哦!-MeCab Chinese word Toolkit
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-07
    • 文件大小:1188251
    • 提供者:小琦
  1. CWS_GatedRNN-master

    0下载:
  2. RNN深度学习的一款中文分词的工具,很支持大家参考的-A Chinese word learning tool RNN depth, very supportive of reference
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-04
    • 文件大小:50565
    • 提供者:小琦
  1. ICTCLAS

    0下载:
  2. 中科院的中文分词系统ICTCLAS,eclipse直接引入项目就可以用,已经测试过很好用的。- Chinese Academy of Sciences Chinese word breaker ICTCLAS, eclipse introduced directly into the project can be used, it has been tested very good use.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-25
    • 文件大小:8677428
    • 提供者:王刚
  1. 6_29

    0下载:
  2. 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
  3. 所属分类:Other systems

    • 发布日期:2017-06-16
    • 文件大小:25073687
    • 提供者:段冰倩
  1. fenci

    0下载:
  2. 易语言中文分词,很难得可以分析出词性。3000字每秒-Part of speech analysis module
  3. 所属分类:ELanguage

    • 发布日期:2017-04-14
    • 文件大小:3395
    • 提供者:杨海
« 1 2 ... 22 23 24 25 26 2728 29 30 31 32 ... 35 »
搜珍网 www.dssz.com