CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 WEB源码 搜索资源 - 词典 分词

搜索资源列表

  1. src

    0下载:
  2. 基于词典的最大分词算法 达到很好的分词准确率
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:15.55kb
    • 提供者:大宝
  1. IKAnalyzer3.2.8-bin

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, java based development o
  3. 所属分类:Java Develop

    • 发布日期:2017-04-09
    • 文件大小:1.98mb
    • 提供者:wuwenyan
  1. IKAnalyzer3.2.8-source

    0下载:
  2. IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
  3. 所属分类:Java Develop

    • 发布日期:2017-04-09
    • 文件大小:1.14mb
    • 提供者:陈雅倩
  1. chinese_segment

    0下载:
  2. 一个中文分词算法的java语言实现,词典采用文本文件形式。-A Chinese word segmentation algorithm java language implementation
  3. 所属分类:Java Develop

    • 发布日期:2017-03-29
    • 文件大小:11.27kb
    • 提供者:njydsjwj
  1. fenciqiusedic

    0下载:
  2. 用java写的分词器,可以利用此程序分析一段话中的单词,根据词典的不同,分析的结果也不同-Using java to write the word breaker, you can take advantage of this program analysis passage of the word, according to the dictionary is different from results of the analysis are also different
  3. 所属分类:Java Develop

    • 发布日期:2017-05-09
    • 文件大小:1.75mb
    • 提供者:付乾良
  1. CipSegSDKV1.03

    0下载:
  2. 文摘中分词所需要的一种较好的词典,他包括的词比较全面-Carve the word needed to digest a good dictionary, he was included in more comprehensive term
  3. 所属分类:Java Develop

    • 发布日期:2017-05-11
    • 文件大小:2.04mb
    • 提供者:张晶
  1. IKAnalyzer3.2.0Stable_src

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-04-10
    • 文件大小:1.04mb
    • 提供者:木划
  1. dictionary

    0下载:
  2. 基于四字hash的中文分词词典,将此条放在数据库中,利用memcache提高词典索引速度。实现文本词典到数据库中此条的自动转换。-Hash based on four characters of Chinese word dictionary, the clause on the database, dictionary use memcache to improve indexing speed. Text dictionary to the database to achieve the a
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-22
    • 文件大小:6.83mb
    • 提供者:徐向阳
  1. yinghanshuangxiangdianzicidian

    0下载:
  2. 英汉双向电子词典是数字化的辞书,在载体、编纂方式、设计过程、功能、使用者、查询手段、检索方法等各方面具有词典类软件特性。本课题设计英汉双向电子词典是一种基于Java语言开发的跨平台的词典类工具软件。检索方式采用开源的Lucene全文检索并实现中文分词的功能。具有查询、检索方便、快捷,查询种类齐全,可以即时翻译、准确的、详细地查阅英文、中文单词。同时为各种软件、网络、电子邮件等提供后台支持,从而大大提高了用户的工作效率,拓宽了学习途径。-English-to-Chinese a the book
  3. 所属分类:Java Develop

    • 发布日期:2017-04-01
    • 文件大小:521.96kb
    • 提供者:killersking
  1. IKAnalyzer_V3.2.8

    0下载:
  2. IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。-IK Analyzer 3.X
  3. 所属分类:Java Develop

    • 发布日期:2017-04-01
    • 文件大小:698.94kb
    • 提供者:flymoon
  1. ansj_seg-master

    0下载:
  2. 这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化 内存中中文分词每秒钟大约100万字(速度上已经超越ictclas) 文件读取分词每秒钟大约30万字 准确率能达到96 以上-This is a ictclas of java. Basically rewrite all the data structures and algorithms. Dictionary is prov
  3. 所属分类:Java Develop

    • 发布日期:2017-10-30
    • 文件大小:16.02mb
    • 提供者:王海
  1. Nlpir

    0下载:
  2. 前NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。国内国际排名均为第一。 项目已经配置好环境,导入Eclipse即可使用,文件内src下的TestUTF8.java可以直接运行,提供了分词接口-Before NLPIR Chinese word segmentation system (aka I
  3. 所属分类:Java Develop

    • 发布日期:2017-05-17
    • 文件大小:4.63mb
    • 提供者:reacher
  1. Fenci

    0下载:
  2. 中文分词程序源码,包含所用到的词库词典。-Chinese word segmentation program source code, including the use of the thesaurus dictionary.
  3. 所属分类:Java Develop

    • 发布日期:2017-04-17
    • 文件大小:379.41kb
    • 提供者:
  1. Data

    0下载:
  2. 分词所采用的词典文件,对中文分词词库建设有很大的帮忙-help you to chinese segment
  3. 所属分类:Ajax

    • 发布日期:2017-04-08
    • 文件大小:500.95kb
    • 提供者:hongqiao
  1. FenCi

    0下载:
  2. NLPIR2015中文分词 java 可以加入自定义词典 -chinese segmentation by NLPIR2015 . JAVA source code
  3. 所属分类:Java Develop

    • 发布日期:2017-05-26
    • 文件大小:9.24mb
    • 提供者:wangmingqiang
  1. fenci

    0下载:
  2. 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
  3. 所属分类:Java Develop

    • 发布日期:2017-05-03
    • 文件大小:697kb
    • 提供者:
  1. CatDemo

    0下载:
  2. JAVA文章检索 压缩包无加密,含有源代码 可运行,无错误,功能:1.分词;2.能添加新的词典 希望对下载的朋友们有帮助(JAVA article search compression package, no encryption, containing the source code can run, no error, function: 1. word segmentation; 2. can add new dictionaries, I hope to download friends
  3. 所属分类:Java编程

    • 发布日期:2017-12-21
    • 文件大小:3kb
    • 提供者:Novelaaa
  1. Chinese Word Segementation

    0下载:
  2. 根据所给中文词典,对中文文本进行正向最大匹配分词,其中包括读取文本,并对其分词(According to the Chinese dictionary, the Chinese text is given a positive maximum matching word, which includes the reading of the text and the participle of the Chinese text.)
  3. 所属分类:Java编程

    • 发布日期:2018-04-30
    • 文件大小:162kb
    • 提供者:weiyuyu
搜珍网 www.dssz.com