CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词 码

搜索资源列表

  1. hlssplit

    0下载:
  2. 海天智能分词系统源码,可以根据需要设置分词的粒度,另外提供了词性标注,关键字提取等功能-sky Intelligent Word system source code, according to the need for segmentation of granularity, the provision of tagging, keyword extraction functions
  3. 所属分类:编译器/词法分析

    • 发布日期:2013-03-28
    • 文件大小:61.49kb
    • 提供者:廖剑
  1. 3GWS-jni

    0下载:
  2. 又一个free中文分词 不过需要向作者索要注册码~这不是什么问题吧-also a free Chinese word but it needs to license key-authors claim this is not what it
  3. 所属分类:C#编程

    • 发布日期:2008-10-13
    • 文件大小:3.02mb
    • 提供者:asege
  1. lunce-splitword

    0下载:
  2. 一个运用于lunce中的中文分词算法源码,与大家共享-a lunce applied to the Chinese word segmentation algorithm source code and share
  3. 所属分类:Windows编程

    • 发布日期:2008-10-13
    • 文件大小:3.66kb
    • 提供者:彭昱
  1. je-analysis-1[1].4.0.jar

    0下载:
  2. 极易分词源码包,好用最新版本,双向匹配分词-vulnerable segmentation source package, the latest version easier to use, two-way matching word
  3. 所属分类:图形图象

    • 发布日期:2008-10-13
    • 文件大小:878.12kb
    • 提供者:王洪光
  1. FlexCRFs-0.3

    0下载:
  2. Hieu Xuan Phan & Minh Le Nguyen 利用CRF统计模型写的可用于英文命名实体识别、英文分词的工具(开放源码)。CRF模型最早由Lafferty提出,全名conditional random fields,该模型后来被广泛地应用在语言和图像处理领域,并随之出现了很多的变体。FlexCRF就是对CRF模型的一个实现应用工具,可用于文本信息处理
  3. 所属分类:中文信息处理

    • 发布日期:2014-01-15
    • 文件大小:2.01mb
    • 提供者:陈晶
  1. ProbWordSeg

    0下载:
  2. 中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:85.38kb
    • 提供者:robert
  1. je-analysis-1.4.0

    0下载:
  2. 基于java的中文分词系统,直接更改扩展名为jar即可。暂无源码提供
  3. 所属分类:JSP源码/Java

    • 发布日期:2014-01-16
    • 文件大小:810.5kb
    • 提供者:huanghe
  1. splitwords

    0下载:
  2. 用C#编写的一个分词程序,开放程序源码。
  3. 所属分类:C#编程

    • 发布日期:2008-10-13
    • 文件大小:863.33kb
    • 提供者:韦磊
  1. 小叮咚分词

    0下载:
  2. 小叮咚中文分词java源码
  3. 所属分类:中文信息处理

    • 发布日期:2009-04-03
    • 文件大小:716.05kb
    • 提供者:jueduizaihuni
  1. Chinesewordsegmentatin.rar

    0下载:
  2. 该源码用c++编写,实现了中文分词的功能。,The source code with c++ writing, implementation of the Chinese word segmentation function.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-04
    • 文件大小:4.64kb
    • 提供者:tom
  1. 2

    1下载:
  2. c#中文分词源码,基于词频,词性等,可提取自定义数量的关键词-Chinese word c# source code, based on word frequency, part of speech, can customize the number of keywords extracted
  3. 所属分类:Windows Develop

    • 发布日期:2016-02-05
    • 文件大小:10mb
    • 提供者:spkl
  1. KaiYuanIctclas

    0下载:
  2. ICTCLAC开源代码,可用在中文文本信息处理上,为信息抽取进行中文分词、词性标注处理,准确度达到85 以上,-failed to translate
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-11
    • 文件大小:2.5mb
    • 提供者:chengbo
  1. zdfc

    0下载:
  2. 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
  3. 所属分类:CSharp

    • 发布日期:2017-04-01
    • 文件大小:293.91kb
    • 提供者:小松
  1. VC2010

    0下载:
  2. VC调用中科院分词2010版组件的最新源码! 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级8次,目前已经升级到了ICTCLAS2010!-VC call to Word 2010 version of t
  3. 所属分类:Compiler program

    • 发布日期:2017-05-23
    • 文件大小:6.89mb
    • 提供者:胡名
  1. FMM

    0下载:
  2. java源码分词器,导入eclipse即可使用,无需修改代码,分词效果还行(Java source code word segmentation, import eclipse can use, without modifying the code, the word segmentation effect is OK)
  3. 所属分类:WEB开发

    • 发布日期:2017-12-20
    • 文件大小:3.96mb
    • 提供者:miki1
  1. 自然语言处理NPL-最大概率分词算法

    0下载:
  2. 自然语言处理NLP,最大概率分词算法,带有详细说明文档(Natural Language Processing NLP, maximum probability segmentation algorithm)
  3. 所属分类:移动互联网开发

    • 发布日期:2018-01-06
    • 文件大小:97kb
    • 提供者:MaysThree
  1. IK Analyzer 2012FF_hf1

    0下载:
  2. ik分词器源码,非常的好用,能够智能分词,检索命中率比较高的。(ik analyse code,it is useful)
  3. 所属分类:其他

    • 发布日期:2018-04-19
    • 文件大小:2.06mb
    • 提供者:dasin
  1. NICTCLAS

    0下载:
  2. NICTCLAS是大名鼎鼎的中科院计算所语词法分析系统ICTCLAS免费版的.NET包装版本,在原有免费EXE源码的基础上使用C++ /CLI封装成NICTCLAS.dll,将原CResult类改写成NICTCLAS managed class,并为适应VC8编译对源码做了少许改动,当然还有N个因为strcpy之类的警告因为实在太多干脆不予理会。如有错漏请不吝指正。 NICTCLAS做了一定程度的简化,接口非常简单,普通分词应用足够了,这里提供C#执行程序调用示例。词库文件下载解压请放在对
  3. 所属分类:其他

    • 发布日期:2018-05-03
    • 文件大小:53kb
    • 提供者:renyu_net
  1. jieba分词.net源码

    0下载:
  2. 该项目是jieba分词组件的.net版本源码实现,生成的库可以使用,分词也较好
  3. 所属分类:人工智能/神经网络/遗传算法

  1. 爬取某东商品评价

    0下载:
  2. 利用python网络爬虫爬取某东商品评论,并进行分词和生成词云。主要使用requests库,以及jieba、wordcloud等库
  3. 所属分类:Python

« 12 3 4 5 »
搜珍网 www.dssz.com