CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 词典 分词

搜索资源列表

  1. 多种分词方法

    0下载:
  2. 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Graduation was the time of hope
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:19.87mb
    • 提供者:阿瑟多幅
  1. VSM

    0下载:
  2. 向量空间模型算法,给定一个经过分词的文档集,可以输出向量空间模型、特征词典、倒排索引表等功能,很经典的VSM算法源代码-Vector space model algorithm, given a segmentation of the document set, you can output vector space model, the characteristics of dictionaries, inverted index table functions, it is the clas
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-28
    • 文件大小:10.07kb
    • 提供者:郝祥根
  1. dict

    0下载:
  2. 已处理过的中文分词词典Chinese Word Segment Dictionary,you may need to use it in your CWS program-Chinese Word Segment Dictionary,you may need to use it in your CWS program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-31
    • 文件大小:620.34kb
    • 提供者:zhaoyilin
  1. WebPages_WordSplitting

    0下载:
  2. 自动提取网页内容(附带简单的 HTTPAnalyzer 类),并根据词典进行分词。-Automatically get the content from webpages, and split the words based on the internal Chinese dictionary.
  3. 所属分类:Data structs

    • 发布日期:2017-05-13
    • 文件大小:3.31mb
    • 提供者:王啊
  1. fencisuanfa

    0下载:
  2. 用正向最大匹配发实现句子的分词。是基于词典的分词算法。该算法的特点是速度快,准确率高。-Made to achieve a positive match with a maximum sentence segmentation. Dictionary-based segmentation algorithm. The algorithm is characterized by fast and accurately.
  3. 所属分类:Data structs

    • 发布日期:2017-04-01
    • 文件大小:880.3kb
    • 提供者:张喜
  1. WordSegment

    0下载:
  2. 用C++开发的分词系统 运用基于哈希的逆向最大匹配算法 基于词典-Word in C development system uses a hash-based reverse maximum matching algorithm is based on dictionary
  3. 所属分类:Data structs

    • 发布日期:2016-08-04
    • 文件大小:327kb
    • 提供者:zhuangkun
  1. ICTCLAS50_Windows_32_C

    0下载:
  2. C++实现的中文分词算法,可以直接运行,也可以编译运行,还可以添加词典。-C++ of the realization of the Chinese word segmentation algorithm, it can run directly, also can compile operation, also can add dictionary.
  3. 所属分类:Data structs

    • 发布日期:2017-05-26
    • 文件大小:8.67mb
    • 提供者:Lee
  1. TextCategorizer

    0下载:
  2. 自己实现的中文分词器、贝叶斯文本分类器 附分词词典、中文停用词表 用于数据挖掘学习、交流 Visual Studio 2010 开发-Realize his Chinese word segmentation, Bayesian text classifier the attached word dictionary, the Chinese stop word table is used for data mining learning, exchange of the Visua
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-11-16
    • 文件大小:9.7mb
    • 提供者:rock
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:13.91mb
    • 提供者:张忠辉
  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:26.8mb
    • 提供者:jiang
  1. DividWords

    0下载:
  2. 主要利用词典来实现最大匹配算法来实现分词-divid wordss
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-11
    • 文件大小:748byte
    • 提供者:qiao
  1. HmmPos

    0下载:
  2. 本文主要研究在给定的机械词频词典下的基于字符串匹配的中文分词系统,将一整段文字基本正确的切分成词,并标注上词性。在实现分词的过程中,最重要的两个因素就是分词速度和分词精度。因此,我们以分词速度、分词正确率和分词召回率作为中文分词评测标准,力求达到较高的分词速度和分词精度-word Tagging
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-12
    • 文件大小:2.72mb
    • 提供者:侯小爱
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1.66mb
    • 提供者:黄生
  1. HanLP-1.2.7

    0下载:
  2. HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of
  3. 所属分类:Algorithm

    • 发布日期:2017-06-14
    • 文件大小:21.28mb
    • 提供者:黄灿奕
  1. 合工大自然语言处理报告代码

    6下载:
  2. 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词
  3. 所属分类:人工智能/神经网络/遗传算法

搜珍网 www.dssz.com