CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 分词算法

搜索资源列表

  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:28100473
    • 提供者:jiang
  1. nlu_project

    0下载:
  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-09
    • 文件大小:2006356
    • 提供者:lipeng
  1. dtw

    0下载:
  2. 用matlab实现特定人的单个词识别,采用dtw算法,主要用到了语音端点检测、语音分帧、梅尔倒谱系数等,文件中含有0-9个输入模版语音,作为参考模版信号。-Using matlab to achieve a specific person single word recognition, using dtw algorithm, mainly used in the voice activity detection, voice sub-frame, Mel Cepstral, etc., do
  3. 所属分类:matlab

    • 发布日期:2017-04-01
    • 文件大小:806560
    • 提供者:ruanxioafei
  1. GP

    0下载:
  2. 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-06-03
    • 文件大小:15278996
    • 提供者:董旭
  1. DividWords

    0下载:
  2. 主要利用词典来实现最大匹配算法来实现分词-divid wordss
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-11
    • 文件大小:748
    • 提供者:qiao
  1. fenci

    0下载:
  2. 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4175947
    • 提供者:吴佩
  1. InformationGain

    0下载:
  2. 使用java实现的信息增益算法,附带了一些训练样本,已经进行了分词-Java algorithm using information gain realized, with some training samples have been carried out participle
  3. 所属分类:Algorithm

    • 发布日期:2017-04-07
    • 文件大小:58705
    • 提供者:helong
  1. maximum_entropy

    0下载:
  2. 最大熵模型IIS参数估计算法的实现,针对自然语言处理中词位分词的任务设计-IIS for maximum entropy
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-04-04
    • 文件大小:2970
    • 提供者:swim
  1. BP-neural-network--based-on-Joone

    0下载:
  2. 基于joone编写的bp神经网络算法,并用到中文分词中,其中以“这支歌太平淡无味了”分词为例, 这支/歌/太/平淡/无味/了 为正确结果,分别获取两者的unicode的二进制形式作为输入样本和期望样本进行训练和测试。-Based joone written bp neural network algorithm, and used in Chinese word, unicode binary form as the input sample and expectations samples f
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-16
    • 文件大小:13216
    • 提供者:huangke
  1. cppjieba-master

    0下载:
  2. 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
  3. 所属分类:Data structs

    • 发布日期:2017-05-25
    • 文件大小:8361942
    • 提供者:liweiqing
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1741741
    • 提供者:黄生
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
  1. fenciledebeiyesi

    1下载:
  2. 中文文本分词系统+基于贝叶斯算法的文本分类源码,用matlab实现。-Chinese word segmentation system+ based on Bayes text classification source code, using matlab implementation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-05
    • 文件大小:16803
    • 提供者:刘伟
  1. Sogou-character-porfile

    0下载:
  2. 介绍人物标签处理的过程,从数据采集,分词,预处理,算法选择以及结果展示方面来介绍相关过程。-This paper introduces the process of character label processing, and introduces the process of data acquisition, word segmentation, preprocessing, algorithm selection and result display.
  3. 所属分类:Data Mining

    • 发布日期:2017-12-12
    • 文件大小:586154
    • 提供者:张陶
  1. Alice

    0下载:
  2. 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:2290688
    • 提供者:亮亮1987
  1. DeepLearning

    0下载:
  2. 用于分词,深度学习算法,使用了RNN神经网络,可以进行参数设置(Used for participle, depth learning algorithm)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:846848
    • 提供者:good berry
  1. 合工大自然语言处理报告代码

    6下载:
  2. 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词
  3. 所属分类:人工智能/神经网络/遗传算法

« 1 2 3»
搜珍网 www.dssz.com