CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Windows编程 搜索资源 - 中文语料

搜索资源列表

  1. AutoChatting.rar

    2下载:
  2. 用AIML语言开发的一款中文自动聊天软件,附加有部分AIML中文对话语料库,AIML language developed by a Chinese auto-chat software, additional dialogue, some Chinese Corpus AIML
  3. 所属分类:网络编程

    • 发布日期:2012-10-21
    • 文件大小:1.19mb
    • 提供者:易顺明
  1. PoS-Tagging-based-on-HMM

    2下载:
  2. 基于隐马尔科夫的中文词性标注系统的C++源代码,包括训练集和测试集语料库,单词量和词性数目都没有写死,可适应任意大的训练和测试数据集,程序已经过优化,一次标注只需要不到10秒的时间。-Based on Hidden Markov of the Chinese part of speech tagging system in C++ source code, including the training set and test set corpus, vocabulary and speech
  3. 所属分类:Windows Develop

    • 发布日期:
    • 文件大小:4.23mb
    • 提供者:蒋智威
  1. IDFCal

    1下载:
  2. tf-idf程序,朋友写的,很好。对中文句子进行相似度计算,有计算句子权值、排序、两两句子之间的相似度计算。有语料,可以直接运行-tf-idf program, friends wrote, very good. Similarity calculation for Chinese sentences, the sentence weights are calculated, sort, twenty-two similarity between sub-calculation. A corpu
  3. 所属分类:Other windows programs

    • 发布日期:2017-04-05
    • 文件大小:15.86kb
    • 提供者:Shirley
  1. WekaTest

    0下载:
  2. weka包+eclipse完成中文语料库分词 分类-weka package+ eclipse complete classification of Chinese word segmentation corpus
  3. 所属分类:Other systems

    • 发布日期:2017-05-29
    • 文件大小:10.97mb
    • 提供者:陈蓉
  1. identified-in-set

    1下载:
  2. 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的五个人做集合内的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. The program on five specific identification collection
  3. 所属分类:Other systems

    • 发布日期:2017-11-23
    • 文件大小:268.03kb
    • 提供者:lemywong
  1. identified-out-of-set

    0下载:
  2. 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的三个人的声音做训练,并用来识别这三个人之外的30个人的发音,即特定人的集合外的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. Do training of the progr
  3. 所属分类:Other systems

    • 发布日期:2017-11-16
    • 文件大小:1.69mb
    • 提供者:lemywong
  1. fenci

    0下载:
  2. 利用HMM,针对《1998年人民日报》语料库进行研究,最终实现了中文语句的自动分词-By HMM, research, and ultimately the Chinese statement for the 1998 People' s Daily " Corpus automatic segmentation
  3. 所属分类:CSharp

    • 发布日期:2017-11-20
    • 文件大小:4.03mb
    • 提供者:txd
  1. ygrx

    0下载:
  2. 这是一个简单的中文分词程序,可以在没有语料库的情况下通过各个词语的相关度将中文词汇抽取出来-A simple Chinese segmentation procedures, speed is also good
  3. 所属分类:Other systems

    • 发布日期:2017-04-14
    • 文件大小:4.71kb
    • 提供者:denisdou
  1. program

    0下载:
  2. 中文分词程序,使用的是1998年的人民日报语料进行的处理,有做相同研究的可以下载使用-Chinese word segmentation program
  3. 所属分类:Console

    • 发布日期:2017-05-09
    • 文件大小:1.79mb
    • 提供者:仵永栩
  1. natural-language-understanding

    1下载:
  2. 中文分词、自然语言理解、机器学习及语料切分,完整的工程报告。-Chinese word segmentation Natural language understanding of machine learning and data segmentation, a complete project report
  3. 所属分类:Other systems

    • 发布日期:2017-06-15
    • 文件大小:21.54mb
    • 提供者:张天
  1. 电脑中的所有汉字

    0下载:
  2. 所有中文的汉字,可以用于OCR训练等,需要自己写脚本。(all china words set, use for ocr training etc.)
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:45kb
    • 提供者:大帅1
  1. Chinese

    0下载:
  2. 是做文本预处理时候利用爬虫收集的500个中文文档,包括分词部分、去掉特殊符号部分以及最后的相似度计算等(It is the 500 Chinese document collected by a crawler for text preprocessing, including the part of the participle, the removal of the special part of the symbol, and the final similarity calculatio
  3. 所属分类:其他

    • 发布日期:2018-04-19
    • 文件大小:11.74mb
    • 提供者:hello_spring
  1. HMM-master

    1下载:
  2. python实验中文词性标注,包括预处理,实验数据为新闻语料。(Chinese word pos-of-speech with python)
  3. 所属分类:Windows编程

    • 发布日期:2019-05-06
    • 文件大小:7.93mb
    • 提供者:hebelu
  1. BosoNnlp

    1下载:
  2. 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。(He focuses on Chinese semantic analysis technology and has rich experience. Independently developing tens of millions of Chinese
  3. 所属分类:Windows编程

    • 发布日期:2020-09-29
    • 文件大小:8.63mb
    • 提供者:hhitkyA
  1. 自然语言处理课程设计代码

    0下载:
  2. 一、宋词词频统计:语料库:ci.txt 要求:编程序,输入ci,自动分析统计ci.txt,统计宋词的单字词,双字词等。统计后,输出的是单字词和双字词的词典文件。文件中包括相应的词和频度(次数)。 二:宋词自动生成:语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 四、中文词法分析系统:语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最
  3. 所属分类:系统编程

搜珍网 www.dssz.com