搜索资源列表
GIZA++.2003-09-30.tar
- GIZA++是德国Och提供的针对统计机器翻译模型的训练工具集。这个工具可以生成IBM统计翻译模型的第4和第5种模型,采用两种方向的训练(比如对同一个语料,从中文到英文和从英文到中文的训练),再配以适当的编码,可以提取出适合基于Phrase的统计机器翻译phrase table来,为后续的工作提供数据支持。
wenbenfenlei
- 中文文本分类的语料库,比较全面,可用于进行分类训练时-Chinese text classification of Corpus, more comprehensive, and can be used for classification of training
SogouW.20061127
- 互联网词库来自于对SOGOU搜索引擎所索引到的中文互联网语料的统计分析,统计所进行的时间是2006年10月,涉及到的互联网语料规模在1亿页面以上。统计出的词条数约为15万条高频词,除标出这部分词条的词频信息之外,还标出了常用的词性信息。 语料库统计的意义:反映了互联网中文语言环境中的词频、词性情况。 应用案例:中文词性标注、词频分析等。 词性分类: N 名词 V 动词 ADJ 形容词 ADV 副词 CLAS 量词 ECHO 拟声词
AutoChatting.rar
- 用AIML语言开发的一款中文自动聊天软件,附加有部分AIML中文对话语料库,AIML language developed by a Chinese auto-chat software, additional dialogue, some Chinese Corpus AIML
PFR199801.rar
- PFR人民日报标注语料,它是中文信息处理的重要训练样本,PFR marked the People' s Daily corpus, which is an important Chinese information processing training samples
chinese
- 中文信息处理基础 第一讲VC环境编程简介 第二讲文件处理 第三讲字符编码 第四讲字频统计 第五讲文本断句 第六讲语料库-Basic information first deal with English-speaking environment for programming VC brief introduction stresses the second file handle character encoding the third stresses t
Chinese--NER
- 基于CRF的中文机构名识别系统。使用北京大学1998年的人民日报语料库作为训练语料。除常用的特征模板,已经词性特征外,使用词语的最后一个字作为特征,提高了机构名识别的准确率, 调用了CRF++程序包训练模型。-CRF-based name recognition system of Chinese institutions. People' s Daily, Peking University in 1998 with corpus as training data. In additio
中文分词算法
- 本程序使用给出的字典进行学习并对训练语料进行分词处理,采用C语言编写,高效易懂!
PoS-Tagging-based-on-HMM
- 基于隐马尔科夫的中文词性标注系统的C++源代码,包括训练集和测试集语料库,单词量和词性数目都没有写死,可适应任意大的训练和测试数据集,程序已经过优化,一次标注只需要不到10秒的时间。-Based on Hidden Markov of the Chinese part of speech tagging system in C++ source code, including the training set and test set corpus, vocabulary and speech
SogouT.mini.tar
- 百度搜索引擎具有响应速度快、查找结果准确全面、时效性强、无效链接少、符合中文语言特点和中国人使用习惯等优点。 1...这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3)
IDFCal
- tf-idf程序,朋友写的,很好。对中文句子进行相似度计算,有计算句子权值、排序、两两句子之间的相似度计算。有语料,可以直接运行-tf-idf program, friends wrote, very good. Similarity calculation for Chinese sentences, the sentence weights are calculated, sort, twenty-two similarity between sub-calculation. A corpu
WekaTest
- weka包+eclipse完成中文语料库分词 分类-weka package+ eclipse complete classification of Chinese word segmentation corpus
qwvvfg
- 基于语料库的中文姓名识别方法研究 本文在大规模语料基础上提取和分析了中文姓氏和名字用字的使用频率,研究了 中文姓名识别的评价函数,动态地建立了姓名识别统计数据表和姓名阅值-Corpus-based Study of Chinese Names Recognition Based on the large-scale extraction and analysis of corpus based on the first and last name in Chinese character
onTextCategorization
- 本文比较研究了在中文文本分类中特征选取方法对分类效果的影响。考察了文档频率DF、信息增 益IG、互信息MI、V2分布CHI 四种不同的特征选取方法。采用支持向量机(SVM) 和KNN两种不同的分类 器以考察不同抽取方法的有效性。实验结果表明, 在英文文本分类中表现良好的特征抽取方法( IG、MI 和 CHI)在不加修正的情况下并不适合中文文本分类。文中从理论上分析了产生差异的原因, 并分析了可能的 矫正方法包括采用超大规模训练语料和采用组合的特征抽取方法。最后通过实验验证组合特征
电脑中的所有汉字
- 所有中文的汉字,可以用于OCR训练等,需要自己写脚本。(all china words set, use for ocr training etc.)
Chinese
- 是做文本预处理时候利用爬虫收集的500个中文文档,包括分词部分、去掉特殊符号部分以及最后的相似度计算等(It is the 500 Chinese document collected by a crawler for text preprocessing, including the part of the participle, the removal of the special part of the symbol, and the final similarity calculatio
chinese_text_classification-master
- 文本分类的一个基本项目,用到的是复旦大学中文语料库(a basic project for text classification,I use the corpus from fudan university as my training and testing corpus)
icwb2-data
- NLP中文语料库,backoff语料库,可以用来训练(A wiki (Listeni/ˈ wɪ ki/ WIK-ee) is a website that provides collaborative modification of its content and structure directly the web browser. In a typical wiki, text is written using a simplified markup language an
HMM-master
- python实验中文词性标注,包括预处理,实验数据为新闻语料。(Chinese word pos-of-speech with python)
BosoNnlp
- 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。(He focuses on Chinese semantic analysis technology and has rich experience. Independently developing tens of millions of Chinese