搜索资源列表
SegtoFile
- 为自然语言处理领域的中文分词程序,可将分词内容写入文件。-natural language processing area of the Chinese word segmentation procedures can be written in word document.
中文分词技术及最新发展
- 搜索引擎通常由信息收集和信息检索两部分组成。对于英文,由于英文中词 与词之间是用空格隔开,检索起来很方便,故计算机采用了词处理的方式,大大 减轻了用户与计算机的工作量:相对来讲,中文的情形就复杂得多。中文的词与 词之间是没有分隔符的,因此若想建立基于词的索引,就需要专门的技术,这种 技术被称之为“汉语词语切分技术”。根据是否采用词语切分技术,中文搜索引 擎又可分为基于字的搜索引擎和基于词的搜索引擎。由于中文信息处理的特殊 性,开发中文搜索引擎决不像西文软件的汉化那样简单。在实
lingpipe-3.6.0
- 一个自然语言处理的Java开源工具包。LingPipe目前已有很丰富的功能,包括主题分类(Top Classification)、命名实体识别(Named Entity Recognition)、词性标注(Part-of Speech Tagging)、句题检测(Sentence Detection)、查询拼写检查(Query Spell Checking)、兴趣短语检测(Interseting Phrase Detection)、聚类(Clustering)、字符语言建模(Character
LTP
- 哈工大LTP自然语言处理工具的java调用实例,利用jni调用dll,实现中文的分词,词性标注,建立依存树等-HIT LTP natural language processing tool called an instance of java using jni call the dll, to achieve in Chinese word segmentation, POS tagging, the establishment of dependency trees, etc.
RMM
- 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th
bhav-saar-master
- 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
nlu_project
- 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
ctbparser_0.12.tar
- 自然语言处理技术的基础技术:中文分词经过艰苦的研发,终于发布了。中文分词是互联网应用不可缺少的基础技术之一,也是语音和语言产品必不可少的技术组件。现在上传一个ctbparser中文分词程序。 -Natural language processing techniques based technologies: Chinese word segmentation through painstaking research and development, has finally been relea
0nlu_project
- 本系统使用java语言编写,采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。-The system uses java language, using machine learning methods for natural language processing, for Chinese word segmentation and POS tagging. Segmentation using crf mod
自然语言处理的最好的资源
- python,java代码,可以完成分词,训练词向量,等功能,效果突出。
pythonsample
- 自然语言处理的例子,可以实现分词和新词发现,中文预处理也支持。用python写的-Examples of natural language processing can be achieved segmentation and new words found Chinese pretreatment also supported. Written with python
abc
- 自然语言处理中文分词实验报告,详细的进行了中文分词的相关实现操作。- daw pdjapwfjp aejfpa ejfp aejfa wadi awfk jaoejf eojfaoejf
baiduTerm
- 百度百科的术语表,可用于自然语言处理,例如中文分词,命名实体识别,信息抽取等。-baidu terms for natural language processing
New-folder
- 自然语言处理中的隐尔可夫马中文分词方法,利用java实现-NLP, using HMM to automatic word segmentation
HanLP-1.2.8
- 汉语言文学包,比较好的自然语言处理源码,可以进行中文分词,主题模型提取,关键字提取,自动摘要的生成等-Chinese language and literature package, relatively good Natural Language Processing source code, you can carry out the Chinese word segmentation, keyword model extraction, keyword extraction, automa
ltp-3.4.0
- 自然语言处理开源项目源代码,中文分词,词性标注等功能介绍(Natural language processing open source project source code, Chinese word segmentation, speech tagging and other functions)
CRF++-0.54
- 该工具可以进行中文自然语言处理,辅助我们进行分词,词语标注开发工作。是目前最流行的自然语言处理工具。该工具基于判别式算法完成。(This tool can be used in Chinese natural language processing, which can help us to carry out word segmentation and label development work. It is the most popular natural language process
jieba-0.39
- Python非常强大的中文分词包,用于自然语言处理。(Python is a very powerful Chinese word wrapper for natural language processing.)
Python逆向最大匹配实现-代码-文档-截图等
- 对于文本进行自然语言处理,中文分词。北邮计算机院NLP课的作业。(This is a homework for BUPT student, implementing the word segment of natural language processing.)
合工大自然语言处理报告代码
- 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词