搜索资源列表
bhav-saar-master
- 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
nlu_project
- 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
dtw
- 用matlab实现特定人的单个词识别,采用dtw算法,主要用到了语音端点检测、语音分帧、梅尔倒谱系数等,文件中含有0-9个输入模版语音,作为参考模版信号。-Using matlab to achieve a specific person single word recognition, using dtw algorithm, mainly used in the voice activity detection, voice sub-frame, Mel Cepstral, etc., do
GP
- 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
DividWords
- 主要利用词典来实现最大匹配算法来实现分词-divid wordss
fenci
- 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
InformationGain
- 使用java实现的信息增益算法,附带了一些训练样本,已经进行了分词-Java algorithm using information gain realized, with some training samples have been carried out participle
maximum_entropy
- 最大熵模型IIS参数估计算法的实现,针对自然语言处理中词位分词的任务设计-IIS for maximum entropy
BP-neural-network--based-on-Joone
- 基于joone编写的bp神经网络算法,并用到中文分词中,其中以“这支歌太平淡无味了”分词为例, 这支/歌/太/平淡/无味/了 为正确结果,分别获取两者的unicode的二进制形式作为输入样本和期望样本进行训练和测试。-Based joone written bp neural network algorithm, and used in Chinese word, unicode binary form as the input sample and expectations samples f
cppjieba-master
- 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
IKAnalyzer
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
divide
- 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
fenciledebeiyesi
- 中文文本分词系统+基于贝叶斯算法的文本分类源码,用matlab实现。-Chinese word segmentation system+ based on Bayes text classification source code, using matlab implementation.
Sogou-character-porfile
- 介绍人物标签处理的过程,从数据采集,分词,预处理,算法选择以及结果展示方面来介绍相关过程。-This paper introduces the process of character label processing, and introduces the process of data acquisition, word segmentation, preprocessing, algorithm selection and result display.
Alice
- 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
DeepLearning
- 用于分词,深度学习算法,使用了RNN神经网络,可以进行参数设置(Used for participle, depth learning algorithm)
合工大自然语言处理报告代码
- 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词