搜索资源列表
SW-I
- 汉语分词算法,包含最大匹配和基于概率的分词算法-Chinese word segmentation algorithm, and contains the largest matching probability - based segmentation algorithm
dedesplit
- 采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法,目前对岐义识别还处于初步研究阶段.
IBMDict
- 四. 主要功能 === 屏幕取词: - 翻译屏幕上鼠标所指的英文单词、成语或短语,并实现中文取词翻译。 - 翻译屏幕上鼠标所指的英文句子,并可随时切换按词翻译和按句翻译这两种不同的 方式。 - 用户可以随时暂停或恢复屏幕取词功能。 - 通过热键进行屏幕取词,确保仅在需要时才弹出浮动翻译窗口,显示词意。 - 设置取词速度,调整浮动翻译窗口的响应时间。 - 可以选用或取消即指即译同步发音的功能。选择男、女发音和合适的语速。 - 在浮动翻译窗口中提供联机的智能匹配功能。 词典查询: - 翻译用户输入
CutWordApp
- csharp实现的分词器,完整可以运行!结合正向逆向匹配法,效率较高-csharp device to achieve the sub-word, complete run! Forward Reverse with matching, more efficient
RMM
- 基于rmm算法(逆向最大匹配)实现的中文分词系统,具体内容是一个mfc工程文件。-Rmm-based algorithm (reverse maximum matching) to achieve the Chinese word segmentation system, specific content is a mfc project file.
hanyufenci
- 分别用最大匹配和最大熵的方法实现了汉语分词-Respectively maximum matching and maximum entropy methods to achieve the Chinese word
maxseg
- 最大匹配分词系统,分词中最见大的,效果也是很好的系统。-maximum matching segmentation
fenci
- PHP 织梦逆向最大匹配算法 中文分词 分词算法-PHP DedeCms reverse maximum matching algorithm for Chinese word segmentation algorithm
WordSegment
- 基于字符串匹配的中文分词程序,C++版。 结果以文件显示。-String matching based on the Chinese word segmentation procedures, C++ version. To document the results.
fenci
- 正向最大匹配算法分词,采用容器储存字典可提高一定的效率。-Forward Maximum Matching algorithm for word segmentation, using containers for storage dictionaries can improve a certain efficiency.
zdfc
- 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
prop
- 根据概率匹配原则得出句子结构树,很好用的一个演示软件,需要搭配中文分词法进行使用-Come under the principle of probability matching sentence structure tree, with a very good presentation software, need to be used with Chinese sub-lexical
worddiv
- 中文分词算法,用正向最大匹配算法实现的中文分词,包裹dao操作数据库。-Chinese word segmentation algorithm, the forward maximum matching algorithm of Chinese word segmentation, wrapped dao operations database.
WordSeg
- 此系统是用MFC编写的正向最大匹配的汉语分词系统,代码详尽,经本人调试能运行且正确。-The system is written in MFC forward maximum matching Chinese word segmentation system, a detailed source, I debug run and correct.
WordSeg
- 这是一个分词程序,有正向最大匹配算法,逆向最大匹配算法,正向最小匹配算法。-This is a word segmentation program, there are positive maximal matching algorithm, reverse maximal matching algorithm, positive minimum matching algorithms.
nixiang
- 最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码-New reverse maximum matching word segmentation algorithm Pangu Chinese word segmentation algorithm source
Desktop
- 可以实现matlab中文分词采用反向最大匹配法可以准确实现分词(Matlab Chinese word segmentation can be achieved, using the reverse maximum matching method, you can accurately achieve word segmentation)
ngram模型分词与统计算法
- N-Gram(有时也称为N元模型)是自然语言处理中一个非常重要的概念,通常在NLP中,人们基于一定的语料库,可以利用N-Gram来预计或者评估一个句子是否合理。另外一方面,N-Gram的另外一个作用是用来评估两个字符串之间的差异程度。这是模糊匹配中常用的一种手段。本文将从此开始,进而向读者展示N-Gram在自然语言处理中的各种powerful的应用。(N-Gram (sometimes referred to as N metamodel) is a very important concept
chinese_seg_update
- 中文分词,采用逆向最大匹配方法实现,利用字典作为索引(The Chinese word segmentation is realized by the reverse maximum matching method, and the dictionary is used as the index.)
Python逆向最大匹配实现-代码-文档-截图等
- 对于文本进行自然语言处理,中文分词。北邮计算机院NLP课的作业。(This is a homework for BUPT student, implementing the word segment of natural language processing.)