搜索资源列表
findkey.c
- 此程序解决的问题:较好的, 并适应短字符串的中文分词算法.根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更新词库.是一个分类分词算法 -this procedure to solve the problem : better, and adapt to the short string of Chinese Segmentation. According thesaurus found in the many separate newline heading the to
tt094a
- 这个程序并不帮你翻译任何文字,仅仅只是提供一个专为翻译工作设计的 编辑器.使用它你可以一行行对照的翻译原文. 而当你在翻译过程中碰到了不 认识的新词,计算机能充当你的词典或笔记本的作用, 让你的翻译工作事半功 倍.当你在翻译某一行文字时,如果发现某个单词不认识,字典区便会显示出单 词的意思,而不需要你的任何按键.当你在字典区没有发现你要的单词时,证明 单词库里没有这个单词,需要你自己从别的途径查找,然后写到字典区内,程序 将马上把它记录在单词库中-this procedure does not
pythonsample
- 自然语言处理的例子,可以实现分词和新词发现,中文预处理也支持。用python写的-Examples of natural language processing can be achieved segmentation and new words found Chinese pretreatment also supported. Written with python
24.HMM
- 通过hmm实现中文分词,并且能自动发现新词的功能(The Chinese word segmentation is realized by HMM, and the function of new words can be automatically found)
ansj_seg-master
- 一个很好的中文分词工具,其中使用了CRF做词性标注以及新词发现(A good Chinese word segmentation tool, in which CRF is used for part of speech tagging and new word discovery.)