搜索资源列表
IBMDict
- 四. 主要功能 === 屏幕取词: - 翻译屏幕上鼠标所指的英文单词、成语或短语,并实现中文取词翻译。 - 翻译屏幕上鼠标所指的英文句子,并可随时切换按词翻译和按句翻译这两种不同的 方式。 - 用户可以随时暂停或恢复屏幕取词功能。 - 通过热键进行屏幕取词,确保仅在需要时才弹出浮动翻译窗口,显示词意。 - 设置取词速度,调整浮动翻译窗口的响应时间。 - 可以选用或取消即指即译同步发音的功能。选择男、女发音和合适的语速。 - 在浮动翻译窗口中提供联机的智能匹配功能。 词典查询: - 翻译用户输入
yinwenfenci
- 英文分词,根据字典的词对英文无空格的词序列进行分解-The English word, according to word dictionary of English words without spaces in the decomposition sequence
DotLuceneDemo
- DotLucene演示源码 DotLucene实际是Lucene的Asp.net版本,也称为lucene.net 该项目的原型为DotLuceneAPISearchDemo-1.1,后经51aspx升级为Asp.net2.0版本并改为WebApplication类型 该demo演示了Lucene的常用功能(智能分词、关键字高亮等) 在测试自定义添加数据后点击建立索引按钮才能生效(此功能由51aspx添加),原版只检索目录下的html文件,51Aspx改为了检索所
Filter3
- 英文分词过滤程序,先分词,然后用停用词处理过滤,完成预处理, 很好,很强大-stemming and filtering adaf ad aasdf asf adftgh gadgf aff
Tokenizer
- opennlp是自然语言处理的开源工具,它是JAVA写的,可以再Eclipse中直接调用。上传的这写代码实现了英文分词代码的功能。-Opennlp is an open tool for natural language processing. It is written in JAVA. It can be used in Eclipse directly . The code uploaded is used to token English words.
wuxiao
- 是中文和英文网页的分词等预处理,里面包括例子,结果,文档,代码-Is Chinese and English web pages and other pre-segmentation, which includes examples of the results, documentation, code
123
- 1. 读取文档并分词。要求给定一篇.txt英文文档,计算机读入并统计该篇文章由哪些词组成,按字母顺序输出出现过的词已经每个词的出现频率。-1. Read the document and word. Requirements for a given article. Txt English documents, computer reads and counts the words in the article which consists, in alphabetical order of t
myFileStream
- 词频统计,能实现英文文章的分词和统计功能,代码比较简单,容易实现。-Word frequency statistics, to achieve the English word articles and statistical functions, the code is relatively simple, easy to implement.
简单基于词典的分词(带txt语料库)
- 基于词典的分词,用于英文文本对文本进行词典的分词(Based on the word segmentation of the dictionary, used in the English text of the text of the dictionary word segmentation)
phpanalysis2.0.tar
- PHPAnalysis是目前广泛使用的中文分词类,使用反向匹配模式分词,因此兼容编码更广泛,现将其变量与常用函数详解如下: 一、比较重要的成员变量 $resultType = 1 生成的分词结果数据类型(1 为全部, 2为 词典词汇及单个中日韩简繁字符及英文, 3 为词典词汇及英文) 这个变量一般用 SetResultType( $rstype ) 这方法进行设置。 $notSplitLen =
Main
- 利用java的字符串分词实现英文文本的词频统计并进行输出(Using java string word segmentation to achieve English word frequency statistics and output)
work
- 贝叶斯下文本分类器,python语言,包括中文分词和英文分词(Bias's lower text classifier, python language, including Chinese participle and English participle)
English
- 包括了原始英文文档、删除特殊符号、分词、词干化、计算相似度等文本预处理后产生的文档,总的数量是500个英文文档(Including the original English document, delete special symbols, such as text segmentation, a preprocessed documents produced, the total number of 500 English document)
fenci2
- 可以提供中文分词算法,同时能够支持英文的分词(Chinese and English words stemming algorithm)
情感分析用词语集·知网hownet词典
- 该软件可以实现微博分析、聊天分析、全网分析、网站分析、浏览分析、分词、词频统计、英文词频统计、流量分析、聚类分析等一系列文本分析(The software can realize micro-blog analysis, chat analysis, whole network analysis, website analysis, browse analysis, word segmentation, word frequency statistics, English word freque
986D82099BFBF6C98B8B2F79ABD_64750624_D4D875
- 英文分词工具,主要用于英文单词分词,是斯坦福大学的著作权。(English word tool, mainly for the English word segmentation, Stanford University, copyright,)