CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索资源 - 中文分词

搜索资源列表

  1. 百度分词词库

    0下载:
  2. 据说是百度以前用的中文分词词典,希望对大家有一点帮助哈,快下快下-allegedly Baidu before the Chinese word dictionaries, we hope to have a bit of help to Kazakhstan, where fast under fast!
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:406.73kb
    • 提供者:王国金
  1. 中文分词函数库CipSegSDKV1.03

    1下载:
  2. 东大做中文分词的源代码,主要是用于搜索引擎的中文文本预处理-Tung Chinese-made version of the source code is mainly for the Chinese search engine Hypertext
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:645.65kb
    • 提供者:刘斌
  1. Delphi实现的简单中文分词v1.1

    0下载:
  2. Delphi实现的简单中文分词,Delphi实现的简单中文分词-Delphi simple Chinese word Delphi simple Chinese word
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:493.89kb
    • 提供者:鸿飞
  1. luncene查询分析器中文词典

    0下载:
  2. 中文分词词库
  3. 所属分类:搜索引擎

  1. Chinesewordsegmentationalgorithm

    0下载:
  2. 中文分词算法,跟金山词霸一样,当鼠标移动到语句上时,能自动分割词语-Chinese word segmentation algorithm with the same PowerWord, when the mouse moved to sentence when the words automatically partition
  3. 所属分类:Search Engine

    • 发布日期:2017-05-15
    • 文件大小:3.59mb
    • 提供者:云梦若
  1. Codes_and_Application

    0下载:
  2. 中科院的的分词工具,应该是分中文用的,效率不错-Chinese Academy of Sciences of the sub-word tools, should be used at the Chinese, the efficiency of a good
  3. 所属分类:Search Engine

    • 发布日期:2017-05-11
    • 文件大小:2.61mb
    • 提供者:chanfangliang
  1. css

    0下载:
  2. 用VISUAL C++编写的中文分词系统C-Using VISUAL C++ Prepared Chinese word segmentation system C
  3. 所属分类:Search Engine

    • 发布日期:2017-04-03
    • 文件大小:36.49kb
    • 提供者:zsl
  1. include

    0下载:
  2. 用VISUAL C++编写的中文分词系统中的INCULDE算法-Using VISUAL C++ Prepared Chinese word segmentation system INCULDE algorithm
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:35.31kb
    • 提供者:zsl
  1. utils

    0下载:
  2. 用VISUAL C++编写的中文分词系统 UTILS算法-Using VISUAL C++ Prepared Chinese word segmentation system Utils algorithm
  3. 所属分类:Search Engine

    • 发布日期:2017-03-29
    • 文件大小:24.04kb
    • 提供者:zsl
  1. SentenceSplit

    0下载:
  2. 中文分词组件。小型搜索引擎用中文分词组件, 内带词库-Sentence Split
  3. 所属分类:Search Engine

    • 发布日期:2017-05-13
    • 文件大小:573.9kb
    • 提供者:白水
  1. src

    0下载:
  2. 利用lucene编写的一个简单搜索引擎,能够中文分词。-a simple search engine built with lucene.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:4.67kb
    • 提供者:杨子靖
  1. UseHLSSplit(Fix)

    0下载:
  2. 中文分词处理,delphi调用海量智能分词库,修改了网上另一个版本的错误。-Chinese word processing, delphi call the massive intelligence points thesaurus, revised the online version of the error to another.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-24
    • 文件大小:7.39mb
    • 提供者:匹夫
  1. KWICcase

    0下载:
  2. 实现关键词检索的一个程序,中文分词,自动检索-To achieve keyword search of a program, Chinese word segmentation, automatic search
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-03-30
    • 文件大小:4.81kb
    • 提供者:shawn
  1. 111

    0下载:
  2. 中文分词 词库 分次字典中文分词 词库 分次字典- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3) ASSERT(SUCCEEDED(hr))
  3. 所属分类:Search Engine

    • 发布日期:2017-04-10
    • 文件大小:1.38kb
    • 提供者:xuhaifan
  1. 33753115ktdictseg_v1.0.01

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:36.51kb
    • 提供者:郭刚
  1. SharpICTCLAS

    0下载:
  2. ICTCLAS分词的总体流程包括:1)初步分词;2)词性标注;3)人名、地名识别;4)重新分词;5)重新词性标注这五步。就第一步分词而言,又细分成:1)原子切分;2)找出原子之间所有可能的组词方案;3)N-最短路径中文词语粗分三步。 在所有内容中,词典库的读取是最基本的功能。ICTCLAS中词典存放在Data目录中,常用的词典包括coreDict.dct(词典库)、BigramDict.dct(词与词间的关联库)、nr.dct(人名库)、ns.dct(地名库)、tr.dct(翻译人名库
  3. 所属分类:Search Engine

    • 发布日期:2017-04-09
    • 文件大小:1.87mb
    • 提供者:ounata
  1. ICTCLAS2010CSharpDemo

    0下载:
  2. 中文分词源程序, 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:90.87kb
    • 提供者:Liuying
  1. splitword

    0下载:
  2. 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-10
    • 文件大小:2.04mb
    • 提供者:yang
  1. 1

    0下载:
  2. 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information retrieval, or other related appli
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:58.69kb
    • 提供者:随风
  1. paoding-analysis-2.0.4-beta

    0下载:
  2. paoding-dic-home.properties是庖丁解牛中文分词的配置文件 庖丁解牛分词器是基于lucene的中文分词系统的软件。(Paoding-dic-home.properties is Chinese Paodingjieniu participle configuration file Is Chinese Paodingjieniu segmentation segmentation system based on the Lucene software.)
  3. 所属分类:网络编程

    • 发布日期:2018-04-21
    • 文件大小:5.83mb
    • 提供者:Alex灬XiaoD
« 12 3 4 5 »
搜珍网 www.dssz.com