CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - jieba分词

搜索资源列表

  1. jieba

    2下载:
  2. jieba分词软件,是python下的开源分词软件,里面有使用例子,简单易用-jieba segmentation software, is under the open source python segmentation software, there are examples of the use, easy to use
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4.48mb
    • 提供者:gaozhe
  1. jieba-0.31

    0下载:
  2. jeiba分词、中文分词、python、开源-jeiba word, Chinese word segmentation, python, open source
  3. 所属分类:source in ebook

    • 发布日期:2017-05-23
    • 文件大小:7.04mb
    • 提供者:何成伟
  1. OntologyLearning

    0下载:
  2. 本体学习相关研究 (1)ConcepLearing 从文本中学习本体概念,使用中科院NLPIR进行分词(也有jieba分词版本的),然后在根据统计(互信息/卡方值)和Topic Model(PLSA)的方法进行实验对比。 -Ontology learning research (1) ConcepLearing learning ontology concept the text, use the CAS NLPIR word segmentation (also jieba Wo
  3. 所属分类:Other systems

    • 发布日期:2017-06-17
    • 文件大小:24.42mb
    • 提供者:Jiguang
  1. jieba分词

    0下载:
  2. jieba 的java分词包,一般都是python的包,这个可用于java的jieba分词(Jieba Java word segmentation package, generally Python package, this can be used for the Java Jieba participle)
  3. 所属分类:其他

    • 发布日期:2017-12-16
    • 文件大小:1.88mb
    • 提供者:xiexie2011
  1. jieba for Python

    0下载:
  2. jieba分词功能在python中的实现方法(The Method of jieba for word-split in python)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-28
    • 文件大小:24kb
    • 提供者:老顾
  1. jieba

    0下载:
  2. 将句子分成很小的独立词,来提取信息,对照数据字典得到有用的关键信息,进行智能筛选题目或回答问题。(The sentence is divided into very small independent words to extract information, and the data dictionary is used to obtain useful key information.)
  3. 所属分类:数学计算

    • 发布日期:2018-01-02
    • 文件大小:1kb
    • 提供者:京城阿祖
  1. jieba_plus

    0下载:
  2. 解决jieba分词中部分bug,包括全角字母和数字等,更新中(solve part of the bugs in Jieba segmentation, update)
  3. 所属分类:多国语言处理

    • 发布日期:2018-01-03
    • 文件大小:3.01mb
    • 提供者:fishiz
  1. jieba

    1下载:
  2. python结巴分词模块.能对句子进行分词.(python module that make sentences into words)
  3. 所属分类:多国语言处理

    • 发布日期:2018-01-05
    • 文件大小:8.03mb
    • 提供者:OT
  1. jieba-0.39

    2下载:
  2. Python非常强大的中文分词包,用于自然语言处理。(Python is a very powerful Chinese word wrapper for natural language processing.)
  3. 所属分类:多国语言处理

    • 发布日期:2018-01-06
    • 文件大小:6.97mb
    • 提供者:laughing_wang
  1. fenci

    0下载:
  2. 对文件夹中的所有文件进行批量、分词处理并保存(Batch word segmentation for all files in a folder)
  3. 所属分类:其他

    • 发布日期:2018-01-06
    • 文件大小:1kb
    • 提供者:荼靡雪
  1. jieba分词

    0下载:
  2. 分词出差的武器的呼气和对区华东区希望成为(xwijidwdjdowslkmxkszmwksww)
  3. 所属分类:其他

    • 发布日期:2018-01-08
    • 文件大小:1.08mb
    • 提供者:nuptxiaoyuan
  1. cppjieba-master

    0下载:
  2. 结巴分词,提供针对中文的分词方法,使用C++语言编写(jieba provides a word segmentation method for Chinese, which is written in the C++ language)
  3. 所属分类:图形/文字识别

    • 发布日期:2018-01-10
    • 文件大小:7.99mb
    • 提供者:千丈岩
  1. ChPreprocess

    0下载:
  2. 使用jieba包从excel表中读取数据,进行中文分词,预料分析(Using Jieba package for Chinese analysis, expected analysis)
  3. 所属分类:其他

    • 发布日期:2018-04-21
    • 文件大小:2kb
    • 提供者:qklwdd
  1. Downloads

    0下载:
  2. jieba分词和ansj分词使用的java包(The package used by the ansj participle)
  3. 所属分类:其他

    • 发布日期:2018-04-22
    • 文件大小:21.81mb
    • 提供者:123xxoo
  1. CPP

    0下载:
  2. 分词,结巴分词C++版本。自己学习用,或者可以加入自己的项目(participle,C++ version of participle.Learn to use, or join your own project)
  3. 所属分类:其他

    • 发布日期:2018-04-23
    • 文件大小:8.01mb
    • 提供者:鲍欢欢
  1. jieba-jieba3k

    1下载:
  2. MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-05-01
    • 文件大小:9.72mb
    • 提供者:啦丿啦
  1. jieba

    0下载:
  2. 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。(Accurate mode, trying to cut the sentence up to the most accurate, suitable for text analysis. The whole mode can scan all the words tha
  3. 所属分类:其他

    • 发布日期:2018-05-02
    • 文件大小:7.94mb
    • 提供者:艾尚霄珊资
  1. jieba-0.38

    0下载:
  2. jieba 分词,用在Python中,对中文文本进行分词(Jieba participle, used in Python to segment Chinese text;)
  3. 所属分类:网络编程

    • 发布日期:2018-05-01
    • 文件大小:7.05mb
    • 提供者:risiding
  1. jieba分词.net源码

    0下载:
  2. 该项目是jieba分词组件的.net版本源码实现,生成的库可以使用,分词也较好
  3. 所属分类:人工智能/神经网络/遗传算法

  1. chatbot

    2下载:
  2. 聊天机器人 原理: 严谨的说叫 ”基于深度学习的开放域生成对话模型“,框架为Keras(Tensorflow的高层包装),方案为主流的RNN(循环神经网络)的变种LSTM(长短期记忆网络)+seq2seq(序列到序列模型),外加算法Attention Mechanism(注意力机制),分词工具为jieba,UI为Tkinter,基于”青云“语料(10万+闲聊对话)训练。 运行环境:python3.6以上,Tensorflow,pandas,numpy,jieba。(Chat Robot
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2021-03-23
    • 文件大小:55.29mb
    • 提供者:白子画灬
« 12 »
搜珍网 www.dssz.com