资源列表
zhilian_scrapy
- 智联招聘的网络爬虫,用了Scrapy框架。(The web crawler recruited by Zhaopin uses the Scrapy framework.)
baidusousuo
- 精仿百度搜索引擎源码搜猫V9.0正式版商业版-Fine imitation Baidu search engine source code search cat official version V9.0 Business Edition
BISM “菁搜”FTP搜索引擎控制台源码
- 开源项目:BISM“菁搜”FTP搜索引擎 borland c++ 2007开发平台 这里使用了boost库 联系EMAIL:BISM软件工作组 E-MAIL:Bismsotware@163.com 余文锋 E-MAIL:wenfeng610@yahoo.com.cn 陈鸿雏 E-MAIL:canzer@126.com.cn 吴侃侃 E-MAIL:suzerain2005@163.com 相关的其它信息:http://blog.csdn
windows_JNI_32
- 这是中科院的分词软件,内容很全,有使用说明,及相应的demo,用于中文NLP领域的预处理,非常好!-This is the Chinese Academy of Sciences of the segmentation software, content is very wide, there are instructions for use, and the corresponding demo, pre-processing for Chinese NLP areas, very good!
cofe
- 基于协同过滤推荐recommendation的电影推荐系统源码-Movie recommendation based on collaborative filtering recommender system source code
readHtml
- 一个小的网络爬虫,从文件中读取URL,然后抓取网页文件-network crawler
bismftpsearchconsolecode
- BISM菁搜FTP搜索引擎控制台源码 已经发布 里面有详细源码 开源项目:BISM“菁搜”FTP搜索引擎 borland c++ 2007开发平台 这里使用了boost库 联系EMAIL:BISM软件工作组 E-MAIL:Bismsotware@163.com 余文锋 E-MAIL:wenfeng610@yahoo.com.cn 陈鸿雏 E-MAIL:canzer@126.com.cn 吴侃侃 E-
HelloLucene
- 自己写的Hello Lucene 包括了一些基本的Lucene调用过程 索引的建立和写入读取-About Tika components using the sample, usually used when testing can support various file to write their own String conversion Hello Lucene includes some basic Lucene calls the establishment of process
UseHLSSplit(Fix)
- 中文分词处理,delphi调用海量智能分词库,修改了网上另一个版本的错误。-Chinese word processing, delphi call the massive intelligence points thesaurus, revised the online version of the error to another.
kfeng
- K封搜索·好东西,下载用的·很不错·····下载实验下吧-K seal search a good thing, download download experiment with the very good under the bar
PageParser
- 对网页进行解析的两个源码,结构代码比较清晰,容易上手.-pages of the two-source analysis, structural code clearer and easier to get started.
chinese_lucene
- c#中文分词类库+可用来做搜索引擎分词+准确率90 +支持Lucene.net.rar