资源列表
UseHLSSplit(Fix)
- 中文分词处理,delphi调用海量智能分词库,修改了网上另一个版本的错误。-Chinese word processing, delphi call the massive intelligence points thesaurus, revised the online version of the error to another.
HelloLucene
- 自己写的Hello Lucene 包括了一些基本的Lucene调用过程 索引的建立和写入读取-About Tika components using the sample, usually used when testing can support various file to write their own String conversion Hello Lucene includes some basic Lucene calls the establishment of process
bismftpsearchconsolecode
- BISM菁搜FTP搜索引擎控制台源码 已经发布 里面有详细源码 开源项目:BISM“菁搜”FTP搜索引擎 borland c++ 2007开发平台 这里使用了boost库 联系EMAIL:BISM软件工作组 E-MAIL:Bismsotware@163.com 余文锋 E-MAIL:wenfeng610@yahoo.com.cn 陈鸿雏 E-MAIL:canzer@126.com.cn 吴侃侃 E-
readHtml
- 一个小的网络爬虫,从文件中读取URL,然后抓取网页文件-network crawler
cofe
- 基于协同过滤推荐recommendation的电影推荐系统源码-Movie recommendation based on collaborative filtering recommender system source code
windows_JNI_32
- 这是中科院的分词软件,内容很全,有使用说明,及相应的demo,用于中文NLP领域的预处理,非常好!-This is the Chinese Academy of Sciences of the segmentation software, content is very wide, there are instructions for use, and the corresponding demo, pre-processing for Chinese NLP areas, very good!
BISM “菁搜”FTP搜索引擎控制台源码
- 开源项目:BISM“菁搜”FTP搜索引擎 borland c++ 2007开发平台 这里使用了boost库 联系EMAIL:BISM软件工作组 E-MAIL:Bismsotware@163.com 余文锋 E-MAIL:wenfeng610@yahoo.com.cn 陈鸿雏 E-MAIL:canzer@126.com.cn 吴侃侃 E-MAIL:suzerain2005@163.com 相关的其它信息:http://blog.csdn
baidusousuo
- 精仿百度搜索引擎源码搜猫V9.0正式版商业版-Fine imitation Baidu search engine source code search cat official version V9.0 Business Edition
zhilian_scrapy
- 智联招聘的网络爬虫,用了Scrapy框架。(The web crawler recruited by Zhaopin uses the Scrapy framework.)
spider
- 一个简单的网络爬虫,可以设置一些网站作为首选链接,爬取网页上的文字内容。-A simple Web crawler, you can set some websites as the preferred link, crawling text on the page.
Develop-its-own-search-engine
- 开发自己的搜索引擎lucene+heritrix(第2版)(ch2、ch7-ch9源码)-Develop its own search engine lucene+ heritrix (2) (ch2, ch7-ch9 source)
lucidworks-solr-refguide-1.4
- solr1.4 开发指南。详细讲解使用solr进行搜索引擎开发的权威指导书。-solr reference guide