搜索资源列表
SearchCrawler
- 一个搜索引擎类,使用方法:在命令窗口输入: D:\\>java SearchCrawler http://www.sina.com 20 java-a search engine category, the use of methods : the command window : D : \\ gt; Java SearchCrawler http://www.sina.com 20 java
turbo_cwcshop
- 系统搭建在Utility-Layer Framework之上 整个系统基于UTF8编码,全面国际化支持,适合任何语言 商城适合销售任何商品 顾客购物流程非常流畅,不产生阻塞感,有良好的购物体验 (Utility-Layer Framework特性之一) 支持注册和非注册用户购物 优良的缓存特性和特别的异步更新数据设计提供了大负载的支持 (Utility-Layer Framework特性之一) 对GOOGLE有最好的亲和度 - 通过独特的URL重写技术,对所有商品页面和
200090681
- 一种网页分类中使用的中文分词方法,很有借鉴性,大家可以-a website classification of Chinese word segmentation method, a very useful reference, we can s
c-vi
- 实用网址2007 1:整体美化,优化后台 2:增加了常用邮箱无忧登陆栏 3:增加了数个二级频道,使你的网站在最短的时间内提升排名 4:修正了一些小的BUG 5:分类更加详细,更加人性化! 6:新增个人网址导航功能(特色); 7:使用论坛等外部数据库用户表功能; 安装方法: 1:将源码全部上传到网站空间,进入后台管理页面 2: 点击“网站信息管理”,修改其中的网站信息 3:点击“生成html管理”,生成网站页面 4:后台管理目录:admin/
HowtouseOpenLayers
- 介绍了如何使用OpenLayers的方法
GOOGLE
- 详细介绍了Google搜索引擎的使用方法和发展-Details of the Google search engine use and development
GoogleSearch
- Google搜索引擎妙用,使用方法,内容翔实,透漏了众多Google搜索玄机 -妙用Google search engine, use the methods and informative, reveal a number of Google search Hsuanchi
10121
- 利用虚函数手段,按照三种不同的数据存储方式及其处理方法来实现如下的所谓“反序 输出问题”:从键盘输入n 个int 型数据先存储起来(具体n 值由用户从键盘输入),而后再 按照与输入相反的顺序将这些数据显示在屏幕上。 具体地说,可通过在基类baseCla 及其派生类method1Cla、method2Cla 和method3Cla 中说明如下的同一个虚函数“virtual void reverseout() ”,来实现所述问题的三种不同处 理方法。例如,可设计并使用已经在第四章
SogouT.mini.tar
- 百度搜索引擎具有响应速度快、查找结果准确全面、时效性强、无效链接少、符合中文语言特点和中国人使用习惯等优点。 1...这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3)
BaiduReptile
- Python百度空间搬家工具. 使用方法: baidu = BaiduMove( fred , 百度空间ID ) baidu.articleToRSS( 生成文件名 ,生成文件切割数) 作者网站:www.fengsage.com-Baidu Space to move Python tools. To use: .... author: www.fengsage.com
WANNENGSOUSHOU
- 万能超级搜索引擎V8.0(赚钱版)绝对是目前全国功能最优秀的超级搜索引擎,可跟任何同类程序比较。 经数据统计,全国已超过20000个网站和超过3000家网吧正在使用本程序 而且有部分网站和网吧的站长已经达到日收入过千了 google已经成为全球最大的网站,百度已成为中国最大的网站,两者都是搜索引擎,已经证明搜索引擎已经成为每位网民日常必须的网站了,但因为百度和google已经垄断了全球大部分用户了,就算您有财力去做一个和百度一样的搜索引擎出来,也没有办法从百度手上抢到用户,要从百度手
Goole-Hacker
- 关于搜索引擎中的使用技巧,是非常流行的方法,而且可以使你在短时间内找到想要的内容-Use the search engine on the skills, is very popular method, but also allows you to find the desired content in a short time
NetSpiderDemo
- 简单描述: 本程序是一个网络爬虫的演示程序。 程序主要涉及到:网页下载,URL解析,数据库读写。 网页下载使用Winhttp组件;数据库使用Sqlite。 使用方法: 1. 在“搜索网页”Tab页,输入关键字搜索,程序会把含关键字的网页信息,存入子目录下的Info.db。 2. 在“显示网页”Tab页,输入关键字显示,程序会把含关键字的网页信息,显示在界面上。 交流及指正,请联系QQ:270156812-This is a net
somao_v8.0
- PHPSou V3.0(20130322) 为UTF-8编码的测试版本,功能还不完善,不过在后台已经可以实现网址的抓取,目前后台已经抓取了超过80万的顶级网址,接近10万的网页可供搜索。 值得注意的是,本版本为整合sphinx版本,需要安装sphinx才能正常使用,需要研究本版本的网友可以登录官方论坛:http://www.phpsou.net 了解新版的安装方法。 PHPSou V3.0(20130322)为最终的PHPSou开发框架,后续版本将会在本版本的基础上进行升级,
用Python写网络爬虫
- 本书讲解了如何使用P川lOil来编写网络爬虫程序, 内容包括网络爬虫简 介, 从页面中抓取数据的三种方法, 提取缓存中的数据, 使用多个线程和进 程来进行并发抓取, 如何抓取动态页面中的内容, 与表单进行交互, 处理页 面中的验证码问题, 以及使用 Scarpy和Portia 来进行数据抓取, 并在最后使 用本书介绍的数据抓取技术对几个真实的网站进行了抓取, 旨在帮助读者活 学活用书中介绍的技术。 本书适合有一定Python 编程经验, 而且对爬虫技术感兴趣的读者阅读。(This book ex