搜索资源列表
php写的一个小的搜索引擎源码
- php写的一个小的搜索引擎源码(包括机器人spider)-php write a small search engine source code (including the robot spider)
21Msearch
- 1、本程序带有蜘蛛程序 2、支持无限级分类,无限添加网站; 3、采用php+mysql+zend达到海量数据,一般的php空间就可以运行 4、系统运行速度快、占用服务器资源小; 5、网站打分机制-one, the Spider procedures with two procedures, unlimited support-category, add unlimited website; 3. using php mysql zend achieve massive data,
nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php
- Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词
nicewords4.5中文版
- Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 NiceWords最主要是解决了自动建站的问题。以前的自动建站软件内容都还是需要自己发,有了NiceWord
souso
- 一款搜索引擎的源码,带蜘蛛的!自带聚合搜索,所有的搜索引擎,后台带蜘蛛-A search engine source, with the spider! Polymerization own search, all search engine spiders with the background
NG
- PHP-curl implementation of a spider that does a certain thing on the website newgrounds.com (deposits experience), suitable for execution via chron
spider
- 一个简单的网络爬虫程序,能够实现对指定网站的爬行-A simple web crawler "
spider
- 工具说明: 1.类文件的作用是监控搜索引擎爬虫对网站的操作。 2.本类为php代码,只适用于php系统的网站。 3.代码没有使用到数据库,直接把记录写在文本文件中,请在根目录建立spider文件夹。 4.代码产生的记录,仅供参考,并不保证包含所有的记录,因为没有运行到本代码的文件是不会记录的。 5.本代码为免费代码,可以随便复制,修改使用,但是希望能保留一点我的版权信息。 使用方法: 请将需要统计的页面加入以下代码,并调用,一般修改在全局调用的文件中。 re
sphider-plus_v.2.0
- Sphider Plus v1.5这是最新版,免费开源 Sphider 是一个完美的带有蜘蛛的搜索引擎程序 继Sphider v1.3.4 完美汉化版后,又对一关于IIS支持的重大BUG问题给予修补。 增加了很多特色功能, 数据结构进行重大优化, 版面做了较大的改进更方面修改,内置几个漂亮界面, 蜘蛛爬行更高效, 修改\settings\database.php设置按说明安装不行的话导入sql\tables.sql-Sphider Plus v1.5 this is
sphider-1.3.5Chris
- sphider是一个开源的轻量级php+mysql全文搜索引擎,带蜘蛛功能,但是对中文支持不友好。 本版本对后台界面进行了汉化,并且对编码及数据库进行了utf8编码统一,完美解决中文乱码问题。 同时应用scws分词系统解决中文分词问题,并修正了中文搜索时不能正确返回信息的bug。 是搜索引擎开发入门的理想之选。-sphider is an open source lightweight php mysql full-text search engine, with the spider fu
tianmaodd_v1.0
- 是一种新型的淘宝客程序,淘宝屏蔽蜘蛛,导致天猫100 页面原创 直接使用天猫店铺精美页面,提高佣金转化率 首次使用程序请到后台进行相关设置,否则出现错位、空白等现象 默认后台:http://程序地址/admin/index.php 默认账号: admin 默认密码: admin-A new type of program Taobao customers Taobao shielding spider page original direct use Lynx shop pa
vivitbktmdp
- 是一种新型的淘宝客程序,淘宝屏蔽蜘蛛,导致天猫100 页面原创 直接使用天猫店铺精美页面,提高佣金转化率 首次使用程序请到后台进行相关设置,否则出现错位、空白等现象 默认后台:http://程序地址/admin/index.php 默认账号: admin 默认密码: admin 功能简介: 1.采用php采集技术自动获取,可获取98 任意天猫店铺内容. 2.将天猫店铺内的商品自动转换为加上淘宝客PID,得以获得佣金. 3.去除页面头部,尾部,使得更加逼真.
zhizhu
- 搜索引擎蜘蛛的跟踪记录,主要有 百度,谷歌,搜搜,搜狗,360,雅虎,Bing,有道,Alexa,搜索引擎蜘蛛,能准确抓取并记录。 执行 http://您的域名/zhizhu/install 填写相应的配置信息即可自动完成安装 如何调用统计? 在需要统计的PHP页面加入如下代码即可 <?php include zhizhu/zz.php ?>-Search engine spider track records, mainly in Baidu, Google
admin73_tool_1.0
- 73站长网站长查询工具包含了: 搜索引擎收录和反向链接情况查询 中文 Alexa 网站排名查询 Google PageRank值查询 百度关键字排名查询 关键词密度查询 蜘蛛、机器人模拟抓取工具 META信息检测工具 域名 WHOIS 信息查询工具 安装说明: 服务器(虚拟主机)必须支持ASP和PHP,才能正常运行,请检查自己的服务器是否支持! 上传文件至服务器即可运行! -73 webmaster website long query to
spider
- web spider php fuctions
kakaseotool
- 卡卡家园蜘蛛爬行日志分析器 PHP版,php编程学习源码,web网页制作参考资料。-Kaka home the spider crawling log analyzer PHP version, PHP learning programming source code, web Webpage production of reference materials.
sphider
- 开源的蜘蛛程序,php编程学习源码,web网页制作参考资料。-Open source spider, PHP learning programming source code, web Webpage production of reference materials.
wzzzjlq_v1.2
- PHP网站蜘蛛记录器,用于记录各大搜索引擎蜘蛛访问你网站的记录,也就是爬行日志,通过对这些日志内容的分析,让你对网站在各大搜索引擎中的表现,特别是蜘蛛的来访次数和时间等规律有一个初步的认识,为网站SEO提供依据。-PHP web spider recorder for recording records the major search engine spiders visit your website, which is crawling logs, by analyzing the cont
baidu_curl_get
- php伪装百度蜘蛛来路信息通过GET方式抓取远程面页内容-PHP camouflage Baidu Spider to route information through the GET fetching remote pages content
jkss_v1.0
- 即刻搜索小偷体验版 1:强大的搜索效率 2:彪悍的PHP语言开发 本人需要空间赞助如果哪位兄弟是搞主机的或者有空间的能长期的提供我!本人会免费长期提供搜索技术同时赠送本人开发的给力搜索PHP版本带蜘蛛引擎!-Instant search for the thief experience Edition 1: a powerful search efficiency 2: the development of PHP s tough language I need spac