搜索资源列表
search0422
- index.php 搜索首页,包括搜索目录 search.php 搜索条程序 searchadv.txt 搜索条上的广告信息 cache.php 快照程序 zjc_dir.php 目录列表程序 zjc_search.php 关键字搜索程序-index.php Search Home, including search of the directory search procedures search.php searchadv.txt search of the adv
free141full
- 这个系统属于自动化的搜索引擎,它可以从一个网址列表开始,自动寻找这些网址的下一级网页。可以让中小网站也有有自己特色的搜索引擎。适合与于对某一指定领域里的网站进行搜索,比如建立一个内网的搜索引擎。 升级内容: 1.增加屏蔽网址功能 。 2.修正上一版本处理网页重定向时判断部分网址的错误。 3.增加了删除重复数据功能,可选择是否采用重复页面删除模式,可定义索引重复数据的数据表。 4.首次采用注册码注册完全版本,共享版本限制每网址索引10个页面。 -this system i
turbo_cwcshop
- 系统搭建在Utility-Layer Framework之上 整个系统基于UTF8编码,全面国际化支持,适合任何语言 商城适合销售任何商品 顾客购物流程非常流畅,不产生阻塞感,有良好的购物体验 (Utility-Layer Framework特性之一) 支持注册和非注册用户购物 优良的缓存特性和特别的异步更新数据设计提供了大负载的支持 (Utility-Layer Framework特性之一) 对GOOGLE有最好的亲和度 - 通过独特的URL重写技术,对所有商品页面和
lz_spidetytryryr
- 这个系统是属于自动化的搜索引擎,它可以从一个网址列表开始,自动寻找这些网址的下一级网页。可以让中小网站也有有自己特色的搜索引擎。 适合与于对某一指定领域里的网站进行搜索,比如仅搜索医学网站。 使用sql server 2000做数据库。 网络蜘蛛根据用户设定的入口网址自动收集网页数据 强大完备的后台管理 充分挖掘.net性能,百万数据瞬间搜索 完美的前台web页cc面媲美专业搜索 中文分词接口-The system is an automated search
CourseCrawler_1_0_0_final
- 搜索专业术语的爬虫,指定专业网站的列表从中搜索专业术语相关的网页。-search of the reptile's terms, the designated professional websites from the list of search terms related to the professional website.
applyforfree
- 以下是本人通过搜索引擎\\站内厂商列表搞出来的,页面看了上千个, 免费申请样片:)
networddetect
- 可设定局域网IP地址范围,进行检测,检测到的目的主机的详细信息将显示在list列表中,同时对检测结果可保存为文本文档。
cjbt
- 1.BT下载页和种子列表以及搜索列表页均采用伪静态化URL,更易于被搜索引擎收录。 2.内置百度的热门电影、电视剧、动漫卡通、软件等TOP50关键字排行小偷. 3.强大的BT搜索功能. 4.可以在Linux和windows等系统服务器上正常运行。 5.除去了一些不必要的代码,提高了程序运行效率。 6.BT数据同步更新程序,每天更新几百条BT种子 7.任意自定义添加广告(请自行修改www文件夹下的文件) 8.高速获取数据,无需维护管理,一分钟即可建立个性化的BT站点!
spider
- 该工程产生一个象蜘蛛一样行动的程序,该程序为断开的URL链接检查WEB站点。链接验证仅在href指定的链接上进行。它在一列表视图CListView中显示不断更新的URL列表,以反映超链接的状态。本工程能用作收集、索引信息的模板,该模板将这些信息存入到可以用于查询的数据库文件中。
webim
- 修改本人状态、签名并通知给好友 修改本人档案 好友列表的状态、组别排序以及大图标显示 添加、屏蔽、删除好友 查看聊天记录,支持下载到本地 发送、接收带图片表情的消息 发送、接受闪屏振动 主面板根据姓名、邮箱搜索好友功能 系统设置 添加、修改好友昵称 联系人卡片 三种(好友上线、新消息、闪屏)声音提示 增加了组别的增改删以及更换好友分组(仅在按分组排序下才有相应菜单) 同一帐号如果登录两次,先登录的会退出
ComboBox
- 类似与google搜索条的下拉列表..能模糊查找-Google search bar similar to the drop-down list .. can fuzzy search
City_supply_information_net
- 都市供求信息网分为前后台的设计,前台主要实现信息的显示、搜索与发布功能。其中信息的显示包括列表显示与详细内容显示,而列表显示,又分为首页面的信息列表显示、查看某类别下所有信息的列表显示和搜索结果列表显示;搜索功能主要包括定位搜索和模糊搜索;后台主要实现的功能为信息显示、信息审核、信息删除、付费设置与退出登录,其中的信息显示功能也分为列表显示与详细内容显示。-Net urban demand and supply of information is divided into Units befor
Z-emailCollector
- 1、它类似于一个蜘蛛程序,可以分析抓取到的每个网页,找出网页上面的email地址并将其提取出来; 2]kIqn*] 2、它又类似于一个人,可以选择点击什么样的链接,不点击什么样的链接,而不是每个链接都点击; V>bfNQK 3、它也可以选择自己感兴趣的邮箱地址进行提取并保存,而不是每个邮箱地址都抓取; 5n{Ap|E3 4、它可以根据您的指示忠实的完成第2步和第3步的功能。 oh1n+ Z 5、它可以根据您的指示将抓取到的邮箱地址列表保存在任何位置
larbin-2.6.3
- larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。 Larbin只是一个爬虫,也就是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。 latbin最初的设计也是依据设计简单但是高度可配置性的原则,因此我们可以看到,一个简单的larbin的爬虫可以每天获取500万的网
spider_engine
- 分析网页代码,提取url进行散列处理,提交客户端程序进行排重处理,然后存入客户机数据库,随后根据数据库中的url列表遍历整个网络。-Analysis of web code, extract the hashed url, submit re-schedule the client program to deal with, and then stored in the client database, and then the url list in the database through
web141
- Webinfo自动化搜索引擎系统ver 1.4,可以从一个网址列表开始,自动寻找这些网址的下一级网页。-Webinfo automated search engine ver 1.4, you can start from a list of URLs to automatically search for the next level of pages of these websites.
p2psearch_b
- P2P资源搜索器 利用btcherry网站搜索磁力链接 支持预览列表 支持翻页 支持自动下载-P2P resource search engine Using the btcherry web search magnetic link Preview list Support page Support automatic download
Python-Spider
- 针对“天天美剧”,Coursera,豆瓣 Top 250 电影列表,“免费文档”,“糗事百科”以及“挖段子”等网站的 Python 爬虫。 主要实现网站资源链接和文本内容爬取及保存。 具体用法见代码注释。-Python Reptile for " everyday drama" , Coursera, watercress Top 250 list of movies, " free document" , " embarrassmen
种子搜索器
- 列表推导式(List comprehensions)也叫列表解析,灵感取自函数式编程语言 Haskell。Ta 是一个非常有用和灵活的工具,可以用来动态的创建列表(List comprehensions, also known as list parsing, is inspired by functional programming language Haskell. Ta is a very useful and flexible tool that can be used to creat
聚合搜索
- 1:无需shell,无需蜘蛛池,无需租用二级目录,仅仅需要一个老域名 2:内置资源接口,提权,养站,排名 3:合理SEO优化构造,病毒式繁殖,组合,让蜘蛛畅快爬取收录 4:配合主动实时推送,每天可以推送400万个网页,加速收录 5:是目前最有效,最稳定,操作最简单,最省钱,排名的霸屏程序。 6:所需资源,一个老域名,你自己的关键词,一个服务器 7:本程序无需mysql,使用文件缓存,动静结合加载。 8:针对百度搜索引擎做了代码优化。 9:根目录可以直接用顶级域名养站。 10:自