搜索资源列表
wsnlinks255
- 搜索引擎,php作的,有用的就下吧!!现在作网站都需要这个!!顶呀-search engine, php for the useful on the next! ! Now for the site needs! ! Ding Ya!
free141full
- 这个系统属于自动化的搜索引擎,它可以从一个网址列表开始,自动寻找这些网址的下一级网页。可以让中小网站也有有自己特色的搜索引擎。适合与于对某一指定领域里的网站进行搜索,比如建立一个内网的搜索引擎。 升级内容: 1.增加屏蔽网址功能 。 2.修正上一版本处理网页重定向时判断部分网址的错误。 3.增加了删除重复数据功能,可选择是否采用重复页面删除模式,可定义索引重复数据的数据表。 4.首次采用注册码注册完全版本,共享版本限制每网址索引10个页面。 -this system i
xx_20030222
- 下一代天网文件搜索引擎-next generation Skynet document search engine
SearchEngine
- 搜索引擎模块是一个很主要且常见的功能。一个好的搜索引擎能给用户使用带来方便。在“站内”选项卡下的搜索框中输入欲查询的关键词,如“PHP 字符串,处理技术!”,单击“极速搜索”按钮,系统会首先过滤欲查询关键词的标点符号,然后对过滤标点符号的关键词进行分词操作,接下来在数据库中检索与之匹配的信息资源。同时实现搜索计时及查询结果汇总功能,并在结果集中高亮显示查询关键词,最后以分页形式输出匹配结果给用户。-Search engine module is one of the main and commo
hyss
- 搜索程序,是从其他网站下载来的。这么长还不行啊,你到底要我写多少的字啊,累得不行了,想下一个东西真麻烦。-Search procedure is from other sites to download. So long is not enough ah, do you want me to write the number in the end the word, ah, the point of death so tired, I would like to really trouble t
seoseach
- 一个适合SEO的自动检索点击源码,可实现自动检索 自动下翻10页-An automatic search for SEO click source, can be automatically retrieved automatically turned 10 next
web141
- Webinfo自动化搜索引擎系统ver 1.4,可以从一个网址列表开始,自动寻找这些网址的下一级网页。-Webinfo automated search engine ver 1.4, you can start from a list of URLs to automatically search for the next level of pages of these websites.
webSearch
- 网博垂直搜索引擎,完全开源,需要的可以学习下-Net Bo vertical search engine, fully open source, needs to learn next
Crawler
- 网络爬虫,能够从网页中搜索到各个链接并进行下一级的搜索,对于无用的Css,js等文件会自动筛选掉的,-Web crawler and search from a web page for each link and the next level search useless Css, js file will be automatically filtered out.
NwebCrawler
- NwebCrawler是用C#写的一款多线程网络爬虫程序,它的实现原理是先输入一个或多个种子URL到队列中,然后从队列中提取URL(先进先出原则),分析此网页寻找相应标签并获得其href属性值,爬取有用的链接网页并存入网页库中,其中用爬取历史来记录爬过的网页,这样避免了重复爬取。提取URL存入队列中,进行下一轮爬取。所以NwebCrawler的搜索策略为广度优先搜索。采用广度优先策略有利于多个线程并行爬取而且抓取的封闭性很强。-NwebCrawler is a multi-threaded w
Spider
- 用c写的一个爬虫程序,可以从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页-With c write a crawler, a page from a website (usually home) began to read the content of web pages to find the other links on the page address, and then through these pages to fi