优秀爬虫的特***
优秀爬虫的特***对于不同的应用来说,可能实现的方式各有差异,但是实用的爬虫都应该具备以下特***:
1.高***能
互联网的网页数量是海量的,所以爬虫的***能至关重要。这里的***能主要是指爬虫下载网页的抓取速度,常见的评价方式是以爬虫每秒能够下载的网页数量作为***能指标,单位时间能够下载的网页数量越多,爬虫的***能越高。
要提高爬虫的***能,在设计时程序访问磁盘的操作方法及具体实现时数据结构的选择很关键,比如对于待抓取URL队列和已抓取URL队列,因为URL数量非常大,不同实现方式***能表现迥异,所以高效的数据结构对于爬虫***能影响很大。
2.可扩展***
即使单个爬虫的***能很高,要将所有网页都下载到本地,仍然需要相当长的时间周期,为了能够尽可能缩短抓取周期,爬虫系统应该有很好地可扩展***,即很容易通过增加抓取服务器和爬虫数量来达到此目的。
目前实用的大型网络爬虫一定是分布式运行的,即多台服务器专做抓取。每台服务器部署多个爬虫,每个爬虫多线程运行,通过多种方式增加并发***。
对于巨型的搜索引擎服务商来说,可能还要在全球范围、不同地域分别部署数据中心,爬虫也被分配到不同的数据中心,这样对于提高爬虫系统的整体***能是很有帮助的。
3.健壮***
爬虫要访问各种类型的网站服务器,可能会遇到很多种非正常***况:比如网页HTML编码不规范、 被抓取服务器突然死机,甚至爬虫陷阱等。爬虫对各种异常***况能否正确处理非常重要,否则可能会不定期停止工作,这是无法忍受的。
从另外一个角度来讲,假设爬虫程序在抓取过程中死掉,或者爬虫所在的服务器宕机,健壮的爬虫应能做到:再次启动爬虫时,能够恢复之前抓取的内容和数据结构,而不是每次都需要把所有工作完全从头做起,这也是爬虫健壮***的一种体现。
4.友好***
爬虫的友好***包含两方面的含义:一是保护网站的部分私密***;另一是减少被抓取网站的网络负载。爬虫抓取的对象是各类型的网站,对于网站所有者来说,有些内容并不希望被所有人搜到,所以需要设定协议,来告知爬虫哪些内容是不允许抓取的。目前有两种主流的方法可达到此目的:爬虫禁抓协议和网页禁抓标记。
爬虫禁抓协议指的是由网站所有者生成一个指定的文件robot.txt,并放在网站服务器的根目录下,这个文件指明了网站中哪些目录下的网页是不允许爬虫抓取的。具有友好***的爬虫在抓取该网站的网页前,首先要读取robot.txt文件,对于禁止抓取的网页不进行下载。
网页禁抓标记一般在网页的HTML代码里加入meta name=”robots”标记,content字段指出允许或者不允许爬虫的哪些行为。可以分为两种***形:一种是告知爬虫不要索引该网页内容,以noindex作为标记;另外一种***形是告知爬虫不要抓取网页所包含的链接,以nofollow作为标记。通过这种方式,可以达到对网页内容的一种隐私保护。
遵循以上协议的爬虫可以被认为是友好的,这是从保护私密***的角度来考虑的;另外一种友好***则是,希望爬虫对某网站的访问造成的网路负载较低。
爬虫一般会根据网页的链接连续获取某网站的网页,如果爬虫访问网站频率过高,会给网站服务器造成很大的访问压力,有时候甚至会影响网站的正常访问,造成类似DOS攻击的效果。
为了减少网站的网络负载,友好***的爬虫应该在抓取策略部署时考虑每个被抓取网站的负载,在尽可能不影响爬虫***能的***况下,减少对单一站点短期内的高频访问。