注册
登录
提问时间:2018/4/23 11:29:42    楼主:未知网友   阅读量:452

不是爬虫工作者不努力,而是反爬虫策略太烦人,这是不少员工在面对老板的批评时,心里默默的说的一句话。反爬虫策略确实比较烦人,但更烦人的是隔几天就升级一次反爬虫策略。某爬虫工作者说:这反爬虫工程师啊,吃饱了没事干,过去啊三个月一次的升级,比较容易爬,现在呢,一个月三次的升级,费劲的爬,现在好了,有站大爷代理IP,高质量,一手私密,一口气爬到爽歪歪。

不过,有了高质量代理IP,也不是不需要注意反爬虫策略了,很多朋友误解了,以为有了高质量代理IP,就再也不用担心目标网站的反爬虫策略了,直到代理IP被大量封杀后才明白过来,那么,大部分网站的一些反爬虫机制有哪些呢?

一、HTTP请求头

每次向服务器发送HTTP请求时,都会传送一组属性和配置信息,那就是HTTP请求头。由于浏览器直接访问和爬虫代码发送的请求头不同,很有可能被反爬虫发现,导致封IP。

二、cookie设置

网站会通过cookie跟踪你的访问过程,如果发现有爬虫行为会立刻中断你的访问,比如特别快的填写表单,或者短时间内浏览大量页面。而正确地处理cookie,又可以避免很多采集问题,建议在采集网站过程中,检查一下这些网站生成的cookie,然后想想哪一个是爬虫需要处理的。

三、访问路径

一般爬虫程序访问的路径总是千篇一律,也很容易被反爬虫识别,尽量模拟用户访问,随机访问页面。

四、访问频率

大部分的封IP原因是因为访问频率过快,毕竟都想快速的完成爬虫任务,然而欲速则不达,封IP后效率反而下降。

基本的反爬虫策略就是这些,当然,有些更严格的反爬虫,不仅仅是这些,这就需要反爬虫工程师去慢慢的研究目标网站的反爬虫策略了,跟随着反爬虫策略的不断升级,爬虫策略也需要不断的升级,再加上高效优质的代理IP,爬虫工作才能高效的进行。