合法爬虫?用Python给你整明白!
没有绝对的反爬虫措施,只能提高爬虫爬取的成本。
爬虫措施:
·不设防的网站,直接爬取,不做任何伪装
·基础防备的网站,爬取过程中增加time.sleep(n)进行休眠一下,降级爬取频次,防止被限制。再可以每次爬取切换header头信息,伪装成多个终端发起的请求
·需要登录的情况下,需要多个用户账户,爬取过程中切换cookie信息,模拟不同用户在请求。
·使用IP代理池,切换IP,越过高级限制。
·python爬虫相关的有几个实现越过限制的包:fake_useragentproxy_list等,伪装的越像真实用户越爬取成功率高。
反爬虫措施:
·Nginx层面进行频次限制,可以参考Nginxhttp资源请求限制,至于限制的key为浏览器头/IP/登录用户,可以根据需求进行设置。
·代码层面限制需要登录访问,一天仅可以访问一定数量的页面,未登录状态仅可以查看可数的几个页面,例如房源信息网站,一天查看60+的房源详情页面已经很多了,更多可以就有恶意了。这样的限制对于爬虫方来说,需要筹备很多账号进行爬取。当然在彻底的限制之外,可以限制访问超过数量弹出验证码,验证之后才可以继续访问,这样至少不会让少部分真实用户无法访问。
·提前获取IP代理池的IP列表,直接防火墙层面的拉黑,能高端避免一些问题,免费IP代理池记得有网站,需要拉黑在自己获取。
·将常见的爬虫头信息全部Nginx或者代码层面拉黑,据说一些大网站把python的几个常见爬虫头信息全部拉黑了,提升基础爬虫的代码成本。
高端反爬虫是每隔几小时切换页面代码或者接口数据结构,记得淘宝是这样做的,对于爬虫方来说,可能刚刚写好爬这种类型的代码,然后整体页面代码和数据结构用了新一套,很高阶的反制措施了。
·数据扰乱:每一页有一些加解密规则,或者每页有不同的扰乱数据,你抓取到的极有可能是包含一些假数据,或者加密数据,也算是增加了爬虫成本。例如网页中也可以增加一些关键性的样式或者名称一致的隐藏域,偶数页不出现这些隐藏域,让爬虫不好找的关键元素。
以上是自己想到的一些措施,谨记现在乱爬是违法的,别爬取一时爽,三年起步了。
以上内容为大家介绍了合法爬虫?用Python给你整明白!希望对大家有所帮助,如果想要了解更多Python相关知识,请关注IT培训机构:开发教育。http://www.baikegou.com/
鹏仔微信 15129739599 鹏仔QQ344225443 鹏仔前端 pjxi.com 共享博客 sharedbk.com
图片声明:本站部分配图来自网络。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!