百科狗-知识改变命运!
--

合法爬虫?用Python给你整明白!

梵高1年前 (2023-11-21)阅读数 18#技术干货
文章标签爬虫

没有绝对的反爬虫措施,只能提高爬虫爬取的成本。

爬虫措施:

·不设防的网站,直接爬取,不做任何伪装

·基础防备的网站,爬取过程中增加time.sleep(n)进行休眠一下,降级爬取频次,防止被限制。再可以每次爬取切换header头信息,伪装成多个终端发起的请求

·需要登录的情况下,需要多个用户账户,爬取过程中切换cookie信息,模拟不同用户在请求。

·使用IP代理池,切换IP,越过高级限制。

·python爬虫相关的有几个实现越过限制的包:fake_useragentproxy_list等,伪装的越像真实用户越爬取成功率高。

反爬虫措施:

·Nginx层面进行频次限制,可以参考Nginxhttp资源请求限制,至于限制的key为浏览器头/IP/登录用户,可以根据需求进行设置。

·代码层面限制需要登录访问,一天仅可以访问一定数量的页面,未登录状态仅可以查看可数的几个页面,例如房源信息网站,一天查看60+的房源详情页面已经很多了,更多可以就有恶意了。这样的限制对于爬虫方来说,需要筹备很多账号进行爬取。当然在彻底的限制之外,可以限制访问超过数量弹出验证码,验证之后才可以继续访问,这样至少不会让少部分真实用户无法访问。

合法爬虫?用Python给你整明白!

·提前获取IP代理池的IP列表,直接防火墙层面的拉黑,能高端避免一些问题,免费IP代理池记得有网站,需要拉黑在自己获取。

·将常见的爬虫头信息全部Nginx或者代码层面拉黑,据说一些大网站把python的几个常见爬虫头信息全部拉黑了,提升基础爬虫的代码成本。

高端反爬虫是每隔几小时切换页面代码或者接口数据结构,记得淘宝是这样做的,对于爬虫方来说,可能刚刚写好爬这种类型的代码,然后整体页面代码和数据结构用了新一套,很高阶的反制措施了。

·数据扰乱:每一页有一些加解密规则,或者每页有不同的扰乱数据,你抓取到的极有可能是包含一些假数据,或者加密数据,也算是增加了爬虫成本。例如网页中也可以增加一些关键性的样式或者名称一致的隐藏域,偶数页不出现这些隐藏域,让爬虫不好找的关键元素。

以上是自己想到的一些措施,谨记现在乱爬是违法的,别爬取一时爽,三年起步了。

以上内容为大家介绍了合法爬虫?用Python给你整明白!希望对大家有所帮助,如果想要了解更多Python相关知识,请关注IT培训机构:开发教育。http://www.baikegou.com/

鹏仔微信 15129739599 鹏仔QQ344225443 鹏仔前端 pjxi.com 共享博客 sharedbk.com

免责声明:我们致力于保护作者版权,注重分享,当前被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!邮箱:344225443@qq.com)

图片声明:本站部分配图来自网络。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,本着为中国教育事业出一份力,发布内容不收取任何费用也不接任何广告!)