博客
关于我
[851]反反爬--如何巧过CloudFlare 5秒盾
阅读量:649 次
发布时间:2019-03-13

本文共 1311 字,大约阅读时间需要 4 分钟。

巧破 Cloudflare 5秒盾

相信下面这个界面大家都不会陌生。【图1-1】

图1-1

当我们第一次访问使用 CloudFlare 加速的网站时,网站就会出现让我们等待 5 秒种的提示,当我们需要的通过爬虫爬取这类网站的时候,应该如何爬取呢?

分析请求

首先我们需要分析在这个等待的时间里浏览器做了哪些操作。

通过抓包,我们可以看到在等待的过程中,浏览器做了下面的三次请求【图1-2】- 【图1-4】:

【图1-2】请求 1 写入 cookie 字段 __cfduid

图1-2

【图1-3】请求 2 带有疑似加密的请求参数请求并写入 cookie 字段 cf_clearance

图1-3

【图1-4】请求 3 带上前面写入的cookie 请求网站首页,返回首页内容。

图1-4

这整个过程需要的请求现在已经分析清楚了,接下来就是使用 Python 实现这个请求流程,不过是这样的话就配不上这个标题了。

先说说这个按照正常流程是怎么实现抓取绕过的:

  • 使用浏览器模拟技术请求目标网站,例如:Selenium、 PhantomJS等
  • 破解请求 2 的加密参数使用请求库模拟整个请求过程

这两个方法当然是可以抓取的,但是都不符合标题的字。

接下来给大家介绍一个专门为了绕过这个 CloudFlare 开发的 Python 库 cloudflare-scrape

用上它就可以无感爬取使用了 CloudFlare 的网站,使用这个库非常简单。

安装

使用pip install cfscrape安装cloudflare-scrape,同时确认本地是否安装node.js开发环境,如果没有,需要安装配置nodejs开发环境。

使用实例

处理 get 请求的 CloudFlare

import cfscrape# 实例化一个create_scraper对象scraper = cfscrape.create_scraper()# 请求报错,可以加上时延# scraper = cfscrape.create_scraper(delay = 10)# 获取网页源代码web_data = scraper.get("https://wallhere.com/").contentprint(web_data)

处理 post 请求的 CloudFlare

# import cfscrape# 实例化一个create_scraper对象scraper = cfscrape.create_scraper()# 获取真实网页源代码web_data = scraper.post("http://example.com").contentprint(web_data)

使用cloudflare-scrape后整个请求过程如丝般顺滑。

来源:https://mp.weixin.qq.com/s/sxeqOt-s3d8M8NrqKyjhzA

http://xianyucoder.cn/2019/09/16/%E5%8F%8D%E5%8F%8D%E7%88%AC-%E5%B7%A7%E7%A0%B4%20Cloudflare%205%E7%A7%92%E7%9B%BE/

转载地址:http://bmxaz.baihongyu.com/

你可能感兴趣的文章
node.js 怎么新建一个站点端口
查看>>
Node.js 文件系统的各种用法和常见场景
查看>>
Node.js 模块系统的原理、使用方式和一些常见的应用场景
查看>>
Node.js 的事件循环(Event Loop)详解
查看>>
node.js 简易聊天室
查看>>
Node.js 线程你理解的可能是错的
查看>>
Node.js 调用微信公众号 API 添加自定义菜单报错的解决方法
查看>>
node.js 配置首页打开页面
查看>>
node.js+react写的一个登录注册 demo测试
查看>>
Node.js中环境变量process.env详解
查看>>
Node.js中的EventEmitter模块:基本概念、使用方法和常见应用场景
查看>>
Node.js之async_hooks
查看>>
Node.js也分裂了-开源社区动态
查看>>
Node.js入门系列视频教程
查看>>
Node.js创建第一个应用
查看>>
Node.js初体验
查看>>
Node.js升级工具n
查看>>
Node.js卸载超详细步骤(附图文讲解)
查看>>
Node.js卸载超详细步骤(附图文讲解)
查看>>