爬虫学习(一)

HTTP基本原理

URI即统一资源标志符

URL即统一资源定位符

举例来说,https://github.com/favicon.ico,它是一个URL,也是一个URI。即有这样的一个图标资源,我们用URL/URI来唯一指定了它的访问方式,这其中包括了访问协议 HTTPS、访问路径(即根目录)和资源名称 favicon.ico。通过这样一个链接,我们便可以从互联网上找到这个资源,这就是 URL/URI。

 

URL是URI的子集,也就是说每个URL都是URI,但不是每个URI都是URL。那么,什么样的URI不是URL呢?URI还包括一个子类叫作URN,它的全称为Universal Resource Name,即统一资源名称。

 

URN只命名资源而不指定如何定位资源,比如urn:isbn:0451450523指定了一本书的ISBN,可以唯一标识这本书,但是没有指定到哪里定位这本书,这就是URN。URL、URN和URI 的关系可以用图表示。

 

爬虫学习(一)

但是在目前的互联网,URN 的使用非常少,几乎所有的 URI 都是 URL,所以一般的网页链接我们可以称之为 URL,也可以称之为 URI,我个人习惯称之为 URL。

 

超文本

 

接下来,我们再了解一个概念 —— 超文本,其英文名称叫作 Hypertext,我们在浏览器里看到的网页就是超文本解析而成的,其网页源代码是一系列 HTML 代码,里面包含了一系列标签,比如 img 显示图片,p 指定显示段落等。浏览器解析这些标签后,便形成了我们平常看到的网页,而网页的源代码 HTML 就可以称作超文本。例如,我们在 Chrome 浏览器里面打开任意一个页面,如淘宝首页,右击任一地方并选择 “检查” 项(或者直接按快捷键 F12),即可打开浏览器的开发者工具,这时在 Elements 选项卡即可看到当前网页的源代码,这些源代码都是超文本,如图所示。

爬虫学习(一)

HTTP 和 HTTPS

 

在淘宝的首页https://www.taobao.com/中,URL的开头会有http或https,这个就是访问资源需要的协议类型,有时我们还会看到ftp、sftp、smb开头的URL,那么这里的 ftp、sftp、smb 都是指的协议类型。在爬虫中,我们抓取的页面通常就是 http 或 https 协议的,我们在这里首先来了解一下这两个协议的含义。

HTTP的全称是HyperTextTransferProtocol,中文名叫作超文本传输协议,HTTP协议是用于从网络传输超文本数据到本地浏览器的传送协议,它能保证高效而准确地传送超文本文档。HTTP由万维网协会(WorldWideWebConsortium)和Internet工作小组IETF(InternetEngineeringTaskForce)共同合作制定的规范,目前广泛使用的是 HTTP 1.1 版本。

HTTPS的全称是HyperTextTransferProtocoloverSecureSocketLayer,是以安全为目标的HTTP通道,简单讲是HTTP的安全版,即HTTP 下加入 SSL 层,简称为 HTTPS。

HTTPS 的安全基础是 SSL,因此通过它传输的内容都是经过 SSL 加密的,它的主要作用可以分为两种:

●建立一个信息安全通道,来保证数据传输的安全。

●确认网站的真实性,凡是使用了 HTTPS 的网站,都可以通过点击浏览器地址栏的锁头标志来查看网站认证之后的真实信息,也可以通过 CA 机构颁发的安全签章来查询。

 

 

HTTP 请求过程

在浏览器中输入一个 URL,回车之后便可以在浏览器中观察到页面内容。实际上,这个过程是浏览器向网站所在的服务器发送了一个请求,网站服务器接收到这个请求后进行处理和解析,然后返回对应的响应,接着传回给浏览器。响应里包含了页面的源代码等内容,浏览器再对其进行解析,便将网页呈现了出来,传输模型如图所示。

爬虫学习(一)

此处客户端即代表我们自己的 PC 或手机浏览器,服务器即要访问的网站所在的服务器。

 

请求

请求,由客户端向服务端发出,可以分为4部分内容:请求方法(RequestMethod)、请求的网址(RequestURL)、请求头(RequestHeaders)、请求体(RequestBody)。

请求方法

常见的请求方法有两种:GET 和 POST。

在浏览器中直接输入URL并回车,这便发起了一个GET请求,请求的参数会直接包含到URL里。例如,在百度中搜索Python,这就是一个GET请求,链接为https://www.badu.com/s?wd=Python,其中 URL 中包含了请求的参数信息,这里参数 wd 表示要搜寻的关键字。POST 请求大多在表单提交时发起。比如,对于一个登录表单,输入用户名和密码后,点击 “登录” 按钮,这通常会发起一个 POST 请求,其数据通常以表单的形式传输,而不会体现在 URL 中。

 

请求头

请求头,用来说明服务器要使用的附加信息,比较重要的信息有 Cookie、Referer、User-Agent 等。下面简要说明一些常用的头信息。

Accept:请求报头域,用于指定客户端可接受哪些类型的信息。

Accept-Language:指定客户端可接受的语言类型。

Accept-Encoding:指定客户端可接受的内容编码。

Host:用于指定请求资源的主机 IP 和端口号,其内容为请求 URL 的原始服务器或网关的位置。从 HTTP 1.1 版本开始,请求必须包含此内容。

Cookie:也常用复数形式 Cookies,这是网站为了辨别用户进行会话跟踪而存储在用户本地的数据。它的主要功能是维持当前访问会话。

Referer:此内容用来标识这个请求是从哪个页面发过来的,服务器可以拿到这一信息并做相应的处理,如做来源统计、防盗链处理等。

User-Agent:简称 UA,它是一个特殊的字符串头,可以使服务器识别客户使用的操作系统及版本、浏览器及版本等信息。在做爬虫时加上此信息,可以伪装为浏览器;如果不加,很可能会被识别出为爬虫。

Content-Type:也叫互联网媒体类型(Internet Media Type)或者 MIME 类型,在 HTTP 协议消息头中,它用来表示具体请求中的媒体类型信息。

因此,请求头是请求的重要组成部分,在写爬虫时,大部分情况下都需要设定请求头。

 

请求体

请求体一般承载的内容是 POST 请求中的表单数据,而对于 GET 请求,请求体则为空。

表格中列出了 Content-Type 和 POST 提交数据方式的关系。

爬虫学习(一)

在爬虫中,如果要构造 POST 请求,需要使用正确的 Content-Type,并了解各种

请求库的各个参数设置时使用的是哪种 Content-Type,不然可能会导致 POST 提交后无法正常响应。

 

响应

响应,由服务端返回给客户端,可以分为三部分:响应状态码(Response Status Code)、

响应头(Response Headers)和响应体(Response Body)。

 

响应状态码

响应状态码表示服务器的响应状态,如 200 代表服务器正常响应,404 代表页面未找

到,500 代表服务器内部发生错误。在爬虫中,我们可以根据状态码来判断服务器响应

状态,如状态码为 200,则证明成功返回数据,再进行进一步的处理,否则直接忽略。下表列出了常见的错误代码及错误原因。

爬虫学习(一)

响应头包含了服务器对请求的应答信息,如 Content-Type、Server、Set-Cookie 等。

下面简要说明一些常用的头信息。响应头

Date:标识响应产生的时间。

Last-Modified:指定资源的最后修改时间。

Content-Encoding:指定响应内容的编码。

Server:包含服务器的信息,比如名称、版本号等。

Content-Type:文档类型,指定返回的数据类型是什么,如text/html代表返回HTML文档,application/x-javascript则代表返回JavaScript文件,image/jpeg 则代表返回图片。

Set-Cookie:设置 Cookies。响应头中的 Set-Cookie 告诉浏览器需要将此内容放在 Cookies 中,下次请求携带 Cookies 请求。

Expires:指定响应的过期时间,可以使代理服务器或浏览器将加载的内容更新到缓存中。如果再次访问时,就可以直接从缓存中加载,降低服务器负载,缩短加载时间。

 

响应体

最重要的当属响应体的内容了。响应的正文数据都在响应体中,比如请求网页时,它的

响应体就是网页的 HTML 代码;请求一张图片时,它的响应体就是图片的二进制数据。

我们做爬虫请求网页后,要解析的内容就是响应体,如图所示。

爬虫学习(一)

在浏览器开发者工具中点击 Preview,就可以看到网页的源代码,也就是响应体的内容,

它是解析的目标。

在做爬虫时,主要通过响应体得到网页的源代码、JSON 数据等,然后从中做相应

内容的提取。