Day016 爬虫基础--爬虫简介
1、通讯协议
1.1 端口
通常数据通讯可以分为几步:
- (1) 找到对方的IP(类似于打电话先查找联系人)
- (2) 数据要发送到对方指定的应用程序(比如微信、QQ、钉钉等)上。为了标识这些应用程序,给这些网络应用程序都用数字进行了标识,每一个应用的标识都是独立的,这些用于标识的数字称为端口。为了区别诸如网络接口等物理端口,一般称这些数字端口为‘逻辑端口’。
- (3) 定义通讯规则。这个通讯规则一般称之为协议。
1.2 通讯协议
- 国际组织定义了通用的通信协议 TCP/IP协议,既可用于局域网,也可用于广域网
- 所谓协议,就是指计算机通信网络中两台计算机之间进行通信所必须共同遵守的规定或规则
- HTTP又叫超文本传输协议(一种基于TCP/IP的通信协议),HTTP的端口是 80
2、网络模型
数据的传输,就是从发送方电脑的应用层开始,经过层层封包到达物理层,通过网线传输到接收方电脑的物理层,再经过层层解包,最后到达应用层。
2.1 HTTPS是什么?
- https=http+ssl,顾名思义,https是在http的基础上加上了SSL保护壳,信息的加密过程就是在SSL中完成的
- https,是以安全为目标的HTTP通道,简单讲是HTTP的安全版。即HTTP下加入SSL层,HTTPS的安全基础是SSL
2.2 SSL如何理解?
- SSL也是一个协议,主要用于web的安全传输协议
2.3 Http请求与响应
HTTP通信由两部分组成: 客户端请求消息 与 服务器响应消息
- 当用户在浏览器的地址栏中输入一个URL并按回车键之后,浏览器会向HTTP服务器发送HTTP请求。HTTP请求主要分为“Get”和“Post”两种方法
- 当我们在浏览器输入URL http://www.baidu.com 的时候,浏览器发送一个Request请求去获取 http://www.baidu.com 的html文件,服务器把Response文件对象发送回给浏览器
- 浏览器分析Response中的 HTML,发现其中引用了很多其他文件,比如Images文件,CSS文件,JS文件。 浏览器会自动再次发送Request去获取图片,CSS文件,或者JS文件
- 当所有的文件都下载成功后,网页会根据HTML语法结构,完整的显示出来了
2.4 客户端的Http请求
URL只是标识资源的位置,而HTTP用来提交和获取资源。客户端发送一个HTTP请求到服务器的请求消息,其格式包括:
请求行、请求头部、空行、请求数据 四个部分组成,下图给出了请求报文的一般格式。
一个典型的HTTP请求示例
1 GET / HTTP/1.1
2 Host: www.baidu.com
3 Connection: keep-alive
4 Cache-Control: max-age=0
5 Upgrade-Insecure-Requests: 1
6 User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKi
t/537.36 (KHTML, like Gecko) Chrome/77.0.3865.75 Safari/537.36
7 Sec-Fetch-Mode: navigate
8 Sec-Fetch-User: ?1
9 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,ima
ge/webp,image/apng,/;q=0.8,application/signed-exchange;v=b3
10 Sec-Fetch-Site: same-origin
11 Referer: https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&
tn=baidu&wd=Python%20%20%E6%89%8B%E5%8A%A8%E5%9B%9E%E6%94%B6%E5%9
E%83%E5%9C%BE&oq=Python%2520%25E6%2594%25B6%25E5%2588%25B0%25E5%2
59B%259E%25E6%2594%25B6%25E5%259E%2583%25E5%259C%25BE&rsv_pq=f5ba
abda0010c033&rsv_t=1323wLC5312ORKIcfWo4JroXu16WSW5HqZ183yRWRnjWHa
eeseiUUPIDun4&rqlang=cn&rsv_enter=1&rsv_dl=tb&inputT=2315&rsv_sug
3=48&rsv_sug2=0&rsv_sug4=2736
12 Accept-Encoding: gzip, deflate, br
13 Accept-Language: zh-CN,zh;q=0.9
14 Cookie: BIDUPSID=4049831E3DB8DE890DFFCA6103FF02C1;
请求方法
根据HTTP标准,HTTP请求可以使⽤多种请求方法。
HTTP 0.9:只有基本的文本 GET 功能。
HTTP 1.0:完善的请求/响应模型,并将协议补充完整,定义了三种请求方法:GET, POST 和 HEAD方法。
HTTP 1.1:在 1.0 基础上进行更新,新增了五种请求方法:OPTIONS, PUT,DELETE, TRACE 和 CONNECT 方法。
HTTP 2.0(未普及):请求/响应首部的定义基本没有改变,只是所有首部键必须全部小写,而且请求行要独立为 :method、:scheme、:host、:path这些键值对。
序号 | 方法 | 描述 |
---|---|---|
1 | GET | 请求指定的页面信息,并返回实体主体。 |
2 | HEAD | 类似于get请求,只不过返回的响应中没有具体的内容,用于获取报头 |
3 | POST | 向指定资源提交数据进行处理请求(例如提交表单或者上传文件),数据被包含在请求体中。POST请求可能会导致新的资源的建立和/或已有资源的修改。 |
4 | PUT | 从客户端向服务器传送的数据取代指定的文档的内容。 |
5 | DELETE | 请求服务器删除指定的页面。 |
6 | CONNECT | HTTP/1.1协议中预留给能够将连接改为管道方式的代理服务器。 |
7 | OPTIONS | 允许客户端查看服务器的性能。 |
8 | TRACE | 回显服务器收到的请求,主要用于测试或诊断。 |
3、爬虫介绍
3.1 什么是爬虫
简言之,就是代替人去模拟浏览器进行网页操作
3.2 为什么需要爬虫
- 为其他的程序提供数据源,如百度、Google、360搜索
- 数据分析,如app某音
- AI人工智能,如智能家居、智能语音、智能导航、人脸识别、无人机、无人驾驶…
3.3 企业获取数据的方式
- 公司自有的数据
- 第三方平台购买的数据(免费、付费),比如PC端、移动端、大数据互联网、AI人工智能;数据堂
- 爬虫工程师获取的数据
3.4 python做爬虫的优势
- PHP : 对多线程、异步支持不太好
- Java : 代码量大,代码笨重
- C/C++ : 代码量大,难以编写
- Python : 支持模块多、代码简洁、开发效率高 (scrapy框架)
3.5 爬虫的分类
- 通用网络爬虫 例如 baidu、google、yahoo
- 聚焦网络爬虫: 根据既定的目标有选择的抓取某一特定主题内容
- 增量式网络爬虫: 指对下载网页采取增量式的更新和只爬行新产生的或者已经发生变化的网页爬虫
- 深层网络爬虫: 指那些大部分内容不能通过静态链接获取的、隐藏在搜索表单后的,只有用户提交一些关键词才能获得的web页面,例如用户登录注册才能访问的页面