专业解码 | 爬虫的基本原理:爬虫概述及爬取过程
优采云 发布时间: 2022-04-30 01:09专业解码 | 爬虫的基本原理:爬虫概述及爬取过程
最新
动态
实时
资讯
部门
通知
专业
速递
导语✦
爱学习的小伙伴们,在学习专业知识的你们,是否有过困惑与不解,不要着急,本栏目致力于为同学们指路迷津!
《专业速递》——带你了解大数据的魅力!
一、什么是爬虫
爬虫就是获取网页并提取和保存信息的自动化程序。
1)我们可以把互联网比作一张大网,而爬虫(网络爬虫)便是在网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了。
2)虽然不使用爬虫我们通过手工方式也可以提取网页中的信息,但是当量特别大或者想快速获取大量数据的话,肯定还是要借助程序的。爬虫就是代替我们来完成这份工作的自动化程序,它可以在抓取过程中进行各种异常、错误重试等操作,确保爬取持续高效地运行。
二、爬虫爬取过程
简单来说,爬虫就是获取网页并提取和保存信息的自动化程序,其主要有如下三个步骤:
1.获取网页:爬虫首先要做的工作就是获取网页,这里就是获取网页的源代码。源代码里包含了网页的部分有用信息。爬虫首先向网站的服务器发送一个请求,返回的响应体便是网页源代码。Python中提供了许多库(如urllib、requests)来帮助我们实现这个操作,我们可以用这些库来帮助我们实现HTTP请求操作,请求和响应都可以用类库提供的数据结构来表示,得到响应之后只需要解析数据结构中的Body部分即可,即得到网页的源代码。
2.提取信息:获取网页源代码后,接下来就是分析网页源代码,从中提取我们想要的数据。首先,最通用的方法便是采用正则表达式提取。另外,由于网页的结构有一定的规则,所以还有一些根据网页节点属性、CSS选择器或XPath来提取网页信息的库,如Beautiful Soup、pyquery、lxml等。提取信息是爬虫非常重要的部分,它可以使杂乱的数据变得条理清晰,以便我们后续处理和分析数据。
3.保存数据:提取信息后,我们一般会将提取到的数据保存到某处以便后续使用。这里保存形式有多种多样,如可以简单保存为TXT文本或JSON文本,也可以保存到数据库,如MySQL和MongoDB等,也可以保存至远程服务器,如借助SFTP进行操作等。
今日的爬虫介绍就先告一段落啦,最后感谢大家的阅读,希望同学们在课后能够自主学习,扩展有关爬虫方面的相关知识。