如何对网页进行爬取?(一)的使用

优采云 发布时间: 2021-07-20 19:14

  如何对网页进行爬取?(一)的使用

  我们之前抓取的网页大多是 HTML 静态生成的内容。您可以直接从 HTML 源代码中找到您看到的数据和内容。然而,并不是所有的网页都是这样。

  部分网站内容是前端JS动态生成的。由于网页呈现的内容是由JS生成的,我们可以在浏览器上看到,但在HTML源代码中是找不到的。例如,今天的头条新闻:

  HTML 源代码

  网页上的新闻在HTML源代码中找不到,都是JS动态生成和加载的。

  在这种情况下,我们应该如何抓取网页?有两种方式:

  1、从网页响应中查找JS脚本返回的JSON数据; 2、使用Selenium模拟访问网页

  这里只介绍第一种方法。关于Selenium的使用有专门的文章。

  一、从网页响应中查找JS脚本返回的JSON数据

  即使网页内容是由JS动态生成和加载的,JS也需要调用一个接口,根据接口返回的JSON数据进行加载和渲染。

  这样我们就可以找到JS调用的数据接口,从数据接口中找到网页最后呈现的数据。

  以今日头条为例说明:

  1、找到JS请求的数据接口

  F12 打开网页调试工具

  网页调试工具

  选择“网络”标签后,我们发现有很多回复。让我们过滤它们,只查看 XHR 响应。

  (XHR 是 Ajax 中的一个概念,即 XMLHTTPrequest)

  然后我们发现很多链接都没有了,随便点一个看看:

  我们选择city,预览中有一串json数据:

  原来都是城市列表,应该用来加载地区新闻。

  现在你应该明白如何找到JS请求的接口了吧?但是刚才没有找到想要的消息,所以再找一下:

  有个焦点,我们点一下看看:

  我们打开一个界面链接看看:

  返回一串乱码,但从响应中查看的是正常编码的数据:

  有了对应的数据接口,我们就可以模仿前面的方法向数据接口请求并得到响应

  2、请求并解析数据接口数据

  先上传完整代码:

  

import requests

import json

url = 'http://www.toutiao.com/api/pc/focus/'

wbdata = requests.get(url).text

data = json.loads(wbdata)

news = data['data']['pc_feed_focus']

# print news

for n in news:

title = n['title']

img_url = n['image_url']

url = n['media_url']

print(json.dumps(title).decode("unicode-escape"))

print img_url

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线