网页视频抓取浏览器( 用Jupyter-Notebook并结合框架(Selenium)模拟浏览器微博图片保存本地)

优采云 发布时间: 2022-02-02 19:09

  网页视频抓取浏览器(

用Jupyter-Notebook并结合框架(Selenium)模拟浏览器微博图片保存本地)

  

  正文 | 潮汐

  来源:Python技术《ID:pythonall》

  

  今天我们使用Jupyter-Notebook结合框架(Selenium)来模拟浏览器抓取微博图片并将图片保存到本地。

  Selenium是使用计算机模拟人类操作的浏览器网页,可以实现自动化测试,模拟浏览器数据抓取等。

  环境部署安装 Jupyter notebook

  Jupyter notebook的详细知识在之前的文章中有​​详细介绍。详细请参考文章文章了解Jupyter notebook

  这里只需要在命令行中输入:jupyter notebook即可启动并跳转到浏览器编辑界面。

  

  浏览器页面:

  

  安装硒

  安装 Selenium 非常简单,您只需要使用命令“pip install Selenium”。安装成功提示如下:

  

  下载浏览器驱动

  下载驱动地址如下:

  火狐浏览器驱动

  Chrome浏览器驱动:chromedriver

  IE浏览器驱动:IEDriverServer

  边缘浏览器驱动程序:Microsoft WebDriver

  需要将浏览器驱动放入系统路径,或者直接告诉selenuim驱动路径。

  环境搭建好之后,就可以直接开始爬取数据了。

  抓取微博数据

  首先导入包,模拟浏览器访问微博首页。详细代码如下:

  

from selenium import webdriver

driver = webdriver.Chrome()

driver.get('https://weibo.com/')

  此时,浏览器会打开一个新页面,如下图所示:

  

  接下来开始分析页面数据:在微博页面搜索奥运关键词后会出现一个新页面,然后复制网址,抓取奥运相关图片并保存到本地。搜索界面如下:

  

  输入网址获取页面内容:

  driver.get('https://s.weibo.com/weibo/%25E5%25A5%25A5%25E8%25BF%2590%25E4%25BC%259A?topnav=1&wvr=6&b=1')

contents = driver.find_elements_by_xpath(r'//p[@class="txt"]')

print(len(contents))

  输出如下:

  

  查看页面详情:

  

for i in range(0,3):

print("==============================")

print(contents[i].get_attribute('innerHTML'))

  

  获取图片信息:

  

contents = driver.find_elements_by_xpath(r'//img[@action-type="fl_pics"]')

print(len(contents))

for i in range(0,20):

print("==============================")

print(contents[i].get_attribute('src'))

  

  下载图片到本地:

  

import os

import urllib.request

for i in range(0,20):

print("==============================")

image_url=contents[i].get_attribute('src')

file_name="downloads//p"+str(i)+".jpg"

print(image_url,file_name)

urllib.request.urlretrieve(image_url, filename=file_name)

  

  至此,微博页面上关于奥运会的相关图片已经保存在本地。图片保存细节如下:

  

  总结代码如下

  

from selenium import webdriver

import urllib.request

driver = webdriver.Chrome()

driver.get('https://weibo.com/')

driver.get('https://s.weibo.com/weibo/%25E5%25A5%25A5%25E8%25BF%2590%25E4%25BC%259A?topnav=1&wvr=6&b=1')

contents = driver.find_elements_by_xpath(r'//p[@class="txt"]')

for i in range(0,3):

print("==============================")

print(contents[i].get_attribute('innerHTML'))

contents = driver.find_elements_by_xpath(r'//img[@action-type="fl_pics"]')

print(len(contents))

for i in range(0,20):

print("==============================")

print(contents[i].get_attribute('src'))

for i in range(0,20):

print("==============================")

image_url=contents[i].get_attribute('src')

file_name="downloads//p"+str(i)+".jpg"

print(image_url,file_name)

urllib.request.urlretrieve(image_url, filename=file_name)

  以上总结代码供没有安装Jupyter Notebook的朋友使用,希望对大家有所帮助。

  总结

  今天的文章主要讲解使用Jupyter Notebook工具和Selenium框架抓取微博数据,希望对大家有所帮助。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线