爬虫常用库的安装(二)

优采云 发布时间: 2020-05-09 08:02

  相信经过昨晚的教程,小伙伴们笔记本里应当早已安装好了我们所须要的python,并且早已配置了python和pip的环境变量,那么明天,我们接着讲一些爬虫常用库的安装。

  那么首先,我们先安装一下python自带的模块,request模块,这里给对编程完全陌生的菜鸟来简单介绍一下,request可以取得客户端发送给服务器的恳求信息。

  言归正传,我们如今来安装request模块,同样的,我们先打开命令执行程序cmd。

  然后输入pip install requests,我们可以看见系统会手动完成这个安装过程。

  随后我们来测量一下,第一步,运行python,如果看了今天文章的小伙伴,应该不会再出现其他问题了爬虫软件安装,这里假如有朋友未能正常运行python的话,建议回头看一下今天的《爬虫常用库的安装(一)》。

  随后,我们来测量一下python自带的urllib以及re库是否可以正常运行。

  那哪些是urllib呢?urllib是可以处理url的组件集合,url就是网上每位文件特有的惟一的强调文件位置以及浏览器如何处理的信息。

  在步入python后,输入importurllib,然后import urllib.request;如果没有任何报错的话,说明urllib的安装正常。然后,我们使用urlopen命令来打开一下网址,例如百度,如果运行后显示如右图信息,那么说明url的使用也是没有问题的。

  好,我们检查完urllib以后,再来看一下re模块是否正常,re就是python语言中拿来实现正则匹配,通俗的说就是检索、替换这些符合规则的文本。那么我们再度使用import re的命令,如果没有报错,则说明re模块的安装也是没有问题的,因为这两个模块一般问题不大爬虫软件安装,这里就不做截图说明了。

  那么虽然其他的模块下载也都是类似的情况,为防止赘言,这里就不花大篇幅讲解了,我们可以通过pip install requests selenium beautifulsoup4 pyquery pymysql pymongoredis flask django jupyter的命令来完成统一下载。为了不给你们添加很大负担,就不一一赘言每位模块的功能了,这些就会在日后的文章中为你们述说,这里还请对python感兴趣的同学们加一下启蒙君的公众号——人工智能python启蒙,今后会为你们带来更多有关于人工智能、大数据剖析以及区块链的学习信息~

  下载完成后,python的各大模块应当都可以正常使用了,大家也晓得爬虫的主要功能就是获取数据,当然须要一些储存的数据处理的工具,那么今天启蒙君会给你们带来诸如mongodb、mysql等常用数据库的下载、安装教程。祝你们假期愉快!

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线