使用Node.js爬取网页资源,开箱即用的配置将爬取到的网页内容

优采云 发布时间: 2021-08-15 07:05

  

使用Node.js爬取网页资源,开箱即用的配置将爬取到的网页内容

  本文适合无论是否有爬虫以及Node.js基础的朋友观看~

  要求:

  使用 Node.js 抓取网络资源,开箱即用的配置

  以PDF格式输出抓取的网页内容

  如果你是技术员,那可以看我下一个文章,否则请直接移步我的github仓库,看文档就行了。仓库地址:附文档和源码,别忘了我给了star这个需求用到的技术:Node.js and puppeteer

  puppeteer 官网地址:puppeteer 地址

  Node.js 官网地址:链接说明

  Puppeteer 是 Google 官方出品的 Node 库,通过 DevTools 协议控制 Headless Chrome。您可以通过Puppeteer提供的api直接控制Chrome模拟大部分用户操作进行UI测试或者作为爬虫访问页面采集数据。

  环境和安装

  Puppeteer本身依赖6.4以上的Node,但是对于异步和超级好用的async/await,推荐使用7.6以上的Node。另外,headless Chrome 本身对服务器依赖的库版本要求也比较高。 centos 服务器依赖于稳定性。很难在 v6 中使用无头 Chrome。增加依赖版本时可能会出现各种服务器问题(包括但不限于无法使用ssh)。最好使用高版本服务器。 (建议使用最新版本的Node.js)

  做个小测试,爬取京东资源

  const puppeteer = require('puppeteer'); // 引入依赖

(async () => { //使用async函数完美异步

const browser = await puppeteer.launch(); //打开新的浏览器

const page = await browser.newPage(); // 打开新的网页

await page.goto('https://www.jd.com/'); //前往里面 'url' 的网页

const result = await page.evaluate(() => { //这个result数组包含所有的图片src地址

let arr = []; //这个箭头函数内部写处理的逻辑

const imgs = document.querySelectorAll('img');

imgs.forEach(function (item) {

arr.push(item.src)

})

return arr

});

// '此时的result就是得到的爬虫数据,可以通过'fs'模块保存'

})()

复制过去 使用命令行命令 ` node 文件名 ` 就可以运行获取爬虫数据了

这个 puppeteer 的包 ,其实是替我们开启了另一个浏览器,重新去开启网页,获取它们的数据。

  上面只爬取了京东首页的图片内容。假设我的需求进一步扩展,我需要爬取京东主页

  跳转网页中所有标签对应的所有标题的文字内容

  最终被放入一个数组中。

  我们的异步函数分为五步,只有 puppeteer.launch() ,

  browser.newPage()、browser.close() 是固定的书写方式。

  page.goto 指定我们去哪个网页抓取数据,我们可以更改内部url地址,或者多次

  调用这个方法。

  page.evaluate这个函数,内部是处理我们进入我们要爬取的网页的数据逻辑

  page.goto 和 page.evaluate 两个方法可以在 async 中多次调用。

  也就是说我们可以先进入京东网页,处理完逻辑,再调用page.goto函数,

  注意,上面这一切逻辑,都是puppeteer这个包帮我们在看不见的地方开启了另外一个浏览器,然后处理逻辑,所以最终要调用<b>browser.close()方法关闭那个浏览器。

  此时,我们优化了上一篇文章中的代码,抓取了相应的资源。

   const puppeteer = require('puppeteer');

(async () => {

const browser = await puppeteer.launch();

const page = await browser.newPage();

await page.goto('https://www.jd.com/');

const hrefArr = await page.evaluate(() => {

let arr = [];

const aNodes = document.querySelectorAll('.cate_menu_lk');

aNodes.forEach(function (item) {

arr.push(item.href)

})

return arr

});

let arr = [];

for (let i = 0; i < hrefArr.length; i++) {

const url = hrefArr[i];

console.log(url) //这里可以打印

await page.goto(url);

const result = await page.evaluate(() => { //这个方法内部console.log无效

return $('title').text(); //返回每个界面的title文字内容

});

arr.push(result) //每次循环给数组中添加对应的值

}

console.log(arr) //得到对应的数据 可以通过Node.js的 fs 模块保存到本地

await browser.close()

})()

  上面有天坑 page.evaluate函数内部的console.log不能打印,而且内部不能获取外部的变量,只能return返回,使用的选择器必须先去对应界面的控制台实验过能不能选择DOM再使用,比如京东无法使用querySelector。这里由于

京东的分界面都使用了jQuery,所以我们可以用jQuery,总之他们开发能用的选择器,我们都可以用,否则就不可以。

  接下来直接爬取Node.js官网首页,直接生成PDF。无论您是否了解 Node.js 和 puppeteer 爬虫,您都可以做到。请仔细阅读本文档并按顺序执行。一步

  本项目实现需求:给我们一个网页地址,爬取他的网页内容,然后输出成我们想要的PDF格式文档,请注意,是高质量的PDF文档

  第一步,安装Node.js,推荐,从Node.js中文官网下载对应的操作系统包

  第二步,下载安装Node.js后,启动windows命令行工具(windows下启动系统搜索功能,输入cmd,回车,就出来了)

  第三步检查是否自动配置了环境变量,在命令行工具中输入node -v,如果出现v10.***字段,说明Node.js已经安装成功

  第四步如果在第三步输入node -v后发现没有出现对应的字段,请重启电脑。

  第五步打开项目文件夹,打开命令行工具(windows系统下,直接在文件的url地址栏中输入cmd打开),输入npm i cnpm nodemon -g

  第六步,下载puppeteer爬虫包。完成第五步后,使用cnpm i puppeteer --save命令下载

  Step 7 完成Step 6的下载后,打开本项目的url.js,替换你需要爬取的网页地址(默认是)

  第八步在命令行输入nodemon index.js,抓取对应的内容并自动输出到当前文件夹下的index.pdf文件

  

<b>TIPS: 本项目设计思想就是一个网页一个PDF文件,所以每次爬取一个单独页面后,请把index.pdf拷贝出去,然后继续更换url地址,继续爬取,生成新的PDF文件,当然,您也可以通过循环编译等方式去一次性爬取多个网页生成多个PDF文件。<p>对应像京东首页这样的开启了图片懒加载的网页,爬取到的部分内容是loading状态的内容,对于有一些反爬虫机制的网页,爬虫也会出现问题,但是绝大多数网站都是可以的

</p>

  const puppeteer = require('puppeteer');

const url = require('./url');

(async () => {

const browser = await puppeteer.launch({ headless: true })

const page = await browser.newPage()

//选择要打开的网页

await page.goto(url, { waitUntil: 'networkidle0' })

//选择你要输出的那个PDF文件路径,把爬取到的内容输出到PDF中,必须是存在的PDF,可以是空内容,如果不是空的内容PDF,那么会覆盖内容

let pdfFilePath = './index.pdf';

//根据你的配置选项,我们这里选择A4纸的规格输出PDF,方便打印

await page.pdf({

path: pdfFilePath,

format: 'A4',

scale: 1,

printBackground: true,

landscape: false,

displayHeaderFooter: false

});

await browser.close()

})()

  文件解构设计

  数据在这个时代非常珍贵,按照网页的设计逻辑,选定特定的href的地址,可以先直接获取对应的资源,也可以通过再次使用 page.goto方法进入,再调用 page.evaluate() 处理逻辑,或者输出对应的PDF文件,当然也可以一口气输出多个PDF文件~这里就不做过多介绍了,毕竟<b> Node.js 是可以上天的,或许未来它真的什么都能做。这么优质简短的教程,请收藏

或者转发给您的朋友,谢谢。

  文章来源:segmentfault,作者:Peter谭金杰。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至:william.shi#ucloud.cn(邮箱中#请改为@)进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。

  

  后台-系统设置-扩展变量-移动广告位-内容正文底部

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线