seo流量工具(Macbook+系统自动Automator+Python代码实现按网址查流量)
优采云 发布时间: 2021-10-26 23:07seo流量工具(Macbook+系统自动Automator+Python代码实现按网址查流量)
可能因为职业原因,每次看到一个网站,都对它的流量很好奇,不知道大家是不是和我一样。
这时候一般的做法是打开爱站网络,输入网址查询。
对其他人可能不是很大的需求,但我只是想简化这个过程。
之前想到了一个解决办法:做个浏览器插件。当您想查看网站的当前流量数据时,点击弹出窗口即可显示。
这个方法理论上是可行的,但是研究Chrome插件开发需要时间。
/extension_dev/overview.html
后来我选择了一个解决方法,可以达到类似的效果,而且不用浏览器也能运行。
工具实现思路
想要的效果
复制任意一个URL(不一定是网站主页),然后按快捷键自动提取域名(最多到子域级别)提交到爱站网页查询,然后返回结果到弹出窗口。
经过思考和研究,得出的结果如下:
如何实现?
开发环境:Macbook+自动系统Automator+Python(或PHP)
通过 URL 检查流量的 Python 代码
<p># coding = utf-8
__author = 'joe'
# 导入 requests库,一般简单采集都推荐使用这个库
import requests
# 导入BeautifulSoup做DOM解析,避免有些网站代码不规范让lxml不好用
from bs4 import BeautifulSoup as bs
# 导入正则库
import re
# 导入随机数库
import random
# 这个库可以从URL中解析域名
from tld import get_tld
# 判断是否为URL的库
import validators
# 导入系统库
import sys
import io
# 解决编码问题
sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='utf-8')
# 定义一个获取HTML代码的方法
def get_html(url):
# 定义http的请求Header
headers = {}
# random.randint(1,99) 为了生成1到99之间的随机数,让UserAgent变的不同。
headers['User-Agent'] = "Mozilla/5.0 (Windows NT 5.1; rv:31.0) Gecko/20100101 Firefox/31.0" + str(random.randint(1,99))
# Referer地址使用待查询的网址
headers['Referer'] = url
# 如果是一个URL,则执行
if validators.url(url):
# 通过URL获取域名
domain = get_tld(url)
# 构造爱站网查询地址
aizhan_url = "http://baidurank.aizhan.com/baidu/" + domain + "/"
# 发送请求,获取页面HTML
html = requests.get(aizhan_url, headers = headers, timeout=10).text
# 输出网址域名
print("网站:" + domain)
# 分析页面元素,提取需要字段
get_data(html)
# 更多内容查看爱站
print("更多查看:" + aizhan_url)
else:
# 提示错误URL
print("wrong url")
# 定义提取页面元素的方法
def get_data(html):
# 使用lxml解析器,这样效率更高
soup = bs(html, "lxml")
# 提取页面中的总流量数据
all_pv = soup.select("span.blue")[0].get_text()
# 提取页面中的总PC流量数据
pc_pv = soup.select(".ip strong")[0].get_text()
# 提取页面中的总移动流量数据
mobile_pv = soup.select(".ip strong")[1].get_text()
# 提取PC权重
pc_weight = soup.select(".fl .br strong")[0].get_text()
# 提取移动权重
mobile_weight = soup.select(".fl .br strong")[1].get_text()
# 提取PC关键词量,数值越大,说明网站越强
pc_words = soup.select("a#cc1 strong")[0].get_text()
# 提取M关键词量,越大越好
mobile_words = soup.select("a#cc2 strong")[0].get_text()
# 下面是输出
print("总流量:" + all_pv)
print("PC总流量:" + pc_pv)
print("M总流量:" + mobile_pv)
print("PC权重:" + pc_weight)
print("M权重:" + mobile_weight)
print("PC关键词量:" + pc_words)
print("M关键词量:" + mobile_words)
print("流量大的目录:")
# 循环读取流量大的目录URL,显示5条。
for index,item in enumerate(soup.select("ul.urlpath li a")):
if(index