官方数据:国际站-如何统计6个月内的TM询盘数据和对应国家占比呢?(进阶版)

优采云 发布时间: 2022-12-07 08:38

  官方数据:国际站-如何统计6个月内的TM询盘数据和对应国家占比呢?(进阶版)

  大家好。我是喜欢交朋友的Sky。

  “我经常看到一些小伙伴说阿里后台的TM数据有点膨胀,认为这个数据参考价值不大。但是在做数据报表的时候,需要计算准确的TM数,所以有有点苦恼和困惑,那今天就给大家带来一个TM查询数据一个月内(去重)的统计方法和对应的查询类型,话不多说,直接开始吧。

  上面提到的情况在我上一个公众号里已经有了答案,没看过的朋友可以看看。这一次,我要说的是上次的进阶版。我将分享如何统计6个月内特定月份的TM查询数据和对应国家的比例。订单率和 TM 询价到订单的转化率。

  最终的大概效果如下:

  之前的方法是使用优采云采集器采集过去30天的TM查询数据,然后对查询和TM进行量化和类型分析。优点:使用起来比较简单快捷。缺点:TM查询的查询时间只能将近30天,同时无法看到TM查询对应的国家数量和比例,所以今天带来了进阶版,时间可以选择日期之后的采集查询近6个月的数据,数据比较全面。

  你怎么看?如果你也准备尝试一把小刀,那就开始吧!

  第 1 步:寻找可以抓取六个月数据的渠道

  用于抓取近30天数据的URL:

  #feedback/assignLog

  因为上面的url只能抓到将近一个月的数据,后来去查看该url运行时网络中的爬取请求,发现了另外一个url,也是一个隐藏url。

  这个 URL 正好适合 采集 过去 6 个月的数据。

  #/

  第二步:下载数据采集插件并抓取

  之前优采云采集器有朋友跟我说用起来不方便,所以这次给大家介绍一个新的数据采集插件,叫做Instant Data Scraper。本插件可在浏览器中安装使用,安全免费。

  这是下载地址(记得用科学上网工具打开)

  下载插件后,打开刚才你要采集数据的网址,选择你要的时间段采集(我选的是10月份的数据),准备好采集数据. 首先点击浏览器插件中的精灵球按钮,点击try anothertable,直到*敏*感*词*区域覆盖我们想要的数据列采集。

  然后点击Locate Next按钮后,选择图片中的按钮作为下一个跳转操作。

  步骤设置好后,点击开始按钮开始抓取数据,浏览器插件会自动开始抓取数据。大约几分钟后,将捕获数据。点击下载表格按钮,下载刚才的数据。

  第三步:去重表数据

  打开数据表,修改表列标题方便查看,开始去除重复数据

  ① 删除分配类型栏,删除人工分配和客户优先分配栏

  ②选择邮箱栏,删除国内邮箱包括qq、126、163等。

  ③ 选择邮箱栏,进行筛选。多次出现的同一个邮箱可以删除,直到只剩下一个邮箱

  

  完成以上3步后,表中的数据基本没有旧查询和旧TM了。

  第四步:对TM查询进行数据统计和类型分析

  如果你在这里,恭喜你

  ,这时候你可以用CTRL+F从表格中搜索TM新闻和询价,区分TM和询价,并统计相应的数据,足够你写日报、周报和月报了。

  当然,如果你也对询盘的来源和占比感到好奇,我们也可以在表格中找到答案。同样使用CTRL+F搜索以下词

  TM消息-来自XXX(表示本次咨询是TM)

  Inquiry from(表示本次询价为询价)

  商品详情页询盘(表示本次询盘为访问商品后发送的询盘)

  商城首页询盘(表示本次询盘为访问商城首页后发送的询盘)

  Inquiry from Search List(表示该询盘是从搜索列表发出的询盘)

  Favorite Product Page Inquiry from Favorite Product Page(表示本次询价为商品采集页询价)

  Inquiry from Order page(表示本次询盘为订单页面发送的询盘)

  来自促销页面的询价(表示此询价是在促销页面发送的询价)

  同样的,你也会得到各种查询的数量,从而计算出他们的占比。

  第五步:将Pokeball抓取的TM查询数据与阿里员工分析表进行匹配

  因为刚才采集的数据中没有TM查询对应的国家的数据,所以这时候我们需要用另外一张表进行联动,就是阿里里面的员工分析表。

  这个表格也有单位时间内店铺的TM查询数据,但是相比之前的表格,这个表格多了TM查询对应的国家,响应时间等数据。

  网址在这里:

  这里我们需要下载表格。这里我也选择了10月份的数据。

  眼尖的小伙伴已经猜到,会员ID一栏的前两位数字代表的是TM/询价对应国家的简称。至此,接下来我们遇到的问题就是如何将我们之前去重后的TM查询数据与员工数据表中的数据进行匹配。

  别着急,看我操作。

  首先,员工分析表中的TM查询数据也进行了去重。您可以使用会员ID过滤重复项,将多次出现的同一ID行删除为仅一行。

  其次,因为两个表都有相同的项,那就是TM查询的发送名称。

  

  利用这一点,我们可以利用WPS的标记重复数据的功能,在阿里员工分析表中标记去重的TM查询数据,提取标记的查询数据。

  接下来就是对发送方的会员ID(客户ID)进行分类,得到客户对应国家的简称。

  第六步:匹配分析对应国家的阿里分析表中的TM查询

  看到这里,你有什么想法吗?你一定会知道国家数量的统计数据。但是我们如何转换两个字母的国家/地区缩写呢?

  哈哈,万万没想到,答案在这里:找到每个国家缩写对应的国家名称,做一个表(如图),用vlookup函数进行匹配。

  ps 各个国家的名字表是我自己做的。有需要的请加我,私发给你。还有如果可以去百度一下Vlookup功能的使用方法,不会的也可以问我。

  看到这里,如何去采集TM查询数据,并匹配对应的查询类型和国家。想必大家都已经知道了,效果大概就是如图所示。

  第七步:添加查询国家的换算率

  如果你是金商,也可以去采集查看访客画像中每个国家的访客数,然后使用Vlookup功能匹配数据,添加访客数这一栏在刚才不在表中的每个国家。

  经过这一步,我们可以得到如下表格,其中收录了每个国家的访问量、去重后的TM查询量、TM查询率、TM和各类查询的占比。

  如果你想让表格更丰富,也可以去数据顾问-访客画像-贸易买家(黄金产品专属,如果你是出口通的合作伙伴,可以去我的订单使用精灵球采集看贸易国,结果一样),使用采集插件计算采集每个国家的贸易买家数,并添加到表中。

  然后我们可以计算出国家/买家总数,每个国家的买家比例,国家/买家TM询价转化率,国家/买家TM询盘转化率。数据。.

  最后扑通扑通~一张涵盖了各国最重要的TM询价率和TM询价订单转化率的表格。

  如何使用这些数据?

  这里最重要的是询价率和订单转化率。朋友们可以把这两个率比较高的国家标出来。之后,在直通车推广过程中,针对这部分地区进行针对性推广。这样,在同样的预算下,可以更有效的提升店铺的询盘量和订单量。

  最后需要提醒大家的是,直通车的区域定向推广功能已经对直通车等级L3的商户开放。所以,如果你是L3,看完文章记得去直通车后台调整推广国家。同时,L4商户也全面开放L3+买家溢价。如果你想获得更多的大用户,别忘了给这个标签加点溢价。

  好了,今天的分享就到这里了,希望这篇文章对您有所帮助。我是国际站运营商Sky,一起交个朋友,欢迎加我领取表格。另外,对运营感兴趣的朋友也可以进群与其他朋友交流。

  直观:Python 三国人物数据快速采集极简方法汇总

  作为数据分析师而不是开发工程师,你需要掌握爬虫的必要知识,获取所需的数据。如果您需要更多基于爬虫工程师的专业内容,请浏​​览“Scrapy爬虫框架”版块。

  以最基础的《三国志13》人物数据采集为例,了解和掌握基本的爬虫技能和数据组织技能。

  整套自学教程用到的资料都是《三国志》和《真三国无双》系列游戏的内容。

  数据对象

  武将名单-三国之恋百科全书

  我们想得到这个页面的所有通用数据信息。

  爬虫请求的几种基本用法

  """例"""

from urllib import request

response = request.urlopen(r'https://sangokushi13wiki.wiki.fc2.com/wiki/%E6%AD%A6%E5%B0%86%E4%B8%80%E8%A6%A7')

#返回状态 200证明访问成功

print("返回状态码: "+str(response.status))

返回状态码: 200

  请求静态页面数据获取

  静态网页的URL形式通常以.htm、.html、.shtml、.xml等为后缀,一般来说就是最简单的HTML网页,服务端和客户端是一样的。HTML格式的网页也可以出现各种动态效果,如GIF格式的*敏*感*词*、FLASH、滚动的字母等,这些动态效果只是视觉上的。

  我们本地抓取的目标是静态页面。

  使用request()包装请求,然后通过urlopen()获取页面,俗称伪装。让服务器知道我们是通过浏览器访问页面的,在某些情况下可能会直接杀掉。

  # 加载第三方使用插件和基础配置

import requests

from bs4 import BeautifulSoup

import pandas as pd

import random

import warnings

warnings.filterwarnings("ignore")

# 浏览器 header

USER_AGENT_LIST = [

"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36",

"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",

"Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",

<p>

]

# 使用本地代理 可以使用也可以不使用

proxies = {

"http": "http://127.0.0.1:19180",

"https": "https://127.0.0.1:19180"

}

headers = {

"User-Agent":random.choice(USER_AGENT_LIST),

}

# https://sangokushi13wiki.wiki.fc2.com/wiki/武将一覧

url = "https://sangokushi13wiki.wiki.fc2.com/wiki/%E6%AD%A6%E5%B0%86%E4%B8%80%E8%A6%A7"

html = requests.get(url,headers=headers,proxies=proxies,verify=False)

soup = BeautifulSoup(html.text,"lxml")

soup

</p>

  请求动态页面数据获取

  动态网页的后缀形式有.asp、.jsp、.php、.perl、.cgi等。动态网页与网页上的各种*敏*感*词*、滚动字幕等视觉动态效果没有直接关系。动态网页还可以收录纯文本内容或收录各种*敏*感*词*的内容。这些只是网页具体内容的表现形式。,不管网页是否有动态效果,使用动态网站技术生成的网页都称为动态网页。动态网站也可以采用动静结合的原则。使用动态网页的地方适合使用动态网页。如果需要静态网页,可以考虑使用静态网页。在网上,

  import requests

from bs4 import BeautifulSoup

url = "http://news.cqcoal.com/blank/nl.jsp?tid=238"

html = requests.get(url)

soup = BeautifulSoup(html.text,"lxml")

soup.text

  

  如果爬取该网页时看不到任何信息,则证明这是一个动态网页。正确的爬取方法如下。

  import urllib

import urllib.request

import requests

url = "http://news.cqcoal.com/manage/newsaction.do?method:webListPageNewsArchivesByTypeid"

post_param = {&#39;pageNum&#39;:&#39;1&#39;,\

&#39;pageSize&#39;:&#39;20&#39;,\

&#39;jsonStr&#39;:&#39;{"typeid":"238"}&#39;}

return_data = requests.post(url,data =post_param)

content=return_data.text

content

  总结一下:如果页面内容发生变化,URL也会发生变化。基本上就是静态网页,否则就是动态网页。

  请求异常处理

  from urllib.request import Request, urlopen

from urllib.error import URLError, HTTPError

req = Request("http://www.111cn.net/")

try:

response = urlopen(req)

except HTTPError as e:

print(&#39;服务器无法满足请求.&#39;)

print(&#39;错误代码: &#39;, e.code)

except URLError as e:

print(&#39;不能访问服务器.&#39;)

print(&#39;原因: &#39;, e.reason)

else:

print("OK!")

print(response.read().decode("utf8"))

不能访问服务器.

原因: [Errno 11001] getaddrinfo failed

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线