汇总:新站从收录到权重7的整个优化流程(附:真实案例)

优采云 发布时间: 2022-11-27 20:44

  汇总:新站从收录到权重7的整个优化流程(附:真实案例)

  排名上不去,流量上不来。这是很多站长遇到的问题。小编做了那么多网站,有的权重是4、5,有的权重是7、8,不管是流量还是权重,目前来看效果还是比较可观的。以我8年的优化经验,分享一下从新站收录到权重7是怎么做到的。

  以上是小编做的几个站。目前在排名和流量方面,都比较稳定。这三站时间最长的是博客,最短的是长城。

  上图是三个网站的流量情况。由于是周末,特殊时期人流量会比较少。这是正常现象,但差距不是很大。具体来说,这个操作大致分为几个步骤。

  第一:拥有完善的网站基础

  

" />

  不是所有的网站都能在第二天获得很高的访问量,短时间内可能会看到一些基本的排名,但是网站绝对是后起之秀。大约需要1个月。

  该模板可以作为模仿网站购买。如果是仿站,建议仿大站。毕竟一个大站就是靠这套模板做的排名。如果看不懂旧域名,那么不建议购买,因为市面上很多之前用旧域名搭建的网站都不干净,所以我直接选择新域名就可以了。

  代码库优化这里就不多说了。我的公众号里面有很多相关的基础优化文章,但是内容一定要控制好。不要做这些方面的内容。第一,不要做影响搜索引擎业务的内容。比如:特许经营、B2B等。毕竟和搜索引擎有直接的冲突,除非你和他们合作,否则他们不会轻易给你排名。第二,违法的、越界的内容不要碰,就发这些内容,不是搜索引擎不给你面子,而是你不给搜索引擎面子。第三,不要涉足医疗美容相关行业。搜索引擎不希望您的文章杀死人。第四,不要做与政治有关的内容。一旦内容不实,不仅工信部会来找你,百度也会有麻烦。因此,这些内容是由权威机构报告的。

  第二:拥有完善的内容体系

  首先,我不建议你去采集

。集合也可以排名。大部分都是通过聚合页来排名的,而我们的站点是通过文章页来排名的。平均一篇文章有​​一个关键词的排名,另外一个几十元的采集

规则能做的这么好,所以现在市场上充斥着大网站。

  其次,不建议大家使用伪原创工具来做。我可以明确的告诉你,目前市面上所有的伪原创工具都是类似替换同义词的,没有AI的标准。早期看到新闻说腾讯讲述了AI编辑器的发展。机器人,不过我可以告诉你,这个研发的成本超乎你的想象,也没有免费给你用,所以与其用伪原创工具,还不如直接抄袭,至少内容让其他人更容易阅读。

  那么重点是内容来源哪里比较合适。这个可以根据自己行业的需要,找优秀的网站转载。像我做的网站,由于客户发软文的需求,我的网站涉及的行业太多了,几乎各行各业。每篇文章都要发,所以我选择微信公众号转发文章,也​​是一个很不错的选择。

  

" />

  第三:有完善的算法体系

  我说的算法不是百度站长平台公示的算法。百度站长平台公开的只是一种惩罚算法。其实百度在调整排名的时候,内部有一个奖励算法。什么是奖励?排行。

  那么我的方法和市面上很多快速排序的方法类似。市场上也称其为“反推技术”、“快速排序技术”、“承包技术”、“功率升级优化技术”。看似名字千差万别,其实所用的技术都是密不可分的。它的情况。

  原理:当多人搜索某个关键词并点击第二页的网站时,就意味着告诉搜索引擎第二页的网站真的很好,否则不会翻到第二页to click 为了提高本网站的用户体验,搜索引擎会将本网站从第二页提升到第一页,因为很多工具都出来了,以VPS的形式模拟手动点击,让搜索引擎误认为这是由真人完成的,从而提高了本网站的排名。

  当然,小编在发表新文章后,会点击新文章,可以快速提升最近发表文章的排名,但值得注意的是,为什么小编网站的排名不是跳跃式上升,而是稳中有升,也就是说还是控制好数量,一来可以提升排名,二来可以稳定排名,不容易被K站降级。

  总结:至于所谓的外链,从2014年开始,小编一直没做过,我也从来没在意过。此方法不适用于 1-2 个 关键词 网站。如果你只有1-2个关键词需要排名,多多学习,市面上有很多快速排名可以帮你做到。

  汇总:Python股票分析之*敏*感*词*采集循环完整代码

  目标:在中国股市盈利,每周单只股票盈利2%,每月总盈利2%以上

  方案实现方式:Pycharm + Anaconda3 + Python3 + Django + AKShare + MongoDB

  当前实现:Pycharm + Anaconda3 + Python3 + Flask + AKShare

  以后可能会用到:MongoDB、SQLAlchemy、baostock、Tushare

  机器学习会在以后的实践中逐步应用。

  实现方法

  上一篇文章写了采集

方法。本文收录

完整代码和调用代码。

  在后台执行。

  gupiao.py如下:

  

import akshare as ak

import threading

import datetime

import os

from threading import Thread

def get_start():

start_stock_daily()

# 这里就是核心了,调用这部分就会自动下载 深圳A股 的所有股票的历史记录

def start_stock_daily(indicator="A股列表", folder="sz_a", prefix="sz"):

file_path = "D:/work/data/" + folder + "/"

file_path_name = get_sz_a(file_path, indicator)

print(file_path_name)

num = 0

with open(file_path_name, "r", encoding='UTF-8') as stock_lines:

for stock_line in stock_lines.readlines():

num = num + 1

if num == 1:

<p>

" />

continue

stock_line_arr = stock_line.split("|")

symbol = prefix + stock_line_arr[5]

print("股票信息=" + symbol + "||" + stock_line_arr[6])

stock_csv = get_stock_daily(file_path, symbol)

print("stock_csv=" + stock_csv)

# 获得深圳主板A股列表,每天获取一次不重复获取

# file_path 需要全路径,以 | 进行间隔

# indicator 可选参数 "A股列表", "B股列表", "AB股列表", "上市公司列表", "主板", "中小企业板", "创业板"

def get_sz_a(file_path, indicator="A股列表"):

today = datetime.datetime.today()

file_name = "sz_a_" + today.strftime(&#39;%Y%m%d&#39;) + ".csv"

if not os.path.exists(file_path): # 如果路径不存在则创建

os.makedirs(file_path)

if os.path.exists(file_path + file_name):

print("今日已经获取无需再次获取," + today.strftime(&#39;%Y%m%d&#39;))

return file_path + file_name

stock_info_sz_df = ak.stock_info_sz_name_code(indicator=indicator)

stock_info_sz_df.to_csv(file_path + file_name, sep="|")

print(&#39;获取深圳主板A股列表并存储为CSV!&#39; + today.strftime(&#39;%Y%m%d&#39;))

return file_path + file_name

# 根据股票代码获取股票历史数据

# symbol 股票代码 需要前缀 sh 上海 sz 深圳,例如:sz300846

def get_stock_daily(file_path, symbol):

stock_zh_a_daily_hfq_df = ak.stock_zh_a_daily(symbol=symbol) # 返回不复权的数据

file_name = symbol + &#39;.csv&#39;

stock_zh_a_daily_hfq_df.to_csv(file_path + file_name)

  

" />

return file_path + file_name</p>

  调用下载部分,注意我随便写的名字,请根据情况修改,app.py如下:

  from flask import Flask

import akshare as ak

import gupiao

import datetime

import os

from concurrent.futures import ThreadPoolExecutor

import time

executor = ThreadPoolExecutor(2)

app = Flask(__name__)

@app.route(&#39;/test_thread&#39;)

def test_thread():

executor.submit(gupiao.get_start)

return "thread is running at background !!!"

if __name__ == &#39;__main__&#39;:

app.run()

  使用Flask框架,生成一个工程,然后在app.py中创建一个gupiao.py调用,然后运行工程。

  在浏览器中访问:5000/test_thread

  您可以在背景中看到图片中显示的屏幕。整个深圳A股市场的下载时间大概在2小时到3小时左右。

  股票历史数据

  下载到本地如图

  股票历史数据

  爬取数据部分完成,接下来进行过滤。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线