seo搜索引擎优化网站(网站所有权验证Google(SearchEngineOptimization)(组图))

优采云 发布时间: 2021-10-13 15:16

  seo搜索引擎优化网站(网站所有权验证Google(SearchEngineOptimization)(组图))

  SEO(Search Engine Optimization),即搜索引擎优化。简单的说,SEO就是可以用来提升网站排名的所有方法的总称。SEO 用于确保您的 网站 及其内容在搜索引擎结果页面 (SERP) 上的可见性。

  检查您的博客是否是收录

  在谷歌或百度的搜索链接中,您可以使用以下格式直接搜索您自己的域名。如果能找到就说明已经收录,否则就没有。可以直接搜索自己的域名,也可以加一些关键词来更好的判断,例如:site:

  如果你不是搜索引擎收录,则需要进行如下配置,

  第一步:网站所有权验证谷歌

  首先,让搜索引擎验证我们对网站的所有权。谷歌搜索引擎提交的条目是:

  谷歌搜索控制台

  验证你对网站的所有权有很多方法,我使用的是Hexo->下一个主题中提供的“google_analytics”验证方法

  您可以在主题配置文件中找到 google_analytics 字段。去谷歌分析生成自己的google_analytics代码,把这段代码粘贴到主题配置文件的google_analytics字段后面,像这样:

  

  我的已经验证成功:

  

  百度

  我这里选择的验证方式是通过文件验证:

  

  将下载的文件baidu_verify_evCLN0THH4.html放入源文件夹,然后重新编译博客hexo g,你会发现刚刚添加的文件被复制到了themes/next/source文件夹。通过hexo d部署完成后,可以使用刚才访问的域名访问链接:,点击完成验证。

  第二步:添加站点地图以生成站点地图文件

  安装相关插件

  1

2

  npm install hexo-generator-sitemap --save

npm install hexo-generator-baidu-sitemap --save

  修改配置:修改站点配置文件_config.yml,添加如下两段配置

  1

2

3

4

5

6

  # hexo sitemap

sitemap:

path: sitemap.xml

baidusitemap:

path: baidusitemap.xml

  然后重新编译你的博客:hexo g,看看public文件夹下有没有sitemap.xml和baidusitemap.xml这两个文件。也可以在本地访问:4000/sitemap.xml 和:4000/baidusitemap.xml 查看效果,说明配置成功。

  第三步:搜索引擎收录Google

  谷歌的操作比较简单,就是提交一个站点地图到谷歌搜索控制台:

  

  百度

  百度收录很麻烦,效率远不如谷歌。由于GitHub屏蔽了百度的爬虫,即使提交成功,百度知道有可以爬取的链接,也不一定能爬取成功。我们还需要设置自动推送。

  设置自动推送

  设置主题配置文件下,设置baidu_push为true:

  1

2

  # Enable baidu push so that the blog will push the url to baidu automatically which is very helpful for SEO

baidu_push: true

  其他优化文章链接优化

  Hexo默认的文章链接形式是domain/year/month/day/postname,层次多,导致URL(Universal Resource Locator)过长,不利于搜索引擎检索。我们可以按照我们的需求缩短URL,改成domain/postname的形式。编辑站点配置文件 _config.yml 并将永久链接字段更改为永久链接::title/。

  提示:

  如果你还想在URL中保留时间元素,比如把URL改成domain/year-month-day/postname的形式,也可以把permalink字段改成permalink::year-:month-:day /:标题/

  添加蜘蛛协议robots.txt

  robots.txt(统一小写)是存放在网站根目录下的ASCII编码文本文件。它通常告诉网络搜索引擎的机器人(也称为网络蜘蛛)这是在网站 哪些内容不应被搜索引擎机器人获取,哪些内容可以被机器人获取。

  在根目录下的源文件下新建robots.txt文件并添加如下文件内容(将Sitemap中的域名切换为自己的网站域名)

  1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

  User-agent: *

Allow: /

Allow: /archives/

Allow: /tags/

Allow: /categories/

Allow: /about/

Disallow: /vendors/

Disallow: /js/

Disallow: /css/

Disallow: /fonts/

Disallow: /vendors/

Disallow: /fancybox/

Sitemap: https://fuhailin.github.io/sitemap.xml

Sitemap: https://fuhailin.github.io/baidusitemap.xml

  参数说明: User-agent: * 允许所有机器人访问,Allow 允许访问 X 目录,Disallow 禁止访问 X 目录

  参考:

  Hexo优化:提交sitemap,解决百度爬虫无法抓取GitHub Pages链接的问题

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线