seo搜索引擎优化网站(网站所有权验证Google(SearchEngineOptimization)(组图))
优采云 发布时间: 2021-10-13 15:16seo搜索引擎优化网站(网站所有权验证Google(SearchEngineOptimization)(组图))
SEO(Search Engine Optimization),即搜索引擎优化。简单的说,SEO就是可以用来提升网站排名的所有方法的总称。SEO 用于确保您的 网站 及其内容在搜索引擎结果页面 (SERP) 上的可见性。
检查您的博客是否是收录
在谷歌或百度的搜索链接中,您可以使用以下格式直接搜索您自己的域名。如果能找到就说明已经收录,否则就没有。可以直接搜索自己的域名,也可以加一些关键词来更好的判断,例如:site:
如果你不是搜索引擎收录,则需要进行如下配置,
第一步:网站所有权验证谷歌
首先,让搜索引擎验证我们对网站的所有权。谷歌搜索引擎提交的条目是:
谷歌搜索控制台
验证你对网站的所有权有很多方法,我使用的是Hexo->下一个主题中提供的“google_analytics”验证方法
您可以在主题配置文件中找到 google_analytics 字段。去谷歌分析生成自己的google_analytics代码,把这段代码粘贴到主题配置文件的google_analytics字段后面,像这样:
我的已经验证成功:
百度
我这里选择的验证方式是通过文件验证:
将下载的文件baidu_verify_evCLN0THH4.html放入源文件夹,然后重新编译博客hexo g,你会发现刚刚添加的文件被复制到了themes/next/source文件夹。通过hexo d部署完成后,可以使用刚才访问的域名访问链接:,点击完成验证。
第二步:添加站点地图以生成站点地图文件
安装相关插件
1
2
npm install hexo-generator-sitemap --save
npm install hexo-generator-baidu-sitemap --save
修改配置:修改站点配置文件_config.yml,添加如下两段配置
1
2
3
4
5
6
# hexo sitemap
sitemap:
path: sitemap.xml
baidusitemap:
path: baidusitemap.xml
然后重新编译你的博客:hexo g,看看public文件夹下有没有sitemap.xml和baidusitemap.xml这两个文件。也可以在本地访问:4000/sitemap.xml 和:4000/baidusitemap.xml 查看效果,说明配置成功。
第三步:搜索引擎收录Google
谷歌的操作比较简单,就是提交一个站点地图到谷歌搜索控制台:
百度
百度收录很麻烦,效率远不如谷歌。由于GitHub屏蔽了百度的爬虫,即使提交成功,百度知道有可以爬取的链接,也不一定能爬取成功。我们还需要设置自动推送。
设置自动推送
设置主题配置文件下,设置baidu_push为true:
1
2
# Enable baidu push so that the blog will push the url to baidu automatically which is very helpful for SEO
baidu_push: true
其他优化文章链接优化
Hexo默认的文章链接形式是domain/year/month/day/postname,层次多,导致URL(Universal Resource Locator)过长,不利于搜索引擎检索。我们可以按照我们的需求缩短URL,改成domain/postname的形式。编辑站点配置文件 _config.yml 并将永久链接字段更改为永久链接::title/。
提示:
如果你还想在URL中保留时间元素,比如把URL改成domain/year-month-day/postname的形式,也可以把permalink字段改成permalink::year-:month-:day /:标题/
添加蜘蛛协议robots.txt
robots.txt(统一小写)是存放在网站根目录下的ASCII编码文本文件。它通常告诉网络搜索引擎的机器人(也称为网络蜘蛛)这是在网站 哪些内容不应被搜索引擎机器人获取,哪些内容可以被机器人获取。
在根目录下的源文件下新建robots.txt文件并添加如下文件内容(将Sitemap中的域名切换为自己的网站域名)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
User-agent: *
Allow: /
Allow: /archives/
Allow: /tags/
Allow: /categories/
Allow: /about/
Disallow: /vendors/
Disallow: /js/
Disallow: /css/
Disallow: /fonts/
Disallow: /vendors/
Disallow: /fancybox/
Sitemap: https://fuhailin.github.io/sitemap.xml
Sitemap: https://fuhailin.github.io/baidusitemap.xml
参数说明: User-agent: * 允许所有机器人访问,Allow 允许访问 X 目录,Disallow 禁止访问 X 目录
参考:
Hexo优化:提交sitemap,解决百度爬虫无法抓取GitHub Pages链接的问题