已经使用Hexo搭建好了博客,想让搜索引擎收录自己的文章以便于大家分享。通过上网搜索知道了方法,照着葫芦画瓢进行配置,记录余下:
网站地图Sitemap 生成
安装插件
1 2
| npm install hexo-generator-sitemap --save npm install hexo-generator-baidu-sitemap --save
|
编辑配置文件
编辑站点的_config.yml,添加
1 2 3 4 5
| sitemap: path: sitemap.xml baidusitemap: path: baidusitemap.xml
|
robots.txt
添加robots.txt
robots.txt是一个存放于网站根目录下的ASCII码文本文件,它可以告诉搜索引擎此网站中哪些内容是可以被爬取的,哪些是禁止爬取的。
robots.txt放在站点目录下的source文件中,网站生成后在网站的根目录(站点目录/public/)下。
文件内容如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| User-agent: * Allow: / Allow: /archives/ Allow: /categories/ Allow: /tags/ Allow: /2016/ Allow: /2017/
Disallow: /js/ Disallow: /css/ Disallow: /fancybox/
Sitemap: http: Sitemap: http:
|
搜多引擎收录
百度
登录到百度站长平台
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| script. (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();
|
Google
登录谷歌,向Google网站站长提交sitemap……等等。
暂无……