WordPress robots.txt文件写法

WordPress博客的robots.txt文件写法,随手Google一下就会有很多搜索结果可以参考。当然你也可以选择去参考那些知名网站的robots.txt文件写法,查看方法很简单,直接输入http://目标域名/robots.txt,回车即可。每个网站都有自己的特色,只有了解了robots.txt文件的原理和概念之后,才能总结出一套适合自己网站的robots.txt文件写法。

下面,分享下robots.txt文件的写法:
User-agent: *
Disallow: /wp-
Disallow: /?
Disallow: /feed/
Disall Continue reading "WordPress robots.txt文件写法"

WordPress利用robots.txt优化SEO

robot.txt文件,是用来指示搜索引擎机器人如何在您网站抓取内容并在检索结果中索引的重要文件。网站大多有文件和文件夹和搜索引擎优化(如图片目录或管理目录)没有关系的 ,因此建立一个robots.txt文件其实可以改善您的网站索引职能。

为WordPress建立一个有效的robots文件,将有助于提高你博客在搜索引擎中的排名,获得较高价格的付费广告,并增加你的博客流量。

这里是我的robots.txt文件,它可以进一步保护的WordPress中内容重复的 Continue reading "WordPress利用robots.txt优化SEO"