今天发现,有很多同学开端玩WordPress了,很快乐有些情投意合的朋友参加WP的我们庭。可是,不论你的水平怎么,只需你是站长,就有必要懂的Robots.txt的写法与效果。近来,小站的?p=XX页面老是呈现在百度录入中,尽管有添加录入的效果,可是会对站权重形成影响。所以我采取了一系列的办法来防止过多的重复页面抓取。
其实,我从一开端就做了Robot的优化作业,只不过搬空间时分忘了那个Robots文件了……一失足成千古恨,博客录入降了很多……WordPress的优化仍是做得很好的,尽管有些当地需求凭借自己对Html等小常识的把握,但这并不阻碍你把WordPress站点打形成优化模范!
下面我共享一下自己博客的Robots文件,并简略的说一下效果。
User-agent:*
Disallow:/comments/feed/
Disallow:/*/trackback
Disallow:/wp-admin/
Disallow:/wp-includes/
Disallow:/wp-content/plugins/
Disallow:/wp-content/pemes/
Disallow:/*?replytocom=
Disallow:/*/comment-page-*
Disallow:/?r=*
Disallow:/?p=*
Disallow:/page/
Allow:/wp-content/uploads/
Sitemap:://***.me/sitemap.xml
Sitemap:://***.me/sitemap_baidu.xml
上面的User-agent:*意思便是对一切的蜘蛛进行规矩,Disallow想必我们英文略微会一点的都懂。比方Disallow:/page/意思便是不要抓取/page下面的页,避免形成降权。
晚上见有童鞋将Disallow:/*?replytocom=和Disallow:/*/comment-page-*相似的写成Disallow:*?replytocom=以及Disallow:*/comment-page-*特意阐明一下,在百度官方的阐明中,Disallow的地址有必要以/这个斜杠最初,不加这个尽管能够可是不符合规范。
笔者以为:半懂不懂我们学习不该该有,可有可无这个仍是有着比较好!规范在那里,我们就看规范来吧!期望我们能够多多沟通,一起学习!有过错请及时更正指出,谢谢!
在最终祝福玩WordPress的同学技能步步高,WordPress建站值得你坚持下去,期望看到越来越多的友有自己的建站一周年留念文章呈现!
,内容来自:软文推行蜓云ruanwen.tingclouds