最新活动:电脑PC端+手机端+微网站+自适应网页多模板选择-建站388元起价!!!
要源码
当前位置:主页 > 网站建设 > WordPress设置最佳的Robots.txt规则,seo建站技术

WordPress设置最佳的Robots.txt规则,seo建站技术

时间:2023-07-23 12:07:23 阅读: 文章分类: 网站建设 作者: 网站编辑员

导读:seo建站技术seo建站技术一些文章在搜索引擎结果中出现了重复而没有意义的链接,如果你也是使用的WordPress,不妨你也看看你自己的robots.txt文件。 如果你的WordPres职业技术学校网站。

职业技术学校网站

一些文章在搜索引擎结果中出织梦模板现了重复而没有意义的链接,如果你也是使用的WordPress,不妨你也看看你自己的robots.txt文件。

如果你的WordPress站点还没有robots.txt文件,那么子凡觉得你就更有必要添加一个了,即使你的站点可以让搜索引擎随意抓取,因为搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

WordPress设置最佳的Robots.txt规则

好了,还是来分享一个经过本站整理的比较完善的适用于WordPress的robots.txt文件内容吧!

User-agent: * Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /trackback/ Disallow: /comments/ Disallow: /attachment/ Disallow: /comments/feed Disallow: /feed Disallow: /*/feed Disallow: /*/comment-page-* Disallow: /*?replytocom=* Disallow: /*/trackback Disallow: /?s=* Disallow: /*/?s=* Disallow: /wp-*.phpdede模板安装   Sitemap: https://www.mbxzb.com/sitemap.HTML

使用方法:新建一个名称为robots.txt文本文件,将以上的内容放进去,然后上传到网站根目录即可。

最后还是简单的解析一下其对应作用

1、User-agent: *

允许所有搜索引擎抓取网站,除非你网站有特别针对某个或多个搜索引擎,你可以适当的设置其抓取。如下只允许百度和谷歌抓取:

User-agent: Baidusdede后台模板pider Disallow: / User-agent: Googlebot Disallow: /

这样设置的意思为只允许百度和谷歌的蜘蛛抓取所有,大家可以举一反三的使用。

2、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/ 用于告诉搜索引擎不要抓取后台程序文件页面。

3、Disallow: /*/comment-page-*和Disallow: /*?replytocom=* 禁止搜索引擎抓取评论分页等相关链接。

4、Disallow: /category/*/page/和Disallow: /tag/*/page/ 禁止搜索引擎抓取收录分类和标签的分页。(这一条子凡并未添加到上面演示,因为不同WordPress站点可能会有所不同,大家可以根据需要添加)

关键词标签: WordPress 建站 规则

声明: 本文由我的SEOUC技术文章主页发布于:2023-07-23 ,文章WordPress设置最佳的Robots.txt规则,seo建站技术主要讲述规则,WordPress,建站网站建设源码以及服务器配置搭建相关技术文章。转载请保留链接: https://www.seouc.com/article/web_35365.html

我的IDC 网站建设技术SEOUC.COM
专注网站建设,SEO优化,小程序设计制作搭建开发定制网站等,数千家网站定制开发案例,网站推广技术服务。
  • 5000+合作客服
  • 8年从业经验
  • 150+覆盖行业
  • 最新热门源码技术文章