您现在的位置是:首页 > 教程 > WordPress教程WordPress教程
wordpress博客怎么写robots.txt
王封安2025-02-19 19:09:27WordPress教程已有5人查阅
导读Robots.txt是放在博客根目录给搜索引擎看的一个文件,告诉搜索引擎什么链接能收录什么链接不能收录以及什么搜索引擎能够收录,在SEO中有着举足轻重的作用。
Robots.txt是放在博客根目录给搜索引擎看的一个文件,告诉搜索引擎什么链接能收录什么链接不能收录以及什么搜索引擎能够收录,在SEO中有着举足轻重的作用。
WordPress本身就有很多地方是非添加robots.txt不可的,比如:
用了伪静态链接之后动态链接依然能访问博客。
用Wordpress架设的博客有很多不同链接但相同内容的页面。Robots.txt的误区
不添加Robots.txt
Robots.txt作为搜索引擎机器人来到网站查看的第一个文件是很有必要精心设置的,搜索引擎机器人访问网站时,首先会查看站点根目录有没有Robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就默认访问以及收录所有页面。这是不是意味着,要想让搜索引擎收录全部链接就可以不设置这个文件了?其实不是的,搜索引擎机器人查看没有Robots.txt文件的时候就产生一个404错误日志在服务器上,增加服务器的负担。
Robots.txt文件Allow所有页面
这是平时比较容易犯到的错误,以为要让搜索引擎更多地收录网站就设置Robots.txt为: 或者: 这样搜索引擎不单单收录了你文章页面,还收录了管理界面,模板链接,CSS、JS链接,虽然说WordPress的管理界面谁都可以猜得到,不怕泄漏出去,但是这样一来就浪费服务器的资源,而且搜索引擎收录了这些链接是不会增加网站收录数的。Robots.txt的写法Robots.txt文档以User-agent: 开头,标识语句对应的搜索引擎机器人,后面跟上Disallow: 和Allow:表示起作用的链接。
User-agent: baiduspider 表示对百度机器人起作用。
User-agent: * 表示对所有搜索引擎机器人起作用。
Robots.txt文档中至少要有一条User-agent:记录而User-agent: * 记录只允许有一条。
Disallow: /giisi 表示不允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Disallow: /giisi/则允许访问/giisi.html、/giisi.php等,但是禁止访问/giisi/index.html。
Disallow: / 表示禁止搜索引擎机器人访问收录所有页面。订酒店返现金
Disallow: 表示允许搜索引擎访问收录所有页面。
Allow: /giisi 表示允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Allow:/giisi/则表示允许搜索引擎机器人访问/giisi/index.html等链接,但是对/giisi.html、/giisi.php未置可否。
“*”和“$”通配符
Disallow: */comments 表示不允许访问和收录所有wordpress评论留言页面。比如:http://域名/born/tianxie zhuanchushenqingbiao.html#comment-3715 是禁止收录的。
Disallow: /category/*/page/ 表示禁止访问和收录分类的相关分页。比如集思博客中网页设计分类有很多页面:
http://域名/category/design/page/2
记录中用“*”通配符表示了分类的别称“design”。
Disallow: .jpg$ 和Disallow: .php$ 分别表示禁止访问收录“,jpg”和“.php”后缀的文件集思博客的Robots.txt
User-agent: *
Disallow: /*?* (屏蔽搜索引擎机器人收录动态网页,因为/?q=id也是能访问文章的哦!)
Disallow: /index.php (因为我的博客在windows主机呆过,发现域名/index.php/postname.html也能访问现在的日志)
Disallow: /wp-admin (屏蔽搜索引擎机器人收录管理界面)
Disallow: /wp-content/plugins (屏蔽搜索引擎机器人收录插件文件)
Disallow: /wp-content/themes (屏蔽搜索引擎机器人收录模板文件)
Disallow: /wp-includes (屏蔽搜索引擎机器人收录JS文件)
Disallow: /trackback (屏蔽搜索引擎机器人收录trackback等垃圾信息,关闭trackback的可以忽略)
Disallow: /feed (Feed中都是与日志相同的信息当然要屏蔽)
Disallow: /comments(下面三个上面有介绍了)
Disallow: /category/*/page/
Disallow: /tag/*/page/
Sitemap: http://域名/sitemap.xml (这个用来告诉搜索引擎sitemap的路径,我用了两个)
Sitemap: http://域名/sitemap_baidu.xml
Robots.txt是放在博客根目录给搜索引擎看的一个文件,告诉搜索引擎什么链接能收录什么链接不能收录以及什么搜索引擎能够收录,在SEO中有着举足轻重的作用。
WordPress本身就有很多地方是非添加robots.txt不可的,比如:
用了伪静态链接之后动态链接依然能访问博客。
用Wordpress架设的博客有很多不同链接但相同内容的页面。Robots.txt的误区
不添加Robots.txt
Robots.txt作为搜索引擎机器人来到网站查看的第一个文件是很有必要精心设置的,搜索引擎机器人访问网站时,首先会查看站点根目录有没有Robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就默认访问以及收录所有页面。这是不是意味着,要想让搜索引擎收录全部链接就可以不设置这个文件了?其实不是的,搜索引擎机器人查看没有Robots.txt文件的时候就产生一个404错误日志在服务器上,增加服务器的负担。
Robots.txt文件Allow所有页面
这是平时比较容易犯到的错误,以为要让搜索引擎更多地收录网站就设置Robots.txt为:
User-agent: *
Disallow:
或者:
User-agent: *
Allow: /
这样搜索引擎不单单收录了你文章页面,还收录了管理界面,模板链接,CSS、JS链接,虽然说WordPress的管理界面谁都可以猜得到,不怕泄漏出去,但是这样一来就浪费服务器的资源,而且搜索引擎收录了这些链接是不会增加网站收录数的。Robots.txt的写法Robots.txt文档以User-agent: 开头,标识语句对应的搜索引擎机器人,后面跟上Disallow: 和Allow:表示起作用的链接。
User-agent: baiduspider 表示对百度机器人起作用。
User-agent: * 表示对所有搜索引擎机器人起作用。
Robots.txt文档中至少要有一条User-agent:记录而User-agent: * 记录只允许有一条。
Disallow: /giisi 表示不允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Disallow: /giisi/则允许访问/giisi.html、/giisi.php等,但是禁止访问/giisi/index.html。
Disallow: / 表示禁止搜索引擎机器人访问收录所有页面。
Disallow: 表示允许搜索引擎访问收录所有页面。
Allow: /giisi 表示允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Allow:/giisi/则表示允许搜索引擎机器人访问/giisi/index.html等链接,但是对/giisi.html、/giisi.php未置可否。
“*”和“$”通配符
Disallow: */comments 表示不允许访问和收录所有wordpress评论留言页面。比如:http://域名/born/tianxie zhuanchushenqingbiao.html#comment-3715 是禁止收录的。
Disallow: /category/*/page/ 表示禁止访问和收录分类的相关分页。比如集思博客中网页设计分类有很多页面:
http://域名/category/design/page/2
记录中用“*”通配符表示了分类的别称“design”。
Disallow: .jpg$ 和Disallow: .php$ 分别表示禁止访问收录“,jpg”和“.php”后缀的文件集思博客的Robots.txt
User-agent: *
Disallow: /*?* (屏蔽搜索引擎机器人收录动态网页,因为/?q=id也是能访问文章的哦!)
Disallow: /index.php (因为我的博客在windows主机呆过,发现域名/index.php/postname.html也能访问现在的日志)
Disallow: /wp-admin (屏蔽搜索引擎机器人收录管理界面)
Disallow: /wp-content/plugins (屏蔽搜索引擎机器人收录插件文件)
Disallow: /wp-content/themes (屏蔽搜索引擎机器人收录模板文件)
Disallow: /wp-includes (屏蔽搜索引擎机器人收录JS文件)
Disallow: /trackback (屏蔽搜索引擎机器人收录trackback等垃圾信息,关闭trackback的可以忽略)
Disallow: /feed (Feed中都是与日志相同的信息当然要屏蔽)
Disallow: /comments(下面三个上面有介绍了)
Disallow: /category/*/page/
Disallow: /tag/*/page/
Sitemap: http://域名/sitemap.xml (这个用来告诉搜索引擎sitemap的路径,我用了两个)
Sitemap: http://域名/sitemap_baidu.xml
WordPress本身就有很多地方是非添加robots.txt不可的,比如:
用了伪静态链接之后动态链接依然能访问博客。
用Wordpress架设的博客有很多不同链接但相同内容的页面。Robots.txt的误区
不添加Robots.txt
Robots.txt作为搜索引擎机器人来到网站查看的第一个文件是很有必要精心设置的,搜索引擎机器人访问网站时,首先会查看站点根目录有没有Robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就默认访问以及收录所有页面。这是不是意味着,要想让搜索引擎收录全部链接就可以不设置这个文件了?其实不是的,搜索引擎机器人查看没有Robots.txt文件的时候就产生一个404错误日志在服务器上,增加服务器的负担。
Robots.txt文件Allow所有页面
这是平时比较容易犯到的错误,以为要让搜索引擎更多地收录网站就设置Robots.txt为: 或者: 这样搜索引擎不单单收录了你文章页面,还收录了管理界面,模板链接,CSS、JS链接,虽然说WordPress的管理界面谁都可以猜得到,不怕泄漏出去,但是这样一来就浪费服务器的资源,而且搜索引擎收录了这些链接是不会增加网站收录数的。Robots.txt的写法Robots.txt文档以User-agent: 开头,标识语句对应的搜索引擎机器人,后面跟上Disallow: 和Allow:表示起作用的链接。
User-agent: baiduspider 表示对百度机器人起作用。
User-agent: * 表示对所有搜索引擎机器人起作用。
Robots.txt文档中至少要有一条User-agent:记录而User-agent: * 记录只允许有一条。
Disallow: /giisi 表示不允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Disallow: /giisi/则允许访问/giisi.html、/giisi.php等,但是禁止访问/giisi/index.html。
Disallow: / 表示禁止搜索引擎机器人访问收录所有页面。订酒店返现金
Disallow: 表示允许搜索引擎访问收录所有页面。
Allow: /giisi 表示允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Allow:/giisi/则表示允许搜索引擎机器人访问/giisi/index.html等链接,但是对/giisi.html、/giisi.php未置可否。
“*”和“$”通配符
Disallow: */comments 表示不允许访问和收录所有wordpress评论留言页面。比如:http://域名/born/tianxie zhuanchushenqingbiao.html#comment-3715 是禁止收录的。
Disallow: /category/*/page/ 表示禁止访问和收录分类的相关分页。比如集思博客中网页设计分类有很多页面:
http://域名/category/design/page/2
记录中用“*”通配符表示了分类的别称“design”。
Disallow: .jpg$ 和Disallow: .php$ 分别表示禁止访问收录“,jpg”和“.php”后缀的文件集思博客的Robots.txt
User-agent: *
Disallow: /*?* (屏蔽搜索引擎机器人收录动态网页,因为/?q=id也是能访问文章的哦!)
Disallow: /index.php (因为我的博客在windows主机呆过,发现域名/index.php/postname.html也能访问现在的日志)
Disallow: /wp-admin (屏蔽搜索引擎机器人收录管理界面)
Disallow: /wp-content/plugins (屏蔽搜索引擎机器人收录插件文件)
Disallow: /wp-content/themes (屏蔽搜索引擎机器人收录模板文件)
Disallow: /wp-includes (屏蔽搜索引擎机器人收录JS文件)
Disallow: /trackback (屏蔽搜索引擎机器人收录trackback等垃圾信息,关闭trackback的可以忽略)
Disallow: /feed (Feed中都是与日志相同的信息当然要屏蔽)
Disallow: /comments(下面三个上面有介绍了)
Disallow: /category/*/page/
Disallow: /tag/*/page/
Sitemap: http://域名/sitemap.xml (这个用来告诉搜索引擎sitemap的路径,我用了两个)
Sitemap: http://域名/sitemap_baidu.xml
Robots.txt是放在博客根目录给搜索引擎看的一个文件,告诉搜索引擎什么链接能收录什么链接不能收录以及什么搜索引擎能够收录,在SEO中有着举足轻重的作用。
WordPress本身就有很多地方是非添加robots.txt不可的,比如:
用了伪静态链接之后动态链接依然能访问博客。
用Wordpress架设的博客有很多不同链接但相同内容的页面。Robots.txt的误区
不添加Robots.txt
Robots.txt作为搜索引擎机器人来到网站查看的第一个文件是很有必要精心设置的,搜索引擎机器人访问网站时,首先会查看站点根目录有没有Robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就默认访问以及收录所有页面。这是不是意味着,要想让搜索引擎收录全部链接就可以不设置这个文件了?其实不是的,搜索引擎机器人查看没有Robots.txt文件的时候就产生一个404错误日志在服务器上,增加服务器的负担。
Robots.txt文件Allow所有页面
这是平时比较容易犯到的错误,以为要让搜索引擎更多地收录网站就设置Robots.txt为:
User-agent: *
Disallow:
或者:
User-agent: *
Allow: /
这样搜索引擎不单单收录了你文章页面,还收录了管理界面,模板链接,CSS、JS链接,虽然说WordPress的管理界面谁都可以猜得到,不怕泄漏出去,但是这样一来就浪费服务器的资源,而且搜索引擎收录了这些链接是不会增加网站收录数的。Robots.txt的写法Robots.txt文档以User-agent: 开头,标识语句对应的搜索引擎机器人,后面跟上Disallow: 和Allow:表示起作用的链接。
User-agent: baiduspider 表示对百度机器人起作用。
User-agent: * 表示对所有搜索引擎机器人起作用。
Robots.txt文档中至少要有一条User-agent:记录而User-agent: * 记录只允许有一条。
Disallow: /giisi 表示不允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Disallow: /giisi/则允许访问/giisi.html、/giisi.php等,但是禁止访问/giisi/index.html。
Disallow: / 表示禁止搜索引擎机器人访问收录所有页面。
Disallow: 表示允许搜索引擎访问收录所有页面。
Allow: /giisi 表示允许搜索引擎访问或者收录/giisi.html、/giisi/index.html、/giisi.php等包含/giisi的链接,而Allow:/giisi/则表示允许搜索引擎机器人访问/giisi/index.html等链接,但是对/giisi.html、/giisi.php未置可否。
“*”和“$”通配符
Disallow: */comments 表示不允许访问和收录所有wordpress评论留言页面。比如:http://域名/born/tianxie zhuanchushenqingbiao.html#comment-3715 是禁止收录的。
Disallow: /category/*/page/ 表示禁止访问和收录分类的相关分页。比如集思博客中网页设计分类有很多页面:
http://域名/category/design/page/2
记录中用“*”通配符表示了分类的别称“design”。
Disallow: .jpg$ 和Disallow: .php$ 分别表示禁止访问收录“,jpg”和“.php”后缀的文件集思博客的Robots.txt
User-agent: *
Disallow: /*?* (屏蔽搜索引擎机器人收录动态网页,因为/?q=id也是能访问文章的哦!)
Disallow: /index.php (因为我的博客在windows主机呆过,发现域名/index.php/postname.html也能访问现在的日志)
Disallow: /wp-admin (屏蔽搜索引擎机器人收录管理界面)
Disallow: /wp-content/plugins (屏蔽搜索引擎机器人收录插件文件)
Disallow: /wp-content/themes (屏蔽搜索引擎机器人收录模板文件)
Disallow: /wp-includes (屏蔽搜索引擎机器人收录JS文件)
Disallow: /trackback (屏蔽搜索引擎机器人收录trackback等垃圾信息,关闭trackback的可以忽略)
Disallow: /feed (Feed中都是与日志相同的信息当然要屏蔽)
Disallow: /comments(下面三个上面有介绍了)
Disallow: /category/*/page/
Disallow: /tag/*/page/
Sitemap: http://域名/sitemap.xml (这个用来告诉搜索引擎sitemap的路径,我用了两个)
Sitemap: http://域名/sitemap_baidu.xml
本文标签:
很赞哦! (0)
暂无内容 |
暂无内容 |
暂无内容 |
暂无内容 |
随机图文
wordpress怎么重装,wordpress重装的方法
首先删除目录下的wp-config.php文件,此文件保存有wordpress相关的数据库用户名和密码等数据,是网站基本参数的文件。CentOS 8环境LNMP搭建WordPress
CentOS 8近日推出了,其LNMP环境的搭建也与CentOS7有所不同。基于CentOS 8,我重写了前一篇文章《CentOS7搭建LNMP+WordPress一篇搞定》,得到了这一本文。为了更好地阅读体验wordpress注册账号的方法,wordpress怎么注册账号
wordpress怎么注册账号?wordpress注册账号的方法1 首 先进入后台管理前,您所需要的是先已经安装好了wordpress,一般安装wordpress的时候wordpress怎么防采集,wordpress防采集的几个方法
相信经常写博客的人都知道采集是怎么回事,网上有很多免费的或者付费的各种采集程序,可以采集文章、图片、下载内容等等,甚至还有各种明目张胆的小偷程序。做这种网站的目的很明
留言与评论 (共有 0 条评论) |