首页 > 网站 > 优化推广 > 正文

Google网站管理员工具轻松制作robots.txt

2024-04-26 13:23:41
字体:
来源:转载
供稿:网友
robots.txt 文件使你能够指定你希望阻止其在你网站上抓取文件的漫游器(也被称为"bots"、"抓取工具"、“搜索引擎蜘蛛”)。网络上有很多各种各样的 robots.txt 生成器。google网站管理员工具中的robots.txt 生成器是第一个由搜索引擎自己提供的生成器工具。
 
robots.txt文件其实很简单,只有几个简单的命令,用记事本就可以编辑了。但是对于很多菜鸟站长来说,robots.txt文件还是太过于复杂了。使用google网站管理员工具 robots.txt 生成器,你就能够轻松创建 robots.txt 文件了。
 
注意:每当用户试图访问某个不存在的url时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以即使你的网站上所有文件都需要蜘蛛抓取你还是应该在网站中添加一个robots.txt。
 
登陆google网站管理员(https://www.google.com/webmasters/),选择你要检查的站点,在点击网站配置,选择抓取工具访问,就可以看到“生成robots.txt”工具了。
 
路径:登陆google网站管理员>选择战点>网站配置>抓取工具访问>生成robots.txt(generate robots.txt)
 
1. robots.txt生成器工具默认选项是“允许所有漫游器”——允许所有的搜索蜘蛛抓取网站。如果你也是希望这样的话,那你直接用下面这个生成的代码就行了。
 
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表