勿忘初心,方得始终 (广告合作请联系QQ1101437034,所有广告位均支持预付费包月)

网站robots提示403等错误的解决方法

个人网站建设 爱萌芽博客 1年前 (2017-07-12) 314次浏览 0个评论

robots是什么?爬虫协议,能告诉搜索引擎应该抓取网站那些内容。robots.txt文件对网站的优化非常重要,那么我们在设置过程中会出现什么问题呢?很多人试过明明自己的服务器上边有robots.txt这个文件,但是站长工具不能访问,从而浏览器返回403报错。对于这一类问题我们应该怎么去处理?

网站robots提示403等错误的解决方法

通常出现403报错是因为浏览器没有robots.txt的读取权限。那么我们怎么才能获取robots.txt的读取权限呢?我们利用FTP上传工具链接服务器去修改robots.txt的权限。具体的操作方法:选择robots.txt文件–右键–属性–勾选相应权限–确定

网站robots提示403等错误的解决方法

只要读取权限打开了,浏览器就不会报错了。

关于robots.txt的写法大家可以百度一下,里面有详细的讲解。

本文由爱萌芽博客首发,转载时请加原文链接注明出处

 


喜欢 (2)
发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
站点地图