怎么使用robots协议?需要注意哪些?
怎么使用robots协议?对于不知道怎么优化网站的人来说,是非常蒙的,知道了所谓的robots协议,但是不会用,下面创新互联小编就带大家看看如何使用robots协议和注意一些robots协议。
专注于为中小企业提供成都做网站、网站设计、外贸营销网站建设服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业萨嘎免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了上千余家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。robots.txt语法:
1.基本语法:
User-agent 定义协议的搜索引擎。
Disallow 不允许抓取
Allow 允许抓取
* 通配符,代表所有
$ 结束符
2.详情讲解:
User-agent: * 所有的搜索引擎都要遵守
PS:1.英文的首字母一定要大写。下同。2.问号一定是英文状态下的。下同。3.问号之后一定要有一个空格。下同。
User-agent: Baiduspider 针对百度的协议
Disallow: / 屏蔽全站
Disallow: /can/ 屏蔽can文件下的所有文件
Allow: /can/123 屏蔽can文件下的所有文件,但是允许收录123
Disallow: /*.jpg$ 屏蔽所有的图片文件。
PS:使用通配符,一定要有结束符。不然可能导致正常的路径被屏蔽。
注意事项:
1.基础语法中PS的点。
2.生效时间
robots是我们和搜索引擎之间的一个单方面的协议,不是我们今天写上,明天百度就会遵守。想让百度遵守是需要一个过程的,一般情况下是两个月。但是也不排除当天写,当天生效。所以在更改robots的时候,一定要小心小心再小心。一旦你的robots错了,对整个网站的影响是巨大的。
3.不要随便的屏蔽整站
一些新手在做网站的时候,没有规划,随搭随建,网站不能一下子做好,经常做个半截,所以很多新手就会将我们的网站全部屏蔽掉。如果你真的这么做了,那么我要恭喜你,蜘蛛可能在未来的两个月中不来访问你的网站。即便是你去请蜘蛛也不会来。所以这里给新手的建议就是一定要对网站规划好,一次性搭建完成。等待收录。
分享名称:怎么使用robots协议?需要注意哪些?
新闻来源:http://myzitong.com/article/cgojpi.html