本站robots.txt文件的书写实操

admin11年前 (2013-10-22)SEO优化453

搜索引擎来到网站时,会先查看网站的目录下是否存在robots.txt文件,如果存在,搜索引擎就会抓取robots.txt文件的内容,根据指令做出相应的爬行动作,查看百度的robots文件http://www.baidu.com/robots.txt,站长只有在禁止探索引擎抓取某些内容时才有意义, robots文件不存在或者为代都表示允许任意探索引擎抓取任意的内容。

如果设置了robots文件,那么就一定要设置正确,否则后果不堪设想。早两年遇见过一个新手站长,由于服务器设置有问题,robots文件不存在也返回了200的状态码,这样使搜索引擎错误解析robots文件,因此珠海seo建议即使允许抓取所有内容,也不要偷懒,还是新建一个空的robots.txt文件的好。

robots文件的写法很简单,每组记录以空行分隔,记录格式:

<域>:<可选空格><域值><可选空格>

看下面的robots文件:

User-agent: * (表示规则适用的蜘蛛,百度蜘蛛Baiduspider,Google蜘蛛Googlebot,有道蜘蛛YoudaoBot)

Disallow: /  (表示不要抓取的文件 "/"表示所有)

这个robots文件表示禁止所有搜索引擎的抓取。

了解这些robots知识后,再来看本站的robts文件如何书写?本站采用zb程序,笔者认为需要禁止的页面有两个search.asp和view.asp,search页面没有实质内容,view页面主要用于后台查看文章,为了防止搜索引擎判定页面重复,因此这里也需要禁止。因此珠海seo的robots.txt文件内容为

User-agent: *

Disallow: /search.asp

Disallow: /view.asp

在robots.txt中也可以指明网站地图的位置,指令是Sitemap: <sitemap_location>

笔者的博客很简单,robots.txt的文件也很简短。如果遇到比较复杂的设置,大家可以参看百度,CNN等大型网站的robots设置。


相关文章

网站优化过度的处理

网站优化过度的处理

这几天发现博客有被惩罚的迹象,似乎是优化过度,冷静下来想了一下可能引起的原因。因为我平时比较忙,并不能每天都去照看网站,所以网站更新频率比较低,要查找优化过度的原因也较容易。相信自己是找到了症结所在,...

搜索引擎未来发展趋势

搜索引擎未来发展趋势

搜索引擎走过的路,还有即将要走的路第一代:分类目录时代第二代:文本检索时代第三代:整合分析时代第四代:用户中心时代第五代:生活生态圈搜索时代搜索引擎正处在第四代进程,互联网在经历了web2.0的洗礼后...

SEO问答三:外链是什么,如何建设网站外链

SEO问答三:外链是什么,如何建设网站外链

外链是什么?外链就是指从别的网站导入到自己网站的链接,导入链接对于网站优化来说是非常重要的一个过程。是别人单向链接你的网站,而你的网站本身没有对方的链接的。长久以来,外链都是决定网站权重值、网站关键词...

SEO如何赚钱——致刚步入SEO行业的SEOer们

SEO如何赚钱——致刚步入SEO行业的SEOer们

我的SEO之路,在珠海,十余年的SEO工作经历,从简单的的搜索规则,到如何应对频繁更新的SEO算法,从懵b到熟练运用,这期间的过程,花了多少时间,熬了多少个夜晚,个中辛酸相信做SEO的同行们都能想像。...

个人博客如何做seo优化

个人博客如何做seo优化

早期人们一般喜欢借助于公共博客作产品推广,SEM营销。不过目前由于建站越来越简单,成本越来越低,很多人都逐渐放弃了公共博客的优化,而采取独立建站的方式来培养自己的个性博客。那么放弃了公共博客的高权重,...

珠海seo的三个发展级别

seo一度成为互联网行业很火的一词,然而身在珠海的我们似乎离这片硝烟战火还很远。珠海seo行业一直保持着不温不火的局势,年轻的我们,年轻的SEOer们应该时刻保持着积极警惕的头脑,为即将来临的暴风雨做...

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。