解说:建立符合搜索抓取习惯的网站

最近,在百度站长学院LEE发布了一篇有关《建立符合搜索抓取习惯的网站》,对于这篇文章,我看了一遍又一遍,写的非常实在,非常符合现在网络实情。在伊利诺SEO研究中心,我就发表下个人对此文章的看法,希望能给各位SEOer带来一些不一样的理解。对于刚接触SEO的朋友们更要好好的看看这篇文章,当然,也可以去看看我以前写的一篇:对SEO新手学SEO的一点思考与意见

下面是有关这篇文章的内容:

编者按:前两周简要地给大家介绍了搜索抓取系统工作原理,根据该工作原理今天简要介绍一下如何建立网站是符合搜索引擎抓取系统习惯的。

1、简单明了的网站结构

Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性。

(1)树型结构最优的结构即“首页—频道—详情页”;

(2)扁平首页到详情页的层次尽量少,既对抓取友好又可以很好的传递权重。

(3)网状保证每个页面都至少有一个文本链接指向,可以使网站尽可能全面的被抓取收录,内链建设同样对排序能够产生积极作用。

(4)导航为每个页面加一个导航方便用户知晓所在路径。

(5)子域与目录的选择相信有大批的站长对此有疑问,在我们看来,当内容较少并且内容相关度较高时建议以目录形式来实现,有利于权重的继承与收敛;当内容量较多并且与主站相关度略差时建议再以子域的形式来实现。

解说:1.“尽量保证spider的可读性”,可以看出可读性不仅是对用户而言,也要对spider而言。2.这里面介绍了三种网站结构:树型结构、扁平结构和网状结构。总体来说就是减少URL层次,利于权重传递。3.导航优化,在这里,单独把导航拿出来讲,意义重大。这里导航,我个人觉得只要是讲“面包屑导航”,所以对于做SEO优化,面包屑导航一定要有,并且要在明显的位置。4.对于子域名与目录的选择,个人更倾向选择目录,这样会使域名权重更加集中,这样排名会越来越好。

2、简洁美观的url规则

(1)唯一性网站中同一内容页只与唯一一个url相对应,过多形式的url将分散该页面的权重,并且目标url在系统中有被滤重的风险;

(2)简洁性动态参数尽量少,保证url尽量短;

(3)美观性使得用户及机器能够通过url即可判断出页面内容的主旨;

我们推荐如下形式的url:url尽量短且易读使得用户能够快速理解,例如使用拼音作为目录名称;同一内容在系统中只产生唯一的url与之对应,去掉无意义的参数;如果无法保证url的唯一性,尽量使不同形式的url301到目标url;防止用户输错的备用域名301至主域名。

解说:这里面主要说URL要尽量短,URL能让机器或用户直观的判断该页面的内容,这样也说明URL里面最好是中文全拼,这样用户更容易了解。在后面提到的URL301的时候,提到了“防止用户输错的备用域名301至主域名”,从这里,也就是说URL做301的时候最好不要直接跳到首页。

3、其他注意事项

(1)不要忽略倒霉的robots文件,默认情况下部分系统robots是封禁搜索引擎抓取的,当网站建立后及时查看并书写合适的robots文件,网站日常维护过程中也要注意定期检查;

(2)建立网站sitemap文件、死链文件,并及时通过百度站长平台进行提交;

(3)部分电商网站存在地域跳转问题,有货无货建议统一做成一个页面,在页面中标识有无货即可,不要此地区无货即返回一个无效页面,由于spider出口的有限性将造成正常页面无法收录。

(4)合理利用站长平台提供的robots、sitemap、索引量、抓取压力、死链提交、网站改版等工具。

解说:在这里,主要提到了robots文件,合理的利用也会起到意想不到的效果。sitemap文件是建站必备。在这里最受关注的还是第三点,有关网站存在地域跳转问题,也就是常见的ip自动判断,在跳转到想对于的页面,个人认为,这样虽然很方便,但也会有出错的情况存在,最好还是让用户选择比较好。

总体,来说这次LEE发布的“建立符合搜索抓取习惯的网站”,给我们各位站长起到良好的指引作用,这也让我们需要更多的时间来对SEO思考下,如果大家对此,还有什么好的意见或疑问,都可以在下面留言。

如果你觉得此文章能够帮您解决问题,您可以点击右侧百度分享,让您的更多好朋友能够学到更多有关SEO知识的技巧。

作者:SEOiit@seo顾问 上海seo顾问修订 2013-09-16

SEOiit(企业seo顾问),专门研究百度seo(搜索引擎优化)技术,让更多喜欢seo的朋友,能从中学习有关seo知识,理解搜索引擎优化真谛。

本文伊利诺SEO研究中心版权所有,未经批准转载必究。

对此文章有什么疑问,可以直接在下面发表评论,如还有其他有关SEO疑问,可以去SEO问答里面发布你的问题。

微信关注

喜欢就分享给你的朋友:

共有 4 条评论

  1. 苁頭閞

    不错来支持下啦![/可爱]

  2. 泰州SEO

    丰富详细,wordpress好像不自带robots,需要自己添加

  3. seoiit

    robots.txt这个文件是我们自己写,是由我们个人意愿,是否需要搜索引擎抓取某个页面,如果不需要你可以直接屏蔽该页面。
    现在开源程序都会自带该文件,但一般我都建议根据自己实际情况进行更改。

  4. 碎钉足球鞋

    部分系统robots是封禁搜索引擎抓取的

Top