2013-09-16 639
百度站长平台lee9月12日撰文介绍了怎样的网站才是符合搜索抓取习惯的网站。站长们建站时主要应注意:1、简单明了的网站结构;2、简洁美观的url规则;还有robots文件、sitemap文件等相关因素亦不可忽略。
以下为百度站长平台lee发布全文《建立符合搜索抓取习惯的网站》:
编者按:前两周简要地给大家介绍了搜索抓取系统工作原理,根据该工作原理今天简要介绍一下如何建立网站是符合搜索引擎抓取系统习惯的。
1、简单明了的网站结构
Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性。
1)树型结构最优的结构即“首页—频道—详情页”;
2)扁平首页到详情页的层次尽量少,既对抓取友好又可以很好的传递权重。
3)网状保证每个页面都至少有一个文本链接指向,可以使网站尽可能全面的被抓取收录,内链建设同样对排序能够产生积极作用。
4)导航为每个页面加一个导航方便用户知晓所在路径。
5)子域与目录的选择相信有大批的站长对此有疑问,在我们看来,当内容较少并且内容相关度较高时建议以目录形式来实现,有利于权重的继承与收敛;当内容量较多并且与主站相关度略差时建议再以子域的形式来实现。
2、简洁美观的url规则
1)唯一性网站中同一内容页只与唯一一个url相对应,过多形式的url将分散该页面的权重,并且目标url在系统中有被滤重的风险;
2)简洁性动态参数尽量少,保证url尽量短;
3)美观性使得用户及机器能够通过url即可判断出页面内容的主旨;
我们推荐如下形式的url:url尽量短且易读使得用户能够快速理解,例如使用拼音作为目录名称;同一内容在系统中只产生唯一的url与之对应,去掉无意义的参数;如果无法保证url的唯一性,尽量使不同形式的url301到目标url;防止用户输错的备用域名301至主域名。
3、其他注意事项
1)不要忽略倒霉的robots文件,默认情况下部分系统robots是封禁搜索引擎抓取的,当网站建立后及时查看并书写合适的robots文件,网站日常维护过程中也要注意定期检查;
2)建立网站sitemap文件、死链文件,并及时通过百度站长平台进行提交;
3)部分电商网站存在地域跳转问题,有货无货建议统一做成一个页面,在页面中标识有无货即可,不要此地区无货即返回一个无效页面,由于spider出口的有限性将造成正常页面无法收录。
4)合理利用站长平台提供的robots、sitemap、索引量、抓取压力、死链提交、网站改版等工具。
三句话浓缩人生
生活百科 2024-05-20
纯净生活—招商臻和璟园
生活百科 2024-05-28
再别东南,无问西东
生活百科 2024-06-21
不负青春,不负梦想,热烈祝贺儿子上岸东南!
生活百科 2021-04-14
研路兜兜转转,兜兜转转研路
生活百科 2021-06-22
感恩吉大,不说再见!
生活百科 2021-09-16
不负青春,不负汗水,吉林大学,我来了!
生活百科 2017-07-20
一图看懂高考平行志愿
生活百科 2018-08-02
你好!江苏省海安高级中学!
生活百科 2014-07-01
究竟哪里才是孩子们的起跑线
生活百科 2021-05-01
软件v2rayN入门教程
电脑应用 2022-02-28
家庭常用电线平方数与功率对照表
生活百科 2020-10-30
可孚红外线体温计KF-HW-001说明书
生活百科 2020-06-28
几款可以检测电脑配置的软件
电脑应用 2023-02-07
PE装机工具推荐—FirPE
资源中心 2019-12-08
热水器回水泵(循环泵)的安装图文教程
生活百科 2018-07-17
关于“菜鸟之家”网站
资源中心 2012-03-20
东南大学硕士研究生招生常用网址整理
生活百科 2025-03-08
西蒙电气开关接线详解
生活百科 2019-02-22
心电监护仪怎么看数据
生活百科 2023-08-22
扫码二维码
获取最新动态
