哈斯日志
纪录我们在网路上奔波的历程!
  • »新帖子
  • AI搜索引擎的兴起:挑战与机遇
  • 系统3:扩展和增强人类决策能力的关键
  • 决策增强与智能知识管理:人脑的第三个系统
  • 知识管理的算法
  • 信息知识管理技能
  • 碎片化阅读、海量信息时代的轻量级知识管理
  • 俞军和他的产品经理课
  • 为什么我们都对搜索不满意却又无可奈何
  • 搜索产品市场机会探讨:头条不做搜索做什么
  • 搜索产品市场机会探讨

  • Reward hasiblog
    webpage的几个统计数字
    星期二, 七月 13, 2010
    Google的工程师 Sreeram Ramachandran通过高流量站点和随机抽样站点做了一些网页分析。由于top和随机并没有出现太大不同,所以以随机为准记录一些数据:

    网页平均页面大小是320KB(包含嵌入的脚本、图片、CSS);
    每个页面平均会引用43.91个资源;统计GETs次数为44.56(加上了重定向);
    一个页面平均占有7.01个唯一主机名;
    也就是说,平均每个独立主机上有6.26资源;
    80%的网页里包含10个或以上的同一主机里的资源;
    TOP站点如果能将同一主机上的脚本和css样式表合并为一个文件,会减少8次http请求;
    每个页面Stylesheet的加载需要18.72KB带宽;
    每张网页里包含的图片数量是29.39个,加在一起有205.99KB带宽;
    页面访问请求小于10秒的仅占10%,超过86%的页面访问请求都在90秒。

    针对网页开发者Google建议:启用Gzip压缩页面,使用HTTP缓存,优化JavaScript代码,合并脚本和CSS,来提升网站访问的速度,减少带宽占用。

    想起03年的时候做过一个分析,当时扒拉新浪首页page 73k,一半羡慕一半酸地骂,新浪真tmd有钱呀。现在新浪的首页530多k,冏。

    标签: , ,

    阅读《webpage的几个统计数字》更多内容...
    This Written at 七月 13, 2010 by loverty.   ,