记得以前有一个100k原则和一个几秒原则(具体几秒忘了),就是说一个网页包括图片的总大小不能超过100k,总加载时间不能超过几秒,否则用户就会认为网站坏了关掉不看了。
现在的网页,搞前端工程化,一大堆不知道多复杂的前端库打一个大包扔给浏览器执行,这个js包可能就有数MB甚至数十MB,这还不算页面上各种图片字体***,还有加载之后调用api才回来的各种数据、数据指向的图片***... 讲真,就那个几秒原则,百兆带宽的网络都…。
上一篇 : 普通人与亿万富翁之间的差距是什么?
下一篇 : CPU 为什么很少会坏?
为什么 electron 不做成独立的 runtime?...
CPU 为什么很少会坏?...
伊朗距离以色列上千公里,发射的导弹靠什么来导航定位呢?美国的GPS不会让他们用的。?...
有一个女儿是种怎样的体验?...