标签:
本文将围绕我半年来在移动前端工程化做的一些工作做的总结,主要从 localstorage缓存和版本号管理 , 模块化 , 静态资源渲染方式 三个方面总结手机百度前端一年内沉淀的解决方案,希望对大家移动开发有所帮助。
可能因为之前项目节奏紧,人力不足原因,一部分phper承担了前端的工作,于是暴漏了一些问题。
从第一次在厂子写代码开始,就被前辈告诉移动页面,所以的静态资源都要内嵌,即写在script
和style
内,这样的好处是,网络情况不好的时候,减少http请求。因为2G等网络不稳定的情况下,多开一个http请求,对手机资源消耗是巨大的,比如我们在手机信号不好的地方,访问网络,耗电量会急剧增高。
但是随着3G,甚至4G的普及,实际统计显示,手机百度上2G用户不到30%,所以上面提到的这种一刀切
的方案是不妥的。
第二个问题是没有规范和模块化的问题。大家写码都是 意识流 ,除了都是用zepto.js
之外,没有沉淀下模块。碰到以前写过的代码,都是ctrl+c
+ ctrl+v
。这种粗放的方式,虽然可以暂时解决问题,但是当出现之前的一段代码不能满足需求的时候(比如新版app发布,之前的代码需要做兼容和升级),需要遍历所有的代码,挨个修改,麻烦!
第三个问题是前端角色问题,现在组内的开发是前后端分离的,使用smarty模板,因为产品是hybridAPP,所以较传统前端,增加了客户端RD的联调成本。前端几乎都是在联调和等待的状态,跟后端联调smarty数据接口和客户端联调js接口。有时候必须要等接口出来联调通过了之后,才能继续写码,造成了人力的浪费。如何解放前端人力,解决开发联调耦合的问题迫在眉睫。
FIS 是厂子用的一套前端集成解决方案,从开发、调试到打包上线各个环节都覆盖了。用成龙大哥的话就是:“抱着试一试的心态,后来发现很黑很亮很柔。。。不管自己用,还推荐给其他团队使用。”
Fex那边很多文章在说FIS,我自己也写过一篇《FIS和FISP的使用心得》,所以这里就不赘余,直接重点说下我基于FIS做的一些解决方案。
第一部分提到的高度耦合的工作流程,分别使用fis本地联调和chrome扩展来切断phper、crd跟fe的联调线路,达到提前自测,提前跑通整个流程。
FIS的本地调试功能可以用于解决phper和FEer的问题,分别有模拟smarty模板数据,模拟Ajax接口等功能。我们将rewrite规则和联调的模拟数据,分别写在了server.conf
和test文件夹
下
关于FIS的本地联调工作,就不多说了,FIS的官网文档有详细的说明
为了解决客户端注入js接口的方法,我们通过chrome扩展来实现了。通过chrome的content script方式,在页面渲染之前提前注入模拟webview的js,这样页面在下载渲染的时候在调用js接口就不会报错。
除了模拟webview接口之外,还将手机百度APP开发中常用的工具,和调试功能都集成到这个chrome扩展中。总体的效果如下图:
chrome扩展的开发过程中,遇见了很多困难,最后通过查资料一一解决了,整个工具开发就用了一个周末的时间,之后是零零碎碎的需求。因为更新比较频繁,还引入了自动检测更新的功能。
因为上面说的原因,页面用到的静态资源都是嵌入到页面中,这种渲染的方式我们叫做inline模式。
inline模式每次都下发全量代码的方式的确蛋疼,影响页面速度。不难想到后来大家都用了localstorage来缓存inline的代码,这种渲染方式可以叫:localstorage+inline
的方式。
手机上的 webview 对 html5 的 localstorage做了不错的支持,经过我们抽样统计,手机百度的搜索结果页面用户中,大约有76%支持localstorage。嗯,做localstorage缓存。
现在有很多localstorage的解决方案,是每次都下发一个版本号信息的config文件,页面加载完毕后,拿着这个config文件跟缓存的localstorage文件校验版本号,发现有有更新,则二次拉取新的内容,再缓存新内容和新版本号到localstorage。
在移动上,我们想避免这次二次拉取,于是我们采用cookie的方式来存储版本号信息,这样一次访问,http请求头会将cookie带到后端,后端直接判断版本号,并且下发代码。
具体方案如下:
当然,这种解决方案相对简单,相信很多移动前端团队也在使用,也会有人说:“我们都用外链。” 前面说了,我们产品网络比较复杂,只能为了2G用户做了妥协
上线之后,因为页面内嵌的js和css都缓存到localstorage,页面大小变小了,的确用户访问速度有了很大的提高。嗯,看上去很好~
但是,这又是一个 一刀切 的方案:
现在也许部分童鞋就想到了,为啥不多存几个版本号cookie,那样不就可以多缓存一些代码吗?
cookie多了,http请求头会变大,http请求头太大,会对速度产生很大影响,当cookie总量超过800字节,速度会陡升,加上我们用的域名很多兄弟团队都在使用,如果放开口子任其发展,最后一定会一发不可收拾。
PS:年前参与一个速度优化项目,其中一个优化方式就是减少cookie,减少请求头中的cookie,在慢速网络的速度提升有明显提高!
ok,继续探索……
上面的localstorage版本号解决方案,是将md5值存在一个cookie,一个md5值32位,即使使用一半也16位,加上cookie的key,怎么也要20个字节以上,我们能不能利用20~100个字节,尽量缓存更多的缓存文件版本号信息呢?
于是我们开始了localstorage版本号细化的工作。
这样做了之后,就是用脚本做缓存文件自动更新版本号了,开始想到的是通过svn hook的方式,当有新的ci时,计算md5值,写入一个版本号config文件。上线时比较线上config和svn中的config,如果不一样就升版本号。但是每次ci都做一次的方式又多此一举、略显蛋疼,最终的方案是在上线脚本中做了一些工作,没有使用svn hook:
上面的解决方案还是不够完美,总感觉存的东西还是少,所以又做了一个 多维度cookie版本方案 。
我们把cookie看成可以两个维度来存储: 域名 和 路径 。
域名A.baidu.com下,有三个产品:新闻、视频和小说,分别放在三个path:
那么新闻、视频和小说,各自有各自的通用代码,比如:通用样式,通用js组件。这样我们在设置cookie的时候指定相应的path,则可以实现多维度缓存
为了实现localstorage的缓存,我们增加了FISLocalstorage
类来处理cookie,下发缓存代码,将FIS扩展smarty的 <%html%>
标签进行了修改,增加了localstorage
属性,即下面代码就可以将页面开启缓存:
<%html localstorage="true"%>
//something~
<%/html%>
为了解决重复代码的问题,我们开始结合FIS来做模块化,像seajs、requirejs这些CMD、AMD框架,是后加载的,即用什么就拉取什么,属于异步模块。js为了实现异步模块,而大量的代码在处理模块依赖关系。在移动上,我们不希望这样,我们希望在后端维护模块的依赖关系,当我require一个模块的时候,会按照依赖关系,依次输出。
我写了一个Bdbox的AMD规范的模块化基础库,然后在FIS编译时,包裹AMD的define
外层,并且可以生成一张加载资源表,当使用<%widget%>
、<%require%>
和<%script%>标签内使用require
这些smarty扩展标签时,会通过php来动态维护模块依赖。
关于FIS的模块化和静态资源管理,厂子FIS开发团队同学有一篇文章《如何高效地管理网站静态资源》
现在页面要引入 moduleA
模块,而 moduleA
依赖于 moduleB
和 moduleC
,moduleB
和 moduleC
又有自己的依赖模块,如果不先输出 moduleB
和 moduleC
的依赖模块,直接执行 moduleA
的 define
函数会报错的,因为 moduleA
模块依赖的moduleB
和 moduleC
还没有达到 ready
的状态。
有时候甚至更加复杂的依赖关系:
这时候通过《如何高效地管理网站静态资源》文章提到的,FIS编译后会得到的模块依赖关系表:map.json
,来做动态模块依赖管理。
通过修改fis编译脚本,将模块依赖文件内容放到map.json
中,当使用smarty扩展语法标签的时,php会自动读取map.json
,然后将依赖解析出来,提前将moduleA依赖的模块都在其 code>define
之前引入,所以下面的两种代码写法:
```smarty
<%require name="common:bdbox/moduleA"%>`
<%或者%>
<%script%>
var moduleA = require(‘common:bdbox/moduleA‘); <%/script%>
```
实际输出的html代码是:
<script>
define(‘common:bdbox/moduleB‘, function(){
//A依赖模块B
});
define(‘common:bdbox/moduleC‘, function(){
//A依赖模块C
});
define(‘common:bdbox/moduleA‘, function(){
//模块A
var C = require(‘common:bdbox/moduleC‘);
var B = require(‘common:bdbox/moduleA‘);
});
var moduleA = require(‘common:bdbox/moduleA‘);
</script>
对于不是模块的js或者css文件,如果使用了<%require%>
,则主动使用file_get_contents
来读取内容。
common:bdbox/moduleA
,common是命名空间,一个项目会由很多页面模块(此模块是产品template模块,不是前端模块)组成,通过命名空间可以快速定位对应的map.json, 而bdbox/moduleA
是实际的AMD模块名上面所有的关于静态资源管理的解决方案,都是围绕 一刀切 的方案在做优化,而没有利用http本身的cache,实际上:在3G、wifi甚至4G的环境中,http cache的方案,在易用性和兼容性上面要比localstorage+inline
内嵌静态资源的方式要好。
而且从手机百度真实的用户网络类型统计来说,3G+wifi已经达到75%以上,如果能结合wise团队提供的ip测速库和公司的CDN服务,会有一种更好的解决方案,进一步来说,如果可以根据网络类型和用户真实网络速度,自由选择在localstorage+inline
和CDN方案之间切换就更好了。于是我们做到了!一种新的渲染方式出现了:CDN+combo
。
再说这种渲染方式之前,先梳理下上面提到的一些名词:
一刀切
的优化版,将inline的公共静态资源利用html5 的localstorage缓存做本地存储好,继续那模块化说的moduleA模块依赖moduleB和moduleC来说,经过 tag模式 ,会输出下面的html:
<script src="http://xxx/bdbox/moduleC.js"></script>
<script src="http://xxx/bdbox/moduleB.js"></script>
<script src="http://xxx/bdbox/moduleA.js"></script>
<script>
var moduleA = require(‘common:bdbox/moduleA‘);
</script>
这样模块化的代码经常成了网页的瓶颈,因为模块化存在,造成了更多的外链!下面我们需要一个CDN+combo服务,来合并http请求。
因为smarty的扩展语法,结合之前生成的map.json
,我们实现了模块化依赖关系后端自动处理依赖,然后选择最合理的输出顺序。这时候我们不是直接输出对应的tag或者inline内容,而是将它合并到一个combo服务对应的URL,统一输出!
<script src="cdn-combo-server?file=bdbox/moduleC,bdbox/moduleB,bdbox/moduleA"></script>
如何根据用户网络环境智能切换渲染方式呢?我继续改造了smarty的<%html%>
标签,添加属性rendermode
,通过wise测速库和手机百度客户端传给我们的网络类型,选择不同的rendermode方式:
<%if ($slow_network || $nettype==‘2G‘) && $support_localstorage %>
<%html rendermode="inline" localstorage="true"%>
<%elseif $fast_network%>
<%html rendermode="combo"%>
<%else%>
<%html rendermode="inline"%>
<%/if%>
//……
<%/html%>
上面的方案,我们如果逐个页面去写代码,改方案,想想就蛋疼,所以我们拆分了父子模板,从框架本身来分,一个module对应一个父模板,其他子模板使用smarty的extends标签实现继承关系。
经过模板拆分后,子模板专注于做业务,父模板专注于做解决方案,而且也方便了抽样和统计。
试想一下,如果2015年,用户都用上了4G,那么我们需要将父模板的rendermode改成 rendermode="combo"
就可以全部切到 CDN+combo
的渲染方式上,这得减少了多少工作量啊:)
标签:
原文地址:http://www.cnblogs.com/wpbars/p/4271790.html