我们的业务在展开的过程中,前端渲染的模式主要经历了三个阶段:服务端渲染、前端渲染和目前的同构直出渲染方案。
服务端渲染的主要特点是前后端没有分离,前端写完页面样式和结构后,再将页面交给后端套数据,最后再一起联调。同时前端的发布也依赖于后端的同学;但是优点也很明显:页面渲染速度快,同时 seo 效果好。
为了解决前后端没有分离的问题,后来就出现了前端渲染的这种模式,路由选择和页面渲染,全部放在前端进行。前后端通过接口进行交互,各端可以更加专注自己的业务,发布时也是独立发布。但缺点是页面渲染慢,严重依赖 js 文件的加载速度,当 js 文件加载失败或者 cdn 出现波动时,页面会直接挂掉。我们之前大部分的业务都是前端渲染的模式,有部分的用户反馈页面 loading 时间长,页面渲染速度慢,尤其是在老旧的 android 机型上这个问题更加地明显。
node同构直出渲染方案
可以避免服务端渲染和前端渲染存在的缺点,同时前后端都是用 js 写的,能够实现数据、组件、工具方法等能实现前后端的共享。
首先来看下统计数据的结果,可以看到从前端渲染模式切换到 node 同构直出渲染模式后,整页的加载耗时从 3500ms 降低到了 2100 毫秒左右,整体的加载速度提高了将近 40%。
但这个数据也不是最终的数据,因为当时要赶着上线的时间,很多东西还没来及优化,在后续的优化完成后,可以看到整体的的加载耗时又下降到了 1600ms 左右,再次下降了 500ms 左右。
从 3500ms 降低到 1600ms,整整加快了 1900ms 的加载速度,整体提升了 54%。优化的手段在稍后也会讲解到。
在进行同构直出渲染方案,也对目前存在的技术,并结合自身的技术栈,对整体的架构进行梳理。
梳理出接下来存在的重点和难点:
针对我们项目初期的规划中,可能出现的问题一一进行解决,最终我们的项目也能够实现的差不离了,某些比较大的模块我可能需要单独拿出来写一篇文章进行总结。
使用 node 服务端同构指出渲染方案,最主要的是数据等结构能够实现前后端的同构共享
。
同构方面主要是实现:数据同构、状态同构、组件同构和路由同构等。
数据同构:对于相同的虚拟 dom 元素,在服务端使用 rendertonodestream 把渲染结果以“流“的形式塞给 response 对象,这样就不用等到 html 都渲染出来才能给浏览器端返回结果,“流”的作用就是有多少内容给多少内容,能够进一步改进了“第一次有意义的渲染时间”。同时,在浏览器端,使用 hydrate 把虚拟 dom 渲染为真实的 dom 元素。若浏览器端对比服务端渲染的组件数,若发生不一致的情况时,不再直接丢掉全部的内容,而是进行局部的渲染。因此在使用服务端的渲染过程中,要保证前后端组件数据的一致性。这里将服务端请求的数据,插入到 js 的全局变量中,随着 html 一起渲染到浏览器端(脱水);这是在浏览器端,就可以拿到脱水的数据来初始化组件,添加交互等等(注水)。
状态同构方面:我们这里使用mobx
为每个用户创建一个全局的状态管理,这样数据可以进行统一的管理,而不用组件之间衣岑层传递。
组件同构:编写的基础组件或其他组件可以在服务端和客户端都能使用,同时使用typeof window==='undefined'
或process.browser
来判断当前是客户端还是服务端,以此来屏蔽某端不支持的操作。
路由统一:客户端使用browserrouter
,服务端使用staticrouter
。
在同构的过程中,最开始时还没太理解这个概念,在编码阶段就遇到了这样的问题。例如我们有个小轮播,这个轮播是将数组打乱随机展示的,我将从服务端请求到的数据打乱后渲染到页面上,结果调试窗口中输出一条错误信息(我们这里用个样例数据来代替):
const list = ['勋章', '答题卡', '达人榜', '红包', '公告'];
在render()
中随机输出:
{ list.sort(() => (math.random() < 0.5 ? 1 : -1)).map(item => ( <p key={item}>{item}</p> )); }
结果在控制台输出了警告信息,同时最终展示出来的信息并不是打乱排序:
warning: text content did not match. server: "红包" client: "答题卡"
输出的警告信息是因为客户端发现当前与服务端的数据不一致后,客户端重新进行了渲染,并给出了警告信息。我们在渲染的时候才把数组打乱顺序,服务端是按照打乱顺序后的数据渲染的,但是传递给客户端的数据还是原始数据,造成了前后端数据不一致的问题。
如果真的想要随机排序,可以在获取服务端的数据后,直接先排好序,然后再渲染,这样服务端和客户端的数据就会保持一致。在 nextjs 中就是getinitialprops
中操作。
基于我们项目主要是在新闻客户端内运行的特点,我们要考虑多种数据请求的方式:服务端、浏览器端、新闻客户端内,是否跨域等特点,然后形成一个完整的统一的多终端数据请求体系。
fetch
,然后使用xmlhttprequest
发起接口请求。这里将多终端的数据进行封装,对外提供统一而稳定的调用方式,业务层无需关心当前的请求从哪个终端发起。
// 发起接口请求 // @params {string} url 请求的地址 // @params {object} opts 请求的参数 const request = (url: string, opts: any): promise<any> => {};
同时,我们也在请求接口的方法中添加上监控处理,如监控接口的请求量、耗时、失败率等信息,做到详细的信息记录,快速地进行定位和相应。
工程化是一个很大的概念,我们这里仅仅从几个小点上进行说明。
我们的项目目前都是部署在 skte 上,通过设置不同的环境变量来区分当前是测试环境、预发布环境和正式环境。
同时,因为我们的业务主要是在新闻客户端内访问的特点,很多的单元测试无法完全覆盖,只能进行部分的单元测试,确保基础功能的正常运作。
现在接入了完全自动化的 ci(持续集成)/cd(持续部署),基于 git 分支的方式进行发布构建,当开发者完成编码工作后,推送到 test/pre/master 分支后,进行单元测试的校验,通过后就会自动集成和部署。
缓存的优点自不必多说:
但同时增加缓存,整体项目的复杂度也会增加,我们需要评估下项目是否适合缓存、适用于哪种缓存机制、缓存失效时如何处理。
缓存的机制主要有:
etag
值,若 etag 值相同则使用缓存,否则请求服务器的数据,这就会造成不同进程之间缓存的数据可能不一样,etag 多次失效的问题。内存缓存尤其要注意内存泄露的问题不同的项目或者不同的页面采用不同的缓存策略。
在对接口的数据缓存时,尤其要注意的是接口正常返回时,才缓存数据,否则交给业务层处理。
同时,在使用缓存的过程中,还注意缓存失效的问题。
缓存失效 | 含义 | 解决方案 |
---|---|---|
缓存雪崩 | 所有的缓存同一时间失效 | 设置随机的缓存时间 |
缓存穿透 | 缓存中不存在,数据库中也不存在 | 缓存中设置一个空值,且缓存时间较短 |
随机 key 请求 | 恶意地使用随机 key 请求,导致无法命中缓存 | 布隆过滤器,未在过滤器中的数据直接拦截 |
为缓存的 key | 缓存中没有但数据库中有 | 请求成功后,缓存数据,并将数据返回 |
详细的日志记录能够让我们很方便地了解项目效果和排查问题。前后端的表现形式不一样,我们也区分前后端进行日志的上报。
前端主要上报页面的性能信息,服务端主要上报程序的异常、cpu 和内存的使用状况等。
在前端方面,我们可以使用window.performance
经过简单的计算得到一些网页的性能数据:
同时我们也需要捕获前端代码中的一些报错:
window.addeventlistener( 'error', (message, filename, lineno, colno, stackerror) => { console.log(message); // 错误信息的描述 console.log(filename); // 错误所在的文件 console.log(lineno); // 错误所在的行号 console.log(colno); // 错误所在的列号 console.log(stackerror); // 错误的堆栈信息 } );
当 promise 被 reject 且没有 reject 处理器的时候,会触发 unhandledrejection 事件;这可能发生在 window 下,但也可能发生在 worker 中。 这对于调试回退错误处理非常有用。
window.addeventlistener('unhandledrejection', event => { console.log(event); });
这里可以对fetch
和xmlhttprequest
进行重新的封装,既不影响正常的业务逻辑,也可以进行错误上报。
xmlhttprequest 的封装:
const xmlhttp = window.xmlhttprequest; const _oldsend = xmlhttp.prototype.send; xmlhttp.prototype.send = function() { if (this['addeventlistener']) { this['addeventlistener']('error', _handleevent); this['addeventlistener']('load', _handleevent); this['addeventlistener']('abort', _handleevent); } else { var _oldstatechange = this['onreadystatechange']; this['onreadystatechange'] = function(event) { if (this.readystate === 4) { _handleevent(event); } _oldstatechange && _oldstatechange.apply(this, arguments); }; } return _oldsend.apply(this, arguments); };
fetch 的封装:
const oldfetch = window.fetch; window.fetch = function() { return _oldfetch .apply(this, arguments) .then(res => { if (!res.ok) { // true if status is http 2xx // 上报错误 } return res; }) .catch(error => { // 上报错误 throw error; }); };
服务端的日志根据严重程度,主要可以分为以下的几个类别:
我们针对可能出现的异常程度进行不同类别(level)的上报,这里我们采用了两种记录策略,分别使用网络日志boss
和本地日志winston
分别进行记录。boss 日志里记录较为简单的信息,方便通过浏览器进行快速地排查;winston 记录详细的本地日志,当通过简单的日志信息无法定位时,则使用更为详细的本地日志进行排查。
使用winston
进行服务端日志的上报,按照日期进行分类,上报的主要信息有:当前时间、服务器、进程 id、消息、堆栈追踪等:
// https://github.com/winstonjs/winston logger = createlogger({ level: 'info', format: combine(label({ label: 'right meow!' }), timestamp(), myformat), // winston.format.json(), defaultmeta: { service: 'user-service' }, transports: [ new transports.file({ filename: `/data/log/question/answer.error.${date.getfullyear()}-${date.getmonth() + 1}-${date.getdate()}.log`, level: 'error' }) ] });
同时 nodejs 服务本身的监控机制也充分利用上,例如包括 http 状态码,内存占用(process.memoryusage)等。
在日志的统计过程中,加入告警机制,当告警数量或者数值超过一定的范围,则向开发者的微信和邮箱发出告警信息和设备。例如其中的一条告警规则是:当页面的加载时间小于 10ms 或者超过 6000ms 则发出告警信息,小于 10ms 时说明页面挂掉了,大于 6000ms 说明服务器可能出现异常,导致资源加载时间过长。
同时也要及时地关注用户反馈平台,若产生了一个用户的反馈,必然是有更多的用户存在这样的问题。
日志记录和告警等都是事故发生后才产生的行为,我们应当如何保证在我们看到日志信息并修复问题之前的这段时间里,服务至少能够还是是正常运行的,而不是白屏或者 5xx 等信息。这里我们要做的就是线上服务的容灾处理。
可能存在的问题 | 容灾措施 |
---|---|
后端接口异常 | 使用默认数据,并及时告知接口方 |
瞬时流量高、cpu 负载率过高 | 自动扩容,并告警 |
node 服务异常,如 4xx,5xx 等 | nginx 自动将服务转向静态页面,并告警转发的次数 |
静态资源导致的样式异常 | 将首屏或者首页的样式嵌入到页面中 |
容灾处理与日志信息的记录,保障我们项目能够正常地在线上运行。
nodejs 作为一种单线程、单进程运行的程序,如果只是简单的使用的话(node app.js
),存在着如下一些问题:
所幸,nodejs 为我们提供了cluster
模块,什么是:
简单的说,
其中:
cluster 模块可以创建共享服务器端口的子进程。这里举一个著名的官方案例:
const cluster = require('cluster'); const http = require('http'); const os = require('os'); if (cluster.ismaster) { // 当前为主进程 console.log(`主进程 ${process.pid} 正在运行`); // 启动子进程 for (let i = 0, len = os.cpus().length; i < len; i++) { cluster.fork(); } cluster.on('exit', worker => { console.log(`子进程 ${worker.process.pid} 已退出`); }); } else { http.createserver((req, res) => { res.writehead(200); res.end('hello world\n'); }).listen(8000); console.log(`子进程 ${process.pid} 已启动`); }
当有进程退出时,则会触发exit
事件,例如我们 kill 掉 69030 的进程时:
> kill -9 69030 子进程 69030 已退出
我们尝试 kill 掉某个进程,发现子进程是不会自动重新创建的,这里我可以修改下exit
事件,当触发这个事件后重新创建一个子进程:
cluster.on('exit', worker => { console.log(`子进程 ${worker.process.pid} 已退出`); // log日志记录 cluster.fork(); });
主进程与子进程之间的通信:每个进程之间是相互独立的,可是每个进程都可以与主进程进行通信。这样就能把很多需要每个子进程都需要处理的问题,放到主进程里处理,例如日志记录、缓存等。我们在 3.4 缓存小节中也有讲“内存缓存无法达到进程之间的共享”,可是我们可以把缓存提高到主进程中进行缓存。
if (cluster.ismaster) { object.values(cluster.workers).foreach(worker => { // 向所有的进程都发布一条消息 worker.send({ timestamp: date.now() }); // 接收当前worker发送的消息 worker.on('message', msg => { console.log( `主进程接收到 ${worker.process.pid} 的消息:` + json.stringify(msg) ); }); }); } else { process.on('message', msg => { console.log(`子进程 ${process.pid} 获取信息:${json.stringify(msg)}`); process.send({ timestamp: msg.timestamp, random: math.random() }); }); }
不过若线上生产环境使用的话,我们需要给这套代码添加很多的逻辑。这里可以使用pm2
来维护我们的 node 项目,同时 pm2 也能启用 cluster 模式。
pm2 的官网是,github 是https://github.com/unitech/pm2。主要特点有:
- 原生的集群化支持(使用 node cluster 集群模块)
- 记录应用重启的次数和时间
- 后台 daemon 模式运行
- 0 秒停机重载,非常适合程序升级
- 停止不稳定的进程(避免无限循环)
- 控制台监控
- 实时集中 log 处理
- 强健的 api,包含远程控制和实时的接口 api ( nodejs 模块,允许和 pm2 进程管理器交互 )
- 退出时自动杀死进程
- 内置支持开机启动(支持众多 linux 发行版和 macos)
nodejs 服务的工作都可以托管给 pm2 处理。
pm2 以当前最大的 cpu 数量启动 cluster 模式:
pm2 start server.js -i max
不过我们的项目使用配置文件来启动的,ecosystem.config.js:
module.exports = { apps: [ { name: 'question', script: 'server.js', instances: 'max', exec_mode: 'cluster', autorestart: true, watch: false, max_memory_restart: '1g', env_test: { next_app_env: 'testing' }, env_pre: { next_app_env: 'pre' }, env: { next_app_env: 'production' } } ] };
然后启动即可:
pm2 start ecosystem.config.js
关于使用 node 来编写 cluster 模式,还是用 pm2 来启动 cluster 模式,还是要看项目的需要。使用 node 编写时,自己可以控制各个进程之间的通信,让每个进程做自己的事情;而 pm2 来启动的话,在整体健壮性上更好一些。
我们应当首先保证首页和首屏的加载,一个是首屏需要的样式直接嵌入到页面中加载,再一个是首屏和次屏的数据分开加载。我们在首页的数据主要是瀑布流的方式加载,而瀑布流是需要 js 计算的,因此这里我们先加载几条数据,保证首屏是有数据的,然后接下来的数据使用 js 计算应当放在哪个位置。
再一个是使用 service worker 来本地缓存 css 和 js 资源,更具体的使用,可以访问。
这里我们使用 intersectionobserver 封装了通用的组件懒加载方案,因为在使用 scroll 事件中,我们可能还需要手动节流和防抖动,同时,因为图片加载的快慢,导致需要多次获取元素的 offsettop 值。而 intersectionobserver 就能完美地避免这些问题,同时,我们也能看到,这一属性在高版本浏览器中也得到了支持,在低版本浏览器中,我可以使用 polyfill 的方式进行兼容处理处理;
我将这个功能封装为一个组件,对外提供几个监听方法,将需要懒加载的组件或者资源作为子组件,进行包裹,同时,我们这里也建议建议使用者,使用默认的骨架屏撑起元素未渲染时的页面。因为在直接使用懒加载渲染时,假如不使用骨架屏的话,用户是先看到白屏,然后突然渲染内容,页面给用户一种强烈抖动的感觉。真实组件在最后真正展示出来时,需要一定的时间和空间,时间是从资源加载到渲染完毕需要时间;而空间指的是页面布局中需要给真实组件留出一定的问题,一个是为了避免页面,再一个使用骨架屏后:
这里实现的通用懒加载组件,对外提供了几个回调方法:oninpage, onoutpage, oninited 等。
这个通用的组件懒加载方案可以使用在如下的场景下:
当然,长列表无限滚动的优先,不仅限于使用可见性代替滚动事件,也还有其他的优化手段。
虽然啰里啰嗦了一大堆,但也这是我们同构直出渲染方案的开始,我们还有很长的路要走。应用型技术的难点不是在克服技术问题,而是在于能够不断的结合自身的产品体验,发现其中存在的体验问题,不断使用更好的技术方案去优化用户的体验,为整个产品发展添砖加瓦。
蚊子的前端博客链接: 。
欢迎关注我的微信公众号: wenzichel
如对本文有疑问, 点击进行留言回复!!
解决vue 项目使用webpack打包后,直接打开dist文件夹下的页面空白的问题
vscode写vue代码时常用格式化设置,解决格式化函数名后空格消失问题等...
网友评论