橘粉妆容清爽甜美,让女生散发温暖魅力

导读: 冬天暗沉的阳光会夺去女生不少的光彩,美丽的妆容变得更加重要,收起你的素颜妆,在清冷的天气中画上一款美丽的妆容,让你的魅力在人群中更加亮眼。温柔橘粉的恬淡不

丝瓜网小编提示,记得把"橘粉妆容清爽甜美,让女生散发温暖魅力"分享给大家!

春晚红包的挑战,正是提前练兵的好时机。这场看不见的云计算战争,推动了中国互联网技术整体演进。

简单说,春晚红包带来的技术难点基本是这几个:不可预见的峰值流量瞬间涌入,红包系统架构复杂带来了协调成本,春节返乡导致地区间流量资源分配要临时调整。

1. 不可预见的峰值流量瞬间涌入

淘宝春晚项目技术负责人此前在 2018 年春晚淘宝多次崩溃时曾出面解释其中的原因——我们真的对春晚的力量一无所知。

以 2018 年春晚为例,当时淘宝是那年春晚的主角,主要策略是绑亲情账号、发红包。技术团队很早就预估到了登录系统压力。当时基于一些历史数据推导出了极端情况,最终决定以 2017 年双十一的容量为基础,对登录数扩容 3 倍。

结果,春晚当晚登录的实际峰值超过了 2017 年双十一的 15 倍,尤其新用户的瞬时登录更是完全超出预料。

可以说,互联网公司上春晚,等于是往下沉市场扔了一颗炸弹——这一次据百度技术部门统计,春晚期间登录值可达到日常用户登录峰值的 2500 倍。

大量用户在同一时间发、抢红包、点页面,瞬间产生每秒千万级,甚至亿级的请求,请求如果不加以疏导处理直接到达后台,会导致服务过载甚至崩溃。

为完成今年春晚的高并发流量考验,百度提前进行服务流量隔离、系统升级、专线新增以及服务器扩容等工作,完善流量峰值时段的体验,还进行了多轮全链路压力测试和多轮的方案预演。

今年春晚百度 APP 也的确相对平稳,没有出现崩溃的情况。

2. 红包系统架构复杂带来了协调成本

和淘宝注册、登陆系统还不一样,注册登陆一般只有一次响应,注册登陆之后响应就结束了。今年百度的红包系统更多是支付系统,支付系统的响应次数往往是多次的,而且表面上看,一个红包从发出到抢到时间不足一秒,但背后是在红包业务系统、交易支付系统、零钱账户系统这三个层级之间游走——它需要多方提前沟通测试。

因为一个红包如果是通过银行卡发出,必须要先向银行提出申请,银行会进行扣款,扣款成功后,后台会通知支付系统,红包系统到这时才会把红包放出。在其他用户抢到红包后,又会以零钱形式进入用户账户中。

红包几秒钟现金出出进进,都需要耗费服务器资源,由于资金频繁进出银行,部分银行的技术能力又非常有限,百度也需要和银行前期协调,进行承压测试。

百度工程效率部对用户刚登录 APP 时的内容加载进行了优化。后台系统还会自动检测流量变化,快速计算资源,智能调度早已准备好的冗余资源,增加系统容量,合理分配带宽。这些措施可以让数亿级用户同步登录 APP,正常加载服务,不出现白屏。

3. 春节返乡导致地区间流量资源分配要临时调整

抢红包的指令是从全国不同地区下达的,服务器还需要根据不同地区进行响应。

百度系统部一位负责人就提到,因为回家过年,网民会从一线城市下沉到三四线城市。这使得流量结构发生改变,DC 数据中心和 CDN 带宽不得不进行调整。

阿里云 2017 年也曾遇到过这个问题,当时的解决方案还相对简单。蚂蚁金服技术专家天镜飞在 2017 年的一场活动中就曾提到阿里是如何应对流量结构变化这个问题的:

华东 1 机房和华南机房分别承担 40% 和 60% 的流量,并且它们都是非云的机器。在新春红包业务上,支付宝将 60% 的流量切到华东 2 机房中,并且将其上云。

此外,在华南机房会部署 15% 的云机器。也就是说,新春红包业务中,75% 的机器是在云上运行的,在活动结束后,流量又会切出。

不过,百度吸取前人教训后,把这种应对策略进行了改进调整:提前规划好了不同地区的所需要的网络资源。通过智能调度系统,分钟感知不同地区资源紧张程度,并进行相对应的资源调度和补给。也就是说,流量资源调度分配更智能了。

在这个系统中,整个体系就像一个弹性容器,可以全自动自如扩容缩容。

云计算从 " 双十一时代 " 迈向 " 春晚时代 "

2014 年 -2019 年这 6 年间,BAT 应对春晚红包的技术一直处于进步之中。

从最早的懵懵懂懂、毫无认知,对技术难点预估不足,到后来每年都会提前做好准备,但依旧要靠熔断机制来限制流量。再到今天限制为辅,分布式、自动化、智能化为主,云计算技术不断在演进之中。

分布式:红包系统可适性强。高度灵活,能应对多种不同环境。某个部件发生突变,不会影响整个系统。在某些部件失效的情况下,仍然能够应对响应,抗风险能力高。

自动化:基于需求预期和流量模式进行自动合理规划,不需要太多人工干预,保持相对较低的运营成本。

弹性化:可弹性扩展的资源用量,在高峰期可以根据需求按需所取、弹性分配,系统如同弹簧一般可以根据用户抢红包的需求来自动分配资源。

百度使用这样的技术架构中,使得整个技术保障体系就像一个弹性容器,可以全自动自如扩容缩容。当遇到流量洪峰时,系统智能化调度,快速接入带宽资源,据用户任务的不同,匹配适应的容量。

凯文凯利在《失控》一书中曾提到蜂群的一个特征:

蜂群的能力不会因为其中几个成员的损失而丧失机能……必须从简单的局部控制中衍生出分布式控制,必须从已有运作良好的简单系统上衍生出复杂系统。

这段话拿来形容春晚红包这几年来的技术演进再恰当不过了。

在当年的双十一时代,互联网公司的云计算基础设施用来应付每年一度活动期的瞬时高峰流量,但毕竟运用电商的人还是有限的。在如今的春晚时代,流量有了数十倍的增长,互联网公司需要更庞大的云计算基础设施来应对。

正如我在《春晚红包宕机史 " 也是半部中国互联网技术进步史》中所说的:

春晚的流量规模,未来可能正是 5G 和物联网时代的 " 常规需求 "。提前排兵布阵,百利无一害。

要知道,2018 年全球有 70 亿台 IoT 设备,有机构预测到 2020 年全球将有 500 亿台设备同时连接网络,2023 年则是有 790 亿设备连接到物联网。5G 时代流量每小时所产生的数据高达数百 GB,预计将处理比 4G 多 1000 倍的数据。

如果说过去的云计算还停留在 " 双十一时代 "。BAT 历经的春晚红包战之后,云计算正在迈向 " 春晚时代 "。

# 专栏作家 #

吴俊宇,微信公众号 " 深几度 "。独立撰稿人,人人都是产品经理专栏作家。关注人工智能、移动互联网以及数码家电的产业融合。

本文原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

丝瓜网 crfgs.com