互联网天猫双11订单峰值58.3万笔/秒,消费狂欢背后隐藏了哪些技术?


编者按:本文来自微信公众号“机器之心”(ID:almosthuman2014) , 作者:徐丹 , 36氪经授权发布 。
11 月 11 日零点刚过 26 秒 , 天猫双十一订单峰值产生 , 58.3 万笔 / 秒 。
11 月 1 日零点至 11 月 11 日零点 30 分 , 今年整个双十一成交额破 3723 亿 , 实时成交额超过 1 亿元的品牌超过 300 个 。
【互联网天猫双11订单峰值58.3万笔/秒,消费狂欢背后隐藏了哪些技术?】这是今年阿里交出的双十一成绩单 。 不断增长的订单数据背后 , 今年的消费体验也出现了很多变化 , 付款不再卡顿、快递速度极快…
盛大的消费狂欢过去后 , 来盘点一下 , 阿里用什么技术撑住了双十一?
一、阿里双十一技术发展史 , 从去 IOE 说起
从最底层来说 , 支撑双十一庞大订单销量的技术都来自 10 年前那场基于「云」的宏大叙事 。
2010 年前后 , 企业必备的 IT 基础设施是「IOE」:IBM 的小型机、Oracle 数据库及 EMC 存储设备 , 虽然性能稳定 , 但是成本非常高 , 且部署麻烦 。
「为了准备一次秒杀营销 , 从社会采购到安装部署至少需要半年的时间 , 但半年后这项业务几乎已经不存在了 。 」阿里巴巴研发院业务发展专家孙黎明去年接受财新采访时表示 。
阿里电商业务的发展在倒逼技术变革 , 于是阿里开始了「去 IOE」这个节点性的变革 。 转而用 PCServer、MySql 开源数据库以及自主研发的系统来替代 , 就这样艰难的开始了当时谁都说不清楚的「云计算」的征程 。
去 IOE 后 , 阿里实际上便发展起了一种用互联网技术去支撑海量交易和支付的架构和基础技术 , 此后每秒钟数十万笔的交易支付从不可能变成可能 。
但互联网的基础计算架构不只是数据库体系 , 还有操作系统 , 跟去 IOE 并行的是自建系统 , 也就是「飞天」 。 2009 年春节前后 , 阿里工程师在北京上地汇众大厦一间快要废弃的办公室写出了阿里云计算操作系统「飞天」的第一行代码 。
飞天的核心是 2013 年启动的大数据平台 Maxcompute , 平台创新性的采用了 Datalake 技术 , 把不同的数据源用类似的方式存储 , 用统一的方法计算 , 提供一套标准化语言 , 快速实现不同类型数据的计算 。
如此处理更大的计算量 , 让整个计算变得没有极限 。 如今 Maxcompute 已经可以承载 EB 级别的数据存储能力和百 PB 级的单日计算能力 。
在去 IOE 和飞天的基础上 , 2015 年阿里对技术进行了一轮总结 , 提出了「中台」战略 。 提炼各个业务条线的共同需求 , 整合集团的运营数据能力、产品技术能力 , 打造成组件化产品 , 以接口的形式提供给前台各业务部门使用 。
无论在什么时候 , 中台都是阿里「确定性的增长引擎 。 」
2015 年恰好是移动互联网兴起 , 移动交易笔数超过 PC , 阿里中台做到了在支撑这么大数据量级下 , 用实时数据驱动商业 。
当世界逐步迈入 AI 时代时 , 2017 年阿里达摩院成立 , 来探索底层的颠覆性技术 , 达摩院这个名称意为「侠之大者 , 为国为民」 。
在 AI 技术的支撑下 , 购物变得更加智能 , 个性化推荐、用户购买行为实时分析等成为可能 。
到了 2019 年 , 阿里将这些技术全部融会贯通 , 将电商核心系统「全面上云」 , 而今年是阿里第一次云上支撑如此大规模的双十一 。
「今年是新一轮的『双十一』元年 。 」阿里巴巴集团首席技术官程立表示 。 在此基础上阿里提出了「数字原生操作系统」这一概念 。
数字原生操作系统分为三层:底层是基础设施 , 以云为代表的数字新技术;中间是中台 , 包含业务、数据、智能、协同在内的数字创新平台;上层是对包括品牌、商品、销售、营销、渠道、制造、服务、金融、物流供应链、组织等在内的商业要素的全面在线化与数字化 。