揭秘阿里巴巴双十一IT部署
学习资料:IT运维管理社区专家讲堂直播300期视频回放
揭秘阿里巴巴双十一IT部署
2013年11月11日,13:04分,天猫交易额已经打破去年191亿元的纪录。2013年阿里云开发者大会上,阿里云业务总经理陈金培表态:无论是O2O还是线上或线下业务,很多商家都搬到了聚石塔,今年将有大部分参与的厂商都会把他们的系统迁移到云上面来。为了解决每年双十一带来的巨额购物狂欢节的压力,一方面是来自于商家的压力,在淘宝或者是天猫开店的卖家,双十一这一天业务量非常大,为防止本地数据中心无法承受巨额订单量,发货系统和订单系统瘫痪,或出现丢单情况,会将把系统搬到云上,即“聚石塔”。与此相似,阿里也对银行推出了“聚宝盆”,让更多银行上云,解决支付贯通问题。今年8月15日,阿里巴巴飞天云计算平台的单集群的服务器规模达到了5000台,这是中国互联网公司首次向外公布单集群规模达到了5000台。阿里用飞天平台调度5000台服务器。在这一平台上,有服务淘宝的数据开放平台,包括阿里金融所有的数据处理业务也都在这一平台上。2013年双十一前,阿里巴巴CTO王坚也详细阐述了淘宝顺利挺过“双十一”的,需要攻克的技术难题。
支付问题
支付的问题难点在银行,2012年淘宝和天猫的总交易额有191亿,交易笔数是1亿零280万笔,对于淘宝来说,一共有多少笔结算是非常重要的,因为在银行承担不了的前提下,需要尽可能在支付宝完成交易,支付宝的技术能力决定了系统的承载能力。以前,交易量过大时银行支持会出现问题,支付宝就会对交易进行排队,延迟交易。但双十一的交易量太大,延迟时间太长会产生很大的用户体验问题,所以支付宝提前做了鼓励用户先充值进支付宝的活动,这笔钱的规模当时达到了几十亿,一定程度上缓解了银行的压力,把对银行系统的压力直接转嫁到了支付宝系统上,使得双十一当天的交易顺利进行。
淘宝自身挑战
淘宝自身的挑战在于面对突然出现的并发流量和意外情况发生时,如何保持系统的稳定性并完成天文数字的交易量。就像电影院虽然修了安全通道,但有意外观众仍然可能不按紧急通道的提示行动,而伤到人,紧急情况下用户的行为是没有办法预测的。淘宝也是一样,在意外情况下,任然无法预测用户行为,本来没有流量的地方,可能会突然跑出一个吓人的流量,任何一个局部的问题都有可能演变成为一个全局的问题,这个就是困难的地方。“双十一”当天阿里巴巴集团近千名技术和业务人员坐在一层,用一个指挥体系处理问题,准备了近几百种预案,因为现场出现问题再去解决肯定来不及,一个回车键敲错了,可能那个系统就瘫痪了。
客户问题
解决淘宝客户的问题主要是通过阿里自身的技术力量去解决客户面临的问题,比如“聚石塔”项目,将天猫和淘宝卖家的全部交易流程都部署在阿里云计算平台上,保证他们交易系统的稳定性,从而保证他们的交易顺利完成。过去,交易从淘宝链接到卖家后台系统的过程中,如果卖家IT基础设施薄弱,系统交换数据会因为网络等各种原因不通都可能会使交易失败。2012年“双十一”有一句话是说“20%的交易量是在云上完成”,这其实是说有20%交易量其卖家的后台系统是部署在阿里云上的。以往买家买一个东西只需要点击购买,然后进行支付,这个动作会指向两条IT路径:一是连接支付宝,保证有钱可以完成支付;另一条则是进入卖家的ERP,卖家需要知道自己是否有库存,并减掉相应的货品数量。把卖家的ERP系统完全架设在云上,这件事的难度和意义比只解决网站流量扩容要大,因为从发票打印到发货都要通过这个系统,不同的ISV(独立软件开发商)也在其中起了关健的作用,让人们体会到一个生态的价值。2013年,淘宝的目标是让70%~80%的交易在云上完成。
2013-11-13张宇婷ITValue
学习...... 顶。。。。。 接入或提供公有云可能是未来电商发展趋势,降低了自身的it 运维成本。今后技术再发展可能会将每一个客户端都纳入云中,造成一种使用的人越多,系统运行速度越快的效应。
页:
[1]