时间:2023-10-27 10:18:06 浏览:76
为了备战双十一,19支队伍参与了准备,包括付款、中台、淘金记、运维、客服等。公开中台方质量管理部继续组织各方开展准备工作。中台方负责人石在筹备会上指出:
“此次大促,我们坚持科学备战,按照系统梳理容量规划容灾备案降级预案军演压测实时监测的筹备过程,集合各方菁英,包括技术、业务、运营及客服团队,彼此协同,通过细致的排查、严密的演练、完备的预案,将系统调整到最佳状态应对大促,确保数科系统安全、稳定、可靠,为用户提供最佳体验。”
针对这一准备,一起工作的团队整理出五个核心环节,包括支付环节、金融app环节、ai环节、基于机房的基础环境环节、网络和基础中间件等。每个部门已完成数千次内部压力测试、三次付款全链接压力测试和五次团体全链接压力测试。此外,去年11.11后优化的40个项目都得到了改进,最大限度地降低了风险,确保了万无一失。
艰巨挑战,迎难而上
与往年相比,这次大推广遇到了更加艰巨的挑战。网络安全攻防演练尚未结束。面对迫在眉睫的膨胀压力测试,准备团队冷静应对。准备组织团队配合各部门全面梳理系统薄弱环节,优化系统,与运维方提前做好扩容和机架准备。演习结束后,将立即开始扩建,以确保与商场侧的整个环节压力测试同步。
此外,与底层交易不同,前端系统处于流量高峰的前线,一直处于高频迭代的状态,因此前端系统的性能和安全性面临严峻挑战。以支付为例,原加密算法的高cpu消耗已经严重影响了服务性能。因此,经过原生加解密算法和对称与非对称加密相结合等各种尝试,支付方最终确定了aks通道密钥加密的对称加密方法,整体服务性能提高了2倍以上,同时具有实时监控和降解所有版本加密方法的能力。
另外,今年微信支付和applepay的支付环节由零售端改为分行端,支付端在短时间内完成了系统重构。在网络层面,外部网络防火墙与其他服务隔离,避免受到其他服务的影响;其次,在应用程序级别,非核心流程已被异步转换,http请求已被汇集,核心jmq已迁移到支付事务专用的代理集群。优化后,微信点餐性能明显提升,最大耗时提升70%,tp999毫秒级提升50%;此外,支付端还对微信支付链接进行了房间隔离改造,实现了核心链接同房间通话,进而大大降低了网络延迟和系统抖动的概率。
准备小组配合支付方完成系统压力测试,并根据制定的应急预案成功进行演练;此外,运维侧并行梳理了所需机器和网络的支撑项,最大程度满足了硬件资源的要求。
科学备战,技术创新
在这次准备中,部门端和商城端多次分享前期的准备经验,从技术创新的角度深入交流了十亿级订单系统和营销券的高可用架构设计,以提高系统性能。“用户实名”模板批量查询界面涉及4个热点模板。这次除了通过r2m缓存预热所有模板外,增加了咖啡因本地缓存,预热了200个模板,进一步提高了java缓存库的性能;另外“客户中心”梳理整个环节,配合支付和营销方,黄金环节减少20w tps实名通话,减轻服务器压力。通过持续的系统梳理和架构优化,各系统大大减少了推广期间的资源占用,以相对较低的运维成本实现了筹备目标。
在每年大促销的时候,商业方面的营销活动有各种各样的形式
兄弟同心,诚至金开
今年准备之初,为了兼顾网络安全的重要任务和做好扩容准备的迫切需要,准备团队采用交叉评审的方式,探索备战盲区,确定协同方案,逐一梳理系统间的血缘关系,统筹扩容和试压计划。运维端郑好团队动态部署扩容所需的服务器资源,合理提高利用率,同时多次对内压测量平台进行讲座和培训,为备战提供了坚实的保障。
在保证系统高可用性的同时,为防止黑产品恶意攻击,运维方配合开放中心方开展ddos攻击演练,专业安全团队提供7*24小时安全重保,监控业务健康状态,实时调整防护策略,在保持稳定的同时降低相应的运营成本。
这样就有太多主动沟通合作操作的案例了。大的提升从来不是一个人或者一个部门在一线作战,而是一个由几个家族的19个兄弟团队组成的特殊团队,为了共同的目标携手共进。回头看看最近的大推广数据,短短几年,各个系统的峰值阻力增加了好几倍。这些数字的背后,是全体工作人员在几门学科准备中智慧和汗水的沉淀。——科学准备,敢于第一;技术创新推动增长;精益管理,真诚诚恳。
相关文章
怀孕周期
备孕分娩婴儿早教
猜你喜欢