• 14
  • 14
分享
  • 某618大促项目的复盘总结——软件测试圈
  • TIMI 2021-09-09 15:43:07 字数 3723 阅读 1107 收藏 14

一、前言

618期间上线一个活动项目。但上线不顺利,当天就出现了性能问题,接口超时,用户无法打开网页,最后不得的临时下线。花了三天两夜,重构了后台核心代码,才让活动进行下去。

回头看了一下自己的时间记录,从5月31号那天晚上8点25分开始准备上线,发现异常,分析原因,重构代码,离开公司时已经是6月2号的23点54,经历51小时29分,中间的睡眠时间不到5个小时,这已经是爆发小宇宙了。

这一波刚过去了,一波未平另一波又起,由于活动的奖励丰厚,大批羊毛党闻风而至,某宝上公开卖脚本的都有了,严重影响了正常用户薅羊毛。

某客户反馈说:我们别说薅羊毛了,现在是整头羊都被他们牵走了!

接下来的几天,又得和薅羊毛的脚本们斗智斗勇,直到活动结束。

而本文就对此做一次深度的复盘,在以后的项目中让自己快活一点。

二、一份看似完美的项目总结

当我们复盘项目过程时,能找到很多问题点,比如:

  1. 人力不足,需求过于复杂,开发和测试工作量大。

  2. 前后端开发、测试都是从其他团队抽掉的,对当前项目的业务和技术不熟悉。

  3. 跨团队组建的临时团队,职责定义不清晰,项目管控不严格。

  4. 开发对项目的用到的技术不熟悉,没有经过原有项目成员的CodeReview。

  5. 测试通过太草率,压测方案设计不合理。

列出问题后,很快就能一一写出改进点。

  1. 从公司层面加强的整体项目安排,避免重复玩法的项目,资源投入到重点的几个活动中。

  2. 加强团队的能力培养,总结文档,供新人学习。

  3. 对于核心代码进行CodeReview,遇到问题时,项目经理协调资深开发协助解决。

  4. 将临时组建团队职责定义清晰,各负责人沟通清楚。

  5. 严格控制测试质量,测试有上线的否决权。

这些总结看起来一点问题没有,列出了问题,也列出了改进点,甚至可以当成样板去使用了,是不是咱们就这么结束了呢。

当然不是, 它本身的说法没有错,错在把问题的前提当作问题的原因。

我们来看两种表述。

  1. 下次我们要组建一个经验丰富的项目团队,避免质量问题发生。

  2. 当下次我们面临一个临时组建,经验不足的项目团队时,如何避免质量问题发生。

这两种表述的差异在哪?

前一种表述是因为我们“团队”的原因,导致了本次质量问题,所以我们要解决“团队”的问题。

而后一种是我们的团队就是临时组建的,我们的开发、测试就是对新项目的业务和技术不熟悉,在这个前提下,才会出现质量问题,那么在这个前提下,怎么避免质量问题呢?

临时组建,经验不足不是问题的原因,它们是出现问题的前提,这是客观存在的。

这就好比我们说解决一个问题时,最快的方式是,我们不解决问题,解决出问题的人就行了。

在这里不就变成了,我们不解决问题,解决出问题的团队就行了。

正是因为这个误区,我们很多时候一出现项目质量问题,就把锅甩给我们团队的协作有问题,或者我们的项目时间紧张,然后一句下次改进就结束了。

这样的万能回答,看似一点没错,但往往就没法落地了。

明明项目时间紧,新团队协作经验不足本来就客观的存在,没有它就没有问题,怎么可以当作问题本身给解决掉呢。

1、质量问题的关键原因

带着这个前提,我们再回头看前面的总结,其实就能过滤出真正有价值的点了。

我们也可以这么问,问题是不能避免的,但为什么在项目过程中我们的性能问题没有暴露出来?

三个角度:

  1. 从项目角度,没有严格按项目流程来,特别是最后测试任务紧张,bug较多时,赶工给出了测试报告。

  2. 从开发角度,没有找熟悉业务和技术的同学做CodeReview。

  3. 从测试角度,压测方案设计不合理,不符合真实场景。

逐一分析下。

前面提到事故是后台的性能问题,从项目角度,就算流程严谨也没法暴露出性能问题,特别是在项目过程中,已暴露的风险是前端人力不足,中间加了人手,从功能的角度,后端进度完全正常。

再看开发角度,这里我没有提开发的经验不足,不是在推脱责任,这同我们作为一个临时团队对业务的经验不足一样,它是一个客观存在的前提。当你接触新项目,使用新技术时,经验不足是肯定存在的。

问题是在自身经验不足时,如何去完成任务,那么和熟悉业务和技术的同学做CodeReview是主要的手段。

再从测试角度,功能测试是没有问题的,但跟性能相关的压测方案是有问题的,并且一开始就没有引起正视。最开始的压测方案是开发只出接口和参数文档,直接丢给测试去压,现在看来,这是错误的。

因此,这次质量问题的关键总结如下。

当下次我们面临一个临时组建,经验不足的项目团队时,面对大流量的业务需求,开发们需要注意:

让熟悉业务和技术的同学帮忙做CodeReview。

设计出符合业务场景的压测方案。

这两点就可以落地了,这也不是说项目管理上没有改进的,而是优先保证这两点,能更有效的降低风险。

CodeReview的技巧这里就不多少说,来谈谈我们做的几次压测方案的改进。

2、三轮的压测改进

  1. 单用户,单接口,双机压测

  2. 随机用户,多接口,全量压测

  3. 随机用户,功能分组接口,全量压测

最开始压测方案是用一个用户,两台服务器,一个缓存分片做压测,然后简单的用服务器QPS的均值乘以线上部署机器数量当作压测结果。

这个方案如果是下图左侧的场景,调用链路上的服务器可以同时弹性扩展自然是可以的。

但要是右侧的场景,调用链路上存在瓶颈,比如数据库是一个节点,并且无法扩展,那就问题了。

同样的,这次项目的问题就是Redis成为了一个单节点的瓶颈。另外由于用户id是固定的,所以缓存很可能被重复使用,这样就难以测试到频繁创建缓存的场景。

1.png

在系统重构后,改进了一种压测方案,通过随机用户Id,批量轮询接口,并且通过测试环境的弹性扩展,完全模拟线上的部署环境。

还通过加降级开关,把入参合法性、风控、时效性校验等临时关闭,以便能让压测的请求贯穿整个主流程。

接着在这一方案的基础上,通过对接口分组和伪造恰当的数据,编写贴近真实的调用行为的脚本,再次做了压测。

在执行人员上,也经历了从开发提供数据,测试全权负责;到测试主导,开发参与;再到开发主导,测试协助的过程。

由此,压测方案就越来越贴近真实场景,压测结论自然就更加可信 。

3、高并发场景下的设计

前面谈到了系统设计的不合理导致了本次性能问题,来分析下这里面的根本原因。

首先要理解的是,Redis集群是由多个分片构成的,一条数据被写到哪个分片里,是由key的hash值来离散的。

2.png

比如说,我们要在Redis里面缓存一批用户信息,并且能通过ID来存取。

如果用Redis自带的Hash表结构写法如下:

存:redis.hset("userMap",ID,userInfo)
读:redis.hget("userMap",ID)

那么,因为key是固定的userMap,这意味着所有的用户信息都会被写到一个分片里。

3.png

而对于通常的分布式系统的设计,一个基本原则是:让流量尽可能的被集群的机器平摊。

固定的key就无法利用分布式的优势了,并且如果并发量高,这就会让一个分片去抗所有的流量,再加上如果用户量数十万,还有一次性读取所有数据的操作,这样就变成一场灾难了。

实际设计时,直接把整个Redis集群当作一个Hash表的方式更加高效。

存:redis.set("userMap"+ID,userInfo)
读:redis.get("userMap"+ID)

这里的key="userMap"+ID,ID不同key就被离散了,请求会集群平摊,从而充分发挥分布式系统的性能。

三、黑产和羊毛党的问题

在项目上线后另一个没重视的问题出现了,那就是大量的黑产和羊毛党出现,活动奖励全被这些用脚本的人占据了。

对黑产的事前考虑太少了,仅做了简单的风控校验,根本检测不足异常用户,导致黑产可以通过脚本大量刷接口。

这里的经验有两点:

  1. 对包含现金、现金等价物或高价值奖励的活动,要有面对黑产的心理预期。

  2. 在大公司,专业的事情找专业的人做,基于业务场景,提前跟风控团队沟通好。

对于第一点,基本上只要值点钱的活动,黑产肯定跑不了,空手套白狼,抢到就是赚到,不妨想想如果你是黑产,结合下业务场景,你会怎么来刷自己的系统。

基于第一点,公司没有风控团队那就只能自己做了,而一般上点规模的公司都有自己的风控团队,利用好现成资源。

风控主要考虑两方面:

有风控团队的,接入他们的通用风控模型。

针对项目的业务场景,定制化一些风控模型。

通用风控模型基本是通过新老账号、异地登录、人机识别等等用户行为建立的用户画像,通过离线计算和实时校验来处理。

定制化模型视情况而定,比如拉一个单独的小黑户,放进去的用户不能参与这个活动等等。

被拦截的用户一般是走验证码或直接拉黑,对于后者,别忘了和客服的妹子们打好招呼,准备下话术应对客诉。

四、结语

最后总结下项目的经验。

首先是前提:

  1. 当你的面前的是一个临时组建,对现在项目经验不足的项目团队时。

  2. 当你面临一个大流量,包含现金或等价物的活动时。

请务必做好这三点:

  1. 找熟悉本项目的业务和技术的开发参与方案的设计和CodeReview。

  2. 请开发主动参与压测任务,设计压测方案,注意尽可能模拟真实场景。

  3. 做好应对黑产的心理准备,直到大促活动结束。

来自于,一个连续加班51小时29分,被用户吐槽整只羊都被人家牵走了的开发。


作者:初开之道

原文链接:https://www.cnblogs.com/wchukai/p/11174189.html

  • 【留下美好印记】
    赞赏支持
登录 后发表评论
+ 关注

热门文章

    最新讲堂

      • 推荐阅读
      • 换一换
          •   FPGA可重构技术就是通过上位机控制在FPGA运行过程中加载不同的Bitstream文件,FPGA芯片根据文件内的不同逻辑将内部的资源全部或部分进行重新配置以达到多种功能任务动态切换的目标,从而提高了使用FPGA进行开发的灵活度。  FPGA芯片本身就具有可以反复擦写的特性,允许FPGA开发者编写不同的代码进行重复编程,而FPGA可重构技术正是在这个特性之上,采用分时复用的模式让不同任务功能的Bitstream文件使用FPGA芯片内部的各种逻辑资源,使得同一个逻辑电路在不同时间段上加载不同的功能模块。从时间轴上看,系统的每一项任务功能在FPGA芯片上依次执行,系统的整体功能全部得以实现。从...
            0 0 2616
            分享
          •   过去几周对苹果公司来说并不好过。 在该公司准备最终推出 M4 MacBook Pro 系列产品的过程中,一系列广泛的泄密事件披露了大量细节。 不过,这些只是基本型号的信息,其余配置的信息一直欠奉,但现在不该公司似乎无意中泄露了较小的 14 英寸 M4 MacBook Pro 的规格,显示基本型号可以搭配更多内存。  Reddit 用户 Yunseok-12 在Google上搜索有关 M4 MacBook Pro 的泄露信息时,偶然发现了一张可能是 14 英寸机型潜在配置的图片。 该网站的链接似乎是正确的,但内容并不完整,缺少配图,"Built for Apple Intellig...
            0 0 225
            分享
          • 一、Http Cookie Manager的作用:1、自动管理cookie:象浏览器一样的存储和发送Cookie,如果发送一个http请求他的响应中包含Cookie,那么Cookie Manager就会自动地保存这些Cookie并在所有后来发送到该站点的请求中使用这些Cookie的值。每个线程都自己存储cookie的区域。在cookie manager中看不到自动保存的cookie,我们可以在View Results Tree的Request界面看到被发送的Cookie Data。接受到的Cookie的值能被存储到JMeter 线程变量中(2.3.2版本后的JMeter不自动做这个事情)。要把...
            0 0 1817
            分享
          •   前言  对于初学Python的小伙伴来说,想用Python代码,来向自己喜欢的女孩表白,我们可以简单的运用Python中的turtle库绘制一个爱心。  一、turtle库  turtle库是python的标准库之一;属于入门级的图形绘制函数库。  二、使用步骤  1.引入库  import turtle  2.自定义函数并构建一个循环  ef gxy():       for i in range (200):         &...
            0 0 747
            分享
          • 一、能性测试大数据功能主要涉及系统实现面向大数据分析应用的POSIXAPI,包括文件读取与访问控制,元数据操作,锁操作等功能;大数据分析系统的POSIX语义不同,实现的文件系统API也不同,功能测试要覆盖到大数据系统涉及实现的API和功能点;功能测试工作量大,应该重点考虑应用自动化测试方法进行,同时结合手动测试补充,自动化工具推荐ltp,fstest和locktests。在多个节点上处理大数据的过程中,存在由于‘无用数据’和数据质量问题带来的各种问题。大数据功能测试主要用以识别由于编码错误或节点配置错误带来的数据问题。其包括以下几个阶段:a、数据导入/预处理验证阶段根据具体的应用背景和业务需求...
            14 15 3137
            分享
      • 51testing软件测试圈微信