测试工作量的评估方法

zgq123456 zgq123456     2023-01-15     361

关键词:

测试排期是整个测试过程非常重要的环节,关乎项目整体的上线计划及版本节奏。测试排期首先要评估测试的工作量。所以测试工作量评估的越准确,对项目整体节奏的把握更有利。 工作量评估得过多影响上线节奏,人员工作强度变低影响效率,工作量评估过少,造成的影响更大,如果可以通过加班消化还好,如果消化不了项目会延期,错过活动等等,对测试口碑的影响将是毁灭性的。尤其是一些紧急的需求,要求快速上线,更有可能开发的改动方案要参考测试的工作量,如果测试回归工作量过大,为了满足上线要求开发有可能会更换开发方案。此时如果测试工作量评估不准,开发方案的选择就会发生变差,对上线的影响就会更大。
  实际项目测试中,工作量评估会受很多因素的影响,开发的实现方案,开发的能力水平,测试范围的评估,测试类型的选择,测试深度,是否需要增加专项测试,质量要求,等都会产生干扰,因此准确评估工作量确实很难。 尤其是当功能还没有开发的时候去评估工作量,不确定性更大,开发是重构代码还是微调,是否需要做性能评测等等都会对最终工作量评估产生很大影响。
  那么怎么做才能更加准确的评估测试工作量呢?
  首先我们先要了解测试工作量都包含哪些部分,测试工作量是对测试过程时间消耗的评估,那么测试过程都包含哪些呢?        
   我们可以从测试流程角度来分析,首先是需求理解,然后是和开发的技术沟通测试范围评估,测试用例的编写,专项测试方案准备,测试环境/测试数据准备,测试用例执行,专项测试执行,回归用例执行,上报bug以及bug验证,以及上线前的测试验证。那么测试工作量就应该是以上过程时间消耗的总和。一眼望去,过程好多,每个过程貌似都又有不确定性,例如bug上报和验证的时间直接受bug数量和开发修改bug改动大小的影响,用例执行不同功能的case执行时间可能又是不一样的,万一遇到阻塞问题,时间就更没法评估了。 这些过程并不是每个版本都会。
  接下来我们逐一来分析一下每个过程如何精准评估工作量:
  需求理解
  需求理解一般是通过需求文档或需求讨论会来完成,这个过程通常会比较提前,例如需求文档都会提前发出事先可以去熟悉,工作量评估一般不包含这部分内容。
  技术细节了解
  技术细节的了解取决于了解的程度,这部分可能更多的需要根据以往的经验来评估,所以平时对于技术细节了解时间的留意很重要。

用例设计
  这部分应该会比较耗时,时间的评估首先要评估用例的数量,评估用例的数量首先要把测试对象按功能切分,再由功能切分成测试点,针对每个测试点去评估用例数量。优秀的测试工程师对每个测试点大概有多少条用例需要做到心中有数,例如测试一个按钮的用例条数,下拉菜单的用例条数。这部分比较依赖平时的积累,能否把常见的测试点总结成公共用例,例如http的公共用例,地址栏公共用例,菜单的公共用例,如果公共用例比较齐备,会比较容易评估用例条数,而且也可以大大缩短用例设计的时间。用例设计过程中或多或少的会出现需求不清需要沟通确认,技术细节不了解需要沟通或调研的事情,这部分也需要根据之前的经验来判断。
  专项测试方案设计
  首先要评估是否需要进行专项测试,如果需要则要评估专项测试方案修改已有的还是要从头来设计。 一般情况下一份专项测试方案设计时间不超过4h。如果涉及到工具的开发则需要另行评估。
  测试环境/测试数据准备
  首先要评估是否需要这方面的准备,这个过程往往会比较忽略,测试过程中再去准备回比较被动和耗时,测试环境和测试数据往往是由测试开发或者开发准备,作为测试工程师重要的是及时提出需求来,并及时和开发方沟通工作量和完成时间点。
  用例执行
  这部分应该是整个测试过程最耗时的部分,用例执行的时间应该依赖于用例的数量和用例执行速度,之前我们已经评估了用例的数量,如何评估用例执行速度呢?首先不同功能的用例执行的难以程度不一样,纯黑盒的用例一般执行速度回比较快,例如UI的检查。偏逻辑层面的用例执行起来会慢一些,需要准备环境,或者通过工具验证结果等等。测试工程师需要有意识的去统计不同难度用例的执行时间,例如黑盒偏UI层面的用例一个合格的测试工程师一天可以执行200-300条用例等。偏逻辑验证的大概每天可以执行100条,大量需要环境准备和数据准备的每天30-50条等。

专项测试实施
  专项测试每轮的测试时间相对固定,执行一次大概1小时,2小时等等,比较难评估的是如果测试出现问题开发可能会调优,执行多少次才能达到预期可能不太能评估。从以往经验来看一般2-3次基本可以完成,专项测试执行的时间可以按照两倍或者三倍时间去评估。
  上报bug和验证bug的时间
  这部分时间是最难评估的,无法按照数量来评估,bug都是在测试执行过程中产生的,一般会通过用例执行时间乘以一个系数来评估,这部分比较靠以往版本的经验,以往bug比较多或者修改起来连带bug比较多可以适当提高这个系数比例。例如项目里开发bug比较多,我们可以把这个系数提高到0.3,如果用例执行时间是3天,bug相关的处理时间可以按照一天计算。
  测试工作量的评估是一个通过一定方法和测试经验不断积累来优化的过程,以上是小编我根据自己的总结和测试经验形成的方法,不同的项目不同的团队状态工作量评估的方法可能有比较大的差别,但要找到适合自己项目的评估方法需要大家不断的思考总结和积累经验。
---------------------
作者:eeeeee111112
来源:CSDN
原文:https://blog.csdn.net/marry_xiao/article/details/52525666
版权声明:本文为博主原创文章,转载请附上博文链接!


























在 n > 2 的情况下,评估 n 向拆分测试最有说服力的方法是啥?

】在n>2的情况下,评估n向拆分测试最有说服力的方法是啥?【英文标题】:Whatisthemostconclusivewaytoevaluateann-waysplittestwheren>2?在n>2的情况下,评估n向拆分测试最有说服力的方法是什么?【发布时间】:2021-08-1806:29:12【问题描... 查看详情

项目工作量评估及报价方法

在项目完成后,可能需要产品经理、项目经理进行项目投入评估,以便计算成本/打包出售。此时需要一个科学的评估方式,参考如下一、确定参与项目的各个角色及定价(以下仅作示例)序号项目角色月薪(人/月)-元工作日/... 查看详情

模型评估方法

...望看看它的性能如何,一般情况下,我们通常使用一个“测试集”来测试模型对新样本的判别能力,然后以测试集上的“测试误差”来作为泛化误差的近似,通常我们假设测试样本也是从样本真实分布中独立同分布采样得到的,... 查看详情

软件测试定义

软件测试定义Theprocessofrunningortestingthesystemmanually orautomaticallybyusingtools,inordertoverifywhetheritsatisfiestherequirementsortomakeclearthedifferencesbetweentheactualoutcomeandtheexpectedoutcome 1、参与人员用户:参与需求验证和验收测试项目经理:参... 查看详情

markdown渗透测试/评估工作流程(代码片段)

查看详情

机器学习|机器学习评估方法

...学习评估方法留出法(holdout):数据集预留出一部分数据为测试集,将数据集D划分为训练集S和测试集T。大概比例为测试集占全局数据量的(1/5~1/3)留一法:留一法是留出法的特例,即每次测试集T只留一个数据,剩下的作为训练集SK... 查看详情

《学会教学》——评估与评价

...或者划分等级。【方法】传统方法1、标准化测验即编制测试题。测试目标应该是评价所有教学目的,内容应该包括所有知识如记忆、理解、分析、应用,试题丰富可以包括正误、配对、多选、填空题、简答题、论述题。为了让... 查看详情

软件测试方法的性能测试

...统的负载能力。在这种测试中,将使测试对象承担不同的工作量,以评测和评估测试对象在不同工作量条件下的性能行为,以及持续正常运行的能力。负载 查看详情

测试监控和测试控制

在软件测试领域,QA管理者和高阶的测试人员必须实施不同的测试管理方法,例如测试监控和控制,以确保测试活动按照计划顺利执行。管理人员需要这些基本的管理策略来跟踪和调整测试进度,以获得最佳的工程效能。什么是... 查看详情

<s:if> 布尔值的测试表达式评估未按预期工作

】<s:if>布尔值的测试表达式评估未按预期工作【英文标题】:<s:if>testexpressionevaluationforbooleanvaluedoesn\'tworkasexpected【发布时间】:2014-05-2907:52:17【问题描述】:我想使用Struts2标签&lt;s:if&gt;检查变量bool_val的值,但它... 查看详情

1.0项目里程碑管控参考--测试视角

... 所有功能有对应的行云卡片(覆盖>80%功能点)评估测试工作量(粗略)第3天将测试工作量填入每个行云卡片中 测试和产品1V1详细确认每个卡片的功能边界细化功能边界第3天-第4天督促产品将功能边界填入卡片和原型文档修正测... 查看详情

1.0项目里程碑管控参考--测试视角

... 所有功能有对应的行云卡片(覆盖>80%功能点)评估测试工作量(粗略)第3天将测试工作量填入每个行云卡片中 测试和产品1V1详细确认每个卡片的功能边界细化功能边界第3天-第4天督促产品将功能边界填入卡片和原型文档修正测... 查看详情

ai-mlcc07-验证(validation)

...urse/validation/1-检查您的直觉将一个数据集划分为训练集和测试集。借助这种划分,可以对一个样本集进行训练,然后使用不同的样本集测试模型。工作流程如下:在“调整模型”阶段,可以调整学习速率、添加或移除特征,到从... 查看详情

变异测试(mutationtesting):一种评估测试用例集错误检测能力的方法

目录动机概念变异类型变异测试实例变异测试的强与弱变异测试的流程图变异得分变异测试工具拓展:利用变异分析做缺陷定位参考动机开发者测试的测试脚本的评价指标中,最关键的两点是测试代码覆盖率以及测试脚... 查看详情

变异测试(mutationtesting):一种评估测试用例集错误检测能力的方法

目录动机概念变异类型变异测试实例变异测试的强与弱变异测试的流程图变异得分参考动机开发者测试的测试脚本的评价指标中,最关键的两点是测试代码覆盖率以及测试脚本的错误检测能力,错误检测能力如何衡量ÿ... 查看详情

推荐系统之评估方法和评价指标pr、roc、auc

...统各方面的性能,按照应用场景可以分为离线评估和线上测试。其中离线评估的主要方法包括Holdout检验、交叉检验、留一验证、自助法等,评价指标主要包括用户满意度、预测准确度、召回率、覆盖率、多样性、新颖性、流行... 查看详情

线上直播排序评估神器---交叉试验方法之介绍

...务问题与优化洞察,数据建模,业务优化方案设计、试验测试与效果评估等。分享大纲:猎聘在推荐系统的实践应用中发现,在比较不同的推荐排序算法孰优孰劣上,交叉试验与企业常用的A/B试验相比,能够在更短的时间内提供... 查看详情

机器学习评估方法及性能度量

...数据集(D)有限,需分出一部分用作训练,剩下的一部分用作测试.按比例留出.训练集和测试集保持(D)中类别的比例.以二分类任务为例,常见做法是将大约(2/3)~(4/5)的样本用作训练,剩余样本用于测试.一般采用若干次随机划分,重复进行... 查看详情