CN117290255A - 一种基于Python和Locust框架的批量接口性能测试方法 - Google Patents
一种基于Python和Locust框架的批量接口性能测试方法 Download PDFInfo
- Publication number
- CN117290255A CN117290255A CN202311576655.9A CN202311576655A CN117290255A CN 117290255 A CN117290255 A CN 117290255A CN 202311576655 A CN202311576655 A CN 202311576655A CN 117290255 A CN117290255 A CN 117290255A
- Authority
- CN
- China
- Prior art keywords
- test
- testing
- user
- steps
- creating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000011056 performance test Methods 0.000 title claims abstract description 23
- 238000012360 testing method Methods 0.000 claims abstract description 186
- 230000006399 behavior Effects 0.000 claims abstract description 10
- 238000004088 simulation Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 38
- 241000238814 Orthoptera Species 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 2
- 230000037430 deletion Effects 0.000 claims description 2
- 238000012805 post-processing Methods 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/362—Software debugging
- G06F11/3644—Software debugging by instrumenting at runtime
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3664—Environments for testing or debugging software
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3696—Methods or tools to render software testable
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明提供了一种基于Python和Locust框架的批量接口性能测试方法,包括:通过初始化数据并模拟真实流程,创建测试用拟真运行环境;配置测试用相关参数并根据测试用相关参数设置测试策略;为待测试的接口创建相应的测试函数,使用装饰器为测试函数添加标签并设置运行次数;设置测试用模拟用户的相关操作并配置用户行为;创建启动命令,指定需要运行的测试函数以及测试报告的存储地址;在测试运行结束后进行测试后置处理。本发明有益效果:可以一次性对一个项目的所有接口进行性能测试,并且生成一份统一的测试报告,从而显著提高了测试效率,降低了时间成本,能够满足复杂的性能测试需求。
Description
技术领域
本发明属于计算机技术领域,尤其是涉及一种基于Python和Locust框架的批量接口性能测试方法。
背景技术
Locust是一个开源的性能测试工具,主要用于模拟大量用户对应用程序、***或网络进行压力测试,由于Locust是一个开源工具,用户可以***它并定制测试方案和测试报告的输出,此外,Locust拥有庞大的开发者和用户社区,使其成为一个备受欢迎的工具,它广泛应用于测试各种应用程序和***,有助于开发团队发现性能问题。
性能测试在软件开发中扮演着重要的角色,其主要作用是确保***在不同负载条件下能够稳定高效地运行,以提供卓越的用户体验,性能测试还有助于资源规划,并为未来的业务战略提供可靠的数据支持。
Locust在性能测试领域被广泛采用,然而,Locust的设计主要是以模拟用户出发进行性能测试设计,在针对具体接口测试的时候,无法满足分次的大批量的接口测试,例如,我们现在的需求是有一个项目需要测试100个接口,每个接口的秒并发数量为50,单个接口的测试时长是十分钟,现有locust方案只能一个接口接一个接口的去操作测试,或者同一时间去测试这100个接口,显然现有方案需要极大的人力、时间成本,并且也不能满足复杂的性能测试需求。
发明内容
有鉴于此,本发明旨在提出一种基于Python和Locust框架的批量接口性能测试方法,以期解决上述部分技术问题中的至少之一。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于Python和Locust框架的批量接口性能测试方法,包括:
通过初始化数据并模拟真实流程,创建测试用拟真运行环境;
配置测试用相关参数并根据测试用相关参数设置测试策略;
为待测试的接口创建相应的测试函数,使用装饰器为测试函数添加标签并设置运行次数;
设置测试用模拟用户的相关操作并配置用户行为;
创建启动命令,指定需要运行的测试函数以及测试报告的存储地址;
在测试运行结束后进行测试后置处理。
进一步的,使用装饰器为测试函数添加标签并设置运行次数的过程包括:
使用装饰器为所有测试函数添加标签,每个测试函数的标签有多个,通过选择标签指定运行相应的测试函数;
使用装饰器为所有待测试接口的测试函数分别设置一个运行权重参数,根据运行权重参数设置相应的测试函数的运行次数。
进一步的,通过初始化数据并模拟真实流程,创建测试用拟真运行环境的过程包括:
初始化全局变量,为后续操作提供需要共享的基础数据;
执行用户注册操作并获取相应的Token,模拟真实用户的交互过程,为模拟用户提供身份认证;
初始化设备信息,为设备操作提供设备属性信息,模拟真实设备;
模拟用户对测试相关设备进行绑定操作,并在每次绑定中获取相应的设备Token;
设置请求头信息,为后续接口请求提供必要请求头数据。
进一步的,配置测试用相关参数并根据测试用相关参数设置测试策略的过程包括:
将测试时间、用户数量、产生率的相关数据抽取出来,并将相关数据参数化,通过配置文件进行配置;
将测试过程整体划分为两个阶段,为每个阶段设置不同的测试策略,在启动测试阶段进行测试预热,并在主要测试阶段执行接口检测操作。
进一步的,为待测试的接口创建相应的测试函数的过程包括:
遍历待测试接口并为每个接口创建一个对应的测试函数,测试函数模拟设备报警操作;
设备报警操作包括生成请求标识、构建请求、发送请求并验证响应。
进一步的,设置测试用模拟用户的相关操作并配置用户行为的过程包括:
打印用户启动停止日志,记录用户在测试过程中的状态变化;
设置用户行为等待时间,模拟用户任务执行间的间隔时间;
指定用户将要执行的具体测试任务类;
指定用户测试请求的目标地址。
进一步的,创建启动命令,指定需要运行的测试函数以及测试报告的存储地址的过程包括:
根据测试过程中调用测试函数的方案为报告文件命名;
使用子进程调用函数执行Locust测试程序进行接口测试;
将报告文件夹压缩为ZIP文件,并将ZIP文件移动到指定位置保存。
进一步的,在测试运行结束后进行测试后置处理的过程包括:
将测试过程中失败、超时、异常重要请求信息记录到日志中;
对新增的数据进行批量删除处理,清理测试环境;
在控制台打印测试结束的提示信息。
相对于现有技术,本发明所述的一种基于Python和Locust框架的批量接口性能测试方法具有以下有益效果:
可以一次性对一个项目的所有接口进行性能测试,并且生成一份统一的测试报告,从而显著提高了测试效率,降低了时间成本,能够满足复杂的性能测试需求。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例所述的一种基于Python和Locust框架的批量接口性能测试方法的流程示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面将参考附图并结合实施例来详细说明本发明。
一种基于Python和Locust框架的批量接口性能测试方法,包括:
S1、通过初始化数据并模拟真实流程,创建测试用拟真运行环境;
S2、配置测试用相关参数并根据测试用相关参数设置测试策略;
S3、为待测试的接口创建相应的测试函数,使用装饰器为测试函数添加标签并设置运行次数;
S4、设置测试用模拟用户的相关操作并配置用户行为;
S5、创建启动命令,指定需要运行的测试函数以及测试报告的存储地址;
S6、在测试运行结束后进行测试后置处理。
步骤S1中通过初始化数据并模拟真实流程,创建测试用拟真运行环境的过程包括:
S11、初始化全局变量,为后续操作提供需要共享的基础数据,包括设备信息、用户信息等;
S12、执行用户注册操作并获取相应的Token,模拟真实用户的交互过程,为模拟用户提供身份认证;
S13、初始化设备信息,为设备操作提供设备属性信息,如MAC地址、型号等,模拟真实设备;
S14、模拟用户对测试相关设备进行绑定操作,并在每次绑定中获取相应的设备Token;
S15、设置请求头信息,为后续接口请求提供必要请求头数据。
通过初始化数据、模拟真实流程如注册登录、设备绑定等,为后续的压力测试任务创建了真实场景的运行环境,为测试提供了必要的输入参数和模拟条件,确保测试的真实性。
完成了性能测试前的一些基础准备,为后续各个测试任务提供了统一的运行支持,将测试环境准备工作同测试任务解耦,有利于测试工作的独立运行和扩展。
步骤S2中配置测试用相关参数并根据测试用相关参数设置测试策略的过程包括:
S21、将测试时间、用户数量、产生率的相关数据抽取出来,并将相关数据参数化,通过配置文件进行配置;
S22、将测试过程整体划分为两个阶段,为每个阶段设置不同的测试策略,在启动测试阶段进行测试预热,并在主要测试阶段执行接口检测操作。
测试策略具体为:
启动测试阶段:
time参数为setp_time,设置为10秒,即一个较短的时间段;
users设置为1,表示只有一个并发用户;
spawn_rate设置为1,表示每秒只生成/停止一个用户。
主要测试阶段:time参数为time_limit,根据用户自己配置,即全部的测试时长;
users参数为number_of_user根据用户自己配置,表示在该阶段内并发用户的数量;
spawn_rate设置为10,表示每秒生成/停止10个用户。
通过配置测试策略将测试策略参数化,更易配置,将测试过程分阶段,第一个阶段做简单预热,第二个阶段进行主要测试,为每个阶段设置不同的策略,模拟实际测试场景。
步骤S3中为待测试的接口创建相应的测试函数的过程包括:
S31、遍历待测试接口并为每个接口创建一个对应的测试函数,测试函数模拟设备报警操作;
S32、设备报警操作包括生成请求标识、构建请求、发送请求并验证响应。
步骤S3中使用装饰器为测试函数添加标签并设置运行次数的过程包括:
S33、使用装饰器为所有测试函数添加标签,每个测试函数的标签有多个,通过选择标签指定运行相应的测试函数;
具体来说,可以为多个性能测试函数添加相同的标签,例如@tag('all'),表示这些函数都属于同一个标签组,在运行时,可以通过指定标签来选择性运行这些函数,比如指定tag为'all',那么只有带有'all'标签的函数会被执行;
另外,还可以为某些特定的性能测试函数添加多个标签,例如@tag('top','all'),表示这些函数既属于'top'标签组,也属于'all'标签组。在运行时,可以通过指定tag为'top'来选择性运行这些函数,只运行这些最重要的接口;
通过使用@tag装饰器,可以根据不同的标签来组织和过滤性能测试函数,灵活地选择性运行特定的函数,方便进行性能测试的管理和调度。
S34、使用装饰器为所有待测试接口的测试函数分别设置一个运行权重参数,根据运行权重参数设置相应的测试函数的运行次数;
例如,设置一个参数poll_time并赋值为200,然后为每个接口性能测试函数都设置@task(poll_time),表示每个性能测试函数都要运行200遍。
步骤S4中设置测试用模拟用户的相关操作并配置用户行为的过程包括:
S41、打印用户启动停止日志,记录用户在测试过程中的状态变化;
S42、设置用户行为等待时间,模拟用户任务执行间的间隔时间;
设置wait_time=constant(1),具体来说,constant(1)表示用户的等待时间是一个常数,即每次任务执行后等待的时间都是1秒钟,这个设置使得我们可以满足分批次运行大批量接口的需求;
例如,如果我们需要测试100个接口,每个接口的秒并发用户数为50,在对接口1进行性能测试时,会有50个用户开始对接口1发送请求,然后重复这个过程200次,测试完成后,由于在用户启动类中设置了wait_time=constant(1),所以会等待所有用户请求完成后再开始对接口2进行测试。
S43、指定用户将要执行的具体测试任务类;
S44、指定用户测试请求的目标地址。
步骤S5中创建启动命令,指定需要运行的测试函数以及测试报告的存储地址的过程包括:
S51、根据测试过程中调用测试函数的方案为报告文件命名(例如:测试所有接口就为all,测试高优先级接口就为top,设置单个接口就用该接口文案来进行命名);
S52、使用子进程调用函数执行Locust测试程序进行接口测试;
S53、将报告文件夹压缩为ZIP文件,并将ZIP文件移动到指定位置保存。
步骤S6中在测试运行结束后进行测试后置处理的过程包括:
S61、将测试过程中失败、超时、异常重要请求信息记录到日志中;
S62、对新增的数据进行批量删除处理,清理测试环境;
S63、在控制台打印测试结束的提示信息。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和***,可以通过其它的方式实现。例如,以上所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。上述单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于Python和Locust框架的批量接口性能测试方法,其特征在于,包括:
通过初始化数据并模拟真实流程,创建测试用拟真运行环境;
配置测试用相关参数并根据测试用相关参数设置测试策略;
为待测试的接口创建相应的测试函数,使用装饰器为测试函数添加标签并设置运行次数;
设置测试用模拟用户的相关操作并配置用户行为;
创建启动命令,指定需要运行的测试函数以及测试报告的存储地址;
在测试运行结束后进行测试后置处理。
2.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
使用装饰器为测试函数添加标签并设置运行次数的过程包括:
使用装饰器为所有测试函数添加标签,每个测试函数的标签有多个,通过选择标签指定运行相应的测试函数;
使用装饰器为所有待测试接口的测试函数分别设置一个运行权重参数,根据运行权重参数设置相应的测试函数的运行次数。
3.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
通过初始化数据并模拟真实流程,创建测试用拟真运行环境的过程包括:
初始化全局变量,为后续操作提供需要共享的基础数据;
执行用户注册操作并获取相应的Token,模拟真实用户的交互过程,为模拟用户提供身份认证;
初始化设备信息,为设备操作提供设备属性信息,模拟真实设备;
模拟用户对测试相关设备进行绑定操作,并在每次绑定中获取相应的设备Token;
设置请求头信息,为后续接口请求提供必要请求头数据。
4.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
配置测试用相关参数并根据测试用相关参数设置测试策略的过程包括:
将测试时间、用户数量、产生率的相关数据抽取出来,并将相关数据参数化,通过配置文件进行配置;
将测试过程整体划分为两个阶段,为每个阶段设置不同的测试策略,在启动测试阶段进行测试预热,并在主要测试阶段执行接口检测操作。
5.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
为待测试的接口创建相应的测试函数的过程包括:
遍历待测试接口并为每个接口创建一个对应的测试函数,测试函数模拟设备报警操作;
设备报警操作包括生成请求标识、构建请求、发送请求并验证响应。
6.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
设置测试用模拟用户的相关操作并配置用户行为的过程包括:
打印用户启动停止日志,记录用户在测试过程中的状态变化;
设置用户行为等待时间,模拟用户任务执行间的间隔时间;
指定用户将要执行的具体测试任务类;
指定用户测试请求的目标地址。
7.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
创建启动命令,指定需要运行的测试函数以及测试报告的存储地址的过程包括:
根据测试过程中调用测试函数的方案为报告文件命名;
使用子进程调用函数执行Locust测试程序进行接口测试;
将报告文件夹压缩为ZIP文件,并将ZIP文件移动到指定位置保存。
8.根据权利要求1所述的一种基于Python和Locust框架的批量接口性能测试方法,其特征在于:
在测试运行结束后进行测试后置处理的过程包括:
将测试过程中失败、超时、异常重要请求信息记录到日志中;
对新增的数据进行批量删除处理,清理测试环境;
在控制台打印测试结束的提示信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311576655.9A CN117290255A (zh) | 2023-11-24 | 2023-11-24 | 一种基于Python和Locust框架的批量接口性能测试方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311576655.9A CN117290255A (zh) | 2023-11-24 | 2023-11-24 | 一种基于Python和Locust框架的批量接口性能测试方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117290255A true CN117290255A (zh) | 2023-12-26 |
Family
ID=89252050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311576655.9A Pending CN117290255A (zh) | 2023-11-24 | 2023-11-24 | 一种基于Python和Locust框架的批量接口性能测试方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117290255A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117609101A (zh) * | 2024-01-23 | 2024-02-27 | 云筑信息科技(成都)有限公司 | 一种用户大数据多引擎压测的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444111A (zh) * | 2020-04-15 | 2020-07-24 | 深圳市万睿智能科技有限公司 | 基于python的性能测试方法、装置、计算机设备及存储介质 |
CN114138670A (zh) * | 2021-12-10 | 2022-03-04 | 四川启睿克科技有限公司 | 基于接口自动化测试与功能、性能、安全测试融合的方法 |
CN114374632A (zh) * | 2022-01-10 | 2022-04-19 | 北京中电兴发科技有限公司 | 一种物联网数据平台多协议测试提效方法 |
CN116302910A (zh) * | 2021-12-21 | 2023-06-23 | 北京奇虎科技有限公司 | 用例重试方法、装置、设备及存储介质 |
CN116820908A (zh) * | 2023-06-28 | 2023-09-29 | 深圳复临科技有限公司 | 基于Locust的性能测试方法、装置、设备及介质 |
-
2023
- 2023-11-24 CN CN202311576655.9A patent/CN117290255A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444111A (zh) * | 2020-04-15 | 2020-07-24 | 深圳市万睿智能科技有限公司 | 基于python的性能测试方法、装置、计算机设备及存储介质 |
CN114138670A (zh) * | 2021-12-10 | 2022-03-04 | 四川启睿克科技有限公司 | 基于接口自动化测试与功能、性能、安全测试融合的方法 |
CN116302910A (zh) * | 2021-12-21 | 2023-06-23 | 北京奇虎科技有限公司 | 用例重试方法、装置、设备及存储介质 |
CN114374632A (zh) * | 2022-01-10 | 2022-04-19 | 北京中电兴发科技有限公司 | 一种物联网数据平台多协议测试提效方法 |
CN116820908A (zh) * | 2023-06-28 | 2023-09-29 | 深圳复临科技有限公司 | 基于Locust的性能测试方法、装置、设备及介质 |
Non-Patent Citations (2)
Title |
---|
徐西宁: "软件自动化测试实战解析 基于Python3编程语言", 31 July 2021, 机械工业出版社, pages: 201 - 204 * |
梁静等: "进化计算标准测试函数介绍与分析", 31 July 2022, 国防工业出版社, pages: 119 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117609101A (zh) * | 2024-01-23 | 2024-02-27 | 云筑信息科技(成都)有限公司 | 一种用户大数据多引擎压测的方法 |
CN117609101B (zh) * | 2024-01-23 | 2024-05-28 | 云筑信息科技(成都)有限公司 | 一种用户大数据多引擎压测的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102880532B (zh) | 以云端技术为基础的测试***与方法 | |
US7895565B1 (en) | Integrated system and method for validating the functionality and performance of software applications | |
CN101411123B (zh) | 用于分布式数据处理***端点上的集中式***管理的方法、***和计算机程序 | |
CA3131079A1 (en) | Test case generation method and device, computer equipment and storage medium | |
CN112631846A (zh) | 一种故障演练方法、装置、计算机设备及存储介质 | |
CN117290255A (zh) | 一种基于Python和Locust框架的批量接口性能测试方法 | |
CN105303112A (zh) | 组件调用漏洞的检测方法及装置 | |
CN114692169B (zh) | 应用大数据和ai分析的页面漏洞处理方法及页面服务*** | |
CN112433944A (zh) | 业务测试方法、装置、计算机设备和存储介质 | |
CN100520732C (zh) | 性能测试脚本生成方法 | |
CN112650688A (zh) | 自动化回归测试方法、关联设备以及计算机程序产品 | |
CN112433948A (zh) | 一种基于网络数据分析的仿真测试***及方法 | |
CN112905437A (zh) | 一种测试用例的方法、装置及存储介质 | |
CN110990289B (zh) | 一种自动提交bug的方法、装置、电子设备及存储介质 | |
CN112579455A (zh) | 一种接口自动化测试方法、装置、电子设备及存储介质 | |
CN107357721B (zh) | 测试***的方法及装置 | |
CN112231206A (zh) | 应用程序测试的脚本编辑方法、计算机可读存储介质及测试平台 | |
CN113220597B (zh) | 测试方法、测试装置、电子设备及存储介质 | |
CN117493188A (zh) | 接口测试方法及装置、电子设备及存储介质 | |
JP4672532B2 (ja) | オペレータ擬似システムおよびオペレータ擬似方法 | |
CN111444109A (zh) | 一种移动端ui自动化测试方法及*** | |
CN115759518A (zh) | 基于混沌工程的可用性治理*** | |
CN115269387A (zh) | 接口自动化测试方法及装置 | |
CN113986263A (zh) | 代码自动化测试方法、装置、电子设备、存储介质 | |
CN112416805A (zh) | 一种测试管理云平台和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |