CN109710507A - 一种自动化测试的方法和装置 - Google Patents
一种自动化测试的方法和装置 Download PDFInfo
- Publication number
- CN109710507A CN109710507A CN201711017425.3A CN201711017425A CN109710507A CN 109710507 A CN109710507 A CN 109710507A CN 201711017425 A CN201711017425 A CN 201711017425A CN 109710507 A CN109710507 A CN 109710507A
- Authority
- CN
- China
- Prior art keywords
- coefficient
- expert
- expert tactics
- test
- tactics
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Debugging And Monitoring (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种自动化测试的方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略;创建奖励函数的模型;将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数;根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。该实施方式通过逆强化学习算法设计出了奖励函数,进而得出对应专家策略的策略,按照该策略进行自动化测试,一方面节省了测试资源,另一方面在测试深度和覆盖广度上可以跟测试人员的测试效果相接近。
Description
技术领域
本发明涉及计算机领域,尤其涉及一种自动化测试的方法和装置。
背景技术
在软件企业里,无论是新功能的发布还是老功能的回归,都需要对软件的稳定性、健壮性进行大量的测试。在进行软件测试时,进入的测试场景越多越深、覆盖的范围越广,就可以认为测试效果越好。
现有技术在进行软件测试时,有三种方式。第一种是人工测试:测试人员点击每个按钮,到达每个场景;第二种是用自动化工具测试:比如安卓的Monkey,模拟用户的按键输入、触屏输入、手势输入等,看设备多长时间会出异常;第三种是通过强化学习算法,设置该算法的奖励函数使得覆盖到的测试场景越多反馈分数越高,按照设置的奖励函数找出最优策略来进行自动化测试。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:第一种方式,成本高,且会占用大量测试资源。第二种方式,随机性强,测试深度和覆盖广度无法同时兼顾;第三种方式,一些测试场景中很难量化的判定什么样的动作是好的,什么样的动作是坏的,难以设置合理的奖励函数。
发明内容
有鉴于此,本发明实施例提供一种自动化测试的方法和装置,通过逆强化学习算法求出用于自动化测试的奖励函数,根据奖励函数求出策略,按照该策略进行自动化测试。本发明实施例通过逆强化学习算法设计出了奖励函数,进而得出对应专家策略的策略,按照该策略进行自动化测试,一方面节省了测试资源,另一方面在测试深度和覆盖广度上可以跟测试人员的测试效果相接近。
为实现上述目的,根据本发明实施例的一个方面,提供了一种自动化测试的方法。
本发明实施例的一种自动化测试的方法,包括:采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略;创建奖励函数的模型;将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数;根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。
可选地,所述决策轨迹数据为:所述测试人员在进行测试时点击的所有像素点的坐标。
可选地,采集所述测试人员在进行多次测试时的决策轨迹数据,将多次采集的所述决策轨迹数据作为专家策略集;当将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数时,包括:在所述专家策略集中选择一个专家策略,分别计算所述专家策略和所述专家策略集中其他专家策略的累计奖励函数;基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数。
可选地,所述逆强化学习算法的数学表达式为:
maxw(minπw(μ*-μπ)))
其中,w为回报系数,π为专家策略,μ*为选择出的专家策略对应的特征期望,μπ为其他专家策略对应的特征期望;
其中,γt为系数,xt为一次测试点击的所有像素点的坐标。
可选地,所述基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数的步骤之后,还包括:确定所述回报系数小于等于预设阈值,则将所述回报系数作为使所述奖励函数的值最大的回报系数。
为实现上述目的,根据本发明实施例的另一方面,提供了一种自动化测试的装置。
本发明实施例的一种自动化测试的装置,包括:数据采集模块,用于采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略;模型创建模块,用于创建奖励函数的模型;系数求解模块,用于将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数;测试模块,用于根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。
可选地,所述决策轨迹数据为:所述测试人员在进行测试时点击的所有像素点的坐标。
可选地,所述数据采集模块还用于:采集测试人员在进行多次测试时的决策轨迹数据,将多次采集的所述决策轨迹数据作为专家策略集;所述系数求解模块还用于:在所述专家策略集中选择一个专家策略,分别计算所述专家策略和所述专家策略集中其他专家策略的累计奖励函数;以及基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数。
可选地,所述逆强化学习算法的数学表达式为:
maxw(minπw(μ*-μπ)))
其中,w为回报系数,π为专家策略,μ*为选择出的专家策略对应的特征期望,μπ为其他专家策略对应的特征期望;
其中,γt为系数,xt为一次测试点击的所有像素点的坐标。
可选地,所述装置还包括:判断模块,用于确定所述回报系数小于等于预设阈值,则将所述回报系数作为使所述奖励函数的值最大的回报系数。
为实现上述目的,根据本发明实施例的再一方面,提供了一种电子设备。
本发明实施例的一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例的一种自动化测试的方法。
为实现上述目的,根据本发明实施例的再一方面,提供了一种计算机可读介质。
本发明实施例的一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例的一种自动化测试的方法。
上述发明中的一个实施例具有如下优点或有益效果:通过逆强化学习算法设计出奖励函数,进而得出对应专家策略的策略,按照该策略进行自动化测试,一方面节省了测试资源,另一方面在测试深度和覆盖广度上可以跟测试人员的测试效果相接近,具备泛化能力;通过采集测试人员在进行测试时点击的所有像素点的坐标作为决策轨迹数据,让计算机模拟测试人员进行软件测试,其产生的策略与测试人员的专家策略尽可能的一致,达到了模拟测试人员的目的;通过迭代求解获得使最大回报系数对应的奖励函数,该奖励函数是从决策轨迹数据中学习获得的,相对强化学习中人为设定奖励函数更加合理。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的自动化测试的方法的主要步骤的示意图;
图2是根据本发明实施例的自动化测试的方法的主要流程示意图;
图3是根据本发明实施例的自动化测试的装置的主要模块的示意图;
图4是本发明实施例可以应用于其中的示例性***架构图;
图5是适用于来实现本发明实施例的电子设备的计算机装置的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明实施例的自动化测试的方法的主要步骤的示意图。如图1所示,本发明实施例的自动化测试的方法,主要包括如下步骤:
步骤S101:采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略。该决策轨迹数据为测试人员在待测页面进行测试时所点击的所有像素点的坐标,将多次测试所采集的决策轨迹数据作为专家策略集。由于是让计算机模拟测试人员进行覆盖测试,为了让计算机的测试与测试人员的测试尽量一致,范例数据(即决策轨迹数据)应当由测试人员产生。进行测试时,可能先点按钮A,再点按钮B,这样A→B的过程就形成了一个轨迹,对每一个软件版本进行测试时,均需要采集新的决策轨迹数据以形成新的范例数据。
步骤S102:创建奖励函数的模型。假设奖励函数R(x)=wx,其中,w为回报系数;x一般情况下是一个向量,表示当前的环境。假设软件页面的所有像素点表示环境x,屏幕分辨率是1920*1080,那么环境x就是一个1920*1080=2073600维的向量。
步骤S103:将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数。逆强化学习的输入为专家策略,输出为最大回报系数对应的奖励函数,逆强化学习就是要求出一个合适的回报系数w以使奖励函数R(x)的值最大。
步骤S104:根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。将逆强化学习得出的奖励函数作为强化学习算法的输入,通过强化学习得到累积奖励函数的值最大时对应的策略,该策略与专家策略足够接近,按照该策略作进行自动化测试。
图2是根据本发明实施例的自动化测试的方法的主要流程示意图。如图2所示,本发明实施例的自动化测试的方法,包括以下步骤:
步骤S201:采集测试人员在待测页面多次进行测试所点击的所有像素点的坐标。假设一共进行了m次测试,第i次测试所点击的所有像素点的坐标为ti,1≤i≤m。
步骤S202:将每次测试所点击的所有像素点的坐标作为一个专家策略,所有的专家策略构成专家策略集。所述专家策略集可以表示为:{t1,t2,t3,…,tm}。
步骤S203:创建奖励函数的模型,所述奖励函数等于回报系数和采用当前专家策略时所点击的所有像素点坐标的乘积。所述奖励函数可以表示为:R(x)=wx,其中,R(x)为奖励函数,w为回报系数,x为采用当前专家策略时所点击的所有像素点坐标。
步骤S204:在所述专家策略集中选择一个专家策略,分别计算所述专家策略和所述专家策略集中其他专家策略的累计奖励函数。其中,一个专家策略π的累积奖励函数可以表示为:
其中,ρπ为专家策略π的累积奖励函数;E为平均期望值,是将多天产生的决策轨迹数据的累积奖励进行求和;γ为系数,初始值取1;xt为第t天测试人员在待测页面进行一次测试时点击的所有像素点坐标。
步骤S205:基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数。该步骤用来找到一个回报系数使得所述奖励函数的值最大,将这个回报系数称为最优回报系数w*。
一个专家策略π的特征期望μπ可以表示为:
那么,该专家策略π的累积奖励函数ρπ可以表示为:
ρπ=wμπ
通过穷举出所有的策略可以解出最优回报系数w*,但是实际操作中因为存在各种各样的情况,各种无法达到的分支等等,我们只能在迭代求解的过程中获得相对较好的最优回报系数w*。
按照下式计算最优回报系数w*:
w*=maxw(minπw(μ*-μπ)))
步骤S206:判断所述最优回报系数是否小于等于预设阈值,如果所述最优回报系数小于等于预设阈值,则执行步骤S207;如果所述最优回报系数大于预设阈值,则执行步骤S204。如果所述最优回报系数大于预设阈值,则从所述专家策略集中重新选择出一个专家策略,分别计算该新选择出的专家策略和所述专家策略集中其他专家策略的累计奖励函数。
步骤S207:根据所述最优回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。该步骤用来找到一个策略使得在该策略下的累积奖励函数的值最大,将这个策略称为最优策略。即满足下式:
ρ*-ρπ≥0
其中,ρ*为最优策略的累积奖励函数。该最优策略与测试人员的专家策略足够接近,按照该最优策略进行自动化测试就能够产生与测试人员的测试相接近的效果。
通过本发明实施例的自动化测试的方法可以看出,通过逆强化学习算法设计出奖励函数,进而得出对应专家策略的策略,按照该策略进行自动化测试,一方面节省了测试资源,另一方面在测试深度和覆盖广度上可以跟测试人员的测试效果相接近,具备泛化能力;通过采集测试人员在进行测试时点击的所有像素点的坐标作为决策轨迹数据,让计算机模拟测试人员进行软件测试,其产生的策略与测试人员的专家策略尽可能的一致,达到了模拟测试人员的目的;通过迭代求解获得使最大回报系数对应的奖励函数,该奖励函数是从决策轨迹数据中学习获得的,相对强化学习中人为设定奖励函数更加合理。
图3是根据本发明实施例的自动化测试的装置的主要模块的示意图。如图3所示,本发明实施例的自动化测试的装置300,主要包括:
数据采集模块301,用于采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略。该决策轨迹数据为测试人员在待测页面进行测试时所点击的所有像素点的坐标,由于是让计算机模拟测试人员进行覆盖测试,为了让计算机的测试与测试人员的测试尽量一致,范例数据(即决策轨迹数据)应当由测试人员产生。
模型创建模块302,用于创建奖励函数的模型。所述奖励函数可以表示为:R(x)=wx,其中,R(x)为奖励函数,w为回报系数,x为采用当前专家策略时所点击的所有像素点坐标的乘积。
系数求解模块303,用于将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数。逆强化学习的输入为专家策略,输出为最大回报系数对应的奖励函数,逆强化学习就是要求出一个合适的回报系数w以使奖励函数R(x)的值最大。
测试模块304,用于根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。将逆强化学习得出的奖励函数作为强化学习算法的输入,通过强化学习得到累积奖励函数的值最大时对应的策略,该策略与专家策略足够接近,按照该策略作进行自动化测试。
本发明实施例的自动化测试的装置300还可以包括:判断模块,用于确定所述回报系数小于等于预设阈值,则将所述回报系数作为使所述奖励函数的值最大的回报系数。通过将回报系数与预设阈值比较,满足回报系数小于等于预设阈值的条件的,即可根据该回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应策略;不满足条件的,则需要重新求解使所述奖励函数的值最大的回报系数。
从以上描述可以看出,通过逆强化学习算法设计出奖励函数,进而得出对应专家策略的策略,按照该策略进行自动化测试,一方面节省了测试资源,另一方面在测试深度和覆盖广度上可以跟测试人员的测试效果相接近,具备泛化能力;通过采集测试人员在进行测试时点击的所有像素点的坐标作为决策轨迹数据,让计算机模拟测试人员进行软件测试,其产生的策略与测试人员的专家策略尽可能的一致,达到了模拟测试人员的目的;通过迭代求解获得使最大回报系数对应的奖励函数,该奖励函数是从决策轨迹数据中学习获得的,相对强化学习中人为设定奖励函数更加合理。
图4示出了可以应用本发明实施例的自动化测试的方法或自动化测试的装置的示例性***架构400。
如图4所示,***架构400可以包括终端设备401、402、403,网络404和服务器405。网络404用以在终端设备401、402、403和服务器405之间提供通信链路的介质。网络404可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备401、402、403通过网络404与服务器405交互,以接收或发送消息等。终端设备401、402、403上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备401、402、403可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器405可以是提供各种服务的服务器,例如对用户利用终端设备401、402、403所产生的点击事件提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的点击数据、文本内容等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息--仅为示例)反馈给终端设备。
需要说明的是,本申请实施例所提供的自动化测试的方法一般由服务器405执行,相应地,自动化测试的装置一般设置于服务器405中。
应该理解,图4中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
根据本发明的实施例,本发明还提供了一种电子设备和一种计算机可读介质。
本发明的电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例的一种自动化测试的方法。
本发明的计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例的一种自动化测试的方法。
下面参考图5,其示出了适用于来实现本发明实施例的电子设备的计算机***500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机***500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有计算机***500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本发明公开的实施例,上文主要步骤图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行主要步骤图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本发明的***中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括数据采集模块、模型创建模块、系数求解模块和测试模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,数据采集模块还可以被描述为“采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略;创建奖励函数的模型;将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数;根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。
从以上描述可以看出,通过逆强化学习算法设计出奖励函数,进而得出对应专家策略的策略,按照该策略进行自动化测试,一方面节省了测试资源,另一方面在测试深度和覆盖广度上可以跟测试人员的测试效果相接近,具备泛化能力;通过采集测试人员在进行测试时点击的所有像素点的坐标作为决策轨迹数据,让计算机模拟测试人员进行软件测试,其产生的策略与测试人员的专家策略尽可能的一致,达到了模拟测试人员的目的;通过迭代求解获得使最大回报系数对应的奖励函数,该奖励函数是从决策轨迹数据中学习获得的,相对强化学习中人为设定奖励函数更加合理。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种自动化测试的方法,其特征在于,包括:
采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略;
创建奖励函数的模型;
将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数;
根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。
2.根据权利要求1所述的方法,其特征在于,所述决策轨迹数据为:所述测试人员在进行测试时点击的所有像素点的坐标。
3.根据权利要求1所述的方法,其特征在于,采集所述测试人员在进行多次测试时的决策轨迹数据,将多次采集的所述决策轨迹数据作为专家策略集;
当将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数时,包括:
在所述专家策略集中选择一个专家策略,分别计算所述专家策略和所述专家策略集中其他专家策略的累计奖励函数;
基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数。
4.根据权利要求3所述的方法,其特征在于,所述逆强化学习算法的数学表达式为:
maxw(minπw(μ*-μπ)))
其中,w为回报系数,π为专家策略,μ*为选择出的专家策略对应的特征期望,μπ为其他专家策略对应的特征期望;
其中,γt为系数,xt为一次测试点击的所有像素点的坐标。
5.根据权利要求3所述的方法,其特征在于,所述基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数的步骤之后,还包括:确定所述回报系数小于等于预设阈值,则将所述回报系数作为使所述奖励函数的值最大的回报系数。
6.一种自动化测试的装置,其特征在于,包括:
数据采集模块,用于采集测试人员在进行测试时的决策轨迹数据,将所述决策轨迹数据作为专家策略;
模型创建模块,用于创建奖励函数的模型;
系数求解模块,用于将所述专家策略作为逆强化学习算法的输入,以求出使所述奖励函数的值最大的回报系数;
测试模块,用于根据所述最大回报系数对应的奖励函数,计算出最大的累积奖励函数值所对应的策略,以按照所述策略进行自动化测试。
7.根据权利要求6所述的装置,其特征在于,所述决策轨迹数据为:所述测试人员在进行测试时点击的所有像素点的坐标。
8.根据权利要求6所述的装置,其特征在于,所述数据采集模块还用于:采集测试人员在进行多次测试时的决策轨迹数据,将多次采集的所述决策轨迹数据作为专家策略集;
所述系数求解模块还用于:在所述专家策略集中选择一个专家策略,分别计算所述专家策略和所述专家策略集中其他专家策略的累计奖励函数;以及
基于逆强化学习算法求解出所述专家策略的累积奖励函数与其他专家策略的累积奖励函数之间的差值最小时对应的回报系数。
9.根据权利要求8所述的装置,其特征在于,所述逆强化学习算法的数学表达式为:
maxw(minπw(μ*-μπ)))
其中,w为回报系数,π为专家策略,μ*为选择出的专家策略对应的特征期望,μπ为其他专家策略对应的特征期望;
其中,γt为系数,xt为一次测试点击的所有像素点的坐标。
10.根据权利要求8所述的装置,其特征在于,所述装置还包括:判断模块,用于确定所述回报系数小于等于预设阈值,则将所述回报系数作为使所述奖励函数的值最大的回报系数。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711017425.3A CN109710507B (zh) | 2017-10-26 | 2017-10-26 | 一种自动化测试的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711017425.3A CN109710507B (zh) | 2017-10-26 | 2017-10-26 | 一种自动化测试的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109710507A true CN109710507A (zh) | 2019-05-03 |
CN109710507B CN109710507B (zh) | 2022-03-04 |
Family
ID=66252906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711017425.3A Active CN109710507B (zh) | 2017-10-26 | 2017-10-26 | 一种自动化测试的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109710507B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334013A (zh) * | 2019-06-04 | 2019-10-15 | 阿里巴巴集团控股有限公司 | 决策引擎的测试方法、装置及电子设备 |
CN110659692A (zh) * | 2019-09-26 | 2020-01-07 | 重庆大学 | 基于强化学习和深度神经网络的病理图像自动标注方法 |
CN113392979A (zh) * | 2020-03-11 | 2021-09-14 | 宏达国际电子股份有限公司 | 强化学习***及训练方法 |
CN113626175A (zh) * | 2020-05-08 | 2021-11-09 | 北京沃东天骏信息技术有限公司 | 数据处理的方法和装置 |
CN115309063A (zh) * | 2022-07-29 | 2022-11-08 | 青岛海尔科技有限公司 | 设备场景的更新方法和装置、存储介质及电子装置 |
WO2023109663A1 (zh) * | 2021-12-17 | 2023-06-22 | 深圳先进技术研究院 | 基于最大熵逆强化学习的无服务器计算资源配置方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709449A (zh) * | 2016-12-22 | 2017-05-24 | 深圳市深网视界科技有限公司 | 一种基于深度学习和强化学习的行人重识别方法及*** |
US20170147949A1 (en) * | 2014-08-07 | 2017-05-25 | Okinawa Institute Of Science And Technology School Corporation | Direct inverse reinforcement learning with density ratio estimation |
CN106773659A (zh) * | 2015-11-20 | 2017-05-31 | 哈尔滨工大天才智能科技有限公司 | 一种基于高斯过程的机器人模仿学习方法 |
CN107274029A (zh) * | 2017-06-23 | 2017-10-20 | 深圳市唯特视科技有限公司 | 一种利用动态场景内交互作用介质的未来预测方法 |
-
2017
- 2017-10-26 CN CN201711017425.3A patent/CN109710507B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170147949A1 (en) * | 2014-08-07 | 2017-05-25 | Okinawa Institute Of Science And Technology School Corporation | Direct inverse reinforcement learning with density ratio estimation |
CN106773659A (zh) * | 2015-11-20 | 2017-05-31 | 哈尔滨工大天才智能科技有限公司 | 一种基于高斯过程的机器人模仿学习方法 |
CN106709449A (zh) * | 2016-12-22 | 2017-05-24 | 深圳市深网视界科技有限公司 | 一种基于深度学习和强化学习的行人重识别方法及*** |
CN107274029A (zh) * | 2017-06-23 | 2017-10-20 | 深圳市唯特视科技有限公司 | 一种利用动态场景内交互作用介质的未来预测方法 |
Non-Patent Citations (1)
Title |
---|
李晨溪等: ""基于知识的深度强化学习研究综述"", 《***工程与电子技术》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334013A (zh) * | 2019-06-04 | 2019-10-15 | 阿里巴巴集团控股有限公司 | 决策引擎的测试方法、装置及电子设备 |
CN110334013B (zh) * | 2019-06-04 | 2023-06-20 | 创新先进技术有限公司 | 决策引擎的测试方法、装置及电子设备 |
CN110659692A (zh) * | 2019-09-26 | 2020-01-07 | 重庆大学 | 基于强化学习和深度神经网络的病理图像自动标注方法 |
CN113392979A (zh) * | 2020-03-11 | 2021-09-14 | 宏达国际电子股份有限公司 | 强化学习***及训练方法 |
CN113626175A (zh) * | 2020-05-08 | 2021-11-09 | 北京沃东天骏信息技术有限公司 | 数据处理的方法和装置 |
CN113626175B (zh) * | 2020-05-08 | 2024-04-05 | 北京沃东天骏信息技术有限公司 | 数据处理的方法和装置 |
WO2023109663A1 (zh) * | 2021-12-17 | 2023-06-22 | 深圳先进技术研究院 | 基于最大熵逆强化学习的无服务器计算资源配置方法 |
CN115309063A (zh) * | 2022-07-29 | 2022-11-08 | 青岛海尔科技有限公司 | 设备场景的更新方法和装置、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109710507B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109710507A (zh) | 一种自动化测试的方法和装置 | |
CN109460513A (zh) | 用于生成点击率预测模型的方法和装置 | |
CN109508681A (zh) | 生成人体关键点检测模型的方法和装置 | |
CN109002842A (zh) | 图像识别方法和装置 | |
CN109446071A (zh) | 接口测试方法、接口测试装置、电子设备及存储介质 | |
CN109344908A (zh) | 用于生成模型的方法和装置 | |
CN109634833A (zh) | 一种软件缺陷预测方法和装置 | |
CN109447246A (zh) | 用于生成模型的方法和装置 | |
CN109495552A (zh) | 用于更新点击率预测模型的方法和装置 | |
CN109086780A (zh) | 用于检测电极片毛刺的方法和装置 | |
CN109241722A (zh) | 用于获取信息的方法、电子设备和计算机可读介质 | |
CN112148582B (zh) | 策略测试方法及装置、计算机可读介质和电子设备 | |
CN110533536A (zh) | 交易风险评估方法、装置和计算机*** | |
CN108182472A (zh) | 用于生成信息的方法和装置 | |
CN110879776A (zh) | 一种测试用例的生成方法和装置 | |
CN108595448A (zh) | 信息推送方法和装置 | |
CN109255814A (zh) | 用于处理图像的方法和装置 | |
CN108171167B (zh) | 用于输出图像的方法和装置 | |
CN110223124A (zh) | 数据处理方法、装置、电子设备及计算机可读介质 | |
CN108399401A (zh) | 用于检测人脸图像的方法和装置 | |
CN109992496A (zh) | 一种用于自动化测试的数据处理方法和装置 | |
CN109885564A (zh) | 用于发送信息的方法和装置 | |
CN109446379A (zh) | 用于处理信息的方法和装置 | |
CN110353688A (zh) | 基于人工智能和电子皮肤的臀部接触数据进行坐姿分析的方法 | |
CN109740066A (zh) | 信息推荐方法、信息推荐装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |