CN109063845B - 基于生成样本的深度学习方法和机器人*** - Google Patents

基于生成样本的深度学习方法和机器人*** Download PDF

Info

Publication number
CN109063845B
CN109063845B CN201810774082.3A CN201810774082A CN109063845B CN 109063845 B CN109063845 B CN 109063845B CN 201810774082 A CN201810774082 A CN 201810774082A CN 109063845 B CN109063845 B CN 109063845B
Authority
CN
China
Prior art keywords
combat
sample
deep learning
learning model
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810774082.3A
Other languages
English (en)
Other versions
CN109063845A (zh
Inventor
朱定局
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Superpower Innovation Intelligent Technology Dongguan Co ltd
Original Assignee
Superpower Innovation Intelligent Technology Dongguan Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Superpower Innovation Intelligent Technology Dongguan Co ltd filed Critical Superpower Innovation Intelligent Technology Dongguan Co ltd
Priority to CN201810774082.3A priority Critical patent/CN109063845B/zh
Publication of CN109063845A publication Critical patent/CN109063845A/zh
Application granted granted Critical
Publication of CN109063845B publication Critical patent/CN109063845B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

基于生成样本的深度学习方法和机器人***,包括:生成多个第一样本;根据所述第一样本对所述深度学习模型进行无监督训练;从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;根据所述第二样本对所述深度学习模型进行有监督训练;获取多个用于训练的真实样本对所述深度学习模型进行无监督训练和有监督训练。上述方法和***通过样本自动生成,结合真实样本,极大提高了深度学习的适用范围,提高了深度学习模型的通用性,实现了只有少量样本甚至无样本的情况下对深度学习模型的有效训练和使用,提高了深度学习模型的通用性,同时也通过自动生成样本来增加样本量,提高了深度学习模型的准确度。

Description

基于生成样本的深度学习方法和机器人***
技术领域
本发明涉及信息技术领域,特别是涉及一种基于生成样本的深度学习方法和机器人***。
背景技术
知识库是人工智能中的重要技术之一,知识库可以辅助人类进行决策。
辨证法分为思辨阶段、实证阶段、思辨和实证的统一阶段。实证阶段是对思辨阶段的结果进行检验。思辨和实证的统一阶段其实就是对经过实证阶段检验和筛选的思辨阶段的成果进行实践的阶段。
教学法中的常用教学阶段包括自学阶段、教学阶段、考试阶段。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有深度学***时期实战和作战演习都很少,而且作战演示成本也高,所以无法得到大量的作战案例样本,可是很多深度学习算法依赖于大量的案例样本才能实现有效的效果,这使得作战机器人难以发挥人工智能的作用和优势。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术中深度学习技术的缺陷或不足,提供基于生成样本的深度学习方法和机器人***,以解决现有技术中用于深度学习的样本不足、深度学习应用受限、深度学习模型的通用性和准确率受样本量的制约的缺点。
第一方面,本发明实施例提供一种深度学习方法,所述方法包括:
样本生成步骤:生成多个第一样本;
模型初始化步骤:初始化深度学习模型,作为深度学习模型;
生成样本无监督学习步骤:通过所述第一样本对所述深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;
生成样本有监督学习步骤:通过所述第二样本对所述深度学习模型进行有监督训练;
优选地,
所述样本生成步骤具体包括:根据预设知识库生成多个所述第一样本;
所述样本筛选步骤具体包括:判断所述第一样本的输出是否与预期输出一致:是,则将所述第一样本作为第二样本。
优选地,所述生成样本有监督学习步骤之后还包括:
真实样本无监督学习步骤:获取多个用于训练的真实样本,对所述深度学习模型进行无监督训练;
真实样本有监督学习步骤:筛选出符合第二预设条件的多个用于训练的真实样本,对所述深度学习模型进行有监督训练。
优选地,所述真实样本有监督学习步骤之后还包括:
模型验证步骤:筛选出输出与预期输出一致的多个用于测试的真实样本对所述深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述深度学习模型通过验证;否,则转到样本生成步骤继续执行。
优选地,所述验证判断步骤之后还包括:
输出生成步骤:获取输入数据作为所述深度学习模型的输入,通过计算得到所述深度学习模型的输出;
模型优化步骤:判断所述输出是否与预期输出一致:否,则回到样本生成步骤继续执行。
优选地,所述则所述深度学习模型通过验证的步骤之后还包括:通过所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练。
第二方面,本发明实施例提供一种深度学习***,所述***包括:
样本生成模块:生成多个第一样本;
模型初始化模块:初始化深度学习模型,作为深度学习模型;
生成样本无监督学习模块:通过所述第一样本对所述深度学习模型进行无监督训练;
样本筛选模块:从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;
生成样本有监督学习模块:通过所述第二样本对所述深度学习模型进行有监督训练;
优选地,
所述样本生成模块具体包括:根据预设知识库生成多个所述第一样本;
所述样本筛选模块具体包括:判断所述第一样本的输出是否与预期输出一致:是,则将所述第一样本作为第二样本。
优选地,所述***还包括:
真实样本无监督学习模块:获取多个用于训练的真实样本,对所述深度学习模型进行无监督训练;
真实样本有监督学习模块:筛选出符合第二预设条件的多个用于训练的真实样本,对所述深度学习模型进行有监督训练。
模型验证模块:筛选出输出与预期输出一致的多个用于测试的真实样本对所述深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述深度学习模型通过验证,通过所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块继续执行。
优选地,所述***还包括:
输出生成模块:获取输入数据作为所述深度学习模型的输入,通过计算得到所述深度学习模型的输出;
模型优化模块:判断所述输出是否与预期输出一致:否,则回到样本生成模块继续执行。
第三方面,本发明实施例提供一种机器人***,所述机器人中分别配置有如第二方面所述的深度学习***。
本发明实施例的有益效果:
本实施例提供的基于生成样本的深度学习方法和机器人***,包括:生成多个第一样本;根据所述第一样本对所述深度学习模型进行无监督训练;从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本;根据所述第二样本对所述深度学习模型进行有监督训练;获取多个用于训练的真实样本对所述深度学习模型进行无监督训练和有监督训练。上述方法和***通过样本自动生成,结合真实样本,极大提高了深度学习的适用范围,提高了深度学习模型的通用性,实现了只有少量样本甚至无样本的情况下对深度学习模型的有效训练和有效使用,提高了深度学习模型的通用性,同时也通过自动生成样本来增加样本量,提高了深度学习模型的准确度。
附图说明
图1为本发明的实施例1提供的深度学习方法的流程图;
图2为本发明的实施例3提供的深度学习方法的流程图;
图3为本发明的实施例4提供的深度学习方法的流程图;
图4为本发明的实施例5提供的深度学习方法的原理框图;
图5为本发明的实施例6提供的深度学习***的原理框图;
图6为本发明的实施例8提供的深度学习***的原理框图;
图7为本发明的实施例9提供的深度学习***的原理框图;
图8为本发明的实施例10提供的深度学习***的原理框图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
实施例1提供一种深度学习方法,如图1所示,所述方法包括步骤S110至步骤S150。
步骤S110至步骤S150:通过自学习产生深度学习模型。在思辨阶段,让机器人进行样本的思辨。这个阶段同时对应教学法的自学阶段,因为这个阶段主要是机器人自我学习而产生样本和深度学习模型。
在一个更具体的实施例12中,步骤S110至步骤S150通过自学习产生作战案例样本和作战深度学习模型。在作战思辨阶段,让机器人进行作战态势和作战意图的理解,作战决策的思辨。这个阶段同时对应教学法的自学阶段,因为这个阶段主要是机器人自我学习而产生作战案例样本和作战深度学习模型。
样本生成步骤S110:生成多个第一样本。具体的生成方式很多,第1种方式是随机生成数据,然后从数据中筛选出符合样本数据结构的数据作为样本;第2种方式是根据样本的数据结构生成样本;第3种方式是根据样本组成规则知识库和样本元素知识库生成样本,样本元素知识库中包含有样本的组成元素,这样就能通过样本元素知识库中的样本元素结合样本组成规则知识库中的规则进行组合来形成样本。
在所述更具体的实施例12中,生成多个第一作战案例样本,所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策。优选地,多个所述第一作战案例样本的数量达到很多时可以形成第一作战案例样本大数据。将多个所述第一作战案例样本加入第一作战案例知识库。具体地,将每一个所述第一作战案例样本中的所述作战态势、所述作战意图、所述作战决策作为作战案例知识库中的作战案例表的每一个案例的三个字段的具体数据,作战案例知识库中的数据表包括三个字段,分别是作战态势字段、作战意图字段、作战决策字段。
模型初始化步骤S120:初始化深度学习模型,作为深度学习模型。所述深度学习模型的输入变量和输出变量的数据格式应与样本的数据结构一致。
在所述更具体的实施例12中,初始化深度学习模型,作为作战深度学习模型。优选地,所述初始化深度学习模型的具体过程是:选取一个已有的深度学习模型,例如卷积神经网络模型,将该深度学习模型的输入变量设置为作战态势、作战意图,将该深度学习模型的输出变量设置为作战决策。
生成样本无监督学习步骤S130:通过所述第一样本对所述深度学习模型进行无监督训练。具体地,将第一样本中的输入数据作为深度学习模型的输入数据,对深度学习模型进行无监督训练。
在所述更具体的实施例12中,通过第一作战案例样本对所述作战深度学习模型进行无监督训练。具体地:将所述第一作战案例样本中的作战态势、所述第一作战案例样本中的作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练。优选地,第一次无监督训练的作战深度学习模型是通过初始化得到的,第二次无监督训练的作战深度学习模型是通过第一次无监督训练得到的,第三次无监督训练的作战深度学习模型是通过第二次无监督训练得到的,如此类推。
样本筛选步骤S140:从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本。所述第一预设条件为所述第一样本的输出数据与预期输出数据一致。判断所述输出数据与预期输出数据是否一致的具体方式是对输出数据与预期输出数据进行匹配,如果匹配度大于预设阈值则一致,否则不一致。例如第一样本的输入是一个女人图像,第一样本的输出是女性,则与预期输出女性一致,则符合第一预设条件,从而可以作为第二样本;反之如果第一样本的输入是一个女人图像,第一样本的输出是男性,则与预期输出女性不一致,则不符合第一预设条件,从而不可以作为第二样本。
在所述更具体的实施例12中,从多个所述第一作战案例样本中筛选出多个符合第一预设条件的第一作战案例样本,作为多个第二作战案例样本。优选地,所述预设条件包括作战结果与所述第一作战案例样本中的预设方作战意图一致。优选地,将所述第二作战案例样本加入第二作战案例知识库。优选地,多个第一作战案例样本是从所述第一作战案例知识库中获取的。所述可以理解的是,则因为第一作战案例样本的量非常大,所以从中筛选出的第二作战案例样本的量也非常大,可以形成第二作战样本案例大数据。
生成样本有监督学习步骤S150:通过所述第二样本对所述深度学习模型进行有监督训练。具体地,将第二样本中的输入数据作为深度学习模型的输入数据,将第二样本中的输出数据作为深度学习模型的输出数据,对深度学习模型进行有监督训练。
在所述更具体的实施例12中,通过第二作战案例样本对所述作战深度学习模型进行有监督训练。具体包括:将所述第二作战案例样本中的作战态势、所述第二作战案例样本中的作战意图作为所述作战深度学习模型的输入样本,所述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对所述作战深度学习模型进行有监督训练。优选地,从第二作战案例知识库中获取所述第二作战案例样本。第一次有监督训练的作战深度学习模型是通过无监督训练得到的,第二次有监督训练的作战深度学习模型是通过第一次有监督训练得到的,第三次有监督训练的作战深度学习模型是通过第二次有监督训练得到的,如此类推。
本实施例的好处是,通过知识库自动生成的样本数据,而不是实际采集样本数据,这解决了样本非常少,不足以用于形成大量样本情况的深度学习问题。通过***自动生成深度学习模型的训练样本,实现了在只有很少甚至没有样本的情况下进行深度学习模型的无监督训练和有监督训练,因为自动生成的样本非常丰富,可以随机组合生成比能采集到的样本更多的样本,从而为深度学习模型的有效训练提供了可能。
实施例2提供一种优选的深度学习方法,根据实施例1所述的深度学习方法,
样本生成步骤S110具体包括:根据预设知识库生成多个所述第一样本。优选地,所述预设知识库一般为样本组成元素的知识库,样本组成元素的知识库中列举出了样本的各种组成元素。例如如果样本是一个二进制数字,那么0和1就是该样本的组成元素,通过0和1可以组成不同的样本。
在所述更具体的实施例中样本生成步骤S110具体包括:
态势生成步骤S111:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势。优选地,作战态势知识库是预先构建好的,作战态势知识库中预先存储了作战态势构成规则子知识库、作战态势构成元素子知识库。作战态势构成规则子知识库包括敌方属性、敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的组合规则。作战态势构成元素子知识库包括属性知识表、能力知识表、实时状态知识表、等等相关作战态势构成元素的知识表。S111的具体过程是从属性知识表中随机获取属性的一个实例作为敌方属性,从能力知识表中随机获取能力的一个实例作为敌方能力,从实时状态知识表中随机获取实时状态的一个实例作为敌方实时状态,类似地,从相关作战态势构成元素知识表获取我方属性、我方能力、我方实时状态,然后组合形成包括敌方属性、敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的作战态势。
意图生成步骤S112:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图。优选地,作战意图知识库是预先构建好的,作战意图知识库中预先存储了作战意图构成规则子知识库、作战意图构成元素子知识库。作战意图构成规则子知识库包括我方作战意图、敌方作战意图的组合规则。作战意图构成元素子知识库包括作战意图构成元素知识表。具体作战意图构成元素例如进攻获胜、无损撤退、跟踪侦察敌机去向等等。S112的具体过程是从作战意图构成元素知识表中随机获取作战意图的一个实例作为敌方作战意图或以一定概率将敌方意图设置为未知,从作战意图构成元素知识表中随机获取作战意图的一个实例作为我方作战意图,然后组合形成包括我方作战意图、敌方作战意图的作战意图。其中,敌方作战意图也可以随机设置为未知,因为在实际战争中敌方意图是要靠情报或侦察获得的,而有时是不一定能获知敌方意图,所以敌方意图可以设置为未知。
决策生成步骤S113:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策。优选地,作战决策知识库是预先构建好的,作战决策知识库中预先存储了作战决策构成规则子知识库、作战决策构成元素子知识库。作战决策构成规则子知识库包括包括作战的类型、作战的时间、作战的地点、作战的目标的组合规则。作战决策构成元素子知识库包括作战类型知识表、作战时间知识表、作战地点知识表、作战目标知识表。作战的类型例如发射导弹,此时作战时间就是发射导弹的时间,作战地点就是发射导弹的地点,作战目标就是发射导弹的攻击目标。S113的具体过程是从作战类型知识表中随机获取作战类型的一个实例作为作战类型,从作战时间知识表中随机获取作战时间的一个实例作为作战时间,类似地获得作战地点、作战目标,然后组合形成预设方的作战决策。这里的预设方作战决策,一般指我方或友方的作战决策。
样本筛选步骤S140的具体过程是:判断所述第一样本的输出是否与预期输出一致:是,则将所述第一样本作为第二样本。可以理解的是,如果所述第一样本的输出是否与预期输出一致,说明该第一样本是有着正确输出的样本,从而可以被用于有监督学习。
在所述更具体的实施例中样本筛选步骤S140具体包括:
作战模拟步骤S141:在所述第一作战案例样本中的作战态势下对所述第一作战案例样本中的作战决策进行模拟执行,得到作战结果。优选地,所述作战态势下模拟执行所述作战决策可以通过现有的战争模拟软件来实现,并获取模拟的结果,例如作战态势是对方战机在我方战机前方30米、我方战机是X型战机、敌方战机是Y型战机,作战决策是我方战机发射炮弹,作战结果是击落了对方战机。其中,作战态势例如敌我双方战机的属性(例如飞机型号、所载导弹型号)、性能(例如飞行速度、所载导弹的射击准确度及射击速度)、飞行轨迹(例如敌我双方战机的实时轨迹)。作战决策例如在时间t1向敌机发射导弹。
结果匹配步骤S142:计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度。例如,作战结果是我方战机击落了对方战机,那么如果我方的作战意图也是击落对方战机,那么就会匹配成功。其中,预设方,一般指的是我方或友方。
匹配判断步骤S143:判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效。
本实施例的好处是通过知识库自动生成样本,可以随机组合成各种各样的样本,只要随机组合的次数足够多,就能生成比实际采集到的样本更多的样本。
实施例3提供一种优选的深度学习方法,根据实施例1或实施例2所述的深度学习方法,如图2所示,在所述步骤S150之后还包括步骤S160和步骤S170:
真实样本无监督学习步骤S160:获取多个用于训练的真实样本,对所述深度学习模型进行无监督训练。所述真实样本指的是在现实中采集到的样本,而不是通过S110至S140生成的样本。
在所述更具体的实施例12中,获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练。具体包括:获取多个用于训练的真实作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练。所述真实作战案例样本包括实战中或演习中的作战案例样本。
真实样本有监督学习步骤S170:筛选出符合第二预设条件的多个用于训练的真实样本,对所述深度学习模型进行有监督训练。所述第二预设条件包括用于训练的真实样本的输出数据与预期输出数据一致。
在所述更具体的实施例12中,筛选出符合第二预设条件(优选地,第二预设条件为作战结果与作战意图的匹配度大于预设阈值)的多个用于训练的真实作战案例样本对所述作战深度学习模型进行有监督训练。优选地,具体包括:获取多个用于训练的真实作战案例样本,从中选取作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的用于训练的真实作战案例中的作战态势、作战意图、预设方的作战决策,将所述选取的用于训练的真实作战案例的作战态势、作战意图作为作战深度学习模型的输入,将所述选取的用于训练的真实作战案例的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练。所述真实作战案例样本包括作战态势、作战意图、作战决策、作战结果。可以理解的真实作战案例样本是真实发生过的作战案例的样本,所以必然是有作战结果的。
本实施例的好处是利用用于训练的真实样本对自学形成的深度学习模型进行无监督训练和有监督训练,进一步提高深度学习模型的准确度。
实施例4提供一种优选的深度学习方法,根据实施例3所述的深度学习方法,如图3所示,在所述步骤S170之后还包括步骤S210和步骤S220:
步骤S210至步骤S220属于实证阶段(本质上是对深度学习模型进行验证的阶段)。这个阶段同时对应教学法的教学阶段,因为这个阶段主要是通过真实样本来测试和改进在自学阶段生成的深度学习模型。
在所述更具体的实施例12中,步骤S210至步骤S220属于作战实证阶段(本质上是对作战深度学习模型进行验证的阶段)。这个阶段同时对应教学法的教学阶段,因为这个阶段主要是通过真实作战案例来测试和改进在自学阶段生成的作战深度学习模型。
模型验证步骤S210:筛选出输出与预期输出一致的多个用于测试的真实样本对所述深度学习模型进行验证。可以理解的是,输出与预期输出一致的样本才是输出正确的样本,用这样的样本来测试才能测试深度学习模型的正确性和准确性。
在所述更具体的实施例12中,筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证。优选地,获取多个用于测试的真实作战案例样本,从中选取作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图、预设方的作战决策,将所述选取的真实作战案例的作战态势、作战意图作为作战深度学习模型的输入,通过计算得到所述作战深度学习模型的输出作为预设方的作战决策,将所述输出的预设方的作战决策与所述选取的真实作战案例中的作战决策进行匹配,判断匹配度是否大于预设阈值:是,则测试成功;否,则测试失败。
验证判断步骤S220:判断所述验证是否通过:是,则所述深度学习模型通过验证,优选地,通过所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练;否,则转到样本生成步骤继续执行。
在所述更具体的实施例12中,判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤S110继续执行。具体过程包括:多次执行测试步骤,判断测试成功的次数占测试总次数是否大于或等于预设比例:是,则验证通过;否,则验证不通过,回到样本生成步骤S110继续执行。优选地,在则所述作战深度学习模型通过验证的步骤之后,通过所述用于测试的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练,具体地,将所述用于测试的真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述用于测试的真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本,所述用于测试的真实作战案例样本中的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练。
本实施例的好处是,则通过测试来判断生成的所述作战深度学习模型是否能通过真实作战案例的检验,因为真实作战案例是过去实际发生的,如果通过了测试,说明所述作战深度学习模型就能通过实践的检验。如果测试成功,进一步利用用于测试的真实样本对自学形成的深度学习模型进行无监督训练和有监督训练,进一步提高深度学习模型的准确度。所述多次执行测试步骤中的执行测试步骤的次数可以为用于测试的真实样本中测试样本的个数,也可以是预设次数。
实施例5提供一种优选的深度学习方法,根据实施例4所述的深度学习方法,如图4所示,在所述步骤S220之后还包括步骤S310和步骤S320。
步骤S310至步骤S320属于作战统一阶段,本质上是对所述深度学习模型进行使用的阶段。这个阶段同时对应教学法的考试阶段,因为这个阶段主要是对经过自学和教学两个阶段产生的所述深度学习模型进行应用并在应用中进一步检验。
在所述更具体的实施例12中,步骤S310至步骤S320属于作战统一阶段,本质上是对所述作战深度学习模型进行使用的阶段。这个阶段同时对应教学法的考试阶段,因为这个阶段主要是对经过自学和教学两个阶段产生的所述作战深度学习模型进行演习检验或作战检验。
决策生成步骤S310:获取输入数据作为所述深度学习模型的输入,通过计算得到所述深度学习模型的输出。其中,输入数据指的是在应用中采集到的用于所述深度学习模型输入的数据。优选地,将所述深度学习模型的输出发送给用户。
在所述更具体的实施例12中,获取作战态势、预设方的作战意图,将作战态势、作战意图作为作战深度学习模型的输入,通过计算得到作战深度学习模型的输出作为预设方的作战决策;优选地,将所述预设方的作战决策推荐给预设方的作战员(例如以语音发送驾驶战机的战士)也可以通过物联网直接转化能够控制作战决策所涉及到预设方的作战装备的运行指令(例如导弹发射指令)。所述获取的作战态势、作战意图是作战演习时或实际作战时的作战态势、作战意图。
模型优化步骤S320:判断所述输出是否与预期输出一致:否,则回到样本生成步骤继续执行。可以理解的是,如果所述输出与预期输出一致,则说明深度学习模型输出的结果正确;如果所述输出与预期输出不一致,则说明深度学习模型输出的结果不正确,所以要返回前面的步骤对所述深度学习模型进行改进。
在所述更具体的实施例12中,在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述预设方的作战意图的匹配度,判断匹配度是否大于预设阈值:是,则所述作战决策对于所述作战态势和作战意图有效,将所述作战态势、所述作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述作战态势、所述作战意图作为作战深度学习模型的输入样本,所述作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则所述作战决策对于所述作战态势和作战意图无效,回到样本生成步骤S110继续执行。可以理解的是,则如果所述作战决策失败了,说明所述作战深度学习模型需要继续改进,所以需要返回样本生成的步骤再次执行。
本实施例的好处是,通过深度学习模型来辅助决策,提高决策的效率和智能性。利用应用样本对深度学习模型进一步进行无监督训练和有监督训练,进一步提高深度学习模型的准确度。同时,通过应用来检验深度学习模型,如果无效,则重新优化深度学习模型。
实施例6、实施例7、实施例8、实施例9、实施例10中的***分别与实施例1、实施例2、实施例3、实施例4、实施例5中的方法相对应和类似,所以其优选实施方式和有益效果不再赘述,只给出其主要模块。
实施例6提供一种深度学习***,如图5所示,所述***包括模块110至模块150。
样本生成模块110:生成多个第一样本。
模型初始化模块120:初始化深度学习模型,作为深度学习模型。
生成样本无监督学习模块130:通过所述第一样本对所述深度学习模型进行无监督训练。
样本筛选模块140:从多个所述第一样本中筛选出多个符合第一预设条件的所述第一样本,作为多个第二样本。
生成样本有监督学习模块150:通过所述第二样本对所述深度学习模型进行有监督训练。
实施例7提供一种优选的深度学习***,根据实施例6所述的深度学习***,
样本生成模块110具体包括:根据预设知识库生成多个所述第一样本。
样本筛选模块140的具体过程是:判断所述第一样本的输出是否与预期输出一致:是,则将所述第一样本作为第二样本。
实施例8提供一种优选的深度学习***,根据实施例6或实施例7所述的深度学习***,如图6所示,在所述模块150之后还包括模块160和模块170:
真实样本无监督学习模块160:获取多个用于训练的真实样本,对所述深度学习模型进行无监督训练。
真实样本有监督学习模块170:筛选出符合第二预设条件的多个用于训练的真实样本,对所述深度学习模型进行有监督训练。
实施例9提供一种优选的深度学习***,根据实施例8所述的深度学习***,如图7所示,在所述模块170之后还包括模块210和模块220:
模型验证模块210:筛选出输出与预期输出一致的多个用于测试的真实样本对所述深度学习模型进行验证。
验证判断模块220:判断所述验证是否通过:是,则所述深度学习模型通过验证,优选地,通过所述用于测试的真实样本对所述深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块继续执行。
实施例10提供一种优选的深度学习***,根据实施例9所述的深度学习***,如图8所示,在所述模块220之后还包括模块310和模块320。
决策生成模块310:获取输入数据作为所述深度学习模型的输入,通过计算得到所述深度学习模型的输出。
模型优化模块320:判断所述输出是否与预期输出一致:否,则回到样本生成模块继续执行。
实施例11提供一种机器人***,所述机器人***中分别配置有如实施例6至9任一项所述的深度学习***。
本发明实施例提供的基于样本生成的深度学习方法和机器人***只要有少量的真实样本进行测试即可。现实中在有些情况下很难采集到大量样本,例如战争样本、地震样本等等这些需要在特定时期或需要付出特别大的代价才会发生的事件的样本,这些情况下,本发明实施例就能发挥作用了。首先通过自我生成样本来实现深度学习模型的训练,得到训练后的深度学习模型再通过采集到的真实样本进行测试和进一步训练,从而能够得到有效的深度学习模型,从而极大提高了深度学习的适用范围,提高了深度学习模型的通用性,实现了只有少量样本甚至无样本的情况下对深度学习模型的有效训练和有效使用,无论样本量有多少都能使用深度学习模型。同时也提高了深度学习模型的准确度,因为在样本量不足时,同样可以通过本发明实施例自动生成样本并进行训练。
以更为具体的实施例中的作战深度学习模型为例,把机器人当成人一样去教育,从而使得机器人在实际战争中具备类似人的主观能动性。通过(自学阶段、思辩阶段)构建作战知识库,基于作战知识库自动生成作战样本来训练作战深度学习模型,然后通过(教学阶段、实证阶段)真实作战案例来对深度学习模型进行训练、测试和改进,最后通过(考试阶段、统一阶段)实战或演习来检验和进一步改进作战深度学习模型。整个过程和教学过程一样,同时也是辩证发展的过程,这种组合拳,具备了在某个阶段单一使用深度学习不可能具备的效果,使得作战深度学习模型不再依赖于真实作战案例的样本,而是可以自动生成样本,然后基于真实作战案例的样本进行训练、测试和改进作战深度学习模型,并最终进行应用到作战演习或实战,并能在演习和实战中进一步改进作战深度学习模型,使得作战深度学习模型能在实际战争演习和实战案例中不断改进和完善。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种基于深度学习的作战策略生成方法,其特征在于,所述方法通过自我学习而产生作战案例样本和作战深度学习模型,包括:
样本生成步骤:生成多个包括作战态势、作战意图、预设方的作战决策的第一作战案例样本;样本生成方式包括根据样本组成规则知识库和样本元素知识库生成样本,样本元素知识库中包含有样本的组成元素;
样本生成步骤具体包括:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;作战决策知识库中预先存储了作战决策构成规则子知识库、作战决策构成元素子知识库;作战决策构成规则子知识库包括作战的类型、作战的时间、作战的地点、作战的目标的组合规则;作战决策构成元素子知识库包括作战类型知识表、作战时间知识表、作战地点知识表、作战目标知识表;从作战类型知识表中随机获取作战类型的一个实例作为作战类型,从作战时间知识表中随机获取作战时间的一个实例作为作战时间,类似地获得作战地点、作战目标,然后组合形成预设方的作战决策;
模型初始化步骤:初始化深度学习模型,作为作战深度学习模型;所述作战深度学习模型的输入设置为作战态势、作战意图,输出设置为作战决策;
生成样本无监督学习步骤:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一作战案例样本中筛选出多个作战结果与所述第一作战案例样本中的预设方作战意图一致的所述第一作战案例样本,作为多个第二作战案例样本;
样本筛选步骤具体包括:在所述第一作战案例样本中的作战态势下对所述第一作战案例样本中的作战决策进行模拟执行,得到作战结果;所述作战态势下模拟执行所述作战决策通过战争模拟软件来实现,并获取模拟的结果;计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度;判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效;
生成样本有监督学习步骤:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练;
决策生成步骤:获取作战态势、预设方的作战意图,将作战态势、作战意图作为所述作战深度学习模型的输入,通过计算得到所述作战深度学习模型的输出作为预设方的作战决策。
2.根据权利要求1所述的作战策略生成方法,其特征在于,所述生成样本有监督学习步骤之后还包括:
真实样本无监督学习步骤:获取多个用于训练的真实样本,对所述作战深度学习模型进行无监督训练;
真实样本有监督学习步骤:筛选出符合第二预设条件的多个用于训练的真实样本,对所述作战深度学习模型进行有监督训练。
3.根据权利要求2所述的作战策略生成方法,其特征在于,所述真实样本有监督学习步骤之后还包括:
模型验证步骤:筛选出输出与预期输出一致的多个用于测试的真实样本对所述作战深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,使用所述用于测试的真实样本对所述作战深度学习模型进行无监督训练和有监督训练;否,则转到样本生成步骤继续执行。
4.根据权利要求3所述的作战策略生成方法,其特征在于,所述验证判断步骤之后还包括:
输出生成步骤:获取输入数据作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出;
模型优化步骤:判断所述输出是否与预期输出一致:否,则回到样本生成步骤继续执行。
5.一种基于深度学习的作战策略生成***,其特征在于,所述***包括:
样本生成模块:生成多个包括作战态势、作战意图、预设方的作战决策的第一作战案例样本;样本生成方式包括根据样本组成规则知识库和样本元素知识库生成样本,样本元素知识库中包含有样本的组成元素;
样本生成模块具体包括:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;作战决策知识库中预先存储了作战决策构成规则子知识库、作战决策构成元素子知识库;作战决策构成规则子知识库包括作战的类型、作战的时间、作战的地点、作战的目标的组合规则;作战决策构成元素子知识库包括作战类型知识表、作战时间知识表、作战地点知识表、作战目标知识表;从作战类型知识表中随机获取作战类型的一个实例作为作战类型,从作战时间知识表中随机获取作战时间的一个实例作为作战时间,类似地获得作战地点、作战目标,然后组合形成预设方的作战决策;
模型初始化模块:初始化深度学习模型,作为作战深度学习模型;所述作战深度学习模型的输入设置为作战态势、作战意图,输出设置为作战决策;
生成样本无监督学习模块:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选模块:从多个所述第一作战案例样本中筛选出多个作战结果与所述第一作战案例样本中的预设方作战意图一致的所述第一作战案例样本,作为多个第二作战案例样本;
样本筛选模块具体包括:在所述第一作战案例样本中的作战态势下对所述第一作战案例样本中的作战决策进行模拟执行,得到作战结果;所述作战态势下模拟执行所述作战决策通过战争模拟软件来实现,并获取模拟的结果;计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度;判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效;
生成样本有监督学习模块:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练;
决策生成模块:获取作战态势、预设方的作战意图,将作战态势、作战意图作为所述作战深度学习模型的输入,通过计算得到所述作战深度学习模型的输出作为预设方的作战决策。
6.根据权利要求5所述的作战策略生成***,其特征在于,所述***还包括:
真实样本无监督学习模块:获取多个用于训练的真实样本,对所述作战深度学习模型进行无监督训练;
真实样本有监督学习模块:筛选出符合第二预设条件的多个用于训练的真实样本,对所述作战深度学习模型进行有监督训练;
模型验证模块:筛选出输出与预期输出一致的多个用于测试的真实样本对所述作战深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,使用所述用于测试的真实样本对所述作战深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块继续执行。
7.根据权利要求6所述的作战策略生成***,其特征在于,所述***还包括:
输出生成模块:获取输入数据作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出;
模型优化模块:判断所述输出是否与预期输出一致:否,则回到样本生成模块继续执行。
8.一种机器人***,其特征在于,所述机器人***中分别配置有如权利要求5至7任一项所述的作战策略生成***。
CN201810774082.3A 2018-07-15 2018-07-15 基于生成样本的深度学习方法和机器人*** Active CN109063845B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810774082.3A CN109063845B (zh) 2018-07-15 2018-07-15 基于生成样本的深度学习方法和机器人***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810774082.3A CN109063845B (zh) 2018-07-15 2018-07-15 基于生成样本的深度学习方法和机器人***

Publications (2)

Publication Number Publication Date
CN109063845A CN109063845A (zh) 2018-12-21
CN109063845B true CN109063845B (zh) 2021-12-07

Family

ID=64816630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810774082.3A Active CN109063845B (zh) 2018-07-15 2018-07-15 基于生成样本的深度学习方法和机器人***

Country Status (1)

Country Link
CN (1) CN109063845B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737260B (zh) * 2019-08-29 2022-02-11 南京智慧光信息科技研究院有限公司 基于大数据和人工智能的自动作业方法和机器人***
CN110782038A (zh) * 2019-09-27 2020-02-11 深圳蓝胖子机器人有限公司 自动标记训练样本的方法和***及监督学习的方法和***
TWI708190B (zh) 2019-11-15 2020-10-21 財團法人工業技術研究院 圖像辨識方法、物體辨識模型的訓練系統與物體辨識模型的訓練方法
CN114463593A (zh) 2020-11-09 2022-05-10 财团法人工业技术研究院 辨识***及其图资扩增与训练方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102498445A (zh) * 2009-09-17 2012-06-13 西门子公司 用于机器状态监测的、使用规则生成的样本的监督故障学习
CN105096614A (zh) * 2015-09-23 2015-11-25 南京遒涯信息技术有限公司 基于生成型深信度网络的新建路***通流量预测方法
CN106529580A (zh) * 2016-10-24 2017-03-22 浙江工业大学 结合edsvm的软件缺陷数据关联分类方法
CN107622276A (zh) * 2017-08-21 2018-01-23 北京精密机电控制设备研究所 一种基于机器人仿真与物理采样结合的深度学习训练方法
CN107679566A (zh) * 2017-09-22 2018-02-09 西安电子科技大学 一种融合专家先验知识的贝叶斯网络参数学习方法
CN107798390A (zh) * 2017-11-22 2018-03-13 阿里巴巴集团控股有限公司 一种机器学习模型的训练方法、装置以及电子设备
CN107832353A (zh) * 2017-10-23 2018-03-23 同济大学 一种社交媒体平台虚假信息识别方法
CN108021754A (zh) * 2017-12-06 2018-05-11 北京航空航天大学 一种无人机自主空战决策框架及方法
CN108154148A (zh) * 2018-01-22 2018-06-12 厦门美亚商鼎信息科技有限公司 训练样本的人工合成方法及基于该样本的验证码识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170173262A1 (en) * 2017-03-01 2017-06-22 François Paul VELTZ Medical systems, devices and methods

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102498445A (zh) * 2009-09-17 2012-06-13 西门子公司 用于机器状态监测的、使用规则生成的样本的监督故障学习
CN105096614A (zh) * 2015-09-23 2015-11-25 南京遒涯信息技术有限公司 基于生成型深信度网络的新建路***通流量预测方法
CN106529580A (zh) * 2016-10-24 2017-03-22 浙江工业大学 结合edsvm的软件缺陷数据关联分类方法
CN107622276A (zh) * 2017-08-21 2018-01-23 北京精密机电控制设备研究所 一种基于机器人仿真与物理采样结合的深度学习训练方法
CN107679566A (zh) * 2017-09-22 2018-02-09 西安电子科技大学 一种融合专家先验知识的贝叶斯网络参数学习方法
CN107832353A (zh) * 2017-10-23 2018-03-23 同济大学 一种社交媒体平台虚假信息识别方法
CN107798390A (zh) * 2017-11-22 2018-03-13 阿里巴巴集团控股有限公司 一种机器学习模型的训练方法、装置以及电子设备
CN108021754A (zh) * 2017-12-06 2018-05-11 北京航空航天大学 一种无人机自主空战决策框架及方法
CN108154148A (zh) * 2018-01-22 2018-06-12 厦门美亚商鼎信息科技有限公司 训练样本的人工合成方法及基于该样本的验证码识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"基于时序特征编码的目标战术意图识别算法";欧微 等;《指挥控制与仿真》;20161231;第38卷(第6期);第36-41页 *
"战场目标作战意图识别问题研究与展望";姚庆锴 等;《指挥与控制学报》;20170630;第3卷(第2期);第127-131页 *

Also Published As

Publication number Publication date
CN109063845A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
CN109063845B (zh) 基于生成样本的深度学习方法和机器人***
Low et al. Pressure training for performance domains: A meta-analysis.
Hermann Validation problems in games and simulations with special reference to models of international politics
CN109499068A (zh) 对象的控制方法和装置、存储介质、电子装置
CN110489340B (zh) 一种游戏地图平衡性测试方法、装置、设备及存储介质
De Souza et al. Data mining framework to analyze the evolution of computational thinking skills in game building workshops
Cunningham Assumptions underlying the use of different types of simulations
US11850520B2 (en) Computer simulation skills training techniques
Gombolay et al. Machine learning techniques for analyzing training behavior in serious gaming
Fawkes Developments in Artificial Intelligence: Opportunities and Challenges for Military Modeling and Simulation
CN108828948B (zh) 基于深度学习的人工智能作战方法和机器人***
CN108958030B (zh) 基于知识库的人工智能作战方法和机器人***
CN112561032B (zh) 一种基于种群训练的多智能体强化学习方法及***
CN112749516A (zh) 适应多类型数据特征的体系组合模型可信度智能评估方法
CN108985463B (zh) 基于知识库和深度学习的人工智能作战方法和作战***
Floyd et al. An active approach to automatic case generation
Nassal A general framework for software project management simulation games
CN116956005A (zh) 数据分析模型的训练方法、装置、设备、存储介质及产品
Floyd et al. Using deep learning to automate feature modeling in learning by observation: a preliminary study
CN114186696A (zh) 一种ai训练教学的可视化***及方法
Belyaev Mathematical model of the player control in soccer simulation
CN115175750A (zh) 基于ai的游戏应用程序内容生成
Pournelle The use of M&S and wargaming to address wicked problems
CN109756494A (zh) 一种负样本变换方法及装置
Rumsamrong et al. CRISIS-Expert: Conflict resolution and decision support in scaled-down models of serious resource management scenarios

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant