CN108985463A - 基于知识库和深度学习的人工智能作战方法和机器人*** - Google Patents
基于知识库和深度学习的人工智能作战方法和机器人*** Download PDFInfo
- Publication number
- CN108985463A CN108985463A CN201810774081.9A CN201810774081A CN108985463A CN 108985463 A CN108985463 A CN 108985463A CN 201810774081 A CN201810774081 A CN 201810774081A CN 108985463 A CN108985463 A CN 108985463A
- Authority
- CN
- China
- Prior art keywords
- sample
- deep learning
- learning model
- training
- operation case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
基于知识库和深度学习的人工智能作战方法和机器人***,包括:生成多个第一作战案例样本;根据所述第一作战案例样本对所述作战深度学习模型进行无监督训练;从多个所述第一作战案例样本中筛选出多个符合第一预设条件的所述第一作战案例样本,作为多个第二作战案例样本;根据所述第二作战案例样本对所述作战深度学习模型进行有监督训练;获取多个用于训练的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。上述方法和***通过作战案例样本自动生成,结合真实作战案例样本,解决了作战案例样本少无法进行有效深度学习和辅助决策的问题,提高了深度学习的效果和作战辅助决策的能力,提高了深度学习模型的准确性和作战机器人的主观能动性和智能性。
Description
技术领域
本发明涉及信息技术领域,特别是涉及一种基于知识库和深度学习的人工智能作战方法和机器人***。
背景技术
知识库是人工智能中的重要技术之一,知识库可以辅助人类进行决策。
辨证法分为思辨阶段、实证阶段、思辨和实证的统一阶段。实证阶段是对思辨阶段的结果进行检验。思辨和实证的统一阶段其实就是对经过实证阶段检验和筛选的思辨阶段的成果进行实践的阶段。
教学法中的常用教学阶段包括自学阶段、教学阶段、考试阶段。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:已有作战机器人只是将事先编写好的程序包括深度学***时期实战和作战演习都很少,而且作战演示成本也高,所以无法得到大量的作战案例样本,可是很多人工智能算法都依赖于大量的案例样本才能实现有效的效果,这使得作战机器人难以发挥人工智能的作用和优势。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术中作战技术的缺陷或不足,提供基于知识库和深度学习的人工智能作战方法和机器人***,以解决现有技术中作战案例样本不足、人工智能应用受限的缺点。
第一方面,本发明实施例提供一种作战方法,所述方法包括:
样本生成步骤:生成多个第一作战案例样本;
模型初始化步骤:初始化深度学习模型,作为作战深度学习模型;
生成样本无监督学习步骤:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一作战案例样本中筛选出多个符合第一预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
生成样本有监督学习步骤:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练;
真实样本无监督学习步骤:获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练;
真实样本有监督学习步骤:筛选出符合第二预设条件的多个用于训练的真实作战案例样本,对所述作战深度学习模型进行有监督训练。
优选地,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成步骤具体包括:
态势生成步骤:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成步骤:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成步骤:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选步骤具体包括:
作战模拟步骤:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配步骤:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断步骤:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
优选地,在所述真实样本有监督学习步骤之后还包括:
模型验证步骤:筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤继续执行。
优选地,在所述验证判断步骤之后还包括:
决策生成步骤:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化步骤:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
优选地,在则所述作战深度学习模型通过验证的步骤之后还包括:使用所述用于测试的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。
第二方面,本发明实施例提供一种作战***,所述***包括:
样本生成模块:生成多个第一作战案例样本;
模型初始化模块:初始化深度学习模型,作为作战深度学习模型;
生成样本无监督学习模块:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;;
样本筛选模块:从多个所述第一作战案例样本中筛选出多个符合第一预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
生成样本有监督学习模块:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练;
真实样本无监督学习模块:获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练;
真实样本有监督学习模块:筛选出符合第二预设条件的多个用于训练的真实作战案例样本,对所述作战深度学习模型进行有监督训练。
优选地,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成模块具体包括:
态势生成模块:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成模块:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成模块:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选模块具体包括:
作战模拟模块:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配模块:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断模块:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
优选地,所述***还包括:
模型验证模块:筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,将所述用于测试的真实作战案例样本中的作战态势、作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练;将所述真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本,所述真实作战案例的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则转到样本生成模块继续执行。
优选地,所述***还包括:
决策生成模块:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化模块:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
第三方面,本发明实施例提供一种机器人***,所述机器人中分别配置有如第二方面所述的作战***。
本发明实施例的有益效果:
本实施例提供的基于知识库和深度学习的人工智能作战方法和机器人***,包括:生成多个第一作战案例样本;根据所述第一作战案例样本对所述作战深度学习模型进行无监督训练;从多个所述第一作战案例样本中筛选出多个符合第一预设条件的所述第一作战案例样本,作为多个第二作战案例样本;根据所述第二作战案例样本对所述作战深度学习模型进行有监督训练;获取多个用于训练的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。上述方法和***通过作战案例样本自动生成,结合真实作战案例样本,解决了作战案例样本少无法进行有效深度学习和辅助决策的问题,提高了深度学习的效果和作战辅助决策的能力,提高了深度学习模型的准确性和作战机器人的主观能动性和智能性。
附图说明
图1为本发明的实施例1提供的作战方法的流程图;
图2为本发明的实施例2提供的作战方法的样本生成步骤的流程图;
图3为本发明的实施例2提供的作战方法的样本筛选步骤的流程图;
图4为本发明的实施例3提供的作战方法的流程图;
图5为本发明的实施例4提供的作战方法的流程图;
图6为本发明的实施例5提供的作战***的原理框图;
图7为本发明的实施例6提供的作战***的样本生成模块的原理框图;
图8为本发明的实施例6提供的作战***的样本筛选模块的原理框图;
图9为本发明的实施例7提供的作战***的原理框图;
图10为本发明的实施例8提供的作战***的原理框图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
实施例1提供一种作战方法,如图1所示,所述方法包括步骤S110至步骤S170。
步骤S110至步骤S150:通过自学习生成作战案例样本,然后用生成的样本和用于训练的真实样本训练作战深度学习模型。在作战思辨阶段,让机器人进行作战态势和作战意图的理解,作战决策的思辨。这个阶段同时对应教学法的自学阶段,因为这个阶段主要是机器人自我学习而产生作战案例样本和作战深度学习模型。
样本生成步骤S110:生成多个第一作战案例样本,所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策。优选地,多个所述第一作战案例样本的数量足够大时能形成第一作战案例样本大数据。将多个所述第一作战案例样本加入第一作战案例知识库。具体地,将每一个所述第一作战案例样本中的所述作战态势、所述作战意图、所述作战决策作为作战案例知识库中的作战案例表的每一个案例的三个字段的具体数据,作战案例知识库中的数据表包括三个字段,分别是作战态势字段、作战意图字段、作战决策字段。
模型初始化步骤S120:初始化深度学习模型,作为作战深度学习模型。优选地,所述初始化深度学习模型的具体过程是:选取一个已有的深度学习模型,例如卷积神经网络模型,将该深度学习模型的输入变量设置为作战态势、作战意图,将该深度学习模型的输出变量设置为作战决策。
生成样本无监督学习步骤S130:通过第一作战案例样本对所述作战深度学习模型进行无监督训练。具体地:将所述第一作战案例样本中的作战态势、所述第一作战案例样本中的作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练。优选地,第一次无监督训练的作战深度学习模型是通过初始化得到的,第二次无监督训练的作战深度学习模型是通过第一次无监督训练得到的,第三次无监督训练的作战深度学习模型是通过第二次无监督训练得到的,如此类推。
样本筛选步骤S140:从多个所述第一作战案例样本中筛选出多个符合第一预设条件的第一作战案例样本,作为多个第二作战案例样本。优选地,所述预设条件包括作战结果与所述第一作战案例样本中的预设方作战意图一致。优选地,将所述第二作战案例样本加入第二作战案例知识库。优选地,多个第一作战案例样本是从所述第一作战案例知识库中获取的。所述可以理解的是,因为第一作战案例样本的量非常大,所以从中筛选出的第二作战案例样本的量也非常大,可以形成第二作战样本案例大数据。
生成样本有监督学习步骤S150:通过第二作战案例样本对所述作战深度学习模型进行有监督训练。具体包括:将所述第二作战案例样本中的作战态势、所述第二作战案例样本中的作战意图作为所述作战深度学习模型的输入样本,所述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对所述作战深度学习模型进行有监督训练。优选地,从第二作战案例知识库中获取所述第二作战案例样本。第一次有监督训练的作战深度学习模型是通过无监督训练得到的,第二次有监督训练的作战深度学习模型是通过第一次有监督训练得到的,第三次有监督训练的作战深度学习模型是通过第二次有监督训练得到的,如此类推。
真实样本无监督学习步骤S160:获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练。具体包括:获取多个用于训练的真实作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练。所述真实作战案例样本包括实战中或演习中的作战案例样本。
真实样本有监督学习步骤S170:筛选出符合第二预设条件(优选地,第二预设条件为作战结果与作战意图的匹配度大于预设阈值)的多个用于训练的真实作战案例样本对所述作战深度学习模型进行有监督训练。优选地,具体包括:获取多个用于训练的真实作战案例样本,从中选取作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的用于训练的真实作战案例中的作战态势、作战意图、预设方的作战决策,将所述选取的用于训练的真实作战案例的作战态势、作战意图作为作战深度学习模型的输入,将所述选取的用于训练的真实作战案例的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练。所述真实作战案例样本包括作战态势、作战意图、作战决策、作战结果。可以理解的真实作战案例样本是真实发生过的作战案例的样本,所以必然是有作战结果的。
本实施例的好处是,通过知识库自动生成的作战案例样本数据,而不是从实战案例中采样,这解决了在和平时期,实际战争很少、作战演习成本高,从而导致作战案例样本非常少,不足以用于形成大量作战案例样本进行深度学习的问题。通过***自动生成作战深度学习模型的训练样本,实现了在只有很少甚至没有实战样本的情况下进行作战深度学习模型的无监督训练和有监督训练,因为自动生成的样本非常丰富,可以随机组合生成比实战更多的案例样本,从而为深度学习模型的有效训练提供了可能。然后利用用于训练的真实作战案例对自学形成的深度学习作战模型进行无监督训练和有监督训练,进一步提高作战深度学习模型的准确度。
实施例2提供一种优选的作战方法,根据实施例1所述的作战方法,
如图2所示,样本生成步骤S110中具体生成的过程包括:
态势生成步骤S111:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势。优选地,作战态势知识库是预先构建好的,作战态势知识库中预先存储了作战态势构成规则子知识库、作战态势构成元素子知识库。作战态势构成规则子知识库包括敌方属性、敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的组合规则。作战态势构成元素子知识库包括属性知识表、能力知识表、实时状态知识表、等等相关作战态势构成元素的知识表。S111的具体过程是从属性知识表中随机获取属性的一个实例作为敌方属性,从能力知识表中随机获取能力的一个实例作为敌方能力,从实时状态知识表中随机获取实时状态的一个实例作为敌方实时状态,类似地,从相关作战态势构成元素知识表获取我方属性、我方能力、我方实时状态,然后组合形成包括敌方属性、敌方能力、敌方实时状态、我方属性、我方能力、我方实时状态的作战态势。
意图生成步骤S112:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图。优选地,作战意图知识库是预先构建好的,作战意图知识库中预先存储了作战意图构成规则子知识库、作战意图构成元素子知识库。作战意图构成规则子知识库包括我方作战意图、敌方作战意图的组合规则。作战意图构成元素子知识库包括作战意图构成元素知识表。具体作战意图构成元素例如进攻获胜、无损撤退、跟踪侦察敌机去向等等。S112的具体过程是从作战意图构成元素知识表中随机获取作战意图的一个实例作为敌方作战意图或以一定概率将敌方意图设置为未知,从作战意图构成元素知识表中随机获取作战意图的一个实例作为我方作战意图,然后组合形成包括我方作战意图、敌方作战意图的作战意图。其中,敌方作战意图也可以随机设置为未知,因为在实际战争中敌方意图是要靠情报或侦察获得的,而有时是不一定能获知敌方意图,所以敌方意图可以设置为未知。
决策生成步骤S113:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策。优选地,作战决策知识库是预先构建好的,作战决策知识库中预先存储了作战决策构成规则子知识库、作战决策构成元素子知识库。作战决策构成规则子知识库包括包括作战的类型、作战的时间、作战的地点、作战的目标的组合规则。作战决策构成元素子知识库包括作战类型知识表、作战时间知识表、作战地点知识表、作战目标知识表。作战的类型例如发射导弹,此时作战时间就是发射导弹的时间,作战地点就是发射导弹的地点,作战目标就是发射导弹的攻击目标。S113的具体过程是从作战类型知识表中随机获取作战类型的一个实例作为作战类型,从作战时间知识表中随机获取作战时间的一个实例作为作战时间,类似地获得作战地点、作战目标,然后组合形成预设方的作战决策。这里的预设方作战决策,一般指我方或友方的作战决策。
如图3所示,样本筛选步骤S140的具体过程是:
作战模拟步骤S141:在所述第一作战案例样本中的作战态势下对所述第一作战案例样本中的作战决策进行模拟执行,得到作战结果。优选地,所述作战态势下模拟执行所述作战决策可以通过现有的战争模拟软件来实现,并获取模拟的结果,例如作战态势是对方战机在我方战机前方30米、我方战机是X型战机、敌方战机是Y型战机,作战决策是我方战机发射炮弹,作战结果是击落了对方战机。其中,作战态势例如敌我双方战机的属性(例如飞机型号、所载导弹型号)、性能(例如飞行速度、所载导弹的射击准确度及射击速度)、飞行轨迹(例如敌我双方战机的实时轨迹)。作战决策例如在时间t1向敌机发射导弹。
结果匹配步骤S142:计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度。例如,作战结果是我方战机击落了对方战机,那么如果我方的作战意图也是击落对方战机,那么就会匹配成功。其中,预设方,一般指的是我方或友方。
匹配判断步骤S143:判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效。
本实施例的好处是通过***自动生成作战案例样本,实现了无或少真实样本时也可以进行深度学习模型的训练,因为可以组合成各种各样的大量样本,只要随机组合的次数足够多,就能生成比真实样本更多的案例样本,从而能形成比真实案例更大量的作战案例样本。
实施例3提供一种优选的作战方法,根据实施例1或实施例2所述的作战方法,如图4所示,在所述步骤S170之后还包括步骤S210和步骤S220:
步骤S210至步骤S220属于作战实证阶段(本质上是对作战深度学习模型进行验证的阶段)。这个阶段同时对应教学法的教学阶段,因为这个阶段主要是通过真实作战案例来测试和改进在自学阶段生成的作战深度学习模型。
模型验证步骤S210:筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证。优选地,获取多个用于测试的真实作战案例样本,从中选取作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图、预设方的作战决策,将所述选取的真实作战案例的作战态势、作战意图作为作战深度学习模型的输入,通过计算得到所述作战深度学习模型的输出作为预设方的作战决策,将所述输出的预设方的作战决策与所述选取的真实作战案例中的作战决策进行匹配,判断匹配度是否大于预设阈值:是,则测试成功;否,则测试失败。
验证判断步骤S220:判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤S110继续执行。具体过程包括:多次执行测试步骤,判断测试成功的次数占测试总次数是否大于或等于预设比例:是,则验证通过;否,则验证不通过,回到样本生成步骤S110继续执行。优选地,则所述作战深度学习模型通过验证的步骤之后,通过所述用于测试的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。所述多次执行测试步骤中的执行测试步骤的次数可以为用于测试的真实作战案例中测试样本的个数,也可以是预设次数。具体地,将所述用于测试的真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述用于测试的真实作战案例样本中的作战态势、作战意图作为作战深度学习模型的输入样本,所述用于测试的真实作战案例样本中的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练。
本实施例的好处是,则通过测试来判断生成的所述作战深度学习模型是否能通过真实作战案例的检验,因为真实作战案例是过去实际发生的,如果通过了测试,说明所述作战深度学习模型就能通过实践的检验。如果测试成功,进一步利用用于测试的真实作战案例对自学形成的深度学习作战模型进行无监督训练和有监督训练,进一步提高作战深度学习模型的准确度。
实施例4提供一种优选的作战方法,根据实施例3所述的作战方法,如图5所示,在所述步骤S220之后还包括步骤S310和步骤S320。
步骤S310至步骤S320属于作战统一阶段,本质上是对所述作战深度学习模型进行使用的阶段。这个阶段同时对应教学法的考试阶段,因为这个阶段主要是对经过自学和教学两个阶段产生的所述作战深度学习模型进行应用并在应用中进一步检验。
决策生成步骤S310:获取作战态势、预设方的作战意图,将作战态势、作战意图作为作战深度学习模型的输入,通过计算得到作战深度学习模型的输出作为预设方的作战决策;优选地,将所述预设方的作战决策推荐给预设方的作战员(例如以语音发送驾驶战机的战士)也可以通过物联网直接转化为能够控制作战决策所涉及到预设方的作战装备的运行指令(例如导弹发射指令)。所述获取的作战态势、作战意图是作战演习时或实际作战时的作战态势、作战意图。
模型优化步骤S320:优选地,在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述预设方的作战意图的匹配度,判断匹配度是否大于预设阈值:是,则所述作战决策对于所述作战态势和作战意图有效,将所述作战态势、所述作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述作战态势、所述作战意图作为作战深度学习模型的输入样本,所述作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则所述作战决策对于所述作战态势和作战意图无效,回到样本生成步骤S110继续执行。可以理解的是,则如果所述作战决策失败了,说明所述作战深度学习模型需要继续改进,所以需要返回样本生成的步骤再次执行。
本实施例的好处是,通过作战深度学习模型来辅助作战决策,提高作战决策的效率和智能性。使得随着演习或实战的开展,利用演习或实战的作战案例对深度学习作战模型进一步进行无监督训练和有监督训练,进一步提高作战深度学习模型的准确度。同时,通过演习和实战来检验作战深度学习模型,如果无效,则重新优化作战深度学习模型。
实施例5、实施例6、实施例7、实施例8中的***分别与实施例1、实施例2、实施例3、实施例4中的方法相对应和类似,所以其优选实施方式和有益效果不再赘述,只给出其主要模块。
实施例5提供一种作战***,如图6所示,所述***包括模块110至模块170。
样本生成模块110:生成多个第一作战案例样本,所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策。
模型初始化模块120:初始化深度学习模型,作为作战深度学习模型。
生成样本无监督学习模块130:通过所述第一作战案例样本对所述作战深度学习模型进行无监督训练。具体包括,将所述第一作战案例样本中的作战态势、所述第一作战案例样本中的作战意图作为所述作战深度学习模型的输入样本对所述作战深度学习模型进行无监督训练。
样本筛选模块140:从多个所述第一作战案例样本中筛选出多个符合第一预设条件的第一作战案例样本,作为多个第二作战案例样本。
生成样本有监督学习模块150:通过所述第二作战案例样本对所述作战深度学习模型进行有监督训练。具体地,将所述第二作战案例样本中的作战态势、所述第二作战案例样本中的作战意图作为所述作战深度学习模型的输入样本,所述第二作战案例样本中的作战决策作为所述作战深度学习模型的输出样本,对所述作战深度学习模型进行有监督训练。
真实样本无监督学习模块160:获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练。具体包括:获取多个用于训练的真实作战案例样本,提取所述选取的真实作战案例中的作战态势、作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练。
真实样本有监督学习步骤S170:筛选出符合第二预设条件(优选地,第二预设条件为作战结果与作战意图的匹配度大于预设阈值)的多个用于训练的真实作战案例样本对所述作战深度学习模型进行有监督训练。具体包括:获取多个用于训练的真实作战案例样本,从中选取作战结果与作战意图的匹配度大于预设阈值的真实作战案例样本,提取所述选取的用于训练的真实作战案例中的作战态势、作战意图、预设方的作战决策,将所述选取的用于训练的真实作战案例的作战态势、作战意图作为作战深度学习模型的输入,将所述选取的用于训练的真实作战案例的作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练。
实施例6提供一种优选的作战***,根据实施例5所述的作战***,
如图7所示,样本生成模块110中具体生成的过程包括:
态势生成模块111:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势。
意图生成模块112:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图。
决策生成模块113:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策。
如图8所示,样本筛选模块140的具体过程是:
作战模拟模块141:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果。
结果匹配模块142:计算所述作战结果与所述第一作战案例样本中的预设方的作战意图的匹配度。
匹配判断模块143:判断所述匹配度是否大于预设阈值:是,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图有效,将所述第一作战案例样本作为第二作战案例样本,加入第二作战案例知识库;否,则所述第一作战案例样本中的作战决策对于所述第一作战案例样本中的作战态势和所述第一作战案例样本中的作战意图无效。
实施例7提供一种优选的作战***,根据实施例5或实施例6所述的作战***,如图9所示,在所述模块170之后还包括模块210和模块220:
模型验证模块210:筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证。
验证判断模块220:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,通过所述用于测试的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块110继续执行。
实施例8提供一种优选的作战***,根据实施例7所述的作战***,如图10所示,在所述模块220之后还包括模块310和模块320。
决策生成模块310:获取作战态势、预设方的作战意图,将作战态势、作战意图作为作战深度学习模型的输入,通过计算得到作战深度学习模型的输出作为预设方的作战决策;
模型优化模块320:优选地,在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述预设方的作战意图的匹配度,判断匹配度是否大于预设阈值:是,则所述作战决策对于所述作战态势和作战意图有效,将所述作战态势、所述作战意图作为作战深度学习模型的输入样本对作战深度学习模型进行无监督训练;将所述作战态势、所述作战意图作为作战深度学习模型的输入样本,所述作战决策作为作战深度学习模型的输出样本,对作战深度学习模型进行有监督训练;否,则所述作战决策对于所述作战态势和作战意图无效,回到样本生成模块110继续执行。
实施例9提供一种机器人***,所述机器人***中分别配置有如实施例5至8任一项所述的作战***。
本发明实施例把机器人当成人一样去教育,从而使得机器人在实际战争中具备类似人的主观能动性。通过(自学阶段、思辩阶段)生成作战案例样本,基于知识库自动生成作战案例样本来训练作战深度学习模型,然后通过(教学阶段、实证阶段)真实作战案例样本来对深度学习模型进行训练、测试和改进,最后通过(考试阶段、统一阶段)实战或演习来检验和进一步改进作战深度学习模型。整个过程和教学过程一样,同时也是辩证发展的过程,这种组合拳,具备了在某个阶段单一使用深度学习不可能具备的效果,使得作战深度学习模型不再依赖于真实作战案例的样本,而是可以自动生成样本,然后基于真实作战案例的样本进行训练、测试和改进作战深度学习模型,并最终进行应用到作战演习或实战,并能在演习和实战中进一步改进作战深度学习模型,使得作战深度学习模型能在实际战争演习和实战案例中不断改进和完善。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种作战方法,其特征在于,所述方法包括:
样本生成步骤:生成多个第一作战案例样本;
模型初始化步骤:初始化深度学习模型,作为作战深度学习模型;
生成样本无监督学习步骤:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选步骤:从多个所述第一作战案例样本中筛选出多个符合第一预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
生成样本有监督学习步骤:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练;
真实样本无监督学习步骤:获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练;
真实样本有监督学习步骤:筛选出符合第二预设条件的多个用于训练的真实作战案例样本,对所述作战深度学习模型进行有监督训练。
2.根据权利要求1所述的作战方法,其特征在于,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成步骤具体包括:
态势生成步骤:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成步骤:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成步骤:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选步骤具体包括:
作战模拟步骤:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配步骤:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断步骤:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
3.根据权利要求1或2所述的作战方法,其特征在于,在所述真实样本有监督学习步骤之后还包括:
模型验证步骤:筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证;
验证判断步骤:判断所述验证是否通过:是,则所述作战深度学习模型通过验证;否,则转到样本生成步骤继续执行。
4.根据权利要求3所述的作战方法,其特征在于,在所述验证判断步骤之后还包括:
决策生成步骤:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化步骤:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
5.根据权利要求3所述的作战方法,其特征在于,在则所述作战深度学习模型通过验证的步骤之后还包括:使用所述用于测试的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练。
6.一种作战***,其特征在于,所述***包括:
样本生成模块:生成多个第一作战案例样本;
模型初始化模块:初始化深度学习模型,作为作战深度学习模型;
生成样本无监督学习模块:使用所述第一作战案例样本对所述作战深度学习模型进行无监督训练;
样本筛选模块:从多个所述第一作战案例样本中筛选出多个符合第一预设条件的所述第一作战案例样本,作为多个第二作战案例样本;
生成样本有监督学习模块:使用所述第二作战案例样本对所述作战深度学习模型进行有监督训练;
真实样本无监督学习模块:获取多个用于训练的真实作战案例样本,对所述作战深度学习模型进行无监督训练;
真实样本有监督学习模块:筛选出符合第二预设条件的多个用于训练的真实作战案例样本,对所述作战深度学习模型进行有监督训练。
7.根据权利要求6所述的作战***,其特征在于,
所述第一作战案例样本包括作战态势、作战意图、预设方的作战决策;
所述样本生成模块具体包括:
态势生成模块:根据预设作战态势知识库生成所述第一作战案例样本中的作战态势;
意图生成模块:根据预设作战意图知识库生成所述第一作战案例样本中的作战意图;
决策生成模块:根据预设作战决策知识库生成所述第一作战案例样本中的作战决策;
所述样本筛选模块具体包括:
作战模拟模块:模拟执行所述第一作战案例样本中的作战态势下所述第一作战案例样本中的作战决策,得到作战结果;
结果匹配模块:计算所述作战结果与所述第一作战案例样本中的作战意图的匹配度;
匹配判断模块:判断所述匹配度是否大于预设阈值:是,则将所述作战态势、所述作战意图、所述作战决策作为第二作战案例样本。
8.根据权利要求6或7所述的作战***,其特征在于,所述***还包括:
模型验证模块:筛选出作战结果与作战意图的匹配度大于预设阈值的多个用于测试的真实作战案例样本对所述作战深度学习模型进行验证;
验证判断模块:判断所述验证是否通过:是,则所述作战深度学习模型通过验证,使用所述用于测试的真实作战案例样本对所述作战深度学习模型进行无监督训练和有监督训练;否,则转到样本生成模块继续执行。
9.根据权利要求8所述的作战***,其特征在于,所述***还包括:
决策生成模块:将作战态势、作战意图作为所述作战深度学习模型的输入,计算得到所述作战深度学习模型的输出作为作战决策;
模型优化模块:在所述作战决策产生作战结果之后,获取所述作战决策对应的作战结果,计算所述作战结果与所述作战意图的匹配度,判断匹配度是否大于预设阈值:是,则使用所述作战态势、所述作战意图、所述作战决策对所述作战深度学习模型进行无监督训练和有监督训练;否,则回到样本生成步骤继续执行。
10.一种机器人***,其特征在于,所述机器人***中分别配置有如权利要求6至9任一项所述的作战***。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810774081.9A CN108985463B (zh) | 2018-07-15 | 2018-07-15 | 基于知识库和深度学习的人工智能作战方法和作战*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810774081.9A CN108985463B (zh) | 2018-07-15 | 2018-07-15 | 基于知识库和深度学习的人工智能作战方法和作战*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108985463A true CN108985463A (zh) | 2018-12-11 |
CN108985463B CN108985463B (zh) | 2021-10-26 |
Family
ID=64549013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810774081.9A Active CN108985463B (zh) | 2018-07-15 | 2018-07-15 | 基于知识库和深度学习的人工智能作战方法和作战*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108985463B (zh) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964019A (zh) * | 2010-09-10 | 2011-02-02 | 北京航空航天大学 | 基于Agent技术的对抗行为建模仿真平台及仿真方法 |
CN103413174A (zh) * | 2013-08-30 | 2013-11-27 | 哈尔滨工业大学 | 基于深度学习方法的短期风速多步预测方法 |
WO2015034098A1 (ja) * | 2013-09-09 | 2015-03-12 | フィールズ株式会社 | ゲーム処理装置、ゲーム処理方法及びコンピュータプログラム |
CN104484682A (zh) * | 2014-12-31 | 2015-04-01 | 中国科学院遥感与数字地球研究所 | 一种基于主动深度学习的遥感图像分类方法 |
CN104914851A (zh) * | 2015-05-21 | 2015-09-16 | 北京航空航天大学 | 一种基于深度学习的飞机旋转作动器驱动装置自适应故障检测方法 |
CN105096614A (zh) * | 2015-09-23 | 2015-11-25 | 南京遒涯信息技术有限公司 | 基于生成型深信度网络的新建路***通流量预测方法 |
CN105654232A (zh) * | 2015-12-24 | 2016-06-08 | 大连陆海科技股份有限公司 | 基于多维度空间融合的海岸监控与防御决策***及方法 |
CN106020215A (zh) * | 2016-05-09 | 2016-10-12 | 北京航空航天大学 | 一种基于单步预测矩阵博弈的近距空战自主决策方法 |
CN106952014A (zh) * | 2017-02-10 | 2017-07-14 | 南京航空航天大学 | 一种基于军事仿真器的作战方案优化方法 |
CN107451195A (zh) * | 2017-07-03 | 2017-12-08 | 三峡大学 | 一种基于大数据可视化的兵棋推演*** |
CN107479706A (zh) * | 2017-08-14 | 2017-12-15 | 中国电子科技集团公司第二十八研究所 | 一种基于HoloLens的战场态势信息构建与交互实现方法 |
US20170372197A1 (en) * | 2016-06-27 | 2017-12-28 | International Business Machines Corporation | Customized cooking utilizing deep learning neuromorphic computing of hyperspectral input |
CN107798454A (zh) * | 2017-05-08 | 2018-03-13 | 南京航空航天大学 | 一种基于动态直觉模糊法的舰艇编队群决策威胁估计方法 |
CN107798390A (zh) * | 2017-11-22 | 2018-03-13 | 阿里巴巴集团控股有限公司 | 一种机器学习模型的训练方法、装置以及电子设备 |
CN107830766A (zh) * | 2016-08-22 | 2018-03-23 | 李查启学 | 无人飞行器陆空防御装置*** |
US20180117471A1 (en) * | 2013-02-28 | 2018-05-03 | Gree, Inc. | Server, recording medium and system |
CN108021754A (zh) * | 2017-12-06 | 2018-05-11 | 北京航空航天大学 | 一种无人机自主空战决策框架及方法 |
CN108171329A (zh) * | 2017-12-13 | 2018-06-15 | 华南师范大学 | 深度学习神经网络训练方法、层数调整装置和机器人*** |
-
2018
- 2018-07-15 CN CN201810774081.9A patent/CN108985463B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101964019A (zh) * | 2010-09-10 | 2011-02-02 | 北京航空航天大学 | 基于Agent技术的对抗行为建模仿真平台及仿真方法 |
US20180117471A1 (en) * | 2013-02-28 | 2018-05-03 | Gree, Inc. | Server, recording medium and system |
CN103413174A (zh) * | 2013-08-30 | 2013-11-27 | 哈尔滨工业大学 | 基于深度学习方法的短期风速多步预测方法 |
WO2015034098A1 (ja) * | 2013-09-09 | 2015-03-12 | フィールズ株式会社 | ゲーム処理装置、ゲーム処理方法及びコンピュータプログラム |
CN104484682A (zh) * | 2014-12-31 | 2015-04-01 | 中国科学院遥感与数字地球研究所 | 一种基于主动深度学习的遥感图像分类方法 |
CN104914851A (zh) * | 2015-05-21 | 2015-09-16 | 北京航空航天大学 | 一种基于深度学习的飞机旋转作动器驱动装置自适应故障检测方法 |
CN105096614A (zh) * | 2015-09-23 | 2015-11-25 | 南京遒涯信息技术有限公司 | 基于生成型深信度网络的新建路***通流量预测方法 |
CN105654232A (zh) * | 2015-12-24 | 2016-06-08 | 大连陆海科技股份有限公司 | 基于多维度空间融合的海岸监控与防御决策***及方法 |
CN106020215A (zh) * | 2016-05-09 | 2016-10-12 | 北京航空航天大学 | 一种基于单步预测矩阵博弈的近距空战自主决策方法 |
US20170372197A1 (en) * | 2016-06-27 | 2017-12-28 | International Business Machines Corporation | Customized cooking utilizing deep learning neuromorphic computing of hyperspectral input |
CN107830766A (zh) * | 2016-08-22 | 2018-03-23 | 李查启学 | 无人飞行器陆空防御装置*** |
CN106952014A (zh) * | 2017-02-10 | 2017-07-14 | 南京航空航天大学 | 一种基于军事仿真器的作战方案优化方法 |
CN107798454A (zh) * | 2017-05-08 | 2018-03-13 | 南京航空航天大学 | 一种基于动态直觉模糊法的舰艇编队群决策威胁估计方法 |
CN107451195A (zh) * | 2017-07-03 | 2017-12-08 | 三峡大学 | 一种基于大数据可视化的兵棋推演*** |
CN107479706A (zh) * | 2017-08-14 | 2017-12-15 | 中国电子科技集团公司第二十八研究所 | 一种基于HoloLens的战场态势信息构建与交互实现方法 |
CN107798390A (zh) * | 2017-11-22 | 2018-03-13 | 阿里巴巴集团控股有限公司 | 一种机器学习模型的训练方法、装置以及电子设备 |
CN108021754A (zh) * | 2017-12-06 | 2018-05-11 | 北京航空航天大学 | 一种无人机自主空战决策框架及方法 |
CN108171329A (zh) * | 2017-12-13 | 2018-06-15 | 华南师范大学 | 深度学习神经网络训练方法、层数调整装置和机器人*** |
Non-Patent Citations (2)
Title |
---|
姚庆锴等: "战场目标作战意图识别问题研究与展望", 《指挥与控制学报》 * |
欧微等: "基于时序特征编码的目标战术意图识别算法", 《指挥控制与仿真》 * |
Also Published As
Publication number | Publication date |
---|---|
CN108985463B (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109063845A (zh) | 基于生成样本的深度学习方法和机器人*** | |
CN108489329B (zh) | 一种基于杀伤链的武器装备体系分析方法 | |
McKinley et al. | Operator selection for unmanned aerial systems: comparing video game players and pilots | |
CN101964019A (zh) | 基于Agent技术的对抗行为建模仿真平台及仿真方法 | |
CN107766668A (zh) | 一种基于神经网络的复杂仿真模型验证方法 | |
CN109543933A (zh) | 一种网安人员技能测评*** | |
CN109064821A (zh) | 一种基于虚拟现实的安保综合训练***及方法 | |
CN110955592A (zh) | 一种飞行训练模拟器软件的测试方法及装置 | |
Gombolay et al. | Machine learning techniques for analyzing training behavior in serious gaming | |
CN108828948A (zh) | 基于深度学习的人工智能作战方法和机器人*** | |
CN108958030A (zh) | 基于知识库的人工智能作战方法和机器人*** | |
CN108985463A (zh) | 基于知识库和深度学习的人工智能作战方法和机器人*** | |
WO2022060241A1 (ru) | Интерактивный тренажер для осуществления тренировок с помощью виртуальной реальности | |
Kelly | Performance measurement during simulated air-to-air combat | |
ARAR et al. | A flexible rule-based framework for pilot performance analysis in air combat simulation systems | |
Gombolay et al. | Learning to tutor from expert demonstrators via apprenticeship scheduling | |
Berger | Evaluating an implementation of an adaptive game-based learning architecture | |
Merk et al. | Assessing behaviour of cognitive agents in a flight simulator with fighter pilots | |
Hoff et al. | Interactive simulation to support the transition of forces | |
Perla | War Games, analyses, and exercises | |
Ting et al. | Snap: A time critical decision‐making framework for MOUT simulations | |
Karneeb et al. | Distributed discrepancy detection for bvr air combat | |
Oh et al. | Testing reliability of replay-based imitation for StarCraft | |
Ting et al. | Dealing with dynamic changes in time critical decision‐making for MOUT simulations | |
Stevens et al. | Measuring visual displays’ effect on novice performance in door gunnery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |