CN110234003A - 一种仿真无人机飞行的方法、装置、终端及*** - Google Patents

一种仿真无人机飞行的方法、装置、终端及*** Download PDF

Info

Publication number
CN110234003A
CN110234003A CN201910549733.3A CN201910549733A CN110234003A CN 110234003 A CN110234003 A CN 110234003A CN 201910549733 A CN201910549733 A CN 201910549733A CN 110234003 A CN110234003 A CN 110234003A
Authority
CN
China
Prior art keywords
operating parameter
unmanned plane
video capture
plane during
during flying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910549733.3A
Other languages
English (en)
Inventor
沙海亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Runke General Technology Co Ltd
Original Assignee
Beijing Runke General Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Runke General Technology Co Ltd filed Critical Beijing Runke General Technology Co Ltd
Priority to CN201910549733.3A priority Critical patent/CN110234003A/zh
Publication of CN110234003A publication Critical patent/CN110234003A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种仿真无人机飞行的方法、装置、终端及***,该方法包括:接收对目标模拟机下发的飞行任务信息,目标模拟机包括:视频拍摄模块和旋转模块,视频拍摄模块安装在旋转模块上;获取与飞行任务信息对应的运行参数;依据运行参数,驱动旋转模块旋转,带动视频拍摄模块运动;接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流;采集VR眼镜的动作空间坐标,将动作空间坐标和全视角视频数据流进行视景叠加,获得三维场景;将三维场景发送至VR眼镜进行显示。上述方法,将动作空间坐标和全视角视频数据流进行叠加得到三维场景图传递给VR眼镜进行显示,实现了三维场景图随动作空间坐标的改变而改变,提升了沉浸感。

Description

一种仿真无人机飞行的方法、装置、终端及***
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种仿真无人机飞行的方法、装置、终端及***。
背景技术
对无人机飞行任务的仿真一般采用的是大屏幕显示设备进行显示,即通过固定视角的场景输入获得相应的飞行任务信息,并根据这些信息实时操控手柄,实现无人机的模拟飞行并完成任务训练。
发明人对现有的无人机飞行任务的仿真过程进行研究发现,显示设备上的飞行任务信息为固定视景信息,操作者无法根据需求调整视角,造成沉浸感下降。
发明内容
有鉴于此,本发明提供了一种仿真无人机飞行的方法、装置、终端及***,用以解决现有技术中显示设备上的飞行任务信息为固定视景信息,操作者无法根据需求调整视角,造成沉浸感下降的问题。具体方案如下:
一种仿真无人机飞行的方法,包括:
接收对目标模拟机下发的飞行任务信息,所述目标模拟机包括:视频拍摄模块和旋转模块,所述视频拍摄模块安装在所述旋转模块上;
获取与所述飞行任务信息对应的运行参数;
依据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动;
接收所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流;
采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;
将所述三维场景发送至所述VR眼镜进行显示。
上述的方法,可选的,还包括:
当所述三维场景不符合所述飞行任务信息的任务要求时,对所述运行参数进行调整,获取调整后的运行参数,依据所述调整后的运行参数,运行所述目标模拟机。
上述的方法,可选的,获取与所述飞行任务信息对应的运行参数包括:
获取所述飞行任务信息中外部场景范围,依据所述外部场景范围计算所述运行参数。
上述的方法,可选的,所述视频拍摄模块为摄像头。
上述的方法,可选的,所述旋转模块为云台。
一种仿真无人机飞行的装置,包括:
任务接收单元,用于接收对目标模拟机下发的飞行任务信息;
参数获取单元,用于获取与所述飞行任务信息对应的运行参数;
拍摄驱动单元,用于依据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动;
接收转换单元,用于接收所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流;
视景叠加单元,用于采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;
三维场景发送单元,用于将所述三维场景发送至所述VR眼镜进行显示。
一种仿真无人机飞行的终端,上述的仿真无人机飞行的装置。
一种仿真无人机飞行的***,包括:仿真无人机飞行的终端,目标模拟机和VR眼镜,其中:
所述仿真无人机飞行的终端接收对目标模拟机下发的飞行任务信息,获取与所述飞行任务信息对应的运行参数,依据所述运行参数,控制所述目标模拟器;
所述目标模拟机包括:视频拍摄模块和旋转模块,所述视频拍摄模块安装在所述旋转模块上,其中,所述旋转模块接收运行参数,依据所述运行参数,带动所述视频拍摄模块转动,所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流,并将所述全视角视频流反馈给所述仿真无人机飞行的终端;
所述仿真无人机飞行的终端接收所述全视角视频流,采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景,将所述三维场景发送至所述VR眼镜;
所述VR眼镜,用于将接收到的所述三维场景进行展示。
上述的***,可选的,还包括:地面站人机交互平台,其中:
所述地面站人机交互平台,用于计算所述飞行任务信息中的外部场景范围,依据所述外部场景范围,计算所述运行参数并且若所述运行参数不符合所述飞行任务信息的任务要求时,调整所述运行参数。
上述的***,可选的,还包括:与所述仿真无人机飞行的终端相连接的网络交换机。
与现有技术相比,本发明包括以下优点:
本发明公开了一种仿真无人机飞行的方法、装置、终端及***,该方法包括:接收对目标模拟机下发的飞行任务信息,目标模拟机包括:视频拍摄模块和旋转模块,视频拍摄模块安装在旋转模块上;获取与飞行任务信息对应的运行参数;依据运行参数,驱动旋转模块旋转,带动视频拍摄模块运动;接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流;采集VR眼镜的动作空间坐标,将动作空间坐标和全视角视频数据流进行视景叠加,获得三维场景;将三维场景发送至VR眼镜进行显示。上述方法,通过驱动旋转模块旋转,带动视频拍摄模块运动,使得视频拍摄模块可以随着旋转模块转动,因此,视频拍摄模块采集的外部场景是全视角的,不再是固定视角的,接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流,将全视角视频数据流和采集得到的VR眼镜的动作空间坐标进行叠加得到三维场景图递给VR眼镜进行显示,当动作空间发生变化时,三维场景随动作空间坐标的改变而改变,提升了沉浸感。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例公开的一种仿真无人机飞行的***结构框图;
图2为本发明实施例公开的一种仿真无人机飞行的***互联示意图;
图3为本发明实施例公开的一种仿真无人机飞行的方法流程图;
图4为本发明实施例公开的一种仿真无人机飞行的装置结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开了一种仿真无人机飞行的方法、装置、终端及***,应用在对无人机的飞行任务进行仿真的过程中,现有技术中,用于仿真的模拟机是上安装的摄像头是固定的,摄像头采集得到的三维场景直接显示在终端上,由于,摄像头是固定的,基于摄像头采集的外部场景固定,导致转换得到的三维场景固定,无法根据需求进行视景调整,沉浸感低,基于上述的问题,本发明提供了一种仿真无人机飞行的***,如图1所示,包括:仿真无人机飞行的终端101、由视频拍摄模块102和旋转模块103组成的目标模拟机和VR眼镜104,其中:
所述仿真无人机飞行的终端接收对目标模拟机下发的飞行任务信息,所述目标模拟机包括:视频拍摄模块102和旋转模块103,所述视频拍摄模块102安装在所述旋转模块103上,获取与所述飞行任务信息对应的运行参数;据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动。
所述目标模拟机包括:视频拍摄模块102和旋转模块103,所述视频拍摄模块102安装在所述旋转模块103上,所述视频拍摄模块102采集外部场景,并将所述外部场景转为全视角视频流,所述旋转模块103,用于接收运行参数,依据所述运行参数,带动所述视频拍摄模块102转动,所述视频拍摄模块102采集外部场景,并将所述外部场景转为全视角视频流,并将所述全视角视频流反馈给所述仿真无人机飞行的终端,其中,所述视频拍摄模块包括摄像头,所述旋转模块包括云台。
所述仿真无人机飞行的终端101接收所述全视角视频流;采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;将所述三维场景发送至所述VR眼镜进行显示,其中,所述仿真无人机飞行的终端101可以为计算机、平板或者其它类型的终端。
所述VR眼镜104与所述仿真无人机飞行的终端101相连接,用于将接收到的三维场景进行展示,其中,所述VR眼镜104佩戴于所述目标模拟机操控者的头部,所述VR眼镜104的展示的三维场景图随所述目标模拟机操控者头部的转动、移动或者其它的位置变化形式而发生变化。
本发明提供的所述仿真无人机飞行的***,通过驱动旋转模块旋转,带动视频拍摄模块运动,使得视频拍摄模块可以随着旋转模块转动,因此,视频拍摄模块采集的外部场景是全视角的,不再是固定视角的,接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流,将全视角视频数据流和采集得到的VR眼镜的动作空间坐标进行叠加得到三维场景图递给VR眼镜进行显示,当动作空间发生变化时,三维场景随动作空间坐标的改变而改变,提升了沉浸感。
本发明实施例中,所述仿真无人机飞行的***中,仿真无人机飞行的终端获取的所述飞行任务信息对应的运行参数可以是仿真无人机飞行的终端自行处理得到的,也可以是,获取其他设备处理得到运行参数后,仿真无人机飞行的终端从这些设备处获取的,例如,该其他设备可以是地面站人机交互平台105。
所述地面站人机交互平台105,能够获取所述飞行任务信息,计算所述飞行任务信息中的外部场景范围,其中,所述外部场景范围包括与所述飞行任务信息对应的目标三维场景的X向、Y向和Z向的范围,其中,所述飞行任务信息还可以包括:起飞机场信息,油量信息、飞行速度和航路点信息等,所述仿真无人机飞行的终端101依据所述飞行任务信息中外部场景范围,计算与所述飞行任务信息对应的运行参数。其中,所述运行参数可以为所述摄像头102的拍摄角度、所述云台的旋转角度、所述目标模拟机的行驶路线、所述目标模拟机的飞行速度和所述目标模拟机的预计飞行距离等。依据所述运行参数控制所述目标模拟机进行飞行任务。
在实际的仿真过程中,由于所述运行参数对所述目标模拟机的控制可能存在偏差,需要对运行参数进行调整,参数调整的过程同样可以在所述仿无人机飞行的终端101或者所述地面无人机交互平台105进行,以调整过程在所述地面无人机交互平台105为例进行说明,在所述仿无人机飞行的终端101的执行过程相同,在此不再赘述。
调整方法如下:由于目标模拟机在仿真过程中受外部环境的影响实际的运行参数与所述地面站无人机交互平台105下发的运行参数可能存在差别,所述外部环境可以包括雨雪或者风等天气造成的影响或者控制器误差造成的影响等。所述地面站人机交互平台105还可以接收所述目标模拟机的实际运行参数,判断所述实际运行参数是否满足所述运行参数要求,其中,对是否满足所述运行参数进行判断,可以判断对应数据的差值是否在误差允许的范围内,例如,以所述旋转模块的旋转角度为例,将所述运行参数中的要求旋转角度与实际旋转角度进行对比,判断两者的差值是否满足预设的误差阈值,若满足预设的误差阈值,判定所述运行参数中旋转角度是满足要求的,反之,若不满足预设的误差阈值,判定所述运行参数中旋转角度不满足要求,依据所述旋转角度与实际旋转角度的差值对实际旋转角度进行调整。
进一步的,对所述运行参数的调整,还可以通过获取所述地面无人机交互平台105中与所述飞行任务信息对应的目标三维场景,将所述三维场景与所述飞行任务信息的任务要求对应的目标三维场景进行比较,将两者的差异值反馈给所述地面站无人机交互平台105,所述地面无人机交互平台105依据所述差异值对所述运行参数进行调整,得到调整后的参数,获取所述调整后的参数,依据调整后的运行参数,运行所述目标模拟机。例如:所述三维场景和所述目标三维场景在X方向显示的距离少3m,所述地面无人机交互平台会提高所述视频拍摄模块102的拍摄角度,令所述三维场景与所述目标三维场景一致。
其中,所述仿真无人机飞行的终端101和所述地面站人机交互平台105的通信的方式可以包括:有线连接或者无线连接两种。进一步的,还可以所述目标模拟机的飞行任务数据进行离线下载存储,对所述飞行任务数据进行研究,供后续的仿真过程提供依据。
本发明实施例中,所述仿真无人机飞行的***还包括:与所述仿真无人机飞行的终端101相连接的网络交换机,连接关系的示意图如图2所示,其中:
所述网络交换机,用于建立高速以太网,实现各个仿真无人机飞行的***的互联,将所述各个仿真无人机飞行的***中的目标模拟机进行席位互联,形成多席位交互。
基于上述的仿真无人机飞行的***,本发明实施例中,还提供了一种仿真无人机飞行的方法,所述方法的执行主体可以为所述仿真无人机飞行的***中的仿真无人机飞行的终端101,所述方法的执行流程如图3所示,包括步骤:
S201、接收对目标模拟机下发的飞行任务信息,所述目标模拟机包括:视频拍摄模块和旋转模块,所述视频拍摄模块安装在所述旋转模块上;
本发明实施例中,在仿真无人机飞行过程中,所述飞行任务信息用于控制所述目标模拟机。所述目标模拟机中的视频拍摄模块用于拍摄外部场景,所述视频拍摄模块安装在所述旋转模块上,当所述旋转模块转动时,所述视频拍摄模块随之转动,其中,所述视频拍摄模块包括摄像头,所述旋转模块包括云台。
S202、获取与所述飞行任务信息对应的运行参数;
本发明实施例中,当接收到所述飞行任务信息时,依据所述飞行任务信息,计算与所述飞行任务信息对应的运行参数,进一步的,也可以为通过所述地面通过地面站人机交互平台105依据所述飞行任务信息,计算所述飞行任务信息对应的运行参数。例如,依据航路点信息,可以确定所述目标模拟机的中所述视频拍摄模块的拍摄角度和所述旋转模块的旋转角度,获取所述飞行任务信息中包含的标识,依据所述标识,获取与所述飞行任务信息对应的运行参数,本发明实施例中,对标识的具体形式不进行限定。
S203、依据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动;
本发明实施例中,所述仿真无人机飞行的终端101依据所述运行参数驱动所述旋转模块旋转依据与其对应的旋转角度进行旋转,带动所述视频拍摄模块依据与所述运行参数对应的拍摄角度在所述旋转角度下运动。
S204、接收所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流;
本发明实施例中,接收所述视频拍摄模块采集外部场景,在标准视频传输协议下,将所述外部场景通过视频采集卡转换为全视角视频数据流,所述全视角视频流为水平180度和垂直180度的视频流。
S205、采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;
本发明实施例中,所述动作空间坐标可以包括VR眼镜104的视角、距初始原点的X向距离、距初始原点的Y向距离、距初始原点的Z向距离,其中,所述初始原点是预先依据所述VR眼镜104的初始位置进行设定的。所述VR眼镜的动作空间坐标随着VR眼镜的佩戴者转动或者移动产生变化,其中,转动可以包括向左右看和向上下看,移动可以包括前后移动和左右移动,每一次转动或者移动都会产生动作空间坐标的变化,在对应的传感器或者数据输出接口中获取所述动作空间坐标,将所述动作空间坐标和所述全视角视频数据流中对应的视频帧进行视景叠加,叠加的原则:将动作空间坐标与所述全视角视频流中的视频帧建立对应关系,得到三维场景图。
S205、将所述三维场景发送至所述VR眼镜进行显示。
本发明实施例中,将所述三维场景图发送至所述VR眼镜进行视景显示,对于所述VR眼镜的佩戴者而言,可以达到三维场景随着佩戴者的移动而动态的改变,沉浸感提升。
本发明公开了一种仿真无人机飞行的方法,包括:接收对目标模拟机下发的飞行任务信息,目标模拟机包括:视频拍摄模块和旋转模块,视频拍摄模块安装在旋转模块上;获取与飞行任务信息对应的运行参数;依据运行参数,驱动旋转模块旋转,带动视频拍摄模块运动;接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流;采集VR眼镜的动作空间坐标,将动作空间坐标和全视角视频数据流进行视景叠加,获得三维场景;将所述三维场景发送至所述VR眼镜进行显示。上述方法,通过驱动旋转模块旋转,带动视频拍摄模块运动,使得视频拍摄模块可以随着旋转模块转动,因此,视频拍摄模块采集的外部场景是全视角的,不再是固定视角的,接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流,将全视角视频数据流和采集得到的VR眼镜的动作空间坐标进行叠加得到三维场景图递给VR眼镜进行显示,当动作空间发生变化时,三维场景随动作空间坐标的改变而改变,提升了沉浸感。
基于上述的一种仿真无人机飞行的方法,本发明实施例中还提供了一种仿真无人机飞行的装置,所述装置的结构框图如图4所示,包括:
任务接收单元301、参数获取单元302、拍摄驱动单元303、接收转换单元304、视景叠加单元305和三维场景发送单元306。
其中,
所述任务接收单元301,用于接收对目标模拟机下发的飞行任务信息;
所述参数获取单元302,用于获取与所述飞行任务信息对应的运行参数;
所述拍摄驱动单元303,用于依据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动;
所述接收转换单元304,用于接收所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流;
所述视景叠加单元305,用于采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;
所述三维场景发送单元306,用于将所述三维场景发送至所述VR眼镜进行显示。
本发明公开了一种仿真无人机飞行的装置,包括:接收对目标模拟机下发的飞行任务信息,目标模拟机包括:视频拍摄模块和旋转模块,视频拍摄模块安装在旋转模块上;获取与飞行任务信息对应的运行参数;依据运行参数,驱动旋转模块旋转,带动视频拍摄模块运动;接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流;采集VR眼镜的动作空间坐标,将动作空间坐标和全视角视频数据流进行视景叠加,获得三维场景;将所述三维场景发送至所述VR眼镜进行显示。上述装置,通过驱动旋转模块旋转,带动视频拍摄模块运动,使得视频拍摄模块可以随着旋转模块转动,因此,视频拍摄模块采集的外部场景是全视角的,不再是固定视角的,接收视频拍摄模块采集外部场景,并将外部场景转为全视角视频流,将全视角视频数据流和采集得到的VR眼镜的动作空间坐标进行叠加得到三维场景图递给VR眼镜进行显示,当动作空间发生变化时,三维场景随动作空间坐标的改变而改变,提升了沉浸感。
基于上述的仿真无人机飞行的装置,本发明实施例中还提供了一种仿真无人机飞行的终端,所述仿真无人机飞行的终端包括上述的仿真无人机飞行的装置,其中,所述仿真无人机飞行的终端可以是计算机、平板或者其它类型的终端。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本发明时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上对本发明所提供的一种一种仿真无人机飞行的方法、装置、终端及***进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种仿真无人机飞行的方法,其特征在于,包括:
接收对目标模拟机下发的飞行任务信息,所述目标模拟机包括:视频拍摄模块和旋转模块,所述视频拍摄模块安装在所述旋转模块上;
获取与所述飞行任务信息对应的运行参数;
依据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动;
接收所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流;
采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;
将所述三维场景发送至所述VR眼镜进行显示。
2.根据权利要求1所述的方法,其特征在于,还包括:
当所述三维场景不符合所述飞行任务信息的任务要求时,对所述运行参数进行调整,获取调整后的运行参数,依据所述调整后的运行参数,运行所述目标模拟机。
3.根据权利要求1所述的方法,其特征在于,获取与所述飞行任务信息对应的运行参数包括:
获取所述飞行任务信息中外部场景范围,依据所述外部场景范围计算所述运行参数。
4.根据权利要求1所述的方法,其特征在于,所述视频拍摄模块为摄像头。
5.根据权利要求1所述的方法,其特征在于,所述旋转模块为云台。
6.一种仿真无人机飞行的装置,其特征在于,包括:
任务接收单元,用于接收对目标模拟机下发的飞行任务信息;
参数获取单元,用于获取与所述飞行任务信息对应的运行参数;
拍摄驱动单元,用于依据所述运行参数,驱动所述旋转模块旋转,带动所述视频拍摄模块运动;
接收转换单元,用于接收所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流;
视景叠加单元,用于采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景;
三维场景发送单元,用于将所述三维场景发送至所述VR眼镜进行显示。
7.一种仿真无人机飞行的终端,其特征在于,包括如权利要求6所述的仿真无人机飞行的装置。
8.一种仿真无人机飞行的***,其特征在于,包括:仿真无人机飞行的终端,目标模拟机和VR眼镜,其中:
所述仿真无人机飞行的终端接收对目标模拟机下发的飞行任务信息,获取与所述飞行任务信息对应的运行参数,依据所述运行参数,控制所述目标模拟器;
所述目标模拟机包括:视频拍摄模块和旋转模块,所述视频拍摄模块安装在所述旋转模块上,其中,所述旋转模块接收所述运行参数,依据所述运行参数,带动所述视频拍摄模块转动,所述视频拍摄模块采集外部场景,并将所述外部场景转为全视角视频流,并将所述全视角视频流反馈给所述仿真无人机飞行的终端;
所述仿真无人机飞行的终端接收所述全视角视频流,采集VR眼镜的动作空间坐标,将所述动作空间坐标和所述全视角视频数据流进行视景叠加,获得三维场景,将所述三维场景发送至所述VR眼镜;
所述VR眼镜,用于将接收到的所述三维场景进行展示。
9.根据权利要求8所述的***,其特征在于,还包括:地面站人机交互平台,其中:
所述地面站人机交互平台,用于计算所述飞行任务信息中的外部场景范围,依据所述外部场景范围,计算所述运行参数并且若所述运行参数不符合所述飞行任务信息的任务要求时,调整所述运行参数。
10.根据权利要求8所述的***,其特征在于,还包括:与所述仿真无人机飞行的终端相连接的网络交换机。
CN201910549733.3A 2019-06-24 2019-06-24 一种仿真无人机飞行的方法、装置、终端及*** Pending CN110234003A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910549733.3A CN110234003A (zh) 2019-06-24 2019-06-24 一种仿真无人机飞行的方法、装置、终端及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910549733.3A CN110234003A (zh) 2019-06-24 2019-06-24 一种仿真无人机飞行的方法、装置、终端及***

Publications (1)

Publication Number Publication Date
CN110234003A true CN110234003A (zh) 2019-09-13

Family

ID=67857300

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910549733.3A Pending CN110234003A (zh) 2019-06-24 2019-06-24 一种仿真无人机飞行的方法、装置、终端及***

Country Status (1)

Country Link
CN (1) CN110234003A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191032A (zh) * 2021-07-02 2021-07-30 北京远度互联科技有限公司 一种视角仿真方法、装置、***和存储介质
CN114202981A (zh) * 2021-12-10 2022-03-18 新疆工程学院 一种用于摄影测量实验的仿真平台
WO2023036199A1 (zh) * 2021-09-07 2023-03-16 深圳市道通智能航空技术股份有限公司 控制飞行器拍摄旋转镜头视频的方法、装置、设备及介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025002A (ja) * 1999-07-07 2001-01-26 Mitsubishi Electric Corp 遠隔撮影システム、撮影装置及び遠隔撮影方法
CN102043410A (zh) * 2010-09-30 2011-05-04 清华大学 操纵人员头部运动指示无人机云台伺服***
CN105141851A (zh) * 2015-09-29 2015-12-09 杨珊珊 无人飞行器用控制***、无人飞行器及控制方法
CN105222761A (zh) * 2015-10-29 2016-01-06 哈尔滨工业大学 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶***及驾驶方法
CN105759833A (zh) * 2016-02-23 2016-07-13 普宙飞行器科技(深圳)有限公司 一种沉浸式无人机驾驶飞行***
CN106094876A (zh) * 2016-07-04 2016-11-09 苏州光之翼智能科技有限公司 一种无人机目标锁定***及其方法
CN106444810A (zh) * 2016-10-31 2017-02-22 浙江大学 借助虚拟现实的无人机机械臂空中作业***及其控制方法
TWM538410U (zh) * 2016-12-07 2017-03-21 元野運動事業有限公司 娛樂設備及互動娛樂系統
CN106933133A (zh) * 2015-12-30 2017-07-07 比亚迪股份有限公司 无人机、无人机控制终端以及无人机控制方法和***
KR20170114458A (ko) * 2016-04-05 2017-10-16 조건희 스테레오 카메라를 장착하여 가상현실 3d 영상으로 주변을 탐색하는 드론 및 이와 연동하는 복합 기능의 vr 장치
CN108476288A (zh) * 2017-05-24 2018-08-31 深圳市大疆创新科技有限公司 拍摄控制方法及装置
CN109292103A (zh) * 2018-07-27 2019-02-01 北京臻迪科技股份有限公司 云台调整方法、装置、无人机及云台调整***

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025002A (ja) * 1999-07-07 2001-01-26 Mitsubishi Electric Corp 遠隔撮影システム、撮影装置及び遠隔撮影方法
CN102043410A (zh) * 2010-09-30 2011-05-04 清华大学 操纵人员头部运动指示无人机云台伺服***
CN105141851A (zh) * 2015-09-29 2015-12-09 杨珊珊 无人飞行器用控制***、无人飞行器及控制方法
CN105222761A (zh) * 2015-10-29 2016-01-06 哈尔滨工业大学 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶***及驾驶方法
CN106933133A (zh) * 2015-12-30 2017-07-07 比亚迪股份有限公司 无人机、无人机控制终端以及无人机控制方法和***
CN105759833A (zh) * 2016-02-23 2016-07-13 普宙飞行器科技(深圳)有限公司 一种沉浸式无人机驾驶飞行***
KR20170114458A (ko) * 2016-04-05 2017-10-16 조건희 스테레오 카메라를 장착하여 가상현실 3d 영상으로 주변을 탐색하는 드론 및 이와 연동하는 복합 기능의 vr 장치
CN106094876A (zh) * 2016-07-04 2016-11-09 苏州光之翼智能科技有限公司 一种无人机目标锁定***及其方法
CN106444810A (zh) * 2016-10-31 2017-02-22 浙江大学 借助虚拟现实的无人机机械臂空中作业***及其控制方法
TWM538410U (zh) * 2016-12-07 2017-03-21 元野運動事業有限公司 娛樂設備及互動娛樂系統
CN108476288A (zh) * 2017-05-24 2018-08-31 深圳市大疆创新科技有限公司 拍摄控制方法及装置
CN109292103A (zh) * 2018-07-27 2019-02-01 北京臻迪科技股份有限公司 云台调整方法、装置、无人机及云台调整***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191032A (zh) * 2021-07-02 2021-07-30 北京远度互联科技有限公司 一种视角仿真方法、装置、***和存储介质
WO2023036199A1 (zh) * 2021-09-07 2023-03-16 深圳市道通智能航空技术股份有限公司 控制飞行器拍摄旋转镜头视频的方法、装置、设备及介质
CN114202981A (zh) * 2021-12-10 2022-03-18 新疆工程学院 一种用于摄影测量实验的仿真平台
CN114202981B (zh) * 2021-12-10 2023-06-16 新疆工程学院 一种用于摄影测量实验的仿真平台

Similar Documents

Publication Publication Date Title
CN104035446B (zh) 无人机的航向生成方法和***
CN105022401B (zh) 基于视觉的多四旋翼无人机协同slam方法
CN110234003A (zh) 一种仿真无人机飞行的方法、装置、终端及***
CN105759833A (zh) 一种沉浸式无人机驾驶飞行***
CN105222761A (zh) 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶***及驾驶方法
CN105898346A (zh) 控制方法、电子设备及控制***
CN106227231A (zh) 无人机的控制方法、体感交互装置以及无人机
CN102566441A (zh) 用于无人机的可视仿真试验***
CN108496121A (zh) 无人机仿真飞行***、方法、设备及机器可读存储介质
CN105608746A (zh) 一种将现实进行虚拟实现的方法
CN103543827B (zh) 基于单个摄像机的沉浸式户外活动交互平台的实现方法
CN105539870A (zh) 一种搭载于无人机的摇摆相机倾斜摄影装置
WO2021259252A1 (zh) 飞行模拟方法、装置、电子设备及无人机
CN105824416A (zh) 一种将虚拟现实技术与云服务技术结合的方法
CN108664121A (zh) 一种仿真作战体系演练***
CN106575125A (zh) 无人机轨迹同步
CN104898653B (zh) 一种飞行控制***
CN110658840A (zh) 一种用于多旋翼无人机的自主导航避障方法及装置
CN109891347A (zh) 用于模拟可移动物体状态的方法和***
CN108572731A (zh) 基于多Kinect和UE4的动捕数据表现方法及装置
CN206193950U (zh) 基于增强现实的无人飞行器体验***
CN107622525A (zh) 三维模型获得方法、装置及***
CN109076206A (zh) 基于无人机的立体成像方法和装置
CN102467749A (zh) 基于关键帧和时空约束的三维虚拟人体运动生成方法
CN106973261A (zh) 以第三方视角观察无人机的设备、***和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190913