CN104700437A - 信号级高逼真度实时红外复杂场景生成方法 - Google Patents
信号级高逼真度实时红外复杂场景生成方法 Download PDFInfo
- Publication number
- CN104700437A CN104700437A CN201310654006.6A CN201310654006A CN104700437A CN 104700437 A CN104700437 A CN 104700437A CN 201310654006 A CN201310654006 A CN 201310654006A CN 104700437 A CN104700437 A CN 104700437A
- Authority
- CN
- China
- Prior art keywords
- image
- real
- pixel
- computing machine
- atmospheric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明提供了一种信号级高逼真度实时红外复杂场景生成方法,包括:目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成红外动态图像;大气传输效应实时解算计算机根据红外动态图像和大气光谱数据库中垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应;图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像。本发明能够保证所生成的复杂红外场景的逼真度和半实物仿真***的实时性,可广泛地应用于半实物仿真***中。
Description
技术领域
本发明涉及仿真技术领域,特别涉及一种可支持半实物仿真的信号级高逼真度实时红外复杂场景生成方法。
背景技术
现代红外成像器件性能的提高,推动着红外场景生成技术不断发展。目前红外成像制导半实物仿真***对动态红外场景生成***的帧频和图像规模都提出了更高的要求,使得***对实时性、计算规模的要求增加。而现有硬件设备的性能无法保证直接进行动态红外成像仿真的实时性。目前,国内工程上通常是利用Vega Primer等软件的红外模块直接生成红外图像。该方法虽然实现简单,但也存在诸多局限性:首先,无法脱离Windows操作***运行,也就无法满足半实物仿真所要求的严格意义上的帧时间同步;其次,无法实现信号级仿真,即无法通过物理理论计算获取成像图像上每个像素点所代表的辐射亮度值,也就很难完成模型的验证和校核。实时性是红外场景动态实时生成技术的关键和基本要求,它关系到***的仿真精度和可靠性。
发明内容
本发明的目的在于提供一种信号级高逼真度实时红外复杂场景生成方法,能够保证所生成的复杂红外场景的逼真度和半实物仿真***的实时性,可广泛地应用于半实物仿真***中。
为解决上述问题,本发明提供一种信号级高逼真度实时红外复杂场景生成方法,包括:
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成目标、干扰和背景的信号级的红外动态图像;
大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据,并根据所述目标、干扰和背景的信号级的红外动态图像和获取到的垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应;
图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像。
进一步的,在上述方法中,所述红外辐射特征数据库中的原始图像包括原始辐射亮度图像、原始透明度图像、原始距离图像和原始真值图像。
进一步的,在上述方法中,所述目标的信号级的红外动态图像包括目标的辐射亮度图像、透明度图像、距离图像和真值图像;
所述干扰的信号级的红外动态图像包括干扰的辐射亮度图像、透明度图像、距离图像和真值图像;
所述背景的信号级的红外动态图像包括干扰的辐射亮度图像、透明度图像、距离图像和真值图像。
进一步的,在上述方法中,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成目标、干扰和背景的信号级的红外动态图像的步骤包括:
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算探测器的瞬时视场和瞬时视场面积,计算公式如下:
,
,
,
其中,、分别表示水平方向上和垂直方向上探测器像元的瞬时视场,、分别表示水平方向上和垂直方向上探测器的视场宽度,、分别表示探测器的水平分辨率和垂直分辨率,表示探测器像元的瞬时视场面积;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算各自获取到的原始图像中原始辐射亮度图像的单个像素点所占的瞬时视场,计算公式如下:
,
,
,
、分别表示水平方向上和垂直方向上原始辐射亮度图像的单个像素点所占的视场角,表示原始辐射亮度图像的单个像素点的覆盖区域面积,、分别表示原始辐射亮度图像在水平方向上和垂直方向上所占的视场角,、分别表示辐射亮度图像的行数和列数,其中,
,
,
表示辐射亮度图像上每个像素所代表的实际空间尺寸, 表示原始辐射亮度图像与目标之间的空间距离;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算目标的中心投影到探测器平面上的位置,计算公式如下:
,
,
其中,、分别表示目标的中心投影到探测器平面上的水平位置和垂直位置,、分别表示视线的方位角和俯仰角;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算原始辐射亮度图像中心的位置,计算公式如下:
,
,
其中,、分别表示原始辐射亮度图像的中心的水平位置和垂直位置;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别按照原始辐射亮度图像的单个像素点的坐标位置和该像素点所占的视场角计算对应的空间角,计算公式如下:
,
;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别将原始辐射亮度图像上的像素点投影到探测器平面上,解算其在探测器平面上的坐标位置,再将原始辐射亮度图像上的像素点投影到探测器平面上,解算其在探测器平面上的坐标位置,计算公式如下:
,
,
,
;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别根据探测器平面上和的相对位置,将原始辐射亮度图像的像素点的辐射亮度投影到探测器平面上以分别得到目标的信号级的红外动态图像的目标的辐射亮度图像、干扰的信号级的红外动态图像的干扰的辐射亮度图像和背景的信号级的红外动态图像的背景的辐射亮度图像的每个像素点的辐射亮度值;
根据目标的辐射亮度图像得到对应的目标的透明度图像、距离图像和真值图像,根据干扰的辐射亮度图像得到对应的干扰的透明度图像、距离图像和真值图像,根据背景的辐射亮度图像得到对应的背景的透明度图像、距离图像和真值图像。
进一步的,在上述方法中,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别根据探测器平面上和的相对位置,将原始辐射亮度图像的像素点的辐射亮度投影到探测器平面上以分别得到目标的信号级的红外动态图像的目标的辐射亮度图像、干扰的信号级的红外动态图像的干扰的辐射亮度图像和背景的信号级的红外动态图像的背景的辐射亮度图像的每个像素点的辐射亮度值的步骤中,
如果,,则:
,
,
如果,,则:
, ,
,
,
;
如果,,则:
,
,
,
,
, ;
如果,,则:
,
,
,
,
,
,
,
,
,
,
,
,
其中,表示目标、干扰或背景的辐射亮度图像的某个像素点的辐射亮度值。
进一步的,在上述方法中,大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据的步骤之前还包括:
图像实时合成处理计算机对目标、干扰和背景的信号级的红外动态图像中同一位置处的像素点按距离由远及近进行排序,形成从顶层至底层排列的同一位置处的像素点。
进一步的,在上述方法中,大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据,并根据所述目标、干扰和背景的信号级的红外动态图像和获取到的垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应的步骤包括:
每次按从顶层至底层的顺序计算目标、干扰和背景的信号级的红外动态图像中同一位置处排序相邻的两像素点的合成辐射能值,计算公式如下:
其中,表示远距离像素点辐射亮度值,表示近距离像素点辐射亮度值,、分别表示该两像素点间的大气透过率和程辐射,表示近距离像素点的透明度,表示该两像素点的合成辐射能值,将计算出的赋值给;
合成图像中每个像素点的大气效应为合成图像中每个像素点的距离值、透明度值和合成辐射能值分别等于最底层像素点的距离值和透明度值和合成辐射能值。
进一步的,在上述方法中,两像素点间的大气透过率和程辐射通过下述步骤获取:
根据所述大气光谱数据库中的垂直方向的大气透过率数据和程辐射数据,计算斜程方向上的大气透过率值和程辐射亮度值,计算公式如下:
,
,
其中,、分别表示斜程方向和垂直方向上的大气透过率, 、分别表示斜程方向和垂直方向上的大气程辐射,表示垂直方向与斜程方向的夹角;
对、进行线性插值,得到两像素点间的大气透过率和程辐射。
进一步的,在上述方法中,图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像的步骤包括:
对合成图像的每个像素点施加大气效应影响,计算公式如下:
其中,、分别表示合成图像中某个像素点处的合成辐射能值和透明度值,、、分别表示从该像素点到探测器处的大气透过率、程辐射和天空辐射,表示施加大气效应后该像素点的辐射亮度值;
根据所有像素点的施加大气效应后的辐射亮度值生成施加大气效应后的合成图像。
进一步的,在上述方法中,像素点到探测器处的大气透过率和程辐射通过下述步骤获取:
根据所述大气光谱数据库中的垂直方向的大气透过率数据和程辐射数据,计算斜程方向上的大气透过率值和程辐射亮度值,计算公式如下:
,
,
其中,、分别表示斜程方向和垂直方向上的大气透过率, 、分别表示斜程方向和垂直方向上的大气程辐射,表示垂直方向与斜程方向的夹角;
对、进行线性插值,得到像素点到探测器处的大气透过率和程辐射。
与现有技术相比,本发明通过目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成目标、干扰和背景的信号级的红外动态图像;大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据,并根据所述目标、干扰和背景的信号级的红外动态图像和获取到的垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应;图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像,既保证所生成的复杂红外场景的逼真度,又保证半实物仿真***的实时性,可广泛地应用于半实物仿真***中。
附图说明
图1是本发明一实施例的信号级高逼真度实时红外复杂场景生成方法所采用的***的示意图;
图2是本发明一实施例的信号级高逼真度实时红外复杂场景生成方法的流程图;
图3是本发明一实施例的的辐射亮度图像像素点向探测器阵面上投影示意图;
图4是本发明一实施例的渲染图像粗粒度距离排序处理示意图;
图5是本发明一实施例的渲染图像中单个像素点排序处理示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种信号级高逼真度实时红外复杂场景生成方法所采用的***包括光纤反射内存网1、目标图像实时渲染计算机2、背景图像实时渲染计算机4、干扰图像实时渲染计算机5、大气传输效应实时解算计算机3、图像实时合成处理计算机6以及待扩展的图像实时渲染计算机7,其中,待扩展的图像实时渲染计算机7用于后续拓展处理除目标图像、背景图像和干扰图像之外的其它图像。光纤反射内存网1将各计算机连接起来。目标图像实时渲染计算机2、背景图像实时渲染计算机4、干扰图像实时渲染计算机5、图像实时合成处理计算机6以及待扩展的图像实时渲染计算机7可使用高性能GPU(Graphic Processin Unit,GPU)完成各自的复杂红外场景的实时生成,各渲染计算机使用高性能GPU并行完成各自红外图像的渲染,并将渲染图像通过光纤反射内存网1传输给图像实时合成处理计算机6,并完成复杂场景的实时合成。本发明一实施例中各计算机可采用VxWorks实时操作***。
所述的信号级高逼真度实时红外复杂场景生成方法所采用的***可采用如下时钟同步策略:
(1)***使用仿真计算机提供的时钟同步服务,负责实现整个***的同步控制;
(2)仿真过程中,各计算节点依照本地局部时钟完成仿真解算;
(3)各计算节点基于局部时钟完成每帧解算以后,进行仿真等待,查询服务器的同步控制字;
(4)时钟同步服务根据设定的仿真步长控制计算节点的推进,当到达仿真步长时向各个计算节点发出推进控制字,实现仿真的推进,完成***的时钟同步。
该时钟同步策略可有效消除节点局部时钟漂移带来的偏移误差,通过反射内存实时网络稳定、高效的传输特点,有效减少时间同步的抖动。
如图2所示,本发明提供一种信号级高逼真度实时红外复杂场景生成方法,包括步骤S1~步骤S3。
步骤S1,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成目标、干扰和背景的信号级的红外动态图像;具体的,红外辐射特征数据库是通过物理理论模型计算获得的信号级数据,各渲染计算机可根据各自的红外辐射数据库及图像投影算法实时生成目标/干扰/背景的红外动态图像。仿真开始后,***根据探测器视场范围内的目标/干扰/背景类型及数量通过光纤反射内存网1向各渲染计算发送解算命令及弹道参数。根据弹道参数及红外辐射特征数据库,目标图像渲染计算机2生成实时目标辐射特征图像即目标的信号级的红外动态图像,干扰图像渲染计算机5生成实时干扰辐射特征图像即干扰的信号级的红外动态图像,背景图像渲染计算机4生成实时背景辐射特征图像即背景的信号级的红外动态图像。
优选的,所述红外辐射特征数据库中的原始图像包括原始辐射亮度图像、原始透明度图像、原始距离图像和原始真值图像。具体的,根据战术仿真需求,建立典型目标、背景及干扰的理论模型,并在此基础上预处理完成典型目标、背景及干扰的红外辐射特征数据库。红外辐射数据库保存目标/干扰/背景的信号级的红外原始辐射亮度数据、原始距离数据、原始透过率数据以及原始真值表;红外辐射数据库中的每一幅红外辐射特征图像包含四种图像信息,分别为辐射亮度图像、透明度图像、距离图像和真值图。辐射亮度图像表示目标/干扰/背景的辐射亮度。透明度图像主要用来考虑目标间的遮挡。真值图像是对发射体/反射体的一种编码,主要用来区分仿真中的各个实体。距离图像则描述了空间位置信息。这四幅图像都是以二维数组的形式进行存储。
相应的,所述目标的信号级的红外动态图像包括目标的辐射亮度图像、透明度图像、距离图像和真值图像;
所述干扰的信号级的红外动态图像包括干扰的辐射亮度图像、透明度图像、距离图像和真值图像;
所述背景的信号级的红外动态图像包括干扰的辐射亮度图像、透明度图像、距离图像和真值图像。
优选的,步骤S1包括:
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算探测器的瞬时视场和瞬时视场面积,计算公式如下:
,
,
,
其中,、分别表示水平方向上和垂直方向上探测器像元的瞬时视场,、分别表示水平方向上和垂直方向上探测器的视场宽度,、分别表示探测器的水平分辨率和垂直分辨率,表示探测器像元的瞬时视场面积;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算各自获取到的原始图像中原始辐射亮度图像的单个像素点所占的瞬时视场,计算公式如下:
,
,
,
、分别表示水平方向上和垂直方向上原始辐射亮度图像的单个像素点所占的视场角,表示原始辐射亮度图像的单个像素点的覆盖区域面积,、分别表示原始辐射亮度图像在水平方向上和垂直方向上所占的视场角,、分别表示辐射亮度图像的行数和列数,其中,
,
,
表示辐射亮度图像上每个像素所代表的实际空间尺寸, 表示原始辐射亮度图像与目标之间的空间距离;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算目标的中心投影到探测器平面上的位置,计算公式如下:
,
,
其中,、分别表示目标的中心投影到探测器平面上的水平位置和垂直位置,、分别表示视线的方位角和俯仰角;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算原始辐射亮度图像中心的位置,计算公式如下:
,
,
其中,、分别表示原始辐射亮度图像的中心的水平位置和垂直位置;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机对原始辐射亮度上的每个像素点进行迭代处理,即分别按照原始辐射亮度图像的单个像素点的坐标位置和该像素点所占的视场角计算对应的空间角,计算公式如下:
,
;
在通过上述空间角和探测器像元的瞬时视场等效换算的步骤之后,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别将原始辐射亮度图像上的像素点投影到探测器平面上,解算其在探测器平面上的坐标位置,再将原始辐射亮度图像上的像素点投影到探测器平面上,解算其在探测器平面上的坐标位置,计算公式如下:
,
,
,
;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别根据探测器平面上和的相对位置,将原始辐射亮度图像的像素点的辐射亮度投影到探测器平面上以分别得到目标的信号级的红外动态图像的目标的辐射亮度图像、干扰的信号级的红外动态图像的干扰的辐射亮度图像和背景的信号级的红外动态图像的背景的辐射亮度图像的每个像素点的辐射亮度值;
根据目标的辐射亮度图像得到对应的目标的透明度图像、距离图像和真值图像,根据干扰的辐射亮度图像得到对应的干扰的透明度图像、距离图像和真值图像,根据背景的辐射亮度图像得到对应的背景的透明度图像、距离图像和真值图像。
优选的,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别根据探测器平面上和的相对位置,将原始辐射亮度图像的像素点的辐射亮度投影到探测器平面上以分别得到目标的信号级的红外动态图像的目标的辐射亮度图像、干扰的信号级的红外动态图像的干扰的辐射亮度图像和背景的信号级的红外动态图像的背景的辐射亮度图像的每个像素点的辐射亮度值的步骤中,
如图3中的(a)所示,如果,,则:
,
,
如图3中的(b)所示,如果,,则:
, ,
,
,
;
如图3中的(c)所示,如果,,则:
,
,
,
,
, ;
如图3中的(d)所示,如果,,则:
,
,
,
,
,
,
,
,
,
,
,
,
其中,表示目标、干扰或背景的辐射亮度图像的某个像素点的辐射亮度值。
步骤S2,大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据,并根据所述目标、干扰和背景的信号级的红外动态图像和获取到的垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应;具体的,这里的大气传输效应实时解算是根据各像素点的空间信息、大气光谱数据库及线性插值实时计算每个像素点的红外辐射的大气传输效应/影响。可利用大气传输模型(MODTRAN)生成大气光谱数据库,用来存储垂直方向上的大气透过率数据和程辐射数据。
优选的,步骤S2之前还包括:
图像实时合成处理计算机对目标、干扰和背景的信号级的红外动态图像中同一位置处的像素点按距离由远及近进行排序,形成从顶层至底层排列的同一位置处的像素点。具体的,实时合成处理计算机6将各渲染计算机传来的目标/干扰/背景红外动态图像集分成若干个子集,并交由GPU按照图像合成算法进行并行计算,完成复杂红外场景的实时合成。具体的,目标、干扰和背景的信号级的红外动态图像可以二维数组的形式分别存储在光纤反射内存网1上各自定义的内存区域。图像实时合成处理计算机6从光纤反射内存网1收集各图像实时渲染计算机解算出的目标、干扰和背景的信号级的红外动态图像,并进行实时合成处理。
详细的,图像实时合成处理计算机6从光纤反射内存网1依次读取各个图像实时渲染节点产生的渲染图像即红外动态图像,并将这些渲染图像***列表进行管理。每帧渲染图像都包含一幅距离图像、一幅辐射亮度图像、一幅透明度图像和一幅真值表图像T,即,,表示图像实时渲染节点的个数;而每帧渲染图像则由个像素点组成,也就是说,每幅距离图像、辐射亮度图像和透明度图像都由个像素点组成,表示行数,表示列数;
然后,将一帧渲染图像按任务的个数分割成多组子渲染图像。每组子渲染图像还是由一幅距离图像、一幅辐射亮度图像、一幅透明度图像和一幅真值表图像组成,即,;其中,每幅距离图像、辐射亮度图像、透明度图像和均由个像素点组成。例如,图像实时合成处理节点的任务个数为512×4,渲染图像由512×512个像素点组成,则分割后每幅子渲染图像由128个像素点组成;
接着,图像实时合成处理计算机产生个任务,所有任务并行执行,每个任务负责处理一组子渲染图像堆,每组子渲染图像堆实际上是由所有图像实时渲染节点产生的子渲染图像组成的集合,其具体处理方法如下:
① 确定子渲染图像堆中每幅距离图像的最小距离值分别为, (),其中,和分别表示遍历的像素点位于行和列,表示位于第张距离图像中(,)处像素点的距离值。接着,对这些最小距离值进行排序,使其按降序排列,则排序后的最小距离值依次为,其中()。最后相应地调整各最小距离值所对应的距离图像、辐射亮度图像、透明度图像、渲染图像的次序,即, (),如附图4所示。
② 任取子渲染图像上一像素点P(,),、表示该像素点在子渲染图像上所处的位置,则各子渲染图像上该像素点位置处的距离值、辐射亮度值、透明度值分别为,。其中、、可分别按以下各式确定,
()
()
()
然后对该像素点位置处的这些距离值进行冒泡排序,使其按降序排列,排序后的距离值依次为,其中 ()。相应地调整各辐射亮度值、透明度值的次序,即,。最后按以降序遍历子渲染图像上所有的像素点,以使每个像素点位置处的辐射亮度值、距离值和透明度值都能得到调整,如附图5所示。
优选的,步骤S2包括:
每次按从顶层至底层的顺序计算目标、干扰和背景的信号级的红外动态图像中同一位置处排序相邻的两像素点的合成辐射能值,计算公式如下:
其中,表示远距离像素点辐射亮度值,表示近距离像素点辐射亮度值,、分别表示该两像素点间的大气透过率和程辐射,表示近距离像素点的透明度,表示该两像素点的合成辐射能值,将计算出的赋值给;
合成图像中每个像素点的大气效应为合成图像中每个像素点的距离值、透明度值和合成辐射能值分别等于最底层像素点的距离值和透明度值和合成辐射能值。具体的,一旦确定了最终像素点的距离次序,便可计算出最终合成图像上每个像素点的辐射亮度值。对于任意位置处的辐射能合成需从该位置处的最顶层像素点开始处理,依次向前传播每个像素点的辐射能,直至最底层像素点结束。先计算该位置处顶层像素点与次顶层像素点(远距离像素点和近距离像素点)的合成辐射能,然后将计算出的赋值给,并将其应用到下一步两像素点的辐射能合成中,即与次顶层像素点下一位置处像素点(此时,该像素点为近距离像素点)的辐射能进行合成,以下依次类推,直至最底层像素点终止。最后合成像素点的距离值和透明度值分别等于最底层像素点的距离值和透明度值。
优选的,两像素点间的大气透过率和程辐射通过下述步骤获取:
根据所述大气光谱数据库中的垂直方向的大气透过率数据和程辐射数据,计算斜程方向上的大气透过率值和程辐射亮度值,计算公式如下:
,
,
其中,、分别表示斜程方向和垂直方向上的大气透过率, 、分别表示斜程方向和垂直方向上的大气程辐射,表示垂直方向与斜程方向的夹角;
对、进行线性插值,得到两像素点间的大气透过率和程辐射。
步骤S3,图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像。具体的,图像实时合成处理计算机通过光纤反射内存网传输过来的渲染图像实时合成最终的复杂红外场景。
优选的,步骤S3包括:
对合成图像的每个像素点施加大气效应影响,计算公式如下:
其中,、分别表示合成图像中某个像素点处的合成辐射能值和透明度值,、、分别表示从该像素点到探测器处的大气透过率、程辐射和天空辐射,表示施加大气效应后该像素点的辐射亮度值;
根据所有像素点的施加大气效应后的辐射亮度值生成施加大气效应后的合成图像。具体的,当所有任务完成各组子渲染图像堆的处理后,图像实时合成处理计算机6再根据分割块位置将所有子渲染合成图像组装成一幅完整的合成图像,并将此合成图像数据写入到指定的反射内存存储区域,整个处理过程结束。
优选的,像素点到探测器处的大气透过率和程辐射通过下述步骤获取:
根据所述大气光谱数据库中的垂直方向的大气透过率数据和程辐射数据,计算斜程方向上的大气透过率值和程辐射亮度值,计算公式如下:
,
,
其中,、分别表示斜程方向和垂直方向上的大气透过率, 、分别表示斜程方向和垂直方向上的大气程辐射,表示垂直方向与斜程方向的夹角;
对、进行线性插值,得到像素点到探测器处的大气透过率和程辐射。
本发明通过
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (10)
1.一种信号级高逼真度实时红外复杂场景生成方法,其特征在于,包括:
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成目标、干扰和背景的信号级的红外动态图像;
大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据,并根据所述目标、干扰和背景的信号级的红外动态图像和获取到的垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应;
图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像。
2.如权利要求1所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,所述红外辐射特征数据库中的原始图像包括原始辐射亮度图像、原始透明度图像、原始距离图像和原始真值图像。
3.如权利要求2所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,所述目标的信号级的红外动态图像包括目标的辐射亮度图像、透明度图像、距离图像和真值图像;
所述干扰的信号级的红外动态图像包括干扰的辐射亮度图像、透明度图像、距离图像和真值图像;
所述背景的信号级的红外动态图像包括干扰的辐射亮度图像、透明度图像、距离图像和真值图像。
4.如权利要求3所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像,并根据各自获取到的原始图像分别生成目标、干扰和背景的信号级的红外动态图像的步骤包括:
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机根据各自获取到的弹道参数从红外辐射特征数据库中分别获取原始图像;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算探测器的瞬时视场和瞬时视场面积,计算公式如下:
,
,
,
其中,、分别表示水平方向上和垂直方向上探测器像元的瞬时视场,、分别表示水平方向上和垂直方向上探测器的视场宽度,、分别表示探测器的水平分辨率和垂直分辨率,表示探测器像元的瞬时视场面积;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算各自获取到的原始图像中原始辐射亮度图像的单个像素点所占的瞬时视场,计算公式如下:
,
,
,
、分别表示水平方向上和垂直方向上原始辐射亮度图像的单个像素点所占的视场角,表示原始辐射亮度图像的单个像素点的覆盖区域面积,、分别表示原始辐射亮度图像在水平方向上和垂直方向上所占的视场角,、分别表示辐射亮度图像的行数和列数,其中,
,
,
表示辐射亮度图像上每个像素所代表的实际空间尺寸, 表示原始辐射亮度图像与目标之间的空间距离;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算目标的中心投影到探测器平面上的位置,计算公式如下:
,
,
其中,、分别表示目标的中心投影到探测器平面上的水平位置和垂直位置,、分别表示视线的方位角和俯仰角;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别计算原始辐射亮度图像中心的位置,计算公式如下:
,
,
其中,、分别表示原始辐射亮度图像的中心的水平位置和垂直位置;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别按照原始辐射亮度图像的单个像素点的坐标位置和该像素点所占的视场角计算对应的空间角,计算公式如下:
,
;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别将原始辐射亮度图像上的像素点投影到探测器平面上,解算其在探测器平面上的坐标位置,再将原始辐射亮度图像上的像素点投影到探测器平面上,解算其在探测器平面上的坐标位置,计算公式如下:
,
,
,
;
目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别根据探测器平面上和的相对位置,将原始辐射亮度图像的像素点的辐射亮度投影到探测器平面上以分别得到目标的信号级的红外动态图像的目标的辐射亮度图像、干扰的信号级的红外动态图像的干扰的辐射亮度图像和背景的信号级的红外动态图像的背景的辐射亮度图像的每个像素点的辐射亮度值;
根据目标的辐射亮度图像得到对应的目标的透明度图像、距离图像和真值图像,根据干扰的辐射亮度图像得到对应的干扰的透明度图像、距离图像和真值图像,根据背景的辐射亮度图像得到对应的背景的透明度图像、距离图像和真值图像。
5.如权利要求4所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,目标图像实时渲染计算机、干扰图像实时渲染计算机和背景图像实时渲染计算机分别根据探测器平面上和的相对位置,将原始辐射亮度图像的像素点的辐射亮度投影到探测器平面上以分别得到目标的信号级的红外动态图像的目标的辐射亮度图像、干扰的信号级的红外动态图像的干扰的辐射亮度图像和背景的信号级的红外动态图像的背景的辐射亮度图像的每个像素点的辐射亮度值的步骤中,
如果,,则:
,
,
如果,,则:
, ,
,
,
;
如果,,则:
,
,
,
,
, ;
如果,,则:
,
,
,
,
,
,
,
,
,
,
,
,
其中,表示目标、干扰或背景的辐射亮度图像的某个像素点的辐射亮度值。
6.如权利要求5所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据的步骤之前还包括:
图像实时合成处理计算机对目标、干扰和背景的信号级的红外动态图像中同一位置处的像素点按距离由远及近进行排序,形成从顶层至底层排列的同一位置处的像素点。
7.如权利要求6所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,大气传输效应实时解算计算机从大气光谱数据库获取垂直方向上的大气透过率数据和程辐射数据,并根据所述目标、干扰和背景的信号级的红外动态图像和获取到的垂直方向上的大气透过率数据和程辐射数据实时计算合成图像中每个像素点的大气效应的步骤包括:
每次按从顶层至底层的顺序计算目标、干扰和背景的信号级的红外动态图像中同一位置处排序相邻的两像素点的合成辐射能值,计算公式如下:
其中,表示远距离像素点辐射亮度值,表示近距离像素点辐射亮度值,、分别表示该两像素点间的大气透过率和程辐射,表示近距离像素点的透明度,表示该两像素点的合成辐射能值,将计算出的赋值给;
合成图像中每个像素点的大气效应为合成图像中每个像素点的距离值、透明度值和合成辐射能值分别等于最底层像素点的距离值和透明度值和合成辐射能值。
8.如权利要求7所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,两像素点间的大气透过率和程辐射通过下述步骤获取:
根据所述大气光谱数据库中的垂直方向的大气透过率数据和程辐射数据,计算斜程方向上的大气透过率值和程辐射亮度值,计算公式如下:
,
,
其中,、分别表示斜程方向和垂直方向上的大气透过率, 、分别表示斜程方向和垂直方向上的大气程辐射,表示垂直方向与斜程方向的夹角;
对、进行线性插值,得到两像素点间的大气透过率和程辐射。
9.如权利要求8所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,图像实时合成处理计算机根据合成图像中每个像素点的大气效应生成施加大气效应后的合成图像的步骤包括:
对合成图像的每个像素点施加大气效应影响,计算公式如下:
其中,、分别表示合成图像中某个像素点处的合成辐射能值和透明度值,、、分别表示从该像素点到探测器处的大气透过率、程辐射和天空辐射,表示施加大气效应后该像素点的辐射亮度值;
根据所有像素点的施加大气效应后的辐射亮度值生成施加大气效应后的合成图像。
10.如权利要求9所述的信号级高逼真度实时红外复杂场景生成方法,其特征在于,像素点到探测器处的大气透过率和程辐射通过下述步骤获取:
根据所述大气光谱数据库中的垂直方向的大气透过率数据和程辐射数据,计算斜程方向上的大气透过率值和程辐射亮度值,计算公式如下:
,
,
其中,、分别表示斜程方向和垂直方向上的大气透过率, 、分别表示斜程方向和垂直方向上的大气程辐射,表示垂直方向与斜程方向的夹角;
对、进行线性插值,得到像素点到探测器处的大气透过率和程辐射。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310654006.6A CN104700437B (zh) | 2013-12-09 | 2013-12-09 | 信号级高逼真度实时红外复杂场景生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310654006.6A CN104700437B (zh) | 2013-12-09 | 2013-12-09 | 信号级高逼真度实时红外复杂场景生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700437A true CN104700437A (zh) | 2015-06-10 |
CN104700437B CN104700437B (zh) | 2018-01-09 |
Family
ID=53347519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310654006.6A Active CN104700437B (zh) | 2013-12-09 | 2013-12-09 | 信号级高逼真度实时红外复杂场景生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700437B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106855791A (zh) * | 2015-12-08 | 2017-06-16 | 上海机电工程研究所 | 一种红外图像实时处理方法 |
CN107705253A (zh) * | 2017-10-26 | 2018-02-16 | 中国科学院长春光学精密机械与物理研究所 | 一种生成视频激励源的方法及装置 |
CN109447932A (zh) * | 2018-11-01 | 2019-03-08 | 西安电子科技大学 | 基于实测红外成像数据的目标与背景融合仿真方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030213923A1 (en) * | 2001-01-10 | 2003-11-20 | Kongable Albert W. | Infrared scene generator using fluorescent conversion material |
US20100277595A1 (en) * | 2005-10-18 | 2010-11-04 | Reed Matthew W | Clip-on infrared imager |
CN102270355A (zh) * | 2011-04-28 | 2011-12-07 | 华中科技大学 | 一种基于景物分类的红外场景图像生成方法 |
CN103186906A (zh) * | 2011-12-28 | 2013-07-03 | 中国科学院沈阳自动化研究所 | 一种海天背景下多类目标的红外动态场景实时仿真方法 |
-
2013
- 2013-12-09 CN CN201310654006.6A patent/CN104700437B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030213923A1 (en) * | 2001-01-10 | 2003-11-20 | Kongable Albert W. | Infrared scene generator using fluorescent conversion material |
US20100277595A1 (en) * | 2005-10-18 | 2010-11-04 | Reed Matthew W | Clip-on infrared imager |
CN102270355A (zh) * | 2011-04-28 | 2011-12-07 | 华中科技大学 | 一种基于景物分类的红外场景图像生成方法 |
CN103186906A (zh) * | 2011-12-28 | 2013-07-03 | 中国科学院沈阳自动化研究所 | 一种海天背景下多类目标的红外动态场景实时仿真方法 |
Non-Patent Citations (1)
Title |
---|
陆志沣 等: "红外成像仿真外部渲染方法研究", 《计算机仿真》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106855791A (zh) * | 2015-12-08 | 2017-06-16 | 上海机电工程研究所 | 一种红外图像实时处理方法 |
CN107705253A (zh) * | 2017-10-26 | 2018-02-16 | 中国科学院长春光学精密机械与物理研究所 | 一种生成视频激励源的方法及装置 |
CN107705253B (zh) * | 2017-10-26 | 2021-05-04 | 中国科学院长春光学精密机械与物理研究所 | 一种生成视频激励源的方法及装置 |
CN109447932A (zh) * | 2018-11-01 | 2019-03-08 | 西安电子科技大学 | 基于实测红外成像数据的目标与背景融合仿真方法 |
CN109447932B (zh) * | 2018-11-01 | 2020-12-08 | 西安电子科技大学 | 基于实测红外成像数据的目标与背景融合仿真方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104700437B (zh) | 2018-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230075270A1 (en) | Image processing method and apparatus, electronic device, and computer-readable storage medium | |
CN104330074B (zh) | 一种智能测绘平台及其实现方法 | |
US10726580B2 (en) | Method and device for calibration | |
US20130106852A1 (en) | Mesh generation from depth images | |
CN110300292A (zh) | 投影畸变校正方法、装置、***及存储介质 | |
CN103559737A (zh) | 一种对象全景建模方法 | |
CN110728671A (zh) | 基于视觉的无纹理场景的稠密重建方法 | |
CN108304075A (zh) | 一种在增强现实设备进行人机交互的方法与设备 | |
CN110765620A (zh) | 飞行器视景仿真方法、***、服务器及存储介质 | |
WO2018080533A1 (en) | Real-time generation of synthetic data from structured light sensors for 3d object pose estimation | |
Sajadi et al. | Automatic registration of multi‐projector domes using a single uncalibrated camera | |
CN103279974A (zh) | 一种高精度高分辨率卫星成像模拟引擎及实现方法 | |
CN113643414A (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
CN105025281A (zh) | 大尺寸球幕超清影片播放及互动应用拼接融合方法 | |
CN111161398A (zh) | 一种图像生成方法、装置、设备及存储介质 | |
CN104700437A (zh) | 信号级高逼真度实时红外复杂场景生成方法 | |
CN107517366A (zh) | 基于rgbd的投影机画面信息自动测量方法 | |
CN104732027B (zh) | 一种红外成像模拟方法及*** | |
JP6899915B2 (ja) | 標高データグリッドのためのシャドウキャスティング | |
CN102110300A (zh) | 模拟镜头畸变的三维模型投影方法及装置 | |
CN102110298B (zh) | 虚拟演播室***中的三维模型投影方法及装置 | |
Deng et al. | Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images | |
JP2017017698A (ja) | 投影システム、投影方法、パターン生成方法及びプログラム | |
CN114332356A (zh) | 一种虚实画面结合方法和装置 | |
Wang et al. | Monocular 3d object detection based on pseudo-lidar point cloud for autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |