CN105225230A - 一种识别前景目标对象的方法及装置 - Google Patents
一种识别前景目标对象的方法及装置 Download PDFInfo
- Publication number
- CN105225230A CN105225230A CN201510575320.4A CN201510575320A CN105225230A CN 105225230 A CN105225230 A CN 105225230A CN 201510575320 A CN201510575320 A CN 201510575320A CN 105225230 A CN105225230 A CN 105225230A
- Authority
- CN
- China
- Prior art keywords
- video camera
- point
- virtual video
- dimensional model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
一种识别前景目标对象的方法及装置,该方法根据真实场景建立三维模型,在三维模型中设置与真实摄像机一致的虚拟摄像机;将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像;将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓;根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。本发明的装置包括三维模型单元、转换单元、目标提取单元和目标分离单元。本发明能够消除光影对目标对象识别的影响,提高识别的效率和准确性,而且一个三维监控设备能使该真实环境内的所有真实摄像机均具备深度检测功能,大大降低了成本,适合大范围应用。
Description
技术领域
本发明属于视频监控技术领域,尤其涉及一种识别前景目标对象的方法及装置。
背景技术
随着3D技术在视频监控领域的逐步应用,视频业务已被高效的接入到3D虚拟环境中,通过图像拼接等技术以全景实况的形式展示给用户。但全景实况只是进行了图像的迁移,3D视频监控中的深度信息并未得到高效的应用。
目前,3D视频图像的深度信息的获取主要通过深度成像传感器,深度成像传感器分为主动式和被动式,主动式主要是向目标发射能量束(激光、电磁波、超声波),并检测回波得到深度图像;被动式主要利用周围环境条件成像。此外深度图像与环境光照和阴影无关,其像素点清晰的表达了物体的表面几何形状。因此,在视频监控领域,可以将深度图像应用到运动物体的提取和识别中,借助深度图像可以有效的提升三维物体的识别率,大大简化了三维物体的识别和定位问题。
现有技术利用深度图像进行物体提取和识别时,需要采用深度成像传感器获取深度图像,从深度图像中提取边缘特征,进行目标的匹配和识别。然而现有技术中深度图像的获取,需要借助专门的深度成像传感器,对于大规模应用而言成本较高。同时,虽然深度图像的目标识别比彩色图像的目标识别计算复杂度降低,但仍需要做图像背景的分离计算,效率不高,准确率也不会较高。
发明内容
本发明的目的就是提供一种识别前景目标对象的方法及装置,采用虚拟摄像机来获取深度图像,以解决现有技术中成本高,图像背景分离效率低,准确率不高的技术问题,可进行大规模应用。
为了实现上述目的,本发明技术方案如下:
一种识别前景目标对象的方法,根据真实场景建立三维模型,在所述三维模型中设置与真实摄像机一致的虚拟摄像机,所述方法包括步骤:
将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像;
将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓;
根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。
进一步地,所述深度图像由虚拟摄像机根据三维模型得到,包括步骤:
通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点;
根据筛选的可见像素点,计算所有可见像素点到虚拟摄像机的相对距离,生成深度图像;
剔除深度图像中被遮挡的可见像素点,形成最终的深度图像。
进一步地,所述通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点,包括步骤:
确定虚拟摄像机可视域六个平面的平面方程;
将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系,如果该点在所述六个平面上或平面内侧,则判断该点在虚拟摄像机可视域内,将位于可视域内的点作为虚拟摄像机的可见像素点。
所述平面方程用点法式表示为:
N·V+d=0
其中,N为该平面的法向量,所述法向量指向可视域的外侧,V为该平面上的一点,d为常数;
所述将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系,包括:
对于三维模型中任意一点V’:
若N·V’+d=0,则点在该平面上,
若N·V’+d>0,则点在该平面外侧,
若N·V’+d<0,则点在该平面内侧。
所述剔除深度图像中被遮挡的可见像素点,形成最终的深度图像,包括步骤:
遍历所有可见像素点,对于任意可见像素点j,获取其世界坐标posw;
计算点j对应到虚拟摄像机成像图像上的二维坐标,计算公式如下:
K=(Mp·Mv·posw).xy
其中,K为点j对应于虚拟摄像机成像图像上的点,Mv为虚拟摄像机的视图矩阵,Mp为虚拟摄像机投影矩阵,K为计算结果的x、y分量;
获取深度图像上K位置的像素值,与j点实际计算得到的像素值进行比较,如果实际计算得到的像素值大于等于K位置的像素值,则判定j点距离虚拟摄像机比较远,j点的像素被已有的像素遮挡,剔除j点;反之,则j点未被遮挡,保留j点。
本发明所述方法还包括步骤:
根据分离出的前景目标对象对应的着地点,在深度图像中获取该着地点的像素值,计算出该着地点的空间位置,实现目标对象的时空还原。
本发明还提出了一种识别前景目标对象的装置,所述装置包括:
三维模型单元,用于根据真实场景建立三维模型,在所述三维模型中设置与真实摄像机一致的虚拟摄像机,获取深度图像;
转换单元,用于将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像;
目标提取单元,用于将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓;
目标分离单元,用于根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。
其中,所述三维模型单元在获取深度图像时,执行如下操作:
通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点;
根据筛选的可见像素点,计算所有可见像素点到虚拟摄像机的相对距离,生成深度图像;
剔除深度图像中被遮挡的可见像素点,形成最终的深度图像。
在通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点时,执行如下操作:
确定虚拟摄像机可视域六个平面的平面方程;
将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系,如果该点在所述六个平面上或平面内侧,则判断该点在虚拟摄像机可视域内,将位于可视域内的点作为虚拟摄像机的可见像素点。
所述平面方程用点法式表示为:
N·V+d=0
其中,N为该平面的法向量,所述法向量指向可视域的外侧,V为该平面上的一点,d为常数;
所述三维模型单元在将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系时,执行如下操作:
对于三维模型中任意一点V’:
若N·V’+d=0,则点在该平面上,
若N·V’+d>0,则点在该平面外侧,
若N·V’+d<0,则点在该平面内侧。
在剔除深度图像中被遮挡的可见像素点,形成最终的深度图像时,执行如下操作:
遍历所有可见像素点,对于任意可见像素点j,获取其世界坐标posw;
计算点j对应到虚拟摄像机成像图像上的二维坐标,计算公式如下:
K=(Mp·Mv·posw).xy
其中,K为点j对应于虚拟摄像机成像图像上的点,Mv为虚拟摄像机的视图矩阵,Mp为虚拟摄像机投影矩阵,K为计算结果的x、y分量;
获取深度图像上K位置的像素值,与j点实际计算得到的像素值进行比较,如果实际计算得到的像素值大于等于K位置的像素值,则判定j点距离虚拟摄像机比较远,j点的像素被已有的像素遮挡,剔除j点;反之,则j点未被遮挡,保留j点。
进一步地,所述装置还包括时空还原单元,用于根据分离出的前景目标对象对应的着地点,在深度图像中获取该着地点的像素值,计算出该着地点的空间位置,实现目标对象的时空还原。
本发明提出的一种识别前景目标对象的方法及装置,通过三维模型中架设的虚拟摄像机,使虚拟摄像机能获取与真实摄像机一致的图像,然后通过虚拟摄像机来获取三维模型中的深度图像,结合真实摄像机的真实图像,实现对真实图像中前、背景的分离,从而提取出真实摄像机内前景目标的特征轮廓,通过对该特征轮廓进行特征匹配以及时空还原,消除了光影对目标物识别率的影响,同时,大大节约了成本,适合大范围应用。
附图说明
图1为本发明一示例性虚拟摄像机成像视锥体的示意图;
图2为本发明一示例性可视物拣选原理图;
图3为本发明一种识别前景目标对象的方法流程图;
图4为本发明一示例性真实图像二值图;
图5为本发明一示例性深度图像二值图。
具体实施方式
下面结合附图和实施例对本发明技术方案做进一步详细说明,以下实施例不构成对本发明的限定。
本发明的总体思路是建立与真实环境一致的三维模型,根据真实环境下真实摄像机的位置信息,在三维模型中架设虚拟摄像机,并调整其参数,使其能获得与真实摄像机一致的图像画面,再通过虚拟摄像机获取可视区域内的深度图像,结合真实摄像机获取的真实图像,对真实图像进行前、背景分离,提取出真实图像内目标对象的特征轮廓,再通过对目标对象特征轮廓的识别以及时空还原,准确的提取出目标对象的信息。
其中,建立三维模型的流程与方法,与现有的3D监控软件类似,通过现有的CAD图纸等资源,制作真实环境1:1的三维模型,三维模型由现有的图形引擎支撑,可进行图形的渲染、用户的交互等操作。
在三维模型中,设置有与真实摄像机对应的虚拟摄像机,虚拟摄像机是应用在三维模型的虚拟环境中,用来摄录虚拟环境的设备,可以根据三维模型生成虚拟图像。虚拟摄像机的导入不在既定的建筑物导入流程中,利用CAD图纸等资源建立的三维模型仅包含建筑物的三维模型,而虚拟摄像机的导入,是以一种按需更新的实时导入模式。用户根据需求,从摄像机模型库中导入所需型号的虚拟摄像机,与真实摄像机对应,安装于建筑物的真实位置,同时调整虚拟摄像机的水平和竖直旋转角度,与真实摄像机一致。由于三维模型和真实环境是按比例构建,通过调节虚拟摄像机的参数,可调整虚拟摄像机的可视域与真实摄像机一致,使两者的输出图像一致。虚拟摄像机的参数包括水平视场角、竖直视场角、成像长宽比和畸变系数。通过调整虚拟摄像机参数,使虚拟摄像机与真实摄像机的可视域一致,再通过调整虚拟摄像机的畸变系数,使成像一致。
将虚拟摄像机调节完成后,利用虚拟摄像机,获取三维模型中的深度图像,深度图像表示三维模型中各点相对于虚拟摄像机的相对距离,即深度图中的每一个像素值表示三维模型中某一点与虚拟摄像机之间的相对距离,本实施例每一个像素值表示为(R,G,B,α),其中R、G、B为颜色分量,α为透明度。获取深度图像的过程如下:
1)、通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点。
筛选可见像素点的方法包括步骤:
I、确定虚拟摄像机可视域六个平面的平面方程。
虚拟摄像机的可视区域的数学模型为视锥体,如图1所示。视锥体的本质就是由八个点(V1,V2,V3,V4,V5,V6,V7,V8,)组成的六面体,包含近裁剪面、远裁剪面和四个侧面。由数学原理可知,每个面可以表示为由三个点组成的平面方程,本实施例以近裁剪面的平面为例,对虚拟摄像机可视区域内的可见像素点筛选进行说明。
近裁剪面为Plane(V1,V2,V3),其平面方程可表示为点法式,即
N·V+d=0公式1
其中,N为近裁剪面的法向量,V为近裁剪面上的一点,d为常数。本实施例中法向量N朝向视锥体外侧,对于近裁剪面,其平面法向量的方向指向虚拟摄像机所在的位置,法向量可以通过平面上的向量的叉积计算,如图2所示,Plane(V1,V2,V3)的法向量:
N=(V4—V1)×(V2—V1)公式2。
根据同样的方法可以获得视锥体其他平面的平面方程和平面法向量。
II、将三维模型中任意一点代入可视域六个平面的平面方程,确定该点与摄像机可视域各平面之间的位置关系,如果该点在所述六个平面上或平面内侧,则判断该点在虚拟摄像机可视域内,将位于可视域内的点作为虚拟摄像机的可见像素点。
确定三维模型中任意一点在虚拟摄像机内是否可见,只需要比较该点与虚拟摄像机视锥体六个平面之间的位置关系,当该点位于视锥体内,则该点可见;反之,若该点都不在视锥体内,则该点不可见。本实施例将在视锥体内的点称为可见像素点。因此,将三维模型中任意点V’的坐标分别代入视锥体六个平面的平面方程,可以判断该点与六个平面之间的位置关系,从而筛选虚拟摄像机的可见像素点。
以近裁剪面为例:
若N·V’+d=0,则点在近裁剪面上,
若N·V’+d>0,则点在近裁剪面外侧,
若N·V’+d<0,则点在近裁剪面内侧,
根据图1的视锥体可知,如果点V’在近裁剪面外侧,则该点在虚拟摄像机视锥体的外侧,不在可视域内。对于任意点V’,如果对于六个平面的计算结果都在平面上、或者在平面的内侧,则该点在可视域内。对于视锥体其他几个平面的判断与近裁剪面上的计算方式相同,本实施例中不再赘述。
因此,判断三维模型中物体是否在视锥体内,只要将组成物体的每个点的坐标,分别代入六个平面方程中,如果结果都在平面的内侧,则该物体可见,如果只有一部分点在视锥体内,则部分可见,如果该物体上所有点都不在视锥体内,则该物体不可见。如图1中ABCD和EFGH都位于虚拟摄像机的可视域内。
2)、根据筛选的可见像素点,计算可见像素点到虚拟摄像机的相对距离,生成深度图像。
深度图像表示三维模型中各点对于虚拟摄像机的相对距离,即深度图像中的每一个像素值表示三维模型中某一点与虚拟摄像机之间的相对距离。通过计算三维模型中的每一个点与虚拟摄像机的相对距离,就可以得到虚拟摄像机的深度图像。
例如,图1的A点与虚拟摄像机距离为d,摄像机的近裁剪面距离和远裁剪面距离分别为n和f,则A与虚拟摄像机的相对距离(即A点的像素值)的表达式为(r,r,r,α),其中:
其中,像素值的表达式采用RGB的方式表示,本实施例中由于深度图像最终表示为灰度图,因此将RGB的三个分量设置为相同,均为r,最后一位α表示透明度,其中α为0~1的数值。由上式可知,当某点距离虚拟摄像机的距离越近时,r的数值越小,则该点上颜色的深度越大,在转化为灰度图后,表示为该点上像素越接近黑色。
3)、剔除深度图像中被遮挡的可见像素点,形成最终的深度图像。
对于虚拟摄像机而言,如果某一个可见像素点在其可视域内但被其他物体遮挡,那么该可见像素点仍然是不可见,因此在生成虚拟摄像机深度图像过程中需要剔除这些不可见像素点。剔除被遮挡像素点的方法如下:
I、对于任意可见像素点j,获取其世界坐标posw。
可见像素点j在三维模型中的位置为已知,在计算深度图像时,直接从三维模型中得到其世界坐标。
II、计算点j对应到虚拟摄像机成像图像上的二维坐标,计算公式如下:
K=(Mp·Mv·posw).xy公式4
其中,K为点j对应于虚拟摄像机成像图像上的点,Mv为虚拟摄像机的视图矩阵,Mp为虚拟摄像机投影矩阵,K为计算结果的x、y分量。
K换算出来的坐标点为三维空间坐标,取其x轴和y轴上的数据,作为在虚拟摄像机成像图像上的二维坐标。
III、获取深度图像上K位置的像素值,与j点实际计算得到的像素值进行比较,如果实际计算得到的像素值大于等于K位置的像素值,则判定j点距离虚拟摄像机比较远,j点的像素被已有的像素遮挡,剔除j点;反之,则j点未被遮挡,保留j点。
其中,j点实际计算得到的像素值
根据上述步骤遍历所有可见像素点,剔选所有被遮挡点,生成最终深度图像。
例如,如图1所示,EFGH的位置在ABCD的后侧,在生产深度图像时,EDGH上的像素值被ABCD上的像素值覆盖,从而导致EFGH不可见,需要将EDGH剔除。
通过上述过程,将得到的深度图像作为真实摄像机的深度图像,由于深度图像包含清晰的物体轮廓,消除光照和阴影等的影响,即深度图像包括了真实图像的背景信息,因此,需要借助背景深度图像,可以从真实图像中分离出在三维模型中不存在的前景动态特征图像。
需要说明的是,本实施例通过虚拟摄像机来得到深度图像,也可以借助第三方建模软件如3dmax,通过模拟真实摄像机的参数,得到摄像机的深度图像,关于通过第三方建模软件来获取深度图像,这里不再赘述。
本实施例利用得到的深度图像来识别前景目标对象,本实施例一种识别前景目标对象的方法,如图3所示,包括如下步骤:
步骤S1、将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像。
本实施例在获取虚拟摄像机的深度图像之后,需要对真实摄像机上的真实图像进行前、背景分离,提取出前景中目标对象的特征轮廓。
通过二值化,将真实图像与深度图像转换为二值图像,从而根据现有的图像识别算法,就可以对真实图像进行背景分离和特征提取。
步骤S2、将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓。
如图4和图5所示,将得到的真实图像以及灰度图像的二值图像进行轮廓比较,在真实图像中剔除深度图像的特征轮廓,得到真实图像内前景目标对象的特征轮廓。
步骤S3、根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。
在提取到目标物的特征轮廓后,对其进行特征匹配,根据现有图像分析的特征匹配算法,对提取的特征轮廓遍历,与人形、车形等所要求的目标对象等进行匹配,从而分离出前景目标对象,实现目标对象识别。
本实施例的方法适用于三维视频监控下的人物、车辆等目标对象的识别和还原,借助三维视频监控下的摄像机深度图像,有效提高目标对象识别的速度和准确度,再根据目标对象距离虚拟摄像机的位置,实现目标对象的时空还原。
例如,在广场区域可以借助三维视频监控将真实图像与深度图像对比,提取前景,快速识别嫌疑人,记录嫌疑人在某时刻的地理位置,进行侦查;在停车场可以计算车辆停驶的位置,判断车辆是否停在停车线区域。
以目标对象的时空还原为例,在获取目标对象特征轮廓的像素块后,提取目标对象着地点的像素值,记录其在真实图像中的坐标,并且获取深度图像中该点的像素值,从而进一步计算得到目标对象物距离虚拟摄像机的距离,根据虚拟摄像机的安装位置、安装角度以及目标对象距离虚拟摄像机的距离可以得到某时刻t时目标对象所在的空间位置(根据公式4),然后在视频监控中呈现目标对象的三维模型,实现目标对象的时空还原。
利用深度图像来提取和还原目标对象,不仅能消除光影对目标对象识别的影响,提高识别的效率和准确性,而且使该真实环境内的所有真实摄像机均具备深度检测功能,大大降低了成本,适合大范围应用。
本实施例还提出了一种识别前景目标对象的装置,所述装置包括:
三维模型单元,用于根据真实场景建立三维模型,在所述三维模型中设置与真实摄像机一致的虚拟摄像机,获取深度图像;
转换单元,用于将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像;
目标提取单元,用于将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓;
目标分离单元,用于根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。
进一步地,本实施例的装置还包括时空还原单元,用于根据分离出的前景目标对象对应的着地点,在深度图像中获取该着地点的像素值,计算出该着地点的空间位置,实现目标对象的时空还原。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (10)
1.一种识别前景目标对象的方法,其特征在于,根据真实场景建立三维模型,在所述三维模型中设置与真实摄像机一致的虚拟摄像机,所述方法包括步骤:
将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像;
将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓;
根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。
2.根据权利要求1所述的方法,其特征在于,所述深度图像由虚拟摄像机根据三维模型得到,包括步骤:
通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点;
根据筛选的可见像素点,计算所有可见像素点到虚拟摄像机的相对距离,生成深度图像;
剔除深度图像中被遮挡的可见像素点,形成最终的深度图像。
3.根据权利要求2所述的方法,其特征在于,所述通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点,包括步骤:
确定虚拟摄像机可视域六个平面的平面方程;
将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系,如果该点在所述六个平面上或平面内侧,则判断该点在虚拟摄像机可视域内,将位于可视域内的点作为虚拟摄像机的可见像素点;
所述平面方程用点法式表示为:
N·V+d=0
其中,N为该平面的法向量,所述法向量指向可视域的外侧,V为该平面上的一点,d为常数;
所述将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系,包括:
对于三维模型中任意一点V’:
若N·V’+d=0,则点在该平面上,
若N·V’+d>0,则点在该平面外侧,
若N·V’+d<0,则点在该平面内侧。
4.根据权利要求2所述的方法,其特征在于,所述剔除深度图像中被遮挡的可见像素点,形成最终的深度图像,包括步骤:
遍历所有可见像素点,对于任意可见像素点j,获取其世界坐标posw;
计算点j对应到虚拟摄像机成像图像上的二维坐标,计算公式如下:
K=(Mp·Mv·posw).xy
其中,K为点j对应于虚拟摄像机成像图像上的点,Mv为虚拟摄像机的视图矩阵,Mp为虚拟摄像机投影矩阵,K为计算结果的x、y分量;
获取深度图像上K位置的像素值,与j点实际计算得到的像素值进行比较,如果实际计算得到的像素值大于等于K位置的像素值,则判定j点距离虚拟摄像机比较远,j点的像素被已有的像素遮挡,剔除j点;反之,则j点未被遮挡,保留j点。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括步骤:
根据分离出的前景目标对象对应的着地点,在深度图像中获取该着地点的像素值,计算出该着地点的空间位置,实现目标对象的时空还原。
6.一种识别前景目标对象的装置,其特征在于,所述装置包括:
三维模型单元,用于根据真实场景建立三维模型,在所述三维模型中设置与真实摄像机一致的虚拟摄像机,获取深度图像;
转换单元,用于将真实图像与虚拟摄像机根据三维模型得到的深度图像转换为二值图像;
目标提取单元,用于将真实图像与深度图像的二值图像做轮廓比较,提取前景目标对象的特征轮廓;
目标分离单元,用于根据预设的目标对象对提取的特征轮廓进行特征匹配,分离出前景目标对象。
7.根据权利要求1所述的装置,其特征在于,所述三维模型单元在获取深度图像时,执行如下操作:
通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点;
根据筛选的可见像素点,计算所有可见像素点到虚拟摄像机的相对距离,生成深度图像;
剔除深度图像中被遮挡的可见像素点,形成最终的深度图像。
8.根据权利要求7所述的装置,其特征在于,所述三维模型单元在通过虚拟摄像机的可视域筛选虚拟摄像机的可见像素点时,执行如下操作:
确定虚拟摄像机可视域六个平面的平面方程;
将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系,如果该点在所述六个平面上或平面内侧,则判断该点在虚拟摄像机可视域内,将位于可视域内的点作为虚拟摄像机的可见像素点;
所述平面方程用点法式表示为:
N·V+d=0
其中,N为该平面的法向量,所述法向量指向可视域的外侧,V为该平面上的一点,d为常数;
所述三维模型单元在将三维模型中任意一点代入所述平面方程,确定该点与摄像机可视域各平面之间的位置关系时,执行如下操作:
对于三维模型中任意一点V’:
若N·V’+d=0,则点在该平面上,
若N·V’+d>0,则点在该平面外侧,
若N·V’+d<0,则点在该平面内侧。
9.根据权利要求7所述的装置,其特征在于,所述三维模型单元在剔除深度图像中被遮挡的可见像素点,形成最终的深度图像时,执行如下操作:
遍历所有可见像素点,对于任意可见像素点j,获取其世界坐标posw;
计算点j对应到虚拟摄像机成像图像上的二维坐标,计算公式如下:
K=(Mp·Mv·posw).xy
其中,K为点j对应于虚拟摄像机成像图像上的点,Mv为虚拟摄像机的视图矩阵,Mp为虚拟摄像机投影矩阵,K为计算结果的x、y分量;
获取深度图像上K位置的像素值,与j点实际计算得到的像素值进行比较,如果实际计算得到的像素值大于等于K位置的像素值,则判定j点距离虚拟摄像机比较远,j点的像素被已有的像素遮挡,剔除j点;反之,则j点未被遮挡,保留j点。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括时空还原单元,用于根据分离出的前景目标对象对应的着地点,在深度图像中获取该着地点的像素值,计算出该着地点的空间位置,实现目标对象的时空还原。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510575320.4A CN105225230B (zh) | 2015-09-11 | 2015-09-11 | 一种识别前景目标对象的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510575320.4A CN105225230B (zh) | 2015-09-11 | 2015-09-11 | 一种识别前景目标对象的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105225230A true CN105225230A (zh) | 2016-01-06 |
CN105225230B CN105225230B (zh) | 2018-07-13 |
Family
ID=54994179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510575320.4A Active CN105225230B (zh) | 2015-09-11 | 2015-09-11 | 一种识别前景目标对象的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105225230B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105681627A (zh) * | 2016-03-03 | 2016-06-15 | 联想(北京)有限公司 | 拍摄图像方法及电子设备 |
CN105828045A (zh) * | 2016-05-12 | 2016-08-03 | 浙江宇视科技有限公司 | 一种利用空间信息实现目标追踪的方法及装置 |
CN106295790A (zh) * | 2016-08-25 | 2017-01-04 | 浙江宇视科技有限公司 | 一种通过摄像机进行目标数量统计的方法及装置 |
CN107437255A (zh) * | 2016-05-27 | 2017-12-05 | 鸿富锦精密工业(深圳)有限公司 | 图像处理装置及方法 |
CN107545537A (zh) * | 2017-08-21 | 2018-01-05 | 嘀拍信息科技南通有限公司 | 一种从稠密点云生成3d全景图片的方法 |
CN107886570A (zh) * | 2017-09-22 | 2018-04-06 | 中国矿业大学 | 一种兼顾精度与效率的可视域计算方法 |
CN108725318A (zh) * | 2018-07-28 | 2018-11-02 | 惠州华阳通用电子有限公司 | 汽车安全预警方法、装置及计算机可读存储介质 |
CN108734769A (zh) * | 2017-04-17 | 2018-11-02 | 宏达国际电子股份有限公司 | 三维模型分析方法、电子装置及非暂态电脑可读取媒体 |
CN110728652A (zh) * | 2019-09-04 | 2020-01-24 | 中国地质大学(武汉) | 面向二维规则矢量空间数据的可视域分析方法及装置 |
CN111046803A (zh) * | 2019-12-13 | 2020-04-21 | 电子科技大学 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
CN111080704A (zh) * | 2018-10-22 | 2020-04-28 | 浙江宇视科技有限公司 | 视频增强现实的方法及装置 |
CN111127615A (zh) * | 2019-12-26 | 2020-05-08 | 四川航天神坤科技有限公司 | 一种三维模型的数据调度方法、装置及电子设备 |
CN111669662A (zh) * | 2020-07-03 | 2020-09-15 | 海信视像科技股份有限公司 | 显示设备、视频通话方法及服务器 |
CN111833428A (zh) * | 2019-03-27 | 2020-10-27 | 杭州海康威视***技术有限公司 | 一种可视域确定方法、装置及设备 |
CN111915735A (zh) * | 2020-06-29 | 2020-11-10 | 浙江传媒学院 | 一种针对视频中三维结构轮廓的深度优化方法 |
CN113344997A (zh) * | 2021-06-11 | 2021-09-03 | 山西方天圣华数字科技有限公司 | 快速获取只含有目标对象的高清前景图的方法及*** |
CN113722644A (zh) * | 2021-09-03 | 2021-11-30 | 北京房江湖科技有限公司 | 基于外接设备在虚拟空间选取浏览点位的方法及其装置 |
CN116703995A (zh) * | 2022-10-31 | 2023-09-05 | 荣耀终端有限公司 | 视频虚化处理方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003046812A1 (en) * | 2001-11-23 | 2003-06-05 | R2 Technology, Inc. | Region growing in anatomical images |
CN102609934A (zh) * | 2011-12-22 | 2012-07-25 | 中国科学院自动化研究所 | 一种基于深度图像的多目标分割和跟踪方法 |
CN103324977A (zh) * | 2012-03-21 | 2013-09-25 | 日电(中国)有限公司 | 一种目标数量检测方法和设备 |
CN103971380A (zh) * | 2014-05-05 | 2014-08-06 | 中国民航大学 | 基于rgb-d的行人尾随检测方法 |
CN104103089A (zh) * | 2014-07-29 | 2014-10-15 | 无锡梵天信息技术股份有限公司 | 一种基于图像屏幕空间的实时软阴影实现方法 |
-
2015
- 2015-09-11 CN CN201510575320.4A patent/CN105225230B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003046812A1 (en) * | 2001-11-23 | 2003-06-05 | R2 Technology, Inc. | Region growing in anatomical images |
CN102609934A (zh) * | 2011-12-22 | 2012-07-25 | 中国科学院自动化研究所 | 一种基于深度图像的多目标分割和跟踪方法 |
CN103324977A (zh) * | 2012-03-21 | 2013-09-25 | 日电(中国)有限公司 | 一种目标数量检测方法和设备 |
CN103971380A (zh) * | 2014-05-05 | 2014-08-06 | 中国民航大学 | 基于rgb-d的行人尾随检测方法 |
CN104103089A (zh) * | 2014-07-29 | 2014-10-15 | 无锡梵天信息技术股份有限公司 | 一种基于图像屏幕空间的实时软阴影实现方法 |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105681627A (zh) * | 2016-03-03 | 2016-06-15 | 联想(北京)有限公司 | 拍摄图像方法及电子设备 |
CN105828045B (zh) * | 2016-05-12 | 2019-03-08 | 浙江宇视科技有限公司 | 一种利用空间信息实现目标追踪的方法及装置 |
CN105828045A (zh) * | 2016-05-12 | 2016-08-03 | 浙江宇视科技有限公司 | 一种利用空间信息实现目标追踪的方法及装置 |
CN107437255B (zh) * | 2016-05-27 | 2020-04-24 | 南宁富桂精密工业有限公司 | 图像处理装置及方法 |
CN107437255A (zh) * | 2016-05-27 | 2017-12-05 | 鸿富锦精密工业(深圳)有限公司 | 图像处理装置及方法 |
CN106295790A (zh) * | 2016-08-25 | 2017-01-04 | 浙江宇视科技有限公司 | 一种通过摄像机进行目标数量统计的方法及装置 |
CN108734769A (zh) * | 2017-04-17 | 2018-11-02 | 宏达国际电子股份有限公司 | 三维模型分析方法、电子装置及非暂态电脑可读取媒体 |
CN107545537A (zh) * | 2017-08-21 | 2018-01-05 | 嘀拍信息科技南通有限公司 | 一种从稠密点云生成3d全景图片的方法 |
CN107886570B (zh) * | 2017-09-22 | 2020-03-24 | 中国矿业大学 | 一种兼顾精度与效率的可视域计算方法 |
CN107886570A (zh) * | 2017-09-22 | 2018-04-06 | 中国矿业大学 | 一种兼顾精度与效率的可视域计算方法 |
CN108725318A (zh) * | 2018-07-28 | 2018-11-02 | 惠州华阳通用电子有限公司 | 汽车安全预警方法、装置及计算机可读存储介质 |
CN108725318B (zh) * | 2018-07-28 | 2020-11-24 | 惠州华阳通用电子有限公司 | 汽车安全预警方法、装置及计算机可读存储介质 |
CN111080704A (zh) * | 2018-10-22 | 2020-04-28 | 浙江宇视科技有限公司 | 视频增强现实的方法及装置 |
CN111080704B (zh) * | 2018-10-22 | 2023-09-15 | 浙江宇视科技有限公司 | 视频增强现实的方法及装置 |
CN111833428B (zh) * | 2019-03-27 | 2024-02-02 | 杭州海康威视***技术有限公司 | 一种可视域确定方法、装置及设备 |
CN111833428A (zh) * | 2019-03-27 | 2020-10-27 | 杭州海康威视***技术有限公司 | 一种可视域确定方法、装置及设备 |
CN110728652A (zh) * | 2019-09-04 | 2020-01-24 | 中国地质大学(武汉) | 面向二维规则矢量空间数据的可视域分析方法及装置 |
CN110728652B (zh) * | 2019-09-04 | 2021-09-14 | 中国地质大学(武汉) | 面向二维规则矢量空间数据的可视域分析方法及装置 |
CN111046803A (zh) * | 2019-12-13 | 2020-04-21 | 电子科技大学 | 一种基于卷积神经网络的车辆检测及着地点定位方法 |
CN111127615A (zh) * | 2019-12-26 | 2020-05-08 | 四川航天神坤科技有限公司 | 一种三维模型的数据调度方法、装置及电子设备 |
CN111915735B (zh) * | 2020-06-29 | 2023-08-22 | 浙江传媒学院 | 一种针对视频中三维结构轮廓的深度优化方法 |
CN111915735A (zh) * | 2020-06-29 | 2020-11-10 | 浙江传媒学院 | 一种针对视频中三维结构轮廓的深度优化方法 |
CN111669662A (zh) * | 2020-07-03 | 2020-09-15 | 海信视像科技股份有限公司 | 显示设备、视频通话方法及服务器 |
CN113344997A (zh) * | 2021-06-11 | 2021-09-03 | 山西方天圣华数字科技有限公司 | 快速获取只含有目标对象的高清前景图的方法及*** |
CN113722644A (zh) * | 2021-09-03 | 2021-11-30 | 北京房江湖科技有限公司 | 基于外接设备在虚拟空间选取浏览点位的方法及其装置 |
CN113722644B (zh) * | 2021-09-03 | 2023-07-21 | 如你所视(北京)科技有限公司 | 基于外接设备在虚拟空间选取浏览点位的方法及其装置 |
CN116703995A (zh) * | 2022-10-31 | 2023-09-05 | 荣耀终端有限公司 | 视频虚化处理方法和装置 |
CN116703995B (zh) * | 2022-10-31 | 2024-05-14 | 荣耀终端有限公司 | 视频虚化处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105225230B (zh) | 2018-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105225230A (zh) | 一种识别前景目标对象的方法及装置 | |
CN110032949B (zh) | 一种基于轻量化卷积神经网络的目标检测与定位方法 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图*** | |
CN107292965B (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
CN107862293A (zh) | 基于对抗生成网络的雷达生成彩色语义图像***及方法 | |
CN105225482A (zh) | 基于双目立体视觉的车辆检测***和方法 | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN110245199B (zh) | 一种大倾角视频与2d地图的融合方法 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN107527366A (zh) | 一种面向深度相机的相机跟踪方法 | |
CN117036641A (zh) | 一种基于双目视觉的公路场景三维重建与缺陷检测方法 | |
CN113643345A (zh) | 一种基于双光融合的多目道路智能识别方法 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN107689060A (zh) | 目标对象的视觉处理方法、装置及基于视觉处理的设备 | |
CN105913464A (zh) | 一种基于视频的多人体目标在线测量方法 | |
CN101286236B (zh) | 基于多特征图像和均值漂移的红外目标跟踪方法 | |
CN110276371B (zh) | 一种基于深度学习的集装箱角件识别方法 | |
Xiao et al. | Research on uav multi-obstacle detection algorithm based on stereo vision | |
CN116879870A (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN113129348B (zh) | 一种基于单目视觉的道路场景中车辆目标的三维重建方法 | |
CN103236053B (zh) | 一种移动平台下运动目标检测的mof方法 | |
CN114937203A (zh) | 基于多目视觉图像视差的机场跑道异物检测方法 | |
CN115690743A (zh) | 一种基于深度学习的机场停机位入侵的检测方法 | |
CN113743472B (zh) | 一种基于鱼眼相机与激光雷达融合的矿区目标识别方法 | |
Wang et al. | Target detection for construction machinery based on deep learning and multisource data fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |