CN113965721B - 图像与深度传输监视***的对齐方法 - Google Patents

图像与深度传输监视***的对齐方法 Download PDF

Info

Publication number
CN113965721B
CN113965721B CN202011395415.5A CN202011395415A CN113965721B CN 113965721 B CN113965721 B CN 113965721B CN 202011395415 A CN202011395415 A CN 202011395415A CN 113965721 B CN113965721 B CN 113965721B
Authority
CN
China
Prior art keywords
image
end server
optical
coordinate
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011395415.5A
Other languages
English (en)
Other versions
CN113965721A (zh
Inventor
林文雄
鞠志远
童凯彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jorjin Technologies Inc
Original Assignee
Jorjin Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jorjin Technologies Inc filed Critical Jorjin Technologies Inc
Publication of CN113965721A publication Critical patent/CN113965721A/zh
Application granted granted Critical
Publication of CN113965721B publication Critical patent/CN113965721B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Processing Or Creating Images (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一种图像与深度传输监视***的对齐方法,其包括:雷达扫描步骤、光学拍摄步骤、校正原点与扫描同步步骤、后端服务器接收处理步骤、无线传输步骤、坐标定位步骤、得适合的场景小地图步骤、回传实景步骤、空间对齐与坐标***一致化处理步骤、虚拟物件叠合于实际空间的图像步骤,再通过该雷达扫描步骤的立体点云地图与光学拍摄步骤之光学平面摄像图重叠校正后,使立体点云地图与光学平面摄像图对应相同区域扫描给予后端服务器,并使后端服务器对齐该立体点云地图与光学平面摄像图,即可使后端服务器得到具图像及深度的监视信息,并再通过坐标定位、多次叠合、图像旋转匹配与速度比对、空间对齐与坐标***一致化和智能眼镜的显像。

Description

图像与深度传输监视***的对齐方法
技术领域
本发明关于一种监视***,特别是一种具有图像与深度传输的监视***的对齐方法。
背景技术
按,一般常见的监视***,如街角摄影机、闭路电视监控***、网络摄影机等,大多皆是利用光学摄像原理,得到一连串连续的图像资料,由此在后端达到监视与观看的效果。
然而,该一般监视***仅能得到指定区域中连续或部分连续的图像资料,而不具有该指定区域的立体信息(如深度、距离等空间讯息),且当需要进入指定场域中寻找特定目标(如控制箱、机台、阀门等)、物品或位置时,大多需经由描述或记忆中得知大约位置,再通过特定目标上具有标示,而明确知道是否为特定目标,对于未清楚标示的目标、传承的落差等问题导致对指定区域无法完整得知该区域的现况,而可能导致寻找之费时、无法准确放置指定位置甚至误入危险区域导致人员的损害产生。
是故,如何将上述等缺失加以摒除,即为本案发明人所欲解决之技术困难点之所在。
发明内容
有鉴于现有的监视***存在着上述问题,因此本发明的目的在于提供一种图像与深度传输监视***的对齐方法。
为达成以上的目的,本发明系提供一种图像与深度传输监视***的对齐方法,其包括:
雷达扫描步骤:该雷达扫描步骤通过至少一个毫米波雷达产生立体点云地图串流,各个毫米波雷达在指定场域中具有一第一相对坐标,该指定场域具有一绝对坐标,该立体点云地图串流通过毫米波雷达发送与接收毫米波对于指定场域得到精确的立体信息(如:长度、高度、深度、距离等信息)回传,又该立体点云地图串流不需复杂比对演算,且该毫米波不易受周围环境影响而可提升其定位的能力。
光学拍摄步骤:该光学拍摄步骤与该雷达扫描步骤同时进行,该光学拍摄步骤通过至少一个光学摄影机拍摄指定场域得到光学平面摄像图串流,该光学平面摄像图串流系提供指定场域的图像信息,各个光学摄影机在指定场域中具有一第二相对坐标,该指定场域具有绝对坐标。
校正原点与扫描同步步骤:将该雷达扫描步骤与该光学拍摄步骤进行校正原点与扫描同步,该校正原点通过将指定场域中绝对坐标和至少一组毫米波雷达与光学摄影机其各个第一相对坐标与第二相对坐标做坐标重叠校正,又该扫描同步使该校正原点后的毫米波雷达其立体点云地图串流与该校正原点后的光学摄影机其光学平面摄像图串流同步扫描相同位置。
后端服务器接收处理步骤:经过该校正原点与扫描同步步骤后得到的立体点云地图串流与光学平面摄像图串流,其通过该后端服务器接收处理步骤之对齐图像及深度步骤将该立体点云地图串流的立体信息(如:长度、高度、深度、距离等信息)对齐该光学平面摄像图串流的的图像;再将对齐图像及深度的结果存放于该后端服务器中,该后端服务器即可得到具图像及深度的监视信息。
无线传输步骤,该后端服务器接收处理步骤后,该智能眼镜中具有一惯性测量单元(Inertial Measurement Unit,IMU),该智能眼镜可通过使用者的动作如:移动、转弯、头部的仰角、俯角、转动角度,该智能眼镜通过无线传输接收或发送该智能眼镜的惯性测量单元得到的速度、旋转、位移、角度参数给予后端服务器。
坐标定位步骤,该无线传输步骤后,该后端服务器接收该智能眼镜的惯性测量单元得到的速度、旋转、位移、角度参数,将上述参数与环境信息之相对应坐标进行多次叠合并得到智能眼镜在指定场域中的坐标、角度进而可对使用者定位追踪。
得适合的场景小地图步骤,该坐标定位步骤后得到智能眼镜在指定场域中的坐标、角度,通过该后端服务器通过图像旋转匹配与速度比对目前视角范围场景而可产生场景小地图。
回传实景步骤,该得适合的场景小地图步骤后,该智能眼镜具有观看视野的实景,再将该智能眼镜观看视野的实景回传给予该后端服务器。
空间对齐与坐标***一致化处理步骤,该回传实景步骤后,该后端服务器将智能眼镜回传之实景与后端服务器的场景小地图进行空间对齐与坐标***一致化处理,该空间对齐计算坐标相互应对关系转换,其计算方式如下:
sm′=A[R|t]M
s:常数(Constant)
m':项目点(Project Point)
A:相机固有矩阵(Camera Intrinsic Matrix)
R:旋转矩阵(Rotation Matrix)
t:转换矩阵(Translation Matrix)
M:环境信息点云图点(Point Cloud Map Point)
又该坐标***一致化处理取得该后端服务器的立体点云地图与实际场域的中心位置,分别计算该立体点云地图与实际场域每个参考点与其中心位置的相对距离,距离最短的点则纪录为参考点,得到所有关键的参考点后,将空间对齐与坐标***一致化求得的虚拟内容与真实内容最佳的空间对应关系传给智能眼镜。
虚拟物件叠合于实际空间的图像步骤,该空间对齐与坐标***一致化处理步骤求得的虚拟内容与真实内容最佳的空间对应关系传给智能眼镜,由此可得虚拟物件放置于实际空间的坐标,达到虚拟物件叠合于实际空间的目的,另该虚拟物件放置于实际空间的坐标上,因此当该智能眼镜随使用者转动观看视野改变时,该虚拟物件仍在实际空间的坐标而不随该智能眼镜转动而转动,且该视野改变后进行重新演算使视野改变后的虚拟内容与真实内容得到最佳的空间对应关系。
通过该雷达扫描步骤的立体点云地图与光学拍摄步骤之光学平面摄像图重叠校正后,使立体点云地图与光学平面摄像图对应相同区域扫描给予后端服务器,并使后端服务器对齐该立体点云地图与光学平面摄像图,即可使后端服务器得到具图像及深度的监视信息,再通过坐标定位、多次叠合、图像旋转匹配与速度比对、空间对齐与坐标***一致化和智能眼镜的显像,俾可让配戴智能眼镜的使用者可被定位追踪并在指定场域中给予指示达到快速寻找指定目标物或指示放置指定物品于特定位置的效果,也可通过在后端服务器中的图像及深度的信息设定危险区域,俾可让使用者通过后端服务器传送的图像及深度的信息得知危险,进而可达到避免危险的效果,另通过后端服务器当中设定好排程与动作,让使用者可前往特定地点对指定物品(如:机械设备、控制箱)进行设定好的动作(如:检查流程、保养流程、维修流程等),减少操作错误造成设备损伤或人员损伤的机会。
附图说明
[图1]是本发明之步骤流程图。
[图2]是本发明点云地图与实际场域中心点及参考点差异示意图。
[图3]是本发明旋转与转换示意图。
[图4]是实际空间示意图。
[图5]是虚拟物件叠合于实际空间示意图。
[图6]是虚拟物件显示于智能眼镜示意图。
[图7]是虚拟物件不随智能眼镜转动示意图。
附图标记列表:1:智能眼镜;2:中心;3:中心;4:虚拟物件;S1:雷达扫描步骤;S2:光学拍摄步骤;S3:校正原点与扫描同步步骤;S4:后端服务器接收处理步骤;S5:无线传输步骤;S6:坐标定位步骤;S7:得适合的场景小地图步骤;S8:回传实景步骤;S9:空间对齐与坐标***一致化处理步骤;S10:虚拟物件叠合于实际空间的图像步骤。
具体实施方式
为使读者方便简洁了解本发明之其他特征内容与优点及其所达成之功效能够更为显现,兹将本发明配合附图,详细说明如下:
请参阅图1所示,是本发明的流程示意图,一种图像与深度传输监视***的对齐方法,其包括:
雷达扫描步骤S1:该雷达扫描步骤S1通过至少一个毫米波雷达产生立体点云地图串流,各个毫米波雷达在指定场域中具有一第一相对坐标,该指定场域具有一绝对坐标,该立体点云地图串流通过毫米波雷达发送与接收毫米波对于指定场域得到精确的立体信息(如:长度、高度、深度、距离等信息)回传,又该立体点云地图串流不需复杂比对演算,且该毫米波不易受周围环境影响而可提升其定位的能力。
光学拍摄步骤S2:该光学拍摄步骤S2与该雷达扫描步骤S1同时进行,该光学拍摄步骤S2通过至少一个光学摄影机拍摄指定场域得到光学平面摄像图串流,该光学平面摄像图串流系提供指定场域的图像信息,各个光学摄影机在指定场域中具有一第二相对坐标,该指定场域具有绝对坐标。
校正原点与扫描同步步骤S3:将该雷达扫描步骤S1与该光学拍摄步骤S2进行校正原点与扫描同步,该校正原点通过将指定场域中绝对坐标和至少一组毫米波雷达与光学摄影机其各个第一相对坐标与第二相对坐标做坐标重叠校正,又该扫描同步使该校正原点后的毫米波雷达其立体点云地图串流与该校正原点后的光学摄影机其光学平面摄像图串流同步扫描相同位置。
后端服务器接收处理步骤S4:经过该校正原点与扫描同步步骤S3后得到的立体点云地图串流与光学平面摄像图串流,其通过该后端服务器接收处理步骤S4将该立体点云地图串流的立体信息(如:长度、高度、深度、距离等信息)对齐该光学平面摄像图串流的的图像;再将对齐图像及深度的结果存放于该后端服务器中,该后端服务器即可得到具图像及深度的监视信息,该具图像及深度的监视信息包括危险区域信息。
无线传输步骤S5,该后端服务器接收处理步骤S4后,该智能眼镜1中具有一惯性测量单元(Inertial Measurement Unit,IMU),该智能眼镜1可通过使用者的动作如:移动、转弯、头部的仰角、俯角、转动角度,该智能眼镜1通过无线传输接收或发送该智能眼镜1之惯性测量单元得到的速度、旋转、位移、角度参数给予后端服务器。
坐标定位步骤S6,该无线传输步骤S5后,该后端服务器接收该智能眼镜1之惯性测量单元得到的速度、旋转、位移、角度参数,将上述参数与环境信息之相对应坐标进行多次叠合并得到智能眼镜1在指定场域中的坐标、角度进而可对使用者定位追踪。
得适合的场景小地图步骤S7,该坐标定位步骤S6后得到智能眼镜1在指定场域中的坐标、角度,通过该后端服务器通过图像旋转匹配与速度比对目前视角范围场景而可产生场景小地图。
回传实景步骤S8,该得适合的场景小地图步骤后,该智能眼镜1具有观看视野的实景,再将该智能眼镜1观看视野的实景回传给予该后端服务器。
空间对齐与坐标***一致化处理步骤S9,该回传实景步骤后S8,该后端服务器将智能眼镜1回传之实景与后端服务器的场景小地图进行空间对齐与坐标***一致化处理,该空间对齐计算坐标相互应对关系转换,其计算方式如下:
sm′=A[R|t]M
s:常数(Constant)
m':项目点(Project Point)
A:相机固有矩阵(Camera Intrinsic Matrix)
R:旋转矩阵(Rotation Matrix)
t:转换矩阵(Translation Matrix)
M:环境信息点云图点(Point Cloud Map Point)
又该坐标***一致化处理取得该后端服务器的立体点云地图与实际场域的中心2、3位置,分别计算该立体点云地图与实际场域每个参考点与其中心2、3位置的相对距离,距离最短的点则纪录为参考点,得到所有关键的参考点后,将空间对齐与坐标***一致化求得的虚拟内容与真实内容最佳的空间对应关系传给智能眼镜1。
虚拟物件叠合于实际空间的图像步骤S10,该空间对齐与坐标***一致化处理步骤S9求得的虚拟内容与真实内容最佳的空间对应关系传给智能眼镜1,由此可得虚拟物件4放置于实际空间的坐标,如图4、图5所示,达到虚拟物件4叠合于实际空间的目的,另该虚拟物件4放置于实际空间的坐标上,因此当该智能眼镜1随使用者转动观看视野改变时,该虚拟物件4仍在实际空间的坐标而不随该智能眼镜转动而转动,如图6、图7,且该视野改变后进行重新演算使视野改变后的虚拟内容与真实内容得到最佳的空间对应关系。
通过该雷达扫描步骤S1的立体点云地图与光学拍摄步骤S2之光学平面摄像图重叠校正后,使立体点云地图与光学平面摄像图对应相同区域扫描给予后端服务器,并使后端服务器对齐该立体点云地图与光学平面摄像图,即可使后端服务器得到具图像及深度的监视信息,再通过坐标定位、多次叠合、图像旋转匹配与速度比对、空间对齐与坐标***一致化和智能眼镜的显像,俾可让配戴智能眼镜的使用者可被定位追踪并在指定场域中给予指示达到快速寻找指定目标物或指示放置指定物品于特定位置的效果,也可通过在后端服务器中的图像及深度的信息设定危险区域,俾可让使用者通过后端服务器传送的图像及深度的信息得知危险,进而可达到避免危险的效果,另通过后端服务器当中设定好排程与动作,让使用者可前往特定地点对指定物品(如:机械设备、控制箱)进行设定好的动作(如:检查流程、保养流程、维修流程等),减少操作错误造成设备损伤或人员损伤的机会。

Claims (5)

1.一种图像与深度传输监视***的对齐方法,其特征在于,包括:
雷达扫描步骤:该雷达扫描步骤通过至少一个毫米波雷达产生立体点云地图串流,各个毫米波雷达在指定场域中具有一第一相对坐标,该指定场域具有一绝对坐标;
光学拍摄步骤:该光学拍摄步骤与该雷达扫描步骤同时进行,该光学拍摄步骤通过至少一个光学摄影机拍摄指定场域得到光学平面摄像图串流,各个光学摄影机在指定场域中具有一第二相对坐标;
校正原点与扫描同步步骤:将该雷达扫描步骤与该光学拍摄步骤进行校正原点与扫描同步,该校正原点通过将指定场域中绝对坐标和至少一组毫米波雷达与光学摄影机其各个第一相对坐标与第二相对坐标做坐标重叠校正,又该扫描同步使该校正原点后的毫米波雷达其立体点云地图串流与该校正原点后的光学摄影机其光学平面摄像图串流同步扫描相同位置;
后端服务器接收处理步骤:经过该校正原点与扫描同步步骤后得到的立体点云地图串流与光学平面摄像图串流,其通过该后端服务器将该立体点云地图串流的立体信息对齐该光学平面摄像图串流的的图像,再将具图像及深度的监视信息存放于该后端服务器中;
无线传输步骤,该后端服务器接收处理步骤后,智能眼镜中具有一惯性测量单元(Inertial Measurement Unit,IMU),该智能眼镜通过无线传输接收或发送该智能眼镜的惯性测量单元得到参数给予后端服务器;
坐标定位步骤,该无线传输步骤后,该后端服务器接收该智能眼镜的惯性测量单元得到的速度、旋转、位移、角度参数,将上述参数与具图像及深度的监视信息之相对应坐标进行多次叠合并得到智能眼镜在指定场域中的坐标、角度进而可对使用者定位追踪;
得适合的场景小地图步骤,该坐标定位步骤后得到智能眼镜在指定场域中的坐标、角度,通过该后端服务器通过图像旋转匹配与速度比对目前视角范围场景而可产生场景小地图;
回传实景步骤,该得适合的场景小地图步骤后,该智能眼镜具有观看视野的实景,再将该智能眼镜观看视野的实景回传给予该后端服务器;
空间对齐与坐标***一致化处理步骤,该回传实景步骤后,该后端服务器将智能眼镜回传之实景与后端服务器的场景小地图进行空间对齐与坐标***一致化处理,该空间对齐计算坐标相互应对关系转换,又该坐标***一致化处理取得该后端服务器的立体点云地图与实际场域的中心位置,分别计算该立体点云地图与实际场域每个参考点与其中心位置的相对距离,距离最短的点则纪录为对应点,得到所有关键的对应点后,将空间对齐与坐标***一致化求得的虚拟内容与真实内容最佳的空间对应关系传给智能眼镜;
虚拟物件叠合于实际空间的图像步骤,该空间对齐与坐标***一致化处理步骤求得的虚拟内容与真实内容最佳的空间对应关系传给智能眼镜,得虚拟物件放置于实际空间的坐标,达到虚拟物件叠合于实际空间。
2.根据权利要求1所述的图像与深度传输监视***的对齐方法,其特征在于,该具图像及深度的监视信息包括危险区域信息。
3.根据权利要求1所述的图像与深度传输监视***的对齐方法,其特征在于,该立体点云地图串流为立体信息。
4.根据权利要求3所述的图像与深度传输监视***的对齐方法,其特征在于,该立体信息为长度或高度或深度或距离。
5.根据权利要求1所述的图像与深度传输监视***的对齐方法,其特征在于,该光学平面摄像图为图像信息。
CN202011395415.5A 2020-07-21 2020-12-03 图像与深度传输监视***的对齐方法 Active CN113965721B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW109124569 2020-07-21
TW109124569A TW202205841A (zh) 2020-07-21 2020-07-21 具影像及深度傳輸的監視系統

Publications (2)

Publication Number Publication Date
CN113965721A CN113965721A (zh) 2022-01-21
CN113965721B true CN113965721B (zh) 2024-02-23

Family

ID=79460290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011395415.5A Active CN113965721B (zh) 2020-07-21 2020-12-03 图像与深度传输监视***的对齐方法

Country Status (3)

Country Link
US (1) US11657524B2 (zh)
CN (1) CN113965721B (zh)
TW (1) TW202205841A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114792343B (zh) * 2022-06-21 2022-09-30 阿里巴巴达摩院(杭州)科技有限公司 图像获取设备的标定方法、获取图像数据的方法、装置
TWI816515B (zh) * 2022-08-17 2023-09-21 國立臺北大學 雷達與影像同步方法及雷達與影像同步系統
TWI815680B (zh) * 2022-09-28 2023-09-11 財團法人車輛研究測試中心 艙內偵測方法及其系統

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002224434A (ja) * 2001-11-02 2002-08-13 Namco Ltd 画像合成装置、仮想体験装置および画像合成方法
JP2006285833A (ja) * 2005-04-04 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
CN105828045A (zh) * 2016-05-12 2016-08-03 浙江宇视科技有限公司 一种利用空间信息实现目标追踪的方法及装置
EP3059663A1 (en) * 2015-02-23 2016-08-24 Samsung Electronics Polska Spolka z organiczona odpowiedzialnoscia A method for interacting with virtual objects in a three-dimensional space and a system for interacting with virtual objects in a three-dimensional space
WO2017007166A1 (ko) * 2015-07-08 2017-01-12 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
CN109597095A (zh) * 2018-11-12 2019-04-09 北京大学 背包式三维激光扫描与立体成像组合***及数据获取方法
KR102015388B1 (ko) * 2019-01-21 2019-08-28 주식회사 지공간솔루션 무인항공기와 지상용 3d라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 db 구축기반 가상현실 공간 맵 제공시스템 및 제공방법
CN111080704A (zh) * 2018-10-22 2020-04-28 浙江宇视科技有限公司 视频增强现实的方法及装置
CN111179407A (zh) * 2018-11-09 2020-05-19 上海云绅智能科技有限公司 虚拟场景的创建方法、投影方法及***、智能设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016187483A1 (en) * 2015-05-20 2016-11-24 Brian Mullins Light-based radar system for augmented reality
KR20170060652A (ko) * 2015-11-24 2017-06-02 현대오트론 주식회사 헤드업 디스플레이의 좌표 매칭 장치 및 그 방법
US10334240B2 (en) * 2016-10-28 2019-06-25 Daqri, Llc Efficient augmented reality display calibration
US20180276891A1 (en) * 2017-03-24 2018-09-27 Pcms Holdings, Inc. System and method for providing an in-context notification of a real-world event within a virtual reality experience
US11462054B2 (en) * 2019-10-21 2022-10-04 Analog Devices International Unlimited Company Radar-based indoor localization and tracking system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002224434A (ja) * 2001-11-02 2002-08-13 Namco Ltd 画像合成装置、仮想体験装置および画像合成方法
JP2006285833A (ja) * 2005-04-04 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
EP3059663A1 (en) * 2015-02-23 2016-08-24 Samsung Electronics Polska Spolka z organiczona odpowiedzialnoscia A method for interacting with virtual objects in a three-dimensional space and a system for interacting with virtual objects in a three-dimensional space
WO2017007166A1 (ko) * 2015-07-08 2017-01-12 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
CN105828045A (zh) * 2016-05-12 2016-08-03 浙江宇视科技有限公司 一种利用空间信息实现目标追踪的方法及装置
CN111080704A (zh) * 2018-10-22 2020-04-28 浙江宇视科技有限公司 视频增强现实的方法及装置
CN111179407A (zh) * 2018-11-09 2020-05-19 上海云绅智能科技有限公司 虚拟场景的创建方法、投影方法及***、智能设备
CN109597095A (zh) * 2018-11-12 2019-04-09 北京大学 背包式三维激光扫描与立体成像组合***及数据获取方法
KR102015388B1 (ko) * 2019-01-21 2019-08-28 주식회사 지공간솔루션 무인항공기와 지상용 3d라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 db 구축기반 가상현실 공간 맵 제공시스템 및 제공방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
光传感器监控***中行人识别模型的研究;简远鸣;嵇建波;;激光杂志(第03期);全文 *

Also Published As

Publication number Publication date
US11657524B2 (en) 2023-05-23
CN113965721A (zh) 2022-01-21
TW202205841A (zh) 2022-02-01
US20220028097A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
CN113965721B (zh) 图像与深度传输监视***的对齐方法
CN111473739B (zh) 一种基于视频监控的隧道塌方区围岩变形实时监测方法
US10041793B2 (en) Providing a point cloud using a surveying instrument and a camera device
Golparvar-Fard et al. Evaluation of image-based modeling and laser scanning accuracy for emerging automated performance monitoring techniques
US8107722B2 (en) System and method for automatic stereo measurement of a point of interest in a scene
US7751651B2 (en) Processing architecture for automatic image registration
CN110827392B (zh) 单目图像三维重建方法、***及装置
CN110910460B (zh) 一种获取位置信息的方法、装置及标定设备
WO2021226716A1 (en) System and method for discrete point coordinate and orientation detection in 3d point clouds
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
CN112304250B (zh) 一种移动物体之间的三维匹配设备及方法
CN115328181A (zh) 一种无人机输电线路巡检中关键目标空间定位方法
CN116866522B (zh) 一种远程监控方法
CN117501990B (zh) 用于遮挡环境下水果自动采摘的定位和识别方法及***
Fu et al. Advancing Accurate Depth Estimation and Perception with Angled Stereo Camera
RU2490819C1 (ru) Способ получения стереоскопических телевизионных изображений с автоматическим измерением предметного пространства в реальном времени
KR102422292B1 (ko) 2차원 영상으로부터 3차원 좌표를 추출하는 방법 및 그 장치
CN113516606B (zh) 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法
Rawlinson Design and implementation of a spatially enabled panoramic virtual reality prototype
CN212343866U (zh) 一种全景探测设备
Gee et al. Estimating extrinsic parameters between a stereo rig and a multi-layer lidar using plane matching and circle feature extraction
CN109214984B (zh) 一种图像获取方法及装置、自主定位导航***、计算设备
Kacperski et al. Calibration of vision systems operating in separate coordinate systems
CN117808858A (zh) 一种管线数据采集***、方法、装置、设备及存储介质
CN118262352A (zh) 内容识别方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant