WO2017138754A1 - 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법 - Google Patents

차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법 Download PDF

Info

Publication number
WO2017138754A1
WO2017138754A1 PCT/KR2017/001434 KR2017001434W WO2017138754A1 WO 2017138754 A1 WO2017138754 A1 WO 2017138754A1 KR 2017001434 W KR2017001434 W KR 2017001434W WO 2017138754 A1 WO2017138754 A1 WO 2017138754A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
camera
image
images
perspective distortion
Prior art date
Application number
PCT/KR2017/001434
Other languages
English (en)
French (fr)
Inventor
이정희
Original Assignee
㈜잼시큐리티시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ㈜잼시큐리티시스템 filed Critical ㈜잼시큐리티시스템
Publication of WO2017138754A1 publication Critical patent/WO2017138754A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a vehicle undershooting apparatus and a vehicle undershooting method using the same, wherein the camera is located at a close distance to a floor of a vehicle to be photographed to correct a perspective distortion generated by photographing and captures a plurality of images. It relates to a vehicle undershooting device to match a clear image and a vehicle undershooting method using the same.
  • the vehicle is a simple means of transportation.
  • the threat of terrorism by means of transportation is not endless in many parts of the world.
  • it is not easy to monitor, so it is used as a frequent terrorist tool for terrorists.
  • the most common way is to visually check the underside of the vehicle using a reflecting mirror, but this is only a glimpse of the edge of the bottom of the vehicle, the center of the bottom of the vehicle is difficult to see and It is dark in nature and it is very difficult to identify signs of dangerous goods.
  • Republic of Korea Patent Application Publication No. 10-2011-0043048 is composed of a lower light for illuminating the lower portion of the moving vehicle and a lower inspection unit mounted on the lower portion of the moving vehicle to photograph the bottom surface of the vehicle.
  • Korean Patent Laid-Open Publication No. 10-2011-0043148 improves the dark environment of the bottom of the vehicle when shooting through the lower light, but due to the characteristics of the vehicle, the angle of view of the camera is generally wide and the focus is close to the position of the camera and the bottom of the vehicle The distance becomes shorter.
  • the angle of view is widened, the center of the bottom of the vehicle facing the center of the camera may be displayed in its actual size, but the outer portion of the bottom of the vehicle may have a perspective distortion. When the perspective distortion is severe, it is difficult to detect dangerous goods mounted on the vehicle floor by distorting the image.
  • Korean Patent Laid-Open Publication No. 10-2014-0043148 discloses a control computing device that calculates the speed of a moving vehicle to take images of a plurality of vehicle bottom surfaces, and forms them as one image.
  • the image matching method is a method that depends only on the speed of movement of the vehicle, so that an error occurs frequently during image matching.
  • the speed at which the vehicle passes the lower inspection unit where the camera is arranged is not always uniform, and the vehicle speed during the time moving by the acceleration force at the stop position is inevitably different from the average speed.
  • Patent Document 1 Korean Unexamined Patent Publication No. 10-2014-0043148 (Vehicle Undercarriage Apparatus)
  • the present inventors have conducted various studies to solve the problem, and as a result, the perspective distortion correction unit and the corrected image correct the perspective distortion of the photographed image by calculating the distance difference between the angle of view of the camera and the bottom of the vehicle from the camera. It has been found that a clear vehicle floor can be photographed without distortion through an under vehicle imaging apparatus including an image matching unit that combines multiple images by specifying corresponding points having the same RGB (Red-Green-Blue) value per pixel.
  • RGB Red-Green-Blue
  • an object of the present invention is to provide an undercarriage photographing apparatus capable of acquiring a clear vehicle floor image without perspective distortion and having a high level of matching, and a photographing method for operating the same.
  • Undercarriage photographing apparatus and a method for operating the same according to the present invention when shooting the vehicle floor surface, the camera is located close to the vehicle floor surface to correct the perspective distortion of the image generated as the process of shooting, and the RGB value and transparency
  • the under vehicle imaging apparatus and the method of operating the same according to the present invention can accurately detect various dangerous objects that can be installed on the vehicle floor.
  • FIG. 1 is a plan view of the undercarriage photographing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram of a correction module operating the under vehicle imaging apparatus shown in FIG. 1.
  • FIG. 3 is a perspective distortion image generated when a vehicle is photographed in close-up and an image of correcting perspective distortion.
  • FIG. 4 is a schematic diagram illustrating a process of matching the plurality of images by the image matching unit illustrated in FIG. 2.
  • FIG. 5 is a perspective view of the undercarriage photographing system equipped with the undercarriage photographing apparatus shown in FIG. 1.
  • the under vehicle imaging apparatus according to an embodiment of the present invention
  • An illumination module for irradiating light to a vehicle floor to be photographed by the camera
  • a lower vehicle imaging device comprising a correction module for correcting the image of the vehicle bottom surface obtained by the camera
  • the correction module is the correction module
  • Perspective distortion correction unit for correcting the perspective distortion caused by the distance difference of the vehicle floor surface from the camera according to the angle of view of the camera
  • an image matching unit for comparing corresponding RGB values per pixel of the images corrected by the perspective distortion correction unit, specifying corresponding points to which the RGB values match, and matching the plurality of images into one image based on the corresponding points.
  • the image matching unit may further specify the corresponding points by further comparing the transparency ⁇ value with the RGB value per pixel.
  • a light source unit irradiating light to the vehicle floor
  • It may include a light source control unit for controlling the light source to compare the illuminance of the light received from the sensor unit so that the entire vehicle floor surface has a constant illuminance.
  • FIG. 1 is a plan view of a lower vehicle imaging apparatus according to an embodiment of the present invention
  • Figure 2 is a schematic diagram of a correction module for operating the lower vehicle imaging apparatus shown in FIG. 1 and 2
  • the under vehicle imaging apparatus 100 of the present invention captures a vehicle bottom surface while moving a lower portion of the vehicle bottom surface.
  • the under vehicle imaging apparatus 100 includes a camera 110 for capturing an image of a vehicle floor, a lighting module 120, and a correction module 130 (not shown in FIG. 1) for correcting the photographed image.
  • the vehicle lower imaging apparatus 100 photographs the vehicle bottom surface while moving the lower portion of the vehicle bottom surface.
  • One camera may be disposed in the camera 110, and a plurality of cameras may be disposed to be wider than the vehicle floor.
  • the camera 110 may include a center camera 111 and edge cameras 112 and 113.
  • the center camera 111 may be disposed at a position parallel to the floor of the vehicle to photograph the center of the floor of the vehicle.
  • the edge cameras 112 and 113 may be inclined at an oblique angle with the vehicle bottom surface or the center camera 111, and may photograph edges of the vehicle bottom surface.
  • the center camera 111 and the edge cameras 112 and 113 may be spaced apart from each other at a position parallel to the floor of the vehicle.
  • the center camera 111 and the edge cameras 112 and 113 are not particularly limited as long as they can be used to acquire an image.
  • the center camera 111 and the edge cameras 112 and 113 are charge-coupled devices.
  • ) Includes a camera.
  • the photographing apparatus 100 equipped with a camera as shown in FIG. 3 (1), performs photographing at a position close to the position of the vehicle bottom surface due to the characteristics of the vehicle.
  • the angle of view is widened, the vehicle's bottom surface is photographed.
  • a perspective image of the vehicle floor surface is severely generated as shown in FIG. 3 (2).
  • FIG. 3- (3) is an image of the underside of the vehicle obtained by correcting the perspective distortion phenomenon. Comparing Fig. 3- (3) and Fig. 3- (2), Fig. 3- (2) shows the perspective of the bottom of the vehicle facing the camera without perspective distortion but gradually narrowing toward the edge of the vehicle. Distortion occurs.
  • the distance Z from the lens position of the center camera 111 to the edge of the vehicle bottom surface is determined by the lens position of the center camera 111. As it becomes longer than the distance A to the center, perspective distortion occurs.
  • Perspective distortion causes the edges of the bottom of the vehicle to be narrowly distorted, thereby making identification of dangerous goods or the like installed on the bottom of the vehicle inaccurate and difficult.
  • the correction module 130 corrects perspective distortion shapes of the images acquired by the center camera 111 and the edge cameras 112 and 113, and corrects the perspective distortion phenomenon. Match the images and provide them as one image.
  • the correction module 130 may include a perspective distortion corrector 131, an image matcher 132, and a distance measurer 133.
  • the perspective distortion correction unit 131 corrects the perspective distorted image obtained from the camera 110.
  • the distance measuring unit 133 may measure the position of the camera 110 and the distance between the bottom of the vehicle.
  • the distance measuring unit 133 may calculate the distance from the camera 110 to the vehicle bottom by, for example, irradiating infrared rays and measuring the time of the infrared rays reflected and returned to the vehicle bottom surface, and further, the distance measuring unit ( 133 may calculate the distance from the camera 110 to the vehicle floor by acquiring the time of the ultrasound generated after the ultrasound is reflected on the vehicle floor and returned.
  • the distance measuring unit 133 measures the distance between the camera 110 and the vehicle floor and transmits the distance information to the perspective distortion correction unit 131.
  • the perspective distortion correction unit 131 is a distance between the camera 110 and the vehicle bottom surface received from the distance measuring unit 133 (A in FIG. 3 (2)) and the angle of view of the camera (FIG. 3- (2)). Use B] to correct perspective distorted images.
  • the perspective distortion correction unit 131 may obtain information of an angle of view when capturing from the camera 110.
  • the image enlargement value is calculated to enlarge the image narrowed by the perspective distortion.
  • the center camera 111 is disposed in a position parallel to the vehicle floor surface to capture the center of the vehicle floor surface, the edge cameras 112, 113 are angled with the vehicle floor surface. It is disposed at an angle so that the edge of the vehicle floor can be photographed.
  • the image magnification value G of the center camera 111 may be calculated through Equation 1 below.
  • the perspective distortion corrector 131 enlarges the width of the distorted image using the acquired image enlargement value G.
  • FIG. 1 when the enlarged perspective image is enlarged, the corrected image may be displayed when the enlarged pixel is filled with RGB information, and the pixel that needs the RGB information by expanding to the image enlargement value (G) is the RGB of the adjacent pixel.
  • the same information as the value can be input and displayed as color.
  • the perspective distortion correction unit 131 may calculate the image magnification values G1 of the edge cameras 112 and 113 in the following order. First, the distance F between the edge cameras 112 and 113 and the vehicle floor surface is measured through the distance measuring unit 133 disposed at a position close to the edge cameras 112 and 113. Perspective distortion correction unit 131 may calculate the image magnification values G1 of the edge cameras 112 and 113 by substituting the F distance and A and G values of Equation 1 into Equation 2 below.
  • G1 F * G / A
  • Equation 2 is based on the ratio of the distance camera (A) of the center camera 111 and the vehicle floor surface (A) and the distance (F) of the vehicle floor surface, using the ratio of the edge camera (112, 113)
  • the image magnification value G1 is relatively calculated.
  • the perspective distortion corrector 131 enlarges the width of the distorted image acquired through the edge cameras 112 and 113 by using the acquired image enlargement value G1. Pixels that are enlarged to an image enlargement value G1 and need RGB information may be displayed as color by inputting the same information as the RGB value of the pixel adjacent thereto.
  • the edge cameras 112 and 113 may be disposed to be spaced apart from each other in a plane parallel to the vehicle floor surface in the same manner as the center camera 111, in this case the center camera.
  • the image magnification values of the 111 and the edge cameras 112 and 113 may be obtained through Equation 1 described above.
  • the perspective distortion corrector 131 may sequentially correct the distorted images over several times.
  • the perspective distortion correction unit 131 transmits the corrected images to the image matching unit 132.
  • the image matching unit 132 matches the plurality of images received from the perspective distortion correction unit 131 to be displayed as one image. In order to precisely match a plurality of images photographing different vehicle floors, the image matching unit 132 compares the RGB values per pixel of the plurality of images, specifies corresponding points to which the RGB values match, and overlaps the corresponding points. Match.
  • FIG. 4 is a schematic diagram illustrating a process of matching the plurality of images by the image matching unit illustrated in FIG. 2. 2 and 4, the image matching unit 132 may screen pixels having the same RGB value of the images in order to match the plurality of images. When a plurality of images are enlarged, numerous pixels are combined to form an image, and each pixel has a unique RGB value (pixel information). As shown in FIG. 4, the image matching unit 132 specifies a pixel having a matching RGB value as a corresponding point Y, and provides a plurality of images as one image data based on the corresponding point Y. do.
  • the corresponding point Y may be set to a plurality of pixels in which RGB values match.
  • the image matching unit 132 may set the ten pixels as corresponding points.
  • 10 pixels are specified as the corresponding points Y, but the number of pixels that can be specified as the corresponding points may be variously changed in consideration of the processing speed of the image matching unit 132 and the accuracy of matching.
  • the image matching unit 132 may further specify the corresponding point by further comparing the transparency ⁇ value with the RGB value per pixel.
  • Transparency ( ⁇ ) is information containing chromaticity, which is a property of color ignoring brightness, and turbidity displayed by optically measuring the degree of scattering of light.
  • the image matching unit 132 may transmit the image of the matched vehicle floor to the display device, and the inspector may inspect the vehicle floor surface through the display device.
  • the image matching unit 132 since the image matching unit 132 specifies the corresponding point based on the RGB value and the transparency, the illuminance of the light shining brightly on the lower part of the vehicle should be kept constant. If the illuminance of the illumination is not constant, the RGB value and the transparency of the floor of the vehicle are changed, so that it is difficult for the image matching unit 132 to specify a corresponding point, and an error that cannot be matched may occur. In particular, when transparency is used as a criterion for specifying a corresponding point, the uniformity of illuminance of the lower part of the vehicle serves as an important factor.
  • the lighting module 120 irradiates light onto the vehicle floor to be photographed by the camera.
  • the lighting module 120 includes a light source unit 121, a sensor unit 122, and a light source control unit 123.
  • the light source unit 121 irradiates light on the bottom surface of the vehicle to brighten a dark photographing environment due to the characteristics of the lower portion of the vehicle.
  • the light source unit 121 may be mounted with a plurality of LED chips, and the number of LED chips may be changed in various ways in consideration of the vehicle lower imaging apparatus 100 and the size of the vehicle to be photographed.
  • the sensor unit 122 receives the reflected light from the light emitted from the light source unit 121 reflected on the bottom surface of the vehicle.
  • the sensor unit 122 senses illuminance information of the received reflected light and transmits illuminance information to the light source control unit 123.
  • two sensor units 122 are illustrated on both sides of the camera 110, but may be variously changed in consideration of the number of LED chips and the number of cameras mounted on the light source unit 121.
  • the light source control unit 123 collects illuminance information received from the sensor unit 122 and compares respective illuminance information.
  • the light source controller 123 may control the light source unit 121 to increase the amount of light irradiation to the LED chip in which the sensor unit 122 is located when the sensor unit 122 having low illumination detected from the collected illuminance information is confirmed. have.
  • the light source controller 123 controls the uneven illuminance that may be generated by the external environment or the shape of the bottom of the vehicle to be uniform, so that the image matching unit 132 may specify the corresponding point of the plurality of images without error. do.
  • FIG. 5 is a perspective view of the undercarriage photographing system equipped with the undercarriage photographing apparatus shown in FIG. 1.
  • the vehicle lower imaging system 1000 includes a vehicle lower imaging apparatus 100, a stage 200, and a guide unit 300.
  • the vehicle is positioned above the stage 200.
  • a portion where the wheel of the vehicle is positioned may protrude slightly higher.
  • the stage 200 may have a form inclined in one direction, which allows rainwater to drain naturally.
  • a laser or an infrared sensor may be attached to the stage 200 to determine whether the vehicle has stopped at the correct position of the stage 200.
  • the stage 200 may be mounted as a sensing camera 400 that detects a vehicle number, and may recognize a number of a vehicle entering the stage 200.
  • the guide part 300 extends along the longitudinal direction of the central portion of the stage 200 and moves the under vehicle imaging apparatus 100. Accordingly, the vehicle lower imaging apparatus 100 may move while photographing the vehicle bottom surface along the guide unit 300.
  • the under vehicle imaging method of the present invention includes (A) photographing a plurality of images of the underside of a vehicle using a camera, (B) perspective of a plurality of images photographed using an angle of view of the camera and a distance between the camera and a bottom surface of the vehicle. Correcting the distortion portion and (C) comparing the RGB values per pixel of the plurality of images in which the perspective distortion correction is corrected, and overlapping the plurality of images based on a corresponding point where the RGB values match to form one image. It includes.
  • step (A) first irradiates light using a light source to the vehicle floor to be photographed (A-1). Subsequently, the light reflected on the vehicle bottom surface is received to measure the illuminance of the vehicle bottom surface, and the light irradiation amount of the light source is adjusted so that the illuminance of the light reflected on the vehicle bottom surface is uniform (A-2). Thereafter, the camera photographs the vehicle floor (A-3).
  • step (B) measures the distance between the camera and the vehicle floor to be photographed (B-1), and then checks the angle of view of the camera (B-2), and enlarges the width of the perspective distorted image.
  • the image magnification value is calculated (B-3), and the distortion portion of the perspective distorted images is enlarged to the image magnification value (B-4). Since the method of calculating the image magnification value has been described above, the detailed description thereof will be omitted. Subsequently, the pixels of the enlarged image are displayed at the same numerical value as the RGB values of the adjacent pixels before correction (B-5).
  • Step (C) compares the RGB values per pixel between the corrected images, specifies corresponding points having the same RGB value of at least 10 consecutively arranged on the image (C-1), and overlaps the plurality of images with the corresponding points. Matches to one image (C-2).
  • the corresponding point may include pixels having the same RGB value and transparency ⁇ value per pixel of the plurality of images.
  • the under vehicle imaging apparatus and the method of operating the same according to the present invention correct a perspective distortion of an image generated as the camera is located close to the vehicle floor when photographing the vehicle bottom surface, and proceeds with the photographing.
  • the transparency and matching the plurality of images after specifying the corresponding point of the plurality of images it is possible to obtain a clear image of the vehicle floor without distortion. Therefore, the under vehicle imaging apparatus and the method of operating the same according to the present invention can accurately detect dangerous goods that may be installed on the vehicle floor.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 원근 왜곡 없이 선명한 차량 바닥면을 촬영하는 차량하부 촬영장치 및 이를 운용하는 방법에 관한 것으로써, 차량 바닥면의 이미지를 촬영하는 카메라, 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사하는 조명 모듈 및 카메라에 의해 획득된 차량 바닥면의 이미지를 보정하는 보정 모듈을 포함하고, 보정 모듈은 카메라의 화각에 따라 카메라로부터 차량 바닥면의 거리차에 의해 발생되는 원근 왜곡을 보정하는 원근 왜곡 보정부 및 원근 왜곡 보정부에 의해 보정된 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 특정하고, 상기 대응점을 기준으로 복수의 이미지들을 하나의 이미지로 정합하는 이미지 정합부를 포함한다.

Description

차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법
본 출원은 2016년 2월 12일자 한국 특허 출원 제10-2016-0016340호 및 2016년 3월 8일자 한국 특허 출원 제10-2016-0027489호에 기초한 우선권의 이익을 주장하며, 해당 한국 특허 출원의 문헌에 개시된 모든 내용은 본 명세서의 일부로서 포함한다.
본 발명은 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법에 관한 것으로서, 카메라가 촬영하고자 하는 차량 바닥면과 근접 거리에 위치하여 촬영을 수행함에 따라 발생되는 원근 왜곡을 보정하고 복수 촬영된 이미지들을 선명한 하나의 이미지로 정합하는 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법에 관한 것이다.
차량은 간편한 이동 수단이다. 이동 수단을 이용한 테러의 위협이 세계 곳곳에서 끊이질 않고 있는데, 특히 차량 하부의 경우 감시가 쉽지 않아 테러범들에게 잦은 테러의 도구로 사용된다. 차량 바닥면을 감시하기 위해, 반사 거울을 사용하여 차량 하부를 육안으로 확인하는 방법이 대부분이나 이는 차량 바닥면의 가장자리만 훑어 보는 수준에 지나지 않으며, 차량 바닥면의 중심부는 살피기 어렵고 차량 바닥면의 특성상 어두워서 위험물 등의 징후를 확인하기 매우 어렵다.
대한민국 공개특허공보 10-2011-0043048호는 이동하는 차량의 하부에 조명을 비추는 하부 조명 및 차량이 이동하는 하부에 배치되어 차량의 바닥면을 촬영하는 카메라가 탑재된 하부 검사부로 구성되어 있다. 대한민국 공개특허공보 10-2011-0043148호는 하부 조명을 통해 촬영 시, 차량 바닥면의 어두운 환경은 개선하고 있으나, 차량의 특성상 차량 바닥면과 카메라의 위치가 근접하여 카메라의 화각이 대체적으로 넓고 초점 거리가 짧아진다. 화각이 넓어진 경우, 카메라의 중심과 마주하는 차량 바닥면의 중심은 실물 사이즈 그대로 표시될 수 있으나 차량 바닥면의 외각 부분은 원근 왜곡 현상이 두드러지게 나타난다. 이러한 원근 왜곡 현상이 심한 경우, 차량 바닥면의 이미지가 왜곡되어 탑재된 위험물 등을 탐지하기 어렵다.
또한, 대한민국 공개특허공보 10-2014-0043148호는 움직이는 차량의 속도를 연산하여 복수의 차량 바닥면의 영상을 촬영한 후, 이들을 하나의 이미지로 형성하는 제어 연산 장치를 개시하고 있다. 이러한 이미지 정합 방식은 차량의 움직임 속도에만 의존한 방법으로 이미지 정합 시, 오류의 발생 정도가 빈번하다. 예를 들면, 차량이 카메라가 배치된 하부 검사부를 지나치는 속도가 항상 일률적이지 않고, 정차 위치에서 가속력에 의해 움직이는 시간 동안의 차량 속도는 평균속도와 차이가 클 수 밖에 없다. 또한, 이동 중인 차량의 속도가 항상 일률적으로 동일한 속도를 유지하기 어렵다. 따라서, 이러한 방식의 복수 이미지의 정합은 정확성이 떨어져 위험물 등의 감지가 제대로 이루어질 수 없다.
(특허문헌 1) 대한민국 공개특허공보 제10-2014-0043148호(차량 하부 촬영 장치)
이에 본 발명자들은 상기 문제를 해소하기 위해 다각적으로 연구를 수행한 결과, 카메라의 화각과 카메라로부터 차량 바닥면의 거리차를 연산하여 촬영된 이미지의 원근 왜곡을 보정하는 원근 왜곡 보정부와 보정된 이미지의 픽셀당 RGB(Red-Green-Blue) 수치가 동일한 대응점을 특정하여 복수 이미지들을 결합하는 이미지 정합부를 포함하는 차량하부 촬영장치를 통하여, 왜곡 없이 선명한 차량 바닥면을 촬영할 수 있음을 밝혀냈다.
따라서, 본 발명이 해결하고자 하는 과제는 원근 왜곡이 없고, 정합 상태가 높은 수준으로 선명한 차량 바닥면 이미지를 획득할 수 있는 차량하부 촬영장치 및 이를 운용하는 촬영방법을 제공하는 것을 목적으로 한다.
본 발명에 따른 차량하부 촬영장치 및 이를 운용하는 방법은 차량 바닥면을 촬영 시, 카메라가 차량 바닥면과 가깝게 위치되어 촬영을 진행함에 따라 발생하는 이미지의 원근 왜곡을 보정하고, RGB 수치 및 투명도를 비교하여 복수 이미지들의 대응점을 특정한 후 복수 이미지들을 정합하므로, 왜곡이 없고 선명한 차량 바닥면의 이미지를 제공할 수 있다. 따라서, 본 발명에 따른 차량하부 촬영 장치 및 이를 운용하는 방법은 차량 바닥면에 설치될 수 있는 여러 위험물들을 정확하게 탐지해 낼 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량하부 촬영장치의 평면도이다.
도 2는 도 1에 도시된 차량하부 촬영장치를 운용하는 보정 모듈의 모식도이다.
도 3은 차량을 근접 촬영 시 발생되는 원근 왜곡 영상과 원근 왜곡을 보정한 이미지이다.
도 4는 도 2에 도시된 이미지 정합부가 복수의 이미지를 정합하는 과정을 설명하기 위한 모식도이다.
도 5는 도 1에 도시된 차량하부 촬영장치가 탑재된 차량하부 촬영시스템의 사시도이다.
상기 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 차량하부 촬영장치는
차량 바닥면의 이미지를 촬영하는 카메라;
상기 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사하는 조명 모듈; 및
상기 카메라에 의해 획득된 차량 바닥면의 이미지를 보정하는 보정 모듈을 포함하는 차량하부 촬영장치이되,
상기 보정 모듈은
상기 카메라의 화각에 따라 상기 카메라로부터 차량 바닥면의 거리차에 의해 발생되는 원근(遠近) 왜곡을 보정하는 원근 왜곡 보정부; 및
상기 원근 왜곡 보정부에 의해 보정된 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 특정하고, 상기 대응점을 기준으로 복수의 이미지들을 하나의 이미지로 정합하는 이미지 정합부;를 포함한다.
복수의 이미지들이 보다 정밀하게 정합되도록 유도하기 위해서,
상기 이미지 정합부는 복수의 이미지들의 대응점을 검출하기 위해, 픽셀당 RGB 수치에 투명도(α) 수치를 추가적으로 비교하여 대응점을 특정할 수 있다.
또한, 투명도(α) 수치가 반영된 정밀한 이미지 정합을 유도하기 위해서,
상기 조명 모듈은
차량 바닥면에 광을 조사하는 광원부;
차량 바닥면으로부터 반사된 광을 수광하는 센서부; 및
상기 센서부로부터 수광된 광의 조도를 비교하여 차량 바닥면 전체가 일정한 조도를 갖도록 광원을 제어하는 광원 제어부를 포함할 수 있다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 기술 사상과 범위를 벗어나지 않는 한, 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 사상과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명의 차량하부 촬영장치의 다양한 실시예들을 도면을 통해 구체적으로 설명하고자 한다.
도 1은 본 발명의 일 실시예에 따른 차량하부 촬영장치의 평면도이고, 도 2는 도 1에 도시된 차량하부 촬영장치를 운용하는 보정 모듈의 모식도이다. 도 1 및 도 2를 참고하면, 본 발명의 차량하부 촬영장치(100)는 차량 바닥면의 하부를 이동하면서 차량 바닥면을 촬영한다. 차량하부 촬영장치(100)는 차량 바닥면의 이미지를 촬영하는 카메라(110), 조명 모듈(120) 및 촬영된 이미지를 보정하는 보정 모듈(130)(도 1에서 미도시)을 포함한다.
상기 차량하부 촬영장치(100)는 차량 바닥면의 하부를 이동하면서 차량 바닥면을 촬영한다. 상기 카메라(110)는 하나의 카메라가 배치될 수도 있고, 차량 바닥면 보다 더 넓게 확인할 수 있도록 복수의 카메라가 배치될 수 있다. 예를 들면, 상기 카메라(110)는 중심 카메라(111) 및 가장자리 카메라(112, 113)를 포함할 수 있다. 상기 중심 카메라(111)는 차량 바닥면과 평행한 위치에 배치되어 차량 바닥면의 중심부를 촬영할 수 있다. 상기 가장자리 카메라(112, 113)는 차량 바닥면 또는 중심 카메라(111)와 빗각으로 기울어져 배치되고, 차량 바닥면의 가장자리를 촬영할 수 있다. 이와 다른 예로써, 상기 중심 카메라(111) 및 가장자리 카메라(112, 113)는 차량 바닥면과 모두 평행한 위치에서 서로 이격되어 배치될 수 있다.
중심 카메라(111) 및 가장자리 카메라(112, 113)는 이미지를 획득하기 위해 사용될 수 있는 카메라라면 특별히 한정되지 않으나, 예를 들면 중심 카메라(111) 및 가장자리 카메라(112,113)는 CCD(Charge-coupled device) 카메라를 포함한다. 차량 바닥면을 촬영하는 환경을 고려하면, 도 3-(1)에 도시된 바와 같이 카메라가 탑재된 촬영장치(100)는 차량의 특성상 차량 바닥면의 위치와 가까운 위치에서 촬영을 수행하고, 카메라의 화각이 넓어진 조건에서 차량 바닥면을 촬영하게 된다. 이러한 환경에서 촬영된 차량 바닥면의 이미지는 도 3-(2)와 같은 원근 왜곡이 심하게 발생된다.
도 3-(3)은 원근 왜곡 현상을 보정하여 얻어지는 차량하부 바닥면의 이미지이다. 도 3-(3)과 도 3-(2)를 비교하면, 도 3-(2)는 카메라와 마주하는 차량 바닥면의 중심은 원근 왜곡 현상이 없으나 차량의 가장자리로 갈수록 점차 폭이 좁아지는 원근 왜곡 현상이 발생한다. 원근 왜곡 현상은 도 3-(2)에 도시된 바와 같이, 중심 카메라(111)의 렌즈 위치로부터 차량 바닥면의 가장자리까지의 거리(Z)가 중심 카메라(111)의 렌즈 위치로부터 차량 바닥면의 중심까지의 거리(A)보다 길어지게 됨에 따라 원근 왜곡 현상이 발생하게 된다.
원근 왜곡 현상은 차량 바닥면의 가장자리의 폭을 좁게 왜곡 표시함으로써, 차량 바닥면에 설치된 위험물 등의 확인을 부정확하고 어렵게 만든다.
도 1 및 도 2를 다시 참조하면, 상기 보정 모듈(130)은 중심 카메라(111) 및 가장자리 카메라(112, 113)에서 획득된 이미지의 원근 왜곡 형상을 보정하고, 원근 왜곡 현상이 보정된 복수의 이미지들을 정합하여 하나의 이미지로 제공한다. 상기 보정 모듈(130)은 원근 왜곡 보정부(131), 이미지 정합부(132) 및 거리 측정부(133)를 포함할 수 있다.
상기 원근 왜곡 보정부(131)는 카메라(110)로부터 획득된 원근 왜곡된 이미지를 보정한다. 구체적인 예를 들면, 상기 거리 측정부(133)는 카메라(110)의 위치와 차량 바닥면의 거리를 측정할 수 있다. 거리 측정부(133)는 예를 들면 적외선을 조사하고 차량 바닥면에 반사되어 돌아오는 적외선의 시간을 측정함으로써 카메라(110)로부터 차량 바닥면까지의 거리를 연산할 수 있고, 또한 거리 측정부(133)은 초음파를 발생시켜 차량 바닥면에 반사된 후 되돌아오는 초음파의 시간을 획득하여 카메라(110)로부터 차량 바닥면까지의 거리를 연산할 수 있다. 거리 측정부(133)는 카메라(110)와 차량 바닥면 사이의 거리를 측정하여 거리 정보를 상기 원근 왜곡 보정부(131)에 송출한다.
상기 원근 왜곡 보정부(131)는 거리 측정부(133)로부터 수신한 카메라(110)와 차량 바닥면 사이의 거리[도 3-(2)의 A] 및 카메라의 화각[도 3-(2)의 B]을 사용하여 원근 왜곡된 이미지를 보정한다. 이때, 원근 왜곡 보정부(131)는 카메라(110)로부터 촬영 시 화각의 정보를 획득할 수 있다.
원근 왜곡 보정부(131)가 왜곡된 이미지를 보정하는 방법을 구체적인 예를 들어 설명하면, 원근 왜곡에 의해 폭이 좁아진 이미지를 확대하기 위해 이미지 확대값을 산출한다. 도 3-(2)를 참고하여 설명하면, 중심 카메라(111)는 차량 바닥면과 평행한 위치에 배치되어 차량 바닥면의 중심부를 촬영하고, 가장자리 카메라(112, 113)는 차량 바닥면과 빗각으로 기울어져 배치되어 차량 바닥면의 가장자리를 촬영할 수 있다. 먼저 중심 카메라(111)의 이미지 확대값(G)은 하기 수학식 1을 통해 산출될 수 있다.
[수학식 1]
G=A*tan(B/2)
[G: 이미지 확대값, A: 중심 카메라와 차량 바닥면과의 거리, B: 화각]
이어서, 원근 왜곡 보정부(131)는 획득된 이미지 확대값(G)을 사용하여 왜곡된 이미지의 폭을 확대한다. 이와 같이 원근 왜곡된 이미지를 확대할 경우, 확대된 픽셀은 RGB 정보가 채워져야 보정된 이미지가 표시될 수 있는데, 이미지 확대값(G)으로 확대되어 RGB 정보가 필요한 픽셀은 그와 인접한 픽셀의 RGB 값과 동일한 정보가 입력되어 색으로써 표시될 수 있다.
한편, 원근 왜곡 보정부(131)는 가장자리 카메라(112, 113)의 이미지 확대값(G1)을 아래와 같은 순서로 산출할 수 있다. 먼저, 가장자리 카메라(112, 113)와 근접한 위치에 배치된 거리 측정부(133)를 통해 가장자리 카메라(112, 113)와 차량 바닥면의 거리(F)를 측정한다. 상기 F 거리 및 상기 수학식 1의 A, G 값을 아래 수학식 2에 대입하여, 원근 왜곡 보정부(131)는 가장자리 카메라(112, 113)의 이미지 확대값(G1)을 산출할 수 있다.
[수학식 2]
G1=F*G/A
[F: 가장자리 카메라와 차량 바닥면의 거리, G: 중심 카메라의 이미지 확대값, A: 중심 카메라와 차량 바닥면과의 거리]
상기 수학식 2는 중심 카메라(111)와 차량 바닥면의 거리(A) 대비 가장자리 카메라(112, 113)와 차량 바닥면의 거리(F)의 비율을 사용하여, 가장자리 카메라(112, 113)의 이미지 확대값(G1)을 상대적으로 산출한 것이다. 이어서, 원근 왜곡 보정부(131)는 획득된 이미지 확대값(G1)을 사용하여 가장자리 카메라(112, 113)를 통해 획득된 왜곡된 이미지의 폭을 확대한다. 이미지 확대값(G1)으로 확대되어 RGB 정보가 필요한 픽셀은 그와 인접한 필셀의 RGB 값과 동일한 정보가 입력되어 색으로써 표시될 수 있다.
또한, 도 3-(2)에 도시된 것과 다르게, 가장자리 카메라(112, 113)가 중심 카메라(111)와 동일하게 차량 바닥면과 수평한 평면에서 서로 이격되어 배치될 수 있는데, 이 경우 중심 카메라(111) 및 가장자리 카메라(112, 113)의 이미지 확대값은 모두 앞서 설명한 수학식 1을 통하여 획득할 수 있다.
카메라(110)가 다수에 걸쳐 차량 바닥면을 촬영하고 원근 왜곡된 복수 이미지들을 송출할 경우, 원근 왜곡 보정부(131)는 복수 이미지들을 순차적으로 수회에 걸쳐서 왜곡된 이미지들을 보정할 수 있다. 원근 왜곡 보정부(131)는 보정된 이미지들을 이미지 정합부(132)에 송출한다.
상기 이미지 정합부(132)는 원근 왜곡 보정부(131)로부터 수신한 복수 이미지들을 하나의 이미지로 표시되도록 정합한다. 서로 다른 차량 바닥면을 촬영한 복수 이미지들을 정밀하게 정합시키기 위해서, 이미지 정합부(132)는 복수 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 특정한 후 대응점을 오버랩하여 복수 이미지들을 정합한다.
도 4는 도 2에 도시된 이미지 정합부가 복수의 이미지를 정합하는 과정을 설명하기 위한 모식도이다. 도 2 및 도 4를 참고하면, 이미지 정합부(132)는 복수 이미지들을 정합하기 위해, 이미지들의 동일한 RGB 수치를 갖는 픽셀을 스크리닝할 수 있다. 복수 이미지를 확대하면 수많은 픽셀들이 조합되어 이미지를 이루는데, 각각의 픽셀들은 고유한 RGB 수치(픽셀정보)를 가지고 있다. 도 4에 도시된 바와 같이, 상기 이미지 정합부(132)는 RGB 수치가 일치하는 픽셀을 대응점(Y)으로 특정하고, 대응점(Y)을 기준으로 복수의 이미지들을 오버랩하여 하나의 이미지 데이터로 제공한다.
여기서, 상기 대응점(Y)은 RGB 수치가 일치하는 복수의 픽셀들로 설정할 수 있다. 도 4에 예시된 바와 같이, 이미지 정합부(132)는 이미지상에 연속 배치된 10 이상의 픽셀들이 동일한 RGB 수치를 가진 경우, 이들 10개의 픽셀들을 대응점으로 설정할 수 있다. 도 4에서는 10 개의 픽셀들을 대응점(Y)으로 특정하였으나, 대응점으로 특정될 수 있는 픽셀의 수는 이미지 정합부(132)의 처리속도와 정합의 정밀도를 고려하여 다양하게 변경할 수 있다.
바람직하게는 복수 이미지들의 대응점(Y)을 검출하기 위해, 이미지 정합부(132)는 픽셀당 RGB 수치에 투명도(α) 수치를 추가적으로 비교하여 대응점을 특정할 수 있다. 투명도(α)는 밝기를 무시한 색의 성질인 색도(Chromaticity)와 빛의 산란 정도를 광학적으로 측정하여 표시한 탁도(Turbidity)를 담은 정보이다. 이러한 투명도 수치를 RGB 수치에 더하여 복수 이미지들의 대응점을 특정하면 정합의 정밀도를 향상시킬 수 있다.
이미지 정합부(132)는 정합된 차량 바닥면의 이미지를 표시장치에 송출하고 검사자가 표시장치를 통해 차량 바닥면을 검사할 수 있다.
한편, 이미지 정합부(132)가 RGB 수치 및 투명도를 기준으로 대응점을 특정하므로, 차량 하부를 밝게 비추는 조명의 조도가 일정하게 유지되어야 한다. 조명의 조도가 일정하지 않을 경우, 차량 바닥면의 RGB 수치 및 투명도가 변화되어 이미지 정합부(132)가 대응점을 특정하기 어렵고, 정합이 불가능한 오류가 발생할 수 있다. 특히, 투명도를 대응점을 특정하는 기준으로 삼을 경우, 차량 하부를 비추는 조도의 균일성은 중요한 요소로 작용한다.
도 1 및 도 2를 참고하면, 상기 조명 모듈은 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사한다. 조명 모듈(120)은 광원부(121), 센서부(122), 광원 제어부(123)를 포함한다.
상기 광원부(121)는 차량 바닥면에 광을 조사하여 차량 하부의 특성상 어두운 촬영 환경을 밝게 비춘다. 광원부(121)는 복수의 LED 칩이 탑재될 수 있으며, LED 칩의 수는 차량하부 촬영장치(100)와 촬영하고자 하는 차량의 크기를 고려하여 다양하게 변경할 수 있다.
상기 센서부(122)는 광원부(121)로부터 조사된 광이 차량 바닥면에 반사되어 돌아오는 반사광을 수광한다. 센서부(122)는 수광된 반사광의 조도 정보를 센싱하고 조도 정보를 상기 광원 제어부(123)에 송출한다. 도 1에서 센서부(122)는 카메라(110)의 양 측면에 2개 배치된 것을 예시하였으나, 광원부(121)에 탑재된 LED 칩의 수 및 카메라의 수를 고려하여 다양하게 변경할 수 있다.
상기 광원 제어부(123)는 센서부(122)로부터 수신한 조도 정보를 취합하여, 각각의 조도 정보를 비교한다. 광원 제어부(123)는 취합된 조도 정보 중 조도가 낮게 검출된 센서부(122)가 확인된 경우, 해당 센서부(122)가 위치한 LED 칩에 광 조사량을 높이도록 광원부(121)를 제어할 수 있다.
상기 광원 제어부(123)는 외부 환경 또는 차량 바닥면의 형상적 특성에 의해 발생될 수 있는 불균일한 조도를 균일하도록 제어하여, 이미지 정합부(132)가 복수 이미지들의 대응점을 오류 없이 특정할 수 있게 한다.
이하에서는 본 발명의 차량하부 촬영장치가 탑재된 차량하부 촬영시스템을 예시적으로 설명하고자 한다.
도 5는 도 1에 도시된 차량하부 촬영장치가 탑재된 차량하부 촬영시스템의 사시도이다. 도 5를 참고하면, 차량하부 촬영시스템(1000)은 차량하부 촬영장치(100), 스테이지(200), 가이드부(300)를 포함한다.
상기 차량하부 촬영장치(100)는 앞서 설명한 바와 동일하므로 자세한 설명은 생략하도록 한다. 상기 스테이지(200)의 상부에는 차량이 위치한다. 스테이지(200)는 차량의 바퀴가 위치하는 부분이 조금 높게 돌출될 수 있다. 전체적으로 스테이지(200)를 바라보았을 때, 스테이지(200)가 일방향으로 경사진 형태를 가질 수 있으며, 이는 빗물이 자연적으로 배수될 수 있게 한다.
차량이 스테이지(200)의 정위치에 정차했는지 여부를 확인할 수 있는 레이저나 적외선 센서가 스테이지(200)에 부착될 수 있다. 또한 스테이지(200)에는 차량번호를 감지하는 감지 카메라(400)라 탑재될 수 있고, 스테이지(200)에 진입하는 차량의 번호를 인식할 수 있다.
상기 가이드부(300)는 스테이지(200)의 중심부의 길이 방향을 따라 연장되어 배치되고, 차량하부 촬영장치(100)를 이동시킨다. 따라서, 차량하부 촬영장치(100)는 가이드부(300)를 따라 차량 바닥면을 촬영하며 이동할 수 있다.
이하에서는 본 발명의 차량하부 촬영장치를 운용하는 차량하부 촬영방법을 설명하고자 한다.
본 발명의 차량하부 촬영방법은 (A) 카메라를 사용하여 차량하부의 복수 이미지들을 촬영하는 단계, (B) 상기 카메라의 화각 및 상기 카메라와 차량 바닥면의 거리를 사용하여 촬영된 복수 이미지들의 원근 왜곡 부분을 보정하는 단계 및 (C) 원근 왜곡 부분이 보정된 복수 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 기준으로 복수 이미지들을 오버랩(Overlap)하여 하나의 이미지로 정합하는 단계를 포함한다.
각 단계를 나누어 구체적으로 설명하면, (A) 단계는 먼저 촬영하고자 하는 차량 바닥면에 광원을 사용하여 광을 조사한다(A-1). 이어서, 차량 바닥면에 반사되는 광을 수광하여 차량 바닥면의 조도를 측정하고, 차량 바닥면에 반사되는 광의 조도가 균일하도록 광원의 광 조사량을 조절한다(A-2). 그 후, 상기 카메라가 차량 바닥면을 촬영한다(A-3).
그 후 (B) 단계는 카메라와 촬영하고자 하는 차량 바닥면과의 거리를 측정하고(B-1), 이어서 상기 카메라의 화각을 확인하고(B-2), 원근 왜곡된 이미지의 폭을 확대하기 위해 이미지 확대값을 산출하며(B-3), 원근 왜곡된 이미지들의 왜곡 부분을 상기 이미지 확대값으로 확대한다(B-4). 여기서 이미지 확대값을 산출하는 방법은 앞서 설명하였으므로 자세한 내용은 생략하기로 한다. 이어서, 확대된 이미지의 픽셀에 보정전 인접 픽셀의 RGB 값과 동일한 수치로 색을 표시한다(B-5).
(C) 단계는 보정된 이미지들 간의 픽셀당 RGB 수치를 비교하여, 이미지 상에 연속 배치된 적어도 10 이상의 동일 RGB 수치를 갖는 대응점을 특정하고(C-1), 복수 이미지들을 상기 대응점에 오버랩하여 하나의 이미지로 정합한다(C-2). 상기 대응점은 복수 이미지들의 픽셀당 RGB 수치 및 투명도(α) 수치가 동일한 픽셀을 포함할 수 있다.
이와 같이 본 발명에 따른 차량하부 촬영장치 및 이를 운용하는 방법은 차량 바닥면을 촬영 시, 카메라가 차량 바닥면과 가깝게 위치되어 촬영을 진행함에 따라 발생하는 이미지의 원근 왜곡을 보정하고, RGB 수치 및 투명도를 비교하여 복수 이미지들의 대응점을 특정한 후 복수 이미지들을 정합하므로, 왜곡이 없고 선명한 차량 바닥면의 이미지를 획득할 수 있다. 따라서, 본 발명에 따른 차량하부 촬영 장치 및 이를 운용하는 방법은 차량 바닥면에 설치될 수 있는 위험물 등을 정확하게 탐지해 낼 수 있다.

Claims (13)

  1. 차량 바닥면의 이미지를 촬영하는 카메라;
    상기 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사하는 조명 모듈; 및
    상기 카메라에 의해 획득된 차량 바닥면의 이미지를 보정하는 보정 모듈을 포함하는 차량하부 촬영장치에 있어서,
    상기 보정 모듈은
    상기 카메라의 화각에 따라 상기 카메라로부터 차량 바닥면의 거리차에 의해 발생되는 원근(遠近) 왜곡을 보정하는 원근 왜곡 보정부; 및
    상기 원근 왜곡 보정부에 의해 보정된 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 특정하고, 상기 대응점을 기준으로 복수의 이미지들을 하나의 이미지로 정합하는 이미지 정합부;를 포함하는 것을 특징으로 하는 차량하부 촬영장치.
  2. 제1항에 있어서,
    상기 조명 모듈은
    차량 바닥면에 광을 조사하는 광원부;
    차량 바닥면에 반사된 광을 수광하는 센서부; 및
    상기 센서부로부터 수광된 광의 조도를 비교하여 차량 바닥면이 일정한 조도를 갖도록 광원부를 제어하는 광원 제어부를 포함하는 것을 특징으로 하는 차량하부 촬영장치.
  3. 제1항에 있어서,
    상기 보정 모듈은
    상기 카메라와 상기 차량 바닥면과의 거리를 측정하는 거리 측정부를 더 포함하고,
    상기 원근 왜곡 보정부는 상기 카메라와 상기 차량 바닥면과의 거리 및 상기 카메라로부터 산출된 화각을 사용하여 원근 왜곡된 이미지를 보정하는 것을 특징으로 하는 차량하부 촬영장치.
  4. 제3항에 있어서,
    상기 보정 모듈은 하기 수학식 1로 이미지 확대값(G)을 산출하고,
    상기 원근 왜곡 보정부는 상기 이미지 확대값을 기준으로 원근 왜곡된 이미지의 폭을 확대하는 것을 특징으로 하는 차량하부 촬영장치.
    [수학식 1]
    G=A*tan(B/2)
    [G: 이미지 확대값, A: 카메라와 차량 바닥면과의 거리, B: 화각]
  5. 제4항에 있어서,
    상기 원근 왜곡 보정부는
    상기 이미지 확대값으로 확대된 이미지의 픽셀에 인접 픽셀의 RGB 값과 동일한 수치로 색을 표현하는 것을 특징으로 하는 차량하부 촬영장치.
  6. 제1항에 있어서,
    상기 이미지 정합부는
    이미지 상에 연속 배치된 적어도 10 이상의 픽셀을 대응점으로 특정하고, 복수 이미지들의 대응점이 오버랩 되도록 정합하는 것을 특징으로 하는 차량하부 촬영장치.
  7. 제1항에 있어서,
    상기 이미지 정합부는
    복수의 이미지들의 대응점을 검출하기 위해, 픽셀당 RGB 수치에 투명도(α) 수치를 추가하여 비교함으로써 대응점을 특정하는 것을 특징으로 하는 차량하부 촬영장치.
  8. 제1항에 있어서,
    상기 카메라는
    차량 바닥면과 평행한 위치에 배치되어 차량 바닥면의 중심부를 촬영하는 중심부 카메라; 및
    차량 바닥면과 빗각으로 기울어져 배치되고 차량 바닥면의 가장자리를 촬영하는 가장자리 카메라를 포함하는 것을 특징으로 하는 차량하부 촬영장치.
  9. (A) 카메라를 사용하여 차량하부의 복수 이미지들을 촬영하는 단계;
    (B) 상기 카메라의 화각 및 상기 카메라와 차량 바닥면의 거리를 사용하여 촬영된 복수 이미지들의 원근 왜곡 부분을 보정하는 단계; 및
    (C) 원근 왜곡 부분이 보정된 복수 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 기준으로 복수 이미지들을 오버랩(Overlap)하여 하나의 이미지로 정합하는 단계;를 포함하는 것을 특징으로 하는 차량하부 촬영방법.
  10. 제9항에 있어서,
    상기 (A) 단계는
    (A-1) 촬영하고자 하는 차량 바닥면에 광원을 사용하여 광을 조사하는 단계;
    (A-2) 차량 바닥면에 반사되는 광을 수광하여 차량 바닥면의 조도를 측정하고, 차량 바닥면에 반사되는 광의 조도가 균일하도록 광원의 광 조사량을 조절하는 단계; 및
    (A-3) 상기 카메라가 차량 바닥면을 촬영하는 단계;를 포함하는 것을 특징으로 하는 차량하부 촬영방법.
  11. 제9항에 있어서,
    상기 (B) 단계는
    (B-1) 상기 카메라와 촬영하고자 하는 차량 바닥면과의 거리(A)를 측정하는 단계;
    (B-2) 상기 카메라의 화각(B)을 확인하는 단계; 및
    (B-3) 하기 수학식1을 사용하여 이미지 확대값을 산출하는 단계;
    (B-4) 원근 왜곡된 이미지들의 왜곡 부분을 상기 이미지 확대값으로 확대하는 단계; 및
    (B-5) 확대된 이미지의 픽셀에 보정전 인접 픽셀의 RGB 값과 동일한 수치로 색을 표시하는 단계를 포함하는 것을 특징으로 하는 차량하부 촬영방법.
    [수학식 1]
    G=A*tan(B/2)
    [G: 이미지 확대값, A: 카메라와 차량 바닥면과의 거리, B: 화각]
  12. 제9항에 있어서,
    상기 (C) 단계는
    (C-1) 보정된 이미지들 간의 픽셀당 RGB 수치를 비교하여, 이미지 상에 연속 배치된 적어도 10 이상의 동일 RGB 수치를 갖는 대응점을 특정하는 단계; 및
    (C-2) 복수 이미지들을 상기 대응점에 오버랩하여 하나의 이미지로 정합하는 단계를 포함하는 것을 특징으로 하는 차량하부 촬영방법.
  13. 제9항에 있어서,
    상기 (C) 단계에서 대응점은 복수 이미지들의 픽셀당 RGB 수치 및 투명도(α) 수치가 동일한 픽셀을 가리키는 것을 특징으로 하는 차량하부 촬영방법.
PCT/KR2017/001434 2016-02-12 2017-02-10 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법 WO2017138754A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20160016340 2016-02-12
KR10-2016-0016340 2016-02-12
KR10-2016-0027489 2016-03-08
KR1020160027489A KR101630596B1 (ko) 2016-02-12 2016-03-08 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법

Publications (1)

Publication Number Publication Date
WO2017138754A1 true WO2017138754A1 (ko) 2017-08-17

Family

ID=56192082

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/001434 WO2017138754A1 (ko) 2016-02-12 2017-02-10 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법

Country Status (2)

Country Link
KR (1) KR101630596B1 (ko)
WO (1) WO2017138754A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106524952B (zh) * 2016-12-22 2022-03-01 桂林施瑞德科技发展有限公司 单目相机3d车轮定位仪
KR101910062B1 (ko) * 2017-07-06 2018-10-19 (주)잼시큐리티시스템 차량 하부 촬영 시스템
US10893213B2 (en) 2019-04-02 2021-01-12 ACV Auctions Inc. Vehicle undercarriage imaging system
US11770493B2 (en) 2019-04-02 2023-09-26 ACV Auctions Inc. Vehicle undercarriage imaging system
MX2021012183A (es) * 2019-04-02 2022-01-24 Acv Auctions Inc Sistema de obtención de imágenes del bastidor de un vehículo.
KR20240047180A (ko) * 2022-10-04 2024-04-12 현대자동차주식회사 이미지 처리 장치, 이미지 처리 시스템 및 이미지 처리 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090008560A (ko) * 2007-07-18 2009-01-22 삼성전자주식회사 휴대용 단말기에서 카메라의 파노라마 기능 구현 방법 및장치
JP2009128261A (ja) * 2007-11-27 2009-06-11 Takashima Giken Kk 外観検査方法および装置
KR20120095220A (ko) * 2011-02-18 2012-08-28 엘지전자 주식회사 영상 표시 장치 및 그 방법
KR20130069347A (ko) * 2011-12-14 2013-06-26 삼성전자주식회사 촬상 장치 및 촬상 방법
KR101450733B1 (ko) * 2013-12-19 2014-10-16 인천국제공항공사 차량 하부 검색 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4079680B2 (ja) * 2002-04-26 2008-04-23 独立行政法人産業技術総合研究所 画像合成装置及び方法
JP2012008020A (ja) * 2010-06-25 2012-01-12 Clarion Co Ltd 車載装置
KR101164915B1 (ko) * 2011-01-21 2012-07-19 (주)옵티스 입체영상 카메라의 왜곡보정장치
US9258086B2 (en) 2011-08-03 2016-02-09 Qualcomm Incorporated Allocating physical hybrid ARQ indicator channel (PHICH) resources

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090008560A (ko) * 2007-07-18 2009-01-22 삼성전자주식회사 휴대용 단말기에서 카메라의 파노라마 기능 구현 방법 및장치
JP2009128261A (ja) * 2007-11-27 2009-06-11 Takashima Giken Kk 外観検査方法および装置
KR20120095220A (ko) * 2011-02-18 2012-08-28 엘지전자 주식회사 영상 표시 장치 및 그 방법
KR20130069347A (ko) * 2011-12-14 2013-06-26 삼성전자주식회사 촬상 장치 및 촬상 방법
KR101450733B1 (ko) * 2013-12-19 2014-10-16 인천국제공항공사 차량 하부 검색 장치 및 방법

Also Published As

Publication number Publication date
KR101630596B1 (ko) 2016-06-14

Similar Documents

Publication Publication Date Title
WO2017138754A1 (ko) 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법
CN108760765B (zh) 一种基于侧视相机拍摄的表面损伤缺陷检测装置及方法
KR102178903B1 (ko) 외관 검사 장치, 및 외관 검사 장치의 조명 조건 설정 방법
US7471381B2 (en) Method and apparatus for bump inspection
KR101949257B1 (ko) 디스플레이 모듈 검사장치 및 검사방법
TWI471542B (zh) Tire shape inspection device and tire shape inspection method
WO2013009065A2 (ko) 엘이디 부품의 3차원비전검사장치 및 비전검사방법
WO2011087337A2 (ko) 기판 검사장치
WO2013062345A1 (ko) 비전시스템의 이미지 품질 향상을 위한 컬러조명 제어방법
WO2016163840A1 (ko) 3차원 형상 측정장치
WO2013176482A1 (ko) 3차원 형상 측정장치의 높이 측정 방법
WO2012134146A1 (ko) 스테레오 비전과 격자 무늬를 이용한 비전검사장치
WO2016099154A1 (ko) 부품이 실장된 기판 검사방법 및 검사장치
WO2015026210A1 (ko) 솔더 조인트 검사 방법
JP4383071B2 (ja) ウエハ収納カセットの検査装置及び方法
WO2017204452A1 (ko) 광학필름의 결함 검출 시스템 및 광학필름의 결함 검출 방법
WO2020040468A1 (ko) 유기발광소자의 혼색 불량 검출장치 및 검출방법
WO2012134147A1 (ko) 가시광선의 격자무늬와 비가시광선의 격자 무늬를 이용한 비전검사장치
WO2016024648A1 (ko) 대면적 평면 검사 장치
JP2009080004A (ja) 検査装置
WO2015076513A1 (ko) Ir 센서용 인쇄 패턴의 투과율 검사 장치
KR101198406B1 (ko) 패턴 검사 장치
US10091443B2 (en) Camera system and method for inspecting and/or measuring objects
WO2013180394A1 (ko) 단일주기격자를 이용한 멀티 모아레 비전검사장치
JP7136064B2 (ja) 被検査体の表面検査装置および被検査体の表面検査方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17750446

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17750446

Country of ref document: EP

Kind code of ref document: A1