KR20070022514A - Stripe-Light Range Finding System and Method Minimizing Errors - Google Patents

Stripe-Light Range Finding System and Method Minimizing Errors Download PDF

Info

Publication number
KR20070022514A
KR20070022514A KR1020050076801A KR20050076801A KR20070022514A KR 20070022514 A KR20070022514 A KR 20070022514A KR 1020050076801 A KR1020050076801 A KR 1020050076801A KR 20050076801 A KR20050076801 A KR 20050076801A KR 20070022514 A KR20070022514 A KR 20070022514A
Authority
KR
South Korea
Prior art keywords
correction
image
point
linear light
camera
Prior art date
Application number
KR1020050076801A
Other languages
Korean (ko)
Other versions
KR100852093B1 (en
Inventor
안현식
Original Assignee
안현식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안현식 filed Critical 안현식
Priority to KR1020050076801A priority Critical patent/KR100852093B1/en
Publication of KR20070022514A publication Critical patent/KR20070022514A/en
Application granted granted Critical
Publication of KR100852093B1 publication Critical patent/KR100852093B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/025Testing optical properties by measuring geometrical properties or aberrations by determining the shape of the object to be tested
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N2021/0181Memory or computer-assisted visual determination

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 선형광원과 카메라를 이용한 형상 검출 장치에 관한 것으로서, 광원과 렌즈 및 카메라의 왜곡에 의한 오차와 형상검출 장치와 보정장치를 수작업으로 측정하고 조립하면서 발생하는 인공적 오차를 제거할 수 있는 형상검출 시스템 및 방법을 제공하는데 그 목적이 있다. 본 발명은 먼저 면이 고른 판에 일정한 보정점을 일렬로 배치한 보정판과, 이 보정판의 전방에 카메라와 선형광원으로 이루어진 센서부를 위치시키고 전후로 이동시키면서 보정판 영상을 얻고, 영상 내의 보정점 위치와 선형광과의 상관관계로부터 선형광원의 중심에 해당하는 기준광점의 영상좌표와 실제좌표를 보정파일에 저장하는 보정단계, 그리고 실제 대상 물체에 선형광원을 투사한 영상을 얻고, 그 영상 내의 광원위치인 물체광점을 보정파일의 기준광점들과 비교하는 방법을 사용하여 물체광점의 실제좌표 계산하는 형상검출 단계를 포함하여 구성되는 선형광원과 카메라를 이용한 형상검출 방법을 그 요지로 한다.The present invention relates to a shape detection device using a linear light source and a camera, a shape capable of eliminating errors caused by distortion of a light source, a lens, and a camera, and an artificial error generated by manually measuring and assembling a shape detection device and a correction device. It is an object of the present invention to provide a detection system and method. The present invention firstly obtains a correction plate image by arranging a correction plate in which a predetermined correction point is arranged in a line on an even surface, and a sensor unit consisting of a camera and a linear light source in front of the correction plate, and moving back and forth to obtain a correction plate image. From the correlation with the fluorescence, a correction step of storing image coordinates and actual coordinates of the reference light point corresponding to the center of the linear light source in a correction file, and an image of projecting the linear light source onto an actual target object, The object of the present invention is to provide a shape detection method using a linear light source and a camera, including a shape detection step of calculating an actual coordinate of the object light point using a method of comparing the object light point with reference light points of the correction file.

형상검출, 보정, 거리검출, 3차원 인식, 레이저 스캐너 Shape Detection, Correction, Distance Detection, 3D Recognition, Laser Scanner

Description

오차를 최소화하는 선형광 형상검출 시스템 및 방법 {Stripe-Light Range Finding System and Method Minimizing Errors}Linear Light Shape Finding System and Method Minimizing Errors

도 1은 본 발명에 있어서, 형상검출기의 보정을 위한 시스템 구성도1 is a system configuration diagram for correction of the shape detector in the present invention

도 2는 본 발명에 있어서, 대상물체의 형상을 검출하기 위한 시스템 구성도2 is a system configuration diagram for detecting a shape of an object in the present invention.

도 3은 본 발명에 있어서, 보정판의 구성과 입력영상의 예를 보인 도면3 is a view showing an example of the configuration of the correction plate and the input image in the present invention

도 4는 본 발명에 있어서, 보정 프로세서의 과정을 나타내는 플로우챠트4 is a flowchart illustrating a process of a correction processor according to the present invention.

도 5는 본 발명에 있어서, 형상검출 프로세서의 과정을 나타내는 플로우챠트5 is a flowchart showing a process of a shape detection processor according to the present invention.

도 6은 본 발명에 있어서, 대상물체에 투사된 선형광 영상을 예를 보인 도면6 is a view showing an example of a linear light image projected on an object in the present invention;

<도면의 주요부분에 대한 부호의 설명><Description of Symbols for Main Parts of Drawings>

1 : 센서부 2 : 카메라 1 sensor 2 camera

3 : 선형광원 4 : 선형모터 3: linear light source 4: linear motor

5 : 보정판 6 : 보정점 5: correction plate 6: correction point

7 : 기준보정점 8 : 보정판에 투사된 선형광 7: reference correction point 8: linear light projected on the correction plate

9 : 컴퓨터부 10 : 보정프로세서 9 computer unit 10 calibration processor

11 : 보정파일 12 : 형상검출프로세서 11: correction file 12: shape detection processor

13 : 대상물체 14 : 기준광점 13 object object 14 reference light point

15 : 보정중심점 16 : 물체에 투사된 선형광 15: Correction center point 16: Linear light projected on the object

17 : 물체광점 18 : 보정 영상 17: object light point 18: corrected image

19 : 대상물체에 투사된 선형광 19: linear light projected on the object

본 발명은 선형광원(slit-light source)을 물체에 투사하고 이 장면을 카메라로 촬영하면 영상(image) 내에서 물체에 투사된 광원의 변위가 생기고, 그 변위는 카메라와 물체 사이의 거리(range)와 상관관계를 가지게 되며, 그 상관관계를 식으로 유도하여 선형광원이 투사된 영상 내의 선형광원의 모든 화소(pixel)에 해당하는 물체와 카메라 간의 거리를 검출할 수 있는 선형광원과 카메라를 이용한 삼각도법(triangulation) 기반의 형상검출 시스템과 그 방법에 관한 것이다. According to the present invention, when a linear light source is projected on an object and the scene is photographed by a camera, a displacement of the light source projected on the object occurs in an image, and the displacement is a range between the camera and the object. The linear light source and the camera are used to detect the distance between the object and the camera corresponding to all pixels of the linear light source in the projected image by inducing the correlation by the equation. The present invention relates to a triangulation based shape detection system and a method thereof.

이를 위해서는 먼저 카메라의 전방에 광학 필터를 부착하여 선형광원만 영상 화면의 상이 맺히도록 하고, 그 영상의 선형광원에 해당하는 화소에 대해 그 화소의 위치 값 (u,v)로부터 실제 좌표값 (x, y, z)를 구하는 과정을 보정(calibration)이라 한다. 일반적으로 보정과정은 카메라와 렌즈의 및 선형광원의 광적 특성을 동시에 고려하여야 하므로 복잡한 보정 과정을 거쳐야 한다. 보정 을 위해 내부와 외부 카메라 변수를 유도하는데 내부 변수는 카메라 초점거리, 확대계수(scale factor), 렌즈의 왜곡 계수 등이다. 외부변수는 카메라 좌표계와 기준 좌표계 사이의 회전 행렬과 병진 행렬이다. 이러한 내부와 외부 변수를 이용하여 변환 행렬(matrix)을 구성하고 그 변환행렬에 광원 화소의 위치값 (u,v)를 대입하면 실제 좌표값 (x, y, z)를 구할 수 있다. To do this, first attach an optical filter in front of the camera so that only the linear light source forms an image on the image screen, and for the pixel corresponding to the linear light source of the image, the actual coordinate value (x) from the position value (u, v) of the pixel. , y, z) is called calibration. In general, the correction process must consider the optical characteristics of the camera and the lens and the linear light source at the same time, so a complex correction process must be performed. Internal and external camera parameters are derived for correction, which include camera focal length, scale factor, and lens distortion factor. External variables are rotation and translation matrices between the camera coordinate system and the reference coordinate system. By constructing a transformation matrix using these internal and external variables and substituting the position values (u, v) of the light source pixels in the transformation matrix, the actual coordinate values (x, y, z) can be obtained.

상기한 거리 검출 방법은 카메라와 렌즈가 선형적인 특성을 가지고 있으며, 선형광원이 이상적으로 직선임을 가정하고 있다. 그러나 실제적으로는 카메라와 렌즈가 비선형적이며 선형광원도 완전한 직선이 아니며 이것들은 내부와 외부변수를 왜곡시키게 되므로 검출한 거리 데이터는 오차를 가지게 된다. 뿐만 아니라 저가의 카메라와 렌즈 및 선형광원을 사용하면 왜곡 특성이 더욱 크게 되어 형상검출기의 오차가 더욱 커지는 단점이 있다. The distance detection method assumes that the camera and the lens have linear characteristics, and that the linear light source is ideally straight. In practice, however, the camera and lens are non-linear and the linear light source is not a perfect straight line, and since these distort the internal and external variables, the detected distance data has an error. In addition, the use of low-cost cameras, lenses and linear light source has a disadvantage in that the distortion characteristic is larger, the error of the shape detector is larger.

또한 보정과정에서 카메라의 위치와 방향이나, 물체를 대표하는 보정점과 이를 촬영한 영상의 보정점을 대응(matching)하는 과정이나, 선형광원의 위치 등을 사용자가 직접설치하고 그 위치를 직접 측정함으로써 오차가 발생하는 단점이 존재한다.In the calibration process, the user directly installs the position and direction of the camera, the process of matching the calibration point representing the object with the calibration point of the image, or the position of the linear light source. There is a disadvantage in that an error occurs.

본 발명은 선형광원과 카메라로 이루어진 거리 검출기를 먼저 구성하여 고정시키고 난 이후에 보정점과 카메라 영상의 상응점들을 서로 대응시켜서 상기한 왜 곡 요소와 오차요소를 최소화시키는 방법에 관한 것이다.The present invention relates to a method of minimizing the distortion element and the error element by first configuring and fixing a distance detector consisting of a linear light source and a camera, and then matching the correction points and the corresponding points of the camera image.

선형광원과 카메라를 이용한 형상검출 장치에 있어서 이상적으로는 정확한 선형광과 왜곡이 없는 렌즈와 카메라를 사용하여야한다. 그러나 실제로 이러한 왜곡이 존재하며 저가의 선형광원이나 카메라를 사용할 경우 광원, 렌즈, 카메라에서 왜곡에 의한 오차가 발생한다. 또한 보정에 있어서 광원, 카메라의 위치를 사용자가 직접 측정하고 조립하게 되므로 인공적 오차요인이 존재한다. 본 발명은 비선형 렌즈에 대한 왜곡을 최소화시키고, 인공적 오차를 제거할 수 있는 보정 방법 이용한 형상검출 시스템 및 방법을 제공함으로써, 기존의 형상검출기의 정확도를 높일 수 있고, 저가의 선형광과 카메라로 구성하면서도 정확도가 상당히 높은 형상검출기를 제공하는데 목적이 있다. Ideally, a linear light source and a shape detection device using a camera should ideally use lenses and cameras without accurate linear light and distortion. However, in practice, such distortion exists, and when a low-cost linear light source or a camera is used, an error due to the distortion occurs in the light source, the lens, and the camera. In addition, since the user directly measures and assembles the position of the light source and the camera in the calibration, there are artificial error factors. The present invention provides a shape detection system and method using a correction method capable of minimizing distortion for a nonlinear lens and eliminating an artificial error, thereby increasing the accuracy of a conventional shape detector, and configuring a low-cost linear light and a camera. The goal is to provide a shape detector that is highly accurate.

상기한 목적을 달성하기 위한 본 발명의 구성을 설명하면 다음과 같다.Referring to the configuration of the present invention for achieving the above object is as follows.

본 발명의 구성은 보정단계와 형상검출단계로 나누어진다. 보정단계는 형상검출기를 제작하는 단계에서 1회에 한하여 필요한 과정이며, 형상검출단계는 보정이 완료된 후 임의의 대상 물체에 대한 형상을 검출하기 위한 과정이다. The configuration of the present invention is divided into a correction step and a shape detection step. The correction step is a process required only once in the step of manufacturing the shape detector, and the shape detection step is a process for detecting the shape of any target object after the correction is completed.

본 발명의 시스템의 하드웨어 구성을 첨부한 도면과 함께 상세히 설명하면 다음과 같다.Referring to the hardware configuration of the system of the present invention in detail with the accompanying drawings as follows.

본 발명의 검출시스템의 하드웨어는 선형광원의 영상을 입력하기 위해 구성한 선형광원(3)과 카메라(2)로 이루어진 센서부(1)와, 입력된 선형광원의 영상으로부터 형상을 검출하기 위한 프로세서가 처리되는 컴퓨터부(9)와, 보정을 위해 필요한 장치인 보정판(5)으로 구성된다.The hardware of the detection system of the present invention includes a sensor unit 1 composed of a linear light source 3 and a camera 2 configured to input an image of a linear light source, and a processor for detecting a shape from an image of the input linear light source. Computer part 9 to be processed and a correction plate 5 which is a device necessary for correction.

상기 센서부(1)는 렌즈가 포함되고 일반적으로는 선형광원만 구분하여 입력시킬 수 있는 광학필터가 포함된 카메라(1)와 선형광원(3)으로 이루어진다.The sensor unit 1 includes a camera 1 and a linear light source 3 including a lens and generally including an optical filter that can input only a linear light source.

일반적으로 카메라는 감도가 좋고 수직수평 배열이 완벽한 센서(CCD)를 이용하며 좌우상하 대칭형의 렌즈를 사용하는 경우가 다수이나, 본 발명에서는 비대칭적 렌즈를 사용하는 저가의 카메라에 의해서도 정확한 거리 측정이 가능한 것이다.In general, the camera uses a sensor (CCD) having a high sensitivity and a perfect vertical horizontal arrangement, and uses a lens of right and left symmetry, but in the present invention, accurate distance measurement is performed even by a low-cost camera using an asymmetric lens. It is possible.

일반적으로 선형광원(3)은 일정한 파장의 레이저의 전면에 선형과원으로 바꾸어 줄 수 있는 원주형 렌즈를 부착한다.In general, the linear light source 3 attaches a cylindrical lens that can be converted into a linear fruit circle in front of a laser of a constant wavelength.

본 발명의 보정단계에 필요한 보정판(calibration panel)(5)은, 면이 고른 판에 일정한 보정점(6)을 배치한 형태로서, 카메라로 입력한 영상에서 배경과 보정점을 구분하고, 영상 내에서 선형광원과 보정판의 임의의 좌표를 상관시킬 수 있는 기능을 가진 다양한 방법을 쓸 수 있다. The calibration panel 5 required for the calibration step of the present invention is a form in which a constant correction point 6 is arranged on an even plate, and distinguishes a background and correction points from an image input by a camera. We can use a variety of methods with the ability to correlate arbitrary coordinates of the linear light source with the calibration plate.

일반적으로는 보정판의 흰색의 바탕에 원형 또는 사각형의 보정점을 이용할 수 있다. 상기 보정점은 보정판의 위치와 보정점의 중심 위치에 의해 하나의 실제좌표(x, y, z)로 정의하기 위한 것이다.Generally, a round or square correction point can be used on the white background of the correction plate. The correction point is defined as one actual coordinate (x, y, z) by the position of the correction plate and the center position of the correction point.

특수하게는 보정판은 첵크 무늬의 흰색과 검은색의 사각형으로 이루어 질수 도 있다.Specifically, the compensator plate may consist of a checkered white and black square.

보정판(5)의 바탕에 보정점을 배열하는 방법은 일정한 간격으로 이루어진 병렬의 두 줄로 배치하며, 특수하게는 일정한 간격으로 한 줄로 이루어진 경우도 있을 수 있다. The method of arranging the correction points on the base of the correction plate 5 is arranged in two rows of parallel with regular intervals, and in particular, it may be made of one row at regular intervals.

보정점은 영상을 입력하여 영상 처리하기에 용이한 형태로 구성하게 되며 일반적으로 보정판의 기준점을 정의하기 위하여 사각형 등 다른 보정점과 구분할 수 있는 기준보정점(7)을 사용한다.The correction point is configured in a form that is easy to process an image by inputting an image, and generally uses a reference correction point 7 that can be distinguished from other correction points such as a square to define a reference point of the correction plate.

다음은 본 발명의 보정단계를 첨부한 도면 1, 도면 3, 및 도면 4와 함께 상세히 설명한다.Next, the correction step of the present invention will be described in detail with reference to FIGS. 1, 3, and 4.

상기한 보정방법은 센서부(1)의 전방에 수직으로 보정(5)판을 두고 센서부의 선형광(8)을 투사한 후 카메라 보정판의 영상을 입력한다. 이때 선형광(8)은 보정판의 두열의 보정점(6)들의 중앙에 위치시킨다.The above-described correction method places a correction (5) plate vertically in front of the sensor unit 1, projects the linear light 8 of the sensor unit, and inputs an image of the camera correction plate. At this time, the linear light 8 is located at the center of the correction points 6 in the two rows of the correction plate.

일반적으로는, 선형광(8)과 보정점(6)을 동시에 입력할 경우 한쪽의 영상이 희미해지는 경우가 발생하므로, 센서부를 동일한 위치에서 먼저 보정점 영상을 얻고, 그 후에 선형광 영상을 얻고 이를 하나의 영상으로 만드는 방법을 이용한다.In general, when the linear light 8 and the correction point 6 are input at the same time, one image is blurred. Therefore, the sensor unit first obtains the correction point image at the same position, and then obtains the linear light image. It uses a method of making it into an image.

상기한 보정단계의 영상 입력은 선형모터(4)를 이용하여 센서부(1)를 전 후로 이동시키면서 보정점이 영상 내에 나타나기까지 되풀이하는데, 보정점이 나타나는 센서부의 전 후 이동 거리가 센서부의 거리 검출 범위가 되는 것이다.The image input of the correction step is repeated until the correction point appears in the image while moving the sensor unit 1 back and forth using the linear motor 4, the moving distance before and after the sensor portion where the correction point is displayed is the distance detection range of the sensor unit. To be.

영상입력으로 얻어진 영상에는 보정점(6)과 선형광(8) 영상이 나타나게 되는데, 영상 내에서 보정점의 중심위치인 보정중심점 (uc,vc)(15)를 검출하고, 선형광 영상의 중심위치인 기준광점 (ua,va)(14)를 구한다. 상기한 보정중심점과 기준광점을 구하는 과정은 기존의 영상처리 방법을 사용한다. In the image obtained through the image input, the correction point 6 and the linear light 8 image appear. The correction center point (uc, vc) 15, which is the center position of the correction point in the image, is detected and the center of the linear light image is detected. The reference light spot (ua, va) 14, which is the position, is obtained. The process of obtaining the correction center point and the reference light point uses a conventional image processing method.

일반적으로는 보정중심점을 구하기 위해서는 각각의 보정점 영역의 무게중심을 구하는 방법을 사용하며, 기준광점은 세선화(thinning)방법을 사용한다. 일반적으로는 보정중심점과 기준광점을 구하는 과정으로 통해 하위 화소(sub-pixel) 단위의 해상도를 얻는다.In general, a method of obtaining a center of gravity of each correction point region is used to obtain a correction center point, and a reference light point uses a thinning method. In general, the resolution of the sub-pixel unit is obtained by obtaining the correction center point and the reference light point.

다음은 기준광점의 영상좌표와 실제좌표를 구하는 단계이다. 이를 위해서는 기존의 영상처리 분야에서 활용되는 다양한 보간(interpolation) 방법을 사용할 수 있다. The next step is to find the image coordinates and the actual coordinates of the reference light spot. To this end, various interpolation methods used in the existing image processing field may be used.

일반적으로는 기준광점 (ua,va)와, 보정중심점 (uc,vc)와, 보정점의 실제좌표 (xc, yc, zc)를 이미 알고 있으므로, 원근 변형(perspective warping) 방법을 이용한다. In general, since the reference light point (ua, va), the correction center point (uc, vc), and the actual coordinates (xc, yc, zc) of the correction point are already known, a perspective warping method is used.

이 방법은 영상 내에서 기준광점의 좌우편의 두 보정점에 의해 이루어지는 4 점을 선택하고, 실제좌표계 상에서 그 네 개의 점이 이루는 사변형으로 원근 변형 하여 기준광점(14)의 실제좌표를 계산하게 된다. This method selects four points made up of two correction points on the left and right sides of the reference light point in the image, and calculates the actual coordinates of the reference light point 14 by perspective transformation into quadrilaterals formed by the four points on the real coordinate system.

상기한 원근변형 방법 외에도 기준광점의 영상좌표와 보정점의 영상좌표와 실제좌표를 이용하여 기준광점(14)의 실제좌표를 계산할 수 있는 여러 가지 방법들은 본 발명에 포함되는 것이다.In addition to the above-described perspective deformation method, various methods for calculating the actual coordinates of the reference light point 14 using the image coordinates of the reference light point, the image coordinates of the correction point, and the actual coordinates are included in the present invention.

상기한 방법으로 얻어진 기준광점(14)의 영상좌표 (ua,va)와 실제좌표(xa, ya, za)의 집합으로 구성된 보정파일(calibration file)(11)을 만든다.A calibration file 11 consisting of a set of image coordinates (ua, va) and actual coordinates (xa, ya, za) of the reference light point 14 obtained by the above method is made.

상기한 보정단계는 기존의 보정방법에서 선형광이 보정판의 일정한 위치에 정확히 투사되어야 하는 과정이 불필요한 것으로서, 선형광을 병렬로 이루어진 보정점의 두 열의 가운데만 위치시키면 기준광점 좌표들로 구성된 보정파일이 자동적으로 생성할 수 있어서 수동 조작에 의한 왜곡이나 오차를 최소화하는 장점이 있는 것이다.The above-mentioned correction step does not require a process in which the linear light is accurately projected to a certain position of the correction plate in the conventional correction method. When the linear light is positioned only in the middle of two columns of correction points in parallel, a correction file composed of reference light point coordinates Since this can be automatically generated, there is an advantage of minimizing distortion or error caused by manual operation.

상기한 보정단계에 사용되는 영상처리 과정은 컴퓨터부(9)의 보정프로세서(10)상에서 이루어지는 것이다.The image processing process used in the correction step is performed on the correction processor 10 of the computer unit 9.

다음은 본 발명의 형상검출 단계에 대해 도면 2와 도면 5를 중심으로 상세히 설명한다.Next, the shape detection step of the present invention will be described in detail with reference to FIGS.

형상검출 단계는 상기한 보정과정이 완료된 보정파일(11)을 이용하여, 대상 물체(13)에 선형광원을 투사한 결과를 카메라로 입력한 영상으로부터, 센서부에 대한 물체의 실제좌표를 구하는 과정이다.The shape detection step is a process of obtaining the actual coordinates of the object with respect to the sensor unit from the image inputted by the camera as a result of projecting the linear light source onto the target object 13 using the correction file 11 in which the above-described correction process is completed. to be.

대상물체(13)에 선형광원을 투사하고 영상을 입력한다. 입력된 영상으로부터 선형광의 영상만으로 이루어진 영상을 얻기 위해, 일반적으로는 상기한 카메라 내부에 선형광만 통과시키는 광학필터를 부착한다.Project a linear light source onto the object 13 and input an image. In order to obtain an image composed of only linear light images from the input image, an optical filter is generally attached inside the camera to pass only linear light.

입력된 선형광 영상으로부터 잡음을 제거시키고 선형광(16)의 중심에 해당하는 물체광점 (ub,vb)(17)를 얻기 위해 세선화 과정을 거친다.In order to remove noise from the input linear light image and to obtain an object light point (ub, vb) 17 corresponding to the center of the linear light 16, the thinning process is performed.

상기한 물체광점을 얻기 위한 세선화 과정은 기존의 영상처리 알고리즘을 사용할 수 있으며 일반적으로 하위 화소(sub-pixel) 단위의 해상도를 얻는다.The thinning process for obtaining the object light point may use an existing image processing algorithm and generally obtains a sub-pixel resolution.

영상 내에서 물체광점(17)을 중심으로 하여 영상좌표계 상에서 가장 근접한 두 개 이상의 기준광점(14)을 보정파일로부터 찾는다. 그 기준광점들의 영상좌표 (ua,va)와 실제좌표 (xa, ya, za)를 알고 있으므로 물체광점(17)의 실제좌표 (xb, yb, zb)를 영상처리 분야에서 알려진 보간 방법을 이용하여 구한다. 일반적으로는 보간 방법은 B-spline 보간을 이용한다. 상기 방법으로 얻어진 물체광점의 실제좌표들의 집합이 대상물체의 형상을 나타내 주는 것이다.Two or more reference light points 14 closest to the image coordinate system are searched for from the correction file, centering on the object light points 17 in the image. Since the image coordinates (ua, va) and the actual coordinates (xa, ya, za) of the reference light spots are known, the actual coordinates (xb, yb, zb) of the object light spots 17 are obtained using an interpolation method known in the field of image processing. Obtain Generally, the interpolation method uses B-spline interpolation. The set of actual coordinates of the object light point obtained by the above method indicates the shape of the object.

상기한 형상검출 과정에서 물체광점의 실제좌표를 기준광점의 영상좌표와 실제좌표와의 상관관계로부터 구하는 방법은 본 발명의 범위에 포함되는 것이다.The method of obtaining the actual coordinates of the object light point from the correlation between the image coordinates of the reference light point and the actual coordinates in the shape detection process is within the scope of the present invention.

요약해서 설명하면 상기한 형상검출 방법은 대상 물체에 투사된 선형광 영상 을 얻고, 그 영상 내에서 선형광(16)의 중심위치인 물체광점(17)을 구하고, 그 물체광점의 위치를 보정파일 상에서 가장 근접한 기준광점(14)의 영상좌표(ub,vb)와 실제좌표(xb, yb, zb)를 이용하여 계산하여 물체광점의 실제좌표 (xb, yb, zb)를 얻게 된다는 것이다. In summary, the shape detection method obtains a linear light image projected on a target object, obtains an object light point 17 which is a center position of the linear light 16 in the image, and corrects the position of the object light point. The actual coordinates (xb, yb, zb) of the object light point are obtained by calculating the image coordinates (ub, vb) and the actual coordinates (xb, yb, zb) of the reference light point 14 closest to each other.

본 발명에서는 선형광원과 카메라로 이루어진 형상검출기에 있어서 렌즈와 카메라에 의한 왜곡을 최소화시키고, 보정과정에서 사용자의 직접 측정과 조작에 의한 오차를 제거할 수 있도록 하는 보정 방법을 이용한 형상검출 시스템 및 방법을 제공함으로써, 카메라의 렌즈가 좌우 대칭형으로 제작되지 않은 경우와, 내부 변수 중 수평 수직의 단위 화소 길이로 정의할 경우 카메라의 광센서(CCD) 제작에서 발생하는 왜곡과, 선형광원의 광 평면을 정의할 경우 측정 오차 등을 제거할 수 있는 효과를 얻을 수 있어서, 기존의 형상검출기의 정확도를 상당히 개선하고, 저가의 선형광과 카메라로 구성하고서도 정확도가 상당히 높은 형상검출기를 제공할 수 있다. In the present invention, the shape detection system and method using a correction method to minimize the distortion caused by the lens and the camera in the shape detector consisting of a linear light source and a camera, and to eliminate the error caused by the user's direct measurement and operation in the correction process In this case, when the lens of the camera is not manufactured symmetrically and defined as the unit pixel length of horizontal and vertical among the internal variables, the distortion generated in the production of the optical sensor (CCD) of the camera and the optical plane of the linear light source When defined, it is possible to obtain an effect of eliminating measurement errors, thereby significantly improving the accuracy of the existing shape detector, and providing a highly accurate shape detector even with a low cost linear light and a camera.

Claims (6)

대상 물체에 투사된 선형광 영상(19)을 카메라로부터 얻고, 선형광(16)의 중심에 해당하는 물체광점(17)의 실제좌표를 계산하기 위하여, 보정판에 투사된 선형광(8)의 중심점인 기준광점(14)의 영상좌표와 실제좌표로 이루어진 보정파일(11)을 이용하는 것을 특징으로 하는 선형광원과 카메라를 이용하는 형상검출 제공 시스템. In order to obtain the linear light image 19 projected on the object from the camera and calculate the actual coordinates of the object light point 17 corresponding to the center of the linear light 16, the center point of the linear light 8 projected on the correction plate A system for providing a shape detection using a linear light source and a camera, characterized by using a correction file (11) consisting of image coordinates and actual coordinates of the reference light spot (14). 제 1항에 있어서 선형광원과 광학필터가 포함된 카메라로 이루어진 센서부와, 카메라와 연결되어 입력된 영상에 대한 보정처리를 위한 보정프로세서(10)와 형상검출을 위한 영상처리를 위한 형상검출 프로세서(12)를 구동시키고 보정파일(11)을 저장하는 컴퓨터부99)와, 일정한 간격의 병렬의 열 형태의 보정점(6)과 보정점의 기준위치를 설정하는 기준보정점(7)로 구성된 보정판(5)으로 구성하여 형상검출 기능을 제공하는 보정 시스템.According to claim 1, Sensor unit consisting of a camera including a linear light source and an optical filter, a correction processor 10 for correction processing for the input image connected to the camera and a shape detection processor for image processing for shape detection A computer portion 99 for driving (12) and storing the correction file 11, and a correction point 6 in parallel column form at regular intervals and a reference correction point 7 for setting a reference position of the correction points. Compensation system configured with a correction plate (5) to provide a shape detection function. 보정판에 일정하게 분포된 보정점의 실제좌표와 영상좌표 및 보정점 사이에 투사된 선형광의 중심점인 기준광점의 영상좌표로부터 기준광점의 실제좌표를 계산하고, 기준광점의 영상좌표와 실제좌표로 이루어진 보정파일(11)을 생성하는 선형 광원과 카메라를 이용하는 형상검출에 있어서의 보정 방법.The actual coordinates of the reference light points are calculated from the actual coordinates of the correction points uniformly distributed on the correction plate, and the image coordinates of the reference light points which are the center points of the linear light projected between the correction points. A correction method in shape detection using a linear light source and a camera for generating a correction file (11). 제 3항에 있어서 보정판(5)에 일정한 간격이면서 두 열로 분포된 보정점(6)의 영상을 얻고, 보정점의 두 열의 중심의 임의의 위치에 선형광(8)을 투사하고, 보정점의 실제좌표를 알고 있을 때, 선형광원의 중심에 해당하는 기준광점(14)의 영상좌표를 계산하고, 주위의 2개 이상의 보정점의 영상좌표와 실제좌표를 이용하여, 기준광점의 실제좌표를 계산하여, 기준광점의 영상좌표와 실제좌표로 이루어진 보정파일(11)을 생성하는 보정 방법.An image of a correction point 6 distributed in two rows at regular intervals on the correction plate 5 is obtained, and the linear light 8 is projected at an arbitrary position in the center of the two rows of correction points, When the actual coordinates are known, the image coordinates of the reference light point 14 corresponding to the center of the linear light source are calculated, and the actual coordinates of the reference light points are calculated using the image coordinates and the actual coordinates of two or more correction points in the vicinity. To generate a correction file (11) consisting of the image coordinates and the actual coordinates of the reference light point. 제 4항에 있어서 기준광점의 영상좌표와 실제좌표를 계산하기 위해, 기준광점(14)의 주위의 좌우편의 가장 근접한 보정점 2개로 이루어진 4개의 보정점을 선택하고, 4개의 보정점의 영상좌표를 실제좌표로 원근변형(perspective warping)하고, 그로부터 기준광점(14)의 실제좌표를 계산해내는 보정 방법5. In order to calculate the image coordinates and the actual coordinates of the reference light point according to claim 4, four correction points consisting of two nearest correction points on the left and right sides of the reference light point 14 are selected, and the image coordinates of the four correction points. Is a perspective warp in the actual coordinates and calculates the actual coordinates of the reference light point 14 therefrom. 대상 물체에 투사된 선형광영상(19)을 카메라로부터 얻고, 선형광의 중심에 해당하는 물체광점(17)의 실제좌표를 계산하기 위하여, 두개 이상의 기준광점(14)의 영상좌표와 실제좌표로부터 보간(interpolation)에 의해 구하는 선형광원과 카 메라를 이용하는 물체광점 실제좌표 검출 방법.In order to obtain the linear light image 19 projected on the object from the camera and to calculate the actual coordinates of the object light point 17 corresponding to the center of the linear light, from the image coordinates of the two or more reference light points 14 and the actual coordinates. A method for detecting the actual optical point of an object using a linear light source and a camera obtained by interpolation.
KR1020050076801A 2005-08-22 2005-08-22 Stripe-Light Range Finding System and Method Minimizing Errors KR100852093B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050076801A KR100852093B1 (en) 2005-08-22 2005-08-22 Stripe-Light Range Finding System and Method Minimizing Errors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050076801A KR100852093B1 (en) 2005-08-22 2005-08-22 Stripe-Light Range Finding System and Method Minimizing Errors

Publications (2)

Publication Number Publication Date
KR20070022514A true KR20070022514A (en) 2007-02-27
KR100852093B1 KR100852093B1 (en) 2008-08-13

Family

ID=41639917

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050076801A KR100852093B1 (en) 2005-08-22 2005-08-22 Stripe-Light Range Finding System and Method Minimizing Errors

Country Status (1)

Country Link
KR (1) KR100852093B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379837A (en) * 2021-06-30 2021-09-10 深圳中科飞测科技股份有限公司 Angle correction method of detection device, device and computer readable storage medium
CN116423084A (en) * 2023-06-02 2023-07-14 武汉船舶职业技术学院 Automatic correction method and system for 2D vibrating mirror without additional equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102416992B1 (en) * 2020-01-06 2022-07-05 효성중공업 주식회사 Apparatus and method for evaluating air gap of motor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6542249B1 (en) * 1999-07-20 2003-04-01 The University Of Western Ontario Three-dimensional measurement method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379837A (en) * 2021-06-30 2021-09-10 深圳中科飞测科技股份有限公司 Angle correction method of detection device, device and computer readable storage medium
CN116423084A (en) * 2023-06-02 2023-07-14 武汉船舶职业技术学院 Automatic correction method and system for 2D vibrating mirror without additional equipment
CN116423084B (en) * 2023-06-02 2023-09-15 武汉船舶职业技术学院 Automatic correction method and system for 2D vibrating mirror without additional equipment

Also Published As

Publication number Publication date
KR100852093B1 (en) 2008-08-13

Similar Documents

Publication Publication Date Title
US11985293B2 (en) System and methods for calibration of an array camera
CN110392252B (en) Method for generating correction model of camera to correct aberration
JP4111166B2 (en) 3D shape input device
CN109859272B (en) Automatic focusing binocular camera calibration method and device
CN110099267B (en) Trapezoidal correction system, method and projector
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
KR101626072B1 (en) Method and Apparatus for Compensating Image
CN103782232B (en) Projector and control method thereof
US20030035100A1 (en) Automated lens calibration
CN106504290B (en) A kind of high-precision video camera dynamic calibrating method
CN109712192B (en) Camera module calibration method and device, electronic equipment and computer readable storage medium
US8144974B2 (en) Image processing apparatus, method, and program
TWI393980B (en) The method of calculating the depth of field and its method and the method of calculating the blurred state of the image
US20120050488A1 (en) Automatic detection of lens deviations
JP5440615B2 (en) Stereo camera device
JP4055998B2 (en) Distance detection device, distance detection method, and distance detection program
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
JP2013042411A (en) Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon
US11403745B2 (en) Method, apparatus and measurement device for measuring distortion parameters of a display device, and computer-readable medium
CN107707898B (en) The image distortion correcting method and laser-projector of laser-projector
TWI468658B (en) Lens test device and method
KR100852093B1 (en) Stripe-Light Range Finding System and Method Minimizing Errors
JP7038315B2 (en) Camera parameter calculation device, camera parameter calculation method, program, and recording medium
JPH04172213A (en) Calibrating method for three-dimensional shape measuring apparatus
KR20200032442A (en) 3D information generating device and method capable of self-calibration

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
AMND Amendment
E801 Decision on dismissal of amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20070813

Effective date: 20080717

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120720

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130806

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140806

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150803

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160801

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee