KR102502540B1 - Displacement Measuring Methods using a camera - Google Patents

Displacement Measuring Methods using a camera Download PDF

Info

Publication number
KR102502540B1
KR102502540B1 KR1020210013763A KR20210013763A KR102502540B1 KR 102502540 B1 KR102502540 B1 KR 102502540B1 KR 1020210013763 A KR1020210013763 A KR 1020210013763A KR 20210013763 A KR20210013763 A KR 20210013763A KR 102502540 B1 KR102502540 B1 KR 102502540B1
Authority
KR
South Korea
Prior art keywords
target
center
coordinates
camera
pixel
Prior art date
Application number
KR1020210013763A
Other languages
Korean (ko)
Other versions
KR20220110431A (en
Inventor
주광철
Original Assignee
주광철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주광철 filed Critical 주광철
Priority to KR1020210013763A priority Critical patent/KR102502540B1/en
Publication of KR20220110431A publication Critical patent/KR20220110431A/en
Application granted granted Critical
Publication of KR102502540B1 publication Critical patent/KR102502540B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/08Measuring arrangements characterised by the use of optical techniques for measuring diameters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/003Alignment of optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은, 반지름이 알려져 있는 원 또는 구 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 촬영된 타깃의 계산된 지름(단위: 픽셀)과 실제 지름의 비율을 곱하여 타깃 중심의 픽셀 좌표로부터 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구하는 방법을 제시한다. 또한, 설치된 카메라가 타깃의 정면을 향하지 않고 있을 때, 변위량 측정 오차을 자동으로 보정하거나 사용자에게 카메라를 재설치할 것을 권장하는 방법을 제시한다.The present invention processes image data captured by a camera of a circular or spherical target having a known radius, and obtains pixel coordinates of the center of the target as an average of the positions of the captured target pixels; obtain the physical coordinates of the center of the target from the pixel coordinates of the center of the target by multiplying the ratio of the calculated diameter (unit: pixels) of the captured target to the actual diameter; repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; A method of finally obtaining the amount of displacement of an object attached to a target with the difference between the continuously obtained physical coordinates of the center of the target is proposed. In addition, when the installed camera is not facing the front of the target, a method of automatically correcting the displacement measurement error or recommending the user to reinstall the camera is presented.

Figure 112021012462080-pat00001
Figure 112021012462080-pat00001

Description

카메라를 이용한 변위량 측정 방법 {Displacement Measuring Methods using a camera}Displacement Measuring Methods using a camera}

본 발명은 물체의 변위량을 측정하는 방법에 관한 것으로, 구체적으로는 카메라로 촬영한 타깃(원형 또는 구형 마크) 영상을 처리하여 변위량을 측정하는 방법에 관한 것이다. 특징으로는 카메라 설치의 적정성을 판별 기능과 바람직하지 않은 카메라 설치에 대한 자동 오차 보정 기능이 있고, 또한 스마트폰 애플리케이션으로 구현하기 용이하다. The present invention relates to a method for measuring the amount of displacement of an object, and more specifically, to a method for measuring the amount of displacement by processing an image of a target (circular or spherical mark) captured by a camera. Features include a function to determine the appropriateness of camera installation and an automatic error correction function for undesirable camera installation, and it is also easy to implement as a smartphone application.

선행기술문헌에 명시된 특허문헌들을 통해서 알 수 있듯이 변위량 측정은 여러 산업 분야에서 필요하다. 변위량 측정의 대표적인 두 가지 응용 예로는 파일(Pile, 말뚝)의 관입량 측정기(항타관리기라고도 부름)와 구조물 변형 감시기(구조물 변위량 측정기라고도 부름)가 있다. 상기 두 가지 응용 예들은 변위량을 측정하는 공통점이 있지만, 사용 환경에 따라서 우선시되는 요구 조건은 다르다. 관입량 측정기는 건설공사 현장에서 파일을 땅에 밖을 때 주로 사용하는 것으로서, 설치 시간이 짧아야 하고 측정 정밀도는 mm단위 정도이다. 반면 구조물 변형 감시기는 주로 교량이나 건물의 변형을 감시하기 위한 것으로서, 상대적으로 설치 시간에 대해서 덜 민감하지만, 고 정밀도가 요구되고 장시간 측정할 수 있어야 한다. 상기 언급한 요구 조건은 후술하는 기술 비교에서 다시 언급된다.As can be seen through the patent documents specified in the prior art documents, displacement measurement is required in various industrial fields. Two typical applications of displacement measurement are a pile penetration measurement device (also called a pile driver) and a structure deformation monitor (also called a structure displacement measurement device). The above two application examples have a common point of measuring displacement, but prioritized requirements are different depending on the use environment. Penetration measuring instruments are mainly used when expelling piles from the ground at construction sites, and the installation time should be short and the measurement accuracy is about mm. On the other hand, structural deformation monitors are mainly for monitoring the deformation of bridges or buildings, and are relatively less sensitive to installation time, but require high precision and must be able to measure for a long time. The above-mentioned requirements are mentioned again in the technology comparison described below.

자동으로 변위량을 측정하는 방법은 크게 3가지로 나눌 수 있다. 방법 1)은 센서나 레이저 측정기를 변위량 측정 대상물에 부착하는 것이 특징이고; 방법 2)는 카메라를 이용하여 측정 대상물의 변위량을 영상처리 기법으로 구하는 것이고; 방법 3)은 방법 2)와 같이 카메라 영상처리 기법을 사용하되 대상물 자체에 대한 영상을 처리하는 것이 아니고 측정 대상물에 부착된 타깃(인식 마크)의 영상을 처리한다. 선행기술문헌에 나열된 특허문헌의 기술들을 응용 분야와 변위량 측정 방법으로 분류해보면 아래 표 1과 같다.There are three methods of automatically measuring the amount of displacement. Method 1) is characterized by attaching a sensor or laser measuring device to the displacement measurement object; Method 2) is to obtain the amount of displacement of the object to be measured using an image processing technique using a camera; Method 3) uses a camera image processing technique like method 2), but processes the image of the target (recognition mark) attached to the measurement object rather than processing the image of the object itself. The technologies in the patent literature listed in the prior art literature are classified into application fields and displacement measurement methods as shown in Table 1 below.

선행기술prior art 응용 분야application field 변위량 측정 방법Displacement measurement method 관입량 측정기penetration meter 변형
감시기
transform
monitor
방법 1)
센서/레이저 사용
Method 1)
Use of sensor/laser
방법 2)
카메라 사용
Method 2)
camera use
방법 3)
카메라 + 타깃 사용
Method 3)
Use camera + target
특허문헌 1Patent document 1 OO OO 특허문헌 2Patent document 2 OO OO 특허문헌 3Patent document 3 OO OO OO 특허문헌 4Patent document 4 OO OO 특허문헌 5Patent Document 5 OO OO 특허문헌 6Patent document 6 OO OO 특허문헌 7Patent Document 7 OO OO 특허문헌 8Patent Document 8 OO OO

위의 표 1의 변위량 측정 방법의 분류별로 장단점을 비교해봄으로써 선행기술의 문제점들을 이해할 수 있고, 본 발명에서 개선하고자 하는 내용도 쉽게 이해할 수 있다. 분류별 공통적인 장단점 먼저 비교하고, 그 이후에 선행기술의 고유한 내용에 대해서도 설명한다.By comparing the advantages and disadvantages of each classification of the displacement measurement method in Table 1 above, problems in the prior art can be understood, and contents to be improved in the present invention can be easily understood. The common strengths and weaknesses of each classification are compared first, and then the unique contents of prior art are also explained.

상기 방법 1)은 센서나 레이저 거리 측정기를 사용하고, 측정 정밀도가 낮아서 주로 관입량 측정기에 사용되는데 설치가 복잡하고 설치에 긴 시간을 요한다. 관입량 측정기가 사용되는 작업환경을 고려해보면 설치가 복잡하고 긴 시간을 요하는 것은 치명적인 단점이다. 방법 1)은 위의 표에 나열된 3가지 변위량 측정 방법들 중 성능 및 사용의 편리성 측면에서 가장 낮다.Method 1) uses a sensor or a laser distance meter, and is mainly used for penetration measurement because of low measurement precision, but the installation is complicated and requires a long time to install. Considering the working environment in which the penetration meter is used, it is a fatal disadvantage that the installation is complicated and takes a long time. Method 1) is the lowest in terms of performance and ease of use among the three displacement measurement methods listed in the table above.

상기 방법 2)는 카메라로 촬영한 영상을 처리하여 변위량을 측정한다. 이 방법의 시스템 구성(통상적으로 카메라, 카메라 고정 삼각대, 영상 처리 장치)은 타 방법에 비해 상대적으로 간단한 반면 아래와 같은 큰 두 가지 단점이 있다. 측정 대상물 자체의 움직임을 검출하기 위해 주로 촬영한 영상신호를 미분하여 윤곽선 추출을 한다. 그런데 일반적으로 알려진 바와 같이 신호를 미분하는 것은 잡음에 취약하고, 경우에 따라서는 윤곽선의 움직임을 파악할 수 없는 경우가 있다. 예를 들어, 건설공사 현장에서 파일을 박는 경우(관입량을 측정하고자 하는 경우) 윤곽선이 수직방향으로만 형성이 되기 때문에 수직 변위를 검출할 수 없다. 그래서 방법 2)는 관입량 측정기에 사용하기 어렵다. 또 다른 단점은 변위량 측정기를 설치할 때마다 측정 대상물로부터 카메라까지의 거리(설치 거리)를 측정하고, 카메라의 초점 거리도 구해야 한다. 이로 인하여 변위량 측정기 설치 시간이 길어지고, 설치 거리와 초점 거리의 오차가 변위량 측정의 오차를 유발한다. 방법 2)의 긴 설치 시간으로 인하여 관입량 측정기에 사용하는 것이 적합하지 않다. 또한, 카메라의 초점 거리도 쉽게 구해지는 것은 아니다.Method 2) measures the amount of displacement by processing the image captured by the camera. Although the system configuration of this method (typically a camera, a camera-fixed tripod, and an image processing device) is relatively simple compared to other methods, it has two major disadvantages as follows. In order to detect the motion of the measurement object itself, the contour line is extracted by differentiating the mainly photographed video signal. However, as is generally known, differentiating a signal is vulnerable to noise, and in some cases, the motion of a contour line cannot be grasped. For example, when driving piles at a construction site (to measure the amount of penetration), vertical displacement cannot be detected because the outline is formed only in the vertical direction. So method 2) is difficult to use for penetration measurement. Another disadvantage is that whenever a displacement measuring instrument is installed, the distance from the measuring object to the camera (installation distance) must be measured and the focal length of the camera must also be obtained. As a result, the time required to install the displacement measurement device increases, and the error between the installation distance and the focal length causes an error in displacement measurement. Due to the long installation time of method 2), it is not suitable to use it as a penetration meter. Also, the focal length of the camera is not easily obtained.

상기 방법 3)은 상기 방법 2)의 단점을 개선하기 위해서 미리 정해진 타깃(측정 대상물에 부착 혹은 인쇄한 인식 마크)를 사용한다. 방법 3)의 타깃 설치가 방법 2) 대비 유일한 단점인데, 변위 측정 대상물의 시공 전에 타깃 설치를 사전 작업으로 해둘 수 있기 때문에 큰 단점은 아니다. 그런데 방법 3)의 분류에 속하는 종래 기술은 방법 2)의 단점을 개선하지만 다른 단점을 야기한다. 방법 3)의 종래의 기술은 카메라가 타깃과 수직 정렬이 안 되면 큰 측정 오차를 유발하는 단점이 있다. 본 발명은 여러 가지 개선점이 있는데, 그 중의 하나가 상기 수직 정렬 문제를 개선하는 것이다.Method 3) uses a predetermined target (recognition mark attached or printed on the object to be measured) in order to improve the disadvantages of method 2). The target installation of method 3) is the only disadvantage compared to method 2), but it is not a big disadvantage because the target installation can be done as a preliminary work before the construction of the displacement measurement object. By the way, the prior art belonging to the classification of method 3) improves the disadvantages of method 2) but causes other disadvantages. The conventional technique of method 3) has a disadvantage of causing a large measurement error when the camera is not vertically aligned with the target. The present invention has several improvements, one of which is to improve the vertical alignment problem.

이상과 같이 변위 측정 방법별로 선행기술의 공통 장단점을 살펴보았고, 이하 본 발명의 방법이 속하는 상기 방법 3)의 개별 선행기술들에 대한 단점을 서술한다. As described above, the common advantages and disadvantages of the prior art for each displacement measurement method have been reviewed, and the disadvantages of the individual prior arts of the method 3) to which the method of the present invention belongs will be described below.

특허문헌 3의 기술은 명시적으로는 상기 방법 2)에 속하나 묵시적으로 방법 3)의 내용도 포한되어 있어 본 발명과 비교한다. 특허문헌 3의 기술은 관입량을 측정하기 위해서 2개의 카메라를 사용하고, 이 2개의 카메라의 촬영 순간을 동기화 하기위해 특별한 동기발생장치를 사용한다. 특허문헌 3의 기술은 본 발명 대비 사용하는 카메라 수가 많고 또한 동기발생장치를 사용함으로 인하여 하드웨어의 비용이 훨씬 고가이고, 설치 시간이 매우 길어 작업이 신속하게 이루어져야 하는 건설공사현장에서 사용하기 적합하지 않다.The technology of Patent Document 3 explicitly belongs to the above method 2), but implicitly includes the contents of method 3) and is compared with the present invention. The technology of Patent Document 3 uses two cameras to measure the amount of penetration, and uses a special synchronization device to synchronize the shooting moments of the two cameras. The technology of Patent Document 3 is not suitable for use in construction sites where the number of cameras used compared to the present invention and also the cost of hardware is much higher due to the use of a synchronization generator, and the installation time is very long, so the work must be done quickly .

특허문헌 6의 기술이 본 발명과 가장 유사한 것이다. 그런데 이 기술은 타깃과 카메라가 수직정렬(타깃 평면과 카메라까지 연장선이 수직이고, 그 평면과 그 연장선이 타깃의 중심에서 교차)되지 않았을 때 발생하는 오차에 대한 대책이 없고, 두 개의 타깃(인식 마크)를 요한다. 수직정렬이 되지 않았을 때의 문제점은 본 발명의 상세 설명에서 다시 언급한다. 본 발명은 원이나 구 형태의 하나의 타깃만을 사용하기 때문에 설치 및 관리가 쉽다. 또한, 특허문헌 6의 기술은 두 개의 타깃을 설치한 후 이들 간의 거리를 파라미터로 입력해야 하는데 이것은 설치 시간을 더 소요하고, 거리 측정 오차가 변위량 측정 오차를 유발한다.The technology of Patent Document 6 is the most similar to the present invention. However, in this technology, there is no countermeasure for errors that occur when the target and the camera are not vertically aligned (the extension line to the target plane and the camera is vertical, and the plane and the extension line intersect at the center of the target), and the two targets (recognition mark) is required. The problem of not being vertically aligned will be mentioned again in the detailed description of the present invention. Since the present invention uses only one target in the form of a circle or sphere, it is easy to install and manage. In addition, the technology of Patent Document 6 requires inputting the distance between them as a parameter after installing two targets, which takes more installation time, and the distance measurement error causes displacement measurement error.

특허문헌 7의 기술은 카메라와 타깃을 사용하는 관점에서 본 발명과 같은 기술 분류이나, 변위량을 카메라에 촬영된 바코드의 값으로 결정한다. 이것의 가장 큰 단점은 최소 측정 단위가 바코드의 길이에 의해서 결정된다. 바코드가 원거리에서 제대로 식별되기 위해서는 바코드의 바가 일정 길이 이상으로 되어야 하는데, 그 길이가 최소 측정 단위를 결정하게 되어 미세 변위 측정이 어렵다.The technology of Patent Document 7 is classified as the same technology as the present invention from the viewpoint of using a camera and a target, but the amount of displacement is determined by the value of the barcode captured by the camera. The biggest drawback of this is that the minimum unit of measure is determined by the length of the barcode. In order for the barcode to be properly identified from a long distance, the barcode bar must have a certain length or more, and the length determines the minimum unit of measurement, making it difficult to measure micro-displacement.

특허문헌 8의 기술의 최대 장점은 라인스캔 카메라를 사용하여 고속 측정이 가능하게 하는 것인데, 이 기술이 출원 당시 카메라 기술을 감안하면 의미 있는 장점이라고 할 수 있으나 현재의 카메라 기술을 감안해보면 장점이라 할 수 없고, 라인스캔 카메라의 희소성으로 인하여 가격이 오히려 더 비쌀 수 있다. 이 뿐만아니라 특허문헌 6의 기술과 같은 수직정렬 문제도 있다. The biggest advantage of the technology of Patent Document 8 is that it enables high-speed measurement using a linescan camera. Considering the camera technology at the time of application, this technology can be said to be a significant advantage, but considering the current camera technology, it can be said to be an advantage. However, due to the rarity of line scan cameras, the price may be rather expensive. In addition to this, there is also a vertical alignment problem such as the technique of Patent Document 6.

대한민국 공개특허 2002-0060459 (공개일 2002. 7. 18.)Republic of Korea Patent Publication 2002-0060459 (published on July 18, 2002) 대한민국 등록특허 10-2201871 (등록일 2021. 1. 6.)Republic of Korea Registered Patent No. 10-2201871 (registration date 2021. 1. 6.) (특허문허 3) 대한민국 등록특허 10-1193076 (등록일 2012. 10. 15.)(Patent Document 3) Republic of Korea Patent No. 10-1193076 (Registration date 2012. 10. 15.) 일본 등록특허 P4948660 (등록일 2012. 3. 16.)Japanese registered patent P4948660 (registration date 2012. 3. 16.) 대한민국 등록특허 10-1434393 (등록일 2014. 8. 20.)Republic of Korea Registered Patent No. 10-1434393 (registration date 2014. 8. 20.) 대한민국 등록특허 10-0458290 (등록일 2004. 11. 12.)Republic of Korea Patent No. 10-0458290 (Registration date: 2004. 11. 12.) 대한민국 등록특허 10-2039443 (등록일 2019. 10. 28.)Republic of Korea Registered Patent No. 10-2039443 (registration date 2019. 10. 28.) 대한민국 등록특허 10-0437275 (등록일 2004. 6. 14.)Republic of Korea Registered Patent No. 10-0437275 (registration date: 2004. 6. 14.)

본 발명은 상기 대상 물체의 번위량을 측정하는 종래 기술의 문제점들을 해결하기 위한 것으로, 주요 사용 장소인 건설공사 현장에서 단시간 내에 설치 가능한 쉬운 설치; 상기 언급된 수직정렬이 되지 않은 경우 오차를 자동으로 보정하거나 혹은 적어도 잘못 설치된 요소를 사용자에게 알릴 수 있는 오차 대응력; 종래 기술 대비 하나의 카메라와 하나의 타깃만을 사용하는 시스템의 간소성; 잡음에 대한 영향을 줄이는 시스템 강건성; 스마트폰 애플리케이션으로 구현 가능한 방법으로 사용자 편리성 등을 해결하고자 하는 과제로 한다.The present invention is to solve the problems of the prior art for measuring the displacement of the target object, easy installation that can be installed in a short time at the construction site, which is the main place of use; Error responsiveness capable of automatically correcting an error when the aforementioned vertical alignment is not achieved or at least informing a user of an incorrectly installed element; simplicity of the system using only one camera and one target compared to the prior art; system robustness to reduce impact on noise; It is a task to solve user convenience in a way that can be implemented as a smartphone application.

본 발명의 변위량 측정 방법은 하드웨어적인 요소와 소프트웨어적인 요소를 필요로한다. 하드웨어적인 요소는 지름의 크기가 미리 알려진 원이나 구의 타깃(인식 마크), 타깃을 원거리에서 촬영할 수 있는 카메라, 그리고 이 카메라로부터 출력되는 영상처리를 할 수 있는 PC나 스마트폰 같은 연산장치로 구성된다. 소프트웨어적인 요소는 촬영된 영상으로부터 타깃의 위치를 연속적으로 계산하고, 연속적으로 계산된 위치들 간의 차이를 변위량으로 계산하는 알고리즘을 의미한다.The displacement measurement method of the present invention requires hardware elements and software elements. The hardware element consists of a target (recognition mark) of a circle or sphere whose diameter is known in advance, a camera that can photograph the target from a distance, and an arithmetic device such as a PC or smartphone that can process the image output from the camera. . The software element refers to an algorithm that continuously calculates the position of a target from a photographed image and calculates a difference between consecutively calculated positions as a displacement amount.

도 1을 참조하여 하드웨어적인 요소를 좀 더 설명한다. 도 1은 본 발명의 기술이 관입량 측정기로 사용된 건설공사 현장을 예를 도시한 것이다. 파일(300)을 지면(400)에 박기 위해 해머(100)로 파일을 내리치게 되는데, 이때 파일에 부착된 타깃(200)의 변위량으로 파일의 관입량을 계산한다. 카메라와 연산장치가 일체로 되어 있는 스마트폰(500)이 타깃으로부터 원거리에 설치되어 있고, 촬영한 타깃의 영상(610)이 스마트폰 화면에 나타나 있다. 스마트폰 설치용 삼각대(700)는 특별한 것이 아니다. 이후 설명에서 언급될 수직정렬라인(800)도 도시되어 있다. 본 발명에서 하드웨어적인 요소는 특별한 것이 아니고, 핵심적인 내용은 소프트웨어적인 요소에 의해서 결정된다.Referring to FIG. 1, hardware elements will be described in more detail. 1 shows an example of a construction site in which the technology of the present invention is used as an intrusion amount meter. In order to drive the pile 300 into the ground 400, the pile is hit with the hammer 100. At this time, the amount of penetration of the pile is calculated by the amount of displacement of the target 200 attached to the pile. A smartphone 500 in which a camera and an arithmetic device are integrated is installed at a distance from the target, and a captured image 610 of the target is displayed on the screen of the smartphone. The tripod 700 for installing a smartphone is not special. Vertical alignment lines 800, which will be referred to later in the description, are also shown. In the present invention, hardware elements are not special, and core contents are determined by software elements.

도 3를 참조하여 상기 소프트웨어적인 요소를 좀 더 설명한다. 도 3은 본 발명의 방법을 설명하기 위한 순서도 이다. 이 순서도는 타깃을 촬영한 영상 데이터를 프레임 단위로 획득하는 단계(S10); 카메라가 보내주는 영상 데이터를 순차적으로 읽어오는 단계(S20); 순차적으로 들어오는 영상의 픽셀 값을 임계치(Tt)와 비교하는 단계(S30); 상기 비교결과 타깃 픽셀 해당하는 경우 그 픽셀의 X(가로 방향) 및 Y(세로 방향) 좌표를 저장하고 픽셀의 최소, 최댓값을 추적하는 단계(S40); 영상 프레임의 끝을 판별하여 반복 여부를 결정하는 단계(S50); 상기 단계(S40)에서 저장한 픽셀 좌표의 평균값으로 타깃의 중심 좌표를 계산하는 단계(S60); X, Y 각각의 좌표에 대하여 최저/최고점들(X, Y축 각각에 대하여 최저/최고점, 모두 4점)과 상기 단계(S60)에서 계산한 중심 좌표 간의 거리를 계산하는 단계(S70); 상기 최저/최고점들과 상기 중심 좌표 간의 거리 벡터에서 각 축의 성분을 구하는 단계(S90); 상기 단계(S70)과 단계(80)에서 구해진 값들의 차이로 오차 보정을 결정할 지수(Eu, El, Er,Eb)를 구하는 단계(S90); 상기 단계(S90)에서 계산된 지수를 임계값들(Tg와 Tn)과 비교하여 오차 보정 여부 및 카메라의 재설치 여부를 판단하는 단계(S100, S120); 상기 여부 판단 결과에 따라 거치게 되는 오차 보정 단계(S130); 타깃 중심의 좌표를 픽셀 좌표에서 물리적 좌표로 변환하는 단계(S110); 상기 여부 판단 단계(S100, S120)의 결과가 유의미한 좌표를 계산할 수 없는 경우 사용자에게 카메라 설치를 재점검하도록 권장하는 메시지를 표시하는 단계(S140)로 구성되어 있다.Referring to FIG. 3, the software element will be described in more detail. 3 is a flowchart for explaining the method of the present invention. This flowchart includes the steps of acquiring image data of a target photographed in units of frames (S10); sequentially reading image data sent from the camera (S20); Comparing pixel values of sequentially incoming images with a threshold value (Tt) (S30); Storing the X (horizontal direction) and Y (vertical direction) coordinates of the target pixel as a result of the comparison and tracking the minimum and maximum values of the pixel (S40); determining whether to repeat by determining the end of an image frame (S50); calculating center coordinates of the target with the average value of the pixel coordinates stored in step S40 (S60); Calculating the distance between the lowest/highest points for each of the X and Y coordinates (the lowest and highest points for each of the X and Y axes, a total of 4 points) and the center coordinate calculated in step S60 (S70); obtaining components of each axis from the distance vector between the lowest/highest points and the center coordinates (S90); Obtaining exponents (Eu, El, Er, Eb) for determining error correction using the difference between the values obtained in steps S70 and step 80 (S90); comparing the index calculated in the step (S90) with the threshold values (Tg and Tn) to determine whether to correct errors and reinstall the camera (S100, S120); An error correction step (S130) performed according to the determination result; converting the coordinates of the center of the target from pixel coordinates to physical coordinates (S110); When the result of the determination step (S100, S120) is unable to calculate meaningful coordinates, a message recommending the user to recheck the camera installation is displayed (S140).

본 발명은 변위량 측정 기술이 사용되는 응용 분야(관입량 측정기, 구조물 변형 감시기)의 요구조건(설치의 신속성 및 용이성, 오차 보정, 카메라 설치의 정적성 판단)을 충족시키고, 또한 잡음에 대한 대응력 등 사용 환경에 영향을 받는 요소들에 대해서 개선한다. 구체적으로는, 주요 사용 장소인 건설공사 현장에서 단시간 내에 설치 가능한 쉬운 설치; 상기 언급된 수직정렬이 되지 않은 경우 오차를 자동으로 보정하거나 혹은 적어도 잘못 설치된 요소를 사용자에게 알릴 수 있는 오차 대응력; 종래 기술 대비 하나의 카메라와 하나의 타깃만을 사용하는 시스템의 간소성; 잡음에 대한 영향을 줄이는 시스템 강건성; 스마트폰 애플리케이션으로 구현 가능한 방법으로 사용자 편리성 등에 대하여 개선한다.The present invention satisfies the requirements (quickness and ease of installation, error correction, determination of the statics of camera installation) of application fields (penetration measurer, structural deformation monitor) where displacement measurement technology is used, and also responds to noise, etc. Improve the factors affected by the usage environment. Specifically, easy installation that can be installed in a short time at the construction site, which is the main place of use; Error responsiveness capable of automatically correcting an error when the aforementioned vertical alignment is not achieved or at least informing a user of an incorrectly installed element; simplicity of the system using only one camera and one target compared to the prior art; system robustness to reduce impact on noise; Improve user convenience in a way that can be implemented as a smartphone application.

본 발명의 기술을 채택한 관입량 측정기는, 건설공사 현장에서 파일을 땅에 박을 때 관입량을 원거리에서 측정하므로써 작업자의 안전을 확보하고 파일 시공 결과의 적정성 판단에 신뢰할만한 데이터를 제공한다. 또한, 본 발명의 기술을 채택한 구조물 변형 감시기는 선행기술 대비 오차 보정 측면과 잡음 대응력 측면에서 우수하다.The penetration amount measuring device employing the technology of the present invention secures the safety of workers by measuring the penetration amount from a distance when a pile is driven into the ground at a construction site, and provides reliable data for determining the adequacy of pile construction results. In addition, the structure deformation monitor adopting the technology of the present invention is superior in terms of error correction and noise response compared to the prior art.

도 1은 본 발명의 기술이 사용되는 예
도 2는 종래 기술의 문제점과 본 발명의 개선점을 설명하기 위한 도면
도 3은 본 발명의 변위량 측정 방법의 순서도
도 4는 본 발명의 변위량 측정을 설명하기 위한 도면(카메라 설치 양호)
도 5는 본 발명의 변위량 측정을 설명하기 위한 도면(변위 발생)
도 6은 본 발명의 변위량 측정을 설명하기 위한 도면(카메라 설치 불량)
도 7은 본 발명의 변위량 측정을 설명하기 위한 도면(카메라 설치 불량)
1 is an example in which the technology of the present invention is used
Figure 2 is a view for explaining the problems of the prior art and the improvements of the present invention
3 is a flow chart of a displacement measurement method of the present invention
4 is a view for explaining displacement measurement of the present invention (camera installation is good)
5 is a view for explaining displacement measurement of the present invention (displacement generation)
6 is a view for explaining displacement measurement of the present invention (camera installation failure)
7 is a view for explaining displacement measurement of the present invention (camera installation failure)

이하 설명의 편의성을 위해 특정한 예시를 기준으로 본 발명 실시를 위한 구체적인 내용을 서술하지만, 본 발명의 응용 분야가 이러한 예시에만 국한된 것을 의미하지는 않고, 타깃을 부착할 수 있는 모든 물체의 변위량을 측정하는 것에 사용될 수 있다.For convenience of description, specific details for the practice of the present invention will be described below based on specific examples, but this does not mean that the application field of the present invention is limited to these examples, and measures the amount of displacement of all objects to which targets can be attached. can be used for

도 1은 본 발명의 기술을 관입량 측정기로 사용한 예시를 나타낸 것이다. 관입량 측정기는 건설공사 현장에서 파일이 적절히 시공되었는지를 판단하기 사용하는 것으로서, 해머(100)로 파일(300)을 항타했을 때 파일이 지면(400)에 얼마만큼 박히는지 측정한다. 파일이 지면에 박히는 양을 길이로 나타내는 것을 관입량이라 한다. 즉, 관입량은 파일(300)의 변위량을 말하는 것이다. 본 발명은 변위량 측정 대상물(300)에 부착되어 있는 타깃(200)의 변위량을 계산한다. 타깃은 카메라가 인식하기 쉽도록 배경과 대비되는 색을 사용한다. 바람직한 예는 백색 배경에 흑색 타깃 혹은 반대로 흑색 배경에 백색 타깃을 사용하는 것이다. 본 설명의 예에서는 백색 배경에 흑색 타깃을 사용한다. 본 발명의 타깃(200) 모양은 원(員)이나 구(球)의 형태이다. 원이나 구의 모양을 사용하는 목적은 카메라 정렬에 대한 적정성 판다과 측정 오차 보정이 용이하고, 종래 기술 대비 하나의 타깃만 사용해도 되기 때문이다. 오차 보정과 거리 변환에 관해서는 이하에서 다시 자세히 언급한다. 타깃의 지름은 미리 정해지고, 이 지름이 픽셀 좌표에서 거리를 물리적 좌표에서 거리로 변환할 때 비례 상수로 사용된다. 타깃의 촬영과 영상처리를 위한 스마트폰(500)이 타깃으로부터 떨어진 곳에 설치되어 있고, 촬영된 타깃(610)이 스마트폰의 화면에 나타나 있고, 스마트폰은 삼각대(700)에 의해 지면(400)에 단단히 고정되어 있다. 스마트폰은 카메라 기능과 영상처리 기능이 일체로 되어 있어 편리한 면이 있다. 경우에 따라서는 카메라와 영상처리 기능이 분리된 별개의 카메라와 PC로도 구성할 수 있다. 가상의 수직정렬선(800)은 카메라가 타깃(200)에 수직정렬 되기 위한 위치를 표시한 것이다.1 shows an example of using the technology of the present invention as a penetration amount meter. The penetration measuring instrument is used to determine whether the pile is properly constructed at the construction site, and measures how much the pile is driven into the ground 400 when the hammer 100 drives the pile 300. Penetration amount refers to the amount by which the pile is driven into the ground by length. That is, the penetration amount refers to the displacement amount of the pile 300. The present invention calculates the amount of displacement of the target 200 attached to the object 300 for measuring the amount of displacement. The target uses a color that contrasts with the background so that the camera can easily recognize it. A preferred example is to use a black target on a white background or conversely a white target on a black background. The example in this description uses a black target on a white background. The shape of the target 200 of the present invention is in the form of a circle or sphere. The purpose of using the shape of a circle or sphere is that it is easy to compensate for the appropriateness of camera alignment and measurement error, and it is possible to use only one target compared to the prior art. Error correction and distance conversion will be described in detail again below. The diameter of the target is pre-determined, and this diameter is used as a proportionality constant when converting a distance in pixel coordinates to a distance in physical coordinates. A smartphone 500 for shooting and image processing of a target is installed at a location away from the target, the photographed target 610 is displayed on the screen of the smartphone, and the smartphone is placed on the ground 400 by a tripod 700 is firmly fixed on A smartphone has a convenient aspect because a camera function and an image processing function are integrated. Depending on the case, it can be composed of a separate camera and a PC in which the camera and image processing functions are separated. The virtual vertical alignment line 800 indicates a position where the camera is vertically aligned with the target 200 .

도 2는 도 1과 같은 사용 예를 나타낸 것인데, 다만 카메라(500)가 타깃(200)에 수직정렬 되지 않은 경우에 해당한다. 카메라(500)가 수직정렬선(800)보다 왼쪽으로 치우쳐 설치된 경우를 나타내고 있다. 이러한 경우에는 측정 오차가 발생할 수 있는데, 종래의 기술은 이것에 대한 대책이 없다. 본 발명의 오차 보정 방법은 이하에서 다시 상세히 언급된다. 카메라와 타깃의 정렬에 관한 내용 이외에는 도 1의 내용과 같다.FIG. 2 shows an example of use as in FIG. 1 , but corresponds to a case in which the camera 500 is not vertically aligned with the target 200 . A case in which the camera 500 is installed to the left of the vertical alignment line 800 is illustrated. In this case, a measurement error may occur, and the prior art does not have a countermeasure for this. The error correction method of the present invention is mentioned again in detail below. The content is the same as in FIG. 1 except for the alignment of the camera and the target.

이하 도 3 내지 도 7를 통해서 본 발명의 핵심 내용인 변위량 계산 방법에 대해서 자세히 설명한다. 도 3의 전체적인 처리과정을 순서도로 나타낸 것이다. 도 4 내지 도 7은 영상데이터 처리과정을 자세하게 설명하기 위한 것으로서, 도 4는 상기 언급했던 카메라와 타깃의 정렬이 양호한 경우의 것이고; 도 5는 도 4의 상황에서 타깃(910)이 아래 방향으로 움직인 경우의 것이고; 도 6은 도 1의 경우 대비 카메라 정렬이 좌우로 틀어진 경우에 촬영된 타깃(960)의 모양을 나타낸 것이고; 도 7은 도 1의 경우 대비 카메라 정렬이 상하/좌우 모두로 틀어진 경우 촬영된 타깃(970)의 모양을 나타낸 것이다. 도 4 내지 도 5의 작도 편의성을 위해서 카메라 해상도를 11 x 14로 가정했지만 실제의 경우는 이보다 훨씬 높은(예를 들면, 통상 스마트폰의 카메라 해상도 1080 x 1920) 것을 사용한다. 도 4의 경우(카메라가 양호하게 설치된 경우)를 기준으로 도 3의 순서도를 단계별로 먼저 설명하고, 그 이후에 다른 경우(도 5, 도 6, 도 7)에 대해서 설명한다.Hereinafter, a displacement amount calculation method, which is the core content of the present invention, will be described in detail with reference to FIGS. 3 to 7. The overall process of FIG. 3 is shown in a flowchart. 4 to 7 are for explaining the image data processing process in detail, and FIG. 4 is for the case where the above-mentioned camera and target are well aligned; FIG. 5 shows a case in which the target 910 moves downward in the situation of FIG. 4; FIG. 6 shows the shape of a target 960 photographed when the camera alignment is distorted left and right, in contrast to the case of FIG. 1; FIG. 7 shows the shape of a target 970 photographed when the alignment of the camera is distorted vertically/left and right, in contrast to the case of FIG. 1 . For the convenience of drawing in FIGS. 4 and 5, it is assumed that the camera resolution is 11 x 14, but in reality, a much higher resolution (eg, 1080 x 1920 camera resolution of a smartphone) is used. Based on the case of FIG. 4 (when the camera is properly installed), the flowchart of FIG. 3 will be described step by step first, and then the other cases (FIGS. 5, 6, and 7) will be described.

도 3의 단계 S10은 카메라(500)로부터 촬영한 타깃(610)의 영상데이터를 프레임 단위로 가져오기 위한 것이다. 카메라는 도 4에 나타낸 영상데이터(900)(각 픽셀의 흑백 정보를 16진수로 나타냄)와 같이 2차원 데이터를 제공한다. 그런데 통상의 경우는 카메라가 스캔을 하여 영상데이트를 제공하는 관계로, 영상처리 장치(스마트폰이나 PC의 프로세서)로 넘겨지는 영상데이터의 형태는 도 4의 카메라 스캔 출력(D[n])과 같이 1차원이다. 영상데이터는 통상적으로 흑백 성분과 컬러 성분으로 나누어서 전달되는데 이렇게 하는 이유는 높은 해상도를 제공하는 흑백 정보가 더 유용하게 사용되도록 하기 위한 것이다. 본 예에서도 흑백 정보를 사용하는데, 해상도 차이가 없다면 타깃을 잘 구별할 수 있는 컬러 성분을 사용해도 상관없다. 스캔 출력(D[n])은 각 픽셀의 흑백 영상값(휘도값)을 나타내고 있다. 이상의 설명을 요약하자면, 카메라 스캔 출력(D[n])은 타깃을 촬영한 결과로서 16진수로 담고있는 1차원 어레이(Arrary)이다. 영상데이터(900, D[n])를 살펴보면 타깃(910)의 영역의 값은 배경값들보다 작다. 이 작은 값은 배경보다 어두운 흑색 타깃을 촬영한 당연한 결과이다.Step S10 of FIG. 3 is for importing image data of the target 610 photographed by the camera 500 in units of frames. The camera provides two-dimensional data such as the image data 900 shown in FIG. 4 (representing black and white information of each pixel in hexadecimal). However, in the normal case, the camera scans to provide image data, so the form of image data passed to the image processing device (smart phone or PC processor) is the camera scan output (D[n]) in FIG. 4 and are one dimensional as well. Image data is usually divided into black-and-white components and color components, and the reason for this is to make black-and-white information that provides high resolution more useful. Even in this example, black and white information is used, but if there is no difference in resolution, it is okay to use color components that can distinguish targets well. The scan output (D[n]) represents the black and white image value (luminance value) of each pixel. To summarize the above description, the camera scan output (D[n]) is a one-dimensional array containing hexadecimal numbers as a result of photographing a target. Looking at the image data 900 (D[n]), the value of the area of the target 910 is smaller than the background values. This small value is a natural result of shooting a black target that is darker than the background.

도 3의 단계 S20은 상기 언급한 카메라 스캔 출력 즉 픽셀 값(D[n])을 순차로 읽어 온다. 'D[n]'으로 표현된 어레이에서 'n'은 픽셀의 스캔된 순서를 나타내는 것이고 이것으로부터 2차원 영상데이터 상의 위치도 알 수있다. 2차원 영상데이터 상의 위치 계산은 아래 수학식 1에 의해서 이루어진다. 카메라가 스캔을 진행하면 n의 값은 0에서부터 순차적으로 증가한다. 도 4의 예에서 살펴보면, 첫번째 픽셀(n=0)의 값은 D[0] = F0 이고 다섯번째 픽셀(n=4)의 값은 D[4] = E5 이다.Step S20 of FIG. 3 sequentially reads the above-mentioned camera scan output, that is, the pixel value D[n]. In the array expressed as 'D[n]', 'n' represents the scanned order of pixels, and from this, the location on the 2D image data can be known. Position calculation on the 2D image data is performed by Equation 1 below. When the camera scans, the value of n increases sequentially from 0. Referring to the example of FIG. 4 , the value of the first pixel (n=0) is D[0] = F0 and the value of the fifth pixel (n=4) is D[4] = E5.

도 3의 단계 S30은 단계 S20에서 읽어온 픽셀 값(D[n])과 임계 값(Tt)을 비교하여 해당 픽셀이 타깃(910)에 속하는지 판단한다. 배경과 타깃을 구별할 수 있는 중간 값으로 임계 값(Tt)을 설정하면, 타깃(910)에 속하는 픽셀들을 골라 낼 수 있다. 본 예에서는 임계 값(Tt)을 128로 정하였다. 픽셀 값들(D[n]) 중에서 임계 값(Tt)보다 작은 것들을 골라낸 결과는 추출된 타깃 이미지(950)와 같이 될 것이다. 즉, 추출된 타깃 이미지(950)에 해당하는 값(D[n])은 임계 값 128보다 작고, 단계 S30의 판정 결과는 '참'이 된다.Step S30 of FIG. 3 compares the pixel value D[n] read in step S20 with the threshold value Tt to determine whether the corresponding pixel belongs to the target 910 . If the threshold value Tt is set to an intermediate value capable of distinguishing the background from the target, pixels belonging to the target 910 may be selected. In this example, the threshold value (Tt) is set to 128. A result of selecting pixels smaller than the threshold value Tt among the pixel values D[n] will be like the extracted target image 950 . That is, the value D[n] corresponding to the extracted target image 950 is smaller than the threshold value 128, and the determination result of step S30 becomes 'true'.

도 3의 단계 S40은 단계 S30의 판정 결과가 참인 경우에 수행 되는 것으로서, 타깃 픽셀 좌표들(X[m], Y[m])과 픽셀 좌표의 최소(Xmin, Ymin)/최대(Xmax, Ymax) 값들을 추적한다. 타깃 픽셀 좌표들(X[m], Y[m])은 도 4에 예시되어 있다. X[m], Y[m]은 1차원 어레이(Arrary)로 표현될 수 있는 것이고, 여기서 'm'은 어레이의 인덱스를 나타낸다. 'm'은 어레이 값이 저장될 때마다 하나씩 증가한다. X[m]과 Y[m]이 저장되는 과정을 일반적인 관계식으로 표현하면 아래 수학식 1과 같다. 이 수학식에서, D[n]은 타깃을 촬영한 영상데이터 이고; 'n'이 몇번째 픽셀인가를 나타내고; Tt는 상기 언급한 바와 같이 임계 값(본 예에서는 128)이고; %는 잉여류 계산 연산자이고; W는 영상데이터의 폭(본 예에서는 11)이고; Int()는 정수화하는 함수이다. 수학식 1의 의미를 도식적인 방법으로 이해하기 위해서, 도 4의 타겟 픽셀에 속하는 세개의 픽셀값들(D[14] = 70, D[15] = 60, D[16] = 50)을 예로 하여 설명하면 다음과 같다. D[14], D[15], D[16]의 값들은 모두 128(Tt)보다 작으므로 단계 S30의 판정 결과는 이들 값들에 대해서 모두 참이 되고, 수학식 1의 연산이 진행된다. 세개의 픽셀값들에 대해서 연산을 진행해보면, X[0] = 14 % 11 = 3, Y[0] = Int(14 / 11) = 1, X[1] = 15 % 11 = 4, Y[1] = Int(15 / 11) = 1, X[2] = 16 % 11 = 5, Y[2] = Int(16 / 11) = 1과 같이 된다. 좀 더 많은 픽셀값에 대하여 같은 방식의 연산을 진행한 결과가 도 4의 타깃 픽셀들의 X 좌표 열(X[m])과 타깃 픽셀들의 Y 좌표 열(Y[m])에 나타나 있다. 결과적으로, X[m]은 해당 픽셀값(D[n]<Tt)의 2차원 영상데이터 상의 가로 위치를 나타내고, Y[m]은 세로 위치를 나타낸다. 도 4에 나타낸 바와 같이(화살표로 연결된 것들과 작은 동그라미로 표시된 것들 참조), 예로서 D[14]의 X[m](X[0]), Y[m](Y[0])의 값은 이 픽셀의 가로 위치 3과 세로 위치 1을 나타낸다.Step S40 of FIG. 3 is performed when the determination result of step S30 is true, and the target pixel coordinates (X[m], Y[m]) and the minimum (Xmin, Ymin)/maximum (Xmax, Ymax) of the pixel coordinates are performed. ) to track the values. The target pixel coordinates (X[m], Y[m]) are illustrated in FIG. 4 . X[m] and Y[m] can be expressed as a one-dimensional array, where 'm' represents an index of the array. 'm' is incremented by one each time an array value is saved. The process of storing X[m] and Y[m] is expressed as a general relational expression as in Equation 1 below. In this equation, D[n] is the image data of photographing the target; 'n' represents the number of pixels; Tt is a threshold value (128 in this example) as mentioned above; % is the remainder calculation operator; W is the width of the video data (11 in this example); Int() is an integer function. In order to understand the meaning of Equation 1 in a schematic way, three pixel values belonging to the target pixel of FIG. 4 (D[14] = 70, D[15] = 60, D[16] = 50) are taken as an example. To explain, it is as follows. Since the values of D[14], D[15], and D[16] are all smaller than 128 (Tt), the determination result of step S30 becomes true for all of these values, and the calculation of Equation 1 proceeds. Performing calculations on three pixel values, X[0] = 14 % 11 = 3 , Y[0] = Int(14 / 11) = 1 , X[1] = 15 % 11 = 4 , Y[ 1] = Int(15 / 11) = 1 , X[2] = 16 % 11 = 5 , Y[2] = Int(16 / 11) = 1 . The result of performing the same operation for more pixel values is shown in the X coordinate column (X[m]) of the target pixels and the Y coordinate column (Y[m]) of the target pixels in FIG. 4 . As a result, X[m] represents the horizontal position of the corresponding pixel value (D[n]<Tt) on the two-dimensional image data, and Y[m] represents the vertical position. As shown in Figure 4 (refer to those connected by arrows and those indicated by small circles), as an example, the values of X[m](X[0]), Y[m](Y[0]) of D[14] represents the horizontal position 3 and vertical position 1 of this pixel.

(수학식 1)(Equation 1)

X[m] = n % WX[m] = n % W

Y[m] = Int(n/W)Y[m] = Int(n/W)

도 3의 단계 S40의 또하나의 기능인 픽셀 좌표의 최소/최대값 추적은 다음과 같이 수행된다. 스캔된 영상 값(D[n])에 따라 순차적인 진행을 하면서 새로 계산된 X[m]이 현재의 Xmin 보다 작으면 이값을 새로운 Xmin으로 저장하고; Xmax 보다 크면 새로운 Xmax로 저장한다. 만일 새로 계산된 X[m]이 현재의 Xmin 이나 Xmax와 같은 경우 새로운 값을 취할지 현재 값을 유지할지 판단은 해당 픽셀값(D[n])이 더 작은 쪽의 것을 택하는 방식으로한다. 여기서 더 작은 쪽의 의미는 해당 픽셀의 더 많은 영역이 타깃 영역에 들어가 있다는 것을 의미한다. 이와 같은 의미에서 백색 타겟을 사용하는 경우 더 큰 쪽의 것을 택해야 하는 것이 자명한 일이다. Y[m]에 대해서도 X[m]과 같은 방식으로 Ymin, Ymax를 저장한다. 이상과 같이 Xmin, Xmax, Ymin, Ymax를 추적하여 궁극적으로 얻고자 하는 것은 이들의 픽셀 좌표이다. 도 4의 추출된 타깃 이미지(950)에 이예의 Ymin, Xmin, Xmax, Ymax의 픽셀 좌표를 음영으로 표시했다. 즉, 도 4에서 Ymin의 좌표는 (5, 1)이고; Xmin의 좌표는 (1, 5)이고; Xmax의 좌표는 (5, 5)이고; Ymax의 좌표는 (5, 9)이다. 이 좌표들의 의미는 각 X 방향과 Y 방향에 대해서 중심으로부터 가장 먼 거리에 있는 타깃 픽셀의 위치정보를 알려주는 것이다.Tracking of minimum/maximum values of pixel coordinates, which is another function of step S40 of FIG. 3, is performed as follows. When the newly calculated X[m] is smaller than the current Xmin while sequentially proceeding according to the scanned image value (D[n]), this value is stored as a new Xmin; If it is greater than Xmax, it is saved as a new Xmax. If the newly calculated X[m] is the same as the current Xmin or Xmax, it is determined whether to take a new value or maintain the current value by selecting the smaller pixel value D[n]. Here, a smaller side means that a larger area of the corresponding pixel is included in the target area. In this sense, it is self-evident that the larger one should be chosen when using a white target. For Y[m], Ymin and Ymax are stored in the same way as for X[m]. As described above, what is ultimately obtained by tracking Xmin, Xmax, Ymin, and Ymax is their pixel coordinates. The pixel coordinates of Ymin, Xmin, Xmax, and Ymax in this example are marked with shading in the extracted target image 950 of FIG. 4 . That is, the coordinates of Ymin in FIG. 4 are (5, 1); The coordinates of Xmin are (1, 5); The coordinates of Xmax are (5, 5); The coordinates of Ymax are (5, 9). The meaning of these coordinates is to inform the location information of the target pixel farthest from the center in each of the X and Y directions.

도 3의 단계 S50은 단지 영상데이터의 한 프레임에 대한 처리가 모두 끝난 여부를 판단한다. 한 프레임에 대한 처리가 모두 끝난 경우 다음 단계로 넘어가고, 아직 끝나지 않았다면 이전 단계를 반복한다.Step S50 of FIG. 3 determines whether processing of one frame of image data is all over. When processing of one frame is finished, it moves to the next step, and if it is not finished, the previous step is repeated.

도 3의 단계 S60은 타깃 중심의 픽셀 좌표를 구하는데, 저장된 X[m]의 평균과 Y[m]의 평균으로 이것을 구한다. 도 4의 추출된 타깃 이미지(950)에서 알 수 있듯이, 이 예의 경우 중심의 픽셀 좌표는 (5, 5)이다. 신호처리에서 평균은 적분과 같은 의미를 가지고 있기 때문에 종래 기술의 미분을 사용하는 방식에 비해 잡음 강건성이 높아진다.Step S60 of FIG. 3 obtains the pixel coordinates of the center of the target, which is obtained as the average of stored X[m] and Y[m]. As can be seen from the extracted target image 950 of FIG. 4 , the pixel coordinates of the center in this example are (5, 5). In signal processing, since average has the same meaning as integration, noise robustness is increased compared to the prior art method using differentiation.

도 3의 단계 S70은 타깃 중심으로 부터 Xmin,Xmax, Ymin, Ymax의 위치들까지의 거리들(Ru, Rl, Rr, Rb)을 구한다. 이 거리들은 촬영한 타깃의 위쪽 반지름(Ru), 왼쪽 반지름(Rl), 오른쪽 반지름(Rr), 아래쪽 반지름(Rb)를 의미한다. 이 반지름들은 픽셀 좌표를 물리적 좌표로 변환한는데 비례 상수로 사용한다. 예를 들어, 타깃(200)의 실제 반지름이 8mm이고, 카메라로 촬영한 타깃의 반지름이 4 픽셀이라고 한다면, 1 픽셀 거리당 물리적 거리는 2mm이다. 타깃 중심의 픽셀 좌표를 물리적 좌표로 변환하는 단계 S110에서 상기 언급한 비례관계(위의 예의 경우 1 픽셀당 2mm)를 사용한다.In step S70 of FIG. 3 , distances (Ru, Rl, Rr, and Rb) from the center of the target to the positions of Xmin, Xmax, Ymin, and Ymax are obtained. These distances mean the upper radius (Ru), left radius (Rl), right radius (Rr), and lower radius (Rb) of the target being photographed. These radii are used as proportional constants to convert pixel coordinates to physical coordinates. For example, if the actual radius of the target 200 is 8 mm and the radius of the target captured by the camera is 4 pixels, the physical distance per 1 pixel distance is 2 mm. In step S110 of converting the pixel coordinates of the center of the target into physical coordinates, the above-mentioned proportional relationship (2 mm per pixel in the case of the above example) is used.

도 3의 단계 S80은 상기 계산한 반지름들(Ru, Rl, Rr, Rb)을 벡터로 보았을 때 X, Y 각 축에 대한 성분 거리들(Du, Dl, Dr, Db, 도 7 참조)을 구한다. 도 4의 경우는 카메라 정렬이 양호한 경우이므로 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)가 같고, 카메라 정렬이 양호하지 않은 도 7의 경우 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)가 같지 않다. 이 값들이 서로다르다면, 카메라 정렬이 잘못된 경우를 의미한다. 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)의 좀 더 상세한 의미는 카메라 정렬이 잘 되지 않은 경우에 해당하는 도 7을 설명하는 곳에서 후술한다. 카메라 설치 적정 지수(Eu, El, Er, Eb)는 단순히 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)의 차를 구한다. 적정 지수(Eu, El, Er, Eb)는 단계 S90에서 구해지는데 이것의 용도도 도 7을 설명하는 곳에서 후술한다. 적정 지수(Eu, El, Er, Eb)를 포한함 오차 대응에 관련된 단계들(S100, S120, S130, S140)도 후술한다. Step S80 of FIG. 3 obtains component distances (Du, Dl, Dr, Db, see FIG. 7) for each axis X and Y when the calculated radii (Ru, Rl, Rr, and Rb) are viewed as vectors. . In the case of FIG. 4, since the camera alignment is good, the radii (Ru, Rl, Rr, Rb) and component distances (Du, Dl, Dr, Db) are the same, and in the case of FIG. 7, where the camera alignment is not good, the radius (Ru, Rl, Rr, Rb) and component distances (Du, Dl, Dr, Db) are not the same. If these values are different, it means that the camera alignment is wrong. More detailed meanings of the radii (Ru, Rl, Rr, and Rb) and component distances (Du, Dl, Dr, and Db) will be described later in a description of FIG. 7 corresponding to a case where the camera is not well aligned. The camera installation suitability index (Eu, El, Er, Eb) is simply the difference between the radius (Ru, Rl, Rr, Rb) and the component distance (Du, Dl, Dr, Db). Appropriate indices (Eu, El, Er, Eb) are obtained in step S90, and their uses will be described later in the description of FIG. 7. Steps S100, S120, S130, and S140 related to the error response including appropriate exponents (Eu, El, Er, and Eb) will also be described later.

도 4와 같이 카메라가 양호하게 설치된 경우는 단계 S110이 영상데이터 한 프레임 처리 최종 단계가 된다. 이 단계에서 구해지는 값은 타깃 중심의 물리적 좌표이다. 상기 언급한 바와 같이 타깃 중심의 픽셀 좌표가 (5, 5)이므로 이 것을 비례관계(위의 예의 경우 1 픽셀당 2mm)를 사용하여 물리적 좌표로 변환하면 (10, 10)이 된다. 상기 서술한 도 4의 경우와 마찬가지로, 도 5에 나타낸 영상데이터(900)을 도 3의 순서도에 의해 처리하게 되면 타깃 중심의 필셀 좌표는 (5, 6)이 되고 물리적 좌표는 (10, 12)가 된다. 결론적으로 도 4 대비 도 5의 타깃은 Y 방향으로 2mm 이동하게 된 것이다. 즉 타깃의 변위량이 2mm인 것이다. 참고로 Y 좌표는 아래 방향이 증가하는 방향이다. 이와 같이 처리하는 이유는 통상의 카메라가 위에서 아래로 스캔하는 것에서 기인한다.When the camera is properly installed as shown in FIG. 4, step S110 is the final step of processing one frame of image data. The values obtained in this step are the physical coordinates of the center of the target. As mentioned above, since the pixel coordinates of the center of the target are (5, 5), converting them to physical coordinates using a proportional relationship (2 mm per pixel in the case of the above example) results in (10, 10). As in the case of FIG. 4 described above, when the image data 900 shown in FIG. 5 is processed according to the flowchart of FIG. 3, the pixel coordinates of the center of the target are (5, 6) and the physical coordinates are (10, 12) becomes In conclusion, the target of FIG. 5 compared to FIG. 4 is moved by 2 mm in the Y direction. That is, the displacement of the target is 2 mm. For reference, the Y coordinate is the direction in which the downward direction increases. The reason for this processing is that a normal camera scans from top to bottom.

여기까지 설명한 단계별 내용을 종합하면, 본 발명은 반지름이 알려져 있는 원 또는 구 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 상기 구해진 타깃 중심과 가장 먼 거리에 있는 타깃 픽셀 간의 거리로 타깃 반지름(픽셀 단위)을 구하고; 미리 알려진 타깃의 물리적 반지름(mm 단위)을 상기 구해진 타깃의 반지름(픽셀 단위)으로 나누어(나눗셈 연산) 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 상기 구해진 계수를 상기 구해진 타깃 중심의 픽셀 좌표에 곱하여(곱셈 연산) 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구한다. Summarizing the step-by-step contents described so far, the present invention processes image data captured by a camera of a circular or spherical target with a known radius, obtains the pixel coordinates of the center of the target as the average position of the captured target pixels, ; obtaining a target radius (in pixels) as a distance between the obtained target center and the farthest target pixel; dividing a previously known physical radius (in mm) of the target by the obtained radius (in pixels) of the target (by division operation) to obtain a physical distance coefficient per pixel (mm per pixel); obtaining physical coordinates of the center of the target by multiplying the obtained coefficient by the obtained pixel coordinates of the center of the target (multiplication operation); repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; The displacement amount of the object to which the target is attached is finally obtained as a difference between the continuously obtained physical coordinates of the center of the target.

도 2와 같이 카메라가(500) 타깃(200)의 수직정렬선(800)의 선상에 있지 않게 되는 경우 타깃(200)이 좌우로 비스듬하게 촬영된다. 이와 같이 비스듬하게 촬연된 상황을 도 6에 나타냈다. 도 6에서 보는 바와 같이 촬영된 타깃(960)이 타원 모양으로 찌그러지는 것은 비스듬하게 촬영했기 때문에 당연하다. 좌우로 비스듬하게 촬영된 경우, 타깃 중심의 좌표를 물리적 좌표로 변환 할 때 아래 수학식 2를 사용한다. 수학식 2에서 X는 타깃(960) 중심의 X축(가로 축) 물리적 좌표이고; Xpixel은 타깃(960) 중심의 X축 픽셀 좌표이고; Dt는 실제 타깃(200)의 지름이고; Rl은 영상처리에 의해 구한 왼쪽 반지름이고; Rr은 영상처리에 의해 구한 오른쪽 반지름이고; Y는 타깃(960) 중심의 Y축(세로 축) 물리적 좌표이고; Ypixel은 타깃(960) 중심의 Y축 픽셀 좌표이고; Ru는 영상처리에 의해 구한 윗쪽 반지름이고; Rb는 영상처리에 의해 구한 아래쪽 반지름이다. 여기서 말하는 영상처리에 의해 구해진 반지름들(Rl, Rr, Ru, Rb)은 전술한 영상처리 단계 S70에 의해서 구해진 것을 의미한다. 도 6과 같이 좌우 한쪽으로만 비스듬하게 촬영된 경우에 있어서, Du, Dl, Dr, Db(영상처리 단계 S80에서 계산한 값)는 Ru, Rl, Rr, Rb와 같거나 아주 적은 차이가 난다. 카메라 설치 적정 지수(Eu, El, Er, Eb)가 아주 작은 값으로 되고 판단 단계 S100의 결과는 참이된다. 단계 S100에서 Ex는 Eu, El, Er, Eb 전체를 나타내는 것이고 Tg의 양호한 조건을 나타내는 임계값이다.As shown in FIG. 2 , when the camera 500 is not on the line of the vertical alignment line 800 of the target 200 , the target 200 is photographed obliquely from side to side. Fig. 6 shows the situation in which the photograph was taken obliquely. As shown in FIG. 6, it is natural that the photographed target 960 is distorted in an elliptical shape because the image was photographed obliquely. In the case of shooting at an angle to the left and right, Equation 2 below is used when converting the coordinates of the center of the target into physical coordinates. In Equation 2, X is the X-axis (horizontal axis) physical coordinate of the center of the target 960; Xpixel is the X-axis pixel coordinate of the center of the target 960; Dt is the diameter of the actual target 200; Rl is the left radius obtained by image processing; Rr is the right radius obtained by image processing; Y is the Y-axis (vertical axis) physical coordinate of the center of the target 960; Ypixel is the Y-axis pixel coordinate of the center of the target 960; Ru is the upper radius obtained by image processing; Rb is the lower radius obtained by image processing. The radii (Rl, Rr, Ru, Rb) obtained by the image processing referred to here mean those obtained by the above-described image processing step S70. As shown in FIG. 6, in the case of obliquely photographing only one side of the left and right sides, Du, Dl, Dr, and Db (values calculated in image processing step S80) are equal to or slightly different from Ru, Rl, Rr, and Rb. The camera installation appropriate index (Eu, El, Er, Eb) becomes a very small value and the result of the judgment step S100 becomes true. In step S100, Ex indicates all of Eu, El, Er, and Eb and is a threshold value indicating favorable conditions of Tg.

(수학식 2)(Equation 2)

X = Xpixel * Dt / (Rl + Rr)X = Xpixel * Dt / (Rl + Rr)

Y = Ypixel * Dt / (Ru + Rb)Y = Ypixel * Dt / (Ru + Rb)

상기 수학식 2를 사용하여 픽셀 좌표를 물리적 좌표로 변환하는 것과 관련 전술한 내용을 종합하면, 본 발명은 반지름이 알려져 있는 원 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 타깃의 상하, 좌우 반지를을 영상처리로 구하고; 세로 방향 좌표에 대하여 미리 알려진 타깃의 물리적 지름(mm 단위)을 상기 구해진 타깃의 상하 반지름(픽셀 단위) 둘을 합한 것으로 나누어(나눗셈 연산) 세로방향 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 가로 방향 좌표에 대하여 미리 알려진 타깃의 물리적 지름(mm 단위)을 상기 구해진 타깃의 좌우 반지름(픽셀 단위) 둘을 합한 것으로 나누어(나눗셈 연산) 가로방향 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 상기 구해진 두가지의 계수를 상기 구해진 타깃 중심의 픽셀 Y, X 좌표에 각각 곱하여(곱셈 연산) 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구한다. Summarizing the above information related to the conversion of pixel coordinates into physical coordinates using Equation 2 above, the present invention processes image data taken by a camera of a target in the form of a circle with a known radius to obtain a target center (Center) obtaining the pixel coordinates of the average of the positions of the captured target pixels; Obtaining the upper, lower, left and right rings of the target through image processing; A physical distance coefficient per pixel in the vertical direction (mm per pixel) is obtained by dividing a previously known physical diameter (unit of mm) of the target with respect to the vertical coordinate by the sum of two of the obtained upper and lower radii (unit of pixel) of the target (by division operation); obtaining a physical distance coefficient per pixel in the horizontal direction (mm per pixel) by dividing a previously known physical diameter (in mm) of the target with respect to horizontal coordinates by the sum of two left and right radii (in pixels) of the obtained target (division operation); multiplying the obtained two coefficients by the obtained pixel Y and X coordinates of the center of the target (multiplication operation) to obtain physical coordinates of the center of the target; repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; The displacement amount of the object to which the target is attached is finally obtained as a difference between the continuously obtained physical coordinates of the center of the target.

도 7은 카메라(500)가 타깃(200)을 촬영할 때 상하, 좌우 두 축 모두에 대해서 비스듬하게 설정된 경우를 나타낸 것이다. 전술한 동일한 방법(영상처리 단계 S70과 S80)으로 반지름(Ru, Rl, Rr, Rb)과 축방향 성분 거리(Du, Dr, Dl, Db)를 구한 결과를 도 7에 표시했다. 영상처리 단계 S90에서 구하는 카메라 설치 적정 지수(Eu, El, Er, Eb)의 값은 비스듬하게 설치된 정도에 따라서 변한다. 영상처리 적정 지수 값들 중 어느 하나(Ex)라도 임계값(Tn)과 같거나 크면 설치 점검 권장 표시 단계(S140)이 수행된다. 적정 지수와 임계값의 비교는 영상처리 단계 S120에서 하게되는 적정 지수가 임계값 보다 작으면 오차 보정 단계(S130)를 실행한다. 오차 보정은 반지름(Ru, Rl, Rr, Rb)과 축방향 성분 거리(Du, Dr, Dl, Db)의 값에 따라 여러 가지 방법으로 가능한데, 가장 쉬운 방밥의 상하 축과 좌우 축의 비스듬한 정도의 비율을 구하여 픽셀 좌표를 물리적 좌표로 변환하는 과정에서 구해진 비율을 반영한다.7 shows a case where the camera 500 is set obliquely with respect to both the vertical and horizontal axes when capturing the target 200 . Fig. 7 shows the results of radii (Ru, Rl, Rr, Rb) and axial component distances (Du, Dr, Dl, Db) obtained by the same method as described above (image processing steps S70 and S80). The value of the camera installation appropriate index (Eu, El, Er, Eb) obtained in the image processing step S90 changes according to the degree of oblique installation. If any one of the appropriate image processing index values (Ex) is equal to or greater than the threshold value (Tn), an installation inspection recommendation display step (S140) is performed. In the comparison between the appropriate index and the threshold value, if the appropriate index performed in the image processing step S120 is smaller than the threshold value, an error correction step (S130) is executed. Error correction is possible in several ways depending on the values of the radius (Ru, Rl, Rr, Rb) and the axial component distance (Du, Dr, Dl, Db). is obtained and the ratio obtained in the process of converting pixel coordinates into physical coordinates is reflected.

상기 도 7에 대한 설명을 종합하면, 본 발명은 원 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 상기 구해진 타깃 중심과 가장 먼 거리에 있는 타깃 픽셀 간의 거리로 타깃 반지름(Ru, Rl, Rr, Rb) 을 구하고; 상기 반지를을 벡터로 표현했을 때 가로/세로 축 성분에 해당하는 성분 거리(Du, Dr, Dl, Db)를 구하고;상기 반지름과 상기 성분 거리의 차(카메라 설치 적정 지수 Eu, El, Er, Eb)가 일정치 이상이면 사용자에게 카메라 설치 점검 권장 표시를 해준다. 상기 카메리 설치 적정 지수는 잡음이 발생한 경우에도 큰 값을 갖게 되므로 이값은 종합적으로 사용환경에 대한 정보를 제공해준다.Summarizing the description of FIG. 7, the present invention processes image data of a circular target captured by a camera to obtain pixel coordinates of a center of the target as an average of the positions of the captured target pixels; obtaining target radii (Ru, Rl, Rr, Rb) as the distance between the obtained target center and the farthest target pixel; When the ring is expressed as a vector, component distances (Du, Dr, Dl, Db) corresponding to the horizontal / vertical axis components are obtained; The difference between the radius and the component distance (camera installation appropriate index Eu, El, Er, If Eb) is above a certain value, a camera installation inspection recommendation is displayed to the user. Since the camera installation appropriateness index has a large value even when noise occurs, this value comprehensively provides information on the use environment.

Claims (3)

반지름이 알려진 원 또는 구 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 상기 구해진 타깃 중심과 가장 먼 거리에 있는 타깃 픽셀 간의 거리로 타깃 반지름(픽셀 단위)을 구하고; 미리 알려진 타깃의 물리적 반지름(mm 단위)을 상기 구해진 타깃의 반지름(픽셀 단위)으로 나누어(나눗셈 연산) 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 상기 구해진 계수를 상기 구해진 타깃 중심의 픽셀 좌표에 곱하여(곱셈 연산) 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구하는 방법.
processing image data captured by a camera of a circular or spherical target having a known radius, and obtaining pixel coordinates of a center of the target as an average of positions of the captured target pixels; obtaining a target radius (in pixels) as a distance between the obtained target center and the farthest target pixel; dividing a previously known physical radius (in mm) of the target by the obtained radius (in pixels) of the target (by division operation) to obtain a physical distance coefficient per pixel (mm per pixel); obtaining physical coordinates of the center of the target by multiplying the obtained coefficient by the obtained pixel coordinates of the center of the target (multiplication operation); repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; A method of finally obtaining a displacement amount of an object to which a target is attached by a difference between the continuously obtained physical coordinates of the center of the target.
반지름이 알려진 원 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 타깃의 상하, 좌우 각각의 반지름을 영상처리로 구하고; 세로 방향 좌표에 대하여 미리 알려진 타깃의 물리적 지름(mm 단위)을 상기 구해진 타깃의 상하 반지름(픽셀 단위) 둘을 합한 것으로 나누어(나눗셈 연산) 세로방향 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 가로 방향 좌표에 대하여 미리 알려진 타깃의 물리적 지름(mm 단위)을 상기 구해진 타깃의 좌우 반지름(픽셀 단위) 둘을 합한 것으로 나누어(나눗셈 연산) 가로방향 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 상기 구해진 두가지의 계수를 상기 구해진 타깃 중심의 픽셀 Y, X 좌표에 각각 곱하여(곱셈 연산) 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구하는 방법
Processing image data of a circular target of known radius with a camera to obtain pixel coordinates of the center of the target as an average of the positions of the captured target pixels; Obtaining the radii of each of the top, bottom, left and right sides of the target through image processing; A physical distance coefficient per pixel in the vertical direction (mm per pixel) is obtained by dividing a previously known physical diameter (unit of mm) of the target with respect to the vertical coordinate by the sum of two of the obtained upper and lower radii (unit of pixel) of the target (by division operation); obtaining a physical distance coefficient per pixel in the horizontal direction (mm per pixel) by dividing a previously known physical diameter (in mm) of the target with respect to horizontal coordinates by the sum of two left and right radii (in pixels) of the obtained target (division operation); multiplying the obtained two coefficients by the obtained pixel Y and X coordinates of the center of the target (multiplication operation) to obtain physical coordinates of the center of the target; repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; A method of finally obtaining the amount of displacement of an object to which the target is attached with the difference between the continuously obtained physical coordinates of the center of the target
원이나 구 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 상기 구해진 타깃 중심과 상하좌우 방향의 극점(상하좌우 각 축 방향으로 가장 먼 거리에 있는 타깃 픽셀을 말함. 카메라 정렬이 잘 된 경우는 중심축 상에 극점이 있으나 그렇지 않은 경우는 축에서 벗어남) 간의 거리로 타깃 반지름(Ru, Rl, Rr, Rb) 을 구하고; 상기 극점을 벡터로 표현했을 때 가로/세로 축 성분에 해당하는 성분 거리(Du, Dr, Dl, Db)를 구하고; 상기 반지름과 상기 성분 거리의 차(카메라 설치 적정 지수 Eu, El, Er, Eb)가 일정값 이상이면 사용자에게 카메라 설치 점검 권장 표시해주는 방법.
Processing image data of a circular or spherical target captured by a camera to obtain pixel coordinates of a center of the target as an average of the positions of the captured target pixels; Between the obtained target center and the poles in the up, down, left and right directions (meaning the farthest target pixel in each axis direction. If the camera is well aligned, the pole is on the central axis, but if not, it is off the axis) Find the target radius (Ru, Rl, Rr, Rb) by distance; When the poles are expressed as vectors, component distances (Du, Dr, Dl, Db) corresponding to the horizontal/vertical axis components are obtained; If the difference between the radius and the component distance (camera installation appropriate index Eu, El, Er, Eb) is greater than a certain value, the user is recommended to check the camera installation.
KR1020210013763A 2021-01-30 2021-01-30 Displacement Measuring Methods using a camera KR102502540B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210013763A KR102502540B1 (en) 2021-01-30 2021-01-30 Displacement Measuring Methods using a camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210013763A KR102502540B1 (en) 2021-01-30 2021-01-30 Displacement Measuring Methods using a camera

Publications (2)

Publication Number Publication Date
KR20220110431A KR20220110431A (en) 2022-08-08
KR102502540B1 true KR102502540B1 (en) 2023-02-21

Family

ID=82845377

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210013763A KR102502540B1 (en) 2021-01-30 2021-01-30 Displacement Measuring Methods using a camera

Country Status (1)

Country Link
KR (1) KR102502540B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077683A1 (en) * 2010-12-09 2012-06-14 旭硝子株式会社 Method and system for measuring defect in glass ribbon
JP5339070B2 (en) * 2009-03-26 2013-11-13 サクサ株式会社 Displacement measuring apparatus and measuring method
JP5639773B2 (en) * 2010-03-11 2014-12-10 株式会社ミツトヨ Image measuring machine

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10173978A (en) * 1996-12-13 1998-06-26 Mitsubishi Electric Corp Tracking error detecting device
KR20020060459A (en) 2001-01-11 2002-07-18 김택 Measuring system of pile penetration depth
KR100437275B1 (en) 2001-06-29 2004-06-23 삼성물산 주식회사 Method for for measuring displacement of moving body formed of displacement measuring mark using line scan camera
KR100458290B1 (en) 2001-12-27 2004-12-03 고속도로관리공단 Method for Measuring Displacement of Structural Members
JP4948660B2 (en) 2010-05-14 2012-06-06 西日本旅客鉄道株式会社 Structure displacement measurement method
KR101193076B1 (en) 2011-03-08 2012-10-22 주식회사 포스코건설 System for real-time measuring penetration depth of pile using 3D photogrammetry
KR101434393B1 (en) 2014-06-25 2014-08-27 세안기술 주식회사 A displacement vibration measuring method using camera image
KR102039443B1 (en) 2019-07-29 2019-11-01 정창식 Measuring system of pile penetration depth of pile driver
KR102201871B1 (en) 2019-08-22 2021-01-11 윤춘호 Apparatus and method for measuring final penetration of foundation pile pile using laser

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5339070B2 (en) * 2009-03-26 2013-11-13 サクサ株式会社 Displacement measuring apparatus and measuring method
JP5639773B2 (en) * 2010-03-11 2014-12-10 株式会社ミツトヨ Image measuring machine
WO2012077683A1 (en) * 2010-12-09 2012-06-14 旭硝子株式会社 Method and system for measuring defect in glass ribbon

Also Published As

Publication number Publication date
KR20220110431A (en) 2022-08-08

Similar Documents

Publication Publication Date Title
US8970853B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
CN108230397B (en) Multi-view camera calibration and correction method and apparatus, device, program and medium
JP5075757B2 (en) Image processing apparatus, image processing program, image processing method, and electronic apparatus
EP1343332A2 (en) Stereoscopic image characteristics examination system
US8248465B2 (en) Measuring endoscope apparatus and program
CN108074237B (en) Image definition detection method and device, storage medium and electronic equipment
US11295426B2 (en) Image processing system, server apparatus, image processing method, and image processing program
CN108489423B (en) Method and system for measuring horizontal inclination angle of product surface
JP2013113600A (en) Stereo three-dimensional measuring apparatus
KR20110068375A (en) Method for adjusting parameters in distortion calibration of image acquired by camera having fish eye lens
CN112102387B (en) Test method and test system based on depth estimation performance of depth camera
CN106643567A (en) Lane deviation system production line calibration board verification method and system
KR100690172B1 (en) method for extracting 3-dimensional coordinate information from 3-dimensional image using mobile phone with multiple cameras and terminal thereof
CN111131801B (en) Projector correction system and method and projector
JP2011069797A (en) Displacement measuring device and displacement measuring method
KR102502540B1 (en) Displacement Measuring Methods using a camera
KR20200046789A (en) Method and apparatus for generating 3-dimensional data of moving object
WO2015159791A1 (en) Distance measuring device and distance measuring method
JP5339070B2 (en) Displacement measuring apparatus and measuring method
JP2017040542A (en) Information processing device, information processing method, and program
JP5206499B2 (en) Measuring method, measuring device, measurement control program
KR20110100568A (en) Method and system for shroud nozzle centering guidance
KR20110112953A (en) Apparatus for measuring dynamic displacement of floating structure and vision-based unit thereof
CN117717367B (en) Auxiliary positioning system and method for standing position computer tomography
CN116563388B (en) Calibration data acquisition method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant