KR102502540B1 - Displacement Measuring Methods using a camera - Google Patents
Displacement Measuring Methods using a camera Download PDFInfo
- Publication number
- KR102502540B1 KR102502540B1 KR1020210013763A KR20210013763A KR102502540B1 KR 102502540 B1 KR102502540 B1 KR 102502540B1 KR 1020210013763 A KR1020210013763 A KR 1020210013763A KR 20210013763 A KR20210013763 A KR 20210013763A KR 102502540 B1 KR102502540 B1 KR 102502540B1
- Authority
- KR
- South Korea
- Prior art keywords
- target
- center
- coordinates
- camera
- pixel
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/16—Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/08—Measuring arrangements characterised by the use of optical techniques for measuring diameters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/003—Alignment of optical elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은, 반지름이 알려져 있는 원 또는 구 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 촬영된 타깃의 계산된 지름(단위: 픽셀)과 실제 지름의 비율을 곱하여 타깃 중심의 픽셀 좌표로부터 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구하는 방법을 제시한다. 또한, 설치된 카메라가 타깃의 정면을 향하지 않고 있을 때, 변위량 측정 오차을 자동으로 보정하거나 사용자에게 카메라를 재설치할 것을 권장하는 방법을 제시한다.The present invention processes image data captured by a camera of a circular or spherical target having a known radius, and obtains pixel coordinates of the center of the target as an average of the positions of the captured target pixels; obtain the physical coordinates of the center of the target from the pixel coordinates of the center of the target by multiplying the ratio of the calculated diameter (unit: pixels) of the captured target to the actual diameter; repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; A method of finally obtaining the amount of displacement of an object attached to a target with the difference between the continuously obtained physical coordinates of the center of the target is proposed. In addition, when the installed camera is not facing the front of the target, a method of automatically correcting the displacement measurement error or recommending the user to reinstall the camera is presented.
Description
본 발명은 물체의 변위량을 측정하는 방법에 관한 것으로, 구체적으로는 카메라로 촬영한 타깃(원형 또는 구형 마크) 영상을 처리하여 변위량을 측정하는 방법에 관한 것이다. 특징으로는 카메라 설치의 적정성을 판별 기능과 바람직하지 않은 카메라 설치에 대한 자동 오차 보정 기능이 있고, 또한 스마트폰 애플리케이션으로 구현하기 용이하다. The present invention relates to a method for measuring the amount of displacement of an object, and more specifically, to a method for measuring the amount of displacement by processing an image of a target (circular or spherical mark) captured by a camera. Features include a function to determine the appropriateness of camera installation and an automatic error correction function for undesirable camera installation, and it is also easy to implement as a smartphone application.
선행기술문헌에 명시된 특허문헌들을 통해서 알 수 있듯이 변위량 측정은 여러 산업 분야에서 필요하다. 변위량 측정의 대표적인 두 가지 응용 예로는 파일(Pile, 말뚝)의 관입량 측정기(항타관리기라고도 부름)와 구조물 변형 감시기(구조물 변위량 측정기라고도 부름)가 있다. 상기 두 가지 응용 예들은 변위량을 측정하는 공통점이 있지만, 사용 환경에 따라서 우선시되는 요구 조건은 다르다. 관입량 측정기는 건설공사 현장에서 파일을 땅에 밖을 때 주로 사용하는 것으로서, 설치 시간이 짧아야 하고 측정 정밀도는 mm단위 정도이다. 반면 구조물 변형 감시기는 주로 교량이나 건물의 변형을 감시하기 위한 것으로서, 상대적으로 설치 시간에 대해서 덜 민감하지만, 고 정밀도가 요구되고 장시간 측정할 수 있어야 한다. 상기 언급한 요구 조건은 후술하는 기술 비교에서 다시 언급된다.As can be seen through the patent documents specified in the prior art documents, displacement measurement is required in various industrial fields. Two typical applications of displacement measurement are a pile penetration measurement device (also called a pile driver) and a structure deformation monitor (also called a structure displacement measurement device). The above two application examples have a common point of measuring displacement, but prioritized requirements are different depending on the use environment. Penetration measuring instruments are mainly used when expelling piles from the ground at construction sites, and the installation time should be short and the measurement accuracy is about mm. On the other hand, structural deformation monitors are mainly for monitoring the deformation of bridges or buildings, and are relatively less sensitive to installation time, but require high precision and must be able to measure for a long time. The above-mentioned requirements are mentioned again in the technology comparison described below.
자동으로 변위량을 측정하는 방법은 크게 3가지로 나눌 수 있다. 방법 1)은 센서나 레이저 측정기를 변위량 측정 대상물에 부착하는 것이 특징이고; 방법 2)는 카메라를 이용하여 측정 대상물의 변위량을 영상처리 기법으로 구하는 것이고; 방법 3)은 방법 2)와 같이 카메라 영상처리 기법을 사용하되 대상물 자체에 대한 영상을 처리하는 것이 아니고 측정 대상물에 부착된 타깃(인식 마크)의 영상을 처리한다. 선행기술문헌에 나열된 특허문헌의 기술들을 응용 분야와 변위량 측정 방법으로 분류해보면 아래 표 1과 같다.There are three methods of automatically measuring the amount of displacement. Method 1) is characterized by attaching a sensor or laser measuring device to the displacement measurement object; Method 2) is to obtain the amount of displacement of the object to be measured using an image processing technique using a camera; Method 3) uses a camera image processing technique like method 2), but processes the image of the target (recognition mark) attached to the measurement object rather than processing the image of the object itself. The technologies in the patent literature listed in the prior art literature are classified into application fields and displacement measurement methods as shown in Table 1 below.
감시기transform
monitor
센서/레이저 사용 Method 1)
Use of sensor/laser
카메라 사용 Method 2)
camera use
카메라 + 타깃 사용 Method 3)
Use camera + target
위의 표 1의 변위량 측정 방법의 분류별로 장단점을 비교해봄으로써 선행기술의 문제점들을 이해할 수 있고, 본 발명에서 개선하고자 하는 내용도 쉽게 이해할 수 있다. 분류별 공통적인 장단점 먼저 비교하고, 그 이후에 선행기술의 고유한 내용에 대해서도 설명한다.By comparing the advantages and disadvantages of each classification of the displacement measurement method in Table 1 above, problems in the prior art can be understood, and contents to be improved in the present invention can be easily understood. The common strengths and weaknesses of each classification are compared first, and then the unique contents of prior art are also explained.
상기 방법 1)은 센서나 레이저 거리 측정기를 사용하고, 측정 정밀도가 낮아서 주로 관입량 측정기에 사용되는데 설치가 복잡하고 설치에 긴 시간을 요한다. 관입량 측정기가 사용되는 작업환경을 고려해보면 설치가 복잡하고 긴 시간을 요하는 것은 치명적인 단점이다. 방법 1)은 위의 표에 나열된 3가지 변위량 측정 방법들 중 성능 및 사용의 편리성 측면에서 가장 낮다.Method 1) uses a sensor or a laser distance meter, and is mainly used for penetration measurement because of low measurement precision, but the installation is complicated and requires a long time to install. Considering the working environment in which the penetration meter is used, it is a fatal disadvantage that the installation is complicated and takes a long time. Method 1) is the lowest in terms of performance and ease of use among the three displacement measurement methods listed in the table above.
상기 방법 2)는 카메라로 촬영한 영상을 처리하여 변위량을 측정한다. 이 방법의 시스템 구성(통상적으로 카메라, 카메라 고정 삼각대, 영상 처리 장치)은 타 방법에 비해 상대적으로 간단한 반면 아래와 같은 큰 두 가지 단점이 있다. 측정 대상물 자체의 움직임을 검출하기 위해 주로 촬영한 영상신호를 미분하여 윤곽선 추출을 한다. 그런데 일반적으로 알려진 바와 같이 신호를 미분하는 것은 잡음에 취약하고, 경우에 따라서는 윤곽선의 움직임을 파악할 수 없는 경우가 있다. 예를 들어, 건설공사 현장에서 파일을 박는 경우(관입량을 측정하고자 하는 경우) 윤곽선이 수직방향으로만 형성이 되기 때문에 수직 변위를 검출할 수 없다. 그래서 방법 2)는 관입량 측정기에 사용하기 어렵다. 또 다른 단점은 변위량 측정기를 설치할 때마다 측정 대상물로부터 카메라까지의 거리(설치 거리)를 측정하고, 카메라의 초점 거리도 구해야 한다. 이로 인하여 변위량 측정기 설치 시간이 길어지고, 설치 거리와 초점 거리의 오차가 변위량 측정의 오차를 유발한다. 방법 2)의 긴 설치 시간으로 인하여 관입량 측정기에 사용하는 것이 적합하지 않다. 또한, 카메라의 초점 거리도 쉽게 구해지는 것은 아니다.Method 2) measures the amount of displacement by processing the image captured by the camera. Although the system configuration of this method (typically a camera, a camera-fixed tripod, and an image processing device) is relatively simple compared to other methods, it has two major disadvantages as follows. In order to detect the motion of the measurement object itself, the contour line is extracted by differentiating the mainly photographed video signal. However, as is generally known, differentiating a signal is vulnerable to noise, and in some cases, the motion of a contour line cannot be grasped. For example, when driving piles at a construction site (to measure the amount of penetration), vertical displacement cannot be detected because the outline is formed only in the vertical direction. So method 2) is difficult to use for penetration measurement. Another disadvantage is that whenever a displacement measuring instrument is installed, the distance from the measuring object to the camera (installation distance) must be measured and the focal length of the camera must also be obtained. As a result, the time required to install the displacement measurement device increases, and the error between the installation distance and the focal length causes an error in displacement measurement. Due to the long installation time of method 2), it is not suitable to use it as a penetration meter. Also, the focal length of the camera is not easily obtained.
상기 방법 3)은 상기 방법 2)의 단점을 개선하기 위해서 미리 정해진 타깃(측정 대상물에 부착 혹은 인쇄한 인식 마크)를 사용한다. 방법 3)의 타깃 설치가 방법 2) 대비 유일한 단점인데, 변위 측정 대상물의 시공 전에 타깃 설치를 사전 작업으로 해둘 수 있기 때문에 큰 단점은 아니다. 그런데 방법 3)의 분류에 속하는 종래 기술은 방법 2)의 단점을 개선하지만 다른 단점을 야기한다. 방법 3)의 종래의 기술은 카메라가 타깃과 수직 정렬이 안 되면 큰 측정 오차를 유발하는 단점이 있다. 본 발명은 여러 가지 개선점이 있는데, 그 중의 하나가 상기 수직 정렬 문제를 개선하는 것이다.Method 3) uses a predetermined target (recognition mark attached or printed on the object to be measured) in order to improve the disadvantages of method 2). The target installation of method 3) is the only disadvantage compared to method 2), but it is not a big disadvantage because the target installation can be done as a preliminary work before the construction of the displacement measurement object. By the way, the prior art belonging to the classification of method 3) improves the disadvantages of method 2) but causes other disadvantages. The conventional technique of method 3) has a disadvantage of causing a large measurement error when the camera is not vertically aligned with the target. The present invention has several improvements, one of which is to improve the vertical alignment problem.
이상과 같이 변위 측정 방법별로 선행기술의 공통 장단점을 살펴보았고, 이하 본 발명의 방법이 속하는 상기 방법 3)의 개별 선행기술들에 대한 단점을 서술한다. As described above, the common advantages and disadvantages of the prior art for each displacement measurement method have been reviewed, and the disadvantages of the individual prior arts of the method 3) to which the method of the present invention belongs will be described below.
특허문헌 3의 기술은 명시적으로는 상기 방법 2)에 속하나 묵시적으로 방법 3)의 내용도 포한되어 있어 본 발명과 비교한다. 특허문헌 3의 기술은 관입량을 측정하기 위해서 2개의 카메라를 사용하고, 이 2개의 카메라의 촬영 순간을 동기화 하기위해 특별한 동기발생장치를 사용한다. 특허문헌 3의 기술은 본 발명 대비 사용하는 카메라 수가 많고 또한 동기발생장치를 사용함으로 인하여 하드웨어의 비용이 훨씬 고가이고, 설치 시간이 매우 길어 작업이 신속하게 이루어져야 하는 건설공사현장에서 사용하기 적합하지 않다.The technology of
특허문헌 6의 기술이 본 발명과 가장 유사한 것이다. 그런데 이 기술은 타깃과 카메라가 수직정렬(타깃 평면과 카메라까지 연장선이 수직이고, 그 평면과 그 연장선이 타깃의 중심에서 교차)되지 않았을 때 발생하는 오차에 대한 대책이 없고, 두 개의 타깃(인식 마크)를 요한다. 수직정렬이 되지 않았을 때의 문제점은 본 발명의 상세 설명에서 다시 언급한다. 본 발명은 원이나 구 형태의 하나의 타깃만을 사용하기 때문에 설치 및 관리가 쉽다. 또한, 특허문헌 6의 기술은 두 개의 타깃을 설치한 후 이들 간의 거리를 파라미터로 입력해야 하는데 이것은 설치 시간을 더 소요하고, 거리 측정 오차가 변위량 측정 오차를 유발한다.The technology of
특허문헌 7의 기술은 카메라와 타깃을 사용하는 관점에서 본 발명과 같은 기술 분류이나, 변위량을 카메라에 촬영된 바코드의 값으로 결정한다. 이것의 가장 큰 단점은 최소 측정 단위가 바코드의 길이에 의해서 결정된다. 바코드가 원거리에서 제대로 식별되기 위해서는 바코드의 바가 일정 길이 이상으로 되어야 하는데, 그 길이가 최소 측정 단위를 결정하게 되어 미세 변위 측정이 어렵다.The technology of
특허문헌 8의 기술의 최대 장점은 라인스캔 카메라를 사용하여 고속 측정이 가능하게 하는 것인데, 이 기술이 출원 당시 카메라 기술을 감안하면 의미 있는 장점이라고 할 수 있으나 현재의 카메라 기술을 감안해보면 장점이라 할 수 없고, 라인스캔 카메라의 희소성으로 인하여 가격이 오히려 더 비쌀 수 있다. 이 뿐만아니라 특허문헌 6의 기술과 같은 수직정렬 문제도 있다. The biggest advantage of the technology of
본 발명은 상기 대상 물체의 번위량을 측정하는 종래 기술의 문제점들을 해결하기 위한 것으로, 주요 사용 장소인 건설공사 현장에서 단시간 내에 설치 가능한 쉬운 설치; 상기 언급된 수직정렬이 되지 않은 경우 오차를 자동으로 보정하거나 혹은 적어도 잘못 설치된 요소를 사용자에게 알릴 수 있는 오차 대응력; 종래 기술 대비 하나의 카메라와 하나의 타깃만을 사용하는 시스템의 간소성; 잡음에 대한 영향을 줄이는 시스템 강건성; 스마트폰 애플리케이션으로 구현 가능한 방법으로 사용자 편리성 등을 해결하고자 하는 과제로 한다.The present invention is to solve the problems of the prior art for measuring the displacement of the target object, easy installation that can be installed in a short time at the construction site, which is the main place of use; Error responsiveness capable of automatically correcting an error when the aforementioned vertical alignment is not achieved or at least informing a user of an incorrectly installed element; simplicity of the system using only one camera and one target compared to the prior art; system robustness to reduce impact on noise; It is a task to solve user convenience in a way that can be implemented as a smartphone application.
본 발명의 변위량 측정 방법은 하드웨어적인 요소와 소프트웨어적인 요소를 필요로한다. 하드웨어적인 요소는 지름의 크기가 미리 알려진 원이나 구의 타깃(인식 마크), 타깃을 원거리에서 촬영할 수 있는 카메라, 그리고 이 카메라로부터 출력되는 영상처리를 할 수 있는 PC나 스마트폰 같은 연산장치로 구성된다. 소프트웨어적인 요소는 촬영된 영상으로부터 타깃의 위치를 연속적으로 계산하고, 연속적으로 계산된 위치들 간의 차이를 변위량으로 계산하는 알고리즘을 의미한다.The displacement measurement method of the present invention requires hardware elements and software elements. The hardware element consists of a target (recognition mark) of a circle or sphere whose diameter is known in advance, a camera that can photograph the target from a distance, and an arithmetic device such as a PC or smartphone that can process the image output from the camera. . The software element refers to an algorithm that continuously calculates the position of a target from a photographed image and calculates a difference between consecutively calculated positions as a displacement amount.
도 1을 참조하여 하드웨어적인 요소를 좀 더 설명한다. 도 1은 본 발명의 기술이 관입량 측정기로 사용된 건설공사 현장을 예를 도시한 것이다. 파일(300)을 지면(400)에 박기 위해 해머(100)로 파일을 내리치게 되는데, 이때 파일에 부착된 타깃(200)의 변위량으로 파일의 관입량을 계산한다. 카메라와 연산장치가 일체로 되어 있는 스마트폰(500)이 타깃으로부터 원거리에 설치되어 있고, 촬영한 타깃의 영상(610)이 스마트폰 화면에 나타나 있다. 스마트폰 설치용 삼각대(700)는 특별한 것이 아니다. 이후 설명에서 언급될 수직정렬라인(800)도 도시되어 있다. 본 발명에서 하드웨어적인 요소는 특별한 것이 아니고, 핵심적인 내용은 소프트웨어적인 요소에 의해서 결정된다.Referring to FIG. 1, hardware elements will be described in more detail. 1 shows an example of a construction site in which the technology of the present invention is used as an intrusion amount meter. In order to drive the
도 3를 참조하여 상기 소프트웨어적인 요소를 좀 더 설명한다. 도 3은 본 발명의 방법을 설명하기 위한 순서도 이다. 이 순서도는 타깃을 촬영한 영상 데이터를 프레임 단위로 획득하는 단계(S10); 카메라가 보내주는 영상 데이터를 순차적으로 읽어오는 단계(S20); 순차적으로 들어오는 영상의 픽셀 값을 임계치(Tt)와 비교하는 단계(S30); 상기 비교결과 타깃 픽셀 해당하는 경우 그 픽셀의 X(가로 방향) 및 Y(세로 방향) 좌표를 저장하고 픽셀의 최소, 최댓값을 추적하는 단계(S40); 영상 프레임의 끝을 판별하여 반복 여부를 결정하는 단계(S50); 상기 단계(S40)에서 저장한 픽셀 좌표의 평균값으로 타깃의 중심 좌표를 계산하는 단계(S60); X, Y 각각의 좌표에 대하여 최저/최고점들(X, Y축 각각에 대하여 최저/최고점, 모두 4점)과 상기 단계(S60)에서 계산한 중심 좌표 간의 거리를 계산하는 단계(S70); 상기 최저/최고점들과 상기 중심 좌표 간의 거리 벡터에서 각 축의 성분을 구하는 단계(S90); 상기 단계(S70)과 단계(80)에서 구해진 값들의 차이로 오차 보정을 결정할 지수(Eu, El, Er,Eb)를 구하는 단계(S90); 상기 단계(S90)에서 계산된 지수를 임계값들(Tg와 Tn)과 비교하여 오차 보정 여부 및 카메라의 재설치 여부를 판단하는 단계(S100, S120); 상기 여부 판단 결과에 따라 거치게 되는 오차 보정 단계(S130); 타깃 중심의 좌표를 픽셀 좌표에서 물리적 좌표로 변환하는 단계(S110); 상기 여부 판단 단계(S100, S120)의 결과가 유의미한 좌표를 계산할 수 없는 경우 사용자에게 카메라 설치를 재점검하도록 권장하는 메시지를 표시하는 단계(S140)로 구성되어 있다.Referring to FIG. 3, the software element will be described in more detail. 3 is a flowchart for explaining the method of the present invention. This flowchart includes the steps of acquiring image data of a target photographed in units of frames (S10); sequentially reading image data sent from the camera (S20); Comparing pixel values of sequentially incoming images with a threshold value (Tt) (S30); Storing the X (horizontal direction) and Y (vertical direction) coordinates of the target pixel as a result of the comparison and tracking the minimum and maximum values of the pixel (S40); determining whether to repeat by determining the end of an image frame (S50); calculating center coordinates of the target with the average value of the pixel coordinates stored in step S40 (S60); Calculating the distance between the lowest/highest points for each of the X and Y coordinates (the lowest and highest points for each of the X and Y axes, a total of 4 points) and the center coordinate calculated in step S60 (S70); obtaining components of each axis from the distance vector between the lowest/highest points and the center coordinates (S90); Obtaining exponents (Eu, El, Er, Eb) for determining error correction using the difference between the values obtained in steps S70 and step 80 (S90); comparing the index calculated in the step (S90) with the threshold values (Tg and Tn) to determine whether to correct errors and reinstall the camera (S100, S120); An error correction step (S130) performed according to the determination result; converting the coordinates of the center of the target from pixel coordinates to physical coordinates (S110); When the result of the determination step (S100, S120) is unable to calculate meaningful coordinates, a message recommending the user to recheck the camera installation is displayed (S140).
본 발명은 변위량 측정 기술이 사용되는 응용 분야(관입량 측정기, 구조물 변형 감시기)의 요구조건(설치의 신속성 및 용이성, 오차 보정, 카메라 설치의 정적성 판단)을 충족시키고, 또한 잡음에 대한 대응력 등 사용 환경에 영향을 받는 요소들에 대해서 개선한다. 구체적으로는, 주요 사용 장소인 건설공사 현장에서 단시간 내에 설치 가능한 쉬운 설치; 상기 언급된 수직정렬이 되지 않은 경우 오차를 자동으로 보정하거나 혹은 적어도 잘못 설치된 요소를 사용자에게 알릴 수 있는 오차 대응력; 종래 기술 대비 하나의 카메라와 하나의 타깃만을 사용하는 시스템의 간소성; 잡음에 대한 영향을 줄이는 시스템 강건성; 스마트폰 애플리케이션으로 구현 가능한 방법으로 사용자 편리성 등에 대하여 개선한다.The present invention satisfies the requirements (quickness and ease of installation, error correction, determination of the statics of camera installation) of application fields (penetration measurer, structural deformation monitor) where displacement measurement technology is used, and also responds to noise, etc. Improve the factors affected by the usage environment. Specifically, easy installation that can be installed in a short time at the construction site, which is the main place of use; Error responsiveness capable of automatically correcting an error when the aforementioned vertical alignment is not achieved or at least informing a user of an incorrectly installed element; simplicity of the system using only one camera and one target compared to the prior art; system robustness to reduce impact on noise; Improve user convenience in a way that can be implemented as a smartphone application.
본 발명의 기술을 채택한 관입량 측정기는, 건설공사 현장에서 파일을 땅에 박을 때 관입량을 원거리에서 측정하므로써 작업자의 안전을 확보하고 파일 시공 결과의 적정성 판단에 신뢰할만한 데이터를 제공한다. 또한, 본 발명의 기술을 채택한 구조물 변형 감시기는 선행기술 대비 오차 보정 측면과 잡음 대응력 측면에서 우수하다.The penetration amount measuring device employing the technology of the present invention secures the safety of workers by measuring the penetration amount from a distance when a pile is driven into the ground at a construction site, and provides reliable data for determining the adequacy of pile construction results. In addition, the structure deformation monitor adopting the technology of the present invention is superior in terms of error correction and noise response compared to the prior art.
도 1은 본 발명의 기술이 사용되는 예
도 2는 종래 기술의 문제점과 본 발명의 개선점을 설명하기 위한 도면
도 3은 본 발명의 변위량 측정 방법의 순서도
도 4는 본 발명의 변위량 측정을 설명하기 위한 도면(카메라 설치 양호)
도 5는 본 발명의 변위량 측정을 설명하기 위한 도면(변위 발생)
도 6은 본 발명의 변위량 측정을 설명하기 위한 도면(카메라 설치 불량)
도 7은 본 발명의 변위량 측정을 설명하기 위한 도면(카메라 설치 불량)1 is an example in which the technology of the present invention is used
Figure 2 is a view for explaining the problems of the prior art and the improvements of the present invention
3 is a flow chart of a displacement measurement method of the present invention
4 is a view for explaining displacement measurement of the present invention (camera installation is good)
5 is a view for explaining displacement measurement of the present invention (displacement generation)
6 is a view for explaining displacement measurement of the present invention (camera installation failure)
7 is a view for explaining displacement measurement of the present invention (camera installation failure)
이하 설명의 편의성을 위해 특정한 예시를 기준으로 본 발명 실시를 위한 구체적인 내용을 서술하지만, 본 발명의 응용 분야가 이러한 예시에만 국한된 것을 의미하지는 않고, 타깃을 부착할 수 있는 모든 물체의 변위량을 측정하는 것에 사용될 수 있다.For convenience of description, specific details for the practice of the present invention will be described below based on specific examples, but this does not mean that the application field of the present invention is limited to these examples, and measures the amount of displacement of all objects to which targets can be attached. can be used for
도 1은 본 발명의 기술을 관입량 측정기로 사용한 예시를 나타낸 것이다. 관입량 측정기는 건설공사 현장에서 파일이 적절히 시공되었는지를 판단하기 사용하는 것으로서, 해머(100)로 파일(300)을 항타했을 때 파일이 지면(400)에 얼마만큼 박히는지 측정한다. 파일이 지면에 박히는 양을 길이로 나타내는 것을 관입량이라 한다. 즉, 관입량은 파일(300)의 변위량을 말하는 것이다. 본 발명은 변위량 측정 대상물(300)에 부착되어 있는 타깃(200)의 변위량을 계산한다. 타깃은 카메라가 인식하기 쉽도록 배경과 대비되는 색을 사용한다. 바람직한 예는 백색 배경에 흑색 타깃 혹은 반대로 흑색 배경에 백색 타깃을 사용하는 것이다. 본 설명의 예에서는 백색 배경에 흑색 타깃을 사용한다. 본 발명의 타깃(200) 모양은 원(員)이나 구(球)의 형태이다. 원이나 구의 모양을 사용하는 목적은 카메라 정렬에 대한 적정성 판다과 측정 오차 보정이 용이하고, 종래 기술 대비 하나의 타깃만 사용해도 되기 때문이다. 오차 보정과 거리 변환에 관해서는 이하에서 다시 자세히 언급한다. 타깃의 지름은 미리 정해지고, 이 지름이 픽셀 좌표에서 거리를 물리적 좌표에서 거리로 변환할 때 비례 상수로 사용된다. 타깃의 촬영과 영상처리를 위한 스마트폰(500)이 타깃으로부터 떨어진 곳에 설치되어 있고, 촬영된 타깃(610)이 스마트폰의 화면에 나타나 있고, 스마트폰은 삼각대(700)에 의해 지면(400)에 단단히 고정되어 있다. 스마트폰은 카메라 기능과 영상처리 기능이 일체로 되어 있어 편리한 면이 있다. 경우에 따라서는 카메라와 영상처리 기능이 분리된 별개의 카메라와 PC로도 구성할 수 있다. 가상의 수직정렬선(800)은 카메라가 타깃(200)에 수직정렬 되기 위한 위치를 표시한 것이다.1 shows an example of using the technology of the present invention as a penetration amount meter. The penetration measuring instrument is used to determine whether the pile is properly constructed at the construction site, and measures how much the pile is driven into the
도 2는 도 1과 같은 사용 예를 나타낸 것인데, 다만 카메라(500)가 타깃(200)에 수직정렬 되지 않은 경우에 해당한다. 카메라(500)가 수직정렬선(800)보다 왼쪽으로 치우쳐 설치된 경우를 나타내고 있다. 이러한 경우에는 측정 오차가 발생할 수 있는데, 종래의 기술은 이것에 대한 대책이 없다. 본 발명의 오차 보정 방법은 이하에서 다시 상세히 언급된다. 카메라와 타깃의 정렬에 관한 내용 이외에는 도 1의 내용과 같다.FIG. 2 shows an example of use as in FIG. 1 , but corresponds to a case in which the
이하 도 3 내지 도 7를 통해서 본 발명의 핵심 내용인 변위량 계산 방법에 대해서 자세히 설명한다. 도 3의 전체적인 처리과정을 순서도로 나타낸 것이다. 도 4 내지 도 7은 영상데이터 처리과정을 자세하게 설명하기 위한 것으로서, 도 4는 상기 언급했던 카메라와 타깃의 정렬이 양호한 경우의 것이고; 도 5는 도 4의 상황에서 타깃(910)이 아래 방향으로 움직인 경우의 것이고; 도 6은 도 1의 경우 대비 카메라 정렬이 좌우로 틀어진 경우에 촬영된 타깃(960)의 모양을 나타낸 것이고; 도 7은 도 1의 경우 대비 카메라 정렬이 상하/좌우 모두로 틀어진 경우 촬영된 타깃(970)의 모양을 나타낸 것이다. 도 4 내지 도 5의 작도 편의성을 위해서 카메라 해상도를 11 x 14로 가정했지만 실제의 경우는 이보다 훨씬 높은(예를 들면, 통상 스마트폰의 카메라 해상도 1080 x 1920) 것을 사용한다. 도 4의 경우(카메라가 양호하게 설치된 경우)를 기준으로 도 3의 순서도를 단계별로 먼저 설명하고, 그 이후에 다른 경우(도 5, 도 6, 도 7)에 대해서 설명한다.Hereinafter, a displacement amount calculation method, which is the core content of the present invention, will be described in detail with reference to FIGS. 3 to 7. The overall process of FIG. 3 is shown in a flowchart. 4 to 7 are for explaining the image data processing process in detail, and FIG. 4 is for the case where the above-mentioned camera and target are well aligned; FIG. 5 shows a case in which the
도 3의 단계 S10은 카메라(500)로부터 촬영한 타깃(610)의 영상데이터를 프레임 단위로 가져오기 위한 것이다. 카메라는 도 4에 나타낸 영상데이터(900)(각 픽셀의 흑백 정보를 16진수로 나타냄)와 같이 2차원 데이터를 제공한다. 그런데 통상의 경우는 카메라가 스캔을 하여 영상데이트를 제공하는 관계로, 영상처리 장치(스마트폰이나 PC의 프로세서)로 넘겨지는 영상데이터의 형태는 도 4의 카메라 스캔 출력(D[n])과 같이 1차원이다. 영상데이터는 통상적으로 흑백 성분과 컬러 성분으로 나누어서 전달되는데 이렇게 하는 이유는 높은 해상도를 제공하는 흑백 정보가 더 유용하게 사용되도록 하기 위한 것이다. 본 예에서도 흑백 정보를 사용하는데, 해상도 차이가 없다면 타깃을 잘 구별할 수 있는 컬러 성분을 사용해도 상관없다. 스캔 출력(D[n])은 각 픽셀의 흑백 영상값(휘도값)을 나타내고 있다. 이상의 설명을 요약하자면, 카메라 스캔 출력(D[n])은 타깃을 촬영한 결과로서 16진수로 담고있는 1차원 어레이(Arrary)이다. 영상데이터(900, D[n])를 살펴보면 타깃(910)의 영역의 값은 배경값들보다 작다. 이 작은 값은 배경보다 어두운 흑색 타깃을 촬영한 당연한 결과이다.Step S10 of FIG. 3 is for importing image data of the
도 3의 단계 S20은 상기 언급한 카메라 스캔 출력 즉 픽셀 값(D[n])을 순차로 읽어 온다. 'D[n]'으로 표현된 어레이에서 'n'은 픽셀의 스캔된 순서를 나타내는 것이고 이것으로부터 2차원 영상데이터 상의 위치도 알 수있다. 2차원 영상데이터 상의 위치 계산은 아래 수학식 1에 의해서 이루어진다. 카메라가 스캔을 진행하면 n의 값은 0에서부터 순차적으로 증가한다. 도 4의 예에서 살펴보면, 첫번째 픽셀(n=0)의 값은 D[0] = F0 이고 다섯번째 픽셀(n=4)의 값은 D[4] = E5 이다.Step S20 of FIG. 3 sequentially reads the above-mentioned camera scan output, that is, the pixel value D[n]. In the array expressed as 'D[n]', 'n' represents the scanned order of pixels, and from this, the location on the 2D image data can be known. Position calculation on the 2D image data is performed by
도 3의 단계 S30은 단계 S20에서 읽어온 픽셀 값(D[n])과 임계 값(Tt)을 비교하여 해당 픽셀이 타깃(910)에 속하는지 판단한다. 배경과 타깃을 구별할 수 있는 중간 값으로 임계 값(Tt)을 설정하면, 타깃(910)에 속하는 픽셀들을 골라 낼 수 있다. 본 예에서는 임계 값(Tt)을 128로 정하였다. 픽셀 값들(D[n]) 중에서 임계 값(Tt)보다 작은 것들을 골라낸 결과는 추출된 타깃 이미지(950)와 같이 될 것이다. 즉, 추출된 타깃 이미지(950)에 해당하는 값(D[n])은 임계 값 128보다 작고, 단계 S30의 판정 결과는 '참'이 된다.Step S30 of FIG. 3 compares the pixel value D[n] read in step S20 with the threshold value Tt to determine whether the corresponding pixel belongs to the
도 3의 단계 S40은 단계 S30의 판정 결과가 참인 경우에 수행 되는 것으로서, 타깃 픽셀 좌표들(X[m], Y[m])과 픽셀 좌표의 최소(Xmin, Ymin)/최대(Xmax, Ymax) 값들을 추적한다. 타깃 픽셀 좌표들(X[m], Y[m])은 도 4에 예시되어 있다. X[m], Y[m]은 1차원 어레이(Arrary)로 표현될 수 있는 것이고, 여기서 'm'은 어레이의 인덱스를 나타낸다. 'm'은 어레이 값이 저장될 때마다 하나씩 증가한다. X[m]과 Y[m]이 저장되는 과정을 일반적인 관계식으로 표현하면 아래 수학식 1과 같다. 이 수학식에서, D[n]은 타깃을 촬영한 영상데이터 이고; 'n'이 몇번째 픽셀인가를 나타내고; Tt는 상기 언급한 바와 같이 임계 값(본 예에서는 128)이고; %는 잉여류 계산 연산자이고; W는 영상데이터의 폭(본 예에서는 11)이고; Int()는 정수화하는 함수이다. 수학식 1의 의미를 도식적인 방법으로 이해하기 위해서, 도 4의 타겟 픽셀에 속하는 세개의 픽셀값들(D[14] = 70, D[15] = 60, D[16] = 50)을 예로 하여 설명하면 다음과 같다. D[14], D[15], D[16]의 값들은 모두 128(Tt)보다 작으므로 단계 S30의 판정 결과는 이들 값들에 대해서 모두 참이 되고, 수학식 1의 연산이 진행된다. 세개의 픽셀값들에 대해서 연산을 진행해보면, X[0] = 14 % 11 = 3, Y[0] = Int(14 / 11) = 1, X[1] = 15 % 11 = 4, Y[1] = Int(15 / 11) = 1, X[2] = 16 % 11 = 5, Y[2] = Int(16 / 11) = 1과 같이 된다. 좀 더 많은 픽셀값에 대하여 같은 방식의 연산을 진행한 결과가 도 4의 타깃 픽셀들의 X 좌표 열(X[m])과 타깃 픽셀들의 Y 좌표 열(Y[m])에 나타나 있다. 결과적으로, X[m]은 해당 픽셀값(D[n]<Tt)의 2차원 영상데이터 상의 가로 위치를 나타내고, Y[m]은 세로 위치를 나타낸다. 도 4에 나타낸 바와 같이(화살표로 연결된 것들과 작은 동그라미로 표시된 것들 참조), 예로서 D[14]의 X[m](X[0]), Y[m](Y[0])의 값은 이 픽셀의 가로 위치 3과 세로 위치 1을 나타낸다.Step S40 of FIG. 3 is performed when the determination result of step S30 is true, and the target pixel coordinates (X[m], Y[m]) and the minimum (Xmin, Ymin)/maximum (Xmax, Ymax) of the pixel coordinates are performed. ) to track the values. The target pixel coordinates (X[m], Y[m]) are illustrated in FIG. 4 . X[m] and Y[m] can be expressed as a one-dimensional array, where 'm' represents an index of the array. 'm' is incremented by one each time an array value is saved. The process of storing X[m] and Y[m] is expressed as a general relational expression as in
(수학식 1)(Equation 1)
X[m] = n % WX[m] = n % W
Y[m] = Int(n/W)Y[m] = Int(n/W)
도 3의 단계 S40의 또하나의 기능인 픽셀 좌표의 최소/최대값 추적은 다음과 같이 수행된다. 스캔된 영상 값(D[n])에 따라 순차적인 진행을 하면서 새로 계산된 X[m]이 현재의 Xmin 보다 작으면 이값을 새로운 Xmin으로 저장하고; Xmax 보다 크면 새로운 Xmax로 저장한다. 만일 새로 계산된 X[m]이 현재의 Xmin 이나 Xmax와 같은 경우 새로운 값을 취할지 현재 값을 유지할지 판단은 해당 픽셀값(D[n])이 더 작은 쪽의 것을 택하는 방식으로한다. 여기서 더 작은 쪽의 의미는 해당 픽셀의 더 많은 영역이 타깃 영역에 들어가 있다는 것을 의미한다. 이와 같은 의미에서 백색 타겟을 사용하는 경우 더 큰 쪽의 것을 택해야 하는 것이 자명한 일이다. Y[m]에 대해서도 X[m]과 같은 방식으로 Ymin, Ymax를 저장한다. 이상과 같이 Xmin, Xmax, Ymin, Ymax를 추적하여 궁극적으로 얻고자 하는 것은 이들의 픽셀 좌표이다. 도 4의 추출된 타깃 이미지(950)에 이예의 Ymin, Xmin, Xmax, Ymax의 픽셀 좌표를 음영으로 표시했다. 즉, 도 4에서 Ymin의 좌표는 (5, 1)이고; Xmin의 좌표는 (1, 5)이고; Xmax의 좌표는 (5, 5)이고; Ymax의 좌표는 (5, 9)이다. 이 좌표들의 의미는 각 X 방향과 Y 방향에 대해서 중심으로부터 가장 먼 거리에 있는 타깃 픽셀의 위치정보를 알려주는 것이다.Tracking of minimum/maximum values of pixel coordinates, which is another function of step S40 of FIG. 3, is performed as follows. When the newly calculated X[m] is smaller than the current Xmin while sequentially proceeding according to the scanned image value (D[n]), this value is stored as a new Xmin; If it is greater than Xmax, it is saved as a new Xmax. If the newly calculated X[m] is the same as the current Xmin or Xmax, it is determined whether to take a new value or maintain the current value by selecting the smaller pixel value D[n]. Here, a smaller side means that a larger area of the corresponding pixel is included in the target area. In this sense, it is self-evident that the larger one should be chosen when using a white target. For Y[m], Ymin and Ymax are stored in the same way as for X[m]. As described above, what is ultimately obtained by tracking Xmin, Xmax, Ymin, and Ymax is their pixel coordinates. The pixel coordinates of Ymin, Xmin, Xmax, and Ymax in this example are marked with shading in the extracted
도 3의 단계 S50은 단지 영상데이터의 한 프레임에 대한 처리가 모두 끝난 여부를 판단한다. 한 프레임에 대한 처리가 모두 끝난 경우 다음 단계로 넘어가고, 아직 끝나지 않았다면 이전 단계를 반복한다.Step S50 of FIG. 3 determines whether processing of one frame of image data is all over. When processing of one frame is finished, it moves to the next step, and if it is not finished, the previous step is repeated.
도 3의 단계 S60은 타깃 중심의 픽셀 좌표를 구하는데, 저장된 X[m]의 평균과 Y[m]의 평균으로 이것을 구한다. 도 4의 추출된 타깃 이미지(950)에서 알 수 있듯이, 이 예의 경우 중심의 픽셀 좌표는 (5, 5)이다. 신호처리에서 평균은 적분과 같은 의미를 가지고 있기 때문에 종래 기술의 미분을 사용하는 방식에 비해 잡음 강건성이 높아진다.Step S60 of FIG. 3 obtains the pixel coordinates of the center of the target, which is obtained as the average of stored X[m] and Y[m]. As can be seen from the extracted
도 3의 단계 S70은 타깃 중심으로 부터 Xmin,Xmax, Ymin, Ymax의 위치들까지의 거리들(Ru, Rl, Rr, Rb)을 구한다. 이 거리들은 촬영한 타깃의 위쪽 반지름(Ru), 왼쪽 반지름(Rl), 오른쪽 반지름(Rr), 아래쪽 반지름(Rb)를 의미한다. 이 반지름들은 픽셀 좌표를 물리적 좌표로 변환한는데 비례 상수로 사용한다. 예를 들어, 타깃(200)의 실제 반지름이 8mm이고, 카메라로 촬영한 타깃의 반지름이 4 픽셀이라고 한다면, 1 픽셀 거리당 물리적 거리는 2mm이다. 타깃 중심의 픽셀 좌표를 물리적 좌표로 변환하는 단계 S110에서 상기 언급한 비례관계(위의 예의 경우 1 픽셀당 2mm)를 사용한다.In step S70 of FIG. 3 , distances (Ru, Rl, Rr, and Rb) from the center of the target to the positions of Xmin, Xmax, Ymin, and Ymax are obtained. These distances mean the upper radius (Ru), left radius (Rl), right radius (Rr), and lower radius (Rb) of the target being photographed. These radii are used as proportional constants to convert pixel coordinates to physical coordinates. For example, if the actual radius of the
도 3의 단계 S80은 상기 계산한 반지름들(Ru, Rl, Rr, Rb)을 벡터로 보았을 때 X, Y 각 축에 대한 성분 거리들(Du, Dl, Dr, Db, 도 7 참조)을 구한다. 도 4의 경우는 카메라 정렬이 양호한 경우이므로 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)가 같고, 카메라 정렬이 양호하지 않은 도 7의 경우 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)가 같지 않다. 이 값들이 서로다르다면, 카메라 정렬이 잘못된 경우를 의미한다. 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)의 좀 더 상세한 의미는 카메라 정렬이 잘 되지 않은 경우에 해당하는 도 7을 설명하는 곳에서 후술한다. 카메라 설치 적정 지수(Eu, El, Er, Eb)는 단순히 반지름(Ru, Rl, Rr, Rb)과 성분 거리(Du, Dl, Dr, Db)의 차를 구한다. 적정 지수(Eu, El, Er, Eb)는 단계 S90에서 구해지는데 이것의 용도도 도 7을 설명하는 곳에서 후술한다. 적정 지수(Eu, El, Er, Eb)를 포한함 오차 대응에 관련된 단계들(S100, S120, S130, S140)도 후술한다. Step S80 of FIG. 3 obtains component distances (Du, Dl, Dr, Db, see FIG. 7) for each axis X and Y when the calculated radii (Ru, Rl, Rr, and Rb) are viewed as vectors. . In the case of FIG. 4, since the camera alignment is good, the radii (Ru, Rl, Rr, Rb) and component distances (Du, Dl, Dr, Db) are the same, and in the case of FIG. 7, where the camera alignment is not good, the radius (Ru, Rl, Rr, Rb) and component distances (Du, Dl, Dr, Db) are not the same. If these values are different, it means that the camera alignment is wrong. More detailed meanings of the radii (Ru, Rl, Rr, and Rb) and component distances (Du, Dl, Dr, and Db) will be described later in a description of FIG. 7 corresponding to a case where the camera is not well aligned. The camera installation suitability index (Eu, El, Er, Eb) is simply the difference between the radius (Ru, Rl, Rr, Rb) and the component distance (Du, Dl, Dr, Db). Appropriate indices (Eu, El, Er, Eb) are obtained in step S90, and their uses will be described later in the description of FIG. 7. Steps S100, S120, S130, and S140 related to the error response including appropriate exponents (Eu, El, Er, and Eb) will also be described later.
도 4와 같이 카메라가 양호하게 설치된 경우는 단계 S110이 영상데이터 한 프레임 처리 최종 단계가 된다. 이 단계에서 구해지는 값은 타깃 중심의 물리적 좌표이다. 상기 언급한 바와 같이 타깃 중심의 픽셀 좌표가 (5, 5)이므로 이 것을 비례관계(위의 예의 경우 1 픽셀당 2mm)를 사용하여 물리적 좌표로 변환하면 (10, 10)이 된다. 상기 서술한 도 4의 경우와 마찬가지로, 도 5에 나타낸 영상데이터(900)을 도 3의 순서도에 의해 처리하게 되면 타깃 중심의 필셀 좌표는 (5, 6)이 되고 물리적 좌표는 (10, 12)가 된다. 결론적으로 도 4 대비 도 5의 타깃은 Y 방향으로 2mm 이동하게 된 것이다. 즉 타깃의 변위량이 2mm인 것이다. 참고로 Y 좌표는 아래 방향이 증가하는 방향이다. 이와 같이 처리하는 이유는 통상의 카메라가 위에서 아래로 스캔하는 것에서 기인한다.When the camera is properly installed as shown in FIG. 4, step S110 is the final step of processing one frame of image data. The values obtained in this step are the physical coordinates of the center of the target. As mentioned above, since the pixel coordinates of the center of the target are (5, 5), converting them to physical coordinates using a proportional relationship (2 mm per pixel in the case of the above example) results in (10, 10). As in the case of FIG. 4 described above, when the
여기까지 설명한 단계별 내용을 종합하면, 본 발명은 반지름이 알려져 있는 원 또는 구 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 상기 구해진 타깃 중심과 가장 먼 거리에 있는 타깃 픽셀 간의 거리로 타깃 반지름(픽셀 단위)을 구하고; 미리 알려진 타깃의 물리적 반지름(mm 단위)을 상기 구해진 타깃의 반지름(픽셀 단위)으로 나누어(나눗셈 연산) 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 상기 구해진 계수를 상기 구해진 타깃 중심의 픽셀 좌표에 곱하여(곱셈 연산) 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구한다. Summarizing the step-by-step contents described so far, the present invention processes image data captured by a camera of a circular or spherical target with a known radius, obtains the pixel coordinates of the center of the target as the average position of the captured target pixels, ; obtaining a target radius (in pixels) as a distance between the obtained target center and the farthest target pixel; dividing a previously known physical radius (in mm) of the target by the obtained radius (in pixels) of the target (by division operation) to obtain a physical distance coefficient per pixel (mm per pixel); obtaining physical coordinates of the center of the target by multiplying the obtained coefficient by the obtained pixel coordinates of the center of the target (multiplication operation); repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; The displacement amount of the object to which the target is attached is finally obtained as a difference between the continuously obtained physical coordinates of the center of the target.
도 2와 같이 카메라가(500) 타깃(200)의 수직정렬선(800)의 선상에 있지 않게 되는 경우 타깃(200)이 좌우로 비스듬하게 촬영된다. 이와 같이 비스듬하게 촬연된 상황을 도 6에 나타냈다. 도 6에서 보는 바와 같이 촬영된 타깃(960)이 타원 모양으로 찌그러지는 것은 비스듬하게 촬영했기 때문에 당연하다. 좌우로 비스듬하게 촬영된 경우, 타깃 중심의 좌표를 물리적 좌표로 변환 할 때 아래 수학식 2를 사용한다. 수학식 2에서 X는 타깃(960) 중심의 X축(가로 축) 물리적 좌표이고; Xpixel은 타깃(960) 중심의 X축 픽셀 좌표이고; Dt는 실제 타깃(200)의 지름이고; Rl은 영상처리에 의해 구한 왼쪽 반지름이고; Rr은 영상처리에 의해 구한 오른쪽 반지름이고; Y는 타깃(960) 중심의 Y축(세로 축) 물리적 좌표이고; Ypixel은 타깃(960) 중심의 Y축 픽셀 좌표이고; Ru는 영상처리에 의해 구한 윗쪽 반지름이고; Rb는 영상처리에 의해 구한 아래쪽 반지름이다. 여기서 말하는 영상처리에 의해 구해진 반지름들(Rl, Rr, Ru, Rb)은 전술한 영상처리 단계 S70에 의해서 구해진 것을 의미한다. 도 6과 같이 좌우 한쪽으로만 비스듬하게 촬영된 경우에 있어서, Du, Dl, Dr, Db(영상처리 단계 S80에서 계산한 값)는 Ru, Rl, Rr, Rb와 같거나 아주 적은 차이가 난다. 카메라 설치 적정 지수(Eu, El, Er, Eb)가 아주 작은 값으로 되고 판단 단계 S100의 결과는 참이된다. 단계 S100에서 Ex는 Eu, El, Er, Eb 전체를 나타내는 것이고 Tg의 양호한 조건을 나타내는 임계값이다.As shown in FIG. 2 , when the
(수학식 2)(Equation 2)
X = Xpixel * Dt / (Rl + Rr)X = Xpixel * Dt / (Rl + Rr)
Y = Ypixel * Dt / (Ru + Rb)Y = Ypixel * Dt / (Ru + Rb)
상기 수학식 2를 사용하여 픽셀 좌표를 물리적 좌표로 변환하는 것과 관련 전술한 내용을 종합하면, 본 발명은 반지름이 알려져 있는 원 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 타깃의 상하, 좌우 반지를을 영상처리로 구하고; 세로 방향 좌표에 대하여 미리 알려진 타깃의 물리적 지름(mm 단위)을 상기 구해진 타깃의 상하 반지름(픽셀 단위) 둘을 합한 것으로 나누어(나눗셈 연산) 세로방향 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 가로 방향 좌표에 대하여 미리 알려진 타깃의 물리적 지름(mm 단위)을 상기 구해진 타깃의 좌우 반지름(픽셀 단위) 둘을 합한 것으로 나누어(나눗셈 연산) 가로방향 픽셀당 물리적 거리 계수(mm per pixel)를 구하고; 상기 구해진 두가지의 계수를 상기 구해진 타깃 중심의 픽셀 Y, X 좌표에 각각 곱하여(곱셈 연산) 타깃 중심의 물리적 좌표를 구하고; 상기 물리적 좌표를 구하는 과정을 매 영상 프레임마다 반복하여 타깃 중심의 물리적 좌표를 연속적으로 구하고; 상기 연속적으로 구해진 타깃 중심의 물리적 좌표들 간의 차이로 타깃이 붙어 있는 물체의 변위량을 최종적으로 구한다. Summarizing the above information related to the conversion of pixel coordinates into physical coordinates using Equation 2 above, the present invention processes image data taken by a camera of a target in the form of a circle with a known radius to obtain a target center (Center) obtaining the pixel coordinates of the average of the positions of the captured target pixels; Obtaining the upper, lower, left and right rings of the target through image processing; A physical distance coefficient per pixel in the vertical direction (mm per pixel) is obtained by dividing a previously known physical diameter (unit of mm) of the target with respect to the vertical coordinate by the sum of two of the obtained upper and lower radii (unit of pixel) of the target (by division operation); obtaining a physical distance coefficient per pixel in the horizontal direction (mm per pixel) by dividing a previously known physical diameter (in mm) of the target with respect to horizontal coordinates by the sum of two left and right radii (in pixels) of the obtained target (division operation); multiplying the obtained two coefficients by the obtained pixel Y and X coordinates of the center of the target (multiplication operation) to obtain physical coordinates of the center of the target; repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; The displacement amount of the object to which the target is attached is finally obtained as a difference between the continuously obtained physical coordinates of the center of the target.
도 7은 카메라(500)가 타깃(200)을 촬영할 때 상하, 좌우 두 축 모두에 대해서 비스듬하게 설정된 경우를 나타낸 것이다. 전술한 동일한 방법(영상처리 단계 S70과 S80)으로 반지름(Ru, Rl, Rr, Rb)과 축방향 성분 거리(Du, Dr, Dl, Db)를 구한 결과를 도 7에 표시했다. 영상처리 단계 S90에서 구하는 카메라 설치 적정 지수(Eu, El, Er, Eb)의 값은 비스듬하게 설치된 정도에 따라서 변한다. 영상처리 적정 지수 값들 중 어느 하나(Ex)라도 임계값(Tn)과 같거나 크면 설치 점검 권장 표시 단계(S140)이 수행된다. 적정 지수와 임계값의 비교는 영상처리 단계 S120에서 하게되는 적정 지수가 임계값 보다 작으면 오차 보정 단계(S130)를 실행한다. 오차 보정은 반지름(Ru, Rl, Rr, Rb)과 축방향 성분 거리(Du, Dr, Dl, Db)의 값에 따라 여러 가지 방법으로 가능한데, 가장 쉬운 방밥의 상하 축과 좌우 축의 비스듬한 정도의 비율을 구하여 픽셀 좌표를 물리적 좌표로 변환하는 과정에서 구해진 비율을 반영한다.7 shows a case where the
상기 도 7에 대한 설명을 종합하면, 본 발명은 원 형태의 타깃을 카메라로 촬영한 영상데이터를 처리하여 타깃 중심(Center)의 픽셀 좌표를 촬영된 타깃 픽셀들의 위치 평균으로 구하고; 상기 구해진 타깃 중심과 가장 먼 거리에 있는 타깃 픽셀 간의 거리로 타깃 반지름(Ru, Rl, Rr, Rb) 을 구하고; 상기 반지를을 벡터로 표현했을 때 가로/세로 축 성분에 해당하는 성분 거리(Du, Dr, Dl, Db)를 구하고;상기 반지름과 상기 성분 거리의 차(카메라 설치 적정 지수 Eu, El, Er, Eb)가 일정치 이상이면 사용자에게 카메라 설치 점검 권장 표시를 해준다. 상기 카메리 설치 적정 지수는 잡음이 발생한 경우에도 큰 값을 갖게 되므로 이값은 종합적으로 사용환경에 대한 정보를 제공해준다.Summarizing the description of FIG. 7, the present invention processes image data of a circular target captured by a camera to obtain pixel coordinates of a center of the target as an average of the positions of the captured target pixels; obtaining target radii (Ru, Rl, Rr, Rb) as the distance between the obtained target center and the farthest target pixel; When the ring is expressed as a vector, component distances (Du, Dr, Dl, Db) corresponding to the horizontal / vertical axis components are obtained; The difference between the radius and the component distance (camera installation appropriate index Eu, El, Er, If Eb) is above a certain value, a camera installation inspection recommendation is displayed to the user. Since the camera installation appropriateness index has a large value even when noise occurs, this value comprehensively provides information on the use environment.
Claims (3)
processing image data captured by a camera of a circular or spherical target having a known radius, and obtaining pixel coordinates of a center of the target as an average of positions of the captured target pixels; obtaining a target radius (in pixels) as a distance between the obtained target center and the farthest target pixel; dividing a previously known physical radius (in mm) of the target by the obtained radius (in pixels) of the target (by division operation) to obtain a physical distance coefficient per pixel (mm per pixel); obtaining physical coordinates of the center of the target by multiplying the obtained coefficient by the obtained pixel coordinates of the center of the target (multiplication operation); repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; A method of finally obtaining a displacement amount of an object to which a target is attached by a difference between the continuously obtained physical coordinates of the center of the target.
Processing image data of a circular target of known radius with a camera to obtain pixel coordinates of the center of the target as an average of the positions of the captured target pixels; Obtaining the radii of each of the top, bottom, left and right sides of the target through image processing; A physical distance coefficient per pixel in the vertical direction (mm per pixel) is obtained by dividing a previously known physical diameter (unit of mm) of the target with respect to the vertical coordinate by the sum of two of the obtained upper and lower radii (unit of pixel) of the target (by division operation); obtaining a physical distance coefficient per pixel in the horizontal direction (mm per pixel) by dividing a previously known physical diameter (in mm) of the target with respect to horizontal coordinates by the sum of two left and right radii (in pixels) of the obtained target (division operation); multiplying the obtained two coefficients by the obtained pixel Y and X coordinates of the center of the target (multiplication operation) to obtain physical coordinates of the center of the target; repeating the process of obtaining the physical coordinates for every image frame to continuously obtain the physical coordinates of the center of the target; A method of finally obtaining the amount of displacement of an object to which the target is attached with the difference between the continuously obtained physical coordinates of the center of the target
Processing image data of a circular or spherical target captured by a camera to obtain pixel coordinates of a center of the target as an average of the positions of the captured target pixels; Between the obtained target center and the poles in the up, down, left and right directions (meaning the farthest target pixel in each axis direction. If the camera is well aligned, the pole is on the central axis, but if not, it is off the axis) Find the target radius (Ru, Rl, Rr, Rb) by distance; When the poles are expressed as vectors, component distances (Du, Dr, Dl, Db) corresponding to the horizontal/vertical axis components are obtained; If the difference between the radius and the component distance (camera installation appropriate index Eu, El, Er, Eb) is greater than a certain value, the user is recommended to check the camera installation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210013763A KR102502540B1 (en) | 2021-01-30 | 2021-01-30 | Displacement Measuring Methods using a camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210013763A KR102502540B1 (en) | 2021-01-30 | 2021-01-30 | Displacement Measuring Methods using a camera |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220110431A KR20220110431A (en) | 2022-08-08 |
KR102502540B1 true KR102502540B1 (en) | 2023-02-21 |
Family
ID=82845377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210013763A KR102502540B1 (en) | 2021-01-30 | 2021-01-30 | Displacement Measuring Methods using a camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102502540B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012077683A1 (en) * | 2010-12-09 | 2012-06-14 | 旭硝子株式会社 | Method and system for measuring defect in glass ribbon |
JP5339070B2 (en) * | 2009-03-26 | 2013-11-13 | サクサ株式会社 | Displacement measuring apparatus and measuring method |
JP5639773B2 (en) * | 2010-03-11 | 2014-12-10 | 株式会社ミツトヨ | Image measuring machine |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10173978A (en) * | 1996-12-13 | 1998-06-26 | Mitsubishi Electric Corp | Tracking error detecting device |
KR20020060459A (en) | 2001-01-11 | 2002-07-18 | 김택 | Measuring system of pile penetration depth |
KR100437275B1 (en) | 2001-06-29 | 2004-06-23 | 삼성물산 주식회사 | Method for for measuring displacement of moving body formed of displacement measuring mark using line scan camera |
KR100458290B1 (en) | 2001-12-27 | 2004-12-03 | 고속도로관리공단 | Method for Measuring Displacement of Structural Members |
JP4948660B2 (en) | 2010-05-14 | 2012-06-06 | 西日本旅客鉄道株式会社 | Structure displacement measurement method |
KR101193076B1 (en) | 2011-03-08 | 2012-10-22 | 주식회사 포스코건설 | System for real-time measuring penetration depth of pile using 3D photogrammetry |
KR101434393B1 (en) | 2014-06-25 | 2014-08-27 | 세안기술 주식회사 | A displacement vibration measuring method using camera image |
KR102039443B1 (en) | 2019-07-29 | 2019-11-01 | 정창식 | Measuring system of pile penetration depth of pile driver |
KR102201871B1 (en) | 2019-08-22 | 2021-01-11 | 윤춘호 | Apparatus and method for measuring final penetration of foundation pile pile using laser |
-
2021
- 2021-01-30 KR KR1020210013763A patent/KR102502540B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5339070B2 (en) * | 2009-03-26 | 2013-11-13 | サクサ株式会社 | Displacement measuring apparatus and measuring method |
JP5639773B2 (en) * | 2010-03-11 | 2014-12-10 | 株式会社ミツトヨ | Image measuring machine |
WO2012077683A1 (en) * | 2010-12-09 | 2012-06-14 | 旭硝子株式会社 | Method and system for measuring defect in glass ribbon |
Also Published As
Publication number | Publication date |
---|---|
KR20220110431A (en) | 2022-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8970853B2 (en) | Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium | |
CN108230397B (en) | Multi-view camera calibration and correction method and apparatus, device, program and medium | |
JP5075757B2 (en) | Image processing apparatus, image processing program, image processing method, and electronic apparatus | |
EP1343332A2 (en) | Stereoscopic image characteristics examination system | |
US8248465B2 (en) | Measuring endoscope apparatus and program | |
CN108074237B (en) | Image definition detection method and device, storage medium and electronic equipment | |
US11295426B2 (en) | Image processing system, server apparatus, image processing method, and image processing program | |
CN108489423B (en) | Method and system for measuring horizontal inclination angle of product surface | |
JP2013113600A (en) | Stereo three-dimensional measuring apparatus | |
KR20110068375A (en) | Method for adjusting parameters in distortion calibration of image acquired by camera having fish eye lens | |
CN112102387B (en) | Test method and test system based on depth estimation performance of depth camera | |
CN106643567A (en) | Lane deviation system production line calibration board verification method and system | |
KR100690172B1 (en) | method for extracting 3-dimensional coordinate information from 3-dimensional image using mobile phone with multiple cameras and terminal thereof | |
CN111131801B (en) | Projector correction system and method and projector | |
JP2011069797A (en) | Displacement measuring device and displacement measuring method | |
KR102502540B1 (en) | Displacement Measuring Methods using a camera | |
KR20200046789A (en) | Method and apparatus for generating 3-dimensional data of moving object | |
WO2015159791A1 (en) | Distance measuring device and distance measuring method | |
JP5339070B2 (en) | Displacement measuring apparatus and measuring method | |
JP2017040542A (en) | Information processing device, information processing method, and program | |
JP5206499B2 (en) | Measuring method, measuring device, measurement control program | |
KR20110100568A (en) | Method and system for shroud nozzle centering guidance | |
KR20110112953A (en) | Apparatus for measuring dynamic displacement of floating structure and vision-based unit thereof | |
CN117717367B (en) | Auxiliary positioning system and method for standing position computer tomography | |
CN116563388B (en) | Calibration data acquisition method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |