KR101935824B1 - Image processing system for synthesizing aerial image and ground-based image - Google Patents

Image processing system for synthesizing aerial image and ground-based image Download PDF

Info

Publication number
KR101935824B1
KR101935824B1 KR1020180150881A KR20180150881A KR101935824B1 KR 101935824 B1 KR101935824 B1 KR 101935824B1 KR 1020180150881 A KR1020180150881 A KR 1020180150881A KR 20180150881 A KR20180150881 A KR 20180150881A KR 101935824 B1 KR101935824 B1 KR 101935824B1
Authority
KR
South Korea
Prior art keywords
image
ground
camera
aerial
unit
Prior art date
Application number
KR1020180150881A
Other languages
Korean (ko)
Inventor
임병조
Original Assignee
네이버시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버시스템(주) filed Critical 네이버시스템(주)
Priority to KR1020180150881A priority Critical patent/KR101935824B1/en
Application granted granted Critical
Publication of KR101935824B1 publication Critical patent/KR101935824B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • H04N5/23216
    • H04N5/2351
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to an image processing system for synthesizing an aerial image and a ground-based image and, specifically, to an image processing system extracting a 3D image with improved accuracy by removing an error of an each image when synthesizing the image obtained by using an aircraft and the image obtained in a ground field and by synthesizing the image. Specifically, according to the present invention, the image processing system is installed in a vehicle and minimizes the error of the image by limiting a moving state of a camera for obtaining the image to process the image against external vibration and impact. The image processing system extracts a ground-based image by correcting the image to the image similar to actuality by converting a brightness value of the image and a view of the image obtained by the camera installed in the vehicle. The image processing system prevents visual interruption on other subjects adjacent on the ground by expressing only a plane of the subject on the ground such as a building when a map is manufactured based on an aerial image in which an actual image is photographed. The image processing system also can perform accurate image synthesis by synthesizing the aerial image and the image (ground-based image) in which the error is minimized after an arrangement form of the subject on the ground is corrected so that a user can accurately understand the arrangement form of the subject.

Description

항공 이미지 및 지상이미지를 합성하는 영상처리시스템 {Image processing system for synthesizing aerial image and ground-based image}BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an image processing system for synthesizing an aerial image and a ground image,

본 발명은 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템에 관한 것으로서, 항공기를 이용하여 확보된 영상이미지와 지상 현장에서 확보된 영상이미지를 합성함에 있어 각 영상이미지의 오류를 제거하고 합성하여 정밀도가 향상된 3D 영상이미지로 추출하는 영상처리시스템에 관한 것이다. The present invention relates to an image processing system for composing an aerial image and a ground image, and in synthesizing an image obtained from an aircraft and an image acquired from the ground, an error of each image is removed, And more particularly, to an image processing system for extracting an image from an enhanced 3D image.

최근 항공기를 이용하여 확보된 영상이미지를 근거로 2 차원 지도이미지를 도시하고 각 위치에 해당 위치정보 또는 좌표정보를 기록하여 전자지도로 이용하고 있으며, 디지털 출력기술의 발전 흐름과 더불어 개발이 진행 중인 불확실한 지형지물의 현장을 차량 등으로 이동하면서 직접 영상이미지를 촬영하고 조사된 해당 좌표정보를 결합시켜 3 차원 입체영상지도를 제작하되, 영상처리시스템에 의하여 합성 처리되고 있다. A 2D map image is shown on the basis of a video image acquired using an aircraft in recent years, and the corresponding position information or coordinate information is recorded at each position and used as an electronic map. In addition to the development trend of digital output technology, A moving image of an uncertain feature is transferred to a vehicle, etc., and a 3D image is photographed, and a 3D stereoscopic image map is formed by combining the coordinate information, which is synthesized by an image processing system.

영상처리 기술에 대한 유용성은 영상도화된 지도의 정밀성과 정확도가 전제되어야 하는데, 즉, 지도제작을 함에 있어서 영상처리 작업이 효율적이고 효과적이며 정밀하게 진행되어야 하고, 더불어서 영상처리 작업을 개선하기 위해서는 작업에 적용되는 자료 또는 영상이미지의 정밀도 및 다양성이 필수적으로 요구된다. The usefulness of the image processing technology should be based on the precision and accuracy of the image-guided map. That is, the image processing operation must be performed efficiently, effectively, and precisely in the map production. In addition, The accuracy and diversity of the data or image images applied to the image data is indispensably required.

항공촬영된 영상이미지와 불확실한 지형지물이 존재하는 현장을 차량으로 이동하면서 지상의 영상이미지를 취득한 후 영상처리하므로 입체영상지도로 합성하는 경우, 도로 또는 지형지물의 모서리 부분 또는 끝 부분을 정밀하게 합성처리 하여야 하고, 정밀하게 합성처리하기 위하여는 정밀한 위치정보가 필요한 동시에 불확실한 지형지물의 영상이미지를 오류없이 정확하게 촬영하여야 하나 비포장 도로 등을 운행하는 차량 상에서 매우 정밀한 영상이미지를 취득하기는 어려운 것이 현실이었다. Since the aerial photographed image and the uncertain terrain are moved to the vehicle and the image of the ground is acquired after the image is processed, it is possible to precisely synthesize the edges or edges of the road or feature In order to precisely synthesize the image, it is necessary to obtain precise position information. At the same time, it is difficult to acquire a very precise image image on a vehicle running on unpaved roads, although it is necessary to accurately photograph a video image of an uncertain feature without errors.

또한, 일반적인 영상처리시스템에 구비된 영상카메라부는 차량에 설치되어 운전자가 도로를 따라 운행하는 과정에서 건물, 도로, 지형 등의 현장 지형지물을 직접 촬영하여 영상이미지를 확보하였고, 영상이미지를 확보하는데 사용되는 영상카메라는 고배율, 고화질의 비교적 가격이 비싼 고가 장비에 해당하며 정교한 구성에 의하여 관리와 취급 또한 매우 조심스럽게 다루어야 한다. In addition, a video camera unit provided in a general image processing system is installed in a vehicle, and a driver acquires a video image by directly photographing on-site features such as a building, a road, and a terrain in the course of running along the road, The video camera used is a high-cost, high-quality, high-priced equipment with a high magnification, high quality, and careful handling of handling and handling by sophisticated configuration.

그러나 차량을 이용하여 지형지물의 현장 영상이미지를 확보하는데 있어서 해당 현장에 돌출된 장애물이거나 평탄하지 못한 도로 현황 등과 같은 다양한 장애물이 존재하고 있으며 이러한 장애물에 의하여 발생되는 진동, 충격 등은 고가이며 정교한 영상 카메라를 파손시키거나 장애를 발생시킬 수 있었고, 불확실한 지형지물의 영상이미지를 확보하는 과정에서 현장으로부터 인가되는 진동, 충격 등으로부터 영상 이미지 자체에 오류가 발생하는 문제점이 있었다. However, there are various obstacles such as a protruding obstacle or uneven road condition in securing a field image of a feature using a vehicle, and the vibration and shock generated by the obstacle are expensive, and a sophisticated image camera There is a problem that errors occur in the image itself due to vibrations and shocks applied from the field in the course of securing the image of the uncertain feature image.

이러한 문제를 일부 개선하기 위한 종래기술로 대한민국 특허 등록번허 제10-1109649호(2012.01.18.)에 의한 것으로 "측면 장애물에 대한 영상촬영부 방호가 가능한 항공이미지 편집용 영상처리시스템"이 개시된 바 있다. As a conventional technique for partially improving such a problem, Korean Patent Registration No. 10-1109649 (Jan. 18, 2012) discloses an image processing system for aviation image editing capable of protecting a video shooting part against a side obstacle have.

그러나 종래기술은 영상카메라의 출몰 크기가 작고, 장애물 감지수단이 방호대로만 이루어져 있어 장애물로부터 방호하고 회피하는데 한계가 있으며 추돌시 방호대가 부러지는 등의 문제가 있어서, 영상카메라부 자체를 장애물과의 충격 등으로부터 안전하게 보호하기 위한 인출입 장치 등을 더 구비할 필요가 있었으며 또한, 장애물의 크기와 위치를 미리 검출하여 영상카메라의 출몰 크기를 조절할 필요가 있어서, 그 운용에 심각한 문제가 있었다. However, in the prior art, there is a problem in that the size of the image camera is small and the obstacle detecting means is made only of the protection bar, so there is a limitation in protecting and avoiding the obstacle and the protection bar is collapsed at the collision. It is necessary to detect the size and the position of the obstacle in advance and adjust the size of the protruding and retracting parts of the image camera so that there is a serious problem in the operation thereof.

한편, 지도의 배경은 통상적으로 항공촬영된 이미지를 통해 이루어진다. 즉, 일정고도에 위치한 항공기가 지상을 촬영하면서, 도 1(종래 항공사진 지도의 모습을 보인 이미지)에 도시한 것과 유사한 항공촬영된 이미지를 확보하여야 한다. 물론, 항공촬영은 고도에 따라 그 촬영면적이 한정되므로, 넓은 범위에 대한 지도제작을 위해서는 동일 구간에 대한 다수 개의 항공촬영이미지를 확보하고, 이 항공촬영이미지를 이어붙이는 별도의 편집 및 도화업무를 진행해야 한다.On the other hand, the background of the map is usually made through aerial photographed images. That is, an aerial photographed image similar to that shown in Fig. 1 (an image showing a conventional aerial photograph map) should be acquired while an aircraft located at a certain altitude is photographed on the ground. Of course, because the shooting area is limited according to the altitude, it is necessary to acquire a plurality of aerial photograph images for the same section and to perform separate editing and painting tasks We must proceed.

그런데, 항공촬영이미지는 지상으로부터 일정한 고도에 위치한 항공기에서 촬영된 것이므로, 항공기의 연직 방향에 위치한 지상물을 제외하곤 이와 인접하는 다른 지상물들은 측면이 포함되어 촬영될 수밖에 없다. However, since the aerial image is photographed from an aircraft located at a certain altitude from the ground, except for the ground water located in the vertical direction of the aircraft, the other ground adjacent to the aircraft must be photographed including the side surface.

도 1을 보면, 그 좌측 상단에 위치한 흰색 밑줄의 "강남제일빌딩" 건물과, 우측 상단에 위치한 흰색 밑줄의 "풍림산업" 건물과, 좌측 하단에 위치한 흰색 밑줄의 "메리츠타워" 건물이 각각 옥상(평면부)만이 아닌 측면까지 촬영되었음을 확인할 수 있다.1, a white underline "Gangnam Cheil Building" located at the upper left, a white underline "Poonglim Industrial" at the upper right, and a white underline "Meritz Tower" at the lower left, (The plane portion), but not the side.

다수 개의 항공촬영이미지를 서로 연결해 잇는 작업을 함에 있어서 각각 다른 위치에서 촬영된 항공촬영이미지를 부분적으로 적용하여야 하는데, 앞서 제시한 3개의 건물을 통해 알 수 있듯이, 종래 지도 제작방법을 통해 제작된 지도는 동일한 지도임에도 불구하고 인접하는 3개의 건물이 전혀 다른 방향으로 기울어져 보이게 되며, 이로 인해 사용자는 지도 해석 및 지도 이용에 어려움을 느끼게 되는 문제점이 있었다. In order to connect a plurality of aerial photographing images to each other, it is necessary to partially apply aerial photographing images taken at different positions. As can be seen from the three buildings mentioned above, The three adjacent buildings are seen to be inclined in different directions in spite of the same map, which causes the user to feel difficulty in map interpretation and map utilization.

따라서, 최근에는 완성된 지도에 표시되는 경사진 지상물을 편집해서 해당 지상물의 정확한 평면모습만이 출력되도록 항공촬영 이미지를 보정함과 더불어, 차량의 비포장 도로 운행으로 야기되는 영상카메라의 이동을 최소화하고, 취득된 영상이미지를 보정하여 오류없는 영상이미지를 정확하게 확보하도록 함으로써, 항공 이미지 및 지상 이미지를 정밀하게 합성하여 3D 영상이미지를 추출하는 기술이 요구되고 있다. Therefore, in recent years, it has been necessary to edit the tilted ground displayed on the completed map to correct the aerial image so that only an accurate planar view of the ground is output, and to minimize the movement of the image camera caused by the non- There is a demand for a technique of accurately combining an aerial image and a ground image to extract a 3D image image by correcting the acquired image image so that an error-free image image is accurately obtained.

본 발명은 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 차량에 설치되고 영상처리를 위한 영상이미지 확보용 영상카메라를 외부의 진동, 충격 등으로부터 이동상태를 제한함으로써 영상이미지의 오류를 최소화하되, 차량에 설치된 카메라로부터 확보된 영상이미지의 밝기값, 뷰(view) 변환을 통해 실제에 근사한 영상이미지로 보정하여 지상 이미지를 추출하고, 실사를 촬영한 항공 이미지를 기반으로 하는 지도 제작시, 건물 등과 같은 지상물의 평면모습만을 지도에 표현해서, 이웃하는 다른 지상물에 대한 시각적인 간섭을 방지하며, 지상물의 배치모습을 사용자가 정확히 이해할 수 있도록 보정한 후, 오류가 최소화된 항공이미지 및 영상이미지(지상 이미지)를 합성처리하여 정밀한 영상합성을 수행할 수 있는 영상처리시스템을 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made to solve the problems of the prior art, and it is an object of the present invention to minimize the error of a video image by restricting the moving state of a video camera installed in a vehicle and securing a video image for image processing from external vibration, impact, It is possible to extract the ground image by correcting it to the actual image image through the brightness value and view conversion obtained from the camera installed in the vehicle, It is also possible to prevent the visual interference to other neighboring grounds by correcting only the plane view of the same ground water on the map, correcting the arrangement of the ground water so that the user can understand exactly, To provide an image processing system capable of performing a precise image synthesis It is an object.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical objects to be achieved by the present invention are not limited to the above-mentioned technical problems, and other technical subjects which are not mentioned can be clearly understood by those skilled in the art from the description of the present invention .

상기의 기술적 과제를 달성하기 위하여 본 발명은, 항공기를 이용하여 촬영된 2 차원 평면 이미지인 항공촬영 영상이미지를 판독, 편집, 갱신하여 영상처리제어부(90)에 제공하는 항공이미지제공부(40); 불확실한 지형지물, 도로의 끝단 영상이미지를 포함하여 촬영하고, 이를 상기 영상처리제어부(90)에 전송하도록 차량(50)의 상단에 설치되는 영상카메라부(100); 상기 차량(50)의 상단에 설치되고 상기 영상카메라부(100)의 현재위치에 관한 데이터를 검출하여 상기 영상처리제어부(90)에 제공하는 GPS정보검출부(60); 및 상기 영상처리제어부(90)로부터 전송된 항공촬영 영상이미지를 상기 영상카메라부(100)에서 제공되는 영상이미지와 상기 GPS정보검출부(60)에서 제공되는 위치정보에 근거하여 3차원 영상이미지로 변환하는 영상이미지합성부(70); 를 포함하는 영상처리시스템에 있어서, 상기 항공이미지제공부(40)는, GPS좌표가 적용된 항공촬영이미지 데이터와, 항공촬영이미지의 촬영 고도(h2) 정보와, 지상물이미지의 높이(h1) 정보를 저장하는 이미지 DB(1); 상기 이미지 DB(1)의 데이터 및 정보를 검색하는 이미지검색모듈(2); 상기 이미지검색모듈(2)이 검색한 항공촬영이미지 데이터를, 입력기능을 갖는 터치스크린(3a)을 통해 출력하는 출력모듈(3); 상기 터치스크린(3a)에 출력되는 항공촬영이미지 내 지정된 한 쌍의 초기점(P1)과 한 쌍의 말기점(P2)의 좌표값을 확인하고, 상기 좌표값을 잇는 기준직선을 설정해서 초기점(P1)과 말기점(P2)으로 둘러싸인 범위를 도로이미지(30)의 범위로 확정하는 지점선택모듈(4); 상기 도로이미지(30)에 해당하는 픽셀의 지정색상을 확인하고, 상기 기준직선상에 도로이미지(30)의 지정색상과는 불일치한 픽셀들을 검색하고 이렇게 검색된 픽셀들 중 서로 동일한 색상으로 지정된 픽셀들을 연결해 경계로 확정해서 모서리로 한 후 상기 모서리를 수정지상물이미지(20a)의 기준점(a1 내지 a6)으로 설정하고, 수정지상물이미지(20a)가 도로이미지(30)를 덮은 방향으로 검색직선을 형성해서 출력모듈(3)을 통해 터치스크린(3a)에 출력하고, 사용자가 터치스크린(3a)에 출력된 검색직선상의 일지점을 지적해서 선택된 지점에 해당하는 픽셀의 지정색상을 확인한 후, 상기 지정색상과 동일한 색상으로 지정된 픽셀들을 확인해서 상기 픽셀들이 위치한 범위를 경계로 제한해 기준지상물이미지(10a)로 확정하며 상기 경계의 모서리에 기준지상물이미지(10a)의 기준점(b1 내지 b4)을 설정하고, 수정지상물이미지(20a)의 기준점(a1 내지 a6)을 통해 수정지상물이미지(20a)의 평면부 폭(w2)을 연산하는 이미지탐색모듈(5); 상기 기준지상물(10)과 수정지상물(20) 간 중심거리(d)와 상기 항공촬영이미지의 촬영 고도(h2)와 수정지상물(20)의 높이(h1)를 확인해서 'tanθ= (h2 - h1) / d'에 대입해 촬영각(θ)을 연산하고, 수정지상물이미지(20a)의 평면부 폭(w2)과 촬영각(θ)을 'sin(90-θ) = w2/L2'에 대입해 수정된 평면부 폭(L2)을 연산하고, 수정지상물이미지(20a)의 수정 전 평면부 이미지를 분리해서 수정된 평면부 폭(L2)에 맞춰 그 크기를 조정하고, 수정지상물이미지(20a)의 측면부 이미지는 제거하는 이미지도화모듈(7); 및 상기 측면부 이미지가 제거된 항공촬영이미지에 수정된 평면부를 합성하고, 수정지상물이미지(20a)의 측면부 이미지 제거로 형성된 음영부분(D)의 GPS좌표를 확인해서 이미지 DB(1)에서 음영부분(D)의 실제이미지를 포함한 다른 항공촬영이미지를 이미지검색모듈(2)을 매개로 검색하고, 상기 다른 항공촬영이미지의 실제이미지를 크기 및 해상도를 일치시켜서 음영부분(D)에 합성하고, 이미지DB(1)의 항공촬영이미지 데이터를 갱신하는 이미지편집모듈(6);을 포함하며, 상기 영상카메라부(100)는, 상기 영상처리제어부(90)의 해당 제어신호에 의하여 영상이미지를 촬영하는 카메라부(500) 및 상기 카메라부(500)의 하단 양 측부에 형성되어 광각 카메라의 움직임을 제한하는 카메라이동제한부(600)를 포함하여 이루어지되, 상기 카메라부(500)는, 상기 영상처리제어부의 해당 제어신호에 의하여 피사체의 영상이미지를 촬영하는 광각 카메라(510); 상기 차량 상단에 설치되어 광각 카메라(510) 주변의 조도값을 센싱하는 조도센서(511); 상기 차량 상단에 설치되어 태양광의 방향각도값 및 위상값을 출력하는 태양광 센서(512); 상기 광각 카메라(510)의 영상이미지와, 조도센서(511)의 조도값과, 태양광 센서(512)의 태양광의 방향각도값 및 위상값과, 광각 카메라(510)의 특성요소를 이용하여 촬영된 영상이미지를 보정하는 영상보정부(513); 및 상기 광각 카메라(510)의 하단면에 설치되되, 그 하우징(533) 내부의 상단 및 하단에 각각 삽입되는 완충 패드(532)와 상기 완충 패드(532) 사이에 형성되는 압축코일스프링(531)을 구비하는 하부다리(530); 를 포함하는 것을 특징으로 하고, 상기 영상보정부(513)는, 상기 광각카메라(510)에 의해 촬영된 영상이미지를 영상 블록 단위로 출력하여 그 오류여부를 판단하되, 해당 영상 블록의 밝기값과 그 주변 영상 블록의 밝기값의 차이의 합이 미리 설정된 임계값 이상이면 해당 영상 블록에 대응하는 영상이미지에 오류가 있는 것으로 판단하고 영상보정명령을 생성하는 보정판단부(514); 상기 광각카메라(510)에 의해 촬영된 영상이미지 내 지형지물의 음영영역을 추출하되, 촬영 당시 태양광의 방향각도값 및 위상값에 따라 지형지물의 음영영역의 위치 및 크기를 변화시켜 출력하는 음영영역산출부(515); 상기 조도센서(511)의 조도값과, 상기 음영영역산출부(515)의 음영 영역의 위치 및 크기에 기초하여 영상이미지의 영사 블록 밝기값을 보정하되 상기 영상 블록의 밝기 및 영역 분석을 통해 기 설정된 그레이값 이상을 갖는 영역이 존재하는 경우 상기 영상 블록의 밝기값을 주변 영상 블록의 평균 밝기값에 근사해지도록 밝기 정도를 감소시키거나 또는 상기 광각카메라(510)에 의해 촬영된 영상이미지의 평균 피크 휘도값을 산출하고, 이에 기초하여 영상이미지의 촬영 시간이 주간 또는 야간인지 여부를 판정하고, 상기 판정된 시간이 주간 또는 야간 중 일출 또는 일몰에 해당하는 시간인 경우 상기 기 설정된 그레이값 미만을 갖는 영역의 감마값을 조정하여 휘도값을 상승시켜 상기 영상 블록의 밝기값을 주변 영상 블록의 평균 밝기값에 근사해지도록 보정하여 출력하는 제1 영상보정모듈(516); 상기 광각카메라(510)의 설치 높이, 설치 방향, 초점거리, 주점 및 왜곡계수로 이루어지는 카메라의 특성요소를 이용하여 상기 광각카메라(510)에 대응하는 가상카메라의 촬영 영역별 틸트각 및 요각을 산출하는 촬영각도 산출부(517); 및 상기 광각카메라(510)에 의해 촬영된 영상이미지의 촬영영역별 틸트각 및 요각에 따라 상기 가상카메라의 틸트각 및 요각을 조정하여 상기 촬영된 영상이미지의 뷰(view)를 변환하고, 변환된 뷰(view)에 따른 보정 영상이미지를 생성하여 출력하는 제2 영상 보정모듈(518);을 구비하는 것을 특징으로 하며, 상기 카메라이동제한부(600)는, 상기 광각 카메라(510)의 양 측면에 각각 접합되며, 그 하단에 미세조절용 바퀴(630)를 구비하는 적어도 2이상의 측부지지대(610); 상기 측부지지대(610)의 상부와 광각카메라(510) 하단을 연결하는 스프링(630); 및 차량 상단에 형성되되 일정하게 이격되어 형성되는 다수의 걸림턱(641)을 구비하는 레일부(640); 를 구비하되, 상기 걸림턱(641)의 단면은 일측이 직각으로 형성되고, 타측은 원형 경사면을 형성하되, 다수의 걸림턱(641)들은 상기 광각 카메라(510)를 중심으로 서로 대향되도록 형성되고, 상기 측부지지대(531)는 레일부(630)의 걸림턱(641)의 일면에 결착되되, 상기 차량의 상하운동시 상기 측부지지대(610)는 광각카메라(510)를 중심으로 그 안쪽 또는 바깥쪽으로 동시에 절첩되어 결착되어 있던 걸림턱(641)으로부터 다른 걸림턱(641)으로 미세 이동하여 결착되는 것을 특징으로 하고, 상기 광각 카메라(510)의 렌즈 표면에는 퍼플루오르폴리에테르 100 중량부에 대하여 테트라플루오로에틸렌 8 내지 15 중량부, 퍼플루오르메틸비닐에테르 8 내지 15 중량부, 플루오르아크릴아마이드 6 내지 12 중량부 및 퍼플루오르인산화염 7 내지 14 중량부를 포함하며, 30dyne/cm 이하의 표면장력을 가지고 0.2 이하의 동마찰계수를 갖는 코팅층을 구비하는 것을 특징으로 하는 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템을 제공한다. According to an aspect of the present invention, there is provided an aerial image providing unit (40) for reading, editing, and updating an aerial photographic image, which is a two-dimensional plane image photographed using an aircraft, ; An image camera unit 100 installed at an upper end of the vehicle 50 to shoot an image including an image of an uncertain feature and an end image of the road, and to transmit the image to the image processing control unit 90; A GPS information detecting unit 60 installed at an upper end of the vehicle 50 for detecting data on the current position of the image camera unit 100 and providing the data to the image processing control unit 90; And an aerial photographing image transmitted from the image processing control unit 90 into a three-dimensional image image based on the image information provided by the image camera unit 100 and the location information provided by the GPS information detecting unit 60 A video image synthesizing unit 70; (H2) information of an aerial photographing image, a height (h1) information of a ground image, and a height of the ground image An image DB 1 for storing the image data; An image retrieval module (2) for retrieving data and information of the image DB (1); An output module (3) for outputting the aerial photographing image data retrieved by the image retrieval module (2) through a touch screen (3a) having an input function; (P1) and a pair of end points (P2) in the aerial photographing image outputted to the touch screen (3a), sets a reference straight line connecting the coordinate values, A point selection module 4 for determining a range surrounded by the first point P1 and the last point P2 as the range of the road image 30; A predetermined color of a pixel corresponding to the road image 30 is checked and pixels mismatching with the designated color of the road image 30 are searched on the reference straight line. The corners are set as reference points a1 to a6 of the corrected ground image 20a and the corrected ground image 20a is set as a search straight line in a direction covering the road image 30 And outputs it to the touch screen 3a through the output module 3. The user points to one point on the search straight line outputted to the touch screen 3a and confirms the designated color of the pixel corresponding to the selected point, The pixels designated by the same color as the designated color are identified and the range in which the pixels are located is limited to the boundary to be the reference ground water image 10a, The reference points b1 to b4 of the ground ground image 10a and the image widths w1 and w2 of the corrected ground surface image 20a are calculated through the image search Module 5; The center distance d between the reference ground 10 and the modified ground 20 and the height h2 of the ground surface 20 and the photographing height h2 of the aerial photographing image are calculated as tan? (w2) and the photographing angle (?) of the corrected ground image 20a are calculated as sin (90 -?) = w2 / h2 - h1) / d ' L2 'of the modified ground surface image 20a to calculate the corrected planar portion width L2, adjusts the size of the corrected planar portion width L2 according to the modified planar portion width L2, An image drawing module (7) for removing the side portion image of the ground water image (20a); And synthesizing the corrected plane portion with the aerial image obtained by removing the side portion image and confirming the GPS coordinates of the shade portion (D) formed by removing the side portion image of the modified ground image (20a) (D), searches for another aerial photographing image including the actual image of the other aerial photographing image (D) via the image search module (2), synthesizes the actual image of the other aerial photographing image to the shade portion (D) And an image editing module (6) for updating the aerial image data of the DB (1), wherein the image camera unit (100) is configured to photograph the image by the control signal of the image processing control unit And a camera movement restricting unit 600 formed on both sides of the lower end of the camera unit 500 to limit the movement of the wide angle camera. The camera unit 500 includes: Wide-angle camera (510) for recording an image of the subject image by the control signal portion; An illuminance sensor 511 disposed at an upper end of the vehicle and sensing an illuminance value around the wide angle camera 510; A solar light sensor 512 installed at an upper end of the vehicle and outputting a direction angle value and a phase value of sunlight; The photographing is performed using the image of the wide angle camera 510, the illuminance value of the illuminance sensor 511, the direction angle value and the phase value of the sunlight of the solar sensor 512, An image correcting unit (513) for correcting a video image; And a compression coil spring 531 formed between the cushioning pad 532 and the cushioning pad 532 at the lower end of the wide angle camera 510 and inserted into the upper and lower ends of the housing 533, A lower leg 530 having a lower end; The image correcting unit 513 outputs a video image photographed by the wide angle camera 510 on a video block basis to determine whether the video image is an error, A correction determining unit (514) for determining that there is an error in a video image corresponding to the image block and generating an image correction command if a sum of differences in brightness values of the surrounding image blocks is equal to or greater than a preset threshold value; The shaded area calculating unit 510 extracts a shaded area of the feature image captured by the wide angle camera 510 and changes the position and size of the shaded area of the feature according to the direction angle value and phase value of the sun light at the time of shooting, (515); The brightness value of the projection block of the video image is corrected based on the brightness value of the brightness sensor 511 and the position and size of the shadow area of the shadow area calculation unit 515, When there is an area having a gray value greater than a predetermined gray level, the brightness of the image block is reduced so as to approximate the average brightness value of the surrounding image block, or the average brightness of the image The brightness value is calculated, and it is determined whether or not the photographing time of the video image is daytime or nighttime based on the calculated brightness value. If the determined time is the time corresponding to sunrise or sunset during daytime or nighttime, The gamma value of the area is adjusted to raise the brightness value so that the brightness value of the image block is approximated to the average brightness value of the surrounding image block A first image correction module 516 to appointed output; The tilt angle and the yaw angle of the virtual camera corresponding to the wide angle camera 510 are calculated using the characteristic elements of the camera including the installation height, the installation direction, the focal length, the principal point and the distortion coefficient of the wide angle camera 510 A photographing angle calculating section 517; And a tilt angle and a yaw angle of the virtual camera according to a tilt angle and a yaw angle of a video image photographed by the wide angle camera 510 to convert the view of the photographed video image, And a second image correction module 518 for generating and outputting a corrected image corresponding to a view of the wide angle camera 510. The camera movement restricting part 600 includes a first camera At least two side supports 610 having fine adjustment wheels 630 at their lower ends, respectively; A spring 630 connecting the upper portion of the side support 610 and the lower end of the wide angle camera 510; And a plurality of latching protrusions (641) formed at an upper end of the vehicle and spaced apart from each other. The hanging jaw 641 is formed such that one side thereof is formed at a right angle and the other side thereof is formed with a circular inclined surface, and a plurality of hooking jaws 641 are formed to face each other with respect to the wide angle camera 510 The side support frame 531 is attached to one side of the engagement protrusion 641 of the rail part 630 and the side support frame 610 is fixed to the inside or outside of the wide angle camera 510 And the other end of the wide angle camera 510 is attached to the surface of the lens of the wide angle camera 510. The surface of the lens of the wide angle camera 510 is coated with tetra 8 to 15 parts by weight of fluoroethylene, 8 to 15 parts by weight of perfluoromethyl vinyl ether, 6 to 12 parts by weight of fluoroacryl amide and 7 to 14 parts by weight of perfluorine phosphoric acid salt, and 30 dyne / cm or less Has a surface tension provides a video processing system for combining the air and ground image pictures, it characterized in that a coating layer having a coefficient of dynamic friction of not more than 0.2.

본 발명에 의하면, 차량에 설치되고 영상처리를 위한 영상이미지 확보용 영상카메라를 외부의 진동, 충격 등으로부터 이동상태를 제한함으로써 영상이미지의 오류를 최소화하되, 차량에 설치된 카메라로부터 확보된 영상이미지의 밝기값, 뷰(view) 변환을 통해 실제에 근사한 영상이미지로 보정하여 지상 이미지를 추출하고, 실사를 촬영한 항공 이미지를 기반으로 하는 지도 제작시, 건물 등과 같은 지상물의 평면모습만을 지도에 표현해서, 이웃하는 다른 지상물에 대한 시각적인 간섭을 방지하며, 지상물의 배치모습을 사용자가 정확히 이해할 수 있도록 보정한 후, 오류가 최소화된 항공이미지 및 영상이미지(지상 이미지)를 합성처리하여 정밀한 3차원 영상이미지를 제공하는 효과가 있다. According to the present invention, it is possible to minimize an error of a video image by limiting the moving state of a video camera installed in a vehicle and securing a video image for image processing from an external vibration or impact, It extracts the ground image by correcting it to the actual image image by the brightness value and the view conversion and displays only the plane view of the ground such as the building on the map when creating the map based on the aerial image , Prevent visual interference to other neighboring grounds, calibrate the layout of the ground so that the user can understand it correctly, and synthesize the aerial image and image (ground image) There is an effect of providing a video image.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other solutions not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 종래기술에 의한 항공사진 지도의 모습을 예시도.
도 2는 본 발명에 일실시예에 따른 항공이미지 제공부의 구성도.
도 3은 본 발명에 일실시예에 따른 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템에 적용되는 항공촬영된 이미지를 도시한 예시도.
도 4는 본 발명에 일실시예에 따른 항공이미지 제공부의 영상처리방법을 나타낸 순서도.
도 5는 본 발명에 일실시예에 따른 항공이미지 제공부의 영상처리방법 적용을 위한 항공촬영모습을 도시한 예시도.
도 6은 본 발명에 일실시예에 따른 항공이미지 제공부의 영상처리방법에 따라 보정된 지상물의 모습을 도시한 예시도.
도 7은 본 발명에 따른 일실시예에 따른 항공이미지 제공부의 영상처리방법에 따라 보정된 수직영상을 보인 이미지.
도 8 은 본 발명의 일실시예에 의한 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템의 구성도.
도 9 는 본 발명의 일실시예에 의한 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템이 적재되는 차량의 정면도.
도 10 은 본 발명의 일실시예에 의한 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템이 적재되는 차량의 평면도.
도 11은 본 발명의 일실시예에 의한 카메라부가 구비하는 영상보정부의 세부 구성도.
도 12 는 본 발명의 일실시예에 의한 광각카메라 및 카메라이동제한부의 모습을 나타낸 예시도.
도 13 내지 14는 본 발명의 일실시예에 의한 광각카메라의 상하이동시 측부지지대가 이동하여 다른 걸림턱에 결착되는 모습을 나타낸 예시도.
Brief Description of the Drawings Fig. 1 shows an aerial photograph map according to the prior art. Fig.
2 is a configuration diagram of an aerial image providing unit according to an embodiment of the present invention;
3 is an exemplary view showing aerial photographed images applied to an image processing system for composing an aerial image and a ground image according to an embodiment of the present invention;
4 is a flowchart illustrating an image processing method of an aerial image providing unit according to an embodiment of the present invention.
5 is an exemplary view showing an aerial photographing for applying an image processing method of an aerial image providing unit according to an embodiment of the present invention.
FIG. 6 is an exemplary view showing a state of ground water corrected according to an image processing method of an aerial image providing unit according to an embodiment of the present invention; FIG.
7 is an image showing a vertical image corrected according to an image processing method of an aerial image providing unit according to an embodiment of the present invention.
8 is a configuration diagram of an image processing system for synthesizing an aerial image and a ground image according to an embodiment of the present invention.
9 is a front view of a vehicle in which an image processing system for synthesizing an aerial image and a ground image according to an embodiment of the present invention is loaded.
10 is a plan view of a vehicle on which an image processing system for synthesizing an aerial image and a ground image according to an embodiment of the present invention is mounted.
11 is a detailed configuration diagram of an image correction unit provided in a camera unit according to an embodiment of the present invention.
12 is an exemplary view showing a state of a wide angle camera and a camera movement restricting unit according to an embodiment of the present invention;
13 to 14 are views showing a state in which the upper and lower concave side supports of the wide angle camera according to the embodiment of the present invention are moved and hooked to the other hooks.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be interpreted in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined. Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 8 은 본 발명의 일실시예에 의한 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템의 구성도. 또한, 도 9 는 본 발명의 일실시예에 의한 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템이 적재되는 차량의 정면도이고, 도 10 은 본 발명의 일실시예에 의한 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템이 적재되는 차량의 평면도이다.8 is a configuration diagram of an image processing system for synthesizing an aerial image and a ground image according to an embodiment of the present invention. FIG. 9 is a front view of a vehicle on which an image processing system for synthesizing an aerial image and a ground image according to an embodiment of the present invention is mounted. FIG. 10 is a view showing a composite image of an aerial image and a ground image according to an embodiment of the present invention. Fig. 2 is a plan view of a vehicle in which the image processing system is mounted.

본 발명의 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템은 차량(50)의 상단에 설치되는 항공이미지 제공부(40), GPS정보검출부(60), 영상이미지합성부(70), 영상처리제어부(90) 및 영상카메라부(100)를 포함하여 구성된다. The image processing system for synthesizing the aerial image and the ground image of the present invention includes an aerial image providing unit 40 installed at the upper end of the vehicle 50, a GPS information detecting unit 60, a video image synthesizing unit 70, (90) and an image camera unit (100).

상기 항공이미지 제공부(40)는 영상처리제어부(90)에 연결되며 항공기를 이용하여 사전에 지표면이 촬영된 2 차원의 평면 이미지인 항공촬영 영상이미지를 보정한 후, 상기 영상처리제어부(90)의 해당 제어신호에 의하여 보정된 항공촬영 영상이미지를 출력 또는 제공하는 기능을 수행한다. The aviation image providing unit 40 is connected to the image processing control unit 90. The aviation image providing unit 40 corrects an aerial photographing image, which is a two-dimensional plane image in which an earth surface was previously photographed using an aircraft, And outputs or provides the aerial photographic image image corrected by the corresponding control signal.

상기 GPS정보검출부(60)는 차량(50)의 상단 일측에 배치될 수 있고, 상기 영상처리제어부(90)에 연결되어 해당 신호를 송수신하는 통신을 진행할 수 있다. 상기 GPS정보검출부(60)는 GPS 인공위성으로부터 수신되는 GPS신호를 수신하고 분석하여 현재 위치에서의 위도, 경도, 해발, 이동방향, 이동속도, 시간 등이 포함되는 좌표정보(또는 위치정보)로 출력하는 것으로서, 다수의 GPS수신부를 구비할 수 있다. 상기 GPS정보검출부(60)는 영상카메라부(100)에 인접한 위치에 설치되어 동작되는 것이 오차를 줄이기 위하여 바람직하다. The GPS information detecting unit 60 may be disposed at an upper end of the vehicle 50 and may be connected to the image processing control unit 90 to perform communication for transmitting and receiving the signals. The GPS information detecting unit 60 receives and analyzes GPS signals received from the GPS satellites and outputs them as coordinate information (or position information) including latitude, longitude, sea level, moving direction, moving speed, And a plurality of GPS receiving units may be provided. The GPS information detecting unit 60 is preferably installed at a position adjacent to the image camera unit 100 so as to reduce an error.

상기 항공이미지 제공부(40), 영상이미지합성부(70), 영상처리제어부(90) 및 영상카메라부(100)에 에 대해서는 자세히 후술하기로 한다. The air image providing unit 40, the image combining unit 70, the image processing control unit 90, and the image camera unit 100 will be described later in detail.

도 2는 본 발명에 일실시예에 따른 항공이미지 제공부의 구성도이고, 도 3은 본 발명에 일실시예에 따른 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템에 적용되는 항공촬영된 이미지를 도시한 예시도인 바, 이를 참조하여 항공이미지 제공부(40)의 구성 및 그 영상처리 방식에 대해 살펴보기로 한다. FIG. 2 is a configuration diagram of an aerial image providing unit according to an embodiment of the present invention. FIG. 3 is a view showing an aerial photographed image applied to an image processing system for composing an aerial image and a ground image according to an embodiment of the present invention, The configuration of the image providing unit 40 and the image processing method thereof will be described with reference to FIG.

상기 항공이미지 제공부(40)는, 다양한 지역의 항공촬영이미지 데이터를 저장하는 이미지DB(1)와, 이미지DB(1)에서 특정 항공촬영이미지 데이터를 검색하는 이미지검색모듈(2)과, 검색된 항공촬영이미지 데이터를 읽고 출력하는 출력모듈(3)과, 출력모듈(3)에 의해 출력된 항공촬영이미지에서 특정 지점을 선택해 수정해야할 지상물이미지의 탐색 기준을 설정하는 지점선택모듈(4)과, 상기 탐색 기준에 따라 수정지상물이미지(20a; 도 6(a) 참고)를 탐색하는 이미지탐색모듈(5)과, 수정된 수정지상물이미지(20a'; 도 6(b) 참고)를 기존 항공촬영이미지 데이터에 적용해 합성 및 갱신처리하는 이미지편집모듈(6)과, 수정해야할 수정지상물이미지(20a)를 수정하는 이미지도화모듈(7)를 포함하여 형성될 수 있다. The air image providing unit 40 comprises an image DB 1 for storing aerial photographing image data of various regions, an image retrieving module 2 for retrieving specific aerial photographing image data from the image DB 1, An output module 3 for reading and outputting aerial image data, a point selection module 4 for setting a search criterion of a ground image to be corrected by selecting a specific point in the aerial image output by the output module 3, , An image search module 5 for searching the modified ground image 20a (see FIG. 6 (a)) according to the search criteria, and a modified modified ground image image 20a '(see FIG. 6 An image editing module 6 for applying to the aerial image data and synthesizing and updating the aerial image data and an image drawing module 7 for modifying the modified ground image 20a to be corrected.

상기 데이터를 저장하는 이미지DB(1)와, 이미지DB(1)에서 특정 데이터를 검색하는 이미지검색모듈(2)은, 그 구성과 구조가 공지, 공용되는 통상적인 기술이므로, 여기서는 그 설명을 생략한다.Since the image DB 1 for storing the data and the image retrieval module 2 for retrieving specific data in the image DB 1 are a common technique in which the structure and structure are known and shared, do.

상기 출력모듈(3)은 화면 입력기능을 갖는 터치스크린(3a)에, 이미지검색모듈(2)이 검색한 데이터를 출력하는 것으로, 이미지DB(1)의 데이터는 항공촬영이미지이고, 출력모듈(3)은 터치스크린(3a)을 통해 항공촬영이미지를 출력하기 위한 모듈이라 할 수 있다. 상기 출력모듈(3)은 사용자가 터치스크린(3a)을 터치한 지점을 확인해서 해당 정보를 입력하는 기능을 갖는 것이 바람직하다. The output module 3 outputs data retrieved by the image retrieval module 2 to the touch screen 3a having a screen input function. The data of the image DB 1 is an aerial photograph image, 3 may be a module for outputting an aerial photographing image through the touch screen 3a. The output module 3 preferably has a function of confirming a point where the user touches the touch screen 3a and inputting the information.

상기 지점선택모듈(4)은 항공촬영이미지에서 수정지상물이미지(20a)를 탐색하기 위한 기준을 설정하는 기능을 수행하며, 탐색을 위한 상기 기준은 항공촬영이미지에 포함된 도로이미지(30) 등이 될 수 있다. The point selection module 4 functions to set a reference for searching the modified ground image 20a in the aerial photographing image, and the reference for the search is the road image 30 included in the aerial photographing image .

보다 더 자세하게 도 5를 참조하면, 기준지상물(10) 및 수정지상물(20)의 인접 지역에는 아스팔트와 같이 균일한 색상으로 포장된 도로가 위치한다. 이와 같은 도로는 기준지상물(10) 또는 수정지상물(20)과는 매우 근접하므로, 수정지상물(20)의 측면부가 촬영돼 도로 쪽으로 기울어진 외관을 보이게 되는 수정지상물이미지(20a)는 도로이미지(30)의 가장자리 부분을 점유할 수 밖에 없다.Referring to FIG. 5 in more detail, adjacent roads of the reference ground water 10 and the modified ground water 20 are located in roads of uniform color, such as asphalt. Such a road is very close to the reference ground water 10 or the modified ground water 20 so that the modified ground water image 20a in which the side portion of the modified ground water 20 is photographed to show an inclined appearance toward the road It is necessary to occupy the edge portion of the road image 30.

본 발명의 항공이미지 제공부(40)의 영상처리방식은 위와 같은 이용한 것으로, 상기 지점선택모듈(4)은 사용자가 터치스크린(3a)을 통해 지정한 한 쌍의 초기점(P1)과 한 쌍의 말기점(P2)을 기준으로 해당 범위 내에 있는 이미지를 도로이미지(30)로 확정한다. 즉, 지점선택모듈(4)은 사용자가 선택한 초기점(P1) 및 말기점(P2)의 각 좌표값을 확인해서 이를 기준직선으로 연결해 잇고, 이렇게 형성된 기준직선은 도로의 경계가 되면서 도로이미지(30)의 범위가 확정되는 것이라 할 수 있다.The image processing method of the aerial image data providing unit 40 of the present invention is used as described above. The point selection module 4 has a pair of initial points P1 designated by the user through the touch screen 3a, The image within the range is determined as the road image 30 based on the terminal point P2. That is, the point selection module 4 confirms each coordinate value of the initial point P1 and the end point P2 selected by the user and connects them to the reference straight line. The reference straight line thus formed becomes the road boundary, 30) can be determined.

상기 이미지탐색모듈(5)은 지점선택모듈(4)에 의해 범위와 그 경계가 확정된 도로이미지(30)의 색상을 확인한 후, 도로이미지(30)의 가장자리에 해당하는 픽셀의 지정된 색상을 확인해서, 도로이미지(30)의 색상과 비교해 그 일치 여부를 확인하는 기능을 수행한다. The image search module 5 checks the color of the road image 30 whose range and its boundary are confirmed by the point selection module 4 and then confirms the designated color of the pixel corresponding to the edge of the road image 30 And compares the color of the road image 30 with the color of the road image 30 and confirms whether or not they match.

보다 더 자세히 말하자면, 상기 이미지탐색모듈(5)은 앞서 설정한 기준직선에 해당하는 픽셀의 지정된 색상을 확인하고, 이렇게 확인된 색상과 도로이미지(30)의 색상을 비교해서, 일정길이 이상 도로이미지(30)의 색상과는 불일치하면서 서로는 동일한 색상이 지정된 픽셀의 구간(T)이 확인되면, 해당 구간(T)은 수정지상물이미지(20a)가 위치한 것으로 간주해 이를 수정대상으로 설정하게 된다. More specifically, the image search module 5 checks the designated color of the pixel corresponding to the reference straight line set in advance, compares the color thus verified with the color of the road image 30, If the interval T of the pixel having the same color as the color of the pixel 30 is identified, the corresponding section T is regarded as the corrected ground object image 20a and is set as the correction target.

물론, 수정지상물이미지(20a)에 해당하는 픽셀의 지정 색상과 도로이미지(30)에 해당하는 픽셀의 지정 색상이 일치해서 상기 구간(T)이 확인되지 않더라도, 기준직선의 주변 픽셀의 지정 색상도 아울러 확인해서 기준직선으로부터 일정간격이상 벗어난 위치의 픽셀에도 도로이미지(30)의 색상과 동일, 유사한 색상이 연속적으로 확인되면, 이는 수정지상물이미지(20a)로 간주해서 이를 수정대상으로 설정한다.Of course, even if the specified color of the pixel corresponding to the modified ground image 20a matches the designated color of the pixel corresponding to the road image 30, And the similar color similar to the color of the road image 30 is consecutively identified to the pixel at a position apart from the reference straight line by more than a predetermined distance from the reference straight line, this is regarded as the modified ground image 20a and is set as a correction target .

계속해서, 상기 이미지도화모듈(7)은 설정된 수정지상물이미지(20a)를 수정하고, 상기이미지편집모듈(6)은 수정된 수정지상물이미지(20a')를 항공촬영이미지에 적용해 갱신하는 것으로, 이에 대한 설명은 자세히 후술하기로 한다. Subsequently, the image-drawing module 7 modifies the set modified ground image 20a, and the image editing module 6 applies the modified modified ground image 20a 'to the aerial photograph image and updates An explanation thereof will be described later in detail.

도 4는 본 발명에 일실시예에 따른 항공이미지 제공부의 영상처리방법을 나타낸 순서도이고, 도 5는 본 발명에 일실시예에 따른 항공이미지 제공부의 영상처리방법 적용을 위한 항공촬영모습을 도시한 예시도이며, 도 6은 본 발명에 일실시예에 따른 항공이미지 제공부의 영상처리방법에 따라 보정된 지상물의 모습을 도시한 예시도이다. FIG. 4 is a flowchart illustrating an image processing method of an aerial image providing unit according to an embodiment of the present invention, FIG. 5 is a view illustrating an aerial photographing for applying an image processing method of an aerial image providing unit according to an embodiment of the present invention And FIG. 6 is an exemplary view showing a state of a ground object corrected according to an image processing method of an aerial image providing unit according to an embodiment of the present invention.

본 발명에 따른 항공이미지 제공부(40)의 영상처리방법은 항공촬영시 촬영되는 지상물의 측면부를 보정해서, 지도로서 완성된 항공촬영이미지가 지상물의 평면만을 정확히 표시할 수 있도록 하고, 이를 통해 상기 항공촬영이미지가 지도의 기능을 효과적으로 수행할 수 있도록 조력하게 된다. The image processing method of the aviation image providing unit 40 according to the present invention corrects the side portion of the ground image taken at the time of aerial photographing so that the completed aerial photographing image can display only the plane of the ground surface accurately, The aerial photographing image helps to effectively perform the function of the map.

상기 항공이미지 제공부(40)의 영상처리방법을 도 4의 순서도를 참조해서 설명하면 아래와 같다. The image processing method of the aviation image providing unit 40 will be described with reference to the flowchart of FIG.

먼저, 수정대상 선택단계(S11)로서, 상기 출력모듈(3)은 다양한 지상물이미지(10a, 20a)를 포함하는 항공촬영이미지를 출력하고, 상기 지점선택모듈(4) 및 이미지탐색모듈(5)은 수정지상물이미지(20a)를 탐색해 결정하는 단계를 거친다.The output module 3 outputs an aerial photographing image including various ground image images 10a and 20a and selects the point selection module 4 and the image search module 5 ) Is a step of searching and determining the modified ground image 20a.

이어서, 수정대상 기준점 설정단계(S12)로서, 수정지상물이미지(20a)가 결정되면, 항공촬영이미지에서 수정지상물이미지(20a)가 점유하고 있는 범위를 확인하고, 수정지상물이미지(20a)가 갖는 모서리를 기준점(a1 내지 a6)으로 설정한다. Then, when the corrected ground image 20a is determined as the correction target point setting step S12, the range occupied by the corrected ground image 20a in the aerial image is confirmed, and the corrected ground image 20a is determined. Are set as reference points a1 to a6.

도 6(a)를 참조하면, 기준점(a1 내지 a6)으로 선택되는 모서리는 수정지상물이미지(20a)의 평면부와 측면부의 경계부에 위치한 모서리(a3, a4)도 포함된다. 이를 위해, 이미지탐색모듈(5)은 수정지상물이미지(20a)에 해당하는 픽셀의 지정 색상을 확인해서, 수정지상물이미지(20a)의 경계를 확정하고, 이렇게 확정된 경계에서 모서리부분을 확인해서 상기 기준점(a1 내지 a6)을 설정한다.6A, the edges selected as the reference points a1 to a6 include the edges a3 and a4 located at the boundary portion between the planar portion and the side portion of the modified ground-based water image 20a. To this end, the image search module 5 confirms the designated color of the pixel corresponding to the modified ground image 20a, determines the boundary of the modified ground image 20a, and confirms the edge portion at the thus determined boundary The reference points a1 to a6 are set.

상기 이미지탐색모듈(5)은 수정지상물이미지(20a)의 기준점(a1 내지 a6)을 설정하면, 이 기준점(a1 내지 a6)을 기준으로 수정지상물이미지(20a)의 전체 폭(w1)과 평면부 폭(w2)을 각각 연산한다. The image search module 5 sets the reference points a1 to a6 of the corrected ground image 20a and determines the total width w1 of the corrected ground image 20a based on the reference points a1 to a6 And the plane portion width w2.

참고로, 기준점(a1 내지 a6)이 설정되며 이미지탐색모듈(5)은 픽셀을 매개로 해당 지점에 대한 좌표값을 확인하고, 이 좌표값들을 이용해 공지의 계산방법으로 수정지상물이미지(20a)의 전체 폭(w1)과 평면부 폭(w2)을 연산할 수 있다. 이 때, 전체 폭(w1)과 평면부 폭(w2)은, 수정지상물이미지(20a)의 기울어진 방향으로의 전체 및 평면부의 길이가 된다. For reference, the reference points a1 to a6 are set, and the image search module 5 confirms coordinate values for the corresponding points via the pixels, and the corrected ground image 20a is calculated by a known calculation method using these coordinate values. The total width w1 and the width w2 of the flat portion can be calculated. At this time, the total width w1 and the planar portion width w2 are the lengths of the whole and the planar portion in the inclined direction of the modified ground image 20a.

이어서 기준대상 선택단계(S13)를 거치게 된다. 일반적으로 비행중인 항공기에서 지상을 촬영할 시에는 특정 지상물의 평면이 정확히 촬영될 수 있다(도 5 참조). 물론, 기준지상물(10)의 평면만을 100%로 촬영해서 항공촬영이미지에 출력할 수는 없으므로, 육안으로 확인할 때 평면으로 지각되면서 주변 도로이미지(30)를 식별할 수 있다면 기준지상물이미지(10a)로 선택되기에 충분하다 할 것이다.Subsequently, a reference object selection step S13 is performed. In general, when photographing the ground on an aircraft in flight, the plane of the specific ground can be accurately photographed (see FIG. 5). Of course, since only the plane of the reference ground water 10 can be photographed at 100% and output to the aerial photograph image, if the perimeter road image 30 can be recognized while being perceived as a plane in the visual confirmation, 10a). ≪ / RTI >

한편, 사용자는 위와 같은 조건을 충족하는 기준지상물(10)을 기준대상으로 선택하되, 수정대상으로 선택된 수정지상물(20)의 위치를 고려해 선택하는 것이 바람직하다. 예컨대, 기준지상물(10)은 수정지상물(20)의 측면이 보이도록 기울어진 방향과 동일직선상에 위치하는 지상물을 선택해서 이를 기준대상으로 하는 것일 수 있다. On the other hand, it is preferable that the user selects the reference ground object 10 satisfying the above conditions as a reference object, considering the position of the modified ground object 20 selected as the object of correction. For example, the reference ground water 10 may be selected by selecting a ground water located on the same straight line as a direction tilted so that the side surface of the modified ground water 20 is seen.

그러므로, 상기 이미지탐색모듈(5)은 수정지상물이미지(20a)가 도로이미지(30)를 덮은 방향으로 검색직선을 형성하고, 출력모듈(3)은 상기 검색직선을 터치스크린(3a)에 출력해서, 사용자가 검색직선 상에 위치한 이미지들 중 기준지상물이미지(10a)로 선택할 지점을 터치해 이를 입력할 수 있도록 기능할 수 있다. Therefore, the image search module 5 forms a search straight line in the direction that the modified ground image 20a covers the road image 30, and the output module 3 outputs the search straight line to the touch screen 3a , So that the user can touch the point to be selected as the reference ground image 10a among the images positioned on the search straight line and input the same.

이어서, 기준대상 기준점 설정단계(S14)를 거치게 된다. 위와 같이 기준지상물이미지(10a)가 선택되면, 상기 이미지탐색모듈(5)은 사용자가 터치한 지점 픽셀의 지정 색상을 확인해서, 당해 색상과 동일, 유사한 픽셀의 범위를 기준지상물이미지(10a)의 경계로 확정하고, 이렇게 확정된 경계에서 모서리부분을 확인해서 상기 기준점(b1 내지 b4)을 설정한다. 상기 기준점(b1 내지 b4)이 설정되면, 이미지탐색모듈(5)은 기준점(b1 내지 b4)을 기준으로 기준지상물이미지(10a)의 평면 폭(L1)을 연산하게 된다. Then, a reference object reference point setting step S14 is performed. When the reference ground surface image 10a is selected as described above, the image search module 5 confirms the designated color of the point pixel touched by the user, ), And confirms the corner portion at the thus determined boundary to set the reference points b1 to b4. When the reference points b1 to b4 are set, the image search module 5 calculates the plane width L1 of the reference ground image 10a based on the reference points b1 to b4.

이어서, 촬영각 연산단계(S15)를 거친다. 기준지상물이미지(10a)가 선택되면, 이미지도화모듈(7)은 도 5에 도시한 바와 같이 촬영중인 항공기가 기준지상물(10)의 직상방에 위치하면서 해당 기준지상물(10)을 촬영하는 것으로 구조화한다.Subsequently, the photographing angle calculating step S15 is performed. When the reference ground water image 10a is selected, the image drawing module 7 displays the reference ground water 10 as it is positioned on the upper right room of the reference ground water 10 as shown in FIG. .

한편, 이미지도화모듈(7)은 기준지상물(10)과 수정지상물(20) 간의 실제 중심거리(d)를 확인한다. 상기 중심거리(d)는 기준지상물이미지(10a)의 기준점(b1 내지 b4) 내 중심점과 수정지상물이미지(20a) 평면부의 기준점(a3 내지 a6) 내 중심점 간 거리를 연산한 후, 그 결과값을 항공촬영이미지의 축척 정도로 환산해 얻을 수 있다. 아울러, 이미지검색모듈(2)은 이미지DB(1)에서 당해 항공촬영이미지 촬영시 항공기의 고도(h2)와, 수정지상물(20)의 실제 높이(h1)를 검색해 확인한다.On the other hand, the image drawing module 7 confirms the actual center distance d between the reference ground object 10 and the modified ground object 20. The center distance d is calculated by calculating the distance between the center point in the reference points b1 to b4 of the reference groundwater image 10a and the center points in the reference points a3 to a6 of the plane portion of the modified groundwater image 20a, The value can be obtained by converting the value to the scale of the aerial photograph image. The image search module 2 searches and confirms the altitude h2 of the aircraft and the actual height h1 of the corrected ground object 20 at the time of photographing the aerial photographing image in the image DB 1. [

계속해서, 이미지도화모듈(7)은 항공기에서 촬영된 수정지상물(20)의 촬영각(θ)을 연산한다. 여기서 촬영각(θ)이란 카메라의 촬영방향과 수정지상물(20)의 배치방향의 각을 가리키는 것이다. 따라서, 항공기가 기준지상물(10)의 직상방에 위치하면서 항공기의 카메라가 기준지상물(10)을 촬영하는 촬영각(θ)은 '0도'가 될 것이다. 상기 촬영각(θ) 연산을 위해서는 'tanθ= (h2 - h1)/d'의 수학식을 이용할 수 있다. Subsequently, the image drawing module 7 calculates the photographing angle [theta] of the corrected ground object 20 photographed on the aircraft. Here, the photographing angle? Refers to the angle of the photographing direction of the camera and the arrangement direction of the modified ground 20. Therefore, the photographing angle [theta] at which the camera of the aircraft photographs the reference ground water 10 while the airplane is located in the room directly above the reference ground water 10 will be '0 degree'. In order to calculate the photographing angle?, It is possible to use a formula of tan? = (H2 - h1) / d '.

이어서, 수정대상 범위연산단계(S16)을 거친다. Then, a correction target range calculation step S16 is performed.

도 5 및 도 6에 도시한 바와 같이, 항공기의 카메라가 수정지상물(20)의 직상방에 위치하지 못하면, 촬영된 수정지상물이미지(20a)는 수정지상물(20)의 평면부와 측면부가 포함돼 출력된다. 예컨대, 수정지상물이미지(20a)가 점유하는 것처럼 보이는 항공촬영이미지 내 면적은, 수정지상물(20)이 지상을 점유하는 평면적을 항공촬영이미지의 축척 정도로 연산해 얻은 면적과 차이가 있는 것이다. 5 and 6, if the camera of the aircraft is not located in the room directly above the modified ground water 20, the photographed modified ground water image 20a is projected on the plane portion of the modified ground water 20, . For example, the area in the aerial photograph image that appears to be occupied by the modified ground image 20a is different from the area obtained by calculating the planar area occupied by the ground 20 by the degree of scale of the aerial photograph image.

보다 더 자세하게 설명하면, 상기 수정지상물이미지(20a)는 항공촬영시 수정지상물(20)이 비스듬히 촬영되면서 그 수정지상물이미지(20a)에 수정지상물(20)의 평면부와 측면부가 포함되고, 이로 인해 수정지상물(20)이 실제로 점유하지 않은 지상부분이 수정지상물(20)에 의해 가려진다. More specifically, the modified ground water image 20a includes a flat portion and a side portion of the modified ground water 20 in the modified ground water image 20a while the modified ground water 20 is taken obliquely during aerial photographing So that the ground part which is not actually occupied by the modified ground water 20 is covered by the modified ground water 20.

이와 같이 촬영된 항공촬영이미지에는 수정지상물(20)이 가린 부분도 수정지상물(20)의 일부분으로 확인되어서, 수정지상물이미지(20a)는 수정지상물(20)의 실제 모습보다 큰 구조물로 보이게 된다. 물론, 이러한 오류는 수정지상물이미지(20a)에 인접하는 도로이미지(30)까지 가려 보이지 않게 하므로, 당해 항공촬영이미지를 기반으로 제작된 지도를 이용하는 사용자는 지도이용에 혼란을 느끼게 된다.The aerial photographing image thus obtained is also confirmed as a part of the modified ground water 20 so that the modified ground water image 20a is larger than the actual appearance of the modified ground water 20 . Of course, such an error makes it impossible to obscure the road image 30 adjacent to the modified ground image 20a, so that a user who uses the map based on the air photographing image becomes confused in using the map.

그러므로, 위와 같은 문제점을 해소하기 위해 항공촬영이미지에 출력된 수정지상물이미지(20a)의 크기를 보정해서, 항공기가 수정지상물(20)의 직상방에서 촬영한 것과 같은 효과를 발하는 항공촬영이미지 수정을 진행한다. Therefore, in order to solve the above problem, the size of the modified ground image 20a output to the aerial image is corrected so that the aerial photograph image Proceed with the correction.

이를 위해 이미지도화모듈(7)은 보정해야 할 항공촬영이미지 내 수정지상물이미지(20a)의 평면부 폭(w2)과, 촬영각(θ)을 수학식 'sin(90-θ) = w2/L2'에 대입해서, 수정지상물(20)의 평면을 직상방에서 촬영했을 때의 수정된 평면부 폭(L2)을 연산할 수 있다. To this end, the image drawing module 7 calculates the plane width w2 and the photographing angle? Of the corrected ground image 20a in the aerial photographing image to be corrected by the following equation: sin (90 -?) = W2 / L2 'to calculate the corrected plane portion width L2 when the plane of the corrected ground object 20 is photographed in the room immediately above.

이어서 수정대상 이미지보정단계(S17)을 거치게 된다. Then, the correction target image correction step S17 is performed.

상기 이미지도화모듈(7)은 수정된 평면부 폭(L2)에 맞춰 보정된 수정지상물이미지(20a')를 완성한다. 보정된 수정지상물이미지(20a')는 기존 수정지상물이미지(20a)의 측면부는 제거되고, 평면부의 크기는 수정된 평면부 폭(L2)에 맞춰 보정된다. The image-drawing module 7 completes the corrected ground-water image 20a 'that is corrected to the corrected plane width L2. The corrected corrected ground image 20a 'is corrected such that the side portion of the existing modified ground image 20a is removed and the size of the plane portion is corrected to the modified plane width L2.

여기서, 이미지도화모듈(7)에 의한 수정지상물이미지(20a')의 도화는 아래과 같이 진행된다. 우선, 기존 수정지상물이미지(20a)의 평면부만을 절개해 독립된 평면이미지로 확보한다. 이렇게 확보된 평면이미지는 기존의 수정지상물이미지(20a) 평면부의 폭(w2) 대비 수정된 수정지상물이미지(20a')의 수정된 평면부 폭(L2)의 비율에 따라 변형되는데, 이러한 변형은 공지의 이미지변형기술을 적용할 수 있다.Here, the drawing of the modified ground water image 20a 'by the image drawing module 7 proceeds as follows. First, only the plane portion of the existing modified ground image 20a is cut out to obtain an independent plane image. The thus obtained planar image is deformed in accordance with the ratio of the modified planar surface water image 20a 'to the modified planar surface width (L2) to the width (w2) of the planar portion of the existing modified ground image 20a, A known image deformation technique can be applied.

한편, 이미지편집모듈(6)에 의한 수정된 평면부를 합성할 때의 기준은 기준지상물이미지(10a)와 직접 마주하는 모서리(a1, a2)로 한다. 이는 수정지상물이미지(20a)의 기울어진 모습과는 상관없이 기준지상물이미지(10a)와 비교해 상기 모서리(a1, a2)는 지상에서 항시 고정된 위치이기 때문이다.On the other hand, the reference when synthesizing the corrected plane portion by the image editing module 6 is assumed to be the edges a1 and a2 directly facing the reference ground image 10a. This is because the edges a1 and a2 are always fixed positions on the ground as compared with the reference ground water image 10a irrespective of the tilted state of the modified ground water image 20a.

그리고, 이미지합성단계(S18)를 거치게 된다. Then, an image synthesis step S18 is performed.

도 6에 도시한 바와 같이, 수정지상물이미지(20a')의 수정이 완료되면, 기존 수정지상물이미지(20a)가 점유해 출력되지 못했던 음영부분(D)의 처리가 요구된다. 이를 위해 이미지편집모듈(6)은 이미지검색모듈(2)을 통해 이미지DB(1)에서 음영부분(D)의 실제이미지가 촬영된 다른 항공촬영이미지를 검색하고, 이렇게 검색된 다른 항공촬영이미지를 수정지상물이미지(20a')가 포함된 항공촬영이미지의 크기 및 해상도에 일치시킨다. As shown in Fig. 6, when the modification of the modified ground image 20a 'is completed, the processing of the shaded portion D, in which the existing modified ground image 20a is not occupied and output, is required. To this end, the image editing module 6 searches the image DB 1 via the image search module 2 for another aerial shot image in which the actual image of the shade portion D has been shot, And coincides with the size and resolution of the aerial photograph image including the ground water image 20a '.

참고로, 상기 이미지DB(1)에 저장된 항공촬영이미지는 수치지도로서 그 기능을 수행하는 데이터이므로, 상기 항공촬영이미지에는 GPS좌표가 적용된 수치지도데이터라 할 수 있으며, 따라서, 이미지편집모듈(6)은 음영부분(D)에 대한 GPS좌표를 확인하고, 이를 기초로 이미지DB(1)를 검색해서 음영부분(D) 전체가 정상적으로 출력된 다른 항공촬영이미지를 검색할 수 있다.Since the aerial photograph image stored in the image DB 1 is data that performs its function as a digital map, the aerial photograph image may be digital map data to which GPS coordinates are applied. Accordingly, the image editing module 6 Checks the GPS coordinates of the shaded portion D and searches the image DB 1 based on the GPS coordinates to search for another aerial shot image in which the entire shaded portion D is normally output.

상기 실제이미지와 항공촬영이미지의 크기 및 해상도가 일치되면, 이미지편집모듈(6)은 다른 항공촬영이미지에서 절개된 음영부분(D)의 실제이미지를 수정지상물이미지(20a')를 포함한 항공촬영이미지의 음영부분(D)에 합성해서, 도 7에 도시한 바와 같이 음영부분(D)을 제거하고, 완전한 수직영상이 출력되도록 한다.If the size and resolution of the actual image and the aerial shot image match, the image editing module 6 converts the actual image of the shaded portion D cut out from the other aerial shot image into aerial shot including the modified ground image 20a ' Is synthesized with the shaded portion (D) of the image to remove the shaded portion (D) as shown in Fig. 7, so that a complete vertical image is output.

마지막으로 수직영상 데이터갱신단계(S19)를 거친다. 위와 같이 수정지상물이미지(20a')의 보정이 완료되면, 이미지편집모듈(6)은 실제이미지가 합성된 항공촬영이미지 데이터를 이미지DB(1)에 입력해 갱신하게 된다. Finally, the vertical image data updating step S19 is performed. When the correction of the modified ground image 20a 'is completed as described above, the image editing module 6 updates the image DB 1 by inputting the aerial image data in which the actual image is synthesized.

위와 같이 항공이미지 제공부(40)의 각 구성의 영상처리 방식에 의해 보정이 완료된 항공촬영이미지는 영상처리제어부(90)를 거쳐서 영상이미지 합성부(70)로 전송되고, 종국적으로는 차량(50)의 영상카메라부(100)로부터 전달되는 지형지물의 영상이미지 및 GPS정보검출부(60)의 GPS정보와 합성되어 3차원 영상이미지로 생성되게 된다. The aviation image that has been corrected by the image processing method of each configuration of the aviation image providing unit 40 as described above is transmitted to the image image combining unit 70 via the image processing control unit 90, Is combined with the GPS image information of the GPS information detector 60 and the image of the feature transmitted from the image camera unit 100 of the GPS receiver 100 to generate a three-dimensional image.

도 11은 본 발명의 일실시예에 의한 카메라부가 구비하는 영상보정부의 세부 구성도이다.11 is a detailed configuration diagram of an image correction unit provided in a camera unit according to an embodiment of the present invention.

전술한 바대로, 상기 영상처리제어부(90)는 GPS정보검출부(60)로부터 제공되는 위치정보(또는 좌표정보)를 분석하는 기능을 수행하게 되는 바, 상기 영상카메라부(100)에서 촬영된 영상이미지가 항공기로부터 사전에 촬영되어 저장된 상태로 제공되는 지상의 2 차원 영상이미지의 어떤 부분에 해당하는지를 산출하게 된다. As described above, the image processing control unit 90 performs a function of analyzing the position information (or coordinate information) provided from the GPS information detecting unit 60, It is determined which portion of the two-dimensional image of the ground is photographed previously from the aircraft and stored in the stored state.

따라서, 상기 GPS정보검출부(60)로부터 검출된 위치정보(또는 좌표정보)의 값이 정밀하면 할수록 상기 영상이미지합성부(70)에서 영상처리된 3 차원 영상이미지에 오류가 없는 정밀한 3 차원 영상이미지로 변환되게 된다. Therefore, as the value of the position information (or coordinate information) detected from the GPS information detecting unit 60 is more precise, the accurate three-dimensional image image with no error in the three-dimensional image image processed by the image- .

상기 차량(50)은 항공이미지 제공부(40), GPS정보검출부(60), 영상정밀합성장치(70), 영상처리제어부(90) 및 영상카메라부(100)를 탑재 또는 설치하고, 포장된 도로 또는 비포장된 도로이거나 불확실한 지형지물이 위치한 지역을 주행하는 기능을 수행한다. The vehicle 50 is mounted or installed with the aerial image providing unit 40, the GPS information detecting unit 60, the image precision synthesizing unit 70, the image processing control unit 90 and the image camera unit 100, It functions to drive a road or unoccupied road or an area where an unsupervised feature is located.

상기 영상이미지합성부(70)는 영상처리제어부(90)의 해당 제어신호에 의하여 항공이미지 제공부(40)에서 제공된 항공촬영 영상이미지와 지상의 현지에서 촬영된 영상카메라부(100)의 영상이미지를 정밀한 좌표정보로 합성하여 3차원 영상이미지를 변환 또는 생성하는 영상처리를 진행하는 기능을 수행한다. The image combining unit 70 combines the aerial image data provided by the aerial image providing unit 40 and the image data of the image camera unit 100 photographed locally on the ground according to a corresponding control signal of the image processing controller 90. [ And then performs a process of transforming or generating a three-dimensional image.

상기 영상이미지합성부(70)는 영상처리제어부(90)의 해당 제어신호에 의하여 영상처리제어부(90)를 경유하여 제공받는 항공촬영 영상이미지와 영상카메라부(100)에서 도로 주변과 끝단 부분 또는 경계 부분 등을 실제 현장에서 촬영하여 제공되는 영상이미지를 GPS정보검출부(60)에서 제공하는 정밀위치정보를 이용하여 합성하므로 영상이미지에 의한 도로 끝 부분과 폭, 건물의 끝단 부분과 윤곽 등이 일치하는 정밀한 3 차원의 영상이미지로 변환하게 된다. The image synthesizing unit 70 synthesizes the aerial image obtained through the image processing controller 90 with the corresponding control signal of the image processing controller 90 and the aerial image obtained from the image camera 100, The boundary image and the boundary portion are synthesized using the precise position information provided by the GPS information detection unit 60 so that the end portion and the width of the road by the image image and the end portion and the outline of the building coincide with each other Dimensional image image that is a precise three-dimensional image.

또한, 상기 영상이미지합성부(70)는 정밀한 위치정보와 지상의 불확실한 지형지물에서 촬영된 시작과 끝단 부분의 정확한 위치정보를 제공받고 영상이미지로 제작되는 지도의 해당 위치에 표시하는 기능을 수행할 수 있다. In addition, the video image composition unit 70 receives precise position information and precise position information of the start and end portions photographed in an uncertain feature of the ground, and performs a function of displaying the precise position information at a corresponding position of a map produced as a video image .

본 발명의 영상처리제어부(90)는 항공이미지 제공부(40)와 GPS정보검출부(60)와 영상정밀합성장치(70)와 영상카메라부(100)에 연결되어 각각의 동작상태를 감시하고 필요한 해당 제어신호를 출력하는 기능을 수행한다. The image processing control unit 90 of the present invention is connected to the aerial image providing unit 40, the GPS information detecting unit 60, the image precision synthesizing unit 70, and the image camera unit 100, And outputs a corresponding control signal.

상기 영상카메라부(100)는 영상처리제어부(90)의 해당 제어신호에 의하여 영상이미지를 촬영하는 카메라부(500)와, 상기 카메라부(500)의 하단 양 측부에 형성되어 광각 카메라의 움직임을 제한하는 카메라이동제한부(600)를 포함하여 형성될 수 있다. The image camera unit 100 includes a camera unit 500 for capturing an image of an image according to a corresponding control signal of the image processing controller 90, And a camera movement restricting unit 600 for restricting movement of the camera.

상기 영상카메라부(100)는 차량(50)의 지붕 전방 일측에 GPS정보검출부(60)와 인접하게 고정 설치될 수 있고, 전술한 바대로 지상의 불확실한 지형지물과 도로와 건물 등의 시작과 끝 부분을 포함하여 모두 촬영하는 기능을 수행하게 된다. The image camera unit 100 may be fixedly installed adjacent to the GPS information detecting unit 60 on the front side of the roof of the vehicle 50, And a part of the image is photographed.

상기 카메라부(500)는 도 8에서 확인할 수 있듯이, 광각 카메라(510), 조도센서(511), 태양광 센서(512), 영상 보정부(513) 및 하부다리(530)를 포함하여 형성될 수 있다. 8, the camera unit 500 includes a wide angle camera 510, an illuminance sensor 511, a solar sensor 512, an image correction unit 513, and a lower leg 530 .

상기 광각카메라(510)는 영상처리제어부(90)의 해당 제어신호에 의하여 피사체 또는 불확실한 지형지물, 도로, 건물 등을 고배율과 고화질의 영상이미지로 촬영하는 기능을 수행하는 것으로써, 공지의 광각 카메라가 적용될 수 있다. The wide-angle camera 510 performs a function of photographing a subject or an uncertain feature, a road, a building, etc. in a high-magnification and high-quality image by a corresponding control signal of the image processing controller 90, Can be applied.

상기 조도센서(511)는 차량 상단에 설치되어 광각 카메라(510) 주변의 조도값을 센싱하는 기능을 수행하고, 상기 태양광 센서(512)는 차량 상단에 설치되어 태양의 방향각도값 및 위상값을 출력하는 기능을 수행한다. The illuminance sensor 511 is installed at the upper end of the vehicle and senses the illuminance value around the wide angle camera 510. The solar light sensor 512 is installed at the upper end of the vehicle, As shown in FIG.

즉, 상기 태양광 센서(512)는 태양의 위치에서 시계 방향으로 촬영된 지형지물까지의 각도값을 측정하여 태양의 방향각도값을 출력하며, 또한, 태양과 태양광 센서(512)를 연결하는 직선과 촬영된 지형지물간의 각도값을 측정하여 위상값을 출력하는 기능을 수행한다. That is, the solar sensor 512 measures an angle value from the sun position to the photographed feature in the clockwise direction to output the sun direction angle value, and also connects the sun and the solar light sensor 512 And measures the angle value between the straight line and the photographed feature to output the phase value.

상기 하부다리(530)는 광각 카메라(510)의 하단면에 설치되되, 그 하우징(533) 내부의 상단 및 하단에 각각 삽입되는 완충 패드(532)와 상기 완충 패드(532) 사이에 형성되는 압축코일스프링(531)을 구비하는 것을 특징으로 한다. The lower leg 530 is provided on the lower end face of the wide angle camera 510 and has a compression formed between the cushion pad 532 inserted into the upper end and the lower end of the housing 533 and the cushion pad 532 And a coil spring (531).

상기 광각 카메라의 하우징(533)은 상자 또는 통 형상이고 광각카메라(510)를 외력, 외부충격 등으로부터 보호하는 것이며 여기서의 외력 또는 외부충격은 눈, 비, 바람, 화학적 충격, 물리적 충격, 기계적 충격, 전자파 충격 등이라 할 수 있다. The housing 533 of the wide angle camera is a box or a cylinder and protects the wide angle camera 510 from an external force, an external impact or the like. Here, the external force or external impact may be an eye, rain, wind, chemical shock, , Electromagnetic wave impact, and the like.

상기 광각 카메라의 하부다리(530)는 하우징(533)의 하단에 설치되는 것으로 원형막대 형상으로 도시되어 있으나 발명의 필요에 따라 다각 형상으로 이루어질 수도 있을 것이다. 상기 하부다리(530)는 발명의 필요에 따라 다수의 하부다리로 형성될 수 있다. The lower leg 530 of the wide angle camera is installed at the lower end of the housing 533 and is shown in a circular rod shape, but may be formed in a polygonal shape as required by the invention. The lower legs 530 may be formed of a plurality of lower legs according to the needs of the present invention.

상기 광각 카메라의 하우징(533)은 그 내부 상단 및 하단에 각각 완충 패드(532)를 구비할 수 있으며, 상기 완충 패드(532) 사이에 압축코일스프링(531)을 구비할 수 있다. 이는 차량(50)이 비포장 도로 등을 주행할 때, 지면으로부터 올라오는 충격을 완화하기 위함이다. The housing 533 of the wide angle camera may have a buffer pad 532 at the upper and lower ends thereof and a compression coil spring 531 between the buffer pads 532. This is for alleviating the impact from the ground when the vehicle 50 travels on unpaved roads or the like.

상기 완충 패드(532)는 천연고무재질, 합성고무재질로 형성되는 것이 바람직하나, 발명의 필요에 따라 기포가 다량 형성되어 있는 방진스펀지, 우레탄 스펀지 등으로 구성되거나 이를 혼용하여 형성될 수 있을 것이다. The cushioning pad 532 may be formed of a natural rubber material or a synthetic rubber material. However, the cushioning pad 532 may be formed of a dustproof sponge or a urethane sponge having a large amount of bubbles according to the necessity of the invention.

상기 압축코일스프링(531)은 기본적으로 탄성력을 구비하는 스테인리스 소재 또는 철이 포함된 합금소재를 적용할 수 있을 것이다. The compression coil spring 531 may be a stainless steel material having an elastic force or an alloy material including iron.

상기 하부다리의 완충패드(532)는, 폴리카프로락톤 및 폴리프로필렌글리콜의 혼합물로 이루어진 폴리올 40 내지 60 중량부와, 2-메틸펜탄디올, 1,4-시클로헥산디올, 1,4-시클로헥산디메탄올, 및 네오펜틸글리콜으로 이루어진 군으로부터 선택된 적어도 2종 이상을 포함하는 사슬 연장제 6 내지 12 중량부와, 폴리메틸렌폴리페닐폴리이소시아네이트, 헥사메틸렌디이소시아네이트, 이소포롬디이소시아네이트로 이루어지는 그룹에서 선택된 적어도 하나를 포함하는 제1 이소시아네이트 화합물 및 메틸렌디페닐디이소시아네이트 및 톨루엔디이소이아네이트로 이루어지는 그룹에서 선택된 적어도 하나를 포함하는 제2 이소시아네이트 화합물을 포함하는 이소시아네이트 혼합물 15 내지 50 중량부를 반응시켜 얻어지는 이소시아네이트기를 갖는 프리폴리머 100 중량부에 대하여 4,4'-메틸렌-비스-2-클로로아닐린 및 1,4부탄디올의 혼합물로 이루어진 경화제 20 내지 30 중량부를 첨가한 후 경화시킨 폴리우레탄 조성물로 형성될 수 있다. The cushioning pads 532 of the lower legs may be formed of a mixture of 40 to 60 parts by weight of a polyol composed of a mixture of polycaprolactone and polypropylene glycol and 2 to 4 parts by weight of 2-methylpentanediol, 1,4-cyclohexanediol, 6 to 12 parts by weight of a chain extender comprising at least two members selected from the group consisting of dimethanol, and neopentyl glycol, and at least one member selected from the group consisting of polymethylene polyphenyl polyisocyanate, hexamethylene diisocyanate, isophorodiisocyanate And 15 to 50 parts by weight of an isocyanate mixture comprising a first isocyanate compound containing at least one and a second isocyanate compound containing at least one selected from the group consisting of methylene diphenyl diisocyanate and toluene diisocyanate is reacted with an isocyanate group Of the prepolymer 100 having And 20 to 30 parts by weight of a curing agent composed of a mixture of 4,4'-methylene-bis-2-chloroaniline and 1,4-butanediol is added to the polyurethane composition.

또한, 상기 하부다리의 하우징(533)도 완충패드(532)와 같은 재질의 폴리우레탄 조성물로 형성될 수 있다. In addition, the lower leg housing 533 may be formed of a polyurethane composition of the same material as the buffer pad 532.

상기 하부다리의 완충패드(532) 및 하우징(533)을 위와 같은 폴리우레탄 조성물로 형성하면, 통상적인 폴리우레탄 조성물보다 훨씬 뛰어난 탄성력, 인장력 및 복원력이 부여되어, 차량(50)의 상하운동시 광각 카메라(510)로 전달되는 충격을 완화하면서도 광각 카메라(510)의 상하운동을 최소화할 수 있는 장점이 있다. When the cushion pad 532 and the housing 533 of the lower leg are formed of the polyurethane composition as described above, elasticity, tensile force and restoring force, which are far superior to those of a conventional polyurethane composition, are imparted, There is an advantage that the vertical movement of the wide angle camera 510 can be minimized while mitigating the impact transmitted to the camera 510.

발명의 필요에 따라, 본 발명에서는 그 구동시 6Khz ~ 14Khz의 주파수, 7Khz ~ 24Khz의 주파수, 16Khz ~ 27Khz의 주파수 및 29Khz ~ 43Khz의 주파수가 30~60초 단위로 순차적으로 반복되어 출력되는 초음파발진기(미도시)를 광각카메라(510) 주변에 설치할 수 있다. 이는 차량 주변에 벌레 등 해충이 날아들어 광각 카메라(510)로 촬영시 영상이미지에 해충이 찍히지 않게 하기 위함이다. According to the present invention, in the present invention, an ultrasonic oscillator is used in which a frequency of 6 KHz to 14 KHz, a frequency of 7 KHz to 24 KHz, a frequency of 16 KHz to 27 KHz, and a frequency of 29 KHz to 43 KHz are sequentially and repeatedly output in units of 30 to 60 seconds (Not shown) can be installed around the wide-angle camera 510. This is to prevent insects such as insects from flying around the vehicle so that insects are not imprinted on the image when the wide angle camera 510 is photographed.

상기 6Khz ~ 14Khz의 주파수는 기어다니는 해충의 접근을 방지하기 위해 유효하고, 상기 7Khz ~ 24Khz의 주파수는 모기 등 여름해충의 접근 방지용으로 유효하며, 상기 16Khz ~ 27Khz의 주파수는 바퀴벌레 종류의 해충의 접근 방지용으로 유효하고, 상기 29Khz ~ 43Khz의 주파수는 작은 종류의 해충의 접근 방지용으로 유용하다고 할 수 있다. The frequency of 6 KHz to 14 KHz is effective for preventing access to crawling insects, and the frequency of 7 KHz to 24 KHz is effective for preventing access to summer insects such as mosquitoes. The frequency of 16 KHz to 27 KHz is effective for accessing pests of cockroach And the frequency of 29 KHz to 43 KHz is useful for preventing access to a small-sized pest.

상기 초음파발진기는 광각카메라(510)를 중심으로 다수개를 설치하되 부채꼴 형상으로 배치하여 설치할 수 있을 것이다. A plurality of ultrasonic oscillators may be installed around the wide angle camera 510, but they may be arranged in a fan shape.

또한, 상기 광각 카메라(510)의 렌즈 표면에는 퍼플루오르폴리에테르 100 중량부에 대하여 테트라플루오로에틸렌 8 내지 15 중량부, 퍼플루오르메틸비닐에테르 8 내지 15 중량부, 플루오르아크릴아마이드 6 내지 12 중량부 및 퍼플루오르인산화염 7 내지 14 중량부를 포함하며, 30dyne/cm 이하의 표면장력을 가지고 0.2 이하의 동마찰계수를 갖는 코팅층을 구비한다. Also, on the surface of the lens of the wide-angle camera 510, 8 to 15 parts by weight of tetrafluoroethylene, 8 to 15 parts by weight of perfluoromethyl vinyl ether, 6 to 12 parts by weight of fluoroacrylamide per 100 parts by weight of perfluoropolyether And 7 to 14 parts by weight of perfluorine phosphoric acid salt, and has a coating layer having a surface tension of 30 dyne / cm or less and a dynamic friction coefficient of 0.2 or less.

상기 광각 카메라(510)의 렌즈의 코팅층은 20 내지 40nm의 두께로 도포되는 것이 바람직한데, 이는 상기 코팅층이 20nm 미만의 두께로 도포되면 렌즈 자체의 보호 기능을 수행하기 어렵고, 코팅층이 40nm 초과의 두께로 도포되면 광 투과율이 악화되기 때문이다.It is preferable that the coating layer of the lens of the wide-angle camera 510 is applied in a thickness of 20 to 40 nm because if the coating layer is applied to a thickness of less than 20 nm, it is difficult to perform the protective function of the lens itself, The light transmittance is deteriorated.

또한, 상기 코팅층은 30dyne/cm 이하의 표면장력을 가지고 0.2 이하의 동마찰계수를 가지는 재료로 형성되는데, 낮은 표면장력 및 높은 슬립을 가지는 물질로 렌즈의 코팅층을 형성함으로써, 렌즈 표면의 이물질에 의한 오염을 방지할 수 있을 뿐만 아니라 광 투과율이 낮아지는 문제점을 개선할 수 있다.Also, the coating layer is formed of a material having a surface tension of 30 dyne / cm or less and a dynamic friction coefficient of 0.2 or less. By forming a coating layer of the lens with a material having a low surface tension and a high slip, It is possible not only to prevent contamination but also to lower the light transmittance.

따라서, 광각 카메라(510)의 렌즈는 낮은 표면장력 및 높은 슬립을 가지는 물질로 코팅층을 구비함에 따라 렌즈를 외부환경으로부터 보호하면서도 렌즈에 이물질이 쉽게 부착되지 아니하고, 더불어서 광 투과율로 상승되는 바, 보다 더 정밀한 영상이미지를 획득할 수 있는 장점이 있다. Accordingly, since the lens of the wide-angle camera 510 has a coating layer with a low surface tension and a high slip, it is possible to protect the lens from the external environment while preventing the foreign matter from being easily attached to the lens and increasing the light transmittance. There is an advantage that a more precise image can be obtained.

한편, 상기 영상보정부(513)는 상기 광각 카메라(510)의 영상이미지와, 조도센서(511)의 조도값과, 태양광 센서(512)의 태양의 방향각도값 및 위상값과, 광각 카메라(510)의 특성요소를 이용하여 촬영된 영상이미지를 보정하는 기능을 수행한다. The image correcting unit 513 corrects the image of the wide angle camera 510, the illuminance value of the illuminance sensor 511, the direction angle value and the phase value of the sun of the solar sensor 512, And performs a function of correcting the photographed image using the characteristic elements of the photographed image 510.

상기 영상보정부(513)는 상기 광각 카메라(510)의 주변에 설치되거나 또는 발명의 필요에 따라 광각 카메라(510)의 하우징(533) 내에 설치될 수 있으며, 보정판단부(514), 음영영역산출부(515), 제1 영상보정모듈(516), 촬영각도 산출부(517) 및 제2 영상 보정모듈(518)을 포함하여 구성될 수 있다. The image correction unit 513 may be installed around the wide angle camera 510 or may be installed in the housing 533 of the wide angle camera 510 according to the necessity of the invention and may include a correction determination unit 514, A first image correcting module 516, a photographing angle calculating unit 517, and a second image correcting module 518. The first image correcting module 516, the first image correcting module 516,

상기 보정판단부(514)는 광각카메라(510)에 의해 촬영된 영상이미지를 영상 블록 단위로 출력하여 그 오류여부를 판단하되, 해당 영상 블록의 밝기값과 그 주변 영상 블록의 밝기값의 차이의 합이 미리 설정된 임계값 이상이면 해당 영상 블록에 대응하는 영상이미지에 오류가 있는 것으로 판단하고 영상보정명령을 생성하는 기능을 수행한다. The correction determination unit 514 outputs the image image photographed by the wide-angle camera 510 in units of image blocks to determine whether the image is in error, and determines whether the difference between the brightness value of the image block and the brightness value of the surrounding image block If the sum is greater than or equal to a predetermined threshold value, it is determined that there is an error in the video image corresponding to the video block and a video correction command is generated.

즉, 보정판단부(514)는 상기 광각 카메라(510)로부터 촬영된 영상이미지는 영상 블록 단위로 쪼개져서 출력되고, 판정의 대상이 되는 영상 블록과 그 주변 영상 블록, 즉 시간의 흐름에 따라 판정 대상 영상 블록의 선후로 존재하는 주변 영상 블록의 밝기값의 차이의 합이 미리 설정된 임계값 이상이면 판정 대상 영상 블록 및 이에 대응하는 영상이미지에 오류가 있는 것으로 판정하게 된다. That is, the correction determination unit 514 determines whether the image captured by the wide-angle camera 510 is split and output in units of image blocks, and the image block and its surrounding image block to be determined, that is, It is determined that there is an error in the determination target video block and the corresponding video image if the sum of the differences in brightness values of the surrounding video blocks existing after the target video block is equal to or greater than a predetermined threshold value.

여기서, 상기 밝기값(brightness value)은 영상에 존재하는 영상소값으로 불연속적인 밝기의 양을 나타내는데 사용되는 값이라 할 수 있으며, 일반적으로 0 ~255값으로 표시될 수 있다. Here, the brightness value may be a value used to represent the amount of discontinuous brightness, which is a small value of an image existing in an image, and may be generally expressed as a value from 0 to 255. [

또한, 예컨대, 상기 미리 설정된 임계값은 10~30의 범위 내에서 설정될 수 있으며, 판정 대상 영상 블록과 그 주변 영상 블록의 밝기값의 차이의 합이 임계값을 벗어나는 경우 보정판단부(514)는 해당 영상 블록에 대응하는 영상 이미지에 대한 오류 판정을 내고 제1 영상보정모듈(516) 등으로 영상보정명령을 발할 수 있다. If the difference between the brightness values of the determination target video block and the surrounding video blocks is out of the threshold value, the correction determination unit 514 determines that the brightness of the target video block is greater than the threshold value, The first image correction module 516 can issue an image correction command to the first image correction module 516 or the like by making an error determination on the image image corresponding to the image block.

상기 주변 영상블록의 밝기값은 발명의 필요에 따라 시간의 흐름에 따라 판정 대상 영상 블록의 선후로 존재하는 2~10개의 주변 영상블록의 밝기값의 평균값으로 대체하여 영상 오류 판정에 이용할 수도 있을 것이다. The brightness value of the peripheral image block may be used to determine the image error by replacing the average value of the brightness values of 2 to 10 peripheral image blocks existing after the determination subject image block according to time according to the necessity of the invention .

상기 음영영역산출부(515)는 광각카메라(510)에 의해 촬영된 영상이미지 내 지형지물의 음영영역을 추출하되, 촬영 당시 태양의 방향각도값 및 위상값에 따라 지형지물의 음영영역의 위치 및 크기를 변화시켜 출력하는 기능을 수행한다. The shaded area calculating unit 515 extracts a shaded area of the feature image in the image captured by the wide angle camera 510 and calculates the position and size of the shaded area of the feature according to the direction angle value and the phase value of the sun at the time of shooting And outputs the changed data.

상기 음영영역산출부(515)는 태양광 센서(512)로부터 산출된 태양의 방향각도값 및 위상값을 고려하여 지형지물의 음영영역의 크기를 출력하는 기능을 수행한다. 상기 음영영역산출부(515)는 상기 음영영역을 지형지물 소정의 음영 패턴으로 설정할 수 있으며, 태양의 방향각도값 및 위상값에 따라 음영 패턴의 위치 및 크기를 변화시켜 출력할 수 있다. The shaded area calculating unit 515 performs a function of outputting the size of the shaded area of the feature item in consideration of the direction angle value and the phase value of the sun calculated from the sunlight sensor 512. The shaded area calculating unit 515 may set the shaded area to a predetermined shaded pattern and may output the shaded area by changing the position and size of the shaded pattern according to the direction angle value and the phase value of the sun.

또한, 상기 음영영역산출부(515)는 위상값이 기설정된 기준값을 초과하면 그림자가 없는 것으로 판단할 수 있으며, 측정된 태양의 위상값이 커지면 음영영역의 음영패턴의 면적 비율이 줄어들고, 측정된 태양의 위상값이 작아지면 음영패턴의 면적 비율이 커지도록 출력할 수 있다. In addition, the shaded area calculation unit 515 can determine that there is no shadow when the phase value exceeds a preset reference value, and when the measured sun phase value increases, the area ratio of the shaded pattern in the shaded area decreases, When the phase value of the sun decreases, the area ratio of the shadow pattern can be increased.

그리고, 상기 음영영역산출부(515)는 음영영역의 크기를 고려하여 영상밝기값을 산출할 수도 있는데, 태양의 방향각도값 및 위상값에 따른 음영영역의 음영패턴의 밝기값을 저장하고 이를 이용하여 음영영역이 속한 영상이미지의 밝기값을 보정하도록 유도할 수 있다. The shade area calculating unit 515 may calculate the image brightness value in consideration of the size of the shade area. The brightness value of the shade area of the shade area according to the direction angle value and the phase value of the sun is stored and used Thereby correcting the brightness value of the image image to which the shadow area belongs.

이와 같이 상기 음영영역산출부(515)에 의하면, 태양의 방향각도값 및 위상값에 따른 음영영역의 면적 비율을 설정하여 출력함으로써, 영상이미지 내 지형지물의 음영영역의 위치 및 크기를 변화시켜 출력할 수 있다. As described above, the shaded area calculation unit 515 sets and outputs the area ratio of the shaded area according to the direction angle value and the phase value of the sun, thereby changing the position and size of the shaded area in the image in the video image and outputting .

상기 제1 영상보정모듈(516)는 조도센서(511)의 조도값과, 상기 음영영역산출부(515)의 음영 영역의 위치 및 크기에 기초하여 영상이미지의 영상 블록 밝기값을 보정하되 상기 영상 블록의 밝기 및 영역 분석을 통해 기 설정된 그레이값 이상을 갖는 영역이 존재하는 경우 상기 영상 블록의 밝기값을 주변 영상 블록의 평균 밝기값에 근사해지도록 밝기 정도를 감소시키는 기능을 수행한다. The first image correction module 516 corrects the image block brightness value of the image image based on the illuminance value of the illuminance sensor 511 and the position and size of the shade area of the shade area calculation unit 515, And performs a function of reducing the degree of brightness so that the brightness value of the image block is approximated to the average brightness value of the surrounding image block when there is an area having a predetermined gray value or more through the brightness and area analysis of the block.

또한, 상기 제1 영상보정모듈(516)은 촬영된 지형지물에 음영영역이 존재할 때 그 영상블록의 밝기값을 고려하여 영상 블록의 밝기를 보정할 수 있으며, 촬영된 지형지물 주변에 음영영역이 존재하지 않을 때 센싱된 조도값을 고려하여 영상 블록의 밝기를 보정할 수 있다. The first image correction module 516 may correct the brightness of the image block in consideration of the brightness value of the image block when the shaded area exists in the photographed feature, The brightness of the image block can be corrected in consideration of the sensed illumination value when it is not present.

이 때, 상기 제1 영상보정모듈(516)은 촬영된 지형지물의 음영영역이 존재하면 설정된 기준값(그레이값)에서 태양의 방향각도값 및 위상값에 따른 밝기값을 감산하여 밝기 보정값을 출력하며, 해당 영상이미지의 밝기값에 밝기 보정값을 합산하여 영상이미지를 보정하게 된다. At this time, the first image correction module 516 outputs a brightness correction value by subtracting the brightness value according to the direction angle value and the phase value of the sun from the set reference value (gray value) when the shaded region of the photographed feature exists , The brightness correction value is added to the brightness value of the corresponding image to correct the image.

또한, 상기 제1 영상보정모듈(516)은 촬영된 지형지물의 음영영역이 존재하지 않으면 조도센서(511)가 출력한 조도값이 설정된 기준값(그레이값) 이상인지 여부를 판단하고, 조도값이 설정된 기준값(그레이값) 이상이면 설정된 기준값에서 출력된 조도값을 감산하여 조도 보정값을 출력하여 해당 영상이미지를 보정하게 된다. If the shaded area of the photographed feature does not exist, the first image correction module 516 determines whether the illuminance value output from the illuminance sensor 511 is equal to or greater than a set reference value (gray value). If the illuminance value is set If it is greater than or equal to the reference value (gray value), the roughness value output from the reference value is subtracted to output the roughness correction value, thereby correcting the corresponding image.

또한, 발명의 필요에 따라 상기 제1 영상보정모듈(516)는 조도센서(511)의 조도값과, 상기 음영영역산출부(515)의 음영 영역의 위치 및 크기에 기초하여 영상이미지의 영상 블록 밝기값을 보정하되, 상기 광각카메라(510)에 의해 촬영된 영상이미지의 평균 피크 휘도값을 산출하고, 이에 기초하여 영상이미지의 촬영 시간이 주간 또는 야간인지 여부를 판정하고, 상기 판정된 시간이 주간 또는 야간 중 일출 또는 일몰에 해당하는 시간인 경우 상기 기 설정된 그레이값 미만을 갖는 영역의 감마값을 조정하여 휘도값을 상승시켜 상기 영상 블록의 밝기값을 주변 영상 블록의 평균 밝기값에 근사해지도록 보정하여 출력하는 기능을 수행할 수 있다. The first image correction module 516 may adjust the brightness of the image block of the image image based on the illuminance of the illuminance sensor 511 and the position and size of the shaded area of the shaded area calculator 515, Calculates the average peak luminance value of the video image photographed by the wide angle camera 510 and determines whether or not the photographed time of the video image is daytime or nighttime based on the brightness value, The brightness value of the image block is adjusted by adjusting the gamma value of the region having the predetermined gray value less than the predetermined gray value to adjust the brightness value of the image block to be approximate to the average brightness value of the surrounding image block And outputting the result.

이는 일출 또는 일몰시간에는 해당 영상이미지의 영상 블록의 밝기값이 주변 영상 블록들의 평균 밝기값보다 낮을 가능성이 높기 때문이다. 이 때 주변 영상 블록은 일출 또는 일몰시간 이외에 촬영된 영상이미지의 영상블록들인 것이 바람직하다. This is because the brightness value of the image block of the corresponding image is likely to be lower than the average brightness value of the surrounding image blocks at the sunrise or sunset time. At this time, it is preferable that the surrounding image blocks are image blocks of a video image photographed outside the sunrise or sunset time.

한편, 통상적으로 광각카메라(510)를 사용하는 경우, 광각카메라에 장착되는 렌즈의 구조로 인해 촬영된 영상에 왜곡이 발생하게 되며, 이와 같은 영상 왜곡은 영상의 중심부에서 외곽으로 갈수록 심해지는 것이 일반적이다. 그러므로, 광각 카메라(510)는 넓은 시야각을 확보하게 하지만 영상 왜곡으로 지형지물의 정확한 촬영이 어려운 문제점이 있었다. On the other hand, when the wide-angle camera 510 is used, distortion of the photographed image occurs due to the structure of the lens mounted on the wide-angle camera, and such image distortion generally becomes worse as the distance from the center of the image increases to be. Therefore, although the wide-angle camera 510 secures a wide viewing angle, there is a problem that it is difficult to precisely photograph the feature sheet due to image distortion.

이에 본 발명에서는 촬영각도 산출부(517) 및 제2 영상 보정모듈(518)을 더 구비하여 광각 카메라(510)로 인한 영상 왜곡을 방지하는 기능을 수행한다. Accordingly, the present invention further includes a photographing angle calculating unit 517 and a second image correcting module 518 to prevent image distortion due to the wide angle camera 510.

상기 촬영각도 산출부(517)는 광각카메라(510)의 설치 높이, 설치 방향, 초점거리, 주점 및 왜곡계수로 이루어지는 카메라의 특성요소를 이용하여 상기 광각카메라(510)에 대응하는 가상카메라의 촬영 영역별 틸트각 및 요각을 산출하는 기능을 수행할 수 있다. The photographing angle calculating unit 517 calculates the photographing angle of the wide angle camera 510 using the characteristic elements of the camera including the installation height of the wide angle camera 510, the installation direction, the focal length, A tilt angle and a yaw angle for each area can be calculated.

상기 틸트각은 광각 카메라(510)으로부터 지평선에 수평한 방향의 기준선을 0도로 하고, 이와 같은 기준선으로부터 지면 방향으로 기울어지는 각도라 할 수 있으며, 상기 요각은 광각카메라(510)가 설치된 면에 수직한 방향을 기준으로 좌측방향 또는 우측방향으로 회전하는 각도라 할 수 있다. The tilt angle may be an angle inclined from the reference line to the ground in a direction perpendicular to the horizon from the wide angle camera 510. The yaw angle may be perpendicular to the plane on which the wide angle camera 510 is installed And may be an angle that rotates leftward or rightward with respect to one direction.

상기 촬영각도 산출부(517)는 광각카메라(510)의 설치 높이, 설치 방향, 초점거리, 주점 및 왜곡계수로 이루어지는 카메라의 특성요소를 이용하여 상기 광각카메라(510)에 대응하는 가상카메라(미도시)를 생성하고, 상기 가상카메라의 틸트각 및 요각을 추출하게 되는데, 이는 실제 물리적인 광각 카메라(510)의 틸트각 및 요각에 근접하다고 할 수 있다.The photographing angle calculating unit 517 calculates the photographing angle of the wide angle camera 510 using the characteristic elements of the camera composed of the installation height, the installation direction, the focal length, the principal point and the distortion coefficient of the wide angle camera 510 And the tilt angle and the yaw angle of the virtual camera are extracted. This is close to the tilt angle and yaw angle of the actual physical wide-angle camera 510. [

그리고, 상기 제2 영상 보정모듈(518)은 광각카메라(510)에 의해 촬영된 영상이미지상에서 상기 가상카메라의 틸트각 및 요각을 적용하여 상기 촬영된 영상이미지의 뷰(view)를 변환하고, 변환된 뷰(view)에 따른 보정 영상이미지를 생성하여 출력하는 기능을 수행한다.The second image correction module 518 transforms the view of the photographed image by applying the tilt angle and the yaw angle of the virtual camera on the image image photographed by the wide angle camera 510, And generates and outputs a corrected image corresponding to the view.

여기서 상기 뷰 변환은, 공지된 투영 모델인 핀홀 투영 모델, 구면 투영 모델, 원통형 투영 모델, 평면 투영 모델 중 어느 하나의 투영 모델로 구현될 수 있을 것이다. Here, the view transformation may be implemented by a projection model of any one of a known projection model, a pinhole projection model, a spherical projection model, a cylindrical projection model, and a flat projection model.

이와 같이 제2 영상보정모듈(518)에 의해 보정된 영상이미지는 광각카메라(510) 특유의 볼록하거나 오목하게 보이는 영상 왜곡을 최소화하여 촬영된 지형지물이 찌그러지거나 원형으로 확대되어 보이는 현상을 제거한 영상 이미지를 도출해 낼 수 있다. As described above, the image corrected by the second image correction module 518 is obtained by minimizing convex or concave image distortion unique to the wide-angle camera 510, thereby reducing the distortion of the photographed feature, Images can be derived.

도 12는 본 발명의 일실시예에 의한 광각카메라 및 카메라이동제한부의 모습을 나타낸 예시도이고, 도 13 내지 14는 본 발명의 일실시예에 의한 광각카메라의 상하이동시 측부지지대가 이동하여 다른 걸림턱에 결착되는 모습을 나타낸 예시도이다. FIG. 12 is a view illustrating an exemplary embodiment of a wide-angle camera and a camera movement restricting unit according to an exemplary embodiment of the present invention. FIGS. 13 to 14 are views for explaining the operation of the wide angle camera according to the exemplary embodiment of the present invention, And FIG.

상기 카메라이동제한부(600)는, 상기 광각 카메라(510)의 양 측면에 각각 접합되며, 그 하단에 미세조절용 바퀴(630)를 구비하는 적어도 2이상의 측부지지대(610)와, 상기 측부지지대(610)의 상부와 광각카메라(510) 하단을 연결하는 스프링(630)과, 차량 상단에 형성되되 일정하게 이격되어 형성되는 다수의 걸림턱(641)을 구비하는 레일부(640)를 포함하여 형성될 수 있다. The camera movement restricting unit 600 includes at least two side supports 610 which are connected to both sides of the wide angle camera 510 and include a wheel 630 for fine adjustment at a lower end thereof, A spring 630 for connecting the upper portion of the wide angle camera 510 to the lower portion of the wide angle camera 510 and a rail portion 640 having a plurality of engagement protrusions 641 formed at the upper end of the vehicle, .

이 때, 상기 레일부(640)가 구비하는 다수의 걸림턱(641)의 단면은 일측이 직각으로 형성되고, 타측은 원형 경사면을 형성하되, 다수의 걸림턱(641)들은 상기 광각 카메라(510)를 중심으로 서로 대향되도록 형성될 수 있다. In this case, the cross section of the plurality of latching protrusions 641 of the rail 640 is formed at a right angle at one side and the circular slope is formed at the other side, and a plurality of latching protrusions 641 are provided at the wide angle camera 510 As shown in FIG.

또한, 상기 측부지지대(531)는 레일부(630)의 걸림턱(641)의 일면에 결착되되, 상기 차량의 상하운동시 상기 측부지지대(610)는 광각카메라(510)를 중심으로 그 안쪽 또는 바깥쪽으로 동시에 절첩되어 결착되어 있던 걸림턱(641)으로부터 다른 걸림턱(641)으로 미세 이동하여 결착되는 기능을 수행할 수 있다. The side support members 531 are attached to one side of the engagement protrusions 641 of the rail portion 630. The side support members 610 are fixed to the inside or the outside of the wide angle camera 510 It is possible to carry out a function of finely moving from the engaging jaw 641, which is folded out at the same time to the other engaging jaw 641, and is stuck.

상기 측부지지대(610)의 상부와 광각카메라(510) 하단을 연결하는 스프링(630)은 측부지지대(531)의 절첩 이동시 이동량을 제한하면서, 좀 더 소프트한 미세이동을 완료하도록 조력하는 기능을 수행한다. The spring 630 that connects the upper portion of the side support 610 and the lower end of the wide angle camera 510 functions to assist in completing a more smooth fine movement while limiting the amount of movement during the folding movement of the side support 531 do.

도 7을 참조하면, 차량의 상하운동에 따라 광각카메라(510)도 미세하게 상하 운동을 하게 되는 모습을 도시하고 있으며, 광각 카메라(510)의 상하 운동시 측부지지대(610)가 걸림턱(641)의 원형경사면을 타고 넘어와서 직각으로 형성된 단면에 측부지지대(610)의 미세조절용 바퀴(620)가 결착되는 모습을 현시하고 있다. 7, the wide-angle camera 510 is slightly moved up and down according to the vertical movement of the vehicle. When the wide-angle camera 510 is moved up and down, the side support 610 is engaged with the engaging jaws 641 And the fine adjustment wheel 620 of the side support 610 is engaged with a cross section formed at a right angle.

이와 같이 본 발명에 의하면, 차량이 비포장 도로 등 험난한 지형을 운행하여 광각 카메라(510)의 상하 운동이 발생하더라도, 측부지지대(610)의 미세 이동 및 레일부(640)의 걸림턱(641)과의 결착으로 인해, 광각 카메라(510) 자체의 미세 이동을 최소화하여 결과적으로 지상에서 촬영된 영상이미지의 보정 필요 및 오류를 최소화하는 장점이 있다. As described above, according to the present invention, even if the vehicle moves up and down the rough terrain such as the unpacked road, the wide angle camera 510 can be moved up and down by the fine movement of the side support 610 and the engagement protrusion 641 of the rail 640 It is possible to minimize the fine movement of the wide angle camera 510 itself and consequently to minimize the need for correction and error of the image photographed on the ground.

또한, 본 발명은 차량의 불규칙한 운행에 따른 광각 카메라(510)의 미세 이동을 최소화하여 영상오류의 과대발생을 방지하고, 조도값, 태양의 방향각도값 및 위상값, 광각 카메라에 대응하는 가상카메라의 틸트각 및 요각을 이용하여 영상오류 발생을 최소화하여 항공이미지와 합성하는 바, 정확하고 정밀한 합성 영상이미지를 도출해낼 수 있는 장점이 있다. In addition, the present invention minimizes the fine movement of the wide angle camera 510 due to irregular driving of the vehicle, thereby preventing an excessive occurrence of a video error, The tilting angle and the yaw angle are used to minimize the occurrence of image errors, and the image is synthesized with the aerial image, so that an accurate and precise composite image can be derived.

종합하자면, 본 발명은 차량에 설치되고 영상처리를 위한 영상이미지 확보용 영상카메라를 외부의 진동, 충격 등으로부터 이동상태를 제한함으로써 영상이미지의 오류를 최소화하되, 차량에 설치된 카메라로부터 확보된 영상이미지의 밝기값, 뷰(view) 변환을 통해 실제에 근사한 영상이미지로 보정하여 지상 이미지를 추출하고, 실사를 촬영한 항공 이미지를 기반으로 하는 지도 제작시, 건물 등과 같은 지상물의 평면모습만을 지도에 표현해서, 이웃하는 다른 지상물에 대한 시각적인 간섭을 방지하며, 지상물의 배치모습을 사용자가 정확히 이해할 수 있도록 보정한 후, 오류가 최소화된 항공이미지 및 영상이미지(지상 이미지)를 합성처리하여 매우 정밀한 영상합성을 수행할 수 있는 장점이 있다. In summary, the present invention minimizes errors in image images by restricting movement of a video camera installed in a vehicle and securing a video image for image processing from external vibrations and impacts, The brightness value of the image, and the view image, the ground image is extracted by correcting it to an approximate image, and only the plane image of the ground such as the building is displayed on the map , So as to prevent visual interference to neighboring other ground objects, to correct the arrangement of the ground water so that the user can understand exactly the arrangement of the ground water, and then to synthesize the aerial image and the image image (ground image) There is an advantage that image synthesis can be performed.

이상 본 발명의 구체적 실시형태와 관련하여 본 발명을 설명하였으나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 범위를 벗어나지 않고 설명된 실시형태를 변경 또는 변형할 수 있으며, 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.Although the present invention has been described in connection with the specific embodiments of the present invention, it is to be understood that the present invention is not limited thereto. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims and their equivalents. Various modifications and variations are possible.

1: 이미지 DB 2: 이미지검색모듈
3: 출력모듈 3a: 터치스크린
4: 지점선택모듈 5: 이미지탐색모듈
6: 이미지편집모듈 7: 이미지도화모듈
10: 기준지상물 20: 수정지상물
10a: 기준지상물이미지 20a: 수정지상물이미지
30: 도로이미지
40 : 항공이미지 제공부 60 : GPS정보검출부
50 : 차량 70 : 영상이미지합성부
90 : 영상처리제어부 100 : 영상카메라부
500 : 카메라부 510 : 광각 카메라
511: 조도센서 512: 태양광센서
513: 영상보정부 514: 보정판단부
515: 음영영역산출부 516: 제1 영상보정모듈
517: 촬영각도 산출부 518: 제2 영상보정모듈
530 : 하부다리 531: 압축코일스프링
532: 완충 패드 533: 하부다리 하우징
600 : 카메라이동제한부 610: 측부지지대
620: 미세조절용 바퀴 630: 스프링
640: 레일부 641: 걸림턱
1: Image DB 2: Image Search Module
3: Output module 3a: Touch screen
4: Branch selection module 5: Image search module
6: Image editing module 7: Image drawing module
10: Reference ground water 20: Crystal ground water
10a: Reference ground water image 20a: Crystal ground water image
30: Road image
40: air image providing unit 60: GPS information detecting unit
50: vehicle 70: image image synthesis unit
90: Image processing control unit 100: Image camera unit
500: camera part 510: wide angle camera
511: illuminance sensor 512: solar sensor
513: Image correction unit 514:
515: Shaded area calculating unit 516: First image correction module
517: photographing angle calculating section 518: second image correcting module
530: lower leg 531: compression coil spring
532: Buffer pad 533: Lower leg housing
600: camera movement restricting part 610: side support
620: wheel for fine adjustment 630: spring
640: rail part 641:

Claims (1)

항공기를 이용하여 촬영된 2 차원 평면 이미지인 항공촬영 영상이미지를 판독, 편집, 갱신하여 영상처리제어부(90)에 제공하는 항공이미지제공부(40);
불확실한 지형지물, 도로의 끝단 영상이미지를 포함하여 촬영하고, 이를 상기 영상처리제어부(90)에 전송하도록 차량(50)의 상단에 설치되는 영상카메라부(100);
상기 차량(50)의 상단에 설치되고 상기 영상카메라부(100)의 현재위치에 관한 데이터를 검출하여 상기 영상처리제어부(90)에 제공하는 GPS정보검출부(60); 및
상기 영상처리제어부(90)로부터 전송된 항공촬영 영상이미지를 상기 영상카메라부(100)에서 제공되는 영상이미지와 상기 GPS정보검출부(60)에서 제공되는 위치정보에 근거하여 3차원 영상이미지로 변환하는 영상이미지합성부(70); 를 포함하는 영상처리시스템에 있어서,
상기 항공이미지제공부(40)는,
GPS좌표가 적용된 항공촬영이미지 데이터와, 항공촬영이미지의 촬영 고도(h2) 정보와, 지상물이미지의 높이(h1) 정보를 저장하는 이미지 DB(1);
상기 이미지 DB(1)의 데이터 및 정보를 검색하는 이미지검색모듈(2);
상기 이미지검색모듈(2)이 검색한 항공촬영이미지 데이터를, 입력기능을 갖는 터치스크린(3a)을 통해 출력하는 출력모듈(3);
상기 터치스크린(3a)에 출력되는 항공촬영이미지 내 지정된 한 쌍의 초기점(P1)과 한 쌍의 말기점(P2)의 좌표값을 확인하고, 상기 좌표값을 잇는 기준직선을 설정해서 초기점(P1)과 말기점(P2)으로 둘러싸인 범위를 도로이미지(30)의 범위로 확정하는 지점선택모듈(4);
상기 도로이미지(30)에 해당하는 픽셀의 지정색상을 확인하고, 상기 기준직선상에 도로이미지(30)의 지정색상과는 불일치한 픽셀들을 검색하고 이렇게 검색된 픽셀들 중 서로 동일한 색상으로 지정된 픽셀들을 연결해 경계로 확정해서 모서리로 한 후 상기 모서리를 수정지상물이미지(20a)의 기준점(a1 내지 a6)으로 설정하고, 수정지상물이미지(20a)가 도로이미지(30)를 덮은 방향으로 검색직선을 형성해서 출력모듈(3)을 통해 터치스크린(3a)에 출력하고, 사용자가 터치스크린(3a)에 출력된 검색직선상의 일지점을 지적해서 선택된 지점에 해당하는 픽셀의 지정색상을 확인한 후, 상기 지정색상과 동일한 색상으로 지정된 픽셀들을 확인해서 상기 픽셀들이 위치한 범위를 경계로 제한해 기준지상물이미지(10a)로 확정하며 상기 경계의 모서리에 기준지상물이미지(10a)의 기준점(b1 내지 b4)을 설정하고, 수정지상물이미지(20a)의 기준점(a1 내지 a6)을 통해 수정지상물이미지(20a)의 평면부 폭(w2)을 연산하는 이미지탐색모듈(5);
기준지상물(10)과 수정지상물(20) 간 중심거리(d)와 상기 항공촬영이미지의 촬영 고도(h2)와 수정지상물(20)의 높이(h1)를 확인해서 'tanθ= (h2 - h1) / d'에 대입해 촬영각(θ)을 연산하고, 수정지상물이미지(20a)의 평면부 폭(w2)과 촬영각(θ)을 'sin(90-θ) = w2/L2'에 대입해 수정된 평면부 폭(L2)을 연산하고, 수정지상물이미지(20a)의 수정 전 평면부 이미지를 분리해서 수정된 평면부 폭(L2)에 맞춰 그 크기를 조정하고, 수정지상물이미지(20a)의 측면부 이미지는 제거하는 이미지도화모듈(7); 및
상기 측면부 이미지가 제거된 항공촬영이미지에 수정된 평면부를 합성하고, 수정지상물이미지(20a)의 측면부 이미지 제거로 형성된 음영부분(D)의 GPS좌표를 확인해서 이미지 DB(1)에서 음영부분(D)의 실제이미지를 포함한 다른 항공촬영이미지를 이미지검색모듈(2)을 매개로 검색하고, 상기 다른 항공촬영이미지의 실제이미지를 크기 및 해상도를 일치시켜서 음영부분(D)에 합성하고, 이미지DB(1)의 항공촬영이미지 데이터를 갱신하는 이미지편집모듈(6);을 포함하며,
상기 영상카메라부(100)는,
상기 영상처리제어부(90)의 해당 제어신호에 의하여 영상이미지를 촬영하는 카메라부(500) 및 상기 카메라부(500)의 하단 양 측부에 형성되어 광각 카메라의 움직임을 제한하는 카메라이동제한부(600)를 포함하여 이루어지되,
상기 카메라부(500)는,
상기 영상처리제어부의 해당 제어신호에 의하여 피사체의 영상이미지를 촬영하는 광각 카메라(510);
상기 차량 상단에 설치되어 광각 카메라(510) 주변의 조도값을 센싱하는 조도센서(511);
상기 차량 상단에 설치되어 태양광의 방향각도값 및 위상값을 출력하는 태양광 센서(512);
상기 광각 카메라(510)의 영상이미지와, 조도센서(511)의 조도값과, 태양광 센서(512)의 태양광의 방향각도값 및 위상값과, 광각 카메라(510)의 특성요소를 이용하여 촬영된 영상이미지를 보정하는 영상보정부(513); 및
상기 광각 카메라(510)의 하단면에 설치되되, 그 하우징(533) 내부의 상단 및 하단에 각각 삽입되는 완충 패드(532)와 상기 완충 패드(532) 사이에 형성되는 압축코일스프링(531)을 구비하는 하부다리(530); 를 포함하는 것을 특징으로 하고,
상기 영상보정부(513)는,
상기 광각카메라(510)에 의해 촬영된 영상이미지를 영상 블록 단위로 출력하여 그 오류여부를 판단하되, 해당 영상 블록의 밝기값과 그 주변 영상 블록의 밝기값의 차이의 합이 미리 설정된 임계값 이상이면 해당 영상 블록에 대응하는 영상이미지에 오류가 있는 것으로 판단하고 영상보정명령을 생성하는 보정판단부(514);
상기 광각카메라(510)에 의해 촬영된 영상이미지 내 지형지물의 음영영역을 추출하되, 촬영 당시 태양광의 방향각도값 및 위상값에 따라 지형지물의 음영영역의 위치 및 크기를 변화시켜 출력하는 음영영역산출부(515);
상기 조도센서(511)의 조도값과, 상기 음영영역산출부(515)의 음영 영역의 위치 및 크기에 기초하여 영상이미지의 영사 블록 밝기값을 보정하되 상기 영상 블록의 밝기 및 영역 분석을 통해 기 설정된 그레이값 이상을 갖는 영역이 존재하는 경우 상기 영상 블록의 밝기값을 주변 영상 블록의 평균 밝기값에 근사해지도록 밝기 정도를 감소시키거나 또는 상기 광각카메라(510)에 의해 촬영된 영상이미지의 평균 피크 휘도값을 산출하고, 이에 기초하여 영상이미지의 촬영 시간이 주간 또는 야간인지 여부를 판정하고, 상기 판정된 시간이 주간 또는 야간 중 일출 또는 일몰에 해당하는 시간인 경우 상기 기 설정된 그레이값 미만을 갖는 영역의 감마값을 조정하여 휘도값을 상승시켜 상기 영상 블록의 밝기값을 주변 영상 블록의 평균 밝기값에 근사해지도록 보정하여 출력하는 제1 영상보정모듈(516);
상기 광각카메라(510)의 설치 높이, 설치 방향, 초점거리, 주점 및 왜곡계수로 이루어지는 카메라의 특성요소를 이용하여 상기 광각카메라(510)에 대응하는 가상카메라의 촬영 영역별 틸트각 및 요각을 산출하는 촬영각도 산출부(517); 및
상기 광각카메라(510)에 의해 촬영된 영상이미지의 촬영영역별 틸트각 및 요각에 따라 상기 가상카메라의 틸트각 및 요각을 조정하여 상기 촬영된 영상이미지의 뷰(view)를 변환하고, 변환된 뷰(view)에 따른 보정 영상이미지를 생성하여 출력하는 제2 영상 보정모듈(518);을 구비하는 것을 특징으로 하며,
상기 카메라이동제한부(600)는,
상기 광각 카메라(510)의 양 측면에 각각 접합되며, 그 하단에 미세조절용 바퀴(630)를 구비하는 적어도 2이상의 측부지지대(610); 상기 측부지지대(610)의 상부와 광각카메라(510) 하단을 연결하는 스프링(630); 및 차량 상단에 형성되되 일정하게 이격되어 형성되는 다수의 걸림턱(641)을 구비하는 레일부(640); 를 구비하되,
상기 걸림턱(641)의 단면은 일측이 직각으로 형성되고, 타측은 원형 경사면을 형성하되, 다수의 걸림턱(641)들은 상기 광각 카메라(510)를 중심으로 서로 대향되도록 형성되고,
상기 측부지지대(610)는 레일부(630)의 걸림턱(641)의 일면에 결착되되, 상기 차량의 상하운동시 상기 측부지지대(610)는 광각카메라(510)를 중심으로 그 안쪽 또는 바깥쪽으로 동시에 절첩되어 결착되어 있던 걸림턱(641)으로부터 다른 걸림턱(641)으로 미세 이동하여 결착되는 것을 특징으로 하고,
상기 광각 카메라(510)의 렌즈 표면에는 퍼플루오르폴리에테르 100 중량부에 대하여 테트라플루오로에틸렌 8 내지 15 중량부, 퍼플루오르메틸비닐에테르 8 내지 15 중량부, 플루오르아크릴아마이드 6 내지 12 중량부 및 퍼플루오르인산화염 7 내지 14 중량부를 포함하며, 30dyne/cm 이하의 표면장력을 가지고 0.2 이하의 동마찰계수를 갖는 코팅층을 구비하는 것을 특징으로 하는 항공 이미지 및 지상 이미지를 합성하는 영상처리시스템.
An aerial image providing unit (40) for reading, editing, and updating an aerial photographic image, which is a two-dimensional plane image photographed using an aircraft, and providing the aerial photographic image to the image processing control unit (90);
An image camera unit 100 installed at an upper end of the vehicle 50 to shoot an image including an image of an uncertain feature and an end image of the road, and to transmit the image to the image processing control unit 90;
A GPS information detecting unit 60 installed at an upper end of the vehicle 50 for detecting data on the current position of the image camera unit 100 and providing the data to the image processing control unit 90; And
The aerial photographing image transmitted from the image processing control unit 90 is converted into a three-dimensional image image based on the image information provided by the image camera unit 100 and the location information provided by the GPS information detecting unit 60 A video image composition unit (70); The image processing system according to claim 1,
The air image providing part (40)
An image DB 1 for storing aerial image data to which GPS coordinates are applied, image height h2 of the aerial image, and height h1 of the ground image;
An image retrieval module (2) for retrieving data and information of the image DB (1);
An output module (3) for outputting the aerial photographing image data retrieved by the image retrieval module (2) through a touch screen (3a) having an input function;
(P1) and a pair of end points (P2) in the aerial photographing image outputted to the touch screen (3a), sets a reference straight line connecting the coordinate values, A point selection module 4 for determining a range surrounded by the first point P1 and the last point P2 as the range of the road image 30;
A predetermined color of a pixel corresponding to the road image 30 is checked and pixels mismatching with the designated color of the road image 30 are searched on the reference straight line. The corners are set as reference points a1 to a6 of the corrected ground image 20a and the corrected ground image 20a is set as a search straight line in the direction covering the road image 30 And outputs it to the touch screen 3a through the output module 3. The user points to one point on the search straight line outputted to the touch screen 3a and confirms the designated color of the pixel corresponding to the selected point, The pixels designated by the same color as the designated color are identified and the range in which the pixels are located is limited to the boundary to be the reference ground water image 10a, The reference points b1 to b4 of the ground ground image 10a and the image widths w1 and w2 of the corrected ground surface image 20a are calculated through the image search Module 5;
The center distance d between the reference ground water 10 and the modified ground 20 and the height h2 of the aerial photographing image h2 and the modified ground water 20 are determined to be tan? (w2) and the photographing angle (?) of the corrected ground image 20a are calculated as sin (90 -?) = w2 / L2 'To calculate the corrected width L2 of the flat surface, and to adjust the size of the corrected flat portion width L2 in accordance with the corrected flat portion width L2 by separating the flat before-image of the corrected ground image 20a, An image drawing module 7 for removing the side portion image of the water image 20a; And
The corrected plane portion is synthesized with the aerial shot image from which the side portion image has been removed and the GPS coordinates of the shade portion D formed by removing the side portion image of the modified ground image 20a are confirmed, D) through the image search module (2), composites the actual image of the other aerial photograph image with the size and resolution to the shaded part (D), and the image DB And an image editing module (6) for updating the aerial photographing image data of the airplane (1)
The image camera unit (100)
A camera unit 500 for capturing a video image according to a corresponding control signal of the image processing control unit 90 and a camera movement restricting unit 600 for restricting movement of the wide angle camera formed on both lower sides of the camera unit 500 ),
The camera unit 500 includes:
A wide angle camera (510) for photographing a video image of a subject according to a corresponding control signal of the image processing control unit;
An illuminance sensor 511 disposed at an upper end of the vehicle and sensing an illuminance value around the wide angle camera 510;
A solar light sensor 512 installed at an upper end of the vehicle and outputting a direction angle value and a phase value of sunlight;
The photographing is performed using the image of the wide angle camera 510, the illuminance value of the illuminance sensor 511, the direction angle value and the phase value of the sunlight of the solar sensor 512, An image correcting unit (513) for correcting a video image; And
A compression coil spring 531 formed between the cushioning pad 532 and the cushioning pad 532 inserted in the upper and lower ends of the inside of the housing 533, A lower leg 530 provided; , Wherein:
The image correction unit 513,
The image processing apparatus according to one of claims 1 to 4, further comprising: a wide angle camera (510) for outputting a video image on a video block basis to determine whether the video image is erroneous, A correction judgment unit 514 for judging that an image corresponding to the image block has an error and generating an image correction command;
A shaded area calculating unit for extracting a shaded area of the feature image captured by the wide angle camera 510 and varying the position and size of the shaded area of the feature according to a direction angle value and a phase value of sunlight at the time of photographing, (515);
The brightness value of the projection block of the video image is corrected based on the brightness value of the brightness sensor 511 and the position and size of the shadow area of the shadow area calculation unit 515, When there is an area having a gray value greater than a predetermined gray level, the brightness of the image block is reduced so as to approximate the average brightness value of the surrounding image block, or the average brightness of the image The brightness value is calculated, and it is determined whether or not the photographing time of the video image is daytime or nighttime based on the calculated brightness value. If the determined time is the time corresponding to sunrise or sunset during daytime or nighttime, The gamma value of the area is adjusted to raise the brightness value so that the brightness value of the image block is approximated to the average brightness value of the surrounding image block A first image correction module 516 to appointed output;
The tilt angle and the yaw angle of the virtual camera corresponding to the wide angle camera 510 are calculated using the characteristic elements of the camera including the installation height, the installation direction, the focal length, the principal point and the distortion coefficient of the wide angle camera 510 A photographing angle calculating section 517; And
A tilt angle and a yaw angle of the virtual camera are adjusted according to a tilt angle and a yaw angle of a video image photographed by the wide angle camera 510 to convert the view of the photographed video image, and a second image correction module 518 for generating and outputting a corrected image corresponding to the view,
The camera movement restricting unit 600,
At least two side supports (610) joined to both sides of the wide angle camera (510) and having wheels (630) for fine adjustment at their lower ends; A spring 630 connecting the upper portion of the side support 610 and the lower end of the wide angle camera 510; And a plurality of latching protrusions (641) formed at an upper end of the vehicle and spaced apart from each other. Respectively,
The locking protrusions 641 are formed so that one side thereof is formed at a right angle and the other side is formed with a circular inclined surface. The locking protrusions 641 are formed to face each other with respect to the wide angle camera 510,
The side support 610 is attached to one side of the latching protrusion 641 of the rail 630 and the side support 610 is fixed to the inside or outside of the wide angle camera 510 And at the same time, it is finely moved from the engaging jaw 641 which has been folded and joined to the other engaging jaw 641,
On the surface of the lens of the wide-angle camera 510, 8 to 15 parts by weight of tetrafluoroethylene, 8 to 15 parts by weight of perfluoromethyl vinyl ether, 6 to 12 parts by weight of fluoroacrylamide, Fluorine phosphorus oxide and 7 to 14 parts by weight of a coating layer having a surface tension of 30 dyne / cm or less and a kinetic friction coefficient of 0.2 or less.
KR1020180150881A 2018-11-29 2018-11-29 Image processing system for synthesizing aerial image and ground-based image KR101935824B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180150881A KR101935824B1 (en) 2018-11-29 2018-11-29 Image processing system for synthesizing aerial image and ground-based image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180150881A KR101935824B1 (en) 2018-11-29 2018-11-29 Image processing system for synthesizing aerial image and ground-based image

Publications (1)

Publication Number Publication Date
KR101935824B1 true KR101935824B1 (en) 2019-03-06

Family

ID=65761457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180150881A KR101935824B1 (en) 2018-11-29 2018-11-29 Image processing system for synthesizing aerial image and ground-based image

Country Status (1)

Country Link
KR (1) KR101935824B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102065752B1 (en) * 2019-11-11 2020-01-13 주식회사 지오스토리 Image processing system for synthesizing aerial image and precise ground-based image
KR102065762B1 (en) * 2019-11-14 2020-01-13 주식회사 삼인공간정보 Image processing system for precise synthesizing aerial image and ground-based image
CN111462098A (en) * 2020-04-03 2020-07-28 深圳前海微众银行股份有限公司 Method, device, equipment and medium for detecting overlapping of shadow areas of object to be detected
KR102239562B1 (en) * 2019-12-10 2021-04-13 주식회사 스트리스 Fusion system between airborne and terrestrial observation data
KR102368284B1 (en) * 2021-07-14 2022-03-02 주식회사 대한측량기술 Operating system for digital map making system capable of real-time remote modification
KR102379682B1 (en) * 2021-07-14 2022-03-29 주식회사 대한측량기술 Updating system of digital map for applying real-time update
KR102382232B1 (en) * 2021-07-28 2022-04-04 주식회사 도명메타 Precise spatial image drawing system for object of photographed image using horizontal surveying instrumnet
CN114494905A (en) * 2022-01-26 2022-05-13 中科星图股份有限公司 Building identification and modeling method and device based on satellite remote sensing image
KR102401256B1 (en) * 2022-01-04 2022-05-25 젠스코리아 주식회사 Image processing system for converting aerial image to 3D image
KR20220076079A (en) * 2020-11-30 2022-06-08 (주) 지오씨엔아이 Map sheet image generation system and method using satellite images
CN115394178A (en) * 2021-09-02 2022-11-25 中国地质大学(北京) Method for manufacturing Chinese-blind double-language annotation touch map jigsaw teaching aid for special education
CN116681873A (en) * 2023-07-31 2023-09-01 山东省国土测绘院 Image orthorectification method and system based on rapid updating of digital elevation model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160093314A (en) * 2015-01-29 2016-08-08 건아정보기술 주식회사 Photographing system for identifying azimuth

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160093314A (en) * 2015-01-29 2016-08-08 건아정보기술 주식회사 Photographing system for identifying azimuth

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102065752B1 (en) * 2019-11-11 2020-01-13 주식회사 지오스토리 Image processing system for synthesizing aerial image and precise ground-based image
KR102065762B1 (en) * 2019-11-14 2020-01-13 주식회사 삼인공간정보 Image processing system for precise synthesizing aerial image and ground-based image
KR102239562B1 (en) * 2019-12-10 2021-04-13 주식회사 스트리스 Fusion system between airborne and terrestrial observation data
CN111462098A (en) * 2020-04-03 2020-07-28 深圳前海微众银行股份有限公司 Method, device, equipment and medium for detecting overlapping of shadow areas of object to be detected
KR20220076079A (en) * 2020-11-30 2022-06-08 (주) 지오씨엔아이 Map sheet image generation system and method using satellite images
KR102428049B1 (en) 2020-11-30 2022-08-03 (주) 지오씨엔아이 Map sheet image generation system and method using satellite images
KR102379682B1 (en) * 2021-07-14 2022-03-29 주식회사 대한측량기술 Updating system of digital map for applying real-time update
KR102368284B1 (en) * 2021-07-14 2022-03-02 주식회사 대한측량기술 Operating system for digital map making system capable of real-time remote modification
KR102382232B1 (en) * 2021-07-28 2022-04-04 주식회사 도명메타 Precise spatial image drawing system for object of photographed image using horizontal surveying instrumnet
CN115394178A (en) * 2021-09-02 2022-11-25 中国地质大学(北京) Method for manufacturing Chinese-blind double-language annotation touch map jigsaw teaching aid for special education
CN115394178B (en) * 2021-09-02 2023-11-03 中国地质大学(北京) Manufacturing method of Chinese-blind bilingual labeling tactile map jigsaw teaching aid for special teaching
KR102401256B1 (en) * 2022-01-04 2022-05-25 젠스코리아 주식회사 Image processing system for converting aerial image to 3D image
CN114494905A (en) * 2022-01-26 2022-05-13 中科星图股份有限公司 Building identification and modeling method and device based on satellite remote sensing image
CN116681873A (en) * 2023-07-31 2023-09-01 山东省国土测绘院 Image orthorectification method and system based on rapid updating of digital elevation model
CN116681873B (en) * 2023-07-31 2023-10-27 山东省国土测绘院 Image orthorectification method and system based on rapid updating of digital elevation model

Similar Documents

Publication Publication Date Title
KR101935824B1 (en) Image processing system for synthesizing aerial image and ground-based image
US11054258B2 (en) Surveying system
KR102065752B1 (en) Image processing system for synthesizing aerial image and precise ground-based image
EP2057585B1 (en) Mosaic oblique images and methods of making and using same
US10176595B2 (en) Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
US20190082088A1 (en) System and method for supporting smooth target following
US20140340427A1 (en) Method, device, and system for computing a spherical projection image based on two-dimensional images
KR101592740B1 (en) Apparatus and method for correcting image distortion of wide angle camera for vehicle
US9285460B2 (en) Method and system for estimating information related to a vehicle pitch and/or roll angle
AU2007355942A1 (en) Arrangement and method for providing a three dimensional map representation of an area
KR102246549B1 (en) Spatial Image Drawing System by the Precision Aerial Work Image
JPWO2008152740A1 (en) Digital aerial 3D measurement system
KR101942770B1 (en) Image processing system to synthesis revising photo image with location information
CN109883433B (en) Vehicle positioning method in structured environment based on 360-degree panoramic view
KR102065762B1 (en) Image processing system for precise synthesizing aerial image and ground-based image
AU3326100A (en) Method and device for making map using photograph image and method for correcting distortion of photograph image
KR101398068B1 (en) Vehicle Installed Camera Extrinsic Parameter Estimation Method and Apparatus
KR101560744B1 (en) Operating method of image processing system with combination photo image
Smith Imager for Mars Pathfinder experiment (IMP): a multispectral stereo imaging system
JP2001283204A (en) Obstacle detector
CN115657072A (en) Aerial real-time image-based space target positioning method
CN117664111A (en) Indoor positioning method and device for intelligent mobile terminal based on visual data of top visual angle
CN116797805A (en) Self-adaptive ground-air image matching method and system based on geometric constraint
JP2001283203A (en) Obstacle detector