KR20090064679A - 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 - Google Patents

이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 Download PDF

Info

Publication number
KR20090064679A
KR20090064679A KR1020070131963A KR20070131963A KR20090064679A KR 20090064679 A KR20090064679 A KR 20090064679A KR 1020070131963 A KR1020070131963 A KR 1020070131963A KR 20070131963 A KR20070131963 A KR 20070131963A KR 20090064679 A KR20090064679 A KR 20090064679A
Authority
KR
South Korea
Prior art keywords
ground
image
spatial
ground reference
line
Prior art date
Application number
KR1020070131963A
Other languages
English (en)
Other versions
KR100912715B1 (ko
Inventor
신성웅
아이만 하비브
므와파그 간마
김창재
김의명
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070131963A priority Critical patent/KR100912715B1/ko
Priority to JP2008023237A priority patent/JP4719753B2/ja
Priority to US12/115,252 priority patent/US20090154793A1/en
Publication of KR20090064679A publication Critical patent/KR20090064679A/ko
Application granted granted Critical
Publication of KR100912715B1 publication Critical patent/KR100912715B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Processing (AREA)

Abstract

이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및 장치가 개시된다. 서로 다른 센서를 갖는 프레임 카메라와 라인 카메라에 의해 촬영된 항공 영상과 위성 영상의 중첩된 영역에 대한 통일된 삼각측량기법이 제공된다. 삼각측량에 이용되는 지상 기준 피처로서, 지상 기준 라인 또는 지상 기준 면이 사용된다. 3차원 위치 결정의 정확도를 더 향상시키기 위해, 지상 기준 면과 함께 몇 개의 지상 기준 점을 더 사용할 수도 있다. 지상 기준 라인과 지상 기준 면은 LiDAR로부터 추출된다. 또한, 여러 장의 항공 영상 및 위성 영상을 블록으로 묶어서 블록 단위의 번들 조정에 의해 삼각측량을 수행할 수 있다. 정사 영상이 필요한 경우에는, LiDAR 시스템에 의해 작성된 다양한 정밀도의 지형 표고 모델을 원하는 정밀도에 따라 적절히 활용하여 정사 영상을 생성할 수 있다.

Description

이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및 장치{METHOD AND APPARATUS OF DIGITAL PHOTOGRAMMETRY BY INTEGRATED MODELING FOR DIFFERENT TYPES OF SENSORS}
본 발명은 수치 사진 측량 방법 및 장치에 관한 것으로서, 특히 서로 다른 영상 취득 센서에 의해 촬영된 영상들을 통합하여 지상 객체의 3차원 위치를 결정할 수 있는 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및 장치에 관한 것이다.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-F-042-01, 과제명: 3차원 GIS 기반 전파분석 고도화 기술 개발].
수치사진측량기법(Digital Photogrammetry)은 카메라로부터 취득된 영상 데이터로부터 지상 객체의 3차원 위치 정보를 추출해내고, 추출된 3차원 위치 정보에 3차원 지형 모델을 적용하여 최종적으로 정사 영상(orthophoto)을 생성하는 기술이다.
특히, 효율적인 3차원 지도의 작성 등을 위해, GPS(Global Positioning System)나 INS(Inertial Navigation System)를 탑재한 항공기나 위성에 장착된 카메라에 의해 획득한 항공 영상이나 위성 영상으로부터 지상 객체의 3차원 위치 정보를 추출하는 공중 사진 측량 기술이 최근에 주목받고 있다.
일반적으로 지상 객체의 3차원 위치 정보는, 지상 기준점(Ground Control Point, GCP)의 특정, 특정된 지상 기준점을 이용한 표정(標定, orientation) 처리, 및 표정 처리에 의해 계산된 외부 표정 파라미터에 대한 기하학적인 계산에 의해 얻어진다.
지상 기준점으로는, 도로 표지판, 가로등, 건물 모퉁이와 같이 지도 상에세 하나의 점으로 표현될 수 있는 지상 객체가 이용될 수 있다. 지상 기준점의 3차원 좌표는 GPS 측량 또는 지상 측량에 의해 얻어진다.
표정 처리는 내부 표정 및 외부 표정(상대 표정, 절대 표정)의 순서로 진행되거나, 내부 표정 및 항공삼각측량(Aerotriangulation)의 순서로 진행된다. 내부 표정에 의해 카메라의 초점 거리, 주점(principal point), 및 렌즈의 왜곡을 포함하는 내부 표정 파라미터가 얻어진다. 내부 표정의 목적이 카메라 내부의 광학적 환경을 재현하는 것이라면, 외부 표정의 목적은 카메라와 대상 물체 사이의 위치 관계를 규정하는 데 있다. 외부 표정은 그 목적에 따라 상대 표정과 절대 표정으로 나뉘어진다.
상대 표정이란 중복 영역을 갖는 두 항공 영상의 상대적인 위치와 자세 관계를 규명하는 과정이다. 이때 두 영상의 중복 영역을 "모델"이라고 하며, 이렇게 재 구성된 3차원 공간을 "모델 공간"이라고 한다. 상대 표정은 내부 표정이 수행된 이 후에 가능하며, 모델 공간에서 카메라의 위치와 자세를 취득함과 동시에 공액점에 대한 종시차(vertical parallax)를 제거한다.
상대 표정을 통해 종시차가 소거된 한 쌍의 사진은 완전한 실체 모델을 형성하게 되지만, 이 모델은 한 쪽 사진을 고정시킨 상태에서 두 사진의 상대적인 관계를 규정한 것이므로 축척과 수평이 제대로 맞지 않으며, 실제의 지형과 정확한 상사 관계를 이루지 못하고 있다. 따라서, 이 모델을 실제의 지형과 맞추기 위해서는 3차원 가상 좌표인 모델 좌표를 대상 공간 좌표(object space coordinate system)로 변환하는 과정이 필요하며, 이러한 과정을 절대 표정이라고 한다. 즉 절대 표정은, 3차원 좌표를 갖는 최소 3개의 지상 기준점을 이용하여 모델 공간을 지상 공간으로 변환하는 과정이다.
외부 표정을 통해, 항공 사진의 카메라(센서) 모델에 필요한 6개의 외부 표정 파라미터가 결정된다. 6개의 파라미터는, 카메라의 투영 중심(perspective center)의 위치 X, Y, Z와 3차원 축에 대한 회전요소(자세) ω, φ, κ이다. 따라서 두 영상의 공액점을 관측하면, 외부 표정을 통해 결정된 6개의 외부 표정 파라미터를 이용하여, 예를 들어 전방교회법(Space Intersection)에 의해 지상 좌표를 얻을 수 있다.
한편, 절대 표정을 통해서 한 쌍의 중복된 사진으로부터 각 점의 3차원 절대 좌표를 측정하기 위해서는 최소한 2개의 평면 기준점과 3개의 표고 기준점이 요구된다. 따라서 절대 표정을 통해 정밀한 3차원 위치 측정을 수행하기 위해서는, 요 구되는 기준점 전부에 대한 측량, 즉 전면 지상 기준점 측량이 필요하다. 그러나 대규모의 항공 사진들을 이용하여 3차원 위치 측정을 수행하는 경우, 이러한 전면 지상 기준점 측량 작업은 과다한 시간과 비용을 발생시킨다.
따라서 소수의 지상 기준점에 대해서만 측량을 실시하고, 측량된 지상 기준점의 지상 좌표와, 도화기 등의 정밀 좌표 측정기에 의해 얻어진 사진 좌표, 모델 좌표, 또는 스트립 좌표들을 이용하여 수학적 계산에 의해 나머지 점들에 대한 절대 좌표를 결정할 수 있는데, 이를 항공삼각측량이라고 한다. 항공삼각측량에서는, 번들 조정을 통해, 외부 표정 파라미터와 대상 공간 좌표에 관해서 최소제곱법에 의해 동시해를 구한다.
한편, 상기와 같은 과정에 의해 산출된 3차원 좌표는, 지표면이 소정의 기준 고도에 위치한다는 전제 조건에서 산출되었기 때문에, 해당 3차원 좌표에 지형 표고 모델(Elevation Model)을 적용하여 정사 영상을 생성한다. 지형 표고 모델은, 특정 영역에 대한 지형의 고도 정보를 표현하는 데이터 형태로서, 대상 지역을 일정 크기의 격자로 나누어 공간상에 나타나는 연속적인 기복 변화의 값을 해당 격자에 수치적으로 표현한 것이다.
종래의 수치사진측량기법은, 동일한 영상 취득 센서(카메라)에 의해 촬영된 항공 영상 또는 위성 영상에 대해 지상 객체의 3차원 위치 정보를 산출하였다.
그러나 최근에는 광학 기술의 발달로 인해, 다양한 영상 취득 센서로부터 다양한 시기에 걸쳐 영상들이 만들어지고 있다. 예를 들어, 항공 영상은 프레임 카메라에 의해 촬영되고, 위성 영상은 푸시브룸(Pushbroom) 센서나 위스크브룸(Whiskbroom) 센서와 같은 라인 카메라에 의해 촬영된다. 따라서 서로 다른 영상 취득 센서에 의해 촬영된 영상들을 통합하기 위한 새로운 방식의 센서 모델링 기술을 개발할 필요가 있다. 특히 새로운 센서 모델링 기술에서는 3차원 객체의 위치를 결정하는 데 필요한 기준점의 수를 최소화함으로써 전반적인 처리 속도를 개선해야 할 필요도 있다.
또한, 3차원 지상 좌표의 결정에 있어서 지상 기준 피처(ground control feature)로 이용되는 지상 기준점 데이터는, 객체 인식과 같은 고정밀도의 작업에서는 그 정확도가 떨어질 수 밖에 없다. 또한, 지상의 점에 대응하는 영상 상의 점을 추출하는 데에는 대부분의 경우 수작업이 필수적이지만, 선이나 면과 같은 2차원 이상의 객체 데이터의 추출은 상대적으로 자동화의 가능성이 매우 높다. 특히 높은 공간 정확도로 인해 최근 그 활용성이 증대되고 있는 LiDAR(Light Detection And Ranging) 데이터를 가공 처리하면 지상 기준라인(control line) 또는 지상 기준면(control surface)을 쉽게 얻을 수 있다. 따라서 LiDAR 데이터로부터 3차원 객체를 자동으로 추출할 수 있는 기술의 개발이 필요하다.
또한, 수치사진측량시스템의 최종 결과물인 정사 영상을 생성하기 위해 이용되는 종래의 지형 표고 모델은 지표면을 단순화하여 표현하고 있다. 그러나 지상 기준점들이 가지는 공간 위치 에러로 인해서 지형 표고 모델도 공간 위치 에러를 갖게 된다. 따라서 최종 생성되는 정사 영상도, 이러한 지형 표고 모델의 영향으로 인해 건물이나 지상 객체에 대한 정사 보정이 제대로 이루어지지 않기 때문에, 다양한 공간 에러를 내포하게 된다.
그러나 LiDAR 데이터는 높은 정확도와 높은 점 밀도로 인해서 복잡한 지상 구조를 정밀하게 표현할 수 있는 DEM(Digital Elevation Model), DSM(Digital Surface Model), 및 DBM(Digital Building Model) 등을 생성할 수 있다. 따라서 LiDAR 데이터로부터 생성된 DEM, DSM, DBM을 활용하여 더욱 정밀하고 정확한 정사 영상을 만들어내는 기술을 개발할 필요가 있다.
본 발명의 목적은, 서로 다른 영상 취득 센서로부터 취득된 영상들, 특히 항공 영상과 위성 영상을 통합하여 지상 객체의 3차원 위치를 결정할 수 있으며, 지상 객체의 3차원 위치 결정에 필요한 지상 기준점의 개수를 줄이거나 없앨 수 있는 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및 장치를 제공하는 것이다.
본 발명의 다른 목적은, 점 데이터 뿐만 아니라 라인 데이터와 면 데이터를 활용하여 지상 객체의 3차원 위치를 자동적이고 정밀하게 결정할 수 있는 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및 장치를 제공하는 것이다.
본 발명의 또 다른 목적은, 요구되는 정밀도에 따라서 다양한 종류의 지형 표고 모델을 정사 보정에 활용하여 다양한 정밀도의 정사 영상을 얻을 수 있는 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및 장치를 제공하는 것이다.
상기와 같은 목적을 달성하기 위하여 본 발명의 수치 사진 측량 방법은, (a) 지상 객체들에 대한 공간 위치 정보를 포함하는 지형 정보 데이터로부터, 상기 지상 객체들의 공간 위치를 결정하는 데 이용될 지상 객체를 나타내는 지상 기준 피처를 추출하는 단계와, (b) 카메라 파라미터들의 일부 또는 전부가 서로 다른 카메라들에 의해 획득한 공간 영상들에서, 상기 추출된 지상 기준 피처에 대응하는 영상 기준 피처를 특정하는 단계와, (c) 상기 공간 영상들의 중첩된 영역에 대하여, 상기 지상 기준 피처 및 상기 영상 기준 피처 사이의 기하학적 관계로부터 제한 조건식을 확립하는 단계와, (d) 상기 제한 조건식으로부터 상기 공간 영상들 각각에 대한 외부 표정 파라미터들을 계산하고, 상기 외부 표정 파라미터들을 상기 공간 영상들에 적용하여 상기 지상 객체들에 대한 공간 위치를 결정하는 단계를 포함한다.
또한, 상기와 같은 목적을 달성하기 위하여 본 발명의 수치 사진 측량 장치는, 지상 객체들에 대한 공간 위치 정보를 포함하는 지형 정보 데이터로부터, 상기 지상 객체들의 공간 위치를 결정하는 데 이용될 라인 형상의 지상 객체 또는 면 형상의 지상 객체를 각각 나타내는 지상 기준 라인 또는 지상 기준 면을 추출하고, 프레임 카메라에 획득한 영상들과 라인 카메라에 의해 획득한 영상들을 포함하는 공간 영상들에서, 상기 추출된 지상 기준 라인 또는 지상 기준 면에 각각 대응하는 영상 기준 라인 또는 영상 기준 면을 특정하는 기준 피처 설정부와, 상기 공간 영상들의 중첩된 영역에 대하여, 상기 지상 기준 라인 및 상기 영상 기준 라인 사이의 기하학적 관계 또는 상기 지상 기준 면 및 상기 영상 기준 면 사이의 기하학적 관계로부터 제한 조건식을 확립하고, 상기 제한 조건식으로부터 상기 공간 영상들 각각에 대한 외부 표정 파라미터들을 계산하며, 상기 외부 표정 파라미터들을 상기 공간 영상들에 적용하여 상기 지상 객체들에 대한 공간 위치를 결정하는 공간 위치 측량부를 포함한다.
따라서 후술하는 실험 결과에 의해 명확히 알 수 있는 바와 같이, 본 발명에 따르면 지상 객체의 3차원 위치를 결정하는 데 필요한 지상 기준 점의 개수를 줄이거나 없앨 수 있다. 특히 LiDAR 데이터로부터 지상 기준 라인 또는 지상 기준 면을 추출하는 경우에는, 3차원 위치 결정의 정확성이 더욱 향상된다.
또한, 지상 기준 피처로서 점 형상의 지상 객체를 나타내는 지상 기준 점을 더 추출하는 것이 바람직하다. 특히 후술하는 실험 결과에 의해 명확히 알 수 있는 바와 같이, 지상 기준 면과 함께 몇 개의 지상 기준 점을 더 활용하면, 3차원 위치 결정의 정확도가 더욱 향상된다.
또한, 상기 공간 영상들을 블록으로 구성하고, 상기 블록 내의 공간 영상들에 대한 번들 조정에 의해 상기 외부 표정 파라미터들과 상기 지상 객체들의 공간 위치를 동시에 결정하는 것이 바람직하다. 따라서 본 발명에 따르면, 후술하는 실험 결과에 의해 명확히 알 수 있는 바와 같이, 필요한 지상 기준 점의 수를 현저히 줄일 수 있다.
한편, 서로 다른 지상 객체에 대한 복수의 지형 표고 모델 중 하나 이상의 지형 표고 모델에 의한 정사 보정을 통해 상기 공간 영상에 대한 정사 영상을 생성하는 것이 바람직하다. 이때, 상기 지형 표고 모델은 LiDAR 시스템에 의해 작성된 DEM, DSM, 및 DBM을 포함하며, 상기 DEM은 지표면의 고도를 표현하는 지형 표고 모델이고, 상기 DSM은 건물을 제외하고 지표면 위에 존재하는 구조물들의 높이를 표현하는 지형 표고 모델이며, 상기 DBM은 지표면 위에 존재하는 건물들의 높이를 표현하는 지형 지형 표고 모델이다. 따라서 본 발명에 따르면, 요구되는 정밀도에 부합하는 다양한 정밀도의 정사 영상을 얻을 수 있다.
본 발명에 따르면, 서로 다른 영상 취득 센서로부터 취득된 영상들, 특히 항공 영상과 위성 영상을 통합하여 지상 객체의 3차원 위치를 결정할 수 있으며, 지상 객체의 3차원 위치 결정에 필요한 지상 기준점의 개수를 줄이거나 없앨 수 있는 효과가 있다.
또한, 본 발명에 따르면, 점 데이터 뿐만 아니라 선 데이터와 면 데이터를 활용하여 지상 객체의 3차원 위치를 자동적이고 정밀하게 결정할 수 있는 효과가 있다.
또한, 본 발명에 따르면, 요구되는 정밀도에 따라서 다양한 종류의 지형 표고 모델을 정사 보정에 활용하여 다양한 정밀도의 정사 영상을 얻을 수 있는 효과가 있다.
본 발명은 항공 영상과 위성 영상을 통합하여 항공삼각측량을 수행한다. 항 공 영상은 주로 프레임 카메라에 의해 촬영되고, 위성 영상은 주로 라인 카메라에 의해 촬영된다. 따라서 프레임 카메라와 라인 카메라는, 카메라의 내적 특성(내부 표정 파라미터) 및 외적 특성(외부 표정 파라미터)을 포함하는 카메라 파라미터들 중 적어도 일부의 카메라 파라미터가 서로 다르다. 본 발명은, 프레임 카메라와 라인 카메라를 단일한 항공삼각측량 메커니즘에 통합할 수 있는 기법을 제공한다. 본 명세서에서는, 항공 영상과 위성 영상을 '공간 영상'이라는 용어로 통칭하기도 한다.
이하에서는, 우선 본 발명의 실시예를 설명하고, 이어서 본 발명의 실시예를 구체적으로 구현하기 위한 수학적 원리 등을 설명하며, 마지막으로 본 발명의 실시예에 따른 실험 결과를 설명한다.
1. 실시예
도 1에는 본 발명의 실시예에 따른 이종 센서 통합 모델링에 의한 수치 사진 측량 장치(100)의 구성도가 도시되어 있다. 본 명세서에서 "이종 센서 통합 모델링"이라 함은, 프레임 카메라와 라인 카메라와 같이 서로 다른 센서에 의해 획득된 영상들에서 중첩되는 영역에 대한 통일된 삼각측량기법이라고 정의할 수 있다.
장치(100)는, 본 실시예에서 활용되는 데이터를 입력할 수 있는 마우스, 키보드 등의 입력부(110)와, 상기 입력부(110)를 통해 입력되는 데이터를 바탕으로 본 발명의 전반적인 기능을 수행하는 중앙처리장치(120)와, 상기 중앙처리장치(120)의 연산에 필요한 데이터를 임시로 보관하기 위한 내부 메모리(130)와, 대 용량의 입력 데이터를 저장하거나 출력 데이터를 저장하는 하드디스크 등의 외부저장장치(140)와, 중앙처리장치(120)의 처리 결과를 출력하는 모니터 등의 출력부(150)로 구성된다.
도 2에는 기능 블록도의 형태로 재구성된 도 1의 수치 사진 측량 장치(100)가 도시되어 있다. 재구성된 장치(100)는 기준 피처 설정부(200) 및 공간 위치 측량부(300)를 포함하고, 정사 영상 생성부(400)를 선택적으로 더 포함할 수 있다.
한편, 본 실시예에 따른 이종 센서 통합 모델링에서는, 지상 기준 피처가 되는 지상 객체에 대한 3차원 위치 정보를 획득하기 위해 다양한 데이터를 활용한다. 따라서 지형 정보 데이터 저장부(500)에는, 실측 데이터(500a), 수치 지도 데이터(500b), 및 LiDAR 데이터(500c)를 포함하는 지형 정보 데이터가 저장되어 있다. 실측 데이터(500a)는 GPS 측량 등을 통해 실측된 지상 기준점의 위치 정보 데이터이다. 수치 지도 데이터(500b)는 지형 및 지물에 관한 다양한 공간 위치 정보를 수치화한 전자 지도 데이터이다. LiDAR 데이터(500c)는 LiDAR 시스템에 의해 측량된 지형 공간 정보이다. LiDAR 시스템은 레이저 펄스의 이동 특성과 지상 객체의 재질 특성에 기반하여 지상 객체까지의 거리를 계산하는 기법에 의해 고정밀도의 정확한 지형 모델을 생성할 수 있다.
기준 피처 설정부(200)는, 지형 정보 데이터 저장부(500)에 저장되어 있는 지형 정보 데이터로부터 지상 기준점(200a), 지상 기준라인(200b), 및 지상 기준면(200c) 등의 다양한 지상 기준 피처를 추출하고, 추출된 지상 기준 피처에 대응하는 공간 영상(300a, 300b) 내의 영상 기준 피처를 특정한다.
지상 기준점(200a)은 건물 모서리, 분수 등과 같이 지표면상에서 하나의 점으로 표현될 수 있는 객체로서, 실측 데이터(500a) 또는 수치지도(500b)로부터 추출될 수 있다. 지상 기준라인(200b)은 도로 중앙선, 하천 등과 같이 지표면상에서 선으로 표현될 수 있는 객체로서, 수치 지도(500b) 또는 LiDAR 데이터(500c)로부터 추출될 수 있다. 지상 기준면(200c)은 건물, 운동장 부지 등과 같이 지표면상에서 면으로 표현될 수 있는 객체로서, LiDAR 데이터(500c)로부터 추출될 수 있다. 영상 기준 피처의 특정은, 공지의 패턴 매칭 기법에 의해 자동으로 수행될 수 있다.
예를 들어, LiDAR 데이터(500c)에 의해 표현되는 LiDAR 이미지가 화면에 보여지고, 사용자는 화면상의 LiDAR 이미지에서 지상 기준 라인을 지정한다. 기준 피처 설정부(200)는 사용자가 지정한 지상 기준 라인을 LiDAR 데이터(500c)로부터 추출하고, 그것에 대응하는 영상 기준 라인을 공지의 패턴 매칭 기법에 의해 자동으로 특정한다. 따라서 지상 기준 라인 및 영상 기준 라인을 구성하는 점들의 좌표가 결정된다. 입력되는 모든 공간 영상에 대해 위와 같은 과정을 반복하여 기준 피처를 특정한다.
또한, 영상 기준 피처의 자동 특정이 오차 범위를 초과하는 에러를 발생시킨 경우에, 기준 피처 설정부(200)는 에러가 발생한 영상 기준 피처에 대한 사용자의 재지정에 의해 해당 영상 기준 피처를 다시 특정할 수 있다. 그러나 전술한 바와 같이, 라인 피처나 면 피처에 대한 자동화 성공 가능성이 점 피처보다는 훨씬 높기 때문에, 라인 피처나 면 피처를 활용한 영상 기준 피처의 자동 특정은 그러한 오차 발생을 거의 회피할 수 있다.
공간 위치 측량부(300)는, 공간 영상들(300a, 300b)의 중첩되는 영역에 대한 항공삼각측량에 의해 외부 표정 파라미터들을 구하고, 공간 영상 내의 영상 객체들에 대응하는 지상 객체들의 3차원 위치를 결정한다. 본 명세서의 후반부에 더 자세히 설명하는 바와 같이, 영상 기준 피처의 영상 좌표와 지상 기준 피처의 지상 좌표 등의 데이터에 공선 조건식(Collinearity Equations) 및 공면 조건식(Coplanarity Equations)과 같은 제한 조건을 적용하여 항공삼각측량을 수행한다.
항공삼각측량에서는, 복수의 공간 영상을 블록으로 묶어서, 블록 단위의 번들 조정을 통해 외부 표정 파라미터와 대상 공간 좌표(즉 지상 공간의 3차원 좌표)에 관해서 최소제곱법에 의해 동시해를 구한다. 후술하는 실험에서는, 6개의 항공 영상을 하나의 항공 영상 블록으로 구성한 3개의 항공 영상 블록과 스테레오 쌍의 위성 영상에 대해 삼각측량을 수행하였다. 후술하는 실험 결과는, 항공 영상 블록과 스테레오 쌍의 위성 영상을 통합하여 삼각측량을 수행하는 것이, 스테레오 쌍의 위성 영상만을 이용하여 삼각측량을 수행하는 것보다 지상 기준점의 개수를 현저히 줄일 수 있다는 것을 보여준다.
정사 영상 생성부(400)는, 공간 위치 측량부(300)에서 구해진 대상 공간 좌표에 소정의 지형 표고 모델을 적용하여 필요에 따라 정사 영상을 생성한다. 특히, LiDAR 데이터로부터 얻어진 DEM, DSM, 및 DBM을 필요에 따라 활용할 수 있다. 본 실시예에서, DEM(400a)은 지표면의 고도만을 표현하는 지형 표고 모델이다. 또한, 본 실시예에서, DSM(400b)은 건물을 제외하고 지표면 위에 존재하는 수목 및 기타 구조물과 같은 모든 객체들의 높이를 표현하는 지형 표고 모델이다. 또한, 본 실시예에서, DBM(400c)은 지표면 위에 존재하는 모든 건물들의 높이 정보를 포함하는 지형 표고 모델이다. 따라서 서로 다른 정확도와 정밀도를 지니는 다양한 정사 영상을 생성할 수 있게 된다.
예를 들어, 레벨 1의 정사 영상은, DEM(400a)만을 사용하여 지형 변위에 따른 정사 보정을 수행하여 얻은 정사 영상이다. 레벨 2의 정사 영상은 DEM(400a)과 DSM(400b)을 모두 사용하여, 지형 변위 뿐만 아니라 건물을 제외한 지표면상의 자상 객체의 높이에 따른 정사 보정을 수행하여 얻은 정사 영상이다. 레벨 3의 정사 영상은 DEM(400a), DSM(400b), 및 DBM(400c) 모두를 활용하여 지형 변위 및 건물을 포함하는 지표면상의 모든 객체의 높이를 고려한 정사 보정을 수행하여 얻은 정사 영상이다. 따라서 레벨 1, 레벨 2, 레벨 3의 순으로 정사 영상의 정확도와 정밀도가 높이진다.
한편, 본 발명의 실시예에 따른 수치 사진 측량 방법은, 도 1 및 도 2의 수치 사진 측량 장치의 기능을 단계별로 실행함으로써 구현된다. 즉 본 발명의 실시예에 따른 수치 사진 측량 방법은, 지상 기준 피처의 추출 단계, 추출된 지상 기준 피처에 대응하는 영상 기준 피처의 특정 단계, 공간 영상들의 중첩된 영역에 대한 항공삼각측량 단계를 포함하며, 선택적으로 정사 영상 생성 단계를 포함한다.
또한, 본 발명은, 상기 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 또한, 상기 실시예는 구체적인 구성과 도면에 의해 특정되었지만, 그러한 구체적인 실시예가 본 발명의 범위를 제 한하는 것이 아니라는 점을 명확히 하고자 한다. 따라서, 본 발명은, 본 발명의 본질을 벗어나지 않는 다양한 변형예와 그 균등물들을 포함하는 것으로 이해되어야 한다.
2. 사진측량학적인 원리
도 3에는 프레임 카메라의 이미지 센서의 구조(a)와 라인 카메라의 이미지 센서의 구조(b)가 도시되어 있다. 도시된 바와 같이, 프레임 카메라는 2차원의 센서 어레이를 갖는 반면, 라인 카메라는 초점면(focal plane)에서 단일의 선형 센서 어레이를 갖는다. 선형 센서 어레이의 1회의 노출에 의해서는 대상 공간의 좁은 스트립만을 촬영할 수 있다. 따라서 라인 카메라에 의해 지상의 연속된 영역을 촬영하기 위해서는, 셔터를 개방한 상태로 이미지 센서를 이동시켜야 한다. 여기서 '영상 또는 이미지(image)'와 장면(scene)'의 구분이 필요해진다.
'이미지(image)'는 광 센서의 초점면에서의 1회 노출을 통해 얻어진다. '장면(scene)'은 대상 공간의 2차원 영역을 커버하며 카메라의 속성에 따라 하나 또는 복수의 '이미지'로 구성될 수 있다. 이러한 구분에 따르면, 프레임 카메라에 의해 획득된 장면은 하나의 이미지로 구성되는 반면, 라인 카메라에 의해 획득된 장면은 복수의 이미지로 구성된다.
한편, 프레임 카메라에서와 마찬가지로 라인 카메라에서도, 투영 중심과, 이미지 상의 점과, 대응하는 지상 객체의 점이 직선 상에 정렬된다는 공선 조건식을 만족해야 한다. 라인 카메라에 대해 공선 조건식은 하기의 식 1에 의해 기술될 수 있다. 식 1의 공선 조건식은, 프레임 카메라에 의해 획득된 장면을 취급한다고 했을 때의 장면 좌표 (xs, ys)와 동등한 이미지 좌표 (xi, yi)를 포함한다. 그러나, 라인 카메라의 경우, 장면 좌표 (xs, ys)는 이미지 좌표로 변환될 필요가 있다. 이 경우, xs의 값은 대응하는 이미지의 노출 순간을 나타내는데 이용되며, ys 값은 yi 이미지 좌표에 직접 연관된다(도 4). 식 1에서 xi 이미지 좌표는 초점면의 선형 센서 어레이의 정렬 상태에 의존하는 상수이다.
(식 1)
Figure 112007090385916-PAT00001
단, (XG, YG, ZG)는 대상 점의 지상 좌표이고, (Xt O, Yt O, Zt O)는 노출 시각 t에서의 투영 중심의 지상 좌표이며, r11' 내지 r33'은 노출 순간의 회전 매트릭스의 요소이고, (xi, yi)는 고려되는 점의 이미지 좌표이며, (xp, yp, c)는 이미지 센서의 내부 표정 파라미터들(IOPs)이다. 즉 xp 및 yp는 주점의 이미지 좌표이고, c는 초점 거리이다.
프레임 카메라와 라인 카메라의 공선 조건식들 사이의 다른 차이점은, 프레 임 카메라는 단일 노출에 의해 이미지가 획득되고, 라인 카메라는 복수의 노출에 의해 장면이 획득된다는 점이다. 따라서 라인 카메라 장면과 연관된 외부 표정 파라미터들(EOPs)은 시간 의존적이고, 장면 내에서 고려되는 이미지에 의존하여 변한다. 이것은 각각의 이미지마다 미지의 외부 표정 파라미터들을 갖는다는 것을 의미하며, 장면 전체적으로 미지의 외부 표정 파라미터들이 지나치게 많아진다는 것을 의미한다. 따라서 현실적인 이유 때문에, 라인 카메라에 의해 획득되는 장면들의 번들 조정은 관련된 모든 외부 표정 파라미터들을 고려하지 않는다. 관련된 모든 외부 표정 파라미터들에 대한 고려는 상당한 시간과 노력이 소요되기 때문이다.
라인 카메라와 관련된 외부 표정 파라미터들의 개수를 줄이기 위해서, 다항식(polynomial)에 의해 시스템 궤적(trajectory)을 모델링하는 방법 또는 표정 영상(orientation image) 방법이 사용된다.
다항식에 의해 시스템 궤적을 모델링하는 방법은, 시간의 흐름에 따른 EOP들의 변화를 결정한다. 다항식의 차수는 궤적의 평탄도(smoothness)에 의해 결정된다. 그러나 이 방법은, 다항식에 의해 표현되기에는 비행 궤적이 지나치게 개략적이라는 점, 및 GPS/INS 관측값을 결합하기 어렵다는 점 등의 단점을 갖는다. 따라서 EOP를 줄이는 더 좋은 방법은 표정 영상 방법이라고 할 수 있다.
표정 영상은 시스템의 궤적을 따라 등간격으로 통상 지정된다. 특정 시각에서 획득된 이미지의 EOP들은 인접하는 이미지들, 즉 소위 표정 영상들의 EOP들의 가중 평균으로 모델링된다.
한편, 라인 카메라의 이미지 기하(geometry)는, 관련된 EOP들의 감소 방법을 포함하여, 프레임 카메라의 이미지 기하보다 더 일반적이다. 다시 말하면, 프레임 카메라의 이미지 기하는 라인 카메라의 이미지 기하의 특별한 경우로 생각할 수 있다. 예를 들어, 프레임 카메라에 의해 획득된 이미지는, 궤적과 비행 자세(attitude)가 0차원 다항식으로 표현되는 라인 카메라에 의해 획득되는 장면의 특수한 경우라고 생각할 수 있다. 또는, 표정 영상에 의해 작업하는 경우, 프레임 이미지는 하나의 표정 영상을 가진 라인 카메라 장면으로 생각할 수 있다. 라인 카메라의 이미지 기하에 대한 이러한 일반화는, 프레임 카메라와 라인 카메라를 통합할 수 있는 이종 센서의 삼각측량에 직접적으로 기여한다.
3. 삼각측량 프리미티브
삼각측량의 정확성은, 관련된 데이터 세트를 제어 정보에 의해 규정되는 기준 프레임에 연관시키는 공통 프리미티브(primitives)를 얼마나 정확하게 식별하는가에 달려 있다. 여기서 공통 프리미티브란, 두 영상의 중첩되는 영역의 지상 기준 피처와 그것에 대응하는 영상 기준 피처를 말한다. 종래의 사진측량학적인 삼각측량은 지상 기준점, 즉 점(point) 프리미티브에 기초한다. 그러나 사진 측량 데이터가 대상 공간의 연속적이고 규칙적인 스캐닝으로부터 얻어지는 것에 반해, LiDAR 데이터는 비연속적이고 불규칙한 풋프린트(footprint)로 구성되어 있다. 따라서 이러한 사진측량 데이터와 LiDAR 데이터의 특성을 고려하면, LiDAR 풋프린트를 이미지의 대응 점에 연관시키는 것은 거의 불가능하다. 따라서 점 프리미티브는 LiDAR 데이터에 적합하지 않고, 전술한 바와 같이, 선(line) 프리미티브와 면(surface) 프리미티브가 각각 기준라인과 기준면으로서 LiDAR 데이터와 사진측량 데이터를 연관시키기에 적절하다.
라인 피처는 이미지에서 직접 식별(특정)이 가능한 반면, 그 공액 LiDAR 라인은 평면 패치 분할 및 교차법(planar patch segmentation and intersection)을 통해 추출할 수 있다. 또는, LiDAR 라인들은 오늘날 대부분의 LiDAR 시스템이 제공하는 레이저 강도 이미지(intensity image)에서도 직접 식별될 수 있다. 그러나 레이저 강도 이미지로부터 추출된 기준 라인들보다는 평면 패치 분할 및 교차법으로부터 추출된 기준 라인들이 더 정교하다. 라인 피처 이외에, 사진측량 데이터 세트의 공간적 프리미티브들은, 이미지에서 식별될 수 있는 경계를 이용하여 규정될 수 있다. 그러한 공간적 프리미티브들은, 예를 들어 지붕, 호수, 및 다른 균질의(homogeneous) 영역을 포함한다. LiDAR 데이터 세트에서, 공간적 영역들은 평면 패치 분할(planar patch segmentation) 기법을 통해 얻어진다.
프리미티브 선택과 관련된 다른 논점은 사진측량 데이터와 LiDAR 데이터 양쪽에서의 표현 방식이다. 이와 관련하여, 이미지 공간 라인들은 해당 라인 피처를 따라 존재하는 일련의 이미지 점들(G31C)에 의해 표현된다(도 5의 (a)). 이러한 표현 방식은, 이미지 공간의 직선에 왜곡이 있는 경우의 이미지 공간 라인 피처들을 취급하는 데 좋다. 더욱이, 그러한 표현 방식은, 비행 궤적의 요동이 대상 공간의 직선에 대응하는 이미지 공간 라인 피처들의 직선에 굴곡을 만들어내기 때문에, 라인 카메라에 의해 획득된 장면들에서도 라인 피처를 추출할 수 있게 해준다. 한편, 중첩되는 장면들에서 대응하는 라인 세그먼트들을 따라서 선택된 중간 점들은 공액 일 필요는 없다. LiDAR 데이터의 경우, 대상 라인들은 양 끝 점들(G31A, G31B)에 의해 표현될 수 있다(도 5의 (b)). LiDAR 라인을 규정하는 점들은 이미지에서 보일 필요는 없다.
한편, 공간적 프리미티브의 경우, 사진측량 데이터 세트에서의 평면 패치들은 3개의 점들, 즉 3개의 모서리 점들(A, B, C)에 의해 표현될 수 있다(도 6의 (a)). 이 점들은 모든 중첩되는 이미지들에서 식별되어야 한다. 라인 피처들과 마찬가지로, 이러한 표현 방식은 프레임 카메라와 라인 카메라에 의해 획득된 장면들에 대해 유효하다. 한편, LiDAR 패치는 그 패치를 규정하는 풋프린트(FP)에 의해 표현될 수 있다(도 6의 (b)). 이 점들은 평면 패치 분할 기법을 이용하여 직접 얻어진다.
4. 제한 조건식
4.1. 선형 프리미티브의 활용
대상 공간의 양 끝 점들로 표현되는 LiDAR 라인과, 이미지 공간의 일련의 중간 점들로 표현되는 사진측량학적 라인을 서로 연관시키는 수학적인 제한 조건을 설명한다.
사진측량 데이터 세트는, LiDAR 라인의 제어 소스로서의 직접 병합을 통해 LiDAR 기준 프레임에 정렬된다. 대응하는 라인들을 따라 존재하는 사진측량학적인 측정값들과 LiDAR 측정값들은 하기의 식 2의 공면 조건식을 통해 서로 연관된다. 이 공면 조건식은, 이미지 라인을 따라 존재하는 임의의 중간 이미지 점 (xk”, yk”, 0)에 대한 투영 중심 (XO", YO", ZO")로부터의 벡터가, LiDAR 라인을 규정하는 2개의 점들 (X1, Y1, Z1) 및 (X2, Y2, Z2)와 이미지의 투영 중심에 의해 규정되는 평면 내에 포함된다는 것을 나타낸다. 다시 말하면, 주어진 중간 점 k"에 대해, 점들 {(X1, Y1, Z1), (X2, Y2, Z2), (XO", YO", ZO"), 및 (xk”, yk”, 0)}이 공통의 면에 존재한다(도 7).
(식 2)
Figure 112007090385916-PAT00002
단, V1은 투영 중심을 LiDAR 선의 제1 끝 점에 연결하는 벡터이고, V2는 투영 중심을 LiDAR 선의 제2 끝 점에 연결하는 벡터이며, V3는 투영 중심을 해당 이미지 선을 따라 존재하는 중간 점에 연결하는 벡터이다. 중간 이미지 점에 대해, 식 2의 공면 조건식은 식 1의 공선 조건식과 결합되어 번들 조정에 이용된다.
상기 제한 조건은 이미지 공간의 라인 피처를 따라 존재하는 모든 중간 점들에 대해 적용된다. 라인 카메라에 의해 획득된 장면들에 대해, 관련된 EOP들은 고려되고 있는 중간 점에 연관된 이미지에 대응해야 한다. 알려진 IOP들을 갖는 프레임 카메라에 대해서는, 주어진 이미지에 대해 최대 2개의 독립적인 제한 조건들이 정의될 수 있다. 그러나, 셀프-캘리브레이션(self-calibration) 절차에서, 왜곡 패 턴이 이미지 공간의 라인 피처를 따라 존재하는 어느 하나의 중간 점으로부터 다음의 중간 점까지 변할 것이기 때문에, 추가적인 제한 조건들은 IOP들을 복구하는 데 도움이 된다. 반면, 공면 조건식은 라인 카메라에 연관된 EOP들의 더 양호한 복구에 도움이 된다. 그러한 기여는, 시스템의 궤적이 이미지 공간에서의 라인 피처의 모양에 영향을 준다는 사실에 기인한다.
이미지 블록에 대해서는, 적어도 2개의 비공면(non-coplanar) 라인 세그먼트들이, 재구성되는 대상 공간의 데이터, 즉 스케일, 회전, 및 시프트 성분 등의 데이터 확립에 필요하다. 그러한 요건은, 이미지 블록으로부터 모델이 유도될 수 있다고 가정하며, 하나의 라인이 2개의 회전 각도 뿐만 아니라 라인을 가로지르는 2개의 시프트 성분을 규정한다는 사실에 의해 설명된다. 다른 비공면 라인은, 스케일 팩터 뿐만 아니라 나머지 시프트 성분 및 회전 성분의 확립에 도움이 된다.
4.2. 평면 패치의 활용
대상 공간에서 일군의 점들로 표현되는 LiDAR 패치와, 이미지 공간에서 3개의 점으로 표현되는 사진측량 패치를 관련시키는 수학적 제한 조건을 설명한다. 예를 들어, 2개의 점 세트, 즉 사진측량 세트 SPH={A, B, C} 및 LiDAR 세트 SL={(XP, YP, ZP), P=1 내지 n}(도 8)로 표현되는 면 패치(surface patch)를 고려한다.
LiDAR 점들은 랜덤하게 분포되어 있기 때문에, 데이터 세트들 사이에서 점-대-점 대응을 보장할 수 없다. 사진측량 점들의 경우, 이미지 공간과 대상 공간의 좌표들이 공선 조건식을 통해 서로 연관되어 있다. 한편, 특정 평면(planar-surface)에 속하는 LiDAR 점들은, 동일한 대상 공간 면을 나타내는 사진측량 패치와 일치해야 한다(도 8). LiDAR 점들과 사진측량 점들의 공면성(coplanarity)은 수학적으로 다음의 (식 3)으로 표현될 수 있다.
(식 3)
Figure 112007090385916-PAT00003
상기 제한 조건은 LiDAR 점들을 사진측량학적인 삼각측량에 병합하기 위한 제한 조건식로 이용된다. 물리적인 관점에서 보면, 이 제한 조건은, 임의의 LiDAR 점과 그것에 대응하는 사진측량 면 사이의 법선 거리(normal distance)는 0이어야 한다는 것, 즉 4개의 점으로 이루어진 4면체의 체적이 0이어야 한다는 것을 의미한다. 이 제한 조건은 면 패치를 구성하는 모든 LiDAR 점들에 적용된다. 또한, 상기 제한 조건은 프레임 카메라와 라인 카메라 모두에 유효하다. 사진측량 점에 대해, 식 3의 제한 조건식은 식 1의 공선 조건식과 결합되어 번들 조정에 이용된다.
유일한 제어 소스로 충분하기 위해, LiDAR 패치들은 모든 데이터 파라미터들, 3개의 평행이동요소(translations) (XT, YT, ZT), 3개의 회전요소 (ω, φ, κ), 및 하나의 스케일 팩터 S를 제공할 수 있어야 한다. 도 9는 어느 하나의 축에 직각인 패치가 그 축의 방향으로 시프트를 제공함과 동시에 다른 축들을 가로지르는 회전 각도를 제공하는 것을 보여준다. 따라서, 3개의 비-평행 패치들은 1개의 데이터의 자세와 표정 요소들을 결정하는 데 충분하다. 스케일의 결정을 위해서는, 3개의 평면 패치들이 하나의 점에서 교차(예를 들어, 피라미드)하지 않아야 한다. 또는, 스케일은, 도 9에 도시된 바와 같이, 제4의 평면을 병합함으로서 결정될 수도 있다. 그러나, 공중 LiDAR 데이터에서 수직 패치들을 가질 가능성은 높지 않다. 따라서, 수직 패치 대신에, 다양한(varying) 기울기와 외관을 갖는 경사진 패치들을 사용할 수 있다.
5. 실험 결과
본 실험에는, GPS 수신기가 장착된 디지털 프레임 카메라, 위성-기반 라인 카메라, 그리고 LiDAR 시스템이 이용되었다. 본 실험은 다음의 사항을 연구하였다.
* 프레임 카메라와 라인 카메라에 의해 획득된 장면들에 대한 라인-기반 지오레퍼런싱(geo-referencing) 절차의 유용성
* 프레임 카메라와 라인 카메라에 의해 획득된 장면들에 대한 패치-기반 지오레퍼런싱(geo-referencing) 절차의 유용성
* 위성 장면들, 항공 장면들, LiDAR 데이터, 및 GPS 위치를, 통일된 번들 조정 절차에 통합하는 것의 영향
첫 번째 데이터 세트는, 2005년 4월에, Applanix Digital Sensor System (DSS)에 의해 1500m의 고도에서 대한민국의 대전시를 촬영한 6장의 프레임 디지털 이미지로 각각 구성된 3개의 블록을 포함한다. DSS 카메라는 16 메가픽셀(9㎛ 픽셀 사이즈)과 55mm의 초점 거리를 갖는다. DSS 카메라의 위치는 탑재된 GPS 수신기를 이용하여 추적하였다. 두 번째 데이터 세트는, 2001년 11월에 동일한 지역에 대해 촬영된 IKONOS 스테레오-쌍으로 구성되었다. 이 장면들은 어떠한 기하학적 보정도 거치지 않은 로 이미지(raw imagery)이며 연구 목적으로 제공되었다. 마지막으로, DSS 커버리지에 대응하는 멀티-스트립 LiDAR 커버리지가, 평균 점 밀도가 2.67 point/m2인 OPTECH ALTM 3070을 이용하여 975m의 고도에서 수집되었다. DSS 이미지 블록들 중 하나의 블록 및 대응하는 LiDAR 커버리지의 입체적인 모습이 도 10에 도시되어 있다. 도 11은 IKONOS 커버리지와 DSS 이미지 블록들(네모로 표시된 부분)의 위치를 도시하고 있다.
LiDAR 기준 피처(control feature)를 추출하기 위해, 서로 다른 기울기와 외관(aspects)을 가진 총 139개의 평면 패치와 138개의 라인 피처들이 평면 패치 분할 및 교차법을 통해 식별(특정)되었다. 도 10은, IKONOS 장면들 내의 중간 LiDAR 점 구름(도 10의 (b))으로부터 추출된 피처들의 위치들(도 10의 (a), 작은 원으로 표시된 부분)을 도시하고 있다. 대응하는 라인 및 공간 피처들은 DSS 및 IKONOS 장면들에서 디지털 처리되었다. 서로 다른 지오레퍼런싱 기법의 성능을 평가하기 위해, 70개의 지상 기준점 세트가 또한 획득되었다. 이 점들의 분포는 도 11에 도시 되어 있다(삼각형 모양의 작은 점들). 점-기반, 라인-기반, 패치-기반, 및 GPS-보조 지오레퍼런싱 기법들의 성능은, 제곱 평균 오차(Root Mean Square Error, RMSE) 분석에 의해 평가되었다. 서로 다른 실험에서, 일부 지상 기준점은 번들 조정에서 기준 피처로 이용되었고, 나머지 지상 기준점은 확인점(check points)으로 이용되었다.
다양한 지오레퍼런싱 방법의 성능을 연구하기 위해, 본 발명의 발명자들은 다음의 실험을 수행하였다. 실험의 결과는 하기의 표 1에 정리하였다.
* 이용되는 지상 기준점의 개수를 변화시켜 가면서 수행한 IKONOS 장면들의 사진측량학적 삼각측량(표 1의 두 번째 칼럼)
* 이용되는 지상 기준점의 개수를 변화시켜 가면서 수행한 IKONOS 및 DSS 장면들의 사진측량학적 삼각측량(표 1의 세 번째 칼럼)
* 이용되는 지상 기준점의 개수를 변화시켜 가면서, 그리고 DSS 노출들과 연관된 GPS 관측값들을 고려해 가면서 수행한 IKONOS 및 DSS 장면들의 사진측량학적 삼각측량(표 1의 네 번째 칼럼)
* 지상 기준점의 개수를 변경해 가면서, 그리고 LiDAR 라인들의 개수(45개 및 138개)를 변화시켜 가면서 수행한 IKONOS 및 DSS 장면들의 사진측량학적 삼각측량(표 1의 다섯 번째와 여섯 번째 칼럼)
* 지상 기준점의 개수를 변경해 가면서, 그리고 LiDAR 패치들의 개수(45개 및 139개)를 변화시켜 가면서 수행한 IKONOS 및 DSS 장면들의 사진측량학적 삼각측 량(표 1의 일곱 번째와 여덟 번째의 칼럼)
[표 1]
Figure 112007090385916-PAT00004
표 1에서, "N/A"는 해를 얻을 수 없었다는, 즉 제공되는 기준 피처가 삼각측량 절차에 필요한 데이터를 확립하는 데 충분하지 않았다는 것을 뜻한다. 표 1은 다음의 결과를 보여준다.
* 삼각측량을 위한 유일한 기준 피처로서 지상 기준점만을 이용한 경우, 스테레오 IKONOS 장면들은 최소 6개의 지상 기준점을 필요로 하였다(표 1의 두 번째 칼럼).
* 삼각측량에서 IKONOS 장면들과 함께 DSS 이미지를 포함시키면 수렴에 필요한(즉 3차원 위치 측정이 가능한) 기준 피처의 요건을 3개의 지상 기준점으로 감소시켰다(표 1의 세 번째 칼럼). 더욱이, DSS 노출 스테이션에서의 GPS 관측값의 병합은 지상 기준점 없이도 수렴을 가능하게 하였다(표 1의 네 번째 칼럼). 따라서, 위성 장면들에 몇 장의 프레임 이미지들을 병합하는 것은, 지상 기준점의 개수를 감소시키면서도 사진측량학적인 재구성을 가능하게 한다는 것이 분명하다.
* LiDAR 라인 피처들은, 추가의 기준 피처 없이도 IKONOS 및 DSS 장면들을 지오레퍼런싱하는 데 충분하다. 표 1의 다섯 번째와 여섯 번째 칼럼은, 삼각측량 절차에 추가의 기준점들을 병합하는 것은 재구성 결과를 크게 향상시키지는 않는다는 것을 보여준다. 더욱이, 선 특징들의 개수를 45개에서 138개로 증가시키는 것도 삼각측량의 결과를 크게 향상시키지는 않는다는 것을 알 수 있다.
한편, LiDAR 패치들은, 추가의 기준 피처들 없이도 IKONOS 및 DSS 장면들을 지오레퍼린싱하는 데 충분하다(표 1의 일곱 번째와 여덟 번째 칼럼). 그러나 몇 개의 기준점들을 병합하면 결과가 상당히 향상되었다. 예를 들어 3개의 지상 기준점과 139개의 기준 패치를 이용한 경우의 RMSE는 5.4m에서 2.9m로 감소되었다. 추가의 기준점들(4개 이상의 지상 기준점들)을 병합하는 것은, 결과에 큰 영향이 없었 다. 몇 개의 지상 기준점들을 사용하여 얻어진 재구성 결과는, 대다수의 이용된 패치들이 건물의 지붕들과 같이 완만한 기울기를 가졌다는 사실에 기인한다. 따라서 X와 Y 방향으로의 모델 시프트의 평가는 비교적 정확하지 못했다. 수직이거나 급격한 경사의 패치들이 이 문제를 해결할 수 있을 것이다. 그러나, 그러한 패치들은 제공된 데이터 세트에는 없었다. 더욱이, 표 1의 일곱 번째와 여덟 번째 칼럼은, 기준 패치들을 45개에서 139개로 늘리더라도 삼각측량의 결과를 크게 향상시키지는 않는다는 것을 보여준다.
상기와 같은 서로 다른 지오레퍼런싱 기법들의 비교는, 패치-기반, 라인-기반, 및 GPS-보조 지오레퍼런싱 기법들이, 점-기반 지오레퍼런싱보다 더 좋은 결과를 나타낸다는 것을 보여준다. 그러한 개선은 멀티-센서 및 멀티-프리미티브 삼각측량 절차를 채택하는 이점을 보여준다.
추가의 실험에서, 본 발명의 발명자들은, LiDAR 면과 함께 프레임 카메라 장면들과 라인 카메라 장면들의 멀티-센서 삼각측량으로부터 유도된 EOP를 활용하여 정사 영상을 생성하였다. 도 12는, IKONOS 정사 영상과 DSS 정사 영상이 나란히 놓여 있는 샘플 패치들을 도시하고 있다. 도 12의 (a)에 보이는 바와 같이, 생성된 정사 영상들은, DSS 정사 영상과 IKONOS 정사 영상 사이의 관측된 피처들의 부드러운 연속성에서 보는 바와 같이, 상당한 호환성이 있다. 도 12의 (b)는 IKONOS 이미지와 DSS 이미지의 촬영 순간들 사이의 대상 공간의 변화를 보여준다. 따라서, 프레임 카메라와 라인 카메라로부터의 이미지에 대한 멀티-센서 삼각측량이, 시간적인(temporal) 이미지의 정교한 지오레퍼런싱을 위한 환경을 제공하면서, 유도된 대 상 공간의 객체들에 대한 위치 결정의 정확도를 향상시킨다는 것은 명백하다.
도 1은 본 발명의 실시예에 따른 수치 사진 측량 장치의 구성도.
도 2는 도 1의 장치의 기능적 블록도.
도 3은 프레임 카메라(a) 및 라인 카메라(b)의 센서 구조 설명도.
도 4는 라인 카메라의 장면 좌표계(a)와 이미지 좌표계(b)의 설명도.
도 5는 이미지 공간(a)과 LidAR(b)에서의 라인의 정의에 관한 설명도.
도 6은 이미지 공간(a)과 LiDAR(b)에서의 면(패치)의 정의에 관한 설명도.
도 7은 공면 조건식을 설명하는 개념도.
도 8은 이미지 패치와 LiDAR 패치의 공면성을 설명하는 개념도.
도 9는 제어 소스로서 평면 패치를 이용한 데이터 최적 확립 구조의 설명도.
도 10은 DSS 중간 이미지 블록(a)과 대응 LiDAR 구름(b)의 묘사도.
도 11은 LiDAR 데이터와 DSS 이미지에 의해 커버되는 3개의 패치를 가진 IKONOS 장면 커버리지의 묘사도.
도 12는 본 발명의 실시예에 따른 IKONOS 이미지와 DSS 이미지의 정사 영상(a)과 촬영 당시의 영상(b).

Claims (15)

  1. (a) 지상 객체들에 대한 공간 위치 정보를 포함하는 지형 정보 데이터로부터, 상기 지상 객체들의 공간 위치를 결정하는 데 이용될 지상 객체를 나타내는 지상 기준 피처를 추출하는 단계와,
    (b) 카메라 파라미터들의 일부 또는 전부가 서로 다른 카메라들에 의해 획득한 공간 영상들에서, 상기 추출된 지상 기준 피처에 대응하는 영상 기준 피처를 특정하는 단계와,
    (c) 상기 공간 영상들의 중첩된 영역에 대하여, 상기 지상 기준 피처 및 상기 영상 기준 피처 사이의 기하학적 관계로부터 제한 조건식을 확립하는 단계와,
    (d) 상기 제한 조건식으로부터 상기 공간 영상들 각각에 대한 외부 표정 파라미터들을 계산하고, 상기 외부 표정 파라미터들을 상기 공간 영상들에 적용하여 상기 지상 객체들에 대한 공간 위치를 결정하는 단계를 포함하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  2. 청구항 1에 있어서, 상기 지상 기준 피처는 라인 형상의 지상 객체를 나타내는 지상 기준 라인 또는 면 형상의 지상 객체를 나타내는 지상 기준 면이고, 상기 영상 기준 피처는 상기 지상 기준 라인 또는 지상 기준 면에 각각 대응하는 영상 기준 라인 또는 영상 기준 면인, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  3. 청구항 2에 있어서, 상기 지상 기준 피처가 상기 지상 기준 라인인 경우에 상기 단계 (c)는, 상기 지상 기준 라인의 양 끝 점, 상기 공간 영상의 투영 중심, 및 상기 영상 기준 라인을 따라서 존재하는 중간 점이 공통의 면에 존재한다는 기하학적 관계로부터 상기 제한 조건식을 확립하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  4. 청구항 2에 있어서, 상기 지상 기준 피처가 상기 지상 기준 면인 경우에 상기 단계 (c)는, 상기 지상 기준 면에 포함되어 있는 점과 상기 영상 기준 면 사이의 법선 거리가 0이라는 기하학적 관계로부터 상기 제한 조건식을 확립하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  5. 청구항 2에 있어서, 상기 지상 기준 피처 및 상기 영상 기준 피처는 점 형상의 지상 객체를 나타내는 지상 기준 점 및 이 지상 기준 점에 대응하는 영상 기준 점을 각각 더 포함하며, 상기 단계 (c)는, 상기 공간 영상의 투영 중심, 상기 영상 기준 점, 및 상기 지상 기준 점이 동일한 라인상에 존재한다는 기하학적 관계로부터 유도된 공선 조건식을 상기 제한 조건식으로서 더 확립하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  6. 청구항 2에 있어서, 상기 지형 정보 데이터는 LiDAR 데이터를 포함하며, 상 기 단계 (a)는 상기 LiDAR 데이터로부터 상기 지상 기준 피처를 추출하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  7. 청구항 1에 있어서, 상기 단계 (d)는, 상기 공간 영상들을 블록으로 구성하는 단계와, 상기 블록 내의 공간 영상들에 대한 번들 조정에 의해 상기 외부 표정 파라미터들과 상기 지상 객체들의 공간 위치를 동시에 결정하는 단계를 포함하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  8. 청구항 1에 있어서, (e) 복수의 지형 표고 모델 중 하나 이상의 지형 표고 모델에 의한 정사 보정을 통해 상기 공간 영상에 대한 정사 영상을 생성하는 단계를 더 포함하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  9. 청구항 8에 있어서, 상기 지형 표고 모델은 LiDAR 시스템에 의해 작성된 DEM, DSM, 및 DBM을 포함하며, 상기 DEM은 지표면의 고도를 표현하는 지형 표고 모델이고, 상기 DSM은 건물을 제외하고 지표면 위에 존재하는 구조물들의 높이를 표현하는 지형 표고 모델이며, 상기 DBM은 지표면 위에 존재하는 건물들의 높이를 표현하는 지형 지형 표고 모델인, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  10. 청구항 1에 있어서, 상기 공간 영상들은 항공기에 탑재된 프레임 카메라에 의해 획득된 항공 영상들 및 위성에 탑재된 라인 카메라에 의해 획득된 위성 영상들로 이루어진, 이종 센서 통합 모델링에 의한 수치 사진 측량 방법.
  11. 지상 객체들에 대한 공간 위치 정보를 포함하는 지형 정보 데이터로부터, 상기 지상 객체들의 공간 위치를 결정하는 데 이용될 라인 형상의 지상 객체 또는 면 형상의 지상 객체를 각각 나타내는 지상 기준 라인 또는 지상 기준 면을 추출하고, 프레임 카메라에 의해 획득한 항공 영상들과 라인 카메라에 의해 획득한 위성 영상들을 포함하는 공간 영상들에서, 상기 추출된 지상 기준 라인 또는 지상 기준 면에 각각 대응하는 영상 기준 라인 또는 영상 기준 면을 특정하는 기준 피처 설정부와,
    상기 공간 영상들을 블록으로 구성하고 상기 공간 영상들에 대하여, 상기 지상 기준 라인 및 상기 영상 기준 라인 사이의 기하학적 관계 또는 상기 지상 기준 면 및 상기 영상 기준 면 사이의 기하학적 관계로부터 제한 조건식을 확립하고, 상기 제한 조건식에 대한 번들 조정을 통해 상기 공간 영상들 각각에 대한 외부 표정 파라미터들 및 상기 지상 객체들의 공간 위치를 결정하는 공간 위치 측량부를 포함하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 장치.
  12. 청구항 11에 있어서,
    상기 기준 피처 설정부는, 상기 지상 기준 면을 추출하고 상기 영상 기준면을 특정하며, 점 형상의 지상 객체를 나타내는 지상 기준 점을 더 추출하고 상기 지상 기준 점에 대응하는 영상 기준 점을 더 특정하며,
    상기 공간 위치 측량부는, 상기 지상 기준 면에 포함되어 있는 점과 상기 영상 기준 면 사이의 법선 거리가 0이라는 기하학적 관계로부터 상기 지상 기준 면에 대한 상기 제한 조건식을 확립하고, 상기 공간 영상의 투영 중심, 상기 영상 기준 점, 및 상기 지상 기준 점이 동일한 라인상에 존재한다는 기하학적 관계로부터 유도된 공선 공선 조건식을 상기 제한 조건식으로서 더 확립하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 장치.
  13. 청구항 11에 있어서, 상기 지형 정보 데이터는 LiDAR 데이터를 포함하며, 상기 기준 피처 설정부는 상기 LiDAR 데이터로부터 상기 지상 기준 라인 또는 상기 지상 기준 면을 추출하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 장치.
  14. 청구항 11에 있어서, 서로 다른 지상 객체에 대한 복수의 지형 표고 모델 중 하나 이상의 지형 표고 모델에 의한 정사 보정을 통해 상기 공간 영상에 대한 정사 영상을 생성하는 정사 영상 생성부를 더 포함하는, 이종 센서 통합 모델링에 의한 수치 사진 측량 장치.
  15. 청구항 11에 있어서, LiDAR 시스템에 의해 작성된 지형 표고 모델인 DEM, DSM, 및 DBM 중 하나 이상의 지형 표고 모델에 의한 정사 보정을 통해 상기 공간 영상에 대한 정사 영상을 생성하는 정사 영상 생성부를 더 포함하며, 상기 DEM은 지표면의 고도를 표현하는 지형 표고 모델이고, 상기 DSM은 건물을 제외하고 지표 면 위에 존재하는 구조물들의 높이를 표현하는 지형 표고 모델이며, 상기 DBM은 지표면 위에 존재하는 건물들의 높이를 표현하는 지형 지형 표고 모델인, 이종 센서 통합 모델링에 의한 수치 사진 측량 장치.
KR1020070131963A 2007-12-17 2007-12-17 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 KR100912715B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020070131963A KR100912715B1 (ko) 2007-12-17 2007-12-17 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
JP2008023237A JP4719753B2 (ja) 2007-12-17 2008-02-01 異種センサ統合モデリングによるデジタル写真測量方法及びその装置
US12/115,252 US20090154793A1 (en) 2007-12-17 2008-05-05 Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070131963A KR100912715B1 (ko) 2007-12-17 2007-12-17 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치

Publications (2)

Publication Number Publication Date
KR20090064679A true KR20090064679A (ko) 2009-06-22
KR100912715B1 KR100912715B1 (ko) 2009-08-19

Family

ID=40753354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070131963A KR100912715B1 (ko) 2007-12-17 2007-12-17 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치

Country Status (3)

Country Link
US (1) US20090154793A1 (ko)
JP (1) JP4719753B2 (ko)
KR (1) KR100912715B1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101258560B1 (ko) * 2010-11-19 2013-04-26 새한항업(주) 항공삼각측량을 위한 지상기준점 설정방법
KR101387589B1 (ko) * 2013-02-04 2014-04-23 (주)다인조형공사 레이저 스캐닝 기술을 활용한 저장 설비의 변형 검사 시스템
KR20140055898A (ko) * 2012-12-22 2014-05-09 (주)지오투정보기술 영상의 왜곡보정을 통해 공간모델링을 수행하는 수치지도제작 시스템
KR101863188B1 (ko) * 2017-10-26 2018-06-01 (주)아세아항측 3차원 문화재 모델 구축 방법
KR20190086951A (ko) 2018-01-15 2019-07-24 주식회사 스트리스 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법
KR20190086960A (ko) 2018-01-15 2019-07-24 주식회사 스트리스 특징 기하 기반의 멀티센서 캘리브레이션 및 융합을 위한 장치 및 방법
KR20190090567A (ko) 2018-01-25 2019-08-02 주식회사 스트리스 특징 기하 기반의 멀티센서 데이터 처리 장치 및 방법
CN111754458A (zh) * 2020-05-18 2020-10-09 北京吉威空间信息股份有限公司 面向几何精处理的卫星影像立体空间基准框架构建方法
KR20220150170A (ko) * 2021-05-03 2022-11-10 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220158570A (ko) * 2021-05-24 2022-12-01 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220166689A (ko) * 2021-06-10 2022-12-19 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220169342A (ko) * 2021-06-18 2022-12-27 이재영 드론을 이용한 3차원 지도 제작 방법
KR20230026916A (ko) * 2021-08-18 2023-02-27 이재영 드론을 이용하여 시계열정보가 포함된 3차원 지도의 제작 방법
KR20230138105A (ko) 2022-03-23 2023-10-05 주식회사 코매퍼 LiDAR 데이터를 활용한 드론 사진 이미지 단위 변환 방법

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8270770B1 (en) * 2008-08-15 2012-09-18 Adobe Systems Incorporated Region-based dense feature correspondence
US8427505B2 (en) * 2008-11-11 2013-04-23 Harris Corporation Geospatial modeling system for images and related methods
CN102246159A (zh) * 2008-12-09 2011-11-16 通腾北美有限公司 产生测地参考数据库产品的方法
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
TWI389558B (zh) * 2009-05-14 2013-03-11 Univ Nat Central Method of determining the orientation and azimuth parameters of the remote control camera
US8442305B2 (en) * 2009-06-30 2013-05-14 Mitsubishi Electric Research Laboratories, Inc. Method for determining 3D poses using points and lines
US8508580B2 (en) * 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
US8436893B2 (en) 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8542286B2 (en) * 2009-11-24 2013-09-24 Microsoft Corporation Large format digital camera with multiple optical systems and detector arrays
US8665316B2 (en) 2009-11-24 2014-03-04 Microsoft Corporation Multi-resolution digital large format camera with multiple detector arrays
FR2953940B1 (fr) * 2009-12-16 2012-02-03 Thales Sa Procede de geo-referencement d'une zone imagee
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
KR101005829B1 (ko) 2010-09-07 2011-01-05 한진정보통신(주) 지상 기준점 선점을 위한 최적 지역 추출 시스템 및 방법
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US9182229B2 (en) 2010-12-23 2015-11-10 Trimble Navigation Limited Enhanced position measurement systems and methods
US10168153B2 (en) 2010-12-23 2019-01-01 Trimble Inc. Enhanced position measurement systems and methods
US9879993B2 (en) 2010-12-23 2018-01-30 Trimble Inc. Enhanced bundle adjustment techniques
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
CN102175227B (zh) * 2011-01-27 2013-05-01 中国科学院遥感应用研究所 一种探测车在卫星图像上的快速定位方法
US8994821B2 (en) * 2011-02-24 2015-03-31 Lockheed Martin Corporation Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
EP2527787B1 (en) * 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
CN102759358B (zh) * 2012-03-14 2015-01-14 南京航空航天大学 基于失效卫星表面参考点的相对位姿动力学建模方法
CN102721957B (zh) * 2012-06-21 2014-04-02 中国科学院对地观测与数字地球科学中心 一种水环境遥感监测校正检验方法及装置
JP6122591B2 (ja) 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
US9235763B2 (en) 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
CN103075971B (zh) * 2012-12-31 2015-07-22 华中科技大学 一种空间目标主体长度测量方法
US9251419B2 (en) * 2013-02-07 2016-02-02 Digitalglobe, Inc. Automated metric information network
IL226752A (en) * 2013-06-04 2017-02-28 Padowicz Ronen Independent navigation system and method
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9247239B2 (en) 2013-06-20 2016-01-26 Trimble Navigation Limited Use of overlap areas to optimize bundle adjustment
CN103363958A (zh) * 2013-07-05 2013-10-23 武汉华宇世纪科技发展有限公司 基于数字近景摄影测量的街道房屋立面图绘制方法
CN103679711B (zh) * 2013-11-29 2016-06-01 航天恒星科技有限公司 一种遥感卫星线阵推扫光学相机在轨外方位参数标定方法
US20150346915A1 (en) * 2014-05-30 2015-12-03 Rolta India Ltd Method and system for automating data processing in satellite photogrammetry systems
US10338228B2 (en) * 2014-12-18 2019-07-02 Javad Gnss, Inc. Portable GNSS survey system
CN104880178B (zh) * 2015-06-01 2017-04-26 中国科学院光电技术研究所 一种基于四面体边长和体积加权约束的单目视觉位姿测量方法
CN105808930B (zh) * 2016-03-02 2017-04-05 中国地质大学(武汉) 基于服务器集群网络的预条件共轭梯度区域网平差方法
CN105783881B (zh) * 2016-04-13 2019-06-18 西安航天天绘数据技术有限公司 空中三角测量的方法和装置
WO2017183001A1 (en) 2016-04-22 2017-10-26 Turflynx, Lda. Automated topographic mapping system"
CN109643125B (zh) * 2016-06-28 2022-11-15 柯尼亚塔有限公司 用于训练自动驾驶***的逼真的3d虚拟世界创造与模拟
US10521694B2 (en) * 2016-09-09 2019-12-31 The Chinese University Of Hong Kong 3D building extraction apparatus, method and system
KR101750390B1 (ko) * 2016-10-05 2017-06-23 주식회사 알에프코리아 탐지대상물 실시간 추적감시장치 및 그 방법
CN107063193B (zh) * 2017-03-17 2019-03-29 东南大学 基于全球卫星导航***动态后处理技术航空摄影测量方法
CN107192375B (zh) * 2017-04-28 2019-05-24 北京航空航天大学 一种基于航拍姿态的无人机多帧图像自适应定位校正方法
CN107274481A (zh) * 2017-06-07 2017-10-20 苏州大学 一种基于多站站点点云拼接的三维模型重建方法
US10586349B2 (en) 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
EP3460518B1 (en) * 2017-09-22 2024-03-13 Leica Geosystems AG Hybrid lidar-imaging device for aerial surveying
WO2019097422A2 (en) * 2017-11-14 2019-05-23 Ception Technologies Ltd. Method and system for enhanced sensing capabilities for vehicles
CA3089200A1 (en) * 2018-01-25 2019-08-01 Geomni, Inc. Systems and methods for rapid alignment of digital imagery datasets to models of structures
CN109029379B (zh) * 2018-06-08 2020-10-20 北京空间机电研究所 一种高精度小基高比立体测绘方法
KR102275572B1 (ko) 2018-12-21 2021-07-09 한국전자통신연구원 이종 고도 항공영상을 이용한 3차원 지형정보 정합 방법 및 장치
US11610337B2 (en) * 2019-02-17 2023-03-21 Purdue Research Foundation Calibration of cameras and scanners on UAV and mobile platforms
CN109827548A (zh) * 2019-02-28 2019-05-31 华南机械制造有限公司 无人机航测数据的处理方法
CN110006405A (zh) * 2019-04-18 2019-07-12 成都纵横融合科技有限公司 航空摄影相片硬件免相控定向处理方法
KR20220024948A (ko) * 2019-06-26 2022-03-03 구글 엘엘씨 데이터세트 대응관계에 의해 정의된 전세계 좌표 프레임
US10984552B2 (en) * 2019-07-26 2021-04-20 Here Global B.V. Method, apparatus, and system for recommending ground control points for image correction
CN110440761B (zh) * 2019-09-18 2022-05-03 中国电建集团贵州电力设计研究院有限公司 一种无人机航空摄影测量数据的处理方法
CN110487251B (zh) * 2019-09-18 2022-05-03 中国电建集团贵州电力设计研究院有限公司 一种用非量测相机的无人机进行大比例尺测图的作业方法
US10943360B1 (en) 2019-10-24 2021-03-09 Trimble Inc. Photogrammetric machine measure up
CN111192366B (zh) * 2019-12-30 2023-04-07 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器
US11790555B2 (en) 2020-01-17 2023-10-17 Electronics And Telecommunications Research Institute System and method for fusion recognition using active stick filter
CN111458720B (zh) * 2020-03-10 2023-06-30 中铁第一勘察设计院集团有限公司 复杂山区基于机载激光雷达数据的倾斜摄影建模方法
CN111447426B (zh) * 2020-05-13 2021-12-31 中测新图(北京)遥感技术有限责任公司 一种影像色彩校正方法以及装置
KR102584070B1 (ko) 2020-11-23 2023-10-10 한국전자통신연구원 객체 분류 기반의 오류 제거를 이용한 자율 주행 시스템의 객체 인식 장치 및 이를 이용한 방법
US11636649B2 (en) 2021-01-06 2023-04-25 Eagle Technology, Llc Geospatial modeling system providing 3D geospatial model update based upon predictively registered image and related methods
US11816793B2 (en) 2021-01-06 2023-11-14 Eagle Technology, Llc Geospatial modeling system providing 3D geospatial model update based upon iterative predictive image registration and related methods
CN112595335B (zh) * 2021-01-15 2023-05-19 智道网联科技(北京)有限公司 一种智慧交通行车停止线的生成方法及相关装置
KR102520189B1 (ko) * 2021-03-02 2023-04-10 네이버랩스 주식회사 무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 hd 맵을 생성하는 방법 및 시스템
CN112857328B (zh) * 2021-03-30 2022-06-14 宁波市特种设备检验研究院 一种无标定摄影测量方法
CN113899387B (zh) * 2021-09-27 2023-09-22 武汉大学 一种基于验后补偿的光学卫星遥感影像区域网平差方法及***
CN114463494B (zh) * 2022-01-24 2024-04-26 湖南省第一测绘院 一种地形特征线自动提取方法
CN114543841B (zh) * 2022-02-25 2023-06-02 四川大学 环境因素对空三点云影响实验装置以及评估方法
CN116448080B (zh) * 2023-06-16 2023-09-05 西安玖安科技有限公司 一种基于无人机倾斜摄影辅助土方开挖施工的方法
CN116625354B (zh) * 2023-07-21 2023-09-29 山东省国土测绘院 一种基于多源测绘数据的高精度地形图生成方法及***

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2940871C2 (de) * 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
AU1763801A (en) * 1999-11-12 2001-06-06 Brian S. Armstrong Methods and appparatus for measuring orientation and distance
JP3618649B2 (ja) * 2000-08-22 2005-02-09 アジア航測株式会社 不定形窓を用いた画像間拡張イメージマッチング方法
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
KR100417638B1 (ko) * 2001-02-20 2004-02-05 공간정보기술 주식회사 개인용 컴퓨터를 이용한 수치사진 측량 시스템
US6735348B2 (en) * 2001-05-01 2004-05-11 Space Imaging, Llc Apparatuses and methods for mapping image coordinates to ground coordinates
JP3910844B2 (ja) * 2001-12-14 2007-04-25 アジア航測株式会社 新旧写真画像を用いた標定方法及び修正図化方法
JP2003219252A (ja) * 2002-01-17 2003-07-31 Starlabo Corp 移動体搭載用撮影装置を用いた撮影システム及び撮影方法
JP4058293B2 (ja) * 2002-04-26 2008-03-05 アジア航測株式会社 レーザスキャナデータと空中写真画像を用いた高精度都市モデルの生成方法及び高精度都市モデルの生成システム並びに高精度都市モデルの生成のプログラム
US7725258B2 (en) * 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
JP4191449B2 (ja) * 2002-09-19 2008-12-03 株式会社トプコン 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末
KR20040055510A (ko) * 2002-12-21 2004-06-26 한국전자통신연구원 소수의 지상 기준점을 이용한 이코노스 알피씨 데이터갱신방법
KR100571429B1 (ko) 2003-12-26 2006-04-17 한국전자통신연구원 지상기준점 영상 칩을 이용한 온라인 기하 보정 서비스제공 방법
JP4889351B2 (ja) * 2006-04-06 2012-03-07 株式会社トプコン 画像処理装置及びその処理方法
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
US7944547B2 (en) * 2006-05-20 2011-05-17 Zheng Wang Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101258560B1 (ko) * 2010-11-19 2013-04-26 새한항업(주) 항공삼각측량을 위한 지상기준점 설정방법
KR20140055898A (ko) * 2012-12-22 2014-05-09 (주)지오투정보기술 영상의 왜곡보정을 통해 공간모델링을 수행하는 수치지도제작 시스템
KR101879855B1 (ko) * 2012-12-22 2018-07-19 (주)지오투정보기술 영상의 왜곡보정을 통해 공간모델링을 수행하는 수치지도제작 시스템
KR101387589B1 (ko) * 2013-02-04 2014-04-23 (주)다인조형공사 레이저 스캐닝 기술을 활용한 저장 설비의 변형 검사 시스템
KR101863188B1 (ko) * 2017-10-26 2018-06-01 (주)아세아항측 3차원 문화재 모델 구축 방법
KR20190086951A (ko) 2018-01-15 2019-07-24 주식회사 스트리스 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법
KR20190086960A (ko) 2018-01-15 2019-07-24 주식회사 스트리스 특징 기하 기반의 멀티센서 캘리브레이션 및 융합을 위한 장치 및 방법
KR20190090567A (ko) 2018-01-25 2019-08-02 주식회사 스트리스 특징 기하 기반의 멀티센서 데이터 처리 장치 및 방법
CN111754458A (zh) * 2020-05-18 2020-10-09 北京吉威空间信息股份有限公司 面向几何精处理的卫星影像立体空间基准框架构建方法
CN111754458B (zh) * 2020-05-18 2023-09-15 北京吉威空间信息股份有限公司 面向几何精处理的卫星影像立体空间基准框架构建方法
KR20220150170A (ko) * 2021-05-03 2022-11-10 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220158570A (ko) * 2021-05-24 2022-12-01 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220166689A (ko) * 2021-06-10 2022-12-19 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220169342A (ko) * 2021-06-18 2022-12-27 이재영 드론을 이용한 3차원 지도 제작 방법
KR20230026916A (ko) * 2021-08-18 2023-02-27 이재영 드론을 이용하여 시계열정보가 포함된 3차원 지도의 제작 방법
KR20230138105A (ko) 2022-03-23 2023-10-05 주식회사 코매퍼 LiDAR 데이터를 활용한 드론 사진 이미지 단위 변환 방법

Also Published As

Publication number Publication date
JP2009145314A (ja) 2009-07-02
KR100912715B1 (ko) 2009-08-19
US20090154793A1 (en) 2009-06-18
JP4719753B2 (ja) 2011-07-06

Similar Documents

Publication Publication Date Title
KR100912715B1 (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
EP1242966B1 (en) Spherical rectification of image pairs
JP5389964B2 (ja) 地図情報生成装置
EP2111530B1 (en) Automatic stereo measurement of a point of interest in a scene
KR102007567B1 (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
US10970924B2 (en) Reconstruction of a scene from a moving camera
KR100800554B1 (ko) 이동형 사진측량 시스템에서의 레이저 스캐너와 카메라영상정보를 이용한 3차원 모델링 방법
KR100529401B1 (ko) 합성 개구 레이더 영상을 이용한 수치표고자료 제작 장치및 그 방법
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN107917699B (zh) 一种用于提高山区地貌倾斜摄影测量空三质量的方法
Maurer et al. Tapping into the Hexagon spy imagery database: A new automated pipeline for geomorphic change detection
KR20220064524A (ko) 이미지 기반 측위 방법 및 시스템
CN112862966B (zh) 地表三维模型构建方法、装置、设备及存储介质
CN110986888A (zh) 一种航空摄影一体化方法
Pepe et al. Two Approaches for Dense DSM Generation from Aerial Digital Oblique Camera System.
Gonçalves Automatic orientation and mosaicking of archived aerial photography using structure from motion
Altuntas et al. Image based methods for surveying heritage of masonry arch bridge with the example of Dokuzunhan in Konya, Turkey
Bybee et al. Method for 3-D scene reconstruction using fused LiDAR and imagery from a texel camera
CN108253942B (zh) 一种提高倾斜摄影测量空三质量的方法
Maurice et al. A photogrammetric approach for map updating using UAV in Rwanda
Wu Photogrammetry: 3-D from imagery
CN107784666A (zh) 基于立体影像的地形地物三维变化检测和更新方法
Oliveira et al. Height gradient approach for occlusion detection in UAV imagery
Altuntas Urban area change visualization and analysis using high density spatial data from time series aerial images
Smith Topographic mapping

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130729

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee