KR102669980B1 - 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램 - Google Patents

위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102669980B1
KR102669980B1 KR1020210166104A KR20210166104A KR102669980B1 KR 102669980 B1 KR102669980 B1 KR 102669980B1 KR 1020210166104 A KR1020210166104 A KR 1020210166104A KR 20210166104 A KR20210166104 A KR 20210166104A KR 102669980 B1 KR102669980 B1 KR 102669980B1
Authority
KR
South Korea
Prior art keywords
area
editing
edit
satellite image
surrounding area
Prior art date
Application number
KR1020210166104A
Other languages
English (en)
Other versions
KR20230078377A (ko
Inventor
임지현
이재열
김민아
이명신
정대원
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020210166104A priority Critical patent/KR102669980B1/ko
Publication of KR20230078377A publication Critical patent/KR20230078377A/ko
Application granted granted Critical
Publication of KR102669980B1 publication Critical patent/KR102669980B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 위성 영상 내 객체를 효과적으로 편집할 수 있는 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 위하여, 컴퓨팅 장치에 의해 수행되는 위성 영상 편집 방법에 있어서, 편집 대상이 되는 편집 영역과 상기 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득하는 단계, 상기 편집 영역 및 상기 주변 영역에 대한 메타 데이터와 상기 위성 영상을 매칭하는 단계, 및 상기 편집 영역의 메타 데이터 및 상기 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 상기 편집 영역을 편집하는 단계를 포함하는, 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공한다.

Description

위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램{Method of editing satellite images, apparatus for editing satellite images, and computer program for the method}
본 발명의 실시예들은 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램에 관한 것으로서, 더 상세하게는 위성 영상 내 객체를 효과적으로 편집할 수 있는 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램에 관한 것이다.
기존의 위성 영상 편집을 위해서는 영상처리 분야에서 많이 사용되고 있는 포토샵과 같은 영상처리 및 위성 영상 관련 소프트웨어가 활용되고 있다. 이러한 방법들은 객체 제거 등의 방법 이외에 다른 영상편집 기술들을 활용하고자 하는 것이 주목적으로 객체를 제거하기 위해서는 작업자의 반복적인 작업이 요구되고 있다. 이러한 이유로 인해 고해상 위성 영상의 편집을 진행할 경우 많은 시간이 소요되며 또한, 많은 양의 영상을 편집하거나 시간을 단축하기 위해서는 많은 인력이 필요하고, 작업자의 업무 숙련도가 요구된다.
최근 수요가 증가한 위성 영상은 변화탐지, 객체인식, 객체제거, 재난재해분석, 식생분석 등에서 활용되고 있다. 위성 영상의 활용도가 증가함에 대용량의 위성 영상 편집 빈도가 증가하고 있으며 종래 기술 수준으로는 많은 작업 인력과 시간이 소요되는 문제가 발생된다.
본 발명은 상기와 같은 문제점을 포함하여 여러 문제점들을 해결하기 위한 것으로서, 위성 영상 내 객체를 효과적으로 편집할 수 있는 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공하는 것을 목적으로 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.
본 발명의 일 관점에 따르면, 컴퓨팅 장치에 의해 수행되는 위성 영상 편집 방법에 있어서, 편집 대상이 되는 편집 영역과 상기 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득하는 단계, 상기 편집 영역 및 상기 주변 영역에 대한 메타 데이터와 상기 위성 영상을 매칭하는 단계, 및 상기 편집 영역의 메타 데이터 및 상기 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 상기 편집 영역을 편집하는 단계를 포함하는, 위성 영상 편집 방법이 제공된다.
상기 편집 영역을 편집하는 단계는, 상기 편집 영역 내의 편집 대상이 되는 객체에 대하여 폴리곤을 생성하는 단계, 상기 폴리곤의 좌표값 및 상기 객체에 대응되는 상기 주변 영역의 타입 정보를 매칭하는 단계, 및 상기 폴리곤의 좌표값 및 상기 주변 영역의 타입 정보를 기초로 상기 객체를 편집하는 단계를 포함할 수 있다.
상기 객체를 편집하는 단계는, 상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하는 단계, 및 상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보를 기초로 상기 객체를 제거하는 단계를 포함할 수 있다.
상기 객체를 제거하는 단계는, 상기 주변 영역의 상기 타입 정보를 기초로 상기 주변 영역의 텍스처로 상기 편집 영역을 재생성하는 단계일 수 있다.
상기 객체를 편집하는 단계는, 상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하는 단계, 상기 편집 영역에 대하여 미리 결정된 편집 조건을 획득하는 단계, 및 상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보 및 상기 편집 조건을 기초로 상기 편집 영역을 재생성하는 단계를 포함할 수 있다.
본 발명의 일 관점에 따르면, 컴퓨터를 이용하여 상술한 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램이 제공된다.
본 발명의 일 관점에 따르면, 프로세서를 포함하고, 상기 프로세서는, 편집 대상이 되는 편집 영역과 상기 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득하고, 상기 편집 영역 및 상기 주변 영역에 대한 메타 데이터와 상기 위성 영상을 매칭하고, 상기 편집 영역의 메타 데이터 및 상기 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 상기 편집 영역을 편집하는, 위성 영상 편집 장치가 제공된다.
상기 프로세서는, 상기 편집 영역 내의 편집 대상이 되는 객체에 대하여 폴리곤을 생성하고, 상기 폴리곤의 좌표값 및 상기 객체에 대응되는 상기 주변 영역의 타입 정보를 매칭하고, 상기 폴리곤의 좌표값 및 상기 주변 영역의 타입 정보를 기초로 상기 객체를 편집할 수 있다.
상기 프로세서는, 상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하고, 상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보를 기초로 상기 객체를 제거할 수 있다.
상기 프로세서는, 상기 주변 영역의 상기 타입 정보를 기초로 상기 주변 영역의 텍스처로 상기 편집 영역을 재생성할 수 있다.
상기 프로세서는, 상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하고, 상기 편집 영역에 대하여 미리 결정된 편집 조건을 획득하고, 상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보 및 상기 편집 조건을 기초로 상기 편집 영역을 재생성할 수 있다.
전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.
상기한 바와 같이 이루어진 본 발명의 일 실시예에 따르면, 위성 영상 내 객체를 효과적으로 편집할 수 있는 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 구현할 수 있다. 물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.
도 1은 본 발명의 일 실시예에 따른 위성 영상 편집 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 위성 영상 편집 장치의 프로세서 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 위성 영상 편집 방법을 보여주는 순서도이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 위성 영상 편집 방법을 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명의 다른 실시예에 따른 위성 영상 편집 방법을 설명하기 위한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 제1 이나 제2 등의 용어는 한정적인 의미가 아니라, 일 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 그리고 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 배제하는 것은 아니다.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하의 실시예에서, 영역, 구성 요소, 부, 블록 또는 모듈 등의 부분이 다른 부분 위에 또는 상에 있다고 할 때, 다른 부분의 바로 위에 있는 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록 또는 모듈 등이 개재되어 있는 경우도 포함한다. 그리고 영역, 구성 요소, 부, 블록 또는 모듈 등이 연결되었다고 할 때, 영역, 구성 요소, 부, 블록 또는 모듈들이 직접적으로 연결된 경우뿐만 아니라 영역, 구성요소, 부, 블록 또는 모듈들 중간에 다른 영역, 구성 요소, 부, 블록 또는 모듈들이 개재되어 간접적으로 연결된 경우도 포함한다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 위성 영상 편집 장치의 구성 및 동작을 설명하기 위한 도면이고, 도 2는 본 발명의 일 실시예에 따른 위성 영상 편집 장치의 프로세서 구성을 설명하기 위한 도면이다.
먼저, 도 1을 참조하면, 본 발명의 일 실시예에 따른 위성 영상 편집 장치(100)는 메모리(110), 프로세서(120), 통신 모듈(130) 및 입출력 인터페이스(140)를 포함할 수 있다. 하지만 본 발명은 이에 한정되지 않으며, 위성 영상 편집 장치(100)는 다른 구성요소를 더 포함할 수도 있고 일부 구성요소가 생략될 수도 있다. 위성 영상 편집 장치(100)의 일부 구성요소는 복수의 장치로 분리될 수도 있고, 복수개의 구성요소들이 하나의 장치로 병합될 수도 있다.
메모리(110)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(110)에는 위성 영상 편집 장치(100)를 제어하기 위한 프로그램 코드 및 미리 학습된 인공 신경망이 일시적 또는 영구적으로 저장될 수 있다. 예컨대, 메모리(110)는 위성 영상과 영상 편집 정보를 저장할 수 있다.
프로세서(120)는 편집 대상이 되는 편집 영역과 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득할 수 있다. 또한, 프로세서(120)는 편집 영역 및 주변 영역에 대한 메타 데이터와 위성 영상을 매칭할 수 있다. 또한, 프로세서(120)는 편집 영역의 메타 데이터 및 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 편집 영역을 편집할 수 있다.
통신 모듈(130)은 네트워크를 통해 외부 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 위성 영상 편집 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(130)의 제어에 따라 네트워크를 통해 외부 서버로 전달될 수 있다. 역으로, 외부 서버의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신 모듈(130)을 통해 위성 영상 편집 장치(100)로 수신될 수 있다. 예를 들어 통신 모듈(130)을 통해 수신된 외부 서버의 제어 신호나 명령 등은 프로세서(120)나 메모리(110)로 전달될 수 있다.
통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
또한, 통신 모듈(130)은 외부 서버와 네트워크를 통해 통신할 수 있다. 통신 방식은 제한되지 않지만, 네트워크는 근거리 무선통신망일 수 있다. 예를 들어, 네트워크는 블루투스(Bluetooth), BLE(Bluetooth Low Energy), Wifi 통신망일 수 있다.
또한, 본 발명에 따른 위성 영상 편집 장치(100)는 입출력 인터페이스(140)를 포함할 수 있다. 입출력 인터페이스(140)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 위성 영상 편집 장치(100)의 프로세서(120)는 메모리(110)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서비스 화면이나 컨텐츠가 입출력 인터페이스(140)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 위성 영상 편집 장치(100)는 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 예를 들어, 상술한 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 내부 구성요소들에 전력을 공급하는 배터리 및 충전 장치, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
이하 도 2를 참조하여 본 발명의 일 실시예에 따른 위성 영상 편집 장치(100)의 프로세서(120)의 내부 구성에 대하여 상세히 검토한다. 후술되는 프로세서(120)는 이해의 용이를 위하여 도 1에 도시된 위성 영상 편집 장치(100)의 프로세서(120)임을 가정하고 설명한다.
본 발명의 일 실시예에 따른 위성 영상 편집 장치(100)의 프로세서(120)는 위성 영상 획득부(121), 메타 데이터 매칭부(122), 및 편집 영역 편집부(123)를 포함한다. 몇몇 실시예에 따라 프로세서(120)의 구성요소들은 선택적으로 프로세서(120)에 포함되거나 제외될 수도 있다. 또한, 몇몇 실시예에 따라 프로세서(120)의 구성요소들은 프로세서(120)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
이러한 프로세서(120) 및 프로세서(120)의 구성요소들은 도 3의 위성 영상 편집 방법이 포함하는 단계들(S110 내지 S130)을 수행하도록 위성 영상 편집 장치(100)를 제어할 수 있다. 예를 들어, 프로세서(120) 및 프로세서(120)의 구성요소들은 메모리(110)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)의 구성요소들은 위성 영상 편집 장치(100)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(120)에 의해 수행되는 프로세서(120)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(120)의 내부 구성 및 구체적인 동작에 대해서는 도 3의 위성 영상 편집 방법의 순서도를 참조하여 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 위성 영상 편집 방법을 보여주는 순서도이다.
도 3을 참조하면, 단계 S110에서, 프로세서(120)는 편집 대상이 되는 편집 영역과 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득할 수 있다. 예를 들어, 프로세서(120)는 위치정보(예컨대, 좌표 정보)를 포함하고 있는 위성 영상을 획득할 수 있다. 예컨대, 프로세서(120)는 위성 영상의 편집 영역 및 주변 영역의 좌표값을 획득할 수 있다.
단계 S120에서, 프로세서(120)는 편집 영역 및 주변 영역에 대한 메타 데이터와 위성 영상을 매칭할 수 있다. 예를 들어, 프로세서(120)는 위성 영상에 대한 편집 정보를 확인할 수 있다. 예컨대, 프로세서(120)는 편집 영역 및 주변 영역의 좌표 정보 및 타입 정보를 확인할 수 있다. 예컨대, 타입 정보는 산, 논, 바다, 건물 등의 미리 결정된 정보일 수 있다. 또한, 프로세서(120)는 위성 영상의 상대기하보정을 수행할 수 있다. 예를 들어, 프로세서(120)는 위성 영상의 편집 정보를 기초로 획득한 위성 영상의 기하 정확도를 개선할 수 있다. 예컨대, 프로세서(120)는 정확한 편집 영역 및 주변 영역을 확보하기 위해 좌표 정보를 포함하고 있는 위성 영상의 위치 정확도를 개선하는 작업을 수행할 수 있다.
단계 S130에서, 프로세서(120)는 편집 영역의 메타 데이터 및 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 편집 영역을 편집할 수 있다. 예를 들어, 프로세서(120)는 주변 영역의 타입 정보를 활용하여 편집 영역을 자동 재생성할 수 있다. 예컨대, 프로세서(120)는 자동으로 위성 영상 내의 특정 개체를 제거하거나 목적에 맞는 타입으로 변경할 수 있다. 예컨대, 타입은 산, 논, 바다, 건물 등의 미리 결정된 정보일 수 있다. 예를 들어, 본 발명에 따른 인공 신경망은 산, 논, 바다, 건물 등의 타입을 생성할 수 있도록 미리 학습될 수 있다. 또한, 본 발명에 따른 인공 신경망은 대량의 위성 영상으로 반복 학습될 수 있다.
본 발명에 따른 인공 신경망은 Generative Adversarial network 기반의 Inpainting 알고리즘일 수 있다. 또한, 본 발명에 따른 인공 신경망은 CNN(Convolution Neural Network), RNN(Recurrent Neural Network) 또는 ANN(Artificial Neural Network)일 수 있다. 다만, 본 발명의 인공 신경망은 상기 예시에 한정되는 것은 아니며, 다양한 형태의 인공 신경망으로 구현될 수 있다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 위성 영상 편집 방법을 설명하기 위한 도면이다.
도 4 및 도 5를 참조하면, 본 발명의 일 실시예에 따라 위성 영상 내의 특정 구름 영역을 편집하는 방법을 설명하기 위한 도면이 도시되어 있다.
본 발명의 일 실시예에 따른 프로세서(120)는 편집 영역 내의 편집 대상이 되는 객체에 대하여 폴리곤을 생성할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 프로세서(120)는 위성 영상 내의 구름에 대하여 폴리곤(200)을 생성할 수 있다. 예컨대, 본 발명에 따른 편집 영역은 편집 대상이 되는 객체의 영역과 동일할 수 있다. 또는, 본 발명에 따른 편집 영역은 편집 대상이 되는 적어도 하나의 객체의 영역을 포함할 수 있다.
또한, 프로세서(120)는 폴리곤의 좌표값 및 객체에 대응되는 주변 영역의 타입 정보를 매칭할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 프로세서(120)는 폴리곤(200)의 좌표값을 확인할 수 있다. 또한, 프로세서(120)는 폴리곤(200)의 주변 영역(230)의 타입 정보를 확인할 수 있다. 또한, 프로세서(120)는 폴리곤(200)의 좌표값 및 객체에 대응되는 주변 영역(230)의 타입 정보를 매칭할 수 있다.
또한, 프로세서(120)는 폴리곤의 좌표값 및 주변 영역의 타입 정보를 기초로 객체를 편집할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 프로세서(120)는 폴리곤(200)의 좌표값 및 주변 영역(230)의 타입 정보를 기초로 폴리곤(200)내의 객체를 편집할 수 있다. 예컨대, 프로세서(120)는 폴리곤의 좌표값 및 주변 영역의 타입 정보를 기초로 객체를 제거할 수 있다.
본 발명의 일 실시예에 따른 프로세서(120)는 폴리곤의 좌표값을 기초로 객체가 제거 대상에 해당하는지 여부를 판단할 수 있다. 또한, 프로세서(120)는 객체가 제거 대상에 해당하는 경우 주변 영역의 타입 정보를 기초로 객체를 제거할 수 있다. 예를 들어, 프로세서(120)는 미리 저장된 편집 정보 또는 획득한 편집 정보를 기초로 객체가 제거 대상에 해당하는 경우 주변 영역의 타입 정보를 기초로 객체를 제거할 수 있다.
본 발명의 일 실시예에 따른 프로세서(120)는 주변 영역의 타입 정보를 기초로 주변 영역의 텍스처로 편집 영역을 재생성할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 프로세서(120)는 주변 영역(230)의 타입 정보를 기초로 주변 영역(230)의 텍스처(예컨대, 이미지)로 폴리곤(200)내의 객체를 재생성할 수 있다.
도 6 및 도 7은 본 발명의 다른 실시예에 따른 위성 영상 편집 방법을 설명하기 위한 도면이다.
도 6 및 도 7을 참조하면, 본 발명의 일 실시예에 따라 위성 영상 내의 특정 구름 영역을 편집하는 방법을 설명하기 위한 도면이 도시되어 있다.
본 발명의 일 실시예에 따른 프로세서(120)는 폴리곤의 좌표값을 기초로 객체가 제거 대상에 해당하는지 여부를 판단할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 프로세서(120)는 제1 폴리곤(300) 및 제2 폴리곤(400)의 좌표값을 획득할 수 있다. 또한, 프로세서(120)는 제1 폴리곤(300) 및 제2 폴리곤(400)의 좌표값을 기초로 제1 폴리곤(300) 및 제2 폴리곤(400)에 포함된 객체가 제거 대상에 해당하는지 여부를 판단할 수 있다. 이 경우, 프로세서(120)는 미리 저장된 또는 획득한 편집 정보를 이용하여 폴리곤의 좌표값을 기초로 객체가 제거 대상에 해당하는지 여부를 판단할 수 있다.
또한, 프로세서(120)는 편집 영역에 대하여 미리 결정된 편집 조건을 획득할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 프로세서(120)는 제1 폴리곤(300) 및 제2 폴리곤(400)에 대하여 미리 결정된 편집 조건을 획득할 수 있다. 예컨대, 미리 결정된 편집 조건은 '논'일 수 있다. 예컨대, 프로세서는 편집 영역의 좌표값을 기초로 미리 결정된 편집 조건을 획득할 수 있다. 또한, 편집 조건(예컨대, A: 산, B: 논, C: 바다, D: 건물)은 미리 정의될 수 있다. 예컨대, 편집 조건의 항목은 위성 영상의 특징을 고려하여 산, 논, 바다, 건물 등으로 특정될 수 있으며 변경 및 추가될 수 있다.
또한, 프로세서(120)는 객체가 제거 대상에 해당하는 경우 주변 영역의 타입 정보 및 편집 조건을 기초로 편집 영역을 재생성할 수 있다. 예를 들어, 도 6 및 도 7에 도시된 바와 같이, 프로세서(120)는 제1 폴리곤(300)에 포함된 구름이 제거 대상에 해당하는 경우 제1 주변 영역(330)의 타입 정보 및 편집 조건(예컨대, B: 논)을 기초로 제1 폴리곤(300)의 구름을 제거하고 제1 폴리곤(300)을 '논'으로 재생성할 수 있다. 또한, 프로세서(120)는 제2 폴리곤(400)에 포함된 구름이 제거 대상에 해당하는 경우 제2 주변 영역(430)의 타입 정보 및 편집 조건(예컨대, B: 논)을 기초로 제2 폴리곤(400)의 구름을 제거하고 제2 폴리곤(400)을 '논'으로 재생성할 수 있다. 예컨대, 도 7의 실시예에서, 본 발명의 일 실시예에 따른 편집 영역은 제1 폴리곤(300) 및 제2 폴리곤(400)을 포함하는 영역일 수 있다. 또는, 본 발명의 일 실시예에 따른 편집 영역은 제1 폴리곤(300) 및 제2 폴리곤(400)에 각각 개별적으로 설정될 수도 있다. 또한, 본 발명의 일 실시예에서 편집 조건은 편집 영역에 따라서 개별적으로 서로 다르게 설정될 수도 있다.
본 발명에 따르면, 사용자의 목적에 따라 고해상도 위성 영상 내의 특정 개체를 제거하고 원하는 타입(예컨대, 텍스처)으로 변경이 가능하다. 구체적으로, 위성 영상 생성 전처리 과정에서 국소 지역에 오류가 발생할 경우 영상 품질의 문제로 영상을 사용할 수 없게 되는 경우가 있으며 이 경우에 해당 지역의 오류를 제거할 수 있다.
본 발명에 따르면, 위성 영상 편집 과정에서 편집 조건을 부여하여 자연스러운 영상을 생성할 수 있고, 영상의 품질을 개선할 수 있는 효과가 있다.
이상에서 설명된 장치 및/또는 시스템은, 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction) 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100: 위성 영상 편집 장치
110: 메모리
120: 프로세서
130: 통신 모듈
140: 입출력 인터페이스

Claims (11)

  1. 컴퓨팅 장치에 의해 수행되는 위성 영상 편집 방법에 있어서,
    편집 대상이 되는 편집 영역과 상기 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득하는 단계;
    상기 편집 영역 및 상기 주변 영역에 대한 메타 데이터와 상기 위성 영상을 매칭하는 단계; 및
    상기 편집 영역의 메타 데이터 및 상기 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 상기 편집 영역을 편집하는 단계;
    를 포함하고,
    상기 편집 영역을 편집하는 단계는,
    상기 편집 영역 내의 편집 대상이 되는 객체에 대하여 폴리곤을 생성하는 단계;
    상기 폴리곤의 좌표값 및 상기 객체에 대응되는 상기 주변 영역의 타입 정보를 매칭하는 단계; 및
    상기 폴리곤의 좌표값 및 상기 주변 영역의 타입 정보를 기초로 상기 객체를 편집하는 단계;
    를 포함하고,
    상기 객체를 편집하는 단계는,
    상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하는 단계;
    상기 편집 영역에 대하여 미리 결정된 편집 조건을 획득하는 단계; 및
    상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보 및 상기 편집 조건을 기초로 상기 편집 영역을 재생성하는 단계;
    를 포함하는, 위성 영상 편집 방법.
  2. 삭제
  3. 제1 항에 있어서,
    상기 객체를 편집하는 단계는,
    상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하는 단계; 및
    상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보를 기초로 상기 객체를 제거하는 단계;
    를 포함하는, 위성 영상 편집 방법.
  4. 제3 항에 있어서,
    상기 객체를 제거하는 단계는, 상기 주변 영역의 상기 타입 정보를 기초로 상기 주변 영역의 텍스처로 상기 편집 영역을 재생성하는 단계인, 위성 영상 편집 방법.
  5. 삭제
  6. 컴퓨팅 장치를 이용하여 제1 항, 제3 항, 및 제4 항 중 어느 한 항의 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램.
  7. 프로세서;를 포함하고,
    상기 프로세서는, 편집 대상이 되는 편집 영역과 상기 편집 영역으로부터 미리 결정된 범위 내의 주변 영역을 포함하는 위성 영상을 획득하고, 상기 편집 영역 및 상기 주변 영역에 대한 메타 데이터와 상기 위성 영상을 매칭하고, 상기 편집 영역의 메타 데이터 및 상기 주변 영역의 메타 데이터를 기초로 미리 학습된 인공 신경망을 이용하여 상기 편집 영역을 편집하고,
    상기 프로세서는, 상기 편집 영역 내의 편집 대상이 되는 객체에 대하여 폴리곤을 생성하고, 상기 폴리곤의 좌표값 및 상기 객체에 대응되는 상기 주변 영역의 타입 정보를 매칭하고, 상기 폴리곤의 좌표값 및 상기 주변 영역의 타입 정보를 기초로 상기 객체를 편집하고,
    상기 프로세서는, 상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하고, 상기 편집 영역에 대하여 미리 결정된 편집 조건을 획득하고, 상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보 및 상기 편집 조건을 기초로 상기 편집 영역을 재생성하는, 위성 영상 편집 장치.
  8. 삭제
  9. 제7 항에 있어서,
    상기 프로세서는, 상기 폴리곤의 상기 좌표값을 기초로 상기 객체가 제거 대상에 해당하는지 여부를 판단하고, 상기 객체가 제거 대상에 해당하는 경우 상기 주변 영역의 상기 타입 정보를 기초로 상기 객체를 제거하는, 위성 영상 편집 장치.
  10. 제9 항에 있어서,
    상기 프로세서는, 상기 주변 영역의 상기 타입 정보를 기초로 상기 주변 영역의 텍스처로 상기 편집 영역을 재생성하는, 위성 영상 편집 장치.

  11. 삭제
KR1020210166104A 2021-11-26 2021-11-26 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램 KR102669980B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210166104A KR102669980B1 (ko) 2021-11-26 2021-11-26 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210166104A KR102669980B1 (ko) 2021-11-26 2021-11-26 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
KR20230078377A KR20230078377A (ko) 2023-06-02
KR102669980B1 true KR102669980B1 (ko) 2024-05-29

Family

ID=86755650

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210166104A KR102669980B1 (ko) 2021-11-26 2021-11-26 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR102669980B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116597013B (zh) * 2023-07-17 2023-09-26 山东产研卫星信息技术产业研究院有限公司 一种基于不同经纬度区域的卫星图像几何定标方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185281A (ja) * 2018-04-06 2019-10-24 株式会社日立製作所 衛星画像変化抽出システムおよび衛星画像変化抽出方法、並びに衛星画像変化抽出システムにおけるフロントエンド部

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190016722A (ko) * 2017-08-09 2019-02-19 한국전자통신연구원 위성 영상의 노이즈 검출 및 영상 복원 방법과 그 장치
WO2019049324A1 (en) * 2017-09-08 2019-03-14 Nec Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND STORAGE MEDIUM
KR102610989B1 (ko) * 2019-12-26 2023-12-08 한국전자통신연구원 위성영상을 이용한 수치표면모델 생성 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185281A (ja) * 2018-04-06 2019-10-24 株式会社日立製作所 衛星画像変化抽出システムおよび衛星画像変化抽出方法、並びに衛星画像変化抽出システムにおけるフロントエンド部

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Azevedo, et al., Deshadowing of High Spatial Resolution Imagery, Bulletin of Geodetic Sciences, 25(spe): e2019s003, 2019*

Also Published As

Publication number Publication date
KR20230078377A (ko) 2023-06-02

Similar Documents

Publication Publication Date Title
US10593108B2 (en) Converting digital aerial images into a three-dimensional representation utilizing processing clusters
US10453204B2 (en) Image alignment for burst mode images
WO2020098531A1 (zh) 对象的加载方法和装置、存储介质、电子装置
US20190095212A1 (en) Neural network system and operating method of neural network system
CN116188821B (zh) 版权检测方法、***、电子设备和存储介质
US10282614B2 (en) Real-time detection of object scanability
CN110648363A (zh) 相机姿态确定方法、装置、存储介质及电子设备
KR102669980B1 (ko) 위성 영상 편집 방법, 위성 영상 편집 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램
CN103605500A (zh) 利用一个或多个约束计算设备的设置的***、方法
CN111459621B (zh) 云仿真集成与调度方法、装置、计算机设备和存储介质
KR101798890B1 (ko) 일상 생활 습관의 행동 요소를 활용한 웨어러블 디바이스 사용자 인증 방법 및 그 시스템
CN113342500B (zh) 任务执行方法、装置、设备及存储介质
KR102160092B1 (ko) 레이어드 마스크와 룩업테이블을 이용한 이미지 처리 방법 및 시스템
CN108520532B (zh) 识别视频中物体运动方向的方法及装置
JP6815743B2 (ja) 画像処理装置及びその方法、プログラム
CN110163298A (zh) 一种融合子集采样和模型选择的模型拟合方法
US20230073366A1 (en) Methods and apparatuses for calculating building heights from mono imagery
KR102407522B1 (ko) 실시간 3차원 모델 구축 방법 및 시스템
US11507091B2 (en) Data science system for developing machine learning models
CN103678545A (zh) 进行网络资源聚类的方法及装置
JP6962450B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Saupi Teri et al. GPU utilization in geoprocessing BIG Geodata: A review
KR102302745B1 (ko) 영상 데이터 획득 방법, 영상 데이터 획득 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램
CN113840169A (zh) 一种视频处理方法、装置、计算设备和存储介质
KR102666963B1 (ko) 비행 경로 산출 방법, 비행 경로 산출 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right