KR20160047847A - 영상 정합 방법 - Google Patents

영상 정합 방법 Download PDF

Info

Publication number
KR20160047847A
KR20160047847A KR1020140144291A KR20140144291A KR20160047847A KR 20160047847 A KR20160047847 A KR 20160047847A KR 1020140144291 A KR1020140144291 A KR 1020140144291A KR 20140144291 A KR20140144291 A KR 20140144291A KR 20160047847 A KR20160047847 A KR 20160047847A
Authority
KR
South Korea
Prior art keywords
image
matching
transformed
transformation algorithm
result
Prior art date
Application number
KR1020140144291A
Other languages
English (en)
Other versions
KR101932547B1 (ko
Inventor
오재윤
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020140144291A priority Critical patent/KR101932547B1/ko
Priority to US14/872,642 priority patent/US9934585B2/en
Priority to CN201510696860.8A priority patent/CN105554441B/zh
Publication of KR20160047847A publication Critical patent/KR20160047847A/ko
Application granted granted Critical
Publication of KR101932547B1 publication Critical patent/KR101932547B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

제2 카메라로부터의 제2 영상을 제1 카메라로부터의 제1 영상에 정합시키는 카메라 시스템의 영상 정합 방법이 개시된다. 이 방법은 단계들 (a) 내지 (e)를 포함한다. 단계 (a)에서는, 전역 변환 알고리즘에 의하여 제2 영상이 변환된 결과의 예비 변환 영상이 구해진다. 단계 (b)에서는, 제1 영상 및 예비 변환 영상에서 적어도 한 중요 부분 영역이 설정된다. 단계 (c)에서는, 제1 영상 및 예비 변환 영상에서의 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘이 구해진다. 단계 (d)에서는, 부분 변환 알고리즘에 의하여 예비 변환 영상이 변환된 결과의 최종 변환 영상이 구해진다.

Description

영상 정합 방법{Method of image registration}
본 발명은, 영상 정합 방법에 관한 것으로서, 보다 상세하게는, 제2 카메라로부터의 제2 영상을 제1 카메라로부터의 제1 영상에 정합시키는 카메라 시스템의 영상 정합 방법에 관한 것이다.
일반적으로 동일한 촬영 대상으로부터의 두 영상들을 한 영상으로 변화시키기 위해서는 정합(registration)과 융합(fusion)이 필요하다. 정합은 두 영상들의 위치를 일치시키는 처리 과정이다. 융합은 정합 결과의 영상에 대하여 원래의 두 영상들의 계조를 조정하는 처리 과정이다.
종래의 스테레오 카메라 시스템의 영상 정합(registration) 방법을 요약하면 다음과 같다.
먼저, 기준 거리에 있는 기준 촬영 대상을 제1 카메라가 촬영함에 의하여 제1 기준 영상을 구한다. 또한, 상기 기준 촬영 대상을 제2 카메라가 촬영함에 의하여 제2 기준 영상을 구한다.
다음에, 상기 제1 기준 영상의 3차원적 성분이 2차원적 성분으로 변환되도록 상기 제1 기준 영상에 대하여 투영(projection)을 수행하여, 투영된 결과의 제1 기준 영상을 구한다.
이와 마찬가지로, 상기 제2 기준 영상의 3차원적 성분이 2차원적 성분으로 변환되도록 상기 제2 기준 영상에 대하여 투영(projection)을 수행하여, 투영된 결과의 제2 기준 영상을 구한다.
다음에, 투영된 결과의 제1 기준 영상의 각 화소의 좌표에 대한, 투영된 결과의 제2 기준 영상의 각 화소의 좌표의 차이 값들인 기준 좌표-차이 값들을 구한다.
그리고, 적용될 촬영 대상에 대하여 상기 기준 좌표-차이 값들을 사용하여 정합 결과를 구한다. 예를 들어, 상기 기준 좌표-차이 값들을 사용하여 기준 정합 알고리즘으로서의 2차원 호모그래피(homography) 행렬을 설정한 후, 설정되어 있는 2차원 호모그래피 행렬을 사용하여 적용될 촬영 대상에 대한 정합 결과를 구한다.
상기와 같은 영상 정합에 있어서, 상기 제1 기준 영상과 상기 제2 기준 영상 사이에는 3차원적인 시차(視差, parallax)가 존재한다. 즉, 상기 투영된 결과의 제1 및 제2 기준 영상들 사이에는 3차원적인 시차가 작용한다. 이에 따라, 스테레오 카메라에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 정합의 정밀도가 피사체의 거리에 따라 다르게 나타나는 문제점이 있다.
상기 배경 기술의 문제점은, 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 내용으로서, 반드시 본 발명의 출원 전에 일반 공중에게 공지된 내용이라 할 수는 없다.
일본 공개특허 공보 제1997-233461호 (출원인 : Fujitsu Ltd., 발명의 명칭 : 적외선 화재 감시 장치)
본 발명의 실시예는, 스테레오 카메라에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타나는 문제점을 개선하고자 한다.
본 발명의 일 측면에 의하면, 제2 카메라로부터의 제2 영상을 제1 카메라로부터의 제1 영상에 정합시키는 카메라 시스템의 영상 정합 방법에 있어서, 단계들 (a) 내지 (d)를 포함한다.
상기 단계 (a)에서는, 전역 변환 알고리즘에 의하여 상기 제2 영상이 변환된 결과의 예비 변환 영상이 구해진다.
상기 단계 (b)에서는, 상기 제1 영상 및 상기 예비 변환 영상에서 적어도 한 중요 부분 영역이 설정된다.
상기 단계 (c)에서는, 상기 제1 영상 및 상기 예비 변환 영상에서의 상기 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘이 구해진다.
상기 단계 (d)에서는, 상기 부분 변환 알고리즘에 의하여 상기 예비 변환 영상이 변환된 결과의 최종 변환 영상이 구해진다.
상기 단계 (a)는 단계들 (a1) 내지 (a3)을 포함할 수 있다.
상기 단계 (a1)에서는, 상기 제2 영상에서 적어도 한 중요 부분 영역이 찾아진다.
상기 단계 (a2)에서는, 상기 제1 영상의 모든 영역과 상기 제2 영상의 모든 영역의 정합을 위한 상기 전역 변환 알고리즘이 구해진다.
상기 단계 (a3)에서는, 상기 전역 변환 알고리즘에 의하여 상기 제2 영상이 변환된 결과의 상기 예비 변환 영상을 구해진다.
또한, 상기 단계 (a1)에서, 상기 제2 영상에서 움직임이 검출된 영역이 상기 중요 부분 영역으로서 찾아질 수 있다.
또한, 상기 단계 (a2)에서, 상기 전역 변환 알고리즘은, 기준 거리에 있는 기준 촬영 대상을 이용하여 미리 구해져서 공통적으로 사용될 수 있다.
또한, 상기 단계 (a2)는 단계들 (a21) 내지 (a23)을 포함할 수 있다.
상기 단계 (a21)에서는, 상기 제1 영상의 3차원적 성분이 2차원적 성분으로 변환되도록 상기 제1 영상에 대하여 투영(projection)이 수행되어, 투영된 결과의 제1 영상이 구해진다.
상기 단계 (a22)에서는, 상기 제2 영상의 3차원적 성분이 2차원적 성분으로 변환되도록 상기 제2 영상에 대하여 투영(projection)이 수행되어, 투영된 결과의 제2 영상이 구해진다.
상기 단계 (a23)에서는, 상기 투영된 결과의 제1 및 제2 영상들이 사용되어, 상기 제2 영상의 각 화소의 위치 변환을 위한 상기 전역 변환 알고리즘으로서의 2차원 호모그래피(homography) 행렬이 구해진다.
또한, 상기 단계 (b)는 단계들 (b1) 내지 (b2)를 포함할 수 있다.
상기 단계 (b1)에서는, 상기 제2 영상에서의 중요 부분 영역에 대응하는 상기 예비 변환 영상에서의 중요 부분 영역이 설정된다.
상기 단계 (b2)에서는, 상기 예비 변환 영상에서의 중요 부분 영역에 대응하는 상기 제1 영상에서의 중요 부분 영역이 설정된다.
본 발명의 일 측면의 상기 영상 정합 방법에 의하면, 전역 변환 알고리즘에 의하여 상기 제2 영상이 변환된 결과의 예비 변환 영상이 구해진 후, 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘이 구해진다. 그리고, 상기 부분 변환 알고리즘에 의하여 상기 예비 변환 영상이 변환된 결과의 최종 변환 영상이 구해진다.
종래의 정합용 변환 알고리즘이라 할 수 있는 상기 전역 변환 알고리즘은, 상기 제1 영상의 모든 영역과 상기 제2 영상의 모든 영역의 정합을 위한 영상 변환 알고리즘이다. 따라서, 상기 제1 및 제2 카메라들에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 상기 예비 변환 영상과 상기 제1 영상을 정합하면 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타난다. 즉, 종래 기술의 문제점이 나타난다.
하지만, 상기 최종 변환 영상과 상기 제1 영상을 정합할 경우, 상기 개별적인 중요 부분 영역들에서는, 단일 피사체만이 존재하게 되므로 3차원적인 시차(視差, parallax)가 작용하지 않는다. 즉, 상기 다수의 서로 다른 중요 부분 영역들에서 영상 정합의 정밀도가 균일하게 향상될 수 있다.
따라서, 본 발명의 일 측면의 상기 영상 정합 방법에 의하면, 스테레오 카메라에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타나는 문제점이 개선될 수 있다.
도 1은 본 발명의 실시예의 영상 정합 방법을 수행하는 카메라 시스템을 보여주는 도면이다.
도 2는 도 1의 제어 장치에 의하여 수행되는 본 발명의 실시예의 영상 정합 방법을 보여주는 흐름도이다.
도 3은 도 2의 단계 (a)의 상세 과정을 예를 들어 보여주는 흐름도이다.
도 4는 도 3의 단계 (a2)의 상세 과정을 예를 들어 보여주는 흐름도이다.
도 5는 도 4의 단계들 (a21) 및 (a22)를 설명하기 위한 도면이다.
도 6은 도 3의 단계 (a3)을 설명하기 위한 도면이다.
도 7은 도 2의 단계 (b)의 상세 과정을 예를 들어 보여주는 흐름도이다.
도 8은 제1 영상의 예를 보여주는 도면이다.
도 9는 제2 영상의 예를 보여주는 도면이다.
도 10은, 도 2의 단계 (a)에서 구해진 예비 변환 영상을 제1 영상에 정합(registration)한 후에 융합(fusion)한 결과, 정합의 정밀도가 낮음을 보여주는 도면이다.
도 11은, 도 2의 단계 (d)에서 구해진 최종 변환 영상을 제1 영상에 정합한 후에 융합한 결과, 정합의 정밀도가 높아짐을 보여주는 도면이다.
하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다.
또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다.
도 1은 본 발명의 실시예의 영상 정합 방법을 수행하는 카메라 시스템을 보여주는 도면이다.
도 1의 카메라 시스템을 참조하면, 제2 카메라(102)로서의 열(熱)-영상 카메라는 피사체의 온도에 따른 열(熱) 영상으로서의 제2 영상(Ithe)을 출력한다. 제1 카메라(101)로서의 가시(可視) 영상 카메라는 피사체의 가시(可視) 영상으로서의 제1 영상(Ivis)을 출력한다.
제어 장치(103)는, 제1 카메라(101)로부터의 제1 영상(Ivis)과 제2 카메라(102)로부터의 제2 영상(Ithe)에 대하여 정합(registration) 및 융합(fusion)을 수행한다. 정합은 두 영상들의 위치를 일치시키는 처리 과정이다. 융합은 정합 결과의 영상에 대하여 원래의 두 영상들의 계조를 조정하는 처리 과정이다. 이하에서는 제어 장치(103)의 정합 방법에 대해서만 상세히 설명될 것이다.
제어 장치(103)는 정합 및 융합 결과의 영상(Imix)을 디스플레이 장치(104) 또는 클라이언트 단말기들(도시되지 않음)에게 제공한다. 물론, 제어 장치(103)는 제1 영상(Ivis), 제2 영상(Ithe), 또는 융합 결과의 영상(Imix)을 기록기에 저장할 수도 있다.
이하, 제어 장치(103)에 의하여 수행되는 본 실시예의 영상 정합 방법을 설명하기로 한다.
도 2는 도 1의 제어 장치(103)에 의하여 수행되는 본 발명의 실시예의 영상 정합 방법을 보여준다. 도 1 및 2를 참조하여, 본 실시예의 영상 정합 방법을 설명하면 다음과 같다.
제어 장치(103)는 전역 변환 알고리즘에 의하여 제2 영상(Ithe)이 변환된 결과의 예비 변환 영상을 구한다(단계 (a)). 여기에서, 전역 변환 알고리즘은 제1 영상의 모든 영역과 제2 영상의 모든 영역의 정합을 위한 영상 변환 알고리즘이다. 이러한 전역 변환 알고리즘은, 기준 거리에 있는 기준 촬영 대상을 이용하여 미리 구해져서, 공통적으로 사용될 수 있다.
다음에, 제어 장치(103)는 제1 영상(Ivis) 및 예비 변환 영상에서 적어도 한 중요 부분 영역을 설정한다(단계 (b)). 본 실시예의 경우, 중요 부분 영역은 제2 영상(Ithe)에서 움직임이 검출된 영역이다.
상기 단계들 (a) 및 (b)에 대해서는 도 3 내지 7을 참조하여 상세히 설명될 것이다.
다음에, 제어 장치(103)는 제1 영상(Ivis) 및 예비 변환 영상에서의 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘을 구한다(단계 (c)). 여기에서, 부분 변환 알고리즘을 구하는 절차는 전역 변환 알고리즘을 구하는 절차와 동일하다. 다만, 부분 변환 알고리즘과 전역 변환 알고리즘은 정합 대상 영역에서 차이를 가질 뿐이다.
그리고, 제어 장치(103)는, 부분 변환 알고리즘에 의하여 예비 변환 영상이 변환된 결과의 최종 변환 영상을 구한다(단계 (d)).
상기와 같은 본 실시예의 영상 정합 방법에 의하면, 전역 변환 알고리즘에 의하여 제2 영상(Ithe)이 변환된 결과의 예비 변환 영상이 구해진 후, 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘이 구해진다. 그리고, 부분 변환 알고리즘에 의하여 예비 변환 영상이 변환된 결과의 최종 변환 영상이 구해진다.
종래의 정합용 변환 알고리즘이라 할 수 있는 전역 변환 알고리즘은, 제1 영상(Ivis)의 모든 영역과 제2 영상(Ithe)의 모든 영역의 정합을 위한 영상 변환 알고리즘이다. 따라서, 제1 및 제2 카메라들(101, 102)에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 예비 변환 영상과 제1 영상(Ivis)을 정합하면 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타난다. 즉, 종래 기술의 문제점이 나타난다.
하지만, 상기 최종 변환 영상과 제1 영상(Ivis)을 정합할 경우, 개별적인 중요 부분 영역들에서는, 단일 피사체만이 존재하게 되므로 3차원적인 시차(視差, parallax)가 작용하지 않는다. 따라서, 다수의 서로 다른 중요 부분 영역들에서 영상 정합의 정밀도가 균일하게 향상될 수 있다.
따라서, 도 2의 실시예의 영상 정합 방법에 의하면, 스테레오 카메라(101, 102)에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타나는 문제점이 개선될 수 있다.
도 3은 도 2의 단계 (a)의 상세 과정을 예를 들어 보여준다. 도 1 및 3을 참조하여 도 2의 단계 (a)의 상세 과정을 예를 들어 설명하면 다음과 같다.
먼저, 제어 장치(103)는 제2 영상(Ithe)에서 적어도 한 중요 부분 영역을 찾는다(단계 (a1)). 본 실시예의 경우, 제2 영상(Ithe)에서 움직임이 검출된 영역이 상기 중요 부분 영역으로서 찾아진다.
예를 들어, 제2 영상(Ithe)이 열(熱) 영상인 경우, 어느 한 움직임 영역의 평균 휘도가 설정 기준 휘도보다 높으면 상기 움직임 영역은 상기 중요 부분 영역으로서 판단된다.
상기 단계 (a1)은 도 2의 단계 (b)를 수행하기 위하여 필요한 절차이다. 상기 단계 (a1)에서, 복수의 중요 부분 영역들이 찾아진 경우, 각각의 중요 부분 영역에 대하여 번호를 부여함에 의하여 단계 (b)가 원활하게 수행될 수 있다.
다음에, 제어 장치(103)는 제1 영상(Ivis)의 모든 영역과 제2 영상(Ithe)의 모든 영역의 정합을 위한 전역 변환 알고리즘을 구한다(단계 (a2)). 이 단계 (a2)에 대해서는 도 4 및 5를 참조하여 상세히 설명될 것이다. 본 실시예의 경우, 전역 변환 알고리즘은, 기준 거리에 있는 기준 촬영 대상을 이용하여 미리 구해져서 공통적으로 사용된다. 물론, 전역 변환 알고리즘은 실시간으로 촬영 대상에 대하여 구해질 수도 있다.
그리고, 제어 장치(103)는 전역 변환 알고리즘에 의하여 제2 영상(Ithe)이 변환된 결과의 예비 변환 영상을 구한다(단계 (a3)). 이 단계 (a3)에 대해서는 도 6을 참조하여 상세히 설명될 것이다.
도 4는 도 3의 단계 (a2)의 상세 과정을 예를 들어 보여준다. 도 5는 도 4의 단계들 (a21) 및 (a22)를 설명하기 위한 도면이다. 도 1, 4 및 5를 참조하여 도 3의 단계 (a2)의 상세 과정을 예를 들어 설명하면 다음과 같다.
먼저, 제어 장치(103)는, 제1 영상(Ivis)의 3차원적 성분이 2차원적 성분으로 변환되도록 제1 영상(Ivis)에 대하여 투영(projection)을 수행하여, 투영된 결과의 제1 영상(502)을 구한다(단계 (a21)). 영상에서의 3차원적 성분을 2차원적 성분으로 변환하기 위한 투영(projection) 방법은, 이미 잘 알려져 있으므로, 그 설명이 생략된다.
다음에, 제어 장치(103)는, 제2 영상(Ithe)의 3차원적 성분이 2차원적 성분으로 변환되도록 제2 영상(Ithe)에 대하여 투영(projection)을 수행하여, 투영된 결과의 제2 영상(503)을 구한다(단계 (a22)).
그리고, 제어 장치(103)는, 투영된 결과의 제1 및 제2 영상들(502, 503)을 사용하여, 제2 영상(Ithe)의 각 화소의 위치 변환을 위한 전역 변환 알고리즘으로서의 2차원 호모그래피(homography) 행렬을 구한다(단계 (a23)).
도 5에서 참조 부호 501은 2차원 투영(projection) 평면을 가리킨다. 도 5에서 특징점 A1은 A2에 대응하고, 특징점 B1은 B2에 대응하며, 특징점 C1은 C2에 대응하고, 특징점 D1은 D2에 대응한다. 이와 같이 대응 특징점들의 위치가 서로 다른 이유는, 3차원적 성분이 2차원적 성분으로 변환되는 과정에서 거리(depth) 성분이 반영되기 때문이다.
도 5에서 8 개의 대응 특징점들(A1 내지 D2)에 의하면 8 개의 직선 방정식들이 구해질 수 있다. 상기 단계 (a23)에서, 이러한 직선 방정식들을 다수 개 구하여 이용하면, 적절한 기준 정합 알고리즘으로서의 2차원 호모그래피(homography) 행렬이 구해질 수 있다. 영상 정합을 위한 2차원 호모그래피 행렬의 설정 방법 자체는, 이미 잘 알려져 있으므로, 그 설명이 생략된다.
도 6은 도 3의 단계 (a3)을 설명하기 위한 도면이다.
도 1, 3 및 6을 참조하면, 제어 장치(103)는 전역 변환 알고리즘에 의하여 제2 영상(Ithe)이 변환된 결과의 예비 변환 영상을 구한다(단계 (a3)).
제1 및 제2 영상들(Ivis, Ithe)의 평면이 평행하고 일정한 간격을 가지는 스테레오 카메라의 경우, 제2 기준 영상(403)의 각 화소의 위치 변환을 위한 2차원 호모그래피(homography) 행렬 H는 아래의 수학식 1과 같이 구해질 수 있다.
Figure pat00001
상기 수학식 1에서 변수 원소 h13은 대상 화소의 x-좌표 차이 값을, 그리고 h23은 대상 화소의 y-좌표 차이 값을 각각 가리킨다. 즉, 상기 수학식 1을 사용하여, 제2 영상(Ithe)의 모든 화소들 각각에 대한 예비 변환 영상의 x-좌표 값 및 y-좌표 값이 구해질 수 있다.
도 7은 도 2의 단계 (b)의 상세 과정을 예를 들어 보여준다. 도 1 및 7을 참조하여 이를 설명하면 다음과 같다.
먼저, 제어 장치(103)는, 제2 영상(Ithe)에서의 중요 부분 영역(들)에 대응하는 상기 예비 변환 영상에서의 중요 부분 영역(들)을 설정한다(단계 (b1)).
대부분의 경우, 제2 영상(Ithe)에서는 복수의 중요 부분 영역들이 찾아질 것이다. 제1 중요 부분 영역을 object_1, 제2 중요 부분 영역을 object_2, 제n 중요 부분 영역을 object_n, 전역 변환 알고리즘을 H_global, 변환 동작을 Transform, 변환된 결과를 Transformed로 표현하면, 예비 변환 영상에서의 중요 부분 영역들은 아래의 수학식 2 내지 4에 의하여 정리될 수 있다.
Figure pat00002
Figure pat00003
Figure pat00004
상기 단계 (b1)이 수행되면, 제어 장치(103)는, 예비 변환 영상에서의 중요 부분 영역(들)에 대응하는 제1 영상(Ivis)에서의 중요 부분 영역(들)을 설정한다(단계 (b2)).
이와 같이 제1 영상(Ivis) 및 예비 변환 영상에서 복수의 중요 부분 영역들이 설정되면, 제어 장치(103)는 제1 영상(Ivis) 및 예비 변환 영상에서의 중요 부분 영역들 각각의 정합을 위한 복수의 부분 변환 알고리즘들을 구한다(도 2의 단계 (c) 참조). 예를 들어, 제1 영상(Ivis) 및 예비 변환 영상에 대한 중요 부분 영역들이 n 개인 경우, n 개의 부분 변환 알고리즘들이 구해진다.
부분 변환 알고리즘을 구하는 절차는 전역 변환 알고리즘을 구하는 절차와 동일하다. 전역 변환 알고리즘을 구하는 절차는 위에서 자세히 설명되었다. 다만, 부분 변환 알고리즘과 전역 변환 알고리즘은 정합 대상 영역에서 차이를 가질 뿐이다.
그리고, 제어 장치(103)는, 각각의 부분 변환 알고리즘에 의하여 위치 좌표가 변환된 n 개의 중요 부분 영역들을 예비 변환 영상에 적용함에 따라, 예비 변환 영상이 변환된 결과의 최종 변환 영상을 구한다(도 2의 단계 (d) 참조).
이와 같은 최종 변환 영상과 제1 영상(Ivis)을 정합할 경우, n 개의 중요 부분 영역들 각각에서는, 단일 피사체만이 존재하게 되므로 3차원적인 시차(視差, parallax)가 작용하지 않는다. 따라서, n 개의 서로 다른 중요 부분 영역들에서 영상 정합의 정밀도가 균일하게 향상될 수 있다.
도 8은 제1 영상의 예를 보여준다.
도 9는 제2 영상의 예를 보여준다.
도 10은, 도 2의 단계 (a)에서 구해진 예비 변환 영상을 제1 영상(도 8)에 정합(registration)한 후에 융합(fusion)한 결과, 정합의 정밀도가 낮음을 보여준다.
도 11은, 도 2의 단계 (d)에서 구해진 최종 변환 영상을 제1 영상(도 8)에 정합한 후에 융합한 결과, 정합의 정밀도가 높아짐을 보여준다.
도 8 내지 11을 참조하면, 도 2의 단계 (a)에서 구해진 예비 변환 영상은 종래의 정합용 변환 알고리즘이라 할 수 있는 전역 변환 알고리즘에 의하여 구해진 것이다. 이러한 전역 변환 알고리즘은, 제1 영상(도 8)의 모든 영역과 제2 영상(도 9)의 모든 영역의 정합을 위한 영상 변환 알고리즘이다. 따라서, 제1 및 제2 카메라들(도 1의 101, 102)에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 예비 변환 영상과 제1 영상(도 8)을 정합하면 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타난다(도 10 참조). 즉, 종래 기술의 문제점이 나타난다.
하지만, 상기 최종 변환 영상과 제1 영상(도 8)을 정합할 경우, 개별적인 중요 부분 영역들에서는, 단일 피사체만이 존재하게 되므로 3차원적인 시차(視差, parallax)가 작용하지 않는다. 따라서, 다수의 서로 다른 중요 부분 영역들에서 영상 정합의 정밀도가 균일하게 향상될 수 있다(도 11 참조).
이상 설명된 바와 같이, 본 발명의 실시예의 영상 정합 방법에 의하면, 전역 변환 알고리즘에 의하여 제2 영상이 변환된 결과의 예비 변환 영상이 구해진 후, 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘이 구해진다. 그리고, 부분 변환 알고리즘에 의하여 예비 변환 영상이 변환된 결과의 최종 변환 영상이 구해진다.
이에 따라, 스테레오 카메라에 대하여 복수의 피사체들이 서로 다른 거리를 가질 경우, 영상 정합의 정밀도가 피사체의 거리에 따라 다르게 나타나는 문제점이 개선될 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
두 영상들의 정합 뿐만 아니라, 세 개 이상의 영상들의 정합에도 이용될 가능성이 있다.
101 : 제1 카메라, Ivis : 제1 영상,
102 : 제2 카메라, Ithe : 제2 영상,
103 : 제어 장치,
Imix : 정합 및 융합 결과의 영상,
501 : 2차원 투영(projection) 평면,
502 : 투영된 결과의 제1 영상,
503 : 투영된 결과의 제2 영상.

Claims (6)

  1. 제2 카메라로부터의 제2 영상을 제1 카메라로부터의 제1 영상에 정합시키는 카메라 시스템의 영상 정합 방법에 있어서,
    (a) 전역 변환 알고리즘에 의하여 상기 제2 영상이 변환된 결과의 예비 변환 영상을 구함;
    (b) 상기 제1 영상 및 상기 예비 변환 영상에서 적어도 한 중요 부분 영역을 설정함;
    (c) 상기 제1 영상 및 상기 예비 변환 영상에서의 상기 중요 부분 영역들의 정합을 위한 부분 변환 알고리즘을 구함; 및
    (d) 상기 부분 변환 알고리즘에 의하여 상기 예비 변환 영상이 변환된 결과의 최종 변환 영상을 구함;을 포함한, 영상 정합 방법.
  2. 제1항에 있어서, 상기 단계 (a)는,
    (a1) 상기 제2 영상에서 적어도 한 중요 부분 영역을 찾음;
    (a2) 상기 제1 영상의 모든 영역과 상기 제2 영상의 모든 영역의 정합을 위한 상기 전역 변환 알고리즘을 구함; 및
    (a3) 상기 전역 변환 알고리즘에 의하여 상기 제2 영상이 변환된 결과의 상기 예비 변환 영상을 구함;을 포함한, 영상 정합 방법.
  3. 제2항에 있어서, 상기 단계 (a1)에서,
    상기 제2 영상에서 움직임이 검출된 영역이 상기 중요 부분 영역으로서 찾아지는, 영상 정합 방법.
  4. 제2항에 있어서, 상기 단계 (a2)에서,
    상기 전역 변환 알고리즘은,
    기준 거리에 있는 기준 촬영 대상을 이용하여 미리 구해져서 공통적으로 사용되는, 영상 정합 방법.
  5. 제4항에 있어서, 상기 단계 (a2)는,
    (a21) 상기 제1 영상의 3차원적 성분이 2차원적 성분으로 변환되도록 상기 제1 영상에 대하여 투영(projection)을 수행하여, 투영된 결과의 제1 영상을 구함;
    (a22) 상기 제2 영상의 3차원적 성분이 2차원적 성분으로 변환되도록 상기 제2 영상에 대하여 투영(projection)을 수행하여, 투영된 결과의 제2 영상을 구함; 및
    (a23) 상기 투영된 결과의 제1 및 제2 영상들을 사용하여, 상기 제2 영상의 각 화소의 위치 변환을 위한 상기 전역 변환 알고리즘으로서의 2차원 호모그래피(homography) 행렬을 구함;을 포함한, 영상 정합 방법.
  6. 제2항에 있어서, 상기 단계 (b)는,
    (b1) 상기 제2 영상에서의 중요 부분 영역에 대응하는 상기 예비 변환 영상에서의 중요 부분 영역을 설정함; 및
    (b2) 상기 예비 변환 영상에서의 중요 부분 영역에 대응하는 상기 제1 영상에서의 중요 부분 영역을 설정함;을 포함한, 영상 정합 방법.
KR1020140144291A 2014-10-23 2014-10-23 카메라 시스템 및 이의 영상 정합 방법 KR101932547B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140144291A KR101932547B1 (ko) 2014-10-23 2014-10-23 카메라 시스템 및 이의 영상 정합 방법
US14/872,642 US9934585B2 (en) 2014-10-23 2015-10-01 Apparatus and method for registering images
CN201510696860.8A CN105554441B (zh) 2014-10-23 2015-10-23 用于配准图像的设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140144291A KR101932547B1 (ko) 2014-10-23 2014-10-23 카메라 시스템 및 이의 영상 정합 방법

Publications (2)

Publication Number Publication Date
KR20160047847A true KR20160047847A (ko) 2016-05-03
KR101932547B1 KR101932547B1 (ko) 2018-12-27

Family

ID=55792370

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140144291A KR101932547B1 (ko) 2014-10-23 2014-10-23 카메라 시스템 및 이의 영상 정합 방법

Country Status (3)

Country Link
US (1) US9934585B2 (ko)
KR (1) KR101932547B1 (ko)
CN (1) CN105554441B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533006A (zh) * 2019-09-11 2019-12-03 北京小米智能科技有限公司 一种目标跟踪方法、装置及介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11240403B2 (en) * 2017-02-24 2022-02-01 Avigilon Corporation Compensation for delay in PTZ camera system
JP6874855B2 (ja) * 2017-11-06 2021-05-19 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
CN109389630B (zh) * 2018-09-30 2020-10-23 北京精密机电控制设备研究所 可见光图像与红外图像特征点集确定、配准方法及装置
JP7218215B2 (ja) * 2019-03-07 2023-02-06 株式会社日立製作所 画像診断装置、画像処理方法及びプログラム
CN112150564A (zh) * 2020-08-21 2020-12-29 哈尔滨理工大学 基于深度卷积神经网络医学图像融合算法
CN112200002B (zh) * 2020-09-11 2023-12-01 深圳市优必选科技股份有限公司 一种体温测量方法、装置、终端设备及存储介质
JP2024512583A (ja) * 2021-03-24 2024-03-19 日本電気株式会社 画像処理の方法及び画像処理装置
US11561678B1 (en) * 2021-10-28 2023-01-24 Micro Focus Llc Automatic zoom on device screen to improve artificial intelligence identification rate

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140017222A (ko) * 2012-07-31 2014-02-11 주식회사 제론헬스케어 감시시스템의 영상 융합을 통한 객체 감시 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3599639B2 (ja) 2000-05-26 2004-12-08 松下電器産業株式会社 画像処理装置
KR20050063991A (ko) 2003-12-23 2005-06-29 한국전자통신연구원 영상 피라미드를 이용한 영상정합 처리방법 및 장치
JP4464360B2 (ja) 2006-03-27 2010-05-19 富士フイルム株式会社 監視装置、監視方法、及びプログラム
KR100986809B1 (ko) 2008-07-17 2010-10-08 인하대학교 산학협력단 크기불변특징변환을 이용한 다중해상도 위성영상간자동기하보정 방법
KR100945307B1 (ko) 2008-08-04 2010-03-03 에이알비전 (주) 스테레오스코픽 동영상에서 이미지를 합성하는 방법 및장치
CN101923709B (zh) * 2009-06-16 2013-06-26 日电(中国)有限公司 图像拼接方法与设备
CN102428707B (zh) * 2010-03-19 2015-03-11 松下电器产业株式会社 立体视用图像对位装置和立体视用图像对位方法
US8447099B2 (en) * 2011-01-11 2013-05-21 Eastman Kodak Company Forming 3D models using two images
US8452081B2 (en) * 2011-01-11 2013-05-28 Eastman Kodak Company Forming 3D models using multiple images
KR101299237B1 (ko) * 2011-11-23 2013-08-22 서울대학교산학협력단 팬틸트줌 카메라를 이용한 물체 탐지 장치 및 방법
KR101324250B1 (ko) * 2011-12-29 2013-11-01 삼성테크윈 주식회사 영상 처리를 통한 광축 오차 보상 방법 및 시스템, 광축 오차 보상 기능이 구현된 줌 카메라
JP6071257B2 (ja) * 2012-06-07 2017-02-01 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
KR101524548B1 (ko) * 2012-07-26 2015-06-02 삼성테크윈 주식회사 영상 정합 장치 및 방법
KR102144394B1 (ko) * 2013-08-20 2020-08-13 한화테크윈 주식회사 영상 정합 장치 및 이를 이용한 영상 정합 방법
CN103473565B (zh) * 2013-08-23 2017-04-26 华为技术有限公司 一种图像匹配方法和装置
US9400939B2 (en) * 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
US10257494B2 (en) * 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video
KR102149276B1 (ko) * 2014-10-23 2020-08-28 한화테크윈 주식회사 영상 정합 방법
KR102225617B1 (ko) * 2014-11-03 2021-03-12 한화테크윈 주식회사 영상 정합 알고리즘을 설정하는 방법
US10129490B2 (en) * 2015-04-05 2018-11-13 Hema Imaging Llc Systems and approaches for thermal image corrections

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140017222A (ko) * 2012-07-31 2014-02-11 주식회사 제론헬스케어 감시시스템의 영상 융합을 통한 객체 감시 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533006A (zh) * 2019-09-11 2019-12-03 北京小米智能科技有限公司 一种目标跟踪方法、装置及介质

Also Published As

Publication number Publication date
US9934585B2 (en) 2018-04-03
US20160117821A1 (en) 2016-04-28
CN105554441B (zh) 2019-11-19
CN105554441A (zh) 2016-05-04
KR101932547B1 (ko) 2018-12-27

Similar Documents

Publication Publication Date Title
KR101932547B1 (ko) 카메라 시스템 및 이의 영상 정합 방법
KR102149276B1 (ko) 영상 정합 방법
US20190200005A1 (en) Embedded system, fast structured light based 3d camera system and method for obtaining 3d images using the same
WO2019184185A1 (zh) 目标图像获取***与方法
JP2018101408A (ja) 画像処理のためのシステムおよび方法
WO2019184184A1 (zh) 目标图像获取***与方法
JP7168077B2 (ja) 3次元計測システム及び3次元計測方法
US10764563B2 (en) 3D enhanced image correction
US20140168375A1 (en) Image conversion device, camera, video system, image conversion method and recording medium recording a program
JP7489253B2 (ja) デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム
TW201225658A (en) Imaging device, image-processing device, image-processing method, and image-processing program
US9807340B2 (en) Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
JP7078172B2 (ja) 画像処理装置及び3次元計測システム
KR101801100B1 (ko) 몰입형 콘텐츠 제작 지원용 영상 제공 장치 및 방법
JP2014116012A (ja) 画像間の色転送を行う方法および装置
JP2005258953A (ja) 魚眼カメラ、及び魚眼カメラにおけるキャリブレーション方法
US10922839B2 (en) Location obtaining system, location obtaining device, location obtaining method, and non-transitory computer-readable recording medium
KR102067423B1 (ko) 지피유 가속 컴퓨팅을 이용한 3차원 복원 클라우드 포인트 생성 방법
JP4871315B2 (ja) 複眼撮影装置およびその制御方法並びにプログラム
WO2018150086A3 (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
KR101737260B1 (ko) 영상간 피사계 심도 차이에서 깊이를 추출하는 카메라 시스템 및 그 동작 방법
JP2009239391A (ja) 複眼撮影装置およびその制御方法並びにプログラム
KR20150119770A (ko) 카메라를 사용한 3차원 좌표 측정 장치 및 방법
WO2018235256A1 (ja) ステレオ計測装置及びシステム
CN109671107B (zh) 通过对所投影一维图像轮廓进行匹配将多个相机图像对准

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant