KR20060063265A - 영상 처리 방법 및 장치 - Google Patents

영상 처리 방법 및 장치 Download PDF

Info

Publication number
KR20060063265A
KR20060063265A KR1020040102386A KR20040102386A KR20060063265A KR 20060063265 A KR20060063265 A KR 20060063265A KR 1020040102386 A KR1020040102386 A KR 1020040102386A KR 20040102386 A KR20040102386 A KR 20040102386A KR 20060063265 A KR20060063265 A KR 20060063265A
Authority
KR
South Korea
Prior art keywords
image
distance
distance information
cameras
images
Prior art date
Application number
KR1020040102386A
Other languages
English (en)
Inventor
김성환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040102386A priority Critical patent/KR20060063265A/ko
Priority to US11/296,665 priority patent/US20060120712A1/en
Publication of KR20060063265A publication Critical patent/KR20060063265A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 처리 방법 및 장치에 관한 것으로, 영상의 색깔이나 패턴과는 상관없이 촬영된 대상의 거리 정보를 이용하여 해당 대상을 영상에서 제거하고 합성하는 방법 및 장치에 관한 것이다.
이를 위하여, 본 발명에 따른 영상 처리 방법은, 두 대의 카메라를 이용하여 각각 영상을 촬영하고, 상기 각 영상에 대한 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하고, 추출된 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 것을 특징으로 한다.
영상 처리, 합성, 거리, 양안차

Description

영상 처리 방법 및 장치{Method and apparatus for processing image}
도 1은 본 발명에 따른 영상 처리 방법의 흐름도.
도 2는 본 발명에 따라 대응되는 픽셀을 맵핑하는 과정을 설명하기 위한 도면.
도 3은 본 발명에 따라 두 영상의 양안차와 촬영된 대상까지의 거리를 계산하는 방법을 설명하기 위한 도면.
도 4는 본 발명에 따라 사용자가 배경을 제거하고 제거된 배경에 다른 영상을 합성한 예를 나타내는 도면.
도 5는 본 발명에 따른 영상 처리 장치의 구성도.
본 발명은 영상 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 화상 통화나 영상 촬영 시 촬영된 영상에서 카메라로부터 일정 거리의 영상을 제거하고 합성할 수 있는 방법 및 장치에 관한 것이다.
동영상이나 정지영상 촬영에서 사용자 또는 정해진 물체의 주위로 보여지는 배경부분을 제거하여 사용자가 설정한 배경으로 변환하는 방법은 사용자에게 매우 다양한 서비스를 제공할 수 있다. 이러한 기술의 핵심은 카메라를 통하여 촬영된 영상에서 제거하려는 대상을 얼마나 정확하게 추출하느냐는 것이다.
이를 위해 종래에는 하나의 카메라로부터 얻어진 영상에서 색깔이나 에지 검출(Edge Detection) 등을 통한 패턴 인식을 통하여 제거하려는 영상을 추출하였다. 그러나 1차원 영상 정보만으로는 제거하려는 대상과 남기려는 대상의 구분이 모호할 뿐만 아니라 패턴 인식이 가지는 많은 제한으로 인해 제거하려는 대상의 추출 시 오류 확률이 높다. 예를 들어, 사람이 입고 있는 의상과 배경에 동일한 색깔이 존재하게 되면 1차원 영상에서는 그 구분이 모호할 수 밖에 없다. 한편, 이러한 종래의 패턴 인식 방법은 여러 단계의 처리 과정으로 인해 1초에 여러 프레임으로 이루어진 동영상에서는 처리 속도의 문제로 실시간으로 영상을 처리해야 하는 시스템에서는 실현 가능성이 적다.
상술한 문제점을 해결하기 위하여, 본 발명의 목적은 촬영된 대상의 거리 정보를 이용하여 해당 대상을 영상에서 제거하고 합성하는데 있다.
본 발명의 다른 목적은 두 대의 카메라를 이용하여 동일 대상을 촬영하고 두 카메라의 양안차를 이용하여 촬영 대상의 거리 정보를 추출하여 해당 대상을 영상에서 제거하고 합성하는데 있다.
본 발명의 또 다른 목적은 사용자가 영상에서 제거하고자 하는 범위를 직접 입력함으로써 선택적으로 영상을 제거하거나 합성할 수 있도록 하는데 있다.
본 발명의 또 다른 목적은 영상의 색깔이나 패턴과는 상관없이 정확하게 대상을 추출하는데 있다.
이를 위하여, 본 발명에 따른 영상 처리 방법은, 두 대의 카메라를 이용하여 각각 영상을 촬영하고, 상기 각 영상에 대한 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하고, 추출된 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 것을 특징으로 한다.
이를 위해 본 발명에 따른 영상 처리 방법은, 상기 두 대의 카메라를 이용하여 각각 영상을 촬영하는 과정; 상기 각 영상에 대해 동일한 대상의 대응 픽셀(Pixel)을 맵핑(Mapping)하는 과정; 상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 양안차를 계산하는 과정; 상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 과정; 상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 제거하는 과정; 및 상기 제거된 영상을 다른 영상으로 합성하는 과정을 포함하는 것을 특징으로 한다.
그리고 상기 맵핑 과정은 상기 두 영상에 대하여 서브 블록 단위로 상관(Correlation) 값을 비교하여 수행된다. 상기 촬영 대상까지의 거리 정보는 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 계산된다.
그리고 본 발명에 따른 영상 처리 장치는, 각각 영상을 촬영하는 두 대의 카메라; 상기 두 카메라로부터 촬영된 각각의 영상에 대해 동일한 대상의 대응 픽셀을 맵핑하는 픽셀 맵핑부; 상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 각 영상에 대한 양안차를 계산하고, 상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 거리 정보 추출부; 및 상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 영상 합성부를 구비하는 것을 특징으로 한다.
여기서, 상기 두 카메라는 일정 간격으로 떨어져 에피폴라 라인(Epipolar Line)이 일치되도록 설치되어, 상기 두 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기로 촬영된다.
상기 픽셀 맵핑부는 상기 두 영상에 대하여 서브 블록 단위로 상관 값을 비교하여 상기 대응 픽셀을 맵핑한다.
상기 거리 정보 추출부는, 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 상기 촬영 대상까지의 거리 정보를 계산한다.
이하, 본 발명에 따른 바람직한 실시 예에 대하여 첨부 도면을 참조하여 상세히 설명한다.
도 1은 본 발명에 따라 거리 정보를 이용하여 영상을 처리하는 영상 처리 방법의 흐름도이다.
먼저 본 발명은 거리 정보를 추출하기 위하여 두 대의 카메라(이하 각각 '제 1 카메라', '제 2 카메라'라고 칭함)를 이용하여 각각 영상을 촬영한다(S11). 제 1 카메라에서 촬영된 제 1 영상과 제 2 카메라에서 촬영된 제 2 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기의 영상인 것이 바람직하며, 양안차를 얻기 위하여 두 카메라의 에피폴라 라인을 일치시켜 좌우 대칭이 되도록 촬영되는 것이 바람직하다.
두 대의 카메라로부터 영상이 촬영되면 두 영상에서 동일한 대상에 대한 대응되는 픽셀을 찾아 맵핑한다(S12). 대응되는 픽셀을 맵핑한다는 것은 제 1 영상과 제 2 영상에서 동일한 좌표의 픽셀을 맵핑한다는 것이 아니라, 동일한 대상에 대하여 동일한 모양과 위치에 해당하는 픽셀을 각각 제 1 영상과 제 2 영상에서 찾는다는 것이다. 도 2를 참조하여 설명하면, 제 1 영상(21)에서 x, y 좌표 값이 (4, 3)인 픽셀 23과 매핑되는 제 2 영상(22)의 픽셀은, 같은 좌표 값 (4, 3)을 갖는 픽셀 24가 아니라 픽셀 25가 된다. 왜냐하면, 제 1 영상(21)의 픽셀 23은 삼각형의 한 꼭짓점이므로, 제 2 영상(22)에서도 동일한 대상인 삼각형에 대하여 동일한 모양과 위치(밑변의 양쪽을 구성하는 꼭짓점이 아닌 다른 꼭짓점으로서 모양과 위치가 동일함)에 해당하는 픽셀 25가 매핑되는 것이다.
상술한 바와 같은 대응되는 픽셀의 맵핑은 제 1 영상과 제 2 영상을 먼저 버퍼에 넣어두고 서브블록 단위로 상관(Correlation) 값을 구하여 대응되는 픽셀을 찾음으로써 수행된다.
두 영상의 동일한 대상에 대하여 픽셀이 맵핑되면, 대응되는 픽셀 정보를 이 용하여 제 1 영상과 제 2 영상의 양안차를 계산하고(S13) 이를 이용하여 촬영된 대상까지의 거리를 계산한다(S14). 즉, 동일 대상에 대하여 제 1 영상에서의 위치와 제 2 영상에서의 위치 차를 이용하여 양안차를 구하고 이를 이용하여 해당 대상까지의 거리를 계산한다.
도 3을 참조하여 제 1 영상과 제 2 영상의 양안차와 촬영된 대상까지의 거리를 계산하는 방법에 대하여 보다 상세하게 설명한다.
P는 촬영 대상이고, A와 B는 P가 각각 제 1 카메라와 제 2 카메라에 의해 촬영된 영상이다. CA는 제 1 카메라로 찍히는 영상의 중심이고 CB는 제 2 카메라로 찍히는 영상의 중심이다.
그리고 계산에 사용되는 각 파라미터는 다음과 같다.
L : 제 1 카메라의 중심(CA)과 제 2 카메라의 중심(CB) 사이의 거리.
f : 각 카메라의 포커스 길이.
dl : 제 1 카메라의 중심(CA)으로부터 제 1 카메라에 의해 촬영된 영상(A)까지의 거리.
dr : 제 2 카메라의 중심(CB)으로부터 제 2 카메라에 의해 촬영된 영상(B)까지의 거리.
a : 제 1 카메라로 찍히는 영상의 왼쪽 기준면으로부터 제 1 카메라에 의해 촬영된 영상(A)까지의 거리.
b : 제 2 카메라로 찍히는 영상의 왼쪽 기준면으로부터 제 2 카메라에 의해 촬영된 영상(B)까지의 거리.
X : 두 카메라의 중점으로부터 촬영된 대상 P까지의 거리.
도 3에서 X는 수학식 1과 같이 계산된다.
X = (L × f) / (dl + dr)
여기서 (dl+dr)은 (b-a)이므로, 수학식 1은 수학식 2과 같다.
X = (L × f) / (b - a)
여기서 (b-a)는 촬영 대상이 각 카메라에 의해 촬영된 영상의 상대적 차이 값으로 양안차라고 한다.
수학식 2에 의해 두 카메라의 중심 사이의 거리와 카메라의 포커스 길이 및 양안차 정보를 알면 촬영 대상까지의 거리를 구할 수 있다. 이중 두 카메라의 중심 사이의 거리와 카메라의 포커스 길이는 일반적으로 고정되어 있을 가능성이 크므로 양안차 정보만 있으면 물체까지의 거리를 쉽게 구할 수 있다. 그리고 수학식 2를 살펴보면, 양안차가 클수록 촬영 대상이 가까운 거리에 위치하고 양안차가 작을수록 먼 거리에 위치함을 알 수 있다. 본 발명은 이러한 거리 정보를 이용하여 색깔이나 에지 정보를 이용하는 것보다 더욱 정확하게 촬영된 영상으로부터 사물을 구별하는 것을 특징으로 한다.
보다 구체적으로, 본 발명을 이동 전화기에 적용한 실시 예를 통하여 본 발명의 특징을 더욱 상세하게 설명한다. 본 발명은 수학식 2에 의해 알 수 있듯이, 두 카메라의 중심 사이의 거리와 카메라의 포커스 길이 및 양안차에 영향을 받으므 로, 이동 전화기에 어떠한 종류의 카메라를 얼마만큼의 거리 차이로 설치하였느냐에 따라 거리 측정의 정밀도나 거리 측정 범위가 조금씩 변경될 수 있다.
본 실시 예에서는 카메라를 CMOS(Complementary Metal-Oxide Semiconductor) 이미지 센서로 구현하고, 카메라의 포커스 길이가 3mm이며, 두 카메라의 거리를 5cm가 되도록 설치하였다고 가정한다. 만약 CMOS 이미지 센서로 촬영되는 영상의 크기가 (1152×864)이면 영상의 한 픽셀의 크기는 3.2㎛가 되어 영상의 양안차 값을 3.2㎛의 해상도(Resolution)로 검출할 수 있게 된다.
이때 이러한 이동 전화기로 검출할 수 있는 가장 가까운 거리(XL)는 수학식 3과 같이 구할 수 있다.
XL = (L × f) / (이미지 센서의 폭)
여기서 단위는 cm이고, 이동 전화기로 검출할 수 있는 가장 가까운 거리에 물체가 위치할 때 양안차는 최대일 것이므로 이 때의 양안차 값은 영상의 가로 픽셀의 길이 즉, 이미지 센서의 폭이 된다.
변수의 값을 대입하면, XL = (5 × 0.3) / (1152 × 0.00032) 이므로, 이동 전화기로 검출할 수 있는 가장 가까운 거리는 약 5cm이다.
또한, 이러한 이동 전화기로 검출할 수 있는 가장 먼 거리(XH)는 수학식 4와 같이 구할 수 있다.
XL = (L × f) / (한 픽셀의 크기)
여기서 단위는 cm이고, 이동 전화기로 검출할 수 있는 가장 먼 거리에 물체가 위치할 때 양안차는 최소일 것이므로 이 때의 양안차 값은 픽셀 하나의 길이가 된다.
변수의 값을 대입하면, XL = (5 × 0.3) / (0.00032) 이므로, 이동 전화기로 약 46m까지의 거리를 구분할 수 있다. 그 이상의 거리는 가장 먼 위치의 영상과 같은 위치에 촬영되므로 원거리를 제거하는 경우에는 영향을 받지 않는다.
한편, 수학식 2를 면밀히 살펴보면, 가까운 거리일수록 세밀하게 측정할 수 있고 먼 거리일수록 해상도가 낮아지는 것을 알 수 있다. 하지만 이동 전화기로 화상 통화를 하는 경우에는 사람과 카메라가 장착되어 있는 이동 전화기 사이의 거리가 일반적으로 사람의 팔 길이 이상을 넘지 않을 것이므로 충분한 해상도를 확보할 수 있다. 이를 식으로 검증해 보면, 사람이 화상 통화를 할 경우 카메라와 사람 사이의 거리가 대략 30cm라고 하면, 수학식 2에 의해 양안차는 0.5mm가 되고, 한 픽셀의 크기가 3.2㎛이므로 대략 2mm 정도의 거리 차이를 구분해 낼 수 있는 해상도를 확보할 수 있다. 다시 말해서 화상 통화를 하는 사람이 위치하는 근방의 거리 정보는 2mm정도의 차이까지 구분해 낼 수 있다는 말이 된다. 본 발명은 이러한 특징을 이용하여 촬영된 영상에서 근소한 거리 차이의 대상까지 구분하여 제거할 수 있다.
한편, 각 픽셀 당 거리 정보가 추출되면, 각 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되는지의 여부를 판단한다(S15). 그리고 해당 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되면 해당 픽셀의 영상을 표시하고(S16), 그렇지 않으면 해당 픽셀 부분에 다른 영상을 합성할 것인지 판단한다(S17). 다른 영상을 합성할 것으로 판단되면, 해당 픽셀에 다른 영상을 합성하여 표시한다(S18). 즉, 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되지 않는 픽셀 부분에 다른 영상을 표시하는 것이다. 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되지 않으면서 해당 픽셀에 다른 영상을 합성할 것으로 판단되지 않으면, 해당 픽셀 부분에 어떠한 영상도 표시하지 않는다(S19). 이를 정리하면, 각 픽셀 당 거리 정보를 추출하여 영상에 표시될 거리의 범위에 포함되지 않을 경우 촬영된 대상을 영상에서 제거하고, 경우에 따라 제거된 영상 부분에 다른 영상을 합성하여 표시하는 것이다. 상술한 과정 S15 내지 S19에 대한 일 예를 프로그램으로 표현하면 다음과 같다.
for (x=0; x<=1152(영상의 가로 픽셀 수); x++)
{
for(y=0; y<=864(영상의 세로 픽셀 수); y++)
{
if( d(x.y)>=Disp_L && d(x,y)<=Disp_H )
{
SetPixel(x,y,image_from_camera(x,y));
}
else
{
SetPixel(x,y,image_from_userdefine(x,y);
}
}
}
여기서 변수는 다음과 같다.
x : 영상에서 x축 방향의 픽셀 위치.
y : 영상에서 y축 방향의 픽셀 위치.
d(x, y) : 좌표 (x, y) 위치에 있는 픽셀의 양안차.
Disp_L : 영상에 나타낼 거리 값 중 최소 거리의 양안차.
Disp_H : 영상에 나타낼 거리 값 중 최대 거리의 양안차.
즉, 상기 프로그램에 의해 영상에 표시되는 거리의 범위(DP)는 Disp_L ≤ DP ≤ Disp_H 이다. 그리고 Disp_L 와 Disp_H 은 영상에 나타낼 대상의 거리 정보만 있다면 수학식 2에 의해 쉽게 계산된다. SetPixel(x,y,image_from_camera(x,y))는 해당 좌표가 DP 내에 있을 경우 카메라에 의해 촬영된 영상을 그대로 나타내는 함수이고, SetPixel(x,y,image_from_userdefine(x,y)는 해당 좌표가 DP 내에 없을 경우 촬영된 영상을 대체하도록 미리 설정된 영상을 나타내는 함수이다.
한편, 일정 거리의 대상을 영상에서 제거하고 영상이 제거된 부분을 다른 영상으로 합성하는데 있어서, 제거될 대상의 거리 설정과 합성될 영상의 설정은 기본값으로 미리 설정되거나 사용자에 의해 설정될 수 있다. 또는 기본값으로 설정된 것을 사용자가 필요에 따라 변경하여 사용할 수도 있다.
예를 들면, 화상 통화 시 이동 전화기를 들고 화상 통화를 하는 사용자는 일반적으로 이동 전화기로부터 대략 15cm~1m 정도의 거리를 두고 화상 통화를 시도한다. 그러므로 두 대의 카메라로부터 양안차를 구하여 이를 거리로 환산하였을 때 15cm~1m 사이의 거리 값을 기본값으로 설정한다. 그리고 촬영된 영상에 대하여 픽셀의 거리 값이 기본값에 해당하면 해당 픽셀은 화면에 나타내고, 나머지 픽셀은 제거하여 이 부분에 기본값으로 설정된 영상이나 사용자가 설정한 영상을 합성하여 화면에 나타낸다.
그리고 사용자가 합성될 영상을 설정할 때에는 화상 통화 이전에 카메라의 미리 보기(Preview) 기능을 통해 일정 거리의 영상이 제거된 화면을 미리 확인하면서 영상에 나타내는 거리 범위를 수동으로 조절할 수 있다. 이때 사용자는 거리 범위를 cm 단위 또는 m 단위로 직접 입력할 수 있고, 이 값은 수학식 2에 의해 양안차 값으로 변환되어 상기 프로그램의 Disp_L 값과 Disp_H 값으로 설정된다.
또는 화면에 거리 범위를 설정하는 부분을 프로그레스 바(Progress Bar) 형태로 구성하여, 사용자가 미리 보기를 통해 제거될 영상의 범위를 눈으로 직접 확인하면서 프로그레스 바를 이용하여 조절할 수도 있다. 이때 Disp_L 값과 Disp_H 값은 프로그레스 바에 맞추어 자동 설정된다. 예를 들어, 화상 통화 시 사무실에서 자신의 모습만 전송하던 사용자가 사무실의 모습까지 전송하되 창 밖으로 보이는 배경은 전송하고 싶지 않다면 통화 중에 프로그레스 바를 이용하여 거리 범위를 조절하여 사무실의 모습까지만 보이도록 설정할 수 있다. 이때 창 밖 배경을 유럽이나 북극 등 다른 영상으로 바꾸어 전송할 수도 있다. 이렇게 거리 범위를 실시간으 로 조절해 가면서 영상을 제거하고 합성하는 것은 종래의 하나의 카메라로 패턴을 인식하는 방법으로는 수행할 수 없다.
도 4는 프로그레스 바를 이용하여 사용자가 배경을 제거하고 제거된 배경에 다른 영상을 합성한 예를 나타낸다.
a는 화면에 나타낼 거리를 멀리 하여 사용자와 배경이 모두 보이는 화면이고, b는 사용자가 프로그레스 바를 이용하여 화면에 나타낼 거리를 좀더 가까이 조절함으로써 사용자만 보이도록 하고 배경은 제거되도록 한 화면이다. c는 사용자만 보이도록 조절된 거리 상태에서 제거된 배경 부분에 다른 배경을 합성한 화면이다.
한편, 화면에 표시되는 화면은 두 대의 카메라 중 하나의 카메라에서 촬영된 영상인 것이 바람직하다. 물론 두 카메라에는 양안차가 존재하여 각 카메라로부터 촬영 대상까지의 거리는 오차가 발생한다. 그러나 본 발명에서 사용하는 거리 정보는 각 카메라로부터 촬영 대상까지의 거리 정보가 아니라, 두 카메라의 중심에서부터 촬영 대상까지의 거리 정보이므로 상기 오차는 문제가 되지 않는다.
도 5는 본 발명에 따라 상술한 바와 같이 거리 정보를 이용하여 영상을 처리하는 장치의 일 실시 예를 나타낸다.
도시된 바와 같이 본 발명에 따른 영상 처리 장치는 제 1 카메라(51), 제 2 카메라(52), 픽셀 맵핑부(53), 거리 정보 추출부(54), 및 영상 합성부(55)를 구비한다.
제 1 카메라(51)와 제 2 카메라(52)는 일정한 거리차를 두고 설치된다. 제 1 카메라(51)에서 촬영된 제 1 영상과 제 2 카메라(52)에서 촬영된 제 2 영상은 픽셀 맵핑부(53)에 저장된다. 제 1 영상과 제 2 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기의 영상인 것이 바람직하며, 양안차를 얻기 위하여 제 1 카메라(51)와 제 2 카메라(52)는 에피폴라 라인을 일치시켜 좌우 대칭이 되도록 설치하는 것이 바람직하다.
픽셀 맵핑부(53)는 제 1 영상과 제 2 영상에서 동일한 대상에 대하여 대응되는 픽셀을 찾아 맵핑한다. 대응되는 픽셀을 맵핑한다는 것은 제 1 영상과 제 2 영상에서 동일한 좌표의 픽셀을 맵핑한다는 것이 아니라, 동일한 대상에 대하여 동일한 모양과 위치에 해당하는 픽셀을 각각 제 1 영상과 제 2 영상에서 찾는다는 것이다. 대응되는 픽셀의 맵핑은 제 1 영상과 제 2 영상을 먼저 버퍼에 넣어두고 서브블록 단위로 상관(Correlation) 값을 구하여 대응되는 픽셀을 찾음으로써 수행된다.
거리 정보 추출부(54)는 픽셀 맵핑부(53)에서 맵핑된 대응되는 픽셀 정보를 이용하여 제 1 영상과 제 2 영상의 양안차를 계산하고 이를 이용하여 촬영된 대상까지의 거리를 계산한다. 여기서 양안차와 거리 정보의 계산은 상술한 바와 같다.
거리 정보 추출부(54)에서 각 픽셀 당 거리 정보가 추출되면, 영상 합성부(55)는 추출된 거리 정보를 이용하여 제거 대상을 영상에서 제거한다. 그리고 경우에 따라 제거된 영상 부분에 다른 영상을 합성한다. 영상 합성부(55)가 일정 거리의 대상을 영상에서 제거하고 영상이 제거된 부분을 다른 영상으로 합성하는데 있어서, 제거될 대상의 거리 설정과 합성될 영상의 설정은 기본값으로 미리 설정되거나 사용자에 의해 설정될 수 있다. 또는 기본값으로 설정된 것을 사용자가 필요에 따라 변경하여 사용할 수도 있다.
화면에 표시되는 화면은 두 대의 카메라 중 하나의 카메라에서 촬영된 영상이다. 물론 두 카메라에는 양안차가 존재하여 각 카메라에서 촬영 대상까지의 거리는 오차가 발생한다. 그러나 본 발명에서 사용하는 거리 정보는 각 카메라로부터 촬영 대상까지의 거리 정보가 아니라, 두 카메라의 중심에서부터 촬영 대상까지의 거리 정보이므로 상기 오차는 문제가 되지 않는다.
이상, 상술한 바와 같은 본 발명은 주로 화상 통신을 할 수 있는 이동 전화기에 적합하다. 이는 사용자가 주로 이동 전화기를 손으로 들고 사용하는데다 이동 전화기에 설치되는 일반적인 카메라의 사양으로 인해 촬영되는 영상의 거리가 제한적이기 때문이다. 이와 비슷하게 본 발명은 PC를 이용한 화상 통신에도 적합하다. PC를 이용한 화상 통신은 사용자가 주로 PC에 설치된 카메라 앞에 앉아 마이크 사용과 함께 이루어지므로, 거리에 변동이 적고 제한적이기 때문이다. 한편, 본 발명은 캠코더(Camcorder)나 방송용 카메라 등을 이용한 동영상 촬영, 정지영상을 찍는 디지털 카메라 등 영상을 촬영하는 장치에는 모두 적용될 수 있다.
본 발명은 상술한 바와 같이 두 대의 카메라를 이용하여 추출한 거리 정보를 통해 일정 거리의 영상을 제거하면, 픽셀 값의 변화나 색의 유사성과 상관없이 정확하게 영상에 표시할 대상만을 추출할 수 있다. 그리고 계산량이 적어 실시간으로 영상을 제거하거나 합성할 수 있다.

Claims (11)

  1. 두 대의 카메라를 이용하여 각각 영상을 촬영하고, 상기 각 영상에 대한 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하고, 추출된 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 것을 특징으로 하는 영상 처리 방법.
  2. 제 1항에 있어서,
    상기 두 대의 카메라를 이용하여 각각 영상을 촬영하는 과정;
    상기 각 영상에 대해 동일한 대상의 대응 픽셀을 맵핑하는 과정;
    상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 양안차를 계산하는 과정;
    상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 과정;
    상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 제거하는 과정; 및
    상기 제거된 영상을 다른 영상으로 합성하는 과정을 포함하는 것을 특징으로 하는 영상 처리 방법.
  3. 제 2항에 있어서,
    상기 두 카메라는 일정 간격으로 떨어져 에피폴라 라인이 일치되도록 설치된 것을 특징으로 하는 영상 처리 방법.
  4. 제 3항에 있어서,
    상기 두 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기의 영상인 것을 특징으로 하는 영상 처리 방법.
  5. 제 4항에 있어서,
    상기 맵핑 과정은, 상기 두 영상에 대하여 서브 블록 단위로 상관 값을 비교하여 수행되는 것을 특징으로 하는 영상 처리 방법.
  6. 제 5항에 있어서,
    상기 촬영 대상까지의 거리 정보는, 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 계산되는 것을 특징으로 하는 영상 처리 방법.
  7. 각각 영상을 촬영하는 두 대의 카메라;
    상기 두 카메라로부터 촬영된 각각의 영상에 대해 동일한 대상의 대응 픽셀을 맵핑하는 픽셀 맵핑부;
    상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 각 영상에 대한 양안차를 계산하고, 상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 거리 정보 추출부; 및
    상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 영상 합성부를 구비하는 것을 특징으로 하는 영상 처리 장치.
  8. 제 7항에 있어서,
    상기 두 카메라는 일정 간격으로 떨어져 에피폴라 라인이 일치되도록 설치된 것을 특징으로 하는 영상 처리 장치.
  9. 제 8항에 있어서,
    상기 두 카메라는 동일한 시각에 동일한 대상을 동일한 크기의 영상으로 촬영하는 것을 특징으로 하는 영상 처리 장치.
  10. 제 9항에 있어서,
    상기 픽셀 맵핑부는, 상기 두 영상에 대하여 서브 블록 단위로 상관 값을 비교하여 상기 대응 픽셀을 맵핑하는 것을 특징으로 하는 영상 처리 장치.
  11. 제 10항에 있어서,
    상기 거리 정보 추출부는, 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 상기 촬영 대상까지의 거리 정보를 계산하는 것을 특징으로 하는 영상 처리 장치.
KR1020040102386A 2004-12-07 2004-12-07 영상 처리 방법 및 장치 KR20060063265A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040102386A KR20060063265A (ko) 2004-12-07 2004-12-07 영상 처리 방법 및 장치
US11/296,665 US20060120712A1 (en) 2004-12-07 2005-12-07 Method and apparatus for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040102386A KR20060063265A (ko) 2004-12-07 2004-12-07 영상 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20060063265A true KR20060063265A (ko) 2006-06-12

Family

ID=36574327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040102386A KR20060063265A (ko) 2004-12-07 2004-12-07 영상 처리 방법 및 장치

Country Status (2)

Country Link
US (1) US20060120712A1 (ko)
KR (1) KR20060063265A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101052221B1 (ko) * 2008-06-13 2011-07-29 가부시키가이샤 신가와 압착볼 직경 검출 장치 및 방법
KR101400400B1 (ko) * 2012-09-28 2014-05-27 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
TW200834471A (en) * 2007-02-15 2008-08-16 Ind Tech Res Inst Image filling methods, and machine readable medium thereof
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US8723912B2 (en) * 2010-07-06 2014-05-13 DigitalOptics Corporation Europe Limited Scene background blurring including face modeling
GB2483434A (en) * 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
KR101640404B1 (ko) * 2010-09-20 2016-07-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8520080B2 (en) 2011-01-31 2013-08-27 Hand Held Products, Inc. Apparatus, system, and method of use of imaging assembly on mobile terminal
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
KR101778353B1 (ko) 2011-06-10 2017-09-13 플리어 시스템즈, 인크. 적외선 이미징 장치용 불균일성 교정 기술
EP2719166B1 (en) 2011-06-10 2018-03-28 Flir Systems, Inc. Line based image processing and flexible memory system
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
KR102065410B1 (ko) * 2013-09-04 2020-01-13 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
JP6565188B2 (ja) * 2014-02-28 2019-08-28 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6561512B2 (ja) * 2014-03-27 2019-08-21 株式会社リコー 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
CN106471803A (zh) * 2014-12-04 2017-03-01 深圳市大疆创新科技有限公司 成像***及方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751927A (en) * 1991-03-26 1998-05-12 Wason; Thomas D. Method and apparatus for producing three dimensional displays on a two dimensional surface
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
JP4392060B2 (ja) * 1995-12-19 2009-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視差深度依存画素シフト
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
US5940139A (en) * 1996-08-07 1999-08-17 Bell Communications Research, Inc. Background extraction in a video picture
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6865289B1 (en) * 2000-02-07 2005-03-08 Canon Kabushiki Kaisha Detection and removal of image occlusion errors
US6671399B1 (en) * 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
AU2001250802A1 (en) * 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP4313560B2 (ja) * 2001-10-31 2009-08-12 パナソニック株式会社 携帯電話
EP1600898B1 (en) * 2002-02-05 2018-10-17 Panasonic Intellectual Property Management Co., Ltd. Personal authentication method, personal authentication apparatus and image capturing device
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
JP2004165943A (ja) * 2002-11-13 2004-06-10 Fujitsu Ltd 携帯電子機器及びその撮影方法
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US7146036B2 (en) * 2003-02-03 2006-12-05 Hewlett-Packard Development Company, L.P. Multiframe correspondence estimation
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
GB2407635B (en) * 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
US7623674B2 (en) * 2003-11-05 2009-11-24 Cognex Technology And Investment Corporation Method and system for enhanced portal security through stereoscopy
US20050140670A1 (en) * 2003-11-20 2005-06-30 Hong Wu Photogrammetric reconstruction of free-form objects with curvilinear structures
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101052221B1 (ko) * 2008-06-13 2011-07-29 가부시키가이샤 신가와 압착볼 직경 검출 장치 및 방법
KR101400400B1 (ko) * 2012-09-28 2014-05-27 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법

Also Published As

Publication number Publication date
US20060120712A1 (en) 2006-06-08

Similar Documents

Publication Publication Date Title
KR20060063265A (ko) 영상 처리 방법 및 장치
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
US7623733B2 (en) Image combination device, image combination method, image combination program, and recording medium for combining images having at least partially same background
CN108600576B (zh) 图像处理装置、方法和***以及计算机可读记录介质
JP5178553B2 (ja) 撮像装置
KR101354899B1 (ko) 파노라마 사진 촬영 방법
EP2199978B1 (en) Image capturing apparatus having subject cut-out function
KR100657522B1 (ko) 휴대용 단말기를 이용한 아웃 포커싱 촬영 장치 및 방법
KR101663321B1 (ko) 파노라마 사진 촬영 방법
WO2014023231A1 (zh) 宽视场超高分辨率光学成像***及方法
JP2015012480A (ja) 画像処理装置及び画像処理方法
US8269819B2 (en) Image generating apparatus for generating three-dimensional image having high visibility
JP2001005948A (ja) 虹彩撮像装置
TWI394085B (zh) 辨識被攝主體之維度形態的方法
KR20120118144A (ko) 촬영 장치에서 피사체를 촬영하기 위한 장치 및 방법
JP2009176208A (ja) 顔認証装置、システム、方法及びプログラム
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP5247338B2 (ja) 画像処理装置及び画像処理方法
WO2018196854A1 (zh) 一种拍照方法、拍照装置及移动终端
JPH09305796A (ja) 画像情報処理装置
JP7021036B2 (ja) 電子機器及び通知方法
JP2009159525A (ja) 撮像装置及び画像合成プログラム
JP6367037B2 (ja) 画像処理装置、画像処理プログラム、電子機器及び画像処理方法
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP2015035070A (ja) 画像照合装置、画像照合方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
E801 Decision on dismissal of amendment
J201 Request for trial against refusal decision
AMND Amendment
E801 Decision on dismissal of amendment
B601 Maintenance of original decision after re-examination before a trial
S901 Examination by remand of revocation
E902 Notification of reason for refusal
S601 Decision to reject again after remand of revocation