KR100918544B1 - 화상 처리 장치 및 방법, 및 촬상 장치 - Google Patents

화상 처리 장치 및 방법, 및 촬상 장치 Download PDF

Info

Publication number
KR100918544B1
KR100918544B1 KR1020037002803A KR20037002803A KR100918544B1 KR 100918544 B1 KR100918544 B1 KR 100918544B1 KR 1020037002803 A KR1020037002803 A KR 1020037002803A KR 20037002803 A KR20037002803 A KR 20037002803A KR 100918544 B1 KR100918544 B1 KR 100918544B1
Authority
KR
South Korea
Prior art keywords
foreground
image
background
component
pixel
Prior art date
Application number
KR1020037002803A
Other languages
English (en)
Other versions
KR20040014950A (ko
Inventor
데쯔지로 곤도
준이찌 이시바시
다까시 사와오
다까히로 나가노
나오끼 후지와라
도루 미야께
세이지 와다
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20040014950A publication Critical patent/KR20040014950A/ko
Application granted granted Critical
Publication of KR100918544B1 publication Critical patent/KR100918544B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 화상의 혼합 상태에 대응하여, 2차원 화상에서 3차원 화상을 생성할 수 있도록 한다. 전경 배경 성분 화상 생성부(91)는, 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성한다. 전경 시차 화상 생성부(93)는, 전경 성분 화상에 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 전경 성분 화상에 시차를 부가하여 좌안용 전경 시차 화상을 생성한다. 합성부(94-1 및 94-2)는 우안용 전경 시차 화상과 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상을 생성한다. 본 발명은 화상 처리 장치에 적용할 수 있다.
Figure R1020037002803
전경 성분 화상, 배경 성분 화상, 시차 화상, 혼합 영역, 혼합비, 움직임 불선명, 백그라운드 영역

Description

화상 처리 장치 및 방법, 및 촬상 장치{IMAGE PROCESSING APPARATUS AND METHOD AND IMAGE PICKUP APPARATUS}
본 발명은 화상 처리 장치 및 방법, 및 촬상 장치에 관한 것으로, 특히, 센서에 의해 검출한 신호와 현실 세계의 차이를 고려한 화상 처리 장치 및 방법, 및 촬상 장치에 관한 것이다.
종래, 현실 세계에서의 사상을 센서로 검출하여, 화상 센서가 출력하는 샘플링 데이터를 처리하는 기술이 널리 이용되고 있다.
예를 들면, 정지하고 있는 소정의 배경의 앞에서 이동하는 물체를 비디오 카메라로 촬상하여 얻어지는 화상에는, 물체의 이동 속도가 비교적 빠른 경우, 움직임 불선명이 생기게 된다.
또한, 2차원 화상을 3차원 화상으로 변환하는 기술이 있다. 예를 들면, 2차원 화상의 1필드 화면 내를 복수의 영역으로 분할하고, 각 영역에서 추출된 특징 정보, 즉 깊이 정보에 기초하여 수평 시차량을 연산하고, 그 수평 시차량에 따라서 생성된 제1 화상과 제2 화상을 표시함으로써 3차원 화상을 표시하는 것은, 일본 특허 공개 평성10-51812호 공보에 기재되어 있다.
그러나, 정지하고 있는 배경 앞에서 물체가 이동할 때, 이동하는 물체의 화 상 자신의 혼합에 의한 움직임 불선명 뿐만 아니라, 배경 화상과 이동하는 물체 화상의 혼합이 생긴다. 종래에는 배경 화상과 이동하는 물체 화상의 혼합 상태에 대응하는 처리는, 생각되고 있지 않았다.
<발명의 개시>
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 화상의 혼합 상태에 대응하여, 2차원 화상으로부터 3차원 화상을 생성할 수 있도록 하는 것을 목적으로 한다.
본 발명의 화상 처리 장치는, 전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 수단과, 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 수단과, 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 수단을 포함하는 것을 특징으로 한다.
화상 처리 장치는, 전경 배경 성분 화상 생성 수단에 의해 생성된 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 수단을 더 마련할 수 있다.
전경 배경 성분 화상 생성 수단에, 화상 데이터의, 전경 영역과, 배경 영역과, 혼합 영역을 특정하는 영역 특정 수단과, 전경 영역, 배경 영역, 및 혼합 영역의 특정 결과에 기초하여, 혼합 영역에서의 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단을 마련할 수 있다.
전경 배경 성분 화상 생성 수단에, 혼합비에 기초하여, 혼합 영역에 속하는 화소를, 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하고, 분리된 전경 오브젝트 성분 및 배경 오브젝트 성분을 기초로, 전경 성분 화상 및 배경 성분 화상을 생성하는 전경 배경 분리 수단을 더 마련할 수 있다.
본 발명의 화상 처리 방법은, 전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 단계와, 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 단계와, 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 단계를 포함하는 것을 특징으로 한다.
화상 처리 방법은, 전경 배경 성분 화상 생성 단계의 처리에 의해 생성된 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 단계를 더 마련할 수 있다.
전경 배경 성분 화상 생성 단계에, 화상 데이터의, 전경 영역과, 배경 영역과, 혼합 영역을 특정하는 영역 특정 단계와, 전경 영역, 배경 영역, 및 혼합 영역의 특정 결과에 기초하여, 혼합 영역에서의 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 단계를 마련할 수 있다.
전경 배경 성분 화상 생성 단계에, 혼합비에 기초하여, 혼합 영역에 속하는 화소를, 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하고, 분리된 전경 오브젝트 성분 및 배경 오브젝트 성분을 기초로, 전경 성분 화상 및 배경 성분 화상을 생성하는 전경 배경 분리 단계를 더 마련할 수 있다.
본 발명의 기록 매체의 프로그램은, 전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 단계와, 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 단계와, 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 단계를 포함하는 것을 특징으로 한다.
기록 매체의 프로그램은, 전경 배경 성분 화상 생성 단계의 처리에 의해 생성된 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 단계를 더 마련할 수 있다.
전경 배경 성분 화상 생성 단계에, 화상 데이터의, 전경 영역과, 배경 영역과, 혼합 영역을 특정하는 영역 특정 단계와, 전경 영역, 배경 영역, 및 혼합 영역의 특정 결과에 기초하여, 혼합 영역에서의 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 단계를 마련할 수 있다.
전경 배경 성분 화상 생성 단계에, 혼합비에 기초하여, 혼합 영역에 속하는 화소를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하고, 분리된 전경 오브젝트 성분 및 배경 오브젝트 성분을 기초로, 전경 성분 화상 및 배경 성분 화상을 생성하는 전경 배경 분리 단계를 더 마련할 수 있다.
본 발명의 프로그램은, 컴퓨터에, 전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 단계와, 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 단계와, 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 단계를 실행시키는 것을 특징으로 한다.
프로그램은, 전경 배경 성분 화상 생성 단계의 처리에 의해 생성된 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 단계를 더 마련할 수 있다.
전경 배경 성분 화상 생성 단계에, 화상 데이터의, 전경 영역과, 배경 영역과, 혼합 영역을 특정하는 영역 특정 단계와, 전경 영역, 배경 영역, 및 혼합 영역의 특정 결과에 기초하여, 혼합 영역에서의 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 단계를 마련할 수 있다.
전경 배경 성분 화상 생성 단계에, 혼합비에 기초하여, 혼합 영역에 속하는 화소를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하고, 분리된 전경 오브젝트 성분 및 배경 오브젝트 성분을 기초로, 전경 성분 화상 및 배경 성분 화상을 생성하는 전경 배경 분리 단계를 더 마련할 수 있다.
본 발명의 촬상 장치는, 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 수단과, 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 수단과, 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 수단을 포함하는 것을 특징으로 한다.
촬상 장치는, 전경 배경 성분 화상 생성 수단에 의해 생성된 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 수단을 더 마련할 수 있다.
전경 배경 성분 화상 생성 수단에, 화상 데이터의, 전경 영역과, 배경 영역과, 혼합 영역을 특정하는 영역 특정 수단과, 전경 영역, 배경 영역, 및 혼합 영역의 특정 결과에 기초하여, 혼합 영역에서의 전경 오브젝트 성분과 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단을 마련할 수 있다.
전경 배경 성분 화상 생성 수단에, 혼합비에 기초하여, 혼합 영역에 속하는 화소를 전경 오브젝트 성분과 배경 오브젝트 성분으로 분리하고, 분리된 전경 오브젝트 성분 및 배경 오브젝트 성분을 기초로, 전경 성분 화상 및 배경 성분 화상을 생성하는 전경 배경 분리 수단을 더 마련할 수 있다.
전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 전경 오브젝트 성분 및 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 화상 데이터로부터, 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상이 생성되고, 전경 성분 화상에 대하여 우안용의 시차가 부가되어 우안용 전경 시차 화상이 생성됨과 함께, 전경 성분 화상에 대하여 좌안용의 시차가 부가되어 좌안용 전경 시차 화상이 생성되고, 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상이 생성됨과 함께, 좌안용 전경 시차 화상과 배경 화상을 합성하여 좌안용 시차 화상이 생성된다.
이에 따라, 화상의 혼합 상태에 대응하여, 2차원 화상으로부터 3차원 화상을 생성할 수 있도록 된다.
도 1은 본 발명에 따른 화상 처리 장치의 일 실시 형태를 나타내는 도면.
도 2는 화상 처리 장치의 구성을 나타내는 블록도.
도 3은 시차를 설명하는 도면.
도 4는 시차를 설명하는 도면.
도 5는 화상의 이동을 설명하는 도면.
도 6은 3차원 화상 합성 처리부(73)의 구성을 나타내는 블록도.
도 7은 전경 배경 성분 화상 생성부(91)를 나타내는 블록도.
도 8은 센서에 의한 촬상을 설명하는 도면.
도 9는 화소의 배치를 설명하는 도면.
도 10은 검출 소자의 동작을 설명하는 도면.
도 11A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 11B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상의 모델을 설명하는 도면.
도 12는 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면.
도 13은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도.
도 14는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 15는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 16은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 17은 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 나타내는 도면.
도 18은 화소와 화소값을 시간 방향으로 전개한 모델과의 대응을 나타내는 도면.
도 19는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 20은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 21은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 22는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 23은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 24는 3차원 화상의 합성 처리를 설명하는 흐름도.
도 25는 오브젝트의 분리 처리를 설명하는 흐름도.
도 26은 영역 특정부(103)의 구성 일례를 나타내는 블록도.
도 27은 전경에 대응하는 오브젝트가 이동하고 있을 때의 화상을 설명하는 도면.
도 28은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 29는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 30은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 31은 영역 판정의 조건을 설명하는 도면.
도 32A는 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면.
도 32B는 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면.
도 32C는 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면.
도 32D는 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면.
도 33은 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면.
도 34는 영역 특정한 처리를 설명하는 흐름도.
도 35는 영역 특정부(103)의 구성의 다른 일례를 나타내는 블록도.
도 36은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 37은 배경 화상의 예를 나타내는 도면.
도 38은 2치 오브젝트 화상 추출부(302)의 구성을 나타내는 블록도.
도 39A는 상관값의 산출을 설명하는 도면.
도 39B는 상관값의 산출을 설명하는 도면.
도 40A는 상관값의 산출을 설명하는 도면.
도 40B는 상관값의 산출을 설명하는 도면.
도 41은 2치 오브젝트 화상의 예를 나타내는 도면.
도 42는 시간 변화 검출부(303)의 구성을 나타내는 블록도.
도 43은 영역 판정부(342)의 판정을 설명하는 도면.
도 44는 시간 변화 검출부(303)의 판정이 예를 나타내는 도면.
도 45는 영역 판정부(103)의 영역 특정 처리를 설명하는 흐름도.
도 46은 영역 판정 처리의 상세를 설명하는 흐름도.
도 47은 영역 특정부(103)의 또 다른 구성을 나타내는 블록도.
도 48은 로버스트화부(361)의 구성을 설명하는 블록도.
도 49는 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 50은 움직임 보상부(381)의 움직임 보상을 설명하는 도면.
도 51은 영역 특정 처리를 설명하는 흐름도.
도 52는 로버스트화 처리의 상세를 설명하는 흐름도.
도 53은 혼합비 산출부(104)의 구성 일례를 나타내는 블록도.
도 54는 이상적인 혼합비 α의 예를 나타내는 도면.
도 55는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 56은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 57은 전경의 성분의 상관을 이용한 근사를 설명하는 도면.
도 58은 C, N, 및 P의 관계를 설명하는 도면.
도 59는 추정 혼합비 처리부(401)의 구성을 나타내는 블록도.
도 60은 추정 혼합비의 예를 나타내는 도면.
도 61은 혼합비 산출부(104)의 다른 구성을 나타내는 블록도.
도 62는 혼합비의 산출 처리를 설명하는 흐름도.
도 63은 추정 혼합비의 연산 처리를 설명하는 흐름도.
도 64는 혼합비 α를 근사하는 직선을 설명하는 도면.
도 65는 혼합비 α를 근사하는 평면을 설명하는 도면.
도 66은 혼합비 α를 산출할 때의 복수의 프레임 화소의 대응을 설명하는 도면.
도 67은 혼합비 추정 처리부(401)의 다른 구성을 나타내는 블록도.
도 68은 추정 혼합비의 예를 나타내는 도면.
도 69는 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리를 설명하는 흐름도.
도 70은 전경 배경 분리부(105)의 구성 일례를 나타내는 블록도.
도 71A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 나타내는 도면.
도 71B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상의 모델을 나타내는 도면.
도 72는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 73은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 74는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 75는 분리부(601)의 구성 일례를 나타내는 블록도.
도 76A는 분리된 전경 성분 화상의 예를 나타내는 도면.
도 76B는 분리된 배경 성분 화상의 예를 나타내는 도면.
도 77은 전경과 배경의 분리 처리를 설명하는 흐름도.
도 78은 움직임 불선명 조정부(106)의 구성 일례를 나타내는 블록도.
도 79는 처리 단위를 설명하는 도면.
도 80은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 81은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 82는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 83은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 84는 움직임 불선명 조정부(106)의 다른 구성을 나타내는 도면.
도 85는 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 량의 조정 처리를 설명하는 흐름도.
도 86은 움직임 불선명 조정부(106)의 구성의 다른 일례를 나타내는 블록도.
도 87은 화소값과 전경의 성분의 것의 대응을 지정하는 모델예를 나타내는 도면.
도 88은 전경 성분의 산출을 설명하는 도면.
도 89는 전경 성분의 산출을 설명하는 도면.
도 90은 전경의 움직임 불선명의 제거 처리를 설명하는 흐름도.
도 91은 오브젝트의 예를 나타내는 도면.
도 92는 오브젝트의 예를 나타내는 도면.
도 93은 혼합 영역의 예를 나타내는 도면.
도 94A는 배경 성분 화상의 보정을 설명하는 도면.
도 94B는 배경 성분 화상의 보정을 설명하는 도면.
도 95는 전경 시차 화상 생성부(93)의 구성을 나타내는 블록도.
도 96은 합성부(94)의 구성을 나타내는 블록도.
도 1은 본 발명에 따른 화상 처리 장치의 일 실시 형태를 나타내는 도면이다. CPU(Central processing Unit)(21)는 ROM(Read Only Memory)(22), 또는 기억부(28)에 기억되어 있는 프로그램에 따라서 각종 처리를 실행한다. RAM(Random Access Memory)(23)에는 CPU(21)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(21), ROM(22), 및 RAM(23)은 버스(24)에 의해 서로 접속되어 있다.
CPU(21)에는 또한 버스(24)를 통해 입출력 인터페이스(25)가 접속되어 있다. 입출력 인터페이스(25)에는 키보드, 마우스, 마이크로폰 등으로 이루어지는 입력부(26), 디스플레이, 스피커 등으로 이루어지는 출력부(27)가 접속되어 있다. CPU(21)는 입력부(26)로부터 입력되는 명령에 대응하여 각종 처리를 실행한다. 그리고, CPU(21)는 처리의 결과 얻어진 화상이나 음성 등을 출력부(27)로 출력한다.
입출력 인터페이스(25)에 접속되어 있는 기억부(28)는, 예를 들면 하드디스크 등으로 구성되고, CPU(21)가 실행하는 프로그램이나 각종 데이터를 기억한다. 통신부(29)는 인터넷, 그 밖의 네트워크를 통해 외부의 장치와 통신한다. 이 예의 경우, 통신부(29)는 센서의 출력을 취득하는 취득부로서 기능한다.
또한, 통신부(29)를 통해 프로그램을 취득하여 기억부(28)에 기억해도 된다. 입출력 인터페이스(25)에 접속되어 있는 드라이브(30)는, 자기 디스크(51), 광 디 스크(52), 광 자기 디스크(53), 혹은 반도체 메모리(54) 등이 장착되었을 때, 이들을 구동하여, 거기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는 필요에 따라서 기억부(28)에 전송되어 기억된다.
도 2는 화상 처리 장치의 구성을 나타내는 블록도이다.
또, 화상 처리 장치의 각 기능을 하드웨어로 실현하거나, 소프트웨어로 실현하거나 하는 것은 상관없다. 즉, 본 명세서의 각 블록도는 하드웨어의 블록도라고 생각해도 되고, 소프트웨어에 의한 기능 블록도라고 생각해도 된다.
본 명세서에서는 촬상의 대상이 되는, 현실 세계에서의 오브젝트에 대응하는 화상을, 화상 오브젝트라고 칭한다.
화상 처리 장치에 입력된 입력 화상은 거리 정보 취득부(71) 및 3차원 화상 합성 처리부(73)에 공급된다.
거리 정보 취득부(71)는 입력 화상을 기초로, 센서에서 전경에 대응하는 오브젝트까지의 거리를 취득한다.
일반적인 화상에 있어서, 전경에 대응하는 오브젝트는 배경 오브젝트의 앞에 위치하고, 센서의 핀트는 전경에 대응하는 오브젝트에 맞추어 있다. 따라서, 전경에 대응하는 오브젝트의 화상은, 배경 오브젝트의 화상에 비교하여 고주파 성분을 많이 포함한다. 마찬가지로, 전경에 대응하는 오브젝트의 화상의 휘도 및 채도는, 배경 오브젝트의 화상에 비교하여 높다.
오브젝트의 화상에 포함되는 고주파 성분의 량, 또는 오브젝트의 화상의 휘도 혹은 채도에 소정의 계수를 승산함으로써, 센서에서 오브젝트까지의 거리를 구 할 수 있다.
거리 정보 취득부(71)는 예를 들면, 오브젝트의 화상에 포함되는 고주파 성분의 량, 및 오브젝트 화상의 휘도 및 채도를 기초로 오브젝트까지의 거리를 나타내는 거리 정보를 생성한다.
거리 정보 취득부(71)는, 센서에서 전경에 대응하는 오브젝트까지의 거리를 나타내는 거리 정보를 생성하여, 생성한 거리 정보를 시차 연산부(72)에 공급한다.
시차 연산부(72)는 거리 정보 취득부(71)로부터 공급된 거리 정보를 기초로, 전경 오브젝트에 대응하는 시차를 연산하여, 구해진 시차를 3차원 화상 합성 처리부(73)에 공급한다.
3차원 화상 합성 처리부(73)는 입력 화상을, 전경 오브젝트에 대응하는 화상의 성분(이하, 전경 성분이라고도 칭함)만으로 이루어지는 전경 성분 화상과, 배경 오브젝트에 대응하는 화상의 성분(이하, 배경 성분이라고도 칭함)만으로 이루어지는 배경 성분 화상으로 분리한다. 3차원 화상 합성 처리부(73)는 전경 성분 화상, 배경 성분 화상, 및 시차 연산부(72)로부터 공급된 시차를 기초로, 우안용 화상(우안용 시차 화상이라고도 칭함) 및 좌안용 화상(좌안용 시차 화상이라고도 칭함)을 생성하여, 생성한 우안용 화상 및 좌안용 화상을 출력한다.
다음에, 3차원 화상 및 시차에 대하여 설명한다.
도 3에 도시한 바와 같이, 현실 세계에 있어서, 오브젝트를 보았을 때, 오브젝트까지의 거리에 대응하여, 우안에 보이는 오브젝트의 위치와, 좌안에 보이는 오브젝트의 위치는 서로 다르다. 우안에 보이는 오브젝트의 위치와, 좌안에 보이는 오브젝트의 위치와의 차이를 시차라고 칭한다. 도 3에 있어서, A는 오브젝트를 나타내고, B는 우안(右眼)을 나타내고, C는 좌안(左眼)을 나타낸다. 도 3에 있어서, D는 시차를 나타낸다.
3차원 화상에서는 시차에 대응하는 위치에 표시되어 있는 우안용의 오브젝트 화상을 우측 눈에 보여주고, 시차에 대응하는 위치에 표시되어 있는 좌안용의 오브젝트 화상을 좌측 눈에 보여줌으로써, 사용자에게 오브젝트까지의 거리를 인식시킬 수 있다.
도 4를 참조하여, 시차에 대하여 보다 상세히 설명한다.
도 4에 있어서, x는 표시면의 가로 방향의 좌표를 나타내고, y는 표시면과 수직인, 깊이의 좌표를 나타내며, z는 표시면의 세로 방향의 좌표를 나타낸다.
P0은 관찰자(사용자)의 양 눈의 중심 위치를 나타낸다.
E는 눈 사이의 길이를 나타낸다. PER은 우안의 위치를 나타내고, PEL은 우안의 위치를 나타낸다. PER의 좌표는 (X0, Y0, Z0)으로 나타내고, PEL의 좌표는 (X1, Y1, Z1)으로 나타낸다.
PD는 표시면과 시축의 교점을 나타낸다. PD의 좌표는 (Xd, Yd, Zd)으로 나타낸다.
PDR은 좌안용 화상 제시 위치를 나타내고, PDL은 우안용 화상 제시 위치를 나타낸다. PDR의 좌표는 (X2, Y2, Z2)으로 나타내고, PDL의 좌표는 (X3, Y3, Z3)으로 나타낸다.
P는 표시되는 오브젝트의 위치를 나타낸다. P의 좌표는 (Xp, Yp, Zp)으로 나타낸다.
W는 오브젝트의 표시면 상의 시차를 나타낸다.
관찰자에 의해서, 지각되는 오브젝트의 좌표 P(Xp, Yp, Zp)는 우안의 좌표 PER과 표시면 상에 제시되는 우안용 화상 제시 위치 PDL을 연결하는 선분 Lr과, 좌안의 좌표 PEL과 표시면 상에 제시되는 좌안용 화상 제시 위치 PDR을 연결하는 선분 Ll과의 교점으로서 구해진다.
선분 Lr은 수학식 1로 표현되고, 선분 Ll은 수학식 2로 표현된다.
Figure 112003006661253-pct00001
Figure 112003006661253-pct00002
따라서, 선분 Lr와 선분 Ll의 교점인 P의 좌표는 수학식 3 내지 수학식 5로 표현된다.
Figure 112003006661253-pct00003
Figure 112003006661253-pct00004
Figure 112003006661253-pct00005
수학식 3 내지 수학식 5에서의 Tfix는 수학식 6으로 표현된다.
Figure 112003006661253-pct00006
다음에, 표시면의 중심에서 Y방향으로 거리 K만큼 떨어진 위치에서 본 화상을 생각한다. 표시면과 시축의 교점 좌표를 X, Y, Z 좌표의 원점으로 하면, PO의 좌표, PD의 좌표, PER의 좌표, PEL의 좌표, PDR의 좌표, 및 PDL의 좌표는 다음과 같이 나타낼 수 있다.
즉, PO의 좌표는 (0, K, 0)으로 나타낼 수 있다. PD의 좌표(Xd, Yd, Zd)는 (0, O, 0)으로 나타낼 수 있다. PER의 좌표(X0, Y0, Z0)는 (E, K, 0)으로 나타낼 수 있다. PEL의 좌표(X1, Y1, Z1)는 (-E, K, 0)으로 나타낼 수 있다.
마찬가지로, PDR의 좌표(X2, Y2, Z2)는 (W/2, 0, 0)으로 나타낼 수 있다. PDL의 좌표(X3, Y3, Z3)는 (-W/2, 0, 0)으로 나타낼 수 있다.
이들의 관계를 수학식 3 내지 수학식 5에 대입하면, 수학식 7 내지 수학식 9를 구할 수 있다.
Figure 112003006661253-pct00007
Figure 112003006661253-pct00008
Figure 112003006661253-pct00009
도 5에 도시한 바와 같이, 오브젝트의 거리에 대응하여, 시차를 산출하고, 시차에 대응하여 이동시킨 우안용의 오브젝트의 화상을 관찰자의 우안에 보여주고, 시차에 대응하여 이동시킨 좌안용의 오브젝트의 화상을 관찰자의 좌안에 보여줌으로써, 사용자에게 오브젝트까지의 거리를 인식시킬 수 있다. 도 5에 있어서, A는 오브젝트를 나타내고, B는 입력 화상을 나타내고, C는 좌안용 화상을 나타내고, D는 우안용 화상을 나타낸다. 도 5에 있어서, E로 나타내는 화살표는 시차에 대응하는 이동을 나타내고, F로 나타내는 화살표는 시차에 대응하는 이동을 나타낸다.
도 2로 되돌아가, 거리 정보 취득부(71)는 오브젝트까지의 거리를 취득하여, 오브젝트까지의 거리를 나타내는 거리 정보를 시차 연산부(72)에 공급한다.
시차 연산부(72)는 수학식 7 내지 수학식 9에 나타내는 연산을 기초로, 오브젝트까지의 거리로부터 시차를 연산하고, 연산된 시차를 3차원 화상 합성 처리부(73)에 공급한다.
3차원 화상 합성 처리부(73)는 시차 연산부(72)로부터 공급된 시차를 기초로 우안용 화상 및 좌안용 화상을 생성한다.
도 6은 3차원 화상 합성 처리부(73)의 구성을 나타내는 블록도이다.
전경 배경 성분 화상 생성부(91)는 입력 화상을 기초로, 혼합 영역에 포함되는 화소에 대응하는 혼합비(이하, 혼합비 α라고 함)를 산출한다. 전경 배경 성분 화상 생성부(91)는 산출한 혼합비 α를 오클루젼(occlusion) 보정부(92)에 공급한다.
혼합비 α는 후술하는 수학식 12에 나타낸 바와 같이, 화소값에 있어서의, 배경 오브젝트에 대응하는 배경 성분의 비율을 나타내는 값이다.
전경 배경 성분 화상 생성부(91)는, 전경 오브젝트에 대응하는 전경 성분만으로 이루어지는 전경 성분 화상과, 배경 오브젝트에 대응하는 배경 성분만으로 이루어지는 배경 성분 화상으로 입력 화상을 분리하여, 배경 성분 화상을 오클루젼 보정부(92)에 공급한다.
전경 배경 성분 화상 생성부(91)는, 분리된 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 량이 조정된 전경 성분 화상을 전경 시차 화상 생성부(93)에 공급한다.
전경 배경 성분 화상 생성부(91)는, 움직임 불선명의 량이 조정된 전경 성분 화상에 대응하는, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는지를 나타내는 정보(이하, 영역 정보와 칭함)를 전경 시차 화상 생성부(93)에 공급한다. 전경 영역, 배경 영역, 및 혼합 영역의 상세에 대해서는 후술한다.
전경 배경 성분 화상 생성부(91)는 움직임 불선명의 량이 조정된 전경 성분 화상에 대응하는 혼합비 α를 산출하여, 산출한 혼합비 α를 전경 시차 화상 생성부(93)에 공급한다.
오클루젼 보정부(92)는 전경 배경 성분 화상 생성부(91)로부터 공급된 혼합비 α를 기초로, 배경 성분 화상 중, 전경 오브젝트의 음영으로 되어 있는 화상 및 전경 오브젝트와 혼합되어 있던 화상을 보정하여, 보정된 배경 성분 화상을 합성부(94-1 및 94-2)에 공급한다.
전경 시차 화상 생성부(93)는 시차 연산부(72)로부터 공급된 시차, 및 전경 배경 성분 화상 생성부(91)로부터 공급된 영역 정보 및 혼합비 α를 기초로, 우안용 전경 성분 화상(우안용 전경 시차 화상이라고도 칭함)을 생성함과 함께, 우안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성한다. 전경 시차 화상 생성부(93)는, 우안용 전경 성분 화상, 및 우안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 합성부(94-1)에 공급한다.
전경 시차 화상 생성부(93)는, 시차 연산부(72)로부터 공급된 시차, 및 전경 배경 성분 화상 생성부(91)로부터 공급된 영역 정보 및 혼합비 α를 기초로, 좌안용 전경 성분 화상(좌안용 전경 시차 화상이라고도 칭함)을 생성함과 함께, 좌안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성한다. 전경 시차 화상 생성부(93)는 좌안용 전경 성분 화상, 및 좌안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 합성부(94-2)에 공급한다.
합성부(94-1)는 전경 시차 화상 생성부(93)로부터 공급된 우안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 기초로, 오클루젼 보정부(92)로부터 공급된 배경 성분 화상 및 전경 시차 화상 생성부(93)로부터 공급된 우안용 전경 성분 화상을 합성하여, 우안용 화상을 생성하고, 생성한 우안용 화상을 출력한다.
합성부(94-2)는 전경 시차 화상 생성부(93)로부터 공급된 좌안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 기초로, 오클루젼 보정부(92)로부터 공급된 배경 성분 화상 및 전경 시차 화상 생성부(93)로부터 공급된 좌안용 전경 성분 화상을 합성하여, 좌안용 화상을 생성하고, 생성한 좌안용 화상을 출력한다.
이하, 합성부(94-1) 및 합성부(94-2)를 개개로 구별할 필요가 없을 때, 단순히 합성부(94)라고 칭한다.
도 7은 전경 배경 성분 화상 생성부(91)의 구성을 나타내는 블록도이다.
전경 배경 성분 화상 생성부(91)에 공급된 입력 화상은, 오브젝트 추출부(101), 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경 오브젝트에 대응하는 화상 오브젝트를 대략 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상에 포함되는 전경 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경 오브젝트에 대응하는 화상 오브젝트를 대략 추출한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 배경 오브젝트에 대응하는 화상 오브젝트를 대략 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상과, 추출된 전경 오브젝트에 대응하는 화상 오브젝트의 차로부터, 배경 오브젝트에 대응하는 화상 오브젝트를 대략 추출한다.
또한, 예를 들면, 오브젝트 추출부(101)는 내부에 마련되어 있는 배경 메모리에 기억되어 있는 배경 화상과, 입력 화상과의 차로부터, 전경 오브젝트에 대응하는 화상 오브젝트 및 배경 오브젝트에 대응하는 화상 오브젝트를 대략 추출하도록 하여도 좋다.
움직임 검출부(102)는 예를 들면, 블록 매칭법, 경사법, 위상 상관법, 및 화소반복법(pel-recursive) 등의 방법에 의해, 대략 추출된 전경 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 영역 특정부(103), 혼합비 산출부(104), 및 움직임 불선명 조정부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는, 움직임량 v에 대응하는 정보가 포함되어 있다.
또한 예를 들면, 움직임 검출부(102)는, 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께, 화상 오브젝트마다의 움직임 벡터를 움직임 불선명 조정부(106)에 출력하도록 해도 된다.
움직임량 v는 움직이고 있는 오브젝트에 대응하는 화상의 위치 변화를 화소 간격을 단위로 하여 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이, 어떤 프레임을 기준으로 하여 다음 프레임에서 4화소 떨어진 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4가 된다.
또, 오브젝트 추출부(101) 및 움직임 검출부(102)는, 움직이고 있는 오브젝트에 대응한 움직임 불선명량의 조정을 행하는 경우에 필요하다.
영역 특정부(103)는 입력된 화상의 화소 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나로 특정하고, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는지를 나타내는 정보를 혼합비 산출부(104), 전경 배 경 분리부(105), 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 입력 화상, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합 영역에 포함되는 화소에 대응하는 혼합비 α를 산출하여, 산출한 혼합비 α를 출력함과 함께, 혼합비 α를 전경 배경 분리부(105)에 공급한다. 혼합비 산출부(104)가 출력하는 혼합비 α는 전경 배경 성분 화상 생성부(91)가 출력하는 배경 성분 화상에 대응하고 있다.
전경 배경 분리부(105)는 영역 특정부(103)로부터 공급된 영역 정보, 및 혼합비 산출부(104)로부터 공급된 혼합비 α를 기초로, 전경 오브젝트에 대응하는 화상의 성분만으로 이루어지는 전경 성분 화상과, 배경 성분만으로 이루어지는 배경 성분 화상으로 입력 화상을 분리하여, 전경 성분 화상을 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는 움직임 벡터로부터 알 수 있는 움직임량 v 및 영역 정보를 기초로, 전경 성분 화상에 포함되는 1이상의 화소를 나타내는 처리 단위를 결정한다. 처리 단위는 움직임 불선명의 량의 조정 처리의 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 조정부(106)는, 전경 배경 성분 화상 생성부(91)에 입력된 움직임 불선명 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 처리 단위를 기초로, 전경 성분 화상에 포함되는 움직임 불선명을 제거한다든지, 움직임 불선명의 양을 감소시킨다든지, 또는 움직임 불선명의 양을 증가시키는 등 전경 성분 화상에 포함 되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 출력한다. 움직임 벡터와 그 위치 정보는 사용하지 않지 일도 있다.
여기서, 움직임 불선명이란, 촬상의 대상이 되는, 현실 세계에서의 오브젝트의 움직임과, 센서의 촬상의 특성에 의해 생기는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
움직임 불선명 조정부(106)는 움직임 불선명의 양을 조정한 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 영역 정보 및 혼합비 α를 출력한다.
다음에, 도 8내지 도 23을 참조하여, 전경 배경 성분 화상 생성부(91)에 공급되는 입력 화상에 대하여 설명한다.
도 8은 센서에 의한 촬상을 설명하는 도면이다. 센서는, 예를 들면, 고체 촬상 소자인 CCD(Charge-Coupled Device) 에리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의, 전경에 대응하는 오브젝트(111)는, 현실 세계에서의, 배경에 대응하는 오브젝트(112)와, 센서 사이를, 예를 들면 도면 중의 좌측에서 우측으로 수평으로 이동한다.
센서는 전경에 대응하는 오브젝트(111)를 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서는 촬상한 화상을 1 프레임 단위로 출력한다. 예를 들면, 센서는, 1초 사이에 30 프레임으로 이루어지는 화상을 출력한다. 센서의 노광 시간은 1/30초로 할 수 있다. 노광 시간은, 센서가 입력된 광 전하로의 변환을 개시하고 나서, 입력된 광 전하로의 변환을 종료하기까지의 기간이다. 이하, 노광 시간 을 셔터 시간이라고도 칭한다.
도 9는 화소의 배치를 설명하는 도면이다. 도 9 중에 있어서, A 내지 I는 개개의 화소를 나타낸다. 화소는 화상에 대응하는 평면상에 배치되어 있다. 하나의 화소에 대응하는 하나의 검출 소자는 센서 상에 배치되어 있다. 센서가 화상을 촬상할 때, 하나의 검출 소자는 화상을 구성하는 하나의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 X방향의 위치는 화상 상의 가로 방향의 위치에 대응하고, 검출 소자의 Y방향의 위치는 화상 상의 세로 방향의 위치에 대응한다.
도 1O에 도시한 바와 같이, 예를 들면, CCD인 검출 소자는, 셔터 시간에 대응하는 기간, 입력된 광을 전하로 변환하여, 변환된 전하를 축적한다. 전하의 량은 입력된 광의 세기와, 광이 입력되어 있는 시간에 거의 비례한다. 검출 소자는 셔터 시간에 대응하는 기간에 있어서, 입력된 광으로부터 변환된 전하를, 이미 축적되어 있는 전하에 부가하여 간다. 즉, 검출 소자는 셔터 시간에 대응하는 기간, 입력되는 광을 적분하여, 적분된 광에 대응하는 량의 전하를 축적한다. 검출 소자는 시간에 대하여, 적분 효과가 있다고도 할 수 있다.
검출 소자에 축적된 전하는 도시하지 않은 회로에 의해 전압치로 변환되고, 전압값은 또한 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서에서 출력되는 개개의 화소값은, 전경 또는 배경에 대응하는 오브젝트가 공간적으로 확대를 갖는 있는 부분을 셔터 시간에 대하여 적분한 결과인, 일차원의 공간에 사영된 값을 갖는다.
전경 배경 성분 화상 생성부(91)는 이러한 센서의 축적 동작에 의해, 출력 신호에 매립되어 버린 유의 정보, 예를 들면, 혼합비 α를 추출한다. 전경 배경 성분 화상 생성부(91)는, 전경의 화상 오브젝트 자신의 혼합에 의해 생기는 왜곡의 량, 예를 들면 움직임 불선명의 량 등을 조정한다. 또한, 전경 배경 성분 화상 생성부(91)는 전경의 화상 오브젝트와 배경의 화상 오브젝트가 혼합되는 것에 의해 생기는 왜곡의 량을 조정한다.
도 11A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다. 도 11B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상의 모델을 설명하는 도면이다.
도 11A는 움직임을 수반하는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 나타내고 있다. 도 11A에 나타내는 예에 있어서, 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 좌측에서 우측으로 움직이고 있다.
도 11B는 도 11A에 나타내는 화상의 1라인에 대응하는 화소값을 시간 방향으로 전개한 모델도이다. 도 11B의 가로 방향은 도 11A의 공간 방향 X에 대응하고 있다.
배경 영역의 화소는 배경 성분, 즉 배경 오브젝트에 대응하는 화상의 성분만으로 그 화소값이 구성되어 있다. 전경 영역의 화소는 전경 성분, 즉 전경 오브젝트에 대응하는 화상의 성분만으로 그 화소값이 구성되어 있다.
혼합 영역의 화소는 배경 성분 및 전경 성분으로 그 화소값이 구성되어 있 다. 혼합 영역은 배경 성분 및 전경 성분으로 그 화소값이 구성되어 있기 때문에, 왜곡 영역이라고도 할 수 있다. 혼합 영역은 또한, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향 전단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 전경에 덮여 가려지는 영역을 말한다.
이에 대하여, 언커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향 후단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역을 포함하는 화상이, 영역 특정부(103), 혼합비 산출부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 12는 이상과 같은, 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 11A에 나타내는 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경에서 전경으로 변화하는 부분이며, 혼합 영역의 언커버드 백그라운드 영역은 전경에서 배경으로 변화하는 부분이다.
도 13은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도이다. 예를 들면, 인접하여 1열로 배열 되어 있는 화소로서, 화면의 1라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 13에 나타내는 F01 내지 F04의 화소값은 정지하고 있는 전경 오브젝트에 대응하는 화소의 화소값이다. 도 13에 나타내는 BO1 내지 B04의 화소값은 정지하고 있는 배경 오브젝트에 대응하는 화소의 화소값이다.
도 13에 있어서의 세로 방향은 시간에 대응하여, 도면 중의 위에서 아래를 향해서 시간이 경과한다. 도 13 중의 직사각형의 상변의 위치는 센서가 입력된 광 전하로의 변환을 개시하는 시각에 대응하고, 도 13 중의 직사각형의 하변의 위치는 센서가 입력된 광 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 13 중의 직사각형의 상변에서 하변까지의 거리는 셔터 시간에 대응한다.
이하에 있어서, 셔터 시간과 프레임 간격이 동일한 경우를 예에 설명한다.
도 13에서의 가로 방향은 도 11A에서 설명한 공간 방향 X에 대응한다. 보다 구체적으로는, 도 13에 나타내는 예에 있어서, 도 13 중의 "F01"이라고 기재된 직사각형의 좌변에서 "BO4"라고 기재된 직사각형의 우변까지의 거리는, 화소의 피치의 8배, 즉 연속하고 있는 8개의 화소 간격에 대응한다.
전경 오브젝트 및 배경 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 광은 변화하지 않는다.
여기서, 셔터 시간에 대응하는 기간을 2개 이상의 동일한 길이의 기간으로 분할한다.
예를 들면, 가상 분할 수를 4로 하면, 도 13에 나타내는 모델도는 도 9에 나타내는 모델로서 나타낼 수 있다. 가상 분할 수는 전경에 대응하는 오브젝트의 셔 터 시간 내에서의 움직임량 v등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여 가상 분할 수는 4가 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도면 중의 가장 상행은 셔터가 개방되어 최초 분할된 기간에 대응한다. 도면 중 위에서 2번째 행은 셔터가 개방되어 2번째 분할된 기간에 대응한다. 도면 중 위에서 3번째 행은 셔터가 개방되어 3번째 분할된 기간에 대응한다. 도면 중 위에서 4번째 행은 셔터가 개방되어 4번째의 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간 /v라고도 부른다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않기 때문에, 전경 성분 F01/v는, 화소값 F01을 가상 분할 수로 나눈 값과 동일하다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경 성분 F02/v는 화소값 F02를 가상 분할 수로 나눈 값과 동일하고, 전경 성분 F03/v는 화소값 F03을 가상 분할 수로 나눈 값과 동일하고, 전경 성분 F04/v는 화소값 F04를 가상 분할 수로 나눈 값과 동일하다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않기 때문에, 배경 성분 B01/v는 화소값 B01을 가상 분할 수로 나눈 값과 동일하다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경 성분 B02/v는 화소값 B02를 가상 분할 수로 나눈 값과 동일하고, B03/v는 화소값 B03을 가상 분할 수로 나눈 값과 동일하고, B04/v는 화소값 B04를 가상 분할 수로 나눈 값과 동일하다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 전경 오브젝트에 대응하는 광이 변화하지 않기 때문에, 셔터가 개방되어 최초의, 셔터 시간 /v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 2번째의, 셔터 시간 /v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 3번째의, 셔터 시간 /v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 4번째의, 셔터 시간 /v에 대응하는 전경 성분 F01/v는, 동일한 값이 된다. F02/v 내지 F04/v도 F01/v와 마찬가지의 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 배경 오브젝트에 대응하는 광은 변화하지 않기 때문에, 셔터가 개방되어 최초의, 셔터 시간 /v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 2번째의, 셔터 시간 /v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 3번째의, 셔터 시간 /v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 4번째의, 셔터 시간 /v에 대응하는 배경 성분 B01/v는, 동일한 값이 된다. B02/v 내지 B04/v도 마찬가지의 관계를 갖는다.
다음에, 전경에 대응하는 오브젝트가 이동하고, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 15는 전경에 대응하는 오브젝트가 도면 중의 우측을 향하여 이동하는 경우의, 커버드 백그라운드 영역을 포함하는, 1라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 15에 있어서, 전경의 움직임량 v는 4이다. 1 프레임 은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 15에 있어서, 전경에 대응하는 오브젝트의 화상은, 어떤 프레임을 기준으로 다음 프레임에 있어서 4 화소분 우측에 표시되도록 이동한다.
도 15에 있어서, 가장 좌측 화소 내지 좌측에서 4번째의 화소는 전경 영역에 속한다. 도 15에 있어서, 좌측에서 5번째 내지 좌측에서 7번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다. 도 15에 있어서, 가장 우측 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어서 숨기듯이 이동하고 있기 때문에, 커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어떤 시점에서, 배경 성분에서 전경 성분에 바뀐다. 예를 들면, 도 15 중에 굵은 선 프레임을 한 화소값 M은 수학식 10으로 표현된다.
Figure 112003006661253-pct00010
예를 들면, 좌측에서 5번째의 화소는, 하나의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 5번째의 화소의 혼합비 α는 1/4이다. 좌측에서 6번째의 화소는, 2개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 6번째의 화소의 혼합비 α는 1/2이다. 좌 측에서 7번째의 화소는, 3개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 하나의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 7번째의 화소의 혼합비 α는 3/4이다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 15 중의 좌측에서 4번째의 화소의, 셔터가 개방하여 최초의, 셔터 시간 /v의 전경 성분 F07/v는, 도 15 중의 좌측에서 5번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F07/v는, 도 15 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 15 중의 좌측에서 7번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 15 중의 좌측에서 3번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분 F06/v는, 도 15 중의 좌측에서 4번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F06/v는, 도 15 중의 좌측에서 5번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 15 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 15 중의 좌측에서 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분 F05/v는, 도 15 중의 좌측에서 3번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F05/v는, 도 15 중의 좌측에서 4번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 15 중의 좌측에서 5번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 15 중의 가장 좌측 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분 F04/v는, 도 15 중의 좌측에서 2번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F04/v는, 도 15 중의 좌측에서 3번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 15 중의 좌측에서 4번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 같다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은, 이와 같이 움직임 불선명을 포함하기 때문에, 왜곡 영역이라고도 말할 수 있다.
도 16은 전경이 도면 중의 우측을 향하여 이동하는 경우의, 언커버드 백그라운드 영역을 포함하는, 1라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 16에 있어서, 전경의 움직임량 v는 4이다. 1 프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 16에 있어서, 전경에 대응하는 오브젝트의 화상은, 어떤 프레임을 기준으로 다음 프레임에 있어서 4 화소분 우측으로 이동한다.
도 16에 있어서, 가장 좌측 화소 내지 좌측에서 4번째의 화소는 배경 영역에 속한다. 도 16에 있어서, 좌측에서 5번째 내지 좌측에서 7번째의 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 16에 있어서, 가장 우측 화소는 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있는 전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트 앞에서 제거되도록 이동하고 있기 때문에, 언커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어떤 시점에서, 전경 성분에서 배경 성분으로 바뀐다.
예를 들면, 도 16중에 굵은 선 프레임을 한 화소값 M'은 수학식 11로 표현된다.
Figure 112003006661253-pct00011
예를 들면, 좌측에서 5번째의 화소는, 3개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 하나의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 5번째의 화소의 혼합비 α는 3/4이다. 좌측에서 6번째의 화소는, 2개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 6번째의 화소의 혼합비 α는 1/2이다. 좌 측에서 7번째의 화소는, 하나의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 7번째의 화소의 혼합비 α는 1/4이다.
수학식 10 및 수학식 11을 보다 일반화하면, 화소값 M은 수학식 12로 표현된다.
Figure 112003006661253-pct00012
여기서, α는 혼합비이다. B는 배경의 화소값이고, Fi/v는 전경 성분이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이기 때문에, 예를 들면, 도 16 중의 좌측에서 5번째의 화소의, 셔터가 개방하여 최초의, 셔터 시간 /v의 전경 성분 F01/v는, 도 16 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다. 마찬가지로, F01/v는, 도 16 중의 좌측에서 7번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 16 중의 좌측에서 8번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 가상 분할 수가 4이기 때문에, 예를 들면, 도 16 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 최초의, 셔터 시간 /v의 전경 성분 F02/v는, 도 16 중의 좌측에서 7번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다. 마찬가지로, 전경 성분 F02/v는, 도 16 중의 좌측에서 8번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과 같다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이기 때문에, 예를 들면, 도 16 중의 좌측에서 7번째의 화소의, 셔터가 개방하여 최초의, 셔터 시간 /v의 전경 성분 F03/v는, 도 16 중의 좌측에서 8번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v에 대응하는 전경 성분과 같다.
도 14 내지 도 16의 설명에 있어서, 가상 분할 수는 4로 설명하였지만, 가상 분할 수는 움직임량 v에 대응한다. 움직임량 v는 일반적으로, 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가, 어떤 프레임을 기준으로 다음 프레임에 있어서 4 화소분 우측에 표시되도록 이동하고 있을 때, 움직임량 v는 4가 된다. 움직임량 v에 대응하여, 가상 분할 수는 4가 된다. 마찬가지로, 예를 들면 전경에 대응하는 오브젝트가, 어떤 프레임을 기준으로 다음 프레임에 있어서 6 화소분 좌측에 표시되도록 이동하고 있을 때, 움직임량 v는 6이 되고, 가상 분할 수는 6이 된다.
도 17 및 도 18에 이상에서 설명한, 전경 영역, 배경 영역, 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는 전경 성분 및 배경 성분과의 관계를 나타낸다.
도 17은 정지하고 있는 배경의 앞을 이동하고 있는 오브젝트에 대응하는 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 나타낸다. 도 17에 나타내는 예에 있어서, A로 나타낸, 전경에 대응하는 오브젝트는, 화면에 대하여 수평으로 이동하고 있다.
프레임 #n+1은 프레임 #n의 다음 프레임이고, 프레임 #n+2는 프레임 #n+1의 다음 프레임이다.
프레임 #n 내지 프레임 #n+2 중 어느 하나로부터 추출한, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하고, 움직임량 v를 4로 하여, 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 18에 도시한다.
전경 영역의 화소값은 전경에 대응하는 오브젝트가 이동하기 때문에, 셔터 시간 /v의 기간에 대응하는, 4개의 다른 전경 성분으로 구성된다. 예를 들면, 도 18에 나타내는 전경 영역의 화소 중 가장 좌측에 위치하는 화소는, F01/v, F02/v, F03/v, 및 F04/v로 구성된다. 즉, 전경 영역의 화소는 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 배경에 대응하는 광은 변화하지 않는다. 이 경우, 배경 영역의 화소값은 움직임 불선명을 포함하지 않는다.
커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역에 속하는 화소의 화소값은, 전경 성분과 배경 성분으로 구성된다.
다음에, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에 있어서의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화 소의 화소값을 시간 방향으로 전개한 모델에 대하여 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대하여 수평으로 움직이고 있을 때, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 19는 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소이고, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 프레임 #n은 프레임 #n-1의 다음 프레임이고, 프레임 #n+1은 프레임 #n의 다음 프레임이다. 다른 프레임도 마찬가지로 칭한다.
도 19에 나타내는 BO1 내지 B12의 화소값은, 정지하고 있는 배경 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1 내지 프레임 n+1에 있어서, 대응하는 화소의 화소값은 변화하지 않는다. 예를 들면, 프레임 #n-1에 있어서의 B05의 화소값을 갖는 화소의 위치에 대응하는, 프레임 #n에서의 화소, 및 프레임 #n+1에서의 화소는, 각각 BO5의 화소값을 갖는다.
도 20은 정지하고 있는 배경에 대응하는 오브젝트와 함께 도면 중의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소이고, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 20에 나타내는 모델은 커버드 백그라운드 영역을 포함한다.
도 20에 있어서, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 이동하기 때문에, 전경의 움직임량 v는 4이고, 가상 분할 수는 4이다.
예를 들면, 도 20 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F12/v가 되고, 도 20 중의 좌측에서 2번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F12/v가 된다. 도 20 중의 좌측에서 3번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분, 및 도 20 중의 좌측에서 4번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F12/v가 된다.
도 20 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분은, F11/v가 되고, 도 20 중의 좌측에서 2번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분도, F11/v가 된다. 도 20 중의 좌측에서 3번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F11/v가 된다.
도 20 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분은, F10/v가 되고, 도 20 중의 좌측에서 2번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분도, F1O/v가 된다. 도 20 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 20 중의 프레임 #n-1 의 좌측에서 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 배경 성분은, BO1/v가 된다. 도 20 중의 프레임 #n-1의 좌측에서 3번째의 화소의, 셔터가 개방하여 최초 및 2번째의 셔터 시간 /v의 배경 성분은, BO2/v가 된다. 도 20 중의 프레임 #n-1의 좌측에서 4번째의 화소의, 셔터가 개방하여 최초 내지 3번째의 셔터 시간 /v의 배경 성분은, B03/v가 된다.
도 20 중의 프레임 #n-1에 있어서, 가장 좌측 화소는 전경 영역에 속하고, 좌측에서 2번째 내지 4번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 20 중의 프레임 #n-1의 좌측에서 5번째의 화소 내지 12번째의 화소는, 배경 영역에 속하고, 그 화소값은 각각 B04 내지 B11이 된다.
도 20 중의 프레임 #n의 좌측에서 1번째의 화소 내지 5번째의 화소는, 전경 영역에 속한다. 프레임 #n의 전경 영역에서의, 셔터 시간 /v의 전경 성분은, F05/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 이동하기 때문에, 도 20 중의 프레임 #n의 좌측에서 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F12/v가 되고, 도 20 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F12/v가 된다. 도 20 중의 좌측에서 7번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분, 및 도 20 중의 좌측에서 8번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전 경 성분은, F12/v가 된다.
도 20 중의 프레임 #n의 좌측에서 5번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분은, F11/v가 되고, 도 20 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분도, F11/v가 된다. 도 20 중의 좌측에서 7번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F11/v가 된다.
도 20 중의 프레임 #n의 좌측에서 5번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분은, F1O/v가 되고, 도 20 중의 좌측에서 6번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분도, F1O/v가 된다. 도 20 중의 프레임 #n의 좌측에서 5번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 20 중의 프레임 #n의 좌측에서 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 배경 성분은, B05/v가 된다. 도 20 중의 프레임 #n의 좌측에서 7번째의 화소의, 셔터가 개방하여 최초 및 2번째의 셔터 시간 /v의 배경 성분은, BO6/v가 된다. 도 20 중의 프레임 #n의 좌측에서 8번째의 화소의, 셔터가 개방하여 최초 내지 3번째의, 셔터 시간 /v의 배경 성분은, B07/v가 된다.
도 20 중의 프레임 #n에 있어서, 좌측에서 6번째 내지 8번째의 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 20 중의 프레임 #n+1의 좌측에서 9번째의 화소 내지 12번째의 화소는 배 경 영역에 속하고, 화소값은 각각 B08 내지 B11이 된다.
도 20 중의 프레임 #n+1의 좌측에서 1번째의 화소 내지 9번째의 화소는, 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간 /v의 전경 성분은, F01/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 이동하기 때문에, 도 20 중의 프레임 #n+1의 좌측에서 9번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F12/v가 되고, 도 20 중의 좌측에서 10번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F12/v가 된다. 도 20 중의 좌측에서 11번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분, 및 도 20 중의 좌측에서 12번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F12/v가 된다.
도 20 중의 프레임 #n+1의 좌측에서 9번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 기간의 전경 성분은, F11/v가 되고, 도 20 중의 좌측에서 10번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분도, F11/v가 된다. 도 20 중의 좌측에서 11번째의 화소의, 셔터가 개방하여 4번째의, 셔터 시간 /v의 전경 성분은, F11/v가 된다.
도 20 중의 프레임 #n+1의 좌측에서 9번째의 화소의, 셔터가 개방하여 3번째의, 셔터 시간 /v의 전경 성분은, F10/v가 되고, 도 20 중의 좌측에서 10번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분도, F10/v가 된다. 도 20 중의 프레임 #n+1의 좌측에서 9번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 20 중의 프레임 #n+1의 좌측에서 10번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 배경 성분은, B09/v가 된다. 도 20 중의 프레임 #n+1의 좌측에서 11번째의 화소의, 셔터가 개방하여 최초 및 2번째의 셔터 시간 /v의 배경 성분은, B10/v가 된다. 도 20 중의 프레임 #n+1의 좌측에서 12번째의 화소의, 셔터가 개방하여 최초 내지 3번째의, 셔터 시간 /v의 배경 성분은, B11/v가 된다.
도 20 중의 프레임 #n+1에 있어서, 좌측에서 10번째 내지 12번째의 화소는, 커버드 백그라운드 영역인 혼합 영역에 대응한다.
도 21은 도 20에 나타내는 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 22는 정지하고 있는 배경과 함께 도면 중의 우측으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소이고, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 22에 있어서, 언커버드 백그라운드 영역이 포함되어 있다.
도 22에 있어서, 전경에 대응하는 오브젝트는 강체이고, 또한 등속으로 이동하고 있다고 가정할 수 있다. 전경에 대응하는 오브젝트가, 다음 프레임에 있어서 4 화소분 우측에 표시되도록 이동하고 있기 때문에, 움직임량 v는 4이다.
예를 들면, 도 22중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방하여 최초의, 셔터 시간 /v의 전경 성분은, F13/v가(로) 되고, 도면. 22중의 좌측에서 2번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F13/v가 된다. 도 22중의 좌측에서 3번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분, 및 도 22중의 좌측에서 4번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F13/v가 된다.
도 22중의 프레임 #n-1의 좌측에서 2번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F14/v가 되고, 도 22중의 좌측에서 3번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F14/v가 된다. 도 22중의 좌측에서 3번째의 화소의, 셔터가 개방하여 최초의, 셔터 시간 /v의 전경 성분은, F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 22중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방하여 2번째 내지 4번째의, 셔터 시간 /v의 배경 성분은, B25/v가 된다. 도 22중의 프레임 #n-1의 좌측에서 2번째의 화소의, 셔터가 개방하여 3번째 및 4번째의, 셔터 시간 /v의 배경 성분은, B26/v가 된다. 도 22중의 프레임 #n-1의 좌측에서 3번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 배경 성분은, B27/v가 된다.
도 22중의 프레임 #n-1에 있어서, 가장 좌측 화소 내지 3번째의 화소는, 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 22중의 프레임 #n-1의 좌측에서 4번째의 화소 내지 12번째의 화소는, 전 경 영역에 속한다. 프레임의 전경 성분은 F13/v 내지 F24/v 중 어느 하나이다.
도 22중의 프레임 #n의 가장 좌측 화소 내지 좌측에서 4번째의 화소는, 배경 영역에 속하고, 화소값은 각각, B25 내지 B28이 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 이동하기 때문에, 도 22중의 프레임 #n의 좌측에서 5번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F13/v가 되고, 도 22중의 좌측에서 6번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F13/v가 된다. 도 22중의 좌측에서 7번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분, 및 도 22중의 좌측에서 8번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F13/v가 된다.
도 22중의 프레임 #n의 좌측에서 6번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F14/v가 되고, 도 22중의 좌측에서 7번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F14/v가 된다. 도 22중의 좌측에서 8번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F16/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 22중의 프레임 #n의 좌측에서 5번째의 화소의, 셔터가 개방하여 2번째 내지 4번째의 셔터 시간 /v의 배경 성분은, B29/v가 된다. 도 22중의 프레임 #n의 좌측에서 6번째의 화소의, 셔터가 개방하여 3번째 및 4번째의 셔터 시간 /v의 배경 성분은, B30/v가 된다. 도 22 중의 프레임 #n의 좌측에서 7번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 배경 성분은, B31/v가 된다.
도 22중의 프레임 #n에 있어서, 좌측에서 5번째의 화소 내지 7번째의 화소는, 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 22중의 프레임 #n의 좌측에서 8번째의 화소 내지 12번째의 화소는, 전경 영역에 속한다. 프레임 #n의 전경 영역에서의, 셔터 시간 /v의 기간에 대응하는 값은, F13/v 내지 F20/v 중 어느 하나이다.
도 22중의 프레임 #n+1의 가장 좌측 화소 내지 좌측에서 8번째의 화소는, 배경 영역에 속하고, 화소값은 각각, B25 내지 B32가 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에 있어서 4 화소 우측에 표시되도록 이동하기 때문에, 도 22중의 프레임 #n+1의 좌측에서 9번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F13/v가 되고, 도 22중의 좌측에서 10번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F13/v가 된다. 도 22중의 좌측에서 11번째의 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v의 전경 성분, 및 도 22중의 좌측에서 12번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 전경 성분은, F13/v가 된다.
도 22중의 프레임 #n+1의 좌측에서 10번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F14/v가 되고, 도 22중의 좌측에서 11번째의 화소의, 셔터가 개방하여 2번째의 셔터 시간 /v의 전경 성분도, F14/v가 된다. 도 22중의 좌측에서 12번째의 화소의, 셔터가 개방하여 최초의 셔터 시간 /v의 전경 성분은, F16/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 22중의 프레임 #n+1의 좌측에서 9번째의 화소의, 셔터가 개방하여 2번째 내지 4번째의, 셔터 시간 /v의 배경 성분은, B33/v가 된다. 도 22중의 프레임 #n+1의 좌측에서 10번째의 화소의, 셔터가 개방하여 3번째 및 4번째의 셔터 시간 /v의 배경의 성분은, B34/v가 된다. 도 22중의 프레임 #n+1의 좌측에서 11번째의 화소의, 셔터가 개방하여 4번째의 셔터 시간 /v의 배경 성분은, B35/v가 된다.
도 22중의 프레임 #n+1에 있어서, 좌측에서 9번째의 화소 내지 11번째의 화소는, 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 22중의 프레임 #n+1의 좌측에서 12번째의 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간 /v의 전경 성분은, F13/v 내지 F16/v 중 어느 하나이다.
도 23은 도 22에 나타내는 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 7로 되돌아가, 영역 특정부(103)는 복수의 프레임의 화소값을 이용하여, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역에 속하는 것을 나타내는 플래그를 화소마다 대응시켜, 영역 정보로서, 혼합비 산출부(104) 및 움직임 불선명 조정부(106)에 공급한다.
혼합비 산출부(104)는 복수의 프레임의 화소값, 및 영역 정보를 기초로, 혼 합 영역에 포함되는 화소에 대하여 화소마다 혼합비 α를 산출하여, 산출한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는 복수의 프레임의 화소값, 영역 정보, 및 혼합비 α를 기초로, 전경 성분만으로 이루어지는 전경 성분 화상을 추출하여, 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터, 및 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정하여, 움직임 불선명의 양을 조정한 전경 성분 화상을 출력한다.
도 24의 흐름도를 참조하여, 화상 처리 장치에 의한 3차원 화상의 합성 처리를 설명한다.
단계 S11에 있어서, 거리 정보 취득부(71)는 2차원 화상인 입력 화상을 기초로, 입력 화상에 포함되는 전경 오브젝트까지의 거리를 나타내는 거리 정보를 취득한다. 거리 정보 취득부(71)는 거리 정보를 시차 연산부(72)에 공급한다.
단계 S12에 있어서, 시차 연산부(72)는 거리 정보를 기초로 시차를 연산하여, 연산한 시차를 3차원 화상 합성 처리부(73)에 공급한다.
단계 S13에 있어서, 3차원 화상 합성 처리부(73)는 입력 화상으로부터, 전경 오브젝트를 구성하는 전경 성분을 추출함과 함께, 배경 오브젝트를 구성하는 배경 성분을 추출하여, 전경 성분 화상과 배경 성분 화상으로 입력 화상을 분리한다.
단계 S14에 있어서, 오클루젼 보정부(92)는 배경 성분 화상 중, 전경 오브젝트의 음영으로 되어 있는 부분의 화소, 및 혼합 영역에 대응하는 화소의 화소값을 보정한다.
단계 S15에 있어서, 전경 시차 화상 생성부(93)는 시차에 대응하여 전경 성분 화상을 이동하여, 우안용 전경 성분 화상 및 좌안용 전경 성분 화상을 생성한다.
단계 S16에 있어서, 합성부(94-1)는 우안용 전경 성분 화상과 배경 성분 화상을 합성하여 우안용 화상을 생성하고, 합성부(94-2)는 좌안용 전경 성분 화상과 배경 성분 화상을 합성하여 좌안용 화상을 생성하고, 처리는 종료한다.
도 25의 흐름도를 참조하여, 단계 S13에 대응하는, 전경 배경 성분 화상 생성부(91)에 의한 오브젝트의 분리 처리를 설명한다. 단계 S21에 있어서, 영역 특정부(103)는 입력 화상을 기초로, 입력 화상의 화소마다 전경 영역, 배경 영역, 커버드 백그라운드 영역, 아직은 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 생성하는 영역 특정 처리를 실행한다. 영역 특정 처리의 상세는 후술한다. 영역 특정부(103)는 생성한 영역 정보를 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)에 공급한다.
또, 단계 S21에 있어서, 영역 특정부(103)는 입력 화상을 기초로, 입력 화상의 화소마다 전경 영역, 배경 영역, 또는 혼합 영역(커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역의 구별을 하지 않음) 중 어느 하나에 속하는지를 나타내는 영역 정보를 생성하도록 하여도 좋다. 이 경우에 있어서, 전경 배경 분리부(105) 및 움직임 불선명 조정부(106)는, 움직임 벡터의 방향을 기초로, 혼합 영역이 커버드 백그라운드 영역인지, 또는 언커버드 백그라운드 영역인지를 판정한다. 예를 들면, 움직임 벡터의 방향에 대응하여, 전경 영역, 혼합 영역, 및 배경 영역으로 순차로 배열되어 있을 때, 그 혼합 영역은, 커버드 백그라운드 영역으로 판정되고, 움직임 벡터의 방향에 대응하여, 배경 영역, 혼합 영역, 및 전경 영역으로 순차로 배열되어 있을 때, 그 혼합 영역은, 언커버드 백그라운드 영역으로 판정된다.
단계 S22에 있어서, 혼합비 산출부(104)는 입력 화상 및 영역 정보를 기초로, 혼합 영역에 포함되는 화소마다 혼합비 α를 산출한다. 혼합비 산출 처리의 상세는 후술한다. 혼합비 산출부(104)는 산출한 혼합비 α를 오클루젼 보정부(92)에 공급함과 함께, 혼합비 α를 전경 배경 분리부(105)에 공급한다.
단계 S23에 있어서, 전경 배경 분리부(105)는 영역 정보 및 혼합비 α를 기초로, 입력 화상에서 전경 성분을 추출하여, 전경 성분 화상으로서 움직임 불선명 조정부(106)에 공급한다. 전경 배경 분리부(105)는 분리된 배경 성분 화상을 오클루젼 보정부(92)에 공급한다.
단계 S24에 있어서, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보를 기초로, 움직임 방향으로 배열되는 연속된 화소이고, 언커버드 백그라운드 영역, 전경 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것의 화상 상의 위치를 나타내는 처리 단위를 생성하고, 처리 단위에 대응하는 전경 성분에 포함되는 움직임 불선명의 양을 조정한다. 움직임 불선명의 량의 조정 처리의 상세에 대해서는 후술한다.
움직임 불선명 조정부(106)는 움직임 불선명이 조정된 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성한다.
단계 S25에 있어서, 전경 배경 성분 화상 생성부(91)는 화면 전체에 대하여 처리를 종료하였는지 여부를 판정하여, 화면 전체에 대하여 처리를 종료하지 않았다고 판정된 경우, 단계 S24로 진행하여, 처리 단위에 대응하는 전경 성분을 대상으로 한 움직임 불선명의 량의 조정 처리를 반복한다.
단계 S25에 있어서, 화면 전체에 대하여 처리를 종료하였다고 판정된 경우, 움직임 불선명이 조정된 전경 성분 화상을 전경 시차 화상 생성부(93)에 공급함과 함께, 생성한 영역 정보 및 혼합비 α를 전경 시차 화상 생성부(93)에 출력한다. 처리는 종료한다.
이와 같이, 전경 배경 성분 화상 생성부(91)는 전경과 배경을 분리하여, 전경에 포함되는 움직임 불선명의 양을 조정할 수 있다. 즉, 전경 배경 성분 화상 생성부(91)는, 전경의 화소의 화소값인 샘플 데이터에 포함되는 움직임 불선명의 양을 조정할 수 있다.
이하, 영역 특정부(103), 혼합비 산출부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)의 각각의 구성에 대하여 설명한다.
도 26은 영역 특정부(103)의 구성 일례를 나타내는 블록도이다. 도 26에 구성을 도시하는 영역 특정부(103)는 움직임 벡터를 이용하지 않는다. 프레임 메모리(201)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(201)는, 처리의 대상이 프레임 #n일 때, 프레임 #n의 2개 앞의 프레임인 프레임 #n-2, 프레임 #n의 하나 앞의 프레임인 프레임 #n-1, 프레임 #n, 프레임 #n의 하나 뒤의 프레임인 프레임 #n+1, 및 프레임 #n의 2개 뒤의 프레임인 프레임 #n+2를 기억한다.
정동(靜動) 판정부(202-1)는 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 판독한 화소값의 차의 절대값을 산출한다. 정동 판정부(202-1)는 프레임 #n+2의 화소값과 프레임 #n+1의 화소값과의 차의 절대값이 사전으로 설정한 임계값 Th보다 큰지 여부를 판정하여, 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다. 프레임 #n+2의 화소의 화소값과 프레임 #n+1의 화소의 화소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-1)는 정지를 나타내는 정동 판정을 영역 판정부(203-1)에 공급한다.
정동 판정부(202-2)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소의 화소값, 및 프레임 #n의 대상이 되는 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-2)는, 프레임 #n+1의 화소값과 프레임 #n의 화소값의 차의 절대값이 사전으로 설정한 임계값 Th보다 큰지 여부를 판정하여, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다. 프레임 #n+1의 화소의 화소값과 프레임 #n의 화소의 화소값의 차의 절대값이 임계값 Th 이하라고 판정된 경 우, 정동 판정부(202-2)는 정지를 나타내는 정동 판정을 영역 판정부(203-1) 및 영역 판정부(203-2)에 공급한다.
정동 판정부(202-3)는, 프레임 #n의 영역 특정의 대상인 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-3)는, 프레임 #n의 화소값과 프레임 #n-1의 화소값의 차의 절대값이 사전으로 설정한 임계값 Th보다 큰지 여부를 판정하여, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다. 프레임 #n의 화소의 화소값과 프레임 #n-1의 화소의 화소값의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-3)는 정지를 나타내는 정동 판정을 영역 판정부(203-2) 및 영역 판정부(203-3)에 공급한다.
정동 판정부(202-4)는, 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소의 화소값, 및 프레임 #n의 영역 특정의 대상인 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소의 화소값을 프레임 메모리(201)로부터 판독하여, 화소값의 차의 절대값을 산출한다. 정동 판정부(202-4)는, 프레임 #n-1의 화소값과 프레임 #n-2의 화소값의 차의 절대값이 사전으로 설정한 임계값 Th보다 큰지 여부를 판정하여, 화소값의 차의 절대값이 임계값 Th보다 크다고 판정된 경우, 움직임을 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다. 프레임 #n-1의 화소의 화소값과 프레임 #n-2의 화소의 화 소값과의 차의 절대값이 임계값 Th 이하라고 판정된 경우, 정동 판정부(202-4)는 정지를 나타내는 정동 판정을 영역 판정부(203-3)에 공급한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-1)는 정동 판정부(202-1)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 언커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-1)는 이와 같이 "1" 또는 "0"이 설정된 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 정지 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하 는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내거나, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 정지 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 움직임 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-2)는 정동 판정부(202-2)로부터 공급된 정동 판정이 정지를 나타내거나, 또는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 움직임 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-2)는 이와 같이 "1" 또는 "0"이 설정된 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 움직임을 나타내고, 또한 정동 판정부(202-4)로부터 공급된 정동 판정이 정지를 나타내고 있을 때, 프레임 #n에 있어서의 영역 특정의 대상인 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다.
영역 판정부(203-3)는 정동 판정부(202-3)로부터 공급된 정동 판정이 정지를 나타내거나, 또는 정동 판정부(202-4)로부터 공급된 정동 판정이 움직임을 나타내고 있을 때, 프레임 #n에서의 영역 특정의 대상인 화소가 커버드 백그라운드 영역에 속하지 않는다고 판정하고, 영역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하지 않음을 나타내는 "0"을 설정한다.
영역 판정부(203-3)는 이와 같이 "1" 또는 "0"이 설정된 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급한다.
판정 플래그 저장 프레임 메모리(204)는, 영역 판정부(203-1)로부터 공급된 언커버드 백그라운드 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 정지 영역 판정 플래그, 영역 판정부(203-2)로부터 공급된 움직임 영역 판정 플래그, 및 영역 판정부(203-3)로부터 공급된 커버드 백그라운드 영역 판정 플래그를 각각 기억한다.
판정 플래그 저장 프레임 메모리(204)는, 기억하고 있는 언커버드 백그라운 드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그를 합성부(205)에 공급한다. 합성부(205)는 판정 플래그 저장 프레임 메모리(204)로부터 공급된, 언커버드 백그라운드 영역 판정 플래그, 정지 영역 판정 플래그, 움직임 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그에 기초하여, 각 화소가, 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 판정 플래그 저장 프레임 메모리(206)에 공급한다.
판정 플래그 저장 프레임 메모리(206)는 합성부(205)로부터 공급된 영역 정보를 기억함과 함께, 기억하고 있는 영역 정보를 출력한다.
다음에, 영역 특정부(103)의 처리의 예를 도 27 내지 도 31을 참조하여 설명한다.
전경에 대응하는 오브젝트가 이동하고 있을 때, 오브젝트에 대응하는 화상의 화면 상의 위치는 프레임마다 변화한다. 도 27에 도시한 바와 같이, 프레임 #n에서, Yn(x, y)로 나타내지는 위치에 위치하는 오브젝트에 대응하는 화상은, 다음 프레임인 프레임 #n+1에 있어서, Yn+1(x, y)에 위치한다.
전경 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열되는 화소의 화소값을 시간 방향으로 전개한 모델도를 도 22에 도시한다. 예를 들면, 전경의 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때, 도 28에서의 모델도는 1라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 나타낸다.
도 28에 있어서, 프레임 #n에서의 라인은 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에 있어서, 좌측에서 2번째 화소 내지 13번째 화소에 포함되어 있는 오브젝트에 대응하는 전경 성분은, 프레임 #n+1에 있어서 좌측에서 6번째 내지 17번째 화소에 포함된다.
프레임 #n에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측에서 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측에서 2번째 내지 4번째 화소이다. 프레임 #n+1에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측에서 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측에서 6번째 내지 8번째 화소이다.
도 28에 나타내는 예에 있어서, 프레임 #n에 포함되는 전경 성분이, 프레임 #n+1에 있어서 4 화소 이동하고 있기 때문에, 움직임량 v는 4이다. 가상 분할 수는 움직임량 v에 대응하고, 4이다.
다음에, 주목하고 있는 프레임의 전후에서의 혼합 영역에 속하는 화소의 화소값의 변화에 대하여 설명한다.
도 29에 나타내는, 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측에서 15번째 내지 17번째 화소이다. 움직임량 v가 4이기 때문에, 하나 앞 프레임 #n-1에 있어서, 좌측에서 15번째 내지 17번째 화소는 배경 성분만을 포함하며, 배경 영역에 속한다. 또한, 하나 더 앞 프레임 #n-2에 있어서, 좌측에서 15번째 내지 17번째 화소는 배경 성 분만을 포함하고, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1의 좌측에서 15번째 화소의 화소값은 프레임 #n-2의 좌측에서 15번째 화소의 화소값으로부터 변화하지 않는다. 마찬가지로, 프레임 #n-1의 좌측에서 16번째 화소의 화소값은 프레임 #n-2의 좌측에서 16번째 화소의 화소값으로부터 변화하지 않고, 프레임 #n-1의 좌측에서 17번째 화소의 화소값은 프레임 #n-2의 좌측에서 17번째 화소의 화소값으로부터 변화하지 않는다.
즉, 프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소는, 배경 성분만으로 이루어지고, 화소값이 변화하지 않기 때문에, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n-1 및 프레임 #n-2의 화소에 대한 정동 판정은, 정동 판정부(202-4)에 의해 정지로 판정된다.
프레임 #n에서의 커버드 백그라운드 영역에 속하는 화소는 전경 성분을 포함하기 때문에, 프레임 #n-1에서의 배경 성분만으로 이루어지는 경우와 화소값이 서로 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소 및 대응하는 프레임 #n-1의 화소에 대한 정동 판정은, 정동 판정부(202-3)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-3)는 정동 판정부(202-3)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-4)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 커버드 백그라운드 영역에 속한 다고 판정한다.
도 30에 나타내는, 배경이 정지하고, 전경의 움직임량 v가 4인 프레임 #n에 있어서, 언커버드 백그라운드 영역에 포함되는 화소는 좌측에서 2번째 내지 4번째 화소이다. 움직임량 v가 4이기 때문에, 하나 뒤의 프레임 #n+1에 있어서, 좌측에서 2번째 내지 4번째 화소는 배경 성분만을 포함하고, 배경 영역에 속한다. 또한, 하나 더 뒤의 프레임 #n+2에 있어서, 좌측에서 2번째 내지 4번째 화소는 배경 성분만을 포함하고, 배경 영역에 속한다.
여기서, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n+2의 좌측에서 2번째 화소의 화소값은, 프레임 #n+1의 좌측에서 2번째 화소의 화소값에서 변화하지 않는다. 마찬가지로, 프레임 #n+2의 좌측에서 3번째 화소의 화소값은 프레임 #n+1의 좌측에서 3번째 화소의 화소값으로부터 변화하지 않고, 프레임 #n+2의 좌측에서 4번째 화소의 화소값은 프레임 #n+1의 좌측에서 4번째 화소의 화소값으로부터 변화하지 않는다.
즉, 프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소는, 배경 성분만으로 이루어지고, 화소값이 변화하지 않기 때문에, 그 차의 절대값은 거의 0의 값이 된다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소에 대응하는, 프레임 #n+1 및 프레임 #n+2의 화소에 대한 정동 판정은, 정동 판정부(202-1)에 의해 정지라고 판정된다.
프레임 #n에서의 언커버드 백그라운드 영역에 속하는 화소는, 전경 성분을 포함하기 때문에, 프레임 #n+1에서의 배경 성분만으로 이루어지는 경우와, 화소값 이 서로 다르다. 따라서, 프레임 #n에서의 혼합 영역에 속하는 화소 및 대응하는 프레임 #n+1의 화소에 대한 정동 판정은, 정동 판정부(202-2)에 의해 움직임으로 판정된다.
이와 같이, 영역 판정부(203-1)는 정동 판정부(202-2)로부터 움직임을 나타내는 정동 판정의 결과가 공급되고, 정동 판정부(202-1)로부터 정지를 나타내는 정동 판정의 결과가 공급되었을 때, 대응하는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 31은 프레임 #n에서의 영역 특정부(103)의 판정 조건을 도시하는 도면이다. 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-2의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소가 정지라고 판정되고, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임이라고 판정되었을 때, 영역 특정부(103)는, 프레임 #n의 판정 대상이 되는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 정지라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 정지라고 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정 대상이 되는 화소가 정지 영역에 속한다고 판정한다.
프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n-1의 화소와, 프레임 #n의 화소가 움직임이라고 판정되고, 프레임 #n의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임이라고 판정되었을 때, 영역 특정부(103)는 프레임 #n의 판정 대상이 되는 화소가 움직임 영역에 속한다고 판정한다.
프레임 #n의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소가 움직임이라고 판정되고, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+1의 화소와, 프레임 #n의 판정 대상이 되는 화소의 화상 상의 위치와 동일한 위치에 있는 프레임 #n+2의 화소가 정지라고 판정되었을 때, 영역 특정부(103)는, 프레임 #n의 판정 대상이 되는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 32A 내지 도 32D는 영역 특정부(103)의 영역 특정 결과의 예를 나타내는 도면이다. 도 32A에서, 커버드 백그라운드 영역에 속한다고 판정된 화소는, 백색으로 표시되어 있다. 도 32B에서, 언커버드 백그라운드 영역에 속한다고 판정된 화소는, 백색으로 표시되어 있다.
도 32C에 있어서, 움직임 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다. 도 32D에서, 정지 영역에 속한다고 판정된 화소는 백색으로 표시되어 있다.
도 33은 판정 플래그 저장 프레임 메모리(206)가 출력하는 영역 정보 중, 혼합 영역을 나타내는 영역 정보를 화상으로서 나타내는 도면이다. 도 33에 있어서, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역에 속한다고 판정된 화소, 즉 혼합 영역에 속한다고 판정된 화소는, 백색으로 표시되어 있다. 판정 플래그 저장 프레임 메모리(206)가 출력하는 혼합 영역을 나타내는 영역 정보는, 혼합 영역, 및 전경 영역 내의 텍스쳐가 없는 부분으로 둘러싸인 텍스쳐가 있는 부분을 나타낸다.
다음에, 도 34의 흐름도를 참조하여, 영역 특정부(103)의 영역 특정 처리를 설명한다. 단계 S201에 있어서, 프레임 메모리(201)는 판정의 대상이 되는 프레임 #n을 포함하는 프레임 #n-2내지 프레임 #n+2의 화상을 취득한다.
단계 S202에 있어서, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 정지인지 여부를 판정하여, 정지라고 판정된 경우, 단계 S203으로 진행하고, 정동 판정부(202-2)는, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지인지 여부를 판정한다.
단계 S203에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지라고 판정된 경우, 단계 S204로 진행하여, 영역 판정부(203-2)는 영역이 판정되는 화소에 대응하는 정지 영역 판정 플래그에, 정지 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 정지 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은 단계 S205로 진행한다.
단계 S202에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 또는 단계 S203에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 프레임 #n의 화소가 정지 영역에는 속하지 않기 때문에, 단계 S204의 처리는 스킵되고, 수속은 단계 S205로 진행한다.
단계 S205에 있어서, 정동 판정부(202-3)는, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임인지 여부를 판정하여, 움직임으로 판정된 경우, 단계 S206으로 진행하고, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임인지 여부를 판정한다.
단계 S206에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 단계 S207로 진행하여, 영역 판정부(203-2)는, 영역이 판정되는 화소에 대응하는 움직임 영역 판정 플래그에, 움직임 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-2)는 움직임 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은 단계 S208로 진행한다.
단계 S205에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 정지라고 판정된 경우, 또는 단계 S206에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지라고 판정된 경우, 프레임 #n의 화소가 움직임 영역에는 속하지 않기 때문에, 단계 S207의 처리는 스킵되고, 수속은 단계 S208로 진행한다.
단계 S208에 있어서, 정동 판정부(202-4)는, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에 대해 정지인지 여부를 판정하여, 정지라고 판정된 경우, 단계 S209로 진행하고, 정동 판정부(202-3)는 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임인지 여부를 판정한다.
단계 S209에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 단계 S210으로 진행하여, 영역 판정부(203-3)는, 영 역이 판정되는 화소에 대응하는 커버드 백그라운드 영역 판정 플래그에, 커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-3)는 커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은 단계 S211로 진행한다.
단계 S208에 있어서, 프레임 #n-2의 화소와 프레임 #n-1의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 또는 단계 S209에 있어서, 프레임 #n-1의 화소와 프레임 #n의 동일 위치의 화소에 대해 정지라고 판정된 경우, 프레임 #n의 화소가 커버드 백그라운드 영역에는 속하지 않기 때문에, 단계 S210의 처리는 스킵되고, 수속은 단계 S211로 진행한다.
단계 S211에 있어서, 정동 판정부(202-2)는 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 움직임인지 여부를 판정하여, 움직임으로 판정된 경우, 단계 S212로 진행하고, 정동 판정부(202-1)는 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에 대해 정지인지 여부를 판정한다.
단계 S212에 있어서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에 대해 정지라고 판정된 경우, 단계 S213으로 진행하고, 영역 판정부(203-1)는, 영역이 판정되는 화소에 대응하는 언커버드 백그라운드 영역 판정 플래그에, 언커버드 백그라운드 영역에 속하는 것을 나타내는 "1"을 설정한다. 영역 판정부(203-1)는, 언커버드 백그라운드 영역 판정 플래그를 판정 플래그 저장 프레임 메모리(204)에 공급하고, 수속은 단계 S214로 진행한다.
단계 S211에 있어서, 프레임 #n의 화소와 프레임 #n+1의 동일 위치의 화소에 대해 정지라고 판정된 경우, 또는 단계 S212에 있어서, 프레임 #n+1의 화소와 프레임 #n+2의 동일 위치의 화소에 대해 움직임으로 판정된 경우, 프레임 #n의 화소가 언커버드 백그라운드 영역에는 속하지 않기 때문에, 단계 S213의 처리는 스킵되고, 수속은 단계 S214로 진행한다.
단계 S214에 있어서, 영역 특정부(103)는, 프레임 #n의 모든 화소에 대하여 영역을 특정했는지 여부를 판정하고, 프레임 #n의 모든 화소에 대하여 영역을 특정하지 않았다고 판정된 경우, 수속은 단계 S202로 되돌아가, 다른 화소에 대하여 영역 특정 처리를 반복한다.
단계 S214에 있어서, 프레임 #n의 모든 화소에 대하여 영역을 특정하였다고 판정된 경우, 단계 S215로 진행하여, 합성부(205)는, 판정 플래그 저장 프레임 메모리(204)에 기억되어 있는 언커버드 백그라운드 영역 판정 플래그, 및 커버드 백그라운드 영역 판정 플래그에 기초하여, 혼합 영역을 나타내는 영역 정보를 생성하고, 또한, 각 화소가, 언커버드 백그라운드 영역, 정지 영역, 움직임 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것을 나타내는 영역 정보를 생성하여, 생성한 영역 정보를 판정 플래그 저장 프레임 메모리(206)로 설정하고, 처리는 종료한다.
이와 같이, 영역 특정부(103)는 프레임에 포함되어 있는 화소 각각에 대하여, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
또, 영역 특정부(103)는, 언커버드 백그라운드 영역 및 커버드 백그라운드 영역에 대응하는 영역 정보에 논리합을 적용함으로써, 혼합 영역에 대응하는 영역 정보를 생성하여, 프레임에 포함되어 있는 화소 각각에 대하여, 움직임 영역, 정지 영역, 또는 혼합 영역에 속하는 것을 나타내는 플래그로 이루어지는 영역 정보를 생성하도록 해도 된다.
전경에 대응하는 오브젝트가 텍스쳐를 갖는 경우, 영역 특정부(103)는 보다 정확하게 움직임 영역을 특정할 수 있다.
영역 특정부(103)는 움직임 영역을 나타내는 영역 정보를 전경 영역을 나타내는 영역 정보로서, 또한 정지 영역을 나타내는 영역 정보를 배경 영역을 나타내는 영역 정보로서 출력할 수 있다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 영역을 특정하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 일정하게 움직이고 있을 때, 영역 특정부(103)는 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 서로 다른 움직임을 포함하고 있을 때, 영역 특정부(103)는 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
도 35는 영역 특정부(103)의 구성을 도시하는 블록도이다. 도 35에 나타내는 영역 특정부(103)는 움직임 벡터를 사용하지 않는다. 배경 화상 생성부(301)는 입력 화상에 대응하는 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다. 배경 화상 생성부(301)는 예를 들면, 입력 화상에 포 함되는 배경 오브젝트에 대응하는 화상 오브젝트를 추출하여, 배경 화상을 생성한다.
전경 오브젝트에 대응하는 화상의 움직임 방향에 인접하여 1열로 배열되는 화소의 화소값을 시간 방향으로 전개한 모델도의 예를 도 36에 도시한다. 예를 들면, 전경 오브젝트에 대응하는 화상의 움직임 방향이 화면에 대하여 수평일 때, 도 36에서의 모델도는 1라인 상의 인접하는 화소의 화소값을 시간 방향으로 전개한 모델을 나타낸다.
도 36에 있어서, 프레임 #n에서의 라인은 프레임 #n-1 및 프레임 #n+1에서의 라인과 동일하다.
프레임 #n에서, 좌측에서 6번째 화소 내지 17번째 화소에 포함되어 있는 오브젝트에 대응하는 전경 성분은, 프레임 #n-1에 있어서, 좌측에서 2번째 내지 13번째 화소에 포함되고, 프레임 #n+1에 있어서, 좌측에서 10번째 내지 21번째 화소에 포함된다.
프레임 #n-1에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측에서 11번째 내지 13번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측에서 2번째 내지 4번째 화소이다. 프레임 #n에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측에서 15번째 내지 17번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측에서 6번째 내지 8번째 화소이다. 프레임 #n+1에 있어서, 커버드 백그라운드 영역에 속하는 화소는 좌측에서 19번째 내지 21번째 화소이고, 언커버드 백그라운드 영역에 속하는 화소는 좌측에서 10번째 내지 12번째 화소이 다.
프레임 #n-1에 있어서, 배경 영역에 속하는 화소는 좌측에서 1번째 화소, 및 좌측에서 14번째 내지 21번째 화소이다. 프레임 #n에 있어서, 배경 영역에 속하는 화소는 좌측에서 1번째 내지 5번째 화소 및 좌측에서 18번째 내지 21번째 화소이다. 프레임 #n+1에 있어서, 배경 영역에 속하는 화소는 좌측에서 1번째 내지 9번째 화소이다.
배경 화상 생성부(301)가 생성하는, 도 36의 예에 대응하는 배경 화상의 예를 도 37에 도시한다. 배경 화상은, 배경 오브젝트에 대응하는 화소로 구성되고, 전경 오브젝트에 대응하는 화상의 성분을 포함하지 않는다.
2치 오브젝트 화상 추출부(302)는 배경 화상 및 입력 화상의 상관을 기초로, 2치 오브젝트 화상을 생성하여, 생성한 2치 오브젝트 화상을 시간 변화 검출부(303)에 공급한다.
도 38은 2치 오브젝트 화상 추출부(302)의 구성을 나타내는 블록도이다. 상관값 연산부(321)는, 배경 화상 생성부(301)로부터 공급된 배경 화상 및 입력 화상의 상관을 연산하여 상관값을 생성하고, 생성한 상관값을 임계값 처리부(322)에 공급한다.
상관값 연산부(321)는, 예를 들면, 도 39A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 중의 블록과, 도 39B에 도시한 바와 같이, 배경 화상 중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블록에, 수학식 13을 적용하여, Y4에 대응하는 상관값을 산출한다.
Figure 112003006661253-pct00013
Figure 112003006661253-pct00014
Figure 112003006661253-pct00015
상관값 연산부(321)는 이와 같이 각 화소에 대응하여 산출된 상관값을 임계값 처리부(322)에 공급한다.
또한, 상관값 연산부(321)는, 예를 들면 도 40A에 도시한 바와 같이, X4를 중심으로 한 3×3의 배경 화상 중의 블록과, 도 40B에 도시한 바와 같이, 배경 화상 중의 블록에 대응하는 Y4를 중심으로 한 3×3의 입력 화상 중의 블록에, 수학식 16을 적용하여, Y4에 대응하는 차분 절대값을 산출하도록 하여도 좋다.
Figure 112003006661253-pct00016
상관값 연산부(321)는 이와 같이 산출된 차분 절대값을 상관값으로서 임계값 처리부(322)에 공급한다.
임계값 처리부(322)는 상관 화상의 화소값과 임계값 th0을 비교하여, 상관값이 임계값 th0 이하인 경우, 2치 오브젝트 화상의 화소값으로 1을 설정하고, 상관값이 임계값 th0보다 큰 경우, 2치 오브젝트 화상의 화소값으로 0을 설정하고,0또는 1이 화소값으로 설정된 2치 오브젝트 화상을 출력한다. 임계값 처리부(322)는 임계값 th0을 사전에 기억하도록 해도 되고, 또는, 외부로부터 입력된 임계값 th0을 사용하도록 해도 된다.
도 41은 도 36에 나타내는 입력 화상의 모델에 대응하는 2치 오브젝트 화상의 예를 도시하는 도면이다. 2치 오브젝트 화상에 있어서, 배경 화상과 상관이 높은 화소에는 화소값으로 0이 설정된다.
도 42는 시간 변화 검출부(303)의 구성을 도시하는 블록도이다. 프레임 메모리(341)는 프레임 #n의 화소에 대하여 영역을 판정할 때, 2치 오브젝트 화상 추출부(302)로부터 공급된, 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기억한다.
영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상을 기초로, 프레임 #n의 각 화소에 대하여 영역을 판정하여, 영역 정보를 생성하고, 생성한 영역 정보를 출력한다.
도 43은 영역 판정부(342)의 판정을 설명하는 도면이다. 프레임 #n의 2치 오브젝트 화상이 주목하고 있는 화소가 0일 때, 영역 판정부(342)는 프레임 #n의 주목하고 있는 화소가 배경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1 의 2치 오브젝트 화상의 대응하는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 1일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 전경 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n-1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정한다.
프레임 #n의 2치 오브젝트 화상의 주목하고 있는 화소가 1이고, 프레임 #n+1의 2치 오브젝트 화상의 대응하는 화소가 0일 때, 영역 판정부(342)는, 프레임 #n의 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정한다.
도 44는 도 36에 나타내는 입력 화상의 모델에 대응하는 2치 오브젝트 화상에 대하여, 시간 변화 검출부(303)가 판정한 예를 도시하는 도면이다. 시간 변화 검출부(303)는 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 프레임 #n의 좌측에서 1번째 내지 5번째 화소를 배경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n+1의 대응하는 화소가 0이기 때문에, 좌측에서 6번째 내지 9번째 화소를 언커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 1이고, 프레임 #n+1의 대응하는 화소가 1이기 때문에, 좌측에서 10번째 내지 13번째 화소를 전경 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2치 오브젝트 화상의 프레임 #n의 화소가 1이고, 프레임 #n-1의 대응하는 화소가 0이기 때문에, 좌측에서 14번째 내지 17번째 화소를 커버드 백그라운드 영역에 속한다고 판정한다.
시간 변화 검출부(303)는, 2치 오브젝트 화상의 프레임 #n의 대응하는 화소가 0이기 때문에, 좌측에서 18번째 내지 21번째 화소를 배경 영역에 속한다고 판정한다.
다음에, 도 45의 흐름도를 참조하여, 영역 판정부(103)의 영역 특정 처리를 설명한다. 단계 S301에 있어서, 영역 판정부(103)의 배경 화상 생성부(301)는 입력 화상을 기초로, 예를 들면, 입력 화상에 포함되는 배경 오브젝트에 대응하는 화상 오브젝트를 추출하여 배경 화상을 생성하고, 생성한 배경 화상을 2치 오브젝트 화상 추출부(302)에 공급한다.
단계 S302에 있어서, 2치 오브젝트 화상 추출부(302)는, 예를 들면 도 39A 및 도 39B를 참조하여 설명한 연산에 의해, 입력 화상과 배경 화상 생성부(301)로부터 공급된 배경 화상과의 상관값을 연산한다. 단계 S303에 있어서, 2치 오브젝트 화상 추출부(302)는 예를 들면, 상관값과 임계값 th0 을 비교함으로써, 상관값 및 임계값 th0으로부터 2치 오브젝트 화상을 연산한다.
단계 S304에 있어서, 시간 변화 검출부(303)는 영역 판정 처리를 실행하고, 처리는 종료한다.
도 46의 흐름도를 참조하여, 단계 S304에 대응하는 영역 판정 처리의 상세를 설명한다. 단계 S321에 있어서, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에서, 주목하는 화소가 0인지 여부를 판정하여, 프레임 #n에서 주목하는 화소가 0이라고 판정된 경우, 단계 S322로 진행하고, 프레임 #n의 주목하는 화소가 배경 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S321에 있어서, 프레임 #n에 있어서, 주목하는 화소가 1이라고 판정된 경우, 단계 S323으로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에 있어서, 주목하는 화소가 1이고, 또한 프레임 #n-1에 있어서, 대응하는 화소가 0인지 여부를 판정하여, 프레임 #n에 있어서, 주목하는 화소가 1이고, 또한 프레임 #n-1에 있어서, 대응하는 화소가 0이라고 판정된 경우, 단계 S324로 진행하여, 프레임 #n의 주목하는 화소가 커버드 백그라운드 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S323에 있어서, 프레임 #n에서 주목하는 화소가 0이거나, 또는 프레임 #n-1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S325로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 메모리(341)에 기억되어 있는 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n+1에서 대응하는 화소가 0인지 여부를 판정하고, 프레임 #n에서 주목하는 화소가 1이고, 또한 프레임 #n+1에서 대응하는 화소가 0이라고 판정된 경우, 단계 S326으로 진행하여, 프레임 #n의 주목하는 화소가 언커버드 백그라운드 영역에 속한다고 설정하고, 처리는 종료한다.
단계 S325에 있어서, 프레임 #n에서 주목하는 화소가 0이거나, 또는 프레임 #n+1에서 대응하는 화소가 1이라고 판정된 경우, 단계 S327로 진행하고, 시간 변화 검출부(303)의 영역 판정부(342)는, 프레임 #n의 주목하는 화소를 전경 영역이라고 설정하고, 처리는 종료한다.
이와 같이, 영역 특정부(103)는 입력된 화상과 대응하는 배경 화상의 상관값에 기초하여, 입력 화상의 화소가 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 특정하여, 특정한 결과에 대응하는 영역 정보를 생성할 수 있다.
도 47은 영역 특정부(103)의 다른 구성을 나타내는 블록도이다. 도 47에 나타내는 영역 특정부(103)는, 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보를 사용한다. 도 35에 나타내는 경우와 마찬가지 부분에는 동일한 번호를 부여하고, 그 설명은 생략한다.
로버스트화부(361)는, 2치 오브젝트 화상 추출부(302)로부터 공급된, N개의 프레임의 2치 오브젝트 화상을 기초로, 로버스트화된 2치 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 출력한다.
도 48은 로버스트화부(361)의 구성을 설명하는 블록도이다. 움직임 보상부(381)는, 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로, N개의 프레임의 2치 오브젝트 화상의 움직임을 보상하여, 움직임이 보상된 2치 오브젝트 화상을 스위치(382)에 출력한다.
도 49 및 도 50의 예를 참조하여, 움직임 보상부(381)의 움직임 보상에 대하여 설명한다. 예를 들면, 프레임 #n의 영역을 판정할 때, 도 49에 예를 나타내는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 2치 오브젝트 화상이 입력된 경우, 움직임 보상부(381)는, 움직임 검출부(102)로부터 공급된 움직임 벡터를 기초로, 도 50에 예를 나타내는 바와 같이, 프레임 #n-1의 2치 오브젝트 화상, 및 프레임 #n+1의 2치 오브젝트 화상을 움직임 보상하여, 움직임 보상된 2치 오브젝트 화상을 스위치(382)에 공급한다.
스위치(382)는 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-1)에 출력하고, 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-2)에 출력한다. 마찬가지로, 스위치(382)는 3번째 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상의 각각을 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나로 출력하고, N번째 프레임의 움직임 보상된 2치 오브젝트 화상을 프레임 메모리(383-N)에 출력한다.
프레임 메모리(383-1)는 1번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-1)에 출력한다. 프레임 메모리(383-2)는 2번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-2)에 출력한다.
마찬가지로, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1))의 각각은, 3번째 프레임 내지 N-1번째 프레임의 움직임 보상된 2치 오브젝트 화상 중 어느 하나를 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1)) 중 어느 하나로 출력한다. 프레임 메모리(383-N)는 N번째 프레임의 움직임 보상된 2치 오브젝트 화상을 기억하고, 기억되어 있는 2치 오브젝트 화상을 가중치 부여부(384-N)에 출력한다.
가중치 부여부(384-1)는, 프레임 메모리(383-1)로부터 공급된 1번째 프레임 의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 w1을 곱하여, 적산부(385)에 공급한다. 가중치 부여부(384-2)는 프레임 메모리(383-2)로부터 공급된 2번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 w2를 곱하여 적산부(385)에 공급한다.
마찬가지로, 가중치 부여부(384-3) 내지 가중치 부여부(384-(N-1))의 각각은, 프레임 메모리(383-3) 내지 프레임 메모리(383-(N-1)) 중 어느 하나로부터 공급된 3번째 내지 N-1번째 중 어느 하나 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 w3 내지 가중치 w(N-1) 중 어느 하나를 곱하여 적산부(385)에 공급한다. 가중치 부여부(384-N)는 프레임 메모리(383-N)로부터 공급된 N번째 프레임의 움직임 보상된 2치 오브젝트 화상의 화소값에 사전에 정한 가중치 wN을 곱하여, 적산부(385)에 공급한다.
적산부(385)는 1내지 N번째 프레임의 움직임이 보상되고, 각각 가중치 w1 내지 wN 중 어느 하나가 곱해진, 2치 오브젝트 화상의 대응하는 화소값을 적산하여, 적산된 화소값을 사전에 정한 임계값 th0과 비교함으로써 2치 오브젝트 화상을 생성한다.
이와 같이, 로버스트화부(361)는, N개의 2치 오브젝트 화상으로부터 로버스트화된 2치 오브젝트 화상을 생성하여, 시간 변화 검출부(303)에 공급하기 때문에, 도 47에 구성을 도시하는 영역 특정부(103)는, 입력 화상에 노이즈가 포함되어 있더라도, 도 35에 나타내는 경우에 비교하여 보다 정확하게 영역을 특정할 수 있다.
다음에, 도 47에 구성을 도시하는 영역 특정부(103)의 영역 특정 처리에 대 하여, 도 51의 흐름도를 참조하여 설명한다. 단계 S341 내지 단계 S343의 처리는, 도 45의 흐름도에서 설명한 단계 S301 내지 단계 S303과 각각 마찬가지이므로 그 설명은 생략한다.
단계 S344에 있어서, 로버스트화부(361)는 로버스트화의 처리를 실행한다.
단계 S345에 있어서, 시간 변화 검출부(303)는 영역 판정의 처리를 실행하고, 처리는 종료한다. 단계 S345의 처리의 상세는 도 46의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에 그 설명은 생략한다.
다음에, 도 52의 흐름도를 참조하여, 도 51의 단계 S344의 처리에 대응하는, 로버스트화의 처리의 상세에 대하여 설명한다. 단계 S361에 있어서, 움직임 보상부(381)는 움직임 검출부(102)로부터 공급되는 움직임 벡터와 그 위치 정보에 기초하여, 입력된 2치 오브젝트 화상의 움직임 보상 처리를 실행한다. 단계 S362에 있어서, 프레임 메모리(383-1 내지 383-N) 중 어느 하나는, 스위치(382)를 통해 공급된 움직임 보상된 2치 오브젝트 화상을 기억한다.
단계 S363에 있어서, 로버스트화부(361)는 N개의 2치 오브젝트 화상이 기억되었는지 여부를 판정하여, N개의 2치 오브젝트 화상이 기억되어 있지 않다고 판정된 경우, 단계 S361로 되돌아가, 2치 오브젝트 화상의 움직임 보상 처리 및 2치 오브젝트 화상의 기억 처리를 반복한다.
단계 S363에 있어서, N개의 2치 오브젝트 화상이 기억되었다고 판정된 경우, 단계 S364로 진행하여, 가중치 부여부(384-1 내지 384-N)의 각각은, N개의 2치 오브젝트 화상의 각각에 w1 내지 wN 중 어느 하나의 가중치를 곱하여 가중한다.
단계 S365에 있어서, 적산부(385)는 가중된 N개의 2치 오브젝트 화상을 적산한다.
단계 S366에 있어서, 적산부(385)는 예를 들면, 사전에 정해진 임계값 th1과의 비교 등에 의해, 적산된 화상으로부터 2치 오브젝트 화상을 생성하고, 처리는 종료한다.
이와 같이, 도 47에 구성을 도시하는 영역 특정부(103)는, 로버스트화된 2치 오브젝트 화상을 기초로 영역 정보를 생성할 수 있다.
이상과 같이, 영역 특정부(103)는, 프레임에 포함되어 있는 화소의 각각에 대하여, 움직임 영역, 정지 영역, 언커버드 백그라운드 영역, 또는 커버드 백그라운드 영역에 속하는 것을 나타내는 영역 정보를 생성할 수 있다.
도 53은 혼합비 산출부(104)의 구성 일례를 나타내는 블럭도이다. 추정 혼합비 처리부(401)는 입력 화상을 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
추정 혼합비 처리부(402)는 입력 화상을 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하여, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있기 때문에, 혼합 영역에 속하는 화소의 혼합비 α는 이하의 성질을 갖는다. 즉, 혼합비 α는 화소의 위치 변화에 대응하여 직선적으로 변화한다. 화소의 위치 변화를 1차원이라고 하면, 혼합비 α의 변화는 직선으로 표현할 수 있고, 화소의 위치 변화를 2차원이라고 하면, 혼합비 α의 변화는 평면에서 표현할 수 있다.
또, 1 프레임의 기간은 짧기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 하는 가정이 성립한다.
이 경우, 혼합비 α의 기울기는, 전경의 셔터 시간 내에서의 움직임량 v의 역비가 된다.
이상적인 혼합비 α의 예를 도 54에 도시한다. 이상적인 혼합비 α의 혼합 영역에서의 기울기 l은, 움직임량 v의 역수로서 나타낼 수 있다.
도 54에 도시한 바와 같이, 이상적인 혼합비 α는, 배경 영역에서 1의 값을 지니고, 전경 영역에서 0의 값을 지니고, 혼합 영역에서 O를 초과하고 1미만인 값을 갖는다.
도 55의 예에 있어서, 프레임 #n의 좌측에서 7번째의 화소의 화소값 C06은, 프레임 #n-1의 좌측에서 7번째의 화소의 화소값 P06을 이용하여, 수학식 17로 나타낼 수 있다.
Figure 112003006661253-pct00017
수학식 17에 있어서, 화소값 C06을 혼합 영역의 화소의 화소값 M과, 화소값 P06을 배경 영역의 화소의 화소값 B로 표현한다. 즉, 혼합 영역의 화소의 화소값 M 및 배경 영역의 화소의 화소값 B는, 각각 수학식 18 및 수학식 19와 같이 표현할 수 있다.
Figure 112003006661253-pct00018
Figure 112003006661253-pct00019
수학식 17에서의 2/v는 혼합비 α에 대응한다. 움직임량 v가 4이기 때문에, 프레임 #n의 좌측에서 7번째의 화소의 혼합비 α는 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #n의 앞의 프레임 #n-1의 화소값 P를 배경 영역의 화소값이라고 간주함으로써, 혼합비 α를 나타내는 수학식 12는 수학식 20과 같이 바꾸어 쓸 수 있다.
Figure 112003006661253-pct00020
수학식 20의 f는, 주목하고 있는 화소에 포함되는 전경 성분의 합 ΣiFi/v이다. 수학식 20에 포함되는 변수는 혼합비 α및 전경 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에서의, 움직임량 v가 4이고, 시간 방향의 가상 분할 수가 4인, 화소값을 시간 방향으로 전개한 모델을 도 56에 도시한 다.
언커버드 백그라운드 영역에 있어서, 상술한 커버드 백그라운드 영역에서의 표현과 마찬가지로, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값이라고 간주하고, 프레임 #n의 뒤의 프레임 #n+1의 화소값 N을 배경 영역의 화소값이라고 간주함으로써, 혼합비 α를 도시하는 수학식 12는, 수학식 21과 같이 표현할 수 있다.
Figure 112003006661253-pct00021
또, 배경 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 오브젝트가 움직이고 있는 경우에도, 배경의 움직임량 v에 대응시킨 위치의 화소의 화소값을 이용함으로써, 수학식 17 내지 수학식 21을 적용할 수 있다. 예를 들면, 도 55에 있어서, 배경에 대응하는 오브젝트의 움직임량 v가 2이고, 가상 분할 수가 2일 때, 배경에 대응하는 오브젝트가 도면 중의 우측으로 움직이고 있을 때, 수학식 19에 있어서의 배경 영역의 화소의 화소값 B는, 화소값 P04가 된다.
수학식 20 및 수학식 21은 각각 2개의 변수를 포함하기 때문에, 그대로는 혼합비 α를 구할 수 없다. 여기서, 화상은 일반적으로 공간적으로 상관이 강하기 때문에 근접하는 화소끼리 거의 동일한 화소값이 된다.
그래서, 전경 성분은, 공간적으로 상관이 강하기 때문에, 전경 성분의 합 f를 앞 또는 뒤의 프레임으로부터 도출할 수 있도록 식을 변형하여, 혼합비 α를 구한다.
도 57의 프레임 #n의 좌측에서 7번째의 화소의 화소값 Mc은, 수학식 22로 나타낼 수 있다.
Figure 112003006661253-pct00022
수학식 22의 우변 제1항의 2/v는 혼합비 α에 상당한다. 수학식 22의 우변 제2항은 뒤의 프레임 #n+1의 화소값을 이용하여, 수학식 23과 같이 나타내는 것으로 한다.
Figure 112003006661253-pct00023
여기서, 전경 성분의 공간 상관을 이용하여, 수학식 24가 성립한다고 한다.
Figure 112003006661253-pct00024
수학식 23은 수학식 24를 이용하여, 수학식 25와 같이 치환할 수 있다.
Figure 112003006661253-pct00025
결과적으로, β는 수학식 26으로 나타낼 수 있다.
Figure 112003006661253-pct00026
일반적으로, 수학식 24에 도시한 바와 같이 혼합 영역에 관계하는 전경 성분이 같다고 가정하면, 혼합 영역의 모든 화소에 대하여, 내분비(內分比)의 관계로부터 수학식 27이 성립한다.
Figure 112003006661253-pct00027
수학식 27이 성립한다고 한다면, 수학식 20은 수학식 28에 나타낸 바와 같이 전개할 수 있다.
Figure 112003006661253-pct00028
마찬가지로, 수학식 27이 성립한다고 한다면, 수학식 21은 수학식 29에 나타낸 바와 같이 전개할 수 있다.
Figure 112003006661253-pct00029
수학식 28 및 수학식 29에 있어서, C, N, 및 P는 기지의 화소값이기 때문에, 수학식 28 및 수학식 29에 포함되는 변수는, 혼합비 α뿐이다.
수학식 28 및 수학식 29에 있어서의, C, N, 및 P의 관계를 도 58에 도시한다. C는 혼합비 α를 산출하는, 프레임 #n의 주목하고 있는 화소의 화소값이다.
N은 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n+1의 화소의 화소값이다. P는 주목하고 있는 화소와 공간 방향의 위치가 대응하는, 프레임 #n-1의 화소의 화소값이다.
따라서, 수학식 28 및 수학식 29의 각각에 하나의 변수가 포함되게 되기 때문에, 3개의 프레임 화소의 화소값을 이용하여 혼합비 α를 산출할 수 있다. 수학식 28 및 수학식 29를 푸는 것에 의해, 옳은 혼합비 α가 산출되기 위한 조건은, 혼합 영역에 관계하는 전경 성분이 같은, 즉, 전경 오브젝트가 정지하고 있을 때 촬상된 전경의 화상 오브젝트에 있어서, 전경 오브젝트의 움직임의 방향에 대응하는, 화상 오브젝트의 경계에 위치하는 화소이고, 움직임량 v의 2배의 수의 연속하고 있는 화소의 화소값이, 일정하다는 것이다.
이상과 같이, 커버드 백그라운드 영역에 속하는 화소의 혼합비 α는 수학식 30에 의해 산출되고, 언커버드 백그라운드 영역에 속하는 화소의 혼합비 α는 수학식 31에 의해 산출된다.
Figure 112003006661253-pct00030
Figure 112003006661253-pct00031
도 59는, 추정 혼합비 처리부(401)의 구성을 나타내는 블록도이다. 프레임 메모리(421)는, 입력된 화상을 프레임 단위로 기억하고, 입력 화상으로서 입력되어 있는 프레임으로부터 하나 뒤의 프레임을 프레임 메모리(422)및 혼합비 연산부(423)에 공급한다.
프레임 메모리(422)는 입력된 화상을 프레임 단위로 기억하고, 프레임 메모리(421)에서 공급되고 있는 프레임으로부터 하나 뒤의 프레임을 혼합비 연산부(423)에 공급한다.
따라서, 입력 화상으로서 프레임 #n+1이 혼합비 연산부(423)에 입력되어 있을 때, 프레임 메모리(421)는 프레임 #n을 혼합비 연산부(423)에 공급하고, 프레임 메모리(422)는 프레임 #n-1을 혼합비 연산부(423)에 공급한다.
혼합비 연산부(423)는, 수학식 30에 나타내는 연산에 의해, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 공간적 위치가 대응하는, 프레임 #n-1의 화소의 화소값 P를 기초로, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 출력한다. 예를 들면, 배경이 정지하고 있을 때, 혼합비 연산부(423)는, 프레임 #n의 주목하고 있는 화소의 화소값 C, 주목하고 있는 화소와 프레임 내의 위치가 동일한, 프레임 #n+1의 화소의 화소값 N, 및 주목하고 있는 화소와 프레임 내의 위치가 동일한, 프레임 #n-1의 화소의 화소값 P를 기초로, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는, 추정 혼합비 처리부(401)가 수학식 30에 나타내는 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 데 대하여, 수학식 31에 나타내는 연산에 의해, 주목하고 있는 화소의 추정 혼합비를 산출하는 부분이 다른 점을 제외하고, 추정 혼합비 처리부(401)와 마찬가지이기 때문에, 그 설명은 생략한다.
도 60은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 도시하는 도면이다. 도 60에 나타내는 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임량 v가 11인 경우의 결과를, 1라인에 대하여 나타내는 것이다.
추정 혼합비는 혼합 영역에서, 도 54에 도시한 바와 같이 거의 직선적으로 변화하고 있음을 알 수 있다.
도 53으로 되돌아가, 혼합비 결정부(403)는, 영역 특정부(103)로부터 공급된, 혼합비 α의 산출 대상이 되는 화소가, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는지를 나타내는 영역 정보를 기초로, 혼합비 α를 설정한다. 혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비 α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합 비를 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비 α로 설정한다. 혼합비 결정부(403)는 영역 정보를 기초로 설정한 혼합비 α를 출력한다.
도 61은 혼합비 산출부(104)의 다른 구성을 나타내는 블록도이다. 선택부(441)는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하는 앞 및 뒤의 프레임의 화소를 추정 혼합비 처리부(442)에 공급한다. 선택부(441)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 언커버드 백그라운드 영역에 속하는 화소 및, 이것에 대응하는 앞 및 뒤의 프레임의 화소를 추정 혼합비 처리부(443)에 공급한다.
추정 혼합비 처리부(442)는 선택부(441)로부터 입력된 화소값을 기초로, 수학식 30에 나타내는 연산에 의해, 커버드 백그라운드 영역에 속하는, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 선택부(444)에 공급한다.
추정 혼합비 처리부(443)는 선택부(441)로부터 입력된 화소값을 기초로, 수학식 31에 나타내는 연산에 의해, 언커버드 백그라운드 영역에 속하는, 주목하고 있는 화소의 추정 혼합비를 산출하여, 산출한 추정 혼합비를 선택부(444)에 공급한다.
선택부(444)는 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 대상이 되는 화소가 전경 영역에 속하는 경우, 0인 추정 혼합비를 선택하여 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1인 추정 혼합비를 선택 하여 혼합비 α로 설정한다. 선택부(444)는, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(442)로부터 공급된 추정 혼합비를 선택하여 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(443)로부터 공급된 추정 혼합비를 선택하여 혼합비 α로 설정한다. 선택부(444)는 영역 정보를 기초로 선택하여 설정한 혼합비 α를 출력한다.
이와 같이, 도 61에 나타내는 다른 구성을 갖는 혼합비 산출부(104)는, 화상이 포함되는 화소마다 혼합비 α를 산출하여, 산출한 혼합비 α를 출력할 수 있다.
도 62의 흐름도를 참조하여, 도 53에 구성을 도시하는 혼합비 산출부(104)의 혼합비 α의 산출 처리를 설명한다. 단계 S401에 있어서, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보를 취득한다. 단계 S402에 있어서, 추정 혼합비 처리부(401)는, 커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다. 혼합비 추정의 연산 처리의 상세는 도 63의 흐름도를 참조하여 후술한다.
단계 S403에 있어서, 추정 혼합비 처리부(402)는 언커버드 백그라운드 영역에 대응하는 모델에 의해 추정 혼합비의 연산 처리를 실행하고, 산출한 추정 혼합비를 혼합비 결정부(403)에 공급한다.
단계 S404에 있어서, 혼합비 산출부(104)는 프레임 전체에 대하여 혼합비 α를 추정하였는지 여부를 판정하여, 프레임 전체에 대하여 혼합비 α를 추정하지 않았다고 판정된 경우, 단계 S402로 되돌아가, 다음 화소에 대하여 혼합비 α를 추정 하는 처리를 실행한다.
단계 S404에 있어서, 프레임 전체에 대하여 혼합비 α를 추정하였다고 판정된 경우, 단계 S405로 진행하여, 혼합비 결정부(403)는, 화소가, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하지를 나타내는, 영역 특정부(103)로부터 공급된 영역 정보를 기초로, 혼합비 α를 설정한다. 혼합비 결정부(403)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영역에 속하는 경우, 1을 혼합비 α로 설정하고, 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(401)로부터 공급된 추정 혼합비를 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 추정 혼합비 처리부(402)로부터 공급된 추정 혼합비를 혼합비 α로 설정하고, 처리는 종료한다.
이와 같이, 혼합비 산출부(104)는 영역 특정부(103)로부터 공급된 영역 정보, 및 입력 화상을 기초로, 각 화소에 대응하는 특징량인 혼합비 α를 산출할 수 있다.
도 61에 구성을 도시하는 혼합비 산출부(104)의 혼합비 α의 산출 처리는, 도 62의 흐름도로 설명한 처리와 마찬가지이기 때문에, 그 설명은 생략한다.
다음에, 도 62의 단계 S402에 대응하는, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 63의 흐름도를 참조하여 설명한다.
단계 S421에 있어서, 혼합비 연산부(423)는 프레임 메모리(421)로부터, 프레임 #n의 주목 화소의 화소값 C를 취득한다.
단계 S422에 있어서, 혼합비 연산부(423)는 프레임 메모리(422)로부터, 주목 화소에 대응하는, 프레임 #n-1의 화소의 화소값 P를 취득한다.
단계 S423에 있어서, 혼합비 연산부(423)는 입력 화상에 포함되는 주목 화소에 대응하는, 프레임 #n+1의 화소의 화소값 N을 취득한다.
I 단계 S424에 있어서, 혼합비 연산부(423)는 프레임 #n의 주목 화소의 화소값 C, 프레임 #n-1의 화소의 화소값 P, 및 프레임 #n+1의 화소의 화소값 N을 기초로, 추정 혼합비를 연산한다.
단계 S425에 있어서, 혼합비 연산부(423)는 프레임 전체에 대하여 추정 혼합비를 연산하는 처리를 종료하였는지 여부를 판정하여, 프레임 전체에 대하여 추정 혼합비를 연산하는 처리를 종료하지 않았다고 판정된 경우, 단계 S421로 되돌아가, 다음 화소에 대하여 추정 혼합비를 산출하는 처리를 반복한다.
단계 S425에 있어서, 프레임 전체에 대하여 추정 혼합비를 연산하는 처리를 종료하였다고 판정된 경우, 처리는 종료한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 연산할 수 있다.
도 62의 단계 S403에 있어서의 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 식을 이용한, 도 63의 흐름도에 도시하는 처리와 마찬가지이기 때문에, 그 설명은 생략한다.
또, 도 61에 나타내는 추정 혼합비 처리부(442)및 추정 혼합비 처리부(443) 는, 도 63에 나타내는 흐름도와 마찬가지의 처리를 실행하여 추정 혼합비를 연산하기 때문에, 그 설명은 생략한다.
또한, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비 α를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는, 배경의 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 서로 다른 배경의 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는, 혼합 영역에 속하는 화소에 대응하는 화소로서, 배경의 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
또한, 혼합비 산출부(104)는 모든 화소에 대하여, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리만을 실행하여, 산출된 추정 혼합비를 혼합비 α로서 출력하도록 하여도 좋다. 이 경우에 있어서, 혼합비 α는, 커버드 백그라운드 영역에 속하는 화소에 대하여 배경 성분의 비율을 나타내고, 언커버드 백그라운드 영역에 속하는 화소에 대하여, 전경 성분의 비율을 나타낸다. 언커버드 백그라운드 영역에 속하는 화소에 대하여, 이와 같이 산출된 혼합비 α와 1의 차분의 절대값을 산출하여, 산출한 절대값을 혼합비 α로 설정하면, 전경 배경 성분 화상 생성부(91)는, 언커버드 백그라운드 영역에 속하는 화소에 대하여, 배경 성분의 비율을 나타내는 혼합비 α를 구할 수 있다.
또, 마찬가지로, 혼합비 산출부(104)는 모든 화소에 대하여, 언커버드 백그 라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리만을 실행하여, 산출된 추정 혼합비를 혼합비 α로서 출력하도록 하여도 좋다.
다음에, 혼합비 α가 직선적으로 변화하는 성질을 이용하여 혼합비 α를 산출하는 혼합비 산출부(104)에 대하여 설명한다.
상술한 바와 같이, 수학식 20 및 수학식 21은 각각 2개의 변수를 포함하기 때문에, 그대로는 혼합비 α를 구할 수 없다.
그래서, 셔터 시간 내에 있어서, 전경에 대응하는 오브젝트가 등속으로 움직이는 것에 의한, 화소의 위치 변화에 대응하여, 혼합비 α가 직선적으로 변화하는 성질을 이용하여, 공간 방향에, 혼합비 α와 전경 성분의 합 f를 근사한 식을 세운다. 혼합 영역에 속하는 화소의 화소값 및 배경 영역에 속하는 화소의 화소값의 조의 복수를 이용하여, 혼합비 α와 전경 성분의 합 f를 근사한 식을 푼다.
혼합비 α의 변화를 직선으로서 근사하면, 혼합비 α는 수학식 32로 나타난다.
Figure 112003006661253-pct00032
수학식 32에 있어서, i는 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인덱스이다. l은 혼합비 α의 직선의 기울기이다. p는 혼합비 α의 직선의 세그먼트임과 동시에, 주목하고 있는 화소의 혼합비 α이다. 수학식 32에 있어서, 인덱스 i는 기지이지만, 기울기 l 및 세그먼트 p는 미지이다.
인덱스 i, 기울기 l, 및 세그먼트 p의 관계를 도 64에 도시한다. 도 64에 있어서, 백색 동그라미는 주목 화소를 나타내고, 흑색 동그라미는 근방 화소를 나타낸다.
혼합비 α를 수학식 32와 같이 근사함으로써, 복수의 화소에 대하여 복수의 다른 혼합비 α는 2개의 변수로 표현된다. 도 64에 나타내는 예에 있어서, 5개의 화소에 대한 5개의 혼합비는, 2개의 변수인 기울기 l 및 세그먼트 p에 의해 표현된다.
도 65에 나타내는 평면에서 혼합비 α를 근사하면, 화상의 수평 방향 및 수직 방향의 2개의 방향에 대응하는 움직임 v를 고려했을 때, 수학식 32를 평면으로 확장하여, 혼합비 α는 수학식 33으로 표현된다. 도 65에 있어서, 백색 동그라미는 주목 화소를 나타낸다.
Figure 112003006661253-pct00033
수학식 33에 하여, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은 혼합비 α의 면의 수평 방향의 기울기이고, q는 혼합비 α의 면의 수직 방향의 기울기이다. p는 혼합비 α의 면의 세그먼트이다.
예를 들면, 도 55에 나타내는 프레임 #n에 있어서, C05 내지 C07에 대하여, 각각 수학식 34 내지 수학식 36이 성립된다.
Figure 112003006661253-pct00034
Figure 112003006661253-pct00035
Figure 112003006661253-pct00036
전경 성분이 근방에서 일치하는, 즉 F01 내지 F03이 같다고 하고, F01 내지 F03을 Fc로 치환하면 수학식 37이 성립한다.
Figure 112003006661253-pct00037
수학식 37에 있어서, x는 공간 방향의 위치를 나타낸다.
α(x)를 수학식 33으로 치환하면, 수학식 37은 수학식 38로서 나타낼 수 있다.
Figure 112003006661253-pct00038
수학식 38에 있어서, (-m·Fc), (-q·Fc), 및 (l-p)·Fc는, 수학식 39 내지 수학식 41에 나타낸 바와 같이 치환되어 있다.
Figure 112003006661253-pct00039
Figure 112003006661253-pct00040
Figure 112003006661253-pct00041
수학식 38에 있어서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트가 셔터 시간 내에서 등속으로 이동하고, 전경에 대응하는 성분이 근방에서 일정하다고 하는 가정이 성립하기 때문에, 전경 성분의 합은 수학식 38로 근사된다.
또, 혼합비 α를 직선으로 근사하는 경우, 전경 성분의 합은 수학식 42로 나타낼 수 있다.
Figure 112003006661253-pct00042
수학식 22의 혼합비 α및 전경 성분의 합을, 수학식 33 및 수학식 38을 이용하여 치환하면, 화소값 M은 수학식 43으로 표현된다.
Figure 112003006661253-pct00043
수학식 43에 있어서, 미지의 변수는, 혼합비 α의 면의 수평 방향의 기울기 m, 혼합비 α의 면의 수직 방향의 기울기 q, 혼합비 α의 면의 세그먼트 p, s, t, 및 u의 6개이다.
주목하고 있는 화소의 근방의 화소에 대응시켜, 수학식 43에 나타내는 정규 방정식에 화소값 M 또는 화소값 B를 설정하고, 화소값 M 또는 화소값 B가 설정된 복수의 정규 방정식을 최소 제곱법으로 풀어, 혼합비 α를 산출한다.
예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 O로 하고, 주목하고 있는 화소의 근방의 3×3의 화소에 대하여, 수학식 43에 나타내는 정규 방정식에 화소값 M 또는 화소값 B를 설정하면, 수학식 44 내지 수학식 52를 얻는다.
Figure 112003006661253-pct00044
Figure 112003006661253-pct00045
Figure 112003006661253-pct00046
Figure 112003006661253-pct00047
Figure 112003006661253-pct00048
Figure 112003006661253-pct00049
Figure 112003006661253-pct00050
Figure 112003006661253-pct00051
Figure 112003006661253-pct00052
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k가 0이기 때문에, 주목하고 있는 화소의 혼합비 α는, 수학식 33으로부터, j=0 및 K=0일 때의 값, 즉 세그먼트 p와 같다.
따라서, 수학식 44 내지 수학식 52의 9개의 식을 기초로, 최소 제곱법에 의해, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u의 각각의 값을 산출하여, 세그먼트 p를 혼합비 α로서 출력하면 된다.
다음에, 최소 제곱법을 적용하여 혼합비 α를 산출하는 보다 구체적인 수순을 설명한다.
인덱스 i 및 인덱스 k를 하나의 인덱스 x로 표현하면, 인덱스 i, 인덱스 k, 및 인덱스 x의 관계는, 수학식 53으로 표현된다.
Figure 112003006661253-pct00053
수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 각각 변수 w0, w1, w2, w3, w4, 및 w5로 표현하고, jB, kB, B, j, k, 및 l을 각각 a0, a1, a2, a3, a4, 및 a5로 표현한다. 오차 ex를 고려하면, 수학식 44 내지 52는, 수학식 54로 바꾸어 쓸 수 있다.
Figure 112003006661253-pct00054
수학식 54에 있어서, x는0내지 8의 정수 중 어느 하나의 값이다.
수학식 54에서 수학식 55를 유도할 수 있다.
Figure 112003006661253-pct00055
여기서, 최소 제곱법을 적용하기 위해서, 오차의 제곱합 E를 수학식 56에 나타낸 바와 같이 정의한다.
Figure 112003006661253-pct00056
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Wv의 편미분이 0이 되면 된다. 여기서, v는0내지 5의 정수 중 어느 하나의 값이다. 따라서, 수학식 57을 만족하도록 wy를 구한다.
Figure 112003006661253-pct00057
수학식 57에 수학식 55를 대입하면, 수학식 58을 얻는다.
Figure 112003006661253-pct00058
수학식 58의 v에0내지 5의 정수 중 어느 하나를 대입하여 얻어지는 6개의 식에, 예를 들면, 소인법(Gauss-Jordan의 소거법) 등을 적용하여 wy를 산출한다. 상술한 바와 같이, w0은 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 세그먼트 p이고, w3은 s이고, w4는 t이고, w5는 u이다.
이상과 같이, 화소값 M 및 화소값 B를 설정한 식에 최소 제곱법을 적용함으로써, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 세그먼트 p, s, t, 및 u를 구할 수 있다.
수학식 44 내지 수학식 52에 대응하는 설명에 있어서, 혼합 영역에 포함되는 화소의 화소값을 M으로 하고, 배경 영역에 포함되는 화소의 화소값을 B로 하여 설명하였지만, 주목하고 있는 화소가, 커버드 백그라운드 영역에 포함되는 경우, 또는 언커버드 백그라운드 영역에 포함되는 경우의 각각에 대하여, 정규 방정식을 세울 필요가 있다.
예를 들면, 도 55에 도시하는, 프레임 #n의 커버드 백그라운드 영역에 포함 되는 화소의 혼합비 α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소값 P04 내지 P08이, 정규 방정식으로 설정된다.
도 56에 도시하는, 프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의 화소의 화소값 N28 내지 N32가, 정규 방정식으로 설정된다.
또한, 예를 들면, 도 66에 도시하는, 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 이하의 수학식 59 내지 수학식 67이 세워진다. 도 66에 있어서, 백색 동그라미는 배경으로 간주하는 화소를 나타내고, 흑색 동그라미는 혼합 영역의 화소로 간주하는 화소를 나타낸다. 혼합비 α를 산출하는 화소의 화소값은 Mc5이다.
Figure 112003006661253-pct00059
Figure 112003006661253-pct00060
Figure 112003006661253-pct00061
Figure 112003006661253-pct00062
Figure 112003006661253-pct00063
Figure 112003006661253-pct00064
Figure 112003006661253-pct00065
Figure 112003006661253-pct00066
Figure 112003006661253-pct00067
프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 수학식 59 내지 수학식 67에 있어서, 프레임 #n의 화소에 대응하는, 프레임 #n-1의 화소의 배경 영역의 화소의 화소값 Bc1 내지 Bc9가 사용된다.
도 66에 도시하는, 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 이하의 수학식 68 내지 수학식 76이 세워진다. 혼합비 α를 산출하는 화소의 화소값은 Mu5이다.
Figure 112003006661253-pct00068
Figure 112003006661253-pct00069
Figure 112003006661253-pct00070
Figure 112003006661253-pct00071
Figure 112003006661253-pct00072
Figure 112003006661253-pct00073
Figure 112003006661253-pct00074
Figure 112003006661253-pct00075
Figure 112003006661253-pct00076
프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 수학식 68 내지 수학식 76에 있어서, 프레임 #n의 화소에 대응하는, 프레임 #n+1의 화소의 배경 영역의 화소의 화소값 Bu1 내지 Bu9가 사용된다.
도 67은 추정 혼합비 처리부(401)의 구성을 나타내는 블록도이다. 추정 혼합비 처리부(401)에 입력된 화상은, 지연부(501) 및 산입부(502)에 공급된다.
지연 회로(501)는 입력 화상을 1 프레임 지연시켜, 산입부(502)에 공급한다. 산입부(502)에 입력 화상으로서 프레임 #n이 입력되어 있을 때, 지연 회로(501)는 프레임 #n-1을 산입부(502)에 공급한다.
산입부(502)는 혼합비 α를 산출하는 화소의 근방의 화소의 화소값, 및 프레임 #n-1의 화소값을, 정규 방정식으로 설정한다. 예를 들면, 산입부(502)는 수학식 59 내지 수학식 67에 기초하여, 정규 방정식에 화소값 Mc1 내지 Mc9 및 화소값 Bc1 내지 Bc9를 설정한다. 산입부(502)는 화소값이 설정된 정규 방정식을 연산부(503)에 공급한다.
연산부(503)는 산입부(502)로부터 공급된 정규 방정식을 소인법 등에 의해 풀어 추정 혼합비를 구하고, 구해진 추정 혼합비를 출력한다.
이와 같이, 추정 혼합비 처리부(401)는 입력 화상을 기초로 추정 혼합비를 산출하여, 혼합비 결정부(403)에 공급할 수 있다.
또, 추정 혼합비 처리부(402)는 추정 혼합비 처리부(401)와 마찬가지의 구성을 갖기 때문에, 그 설명은 생략한다.
도 68은 추정 혼합비 처리부(401)에 의해 산출된 추정 혼합비의 예를 나타내는 도면이다. 도 68에 나타내는 추정 혼합비는, 등속으로 움직이고 있는 오브젝트에 대응하는 전경의 움직임 v가 11이고, 7×7 화소의 블록을 단위로 방정식을 생성하여 산출된 결과를, 1라인에 대하여 나타내는 것이다.
추정 혼합비는 혼합 영역에서, 도 67에 도시한 바와 같이 거의 직선적으로 변화하고 있음을 알 수 있다.
다음에, 도 67에 구성을 도시하는 추정 혼합비 처리부(401)에 의한, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 69의 흐름도를 참조하여 설명한다.
단계 S521에 있어서, 산입부(502)는, 입력된 화상에 포함되는 화소값, 및 지연 회로(501)에서 공급되는 화상에 포함되는 화소값을, 커버드 백그라운드 영역의 모델에 대응하는 정규 방정식으로 설정한다.
단계 S522에 있어서, 추정 혼합비 처리부(401)는, 대상이 되는 화소에 대한 설정이 종료되었는지 여부를 판정하여, 대상이 되는 화소에 대한 설정이 종료하지 않았다고 판정된 경우, 단계 S521로 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S522에 있어서, 대상이 되는 화소에 대한 화소값의 설정이 종료하였다고 판정된 경우, 단계 S523으로 진행하여, 연산부(503)는 화소값이 설정된 정규 방정식을 기초로 추정 혼합비를 연산하여, 구해진 추정 혼합비를 출력한다.
이와 같이, 도 67에 구성을 도시하는 추정 혼합비 처리부(401)는, 입력 화상을 기초로 추정 혼합비를 연산할 수 있다.
언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 69의 흐름도에 도시하는 처리와 마찬가지이기 때문에, 그 설명은 생략한다.
또, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 추정 혼합비 처리부(401)는, 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 같이 처리한다. 또한, 배 경 영역에 대응하는 화상이 국소마다 서로 다른 움직임을 포함하고 있을 때, 추정 혼합비 처리부(401)는 혼합 영역에 속하는 화소에 대응하는 화소로서, 움직임에 대응한 화소를 선택하여, 상술한 처리를 실행한다.
이와 같이, 혼합비 산출부(102)는 영역 특정부(101)로부터 공급된 영역 정보, 및 입력 화상을 기초로, 각 화소에 대응하는 특징량인 혼합비 α를 산출할 수 있다.
혼합비 α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명의 정보를 남긴 채로, 화소값에 포함되는 전경 성분과 배경 성분을 분리하는 것이 가능하게 된다.
또한, 혼합비 α에 기초하여 화상을 합성하면, 실 세계를 실제로 다시 촬영한 것 같은 움직이고 있는 오브젝트의 스피드에 정합한 정확한 움직임 불선명을 포함하는 화상을 만드는 것이 가능하게 된다.
다음에, 전경 배경 분리부(105)에 대하여 설명한다. 도 70은 전경 배경 분리부(105)의 구성 일례를 나타내는 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는, 영역 특정부(103)로부터 공급된 영역 정보는, 분리부(601)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(602)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(604)에 공급된다.
혼합비 산출부(104)로부터 공급된 혼합비 α는 분리부(601)에 공급된다. 분 리부(601)는 커버드 백그라운드 영역을 나타내는 영역 정보, 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비 α를 기초로, 입력 화상으로부터 전경 성분을 분리하여, 분리한 전경 성분을 합성부(603)에 공급함과 함께, 입력 화상으로부터 배경 성분을 분리하여, 분리한 배경 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타내는 영역 정보를 기초로, 전경에 대응하는 화소가 입력되었을 때, 폐쇄되고, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 나타내는 영역 정보를 기초로, 배경에 대응하는 화소가 입력되었을 때, 폐쇄되고, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는, 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소를 기초로, 전경 성분 화상을 합성하여, 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(603)는 예를 들면, 전경에 대응하는 성분과 전경에 대응하는 화소와에 논리합의 연산을 적용하여, 전경 성분 화상을 합성한다.
합성부(603)는, 전경 성분 화상의 합성 처리 최초로 실행되는 초기화의 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 전경 성분 화상의 합성 처리에 있어서, 전경 성분 화상을 저장(덧씌우기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 중, 배경 영역에 대응하는 화소에는, 화소값으로서 0이 저장되어 있다.
합성부(605)는, 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소를 기초로, 배경 성분 화상을 합성하여, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(605)는 예를 들면, 배경에 대응하는 성분과, 배경에 대응하는 화소와에 논리합의 연산을 적용하여, 배경 성분 화상을 합성한다.
합성부(605)는 배경 성분 화상의 합성 처리 최초로 실행되는 초기화의 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 배경 성분 화상의 합성 처리에 있어서, 배경 성분 화상을 저장(덧씌우기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 중, 전경 영역에 대응하는 화소에는, 화소값으로서 0이 저장되어 있다.
도 71A는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)에서 출력되는 전경 성분 화상 및 배경 성분 화상을 나타내는 도면이다. 도 71B는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)에서 출력되는 전경 성분 화상 및 배경 성분 화상의 모델을 나타내는 도면이다.
도 71A는 표시되는 화상의 모식도이고, 도 71B는 도 71A에 대응하는 전경 영역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포함하는 1라인의 화소를 시간 방향으로 전개한 모델도를 도시한다.
도 71A 및 도 71B에 도시한 바와 같이, 전경 배경 분리부(105)에서 출력되는 배경 성분 화상은, 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경 성분으로 구성된다.
도 71A 및 도 71B에 도시한 바와 같이, 전경 배경 분리부(105)에서 출력되는 전경 성분 화상은, 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경 성분으로 구성된다.
혼합 영역의 화소의 화소값은, 전경 배경 분리부(105)에 의해 배경 성분과 전경 성분으로 분리된다. 분리된 배경 성분은 배경 영역에 속하는 화소와 함께, 배경 성분 화상을 구성한다. 분리된 전경 성분은 전경 영역에 속하는 화소와 함께, 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은 배경 영역에 대응하는 화소의 화소값이 0이 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다. 마찬가지로, 배경 성분 화상은 전경 영역에 대응하는 화소의 화소값이 0이 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다.
다음에, 분리부(601)가 실행하는, 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리하는 처리에 대하여 설명한다.
도 72는 도면 중의 좌측에서 우측으로 이동하는 오브젝트에 대응하는 전경을 포함하는, 2개의 프레임의 전경 성분 및 배경 성분을 도시하는 화상의 모델이다. 도 72에 나타내는 화상의 모델에 있어서, 전경의 움직임량 v는 4이고, 가상 분할 수는 4로 되어 있다.
프레임 #n에 있어서, 가장 좌측의 화소 및 좌측에서 14번째 내지 18번째의 화소는, 배경 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n에 있어서, 좌측에서 2번째 내지 4번째의 화소는, 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n에 있어서, 좌측에서 11번째 내지 13번째의 화소는, 배경 성분 및 전경 성분을 포함하고, 커버드도 백그라운드 영역에 속한다. 프레임 #n에서, 좌측에서 5번째 내지 10번째의 화소는, 전경 성분만으로 이루어지고, 전경 영역에 속한다.
프레임 #n+1에 있어서, 좌측에서 1번째 내지 5번째의 화소 및 좌측에서 18번째의 화소는, 배경 성분만으로 이루어지고, 배경 영역에 속한다. 프레임 #n+1에 있어서, 좌측에서 6번째 내지 8번째의 화소는, 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n+1에서, 좌측에서 15번째 내지 17번째의 화소는, 배경 성분 및 전경 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n+1에 있어서, 좌측에서 9번째 내지 14번째의 화소는, 전경 성분만으로 이루어지고, 전경 영역에 속한다.
도 73은 커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 73에 있어서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 73에 있어서, 좌측에서 15번째 내지 17번째의 화소는 커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측에서 15번째의 화소의 화소값 C15는 수학식 77로 표현된다.
Figure 112003006661253-pct00077
여기서, α15는 프레임 #n의 좌측에서 15번째의 화소의 혼합비이다. P15는 프레임 #n-1의 좌측에서 15번째의 화소의 화소값이다.
수학식 77을 기초로, 프레임 #n의 좌측에서 15번째의 화소의 전경 성분의 합 F15는 수학식 78로 표현된다.
Figure 112003006661253-pct00078
마찬가지로, 프레임 #n의 좌측에서 16번째의 화소의 전경 성분의 합 F16은 수학식 79로 표현되고, 프레임 #n의 좌측에서 17번째의 화소의 전경 성분의 합 F17은 수학식 80으로 표현된다.
Figure 112003006661253-pct00079
Figure 112003006661253-pct00080
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경 성분 fc는, 수학식 81에 의해 계산된다.
Figure 112003006661253-pct00081
P는 하나 앞의 프레임의, 대응하는 화소의 화소값이다.
도 74는 언커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 74에 있어서, α1 내지 α18은 프레임 #n에서의 화소의 각각에 대응하는 혼합비이다. 도 74에 있어서, 좌측에서 2번째 내지 4번째의 화소는, 언커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측에서 2번째의 화소의 화소값 C02는 수학식 82로 표현된다.
Figure 112003006661253-pct00082
여기서, α2는 프레임 #n의 좌측에서 2번째의 화소의 혼합비이다. N02는 프레임 #n+1의 좌측에서 2번째의 화소의 화소값이다.
수학식 82를 기초로, 프레임 #n의 좌측에서 2번째의 화소의 전경 성분의 합 f02는, 수학식 83으로 표현된다.
Figure 112003006661253-pct00083
마찬가지로, 프레임 #n의 좌측에서 3번째의 화소의 전경 성분의 합 f03은 수학식 84로 표현되고, 프레임 #n의 좌측에서 4번째의 화소의 전경 성분의 합 f04는 수학식 85로 표현된다.
Figure 112003006661253-pct00084
Figure 112003006661253-pct00085
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경 성분 fu는, 수학식 86으로 계산된다.
Figure 112003006661253-pct00086
N은 하나 뒤의 프레임의, 대응하는 화소의 화소값이다.
이와 같이, 분리부(601)는 영역 정보에 포함되는, 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는 정보, 및 화소마다의 혼합비 α를 기초로, 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리할 수 있다.
도 75는 이상에서 설명한 처리를 실행하는 분리부(601)의 구성 일례를 나타내는 블록도이다. 분리부(601)에 입력된 화상은, 프레임 메모리(621)에 공급되고, 혼합비 산출부(104)로부터 공급된 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비 α는, 분리 처리 블록(622)에 입력된다.
프레임 메모리(621)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는, 처리의 대상이 프레임 #n일 때, 프레임 #n의 하나 앞의 프레임인 프레 임 #n-1, 프레임 #n, 및 프레임 #n의 하나 뒤의 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(621)는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소를 분리 처리 블록(622)에 공급한다.
분리 처리 블록(622)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보, 및 혼합비 α를 기초로, 프레임 메모리(621)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1의 대응하는 화소의 화소값에 도 73 및 도 74를 참조하여 설명한 연산을 적용하고, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경 성분 및 배경 성분을 분리하여, 프레임 메모리(623)에 공급한다.
분리 처리 블록(622)은 언커버드 영역 처리부(631), 커버드 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
언커버드 영역 처리부(631)의 승산기(641)는, 혼합비 α를, 프레임 메모리(621)로부터 공급된 프레임 #n+1의 화소의 화소값에 곱하여, 스위치(642)에 출력한다. 스위치(642)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응함)가 언커버드 백그라운드 영역일 때, 폐쇄되고, 승산기(641)로부터 공급된 혼합비 α를 곱한 화소값을 연산기(643) 및 합성부(634)에 공급한다. 스위치(642)로부터 출력되는 프레임 n+1의 화소의 화소값에 혼합비 α를 곱한 값은, 프레임 #n의 대응하는 화소의 화소값의 배경 성분과 같다.
연산기(643)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(642)로부터 공급된 배경 성분을 감하여, 전경 성분을 구한다. 연산기(643)는 언커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분 을 합성부(633)에 공급한다.
커버드 영역 처리부(632)의 승산기(651)는 혼합비 α를, 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소값에 곱하여, 스위치(652)에 출력한다. 스위치(652)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응함)가 커버드 백그라운드 영역일 때, 폐쇄되고, 승산기(651)로부터 공급된 혼합비 α를 곱한 화소값을 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비 α를 곱한 값은, 프레임 #n+1의 대응하는 화소의 화소값의 배경 성분과 같다.
연산기(653)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(652)로부터 공급된 배경 성분을 감하여, 전경 성분을 구한다. 연산기(653)는 커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분을 합성부(633)에 공급한다.
합성부(633)는, 프레임 #n의, 연산기(643)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 전경 성분, 및 연산기(653)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성하여, 프레임 메모리(623)에 공급한다.
합성부(634)는, 프레임 #n의, 스위치(642)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 배경 성분, 및 스위치(652)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성하여, 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는 분리 처리 블록(622)로부터 공급된, 프레임 #n의 혼합 영역의 화소의 전경 성분과, 배경 성분을 각각에 기억한다.
프레임 메모리(623)는 기억하고 있는 프레임 #n의 혼합 영역의 화소의 전경 성분, 및 기억하고 있는 프레임 #n의 혼합 영역의 화소의 배경 성분을 출력한다.
특징량인 혼합비 α를 이용함으로써, 화소값에 포함되는 전경 성분과 배경 성분을 완전하게 분리하는 것이 가능하게 된다.
합성부(603)는, 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 전경 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는, 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 배경 성분과, 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 76A는 도 72의 프레임 #n에 대응하는, 전경 성분 화상의 예를 나타낸다. 가장 좌측의 화소 및 좌측에서 14번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 배경 성분만으로 이루어져 있었기 때문에, 화소값이 0이 된다.
좌측에서 2번째 내지 4번째의 화소는, 전경과 배경으로 분리되기 전에 있어서, 언커버드 백그라운드 영역에 속하고, 배경 성분이 0으로 되고, 전경 성분이 그대로 남아 있다. 좌측에서 11번째 내지 13번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 커버드 백그라운드 영역에 속하고, 배경 성분이 0으로 되고, 전경 성분이 그대로 남아 있다. 좌측에서 5번째 내지 10번째의 화소는 전경 성분만으로 이루어지기 때문에, 그대로 남겨진다.
도 76B는 도 72의 프레임 #n에 대응하는, 배경 성분 화상의 예를 나타낸다. 가장 좌측의 화소, 및 좌측에서 14번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 배경 성분만으로 이루어져 있었기 때문에, 그대로 남겨진다.
좌측에서 2번째 내지 4번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 언커버드 백그라운드 영역에 속하고, 전경 성분이 0으로 되고, 배경 성분이 그대로 남겨져 있다. 좌측에서 11번째 내지 13번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 커버드 백그라운드 영역에 속하고, 전경 성분이 0으로 되고, 배경 성분이 그대로 남겨져 있다. 좌측에서 5번째 내지 10번째의 화소는, 전경과 배경이 분리되기 전에 있어서, 전경 성분만으로 이루어져 있었기 때문에, 화소값이 0이 된다.
다음에, 도 77에 나타내는 흐름도를 참조하여, 전경 배경 분리부(105)에 의한 전경과 배경의 분리 처리를 설명한다. 단계 S601에 있어서, 분리부(601)의 프레임 메모리(621)는 입력 화상을 취득하여, 전경과 배경의 분리 대상이 되는 프레임 #n을, 그 앞의 프레임 #n-1 및 그 뒤의 프레임 #n+1과 함께 기억한다.
단계 S602에 있어서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 영역 정보를 취득한다. 단계 S603에 있어서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(104)로부터 공급된 혼합비 α를 취득한다.
단계 S604에 있어서, 언커버드 영역 처리부(631)는 영역 정보 및 혼합비 α를 기초로, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 배경 성분을 추출한다.
단계 S605에 있어서, 언커버드 영역 처리부(631)는, 영역 정보 및 혼합비 α를 기초로, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 전경 성분을 추출한다.
단계 S606에 있어서, 커버드 영역 처리부(632)는 영역 정보 및 혼합비 α를 기초로, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 배경 성분을 추출한다.
단계 S607에 있어서, 커버드 영역 처리부(632)는 영역 정보 및 혼합비 α를 기초로, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 전경 성분을 추출한다.
단계 S608에 있어서, 합성부(633)는, 단계 S605의 처리에 의해 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분과, 단계 S607의 처리에 의해 추출된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성한다. 합성된 전경 성분은 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 개재하여 공급된 전경 영역에 속하는 화소와, 분리부(601)로부터 공급된 전경 성분을 합성하여, 전경 성분 화상을 생성한다.
단계 S609에 있어서, 합성부(634)는 단계 S604의 처리에 의해 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분과, 단계 S606의 처리에 의해 추출된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성한다. 합성된 배경 성분은 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 개재하여 공급된 배경 영역에 속하는 화소와, 분리부(601)로부터 공급된 배경 성분을 합성하 여, 배경 성분 화상을 생성한다.
단계 S610에 있어서, 합성부(603)는 전경 성분 화상을 출력한다. 단계 S611에 있어서, 합성부(605)는 배경 성분 화상을 출력하고, 처리는 종료한다.
이와 같이, 전경 배경 분리부(105)는 영역 정보 및 혼합비 α를 기초로, 입력 화상으로부터 전경 성분과 배경 성분을 분리하여, 전경 성분만으로 이루어지는 전경 성분 화상, 및 배경 성분만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
다음에, 전경 성분 화상의 움직임 불선명의 량의 조정에 대하여 설명한다.
도 78은 움직임 불선명 조정부(106)의 구성 일례를 나타내는 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는, 처리 단위 결정부(801), 모델화부(802), 및 연산부(805)에 공급된다. 영역 특정부(103)로부터 공급된 영역 정보는 처리 단위 결정부(801)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 산입부(804)에 공급된다.
처리 단위 결정부(801)는 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로 처리 단위를 생성하여, 생성한 처리 단위를 모델화부(802)및 산입부(804)에 공급한다.
처리 단위 결정부(801)가 생성하는 처리 단위는, 도 79에 A로 예를 나타내는 바와 같이, 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소에서 시작되어, 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 배열되는 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소로부터 시작되어, 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향으로 배열되는 연속하는 화소를 나타낸다. 처리 단위는 예를 들면, 좌측 상부점(처리 단위로 지정되는 화소이고, 화상 상에서 가장 좌측 또는 가장 위에 위치하는 화소의 위치) 및 우측 하부점의 2개의 데이터로 이루어진다.
모델화부(802)는, 움직임 벡터 및 입력된 처리 단위를 기초로 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(802)는 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할 수, 및 화소마다의 전경 성분의 수에 대응하는 복수의 모델을 미리 기억해 놓고, 처리 단위, 및 화소값의 시간 방향의 가상 분할 수를 기초로, 도 80에 도시한 바와 같은 화소값과 전경 성분의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 셔터 시간 내의 움직임량 v가 5일 때에는, 모델화부(802)는 가상 분할 수를 5로 하여, 가장 좌측에 위치하는 화소가 하나의 전경 성분을 포함하고, 좌측에서 2번째의 화소가 2개의 전경 성분을 포함하고, 좌측에서 3번째의 화소가 3개의 전경 성분을 포함하고, 좌측에서 4번째의 화소가 4개의 전경 성분을 포함하고, 좌측에서 5번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 6번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 7번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 8번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 9번째의 화소가 4개의 전경 성분을 포함하고, 좌측에서 10번째의 화소가 3개의 전경 성분을 포함하고, 좌측에서 11번째의 화소가 2개의 전경 성분을 포함하고, 좌측에서 12번째의 화소가 하나의 전경 성분을 포함하여, 전 체적으로 8개의 전경 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(802)는 미리 기억하고 있는 모델로부터 선택하는 것이 아니고, 움직임 벡터 및 처리 단위가 공급되었을 때, 움직임 벡터 및 처리 단위를 기초로 모델을 생성하도록 하여도 좋다.
모델화부(802)는 선택한 모델을 방정식 생성부(803)에 공급한다.
방정식 생성부(803)는 모델화부(802)로부터 공급된 모델을 기초로 방정식을 생성한다. 도 80에 나타내는 전경 성분 화상의 모델을 참조하여, 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5이고, 가상 분할 수가 5일 때의, 방정식 생성부(803)가 생성하는 방정식에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간 /v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 CO1 내지 C12의 관계는, 수학식 87 내지 수학식 98로 표현된다.
Figure 112003006661253-pct00087
Figure 112003006661253-pct00088
Figure 112003006661253-pct00089
Figure 112003006661253-pct00090
Figure 112003006661253-pct00091
Figure 112003006661253-pct00092
Figure 112003006661253-pct00093
Figure 112003006661253-pct00094
Figure 112003006661253-pct00095
Figure 112003006661253-pct00096
Figure 112003006661253-pct00097
Figure 112003006661253-pct00098
방정식 생성부(803)는 생성한 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(803)가 생성하는 방정식을 수학식 99 내지 수학식 110에 나타낸다.
Figure 112003006661253-pct00099
Figure 112003006661253-pct00100
Figure 112003006661253-pct00101
Figure 112003006661253-pct00102
Figure 112003006661253-pct00103
Figure 112003006661253-pct00104
Figure 112003006661253-pct00105
Figure 112003006661253-pct00106
Figure 112003006661253-pct00107
Figure 112003006661253-pct00108
Figure 112003006661253-pct00109
Figure 112003006661253-pct00110
수학식 99 내지 수학식 110은 수학식 111로서 나타낼 수도 있다.
Figure 112003006661253-pct00111
수학식 111에 있어서, j는 화소의 위치를 나타낸다. 이 예에 있어서, j는 L내지 12중 어느 하나의 값을 갖는다. 또, i는 전경치의 위치를 나타낸다. 이 예에 있어서, i는 1 내지 8 중 어느 하나의 값을 갖는다. aij는 i 및 j의 값에 대응 하여, 0 또는 1의 값을 갖는다.
오차를 고려하여 표현하면, 수학식 111은 수학식 112와 같이 나타낼 수 있다.
Figure 112003006661253-pct00112
수학식 112에 있어서, ej는 주목 화소 cj에 포함되는 오차이다.
수학식 112는 수학식 113으로 재기입할 수 있다.
Figure 112003006661253-pct00113
여기서, 최소 제곱법을 적용하기 위해서, 오차의 제곱합 E를 수학식 114에 나타낸 바와 같이 정의한다.
Figure 112003006661253-pct00114
오차가 최소로 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Fk에 의한 편미분의 값이 0이 되면 된다. 수학식 115를 만족하도록 Fk를 구한다.
Figure 112003006661253-pct00115
수학식 115에 있어서, 움직임량 v는 고정치이기 때문에, 수학식 116을 유도할 수 있다.
Figure 112003006661253-pct00116
수학식 116을 전개하여, 이항하면, 수학식 117을 얻는다.
Figure 112003006661253-pct00117
수학식 117의 k에 1 내지 8의 정수 중 어느 하나를 대입하여 얻어지는 8개의 식으로 전개한다. 얻어진 8개의 식을 행렬에 의해 하나의 식에 의해 나타낼 수 있다. 이 식을 정규 방정식이라고 부른다.
이러한 최소 제곱법에 기초한, 방정식 생성부(803)가 생성하는 정규 방정식의 예를 수학식 118에 나타낸다.
Figure 112003006661253-pct00118
수학식 118을 A·F=v·C로 나타내면, C, A, v가 기지이고, F는 미지이다. 또한, A와 v는 모델화의 시점에서 기지이지만, C는 가산 동작에 있어서 화소값을 입력함으로써 기지가 된다.
최소 제곱법에 기초하는 정규 방정식에 의해 전경 성분을 산출함으로써, 화소 C에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(803)는 이와 같이 생성된 정규 방정식을 산입부(804)에 공급한다.
산입부(804)는 처리 단위 결정부(801)로부터 공급된 처리 단위를 기초로, 전경 성분 화상에 포함되는 화소값 C를, 방정식 생성부(803)로부터 공급된 행렬식으로 설정한다. 산입부(804)는 화소값 C를 설정한 행렬을 연산부(805)에 공급한다.
연산부(805)는 소인법(Gauss-Jordan의 소거법) 등의 해법에 기초하는 처리에 의해, 움직임 불선명이 제거된 전경 성분 Fi/v를 산출하여, 움직임 불선명이 제거된 전경의 화소값인, 0 내지 8의 정수 중 어느 하나의 i에 대응하는 Fi를 산출하 여, 도 81에 예를 나타내는, 움직임 불선명이 제거된 화소값인 Fi로 이루어지는, 움직임 불선명이 제거된 전경 성분 화상을 움직임 불선명 부가부(806) 및 선택부(807)에 출력한다.
연산부(805)는 움직임 불선명이 제거된 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 영역 정보 및 혼합비 α를 선택부(807)에 공급한다. 연산부(805)가 생성하는 혼합비 α는 움직임 불선명이 제거되어 있기 때문에, 0 또는 1이다. 연산부(805)가 생성하는 영역 정보는 움직임 불선명이 제거되어 있기 때문에, 전경 영역만을 나타낸다.
또, 도 81에 나타내는 움직임 불선명이 제거된 전경 성분 화상에 있어서, C03 내지 C10의 각각에 F01 내지 F08의 각각이 설정되어 있는 것은, 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 때문이고, 임의의 위치에 대응시킬 수 있다.
움직임 불선명 부가부(806)는 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 반값의 움직임 불선명 조정량 v'이나, 움직임량 v와 무관계한 값의 움직임 불선명 조정량 v'를 제공함으로써, 움직임 불선명의 양을 조정할 수 있다. 예를 들면, 도 82에 도시한 바와 같이, 움직임 불선명 부가부(806)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 나눔으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명의 량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'이 3일 때, 화소값 C02는 (F01)/v'가 되고, 화소값 C03은 (F01+F02)/v'가 되 고, 화소값 C04는 (F01+F02+F03)/v'가 되고, 화소값 C05는 (F02+F03+F04)/v'가 된다.
움직임 불선명 부가부(806)는 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(807)에 공급한다. 움직임 불선명 부가부(806)는 움직임 불선명의 양을 조정한 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 영역 정보 및 혼합비 α를 선택부(807)에 공급한다.
움직임 불선명 부가부(806)가 생성하는 혼합비 α는, 전경 성분 화상에 움직임 불선명이 부가되어 있기 때문에, 0 이상 1 이하의 값을 갖는다. 예를 들면, 도 82의 화소값 C02의 화소에 대응하는 혼합비 α는 2/3이 되고, 도 82의 화소값 C03의 화소에 대응하는 혼합비 α는 1/3이 된다.
움직임 불선명 부가부(806)가 생성하는 영역 정보는, 전경 성분 화상에 움직임 불선명이 부가되어 있기 때문에, 전경 영역 및 혼합 영역을 나타낸다. 예를 들면, 도 82의 화소값 C02의 화소에 대응하는 영역 정보는 혼합 영역을 나타내고, 도 82의 화소값 C03의 화소에 대응하는 영역 정보는 혼합 영역을 나타낸다.
선택부(807)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 연산부(805)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 영역 정보, 및 혼합비 α, 및 움직임 불선명 부가부(806)로부터 공급된 움직임 불선명의 량이 조정된 전경 성분 화상, 영역 정보, 및 혼합비 α중 어느 한쪽을 선택하여, 선택한 전경 성분 화상, 영역 정보, 및 혼합비 α를 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정 량 v'을 기초로, 움직임 불선명의 양을 조정할 수 있다.
또한, 예를 들면 도 83에 도시한 바와 같이, 처리 단위에 대응하는 화소의 수가 8이고, 움직임량 v가 4일 때, 움직임 불선명 조정부(106)는 수학식 119에 나타내는 행렬의 식을 생성한다.
Figure 112003006661253-pct00119
움직임 불선명 조정부(106)는, 이와 같이 처리 단위의 길이에 대응한 수의 식을 세워, 움직임 불선명의 량이 조정된 화소값인 Fi를 산출한다. 마찬가지로, 예를 들면, 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여, Fi를 산출한다.
도 84는 움직임 불선명 조정부(106)의 다른 구성을 나타내는 도면이다. 도 78에 나타내는 경우와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(821)는 선택 신호를 기초로, 입력된 움직임 벡터와 그 위치 신호를 그대로 처리 단위 결정부(801) 및 모델화부(802)에 공급하거나, 또는 움직임 벡터의 크기를 움직임 불선명 조정량 v'으로 치환하고, 그 크기가 움직임 불선명 조정량 v'로 치환된 움직임 벡터와 그 위치 신호를 처리 단위 결정부(801) 및 모델화부(802)에 공급한다.
이와 같이 함으로써, 도 84의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는, 움직임량 v와 움직임 불선명 조정량 v'의 값에 대응하여 움직임 불선명의 양을 조정할 수 있다. 예를 들면, 움직임량 v가 5이고, 움직임 불선명 조정량 v'가 3일 때, 도 84의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는, 도 80에 나타내는 움직임량 v가 5인 전경 성분 화상에 대하여, 3인 움직임 불선명 조정량 v'에 대응하는 도 82에 도시한 바와 같은 모델에 따라서, 연산을 실행하고, (움직임량 v)/(움직임 불선명 조정량 v')=5/3, 즉 거의 1.7의 움직임량 v에 따른 움직임 불선명을 포함하는 화상을 산출한다. 또, 이 경우, 산출되는 화상은 3인 움직임량 v에 대응한 움직임 불선명을 포함하는 것은 아니기 때문에, 움직임 불선명 부가부(806)의 결과와는 움직임량 v와 움직임 불선명 조정량 v'의 관계의 이유가 서로 다른 점에 주의할 필요가 있다.
이상과 같이, 움직임 불선명 조정부(106)는, 움직임량 v 및 처리 단위에 대응하여 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여, 움직임 불선명의 량이 조정된 전경 성분 화상을 산출한다.
다음에, 도 85의 흐름도를 참조하여, 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 량의 조정 처리를 설명한다.
단계 S801에 있어서, 움직임 불선명 조정부(106)의 처리 단위 결정부(801)는, 움직임 벡터 및 영역 정보를 기초로 처리 단위를 생성하여, 생성한 처리 단위를 모델화부(802)에 공급한다.
단계 S802에 있어서, 움직임 불선명 조정부(106)의 모델화부(802)는 움직임량 v 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S803에 있어서, 방정식 생성부(803)는 선택된 모델을 기초로 정규 방정식을 작성한다.
단계 S804에 있어서, 산입부(804)는 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 단계 S805에 있어서, 산입부(804)는 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하였는지 여부를 판정하여, 처리 단위에 대응하는 모든 화소의 화소값의 설정을 행하지 않았다고 판정된 경우, 단계 S804로 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S805에 있어서, 처리 단위의 모든 화소의 화소값의 설정을 행하였다고 판정된 경우, 단계 S806으로 진행하여, 연산부(805)는 산입부(804)로부터 공급된 화소값이 설정된 정규 방정식을 기초로, 움직임 불선명의 양을 조정한 전경의 화소값을 산출하고, 처리는 종료한다.
이와 같이, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보를 기초로, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명의 양을 조정할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 움직임 불선명의 양을 조정할 수 있다.
도 86은 움직임 불선명 조정부(106)의 구성의 다른 일례를 나타내는 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는, 처리 단위 결정부(901) 및 보정부(905)에 공급되고, 영역 특정부(103)로부터 공급된 영역 정보는, 처리 단위 결정부(901)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 연산부(904)에 공급된다.
처리 단위 결정부(901)는 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로 처리 단위를 생성하여, 움직임 벡터와 함께, 생성한 처리 단위를 모델화부(902)에 공급한다.
모델화부(902)는 움직임 벡터 및 입력된 처리 단위를 기초로 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(902)는 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할 수, 및 화소마다의 전경 성분의 수에 대응하는 복수의 모델을 미리 기억해 놓고, 처리 단위, 및 화소값의 시간 방향의 가상 분할 수를 기초로, 도 87에 도시한 바와 같은, 화소값과 전경 성분의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량 v가 5일 때에는, 모델화부(902)는 가상 분할 수를 5로 하여, 가장 좌측에 위치하는 화소가 하나의 전경 성분을 포함하고, 좌측에서 2번째의 화소가 2개의 전경 성분을 포함하고, 좌측에서 3번째의 화소가 3개의 전경 성분을 포함하고, 좌측에서 4번째의 화소가 4개의 전경 성분을 포함하고, 좌측에서 5번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 6번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 7번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 8번째의 화소가 5개의 전경 성분을 포함하고, 좌측에서 9번째의 화소가 4개의 전경 성분을 포함하고, 좌측에서 10번째의 화소가 3개의 전경 성분을 포함하고, 좌측에서 11번째의 화소가 2개의 전경 성분을 포함하고, 좌측에서 L2번째의 화소가 하나의 전경 성분을 포함하여, 전체적으로 8개의 전경 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(902)는 미리 기억하고 있는 모델로부터 선택하는 것이 아니고, 움직임 벡터, 및 처리 단위가 공급되었을 때, 움직임 벡터, 및 처리 단위를 기초로 모델을 생성하도록 하여도 좋다.
방정식 생성부(903)는 모델화부(902)로부터 공급된 모델을 기초로 방정식을 생성한다.
도 87 내지 도 89에 나타내는 전경 성분 화상의 모델을 참조하여, 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5일 때의, 방정식 생성부(903)가 생성하는 방정식의 예에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간 /v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 CO1 내지 C12의 관계는, 상술한 바와 같이, 수학식 87 내지 수학식 98로 표현된다.
화소값 C12 및 C11에 주목하면, 화소값 C12는 수학식 120에 나타낸 바와 같이, 전경 성분 F08/v만을 포함하고, 화소값 C11은 전경 성분 F08/v 및 전경 성분 F07/v의 곱의 합으로 이루어진다. 따라서, 전경 성분 F07/v는 수학식 121에 의해 구할 수 있다.
Figure 112003006661253-pct00120
Figure 112003006661253-pct00121
마찬가지로, 화소값 C10 내지 CO1에 포함되는 전경 성분을 고려하면, 전경 성분 F06/v 내지 F01/v는 수학식 122 내지 수학식 127에 의해 구할 수 있다.
Figure 112003006661253-pct00122
Figure 112003006661253-pct00123
Figure 112003006661253-pct00124
Figure 112003006661253-pct00125
Figure 112003006661253-pct00126
Figure 112003006661253-pct00127
방정식 생성부(903)는 수학식 120 내지 수학식 127에 예를 나타내는, 화소값의 차에 의해 전경 성분을 산출하기 위한 방정식을 생성한다. 방정식 생성부(903)는 생성한 방정식을 연산부(904)에 공급한다.
연산부(904)는 방정식 생성부(903)로부터 공급된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값을 설정한 방정식을 기초로 전경 성분을 산출한다. 연산부(904)는 예를 들면, 수학식 120 내지 수학식 127이 방정식 생성부(903)로부터 공급되었을 때, 수학식 120 내지 수학식 127에 화소값 C05 내지 C12를 설정한다.
연산부(904)는 화소값이 설정된 식에 기초하여 전경 성분을 산출한다. 예를 들면, 연산부(904)는, 화소값 C05 내지 C12가 설정된 수학식 120 내지 수학식 127에 기초하는 연산에 의해, 도 88에 도시한 바와 같이, 전경 성분 F01/v 내지 F08/v를 산출한다. 연산부(904)는 전경 성분 F01/v 내지 F08/v를 보정부(905)에 공급한다.
보정부(905)는, 연산부(904)로부터 공급된 전경 성분에, 처리 단위 결정부(901)로부터 공급된 움직임 벡터에 포함되는 움직임량 v를 곱하여, 움직임 불선명을 제거한 전경의 화소값을 산출한다. 예를 들면, 보정부(905)는 연산부(904)로부터 공급된 전경 성분 F01/v 내지 F08/v가 공급되었을 때, 전경 성분 F01/v 내지 F08/v의 각각에 5인 움직임량 v를 곱함으로써, 도 89에 도시한 바와 같이, 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
보정부(905)는 이상과 같이 산출된, 움직임 불선명을 제거한 전경의 화소값으로 이루어지는 전경 성분 화상을 움직임 불선명 부가부(906) 및 선택부(907)에 공급한다.
보정부(905)는 움직임 불선명을 제거한 전경의 화소값으로 이루어지는 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 영역 정보 및 혼합비 α를 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 반값의 움직임 불선명 조정량 v', 움직임량 v와 무관계한 값의 움직임 불선명 조정량 v'에 의해, 움직임 불선명의 양을 조정할 수 있다. 예를 들면, 도 82에 도시한 바와 같이, 움직임 불선명 부가부(906)는, 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'로 나눔으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명의 량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'이 3일 때, 화소값 C02는 (F01)/v'가 되고, 화소값 C03은 (F01+F02)/v'가 되고, 화소값 C04는 (F01+F02+F03)/v'가 되고, 화소값 C05는 (F02+F03+F04)/v'가 된다.
움직임 불선명 부가부(906)는 움직임 불선명의 양을 조정한 전경 성분 화상을 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는 움직임 불선명의 양을 조정한 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 영역 정보 및 혼합비 α를 선택부(907)에 공급한다.
선택부(907)는 예를 들면 사용자의 선택에 대응한 선택 신호를 기초로, 보정부(905)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 영역 정보, 및 혼합비 α, 및 움직임 불선명 부가부(906)로부터 공급된 움직임 불선명의 량이 조정된 전경 성분 화상, 영역 정보, 및 혼합비 α중 어느 한쪽을 선택하여, 선택한 전경 성분 화상, 영역 정보, 및 혼합비 α를 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'을 기초로, 움직임 불선명의 양을 조정할 수 있다.
다음에, 도 86에 구성을 도시하는 움직임 불선명 조정부(106)에 의한 전경의 움직임 불선명의 량의 조정 처리를 도 90의 흐름도를 참조하여 설명한다.
단계 S901에 있어서, 움직임 불선명 조정부(106)의 처리 단위 결정부(901)는, 움직임 벡터 및 영역 정보를 기초로, 처리 단위를 생성하여, 생성한 처리 단위를 모델화부(902)및 보정부(905)에 공급한다.
단계 S902에 있어서, 움직임 불선명 조정부(106)의 모델화부(902)는, 움직임량 v 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S903에 있어서, 방정식 생성부(903)는 선택 또는 생성된 모델을 기초로, 전경 성분 화상의 화소값의 차에 의해 전경 성분을 산출하기 위한 방정식을 생성한다.
단계 S904에 있어서, 연산부(904)는 작성된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값이 설정된 방정식을 기초로, 화소값의 차분으로부터 전경 성분을 추출한다. 단계 S905에 있어서, 연산부(904)는 처리 단위에 대응하는 모든 전경 성분을 추출하였는지 여부를 판정하여, 처리 단위에 대응하는 모든 전경 성분을 추출하지 않았다고 판정된 경우, 단계 S904로 되돌아가, 전경 성분을 추출의 처리를 반복한다.
단계 S905에 있어서, 처리 단위에 대응하는 모든 전경 성분을 추출하였다고 판정된 경우, 단계 S906으로 진행하고, 보정부(905)는, 움직임량 v를 기초로, 연산부(904)로부터 공급된 전경 성분 F01/v 내지 F08/v의 각각을 보정하여, 움직임 불 선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
단계 S907에 있어서, 움직임 불선명 부가부(906)는 움직임 불선명의 양을 조정한 전경의 화소값을 산출하고, 선택부(907)는 움직임 불선명이 제거된 화상 또는 움직임 불선명의 량이 조정된 화상 중 어느 하나를 선택하여, 선택한 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 86에 구성을 도시하는 움직임 불선명 조정부(106)는, 보다 간단한 연산으로, 보다 신속하게, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 조정할 수 있다.
위너 필터(Wiener filter) 등 종래의 움직임 불선명을 부분적으로 제거하는 수법이, 이상(理想) 상태에서는 효과가 인정되지만, 양자화되어, 노이즈를 포함한 실제 화상에 대하여 충분한 효과가 얻어지지 않는 데 대하여, 도 86에 구성을 도시하는 움직임 불선명 조정부(106)에서도, 양자화되어, 노이즈를 포함한 실제 화상에 대하여도 충분한 효과가 인정되고, 정밀도가 좋은 움직임 불선명의 제거가 가능해진다.
이상과 같이, 도 7에 구성을 도시하는 전경 배경 성분 화상 생성부(91)는, 입력 화상을 전경 성분 화상과 배경 성분 화상으로 분리함과 함께, 전경 성분 화상에 포함되는 움직임 불선명의 양을 조정할 수 있다.
다음에, 도 91 내지 도 94를 참조하여 오클루젼 보정부(92)의 처리를 설명한다. 예를 들면, 도 91에 도시하는, 입력 화상에 포함되는 전경에 대응하는 오브젝트에 대하여, 도 92에 도시한 바와 같이, 프레임 #n에서 표시되는 위치가, 프레임 #n-1에 있어서 표시되는 위치보다 우측으로 이동하고 있을 때, 도 93에 도시한 바와 같이, 전경에 대응하는 오브젝트의 움직임 방향은, 도면 중의 좌측에서 우측으로 향하고 있다. 도 93에 있어서, A는 커버드 백그라운드 영역인 혼합 영역을 나타내고, B는 전경 영역을 나타낸다. 도 93에 있어서, C는 언커버드 백그라운드 영역인 혼합 영역을 나타낸다.
도 93에 도시한 바와 같이, 커버드 백그라운드 영역인 혼합 영역은, 전경 오브젝트의 움직임 방향의 선단부에 위치하고, 언커버드 백그라운드 영역인 혼합 영역은, 전경 오브젝트의 움직임 방향의 후단부에 위치한다.
전경 성분이 제거되어, 배경 성분만으로 이루어지는 배경 성분 화상의 화소이고, 분리되기 전에 있어서 혼합 영역에 속하는 화소의 화소값은, 도 94A에 도시한 바와 같이, 전경 성분이 제거되기 때문에, 혼합비 α에 비례하여 레벨이 감소한다.
그래서, 오클루젼 보정부(92)는 도 94B에 도시한 바와 같이, 분리되기 전에 있어서 혼합 영역에 속하는 화소의 화소값을 혼합비 α로 제산하여, 분리되기 전에 있어서 혼합 영역에 속하는 화소의 화소값을 보정한다.
이와 같이 함으로써, 전경 오브젝트와 혼합됨으로써 숨겨져 있던, 혼합 영역에 속하는 화소에 포함되는 배경 성분을 사용하여 배경을 생성할 수 있게 된다. 혼합 영역에 속하는 화소에 포함되는 배경 성분을 사용하여 배경을 생성하기 때문에, 본 발명에 따른 화상 처리 장치는 보다 자연스러운 3차원 화상을 생성할 수 있도록 된다.
도 95는 전경 시차 화상 생성부(93)의 구성을 나타내는 블록도이다.
이동량 생성부(1001)는 시차 연산부(72)로부터 공급된 시차를 기초로, 우안용 전경 성분 화상을 생성하기 위한 이동량을 생성하여, 생성한 이동량을 화상 이동부(1002), 영역 정보 이동부(1003), 및 혼합비 이동부(1004)에 공급한다.
이동량 생성부(1001)는 시차 연산부(72)로부터 공급된 시차를 기초로, 좌안용 전경 성분 화상을 생성하기 위한 이동량을 생성하여, 생성한 이동량을 화상 이동부(1005), 영역 정보 이동부(1006), 및 혼합비 이동부(1007)에 공급한다.
화상 이동부(1002)는 이동량 생성부(1001)로부터 공급된 이동량을 기초로, 전경 배경 성분 화상 생성부(91)로부터 공급된, 움직임 불선명의 량이 조정된 전경 성분 화상을 이동하여, 우안용 전경 성분 화상을 생성한다. 화상 이동부(1002)는 우안용 전경 성분 화상을 출력한다.
영역 정보 이동부(1003)는 이동량 생성부(1001)로부터 공급된 이동량을 기초로, 전경 배경 성분 화상 생성부(91)로부터 공급된 영역 정보를 이동하여, 우안용 전경 성분 화상에 대응하는 영역 정보를 생성한다. 영역 정보 이동부(1003)는 우안용 전경 성분 화상에 대응하는 영역 정보를 출력한다.
혼합비 이동부(1004)는 이동량 생성부(1001)로부터 공급된 이동량을 기초로, 전경 배경 성분 화상 생성부(91)로부터 공급된 혼합비 α를 이동하여, 우안용 전경 성분 화상에 대응하는 혼합비 α를 생성한다. 혼합비 이동부(1004)는 우안용 전경 성분 화상에 대응하는 혼합비 α를 출력한다.
화상 이동부(1005)는 이동량 생성부(1001)로부터 공급된 이동량을 기초로, 전경 배경 성분 화상 생성부(91)로부터 공급된, 움직임 불선명의 량이 조정된 전경 성분 화상을 이동하여, 좌안용 전경 성분 화상을 생성한다. 화상 이동부(1005)는 좌안용 전경 성분 화상을 출력한다.
영역 정보 이동부(1006)는 이동량 생성부(1001)로부터 공급된 이동량을 기초로, 전경 배경 성분 화상 생성부(91)로부터 공급된 영역 정보를 이동하여, 좌안용 전경 성분 화상에 대응하는 영역 정보를 생성한다. 영역 정보 이동부(1006)는 좌안용 전경 성분 화상에 대응하는 영역 정보를 출력한다.
혼합비 이동부(1007)는 이동량 생성부(1001)로부터 공급된 이동량을 기초로, 전경 배경 성분 화상 생성부(91)로부터 공급된 혼합비 α를 이동하여, 좌안용 전경 성분 화상에 대응하는 혼합비 α를 생성한다. 혼합비 이동부(1007)는 좌안용 전경 성분 화상에 대응하는 혼합비 α를 출력한다.
이와 같이, 전경 시차 화상 생성부(93)는 시차 연산부(72)로부터 공급된 시차를 기초로, 우안용 전경 성분 화상을 생성함과 함께, 우안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 우안용 전경 성분 화상, 영역 정보, 및 혼합비 α를 합성부(94-1)에 공급한다. 전경 시차 화상 생성부(93)는 시차 연산부(72)로부터 공급된 시차를 기초로, 좌안용 전경 성분 화상을 생성함과 함께, 좌안용 전경 성분 화상에 대응하는 영역 정보 및 혼합비 α를 생성하여, 생성한 좌안용 전경 성분 화상, 영역 정보, 및 혼합비 α를 합성부(94-2)에 공급한다.
도 96은 합성부(94)의 구성을 나타내는 블록도이다.
혼합 영역 화상 합성부(1101)는 전경 시차 화상 생성부(93)로부터 공급된 혼합비 α를 기초로, 전경 시차 화상 생성부(93)로부터 공급된 우안용 전경 성분 화상 또는 좌안용 전경 성분 화상, 및 오클루젼 보정부(92)로부터 공급된 배경 성분 화상을 합성하여, 혼합 영역 합성 화상을 생성한다.
즉, 혼합 영역 화상 합성부(1101)는 배경 성분 화상의 화소값에 혼합비 α를 승산하여, 혼합 영역의 화소에 대응하는 배경 성분의 합을 산출한다. 혼합 영역 화상 합성부(1101)는 산출한 배경 성분의 합을, 우안용 전경 성분 화상 또는 좌안용 전경 성분 화상의 화소 중, 대응하는 혼합 영역의 화소의 화소값에 가산하여, 혼합 영역 합성 화상을 생성한다.
혼합 영역 화상 합성부(1101)는 생성한 혼합 영역 합성 화상을 화상 합성부(1102)에 공급한다.
화상 합성부(1102)는 전경 시차 화상 생성부(93)로부터 공급된 영역 정보를 기초로, 혼합 영역 화상 합성부(1101)로부터 공급된 혼합 영역 합성 화상, 전경 시차 화상 생성부(93)로부터 공급된 우안용 전경 성분 화상 또는 좌안용 전경 성분 화상, 및 오클루젼 보정부(92)로부터 공급된 배경 성분 화상을 합성하여, 우안용 화상 또는 좌안용 화상에 대응하는 합성 화상을 생성한다. 화상 합성부(1102)는 합성한 우안용 화상 또는 좌안용 화상에 대응하는 합성 화상을 출력한다.
이와 같이, 합성부(94)는 우안용 전경 성분 화상 또는 좌안용 전경 성분 화상을 배경 성분 화상에 합성할 수 있다.
특징량인 혼합비 α를 기초로 전경 성분 화상과 배경 성분 화상을 합성하여 얻어지는 3차원 화상은, 단순히 화소를 합성한 화상에 비교하여 보다 자연스러운 것으로 된다.
또, 거리 정보 취득부(71)가 거리 정보를 생성한다고 설명하였지만, 화상 처리 장치는 외부에서 공급된, 입력 화상에 대응하는 거리 정보를 사용하여, 시차를 연산하도록 하여도 좋다.
또한, 시차 연산부(72)가 시차를 연산한다고 설명하였지만, 화상 처리 장치는, 예를 들면 사용자에 의해 설정된, 외부로부터 공급된 시차를 기초로, 3차원 화상을 생성하도록 하여도 좋다.
또, 시차 연산부(72)가 거리 정보를 기초로 시차를 연산한다고 설명하였지만, 시차 연산부(72)는, 거리 정보와 시차의 대응을 나타내는 데이터를 미리 기억하고, 기억하고 있는 데이터를 기초로 시차를 구하도록 해도 무방하다.
또한, 합성부(94-1 및 94-2)는 외부에서 공급된 임의로 배경 화상과, 우안용 전경 성분 화상 또는 좌안용 전경 성분 화상을 합성하여, 우안용 화상 및 좌안용 화상을 생성하도록 하여도 좋다.
또, 혼합비 α는 화소값에 포함되는 배경 성분의 비율로 설명했지만, 화소값에 포함되는 전경 성분의 비율로 하여도 된다.
또한, 전경이 되는 오브젝트의 움직임의 방향은 좌측에서 우측으로서 설명하였지만, 그 방향에 한정되지 않음은 물론이다.
이상에서는, 3차원 공간과 시간 축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여, 2차원 공간과 시간 축 정보를 갖는 시공간에의 사영을 행한 경우를 예로 하였지만, 본 발명은 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를 보다 적은 제2 차원의 제2 정보에 사영한 경우에, 그 사영에 의해서 발생하는 왜곡을 보정하거나 유의 정보를 추출하거나, 또는 보다 자연스럽게 화상을 합성하는 경우에 적응하는 것이 가능하다.
또, 센서는 CCD에 한하지 않고, 고체 촬상 소자인, 예를 들면, BBD(Bucket Brigade Device) , CID(Charge Injection Device), CPD(Charge Priming Device), 또는 CMOS(Complementary Metal Oxide Semiconductor) 센서여도 좋고, 또한 검출 소자가 매트릭스 형상으로 배치되어 있는 센서에 한하지 않고, 검출 소자가 1열로 배열되어 있는 센서여도 좋다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는, 도 1에 도시한 바와 같이, 컴퓨터와는 별도로, 사용자에게 프로그램을 제공하기 위해서 배포되는, 프로그램이 기록되어 있는 자기 디스크(51)(플로피(등록 상표) 디스크를 포함함), 광 디스크(52)(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함함), 광 자기 디스크(53)(MD(Mini-Disc) (상표)를 포함함), 혹은 반도체 메모리(54) 등으로 이루어지는 패키지 미디어에 의해 구성되는 것뿐만 아니라, 컴퓨터에 미리 조립된 상태에서 사용자에게 제공되는, 프로그램이 기록되어 있는 ROM(22)이나, 기억부(28)에 포함되는 하드디스크 등으로 구성된다.
또, 본 명세서에 있어서, 기록 매체에 기록되는 프로그램을 기술하는 단계는, 기재된 순서에 따라서 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않더라도, 병렬적 혹은 개별로 실행되는 처리도 포함하는 것이다.
본 발명에 따르면, 화상의 혼합 상태에 대응하여, 2차원 화상에서 3차원 화상을 생성할 수 있도록 된다.

Claims (20)

  1. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 상기 화상 데이터로부터, 상기 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 상기 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 수단과,
    상기 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 상기 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 수단과,
    상기 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 상기 좌안용 전경 시차 화상과 상기 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 수단
    을 포함하며,
    상기 전경 배경 성분 화상 생성 수단은,
    상기 화상 데이터의 화소 각각을 상기 전경 영역, 상기 배경 영역, 및 상기 혼합 영역 중 어느 하나로 특정하는 영역 특정 수단과,
    상기 영역 특정 수단에 의해 특정된 결과에 기초하여, 상기 혼합 영역에서의 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단과,
    상기 혼합비에 기초하여, 상기 혼합 영역에 속하는 화소를, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하고, 분리된 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분을 기초로, 상기 전경 성분 화상 및 상기 배경 성분 화상을 생성하는 전경 배경 분리 수단을 포함하고,
    상기 시차 화상 생성 수단은, 상기 혼합비 검출 수단에 의해 검출된 혼합비에 기초하여, 상기 우안용 시차 화상 및 상기 좌안용 시차 화상을 생성하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서,
    상기 전경 배경 성분 화상 생성 수단에 의해 생성된 상기 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 수단을 더 포함하는 것을 특징으로 하는 화상 처리 장치.
  3. 삭제
  4. 삭제
  5. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 상기 화상 데이터로부터, 상기 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 상기 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 단계와,
    상기 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 상기 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 단계와,
    상기 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 상기 좌안용 전경 시차 화상과 상기 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 단계
    를 포함하며,
    상기 전경 배경 성분 화상 생성 단계는,
    상기 화상 데이터의 화소 각각을 상기 전경 영역, 상기 배경 영역, 및 상기 혼합 영역 중 어느 하나로 특정하는 영역 특정 단계와,
    상기 영역 특정 단계에서 특정된 결과에 기초하여, 상기 혼합 영역에서의 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 단계와,
    상기 혼합비에 기초하여, 상기 혼합 영역에 속하는 화소를, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하고, 분리된 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분을 기초로, 상기 전경 성분 화상 및 상기 배경 성분 화상을 생성하는 전경 배경 분리 단계를 포함하고,
    상기 시차 화상 생성 단계는, 상기 혼합비 검출 단계에서 검출된 혼합비에 기초하여, 상기 우안용 시차 화상 및 상기 좌안용 시차 화상을 생성하는 것을 특징으로 하는 화상 처리 방법.
  6. 제5항에 있어서,
    상기 전경 배경 성분 화상 생성 단계의 처리에 의해 생성된 상기 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 단계를 더 포함하는 것을 특징으로 하는 화상 처리 방법.
  7. 삭제
  8. 삭제
  9. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리용의 프로그램으로서,
    전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 상기 화상 데이터로부터, 상기 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 상기 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 단계와,
    상기 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 상기 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 단계와,
    상기 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 상기 좌안용 전경 시차 화상과 상기 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 단계
    를 포함하며,
    상기 전경 배경 성분 화상 생성 단계는,
    상기 화상 데이터의 화소 각각을 상기 전경 영역, 상기 배경 영역, 및 상기 혼합 영역 중 어느 하나로 특정하는 영역 특정 단계와,
    상기 영역 특정 단계에서 특정된 결과에 기초하여, 상기 혼합 영역에서의 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 단계와,
    상기 혼합비에 기초하여, 상기 혼합 영역에 속하는 화소를, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하고, 분리된 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분을 기초로, 상기 전경 성분 화상 및 상기 배경 성분 화상을 생성하는 전경 배경 분리 단계를 포함하고,
    상기 시차 화상 생성 단계는, 상기 혼합비 검출 단계에서 검출된 혼합비에 기초하여, 상기 우안용 시차 화상 및 상기 좌안용 시차 화상을 생성하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  10. 제9항에 있어서,
    상기 전경 배경 성분 화상 생성 단계의 처리에 의해 생성된 상기 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 단계를 더 포함하는 것을 특징으로 하는 기록 매체.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    전경 오브젝트를 구성하는 전경 오브젝트 성분만으로 이루어지는 전경 영역과, 배경 오브젝트를 구성하는 배경 오브젝트 성분만으로 이루어지는 배경 영역과, 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분이 혼합되어 이루어지는 혼합 영역으로 이루어지는 상기 화상 데이터로부터, 상기 전경 오브젝트 성분만으로 이루어지는 전경 성분 화상과, 상기 배경 오브젝트 성분만으로 이루어지는 배경 성분 화상을 생성하는 전경 배경 성분 화상 생성 수단과,
    상기 전경 성분 화상에 대하여 우안용의 시차를 부가하여 우안용 전경 시차 화상을 생성함과 함께, 상기 전경 성분 화상에 대하여 좌안용의 시차를 부가하여 좌안용 전경 시차 화상을 생성하는 전경 시차 화상 생성 수단과,
    상기 우안용 전경 시차 화상과 임의의 배경 화상을 합성하여 우안용 시차 화상을 생성함과 함께, 상기 좌안용 전경 시차 화상과 상기 배경 화상을 합성하여 좌안용 시차 화상을 생성하는 시차 화상 생성 수단
    을 포함하며,
    상기 전경 배경 성분 화상 생성 수단은,
    상기 화상 데이터의 화소 각각을 상기 전경 영역, 상기 배경 영역, 및 상기 혼합 영역 중 어느 하나로 특정하는 영역 특정 수단과,
    상기 영역 특정 수단에 의해 특정된 결과에 기초하여, 상기 혼합 영역에서의 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분의 혼합 비율을 나타내는 혼합비를 검출하는 혼합비 검출 수단과,
    상기 혼합비에 기초하여, 상기 혼합 영역에 속하는 화소를, 상기 전경 오브젝트 성분과 상기 배경 오브젝트 성분으로 분리하고, 분리된 상기 전경 오브젝트 성분 및 상기 배경 오브젝트 성분을 기초로, 상기 전경 성분 화상 및 상기 배경 성분 화상을 생성하는 전경 배경 분리 수단을 포함하고,
    상기 시차 화상 생성 수단은, 상기 혼합비 검출 수단에 의해 검출된 혼합비에 기초하여, 상기 우안용 시차 화상 및 상기 좌안용 시차 화상을 생성하는 것을 특징으로 하는 촬상 장치.
  18. 제17항에 있어서,
    상기 전경 배경 성분 화상 생성 수단에 의해 생성된 상기 전경 성분 화상의 움직임 불선명의 양을 조정하는 움직임 불선명량 조정 수단을 더 포함하는 것을 특징으로 하는 촬상 장치.
  19. 삭제
  20. 삭제
KR1020037002803A 2001-06-27 2002-06-26 화상 처리 장치 및 방법, 및 촬상 장치 KR100918544B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001194415A JP4729812B2 (ja) 2001-06-27 2001-06-27 画像処理装置および方法、記録媒体、並びにプログラム
JPJP-P-2001-00194415 2001-06-27
PCT/JP2002/006381 WO2003003752A1 (fr) 2001-06-27 2002-06-26 Dispositif et procede de traitement d'image et dispositif analyseur d'image

Publications (2)

Publication Number Publication Date
KR20040014950A KR20040014950A (ko) 2004-02-18
KR100918544B1 true KR100918544B1 (ko) 2009-09-21

Family

ID=19032556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037002803A KR100918544B1 (ko) 2001-06-27 2002-06-26 화상 처리 장치 및 방법, 및 촬상 장치

Country Status (5)

Country Link
US (1) US7511730B2 (ko)
JP (1) JP4729812B2 (ko)
KR (1) KR100918544B1 (ko)
CN (1) CN100450192C (ko)
WO (1) WO2003003752A1 (ko)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
JP2005202208A (ja) * 2004-01-16 2005-07-28 Nec Corp 携帯端末および表示制御方法
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
JP4523368B2 (ja) * 2004-09-10 2010-08-11 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
KR100579890B1 (ko) * 2004-12-30 2006-05-15 삼성전자주식회사 움직임 적응적 영상처리 장치 및 그 방법
EP1865355B1 (en) 2005-03-30 2013-03-06 Nikon Corporation Image forming method and microscope device
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
US7982733B2 (en) * 2007-01-05 2011-07-19 Qualcomm Incorporated Rendering 3D video images on a stereo-enabled display
CN101321299B (zh) * 2007-06-04 2011-06-01 华为技术有限公司 视差生成方法、生成单元以及三维视频生成方法及装置
KR100912809B1 (ko) 2007-07-20 2009-08-18 한국전자통신연구원 2차원 영상의 특정영역에 3차원 영상을 삽입하여 2차원 및2, 3차원 혼용 영상을 서비스하는 방법
KR100915039B1 (ko) * 2007-10-11 2009-09-02 최명렬 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법및 변환 장치와 이를 위한 기록매체
CN101415114B (zh) * 2007-10-17 2010-08-25 华为终端有限公司 视频编解码方法和装置以及视频编解码器
US8086071B2 (en) * 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
US8531449B2 (en) 2007-12-18 2013-09-10 Navteq B.V. System and method for producing multi-angle views of an object-of-interest from images in an image dataset
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
CN101770738A (zh) * 2009-01-04 2010-07-07 朗讯科技公司 3d显示设备和方法
JP2010231045A (ja) * 2009-03-27 2010-10-14 Casio Computer Co Ltd 画像表示装置、画像表示プログラム及び画像表示方法
US8289373B2 (en) * 2009-04-28 2012-10-16 Chunghwa Picture Tubes, Ltd. Image processing method for multi-depth-of-field 3D-display
EP2448581B1 (en) * 2009-06-29 2016-12-07 Agios Pharmaceuticals, Inc. Therapeutic compositions and related methods of use
TW201114244A (en) * 2009-10-15 2011-04-16 Chunghwa Picture Tubes Ltd Method for generating a 3D image
JP5540746B2 (ja) * 2009-11-20 2014-07-02 ソニー株式会社 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム
GB2475730A (en) * 2009-11-27 2011-06-01 Sony Corp Transformation of occluding objects in 2D to 3D image generation
CA2783588C (en) * 2009-12-22 2017-06-13 Thomson Licensing Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
CN102118576B (zh) * 2009-12-30 2015-02-18 新奥特(北京)视频技术有限公司 一种虚拟体育***中的色键合成方法及装置
KR101169400B1 (ko) 2010-02-04 2012-08-21 (주)님버스테크놀로지스 스테레오 이미지 형성 방법 및 시스템, 그리고, 기록매체
WO2011135390A1 (en) * 2010-04-27 2011-11-03 Thomson Licensing Method and apparatus for reducing frame repetition in stereoscopic 3d imaging
JP5540942B2 (ja) * 2010-06-29 2014-07-02 富士通セミコンダクター株式会社 処理装置
JP2012044407A (ja) * 2010-08-18 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP5621473B2 (ja) * 2010-09-28 2014-11-12 カシオ計算機株式会社 画像処理装置、及びその方法
JP2012094111A (ja) * 2010-09-29 2012-05-17 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5477349B2 (ja) 2010-09-30 2014-04-23 カシオ計算機株式会社 画像合成装置、及び画像検索方法、プログラム
TW201216204A (en) * 2010-10-13 2012-04-16 Altek Corp Method for combining dual-lens images into mono-lens image
CN102469323B (zh) * 2010-11-18 2014-02-19 深圳Tcl新技术有限公司 一种2d图像转3d图像的方法
JP5713256B2 (ja) * 2010-12-21 2015-05-07 株式会社ニコンシステム 画像処理装置、撮像装置、および画像処理プログラム
JP2012134885A (ja) * 2010-12-22 2012-07-12 Sony Corp 画像処理装置及び画像処理方法
WO2012098974A1 (ja) * 2011-01-19 2012-07-26 シャープ株式会社 画像処理装置および方法、画像表示装置および方法
CN102098527B (zh) * 2011-01-28 2013-04-10 清华大学 一种基于运动分析的平面转立体方法及装置
IT1404059B1 (it) * 2011-02-14 2013-11-08 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
JP5645079B2 (ja) * 2011-03-31 2014-12-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP5047381B1 (ja) * 2011-06-10 2012-10-10 シャープ株式会社 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
JP5907368B2 (ja) * 2011-07-12 2016-04-26 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2013021538A (ja) * 2011-07-12 2013-01-31 Nikon Corp 三次元画像作成装置、方法およびプログラム
KR101888082B1 (ko) * 2011-09-27 2018-09-10 엘지전자 주식회사 영상표시장치 및 그 동작방법
CN102651134B (zh) * 2012-03-17 2014-07-16 哈尔滨工业大学 基于两帧静态图像拼合的匀速模糊图像构造方法与装置
CN104205825B (zh) * 2012-03-28 2016-08-17 富士胶片株式会社 图像处理装置及方法以及摄像装置
CN103218826B (zh) * 2013-03-19 2016-08-10 浙江中控研究院有限公司 基于Kinect的抛体检测、三维定位与轨迹预测方法
KR102161212B1 (ko) * 2013-11-25 2020-09-29 한화테크윈 주식회사 움직임 검출 시스템 및 방법
US9807372B2 (en) 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
CN104853080B (zh) * 2014-02-13 2018-05-11 宏达国际电子股份有限公司 图像处理装置
CN104537668B (zh) * 2014-12-29 2017-08-15 浙江宇视科技有限公司 一种快速视差图像计算方法及装置
CN105100772B (zh) * 2015-07-16 2017-03-15 深圳市华星光电技术有限公司 一种三维图像处理方法及装置
CN105120256A (zh) * 2015-07-31 2015-12-02 努比亚技术有限公司 移动终端及其通过拍摄3d图像合成图片的方法和装置
US10021363B2 (en) 2015-10-16 2018-07-10 Novatek Microelectronics Corp. Method and apparatus for processing source image to generate target image
CN106131448B (zh) * 2016-07-22 2019-05-10 石家庄爱赛科技有限公司 可自动调节成像亮度的三维立体视觉***
CN106231287B (zh) * 2016-07-25 2017-12-12 西南科技大学 一种增强用户体验的裸眼3d图像设计方法
JP6944180B2 (ja) * 2017-03-23 2021-10-06 株式会社Free−D 動画変換システム、動画変換方法及び動画変換プログラム
EP3694208A1 (en) * 2019-02-05 2020-08-12 Jerry Nims A method and system for simulating a 3-dimensional image sequence
CN113469200A (zh) 2020-03-30 2021-10-01 阿里巴巴集团控股有限公司 数据处理方法和***、存储介质、计算设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JP3005474B2 (ja) * 1996-08-07 2000-01-31 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
US6310733B1 (en) * 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
JP4291892B2 (ja) * 1996-12-06 2009-07-08 株式会社セガ 画像処理装置およびその方法
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
US6417850B1 (en) * 1999-01-27 2002-07-09 Compaq Information Technologies Group, L.P. Depth painting for 3-D rendering applications
JP2000253422A (ja) * 1999-03-03 2000-09-14 Toshiba Corp 2次元映像からの立体映像生成方法
US6873723B1 (en) * 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6760021B1 (en) * 2000-07-13 2004-07-06 Orasee Corp. Multi-dimensional image system for digital image input and output
JP4596201B2 (ja) * 2001-02-01 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
US7511730B2 (en) 2009-03-31
JP4729812B2 (ja) 2011-07-20
KR20040014950A (ko) 2004-02-18
US20040090523A1 (en) 2004-05-13
WO2003003752A1 (fr) 2003-01-09
CN1465196A (zh) 2003-12-31
JP2003009181A (ja) 2003-01-10
CN100450192C (zh) 2009-01-07

Similar Documents

Publication Publication Date Title
KR100918544B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100843815B1 (ko) 화상 처리 장치 및 방법
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100924401B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 기록 매체 및 촬상 장치
KR100843816B1 (ko) 화상 처리 장치 및 방법과 촬상 장치
KR100848427B1 (ko) 화상 처리 장치
EP1361540B1 (en) Image processing apparatus
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
KR100864336B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
KR100858761B1 (ko) 화상 처리 장치
JP4596217B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596218B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120910

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee