KR20100043139A - 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램 - Google Patents

화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램 Download PDF

Info

Publication number
KR20100043139A
KR20100043139A KR1020097017463A KR20097017463A KR20100043139A KR 20100043139 A KR20100043139 A KR 20100043139A KR 1020097017463 A KR1020097017463 A KR 1020097017463A KR 20097017463 A KR20097017463 A KR 20097017463A KR 20100043139 A KR20100043139 A KR 20100043139A
Authority
KR
South Korea
Prior art keywords
image
captured
moving
converted
conversion
Prior art date
Application number
KR1020097017463A
Other languages
English (en)
Inventor
신고 쯔루미
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20100043139A publication Critical patent/KR20100043139A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/16Spatio-temporal transformations, e.g. video cubism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 촬상 장치에 의해 촬영된 동화상을 열람하는 경우에 그 동화상의 내용을 용이하게 파악시키기 위한 것으로, 카메라 워크 검출부(120)는, 동화상 입력부(110)로부터 입력된 동화상의 촬영 시의 촬상 장치의 움직임량을 검출하고, 이 촬상 장치의 움직임량에 기초하여, 화상을 변환하기 위한 아핀 변환 파라미터를 프레임마다 산출한다. 화상 변환부(160)는, 산출된 아핀 변환 파라미터에 기초하여, 촬상 화상 또는 화상 메모리(170)에 유지되어 있는 이력 화상 중의 적어도 한 쪽을 프레임마다 아핀 변환한다. 화상 합성부(180)는, 적어도 1개가 변환된 촬상 화상 및 이력 화상을 프레임마다 합성함과 함께, 이 합성된 화상을 화상 메모리(170)에 유지시킨다. 그리고, 화상 합성부(180)에 의해 합성된 화상이 표시부(191)에 표시된다.
화상 합성부, 화상 메모리, 메타데이터 파일, 아핀 변환 파라미터, 재생 지시 키, 퍼스널 컴퓨터, 디스플레이, 합성 화상

Description

화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램{IMAGE PROCESSING DEVICE, DYNAMIC IMAGE REPRODUCTION DEVICE, AND PROCESSING METHOD AND PROGRAM IN THEM}
본 발명은, 화상 처리 장치에 관한 것으로, 특히, 동화상을 재생하는 것이 가능한 화상 처리 장치, 동화상 재생 장치 및 이들에서의 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램에 관한 것이다.
최근, 디지털 비디오 카메라가 보급되고 있다. 이 때문에, 예를 들어, 자녀가 통원하고 있는 유치원의 이벤트에서, 이 이벤트의 모습이 부모 등에 의해 디지털 비디오 카메라로 촬영되는 것이 널리 행하여지고 있다. 이러한 이벤트에서, 부모 등에 의해 촬영이 행하여지는 경우에는, 자신의 자녀를 중심으로 하여 촬영되는 경우가 많지만, 그 이벤트의 모습을 알 수 있도록, 그 이벤트의 풍경 등도 적절하게 촬영되는 경우가 많다.
이와 같이 촬영된 동화상에 대해서는, 예를 들어, 가정 내에서, 동화상 재생 장치를 사용해서 그 디스플레이에서 재생할 수 있다. 예를 들어, 자신의 자녀를 중심으로 하여 촬영된 동화상을 열람하는 경우에는, 자신의 자녀가 주로 포함되는 동화상이 재생된다. 그러나, 재생 시간이 긴 경우에, 동일 대상의 동화상에 대해 서 계속해서 열람을 하고 있으면, 재생 시간의 경과에 따라, 재생 중인 동화상에 대한 열람자의 흥미가 저감되게 되는 경우가 있다. 그래서, 열람자의 흥미를 높이기 위해서, 현재 표시되고 있는 화상과 관련되는 다른 화상 등을 표시하는 것이 고려된다.
예를 들어, 동화상과 함께, 이 동화상의 진행에 맞추어 비디오 인덱스(정지 화상)를 스크롤 표시하는 화상 표시 방법이 제안되어 있다(예를 들어, 일본 특허 출원 공개 평성 11-289517호 공보(도 7) 참조.).
상술한 종래 기술에 따르면, 동화상을 기준으로 하는 과거, 현재, 미래의 정지 화상을 비디오 인덱스로서 표시하기 위해서, 현재 표시되고 있는 동화상과 함께, 과거, 현재, 미래의 정지 화상을 열람할 수 있다. 이 때문에, 예를 들어, 자녀가 통원하고 있는 유치원의 이벤트에서 촬영된 동화상을 열람하고 있는 경우에, 현재의 동화상으로서 자신의 자녀가 표시되어 있는 경우라도, 과거 또는 미래의 정지 화상으로서, 현재의 동화상에 관련되는 그 이벤트의 풍경 등이 표시되는 경우가 있다. 이 경우에는, 자신의 자녀의 상황을 보면서, 그 이벤트의 풍경 등도 볼 수 있기 때문에, 그 이벤트의 모습을 파악하는 것이 용이하게 되어, 열람자의 흥미를 높일 수 있다.
그러나, 상술한 종래 기술에서는, 현재의 동화상으로서 자신의 자녀가 표시되고 있는 경우에, 과거 또는 미래의 정지 화상으로서, 그 이벤트의 풍경 등이 표시되지 않고, 현재의 동화상과 거의 동일한 내용이 표시되는 경우가 있다. 이와 같은 경우에는, 동화상에 대한 열람자의 흥미를 유지하는 것이 중요하다. 그래서, 촬영 대상으로 되어 있는 중심 인물 등을 열람하면서, 이 중심 인물의 주위의 모습을 적절하게 파악할 수 있으면, 그 동화상의 내용을 용이하게 파악할 수 있어, 그 동화상에 대한 흥미를 더욱 높일 수 있다고 생각된다.
그래서, 본 발명은, 촬상 장치에 의해 촬영된 동화상을 열람하는 경우에 그 동화상의 내용을 용이하게 파악하는 것을 목적으로 한다.
본 발명은, 상기 과제를 해결하기 위해서 이루어진 것으로서, 그 제1 측면은, 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과, 상기 촬상 동화상을 구성하는 제1 촬상 화상과 상기 촬상 동화상의 시간축에서 상기 제1 촬상 화상보다도 후에 위치하는 제2 촬상 화상에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 변환 정보를 산출하는 변환 정보 산출 수단과, 상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과, 상기 산출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과, 상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과, 상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과, 상기 합성 화상을 출력하는 출력 수단과, 상기 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 구비하는 것을 특징으로 하는 화상 처리 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 제1 촬상 화상과 제2 촬상 화상에 기초하여 변환 정보를 산출하고, 이 산출된 변환 정보에 기초하여 이력 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하고, 접수된 선택 조작에 따라서 적어도 한 쪽이 변환된 이력 화상 및 제2 촬상 화상을 합성하고, 이 합성 화상을 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 제2 촬상 화상을 상기 이력 화상에 덮어 써서 합성해서 상기 합성 화상으로 하고, 상기 합성 화상을 새로운 이력 화상으로서 상기 화상 유지 수단에 유지시키도록 해도 된다. 이것에 의해, 적어도 한 쪽이 변환된 제2 촬상 화상을 이력 화상에 덮어 써서 합성해서 합성 화상으로 하고, 이 합성 화상을 새로운 이력 화상으로서 유지시킨다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 합성 수단은, 상기 변환된 제2 촬상 화상의 화질을 상기 이력 화상에 따라서 변환함으로써 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 이력 화상에 덮어 써서 합성하도록 해도 된다. 이것에 의해, 변환된 제2 촬상 화상의 화질을 이력 화상에 따라서 변환함으로써, 제2 촬상 화상을 이력 화상에 덮어 써서 합성한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 합성 수단은, 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 새로운 이력 화상에 덮어 써서 새로운 합성 화상으로 하고, 상기 제어 수단은, 상기 새로운 합성 화상을 상기 출력 수단에 순차적으로 출력시키도록 해도 된다. 이것에 의해, 화질이 변환되기 전의 제2 촬상 화상을 새로운 이력 화상에 덮어 써서 새로운 합성 화상으로 하고, 이 새로운 합성 화상을 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 유지 수단에 유지되어 있는 상기 새로운 이력 화상으로부터 상기 출력 수단에 출력시키는 출력 화상을 취출하는 출력 화상 취출 수단을 더 구비하고, 상기 화상 합성 수단은, 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하고, 상기 제어 수단은, 상기 새로운 출력 화상을 상기 출력 수단에 순차적으로 출력시키도록 해도 된다. 이것에 의해, 화상 유지 수단에 유지되어 있는 새로운 이력 화상으로부터 출력 화상을 취출하고, 화질이 변환되기 전의 제2 촬상 화상을 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하고, 이 새로운 출력 화상을 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 출력 화상 취출 수단은, 상기 화상 유지 수단의 유지 영역에서의 상기 변환된 제2 촬상 화상의 위치 및 크기와 상기 유지 영역에서의 상기 출력 화상의 위치 및 크기에 기초하여 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 출력 화상에 덮어 쓰는 위치 및 크기를 산출하고, 상기 화상 합성 수단은, 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 출력 화상에 상기 산출된 위치 및 크기에 기초해서 덮어 써서 합성하도록 해도 된다. 이것에 의해, 유지 영역에서의 제2 촬상 화상의 위치 및 크기와, 유지 영역에서의 출력 화상의 위치 및 크기에 기초하여, 화질이 변환되기 전의 제2 촬상 화상을 출력 화상에 덮어 쓰는 위치 및 크기를 산출하고, 화질이 변환되기 전의 제2 촬상 화상을 출력 화상에 덮어 써서 합성한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 출력 화상 취출 수단은, 상기 새로운 이력 화상에 포함되는 상기 변환된 제2 촬상 화상의 적어도 일부가 상기 출력 화상을 취출하기 위한 영역인 출력 영역 밖으로 삐어져 나와 있는 경우에는 상기 삐어져 나와 있는 화상 부분의 방향으로 상기 출력 영역을 이동시켜 상기 새로운 이력 화상으로부터 상기 출력 화상을 취출하도록 해도 된다. 이것에 의해, 새로운 이력 화상에 포함되는 제2 촬상 화상의 적어도 일부가 출력 영역 밖으로 삐어져 나와 있는 경우에는, 이 삐어져 나와 있는 화상 부분의 방향으로 출력 영역을 이동시켜 출력 화상을 취출한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화질은, 해상도 및 압축률 중의 적어도 한 쪽이어도 된다. 이것에 의해, 변환된 제2 촬상 화상의 해상도 및 압축률 중의 적어도 한 쪽을 이력 화상에 따라서 변환함으로써, 제2 촬상 화상을 이력 화상에 덮어 써서 합성한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 유지 수단에 유지되어 있는 상기 새로운 이력 화상으로부터 상기 산출된 변환 정보에 기초해서 산출된 영역에 포함되는 화상을 상기 출력 수단에 출력시키는 출력 화상으로서 취출하는 출력 화상 취출 수단을 구비하고, 상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 변환되기 전의 상기 제2 촬상 화상을 상기 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하고, 상기 제어 수단은, 상기 새로운 출력 화상을 상기 출력 수단에 순차적으로 출력시키도록 해도 된다. 이것에 의해, 새로운 이력 화상으로부터, 변환 정보에 기초해서 산출된 영역에 포함되는 화상을 출력 화상으로서 취출하고, 변환되기 전의 제2 촬상 화상을 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하고, 이 새로운 출력 화상을 상기 출력 수단에 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 출력 화상 취출 수단은, 상기 산출된 변환 정보에 기초하여 상기 화상 변환 수단에 의한 상기 제2 촬상 화상의 변환 방향과는 역방향으로 상기 출력 화상을 변환하고, 상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 변환되기 전의 상기 제2 촬상 화상을 상기 변환된 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하도록 해도 된다. 이것에 의해, 변환 정보에 기초하여, 제2 촬상 화상의 변환 방향과는 역방향으로 출력 화상을 변환하고, 변환되기 전의 제2 촬상 화상을, 변환된 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 변환 수단은, 상기 산출된 변환 정보에 기초하여 상기 제2 촬상 화상의 변환의 방향과는 역방향으로 상기 이력 화상을 변환하도록 해도 된다. 이것에 의해, 변환 정보에 기초하여 제2 촬상 화상의 변환의 방향과는 역방향으로 이력 화상을 변환한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 변환 정보는, 확대 축소와 이동과 회전에 관한 요소를 포함하고, 상기 화상 변환 수단은, 상기 산출된 변환 정보에 포함되는 이동 및 회전에 관한 요소에 기초하여 상기 제2 촬상 화상을 변환함과 함께 상기 산출된 변환 정보에 포함되는 확대 축소에 관한 요소에 기초하여 상기 이력 화상을 변환하도록 해도 된다. 이것에 의해, 변환 정보에 포함되는 이동 및 회전에 관한 요소에 기초하여 제2 촬상 화상을 변환함과 함께, 변환 정보에 포함되는 확대 축소에 관한 요소에 기초하여 이력 화상을 변환한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 화상 변환 수단은, 상기 제2 촬상 화상의 변환 방향과는 역방향으로 상기 이력 화상을 변환하도록 해도 된다. 이것에 의해, 제2 촬상 화상의 변환 방향과는 역방향으로 이력 화상을 변환한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 변환 정보 산출 수단은, 상기 촬상 동화상을 구성하는 프레임마다 상기 변환 정보를 순차적으로 산출하고, 상기 화상 변환 수단은, 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 상기 프레임마다 변환하고, 상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 상기 프레임마다 순차적으로 합성하고, 상기 제어 수단은, 상기 합성 화상을 상기 프레임마다 순차적으로 출력시키도록 해도 된다. 이것에 의해, 촬상 동화상을 구성하는 프레임마다 변환 정보를 순차적으로 산출하고, 이력 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 프레임마다 변환하고, 적어도 한 쪽이 변환된 이력 화상 및 제2 촬상 화상을 프레임마다 순차적으로 합성하고, 합성 화상을 프레임마다 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 제1 촬상 화상 및 상기 제2 촬상 화상의 각각은, 상기 촬상 동화상을 구성하는 연속하는 2개의 프레임에 대응하는 화상이도록 해도 된다. 이것에 의해, 촬상 동화상을 구성하는 연속하는 2개의 프레임에 대응하는 화상을 사용하여, 변환 정보의 산출, 촬상 화상의 합성, 합성 화상의 출력을 행한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 변환 정보는, 상기 제1 촬상 화상 또는 상기 제2 촬상 화상이 촬상되었을 때의 상기 촬상 장치의 움직임 정보이고, 상기 변환 정보 산출 수단은, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 비교함으로써 상기 변환 정보를 산출하도록 해도 된다. 이것에 의해, 제1 촬상 화상 및 제2 촬상 화상을 비교함으로써, 제1 촬상 화상 또는 제2 촬상 화상이 촬상되었을 때의 촬상 장치의 움직임 정보를 산출한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 변환 정보는, 상기 제1 촬상 화상 또는 상기 제2 촬상 화상이 촬상되었을 때의 상기 촬상 장치와 피사체의 상대적인 움직임량에 관한 움직임 정보이고, 상기 변환 정보 산출 수단은, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 비교함으로써 상기 변환 정보를 산출하도록 해도 된다. 이것에 의해, 제1 촬상 화상 및 제2 촬상 화상을 비교함으로써, 제1 촬상 화상 또는 제2 촬상 화상이 촬상되었을 때의 촬상 장치와 피사체의 상대적인 움직임량에 관한 움직임 정보를 산출한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 변환 정보 산출 수단은, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 구성하는 각 화소에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에서의 특징점을 추출하는 특징점 추출 수단과, 상기 추출된 각 특징점에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 움직임량을 산출하는 움직임량 산출 수단과, 상기 산출된 움직임량에 기초해서 소정의 변환 파라미터를 산출함으로써 상기 변환 정보를 산출하는 변환 파라미터 산출 수단을 포함하도록 해도 된다. 이것에 의해, 제1 촬상 화상 및 제2 촬상 화상을 구성하는 각 화소에 기초하여, 제1 촬상 화상 및 제2 촬상 화상에서의 특징점을 추출하고, 이 추출된 각 특징점에 기초하여 제1 촬상 화상 및 제2 촬상 화상에 관한 움직임량을 산출하고, 이 산출된 움직임량에 기초해서 소정의 변환 파라미터를 산출함으로써, 변환 정보를 산출한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 특징점 추출 수단은 멀티 코어 프로세서에 의해 구성되고, 상기 멀티 코어 프로세서는, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 구성하는 각 화소에 대해서 SIMD 연산에 의해 병렬 처리함으로써 상기 제1 촬상 화상 및 상기 제2 촬상 화상에서의 특징량을 추출하도록 해도 된다. 이것에 의해, 멀티 코어 프로세서가, 제1 촬상 화상 및 제2 촬상 화상을 구성하는 각 화소에 대해서 SIMD 연산에 의해 병렬 처리함으로써, 제1 촬상 화상 및 제2 촬상 화상에서의 특징량을 추출한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 움직임량 산출 수단은 멀티 코어 프로세서에 의해 구성되고, 상기 멀티 코어 프로세서는, 상기 추출된 각 특징점에 대해서 SIMD 연산에 의해 병렬 처리함으로써 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 움직임량을 산출하도록 해도 된다. 이것에 의해, 멀티 코어 프로세서가, 추출된 각 특징점에 대해서 SIMD 연산에 의해 병렬 처리함으로써, 제1 촬상 화상 및 제2 촬상 화상에 관한 움직임량을 산출한다고 하는 작용을 가져온다.
또한, 이 제1 측면에서, 상기 촬상 화상을 압축하는 압축 수단을 구비하고, 상기 합성 화상을 출력할 때의 상기 이력 화상은 압축 화상으로 하며, 또한, 상기 제2 촬상 화상은 비압축 화상 또는 압축된 상기 이력 화상보다도 고해상도의 촬상 화상으로 하도록 해도 된다. 이것에 의해, 합성 화상을 출력할 때의 이력 화상을 압축 화상으로 하며, 또한, 제2 촬상 화상을 비압축 화상 또는 압축된 이력 화상보다도 고해상도의 촬상 화상으로 한다고 하는 작용을 가져온다.
또한, 본 발명의 제2 측면은, 촬상 장치에 의해 촬상된 촬상 동화상을 구성하는 제1 촬상 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하기 위한 변환 정보가 관련지어져 기록되어 있는 상기 촬상 동화상을 취득하는 동화상 취득 수단과, 상기 취득된 촬상 동화상으로부터 상기 변환 정보를 추출하는 변환 정보 추출 수단과, 상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과, 상기 추출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과, 상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과, 상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과, 상기 합성 화상을 출력하는 출력 수단과, 상기 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 구비하는 것을 특징으로 하는 화상 처리 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 추출된 변환 정보에 기초하여 이력 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하고, 접수된 선택 조작에 따라서 적어도 한 쪽이 변환된 이력 화상 및 제2 촬상 화상을 합성하고, 이 합성 화상을 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 본 발명의 제3 측면은, 촬상 장치에 의해 촬상된 촬상 동화상을 구성하는 제1 촬상 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하기 위한 변환 정보를 상기 촬상 동화상을 구성하는 프레임마다 관련지어 기억하는 변환 정보 기억 수단과, 상기 촬상 동화상을 취득하는 동화상 취득 수단과, 상기 취득된 촬상 동화상에 관련지어 상기 변환 정보 기억 수단에 기억되어 있는 변환 정보를 취득하는 변환 정보 취득 수단과, 상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과, 상기 취득된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과, 상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과, 상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과, 상기 합성 화상을 출력하는 출력 수단과, 상기 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 구비하는 것을 특징으로 하는 화상 처리 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 취득된 변환 정보에 기초하여 이력 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하고, 접수된 선택 조작에 따라서 적어도 한 쪽이 변환된 이력 화상 및 제2 촬상 화상을 합성하고, 이 합성 화상을 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 본 발명의 제4 측면은, 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과, 상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 촬상 화상마다 산출하는 변환 정보 산출 수단과, 상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준 화상으로 하여 상기 산출된 변환 정보에 기초하여 당해 변환 정보에 관계되는 촬상 화상을 변환하는 화상 변환 수단과, 상기 변환된 상기 촬상 화상을 유지하는 화상 유지 수단과, 상기 화상 유지 수단에 최후에 유지된 상기 촬상 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 구비하는 것을 특징으로 하는 화상 처리 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 촬상 화상마다 산출하고, 촬상 화상 중의 적어도 1개의 촬상 화상을 기준 화상으로 하여 변환 정보에 기초하여 촬상 화상을 변환하고, 이 변환된 촬상 화상을 유지하고, 최후에 유지된 촬상 화상을 순차적으로 출력시킨다고 하는 작용을 가져온다.
또한, 본 발명의 제5 측면은, 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과, 상기 촬상 동화상을 구성하는 제1 촬상 화상과 상기 촬상 동화상의 시간축에서 상기 제1 촬상 화상보다도 후에 위치하는 제2 촬상 화상에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 변환 정보를 산출하는 변환 정보 산출 수단과, 상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과, 상기 산출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과, 상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과, 상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과, 상기 합성 화상을 표시하는 표시 수단과, 상기 합성 화상을 상기 표시 수단에 순차적으로 표시시키는 제어 수단을 구비하는 것을 특징으로 하는 동화상 재생 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 제1 촬상 화상과 제2 촬상 화상에 기초하여 변환 정보를 산출하고, 이 산출된 변환 정보에 기초하여 이력 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하고, 접수된 선택 조작에 따라서 적어도 한 쪽이 변환된 이력 화상 및 제2 촬상 화상을 합성하고, 이 합성 화상을 순차적으로 표시시킨다고 하는 작용을 가져온다.
또한, 본 발명의 제6 측면은, 촬상 장치에 의해 촬상된 동화상을 촬상 동화상으로서 입력하는 동화상 입력 수단과, 상기 촬상 동화상을 기억하는 촬상 동화상 기억 수단과, 상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 상기 촬상 동화상을 구성하는 프레임마다 산출하는 변환 정보 산출 수단과, 상기 산출된 변환 정보를 상기 프레임마다 관련지어 상기 촬상 동화상 기억 수단에 기록하는 기록 제어 수단을 구비하는 것을 특징으로 하는 화상 처리 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 프레임마다 산출하고, 이 산출된 변환 정보를 프레임마다 관련지어 기록한다고 하는 작용을 가져온다.
또한, 본 발명의 제7 측면은, 촬상 장치에 의해 촬상된 동화상을 촬상 동화상으로서 입력하는 동화상 입력 수단과, 상기 촬상 동화상에 관한 메타데이터를 기억하는 메타데이터 기억 수단과, 상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 상기 촬상 동화상을 구성하는 프레임마다 산출하는 변환 정보 산출 수단과, 상기 산출된 변환 정보를 상기 촬상 동화상 및 상기 프레임에 관련지어 상기 메타데이터로서 상기 메타데이터 기억 수단에 기록하는 기록 제어 수단을 구비하는 것을 특징으로 하는 화상 처리 장치 및 그 처리 방법 및 당해 방법을 컴퓨터에 실행시키는 프로그램이다. 이것에 의해, 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 프레임마다 산출하고, 이 산출된 변환 정보를 촬상 동화상 및 프레임에 관련지어 메타데이터로서 기록한다고 하는 작용을 가져온다.
또한, 이 제7 측면에서, 상기 메타데이터는, 적어도 상기 촬상 장치의 좌표계로 기술되는 위치 정보 및 자세 정보를 포함하도록 해도 된다. 이것에 의해, 적어도 상기 촬상 장치의 좌표계로 기술되는 위치 정보 및 자세 정보를 포함하는 메타데이터를 기록한다고 하는 작용을 가져온다.
본 발명에 따르면, 촬상 장치에 의해 촬영된 동화상을 열람하는 경우에 그 동화상의 내용을 용이하게 파악시킬 수 있다고 하는 우수한 효과를 발휘할 수 있다.
도 1은 본 발명의 실시 형태에서의 화상 처리 장치(100)의 기능 구성예를 도시하는 블록도.
도 2는 동화상을 구성하는 프레임에 대응하는 화상의 일례를 도시하는 도면.
도 3은 동화상을 구성하는 프레임에 대응하는 화상에 대해서 배경 등을 생략해서 간략화한 화상을 도시하는 도면.
도 4는 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 아핀 변환 파라미터 검출 처리의 처리 단계를 도시하는 플로우차트.
도 5는 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 6은 도 5에 도시하는 각 화상에서, 직전의 프레임에 대응하는 화상을 파선으로 나타냄과 함께, 검출되는 옵티컬 플로우의 일례를 도시하는 도면.
도 7은 도 5에 도시하는 화상(401 내지 403)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면.
도 8은 도 5에 도시하는 화상(401 내지 403)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면.
도 9는 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 10은 도 9에 도시하는 각 화상에서, 직전의 프레임에 대응하는 화상을 파선으로 나타냄과 함께, 검출되는 옵티컬 플로우의 일례를 도시하는 도면.
도 11은 도 9에 도시하는 화상(421 내지 423)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면.
도 12는 도 9에 도시하는 화상(421 내지 423)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면.
도 13은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 14는 도 13에 도시하는 각 화상에서, 직전의 프레임에 대응하는 화상을 파선으로 나타냄과 함께, 검출되는 옵티컬 플로우의 일례를 도시하는 도면.
도 15는 도 13에 도시하는 화상(441 내지 443)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다.
도 16은 도 13에 도시하는 화상(441 내지 443)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면.
도 17은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 18은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 19는 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 20은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 21은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 22는 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 23은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 24는 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 25는 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트.
도 26은 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트.
도 27은 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트.
도 28은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 29는 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 30은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 31은 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면.
도 32는 본 발명의 실시 형태에서의 화상 처리 장치(650)의 기능 구성예를 도시하는 블록도.
도 33은 본 발명의 실시 형태에서의 동화상 기억부(660) 및 메타데이터 기억부(670)에 기록되어 있는 각 파일을 모식적으로 도시하는 도면.
도 34는 본 발명의 실시 형태에서의 화상 처리 장치(680)의 기능 구성예를 도시하는 블록도.
도 35는 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임과, 표시 영역의 관계를 모식적으로 도시하는 도면.
도 36은 현 화상이 표시 영역으로부터 삐어져 나온 경우에서의 표시 영역의 이동 방법을 개략적으로 도시하는 도면.
도 37은 도 36에 도시하는 이동 방법으로 표시 영역을 이동시키는 경우의 천이의 일례를 도시하는 도면.
도 38은 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임과, 표시 영역의 관계를 모식적으로 도시하는 도면.
도 39는 표시부(689)에서의 현 화상을 고정하는 표시 모드가 지정되어 있는 경우에, 표시부(689)에 표시되는 동화상을 확대 표시시키는 경우에서의 확대 방법의 개략을 도시하는 도면.
도 40은 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임의 흐름을 모식적으로 도시하는 도면.
도 41은 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임의 흐름을 모식적으로 도시하는 도면.
도 42는 카메라에 의해 촬영된 동화상을 재생하는 경우에서의 표시예(화상(750) 및 화상(750)에서의 현 화상(752)이 아핀 변환되기 전의 상태의 화상(754)을 도시하는 도면.
도 43은 도 42에 도시하는 틀(753)로 둘러싸인 화상 영역이 확대 표시된 경 우에서의 화상(755)과, 아핀 변환 후의 현 화상이 화상 메모리(684)에 보존된 상태에서 표시용 메모리(686)에 보존된 화상(757)을 도시하는 도면.
도 44는 본 발명의 실시 형태에서의 화상 처리 장치(680)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트.
도 45는 본 발명의 실시 형태에서의 화상 처리 장치(680)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트.
도 46은 본 발명의 실시 형태에서의 멀티 코어 프로세서(800)의 일구성예를 도시하는 도면.
도 47은 본 발명의 실시 형태에서의 제어 프로세서 코어(801)의 일구성예를 도시하는 도면.
도 48은 본 발명의 실시 형태에서의 연산 프로세서 코어(#1)(811)의 일구성예를 도시하는 도면.
도 49는 본 발명의 실시 형태에서의 멀티 코어 프로세서(800)의 연산 방법을 모식적으로 도시하는 도면.
도 50은 본 발명의 실시 형태에서의 멀티 코어 프로세서(800)에 의해 연산을 행하는 경우에서의 프로그램 및 데이터의 흐름을 모식적으로 도시하는 도면.
도 51은 복수의 데이터에 대한 처리를 각각의 명령으로 행하는 연산 방식의 개요 및 복수의 데이터에 대한 처리를 1개의 명령으로 행하는 SIMD 연산의 개요를 모식적으로 도시하는 도면.
도 52는 본 발명의 실시 형태에서의 제어 프로세서 코어(801) 또는 연산 프 로세서 코어(#1)(811)에 의해 실행되는 프로그램의 구성예를 도시하는 도면.
도 53은 본 발명의 실시 형태에서의 메인 메모리(781)에 저장되어 있는 화상 데이터에 대해서, 소벨 필터(830)를 사용해서 필터링 처리를 행하는 경우에서의 데이터 구조와 처리의 흐름을 개략적으로 도시하는 도면.
도 54는 본 발명의 실시 형태에서의 메인 메모리(781)에 저장되어 있는 화상 데이터에 대해서 소벨 필터(830)를 사용해서 SIMD 연산을 행하는 경우에서의 데이터의 흐름을 개략적으로 도시하는 도면.
도 55는 본 발명의 실시 형태에서의 소벨 필터(830)를 사용해서 필터링 처리를 행하는 경우에, 제1 버퍼(831)에 저장되어 있는 화상 데이터로부터 9개의 벡터를 작성하는 벡터 작성 방법을 개략적으로 도시하는 도면.
도 56은 본 발명의 실시 형태에서의 소벨 필터(830)를 사용해서 필터링 처리를 행하는 경우에, 벡터 데이터(841 내지 849))에 대해서 SIMD 명령을 사용해서 벡터 연산을 행하는 벡터 연산 방법을 개략적으로 도시하는 도면.
도 57은 본 발명의 실시 형태에서의 카메라 워크 파라미터 산출 처리의 흐름을 시계열로 개략적으로 도시하는 도면.
도 58은 기록 매체의 일례인 블루 레이 디스크(880), 블루 레이 디스크(880)에 기록되어 있는 각 데이터(881 내지 884) 및 블루 레이 디스크(880)를 재생 가능한 블루 레이 재생기(890)의 내부 구성을 모식적으로 도시하는 도면.
<발명을 실시하기 위한 최량의 형태>
다음으로 본 발명의 실시 형태에 대해서 도면을 참조해서 상세하게 설명한다.
도 1은, 본 발명의 실시 형태에서의 화상 처리 장치(100)의 기능 구성예를 도시하는 블록도이다. 화상 처리 장치(100)는, 동화상 입력부(110)와, 카메라 워크 검출부(120)와, 기록 제어부(130)와, 동화상 기억부(200)와, 동화상 취득부(140)와, 카메라 워크 파라미터 추출부(150)와, 화상 변환부(160)와, 화상 메모리(170)와, 화상 합성부(180)와, 표시 제어부(190)와, 표시부(191)와, 조작 접수부(195)를 구비한다. 화상 처리 장치(100)는, 예를 들어, 디지털 비디오 카메라 등의 촬상 장치로 촬영된 동화상에 대해서, 영상 해석에 의해 특징량을 추출하고, 이 추출된 특징량을 사용해서 각종 화상 처리를 실시하는 것이 가능한 퍼스널 컴퓨터에 의해 실현할 수 있다.
동화상 입력부(110)는, 디지털 비디오 카메라 등의 촬상 장치(이하에서는, 간단히 「카메라」라고 칭함.)에 의해 촬상된 동화상을 입력하는 동화상 입력부로서, 입력된 동화상을 카메라 워크 검출부(120)에 출력한다.
카메라 워크 검출부(120)는, 동화상 입력부(110)로부터 출력된 동화상을 해석해서, 촬영 시의 카메라의 움직임 정보(카메라 워크)를 검출하는 것으로서, 특징점 추출부(121)와, 옵티컬 플로우 계산부(122)와, 카메라 워크 파라미터 산출부(123)를 구비한다. 즉, 카메라 워크 검출부(120)는, 동화상을 구성하는 각 화상으로부터 특징점을 추출함과 함께, 이 특징점에 대한 옵티컬 플로우(움직임 벡터)를 추출하고, 이 추출된 특징점에 대한 옵티컬 플로우를 해석해서 지배적인 움직임 을 보인 특징점을 선택하고, 이 지배적인 움직임을 보인 특징점에 대한 옵티컬 플로우에 기초하여 카메라의 움직임을 추정한다. 여기서, 지배적인 움직임이란, 복수의 특징점에 대한 옵티컬 플로우 중에서, 비교적 다수의 옵티컬 플로우가 나타내는 규칙적인 움직임을 의미한다.
특징점 추출부(121)는, 동화상 입력부(110)로부터 출력된 동화상을 구성하는 프레임에 대응하는 화상으로부터 특징점을 추출하고, 추출된 특징점을 옵티컬 플로우 계산부(122)에 출력하는 것이다. 여기서, 특징점 추출부(121)는, 동화상 입력부(110)로부터 출력된 동화상을 구성하는 프레임 중의 선두의 프레임에 대해서는, 화상 전체로부터 특징점을 추출하고, 선두 이외의 프레임에 대해서는, 직전의 프레임에 대응하는 화상과 비교해서 새롭게 촬영된 영역 부분으로부터 특징점을 추출한다. 또한, 특징점으로서, 예를 들어, 세로 방향 또는 가로 방향으로 에지의 구배가 강한 점(일반적으로 「코너점」이라고 불리고 있음. 이하에서는, 「코너점」이라고 칭함.)을 추출할 수 있다. 이 코너점은, 옵티컬 플로우의 계산에 강한 특징점으로서, 엣지 검출을 사용해서 구할 수 있다. 또한, 이 코너점의 추출에 대해서는, 도 2 및 도 3을 참조해서 상세하게 설명한다. 또한, 이 예에서는, 특징점 추출부(121)는, 선두의 프레임에 대해서는 화상 전체로부터 특징점을 추출하고, 선두 이외의 프레임에 대해서는 직전의 화상과 비교해서 새롭게 촬영된 영역 부분으로부터 특징점을 추출하지만, 처리 능력 등에 따라, 선두 이외의 각 프레임에 대해서도, 화상 전체로부터 특징점을 추출하도록 해도 된다.
옵티컬 플로우 계산부(122)는, 특징점 추출부(121)로부터 출력된 각 특징점 에 대한 옵티컬 플로우를 계산하는 것으로서, 계산해서 구해진 옵티컬 플로우를 카메라 워크 파라미터 산출부(123)에 출력한다. 구체적으로는, 동화상 입력부(110)로부터 출력된 동화상을 구성하는 연속하는 2개의 프레임(현 프레임 및이 직전의 프레임)에 대응하는 각 화상을 비교함으로써, 직전의 프레임에 대응하는 화상에서의 각 특징점에 대응하는 옵티컬 플로우를, 현 프레임의 옵티컬 플로우로서 구한다. 또한, 옵티컬 플로우는, 동화상을 구성하는 프레임마다 구해진다. 또한, 옵티컬 플로우를 검출하는 검출 방법으로서, 구배법이나 블록 매칭 방법 등의 검출 방법을 사용할 수 있다. 또한, 이 옵티컬 플로우의 계산에 대해서는, 도 2 및 도 3을 참조해서 상세하게 설명한다.
카메라 워크 파라미터 산출부(123)는, 옵티컬 플로우 계산부(122)로부터 출력된 각 특징점에 대응하는 옵티컬 플로우를 사용하여, 카메라 워크 파라미터를 산출하는 카메라 워크 파라미터 산출 처리를 함으로서, 산출된 카메라 워크 파라미터를 기록 제어부(130)에 출력한다. 여기서, 본 발명의 실시 형태에서는, 재생의 대상으로 되는 동화상을 구성하는 화상을 카메라의 움직임에 맞추어 변환해서 표시한다. 이 화상의 변환을 행하기 위해서, 옵티컬 플로우 계산부(122)에 의해 계산된 옵티컬 플로우를 사용해서 카메라의 움직임이 추출되고, 이 추출된 움직임에 기초하여, 카메라 워크 파라미터(변환 파라미터)가 계산된다. 또한, 본 발명의 실시 형태에서는, 재생의 대상으로 되는 동화상을 구성하는 화상을 변환하는 화상 변환 방법으로서, 아핀 변환을 사용하는 예에 대해서 설명한다. 또한, 카메라 워크 파라미터로서, 옵티컬 플로우에 기초해서 산출된 아핀 변환 파라미터의 행렬의 역행 렬에 대응하는 아핀 변환 파라미터를 사용하는 예에 대해서 설명한다. 즉, 본 발명의 실시 형태에서는, 변환 정보로서 사용되는 아핀 변환 파라미터를, 연속하는 화상간의 특징점의 움직임을 나타내는 아핀 행렬이 아니라, 연속하는 화상 중의 1개의 화상을 기준 화상으로 한 경우에, 이 기준 화상의 다음의 화상이 어디로 이동할지를 나타내는 아핀 행렬에 대응하는 아핀 변환 파라미터라고 정의한다. 또한, 카메라 워크 파라미터로서, 아핀 변환 파라미터를 사용하는 예에 대해서 설명하지만, 사영(射影) 변환 등의 다른 화상 변환 방법을 사용하도록 해도 된다. 또한, 아핀 변환 파라미터는, 3점의 벡터를 사용해서 계산해서 구할 수 있다. 또한, 사영 변환 파라미터는, 4점의 벡터를 사용해서 계산해서 구할 수 있다. 여기서, 카메라 워크 파라미터는, 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보로서, 적어도 카메라의 좌표계로 기술되는 위치 정보 및 자세 정보를 포함하는 것이다. 즉, 카메라 워크 파라미터는, 촬영자에 의해 촬영되고 있는 경우에서의 카메라의 위치나 자세에 관한 정보를 포함하는 것이다. 또한, 카메라 워크 파라미터 산출부(123)에 의해 구해진 아핀 변환 파라미터에 기초하여, 예를 들어, 줌인, 줌아웃, 팬, 틸트, 로테이션 등의 촬영자의 조작에 의한 카메라의 움직임을 추정할 수 있다. 또한, 아핀 변환 파라미터의 계산에 대해서는, 도 2 및 도 3을 참조해서 상세하게 설명한다.
기록 제어부(130)는, 동화상 입력부(110)로부터 출력된 동화상과, 카메라 워크 파라미터 산출부(123)로부터 출력된 아핀 변환 파라미터에 대해서, 서로 대응하 는 프레임과 아핀 변환 파라미터를 관련지어 동화상 파일로서 동화상 기억부(200)에 기록하는 것이다.
동화상 기억부(200)는, 서로 대응하는 프레임과 아핀 변환 파라미터가 관련지어진 동화상 파일을 기억하는 것이다. 또한, 동화상 기억부(200)는, 동화상 취득부(140)로부터의 요구에 따라서 동화상 파일을 동화상 취득부(140)에 공급한다.
동화상 취득부(140)는, 조작 접수부(195)로부터의 동화상 취득에 따른 조작 입력에 따라, 동화상 기억부(200)에 기억되어 있는 동화상 파일을 취득하는 것으로서, 취득된 동화상 파일을 카메라 워크 파라미터 추출부(150), 화상 변환부(160) 및 화상 합성부(180)에 출력하는 것이다.
카메라 워크 파라미터 추출부(150)는, 동화상 취득부(140)로부터 출력된 동화상 파일에 관련지어 기록되어 있는 아핀 변환 파라미터를 프레임마다 추출 하는 것으로서, 추출된 아핀 변환 파라미터를 화상 변환부(160)에 출력한다.
화상 변환부(160)는, 동화상 취득부(140)로부터 출력된 동화상 파일의 동화상을 구성하는 화상 또는, 화상 메모리(170)에 유지되어 있는 화상에 대해서, 카메라 워크 파라미터 추출부(150)로부터 출력된 아핀 변환 파라미터를 사용해서 프레임마다 아핀 변환을 실시하고, 아핀 변환된 화상을 화상 합성부(180)에 출력하는 것이다. 구체적으로는, 현 프레임보다도 전의 각 프레임에 대응하는 화상에 의해 합성된 합성 화상을 고정해서 동화상을 재생 표시하는 경우에는, 화상 변환부(160)는, 동화상 취득부(140)로부터 출력된 현 프레임에 대응하는 화상을, 카메라 워크 파라미터 추출부(150)로부터 출력된 아핀 변환 파라미터를 사용해서 아핀 변환한 다. 한편, 현 프레임에 대응하는 화상을 고정해서 동화상을 재생 표시하는 경우에는, 화상 변환부(160)는, 화상 메모리(170)에 유지되어 있는 전의 각 프레임에 대응하는 화상에 의해 합성된 합성 화상을, 카메라 워크 파라미터 추출부(150)로부터 출력된 아핀 변환 파라미터를 사용하여, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환한다. 또한, 현 프레임에 대응하는 화상의 표시 배율을 고정해서 동화상을 재생 표시하는 경우에는, 화상 변환부(160)는, 카메라 워크 파라미터 추출부(150)로부터 출력된 아핀 변환 파라미터에 대해서, 확대 축소에 관한 요소(줌 성분)와, 확대 축소 이외의 요소(이동 또는 회전에 관한 요소)로 분리하고, 화상 메모리(170)에 유지되어 있는 전의 각 프레임에 대응하는 합성 화상에는 확대 축소에 관한 요소를 사용하여, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환을 실시하고, 동화상 취득부(140)로부터 출력된 현 프레임에 대응하는 화상에는 이동 또는 회전에 관한 요소를 사용해서 아핀 변환을 실시한다. 이들 변환은, 조작 접수부(195)로부터의 재생 지시에 따른 조작 입력에 따라서 행하여진다. 또한, 이들 화상 변환에 대해서는, 도 5 내지 도 16 등을 참조해서 상세하게 설명한다.
화상 메모리(170)는, 화상 합성부(180)에 의해 합성된 합성 화상을 유지하는 워크 버퍼로서, 유지되어 있는 합성 화상을 화상 변환부(160) 또는 화상 합성부(180)에 공급하는 것이다. 즉, 화상 메모리(170)는, 이력 화상을 유지하는 화상 메모리이다.
화상 합성부(180)는, 화상 변환부(160)로부터 출력된 화상, 화상 메모리(170)에 유지되어 있는 합성 화상 또는 동화상 취득부(140)로부터 출력된 화상을 합성하고, 합성된 합성 화상을 화상 메모리(170) 및 표시부(191)에 출력하는 것이다. 구체적으로는, 현 프레임보다도 전의 각 프레임에 대응하는 화상에 의해 합성된 합성 화상을 고정해서 동화상을 재생 표시하는 경우에는, 화상 합성부(180)는, 화상 메모리(170)에 유지되어 있는 직전까지의 각 프레임에 대응하는 합성 화상에, 화상 변환부(160)에 의해 아핀 변환된 화상을 덮어쓰기 함으로써 화상을 합성한다. 한편, 현 프레임에 대응하는 화상을 고정해서 동화상을 재생 표시하는 경우에는, 화상 합성부(180)는, 화상 메모리(170)에 유지되어 있는 직전까지의 각 프레임에 대응하는 합성 화상이 화상 변환부(160)에 의해 아핀 변환된 화상에, 동화상 취득부(140)로부터 출력된 현 프레임에 대응하는 화상을 덮어쓰기 함으로써 화상을 합성한다. 또한, 현 프레임에 대응하는 화상의 표시 배율을 고정해서 동화상을 재생 표시하는 경우에는, 화상 합성부(180)는, 화상 변환부(160)에 의해 아핀 변환된 전의 각 프레임에 대응하는 합성 화상에, 화상 변환부(160)에 의해 아핀 변환된 현 프레임에 대응하는 화상을 덮어쓰기 함으로써 화상을 합성한다. 이들 합성은, 조작 접수부(195)로부터의 재생 지시에 따른 조작 입력에 따라서 행하여진다. 또한, 이들 화상 합성에 대해서는, 도 5 내지 도 16 등을 참조해서 상세하게 설명한다.
표시 제어부(190)는, 화상 합성부(180)에 의해 합성된 합성 화상을 프레임마다 표시부(191)에 순차적으로 표시시키는 것이다.
표시부(191)는, 표시 제어부(190)의 제어에 기초하여, 화상 합성부(180)에 의해 합성된 합성 화상을 표시하는 것이다. 예를 들어, 퍼스널 컴퓨터나 텔레비전의 디스플레이에 의해 실현할 수 있다. 또한, 합성 화상의 표시예에 대해서는, 도 17 내지 도 24, 도 28 내지 도 31 등을 참조해서 상세하게 설명한다.
조작 접수부(195)는, 각종 조작 키 등을 구비하고, 이들 키에 의한 조작 입력을 접수하면, 접수한 조작 입력의 내용을 동화상 취득부(140), 화상 변환부(160) 또는 화상 합성부(180)에 출력하는 것이다. 조작 접수부(195)에는, 예를 들어, 동화상을 재생하는 경우에서의 표시 모드를 설정하는 설정 키가 설치되어 있다. 이 표시 모드로서, 예를 들어, 현 프레임에 대응하는 화상에 아핀 변환을 실시해서, 전의 각 프레임에 대응하는 합성 화상과의 합성 화상을 작성해서 표시하는 표시 모드 또는, 전의 각 프레임에 대응하는 합성 화상에, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환을 실시해서, 현 프레임에 대응하는 화상과의 합성 화상을 작성해서 표시하는 표시 모드가 있다. 즉, 본 발명의 실시 형태에 따르면, 현재의 화상 표시 틀을 고정해서 과거의 이력 화상이 변환되어 화상 합성 표시되는 방법과, 현재의 화상 표시 틀이 카메라 워크에 기초하여 이동하도록 화상 합성 표시되는 방법을 임의로 절환해서 표시할 수 있다.
다음으로, 화상 변환에 사용되는 아핀 변환 파라미터를 검출하는 검출 방법에 대해서 도면을 참조해서 상세하게 설명한다.
도 2의 (a) 내지 (c)는, 동화상을 구성하는 프레임에 대응하는 화상의 일례를 도시하는 도면이다. 도 3의 (a)는, 도 2에 도시하는 화상(300)에 대응하는 프레임의 1개 전의 프레임에 대응하는 화상에 대해서 배경 등을 생략해서 간략화한 화상을 도시하는 도면이다. 또한, 도 3의 (b) 및 (c)는, 도 2에 도시하는 화상(300)에 대해서 배경 등을 생략해서 간략화한 화상을 도시하는 도면이다.
도 2 및 도 3에 도시하는 화상(300, 320, 330)에는, 사람이 타고 있는 말의 상(301, 321, 331)과, 이 말의 상(301, 321, 331)의 앞쪽에 설치되어 있는 뱀의 상(302, 322, 332)이 포함되어 있다. 또한, 도 2에 도시하는 바와 같이, 이들 상의 배경에는 깃발이나 의자 등이 존재하고, 이 깃발이 바람에 나부끼고 있다.
도 3의 (a)에 도시하는 화상(320)은, 도 2의 (a) 내지 (c) 및 도 3의 (b) 및 (c)에 도시하는 화상(300, 330)에 대응하는 프레임의 1개 전의 프레임에 대응하는 화상을 간략화한 화상이다. 또한, 2개가 연속하는 프레임에 대응하는 화상(320 및 330)은, 화면 내의 피사체가 점차로 커지는 경우에서의 천이를 나타내는 화상이다. 즉, 이 촬영 시에는, 화면 내의 피사체를 점차로 크게 하는 조작인 줌인 조작으로 되어 있다.
본 발명의 실시 형태에서는, 동화상을 구성하는 화상으로부터 특징점을 검출하고, 이 특징점에 대응하는 옵티컬 플로우를 사용해서 아핀 변환 파라미터를 계산하는 방법을 예로 하여 설명한다. 또한, 이 예에서는, 특징점으로서 코너점을 사용하는 경우에 대해서 설명한다.
여기서, 도 3의 (a) 내지 (c)에서는, 화상(320 및 330)으로부터 검출된 3개의 코너점에 대응하는 옵티컬 플로우를 사용해서 아핀 변환 파라미터를 계산하는 방법을 예로 하여 설명한다.
예를 들어, 도 3의 (a)에 도시하는 화상(320)에서, 특징점으로서, 말의 상(321)에서의 입 부근의 코너점(323)과, 말의 상(321)에서의 사람의 엉덩이 부근의 코너점(324)과, 뱀의 상(322)의 입 부근의 코너점(325)이 검출되어 있는 것으로 한다. 이 경우에, 도 3의 (b)에 도시하는 화상(330)에서, 구배법이나 블록 매칭법 등에 의해, 화상(320)에서의 코너점(323, 324 및 325)에 대한 옵티컬 플로우(337, 338 및 339)가 검출된다. 그리고, 이 검출된 옵티컬 플로우(337, 338 및 339)에 기초하여, 화상(320)에서의 코너점(323, 324 및 325)에 대응하는 코너점(333, 334 및 335)이 검출된다.
여기서, 예를 들어, 도 3의 (a) 및 (b)에 도시하는 화상(320 및 330)에 포함되는 말의 상(321, 331)이나 뱀의 상(322, 332)은, 지면에 설치되어 있는 것이기 때문에, 카메라의 움직임과는 무관하게 움직이는 것이 아니다. 이 때문에, 말의 상(321, 331)이나 뱀의 상(322, 332)에 대해서 검출된 코너점에 대하여 구해진 옵티컬 플로우에 기초하여, 카메라의 움직임을 정확하게 추정할 수 있다. 예를 들어, 도 3의 (c)에 도시하는 바와 같이, 화상(330)에서 검출된 3개의 옵티컬 플로우(337 내지 339)에 기초하여, 화상(330)이, 점(336)을 중심으로 하여 화상(320)을 확대한 것인 것을 추정할 수 있다. 이것에 의해, 화상(330)의 촬영 시의 카메라의 움직임은, 점(336)을 중심으로 하는 줌인 동작이라고 판단할 수 있다. 이와 같이, 카메라의 움직임과는 무관하게 움직이는 것이 아닌 물체에 대해서 코너점을 검출하고, 이 코너점에 대하여 구해진 옵티컬 플로우에 기초하여, 일정한 규칙성을 구비하는 카메라의 움직임을 정확하게 검출할 수 있다. 이 때문에, 이들 코너점에 대하여 구해진 옵티컬 플로우를 사용하여, 아핀 변환 파라미터를 계산해서 구할 수 있다.
그러나, 바람에 나부끼고 있는 깃발 등과 같이, 카메라의 움직임과는 무관하 게 움직이는 물체가 화상 내에 포함되는 경우가 생각된다. 예를 들어, 도 2에 도시하는 화상(300)에는, 바람에 나부끼고 있는 깃발이 포함되어 있다. 이러한 카메라의 움직임과는 무관하게 움직이는 물체에 대해서 코너점이 검출되고, 이 코너점에 대하여 구해진 옵티컬 플로우를 사용해서 카메라의 움직임을 추정하는 경우에는, 카메라의 움직임을 정확하게 추정할 수 없다.
예를 들어, 도 2의 (b)에 도시하는 화상(300)에서 검출된 옵티컬 플로우를 화살표로 나타냄과 함께, 이 옵티컬 플로우에 의해 검출된 코너점을 화살표의 선단에 흰색의 동그라미로 나타낸다. 여기서, 코너점(303 내지 305)은, 도 3의 (b) 및 (c)에 도시하는 코너점(333 내지 335)에 대응하는 코너점이다. 또한, 코너점(306 내지 311)은, 말의 상(301)의 배경에 존재하는 깃발에 대해서 검출된 코너점이다. 그리고, 이들 깃발이 바람에 나부끼고 있기 때문에, 바람의 영향에 의한 깃발의 움직임이 옵티컬 플로우로서 검출되고 있다. 즉, 코너점(306 내지 311)에 대응하는 각 옵티컬 플로우는, 카메라의 움직임과는 무관하게 움직이는 깃발에 대해서 검출된 것이다. 이 때문에, 아핀 변환 파라미터를 계산하는 경우에 사용되는 3개의 옵티컬 플로우에, 코너점(306 내지 311) 중의 적어도 1개의 코너점에 대응하는 옵티컬 플로우가 포함되어 있는 경우에는, 정확한 카메라의 움직임을 검출할 수 없다. 이 경우에는, 정확한 아핀 변환 파라미터를 계산할 수 없다.
이상에서 설명한 바와 같이, 예를 들어, 카메라의 움직임과는 무관하게 움직이는 물체에 대한 옵티컬 플로우(도 2의 (b)에 도시하는 코너점(306 내지 311)에 대응하는 각 옵티컬 플로우)와, 카메라의 움직임과의 관계에서 일정한 규칙성을 구 비하는 옵티컬 플로우(도 2의 (b)에 도시하는 코너점(306 내지 311)에 대응하는 각 옵티컬 플로우 이외의 옵티컬 플로우)가, 촬영 화상으로부터 검출되는 경우가 있다.
그래서, 본 발명의 실시 형태에서는, 3개의 옵티컬 플로우에 기초하여 아핀 변환 파라미터를 계산하는 아핀 변환 파라미터 계산 처리를 복수회 행하고, 복수의 아핀 변환 파라미터를 구하고, 이들 복수의 아핀 변환 파라미터 중으로부터 최적인 아핀 변환 파라미터를 선택하는 예에 대해서 설명한다. 또한, 이 예에서는, 동화상을 구성하는 각 화상에 포함되어 있는 동물체의 크기가, 화상의 면적에 대하여 비교적 작은 것으로 한다.
여기서, 아핀 변환에 대해서 간단하게 설명한다. 2차원 상에서, 이동원의 위치를 (x, y)로 하고, 아핀 변환 후의 이동 전의 위치를 (x', y')로 한 경우에, 아핀 변환의 행렬식은, 수학식 1로 표현할 수 있다.
Figure 112009051186295-PCT00001
여기서, a 내지 f는, 아핀 변환 파라미터이다. 또한, 이 아핀 변환 파라미터에 의한 아핀 행렬 AM을 다음의 식으로 표현할 수 있다. 이 경우에, X 방향의 줌 성분 XZ, Y 방향의 줌 성분 YZ, X 방향의 병진 성분 XT, Y 방향의 병진 성분 YT, 회전 성분 R에 대해서는, 각각 다음의 식으로 구할 수 있다. 또한, 단위 행렬 의 경우에는, a=e=1, b=c=d=f=0으로 된다.
Figure 112009051186295-PCT00002
다음으로, 아핀 변환 파라미터의 계산 방법에 대해서 설명한다.
처음으로, 동화상을 구성하는 프레임 중의 1개의 프레임인 현 프레임에 대응하는 화상에서, 옵티컬 플로우가 검출된 특징점 중으로부터 3개의 특징점이 선택된다. 예를 들어, 도 2의 (b)에 도시하는 화상(300)에서 검출된 코너점(흰색의 동그라미로 나타냄) 중으로부터 랜덤하게 3개의 코너점이 선택된다. 또한, 카메라 워크 파라미터로서, 사영 변환 파라미터를 사용하는 경우에는, 4개의 특징점이 랜덤하게 선택된다.
계속해서, 선택된 3개의 특징점에 대응하는 3개의 옵티컬 플로우를 사용해서 아핀 변환 파라미터가 계산된다. 예를 들어, 도 2의 (b)에 도시하는 화상(300)에서의 코너점(흰색의 동그라미로 나타냄) 중으로부터 선택된 3개의 코너점에 대응하는 옵티컬 플로우(흰색의 동그라미에 접속되는 화살표로 나타냄)를 사용해서 아핀 변환 파라미터가 계산된다. 이 아핀 변환 파라미터는, 수학식 1을 사용해서 구할 수 있다.
계속해서, 구해진 아핀 변환 파라미터에 기초하여, 아핀 변환 파라미터의 스코어가 계산된다. 구체적으로는, 구해진 아핀 변환 파라미터를 사용하여, 현 프레임의 직전의 프레임에 대응하는 화상에서의 모든 특징점의 이동 전의 위치를 구한다. 그리고, 이 아핀 변환 파라미터를 사용해서 구해진 특징점의 위치와, 현 프레임에서 검출된 특징점의 위치를 비교하여, 서로 대응하는 2개의 특징점의 위치의 차분값이 특징점마다 계산된다. 차분값으로서, 예를 들어, 서로 대응하는 2개의 특징점의 위치간의 절대 거리가 계산된다. 계속해서, 계산된 차분값과, 미리 설정되어 있는 임계값을 특징점마다 비교해서, 그 차분값이 임계값보다도 작은 특징점의 개수를 아핀 변환 파라미터의 스코어로서 구한다. 이와 같이, 옵티컬 플로우가 검출된 특징점 중으로부터 3개의 특징점을 랜덤하게 선택하고, 이들 특징점에 대응하는 옵티컬 플로우에 기초하여 아핀 변환 파라미터의 스코어를 산출하는 처리를 소정 횟수 반복하고, 아핀 변환 파라미터의 스코어를 복수 산출한다. 이 소정 횟수는, 비교의 대상으로 되는 화상의 종류나 화상 처리 장치(100)의 처리 능력 등에 따라서 적절하게 설정하도록 해도 되고, 고정값을 사용하도록 해도 된다. 이 소정 횟수로서, 예를 들어, 화상 처리 장치(100)의 처리 능력을 고려해서 20회 정도로 설정할 수 있다.
예를 들어, 도 2의 (b)에 도시하는 화상(300)에서 검출된 코너점 중으로부터, 코너점(306 내지 311) 이외의 코너점이 3개 선택된 경우를 생각한다. 이와 같이 선택된 3개의 코너점에 대응하는 3개의 옵티컬 플로우를 사용해서 아핀 변환 파라미터가 계산되면, 상술한 바와 같이, 이 3개의 옵티컬 플로우는 일정한 규칙성을 구비하고 있기 때문에, 직전의 프레임에 대응하는 화상을 일정한 규칙에 따라서 변환시키는 아핀 변환 파라미터가 구해진다. 이 때문에, 아핀 변환 파라미터를 사용해서 구해진 코너점의 위치와, 현 프레임에서 검출된 코너점의 위치에 대해서, 코너점(306 내지 311) 이외의 코너점에 관해서 구해지는 차분값은, 비교적 작은 값이 산출된다. 이 때문에, 아핀 변환 파라미터의 스코어는, 큰 값으로 된다.
한편, 도 2의 (b)에 도시하는 화상(300)에서 검출된 코너점 중으로부터, 코너점(306 내지 311) 중의 적어도 1개를 포함하는 3개의 코너점이 선택된 경우를 생각한다. 이와 같이 선택된 3개의 코너점에 대응하는 3개의 옵티컬 플로우를 사용해서 아핀 변환 파라미터가 계산되면, 상술한 바와 같이, 이 3개의 옵티컬 플로우에는, 일정한 규칙성을 구비하고 있지 않은 옵티컬 플로우가 포함되기 때문에, 직전의 프레임에 대응하는 화상을 일정한 규칙에 따라서 변환시키는 것이 아닌 아핀 변환 파라미터가 구해진다. 이 때문에, 아핀 변환 파라미터를 사용해서 구해진 코너점의 위치와, 현 프레임에서 검출된 코너점의 위치에 대해서 구해지는 차분값은, 임의의 코너점에서 비교적 큰 값이 산출된다. 이 때문에, 아핀 변환 파라미터의 스코어는, 작은 값으로 된다.
계속해서, 구해진 복수의 아핀 변환 파라미터의 스코어 중으로부터, 스코어의 값이 가장 큰 아핀 변환 파라미터를 대표 아핀 변환 파라미터로서 선택한다. 그리고, 선택된 대표 아핀 변환 파라미터를, 현 프레임에 관련지어 동화상 기억부(200)에 기록한다. 이것에 의해, 동화상을 구성하는 화상을 아핀 변환하는 경우에, 최적인 아핀 변환 파라미터를 사용해서 아핀 변환할 수 있다.
이상에서 설명한 바와 같이, 동화상을 구성하는 각 화상에 인물이나 차 등의 움직이고 있는 물체(동물체)가 포함되어 있는 경우라도, 화상의 면적에 대한 그 동물체의 크기가 비교적 작은 경우에는, 동물체의 영향을 받지 않고 카메라의 움직임을 추출할 수 있다.
또한, 카메라의 움직임을 추출함으로써, 줌인, 줌아웃, 팬, 틸트, 로테이션 등의 의도적으로 촬영자가 이동시켰다고 생각되는 움직임을 추정할 수 있다.
다음으로, 본 발명의 실시 형태에서의 화상 처리 장치(100)의 동작에 대해서 도면을 참조해서 설명한다.
도 4는, 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 아핀 변환 파라미터 검출 처리의 처리 단계를 도시하는 플로우차트이다.
처음으로, 동화상 입력부(110)에 동화상 파일이 입력된다(스텝 S900). 계속해서, 동화상 입력부(110)에 입력된 동화상 파일이 디코드되고, 시계열의 순서로 1개의 프레임의 화상이 취득된다(스텝 S901). 계속해서, 취득된 1개의 프레임이 동화상 입력부(110)에 입력된 동화상 파일의 선두의 프레임인지의 여부가 판단된다(스텝 S902). 취득된 1개의 프레임이, 선두의 프레임인 경우에는(스텝 S902), 이 선두의 프레임에 대응하는 화상의 전체로부터 특징점이 추출된다(스텝 S903). 예를 들어, 도 2의 (b)에 도시하는 바와 같이, 화상에서 복수의 코너점이 추출된다. 계속해서, 아핀 변환 파라미터로서 단위 행렬의 아핀 변환 파라미터가 선택되고(스텝 S904), 스텝 S914로 진행한다.
한편, 취득된 1개의 프레임이, 선두의 프레임이 아닌 경우에는(스텝 S902), 직전의 프레임에 대응하는 화상을 기준으로 하여 새롭게 촬영된 영역으로부터 특징점이 추출된다(스텝 S905). 즉, 직전의 프레임에 대응하는 화상에서 이미 추출되어 있는 특징점에 대해서는, 이 특징점에 대응하는 옵티컬 플로우에 의해 구할 수 있기 때문에, 현 프레임에 대응하는 화상에서는 추출되지 않는다.
계속해서, 직전의 프레임에 대응하는 화상으로부터 추출된 각 특징점에 대한 옵티컬 플로우가 계산된다(스텝 S906). 즉, 도 2의 (b)에 도시하는 바와 같이, 각 코너점에 대한 옵티컬 플로우가 계산된다.
계속해서, 변수 i가 「1」로 초기화된다(스텝 S907). 계속해서, 옵티컬 플로우가 검출된 특징점 중으로부터, M개의 특징점이 선택된다(스텝 S908). 예를 들어, 카메라 워크 파라미터로서, 아핀 변환 파라미터를 사용하는 경우에는, 3개의 특징점이 랜덤하게 선택된다. 또한, 카메라 워크 파라미터로서, 사영 변환 파라미터를 사용하는 경우에는, 4개의 특징점이 랜덤하게 선택된다. 계속해서, 선택된 M개의 특징점에 대응해서 계산된 M개의 옵티컬 플로우에 기초하여, 아핀 변환 파라미터가 계산된다(스텝 S909).
계속해서, 계산해서 구해진 아핀 변환 파라미터에 기초하여, 아핀 변환 파라미터의 스코어가 계산된다(스텝 S910). 구체적으로는, 계산해서 구해진 아핀 변환 파라미터를 사용하여, 직전의 프레임에 대응하는 화상에서의 모든 특징점의 이동전의 위치를 구한다. 그리고, 이 아핀 변환 파라미터를 사용해서 구해진 특징점의 위치와, 스텝 S906에서 옵티컬 플로우를 계산하였을 때에 구해진 현 프레임에 대응하는 화상에서의 특징점의 위치를 비교하여, 서로 대응하는 2개의 특징점의 위치의 차분값이 특징점마다 계산된다. 차분값으로서, 예를 들어, 서로 대응하는 2개의 위치간의 절대 거리가 계산된다. 계속해서, 계산된 차분값과, 미리 설정되어 있는 임계값을 특징점마다 비교하여, 그 차분값이 임계값보다도 작은 특징점의 개수를 아핀 변환 파라미터의 스코어로서 구한다.
계속해서, 변수 i에 「1」이 가산되고(스텝 S911), 변수 i가, 상수 N보다도 큰지의 여부가 판단된다(스텝 S912). 변수 i가, 상수 N 이하인 경우에는(스텝 S912), 스텝 S908로 복귀되고, 아핀 변환 파라미터의 스코어 산출 처리를 반복한다(스텝 S908 내지 S910). 예를 들어, 상수 N으로서, 20을 사용할 수 있다.
한편, 변수 i가 상수 N보다도 큰 경우에는(스텝 S912), 구해진 아핀 변환 파라미터의 스코어 중에서, 스코어의 값이 가장 큰 아핀 변환 파라미터가 대표 아핀 변환 파라미터로서 선택된다(스텝 S913). 계속해서, 선택된 대표 아핀 변환 파라미터의 행렬에 대한 역행렬의 아핀 변환 파라미터가, 현 프레임에 관련지어 동화상 기억부(200)에 기록된다(스텝 S914). 또한, 현 프레임이 선두의 프레임인 경우에는, 선택된 단위 행렬의 아핀 변환 파라미터가, 선두의 프레임에 관련지어 동화상 기억부(200)에 기록된다. 계속해서, 현 프레임에 대응하는 화상과, 이 화상에서의 특징점이 덮어쓰기 보존된다(스텝 S915).
계속해서, 현 프레임이, 동화상 입력부(110)에 입력된 동화상 파일의 최후의 프레임인지의 여부가 판단된다(스텝 S916). 현 프레임이, 최후의 프레임이 아닌 경우에는(스텝 S916), 스텝 S901로 복귀하여, 아핀 변환 파라미터 검출 처리를 반복한다(스텝 S901 내지 S915). 한편, 현 프레임이, 최후의 프레임인 경우에는(스 텝 S916), 아핀 변환 파라미터 검출 처리를 종료한다.
본 발명의 실시 형태에서는, 카메라 워크 파라미터의 검출로서, 동화상을 구성하는 화상에서 검출된 옵티컬 플로우에 기초하여 아핀 변환 파라미터를 검출하는 예에 대해서 설명하였지만, 가속도 센서나 자이로 센서 등의 센서나 줌 조작을 할 때에 사용되는 줌 버튼을 카메라에 설치하고, 이 센서나 줌 버튼에 의해 촬영 시의 카메라의 이동량을 검출하고, 이 카메라의 이동량에 기초하여 카메라 워크 파라미터를 구하도록 해도 된다. 또한, 이들 촬영 시 검출된 카메라의 이동량에 대해서는, 카메라 워크 파라미터 산출부(123)에 의해 구해진 카메라 워크 파라미터가 정확한지의 여부를 판단할 때에 사용할 수 있다. 또한, 카메라 워크 파라미터 산출부(123)에 의해 복수의 카메라 워크 파라미터를 검출해 놓고, 촬영 시 검출된 카메라의 이동량에 기초하여, 이 복수의 카메라 워크 파라미터 중으로부터 1개의 카메라 워크 파라미터를 선택하도록 해도 된다.
다음으로, 상술한 아핀 변환 파라미터를 사용해서 동화상을 재생 표시하는 경우에 대해서 도면을 참조해서 상세하게 설명한다. 또한, 도 5 내지 도 16에 도시하는 각 화상은, 설명을 위해, 간략화함과 함께, 연속하는 2개의 프레임간의 이동량을 크게 해서 나타내고 있다.
처음으로, 카메라의 촬영 시에, 배율이 변경되지 않지만, 카메라의 위치를 중심으로 해서, 카메라의 렌즈의 방향이 상하 좌우 중 어느 한 쪽으로 이동되고 있는 경우에 대해서 설명한다.
도 5는, 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면이다. 도 5에는, 산을 배경으로 해서 사람(400)을 촬영한 경우에서의 동화상에 포함되는 연속하는 프레임에 대응하는 화상(401 내지 403)을 도시하는 도면이다. 이 예에서는, 카메라의 렌즈의 방향을 우측 및 상측으로 이동하면서, 촬영자가 촬영을 행하고 있는 경우를 설명한다. 이 경우에는, 카메라에 의해 촬영되는 동화상에 포함되는 사람(400)이, 그 동화상을 구성하는 화상에서 우측으로부터 좌측으로 이동함과 함께 하측으로 이동한다.
도 6은, 도 5에 도시하는 각 화상에서, 직전의 프레임에 대응하는 화상을 파선으로 나타냄과 함께, 검출되는 옵티컬 플로우의 일례를 도시하는 도면이다. 도 6의 (a)에 도시하는 화상(401)은, 도 5의 (a)에 도시하는 화상(401)과 동일한 것이다. 또한, 도 6의 (b)에 도시하는 화상(402) 의 실선의 부분은, 도 5의 (b)에 도시하는 화상(402)과 동일한 것이며, 도 6의 (b)에 도시하는 화상(402) 중의 파선의 부분은, 도 6의 (a)에 도시하는 화상(401)의 실선의 부분과 동일한 것이다. 또한, 도 6의 (b)에 도시하는 화상(402)에서의 화살표(404 내지 406)는, 화상(402)으로부터 검출된 옵티컬 플로우의 일례를 나타낸다. 마찬가지로, 도 6의 (c)에 도시하는 화상(403) 중의 실선의 부분은, 도 5의 (c)에 도시하는 화상(403)과 동일한 것이며, 도 6의 (c)에 도시하는 화상(403) 중의 파선의 부분은, 도 6의 (b)에 도시하는 화상(402)의 실선의 부분과 동일한 것이다. 또한, 도 6의 (c)에 도시하는 화상(403)에서의 화살표(407 내지 409)는, 화상(403)으로부터 검출된 옵티컬 플로우의 일례를 나타낸다.
도 6의 (b) 및 (c)에 도시하는 바와 같이, 카메라의 이동에 맞추어, 화상에 포함되는 사람(400) 및 배경의 산이 이동한다. 이 이동에 의해 검출되는 옵티컬 플로우에 기초하여 아핀 변환 파라미터를 프레임마다 구할 수 있다.
도 7은, 도 5에 도시하는 화상(401 내지 403)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다. 또한, 본 발명의 실시 형태에서는, 동화상을 구성하는 각 화상이 합성되기 때문에, 재생 시간의 경과와 함께, 표시부(191)에 표시되는 화상이 통상의 화상보다도 커진다. 이 때문에, 처음으로 표시되는 화상은, 표시부(191)의 표시 영역의 크기보다도 비교적 작게 해서 표시된다. 또한, 처음으로 표시되는 화상의 크기나 위치 등을 유저가 지정하도록 해도 된다.
도 7의 (a)에 도시하는 바와 같이, 처음에는, 선두의 프레임에 대응하는 화상(401)만이 표시된다. 여기서, 화상(401)에 대응하는 아핀 변환 파라미터의 행렬(3×3의 행렬)을 A1로 하는 경우에, A1의 값이 구해지고, 선두의 프레임의 화상(401)의 위치 및 크기를 기준으로 하여, 구해진 A1의 행렬에 의해 화상(401)이 아핀 변환된다. 여기서, A는 단위 행렬이기 때문에, 화상(401)의 위치 및 크기는 변환되지 않는다. 계속해서, 다음의 프레임에 대응하는 화상(402)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 화상(402)이 아핀 변환된다. 구체적으로는, 화상(402)에 대응하는 아핀 변환 파라미터의 행렬을 A2로 하고, 화상(401)에 대응하는 아핀 변환 파라미터의 행렬을 A1로 하는 경우에, A1×A2의 값이 구해지고, 선두의 프레임의 화상(401)의 위치 및 크기를 기준으로 하여, 구해진 A1×A2의 행렬에 의해 화상(402)이 아핀 변환된다. 도 7의 (b)에 도시하는 화상에서는, 화상(402)의 위치만이 변환된다. 그리고, 아핀 변환 파라미 터에 의해 아핀 변환된 화상(402)이, 직전의 프레임에 대응하는 화상(401)에 겹치도록 덮어 써진다. 즉, 화상(401)의 영역 중에서, 화상(402)과 중복되는 영역(410)에 대해서는, 화상(402)의 화상이 덮어 써진다. 또한, 화상(401)의 영역 중에서, 화상(402)과 중복되지 않는 영역(411)에 대해서는, 화상(401)의 화상이 합성된다. 즉, 2개째의 프레임에 대응하는 화상(402)이 표시되는 경우에는, 도 7의 (b)에 도시하는 바와 같이, 화상(402)의 전체 부분과, 화상(401) 중의 영역(411)에 대응하는 부분이 합성된 화상이 표시된다. 또한, 표시되어 있는 화상 중에서 최신의 화상인 것을 나타내는 화상틀을 현 프레임에 대응하는 화상의 주위에 표시시킬 수 있다. 도 7의 (b)에서는, 화상(402)에 화상틀이 표시된다. 또한, 화상(402)을 아핀 변환한 아핀 변환 파라미터가 화상 변환부(160)에 유지된다.
계속해서, 다음의 프레임에 대응하는 화상(403)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 화상(403)이 아핀 변환된다. 즉, 화상(403)에 대응하는 아핀 변환 파라미터의 행렬과, 직전의 아핀 변환에 사용된 화상(402)에 대응하는 아핀 변환 파라미터의 행렬을 사용해서 구해진 아핀 변환 파라미터에 의해 화상(403)이 아핀 변환된다. 구체적으로는, 화상(403)에 대응하는 아핀 변환 파라미터의 행렬을 A3으로 하고, 화상(402)에 대응하는 아핀 변환 파라미터의 행렬을 A2로 하고, 화상(401)에 대응하는 아핀 변환 파라미터의 행렬을 A1로 하는 경우에, A1×A2×A3의 값이 구해지고, 선두의 프레임의 화상(401)의 위치 및 크기를 기준으로 하여, 구해진 A1×A2×A3의 행렬에 의해 화상(403)이 아핀 변환된다. 도 7의 (c)에 도시하는 화상에서는, 화상(403)의 위치만이 변환된 다. 그리고, 아핀 변환 파라미터에 의해 아핀 변환된 화상(403)이, 전의 프레임에 대응하는 화상(401 및 402)의 합성 화상에 겹치도록 덮어 써진다. 즉, 화상(401 및 402)의 합성 화상의 영역 중에서, 화상(403)과 중복되는 영역(413 및 414)에 대해서는, 화상(403)의 화상이 덮어 써진다. 또한, 화상(401 및 402)의 합성 화상의 영역 중에서, 화상(403)과 중복되지 않는 영역(411 및 412)에 대해서는, 화상(401 및 402)의 합성 화상이 합성된다. 즉, 3개째의 프레임에 대응하는 화상(403)이 표시되는 경우에는, 도 7의 (c)에 도시하는 바와 같이, 화상(403)의 전체 부분과, 화상(401) 중의 영역(411)에 대응하는 부분과, 화상(402) 중의 영역(412)에 대응하는 부분이 합성된 화상이 표시된다. 또한, 표시되어 있는 화상 중에서 최신의 화상인 것을 나타내는 화상틀을 현 프레임에 대응하는 화상의 주위에 표시시키는 경우에는, 도 7의 (c)에 도시하는 화상(403)에 화상틀이 표시된다. 또한, 화상(403)을 아핀 변환한 아핀 변환 파라미터가 화상 변환부(160)에 유지된다. 즉, 화상(402 및 403)의 각각에 대응하는 아핀 변환 파라미터의 행렬의 승산에 의해 구해진 아핀 변환 파라미터가 화상 변환부(160)에 유지된다. 이와 같이, 현 프레임에 대응하는 화상을 아핀 변환하는 경우에는, 현 프레임에 대응하는 아핀 변환 파라미터의 행렬과, 이 직전까지의 각 프레임에 대응하는 아핀 변환 파라미터의 행렬을 사용해서 구해진 아핀 변환 파라미터에 의해, 현 프레임에 대응하는 화상이 아핀 변환된다. 이 아핀 변환 시에 구해진 아핀 변환 파라미터가 화상 변환부(160)에 유지되고, 다음의 아핀 변환에서 사용된다. 또한, 도 11 및 도 15의 경우에 대해서도 마찬가지이다.
도 8은, 도 5에 도시하는 화상(401 내지 403)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다. 도 7에 도시하는 표시예는, 현 프레임 전의 각 프레임에 대응하는 합성 화상(처음에는 1개의 화상)을 고정해서, 아핀 변환된 현 프레임에 대응하는 화상을 그 합성 화상에 덮어 써서 합성하고, 이 합성된 화상을 표시하는 것이다. 이에 대해, 도 8에 도시하는 표시예는, 현 프레임에 대응하는 화상의 위치를 고정으로 하고, 현 프레임 전의 각 프레임에 대응하는 합성 화상을 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환하고, 이 아핀 변환된 합성 화상에 현 프레임에 대응하는 화상을 덮어 써서 합성하고, 이 합성된 화상을 표시하는 것이다. 즉, 도 7 및 도 8에 도시하는 표시예는, 고정 위치에 표시되는 화상 및 아핀 변환의 대상으로 되는 화상이 상이하지만, 다른 부분은 공통된다. 이 때문에, 도 7에 공통되는 부분에 대해서는, 공통인 번호를 붙여서 설명한다.
도 8의 (a)에 도시하는 바와 같이, 처음에는, 선두의 프레임에 대응하는 화상(401)만이 표시된다. 여기서, 화상(401)은 선두 프레임이기 때문에, 전의 프레임이 존재하지 않는다. 계속해서, 다음의 프레임에 대응하는 화상(402)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 직전의 화상인 화상(401)이 아핀 변환된다. 구체적으로는, 화상(402)에 대응하는 아핀 변환 파라미터의 행렬을 A2로 하고, 화상(401)에 대응하는 아핀 변환 파라미터의 행렬을 A1로 하는 경우에, Inv(A1×A2)의 값이 구해지고, 구해진 Inv(A1×A2)의 행렬에 의해 화상(401)이 아핀 변환된다. 여기서, InvA(A는 행렬)는, A의 역행렬을 나타낸다. 도 8의 (b)에 도시하는 화상에서는, 화상(401)의 위치만이 변환된다. 그 리고, 아핀 변환된 화상(401)에, 현 프레임에 대응하는 화상(402)이 겹치도록 덮어 써진다. 또한, 화상(401)에 화상(402)이 덮어 써진 합성 화상은, 도 7의 (b)에 도시하는 합성 화상과 동일하기 때문에, 여기서의 설명은 생략한다.
계속해서, 다음의 프레임에 대응하는 화상(403)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용하여, 전의 프레임에 대응하는 화상(401) 및 화상(402)의 합성 화상이 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다. 구체적으로는, 화상(403)에 대응하는 아핀 변환 파라미터의 행렬을 A3으로 하고, 화상(402)에 대응하는 아핀 변환 파라미터의 행렬을 A2로 하고, 화상(401)에 대응하는 아핀 변환 파라미터의 행렬을 A1로 하는 경우에, Inv(A1×A2×A3)의 값이 구해지고, Inv(A1×A2×A3)의 행렬에 의해 화상(401 및 402)의 합성 화상이 아핀 변환된다. 도 8의 (c)에 도시하는 화상에서는, 화상(401) 및 화상(402)의 합성 화상의 위치만이 변환된다. 그리고, 현 프레임에 대응하는 화상(403)이, 아핀 변환된 화상(401 및 402)의 합성 화상에 겹치도록 덮어 써진다. 또한, 화상(401 및 402)에 화상(403)이 덮어 써진 합성 화상은, 도 7의 (c)에 도시하는 합성 화상과 동일하기 때문에, 여기서의 설명은 생략한다.
다음으로, 카메라의 촬영 시에, 카메라의 렌즈의 방향은 이동되지 않지만, 배율이 변경되고 있는 경우에 대해서 설명한다.
도 9는, 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면이다. 도 9에는, 산을 배경으로 해서 사람(420)을 촬영한 경우에서의 동화상에 포함되는 연속하는 프레임에 대응하는 화상(421 내지 423)을 도시하는 도면이다. 이 예에서 는, 카메라의 렌즈의 배율을 올리면서, 촬영자가 촬영을 행하고 있는 경우를 설명한다. 이 경우에는, 카메라에 의해 촬영되는 동화상에 포함되는 사람(420)이, 그 동화상을 구성하는 화상에서 점차 커진다. 또한, 배율을 올릴 때에 카메라의 위치가 다소 이동하는 경우가 있지만, 이 예에서는, 카메라의 위치의 이동에 대해서는 고려하지 않고 설명한다.
도 10은, 도 9에 도시하는 각 화상에서, 직전의 프레임에 대응하는 화상을 파선으로 나타냄과 함께, 검출되는 옵티컬 플로우의 일례를 도시하는 도면이다. 도 10의 (a)에 도시하는 화상(421)은, 도 9의 (a)에 도시하는 화상(421)과 동일한 것이다. 또한, 도 10의 (b)에 도시하는 화상(422) 중의 실선의 부분은, 도 9의 (b)에 도시하는 화상(422)과 동일한 것이며, 도 10의 (b)에 도시하는 화상(422) 중의 파선의 부분은, 도 9의 (a)에 도시하는 화상(421)의 실선의 부분과 동일한 것이다. 또한, 도 10의 (b)에 도시하는 화상(422)에서의 화살표(424 내지 426)는, 화상(422)으로부터 검출된 옵티컬 플로우의 일례를 나타낸다. 마찬가지로, 도 10의 (c)에 도시하는 화상(423) 중의 실선의 부분은, 도 9의 (c)에 도시하는 화상(423)과 동일한 것이며, 도 10의 (c)에 도시하는 화상(423) 중의 파선의 부분은, 도 9의 (b)에 도시하는 화상(422)의 실선의 부분과 동일한 것이다. 또한, 도 10의 (c)에 도시하는 화상(423)에서의 화살표(427 내지 429)는, 화상(423)으로부터 검출된 옵티컬 플로우의 일례를 나타낸다.
도 10의 (b) 및 (c)에 도시하는 바와 같이, 배율의 변경에 맞추어, 화상에 포함되는 사람(420) 및 배경의 산의 크기를 변경한다. 이 변경에 의해 검출되는 옵티컬 플로우에 기초하여 아핀 변환 파라미터를 프레임마다 구할 수 있다.
도 11은, 도 9에 도시하는 화상(421 내지 423)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다.
도 11의 (a)에 도시하는 바와 같이, 처음에는, 선두의 프레임에 대응하는 화상(421)만이 표시된다. 계속해서, 다음의 프레임에 대응하는 화상(422)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 화상(422)이 아핀 변환된다. 도 11의 (b)에 도시하는 화상에서는, 화상(422)의 크기만이 변환된다. 그리고, 아핀 변환 파라미터에 의해 아핀 변환된 화상(422)이, 직전의 프레임에 대응하는 화상(421)에 겹치도록 덮어 써진다. 즉, 화상(421)의 영역 중에서, 화상(422)와 중복되는 영역에 대해서는, 화상(422)의 화상이 덮어 써진다. 이 경우에는, 화상(421)은, 화상(422)의 모든 영역과 중복되어 있기 때문에, 화상(421)에 화상(422)의 모든 화상이 덮어 써진다. 또한, 화상(421)의 영역 중에서, 화상(422)과 중복되지 않는 영역(431)에 대해서는, 화상(421)의 화상이 합성된다. 즉, 2개째의 프레임에 대응하는 화상(422)이 표시되는 경우에는, 도 11의 (b)에 도시하는 바와 같이, 화상(422)의 전체 부분과, 화상(421) 중의 영역(431)에 대응하는 부분이 합성된 화상이 표시된다. 또한, 표시되어 있는 화상 중에서 최신의 화상인 것을 나타내는 화상틀을 현 프레임에 대응하는 화상의 주위에 표시시킬 수 있다. 도 11의 (b)에서는, 화상(422)에 화상틀이 표시된다. 또한, 화상(422)을 아핀 변환한 아핀 변환 파라미터가 화상 변환부(160)에 유지된다.
계속해서, 다음의 프레임에 대응하는 화상(423)이 표시되는 경우에는, 이 프 레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 화상(423)이 아핀 변환된다. 즉, 화상(423)에 대응하는 아핀 변환 파라미터의 행렬과, 직전의 아핀 변환에 사용된 화상(422)에 대응하는 아핀 변환 파라미터의 행렬을 사용해서 구해진 아핀 변환 파라미터에 의해 화상(423)이 아핀 변환된다. 도 11의 (c)에 도시하는 화상에서는, 화상(423)의 크기만이 변환된다. 그리고, 아핀 변환된 화상(423)이, 전의 프레임에 대응하는 화상(421 및 422)의 합성 화상에 겹치도록 덮어 써진다. 즉, 화상(421 및 422)의 합성 화상의 영역 중에서, 화상(423)과 중복되는 영역에 대해서는, 화상(423)의 화상이 덮어 써진다. 이 경우에는, 화상(423)은, 화상(421 및 422)의 모든 영역과 중복되어 있기 때문에, 화상(421 및 422)의 합성 화상에 화상(423)의 모든 화상이 덮어 써진다. 또한, 화상(421 및 422)의 합성 화상의 영역 중에서, 화상(423)과 중복되지 않는 영역(432 및 433)에 대해서는, 화상(421 및 422)의 합성 화상이 합성된다. 즉, 3개째의 프레임에 대응하는 화상(423)이 표시되는 경우에는, 도 11의 (c)에 도시하는 바와 같이, 화상(423)의 전체 부분과, 화상(421) 중의 영역(432)에 대응하는 부분과, 화상(422) 중의 영역(433)에 대응하는 부분이 합성된 화상이 표시된다. 또한, 표시되어 있는 화상 중에서 최신의 화상인 것을 나타내는 화상틀을 현 프레임에 대응하는 화상의 주위에 표시시키는 경우에는, 도 11의 (c)에 도시하는 화상(423)에 화상틀이 표시된다. 또한, 화상(423)을 아핀 변환한 아핀 변환 파라미터가 화상 변환부(160)에 유지된다. 즉, 화상(422 및 423)의 각각에 대응하는 아핀 변환 파라미터를 사용해서 구해진 아핀 변환 파라미터가 화상 변환부(160)에 유지된다.
도 12는, 도 9에 도시하는 화상(421 내지 423)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다. 도 11 및 도 12에 도시하는 표시예의 상위는, 도 7 및 도 8에 도시하는 표시예의 상위와 마찬가지이며, 고정 위치에 표시되는 화상 및 아핀 변환의 대상으로 되는 화상이 상이하지만, 다른 부분은 공통된다. 이 때문에, 도 11에 공통되는 부분에 대해서는, 공통인 번호를 붙여서 설명한다.
도 12의 (a)에 도시하는 바와 같이, 처음에는, 선두의 프레임에 대응하는 화상(421)만이 표시된다. 계속해서, 다음의 프레임에 대응하는 화상(422)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 직전의 화상인 화상(421)이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다. 도 12의 (b)에 도시하는 화상에서는, 화상(421)의 크기만이 변환된다. 그리고, 아핀 변환된 화상(421)에, 현 프레임에 대응하는 화상(422)이 겹치도록 덮어 써진다. 또한, 화상(421)에 화상(422)이 덮어 써진 합성 화상에 대해서는, 크기가 상이하지만, 그 밖의 점은, 도 11의 (b)에 도시하는 합성 화상과 동일하기 때문에, 여기서의 설명은 생략한다.
계속해서, 다음의 프레임에 대응하는 화상(423)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용하여, 전의 프레임에 대응하는 화상(421) 및 화상(422)의 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다. 도 12의 (c)에 도시하는 화상에서는, 화상(421 및 422)의 합성 화상의 크기만이 변환된다. 그리고, 현 프레임에 대응하는 화상(423)이, 아핀 변 환된 화상(421 및 422)의 합성 화상에 겹치도록 덮어 써진다. 또한, 화상(421 및 422)의 합성 화상에 화상(423)이 덮어 써진 합성 화상은, 크기가 상이하지만, 그 밖의 점은, 도 11의 (c)에 도시하는 합성 화상과 동일하기 때문에, 여기서의 설명은 생략한다.
다음으로, 카메라의 촬영 시에, 카메라의 렌즈의 방향이나 배율은 변경되지 않지만, 촬영 방향을 회전 중심으로 하여 카메라가 회전되고 있는 경우에 대해서 설명한다.
도 13은, 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면이다. 도 13에는, 산을 배경으로 해서 사람(440)을 촬영한 경우에서의 동화상에 포함되는 연속하는 프레임에 대응하는 화상(441 내지 443)을 도시하는 도면이다. 이 예에서는, 촬영 방향을 회전 중심으로 하여 카메라를 회전하면서, 촬영자가 촬영을 행하고 있는 경우를 설명한다. 이 경우에는, 카메라에 의해 촬영되는 동화상에 포함되는 사람(440)이, 그 동화상을 구성하는 화상에서 회전해 간다. 또한, 카메라의 회전에 의해 카메라의 위치가 다소 이동하는 경우가 있지만, 이 예에서는, 카메라의 위치의 이동에 대해서는 고려하지 않고 설명한다.
도 14는, 도 13에 도시하는 각 화상에서, 직전의 프레임에 대응하는 화상을 파선으로 나타냄과 함께, 검출되는 옵티컬 플로우의 일례를 도시하는 도면이다. 도 14의 (a)에 도시하는 화상(441)은, 도 13의 (a)에 도시하는 화상(441)과 동일한 것이다. 또한, 도 14의 (b)에 도시하는 화상(442) 중의 실선의 부분은, 도 13의 (b)에 도시하는 화상(442)과 동일한 것이며, 도 14의 (b)에 도시하는 화상(442) 중 의 파선의 부분은, 도 13의 (a)에 도시하는 화상(441)의 실선의 부분과 동일한 것이다. 또한, 도 14의 (b)에 도시하는 화상(442)에서의 화살표(444 내지 446)는, 화상(442)으로부터 검출된 옵티컬 플로우의 일례를 나타낸다. 마찬가지로, 도 14의 (c)에 도시하는 화상(443) 중의 실선의 부분은, 도 13의 (c)에 도시하는 화상(443)과 동일한 것이며, 도 14의 (c)에 도시하는 화상(443) 중의 파선의 부분은, 도 13의 (b)에 도시하는 화상(442)의 실선의 부분과 동일한 것이다. 또한, 도 14의 (c)에 도시하는 화상(443)에서의 화살표(447 내지 449)는, 화상(443)으로부터 검출된 옵티컬 플로우의 일례를 나타낸다.
도 14의 (b) 및 (c)에 도시하는 바와 같이, 카메라의 회전에 맞추어, 화상에 포함되는 사람(440) 및 배경의 산이 회전 이동한다. 이 회전 이동에 의해 검출되는 옵티컬 플로우에 기초하여 아핀 변환 파라미터를 프레임마다 구할 수 있다.
도 15는, 도 13에 도시하는 화상(441 내지 443)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다.
도 15의 (a)에 도시하는 바와 같이, 처음에는, 선두의 프레임에 대응하는 화상(441)만이 표시된다. 계속해서, 다음의 프레임에 대응하는 화상(442)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 화상(442)이 아핀 변환된다. 도 15의 (b)에 도시하는 화상에서는, 화상(442)의 각도만이 변환된다. 그리고, 아핀 변환된 화상(442)이, 직전의 프레임에 대응하는 화상(441)에 겹치도록 덮어 써진다. 즉, 화상(441)의 영역 중에서, 화상(442)과 중복되는 영역(450)에 대해서는, 화상(442)의 화상이 덮어 써진다. 또한, 화상(441) 의 영역 중에서, 화상(442)과 중복되지 않는 영역(451 및 452)에 대해서는, 화상(441)의 화상이 합성된다. 즉, 2개째의 프레임에 대응하는 화상(442)이 표시되는 경우에는, 도 15의 (b)에 도시하는 바와 같이, 화상(442)의 전체 부분과, 화상(441) 중의 영역(451 및 452)에 대응하는 부분이 합성된 화상이 표시된다. 또한, 표시되어 있는 화상 중에서 최신의 화상인 것을 나타내는 화상틀을 현 프레임에 대응하는 화상의 주위에 표시시킬 수 있다. 도 15의 (b)에서는, 화상(442)에 화상틀이 표시된다. 또한, 화상(442)을 아핀 변환한 아핀 변환 파라미터가 화상 변환부(160)에 유지된다.
계속해서, 다음의 프레임에 대응하는 화상(443)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 화상(443)이 아핀 변환된다. 즉, 화상(443)에 대응하는 아핀 변환 파라미터의 행렬과, 직전의 아핀 변환에 사용된 화상(442)에 대응하는 아핀 변환 파라미터의 행렬을 사용해서 구해진 아핀 변환 파라미터에 의해 화상(443)이 아핀 변환된다. 도 15의 (c)에 도시하는 화상에서는, 화상(443)의 각도만이 변환된다. 그리고, 아핀 변환된 화상(443)이, 전의 프레임에 대응하는 화상(441 및 442)의 합성 화상에 겹치도록 덮어 써진다. 즉, 화상(441 및 442)의 합성 화상의 영역 중에서, 화상(443)과 중복되는 영역(453 내지 457)에 대해서는, 화상(443)의 화상이 덮어 써진다. 또한, 화상(441 및 442)의 합성 화상의 영역 중에서, 화상(443)과 중복되지 않는 영역(458 내지 461)에 대해서는, 화상(441 및 442)의 합성 화상이 더 합성된다. 즉, 3개째의 프레임에 대응하는 화상(443)이 표시되는 경우에는, 도 15의 (c)에 도시하는 바와 같이, 화 상(443)의 전체 부분과, 화상(441) 중의 영역(459)에 대응하는 부분과, 화상(442) 중의 영역(458 및 460)에 대응하는 부분이 합성된 화상이 표시된다. 또한, 표시되어 있는 화상 중에서 최신의 화상인 것을 나타내는 화상틀을 현 프레임에 대응하는 화상의 주위에 표시시키는 경우에는, 도 15의 (c)에 도시하는 화상(443)에 화상틀이 표시된다. 또한, 화상(443)을 아핀 변환한 아핀 변환 파라미터가 화상 변환부(160)에 유지된다. 즉, 화상(442 및 443)의 각각에 대응하는 아핀 변환 파라미터를 사용해서 구해진 아핀 변환 파라미터가 화상 변환부(160)에 유지된다.
도 16은, 도 13에 도시하는 화상(441 내지 443)을 포함하는 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다. 도 15 및 도 16에 도시하는 표시예의 상위는, 도 7 및 도 8에 도시하는 표시예의 상위와 마찬가지이며, 고정 위치에 표시되는 화상 및 아핀 변환의 대상으로 되는 화상이 상이하지만, 다른 부분은 공통된다. 이 때문에, 도 15에 공통되는 부분에 대해서는, 공통인 번호를 붙여서 설명한다.
도 16의 (a)에 도시하는 바와 같이, 처음에는, 선두의 프레임에 대응하는 화상(441)만이 표시된다. 계속해서, 다음의 프레임에 대응하는 화상(442)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용해서 직전의 화상인 화상(441)이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다. 도 16의 (b)에 도시하는 화상에서는, 화상(441)의 각도만이 변환된다. 그리고, 아핀 변환된 화상(441)에, 현 프레임에 대응하는 화상(442)이 겹치도록 덮어 써진다. 또한, 화상(441)에 화상(442)이 덮어 써진 합성 화상에 대해서는, 각도가 상이하지 만, 그 밖의 점은, 도 15의 (b)에 도시하는 합성 화상과 동일하기 때문에, 여기서의 설명은 생략한다.
계속해서, 다음의 프레임에 대응하는 화상(443)이 표시되는 경우에는, 이 프레임에 관련지어져 있는 아핀 변환 파라미터를 사용하여, 전의 프레임에 대응하는 화상(441) 및 화상(442)의 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다. 도 16의 (c)에 도시하는 화상에서는, 화상(441 및 442)의 합성 화상의 각도만이 변환된다. 그리고, 현 프레임에 대응하는 화상(443)이, 아핀 변환된 화상(441 및 442)의 합성 화상에 겹치도록 덮어 써진다. 또한, 화상(441 및 442)에 화상(443)이 덮어 써진 합성 화상은, 각도가 상이하지만, 그 밖의 점은, 도 15의 (c)에 도시하는 합성 화상과 동일하기 때문에, 여기서의 설명은 생략한다.
이상에서는, 동화상을 구성하는 각 화상의 위치, 배율 및 각도가 순차적으로 변경되는 경우에 대해서 각각 설명하였지만, 이들 변경이 조합되어 있는 경우에 대해서도 마찬가지로 적용할 수 있다.
다음으로, 실제로 카메라에 의해 촬영된 동화상을 재생하는 경우에서의 표시예를 설명한다. 이하에 기재하는 표시예에서는, 표시부(191)의 표시 영역 중에서, 현 프레임 및 전의 프레임에 대응하는 화상이 표시되는 영역에만 합성 화상을 표시하고, 그 밖의 영역을 검게 하는 예를 설명한다. 또한, 현 프레임에 대응하는 화상의 주위에는 틀을 표시한다. 또한, 이하에 도시하는 표시예에서는, 동화상이 재생되고 있는 도중부터의 표시예를 설명한다.
도 17 내지 도 24는, 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하 는 도면이다. 도 17 및 도 18은, 맨션의 광장에서 놀고 있는 부모와 아이를, 카메라를 이동시키면서 촬영한 경우에서의 동화상을 구성하는 화상(500 내지 505)을 도시하는 도면이다. 이 예에서는, 현 프레임에 대응하는 화상이 아핀 변환되고, 이 아핀 변환된 화상이 전의 각 프레임에 대응하는 합성 화상에 덮어 써지는 경우를 설명한다.
도 17 및 도 18에 도시하는 화상(500 내지 505)에서, 현 프레임에 대응하는 화상은, 화상(506 내지 511)이다. 또한, 전의 각 프레임에 대응해서 합성된 화상인 합성 화상은, 화상(512 내지 517)이다. 도 17 및 도 18에 도시하는 바와 같이, 촬영된 화상에 포함되는 촬영 대상물(맨션 광장 등)이 화면에 고정되고, 현 프레임에 대응하는 화상(506 내지 511)이 카메라의 움직임에 맞추어 화면 상을 이동한다. 이와 같이 표시함으로써, 표시부(191)에 검게 표시되어 있는 표시 영역에서, 현 프레임에 대응하는 화상이, 카메라의 움직임에 따라서 진행해 가는 것처럼 열람자에게 보일 수 있다.
도 19 및 도 20은, 맨션의 광장에서 놀고 있는 부모와 아이를, 줌인 조작을 하면서 촬영한 경우에서의 동화상을 구성하는 프레임에 대응하는 화상(520 내지 525)을 도시하는 도면이다. 이 예에서는, 현 프레임에 대응하는 화상이 아핀 변환되고, 이 아핀 변환된 화상이 전의 각 프레임에 대응하는 합성 화상에 덮어 써지는 경우를 설명한다.
도 19 및 도 20에 도시하는 화상(520 내지 525)에서, 현 프레임에 대응하는 화상은, 화상(526 내지 531)이다. 또한, 전의 각 프레임에 대응해서 합성된 화상 인 합성 화상은, 화상(532 내지 537)이다. 도 19 및 도 20에 도시하는 바와 같이, 촬영된 화상에 포함되는 촬영 대상물(맨션 광장 등)이 화면에 고정되고, 현 프레임에 대응하는 화상(526 내지 531)이 카메라의 움직임에 맞추어 화면 상을 이동한다. 이와 같이 표시함으로써, 줌의 대상으로 되어 있는 인물을 전체적인 공간 중에서 열람자에게 용이하게 인식시킬 수 있다.
이와 같이, 도 17 내지 도 20에 도시하는 표시예에서는, 현 프레임에 대응하는 화상이 확대 축소를 수반하면서 디스플레이 상을 돌아다녀, 광대한 화상이 작성되어 간다. 또한, 순차적으로 작성되는 합성 화상 중에서는, 현 프레임에 대응하는 화상 내에 포함되는 물체만이 움직이고, 현 프레임에 대응하는 화상의 외측의 부분에서는, 과거에 표시된 물체가 정지한 상태로 표시된다.
도 21 및 도 22는, 맨션의 광장에서 놀고 있는 부모와 아이를, 카메라를 이동시키면서 촬영한 경우에서의 동화상을 구성하는 프레임에 대응하는 화상(540 내지 545)을 도시하는 도면이다. 이 예에서는, 전의 각 프레임에 대응하는 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환되고, 이 아핀 변환된 합성 화상에 현 프레임에 대응하는 화상이 덮어 써지는 경우를 설명한다.
도 21 및 도 22에 도시하는 화상(540 내지 545)에서, 현 프레임에 대응하는 화상은, 화상(546 내지 551)이다. 또한, 전의 각 프레임에 대응해서 합성된 화상인 합성 화상은, 화상(552 내지 557)이다. 도 21 및 도 22에 도시하는 바와 같이, 현 프레임에 대응하는 화상(546 내지 551)이 화면에 고정되고, 촬영된 화상에 포함되는 촬영 대상물(맨션 광장 등) 중의 현 프레임에 대응하는 화상 이외의 화상이 카메라의 움직임에 맞추어 화면 상을 이동한다. 이와 같이 표시함으로써, 표시부(191)에 검게 표시되어 있는 표시 영역에서, 전의 프레임에 대응하는 합성 화상이, 카메라의 움직임에 따라서 진행해 가는 것처럼 열람자에게 보일 수 있다. 즉, 도 17 및 도 18에 도시하는 방향과는 반대의 방향으로, 전의 프레임에 대응하는 합성 화상이 진행해 가는 것처럼 보일 수 있다.
도 23 및 도 24는, 맨션의 광장에서 놀고 있는 부모와 아이를, 줌인 조작을 하면서 촬영한 경우에서의 동화상을 구성하는 프레임에 대응하는 화상(560 내지 565)을 도시하는 도면이다. 이 예에서는, 전의 각 프레임에 대응하는 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환되고, 이 아핀 변환된 합성 화상에 현 프레임에 대응하는 화상이 덮어 써지는 경우를 설명한다.
도 23 및 도 24에 도시하는 화상(560 내지 565)에서, 현 프레임에 대응하는 화상은, 화상(566 내지 571)이다. 또한, 전의 각 프레임에 대응해서 합성된 화상인 합성 화상은, 화상(572 내지 577)이다. 도 23 및 도 24에 도시하는 바와 같이, 현 프레임에 대응하는 화상(566 내지 571)이 화면에 고정되고, 촬영된 화상에 포함되는 촬영 대상물(맨션 광장 등) 중의 현 프레임에 대응하는 화상 이외의 화상이 카메라의 움직임에 맞추어 화면 상을 이동한다. 이와 같이 표시함으로써, 줌의 대상으로 되어 있는 인물을, 줌에 따라서 크게 하면서 전체적인 공간 중에서 열람자에게 용이하게 인식시킬 수 있다.
이와 같이, 도 21 내지 도 24에 도시하는 표시예에서는, 현 프레임에 대응하는 화상이 정위치에 고정되고, 현 프레임에 대응하는 화상의 주변 화상이 확대 축 소를 수반하면서 디스플레이 상을 이동해서, 광대한 화상이 작성되어 간다. 또한, 순차적으로 작성되는 합성 화상 중에서는, 현 프레임에 대응하는 화상 내에 포함되는 물체만이 움직이고, 현 프레임에 대응하는 화상의 외측의 부분에서는, 과거에 표시된 물체가 정지한 상태에서 전체적으로 이동하면서 표시된다.
다음으로, 본 발명의 실시 형태에서의 화상 처리 장치(100)의 동작에 대해서 도면을 참조해서 설명한다.
도 25는, 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트이다. 이 처리 단계에서는, 현 프레임에 대응하는 화상이 아핀 변환되고, 이 아핀 변환된 화상이 전의 각 프레임에 대응하는 합성 화상에 덮어 써지는 예를 설명한다.
처음으로, 동화상을 구성하는 화상의 사이즈보다도 큰 워크 버퍼가 화상 메모리(170)에 확보된다(스텝 S921). 계속해서, 동화상 기억부(200)로부터 동화상 파일이 취득된다(스텝 S922). 계속해서, 취득된 동화상 파일이 디코드되고, 1개의 프레임인 현 프레임이 취득된다(스텝 S923).
계속해서, 취득된 현 프레임에 대응하는 아핀 변환 파라미터가, 동화상 파일로부터 추출된다(스텝 S924). 여기서, 현 프레임이 선두의 프레임인 경우에는, 단위 행렬의 아핀 변환 파라미터가 추출된다. 계속해서, 취득된 아핀 변환 파라미터를 사용해서 현 프레임에 대응하는 화상이 아핀 변환된다(스텝 S925). 여기서, 현 프레임이 선두의 프레임인 경우에는, 단위 행렬의 아핀 변환 파라미터를 사용해서 아핀 변환이 이루어지기 때문에, 실제의 화상은 변환되지 않는다. 계속해서, 아핀 변환된 현 프레임에 대응하는 화상이, 이 현 프레임보다도 전의 프레임에 대응하는 각 화상의 합성 화상에 덮어 써서 합성되고, 이 현 프레임에 대응하는 화상이 합성된 화상이 화상 메모리(170)에 보존된다(스텝 S926). 여기서, 현 프레임이 선두의 프레임인 경우에는, 선두의 프레임에 대응하는 화상이 화상 메모리(170)에 보존된다. 계속해서, 스텝 S926에서 현 프레임에 대응하는 화상이 합성된 화상이 표시부(191)에 표시된다(스텝 S927). 여기서, 현 프레임이 선두의 프레임인 경우에는, 선두의 프레임에 대응하는 화상이 표시부(191)에 표시된다.
계속해서, 입력된 동화상 파일을 구성하는 프레임 중에서, 현 프레임이 최후의 프레임인지의 여부가 판단된다(스텝 S928). 현 프레임이 최후의 프레임이 아닌 경우에는(스텝 S928), 스텝 S923으로 복귀하여, 합성 화상 표시 처리를 반복한다(스텝 S923 내지 S927).
한편, 현 프레임이 최후의 프레임인 경우에는(스텝 S928), 확보되어 있는 워크 버퍼를 해방해서(스텝 S929), 동화상 재생 처리를 종료한다.
도 26은, 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트이다. 이 처리 단계에서는, 현 프레임 전의 각 프레임에 대응하는 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환되고, 이 아핀 변환된 합성 화상에 현 프레임에 대응하는 화상이 덮어 써지는 예를 설명한다. 또한, 도 26에 도시하는 처리 단계 중에서, 스텝 S921 내지 S924 및 스텝 S927 내지 S929에 대해서는, 도 25에 도시하는 처리 단계와 마찬가지이기 때문에, 여기서의 설명은 생략한다.
스텝 S923에서 취득된 현 프레임에 대응하는 아핀 변환 파라미터가, 동화상 파일로부터 추출된다(스텝 S924). 계속해서, 취득된 아핀 변환 파라미터를 사용해서 화상 메모리(170)에 보존되어 있는 현 프레임 전의 각 프레임에 대응하는 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다(스텝 S941). 여기서, 현 프레임이 선두의 프레임인 경우에는, 화상 메모리(170)에 보존되어 있는 합성 화상이 존재하지 않기 때문에, 화상은 변환되지 않는다. 계속해서, 아핀 변환된 합성 화상에, 현 프레임에 대응하는 화상이 덮어 써서 합성되고, 이 현 프레임에 대응하는 화상이 합성된 화상이 화상 메모리(170)에 보존된다(스텝 S942). 여기서, 현 프레임이 선두의 프레임인 경우에는, 선두의 프레임에 대응하는 화상이 화상 메모리(170)에 보존된다. 계속해서, 스텝 S942에서 현 프레임에 대응하는 화상이 합성된 화상이 표시부(191)에 표시된다(스텝 S927).
이상에서는, 현 프레임에 대응하는 화상에 아핀 변환을 실시해서 합성 화상을 작성하는 경우 또는, 전의 각 프레임에 대응하는 합성 화상에, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환을 실시해서 합성 화상을 작성하는 경우에 대해서 설명하였다. 그러나, 현 프레임에 대응하는 화상에 아핀 변환을 실시함과 함께, 전의 각 프레임에 대응하는 합성 화상에, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환을 실시해서 합성 화상을 작성하도록 해도 된다. 여기서는, 아핀 변환 파라미터를, 확대 축소에 관한 요소(줌 성분)와, 확대 축소 이외의 요소(이동 또는 회전에 관한 요소)로 분리하고, 전의 각 프레임에 대응하는 합성 화상에는 확대 축소에 관한 요소를 사용하여, 아핀 변환 파라미터의 방향과는 역방향으 로 아핀 변환을 실시하고, 현 프레임에 대응하는 화상에는 이동 또는 회전에 관한 요소를 사용해서 아핀 변환을 실시해서 합성 화상을 작성하는 예에 대해서 도면을 참조해서 상세하게 설명한다.
도 27은, 본 발명의 실시 형태에서의 화상 처리 장치(100)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트이다. 이 처리 단계에서는, 현 프레임에 대응하는 화상이 이동 또는 회전에 관한 요소를 사용해서 아핀 변환 됨과 함께, 전의 각 프레임에 대응하는 합성 화상이 확대 축소에 관한 요소를 사용하여, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환되고, 아핀 변환된 현 프레임에 대응하는 화상이, 아핀 변환된 합성 화상에 덮어 써지는 예를 설명한다. 또한, 도 27에 도시하는 처리 단계 중에서, 스텝 S921 내지 S924 및 스텝 S927 내지 S929에 대해서는, 도 25에 도시하는 처리 단계와 마찬가지이기 때문에, 여기서의 설명은 생략한다.
스텝 S923에서 취득된 현 프레임에 대응하는 아핀 변환 파라미터가, 동화상 파일로부터 추출된다(스텝 S924). 계속해서, 취득된 아핀 변환 파라미터의 각 요소로부터, 확대 축소에 관한 요소가 분리된다(스텝 S951). 계속해서, 분리된 확대 축소에 관한 요소를 사용하여, 화상 메모리(170)에 보존되어 있는 현 프레임 전의 각 프레임에 대응하는 합성 화상이, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환된다(스텝 S952). 여기서, 현 프레임이 선두의 프레임인 경우에는, 화상 메모리(170)에 보존되어 있는 합성 화상이 존재하지 않기 때문에, 화상은 변환되지 않는다. 계속해서, 분리된 이동 또는 회전에 관한 요소를 사용하여, 현 프레임에 대응하는 화상이 아핀 변환된다(스텝 S953). 여기서, 현 프레임이 선두의 프레임인 경우에는, 단위 행렬의 아핀 변환 파라미터를 사용해서 아핀 변환이 이루어지기 때문에, 실제의 화상은 변환되지 않는다.
계속해서, 아핀 변환된 합성 화상에, 아핀 변환된 현 프레임에 대응하는 화상이 덮어 써서 합성되고, 이 현 프레임에 대응하는 화상이 합성된 화상이 화상 메모리(170)에 보존된다(스텝 S954). 여기서, 현 프레임이 선두의 프레임인 경우에는, 선두의 프레임에 대응하는 화상이 화상 메모리(170)에 보존된다. 계속해서, 스텝 S954에서 현 프레임에 대응하는 화상이 합성된 화상이 표시부(191)에 표시된다(스텝 S927).
다음으로, 도 27에 도시하는 동화상 재생 처리의 처리 단계에 의해, 실제로 카메라에 의해 촬영된 동화상을 재생하는 경우에서의 표시예를 설명한다.
도 28 내지 도 31은, 카메라에 의해 촬영된 동화상의 천이의 일례를 도시하는 도면이다. 도 28 및 도 29는, 맨션의 광장에서 놀고 있는 부모와 아이를, 카메라를 이동시키면서 촬영한 경우에서의 동화상을 구성하는 화상(580 내지 585)을 도시하는 도면이다. 또한, 도 28 및 도 29에서는, 줌 조작이 행하여지고 있지 않은 경우를 설명한다.
도 28 및 도 29에 도시하는 화상(580 내지 585)에서, 현 프레임에 대응하는 화상은, 화상(586 내지 591)이다. 또한, 전의 각 프레임에 대응해서 합성된 화상인 합성 화상은, 화상(592 내지 597)이다. 도 28 및 도 29에 도시하는 바와 같이, 촬영된 화상에 포함되는 촬영 대상물(맨션 광장 등)이 화면에 고정되고, 현 프레임 에 대응하는 화상(586 내지 591)이 카메라의 움직임에 맞추어 화면 상을 이동한다. 여기서, 도 28 및 도 29에 도시하는 화상(580 내지 585)은, 줌 조작이 행하여지고 있지 않은 촬영 화상이기 때문에, 아핀 변환 파라미터에는 확대 축소에 관한 요소가 거의 포함되어 있지 않다. 이 때문에, 도 17 및 도 18에 도시하는 표시예와 거의 마찬가지의 표시로 되어 있다.
도 30 및 도 31은, 맨션의 광장에서 놀고 있는 부모와 아이를, 줌인 조작을 하면서 촬영한 경우에서의 동화상을 구성하는 프레임에 대응하는 화상(600 내지 605)을 도시하는 도면이다.
도 30 및 도 31에 도시하는 화상(600 내지 605)에서, 현 프레임에 대응하는 화상은, 화상(606 내지 611)이다. 또한, 전의 각 프레임에 대응해서 합성된 화상인 합성 화상은, 화상(612 내지 617)이다. 도 30 및 도 31에 도시하는 바와 같이, 촬영된 화상에 포함되는 촬영 대상물(맨션 광장 등)의 화상(612 내지 617)이 카메라의 줌의 움직임에 따라서 확대되고, 현 프레임에 대응하는 화상(606 내지 611)이 동일한 크기로 카메라의 움직임에 맞추어 화면 상을 이동한다. 즉, 주변 화상이 점차 확대됨과 함께, 현 프레임에 대응하는 화상(606 내지 611)이 이동한다. 이와 같이 표시함으로써, 열람자에게 다양한 표시 형태를 제공할 수 있다.
이상에서는, 아핀 변환 파라미터를 동화상 파일에 기록하는 예에 대해서 설명하였지만, 동화상 파일과는 상이한 형식의 부수 정보(예를 들어, 메타데이터)로서, 동화상을 구성하는 프레임마다 아핀 변환 파라미터를 기록하도록 해도 된다. 이하에서는, 동화상 파일과는 상이한 형식의 부수 정보로서, 메타데이터 파일에 아 핀 변환 파라미터를 기록하는 예에 대해서 도면을 참조해서 상세하게 설명한다.
도 32는, 본 발명의 실시 형태에서의 화상 처리 장치(650)의 기능 구성예를 도시하는 블록도이다. 여기서, 화상 처리 장치(650)는, 도 1에 도시하는 화상 처리 장치(100)의 일부를 변형한 것으로서, 이 화상 처리 장치(100)에서, 기록 제어부(130), 동화상 기억부(200), 동화상 취득부(140) 및 카메라 워크 파라미터 추출부(150) 대신에, 기록 제어부(651), 동화상 기억부(660), 메타데이터 기억부(670) 및 파일 취득부(652)를 설치한 화상 처리 장치이다. 또한, 기록 제어부(651), 동화상 기억부(660), 메타데이터 기억부(670) 및 파일 취득부(652) 이외의 구성은, 도 1에 도시하는 화상 처리 장치(100)와 마찬가지이기 때문에, 이들 이외의 구성에 관한 설명은 생략한다.
기록 제어부(651)는, 동화상 입력부(110)로부터 출력된 동화상을 동화상 파일로서 동화상 기억부(660)에 기록함과 함께, 카메라 워크 파라미터 산출부(123)로부터 출력된 아핀 변환 파라미터를, 대응하는 동화상 및 프레임과 관련지어 메타데이터 파일로서 메타데이터 기억부(670)에 기록하는 것이다.
동화상 기억부(660)는, 동화상 입력부(110)로부터 출력된 동화상을 동화상 파일로서 기억하는 것이다. 또한, 동화상 기억부(660)는, 파일 취득부(652)로부터의 요구에 따라서 동화상 파일을 파일 취득부(652)에 공급한다. 또한, 동화상 기억부(660)에 기억되는 동화상 파일에 대해서는, 도 33을 참조해서 상세하게 설명한다.
메타데이터 기억부(670)는, 카메라 워크 파라미터 산출부(123)로부터 출력된 아핀 변환 파라미터를 메타데이터 파일로서 기억하는 것이다. 또한, 메타데이터 기억부(670)는, 파일 취득부(652)로부터의 요구에 따라서 메타데이터 파일을 파일 취득부(652)에 공급한다. 또한, 메타데이터 기억부(670)에 기억되는 메타데이터 파일에 대해서는, 도 33을 참조해서 상세하게 설명한다.
파일 취득부(652)는, 조작 접수부(195)로부터의 동화상 재생에 따른 조작 입력에 따라, 동화상 기억부(660)에 기억되어 있는 동화상 파일과, 이 동화상 파일에 관련지어 메타데이터 기억부(670)에 기억되어 있는 메타데이터 파일을 취득하는 것으로서, 취득된 동화상 파일의 동화상 및 메타데이터 파일의 아핀 변환 파라미터를 화상 변환부(160)에 출력하고, 취득된 동화상 파일의 동화상을 화상 합성부(180)에 출력한다.
도 33은, 본 발명의 실시 형태에서의 동화상 기억부(660) 및 메타데이터 기억부(670)에 기록되어 있는 각 파일을 모식적으로 도시하는 도면이다. 도 33의 (a)에서는, 동화상 기억부(660)에 기억되어 있는 동화상 파일(661 내지 663)과, 동화상 파일(661 내지 663)에 관련지어 메타데이터 기억부(670)에 기억되어 있는 메타데이터 파일(671 내지 673)을 나타낸다. 여기서, 동화상 기억부(660)에 기억되어 있는 각 동화상 파일을 식별하기 위한 식별 정보인 동화상 ID가, 각 동화상 파일에 부여되어 있는 것으로 한다. 예를 들어, 동화상 파일(661)에는 「#1」이 부여되고, 동화상 파일(662)에는 「#2」가 부여되며, 동화상 파일(663)에는 「#n」이 부여되어 있다.
도 33의 (b)에서는, 동화상 기억부(660)에 기억되어 있는 동화상 파일(661) 과, 동화상 파일(661)에 관련지어 메타데이터 기억부(670)에 기억되어 있는 메타데이터 파일(671)을 모식적으로 도시하는 도면이다. 여기서, 동화상 파일(661)은, n매의 프레임으로 구성된 동화상의 파일로서, 이들 n매의 프레임을 프레임1(664) 내지 n(667)으로서 나타낸다.
또한, 메타데이터 파일(671)에는, 동화상 ID(674)와, 프레임 번호(675)와, 아핀 변환 파라미터(676)가 관련지어 저장되어 있다.
동화상 ID(674)는, 대응하는 동화상 파일에 부여되어 있는 동화상 ID이며, 예를 들면, 동화상 파일(661)에 부여되어 있는 「#1」이 저장된다.
프레임 번호(675)는, 대응하는 동화상 파일의 동화상을 구성하는 각 프레임의 일련 번호이며, 예를 들면, 동화상 파일(661)의 동화상을 구성하는 프레임(1)(664) 내지 (n)(667)에 대응하는 「1」 내지 「n」이 저장된다.
아핀 변환 파라미터(676)는, 프레임 번호(675)에 대응하는 동화상의 각 프레임에 대해서 계산된 아핀 변환 파라미터이다. 또한, 프레임 번호(675)「1」에 대응하는 아핀 변환 파라미터(676)「a1, b1, c1, d1, e1, f1」는, 단위 행렬의 아핀 변환 파라미터이다. 또한, 프레임 번호(675)「m(m은 2 이상의 정수)」에 대응하는 아핀 변환 파라미터(676)「am, bm, cm, dm, em, fm」는, 프레임 「m」의 직전 프레임 「m-1」에 대한 아핀 변환 파라미터이다.
이상에서는, 현 프레임에 대응하는 현 화상을 표시부(191)의 한 가운데 부분 등에 고정해서 동화상을 재생하는지의 여부에 따라, 현 프레임에 대응하는 화상에 아핀 변환을 실시해서 합성 화상을 작성하는 경우와, 전의 각 프레임에 대응하는 합성 화상에, 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환을 실시해서 합성 화상을 작성하는 경우에 대해서 설명하였다. 그러나, 현 프레임에 대응하는 현 화상에 아핀 변환을 순차적으로 실시해서 합성 화상을 작성해서 화상 메모리에 순차적으로 보존함과 함께, 이 화상 메모리의 합성 화상으로부터, 표시의 대상으로 되는 영역인 표시 영역을 취출해서 표시시킬 수 있다. 이것에 의해, 동화상을 재생 중에 표시부의 표시 양태를 절환할 수 있다. 이하에서는, 이들 동화상 재생 방법에 대해서 도면을 참조해서 상세하게 설명한다.
도 34는, 본 발명의 실시 형태에서의 화상 처리 장치(680)의 기능 구성예를 도시하는 블록도이다. 여기서, 화상 처리 장치(680)는, 도 32에 도시하는 화상 처리 장치(650)의 일부를 변형한 것으로서, 동화상 입력부(110)와, 카메라 워크 검출부(120)와, 기록 제어부(651)와, 동화상 기억부(660)와, 메타데이터 기억부(670)와, 파일 취득부(681)와, 화상 변환부(682)와, 화상 합성부(683)와, 화상 메모리(684)와, 표시 영역 취출부(685)와, 표시용 메모리(686)와, 표시 제어부(687)와, 조작 접수부(688)와, 표시부(689)를 구비한다. 또한, 동화상 입력부(110), 카메라 워크 검출부(120), 기록 제어부(651), 동화상 기억부(660) 및 메타데이터 기억부(670)의 구성은, 도 32에 도시하는 화상 처리 장치(650)와 마찬가지이기 때문에, 이들 이외의 구성에 관한 설명은 생략한다. 또한, 이 예에서는, 도 32에 도시하는 화상 처리 장치(650)의 일부를 변형한 예에 대해서 설명하지만, 도 1에 도시하는 화상 처리 장치(100)에 대해서 적용하는 것도 가능하다.
파일 취득부(681)는, 조작 접수부(688)로부터의 동화상 재생에 따른 조작 입 력에 따라, 동화상 기억부(660)에 기억되어 있는 동화상 파일과, 이 동화상 파일에 관련지어져 메타데이터 기억부(670)에 기억되어 있는 메타데이터 파일을 취득하는 것으로서, 취득된 동화상 파일의 동화상 및 메타데이터 파일의 아핀 변환 파라미터를 화상 변환부(682)에 출력하고, 취득된 동화상 파일의 동화상을 화상 합성부(683)에 출력한다.
화상 변환부(682)는, 파일 취득부(681)로부터 출력된 동화상 파일의 동화상을 구성하는 화상에 대해서, 이 동화상에 대응하는 아핀 변환 파라미터를 사용해서 프레임마다 아핀 변환을 실시하고, 아핀 변환된 화상을 화상 합성부(683)에 출력하는 것이다.
화상 합성부(683)는, 화상 메모리(684)에 유지되어 있는 직전까지의 각 프레임에 대응하는 합성 화상에, 화상 변환부(682)에 의한 아핀 변환 후의 화상을 덮어쓰기 함으로써 화상을 합성하고, 합성된 새로운 합성 화상을 화상 메모리(684)에 보존하는 것이다. 또한, 화상 합성부(683)는, 표시 영역 취출부(685)로부터 출력된 표시 영역에서의 현 화상의 위치에 기초하여, 현 화상을 표시용 메모리(686)에 유지되는 합성 화상에 덮어쓰기 함으로써 합성한다. 구체적으로는, 현 화상을 고정하는 표시 모드가 지정되어 있는 경우에는, 화상 합성부(683)는, 파일 취득부(681)로부터 출력된 현 화상을, 표시용 메모리(686)에 유지되어 있는 합성 화상의 한 가운데 부분에 덮어쓰기 함으로써 합성한다. 한편, 현 화상 전의 합성 화상을 고정하는 표시 모드가 지정되어 있는 경우에는, 화상 합성부(683)는, 표시 영역 취출부(685)로부터 출력된 표시 영역에서의 현 화상의 위치에 기초하여, 화상 변환 부(682)에 의한 아핀 변환 후의 현 화상을 표시용 메모리(686)에 유지되는 합성 화상에 덮어쓰기 함으로써 합성한다. 또한, 화상 합성부(683)는, 화상 변환부(682)에 의한 아핀 변환 후의 화상을 압축해서 화상 메모리(684)에 유지되어 있는 합성 화상에 덮어 쓰고, 표시용 메모리(686)에 유지되는 합성 화상에 덮어 써지는 현 화상을 비압축 화상 또는 압축된 이력 화상보다도 고해상도의 촬상 화상으로 한다. 이것에 의해, 합성 화상을 출력할 때의 이력 화상을 압축 화상으로 하고, 현 화상을 비압축 화상 또는 압축된 이력 화상보다도 고해상도의 촬상 화상으로 할 수 있다. 여기서, 표시용 메모리(686)에 합성되는 현 화상의 크기에 대해서는, 표시 배율의 값에 따라서 결정된다. 또한, 표시용 메모리(686)에서의 현 화상의 합성에 대해서는, 도 40 및 도 41을 참조해서 상세하게 설명한다.
화상 메모리(684)는, 화상 합성부(683)에 의해 합성된 합성 화상을 유지하는 워크 버퍼로서, 유지되어 있는 합성 화상을 화상 합성부(683) 또는 표시 영역 취출부(685)에 공급하는 것이다. 즉, 화상 메모리(684)는, 이력 화상을 유지하는 화상 메모리이다.
표시 영역 취출부(685)는, 화상 메모리(684)에 유지되어 있는 합성 화상으로부터, 표시의 대상으로 되는 영역인 표시 영역의 범위 내에 존재하는 화상을 취출하는 것으로서, 취출된 화상을 표시용 메모리(686)에 유지시킨다. 또한, 표시 영역 취출부(685)는, 화상 메모리(684)에 유지되어 있는 합성 화상 중의 현 프레임에 대응하는 현 화상의 적어도 일부가 표시 영역의 범위 내로부터 삐어져 나와 있는 경우에는, 현 화상의 모두가 표시 영역의 범위 내에 포함되도록 표시 영역을 이동 시킨 후에, 화상 메모리(684)에 유지되어 있는 합성 화상으로부터, 표시 영역의 범위 내에 존재하는 화상을 취출한다. 또한, 표시 영역 취출부(685)는, 현 화상 전의 합성 화상을 고정하는 표시 모드가 지정되어 있는 경우에는, 표시 영역에서의 현 화상의 위치를 산출하고, 이 표시 영역에서의 현 화상의 위치를 화상 합성부(683)에 출력한다. 또한, 이 표시 영역의 범위 내에 포함되는 화상의 취출에 대해서는, 도 35 내지 도 41 등을 참조해서 상세하게 설명하고, 표시 영역의 이동에 대해서는, 도 36, 도 37 등을 참조해서 상세하게 설명한다. 또한, 표시 영역에서의 현 화상의 위치의 산출에 대해서는, 도 40을 참조해서 상세하게 설명한다.
표시용 메모리(686)는, 표시 영역 취출부(685)에 의해 화상 메모리(684)로부터 취출된 화상을 유지하는 표시용 버퍼로서, 유지되어 있는 화상이 표시부(689)에 표시된다. 또한, 이 표시용 메모리(686)에 유지되는 화상에 대해서는, 도 35, 도 36 등을 참조해서 상세하게 설명한다.
표시 제어부(687)는, 표시용 메모리(686)에 유지되어 있는 합성 화상을 프레임마다 표시부(689)에 순차적으로 표시시키는 것이다.
표시부(689)는, 표시 제어부(687)의 제어에 기초하여, 표시용 메모리(686)에 유지되어 있는 합성 화상을 표시하는 것이다. 예를 들어, 퍼스널 컴퓨터나 텔레비전의 디스플레이에 의해 실현할 수 있다. 또한, 합성 화상의 표시예에 대해서는, 도 42 등을 참조해서 상세하게 설명한다.
조작 접수부(688)는, 각종 조작 키 등을 구비하고, 이들 키에 의한 조작 입력을 접수하면, 접수한 조작 입력의 내용을 파일 취득부(681) 또는 표시 영역 취출 부(685)에 출력하는 것이다. 조작 접수부(688)에는, 예를 들어, 동화상의 재생을 지시하는 재생 지시 키, 동화상의 표시 배율을 지정하는 표시 배율 지정 키, 동화상을 재생하는 경우에서의 표시 모드를 설정하는 설정 키가 설치되어 있다. 이 표시 모드로서, 예를 들어, 현 프레임 전의 각 프레임에 대응하는 합성 화상을 고정한 상태에서, 현 프레임에 대응하는 현 화상을 아핀 변환시키면서 표시시키는 표시 모드 또는, 현 프레임에 대응하는 현 화상을 고정한 상태에서, 전의 각 프레임에 대응하는 합성 화상을 아핀 변환 파라미터의 방향과는 역방향으로 아핀 변환시키면서 표시시키는 표시 모드가 있다. 이들 표시 모드는, 동화상의 재생 중이어도 절환하는 것이 가능하다. 즉, 본 발명의 실시 형태에 따르면, 현재(current)의 화상 표시 틀을 고정해서 과거의 이력 화상이 변환되어 화상 합성 표시되는 방법과, 현재의 화상 표시 틀이 카메라 워크에 기초하여 이동하도록 화상 합성 표시되는 방법을 임의로 절환해서 표시할 수 있다.
도 35는, 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임과, 표시 영역의 관계를 모식적으로 도시하는 도면이다. 여기서는, 화상 메모리(684), 메타데이터 기억부(670) 및 조작 접수부(688)에 대해서만 도시하고, 이들 이외의 구성에 관한 도시를 생략한다. 또한, 도 33의 (b)에 도시하는 동화상 파일(661)을 구성하는 프레임 「1」 내지 「3」에 대해서, 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 화상 메모리(684)에 합성 화상이 작성되는 경우를 예로 하여 설명한다. 또한, 도 35에서는, 표시부(689)에서 현 프레임 전의 각 프레임에 대응하는 합성 화상을 고정하는 경우 에 대해서 도시한다.
도 35의 (a)에는, 도 33의 (b)에 도시하는 동화상 파일(661)을 구성하는 프레임 중의 최초의 프레임인 프레임1(664)이 화상 메모리(684)에 보존되는 경우를 도시한다. 예를 들어, 현 프레임 전의 각 프레임에 대응하는 합성 화상을 고정해서, 동화상 기억부(660)에 기억되어 있는 동화상 파일(661)의 재생을 지시하는 재생 지시의 조작 입력이 조작 접수부(688)에 의해 접수되면, 도 35의 (a)에 도시하는 바와 같이, 동화상 파일(661)의 프레임1(664)에 대응하는 화상(351)이 화상 메모리(684)에 보존된다. 여기서, 최초의 프레임에 대응하는 화상(351)이 화상 메모리(684)에 보존되는 위치는, 미리 지정되어 있는 위치에 보존하도록 해도 되고, 조작 접수부(688)에서 유저에 의해 지정된 위치에 보존하도록 해도 된다. 또한, 예를 들어, 메타데이터 파일(671)에 기억되어 있는 동화상 파일(661)에 관한 아핀 변환 파라미터(676)를 사용해서 프레임 「1」 내지 「n」까지의 합성 화상의 크기를 계산하고, 이 계산에 기초하여 화상(351)이 보존되는 위치를 결정하도록 해도 된다. 또한, 이 예에서는, 화상 메모리(684) 상에 배치된 화상(351)의 좌측 상부의 위치를 원점으로 하여, 가로 방향(횡축)을 X축으로 하고, 세로 방향(종축)을 y축으로 해서 설명한다.
도 35의 (a)에 도시하는 바와 같이, 화상 메모리(684) 상에 화상(351)이 배치된 경우에서의 표시 영역을 표시 영역(361)으로 한다. 표시 영역(361)은, 예를 들어, 화상(351)이 보존되어 있는 위치 및 크기에 기초하여, 조작 접수부(688)에 의해 접수된 표시 배율의 값에 따라서 결정된다. 예를 들어, 현 화상을 줌 아웃하 는 「0.5배」의 표시 배율이 지정되어 있는 경우에는, 표시 영역(361)은, 화상(351)을 중심으로 하여 화상(351)의 2배의 크기로 된다. 또한, 화상(351)에 대한 표시 영역(361)의 위치는, 아핀 변환 파라미터에 의해 결정할 수 있다. 즉, 현 화상을 줌 아웃하는 「0.5배」의 표시 배율이 지정되어 있는 경우에는, x방향 및 y방향의 줌 성분이 2배로 되는 아핀 변환 파라미터를 사용해서 표시 영역이 설정된다. 또한, 현 화상에 대하여 표시 영역을 평행 이동시키는 경우나 회전시키는 경우에 대해서도, 아핀 변환 파라미터를 이용함으로써 표시 영역의 위치 및 범위를 결정할 수 있다.
도 35의 (b)에는, 도 33의 (b)에 도시하는 동화상 파일(661)을 구성하는 프레임 중의 프레임2(665)가 화상 메모리(684)에 보존되는 경우를 도시한다. 이 경우에는, 상술한 바와 같이, 프레임 번호(675)의 「1」 및 「2」에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 프레임2(665)에 대응하는 화상(352)이 변환되고, 화상(351)에 덮어쓰기 합성된다. 이 경우에, 예를 들어, 현 프레임에 대응하는 화상(352)이 표시 영역(361)의 범위 내로부터 삐어져 나와 있지 않은 경우에는, 표시 영역(361)의 위치 및 크기는 변경되지 않는다. 여기서, 현 화상이 현재의 표시 영역의 범위 내로부터 삐어져 나오는 경우에 대해서는, 도 36 및 도 37을 참조해서 상세하게 설명한다. 또한, 화상(351)에 대한 화상(352)의 이동에 따라서 표시 영역(361)을 평행 이동시키거나 하도록 해도 된다.
도 35의 (c)에는, 도 33의 (b)에 도시하는 동화상 파일(661)을 구성하는 프 레임 중의 프레임3이 화상 메모리(684)에 보존되는 경우를 도시한다. 이 경우에 대해서도, 상술한 바와 같이, 프레임 번호(675) 「1」 내지 「3」에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 프레임3에 대응하는 화상(353)이 변환되고, 화상(351 및 352)에 덮어쓰기 합성된다.
다음으로, 현 화상의 이동에 맞추어 표시 영역을 이동시키는 경우에서의 처리에 대해서 도면을 참조해서 상세하게 설명한다.
도 36은, 현 화상이 표시 영역으로부터 삐어져 나온 경우에서의 표시 영역의 이동 방법을 개략적으로 도시하는 도면이다. 도 36의 (a)는, 화상 메모리(684)에 유지되어 있는 현 화상(760)을 포함하는 복수의 화상과, 표시 영역(759)과의 관계를 도시하는 도면이다. 도 36의 (a)에 도시하는 바와 같이, 표시 영역(759)의 범위 내에 현 화상(760)의 모두가 포함되어 있기 때문에, 표시부(689)에는 다른 화상과 함께 현 화상(760)의 모두가 표시된다.
도 36의 (b)는, 화상 메모리(684)에 유지되어 있는 현 화상(762)을 포함하는 복수의 화상과, 표시 영역(759)과의 관계를 도시하는 도면이다. 여기서, 현 화상(762)은, 도 36의 (a)에 도시하는 현 화상(760)의 다음의 프레임에 대응하는 화상이다. 도 36의 (b)에 도시하는 바와 같이, 표시 영역(759)의 범위 내로부터 현 화상(762)의 일부가 삐어져 나와 있는 경우에는, 표시부(689)에는 현 화상(760)의 일부가 표시되지 않는다. 따라서, 이와 같은 경우에는, 도 36의 (b)에 도시하는 바와 같이, 표시 영역(759)의 1변과, 표시 영역(759)의 범위 내로부터 삐어져 나와 있는 현 화상(762)의 차분값(763)을 표시 영역 취출부(685)가 산출하고, 이 산출된 차분값(763)에 부가값(764)을 가산한 값만큼 표시 영역(759)을 이동시킨다. 여기서, 부가값(764)은, 예를 들어, 5픽셀로 할 수 있다. 또한, 부가값을 가산하지 않고, 차분값만큼 이동시키도록 해도 된다. 또한, 도 36의 (b)에서는, 표시 영역(761)의 우측 부분으로부터 현 화상(762)이 삐어져 나온 경우를 예로 하여 설명하지만, 상측 부분, 하측 부분 또는 좌측 부분으로부터 현 화상이 삐어져 나온 경우에 대해서도, 마찬가지의 방법에 의해 표시 영역을 이동시킬 수 있다. 또한, 상하 좌우의 적어도 2군데로부터 현 화상이 삐어져 나온 경우에는, 각각 1변의 차분값을 산출하고, 산출된 각 차분값에 기초하여, 각각의 변의 방향으로 표시 영역을 이동시키도록 할 수 있다.
도 36의 (c)에는, 도 36의 (b)에 도시하는 상태에서 산출된 차분값(763)에 기초해서 이동된 표시 영역(765)을 도시한다.
도 37은, 도 36에 도시하는 이동 방법으로 표시 영역을 이동시키는 경우의 천이의 일례를 도시하는 도면이다. 도 37의 (a)는, 표시 영역을 이동시키는 경우에서의 화상 메모리(684) 상의 표시 영역의 천이의 일례를 도시하는 도면이며, 도 37의 (b)는, 표시 영역을 이동시키는 경우에서의 표시부(689)에 표시되는 화상의 천이의 일례를 도시하는 도면이다. 동일 도면에 도시하는 바와 같이, 현 화상(767) 이후의 화상이 표시 영역(766)으로부터 삐어져 나오는 경우라도, 현 화상의 위치에 따라서 표시 영역(766)을 순차적으로 이동시킬 수 있다. 예를 들어, 화상 메모리(684)에서 화상(767)으로부터 현 화상(769)까지 진행한 경우에, 이 이동에 따라서 표시 영역(766)이 표시 영역(768)의 위치까지 이동한다. 이 경우에는, 표시부(689)에 표시되는 화상이 화상(770)으로부터 화상(771)으로 천이한다. 이것에 의해, 표시부(689)에 표시되어 있는 화상을 확대 축소시키는 경우라도, 현 화상의 전부를 표시부(689)에 항상 표시시켜 둘 수 있다.
다음으로, 표시부(689)에서 현 프레임에 대응하는 현 화상을 고정하는 경우에 대해서 도면을 참조해서 상세하게 설명한다.
도 38은, 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임과, 표시 영역의 관계를 모식적으로 도시하는 도면이다. 여기서는, 도 35와 마찬가지로, 화상 메모리(684), 메타데이터 기억부(670) 및 조작 접수부(688)에 대해서만 도시하고, 이들 이외의 구성에 관한 도시를 생략한다. 또한, 도 33의 (b)에 도시하는 동화상 파일(661)을 구성하는 프레임 「1」 내지 「3」에 대해서, 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 화상 메모리(684)에 합성 화상이 작성되는 경우를 예로 하여 설명한다.
도 38의 (a)에는, 도 35의 (a)와 마찬가지로, 프레임1(664)이 화상 메모리(684)에 보존되는 경우를 도시한다. 또한, 도 38의 (a)에 도시하는 화상(351) 및 표시 영역(361)의 위치 및 크기에 대해서는, 도 35의 (a)에 도시하는 것과 동일하기 때문에, 여기서의 상세한 설명은 생략한다. 또한, 이 예에서는, 현 화상의 변환과 함께, 표시 영역이 변환되지만, 프레임1(664)에 대응하는 아핀 변환 파라미터는 단위 행렬의 파라미터이기 때문에, 프레임1(664)에 대응하는 표시 영역(361)은, 조작 접수부(688)로부터의 표시 배율 지정만이 고려되어 결정된다.
도 38의 (b)에는, 도 35의 (a)와 마찬가지로, 프레임2(665)가 화상 메모 리(684)에 보존되는 경우를 도시한다. 이 경우에는, 도 35의 (a)와 마찬가지로, 프레임2(665)에 대응하는 화상(352)이 변환되고, 화상(351)에 덮어쓰기 합성됨과 함께, 표시 영역에 대해서도 아핀 변환이 실시된다. 즉, 화상(351)의 위치 및 크기를 기준으로 하여, 프레임 번호(675)의 「1」 및 「2」에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 프레임2(665)에 대응하는 화상(352)이 변환된다. 그리고, 조작 접수부(688)에 의해 접수된 표시 배율의 값에 따라서 결정되는 아핀 변환 파라미터를 사용해서 화상(352)의 위치 및 크기가 변환되고, 이 변환 후의 위치 및 크기에 의해 결정되는 영역이 표시 영역(362)으로 된다. 구체적으로는, 프레임 번호(675)의 「1」 및 「2」에 대응하는 아핀 변환 파라미터의 행렬을 각각 A1, A2로 하고, 조작 접수부(688)에 의해 접수된 표시 배율의 값에 따라서 결정되는 아핀 변환 파라미터의 행렬을 B(예를 들어, 현 화상을 기준으로 하는 행렬)로 하는 경우에는, A1×A2×B의 값이 구해지고, 화상(351)의 위치 및 크기를 기준으로 하여, 구해진 A1×A2×B의 행렬에 의해 표시 영역(362)이 결정된다.
도 38의 (c)에는, 도 35의 (a)와 마찬가지로, 프레임3이 화상 메모리(684)에 보존되는 경우를 도시한다. 이 경우에 대해서도, 상술한 바와 같이, 프레임3에 대응하는 화상(353)이 변환되고, 화상(351 및 352)에 덮어쓰기 합성됨과 함께, 표시 영역에 대해서도 아핀 변환이 실시되어, 화상(353)에 대한 표시 영역(363)이 결정된다. 구체적으로는, 프레임 번호(675)의 「1」 내지 「3」에 대응하는 아핀 변환 파라미터의 행렬을 각각 A1 내지 A3으로 하고, 조작 접수부(688)에 의해 접수된 표 시 배율의 값에 따라서 결정되는 아핀 변환 파라미터의 행렬을 B로 하는 경우에는, A1×A2×A3×B의 값이 구해지고, 화상(351)의 위치 및 크기를 기준으로 하여, 구해진 A1×A2×A3×B의 행렬에 의해 표시 영역(363)이 결정된다.
도 39는, 표시부(689)에서의 현 화상을 고정하는 표시 모드가 지정되어 있는 경우에, 표시부(689)에 표시되는 동화상을 확대 표시시키는 경우에서의 확대 방법의 개략을 도시하는 도면이다. 도 39의 (a)는, 표시부(689)에 표시되는 동화상을 확대 표시시키는 경우의 표시 영역의 천이를 개략적으로 도시하는 도면이며, 도 39의 (b)는, 도 39의 (a)에 도시하는 표시 영역(698 및 699) 내의 화상이 표시부(689)에 표시되는 경우에서의 표시예를 도시하는 도면이다.
도 39의 (b)에서는, 도 39의 (a)에 도시하는 표시 영역(698)에 의해 화상 메모리(684)로부터 취출되어 표시부(689)에 표시되는 화상(700)을 도시한다. 여기서, 도 39의 (b)에 도시하는 화상(700)이 표시되어 있는 상태에서, 조작 접수부(688)에서 확대 표시의 지시 조작이 접수된 경우에는, 이 확대 표시의 지시 조작에 따라, 표시 영역 취출부(685)가 표시 영역(698)의 크기를 축소한다. 또한, 이 축소 처리는, 현 화상(697)이 중심으로 되도록 행하여진다. 즉, 상술한 바와 같이, 조작 접수부(688)에 의해 접수된 표시 배율의 값에 따라서 결정되는 아핀 변환 파라미터를 사용해서 화상(679)의 위치 및 크기가 변환되고, 이 변환 후의 위치 및 크기에 의해 표시 영역(698)이 결정된다. 이 예에서는, 표시 배율을 확대하는 조작 입력이 이루어져 있기 때문에, 이 표시 배율의 확대에 따라서 아핀 변환 파라미터의 줌 성분이 결정된다.
예를 들어, 도 39의 (a)에 도시하는 바와 같이, 표시 영역(698)의 크기가 축소되어, 표시 영역(699)으로 된다. 도 39의 (b)에서는, 도 39의 (a)에 도시하는 표시 영역(699)에 의해 화상 메모리(684)로부터 취출되어 표시부(689)에 표시되는 화상(701)을 도시한다. 이와 같이, 표시 영역의 크기를 변경하기만 하면, 현 화상을 포함하는 화상을 확대 또는 축소시켜 표시할 수 있다.
이상에서 설명한 바와 같이, 화상 메모리(684) 상에 배치되는 표시 영역의 범위 내에 존재하는 화상을 표시함으로써, 재생 중인 합성 화상을 순차적으로 표시시킬 수 있다. 여기서, 현 화상이 아핀 변환되어 화상 메모리(684)에 합성될 때에는, 낮은 해상도로 변환하는 해상도 변환 처리나 압축 처리 등의 화질의 변환이 실시되는 경우가 있다. 이 때문에, 표시 배율을 높게 해서 현 화상을 확대 표시시키는 경우에는, 현 화상을 포함하는 합성 화상이 불선명하게 되는 것이 생각된다. 그래서, 이 예에서는, 현재 재생 중인 현 화상에 대해서는, 화상 메모리(684)에 합성되기 전의 화상을 사용해서 합성 화상을 표시시킨다. 이하에서는, 이 표시 방법에 대해서 도면을 참조해서 상세하게 설명한다.
도 40 및 도 41은, 본 발명의 실시 형태에서의 동화상 기억부(660)에 기억되어 있는 동화상 파일의 각 프레임의 흐름을 모식적으로 도시하는 도면이다. 여기서는, 동화상 기억부(660), 메타데이터 기억부(670), 화상 메모리(684) 및 표시용 메모리(686)의 관계에 대해서만 도시하고, 이들 이외의 구성에 관한 도시를 생략한다. 또한, 도 40에서는, 표시부(689)에서 현 프레임 전의 각 프레임에 대응하는 합성 화상을 고정하는 경우에 대해서 도시하고, 도 41에서는, 표시부(689)에서 현 프레임에 대응하는 현 화상을 고정하는 경우에 대해서 도시한다.
도 40의 (a)에는, 도 33의 (b)에 도시하는 동화상 파일(661) 및 메타데이터 파일(671)을 간략화해서 도시한다. 이하에서는, 동화상 파일(661)을 구성하는 프레임i(666)에 대응하는 화상이 표시되는 예에 대해서 설명한다. 즉, 동화상 파일(661)을 구성하는 프레임1 내지 「i-1」에 대응하는 화상에 대해서는, 합성 화상이 작성되어 있는 것으로 한다. 또한, 현 화상의 이동에 맞추어 도 35에 도시하는 표시 영역(361)이 우측으로 이동되어 있는 것으로 한다.
도 40의 (b)에는, 동화상 파일(661)을 구성하는 각 프레임에 대응하는 화상이 합성된 합성 화상이 유지되어 있는 화상 메모리(684)를 모식적으로 도시한다. 도 35의 (b)에 도시하는 바와 같이, 동화상 파일(661)을 구성하는 프레임1(664)에 대응하는 화상(351)이 화상 메모리(684)에 최초로 유지된다. 그리고, 화상(351)이 화상 메모리(684)에 유지된 후에, 동화상 파일(661)을 구성하는 프레임2 내지 「i-1」에 대응하는 각 화상이, 프레임2 내지 「i-1」의 각각에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)의 값을 사용해서 순차적으로 아핀 변환되고, 아핀 변환된 화상이 화상 메모리(684)에 순차적으로 덮어 써져 유지된다. 그리고, 화상 메모리(684)에 유지되어 있는 합성 화상으로부터, 조작 접수부(688)로부터의 표시 배율 지정에 관계되는 조작 입력에 따라서 결정된 표시 영역 내에 존재하는 화상을, 표시 영역 취출부(685)가 프레임마다 취출한다.
프레임1 내지 「i-1」에 대응하는 각 화상에 의한 합성 화상이 화상 메모리(684)에 유지되어 있는 상태에서, 동화상 파일(661)을 구성하는 프레임i(666)에 대응하는 화상이, 프레임1 내지 i에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 아핀 변환되고, 아핀 변환된 현 화상(692)이 화상 메모리(684)에 덮어 써져 유지된다. 그리고, 화상 메모리(684)에 유지되어 있는 합성 화상으로부터, 조작 접수부(688)로부터의 표시 배율 지정에 관계되는 조작 입력에 따라서 결정된 표시 영역(690) 내에 존재하는 화상을, 표시 영역 취출부(685)가 취출하고, 취출된 화상을, 예를 들어, 도 40의 (c)에 도시하는 바와 같이 표시용 메모리(686)에 유지시킨다.
도 40의 (c)에는, 표시 영역 취출부(685)에 의해 취출된 화상이 유지되어 있는 표시용 메모리(686)를 모식적으로 도시한다. 여기서, 표시 영역 취출부(685)에 의해 취출된 화상 중의 현 프레임에 대응하는 현 화상(693)은, 표시 영역 취출부(685)에 의해 화상 메모리(684)로부터 취출된 현 화상(692)이 아니라, 동화상 기억부(660)로부터 취득되어 화상 변환부(682)에 의해 아핀 변환된 화상을 사용한다. 여기서, 표시용 메모리(686)에서의 현 화상(693)의 보존 위치는, 화상 메모리(684)에서의 현 화상(692)의 위치 및 크기와, 화상 메모리(684)에서의 표시 영역(690)의 위치 및 크기에 기초해서 결정할 수 있다. 예를 들어, 프레임 번호(675)의 「1」 내지 「i」에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터의 행렬을 각각 A1, …, Ai로 하고, 표시 영역(690)을 결정하기 위한 아핀 변환 파라미터의 행렬(예를 들어, 화상 메모리(684)를 기준으로 하는 행렬)을 C로 하는 경우에는, 화상(351)의 위치를 기준으로 해서, Inv(C)×A1×…×Ai를 이용함으로써, 표시용 메모리(686)에서의 현 화상(693)의 보존 위치를 결정할 수 있다.
도 40의 (c)에 도시하는 바와 같이, 표시 영역 취출부(685)에 의해 취출된 화상이 표시용 메모리(686)에 유지됨과 함께, 표시 영역 취출부(685)에 의해 취출된 화상에, 동화상 기억부(660)로부터 취득되어 화상 변환부(682)에 의해 아핀 변환된 화상이 덮어 써져 표시용 메모리(686)에 유지된다. 그리고, 표시용 메모리(686)에 유지되어 있는 화상이 표시부(689)에 표시된다. 이와 같이, 현 화상에 대해서는, 아핀 변환 후에 축소 등의 처리가 실시되어 화상 메모리(684)에 유지되기 전의 상태의 화상을 이용함으로써, 비교적 깨끗한 현 화상을 표시할 수 있다. 또한, 유저의 조작에 의해 확대 등이 이루어진 경우에 대해서도 현 화상을 깨끗한 상태로 표시할 수 있다.
도 41의 (a)에는, 도 33의 (b)에 도시하는 동화상 파일(661) 및 메타데이터 파일(671)을 간략화해서 도시한다. 또한, 도 41의 (a)에 도시하는 동화상 기억부(660) 및 메타데이터 기억부(670)와, 도 41의 (b)에 도시하는 화상 메모리(684)에 유지되어 있는 합성 화상에 대해서는, 도 40의 (a) 및 (b)와 동일하기 때문에, 여기서의 설명을 생략한다.
도 41의 (b)에는, 도 40의 (b)에 도시하는 화상(351)으로부터 현 화상(692)까지의 합성 화상이 유지되어 있는 화상 메모리(684)를 모식적으로 도시함과 함께, 도 38의 (b)에 도시하는 표시 영역(361)을 파선으로 나타낸다. 이 예에서는, 도 38에 도시하는 바와 같이, 표시부(689)에서 현 프레임에 대응하는 현 화상의 위치를 고정하기 위해서, 현 화상(692)에 맞추어 표시 영역을 아핀 변환에 의해 산출한다. 즉, 현 화상인 화상(351)을 기준으로 하여, 프레임 번호(675)의 「1」 내지 「i」에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터(676)를 사용해서 프레임i(666)에 대응하는 화상이 현 화상(692)으로 변환되고, 화상 메모리(684)에 보존된다. 그리고, 프레임i(666)에 대응하는 표시 영역(695)에 대해서는, 조작 접수부(688)에 의해 접수된 표시 배율의 값에 따라서 결정되는 아핀 변환 파라미터를 사용해서 현 화상(692)의 위치 및 크기가 변환되고, 변환 후의 위치 및 크기에 의해 표시 영역(695)이 결정된다. 이 표시 영역의 결정은, 표시 영역 취출부(685)에 의해 행하여진다.
도 41의 (c)에는, 표시 영역 취출부(685)에 의해 취출된 화상이 유지되어 있는 표시용 메모리(686)을 모식적으로 도시한다. 여기서, 표시용 메모리(686)에 유지되는 화상(현 화상(696) 이외의 화상)은, 표시 영역 취출부(685)에 의해 취출된 화상(표시 영역(695)의 범위 내에 존재하는 화상)이, 표시 영역(695)의 변환에 사용된 아핀 변환 파라미터에 관계되는 행렬에 대한 역행렬을 사용해서 변환된 화상이다. 즉, 화상 메모리(684) 상에 배치되는 표시 영역의 형상은, 아핀 변환에 의해 평행사변형으로 되는 경우 등이 있다. 이와 같이 아핀 변환된 표시 영역 내의 합성 화상을 표시부(689)에 표시시키기 위해서, 현재의 현 화상을 아핀 변환할 때에 사용된 아핀 변환 파라미터에 관계되는 행렬의 역행렬을 사용해서 표시 영역 내의 합성 화상을 변환한다. 예를 들어, 프레임 번호(675)의 「1」 내지 「i」에 관련지어 메타데이터 파일(671)에 기억되어 있는 아핀 변환 파라미터의 행렬을 각각 A1, …, Ai로 하고, 표시 영역(695)을 결정하기 위한 아핀 변환 파라미터의 행렬(예를 들어, 현 화상을 기준으로 하는 행렬)을 B로 하는 경우에는, 표시 영역 내의 합성 화상을 변환하기 위한 행렬로서, Inv(A1×…×Ai×B)를 사용한다. 이것에 의해, 예를 들어, 도 41의 (c)에 도시하는 바와 같이, 평행사변형으로 변환된 화상을 장방형으로 변환해서 표시부(689)에 표시시킬 수 있다. 또한, 표시 영역 취출부(685)에 의해 취출된 화상 중의 현 프레임에 대응하는 현 화상(696)은, 표시 영역 취출부(685)에 의해 화상 메모리(684)로부터 취출된 화상 대신에, 동화상 기억부(660)로부터 취득되어 아핀 변환되어 있지 않은 화상을 사용한다. 여기서, 표시용 메모리(686)에서 현 화상(696)이 보존되는 위치 및 크기는, 조작 접수부(688)로부터의 표시 배율에 따라서 결정된다.
도 41의 (c)에 도시하는 바와 같이, 표시 영역 취출부(685)에 의해 취출된 화상이 표시용 메모리(686)에 유지됨과 함께, 표시 영역 취출부(685)에 의해 취출된 화상에, 동화상 기억부(660)로부터 취득된 화상이 덮어 써져 표시용 메모리(686)에 유지된다. 이것에 의해, 현 화상을 고정 위치에 표시하는 표시 모드가 지정되어 있는 경우에는, 일단 아핀 변환이 이루어진 합성 화상을, 역행렬에 의해 아핀 변환이 이루어져 있지 않은 상태로 복귀시켜 표시할 수 있다. 또한, 현 화상에 대해서는, 도 40과 마찬가지로, 비교적 깨끗한 화상을 표시할 수 있다.
이상에서 설명한 바와 같이, 화상 메모리(684)에 유지되는 합성 화상의 작성 방법을 동일한 방법에 의해 작성해서, 2개의 표시 양태에 의한 동화상 재생을 실현할 수 있기 때문에, 2개의 표시 양태의 절환을 동화상의 재생 중에 행할 수 있다. 이것에 의해, 동화상을 재생 중인 시청자가, 재생 중이라도 원하는 표시 양태로 절환하는 것이 가능하다. 예를 들어, 도 40에 도시하는 표시 양태로 동화상을 재생 하고 있는 경우에, 원하는 인물이 현 화상의 한 가운데에 나타나, 그 인물을 표시부(689)의 한 가운데 부분에 배치해서 시청하고자 하는 경우에는, 조작 접수부(688)로부터의 표시 모드 절환 조작에 의해, 도 41에 도시하는 표시 양태의 동화상 재생으로 절환할 수 있다. 또한, 현 화상에 대해서는, 화상 메모리(684)에 유지되는 합성 화상 대신에, 동화상 기억부(660)로부터 취득된 화상을 사용할 수 있기 때문에, 비교적 깨끗한 화상을 시청할 수 있다. 이 표시예에 대해서는, 도 42 및 도 43을 참조해서 상세하게 설명한다.
도 42의 (a)는, 카메라에 의해 촬영된 동화상을 재생하는 경우에서의 표시예를 도시하는 도면이다. 이 예에서는, 큰 건물이 있는 잔디밭의 광장에서 놀고 있는 부모와 아이를, 카메라를 주로 좌우 방향으로 이동시키면서 촬영한 경우의 동화상을 재생 중에서의 화상(750)을 설명한다. 여기서, 화상(750)에는, 동화상을 구성하는 각 클레임에 대응하는 화상에 의해 합성된 화상(751)이 파노라마 형상으로 형성되어 있다. 또한, 화상(750)에서의 현 프레임에 대응하는 화상은, 현 화상(752)이다.
여기서, 틀(753)로 둘러싸인 화상 영역을 확대 표시하는 경우에 대해서 설명한다. 표시부(689)에 표시되어 있는 화상에 대해서 확대 축소 표시를 하는 경우에는, 유저가 조작 접수부(688)에서 표시 배율 지정 키를 조작함으로써 원하는 표시 배율을 지정할 수 있다. 예를 들어, 도 42의 (a)에 도시하는 바와 같이, 표시부(689)에 화상(750)이 표시되어 있는 경우에, 틀(753)로 둘러싸인 화상 영역을 확대 표시하는 경우에는, 유저가 조작 접수부(688)에서 표시 배율 지정 키를 조작해 서 표시 배율을 지정함과 함께, 위치를 지정함으로써, 틀(753)로 둘러싸인 화상 영역을 확대 표시할 수 있다.
도 42의 (b)는, 화상(750)에서의 현 화상(752)이 아핀 변환되기 전의 상태의 화상(754)을 도시하는 도면이다.
도 43의 (a)는, 도 42의 (a)에 도시하는 틀(753)로 둘러싸인 화상 영역이 확대 표시된 경우에서의 화상(755)을 도시하는 도면이다. 도 43의 (a)에 도시하는 화상(755)은, 아핀 변환 후의 현 화상이 화상 메모리(684)에 보존되기 전의 상태에서 표시용 메모리(686)에 합성된 화상이다. 이와 같이, 현 화상(756)의 영역에는, 화상 메모리(684)에 보존되기 전의 상태의 비교적 정밀한 화상이 표시된다. 이 때문에, 현 화상(756)과, 이 영역 이외의 영역을 비교한 경우에, 다른 영역보다도 비교적 깨끗한 현 화상(756)을 볼 수 있다. 한편, 도 43의 (b)에 도시하는 화상(757)은, 아핀 변환 후의 현 화상이 화상 메모리(684)에 보존된 상태에서 표시용 메모리(686)에 보존된 화상이다. 이와 같이 표시되는 경우에는, 현 화상(758)의 영역에 대해서도, 다른 영역의 화상과 동일 정도의 화상이 표시된다. 즉, 본 발명의 실시 형태에 따르면, 화상 합성 표시할 때에, 표시용 메모리(686)에 유지된 이력 화상은 압축되는 경우가 있지만, 현재의 화상에 대해서는 비압축의 화상 또는, 이력 화상보다도 높은 해상도의 화상을 사용할 수 있기 때문에, 고화질의 화상 합성 표시를 실현할 수 있다.
도 44 및 도 45는, 본 발명의 실시 형태에서의 화상 처리 장치(680)에 의한 동화상 재생 처리의 처리 단계를 도시하는 플로우차트이다. 또한, 도 44 및 도 45 에 도시하는 처리 단계 중에서, 스텝 S921, S925, S926, S928 및 S929에 대해서는, 도 25에 도시하는 처리 단계와 마찬가지이기 때문에, 동일한 부호를 붙여서 여기서의 설명은 생략한다.
파일 취득부(681)는, 조작 접수부(688)로부터의 조작 입력에 따라, 동화상 기억부(660)에 기억되어 있는 동화상 파일을 취득 함과 함께, 이 동화상 파일에 관련지어 메타데이터 기억부(670)에 기억되어 있는 메타데이터 파일을 취득한다(스텝 S961). 계속해서, 파일 취득부(681)이, 동화상 파일을 디코드하고, 동화상 파일을 구성하는 1개의 프레임인 현 프레임을 취득한다(스텝 S962). 계속해서, 파일 취득부(681)가, 취득된 현 프레임에 대응하는 아핀 변환 파라미터를 메타데이터 파일로부터 취득한다(스텝 S963).
계속해서, 아핀 변환된 현 프레임에 대응하는 현 화상이 합성 화상에 덮어 써져 화상 메모리(170)에 보존된(스텝 S926) 후에, 표시 영역 취출부(685)는, 현 화상을 고정하는 표시 모드가 지정되어 있는지의 여부를 판단한다(스텝 S964). 현 화상을 고정하는 표시 모드가 지정되어 있는 경우에는(스텝 S964), 표시 영역 취출부(685)는, 최초의 프레임으로부터 현 프레임까지의 아핀 변환 파라미터와, 표시 배율에 대응하는 아핀 변환 파라미터를 사용해서 표시 영역의 위치 및 크기를 결정한다(스텝 S965). 계속해서, 표시 영역 취출부(685)는, 표시 영역에 포함되는 합성 화상을 화상 메모리(684)로부터 취출한다(스텝 S966). 계속해서, 표시 영역 취출부(685)는, 표시 영역의 결정에 사용된 아핀 변환 파라미터의 행렬에 대한 역행렬을 사용하여, 화상 메모리(684)로부터 취출된 합성 화상을 아핀 변환한다(스텝 S967).
계속해서, 표시 영역 취출부(685)는, 화상 메모리(684)로부터 취출되어 아핀 변환된 합성 화상을 표시용 메모리(686)에 보존한다(스텝 S968). 계속해서, 화상 합성부(683)는, 표시용 메모리(686)에 보존되어 있는 합성 화상에 현 화상을 덮어쓰기 합성한다(스텝 S969). 계속해서, 표시용 메모리(686)에 보존되어 있는 합성 화상을 표시부(689)가 표시한다(스텝 S970).
또한, 현 화상을 고정하는 표시 모드가 지정되어 있지 않은 경우에는(스텝 S964), 표시 영역 취출부(685)는, 표시 배율에 대응하는 아핀 변환 파라미터를 사용해서 표시 영역의 위치 및 크기를 결정한다(스텝 S971). 또한, 현 화상의 변환에 따라서 표시 영역이 이동하고 있는 경우에는, 직전에 이동된 표시 영역의 위치를 사용하도록 해도 된다.
계속해서, 표시 영역 취출부(685)는, 화상 메모리(684)에 유지되어 있는 현 화상이 표시 영역으로부터 삐어져 나와 있는지의 여부를 판단한다(스텝 S972). 화상 메모리(684)에 유지되어 있는 현 화상이 표시 영역으로부터 삐어져 나와 있지 않은 경우(즉, 현 화상의 전부가 표시 영역의 범위 내에 포함되는 경우)에는(스텝 S972), 표시 영역 취출부(685)는, 표시 영역에 포함되는 합성 화상을 화상 메모리(684)로부터 취출한다(스텝 S973). 계속해서, 표시 영역 취출부(685)는, 화상 메모리(684)로부터 취출된 합성 화상을 표시용 메모리(686)에 보존한다(스텝 S974).
계속해서, 표시 영역 취출부(685)는, 현 화상의 변환에 사용된 아핀 변환 파 라미터의 행렬과, 표시 영역의 결정에 사용된 아핀 변환 파라미터의 행렬에 대한 역행렬을 사용하여, 표시용 메모리(686)에서의 현 화상의 위치를 결정한다(스텝 S975). 계속해서, 화상 합성부(683)는, 표시용 메모리(686)에 보존되어 있는 합성 화상에, 아핀 변환된 현 화상을 덮어쓰기 합성한다(스텝 S976). 계속해서, 스텝 S970으로 진행한다.
또한, 화상 메모리(684)에 유지되어 있는 현 화상이 표시 영역으로부터 삐어져 나와 있는 경우(즉, 현 화상의 적어도 일부가 표시 영역의 범위 내에 포함되지 않는 경우)에는(스텝 S972), 표시 영역 취출부(685)는, 표시 영역의 1변과, 표시 영역으로부터 삐어져 나와 있는 현 화상의 차분값을 산출한다(스텝 S977). 계속해서, 표시 영역 취출부(685)는, 산출된 차분값에 기초하여 표시 영역을 이동시킨다(스텝 S978). 계속해서, 스텝 S973으로 진행한다.
다음으로, 본 발명의 실시 형태에서의 특징점 추출 처리 및 옵티컬 플로우 계산 처리를 멀티 코어 프로세서에 의해 행하는 경우에 대해서 도면을 참조해서 상세하게 설명한다.
도 46은, 본 발명의 실시 형태에서의 멀티 코어 프로세서(800)의 일구성예를 도시하는 도면이다. 멀티 코어 프로세서(800)는, 1개의 CPU(Central Processing Unit) 패키지 상에 서로 다른 종류의 프로세서 코어가 복수 탑재되어 있는 프로세서이다. 즉, 멀티 코어 프로세서(800)에는, 각 프로세서 코어 단일 부재의 처리 성능을 유지함과 함께, 심플한 구성으로 하기 위해서, 모든 용도(어플리케이션)에 대응하는 1종류의 코어와, 소정의 용도에 어느 정도 최적화되어 있는 다른 종류의 코어의 2종류의 프로세서 코어가 복수 탑재되어 있다.
멀티 코어 프로세서(800)는, 제어 프로세서 코어(801)와, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)와, 버스(802)를 구비하고, 메인 메모리(781)와 접속되어 있다. 또한, 멀티 코어 프로세서(800)는, 예를 들어, 그래픽 디바이스(782)나 I/O 디바이스(783) 등의 다른 디바이스와 접속된다. 멀티 코어 프로세서(800)로서, 예를 들어, 본원 출원인 등에 의해 개발된 마이크로프로세서인 「Cell(셀:Cell Broadband Engine)」을 채용할 수 있다.
제어 프로세서 코어(801)는, 오퍼레이팅 시스템과 같은 빈번한 쓰레드 절환 등을 주로 행하는 제어 프로세서 코어이다. 또한, 제어 프로세서 코어(801)에 대해서는, 도 47을 참조해서 상세하게 설명한다.
연산 프로세서 코어(#1)(811) 내지 (#8)(818)는, 멀티미디어계의 처리를 득의로 하는 심플하고 소형인 연산 프로세서 코어이다. 또한, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)에 대해서는, 도 48을 참조해서 상세하게 설명한다.
버스(802)는, EIB(Element Interconnect Bus)라고 불리는 고속의 버스로서, 제어 프로세서 코어(801) 및 연산 프로세서 코어(#1)(811) 내지 (#8)(818)의 각각이 접속되고, 각 프로세서 코어에 의한 데이터 액세스는 버스(802)를 경유해서 행하여진다.
메인 메모리(781)는, 버스(802)에 접속되고, 각 프로세서 코어에 로드할 각종 프로그램이나, 각 프로세서 코어의 처리에 필요한 데이터를 저장함과 함께, 각 프로세서 코어에 의해 처리된 데이터를 저장하는 메인 메모리이다.
그래픽 디바이스(782)는, 버스(802)에 접속되어 있는 그래픽 디바이스이며, I/O 디바이스(783)는, 버스(802)에 접속되어 있는 외부 입출력 디바이스이다.
도 47은, 본 발명의 실시 형태에서의 제어 프로세서 코어(801)의 일구성예를 도시하는 도면이다. 제어 프로세서 코어(801)는, 제어 프로세서 유닛(803) 및 제어 프로세서 스토리지 시스템(806)을 구비한다.
제어 프로세서 유닛(803)은, 제어 프로세서 코어(801)의 연산 처리를 행하는 핵으로 되는 유닛으로서, 마이크로프로세서의 아키텍쳐를 베이스로 하는 명령 세트를 구비하고, 1차 캐쉬으로서 명령 캐쉬(804) 및 데이터 캐쉬(805)가 탑재되어 있다. 명령 캐쉬(804)는, 예를 들어, 32KB의 명령 캐쉬이며, 데이터 캐쉬(805)는, 예를 들어, 32KB의 데이터 캐쉬이다.
제어 프로세서 스토리지 시스템(806)은, 제어 프로세서 유닛(803)으로부터 메인 메모리(781)에의 데이터 액세스를 제어하는 유닛으로서, 제어 프로세서 유닛(803)으로부터의 메모리 액세스를 고속화시키기 위해서 512KB의 2차 캐쉬(807)가 탑재되어 있다.
도 48은, 본 발명의 실시 형태에서의 연산 프로세서 코어(#1)(811)의 일구성예를 도시하는 도면이다. 연산 프로세서 코어(#1)(811)는, 연산 프로세서 유닛(820) 및 메모리 플로우 컨트롤러(822)을 구비한다. 또한, 연산 프로세서 코어(#2)(812) 내지 (#8)(818)는, 연산 프로세서 코어(#1)(811)와 마찬가지의 구성이기 때문에, 여기서의 설명을 생략한다.
연산 프로세서 유닛(820)은, 연산 프로세서 코어(#1)(811)의 연산 처리를 행 하는 핵으로 되는 유닛으로서, 제어 프로세서 코어(801)의 제어 프로세서 유닛(803)과는 상이한 독자의 명령 세트를 구비한다. 또한, 연산 프로세서 유닛(820)에는, 로컬 스토어(LS:Local Store)(821)가 탑재되어 있다.
로컬 스토어(821)는, 연산 프로세서 유닛(820)의 전용 메모리임과 함께, 연산 프로세서 유닛(820)으로부터 직접 참조할 수 있는 유일한 메모리이다. 로컬 스토어(821)로서, 예를 들어, 용량이 256K 바이트인 메모리를 사용할 수 있다. 또한, 연산 프로세서 유닛(820)이, 메인 메모리(781)나 다른 연산 프로세서 코어(연산 프로세서 코어(#2)(812) 내지 (#8)(818)) 상의 로컬 스토어에 액세스하기 위해서는, 메모리 플로우 컨트롤러(822)를 이용할 필요가 있다.
메모리 플로우 컨트롤러(822)는, 메인 메모리(781)나 다른 연산 프로세서 코어 등 과의 사이에서 데이터를 교환하기 위한 유닛으로서, MFC(Memory Flow Controller)라고 불리는 유닛이다. 여기서, 연산 프로세서 유닛(820)은, 채널이라고 불리는 인터페이스를 통해서 메모리 플로우 컨트롤러(822)에 대하여 데이터 전송 등을 의뢰한다.
이상에서 설명한 멀티 코어 프로세서(800)의 프로그래밍 모델로서, 다양한 것이 제안되어 있다. 이 프로그래밍 모델 중에서 가장 기본적인 모델로서, 제어 프로세서 코어(801) 상에서 메인프로그램을 실행하고, 연산 프로세서 코어(#1)(811) 내지 (#8)(818) 상에서 서브프로그램을 실행하는 모델이 알려져 있다. 본 발명의 실시 형태에서는, 이 모델을 사용한 멀티 코어 프로세서(800)의 연산 방법에 대해서 도면을 참조해서 상세하게 설명한다.
도 49는, 본 발명의 실시 형태에서의 멀티 코어 프로세서(800)의 연산 방법을 모식적으로 도시하는 도면이다. 이 예에서는, 데이터(785)를 사용해서 제어 프로세서 코어(801)가 태스크(784)를 실행하는 경우에, 태스크(784)의 일부인 태스크(786)의 처리에 필요한 데이터(787)(데이터(785)의 일부)를 사용하여, 태스크(786)를 각 연산 프로세서 코어에 실행시키는 경우를 예로 설명한다.
동일 도면에 도시하는 바와 같이, 데이터(785)를 사용해서 제어 프로세서 코어(801)가 태스크(784)를 실행하는 경우에는, 태스크(784)의 일부인 태스크(786)의 처리에 필요한 데이터(787)(데이터(785)의 일부)를 사용하여, 태스크(786)를 각 연산 프로세서 코어에 실행시킨다. 본 발명의 실시 형태에서는, 동화상을 구성하는 프레임마다 각 연산 프로세서 코어에 의해 연산 처리가 행하여진다.
동일 도면에 도시하는 바와 같이, 멀티 코어 프로세서(800)가 연산을 행함으로써, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)를 병렬로 이용해서, 비교적 적은 시간 동안 많은 연산을 행할 수 있음과 함께, 연산 프로세서 코어(#1)(811) 내지 (#8)(818) 상에서 SIMD(Single Instruction/Multiple Data:단일 명령/복수 데이터) 연산을 이용해서, 더욱 적은 명령수에 의해, 비교적 많은 연산 처리를 행할 수 있다. 또한, SIMD 연산에 대해서는, 도 53 내지 도 56 등을 참조해서 상세하게 설명한다.
도 50은, 본 발명의 실시 형태에서의 멀티 코어 프로세서(800)에 의해 연산을 행하는 경우에서의 프로그램 및 데이터의 흐름을 모식적으로 도시하는 도면이다. 여기서는, 연산 프로세서 코어(#1)(811) 내지 (#8)(818) 중의 연산 프로세서 코어(#1)(811)를 예로 하여 설명하지만, 연산 프로세서 코어(#2)(812) 내지 (#8)(818)에 대해서도 마찬가지로 행할 수 있다.
처음으로, 제어 프로세서 코어(801)는, 메인 메모리(781)에 저장되어 있는 연산 프로세서 코어 프로그램(823)을 연산 프로세서 코어(#1)(811)의 로컬 스토어(821)에 로드하는 지시를 연산 프로세서 코어(#1)(811)에 보낸다. 이것에 의해, 연산 프로세서 코어(#1)(811)는, 메인 메모리(781)에 저장되어 있는 연산 프로세서 코어 프로그램(823)을 로컬 스토어(821)에 로드한다.
계속해서, 제어 프로세서 코어(801)는, 로컬 스토어(821)에 저장된 연산 프로세서 코어 프로그램(825)의 실행을 연산 프로세서 코어(#1)(811)에 지시한다.
계속해서, 연산 프로세서 코어(#1)(811)는, 로컬 스토어(821)에 저장된 연산 프로세서 코어 프로그램(825)의 실행 처리에 필요한 데이터(824)를 메인 메모리(781)로부터 로컬 스토어(821)에 전송한다.
계속해서, 연산 프로세서 코어(#1)(811)는, 로컬 스토어(821)에 저장된 연산 프로세서 코어 프로그램(825)에 기초하여, 메인 메모리(781)로부터 전송된 데이터(826)를 가공하고, 조건에 따른 처리를 실행해서 처리 결과를 로컬 스토어(821)에 저장한다.
계속해서, 연산 프로세서 코어(#1)(811)는, 로컬 스토어(821)에 저장된 연산 프로세서 코어 프로그램(825)에 기초하여 실행된 처리 결과를 로컬 스토어(821)로부터 메인 메모리(781)에 전송한다.
계속해서, 연산 프로세서 코어(#1)(811)는, 제어 프로세서 코어(801)에 연산 처리의 종료를 통지한다.
다음으로, 멀티 코어 프로세서(800)를 사용해서 행하는 SIMD 연산에 대해서 도면을 참조해서 상세하게 설명한다. 여기서, SIMD 연산이란, 복수의 데이터에 대한 처리를 1개의 명령으로 행하는 연산 방식이다.
도 51의 (a)는, 복수의 데이터에 대한 처리를 각각의 명령으로 행하는 연산 방식의 개요를 모식적으로 도시하는 도면이다. 도 51의 (a)에 도시하는 연산 방식은, 통상의 연산 방식이며, 예를 들어, 스칼라 연산이라고 불리고 있다. 예를 들어, 데이터 「A1」 및 데이터 「B1」을 가산하는 명령에 의해 데이터 「C1」의 처리 결과가 구해진다. 또한, 다른 3개의 연산에 대해서도 마찬가지로, 동일한 행에 있는 데이터 「A2」, 「A3」, 「A4」와, 데이터 「B2」, 「B3」, 「B4」를 가산하는 명령이 각각의 처리에 대해서 행하여지고, 이 명령에 의해, 각 행의 값이 가산 처리되고, 이 처리 결과가 데이터 「C2」, 「C3」, 「C4」로서 구해진다. 이와 같이, 스칼라 연산에서는, 복수의 데이터에 대한 처리에 대해서는, 각각에 대하여 명령을 행할 필요가 있다.
도 51의 (b)는, 복수의 데이터에 대한 처리를 1개의 명령으로 행하는 연산 방식인 SIMD 연산의 개요를 모식적으로 도시하는 도면이다. 여기서, SIMD 연산용으로 하나로 통합한 데이터(점선(827 및 828)으로 둘러싸인 각 데이터)는, 벡터 데이터라고 불리는 경우가 있다. 또한, 이와 같은 벡터 데이터를 사용해서 행하여지는 SIMD 연산은, 벡터 연산이라고 불리는 경우가 있다.
예를 들어, 점선(827)으로 둘러싸인 벡터 데이터(「A1」, 「A2」, 「A3」, 「A4」)와, 점선(828)로 둘러싸인 벡터 데이터(「B1」, 「B2」, 「B3」, 「B4」)를 가산하는 1개의 명령에 의해 「C1」, 「C2」, 「C3」, 「C4」의 처리 결과(점선(829)으로 둘러싸여 있는 데이터)가 구해진다. 이와 같이, SIMD 연산에서는, 복수의 데이터에 대한 처리를 1개의 명령으로 행할 수 있기 때문에, 연산 처리를 신속하게 행할 수 있다. 또한, 이들 SIMD 연산에 관한 명령을, 멀티 코어 프로세서(800)의 제어 프로세서 코어(801)가 행하고, 이 명령에 대한 복수 데이터의 연산 처리에 대해서 연산 프로세서 코어(#1)(811) 내지 (#8)(818)가 병렬 처리를 행한다.
한편, 예를 들어, 데이터 「A1」과 「B1」을 더하고, 데이터 「A2」와 「B2」를 빼고, 데이터 「A3」과 「B3」을 곱하고, 데이터 「A4」와 「B4」를 나누는 처리에 대해서는, SIMD 연산에서는 행할 수 없다. 즉, 복수의 데이터의 각각에 대하여 상이한 처리를 하는 경우에는, SIMD 연산에 의한 처리를 행할 수 없다.
다음으로, 특징점 추출 처리 및 옵티컬 플로우 산출 처리를 행하는 경우에서의 SIMD 연산의 구체적인 연산 방법에 대해서 도면을 참조해서 상세하게 설명한다.
도 52는, 본 발명의 실시 형태에서의 제어 프로세서 코어(801) 또는 연산 프로세서 코어(#1)(811)에 의해 실행되는 프로그램의 구성예를 도시하는 도면이다. 여기서는, 연산 프로세서 코어(#1)(811)에 대해서만 도시하지만, 연산 프로세서 코어(#2)(812) 내지 (#8)(818)에 대해서도 마찬가지의 처리가 행하여진다.
제어 프로세서 코어(801)는, 디코드(851)로서 디코드(852), 인터레이스(853) 및 리사이즈(854)를 실행한다. 디코드(852)는, 동화상 파일을 디코드하는 처리이 다. 인터레이스(853)는, 디코드된 각 프레임에 대해서 인터레이스 제거하는 처리이다. 리사이즈(854)는, 인터레이스 제거된 각 프레임에 대해서 축소하는 처리이다.
또한, 제어 프로세서 코어(801)는, 연산 프로세서 코어 관리(856)로서 명령 송신(857 및 859), 종료 통지 수신(858 및 860)을 실행한다. 명령 송신(857 및 859)은, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)에 대한 SIMD 연산의 실행 명령을 송신하는 처리이며, 종료 통지 수신(858 및 860)은, 상기 명령에 대한 연산 프로세서 코어(#1)(811) 내지 (#8)(818)로부터의 SIMD 연산의 종료 통지를 수신하는 처리이다. 또한, 제어 프로세서 코어(801)는, 카메라 워크 검출(861)로서 카메라 워크 파라미터 산출 처리(862)를 실행한다. 카메라 워크 파라미터 산출 처리(862)는, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)에 의한 SIMD 연산에 의해 산출된 옵티컬 플로우에 기초하여 프레임마다 아핀 변환 파라미터를 산출하는 처리이다.
연산 프로세서 코어(#1)(811)는, 특징점 추출 처리(863)로서, 소벨 필터(Sobel Filter) 처리(864), 2차 모멘트 행렬(Second Moment Matrix) 산출 처리(865), 세퍼러블 필터(Separable Filter) 처리(866), 해리스 코너 추출(Calc Harris) 처리(867), 팽창 처리(Dilation)(868), 재배열 처리(Sort)(869)를 실행한다.
소벨 필터 처리(864)는, P2의 필터(x방향)을 사용해서 얻어지는 x방향의 값 dx와, Y방향의 필터를 사용해서 얻어지는 y방향의 값 dy를 산출하는 처리이다. 또 한, x방향의 값 dx의 산출에 대해서는, 도 53 내지 도 56을 참조해서 상세하게 설명한다.
2차 모멘트 행렬 산출 처리(865)는, 소벨 필터 처리(864)에 의해 산출된 dx 및 dy를 사용하여, dx2, dy2, dx·dy의 각 값을 산출하는 처리이다.
세퍼러블 필터 처리(866)는, 2차 모멘트 행렬 산출 처리(865)에 의해 산출된 dx2, dy2, dx·dy의 화상에 대하여 가우시안 필터(셰이딩 처리(shading process))를 작용시키는 처리이다.
해리스 코너 추출 처리(867)는, 세퍼러블 필터 처리(866)에 의해, 셰이딩 처리가 실시된 dx2, dy2, dx·dy의 각 값을 사용하여, 해리스 코너의 스코어를 산출하는 처리이다. 이 해리스 코너의 스코어 S는, 예를 들어, 다음의 식에 의해 산출된다.
S=(dx2×dy2-dx·dy×dx·dy)/(dx2+dy2+ε)
팽창 처리(868)는, 해리스 코너 추출 처리(867)에 의해 산출된 해리스 코너의 스코어로 구성된 화상에 대하여 셰이딩 처리를 행하는 처리이다.
재배열 처리(869)는, 해리스 코너 추출 처리(867)에 의해 산출된 해리스 코너의 스코어가 높은 순서대로 화소를 배열하고, 이 스코어가 높은 쪽으로부터 소정의 수만큼 픽업하고, 이 픽업해진 점을 특징점으로서 추출하는 처리이다.
연산 프로세서 코어(#1)(811)는, 옵티컬 플로우(Optical Flow) 연산 처 리(870)로서, 피라미드 화상(Make Pyramid Image) 처리(871), 옵티컬 플로우 산출(Calc Optical Flow) 처리(872)를 실행한다.
피라미드 화상 처리(871)는, 카메라에 의한 촬상 시의 화면 사이즈로부터 소정수의 단계로 축소된 화상을 순차적으로 작성하는 처리로서, 작성된 화상은 다중 해상도 화상이라고 불린다.
옵티컬 플로우 산출 처리(872)는, 피라미드 화상 처리(871)에 의해 작성된 다중 해상도 화상 중에서, 가장 작은 화상에 대해서 옵티컬 플로우를 계산하고, 이 계산 결과를 사용하여, 한 등급 더 높은 해상도의 화상에 대해서 다시 옵티컬 플로우를 계산하는 처리로서, 이 일련의 처리를 가장 큰 화상에 도달할 때까지 반복해서 행한다.
이와 같이, 예를 들어, 도 1 등에 도시하는 특징점 추출부(121)에 의해 행하여지는 특징점 추출 처리와, 옵티컬 플로우 계산부(122)에 의해 행하여지는 옵티컬 플로우 산출 처리에 대해서는, 멀티 코어 프로세서(800)를 사용해서 SIMD 연산에 의해 병렬 처리함으로써 처리 결과를 구할 수 있다. 또한, 도 52 등에서 도시하는 특징점 추출 처리 및 옵티컬 플로우 산출 처리는 일례이며, 동화상을 구성하는 화상에 대한 각종 필터 처리나 임계값 처리 등에 의해 구성되는 다른 처리를 사용하여, 멀티 코어 프로세서(800)에 의한 SIMD 연산을 행하도록 해도 된다.
도 53은, 본 발명의 실시 형태에서의 메인 메모리(781)에 저장되어 있는 화상 데이터(카메라에 의해 촬상된 동화상을 구성하는 1개의 프레임에 대응하는 화상 데이터)에 대해서, 소벨 필터(830)를 사용해서 필터링 처리를 행하는 경우에서의 데이터 구조와 처리의 흐름을 개략적으로 도시하는 도면이다. 또한, 동일 도면에 도시하는 메인 메모리(781)에 저장되어 있는 화상 데이터에 대해서는, 가로의 화소수를 32화소로서 간략화해서 도시한다. 또한,소벨 필터(830)는, 3×3의 에지 추출 필터이다. 동일 도면에 도시하는 바와 같이, 메인 메모리(781)에 저장되어 있는 화상 데이터에 대해서, 소벨 필터(830)를 사용한 필터링 처리를 행하고, 이 필터링 처리의 결과가 출력된다. 이 예에서는, SIMD 연산을 사용해서 4개분의 필터 결과를 한번에 얻는 예에 대해서 설명한다.
도 54는, 본 발명의 실시 형태에서의 메인 메모리(781)에 저장되어 있는 화상 데이터에 대해서 소벨 필터(830)를 사용해서 SIMD 연산을 행하는 경우에서의 데이터의 흐름을 개략적으로 도시하는 도면이다. 처음에는, 메인 메모리(781)에 저장되어 있는 화상 데이터 중의 최초의 라인을 포함하는 소정수의 라인(예를 들어, 3라인)이 연산 프로세서 코어의 로컬 스토어(821)에 구비되는 제1 버퍼(831)에 DMA(Direct Memory Access) 전송됨과 함께, 제1 버퍼(831)에 DMA 전송된 각 라인을 1개 아래로 어긋나게 한 소정수의 라인이 제2 버퍼(832)에 DMA 전송된다. 이와 같이, 더블 버퍼를 사용함으로써, DMA 전송에 의한 지연을 은폐할 수 있다.
도 55는, 본 발명의 실시 형태에서의 소벨 필터(830)를 사용해서 필터링 처리를 행하는 경우에, 제1 버퍼(831)에 저장되어 있는 화상 데이터로부터 9개의 벡터를 작성하는 벡터 작성 방법을 개략적으로 도시하는 도면이다. 도 55에 도시하는 바와 같이, DMA 전송이 행하여진 후에, 제1 버퍼(831)에 저장되어 있는 화상 데이터로부터 9개의 벡터가 작성된다. 구체적으로는, 제1 버퍼(831)에 저장되어 있 는 화상 데이터의 1라인에서 좌측 코너로부터 4개의 데이터에 의해 벡터 데이터(841)가 작성되고, 그 4개의 데이터를 우측으로 1개 어긋나게 한 4개의 데이터에 의해 벡터 데이터(842)가 작성되며, 마찬가지로, 그 4개의 데이터를 우측으로 1개 어긋나게 한 4개의 데이터에 의해 벡터 데이터(843)가 작성된다. 또한, 2라인 및 3라인에서도 마찬가지로 4개의 데이터에 의해 벡터 데이터(844 내지 849)가 작성된다.
도 56은, 본 발명의 실시 형태에서의 소벨 필터(830)를 사용해서 필터링 처리를 행하는 경우에, 벡터 데이터(841 내지 849))에 대해서 SIMD 명령을 사용해서 벡터 연산을 행하는 벡터 연산 방법을 개략적으로 도시하는 도면이다. 구체적으로는, 벡터 데이터(841 내지 843)에 대해서 SIMD 연산이 순차적으로 행하여져, 벡터 A가 구해진다. 이 SIMD 연산에서는, 처음으로, 『「-1」×「벡터 데이터(841)」』의 SIMD 연산이 실행된다. 계속해서, 『「0」×「벡터 데이터(842)」』의 SIMD 연산이 실행되고, 『「1」×「벡터 데이터(843)」』의 SIMD 연산이 실행된다. 여기서, 『「0」×「벡터 데이터(842)」』에 대해서는, 연산 결과가 「0」이라고 확정하고 있기 때문에, 생략하는 것이 가능하다. 또한, 『「1」×「벡터 데이터(843)」』에 대해서는, 연산 결과가 「벡터 데이터(843)」와 동일한 값인 것으로 확정되어 있기 때문에, 생략하는 것이 가능하다.
계속해서, 『「-1」×「벡터 데이터(841)」』의 연산 결과와, 『「0」×「벡터 데이터(842)」』의 연산 결과의 가산 처리가 SIMD 연산에 의해 실행된다. 계속해서, 이 가산 처리의 결과와, 『「1」×「벡터 데이터(843)」』의 연산 결과의 가 산 처리가 SIMD 연산에 의해 실행된다. 여기서, 예를 들어, 「벡터 데이터1」×「벡터 데이터2」+「벡터 데이터3」으로 되는 데이터 구조의 연산에 대해서는, SIMD 연산에 의해 실행하는 것이 가능하다. 그래서, 벡터 A의 연산에 대해서는, 예를 들어, 『「0」×「벡터 데이터(842)」』 및 『「1」×「벡터 데이터(843)」』에 관한 SIMD 연산을 생략하고, 『「-1」×「벡터 데이터(841)」+「벡터 데이터(843)」』를 1회의 SIMD 연산에 의해 실행하도록 해도 된다.
또한, 마찬가지로, 벡터 데이터(844 내지 846)에 대해서 SIMD 연산이 행하여져, 벡터 B가 구해지고, 벡터 데이터(847 내지 849)에 대해서 SIMD 연산이 행하여져, 벡터 C가 구해진다.
계속해서, SIMD 연산에 의해 구해진 벡터 A 내지 C에 대해서 SIMD 연산이 행하여져, 벡터 D가 구해진다. 이와 같이, SIMD 연산을 행함으로써, 벡터의 요소수만큼(이 예에서는 4개의 데이터)의 결과를 정리해서 얻을 수 있다.
벡터 D가 산출된 후에는, 도 55에 도시하는 제1 버퍼(831)에 저장되어 있는 화상 데이터에서, 취출하는 데이터의 위치를 우측으로 1개 어긋나게 하면서, 마찬가지의 처리를 반복해서 실행해서, 각각의 벡터 D의 산출을 순차적으로 행한다. 그리고, 도 55에 도시하는 제1 버퍼(831)에 저장되어 있는 화상 데이터의 우측 단부까지의 처리가 종료한 경우에는, 처리 결과를 메인 메모리(781)에 DMA 전송한다.
계속해서, 메인 메모리(781)에 저장되어 있는 화상 데이터 중에서, 제2 버퍼(832)에 DMA 전송된 각 라인을 1개 아래로 어긋나게 한 소정수의 라인이 제1 버퍼(831)에 DMA 전송됨과 함께, 제2 버퍼(832)에 저장되어 있는 화상 데이터에 대해 서, 상술한 처리를 반복해서 행한다. 그리고, 메인 메모리(781)에 저장되어 있는 화상 데이터의 각 라인 중의 하단의 라인에 도달할 때까지, 마찬가지의 처리를 반복해서 행한다.
마찬가지로, 특징점 추출과 옵티컬 플로우 산출의 대부분의 처리를 SIMD 연산에 의해 행함으로써 고속화를 실현할 수 있다.
도 57은, 본 발명의 실시 형태에서의 카메라 워크 파라미터 산출 처리의 흐름을 시계열로 개략적으로 도시하는 도면이다. 상술한 바와 같이, 예를 들어, 멀티 코어 프로세서(800)를 사용해서 SIMD 연산을 행함으로써, 동화상에 관한 디코드 및 해석 처리를 병렬화해서 행할 수 있다. 이 때문에, 동화상을 구성하는 1프레임의 해석 시간을, 디코드 시간보다도 단축하는 것이 가능하다.
예를 들어, 동일 도면에서, t1은, 제어 프로세서 코어(801)가 동화상을 구성하는 1프레임의 디코드 처리에 필요로 하는 시간을 나타내고, t2는, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)가 동화상을 구성하는 1프레임의 특징점 추출 처리에 필요로 하는 시간을 나타내며, t3은, 연산 프로세서 코어(#1)(811) 내지 (#8)(818)가 동화상을 구성하는 1프레임의 옵티컬 플로우 산출 처리에 필요로 하는 시간을 나타내고, t4는, 제어 프로세서 코어(801)가 동화상을 구성하는 1프레임의 카메라 워크 검출 처리에 필요로 하는 시간을 나타낸다. 또한, t5는, 제어 프로세서 코어(801) 및 연산 프로세서 코어(#1)(811) 내지 (#8)(818)가 동화상을 구성하는 1프레임에 대해서, 카메라 워크 검출 처리에 필요로 하는 시간을 나타낸다. 또한, t6은, 제어 프로세서 코어(801)가 연산 프로세서 코어(#1)(811) 내지 (#8)(818)를 관 리하는 처리에 필요로 하는 시간을 나타낸다. 예를 들어, t1을 「25.0㎳」로 하고, t2를 「7.9㎳」로 하며, t3을 「6.7㎳」로 하고, t4를 「1.2㎳」로 하며, t5를 「15.8㎳」로 할 수 있다.
다음으로, 본 발명의 실시 형태에서의 메타데이터 파일을 사용한 동화상 콘텐츠를 재생하는 경우에 대해서 도면을 참조해서 상세하게 설명한다.
도 58의 (a)는, 기록 매체의 일례인 블루 레이 디스크(Blu-ray Disc(등록 상표)(880)를 모식적으로 도시하는 상면도이며, 도 58의 (b)는, 블루 레이 디스크(880)에 기록되어 있는 각 데이터(881 내지 884)를 모식적으로 도시하는 도면이다. 블루 레이 디스크(880)에는, 예를 들어, 카메라 등에 의해 촬상된 동화상인 동화상 콘텐츠(882), 동화상 콘텐츠(882)의 자막(883) 및 동화상 콘텐츠(882)에 대해서 해석되어 얻어진 메타데이터(예를 들어, 도 33의 (b)에 도시하는 메타데이터 파일)(884)와 함께, 본 발명의 실시 형태에서의 동화상 재생에 따른 Java(등록 상표) 프로그램(881)이 기록되어 있다.
도 58의 (c)는, 블루 레이 디스크(880)를 재생 가능한 블루 레이 재생기(Blu-ray Disc Player)(890)의 내부 구성을 모식적으로 도시하는 도면이다. 여기서, 블루 레이 디스크를 재생 가능한 블루 레이 재생기(890)는, CPU(891) 및 OS(892)와 함께, Java(등록 상표) VM(Java(등록 상표) 가상 머신) 및 라이브러리(893)가 표준으로 탑재되어 있기 때문에, Java(등록 상표) 프로그램을 실행하는 것이 가능하다. 이 때문에, 블루 레이 디스크(880)를 블루 레이 재생기(890)에 장착함으로써, 블루 레이 재생기(890)가 Java(등록 상표) 프로그램(881)을 로드해서 실행하는 것이 가능하다. 이것에 의해, 블루 레이 재생기(890)가 동화상 콘텐츠(882)를 재생하는 경우에, 메타데이터(884)를 사용하여, 본 발명의 실시 형태에서의 동화상 재생을 행하는 것이 가능하다. 즉, 전용의 PC 소프트 등을 사용하지 않고, 모든 블루 레이 재생기에서 본 발명의 실시 형태에서의 동화상 재생을 실현하는 것이 가능하게 된다.
또한, 본 발명의 실시 형태에서의 화상 처리 장치를 인터넷 등의 네트워크와 접속하고, 이 네트워크를 통해서 수신되는 화상 또는 동화상과 조합해서, 동화상을 재생하도록 해도 된다. 예를 들어, 네트워크를 통해서 소정의 공원의 풍경 화상을 화상 처리 장치가 수신하고, 이 수신된 공원의 풍경 화상을 배경 화상으로 하고, 이 배경 화상 상에 자녀가 촬상된 동화상을 합성하면서 재생시킬 수 있다. 이것에 의해, 그 공원을 자녀가 이동하고 있는 의사적인 재생 화상을 제공하는 것이 가능하다.
이상에서 설명한 바와 같이, 본 발명의 실시 형태에서는, 현재 표시되어 있는 화상보다도 전의 프레임에 대응하는 화상을 현재의 화상에 합성하면서 표시하기 때문에, 촬영의 중심으로 되어 있는 대상물과 함께, 적어도 일부의 시간대에서 촬영된 배경 등을 용이하게 열람할 수 있다. 이 때문에, 예를 들어, 적어도 일부의 시간대에서 촬영된 배경 등을 다시 보고 싶은 경우에는, 되감기 조작이나 검색 조작 등을 하지 않아도, 현재 표시되어 있는 화상과 동시에 그 배경 등을 볼 수 있다. 또한, 카메라에 의해 촬영된 동화상을 열람하는 경우에, 그 동화상의 내용을 용이하게 파악할 수 있다.
또한, 도 7, 도 11, 도 15 등에 도시하는 표시예에서는, 전의 프레임에 대응하는 화상이 고정되기 때문에, 공간적인 확대를 열람자가 용이하게 인식할 수 있다. 또한, 도 8, 도 12, 도 16 등에 도시하는 표시예에서는, 현 프레임에 대응하는 화상이 고정의 위치에 표시되기 때문에, 현재의 표시 부분을 열람자가 용이하게 인식할 수 있다.
즉, 과거의 프레임을 활용해서, 동화상을 공간적으로 전개해서 감상할 수 있다. 이것에 의해, 예를 들어, 동화상을 재생하면서 파노라마 화상을 완성시켜 가는 감상 방법을 제공할 수 있기 때문에, 열람자는 충분히 재미있게 동화상을 감상할 수 있다.
또한, 도 35 내지 도 43 등에 도시하는 동화상의 재생 방법에 의해 동화상을 재생함으로써, 동화상을 재생 중이어도 다른 표시 모드로 용이하게 절환하는 것이 가능하다. 이 때문에, 예를 들어, 동화상을 재생하면서 파노라마 화상을 완성시켜 가는 감상을 즐김과 함께, 복수의 표시 양태를 용이하게 절환하는 것이 가능하기 때문에, 열람자는 더욱 재미가 풍부하게 동화상을 감상할 수 있다. 또한, 현 화상에 대해서는, 화상 메모리에(684)에 보존되기 전의 상태의 화상을 순차적으로 표시시킬 수 있기 때문에, 비교적 깨끗한 화상을 표시시킬 수 있다.
또한, 본 발명의 실시 형태에서는, 미리 검출된 아핀 변환 파라미터를 사용해서 재생 표시를 하는 예에 대해서 설명하였지만, 재생 시에 아핀 변환 파라미터를 산출하고, 이 산출된 아핀 변환 파라미터를 사용해서 재생 표시를 하도록 해도 된다. 예를 들어, 멀티 코어 프로세서를 사용한 SIMD 연산에 의해 아핀 변환 파라 미터를 산출함으로써, 1프레임의 디코드의 처리 시간 내에, 1프레임의 아핀 변환 파라미터를 산출하는 것이 가능하다. 이것에 의해, 아핀 변환 파라미터가 산출되어 있지 않은 동화상을 재생하는 경우라도, 아핀 변환 파라미터를 산출하면서 동화상 재생을 행하는 것이 가능하기 때문에, 동화상을 공간적으로 전개하는 감상을 신속하게 행할 수 있다.
또한, 예를 들어, 하이비전 TV(Television)에서, SD(Standard Definition) 화질로 촬영된 동화상을 감상하는 경우나, 디지털 스틸 카메라나 휴대 전화의 동화상 보존 기능 등을 사용해서 촬영된 동화상을 감상하는 경우에, 원래의 화상 사이즈의 상태로 표시하면, 하이비전 TV의 화소수를 살릴 수 없는 경우가 있다. 또한, 확대 표시를 행하면, 화상의 거칠기가 눈에 띄는 경우가 많다. 그래서, 본 발명의 실시 형태에서 설명한 표시를 함으로써, 화상의 거칠기를 눈에 띄게 하는 일없이, 하이비전 TV의 화소수를 살린 감상을 할 수 있다.
또한, 스텝 S926, S942, S954 등에서 합성된 합성 화상을 기록 매체 등에 기록하고, 다른 재생 표시에 사용하도록 해도 된다. 또한, 본 발명의 실시 형태에서는, 현 프레임 전의 프레임에 대응하는 합성 화상을 표시시켜 두는 예에 대해서 설명하였지만, 이 합성 화상에 대해서는, 시간의 경과에 따라서 순차적으로 소거하도록 해도 된다. 이 경우에, 잔상을 남겨서 소거하는 연출을 실시하도록 해도 된다. 또한, 현 프레임에 대응하는 화상에 대해서는 컬러 표시함과 함께, 현 프레임 전의 프레임에 대응하는 합성 화상에 대해서는, 시간의 경과에 따라, 컬러 표시로부터 세피아색으로 변경하는 연출을 실시하도록 해도 된다.
또한, 본 발명의 실시 형태에서는, 동화상을 구성하는 화상의 면적에 대한 동물체의 크기가 비교적 작은 경우에 카메라의 움직임을 구하고, 이 카메라의 움직임을 이용해서 동화상을 재생하는 경우에 대해서 설명하였다. 그러나, 동화상을 구성하는 화상의 면적에 대한 동물체의 크기가 비교적 큰 경우에 대해서도, 본 발명의 실시 형태를 적용하는 것이 가능하다. 예를 들어, 역을 출발하는 전차를 피사체의 중심으로 해서 그 전차의 화상 면적에 대한 비율을 크게 촬상한 경우에, 상술한 아핀 변환 파라미터를 산출하면, 전차의 움직임을 산출하게 된다. 이 경우에, 이 전차의 움직임을 이용해서, 상술한 표시 방법에 의해 동화상을 재생할 수 있다. 이와 같이 동화상을 재생하는 경우에는, 배경이 고정됨과 함께 현 화상의 진행과 함께 전차가 진행해 가는 것처럼 표시된다. 이와 같이, 동화상을 구성하는 화상을 변환하기 위한 변환 정보로서, 촬상 시의 카메라와 피사체의 상대적인 움직임량에 관한 움직임 정보를 산출해서 사용할 수 있다.
즉, 본 발명의 실시 형태에 따르면, 디지털 비디오 카메라 등의 촬상 장치에 의해 촬상된 제1 화상 및 제2 화상을 표시하는 경우에, 촬영 시의 촬상 장치의 움직임이나 피사체의 움직임 등을 나타내는 제1 화상과 제2 화상의 상대적 위치 관계를 사용하여, 제2 화상을 제1 화상에 겹쳐서 표시할 수 있다. 이것에 의해, 표시부에서, 유저가 주시하는 작은 창의 중앙만큼 시간이 진행되어 가는 동화상 재생을 실현할 수 있다.
또한, 본 발명의 실시 형태에서는, 화상 합성부에 의해 합성된 화상을 표시부에 표시하는 화상 처리 장치를 예로 하여 설명하였지만, 화상 합성부에 의해 합 성된 화상을 다른 화상 표시 장치에서 표시시키기 위한 화상 정보를 출력하는 화상 출력 수단을 설치한 화상 처리 장치에 본 발명의 실시 형태를 적용할 수 있다. 또한, 동화상을 재생하는 것이 가능한 동화상 재생 장치나 촬영된 동화상을 재생하는 것이 가능한 디지털 비디오 카메라 등의 촬상 장치 등에 본 발명의 실시 형태를 적용할 수 있다.
또한, 본 발명의 실시 형태에서는, 카메라에 의해 촬상된 동화상에 대해서 설명하였지만, 예를 들어, 카메라에 의해 촬상된 동화상이 편집된 경우에서의 편집 후의 동화상이나 애니메이션 등이 일부에 합성된 동화상 등에 대해서도, 본 발명의 실시 형태를 적용할 수 있다. 또한, 본 발명의 실시 형태에서는, 이력 화상의 일부 또는 전부를 표시하는 예에 대해서 설명하였지만, 변환된 현 화상만을 표시시키도록 해도 된다. 즉, 화상 메모리에 최후에 유지된 현 화상만을 순차적으로 표시시켜도 된다. 또한, 아핀 변환 파라미터를 산출하는 경우에, 예를 들어, 촬상 화상에서의 특징점의 이동 벡터를 계산하는 영역을 좁힘으로써, 예를 들어, 움직이는 전차에 대하여 카메라로 사진 찍을 자세를 취하고, 전차 1개분의 동화상 및 거대 화상을 작성할 수 있다.
또한, 본 발명의 실시 형태는 본 발명을 구현화하기 위한 일례를 설명한 것이며, 이하에 기재하는 바와 같이 특허 청구 범위에서의 발명 특정 사항과 각각 대응 관계를 갖지만, 이것에 한정되는 것이 아니라 본 발명의 요지를 일탈하지 않는 범위에서 여러 가지의 변형을 실시할 수 있다.
즉, 청구항 1 또는 25에서, 동화상 입력 수단은, 예를 들어 동화상 입력 부(110)에 대응한다. 또한, 변환 정보 산출 수단은, 예를 들어 카메라 워크 검출부(120)에 대응한다. 또한, 화상 유지 수단은, 예를 들어 화상 메모리(170) 또는 화상 메모리(684)에 대응한다. 또한, 화상 변환 수단은, 예를 들어 화상 변환부(160) 또는 화상 변환부(682)에 대응한다. 또한, 조작 접수 수단은, 예를 들어 조작 접수부(195)에 대응한다. 또한, 화상 합성 수단은, 예를 들어 화상 합성부(180) 또는 화상 합성부(683)에 대응한다. 또한, 출력 수단은, 예를 들어 표시부(191) 또는 표시부(689)에 대응한다. 또한, 제어 수단은, 예를 들어 표시 제어부(190) 또는 표시 제어부(687)에 대응한다.
또한, 청구항 25에서, 표시 수단은, 예를 들어 표시부(191) 또는 표시부(689)에 대응한다.
또한, 청구항 5 또는 9에서, 출력 화상 취출 수단은, 예를 들어 표시 영역 취출부(685)에 대응한다.
또한, 청구항 18에서, 특징점 추출 수단은, 예를 들어 특징점 추출부(121)에 대응한다. 또한, 움직임량 산출 수단은, 예를 들어 옵티컬 플로우 계산부(122)에 대응한다. 또한, 변환 파라미터 산출 수단은, 예를 들어 카메라 워크 파라미터 산출부(123)에 대응한다.
또한, 청구항 21에서, 압축 수단은, 예를 들어 화상 합성부(683)에 대응한다.
또한, 청구항 22에서, 동화상 취득 수단은, 예를 들어 동화상 취득부(140)에 대응한다. 또한, 변환 정보 추출 수단은, 예를 들어 카메라 워크 파라미터 추출 부(150)에 대응한다. 또한, 화상 유지 수단은, 예를 들어 화상 메모리(170) 또는 화상 메모리(684)에 대응한다. 또한, 화상 변환 수단은, 예를 들어 화상 변환부(160) 또는 화상 변환부(682)에 대응한다. 또한, 조작 접수 수단은, 예를 들어 조작 접수부(195)에 대응한다. 또한, 화상 합성 수단은, 예를 들어 화상 합성부(180) 또는 화상 합성부(683)에 대응한다. 또한, 출력 수단은, 예를 들어 표시부(191) 또는 표시부(689)에 대응한다. 또한, 제어 수단은, 예를 들어 표시 제어부(190) 또는 표시 제어부(687)에 대응한다.
또한, 청구항 23에서, 변환 정보 기억 수단은, 예를 들어 메타데이터 기억부(670)에 대응한다. 또한, 동화상 취득 수단은, 예를 들어 파일 취득부(652) 또는 파일 취득부(681)에 대응한다. 또한, 변환 정보 취득 수단은, 예를 들어 파일 취득부(652) 또는 파일 취득부(681)에 대응한다. 또한, 화상 유지 수단은, 예를 들어 화상 메모리(170) 또는 화상 메모리(684)에 대응한다. 또한, 화상 변환 수단은, 예를 들어 화상 변환부(160) 또는 화상 변환부(682)에 대응한다. 또한, 조작 접수 수단은, 예를 들어 조작 접수부(195)에 대응한다. 또한, 화상 합성 수단은, 예를 들어 화상 합성부(180) 또는 화상 합성부(683)에 대응한다. 또한, 출력 수단은, 예를 들어 표시부(191) 또는 표시부(689)에 대응한다. 또한, 제어 수단은, 예를 들어 표시 제어부(190) 또는 표시 제어부(687)에 대응한다.
또한, 청구항 24에서, 동화상 입력 수단은, 예를 들어 동화상 입력부(110)에 대응한다. 또한, 변환 정보 산출 수단은, 예를 들어 카메라 워크 검출부(120)에 대응한다. 또한, 화상 변환 수단은, 예를 들어 화상 변환부(160) 또는 화상 변환 부(682)에 대응한다. 또한, 제어 수단은, 예를 들어 표시 제어부(190) 또는 표시 제어부(687)에 대응한다.
또한, 청구항 26에서, 동화상 입력 수단은, 예를 들어 동화상 입력부(110)에 대응한다. 또한, 촬상 동화상 기억 수단은, 예를 들어 동화상 기억부(200)에 대응한다. 또한, 변환 정보 산출 수단은, 예를 들어 카메라 워크 검출부(120)에 대응한다. 또한, 기록 제어 수단은, 예를 들어 기록 제어부(130)에 대응한다.
또한, 청구항 27에서, 동화상 입력 수단은, 예를 들어 동화상 입력부(110)에 대응한다. 또한, 메타데이터 기억 수단은, 예를 들어 메타데이터 기억부(670)에 대응한다. 또한, 변환 정보 산출 수단은, 예를 들어 카메라 워크 검출부(120)에 대응한다. 또한, 기록 제어 수단은, 예를 들어 기록 제어부(651)에 대응한다.
또한, 청구항 29 또는 30에서, 동화상 입력 단계는, 예를 들어 스텝 S900에 대응한다. 또한, 변환 정보 산출 단계는, 예를 들어 스텝 S903 내지 S913에 대응한다. 또한, 화상 유지 단계는, 예를 들어 스텝 S926, S942, S954에 대응한다. 화상 변환 단계는, 예를 들어 스텝 S925, S941, S952, S953에 대응한다. 조작 접수 단계는, 예를 들어 조작 접수부(195)에 의해 행하여진다. 또한, 화상 합성 단계는, 예를 들어 스텝 S926, S942, S954에 대응한다. 또한, 제어 단계는, 예를 들어 스텝 S927 또는 S970에 대응한다.
또한, 본 발명의 실시 형태에서 설명한 처리 단계는, 이들 일련의 단계를 갖는 방법으로서 파악해도 되고, 또한, 이들 일련의 단계를 컴퓨터에 실행시키기 위한 프로그램 내지 그 프로그램을 기억하는 기록 매체로서 파악해도 된다.

Claims (30)

  1. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과,
    상기 촬상 동화상을 구성하는 제1 촬상 화상과 상기 촬상 동화상의 시간축에서 상기 제1 촬상 화상보다도 후에 위치하는 제2 촬상 화상에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 변환 정보를 산출하는 변환 정보 산출 수단과,
    상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과,
    상기 산출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과,
    상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과,
    상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과,
    상기 합성 화상을 출력하는 출력 수단과,
    상기 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서,
    상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 제2 촬상 화상을 상기 이력 화상에 덮어 써서 합성해서 상기 합성 화상으로 하고, 상기 합성 화상을 새로운 이력 화상으로서 상기 화상 유지 수단에 유지시키는 것을 특징으로 하는 화상 처리 장치.
  3. 제2항에 있어서,
    상기 화상 합성 수단은, 상기 변환된 제2 촬상 화상의 화질을 상기 이력 화상에 따라서 변환함으로써 상기 화상 변환 수단에 의해 변환된 상기 제2 촬상 화상을 상기 이력 화상에 덮어 써서 합성하는 것을 특징으로 하는 화상 처리 장치.
  4. 제3항에 있어서,
    상기 화상 합성 수단은, 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 상기 제2 촬상 화상을 상기 새로운 이력 화상에 덮어 써서 새로운 합성 화상으로 하고,
    상기 제어 수단은, 상기 새로운 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 것을 특징으로 하는 화상 처리 장치.
  5. 제4항에 있어서,
    상기 화상 유지 수단에 유지되어 있는 상기 새로운 이력 화상으로부터 상기 출력 수단에 출력시키는 출력 화상을 취출하는 출력 화상 취출 수단을 더 포함하고,
    상기 화상 합성 수단은, 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하고,
    상기 제어 수단은, 상기 새로운 출력 화상을 상기 출력 수단에 순차적으로 출력시키는 것을 특징으로 하는 화상 처리 장치.
  6. 제5항에 있어서,
    상기 출력 화상 취출 수단은, 상기 화상 유지 수단의 유지 영역에서의 상기 변환된 제2 촬상 화상의 위치 및 크기와 상기 유지 영역에서의 상기 출력 화상의 위치 및 크기에 기초하여 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 출력 화상에 덮어 쓰는 위치 및 크기를 산출하고,
    상기 화상 합성 수단은, 상기 화질이 변환되기 전의 상기 화상 변환 수단에 의해 변환된 제2 촬상 화상을 상기 출력 화상에 상기 산출된 위치 및 크기에 기초해서 덮어 써서 합성하는 것을 특징으로 하는 화상 처리 장치.
  7. 제5항에 있어서,
    상기 출력 화상 취출 수단은, 상기 새로운 이력 화상에 포함되는 상기 변환 된 제2 촬상 화상의 적어도 일부가 상기 출력 화상을 취출하기 위한 영역인 출력 영역 밖으로 삐어져 나와 있는 경우에는 상기 삐어져 나와 있는 화상 부분의 방향으로 상기 출력 영역을 이동시켜 상기 새로운 이력 화상으로부터 상기 출력 화상을 취출하는 것을 특징으로 하는 화상 처리 장치.
  8. 제3항에 있어서,
    상기 화질은, 해상도 및 압축률 중의 적어도 한 쪽인 것을 특징으로 하는 화상 처리 장치.
  9. 제2항에 있어서,
    상기 화상 유지 수단에 유지되어 있는 상기 새로운 이력 화상으로부터 상기 산출된 변환 정보에 기초해서 산출된 영역에 포함되는 화상을 상기 출력 수단에 출력시키는 출력 화상으로서 취출하는 출력 화상 취출 수단을 포함하고,
    상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 변환되기 전의 상기 제2 촬상 화상을 상기 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하고,
    상기 제어 수단은, 상기 새로운 출력 화상을 상기 출력 수단에 순차적으로 출력시키는 것을 특징으로 하는 화상 처리 장치.
  10. 제9항에 있어서,
    상기 출력 화상 취출 수단은, 상기 산출된 변환 정보에 기초하여 상기 화상 변환 수단에 의한 상기 제2 촬상 화상의 변환 방향과는 역방향으로 상기 출력 화상을 변환하고,
    상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 변환되기 전의 상기 제2 촬상 화상을 상기 변환된 출력 화상에 덮어 써서 합성해서 새로운 출력 화상으로 하는 것을 특징으로 하는 화상 처리 장치.
  11. 제2항에 있어서,
    상기 화상 변환 수단은, 상기 산출된 변환 정보에 기초하여 상기 제2 촬상 화상의 변환의 방향과는 역방향으로 상기 이력 화상을 변환하는 것을 특징으로 하는 화상 처리 장치.
  12. 제2항에 있어서,
    상기 변환 정보는, 확대 축소와 이동과 회전에 관한 요소를 포함하고,
    상기 화상 변환 수단은, 상기 산출된 변환 정보에 포함되는 이동 및 회전에 관한 요소에 기초하여 상기 제2 촬상 화상을 변환함과 함께 상기 산출된 변환 정보에 포함되는 확대 축소에 관한 요소에 기초하여 상기 이력 화상을 변환하는 것을 특징으로 하는 화상 처리 장치.
  13. 제12항에 있어서,
    상기 화상 변환 수단은, 상기 제2 촬상 화상의 변환 방향과는 역방향으로 상 기 이력 화상을 변환하는 것을 특징으로 하는 화상 처리 장치.
  14. 제1항에 있어서,
    상기 변환 정보 산출 수단은, 상기 촬상 동화상을 구성하는 프레임마다 상기 변환 정보를 순차적으로 산출하고,
    상기 화상 변환 수단은, 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 상기 프레임마다 변환하고,
    상기 화상 합성 수단은, 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 상기 프레임마다 순차적으로 합성하고,
    상기 제어 수단은, 상기 합성 화상을 상기 프레임마다 순차적으로 출력시키는 것을 특징으로 하는 화상 처리 장치.
  15. 제1항에 있어서,
    상기 제1 촬상 화상 및 상기 제2 촬상 화상의 각각은, 상기 촬상 동화상을 구성하는 연속하는 2개의 프레임에 대응하는 화상인 것을 특징으로 하는 화상 처리 장치.
  16. 제15항에 있어서,
    상기 변환 정보는, 상기 제1 촬상 화상 또는 상기 제2 촬상 화상이 촬상되었을 때의 상기 촬상 장치의 움직임 정보이며,
    상기 변환 정보 산출 수단은, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 비교함으로써 상기 변환 정보를 산출하는 것을 특징으로 하는 화상 처리 장치.
  17. 제15항에 있어서,
    상기 변환 정보는, 상기 제1 촬상 화상 또는 상기 제2 촬상 화상이 촬상되었을 때의 상기 촬상 장치와 피사체의 상대적인 움직임량에 관한 움직임 정보이며,
    상기 변환 정보 산출 수단은, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 비교함으로써 상기 변환 정보를 산출하는 것을 특징으로 하는 화상 처리 장치.
  18. 제1항에 있어서,
    상기 변환 정보 산출 수단은, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 구성하는 각 화소에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에서의 특징점을 추출하는 특징점 추출 수단과,
    상기 추출된 각 특징점에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 움직임량을 산출하는 움직임량 산출 수단과,
    상기 산출된 움직임량에 기초해서 소정의 변환 파라미터를 산출함으로써 상기 변환 정보를 산출하는 변환 파라미터 산출 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  19. 제18항에 있어서,
    상기 특징점 추출 수단은 멀티 코어 프로세서에 의해 구성되고,
    상기 멀티 코어 프로세서는, 상기 제1 촬상 화상 및 상기 제2 촬상 화상을 구성하는 각 화소에 대해서 SIMD 연산에 의해 병렬 처리함으로써 상기 제1 촬상 화상 및 상기 제2 촬상 화상에서의 특징량을 추출하는 것을 특징으로 하는 화상 처리 장치.
  20. 제18항에 있어서,
    상기 움직임량 산출 수단은 멀티 코어 프로세서에 의해 구성되고,
    상기 멀티 코어 프로세서는, 상기 추출된 각 특징점에 대해서 SIMD 연산에 의해 병렬 처리함으로써 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 움직임량을 산출하는 것을 특징으로 하는 화상 처리 장치.
  21. 제1항에 있어서,
    상기 촬상 화상을 압축하는 압축 수단을 포함하고,
    상기 합성 화상을 출력할 때의 상기 이력 화상은 압축 화상이며, 또한, 상기 제2 촬상 화상은 비압축 화상 또는 압축된 상기 이력 화상보다도 고해상도의 촬상 화상인 것을 특징으로 하는 화상 처리 장치.
  22. 촬상 장치에 의해 촬상된 촬상 동화상을 구성하는 제1 촬상 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하기 위한 변환 정보가 관련지어져 기록되어 있 는 상기 촬상 동화상을 취득하는 동화상 취득 수단과,
    상기 취득된 촬상 동화상으로부터 상기 변환 정보를 추출하는 변환 정보 추출 수단과,
    상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과,
    상기 추출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과,
    상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과,
    상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과,
    상기 합성 화상을 출력하는 출력 수단과,
    상기 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  23. 촬상 장치에 의해 촬상된 촬상 동화상을 구성하는 제1 촬상 화상 및 제2 촬상 화상 중의 적어도 한 쪽을 변환하기 위한 변환 정보를 상기 촬상 동화상을 구성하는 프레임마다 관련지어 기억하는 변환 정보 기억 수단과,
    상기 촬상 동화상을 취득하는 동화상 취득 수단과,
    상기 취득된 촬상 동화상에 관련지어 상기 변환 정보 기억 수단에 기억되어 있는 변환 정보를 취득하는 변환 정보 취득 수단과,
    상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과,
    상기 취득된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과,
    상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과,
    상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과,
    상기 합성 화상을 출력하는 출력 수단과,
    상기 합성 화상을 상기 출력 수단에 순차적으로 출력시키는 제어 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  24. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과,
    상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 촬상 화상마다 산출하는 변환 정보 산출 수단과,
    상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준 화상으로 하여 상기 산출된 변환 정보에 기초하여 해당 변환 정보에 관계되는 촬상 화상을 변환하는 화상 변환 수단과,
    상기 변환된 상기 촬상 화상을 유지하는 화상 유지 수단과,
    상기 화상 유지 수단에 최후에 유지된 상기 촬상 화상을 출력 수단에 순차적으로 출력시키는 제어 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  25. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과,
    상기 촬상 동화상을 구성하는 제1 촬상 화상과 상기 촬상 동화상의 시간축에서 상기 제1 촬상 화상보다도 후에 위치하는 제2 촬상 화상에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 변환 정보를 산출하는 변환 정보 산출 수단과,
    상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 유지하는 화상 유지 수단과,
    상기 산출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 수단과,
    상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 수단과,
    상기 접수된 선택 조작에 따라서 상기 화상 변환 수단에 의해 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 수단과,
    상기 합성 화상을 표시하는 표시 수단과,
    상기 합성 화상을 상기 표시 수단에 순차적으로 표시시키는 제어 수단을 포함하는 것을 특징으로 하는 동화상 재생 장치.
  26. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과,
    상기 촬상 동화상을 기억하는 촬상 동화상 기억 수단과,
    상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 상기 촬상 동화상을 구성하는 프레임마다 산출하는 변환 정보 산출 수단과,
    상기 산출된 변환 정보를 상기 프레임마다 관련지어 상기 촬상 동화상 기억 수단에 기록하는 기록 제어 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  27. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 수단과,
    상기 촬상 동화상에 관한 메타데이터를 기억하는 메타데이터 기억 수단과,
    상기 촬상 동화상을 구성하는 촬상 화상 중의 적어도 1개의 촬상 화상을 기준으로 하여 다른 촬상 화상을 변환하기 위한 변환 정보를 상기 촬상 동화상을 구성하는 프레임마다 산출하는 변환 정보 산출 수단과,
    상기 산출된 변환 정보를 상기 촬상 동화상 및 상기 프레임에 관련지어 상기 메타데이터로서 상기 메타데이터 기억 수단에 기록하는 기록 제어 수단을 포함하는 것을 특징으로 하는 화상 처리 장치.
  28. 제27항에 있어서,
    상기 메타데이터는, 적어도 상기 촬상 장치의 좌표계로 기술되는 위치 정보 및 자세 정보를 포함하는 것을 특징으로 하는 화상 처리 장치.
  29. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 단계와,
    상기 촬상 동화상을 구성하는 제1 촬상 화상과 상기 촬상 동화상의 시간축에서 상기 제1 촬상 화상보다도 후에 위치하는 제2 촬상 화상에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 변환 정보를 산출하는 변환 정보 산출 단계와,
    상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 화상 유지 수단에 유지시키는 화상 유지 단계와,
    상기 산출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 단계와,
    상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 단계와,
    상기 접수된 선택 조작에 따라서 상기 화상 변환 단계에서 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화상 합성 단계와,
    상기 합성 화상을 순차적으로 출력시키는 제어 단계를 포함하는 것을 특징으로 하는 화상 처리 방법.
  30. 촬상 장치에 의해 촬상된 촬상 동화상을 입력하는 동화상 입력 단계와,
    상기 촬상 동화상을 구성하는 제1 촬상 화상과 상기 촬상 동화상의 시간축에서 상기 제1 촬상 화상보다도 후에 위치하는 제2 촬상 화상에 기초하여 상기 제1 촬상 화상 및 상기 제2 촬상 화상에 관한 변환 정보를 산출하는 변환 정보 산출 단계와,
    상기 제1 촬상 화상을 포함하고 상기 촬상 동화상의 시간축에서 상기 제2 촬상 화상보다도 전에 위치하는 각 화상을 이력 화상으로서 화상 유지 수단에 유지시키는 화상 유지 단계와,
    상기 산출된 변환 정보에 기초하여 상기 이력 화상 및 상기 제2 촬상 화상 중의 적어도 한 쪽을 변환하는 화상 변환 단계와,
    상기 화상 변환 수단에 의한 변환의 대상으로 되는 화상을 선택하는 선택 조작을 접수하는 조작 접수 단계와,
    상기 접수된 선택 조작에 따라서 상기 화상 변환 단계에서 적어도 한 쪽이 변환된 상기 이력 화상 및 상기 제2 촬상 화상을 합성해서 합성 화상으로 하는 화 상 합성 단계와,
    상기 합성 화상을 순차적으로 출력시키는 제어 단계를 컴퓨터에 실행시키는 것을 특징으로 하는 프로그램.
KR1020097017463A 2007-08-24 2008-08-22 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램 KR20100043139A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007219093 2007-08-24
JPJP-P-2007-219093 2007-08-24
JP2007317767A JP2009077362A (ja) 2007-08-24 2007-12-07 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JPJP-P-2007-317767 2007-12-07

Publications (1)

Publication Number Publication Date
KR20100043139A true KR20100043139A (ko) 2010-04-28

Family

ID=40387135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097017463A KR20100043139A (ko) 2007-08-24 2008-08-22 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램

Country Status (8)

Country Link
US (1) US8963951B2 (ko)
EP (1) EP2180701A4 (ko)
JP (1) JP2009077362A (ko)
KR (1) KR20100043139A (ko)
BR (1) BRPI0807370A2 (ko)
RU (1) RU2009131724A (ko)
TW (1) TW200922324A (ko)
WO (1) WO2009028413A1 (ko)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5092722B2 (ja) 2007-12-07 2012-12-05 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2009151896A (ja) 2007-12-21 2009-07-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP4678404B2 (ja) 2007-12-27 2011-04-27 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5133816B2 (ja) * 2008-08-22 2013-01-30 オリンパスイメージング株式会社 カメラ、画像合成方法、およびプログラム
JP5343676B2 (ja) * 2009-04-08 2013-11-13 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
JP5436975B2 (ja) * 2009-08-21 2014-03-05 オリンパスイメージング株式会社 カメラ、カメラの表示制御方法、表示装置、及び表示方法
GB2481606B (en) * 2010-06-29 2017-02-01 Promethean Ltd Fine object positioning
TWI435261B (zh) * 2010-08-17 2014-04-21 Wistron Corp 電子裝置及其面板化操作介面之建立方法
KR20120071738A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 비정형 환경 대응 이동체 운용을 위한 환경 센서 안정화 장치 및 방법
WO2013003485A1 (en) * 2011-06-28 2013-01-03 Inview Technology Corporation Image sequence reconstruction based on overlapping measurement subsets
CN103389879B (zh) 2012-05-10 2016-08-17 慧荣科技股份有限公司 电子装置以及由电子装置传送数据至显示设备的方法
US9769473B2 (en) * 2012-06-08 2017-09-19 Apple Inc. Predictive video coder with low power reference picture transformation
JP5602818B2 (ja) * 2012-11-07 2014-10-08 オリンパスイメージング株式会社 カメラ、画像再生装置、画像合成方法、およびプログラム
US9179071B2 (en) 2013-02-01 2015-11-03 Htc Corporation Electronic device and image selection method thereof
US9374532B2 (en) 2013-03-15 2016-06-21 Google Inc. Cascaded camera motion estimation, rolling shutter detection, and camera shake detection for video stabilization
US9767533B2 (en) * 2015-02-16 2017-09-19 Adobe Systems Incorporated Image resolution enhancement based on data from related images
WO2016148322A1 (ko) * 2015-03-19 2016-09-22 삼성전자 주식회사 영상 정보를 기반으로 음성 구간을 검출하는 방법 및 장치
JP6640460B2 (ja) * 2015-03-30 2020-02-05 富士フイルム株式会社 画像撮影装置、画像撮影方法、プログラムおよび記録媒体
KR102591581B1 (ko) * 2016-01-07 2023-10-20 삼성전자주식회사 촬영 디바이스 및 그 제어 방법
JP2018055589A (ja) * 2016-09-30 2018-04-05 セイコーエプソン株式会社 プログラム、物体の追跡方法、表示装置
JP2018148272A (ja) * 2017-03-01 2018-09-20 オリンパス株式会社 撮像装置、画像処理装置、撮像方法およびプログラム
CN108062760B (zh) * 2017-12-08 2020-12-08 广州市百果园信息技术有限公司 视频编辑方法、装置及智能移动终端
US11116587B2 (en) 2018-08-13 2021-09-14 Theator inc. Timeline overlay on surgical video
CA3126444A1 (en) 2019-02-21 2020-08-27 Theator inc. Systems and methods for analysis of surgical videos
US20200273563A1 (en) 2019-02-21 2020-08-27 Theator inc. Adjusting an operating room schedule
CN110428484B (zh) * 2019-07-05 2023-01-10 广州多益网络股份有限公司 一种基于3d转2d的游戏换装方法
US10990167B1 (en) * 2019-10-22 2021-04-27 Varjo Technologies Oy Display apparatus and method using projection matrices to generate image frames
JP2021149671A (ja) * 2020-03-19 2021-09-27 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム
US20220350620A1 (en) * 2021-04-30 2022-11-03 Zebra Technologies Corporation Industrial ethernet configuration tool with preview capabilities
CN113793259B (zh) * 2021-11-15 2022-02-15 深圳思谋信息科技有限公司 图像变焦方法、计算机设备和存储介质

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5489274A (en) * 1992-10-09 1996-02-06 Boston Scientific Corporation Rotatable medical valve closure
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
JP2989364B2 (ja) 1992-03-12 1999-12-13 シャープ株式会社 画像処理装置及び画像処理方法
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US5999652A (en) * 1995-05-25 1999-12-07 Lockheed Martin Corporation Plume or combustion detection by time sequence differentiation of images over a selected time interval
JPH0962861A (ja) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
US5706416A (en) * 1995-11-13 1998-01-06 Massachusetts Institute Of Technology Method and apparatus for relating and combining multiple images of the same scene or object(s)
ATE280978T1 (de) * 1997-01-30 2004-11-15 Yissum Res Dev Co Mosaikbildverarbeitungssystem
JPH11120353A (ja) * 1997-10-16 1999-04-30 Matsushita Electric Ind Co Ltd 画像表示装置
JP4154012B2 (ja) * 1997-10-30 2008-09-24 株式会社日立製作所 画像表示方法を実現するためのプログラムを記録した記録媒体及び画像合成装置
JPH11289517A (ja) 1998-04-02 1999-10-19 Sony Corp 再生装置及び再生方法
US6278466B1 (en) * 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
JP4519364B2 (ja) 2001-05-31 2010-08-04 株式会社日立メディコ パノラマ画像表示方法、ソフトウエア及び装置
US7119837B2 (en) * 2002-06-28 2006-10-10 Microsoft Corporation Video processing system and method for automatic enhancement of digital video
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
US7085434B2 (en) * 2002-10-01 2006-08-01 International Business Machines Corporation Sprite recognition in animated sequences
GB0227570D0 (en) * 2002-11-26 2002-12-31 British Telecomm Method and system for estimating global motion in video sequences
JP4419499B2 (ja) * 2003-01-07 2010-02-24 セイコーエプソン株式会社 画像生成装置、画像ずれ量検出装置、画像生成方法、画像ずれ量検出方法、画像生成プログラムおよび画像ずれ量検出プログラム
US7139006B2 (en) * 2003-02-04 2006-11-21 Mitsubishi Electric Research Laboratories, Inc System and method for presenting and browsing images serially
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP4583717B2 (ja) 2003-03-03 2010-11-17 ソニー株式会社 撮像装置及び方法、画像情報提供システム、プログラム、並びに制御装置
CN100498835C (zh) * 2003-09-08 2009-06-10 日本电气株式会社 图像组合***、图像组合方法
JP4180083B2 (ja) 2003-09-26 2008-11-12 シャープ株式会社 パノラマ画像作成装置及びパノラマ画像撮影装置
JP2005217874A (ja) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc ファイル管理方法
JP4340968B2 (ja) * 2004-05-07 2009-10-07 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7440008B2 (en) * 2004-06-15 2008-10-21 Corel Tw Corp. Video stabilization method
US20070103544A1 (en) * 2004-08-26 2007-05-10 Naofumi Nakazawa Panorama image creation device and panorama image imaging device
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
US7548659B2 (en) * 2005-05-13 2009-06-16 Microsoft Corporation Video enhancement
US7460730B2 (en) * 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching
US20070058717A1 (en) * 2005-09-09 2007-03-15 Objectvideo, Inc. Enhanced processing for scanning video
JP4620607B2 (ja) * 2006-02-24 2011-01-26 株式会社モルフォ 画像処理装置

Also Published As

Publication number Publication date
TW200922324A (en) 2009-05-16
EP2180701A4 (en) 2011-08-10
EP2180701A1 (en) 2010-04-28
WO2009028413A1 (ja) 2009-03-05
US20100097398A1 (en) 2010-04-22
US8963951B2 (en) 2015-02-24
RU2009131724A (ru) 2011-02-27
BRPI0807370A2 (pt) 2014-05-06
JP2009077362A (ja) 2009-04-09

Similar Documents

Publication Publication Date Title
KR20100043139A (ko) 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램
JP4678404B2 (ja) 撮像装置、その制御方法およびプログラム
JP5092722B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2009081806A1 (ja) 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP5223318B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4623199B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4623201B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR20100043138A (ko) 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램
JP4623200B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4692550B2 (ja) 画像処理装置、その処理方法およびプログラム
JP4697221B2 (ja) 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
CN101617531A (zh) 图像处理装置、运动图像播放装置及其处理方法和程序
JP2023042257A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid