JP5531467B2 - 撮像装置、および画像処理方法、並びにプログラム - Google Patents

撮像装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP5531467B2
JP5531467B2 JP2009158570A JP2009158570A JP5531467B2 JP 5531467 B2 JP5531467 B2 JP 5531467B2 JP 2009158570 A JP2009158570 A JP 2009158570A JP 2009158570 A JP2009158570 A JP 2009158570A JP 5531467 B2 JP5531467 B2 JP 5531467B2
Authority
JP
Japan
Prior art keywords
image
subject
information
highlight scene
subject distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009158570A
Other languages
English (en)
Other versions
JP2011015256A5 (ja
JP2011015256A (ja
Inventor
研一郎 長尾
篤 前
俊二 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009158570A priority Critical patent/JP5531467B2/ja
Priority to US12/802,433 priority patent/US20110001800A1/en
Priority to CN201010218371.9A priority patent/CN101945212B/zh
Publication of JP2011015256A publication Critical patent/JP2011015256A/ja
Publication of JP2011015256A5 publication Critical patent/JP2011015256A5/ja
Application granted granted Critical
Publication of JP5531467B2 publication Critical patent/JP5531467B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、撮像装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、撮像装置において撮影された画像から代表画像としてのハイライトシーンを選択する処理を行う撮像装置、および画像処理方法、並びにプログラムに関する。
動画撮影可能な撮像装置で多数の動画を撮り貯めた場合、その再生には長時間を要する。このような場合、撮影画像から代表的なシーンを選択して表示するハイライトシーン抽出表示処理が利用される。ハイライトシーン抽出処理については、例えば特許文献1(特開2007−134771号公報)に記載がある。
ハイライトシーンの抽出手法には様々な手法がある。例えば、顔認識技術を適用し、撮影画像である動画像構成フレームから顔検出フレームを抽出してハイライトシーンとする手法がある。あるいは、撮影時のカメラの操作情報であるズーム操作情報などを撮影画像の属性情報として記録し、ユーザ操作の発生を示す属性情報の対応付けられたフレーム画像をハイライトシーンとして抽出する手法などがある。
これとは別に、近年、撮像機器として、複数のレンズと撮像素子を搭載し、立体画像表示を行うための異なる視点の画像を撮影する装置が開発されている。例えば、カメラに備えられた複数のレンズと撮像素子によって、立体画像表示に適用する左眼用画像(L画像)と右眼用画像(R画像)を撮影し、表示装置においてこれらの画像を利用して立体画像を表示するものである。
ところが、前述のハイライトシーン抽出手法は、このような立体画像に適応したものとなっていないのが現状である。前述のハイライトシーン抽出手法は2次元画像を考慮して考案されているため、2次元画像のシーンとしては適切なハイライトシーンであるが、立体画像として再生した場合にはハイライトシーンとしてふさわしくない場合が発生する。
例えば、顔画像が認識されたフレームをハイライトとする場合、顔の位置がフレームの端部に位置するような場合でもハイライトシーンとして抽出するが、このような画像は立体感を得られにくいという問題がある。また、ズーム操作を行ったフレームをハイライトシーンとした場合、被写体がしだいに遠ざかっていくようなシーンもハイライトシーンとして設定される可能性がある。このようなシーンは、被写体に対する注目度が低下している場合であり、ハイライトシーンとして抽出することが好ましいとは言えない。
特開2007−134771号公報
本発明は、例えば上記問題点に鑑みてなされたものであり、立体画像に適応した代表画像であるハイライトシーンの抽出を行う撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
複数視点からの画像を撮影する複数の撮像部と、
前記複数の撮像部の各々において計測された被写体距離を撮影画像の属性情報として記録部に記録する処理を行う記録制御部と、
前記属性情報に含まれる被写体距離情報を適用して、ハイライトシーン抽出処理を行う画像選択制御部を有し、
前記画像選択制御部は、
前記属性情報に含まれる前記複数の撮像部各々に対応する複数の被写体距離を適用して被写体が画像フレームの中央領域に位置するか否かを判定し、中央領域に位置すると判定した画像をハイライトシーンとして選択する処理を行う構成である撮像装置にある。
さらに、本発明の撮像装置の一実施態様において、前記画像選択制御部は、時系列の撮影画像の被写体距離を参照して被写体が時間経過に伴い撮像装置に近づく画像であるか否かを判定し、近づく画像をハイライトシーンとして選択する処理を行う。
さらに、本発明の撮像装置の一実施態様において、前記画像選択制御部は、被写体が画像フレームの中央領域に位置すると判定した画像を含む連続する撮影画像によって構成される動画像をハイライトシーンとして選択する処理を行う。
さらに、本発明の撮像装置の一実施態様において、前記記録制御部は、撮影された動画像の記録ファイルとして設定されるストリームファイルに対応する管理ファイルであるクリップ情報ファイル、または、再生リストを格納したであるプレイリストファイルのいずれかに前記被写体距離情報を記録する。
さらに、本発明の撮像装置の一実施態様において、前記記録制御部は、前記被写体距離情報を、前記クリップ情報ファイルに記録する場合は前記被写体距離の計測された画像の位置を示すタイムオフセット情報として、クリップ情報ファイルに規定されるクリップのプレゼンテーションタイムスタートタイムからのオフセット時間を記録し、前記被写体距離情報を、プレイリストファイルに記録する場合は前記被写体距離の計測された画像の位置を示すタイムオフセット情報として、プレイリストに含まれるプレイアイテムに対応して設定されるインタイム(InTime)からのオフセット時間を記録する。
さらに、本発明の撮像装置の一実施態様において、前記記録制御部は、前記撮像部において撮影された画像に顔領域が含まれるか否かの顔認識情報を前記属性情報に含めて記録部に記録する処理を行い、前記画像選択制御部は、前記属性情報に含まれる顔認識情報を参照して、顔認識がなされた画像を前記ハイライトシーンとして選択する処理を行う構成である。
さらに、本発明の撮像装置の一実施態様において、前記記録制御部は、前記撮像部において撮影された画像の撮影位置を示すGPS情報を前記属性情報に含めて記録部に記録する処理を行い、前記属性情報に含まれるGPS情報を参照して、特定位置の撮影画像を前記ハイライトシーンとして選択する処理を行う構成である。
さらに、本発明の撮像装置の一実施態様において、前記複数の撮像部は3以上の撮像部によって構成され、前記記録制御部は、前記3以上の撮像部の各々において計測された被写体距離を撮影画像の属性情報として記録部に記録する処理を行い、前記画像選択制御部は、前記属性情報に含まれる前記3以上の撮像部各々に対応する複数の被写体距離を適用して被写体が画像フレームの中央領域に位置するか否かを判定し、中央領域に位置すると判定した画像をハイライトシーンとして選択する処理を行う。
さらに、本発明の第2の側面は、
撮像装置において実行する画像処理方法であり、
撮像部が、複数視点からの画像を撮影する撮像ステップと、
記録制御部が、前記複数の撮像部の各々において計測された被写体距離を撮影画像の属性情報として記録部に記録する処理を行う記録制御ステップと、
画像選択制御部が、前記属性情報に含まれる被写体距離情報を適用して、ハイライトシーン抽出処理を行う画像選択制御ステップを有し、
前記画像選択制御ステップは、
前記属性情報に含まれる前記複数の撮像部各々に対応する複数の被写体距離を適用して被写体が画像フレームの中央領域に位置するか否かを判定し、中央領域に位置すると判定した画像をハイライトシーンとして選択する処理を行うステップである画像処理方法にある。
さらに、本発明の第3の側面は、
撮像装置において画像処理を実行させるプログラムであり、
撮像部に、複数視点からの画像を撮影させる撮像ステップと、
記録制御部に、前記複数の撮像部の各々において計測された被写体距離を撮影画像の属性情報として記録部に記録する処理を行わせる記録制御ステップと、
画像選択制御部に、前記属性情報に含まれる被写体距離情報を適用して、ハイライトシーン抽出処理を行わせる画像選択制御ステップを有し、
前記画像選択制御ステップは、
前記属性情報に含まれる前記複数の撮像部各々に対応する複数の被写体距離を適用して被写体が画像フレームの中央領域に位置するか否かを判定し、中央領域に位置すると判定した画像をハイライトシーンとして選択する処理を行わせるステップであるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例によれば、複数視点からの撮影画像を記録する撮像装置において、各視点対応の撮像部において計測した被写体距離情報を撮影画像の属性情報として記録する。またハイライトシーン選択処理に際して、複数の撮像部からの被写体距離情報を適用して被写体が撮影画像の中央部に位置するか否かを判定し、中央部に位置すると判定された場合にハイライトシーンとして選択する。また、被写体が近づいているか否かを判定し、近づいている場合にハイライトシーンとして選択する。本構成によれば立体(3D)画像表示に最適なハイライトシーン選択が実現される。
本発明の一実施例に係る撮像装置の構成例について説明する図である。 本発明の一実施例に係る撮像装置のハードウェア構成例について説明する図である。 被写体距離の計測処理例について説明する図である。 ハイライトシーン選択基準の一例について説明する図である。 ハイライトシーン選択基準の一例について説明する図である。 ハイライトシーン選択基準の一例について説明する図である。 ハイライトシーン選択基準の例について説明する図である。 本発明の一実施例に係る撮像装置の実行するハイライトシーン選択処理のシーケンスについて説明するフローチャートを示す図である。 本発明の一実施例に係る撮像装置の記録データのディレクトリ構成例について説明する図である。 ハイライトシーン選択情報の記録例について説明する図である。 本発明の一実施例に係る撮像装置の実行するハイライトシーン選択処理のシーケンスについて説明するフローチャートを示す図である。 ハイライトシーン選択情報に記録されるタイムオフセットについて説明する図である。 本発明の一実施例に係る撮像装置の記録データのディレクトリ構成例について説明する図である。 ハイライトシーン選択情報の記録例について説明する図である。 ハイライトシーン選択情報に記録されるタイムオフセットについて説明する図である。 ハイライトシーン選択情報の記録例について説明する図である。 ハイライトシーン選択情報の記録例について説明する図である。 ハイライトシーン選択情報の記録例について説明する図である。 ハイライトシーン選択情報の記録例について説明する図である。 撮像装置における距離計測処理例について説明する図である。 撮像装置における被写体距離の計測およびハイライトシーン選択処理例について説明する図である。
以下、図面を参照しながら本発明の撮像装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は、以下の項目に従って行う。
1.撮像装置の構成例について
2.被写体距離に基づくハイライトシーン抽出処理について
3.ハイライトシーン選択情報の記録構成例について
3−a.クリップ情報ファイルに対するハイライトシーン選択情報の記録例
3−b.プレイリストファイルに対するハイライトシーン選択情報の記録例
4.ハイライトシーン選択情報として利用するその他の情報例について
5.多眼構成の撮像装置の場合の被写体距離情報の取得とハイライトシーン選択の例について
[1.撮像装置の構成例について]
まず、本発明の一実施例に係る撮像装置の構成例について図1以下を参照して説明する。
図1は、本発明の一実施例に係る撮像装置の外観を示す図である。本発明に係る撮像装置100は、複数のレンズと撮像素子を有し、複数視点からの画像の撮影が可能な構成を持つ。すなわち立体画像表示処理に適用する異なる視点からの画像を撮影することが可能な構成である。
図1には、本発明の一実施例に係る撮像装置の外観として(a)前面図と、(b)背面図を示している。(a)前面図に示すように、撮像装置100は、視点からの画像を撮影するための2つのレンズ、すなわちレンズ101,レンズ102を有している。シャッター103の操作により、画像の撮影が実行される。なお、撮像装置100は、静止画のみならず動画の撮影も可能である。
撮像装置100は、静止画撮影モードと動画撮影モードのモード設定が可能であり、静止画撮影モードにおいては、シャッター103を1回押下することで静止画の撮影を行う。動画撮影モードに設定した場合は、シャッター103を1回押下することで動画像の記録を開始し、次にシャッター103を1回押下することで動画像の記録を終了する。静止画、動画とも、レンズ101,レンズ102を介した異なる視点からの画像が個別に撮像装置100内のメモリに記録されることになる。
また、撮像装置100は、通常画像撮影モード(2Dモード)と、立体画像撮影モード(3Dモード)との切り換えが可能であり、通常画像撮影モードの場合は、一般的なカメラと同様、レンズ101,レンズ102のいずれか一方のレンズのみを利用した撮影が実行される。
図1の(b)背面図に示すように、撮像装置100の背面には、撮影画像の表示処理、あるいはユーザインタフェースとして利用される表示部104が設けられている。表示部104には、撮像装置による現撮影画像としてのスルー画や、メモリや記録媒体に記録された画像が表示される。表示画像は、静止画、動画、立体画像表示などユーザの指示に応じて切り換えることができる。
さらに、メモリや記録媒体に記録された動画像の表示態様としてハイライトシーン表示を行うことができる。これは動画像を構成する多数の画像フレームから、予め規定された所定のアルゴリズムに従ってハイライトシーンを抽出し、抽出したハイライトシーン画像のみを順次、表示する処理である。ハイライトシーンの抽出手法については、後段で詳細に説明する。
図2は、本発明の一実施例に係る撮像装置100のハードウェア構成を示す図である。第1撮像部(L)151は、図1に示すレンズ101,第2撮像部(R)152は、図1に示すレンズ102を備えた画像撮影部に相当する。各撮像部151,152はレンズと撮像素子を備え、レンズを介して取得された被写体画像が撮像素子に入力され、光電変換による電気信号を出力する。立体画像撮影モード(3Dモード)の撮影時には、第1撮像部(L)151は左眼用画像(L画像)、第2撮像部(R)152は右眼用画像(R画像)を撮影する。
各撮像部151,152の出力は撮像制御部153を介してシステム制御部154に入力される。システム制御部156は、撮影モード、例えば静止画モード、動画モード、2次元モード、3次元モードの各設定モードに応じて、各撮像部からの入力信号に対する処理態様を設定して撮像装置の各構成部の制御を行い、処理の結果として生成された記録データを記録媒体166、あるいは外部記録媒体167に記録する。システム制御部156はこのように記録制御部として機能する。
例えば、動画像記録に際しては、動画像処理部163において、MPEG2TSデータへのエンコード処理が実行され、静止画記録に際しては、静止画像処理部164においてJPEGデータへのエンコード処理などが行われる。また、3次元モードの画像撮影時には動画像処理部163、または静止画像処理部164において、各撮像部151,152の撮像画像に基づく3次元画像表示用の画像データ生成が行われる。例えば動画像のデータとしてはAVCHDフォーマットに従った記録データの生成が行われる。
なお、立体画像(3D)画像として動画データが記録される場合は、第1撮像部(L)151と第2撮像部(R)152とにおいて撮影された2つの画像がペア画像として記録される。表示処理に際しては、これらのペア画像が交互に表示される。ユーザはシャッター式眼鏡を装着して表示画像を観察することで、第1撮像部(L)の撮影画像を左眼のみで観察し、第2撮像部(R)152の撮影画像を右眼のみで観察する。この様な処理によって立体画像(3D)が観察できる。なお、これは3D画像記録表示方式の一例であり、この他の方式を適用してもよい。
なお、各撮像部151,152の撮像画像のメディア(記録媒体166や外部記録媒体167)に対する記録処理に際しては、各画像フレームの属性情報も併せて記録される。この属性情報には、焦点距離から算出した被写体距離情報が含まれる。なお、撮像装置は、オートフォーカス機能を備えており、各撮像部151,152において個別に実行される自動焦点調整処理に際して各撮像部151,152から被写体までの距離が逐次計測される。
計測距離情報は、距離情報記録部161に随時格納される。撮影処理が実行された場合は、被写体距離情報が各撮影画像に対応する属性情報として記録される。すなわち、撮像画像を記録するメディア(記録媒体166や外部記録媒体167)に画像に併せて記録される。具体的な記録構成については後段で詳細に説明する。
なお、撮像装置100は、複数の撮像部151,152を有しており、焦点距離や被写体距離は、それぞれの撮像部対応の距離として個別に計測される。左側(L)レンズによって撮影されたL画像に対応する被写体距離を[被写体距離L]、右側(R)レンズによって撮影されたR画像に対応する被写体距離を[被写体距離R]とする。これらの情報が画像に対応する属性情報として記録される。
なお、音声情報についても、マイク154によって取得されA/D変換部155においてデジタル変換なされた後、画像に対応する音声情報としてメディア(記録媒体166や外部記録媒体167)に記録される。
表示部160は、スルー画やメディア(記録媒体166や外部記録媒体167)に記録された画像の表示、その他、設定情報の表示処理などに利用される。スピーカ159は、記録された音声情報などを出力する。例えばメディア(記録媒体166や外部記録媒体167)に記録された画像データの再生処理に際して、記録されたデジタルデータがD/A変換部158においてアナログ変換され出力される。
ユーザインタフェース157は、ユーザによる操作部であり、例えば撮影開始、終了等の指示情報の入力の他、静止画モード、動画モード2Dモード、3Dモードなどの撮影モードの設定、さらに、表示部160における画像の表示態様の指定などの指示情報などの入力部として利用される。なお、表示部160に対する表示処理は、静止画表示、動画表示、2D表示、3D表示、さらにハイライトシーン表示など、様々な表示態様がある。
なお、後段で詳細に説明するが、記録媒体に記録された動画像などの撮影画像から特定のハイライトシーンのみを選択して表示するハイライトシーン表示を行う場合は、撮影画像に対応して記録された属性情報を参照して特定の画像を選択する処理が行われる。このハイライトシーン選択表示処理はシステム制御部156の制御によって行われる。すなわちシステム制御部156は、画像選択制御部、表示制御部としても機能する。
メモリ165は、撮像装置において撮影された画像の一時記憶領域や、撮像装置において実行するプログラム、システム制御部156や他の各処理部における処理に適用するパラメータ、データ処理のワークエリアなどに利用されるメモリである。
GPSユニット162は、GPS衛星との通信により撮像装置の位置情報を取得する。取得された位置情報は、撮影画像の各画像に対応する属性情報として、メディア(記録媒体166や外部記録媒体167)に記録される。
[2.被写体距離に基づくハイライトシーン抽出処理について]
前述したように、本発明の撮像装置100は、複数の撮像部151,152の焦点距離として計測される被写体距離情報を、各撮影画像の属性情報として画像に併せて記録する。なお、被写体距離の計測は、予め規定された所定のサンプリング間隔で実行される。図3を参照して被写体距離の計測処理例について説明する。
撮像装置は、第1撮像部(L)151のレンズの焦点距離を被写体距離Lとして計測し、第2撮像部(R)152のレンズの焦点距離を被写体距離Rとして、それぞれ計測する。図3は、サンプリング間隔T=3秒として、各サンプリングタイムごとの距離計測結果をグラフとして示した図である。
図3(a)が被写体距離L、図3(b)が被写体距離Rである。横軸が時間、縦軸が被写体距離を示している。本発明の撮像装置は、これらの被写体距離情報(被写体距離L、被写体距離R)を撮影画像の属性情報として記録する。
これらの被写体距離情報を用いて、ハイライトシーンの自動抽出処理を行う。
動画像を構成する多数の画像フレームから、ハイライトシーンを選択するためには、予め規定したハイライトシーン選択基準が適用される。図4以下を参照して、本発明の撮像装置において適用するハイライトシーン選択基準について説明する。
本発明の撮像装置は、ハイライトシーン選択処理に際して、1つまたは複数の選択基準を適用する。図4を参照してハイライトシーン選択基準の一例について説明する。
図4に示すハイライトシーン選択基準1は、
「被写体距離Lと被写体距離Rの差が小さいこと」
である。この条件を満足する画像は、被写体が画面の中央に位置すると判断してハイライトシーンとして抽出するものである。
図4には、
(1)NGシーン
(2)ハイライトシーン
(3)NGシーン
これらの3種類の画像フレームを示している。
(1)NGシーンは、被写体が画面左端に位置している。この場合、
被写体距離L<被写体距離R
となり、ハイライトシーンの画像として選択しない。
(3)NGシーンは、被写体が画面右端に位置している。この場合、
被写体距離L>被写体距離R
となり、ハイライトシーンの画像として選択しない。
(2)ハイライトシーンは、被写体が画面中央に位置している。この場合、
被写体距離L≒被写体距離R
となり、ハイライトシーンの画像として選択する。
なお、実際の処理としては、既定の閾値を適用して、被写体距離Lと被写体距離Rとの差分が閾値以下である、すなわち、
|被写体距離L−被写体距離R|<閾値
上記式を満足する場合に、その画像フレームをハイライトシーンとして選択する処理を行うことが可能である。
具体的処理例について、図5を参照して説明する。被写体距離Lと被写体距離Rの値の設定態様としては、図5(1a)〜(1c)の3パターンが想定される。すなわち、
(1a)被写体距離L<被写体距離R
(1b)被写体距離L≒被写体距離R
(1c)被写体距離L>被写体距離R
これら3パターンである。
本発明の撮像装置は、このような様々なパターンの被写体距離情報を用いて、図5(2)に示すような被写***置判定処理を実行してハイライトシーン選択を行う。すなわち、図5(2)に示すように、以下のような選択処理を行う。
|被写体距離L|>|被写体距離R|−ΔD2:画面中央に被写体がある(=(1b))と判断し、ハイライトシーンとして選択
|被写体距離L|<|被写体距離R|−ΔD2:画面左寄りに被写体がある(=(1a))と判断しNG、ハイライトシーンとして選択しない
|被写体距離R|>|被写体距離L|−ΔD2:画面中央に被写体がある(=(1b))と判断し、ハイライトシーンとして選択
|被写体距離R|<|被写体距離L|−ΔD2:画面右寄りに被写体がある(=(1c))と判断しNG、ハイライトシーンとして選択しない
このような判定処理によってハイライトシーン選択を実行する。
本発明の撮像装置において適用する、もう1つのハイライトシーン選択基準の一例について図6を参照して説明する。
図6に示すハイライトシーン選択基準2は、
「被写体が画面中央を近づいてくること」
である。この条件を満足する画像は、被写体が次第に撮像装置に向かって近づいていることを示し、撮影者が注目していると判断してハイライトシーンとして抽出するものである。
図6には、
(1)ハイライトシーン(近づく被写体)
(2)NGシーン(遠ざかる被写体)
これらの動画像フレームの例を示している。
それぞれ上からフレームf01〜f03であり、時間経過に従ったフレームを示している。
撮像装置は、動画像を構成する連続するフレームに対応して記録された属性情報中の距離情報を取得し、被写体距離がフレームの進行に伴って小さくなっているフレーム群を選択し、距離が最短になったシーンの前後数秒間のフレームをハイライトシーンとして抽出するといった処理を行う。なお、この場合のハイライトシーンは、短時間(数秒)の動画像となる。
図7に、本発明において採用されるハイライトシーン選択基準の例をまとめて示す。本発明において採用されるハイライトシーン選択基準は、例えば以下の基準である。
選択基準1:被写体距離L/Rの差が小さい場合(規定閾値ΔD2より小さい)、被写体が画面中央であると判断してハイライトシーンとする
選択基準2:被写体が画面中央を近づいてくるシーンをハイライトシーンとする
選択基準3:被写体が中央にある時間が、t秒以上続く場合に、そこから5秒をハイライトシーンとする。
選択基準4:被写体距離が予め規定した閾値ΔD1より小さい場合、そこを中心に前後5秒をハイライトシーンとする。
選択基準5:被写体距離が大きく変化したら、そこから5秒をハイライトシーンとする。
本発明の撮像装置は、例えばこれらの5つの選択基準を適用してハイライトシーン抽出を行う。なお、これら5つの1つ、または複数を選択的に利用する構成としてもよい。なお、上記の選択基準1は、図4、図5を参照して説明した選択基準であり、選択基準2は、図6を参照して説明した選択基準に対応する。
なお、図7に示す選択基準1〜5のいずれも、撮影画像に対応して記録される属性情報中の距離情報を適用したものである。本発明の撮像装置は、このように距離情報を用いてハイライトシーン選択を行う。
ハイライトシーンの選択処理は、例えばユーザによるハイライトシーン表示処理の実行指示に応じて行われる。ユーザは、ユーザインタフェースを介してハイライトシーン表示処理を実行させる。なお、ハイライトシーンの選択処理に際して、上述の選択基準1〜5のいずれを適用するかについてもユーザが任意に選択できる。
例えばユーザによるハイライトシーン再生処理が指示に応じてハイライトシーンの選択処理が実行され、選択基準を適用して選択されたハイライトシーンのみが表示部に表示される。
本発明の撮像装置において実行するハイライトシーン選択処理のシーケンス例について、図8に示すフローチャートを参照して説明する。図8に示すフローは、選択基準1と選択基準4を適用してハイライトシーンの選択を実行した場合のシーケンスを示している。この処理は、システム制御部156の制御の下に実行される。
なお、図8に示す例は、ハイライトシーン選択情報としての距離情報がクリップ情報ファイルに記録された場合の例である。図8のフローの説明の前に、動画像データの記録に際して設定されるファイルについて説明する。図9に動画像データのメディアに対する記録構成例としてBDMVディレクトリを示す。これはAVCHDフォーマットに従ったディレクトリ構成である。
図9に示すように、BDMVディレクトリには、プレイリストファイル(PLAYLIST)、クリップ情報ファイル(CLPINF)、ストリームファイル(STREAM)、インデックスファイル(INDEX.BDM)、ムービーオブジェクトファイル(MOVIEOBJ.BDM)の各ファイルが記録される。
プレイリストファイル(PLAYLIST)は、ユーザに見せるタイトルに対応して設けられ、少なくとも1以上のプレイアイテム(PlayItem)で構成される再生リストである。各プレイアイテムは、クリップに対する再生開始点(IN点)と再生終了点(OUT点)を持つことで、その再生区間を指定している。プレイリスト内の複数のプレイアイテムを時間軸上に並べることで、それぞれの再生区間の再生順序を指定することができる。
クリップ情報ファイル(CLPINF)は、動画像データを格納したストリームファイル(STREAM)と対で存在し、実際のストリームを再生する上で必要となるストリームに関する情報が記載されたファイルである。
ストリームファイル(STREAM)は、再生対象となる動画像データを格納したファイルである。MPEGデータとして格納されている。
インデックスファイル(INDEX.BDM)は、管理情報ファイルである。ユーザに見せるタイトル、タイトル対応の再生プログラムであるムービーオブジェクトの指定情報等を管理している。
ムービーオブジェクトファイル(MOVIEOBJ.BDM)は、タイトル対応の再生プログラムであり、再生に適用するプレイリストを管理している。
図8に示すフローチャートの処理は、クリップ情報ファイル(CLIPINF)にハイライトシーン選択情報、すなわち距離情報が記録され、クリップ情報ファイル(CLIPINF)を適用してハイライトシーンの選択を行う例である。
図8に示すフローチャートの各ステップの処理について説明する。
ステップS101において、クリップ情報ファイルを取得してオープンする。なお、クリップ情報ファイルには、図10に示すようなメーカー用データ領域(MakerPrivateData)が設定されており、この領域にハイライトシーン選択情報301が記録されている。
ステップS102では、図10に示すメーカー用データ領域(MakerPrivateData)のハイライトシーン選択情報301に設定されたインデックス情報を取得する。ハイライトシーン選択情報301には、各画像に対するインデックス情報が設定され、各インデックスに対応して距離情報、すなわち、被写体距離L、被写体距離Rが記録されている。
図10に示すように、ハイライトシーン選択情報301には、
タイムオフセット
被写体距離L、
被写体距離R、
これらの情報が記録されている。
タイムオフセットはクリップ情報ファイルに規定されるクリップのプレゼンテーションタイムスタートタイムからのオフセット時間である。[TIME_OFFSET]フィールドに記録される。この情報については、後段で説明する。
被写体距離Lは、第1撮像部(L)151の焦点距離に対応する被写体距離情報であり、[SUBJECTDISTANCE_L]フィールドに記録される。
被写体距離Rは、第2撮像部(R)152の焦点距離に対応する被写体距離情報であり、[SUBJECTDISTANCE_R]フィールドに記録される。
なお、前述したように、立体画像(3D)画像として動画データが記録される場合は、第1撮像部(L)151と第2撮像部(R)152とにおいて撮影された2つの画像が1対のペア画像として記録される。図10に示すクリップ情報ファイル(CLIPINF)のハイライトシーン選択情報301にはこれらの1対のペア画像に対応する情報が記録されることになる。
フローのステップS102において、ハイライトシーン選択情報301に含まれるインデックスを1つ取得してステップS103に進む。ステップS103では、図10に示すハイライトシーン選択情報301の1つのインデックスの登録情報を取り出して、記録された被写体距離L(SUBJECTDISTANCE_L)を読み込む。
ステップS104では、ステップS103で取得した被写体距離L(SUBJECTDISTANCE_L)と予め設定した閾値ΔD1を比較する。
被写体距離L<ΔD1・・・(式1)
この式(式1)は、図7を参照して説明した選択基準4に対応するハイライトシーン選択基準の適用処理である。
上記式が成立する場合は、ステップS105に進む。上記式が成立しない場合は、ステップS109に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS102に戻り、次の未処理インデックスの処理に移行する。
上記式が成立し、ステップS105に進むと、図10に示すハイライトシーン選択情報301の1つのインデックスの登録情報を取り出して、記録された被写体距離R(SUBJECTDISTANCE_R)を読み込む。
ステップS106では、ステップS105でクリップ情報ファイルから取得した被写体距離R(SUBJECTDISTANCE_R)と予め設定した閾値ΔD1を比較する。
被写体距離R<ΔD1・・・(式2)
この式(式2)も、図7を参照して説明した選択基準4に対応するハイライトシーン選択基準の適用処理である。
上記式が成立する場合は、ステップS107に進む。上記式が成立しない場合は、ステップS109に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS102に戻り、次の未処理インデックスの処理に移行する。
上記式が成立し、ステップS107に進むと、被写体距離Lと被写体距離Rとの差分とあらかじめ設定した閾値ΔD2との比較により、被写体が画面(画像フレーム)の中央に位置するか否かを判定する。すなわち、
|被写体距離L−被写体距離R|<ΔD2・・・(式3)
上記式(式3)が成立するか否かを判定する。
このステップS107の判定処理は、図7を参照して説明した選択基準1に対応するハイライトシーン選択基準の適用処理である。すなわち、図4、図5を参照して説明したハイライトシーン択基準の適用処理である。
上記式(式3)が成立する場合は、被写体距離Lと被写体距離Rとの差分が小さく、被写体がほぼ画面の中央に位置すると判定することができる。上記式(式3)が成立しない場合は、被写体距離Lと被写体距離Rとの差分が大きく、被写体が画面の端部に位置すると判定される。この場合は、ステップS109に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合はステップS102に戻り、次の未処理インデックスの処理に移行する。
上記式(式3)が成立する場合は、被写体距離Lと被写体距離Rとの差分が小さく、被写体がほぼ画面の中央に位置すると判定することができ、この場合は、ステップS108に進み、この画像をハイライトシーンとして選択する。なお、立体表示に適用する画像は、例えば左眼用画像と右眼用画像のペアが設定されており、その左右の両画像によって立体表示画像(3D画像)が提示されることになり、これらの画像がハイライトシーン画像として選定される。
また、動画像のハイライトシーン表示は、1つの静止画ではなく、例えば5秒間の動画像とするなど、短時間の動画をハイライトシーン動画として選択して表示する場合がある。このような設定の場合は、ステップS108において選択されたハイライトシーン画像を含む前後5秒間の画像をハイライトシーン画像として表示するといった処理が行われる。あるいは、ステップS108において選択されたハイライトシーン画像をスタート画像としてその後、5秒間の画像をハイライトシーンとして表示するといった設定でもよい。
ステップS108においてハイライトシーン画像の選択が行われると、ステップS109に進む。ステップS109では、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS102に戻り、次の未処理インデックスの処理に移行する。
ステップS109において、未処理インデックスが無いと判定されると、ハイライトシーン選択処理が終了する。このようにしてハイライトシーン選択処理が完了すると、ハイライトシーンとして選択されたインデックス番号に対応する画像が選択されてハイライトシーン表示処理が実行される。なお、前述したように選択画像の前後の画像を含む短時間の動画としてハイライトシーン画像表示を行う構成としてもよい。
なお、ハイライトシーンとして選択されたインデックス番号は、管理情報ファイルなどに記録して保存する構成としてもよい。このような設定とすれば、例えば図8に示すフローに従ったハイライトシーン選択処理を一度実行するのみで、その後は管理情報を参照して取得されるインデックス番号に従ってハイライトシーン画像を選択して表示することが可能となる。
図8を参照して説明したフローは、図7に示す選択基準1と選択基準4を適用してハイライトシーンの選択を実行した場合のシーケンスである。
次に、図11に示すフローを参照して、図7に示す選択基準1と、選択基準2と選択基準4を適用してハイライトシーンの選択を実行した場合のシーケンスについて説明する。すなわち、図8に示すフローにさらに、図6を参照して説明したように、被写体が近づいている場合に、ハイライトシーンとする処理(選択基準2)を含めたものである。
このように図11に示すフローは、選択基準1と選択基準2と選択基準4を適用してハイライトシーンの選択を実行した場合のシーケンスを示している。この処理は、システム制御部156の制御の下に実行される。
なお、図11に示す例は、ハイライトシーン選択情報としての距離情報がクリップ情報ファイルに記録された場合の例である。図11に示すフローチャートの処理は、クリップ情報ファイル(CLIPINF)にハイライトシーン選択情報、すなわち距離情報が記録され、クリップ情報ファイル(CLIPINF)を適用してハイライトシーンの選択を行う例である。図11に示すフローチャートの各ステップの処理について説明する。
ステップS201において、クリップ情報ファイルを取得してオープンする。なお、クリップ情報ファイルには、先に説明した図10に示すメーカー用データ領域(MakerPrivateData)が設定されており、この領域にハイライトシーン選択情報301が記録されている。
ステップS202では、内部変数としての過去被写体距離(SUBJECTDISTANCE_PAST)=無限遠とする初期化処理を行う。
ステップS203では、図10に示すメーカー用データ領域(MakerPrivateData)のハイライトシーン選択情報301に設定されたインデックス情報を取得する。ハイライトシーン選択情報301には、各画像に対するインデックス情報が設定され、各インデックスに対応して距離情報、すなわち、被写体距離L、被写体距離Rが記録されている。
フローのステップS203において、ハイライトシーン選択情報301に含まれるインデックスを1つ取得してステップS204に進む。ステップS204では、図10に示すハイライトシーン選択情報301の1つのインデックスの登録情報を取り出して、記録された被写体距離L(SUBJECTDISTANCE_L)を読み込む。
ステップS205では、ステップS204で取得した被写体距離L(SUBJECTDISTANCE_L)と予め設定した閾値ΔD1を比較する。
被写体距離L<ΔD1・・・(式1)
この式(式1)は、図7を参照して説明した選択基準4に対応するハイライトシーン選択基準の適用処理である。
上記式が成立する場合は、ステップS206に進む。上記式が成立しない場合は、ステップS211に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS212に進み、内部変数の更新処理を行う。すなわち、過去被写体距離(SUBJECTDISTANCE_PAST)=(被写体距離L+被写体距離R)/2として更新する。なお、被写体距離Lまたは被写体距離Rのいずれかが得られていない場合は、過去被写体距離(SUBJECTDISTANCE_PAST)=無限遠とする。さらに、ステップS203に戻り、次の未処理インデックスの処理に移行する。
上記式(式1)が成立し、ステップS206に進むと、図10に示すハイライトシーン選択情報301の1つのインデックスの登録情報を取り出して、記録された被写体距離R(SUBJECTDISTANCE_R)を読み込む。
ステップS207では、ステップS206でクリップ情報ファイルから取得した被写体距離R(SUBJECTDISTANCE_R)と予め設定した閾値ΔD1を比較する。
被写体距離R<ΔD1・・・(式2)
この式(式2)も、図7を参照して説明した選択基準4に対応するハイライトシーン選択基準の適用処理である。
上記式が成立する場合は、ステップS208に進む。上記式が成立しない場合は、ステップS211に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS212で内部変数の更新処理を実行して、ステップS203に戻り、次の未処理インデックスの処理に移行する。
上記式(式2)が成立し、ステップS208に進むと、被写体距離Lと被写体距離Rとの差分とあらかじめ設定した閾値ΔD2との比較により、被写体が画面(画像フレーム)の中央に位置するか否かを判定する。すなわち、
|被写体距離L−被写体距離R|<ΔD2・・・(式3)
上記式(式3)が成立するか否かを判定する。
このステップS208の判定処理は、図7を参照して説明した選択基準1に対応するハイライトシーン選択基準の適用処理である。すなわち、図4、図5を参照して説明したハイライトシーン択基準の適用処理である。
上記式(式3)が成立する場合は、被写体距離Lと被写体距離Rとの差分が小さく、被写体がほぼ画面の中央に位置すると判定することができる。この場合は、ステップS209に進む。上記式(式3)が成立しない場合は、被写体距離Lと被写体距離Rとの差分が大きく、被写体が画面の端部に位置すると判定される。この場合は、ステップS211に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS212で内部変数の更新処理を実行して、ステップS203に戻り、次の未処理インデックスの処理に移行する。
上記式(式3)が成立する場合は、被写体距離Lと被写体距離Rとの差分が小さく、被写体がほぼ画面の中央に位置すると判定することができ、この場合は、次にステップS209において、下式(式4)が成立するか否かを判定する。
(被写体距離L+被写体距離R)/2<過去被写体距離 ・・・(式4)
上記式は、被写体が画像フレームの進行(時間経過)に伴い、近づいていることを示す。すなわち図6(1)の近づく被写体シーンが得られていることを示す。
この場合は、ステップS210に進み。この画像をハイライトシーンとして選択する。上記式(式3)が成立しない場合は、ステップS211に進み、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS212で内部変数の更新処理を実行して、ステップS203に戻り、次の未処理インデックスの処理に移行する。
なお、前述したように、立体表示に適用する画像は、例えば左眼用画像と右眼用画像のペアが設定されており、その左右の両画像によって立体表示画像(3D画像)が提示されることになり、これらの画像がハイライトシーン画像として選定される。
また、動画像のハイライトシーン表示は、1つの静止画ではなく、例えば5秒間の動画像とするなど、短時間の動画をハイライトシーン動画として選択して表示する場合がある。このような設定の場合は、ステップS210において選択されたハイライトシーン画像を含む前後5秒間の画像をハイライトシーン画像として表示するといった処理が行われる。あるいは、ステップS210において選択されたハイライトシーン画像をスタート画像としてその後、5秒間の画像をハイライトシーンとして表示するといった設定でもよい。
ステップS210においてハイライトシーン画像の選択が行われると、ステップS211に進む。ステップS211では、未処理インデックスの有無を判定し、未処理インデックスがある場合は、ステップS212で内部変数の更新処理を実行して、ステップS203に戻り、次の未処理インデックスの処理に移行する。
ステップS211において、未処理インデックスが無いと判定されると、ハイライトシーン選択処理が終了する。このようにしてハイライトシーン選択処理が完了すると、ハイライトシーンとして選択されたインデックス番号に対応する画像が選択されてハイライトシーン表示処理が実行される。なお、前述したように選択画像の前後の画像を含む短時間の動画としてハイライトシーン画像表示を行う構成としてもよい。
なお、ハイライトシーンとして選択されたインデックス番号は、管理情報ファイルなどに記録して保存する構成としてもよい。このような設定とすれば、例えば図8に示すフローに従ったハイライトシーン選択処理を一度実行するのみで、その後は管理情報を参照して取得されるインデックス番号に従ってハイライトシーン画像を選択して表示することが可能となる。
[3.ハイライトシーン選択情報の記録構成例について]
先に説明したように、ハイライトシーンの選択処理に適用する情報は、例えば図10に示すクリップ情報ファイルのメーカー用データ領域(MakerPrivateData)に記録される。しかし、ハイライトシーン選択情報は図10に示すようなクリップ情報ファイルに限らず、その他のファイルに記録する構成としてもよい。以下、
(a)クリップ情報ファイルに対するハイライトシーン選択情報の記録例
(b)プレイリストファイルに対するハイライトシーン選択情報の記録例
これらの記録例について説明する。
(3−a.クリップ情報ファイルに対するハイライトシーン選択情報の記録例)
再度、図10を参照して、ハイライトシーン選択情報301の詳細について説明する。図10に示すように、ハイライトシーン選択情報301には、
タイムオフセット
被写体距離L、
被写体距離R、
これらの情報が記録される。
これらの情報は、画像に対応するインデックス番号ごとに個々に記録される。
タイムオフセットは、クリップのプレゼンテーションタイムスタートタイムからのオフセット時間である。図12を参照してタイムオフセットについて説明する。図12には、プレイリストと、プレイリストに含まれるプレイアイテム、さらにクリップ情報ファイルによって定義されるクリップとの対応関係を示している。
クリップ情報ファイルはクリップに関する情報を登録したファイルであり、1つのクリップが1つのストリームファイル(STREAM)に1対1の関係で対応付けられている。
図12に示すクリップ、すなわち、(Clip#src1−1)(Clip#src2−1)(Clip#src1−2)(Clip#src2−2)、これらの各々が個別のストリームファイル(STREAM)に1対1の関係で対応付けられている。
先に、図9を参照して説明したが、プレイリスト(PlayList)は、ユーザに見せるタイトルに対応して設けられ、少なくとも1以上のプレイアイテム(PlayItem)で構成される再生リストである。各プレイアイテム(PlayItem)は、クリップ(Clip)に対する再生開始点(IN点)と再生終了点(OUT点)を持つことで、その再生区間を指定している。例えば図12に示すプレイリストマーク(PlayListMark)によって、再生区間としてのチャプタが任意に設定できる。プレイリストマーク(PlayListMark)やチャプタはユーザによる編集処理によって任意の位置に設定できる。
図12に示すインデックスp〜t(Index#p〜#t)の各々はハイライトシーンとして選択された画像に対応するインデックス番号である。
これらの各インデックスは、図10に示すクリップ情報ファイルのメーカー用データ領域(MakerPrivateData)に記録されるハイライトシーン選択情報301中のインデックス番号に対応する。
ハイライトシーン選択情報301中の記録情報であるタイムオフセット(TIME_OFFSET)は、クリップのプレゼンテーションタイムスタートタイムからのオフセット時間であり、図12に示すように各クリップの先頭からのオフセットに対応している。
ハイライトシーン再生処理を行う場合、図10に示すハイライトシーン選択情報301中の記録情報であるタイムオフセット(TIME_OFFSET)を参照して、クリップ中のインデックス位置を特定し、特定したクリップのインデックス位置に対応する画像データをストリームファイル(STREAM)から取り出すことができる。
(3−b.プレイリストファイルに対するハイライトシーン選択情報の記録例)
被写体距離情報(被写体距離L、被写体距離R)等のハイライトシーン選択情報は、クリップ情報ファイルに限らず、その他のファイルに格納する設定としてもよい。図13以下を参照してプレイリストファイルにハイライトシーン選択情報を記録する例について説明する。
図13は、先に図9を参照して説明したと同様のBDMVディレクトリを示している。BDMVディレクトリには、プレイリストファイル(PLAYLIST)、クリップ情報ファイル(CLPINF)、ストリームファイル(STREAM)、インデックスファイル(INDEX.BDM)、ムービーオブジェクトファイル(MOVIEOBJ.BDM)の各ファイルが記録される。
本例では、プレイリストファイル(PLAYLIST)にハイライトシーン選択情報、すなわち距離情報を記録する。先に図10を参照して説明したクリップファイル情報と同様、図14に示すように、プレイリストファイル(PLAYLIST)にもメーカー用データ領域(MakerPrivateData)が設定されており、このメーカー用データ領域(MakerPrivateData)に、図14に示すようにハイライトシーン選択情報302を記録する。
図14に示すように、ハイライトシーン選択情報302には、
タイムオフセット
被写体距離L、
被写体距離R、
これらの情報が記録される。
これらの情報は、画像に対応するインデックス番号ごとに個々に記録される。
被写体距離Lは、第1撮像部(L)151の焦点距離に対応する被写体距離情報である。
被写体距離Rは、第2撮像部(R)152の焦点距離に対応する被写体距離情報である。
ただし、本例において、タイムオフセットは、先のクリップ情報ファイルに対する記録例とは異なり、プレイアイテム(PlayItem)のインタイム(InTime)からのオフセット時間が記録される。
このオフセット時間について図15を参照して説明する。図15は、プレイリストと、プレイリストに含まれるプレイアイテムとの対応関係を示している。プレイリスト(PlayList)は、ユーザに見せるタイトルに対応して設けられ、少なくとも1以上のプレイアイテム(PlayItem)で構成される再生リストである。
図15に示すインデックスp〜t(Index#p〜#t)の各々はハイライトシーンとして選択された画像に対応するインデックス番号である。
これらの各インデックスは、図14に示すプレイリストファイルのメーカー用データ領域(MakerPrivateData)に記録されるハイライトシーン選択情報302中のインデックス番号に対応する。
ハイライトシーン選択情報302中の記録情報であるタイムオフセット(TIME_OFFSET)は、プレイアイテム(PlayItem)のInTimeからのオフセット時間であり、図15に示すように各プレイアイテムの先頭からのオフセットに対応している。
ハイライトシーン再生処理を行う場合、図14に示すハイライトシーン選択情報302中の記録情報であるタイムオフセット(TIME_OFFSET)を参照して、インデックスのプレイアイテムにおける対応位置を特定し、特定したプレイアイテムのインデックス位置によって特定される画像データをストリームファイル(STREAM)から取り出すことができる。
[4.ハイライトシーン選択情報として利用するその他の情報例について]
前述した実施例では、ハイライトシーン選択情報として、被写体距離情報、すなわち被写体距離Lと被写体距離Rを記録する構成について説明した、以下では、これらの被写体距離情報と異なる情報をハイライトシーン選択情報として記録する処理例について説明する。
以下では、ハイライトシーン選択情報として記録するデータを以下のような設定とした例について説明する。
a.被写体距離情報(被写体距離L、被写体距離R)
b.顔認識情報
c.GPS計測位置情報
これらの各情報をハイライトシーン選択情報として記録し利用する。
図16は、前述したクリップ情報ファイルまたはプレイリストファイルに設定されるメーカー用データ領域(MakerPrivateData)内に記録されたハイライトシーン選択情報の構成例を示している。
本実施例は、上記3種類の情報をメーカー用データ領域(MakerPrivateData)に記録することを可能とした実施例である。
ハイライトシーン選択情報は、インデックス番号に応じて上記a〜cのいずれかまたは複数の情報が記録される。
図16に示すように、本実施例において、ハイライトシーン選択情報は、
タイムオフセット(TIME_OFFSET)
インデックスタイプ(INDEX_TYPE)、
インデックスメタ情報(INDEX_META)、
これらの情報を含む構成である。
タイムオフセット(TIME_OFFSET)は、ハイライトシーン選択情報の記録ファイルがクリップ情報ファイルである場合は、図10、図12を参照して説明したタイムオフセットと同様、クリップのプレゼンテーションタイムスタートタイムからのオフセット時間である。
また、ハイライトシーン選択情報の記録ファイルがプレイリストファイルである場合は、図14、図15を参照して説明したタイムオフセットと同様、プレイアイテム(PlayItem)のInTimeからのオフセット時間である。
インデックスタイプ(INDEX_TYPE)は、次のデータエリア[インデックスメタ情報(INDEX_META)]に記録されるメタデータの種類を示す情報を記録するフィールドである。
インデックスタイプと、インデックスメタとの対応関係は以下の通りとなる。
インデックスタイプ=被写体距離
次のインデックスメタ情報フィールドに、被写体距離情報(被写体距離L、被写体距離R)を記録する。
インデックスタイプ=顔認識情報
次のインデックスメタ情報フィールドに、顔認識情報を記録する。
インデックスタイプ=GPS情報
次のインデックスメタ情報フィールドに、GPSユニットによって計測された撮像装置の位置情報を記録する。
なお、1つのインデックス画像に上記3種類の情報をすべて記録する構成としてもよいし、いずれかの情報のみ、または2種類の情報を記録する構成としてもよい。1つのインデックス画像に3種類の情報をすべて記録する構成とする場合は、
インデックスタイプ=被写体距離
インデックスメタ=被写体距離情報(被写体距離L、被写体距離R)
インデックスタイプ=顔認識情報
インデックスメタ=顔認識情報
インデックスタイプ=GPS情報
インデックスメタ=GPS計測位置情報
このような順で各情報を記録する。
各情報の詳細および記録態様について、図17〜図19を参照して説明する。
図17は、インデックスタイプ=被写体距離の場合のインデックスメタ情報の詳細と記録態様を説明する図である。インデックスタイプ=被写体距離の場合は、前述した実施例において説明したと同様の情報がインデックスメタ情報として記録される。
すなわち、
被写体距離L、
被写体距離R、
これらの情報が記録される。
被写体距離Lは、第1撮像部(L)151の焦点距離に対応する被写体距離情報であり、[SUBJECTDISTANCE_L]フィールドに記録される。
被写体距離Rは、第2撮像部(R)152の焦点距離に対応する被写体距離情報であり、[SUBJECTDISTANCE_R]フィールドに記録される。
被写体距離の場合は両眼、すなわち各撮像部151,152において計測される距離値が独立しており、それぞれ有意義なのでレンズ数分、それぞれの被写体距離を記録する。なお、本実施例では2眼構成の場合について説明しているが、3眼など、3つ以上のレンズを有する3つ以上の撮像部を持つ多眼構成の場合、各撮像部において測定された距離情報をすべて記録する。すなわちレンズ数分、記録する。
図18は、インデックスタイプ=顔認識情報の場合のインデックスメタ情報の詳細と記録態様を説明する図である。インデックスタイプ=顔認識情報の場合は、インデックスメタ情報として顔認識の有無、すなわち、撮影画像中に顔として認識される顔画像領域が含まれているか否かの顔あり、または顔なしの情報が記録される。なお、顔領域が含まれているか否かの判定処理は、図2に示すシステム制御部156内において実行される。システム制御部156は予め保持する顔画像の特徴情報を適用して、撮影画像にその特徴情報に一致または類似する領域が含まれ眼か否かを判別して顔領域の有無を判定する。
なお、各撮像部151,152において同時に撮影される画像の両画像から顔を認識するケースが想定される。このような場合、各画像の情報を個別に保持するのは記録容量の無駄になるので、例えば、いずれか一方の撮像部の撮影画像から顔画像が検出された場合はその検出情報を記録する。さらに、片方の撮像部の撮影画像から顔領域が検出された場合、所定時間(例えば5秒間)は他方の撮像部の撮影画像から顔が認識されてもメタデータとして記録しない。
このような設定で、有意義な顔認識情報のみをメタデータとして記録するといった処理を行う。
図19は、インデックスタイプ=GPS情報の場合のインデックスメタ情報の詳細と記録態様を説明する図である。インデックスタイプ=GPS情報の場合は、インデックスメタ情報としてGPSユニット162が計測した撮像装置の現在位置情報が記録される。
なお、GPS情報の場合は単眼、多眼にかかわらず、撮像装置に対して、ある計測タイミングごとに1つの計測情報しか得られないので、レンズ数に関わらず、1計測時間ごとに1つの計測情報のみを記録する。
このように、ハイライトシーン選択情報として、
a.被写体距離情報(被写体距離L、被写体距離R)
b.顔認識情報
c.GPS計測位置情報
これらの各情報を記録する。
ハイライトシーンを選択する場合は、ユーザの指定に応じて、例えば顔が認識された画像をハイライトシーンとして選択する処理や、特定の位置において撮影された画像のみをハイライトシーンとして選択して表示するといった処理が行われる。
システム制御部156が、これらの各情報に応じてハイライトシーン選択処理を実行することになる。
なお、上記のa,b,cの各情報を適宜、組み合わせて利用してハイライトシーンを選択する構成としてもよい。
例えば、図7を参照して説明した被写体距離情報を用いたハイライトシーン選択基準1〜5のいずれか、または複数の基準を満足し、かつ、顔が認識された画像のみをハイライトシーンとして選択するといった処理が可能である。
あるいは、図7を参照して説明した被写体距離情報を用いたハイライトシーン選択基準1〜5のいずれか、または複数の基準を満足し、かつ、特定の位置において撮影された画像のみをハイライトシーンとして選択するといった処理が可能である。
[5.多眼構成の撮像装置の場合の被写体距離情報の取得とハイライトシーン選択の例について]
これまで、説明した実施例は2眼構成の場合について説明している。すなわち、図1、図2に示すように2つのレンズ101,102を備えた2つの撮像部151,152を有する構成例を中心として説明した。
しかし、本願は、このような2眼構成に限らず、3眼など3つ以上のレンズを有する3つ以上の撮像部を持つ多眼構成においても適用可能である。すなわち3以上の各撮像部において測定された距離情報をすべて記録して利用する構成としてもよい。この場合、レンズ数分の距離情報が記録され、これらを利用してハイライトシーン選択を行う。
具体例について、図20、図21を参照して説明する。図20には、
(a)単眼構成
(b)2眼構成
(c)3眼構成
これらの構成を持つ撮像装置の距離計測ポイントの例を示している。
(a)単眼構成は、従来の一般的なカメラであり1つのレンズを備えた撮像部511を有する構成である。オートフォーカス(自動焦点)機能によって、たとえば図に示す3点(pqr)の各ポイントの距離を計測できる。なお、この場合の計測距離は図に示す矢印の距離であり、撮像部511のレンズの中央からの距離となる。すなわち、p,rの各点については、斜め方向の距離が測定される。
(b)2眼構成は、例えば図1に示した上述の実施例において説明した撮像装置に対応する。個々にレンズを備えた2つの撮像部521,522を有する構成である。この場合、各撮像部が個別に3点の距離計測が可能であり、結果として、2つの撮像部521,522により図に示す6点(pqrstu)の各ポイントの距離を計測できる。
(c)3眼構成は、例えば図1に示した撮像装置にさらにもう1つのレンズを持つ撮像部を追加した構成である。図20(c)に示すように、レンズを備えた3つの撮像部531,532,533を有する構成である。オートフォーカス(自動焦点)機能によって、たとえば図に示すポイント9点(pqrstuvwx)の各ポイントの距離を計測できる。
このように、レンズの数が増加するに従い距離計測ポイントは増大することになり、例えば、被写体が画面中央に存在するか端部に存在するかの判断をより細かい単位で把握することができる。
このような単眼〜3眼構成の撮像装置において被写体距離計測情報に基づくハイライトシーン選択処理例について図21を参照して説明する。図21には、
(a)単眼構成
(b)2眼構成
(c)3眼構成
これらの構成を持つ撮像装置の各距離計測ポイントにおける被写体距離情報Dnの例を示している。なおこの図21における距離Dnは、図に示す太線矢印に示す区間の距離であり、撮像装置511〜533の面からの垂直方向の距離である。
(a)単眼構成の場合、図に示す被写体距離D1〜D3を撮影画像に対応する被写体距離情報として算出し、属性情報として記録する。距離D2は、図20(a)に示すポイントqの距離に対応する。距離D1,D3は、図20(a)において説明したprまでの距離(レンズからの斜め方向の距離)とレンズに対する入射角度から三角測量を用いて算出する。
このような3つの被写体距離D1,D2,D3が得られた場合、のハイライトシーン選択基準は、たとえば以下の基準が適用できる。
D2<(D1+D3)/2
上記式を満足する場合、画面中央部の被写体距離が画面周囲の被写体距離より近いことを意味する。すなわち注目被写体が中央の近距離に位置することを意味している。このようなシーンをハイライトシーンとして選択する。
(b)2眼構成の場合、図に示す被写体距離D1〜D6を撮影画像に対応する被写体距離情報として算出し、属性情報として記録する。距離D2,D5は、図20(b)に示すポイントq,tの距離に対応する。距離D1,D3,D4,D6は、前述の例と同様、三角測量を用いて算出する。
このような6つの被写体距離D1,D2,D3,D4,D5,D6が得られた場合、ハイライトシーン選択基準は、たとえば以下の基準が適用できる。
D2<(D1+D3+D4+D6)/4、かつ
D5<(D1+D3+D4+D6)/4
上記式が成立する場合、ハイライトシーンとして選択する。
この式を満足するのは、画面中央部(D2〜D5近傍)の被写体距離が画面周囲の被写体距離より近いことを意味する。すなわち注目被写体が中央の近距離に位置することを意味している。このようなシーンをハイライトシーンとして選択する。
(c)3眼構成の場合、図に示す被写体距離D1〜D9を撮影画像に対応する被写体距離情報として算出し、属性情報として記録する。距離D2,D5,D8は、図20(c)に示すポイントq,t,wの距離に対応する。距離D1,D3,D4,D6,D7,D9は、前述の例と同様、三角測量を用いて算出する。
このような9つの被写体距離D1,D2,D3,D4,D5,D6,D7,D8,D9が得られた場合、ハイライトシーン選択基準は、たとえば以下の基準が適用できる。
D2<(D1+D3+D4+D6+D7+D9)/6、かつ
D5<(D1+D3+D4+D6+D7+D9)/6、かつ
D8<(D1+D3+D4+D6+D7+D9)/6、かつ
上記式が成立する場合、ハイライトシーンとして選択する。
この式を満足するのは、画面中央部(D2〜D8近傍)の被写体距離が画面周囲の被写体距離より近いことを意味する。すなわち注目被写体が中央の近距離に位置することを意味している。このようなシーンをハイライトシーンとして選択する。
このように、多眼構成の場合、計測可能な被写体距離が増加し、その増加に従ったハイライトシーン選択基準を設定してハイライトシーン選択処理に適用する。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例の構成によれば、複数視点からの撮影画像を記録する撮像装置において、各視点対応の撮像部において計測した被写体距離情報を撮影画像の属性情報として記録する。またハイライトシーン選択処理に際して、複数の撮像部からの被写体距離情報を適用して被写体が撮影画像の中央部に位置するか否かを判定し、中央部に位置すると判定された場合にハイライトシーンとして選択する。また、被写体が近づいているか否かを判定し、近づいている場合にハイライトシーンとして選択する。本構成によれば立体(3D)画像表示に最適なハイライトシーン選択が実現される。
100 撮像装置
101,102 レンズ
103 シャッター
104 表示部
110 付加情報
151 第1撮像部(L)
152 第2撮像部(R)
153 撮像制御部
154 マイク
155 A/D
156 システム制御部
157 ユーザインタフェース
158 D/A
159 スピーカ
160 表示部
161 距離情報記録部
162 GPSユニット
163 動画像処理部
164 静止画像処理部
165 メモリ
166 記録媒体
167 外部記録媒体
301 ハイライトシーン選択情報
302 ハイライトシーン選択情報
511 撮像部
521,522 撮像部
531〜533 撮像部

Claims (10)

  1. 複数視点からの複数画像のそれぞれに関する複数の被写体距離情報に基づき、ハイライトシーン抽出処理を行う画像選択制御部を有し、
    前記画像選択制御部は、
    第1視点からの被写体距離と第2視点からの被写体距離の差分が、予め規定した閾値より小さいか否かを判別し、小さい場合に被写体が画像中央領域に位置すると判定する被写***置判定処理を実行し、
    前記被写***置判定処理に基づいて被写体が画像の中央領域に位置すると判定した画像をハイライトシーンとして選択する処理を行う構成である制御装置。
  2. 前記画像選択制御部は、
    時系列の撮影画像の被写体距離を参照して被写体が時間経過に伴い撮像装置に近づく画像をハイライトシーンとして選択する処理を行う請求項1に記載の制御装置。
  3. 前記画像選択制御部は、
    被写体が画像の中央領域に位置すると判定した画像を含む連続する撮影画像によって構成される動画像をハイライトシーンとして選択する処理を行う請求項1または2に記載の制御装置。
  4. 前記複数の被写体距離を記録部に記録する処理を行う記録制御部を更に有し、
    前記記録制御部は、
    撮影された動画像の記録ファイルとして設定されるストリームファイルに対応する管理ファイルであるクリップ情報ファイル、または、再生リストを格納したプレイリストファイルのいずれかに前記複数の被写体距離情報を記録する請求項1に記載の制御装置。
  5. 前記記録制御部は、
    前記被写体距離情報を、前記クリップ情報ファイルに記録する場合は前記被写体距離の計測された画像の位置を示すタイムオフセット情報として、クリップ情報ファイルに規定されるクリップのプレゼンテーションタイムスタートタイムからのオフセット時間を記録し、
    前記被写体距離情報を、プレイリストファイルに記録する場合は前記被写体距離の計測された画像の位置を示すタイムオフセット情報として、プレイリストに含まれるプレイアイテムに対応して設定されるインタイム(InTime)からのオフセット時間を記録する請求項4に記載の制御装置。
  6. 前記複数の被写体距離を記録部に記録する処理を行う記録制御部を更に有し、
    前記記録制御部は、
    前記複数画像に顔領域が含まれるか否かの顔認識情報を前記記録部に記録する処理を行い、
    前記画像選択制御部は、
    前記顔認識情報を参照して、顔認識がなされた画像を前記ハイライトシーンとして選択する処理を行う構成である請求項1に記載の制御装置。
  7. 前記複数の被写体距離を記録部に記録する処理を行う記録制御部を更に有し、
    前記記録制御部は、
    前記複数画像の撮影位置を示すGPS情報を前記記録部に記録する処理を行い、
    前記GPS情報を参照して、特定位置の撮影画像を前記ハイライトシーンとして選択する処理を行う構成である請求項1に記載の制御装置。
  8. 撮像装置において実行する画像処理方法であり、
    画像選択制御部が、複数視点からの複数画像のそれぞれに関する複数の被写体距離情報に基づき、ハイライトシーン抽出処理を行う画像選択制御ステップを有し、
    前記画像選択制御ステップは、
    第1視点からの被写体距離と第2視点からの被写体距離の差分が、予め規定した閾値より小さいか否かを判別し、小さい場合に被写体が画像中央領域に位置すると判定する被写***置判定処理を実行するステップと、
    前記被写***置判定処理に基づいて被写体が画像の中央領域に位置すると判定した画像をハイライトシーンとして選択するステップを含む画像処理方法。
  9. 撮像装置において画像処理を実行させるプログラムであり、
    画像選択制御部に、複数視点からの複数画像のそれぞれに関する複数の被写体距離情報に基づき、ハイライトシーン抽出処理を行わせる画像選択制御ステップを有し、
    前記画像選択制御ステップは、
    第1視点からの被写体距離と第2視点からの被写体距離の差分が、予め規定した閾値より小さいか否かを判別し、小さい場合に被写体が画像中央領域に位置すると判定する被写***置判定処理を実行するステップと、
    前記被写***置判定処理に基づいて被写体が画像の中央領域に位置すると判定した画像をハイライトシーンとして選択するステップを含むプログラム。
  10. 複数視点からの複数画像のそれぞれに関する複数の被写体距離情報に基づき、ハイライトシーン抽出処理を行い、
    抽出されたハイライトシーンの再生を行う制御部を有し、
    前記制御部は、
    第1視点からの被写体距離と第2視点からの被写体距離の差分が、予め規定した閾値より小さいか否かを判別し、小さい場合に被写体が画像中央領域に位置すると判定する被写***置判定処理を実行し、
    前記被写***置判定処理に基づいて被写体が画像の中央領域に位置すると判定した画像をハイライトシーンとして選択する処理を行う構成である再生制御装置。
JP2009158570A 2009-07-03 2009-07-03 撮像装置、および画像処理方法、並びにプログラム Expired - Fee Related JP5531467B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009158570A JP5531467B2 (ja) 2009-07-03 2009-07-03 撮像装置、および画像処理方法、並びにプログラム
US12/802,433 US20110001800A1 (en) 2009-07-03 2010-06-07 Image capturing apparatus, image processing method and program
CN201010218371.9A CN101945212B (zh) 2009-07-03 2010-06-28 图像捕获设备、图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009158570A JP5531467B2 (ja) 2009-07-03 2009-07-03 撮像装置、および画像処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011015256A JP2011015256A (ja) 2011-01-20
JP2011015256A5 JP2011015256A5 (ja) 2012-07-26
JP5531467B2 true JP5531467B2 (ja) 2014-06-25

Family

ID=43412413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009158570A Expired - Fee Related JP5531467B2 (ja) 2009-07-03 2009-07-03 撮像装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20110001800A1 (ja)
JP (1) JP5531467B2 (ja)
CN (1) CN101945212B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036022B4 (de) 2009-08-04 2014-04-03 Northrop Grumman Litef Gmbh Optischer Transceiver und Faseroptischer Kreisel
JP5489223B2 (ja) * 2010-06-09 2014-05-14 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置及びプログラム
JP2012175694A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器
US9432661B2 (en) 2011-02-24 2016-08-30 Kyocera Corporation Electronic device, image display method, and image display program
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
WO2013186962A1 (ja) * 2012-06-11 2013-12-19 パナソニック株式会社 映像処理装置、撮影装置、およびプログラム
US9317173B2 (en) * 2012-11-02 2016-04-19 Sony Corporation Method and system for providing content based on location data
US20150215530A1 (en) * 2014-01-27 2015-07-30 Microsoft Corporation Universal capture
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9860451B2 (en) * 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
WO2016208788A1 (ko) * 2015-06-26 2016-12-29 엘지전자 주식회사 이동단말기 및 그 제어방법
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN112839170B (zh) * 2020-12-31 2022-07-05 上海米哈游天命科技有限公司 拍摄方法、装置、电子设备及存储介质
CN115802148B (zh) * 2021-09-07 2024-04-12 荣耀终端有限公司 一种获取图像的方法及电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JP3925299B2 (ja) * 2002-05-15 2007-06-06 ソニー株式会社 モニタリングシステムおよび方法
JP2005167310A (ja) * 2003-11-28 2005-06-23 Sharp Corp 撮影装置
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
CN100579204C (zh) * 2004-03-29 2010-01-06 松下电器产业株式会社 累积显示装置和联动显示方法和***
JP4525558B2 (ja) * 2005-11-08 2010-08-18 ソニー株式会社 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP4569561B2 (ja) * 2006-12-01 2010-10-27 富士フイルム株式会社 画像ファイル作成装置
JP4893641B2 (ja) * 2007-02-19 2012-03-07 株式会社Jvcケンウッド ダイジェスト生成装置及びダイジェスト生成方法
JP4757812B2 (ja) * 2007-02-20 2011-08-24 富士フイルム株式会社 立体撮影装置および方法並びにプログラム
JP4356762B2 (ja) * 2007-04-12 2009-11-04 ソニー株式会社 情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
CN100591103C (zh) * 2007-06-08 2010-02-17 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置
JP2008310187A (ja) * 2007-06-15 2008-12-25 Fujifilm Corp 画像処理装置及び画像処理方法
US20110110649A1 (en) * 2008-06-19 2011-05-12 Thomson Licensing Adaptive video key frame selection

Also Published As

Publication number Publication date
US20110001800A1 (en) 2011-01-06
CN101945212B (zh) 2014-06-11
JP2011015256A (ja) 2011-01-20
CN101945212A (zh) 2011-01-12

Similar Documents

Publication Publication Date Title
JP5531467B2 (ja) 撮像装置、および画像処理方法、並びにプログラム
JP5293463B2 (ja) 画像処理装置、画像処理方法およびプログラム
TWI399082B (zh) Display control device, display control method and program
JP5249149B2 (ja) 立体画像記録装置及び方法、立体画像出力装置及び方法、並びに立体画像記録出力システム
CN102540689B (zh) 摄像装置
KR102068748B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 영상 재생 장치 및 방법
JP5371845B2 (ja) 撮影装置及びその表示制御方法並びに3次元情報取得装置
JP5231771B2 (ja) 立体画像撮影装置
JP5614268B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5647740B2 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
US9521395B2 (en) Imaging apparatus and method for controlling same
JP6323022B2 (ja) 画像処理装置
JP5322817B2 (ja) 3次元画像撮像装置及び3次元画像表示方法
JP2012156747A (ja) 撮像装置、画像合成方法、及びプログラム
WO2013005477A1 (ja) 撮像装置、立体画像撮像方法及びプログラム
JP5924943B2 (ja) 撮像装置および撮像装置の制御方法
JP4833947B2 (ja) 画像記録装置、画像編集装置及び画像記録方法
JP5864992B2 (ja) 撮像装置およびその制御方法、並びに画像処理装置およびその制御方法
JP2012094997A (ja) 撮影機器
JP2012175495A (ja) ステレオ3d録画装置
JP5911276B2 (ja) 撮像装置およびその制御方法、画像処理装置
JP4809295B2 (ja) 画像記録装置及び画像記録方法
JP6366793B2 (ja) 画像処理装置およびその制御方法、撮像装置
JP6177305B2 (ja) 撮像装置およびその制御方法、並びに画像処理装置およびその制御方法
JP5915009B2 (ja) 画像処理装置、電子カメラ、画像処理方法、及びプログラム、並びに記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140407

LAPS Cancellation because of no payment of annual fees