JP2015126518A - 撮像装置、画像処理装置、画像処理方法、プログラム - Google Patents

撮像装置、画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP2015126518A
JP2015126518A JP2013272051A JP2013272051A JP2015126518A JP 2015126518 A JP2015126518 A JP 2015126518A JP 2013272051 A JP2013272051 A JP 2013272051A JP 2013272051 A JP2013272051 A JP 2013272051A JP 2015126518 A JP2015126518 A JP 2015126518A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
composite
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013272051A
Other languages
English (en)
Other versions
JP6355333B2 (ja
JP2015126518A5 (ja
Inventor
博之 星加
Hiroyuki Hoshika
博之 星加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013272051A priority Critical patent/JP6355333B2/ja
Priority to US14/578,182 priority patent/US9407825B2/en
Publication of JP2015126518A publication Critical patent/JP2015126518A/ja
Publication of JP2015126518A5 publication Critical patent/JP2015126518A5/ja
Application granted granted Critical
Publication of JP6355333B2 publication Critical patent/JP6355333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Circuits (AREA)

Abstract

【課題】 第1の撮像部と第2の撮像部により得られた画像を合成して記録する場合であっても第2の撮像部で撮像された画像のみを抽出して表示することができる画像処理装置を提供する。【解決手段】 合成画像と合成情報とを記録媒体から再生し、再生された合成情報に基づいて合成画像から第2の撮像手段により得られた画像を抽出し、抽出された第2の撮像手段により得られた画像を表示するための情報を生成する。【選択図】 図6

Description

本発明は、撮像装置、画像処理装置、画像処理方法、プログラムに関する。
従来、画像処理置として、被写体を撮像して得られた画像データを静止画または動画として記録媒体に記録するデジタルカメラが知られている。たとえば特許文献1のように、被写体方向を撮影する撮像部と、カメラマン方向を撮影する撮像部を1つずつ設け、これらの撮像部で得られた画像を合成した画像を生成して記録することができる撮像装置が登場してきている。
特開平6−165029号公報
しかしながら、特許文献1では、それぞれの撮像部で撮影された画像は合成されて記録されてしまうため、一方の撮像部で撮影された画像のみを表示することができなかった。
そこで、本発明は、第1の撮像部と第2の撮像部により得られた画像を合成して記録する場合であっても第2の撮像部で撮像された画像のみを抽出して表示することができる画像処理装置を提供することを目的とする。
このような目的を達成するために、本発明の画像処理装置は、第1の撮像手段と、第2の撮像手段と、前記第1の撮像手段により得られた画像と、前記第2の撮像手段により得られた画像とを合成した合成画像を生成する合成手段と、前記合成手段により生成された合成画像と、前記合成画像の合成に関する合成情報を記録媒体に記録する記録手段と、前記記録媒体に記録された合成画像と、前記合成情報とを前記記録媒体から再生する再生手段と、前記再生手段により再生された前記合成情報に基づいて、前記再生手段により再生された前記合成画像から、前記第2の撮像手段により得られた画像を抽出する抽出手段と、前記抽出手段により抽出された、前記第2の撮像手段により得られた画像を表示するための情報を生成する生成手段とを有することを特徴とする。
本発明によれば、第1の撮像部と第2の撮像部により得られた画像を合成して記録する場合であっても第2の撮像部で撮像された画像のみを抽出して表示することができる。
本実施例の撮像装置の構成を示す図。 本実施例の動画静止画撮影モードの動作を示す図。 本実施例の動画静止画撮影モードの動作を示す図。 本実施例のストップモーション表示中の表示を示す図。 動画静止画撮影モードで記録されたデータを示す図。 本実施例のアルバム再生の動作を示す図。
以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。
本実施例では、画像処理装置の例として撮像装置を説明するが、複数の動画または静止画またはその両方を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。また、本実施例において動画ファイル、静止画ファイルを総称して画像ファイルと表現することがある。また、本実施例において、動画、静止画を総称して画像と表現することもある。また、本実施例において、動画データ、静止画データを総称して画像データを表現することもある。また、本実施例において、動画ファイル、静止画ファイルを総称して画像ファイルと表現することもある。
本実施例の撮像装置は、第1の撮像部と第2の撮像部により得られた画像を合成して記録する場合であっても第2の撮像部で撮像された画像のみを抽出して表示することができる。以下、このような撮像装置について説明する。
<全体構成>
まず、図1を用いて、本実施例の撮像装置100の構成を説明する。
本実施例の撮像装置100は、図1に示すように、CPU101と、RAM102と、ROM103と、操作部104とを有する。また、撮像装置100は、第1撮像部110と、画像処理部111と、第2撮像部112と、集音部120と、音声処理部121とを有する。また、撮像装置100は、表示部140と、表示制御部141と、記録再生部150と、記録媒体151と、姿勢検出部160とを有する。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。
本実施例の撮像装置100において、CPU101は、RAM102をワークメモリとしてROM103に記録された各種プログラムをRAM102に展開し、プログラムに応じて撮像装置100の各ブロックを制御する。操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタン、メニュー表示ボタン、モード切替スイッチ、決定ボタン等の各種操作を入力するスイッチ類を有する。また、カーソルキー、ポインティングデバイス、タッチパネル、ダイヤル等のどのようなタイプの操作子であってもよい。操作部104は、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。操作部104の各操作部材は、表示部に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部に表示される。利用者は、表示部に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。なお、操作部104は、表示部に対する接触を検知可能なタッチパネルであってもよい。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
第1撮像部110は、第2撮像部112は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換する。また第1撮像部110は、第2撮像部112は、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶する。画像処理部111は、記録時にはRAM102に記憶された画像データを処理し、再生時には、後述の記録媒体151から読みだされた画像データを処理する。画像処理部111は、画像データのホワイトバランス調整、ゲイン調整、色強調処理等様々な処理を行う。画像処理部111は処理した画像データを、表示制御部141に送信したり、記録再生部150や通信部に送信したりする。また、画像処理部111は、H.264/AVCやMotionJPEG2000、H.265等の動画圧縮技術を用いて画像を動画として圧縮したり、JPEGやJPEG2000等の静止画圧縮技術を用いて画像を静止画として圧縮したりすることもできる。圧縮形式はこれらの形式によらず他の方式を用いてもよい。
なお、本実施例の画像処理部111は、第1撮像部110、第2撮像部112により得られた画像を解析し、画像内に人間や顔に対応する画像が含まれるかを検出したり、表情を検出したりすることもできる。検出方法は、さまざまな方式があるがたとえば、人間や顔の特徴画像とのパターンマッチングを行うことで検出することができる。顔を検出した場合には、サイズ、位置をRAM102に記憶させる。また顔が検出された場合には顔画像のエッジ検出を行い、笑顔レベルを判定する。これらの検出情報は静止画または動画の撮影が行われたときに、対象の画像データを含む画像ファイルのヘッダ等に格納される。
音声処理部121は、記録時には、集音部120により集音して得られた音声データを処理し、再生時には、後述の記録媒体151から読みだされた圧縮または非圧縮の音声データを処理する。たとえば、音声データのレベル調整処理、圧縮された音声データの伸張処理、音声データの圧縮処理等を行う。音声処理部121は、処理した音声データを、記録再生部150や通信部に送信したり、再生時にはスピーカに送信したりする。なお、集音部120は、たとえば、撮像装置100のハウジング内に内蔵された複数の無指向性の音声を集音するマイクである。また、音声処理部121では音声圧縮方式として、たとえば、AC3、AAC等の公知の一般的な音声圧縮方式を用いる。
表示部140は、例えば、液晶表示デバイス、または有機EL表示デバイスなどからなり、表示制御部141の制御により画像を表示する。表示部140は、LEDディスプレイなど、ユーザに画像を提供することができればどのようなものであっても良い。表示制御部141では、画像処理部111により処理された画像データに基づいて、表示部140に画像を表示する。また、表示制御部141は、表示部140に表示するデジタル画像信号に基づく映像信号に対し、マトリクス変換、ブライト調整、コントラスト調整、ガンマ調整、クロマゲイン調整、シャープネス調整等の画像信号処理を行ってもよい。
記録再生部150は、記録時においては、画像処理部111により処理された画像データや音声データを記録媒体151に記録し、再生時においては、記録媒体151に記録された画像データや音声データを再生する。記録再生部150は、記録時においては、画像データや音声データとともに、撮影日や、圧縮に関する情報、撮像部110の設定等の各種情報を記録媒体151に書き込む。なお、記録再生部150は、画像データや音声データを記録媒体151に記録する際は、たとえばFATやexFAT等のファイルフォーマットに適合した形でファイルとして記録媒体に記録する。また、記録媒体151は、撮像装置に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。例えば、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部150は、それらの取り外し可能な記録媒体を装着、排出するための機構を含む。
姿勢検出部160は、撮像装置100の姿勢を検出するものであって、たとえば、角度センサや加速度センサなどである。本実施例の姿勢検出部160は、撮像装置100の姿勢が、正位置であるか縦位置であるかを検出する。例えば撮像装置100の第1撮像部110の光軸を中心とした回転姿勢角度(0度、90度、180度、270度)を検出することができる。ここで、0度はいわゆる正位置(撮像装置100の上面が上空方向を向いている状態)であり、180度は逆位置(撮像装置100の上面が地面方向を向いている状態)である。90度、270度とはいわゆる縦位置(撮像装置100の左右面のいずれかが地面方向を向いている状態)である。
なお、本実施例の第1撮像部110(第1の撮像部)、第2撮像部112(第2の撮像部)はそれぞれ、異なる方向の被写体を撮像するものである。具体的には、第2の撮像部112は、撮影者(いわゆるカメラマン)を撮影するためのサブカメラであり、第1撮像部110は、撮影者が撮影しようとしている被撮影者(いわゆる被写体)を撮影するためのメインカメラである。したがって、たとえば、第1撮像部110と、第2撮像部112は、必ずしも逆方向を撮像するものである必要はない。
ここで、画像処理部111、音声処理部121、表示制御部141、記録再生部150は、それぞれ、前述の各機能を実行するプログラムを搭載したマイクロコンピュータであってもよい。また、CPU101がROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。
<撮像装置100の動作>
続いて、本実施例の撮像装置100の動作について説明する。本実施例の撮像装置100は、「静止画撮影モード」、「動画撮影モード」、「再生モード」のほかに、「動画静止画撮影モード」を有する。各モードにおいて、CPU101は、撮像装置100の各ブロックを制御して以下の動作を行わせる。
「静止画撮影モード」、「動画撮影モード」では、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。そして、撮影の指示が入力されると、画像処理部111に、各撮像部により得られた画像を動画または静止画として圧縮させ、圧縮した画像を順次記録媒体151に記録するように記録再生部150を制御する。「静止画撮影モード」の場合は撮影の指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして、圧縮された静止画データを記録媒体151に静止画ファイルとして記録するように記録再生部150を制御する。一方「動画撮影モード」においては、撮影の指示に対応するタイミングで各撮像部により得られた画像から順次得られる画像をフレーム画像とする動画をたとえばH.265を用いて圧縮するように画像処理部111を制御する。そして、圧縮された動画データを記録媒体151に動画ファイルとして記録するように記録再生部150を制御する。なお、「動画撮影モード」においては、撮影終了の指示が入力されるまでこの動作を継続する。また、「静止画撮影モード」、「動画撮影モード」において、静止画ファイル、動画ファイルには、各モードで撮影された画像に基づくサムネイル画像(静止画データ)が付加されて記録媒体151に記録される。
「動画静止画撮影モード」では、静止画記録の指示が入力されたときに、静止画撮影、静止画記録を行うとともに、静止画記録の指示が入力される直前の4秒間の動画データを記録媒体に記録する。そして、同じ日に、「動画静止画撮影モード」で、複数回の静止画記録の指示が入力された場合には、静止画記録の指示が入力される直前の4秒間の動画データを一つの動画ファイルに追記して記録する。このようにすることで、1日分の静止画撮影直前の動画データを一つの動画ファイルに格納し、閲覧性を向上させることができる。「動画静止画撮影モード」では、CPU101は、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。また、このとき、画像処理部111は、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を順次動画データとして圧縮し、RAM102に一時的に記憶する。CPU101は、RAM102には、最新の4秒分の圧縮済みの動画データが常に保持されるようにRAM102の情報を管理する。たとえば最新の4秒以外の動画データは破棄してもよい。次に、静止画記録の指示が入力されると、指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして静止画として圧縮された静止画データを記録媒体151に記録するように記録再生部150を制御する。一方、静止画記録の指示に応じて、RAM102に記憶されている最新の4秒の圧縮済みの動画データについても記録媒体151に記録するように記録再生部150を制御する。また静止画記録の指示により得られた画像を動画(ストップモーション)としても圧縮するように画像処理部111を制御し、最新の4秒の動画データの後に再生されるように記録媒体151に記録する。これにより、記録再生部150は、記録媒体に記録されている最新の4秒の動画データと同じ動画ファイルに静止画記録の指示により得られた画像の動画データが含まれる。なお、記録される動画データの撮影中の動作に関する情報や、人間の顔の検出された位置、大きさ、笑顔度の情報を対応する静止画ファイルのヘッダに格納してもよい。また、ストップモーション動画を生成したかどうかを示す情報も静止画ファイルのヘッダに格納してもよい。また、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した合成画像を記録する場合は、ユーザにより第2の撮像部112により得られた画像を合成する位置、大きさを指定することができる。そして、CPU101は、指定された第2の撮像部112により得られた画像を合成する位置、大きさを示す合成情報を、合成画像とともに記録媒体に記録する。合成情報は、たとえば、動画データの含まれる動画ファイル内のチャプタを管理するためのチャプタ管理情報に格納されていてもよいし、動画データ内の各フレームの画像の付加情報として記録してもよい。
「再生モード」では、記録媒体151に記録されている動画ファイルまたは静止画ファイルのファイルリスト及びサムネイル画像を読み出すように記録再生部150を制御する。そして記録再生部150により再生された各ファイルのサムネイル画像を画像処理部111で伸張させ、伸張させたサムネイル画像を表示部140に表示するように表示制御部141を制御する。そして、CPU101は、ユーザが操作部104を操作することで選択したサムネイル画像に対応する静止画ファイルまたは動画ファイルを画像処理部111に伸張させ、得られた画像を表示部140に表示するように表示制御部141を制御する。
<動画静止画撮影モード>
ここで、本実施例の「動画静止画撮影モード」について、図2を用いて詳細に説明する。図2は、「動画静止画撮影モード」における撮像装置100の動作を説明するためのフローチャートである。図2の処理はCPU101が撮像装置100の各部ブロックを制御することにより実行される処理である。
(S201)
まず、CPU101は、撮像装置100の各ブロックの動作状態を取得する。つまり静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態を取得する。たとえば、姿勢検出部160により検出された撮像装置100の姿勢を取得する。他には、第1撮像部110におけるフォーカス動作に関する情報、ズーム動作に関する情報を取得する。フォーカス動作に関する情報とは、第1撮像部110のフォーカスレンズが駆動中であるか否かを示す情報であり、ズーム動作に関する情報とは、第1撮像部110のフォーカスレンズが駆動中であるか否かを示す情報である。これらの情報はCPU101により撮像部110から取得してもよいし、CPU101自身が撮像部110の駆動を制御した履歴を保持していてもよい。また、このとき、第1撮像部110により得られた画像信号を画像処理部111に処理させている。CPU101は、得られた画像を解析し、画像の中に人物または顔といった特徴画像が含まれているか否かをパターンマッチングにより判定し、さらに、顔が検出された場合には「笑顔度」を判定するように画像処理部111を制御する。なお、「笑顔度」は、顔画像中の目、口に該当する部分の画像を解析し目に当たる画像を結んだ線の方線と、口に該当する部分の画像の端部と中央部を結んだ線のなす角度が小さいほど「笑顔度」高いと判定し、なす角度が大きいほど「笑顔度」が低いと判定する。「笑顔度」の判定方法はこの方法に限定されない。CPU101は、このようにして取得した情報を、たとえば1秒単位、0.5秒単位で、所定時間分保持する。これらの情報は後述する処理により、静止画記録の指示に対応する静止画データを含む静止画ファイルに付加情報として記録される。
(S202)
次に、CPU101は、RAM102に記憶されている、第2撮像部112の設定情報を取得する。第2撮像部112の設定情報には、第2撮像部112の撮影が「有効」か「無効」かを示す情報や、第2撮像部112により取得された画像を、第1撮像部110により取得された画像に重畳する際の「合成位置」や「合成サイズ」を示す情報が含まれる。これらは撮影時、撮影前に、ユーザにより設定される。
(S203)
次に、CPU101は、S202で取得した第2撮像部112の設定情報に基づいて、第2撮像部112の撮影が「有効」になっているか否かを判定する。
(S204)
S203で、第2撮像部112の撮影が「有効」になっている場合(S203でYes)、CPU101は、第1撮像部により得られた画像と第2撮像部により得られた画像とを合成した画像を生成するように画像処理部111を制御する。第2撮像部112により得られた画像を合成する位置は、RAM102に記憶された合成情報(「合成位置」、「合成サイズ」に基づいて、決定された位置である。
(S205)
S203で、第2撮像部112の撮影が「有効」になっていない場合(S203でNo)、CPU101は、第1撮像部により得られた画像を生成するように画像処理部111を制御する。
(S206)
S204、S205の後、CPU101は、生成した画像を動画データとして圧縮するように画像処理部111を制御する。これにより、S204またはS205により生成された画像をフレーム画像とする動画データが生成される。そして、CPU101は、圧縮された動画データをRAM102に一時的に記憶させる。なお、音声処理についても同様で、CPU101は、集音部120により得られた音声信号を、音声処理部121に処理させ、動画データと対応付けてRAM102に一時的に記憶させる。なお、このとき、CPU101は、S204またはS205により得られた画像のサイズ変更、ガンマ調整等をするように画像処理部111を制御し、得られた画像を表示部140に表示するように表示制御部141を制御する。これにより、静止画撮影指示が入力されるまでの間、各撮像部により得られた画像を動画データとして圧縮してRAM102にバッファするとともに、表示部140にその画像を表示することができる。なお、ここで、S204、またはS205で生成された画像を、表示部140に表示するように表示制御部141を制御する。
(S207)
次に、CPU101は、操作部104を介して、「動画静止画撮影モード」以外のモードへの変更または、電源オフ等の指示が入力されたかを判定する。
(S208、S209)
S207で、モードの変更が入力された場合(S207でYes)、CPU101は、各撮像部により得られた画像を動画として圧縮する動作を停止するように画像処理部111を制御する。また、RAM102に記憶した動画データ及び音声データと撮像装置100の各ブロックの動作状態の情報とを消去し、「動画静止画撮影モード」の処理を終了する。
(S210)
S207で、モードの変更が入力されなかった場合(S207でNo)、CPU101は、撮像装置100の各ブロックの動作状態に変化があったか、または、第2撮像部112の設定情報に変化があったかを判定する。なお、撮像装置100の各ブロックの動作状態のうち一部の動作状態のみについて変化があったか判定を行ってもよいし、第2撮像部112の設定情報のうち一部の設定のみにについて変化があったかを判定してもよい。本実施例では、姿勢情報に変化があったか、および第2撮像部112の「有効」、「無効」かを示す情報に変化があったか、重畳して表示する際の「表示位置」や「表示サイズ」を示す情報に変化があったかを判定する。また、第2撮像部112の画像の合成情報(「合成位置」、「合成サイズ」を示す情報)が変更されたかを判定してもよい。
(S211)
S210で、撮像装置100の各ブロックの動作状態に変化があったか、または、第2撮像部112の設定情報に変化があった場合(S210でYes)。CPU101は、RAM102に記憶した動画データ及び音声データと撮像装置100の各ブロックの動作状態の情報とを消去する。そして、処理をS201に戻す。例えば、姿勢検出部160により検出された撮像装置の姿勢情報が「0度」から「90度」に変化した場合にこのような動作を行う。また、第2撮像部112の設定を「有効」から「無効」に変更した場合にもこのような動作を行う。
(S212)
一方、S210で、撮像装置100の各ブロックの動作状態に変化がなく、第2撮像部112の設定情報にも変化がない場合(S210でNo)。CPU101は、操作部104のシャッターボタンのSW1がONになったかを判定する。なお、本実施例の撮像装置100のシャッターボタンは、一般的な撮像装置のシャッターボタンと同様に2段階スイッチになっている。シャッターボタンの半押し状態でSW1がONになり、シャッターボタンの全押し状態でSW2がONになる。すなわち、S212では、シャッターボタンが半押し状態になったか否かを判定する。ここで、操作部104のシャッターボタンのSW1がONになっていない場合(S212でNo)、処理をS201に戻す。本実施例ではシャッターボタンのように2段階スイッチになっている構成を例に示したが、このSW1、SW2は別々のボタンに割り当てられていてもよいし、タッチパネル上の異なるUIに対応するボタンに割り当てられていてもよい。
(S213)
一方、操作部104のシャッターボタンのSW1がONになっている場合(S212でYes)、CPU101は、静止画撮影のための動作を第1撮像部110に実行させる。その処理は、たとえばオートフォーカス(AF)処理、自動露出調整(AE)処理、オートホワイトバランス(AW)処理、AF補助光の発光処理等である。なお、本実施例の撮像装置100は、SW1がONである場合には、S210の判定を行わず、たとえば撮像装置100の姿勢が変化したとしてもRAM102にバッファされた動画データ、音声データ、撮像装置100の各ブロックの動作状態の情報とを消去しない。
(S214)
次に、CPU101は、操作部104のシャッターボタンのSW2がONになったかを判定する。すなわち、S214では、シャッターボタンが全押し状態になったか否かを判定する。ここで、操作部104のシャッターボタンのSW1がONになっていない場合(S214でNo)、処理をS201に戻す。
(S215)
一方、操作部104のシャッターボタンのSW2がONになっている場合(S214でYes)、CPU101は、静止画用の画像を取得するように、第1撮像部110および/または第2撮像部112を制御する。そして、CPU101は、さらに、各撮像部により得られた画像を動画として圧縮する動作を停止するように画像処理部111を制御し、また表示部140の表示を一度ブラックアウトするように表示制御部141を制御する。
(S216)
次に、CPU101は、撮影後の処理を実行する。撮影後の処理については図3を用いて説明する。図3の処理はCPU101が撮像装置100の各部ブロックを制御することにより実行される処理である。
(S301)
CPU101は、S215で各撮像部から取得した静止画用の画像を表示部140に表示するように表示制御部141を制御し、さらに、静止画データとして圧縮するように画像処理部111を制御する。そして、CPU101は、画像処理部11により生成された静止画データを記録媒体151に記録するように記録再生部150を制御する。なお、静止画データは静止画ファイルとして記録媒体151に記録される。なお、本実施例において、第1撮像部110、第2撮像部112のそれぞれにより得られた画像は、別々の静止画データとして圧縮するものとするが、これらを合成した状態で静止画データとして圧縮してもよい。
(S302)
次に、CPU101は、RAM102に記憶されている動画データが、t0秒分以上の動画データであるか否かを判定する。
(S303)
RAM102に記憶されている動画データが、t0秒分以上の動画データである場合(S302でYes)。CPU101は、RAM102に記憶されている動画データと音声データを記録媒体151に記録するように記録再生部150を制御する。なお、動画データと音声データは動画ファイルとして記録媒体151に記録される。また、このとき、CPU101は、RAM102に記憶されていた図6に示す撮像装置100の各ブロックの動作状態を示す情報を対応する静止画ファイルのヘッダ部分に付加情報として格納する。これにより、記録媒体151に記録された動画データの撮影中の撮像装置100の各ブロックの動作状態が、対応する静止画ファイルの付加情報として記録媒体151に記録されることになる。
(S304)
一方、RAM102に記憶されている動画データが、t0秒分より少ない動画データである場合(S302でNo)。CPU101は、RAM102に記憶されている動画データと音声データ、および、撮像装置100の各ブロックの動作状態を示す情報をRAM102から消去する。
(S305)
S303またはS304の処理の後、CPU101は、第2撮像部112の設定が「有効」であるか「無効」であるかを判定する。なお、本実施例の撮像装置100では、この後に生成する静止画記録の指示(SW2がON)に対応して第1撮像部110により得られた画像を動画として圧縮する際の生成方式がこの設定に応じて異なる。この動画はSW2がONになったことに応じて、第1撮像部110により得られた画像を所定フレーム連続して表示することができる動画であり、本実施例ではこの動画をストップモーションと呼ぶ。なお、本実施例においては、第2撮像部112により得られた画像についてはストップモーションとはせずに、第1撮像部110により得られた画像をプレビュー表示しているときに第2撮像部112により得られた画像を順次合成したものとする。第2撮像部112の設定が「有効」である場合には、ストップモーション動画を生成する。「無効」である場合には、SW2のONになる前にRAM102に記憶された動画データがt0以上であり、ストップモーション設定が有効になっている場合には、ストップモーション動画データを生成する。一方、「無効」であった場合、SW2のONになる前にRAM102に記憶された動画データがt0未満であったり、ストップモーション設定が無効になっていたりする場合には、ストップモーションデータを生成しない。
(S306)
S305で、第2撮像部112の設定が「有効」である場合(S305でYes)、CPU101は、ストップモーション動画を生成するように画像処理部111を制御する。この場合は、前述したように、SW2がONになったときに第1撮像部110で得られた画像を表示部140にプレビュー表示しているときに第2撮像部112で得られた画像をストップモーション動画に合成する。すなわち、図4(a)のごとく、第1撮像部110により得られた画像のストップモーション401に対して、第2撮像部112により得られた画像が402のように動画として重畳されたストップモーション動画を生成する。そのためS306では、SW2がONになったときに第1撮像部110により得られた画像をストップモーション動画用のサイズに変更する等の処理をするように画像処理部111を制御する。
(S307)
次に、CPU101は、第2撮像部112により得られた画像をS306で生成したストップモーション用の画像に合成した画像を生成するように画像処理部111を制御する。
(S308)
次に、CPU101は、S307で生成された合成画像を表示部140に表示するように表示制御部141を制御する。
(S309)
次に、CPU101は、S307で生成された合成画像を動画の1つのフレームにして動画データとして圧縮するように画像処理部111を制御する。
(S310)
CPU101は、S307からS309の処理をストップモーション動画の時間がt1秒になるまで続ける。この処理により、t1秒分のストップモーション動画が生成されることになる。
(S311)
一方、S305で、第2撮像部112の設定が「無効」である場合(S305でNo)、CPU101は、S304によるRAM102に記憶された動画データの消去がされたか否かを判定する。動画データが消去されている場合(S311でYes)、撮影後処理を終了する。すなわち、静止画記録の指示の直前の動画データもストップモーション動画の動画データも記録せずに処理を終了する。
(S312)
一方、動画データが消去されていない場合(S311でNo)、CPU101は、ストップモーション動画の設定が有効であるか否かを判定する。ストップモーション動画の設定が有効でない場合(S312でNo)、ストップモーション動画の生成をせずに処理を終了する。
(S313)
一方、ストップモーション動画の設定が有効である場合(S312でYes)、CPU101は、ストップモーション動画を生成するように画像処理部111を制御する。S313では、SW2がONになったときに第1撮像部110により得られた画像をストップモーション動画用のサイズに変更する等の処理をするように画像処理部111を制御する。
(S314)
次に、CPU101は、S313で生成された合成画像を表示部140に表示するように表示制御部141を制御する。
(S315)
次に、CPU101は、S313で生成された合成画像を動画の1つのフレームにして動画データとして圧縮するように画像処理部111を制御する。
(S316)
CPU101は、S315の処理をストップモーション動画の時間がt2秒になるまで続ける。この処理により、t2秒分のストップモーション動画が生成されることになる。
(S317)
S310、S316の後、CPU101は、画像処理部111により生成されたストップモーション動画を記録媒体151に記録するように記録再生部150を制御する。なお、S303でSW2がONになる前の4秒分の動画データを記録媒体151に記録している場合には、その動画データが格納されている動画ファイルにストップモーション動画の動画データを追記する。
このようにして、S216の処理を終了する。なお、S216の処理終了後、基本的には、動画静止画撮影モードを終了せずS201から処理を継続する。
なお、本実施例においては、t1>t2とする。これは、単にストップモーション動画を表示する場合は、t2。ストップモーション動画に対応する画像を確認しているときのカメラマンの表情の変化をとらえた動画をストップモーション動画に合成している場合は、t1。このようにカメラマンの表情の変化をとらえた動画を重畳するので、t1の方が長くなるようにしている。
次に、動画静止画撮影モードにおいて、記録される静止画および動画について図5を用いて説明する。図5(a)は、動画静止画撮影モードにおいて、SW2がONになったときタイミングと、記録される静止画と動画を示す概略図である。図5(a)では、以下の状況を示している。2013年10月10日に、15時16分20秒にSW2がONされ(レリーズ1)、動画データM1(501)と、静止画データP1(502)が、記録される。更に、15時30分45秒にSW2がONされ(レリーズ2)、動画データM2(503)と静止画データP2(504)が記録される。さらに、15時40分30秒にSW2がONされ(レリーズ3)、動画データM3(505)と静止画データP3(506)が記録される。
図5(b)は、記録媒体151に記録された動画ファイル、静止画ファイルの内容を示す概略図である。本実施例では、同じ日に記録されたデータを含むファイルは、1つのディレクトリ511(ディレクトリ名:100_1010)に格納される。ディレクトリ名及び各ファイル名はDCF(Design rule for Camera File System)に則って決定される。また、前述したように、同日に、動画静止画撮影モードで記録された動画データは、一つの動画ファイルに追記されていく。動画ファイル512(動画ファイル名:MDG_0001.MOV)には、図5(a)に示した同日に行われた、動画静止画撮影モードでの3回の撮影にそれぞれ対応した動画データが記録され、それぞれの動画データにはチャプタが設定される。すなわち、動画ファイルMDG_0001.MOVには、複数のシーンに対応する動画データが含まれている。それぞれのシーンは、同じフォルダに格納されている静止画ファイルIMG_0002.JPG、IMG_0003.JPG、IMG_0004.JPGにそれぞれ対応するシーンである。なお、通常の動画撮影モードで撮影された動画は、別の動画ファイルとして記録される。
チャプタ1(514)に対応する動画データは、静止画ファイルIMG_0002.JPGの撮影指示に対応する動画データであり、図5(a)の動画データM1である。チャプタ2(515)に対応する動画データは、静止画ファイルIMG_0003.JPGの撮影指示に対応する動画データであり、図5(a)の動画データM2及び、静止画データP2と同じ画像から生成されたストップモーション動画データである。チャプタ3(516)に対応する動画データは、静止画ファイルIMG_0003.JPGの撮影指示に対応する動画データであり、静止画データP2と同じ画像から生成されたストップモーション動画データである。チャプタ3(516)に対応する動画データに対応する動画データに図5(a)の動画データM3が含まれないのは、動画データM3がt0秒以下の動画データであるからである。
動画ファイルMDG_0001.MOVには、これらの複数の動画データを含む動画ファイルの「チャプタ参照情報」が、ヘッダ部分に記録される。このチャプタ情報は、動画静止画撮影モードで、動画データを記録媒体151に記録するたびに更新される。チャプタ参照情報について図5(c)を用いて説明する。チャプタ参照情報は、動画ファイルのファイルサイズ(521)、動画ファイルに含まれる動画データのフレーム数(522)が含まれる。更に、設定されたチャプタ番号(523)と、チャプタに対応する動画データの撮影時刻(524)、チャプタに対応する動画データの先頭フレームの番号(525)、各チャプタに対応する動画データのフレーム数(526)が含まれる。更に、第2撮像部112の画像の合成位置(527)、チャプタに対応する動画データ中のストップモーション動画データの位置(528)が含まれる。
チャプタ番号(521)は、動画静止画撮影モードで、動画データが記録される度に追加される。動画データの撮影時刻(524)は、動画静止画撮影モードでSW2がONされた時刻および年、月、日である。すなわち、動画静止画撮影モードで記録された対応する静止画データの撮影時刻と同じである。このように各静止画データの撮影時刻と各チャプタの動画データの撮影時刻を同じにすることにより静止画データから対応するチャプタを識別することを容易にしている。
各チャプタの先頭のフレーム番号(525)は、動画ファイル512に記録された動画データ全体の中で、各チャプタの先頭フレームのフレーム番号であり、これを用いると各動画データの頭出し再生が容易に可能となる。第2撮像部112の画像の合成情報(527)は、第1撮像部110の画像の左上の座標を(X,Y)=(0,0)としたときに、する第2撮像部112の画像の左上の座標X,Y(合成位置)と、第2撮像部112の画像の横幅W、縦幅H(合成サイズ)からなる。チャプタ1では、第2撮像部112の画像の座標、横幅、縦幅の値が0である。この場合は、第2撮像部112の撮影設定が「無効」であることを示している。この第2撮像部112の画像の合成情報(合成位置および合成サイズ)(527)の情報を用いることで、第2撮像部112の画像をトリミング(切り出)して表示することも可能となる。
ストップモーション動画データの位置(528)は、各チャプタの動画データの先頭フレームを0としたときの、ストップモーション動画データ部分のフレーム番号を示す。チャプタ1の動画データでは、ストップモーション動画の部分は存在しない。そしてチャプタ2では、チャプタ2の動画データのフレーム数180のうち、後半の90フレーム目から179フレーム目がストップモーション動画である。チャプタ3では、チャプタ3の動画データのフレーム数180のうちの全てがストップモーション動画である。ストップモーション動画データの位置がわかることで、各チャプタの動画データの中のストップモーション動画の部分のみを再生したり、ストップモーション動画以外の部分のみを再生したりすることが容易になる。
チャプタ参照情報は、このほかに、動画データの画像の撮影中に画像処理部111により識別された特定の人物や顔を示す識別情報(登録番号、識別子、名前、ニックネーム、誕生日等)を含む。特定の人物や顔を検出するのは、第1撮像部110の画像および、第2撮像部112の画像の両方であってもよい。また、動画データの画像の撮影中に画像処理部111により識別された顔の位置や個数を示す情報を含む。また、動画データの画像の撮影中に画像処理部111により識別されたまた、顔の位置や個数を検出するのは第1撮像部110の画像及び、第2撮像部112の画像両方であってもよい。
動画静止画撮影モードで記録されたそれぞれの静止画ファイルには、動画静止画撮影モードでRAM102に記憶していた、静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態を示す付加情報が格納される(S303)。
静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態を示すこの付加情報は、図6に示すような情報である。図6に示すように、静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態は、所定時間単位で取得され、その情報に基づいて、付加情報が生成される。時間軸はSW2がONになった時を0とし、その前の撮像装置100の各ブロックの動作状態を4秒分保持している。図6には、カメラ100の姿勢情報、第1撮像部110におけるAF動作の有無の情報、及びズーム動作の有無の情報、被写体の情報としてメインカメラの被写体の笑顔度の情報が含まれる。撮像装置100の各ブロックの動作状態として、これら以外の項目があってもよい。例えば、動画データを構成する各フレームを画像処理部111で解析することにより、動画データに含まれる被写体や、被写体の位置、顔の大きさ等が、撮像装置100の各ブロックの動作状態の項目を含んでもよい。付加情報にはこのような情報が含まれる。
<アルバム再生>
ここで、本実施例の撮像装置100は、「再生モード」において「アルバム再生」を選択することができる。「アルバム再生」は、複数の画像データから所定数の画像を抽出し、抽出された画像を表示するものである。この「アルバム再生」における撮像装置100の動作について、図6を用いて説明する。図6のフロー図は、CPU101が、撮像装置100の各ブロックを制御することにより実行される処理を示す。なお、本実施例の「アルバム再生」は、指定された日付に撮影された画像データから所定数の画像を抽出する例について説明するが、たとえば、指定された人物に関連する画像から所定数の画像を抽出するようにしてもよい。また、ユーザによる評価値(お気に入り度、レーティング)が上位の画像データ群から所定数の画像を抽出するようにしてもよい。
<対象画像特定>
(S601)
まず、「アルバム再生」が指定されると、CPU101は、最後に再生していた画像データの撮影日時情報を取得する。そして、同じ日時に、静止画撮影モードにて記録された、静止画ファイル及び、動画静止画撮影モードにて記録された静止画ファイル、及び動画ファイルを特定する。特定された静止画ファイルと動画ファイルに含まれる画像がアルバム再生の対象となる。
(S602)
次に、CPU101は、特定された静止画ファイルと、動画ファイルの各チャプタを1時間ごとのグループ(部分集合)に分類する。なお、グループに分ける場合は1時間単位で単純に区切ってもよいが、連続性のある撮影が行われている可能性もあるので最短距離法を用いて、1時間程度の単位になるように分類してもよい。
(S603)
次に、CPU101は、分類されたグループ単位で、画像の抽出を行う。本実施例では、静止画については4秒表示し、動画については、抽出されたチャプタの動画を表示する(本実施例では約4秒)。そして、目標とされる総再生時間が約2分であるものとする。すなわち静止画と動画のシーンの数は、2(分)×60(秒換算)÷2(秒)=60(シーン)である。本実施例では、各グループ内で、動画のシーンと静止画のシーンが、1:3程度の割合になるように、各グループ内で、動画と、静止画とで別々に評価を行い、評価値の高い動画と静止画とを抽出する。なお、静止画の表示時間については4秒に固定されるものではない。本実施例では説明を容易にするために動画と同じ4秒として説明をした。
ここで、動画の評価値の算出方法について説明する。ここではあるチャプタに属する動画の評価値を算出の例について説明する。まず、チャプタ[M]の評価値MovieValue[M]は、チャプタ[M]のチャプタ参照情報中の、顔の位置や個数を示す情報(顔検出情報)を用いて、評価値を算出する。具体的には、チャプタ[M]内の検出された顔の位置が中心に近いほど評価値を高く算出し、また、顔の大きさが大きいほど評価値を高く算出する。さらに、第2撮像部112で撮像された画像の評価値をさらに加えてもよい。たとえば、チャプタ[M]のチャプタ参照情報中の、第2撮像部112で撮像された画像の顔の位置や個数を示す情報(顔検出情報)を用いて評価値を算出する。そして、算出された評価値を評価値MovieValue[M]に加算する。このようにして動画の評価値を算出する。静止画に関してもその画像中の顔の大きさ、位置、個数または笑顔度等の情報を用いて評価値を算出する。
(S604)
次に、CPU101は、カメラマン表示に使用する動画を含む動画のチャプタを特定する。カメラマン表示とは、第2撮像部112で撮像された画像のみを表示するものである。本実施例では、S603で抽出された動画のチャプタの中でさらに、第2撮像部112で撮像された画像の評価値の高いシーンをカメラマン表示に使用するものとする。そのためCPU101は、S603で抽出されたチャプタのチャプタ参照情報に基づいて、第2撮像部112で撮像された画像中の顔の位置や個数を示す情報に基づいて、第2撮像部112で撮像された画像の評価値を算出する。そして、その上位3つのチャプタをカメラマン表示に使用する動画を含む動画のチャプタであると、特定する。
なお、撮像装置100にあらかじめ、人物や顔を特定するための特徴画像と識別子が関連付けられた「辞書」が保存されている場合は、第2撮像部112で撮像された画像に、「辞書」に登録された人物や顔を含むチャプタを優先して選択するようにしてもよい。
(S605)
次に、CPU101は、S603で抽出した静止画と動画とを時系列順に表示し、S604で特定されたチャプタの第2撮像部112で撮像された画像を切り出した画像を表示するためのアルバムシナリオを作成する。本実施例では静止画を4秒表示するようにシナリオを作成する。
(S606)
次に、CPU101は、S605で作成されたシナリオに従って、再生した画像を表示部140に表示する。静止画ファイルに対応する静止画を表示するときは、CPU101は、シナリオによって再生対象とされる静止画ファイルを記録媒体151から再生するように記録再生部150を制御する。そして、再生された静止画ファイルの画像を画像処理部111で伸張させて表示部140に表示するように表示制御部141を制御する。このとき連続して4秒この画像が表示されるように表示制御部141を制御する。一方、特定されたチャプタに対応する動画を表示する場合、そのチャプタの含まれる動画ファイルのチャプタ参照情報に従って、そのチャプタの動画のフレームが動画ファイルの動画の何フレーム目から何フレーム目までかを特定する。そして、CPU101は、動画ファイルのヘッダを参照し、対象フレームのファイルオフセットを特定し、対象の動画データを記録媒体151から読みだすように記録再生部150を制御する。そして、読みだした動画データを画像処理部111に伸張させ、伸張した画像を順次表示部140に表示するように表示制御部141を制御する。
最後に、カメラマン表示を行う場合の処理について説明する。本実施例では前述のように、「動画静止画撮影モード」で、第2撮像部112を「有効」にしていた場合、第1撮像部で撮像された画像と第2撮像部112で撮像された画像とを合成し、さらに動画として圧縮された状態で記録媒体に記録している。そのため、カメラマン表示を行うためには、第2撮像部112で撮像された画像の合成位置、合成サイズを特定しなければならない。本実施例では、チャプタ参照情報に第2撮像部112で撮像された画像の合成情報(合成位置、合際サイズ)が格納されているので、その情報に基づいて、画像の切り出し(トリミング)を行い、画像を抽出する。そこで、CPU101は、S604で特定された、カメラマン表示に使用する動画を含むチャプタの動画をチャプタ参照情報に従って、特定する。そして、そして、CPU101は、動画ファイルのヘッダを参照し、対象フレームのファイルオフセットを特定し、対象の動画データを記録媒体151から読みだすように記録再生部150を制御する。そして、読みだした動画データを画像処理部111に伸張させる。次に、CPU101は、チャプタ参照情報に含まれる合成情報(合成位置、合際サイズ)に基づいて、第2撮像部112で撮像された画像の合成されている領域を特定し、その領域を切り出す(トリミング)ように画像処理部111を制御する。そして切り出された画像と、「cameraman」等のテキスト情報を合成するように画像処理部111を制御し、合成した画像を表示部140に表示するように表示制御部141を制御する。なお、このとき、切り出された第2撮像部112で撮像された画像を画面中央にくるように移動させたり、拡大したりしてもよい。
(S607)
次に、CPU101は、ユーザの指示により、再生の指示が入力されたか、保存の指示が入力されたかを判定する。再生の指示が入力された場合(S607で再生)、処理をS606に戻す。
(S608)
S607で、保存の指示が入力された場合(S607で保存)。CPU101は、シナリオに従った表示をすることができる動画データを生成するように画像処理部111を制御し、画像処理部111で生成された画像を記録媒体151に記録するように記録再生部150を制御する。このとき、CPU101は、H.264やH.265等の圧縮符号化技術を用いて、シナリオに従った表示画像を圧縮して動画データを生成する。
以上のように本実施例の撮像装置100は、「アルバム再生」において、記録媒体151に記録された、所定の範囲または条件によって絞り込まれた複数の画像群から、評価値の高い画像を表示することができる。さらに、同様の表示を行うための動画データを生成することもできる。特に、「カメラマン表示」を行う場合には、チャプタ参照情報に第2撮像部112で撮像された画像の合成情報(合成位置、合際サイズ)が格納されているので、その情報に基づいて、画像の切り出し(トリミング)を行い、画像を抽出する。
このようにすることで、本実施例の撮像装置は、第1の撮像部と第2の撮像部により得られた画像を合成して記録する場合であっても第2の撮像部で撮像された画像のみを抽出して表示することができる。
なお、抽出されたチャプタの動画データにストップモーション動画が含まれている場合は、同じ画像である静止画については評価値が高くとも抽出対象としないようにしてもよい。
なお、評価値のうちどの評価値が高い画像を優先するか、優先される評価値を設定できるようにしてもよい。
なお、本実施例では、撮像装置を例にとって説明したが、複数の動画または静止画またはその両方を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。
(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。

Claims (16)

  1. 第1の撮像手段と、
    第2の撮像手段と、
    前記第1の撮像手段により得られた画像と、前記第2の撮像手段により得られた画像とを合成した合成画像を生成する合成手段と、
    前記合成手段により生成された合成画像と、前記合成画像の合成に関する合成情報を記録媒体に記録する記録手段と、
    前記記録媒体に記録された合成画像と、前記合成情報とを前記記録媒体から再生する再生手段と、
    前記再生手段により再生された前記合成情報に基づいて、前記再生手段により再生された前記合成画像から、前記第2の撮像手段により得られた画像を抽出する抽出手段と、
    前記抽出手段により抽出された、前記第2の撮像手段により得られた画像を表示するための情報を生成する生成手段とを有することを特徴とする撮像装置。
  2. 前記合成情報は、前記合成画像における前記第2の撮像手段により得られた画像の合成位置を示すことを特徴とする請求項1に記載の撮像装置。
    前記画像処理装置。
  3. 前記合成情報は、前記合成画像における前記第2の撮像手段により得られた画像の合成サイズを示す請求項1または2に記載の撮像装置。
  4. 前記記録手段は、前記生成手段により生成された情報を動画データとして前記記録媒体に記録することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
  5. 前記生成手段は、前記抽出手段により抽出された前記第2の撮像手段により得られた画像に所定のテキスト情報を合成することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
  6. 第1の撮像手段により得られた画像と、第2の撮像手段により得られた画像とを合成した合成画像と、前記合成画像の合成に関する合成情報とを、記録媒体から再生する再生手段と、
    前記再生手段により再生された前記合成情報に基づいて、前記再生手段により再生された前記合成画像から、前記第2の撮像手段により得られた画像を抽出する抽出手段と、
    前記抽出手段により抽出された、前記第2の撮像手段により得られた画像を表示するための情報を生成する生成手段とを有することを特徴とする画像処理装置。
  7. 前記合成情報は、前記合成画像における前記第2の撮像手段により得られた画像の合成位置を示すことを特徴とする請求項6に記載の画像処理装置。
  8. 前記合成情報は、前記合成画像における前記第2の撮像手段により得られた画像の合成サイズを示す請求項6または7に記載の画像処理装置。
  9. 前記生成手段により生成された情報を動画データとして前記記録媒体に記録する記録手段を有することを特徴とする請求項6から8のいずれか1項に記載の画像処理装置。
  10. 前記生成手段は、前記抽出手段により抽出された前記第2の撮像手段により得られた画像に所定のテキスト情報を合成することを特徴とする請求項6から9のいずれか1項に記載の画像処理装置。
  11. 第1の撮像手段により得られた画像と、第2の撮像手段により得られた画像とを合成した合成画像と、前記合成画像の合成に関する合成情報とを、記録媒体から再生する再生ステップと、
    前記再生ステップで再生された前記合成情報に基づいて、前記再生ステップで再生された前記合成画像から、前記第2の撮像手段により得られた画像を抽出する抽出ステップと、
    前記抽出ステップにより抽出された、前記第2の撮像手段により得られた画像を表示するための情報を生成する生成ステップとを有することを特徴とする画像処理方法。
  12. 前記合成情報は、前記合成画像における前記第2の撮像手段により得られた画像の合成位置を示すことを特徴とする請求項11に記載の画像処理方法。
  13. 前記合成情報は、前記合成画像における前記第2の撮像手段により得られた画像の合成サイズを示す請求項11または12に記載の画像処理方法。
  14. 前記生成ステップにより生成された情報を動画データとして前記記録媒体に記録する記録ステップを有することを特徴とする請求項11から13のいずれか1項に記載の画像処理方法。
  15. 前記生成ステップにおいて、前記抽出ステップで抽出された前記第2の撮像手段により得られた画像に所定のテキスト情報を合成することを特徴とする請求項11から14のいずれか1項に記載の画像処理方法。
  16. コンピュータに請求項11から15のいずれか1項に記載の方法を実行させるためのコンピュータプログラム。
JP2013272051A 2013-12-27 2013-12-27 撮像装置、画像処理装置、画像処理方法、プログラム Active JP6355333B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013272051A JP6355333B2 (ja) 2013-12-27 2013-12-27 撮像装置、画像処理装置、画像処理方法、プログラム
US14/578,182 US9407825B2 (en) 2013-12-27 2014-12-19 Imaging apparatus, image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013272051A JP6355333B2 (ja) 2013-12-27 2013-12-27 撮像装置、画像処理装置、画像処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2015126518A true JP2015126518A (ja) 2015-07-06
JP2015126518A5 JP2015126518A5 (ja) 2017-02-16
JP6355333B2 JP6355333B2 (ja) 2018-07-11

Family

ID=53483338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013272051A Active JP6355333B2 (ja) 2013-12-27 2013-12-27 撮像装置、画像処理装置、画像処理方法、プログラム

Country Status (2)

Country Link
US (1) US9407825B2 (ja)
JP (1) JP6355333B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8743269B2 (en) * 2009-06-15 2014-06-03 Olympus Imaging Corp. Photographing device, photographing method, and playback method
US10447910B2 (en) * 2016-08-04 2019-10-15 International Business Machines Corporation Camera notification and filtering of content for restricted sites
JP6709761B2 (ja) * 2017-08-16 2020-06-17 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009052A (ja) * 2001-06-21 2003-01-10 Nippon Computer:Kk 同時録画再生方法及び同時録画再生装置
JP2004363994A (ja) * 2003-06-05 2004-12-24 Casio Comput Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP2011199354A (ja) * 2010-03-17 2011-10-06 Mitsubishi Electric Corp 画像処理装置、画像再生装置および画像処理システム
JP2011250340A (ja) * 2010-05-31 2011-12-08 Sanyo Electric Co Ltd 撮像装置およびその制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165029A (ja) 1992-11-18 1994-06-10 Matsushita Electric Ind Co Ltd ビデオカメラレコーダ
EP0954181B1 (en) * 1998-04-28 2007-12-26 Canon Kabushiki Kaisha Data processing apparatus and method
US7675563B2 (en) * 2002-11-15 2010-03-09 Seiko Epson Corporation Digital camera
JP4437819B2 (ja) * 2004-06-07 2010-03-24 シャープ株式会社 車両用表示装置、車両および表示方法
WO2006067545A1 (en) * 2004-12-23 2006-06-29 Nokia Corporation Multi-camera solution for electronic devices
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009052A (ja) * 2001-06-21 2003-01-10 Nippon Computer:Kk 同時録画再生方法及び同時録画再生装置
JP2004363994A (ja) * 2003-06-05 2004-12-24 Casio Comput Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP2011199354A (ja) * 2010-03-17 2011-10-06 Mitsubishi Electric Corp 画像処理装置、画像再生装置および画像処理システム
JP2011250340A (ja) * 2010-05-31 2011-12-08 Sanyo Electric Co Ltd 撮像装置およびその制御方法

Also Published As

Publication number Publication date
JP6355333B2 (ja) 2018-07-11
US9407825B2 (en) 2016-08-02
US20150189122A1 (en) 2015-07-02

Similar Documents

Publication Publication Date Title
US10367997B2 (en) Enriched digital photographs
US9013604B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
KR20120081516A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2013162425A (ja) 撮像装置、撮像方法およびプログラム
KR101737086B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
CN111312132A (zh) 显示控制装置及其控制方法
KR20100070043A (ko) 디지털 영상 신호 처리 장치의 장면 인식 표시 방법, 이를 기록한 기록 매체, 상기 표시 방법을 적용한 디지털 영상 신호 처리 장치
JP6355333B2 (ja) 撮像装置、画像処理装置、画像処理方法、プログラム
JP6460783B2 (ja) 画像処理装置及びその制御方法
JP6292872B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2011119936A (ja) 撮影装置及び再生方法
JP6249771B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2015023317A5 (ja) 画像管理装置及び画像管理方法、プログラム、並びに記憶媒体
JP5368614B2 (ja) 画像検索装置および画像検索方法
KR101748576B1 (ko) 이동통신 단말기에서 동영상 데이터를 세그먼팅하기 위한 장치 및 방법
JP6296791B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2019140568A (ja) 画像処理装置
JP6643081B2 (ja) アルバム動画生成装置、アルバム動画生成方法及びプログラム
JP5665380B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
JP6450879B2 (ja) 記録装置、記録方法及び記録プログラム
JP2017069596A (ja) 画像処理装置及び方法
JP6332963B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6375114B2 (ja) 画像再生装置及び画像再生装置の制御方法
JP2017046230A (ja) 動画編集装置及び動画編集方法、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180612

R151 Written notification of patent or utility model registration

Ref document number: 6355333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151