JP2020120221A - 撮影支援方法、プログラム、データ処理装置 - Google Patents

撮影支援方法、プログラム、データ処理装置 Download PDF

Info

Publication number
JP2020120221A
JP2020120221A JP2019008533A JP2019008533A JP2020120221A JP 2020120221 A JP2020120221 A JP 2020120221A JP 2019008533 A JP2019008533 A JP 2019008533A JP 2019008533 A JP2019008533 A JP 2019008533A JP 2020120221 A JP2020120221 A JP 2020120221A
Authority
JP
Japan
Prior art keywords
shooting
data
result
analysis
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019008533A
Other languages
English (en)
Other versions
JP6654288B1 (ja
Inventor
高済 真哉
Masaya Takasumi
真哉 高済
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2019008533A priority Critical patent/JP6654288B1/ja
Application granted granted Critical
Publication of JP6654288B1 publication Critical patent/JP6654288B1/ja
Publication of JP2020120221A publication Critical patent/JP2020120221A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】映像作品のジャンルによらず、映像制作における撮影作業を支援する。【解決手段】撮影装置10と携帯端末30とにネットワーク経由で接続可能なコンピュータ20は、撮影装置10を用いた動画撮影によって得られた撮影データに関するメタデータを受信する。コンピュータ20は、メタデータに基づいてカメラワーク分析と被写体分析を実行する。コンピュータ20は、カメラワーク分析によって分類された撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、被写体分析によって分類された撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成する。コンピュータ20は、第1の集計結果と第2の集計結果とを含む集計情報を携帯端末30に送信する。携帯端末30は、集計情報に基づいて、第1の集計結果と第2の集計結果を表示する。【選択図】図6

Description

本明細書の開示は、撮影支援方法、プログラム、及び、データ処理装置に関する。
映像作品は、適切なカメラワークで様々な被写体の映像を撮影し、その結果得られた複数の映像素材を編集することによって制作される。編集作業は、映像作品の質に大きく影響する作業であり、複数の映像素材を適材適所に繋ぎ合わせることが重要である。しかしながら、必要な映像素材が予め撮影によって収集されていなければ、適切な編集作業を行うことは困難である。
このような課題に関連する技術は、例えば、特許文献1に記載されている。特許文献1には、作品制作に必要な情報素材を列挙したアドバイスリストを撮影作業前に入手することが記載されている。また、そのアドバイスリストに基づいて、収集すべき情報素材に関する情報を撮影作業中にアドバイスとして表示することも記載されている。なお、特許文献1では、作品制作に必要な情報素材は、予め設定されたシナリオ毎に特定されている。特許文献1に記載の技術によれば、映像作品の制作(以降、単に映像制作と記す。)に必要な素材を漏れなく効率的に且つ容易に収集することができる。
特開2003−078868号公報
特許文献1に記載の技術は、例えばフィクションを扱う映像作品を制作する場合など、撮影作業前に予め具体的なシナリオを作りやすい場合に有効である。その一方で、例えば、ドキュメンタリー作品の制作には、不向きである。その理由は、ドキュメンタリー作品のシナリオは、通常、撮影現場若しくは編集の時点で具体化されるからであり、その結果、事前にシナリオを詳細に作りこむことができないからである。
以上のような実情を踏まえ、本発明の一側面に係る目的は、映像作品のジャンルによらず適用可能な、映像制作における撮影作業を支援する技術を提供することである。
本発明の一態様に係る撮影支援方法は、撮影装置と表示端末とにネットワーク経由で接続可能なコンピュータが、前記撮影装置で生成されたメタデータであって、前記撮影装置を用いた動画撮影によって得られた撮影データに関する前記メタデータを受信し、前記メタデータに基づいて前記撮影データを前記撮影データに対応するカメラワークの種類に分類するカメラワーク分析と、前記メタデータに基づいて前記撮影データを前記撮影データに対応する被写体の種類に分類する被写体分析と、を実行し、前記カメラワーク分析によって分類された前記撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、前記被写体分析によって分類された前記撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成し、前記第1の集計結果と前記第2の集計結果とを含む集計情報を前記表示端末に送信し、
前記表示端末が、前記集計情報に基づいて、前記第1の集計結果と前記第2の集計結果を表示する、ことを含む。
本発明の一態様に係るプログラムは、撮影装置と表示端末とにネットワーク経由で接続可能なコンピュータに、前記撮影装置で生成されたメタデータであって、前記撮影装置を用いた動画撮影によって得られた撮影データに関する前記メタデータを受信し、前記メタデータに基づいて前記撮影データを前記撮影データに対応するカメラワークの種類に分類するカメラワーク分析と、前記メタデータに基づいて前記撮影データを前記撮影データに対応する被写体の種類に分類する被写体分析と、を実行し、前記カメラワーク分析によって分類された前記撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、前記被写体分析によって分類された前記撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成し、前記第1の集計結果と前記第2の集計結果とを含む集計情報を前記表示端末に送信する、
処理を実行させる。
本発明の一態様に係るデータ処理装置は、撮影装置と表示端末とにネットワーク経由で接続可能なデータ処理装置であって、前記撮影装置で生成されたメタデータであって、前記撮影装置を用いた動画撮影によって得られた撮影データに関する前記メタデータを受信する受信部と、前記メタデータに基づいて前記撮影データを前記撮影データに対応するカメラワークの種類に分類するカメラワーク分析と、前記メタデータに基づいて前記撮影データを前記撮影データに対応する被写体の種類に分類する被写体分析と、を実行する分析部と、前記カメラワーク分析によって分類された前記撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、前記被写体分析によって分類された前記撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成する集計部と、前記第1の集計結果と前記第2の集計結果とを含む集計情報を前記表示端末に送信する送信部と、を備える。
上記の態様によれば、映像作品のジャンルによらず適用可能な、映像制作における撮影作業を支援する技術を提供することができる。
撮影支援システム1の構成を例示した図である。 撮影装置10の構成を例示した図である。 コンピュータ20の構成を例示した図である。 撮影支援処理に関連するコンピュータ20の機能的構成を例示した図である。 携帯端末30の構成を例示した図である。 撮影支援処理の一例を示すフローチャートである。 撮影履歴記録処理の一例を示すシーケンス図である。 メイン画面の一例を示す図である。 プロジェクト作成画面の一例を示す図である。 撮影履歴記録テーブルの一例を示す図である。 撮影データのメタデータの構成例を示す図である。 進捗確認処理の一例を示すシーケンス図である。 画角分析処理の一例を示すフローチャートである。 カット分析処理の一例を示すフローチャートである。 カメラワークタブ選択時における進捗確認画面の一例を示す図である。 被写体タブ選択時における進捗確認画面の一例を示す図である。 画角タブ選択時における進捗確認画面の一例を示す図である。 カットタブ選択時における進捗確認画面の一例を示す図である。 撮影データ分類テーブルの一例を示す図である。 映像データのカット種類を変更する方法を説明する図である。 フォーマットタブ選択時における進捗確認画面の一例を示す図である。 Raw現像タブ選択時における進捗確認画面の一例を示す図である。
図1は、撮影支援システム1の構成を例示した図である。撮影支援システム1は、映像制作のための撮影作業を支援するシステムである。撮影支援システム1は、撮影作業を行う撮影者が携帯する撮影装置10及び携帯端末30と、撮影装置10及び携帯端末30に通信ネットワーク経由で接続可能なコンピュータ20と、を含んでいる。
コンピュータ20と撮影装置10は、例えば、Wi−Fi(登録商標)などの無線LAN通信を用いてデータをやり取りする。また、コンピュータ20と携帯端末30は、例えば、Wi−Fiなどの無線LAN通信を用いてデータをやり取りしてもよく、LTE(登録商標)などの移動体通信を用いてデータをやり取りしてもよい。
なお、図1では、撮影装置10と携帯端末30がそれぞれ独立した装置である例を示したが、撮影装置10と携帯端末30は単一の装置であってもよい。
撮影装置10は、デジタルカメラである。以降では、撮影装置10がデジタルカメラ専用機である場合を例に説明するが、撮影装置10は、デジタル動画撮影機能を備えた装置であればよい。撮影装置10は、例えば、動画撮影機能を備えた、スマートフォン、タブレット型コンピュータなどであってもよい。
撮影装置10は、撮影者の指示に従って動画撮影を行い、動画撮影によって得られた撮影データを記録する。撮影装置10は、撮影データをMOV形式等で記録するBT.709準拠の標準的な画質モードやLogモードの撮影に加えて、RAW形式で記録するRAW動画撮影を行ってもよい。MOV形式では例えばH.264やH.265のコーデックが選択可能である。
撮影装置10は、撮影データの生成に伴い、撮影データに関するメタデータ(以降、単に、メタデータと記す。)を生成する。撮影装置10は、生成したメタデータをコンピュータ20へ送信する。メタデータは、少なくとも、各撮影を特定する撮影識別情報と、撮影日時情報と、を含んでいる。メタデータは、さらに、静止画のサムネイルと移動ベクトル情報、又は、動画のサムネイルを含むことが望ましい。また、メタデータは、さらに、撮影データのファイル名、撮影データのデータサイズ、フレームレート、タイムコード、レンズ情報、AF情報、露出情報、顔検出情報、撮影装置10の姿勢情報のうちの少なくとも1つを含むことが望ましい。
なお、撮影装置10は、撮影データを、必要に応じて、コンピュータ20へ送信してもよい。撮影データは、メタデータと比較してデータサイズが大きいため、BLE(登録商標)などの近距離無線通信を用いて携帯端末30へ一旦送信し、その後、携帯端末30からWi−Fiなどの無線LAN通信を用いてコンピュータ20へ送信してもよい。または、近距離無線通信を用いて携帯端末30へ一旦送信し、その後、携帯端末30からLTEなどの移動体通信を用いてコンピュータ20へ送信してもよい。撮影装置10は、撮影データとともにメタデータを携帯端末30経由でコンピュータ20へ送信してもよい。
コンピュータ20は、撮影装置10又は携帯端末30から受信したメタデータを分析し、分析結果を集計するデータ処理装置である。コンピュータ20は、携帯端末30から要求に応じて、集計結果を含む集計情報を携帯端末30へ送信する。コンピュータ20は、メタデータに加えて、撮影装置10から直接、又は、携帯端末30を経由して撮影装置10から間接に、撮影データを受信してもよい。
携帯端末30は、表示装置を備える表示端末である。携帯端末30は、例えば、スマートフォン、タブレット型コンピュータなどである。携帯端末30は、撮影者からの進捗確認指示に従って、撮影の進捗状況を確認する要求をコンピュータ20へ送信する。そして、携帯端末30は、コンピュータ20から要求に対する応答として集計情報を受信すると、コンピュータ20から受信した集計情報に基づいて集計結果を表示する。
撮影支援システム1では、撮影者は、撮影作業中に携帯端末30に表示された集計結果を見ることで、撮影作業の進捗状況を確認することができる。このため、撮影支援システム1によれば、映像制作における撮影作業を支援することができる。
以下、撮影支援システム1の各構成要素について更に詳細に説明する。図2は、撮影装置10の構成を例示した図である。撮影装置10は、動画撮影機能を備えたデジタルカメラであり、図2に示すように、カメラ本体100と、カメラ本体100に着脱自在なレンズユニット200と、を備えている。
レンズユニット200は、レンズ201と、レンズ駆動部202と、レンズ駆動制御回路203と、Flashメモリ204と、を備えている。レンズ201は、単焦点レンズまたはズームレンズであり、被写体の光学像を形成するための単数または複数の光学レンズを含んでいる。レンズ201は、レンズ駆動部202の動力によって光軸方向に移動する。レンズ駆動制御回路203は、後述するマイクロコンピュータ107からの制御信号に基づいてレンズ駆動部202を制御してレンズ201を動かすことで、ピント位置を調整する。レンズ201がズームレンズである場合には、レンズ201の焦点距離についても調整可能である。Flashメモリ204には、レンズ201固有の情報であるレンズ情報が格納されている。レンズ情報は、例えば、焦点距離などの情報を含んでいる。
カメラ本体100は、撮像素子101を含んでいる。撮像素子101は、例えば、CCD(ChargeCoupled Devic)イメージセンサ、CMOS(ComplementaryMetal−Oxide−Semiconductor)イメージセンサなどであり、各々が画素を構成する、二次元に配列された複数のフォトダイオードを含んでいる。フォトダイオードが受光量に応じた電流を発生させることで、フォトダイオードに接続されているキャパシタに電荷が蓄積される。複数のフォトダイオードの前面には、ベイヤ配列に並べられたRGBフィルタが配置されている。
なお、撮像素子101の構成はベイヤ配列に並べられたRGBフィルタを含む構成に限定されない。撮像素子101は、複数の色の光を識別可能に検出できればよく、例えばFOVEON(登録商標)のような、素子の厚さ方向に複数のセンサを配列した構成であってもよい。
撮像素子101は撮像回路102に接続されている。撮像回路102は、撮像素子101から出力された信号(以降、アナログ画像信号と記す)に対し、リセットノイズを低減した上で波形整形を行い、さらに適切な輝度になるようにゲインアップを行う。撮像回路102は、AD(Analog−to−Digital)コンバータ103に接続されている。ADコンバータ103は、アナログ画像信号をアナログ−デジタル変換する。その後、得られたデジタル画像信号をバス119に出力して、SDRAM(SynchronousDynamic Random Access Memory)109に撮影データとして記憶させる。さらに、撮影装置10がRAW撮影を行っている場合であれば、その撮影データは、メモリI/F110を経由して記録媒体113に記録される。なお、本明細書においては、画像処理部104で処理される前のRAW形式の撮影データを、RAWデータと記す。
画像処理部104は、RAWデータに対して画像処理を実行する。画像処理部104は、例えば、SDRAM109から読み出したRAWデータを映像データに変換し、映像データをSDRAM109に記憶させる。画像処理部104は、映像データから動画又は静止画のサムネイルを生成してもよく、映像データから移動ベクトル情報を生成してもよい。画像処理部104は、さらに、映像データから顔検出情報を生成してもよい。
圧縮伸張部105は、映像データをメモリI/F110に接続された記録媒体113へ記録するときに、映像データを指定された圧縮方式に従って圧縮する。マイクロコンピュータ107は、圧縮された映像データに対して、必要なヘッダを付加して、映像ファイルを生成し、メモリI/F110を経由して記録媒体113に記録する。また、圧縮伸張部105は、映像の再生表示のために映像データの伸張も行う。
マイクロコンピュータ107は、撮影装置10全体を制御する回路である。マイクロコンピュータ107には、Flashメモリ108及び操作部112が接続されている。マイクロコンピュータ107はFlashメモリ108に格納されているプログラムに基づいて撮影装置10全体の制御を行う。マイクロコンピュータ107は、例えば、メモリI/F110を経由して行う記録媒体113に対する撮影データの書込み及び読み出しを制御する。また、マイクロコンピュータ107は、画像処理部104からの出力等を用いてメタデータを生成して、生成したメタデータを、メモリI/F110を経由して記録媒体113に記録する。
Flashメモリ108は、プログラムに加えて、プログラムの実行において使用される種々の情報を格納している。SDRAM109は、撮影データ等の一時記憶用の、電気的書き換え可能な揮発性メモリである。SDRAM109は、ADコンバータ103から出力されたRAWデータ、画像処理部104、圧縮伸張部105において処理された映像データを一時記憶する。
メモリI/F110は、記録媒体113に接続されている。メモリI/F110は、撮影データとメタデータを、記録媒体113に対して書き込み及び読み出しする。記録媒体113は、例えば、カメラ本体100に着脱自在なメモリカード等であるが、これに限らず、カメラ本体100に内蔵された不揮発性メモリやハードディスク等であっても良い。
LCD(Liquid Crystal Display)ドライバ111は、LCD114に接続されている。LCDドライバ111は、SDRAM109又は記録媒体113から読み出されて、圧縮伸張部105によって伸張された映像データに基づいて、映像をLCD114に表示させる。LCD114は、例えば、カメラ本体100の背面に設けられている。なお、カメラ本体100は、LCD114の代わりに有機EL(Electro−Luminescence)ディスプレイなど他のディスプレイ装置を備えてもよい。
操作部112は、電源釦、レリーズ釦、動画釦、再生釦、メニュー釦、十字釦、OK釦、モードダイヤル等、各種入力釦及び各種入力キーを含んでいる。操作部112は、これらの操作状態を検知し、検知結果をマイクロコンピュータ107に出力する。マイクロコンピュータ107は、操作部112から出力された検知結果に基づいて、撮影者の操作に応じた各種シーケンスを実行する。
AE(Automatic Exposure)処理部115は、映像データに基づいて被写体輝度を測定し、測定した被写体輝度情報を、マイクロコンピュータ107に出力する。なお、映像データに基づいて被写体輝度を算出する代わりに、撮影装置10は、被写体輝度の測定のために専用の測光センサを設けてもよく、測光センサの出力に基づいて被写体輝度を算出してもよい。マイクロコンピュータ107は、被写体輝度に基づいてBT値などの露出制御パラメータを算出する。マイクロコンピュータ107は、さらに、TV値、AV値、SV値などの露出制御パラメータ値を算出してもよい。TV値、AV値、SV値は、それぞれシャッター速度、F値、ISO感度に基づいて算出する。なお、これらの露出制御パラメータ値を含む露出情報は、メタデータに含まれてもよい。
AF(Auto Focus)処理部116は、映像データに基づいて合焦評価値を算出し、マイクロコンピュータ107に出力する。マイクロコンピュータ107は、合焦評価値に基づいてレンズ201の移動を制御することで、ピント合わせを行う。
センサ部117は、加速度センサ、ジャイロセンサなどを含んでいる。マイクロコンピュータ107は、センサ部117からの出力信号に基づいて、カメラの姿勢情報を生成する。カメラの姿勢情報は、メタデータに含まれてもよい。
通信部118は、無線通信を行う通信モジュールであり、例えば、Wi−Fiモジュール、Bluetooth(登録商標)モジュール、BLEモジュールなどである。通信部118は、アンテナと、RF(Radio Frequency)部と、ベースバンド部を含んでいる。通信部118は、撮影データ(RAWデータ、映像データ)及びメタデータを外部装置へ送信する。
バス119は、カメラ本体100の内部で読み出され、また、生成された各種データを、カメラ本体100の内部で転送するための転送路である。
以上のように構成された撮影装置10は、撮影者の指示に従って動画撮影を行い、撮影データを生成する。また、撮影装置10は、撮影データのメタデータを生成し、生成したメタデータをコンピュータ20へ送信する。メタデータの送信タイミングは、特に限定しない。メタデータの送信は、撮影の都度行われてもよく、定期的又は不定期に、予め決められたタイミングに行われてもよい。また、撮影者が指示したときに行われてもよい。さらに、撮影装置10は、撮影データを携帯端末30へ送信してもよい。撮影データの送信タイミングも、特に限定しない。撮影データの送信は、撮影の都度行われてもよく、定期的又は不定期に、予め決められたタイミングに行われてもよい。また、撮影者が指示したときに行われてもよい。
図3は、コンピュータ20の構成を例示した図である。図4は、撮影支援処理に関連するコンピュータ20の機能的構成を例示した図である。コンピュータ20は、例えば、クラウド環境に置かれたサーバ装置であり、図3に示すように、プロセッサ21と、メモリ22と、補助記憶装置23と、通信制御装置24を備えている。ただし、コンピュータ20は、撮影装置10及び携帯端末30とネットワーク経由で接続可能な環境に置かれていればよく、オンプレミス環境に置かれてもよい。
プロセッサ21は、任意の処理回路であり、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含んでいる。プロセッサ21は、メモリ22又は補助記憶装置23に格納されているプログラムを実行してプログラムされた処理を行うことで、図4に示す機能を実現する。メモリ22は、プロセッサ21のワーキングメモリである。メモリ22は、たとえば、RAM(Random Access Memory)等の任意の半導体メモリである。
補助記憶装置23は、EPROM(Erasable Programmable ROM)、ハードディスクドライブ(Hard Disc Drive)、Flashメモリ等の不揮発性のメモリである。通信制御装置24は、LANアダプタなどの有線の通信モジュールである。通信制御装置24、例えば、Wi−Fiモジュールなど無線の通信モジュールであってもよい。
コンピュータ20は、図4に示すように、撮影支援処理に関連する機能的構成として、受信部20aと、分析部20bと、集計部20cと、送信部20dを備えている。
受信部20aは、撮影装置10で生成されたメタデータであって、撮影装置10を用いた動画撮影によって得られた撮影データに関するメタデータを受信する。受信部20aは、例えば、通信制御装置24が対応する。
分析部20bは、カメラワーク分析と被写体分析とを実行する。分析部20bは、例えば、マイクロコンピュータ107及び画像処理部104が対応する。カメラワーク分析は、メタデータに基づいて撮影データを、撮影データに対応するカメラワークの種類に分類する分析処理である。被写体分析は、メタデータに基づいて撮影データを、撮影データに対応する被写体の種類に分類する分析処理である。これにより、撮影データ毎に、カメラワークと被写体の種類が特定される。
カメラワークの種類には、例えば、撮影装置10を固定しながら撮影を行うフィックス、撮影装置10を左から右に振りながら撮影を行う右パンニング、撮影装置10を右から左に振りながら撮影を行う左パンニング、撮影装置10を下から上に振りながら撮影を行うチルトアップ、撮影装置10を上から下に振りながら撮影を行うチルトダウン、広角状態から望遠状態に変えながら撮影を行うズームイン、望遠状態から広角状態に変えながら撮影を行うズームアウト、などが含まれる。
撮影データに対応するカメラワークの種類とは、撮影データを得るために行われた撮影における主要なカメラワークの種類のことであり、撮影データ毎に一つのカメラワークの種類が特定される。例えば、撮影データから得られる映像に、フィックスで撮影した映像と右パンニングで撮影した映像が含まれる場合には、分析部20bは、フィックス又は右パンニングをその映像データに対応するカメラワークの種類に特定する。また、撮影データに対応する被写体の種類とは、撮影データを得るために行われた撮影における主要な被写体の種類のことであり、撮影データ毎に一つの被写体の種類が特定される。
分析部20bは、カメラワーク分析と被写体分析に加えて、画角分析、カット分析などのその他の分析を行ってもよい。画角分析は、メタデータに基づいて撮影データを、撮影データに対応する画角の種類に分類する分析処理である。カット分析は、メタデータに基づいて撮影データを、撮影データに対応するカットの種類に分類する分析処理である。
画角の種類には、例えば、ロングショット、ミディアムショット、アップショットなどが含まれる。被写体が人物である場合を例に説明すると、ロングショットには、人物全体又は人物の頭から膝が写る程度の画角が該当する。ミディアムショットには、腰から頭までが写る程度の画角が該当する。アップショットには、顔が大きく写る程度の画角が該当する。
カットの種類には、例えば、オープニングカット、エンディングカット、インサートカットなどが含まれる。なお、カットの種類は、最終的には映像制作者が決定するものであるので、分析部20bが分類した撮影データに対応するカットの種類は、あくまで各カットの候補である。
集計部20cは、カメラワーク分析によって分類された撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、さらに、被写体分析によって分類された撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成する。なお、コンピュータ20が複数の異なる映像作品の制作を支援する場合、分析部20bは、複数の異なる映像作品のメタデータを分析することで、複数の異なる映像作品のために得られた撮影データを分類することになる。この場合、集計部20cは、映像作品毎に撮影データを集計することが望ましい。従って、集計部20cは、必ずしも分析部20bが分類した全ての撮影データを集計対象とする必要はなく、少なくとも一部の撮影データ、つまり、同じ映像作品のために撮影された撮影データを集計対象とすればよい。
集計部20cは、第1の集計結果と第2の集計結果に加えて、第3の集計結果、第4の集計結果などのその他の集計結果を生成してもよい。第3の集計結果は、カット分析によって分類された撮影データの少なくとも一部をカットの種類毎に集計した集計結果である。第4の集計結果は、画角分析によって分類された撮影データの少なくとも一部を画角の種類毎に集計した集計結果である。
送信部20dは、第1の集計結果と第2の集計結果とを含む集計情報を表示端末に送信する。なお、集計情報には、第1の集計結果と第2の集計結果に加えて、第3の集計結果を含んでもよく、第4の集計結果を含んでもよい。また、集計情報には、第1の集計結果と第2の集計結果に加えて、第3の集計結果と第4の集計結果を含んでもよい。
以上のように構成されたコンピュータ20は、撮影装置10から受信したメタデータに基づいて分析を行い、撮影データを分類する。さらに、分類した撮影データを集計し、集計結果を含む集計情報を携帯端末30へ送信する。なお、集計情報の送信は、例えば、携帯端末30からの要求に応じて行われるが、送信先が既知であれば、定期的又は不定期に予め決められたタイミングで行われてもよい。
図5は、携帯端末30の構成を例示した図である。携帯端末30は、表示機能を有する表示端末であり、図5に示すように、プロセッサ31と、メモリ32と、補助記憶装置33と、通信制御装置34と、入力部35と、ディスプレイ36を備えている。
プロセッサ31、メモリ32、補助記憶装置33、通信制御装置34は、それぞれ、図3に示すプロセッサ21、メモリ22、補助記憶装置23、通信制御装置24と同様である。ただし、携帯端末30は、コンピュータ20とは異なり、屋外での使用が想定されるため、通信制御装置34は、少なくとも無線の通信モジュールを含むことが望ましい。
入力部35は、撮影者の操作を受け付けるための操作部であり、例えば、タッチパネル、釦などである。ディスプレイ36は、LCD、有機ELディスプレイなどの表示装置である。
以上のように構成された携帯端末30は、コンピュータ20から集計情報を受信し、集計情報に基づいて少なくともカメラワークの種類に関する第1の集計結果と被写体の種類に関する第2の集計結果とを表示する。集計情報に第3の集計結果が含まれている場合には、携帯端末30は、集計結果に基づいて、第1の集計結果と第2の集計結果と第3の集計結果を表示する。集計情報に第4の集計結果が含まれている場合には、携帯端末30は、集計結果に基づいて、第1の集計結果と第2の集計結果と第4の集計結果を表示する。また、集計情報に第3の集計結果と第4の集計結果が含まれている場合には、携帯端末30は、集計結果に基づいて、第1の集計結果と第2の集計結果と第3の集計結果と第4の集計結果を表示する。なお、集計結果の表示は、例えば、撮影者が入力部35を用いて撮影の進捗確認を指示することで行われるが、集計情報は、進捗確認の指示に応じてコンピュータ20から受信してもよく、定期的又は不定期に予め決められたタイミングで受信してもよい。
次に、撮影支援システム1が行う撮影支援方法について概説する。図6は、撮影支援処理の一例を示すフローチャートである。撮影支援システム1は、図6に示す撮影支援処理を行うことで、映像制約における撮影者の撮影作業を支援する。
まず、撮影支援システム1は、メタデータを送受信する(ステップS1)。ここでは、撮影装置10が動画撮影によって得た撮影データに関するメタデータをコンピュータ20へ送信し、コンピュータ20の受信部20aがメタデータを受信する。
次に、撮影支援システム1は、メタデータを分析する(ステップS2)。ここでは、コンピュータ20の分析部20bが、メタデータに基づいて、少なくともカメラワーク分析と被写体分析を行う。分析部20bは、さらに、画角分析又はカット分析の少なくとも一方を行ってもよい。
その後、撮影支援システム1は、分析結果を集計する(ステップ3)。ここでは、コンピュータ20の集計部20cが、少なくとも第1の集計結果と第2の集計結果を生成する。集計部20cは、さらに、第3の集計結果又は第4の集計結果の少なくとも一方を生成してもよい。
集計が終了すると、撮影支援システム1は、集計情報を送受信する(ステップS4)。ここでは、コンピュータ20の送信部20dが、少なくとも第1の集計結果と第2の集計結果を含む集計情報を携帯端末30へ送信する。なお、送信部20dは、第1の集計結果と第2の集計結果に加えて、第3の集計結果又は第4の集計結果の少なくとも一方を含む集計情報を送信してもよい。携帯端末30は、コンピュータ20が送信した集計情報を受信する。
最後に、撮影支援システム1は、集計結果を表示する(ステップS5)。ここでは、携帯端末30が、集計情報に基づいて、少なくとも第1の集計結果と第2の集計結果を表示する。携帯端末30は、集計情報に基づいて、第1の集計結果と第2の集計結果に加えて、第3の集計結果又は第4の集計結果の少なくとも一方を表示してもよい。
一般に、同じようなカメラワークで撮影された映像素材ばかりが収集されている場合や、同じ被写体ばかりが撮影されている場合には、映像作品のシナリオに応じた必要な映像素材が不足しやすい。このため、編集作業に困難が生じやすい。特に、ドキュメンタリー作品のように撮影作業の時点においてシナリオが不明な場合には、映像制作に必要な映像素材のカメラワークや被写体がどのようなバランスで必要となるかは不明である。従って、様々なカメラワークで様々な被写体を偏りなく撮影することが、編集作業における困難を回避するために望ましい。
撮影支援システム1が、図6に示す撮影支援処理を行うことで携帯端末30に表示される第1の集計結果と第2の集計結果が表示される。従って、撮影支援システム1によれば、撮影者は、撮影数の少ないカメラワークと被写体の種類を撮影作業中に把握することが可能であり、撮影作業が終了する前に、追加で撮影すべき映像のカメラワークと被写体を特定して、追加で撮影することができる。このため、撮影支援システム1は、フィクションだけではなくドキュメンタリーなどの任意のジャンルの映像制作における撮影作業を支援することが可能であり、映像作品における編集作業の困難を軽減することができる。
以下、撮影支援システム1が行う撮影支援方法について更に詳細に説明する。図7は、撮影履歴記録処理の一例を示すシーケンス図である。図8は、メイン画面の一例を示す図である。図9は、プロジェクト作成画面の一例を示す図である。図10は、撮影履歴記録テーブルの一例を示す図である。図11は、撮影データのメタデータの構成例を示す図である。まず、図7から図11を参照しながら、撮影履歴記録処理について説明する。
撮影者は、撮影作業を行う際に、プロジェクトを選択してから撮影作業を行う。プロジェクトは、映像作品に関するデータ(撮影データ、メタデータなど)を管理する単位であり、映像作品毎に作成される。
撮影者は、まず、携帯端末30のディスプレイ36に表示されている図8に示す画面G1上で、これから行う撮影作業に対応するプロジェクトを指定する(図7のステップS11)。既に作成済みのプロジェクトを指定する場合には、リストボックスL1に表示されるプロジェクトから選択する。また、新たなプロジェクトを指定する場合には、ボタンB1を押下する。ボタンB1を押下すると、画面G2がディスプレイ36に表示される。テキストボックスT1に新たなプロジェクトのプロジェクト名を入力してからボタンB5を押下することで、新たなプロジェクトが作成されて、これから行う撮影作業に対応するプロジェクトとして指定される。なお、以降では、既存のプロジェクト“沖縄”が指定された場合を例に説明する。
プロジェクトの指定が終了すると、撮影者は、撮影履歴の記録開始を指示する(ステップS12)。ここでは、撮影者は、画面G1のボタンB3を押下する。撮影者がボタンB3を押下すると、携帯端末30は、撮影履歴記録開始の要求(以降、記録開始要求と記す)をコンピュータ20へ送信する(ステップS13)。なお、この記録開始要求は、ステップS11で指定されたプロジェクトのプロジェクト名などプロジェクトを特定する情報(以降、単にプロジェクト情報と記す)を含んでいる。
記録開始要求を受信したコンピュータ20は、撮影履歴の記録開始日時を登録する(ステップS14)。ここでは、コンピュータ20は、まず、記録開始要求を受信したときの日時情報を取得し、さらに、記録開始要求からプロジェクト情報を取得する。その後、コンピュータ20は、補助記憶装置23に設けられた撮影履歴情報テーブルTBL1に新たな行を追加し、新たな行のプロジェクト名と履歴記録開始日時のカラムにプロジェクト情報と日時情報とを登録する。図10には、撮影履歴情報テーブルTBL1に新たな行R22が追加された様子が示されている。なお、撮影履歴情報テーブルTBL1には、プロジェクト名と履歴記録開始日時のカラムの他に、履歴記録終了日時のカラムが設けられている。
撮影者は、撮影履歴の記録開始を指示すると、撮影装置10を用いて撮影作業を開始し、任意のタイミングで撮影指示を撮影装置10へ入力する(ステップS15)。撮影装置10は、撮影作業中、撮影者が撮影指示を行う度に、被写体の撮影を行って撮影データを生成する。さらに、撮影装置10は、撮影者が撮影指示を行う度に、撮影データとともに撮影データに関するメタデータを生成し、生成したメタデータをコンピュータ20へ送信する(ステップS16)。メタデータを受信したコンピュータ20は、メタデータを補助記憶装置23などに記録する。メタデータは、少なくとも撮影識別情報、撮影日時情報を含んでいる。より具体的には、メタデータは、例えば、図12に示すように、撮影識別情報D1、撮影日時情報D2、撮影データのファイル名D3、撮影データのデータサイズD4、フレームレートD5、コーデックD6、タイムコードD7、レンズ情報D8、AF情報D9、露出情報D10、顔検出情報D11、移動ベクトル情報D12、サムネイルD13、撮影装置10の姿勢情報D14などを含んでもよい。なお、メタデータが少なくとも撮影識別情報D1と撮影日時情報D2を含むことで、メタデータ、さらに、撮影データを、ステップS11で指定したプロジェクトと関連付けることができる。
撮影作業を終了すると、撮影者は、撮影履歴の記録終了を指示する(ステップS17)。ここでは、撮影者は、画面G1のボタンB4を押下する。撮影者がボタンB4を押下すると、携帯端末30は、撮影履歴記録終了の要求(以降、記録終了要求と記す)をコンピュータ20へ送信する(ステップS18)。なお、この記録終了要求は、プロジェクト情報を含んでいる。
記録終了要求を受信したコンピュータ20は、撮影履歴の記録終了日時を登録する(ステップS19)。ここでは、コンピュータ20は、まず、記録終了要求を受信したときの日時情報を取得し、さらに、記録終了要求からプロジェクト情報を取得する。その後、コンピュータ20は、プロジェクト名をキーにして撮影履歴情報テーブルTBL1を検索することで、履歴記録終了日時のカラムに日時情報が登録されていない行を特定する。その後、特定した行の履歴記録終了日時のカラムに日時情報を登録する。
以上のように、図7に示す撮影履歴記録処理を行うことで、撮影支援システム1は、撮影期間を特定する情報を記録することが可能であり、これにより、撮影データに関するメタデータをプロジェクトと関連付けて収集することができる。
図12は、進捗確認処理の一例を示すシーケンス図である。図13は、画角分析処理の一例を示すフローチャートである。図14は、カット分析処理の一例を示すフローチャートである。図15は、カメラワークタブ選択時における進捗確認画面の一例を示す図である。図16は、被写体タブ選択時における進捗確認画面の一例を示す図である。図17は、画角タブ選択時における進捗確認画面の一例を示す図である。図18は、カットタブ選択時における進捗確認画面の一例を示す図である。図19は、撮影データ分類テーブルの一例を示す図である。図20は、映像データのカット種類を変更する方法を説明する図である。図21は、フォーマットタブ選択時における進捗確認画面の一例を示す図である。図22は、Raw現像タブ選択時における進捗確認画面の一例を示す図である。次に、図12から図22を参照しながら、進捗確認処理について説明する。
撮影者は、まず、携帯端末30のディスプレイ36に表示されている図8に示す画面G1上で、これから行う撮影作業に対応するプロジェクトを指定する(図12のステップS21)。ここでは、リストボックスL1に表示されるプロジェクトから進捗状況を確認するプロジェクトを選択する。なお、以降では、プロジェクト“沖縄”を選択した場合を例に説明する。
プロジェクトの指定が終了すると、撮影者は、進捗確認を指示する(ステップS22)。ここでは、撮影者は、画面G1のボタンB2を押下する。撮影者がボタンB2を押下すると、携帯端末30は、進捗確認の要求(以降、進捗確認要求と記す)をコンピュータ20へ送信する(ステップS23)。なお、この進捗確認要求は、ステップS21で指定されたプロジェクトのプロジェクト情報を含んでいる。
進捗確認要求を受信したコンピュータ20は、ステップS21で指定したプロジェクトの対象データを特定する(ステップS24)。ここでは、コンピュータ20は、まず、携帯端末30から受信したプロジェクト情報に基づいて、集計対象とする期間を特定する。具体的には、プロジェクト情報に基づいてプロジェクト“沖縄”が選択された場合であれば、コンピュータ20は、プロジェクト“沖縄”をキーにして撮影履歴情報TBL1を検索し、プロジェクト“沖縄”の履歴記録期間を特定する。例えば、撮影履歴情報TBL1に図10に示すデータが登録されている場合であれば、履歴記録期間は、行R21によって特定される期間(2018/08/03 13:05:33〜2018/08/03 19:06:03)と、行R22によって特定される期間(2018/08/04 10:26:55〜現在日時)を合わせた期間である。履歴記録期間が特定されると、コンピュータ20は、さらに、履歴記録期間とメタデータに含まれる撮影日時情報とに基づいて、履歴記録期間内での撮影装置10を用いた動画撮影によって得られた撮影データを、対象撮影データとして特定する。具体的には、コンピュータ20は、コンピュータ20に記録されているメタデータのうち、撮影日時情報D2が履歴記録期間内のものを抽出し、そのメタデータに含まれる撮影識別情報に対応する撮影データを対象撮影データとして特定する。
対象データが特定されると、コンピュータ20は、各種の分析処理を行う(ステップS25)。ここでは、コンピュータ20は、ステップS24で特定された対象撮影データの各々について、対象撮影データに対応するメタデータに基づいて対象撮影データを分類する。具体的には、コンピュータ20は、対象撮影データの各々について、メタデータに基づいてカメラワーク分析と被写体分析と画角分析とカット分析を行い、対象撮影データに対応するカメラワークの種類、被写体の種類、画角の種類、カットの種類を特定する。
カメラワーク分析では、特に限定しないが、メタデータに含まれる移動ベクトル情報に基づいて、カメラワークの種類を特定してもよい。また、メタデータに移動ベクトルが含まれない場合で動画のサムネイルが含まれる場合には、動画のサムネイルから移動ベクトル情報を生成し、生成した移動ベクトル情報に基づいて、カメラワークの種類を特定してもよい。この場合、例えば、固定して撮影が行われたことを移動ベクトル情報が示している場合には、撮影データをフィックスに分類する。また、例えば、中心部分がほとんど動かず周辺部分が中心に向かって動いていることを移動ベクトル情報が示している場合には、撮影データをズームインに分類する。
被写体分析では、特に限定しないが、メタデータに含まれるサムネイルに基づいて、被写体の種類を特定してもよい。被写体分析では、画像データ(サムネイル)を用いた任意の画像処理アルゴリズムによって被写体の種類が特定され得る。また、画像データ以外のデータが被写体の種類の特定に利用されてもよい。例えば、カメラの姿勢情報を用いることで、特定の被写体の種類を排除してもよい。これにより、種類特定の精度を向上させることができる。さらに、学習済みのニューラルネットワークを用いて被写体の種類を特定してもよい。
画角分析では、特に限定しないが、メタデータに含まれる顔検出情報D11に基づいて、画角の種類を特定してもよく、被写体分析の結果と、メタデータに含まれるレンズ情報D8及びAF情報D9と、に基づいて、画角の種類を特定してもよい。具体的には、例えば、図13に示す手順で画角の種類を特定してもよい。
コンピュータ20は、まず、メタデータに顔検出情報D11が含まれているか否かを判定する(ステップS41)。そして、顔検出情報D11が含まれている場合には、コンピュータ20は、画像のフレームサイズと顔のサイズとの比率に応じて、おおよその画角を算出し、算出した画角に基づいて、画角の種類をロングショット、メディアムショット、アップショットのいずれかに特定する(ステップS42)。
顔検出情報D11が含まれていない場合には、コンピュータ20は、被写体分析の結果と被写体距離と焦点距離と投影倍率に基づいて、画角の種類をロングショット、メディアムショット、アップショットのいずれかに特定する(ステップS43)。なお、被写体分析の結果によって被写体のサイズが推定可能であり、推定された被写体のサイズと、レンズ情報D8(焦点距離、投影倍率)とAF情報D9(被写体距離)とを用いることで、おおよその画角を算出することができる。
カット分析では、特に限定しないが、メタデータと、カメラワーク分析の結果と、画角分析の結果とに基づいて、カットの種類を特定してもよい。具体的には、例えば、図14に示す手順でカットの種類を特定してもよい。
コンピュータ20は、まず、画角分析の結果に基づいて、画角の種類がロングショットか否かを判定する(ステップS51)。画角の種類がロングショットであれば、コンピュータ20は、レンズ情報に基づいて35mmフィルムに換算して焦点距離が50mm以下であるか否かを判定し(ステップS52)、50mm以下でなければ、撮影データをその他のカットに分類する。コンピュータ20は、焦点距離が50mm以下であっても、プロジェクト内で最も被写界深度が深い撮影データで無い場合には(ステップS53NO)、撮影データをその他のカットに分類する。コンピュータ20は、焦点距離が50mm以下であり、且つ、プロジェクト内で最も被写界深度が深い撮影データであると判定すると(ステップS53YES)、カットの種類をオープンイングカットに分類する(ステップS54)。このように、画角の種類がロングショットである撮影データの中からオープニングカット候補を特定する理由は、オープニングカットでは状況説明から入ることが多く、情報量が多い広角シーンが有効だからである。
コンピュータ20は、画角の種類がロングショット以外である場合には、カメラワークの種類がフィックスか否かを判定し(ステップS55)、カメラワークの種類がフィックスでなければ、撮影データをその他のカットに分類する。カメラワークの種類がフィックスの場合には、コンピュータ20は、さらに、撮影データの記録時間が5秒以下か否かを判定する(ステップS56)。コンピュータ20は、記録時間が5秒以下の場合には(ステップS56YES)、カットの種類をインサートカットに分類する(ステップS57)。このような条件でインサートカット候補を特定する理由は、インサートカットは安定感のあるフィックスが好適であり、実際に使うのは2〜3秒程度でよいので長い記録は不要なためである。
コンピュータ20は、記録時間が5秒以下でない場合には(ステップS56NO)、さらに、記録時間が10秒以上か否かを判定する(ステップS58)。コンピュータ20は、記録時間が10秒以上でない場合には(ステップS58NO)、撮影データをその他のカットに分類し、記録時間が10秒以上の場合には(ステップS58YES)、カットの種類をエンディングカットに分類する(ステップS59)。このような条件でエンディングカット候補を特定する理由は、エンディングカットは動きが少ないフィックスが使いやすく、また、余韻を残すのに十分な長さで記録された素材が使いやすいからである。
分析処理が終了すると、コンピュータ20は、分析結果を集計する(ステップS26)。ここでは、コンピュータ20は、対象撮影データをカメラワークの種類毎に集計した第1の集計結果、対象撮影データを被写体の種類毎に集計した第2の集計結果、対象撮影データを画角の種類毎に集計した第3の集計結果、及び、対象撮影データをカットの種類毎に集計した第4の集計結果を生成する。
その後、コンピュータ20は、進捗確認要求に対して応答する(ステップS27)。ここでは、コンピュータ20は、進捗確認要求を送信した携帯端末30へ、第1の集計結果、第2の集計結果、第3の集計結果、及び、第4の集計結果を含む集計情報を進捗確認応答として送信する。
集計情報を受信すると、携帯端末30は、集計情報に基づいて、第1の集計結果、第2の集計結果、第3の集計結果、及び、第4の集計結果を表示する(ステップS28)。
図15には、第1の集計結果を表示した画面G3が例示されている。図15は、進捗確認要求後にディスプレイ36に表示される画面の一例であり、カメラワークのタブTB1を選択したときに表示される画面である。図15に示すように、カメラワークの種類毎に集計した集計結果が表示されることで、不足しているカメラワークやカメラワークの偏りを撮影者が容易に把握することができる。図15に示す例の場合、撮影者は、左パンニング、チルトダウン、ズームアウトが全く撮影されていないことにひと目で気づくことができる。また、各撮影データの再生ボタンを押下することで、動画のサムネイルが再生される。これにより、各カメラワークでの撮影の内容を撮影者が更に詳細に確認することができる。
図16には、第2の集計結果を表示した画面G4が例示されている。図16は、進捗確認要求後にディスプレイ36に表示される画面の一例であり、被写体のタブTB2を選択したときに表示される画面である。図16に示すように、被写体の種類毎に集計した集計結果が表示されることで、被写体の偏りを撮影者が容易に把握することができる。図16に示す例の場合、撮影者は、これまでのところ人物撮影を中心に撮影が行われていることを確認することができる。また、各撮影データの再生ボタンを押下することで撮影された被写体の詳細を確認することができる。
図17には、第3の集計結果を表示した画面G5が例示されている。図17は、進捗確認要求後にディスプレイ36に表示される画面の一例であり、画角のタブTB3を選択したときに表示される画面である。図17に示すように、画角の種類毎に集計した集計結果が表示されることで、不足している画角や画角の偏りを撮影者が容易に把握することができる。図17に示す例の場合、撮影者は、これまでのところロングショット、ミディアムショット、アップショットがバランスよく撮影されていることを確認することができる。
図18には、第4の集計結果を表示した画面G6が例示されている。図18は、進捗確認要求後にディスプレイ36に表示される画面の一例であり、カットのタブTB4を選択したときに表示される画面である。図18に示すように、カットの種類毎に集計した集計結果が表示されることで、不足しているカットを撮影者が容易に把握することができる。図18に示す例の場合、撮影者は、既にオープニングカット、エンディングカットの候補を撮影済みであり、インサートカットも適度に撮影されていることを確認することができる。
なお、ステップS25で行われた分析結果は、例えば、図19に示すように、コンピュータ20の補助記憶装置23に設けられた撮影データ分類テーブルTBL2に登録されてもよい。これにより、2回目以降の進捗確認要求に対して、分類が行われていない撮影データのみを対象として分析を行ってもよい。
また、図18に示すカット種類についての分類結果は、他の分析結果とは異なり、あくまで推定である。従って、各撮影データのカットの種類は、変更可能である。例えば、撮影者は、図20に示すように、カットの種類を変更すべき撮影データに対応するアイコンを長押し、その後、表示されたカットの種類の中から変更後のカットの種類を選択することで、カット変更指示を入力することができる(図12のステップS29)。携帯端末30は、カット変更指示が入力されると、カット変更要求をコンピュータ20へ送信し(ステップS30)、カット変更要求を受信したコンピュータ20が、例えば、図19に示す撮影データ分類テーブルTBL2を更新することでカットの種類を変更する(ステップS31)。その後、コンピュータ20は、カットの種類毎に撮影データを再集計することで第4の集計結果を再生成し(ステップS32)、新たに生成された第4の集計結果を含む集計情報を、携帯端末30へカット変更応答として送信する(ステップS33)。カット変更応答を受信した携帯端末30は、受信した集計情報に基づいて表示を更新する(ステップS34)。このように、カットの種類を適切に修正することで、撮影者は、進捗確認画面(画面G6)を見ることで、真に不足しているカットを把握することができる。
さらに、フォーマットのタブTB5を選択して、携帯端末30に図21に示す画面G7を表示させることで、撮影データのフォーマットと、撮影データの現像状態を確認することができる。図21には、撮影条件ごとに撮影データが分類された様子が示されている。具体的には、4K30p(つまり、画質が4Kで、フレームレートが30fps)のLogモードで撮影した撮影データが5つあり、4K30pのRAW形式で撮影した撮影データが4つあり、FullHD120pで色空間BT.709で撮影した撮影データが1つあることを示している。また、4K30pのRAW形式で撮影した撮影データ5つのうちの、停止マークで示される2つは、未現像であることを示している。
さらに、撮影者は、携帯端末30を操作して撮影データの現像を指示することもできる。具体的には、撮影者は、まず、Raw現像のタブTB6を選択して、携帯端末30に図22に示す画面G8を表示させる。図22には、現像することができるRAWデータが表示されている。現像するRAWデータを、対応するチェックボックスにチェックを入れることで選択し、さらにドロップダウンリストDL1からDL4を用いて現像処理条件を指定する。その後、ボタンB7を押下して現像指示を入力する(図12のステップS35)。携帯端末30は、現像指示が入力されると、現像要求をコンピュータ20へ送信し(ステップS36)、コンピュータ20は、現像要求に含まれる現像条件情報を受信する。その後、コンピュータ20は、現像条件情報に基づいて現状処理、つまり、RAWデータを映像データに変換する画像処理を行う(ステップS37)。このように、撮影者は、撮影作業中に進捗確認に加えて、遠隔地での現像処理についても指示することができる。
以上のように、撮影支援システム1では、撮影者は、撮影作業中に、どのような被写体をどのようなカメラワークで撮影済みか容易に確認することができる。このため、カメラワークの種類と被写体の種類とを偏りなく撮影することが可能であり、これによって、編集時におけるシナリオ構成の幅を広げることができる。従って、撮影支援システム1によれば、任意のジャンルの映像制作における撮影作業を支援することができる。
また、撮影支援システム1では、撮影装置10が撮影装置10とは異なる装置であるコンピュータ20にメタデータを送信し、コンピュータ20がメタデータを分析し、携帯端末30が分析結果を表示する。これにより、撮影者は、撮影の偏りを把握することができる。この様な構成によれば、撮影者が携帯する撮影装置10と携帯端末30に、負荷の大きい分析処理を行わせることなく、撮影の進捗状況を確認することができる。このため、進捗確認が撮影機器に負担となり撮影作業に支障をきたすことを回避することができる。また、分析を撮影データよりも軽いメタデータに基づいて行うことで、撮影支援システム1の構成要素間での通信量を小さく抑えることができる。従って、通信環境への依存度を低下させることができるため、安定して進捗状況を確認することが可能となる。
上述した実施形態は、発明の理解を容易にするための具体例を示したものであり、本発明の実施形態はこれらに限定されるものではない。撮影支援方法、プログラム、データ処理装置は、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。
1 撮影支援システム
10 撮影装置
20 コンピュータ
21、31 プロセッサ
22、32 メモリ
23、33 補助記憶装置
24、34 通信制御装置
20a 受信部
20b 分析部
20c 集計部
20d 送信部
30 携帯端末
35 入力部
36 ディスプレイ
100 カメラ本体
101 撮像素子
102 撮像回路
103 ADコンバータ
104 画像処理部
105 圧縮伸張部
107 マイクロコンピュータ
108、204 Flashメモリ
109 SDRAM
110 メモリI/F
111 LCDドライバ
112 操作部
113 記録媒体
114 LCD
115 AE処理部
116 AF処理部
117 センサ部
118 通信部
119 バス
200 レンズユニット
201 レンズ
202 レンズ駆動部
203 レンズ駆動制御回路
B1〜B7 ボタン
C1、C2 チェックボックス
D1 撮影データ分類テーブル
D2 撮影日時情報
D3 ファイル名
D4 データサイズ
D5 フレームレート
D6 コーデック
D7 タイムコード
D8 レンズ情報
D9 AF情報
D10 露出情報
D11 顔検出情報
D12 移動ベクトル情報
D13 サムネイル
D14 姿勢情報
DL1〜DL4 ドロップダウンリスト
G1〜G8 画面
L1 リストボックス
T1 テキストボックス
TB1〜TB6 タブ
TBL1 撮影履歴情報テーブル
TBL2 撮影データ分類テーブル

Claims (12)

  1. 撮影装置と表示端末とにネットワーク経由で接続可能なコンピュータが、
    前記撮影装置で生成されたメタデータであって、前記撮影装置を用いた動画撮影によって得られた撮影データに関する前記メタデータを受信し、
    前記メタデータに基づいて前記撮影データを前記撮影データに対応するカメラワークの種類に分類するカメラワーク分析と、前記メタデータに基づいて前記撮影データを前記撮影データに対応する被写体の種類に分類する被写体分析と、を実行し、
    前記カメラワーク分析によって分類された前記撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、
    前記被写体分析によって分類された前記撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成し、
    前記第1の集計結果と前記第2の集計結果とを含む集計情報を前記表示端末に送信し、
    前記表示端末が、前記集計情報に基づいて、前記第1の集計結果と前記第2の集計結果を表示する
    ことを特徴とする撮影支援方法。
  2. 請求項1に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記メタデータに基づいて前記撮影データを前記撮影データに対応するカットの種類に分類するカット分析を実行し、
    前記カット分析によって分類された前記撮影データの少なくとも一部をカットの種類毎に集計した第3の集計結果を生成し、
    前記集計情報は、さらに、前記第3の集計結果を含み、
    前記表示端末が、前記集計情報に基づいて、前記第1の集計結果と前記第2の集計結果と前記第3の集計結果を表示する
    ことを特徴とする撮影支援方法。
  3. 請求項2に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記メタデータに基づいて前記撮影データを前記撮影データに対応する画角の種類に分類する画角分析を実行し、
    前記画角分析によって分類された前記撮影データの少なくとも一部を画角の種類毎に集計した第4の集計結果を生成し、
    前記カット分析は、前記メタデータと前記カメラワーク分析の結果と前記画角分析の結果とに基づいて前記撮影データを前記撮影データに対応するカットの種類に分類し、
    前記集計情報は、さらに、前記第4の集計結果を含み、
    前記表示端末が、前記集計情報に基づいて、前記第1の集計結果と前記第2の集計結果と前記第3の集計結果と前記第4の集計結果を表示する
    ことを特徴とする撮影支援方法。
  4. 請求項1に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記メタデータに基づいて前記撮影データを前記撮影データに対応する画角の種類に分類する画角分析を実行し、
    前記画角分析によって分類された前記撮影データの少なくとも一部を画角の種類毎に集計した第4の集計結果を生成し、
    前記集計情報は、さらに、前記第4の集計結果を含み、
    前記表示端末が、前記集計情報に基づいて、前記第1の集計結果と前記第2の集計結果と前記第4の集計結果を表示する
    ことを特徴とする撮影支援方法。
  5. 請求項1に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記表示端末から受信したプロジェクト情報に基づいて、集計対象とする期間を特定し、
    前記期間と前記メタデータに含まれる撮影日時情報とに基づいて、前記期間内での前記撮影装置を用いた動画撮影によって得られた撮影データを、対象撮影データとして特定し、
    前記第1の集計結果は、前記カメラワーク分析によって分類された前記撮影データのうちの前記対象撮影データを、カメラワークの種類毎に集計した集計結果であり、
    前記第2の集計結果は、前記被写体分析によって分類された前記撮影データのうちの前記対象撮影データを、被写体の種類毎に集計した集計結果である
    ことを特徴とする撮影支援方法。
  6. 請求項2に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記表示端末から受信したプロジェクト情報に基づいて、集計対象とする期間を特定し、
    前記期間と前記メタデータに含まれる撮影日時情報とに基づいて、前記期間内での前記撮影装置を用いた動画撮影によって得られた撮影データを、対象撮影データとして特定し、
    前記第1の集計結果は、前記カメラワーク分析によって分類された前記撮影データのうちの前記対象撮影データを、カメラワークの種類毎に集計した集計結果であり、
    前記第2の集計結果は、前記被写体分析によって分類された前記撮影データのうちの前記対象撮影データを、被写体の種類毎に集計した集計結果であり、
    前記第3の集計結果は、前記カット分析によって分類された前記撮影データのうちの前記対象撮影データを、カットの種類毎に集計した集計結果である
    ことを特徴とする撮影支援方法。
  7. 請求項3に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記表示端末から受信したプロジェクト情報に基づいて、集計対象とする期間を特定し、
    前記期間と前記メタデータに含まれる撮影日時情報とに基づいて、前記期間内での前記撮影装置を用いた動画撮影によって得られた撮影データを、対象撮影データとして特定し、
    前記第1の集計結果は、前記カメラワーク分析によって分類された前記撮影データのうちの前記対象撮影データを、カメラワークの種類毎に集計した集計結果であり、
    前記第2の集計結果は、前記被写体分析によって分類された前記撮影データのうちの前記対象撮影データを、被写体の種類毎に集計した集計結果であり、
    前記第3の集計結果は、前記カット分析によって分類された前記撮影データのうちの前記対象撮影データを、カットの種類毎に集計した集計結果であり、
    前記第4の集計結果は、前記画角分析によって分類された前記撮影データのうちの前記対象撮影データを、画角の種類毎に集計した集計結果である
    ことを特徴とする撮影支援方法。
  8. 請求項4に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記表示端末から受信したプロジェクト情報に基づいて、集計対象とする期間を特定し、
    前記期間と前記メタデータに含まれる撮影日時情報とに基づいて、前記期間内での前記撮影装置を用いた動画撮影によって得られた撮影データを、対象撮影データとして特定し、
    前記第1の集計結果は、前記カメラワーク分析によって分類された前記撮影データのうちの前記対象撮影データを、カメラワークの種類毎に集計した集計結果であり、
    前記第2の集計結果は、前記被写体分析によって分類された前記撮影データのうちの前記対象撮影データを、被写体の種類毎に集計した集計結果であり、
    前記第4の集計結果は、前記画角分析によって分類された前記撮影データのうちの前記対象撮影データを、画角の種類毎に集計した集計結果である
    ことを特徴とする撮影支援方法。
  9. 請求項1乃至請求項8のいずれか1項に記載の撮影支援方法において、
    前記メタデータは、撮影識別情報、撮影日時情報、ファイル名、前記撮影データのデータサイズ、フレームレート、コーデック、タイムコード、レンズ情報、AF情報、露出情報、顔検出情報、移動ベクトル情報、サムネイル、または、前記撮影装置の姿勢情報のうちの少なくとも1つを含む
    ことを特徴とする撮影支援方法。
  10. 請求項1乃至請求項9のいずれか1項に記載の撮影支援方法において、
    前記コンピュータが、さらに、
    前記撮影データを受信し、
    前記撮影データのうちのRAW撮影で得られたRAWデータの現像条件情報を受信し、
    前記現像条件情報に基づいて前記RAWデータを映像データに変換する画像処理を行う
    ことを特徴とする撮影支援方法。
  11. 撮影装置と表示端末とにネットワーク経由で接続可能なコンピュータに、
    前記撮影装置で生成されたメタデータであって、前記撮影装置を用いた動画撮影によって得られた撮影データに関する前記メタデータを受信し、
    前記メタデータに基づいて前記撮影データを前記撮影データに対応するカメラワークの種類に分類するカメラワーク分析と、前記メタデータに基づいて前記撮影データを前記撮影データに対応する被写体の種類に分類する被写体分析と、を実行し、
    前記カメラワーク分析によって分類された前記撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、
    前記被写体分析によって分類された前記撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成し、
    前記第1の集計結果と前記第2の集計結果とを含む集計情報を前記表示端末に送信する、
    処理を実行させる
    ことを特徴とするプログラム。
  12. 撮影装置と表示端末とにネットワーク経由で接続可能なデータ処理装置であって、
    前記撮影装置で生成されたメタデータであって、前記撮影装置を用いた動画撮影によって得られた撮影データに関する前記メタデータを受信する受信部と、
    前記メタデータに基づいて前記撮影データを前記撮影データに対応するカメラワークの種類に分類するカメラワーク分析と、前記メタデータに基づいて前記撮影データを前記撮影データに対応する被写体の種類に分類する被写体分析と、を実行する分析部と、
    前記カメラワーク分析によって分類された前記撮影データの少なくとも一部をカメラワークの種類毎に集計した第1の集計結果を生成し、前記被写体分析によって分類された前記撮影データの少なくとも一部を被写体の種類毎に集計した第2の集計結果を生成する集計部と、
    前記第1の集計結果と前記第2の集計結果とを含む集計情報を前記表示端末に送信する送信部と、を備える
    ことを特徴とするデータ処理装置。
JP2019008533A 2019-01-22 2019-01-22 撮影支援方法、プログラム、データ処理装置 Active JP6654288B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019008533A JP6654288B1 (ja) 2019-01-22 2019-01-22 撮影支援方法、プログラム、データ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019008533A JP6654288B1 (ja) 2019-01-22 2019-01-22 撮影支援方法、プログラム、データ処理装置

Publications (2)

Publication Number Publication Date
JP6654288B1 JP6654288B1 (ja) 2020-02-26
JP2020120221A true JP2020120221A (ja) 2020-08-06

Family

ID=69624581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019008533A Active JP6654288B1 (ja) 2019-01-22 2019-01-22 撮影支援方法、プログラム、データ処理装置

Country Status (1)

Country Link
JP (1) JP6654288B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013911A (ja) * 2005-06-03 2007-01-18 Sony Corp コンテンツ管理システム,管理情報生成装置,管理情報加工装置,およびコンピュータプログラム
WO2007108458A1 (ja) * 2006-03-23 2007-09-27 Matsushita Electric Industrial Co., Ltd. コンテンツ撮影装置
JP2011078008A (ja) * 2009-10-01 2011-04-14 Nippon Hoso Kyokai <Nhk> コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラム
WO2015145770A1 (ja) * 2014-03-28 2015-10-01 富士通株式会社 撮影補助システム、撮影装置、情報処理装置、撮影補助プログラム及び撮影補助方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013911A (ja) * 2005-06-03 2007-01-18 Sony Corp コンテンツ管理システム,管理情報生成装置,管理情報加工装置,およびコンピュータプログラム
WO2007108458A1 (ja) * 2006-03-23 2007-09-27 Matsushita Electric Industrial Co., Ltd. コンテンツ撮影装置
JP2011078008A (ja) * 2009-10-01 2011-04-14 Nippon Hoso Kyokai <Nhk> コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラム
WO2015145770A1 (ja) * 2014-03-28 2015-10-01 富士通株式会社 撮影補助システム、撮影装置、情報処理装置、撮影補助プログラム及び撮影補助方法

Also Published As

Publication number Publication date
JP6654288B1 (ja) 2020-02-26

Similar Documents

Publication Publication Date Title
US7433586B2 (en) Camera with an auto-focus function
CN101079964B (zh) 图像再现设备、图像再现方法及图像捕捉设备
CN104159021B (zh) 成像设备、成像方法和计算机可读介质
JP4613724B2 (ja) 撮像装置および撮像方法
JP5005570B2 (ja) 画像処理装置およびプログラム
JP4444927B2 (ja) 測距装置及び方法
US20090002516A1 (en) Image capturing apparatus, shooting control method, and program
US7978254B2 (en) Image capturing apparatus, its controlling method, and program
US20120133813A1 (en) Image pickup apparatus
CN103248813A (zh) 摄影设备及其操作控制方法
JP2007232793A (ja) 撮像装置
JP2007311861A (ja) 撮影装置及び方法
TWI492618B (zh) 攝影裝置及電腦可讀取記錄媒體
JP2013128251A (ja) 撮像装置およびプログラム
JP2010181725A (ja) デジタルカメラおよびプログラム
JP5942260B2 (ja) 撮像装置、画像再生装置
JP2014220622A (ja) 撮影機器、撮影支援方法、表示装置及び表示方法
JP6654288B1 (ja) 撮影支援方法、プログラム、データ処理装置
JP2014116878A (ja) 撮像装置および撮像方法
JP4725461B2 (ja) 画像信号処理装置、撮像装置、画像信号処理方法
JP5742282B2 (ja) カメラ
JP2007116372A (ja) デジタルカメラ
JP4828486B2 (ja) デジタルカメラ、撮影方法及び撮影プログラム
JP2012239079A (ja) 撮影装置
JP2009044671A (ja) 撮影装置、データベースの生成方法及びその利用方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191211

R151 Written notification of patent or utility model registration

Ref document number: 6654288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250