JP6849851B2 - 撮影システム、撮影装置及びユーザ撮影方法 - Google Patents

撮影システム、撮影装置及びユーザ撮影方法 Download PDF

Info

Publication number
JP6849851B2
JP6849851B2 JP2020175829A JP2020175829A JP6849851B2 JP 6849851 B2 JP6849851 B2 JP 6849851B2 JP 2020175829 A JP2020175829 A JP 2020175829A JP 2020175829 A JP2020175829 A JP 2020175829A JP 6849851 B2 JP6849851 B2 JP 6849851B2
Authority
JP
Japan
Prior art keywords
video
performer
unit
data
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020175829A
Other languages
English (en)
Other versions
JP2021022940A (ja
Inventor
彩人 藤井
彩人 藤井
泰生 堤
泰生 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Priority to JP2020175829A priority Critical patent/JP6849851B2/ja
Publication of JP2021022940A publication Critical patent/JP2021022940A/ja
Application granted granted Critical
Publication of JP6849851B2 publication Critical patent/JP6849851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Exposure Control For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Description

本発明は、撮影システム、撮影装置及びユーザ撮影方法に関する。
従来、利用者を含む被写体をカメラで撮影し、その撮影画像と付加画像とを合成した合成画像を印刷写真として出力する遊戯用の自動写真作成装置がある。
しかし、上記の自動写真作成装置は、装置メーカが、付加画像としての画像ソースを別に作成して予め装置に記憶させておき、それを利用者が編集作業で利用するようになっている。従って、利用者は、装置メーカ側で予め用意された付加画像を利用するしかなく、十分な満足感を得ることができない。
そこで、先行被写体の撮影画像やその編集画像を、後続被写体としての利用者の撮影画像に付加するための新たな付加画像として登録することができる自動写真作成装置が発明されている(特許文献1)。尚、先行被写体は、パブリシティ権や商品化権が認められ得る付加価値を有する人、例えば、タレント等である。これにより、タレント等と並んだ写真を撮影することができ、従来にはない満足感が得られるとしている。
特開2008-005401号公報
ところで、上記自動写真作成装置の付加画像が静止画であり、上記自動写真作成装置の目的は、ユーザとタレント等とが並んだ写真を提供することである。
しかしながら、上記自動写真作成装置は、ユーザは、タレント等と同じ空間を共有するような体験をすることができず、単なる合成写真の提供に留まっており、ユーザに十分な満足感を与えるものではなかった。
そこで、本発明は、ユーザがタレント等の演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる撮影システム、撮影装置及びユーザ撮影方法を提供することにある。
本発明の一態様は、管理装置と、少なくとも1以上の撮影装置と、を備え、前記管理装置は、前記撮影装置から送信される記録画像を保存し、保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記撮影装置に送信する保存部と、を備え、前記撮影装置は、ユーザを撮影するカメラと、表示部と、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、前記静止画を前記記録画像として、前記管理装置に送信する送信部と、前記保存場所情報を受信し、前記保存場所情報を提示する保存場所提示部と、を備える撮影システムである。
本発明の一態様は、ユーザを撮影するカメラと、表示部と、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、前記静止画像を記録画像として、管理装置に送信する送信部と、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する保存場所提示部と、を備える撮影装置である。
本発明の一態様は、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶した記憶部を備えたコンピュータのユーザ撮影方法であって、コンピュータは、カメラが撮影したユーザの撮影映像と前記拡張現実用映像データの演者の動画とを合成して合成映像を生成し、前記合成映像を表示部に表示し、コンピュータは、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力し、コンピュータは、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録し、コンピュータは、前記静止画像を記録画像として、管理装置に送信し、コンピュータは、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示するユーザ撮影方法である。
本発明は、ユーザが演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる。
図1は本実施形態における撮影システムの全体構成例を示す図である。 図2は撮影装置1のブロック図である。 図3は映像処理部154が行う合成映像の合成処理を説明するための図である。 図4はコンテンツデータベースの一例を示した図である。 図5は設定データの一例を示した図である。 図6は撮影装置1の外観を示す図である。 図7は管理サーバ2のブロック図である。 図8は撮影装置管理データベースの一例である。 図9は決済サーバ3のブロック図である。 図10は装置間のシーケンス図である。 図11は撮影装置1の設定処理(Step1)の動作フローチャートである。 図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。 図13は撮影処理(Step3)の動作フローチャートである。 図14は操作入力部13に表示されるコンテンツの選択画面の一例である。 図15は操作入力部13に表示される利用料金画面の一例である。 図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。 図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。 図18は第2の実施の形態における撮影システムの全体構成例を示す図である。 図19は演者撮影装置5のブロック図である。 図20は第2の実施の形態の管理サーバ2のブロック図である。 図21は第2の実施の形態における撮影装置管理データベースの一例である。
<第1の実施の形態>
[全体構成]
図1は、本実施形態における撮影システムの全体構成例を示す図である。図1に示すように、撮影システムは、撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とを備えて構成される。撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とは、通信回線Nに接続可能で、相互に通信可能である。
通信回線Nは、データ通信が可能な通信路を意味する。すなわち、通信回線Nは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含み、通信方法については有線/無線を問わない。
撮影装置1は、イベント会場、映画館等の施設に設置され、ユーザ(被写体)の撮影映像と、コンテンツ映像とを合成した合成映像を生成する装置である。尚、コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等(以下、これらをまとめて演者と記載する)の拡張現実用の映像(例えば、動画)である。また、撮影装置1は、デジタルサイネージの機能も備えている。また、撮影装置1は、基本的には、複数存在し、各イベント会場、映画館等の施設に設置される。
管理サーバ2は、撮影装置1により使用されるコンテンツ映像及び広告の管理と、ユーザ(被写体)に提供する記録画像の保存を行うサーバである。
決済サーバ3は、撮影装置1の利用料金の決済を行うサーバである。
端末4は、ユーザ(被写体)が所持する端末であり、無線通信基地局等を介して通信回線Nに接続し、管理サーバ2とデータ通信を行うことができる。端末4は、例えば、スマートフォンや、携帯電話機、パソコン、タブレット型コンピュータ等である。端末4は、基本的には、複数存在し、各ユーザ(被写体)により操作される。そして、端末4は、少なくとも、画像データを受信し、その画像データを格納又は表示する機能、撮影機能などを持つ。
[各装置の構成]
撮影装置1の構成を説明する。図2は撮影装置1のブロック図である。
図2中、10はカメラであり、11はディスプレイであり、12はスピーカであり、13は操作入力部であり、14は近距離無線通信部であり、15は処理部であり、16は送受信部であり、17は記憶部である。
カメラ10は、ユーザ(被写体)と、ユーザ(被写体)が存在する空間の背景とを撮影するカメラである。カメラ10が撮影した映像(静止画、動画の双方を含む)を、以下、撮影映像と記載する。この撮影映像は処理部15に入力される。
ディスプレイ11は、カメラ10により撮影された撮影映像とコンテンツ映像とが合成された映像が表示される。
スピーカ12はコンテンツの音声が出力される。
操作部入力部13は、ユーザ(被写体)が撮影に関する各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部15に出力する。操作入力部13の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。本実施の形態の操作部入力部13は、操作情報が表示されるディプレイを備えるタッチ操作パネルである。
近距離無線通信部14は、利用料金の決済に使用される非接触型ICカードのリーダ・ライタである。
処理部15は、記憶部17に格納されるプログラムやコンテンツデータ、操作入力部13からの操作入力信号等に基づいて撮影装置1の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部15は、主な機能部として、管理部151と、操作制御部152と、決済処理部153と、映像処理部154と、サイネージ制御部155と、音声制御部156と、保存場所提示部157とを備える。
管理部151は、撮影装置1の設定及びデータの管理を行う。撮影装置1の設定は、撮影装置1の付与されたアカウント及びパスワードによる認証後、管理者が必要な設定を行う。撮影装置1の設定の代表的なものとして、撮影装置1で使用するコンテンツの設定がある。コンテンツは、管理サーバ2からダウンロードし、記憶部17に格納される。コンテンツのダウンロードは、自動でコンテンツのダウンロードが行われる自動更新モードと、管理者が希望するコンテンツを選択してダウンロードする手動更新モードがある。管理者がいずれかのモードを設定することにより、コンテンツのダウンロードが行われ、コンテンツが撮影装置1に格納される。
コンテンツには、ユーザ(被写体)の撮影映像と合成されるコンテンツ映像と、デジタルサイネージに使用されるサイネージ映像(広告映像)とがある。コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等の演者の映像であり、拡張現実用の映像データである。コンテンツ映像は、基本的には動画である。また、サイネージ映像は、広告映像であり、動画、静止画のいずれも含む。尚、コンテンツ映像と、それらの映像に関するメタデータ(識別情報及び利用料金など)とを含めてコンテンツデータ記載する。同様に、サイネージ映像と、それらの映像に関するメタデータ(識別情報など)とを含めてサイネージデータと記載する。
操作制御部152は、コンテンツの内容(例えば、サムネイル映像)や操作情報を操作部入力部13に表示する。また、操作部入力部13からの操作信号を受信する。
決済処理部153は、近距離無線通信部14により読み取られた非接触型ICカードの決済情報を受信し、決済情報を決済サーバ3に送信する。また、決済が完了した場合、決済サーバ3から決済完了情報を受信する。
映像処理部154は、カメラ10からのユーザ(被写体)の撮影映像を入力し、撮影映像に、ユーザ(被写体)が選択したコンテンツのコンテンツ映像を重畳した合成映像を生成する。
映像処理部154が行う合成映像の生成について説明する。合成映像を生成するためには、撮影映像、フィル(Fill)信号及びキー信号の3種類の映像信号が必要となる。フィル(Fill)信号は、ユーザ(被写体)が選択したコンテンツの演者のコンテンツ映像である。キー信号は、フィル(Fill)信号であるコンテンツ映像を重畳する領域を指定する信号である。尚、本実施の形態では、フィル(Fill)信号及びキー信号が、拡張現実用映像データである。
図3は映像処理部154が行う合成映像の合成処理を説明するための図である。合成処理は、撮影映像の全領域のうち、キー信号に基づいて指定される領域に、フィル信号の演者の映像をはめ込むことによって、合成映像を生成する。尚、図3では、ある所定フレームの合成処理を説明した図であり、実際は、撮影映像、コンテンツ映像は動画であるため、フレーム単位で合成映像の生成処理が行われる。
また、撮影空間におけるユーザ(被写体)と演者との位置関係が分かる場合は、重畳するフィル(Fill)信号(演者の映像)とユーザ(被写体)の領域とが重なる部分は、前方に位置する方を優先的に合成する。このようにすれば、より自然な仮想空間の映像を演出することが可能である。尚、ユーザ(被写体)と演者との位置関係は、赤外線による測定や、映像の画像解析などの従来方法を用いることが出来る。
また、映像処理部154は、合成映像(動画)のうちのある時刻の映像を静止画として記録する機能も有する。この記録された記録画像は、後述する管理サーバ2の保存場所に保存される。尚、記録画像は静止画に限定するものではなく、合成映像(動画)の全部又は一部の動画でも良い。
サイネージ制御部155は、撮影装置1が撮影に利用されていない時間に、サイネージデータを使用してディスプレイ11に広告を表示する。
音声制御部156は、コンテンツデータに含まれる音声データを使用して、ユーザ(被写体)の撮影映像の撮影時に、映像上の演者の音声や、利用案内の音声などをスピーカ12から出力する。
保存場所提示部157は、上述した記録画像の保存場所をユーザ(被写体)に通知する。通知方法としては、記録画像の保存場所のアドレスを示す二次元コード(QRコード(登録商標)など)を、ディスプレイ11に表示する方法がある。但し、これに限定されず、保存場所のアドレスを、ディスプレイ11に直接表示しても良いし、他の方法でも良い。
送受信部16は、通信回線Nを介して、管理サーバ2及び決済サーバ3との間で、データの送受信を行う。
記憶部17は、撮影装置1に必要な各種データが格納される。例えば、コンテンツデータベースや、設定データ等である。
図4はコンテンツデータベースの一例を示した図である。図4に示すデータベースは、ユーザとの撮影に使用される演者のコンテンツデータと、広告として使用されるサイネージデータとが格納されている。コンテンツデータは、コンテンツ識別情報(ID)と、コンテンツ名と、拡張現実用の映像データ(フィル(Fill)信号、キー信号を含む)と、音声データと、メタデータとを含む。サイネージデータは、サイネージ識別情報(ID)と、広告名と、映像データと、音声データと、メタデータとを含む。尚、図4は一例であり、これに限られない。
図5は設定データの一例を示した図である。図5に示す設定データは、撮影装置1のアカウントと、管理パスワードと、自動更新の有無と、広告開始時間(撮影装置1が最後に使用されてからの経過時間)、補助データを含む。尚、図5は一例であり、これに限られない。
上述した撮影装置1の外観を、図6に示す。
次に、管理サーバ2の構成を説明する。図7は管理サーバ2のブロック図である。
図7中、20は入力部であり、21は送受信部であり、22は処理部であり、23は記憶部である。
入力部20は、管理者が各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部22に出力する。入力部20の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。
送受信部21は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。
処理部22は、記憶部23に格納されるプログラムやコンテンツデータ、入力部20からの操作入力信号等に基づいて管理サーバ2の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部22は、主な機能部として、コンテンツ管理部121し、撮影データ保存管理部122とを備える。
コンテンツ管理部121は、撮影装置1に設定するコンテンツデータを管理する。具体的には、記憶部23に格納された撮影装置管理データベースを用いて、撮影装置1で使用されるコンテンツなどを管理する。図8は撮影装置管理データベースの一例である。図8に示す撮影装置管理データベースは、撮影装置の識別情報、アカウント、パスワード、自動更新の有無及び利用可能なコンテンツの識別情報を、撮影装置1毎に記録している。
撮影データ保存管理部122は、撮影装置1が撮影した記録画像を記憶23に保存し、保存場所のアドレスを撮影装置1に通知する。
次に、決済サーバ3の構成を説明する。図9は決済サーバ3のブロック図である。
図9中、30は送受信部であり、31は決済処理部であり、32は記憶部である。
送受信部30は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。
決済処理部31は、撮影装置1から決済情報を受信し、記憶部32に格納されるプログラムや決済データに基づいて決済処理を行い、決済完了情報を撮影装置1に送信する。決済処理部31は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。尚、非接触型ICカードの料金の決済は、従来からある方法を用いることができる。
[各装置の動作]
第1の実施の形態の動作を説明する。図10は装置間のシーケンス図である。
まず、撮影装置1を利用可能な状態にするために、設定処理を行う(Step1)。そして、管理サーバ2は、撮影装置1からの設定要求に応答して、管理処理を行い、コンテンツデータやサイネージデータを送信する(Step2)。
ここで、撮影装置1の設定処理(Step1)の動作を、フローチャートを用いて説明する。図11は撮影装置1の設定処理(Step1)の動作フローチャートである。
まず、撮影装置1の管理者は、操作入力部13を操作して管理画面を表示する。操作制御部152は、管理画面を操作入力部13に表示する(Step100)。
管理者は、操作入力部13を操作して、識別情報(アカウント)及びパスワードを入力する(Step101)。
管理部151は、入力された識別情報(アカウント)及びパスワードの照合を行い(Step102)、認証できたならば(Step103)、更新モードの選択に遷移する。一方、認証できない場合は、設定処理を終了する。
認証できた場合は、管理画面には、自動更新モードと手動更新モードとが表示される。管理者は、いずれかのモードを選択する。
管理者が自動更新モードを選択した場合(Step104)は、撮影装置1で利用可能なコンテンツデータとサイネージデータとが管理サーバ2から送信され、管理部151は、それらのコンテンツデータとサイネージデータを記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する。そして、設定完了通知を管理サーバ2に送信する。
一方、管理者が手動更新モードを選択した場合(Step104)は、管理サーバ2から撮影装置1で利用可能なコンテンツデータ及びサイネージデータの一覧が送信され、管理部151は、コンテンツデータ及びサイネージデータの一覧情報を表示する(Step105)。管理者は、操作入力部13を操作し、一覧情報から利用したいコンテンツデータ及びサイネージデータを選択する(Step106)。そして、管理部151は、選択されたコンテンツデータ及びサイネージデータを、管理サーバ2からダウンロードし(Step107)、記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する(Step108)。そして、設定完了通知を管理サーバ2に送信する。
次に、管理サーバ2の管理処理(Step2)の動作を、フローチャートを用いて説明する。図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。
管理サーバ2は、撮影装置1から設定要求に応答して、識別情報(アカウント)の照合を行う(Step200)。識別情報(アカウント)が登録されているものであれば(Step201)、撮影装置1からのモードの要求に対応する処理を行う。
撮影装置1から要求されたモードが手動更新モードである場合(Step202)、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータの一覧を送信する(Step203)。撮影装置1からコンテンツデータ及びサイネージデータの選択情報を受信すると、選択されたコンテンツデータ及びサイネージデータを撮影装置1に送信する(Step204)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。
一方、撮影装置1から要求されたモードが自動更新モードである場合、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの自動更新有無のフィールドのフラグを”ON”にする(Step206)。そして、コンテンツデータベースに登録されているコンテンツのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータを検索し(Step207)、利用可能なコンテンツデータ及びサイネージデータを送信する(Step208)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。
尚、自動更新が有効であるアカウントの撮影装置1については、利用可能コンテンツの変更があった場合には、利用可能コンテンツフィールドに記載されているIDに対応するコンテンツデータ又はサイネージデータを、自動的に撮影装置1に送信し、撮影装置1のコンテンツの自動更新を行う。
図10のシーケンス図の説明に戻る。
撮影装置1の設定が完了すると、ユーザ(被写体)が撮影装置1を利用することが可能となる。そして、ユーザ(被写体)が撮影装置1の利用を開始すると、撮影装置1は撮影処理(Step3)を実行する。
ここで、撮影処理(Step3)の動作を、フローチャートを用いて説明する。図13は撮影処理(Step3)の動作フローチャートである。
撮影装置1の操作制御部152は、コンテンツの一覧を操作入力部13に表示する(Step300)。図14は操作入力部13に表示されるコンテンツの選択画面の一例である。図14の例では、コンテンツAAA、コンテンツBBB及びコンテンツCCCの3種類のコンテンツが選択可能な画面の例である。
撮影装置1を利用するユーザは、操作入力部13に表示されているコンテンツの一覧から希望のコンテンツを選択する。選択は、コンテンツの一覧から希望のコンテンツをタッチすることにより行われる(Step301)。
コンテンツが選択されると、操作入力部13の画面にはコンテンツの利用料金の画面が表示される(Step302)。図15は操作入力部13に表示される利用料金画面の一例である。図15の例では、コンテンツAAAの利用料金が600円であり、ICカードを近距離無線通信部14にタッチすることを要求する画面の例である。
ユーザが利用料金画面の指示に従って、ICカードを近距離無線通信部14にタッチすることにより、料金の決済情報を決済処理部153が受信し(Step303)、決済情報を決済サーバ3に送信する(Step304)。
撮影装置1の決済処理部153は、決済サーバ3から決済完了情報を受信し(Step305)、決済が完了したことを操作入力部13に表示し、撮影が開始されることを通知する(Step306)。
カメラによるユーザ(被写体)の撮影が開始されると、その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、撮影映像に選択したコンテンツの仮想現実用の映像データを重畳し、合成映像を生成する(Step307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(Step308)。このとき、コンテンツの音声データにより、演者の音声もスピーカから出力される。例えば、「AAAです。今日は撮影会に参加してくれてありがとう。」等の音声が出力される。このように、ディスプレイ11には、演者とユーザとが一緒に同じ空間に存在する映像が表示され(図3の合成映像を参照)、音声も聞こえるので、ユーザは演者と一緒に同じ空間を共有するような疑似体験を得ることが出来る。そして、演者から記念撮影のタイミングが告げられ、記録画像(静止画)の撮影が行われる(Step309)。
撮影が終了すると、保存場所提示部157は、管理サーバに、静止画をアップロードし(Step310)、保存場所のアドレスを、二次元コードを使用して、操作入力部13の画面に表示する(Step311)。図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。
以上で、撮影処理の説明を終了する。
図10のシーケンス図の説明に戻る。
Step4は、決済サーバ3で行われる決済処理である。撮影装置1から送信されたユーザのICカードの決済情報を受信し、その決済情報に基づいて決済完了情報を撮影装置1に送信する。
Step5は、管理サーバ2で行われる保存処理である。撮影装置1から送信された記録画像(静止画)を保存し、その保存場所のアドレスを撮影装置1に送信する。
ユーザは端末1の撮影機能を利用し、操作入力部13の画面に表示された二次元コードを撮影し、二次元コードで示されるアドレスにアクセスする(Step6)。そして、端末1は、撮影した記録画像(静止画)を端末1にダウンロードする(Step7)。図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。
一方、撮影装置1のサイネージ制御部155は、一定時間(例えば、3分)、ユーザによる撮影装置1の利用がない場合は、記憶部17のコンテンツデータベースのサイネージデータから、映像データ及音声データを取得し、ディスプレイ11に映像データによる広告を表示し、スピーカ12から音声データによる音声を出力する(Step8)。
以上で、第1の実施の形態の動作の説明を終了する。
第1の実施の形態は、演者の映像(動画)とユーザの撮影映像とを合成してディスプレイに表示させ、音声も聞こえるように構成しているので、ユーザは演者と一緒に同じ空間を共有するような体験を得ることが出来る。また、その体験の記念として記録される記録画像は、管理サーバに保存され、ユーザは端末にダウンロードすることができるので、例えば、SNS等によるシェアの利便性向上を図ることができると共に、物理的な印刷を行わないため、コストの削減も図れる。
また、第1の実施の形態は、管理サーバにより、撮影装置で使用されるコンテンツを一括で管理しているので、撮影装置で使用するコンテンツの設定の即時性・登録の柔軟性を実現することができる。
更に、第1の実施の形態の撮影装置は、デジタルサイネージの機能も搭載されているので、撮影装置が利用されていない時間を有効に活用することもできる。
<第2の実施の形態>
第2の実施の形態を説明する。図18は第2の実施の形態における撮影システムの全体構成例を示す図である。
第2の実施の形態では、第1の実施の形態に加えて、演者のライブ映像を撮影し、ライブ映像から撮影装置1で使用するコンテンツデータ(フィル(Fill)信号、キー信号及び音声データ)を生成する演者撮影装置5が設けられている。
図19は演者撮影装置5のブロック図である。図19中、50カメラであり、51はマイク、52はディスプレイであり、53は送受信部であり、54は処理部であり、55は記憶部である。
カメラ50は、演者のライブ映像を撮影するカメラである。カメラ50が撮影した映像をライブ映像と記載する。このライブ映像は処理部54に入力される。
マイク51は、演者の音声を取得し、取得した音声を処理部54に出力する。
ディスプレイ52は、カメラ50により撮影されたライブ映像が表示される。
送受信部53は、通信回線Nを介して、管理サーバ2との間で、データの送受信を行う。
処理部54は、記憶部55に格納されるプログラムに基づいて演者撮影装置5の動作を統括的に制御する。処理部54の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部54は、主な機能部として、フィル(Fill)信号生成部151と、キー信号生成部152と、ライブコンテンツデータ生成部153とを備える。
フィル(Fill)信号生成部151は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のフィル(Fill)信号を生成する。キー信号生成部152は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のキー信号を生成する。これらの処理は、例えば、クロマキーの技術を用いることができる。
ライブコンテンツデータ生成部153は、演者のフィル(Fill)信号、キー信号及びマイク51で取得された演者の音声を含むライブコンテンツデータを生成する。このライブコンテンツデータは、送受信部53を介して、リアルタイムで、管理サーバ2に送信される。
第2の実施の形態の管理サーバ2を説明する。図20は第2の実施の形態の管理サーバ2のブロック図である。第2の実施の形態の管理サーバ2が第1の実施の形態と異なる所は、リアルタイム配信部123が追加されたことである。
リアルタイム配信部123は、演者撮影装置5から受信したライブコンテンツデータを、所定の撮影装置1にリアルタイムでストリーミング配信する。配信する撮影装置1は、記憶部23に格納されている撮影装置管理データベースを用いて決定する。図21は第2の実施の形態における撮影装置管理データベースの一例である。図21に示される撮影装置管理データベースは、第1の実施の形態に加えて、ライブ配信の有無のフィールドが設けられている。リアルタイム配信部123は、撮影装置管理データベースのライブ配信フィールドが「有」のフラグである撮影装置1に、受信したライブコンテンツデータを送信する。
撮影装置1は、管理データベース2からライブコンテンツデータを受信すると、記憶部17に格納しつつ、カメラによるユーザ(被写体)の撮影を開始する。その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、ライブコンテンツデータのキー信号を用いて、フィル(Fill)信号とユーザの撮影画像とを合成する(図13のStep307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(図13のStep308)。他の処理は、第1の実施の形態と同様である。
第2の実施の形態は、演者のライブ映像からコンテンツデータを生成し、管理装置が各撮影装置にライブ配信している。従って、ひとり演者が、異なる場所の多数のユーザと同時に空間を共有するといったことが可能である。
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 撮影装置
2 管理サーバ
3 決済サーバ
4 端末
5 演者撮影装置
10 カメラ
11 ディスプレイ
12 スピーカ
13 操作入力部
14 近距離無線通信部
15 処理部
16 送受信部
17 記憶部
20 入力部
21 送受信部
22 処理部
23 記憶部
30 送受信部
31 決済処理部
32 記憶部

Claims (9)

  1. 管理装置と、少なくとも1以上の撮影装置と、を備え、
    前記管理装置は、
    前記撮影装置から送信される記録画像を保存し、保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記撮影装置に送信する保存部と、
    を備え、
    前記撮影装置は、
    ユーザを撮影する第1のカメラと、
    表示部と、
    演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、
    前記コンテンツデータの拡張現実用映像データの演者の動画と、前記第1のカメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、
    前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、
    前記静止画を前記記録画像として、前記管理装置に送信する送信部と、
    前記保存場所情報を受信し、前記保存場所情報を提示する保存場所提示部と、
    を備える
    撮影システム。
  2. 前記保存場所提示部は、前記保存場所情報を前記表示部に表示する
    請求項1に記載の撮影システム。
  3. 前記映像処理部は、ユーザの撮影開始から終了後までの前記合成映像を、前記記録画像として記録する
    請求項1又は請求項2に記載の撮影システム。
  4. 前記演者を撮影する第2のカメラと、
    前記第2のカメラで撮影された演者の撮影映像から、前記演者の拡張現実用映像データを生成する拡張現実用映像データ生成部と、
    前記演者の音声を取得するマイクと、
    前記マイクで取得された前記演者の音声から、音声データを生成する音声データ生成部と、
    前記拡張現実用映像データ及び音声データを少なくとも含むライブコンテンツデータを、前記管理装置に送信する送信部と、
    を備える演者撮影装置を備え、
    前記管理装置は、前記ライブコンテンツデータを受信し、少なくとも1以上の前記撮影装置に前記ライブコンテンツデータをライブ配信するライブ配信部を備え、
    前記撮影装置は、前記ライブコンテンツデータを受信する受信部を備え、
    前記撮影装置の前記映像処理部は、前記ライブコンテンツデータの拡張現実用映像データと前記第1のカメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記合成映像の少なくとも一部を前記記録画像として記録し、
    前記撮影装置の前記音声出力部は、前記ライブコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する
    請求項1から請求項3のいずれかに記載の撮影システム。
  5. ユーザを撮影するカメラと、
    表示部と、
    演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、
    前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、
    前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、
    前記静止画を記録画像として、管理装置に送信する送信部と、
    前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する保存場所提示部と、
    を備える撮影装置。
  6. 前記保存場所提示部は、前記保存場所情報を前記表示部に表示する
    請求項5に記載の撮影装置。
  7. 前記映像処理部は、ユーザの撮影開始から終了後までの前記合成映像を、前記記録画像として記録する
    請求項5又は請求項6に記載の撮影装置。
  8. 演者を撮影したライブ映像から生成された前記演者の拡張現実用映像データと、前記演者の音声から生成された音声データとを少なくとも含むライブコンテンツデータを、前記管理装置から受信する受信部を備え、
    前記映像処理部は、前記ライブコンテンツデータの拡張現実用映像データと、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記合成映像の少なくとも一部を前記記録画像として記録し、
    前記音声出力部は、前記ライブコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する
    請求項5から請求項7のいずれかに記載の撮影装置。
  9. 演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶した記憶部を備えたコンピュータのユーザ撮影方法であって、
    コンピュータは、カメラが撮影したユーザの撮影映像と前記拡張現実用映像データの演者の動画とを合成して合成映像を生成し、前記合成映像を表示部に表示し、
    コンピュータは、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力し、
    コンピュータは、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録し、
    コンピュータは、前記静止画を記録画像として、管理装置に送信し、
    コンピュータは、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する
    ユーザ撮影方法。
JP2020175829A 2020-10-20 2020-10-20 撮影システム、撮影装置及びユーザ撮影方法 Active JP6849851B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020175829A JP6849851B2 (ja) 2020-10-20 2020-10-20 撮影システム、撮影装置及びユーザ撮影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175829A JP6849851B2 (ja) 2020-10-20 2020-10-20 撮影システム、撮影装置及びユーザ撮影方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019043388A Division JP7313847B2 (ja) 2019-03-11 2019-03-11 撮影システム、撮影装置、管理装置及び撮影方法

Publications (2)

Publication Number Publication Date
JP2021022940A JP2021022940A (ja) 2021-02-18
JP6849851B2 true JP6849851B2 (ja) 2021-03-31

Family

ID=74573816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175829A Active JP6849851B2 (ja) 2020-10-20 2020-10-20 撮影システム、撮影装置及びユーザ撮影方法

Country Status (1)

Country Link
JP (1) JP6849851B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056204A (ja) * 2000-08-11 2002-02-20 Plaza Create Co Ltd サービス提供システム、サービス提供方法および情報記憶媒体
JP2003283740A (ja) * 2002-03-22 2003-10-03 Seiko Instruments Inc 画像処理システム及び加工画像提供方法
JP2010002732A (ja) * 2008-06-20 2010-01-07 Bmb Corp カラオケ映像録画装置

Also Published As

Publication number Publication date
JP2021022940A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
JP6474932B2 (ja) 通信端末、通信方法、プログラム、及び通信システム
CN106664438B (zh) 服务器装置、动画传送***以及使用的控制方法
JP5939659B2 (ja) 写真・動画像提供システム
US10171617B2 (en) Communication system that support review of usage details for a communication service
US11302038B2 (en) System and method for generating an augmented reality experience
JP6273206B2 (ja) 通信端末、通信方法、及びプログラム
JP6258862B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5090115B2 (ja) 動画像配信装置、動画像配信方法ならびにそのプログラム
JP2014085644A (ja) カラオケシステム
JP2023153790A (ja) プログラム
JP2005136841A (ja) 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
TW201917556A (zh) 多屏互動方法、裝置及電子設備
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP2020057329A (ja) ガイドシステム
JP7167629B2 (ja) ガイドシステム
KR102258495B1 (ko) 스타 공유화상 데이터 제공시스템 및 그 방법
JP2004173320A (ja) 画像提供装置
JP6909903B1 (ja) 画像管理装置、画像管理システム及び画像管理方法
JP6909902B1 (ja) 画像管理装置、画像管理システム及び画像管理方法
JP7167207B2 (ja) プログラム、方法、情報処理装置、システム
JP2005107988A (ja) 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP6909904B1 (ja) 画像管理装置、画像管理システム及び画像管理方法
JP2010074437A (ja) アノテーション付与方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2018097593A (ja) 画像提供システム
JP2004180141A (ja) デジタル撮影送信ユニットを用いた動画像撮影管理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201020

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6849851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250