JP7336346B2 - フレーミング情報生成装置及びそのプログラム - Google Patents
フレーミング情報生成装置及びそのプログラム Download PDFInfo
- Publication number
- JP7336346B2 JP7336346B2 JP2019183416A JP2019183416A JP7336346B2 JP 7336346 B2 JP7336346 B2 JP 7336346B2 JP 2019183416 A JP2019183416 A JP 2019183416A JP 2019183416 A JP2019183416 A JP 2019183416A JP 7336346 B2 JP7336346 B2 JP 7336346B2
- Authority
- JP
- Japan
- Prior art keywords
- framing
- framing information
- unit
- auxiliary data
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
例えば、特許文献1では、モニタテレビ上において、カメラワークをライトペンで描くことで、その軌跡に応じたパンおよびチルト制御を行う手法が提案されている。
また、特許文献2では、広角カメラにより撮影された視野内の撮影対象である被写体を認識し、認識した被写体の動きに応じて撮影用カメラの向きを制御する手法が提案されている。
また、特許文献3では、医療診断用の医用画像から読影する場合に、関心領域(ROI: Region of Interest)を医用画像に付与する技術として、複数の診断情報ごとに、それらが付与された際の医用画像表示のためのパラメータと優先度とを用いて、複数の診断情報ごとに、視野を阻害せずかつ複数の診断情報を生成する手法が提案されている。
以上のように、特許文献1~3に記載の技術では、様々な制作手法に対応して、注目すべき被写体の部分領域を特定することが困難である。
照合部は、演出プロファイルを入力し、演出プロファイルと選択部で選択されたフレーミング補助データとを照合し、照合の度合いに応じた加重値を算出する。
加重統計部は、被写体の世界座標を加重値で加重し、加重した世界座標の予め定めた統計量を算出する。
フレーミング情報生成部は、統計量に基づいて、フレーミング情報を生成する。
このように、フレーミング情報生成装置は、フレーミング対象を記述した演出プロファイルを参照するので、様々な制作手法に対応した注目すべき被写体の部分領域を特定するためのフレーミング情報を生成することができる。
[自動フレーミング装置の構成]
以下、実施形態について、適宜図面を参照しながら詳細に説明する。なお、同一の手段には同一の符号を付し、説明を省略する。
図1を参照し、実施形態に係る自動フレーミング装置(フレーミング情報生成装置)1の構成を詳細に説明する。なお、本実施形態では、自動フレーミング装置1が、映像コンテンツを制作する放送局側に配置されているものとする。
これにより、これらの外部装置では、自動フレーミング装置1から入力されたフレーミング情報を用いて、注目すべき被写体にフレーミングを行い、所望の映像コンテンツを制作することが可能となる。
図2及び図3を参照し、フレーミング補助データFについて詳細に説明する。
フレーミング補助データFは、被写体の世界座標と、被写体の識別子及び/又は被写体の重要度(第1の重要度)との組を記述した情報である。つまり、フレーミング補助データFには、データ項目として、被写体の世界座標に加え、被写体の識別子と被写体の重要度との少なくとも一方が含まれている。
また、識別子とは、被写体を一意に識別する情報のことである。
また、重要度とは、被写体全体又は一部の重要さを示す情報のことである。
また、図3及び図4のフレーミング補助データFには、識別子と重要度の両方が含まれているが、識別子又は重要度の一方のみが含まれていればよい。
以後、n番目のフレーミング補助データFnに含まれる世界座標値、識別子、重要度をそれぞれ、Xn、In、Wnとする(nは1以上N以下の整数)。
フィルタ部12は、演出プロファイルを入力し、演出プロファイルと選択部11から入力されたフレーミング補助データFnとを照合し、照合の度合いに応じた加重値を算出するものである。そして、フィルタ部12は、算出した加重値を加重統計部13に出力する。
ここで、演出プロファイルは、フレーミング補助データFnに含まれるデータ項目で記述できる。例えば、フレーミング補助データFnに世界座標値Xn、識別子In及び重要度Wnが含まれている場合、世界座標値、識別子又は重要度の何れか1以上で演出プロファイルを記述できる。
一方、演出プロファイルは、フレーミング補助データFnに含まれない被写体の属性で記述してもよい。この場合、後記する識別補助データHをフィルタ部12に入力する必要がある(図1の破線)。なお、属性とは、被写体を識別する固有名詞、被写体の性質や特徴を表す情報のことである。
以下、フィルタ部12による照合の第1例~第4例を順次説明する。
この第1例では、フィルタ部12が、識別子により演出プロファイルとフレーミング補助データFnとの照合を行い、その照合の度合いに応じた加重値Vnを算出する。つまり、フィルタ部12は、演出プロファイルに記述されている識別子(例えば、ID=2)とフレーミング補助データFnの識別子Inとの照合を行う。そして、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFnの識別子Inとが一致した場合、加重値Vn=αを算出する。一方、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFnの識別子Inとが一致しない場合、加重値Vn=βを算出する。なお、α,βは、予め設定された実数であり、0≦β<αを満たすことが好ましい(例えば、α=1、β=0)。
この第2例では、フィルタ部12が、重要度により演出プロファイルとフレーミング補助データFnとの照合を行い、その照合の度合いに応じた加重値Vnを算出する。つまり、フィルタ部12は、注目すべき被写体の重要度(例えば、‘H’)が演出プロファイルに記述されている場合、その重要度とフレーミング補助データFnの重要度Wnとの照合を行う。そして、フィルタ部12は、演出プロファイルの重要度とフレーミング補助データFnの重要度Wnとが一致した場合、加重値Vn=αを算出する。一方、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFnの重要度Wnとが一致しない場合、加重値Vn=βを算出する。
この第3例では、フィルタ部12が、世界座標値により演出プロファイルとフレーミング補助データFnとの照合を行い、その照合の度合いに応じた加重値Vnを算出する。
例えば、演出プロファイルに[5,10,0]Tのような世界座標上の1点を記述した場合を考える。この場合、フィルタ部12は、フレーミング補助データFnの世界座標値Xnが演出プロファイルに記述された世界座標上の1点に近くなる程、加重値Vnを大きな値で算出する。
この第4例では、フィルタ部12が、属性により識別補助データHと演出プロファイルとを照合して識別子を特定する。そして、フィルタ部12は、特定した識別子により演出プロファイルとフレーミング補助データFnとの照合を行い、その照合の度合いに応じた加重値Vnを算出する。
加重統計部13は、選択部11から入力された世界座標値Xnをフィルタ部12から入力された加重値Vnで加重し、加重した世界座標値Xnにおける統計量を算出するものである。例えば、加重統計部13は、以下の式(1)を用いて、世界座標値Xnにおける統計量として、期待値ベクトルμ(平均)、及び、分散・共分散行列S(分散)を算出する。その後、加重統計部13は、算出した統計量を座標変換部14に出力する。
なお、ローカル座標とは、仮想又は現実の視点位置(例えば、フレーミングを行うべきカメラ位置)を基準(例えば、原点)として定義した座標系における座標値のことである。
また、座標変換パラメータとは、世界座標をローカル座標に変換するためパラメータのことである(例えば、回転行列R及び平行移動ベクトルT)。
この第1例では、フレーミング決定部15が、ローカル座標系Lにおける楕円体状の部分領域を表したフレーミング情報を生成する。例えば、この部分領域は、期待値ベクトルξを中心とし、分散・共分散行列Vに応じた広がりを有する楕円体とする。従って、フレーミング決定部15は、以下の式(4)により、統計量(期待値ベクトルξ及び分散・共分散行列V)で表される楕円体状の部分領域Aを特定するフレーミング情報を生成する。
なお、定数rは、0以上の値で予め設定された実数であり、例えば、0.1乃至10で設定する。また、定数rの値が大きくなる程、部分領域Aの体積が大きくなる。また、Yはローカル座標系Lの各点を表す。
この第2例では、フレーミング決定部15が、前記した第1例の楕円体を近似する直方体状の部分領域Aを表したフレーミング情報を生成する。
例えば、直方体状の部分領域Aは、式(4)の楕円体に内包される最大のもの、又は、式(4)の楕円体を内包する最小のものとする。この直方体状の部分領域Aは、ローカル座標系Lの各軸と平行な各辺を有するものとする。
この第2例のフレーミング情報を用いれば、第1例と同様の効果に加え、近似により演算量を低減することができる。
この第3例では、フレーミング決定部15が、部分領域A又はこの部分領域Aをさらに分割した分割領域毎に、重要度(第2の重要度)J(Y)を算出する。この分割領域は、部分領域Aを所定サイズのメッシュに分割したものである。また、重要度J(Y)は、表示デバイスに合わせた映像コンテンツの切り出しに利用できる。
この第4例では、フレーミング決定部15が、カメラの姿勢角3自由度及び画角1自由度を表したフレーミング情報を生成する。このカメラは、ローカル座標系Lの原点に第一光学主点を合わせるように設置されている。また、ローカル座標系Lの第1軸をカメラで撮影した画像平面の水平右向きとし、第2軸をカメラで撮影した画像平面の垂直下向きとし、第3軸をカメラの光軸奥向きとする。
なお、式(8)のtrは、トレースを表す。また、定数cは、任意の値で設定可能であり、例えば、カメラのセンササイズの0.1倍乃至10倍程度の値(例えば、0.8倍)とする。また、パン角α、チルト角δ及び焦点距離fの全てを求めるものとして説明したが、何れか1以上を求めてもよい。
図7を参照し、自動フレーミング装置1の動作について説明する。
図7に示すように、ステップS1において、走査部10は、インデックスnを初期化する(n=1)。
ステップS2において、インデックスnに基づいて、n番目のフレーミング補助データFn(世界座標値Xn、識別子In、重要度Wn)を選択する。
ステップS4において、加重統計部13は、世界座標値Xnを加重値Vnで加重し、加重した世界座標値Xnにおける統計量(期待値ベクトルμ、分散・共分散行列S)を算出する。
ステップS6において、フレーミング決定部15は、ローカル座標系Lにおける統計量(期待値ベクトルξ及び分散・共分散行列V)に基づいて、注目すべき被写体の部分領域Aを特定するためのフレーミング情報を生成する。
インデックスnがN未満の場合(ステップS7でNo)、ステップS8の処理に進む。
ステップS8において、走査部10は、インデックスnをインクリメントし(n=n+1)、ステップS2の処理に戻る。
インデックスnがN以上の場合(ステップS7でYes)、フレーミング決定部15がフレーミング情報を出力し、処理を終了する。
以上のように、自動フレーミング装置1によれば、様々な制作手法に対応した注目すべき被写体の部分領域を特定するためのフレーミング情報を生成することができる。
つまり、自動フレーミング装置1によれば、ローカル座標系Lにおける注目すべき部分領域Aを演出プロファイルに応じて適応的に特定することができ、その注目すべき部分領域Aをフレーミング情報として出力することができる。その結果、番組演出等に応じて撮影エリアを自動決定することが可能となる。また、カメラごとに個別に定義されたローカル座標系Lにおいて注目すべき領域を判断するため、カメラの設置位置によらず適切にフレーミングを行うことが可能となる。
以上、実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、統計量として、期待値ベクトル(平均値)及び分散・共分散行列(分散値)を求めるものとして説明したが、これに限定されない。例えば、統計量として、中央値、最大値又は最小値の何れか1以上を求めてもよい。
10 走査部
11 選択部
12 フィルタ部(照合部)
13 加重統計部
14 座標変換部
15,15B フレーミング決定部(フレーミング情報生成部)
Claims (8)
- 被写体の世界座標と前記被写体を一意に識別する識別子及び、前記被写体全体又は一部の重要さを示す第1の重要度との組を記述したフレーミング補助データと、注目すべき前記被写体の一部である部分領域を特定するフレーミング対象を記述した演出プロファイルとに基づいて、前記被写体の前記部分領域である前記フレーミング対象を特定するフレーミング情報を生成するフレーミング情報生成装置であって、
前記フレーミング補助データを入力し、当該フレーミング補助データを1組ずつ順次選択する選択部と、
前記演出プロファイルを入力し、当該演出プロファイルと前記選択部で選択されたフレーミング補助データとを照合し、照合の度合いに応じた加重値を算出する照合部と、
前記被写体の世界座標を前記加重値で加重し、加重した前記世界座標の予め定めた統計量を算出する加重統計部と、
前記統計量に基づいて、前記フレーミング情報を生成するフレーミング情報生成部と、
を備えることを特徴とするフレーミング情報生成装置。 - 予め設定された座標変換パラメータにより、前記世界座標における統計量をローカル座標における統計量に変換する座標変換部、をさらに備え、
前記フレーミング情報生成部は、前記ローカル座標における統計量に基づいて、前記フレーミング情報を生成することを特徴とする請求項1に記載のフレーミング情報生成装置。 - 前記フレーミング情報生成部は、前記統計量で表される楕円体状の部分領域又は当該楕円体を近似する直方体状の部分領域を特定する前記フレーミング情報を生成することを特徴とする請求項1又は請求項2に記載のフレーミング情報生成装置。
- 前記フレーミング情報生成部は、前記部分領域又は当該部分領域をさらに分割した分割領域毎に、前記部分領域の中心位置又は奥行方向を基準として第2の重要度を算出し、算出した前記第2の重要度を前記フレーミング情報に付加することを特徴とする請求項1から請求項3の何れか一項に記載のフレーミング情報生成装置。
- 前記フレーミング情報生成部は、前記ローカル座標における統計量と前記ローカル座標で表されるカメラの設置位置とに基づいて、前記カメラの姿勢角3自由度及び画角1自由度のうちの何れか1以上を前記フレーミング情報として生成することを特徴とする請求項2に記載のフレーミング情報生成装置。
- 前記加重統計部は、前記統計量として、期待値、分散値、中央値、最大値又は最小値の何れか1以上を算出することを特徴とする請求項1から請求項5の何れか一項に記載のフレーミング情報生成装置。
- 前記照合部は、
前記被写体の識別子と属性とを記述した識別補助データ、及び、前記フレーミング対象を前記属性で記述した前記演出プロファイルが入力され、
前記属性により前記識別補助データと前記演出プロファイルとを照合して前記識別子を特定し、
特定した前記識別子により前記演出プロファイルと前記選択部で選択されたフレーミング補助データとの照合を行うことを特徴とする請求項1から請求項6の何れか一項に記載のフレーミング情報生成装置。 - コンピュータを、請求項1から請求項7の何れか一項に記載のフレーミング情報生成装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183416A JP7336346B2 (ja) | 2019-10-04 | 2019-10-04 | フレーミング情報生成装置及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183416A JP7336346B2 (ja) | 2019-10-04 | 2019-10-04 | フレーミング情報生成装置及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060701A JP2021060701A (ja) | 2021-04-15 |
JP7336346B2 true JP7336346B2 (ja) | 2023-08-31 |
Family
ID=75380153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183416A Active JP7336346B2 (ja) | 2019-10-04 | 2019-10-04 | フレーミング情報生成装置及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7336346B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004015523A (ja) | 2002-06-07 | 2004-01-15 | Nippon Hoso Kyokai <Nhk> | 映像関連コンテンツ生成装置、映像関連コンテンツ生成方法及び映像関連コンテンツ生成プログラム |
JP2005044181A (ja) | 2003-07-23 | 2005-02-17 | Matsushita Electric Ind Co Ltd | 動画作成装置および動画作成方法 |
JP2015035070A (ja) | 2013-08-08 | 2015-02-19 | カシオ計算機株式会社 | 画像照合装置、画像照合方法及びプログラム |
-
2019
- 2019-10-04 JP JP2019183416A patent/JP7336346B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004015523A (ja) | 2002-06-07 | 2004-01-15 | Nippon Hoso Kyokai <Nhk> | 映像関連コンテンツ生成装置、映像関連コンテンツ生成方法及び映像関連コンテンツ生成プログラム |
JP2005044181A (ja) | 2003-07-23 | 2005-02-17 | Matsushita Electric Ind Co Ltd | 動画作成装置および動画作成方法 |
JP2015035070A (ja) | 2013-08-08 | 2015-02-19 | カシオ計算機株式会社 | 画像照合装置、画像照合方法及びプログラム |
Non-Patent Citations (2)
Title |
---|
太田篤史他,3DCGにおけるカメラワークの自動生成及び支援,情報処理学会研究報告,日本,社団法人情報処理学会,2000年12月08日,第2000巻 第115号,pp.61-66 |
鈴木章他,対象物適応型カメラ視線制御による景観内文字領域抽出法,電子情報通信学会1998年総合大会講演論文集 情報・システム2,日本,社団法人電子情報通信学会,1998年03月06日,p.410 |
Also Published As
Publication number | Publication date |
---|---|
JP2021060701A (ja) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104980651B (zh) | 图像处理设备及控制方法 | |
CN111857329B (zh) | 注视点计算方法、装置及设备 | |
JP3450833B2 (ja) | 画像処理装置及びその方法並びにプログラムコード、記憶媒体 | |
JP6798183B2 (ja) | 画像解析装置、画像解析方法およびプログラム | |
JP4072330B2 (ja) | 表示装置および情報処理方法 | |
US20170323465A1 (en) | Image processing apparatus, image processing method, and storage medium | |
KR20200015147A (ko) | 딥 러닝 기반의 카메라 캘리브레이션 방법 및 장치 | |
JP6899002B2 (ja) | 画像処理方法、装置、コンピュータ読み取り可能記憶媒体及び電子機器 | |
CN106997618A (zh) | 一种虚拟现实与真实场景融合的方法 | |
JP6921686B2 (ja) | 生成装置、生成方法、及びプログラム | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
US9756260B1 (en) | Synthetic camera lenses | |
WO2016153388A1 (ru) | Способ отображения объекта | |
JP7479729B2 (ja) | 三次元表現方法及び表現装置 | |
CN115496863B (zh) | 用于影视智能创作的情景互动的短视频生成方法及*** | |
JP6552256B2 (ja) | 画像処理装置及び画像処理装置の制御方法 | |
JP7336346B2 (ja) | フレーミング情報生成装置及びそのプログラム | |
JP2019121945A (ja) | 撮像装置、その制御方法及びプログラム | |
JP7296735B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR100422470B1 (ko) | 3차원 동화상 모델 얼굴 대체 방법 및 장치 | |
CN111462337B (zh) | 一种图像处理方法、设备及计算机可读存储介质 | |
WO2018117099A1 (ja) | 画像処理装置及びプログラム | |
WO2023276480A1 (ja) | 撮影システム、撮影方法及びプログラム | |
US20240155093A1 (en) | Device, system, camera device, and method for capturing immersive images with improved quality | |
WO2024042893A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336346 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |