JP7336346B2 - フレーミング情報生成装置及びそのプログラム - Google Patents

フレーミング情報生成装置及びそのプログラム Download PDF

Info

Publication number
JP7336346B2
JP7336346B2 JP2019183416A JP2019183416A JP7336346B2 JP 7336346 B2 JP7336346 B2 JP 7336346B2 JP 2019183416 A JP2019183416 A JP 2019183416A JP 2019183416 A JP2019183416 A JP 2019183416A JP 7336346 B2 JP7336346 B2 JP 7336346B2
Authority
JP
Japan
Prior art keywords
framing
framing information
unit
auxiliary data
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019183416A
Other languages
English (en)
Other versions
JP2021060701A (ja
Inventor
俊枝 三須
秀樹 三ツ峰
淳 洗井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2019183416A priority Critical patent/JP7336346B2/ja
Publication of JP2021060701A publication Critical patent/JP2021060701A/ja
Application granted granted Critical
Publication of JP7336346B2 publication Critical patent/JP7336346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、注目すべき被写体の部分領域を特定するためのフレーミング情報を生成するフレーミング情報生成装置及びそのプログラムに関する。
従来、テレビカメラを用いて撮影した映像の中で注目すべき領域を特定するための自動撮影技術が提案されている。
例えば、特許文献1では、モニタテレビ上において、カメラワークをライトペンで描くことで、その軌跡に応じたパンおよびチルト制御を行う手法が提案されている。
また、特許文献2では、広角カメラにより撮影された視野内の撮影対象である被写体を認識し、認識した被写体の動きに応じて撮影用カメラの向きを制御する手法が提案されている。
また、特許文献3では、医療診断用の医用画像から読影する場合に、関心領域(ROI: Region of Interest)を医用画像に付与する技術として、複数の診断情報ごとに、それらが付与された際の医用画像表示のためのパラメータと優先度とを用いて、複数の診断情報ごとに、視野を阻害せずかつ複数の診断情報を生成する手法が提案されている。
特開平6-133189号公報 特開平9-322051号公報 国際公開第2012/049741号
2次元映像、3次元映像、AR(Augmented Reality)やVR(Virtual Reality)など、映像コンテンツの視聴形態が多様化しつつある。これらの映像コンテンツを効率的に制作するために、例えば、実写カメラによる2次元映像の撮影、3次元CGの仮想カメラによる2次元画像の仮想撮影、3次元ディスプレイで表示する3次元の部分領域の決定といった様々な制作手法が用いられている。これらの制作手法に対応して、シーン内で注目すべき被写体の部分領域を自動判定する統合的な手法が強く望まれている。
上述した特許文献1の技術は、モニタテレビ上における描画操作によって実写カメラのパン・チルト操作を実現している。しかしながら、このような従来技術は、2次元の画面上で操作するため奥行き方向の注目領域を指定できないため、視点が異なる2次元映像や3次元映像の制作に適用することが困難である。
また、特許文献2の技術は、被写体の自動抽出や動き情報に基づいて注目領域を自動設定するものであり、3次元実空間上における注目領域を撮影カメラの制御に反映することができる。しかしながら、この従来技術は、どの被写体に注目すべきかといった演出に関する情報を生成する機能を有していない。
また、特許文献3の技術は、3次元情報に対して、複数の診断情報に好適なパラメータを優先度付きでアノテーションすることが可能となる。しかしながら、この従来技術では、既に設定されたパラメータのみしか利用できないので、3次元空間内において注目すべき部分領域を決定する機能を有しておらず、2次元映像や3次元映像の制作に適用することが困難である。
以上のように、特許文献1~3に記載の技術では、様々な制作手法に対応して、注目すべき被写体の部分領域を特定することが困難である。
本発明は、様々な制作手法に対応した注目すべき被写体の部分領域を特定するためのフレーミング情報を生成できるフレーミング情報生成装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係るフレーミング情報生成装置は、被写体の世界座標と被写体を一意に識別する識別子及び、被写体全体又は一部の重要さを示す第1の重要度との組を記述したフレーミング補助データと、注目すべき被写体の一部である部分領域を特定するフレーミング対象を記述した演出プロファイルとに基づいて、被写体の部分領域であるフレーミング対象を特定するフレーミング情報を生成するフレーミング情報生成装置であって、選択部と、照合部と、加重統計部と、フレーミング情報生成部と、を備える構成とした。
かかる構成によれば、選択部は、フレーミング補助データを入力し、フレーミング補助データを1組ずつ順次選択する。
照合部は、演出プロファイルを入力し、演出プロファイルと選択部で選択されたフレーミング補助データとを照合し、照合の度合いに応じた加重値を算出する。
加重統計部は、被写体の世界座標を加重値で加重し、加重した世界座標の予め定めた統計量を算出する。
フレーミング情報生成部は、統計量に基づいて、フレーミング情報を生成する。
このように、フレーミング情報生成装置は、フレーミング対象を記述した演出プロファイルを参照するので、様々な制作手法に対応した注目すべき被写体の部分領域を特定するためのフレーミング情報を生成することができる。
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記したフレーミング情報生成装置として動作させるプログラムで実現することもできる。
本発明によれば、様々な制作手法に対応した注目すべき被写体の部分領域を特定するためのフレーミング情報を生成することができる。
実施形態に係る自動フレーミング装置の構成を示すブロック図である。 (a)は実施形態における3次元形状・テクスチャ情報を示す説明図であり、(b)は識別子を示す説明図であり、(c)は重要度を示す説明図である。 実施形態において、フレーミング補助データの第1例を説明する説明図である。 実施形態において、フレーミング補助データの第2例を説明する説明図である。 実施形態において、識別補助データの一例を説明する説明図である。 実施形態において、世界座標系からローカル座標系への変換を説明する説明図である。 実施形態に係る自動フレーミング装置の動作を示すフローチャートである。 変形例1に係る自動フレーミング装置の構成を示すブロック図である。
(実施形態)
[自動フレーミング装置の構成]
以下、実施形態について、適宜図面を参照しながら詳細に説明する。なお、同一の手段には同一の符号を付し、説明を省略する。
図1を参照し、実施形態に係る自動フレーミング装置(フレーミング情報生成装置)1の構成を詳細に説明する。なお、本実施形態では、自動フレーミング装置1が、映像コンテンツを制作する放送局側に配置されているものとする。
自動フレーミング装置1は、後記するフレーミング補助データFと演出プロファイルとに基づいて、注目すべき被写体の部分領域を特定するためのフレーミング情報を生成するものである。そして、自動フレーミング装置1は、生成したフレーミング情報を外部装置(例えば、撮影カメラや3次元CG制作装置)に出力する。
これにより、これらの外部装置では、自動フレーミング装置1から入力されたフレーミング情報を用いて、注目すべき被写体にフレーミングを行い、所望の映像コンテンツを制作することが可能となる。
図1に示すように、自動フレーミング装置1は、走査部10と、選択部11と、フィルタ部(照合部)12と、加重統計部13と、座標変換部14と、フレーミング決定部(フレーミング情報生成部)15とを備える。
走査部10は、自動フレーミング装置1に入力されるN組のフレーミング補助データFのうち、何番目の組を選択すべきかを指定するインデックスを順次生成するものである(Nは1以上の整数)。例えば、走査部10は、1以上N以下の整数を所定の順序で発生(1からNまで1刻みでカウントアップ)し、インデックスとして、生成した整数を選択部11及び加重統計部13に出力する。
選択部11は、フレーミング補助データFを入力し、走査部10から入力されたインデックスに基づいて、そのフレーミング補助データFを1組ずつ順次選択するものである。そして、選択部11は、選択した1組のフレーミング補助データFをフィルタ部12に出力すると共に、その1組のフレーミング補助データFに含まれる世界座標値を加重統計部13に出力する。
<フレーミング補助データ>
図2及び図3を参照し、フレーミング補助データFについて詳細に説明する。
フレーミング補助データFは、被写体の世界座標と、被写体の識別子及び/又は被写体の重要度(第1の重要度)との組を記述した情報である。つまり、フレーミング補助データFには、データ項目として、被写体の世界座標に加え、被写体の識別子と被写体の重要度との少なくとも一方が含まれている。
なお、世界座標とは、仮想又は現実の3次元空間内の各物体に共通する座標のことである。
また、識別子とは、被写体を一意に識別する情報のことである。
また、重要度とは、被写体全体又は一部の重要さを示す情報のことである。
被写体の3次元モデル(3次元形状及びテクスチャ情報)を用いて、映像コンテンツを制作することが多い。そこで、識別子や重要度といった情報は、被写体の3次元形状・テクスチャ情報に付随して表現してもよい。例えば、点群モデル(ポイントクラウド)形式で3次元形状・テクスチャ情報を表現する場合、点群の各構成点(被写体を構成する各点の3次元座標)に対して、色情報が付加される。従って、被写体の各構成点に、識別子や重要度をさらに付加すればよい。
図2(a)に示すように、男ダンサー9と女ダンサー9がペアでダンスしているときの3次元モデルを一例として説明する。ここで、女ダンサー9の頭部1点の世界座標値(X1,Y1,Z1)、頭部を除いた上半身1点の世界座標値(X2,Y2,Z2)、下半身1点の世界座標値(X3,Y3,Z3)とする。また、男ダンサー9の頭部1点の世界座標値(X4,Y4,Z4)、上半身1点の世界座標値(X5,Y5,Z5)、下半身1点の世界座標値(X6,Y6,Z6)とする。また、図2(b)に示すように、女ダンサー9の識別子を‘1’とし(ID=1)、男ダンサー9の識別子を‘2’とする(ID=2)。さらに、図2(c)に示すように、男ダンサー9及び女ダンサー9のそれぞれについて、頭部の重要度を‘H’とし、上半身の重要度を‘M’とし、下半身の重要度を‘L’とする。この場合、フレーミング補助データFは、図3に示すような6組のデータとなる。なお、‘H’は重要度が高いことを示し、‘M’は重要度が中間であることを示し、‘L’は重要度が低いことを示す。
また、図4に示すように、フレーミング補助データFは、文字で記述した識別子を含めてもよい。例えば、文字で記述した識別子としては、被写体の氏名や名称等の固有名詞、又は、職業や役割等の分類を示す文字情報があげられる。図4のフレーミング補助データFでは、女ダンサー9の識別子が‘女ダンサー’であり、男ダンサー9の識別子が‘男ダンサー’である。
なお、図3及び図4では、説明を簡易にするため、フレーミング補助データFが6組であるものとして説明したが、男ダンサー9や女ダンサー9を構成する点群が合計N個の場合、フレーミング補助データFもN組となる。
また、図3及び図4のフレーミング補助データFには、識別子と重要度の両方が含まれているが、識別子又は重要度の一方のみが含まれていればよい。
以後、n番目のフレーミング補助データFに含まれる世界座標値、識別子、重要度をそれぞれ、X、I、Wとする(nは1以上N以下の整数)。
図1に戻り、自動フレーミング装置1の構成について説明を続ける。
フィルタ部12は、演出プロファイルを入力し、演出プロファイルと選択部11から入力されたフレーミング補助データFとを照合し、照合の度合いに応じた加重値を算出するものである。そして、フィルタ部12は、算出した加重値を加重統計部13に出力する。
演出プロファイルは、注目すべき被写体の一部である部分領域を特定するフレーミング対象を記述した情報である。例えば、演出プロファイルには、注目すべき被写体や注目すべき場所といった、フレーミング対象をフィルタリングする条件が記述されている。
ここで、演出プロファイルは、フレーミング補助データFに含まれるデータ項目で記述できる。例えば、フレーミング補助データFに世界座標値X、識別子I及び重要度Wが含まれている場合、世界座標値、識別子又は重要度の何れか1以上で演出プロファイルを記述できる。
一方、演出プロファイルは、フレーミング補助データFに含まれない被写体の属性で記述してもよい。この場合、後記する識別補助データHをフィルタ部12に入力する必要がある(図1の破線)。なお、属性とは、被写体を識別する固有名詞、被写体の性質や特徴を表す情報のことである。
<照合の第1例:識別子による照合>
以下、フィルタ部12による照合の第1例~第4例を順次説明する。
この第1例では、フィルタ部12が、識別子により演出プロファイルとフレーミング補助データFとの照合を行い、その照合の度合いに応じた加重値Vを算出する。つまり、フィルタ部12は、演出プロファイルに記述されている識別子(例えば、ID=2)とフレーミング補助データFの識別子Iとの照合を行う。そして、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFの識別子Iとが一致した場合、加重値V=αを算出する。一方、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFの識別子Iとが一致しない場合、加重値V=βを算出する。なお、α,βは、予め設定された実数であり、0≦β<αを満たすことが好ましい(例えば、α=1、β=0)。
また、フィルタ部12は、フレーミング補助データFに重要度Wが含まれる場合、この重要度Wを考慮して加重値Vを算出してもよい。例えば、フィルタ部12は、識別子が一致する場合には加重値V=Wn・αを算出し、識別子が一致しない場合には加重値V=Wn・βを算出する。ここで、図2(c)のように、重要度Wが数値化されていない場合、H=1、M=0.5、L=0のように、重要度Wに応じた数値を予め設定しておき、その数値を乗算するものとする。
ここで、図4に示すように、フレーミング補助データFにおいて、‘女ダンサー’や‘男ダンサー’といった文字で識別子が記述されている場合を考える。このとき、演出プロファイルには、‘女ダンサー’、‘サッカー選手’、‘男’といった文字を記述する。この場合、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFの識別子Iとが完全一致、部分一致又は完全不一致の何れに該当するかを照合する。例えば、フィルタ部12は、演出プロファイルに‘女ダンサー’が記述されている場合、フレーミング補助データFの識別子Iに完全一致するので、加重値V=αを算出する。また、フィルタ部12は、演出プロファイルに‘男’が記述されている場合、フレーミング補助データFの識別子Iに部分一致するので、加重値V=γを算出する。なお、γは、予め設定された実数であり、β<γ<αを満たすことが好ましい(例えば、γ=0.5)。さらに、フィルタ部12は、演出プロファイルに‘サッカー選手’が記述されている場合、フレーミング補助データFの識別子Iに完全不一致なので、加重値V=βを算出する。このように、フィルタ部12は、照合の度合いが大きいほど、大きな値の加重値Vを算出する。
<照合の第2例:重要度による照合>
この第2例では、フィルタ部12が、重要度により演出プロファイルとフレーミング補助データFとの照合を行い、その照合の度合いに応じた加重値Vを算出する。つまり、フィルタ部12は、注目すべき被写体の重要度(例えば、‘H’)が演出プロファイルに記述されている場合、その重要度とフレーミング補助データFの重要度Wとの照合を行う。そして、フィルタ部12は、演出プロファイルの重要度とフレーミング補助データFの重要度Wとが一致した場合、加重値V=αを算出する。一方、フィルタ部12は、演出プロファイルの識別子とフレーミング補助データFの重要度Wとが一致しない場合、加重値V=βを算出する。
<照合の第3例:世界座標値による照合>
この第3例では、フィルタ部12が、世界座標値により演出プロファイルとフレーミング補助データFとの照合を行い、その照合の度合いに応じた加重値Vを算出する。
例えば、演出プロファイルに[5,10,0]のような世界座標上の1点を記述した場合を考える。この場合、フィルタ部12は、フレーミング補助データFの世界座標値Xが演出プロファイルに記述された世界座標上の1点に近くなる程、加重値Vを大きな値で算出する。
また、演出プロファイルに{[x,y,z]|-1≦x≦+1,-2≦y≦+2,0≦z≦+0.2}のような世界座標上の部分領域を記述した場合を考える。この場合、フィルタ部12は、フレーミング補助データFの世界座標値Xが演出プロファイルに記述された世界座標上の部分領域に含まれるか否かにより、加重値Vを算出する。例えば、フィルタ部12は、世界座標値Xが世界座標上の部分領域に含まれる場合、加重値V=αを算出する。一方、フィルタ部12は、世界座標値Xが世界座標上の部分領域に含まれない場合、加重値V=βを算出する。
<照合の第4例:属性による照合>
この第4例では、フィルタ部12が、属性により識別補助データHと演出プロファイルとを照合して識別子を特定する。そして、フィルタ部12は、特定した識別子により演出プロファイルとフレーミング補助データFとの照合を行い、その照合の度合いに応じた加重値Vを算出する。
まず、フィルタ部12に入力される識別補助データHを説明する。図5に示すように、識別補助データHは、被写体の識別子と属性とを記述したものである。図5の例は、男ダンサー9と女ダンサー9の識別補助データHを表している。つまり、この識別補助データHは、女ダンサー9の識別子‘1’と、女ダンサー9の属性としての氏名‘花子’、性別‘女’、出身地‘静岡’とを対応付けている。また、識別補助データHは、男ダンサー9の識別子‘2’と、男ダンサー9の属性としての氏名‘太郎’、性別‘男’、出身地‘富山’とを対応付けている。なお、属性は、氏名等の固有名詞、性別や出身地に限定されず、例えば、職業や役割であってもよい。
演出プロファイルに属性としての氏名‘太郎’を記述した場合を考える。この場合、フィルタ部12は、図5の識別補助データHを参照し、氏名‘太郎’に該当する被写体の識別子(ID=2)を特定する。続いて、フィルタ部12は、第1例と同様、特定した識別子(ID=2)とフレーミング補助データFの識別子Iとの照合を行い、その照合の度合いに応じた加重値Vを算出する。
なお、フィルタ部12では、前記した第1例~第4例の何れにより照合を行うか、事前に設定しておくものとする。また、フィルタ部12では、第1例~第3例の手法を2以上組み合わせて照合を行うこともできる。
図1に戻り、自動フレーミング装置1の構成について説明を続ける。
加重統計部13は、選択部11から入力された世界座標値Xをフィルタ部12から入力された加重値Vで加重し、加重した世界座標値Xにおける統計量を算出するものである。例えば、加重統計部13は、以下の式(1)を用いて、世界座標値Xにおける統計量として、期待値ベクトルμ(平均)、及び、分散・共分散行列S(分散)を算出する。その後、加重統計部13は、算出した統計量を座標変換部14に出力する。
Figure 0007336346000001
座標変換部14は、座標変換パラメータが入力され、入力された座標変換パラメータにより、世界座標における統計量をローカル座標における統計量に変換するものである。
なお、ローカル座標とは、仮想又は現実の視点位置(例えば、フレーミングを行うべきカメラ位置)を基準(例えば、原点)として定義した座標系における座標値のことである。
また、座標変換パラメータとは、世界座標をローカル座標に変換するためパラメータのことである(例えば、回転行列R及び平行移動ベクトルT)。
例えば、図6に示すように、ローカル座標系Lの原点が世界座標系Wで座標Tに位置し(平行移動ベクトルT)、世界座標系Wからローカル座標系Lへの姿勢変化を表す回転行列がRであるものとする。この場合、世界座標系Wにおいて位置ベクトルXで表される点が、ローカル座標系Lにおいて位置ベクトルYで表される場合、以下の式(2)が成立する。
Figure 0007336346000002
式(1)に示すように、世界座標系Wにおける期待値ベクトルμ及び分散・共分散行列Sをローカル座標系Lに座標変換した場合を考える。この場合、ローカル座標における期待値ベクトルξ及び分散・共分散行列Vは、以下の式(3)で表される。
Figure 0007336346000003
すなわち、座標変換部14は、例えば、世界座標系Wにおける期待値ベクトルμ及び分散・共分散行列Sを、式(3)により、ローカル座標系Lにおける期待値ベクトルξ及び分散・共分散行列Vに変換する。そして、座標変換部14は、ローカル座標系Lにおける期待値ベクトルξ及び分散・共分散行列Vをフレーミング決定部15に出力する。
フレーミング決定部15は、座標変換部14から入力されたローカル座標系Lにおける統計量(期待値ベクトルξ及び分散・共分散行列V)に基づいて、被写体の部分領域であるフレーミング対象を特定するフレーミング情報を生成するものである。
フレーミング情報は、被写体から切り取るべき重要領域を表した情報である。切り取るべき重要領域は、例えば、ローカル座標系Lにおける部分領域や、ローカル座標系Lで表記したカメラの撮影姿勢(例えば、パン、チルト、ロール)及び画角(例えば、焦点距離)を表す。このカメラには、実写撮影を行う実写カメラだけでなく、CGによる仮想撮影を行う仮想カメラも含まれる。
以下、フレーミング決定部15によるフレーミング情報の生成について、第1例~第4例を順次説明する。なお、フレーミング決定部15では、第1例~第4例の何れによりフレーミング情報を生成するか事前に設定しておくものとする。
<第1例:ローカル座標系における楕円体状の部分領域>
この第1例では、フレーミング決定部15が、ローカル座標系Lにおける楕円体状の部分領域を表したフレーミング情報を生成する。例えば、この部分領域は、期待値ベクトルξを中心とし、分散・共分散行列Vに応じた広がりを有する楕円体とする。従って、フレーミング決定部15は、以下の式(4)により、統計量(期待値ベクトルξ及び分散・共分散行列V)で表される楕円体状の部分領域Aを特定するフレーミング情報を生成する。
なお、定数rは、0以上の値で予め設定された実数であり、例えば、0.1乃至10で設定する。また、定数rの値が大きくなる程、部分領域Aの体積が大きくなる。また、Yはローカル座標系Lの各点を表す。
Figure 0007336346000004
この第1例のフレーミング情報を用いれば、3Dディスプレイで再現すべき視野及び奥行き範囲を決定することが可能となる。さらに、このフレーミング情報を用いれば、仮想カメラで撮影する場合や、自動雲台及びサーボ付きレンズを備える実写カメラを制御して撮影する場合において、これらカメラの撮影姿勢及び撮影画角を適切に算出することもできる。
<第2例:ローカル座標系における直方体状の部分領域>
この第2例では、フレーミング決定部15が、前記した第1例の楕円体を近似する直方体状の部分領域Aを表したフレーミング情報を生成する。
例えば、直方体状の部分領域Aは、式(4)の楕円体に内包される最大のもの、又は、式(4)の楕円体を内包する最小のものとする。この直方体状の部分領域Aは、ローカル座標系Lの各軸と平行な各辺を有するものとする。
この第2例のフレーミング情報を用いれば、第1例と同様の効果に加え、近似により演算量を低減することができる。
<第3例:重要度の付加>
この第3例では、フレーミング決定部15が、部分領域A又はこの部分領域Aをさらに分割した分割領域毎に、重要度(第2の重要度)J(Y)を算出する。この分割領域は、部分領域Aを所定サイズのメッシュに分割したものである。また、重要度J(Y)は、表示デバイスに合わせた映像コンテンツの切り出しに利用できる。
例えば、フレーミング決定部15は、ローカル座標系Lにおける部分領域Aに付随して、以下の式(5)で表されるように、楕円体の中心に近づくほど高い値をとる重要度J(Y)を算出してもよい。
Figure 0007336346000005
また、フレーミング決定部15は、ローカル座標系Lの各点Yに付随して、以下の式(6)で表されるように、ローカル座標系Lの第3成分(例えば、奥行き成分)が大きいほど小さい値をとる重要度J(Y)を算出してもよい。その後、フレーミング決定部15は、算出した重要度J(Y)をフレーミング情報に付加する。
Figure 0007336346000006
この第3例のフレーミング情報を用いれば、3Dディスプレイで再現すべき視野及び奥行き範囲を決定することが可能となる。さらに、このフレーミング情報を用いれば、インテグラル方式やレンチキュラ方式のように奥行き再現範囲が限定される3Dディスプレイにおいて、重要度の低い領域を奥行き方向に圧縮して表示することが可能となる。
<第4例:カメラの姿勢及び画角>
この第4例では、フレーミング決定部15が、カメラの姿勢角3自由度及び画角1自由度を表したフレーミング情報を生成する。このカメラは、ローカル座標系Lの原点に第一光学主点を合わせるように設置されている。また、ローカル座標系Lの第1軸をカメラで撮影した画像平面の水平右向きとし、第2軸をカメラで撮影した画像平面の垂直下向きとし、第3軸をカメラの光軸奥向きとする。
例えば、フレーミング決定部15は、カメラ(実写カメラだけでなく仮想カメラも含む)で撮影する場合、以下の式(7)で表されるパン角α及びチルト角δと、式(8)で表される焦点距離fとを算出する。
Figure 0007336346000007
Figure 0007336346000008
例えば、焦点距離fは、ローカル座標系Lの原点から式(4)で表される楕円体(内側を含む)の中心までの距離に応じて長く、かつ、式(4)で表される楕円体(内側を含む)の広がりに応じて短くなる。
なお、式(8)のtrは、トレースを表す。また、定数cは、任意の値で設定可能であり、例えば、カメラのセンササイズの0.1倍乃至10倍程度の値(例えば、0.8倍)とする。また、パン角α、チルト角δ及び焦点距離fの全てを求めるものとして説明したが、何れか1以上を求めてもよい。
この第4例のフレーミング情報を用いれば、仮想カメラで撮影する場合や、自動雲台及びサーボ付きレンズを備える実写カメラを制御して撮影する場合において、これらカメラの撮影姿勢及び撮影画角を適切に算出できる。その結果、これらカメラが、部分領域Aを適切な姿勢及び画角で撮影することが可能となる。
[自動フレーミング装置の動作]
図7を参照し、自動フレーミング装置1の動作について説明する。
図7に示すように、ステップS1において、走査部10は、インデックスnを初期化する(n=1)。
ステップS2において、インデックスnに基づいて、n番目のフレーミング補助データF(世界座標値X、識別子I、重要度W)を選択する。
ステップS3において、フィルタ部12は、演出プロファイルとフレーミング補助データFとを照合し、照合の度合いに応じた加重値Vを算出する
ステップS4において、加重統計部13は、世界座標値Xを加重値Vで加重し、加重した世界座標値Xにおける統計量(期待値ベクトルμ、分散・共分散行列S)を算出する。
ステップS5において、座標変換部14は、座標変換パラメータにより、世界座標系Wにおける統計量をローカル座標系Lにおける統計量(期待値ベクトルξ及び分散・共分散行列V)に変換する
ステップS6において、フレーミング決定部15は、ローカル座標系Lにおける統計量(期待値ベクトルξ及び分散・共分散行列V)に基づいて、注目すべき被写体の部分領域Aを特定するためのフレーミング情報を生成する。
ステップS7において、走査部10は、インデックスnがN以上であるか否かを判定する。
インデックスnがN未満の場合(ステップS7でNo)、ステップS8の処理に進む。
ステップS8において、走査部10は、インデックスnをインクリメントし(n=n+1)、ステップS2の処理に戻る。
インデックスnがN以上の場合(ステップS7でYes)、フレーミング決定部15がフレーミング情報を出力し、処理を終了する。
[作用・効果]
以上のように、自動フレーミング装置1によれば、様々な制作手法に対応した注目すべき被写体の部分領域を特定するためのフレーミング情報を生成することができる。
つまり、自動フレーミング装置1によれば、ローカル座標系Lにおける注目すべき部分領域Aを演出プロファイルに応じて適応的に特定することができ、その注目すべき部分領域Aをフレーミング情報として出力することができる。その結果、番組演出等に応じて撮影エリアを自動決定することが可能となる。また、カメラごとに個別に定義されたローカル座標系Lにおいて注目すべき領域を判断するため、カメラの設置位置によらず適切にフレーミングを行うことが可能となる。
(変形例1)
以上、実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、世界座標系からローカル座標系に変換するものとして説明したが、これに限定されない。例えば、ローカル座標系と世界座標系が同一の場合、図8に示すように、座標変換部14を省略して自動フレーミング装置1Bを構成してもよい。この場合、自動フレーミング装置1Bは、世界座標系における統計量をローカル座標系に変換しない。従って、フレーミング決定部15Bは、ローカル座標系における統計量(期待値ベクトルξ及び分散・共分散行列V)の代わりに、世界座標系における統計量(期待値ベクトルμ、分散・共分散行列S)を用いる。他の点、自動フレーミング装置1Bは、第1実施形態と同様のため、これ以上の説明を省略する。
このように、自動フレーミング装置1Bによれば、世界座標系における注目すべき部分領域Aを演出プロファイルに応じて適応的に特定することができ、その注目すべき部分領域Aをフレーミング情報として出力することが可能となる。その結果、番組演出等に応じて撮影エリアを自動決定することが可能となる。
(その他変形例)
前記した実施形態では、統計量として、期待値ベクトル(平均値)及び分散・共分散行列(分散値)を求めるものとして説明したが、これに限定されない。例えば、統計量として、中央値、最大値又は最小値の何れか1以上を求めてもよい。
前記した実施形態では、自動フレーミング装置が映像コンテンツを制作する放送局側に配置されているものとして説明したが、これに限定されない。例えば、自動フレーミング装置は、映像コンテンツを視聴する受信機に内蔵されてもよい。これにより、受信機側でも、フレーミング情報を用いて、様々な映像演出が可能となる。
前記した実施形態では、自動フレーミング装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した自動フレーミング装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1,1B 自動フレーミング装置(フレーミング情報生成装置)
10 走査部
11 選択部
12 フィルタ部(照合部)
13 加重統計部
14 座標変換部
15,15B フレーミング決定部(フレーミング情報生成部)

Claims (8)

  1. 被写体の世界座標と前記被写体を一意に識別する識別子及び、前記被写体全体又は一部の重要さを示す第1の重要度との組を記述したフレーミング補助データと、注目すべき前記被写体の一部である部分領域を特定するフレーミング対象を記述した演出プロファイルとに基づいて、前記被写体の前記部分領域である前記フレーミング対象を特定するフレーミング情報を生成するフレーミング情報生成装置であって、
    前記フレーミング補助データを入力し、当該フレーミング補助データを1組ずつ順次選択する選択部と、
    前記演出プロファイルを入力し、当該演出プロファイルと前記選択部で選択されたフレーミング補助データとを照合し、照合の度合いに応じた加重値を算出する照合部と、
    前記被写体の世界座標を前記加重値で加重し、加重した前記世界座標の予め定めた統計量を算出する加重統計部と、
    前記統計量に基づいて、前記フレーミング情報を生成するフレーミング情報生成部と、
    を備えることを特徴とするフレーミング情報生成装置。
  2. 予め設定された座標変換パラメータにより、前記世界座標における統計量をローカル座標における統計量に変換する座標変換部、をさらに備え、
    前記フレーミング情報生成部は、前記ローカル座標における統計量に基づいて、前記フレーミング情報を生成することを特徴とする請求項1に記載のフレーミング情報生成装置。
  3. 前記フレーミング情報生成部は、前記統計量で表される楕円体状の部分領域又は当該楕円体を近似する直方体状の部分領域を特定する前記フレーミング情報を生成することを特徴とする請求項1又は請求項2に記載のフレーミング情報生成装置。
  4. 前記フレーミング情報生成部は、前記部分領域又は当該部分領域をさらに分割した分割領域毎に、前記部分領域の中心位置又は奥行方向を基準として第2の重要度を算出し、算出した前記第2の重要度を前記フレーミング情報に付加することを特徴とする請求項1から請求項3の何れか一項に記載のフレーミング情報生成装置。
  5. 前記フレーミング情報生成部は、前記ローカル座標における統計量と前記ローカル座標で表されるカメラの設置位置とに基づいて、前記カメラの姿勢角3自由度及び画角1自由度のうちの何れか1以上を前記フレーミング情報として生成することを特徴とする請求項2に記載のフレーミング情報生成装置。
  6. 前記加重統計部は、前記統計量として、期待値、分散値、中央値、最大値又は最小値の何れか1以上を算出することを特徴とする請求項1から請求項5の何れか一項に記載のフレーミング情報生成装置。
  7. 前記照合部は、
    前記被写体の識別子と属性とを記述した識別補助データ、及び、前記フレーミング対象を前記属性で記述した前記演出プロファイルが入力され、
    前記属性により前記識別補助データと前記演出プロファイルとを照合して前記識別子を特定し、
    特定した前記識別子により前記演出プロファイルと前記選択部で選択されたフレーミング補助データとの照合を行うことを特徴とする請求項1から請求項6の何れか一項に記載のフレーミング情報生成装置。
  8. コンピュータを、請求項1から請求項7の何れか一項に記載のフレーミング情報生成装置として機能させるためのプログラム。
JP2019183416A 2019-10-04 2019-10-04 フレーミング情報生成装置及びそのプログラム Active JP7336346B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019183416A JP7336346B2 (ja) 2019-10-04 2019-10-04 フレーミング情報生成装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183416A JP7336346B2 (ja) 2019-10-04 2019-10-04 フレーミング情報生成装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2021060701A JP2021060701A (ja) 2021-04-15
JP7336346B2 true JP7336346B2 (ja) 2023-08-31

Family

ID=75380153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183416A Active JP7336346B2 (ja) 2019-10-04 2019-10-04 フレーミング情報生成装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP7336346B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015523A (ja) 2002-06-07 2004-01-15 Nippon Hoso Kyokai <Nhk> 映像関連コンテンツ生成装置、映像関連コンテンツ生成方法及び映像関連コンテンツ生成プログラム
JP2005044181A (ja) 2003-07-23 2005-02-17 Matsushita Electric Ind Co Ltd 動画作成装置および動画作成方法
JP2015035070A (ja) 2013-08-08 2015-02-19 カシオ計算機株式会社 画像照合装置、画像照合方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015523A (ja) 2002-06-07 2004-01-15 Nippon Hoso Kyokai <Nhk> 映像関連コンテンツ生成装置、映像関連コンテンツ生成方法及び映像関連コンテンツ生成プログラム
JP2005044181A (ja) 2003-07-23 2005-02-17 Matsushita Electric Ind Co Ltd 動画作成装置および動画作成方法
JP2015035070A (ja) 2013-08-08 2015-02-19 カシオ計算機株式会社 画像照合装置、画像照合方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
太田篤史他,3DCGにおけるカメラワークの自動生成及び支援,情報処理学会研究報告,日本,社団法人情報処理学会,2000年12月08日,第2000巻 第115号,pp.61-66
鈴木章他,対象物適応型カメラ視線制御による景観内文字領域抽出法,電子情報通信学会1998年総合大会講演論文集 情報・システム2,日本,社団法人電子情報通信学会,1998年03月06日,p.410

Also Published As

Publication number Publication date
JP2021060701A (ja) 2021-04-15

Similar Documents

Publication Publication Date Title
CN104980651B (zh) 图像处理设备及控制方法
CN111857329B (zh) 注视点计算方法、装置及设备
JP3450833B2 (ja) 画像処理装置及びその方法並びにプログラムコード、記憶媒体
JP6798183B2 (ja) 画像解析装置、画像解析方法およびプログラム
JP4072330B2 (ja) 表示装置および情報処理方法
US20170323465A1 (en) Image processing apparatus, image processing method, and storage medium
KR20200015147A (ko) 딥 러닝 기반의 카메라 캘리브레이션 방법 및 장치
JP6899002B2 (ja) 画像処理方法、装置、コンピュータ読み取り可能記憶媒体及び電子機器
CN106997618A (zh) 一种虚拟现实与真实场景融合的方法
JP6921686B2 (ja) 生成装置、生成方法、及びプログラム
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
US9756260B1 (en) Synthetic camera lenses
WO2016153388A1 (ru) Способ отображения объекта
JP7479729B2 (ja) 三次元表現方法及び表現装置
CN115496863B (zh) 用于影视智能创作的情景互动的短视频生成方法及***
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP7336346B2 (ja) フレーミング情報生成装置及びそのプログラム
JP2019121945A (ja) 撮像装置、その制御方法及びプログラム
JP7296735B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR100422470B1 (ko) 3차원 동화상 모델 얼굴 대체 방법 및 장치
CN111462337B (zh) 一种图像处理方法、设备及计算机可读存储介质
WO2018117099A1 (ja) 画像処理装置及びプログラム
WO2023276480A1 (ja) 撮影システム、撮影方法及びプログラム
US20240155093A1 (en) Device, system, camera device, and method for capturing immersive images with improved quality
WO2024042893A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7336346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150