JP2018191191A - 立体映像生成装置 - Google Patents
立体映像生成装置 Download PDFInfo
- Publication number
- JP2018191191A JP2018191191A JP2017093472A JP2017093472A JP2018191191A JP 2018191191 A JP2018191191 A JP 2018191191A JP 2017093472 A JP2017093472 A JP 2017093472A JP 2017093472 A JP2017093472 A JP 2017093472A JP 2018191191 A JP2018191191 A JP 2018191191A
- Authority
- JP
- Japan
- Prior art keywords
- target
- region
- video
- eye image
- stereoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】映像の大きさを変えずに、不一致領域周囲の映像に因り両眼視野闘争の原因除去効果が薄れず、また右眼映像と左眼映像に上下方向のずれが存在しても対応可能な、両眼視野闘争の発生を防止すること。【解決手段】左右眼映像の一方に存在する第一の対象を抽出する第一の手段と、第一の対象を置換する第二の対象を生成する第二の手段と、第一の対象を第二の対象で置換する第三の手段と、を備え、第一の手段が左右眼映像の右端、左端、上端、下端から独立に定義する距離内の領域を対象に第一の対象を抽出し、第二の手段が第一の対象に接し左右眼映像に存在する領域を対象に立体視効果が最小の領域を抽出し、第一の対象と同一の形状でかつ抽出した立体視効果が最小の領域と同一の色情報を持つ第二の対象を生成し、第三の手段が第一の対象を第二の対象で置換し、立体視効果を両眼視差に依り定義する。【選択図】図1
Description
本発明は、立体映像生成装置に関する。
デジタル技術の進歩に因り、立体映像の撮影や編集が可能な機器が普及しつつある。例えば、従来大掛かりな装置が必要であった立体映像の撮影は、手持ちのカムコーダで可能となっている。立体映像の作成機器の普及に伴い、流布する立体映像の数も急激に増加している。
現在流布している立体映像の多くは、視差を利用して視聴者に立体感を知覚させる。視差は、右眼で見た映像と左眼で見た映像の違いである。左右の網膜が視覚した、右眼用の映像と左眼用の映像が視差を持つと、脳がそれぞれの映像の違いを処理し、右眼の網膜が視覚した映像と左眼の網膜が視覚した映像を融合して立体感を知覚する。立体映像を表示する装置は、右眼用の映像は右眼で左眼用の映像は左眼で視覚するように、空間的に右眼の映像と左眼の映像を分離して表示するか、あるいは時間的に右眼の映像と左眼の映像を分離して表示する。
しかし、右眼で視覚した映像あるいは左眼で視覚した映像のどちらか片方の映像にのみ存在する領域があると、当該領域では、右眼で視覚した映像と左眼で視覚した映像を無作為な時間間隔で選択したどちらか一方の映像のみを知覚する。これが、両眼視野闘争である。両眼視野闘争が生じると、脳が知覚する映像は不規則に変化する為、立体映像の視聴者は違和感や疲労感を覚える虞が生じる。
そこで、両眼視野闘争を回避する技術が提案されている。特許文献1が開示する技術は、右眼用映像と左眼用映像間の双方に存在する画素の存在範囲を求め、当該画素の存在範囲外の領域を右眼用映像あるいは左眼用映像から除去することで、両眼視野闘争の発生を防止する。また、特許文献2が開示する技術は、右眼用映像に対して左眼用映像の右側端を参照信号として不一致領域を求め、逆に左眼用映像に対して右眼用映像の左側端を参照信号として不一致領域を求める。そして、求めた不一致領域の信号レベルを0にすることで、両眼視野闘争を防止する。
しかし、特許文献1が開示している技術は、右眼用映像と左眼用映像間の双方に存在する画素の存在範囲外の領域を除去することで両眼視野闘争を防止する技術の為、映像の表示範囲が縮小する。また、特許文献2が開示している技術は、不一致領域の信号レベルを0にすることで両眼視野闘争を防止する技術の為、不一致領域の周囲の信号レベルに依っては、信号レベルを0にした不一致領域が目立ち、却って両眼視野闘争を引き起こす。また、特許文献2が開示する技術は、不一致領域の検出を右眼あるいは左眼の映像の左右端を対象にしている為、右眼映像と左眼映像間に上下方向のずれが存在すると対応できない。
本発明は、映像の大きさを変えずに、不一致領域周囲の映像に因り両眼視野闘争の原因除去効果が薄れず、また右眼映像と左眼映像に上下方向のずれが存在しても対応可能な、両眼視野闘争の発生を防止した立体映像生成裝置を提供することを目的とする。
上記の目的を達成するために、本発明に係る立体映像生成裝置は、
右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出する第一の手段と、前記第一の対象を置換する第二の対象を生成する第二の手段と、前記第一の対象を前記第二の対象で置換する第三の手段と、を具備し、前記第一の手段が右眼映像および左眼映像の右端、左端、上端、あるいは下端から独立に定義する距離内の領域を対象に前記第一の対象を抽出し、前記第二の手段が前記第一の対象に接し右眼映像および左眼映像の双方に存在する領域を対象に立体視効果が最小の領域を抽出し、前記第一の対象と同一の形状でかつ前記抽出した立体視効果が最小の領域と同一の色情報を持つ第二の対象を生成し、前記第三の手段が前記第一の対象を前記第二の対象で置換し、前記立体視効果を少なくとも両眼視差に依り定義する、ことを特徴とする。
右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出する第一の手段と、前記第一の対象を置換する第二の対象を生成する第二の手段と、前記第一の対象を前記第二の対象で置換する第三の手段と、を具備し、前記第一の手段が右眼映像および左眼映像の右端、左端、上端、あるいは下端から独立に定義する距離内の領域を対象に前記第一の対象を抽出し、前記第二の手段が前記第一の対象に接し右眼映像および左眼映像の双方に存在する領域を対象に立体視効果が最小の領域を抽出し、前記第一の対象と同一の形状でかつ前記抽出した立体視効果が最小の領域と同一の色情報を持つ第二の対象を生成し、前記第三の手段が前記第一の対象を前記第二の対象で置換し、前記立体視効果を少なくとも両眼視差に依り定義する、ことを特徴とする。
本発明によれば、映像の大きさを変えることなく、不一致領域周囲の映像に因り効果が薄れることなく、また右眼映像と左眼映像に上下方向のずれが存在しても両眼視野闘争の原因を除去する作用がある。したがって、本発明に依れば、両眼視野闘争の発生を防止した立体映像を生成する立体映像生成裝置を提供することが可能となる。
以下、添付の図面に沿って本発明の実施の形態を説明する。ただし、本発明の趣旨及びその範囲から逸脱することなく、実施形態及び詳細を変更することは可能である。したがって、本実施の形態は記載内容に限定するものではない。また、以下に示す実施形態は、特に限定する場合を除き、ハードウェア上に実装しても、あるいはソフトウェアで実装しても構わない。なお、同一の機能を有する部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
[第1の実施形態]
図1は、本発明の第一の実施形態を示す図である。
図1は、本発明の第一の実施形態を示す図である。
本実施形態は、右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出する第一の手段11と、第一の対象を置換する第二の対象を生成する第二の手段12と、第一の対象を第二の対象で置換する第三の手段13を少なくとも有している。
第一の手段11は、入力立体映像101から右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出し、抽出した第一の対象の属性から第一の対象情報102を生成し出力する。第一の対象情報102は、以下に示す情報を少なくとも含むとする。
1)第一の対象の位置と範囲を表す情報
2)第一の対象を抽出したフレームのフレーム番号
第一の対象の位置と範囲を表す情報の一例は、第一の対象の各頂点の座標である。勿論、第一の対象の位置と範囲を表す情報を第一の対象の各頂点の座標に限定するものではない。
2)第一の対象を抽出したフレームのフレーム番号
第一の対象の位置と範囲を表す情報の一例は、第一の対象の各頂点の座標である。勿論、第一の対象の位置と範囲を表す情報を第一の対象の各頂点の座標に限定するものではない。
続いて、図2を使用して第一の対象の特徴を詳細に説明する。図2は、立体映像の右眼映像20と立体映像の左眼映像21、および立体映像が捉えている映像の範囲を表す映像全体22を示している。立体視の為に両眼視差を附与して生成した右眼あるいは左眼が、右眼映像20と左眼映像21である。本実施形態の立体映像には中央に旗を持った人物、その左奥と右奥に木が存在している。尚、以下混同の虞が無い場合に限り、両眼視差を視差と記述する。
視差を附与した結果、右眼映像20は左奥の木の一部が映像フレームからはみ出して表示できない。また、左眼映像21は右奥の木の一部が映像フレームからはみ出して表示できない。しかし、右眼の映像フレームからはみ出して表示できない左奥の木の一部は、左眼映像21には存在する。したがって、この右眼の映像フレームからはみ出して表示できない左奥の木の一部は、左眼映像のみに存在する為、第一の対象である。同様に、左眼の映像フレームからはみ出して表示できない右奥の木の一部も右眼映像のみに存在する為、第一の対象である。
図2の映像全体22は、本実施形態に係わる、立体映像が捉えている映像の範囲と第一の対象23の位置関係を示している。右奥の木の一部と左奥の木の一部が第一の対象23に相当する。
続いて、第一の手段11が第一の対象を抽出する領域31の一実施形態を図3に示す。対象を抽出する領域31は、右眼映像および左眼映像の右端、左端、上端、あるいは下端から独立に定義する距離内の領域である。図3に示す実施形態では、第一の対象を抽出する領域31は、右眼映像20にあっては、右眼映像20の上端からu1以内、下端からd1以内、右端からr1以内、そして左端からl1以内の領域である。また、左眼映像21にあっては、左眼映像21の上端からu2以内、下端からd2以内、右端からr2以内、そして左端からl2以内の領域である。
u1、d1、r1、l1、u2、d2、r2、l2の値は、例えば、立体映像の特性、本実施形態に係わる立体映像生成裝置が出力する立体映像を表示する表示装置の特性や設置環境を基に、それぞれ独立して定義する。尚、以下混同の虞が無い場合は本実施形態に係わる立体映像生成裝置が出力する立体映像を表示する表示装置を、表示装置と記述する。
勿論、本発明は、u1、d1、r1、l1、u2、d2、r2、l2の値の決定手段を、ここに挙げた3要因、立体映像の特性、表示装置の特性、あるいは表示装置の設置環境に基づく手段に限定するものではない。ここに挙げた3要因以外の要因を使用してu1、d1、r1、l1、u2、d2、r2、l2の値を決定してもよい。また、ここに挙げた3要因を必ずしも全て含む必要はない。
立体映像の特性、表示装置の特性、および表示装置の設置環境の一例を以下に示す。勿論、立体映像の特性、表示装置の特性、および表示装置の設置環境を、ここに挙げた項目に限定するものではない。
a)立体映像の特性 視差や左右眼映像の上下方向のずれ量
b)表示装置の特性 表示装置の大きさや表示速度
c)表示装置の設置環境 表示面から視聴者までの距離や設置場所の照度
次に、第一の対象を抽出する領域31を定義する、u1、d1、r1、l1、u2、d2、r2、l2の決定手順を例を挙げて説明する。本実施形態では、以下の特性を持つ立体映像とする。
b)表示装置の特性 表示装置の大きさや表示速度
c)表示装置の設置環境 表示面から視聴者までの距離や設置場所の照度
次に、第一の対象を抽出する領域31を定義する、u1、d1、r1、l1、u2、d2、r2、l2の決定手順を例を挙げて説明する。本実施形態では、以下の特性を持つ立体映像とする。
a)家庭用のカムコーダで撮影した立体映像
b)左右眼映像の上下方向のずれは最大2.0%
c)最大視差は2.5%
d)解像度は1920*1080pixel
まず、上下端からの距離u1、d1、u2、およびd2を決定する。第一の対象を抽出する領域31のうち、立体映像の上下端から設定する領域は、右眼映像20と左眼映像21に上下方向のずれが存在する場合に対応した領域である。本実施形態が使用する立体映像は、右眼映像20と左眼映像21に最大2.0%の上下方向のずれが存在する。したがって、上下端からの距離u1、d1、u2、およびd2は、上下方向の解像度1080pixelの2.0%以上に設定する必要がある。そこで、本実施形態では1080pixelの2.5%=27pixelを、上下端からの距離u1、d1、u2、およびd2とする。
b)左右眼映像の上下方向のずれは最大2.0%
c)最大視差は2.5%
d)解像度は1920*1080pixel
まず、上下端からの距離u1、d1、u2、およびd2を決定する。第一の対象を抽出する領域31のうち、立体映像の上下端から設定する領域は、右眼映像20と左眼映像21に上下方向のずれが存在する場合に対応した領域である。本実施形態が使用する立体映像は、右眼映像20と左眼映像21に最大2.0%の上下方向のずれが存在する。したがって、上下端からの距離u1、d1、u2、およびd2は、上下方向の解像度1080pixelの2.0%以上に設定する必要がある。そこで、本実施形態では1080pixelの2.5%=27pixelを、上下端からの距離u1、d1、u2、およびd2とする。
次に、右眼映像20の右端からの距離r2を決定する。右眼映像20の右端から距離r2の領域は、左眼映像21の右端の領域に存在する第一の対象の抽出に使用する参照領域である。したがって、視差の最大値に相当する大きさの領域があれば、参照領域として対応可能である。よって、本実施形態では水平方向の解像度1920pixelの2.5%=48pixelをr2とする。
また、左眼映像21の左端からの距離l1もr2と同様に決定する。左眼映像21の左端から距離l1の領域は、右眼映像20の左端の領域に存在する第一の対象の抽出に使用する参照領域であるから、視差の最大値に相当する大きさの領域があればよい。よって、本実施形態では水平方向の解像度1920pixelの2.5%=48pixelをl1とする。
次に、右眼映像20の左端からの距離l2を決定する。右眼映像20の左端から距離l2の領域は、右眼映像20の左端の領域に存在する第一の対象を抽出する領域である。したがって、視差の最大値に相当する大きさの領域に余裕を含めた領域が必要である。本実施形態では、視差の最大値の2倍、すなわち2.5%*2=5.0%に相当する大きさの領域を右眼映像20の左端の領域に存在する第一の対象を抽出する領域とする。よって、本実施形態では、水平方向の解像度1920pixelの5.0%=96pixelをl2とする。
また、左眼映像21の右端からの距離r1もl2と同様に決定する。左眼映像21の右端からの距離r1の領域は、左眼映像21の右端に存在する第一の対象を抽出する領域であるから、l2と同様に視差の最大値の2倍に相当する領域とする。よって、本実施形態では、水平方向の解像度1920pixelの5.0%=96pixelをr1とする。
勿論、第一の対象を抽出する領域31を定義する、u1、d1、r1、l1、u2、d2、r2、l2の値を本実施形態の値に限定するものではない。
次に、図4を使用して、第一の対象を抽出する領域31と第一の手段11が抽出する第一の対象23の関係を説明する。図4(a)は、右眼映像20と左眼映像21に第一の対象を抽出する領域31を重畳した図である。図4(a)では、第一の対象を抽出する領域31、すなわち第一の手段11の対象領域の映像は実線で示している。一方、第一の対象を抽出する領域31以外、すなわち第一の手段11の対象領域以外の映像は破線で示している。
第一の手段11は、第一の対象を抽出する領域31内の映像、図4(a)では実線で示した右眼と左眼の映像から、右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出する。図4(a)が示す一実施形態では、右奥の木の一部、左奥の木の一部、中央の人物が持つ旗の一部、中央の人物の頭部の上部、および中央の人物の足部が第一の対象を抽出する領域31内に存在し、第一の手段11の対象となる。
図4(a)が示す例に対して第一の手段11を適用した結果が図4(b)である。図4(b)では、第一の手段11が抽出した第一の対象23を実線で、それ以外の映像を破線で示している。右眼映像20に存在する右奥の木の一部は、左眼映像21に存在しない為、第一の対象23である。また、左奥の木の一部は右眼映像20に存在しない為、第一の対象23である。一方、中央の人物が持つ旗の一部、中央の人物の頭部の上部、および中央の人物の足部は、右眼映像20と左眼映像21の双方に存在する為、第一の対象23ではない。
続いて、第一の手段11が、入力立体映像101から第一の対象23を抽出し、第一の対象情報102を生成する手順を図5を使用して詳細に説明する。図5に第一の手段11が第一の対象情報102を生成する手順を表す流れ図を示す。図5(a)は、動的に再定義する第一の対象を抽出する領域31を使用して、第一の対象情報102を生成する手順を表す流れ図である。図5(a)の流れ図が示す手順は、入力立体映像101のフレーム毎に第一の対象を抽出する領域31を再定義してから、第一の対象情報102を生成する。一方、図5(b)は、予め定義した第一の対象を抽出する領域31を使用した、第一の対象情報102を生成する手順を表す流れ図である。
まず、図5(a)に示す、動的に再定義する第一の対象を抽出する領域31を使用した、第一の対象情報102を生成する手順を説明する。ステップS101は、入力立体映像101を1フレーム読込む。ここで、入力立体映像101は視差を附加した右眼映像20と左眼映像21から構成した立体映像とする。
ステップS102は、第一の対象を抽出する領域31を再定義する。例えば、入力立体映像101の視差、あるいは表示装置の設置環境に基づき第一の対象を抽出する領域31を再定義する。勿論、第一の対象を抽出する領域31の再定義を、入力立体映像101の視差、あるいは表示装置の設置環境に基づく手法に限定するものではない。また、第一の対象を抽出する領域31の定義を単一の要因に限定するものではない。例えば、視差と照度、あるいは視差と表示装置の特性を使用して、ステップS102で第一の対象を抽出する領域31を再定義してもよい。
入力立体映像101の視差に基づき、第一の対象を抽出する領域31を定義するならば、視差が大きければ第一の対象を抽出する領域31を大きく、反対に視差が小さければ第一の対象を抽出する領域31を小さくする。第一の対象を抽出する領域31の大きさは、視差の値に対応して連続的に変化してもよいし、視差の値に対応して段階的に変化してもよい。
表示裝置の設置環境に基づき第一の対象を抽出する領域31を定義するならば、設置環境を測定するセンサを設け、その測定値を基に第一の対象を抽出する領域31を定義する。例えば、表示裝置の設置環境として表示装置周辺の照度を使用するならば、照度センサを設け、照度が高ければ第一の対象を抽出する領域31を大きく、反対に照度が低ければ第一の対象を抽出する領域31を小さくする。視差に依る第一の対象を抽出する領域31の定義と同様に、第一の対象を抽出する領域31の大きさは、照度に対応して連続的に変化してもよいし、照度に対応して段階的に変化してもよい。
ステップS103は、第一の対象を抽出する領域31内の立体映像を対象に視差を0にした映像を、右眼映像20と左眼映像21それぞれに対して求める。これは、次のステップS104で眼映像と左眼映像の差分を算出する際、視差に依る誤動作を防止する為である。
ステップS104は、ステップS103で求めた視差を0にした右眼映像と左眼映像の差分を抽出し、予め定義した閾値と比較する。抽出した差分と閾値の大小関係に依り、別のステップに分岐する。
1)抽出した差分 > 閾値 ならば、抽出した差分は第一の対象23である
よって、ステップS105に分岐し、第一の対象情報102を算出する
2)抽出した差分 <= 閾値 ならば、抽出した差分はノイズである
よって、ステップS101に分岐し、次のフレームを読込む
ステップS105は、第一の対象情報102を算出し出力する。本実施形態では、ステップS104で抽出した差分領域、すなわち第一の対象23の頂点座標を算出し、算出した頂点座標を第一の対象情報102とする。勿論、第一の対象情報102を第一の対象23の各頂点の座標に限定するものではない。したがって、第一の対象23の位置と範囲を表すことができるならば、ステップS104で抽出した差分領域の頂点座標以外の諸元値を基に第一の対象情報102をステップS105で算出してもよい。
よって、ステップS105に分岐し、第一の対象情報102を算出する
2)抽出した差分 <= 閾値 ならば、抽出した差分はノイズである
よって、ステップS101に分岐し、次のフレームを読込む
ステップS105は、第一の対象情報102を算出し出力する。本実施形態では、ステップS104で抽出した差分領域、すなわち第一の対象23の頂点座標を算出し、算出した頂点座標を第一の対象情報102とする。勿論、第一の対象情報102を第一の対象23の各頂点の座標に限定するものではない。したがって、第一の対象23の位置と範囲を表すことができるならば、ステップS104で抽出した差分領域の頂点座標以外の諸元値を基に第一の対象情報102をステップS105で算出してもよい。
次に、図5(b)に示す予め定義した第一の対象を抽出する領域31を使用した第一の対象情報102を生成する手順を説明する。図5(b)に示す、ステップS101、ステップS103、ステップS104、およびステップS105は、図5(a)と同じ動作である。したがって、図5(a)と図5(b)で差異が存在するステップS111に関して詳細に説明する。
ステップS111は第一の対象を抽出する領域31を定義する。図5(b)の流れ図が示す手順では、第一の対象を抽出する領域31を予め定義する為、動的に変化する入力立体映像101や表示装置の設置環境に基づく第一の対象を抽出する領域31の定義は使用できない。したがって、ステップS111では、表示装置の特性や、動的に変化しない表示装置の設置環境に基づき第一の対象を抽出する領域31を定義する。
例えば、第一の対象を抽出する領域31を表示装置の特性である表示速度に基づき定義する。高速に移動する物体を表示速度の遅い表示装置に表示すると、いわゆる動体ボケが発生しやすい。この動体ボケは、両眼の融合を妨げ立体視の知覚に大きな影響を与える。そこで、動体ボケが発生する虞が存在するならば、広範囲に本発明を適用し両眼視野闘争を回避する。よって、表示速度が遅い表示装置を使用するならば、第一の対象を抽出する領域31を大きく定義する。
次に、第二の手段12の動作を詳細に説明する。第二の手段12は、入力立体映像101と、第一の手段11で算出した第一の対象情報102を基に第二の対象を生成し第二の対象情報103を出力する。第二の対象の形状と位置は、対応する第一の対象と同一である。
ここで、本実施形態に係わる第二の対象情報103は、以下に示す情報を少なくとも含むとする。
1)第二の対象の色を表す色情報
2)第二の対象の位置と範囲を表す情報
3)第二の対象を生成したフレームのフレーム番号
第二の対象の色を表す色情報の様式は入力立体映像101の色空間の定義に依存する。
例えば、入力立体映像101がRGBαで定義した色空間を使用しているならば、第二の対象情報103が含む第二の対象の色情報はRGBαで定義する。あるいは、入力立体映像101がYCbCrで定義した色空間を使用しているならば、第二の対象情報103が含む第二の対象の色情報はYCbCrで定義する。勿論、入力立体映像101が使用する色空間の定義をRGBαとYCbCrに限定するものではない。
2)第二の対象の位置と範囲を表す情報
3)第二の対象を生成したフレームのフレーム番号
第二の対象の色を表す色情報の様式は入力立体映像101の色空間の定義に依存する。
例えば、入力立体映像101がRGBαで定義した色空間を使用しているならば、第二の対象情報103が含む第二の対象の色情報はRGBαで定義する。あるいは、入力立体映像101がYCbCrで定義した色空間を使用しているならば、第二の対象情報103が含む第二の対象の色情報はYCbCrで定義する。勿論、入力立体映像101が使用する色空間の定義をRGBαとYCbCrに限定するものではない。
尚、第二の対象の位置と範囲を表す情報は、第二の対象の形状と位置が対応する第一の対象と同一であるので、対応する第一の対象の位置と範囲を表す情報と同一である。
続いて、第二の手段12が第二の対象を生成し、第二の対象情報103を出力する手順を、図6を使用して詳細に説明する。ステップS121は、処理対象の入力立体映像101を1フレーム読込み、第一の対象情報102を読込む。そして、ステップS121は第一の対象情報102から以下の情報を取り出す。
1)第一の対象の位置と範囲を表す情報
2)第一の対象を抽出したフレームのフレーム番号
さらに、ステップS121は、入力立体映像101と第一の対象情報102の同期を取る。同期を取る必要があるのは、第一の対象情報102は第一の手段11の処理を経て第二の手段12に到達する為、入力立体映像101到着時刻と第一の対象情報102の到着時刻に差異が生じているからである。
2)第一の対象を抽出したフレームのフレーム番号
さらに、ステップS121は、入力立体映像101と第一の対象情報102の同期を取る。同期を取る必要があるのは、第一の対象情報102は第一の手段11の処理を経て第二の手段12に到達する為、入力立体映像101到着時刻と第一の対象情報102の到着時刻に差異が生じているからである。
本実施形態では、入力立体映像101に遅延を附加することで到着時刻の差異を解消し同期を取る。遅延を附加した入力立体映像101のフレーム番号と第一の対象情報102から取り出した第二の対象を生成したフレームのフレーム番号が一致するように、入力立体映像101に附加する遅延量を適応的に定める。
ステップS122は、第一の対象情報102が示す第一の対象の位置と範囲を基に、第二の対象領域を設定する。第二の対象領域は、第一の対象に隣接し、右眼映像20および左眼映像21の双方に存在する領域である。また、第二の対象領域は、第一の対象毎に、右眼映像20と左眼映像21それぞれ独立して抽出する。
ステップS123は、ステップS122で設定した第二の対象領域内で立体視効果が最小の領域を抽出する。本実施形態では立体視効果は視差で表すとする。よって、ステップS123は、第二の対象領域内で最も視差が小さい領域を抽出する。ひとつの第二の対象領域に対して、立体視効果が最小の領域が複数存在する場合は、対応する第一の対象からの距離が最も近い領域を選択する。ここで使用する距離は、第一の対象の端部から立体視効果が最小の領域までの間隔で最も短い間隔とする。
ステップS124は、第一の対象毎に第二の対象を生成し、第二の対象の情報を出力する。第二の対象は、対応する第一の対象と形状および位置が同一である。よって、ステップS121で読込んだ第一の対象情報102から、対応する第一の対象の位置と範囲情報を基に、第二の対象の形状と位置を決定する。また、第二の対象の色は、ステップS123で抽出した立体視効果が最小の領域の色を表す色情報を基に決定する。
例えば、ステップS123で抽出した立体視効果が最小の領域が含む全画素の色を単純平均した値を、第二の対象の色とする。勿論、第二の対象の色を決定する手法を、ステップS123で抽出した立体視効果が最小の領域が含む全画素の色の単純平均に依る手法に限定するものではない。そして、生成した第二の対象の、色を表す色情報および形状と位置から、第二の対象情報103を生成し出力する。
続いて、図7を使用して第一の対象23、第二の対象領域33、および立体視効果が最小の領域34を説明する。図7(a)は第二の対象領域33と第一の対象23の関係を示す図である。図7(b)は、図7(a)に示す第二の対象領域33の周辺を拡大した図であり、第一の対象23、第二の対象領域33、および立体視効果が最小の領域34の関係を示している。第二の対象領域33は、第一の対象23に隣接し、右眼映像20および左眼映像21の双方に存在する領域であるから、本実施形態では図7(a)あるいは図7(b)に示す位置に第二の対象領域33が存在する。
第二の対象領域33の形状は、例えば、立体映像の特性、表示装置の特性、あるいは表示装置の設置環境を基に定義する。勿論、本発明は、第二の対象領域33の形状の決定手段を、ここに挙げた3要因、立体映像の特性、表示装置の特性、あるいは表示装置の設置環境に基づく手段に限定するものではない。ここに挙げた3要因以外の要因を使用して第二の対象領域33の形状を決定してもよい。また、ここに挙げた3要因を必ずしも全て含む必要はない。
本実施形態では、第二の対象領域33の形状のうち、第一の対象との接線方向の長さは、接線の両端に、(接線の長さ * 最大視差)の余地を附加した長さとする。また、第一の対象との接線に対する垂直方向の長さ、すなわち第二の対象領域33の幅は、水平方向の解像度に対する最大視差の2分の1とする。例えば、第一の対象23と第二の対象領域33が水平に接し、その接線の長さが100pixelとする。前述の通り、最大視差は2.5%、水平方向の解像度は1920pixelであるから、第二の対象領域33の形状は以下の大きさを持つ長方形になる。
垂直方向 200 * (1 + 2 * 2.5%) = 210pixel
水平方向 1920 * 2.5%/2 = 24pixel
続いて、立体視効果が最小の領域34を更に詳細に説明する。本実施形態では、立体視効果を視差で表しているので、第二の手段12は最も視差が小さい領域を第二の対象領域33内で抽出する。図7(b)に示すように、右眼映像20に存在する右奥の木附近に設定した第二の対象領域33内で立体視効果が最小の領域34は、木の上部に広がる背景の空である。同様に、左眼映像21の左奥の附近に設定した第二の対象領域33内で立体視効果が最小の領域34は、木の上部に広がる背景の空である。
水平方向 1920 * 2.5%/2 = 24pixel
続いて、立体視効果が最小の領域34を更に詳細に説明する。本実施形態では、立体視効果を視差で表しているので、第二の手段12は最も視差が小さい領域を第二の対象領域33内で抽出する。図7(b)に示すように、右眼映像20に存在する右奥の木附近に設定した第二の対象領域33内で立体視効果が最小の領域34は、木の上部に広がる背景の空である。同様に、左眼映像21の左奥の附近に設定した第二の対象領域33内で立体視効果が最小の領域34は、木の上部に広がる背景の空である。
続いて、図8を使用して第三の手段13の動作を説明する。第三の手段13は、入力立体映像101と第二の手段12で算出した第二の対象情報103を基に、出力立体映像104を生成し出力する。
ステップS131は、処理対象の入力立体映像101を1フレーム読込み、第二の対象情報103を読込む。そして、ステップS131は第二の対象情報103から以下の情報を取り出す。
1)第二の対象の色を表す色情報
2)第二の対象の位置と範囲を表す情報
3)第二の対象を生成したフレームのフレーム番号
さらに、ステップS131は、入力立体映像101と第二の対象情報103の同期を取る。同期を取る必要があるのは、第二の対象情報103は第一の手段11と第二の手段12の処理を経て第三の手段13に到達する為、入力立体映像101と第二の対象情報103それぞれ到着時刻に差異が生じているからである。
2)第二の対象の位置と範囲を表す情報
3)第二の対象を生成したフレームのフレーム番号
さらに、ステップS131は、入力立体映像101と第二の対象情報103の同期を取る。同期を取る必要があるのは、第二の対象情報103は第一の手段11と第二の手段12の処理を経て第三の手段13に到達する為、入力立体映像101と第二の対象情報103それぞれ到着時刻に差異が生じているからである。
本実施形態では、入力立体映像101に遅延を附加することで到着時刻の差異を解消し同期を取る。遅延を附加した入力立体映像101のフレーム番号と第二の対象情報103から取り出した第二の対象を生成したフレームのフレーム番号が一致するように、入力立体映像101に附加する遅延量を適応的に定める。
ステップS132は、入力立体映像101内の第一の対象23を、対応する第二の対象35で置換し、出力立体映像104を生成する。ここで、第二の対象35の形状と位置は対応する第一の対象と同一であるから、ステップS131が、第二の対象の色を表す色情報で置換する範囲は、第二の対象の位置と範囲を表す情報が示す範囲である。
続いて、図9を使用して第三の手段13の出力を詳細に説明する。図9(a)は、第一の手段11の抽出結果である。図9(b)と図9(c)は、第三の手段13の出力である出力立体映像104を示している。ここで、図9(b)は、第三の手段13の動作を明示的に示す為に、第二の対象35を出力立体映像104に重畳して記載している。
図9(a)が示すように、右眼映像20では右奥の木の一部に第一の対象23が存在し、左眼映像21では左奥の木の一部に第一の対象23が存在する。したがって、入力立体映像101は、右眼映像20あるいは左眼映像21のどちらかのみ存在する対象、すなわち第一の対象23を含んでいる。第一の対象23の存在は両眼視野闘争の原因となるから、入力立体映像101は視聴者に違和感や疲労感を与える虞を有している。
図9(b)示すように、第二の対象35は、位置と範囲が第一の対象23と同じである。また、第二の対象35の色を表す色情報は、立体視効果が最小の領域34を表す色情報と同一である。本実施形態では、右眼映像20の第一の対象23および左眼映像21の第一の対象23共に、立体視効果が最小の領域34は背景である。
したがって、本実施形態では、図9(c)に示すように出力立体映像104は背景で第一の対象23を置換した映像になる。図9(c)に示すように、出力立体映像104の右眼映像20、左眼映像21共に、両眼視野闘争の原因である第一の対象23は存在しない。それ故、出力立体映像104は、両眼視野闘争を引き起こさず、視聴者に違和感や疲労感を与える虞が無い。
[第2の実施形態]
図10は本発明の第二の実施形態を示す図である。本発明に係わる第二の実施形態は、以下に示す第一の手段11、第二の手段12、および第三の手段13を少なくとも有している。
図10は本発明の第二の実施形態を示す図である。本発明に係わる第二の実施形態は、以下に示す第一の手段11、第二の手段12、および第三の手段13を少なくとも有している。
第二の実施形態に係わる第一の手段11は、第一の実施形態と同様に入力立体映像101から右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出し、第一の対象情報102を生成する。第二の実施形態に係わる第一の対象情報102は、第一の実施形態と同様に、第一の対象の位置と範囲を表す情報、および第一の対象を抽出したフレームのフレーム番号を、少なくとも含むものとする。ここで、第二の実施形態に係わる第一の対象情報102の様式は入力立体映像101の属性様式とする。
第二の実施形態に係わる第一の手段は、生成した第一の対象情報102を入力立体映像101に附加して、第一の対象情報を附加した立体映像111を生成し、出力する。このとき、第二の実施形態に係わる第一の手段11は、入力立体映像101を第一の対象情報102を生成する時間分遅延させてから、第一の対象情報102を生成する素となったフレームに附加する。
第二の実施形態に係わる第二の手段12は、第一の対象情報を附加した立体映像111を基に第二の対象情報103を生成する。第二の対象情報103の生成手段は、第一の実施形態と同様である。また、第二の実施形態に係わる第二の対象情報103は、第一の実施形態と同様に以下の情報を少なくとも含むとする。
1)第二の対象の色を表す色情報
2)第二の対象の位置と範囲を表す情報
3)第二の対象を生成したフレームのフレーム番号
ここで、第二の実施形態に係わる第二の対象情報103の様式は入力立体映像101の属性様式とする。
2)第二の対象の位置と範囲を表す情報
3)第二の対象を生成したフレームのフレーム番号
ここで、第二の実施形態に係わる第二の対象情報103の様式は入力立体映像101の属性様式とする。
第二の実施形態に係わる第二の手段は、生成した第二の対象情報103を、第一の対象情報を附加した立体映像111に附加して、第二の対象情報を附加した立体映像112を生成し、出力する。このとき、第二の実施形態に係わる第二の手段12は、第一の対象情報を附加した立体映像111を第二の対象情報103を生成する時間分遅延させてから、第二の対象情報103を生成する素となったフレームに附加する。また、第二の対象情報103の附加は、第一の対象情報を附加した立体映像111に追加する形でもよいし、第一の対象情報103を置換する形でもよい。
第二の実施形態に係わる第三の手段は、第二の対象情報を附加した立体映像112を基に出力立体映像104を生成し出力する。出力立体映像104の生成手段は、第一の実施形態と同様である。
11 第一の手段、12 第二の手段、13 第三の手段、20 右眼映像、
21 左眼映像、22 全体映像、23 第一の対象、31 第一の対象領域、
33 第二の対象領域、34 立体視効果が最小の領域、35 第二の対象、
101 入力立体映像、102 第一の対象情報、103 第二の対象情報、
104 出力立体映像、111 第一の対象情報を附加した立体映像、
112 第二の対象情報を附加した立体映像
21 左眼映像、22 全体映像、23 第一の対象、31 第一の対象領域、
33 第二の対象領域、34 立体視効果が最小の領域、35 第二の対象、
101 入力立体映像、102 第一の対象情報、103 第二の対象情報、
104 出力立体映像、111 第一の対象情報を附加した立体映像、
112 第二の対象情報を附加した立体映像
Claims (2)
- 右眼映像あるいは左眼映像のどちらか片方に存在する第一の対象を抽出する第一の手段と、
前記第一の対象を置換する第二の対象を生成する第二の手段と、
前記第一の対象を前記第二の対象で置換する第三の手段と、
を具備し、
前記第一の手段が右眼映像および左眼映像の右端、左端、上端、あるいは下端から独立に定義する距離内の領域を対象に前記第一の対象を抽出し、
前記第二の手段が前記第一の対象に接し右眼映像および左眼映像の双方に存在する領域を対象に立体視効果が最小の領域を抽出し、前記第一の対象と同一の形状でかつ前記抽出した立体視効果が最小の領域と同一の色情報を持つ第二の対象を生成し、
前記第三の手段が前記第一の対象を前記第二の対象で置換し、
前記立体視効果を少なくとも両眼視差に依り定義する、
ことを特徴とする立体映像生成裝置。 - 前記第一の手段が、前記第一の対象を抽出する領域を右眼映像および左眼映像のフレーム毎に再定義することを特徴とする請求項1に記載の立体映像生成裝置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017093472A JP2018191191A (ja) | 2017-05-10 | 2017-05-10 | 立体映像生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017093472A JP2018191191A (ja) | 2017-05-10 | 2017-05-10 | 立体映像生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018191191A true JP2018191191A (ja) | 2018-11-29 |
Family
ID=64480362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017093472A Pending JP2018191191A (ja) | 2017-05-10 | 2017-05-10 | 立体映像生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018191191A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022158328A1 (ja) * | 2021-01-19 | 2022-07-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2023091121A1 (ru) * | 2021-11-22 | 2023-05-25 | Анатолий Григорьевич ЛАЗАРЕНКО | Способ записи трехмерного видео |
-
2017
- 2017-05-10 JP JP2017093472A patent/JP2018191191A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022158328A1 (ja) * | 2021-01-19 | 2022-07-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2023091121A1 (ru) * | 2021-11-22 | 2023-05-25 | Анатолий Григорьевич ЛАЗАРЕНКО | Способ записи трехмерного видео |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9277207B2 (en) | Image processing apparatus, image processing method, and program for generating multi-view point image | |
JP5347717B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US9922441B2 (en) | Image processing device, image processing method, and program | |
WO2009123066A1 (ja) | 画像処理方法、画像処理装置及び記録媒体 | |
EP2582143A2 (en) | Method and device for converting three-dimensional image using depth map information | |
EP2469870A2 (en) | Image processing device, image processing method, and program | |
JP2000209614A (ja) | 立体映像システム | |
Daly et al. | Perceptual issues in stereoscopic signal processing | |
JP2011035712A (ja) | 画像処理装置、画像処理方法及び立体画像表示装置 | |
JP2017510092A (ja) | オートステレオスコピックマルチビューディスプレイのための画像の生成 | |
CN108885339A (zh) | 用于使用自适应焦平面渲染虚拟现实的配置 | |
US20160180514A1 (en) | Image processing method and electronic device thereof | |
US20140198104A1 (en) | Stereoscopic image generating method, stereoscopic image generating device, and display device having same | |
US20120229600A1 (en) | Image display method and apparatus thereof | |
JP2018191191A (ja) | 立体映像生成装置 | |
JP5127973B1 (ja) | 映像処理装置、映像処理方法および映像表示装置 | |
JP5627498B2 (ja) | 立体画像生成装置及び方法 | |
JP2014072809A (ja) | 画像生成装置、画像生成方法、画像生成装置用プログラム | |
KR101329069B1 (ko) | 깊이 추정 데이터 생성 장치, 깊이 추정 데이터 생성 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체 및, 의사 입체 화상 표시 장치 | |
JP5528162B2 (ja) | 画像処理装置および画像処理方法 | |
JP6017144B2 (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP2011223126A (ja) | 立体映像表示装置および立体映像表示方法 | |
US8619130B2 (en) | Apparatus and method for altering images for three-dimensional display | |
US20140085434A1 (en) | Image signal processing device and image signal processing method | |
JP5459231B2 (ja) | 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |