JP2012095313A - 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体 - Google Patents

立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2012095313A
JP2012095313A JP2011260982A JP2011260982A JP2012095313A JP 2012095313 A JP2012095313 A JP 2012095313A JP 2011260982 A JP2011260982 A JP 2011260982A JP 2011260982 A JP2011260982 A JP 2011260982A JP 2012095313 A JP2012095313 A JP 2012095313A
Authority
JP
Japan
Prior art keywords
cursor
image
cursor image
parallax
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011260982A
Other languages
English (en)
Other versions
JP5451722B2 (ja
Inventor
Teruki Yoshikawa
輝樹 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011260982A priority Critical patent/JP5451722B2/ja
Publication of JP2012095313A publication Critical patent/JP2012095313A/ja
Application granted granted Critical
Publication of JP5451722B2 publication Critical patent/JP5451722B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】立体映像上で視差を有するカーソルを操作可能な立体映像表示装置においてカーソルを移動させた場合にユーザがカーソルを見失うことを極力防ぐ。
【解決手段】視差を有する画像の組からなる立体映像と、ユーザの操作入力に応じて移動するカーソル画像を立体視可能なように生成し、立体映像に合成して表示させることが可能な立体映像表示装置は、カーソル画像を生成し、生成されたカーソル画像が合成されて表示される位置における立体映像の視差量を取得する。そして、立体映像表示装置は、カーソル画像が合成されて表示される位置が移動している場合はカーソル画像の視差量を一定の所定値として該カーソル画像を生成し、カーソル画像が合成されて表示される位置が移動していない場合は該カーソル画像の視差量を取得された立体映像の視差量に基づいた視差量とする。
【選択図】 図6

Description

本発明は、立体映像表示装置およびカーソル表示方法に関する。
近年、デジタル技術の進歩に伴い、3次元映像製作環境が整備され、3次元(以下、3D)放送が開始されている。3D放送を受信し表示する立体映像表示装置では、表示パネル上に偏向特性を有するフィルムを貼り、左目用、右目用映像をインターレース表示する。観察者は、偏向メガネを通して、左目用表示ラインを左目により、右目用表示ラインを右目により観察することで、立体的に映像を観察することができる。また、左目用、右目用の映像を交互に表示し、液晶シャッターを有するメガネを使用して左目用、右目用の映像をそれぞれ観察者の左目、右目のみに入るように制御することにより、観察者によって立体的に見えるよう構成された立体表示装置も存在する。
一方、高度衛星デジタル放送規格において、従来の十字キーを用いた押しボタン型のリモコンキーによる操作以外に、例えばマウスのような入力デバイスを用いて、カーソル操作する方法が検討されている。この場合、ユーザは、カーソル操作により映像中のオブジェクトを指し示すことが可能である。しかし、3D放送のような立体映像に対しては、2次元平面のカーソル画像を単に重畳表示しただけでは、カーソルがどのオブジェクトを指し示しているのか分かり難いという課題がある。
特許文献1には、立体映像上でカーソル表示する際に、映像と同じ視差量をカーソルに付加することにより、立体映像上においても、どのオブジェクトを指し示しているのか分かりやすくする技術が記載されている。また、特許文献2では、立体表示されるオブジェクトとカーソルの重なりを判断し、重なりがある場合には、カーソルが前記オブジェクト以上に手前側に立体視されるように表示することが記載されている。特許文献2も、カーソルがどのオブジェクトを指し示しているのか分かりやすく表示することを課題としたものである。
特開2001−326947号公報 特開2004−354540号公報
しかしながら、上記特許文献1、2に記載の技術は、常にカーソル位置にある立体映像の視差量をカーソル画像に適用しているため、カーソルの移動中にカーソルがユーザの意図しない動きをしてしまうことがあった。図11は、従来技術における、カーソルの移動時の軌跡を説明する図である。ユーザは、視差量0(Z=0)のクロスポイント面1301に対して手前方向に飛び出した面1302と、奥行き方向に引っ込んだ面1303を認識できる。この状態で、ユーザがマウスを操作してカーソルを球オブジェクト1304から球オブジェクト1305へ移動させようとすると、移動軌跡1306に示すように、マウスの横スライド操作に対して、カーソルは奥行き方向であるZ軸に対しても移動する。カーソル位置にある立体映像の視差量をカーソル画像に適用しているためである。その結果、ユーザにとっては操作意図に反した表示となり、カーソルを見失ってしまうという課題があった。
本発明は、上述した課題に鑑みてなされたものであり、立体映像上で視差を有するカーソルを操作可能な立体映像表示装置においてカーソルを移動させた場合に、ユーザがカーソルを見失うことを極力防ぐことを目的とする。
上記の目的を達成するための本発明の一態様による立体映像表示装置は以下の構成を有する。すなわち、視差を有する画像の組からなる立体映像に、ユーザの操作入力に応じて移動するカーソル画像を合成して表示させることが可能な立体映像表示装置であって、前記カーソル画像を生成する生成手段と、前記生成手段により生成された前記カーソル画像が合成されて表示される位置における立体映像の視差量を取得する取得手段と、を有し、前記カーソル画像が合成されて表示される位置が移動している場合、前記生成手段は前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記カーソル画像が合成されて表示される位置が移動していない場合、前記生成手段は前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とする。
本発明によれば、立体映像上で視差を有するカーソルを操作可能な立体映像表示装置においてカーソルを移動させた場合に、ユーザがカーソルを見失うことを極力防ぐことができる。
実施形態による立体映像観察システムの構成を示す図。 実施形態に係る放送受信装置の構成例を示すブロック図。 第1実施形態に係るデータフローを説明する図。 実施形態に係るカーソル画像の生成処理を説明するフローチャート。 カーソル視差量決定動作を説明する図。 第1実施形態に係るカーソル移動軌跡を示す図。 第2実施形態に係るデータフローを説明する図。 ユーザが観察する立体映像を真上から見た場合の模式図。 第2実施形態に係るカーソル移動軌跡を示した図。 カーソルの向きを切替えた際の表示例を説明した図。 従来技術における、カーソルの移動時軌跡を説明する図。
以下、図面を参照して、本発明を実施するための形態を例示的に詳しく説明する。ただし、実施形態に記載されている構成部品の機能、相対配置などは特定的な記載がない限り、本発明の範囲をそれらのみに限定する趣旨のものではない。また、以下の説明で一度説明した構成や部品についての機能、形状などは特に改めて記載しない限り初めの説明と同様のものとする。
[第1実施形態]
図1は、本発明を適用可能な立体映像観察システムの構成を示す概略図である。放送受信装置100、表示パネル101及びマウス102を含んで構成される立体映像表示装置と、立体観察用の専用メガネ103とにより本実施形態の立体映像観察システムが構成される。なお、マウス102は、操作入力部としてポインティングデバイスを適用した場合の一例である。立体映像表示におけるカーソルの操作が可能な操作入力部はこのような例示に限られるものではなく、トラックボール、座標入力装置、十字キーなど種々の構成を採用することができる。
放送受信装置100は、本実施形態による立体映像観察システムにおける放送受信機能を司る装置である。放送受信装置100には、例えば、USB規格に準拠した接続線を介してマウス102が接続される。表示パネル101は放送受信装置100から出力される映像を受信して表示するものである。表示パネルは液晶方式、プラズマ方式などの方式によらず、適用することが可能である。なお、表示パネル101上には偏光フィルタ(不図示)が貼り付けられており、視差のある映像がそれぞれ異なる振動方向の光で表示される。表示パネル101上に表示された映像をそれぞれ異なる方向の偏光フィルタを有する専用メガネ103を介して観察することで、ユーザは表示パネル101上の映像を3D映像として認識することができる。
図2は、第1実施形態に係る放送受信装置100の概略構成を示すブロック図である。なお、カーソル画像切替部701は第2実施形態で用いられる構成であり、第1実施形態では省略可能である。
図2において、CPU201はROM202に格納されたプログラムに従って放送受信装置の制御を司る。RAM203は揮発性メモリであり、CPU201のワークメモリとして使用されると同時に、各種データの一時記憶エリアとしても使用される。チューナ部204はアンテナ205から受信した放送波を復調し、ビデオ・オーディオのベースバンドデータを出力する。デマルチプレクサ部206はチューナ部204から受信したデータのフレーム分解を行い、ビデオデータ、オーディオデータ、及び番組情報データを分離する。デマルチプレクサ部206で分離されたビデオデータおよびオーディオデータは、デコーダ部207に入力される。
デコーダ部207は、MPEG2符号化されたビデオデータを復号化処理し、映像コンポーネント種別が3D映像の場合は3D映像生成部210へ、2D映像の場合は映像処理部212へビデオデータを出力する。映像コンポーネント種別については後述する。また、デコーダ部207は、MPEG2−AAC符号化されたオーディオデータを復号化処理してリニアPCM形式に変換し音声処理部208に出力する。
デマルチプレクサ部206で分離された番組情報データは、映像判定部209に入力される。番組情報データは、(社)電波産業会(ARIB)における標準規格「デジタル放送に使用する番組配列情報」等で規定されるデータ構造で伝送される。このデータ構造には、主な構成データとして、SDT(Service Description Table)やEIT(EventInformation Table)が含まれる。ここで、SDTは編成チャンネルに関する情報を伝送するためのテーブルであり、EITは番組の名称や放送時間、伝送されるコンポーネント種別など、番組に関する情報を伝送するためのテーブルである。本実施形態においては、これらのテーブルのうち、EITに挿入されるコンポーネント種別(component_type)を用いてビデオデータのフォーマットを取得する。また、本実施形態では、現在規格化されている映像コンポーネント種別にフォーマット情報として3D映像を追加定義する。
映像判定部209は、復号処理中のビデオデータのフォーマットが2D映像であるか3D映像であるかを前述のコンポーネント情報に基づいて判定し、その結果を3D映像生成部へ通知する。3D映像生成部210は、映像判定部209から映像フォーマットの通知を受信し、それが3D映像である場合には立体視可能にするべく、左目用、右目用の視差画像をオーバーラップさせる立体視化処理を施す。例えば、表示パネルの奇数ラインが左目用映像、偶数ラインが右目用映像となるフレーム画像を生成する。そして、生成したフレーム画像を映像処理部212へ入力する。
視差測定部211は、3D映像である場合に、カーソル情報取得部213から取得したカーソル位置に対応する映像の視差量を左目用、右目用の視差画像から測定し、カーソル画像生成部214へ通知する。カーソル画像生成部214は、カーソル情報取得部213から取得したカーソルの移動状態と、視差測定部211から通知された視差に基づきカーソル画像を生成し、映像処理部212へ入力する。映像処理部212は、映像信号に対してγ処理、スケーリング処理等の高画質化処理を施す。そして、映像処理部212は、生成したカーソル画像をカーソル情報取得部213から取得した位置に重畳して合成した後、例えばLVDS信号等、表示パネルに合わせた映像データに変換して出力する。
音声処理部208は、D/A変換処理を施し、音声出力部215に出力する。リモコン216は、ユーザ操作に応じて制御信号を赤外線信号として送信する。マウス102は、ユーザ操作に応じて制御信号、および、割り込み信号を、接続線を介して外部インタフェース部218へ送信する。CPU201は、リモコン受光部217で受光された赤外線信号や、外部インタフェース部218から入力された割り込み信号から、放送受信装置100を制御するための各種コマンドや制御信号を生成し、出力する。なお、上述した各部についてその一部もしくは全てをCPU201がプログラムを実行することにより実現するようにしてよい。
図3の(a)は、視差測定部211、カーソル情報取得部213、カーソル画像生成部214のデータフローを説明する図である。前述の3D映像生成部210は、3D映像を構成する左目用の視差画像(L画像)を測定ブロック設定部301、右目用画像(R画像)を探索範囲設定部302にそれぞれ入力する。もちろん、L画像を探索範囲設定部302に入力し、R画像を測定ブロック設定部301に入力するようにしても良い。
測定ブロック設定部301では、図3の(b)に示すように、カーソル情報取得部213により取得した現在のカーソル位置350に基づいて左目用の視差画像上に所定数の測定ブロック351を設定し、該測定ブロックの画像データを基準データとして出力する。本実施形態では、例えば、カーソル位置350を中心とした1つの測定ブロック351(M×N画素(M=N=4))を設定するものとする。
探索範囲設定部302は、右目用画像上に測定ブロック351と同じ座標(x,y)を中心とする探索範囲352と、その探索範囲352内で測定ブロック351と同じ大きさの参照ブロック353を設定する。そして、探索範囲設定部302は、参照ブロック353の画像データを参照データとして出力する。本実施形態では、例えば、測定ブロック351に対し、上下左右の一方向にn画素(上下方向の場合は1≦n<M、左右方向の場合は1≦n<N(本実施形態では1≦n<4))シフトしたブロックを参照ブロック353とする。従って、探索範囲352の大きさは、(3M−2)画素×(3N−2)画素となる。また、参照ブロック353は、1つの測定ブロック351に対して複数個設定されることになる。
視差量算出部303は、入力された基準データと参照データに対してマッチング演算処理を行い、基準データに対する視差量(Δx,Δy)を算出する。すなわち、視差量算出部303は、探索範囲352内で測定ブロック351とマッチング度の最も高い参照ブロック353を検出し、測定ブロック351と検出された参照ブロック353の位置関係によりカーソル位置350における映像の視差量を得る。カーソル画像生成部214は、カーソル情報取得部213により取得したカーソルの移動状態、視差測定部211により取得した視差量、および後述するプログラム処理の結果に基づき、視差量を有するカーソル画像を生成して出力する。
図4は、上述した本実施形態におけるカーソル画像生成の動作を説明するフローチャートである。CPU201は、ユーザのマウス102に対する操作による割り込み信号発生時、および、予め定めてある任意のポーリング周期で図4のフローチャートに示す処理を実行する。本実施形態では、例えば、50msec周期のポーリング処理を実行する。なお、ユーザがマウス102を操作してカーソル移動した場合、外部インタフェース部218が割り込み要求をCPU201へ通知する。CPU201は、割り込み要求を受け付けたとき、または、各ポーリング周期において、カーソルイベント処理用のプログラムをROM202から読み出し実行する。カーソルイベント処理用のプログラム(以下、ユーザプログラム)が実行されると、CPU201は、視差測定部211、カーソル情報取得部213、カーソル画像生成部214によりカーソル表示を制御する。
まず、カーソル情報取得部213は、現在のカーソル位置(x,y)を取得する(ステップS401)。なお、高度衛星デジタル放送規格におけるARIB−Jアプリケーションでは、ユーザプログラムは、HID(HumanInterface Device)Listenerインタフェースをインプリメントすることで、HIDEventクラスを用いてカーソルイベントの詳細情報を取得することができる。ユーザプログラムは、HIDEventクラスのメソッドであるgetData()を利用してマウスから受信したデータを取得し、カーソル画像が合成される現在のカーソル位置を求める。なお、カーソル情報取得部213は、取得したカーソル位置(x,y)を視差測定部211とカーソル画像生成部214に通知する。
次に、カーソル情報取得部213は、取得したカーソル位置から、カーソル画像が合成されるカーソル位置でのカーソル移動速度を求める(ステップS402)。ここで、カーソル画像が合成されるカーソル位置でのカーソル移動速度とは、前回の割り込み、もしくはポーリングで取得したカーソル位置とカーソル画像が合成される現在のカーソル位置、および、カーソル位置取得時の時間差分を用いて算出されるとする。そして、カーソル移動速度が、ユーザプログラム内で予め定めている閾値以上になると、カーソル情報取得部213はカーソル移動中であると判断し、「カーソル移動」イベントを発生する(ステップS403(YES),S404)。他方、カーソル速度が、予め定めている閾値未満になると、カーソル情報取得部213はカーソル停止中もしくは停止状態に近いと判断し、「カーソル停止」イベントを発生する(S403(NO),ステップS405)。なお、上記の閾値を0とすると、上記イベントは、単純なカーソル移動開始、停止に対応することになる。
カーソル画像生成部214は、前述のイベントを受信すると、図5に示す状態遷移表に基づいて、カーソルに適用する視差量を決定し(ステップS406)、プログラムの内部状態を変更する(ステップS407)。そして、カーソル画像生成部214は、前述の決定結果に従ってカーソル画像を生成する(ステップS408)。即ち、カーソル画像生成部214は、カーソル表示の視差量を変更すると決定された場合には視差測定部211により測定された当該カーソル位置(x,y)における映像の視差量に追従するようにカーソル表示の視差量を変更する。他方、カーソル表示の視差量を変更しないように決定された場合には、カーソル表示の視差量を変更せず、それまでの視差量を用いてカーソル表示を行う。なお、カーソル画像生成部214が生成するカーソルの表示位置はカーソル情報取得部213から受信した現在のカーソル位置(x,y)である。
図5は、図4のステップS406における、カーソル視差量決定動作を説明する図である。ユーザプログラムは、カーソルの視差量に対する処理動作を、図5の状態遷移表により定義している。縦軸はカーソルの現在の状態を示し、横軸はユーザプログラム内部で発生したイベントを示す。交差する箇所の各マスは、各状態において、前述のイベントが発生した場合の処理動作と遷移先を示している。
まずは図5(a)の場合について説明する。図5(a)において、ユーザプログラムの現在の内部状態を「停止」とする。このとき、「カーソル移動」イベントが発生すると、ユーザプログラムは「カーソル移動」イベントが発生したカーソル速度を算出した時の映像視差量に基づきカーソル視差量を更新する。本動作により、ユーザプログラムは、後述するカーソル移動処理直前のカーソル視差量の最終更新を行う。そして、ユーザプログラムの内部状態を「移動」に変更する(図5(a)の動作501)。
ユーザプログラムの現在の内部状態が「移動」において、「カーソル移動」イベントが発生すると、ユーザプログラムはカーソル視差量を更新しない(動作502)。つまり、動作501において、「カーソル移動」イベントが発生するカーソル速度を算出した時の映像視差量に基づきカーソル視差量を更新するので、カーソル移動中のカーソルの視差量は、「カーソル移動」イベントが発生した時に更新した視差量が保持される。動作502では、ユーザプログラムの内部状態は「移動」のままとなる。また、ユーザプログラムの現在の内部状態が「移動」において、「カーソル停止」イベントが発生すると、ユーザプログラムは現在の映像視差量を最終的なカーソル視差量として、段階的に視差量を更新する。そして、ユーザプログラムの内部状態は「停止中」に変更される(動作505)。
ユーザプログラムの現在の内部状態が「停止中」において、「カーソル停止」イベントが発生すると、ユーザプログラムは、動作505と同様にして段階的にカーソル視差量を更新する(動作506)。そして、前述の通りカーソル視差量を段階的に更新している間は内部状態を「停止中」のまま継続し、前述の最終的なカーソル視差量と段階的に更新した結果の視差量が一致すると、ユーザプログラムの内部状態を「停止」に変更する(動作506)。本処理により、カーソル停止後、急にカーソルが飛び出したり、奥行き方向へ移動したりすることによって、ユーザがカーソルを見失う問題を防ぐ効果がある。
ユーザプログラムの現在の内部状態が「停止中」において、「カーソル移動」イベントが発生すると、ユーザプログラムは段階的な視差量更新をやめる。そして、内部状態を「移動」に変更する(動作503)。また、ユーザプログラムの現在の内部状態が「停止」において、「カーソル停止」イベントが発生すると、ユーザプログラムは現在の映像視差量に基づきカーソル視差量を更新する。即ち、カーソル停止状態において、カーソル画像は常に映像視差量と同じ視差量で表示される。ユーザプログラムの内部状態は「停止」のままとする(動作504)。
なお、上記説明ではユーザプログラムの内部状態が「停止」において、「カーソル移動」イベントが発生すると、「カーソル移動」イベントが発生した時の映像視差量に基づきカーソル視差量を更新するとした。これは、「カーソル移動」イベントが発生した時においてカーソルの表示の視差量を更新し、カーソル移動中はその更新後の視差量が維持されることを意味する。ここで図5(b)に示すように、図5(a)の動作501に変えて動作511の処理を行ってもよい。図5(b)の動作511では、ユーザプログラムの内部状態が「停止」のときに「カーソル移動」イベントが発生した場合、カーソルの視差量は、「カーソル移動」イベントが発生する直前に発生した「カーソル停止」イベントの時に更新したカーソル視差量のまま更新しない。現在のカーソル位置と前回のカーソル位置との差分によりカーソル速度が算出されるため、「カーソル移動」イベントが発生する直前に発生した「カーソル停止」イベントの時にカーソルの移動が開始されているとみなすことができる。つまり、図5(b)の場合、カーソルが移動を開始した時の視差量のままカーソルを表示することになる。図5(b)の動作511では図5(a)の動作501と同様に、ユーザプログラムの内部状態を「移動」に変更する。図5(b)の動作502乃至動作506は、図5(a)の動作502乃至動作506と同様である。このように、図5(a)及び図5(b)のいずれも、カーソル移動中においては、カーソル表示の視差量は変化しない。なお、図5(a)の動作501において、「カーソル移動」イベントの発生時にカーソル表示の視差量を0(ゼロ)に更新し、カーソル移動中はこれを維持するようにしても良い。重要なことは、カーソル移動中の視差量の変更を禁止し、一定の所定値に固定することであり、これにより本実施形態の効果(カーソルの移動中にカーソルを見失うことを低減すること)が得られる。
図6は、第1実施形態によるカーソル移動時のカーソル移動軌跡を示した図である。ユーザがマウス102を横方向にスライド操作した場合には、スライド開始時の視差量にカーソル600の表示の視差量が固定され、カーソル600は横方向に移動する。従って、カーソル600は移動軌跡601上を移動するようになる。ユーザが操作を停止すると、カーソル位置の映像オブジェクト(図6の例では球オブジェクト1305)の視差量で重畳表示されていることが確認できる。
以上の構成によれば、立体映像上におけるカーソル表示において、カーソルが所定の速度以上で移動している間はカーソルの表示に適用される視差量が固定される。また、カーソルの移動速度が所定の速度未満ではカーソル位置にある立体映像の視差量に追従するようにカーソル表示に視差量が適用される。その結果、カーソル移動中は、視差量が変化しないので、ユーザのスライド操作に応じたカーソル移動動作となり、カーソルを見失う問題を防ぐ効果がある。さらに、カーソル移動停止後、カーソルに適用する視差量を段階的に更新するので、カーソルの視差が急に変化することによってカーソルを見失う問題を極力防ぐ効果がある。また、カーソル停止もしくは選択時には映像オブジェクトと同じ視差をカーソルに付加するようにしたので、従来通り、カーソルがどのオブジェクトを指し示しているのか分かりやすく表示できる。
[第2実施形態]
次に、本発明の第2実施形態における処理について説明する。第2実施形態における立体映像観察システムの全体の構成は第1実施形態(図1、図2)と同様である。なお、第2実施形態の説明において、上述した第1実施形態と共通する部分については、適宜、説明を省略する。
第2実施形態では、第1実施形態の構成(図3)にカーソル画像切替部701が加わる(図7)。また、第2実施系のカーソル情報取得部213は、現在のカーソル位置を取得する処理に加え、カーソルの移動方向、および、移動速度から次の割り込みタイミングでのカーソルの移動先位置(以下、次のカーソル位置と記載する)を予測する機能を備える。更に、第2実施形態の視差測定部211は、現在のカーソル位置と、次のカーソル位置それぞれについて、該カーソル位置に対応する映像の視差量を測定する。カーソル画像切替部701は、カーソルの移動開始位置における映像の視差量と、次のカーソル位置における映像の視差量とから位置関係を比較、判断し、表示すべきカーソル画像を選択して、カーソル画像生成部214に設定する。
次に、図7および図8を用いて第2実施形態によるカーソル画像生成処理について説明する。図7は、第2実施形態におけるカーソル画像生成処理に係り、視差測定部211、カーソル情報取得部213、カーソル画像生成部214、カーソル画像切替部701の間のデータフローを説明する図である。また、図8は、ユーザが観察する立体映像を真上から見た場合のイメージを模式的に示した図である。
3D映像生成部210は、3D映像を構成する左目用の視差画像(L画像)を視差測定部211の測定ブロック設定部301に、右目用の画像(R画像)を探索範囲設定部302にそれぞれ入力する。もちろん、L画像を探索範囲設定部302に入力し、R画像を測定ブロック設定部301に入力するようにしても良い。カーソル情報取得部213は、現在のカーソル位置と次のカーソル位置を測定ブロック設定部301、および、探索範囲設定部302に通知する。
以下、カーソル位置の予測について、単純化したモデルについて図8を参照して概略の説明を行う。例えば、カーソルの移動開始位置を(x0,y0)として(図8の位置901)、最初の割り込みから次の割り込みまでの時間の間に(x1,y1)までカーソルを移動させたとする(図8の位置902)。この場合、現在のカーソル位置(x1,y1)に対し、次の割り込み時点でのカーソル位置(x2,y2)は、(x0,y0)から(x1,y1)から求められる座標平面上でのベクトル方向に、当該座標間の距離だけ進んだ位置であると予測する(図8の位置903)。より一般化して言えば、たとえば、(x1-x0,y1-y0)の方向へ、現在の位置(x1,y1)から√((x1-x0)2+(y1-y0)2)の距離だけ離れた位置を予測位置(x2,y2)とする。なお、カーソル位置の予測方法はこれに限られるものではない。
なお、カーソルが(x2,y2)まで進むと、次のカーソル位置は前回のカーソル位置(x1,y1)と現在のカーソル位置(x2,y2)とから同様にして予測する。ユーザがカーソル操作をやめて座標(x1,y1)で移動を停止した場合、次のカーソル移動開始位置(x0,y0)は(x1,y1)となる。
カーソル情報取得部213は、カーソル移動開始位置としての第1のカーソル位置(x0,y0)と、予測したカーソル位置としての第2のカーソル位置(x2,y2)を測定ブロック設定部301、および、探索範囲設定部302に入力する。
測定ブロック設定部301は、カーソル情報取得部213より通知された第1のカーソル位置(x0,y0)および第2のカーソル位置(x2,y2)に基づいて、左目用の視差画像上に所定数(1または複数)の測定ブロックと予測測定ブロックを設定する。そして、測定ブロック設定部301は、設定した測定ブロックおよび予測測定ブロック内のそれぞれの映像データを基準データとして出力する。本実施形態では、例えば、測定ブロック、及び予測測定ブロックをM×N画素(M=N=4)とする。
探索範囲設定部302では、右目用画像上に測定ブロックと同じ座標(x0,y0)を中心とする探索範囲を設定して、その探索範囲内で測定ブロックと同じ大きさの参照ブロックを設定する。同様に、探索範囲設定部302は、予測測定ブロック(x2,y2)を中心とする探索範囲を設定して、その探索範囲内で予測参照ブロックを設定する。そして、参照ブロック、および、予測参照ブロック内のそれぞれの映像データを参照データとして出力する。なお、本実施形態では、例えば、前記測定ブロックに対し、上下左右の一方向にn画素(1≦n<4)シフトしたブロックを参照ブロック、および、予測参照ブロックとする。各ブロックの詳細は、図3の(b)で説明したとおりであり、ここでは詳細な説明を省略する。
視差量算出部303は、入力されたそれぞれの基準データと参照データに対してマッチング演算処理を行い、基準データに対する視差量(Δx0,Δy0)、及び予測ブロックの視差量(Δx2,Δy2)を算出する。図8の例では位置904の視差量が算出されることになる。カーソル画像切替部701は、カーソル移動開始位置の視差量と予測ブロックとの視差量の差を求める。そして、カーソル画像切替部701は、カーソル移動開始位置に対してカーソル移動先のオブジェクトが手前方向にあるか、もしくは、奥行き方向にあるかを判定する。
以上のように、本実施形態では、基準データに対する視差量(Δx0,Δy0)、および、予測ブロックの視差量(Δx2,Δy2)を比較し、予測されるカーソル位置が現在のカーソル位置から手前方向か奥行き方向か、もしくは一致するかを判定する。なお、基準データに対する視差量(Δx0,Δy0)は、カーソル移動中(カーソルが停止するまで)は変更されないので、繰り返し計算しないようにしてもよい。また、基準データに対する視差量(Δx0,Δy0)は、移動中に固定されているカーソル表示の視差量とほぼ一致するため、移動中のカーソルの視差量を上記(Δx0,Δy0)として用いても良い。なお、カーソルの表示の視差量を(Δx0,Δy0)として用いた場合、カーソルの「停止中」においてカーソルの視差量を段階的に変更する際、カーソルと映像の視差量が近づくにつれてカーソルの表示も段階的に変化するような表示を実現できる。
そして、カーソル画像切替部701は、予測されるカーソル位置が現在のカーソル位置より手前の場合は手前方向のカーソル画像、奥行き方向の場合は奥行き方向の画像、一致した場合には通常の指示形状としての横向きの画像をROM202から読み出す。続けてカーソル画像生成部214は、前述のROM202から読み出した画像に対して、第1実施形態と同様にしてカーソルの表示の視差量を決定し、カーソル画像を生成する。
なお、カーソル画像生成部214は、第1実施形態の状態遷移(図5)において、「停止中」状態にあるときにのみ、カーソル位置を予測するように処理することも可能である。この場合、ユーザのマウス操作によってカーソルが移動している最中は通常の指示形状としての横向きの画像を表示し、カーソル移動を停止すると、段階的に視差量を更新すると共に、常にオブジェクトを指し示すようなカーソル形状に変更して表示する動作となる。
図9は、第2実施形態によるカーソル移動軌跡の一例を示す図である。第1実施形態と同様に、ユーザがマウス102をスライド操作した場合には、スライド開始時の視差量に固定された状態でカーソルが横方向に移動する。そして、ユーザが操作を停止すると、カーソルの表示の視差量はカーソルの現在位置における映像の視差量に追従するように更新される。このとき、第2実施形態では、さらに、カーソル位置を予測し、現在のカーソル位置またはその直前のカーソル位置における映像の視差量と予測されたカーソル位置における映像の視差量に基づいてカーソルの表示形状を切替える。本実施形態では、例えば、カーソル画像の指し示す向きを切替えており、これにより、ユーザがマウス操作を停止した後のZ軸方向(奥行き方向)に対するカーソル移動方向を視認することができる(図9のカーソル1001)。
図10の(a)および(b)は、第2実施形態における、カーソルの表示形状の変更の一例を示す図であり、表示形状の変更の例としてカーソルの向きを切替えた際の表示例を説明した図である。視差量“0”のクロスポイント面を現在のカーソル位置とすると、奥行き方向および手前方向を示すカーソルの表示形状はそれぞれカーソル画像1101、カーソル画像1102のようになる。なお、カーソル画像1103は視差量の変化が所定値未満の場合の表示形状である。また、球オブジェクト1120はクロスポイント面よりも手前にあるオブジェクト、球オブジェクト1121はクロスポイント面よりも奥にあるオブジェクトである。図10の(b)に示すように、カーソル位置が位置1200→位置1201→位置1202→位置1203のように移動して、位置1203で停止した場合を考える。この場合、位置1200〜1203における各位置のカーソルの表示形状は、カーソル画像1103→カーソル画像1101→カーソル画像1102→カーソル画像1103のようになる。位置1203では、クロスポイント面よりも手前にある球オブジェクト1120の視差量にカーソルの表示の視差量が追従した結果、現在のカーソル表示の視差量と映像の視差量とが一致し、カーソル画像1103が選択されている。なお、図10の(a),(b)では3種類のカーソルの表示形状を示したが、より多くの表示形状を用意しておき、視差量の差の大きさに応じて更に細かくカーソル表示を切り替えるようにしても良い。
以上の構成によれば、立体映像上におけるカーソル表示において、カーソルが所定の速度以上で移動している間は、カーソルに適用する視差量が固定される。また、所定の速度未満ではカーソル位置にある立体映像の視差量に追従するようにカーソルの表示の視差量が変更される。そして、これに加えて、カーソルの、奥行き方向を加味した進行方向を視認できるように、予測されたカーソル位置の映像の視差量に基づいてカーソル画像が切替えて表示される。その結果、第1実施形態に加え、ユーザがカーソル移動を停止した場合の、Z軸へのカーソル移動方向が予測しやすくなり、更にカーソルを見失う問題を防ぐ効果を得られる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1. 視差を有する画像の組からなる立体映像に、ユーザの操作入力に応じて移動するカーソル画像を合成して表示させることが可能な立体映像表示装置であって、
    前記カーソル画像を生成する生成手段と、
    前記生成手段により生成された前記カーソル画像が合成されて表示される位置における立体映像の視差量を取得する取得手段と、を有し、
    前記カーソル画像が合成されて表示される位置が移動している場合、前記生成手段は前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記カーソル画像が合成されて表示される位置が移動していない場合、前記生成手段は前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とすることを特徴とする立体映像表示装置。
  2. 前記カーソル画像が合成されて表示される位置の単位時間あたりの移動量を検出する検出手段を有し、
    前記検出手段で検出された前記移動量が所定の閾値以上である場合、前記生成手段は前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記検出手段で検出された前記移動量が所定の閾値未満である場合、前記生成手段は前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とすることを特徴とする請求項1に記載の立体映像表示装置。
  3. 前記カーソル画像が合成されて表示される位置が移動している場合、前記生成手段は前記一定の所定値を前記取得手段により取得された前記立体映像の視差量に基づいて決定することを特徴とする請求項1または2に記載の立体映像表示装置。
  4. 前記カーソル画像が合成されて表示される位置が移動している場合、前記生成手段は前記カーソル画像の視差量をゼロとすることを特徴とする請求項1または2に記載の立体映像表示装置。
  5. 前記カーソル画像が合成されて表示される位置が移動していない状態から前記カーソル画像が移動している状態へ変化した場合、前記生成手段は、前記カーソル画像が移動していない状態のときに生成されたカーソル画像の視差量を前記一定の所定値として用いて、移動中の前記カーソル画像を生成することを特徴とする請求項1または2に記載の立体映像表示装置。
  6. 前記カーソル画像が合成されて表示される位置の単位時間あたりの移動量と移動方向とを検出し、検出された前記カーソル画像の前記単位時間あたりの移動量と移動方向とに基づいて前記カーソル画像の移動先位置を予測する予測手段を更に有し、
    前記取得手段は、前記予測手段で予測された前記カーソル画像の移動先位置の立体映像の視差量を取得し、
    前記生成手段は、前記カーソル画像が合成される前記立体映像の視差量と前記予測された移動先位置の前記立体映像の視差量との差に基づいて前記カーソル画像の形状を変更することを特徴とする請求項1から5のいずれか1項に記載の立体映像表示装置。
  7. 前記カーソル画像が特定の方向を指し示す形状を有し、前記生成手段は、前記カーソル画像が前記予測手段により予測された移動先位置の前記立体映像を指し示す形状の画像とすることを特徴とする請求項6に記載の立体映像表示装置。
  8. 視差を有する画像の組からなる立体映像に、ユーザの操作入力に応じて移動するカーソル画像を合成して表示させることが可能な立体映像表示装置によるカーソル表示方法であって、
    生成手段が、前記カーソル画像を生成する生成工程と、
    取得手段が、前記生成工程で生成された前記カーソル画像が合成されて表示される位置における立体映像の視差量を取得する取得工程と、を有し
    前記カーソル画像が合成されて表示される位置が移動している場合、前記生成工程では前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記カーソル画像が合成されて表示される位置が移動していない場合、前記生成工程では前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とすることを特徴とするカーソル表示方法。
  9. 請求項8に記載されたカーソル表示方法の各工程をコンピュータに実行させるためのプログラム。
  10. 請求項8に記載されたカーソル表示方法の各工程をコンピュータに実行させるためのプログラムを格納したコンピュータで読み取りが可能な記憶媒体。
JP2011260982A 2009-11-26 2011-11-29 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体 Expired - Fee Related JP5451722B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011260982A JP5451722B2 (ja) 2009-11-26 2011-11-29 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009269266 2009-11-26
JP2009269266 2009-11-26
JP2011260982A JP5451722B2 (ja) 2009-11-26 2011-11-29 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010187646A Division JP4876182B2 (ja) 2009-11-26 2010-08-24 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2012095313A true JP2012095313A (ja) 2012-05-17
JP5451722B2 JP5451722B2 (ja) 2014-03-26

Family

ID=46388098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011260982A Expired - Fee Related JP5451722B2 (ja) 2009-11-26 2011-11-29 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体

Country Status (1)

Country Link
JP (1) JP5451722B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320734A (ja) * 2000-05-12 2001-11-16 Sony Corp 立体画像表示装置
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
JP2004354540A (ja) * 2003-05-28 2004-12-16 Sanyo Electric Co Ltd 立体映像表示装置及びプログラム
JP2005136726A (ja) * 2003-10-30 2005-05-26 Canon Inc 立体画像表示装置、立体画像表示システム、立体画像表示方法及びプログラム
WO2010150554A1 (ja) * 2009-06-26 2010-12-29 パナソニック株式会社 立体視画像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320734A (ja) * 2000-05-12 2001-11-16 Sony Corp 立体画像表示装置
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
JP2004354540A (ja) * 2003-05-28 2004-12-16 Sanyo Electric Co Ltd 立体映像表示装置及びプログラム
JP2005136726A (ja) * 2003-10-30 2005-05-26 Canon Inc 立体画像表示装置、立体画像表示システム、立体画像表示方法及びプログラム
WO2010150554A1 (ja) * 2009-06-26 2010-12-29 パナソニック株式会社 立体視画像表示装置

Also Published As

Publication number Publication date
JP5451722B2 (ja) 2014-03-26

Similar Documents

Publication Publication Date Title
JP4876182B2 (ja) 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体
US8930838B2 (en) Display apparatus and display method thereof
CN111034207B (zh) 图像显示设备
EP2544456B1 (en) Display control apparatus, display control method, and program
US10389995B2 (en) Apparatus and method for synthesizing additional information while rendering object in 3D graphic-based terminal
EP2544071A2 (en) Display control apparatus, display control method, and program
US20140033253A1 (en) Image display device and method for operating same
US20120086714A1 (en) 3d image display apparatus and display method thereof
JP2012044308A (ja) 3d画像出力装置及び3d画像表示装置
US20120050471A1 (en) Display apparatus and image generating method thereof
US20130328864A1 (en) Image display apparatus and method for operating the same
JP5451722B2 (ja) 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体
JP2014207492A (ja) 立体映像表示装置
US20140160257A1 (en) Video signal processing apparatus
EP2574068A2 (en) Image display apparatus and method for operating the same
US9547933B2 (en) Display apparatus and display method thereof
KR101836846B1 (ko) 영상표시장치, 및 그 동작방법
EP3550825A1 (en) Image display device and image display system comprising same
EP4290943A2 (en) Communication device and image display apparatus including the same
KR20110062983A (ko) 3d 영상의 입체감 조절 요소를 설정하는 gui를 표시하는 디스플레이 장치 및 이에 적용되는 gui 제공 방법
US20160062479A1 (en) Image display apparatus and method for operating the same
JP2012065010A (ja) 遠隔映像監視システム
KR20110057957A (ko) 디스플레이 장치 및 이에 적용되는 gui 제공 방법
KR20130011384A (ko) 3차원 영상 처리 장치 및 3차원 영상 처리 장치의 설정값을 조절하기 위한 방법
KR101945811B1 (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20130201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R151 Written notification of patent or utility model registration

Ref document number: 5451722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees