JP2011081453A - 映像再生装置及び映像再生方法 - Google Patents
映像再生装置及び映像再生方法 Download PDFInfo
- Publication number
- JP2011081453A JP2011081453A JP2009230905A JP2009230905A JP2011081453A JP 2011081453 A JP2011081453 A JP 2011081453A JP 2009230905 A JP2009230905 A JP 2009230905A JP 2009230905 A JP2009230905 A JP 2009230905A JP 2011081453 A JP2011081453 A JP 2011081453A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- display
- marker
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Position Input By Displaying (AREA)
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】三次元表示に対する操作に関し、ユーザの利便性を向上させることができる映像再生装置及び映像再生方法を提供する。
【解決手段】映像再生装置1は、操作対象について視野差を有する第1の映像の対を生成する左右視野映像生成部233と、利用者の三次元の動作を認識する動き認識部22と、動き認識部22が認識した動作に基づいて三次元の指示座標を特定し、指示座標に対応したマーカについて視野差を有する第2の映像の対を生成するマーカ生成部230と、第1の映像の対と前記第2の映像の対とを合成して第3の映像の対を生成する映像合成部235とを有する。
【選択図】図3
【解決手段】映像再生装置1は、操作対象について視野差を有する第1の映像の対を生成する左右視野映像生成部233と、利用者の三次元の動作を認識する動き認識部22と、動き認識部22が認識した動作に基づいて三次元の指示座標を特定し、指示座標に対応したマーカについて視野差を有する第2の映像の対を生成するマーカ生成部230と、第1の映像の対と前記第2の映像の対とを合成して第3の映像の対を生成する映像合成部235とを有する。
【選択図】図3
Description
本発明は、映像再生装置及び映像再生方法に関する。
従来の電子機器として、カメラによって撮影された利用者の手の形状に基づいて動作する映像再生装置がある(例えば、特許文献1参照)。
この映像再生装置は、利用者を撮影するカメラと、予め設定された複数の手の形状を記憶する手形状データベースと、カメラによって撮影された映像中の利用者の手の形状を手形状データベースに記憶された手の形状に基づいて認識する手形状認識部と、手形状認識部によって認識された利用者の手の動作を解析する手動作解析部とを有し、手動作解析部は、手動作を解析した結果に基づいて操作対象となるソフトウェアに操作信号を送信するため、利用者は手の動作でソフトウェアを操作することができる。
しかし、従来の映像再生装置では、三次元表示への対応について考慮がなされていない。例えば特許文献1に示すような従来技術では、ユーザの手の動作と三次元表示に対する操作とを対応させることが出来ず、該三次元表示に対する操作をユーザに直感的に把握させることができない可能性があり、利便性に欠ける。
従って、本発明の目的は、三次元表示に対する操作に関し、ユーザの利便性を向上させることができる映像再生装置及び映像再生方法を提供することにある。
[1]本発明は、上記した目的を達成するため、操作対象について視野差を有する第1の映像の対を生成する映像生成部と、利用者の三次元の動作を認識する動き認識部と、前記動き認識部が認識した前記動作に基づいて三次元の指示座標を特定し、前記指示座標に対応したマーカについて視野差を有する第2の映像の対を生成するマーカ生成部と、前記第1の映像の対と前記第2の映像の対とを合成して第3の映像の対を生成する映像合成部とを有することを特徴とする映像再生装置を提供する。
上記した構成によれば、動き認識部によって利用者の三次元の動作を認識するとともに、認識した動作に基づいてマーカを生成し、マーカと操作対象とが表示される映像を生成するため、利用者の三次元の動作を認識するとともに、三次元の操作対象に対する利用者の操作を表示することができる。
[2]また、本発明は、上記した目的を達成するため、操作対象について視野差を有する第1の映像の対を生成する映像生成ステップと、利用者の三次元の動作を認識する動き認識ステップと、前記動き認識ステップにおいて認識した前記動作に基づいて三次元の指示座標を特定し、前記指示座標に対応したマーカについて視野差を有する第2の映像の対を生成するマーカ生成ステップと、前記第1の映像の対と前記第2の映像の対とを合成して第3の映像の対を生成する映像合成ステップとを有することを特徴とする映像再生方法を提供する。
上記した構成によれば、[1]と同様の効果を有する映像再生方法を達成できる。
[3]また、本発明は、上記した目的を達成するため、第1視点に対応する第1画像情報と、前記第1視点とは異なる第2視点に対応する第2画像情報とを其々生成する画像情報生成手段と、前記画像情報生成手段で其々生成された前記第1画像情報と前記第2画像情報とを合成し、第1表示画像と、この第1表示画像の下に重ねられる第2表示画像とを其々生成して表示画面に表示させる表示手段と、外部操作部の位置を検知する位置検知手段と、前記位置検知手段で検知された前記外部操作部の位置が第1の位置であれば前記第1表示画像を選定し、前記位置検知手段で検知された前記外部操作部の位置が、第1の位置より前記表示画面に近い第2の位置であれば前記第2表示画像を選定する選定手段と、を具備することを特徴とする映像再生装置を提供する。
上記した構成によれば、三次元表示に対する操作に関し、ユーザの利便性を向上させることができる。
本発明によれば、三次元表示に対する操作に関し、ユーザの利便性を向上させることができる。
[実施の形態]
(映像再生装置の構成)
図1Aは、本発明の実施の形態に係る映像再生装置の構成を示す概略図である。
(映像再生装置の構成)
図1Aは、本発明の実施の形態に係る映像再生装置の構成を示す概略図である。
映像再生装置1は、本体2の内部に備えられたチューナによって受信した映像コンテンツや、本体2内部に備えられたHDD(Hard Disk Drive)等の記憶部に記憶された映像コンテンツを再生可能であり、再生した結果、映像をLCD(Liquid Crystal Display)等の表示画面を備える表示部(表示手段)25に表示する。なお、映像コンテンツは、二次元(以下、「2D」という。)又は視野差を有する2つの映像の対からなる三次元(以下、「3D」という。)の映像コンテンツである。また、再生する映像コンテンツを選択するため、又は再生中の映像コンテンツを操作するためのOSD(On−Screen Display)映像を3Dで表示する。
また、ここでいう「視野差を有する2つの映像の対」とは、仮想空間上に設定された利用者4の右目と左目とに対応した視点座標からの視野による右視野映像及び左視野映像の対を意味し、例えば、表示部25で表示される同一の映像コンテンツに対し、該表示部25の右側から表示画面を見た場合に対応した映像と左側から表示画面を見た場合に対応した映像との組合せを指す。
映像再生装置1は、3Dの映像コンテンツを再生する場合、3Dの映像コンテンツに含まれる視野差を有する2つの映像を交互に再生し、利用者4が装着するシャッターメガネ5の右シャッター5Rと左シャッター5L(後述)とを3Dの映像コンテンツの再生に同期させて交互に開閉させる。3D映像コンテンツの再生とシャッターメガネ5との同期は、映像再生装置1に接続されたタイミングジェネレータ5Aからタイミング信号を発信させ、タイミング信号をシャッターメガネ5に受信させることで達成する。なお、以下において、3Dと記載があるときは、特に断りがない限り上記した方法又はそれに代わる方法で利用者4に立体視させるよう映像を再生することとする。
また、映像再生装置1は、映像再生装置1に対面する利用者4との距離情報を取得する距離センサ(位置検知手段)3を有し、距離センサ3が取得した距離情報に基づいて利用者4の動作を認識する。なお、距離センサ3は、例えば、赤外線レーザー又は赤外線LEDと複数の受光素子からなる赤外線カメラ又は赤外線センサとを備え、赤外線レーザー又は赤外線LEDが放射した赤外線の反射を赤外線カメラで撮影すること又は赤外線センサで検知することで距離情報を取得する。
図1Bは、シャッターメガネ5の構成を示す概略図である。
シャッターメガネ5は、電子制御のシャッターを備えた右シャッター5R及び左シャッター5Lと、タイミング信号を受信するタイミング信号受信部50とを有し、タイミング信号に基づいて右シャッター5Rと左シャッター5Lとを交互に開閉する制御回路を内部に有する。
以上の図1A及び図1Bに示す構成において利用者4は、3D映像コンテンツを視聴し、体の一部を用いて映像再生装置1の動作を制御する。
図2は、本発明の実施の形態に係る映像再生装置1の構成を示すブロック図である。
映像再生装置1の本体2は、奥行画像取得部20と、両手検出部21と、動き認識部22と、コンテンツ表示制御部23と、表示制御部24と、表示部25と、記憶部26とを有する。
奥行画像取得部20は、距離センサ3が取得した距離情報を奥行画像として取得する。
両手検出部21は、奥行画像取得部20が取得した奥行画像から指示領域として利用者4の両手(又は片手)を検出する。検出方法としては、例えば、映像再生装置1に対して最も奥行きが小さい対象物を手と認識する。右手及び左手の認識は、分離する対象物が2つある場合にそれぞれ左右のどちらに配置されているかを判断して行う。
動き認識部22は、両手検出部21が検出した両手の位置、及び両手の動きを奥行き方向及び奥行き方向と直行する方向において認識し、その動きに基づいた利用者動作信号をコンテンツ表示制御部23に出力する。なお、動き認識は、左手及び右手のそれぞれに対して行い、それらの動きの組み合わせ等も認識する。
コンテンツ表示制御部23は、後述する2D映像コンテンツ26aや3D映像コンテンツ26bの再生処理と、コンテンツ操作用のOSD映像の生成及び表示処理と、動き認識部22から出力される利用者動作信号に基づいて生成されたマーカの表示と、動き認識部22から出力される利用者動作信号に基づいたコンテンツ表示制御部23の各部に対する制御とを実行する。なお、OSD映像及びマーカの表示は3D映像にて実行される。
表示制御部24は、コンテンツ表示制御部23が再生した映像コンテンツを表示制御するとともに、3D映像コンテンツの再生、つまり視野差の異なる2つの映像の切り替えタイミングに同期させてタイミングジェネレータ5Aを制御する。
表示部25は、表示制御部24の制御によって動作し、映像コンテンツを表示するLCD等から構成される。
記憶部26は、2D映像コンテンツ26a及び3D映像コンテンツ26bを記憶する。2D映像コンテンツ26aは、1つの映像からなる映画やTV番組等を収録した一般的な映像コンテンツである。3D映像コンテンツ26bは、右視野用の映像と左視野用の映像を有する3D視聴用の映像コンテンツである。
図3は、コンテンツ表示制御部23の構成を示す概略図である。
コンテンツ表示制御部23は、マーカ生成部230と、コンテンツサムネイル取得部231と、3D−OSD生成部(選定手段)232と、左右視野映像生成部(画像情報生成手段)233と、コンテンツ再生部234と、映像合成部235と、操作信号生成部236とを有する。
マーカ生成部230は、利用者4の手の位置を表示部25に表示される3D映像上にマーカとして表示するために、動き認識部22が出力した利用者動作信号に基づいて、視野差を考慮したマーカの左右視野映像を生成する。
コンテンツサムネイル取得部231は、後述する3D−OSD上において使用するサムネイルを記憶部26に記憶された2D映像コンテンツ26a及び3D映像コンテンツ26bから取得する。なお、取得するサムネイルは、2D又は3Dのいずれをも取得可能であり、2Dのサムネイルから3Dのサムネイルを擬似的に生成することもできるものとする。
3D−OSD生成部232は、球面上に映像コンテンツのサムネイルを並べて表示する表示方法や、タイル状に並べられたサムネイルを複数層に渡って表示する表示方法によって映像コンテンツの一覧を3Dの仮想空間上に生成する。また、再生中の映像コンテンツの操作制御に使用する再生ボタンや停止ボタン等の3Dの表示画像を生成する。また、動き認識部22から入力される利用者4の手の位置を仮想空間上の指示座標として認識し、3D−OSDに対する指示座標及び動き認識部22が出力する利用者動作信号を操作信号生成部236に出力する。
左右視野映像生成部233は、3D−OSD生成部232が生成した映像コンテンツの一覧や操作制御に使用する表示画像を、仮想空間上に設定された右目と左目に対応した視点座標からの視野による右視野映像(第1画像情報)及び左視野映像(第2画像情報)を生成する。
コンテンツ再生部234は、2D映像コンテンツ26a及び3D映像コンテンツ26bをデコードして再生する。また、コンテンツ再生部234は、2D映像コンテンツ26aから3D映像コンテンツを擬似的に生成して再生する2D−3D映像変換部を有する。
映像合成部235は、マーカ生成部230が生成したマーカの左右視野映像と、左右視野映像生成部233が生成した3D−OSDの左右視野映像と、コンテンツ再生部234が再生した左右視野映像とを合成する。
操作信号生成部236は、3D−OSD生成部232から入力する3D−OSDに対する指示座標の位置及び動き認識部22が出力する利用者動作信号に基づいてコンテンツ表示制御部23の各部を制御するための制御信号を生成する。例えば、マーカが3D−OSDの再生制御用のボタンを指示していたときは、映像コンテンツを再生し、利用者の両手が中心から外側へ開くような動作であるときはOSDの表示を拡大する等する。
図4は、表示部25に表示される3D映像の構成例を示す概略図である。
ボール型コンテンツ表示画面250は、右視野用ボール型コンテンツ表示画面250Lと、左視野用ボール型コンテンツ表示画面250Rとからなる映像の対を表示部25にそれぞれ交互に表示することで構成され、コンテンツのサムネイルを複数の球面上に配置したボール型コンテンツ表示250Aと、利用者の手が指示する位置を示すマーカ250Bとを有する。
ボール型コンテンツ表示250Aは、複数の球面を有し、それぞれに対して同数のサムネイルを配置する。利用者は、視点を移動することで球の中心に近づいたり遠ざかったり、球を回転したりすることができる。
図5は、表示部25に表示される3D映像の構成例を示す概略図である。
ウォール型コンテンツ表示画面251は、右視野用ウォール型コンテンツ表示画面251Lと、左視野用ウォール型コンテンツ表示画面251Rとからなる映像の対を表示部25にそれぞれ交互に表示することで構成され、コンテンツのサムネイルを複数の平面上に配置したウォール型コンテンツ表示251Aと、利用者の手が指示する位置を示すマーカ251Bとを有する。
ウォール型コンテンツ表示251Aは、複数の平面を有し、それぞれに対して同数のサムネイルを配置する。利用者は、視点を移動することで所望の平面に近づいたり、平面を画面左右又は上下方向に移動したりすることができる。なお、サムネイルは、そのサムネイルに該当する映像コンテンツが3Dである場合には、3Dで表示してもよい。
図6は、表示部25に表示される3D映像の構成例を示す概略図である。
映像コンテンツ再生画面252は、右視野用映像コンテンツ再生画面252Lと、左視野用映像コンテンツ再生画面252Rとからなる映像の対を表示部25にそれぞれ交互に表示することで構成され、コンテンツを再生した映像コンテンツ表示252Aと、利用者の手が指示する位置を示すマーカ252Bと、マーカ252Bによって映像コンテンツを再生制御するコンテンツ再生制御表示252Cとを有する。
(動作)
以下に、本発明の実施の形態における映像再生装置の動作を各図を参照しつつ説明する。
以下に、本発明の実施の形態における映像再生装置の動作を各図を参照しつつ説明する。
(1)映像再生装置1の基本動作
利用者4が、距離センサ3に対向すると、距離センサ3は利用者4対象物として検知し、その距離情報を取得する。
利用者4が、距離センサ3に対向すると、距離センサ3は利用者4対象物として検知し、その距離情報を取得する。
次に、両手検出部21は、距離が最も近いものを利用者4の右手及び左手として検知する。また、右手及び左手の区別は、例えば、右手及び左手が、センターより右側に位置するか左側に位置するかで区別される。
次に、動き認識部22は、両手検出部21が検出した右手及び左手の位置、並びに右手及び左手の奥行き方向及び奥行き方向と直行する方向の動きを利用者動作信号としてコンテンツ表示制御部23に送信する。
コンテンツ表示制御部23は、動き認識部22が出力する利用者動作信号に基づいて図4〜図6に示した内容を切り替えて表示する。切り替え動作の詳細については、後述する。
表示制御部24は、コンテンツ表示制御部23によって表示される映像を表示部25に表示する。このとき、映像が3Dである場合は、視野差のある映像の対を予め定めた周期で交互に表示部25に表示するとともに、その表示の周期に同期させてタイミングジェネレータ5Aを動作させる。
タイミングジェネレータ5Aは、表示の周期でタイミング信号を出力し、利用者4に装着されたシャッターメガネ5は、タイミング信号を受信して右シャッター5R及び左シャッター5Lを交互に開閉する。以上の動作により、利用者4に対して表示部25に表示された映像の対のうち右目の視野に対応した映像を右目に、左目の視野に対応した映像を左目にそれぞれ視覚させることで、コンテンツ映像を立体視させる。
(2−1)コンテンツ表示制御部23の切り替え遷移動作
図7は、ボール型コンテンツ表示画面250、ウォール型コンテンツ表示画面251及び映像コンテンツ再生画面252の遷移を示す概略図である。
図7は、ボール型コンテンツ表示画面250、ウォール型コンテンツ表示画面251及び映像コンテンツ再生画面252の遷移を示す概略図である。
ボール型コンテンツ表示A1は、映像再生装置1が図4に示すボール型コンテンツ表示画面250を表示している状態であり、ウォール型コンテンツ表示A2は、図5に示すウォール型コンテンツ表示画面251を表示している状態である。ボール型コンテンツ表示A1とウォール型コンテンツ表示A2とは利用者の操作によって切り替えられる。切り替えは、例えば、ボール型コンテンツ表示画面250又はウォール型コンテンツ表示画面251に用意された切り替え操作用の表示をマーカによって指示することで達成される。
3D映像コンテンツ再生A3は、映像再生装置1が図6に示す映像コンテンツ再生画面252において3D映像コンテンツ26bを再生している状態である。
2D−3D映像コンテンツ再生A4は、映像再生装置1が図6に示す映像コンテンツ再生画面252において2D映像コンテンツ26aを3Dに変換して再生している状態である。
2D映像コンテンツ再生A5は、映像再生装置1が図6に示す映像コンテンツ再生画面252において2D映像コンテンツ26aを再生している状態である。
ボール型コンテンツ表示A1(又は、ウォール型コンテンツ表示A2)において、利用者によって映像コンテンツが指示されて再生が指示されると、そのコンテンツの種類に応じて3D映像コンテンツ再生A3、2D−3D映像コンテンツ再生A4又は2D映像コンテンツ再生A5に遷移する。また、3D映像コンテンツ再生A3、2D−3D映像コンテンツ再生A4又は2D映像コンテンツ再生A5において、利用者によって映像コンテンツの停止が指示されると、ボール型コンテンツ表示A1(又は、ウォール型コンテンツ表示A2)に遷移する。
なお、図示していないが、上記において括弧書きしたように、ボール型コンテンツ表示A1と、3D映像コンテンツ再生A3、2D−3D映像コンテンツ再生A4又は2D映像コンテンツ再生A5との遷移関係は、ウォール型コンテンツ表示A2と、3D映像コンテンツ再生A3、2D−3D映像コンテンツ再生A4又は2D映像コンテンツ再生A5との遷移関係にも適用される。
(2−2)コンテンツ表示制御部23の映像生成及び合成動作
図8は、映像再生装置1が生成する映像の構成を示す概略図である。なお、この例は、図4に示すボール型コンテンツ表示250Aに対応するOSDを表示して、再生する映像コンテンツを利用者が選択するための画面を示している。
図8は、映像再生装置1が生成する映像の構成を示す概略図である。なお、この例は、図4に示すボール型コンテンツ表示250Aに対応するOSDを表示して、再生する映像コンテンツを利用者が選択するための画面を示している。
マーカ映像230Aは、マーカ生成部230によって生成される映像であり、それぞれ左視野用及び右視野用に生成されるマーカ映像230L及び230Rを有する。
3D−OSD映像233Aは、左右視野映像生成部233によって仮想空間上の3D−OSD232Aから生成される映像であり、それぞれ左視野用及び右視野用に生成される3D−OSD映像233L及び233Rを有する。
3D合成映像235Aは、映像合成部235によってマーカ映像230A及び3D−OSD映像233Aを合成して得られる映像であり、それぞれ左視野用及び右視野用の3D合成映像235L及び235Rを有する。3D合成映像235Aは、表示部25に表示することによりボール型コンテンツ表示画面250となる。
図9は、映像再生装置1が生成する映像の構成を示す概略図である。なお、この例は、図6に示す映像コンテンツ表示252A及びコンテンツ再生制御表示252cに対応するOSDを表示して、映像コンテンツの再生及び再生の制御操作を利用者が実行するための画面を示している。
マーカ映像230Bは、マーカ生成部230によって生成される映像であり、それぞれ左視野用及び右視野用に生成されるマーカ映像230L及び230Rを有する。
3D−OSD映像233Bは、左右視野映像生成部233によって仮想空間上の3D−OSD232Bから生成される映像であり、それぞれ左視野用及び右視野用に生成される3D−OSD映像233L及び233Rを有する。
3Dコンテンツ映像234Bは、コンテンツ再生部234によって映像コンテンツを再生して得られる映像であり、それぞれ左視野用及び右視野用に生成される3Dコンテンツ映像234L及び234Rを有する。
3D合成映像235Bは、映像合成部235によってマーカ映像230A、3D−OSD映像233A及び3Dコンテンツ映像234Bを合成して得られる映像であり、それぞれ左視野用及び右視野用の3D合成映像235L及び235Rを有する。3D合成映像235Bは、表示部25に表示することにより映像コンテンツ再生画面252となる。
図10A(a)〜(d)は、視野差を有する映像の対の構成例を示す概略図である。
図10A(a)に示すように、利用者4と表示部画面位置25aとの位置関係において、位置42に視覚対象が配置されるかのように利用者に立体視されるためには、図10A(b)のように視覚対象42L及び42Rが表示部25に描画される。なお、視覚対象42Lは、左目41Lにのみ視覚される映像であり、視覚対象42Rは、右目41Rにのみ視覚される映像である。
同様に、位置43又は位置44に視覚対象が配置されるかのように利用者に立体視されるためには、図10A(c)又は(d)のように視覚対象43L及び43R又は視覚対象44L及び44Rが表示部25に描画される。つまり、利用者4に対してより近くに視覚されるものは視野差が大きくなり、所定の距離にあるように視覚されるものは視野差が0となり、それより遠くに視覚されるものは左右入れ替わって視野差が大きくなる。
以上に説明するように図8及び図9に示すOSD232A又は232Bから視野差を有する映像の対である3D−OSD映像233A又は233Bが生成される。また、マーカ230l及び230rもマーカ生成部230によって同様の方法で生成される。
図10Bは、映像再生装置1の映像合成動作例を示すフローチャートである。
まず、3D−OSD生成部232は、動き認識部22から受信した指示座標及び利用者動作信号に基づいて利用者の手の位置を認識し(S1)、また、マーカ生成部230は、利用者の手の位置に基づいて図8、図9に示すような左右視野用に異なるマーカ映像230L及び230Rの対を生成する(S2)。
次に、左右視野映像生成部233は、3D−OSD生成部232が生成した仮想空間上のOSD232A又は232Bから、図8、図9に示すような左右視野用に異なる3D−OSD映像233L及び233Rの対を生成する(S3)。
次に、図7の状態A3〜A5に該当するように映像コンテンツを再生中である場合(S4;Yes)、コンテンツ再生部234は、再生中のコンテンツ映像を左右のフレームごとに3Dコンテンツ映像234L及び234Rに分離する(S5)。ここで、2D映像コンテンツ26aは、2D−3D映像変換部234aにおいて3D映像に変換されているものとする。
次に、映像合成部235は、左右の視野ごとにマーカ映像230L及び230R、3D−OSD映像233L及び233R、並びに3Dコンテンツ映像234L及び234Rを合成し、図9に示すように3D合成映像235Bを生成する(S6)。
次に、表示制御部24は、3D合成映像235Bのフレームが通常の映像の2倍になっていることから、2倍フレームレートを指定して表示部25に出力する(S7)。また、表示制御部24は、シャッターメガネ5のシャッター制御と3D合成映像235A又は235Bの表示とを同期させるため、タイミングジェネレータ5Aに対してフレームレートを出力する。
また、ステップS4において、図7の状態A1又はA2に該当する状態のように映像コンテンツを再生中でない場合(S4;No)、映像合成部235は、左右の視野ごとにマーカ映像230L及び230R、並びに3D−OSD映像233L及び233Rを合成し、図8に示すように3D合成映像235Aを生成する(S8)。
(2−3)利用者4の動作に対する映像再生装置1の動作対応
図11(a)及び(b)は、利用者4の動作と映像再生装置1の表示例を示す概略図である。
図11(a)及び(b)は、利用者4の動作と映像再生装置1の表示例を示す概略図である。
図11(a)に示すように、映像再生装置1は、表示部25にボール型の3D−OSD25Bと、3Dマーカ25Cとを有する3D合成映像25Aを表示する。なお、3Dマーカ25Cは、マーカ生成部230によって利用者4の左手40Lの位置に応じて表示される。なお、3Dマーカ25Cは、利用者4の左手40L及び右手40Rそれぞれの指示座標に応じて表示されるものであり、以下の説明において「3Dマーカ25Cが指示する」と説明されているものは、仮想空間上の3D−OSD232A又は3D−OSD232Bの***作対象部を「指示座標が指示する」のと同じ意味であるとする。
また、3Dマーカ25Cが3D−OSD25Bのサムネイルを指示すると、サムネイルに選択枠25cが表示されて選択状態となる。なお、サムネイルを選択状態とするには、3Dマーカ25Cでサムネイルを予め定めた時間、例えば、2秒間指示する。
また、図11(b)に示すように、動き認識部22が、左手40Lが奥行き方向に移動されたと認識すると、マーカ生成部230は、3Dマーカ25Cを左手40Lの移動距離に比例して3D合成映像25A中の奥行き方向に移動し、3Dマーカ25Cが中心側の球面に配置されたサムネイルを指示すると、サムネイルが選択枠25cによって選択状態となる。
図12(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図12(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図12(a)に示すように、3Dマーカ25Cが3D−OSDの最も外側の球付近にある場合、動き認識部22は、左手40Lが右方向に通常の動作より素早く移動されたと認識すると、左手40Lの移動距離に比例して3D−OSDの最も外側の球のみ回転させる。
また、図12(b)に示すように、3Dマーカ25Cが3D−OSDの中心側の球付近にある場合、動き認識部22は、左手40Lが右方向に通常の動作より素早く移動されたと認識すると、左手40Lの移動距離に比例して3D−OSDの中心側の球のみ回転させる。
図13(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図13(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図13(a)に示すように、動き認識部22が、左手40Lが奥行き方向に移動されたと認識すると、マーカ生成部230は、3Dマーカ25Cを左手40Lの移動距離に比例して3D合成映像25A中の奥行き方向に移動する。
また、図13(b)に示すように、動き認識部22が、左手40Lを握って手前方向に移動されたと認識すると、3D−OSD生成部232が視点を奥行き方向に移動し、3D−OSDを引き寄せる。
図14(a)及び(b)は、利用者4の動作と映像再生装置1の表示例を示す概略図である。
図14(a)及び(b)は、利用者4の動作と映像再生装置1の表示例を示す概略図である。
図14(a)に示すように、映像再生装置1は、表示部25にウォール型の3D−OSD25Eと、3Dマーカ25Cとを有する3D合成映像25Aを表示する。なお、3Dマーカ25Cは、マーカ生成部230によって利用者4の左手40Lの位置に応じて表示される。
また、3Dマーカ25Cが3D−OSD25Eのサムネイルを指示すると、サムネイルに選択枠25cが表示されて選択状態となる。なお、サムネイルを選択状態とするには、3Dマーカ25Cでサムネイルを予め定めた時間、例えば、2秒間指示する。
また、図14(b)に示すように、動き認識部22が、左手40Lが奥行き方向に移動されたと認識すると、マーカ生成部230は、3Dマーカ25Cを左手40Lの移動距離に比例して3D合成映像25A中の奥行き方向に移動し、3Dマーカ25Cが奥行き方向の平面に配置されたサムネイルを指示すると、サムネイルが選択枠25cによって選択状態となる。
図15(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図15(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図15(a)に示すように、3Dマーカ25Cが3D−OSD25Eの最も手前の平面付近にある場合、動き認識部22は、左手40Lが右方向に通常の動作より素早く移動されたと認識すると、左手40Lの移動距離に比例して3D−OSDの最も手前の平面のみ平行移動させる。
また、図15(b)に示すように、3Dマーカ25Cが3D−OSDの奥行き側の平面付近にある場合、動き認識部22は、左手40Lが右方向に通常の動作より素早く移動されたと認識すると、左手40Lの移動距離に比例して3D−OSDの奥行き側の平面のみ平行移動させる。
図16A(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
図16B(a)〜(c)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。なお、図16B(a)は図16A(a)に、また図16B(b)は図16A(b)に対応しており、利用者4を側面側から見た場合の概略図である。
図16A(a)に示すように、映像再生装置1は、表示部25に映像再生装置1の操作制御用の3D−OSDである音量調整バー253B、再生位置バー254B及び入力切替バー255Bと、3Dマーカ25Cとを有する3D合成映像25Aを表示する。なお、3Dマーカ25Cは、マーカ生成部230によって利用者4の左手40Lの位置に応じて表示される。
音量調整バー253Bは、映像再生装置1において出力される音量の大小を調整する。
再生位置バー254Bは、映像再生装置1において再生中の映像コンテンツの再生時間の位置を指示する。
入力切替バー255Bは、映像再生装置1において表示される映像のソースを、例えば、ビデオ入力、TV放送又はその他の外部入力等から選択する。
左手40Lが図16B(a)に示す位置にあるとき、図16A(a)に示すように、3Dマーカ25Cが音量調整バー253Bの付近に表示され、音量カーソル253bを選択している場合、動き認識部22は、左手40Lが右方向に移動されたと認識すると、左手40Lの移動距離に比例して音量カーソル253bを平行移動させ、その結果、操作信号生成部236は、音量調整を行う制御信号を出力する。
また、左手40Lが図16B(b)に示す位置にあるとき、図16A(b)に示すように、3Dマーカ25Cが再生位置バー254Bの付近に表示され、再生位置カーソル254bを選択している場合、動き認識部22は、左手40Lが右方向に移動されたと認識すると、左手40Lの移動距離に比例して再生位置カーソル254bを平行移動させ、その結果、操作信号生成部236は、再生位置を変更する制御信号を出力する。
(3)2D表示時の利用者4の動作に対する映像再生装置1の動作対応
図17(a)及び(b)は、利用者4の動作と映像再生装置1の表示例を示す概略図である。
図17(a)及び(b)は、利用者4の動作と映像再生装置1の表示例を示す概略図である。
映像再生装置1は、表示が2Dである場合、図17(a)のように、表示部25に2Dのマーカ25Hと2DのOSD25Gとを有する2D合成画像25Fを表示する。動き認識部22は、左手40Lが右方向に移動されたと認識すると、図17(b)に示すように、OSD25Gを左手40Lの移動距離に比例して回転させる。
図18(a)及び(b)は、利用者4の動作と映像再生装置1の他の表示例を示す概略図である。
動き認識部22は、図18(a)に示すように左手40L及び右手40Rが突き出されたと認識し、図18(b)及び(c)に示すように両手が外側へ拡げられたと認識すると、OSD25Gの表示縮尺を移動距離に比例して拡大、つまり、表示上の視点を中心に近づくように移動する。また、両手が内側へ狭められたと認識すると、表示上の視点を中心から遠ざかるように移動する。
図19は、表示が2Dと3Dとで切り替えられる場合の映像再生装置1の映像合成動作例を示すフローチャートである。
コンテンツ表示制御部23は、3D表示を実行する場合(S20;Yes)、図1〜図16Aに説明したように各部を動作させて利用者に3D−OSD又は3D映像コンテンツが立体視されるよう、映像再生装置1の各部を動作させて各映像の対を生成する(S21)。また、操作信号生成部236は、3D表示に対応した操作信号を生成する(S22)。
また、ステップS20において3D表示を実行せず、すべての映像を2D表示する場合(S20;No)、マーカ生成部230は、2D映像においてマーカを生成し、左右視野映像生成部233は、その機能を停止させて3D−OSDから1つの視点に基づく映像を生成し、コンテンツ再生部234は、2D映像コンテンツを再生し、2D−3D映像変換部234aの動作を停止させ、映像合成部235は、これらの2D映像を合成する(S23)。
次に、操作信号生成部236は、動き認識部22が出力する利用者動作信号に基づいて、3D表示時とは異なる、図17及び図18に示すような2D表示に対応した操作信号を生成する(S24)。
(実施の形態の効果)
上記した実施の形態によると、映像再生装置1は、操作対象としての3D−OSD映像233A(233B)と、利用者4の左手40L及び右手40Rが指示する3D空間における位置を示す3Dマーカ映像230A(230B)とを合成して3D合成映像235A(235B)を生成するとともに、マーカが指示した位置及び利用者動作信号に基づいて映像再生装置1の各部を制御する操作信号を生成するため、利用者の三次元の動作を認識するとともに、三次元の操作対象に対する利用者の操作を表示することができ、利用者は、動作に対応した直感的な制御を実行することができる。
上記した実施の形態によると、映像再生装置1は、操作対象としての3D−OSD映像233A(233B)と、利用者4の左手40L及び右手40Rが指示する3D空間における位置を示す3Dマーカ映像230A(230B)とを合成して3D合成映像235A(235B)を生成するとともに、マーカが指示した位置及び利用者動作信号に基づいて映像再生装置1の各部を制御する操作信号を生成するため、利用者の三次元の動作を認識するとともに、三次元の操作対象に対する利用者の操作を表示することができ、利用者は、動作に対応した直感的な制御を実行することができる。
なお、本実施の形態において説明した立体視の方法、つまり、左右視野用に異なる映像の対を交互に表示する方法以外に、左右視野用に異なる映像の対を1フレームに1走査線ごとに交互に並べて表示し、1走査線おきに偏光方向を変えた画素表示を行う液晶パネルを用いて表示する方法を用いてもよい。その際、利用者4は、それぞれ偏光方向を変えた右レンズ、左レンズを有する偏光メガネを使用する。
また、両手検出部21は、手を検出対象としたが、頭、足等の手以外の部位又は体全体を対象としてもよい。また、利用者4の3Dにおける指示位置及び動作を検出できれば、他の入力装置を用いてもよい。
1…映像再生装置、2…本体、3…距離センサ、4…利用者、5…シャッターメガネ、5A…タイミングジェネレータ、5L…左シャッター、5R…右シャッター、20…奥行画像取得部、21…両手検出部、22…動き認識部、23…コンテンツ表示制御部、24…表示制御部、25…表示部、25A…3D合成映像、25B…3D−OSD、25C…3Dマーカ、25E…3D−OSD、25F…2D合成画像、25G…OSD、25H…マーカ、25c…選択枠、26…記憶部、26a…映像コンテンツ、26b…映像コンテンツ、40L…左手、40R…右手、41L…左目、41R…右目、42〜44…位置、42L〜44L、42R〜44R…視覚対象、50…タイミング信号受信部、230…マーカ生成部、230A…マーカ映像、230B…マーカ映像、230L、230R…マーカ映像、231…コンテンツサムネイル取得部、232…3D−OSD生成部、233…左右視野映像生成部、233A…3D−OSD映像、233B…3D−OSD映像、233L…3D−OSD映像、234…コンテンツ再生部、234B…3Dコンテンツ映像、234L…3Dコンテンツ映像、234a…2D−3D映像変換部、235…映像合成部、235A…3D合成映像、235B…3D合成映像、235L…3D合成映像、236…操作信号生成部、250…ボール型コンテンツ表示画面、250A…ボール型コンテンツ表示、250B…マーカ、250L…右視野用ボール型コンテンツ表示画面、250R…左視野用ボール型コンテンツ表示画面、251…ウォール型コンテンツ表示画面、251A…ウォール型コンテンツ表示、251B…マーカ、251L…右視野用ウォール型コンテンツ表示画面、251R…左視野用ウォール型コンテンツ表示画面、252…映像コンテンツ再生画面、252A…映像コンテンツ表示、252B…マーカ、252C…コンテンツ再生制御表示、252L…右視野用映像コンテンツ再生画面、252R…左視野用映像コンテンツ再生画面、252c…コンテンツ再生制御表示、253B…音量調整バー、253b…音量カーソル、254B…再生位置バー、254b…再生位置カーソル、255B…入力切替バー
Claims (6)
- 操作対象について視野差を有する第1の映像の対を生成する映像生成部と、
利用者の三次元の動作を認識する動き認識部と、
前記動き認識部が認識した前記動作に基づいて三次元の指示座標を特定し、前記指示座標に対応したマーカについて視野差を有する第2の映像の対を生成するマーカ生成部と、
前記第1の映像の対と前記第2の映像の対とを合成して第3の映像の対を生成する映像合成部とを有することを特徴とする映像再生装置。 - 前記指示座標と前記操作対象との位置関係に基づいて操作信号を生成する操作信号生成部をさらに有することを特徴とする請求項1に記載の映像再生装置。
- 前記操作信号生成部が生成する前記操作信号に基づいて映像コンテンツを再生して第4の映像の対を生成するコンテンツ再生部をさらに有し、
前記映像合成部は、前記第1の映像の対、前記第2の映像の対及び前記第4の映像の対を合成して前記第3の映像の対を生成することを特徴とする請求項2に記載の映像再生装置。 - 前記操作信号生成部は、前記映像生成部及び前記マーカ生成部が視野差を有する映像の対を生成する場合と、視野差を考慮しない映像を生成する場合とにおいて、前記動き認識部が認識する動きに基づいて、それぞれ異なる操作信号を生成することを特徴とする請求項1に記載の映像再生装置。
- 操作対象について視野差を有する第1の映像の対を生成する映像生成ステップと、
利用者の三次元の動作を認識する動き認識ステップと、
前記動き認識ステップにおいて認識した前記動作に基づいて三次元の指示座標を特定し、前記指示座標に対応したマーカについて視野差を有する第2の映像の対を生成するマーカ生成ステップと、
前記第1の映像の対と前記第2の映像の対とを合成して第3の映像の対を生成する映像合成ステップとを有することを特徴とする映像再生方法。 - 第1視点に対応する第1画像情報と、前記第1視点とは異なる第2視点に対応する第2画像情報とを其々生成する画像情報生成手段と、
前記画像情報生成手段で其々生成された前記第1画像情報と前記第2画像情報とを合成し、第1表示画像と、この第1表示画像の下に重ねられる第2表示画像とを其々生成して表示画面に表示させる表示手段と、
外部操作部の位置を検知する位置検知手段と、
前記位置検知手段で検知された前記外部操作部の位置が第1の位置であれば前記第1表示画像を選定し、前記位置検知手段で検知された前記外部操作部の位置が、第1の位置より前記表示画面に近い第2の位置であれば前記第2表示画像を選定する選定手段と、
を具備することを特徴とする映像再生装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009230905A JP2011081453A (ja) | 2009-10-02 | 2009-10-02 | 映像再生装置及び映像再生方法 |
US12/896,762 US8885020B2 (en) | 2009-10-02 | 2010-10-01 | Video reproduction apparatus and video reproduction method |
US14/167,565 US9081420B2 (en) | 2009-10-02 | 2014-01-29 | Video reproduction apparatus and video reproduction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009230905A JP2011081453A (ja) | 2009-10-02 | 2009-10-02 | 映像再生装置及び映像再生方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011129856A Division JP4991953B2 (ja) | 2011-06-10 | 2011-06-10 | 映像再生装置及び映像再生方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011081453A true JP2011081453A (ja) | 2011-04-21 |
Family
ID=43822891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009230905A Pending JP2011081453A (ja) | 2009-10-02 | 2009-10-02 | 映像再生装置及び映像再生方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US8885020B2 (ja) |
JP (1) | JP2011081453A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012249202A (ja) * | 2011-05-30 | 2012-12-13 | Toshiba Corp | 電子機器、表示制御方法及び表示制御プログラム |
JP2012256104A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2013021389A (ja) * | 2011-07-07 | 2013-01-31 | Nikon Corp | 画像表示装置 |
CN104781762A (zh) * | 2012-11-06 | 2015-07-15 | 索尼电脑娱乐公司 | 信息处理装置 |
JP5936155B2 (ja) * | 2012-07-27 | 2016-06-15 | Necソリューションイノベータ株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120025187A (ko) * | 2010-09-07 | 2012-03-15 | 삼성전자주식회사 | 액정 표시 패널의 구동 방법 및 이를 수행하는 액정 표시 장치 |
KR20120037858A (ko) * | 2010-10-12 | 2012-04-20 | 삼성전자주식회사 | 입체영상표시장치 및 그 ui 제공 방법 |
US20120120051A1 (en) * | 2010-11-16 | 2012-05-17 | Shu-Ming Liu | Method and system for displaying stereoscopic images |
EP2455841A3 (en) * | 2010-11-22 | 2015-07-15 | Samsung Electronics Co., Ltd. | Apparatus and method for selecting item using movement of object |
KR101322465B1 (ko) | 2011-11-17 | 2013-10-28 | 삼성전자주식회사 | 셀프 카메라 촬영을 위한 방법 및 장치 |
CN103207664B (zh) * | 2012-01-16 | 2016-04-27 | 联想(北京)有限公司 | 一种图像处理方法和设备 |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US10042510B2 (en) | 2013-01-15 | 2018-08-07 | Leap Motion, Inc. | Dynamic user interactions for display control and measuring degree of completeness of user gestures |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9448634B1 (en) * | 2013-03-12 | 2016-09-20 | Kabam, Inc. | System and method for providing rewards to a user in a virtual space based on user performance of gestures |
WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
EP2916209B1 (en) * | 2014-03-03 | 2019-11-20 | Nokia Technologies Oy | Input axis between an apparatus and a separate apparatus |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
CN104602129B (zh) * | 2015-01-27 | 2018-03-06 | 三星电子(中国)研发中心 | 互动式多视角视频的播放方法及*** |
US20180356945A1 (en) * | 2015-11-24 | 2018-12-13 | California Labs, Inc. | Counter-top device and services for displaying, navigating, and sharing collections of media |
US10453271B2 (en) | 2016-12-07 | 2019-10-22 | Microsoft Technology Licensing, Llc | Automated thumbnail object generation based on thumbnail anchor points |
WO2019003953A1 (ja) * | 2017-06-29 | 2019-01-03 | ソニー株式会社 | 画像処理装置および画像処理方法 |
CN107479714A (zh) * | 2017-08-28 | 2017-12-15 | 歌尔科技有限公司 | 内容切换显示方法、装置及机器人 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293485A (ja) * | 2005-04-06 | 2006-10-26 | Canon Inc | 指標表示方法及び画像表示装置 |
JP2007004714A (ja) * | 2005-06-27 | 2007-01-11 | Canon Inc | 情報処理方法、情報処理装置 |
JP2008226279A (ja) * | 2008-06-23 | 2008-09-25 | Matsushita Electric Works Ltd | 仮想空間内位置指示装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
JPH11338120A (ja) | 1998-05-27 | 1999-12-10 | Dainippon Screen Mfg Co Ltd | レイアウト装置 |
US8083588B2 (en) * | 2003-09-04 | 2011-12-27 | Pryor Timothy R | Reconfigurable surface based video games |
JP4931038B2 (ja) | 2005-11-22 | 2012-05-16 | シャープ株式会社 | 立体視画像装置、ゲーム装置、立体視画像映写装置、立体視画像データ生成方法、制御プログラムおよび可読記録媒体 |
JP2008146243A (ja) | 2006-12-07 | 2008-06-26 | Toshiba Corp | 情報処理装置、情報処理方法、及びプログラム |
US8330801B2 (en) * | 2006-12-22 | 2012-12-11 | Qualcomm Incorporated | Complexity-adaptive 2D-to-3D video sequence conversion |
US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
-
2009
- 2009-10-02 JP JP2009230905A patent/JP2011081453A/ja active Pending
-
2010
- 2010-10-01 US US12/896,762 patent/US8885020B2/en not_active Expired - Fee Related
-
2014
- 2014-01-29 US US14/167,565 patent/US9081420B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293485A (ja) * | 2005-04-06 | 2006-10-26 | Canon Inc | 指標表示方法及び画像表示装置 |
JP2007004714A (ja) * | 2005-06-27 | 2007-01-11 | Canon Inc | 情報処理方法、情報処理装置 |
JP2008226279A (ja) * | 2008-06-23 | 2008-09-25 | Matsushita Electric Works Ltd | 仮想空間内位置指示装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012249202A (ja) * | 2011-05-30 | 2012-12-13 | Toshiba Corp | 電子機器、表示制御方法及び表示制御プログラム |
US8687950B2 (en) | 2011-05-30 | 2014-04-01 | Kabushiki Kaisha Toshiba | Electronic apparatus and display control method |
JP2012256104A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2013021389A (ja) * | 2011-07-07 | 2013-01-31 | Nikon Corp | 画像表示装置 |
JP5936155B2 (ja) * | 2012-07-27 | 2016-06-15 | Necソリューションイノベータ株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
US9495068B2 (en) | 2012-07-27 | 2016-11-15 | Nec Solution Innovators, Ltd. | Three-dimensional user interface apparatus and three-dimensional operation method |
CN104781762A (zh) * | 2012-11-06 | 2015-07-15 | 索尼电脑娱乐公司 | 信息处理装置 |
JP5928757B2 (ja) * | 2012-11-06 | 2016-06-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JPWO2014073384A1 (ja) * | 2012-11-06 | 2016-09-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US9672413B2 (en) | 2012-11-06 | 2017-06-06 | Sony Corporation | Setting operation area for input according to face position |
Also Published As
Publication number | Publication date |
---|---|
US8885020B2 (en) | 2014-11-11 |
US20110080470A1 (en) | 2011-04-07 |
US9081420B2 (en) | 2015-07-14 |
US20140145942A1 (en) | 2014-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011081453A (ja) | 映像再生装置及び映像再生方法 | |
US10009603B2 (en) | Method and system for adaptive viewport for a mobile device based on viewing angle | |
TWI530157B (zh) | 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體 | |
US20150350626A1 (en) | Method for providing three-dimensional (3d) image, method for converting 3d message, graphical user interface (gui) providing method related to 3d image, and 3d display apparatus and system for providing 3d image | |
US20130257928A1 (en) | Image display apparatus and method for operating the same | |
KR101659576B1 (ko) | 영상 처리 방법 및 장치 | |
JP2015181280A (ja) | 3D映像提供方法及びこれを適用した3Dディスプレイ装置{Methodforproviding3Dimageand3Ddisplayapparatus} | |
JP2011114868A (ja) | Gui提供方法及びこれを用いたディスプレイ装置と3d映像提供システム | |
JP5129376B1 (ja) | 映像処理装置および映像処理方法 | |
KR20130007824A (ko) | 영상표시장치 및 그 동작방법 | |
US9024875B2 (en) | Image display apparatus and method for operating the same | |
US20140132726A1 (en) | Image display apparatus and method for operating the same | |
JP4991953B2 (ja) | 映像再生装置及び映像再生方法 | |
WO2013108285A1 (ja) | 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法 | |
JP5156116B1 (ja) | 映像処理装置および映像処理方法 | |
US20110134226A1 (en) | 3d image display apparatus and method for determining 3d image thereof | |
JP5095851B1 (ja) | 映像処理装置および映像処理方法 | |
JP5156117B1 (ja) | 映像処理装置および映像処理方法 | |
US20130070063A1 (en) | Image display apparatus and method for operating the same | |
JP5161999B2 (ja) | 電子機器、表示制御方法及び表示制御プログラム | |
JP5568116B2 (ja) | 映像処理装置および映像処理方法 | |
JP5603911B2 (ja) | 映像処理装置、映像処理方法および遠隔制御装置 | |
KR101836846B1 (ko) | 영상표시장치, 및 그 동작방법 | |
JP2013055694A (ja) | 映像処理装置および映像処理方法 | |
KR101945811B1 (ko) | 영상표시장치 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110316 |