JP2011022984A - 立体映像インタラクティブシステム - Google Patents
立体映像インタラクティブシステム Download PDFInfo
- Publication number
- JP2011022984A JP2011022984A JP2009218638A JP2009218638A JP2011022984A JP 2011022984 A JP2011022984 A JP 2011022984A JP 2009218638 A JP2009218638 A JP 2009218638A JP 2009218638 A JP2009218638 A JP 2009218638A JP 2011022984 A JP2011022984 A JP 2011022984A
- Authority
- JP
- Japan
- Prior art keywords
- stereoscopic video
- stereoscopic
- interactive system
- video
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
【課題】立体映像インタラクティブシステムの提供。
【解決手段】立体映像インタラクティブシステムは、立体映像キャプチャモジュール、立体映像処理ユニット、ホストマシンと立体映像表示モジュールで構成される。立体映像表示モジュールが立体映像を表示する時、立体映像キャプチャモジュールが操作体の動作映像を取得した後、該立体映像処理ユニットが動作特徴を取得し、中央処理装置に伝送し、該中央処理装置は該動作特徴においてのリアルタイム動作を計算し、立体映像表示モジュールが表示する立体映像が動作特徴により対応する変化を発生し、これにより、実体空間中での仮想の立体映像を表示し、且つ操作体が直接立体映像上でリアルタイムのインタラクティビティを実行できる。このほか、表示する立体映像が立体映像キャプチャモジュールが撮影した第1立体映像由来か、或いはホストマシン内部の保存ユニットに予め保存された第2立体映像由来とされる。
【選択図】図1
【解決手段】立体映像インタラクティブシステムは、立体映像キャプチャモジュール、立体映像処理ユニット、ホストマシンと立体映像表示モジュールで構成される。立体映像表示モジュールが立体映像を表示する時、立体映像キャプチャモジュールが操作体の動作映像を取得した後、該立体映像処理ユニットが動作特徴を取得し、中央処理装置に伝送し、該中央処理装置は該動作特徴においてのリアルタイム動作を計算し、立体映像表示モジュールが表示する立体映像が動作特徴により対応する変化を発生し、これにより、実体空間中での仮想の立体映像を表示し、且つ操作体が直接立体映像上でリアルタイムのインタラクティビティを実行できる。このほか、表示する立体映像が立体映像キャプチャモジュールが撮影した第1立体映像由来か、或いはホストマシン内部の保存ユニットに予め保存された第2立体映像由来とされる。
【選択図】図1
Description
本発明は一種の立体映像インタラクティブシステム、特に使用者が立体映像をリアルタイム操作できる立体映像インタラクティブシステムに関する。
現在よく知られている技術には、偏波分割法(polarization division method)、時分割法(time division method)、波長分割法(wavelength division method)及び空間分割法(spatial division method)等がある(これらの立体映像表示方法はすでに公開されている技術であり、また、本発明の訴求ではないため、詳しくは説明しない)。以上の四種類の方法はまた、アイグラスタイプ3Dシステムと称され、その表示する立体映像は、それに対応した立体眼鏡を装着して観る必要があり、一般人には普通に受け入れられ難い。これにより、眼鏡装着不要、自由な鑑賞空間の特徴が、現在の立体映像表示の発展方向である。現行の裸眼で観ることのできる立体映像表示方法は、レンチキュラーシート(lenticular sheet)、視差バリア法(parallax barrier method)、ダブル視差バリア法、或いはスリットソース法(slit source method)の方式により実現される。
現行のリアルタイム立体映像表示技術には、例えば特許文献1に記載されている連続立体映像の生成方法があり、それは複数の撮影装置で物体の表面をキャプチャした後、液晶パネル等のディスプレイ上にリアルタイム表示し、並びに座標予測と座標計算等の方式を通し、立体映像表示を更にリアルなものとする。しかし、この特許は立体映像を表示できるものの、使用者は直接に立体映像上で編集動作、例えば拡大、縮小、回転等を実行することができず、ゆえに、使用者はキーボード、マウス等の装置を使用しなければ、立体映像の編集動作を行えない。
このほか、上述の現実空間において立体映像を表示するほか、平面映像中に立体物品を表示する技術の歴史も長い。例えば各種のゲーム或いはデジタルビデオ等は、平面中に立体の物品を表示する。立体物品が生き物でない場合、その動作の特徴は相当容易に設計できるが、立体物品が生き物である場合は、その動作特徴の設計は相当に複雑となる。人体を例に挙げると、肢体上の動作はプログラムの計算とシミュレートにより完成され得るが、表現される効果は滑らかさがなく、且つ不自然である。
このため、業者はモーションキャプチャ(motion capture;Mocap)の技術を発明した。常用されるモーションキャプチャ技術は原理上、機械式、音声学習式、電磁式と光学式等がある。技術的角度からは、モーションキャプチャは実質的に、物品の三次元空間の運動軌跡の測定、追跡、記録である。ここでは現在最も広く応用されている光学式モーションキャプチャについてのみ概略を説明する。
光学式モーションキャプチャは、目標上の特定光点の監視と追跡によりモーションキャプチャの任務を完成する。現在よく見られる光学式モーションキャプチャのほとんどは、計算機視覚原理に基づいている。理論上では、空間中の一つの点に対しては、同時に2部のカメラで見ればよく、すなわち、同一時間で、2部のカメラで撮影した画像とカメラパラメータに基づき、この時間の該点の空間中での位置を確定できる。カメラで高速で連続撮影する時、画像序列中より該点の運動軌跡を得られる。
光学式モーションキャプチャの長所はパフォーマーの活動範囲が大きく、ケーブルや機械装置の制限がなく、パフォーマーが自由にパフォーマンスでき、使用に非常に便利なことである。更に、光学式モーションキャプチャのサンプリング速度は比較的高く、多数の高速運動測量の需要を満足させられる。
このような特許には、特許文献2があり、それはビデオゲームキャラクターを制御するためのリアルタイム動態モーションキャプチャ方法を提供している。それによると、制御物品のモデルを定義することから開始し、その後、該モデル上のマークの位置を確認する。続いて、該制御物品関係の動作をキャプチャする。その後、該制御物品関係の動作を解釈して該モデルの状態を変更し、続いて、該モデルの状態の変更に基づきスクリーン上に表示されるキャラクター動作を変更する。しかしこの特許は、依然として、使用者の動作をリアルタイムでキャプチャして、スクリーンに表示される映像を制御することができるものの、それは平面の映像に限られ、立体の映像を表示できないばかりか、インタラクティブでない。
特許文献3は深度感知のセンサを採用してハンドジェスチャー認識するシステムを開示しており、それは、複数のセンサを利用してハンドジェスチャー認識し、ディスプレイに表示する画像に、ハンドジェスチャーに対応する動作を発生させる。この特許は、使用者の動作を検出できるが、それは僅かに手部の動作に限定され、人体の全ての肢体動作に対して検出を行うことはできない。
特許文献4は、ハンドジェスチャー認識方法を提供し、それは、予め、手、手指等の関係する映像ファイルを構築し、並びに人体関節位置により関節点のデータベースを生成し、すなわち、ハンドジェスチャーが発生する時、正確にハンドジェスチャーを認識する。この特許は使用者の動作を検出できるが、それは僅かに手部の動作に限定され、人体の全ての肢体動作に対して検出を行うことはできない。
特許文献5は、個人のコンピュータ正面における運動モードを分析するためのシステムと検出方法を提供し、それは、複数のビデオカメラにより使用者の動作データを取得し、並びに使用者の動作状態を取得し、リアルタイムでディスプレイ上に表示する。この特許は直接に使用者とのインタラクティビティを形成できず、使用者の動作をリアルタイムにキャプチャできるだけであり、アプリケーションプログラム、例えばゲーム等とインタラクティブでない。
特許文献6は、検出エリアの複数のセンサを調整して、一つの矩形の検出立体エリアを提供し、使用者のハンドジェスチャーはいずれもこの立体エリア内で完成される。立体エリアの全ての座標は予め規定され、このため、容易にハンドジェスチャーを識別できる。
特許文献7は、ハンドジェスチャー認識以外に、シミュレート制御の方式により、ハンドジェスチャー認識の前に、更に正確にハンドジェスチャー映像を構築し、同時に予めハンドジェスチャーをシミュレートし、正確なハンドジェスチャー認識を達成する。しかし上述の二つの特許の主要な目的は、ただハンドジェスチャー認識を更に正確にすることに過ぎず、単純なハンドジェスチャー認識技術下での改良特許であり、ゆえにインタラクティブ機能と応用を有さない。
特許文献8は、室内のプラニングと設計システムを提供し、それは仮想の空間を包含する。該仮想の空間は仮想の物理空間、仮想物品データベース、該仮想物品は仮想の設備、機器と該空間に置かれた物品、及びユーザーインタフェースを包含し、該ユーザーインタフェースは、第1ユーザーインタフェース手段と第2ユーザーインタフェース手段を包含し、該第1ユーザーインタフェース手段の機能は仮想物品データベースより仮想物品を選択し、物品を該仮想空間中に置くことで、第2ユーザーインタフェース手段はこの仮想物品を該仮想空間中の位置及び方向を処理する。この特許は使用者が仮想空間中で仮想物品をレイアウトできるようにするが、全体の動作は外部の入力装置、例えばタッチパネル、キーボード、マウス等を通して行われなければならず、且つその表現の方式は、フラットディスプレイを必要とする。これにより、全てのインタラクティブ過程はいずれもディスプレイ内で表示される映像中にあり、立体映像と使用者の直接インタラクティビティは達成できない。
特許文献9は、モーションキャプチャの技術をテレビゲームに結合し、並びに複数の立体映像ビデオカメラにより使用者の動作を取得し、使用者をディスプレイに表示される平面映像とインタラクティブとしている。この特許に関係する特許としては、例えば特許文献10がある。これにより、特許文献9は平面映像のインタラクティビティに限定され、表示される映像が立体映像であると、立体映像とのインタラクティビティを達成できない。
平面表示の立体物品において、モーションキャプチャの方式により、物品のリアルタイム操作を実行できる。しかし、前述したことから分かるように、立体映像の表示は将来の重要な表示技術であり、且つ立体映像は立体映像表示装置により投影された後、現実の空間中に表示される。言い換えると、使用者の観点からは、立体映像の位置は、立体映像表示装置と肉眼の間の仮想の空間にあり、使用者が立体映像を操作する時、例えば、回転、引き伸ばし、分解、組合せ、変形或いは移動等をするとき、無意識で肢体を用いて仮想の立体映像に接触しており、これは一種の直覚的反応である。
しかし、現行の操作技術は尚も実体接触の入力装置、例えばキーボード、マウス、トラックボール、タッチパネル等によって仮想の立体映像を操作する必要がある。ゆえに、前述の立体映像表示技術は実体接触の入力装置により操作を行わねばならない。
このほか、前述の特許はリアルタイムモーションキャプチャの技術を有するとはいえ、平面表示での立体物品に限定され、並びに実体空間中に表示される立体映像に対して操作を行うことはできない。このため、いかに立体映像に肢体動作を組合せ、対応する変化を発生させるかが、本発明の構想を発生させた。
このほか、前述の特許はリアルタイムモーションキャプチャの技術を有するとはいえ、平面表示での立体物品に限定され、並びに実体空間中に表示される立体映像に対して操作を行うことはできない。このため、いかに立体映像に肢体動作を組合せ、対応する変化を発生させるかが、本発明の構想を発生させた。
上述の要求を鑑み、本発明者は研究に励み、並びにこの事業における長年の経験から、終に斬新な立体映像インタラクティブシステムを設計した。
本発明の目的の一つは、物品映像を取得し並びに立体映像表示ができる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体映像をリアルタイム操作できる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体映像に直接接触し並びにインタラクティブ機能を実行できる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体状況を発生可能な立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体空間容積率計算を実行できる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、複数の操作体でリアルタイム操作が行える立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体映像をリアルタイム操作できる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体映像に直接接触し並びにインタラクティブ機能を実行できる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体状況を発生可能な立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、立体空間容積率計算を実行できる立体映像インタラクティブシステムを提供することである。
本発明の目的の一つは、複数の操作体でリアルタイム操作が行える立体映像インタラクティブシステムを提供することである。
上述の目的を達成するため、本発明の立体映像インタラクティブシステムは、
立体映像キャプチャモジュールであって、所定物品の複数の物品映像を取得するのに用いられ、及び、操作体の動作映像を取得するのに用いられる一つ或いは複数の立体映像キャプチャユニットを有する、上記立体映像キャプチャモジュールと、
立体映像処理ユニットであって、これら立体映像キャプチャユニットに電気的に接続され、これら物品映像を整合して第1立体映像となし、該動作映像中より動作特徴を取得する、上記立体映像処理ユニットと、
ホストマシンであって、該立体映像処理ユニットに電気的に接続された中央処理装置、及び該中央処理装置に電気的に接続された保存ユニットを包含し、
該保存ユニット内に第2立体映像が予め保存され、並びに該保存ユニットは該第1立体映像の保存に用いられ、
該中央処理装置は該立体映像処理ユニットに電気的に接続され、これらの立体映像が該動作特徴においてのリアルタイム動作を計算する、上記ホストマシンと、
立体映像表示モジュールであって、該中央処理装置に電気的に接続されて、これら立体映像のリアルタイム動作を表示する、上記立体映像表示モジュールと、
を包含する。
立体映像キャプチャモジュールであって、所定物品の複数の物品映像を取得するのに用いられ、及び、操作体の動作映像を取得するのに用いられる一つ或いは複数の立体映像キャプチャユニットを有する、上記立体映像キャプチャモジュールと、
立体映像処理ユニットであって、これら立体映像キャプチャユニットに電気的に接続され、これら物品映像を整合して第1立体映像となし、該動作映像中より動作特徴を取得する、上記立体映像処理ユニットと、
ホストマシンであって、該立体映像処理ユニットに電気的に接続された中央処理装置、及び該中央処理装置に電気的に接続された保存ユニットを包含し、
該保存ユニット内に第2立体映像が予め保存され、並びに該保存ユニットは該第1立体映像の保存に用いられ、
該中央処理装置は該立体映像処理ユニットに電気的に接続され、これらの立体映像が該動作特徴においてのリアルタイム動作を計算する、上記ホストマシンと、
立体映像表示モジュールであって、該中央処理装置に電気的に接続されて、これら立体映像のリアルタイム動作を表示する、上記立体映像表示モジュールと、
を包含する。
立体映像を表示する時、該立体映像キャプチャモジュールが該操作体の動作映像を取得した後、該立体映像処理ユニットが該動作映像中より該動作特徴を取得し、並びに該中央処理装置に伝送し、該中央処理装置が該立体映像の該動作特徴に対するリアルタイム動作を計算し、この時、立体映像表示モジュールが表示する該立体映像が該動作特徴により対応する変化を発生し、これにより、実体空間中での仮想の立体映像の表示を達成し、且つ該操作体が直接立体映像上でリアルタイムのインタラクティブ機能を実行する。
注意すべきことは、該立体映像キャプチャモジュールは同時に複数の該操作体の複数の該動作映像を取得できることであり、すなわち、該立体映像処理ユニットはこれら動作映像により複数の該動作特徴を発生し、これにより、該中央処理装置はこれら立体映像のこれら動作特徴に対するリアルタイム動作を計算する。
本明細書中、該操作体の定義は、一般に知られているスタイラスペン、手指のほか、人体の五官四肢、ゲームツール等を包含し、該立体映像キャプチャモジュールにより動作映像、動作特徴を取得されるものは、いずれも該操作体の範疇に属する。このほか、該物品の定義は、どのような形態にも限定されず、該立体映像キャプチャモジュールにより映像キャプチャされて立体映像に合成され得る物品、例えば、人体、ゲームツール、生活周辺の器具等は、いずれも本明細書で述べる物品の範疇に属する。
本発明の立体映像インタラクティブシステムは、立体映像キャプチャモジュール、立体映像処理ユニット、ホストマシンと立体映像表示モジュールで構成される。立体映像表示モジュールが立体映像を表示する時、立体映像キャプチャモジュールが操作体の動作映像を取得した後、該立体映像処理ユニットが動作映像中より動作特徴を取得し、並びに中央処理装置に伝送し、中央処理装置が立体映像の動作特徴に対するリアルタイム動作を計算し、このとき、立体映像表示モジュールが表示する立体映像が動作特徴により対応する変化を発生し、これにより、実体空間中での仮想の立体映像の表示を達成し、且つ操作体が直接立体映像上でリアルタイムのインタラクティビティを実行できる。このほか、表示する立体映像が立体映像キャプチャモジュールが撮影した第1立体映像由来か、或いはホストマシン内部の保存ユニットに予め保存された第2立体映像由来とされる。
図1は本発明の好ましい実施例のブロック図である。図示されるように、本発明の立体映像インタラクティブシステムは、立体映像キャプチャモジュール1、立体映像処理ユニット2、ホストマシン3、及び立体映像表示モジュール4で構成される。
そのうち、立体映像キャプチャモジュール1は、一つ或いは複数の立体映像キャプチャユニット11を有し、該立体映像キャプチャユニット11は、所定物品の複数の物品映像を取得するのに用いられ、及び、操作体の動作映像を取得するのに用いられる。これら立体映像キャプチャユニット11は、電荷結合素子(CCD)或いは相補型金属酸化膜半導体(CMOS)で構成された感光素子のいずれかとされる。該立体映像キャプチャユニット11が電荷結合素子とされる時、ライナーCCD、インターライントランスファーCCD、フルフレームCCD、フレームトランスファーCCDで構成された電荷結合素子群より選択される。
該立体映像処理ユニット2はこれら立体映像キャプチャユニット11に電気的に接続され、これら物品映像を整合して第1立体映像となすと共に、該動作映像中より動作特徴を取得する。
該ホストマシン3は該立体映像処理ユニット2に電気的に接続された中央処理装置31、及び該中央処理装置31に電気的に接続された保存ユニット32を包含する。
該保存ユニット32内には第2立体映像が予め保存され、並びに該保存ユニット32は該第1立体映像を保存するのに用いられ、また該保存ユニット32内部には一つ或いは複数のアプリケーションプログラム33が保存され、該アプリケーションプログラム33はCADソフトウエア、映像編集ソフトウエア等とされ得る。該保存ユニット32はハードディスク、光ディスク、メモリカード或いはメモリ等とされ得る。
該中央処理装置は該立体映像処理ユニットに電気的に接続され、これらの立体映像が該動作特徴においてのリアルタイム動作を計算する、例えば、該立体映像が三角錐体を表示し、且つ尖端部分が使用者の肉眼が直視する方向に向いていると、このとき、該動作特徴は上から下であると、該三角錐体はそれに伴い回転し、底部の平坦面が使用者の肉眼直視の方向に対向する。この部分の記述は該立体映像と動作特徴間のインタラクティブ関係を説明するために例示したものに過ぎず、その他の任意の角度の回転、拡大動作、水平或いは垂直の移動等、或いは該動作特徴が該立体映像に発生させる変形、例えば引き伸ばし、陥没、湾曲等もまた、本発明の保護の範疇に属する。且つ該立体映像処理ユニット2が該立体映像のリアルタイム動作計算を実行する時、座標計算の方式により実行可能で、所謂座標計算は、一般的な座標システム、例えば相対座標、極座標、球座標或いは空間座標に用いられる計算方式のいずれかとされる。
また、該操作体が複数とされる時、該立体映像キャプチャモジュール1はこれら操作体の複数の動作映像を同時に取得し並びに該立体映像処理ユニット2に伝送し、すなわち、該立体映像処理ユニット2がこれら動作映像により複数の該動作特徴を生成し、該中央処理装置31に、これら動作特徴により該立体映像のリアルタイム動作を計算させる。
さらに、該ホストマシン3はパーソナルコンピュータ、ノートブック型コンピュータ或いはゲーム機等と見なし得て、並びにその使用の形式は限定されない。及び、該立体映像処理ユニット2は実際の使用時には、該中央処理装置31と電気的に接続された集積回路形式、或いは該中央処理装置31内に記録されたファームウエア形式、或いは該中央処理装置31により読み取られ演算されるソフトウエア形式とされるか、或いはアクティブ素子とパッシブ素子で構成された電子回路形式とされる。
該立体映像表示モジュール4には表示ユニット41と該表示ユニット41に電気的に接続された立体成像ユニット42が設けられている。該中央処理装置31は該表示ユニット41に電気的に接続される。
該表示ユニット41は、これら立体映像のリアルタイム動作を表示するのに用いられ、陰極線管(CRT)ディスプレイ、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、真空蛍光ディスプレイ(VFD)、プラズマディスプレイパネル(PDP)、表面伝導型電子放出(SED)ディスプレイ或いは電界放出ディスプレイ(FED)或いは電子ペーパー(E−Paper)等とされ、いずれも該表示ユニット41が規定する範疇に属し、並びに該表示ユニット41の形態を限定しない。該表示ユニット41が液晶ディスプレイ(LCD)とされる時、それはねじれネマティック型(TN)液晶ディスプレイ、垂直配向(VA)液晶ディスプレイ、マルチドメイン垂直配向(MVA)液晶ディスプレイ、パターン化垂直配向(Patterned Vertical
Alignment;PVA)液晶ディスプレイ、IPS(In−Plane Switching)液晶ディスプレイ、CPA(Continuous Pinwheel Alignment)液晶ディスプレイ、OCB(Optical Compenesated Bend)液晶ディスプレイからなる群のいずれかを包含する。該表示ユニット41が有機発光ダイオード(OLED)ディスプレイとされる時、それは、能動マトリクス型有機発光ダイオード(AMOLED)ディスプレイ、受動マトリクス型有機発光ダイオード(PMOLED)ディスプレイからなる群のいずれかとされる。
Alignment;PVA)液晶ディスプレイ、IPS(In−Plane Switching)液晶ディスプレイ、CPA(Continuous Pinwheel Alignment)液晶ディスプレイ、OCB(Optical Compenesated Bend)液晶ディスプレイからなる群のいずれかを包含する。該表示ユニット41が有機発光ダイオード(OLED)ディスプレイとされる時、それは、能動マトリクス型有機発光ダイオード(AMOLED)ディスプレイ、受動マトリクス型有機発光ダイオード(PMOLED)ディスプレイからなる群のいずれかとされる。
表示ユニット41が立体映像を発生した後、該立体成像ユニット42がそれを受け取り、該立体映像を多重映像に変換し、それは該立体映像を人の肉眼で映像を見るときの特性により、左眼と右眼がそれぞれ受け取る映像に区分し、肉眼視差で受け取った後に該立体映像となるようにし、また、該立体成像ユニット42は光回折素子(light grating)構造或いはレンチキュラーシート(lenticular sheet)等とされ得て、該表示ユニット41の発生する該立体映像は該多重映像に分けられる。
図1、2を参照されたい。これらは本発明の好ましい実施例のブロック図とフローチャート一である。該立体映像インタラクティブシステムは、以下のステップにより第1立体映像を取得する:
(100)該立体映像キャプチャモジュールが物品外観を走査して複数の物品映像を取得する、
このステップを実行する時、該立体映像キャプチャモジュール1は物品の外部映像を撮影し、撮影時、物品を水平回転、垂直回転或いは多角度回転等させて、該立体映像キャプチャモジュール1に物品の異なる角度の映像を取得させて、複数の物品映像を発生させられる。
(101)該立体映像処理ユニットがこれら物品映像の完成度を検査する、
(102)これら物品映像が該立体映像処理ユニットで合成されて該第1立体映像に合成される、
上述のステップを実行する時、該立体映像処理ユニット2がこれら物品映像を検査し、並びに被写界深度、映像接合等の技術を通して、複数の物品映像を合成して該第1立体映像となす。
さらに、後で使用するのに便利であるように、該立体映像処理ユニット2は同時に該第1立体映像の体積を計算し、すなわち、該立体映像キャプチャモジュールがこれら物品映像を取得した後、該物品の実際の比を該第1立体映像の比に対応させて、該第1立体映像の体積を計算する。
(103)該第1立体映像が該中央処理装置を通して該立体映像表示モジュールに伝送される、
(104)該立体映像表示モジュールが該第1立体映像を表示し並びに立体映像インタラクティブの操作を実行できる。
上述のステップを実行する時、該中央処理装置31は該第1立体映像を受け取った後、該第1立体映像を該表示ユニット41に伝送し、該立体成像ユニット42は該第1立体映像を多重映像に変換し、人の肉眼で映像を見た時の特性により、左眼と右眼がそれぞれ受け取る映像に区分し、肉眼視差で受け取った後に該第1立体映像となるようにする。
このとき、該第1立体映像は使用者が拡大、縮小等の操作を行えるほか、該第1立体映像及び体積等のデータを該保存ユニット32内に保存し、後日に再生することができる。
(100)該立体映像キャプチャモジュールが物品外観を走査して複数の物品映像を取得する、
このステップを実行する時、該立体映像キャプチャモジュール1は物品の外部映像を撮影し、撮影時、物品を水平回転、垂直回転或いは多角度回転等させて、該立体映像キャプチャモジュール1に物品の異なる角度の映像を取得させて、複数の物品映像を発生させられる。
(101)該立体映像処理ユニットがこれら物品映像の完成度を検査する、
(102)これら物品映像が該立体映像処理ユニットで合成されて該第1立体映像に合成される、
上述のステップを実行する時、該立体映像処理ユニット2がこれら物品映像を検査し、並びに被写界深度、映像接合等の技術を通して、複数の物品映像を合成して該第1立体映像となす。
さらに、後で使用するのに便利であるように、該立体映像処理ユニット2は同時に該第1立体映像の体積を計算し、すなわち、該立体映像キャプチャモジュールがこれら物品映像を取得した後、該物品の実際の比を該第1立体映像の比に対応させて、該第1立体映像の体積を計算する。
(103)該第1立体映像が該中央処理装置を通して該立体映像表示モジュールに伝送される、
(104)該立体映像表示モジュールが該第1立体映像を表示し並びに立体映像インタラクティブの操作を実行できる。
上述のステップを実行する時、該中央処理装置31は該第1立体映像を受け取った後、該第1立体映像を該表示ユニット41に伝送し、該立体成像ユニット42は該第1立体映像を多重映像に変換し、人の肉眼で映像を見た時の特性により、左眼と右眼がそれぞれ受け取る映像に区分し、肉眼視差で受け取った後に該第1立体映像となるようにする。
このとき、該第1立体映像は使用者が拡大、縮小等の操作を行えるほか、該第1立体映像及び体積等のデータを該保存ユニット32内に保存し、後日に再生することができる。
図1、3を参照されたい。これらは本発明の好ましい実施例のブロック図とフローチャート二である。該立体映像インタラクティブシステムは以下のステップで該第2立体映像を取得する:
(200)該立体映像キャプチャモジュールが物品の外観を走査し複数の物品映像を取得する、
(201)該立体映像処理ユニットが該保存ユニットをサーチしてこれら物品映像と同じ該第2立体映像を探し出す、
(202)該第2立体映像が該中央処理装置を通して該立体映像表示モジュールに伝送される、
(203)該立体映像表示モジュールが該第2立体映像を表示し並びに立体映像インタラクティブの操作を実行できる。
上述のこれらのステップを実行する時、該立体映像キャプチャモジュール1が物品の映像の走査を完了した後、該立体映像処理ユニット2は直接該保存ユニット32中に、該物品の映像の特性、例えば輪郭、色等が合致するものがあるかを対比し、該物品映像がすでに該保存ユニット32内部に保存されており、並びに対比の結果、誤りがないことが確認されれば、該中央処理装置31は該第2立体映像(すなわち該物品の立体映像は既に該保存ユニット32内に保存されており、第2立体映像と称される)を該立体映像表示モジュール4に伝送し、該表示ユニット41と該立体成像ユニット42を通して肉眼で受け入れられる第2立体映像として表示する。
(200)該立体映像キャプチャモジュールが物品の外観を走査し複数の物品映像を取得する、
(201)該立体映像処理ユニットが該保存ユニットをサーチしてこれら物品映像と同じ該第2立体映像を探し出す、
(202)該第2立体映像が該中央処理装置を通して該立体映像表示モジュールに伝送される、
(203)該立体映像表示モジュールが該第2立体映像を表示し並びに立体映像インタラクティブの操作を実行できる。
上述のこれらのステップを実行する時、該立体映像キャプチャモジュール1が物品の映像の走査を完了した後、該立体映像処理ユニット2は直接該保存ユニット32中に、該物品の映像の特性、例えば輪郭、色等が合致するものがあるかを対比し、該物品映像がすでに該保存ユニット32内部に保存されており、並びに対比の結果、誤りがないことが確認されれば、該中央処理装置31は該第2立体映像(すなわち該物品の立体映像は既に該保存ユニット32内に保存されており、第2立体映像と称される)を該立体映像表示モジュール4に伝送し、該表示ユニット41と該立体成像ユニット42を通して肉眼で受け入れられる第2立体映像として表示する。
上述の図2、3のフローチャートは、立体映像取得と表示についての説明であり、立体映像(すなわち第1立体映像と第2立体映像)と操作体のインタラクティビティについては、図4のフローチャート中で説明する。
図1、4を参照されたい。これらは本発明の好ましい実施例のブロック図とフローチャート三である。該立体映像インタラクティブシステムは以下のステップで立体映像インタラクティブ動作を実行する:
(300)該立体映像表示モジュールが第3立体映像を表示する、
立体映像表示のステップは、既に前述の図2、3のステップの記述中で説明されたため、詳しくは説明しない。このほか、該第3立体映像は実際には前述の該第1立体映像或いは該第2立体映像を包含する。
(301)該操作体が該立体映像の前で動作を実行する、
上述のステップを実行する時、該操作体は一般に認知されているスタイラスペン、手指のほか、人体の五官四肢、ゲームツール等を包含する。
(302)該立体映像キャプチャモジュールが該操作体の動作映像を取得する、
(303)該立体映像処理ユニットが該動作映像により動作特徴を取得する、
上述のステップを実行する時、該立体映像キャプチャモジュール1は該操作体の動作時の動作映像を取得し、該操作体が動作する時には、必ず連続して動作を発生し、すなわち、該立体映像処理ユニット2が該動作映像により該操作体の動作特徴を計算する。例えば、該動作映像が該操作体の下から上への移動を表示すれば、該立体映像処理ユニットは該操作体の動作特徴を計算し、並びに該中央処理装置31に、現在該操作体の動作特徴が下から上への移動であることを告知する。その他の、例えば左右移動、回転等でも対応する動作特徴を発生可能である。
(304)該中央処理装置が該動作特徴により該第3立体映像に対応する変化を発生させる、
上述のステップを実行する時、該中央処理装置31が該動作特徴を受け取った後、動作特徴に所定の動作を組合せ、該第3立体映像に該動作特徴により対応する変化を発生させ、すなわち、該立体映像表示モジュール4が表示する該第3立体映像がこれに応じて動作する。例えば、動作特徴が上から下であれば、該第3立体映像は上下回転し、或いは動作特徴が二つの接触点の距離の漸増であれば、該第3立体映像はそれに伴い拡大される。
(300)該立体映像表示モジュールが第3立体映像を表示する、
立体映像表示のステップは、既に前述の図2、3のステップの記述中で説明されたため、詳しくは説明しない。このほか、該第3立体映像は実際には前述の該第1立体映像或いは該第2立体映像を包含する。
(301)該操作体が該立体映像の前で動作を実行する、
上述のステップを実行する時、該操作体は一般に認知されているスタイラスペン、手指のほか、人体の五官四肢、ゲームツール等を包含する。
(302)該立体映像キャプチャモジュールが該操作体の動作映像を取得する、
(303)該立体映像処理ユニットが該動作映像により動作特徴を取得する、
上述のステップを実行する時、該立体映像キャプチャモジュール1は該操作体の動作時の動作映像を取得し、該操作体が動作する時には、必ず連続して動作を発生し、すなわち、該立体映像処理ユニット2が該動作映像により該操作体の動作特徴を計算する。例えば、該動作映像が該操作体の下から上への移動を表示すれば、該立体映像処理ユニットは該操作体の動作特徴を計算し、並びに該中央処理装置31に、現在該操作体の動作特徴が下から上への移動であることを告知する。その他の、例えば左右移動、回転等でも対応する動作特徴を発生可能である。
(304)該中央処理装置が該動作特徴により該第3立体映像に対応する変化を発生させる、
上述のステップを実行する時、該中央処理装置31が該動作特徴を受け取った後、動作特徴に所定の動作を組合せ、該第3立体映像に該動作特徴により対応する変化を発生させ、すなわち、該立体映像表示モジュール4が表示する該第3立体映像がこれに応じて動作する。例えば、動作特徴が上から下であれば、該第3立体映像は上下回転し、或いは動作特徴が二つの接触点の距離の漸増であれば、該第3立体映像はそれに伴い拡大される。
注意すべきことは、本実施例では、該動作特徴が対応する動作、すなわち該中央処理装置31が該動作特徴により該第3立体映像に動作を発生させる時、その動作状態は該アプリケーションプログラム33の特性により、異なる動作状態を発生することである。言い換えると、同じ該動作特徴と該第3立体映像が、異なる該アプリケーションプログラム33に対応するとき、異なる動作変化を有し得るのである。
以下に異なる複数の例で説明する:
1.図8の本発明の好ましい実施例の表示図一を参照されたい。該アプリケーションプログラム33が立体映像ブラウザソフトの時、該立体映像表示モジュール4が該第3立体映像51を表示し、図中では一眼レフカメラの例を以て説明され、該操作体7は人体の手を以て説明される。
該操作体7が単一方向に移動する時、例えば上から下に移動する時、該アプリケーションプログラム33は上から下の動作特徴を受け取り、該第3立体映像51に回転を発生させる。
該操作体7が2点の乖離を形成する時、例えば人指し指と親指が互いに接触した状態から分離する動作を行う時、該アプリケーションプログラム33は2点乖離の動作特徴を受け取り、該第3立体映像51を拡大する。
該操作体7が単点接触とされ並びに移動する時、まず、該立体映像キャプチャモジュール1が該操作体と該第3立体映像51上の接触点及び移動の距離を計算した後、該アプリケーションプログラム33が該第3立体映像51に分離の動作を発生させる。図中では、該操作体7は該第3立体映像51のレンズに接触後に移動し、すなわち、該アプリケーションプログラム33は該第3立体映像51に分離の動作を発生させる。
2.図9の本発明の好ましい実施例の表示図二も合わせて参照されたい。該アプリケーションプログラム33が立体状況シミュレートソフトの時、第4立体映像52(なお、該第3立体映像51と該第4立体映像52は表示する立体映像の違いに過ぎず、説明しやすいように区分されているだけである)は現実生活中の状態をシミュレートし、図中では自動車内部のドライバーシートが例とされ、すなわち、使用者が手或いは手のひらでハンドルの立体映像に接触し、並びに表示の状態により操作を行うと、該立体映像キャプチャモジュール1が手部の動作、例えば左折、右折或いはギアシフト等を取得し、並びにこれらの動作の動作特徴を計算し、該中央処理装置31に伝送し、該第4立体映像52が使用者の動作により、対応する変化を発生し、例えば、使用者の手部が右向きにハンドルを回せば、表示するハンドルの立体映像が右向きに回転し、使用者と該第4立体映像52とのインタラクティビティを達成する。
3.図10、11は本発明の好ましい実施例の表示図三、四である。該アプリケーションプログラム33がCAD等の立体映像処理ソフトとされる時、どのような動作特徴であっても、それに対応する動作変化はほとんどがCADアプリケーションのレイヤーに属し、例えば操作体7の動作特徴が該第3立体映像51への接近である時、該第3立体映像51の接触面が徐々に陥没し、CAD設計中の薄壁、貫通、凹みなどのコマンド設計に符合する。
4.該アプリケーションプログラム33がデジタルゲームの時、該操作体7は人体の所有する四肢、ゲームに対応するツール等とされ得て、例えば該アプリケーションプログラム33はファイティング類のデジタルゲームとされ、且つ使用者が該第3立体映像(ファイター、怪獣等)に対してパンチ動作を行うと、該立体映像キャプチャモジュール1が使用者の動作映像を取得し、該立体映像処理ユニット2が動作特徴を計算し、操作体が円弧形の動作特徴を発生したと見なし、すなわち該第3立体映像が該動作特徴により、打撃された後の動作を発生する(例えば、後傾、後倒、肢体回転等)。
5.図11も同時に参照されたいが、複数の人による同時操作の目的を達成するため、該立体映像キャプチャモジュール1は複数の該操作体7を同時に走査或いは撮影でき、並びに各該操作体7の該動作映像を取得し、これら動作映像を該立体映像処理ユニット2に送り、該立体映像処理ユニット2はこれら動作映像により複数の該動作特徴を発生し、該中央処理装置31にこれら動作特徴により該第3立体映像51のリアルタイム動作を計算させる。これがゲーム或いはCAD等のアプリケーションプログラム33に応用される時、複数の人による同時操作の目的を達成できる。
1.図8の本発明の好ましい実施例の表示図一を参照されたい。該アプリケーションプログラム33が立体映像ブラウザソフトの時、該立体映像表示モジュール4が該第3立体映像51を表示し、図中では一眼レフカメラの例を以て説明され、該操作体7は人体の手を以て説明される。
該操作体7が単一方向に移動する時、例えば上から下に移動する時、該アプリケーションプログラム33は上から下の動作特徴を受け取り、該第3立体映像51に回転を発生させる。
該操作体7が2点の乖離を形成する時、例えば人指し指と親指が互いに接触した状態から分離する動作を行う時、該アプリケーションプログラム33は2点乖離の動作特徴を受け取り、該第3立体映像51を拡大する。
該操作体7が単点接触とされ並びに移動する時、まず、該立体映像キャプチャモジュール1が該操作体と該第3立体映像51上の接触点及び移動の距離を計算した後、該アプリケーションプログラム33が該第3立体映像51に分離の動作を発生させる。図中では、該操作体7は該第3立体映像51のレンズに接触後に移動し、すなわち、該アプリケーションプログラム33は該第3立体映像51に分離の動作を発生させる。
2.図9の本発明の好ましい実施例の表示図二も合わせて参照されたい。該アプリケーションプログラム33が立体状況シミュレートソフトの時、第4立体映像52(なお、該第3立体映像51と該第4立体映像52は表示する立体映像の違いに過ぎず、説明しやすいように区分されているだけである)は現実生活中の状態をシミュレートし、図中では自動車内部のドライバーシートが例とされ、すなわち、使用者が手或いは手のひらでハンドルの立体映像に接触し、並びに表示の状態により操作を行うと、該立体映像キャプチャモジュール1が手部の動作、例えば左折、右折或いはギアシフト等を取得し、並びにこれらの動作の動作特徴を計算し、該中央処理装置31に伝送し、該第4立体映像52が使用者の動作により、対応する変化を発生し、例えば、使用者の手部が右向きにハンドルを回せば、表示するハンドルの立体映像が右向きに回転し、使用者と該第4立体映像52とのインタラクティビティを達成する。
3.図10、11は本発明の好ましい実施例の表示図三、四である。該アプリケーションプログラム33がCAD等の立体映像処理ソフトとされる時、どのような動作特徴であっても、それに対応する動作変化はほとんどがCADアプリケーションのレイヤーに属し、例えば操作体7の動作特徴が該第3立体映像51への接近である時、該第3立体映像51の接触面が徐々に陥没し、CAD設計中の薄壁、貫通、凹みなどのコマンド設計に符合する。
4.該アプリケーションプログラム33がデジタルゲームの時、該操作体7は人体の所有する四肢、ゲームに対応するツール等とされ得て、例えば該アプリケーションプログラム33はファイティング類のデジタルゲームとされ、且つ使用者が該第3立体映像(ファイター、怪獣等)に対してパンチ動作を行うと、該立体映像キャプチャモジュール1が使用者の動作映像を取得し、該立体映像処理ユニット2が動作特徴を計算し、操作体が円弧形の動作特徴を発生したと見なし、すなわち該第3立体映像が該動作特徴により、打撃された後の動作を発生する(例えば、後傾、後倒、肢体回転等)。
5.図11も同時に参照されたいが、複数の人による同時操作の目的を達成するため、該立体映像キャプチャモジュール1は複数の該操作体7を同時に走査或いは撮影でき、並びに各該操作体7の該動作映像を取得し、これら動作映像を該立体映像処理ユニット2に送り、該立体映像処理ユニット2はこれら動作映像により複数の該動作特徴を発生し、該中央処理装置31にこれら動作特徴により該第3立体映像51のリアルタイム動作を計算させる。これがゲーム或いはCAD等のアプリケーションプログラム33に応用される時、複数の人による同時操作の目的を達成できる。
ここで説明を補充しなくてはならない。上述の該第3立体映像51、第4立体映像52は表示の時、該立体映像表示モジュール4により現実の空間中に表示され、これにより、使用者は眼前に一つの物品の立体映像を見ることができ、ただし、手指等の操作体7が接触する時、実体接触の感覚は有さず、アプリケーションプログラム33の設定が組み合わされることで、対応する形態変化を発生することができる。これにより、該アプリケーションプログラム33はいずれかの形態、例えばCADソフト、映像ブラウザソフト、空間設計ソフト、各形態のデジタルゲーム等に限定されることはなく、ただ立体映像とインタラクティブ動作を発生できれば、いずれも本発明の規定する範疇に属する。
図1、5は本発明の好ましい実施例のブロック図とフローチャート四である。該立体映像インタラクティブシステムは以下のステップにより立体状況インタラクティブ動作を実行する:
(400)該立体映像表示モジュールが第4立体映像を表示する、
立体映像表示のステップは、すでに前述の図2、3のステップで説明したので、詳しくは述べない。本実施例中、該第4立体映像は実際の使用の状態により、各形態の仮想空間として設置される。例えば、図9は本発明の好ましい実施例の表示図二であるが、該第4立体映像52は自動車内部のドライバーシートとして表示され、図13は本発明の好ましい実施例の表示図六であるが、該第4立体映像52は飛行機内部のコックピットとされるが、交通工具内部の状況シミュレーションに限定されるわけではない。
(401)該操作体が該立体映像前で動作を実行する、
上述のステップ中、使用者は直接該第4立体映像52前で操作を実行でき、例えば、図9は自動車内部のドライバーシートを表示し、すなわち使用者は肉眼で一つの仮想のドライバーシートを見て、並びに手で該第4立体映像52が表示するハンドルに接触する。
(402)該立体映像キャプチャモジュールが使用者の動作映像を取得する、
(403)該立体映像処理ユニットが該動作映像により動作特徴を取得する、
(404)該立体映像キャプチャモジュールが使用者の該第4立体映像上での動作位置を計算する、
上述のステップを実行する時、図9で説明すると、使用者が該第4立体映像52上で動作を実行する時、該立体映像キャプチャモジュール1は使用者の手部の動作映像を取得し、該立体映像処理ユニット2が手部の動作を計算し並びに対応する動作特徴を発生し、この動作特徴が該中央処理装置31に送られた後、該アプリケーションプログラム33の設定が組み合わされて、該第4立体映像52に対応する変化を発生させ、例えば、手でハンドルを握り並びに回転させれば、該第4立体映像52の表示するハンドルがこれに伴い回転し、或いは手でシフトレバーを握りギアシフトを実行すれば、該第4立体映像52が表示するシフトレバーがそれに伴い移動する。
(405)該中央処理装置が該動作特徴と該第4立体映像の対応する状況状態により対応する変化を発生する。
上述のステップを実行する時、該第4立体映像52と使用者の接触の部分が変化を発生し得るほか、全体の第4立体映像のシミュレートする状況がこれに伴い変化し得る。例えば、該第4立体映像52が走行中の車両であれば、使用者がハンドルを回す時、ハンドルの映像が回転し得るほか、該第4立体映像52が表示する景色もハンドルの回転に伴い変換され、仮想運転の特性を達成する。
(400)該立体映像表示モジュールが第4立体映像を表示する、
立体映像表示のステップは、すでに前述の図2、3のステップで説明したので、詳しくは述べない。本実施例中、該第4立体映像は実際の使用の状態により、各形態の仮想空間として設置される。例えば、図9は本発明の好ましい実施例の表示図二であるが、該第4立体映像52は自動車内部のドライバーシートとして表示され、図13は本発明の好ましい実施例の表示図六であるが、該第4立体映像52は飛行機内部のコックピットとされるが、交通工具内部の状況シミュレーションに限定されるわけではない。
(401)該操作体が該立体映像前で動作を実行する、
上述のステップ中、使用者は直接該第4立体映像52前で操作を実行でき、例えば、図9は自動車内部のドライバーシートを表示し、すなわち使用者は肉眼で一つの仮想のドライバーシートを見て、並びに手で該第4立体映像52が表示するハンドルに接触する。
(402)該立体映像キャプチャモジュールが使用者の動作映像を取得する、
(403)該立体映像処理ユニットが該動作映像により動作特徴を取得する、
(404)該立体映像キャプチャモジュールが使用者の該第4立体映像上での動作位置を計算する、
上述のステップを実行する時、図9で説明すると、使用者が該第4立体映像52上で動作を実行する時、該立体映像キャプチャモジュール1は使用者の手部の動作映像を取得し、該立体映像処理ユニット2が手部の動作を計算し並びに対応する動作特徴を発生し、この動作特徴が該中央処理装置31に送られた後、該アプリケーションプログラム33の設定が組み合わされて、該第4立体映像52に対応する変化を発生させ、例えば、手でハンドルを握り並びに回転させれば、該第4立体映像52の表示するハンドルがこれに伴い回転し、或いは手でシフトレバーを握りギアシフトを実行すれば、該第4立体映像52が表示するシフトレバーがそれに伴い移動する。
(405)該中央処理装置が該動作特徴と該第4立体映像の対応する状況状態により対応する変化を発生する。
上述のステップを実行する時、該第4立体映像52と使用者の接触の部分が変化を発生し得るほか、全体の第4立体映像のシミュレートする状況がこれに伴い変化し得る。例えば、該第4立体映像52が走行中の車両であれば、使用者がハンドルを回す時、ハンドルの映像が回転し得るほか、該第4立体映像52が表示する景色もハンドルの回転に伴い変換され、仮想運転の特性を達成する。
このほか、前述の該アプリケーションプログラム33はまた、インテリア設計ソフトとされ得る。図1、12は本発明の好ましい実施例のブロック図と表示図四であり、一般家電等日常生活用の器具は、立体映像キャプチャモジュール1による走査後、該保存ユニット32内に保存されるか、予め該保存ユニット32内に保存されている。
該アプリケーションプログラム33がインテリア設計ソフトとされる時、該立体映像表示モジュール4は立体空間6を表示し、使用者は自由に該立体映像5、すなわち、家電等生活器具の立体表示の映像を移動させられる。或いは、該立体空間6がスーツケース、包装用ボックス等の物体として表示される時、該アプリケーションプログラム33は内部空間の計算を実行し、空間の使用容積率を取得する。
図1、7、12は、本発明の好ましい実施例のブロック図、フローチャート六と表示図五であり、該立体映像インタラクティブシステムは以下のステップにより空間計算を実行する:
(600)該立体映像表示モジュールが一つの立体空間映像を発生し並びにその容積を規定する;
上述のステップを実行する時、該立体空間6は使用者の要求により、スーツケース、家屋内部、車両内部空間或いはトランク内部空間とされ、図12においては、該立体空間6は室内の空間として表示されている。
(601)該立体空間内に少なくとも一つの立体映像を置く、
(602)該操作体が該立体空間内でこれら立体映像を配置する、
上述のステップを実行する時、該立体映像は前述の図2、図3で説明したので、ここでは詳しく述べない。すなわち、該立体映像5は該第1立体映像或いは該第2立体映像とされ得る。このほか、本実施例では、該立体映像5はテーブル或いは本棚等、家庭生活用品として表示され、これにより、該操作体7は随意にこれら立体映像5を移動させられる。
同時に、レイアウト時の必要により、これら立体映像5の大きさ、形状、或いは配置角度等を変更できる。
(603)該立体映像処理ユニットが該操作体の動作によりこれら立体映像の体積をリアルタイムで計算する。
上述のステップを実行する時、これら立体映像5の位置と大きさ等は、使用者による変更により異なる変化を発生する。この時、該立体映像キャプチャモジュール1は前述の図4のステップにより、随時これら立体映像5の該立体空間6中の位置を変更する。
(604)該立体映像処理ユニットがこれら立体映像の体積を取得し並びに該立体空間の容積使用率を計算する。
上述のステップを実行する時、該中央処理装置31がこれら立体映像5の体積データを取得し、例えば、該第1立体映像の走査後に体積データ等の情報を発生し、或いは、該第2立体映像は予め体積データが保存されている。これにより、該中央処理装置31は該立体空間6の容積にこれら立体映像5の体積を組合せ、空間容積使用率の計算を実行できる。
(600)該立体映像表示モジュールが一つの立体空間映像を発生し並びにその容積を規定する;
上述のステップを実行する時、該立体空間6は使用者の要求により、スーツケース、家屋内部、車両内部空間或いはトランク内部空間とされ、図12においては、該立体空間6は室内の空間として表示されている。
(601)該立体空間内に少なくとも一つの立体映像を置く、
(602)該操作体が該立体空間内でこれら立体映像を配置する、
上述のステップを実行する時、該立体映像は前述の図2、図3で説明したので、ここでは詳しく述べない。すなわち、該立体映像5は該第1立体映像或いは該第2立体映像とされ得る。このほか、本実施例では、該立体映像5はテーブル或いは本棚等、家庭生活用品として表示され、これにより、該操作体7は随意にこれら立体映像5を移動させられる。
同時に、レイアウト時の必要により、これら立体映像5の大きさ、形状、或いは配置角度等を変更できる。
(603)該立体映像処理ユニットが該操作体の動作によりこれら立体映像の体積をリアルタイムで計算する。
上述のステップを実行する時、これら立体映像5の位置と大きさ等は、使用者による変更により異なる変化を発生する。この時、該立体映像キャプチャモジュール1は前述の図4のステップにより、随時これら立体映像5の該立体空間6中の位置を変更する。
(604)該立体映像処理ユニットがこれら立体映像の体積を取得し並びに該立体空間の容積使用率を計算する。
上述のステップを実行する時、該中央処理装置31がこれら立体映像5の体積データを取得し、例えば、該第1立体映像の走査後に体積データ等の情報を発生し、或いは、該第2立体映像は予め体積データが保存されている。これにより、該中央処理装置31は該立体空間6の容積にこれら立体映像5の体積を組合せ、空間容積使用率の計算を実行できる。
図1、6、10は、本発明の好ましい実施例のブロック図、フローチャート五と表示図三である。該立体映像インタラクティブシステムは以下のステップにより立体座標計算を実行する。
(500)該立体映像表示モジュールが立体空間を規定し並びに該立体空間内に該立体映像を表示する;
上述のステップを実行する時、該立体映像表示モジュール4はその投影距離、面積等の空間パラメータにより、一つの立体映像が表示する立体空間6を発生し、該立体空間6は球形領域、矩形領域、扇形領域とされ得て、且つ、対応する座標システムを使用可能で、例えば、球形領域は球形座標を、矩形領域は極座標或いは直角座標を、扇形領域は球座標或いは相対座標をそれぞれ使用し得る。
(501)該立体映像キャプチャモジュールが該立体空間内に操作体の接触が有るかを検出する、
(502)該立体映像キャプチャモジュールが操作体の動作映像を取得し並びに動作特徴を計算する、
上述のステップを実行する時、該立体映像キャプチャモジュール1は該立体空間6内の該操作体7の有無を検出し、同時に、該操作体7の該動作映像を記録し、該動作映像より該操作体7の該動作特徴を取得する。
(503)該中央処理装置が該立体空間が予め規定する座標により該動作特徴の座標を取得する、
(504)該中央処理装置が該動作特徴の座標を該立体映像が包含する全ての座標と対比し、対応する座標変化を発生する。
上述のステップを実行する時、該中央処理装置31は該動作特徴の経路、移動方向、角度等により、該立体空間6の座標システムと対比し、該動作特徴と該立体映像5の間のインタラクティブ関係を計算し、例えば、該操作体7が該立体映像5に進入するか、該立体映像5から乖離すれば、該立体映像5の周辺で対応する変形動作を発生する。
続いて、アプリケーションプログラム33の特性により、該立体映像5に対応する変化を発生させる。図10も参照されたい。図中、矩形の該立体空間6に直角座標が組み合わされて、一つの立体映像5が表示され、該立体映像5は前述の図2或いは図3で述べた該第1立体映像或いは該第2立体映像とされ得る。
また、明らかに示されるように、該立体映像5は一つの陥没の変化を表現し、すなわち、該中央処理装置31が検出する該立体映像5は、Y軸方向にあって、一つの動作特徴を発生し、且つ該動作特徴に組み合わされる該アプリケーションプログラム33は一つの陥没の命令であり、すなわち、該立体映像5のXY平面が一つのY軸方向の陥没を発生し、図中、陥没領域は陰影線領域で表示される。
(500)該立体映像表示モジュールが立体空間を規定し並びに該立体空間内に該立体映像を表示する;
上述のステップを実行する時、該立体映像表示モジュール4はその投影距離、面積等の空間パラメータにより、一つの立体映像が表示する立体空間6を発生し、該立体空間6は球形領域、矩形領域、扇形領域とされ得て、且つ、対応する座標システムを使用可能で、例えば、球形領域は球形座標を、矩形領域は極座標或いは直角座標を、扇形領域は球座標或いは相対座標をそれぞれ使用し得る。
(501)該立体映像キャプチャモジュールが該立体空間内に操作体の接触が有るかを検出する、
(502)該立体映像キャプチャモジュールが操作体の動作映像を取得し並びに動作特徴を計算する、
上述のステップを実行する時、該立体映像キャプチャモジュール1は該立体空間6内の該操作体7の有無を検出し、同時に、該操作体7の該動作映像を記録し、該動作映像より該操作体7の該動作特徴を取得する。
(503)該中央処理装置が該立体空間が予め規定する座標により該動作特徴の座標を取得する、
(504)該中央処理装置が該動作特徴の座標を該立体映像が包含する全ての座標と対比し、対応する座標変化を発生する。
上述のステップを実行する時、該中央処理装置31は該動作特徴の経路、移動方向、角度等により、該立体空間6の座標システムと対比し、該動作特徴と該立体映像5の間のインタラクティブ関係を計算し、例えば、該操作体7が該立体映像5に進入するか、該立体映像5から乖離すれば、該立体映像5の周辺で対応する変形動作を発生する。
続いて、アプリケーションプログラム33の特性により、該立体映像5に対応する変化を発生させる。図10も参照されたい。図中、矩形の該立体空間6に直角座標が組み合わされて、一つの立体映像5が表示され、該立体映像5は前述の図2或いは図3で述べた該第1立体映像或いは該第2立体映像とされ得る。
また、明らかに示されるように、該立体映像5は一つの陥没の変化を表現し、すなわち、該中央処理装置31が検出する該立体映像5は、Y軸方向にあって、一つの動作特徴を発生し、且つ該動作特徴に組み合わされる該アプリケーションプログラム33は一つの陥没の命令であり、すなわち、該立体映像5のXY平面が一つのY軸方向の陥没を発生し、図中、陥没領域は陰影線領域で表示される。
図1、14は、本発明の好ましい実施例のブロック図とフローチャート七であり、本フローチャート中、前述の各フローが整合された後、本発明の空間計算或いは容積計算上の応用が説明される。
(700)システム開始、
本発明の立体映像インタラクティブシステム動作後に、後続のステップにおいて、まず該ステップ(701)を実行するか、或いはステップ(702)からステップ(703)を実行する。
(701)立体空間映像を発生し並びに内部容積と座標位置を規定する、
上述のステップ(701)を実行する時、使用者は該保存ユニット32より表示したい立体空間映像を選択した後、該立体映像表示モジュール4により表示し、同時に該立体空間の大きさと座標位置を規定する。
(702)保存ユニット内より第2立体映像を取得する、
(703)物品外観を走査し並びに第1立体映像を発生する、
上述のステップ(702)、ステップ(703)を実行する時、図2、3のフローの説明を参照されたいが、注意すべきことは、該ステップ(702)、ステップ(703)は異なる後先の順序で実行可能であるほか、択一で実行される。
(704)立体映像(第1立体映像、第2立体映像)の体積と開始位置を計算する、
上述のステップ(704)を実行する時、使用者が既に必要なこれら立体映像を選定していることにより、すなわち、該中央処理装置31が事前に規定された該立体空間の大きさ、位置と座標等により、これら立体映像は該立体空間中に設置の位置を規定する。このステップについては、前述の図6の一部フローを参照されたい。
(705)立体映像の移動回転、
(706)立体映像の比例調整、
(707)立体映像のリアルタイム変形、
(708)立体映像の視角変換、
上述のステップ(705)からステップ(708)を実行する時、使用者は使用時の必要により、必要な機能ステップを選択して実行でき、上述のステップ(705)からステップ(708)に関係する説明は、前述の図8のフローの説明を参照されたい。
(709)最適化物品体積計算を検討し、立体空間レイアウトに符合させる、
上述のステップ(709)を実行する時、使用者は既に該立体空間内において、必要なこれら立体映像のレイアウトを完成し、それはこれら立体映像の大きさ、位置、配置角度、高さ等のレイアウトを包含し、この時、該中央処理装置31は該立体空間の容積にこれら立体映像の体積を組合せ、空間容積使用率の計算を実行する。
(710)立体空間レイアウトの最適化微調整、
上述のステップ(710)を実行する時、該中央処理装置31は既に立体空間の容積計算を完成しており、この時、使用者は使用の必要により、これら立体映像の配置の微調整を実行するか、或いは空間配置に不満足である時、再度配置と演算を実行する。
(711)空間利用関係情報を発生、
上述のステップ(711)を実行する時、本発明の立体映像インタラクティブシステムは既に空間使用率或いは容積の計算を完成しており、このとき、該立体空間に関係するデータを発生でき、例えば、該立体空間の配置時に、これら立体映像の間の距離が妥当であるか(これは室内空間設計に応用可能である)、これら立体映像が完全に該立体空間を充満しているか(これは倉庫、コンテナ、トラック、スーツケース等に応用され得る)。
(700)システム開始、
本発明の立体映像インタラクティブシステム動作後に、後続のステップにおいて、まず該ステップ(701)を実行するか、或いはステップ(702)からステップ(703)を実行する。
(701)立体空間映像を発生し並びに内部容積と座標位置を規定する、
上述のステップ(701)を実行する時、使用者は該保存ユニット32より表示したい立体空間映像を選択した後、該立体映像表示モジュール4により表示し、同時に該立体空間の大きさと座標位置を規定する。
(702)保存ユニット内より第2立体映像を取得する、
(703)物品外観を走査し並びに第1立体映像を発生する、
上述のステップ(702)、ステップ(703)を実行する時、図2、3のフローの説明を参照されたいが、注意すべきことは、該ステップ(702)、ステップ(703)は異なる後先の順序で実行可能であるほか、択一で実行される。
(704)立体映像(第1立体映像、第2立体映像)の体積と開始位置を計算する、
上述のステップ(704)を実行する時、使用者が既に必要なこれら立体映像を選定していることにより、すなわち、該中央処理装置31が事前に規定された該立体空間の大きさ、位置と座標等により、これら立体映像は該立体空間中に設置の位置を規定する。このステップについては、前述の図6の一部フローを参照されたい。
(705)立体映像の移動回転、
(706)立体映像の比例調整、
(707)立体映像のリアルタイム変形、
(708)立体映像の視角変換、
上述のステップ(705)からステップ(708)を実行する時、使用者は使用時の必要により、必要な機能ステップを選択して実行でき、上述のステップ(705)からステップ(708)に関係する説明は、前述の図8のフローの説明を参照されたい。
(709)最適化物品体積計算を検討し、立体空間レイアウトに符合させる、
上述のステップ(709)を実行する時、使用者は既に該立体空間内において、必要なこれら立体映像のレイアウトを完成し、それはこれら立体映像の大きさ、位置、配置角度、高さ等のレイアウトを包含し、この時、該中央処理装置31は該立体空間の容積にこれら立体映像の体積を組合せ、空間容積使用率の計算を実行する。
(710)立体空間レイアウトの最適化微調整、
上述のステップ(710)を実行する時、該中央処理装置31は既に立体空間の容積計算を完成しており、この時、使用者は使用の必要により、これら立体映像の配置の微調整を実行するか、或いは空間配置に不満足である時、再度配置と演算を実行する。
(711)空間利用関係情報を発生、
上述のステップ(711)を実行する時、本発明の立体映像インタラクティブシステムは既に空間使用率或いは容積の計算を完成しており、このとき、該立体空間に関係するデータを発生でき、例えば、該立体空間の配置時に、これら立体映像の間の距離が妥当であるか(これは室内空間設計に応用可能である)、これら立体映像が完全に該立体空間を充満しているか(これは倉庫、コンテナ、トラック、スーツケース等に応用され得る)。
以上の記述は、本発明の好ましい実施例にすぎず、本発明の実施の範囲を限定するものではない。本発明の技術の属する分野における通常の知識を有する者が本発明の精神と範囲から逸脱せずに行う同等の変化と修飾は、いずれも本発明の特許請求の範囲内に属する。
総合すると、本発明の立体映像インタラクティブシステムは、新規性、進歩性を有する発明であり、産業上の利用価値を有する。
1 立体映像キャプチャモジュール 11 立体映像キャプチャユニット
2 立体映像処理ユニット 3 ホストマシン
31 中央処理装置 32 保存ユニット
33 アプリケーションプログラム 4 立体映像表示モジュール
41 表示ユニット 42 立体成像ユニット
5 立体映像 51 第3立体映像
52 第4立体映像 6 立体空間
7 操作体
2 立体映像処理ユニット 3 ホストマシン
31 中央処理装置 32 保存ユニット
33 アプリケーションプログラム 4 立体映像表示モジュール
41 表示ユニット 42 立体成像ユニット
5 立体映像 51 第3立体映像
52 第4立体映像 6 立体空間
7 操作体
Claims (28)
- 立体映像を表示でき操作体で該立体映像を制御できる立体映像インタラクティブシステムにおいて、
立体映像キャプチャモジュールであって、一つの物品の複数の物品映像を取得するのに用いられ、及び、操作体の動作映像を取得するのに用いられる一つ或いは複数の立体映像キャプチャユニットを有する、上記立体映像キャプチャモジュールと、
立体映像処理ユニットであって、これら立体映像キャプチャユニットに電気的に接続され、これら物品映像を整合して第1立体映像となし、該動作映像中より動作特徴を取得する、上記立体映像処理ユニットと、
ホストマシンであって、該立体映像処理ユニットに電気的に接続された中央処理装置、及び該中央処理装置に電気的に接続された保存ユニットを包含し、
該保存ユニットは該第1立体映像を保存するのに用いられ、
該中央処理装置は該立体映像処理ユニットに電気的に接続され、これらの立体映像が該動作特徴においてのリアルタイム動作を計算する、上記ホストマシン、
立体映像表示モジュールであって、該中央処理装置に電気的に接続され、該立体映像のリアルタイム動作を表示する、上記立体映像表示モジュール、
以上を包含したことを特徴とする立体映像インタラクティブシステム。 - 請求項1記載の立体映像インタラクティブシステムにおいて、該操作体が複数個設けられ、該立体映像キャプチャモジュールがこれら操作体の動作映像を取得し、並びに該立体映像処理ユニットがこれら動作映像より対応数量の動作特徴を発生することを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像キャプチャユニットは、電荷結合素子(CCD)或いは相補型金属酸化膜半導体(CMOS)で構成された感光素子のいずれかとされることを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像キャプチャユニットは、ライナーCCD、インターライントランスファーCCD、フルフレームCCD、フレームトランスファーCCDで構成された電荷結合素子群より選択されることを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像処理ユニットは該中央処理装置に電気的に接続された集積回路形式、或いは該中央処理装置内に記録されたファームウエア形式、或いは該中央処理装置に読み取られ演算されるソフトウエア形式、或いはアクティブ素子とパッシブ素子で構成された電子回路形式とされることを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像表示モジュールは立体成像ユニットと表示ユニットを具え、
該表示ユニットは該中央処理装置に電気的に接続されてこれら立体映像を表示するのに用いられ、
該立体成像ユニットは該表示ユニットの表面に設置され、これら立体映像を多重映像に変換し、該多重映像は肉眼で見るとこれら立体映像となることを特徴とする立体映像インタラクティブシステム。 - 請求項6記載の立体映像インタラクティブシステムにおいて、該立体成像ユニットはアクティブレンズ構造、レンチキュラーレンズ構造、液晶レンズ構造、液晶バリア構造、光回折素子構造或いはレンチキュラーシート構造のいずれかとされることを特徴とする立体映像インタラクティブシステム。
- 請求項6記載の立体映像インタラクティブシステムにおいて、該表示ユニットは、陰極線管(CRT)ディスプレイ、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、真空蛍光ディスプレイ(VFD)、プラズマディスプレイパネル(PDP)、表面伝導型電子放出(SED)ディスプレイ、電界放出ディスプレイ(FED)或いは電子ペーパー(E−Paper)のいずれかとされることを特徴とする立体映像インタラクティブシステム。
- 請求項8記載の立体映像インタラクティブシステムにおいて、該表示ユニットは、ねじれネマティック型(TN)液晶ディスプレイ、垂直配向(VA)液晶ディスプレイ、マルチドメイン垂直配向(MVA)液晶ディスプレイ、パターン化垂直配向(Patterned Vertical Alignment;PVA)液晶ディスプレイ、IPS(In−Plane Switching)液晶ディスプレイ、CPA(Continuous Pinwheel Alignment)液晶ディスプレイ、OCB(Optical Compenesated Bend)液晶ディスプレイからなる群のいずれかとされることを特徴とする立体映像インタラクティブシステム。
- 請求項8記載の立体映像インタラクティブシステムにおいて、該表示ユニットは、能動マトリクス型有機発光ダイオード(AMOLED)ディスプレイ、受動マトリクス型有機発光ダイオード(PMOLED)ディスプレイからなる群のいずれかとされることを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像処理ユニットは座標計算の方式により該立体映像のリアルタイム動作を計算し、該座標計算は相対座標、極座標、球座標或いは空間座標に用いられる計算方式のいずれかが用いられることを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像インタラクティブシステムは、以下のステップにより該第1立体映像を取得し、すなわち、
該立体映像キャプチャモジュールが物品外観を走査して該第1立体映像を取得し、
該立体映像処理ユニットがこれら物品映像の完成度を検査し、
これら物品映像を該立体映像処理ユニットで合成して該第1立体映像となし、
該第1立体映像が該中央処理装置を通して該立体映像表示モジュールに伝送され、
該立体映像表示モジュールが該第1立体映像を表示し並びに立体映像インタラクティブの操作を実行する、
以上を特徴とする立体映像インタラクティブシステム。 - 請求項12記載の立体映像インタラクティブシステムにおいて、該立体映像キャプチャモジュールが物品外観を走査して該第1立体映像を取得するステップは、垂直走査或いは水平走査を包含することを特徴とする立体映像インタラクティブシステム。
- 請求項12記載の立体映像インタラクティブシステムにおいて、これら物品映像を該立体映像処理ユニットで合成して該第1立体映像となすステップが、さらに、
該立体映像処理ユニットが該第1立体映像の体積を計算するステップ、
を包含したことを特徴とする立体映像インタラクティブシステム。 - 請求項14記載の立体映像インタラクティブシステムにおいて、該立体映像処理ユニットが該第1立体映像の体積を計算する時、該立体映像キャプチャモジュールが取得したこれら物品映像比例により体積計算を実行することを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該保存ユニット内に予め第2立体映像が設けられたことを特徴とする立体映像インタラクティブシステム。
- 請求項16記載の立体映像インタラクティブシステムにおいて、該立体映像インタラクティブシステムは以下のステップにより該第2立体映像を取得し、すなわち、
該立体映像キャプチャモジュールが物品の外観を走査し複数の物品映像を取得し、
該立体映像処理ユニットが該保存ユニットをサーチしてこれら物品映像と同じ一つの第2立体映像を探し出し、
該第2立体映像が該中央処理装置を通して該立体映像表示モジュールに伝送され、
該立体映像表示モジュールが該第2立体映像を表示し並びに立体映像インタラクティブの操作が実行可能となり、
以上を特徴とする立体映像インタラクティブシステム。 - 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像インタラクティブシステムは以下のステップにより立体映像インタラクティブ動作を実行し、
該立体映像表示モジュールが一つの第3立体映像を表示し、
該操作体が該立体映像の前で動作を実行し、
該立体映像キャプチャモジュールが該操作体の動作映像を取得し、
該立体映像処理ユニットが該動作映像により動作特徴を取得し、
該中央処理装置が該動作特徴により該第3立体映像に対応する変化を発生させ、
以上を特徴とする立体映像インタラクティブシステム。 - 請求項18記載の立体映像インタラクティブシステムにおいて、該第3立体映像が該第1立体映像或いは該保存ユニット内に予め設けられた該第2立体映像とされることを特徴とする立体映像インタラクティブシステム。
- 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像インタラクティブシステムは立体状況インタラクティブ動作を実行し、
該立体映像表示モジュールが一つの第4立体映像を表示し、
該操作体が該立体映像前で動作を実行し、
該立体映像キャプチャモジュールが使用者の動作映像を取得し、
該立体映像処理ユニットが該動作映像により動作特徴を取得し、
該立体映像キャプチャモジュールが使用者の該第4立体映像上での動作位置を計算し、 該中央処理装置が該動作特徴と該第4立体映像の対応する状況状態により対応する変化を発生し、
以上を特徴とする立体映像インタラクティブシステム。 - 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像インタラクティブシステムは以下のステップにより立体座標計算を実行し、
該立体映像表示モジュールが立体空間を規定し並びに該立体空間内に該立体映像を表示し、
該立体映像キャプチャモジュールが該立体空間内に操作体の接触が有るかを検出し、
該立体映像キャプチャモジュールが操作体の動作映像を取得し並びに動作特徴を計算し、
該中央処理装置が該立体空間が予め規定する座標により該動作特徴の座標を取得し、
該中央処理装置が該動作特徴の座標を該立体映像が包含する全ての座標と対比し、対応する座標変化を発生し、
以上を特徴とする立体映像インタラクティブシステム。 - 請求項21記載の立体映像インタラクティブシステムにおいて、該中央処理装置が該動作特徴の座標を該立体映像が包含する全ての座標と対比し、対応する座標変化を発生するステップ中に、さらに、
該動作特徴の座標が該立体映像の包含する全ての座標を突き抜けていれば、該立体映像の形態は陥没変化を呈するステップ、を包含することを特徴とする立体映像インタラクティブシステム。 - 請求項21記載の立体映像インタラクティブシステムにおいて、該中央処理装置が該動作特徴の座標を該立体映像が包含する全ての座標と対比し、対応する座標変化を発生するステップ中に、さらに、
該動作特徴の座標が該立体映像の包含する全ての座標より乖離するものであれば、該立体映像の形態は引き伸ばし変化を呈するステップ、を包含することを特徴とする立体映像インタラクティブシステム。 - 請求項1記載の立体映像インタラクティブシステムにおいて、該立体映像インタラクティブシステムは以下のステップにより空間計算を実行し、
該立体映像表示モジュールが立体空間映像を発生し並びにその容積の大きさを規定し、 該立体空間内に少なくとも一つの立体映像を置き、
該操作体が該立体空間内でこれら立体映像を配置し、
該立体映像処理ユニットがこれら立体映像の体積を取得し並びに該立体空間の容積使用率を計算し、
以上を特徴とする立体映像インタラクティブシステム。 - 請求項24記載の立体映像インタラクティブシステムにおいて、該立体映像は第1立体映像或いは該保存ユニット内に予め設けられた第2立体映像とされることを特徴とする立体映像インタラクティブシステム。
- 請求項25記載の立体映像インタラクティブシステムにおいて、該立体映像が該第1立体映像とされる時、該立体映像処理ユニットが該第1立体映像を発生する時、該中央処理装置が該第1立体映像の体積を計算することを特徴とする立体映像インタラクティブシステム。
- 請求項25記載の立体映像インタラクティブシステムにおいて、該立体映像が該第2立体映像とされる時、該中央処理装置は該第2立体映像を保存する時に予めその体積を取得することを特徴とする立体映像インタラクティブシステム。
- 請求項24記載の立体映像インタラクティブシステムにおいて、該操作体が該立体空間内でこれら立体映像を配置するステップ中、該立体映像処理ユニットが該操作体の動作により、該立体映像の体積をリアルタイムで計算することを特徴とする立体映像インタラクティブシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW098124377A TW201104494A (en) | 2009-07-20 | 2009-07-20 | Stereoscopic image interactive system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011022984A true JP2011022984A (ja) | 2011-02-03 |
Family
ID=43012566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009218638A Pending JP2011022984A (ja) | 2009-07-20 | 2009-09-24 | 立体映像インタラクティブシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20110012830A1 (ja) |
EP (1) | EP2278823A3 (ja) |
JP (1) | JP2011022984A (ja) |
KR (1) | KR101074940B1 (ja) |
TW (1) | TW201104494A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012203736A (ja) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
JP2013047924A (ja) * | 2011-08-29 | 2013-03-07 | Kyocera Corp | 表示機器 |
JP2014071520A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御方法および制御プログラム |
US9651782B2 (en) | 2013-02-19 | 2017-05-16 | Mirama Service Inc. | Wearable tracking device |
JP2018022498A (ja) * | 2011-02-11 | 2018-02-08 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008020772A1 (de) * | 2008-04-21 | 2009-10-22 | Carl Zeiss 3D Metrology Services Gmbh | Darstellung von Ergebnissen einer Vermessung von Werkstücken |
KR101651568B1 (ko) * | 2009-10-27 | 2016-09-06 | 삼성전자주식회사 | 3차원 공간 인터페이스 장치 및 방법 |
TWI528224B (zh) * | 2010-11-15 | 2016-04-01 | 財團法人資訊工業策進會 | 三維動態操控方法及裝置 |
JP4892098B1 (ja) * | 2010-12-14 | 2012-03-07 | 株式会社東芝 | 立体映像表示装置及び方法 |
TWI423114B (zh) * | 2011-02-25 | 2014-01-11 | Liao Li Shih | 互動式裝置及其運作方法 |
WO2012135153A2 (en) * | 2011-03-25 | 2012-10-04 | Oblong Industries, Inc. | Fast fingertip detection for initializing a vision-based hand tracker |
US8923686B2 (en) | 2011-05-20 | 2014-12-30 | Echostar Technologies L.L.C. | Dynamically configurable 3D display |
US9733789B2 (en) * | 2011-08-04 | 2017-08-15 | Eyesight Mobile Technologies Ltd. | Interfacing with a device via virtual 3D objects |
US10162491B2 (en) * | 2011-08-12 | 2018-12-25 | Otoy Inc. | Drag and drop of objects between applications |
JP5766077B2 (ja) * | 2011-09-14 | 2015-08-19 | キヤノン株式会社 | ノイズ低減のための画像処理装置及び画像処理方法 |
EP2788839A4 (en) * | 2011-12-06 | 2015-12-16 | Thomson Licensing | METHOD AND SYSTEM FOR RESPONDING TO USER GESTURES FOR SELECTION OF OBJECTS DISPLAYED IN THREE DIMENSIONS |
GB2498184A (en) * | 2012-01-03 | 2013-07-10 | Liang Kong | Interactive autostereoscopic three-dimensional display |
WO2013109869A1 (en) | 2012-01-20 | 2013-07-25 | Magna Electronics, Inc. | Vehicle vision system with free positional virtual panoramic view |
TWI471665B (zh) * | 2012-04-11 | 2015-02-01 | Au Optronics Corp | 可切換二維與三維顯示模式之顯示裝置 |
TWI490755B (zh) * | 2012-06-20 | 2015-07-01 | Pixart Imaging Inc | 輸入系統 |
TWI637348B (zh) * | 2013-04-11 | 2018-10-01 | 緯創資通股份有限公司 | 影像顯示裝置和影像顯示方法 |
TWI505135B (zh) * | 2013-08-20 | 2015-10-21 | Utechzone Co Ltd | 顯示畫面的控制系統、輸入裝置及控制方法 |
KR20150032390A (ko) * | 2013-09-16 | 2015-03-26 | 삼성전자주식회사 | 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법 |
TWI499964B (zh) * | 2013-09-17 | 2015-09-11 | Genius Toy Taiwan Co Ltd | 非接觸式即時互動方法及其系統、電腦程式產品 |
DE102014202490A1 (de) * | 2014-02-12 | 2015-08-13 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe |
TWI518603B (zh) * | 2014-05-22 | 2016-01-21 | 宏達國際電子股份有限公司 | 影像編輯方法與電子裝置 |
TWI574047B (zh) * | 2015-06-16 | 2017-03-11 | 緯創資通股份有限公司 | 立體影像顯示裝置、方法以及系統 |
DE102016211209A1 (de) * | 2016-06-23 | 2017-12-28 | Zf Friedrichshafen Ag | Steuerung eines Kraftfahrzeugs |
CN107463261B (zh) * | 2017-08-11 | 2021-01-15 | 北京铂石空间科技有限公司 | 立体交互***及方法 |
JP6905477B2 (ja) * | 2018-01-24 | 2021-07-21 | 三菱造船株式会社 | 3次元図面表示システム、3次元図面表示方法及びプログラム |
TWI656362B (zh) * | 2018-03-26 | 2019-04-11 | 仁寶電腦工業股份有限公司 | 電子裝置及其物件重製方法 |
CN108664124B (zh) * | 2018-05-08 | 2021-08-24 | 北京奇艺世纪科技有限公司 | 一种基于空间方位信息的控制方法及装置 |
KR20210068702A (ko) | 2019-12-02 | 2021-06-10 | 현대자동차주식회사 | 자동차용 시트의 홀로그램 스위치 시스템 |
TWI754899B (zh) * | 2020-02-27 | 2022-02-11 | 幻景啟動股份有限公司 | 漂浮影像顯示裝置、互動方法與其系統 |
US11194402B1 (en) | 2020-05-29 | 2021-12-07 | Lixel Inc. | Floating image display, interactive method and system for the same |
TWI809451B (zh) * | 2020-07-17 | 2023-07-21 | 智崴資訊科技股份有限公司 | 球幕顯示系統 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281297A (ja) * | 2002-03-22 | 2003-10-03 | National Institute Of Advanced Industrial & Technology | 情報提示装置および情報提示方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1274295A (en) | 1916-10-21 | 1918-07-30 | Robert John Logan | Toy. |
WO1984000864A1 (en) * | 1982-08-20 | 1984-03-01 | Cjm Associates | Three-dimensional video system |
US6154723A (en) * | 1996-12-06 | 2000-11-28 | The Board Of Trustees Of The University Of Illinois | Virtual reality 3D interface system for data creation, viewing and editing |
WO1998041951A1 (fr) * | 1997-03-14 | 1998-09-24 | Sony Corporation | Dispositif et procede de synthese d'images, dispositif et procede de detection de position et programmes utilises a cet effet |
US20020036617A1 (en) | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6064354A (en) * | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP2000075991A (ja) | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | 情報入力装置 |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
FR2811849B1 (fr) * | 2000-07-17 | 2002-09-06 | Thomson Broadcast Systems | Camera stereoscopique munie de moyens pour faciliter le reglage de ses parametres opto-mecaniques |
WO2002035909A2 (en) * | 2000-11-03 | 2002-05-10 | Siemens Corporate Research, Inc. | Video-supported planning and design with physical marker objects sign |
WO2002093491A1 (en) * | 2001-05-17 | 2002-11-21 | The Trustees Of Columbia University In The City Of New York | System and method for view management in three dimensional space |
US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
AU2003217587A1 (en) * | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7274803B1 (en) * | 2002-04-02 | 2007-09-25 | Videomining Corporation | Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction |
US20030214537A1 (en) * | 2002-05-16 | 2003-11-20 | Heloise Bloxsom Lynn | Method for displaying multi-dimensional data values |
US7787009B2 (en) * | 2004-05-10 | 2010-08-31 | University Of Southern California | Three dimensional interaction with autostereoscopic displays |
US7719523B2 (en) | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
TW200907764A (en) * | 2007-08-01 | 2009-02-16 | Unique Instr Co Ltd | Three-dimensional virtual input and simulation apparatus |
US8526764B2 (en) * | 2007-11-16 | 2013-09-03 | Snell Limited | Re-sizing image sequences |
US8472753B2 (en) * | 2008-01-10 | 2013-06-25 | Samsung Electronics Co., Ltd. | Method and system of adaptive reformatting of digital image |
-
2009
- 2009-07-20 TW TW098124377A patent/TW201104494A/zh unknown
- 2009-08-31 US US12/550,467 patent/US20110012830A1/en not_active Abandoned
- 2009-08-31 EP EP09169028A patent/EP2278823A3/en not_active Withdrawn
- 2009-09-17 KR KR1020090087950A patent/KR101074940B1/ko not_active IP Right Cessation
- 2009-09-24 JP JP2009218638A patent/JP2011022984A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281297A (ja) * | 2002-03-22 | 2003-10-03 | National Institute Of Advanced Industrial & Technology | 情報提示装置および情報提示方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022498A (ja) * | 2011-02-11 | 2018-02-08 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
JP2019061707A (ja) * | 2011-02-11 | 2019-04-18 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
JP2012203736A (ja) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
JP2013047924A (ja) * | 2011-08-29 | 2013-03-07 | Kyocera Corp | 表示機器 |
JP2014071520A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御方法および制御プログラム |
US9651782B2 (en) | 2013-02-19 | 2017-05-16 | Mirama Service Inc. | Wearable tracking device |
Also Published As
Publication number | Publication date |
---|---|
EP2278823A3 (en) | 2011-03-16 |
US20110012830A1 (en) | 2011-01-20 |
KR101074940B1 (ko) | 2011-10-19 |
KR20110009002A (ko) | 2011-01-27 |
EP2278823A2 (en) | 2011-01-26 |
TW201104494A (en) | 2011-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011022984A (ja) | 立体映像インタラクティブシステム | |
US11954808B2 (en) | Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment | |
US11392212B2 (en) | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments | |
US11995245B2 (en) | User-defined virtual interaction space and manipulation of virtual configuration | |
CN104471511B (zh) | 识别指点手势的装置、用户接口和方法 | |
US20130265220A1 (en) | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface | |
CN101995943B (zh) | 立体影像互动*** | |
Hernoux et al. | A seamless solution for 3D real-time interaction: design and evaluation | |
Yoo et al. | 3D remote interface for smart displays | |
RE | Low cost augmented reality for industrial problems | |
Piumsomboon | Natural hand interaction for augmented reality. | |
Jung et al. | Interactive auto-stereoscopic display with efficient and flexible interleaving | |
Park et al. | 3D Gesture-based view manipulator for large scale entity model review | |
Teng | INTEGRATED SPATIAL GESTURE-BASED DIRECT 3D MODELING AND DISPLAY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120306 |