JP2015527760A - 時空間的不確実性を管理するためのシステム及び方法 - Google Patents

時空間的不確実性を管理するためのシステム及び方法 Download PDF

Info

Publication number
JP2015527760A
JP2015527760A JP2015514102A JP2015514102A JP2015527760A JP 2015527760 A JP2015527760 A JP 2015527760A JP 2015514102 A JP2015514102 A JP 2015514102A JP 2015514102 A JP2015514102 A JP 2015514102A JP 2015527760 A JP2015527760 A JP 2015527760A
Authority
JP
Japan
Prior art keywords
image
local
frame
uncertainty
delay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015514102A
Other languages
English (en)
Other versions
JP6101793B2 (ja
JP2015527760A5 (ja
Inventor
マルクス ダブリュー. ディラブー,
マルクス ダブリュー. ディラブー,
フィリップ コリー シャム,
フィリップ コリー シャム,
バートン エル. ガスリー,
バートン エル. ガスリー,
マヘシュ ビー. シェーナイ,
マヘシュ ビー. シェーナイ,
ドリュー スティーブン ディートン,
ドリュー スティーブン ディートン,
マシュー ベントン メイ,
マシュー ベントン メイ,
Original Assignee
ビパール, エルエルシー
ビパール, エルエルシー
ユーエービー リサーチ ファウンデーション
ユーエービー リサーチ ファウンデーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビパール, エルエルシー, ビパール, エルエルシー, ユーエービー リサーチ ファウンデーション, ユーエービー リサーチ ファウンデーション filed Critical ビパール, エルエルシー
Publication of JP2015527760A publication Critical patent/JP2015527760A/ja
Publication of JP2015527760A5 publication Critical patent/JP2015527760A5/ja
Application granted granted Critical
Publication of JP6101793B2 publication Critical patent/JP6101793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

画像処理において時空間的不確実性を管理するための方法及びシステムが提供される。提供される1つの方法は、第1画像から第2画像への動きを決定することと、遅延値を決定することと、正確値を決定することと、前記動き、前記遅延値、及び前記正確値に基いて不確実性要素を生成することと、前記不確実性要素を表現することとを含み得る。一実施態様において前記動きは、動き推定アルゴリズムから決定され、他の実施態様において前記動きは、ブロックマッチングアルゴリズムから決定される。

Description

時空間的ずれは、リモートのソースの画像キャプチャすることと、キャプチャされた画像をローカル的に表示することとの間の遅延によってしばしば発生する。時空間的ずれ又は不確実性は、リアルタイムの、共有された、第1人称的パースペクティブのセッションの一方の参加者により視覚化された合成画像の忠実さを犠牲にした空間的不正確さにつながり得る。例えば、かなりの程度の動きと遅延とが関わるシナリオにおいては、時空間的不確実性はかなりの程度になり得る。この不確実性は、ピクセルレベルでの正確さが重要ではないようなローリスクの文脈においては意味をあまり持たないかもしれないが、顕微外科のような技術分野においては、この誤差を正確に定量化することは死活問題である。
それゆえ、時空間的不確実性の定量化及び視覚化を管理するためのシステム及び方法を開発することは望ましい。
時空間的不確実性を管理するためのシステム及び方法が開示される。時空間的不確実性の定量化及び視覚化を管理するためのシステム及び方法が開示される。リアルタイムの、二重1人称パースペクティブのテレビ会議の分野においては、ネットワーク及び処理に基いた遅延により、時空間的不確実性が起こり得る。時空間的不確実性の決定及び視覚化は、遅延が発生している文脈で精密さを要するタスクを実行するリスクを、いくらか軽減する潜在的能力を有している。
1つの態様においては、1つの方法が、第1フレームから第2フレームへの動きを決定することと、決定された動きに基いて不確実性因子を決定することと、前記不確実性因子に基いて不確実性要素を生成することと、を含むことができる。
別の方法は、第1画像から第2画像への動きを決定することと、遅延値を決定することと、正確値を決定することと、前記動き、前記遅延値、及び前記正確値に基いて不確実性要素を生成することと、を含むことができる。
別の方法は、遅延値を決定することと、前記遅延値に基いて第1画像に対する遅延オフセットを決定することと、前記第1フレームからの前記遅延オフセットに基いて第2画像を配置することと、第1フレームに重なる動きの薄像を生成することと、を含み、且つ前記動きの薄像が前記第2フレームの少なくとも一部を含むようにすることができる。
追加的利点が、後に続く説明において部分的に記載され、又は、実践により学習されるであろう。そのような利点は、添付の発明の概念において特に指摘される要素及び組み合わせによって、実現且つ達成されるであろう。前述の大まかな説明及び後述の詳細な説明は、ともに例示的でありかつ説明目的のものであるにすぎないと理解すべきであり、制限的なものとみなすべきではない。
添付の図面は、本明細書に組み込まれかつその一部を構成するが、そのような図面は、諸実施形態を示し、説明と合わせて見ると、提供される方法及びシステムの諸原理を説明するのに役立つであろう。
仮想インタラクティブプレゼンスを示す。 仮想インタラクティブプレゼンスを示す。 リモートのユーザーを支援しているローカルのエキスパートを示す。 例示的システムを示す。 例示的方法を示す。 例示的方法を示す。 例示的方法を示す。 例示的方法を示す。 例示的方法を示す。 例示的方法を示す。 フレーム遅延を表す例示的ブロック図を示す。 不透明度の例示的グラフを示す。 不確実性の視覚化を示す。 不確実性の視覚化を示す。 例示的仮想プレゼンスシステムを示す。 グラフィックサーバ内で実行される例示的処理を示す。 ネットワークサーバ内で実行される例示的処理を示す。 例示的VIPディスプレイの側面図を示す。 ユーザーから見た例示的VIPディスプレイの図を示す。 ユーザーから見た例示的VIPディスプレイの図を示す。 例示的方法を示す。 別の例示的方法を示す。 リモートの外科手術環境における仮想プレゼンスを示す。 医学的撮像を術野にマージする様子を示す。 例示的動作環境を示す。
本明細書の方法及びシステムを開示及び説明する前に、当該方法及びシステムは、個別具体的合成方法、特定の構成要素、又は、特定の構成には限定されず、それらのものは、さまざまに変化し得るということが理解されねばならないことは言うまでもない。本明細書で用いる用語は、特定の実施形態を説明する目的のみのために用いられており、制限的な意図ではないということもまた理解されねばならない。
本明細書及び添付の特許請求の範囲において使用されるとき、単数形「a」、「an」、及び「the」は、文脈からそうでないことが明らかでない限り、複数の指示対象を包含する。
以下においては、数値の範囲は、「約」をつけたある特定の値から、及び/又は、「約」をつけた他の特定の値に至るものとして表現される場合がある。そのようにして1つの範囲が表現されると、他の実施形態においては、当該ある特定の値から、及び/又は、他の当該特定の値に至る範囲が含まれる。同様に、ある値が「約」を前につけて、近似的値によって示される場合、当該ある特定の値は他の実施形態においても有効であると理解されねばならない。さらに、そのような範囲それぞれの端点は、他の端点とのの関連において、及び他の端点とは独立して、有効であると理解されねばならない。
「任意選択可能な」又は「任意選択可能に」という表現は、それ以下に説明される出来事又は状況が、発生してもしなくてもよいことを意味し、且つ、当該説明が、そのような出来事又は状況が発生した場合もしない場合も含むことを意味する。
本明細書の説明及び請求項を通じて、「comprise(含む)」という用語及び、例えば「comprising」及び「comprises」のような、その変化した語形は、「含むがそれに限られない」ということを意味し、且つ例えば、他の添加されるもの、構成要素、整数、又は工程等を排除しないことを意図する。「例示的な」という用語は、「〜の例」ということを意味し、且つ、それが好ましい又は理想の実施形態であることを伝えようという意図はない。
開示される方法及びシステムを実行するために用いられ得る構成要素が開示される。これらの及びその他の構成要素が本明細書で開示されるが、これらの構成要素の組み合わせ、サブセット、相互作用、群等が開示されているものの、それぞれのさまざまな個別の並びに集合的な組み合わせ及びそれらの組み合わせを並び替えたものを具体的に言及したものが明示的に開示されていないとしても、本明細書においてはそれらがすべての方法及びシステムに対して、考慮され説明されているものと理解される。この原則は、本出願のすべての態様に対して適用されるが、開示される方法の工程に限定されない。したがって、もし、実行することが可能な追加的工程がさまざまある場合に、これらの追加的工程のそれぞれは、開示される方法の任意の具体的実施形態の1つ又は、それらの組み合わせとともに実行され得るということが理解されるべきである。
本願の方法及びシステムは、以下の好適な実施形態の詳細な説明、及びそれらに含まれる実施例を参照し、且つ、その前後の説明とともに図面を参照すれば、より良く理解できるであろう。
時空間的不確実性を管理するための方法及びシステムが開示される。開示される方法及びシステムは、仮想現実を用いることができる。仮想現実(VR)は、人間とコンピュータとのインターフェイスを提供するコンピュータに基く応用技術を指すが、当該インターフェイスは、コンピュータ及びそのデバイスが、個人のアクションによりダイナミックに制御されるような感覚世界を創出するものであり、それゆえにユーザーにとってはそのような世界は「現実的」なものと一見思われるものである。仮想現実では、コンピュータシステム及びユーザーの間の通信が存在する。コンピュータは、1つの態様において、(それは必須ではないが)ユーザーが多感覚的体験できるような感覚世界を創造し、ユーザーからの入力に対して、現実の感覚を創出する。
1つの例示的態様において、開示されるシステムは、少なくとも2つのタイプの仮想現実を用いる。それらは、没入型及び非没入型仮想現実である。没入型仮想現実は、ユーザーが実際に異なる世界にいるような幻想を創り出す。1つの態様において、システムはこれを、頭装着型ディスプレイ(HMD)、イヤフォン、及び手袋又は棒状器具のような入力デバイス等をはじめとするデバイスを用いて実現する。別の態様においては、体験の現実感を高めるために、ソフトウェアがシミュレートすることができる、複数の自由度(DOF)が採用される。一般には、自由度が多ければ多いほど、体験の現実感が高まる。例示的自由度には、X軸、Y軸、及びZ軸の自由度、横揺れ、縦揺れ、並びに偏揺れが含まれるが、それらに限られない。
非没入型仮想現実は、ユーザーの実際の周囲環境と区別可能な世界を創出する。非没入型仮想現実は、ユーザーが別の世界に移動したような幻想を生み出すことはない。非没入型仮想現実は、3次元画像及びサラウンド音声を、立体的投影システム、コンピュータのモニター画面、及び/又はステレオスピーカーを用いて作り出すことによって機能する。非没入型仮想現実は、他の追加的ハードウェアなしにパーソナルコンピュータ上で動作させることができる。
1つの態様において、没入型仮想現実における運動は、トラッカと呼ばれる光学的、音声的、磁気的、又は機械的ハードウェアを用いることで、1つのシステムによって実現できる。好ましくは、入力デバイスには、こうしたトラッカができるだけたくさん設けられているとよく、そうすることで、運動をより正確に表すことが可能である。例えば、仮想現実用手袋には、それぞれの指に最大3つまでのトラッカを有し、手のひら及び手首にさらにトラッカを設けることができる。そうすることで、ユーザーは物を掴んだり押したりできるようになる。1つの態様において、トラッカは、位置センサを装備できる。当該位置センサは、入力デバイスがどの方向を向き、あらゆる方向についてどのような傾きをしているかを、コンピュータに伝えることができる。これは、6つの自由度を有する1つのセンサによりなされる。
他の態様において、開示されるシステムは、拡張現実(AR)を採用することができる。拡張現実とは、人間とコンピュータとの間のインターフェイスを提供する、コンピュータに基く1つの応用技術を指すが、コンピュータ及びそのデバイスが、現実及び仮想、双方の要素を包含することを通じて、ユーザーが現実とは異っていると感じるような体験を作り出すものである。本願システム及び方法に用いることができる拡張現実の例としては、コンピュータ断層撮影(CT)又は磁気共鳴画像(MRI)データを患者の画像に重ね合わせるものが含まれるが、それらに限られない。拡張現実の使用の他の例としては、手術野の画像に、患者のバイオメトリックデータを重ね合わせるというものもある。他の分野でも、本開示されるシステム及び方法を用いることが可能である。
出力デバイスは、ユーザーを仮想の世界へと導く。本システムにおいて用いられる出力デバイスの例としては、ユーザーがディスプレイシステムを頭に装着することを可能にするような眼鏡又はゴーグルの形の、頭装着型ディスプレイが含まれるが、それらに限られない。頭装着型ディスプレイを実現する方法の1つとしては、両方の目を覆うのに十分な幅のある単独の液晶ディスプレイ(LCD)を用いることがある。別の方法としては、片方の目に一つずつ、計2つの別体のディスプレイを用いることがある。こちらは、それぞれのディスプレイに表示される画像が異なるため、コンピュータのパワーがより必要である。それぞれのディスプレイは、その環境において正しい角度から表現される別々の画像を表示する。視標追跡機能を、頭装着型ディスプレイに組み合わせることも可能である。こうすることで、例えば外科医が、画像の中でより良く見たい部分に目を動かすということができる。
本開示のシステムの環境で用いることができる出力デバイスの他の例には、シャッター付き眼鏡がある。このデバイスは、それぞれの目に対する画像を、他方の目のシャッターを閉めることで、1フレームおきに更新する。シャッター付き眼鏡は、画像がちらつかないようにするためには、非常に高いフレームレートを要する。このデバイスは、立体的モニター用に用いられ、且つ2次元の対象物の正確な3次元表現を示すが、ユーザーを仮想の世界に没入させることはない。
本開示のシステムの1つの実施形態において用いることのできる出力デバイスの他の例としては、複数のプロジェクタを有するスクリーンがある。スクリーンは平面であっても、湾曲したものであってもよい。複数のプロジェクタを同一のスクリーンで用いる場合の課題としては、それぞれのプロジェクタから映し出される画像の間に、エッジが目についてしまうことがある。投影される画像がエッジに近づくほど透明になり、複数の画像が重なるようなソフトエッジのシステムを用いると、上記の問題に対処することが可能である。これにより、画像間の移行はほぼパーフェクトになる。好ましい3D効果を達成するために、シャッター付き眼鏡を用いることができる。交互に完全に不透明になったり透明になったりする特別な眼鏡を用いることができる。左目が不透明になっている時、右目は透明である。これを、スクリーン上に対応する画像をそれぞれ映し出しているプロジェクタと同期させる。
他の態様においては、没入型仮想現実体験装置(CAVE)を、本開示のシステムにおいて用いることもできる。没入型仮想現実体験装置は、立方体の形の部屋に鏡を複数設け、壁に立体画像を映し出して、ユーザーが仮想の世界に立っているような幻想を生じさせる技術である。その仮想の世界は、トラッカを用いて常に更新されており、且つユーザーは、ほぼ全く制限されることなく動き回ることができるようになっている。
画像の位置合わせをするための方法及びシステムが開示される。そのような方法及びシステムは、例えば、リモートの場所から専門的な知識・技術を伝達する等の任意の所与の目的のために、ユーザーが相互にインタラクションできるように、対象フィールドに多くの要素/参加者を仮想的に存在させて表現することができる。対象フィールドは、その視点によって変化する量の、「現実」的及び「仮想」的な要素を含むことができる。要素には、任意の「現実」的及び「仮想」的な、対称物、主体、参加者、又は画像表現を含むことができる。図1に、開示される方法及びシステムのさまざまな構成要素が図示されている。
共通の対象フィールド101とは、要素が物理的及び/又は仮想的に存在するフィールドであり得る。現実点(又は視点)とは、当該共通の対象フィールドを体験している要素/参加者のバンテージ(見晴らしのきく地点)を指すことができる。図1においては、例示的現実点又は視点が、ディスプレイを表す符号102及び103の場所に示されている。共通の対象フィールド101は、一見すると両方のバンテージ又は視点から見ても似て見えるが、しかしそれぞれは、ローカルの(物理的)及びリモートの(仮想的)要素/参加者のさまざまな異なる組み合わせを含む。
ローカルの要素とは、当該共通の対象フィールドに物理的に存在する要素及び/又は参加者であり得る。図1においては、要素A 105は、フィールドA 104にとってローカルの要素であり、フィールドA 104に物理的に存在する。要素B 107は、フィールドB 106にとってローカルの要素であり、フィールドB 106に物理的に存在する。仮想的な要素(不図示)が、好みに応じて、フィールドA 104及び/又はフィールドB 106に挿入され、又は重ねられることができるということは理解されるべきである。
リモートの要素は、当該共通の対象フィールドに物理的に存在しない要素及び/又は参加者であり得る。それらは、任意の他のローカルのバンテージ点からは、「仮想的に存在している」ものとして体験される。図1に示されるように、要素B 107は、フィールドA 104にとってリモートの要素であり、且つフィールドA 104においては仮想的に存在している。要素A 105は、フィールドB 106においてはリモートの要素であり、且つフィールドB 106においては仮想的に存在している。
ローカルの及びリモートの要素及び/又は参加者を組み合わせることによって仮想インタラクティブプレゼンスを表現するための方法は、以下の複数の工程の1つ以上を含む。共通のローカルのフィールドが、当該フィールド、要素、及び/又は参加者の存在を反映するように、表現されることができる。図2Aに示されるように、参加者Aは、フィールドAにおける現実的要素をビューワーを通じて体験することができる。当該共通のローカルのフィールドは、リモートの参加者がそれをローカルの人々と同様に体験可能とするように、それがリモートで体験されるように表現され得る。図2Aに示されるように、フィールドAにおいては仮想的に存在しているとして要素Bを参加者Aが体験しているものとして、共通のローカルのフィールドが描かれている。
リモートの人々は、及び/又は、彼らにとって仮想的なフィールドとして表現されるものに自身を挿入し、そうしたフィールドとインタラクションすることが可能になっている。例えば、参加者Aは手、器具等をフィールドAに挿入し、仮想的な要素Bとインタラクションすることができる。これに対する仮想的補完物を、ビューワーBは、参加者Aの仮想的な要素とインタラクションする、ビューワーBの現実的要素を用いて、見ることができる。
共通のローカルのフィールドは、リモートの参加者の存在が、リアルタイムで表現され得るように継続的に更新されることが可能である。例えば、リモートのシーンは、そのリモートでのキャプチャとローカルの表現との間のタイムラグをできるだけ小さくするように、利用できるものの中で最新のものとすることができる。逆に、あるタイミングの差が導入される必要がある場合には、それもまた実現可能である。
共通のローカルのフィールドは、当該ローカルのシーンに意味のある形で適合するように、そのサイズおよび深度を拡大縮小させることができる。また、共通のローカルのフィールドは、リモートの要素が概ね透明になるか、完全に取り除かれるか、ローカルなユーザーの必要性に適するように変化されるように構成されることが可能である。
それぞれのフィールドはデジタルカメラによりキャプチャされる。得られる画像は当該カメラの物理的性質に基いて、本来の現実からは物理的に歪んでいる。それゆえ、プロセッサは、ローカルの本来の現実が「物理的」に歪んだバージョンを受け取り、表示する。同様に、デジタルカメラによりリモートのフィールドをキャプチャしながら、入力されるストリームは、送信用デバイスを介して、ネットワークを通じて中継することも可能である。それゆえ、当該プロセッサは、物理的及び送信に基く歪みを内包する、リモートのストリームを受信する。それゆえ、プロセッサは、物理的及び送信に基く歪みを共通のローカルのフィールドから取り除く一連の変換処理を実行せねばならない。
ローカルの参加者は、仮想的に存在している参加者を、共通のローカルのフィールドにおいて継続的にインタラクションすることが可能なやり方で体験することが可能である。図2Bは、リモートのユーザーを支援しているローカルのエキスパートを示す。ローカルのエキスパート201の両手は、わずかに透明になっており、リモートのユーザーによって見られているフィールドに重ねされている。リモートのユーザーは、ローカルのエキスパートの手と、当該リモートのユーザーの手と、当該リモートのユーザーのいる場所にあるパズルと、を見ることができる。ローカルのエキスパートは、リモートのユーザーがパズルを組み立てるのを支援している。
図3は、例示的画像処理システム300を示す。図示されるように、システム300は、例えば画像、動画、動画と静止画像との合成物、及び共通の対象フィールドのうちの1つ以上を表示するように構成される、第1ディスプレイ302及び第2ディスプレイ304を含むことができる。しかし、システム300には任意の数のディスプレイが含まれ得るということは理解されるべきである。ある態様においては、第2ディスプレイ304は、第1ディスプレイ302からはリモートの場所に配置され得る。例として、第1ディスプレイ302及び第2ディスプレイ304のそれぞれは、共通の対象フィールドをその上に表現するように構成されることができる。更なる例として、第1ディスプレイ302及び第2ディスプレイ304のそれぞれは、ローカルのフィールド及びリモートのフィールドの少なくとも一方を、その上に表現するように構成されることができる。ある態様においては、第1ディスプレイ302及び第2ディスプレイ304の少なくとも一方は、詳しくは後述するようなVIPディスプレイであり得る。しかしながら、第1ディスプレイ302及び第2ディスプレイ304のそれぞれは、例えば平面視ディスプレイ及び立体視ディスプレイを含む任意のタイプのディスプレイであり得るということは理解されねばならない。なお、任意のタイプのディスプレイを任意の数で用いることが可能である。
第1センサ306は、少なくとも第1ディスプレイ302と信号を通信することが可能であって、且つ、例えば仮想プレゼンスデータのような画像データを取得するように構成されていることが可能である。ある態様においては、前記第1センサ306は、カメラ、赤外線センサ、光センサ、RADARデバイス、SONARデバイス、及び深度スキャンセンサ等のうちの1つ以上であり得る。なお、第1センサ306は、「現実的」な要素及び「仮想的」な要素のうちの少なくとも1つを表す画像データをキャプチャ/取得可能な任意のデバイス又はシステムであり得る。
第2センサ308は、少なくとも第2ディスプレイ304と信号を通信することが可能であって、且つ、例えば仮想プレゼンスデータのような画像データを取得するように構成されていることが可能である。ある態様においては、第2センサ308はカメラ、赤外線センサ、光センサ、RADARデバイス、SONARデバイス、深度スキャンセンサ等のうちの1つ以上であり得る。なお、第2センサ308は、「現実的」な要素及び「仮想的」な要素のうちの少なくとも1つを表す画像データをキャプチャ/取得可能な任意のデバイス又はシステムであり得る。なお、任意の数のセンサを用いることが可能である。
複数のプロセッサ310、312が、第1ディスプレイ302、第2ディスプレイ304、第1センサ306、及び第2センサ308の内の少なくとも1つ以上と、直接又は間接的に、信号を通信することが可能である。プロセッサ310、312のそれぞれは、センサ306、308によって集められた画像データを、ディスプレイ302、304のうちの少なくとも1つ上に表現するように構成されている。なお、プロセッサ310、312は、画像データ及び、データから生成される画像を送信及び表示するために修正するように構成することができる。なお、1を含む任意の数のプロセッサを用いることが可能である。ある態様においては、システム300は、互いにデータを通信することが可能なプロセッサ310、312のみを含む。
ある態様においては、ディスプレイ302、304のそれぞれは、画像をディスプレイ302、304上に表現するためのプロセッサ310、312のうちの関連する1つを含むことが可能である。プロセッサ310、312のそれぞれ、又はプロセッサを含む別のシステムは、ネットワーク接続を通じて互いに通信可能である。例えば、リモートの場所どうしが、インターネット又は他のネットワークを介して接続されることができる。タスクは、プロセッサ310、312のそれぞれどうしで分割して担うことが可能である。例えば、プロセッサ310、312の一方は、グラフィックプロセッサ又はグラフィックサーバとして構成することができ、センサ306、308の一方から画像を集めることが可能である。また、プロセッサ310、312の一方は、ネットワークサーバとして構成することができ、画像合成のタスクを実行し、且つ、ディスプレイ302、304のうちの1つ以上を駆動することができるようになっている。
1つの態様においては、プロセッサ310、312のうちの1つ以上が、1つの画像を表現するように構成されることができる。一例として、プロセッサ310、312のうちの1つ以上が、共通の対象フィールドを表現するように構成されることができ、当該共通の対象フィールドには、センサ306、308のうちの少なくとも1つにより取得された画像データに基いて、複数の要素の存在が反映されている。更なる例として、共通の対象フィールドに表現される要素の少なくとも1つは、物理的に、他の要素からリモートの場所に位置しているリモートの要素であり得る。プロセッサ310、312は、共通の対象フィールドを、ディスプレイ302、304のうちの少なくとも1つ上に表現する/出力するように構成されることも可能である。一例として、プロセッサ310、312は、リモートのユーザー及びローカルのユーザーが共通の対象フィールドにおいてインタラクションするのを表現することができる。更なる例として、リモートの要素の存在は、ローカルのユーザーに対してリアルタイムで表現されることができ、且つローカルの要素の存在は、リモートのユーザーにリアルタイムで表現されることができる。
図4Aは、プロセッサ310、312の少なくとも1つを用いて実行され得る例示的処理400を示す。他のプロセッサ及び/又はコンピューティングデバイスを、処理400を実行するために用いることができる。工程402では、動きが決定される。一例として、複数の画像が、フレームのシーケンスとして表現されることができる。更なる例として、画像に表現された要素及び/又は主体の動きが、第1フレームから第2フレームへと決定されることができる。1つの態様においては、第1フレームは現行フレームであり、且つ第2フレームは、一連の画像又は画像のシーケンスのフレームの中の先行フレームであり得る。
1つの態様においては、複数の画像又はフレームによって表現される動きが、動き推定アルゴリズム(例えば、ブロックマッチングアルゴリズム)を用いて、決定され得る(例えば、計算され、推定され、読み出され得る)。動き推定アルゴリズムは、冗長な動画データの送信を省くために、ストリーミング動画技術においても用いることが可能である。一例として、エンコーダが、現行画像内のピクセル領域と先行する参照画像内のピクセル領域との間の類似性を検討することで、先行する参照フレームに対する現行フレーム内の動きを推定することができる。他の例として、位相相関法、オプティカルフロー法、及びベイズ推定法を、動きの推定を実行するために用いることができる。更なる例として、統計関数を、動きの推定を実行するために用いることができる。
工程404において、不確実性因子が決定される。1つの態様においては、不確実性因子は、工程402で決定された動きに基いている。一例として、不確実性因子は、任意のピクセル、対象物、主体、要素等の位置に関する不確実性に影響を及ぼし得る、値、測定値、外挿、データ点、又はその他の側面であり得る。更なる例として、不確実性因子は、ネットワーク遅延、ジッター、ローカルの遅延、処理に伴う遅延、フレーム遅延、許容できる誤差、及び公差のうちの1つ以上を含み得る。
工程406において、不確実性要素が生成され得る。1つの態様においては、不確実性要素は、工程402で決定された動きと、工程404で決定された、1つ又は複数の不確実性因子とのうちの1つ以上に基いて生成され得る。一例として、不確実性要素は、デバイス及び/又はユーザーに対して、(例えば、送信される、提示される等)表現されることができる。更なる例として、不確実性要素は、聴覚的、視覚的及び/又は触覚的フィードバックとして、ユーザーに対して表現されることができる。
一例として、図4Bは、動きの推定のための例示的処理を示す。その他の動きの推定のための技術及び/又はアルゴリズムを用いることもできる。工程408において、画像領域が決定され得る。一例として、画像領域は、H.263又はH.264のような動画圧縮規格において規定されている標準的寸法のマクロブロックであり得る。他の例として、画像(例えば、第1画像又はフレーム)内で任意のサイズのエリアを選択することで画像領域が決定され得る。更なる例として、画像領域は、ユーザーによって提供される入力により決定され得る。
工程410において、ステップサイズが決定され得る。一例として、ステップサイズは、1つ以上の画像の内容のコンテクストに依存する数値であり得る。更なる例として、ステップサイズが大きければ大きいほど、動きの推定がより正確になる。工程412において、第1フレーム内の画像領域が、第2フレーム内の画像領域と比較され得る。一例として、第1フレーム内の画像領域に対応するように位置している第2フレーム内の画像領域が、第1フレーム内の画像領域と比較するために検討され得る。他の例として、第2フレーム内の画像領域から前記ステップサイズの距離にある、第2フレーム内の8つの画像領域が、第1フレーム内の画像領域と比較するために検討され得る。
1つの態様においては、輝度を画像領域間で比較するのを実行するために費用関数が採用され得る。他の例として、色を画像領域間で比較するのを実行するために費用関数を用いることができる。1つの例示的態様において、費用関数は、平均絶対差(MAD)であり得る。他の態様において、費用関数は、平均二乗差(MSD)であり得る。更なる態様において、費用関数は相互相関関数であり得る。工程414において、費用関数は最小化され得る。一例として、費用関数の最小化は、比較のための新たな中心点を選択することを含み得る。
工程416において、ステップサイズを減少させ得る。一例として、ステップサイズから1を引くことにより、ステップサイズを減少させ得る。他の例として、ステップサイズを半分にすることにより、ステップサイズを減少させ得る。工程418において、ステップサイズは、条件付きロジック(例えば、IF/THEN構文)によりチェックされ得る。1つの例示的態様において、もしステップサイズが1より大きいならば、処理は工程410に戻り、もし大きくないないならば、処理は工程420に進む。
工程420において、動きベクトルが生成され得る。1つの態様においては、動きベクトルは、複数のフレーム又は画像にわたる画像領域の推定される動きの表現を可能にする。一例として、動きベクトルは、現行フレーム内の画像領域から先行フレーム内の画像領域の中心点に、費用関数の出力によって決定されるように、歪みを最小として生成することができる。他の例として、動きベクトルは、先行フレーム内の画像領域から、現行フレーム内の画像領域の中心点に、費用関数の出力によって決定されるように、歪みを最小として生成することができる。更なる例として、動きベクトルは、画像内の画像領域ごとに、又は画像の部分ごとに生成することができ、こうして生成された動きベクトルをまとめたものは、ベクトルマップと呼ぶことができる。1つの態様においては、動きベクトルを、(例えば、反転する、除算する、乗算する等)変換させることができ、及び/又は、動きによる不確実性を表現するために視覚化の技術に適用することができる。動きベクトルによって表現される動き及び不確実性を推定し、及び/又は視覚化するために動きベクトルを処理するために、さまざまな技術を用いることが可能である。
図4Aを再び参照して、工程404において、不確実性因子が決定され得る。1つの態様においては、不確実性因子は、工程402において決定された動きに基き得る。一例として、不確実性因子は、任意のピクセル、対象物、主体、要素等の位置に関する不確実性に影響を及ぼし得る、値、測定値、外挿、データ点、又はその他の側面であり得る。更なる例として、不確実性因子は、ネットワーク遅延、ジッター、ローカルの遅延、処理に伴う遅延、フレーム遅延、許容できる誤差、及び公差のうちの1つ以上を含み得る。
例示的な一例として、図4Cは、不確実性因子を決定するための方法を示す。工程426において、ネットワーク遅延が決定され得る。一例として、ネットワーク遅延値を、外部のデバイス(例えば、ハードウェアコーデック)から読み出す(例えば、サンプリングする)ことができる。他の例として、ネットワーク遅延を、ソフトウェアプログラムからサンプリングすることができる。更なる例として、ネットワーク遅延は、あらかじめ決められた時間的期間(例えば、1秒)に基いて、繰り返しサンプリングされ得る。追加的な例として、ネットワーク遅延は、ある時間的期間にわたって観測された遅延のローリング平均値をとることにより読み出すことができる。1つの態様においては、ネットワーク遅延は、ジッターを含み得る。
工程428において、ローカルの遅延(例えば、キャプチャ、処理、描画サイクル)が決定され得る。1つの態様においては、1つ以上の画像(例えば、複数の画像のフレーム)に、それがキャプチャされた瞬間から表示された瞬間に至るまで、タイムスタンプをつけることができる。他の態様において、ローカルの遅延は、プロセッサ310、312(図3参照)から、繰り返しサンプリングされることができる。したがって、1つ以上のフレーム及び/又は画像のキャプチャから表示に至るまでの差を、ローカルの遅延として定義することができる。
工程430において、工程426で決定されたネットワーク遅延及び工程428で決定されたローカルの遅延の1つ以上に基いて、不確実性因子を決定することができる。一例として、不確実性因子は、ネットワーク遅延及びローカルの遅延のうちの1つ以上を含む、累積的又は合計の遅延を含むことができる。更なる例として、不確実性因子は、加算遅延及び/又は平均遅延及び/又はジッターにより、平均値よりも標準偏差で1大きく決定される最悪の場合の遅延値を含むことができる。
例示的な一例として、図4Dは、不確実性因子を決定するための方法を示す。工程432において、正確値を決定することができる。1つの態様においては、正確値は、あらかじめ決定された許容できる誤差を含むことができる。一例として、正確値は、ユーザーが提供する許容できる誤差(例えば、ピクセルの数)を含むことができる。正確値は、コンテクストに依存するようにすることができる。その際、正確値が低ければ低いほど、表現された画像が不正確になる。1つの態様においては、正確値は、ベクトルマップ内の1つ以上の動きベクトルによって乗算することが可能なスカラー量である。他の態様において、ユーザーが提供する許容できる誤差は、ベクトルマップ内の1つ以上の動きベクトルによって乗算することが可能なスカラー量である。工程434において、正確値、ネットワーク遅延、ジッター及びローカルの遅延の1つ以上に基いて不確実性因子は決定され得る。
図4Aを再び参照して、工程406において、不確実性要素を生成することができる。1つの態様においては、不確実性要素は、工程402で決定された動き及び工程404で決定された1つ又は複数の不確実性因子の1つ以上に基いて生成され得る。
例示的な一例として、図4Eは、不確実性要素を生成するための方法を示す。工程436において、不確実性領域(例えば、複数のピクセル、又は、画像内の1つの要素、対象物、主体の周囲の少なくとも一部を囲むピクセルの領域)が生成され得る。一例として、不確実性要素を、不確実性領域として視覚化することができる。1つの態様においては、不確実性領域は、動きベクトル及び変換された動きベクトル(例えば、工程420で生成された動きベクトルの反転)の1つ以上から実質的に推定されている1つ以上のピクセルであり得る。一例として、不確実性領域のサイズは、遅延値に基き得る。更なる例として、不確実性領域のサイズはベクトルの大きさに比例する。更なる例として、不確実性領域のサイズは正確値に比例する。追加的な例として、不確実性領域のサイズは、許容できる誤差に比例する。
1つの態様においては、不確実性要素は、不確実性のレベルをユーザーに伝えるインジケータ又はグラフィックを含み得る。一例として、インジケータは、メータ、ゲージ、又は目盛り、色のスペクトラム、不確実性の定量的な表現(例えば、不確実性因子)及び/又は遅延の定量的な表現(例えば、不確実性因子)であり得る。他の例として、他の視覚化方法が用いられない場合に、インジケータを視覚化として表現することができる。更なる例として、画像内の不確実性を、反応的な要素(例えば、過去の位置及び/又は動きについての不確実性)として、又は予言的要素(例えば、未来の位置及び/又は動きについての不確実性)として、インジケータは表現することができる。1つの態様においては、ベクトルマップ内の、(例えば、工程404に由来する)不確実性因子により増減させた1つ以上のベクトルの大きさを合算したものが時間とともに変化するのを、インジケータは反映することができる。他の態様において、1つ以上のフレーム又は画像に対する動きの総計が変化するのを、インジケータは反映することができる。
工程438において、視覚化したものを表現することができる。1つの態様においては、視覚化したものは、不確実性要素を表現することができる。一例として、視覚化したものは、ピクセルに着色をしたもの、アイコン、インジケータ、及び/又はピクセルをぼかしたものを含むことができる。他の例として、視覚化を実行するために、オープングラフィックスライブラリ(OpenGL)のようなソフトウェアを用いることができる。更なる例として、フレーム又は画像の一部分(例えば、多角形)に、視覚化されたものを表現することができる。
例示的な一例として、図4Fは不確実性因子を決定するための方法を示す。工程440において、遅延値が決定され得る。一例として、遅延値は、ネットワーク遅延、ローカルの遅延、及びジッターの1つ以上を含み得る。更なる例として、外部のデバイス又はプログラム(例えば、コーデック)から、ネットワーク遅延値を読み出す(例えば、サンプリングする)ことができる。更なる例として、ネットワーク遅延は、あらかじめ決められた時間的期間(例えば、1秒)に基いて、繰り返しサンプリングされ得る。1つの態様においては、ネットワーク遅延は、ある時間的期間にわたって観測された遅延のローリング平均値をとることにより読み出すことができる。1つの態様においては、ネットワーク遅延は、ジッターを含み得る。1つの態様においては、ローカルの遅延(例えば、キャプチャ、処理、描画サイクル)が決定され得る。1つの態様においては、1つ以上の画像(例えば、複数の画像のフレーム)に、それがキャプチャされた瞬間から表示された瞬間に至るまで、タイムスタンプをつけることができる。
工程442において、フレームオフセット又は遅延オフセットが決定され得る。一例として、フレーム遅延は、ローカルの遅延及びネットワーク遅延の1つ以上に基いたフレームオフセットにより、定義され得る。更なる例として、フレームオフセットは、総遅延を、表現される画像を表現するレート(例えば、毎秒のフレーム数)で乗算することで決定され得る。工程444において、フレーム又は画像が配置される。例示的な一例として、図4Gは、(例えば、システムメモリ1512に格納されているような)一連のフレーム又はフレームのシーケンスを示す。典型的には、フレームは時間軸Rに対して処理される。一例として、複数の画像が、フレームX、Y、Z、及びUのシーケンスとして表現されることができる。更なる例として、フレームのそれぞれが、タイムスタンプA、B、C、及びD、並びに逐次的フレーム識別子E、F、G、及びHのような識別子を含み得る。1つの態様においては、第1フレームは現行フレームUであり、且つ第2フレームXは、一連の画像又は画像のシーケンスのフレームの中の先行フレームであり得る。1つの態様においては、フレームオフセットLは、フレームUのフレーム識別子Hからフレームオフセットを減算することによって、現在表現されている画像Uに対して、先行画像Xを配置するために用いることができる。他の態様において、現在表現されている画像U(例えば、フレーム)のタイムスタンプから画像Xのタイムスタンプを減算することによって、フレーム遅延Nが決定され得る。
再び図4Fを参照して、工程446において、不確実性要素が生成され得る。1つの態様においては、不確実性要素は、工程444でその配置位置を決定したフレームを表現することを含み得る。一例として、その配置位置を決められたフレームは、ローカルの画像とマージすることができる。1つの態様においては、不確実性要素は、配置位置を決められたフレームの、重ねられた画像又は薄像化した画像を含むことができる。一例として、薄像化した画像は、ローカルの画像とマージされた、処理済のイメージであり得る。
1つの態様においては、薄像化した画像の不透明度は変化することができる。例えば、薄像化した画像の不透明度は、図4Hに示したグラフに基いて変化し得る。図4Hに示すように、現在表現されている画像フレームUの不透明度を、1にセットしてもよい。先行フレームY、Zの不透明度は、直線的に減少していてよく、且つその後、配置位置を決められたフレームXに向かって増加していてよい。しかし、薄像化した画像の不透明度は、任意の関数に基いて、又は任意のグラフに沿って変化させることができる。
例示的な一例として、図4Iに示すように、視覚化したものは、ユーザーがペン、その他の対象物、又は道具を動かしているのを表現することができる。したがって、現在表現されているフレーム448を、先行フレーム448’からの動きアーチファクトにより、薄像化することができ、ユーザーが、リモートのユーザーにより現在見られていて、反応されているフレームを視覚化することを、効果的に可能にする。更なる例として、現在表現されているフレーム448と先行フレーム448’との間のフレームのシーケンスを薄像化することができる。先行するフレーム448’に示されるように、ペン452を持っているユーザーの右手450が、手術野454で、切開の計画をしている。リモートのユーザー456が、指示を出している。現在表現されているフレーム448においては、ペン452を持っているユーザーの右手450が、動き出すが、動きアーチファクト458、459は、リモートのユーザーにより現在見られているフレームを視覚化するのを可能にする。このことで、現在反応されていることと現在起こっていることとの間の相違について、ユーザーに対し警告を発するのが可能になっている。1つの態様においては、視覚化には、不確実性の対象物を表現するピクセル又は不確実性の対象物の近くにあるエリアを表現するピクセルをぼかすことが含まれ得る。一例として、現在表現されている画像があるレベルの不確実性を含んだものであることを視覚的に表現するために、着色又は警告色を用いることができる。
例示的な一例として、図4Jは、双方向キャプチャ、処理、及び画像のディスプレイ(例えば、ディスプレイ302、304(図3参照))上への表現を示す。典型的には、フレームは時間軸460に対して処理をされる。第1フレーム462は、(例えば、センサ306によりキャプチャされ、ディスプレイ302上に視覚化される)要素464を有するように、図示されている。第2フレーム466は、(例えば、センサ308によりキャプチャされ、ディスプレイ304上に視覚化される)要素468を有するように、図示されている。要素464が垂直下向きの動きにそって動くにつれて、第1フレーム462の薄像469(例えば、工程446に由来する)が、第3フレーム462’内(例えば、ディスプレイ302上に)視覚化されることができるまた、要素468は、(例えば、工程436由来の)不確実性領域470とともに表現されることができる。
1つのディスプレイ(例えば、ディスプレイ304)上には、要素468が、第2フレーム466内に示されている。要素468が左に動くにつれて、第2フレーム466の(例えば、工程446由来の)薄像472が、第4フレーム466’上に(例えば、ディスプレイ304上に)、視覚化されることができる。また、要素464は、第4フレーム466’内に、不確実性領域474(例えば、工程436由来)とともに表現されることができる。
1つの態様においては、図4Jに図示された例が、リモートのユーザーにより反応させられているセンサ306、308によってキャプチャされたローカルの画像を、ディスプレイ302、304のビューワーが視覚化することを可能にする。更に、図4Jに図示された例が、リモートのセンサ306、308によりキャプチャされている現行の画像の推定をディスプレイ302、304のビューワーが見ることを可能にする。このようにして、ローカルの及びネットワーク遅延の効果は、ビューワーの視点からは減少し得る。
図5は、例示的仮想プレゼンスシステムを示す。そのようなシステムの1つは、同一のセッションに参加するそれぞれのリモートの参加者により使用されることができる。それぞれのシステムは、ネットワーク接続を通じて互いに通信可能になっている。例えばリモートの場所どうしは、インターネットを通じて接続されることができる。それぞれのシステム内の複数のコンピュータ間で、タスクを分割処理することができる。例えば、1つのコンピュータ(グラフィックサーバ)が、ローカルのカメラから画像を収集し、ネットワークサーバが、立体画像合成のタスクを実行し、ローカルの立体ディスプレイシステムを駆動するようにすることができる。更なる例として、システム300の、1つ又は複数のプロセッサ310は、グラフィックサーバによって具現化されることができる。
図6は、グラフィックサーバを用いて実行できる例示的処理を示す。画像は、ローカルのデータ構造(フレームリング)に収集されることができる。ローカルの画像は、複数のカメラ、例えば2つのカメラから収集されることができる。リモートの画像は、例えば高速のリモートダイレクトメモリアクセス(RDMA)接続を介して、ネットワークサーバによって提供されることができる。これらの画像は、リモートのユーザー及びローカルのユーザーが(図3にあるように)同じシーンの中に見えるように組み合わされることができる。この合成された画像は、ローカルの立体ディスプレイシステムに送信されることができる。第2のコンピュータが、ネットワークサーバとして動作することができるが、当該ネットワークサーバは、例えば、ネットワークの符号化/復号化のタスク、及び深度マップ生成等を実行することができる。
図7は、ネットワークサーバを用いて実行できる例示的処理を示す。グラフィックサーバから、リモートダイレクトメモリアクセス接続を介して収集されたローカルの画像は、解析され、深度情報でマッピングされ、効率的なネットワーク送信のために符号化され、リモートの場所に存在する対応するネットワークサーバによって受信されるように、外部のネットワーク接続に送信されることができる。同時に、リモートの場所から送られてくる符号化された画像及び深度マップが受信され、復号化され、リモートダイレクトメモリアクセス接続を介して、ローカルのグラフィックサーバに提供されることができる。
システムは、ネットワークサーバに接続された制御用端末で、ユーザーにより制御されることができるが、ユーザーは、ネットワークサーバへの専用のネットワーク接続を介して、グラフィックサーバにアクセスし、それを制御することができる。
仮想インタラクティブプレゼンスのパラメータは、使用されるシステムに依存して異なるように構成されることができる。構成可能なパラメータには、仮想的な要素のサイズ、仮想的な要素の存在のあり方(不透明、半透明等)、仮想プレゼンスの時間(時間は、遅延させる、遅くさせる、速くさせる等に構成され得る)、仮想的要素と現実の要素の任意の組み合わせが重ね合わされることができて、及び/又は互いに上下に「適合」させられるような要素の重ね合わせ、等が含まれるが、それらに限られない。
図8は、例示的VIPディスプレイの側面図を示す。図9は、ユーザーから見た例示的VIPディスプレイの図を示す。図10は、ユーザーから見た例示的VIPディスプレイの図を示す。
本明細書において用いる「ローカルの」対象フィールドという用語は、ローカルの物理的フィールド及びローカルのユーザーを指すことができ、その結果、他のすべてのフィールドはリモートのフィールドということになる。それぞれのフィールドは、そのローカルな物理的ユーザーにとってローカルである一方、他のユーザーにとってはリモートのフィールドである。これらの複数のフィールドを合成したものが、共通の対象フィールドとなり得る。これは、共通の「仮想的な世界」というものとは、共通の対象フィールドのローカルな表現内に「現実的」な構成要素が存在することが可能であるという点、及び、インタラクションが、ユーザーや対象物を表現したグラフィックアバター間でのみ可能というのではなく、物理的対象物を動画(及びその他の)表現したものの間で可能であるという点で、異なっている。提供される方法及びシステムは、仮想インタラクティブプレゼンスが、現実の及び仮想的な構成要素のインタープレイによって、物理的領域を変更/最適化することを可能にする。
図11に図示される1つの態様においては、仮想インタラクティブプレゼンスのための方法が提供されるが、当該方法は、リモートのユーザー及びローカルのユーザーの物理的プレゼンスを反映する共通の対象フィールドを表現すること(工程1101)と、共通の対象フィールドにおけるリモートのユーザー及びローカルのユーザーのインタラクションを表現すること(工程1102)と、リモートのユーザーのプレゼンスがローカルのユーザーに対してリアルタイムで表現され、ローカルのユーザーのプレゼンスが、リモートのユーザーに対してリアルタイムで表現されるように共通の対象フィールドを継続的に更新すること(工程1103)と、を含む。
リモートのユーザーが、当該共通の対象フィールドをローカルのユーザーと同様に体験できるように、共通の対象フィールドは表現されることができる。ローカルのユーザーは、共通の対象フィールドにおいて、リモートのユーザーと継続的にインタラクションが可能になるように、リモートのユーザーの物理的なプレゼンスを体験することができる。上記方法は、ローカルの対象物の物理的プレゼンスを共通のフィールド内に表現することと、ローカルのユーザーとローカルの対象物との間の共通のフィールドにおけるインタラクションを表現することと、をさらに含むことができる。上記方法は、ローカルの対象物の物理的プレゼンスを共通の対象フィールドにおいて表現することと、リモートのユーザーとローカルの対象物との間の共通の対象フィールドにおけるインタラクションを表現することと、をさらに含むことができる。
図12に図示される他の態様においては、仮想インタラクティブプレゼンスのための方法が提供されるが、当該方法は、ローカルの対象物、当該ローカルの対象物の3次元イメージ、及びローカルのユーザーの物理的プレゼンスを反映するローカルの対象フィールドを表現すること(工程1201)と、ローカルの対象フィールドにおけるローカルの対象物、3次元画像、及びローカルのユーザーのインタラクションを表現すること(工程1202)と、ローカルの対象物及び当該ローカルの対象物の3次元画像のプレゼンスがローカルのユーザーに対してリアルタイムで表現されるようにローカルの対象フィールドを継続的に更新すること(工程1203)と、を含む。
ローカルの対象物は、例えば、患者であり、ローカルの対象物の3次元画像は、例えば、当該患者の一部の医学的画像であり得る。しかしながら、ローカルの対象物は、任意の対象物であり、ローカルの対象物の画像は、当該対象物を正確に表現した任意のものであり得る。例えば、ローカルの対象物は、自動車用のエンジンであり、ローカルの対象物の画像は、当該の3Dグラフィック等であり得る。
医学的画像は、例えば、レントゲン画像、MRI画像、又はCT画像であり得る。上記方法は、ローカルのユーザーによって、3次元画像をローカルの対象物の上に重ね合わせることをさらに含むことができる。この重ね合わせは、コンピュータによって自動的に実行されることができる。
上記方法は、ローカルのユーザーによって、3次元画像の属性を調節することをさらに含むことができる。そのような属性は、透明度、空間的位置、及び縮尺のうちの1つ以上であり得る。
上記方法は、ローカルの道具をローカルの対象フィールドに表現することをさらに含むことができる。上記方法は、ローカルの道具を、ローカルの対象物を表現したものと正確な空間的関係で表現することをさらに含むことができる。上記道具は、例えば、外科手術用器具のような、任意のタイプの道具であり得る。
他の態様において、仮想的なプレゼンスのためのシステムが提供されるが、当該システムは:共通の対象フィールドを表示するように構成されている仮想プレゼンスディスプレイと;ローカルの仮想プレゼンスデータを取得するように構成されているローカルのセンサと;ローカルの仮想プレゼンスデータを送信し、リモートの仮想プレゼンスデータを受信するように構成されているネットワークインターフェイスと;仮想プレゼンスディスプレイ、ローカルのセンサ、及びネットワークインターフェイスに結合されているプロセッサと、を含む。当該システムにおいて、プロセッサは:リモートのユーザー及びローカルのユーザーの物理的プレゼンスを、ローカルの仮想プレゼンスデータ及びリモートの仮想プレゼンスデータに基いて反映する共通の対象フィールドを表現することと;リモートのユーザー及びローカルのユーザー間の、共通の対象フィールドにおけるインタラクションを表現することと;リモートのユーザーのプレゼンスが、ローカルのユーザーに対してリアルタイムで表現され、ローカルのユーザーのプレゼンスが、リモートのユーザーに対してリアルタイムで表現されるように、共通の対象フィールドを継続的に更新することと;及び共通の対象フィールドを仮想プレゼンスディスプレイに出力することと、を含む諸工程を実行するように構成されている。
仮想プレゼンスディスプレイは、立体視ディスプレイ、及び(CRT、LCD等のような)平面視ディスプレイ等の1つ以上であり得る。センサは、カメラ、赤外線センサ、深度スキャンセンサ等の1つ以上であり得る。リモートのユーザーが、当該共通の対象フィールドをローカルのユーザーと同様に体験できるように、共通の対象フィールドは表現されることができる。ローカルのユーザーは、共通の対象フィールドにおいて、リモートのユーザーと継続的にインタラクションが可能になるように、リモートのユーザーの物理的なプレゼンスを体験することができる。
プロセッサは、共通の対象フィールドにローカルの対象物の物理的プレゼンスを表現することと、共通の対象フィールドにおける、ローカルのユーザー及びローカルの対象物のインタラクションを表現することと、を含む諸工程を実行するようにさらに構成され得る。
プロセッサは、共通の対象フィールドにローカルの対象物の物理的プレゼンスを表現することと、共通の対象フィールドにおける、リモートのユーザー及びローカルの対象物のインタラクションを表現することと、を含む諸工程を実行するようにさらに構成され得る。
仮想的なプレゼンスのためのシステムが更に提供されるが、当該システムは:ローカルの対象フィールドを表示するように構成されている仮想プレゼンスディスプレイと;ローカルの仮想プレゼンスデータを取得するように構成されているローカルのセンサと;仮想プレゼンスディスプレイ及びローカルのセンサに結合されているプロセッサと、を含む。当該システムにおいてプロセッサは:ローカルの対象物及びローカルのユーザーの物理的プレゼンスを、ローカルの仮想プレゼンスデータ及びローカルの対象物の3次元画像に基いて反映するローカルの対象フィールドを表現することと;ローカルの対象物、3次元画像、及びローカルのユーザーの間の、ローカルの対象フィールドにおけるインタラクションを表現することと;ローカルの対象物のプレゼンス及びローカルの対象物の3次元画像が、ローカルのユーザーに対してリアルタイムで表現されるように、ローカルの対象フィールドを継続的に更新することと;及び、ローカルの対象フィールドを仮想プレゼンスディスプレイに出力することと、を含む諸工程を実行するように構成されている。
仮想プレゼンスディスプレイは、立体視ディスプレイ、及び(CRT、LCD等のような)平面視ディスプレイ等の1つ以上であり得る。センサは、カメラ、赤外線センサ、深度スキャンセンサ等の1つ以上であり得る。
ローカルの対象物は、例えば、患者であり、ローカルの対象物の3次元画像は、例えば、当該患者の一部の医学的画像であり得る。医学的画像は、例えば、レントゲン画像、MRI画像、又はCT画像であり得る。しかしながら、ローカルの対象物は、任意の対象物であり、ローカルの対象物の画像は、当該対象物を正確に表現した任意のものであり得る。例えば、ローカルの対象物は、自動車用のエンジンであり、ローカルの対象物の画像は、当該の3Dグラフィック等であり得る。
プロセッサは、ローカルのユーザーにより、3次元画像をローカルの対象物上に重ね合わせることを含む諸工程を実行するよう更に構成されることができる。プロセッサは、ローカルのユーザーにより、3次元画像の属性を調節することを含む諸工程を実行するよう更に構成されることができる。そのような属性は、透明度、空間的位置、及び縮尺のうちの1つ以上であり得る。
プロセッサは、ローカルの道具をローカルの対象フィールドに表現することを含む諸工程を実行するように、更に構成されることができる。プロセッサは、ローカルの道具を、表現されるローカルの対象物との間で正確な空間的関係になっているように表現することを含む諸工程を実行するように、更に構成されることができる。
開示される方法及びシステムは、幅広い用途を持ち得る。例えば、外科手術、ゲーム、機械工学、軍需品、戦場でのプレゼンス、教育的業務(訓練)、及び/又はその他の状況で、インタラクションがそのシナリオの一部になっているもの、があげられる。
また、リモートのエキスパートがローカルの手術野内に仮想的に存在するのを可能にする方法及びシステムも開示されている。仮想インタラクティブプレゼンスは、互いにリモートの位置にある2人の外科医が、1件の外科手術をインタラクティブに実行するのを可能にするために用いられ得る。当該方法及びシステムは、2人以上の手術医が仮想的かつインタラクション可能に、同じ現実の術野に存在することを可能にし、リモートからの支援を行い、外科的専門知識・技術をエクスポートできるようにする。
上記方法及びシステムは、助言的及び指導的目的で、手術に関する解剖学的構造の撮像データを、解剖学的構造そのものの上に重ね合わせるためにも用いることができる(拡張現実)。上記方法及びシステムは、学生の訓練目的で用いることができる。上記方法及びシステムは、ロボットの操作者を指導するために、エキスパートをロボット運用のフィールドに仮想的に連れてくることで、ロボット工学の分野を、拡張し、増大させる。上記方法及びシステムは、エキスパートの手を直接に、内視鏡手術のフィールドに、ガイダンス目的で挿入することで、内視鏡手術に適用可能である。上記方法及びシステムは、リモートのエキスパートの支援を、急患を扱える基本的技術を有する一方で、仮想的なインタラクションから学ぶことがあるような実際のローカルの執刀医に対して提供することで、リモートの外科手術を拡大する。上記方法及びシステムは、救急的外傷治療の現場及びその他の医学的環境において用いることができる。上記方法及びシステムは、リモートの支援を、工学、建設、建築等をはじめとするその他の分野において提供するために用いることができる。開示される方法及びシステムは、専門知識・技能を、リモートの「それを必要としている場所」に伝え、現代の撮像を直接手術野にマージし、外科の学生を訓練するために用いることができる。
リモートの執刀医を指導し支援する目的で、ローカルのエキスパートの手術の手技をリモートの執刀医に伝えるための例示的リモートの外科手術支援システムが、図13に示されている。リモートの執刀医は、両眼用の動画システムを用いて、リモートの手術野を見ることができる。上記動画システムは、手術野を、手術を行っている執刀医の手及び器具とともに映し出すことができる。映し出されたものを見るためのシステムは、手術用ビデオスコープと呼ぶことができる。
リモートの手術野を両眼用の動画で表現したものは、ローカルのエキスパートに送信され、ローカルのエキスパートは、手術を(今度は仮想的な)立体的に表現したものを、別の手術用ビデオスコープシステムを介して見ることができる。ローカルのエキスパートは、その手を仮想的な手術野に挿入することができ、そうすることで自身の現実の手を、仮想的なフィールド内で見ることができる。
ローカルのエキスパートの手を映した動画像は、リモートの執刀医の手術用ビデオスコープシステムに送り返されて、現実の手術野に重ね合わされる。するとリモートの執刀医は、その手術野内に、空間的/解剖学的に関連性のあるコンテクストで、エキスパートの仮想的な手を見ることができる。このシステムを用いると、ローカルのエキスパートは自らの手を使って、リモートの執刀医にどのようにして手術を執り行うかを示すことができる。
上記システムの例示的要素には、リモートの執刀医が手術を実行できるリモートのステーションと、例えば、据え付け型の顕微鏡に似た固定式立体ビデオスコープからなるリモートの手術用ビデオスコープシステムと、が含まれ得る。この装置は、リモートの執刀医が術野を見るために使用できる。任意の他のタイプの好適なVIPディスプレイを用いることができる。上記システムは、両眼用の動画像を、ローカルのステーションにある同様のローカルの手術用ビデオスコープに映し出すことができる。上記ローカルの手術用ビデオスコープは、リモートの手術の両眼用動画像を受信することができ、且つローカルのエキスパートがそれを見ることを可能にする。ローカルのビデオスコープは、ローカルの執刀医の手が、ローカルのビデオスコープを通して見た仮想的なリモートの術野内を動く様子を見ることができる。次に、ローカルのビデオスコープは、リモートの執刀医が、エキスパートの仮想的な手を現実の術野内で見ることができるように、ローカルのエキスパートの手をリモートのビデオスコープに送信することができる。
本システムを用いれば、ローカルのエキスパートはリモートの執刀医に、手術を成功裏に完了できるようにする適切な手技を見せることができる。リモートの執刀医は、新しい手術を執り行うための基本的な技能を有していることができる。それゆえ、ローカルのエキスパートは、リモートの執刀医に対して、その技能のセットを適用するための新しい方法を見せればよい。上記システムは、リモートの執刀医にとって代わる必要はないが、その能力を高めるために用いることができる。リモートの執刀医は、どのような緊急手術にも対処できるように待機していることができるようになる。時間的遅延は最小化される。それは、リモートの執刀医が自らの手でタスクを実行でき、ローカルのエキスパートがリモートのロボット装置を走査する必要がなくなるためである。
また、現代の医学的撮像を術野にマージするための方法及びシステムも開示される。術野の3次元画像を取得することができる。例えば、頭部の3次元MRIを、手術の前に取得できる。画像データを再構成して、解剖学的構造の3次元表現を作ることができる。この表現は、術野を見るために用いられる手術用ビデオスコープに送ることができる。ビデオスコープを通じて、執刀医は、この半透明の、手術野に重ね合わされた3D表現を見ることができる。この場合、執刀医は、現実の頭部に重ね合わされた、表現された頭部をみることになる。手術用ビデオスコープインターフェイス内のソフトウェアツールを用いて、執刀医は表現された画像が現実の頭部に「フィット」するまで、回転させたり拡大縮小させたりすることができる。上記ビデオスコープシステムでは、執刀医が表現された頭部と現実の頭部とを別々にフェードさせることができるので、執刀医が現実の頭部の「中を見る」ことができ、手術を計画することができる。
上記システムの例示的要素は、執刀医がそれを通して手術野を見る手術用ビデオスコープビューイングシステムを含むことができる。3次元的に取得されたMRI/CT(又はその他の)画像を、実際の外科用解剖学的構造に合わせることができるようにするのに十分な解像度で再構成するためのコンピュータも含まれ得る。3次元の表現された画像は、執刀医がその画像を立体的に見ることができるように、ビデオスコープシステムを通じて表示されることができる。表現された解剖学的構造が、現実の解剖学的構造に重ね合わされることができるように、ソフトウェアインターフェイスが執刀医に、表現された解剖学的構造と現実の解剖学的構造との半透明性を変えることを可能にする。執刀医は、表現された解剖学的構造を「開く」ことができ、そうすることで画像の任意の/すべての内部の詳細をみることができるが、画像の詳細部分は、現実の解剖学的構造に関連している。手術用の道具は、表現された解剖学的構造に対して空間的に登録されることができる。そうすることで、その動きが追跡でき、画像に適用できるようになっている。
図14に示すように、そのようなタスクの1つの例は、小さな対象物を、執刀医には見えなくなるように暗色のゼラチンの瓶の中に置くことがある。当該タスクは、執刀医が長い鉗子をゼラチンの中に到達させて、対象物に触れる又は掴むというものである。手術用ビデオスコープシステムが、ゼラチン入りの瓶の3次元スキャンを取得し、瓶を3次元で表現し、ビデオスコープを通じて両眼用の表現を表示することができる。執刀医は、その表現及び現実の瓶を、スコープシステムを通して見て、表現された瓶を現実の瓶の上にフィットさせることができる。それぞれの半透明性を調節することにより、執刀医は鉗子を現実の瓶の内部に到達させ、他の指定された対象物を回避しながら、選択された対象物を掴むことができる。
掴むための道具は、手術野の3次元表現に、空間的に登録されることができるが、そうすることで、道具のグラフィックが、適切な解剖学的向きになった手術野の表現内に表示されるのを可能にする。これにより、ガイダンスの向上が可能になる。これは現実の対象物(瓶)の指定された目標物を、画像表現システムと通信可能になっているデジタイザで触れ、対象物と探針の関係を定義することにより実現できる。対象物(瓶)は、瓶の画像に重ね合わされることで登録されているので、探針のグラフィックは、瓶の画像と関連させて表示されることができ、仮想的な外科手術が可能になる。
本システムが使用できる状況は多数ある。例えばリモートの外科手術、医学的訓練、及び、遠隔医療等があり、遠隔医療は途上国や軍事的状況下で用いられ得る。患者から遠くにいる執刀医は、患者の近くにいる他の執刀医を支援することができ、患者近くの衛生兵を支援することができ、且つロボット外科手術システムとともに用いれば、外科手術を行うこともできる。他の例としては、通常の外科手術で仮想的な環境を用いる、拡張的又は強化された外科手術があり、そうしたものの一例は、内視鏡手術である。外科手術を、シミュレーションすることも可能である。互いに離れた場所にいる複数の執刀医が、実際に現実の患者に対して手術を行う前に、その手順を練習することが可能である。
その他の用途としては、外科手術前に患者の準備、内科的治療、予防的治療、疑似体験療法、恐怖感を減らすこと、障害のある人の訓練、及び技能向上等があげられる。
ビューワーは、受動立体偏光眼鏡(サングラスに似たもの)を介して、映し出されたものを見る。受動立体偏光眼鏡は、左目用の画像を左目に、且つ右目用の画像を右目に導くものである。これは正しくオフセットされた画像が、ソフトウェアにより適切に表現されれば、立体視の錯覚を与える。上記システムは、システムに機能的な損害を与えないその他のタイプの立体視ディスプレイによって置き換えられてもよい。立体視ディスプレイは、少なくとも2つのディスプレイプロジェクタに偏光レンズを装着したものと、光が拡散される際に偏光されるのを維持することができる背面の映写スクリーン材料と、ある特定の偏光をされた光のみをそれぞれの目が見るように制限する特別な眼鏡、及びビューワーと、を含むことができる。見られる画像は、理想的なビューワーの両目の異なる位置を反映するような、わずかに異なる視野の変換がなされて表現されることができる。1つのプロジェクタは、左目の位置用に表現された画像を表示し、且つ他方のプロジェクタは、右目の位置用に表現された画像を表示する。左目は左目用に表現された画像のみを見て、且つ右目は右目用に表現された画像のみを見るように、眼鏡が光を制限する。合理的な立体画像を提示されると、ビューワーは深度を感じる。
図15は、開示される方法を実行するための例示的動作環境を示すブロック図である。本例示的動作環境は、動作環境の1つの例にすぎず、使用の範囲又は動作環境アーキテクチャの機能に関して、いかなる制限をも意図したものではない。また、本動作環境は、上記例示的動作環境に示されたいかなる1つの構成要素又はその組み合わせに依存している又はそれを必要としていると解釈すべきではない。
上記方法は、多くの他の一般的用途、又は特殊用途のコンピューティングシステム環境又は構成で動作可能である。上記システム及び方法とともに用いるのに好適な周知のコンピューティングシステム、環境、及び/又は構成の例には、パーソナルコンピュータ、サーバコンピュータ、ノート型デバイス、及びマルチプロセッサシステムが含まれるが、それらには限られない。追加的例としては、セットトップボックス、プログラム可能な消費者向け電化製品、ネットワークパーソナルコンピュータ、ミニコンピュータ、メインフレームコンピュータ、上記のシステム又はデバイスの任意のものを含む分散コンピューティング環境等があげられる。
上記方法は、コンピュータによって実行される、プログラムモジュールのようなコンピュータ指令の一般的コンテクストにおいて記述されていてよい。一般的に、プログラムモジュールは、特定のタスクを実行する又は特定の抽象的なデータタイプを実現する、ルーティーン、プログラム、オブジェクト、コンポーネント、データ構造等を含む。システム及び方法は、通信ネットワークを介して繋がっているリモートの処理用デバイスによりタスクが実行される分散コンピューティング環境において実行されてもよい。分散コンピューティング環境においては、プログラムモジュールは、ローカルの、及びリモートの、メモリストーレッジデバイスを含むコンピュータストーレッジ媒体に置かれていてよい。
本明細書に開示される方法は、コンピュータ1501の形で設けられる、1つ以上の一般的用途のコンピューティングデバイスを介して実現され得る。コンピュータ1501の構成要素には、1つ以上のプロセッサ又は処理ユニット1503、システムメモリ1512、及び、例えばプロセッサ1503をシステムメモリ1512と結合する等、さまざまなシステムの構成要素どうしを結合するシステムバス1513が含まれ得るが、それらに限られない。
システムバス1513は、メモリバス又はメモリコントローラ、周辺バス、アクセラレイティッドグラフィックスポート、及びさまざまなバスアーキテクチャのうちの任意のものを用いたプロセッサ又はローカルバスを含む、いくつかの可能なタイプのバス構造の1つ以上を表現している。例として、そのようなアーキテクチャには、業界標準アーキテクチャ(ISA)バス、マイクロチャンネルアーキテクチャ(MCA)バス、エンハンスドISA(EISA)バス、ベサ(VESA)ローカルバス、及びメザニンバスとしても知られるペリフェラルコンポーネントインターコネクト(PCI)バスが含まれ得る。このバス、及び本明細書において特定されているすべてのバスは、有線又は無線ネットワーク接続上に実装し得る。バス1513、及び本明細書において特定されているすべてのバスは、有線又は無線ネットワーク接続上に実装することができる。また、プロセッサ1503と、マスストーレッジデバイス1504と、オペレーティングシステム1505と、アプリケーションソフトウェア1506と、データ1507と、ネットワークアダプタ1508と、システムメモリ1512と、入出力インターフェイス1510と、ディスプレイアダプタ1509と、ディスプレイデバイス1511と、及びヒューマンマシンインターフェイス1502と、を含むサブシステムのそれぞれは、物理的にはそれぞれ離れた場所にあり、この形式のバスを通じて接続されていて、事実上、完全な分散システムを実現している1つ以上のリモートのコンピューティングデバイス1514a、1514b、1514c内に包含され得る。
コンピュータ1501は、通常、コンピュータで読み取り可能な各種媒体を含む。そのような媒体は、コンピュータ1501によりアクセス可能であって、且つ揮発性媒体及び不揮発性媒体、並びに取り外し可能な媒体及び取り外し不可能な媒体を含む、任意の利用可能な媒体であり得る。システムメモリ1512は、ランダムアクセスメモリ(RAM)のような揮発性メモリ及び/又は読み取り専用メモリ(ROM)のような不揮発性メモリの形の、コンピュータで読み取り可能な媒体を含む。システムメモリ1512は通常、データ1507のようなデータ、及び/又は、即座にアクセス可能であり、及び/又は現在処理ユニット1503により操作されているオペレーティングシステム1505及びアプリケーションソフトウェア1506のようなプログラムモジュールを格納する。
コンピュータ1501は、その他の取り外し可能な/取り外し不可能な、揮発性の/不揮発性の、コンピュータストーレッジ媒体を含んでいてもよい。例として、図15は、コンピュータコード、コンピュータにより読み取り可能な指示、データ構造、プログラムモジュール、及びコンピュータ1501のためのその他のデータの不揮発性ストーレッジを提供し得るマスストーレッジデバイス1504を図示している。例えば、マスストーレッジデバイス1504は、ハードディスク、取り外し可能な磁気ディスク、取り外し可能な光学ディスク、磁気カセット又はその他の磁気ストーレッジデバイス、フラッシュメモリカード、CD−ROM、デジタル多用途ディスク(DVD)又はその他の光学的ストーレッジ、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、電気的消去・プログラム可能読み取り専用メモリ(EEPROM)等であり得る。
任意の数のプログラムモジュールがマスストーレッジデバイス1504に格納され得るが、そのようなプログラムモジュールの例としては、オペレーティングシステム1505及びアプリケーションソフトウェア1506がある。オペレーティングシステム1505及びアプリケーションソフトウェア1506のそれぞれ(又はそれらのなんらかの組み合わせ)には、プログラミング及びアプリケーションソフトウェア1506の諸要素が含まれていてよい。データ1507もまた、マスストーレッジデバイス1504に格納され得る。データ1507は、当該技術分野において既知の1つ以上のデータベースのうちの任意のものに格納され得る。そのようなデータベースの例としては、DB2(登録商標)、マイクロソフト(登録商標)アクセス、マイクロソフト(登録商標)SQLサーバ、オラクル(登録商標)MySQL、PostgreSQL等がある。上記データベースは集中型であり得るが、複数のシステムに分散されているものでも良い。
ユーザーは、コマンド及び情報をコンピュータ1501に、入力デバイス(不図示)を介して入力することができる。そのような入力デバイスの例には、キーボード、ポインティングデバイス(例えば、「マウス」)、マイクロフォン、ジョイスティック、シリアルポート、スキャナー、手袋及びその他の身体を覆うもののような触覚入力デバイス等が含まれるが、それらに限られない。これら及びその他の入力デバイスは、処理ユニット1503に、システムバス1513と結合されたヒューマンマシンインターフェイス1502を介して接続され得るが、パラレルポート、ゲームポート、又はユニバーサルシリアルバス(USB)のような、その他のインターフェイス及びバス構造によって接続されてもよい。
ディスプレイデバイス1511も、システムバス1513に、ディスプレイアダプタ1509のようなインターフェイスを介して接続され得る。コンピュータ1501は、1つ以上のディスプレイアダプタ1509を有することができ、且つコンピュータ1501は1つ以上のディスプレイデバイス1511を有することができる。例えば、ディスプレイデバイスは、モニター、液晶ディスプレイ(LCD)、又はプロジェクタであり得る。ディスプレイデバイス1511に加えて、他の出力用周辺機器には、コンピュータ1501に入出力インターフェイス1510を介して接続され得る、スピーカー(不図示)及びプリンター(不図示)のような構成要素が含まれ得る。
コンピュータ1501は、1つ以上のリモートのコンピューティングデバイス1514a、1514b、1514cへの論理的接続を用いるネットワーク化された環境内で動作し得る。例として、リモートのコンピューティングデバイスは、パーソナルコンピュータ、携帯型コンピュータ、サーバ、ルーター、ネットワークコンピュータ、ピアデバイス、又はその他の通常のネットワークノード等であり得る。コンピュータ1501とリモートのコンピューティングデバイス1514a、1514b、1514cとの間の論理的接続は、ローカルエリアネットワーク(LAN)及び一般的な、広域ネットワーク(WAN)を介してなされ得る。そのようなネットワーク接続は、ネットワークアダプタ1508を通じてなされ得る。ネットワークアダプタ1508は、有線及び無線環境の両方において実装可能である。そのようなネットワーキング環境は、オフィスにおいて、企業規模のコンピュータネットワークにおいて、イントラネットにおいて、及びインターネット1515においては普通のものである。
1つ以上のVIPディスプレイ1516a、1516b、1516c、1516d、1516eがコンピュータ1501と通信可能である。1つの態様において、VIPディスプレイ1516eが、入出力インターフェイス1510を通じてコンピュータ1501と通信可能になっている。この通信は、有線通信又は無線通信であり得る。リモートのVIPディスプレイ1516a、1516b、1516cは、コンピュータ1501と通信可能であるが、そのためにまず、当該リモートのVIPディスプレイ1516a、1516b、1516cがリモートのコンピューティングデバイス1514a、1514b、1514cにそれぞれ通信可能となっており、次にリモートのコンピューティングデバイス1514a、1514b、1514cが、ネットワークアダプタ1508を通じ、インターネット1515のようなネットワークを介して、コンピュータ1501に通信可能となっている。リモートのVIPディスプレイ1516dは、リモートのコンピューティングデバイスを必要とせずに、コンピュータ1501と通信可能である。リモートのVIPディスプレイ1516dは、インターネット1515のようなネットワークを介して通信可能である。VIPディスプレイ1516a、1516b、1516c、1516d、1516eは、無線接続又は優先接続を通じて通信可能である。VIPディスプレイ1516a、1516b、1516c、1516d、1516eは、個別に通信可能であるか、又は集合的に、VIPディスプレイネットワークの一部として通信可能である。
例示のために、そのようなプログラム及び構成要素は、時として、コンピューティングデバイス1501の異なるストーレッジ要素に存在し、且つコンピュータの1つまたは複数のデータプロセッサによって実行されるということは認識したうえで、アプリケーションプログラム及びオペレーティングシステム1505のようなその他の実行可能なプログラム構成要素は、ここでは個別のブロックとして図示されている。アプリケーションソフトウェア1506の実装は、何らかの形のコンピュータにより読み取り可能な媒体に格納されるか、そうした媒体を介して送信されてよい。コンピュータにより読み取り可能な媒体は、コンピュータによりアクセス可能な任意の利用可能な媒体であり得る。制限する意図ではなく例示として、コンピュータにより読み取り可能な媒体は、「コンピュータストーレッジ媒体」及び「通信媒体」を含んでいてよい。「コンピュータストーレッジ媒体」は、コンピュータで読み取り可能な指令、データ構造、プログラムモジュール又はその他のデータのような情報の格納のための任意の方法又は技術で実現される媒体であって、揮発性及び不揮発性の、取り外し可能な及び取り外し不可能な媒体を含む。コンピュータストーレッジ媒体には、RAM、ROM、EEPROM、フラッシュメモリ又はその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)又はその他の光学ストーレッジ、磁気カセット、磁気テープ、磁気ディスクストーレッジ又はその他の磁気ストーレッジデバイス、又は所望の情報を格納するために使用可能であり、且つコンピュータによってアクセス可能な任意の他の媒体が含まれるが、それらに限られない。
特にそうでないと明示的にことわらない限り、本明細書において記載されているいかなる方法も、その複数の工程をある特定の順序で実行することを必要とするものとして理解することを全く意図されていない。したがって、方法の請求項が実際に、その複数の工程が従うべき順序を指定していない場合、又は複数の工程が特定の順序に制限されるということが具体的に、発明の概念又は説明において記述されていない場合、いかなる点においても、ある順序が暗示されているということを意図するものではまったくない。このことは、複数の工程の配列又は作業のフローに関する論理の問題、文法的組織又は句読法に起因する明白な意味の問題、明細書に記載された実施形態の数又はタイプの問題を含む、いかなる可能な、明言されていない解釈の根拠についても同様である。
さまざまな修正および変更を、本方法及びシステムに、その範囲又は精神から逸脱することなく施し得るということは当業者には明らかであろう。明細書及びそこに開示される実践を考慮すれば、他の実施形態が当業者には明らかであろう。明細書及び例が、あくまでも例示的なものとして考慮されて、以下に続く特許請求の範囲により、その真の範囲及び精神が示されるということが意図されている。

Claims (24)

  1. 第1画像から第2画像への動きを決定することと、遅延値を決定することと、
    正確値を決定することと、
    不確実性要素を、前記動きと前記遅延値と前記正確値とに基づいて生成することと、
    前記不確実性要素を表現することと、を含む方法。
  2. 前記動きは、動き推定アルゴリズムから決定される、請求項1の方法。
  3. 前記動きは、ブロックマッチングアルゴリズムから決定される、請求項1の方法。
  4. 前記第1画像は現行フレームであり、前記第2画像は一連の画像中の先行フレームである、請求項1の方法。
  5. 前記現行フレームから前記先行フレームへ向かう動きベクトル生成することをさらに含む、請求項4の方法。
  6. 前記動きベクトルは前記決定された動きに基づいて生成される、請求項5の方法。
  7. 前記不確実性要素は、インジケータである、請求項1の方法。
  8. 前記不確実性要素は、変換された動きベクトルに基づいて生成される、請求項1の方法。
  9. 前記不確実性要素は、前記正確値と前記ベクトルの向きを反転させたベクトルとを乗算して生成される、請求項8の方法。
  10. 前記不確実性要素は、前記ベクトルと前記ベクトルの反転とのうちの1つ以上から推定する不確実性領域を含む、請求項8の方法。
  11. 前記不確実性領域のサイズは、前記ベクトルの大きさに比例する、請求項8の方法。
  12. 前記不確実性要素を表現することは、不確実性領域を表現することを含む、請求項1の方法。
  13. 前記不確実性領域は、ぼかしと薄像と着色とのうちの1つ以上として表現される、請求項14の方法。
  14. 前記不確実性領域のサイズは前記遅延値に基づく、請求項14の方法。
  15. 前記不確実性領域のサイズは前記正確値に比例する、請求項14の方法。
  16. 前記遅延値は、局所的遅延とネットワーク遅延とジッターとのうちの1つ以上に基づいて決定される、請求項1の方法。
  17. 前記正確値は許容できる誤差を含む、請求項1の方法。
  18. 遅延値を決定することと、
    前記遅延値に基づいて、第1画像に対する遅延オフセットを決定することと、前記第1フレームからの前記遅延オフセットに基づいて、第2画像を配置することと、前記第1フレームに重なる、動きの薄像を生成することと、を含み、前記動きの薄像は、前記第2フレームの一部を含んでいる方法。
  19. 前記第1画像は現行フレームであり、前記第2画像は一連の画像中の先行フレームである、請求項18の方法。
  20. 前記遅延値は、ネットワーク遅延と局所的遅延とのうちの1つ以上に基づいて決定される、請求項18の方法。
  21. 前記遅延オフセットは、前記遅延値をフレームレートで乗算して決定される、請求項18の方法。
  22. 前記第2フレームは、前記遅延オフセットを前記第1フレームのフレーム識別子から減算して配置される、請求項18の方法。
  23. 前記動きの薄像は、前記第1フレームの不透明度とは異なる不透明度を有する、請求項18の方法。
  24. 第1フレームから第2フレームへの動きを決定することと、決定された動きに基づいて、不確実性因子を決定することと、前記不確実性因子に基づいて、不確実性要素を生成することと、を含む方法。
JP2015514102A 2012-05-21 2013-05-21 時空間的不確実性を管理するためのシステム及び方法 Active JP6101793B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/476,712 US9020203B2 (en) 2012-05-21 2012-05-21 System and method for managing spatiotemporal uncertainty
US13/476,712 2012-05-21
PCT/US2013/041967 WO2013177125A2 (en) 2012-05-21 2013-05-21 System and method for managing spatiotemporal uncertainty

Publications (3)

Publication Number Publication Date
JP2015527760A true JP2015527760A (ja) 2015-09-17
JP2015527760A5 JP2015527760A5 (ja) 2016-07-07
JP6101793B2 JP6101793B2 (ja) 2017-03-22

Family

ID=49581337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015514102A Active JP6101793B2 (ja) 2012-05-21 2013-05-21 時空間的不確実性を管理するためのシステム及び方法

Country Status (8)

Country Link
US (2) US9020203B2 (ja)
EP (1) EP2853093B1 (ja)
JP (1) JP6101793B2 (ja)
AU (2) AU2013266488B2 (ja)
CA (1) CA2874142C (ja)
IN (1) IN2014DN10359A (ja)
NZ (1) NZ702199A (ja)
WO (1) WO2013177125A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511016A (ja) * 2019-02-07 2022-01-28 ディズニー エンタープライゼス インコーポレイテッド 複数のメディアプレイヤーに対するメディアコンテンツの配信調整

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
EP2915157B1 (en) 2012-10-30 2019-05-08 Truinject Corp. System for injection training
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
EP3111438B1 (en) 2014-01-17 2018-12-19 Truinject Medical Corp. Injection site training system
US9298884B1 (en) * 2014-12-17 2016-03-29 Vitaax Llc Remote instruction and monitoring of health care
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2017030193A1 (ja) * 2015-08-20 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3354015A1 (en) 2015-09-23 2018-08-01 Edoardo Rizzi Communication device and method
JP5997824B1 (ja) * 2015-11-10 2016-09-28 株式会社オプティム 遠隔端末、遠隔指示方法及び遠隔端末用プログラム
WO2017151441A2 (en) 2016-02-29 2017-09-08 Truinject Medical Corp. Cosmetic and therapeutic injection safety systems, methods, and devices
WO2017151963A1 (en) 2016-03-02 2017-09-08 Truinject Madical Corp. Sensory enhanced environments for injection aid and social training
US10648790B2 (en) * 2016-03-02 2020-05-12 Truinject Corp. System for determining a three-dimensional position of a testing tool
US10546394B2 (en) * 2016-08-25 2020-01-28 International Business Machines Corporation Uncertainty visualization
US10269266B2 (en) 2017-01-23 2019-04-23 Truinject Corp. Syringe dose and position measuring apparatus
US20200234809A1 (en) * 2017-03-20 2020-07-23 OpticSurg Inc. Method and system for optimizing healthcare delivery
US11830614B2 (en) 2017-03-20 2023-11-28 Opticsurg, Inc. Method and system for optimizing healthcare delivery
WO2018195293A1 (en) * 2017-04-19 2018-10-25 Vidoni, Inc. Augmented reality learning system and method using motion captured virtual hands
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11844497B2 (en) * 2020-02-28 2023-12-19 Covidien Lp Systems and methods for object measurement in minimally invasive robotic surgery
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
CN112994980B (zh) * 2021-03-02 2023-12-19 北京百度网讯科技有限公司 时延测试方法、装置、电子设备和存储介质
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227463A (ja) * 1992-02-15 1993-09-03 Sony Corp 画像処理装置
JP2002074370A (ja) * 2000-08-28 2002-03-15 Ntt Data Corp 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体
JP2007535875A (ja) * 2004-04-30 2007-12-06 ワールドゲイト・サービス・インコーポレイテッド 適応映像電話システム
JP2009134693A (ja) * 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
JP2010141476A (ja) * 2008-12-10 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> 映像重畳装置、映像重畳方法、プログラムおよび記録媒体
JP2010528354A (ja) * 2007-05-18 2010-08-19 ザ ユーエービー リサーチ ファンデーション 仮想インタラクティブプレゼンスのシステムおよび方法

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3931679A (en) 1973-11-05 1976-01-13 Den-Tal-Ez Mfg., Co. Dental patient simulator
US4601664A (en) 1985-03-18 1986-07-22 Syntex (U.S.A.) Inc. Temporomandibular joint articulator and dental manikin incorporating it
US4970666A (en) 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
DE3941333A1 (de) 1989-12-14 1991-06-20 Kaltenbach & Voigt Zahnaerztliches lehr- und uebungsgeraet
US5772442A (en) 1992-05-13 1998-06-30 University Of Florida Research Foundation, Inc. Apparatus and method for simulating bronchial resistance or dilation
US5391081A (en) 1992-05-13 1995-02-21 University Of Florida Research Foundation, Incorporated Method and apparatus for simulating neuromuscular stimulation during medical surgery
US5584701A (en) 1992-05-13 1996-12-17 University Of Florida Research Foundation, Incorporated Self regulating lung for simulated medical procedures
US5403192A (en) 1993-05-10 1995-04-04 Cae-Link Corporation Simulated human lung for anesthesiology simulation
US5572248A (en) 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
KR19980702924A (ko) 1995-03-22 1998-09-05 마누엘쿠베로 다중 프레임에 대한 움직임 결정값의 좌표를 정하기 위한 방법및 장치
CA2180899A1 (en) 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US5668608A (en) 1995-07-26 1997-09-16 Daewoo Electronics Co., Ltd. Motion vector estimation method and apparatus for use in an image signal encoding system
US6219045B1 (en) 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
US6301339B1 (en) 1995-11-15 2001-10-09 Data Race, Inc. System and method for providing a remote user with a virtual presence to an office
US5853292A (en) 1996-05-08 1998-12-29 Gaumard Scientific Company, Inc. Computerized education system for teaching patient care
US6503087B1 (en) 1996-05-08 2003-01-07 Gaumard Scientific, Inc. Interactive education system for teaching patient care
US6527558B1 (en) 1996-05-08 2003-03-04 Gaumard Scientific, Inc. Interactive education system for teaching patient care
US6443735B1 (en) 1996-05-08 2002-09-03 Gaumard Scientific, Inc. Computerized education system for teaching patient care
US6246975B1 (en) 1996-10-30 2001-06-12 American Board Of Family Practice, Inc. Computer architecture and process of patient generation, evolution, and simulation for computer based testing system
US5900923A (en) 1996-11-26 1999-05-04 Medsim-Eagle Simulation, Inc. Patient simulator eye dilation device
US6042477A (en) * 1996-12-12 2000-03-28 Addink; Dale H. Method of and system for minimizing the effects of time latency in multiplayer electronic games played on interconnected computers
US6293519B1 (en) 1997-07-07 2001-09-25 Peter Farretta Luminous snake
US6273728B1 (en) 1997-09-04 2001-08-14 The University Of Florida Life support simulation system simulating human physiological parameters
US6166744A (en) 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
GB9800397D0 (en) 1998-01-09 1998-03-04 Philips Electronics Nv Virtual environment viewpoint control
US6220866B1 (en) 1998-01-15 2001-04-24 Eagle Simulation, Inc. Electronic auscultation system for patient simulator
JP2990602B1 (ja) 1998-07-03 1999-12-13 株式会社京都科学 生体検診用模型
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6034733A (en) 1998-07-29 2000-03-07 S3 Incorporated Timing and control for deinterlacing and enhancement of non-deterministically arriving interlaced video data
US6257234B1 (en) 1998-08-21 2001-07-10 Respironics, Inc. Apparatus and method for determining respiratory mechanics of a patient and for controlling a ventilator based thereon
US6608628B1 (en) 1998-11-06 2003-08-19 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) Method and apparatus for virtual interactive medical imaging by multiple remotely-located users
JP2000148771A (ja) 1998-11-06 2000-05-30 Sony Corp 画像処理装置および方法、並びに提供媒体
US6774885B1 (en) 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
US6289299B1 (en) 1999-02-17 2001-09-11 Westinghouse Savannah River Company Systems and methods for interactive virtual reality process control and simulation
CA2362227A1 (en) 1999-02-18 2000-08-24 Fujisawa Pharmaceutical Co., Ltd. Masking agent comprising salt of gluconic acid
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6747672B1 (en) 1999-11-01 2004-06-08 Medical Learning Company, Inc. Virtual patient hot spots
US6692258B1 (en) 2000-06-26 2004-02-17 Medical Learning Company, Inc. Patient simulator
JP2001285897A (ja) 2000-03-28 2001-10-12 Ando Electric Co Ltd 動画受信品質評価装置
FR2808366B1 (fr) 2000-04-26 2003-12-19 Univ Paris Vii Denis Diderot Procede et systeme d'apprentissage en realite virtuelle, et application en odontologie
US20070055578A1 (en) 2000-05-22 2007-03-08 Commonwealth Intellectual Property Holdings, Inc. Internet and wireless integrated virtual presence
AU2001270272A1 (en) 2000-06-30 2002-01-14 University Of Florida Method, system, and apparatus for medical device training
US6780016B1 (en) 2000-10-23 2004-08-24 Christopher C. Toly Human surgical trainer and methods for training
JP4288843B2 (ja) 2000-10-25 2009-07-01 沖電気工業株式会社 遠隔作業支援システム
US6739877B2 (en) 2001-03-06 2004-05-25 Medical Simulation Corporation Distributive processing simulation method and system for training healthcare teams
EP1395194B1 (en) 2001-06-13 2007-08-29 Volume Interactions Pte. Ltd. A guide system
US8046408B2 (en) 2001-08-20 2011-10-25 Alcatel Lucent Virtual reality systems and methods
US6697451B2 (en) 2001-09-05 2004-02-24 Ge Medical Systems Global Technology Company, Llc Dynamic phantom and method for evaluating calcium scoring
US20040009459A1 (en) 2002-05-06 2004-01-15 Anderson James H. Simulation system for medical procedures
US6954544B2 (en) * 2002-05-23 2005-10-11 Xerox Corporation Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences
US7190331B2 (en) 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US6774855B2 (en) 2002-06-24 2004-08-10 Centurion Wireless Technologies, Inc. Omni-directional antenna arrays and methods of making the same
US8458028B2 (en) 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US6921267B2 (en) 2002-12-06 2005-07-26 University Of Florida Research Foundation, Inc. Lung simulator for an integrated human patient simulator
US20040189701A1 (en) 2003-03-25 2004-09-30 Badt Sig Harold System and method for facilitating interaction between an individual present at a physical location and a telecommuter
US7787927B2 (en) 2003-06-20 2010-08-31 Merge Cad Inc. System and method for adaptive medical image registration
IL157156A0 (en) * 2003-07-29 2004-08-31 Rafael Armament Dev Authority Predictive display for system having delayed feedback of a command issued
US7421101B2 (en) * 2003-10-02 2008-09-02 Siemens Medical Solutions Usa, Inc. System and method for local deformable motion analysis
US7815644B2 (en) 2003-12-19 2010-10-19 Masini Michael A Instrumentation and methods for refining image-guided and navigation-based surgical procedures
US20050197818A1 (en) 2004-01-30 2005-09-08 Akbar Monfared Virtual presence system and method
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US7403664B2 (en) 2004-02-26 2008-07-22 Mitsubishi Electric Research Laboratories, Inc. Traffic event detection in compressed videos
US7367809B2 (en) 2004-03-26 2008-05-06 Atsushi Takahashi Three-dimensional digital entity mesoscope system equipped with three-dimensional visual instruction functions
JP4522129B2 (ja) 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US20070182812A1 (en) 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
US20050267778A1 (en) 2004-05-28 2005-12-01 William Kazman Virtual consultation system and method
US7949616B2 (en) 2004-06-01 2011-05-24 George Samuel Levy Telepresence by human-assisted remote controlled devices and robots
EP1602322A1 (en) * 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for eye tracking latency reduction
US7376903B2 (en) 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
WO2007011306A2 (en) 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
WO2006108279A1 (en) 2005-04-11 2006-10-19 Martin Lizee Method and apparatus for virtual presence
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
KR100721713B1 (ko) 2005-08-25 2007-05-25 명지대학교 산학협력단 몰입형 활선작업 교육시스템 및 그 방법
US20070064098A1 (en) 2005-09-19 2007-03-22 Available For Licensing Systems and methods for 3D rendering
WO2007059477A2 (en) 2005-11-11 2007-05-24 The Uab Research Foundation Virtual patient simulator
IL172797A (en) 2005-12-25 2012-09-24 Elbit Systems Ltd Real-time image scanning and processing
US8562440B2 (en) 2005-12-28 2013-10-22 Palo Alto Research Center Incorporated Method, apparatus, and program product for modeling presence in a persistent virtual environment
EP1966767A2 (en) 2005-12-31 2008-09-10 BRACCO IMAGING S.p.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet")
CN101405769A (zh) 2005-12-31 2009-04-08 布拉科成像S.P.A.公司 用于经由网络("DextroNet")的三维数据集的协作交互显影的***和方法
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
EP2041974A4 (en) 2006-07-12 2014-09-24 Lg Electronics Inc METHOD AND DEVICE FOR CODING / DECODING A SIGNAL
US7805020B2 (en) * 2006-07-25 2010-09-28 Itt Manufacturing Enterprises, Inc. Motion compensated image registration for overlaid/fused video
US7728868B2 (en) 2006-08-02 2010-06-01 Inneroptic Technology, Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US8743109B2 (en) 2006-08-31 2014-06-03 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
US20080123910A1 (en) 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
US8012023B2 (en) 2006-09-28 2011-09-06 Microsoft Corporation Virtual entertainment
US7894649B2 (en) 2006-11-02 2011-02-22 Accuray Incorporated Target tracking using direct target registration
DE102006053273A1 (de) 2006-11-06 2008-05-08 Varta Microbattery Gmbh Galvanisches Element mit Kurzschluss-Schutz
EP2081494B1 (en) 2006-11-16 2018-07-11 Vanderbilt University System and method of compensating for organ deformation
US8385687B1 (en) 2006-12-06 2013-02-26 Matrox Electronic Systems, Ltd. Methods for determining a transformation between images
US20080231626A1 (en) 2007-03-22 2008-09-25 Motorola, Inc. Method and Apparatus to Facilitate a Differently Configured Virtual Reality Experience for Some Participants in a Communication Session
US20080278633A1 (en) 2007-05-09 2008-11-13 Mikhail Tsoupko-Sitnikov Image processing method and image processing apparatus
US8203590B2 (en) 2007-09-04 2012-06-19 Hewlett-Packard Development Company, L.P. Video camera calibration system and method
US20090287089A1 (en) 2008-01-31 2009-11-19 The University Of Vermont And State Agriculture College Methods, devices and apparatus for imaging for reconstructing a 3-D image of an area of interest
KR100963238B1 (ko) 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
US20090300101A1 (en) 2008-05-30 2009-12-03 Carl Johan Freer Augmented reality platform and method using letters, numbers, and/or math symbols recognition
WO2009154294A1 (ja) 2008-06-20 2009-12-23 国立大学法人静岡大学 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
US8336777B1 (en) * 2008-12-22 2012-12-25 Pantuso Francis P Covert aiming and imaging devices
US8175376B2 (en) 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
US8599235B2 (en) 2009-07-27 2013-12-03 Cisco Technology, Inc. Automatic display latency measurement system for video conferencing
JP5158262B2 (ja) 2009-08-18 2013-03-06 富士通株式会社 画像処理方法および画像処理装置
US8179412B2 (en) 2009-08-19 2012-05-15 Eastman Kodak Company Merging image pixels based on main-scan misalignment
US20110084983A1 (en) 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
US9020257B2 (en) 2009-10-08 2015-04-28 International Business Machines Corporation Transforming a digital image from a low dynamic range (LDR) image to a high dynamic range (HDR) image
US20110270135A1 (en) 2009-11-30 2011-11-03 Christopher John Dooley Augmented reality for testing and training of human performance
US8606009B2 (en) 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
US20110249029A1 (en) 2010-04-07 2011-10-13 Siemens Medical Solutions Usa, Inc. System for Manipulating a Detected Object within an Angiographic X-ray Acquisition
US8493353B2 (en) 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US8928735B2 (en) 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback
US9201666B2 (en) 2011-06-16 2015-12-01 Microsoft Technology Licensing, Llc System and method for using gestures to generate code to manipulate text flow
US8902248B1 (en) * 2011-07-14 2014-12-02 Vmware, Inc. Method and system for measuring display performance of a remote application
JP5799630B2 (ja) 2011-07-19 2015-10-28 株式会社大林組 免震装置
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US9128520B2 (en) 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227463A (ja) * 1992-02-15 1993-09-03 Sony Corp 画像処理装置
JP2002074370A (ja) * 2000-08-28 2002-03-15 Ntt Data Corp 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体
JP2007535875A (ja) * 2004-04-30 2007-12-06 ワールドゲイト・サービス・インコーポレイテッド 適応映像電話システム
JP2010528354A (ja) * 2007-05-18 2010-08-19 ザ ユーエービー リサーチ ファンデーション 仮想インタラクティブプレゼンスのシステムおよび方法
JP2009134693A (ja) * 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
JP2010141476A (ja) * 2008-12-10 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> 映像重畳装置、映像重畳方法、プログラムおよび記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022511016A (ja) * 2019-02-07 2022-01-28 ディズニー エンタープライゼス インコーポレイテッド 複数のメディアプレイヤーに対するメディアコンテンツの配信調整
US11463784B2 (en) 2019-02-07 2022-10-04 Disney Enterprises, Inc. Coordination of media content delivery to multiple media players
JP7323617B2 (ja) 2019-02-07 2023-08-08 ディズニー エンタープライゼス インコーポレイテッド 複数のメディアプレイヤーに対するメディアコンテンツの配信調整

Also Published As

Publication number Publication date
EP2853093A4 (en) 2016-02-17
JP6101793B2 (ja) 2017-03-22
WO2013177125A2 (en) 2013-11-28
US9959629B2 (en) 2018-05-01
IN2014DN10359A (ja) 2015-08-07
EP2853093B1 (en) 2018-11-07
CA2874142A1 (en) 2013-11-28
EP2853093A2 (en) 2015-04-01
NZ702199A (en) 2017-07-28
AU2013266488B2 (en) 2018-08-16
US20130308827A1 (en) 2013-11-21
US20150199823A1 (en) 2015-07-16
AU2018264095B2 (en) 2020-05-14
AU2013266488A1 (en) 2014-12-18
CA2874142C (en) 2020-07-21
WO2013177125A3 (en) 2014-02-27
AU2018264095A1 (en) 2018-12-06
US9020203B2 (en) 2015-04-28

Similar Documents

Publication Publication Date Title
JP6101793B2 (ja) 時空間的不確実性を管理するためのシステム及び方法
JP6364022B2 (ja) 多重現実環境における役割切り替えのためのシステムおよび方法
US10622111B2 (en) System and method for image registration of multiple video streams
CA2694095C (en) Virtual interactive presence systems and methods
NZ621149B2 (en) System and method for image registration of multiple video streams

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160714

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170227

R150 Certificate of patent or registration of utility model

Ref document number: 6101793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250