JP2016522485A - 再構成からの隠消現実感効果および媒介現実感効果 - Google Patents
再構成からの隠消現実感効果および媒介現実感効果 Download PDFInfo
- Publication number
- JP2016522485A JP2016522485A JP2016511738A JP2016511738A JP2016522485A JP 2016522485 A JP2016522485 A JP 2016522485A JP 2016511738 A JP2016511738 A JP 2016511738A JP 2016511738 A JP2016511738 A JP 2016511738A JP 2016522485 A JP2016522485 A JP 2016522485A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mask
- pixel
- virtual
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、両方が参照によってその全体が本明細書に組み込まれている、2013年4月30日に出願した米国特許仮出願第61/817792号、名称「Diminished and Mediated Reality Effects from Reconstruction」の利益および優先権を主張する、2014年3月25日に出願した米国特許出願第14/225157号、名称「Diminished and Mediated Reality Effects from Reconstruction」の利益および優先権を主張するものである。
M内の画素の値を、補間されたオプティカルフロー値を使用して、S1、S2、およびS3からそれぞれ1つの、3つの対応する画素の加重平均として計算することができる。さらに、M内の画素値を、オプティカルフローに基づいてS1、S2、およびS3からの画素をブレンドすることによって入手することができる。
補正を適用して、補正後の組み合わされた画像465を入手することができる。
110 カメラ
130 センサバンクまたはセンサ
150 プロセッサ
155 コンピュータビジョン(CV)モジュール
158 3D再構成モジュール
160 メモリ
170 トランシーバ
180 ディスプレイ
192 画像
193 オブジェクト
194 隠消現実感画像
196 媒介現実感画像
197 仮想の鉢植えオブジェクト
197 仮想オブジェクト
300 方法
305 ライブ入力ビデオ画像フレーム
335 サブルーチン
340 隠消現実感画像
345 組み合わされた画像
400 ワークフロー
415 再構成されたシーン
422 ライブ画像
425 マスク
428 前景オブジェクト
432 合成画像
435 領域
445 マスク
445 組み合わされた画像
450 色のにじみ、ゴースト、または他のアーティファクト
465 補正後の組み合わされた画像
500 流れ図
505 3Dモデル
600 サーバ
620 接続
650 処理ユニット
656 コンピュータビジョン(CV)モジュール
658 3D再構成モジュール
660 ストレージ
670 リムーバブルメディアドライブ
676 非一時的コンピュータ可読媒体
680 メモリ
690 通信インターフェース
M マスク
M' マスク
S1 合成レンダリング
S2 合成レンダリング
S3 合成レンダリング
Claims (30)
- 複数のライブ画像を入手するステップであって、前記ライブ画像は、追跡されるオブジェクトを含む、入手するステップと、
前記複数のライブ画像内のライブ画像について、前記追跡されるオブジェクトに対する相対的なカメラ姿勢を判定するステップと、
前記カメラ姿勢に基づいて、前記追跡されるオブジェクトなしの複数の合成画像をレンダリングするステップであって、各合成画像は、3Dモデル内の別個のキーフレームから入手される、レンダリングするステップと、
前記追跡されるオブジェクトに関連する第1のマスク領域を判定するために、前記ライブ画像と前記合成画像とを比較するステップと、
前記複数の合成画像内の合成画像のサブセットに対する相対的な前記追跡されるオブジェクトに関連する第1のマスク領域内の複数の画素のオプティカルフローの大きさを計算するステップと、
前記第1のマスク領域内の前記複数の画素の各々について、前記オプティカルフローの大きさに部分的に基づいて合成画像の前記サブセットの各々内の対応する画素を判定するステップと、
前記第1のマスク領域内の前記複数の画素の各々の置換画素を判定するステップであって、各置換画素は、前記第1のマスク領域内の別個の画素に対応し、各置換画素は、前記第1のマスク領域内の画素に対応する合成画像の前記サブセット内の前記対応する画素の関数として判定される、判定するステップと
を含む方法。 - 隠消現実感画像をレンダリングするステップをさらに含み、前記隠消現実感画像は、前記置換画素に少なくとも部分的に基づいて入手する、請求項1に記載の方法。
- 前記第1のマスクによって示される画像内の領域内に仮想オブジェクトをレンダリングするステップをさらに含み、前記仮想オブジェクトは、現在のカメラ姿勢に基づいてレンダリングされる、請求項2に記載の方法。
- 前記第1のマスクによって示される前記画像内の前記領域内に前記仮想オブジェクトをレンダリングするステップは、
前記画像内の少なくとも1つの既知の現実のオブジェクトの仮想表現を仮想zバッファ内にレンダリングするステップであって、前記現実のオブジェクトは、少なくとも部分的に前記第1のマスク内にある、レンダリングするステップと、
前記少なくとも1つの既知の現実のオブジェクトと前記仮想zバッファ内の前記仮想オブジェクトとの間のオクルージョンを解決するステップと、
前記画像と一致するように前記仮想zバッファをワープさせるステップであって、前記ワープさせるステップは、前記少なくとも1つの既知の現実のオブジェクトの前記仮想表現と前記画像内の前記少なくとも1つの既知の現実のオブジェクトとの間のオプティカルフローに部分的に基づく、ワープさせるステップと
を含む、請求項3に記載の方法。 - 合成画像の前記サブセットの各々内の対応する画素を判定するステップは、
前記第1のマスク内の前記複数の画素の各々について、前記オプティカルフローに基づいて変位と輝度補正とを入手するステップ
を含む、請求項1に記載の方法。 - 各置換画素は、合成画像の前記サブセット内の対応する画素の加重平均として判定され、前記サブセット内の合成画像内の対応する画素に関連する重みは、前記対応する画素の前記オプティカルフローの大きさと、前記ライブ画像と前記対応する画素に関連する前記合成画像との間の角変位とに基づく
請求項1に記載の方法。 - 前記第1のマスク(M')領域は、前記追跡されるオブジェクトの回りの第2のマスク領域(M)を含み、M内の各置換画素の前記オプティカルフローの大きさは、境界M'-Mからの散乱データ補間によって判定される、請求項6に記載の方法。
- 前記複数の合成画像および前記複数の合成画像の前記サブセットは、それぞれ、3つの合成画像を含む、請求項1に記載の方法。
- Simultaneous Localization and Mapping (SLAM)追跡技法が、前記カメラ姿勢を判定するのに使用される、請求項1に記載の方法。
- 追跡されるオブジェクトを含む複数のライブ画像をキャプチャするように構成されたカメラと、
複数のキーフレームを含む3Dモデルを記憶するためのメモリと、
前記カメラおよび前記メモリに結合されたプロセッサであって、
前記複数の画像内のライブ画像について、前記追跡されるオブジェクトに対する相対的なカメラ姿勢を判定し、
前記カメラ姿勢に基づいて、前記追跡されるオブジェクトなしの複数の合成画像をレンダリングし、各合成画像は、別個のキーフレームから入手され、
前記追跡されるオブジェクトに関連する第1のマスク領域を判定するために、前記ライブ画像と前記合成画像とを比較し、
前記複数の合成画像内の合成画像のサブセットに対する相対的な前記追跡されるオブジェクトに関連する第1のマスク領域内の複数の画素のオプティカルフローの大きさを計算し、
前記第1のマスク領域内の前記複数の画素の各々について、前記オプティカルフローの大きさに部分的に基づいて合成画像の前記サブセットの各々内の対応する画素を判定し、
前記第1のマスク領域内の前記複数の画素の各々の置換画素を判定し、各置換画素は、前記第1のマスク領域内の別個の画素に対応し、各置換画素は、前記第1のマスク領域内の前記画素に対応する合成画像の前記サブセット内の前記対応する画素の関数として判定される
ように構成されたプロセッサと
を含む移動局(MS)。 - 前記プロセッサは、
隠消現実感画像をレンダリングし、前記隠消現実感画像は、前記置換画素に少なくとも部分的に基づく
ようにさらに構成される、請求項10に記載のMS。 - 前記プロセッサは、
前記第1のマスクによって示される画像内の領域内に仮想オブジェクトをレンダリングし、前記仮想オブジェクトは、現在のカメラ姿勢に基づいてレンダリングされる
ようにさらに構成される、請求項11に記載のMS。 - 前記第1のマスクによって示される前記画像内の前記領域内に前記仮想オブジェクトをレンダリングするために、前記プロセッサは、
前記画像内の少なくとも1つの既知の現実のオブジェクトの仮想表現を仮想zバッファ内にレンダリングし、前記現実のオブジェクトは、少なくとも部分的に前記第1のマスク内にあり、
前記少なくとも1つの既知の現実のオブジェクトと前記仮想zバッファ内の前記仮想オブジェクトとの間のオクルージョンを解決し、
前記画像と一致するように前記仮想zバッファをワープさせ、前記ワープさせるステップは、前記少なくとも1つの既知の現実のオブジェクトの前記仮想表現と前記画像内の前記少なくとも1つの既知の現実のオブジェクトとの間のオプティカルフローに部分的に基づく
ように構成される、請求項12に記載のMS。 - 合成画像の前記サブセットの各々内の対応する画素を判定するために、前記プロセッサは、
前記第1のマスク内の前記複数の画素の各々について、前記オプティカルフローに基づいて変位と輝度補正とを入手する
ように構成される、請求項10に記載のMS。 - 各置換画素は、合成画像の前記サブセット内の対応する画素の加重平均として判定され、前記サブセット内の合成画像内の対応する画素に関連する重みは、前記対応する画素の前記オプティカルフローの大きさと、前記ライブ画像と前記対応する画素に関連する前記合成画像との間の角変位とに基づく
請求項10に記載のMS。 - 前記第1のマスク(M')領域は、前記追跡されるオブジェクトの回りの第2のマスク領域(M)を含み、M内の各置換画素の前記オプティカルフローの大きさは、境界M'-Mからの散乱データ補間によって判定される
請求項15に記載のMS。 - 前記複数の合成画像および前記複数の合成画像の前記サブセットは、それぞれ、3つの合成画像を含む、請求項10に記載のMS。
- 前記プロセッサは、Simultaneous Localization and Mapping (SLAM)追跡技法を使用して前記カメラ姿勢を判定するように構成される、請求項10に記載のMS。
- 追跡されるオブジェクトを含む複数の画像をキャプチャするための、画像化手段と、
複数のキーフレームを含む3Dモデルを記憶するためのストレージ手段と、
前記画像化手段および前記ストレージ手段に結合された処理手段であって、
前記複数のライブ画像内のライブ画像について、前記追跡されるオブジェクトに対する相対的な画像化手段姿勢を判定するための手段と、
前記画像化手段姿勢に基づいて、前記追跡されるオブジェクトなしの複数の合成画像をレンダリングするための手段であって、各合成画像は、別個のキーフレームから入手される、レンダリングするための手段と、
前記追跡されるオブジェクトに関連する第1のマスク領域を判定するために、前記ライブ画像と前記合成画像とを比較するための手段と、
前記複数の合成画像内の合成画像のサブセットに対する相対的な前記追跡されるオブジェクトに関連する第1のマスク領域内の複数の画素のオプティカルフローの大きさを計算するための手段と、
前記第1のマスク内の前記複数の画素の各々について、前記オプティカルフローの大きさに部分的に基づいて合成画像の前記サブセットの各々内の対応する画素を判定するための手段と、
前記第1のマスク内の前記複数の画素の各々の置換画素を判定するための手段であって、各置換画素は、前記第1のマスク内の別個の画素に対応し、各置換画素は、前記第1のマスク内の前記画素に対応する合成画像の前記サブセット内の前記対応する画素の関数として判定される、判定するための手段と
をさらに含む、処理手段と
を含む装置。 - 前記処理手段は、
隠消現実感画像をレンダリングするための手段であって、前記隠消現実感画像は、前記置換画素に少なくとも部分的に基づく、レンダリングするための手段
をさらに含む、請求項19に記載の装置。 - 前記処理手段は、
前記第1のマスクによって示される画像内の領域内に仮想オブジェクトをレンダリングするための手段であって、前記仮想オブジェクトは、現在の画像化手段姿勢に基づいてレンダリングされる、レンダリングするための手段
をさらに含む、請求項20に記載の装置。 - 前記第1のマスクによって示される前記画像内の前記領域内に前記仮想オブジェクトをレンダリングするための手段は、
前記画像内の少なくとも1つの既知の現実のオブジェクトの仮想表現を仮想zバッファ内にレンダリングするための手段であって、前記現実のオブジェクトは、少なくとも部分的に前記第1のマスク内にある、レンダリングするための手段と、
前記少なくとも1つの既知の現実のオブジェクトと前記仮想zバッファ内の前記仮想オブジェクトとの間のオクルージョンを解決するための手段と、
前記画像と一致するように前記仮想zバッファをワープさせるための手段であって、ワープさせることは、前記少なくとも1つの既知の現実のオブジェクトの前記仮想表現と前記画像内の前記少なくとも1つの既知の現実のオブジェクトとの間のオプティカルフローに部分的に基づく、ワープさせるための手段と
を含む、請求項21に記載の装置。 - 各置換画素は、合成画像の前記サブセット内の対応する画素の加重平均として判定され、前記サブセット内の合成画像内の対応する画素に関連する重みは、前記対応する画素の前記オプティカルフローの大きさと、前記ライブ画像と前記対応する画素に関連する前記合成画像との間の角変位とに基づく
請求項19に記載の装置。 - プロセッサによって実行された時に、
複数のライブ画像を入手するステップであって、前記ライブ画像は、追跡されるオブジェクトを含む、入手するステップと、
前記複数のライブ画像内のライブ画像について、前記追跡されるオブジェクトに対する相対的なカメラ姿勢を判定するステップと、
前記カメラ姿勢に基づいて、前記追跡されるオブジェクトなしの複数の合成画像をレンダリングするステップであって、各合成画像は、前記カメラ姿勢に基づいて3Dモデル内の別個のキーフレームから入手される、レンダリングするステップと、
前記追跡されるオブジェクトに関連する第1のマスク領域を判定するために、前記ライブ画像と前記合成画像とを比較するステップと、
前記複数の合成画像内の合成画像のサブセットに対する相対的な前記追跡されるオブジェクトに関連する第1のマスク領域内の複数の画素のオプティカルフローの大きさを計算するステップと、
前記第1のマスク領域内の前記複数の画素の各々について、前記オプティカルフローの大きさに部分的に基づいて合成画像の前記サブセットの各々内の対応する画素を判定するステップと、
前記第1のマスク領域内の前記複数の画素の各々の置換画素を判定するステップであって、各置換画素は、前記第1のマスク領域内の別個の画素に対応し、各置換画素は、前記第1のマスク領域内の前記画素に対応する合成画像の前記サブセット内の前記対応する画素の関数として判定される、判定するステップと
を含む方法内のステップを実行する命令を含む非一時的コンピュータ可読媒体。 - 隠消現実感画像をレンダリングするステップをさらに含み、前記隠消現実感画像は、前記置換画素に少なくとも部分的に基づいて入手する、請求項24に記載の非一時的コンピュータ可読媒体。
- 前記第1のマスクによって示される画像内の領域内に仮想オブジェクトをレンダリングするステップをさらに含み、前記仮想オブジェクトは、現在のカメラ姿勢に基づいてレンダリングされる、請求項25に記載の非一時的コンピュータ可読媒体。
- 前記第1のマスクによって示される前記画像内の前記領域内に前記仮想オブジェクトをレンダリングするステップは、
前記画像内の少なくとも1つの既知の現実のオブジェクトの仮想表現を仮想zバッファ内にレンダリングするステップであって、前記現実のオブジェクトは、少なくとも部分的に前記第1のマスク内にある、レンダリングするステップと、
前記少なくとも1つの既知の現実のオブジェクトと前記仮想zバッファ内の前記仮想オブジェクトとの間のオクルージョンを解決するステップと、
前記画像と一致するように前記仮想zバッファをワープさせるステップであって、前記ワープさせるステップは、前記少なくとも1つの既知の現実のオブジェクトの前記仮想表現と前記画像内の前記少なくとも1つの既知の現実のオブジェクトとの間のオプティカルフローに部分的に基づく、ワープさせるステップと
を含む、請求項26に記載の非一時的コンピュータ可読媒体。 - 合成画像の前記サブセットの各々内の対応する画素を判定するステップは、
前記第1のマスク内の前記複数の画素の各々について、前記オプティカルフローに基づいて変位と輝度補正とを入手するステップ
を含む、請求項24に記載の非一時的コンピュータ可読媒体。 - 各置換画素は、合成画像の前記サブセット内の対応する画素の加重平均として判定され、前記サブセット内の合成画像内の対応する画素に関連する重みは、前記対応する画素の前記オプティカルフローの大きさと、前記ライブ画像と前記対応する画素に関連する前記合成画像との間の角変位とに基づく
請求項24に記載の非一時的コンピュータ可読媒体。 - 前記第1のマスク(M')領域は、前記追跡されるオブジェクトの回りの第2のマスク領域(M)を含み、M内の各置換画素の前記オプティカルフローの大きさは、境界M'-Mからの散乱データ補間によって判定される、請求項29に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361817792P | 2013-04-30 | 2013-04-30 | |
US61/817,792 | 2013-04-30 | ||
US14/225,157 | 2014-03-25 | ||
US14/225,157 US9269003B2 (en) | 2013-04-30 | 2014-03-25 | Diminished and mediated reality effects from reconstruction |
PCT/US2014/031926 WO2014178966A1 (en) | 2013-04-30 | 2014-03-26 | Diminished and mediated reality effects from reconstruction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016522485A true JP2016522485A (ja) | 2016-07-28 |
JP2016522485A5 JP2016522485A5 (ja) | 2017-04-13 |
Family
ID=51789286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016511738A Pending JP2016522485A (ja) | 2013-04-30 | 2014-03-26 | 再構成からの隠消現実感効果および媒介現実感効果 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9269003B2 (ja) |
EP (1) | EP2992508B1 (ja) |
JP (1) | JP2016522485A (ja) |
CN (1) | CN105164728B (ja) |
WO (1) | WO2014178966A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018129026A (ja) * | 2017-02-07 | 2018-08-16 | 日本電信電話株式会社 | 決定装置、画像処理装置、決定方法及び決定プログラム |
KR20190036868A (ko) * | 2017-09-28 | 2019-04-05 | 한국과학기술원 | 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법 |
JP2019091436A (ja) * | 2017-10-18 | 2019-06-13 | ダッソー システムズDassault Systemes | 3d配置のタイプに応じた2d画像の分類 |
JP2019152899A (ja) * | 2018-02-28 | 2019-09-12 | 株式会社バンダイナムコスタジオ | シミュレーションシステム及びプログラム |
US11645822B2 (en) | 2020-12-21 | 2023-05-09 | Toyota Jidosha Kabushiki Kaisha | Display system and display device for rendering of a virtual object of a departure point |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9607437B2 (en) * | 2013-10-04 | 2017-03-28 | Qualcomm Incorporated | Generating augmented reality content for unknown objects |
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
US9704295B2 (en) * | 2013-11-05 | 2017-07-11 | Microsoft Technology Licensing, Llc | Construction of synthetic augmented reality environment |
US10484697B2 (en) * | 2014-09-09 | 2019-11-19 | Qualcomm Incorporated | Simultaneous localization and mapping for video coding |
US9607388B2 (en) * | 2014-09-19 | 2017-03-28 | Qualcomm Incorporated | System and method of pose estimation |
US9710960B2 (en) | 2014-12-04 | 2017-07-18 | Vangogh Imaging, Inc. | Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans |
NZ735465A (en) | 2015-03-05 | 2021-07-30 | Magic Leap Inc | Systems and methods for augmented reality |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
US9911242B2 (en) | 2015-05-14 | 2018-03-06 | Qualcomm Incorporated | Three-dimensional model generation |
US10304203B2 (en) | 2015-05-14 | 2019-05-28 | Qualcomm Incorporated | Three-dimensional model generation |
US10373366B2 (en) | 2015-05-14 | 2019-08-06 | Qualcomm Incorporated | Three-dimensional model generation |
US20160358382A1 (en) * | 2015-06-04 | 2016-12-08 | Vangogh Imaging, Inc. | Augmented Reality Using 3D Depth Sensor and 3D Projection |
EP3115969B1 (en) * | 2015-07-09 | 2021-01-06 | Nokia Technologies Oy | Mediated reality |
US10388069B2 (en) * | 2015-09-09 | 2019-08-20 | Futurewei Technologies, Inc. | Methods and systems for light field augmented reality/virtual reality on mobile devices |
US20170083790A1 (en) | 2015-09-23 | 2017-03-23 | Behavioral Recognition Systems, Inc. | Detected object tracker for a video analytics system |
KR20180090355A (ko) | 2015-12-04 | 2018-08-10 | 매직 립, 인코포레이티드 | 리로컬리제이션 시스템들 및 방법들 |
US10165171B2 (en) | 2016-01-22 | 2018-12-25 | Coban Technologies, Inc. | Systems, apparatuses, and methods for controlling audiovisual apparatuses |
US10152858B2 (en) | 2016-05-09 | 2018-12-11 | Coban Technologies, Inc. | Systems, apparatuses and methods for triggering actions based on data capture and characterization |
US10789840B2 (en) | 2016-05-09 | 2020-09-29 | Coban Technologies, Inc. | Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior |
US10370102B2 (en) | 2016-05-09 | 2019-08-06 | Coban Technologies, Inc. | Systems, apparatuses and methods for unmanned aerial vehicle |
CN106023179A (zh) * | 2016-05-13 | 2016-10-12 | 江苏科技大学 | 基于几何活动轮廓模型的sar图像海岸线提取方法 |
WO2017215899A2 (en) | 2016-05-27 | 2017-12-21 | Holobuilder Inc, | Augmented and virtual reality |
EP3475917B1 (en) * | 2016-06-24 | 2022-01-26 | Robert Bosch GmbH | Rgb-d camera based slam system and method thereof |
KR20210025721A (ko) | 2016-08-02 | 2021-03-09 | 매직 립, 인코포레이티드 | 고정-거리 가상 및 증강 현실 시스템들 및 방법들 |
US10380762B2 (en) | 2016-10-07 | 2019-08-13 | Vangogh Imaging, Inc. | Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data |
US10341568B2 (en) | 2016-10-10 | 2019-07-02 | Qualcomm Incorporated | User interface to assist three dimensional scanning of objects |
CA3043352A1 (en) * | 2016-11-15 | 2018-05-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
US10210662B2 (en) | 2016-12-09 | 2019-02-19 | Fyusion, Inc. | Live augmented reality using tracking |
US9996945B1 (en) * | 2016-12-12 | 2018-06-12 | Fyusion, Inc. | Live augmented reality guides |
US10665024B2 (en) | 2016-12-12 | 2020-05-26 | Fyusion, Inc. | Providing recording guidance in generating a multi-view interactive digital media representation |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
CA3054162A1 (en) * | 2017-02-27 | 2018-08-30 | Thomson Licensing | Method, system and apparatus for visual effects |
EP3596542B1 (en) * | 2017-03-17 | 2024-01-17 | Magic Leap, Inc. | Technique for recording augmented reality data |
KR102366140B1 (ko) * | 2017-03-17 | 2022-02-21 | 매직 립, 인코포레이티드 | 가상 콘텐츠 워핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법 |
CN110419061B (zh) | 2017-03-17 | 2023-09-29 | 奇跃公司 | 混合现实***及使用该***生成虚拟内容的方法 |
US10762598B2 (en) | 2017-03-17 | 2020-09-01 | Magic Leap, Inc. | Mixed reality system with color virtual content warping and method of generating virtual content using same |
CN107170011B (zh) * | 2017-04-24 | 2019-12-17 | 杭州艾芯智能科技有限公司 | 一种机器人视觉跟踪方法及*** |
US10600206B2 (en) * | 2017-04-28 | 2020-03-24 | Htc Corporation | Tracking system and method thereof |
CN110869980B (zh) * | 2017-05-18 | 2024-01-09 | 交互数字Vc控股公司 | 将内容分发和呈现为球形视频和3d资产组合 |
WO2019032677A1 (en) * | 2017-08-09 | 2019-02-14 | Apple Inc. | LOW-LATENCY INTEGRATED COLOR INCRUST IN A MIXED REALITY VISIOCASQUE |
US10474900B2 (en) * | 2017-09-15 | 2019-11-12 | Snap Inc. | Real-time tracking-compensated image effects |
US10817983B1 (en) * | 2017-09-28 | 2020-10-27 | Apple Inc. | Method and device for combining real and virtual images |
EP3701355A1 (en) * | 2017-10-23 | 2020-09-02 | Koninklijke Philips N.V. | Self-expanding augmented reality-based service instructions library |
US10839585B2 (en) | 2018-01-05 | 2020-11-17 | Vangogh Imaging, Inc. | 4D hologram: real-time remote avatar creation and animation control |
US11080540B2 (en) | 2018-03-20 | 2021-08-03 | Vangogh Imaging, Inc. | 3D vision processing using an IP block |
US10810783B2 (en) | 2018-04-03 | 2020-10-20 | Vangogh Imaging, Inc. | Dynamic real-time texture alignment for 3D models |
US11170224B2 (en) | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
WO2020023523A1 (en) | 2018-07-23 | 2020-01-30 | Magic Leap, Inc. | Intra-field sub code timing in field sequential displays |
CN112513712B (zh) | 2018-07-23 | 2023-05-09 | 奇跃公司 | 具有虚拟内容翘曲的混合现实***和使用该***生成虚拟内容的方法 |
CN109272457B (zh) * | 2018-08-09 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 一种图像掩膜生成方法、装置及服务器 |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
CN111182174B (zh) * | 2018-11-09 | 2020-12-04 | 珠海格力电器股份有限公司 | 一种扫地机器人补光的方法及装置 |
WO2020106299A1 (en) * | 2018-11-21 | 2020-05-28 | Hewlett-Packard Development Company, L.P. | Augmenting live images of a scene for occlusion |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US11501499B2 (en) | 2018-12-20 | 2022-11-15 | Snap Inc. | Virtual surface modification |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
EP3948840A4 (en) * | 2019-03-18 | 2023-07-19 | Geomagical Labs, Inc. | VIRTUAL INTERACTION WITH THREE-DIMENSIONAL INTERIOR ROOM IMAGING |
US11232633B2 (en) | 2019-05-06 | 2022-01-25 | Vangogh Imaging, Inc. | 3D object capture and object reconstruction using edge cloud computing resources |
US11170552B2 (en) | 2019-05-06 | 2021-11-09 | Vangogh Imaging, Inc. | Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11164384B2 (en) * | 2019-07-24 | 2021-11-02 | Houzz, Inc. | Mobile device image item replacements |
CN110446092B (zh) * | 2019-07-25 | 2023-06-20 | 北京拉近众博科技有限公司 | 用于体育比赛的虚拟观众席生成方法、***、装置和介质 |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US10976806B1 (en) * | 2019-12-27 | 2021-04-13 | GE Precision Healthcare LLC | Methods and systems for immersive reality in a medical environment |
US11335063B2 (en) | 2020-01-03 | 2022-05-17 | Vangogh Imaging, Inc. | Multiple maps for 3D object scanning and reconstruction |
US11783550B2 (en) | 2020-09-17 | 2023-10-10 | Apple Inc. | Image composition for extended reality systems |
JP2022068711A (ja) * | 2020-10-22 | 2022-05-10 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US11398255B1 (en) | 2021-05-26 | 2022-07-26 | Flawless Holdings Limited | Modification of objects in film |
US11715495B2 (en) * | 2021-05-26 | 2023-08-01 | Flawless Holdings Limited | Modification of objects in film |
US11822713B2 (en) * | 2021-06-11 | 2023-11-21 | Rockwell Collins, Inc. | Pose augmentation of head worn display video for latency reduction |
US11568552B2 (en) * | 2021-06-28 | 2023-01-31 | Varjo Technologies Oy | Imaging systems and methods incorporating improved culling of virtual objects |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7168953B1 (en) * | 2003-01-27 | 2007-01-30 | Massachusetts Institute Of Technology | Trainable videorealistic speech animation |
US8150101B2 (en) * | 2006-11-13 | 2012-04-03 | Cybernet Systems Corporation | Orientation invariant object identification using model-based image processing |
WO2008079301A2 (en) * | 2006-12-21 | 2008-07-03 | Massachusetts Institute Of Technology | Methods and apparatus for 3d surface imaging using active wave-front sampling |
US8175413B1 (en) * | 2009-03-05 | 2012-05-08 | Google Inc. | Video identification through detection of proprietary rights logos in media |
US8768313B2 (en) * | 2009-08-17 | 2014-07-01 | Digimarc Corporation | Methods and systems for image or audio recognition processing |
EP2491527B1 (en) | 2009-10-22 | 2013-07-31 | Tomtom Belgium N.V. | Method for creating a mosaic image using masks |
EP2383696A1 (en) * | 2010-04-30 | 2011-11-02 | LiberoVision AG | Method for estimating a pose of an articulated object model |
KR20120113058A (ko) | 2011-04-04 | 2012-10-12 | 한국전자통신연구원 | 현실-가상 융합 공간 기반의 교육 장치 및 방법 |
US9053571B2 (en) | 2011-06-06 | 2015-06-09 | Microsoft Corporation | Generating computer models of 3D objects |
CN104137150B (zh) | 2011-07-04 | 2016-12-28 | 李·文森特·斯特里特 | 测距成像中的运动补偿 |
US9255813B2 (en) | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
-
2014
- 2014-03-25 US US14/225,157 patent/US9269003B2/en active Active
- 2014-03-26 EP EP14722910.8A patent/EP2992508B1/en active Active
- 2014-03-26 CN CN201480024088.9A patent/CN105164728B/zh active Active
- 2014-03-26 JP JP2016511738A patent/JP2016522485A/ja active Pending
- 2014-03-26 WO PCT/US2014/031926 patent/WO2014178966A1/en active Application Filing
Non-Patent Citations (1)
Title |
---|
杉本一平,他4名: "複合現実感のための隠消現実感:トラッキング性能向上目的で配置した人工物の視覚的除去", 第16回日本バーチャルリアリティ学会大会 論文集 [CD−ROM], JPN6018017463, September 2011 (2011-09-01), JP, pages 18 - 321 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018129026A (ja) * | 2017-02-07 | 2018-08-16 | 日本電信電話株式会社 | 決定装置、画像処理装置、決定方法及び決定プログラム |
KR20190036868A (ko) * | 2017-09-28 | 2019-04-05 | 한국과학기술원 | 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법 |
KR101971791B1 (ko) * | 2017-09-28 | 2019-04-23 | 한국과학기술원 | 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법 |
JP2019091436A (ja) * | 2017-10-18 | 2019-06-13 | ダッソー システムズDassault Systemes | 3d配置のタイプに応じた2d画像の分類 |
JP7294788B2 (ja) | 2017-10-18 | 2023-06-20 | ダッソー システムズ | 3d配置のタイプに応じた2d画像の分類 |
JP2019152899A (ja) * | 2018-02-28 | 2019-09-12 | 株式会社バンダイナムコスタジオ | シミュレーションシステム及びプログラム |
US11645822B2 (en) | 2020-12-21 | 2023-05-09 | Toyota Jidosha Kabushiki Kaisha | Display system and display device for rendering of a virtual object of a departure point |
Also Published As
Publication number | Publication date |
---|---|
EP2992508A1 (en) | 2016-03-09 |
US20140321702A1 (en) | 2014-10-30 |
CN105164728B (zh) | 2018-02-06 |
US9269003B2 (en) | 2016-02-23 |
EP2992508B1 (en) | 2019-01-16 |
WO2014178966A1 (en) | 2014-11-06 |
CN105164728A (zh) | 2015-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9269003B2 (en) | Diminished and mediated reality effects from reconstruction | |
US11288857B2 (en) | Neural rerendering from 3D models | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
US11481982B2 (en) | In situ creation of planar natural feature targets | |
CN110889890B (zh) | 图像处理方法及装置、处理器、电子设备及存储介质 | |
JP6258953B2 (ja) | 単眼視覚slamのための高速初期化 | |
TWI583176B (zh) | 具有功率有效深度感測器運用之即時三維重建 | |
US8878846B1 (en) | Superimposing virtual views of 3D objects with live images | |
CN110322542B (zh) | 重建真实世界3d场景的视图 | |
US9237330B2 (en) | Forming a stereoscopic video | |
CN112166604B (zh) | 具有单个rgbd相机的对象的体积捕获 | |
US20130293686A1 (en) | 3d reconstruction of human subject using a mobile device | |
US20130127988A1 (en) | Modifying the viewpoint of a digital image | |
US8611642B2 (en) | Forming a steroscopic image using range map | |
US11854230B2 (en) | Physical keyboard tracking | |
US20130127993A1 (en) | Method for stabilizing a digital video | |
WO2015142446A1 (en) | Augmented reality lighting with dynamic geometry | |
WO2014200625A1 (en) | Systems and methods for feature-based tracking | |
US20130129192A1 (en) | Range map determination for a video frame | |
JP6845490B2 (ja) | 自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング | |
US20210082176A1 (en) | Passthrough visualization | |
US11451758B1 (en) | Systems, methods, and media for colorizing grayscale images | |
US20230245322A1 (en) | Reconstructing A Three-Dimensional Scene | |
US20240119568A1 (en) | View Synthesis Pipeline for Rendering Passthrough Images | |
TW202332263A (zh) | 立體影像播放裝置及其立體影像產生方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170310 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180521 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180821 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190204 |