JP2010040037A - ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス - Google Patents
ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス Download PDFInfo
- Publication number
- JP2010040037A JP2010040037A JP2009155865A JP2009155865A JP2010040037A JP 2010040037 A JP2010040037 A JP 2010040037A JP 2009155865 A JP2009155865 A JP 2009155865A JP 2009155865 A JP2009155865 A JP 2009155865A JP 2010040037 A JP2010040037 A JP 2010040037A
- Authority
- JP
- Japan
- Prior art keywords
- model
- reference model
- image
- comparison
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】この相互作用は画像内に存在する物体の外見を修正することによって行われる。初期化段階(100)において参照モデルが生成(110)され,処理(115)された後,画像内の物体の姿勢が判定(135)され,画像から比較モデルが抽出(160)される。参照モデルと比較モデルとが,判定された上記の物体の姿勢によって比較(170)され,比較ステップに応答して相互作用が検出される。
【選択図】図1
Description
T. Rodriquez, A. Cabo de Leon, B. Uzzan, N. Livet, E. Boyer, F. Geffray, T. Balogh, Z. Megyesi, and A. Barsi, Holographic and action capture techniques, SIGGRAPH '07, ACM SIGGRAPH 2007 emerging technologies, August 2007
これらの応用は実場面の幾何学的構成を再現できるが,現在は正確な動きを特定することはできないことに注意されたい。更に,実時間の制約を満たすために,複雑かつ高価なハードウェア構成を使用しなければならない。
初期化段階において
上記少なくとも一つの物体の少なくとも一つの参照モデルを生成する生成ステップと,
上記少なくとも一つの参照モデルを処理する処理ステップと,
を有し,利用段階において
上記少なくとも一つの画像内の上記少なくとも一つの物体の姿勢を判定する判定ステップと,
上記少なくとも一つの物体によって上記少なくとも一つの画像から少なくとも一つの比較モデルを抽出する抽出ステップと,
処理済みの上記少なくとも一つの参照モデルと,上記少なくとも一つの比較モデルとを,上記の判定した姿勢によって比較する比較ステップと,
上記比較ステップに応答して上記少なくとも一つの相互作用を検出する検出ステップと,
を有することを特徴とする。
P’=K.(R.P+T)
ここで
P’は点Pの参照モデルの座標系における座標であって,P’の座標は同次2D座標であり,
R及びTはカメラの座標系における物体の姿勢を定義するものであって,参照点に対する回転及び変換に対応し,
Kは,画像を取得するための固有パラメータを含む投影マトリクスである。
P’=K.(R.P+R.RTT)=K.R.(P+RTT)
・所定のウィンドウについて画素グループの輝度を比較し,そこから類似性測定値を抽出するためのゼロ正規化相互相関(ZNCC)演算子
・平面演算子における距離。空間内の物体の姿勢と,既知の参照モデルとの幾何学変換であり,参照特徴点と現在の特徴点との距離を測定することができる。この距離はゼロに近くなければならない。この距離がゼロに近いときは,画素単位差分演算子を用いるのが有利であることに注意されたい。
・遮へいされた活性範囲を時間軸上のフィルタによって再帰的に検討する。これによって,ユーザが活性範囲に留まっているときは,当該範囲に対する動作の検証となる。
・追跡物体の姿勢のじょう乱についてのしきい値を利用する(物体が例えばテーブル上に置かれていて,固定されていないとき)。ユーザは,必要な活性範囲に圧力を加えて物体をわずかに動かすことによって,自分の選択を確認することができる。
・音響検知器を用いて,ユーザの指と,目的物体の表面との衝突相互作用の雑音を検出する。
・画像の姿勢のじょう乱と,
・色のじょう乱と,
・輝度のじょう乱と,
・映像信号に最も関係する,例えば均一ノイズ又はガウスノイズなどのノイズと
である。
・次の式によって成分(R,G<B)を有するガウスモデルと現在の画素とのマハラノビス距離を決定するステップ。
・上記条件が否のとき,画素は背景に属する,すなわち参照モデルに属すると記される。
・中央処理装置(CPU)又はマイクロプロセッサ1004
・オペレーティングシステム及び“Prog”のようなプログラムを含むことができる読み出し専用メモリ(ROM)1006
・上述のプログラムの実行中に生成及び修正される変数及びパラメータを記憶するようになっているレジスタを含むランダムアクセスメモリ(RAM)又はキャッシュメモリ1008
・カメラ1012に接続された映像取得カード1010
・スクリーン又はプロジェクタ1018に接続されたグラヒックカード1016
・上述のプログラム“Prog”と,本発明によって処理された,又は処理されるデータを含むハードディスク1020
・キーボード1022及びマウス1024,又はユーザが本発明のプログラムと対話できるようにする光学ペン,タッチスクリーン,若しくはリモコンのような任意のほかの指示デバイス
・データを送受信できる例えばインターネットなどの分散通信網1028に接続された通信インタフェース1026
・センサ(図示していない)に接続したデータ取得カード1014
・本発明によって処理された,又は処理するカード内のデータを読み書きするようになっているメモリカードリーダ(図示していない)
105 第2部分
200 第1部分
205 第2部分
300 画像
305 物体
310 参照モデルの表現
505 活性範囲
540 活性範囲
545 活性範囲
800 第1部分
805 第2部分
910−1 窓
915−1 ひも
1000 デバイス
1004 中央処理装置
1006 読み出し専用メモリ
1008 ランダムアクセスメモリ
1010 映像取得カード
1012 カメラ
1016 グラヒックカード
1018 スクリーン/プロジェクタ
1020 ハードディスク
1026 通信インタフェース
1028 網
Claims (18)
- ユーザと,一連の画像のうち少なくとも一つの画像内の拡張現実場面との少なくとも一つの相互作用を実時間で検出する方法であって,前記少なくとも一つの相互作用は,前記少なくとも一つの画像内の少なくとも一つの物体の表現の外見を修正する修正ステップによって得られ,
初期化段階(100,200,800)において
前記少なくとも一つの物体の少なくとも一つの参照モデルを生成する生成ステップ(110,210,810)と,
前記少なくとも一つの参照モデルを処理する処理ステップ(115,215,815)と,
を有し,利用段階において
前記少なくとも一つの画像内の前記少なくとも一つの物体の姿勢を判定する判定ステップ(135,235,835)と,
前記少なくとも一つの物体によって前記少なくとも一つの画像から少なくとも一つの比較モデルを抽出する抽出ステップ(160,260,860)と,
処理済みの前記少なくとも一つの参照モデルと,前記少なくとも一つの比較モデルとを,前記の判定した姿勢によって比較する比較ステップ(170,270,870)と,
前記比較ステップに応答して前記少なくとも一つの相互作用を検出する検出ステップと,
を有することを特徴とする方法。 - 前記判定ステップは物体追跡アルゴリズムを用いる請求項1に記載の方法。
- 前記利用段階の各ステップを,前記一連の画像のうち少なくとも2画像に少なくとも1回反復する請求項1又は2に記載の方法。
- 前記比較ステップの結果を再帰処理するステップ(180,280,880)を更に有する請求項1〜3のいずれか1項に記載の方法。
- 前記処理ステップは前記少なくとも一つの参照モデル内に少なくとも一つの活性範囲を規定するステップ(215)を含み,前記方法は前記利用段階で前記比較モデル内の少なくとも一つの活性範囲を判定するステップを更に有し,前記比較ステップは前記活性範囲を基準とする請求項1〜4のいずれか1項に記載の方法。
- 前記少なくとも一つの参照モデルの前記少なくとも一つの活性範囲内で,少なくとも一つの参照点を判定するステップを更に有し,前記比較ステップは前記比較モデルの前記活性範囲内の前記少なくとも一つの参照点を探索するステップを含む請求項1〜5のいずれか1項に記載の方法。
- 前記比較ステップは,前記少なくとも一つの参照モデルの処理したモデルの少なくとも一部と,前記少なくとも一つの比較モデルの少なくとも一部との相関を評価するステップを含む請求項1〜6のいずれか1項に記載の方法。
- 前記比較ステップは,前記少なくとも一つの比較モデルの少なくとも一部と,処理済みの前記少なくとも一つの参照モデルの少なくとも一部との差を評価するステップを含む請求項1〜6のいずれか1項に記載の方法。
- 前記生成ステップは,前記少なくとも一つの物体の表現を平面射影幾何学変換するステップを含む請求項1〜8のいずれか1項に記載の方法。
- 前記少なくとも一つの比較モデルは前記少なくとも一つの物体の前記姿勢によって決定され,前記抽出ステップは前記少なくとも一つの画像の少なくとも一部を平面射影幾何学変換するステップを含む請求項1〜9のいずれか1項に記載の方法。
- 前記生成ステップは,前記参照モデルの少なくとも一つの要素の,少なくとも一つのパラメータの分布を表す,少なくとも一つのガウスモデルを決定するステップを含む請求項1〜10のいずれか1項に記載の方法。
- 前記比較ステップは,前記参照モデルの少なくとも一つの点に対応する前記比較モデルの前記少なくとも一つの点と,前記参照モデルの前記少なくとも一つの点に関する前記ガウスモデルとの距離の測定値を評価するステップを含む請求項1〜11のいずれか1項に記載の方法。
- 前記参照モデルは3次元幾何学モデル及び付随テキスチャを含み,前記方法は前記利用段階で前記少なくとも一つの物体の前記姿勢と,前記幾何学モデル及び前記テキスチャとによって,前記参照モデルの表現を決定するステップを更に有する請求項1〜9のいずれか1項に記載の方法。
- 前記検出ステップに応答して,少なくとも一つの動作を開始するステップを更に有する請求項1〜13のいずれか1項に記載の方法。
- 前記修正ステップは,前記少なくとも一つの物体と,前記少なくとも一つの画像のソースとの間に,前記少なくとも一つの物体とは異なる,第2物体と呼ぶ物体を配置するステップによって得られる請求項1〜14のいずれか1項に記載の方法。
- 前記修正ステップは,前記少なくとも一つの物体を修正するステップによって得られる請求項1〜15のいずれか1項に記載の方法。
- 請求項1〜16のいずれか1項に記載の方法の各ステップを実行するようになっている命令を含む計算機プログラム。
- 請求項1〜16のいずれか1項に記載の方法の各ステップを実行するようになっている手段を備えるデバイス。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0854382A FR2933218B1 (fr) | 2008-06-30 | 2008-06-30 | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010040037A true JP2010040037A (ja) | 2010-02-18 |
JP2010040037A5 JP2010040037A5 (ja) | 2012-06-21 |
Family
ID=40348018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009155865A Pending JP2010040037A (ja) | 2008-06-30 | 2009-06-30 | ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US20100002909A1 (ja) |
EP (1) | EP2141656A1 (ja) |
JP (1) | JP2010040037A (ja) |
KR (1) | KR20100003252A (ja) |
FR (1) | FR2933218B1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011105528A1 (ja) | 2010-02-25 | 2011-09-01 | 三菱重工業株式会社 | 充電式フォークリフトの充電管理システム、及び充電管理方法 |
JP2013515275A (ja) * | 2010-03-08 | 2013-05-02 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実のためのブロードバンドパッシブ追跡 |
JP2014510943A (ja) * | 2011-02-24 | 2014-05-01 | クアルコム,インコーポレイテッド | オートフォーカス追跡 |
JP2016192132A (ja) * | 2015-03-31 | 2016-11-10 | Kddi株式会社 | 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置 |
CN106504629A (zh) * | 2016-11-04 | 2017-03-15 | 大连文森特软件科技有限公司 | 一种基于增强现实技术的汽车组装演示记忆*** |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5709906B2 (ja) | 2010-02-24 | 2015-04-30 | アイピープレックス ホールディングス コーポレーション | 視覚障害者支援用拡張現実パノラマ |
KR101129328B1 (ko) * | 2010-03-03 | 2012-03-26 | 광주과학기술원 | 타겟 추적 장치 및 방법 |
KR101135186B1 (ko) * | 2010-03-03 | 2012-04-16 | 광주과학기술원 | 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 |
KR101281095B1 (ko) * | 2010-06-08 | 2013-07-02 | 주정인 | 증강현실을 이용한 컨텐츠 찾기 게임 방법 및 시스템 |
US9514654B2 (en) | 2010-07-13 | 2016-12-06 | Alive Studios, Llc | Method and system for presenting interactive, three-dimensional learning tools |
KR101397712B1 (ko) * | 2010-07-27 | 2014-06-27 | 주식회사 팬택 | 증강 현실 객체 인식 가이드 제공 장치 및 방법 |
WO2012030958A1 (en) * | 2010-08-31 | 2012-03-08 | Activate Systems, Inc. | Methods and apparatus for improved motion capture |
US9013550B2 (en) * | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
US9529424B2 (en) | 2010-11-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Augmented reality with direct user interaction |
KR20120087287A (ko) * | 2010-12-28 | 2012-08-07 | 주식회사 팬택 | 증강현실 히스토리 정보를 이용하여 소셜 네트워킹 서비스를 제공하는 단말기, 서버 및 이를 이용한 증강현실 제공 시스템 |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
WO2012094349A2 (en) | 2011-01-05 | 2012-07-12 | Orbotix, Inc. | Self-propelled device with actively engaged drive system |
USD648796S1 (en) | 2011-01-31 | 2011-11-15 | Logical Choice Technologies, Inc. | Educational card |
USD648390S1 (en) | 2011-01-31 | 2011-11-08 | Logical Choice Technologies, Inc. | Educational card |
USD654538S1 (en) | 2011-01-31 | 2012-02-21 | Logical Choice Technologies, Inc. | Educational card |
USD648391S1 (en) | 2011-01-31 | 2011-11-08 | Logical Choice Technologies, Inc. | Educational card |
USD647968S1 (en) | 2011-01-31 | 2011-11-01 | Logical Choice Technologies, Inc. | Educational card |
USD675648S1 (en) | 2011-01-31 | 2013-02-05 | Logical Choice Technologies, Inc. | Display screen with animated avatar |
US8724853B2 (en) * | 2011-07-18 | 2014-05-13 | Google Inc. | Identifying a target object using optical occlusion |
WO2013023706A1 (en) * | 2011-08-18 | 2013-02-21 | Layar B.V. | Computer-vision based augmented reality system |
US20130063556A1 (en) * | 2011-09-08 | 2013-03-14 | Prism Skylabs, Inc. | Extracting depth information from video from a single camera |
JP5784237B2 (ja) * | 2011-10-12 | 2015-09-24 | クアルコム,インコーポレイテッド | カメラを搭載したコンピューティングデバイスを用いた偽造印刷物の検出 |
US9292758B2 (en) * | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US9827487B2 (en) | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
WO2013173389A1 (en) | 2012-05-14 | 2013-11-21 | Orbotix, Inc. | Operating a computing device by detecting rounded objects in an image |
US9813666B2 (en) | 2012-05-29 | 2017-11-07 | Qualcomm Incorporated | Video transmission and reconstruction |
US9583032B2 (en) * | 2012-06-05 | 2017-02-28 | Microsoft Technology Licensing, Llc | Navigating content using a physical object |
US20130328930A1 (en) * | 2012-06-06 | 2013-12-12 | Samsung Electronics Co., Ltd. | Apparatus and method for providing augmented reality service |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
US9147251B2 (en) * | 2012-08-03 | 2015-09-29 | Flyby Media, Inc. | Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications |
JP6098133B2 (ja) * | 2012-11-21 | 2017-03-22 | カシオ計算機株式会社 | 顔構成部抽出装置、顔構成部抽出方法及びプログラム |
US9076257B2 (en) | 2013-01-03 | 2015-07-07 | Qualcomm Incorporated | Rendering augmented reality based on foreground object |
US9946963B2 (en) | 2013-03-01 | 2018-04-17 | Layar B.V. | Barcode visualization in augmented reality |
US20140282220A1 (en) * | 2013-03-14 | 2014-09-18 | Tim Wantland | Presenting object models in augmented reality images |
US9886622B2 (en) * | 2013-03-14 | 2018-02-06 | Intel Corporation | Adaptive facial expression calibration |
US8922589B2 (en) | 2013-04-07 | 2014-12-30 | Laor Consulting Llc | Augmented reality apparatus |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US9443355B2 (en) * | 2013-06-28 | 2016-09-13 | Microsoft Technology Licensing, Llc | Reprojection OLED display for augmented reality experiences |
US9514571B2 (en) | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
DE102014208048A1 (de) * | 2014-04-29 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | System und Verfahren zur Personalisierung eines Ausstellungsraums |
FR3025917A1 (fr) * | 2014-09-16 | 2016-03-18 | Ingenuity I O | Dispositif et procede d'orchestration de surfaces d'affichage, de dispositifs de projection et de dispositifs d'interaction spatialises 2d et 3d pour la creation d'environnements interactifs |
PL411602A1 (pl) * | 2015-03-17 | 2016-09-26 | Politechnika Poznańska | System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo |
CN106203280A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种增强现实ar图像处理方法、装置及智能终端 |
KR20180046003A (ko) * | 2016-10-27 | 2018-05-08 | 주식회사 퍼즐스페이스 | 가상현실을 이용한 게임 서비스 제공 시스템 |
US10529137B1 (en) * | 2016-11-29 | 2020-01-07 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Machine learning systems and methods for augmenting images |
US10360832B2 (en) | 2017-08-14 | 2019-07-23 | Microsoft Technology Licensing, Llc | Post-rendering image transformation using parallel image transformation pipelines |
DK180640B1 (en) | 2018-05-07 | 2021-11-09 | Apple Inc | Devices and methods of measurement using augmented reality |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
KR101966020B1 (ko) | 2018-10-12 | 2019-08-13 | (주)셀빅 | 혼합 현실 기반의 다중 참여형 공간 어뮤즈먼트 서비스 방법 및 다중 참여형 공간 어뮤즈먼트 서비스 시스템 |
CN111626082A (zh) * | 2019-02-28 | 2020-09-04 | 佳能株式会社 | 检测装置和方法及图像处理装置和*** |
US11227446B2 (en) | 2019-09-27 | 2022-01-18 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
US11138771B2 (en) | 2020-02-03 | 2021-10-05 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11615595B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Systems, methods, and graphical user interfaces for sharing augmented reality environments |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141702A (ja) * | 2003-07-11 | 2005-06-02 | Olympus Corp | 情報呈示装置 |
JP2005174352A (ja) * | 2003-12-11 | 2005-06-30 | Sony United Kingdom Ltd | オブジェクト検出 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061064A (en) * | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US6124864A (en) * | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
US6330356B1 (en) * | 1999-09-29 | 2001-12-11 | Rockwell Science Center Llc | Dynamic visual registration of a 3-D object with a graphical model |
US6765569B2 (en) * | 2001-03-07 | 2004-07-20 | University Of Southern California | Augmented-reality tool employing scene-feature autocalibration during camera motion |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
US20070035562A1 (en) * | 2002-09-25 | 2007-02-15 | Azuma Ronald T | Method and apparatus for image enhancement |
US9229540B2 (en) * | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US7826641B2 (en) * | 2004-01-30 | 2010-11-02 | Electronic Scripting Products, Inc. | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features |
GB2411532B (en) * | 2004-02-11 | 2010-04-28 | British Broadcasting Corp | Position determination |
JP4726194B2 (ja) * | 2005-04-01 | 2011-07-20 | キヤノン株式会社 | キャリブレーション方法及び装置 |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
US7536030B2 (en) * | 2005-11-30 | 2009-05-19 | Microsoft Corporation | Real-time Bayesian 3D pose tracking |
DE102006005044B4 (de) * | 2006-02-03 | 2011-01-27 | Metaio Gmbh | Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung |
US8571272B2 (en) * | 2006-03-12 | 2013-10-29 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
EP2201495B1 (en) * | 2007-10-12 | 2013-03-27 | MVTec Software GmbH | Computer vision cad models |
CA2734143C (en) * | 2008-08-15 | 2021-08-31 | Brown University | Method and apparatus for estimating body shape |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
US9600067B2 (en) * | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
-
2008
- 2008-06-30 FR FR0854382A patent/FR2933218B1/fr not_active Expired - Fee Related
-
2009
- 2009-06-23 EP EP09290480A patent/EP2141656A1/fr not_active Withdrawn
- 2009-06-30 KR KR1020090059261A patent/KR20100003252A/ko not_active Application Discontinuation
- 2009-06-30 US US12/495,402 patent/US20100002909A1/en not_active Abandoned
- 2009-06-30 JP JP2009155865A patent/JP2010040037A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141702A (ja) * | 2003-07-11 | 2005-06-02 | Olympus Corp | 情報呈示装置 |
JP2005174352A (ja) * | 2003-12-11 | 2005-06-30 | Sony United Kingdom Ltd | オブジェクト検出 |
Non-Patent Citations (4)
Title |
---|
CSNG200400536001; 加藤博一 外2名: 'テクスチャー画像からオンライン生成されたテンプレートのマッチングに基づく拡張現実感のための位置合わせ' 日本バーチャルリアリティ学会論文誌 第7巻 第2号 第7巻 第2号, 20020630, 頁119〜128, 日本バーチャルリアリティ学会 * |
CSNJ200810077319; 今本健児 外3名: '電子情報通信学会2000年総合大会講演論文集 基礎・境界 AR環境における仮想物体操作のためのカード' 電子情報通信学会2000年総合大会講演論文集 基礎・境界 , 20000307, 頁319, 電子情報通信学会2000年総合大会 * |
JPN6013006639; 今本健児 外3名: '電子情報通信学会2000年総合大会講演論文集 基礎・境界 AR環境における仮想物体操作のためのカード' 電子情報通信学会2000年総合大会講演論文集 基礎・境界 , 20000307, 頁319, 電子情報通信学会2000年総合大会 * |
JPN6013006640; 加藤博一 外2名: 'テクスチャー画像からオンライン生成されたテンプレートのマッチングに基づく拡張現実感のための位置合わせ' 日本バーチャルリアリティ学会論文誌 第7巻 第2号 第7巻 第2号, 20020630, 頁119〜128, 日本バーチャルリアリティ学会 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011105528A1 (ja) | 2010-02-25 | 2011-09-01 | 三菱重工業株式会社 | 充電式フォークリフトの充電管理システム、及び充電管理方法 |
JP2013515275A (ja) * | 2010-03-08 | 2013-05-02 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実のためのブロードバンドパッシブ追跡 |
US8610771B2 (en) | 2010-03-08 | 2013-12-17 | Empire Technology Development Llc | Broadband passive tracking for augmented reality |
US9390503B2 (en) | 2010-03-08 | 2016-07-12 | Empire Technology Development Llc | Broadband passive tracking for augmented reality |
JP2014510943A (ja) * | 2011-02-24 | 2014-05-01 | クアルコム,インコーポレイテッド | オートフォーカス追跡 |
JP2016192132A (ja) * | 2015-03-31 | 2016-11-10 | Kddi株式会社 | 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置 |
CN106504629A (zh) * | 2016-11-04 | 2017-03-15 | 大连文森特软件科技有限公司 | 一种基于增强现实技术的汽车组装演示记忆*** |
CN106504629B (zh) * | 2016-11-04 | 2019-05-24 | 快创科技(大连)有限公司 | 一种基于增强现实技术的汽车组装演示记忆*** |
Also Published As
Publication number | Publication date |
---|---|
US20100002909A1 (en) | 2010-01-07 |
FR2933218B1 (fr) | 2011-02-11 |
KR20100003252A (ko) | 2010-01-07 |
EP2141656A1 (fr) | 2010-01-06 |
FR2933218A1 (fr) | 2010-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010040037A (ja) | ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス | |
JP5967904B2 (ja) | ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 | |
Hagbi et al. | Shape recognition and pose estimation for mobile augmented reality | |
Hauswiesner et al. | Virtual try-on through image-based rendering | |
Sharp et al. | Accurate, robust, and flexible real-time hand tracking | |
US11514646B2 (en) | System, device, and method of generating a reduced-size volumetric dataset | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
Pucihar et al. | Exploring the evolution of mobile augmented reality for future entertainment systems | |
WO2011075082A1 (en) | Method and system for single view image 3 d face synthesis | |
US9754161B2 (en) | System and method for computer vision based tracking of an object | |
Morshidi et al. | Gravity optimised particle filter for hand tracking | |
Viyanon et al. | AR furniture: Integrating augmented reality technology to enhance interior design using marker and markerless tracking | |
CN112088348A (zh) | 经由头部姿态远程控制显示设备的方法、***和计算机程序 | |
US9483691B2 (en) | System and method for computer vision based tracking of an object | |
Vysocky et al. | Generating synthetic depth image dataset for industrial applications of hand localization | |
Okamoto et al. | Assembly assisted by augmented reality (A 3 R) | |
Huo et al. | Multiple people tracking and pose estimation with occlusion estimation | |
Álvarez et al. | A new marker design for a robust marker tracking system against occlusions | |
Jáuregui et al. | Real-time 3D motion capture by monocular vision and virtual rendering | |
Rodrigues et al. | AR contents superimposition on walls and persons | |
Coleca et al. | Gesture interfaces with depth sensors | |
Merriman | Real-Time 3D Person Tracking and Dense Stereo Maps Using GPU Acceleration | |
Shen et al. | Depth Sensor-Based Facial and Body Animation Control | |
Lee et al. | AR paint: a fusion system of a paint tool and AR | |
Seeber | Realistic Hands: Multi-Modal 3D Hand Reconstruction using Deep Neural Networks and Differential Rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120509 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130219 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130517 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140121 |