JP2015534165A5 - - Google Patents

Download PDF

Info

Publication number
JP2015534165A5
JP2015534165A5 JP2015531095A JP2015531095A JP2015534165A5 JP 2015534165 A5 JP2015534165 A5 JP 2015534165A5 JP 2015531095 A JP2015531095 A JP 2015531095A JP 2015531095 A JP2015531095 A JP 2015531095A JP 2015534165 A5 JP2015534165 A5 JP 2015534165A5
Authority
JP
Japan
Prior art keywords
mobile device
area
result
scene
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015531095A
Other languages
English (en)
Other versions
JP2015534165A (ja
JP6077121B2 (ja
Filing date
Publication date
Priority claimed from US13/651,098 external-priority patent/US9466121B2/en
Application filed filed Critical
Publication of JP2015534165A publication Critical patent/JP2015534165A/ja
Publication of JP2015534165A5 publication Critical patent/JP2015534165A5/ja
Application granted granted Critical
Publication of JP6077121B2 publication Critical patent/JP6077121B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (52)

  1. モバイルデバイスにおいて、合計されるピクセル強度値に関連付けられる第1の結果を生成するよう合計されるエリア動作にしたがってピクセルの第1のエリアを評価すること、前記ピクセルの第1のエリアは、第1の時間におけるシーンに対応する、と、
    前記モバイルデバイスにおいて、第2の結果を生成するようピクセルの第2のエリアを評価すること、前記ピクセルの第2のエリアは、前記第1の時間の後の第2の時間における前記シーンに対応する、と、
    しきい値を前記第1の結果と前記第2の結果との間における差異と比較することに基づいて前記シーンの背景部分または前記シーンの前景部分のうちの1つと、前記ピクセルの第2のエリアが対応することを決定することと
    を備える、方法。
  2. 前記ピクセルの第1のエリアおよび前記ピクセルの第2のエリアは、前記ピクセル強度値を合計することによって評価され、前記シーンは、前景オブジェクトを含む、請求項1に記載の方法。
  3. 前記第1の結果は、ピクセル強度値の合計の第1の表を備える第1の積分画像であり、前記第2の結果は、ピクセル強度値の合計の第2の表を備える第2の積分画像である、請求項2に記載の方法。
  4. 前記モバイルデバイスにおいて、仮想オブジェクトを生成することと、
    前記シーンの画像を前記モバイルデバイスのディスプレイデバイス上において表示することと
    をさらに備え、
    前記画像は、前記前景部分、前記背景部分、および前記仮想オブジェクトを含む、請求項1に記載の方法。
  5. 前記仮想オブジェクトは、前記モバイルデバイスの拡張現実アプリケーションに関連付けられる、請求項4に記載の方法。
  6. 前記モバイルデバイスに関連する地表のロケーションを推定することと、
    前記地表の前記推定されるロケーションに基づいて、仮想オブジェクトのロケーションを決定することと
    をさらに備える、請求項1に記載の方法。
  7. 前記地表の前記ロケーションを推定することは、
    前記モバイルデバイスのセンサを使用して、前記地表に関して前記モバイルデバイスの縦範囲の角度を決定することと、
    前記モバイルデバイスの中心から前記地表への第1の投影に関連付けられる第1の距離を推定することと、ここにおいて、前記第1の投影は、前記モバイルデバイスの前記縦範囲に対して垂直である、
    前記角度および前記第1の距離に基づいて、前記モバイルデバイスの前記中心から前記地表への第2の投影に関連付けられる第2の距離を推定することと
    を含み、前記第2の投影は、前記地表に対して直角である、請求項6に記載の方法。
  8. 前記第1の結果を生成する前に、複数の初期画像をキャプチャすることと、
    前記複数の初期画像に基づいて初期背景モデルを生成することと
    をさらに備える、請求項1に記載の方法。
  9. 前記第1の結果を複数の部分に区分化することと、
    任意の前記複数の部分が前記初期背景モデルと一致するかどうかを決定するよう前記複数の部分を前記初期背景モデルと比較することとをさらに備える、請求項8に記載の方法。
  10. 前記複数の部分の各々は、1つの加算動作および2つの減算動作を使用して生成される、請求項9に記載の方法。
  11. 前記モバイルデバイスのステレオカメラを使用して前記シーンに関連付けられる深度プロファイルを生成することと、
    前記前景部分の境界を決定することと
    をさらに備え、前記境界は、前記深度プロファイルに基づいて決定される、請求項1に記載の方法。
  12. 前記深度プロファイルを決定することに応じて少なくともいくらかの前記前景部分の解像度を増大させることをさらに備える、請求項11に記載の方法。
  13. 前記シーンは、前記前景部分および前記背景部分を含む、請求項1に記載の方法。
  14. 前記モバイルデバイスによって、前記第1の時間において前記シーンの第1の領域に対応する前記ピクセルの第1のエリアを決定することと、
    前記モバイルデバイスによって、前記第2の時間において前記シーンの前記第1の領域に対応する前記ピクセルの第2のエリアを決定することと
    をさらに備える、請求項1に記載の方法。
  15. 前記ピクセルの第1のエリアは、第1の方向付けを有する前記シーンの第1の画像に関連付けられ、前記ピクセルの第2のエリアは、第2の方向付けを有する前記シーンの第2の画像に関連付けられ、前記第1の方向付けは、前記第2の方向付けとは異なる、請求項1に記載の方法。
  16. マーカから独立している前記仮想オブジェクトの動きを決定することをさらに備え、前記動きは、画像の領域内におけるピクセル強度の変化の程度に基づいて決定される、請求項4に記載の方法。
  17. 前記合計されるエリア動作にしたがって前記ピクセルの第1のエリアを評価することは、前記第1のエリアのピクセル毎に、前記第1の結果を生成するよう前記ピクセルの左に互いのピクセルの前記ピクセル強度値を合計することを含む、請求項1に記載の方法。
  18. 前記合計されるエリア動作にしたがって前記ピクセルの第1のエリアを評価することは、前記第1のエリアのピクセル毎に、前記第1の結果を生成するよう前記ピクセルの上、かつ前記ピクセルの左に互いのピクセルの前記ピクセル強度値を合計することを含む、請求項1に記載の方法。
  19. 合計されるピクセル強度値に関連づけられる第1の結果を生成するよう合計されるエリア動作にしたがってピクセルの第1のエリアを評価するよう構成され、第2の結果を生成するようピクセルの第2のエリアを評価するようさらに構成される評価器、ここにおいて、前記ピクセルの第1のエリアは、第1の時間におけるシーンに対応し、前記ピクセルの第2のエリアは、前記第1の時間の後の第2の時間における前記シーンに対応する、と、
    しきい値を前記第1の結果と前記第2の結果との間の差異と比較することに基づいて前記シーンの背景部分または前記シーンの前景部分のうちの1つと前記ピクセルの第2のエリアが対応することを決定するよう構成されるプロセッサ
    を備える、モバイルデバイス。
  20. 前記評価器は、前記ピクセルの第1のエリアの第1のピクセルの前記ピクセル強度値を合計するように、および前記ピクセルの第2のエリアの第2のピクセルの前記ピクセル強度値を合計するようにさらに構成される、請求項19に記載のモバイルデバイス。
  21. 前記第1の結果は、ピクセル強度値の合計の第1の表を備える第1の積分画像であり、前記第2の結果は、ピクセル強度値の合計の第2の表を備える第2の積分画像である、請求項20に記載のモバイルデバイス。
  22. 前記前景部分、前記背景部分、および仮想オブジェクトを含む画像を表示するよう構成されるディスプレイをさらに備える、請求項19に記載のモバイルデバイス。
  23. 前記仮想オブジェクトは、前記プロセッサによって実行される拡張現実アプリケーションに関連付けられる、請求項22に記載のモバイルデバイス。
  24. 地表に関して前記モバイルデバイスの縦範囲の角度を決定するよう構成されるセンサと、
    前記モバイルデバイスの中心から前記地表への第1の投影に関連付けられる第1の距離を推定するよう構成され、前記第1の投影は、前記モバイルデバイスの前記縦範囲に対して垂直である、前記角度および前記第1の距離に基づいて、前記モバイルデバイスの前記中心から前記地表への第2の投影に関連付けられる第2の距離を推定するようさらに構成される推定器と
    をさらに備え、前記第2の投影は、前記地表に対して直角である、請求項19に記載のモバイルデバイス。
  25. 複数の初期画像をキャプチャするよう構成されるカメラをさらに備え、前記プロセッサは、前記複数の初期画像に基づいて初期背景モデルを生成するようさらに構成される、請求項19に記載のモバイルデバイス。
  26. 前記プロセッサは、前記第1の結果を複数の部分に区分化し、任意の前記複数の部分が前記初期背景モデルと一致するかどうかを決定するよう前記複数の部分を前記初期背景モデルと比較するようさらに構成される、請求項25に記載のモバイルデバイス。
  27. 前記プロセッサは、1つの加算動作および2つの減算動作を使用して前記複数の部分の各々を生成するようさらに構成される、請求項26に記載のモバイルデバイス。
  28. 前記シーンに関連付けられる深度データを生成するよう構成されるステレオカメラと、
    前記前景部分の境界を決定するよう構成される深度評価器と
    をさらに備え、前記境界は、前記深度データに基づいて決定される、請求項19に記載のモバイルデバイス。
  29. 前記深度評価器は、前記深度データを決定することに応じて少なくともいくらかの前記前景部分の解像度を増大させるようさらに構成される、請求項28に記載のモバイルデバイス。
  30. 合計されるピクセル強度値に関連付けられる第1の結果を生成するよう合計されるエリア動作にしたがってピクセルの第1のエリアを評価するための、さらに第2の結果を生成するようピクセルの第2のエリアを評価するための手段、ここにおいて、前記ピクセルの第1のエリアは、第1の時間におけるシーンに対応し、前記ピクセルの第2のエリアは、前記第1の時間の後の第2の時間における前記シーンに対応する、と、
    しきい値を前記第1の結果と前記第2の結果との間の差異と比較することに基づいて前記シーンの背景部分または前記シーンの前景部分のうちの1つと前記ピクセルの第2のエリアが対応することを決定するための手段と
    を備える、モバイルデバイス。
  31. 前記評価器は、前記ピクセルの第1のエリアの第1のピクセルの前記ピクセル強度値を合計するように、および前記ピクセルの第2のエリアの第2のピクセルの前記ピクセル強度値を合計するようにさらに構成される、請求項30に記載のモバイルデバイス。
  32. 前記第1の結果は、ピクセル強度値の合計の第1の表を備える第1の積分画像であり、前記第2の結果は、ピクセル強度値の合計の第2の表を備える第2の積分画像である、請求項31に記載のモバイルデバイス。
  33. 前記前景部分、前記背景部分、および仮想オブジェクトを含む画像を表示するための手段をさらに備える、請求項30に記載のモバイルデバイス。
  34. 前記仮想オブジェクトは、拡張現実アプリケーションに関連付けられる、請求項33に記載のモバイルデバイス。
  35. 地表に関して前記モバイルデバイスの縦範囲の角度を決定するための手段と、
    前記モバイルデバイスの中心から前記地表への第1の投影に関連付けられる第1の距離を推定、前記第1の投影は、前記モバイルデバイスの前記縦範囲に対して垂直である、前記角度および前記第1の距離に基づいて、前記モバイルデバイスの前記中心から前記地表への第2の投影に関連付けられる第2の距離を推定するようさらに構成されるための手段
    をさらに備え、前記第2の投影は、前記地表に対して直角である、請求項30に記載のモバイルデバイス。
  36. 複数の初期画像をキャプチャするための手段をさらに備え、前記決定するための手段は、前記複数の初期画像に基づいて初期背景モデルを生成するよう構成される、請求項30に記載のモバイルデバイス。
  37. 前記決定するための手段は、前記第1の結果を複数の部分に区分化し、任意の前記複数の部分が前記初期背景モデルと一致するかどうかを決定するよう前記複数の部分を前記初期背景モデルと比較するようさらに構成される、請求項36に記載のモバイルデバイス。
  38. 前記決定するための手段は、1つの加算動作および2つの減算動作を使用して前記複数の部分の各々を生成するようさらに構成される、請求項37に記載のモバイルデバイス。
  39. 前記シーンに関連付けられる深度データを生成するための手段と、
    前記前景部分の境界を決定するための手段
    をさらに備え、前記境界は、前記深度データに基づいて決定される、請求項30に記載のモバイルデバイス。
  40. 前記決定するための手段は、前記深度データを決定することに応じて少なくともいくらかの前記前景部分の解像度を増大させるようさらに構成される、請求項39に記載のモバイルデバイス。
  41. モバイルデバイスにおいて、合計されるピクセル強度値に関連付けられる第1の結果を生成するよう合計されるエリア動作にしたがってピクセルの第1のエリアを評価すること、前記ピクセルの第1のエリアは、第1の時間におけるシーンに対応する、と、
    前記モバイルデバイスにおいて、第2の結果を生成するようピクセルの第2のエリアを評価すること、前記ピクセルの第2のエリアは、前記第1の時間の後の第2の時間における前記シーンに対応する、と、
    しきい値を前記第1の結果と前記第2の結果との間の差異と比較することに基づいて前記シーンの背景部分または前記シーンの前景部分のうちの1つと前記ピクセルの第2のエリアが対応することを決定することと
    プロセッサに行わせるためにプロセッサによって実行可能な命令を記憶する、コンピュータ可読非一時的媒体。
  42. 前記ピクセルの第1のエリアおよび前記ピクセルの第2のエリアは、ピクセル強度値を合計することによって評価される、請求項41に記載のコンピュータ可読非一時的媒体。
  43. 前記第1の結果は、ピクセル強度値の合計の第1の表を備える第1の積分画像であり、前記第2の結果は、ピクセル強度値の合計の第2の表を備える第2の積分画像である、請求項42に記載のコンピュータ可読非一時的媒体。
  44. 前記命令は、前記プロセッサによって実行されると、さらに、
    想オブジェクトを生成することと、
    前記シーンの画像を前記モバイルデバイスのディスプレイデバイス上において表示することと
    前記プロセッサに行わせ
    前記画像は、前記前景部分、前記背景部分、および前記仮想オブジェクトを含む、請求項41に記載のコンピュータ可読非一時的媒体。
  45. 前記仮想オブジェクトは、前記モバイルデバイスの拡張現実アプリケーションに関連付けられる、請求項44に記載のコンピュータ可読非一時的媒体。
  46. 前記命令は、前記プロセッサによって実行されると、さらに、
    前記モバイルデバイスに関連する地表のロケーションを推定することと、
    前記地表の前記推定されるロケーションに基づいて、仮想オブジェクトのロケーションを決定することと
    前記プロセッサに行わせる、請求項41に記載のコンピュータ可読非一時的媒体。
  47. 前記地表の前記ロケーションを推定することは、
    前記モバイルデバイスのセンサを使用して、前記地表に関して前記モバイルデバイスの縦範囲の角度を決定することと、
    前記モバイルデバイスの中心から前記地表への第1の投影に関連付けられる第1の距離を推定することと、ここにおいて、前記第1の投影は、前記モバイルデバイスの前記縦範囲に対して垂直である、
    前記角度および前記第1の距離に基づいて、前記モバイルデバイスの前記中心から前記地表への第2の投影に関連付けられる第2の距離を推定することと
    を含み、前記第2の投影は、前記地表に対して直角である、請求項46に記載のコンピュータ可読非一時的媒体。
  48. 前記命令は、前記プロセッサによって実行されると、さらに、
    前記第1の結果を生成する前に、複数の初期画像をキャプチャすることと、
    前記複数の初期画像に基づいて初期背景モデルを生成することと
    前記プロセッサに行わせる、請求項41に記載のコンピュータ可読非一時的媒体。
  49. 前記命令は、前記プロセッサによって実行されると、さらに、
    前記第1の結果を複数の部分に区分化することと、
    任意の前記複数の部分が前記初期背景モデルと一致するかどうかを決定するよう前記複数の部分を前記初期背景モデルと比較することと
    前記プロセッサに行わせる、請求項48に記載のコンピュータ可読非一時的媒体。
  50. 前記複数の部分の各々は、1つの加算動作および2つの減算動作を使用して生成される、請求項49に記載のコンピュータ可読非一時的媒体。
  51. 前記命令は、前記プロセッサによって実行されると、さらに、
    前記モバイルデバイスのステレオカメラを使用して前記シーンに関連付けられる深度プロファイルを生成することと、
    前記前景部分の境界を決定することと
    前記プロセッサに行わせ、前記境界は、前記深度プロファイルに基づいて決定される、請求項41に記載のコンピュータ可読非一時的媒体。
  52. 前記命令は、前記プロセッサによって実行されると、さらに、前記深度プロファイルに基づいて少なくともいくらかの前記前景部分の解像度を増大させることを前記プロセッサに行わせる、請求項51に記載のコンピュータ可読非一時的媒体。
JP2015531095A 2012-09-11 2013-08-09 拡張現実アプリケーションのためのデバイスおよび方法 Expired - Fee Related JP6077121B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261699615P 2012-09-11 2012-09-11
US61/699,615 2012-09-11
US13/651,098 US9466121B2 (en) 2012-09-11 2012-10-12 Devices and methods for augmented reality applications
US13/651,098 2012-10-12
PCT/US2013/054423 WO2014042795A2 (en) 2012-09-11 2013-08-09 Device and method for augmented reality applications

Publications (3)

Publication Number Publication Date
JP2015534165A JP2015534165A (ja) 2015-11-26
JP2015534165A5 true JP2015534165A5 (ja) 2017-01-19
JP6077121B2 JP6077121B2 (ja) 2017-02-08

Family

ID=50232882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015531095A Expired - Fee Related JP6077121B2 (ja) 2012-09-11 2013-08-09 拡張現実アプリケーションのためのデバイスおよび方法

Country Status (5)

Country Link
US (2) US9466121B2 (ja)
JP (1) JP6077121B2 (ja)
KR (1) KR101788945B1 (ja)
CN (1) CN104584079B (ja)
WO (1) WO2014042795A2 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9466121B2 (en) 2012-09-11 2016-10-11 Qualcomm Incorporated Devices and methods for augmented reality applications
US9894269B2 (en) 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
GB201322873D0 (en) * 2013-12-23 2014-02-12 Tobii Technology Ab Eye gaze determination
US20150264357A1 (en) * 2014-03-11 2015-09-17 Stmicroelectronics S.R.L. Method and system for encoding digital images, corresponding apparatus and computer program product
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN104407696B (zh) * 2014-11-06 2016-10-05 北京京东尚科信息技术有限公司 移动设备的虚拟球模拟及控制的方法
US9804392B2 (en) 2014-11-20 2017-10-31 Atheer, Inc. Method and apparatus for delivering and controlling multi-feed data
US20160182846A1 (en) 2014-12-22 2016-06-23 Google Inc. Monolithically integrated rgb pixel array and z pixel array
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10261804B2 (en) * 2015-09-11 2019-04-16 Qualcomm Incorporated Gradual power wake-up mechanism
KR102407624B1 (ko) * 2015-10-06 2022-06-10 삼성전자주식회사 전자 장치의 영상 처리 방법 및 그 전자 장치
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10269123B2 (en) 2017-01-09 2019-04-23 Qualcomm Incorporated Methods and apparatus for video background subtraction
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10405126B2 (en) 2017-06-30 2019-09-03 Qualcomm Incorporated Mixed-order ambisonics (MOA) audio data for computer-mediated reality systems
WO2019111052A2 (en) * 2017-12-06 2019-06-13 Zyetric One Limited Inserting virtual objects in between two real objects in an augmented reality environment
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
JP7374582B2 (ja) * 2018-11-27 2023-11-07 キヤノン株式会社 画像処理装置、画像生成方法およびプログラム
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021068799A1 (en) * 2019-10-07 2021-04-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Occlusion and collision detection for augmented reality applications
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11743670B2 (en) 2020-12-18 2023-08-29 Qualcomm Incorporated Correlation-based rendering with multiple distributed streams accounting for an occlusion for six degree of freedom applications

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5668605A (en) * 1994-10-25 1997-09-16 R. T. Set Object keying in video images based on distance from camera
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
IES20060559A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Automatic detection and correction of non-red flash eye defects
KR100975488B1 (ko) * 2006-02-21 2010-08-11 파나소닉 전공 주식회사 영상표시장치 및 영상표시장치의 영상왜곡 보정방법
EP1881454A1 (en) * 2006-07-17 2008-01-23 Mitsubishi Electric Information Technology Centre Europe B.V. Image processing for change detection
FR2911211B1 (fr) 2007-01-05 2009-06-12 Total Immersion Sa Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images
US8254680B2 (en) * 2007-01-24 2012-08-28 Samsung Electronics Co., Ltd. Apparatus and method of segmenting an image in an image coding and/or decoding system
US7929729B2 (en) * 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8896686B2 (en) 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
US8436891B2 (en) * 2009-09-16 2013-05-07 Disney Enterprises, Inc. Hyperlinked 3D video inserts for interactive television
US8466980B2 (en) * 2010-04-06 2013-06-18 Alcatel Lucent Method and apparatus for providing picture privacy in video
US20120075440A1 (en) 2010-09-28 2012-03-29 Qualcomm Incorporated Entropy based image separation
CN102123194B (zh) * 2010-10-15 2013-12-18 张哲颖 利用增强实景技术优化移动导航和人机交互功能的方法
US9424371B2 (en) 2010-11-05 2016-08-23 Autodesk, Inc. Click to accept as built modeling
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
JP5713398B2 (ja) * 2011-07-05 2015-05-07 大学共同利用機関法人情報・システム研究機構 画像照合装置、画像照合方法及びコンピュータプログラム
KR20130022831A (ko) 2011-08-26 2013-03-07 유민규 이동통신 단말기를 이용한 거리, 높이, 길이 측정 방법
US9466121B2 (en) 2012-09-11 2016-10-11 Qualcomm Incorporated Devices and methods for augmented reality applications

Similar Documents

Publication Publication Date Title
JP2015534165A5 (ja)
JP2016534461A5 (ja)
JP2017528731A5 (ja)
RU2016150826A (ru) Оценка глубины с использованием многоракурсного стереоизображения и откалиброванного проектора
JP2017529620A5 (ja)
WO2017215899A3 (en) Augmented and virtual reality
JP2016502712A5 (ja)
JP2015528614A5 (ja)
JP2016509293A5 (ja)
GB2555724A8 (en) General spherical capture methods
JP2011253521A5 (ja)
JP2015096812A5 (ja)
JP2016539398A5 (ja)
JP2017045283A5 (ja)
JP2019504379A (ja) 煙検出装置、方法及び画像処理装置
JP2019530059A5 (ja)
JP2013243702A5 (ja) プログラム、記録媒体及び符号化方式決定方法
EP2945118A3 (en) Stereo source image calibration method and apparatus
JP2019032599A5 (ja)
JP2013242757A5 (ja)
JP2018205788A5 (ja)
JP2014197243A5 (ja)
JP2017011431A5 (ja)
JP2013254480A5 (ja)
MX349023B (es) Aparato de calculo de la posicion propia y metodo de calculo de la posicion propia.