JP2016507112A - 複合的な知覚感知入力の対話 - Google Patents
複合的な知覚感知入力の対話 Download PDFInfo
- Publication number
- JP2016507112A JP2016507112A JP2015556202A JP2015556202A JP2016507112A JP 2016507112 A JP2016507112 A JP 2016507112A JP 2015556202 A JP2015556202 A JP 2015556202A JP 2015556202 A JP2015556202 A JP 2015556202A JP 2016507112 A JP2016507112 A JP 2016507112A
- Authority
- JP
- Japan
- Prior art keywords
- user
- gesture
- touch screen
- screen
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 95
- 238000005516 engineering process Methods 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 230000009471 action Effects 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000001953 sensory effect Effects 0.000 claims description 6
- 230000005057 finger movement Effects 0.000 claims description 5
- 230000002195 synergetic effect Effects 0.000 abstract description 2
- 210000003811 finger Anatomy 0.000 description 74
- 238000010586 diagram Methods 0.000 description 17
- 230000003993 interaction Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 11
- 210000003813 thumb Anatomy 0.000 description 10
- 210000004247 hand Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005286 illumination Methods 0.000 description 6
- 210000002478 hand joint Anatomy 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000001145 finger joint Anatomy 0.000 description 2
- 210000005224 forefinger Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Multimedia (AREA)
Abstract
Description
文脈上明確に他に要求されない限り、本説明及び特許請求の範囲を通じて、「備える」「備えている」及び同様の語は、排他的又は排他的な意味とは反対に、包含的な意味(すなわち、「限定ではなく、これを含む」という意味に)解釈されるべきである。本明細書で使用されるとき、「接続される(connected)」、「結合される(coupled)」という用語及びその任意の変化形は、2つ以上の要素の間の直接又は間接的な任意の接続又は結合を意味する。そのような要素間の結合又は接続は、物理的なものとすることも、論理的なものとすることも、あるいはその組合せとすることもできる。加えて、本出願で使用されるとき、「ここで」、「上記で」、「下記で」という用語又は同様の趣旨の用語は、この出願を全体として指しており、本出願のいずれかの特定の部分を指してはいない。文脈が許容する場合、上記の詳細な説明において単数形又は複数形を使用している用語は、それぞれ、その複数形又は単数形も含み得る。2つ以上の項目の列挙に関連する「又は(若しくは、あるいは)」という用語は、この用語についての以下の解釈の全てを網羅する。すなわち、列挙内の項目のいずれか、列挙内の項目の全て及び列挙内の項目の任意の組合せを網羅する。
Claims (22)
- 複数の知覚感知技術を使用してユーザのアクションについてのデータを取得するステップと;
前記取得したデータを分析して、前記ユーザのアクションからジェスチャを識別するステップと;
を含み、前記ジェスチャは、前記複数の知覚感知技術によって検出可能な情報に基づいて定義される、
方法。 - 前記ジェスチャは、ユーザインタフェースと対話して電子デバイスを制御するように、前記ユーザにより実行される、
請求項1に記載の方法。 - 前記複数の知覚感知技術は、視線検出システムと深度カメラを含み、前記ユーザインタフェースは、カーソルを含み、さらに、前記ジェスチャは、スクリーン上の前記カーソルを注視し、前記ユーザの視線を前記カーソルから前記スクリーン上の仮想オブジェクトへ移動させて前記カーソルを前記仮想オブジェクトにマップし、前記スクリーン上の前記仮想オブジェクトを選択する手のジェスチャを実行することを含む、
請求項2に記載の方法。 - 前記手のジェスチャは、2本の指のピンチである、
請求項3に記載の方法。 - 前記手のジェスチャは、手のグラブ動作である、
請求項3に記載の方法。 - 前記複数の知覚感知技術は、深度カメラとマイクロフォンアレイを含み、前記ユーザインタフェースは、カーソルを含み、さらに、前記ジェスチャは、前記カーソルを制御するための手の動きと、前記カーソルを選択又は操作するために発話される言葉とを含む、
請求項2に記載の方法。 - 前記複数の知覚感知技術は、視線検出システムとマイクロフォンアレイを含み、前記ユーザインタフェースは、カーソルを含み、さらに、前記ジェスチャは、前記カーソルを注視し、前記カーソルを制御する前記ユーザの視線を移動させること、及び前記カーソルを選択又は操作するために発話される言葉を含む、
請求項2に記載の方法。 - 前記複数の知覚感知技術は、深度カメラと視線検出システムを含み、前記深度カメラから取得される前記データは、スクリーン上の仮想オブジェクトを選択するために前記ユーザの手により行われる選択ジェスチャであり、前記視線検出システムから取得される前記データは、前記選択される仮想オブジェクトにおける視線であり、該視線の検出は、前記ユーザによって選択される前記仮想オブジェクトを識別する際の誤検出を低減する、
請求項1に記載の方法。 - 前記複数の知覚感知技術は、タッチスクリーンと深度カメラを含む、
請求項1に記載の方法。 - 前記タッチスクリーンから取得される前記データは、前記タッチスクリーンのある位置の接触であり、さらに、前記深度カメラから取得される前記データは、前記ユーザの指のうちのどの指が前記タッチスクリーンに接触したかを識別する、
請求項9に記載の方法。 - 前記タッチスクリーンから取得される前記データは、前記タッチスクリーンの複数の位置の複数の接触であり、さらに、前記深度カメラから取得される前記データは、前記複数の接触が前記ユーザのみからものであるか、あるいは前記ユーザと1以上の他のユーザとからのものであるかを識別する、
請求項9に記載の方法。 - 前記タッチスクリーンから取得される前記データは、前記タッチスクリーンのある位置の接触であり、さらに、前記深度カメラから取得される前記データは、前記ユーザの指が前記タッチスクリーンに接触した角度である、
請求項9に記載の方法。 - 前記タッチスクリーンから取得される前記データは、前記タッチスクリーンのある位置の接触であり、さらに、前記深度カメラから取得される前記データは、前記ユーザの手のうちのどちらの手が前記タッチスクリーンに接触したかを識別する、
請求項9に記載の方法。 - 前記複数の知覚感知技術は、タッチスクリーンと深度カメラを含み、さらに、前記ジェスチャは、前記タッチスクリーンへの接触と、前記タッチスクリーンから離れる後続の動きとを含む、
請求項1に記載の方法。 - 前記複数の知覚感知技術は、深度カメラとタッチスクリーンを含み、さらに、前記ジェスチャは、前記タッチスクリーンから離れる手と指の動きと、前記タッチスクリーンへの後続の接触とを含む、
請求項1に記載の方法。 - ユーザのアクションについてのデータを取得するように構成される、複数の知覚センサと;
前記取得したデータを分析して、前記ユーザのアクションからジェスチャを識別するように構成される、処理モジュールと;
を備え、前記ジェスチャが、前記複数の知覚センサによって検出可能なデータに基づいて定義される、
システム。 - 前記ユーザが前記識別されるジェスチャに基づいて電子デバイスを制御するのを可能にするよう構成される、ユーザインタフェースアプリケーションモジュールを更に備える、
請求項16に記載のシステム。 - 前記複数の知覚センサは、タッチスクリーンと深度カメラを含み、さらに、前記深度カメラによって取得される前記データは、前記タッチスクリーンによって取得される前記データを強化する、
請求項16に記載のシステム。 - 前記複数の知覚センサは、視線検出システムと深度カメラを含み、ユーザインタフェースがカーソルを含み、さらに、前記ジェスチャは、スクリーン上の前記カーソルを注視し、前記ユーザの視線を前記カーソルから前記スクリーン上の仮想オブジェクトへ移動させて前記カーソルを前記仮想オブジェクトにマップし、前記スクリーン上の前記仮想オブジェクトを選択する手のジェスチャを実行することを含む、
請求項16に記載のシステム。 - 前記複数の知覚センサは、深度カメラと視線検出システムを含み、前記深度カメラから取得される前記データは、スクリーン上の仮想オブジェクトを選択するために前記ユーザの手により行われる選択ジェスチャであり、前記視線検出システムから取得される前記データは、前記選択される仮想オブジェクトにおける視線であり、該視線の検出は、前記ユーザによって選択される前記仮想オブジェクトを識別する際の誤検出を低減する、
請求項16に記載のシステム。 - ユーザのアクションについてのデータを取得する、第1の手段と;
前記ユーザのアクションについてのデータを取得する、第2の手段と;
前記取得したデータを分析して、前記ユーザのアクションからジェスチャを識別するように構成される、1つ以上の処理モジュールと;
を備え、前記ジェスチャが、データを取得する前記第1の手段と、データを取得する前記第2の手段とによって検出可能なデータに基づいて定義される、
システム。 - 前記ユーザが、前記識別されるジェスチャに基づいて電子デバイスを制御するのを可能にするよう構成される、ユーザインタフェースアプリケーションモジュールを更に備える、
請求項21に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/785,669 US20140258942A1 (en) | 2013-03-05 | 2013-03-05 | Interaction of multiple perceptual sensing inputs |
US13/785,669 | 2013-03-05 | ||
PCT/US2014/014440 WO2014137517A1 (en) | 2013-03-05 | 2014-02-03 | Interaction of multiple perceptual sensing inputs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016507112A true JP2016507112A (ja) | 2016-03-07 |
JP6195939B2 JP6195939B2 (ja) | 2017-09-13 |
Family
ID=51489524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015556202A Active JP6195939B2 (ja) | 2013-03-05 | 2014-02-03 | 複合的な知覚感知入力の対話 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140258942A1 (ja) |
EP (1) | EP2965174A4 (ja) |
JP (1) | JP6195939B2 (ja) |
KR (1) | KR101688355B1 (ja) |
CN (1) | CN104956292B (ja) |
WO (1) | WO2014137517A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019133395A (ja) * | 2018-01-31 | 2019-08-08 | アルパイン株式会社 | 入力装置 |
JP2020204914A (ja) * | 2019-06-17 | 2020-12-24 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP2022058471A (ja) * | 2016-08-02 | 2022-04-12 | アトラス5ディー, インコーポレイテッド | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
JP2022082641A (ja) * | 2016-08-11 | 2022-06-02 | マジック リープ, インコーポレイテッド | 3次元空間内の仮想オブジェクトの自動配置 |
US12014464B2 (en) | 2016-05-20 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9477315B2 (en) * | 2013-03-13 | 2016-10-25 | Honda Motor Co., Ltd. | Information query by pointing |
US9122916B2 (en) * | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Three dimensional fingertip tracking |
DE102013013698A1 (de) * | 2013-08-16 | 2015-02-19 | Audi Ag | Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille |
US20150091841A1 (en) * | 2013-09-30 | 2015-04-02 | Kobo Incorporated | Multi-part gesture for operating an electronic personal display |
US10048762B2 (en) * | 2013-11-05 | 2018-08-14 | Intuit Inc. | Remote control of a desktop application via a mobile device |
US9580081B2 (en) * | 2014-01-24 | 2017-02-28 | Tobii Ab | Gaze driven interaction for a vehicle |
JP6287382B2 (ja) * | 2014-03-12 | 2018-03-07 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
KR101628482B1 (ko) * | 2014-09-18 | 2016-06-21 | 현대자동차주식회사 | 무선신호 분석을 통한 동작 인식 시스템 및 그 방법 |
KR101636460B1 (ko) * | 2014-11-05 | 2016-07-05 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
DE102014224632A1 (de) * | 2014-12-02 | 2016-06-02 | Robert Bosch Gmbh | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung |
CN108369630A (zh) * | 2015-05-28 | 2018-08-03 | 视觉移动科技有限公司 | 用于智能家居的手势控制***和方法 |
CN105302434B (zh) * | 2015-06-16 | 2019-03-26 | 深圳市腾讯计算机***有限公司 | 游戏场景中锁定目标的方法和装置 |
US10409443B2 (en) * | 2015-06-24 | 2019-09-10 | Microsoft Technology Licensing, Llc | Contextual cursor display based on hand tracking |
EP3118722B1 (en) * | 2015-07-14 | 2020-07-01 | Nokia Technologies Oy | Mediated reality |
US11194398B2 (en) * | 2015-09-26 | 2021-12-07 | Intel Corporation | Technologies for adaptive rendering using 3D sensors |
US10209785B2 (en) * | 2016-02-02 | 2019-02-19 | Microsoft Technology Licensing, Llc | Volatility based cursor tethering |
JP2017228080A (ja) * | 2016-06-22 | 2017-12-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
DE102016216577A1 (de) * | 2016-09-01 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden |
US10783883B2 (en) * | 2016-11-03 | 2020-09-22 | Google Llc | Focus session at a voice interface device |
CN111527013B (zh) * | 2017-12-27 | 2024-02-23 | 宝马股份公司 | 车辆变道预测 |
EP3735652A1 (en) | 2018-01-03 | 2020-11-11 | Sony Semiconductor Solutions Corporation | Gesture recognition using a mobile device |
KR102455382B1 (ko) * | 2018-03-02 | 2022-10-18 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
WO2020101048A1 (ko) * | 2018-11-12 | 2020-05-22 | 엘지전자 주식회사 | 전자 제어 장치 및 그것을 포함하는 차량 |
WO2020166737A1 (ko) * | 2019-02-13 | 2020-08-20 | 엘지전자 주식회사 | 모바일 디바이스 및 그 제어방법 |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
KR20210034843A (ko) * | 2019-09-23 | 2021-03-31 | 삼성전자주식회사 | 차량의 제어 장치 및 방법 |
US11543873B2 (en) | 2019-09-27 | 2023-01-03 | Intel Corporation | Wake-on-touch display screen devices and related methods |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
KR102482133B1 (ko) * | 2020-02-12 | 2022-12-29 | 중앙대학교 산학협력단 | 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템 |
WO2021160024A1 (en) * | 2020-02-14 | 2021-08-19 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and system of identifying a user selection at a display of a user device |
US11599239B2 (en) * | 2020-09-15 | 2023-03-07 | Apple Inc. | Devices, methods, and graphical user interfaces for providing computer-generated experiences |
US11535253B2 (en) * | 2020-09-18 | 2022-12-27 | GM Global Technology Operations LLC | Lane change maneuver intention detection systems and methods |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
EP4288856A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | Extended reality for productivity |
EP4295314A1 (en) | 2021-02-08 | 2023-12-27 | Sightful Computers Ltd | Content sharing in extended reality |
US11762458B2 (en) * | 2021-02-15 | 2023-09-19 | Sony Group Corporation | Media display device control based on eye gaze |
JP2024518333A (ja) * | 2021-04-26 | 2024-05-01 | 華為技術有限公司 | マルチスクリーンインタラクション方法及び機器、端末装置、及び車両 |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
WO2023141535A1 (en) * | 2022-01-19 | 2023-07-27 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
KR102540782B1 (ko) * | 2022-10-12 | 2023-06-13 | 주식회사 시스터스 | 모션 연동 제어장치 및 모션 연동 제어방법 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10260773A (ja) * | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JP2001100903A (ja) * | 1999-09-28 | 2001-04-13 | Sanyo Electric Co Ltd | 視線検出機能搭載装置 |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
JP2006309448A (ja) * | 2005-04-27 | 2006-11-09 | Sony Corp | ユーザインターフェース装置及び方法 |
JP2010534895A (ja) * | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | 高度なカメラをベースとした入力 |
WO2012135553A1 (en) * | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking |
WO2012145180A1 (en) * | 2011-04-21 | 2012-10-26 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
US20130016042A1 (en) * | 2011-07-12 | 2013-01-17 | Ville Makinen | Haptic device with touch gesture interface |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7815507B2 (en) * | 2004-06-18 | 2010-10-19 | Igt | Game machine user interface using a non-contact eye motion recognition device |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
SE529599C2 (sv) * | 2006-02-01 | 2007-10-02 | Tobii Technology Ab | Alstring av grafisk returinformation i ett datorsystem |
KR20080106218A (ko) * | 2006-02-01 | 2008-12-04 | 토비 테크놀로지 에이비 | 컴퓨터 시스템에서 그래픽 피드백의 생성 |
CN101201695A (zh) * | 2006-12-26 | 2008-06-18 | 谢振华 | 一种基于眼部区域运动特征提取与跟踪的鼠标*** |
US20120204133A1 (en) * | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
US8904430B2 (en) * | 2008-04-24 | 2014-12-02 | Sony Computer Entertainment America, LLC | Method and apparatus for real-time viewer interaction with a media presentation |
WO2010098050A1 (ja) * | 2009-02-25 | 2010-09-02 | 日本電気株式会社 | 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム |
KR101602461B1 (ko) * | 2009-09-22 | 2016-03-15 | 삼성전자주식회사 | 디스플레이 장치 및 휴대폰의 제어방법 |
CN102270035A (zh) * | 2010-06-04 | 2011-12-07 | 三星电子株式会社 | 以非触摸方式来选择和操作对象的设备和方法 |
US9141189B2 (en) * | 2010-08-26 | 2015-09-22 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling interface |
KR101815020B1 (ko) * | 2010-08-26 | 2018-01-31 | 삼성전자주식회사 | 인터페이스 제어 장치 및 방법 |
US20120060333A1 (en) * | 2010-09-15 | 2012-03-15 | Reinaldo Reyes | Latch release device for 3-point vehicle seat belt |
WO2012054060A1 (en) * | 2010-10-22 | 2012-04-26 | Hewlett-Packard Development Company, L.P. | Evaluating an input relative to a display |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
KR101151962B1 (ko) * | 2011-02-16 | 2012-06-01 | 김석중 | 포인터를 사용하지 않는 가상 터치 장치 및 방법 |
CN102707793A (zh) * | 2011-03-28 | 2012-10-03 | 宗鹏 | 眼控鼠标 |
US8686943B1 (en) * | 2011-05-13 | 2014-04-01 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
KR101262700B1 (ko) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
WO2013022222A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same |
US9218063B2 (en) * | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
CN102693022A (zh) * | 2011-12-12 | 2012-09-26 | 苏州科雷芯电子科技有限公司 | 视觉跟踪与语音识别的鼠标*** |
US9652043B2 (en) * | 2012-05-14 | 2017-05-16 | Hewlett-Packard Development Company, L.P. | Recognizing commands with a depth sensor |
US9823742B2 (en) * | 2012-05-18 | 2017-11-21 | Microsoft Technology Licensing, Llc | Interaction and management of devices using gaze detection |
-
2013
- 2013-03-05 US US13/785,669 patent/US20140258942A1/en not_active Abandoned
-
2014
- 2014-02-03 JP JP2015556202A patent/JP6195939B2/ja active Active
- 2014-02-03 KR KR1020157021237A patent/KR101688355B1/ko active IP Right Grant
- 2014-02-03 WO PCT/US2014/014440 patent/WO2014137517A1/en active Application Filing
- 2014-02-03 CN CN201480007511.4A patent/CN104956292B/zh active Active
- 2014-02-03 EP EP14760674.3A patent/EP2965174A4/en not_active Withdrawn
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10260773A (ja) * | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JP2001100903A (ja) * | 1999-09-28 | 2001-04-13 | Sanyo Electric Co Ltd | 視線検出機能搭載装置 |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
JP2006309448A (ja) * | 2005-04-27 | 2006-11-09 | Sony Corp | ユーザインターフェース装置及び方法 |
JP2010534895A (ja) * | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | 高度なカメラをベースとした入力 |
WO2012135553A1 (en) * | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking |
JP2014514652A (ja) * | 2011-03-29 | 2014-06-19 | クアルコム,インコーポレイテッド | 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
WO2012145180A1 (en) * | 2011-04-21 | 2012-10-26 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
JP2014514661A (ja) * | 2011-04-21 | 2014-06-19 | 株式会社ソニー・コンピュータエンタテインメント | 注視支援コンピュータインターフェース |
US20130016042A1 (en) * | 2011-07-12 | 2013-01-17 | Ville Makinen | Haptic device with touch gesture interface |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12014464B2 (en) | 2016-05-20 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
JP2022058471A (ja) * | 2016-08-02 | 2022-04-12 | アトラス5ディー, インコーポレイテッド | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
JP2022082641A (ja) * | 2016-08-11 | 2022-06-02 | マジック リープ, インコーポレイテッド | 3次元空間内の仮想オブジェクトの自動配置 |
US11808944B2 (en) | 2016-08-11 | 2023-11-07 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
JP7407219B2 (ja) | 2016-08-11 | 2023-12-28 | マジック リープ, インコーポレイテッド | 3次元空間内の仮想オブジェクトの自動配置 |
JP2019133395A (ja) * | 2018-01-31 | 2019-08-08 | アルパイン株式会社 | 入力装置 |
JP2020204914A (ja) * | 2019-06-17 | 2020-12-24 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP7321786B2 (ja) | 2019-06-17 | 2023-08-07 | キヤノン株式会社 | 電子機器およびその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
KR101688355B1 (ko) | 2016-12-20 |
EP2965174A4 (en) | 2016-10-19 |
CN104956292B (zh) | 2018-10-19 |
KR20150103278A (ko) | 2015-09-09 |
EP2965174A1 (en) | 2016-01-13 |
WO2014137517A1 (en) | 2014-09-12 |
US20140258942A1 (en) | 2014-09-11 |
CN104956292A (zh) | 2015-09-30 |
JP6195939B2 (ja) | 2017-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6195939B2 (ja) | 複合的な知覚感知入力の対話 | |
US11048333B2 (en) | System and method for close-range movement tracking | |
US9939914B2 (en) | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface | |
US10126826B2 (en) | System and method for interaction with digital devices | |
US9910498B2 (en) | System and method for close-range movement tracking | |
CN107665042B (zh) | 增强的虚拟触摸板和触摸屏 | |
US9454225B2 (en) | Gaze-based display control | |
WO2018076523A1 (zh) | 手势识别的方法、装置及车载*** | |
US20110107216A1 (en) | Gesture-based user interface | |
US20210004133A1 (en) | Remote touch detection enabled by peripheral device | |
US20220012283A1 (en) | Capturing Objects in an Unstructured Video Stream | |
US11768576B2 (en) | Displaying representations of environments | |
Wilson et al. | Multimodal sensing for explicit and implicit interaction | |
US11782548B1 (en) | Speed adapted touch detection | |
US20190235710A1 (en) | Page Turning Method and System for Digital Devices | |
Athira | Touchless technology | |
US11641460B1 (en) | Generating a volumetric representation of a capture region | |
US11698677B1 (en) | Presenting a notification based on an engagement score and an interruption priority value | |
EP4064211A2 (en) | Indicating a position of an occluded physical object | |
AU2015252151A1 (en) | Enhanced virtual touchpad and touchscreen | |
Jagnade et al. | Advancing Multimodal Fusion in Human-Computer Interaction: Integrating Eye Tracking, Lips Detection, Speech Recognition, and Voice Synthesis for Intelligent Cursor Control and Auditory Feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6195939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |