RU2017107457A - Неактивная область для поверхности касания на основе контекстуальной информации - Google Patents

Неактивная область для поверхности касания на основе контекстуальной информации Download PDF

Info

Publication number
RU2017107457A
RU2017107457A RU2017107457A RU2017107457A RU2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A RU 2017107457 A RU2017107457 A RU 2017107457A
Authority
RU
Russia
Prior art keywords
touch
user
input
touch surface
inactive
Prior art date
Application number
RU2017107457A
Other languages
English (en)
Other versions
RU2705431C2 (ru
RU2017107457A3 (ru
Inventor
Олумуйива М. ДУРОДЖАЙЕ
Дэвид АБЗАРИАН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2017107457A publication Critical patent/RU2017107457A/ru
Publication of RU2017107457A3 publication Critical patent/RU2017107457A3/ru
Application granted granted Critical
Publication of RU2705431C2 publication Critical patent/RU2705431C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Claims (42)

1. Способ, содержащий:
прием, вычислительным устройством, ввода касанием от инструмента ввода через поверхность касания, причем инструмент ввода содержит по меньшей мере одно из стилуса, пера или другого элемента ввода;
идентификацию руки пользователя, которая удерживает инструмент ввода;
установление, вычислительным устройством, неактивной области в поверхности касания, на основе геометрии поверхности касания и руки пользователя, которая идентифицирована как удерживающая инструмент ввода, причем геометрия поверхности касания содержит по меньшей мере одно из размера поверхности касания, формы поверхности касания или положения поверхности касания в пределах корпуса, и неактивная область окружает местоположение ввода касанием от инструмента ввода; и
подавление ввода касанием от пользователя, который принят в неактивной области.
2. Способ по п. 1, в котором неактивная область устанавливается, дополнительно, на основе по меньшей мере одного из:
геометрии ввода касанием от пользователя или другого ввода касанием от пользователя;
количества пользователей, которые взаимодействуют с поверхностью касания;
информации о пользователе, который связан с инструментом ввода;
информации о приложении, которое выполняется в данный момент;
ориентации поверхности касания; или
языка пользователя.
3. Способ по п. 1 или 2, дополнительно содержащий:
поддержание неактивной области относительно ввода касанием от инструмента ввода, когда ввод касанием от инструмента ввода изменяет положение на поверхности касания.
4. Способ по любому из пп. 1-2, дополнительно содержащий:
поддержание неактивной области в поверхности касания, пока ввод касанием остается на поверхности касания в неактивной области.
5. Способ по любому из пп. 1-2, в котором неактивная область продолжается от местоположения ввода касанием инструмента ввода до нижнего края поверхности касания и продолжается от местоположения ввода касанием инструмента ввода до верхнего края поверхности касания.
6. Система, содержащая:
поверхность касания для приема ввода касанием от инструмента ввода;
один или несколько процессоров, соединенных с возможностью связи с поверхностью касания;
память, соединенную с возможностью связи с одним или несколькими процессорами;
модуль неактивной области, хранящийся в памяти и исполняемый одним или несколькими процессорами, для определения неактивной области в поверхности касания относительно ввода касанием от инструмента ввода, причем неактивная область определяется на основе геометрии поверхности касания и руки пользователя, которая идентифицирована как удерживающая инструмент ввода, причем геометрия поверхности касания содержит по меньшей мере одно из размера поверхности касания, формы поверхности касания или положения поверхности касания в пределах корпуса; и
модуль классификации, хранящийся в памяти и исполняемый одним или несколькими процессорами, для классификации ввода касанием, который принят от пользователя в неактивной области, как непреднамеренного.
7. Система по п. 6, в которой неактивная область определяется на основе, по меньшей мере частично, местоположения ввода касанием от инструмента ввода и направления перемещения ввода касанием от инструмента ввода.
8. Система по п. 6 или 7, в которой неактивная область определяется на основе, по меньшей мере частично, ориентации системы, причем модуль неактивной области конфигурирует неактивную область, чтобы она имела первые характеристики, когда система ориентирована в первой ориентации, и конфигурирует неактивную область, чтобы она имела вторые характеристики, когда система ориентирована во второй ориентации, причем каждые из первых характеристик и вторых характеристик содержат по меньшей мере одно из размера, формы или положения.
9. Система по любому из пп. 6-7, в которой неактивная область определяется на основе, по меньшей мере частично, языка пользователя, причем модуль неактивной области конфигурирует неактивную область, чтобы она имела первые характеристики, когда пользователь обменивается информацией на первом языке, и конфигурирует неактивную область, чтобы она имела вторые характеристики, когда пользователь обменивается информацией на втором языке, причем каждые из первых характеристик и вторых характеристик содержат по меньшей мере одно из размера, формы или положения.
10. Система по любому из пп. 6-7, в которой неактивная область определяется на основе, по меньшей мере частично, геометрии ввода касанием от пользователя, причем геометрия ввода касанием от пользователя, содержит по меньшей мере одно из размера, формы или положения, по меньшей мере одно из размера, формы или положения неактивной области, относящихся к по меньшей мере одному из размера, формы или положения ввода касанием от пользователя.
11. Система по любому из пп. 6-7, в которой модуль классификации выполнен с возможностью:
определения того, что один или несколько дополнительных вводов касанием, принятых от пользователя в неактивной области, удовлетворяют одному или нескольким критериям, относящимся к по меньшей мере одному из скорости, направления перемещения или количества вводов касанием; и,
в ответ на определение того, что один или несколько дополнительных вводов касанием от пользователя удовлетворяют одному или нескольким критериям, классификации одного или нескольких дополнительных вводов касанием от пользователя как преднамеренных.
12. Один или несколько машиночитаемых запоминающих носителей, хранящих машиночитаемые команды, которые, при исполнении, предписывают одному или нескольким процессорам выполнить операции, содержащие:
прием ввода касанием от инструмента ввода через поверхность касания;
идентификацию конкретной области поверхности касания на основе геометрии поверхности касания и руки пользователя, которая идентифицирована как удерживающая инструмент ввода, причем геометрия поверхности касания содержит по меньшей мере одно из размера поверхности касания, формы поверхности касания или положения поверхности касания в пределах корпуса; и
блокирование обработки ввода касанием, который принят от пользователя в пределах конкретной области поверхности касания.
13. Один или несколько машиночитаемых запоминающих носителей по п. 12, причем операции дополнительно содержат:
получение уникального идентификатора от инструмента ввода; и
использование уникального идентификатора для получения пользовательской информации, причем пользовательская информация указывает по меньшей мере на одно из предпочтений пользователя, характеристики конечности пользователя, преимущественного использования пользователем одной руки или языка пользователя;
причем конкретная область поверхности касания идентифицируется на основе, по меньшей мере частично, пользовательской информации.
14. Один или несколько машиночитаемых запоминающих носителей по п. 12 или 13, причем операции дополнительно содержат:
прием одного или нескольких дополнительных вводов касанием от пользователя в конкретной области;
определение по меньшей мере одного из следующего: (i) скорость одного или нескольких дополнительных вводов касанием от пользователя удовлетворяет критерию скорости, (ii) направление перемещения одного или нескольких дополнительных вводов касанием от пользователя является конкретным направлением, или (iii) количество одного или нескольких дополнительных вводов касанием от пользователя удовлетворяет критерию количества; и,
в ответ на определение, обеспечение обработки для одного или нескольких дополнительных вводов касанием от пользователя.
RU2017107457A 2014-09-12 2015-09-11 Неактивная область для поверхности касания на основе контекстуальной информации RU2705431C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/485,493 2014-09-12
US14/485,493 US9804707B2 (en) 2014-09-12 2014-09-12 Inactive region for touch surface based on contextual information
PCT/US2015/049546 WO2016040720A1 (en) 2014-09-12 2015-09-11 Inactive region for touch surface based on contextual information

Publications (3)

Publication Number Publication Date
RU2017107457A true RU2017107457A (ru) 2018-09-10
RU2017107457A3 RU2017107457A3 (ru) 2019-04-17
RU2705431C2 RU2705431C2 (ru) 2019-11-07

Family

ID=54200078

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017107457A RU2705431C2 (ru) 2014-09-12 2015-09-11 Неактивная область для поверхности касания на основе контекстуальной информации

Country Status (11)

Country Link
US (1) US9804707B2 (ru)
EP (1) EP3195100B1 (ru)
JP (1) JP6602372B2 (ru)
KR (1) KR102385759B1 (ru)
CN (1) CN106605203B (ru)
AU (1) AU2015314951B2 (ru)
BR (1) BR112017003262B1 (ru)
CA (1) CA2959683C (ru)
MX (1) MX370918B (ru)
RU (1) RU2705431C2 (ru)
WO (1) WO2016040720A1 (ru)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104364751A (zh) * 2012-06-08 2015-02-18 Nec卡西欧移动通信株式会社 电子设备及其控制方法和程序
KR101580570B1 (ko) 2014-06-10 2015-12-28 주식회사 하이딥 터치 센서 패널의 제어방법 및 제어장치
KR20160023298A (ko) * 2014-08-22 2016-03-03 삼성전자주식회사 전자 장치 및 전자 장치의 입력 인터페이스 제공 방법
US9626020B2 (en) 2014-09-12 2017-04-18 Microsoft Corporation Handedness detection from touch input
US9910540B2 (en) 2015-04-13 2018-03-06 International Business Machines Corporation Management of a touchscreen interface of a device
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
KR20180096606A (ko) * 2015-12-21 2018-08-29 소니 주식회사 정보 처리 장치 및 정보 처리 방법
US10725627B2 (en) * 2016-07-15 2020-07-28 International Business Machines Corporation Managing inputs to a user interface with system latency
JP6784115B2 (ja) * 2016-09-23 2020-11-11 コニカミノルタ株式会社 超音波診断装置及びプログラム
US20180101986A1 (en) * 2016-10-10 2018-04-12 Aaron Mackay Burns Drawing in a 3d virtual reality environment
CN106708407B (zh) 2016-12-16 2019-05-03 Oppo广东移动通信有限公司 防止触摸按键误触发的方法、装置及移动终端
JP7467013B2 (ja) 2018-06-25 2024-04-15 株式会社ワコム タッチic及び外部プロセッサを含むシステムで実行される方法
CN109308205B (zh) * 2018-08-09 2020-12-01 腾讯科技(深圳)有限公司 应用程序的显示适配方法、装置、设备及存储介质
JP7225638B2 (ja) * 2018-09-26 2023-02-21 富士フイルムビジネスイノベーション株式会社 情報処理システムおよびプログラム
JP2021033543A (ja) * 2019-08-22 2021-03-01 株式会社ワコム 入力装置
CN110501897B (zh) * 2019-08-30 2021-08-17 安徽华米信息科技有限公司 智能手表及其触控方法
TWI709891B (zh) * 2019-09-19 2020-11-11 義隆電子股份有限公司 觸控裝置及其操作方法
CN114077825A (zh) * 2020-08-05 2022-02-22 华为技术有限公司 添加批注的方法、电子设备及相关装置
US11385741B2 (en) * 2020-08-31 2022-07-12 Microsoft Technology Licensing, Llc Method to reduce blanking area for palm rejection in low cost in-cell displays
KR20220104471A (ko) * 2021-01-18 2022-07-26 삼성전자주식회사 폴더블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input
JP7473832B1 (ja) 2022-12-01 2024-04-24 富士通クライアントコンピューティング株式会社 電子機器及びプログラム
US11989369B1 (en) 2023-03-30 2024-05-21 Microsoft Technology Licensing, Llc Neural network-based touch input classification

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW528981B (en) 2001-10-25 2003-04-21 Compal Electronics Inc Portable computer and related method for preventing input interruption by write-tracking input region
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
KR100826532B1 (ko) * 2006-03-28 2008-05-02 엘지전자 주식회사 이동 통신 단말기 및 그의 키 입력 검출 방법
KR101442542B1 (ko) * 2007-08-28 2014-09-19 엘지전자 주식회사 입력장치 및 이를 구비한 휴대 단말기
US8402391B1 (en) 2008-09-25 2013-03-19 Apple, Inc. Collaboration system
EP3654141A1 (en) 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
TW201104531A (en) 2009-07-17 2011-02-01 Egalax Empia Technology Inc Method and device for palm rejection
CN102576268B (zh) * 2009-08-25 2015-05-13 普罗米斯有限公司 利用多种输入检测技术的交互表面
CN102072733A (zh) * 2009-11-25 2011-05-25 神达电脑股份有限公司 将标示语言内容覆盖于地图资料上的方法与个人导航装置
US8587532B2 (en) 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
KR101977613B1 (ko) 2011-01-05 2019-05-14 삼성전자주식회사 입력 장치의 입력 오류를 정정하기 위한 방법 및 장치
WO2012111010A1 (en) 2011-02-15 2012-08-23 N-Trig Ltd. Tracking input to a multi-touch digitizer system
JP5774350B2 (ja) * 2011-04-12 2015-09-09 シャープ株式会社 電子機器、手書き入力方法、および手書き入力プログラム
US20130009915A1 (en) * 2011-07-08 2013-01-10 Nokia Corporation Controlling responsiveness to user inputs on a touch-sensitive display
US20130021269A1 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
US8644884B2 (en) 2011-08-04 2014-02-04 Qualcomm Incorporated Sensor-based user interface control
FR2979025A1 (fr) 2011-08-12 2013-02-15 Stantum Procede de caracterisation de toucher sur un ecran tactile
US9002699B2 (en) * 2011-11-14 2015-04-07 Microsoft Technology Licensing, Llc Adaptive input language switching
KR101967632B1 (ko) * 2012-02-13 2019-04-11 삼성전자주식회사 사용자 인터페이스를 가진 태블릿
US9632612B2 (en) * 2012-02-23 2017-04-25 Parade Technologies, Ltd. Circuits, systems, and methods for processing the proximity of large objects, including large objects on touch screens
JP5864319B2 (ja) * 2012-03-19 2016-02-17 シャープ株式会社 電子機器、電子機器を制御するための方法、および、電子機器を制御するためのプログラム
KR102164453B1 (ko) * 2012-04-07 2020-10-13 삼성전자주식회사 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
WO2013160934A1 (en) 2012-04-24 2013-10-31 Hitachi, Ltd. Storage apparatus, computer system and snapshot creation method
US20130300672A1 (en) 2012-05-11 2013-11-14 Research In Motion Limited Touch screen palm input rejection
EP2662756A1 (en) 2012-05-11 2013-11-13 BlackBerry Limited Touch screen palm input rejection
US20130300696A1 (en) * 2012-05-14 2013-11-14 N-Trig Ltd. Method for identifying palm input to a digitizer
KR20130136276A (ko) 2012-06-04 2013-12-12 삼성전자주식회사 단말기의 펜 입력 보정장치 및 방법
KR20130138880A (ko) 2012-06-11 2013-12-20 삼성전자주식회사 단말기의 터치 입력 제어장치 및 방법
KR102040857B1 (ko) 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
JP5944802B2 (ja) * 2012-09-19 2016-07-05 シャープ株式会社 通信端末装置、設定方法、プログラム、および、記録媒体
KR20140046557A (ko) 2012-10-05 2014-04-21 삼성전자주식회사 다점 입력 인식 방법 및 그 단말
US9483146B2 (en) 2012-10-17 2016-11-01 Perceptive Pixel, Inc. Input classification for multi-touch systems
US9411461B2 (en) 2012-10-17 2016-08-09 Adobe Systems Incorporated Moveable interactive shortcut toolbar and unintentional hit rejecter for touch input devices
KR102184288B1 (ko) * 2013-01-17 2020-11-30 삼성전자주식회사 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법
US9836154B2 (en) 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US9626020B2 (en) 2014-09-12 2017-04-18 Microsoft Corporation Handedness detection from touch input

Also Published As

Publication number Publication date
US9804707B2 (en) 2017-10-31
RU2705431C2 (ru) 2019-11-07
CA2959683A1 (en) 2016-03-17
KR20170053711A (ko) 2017-05-16
AU2015314951A1 (en) 2017-03-16
EP3195100B1 (en) 2020-04-01
US20160077663A1 (en) 2016-03-17
RU2017107457A3 (ru) 2019-04-17
CN106605203B (zh) 2020-05-29
MX370918B (es) 2020-01-09
KR102385759B1 (ko) 2022-04-11
MX2017003151A (es) 2017-05-23
CA2959683C (en) 2022-10-04
WO2016040720A1 (en) 2016-03-17
AU2015314951B2 (en) 2020-06-18
CN106605203A (zh) 2017-04-26
BR112017003262A2 (pt) 2017-11-28
BR112017003262B1 (pt) 2023-11-21
JP6602372B2 (ja) 2019-11-06
EP3195100A1 (en) 2017-07-26
JP2017527906A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
RU2017107457A (ru) Неактивная область для поверхности касания на основе контекстуальной информации
JP2017527906A5 (ru)
CN106605202B (zh) 根据触摸输入的偏手性检测
CN107077197B (zh) 3d可视化图
KR102314274B1 (ko) 컨텐츠 처리 방법 및 그 전자 장치
MX2020007327A (es) Clafisicacion de entrada tactil como accidental o intencional.
KR102056316B1 (ko) 터치 스크린 동작 방법 및 그 전자 장치
JP2017535831A5 (ru)
WO2016007673A3 (en) Portable ultrasound user interface and resource management systems and methods
JP2016509292A5 (ru)
WO2014009561A3 (en) Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
US20190004698A1 (en) Virtual tools for use with touch-sensitive surfaces
US10345967B2 (en) User interface for a device
RU2017123360A (ru) Осветительный прибор
JP2018032383A5 (ru)
US10809794B2 (en) 3D navigation mode
CN105204757A (zh) 一种界面显示方法和装置
JP2013054726A (ja) 操作端末ユニット及び操作用具
US9547378B2 (en) Sensor on side of computing device
JP5038523B1 (ja) 操作端末ユニット及び操作用具
KR20150102586A (ko) 스마트폰이 마우스 기능을 하게하는 스마트폰 케이스