RU2014153895A - Способ и устройство управления сенсорным вводом - Google Patents

Способ и устройство управления сенсорным вводом Download PDF

Info

Publication number
RU2014153895A
RU2014153895A RU2014153895A RU2014153895A RU2014153895A RU 2014153895 A RU2014153895 A RU 2014153895A RU 2014153895 A RU2014153895 A RU 2014153895A RU 2014153895 A RU2014153895 A RU 2014153895A RU 2014153895 A RU2014153895 A RU 2014153895A
Authority
RU
Russia
Prior art keywords
touch
boundary
palm
information
sensory information
Prior art date
Application number
RU2014153895A
Other languages
English (en)
Other versions
RU2618921C2 (ru
Inventor
Кунь ЯН
Бо Чжан
Лин Чжу
Original Assignee
Сяоми Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сяоми Инк. filed Critical Сяоми Инк.
Publication of RU2014153895A publication Critical patent/RU2014153895A/ru
Application granted granted Critical
Publication of RU2618921C2 publication Critical patent/RU2618921C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

1. Способ управления сенсорным вводом, содержащий этапы, на которыхидентифицируют граничную сенсорную информацию в крайней области сенсорного экрана терминала,в соответствии с формой касания, соответствующей граничной сенсорной информации, оценивают, включает ли в себя граничная сенсорная информация граничную сенсорную информацию ладони, сгенерированную сенсорной операцией ладони, иэкранируют граничную сенсорную информацию ладони, если граничная сенсорная информация включает в себя граничную сенсорную информацию ладони.2. Способ по п. 1, в котором этап, на котором идентифицируют граничную сенсорную информацию в крайней области сенсорного экрана терминала, содержит этапы, на которыхполучают сенсорную информацию, сгенерированную сенсорной операцией, когда пользователи проводят сенсорную операцию на сенсорном экране терминала,в соответствии с координатами позиции, соответствующими сенсорной информации, оценивают, находится ли сенсорная операция в крайней области сенсорного экрана, иопределяют сенсорную информацию как граничную сенсорную информацию, если сенсорная операция находится в крайней области сенсорного экрана.3. Способ по п. 1, в котором, этап, на котором, в соответствии с формой касания, соответствующей граничной сенсорной информации, оценивают, включает ли в себя граничная сенсорная информация граничную сенсорную информацию ладони, сгенерированную сенсорной операцией ладони, содержит этапы, на которыхполучают форму касания, соответствующую граничной сенсорной информации, посредством распределения пятна касания сенсорной операции в крайней области,оценивают, совпадает ли форма касания, соответст

Claims (19)

1. Способ управления сенсорным вводом, содержащий этапы, на которых
идентифицируют граничную сенсорную информацию в крайней области сенсорного экрана терминала,
в соответствии с формой касания, соответствующей граничной сенсорной информации, оценивают, включает ли в себя граничная сенсорная информация граничную сенсорную информацию ладони, сгенерированную сенсорной операцией ладони, и
экранируют граничную сенсорную информацию ладони, если граничная сенсорная информация включает в себя граничную сенсорную информацию ладони.
2. Способ по п. 1, в котором этап, на котором идентифицируют граничную сенсорную информацию в крайней области сенсорного экрана терминала, содержит этапы, на которых
получают сенсорную информацию, сгенерированную сенсорной операцией, когда пользователи проводят сенсорную операцию на сенсорном экране терминала,
в соответствии с координатами позиции, соответствующими сенсорной информации, оценивают, находится ли сенсорная операция в крайней области сенсорного экрана, и
определяют сенсорную информацию как граничную сенсорную информацию, если сенсорная операция находится в крайней области сенсорного экрана.
3. Способ по п. 1, в котором, этап, на котором, в соответствии с формой касания, соответствующей граничной сенсорной информации, оценивают, включает ли в себя граничная сенсорная информация граничную сенсорную информацию ладони, сгенерированную сенсорной операцией ладони, содержит этапы, на которых
получают форму касания, соответствующую граничной сенсорной информации, посредством распределения пятна касания сенсорной операции в крайней области,
оценивают, совпадает ли форма касания, соответствующая граничной сенсорной информации, с предварительно установленной формой касания ладони, и
определяют, что граничная сенсорная информация включает в себя граничную сенсорную информация ладони, если форма касания, соответствующая граничной сенсорной информации, совпадает с формой касания ладони.
4. Способ по п. 1, в котором этап, на котором экранируют граничную сенсорную информацию ладони, содержит этапы, на которых
определяют соответствующую подобласть граничной сенсорной информации ладони в крайней области и
блокируют функцию сенсорного ввода соответствующей подобласти.
5. Способ по п. 4, в котором этап, на котором определяют соответствующую подобласть граничной сенсорной информации ладони в крайней области, содержит этапы, на которых
сравнивают координаты позиции граничной сенсорной информации ладони с диапазоном координат каждой подобласти в крайней области и
определяют первую подобласть, соответствующую диапазону координат координат позиции, как соответствующую подобласть.
6. Способ по п. 5, в котором этап, на котором определяют соответствующую подобласть граничной сенсорной информации ладони в крайней области, дополнительно содержит этап, на котором
определяют вторую подобласть, ассоциированную с первой подобластью, как соответствующую подобласть, причем вторая подобласть является подобластью, в которой сенсорная операция пальца, соответствующая сенсорной операции ладони, имеет место, когда терминал держат.
7. Способ по п. 4, в котором этап, на котором определяют соответствующую подобласть граничной сенсорной информации ладони в крайней области, содержит этапы, на которых
оценивают, превышает ли длительность сенсорной операции ладони на сенсорном экране предварительно установленное время, и
определяют соответствующую подобласть граничной сенсорной информации ладони в крайней области, если длительность превышает предварительно установленное время.
8. Способ по п. 1, дополнительно содержащий этап, на котором
очищают другую сенсорную информацию ладони, сгенерированную в процессе сенсорной операции ладони, исключая граничную сенсорную информацию ладони.
9. Способ по любому из пп. 1-8, дополнительно содержащий этапы, на которых:
обнаруживают область сенсорной операции пальца на сенсорном экране при держании терминала,
выводят интерфейс виртуального сенсорного управления в области сенсорной операции пальца.
10. Устройство управления сенсорным вводом, содержащее:
устройство идентификации, сконфигурированное с возможностью идентификации граничной сенсорной информации в крайней области сенсорного экрана терминала,
устройство оценки, сконфигурированное с возможностью оценки, включает ли в себя граничная сенсорная информация сенсорную информацию ладони, сгенерированную сенсорной операцией ладони, в соответствии с формой касания, соответствующей граничной сенсорной информации, и
устройство экранирования, сконфигурированное с возможностью экранирования граничной сенсорной информации ладони, если граничная сенсорная информация включает в себя граничную сенсорную информацию ладони.
11. Устройство по п. 10, в котором устройство идентификации содержит
подустройство получения информации, сконфигурированное с возможностью получения сенсорной информации, сгенерированной сенсорной операцией, когда пользователи выполняют сенсорную операцию на сенсорном экране терминала,
подустройство оценки позиции, сконфигурированное с возможностью оценки, находится ли сенсорная операция в крайней области сенсорного экрана, в соответствии с координатами позиции, соответствующими сенсорной информации, и
подустройство определения информации, сконфигурированное с возможностью определения сенсорной информации как граничной сенсорной информации, если сенсорная операция находится в крайней области сенсорного экрана.
12. Устройство по п. 10, в котором устройство оценки содержит
подустройство получения формы, сконфигурированное с возможностью получения формы касания, соответствующей граничной сенсорной информации, посредством распределения пятна касания сенсорной операции в крайней области,
подустройство совпадения формы, сконфигурированное с возможностью оценки, совпадает ли форма касания, соответствующая граничной сенсорной информации, с предварительно установленной формой касания ладони, и
подустройство определения совпадения, сконфигурированное с возможностью определения, что граничная сенсорная информация включает в себя граничную сенсорную информация ладони, если форма касания, соответствующая граничной сенсорной информации, совпадает с формой касания ладони.
13. Устройство по п. 10, в котором устройство экранирования содержит
подустройство определения, сконфигурированное с возможностью определения соответствующей подобласти граничной сенсорной информации ладони в крайней области, и
подустройство блокировки, сконфигурированное с возможностью блокировки функции сенсорного ввода соответствующей подобласти.
14. Устройство по п. 13, в котором подустройство определения содержит
подустройство сравнения позиции, сконфигурированное с возможностью сравнения координат позиции граничной сенсорной информации ладони с диапазоном координат каждой подобласти крайней области, и
подустройство определения первой подобласти, сконфигурированное с возможностью определения первой подобласти, соответствующей диапазону координат координат позиции, как соответствующей подобласти.
15. Устройство по п. 14, в котором подустройство определения дополнительно содержит
подустройство определения второй подобласти, сконфигурированное с возможностью определение второй подобласти,
ассоциированной с первой подобластью, как соответствующей подобласти, причем вторая подобласть является подобластью, в которой сенсорная операция пальца, соответствующая сенсорной операции ладони, имеет место при держании терминала.
16. Устройство по п. 13, в котором подустройство определения содержит
подустройство оценки времени, сконфигурированное с возможностью оценки, превышает ли длительность сенсорной операции ладони на сенсорном экране предварительно установленное время, и
подустройство определения подобласти, сконфигурированное с возможностью определения соответствующей подобласти граничной сенсорной информации ладони в крайней области, если длительность превышает предварительно установленное время.
17. Устройство по п. 10, которое дополнительно содержит
устройство очистки, сконфигурированное с возможностью очистки другой сенсорной информации ладони, сгенерированной в процессе сенсорной операции ладони, исключая граничную сенсорную информацию ладони.
18. Устройство по любому из пп. 10-17, которое дополнительно содержит
устройство обнаружения, сконфигурированное с возможностью обнаружения области сенсорной операции пальца на сенсорном экране при держании терминала, и
устройство вывода, сконфигурированное с возможностью вывода интерфейса виртуального сенсорного управления в области сенсорной операции пальца.
19. Устройство управления сенсорным вводом, содержащее:
процессор,
память, сконфигурированную с возможностью сохранения инструкции, выполняемой процессором,
причем процессор сконфигурирован с возможностью:
идентификации граничной сенсорной информации в крайней области сенсорного экрана терминала,
в соответствии с формой касания, соответствующей граничной сенсорной информации, оценки, включает ли в себя граничная
сенсорная информация граничную сенсорную информацию ладони, сгенерированную сенсорной операцией ладони, и
экранирования граничной сенсорной информации ладони, если граничная сенсорная информация включает в себя граничную сенсорную информацию ладони.
RU2014153895A 2014-05-22 2014-10-23 Способ и устройство управления сенсорным вводом RU2618921C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410219188.9 2014-05-22
CN201410219188.9A CN104020878A (zh) 2014-05-22 2014-05-22 触摸输入控制方法及装置
PCT/CN2014/089246 WO2015176484A1 (zh) 2014-05-22 2014-10-23 触摸输入控制方法及装置

Publications (2)

Publication Number Publication Date
RU2014153895A true RU2014153895A (ru) 2016-07-20
RU2618921C2 RU2618921C2 (ru) 2017-05-12

Family

ID=51437668

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014153895A RU2618921C2 (ru) 2014-05-22 2014-10-23 Способ и устройство управления сенсорным вводом

Country Status (9)

Country Link
US (1) US9671911B2 (ru)
EP (1) EP2947553A1 (ru)
JP (1) JP6033502B2 (ru)
KR (1) KR101714857B1 (ru)
CN (1) CN104020878A (ru)
BR (1) BR112015000003A2 (ru)
MX (1) MX349777B (ru)
RU (1) RU2618921C2 (ru)
WO (1) WO2015176484A1 (ru)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582180A (zh) 2011-10-18 2019-04-05 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
CN104020878A (zh) 2014-05-22 2014-09-03 小米科技有限责任公司 触摸输入控制方法及装置
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US9864453B2 (en) * 2014-09-22 2018-01-09 Qeexo, Co. Method and apparatus for improving accuracy of touch screen event analysis by use of edge classification
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
CN104407793B (zh) * 2014-11-26 2018-03-13 深圳市华星光电技术有限公司 触摸信号处理方法及设备
CN105718069B (zh) * 2014-12-02 2020-01-31 联想(北京)有限公司 信息处理方法及电子设备
CN104461366A (zh) * 2014-12-16 2015-03-25 小米科技有限责任公司 激活移动终端的操作状态的方法及装置
CN104571693B (zh) * 2014-12-22 2018-08-10 联想(北京)有限公司 信息处理方法及电子设备
US9489097B2 (en) * 2015-01-23 2016-11-08 Sony Corporation Dynamic touch sensor scanning for false border touch input detection
CN104714692B (zh) * 2015-01-30 2016-08-24 努比亚技术有限公司 移动终端防误触控方法及装置
KR102332015B1 (ko) 2015-02-26 2021-11-29 삼성전자주식회사 터치 처리 방법 및 이를 지원하는 전자 장치
CN104635990B (zh) * 2015-02-27 2017-11-14 上海卓易科技股份有限公司 一种识别用户触屏的方法及装置
CN106155642B (zh) * 2015-03-25 2020-07-24 联想(北京)有限公司 一种信息处理方法及电子设备
CN104750418B (zh) * 2015-03-30 2017-03-15 努比亚技术有限公司 触摸操作区域长按操作的识别方法及装置
CN104932620A (zh) * 2015-06-23 2015-09-23 上海华豚科技有限公司 一种具有收窄框屏的电子设备的控制方法及其电子设备
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
CN105159496A (zh) * 2015-08-31 2015-12-16 小米科技有限责任公司 触控事件响应方法及移动终端
CN105245650B (zh) * 2015-10-19 2018-09-18 昆山龙腾光电有限公司 触摸屏边缘防误触的便携式电子装置及方法
CN106648190B (zh) * 2015-10-30 2019-07-02 深圳市汇顶科技股份有限公司 防止触摸屏边缘误操作的装置和方法
CN105786281A (zh) * 2016-02-25 2016-07-20 上海斐讯数据通信技术有限公司 一种电容屏抗电磁干扰的方法和装置
CN106095317B (zh) * 2016-06-15 2020-07-10 海信视像科技股份有限公司 一种触摸屏的响应方法及终端
TWI606376B (zh) * 2016-08-08 2017-11-21 意象無限股份有限公司 觸控感測裝置及濾除誤觸的觸控方法
CN108021259B (zh) 2016-11-03 2021-03-30 华为技术有限公司 一种防误触方法及电子设备
CN106775084B (zh) * 2016-12-16 2019-04-16 Oppo广东移动通信有限公司 一种触摸屏的防误触方法、装置及移动终端
CN106855783A (zh) * 2016-12-16 2017-06-16 广东欧珀移动通信有限公司 一种防误触的方法、装置及移动终端
CN106775086A (zh) * 2016-12-16 2017-05-31 广东欧珀移动通信有限公司 一种移动终端的触摸屏控制方法、装置及移动终端
CN106775406A (zh) * 2016-12-16 2017-05-31 广东欧珀移动通信有限公司 一种移动终端触摸屏的防误触控制方法、装置及移动终端
CN106681636B (zh) * 2016-12-16 2020-01-14 Oppo广东移动通信有限公司 一种防误触的方法、装置及移动终端
CN106775405A (zh) * 2016-12-16 2017-05-31 广东欧珀移动通信有限公司 一种移动终端的触摸屏防误触方法、装置及移动终端
CN107562346A (zh) * 2017-09-06 2018-01-09 广东欧珀移动通信有限公司 终端控制方法、装置、终端及计算机可读存储介质
CN107577372A (zh) * 2017-09-06 2018-01-12 广东欧珀移动通信有限公司 边缘触控方法、装置及移动终端
US10585536B2 (en) * 2017-09-29 2020-03-10 Apple Inc. Method for transitioning power states of an electronic device
CN109782937B (zh) 2017-11-13 2021-03-05 京东方科技集团股份有限公司 触摸驱动方法、装置和显示终端
CN109062443A (zh) * 2018-08-17 2018-12-21 武汉华星光电技术有限公司 触控感应方法及其设备
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
KR102645332B1 (ko) 2018-12-19 2024-03-11 삼성전자주식회사 디스플레이의 복수의 영역들 간 인터랙팅을 위한 방법 및 전자 장치
CN111610874B (zh) * 2019-02-22 2022-05-10 华为技术有限公司 一种触摸屏的响应方法及电子设备
CN111752465A (zh) * 2019-03-29 2020-10-09 北京小米移动软件有限公司 防止边缘误触控的方法、装置及存储介质
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
CN113031802A (zh) * 2019-12-09 2021-06-25 华为终端有限公司 一种触控区域调整方法及装置
JP7478238B2 (ja) 2019-12-09 2024-05-02 華為技術有限公司 タッチ領域調整方法及び機器
CN113093930A (zh) * 2020-01-08 2021-07-09 北京小米移动软件有限公司 一种触摸信号处理方法、装置及介质
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
CN113282220A (zh) * 2020-02-19 2021-08-20 北京小米移动软件有限公司 防误触方法、确定防误触区域的方法及移动终端
CN115808991B (zh) * 2023-01-31 2023-07-07 荣耀终端有限公司 显示屏的触控操作方法及电子设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459424B1 (en) * 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
JP4672756B2 (ja) * 2008-06-30 2011-04-20 株式会社東芝 電子機器
JP5611763B2 (ja) * 2010-10-27 2014-10-22 京セラ株式会社 携帯端末装置及び処理方法
US9244545B2 (en) 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
JP5799628B2 (ja) * 2011-07-15 2015-10-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN103064548A (zh) * 2011-10-24 2013-04-24 联咏科技股份有限公司 可滤除误触面板的手势判断方法
JP5189197B1 (ja) * 2011-10-27 2013-04-24 シャープ株式会社 携帯情報端末
CN102768595B (zh) 2011-11-23 2015-08-26 联想(北京)有限公司 一种识别触摸屏上触控操作指令的方法及装置
EP2626778B1 (en) * 2012-02-09 2017-04-05 Sony Mobile Communications, Inc. Capacitive touch panel device
EP2821898A4 (en) * 2012-03-02 2015-11-18 Nec Corp MOBILE DEVICE, METHOD FOR PREVENTING OPERATING ERRORS AND PROGRAM THEREFOR
JP5922480B2 (ja) * 2012-04-25 2016-05-24 京セラ株式会社 表示機能を備える携帯機器、プログラムおよび表示機能を備える携帯機器の制御方法
SE537730C2 (sv) * 2012-05-14 2015-10-06 Scania Cv Ab Projicerat virtuellt inmatningssystem för fordon
JP2014006654A (ja) * 2012-06-22 2014-01-16 Fujifilm Corp 情報表示装置、ユーザーインターフェースの提供方法並びにプログラム
JP2014052950A (ja) * 2012-09-10 2014-03-20 Sharp Corp 情報端末
CN103176653A (zh) * 2013-03-13 2013-06-26 向运明 手持式装置触控显示屏防误触方法
CN103235695B (zh) * 2013-04-11 2016-09-28 广东欧珀移动通信有限公司 触控设备中防止误操作的方法及其装置
CN103513865A (zh) 2013-04-27 2014-01-15 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
CN104423656B (zh) * 2013-08-20 2018-08-17 南京中兴新软件有限责任公司 误触摸识别方法和装置
CN104020878A (zh) * 2014-05-22 2014-09-03 小米科技有限责任公司 触摸输入控制方法及装置
US9851853B2 (en) * 2014-05-30 2017-12-26 Apple Inc. Low power scan for device wake up and unlock

Also Published As

Publication number Publication date
CN104020878A (zh) 2014-09-03
BR112015000003A2 (pt) 2017-06-27
WO2015176484A1 (zh) 2015-11-26
KR101714857B1 (ko) 2017-03-09
US20150338954A1 (en) 2015-11-26
EP2947553A1 (en) 2015-11-25
US9671911B2 (en) 2017-06-06
MX349777B (es) 2017-08-10
RU2618921C2 (ru) 2017-05-12
KR20160000396A (ko) 2016-01-04
JP6033502B2 (ja) 2016-11-30
MX2014015064A (es) 2016-04-26
JP2016524764A (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
RU2014153895A (ru) Способ и устройство управления сенсорным вводом
JP6543273B2 (ja) タッチポイント認識方法及び装置
CN104571693B (zh) 信息处理方法及电子设备
RU2015120739A (ru) Способ, устройство и оконечная аппаратура для обработки сеанса на основе жеста
EP2804083A1 (en) Screen unlocking system and method
RU2011113673A (ru) Способ и устройство выбора объекта на экране дисплея
MY195861A (en) Information Processing Method, Electronic Device, and Computer Storage Medium
JP2015022745A5 (ru)
WO2014131283A1 (zh) 触摸识别方法及装置
RU2016101409A (ru) Способ и устройство для управления приложением
CN105487809A (zh) 一种终端的控制方法及装置
JP2013235586A5 (ru)
RU2016103402A (ru) Электронное устройство и способ управления таким устройством
JP2015527662A5 (ru)
JP2017529594A5 (ru)
JP2014130450A5 (ru)
JP2016053768A5 (ru)
JP2014203158A5 (ru)
JP2018005775A5 (ja) 指認証機能を有する電子機器、光学機器
WO2016145873A1 (zh) 误操作识别方法和装置
US10078396B2 (en) Optical touch sensing device and touch signal determination method thereof
RU2014151736A (ru) Способ улучшения распознавания касаний и электронное устройство для его осуществления
WO2018059010A1 (zh) 一种触控操作识别方法和装置
CN105260044B (zh) 电子设备及触控操作识别方法
TWI517019B (zh) 電子裝置及添加操作界面的方法