RU2635285C1 - Способ и устройство управления перемещением на сенсорном экране - Google Patents

Способ и устройство управления перемещением на сенсорном экране Download PDF

Info

Publication number
RU2635285C1
RU2635285C1 RU2015144389A RU2015144389A RU2635285C1 RU 2635285 C1 RU2635285 C1 RU 2635285C1 RU 2015144389 A RU2015144389 A RU 2015144389A RU 2015144389 A RU2015144389 A RU 2015144389A RU 2635285 C1 RU2635285 C1 RU 2635285C1
Authority
RU
Russia
Prior art keywords
movement
touch screen
touch
axis
pressure
Prior art date
Application number
RU2015144389A
Other languages
English (en)
Inventor
Йонг-Гоок ПАРК
Дзу-Ил ЕОМ
Дзи-Су ДЗУНГ
Кук-Хиун ХАН
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Application granted granted Critical
Publication of RU2635285C1 publication Critical patent/RU2635285C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к пользовательским интерфейсам. Технический результат заключается в повышении скорости ввода данных при управлении перемещением объекта. Такой результат достигается тем, что распознают давления, по меньшей мере, в двух положениях на сенсорном экране устройства и управляют перемещением объекта на сенсорном экране, используя разность давлений, по меньшей мере, между двумя распознанными положениями. 2 н. и 4 з.п. ф-лы, 18 ил.

Description

ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
Настоящее изобретение относится, в целом, к способу и устройству управления перемещением в устройстве с сенсорным экраном и, более конкретно, к способу и устройству управления перемещением, основываясь на разницах в положениях и давлениях на сенсорный экран.
ПРЕДШЕСТВУЮЩИЙ УРОВЕНЬ ТЕХНИКИ
Мультирежимный интерфейс пользователя приобрел большое значение для увеличения опыта пользователя по взаимодействию при использовании мобильных устройств. Распространение мультисенсорной технологии расширило рынок мобильных устройств, снабженных мультисенсорными экранами.
РАСКРЫТИЕ ИЗОБРЕТЕНИЯ
ТЕХНИЧЕСКАЯ ПРОБЛЕМА
Таким образом, существует потребность в интерфейсе пользователя, позволяющем пользователю более интуитивно управлять перемещением объекта на сенсорном экране устройства.
РЕШЕНИЕ ПРОБЛЕМЫ
Настоящее изобретение обеспечивает способ и устройство управления перемещением, обеспечивающие интерфейс пользователя, позволяющий пользователям более интуитивно управлять перемещением объекта на устройстве с сенсорным экраном.
ПРЕДПОЧТИТЕЛЬНЫЕ ЭФФЕКТЫ ИЗОБРЕТЕНИЯ
Как описано выше, в соответствии с настоящим изобретением, поскольку перемещение объекта управляется, используя разность давлений между двумя или более положениями касания на сенсорном экране в устройстве, пользователь приобретает новый опыт взаимодействия. Кроме того, поскольку пользователю предоставляется новый интуитивный и быстрый способ выполнения операций, может быть обеспечена совершенно новая отличительная функция. Дополнительно, графический метод взаимодействия может быть предпочтителен с точки зрения маркетинга изделий.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Упомянутые выше и другие признаки и преимущества настоящего изобретения станут более очевидны из последующего подробного описания вариантов его осуществления со ссылкой на приложенные чертежи, на которых:
Фиг. 1А, 1В и 1C - общие представления, концептуально поясняющие настоящее изобретение;
Фиг. 2 - блок-схема устройства управления перемещением в соответствии с вариантом осуществления настоящего изобретения;
Фиг. 3 - блок-схема последовательности выполнения операций способа управления перемещением в соответствии с вариантом осуществления настоящего изобретения;
Фиг. 4A, 4B и 4C - вариант осуществления, в котором перемещение или деформация объекта на сенсорном экране ограничиваются осями X и Y;
Фиг. 5A, 5B, 5C, 5D и 5E - пример конкретных применений, когда перемещение или деформация объекта на сенсорном экране создается по осям X и Y;
Фиг. 6A, 6B и 6C - случай, когда перемещение или деформация объекта на сенсорном экране создается свободно, без ограничения осями X и Y; и
Фиг. 7A и 7B - пример конкретных применений, когда перемещение или деформация объекта на сенсорном экране создается свободно.
ПРЕДПОЧТИТЕЛЬНЫЙ ВАРИАНТ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
В соответствии с вариантом настоящего изобретения, способ управления перемещением объекта на сенсорном экране устройства содержит распознавание давлений, по меньшей мере, в двух положениях на сенсорном экране устройства и управление перемещением объекта на сенсорном экране, используя разность давлений, по меньшей мере, между двумя распознанными положениями.
В соответствии с другим вариантом настоящего изобретения, устройство управления перемещением объекта на сенсорном экране устройства включает в себя блок распознавания для распознавания давления, по меньшей мере, в двух положениях на сенсорном экране устройства, и блок обработки для управления перемещением объекта на сенсорном экране, используя разность давлений, по меньшей мере, между двумя положениями.
ВАРИАНТ ИЗОБРЕТЕНИЯ
Прилагаемые чертежи поясняют варианты осуществления настоящего изобретения и ссылка на них делается, чтобы получить достаточное понимание настоящего изобретения, его преимуществ и задач, осуществляемых при реализации настоящего изобретения. Здесь далее настоящее изобретение будет описано подробно, объясняя варианты осуществления изобретения со ссылкой на сопроводительные чертежи. Схожие ссылочные позиции на чертежах обозначают описанные здесь схожие элементы.
Фиг. 1A, 1B и 1C являются общими представлениями, концептуально поясняющими настоящее изобретение. На фиг. 1A представлен пример использования двух пальцев для касания сенсорного экрана устройства. Когда пользователь касается сенсорный экран устройства по меньшей мере двумя пальцами и когда существует разность давлений между по меньшей мере двумя пальцами, касающимися сенсорного экрана, устройство может управлять перемещением объекта в соответствии с разностью давлений.
Как показано на фиг. 1A, два пальца касаются сенсорного экрана устройства. Устройство распознает касание 100 первого пальца и касание 110 второго пальца. Когда устройство определяет, что касание 100 первого пальца и касание 110 второго пальца располагаются горизонтально, а не вертикально, объект перемещается влево или вправо в направлении касание 100 первого пальца или касание 110 второго пальца, в зависимости от того, в каком из них прикладывается большее давление.
На фиг. 1В представлен другой пример использования двух пальцев для касания сенсорного экрана устройства. Как показано на фиг. 1B, устройство распознает касание 100 первого пальца и касание 110 второго пальца. Когда устройство определяет, что касание 100 первого пальца и касание 110 второго пальца располагаются вертикально, а не горизонтально, объект перемещается вверх или вниз в направлении касания 100 первого пальца или касания 110 второго пальца, в зависимости от того, в каком из них прикладывается большее давление.
На фиг. 1C представлен пример применения, когда настоящее изобретение реализуется в мобильном телефоне. Как показано на фиг. 1C, на экране мобильного телефона осуществлены два касания. Касание 100 и касание 110 располагаются вертикально, а не горизонтально, с точки зрения позиционного взаимоотношения между ними, так чтобы объект мог перемещаться вверх или вниз. Когда давление в касании 100 больше, чем давление в касании 110, перемещением объекта можно управлять, перемещаясь к касанию 100. Таким образом, на фиг. 1C, где поясняется вертикальное прокручивание, прокручивание может делаться в направлении вверх, то есть, к касанию 100, а не к касанию 110. В соответствии с настоящим изобретением, положения и касаний на сенсорном экране в устройстве, содержащем сенсорный экран, распознаются и, таким образом, перемещением объекта можно управлять более интуитивно и удобно.
На фиг. 2 представлена блок-схема устройства 200 управления перемещением, соответствующая варианту осуществления настоящего изобретения. Как показано на фиг. 2, устройство 200 управления перемещением содержит блок 210 ввода, блок 220 обработки и блок 230 отображения.
Блок 210 ввода выполнен с возможностью приема и распознавания ввода от пользователя и включает в себя блок 211 распознавания касания и блок 212 распознавания давления в соответствии с настоящим изобретением. Блок 211 распознавания касания распознает, по меньшей мере, два касания на сенсорном экране и также положения касаний. Блок 212 распознавания давления является устройством, распознающим давление в положении касания. В качестве устройства распознавания давления в блоке 212 распознавания давления может использоваться любой тип устройства, способный распознавать давление. Например, может быть установлено множество датчиков давления, чтобы распознавать давление, или в ситуации, когда площадь участка касания увеличивается, участок касания может распознаваться как участок с высокой интенсивностью давления, считывая форму участка касания на сенсорном экране. Кроме того, интенсивность давления может распознаваться, анализируя мощность сигнала, создаваемого, когда касание происходит на емкостном сенсорном экране. Дополнительно, блок 212 распознавания давления может быть реализован посредством объединения различных технологий для распознавания положения касания и давления на сенсорный экран одновременно.
Блок 220 обрабатывает информацию, принятую от блока 210 ввода, и управляет перемещением объекта, отображаемым на блоке 230 отображения, основываясь на результате обработки. Блок 230 отображения отображает перемещение объекта под управлением блока 220 обработки. В качестве блока 230 отображения может использоваться любой тип устройства, способный выполнять функцию отображения.
Хотя на фиг. 2 не показано, дополнительно может обеспечиваться интерфейс, чтобы передавать сигнал, принятый от блока 210 ввода. То есть, интерфейс предпочтительно передает блоку 220 обработки информацию о положении и давлении при касании сенсорного экрана. Кроме того, дополнительно может быть обеспечен блок запоминающего устройства для хранения информации или данных, обработанных блоком 220 обработки.
На фиг. 3 представлена блок-схема последовательности выполнения операций способа управления перемещением, соответствующего варианту осуществления настоящего изобретения. Как показано на фиг. 2 и 3, на этапе 310 блок 210 ввода распознает положения и давления, по меньшей мере, двух касаний на сенсорном экране. Блок 211 распознавания касания, содержащийся в блоке 210 ввода, распознает положения, по меньшей мере, двух касаний на сенсорном экране. Блок 212 распознавания давления распознает давление в соответствующем положении касания. Блок 210 ввода передает информацию о положениях и давлениях, по меньшей мере, двух распознанных касаний на сенсорном экране на блок 220 обработки.
Блок 220 обработки на этапе 320 управляет перемещением объекта на сенсорном экране, используя разность давлений, по меньшей мере, между двумя распознанными положениями.
Принимая информацию о положении и давлении распознанного касания от блока 210 ввода, блок 220 обработки анализирует информацию о положении и давлении касания, формирует сигнал управления перемещением объекта на сенсорном экране и подает сигнал на блок 230 отображения. То есть, блок 220 обработки определяет направление перемещения объекта на сенсорном экране, анализируя информацию о положениях, по меньшей мере, двух касаний, распознанных на сенсорном экране. Дополнительно, блок 220 обработки определяет скорость или силу перемещения объекта на сенсорном экране, анализируя информацию о давлениях, по меньшей мере, двух касаний, распознанных на сенсорном экране.
Когда давления при двух или более касаниях распознаны, разность давлений между двумя или больше положениями касания, может быть не эффективна и может не приводить в результате к вводу пользователя, соответствующему способу управления перемещением согласно настоящему изобретению. Например, хотя на сенсорном экране распознаются два давления, разность между этими двумя давлениями может быть настолько мала, что давления могут расцениваться как типичные вводы, возникающие, когда сенсорный экран удерживается двумя пальцами, например, когда пользователь держит сенсорный экран обычным способом, а не как вводы пользователям, к которым должен быть применен способ управления перемещением, соответствующий настоящему изобретению. Таким образом, хотя это не показано на фиг. 3, может происходить операция игнорирования такого ввода, потому что разность между этими двумя давлениями не имеет значимого значения.
Конкретно, блок 220 обработки контролирует разность давлений между касаниями двух пальцев, когда пользователь помещает пальцы на сенсорный экран обычным способом, вычисляет разность давлений, когда устройство, как считают, держат обычным способом, и запоминает вычисленную разность давлений как критическое значение. Когда разность давлений между двумя или более касаниями анализируется посредством способа управления перемещением, соответствующего настоящему изобретению, если разность давлений меньше, чем хранящееся критическое значение, разность давлений определяется как возникающая из-за того, что пользователь держит устройство обычным способом, а не как ввод данных пользователем для управления перемещением, так чтобы сигнал из-за касания не использовался для управления перемещением объекта. Если разность давлений между распознанными двумя или больше касаниями больше критического значения, разность давлений определяется как ввод данных пользователем для управления перемещением, а не как разность, возникшая из-за того, что пользователь держит устройство обычным способом, так чтобы управление перемещением объектом могло выполняться, используя разность давлений. Критическое значение может быть заданным значением, устанавливаемым в устройстве 200. Например, критическое значение может быть определено как значение разности давлений между двумя или более положениями касания, когда пользователи обычно берут в руки устройство 200. Дополнительно, критическое значение, установленное в устройстве 200, можно будет регулировать, используя интерфейс пользователя, на котором пользователи могут изменять критическое значение. Способ анализа информации о положении и давлении касания в блоке 220 обработки и использования информации для управления перемещением объекта на сенсорном экране описывается ниже подробно со ссылкой на сопроводительные чертежи.
На фиг. 4A, 4B и 4C представлен вариант осуществления, в котором перемещение или деформация объекта на сенсорном экране ограничивается осями X и Y. Примерами, в которых перемещение или деформация объекта на сенсорном экране ограничиваются осями X и Y, могут быть вертикальная прокрутка списка, горизонтальная прокрутка списка или перемещение по полоске индикатора выполнения, указывающее громкость или продвижение показа кинофильма/исполнения музыкального произведения.
Как показано на фиг. 4A, объект 400 отображается на сенсорном экране и касания двух пальцев располагаются под объектом 400. Первым положением 410 касания является T1, тогда как вторым положением 420 касания является T2. Когда координатами T1 являются (x1, y1), а координатами T2 являются (x2, y2), то x является расстоянием между x2 и x1, то есть, расстоянием по оси X, а y является расстоянием между y2 и y1, то есть, расстоянием по оси Y.
Блок 220 обработки определяет ось перемещения объекта, то есть, перемещать ли объект по оси X или по оси Y. Когда расстояние по оси X больше, чем расстояние по оси Y, определяется, что объект должен двигаться по оси X. Когда расстояние по оси Y больше, чем расстояние по оси X, определяется, что объект должен двигаться по оси Y.
Кроме того, блок 220 обработки может определить направление перемещения объекта, то есть, перемещать ли объект к положению T1 или T2, основываясь на давлении, созданном касаниями, по меньшей мере, двух пальцев.
Сравнивая давление P1 (не показано) в положении T1 с давлением P2 (не показано) в положении Т2, объект перемещается к положению T1, когда P1 больше, чем P2, и объект перемещается к положению T2, когда P2 больше, чем P1. Когда P1 такое же, как P2, объект не перемещается.
Кроме того, блок 220 обработки может определить перемещение пикселя за час в качестве скорости перемещения объекта. Конкретно, блок 220 обработки предпочтительно определяет скорость перемещения объекта согласно выражению k*|P2-P1|. Здесь, "k" обозначает константу, определяемой характеристикой, зависящей от применения, и "*" обозначает функцию умножения. Таким образом, когда разность между этими двумя давлениями большая, скорость перемещения увеличивается. Когда разность между двумя давлениями мала, скорость перемещения уменьшается.
Кроме того, блок 220 обработки может определить скорость перемещения объекта в соответствии со временем. То есть, блок 220 обработки может определить скорость перемещения объекта пропорционально времени t, во время которого поддерживается касание.
Как показано на фиг. 4B, поскольку расстояние между первым касанием 410 и вторым касанием 420 по оси X больше, чем по оси Y, определяется, что объект должен перемещаться по оси X. Дополнительно, так как давление в первом касании 410 больше, чем давление во втором касании 420, определяется, что объект должен перемещаться в направлении первого касания 410. Тот факт, что давление в первом касании 410 больше, чем давление во втором касании 420, показывается размером круга 430, центр которого находится в центре первого касания 410, который больше, чем размер круга 440, центр которого находится в центре второго касания 420, как показано на фиг. 4B. Как показано на фиг. 4C, так как расстояние между первым касанием 410 и вторым касанием 420 по оси Y длиннее, чем расстояние по оси X, объект перемещается по оси Y. Кроме того, так как давление во втором касании 420 больше, чем давление в первом касании 410, что указывается разницей в размере круга 440 по сравнению с размером круга 430, определяется, что объект должен перемещаться в направлении второго касания 420.
На фиг. 5A, 5B, 5C, 5D и 5E показаны примеры конкретных применений, когда перемещение или деформация объекта на сенсорном экране создается по осям X и Y. На фиг. 5A показан пример вертикальной прокрутки, когда пользователь создает два касания 510 и 520 на сенсорном экране и разница в давлении указывается разницей в размерах касаний 510 и 520 между двумя касаниями 510 и 520 в вертикальном направлении. То есть, когда до сенсорного экрана касаются двумя пальцами, функция прокрутки выполняется в направлении вверх, когда к верхнему касанию 510 прикладывается более высокое давление, и функция прокрутки выполняется в направлении вниз, когда более высокое давление прикладывается к более низкому касанию 520.
Как показано на фиг. 5B, горизонтальная прокрутка может быть реализована, когда пользователь создает два касания 510 и 520 на сенсорном экране и разность давлений между двумя касаниями 510 и 520 в горизонтальном направлении. То есть, когда до сенсорного экрана дотрагиваются двумя пальцами, функция прокрутки выполняется вправо, когда более высокое давление прикладывается к правому касанию 520, и функция прокрутки выполняется влево, когда более высокое давление прикладывается к левому касанию 510.
Как показано на фиг. 5C, применение, обладающее заданным эффектом, может быть реализовано в дополнение к простой прокрутке, как показано на фиг. 5A или 5B. Конкретно, графический объект деформируется, то есть, меняется или изменяется в направлении, в котором прикладывается давление, создавая, таким образом, ощущение, что графический объект движется назад, что используется в качестве эффекта во время прокрутки.
Как показано на фиг. 5D, когда выполняется приложение для прослушивания музыки или просмотра кинофильма, для музыкального произведения или кинофильма можно осуществлять поиск, используя разность давлений между двумя касаниями в соответствии с настоящим изобретением в качестве функции поиска.
Как показано на фиг. 5E, при выполнении приложения для прослушивания музыки или просмотра кинофильма регулировка громкости может быть возможна, используя разность давлений между двумя касаниями в соответствии с настоящим изобретением.
В приведенном выше описании, пример, в котором перемещение объекта на сенсорном экране ограничивается осями X и Y, описывается со ссылкой на фиг. 4 и 5.
На фиг. 6A, 6B и 6C показан вариант осуществления, в котором перемещение или деформация объекта на сенсорном экране создаются свободно, без ограничения осями X или Y. Когда перемещение, деформация или движение объекта на сенсорном экране является свободным, объект может перемещаться по сенсорному экрану не только по оси X или Y, но также и в любом другом направлении на сенсорном экране. Например, увеличенная фотография может панорамироваться или может осуществляться навигация по карте.
Как показано на фиг. 6A, объект 600 отображается на сенсорном экране и положения касания двумя пальцами располагаются под объектом 600. Первым касанием 610 является T1 и вторым касанием 620 является T2.
Так как блок 220 обработки может управлять перемещением объекта в любом направлении и не ограничивается осями X или Y, направление перемещения определяется напрямую, без определения оси перемещения. Блок 220 обработки может определить направление перемещения объекта как перемещение объекта в направлении T1 или T2.
Сравнивая давление P1 (не показано) в положении T1 с давлением P2 (не показано) в положении T2, когда P1 больше, чем P2, определяется, что объект должен перемещаться в направлении T1. Когда P2 больше чем P1, определяется, что объект должен перемещаться в направлении T2. Когда P1 такое же, как P2, определяется, что не должно быть никакого перемещения объекта.
Кроме того, блок 220 обработки определяет перемещение пикселя за час в качестве скорости перемещения объекта. То есть, блок 220 обработки может определить скорость перемещения объекта согласно выражению k*|P2-P1|. Здесь, "k" обозначает константу, определяемой характеристикой, зависящей от применения. То есть, когда разность между этими двумя давлениями большая, скорость перемещения объекта увеличивается. Когда разность между двумя давлениями мала, скорость перемещения объекта уменьшается.
Как показано на фиг. 6B, так как давление в первом касании 610 выше, чем давление во втором касании 620 между первым и вторым касаниями 610 и 620, для объекта может быть определено, что объект должен перемещаться в направлении первого касания 610. Тот факт, что давление в первом касания 610 больше, чем давление во втором касании 620, показывается размером круга 630, центр которого находится в центре первого касания 610, причем размер этого круга больше, чем размер круга 640, чей центр находится в центре второго касания 620, как показано на фиг. 6B. Как показано на фиг. 6C, так как давление второго касания 620 больше, чем давление первого касания 610, что указывается размером круга по сравнению с размером другого круга, может быть определено, что объект должен перемещаться в направлении второго касания 620.
На фиг. 7A и 7B показан пример конкретных применений, когда создается свободное перемещение или деформация объекта на сенсорном экране. На фиг. 7A показано применение во время операции панорамирования в фотографии. Первое касание 710 и второе касание 720 показаны на сенсорном экране устройства. Фотография панорамируется в направлении второго касания 720, к которой прикладывается большее давление, чем к первому касанию 710.
На фиг. 7B показано применение для отображения фотографии в устройстве, показанном на фиг. 7A. Однако, разница между фиг. 7A и фиг. 7B состоит в том, что на сенсорном экране существуют три точки касания; a) 730, b) 740 и c) 750. Когда давления, приложенные к двум или более касаниям на сенсорном экране, распознаются, как показано на фиг. 7B, направление перемещения объекта может быть определено вектором.
Конкретно, способ определения направления перемещения объекта, используя вектор, является следующим.
Когда на сенсорном экране распознаются (n+1) давлений, координатами положения, имеющего самое низкое давление, являются A0(x0, y0), а координатами положения, имеющего самое высокое давление, являются Аn(xn, yn). Кроме того, значение давления в положении, имеющем самое низкое давление, равно р0, и давление в положении, имеющем самое высокое давление, равно pn.
Согласно уравнению (1), когда направлением An является n относительно А0:
Figure 00000001
(1)
Figure 00000002
Figure 00000003
Согласно уравнению 2, когда величина давления равно (pn-p0), вектор Fn, представляющий An, может быть выражен следующим образом:
Figure 00000004
(2)
Таким образом, когда давления для двух касаний распознаются на сенсорном экране, направление объекта может быть определено как (cos n, sin 0), а скорость перемещения объекта может быть определена как k*(pn-p0). Здесь, "k" обозначает константу, зависящую от применения.
Как описано выше, в соответствии с настоящим изобретением, так как перемещение объекта управляется, используя разность давлении между двумя или более касаниями на сенсорном экране в устройстве, пользователь приобретает новый опыт взаимодействия. Кроме того, поскольку пользователю предоставляется интуитивный и быстрый способ управления операциями, может быть обеспечена новая отличительная функция. Дополнительно, графический способ взаимодействия может быть выгоден с точки зрения маркетинга изделий.
Настоящее изобретение может быть применено к любому изделию, имеющему сенсорный экран, например, к карманным изделиям (HHP), MP3-плеерам, планшетам, персональным цифровым секретарям (PDA), мобильным устройствам и т.д.
Изобретение может быть также реализовано как считываемые компьютером коды на считываемом компьютером носителе записи данных. Считываемый компьютером носитель записи данных является любым постоянным устройством хранения данных, способным запоминать данные, которые могут после того считываться компьютерной системой. Примерами считываемого компьютером носителя записи данных являются постоянное запоминающее устройство (ROM), оперативное запоминающее устройство (RAM), компакт-диск CD-ROM, магнитные ленты, гибкие диски, оптические устройства хранения данных и т.д. Считываемый компьютером носитель записи данных может также распространяться через сеть, связывающую компьютерные системы, так чтобы считываемая компьютером управляющая программа хранилась и исполнялась распределенным способом. Кроме того, функциональные программы, управляющие программы и сегменты управляющих программ для реализации настоящего изобретения могут легко истолковываться программистами с обычным уровнем знаний в области техники, к которой относится настоящее изобретение.
Хотя настоящее изобретение было конкретно представлено и описано со ссылкой на конкретные варианты его осуществления, специалисты в данной области техники должны понимать, что в их в форме и деталях могут быть сделаны различные изменения, не отступая от сущности и объема изобретения, как оно определено прилагаемой формулой изобретения.

Claims (16)

1. Способ управления перемещением положения объекта, отображаемого на сенсорном экране устройства, содержащий этапы, на которых:
распознают интенсивности давления в двух или более статичных положениях, представленных одновременно, на сенсорном экране устройства; и
управляют перемещением положения объекта на сенсорном экране, используя разность интенсивностей давления между этими двумя или более распознанными статичными положениями, когда разность больше, чем предварительно определенное критическое значение,
причем управление перемещением положения объекта содержит этапы, на которых:
сравнивают расстояние по первой оси с расстоянием по второй оси между двумя или более статичными положениями,
определяют, что перемещение положения объекта должно производиться по первой оси, когда расстояние по первой оси больше, чем расстояние по второй оси, или по второй оси, когда расстояние по второй оси больше, чем расстояние по первой оси,
прокручивают объект на сенсорном экране, на котором интенсивности давления в двух или более статичных положениях были представлены одновременно, в определенном перемещении положения объекта.
2. Способ по п. 1, в котором управление перемещением положения объекта содержит этапы, на которых:
определяют направление перемещения положения объекта, которое должно быть направлением к положению, имеющему более высокое давление, когда существуют только два статичных положения; и
определяют направление перемещения положения объекта, используя вектор, когда имеются три или более статичных положений.
3. Способ по п. 1, в котором управление перемещением положения объекта дополнительно содержит определение скорости перемещения положения объекта, используя разность в интенсивности давления между двумя или более статичными положениями.
4. Аппаратура для управления перемещением положения объекта, отображаемого на сенсорном экране устройства, содержащая:
блок распознавания, выполненный с возможностью распознавания интенсивностей давления в двух или более статичных положениях, представленных одновременно, на сенсорном экране устройства; и
блок обработки, выполненный с возможностью управления перемещением положения объекта на сенсорном экране, используя разность интенсивностей давления между двумя или более статичными положениями, когда разность больше, чем предварительно определенное критическое значение, посредством сравнения расстояния по первой оси с расстоянием по второй оси между двумя или более статичными положениями, определения того, что перемещение положения объекта должно производиться по первой оси, когда расстояние по первой оси больше, чем расстояние по второй оси, или по второй оси, когда расстояние по второй оси больше, чем расстояние по первой оси, и прокручивания объекта на сенсорном экране, на котором интенсивности давления в двух или более статичных положениях были представлены одновременно, в определенном перемещении положения объекта, причем объект является постоянным до и после применения давления на сенсорном экране.
5. Аппаратура по п. 4, причем блок обработки определяет направление перемещения положения объекта как направление к положению, имеющему более высокое давление, когда существуют два статичных положения, и определяет направление перемещения положения объекта, используя вектор, когда существуют три или более статичных положений.
6. Аппаратура по п. 4, в которой блок обработки определяет скорость перемещения положения объекта, используя разность в интенсивности давления между двумя или более статичными положениями.
RU2015144389A 2010-09-08 2011-09-07 Способ и устройство управления перемещением на сенсорном экране RU2635285C1 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0088041 2010-09-08
KR1020100088041A KR101739054B1 (ko) 2010-09-08 2010-09-08 디바이스상의 움직임 제어 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2013115304/08A Division RU2013115304A (ru) 2010-09-08 2011-09-07 Способ и устройство управления перемещением на сенсорном экране

Publications (1)

Publication Number Publication Date
RU2635285C1 true RU2635285C1 (ru) 2017-11-09

Family

ID=45770342

Family Applications (2)

Application Number Title Priority Date Filing Date
RU2013115304/08A RU2013115304A (ru) 2010-09-08 2011-09-07 Способ и устройство управления перемещением на сенсорном экране
RU2015144389A RU2635285C1 (ru) 2010-09-08 2011-09-07 Способ и устройство управления перемещением на сенсорном экране

Family Applications Before (1)

Application Number Title Priority Date Filing Date
RU2013115304/08A RU2013115304A (ru) 2010-09-08 2011-09-07 Способ и устройство управления перемещением на сенсорном экране

Country Status (9)

Country Link
US (1) US9684439B2 (ru)
EP (1) EP2614422B1 (ru)
JP (1) JP2013539580A (ru)
KR (1) KR101739054B1 (ru)
CN (1) CN103097996B (ru)
AU (1) AU2011299695B2 (ru)
BR (1) BR112013005483A2 (ru)
RU (2) RU2013115304A (ru)
WO (1) WO2012033345A1 (ru)

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8587422B2 (en) 2010-03-31 2013-11-19 Tk Holdings, Inc. Occupant sensing system
US9007190B2 (en) 2010-03-31 2015-04-14 Tk Holdings Inc. Steering wheel sensors
JP5759230B2 (ja) 2010-04-02 2015-08-05 ティーケー ホールディングス,インコーポレーテッド 手センサを有するステアリング・ホイール
WO2013015070A1 (ja) * 2011-07-22 2013-01-31 Kddi株式会社 指の移動を伴うことなく画像スクロールが可能なユーザインタフェース装置、画像スクロール方法及びプログラム
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5594910B2 (ja) * 2012-04-09 2014-09-24 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
DE112013002412T5 (de) 2012-05-09 2015-02-19 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN104487930A (zh) 2012-05-09 2015-04-01 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169870A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for transitioning between display states in response to gesture
CN106201316B (zh) 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP3401773A1 (en) 2012-05-09 2018-11-14 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US20130307788A1 (en) * 2012-05-16 2013-11-21 Motorola Solutions, Inc. Device and method for automated use of force sensing touch panels
US9493342B2 (en) 2012-06-21 2016-11-15 Nextinput, Inc. Wafer level MEMS force dies
WO2014008377A1 (en) 2012-07-05 2014-01-09 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
WO2014043664A1 (en) 2012-09-17 2014-03-20 Tk Holdings Inc. Single layer force sensor
JP6000035B2 (ja) * 2012-09-18 2016-09-28 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
JP6163733B2 (ja) * 2012-11-09 2017-07-19 オムロン株式会社 制御装置および制御プログラム
CN103809776B (zh) * 2012-11-12 2017-05-24 联想(北京)有限公司 一种功能执行方法及电子设备
CN102984569A (zh) * 2012-11-29 2013-03-20 中兴通讯股份有限公司 一种控制电视界面焦点的方法、装置和***
EP2742869A1 (en) * 2012-12-12 2014-06-18 Samsung Medison Co., Ltd. Ultrasound apparatus and method of inputting information into the same
DE112012006009T5 (de) * 2012-12-20 2014-11-27 Intel Corporation Berührungsbildschirm mit Kraftsensoren
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
CN107831991B (zh) * 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
AU2013368443B2 (en) 2012-12-29 2016-03-24 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
JP6138274B2 (ja) 2012-12-29 2017-05-31 アップル インコーポレイテッド ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
CN103116467B (zh) * 2013-03-07 2017-03-01 东蓝数码有限公司 基于多点触控的视频进度和音量的控制方法
US20140300543A1 (en) * 2013-04-05 2014-10-09 Itvers Co., Ltd. Touch pad input method and input device
CN103257825B (zh) * 2013-04-28 2016-03-30 小米科技有限责任公司 一种调节播放进度的方法和装置
US9109921B1 (en) * 2013-06-19 2015-08-18 Amazon Technologies, Inc. Contextual based navigation element
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
JP6150712B2 (ja) * 2013-10-30 2017-06-21 シャープ株式会社 情報処理装置およびプログラム
KR20150051278A (ko) * 2013-11-01 2015-05-12 삼성전자주식회사 오브젝트 이동 방법 및 이를 구현하는 전자 장치
US9902611B2 (en) 2014-01-13 2018-02-27 Nextinput, Inc. Miniaturized and ruggedized wafer level MEMs force sensors
JP2015148972A (ja) * 2014-02-07 2015-08-20 株式会社コルグ タッチパネル装置
WO2015141091A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
US9904417B2 (en) * 2014-04-16 2018-02-27 Microchip Technology Incorporated Projected capacitive touch detection with touch force detection using self-capacitance and mutual capacitance detection
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9791956B2 (en) * 2015-03-30 2017-10-17 Lenovo (Singapore) Pte. Ltd. Touch panel click action
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
JP2016224919A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 データ閲覧装置、データ閲覧方法、及びプログラム
CN106293438A (zh) * 2015-06-04 2017-01-04 北京智谷睿拓技术服务有限公司 对象关联方法、装置及用户设备
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10466119B2 (en) 2015-06-10 2019-11-05 Nextinput, Inc. Ruggedized wafer level MEMS force sensor with a tolerance trench
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN106371690A (zh) * 2015-08-18 2017-02-01 北京智谷睿拓技术服务有限公司 区域确定方法、装置及显示设备
CN106293447B (zh) * 2015-08-18 2020-10-30 北京智谷睿拓技术服务有限公司 显示方法及显示设备
CN106293446B (zh) * 2015-08-18 2020-03-03 北京智谷睿拓技术服务有限公司 显示方法及显示设备
CN106371646B (zh) * 2015-08-18 2019-04-30 北京智谷睿拓技术服务有限公司 显示方法及显示设备
CN106371716A (zh) * 2015-08-25 2017-02-01 北京智谷睿拓技术服务有限公司 检索方法、检索装置及用户设备
CN106371741B (zh) * 2015-08-25 2019-11-29 北京智谷睿拓技术服务有限公司 排序方法、排序装置及用户设备
US10656746B2 (en) 2015-09-18 2020-05-19 Sony Corporation Information processing device, information processing method, and program
JP2018022438A (ja) * 2016-08-05 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN107992259A (zh) * 2016-10-27 2018-05-04 中兴通讯股份有限公司 运动参数的确定方法及装置
CN106843572A (zh) * 2016-12-30 2017-06-13 上海创功通讯技术有限公司 移动终端及其控制方法
WO2018148503A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated digital force sensors and related methods of manufacture
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
CN108693990A (zh) * 2017-04-12 2018-10-23 中兴通讯股份有限公司 一种终端触摸屏交互方法及装置
CN109213349A (zh) * 2017-06-30 2019-01-15 北京小米移动软件有限公司 基于触摸屏的交互方法及装置、计算机可读存储介质
CN111448446B (zh) 2017-07-19 2022-08-30 触控解决方案股份有限公司 在mems力传感器中的应变传递堆叠
WO2019023309A1 (en) 2017-07-25 2019-01-31 Nextinput, Inc. FORCE SENSOR AND INTEGRATED FINGERPRINTS
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
US11579028B2 (en) 2017-10-17 2023-02-14 Nextinput, Inc. Temperature coefficient of offset compensation for force sensor and strain gauge
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
US10871848B2 (en) 2018-09-13 2020-12-22 Sensel, Inc. Method and apparatus for variable impedence touch sensor array gesture recognition
US10891050B2 (en) 2018-09-13 2021-01-12 Sensel, Inc. Method and apparatus for variable impedance touch sensor arrays in non-planar controls
US10990223B2 (en) 2018-09-13 2021-04-27 Sensel, Inc. Method and apparatus for variable impedence touch sensor array force aware interaction in large surface devices
US11003274B2 (en) 2018-09-13 2021-05-11 Sensel, Inc. Method and apparatus for automotive variable impedance touch sensor array
JP6606591B2 (ja) * 2018-10-19 2019-11-13 シャープ株式会社 タッチパネル装置及び画像表示方法
US11513648B2 (en) * 2018-12-26 2022-11-29 Sensel, Inc. Method and apparatus for variable impedance touch sensor array force aware interaction with handheld display devices
WO2020142311A1 (en) 2019-01-03 2020-07-09 Sensel, Inc. Method and apparatus for indirect force aware touch control with variable impedance touch sensor arrays
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5565887A (en) * 1994-06-29 1996-10-15 Microsoft Corporation Method and apparatus for moving a cursor on a computer screen
RU2005110670A (ru) * 2002-09-09 2005-09-10 Сони Эрикссон Мобайл Коммьюникейшнз Аб (Se) Устройство ввода для сенсорного экрана
US20060209039A1 (en) * 2003-07-21 2006-09-21 Koninklijke Philips Electronics N.V. Touch sensitive display for a portable device
US20100026647A1 (en) * 2008-07-30 2010-02-04 Canon Kabushiki Kaisha Information processing method and apparatus
US20100149124A1 (en) * 2007-07-06 2010-06-17 Korea Research Institute Of Standards And Science Method for implementing mouse algorithm using tactile sensor
US20100171712A1 (en) * 2009-01-05 2010-07-08 Cieplinski Avi E Device, Method, and Graphical User Interface for Manipulating a User Interface Object

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4056713A (en) * 1976-10-01 1977-11-01 Digital Equipment Corporation Display processing unit for drawing vectors
USRE40891E1 (en) * 1991-11-26 2009-09-01 Sandio Technology Corp. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP4803883B2 (ja) * 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US6980201B1 (en) * 2000-09-29 2005-12-27 Rockwell Automation Technologies, Inc. Minimum move touch plane scanning method and device
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7331245B2 (en) * 2005-11-22 2008-02-19 Avago Technologies Ecbu Ip Pte Ltd Pressure distribution sensor and sensing method
KR100686562B1 (ko) * 2005-12-02 2007-02-26 유대성 전자기기의 화면 조작 장치
KR100694989B1 (ko) * 2005-12-28 2007-03-14 엘지전자 주식회사 이동 통신 단말기의 마우스 포인터 제어 방법 및 그 이동통신 단말기
US7907125B2 (en) * 2007-01-05 2011-03-15 Microsoft Corporation Recognizing multiple input point gestures
WO2008095137A2 (en) 2007-01-31 2008-08-07 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8358226B2 (en) * 2007-10-28 2013-01-22 Synaptics Incorporated Determining actuation of multi-sensor-electrode capacitive buttons
CN101878464A (zh) * 2007-12-05 2010-11-03 奥克斯摩斯有限公司 数据输入设备
KR101008581B1 (ko) 2008-03-06 2011-01-17 주식회사 오 코스모스 데이터 입력장치
US20090237374A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
KR101496844B1 (ko) * 2008-07-28 2015-02-27 삼성디스플레이 주식회사 터치 스크린 표시 장치 및 그 구동 방법
US20100039393A1 (en) * 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
WO2010036050A2 (en) 2008-09-26 2010-04-01 Lg Electronics Inc. Mobile terminal and control method thereof
JP5228755B2 (ja) 2008-09-29 2013-07-03 富士通株式会社 携帯端末装置、表示制御方法および表示制御プログラム
JP2010086230A (ja) * 2008-09-30 2010-04-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010176332A (ja) 2009-01-28 2010-08-12 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101587002B1 (ko) * 2009-02-02 2016-01-20 삼성전자주식회사 휴대용 단말기의 입력 장치 및 그 방법
JP5232034B2 (ja) * 2009-02-06 2013-07-10 アルプス電気株式会社 入力処理装置
JP5146389B2 (ja) * 2009-04-03 2013-02-20 ソニー株式会社 情報処理装置、および推定方法
US8723988B2 (en) * 2009-07-17 2014-05-13 Sony Corporation Using a touch sensitive display to control magnification and capture of digital images by an electronic device
US9740340B1 (en) * 2009-07-31 2017-08-22 Amazon Technologies, Inc. Visually consistent arrays including conductive mesh
US8363020B2 (en) * 2009-08-27 2013-01-29 Symbol Technologies, Inc. Methods and apparatus for pressure-based manipulation of content on a touch screen
US9489073B2 (en) * 2009-12-21 2016-11-08 Promethean Limited Multi-point contacts with pressure data on an interactive surface
US8686960B2 (en) * 2010-04-23 2014-04-01 Lester F. Ludwig Piecewise-linear and piecewise-affine transformations for high dimensional touchpad (HDTP) output decoupling and corrections

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5565887A (en) * 1994-06-29 1996-10-15 Microsoft Corporation Method and apparatus for moving a cursor on a computer screen
RU2005110670A (ru) * 2002-09-09 2005-09-10 Сони Эрикссон Мобайл Коммьюникейшнз Аб (Se) Устройство ввода для сенсорного экрана
US20060209039A1 (en) * 2003-07-21 2006-09-21 Koninklijke Philips Electronics N.V. Touch sensitive display for a portable device
US20100149124A1 (en) * 2007-07-06 2010-06-17 Korea Research Institute Of Standards And Science Method for implementing mouse algorithm using tactile sensor
US20100026647A1 (en) * 2008-07-30 2010-02-04 Canon Kabushiki Kaisha Information processing method and apparatus
US20100171712A1 (en) * 2009-01-05 2010-07-08 Cieplinski Avi E Device, Method, and Graphical User Interface for Manipulating a User Interface Object

Also Published As

Publication number Publication date
KR20120060259A (ko) 2012-06-12
EP2614422B1 (en) 2018-06-13
BR112013005483A2 (pt) 2016-05-03
CN103097996A (zh) 2013-05-08
CN103097996B (zh) 2016-09-07
AU2011299695B2 (en) 2015-05-21
EP2614422A4 (en) 2017-01-18
KR101739054B1 (ko) 2017-05-24
RU2013115304A (ru) 2014-10-20
JP2013539580A (ja) 2013-10-24
AU2011299695A1 (en) 2013-03-21
US20120056837A1 (en) 2012-03-08
US9684439B2 (en) 2017-06-20
WO2012033345A1 (en) 2012-03-15
EP2614422A1 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
RU2635285C1 (ru) Способ и устройство управления перемещением на сенсорном экране
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
EP2839357B1 (en) Rapid gesture re-engagement
JP5702296B2 (ja) ソフトウェアキーボード制御方法
EP2359224B1 (en) Generating gestures tailored to a hand resting on a surface
TWI569171B (zh) 手勢辨識
US8847904B2 (en) Gesture recognition method and touch system incorporating the same
US20140237408A1 (en) Interpretation of pressure based gesture
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20140232669A1 (en) Interpretation of pressure based gesture
US11003328B2 (en) Touch input method through edge screen, and electronic device
WO2011142317A1 (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20120262386A1 (en) Touch based user interface device and method
KR20100108116A (ko) 터치 제스처 인식 장치 및 방법
US20120007826A1 (en) Touch-controlled electric apparatus and control method thereof
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
US20160350136A1 (en) Assist layer with automated extraction
US20180018084A1 (en) Display device, display method and computer-readable recording medium
US10345932B2 (en) Disambiguation of indirect input
US8947378B2 (en) Portable electronic apparatus and touch sensing method
US10078443B2 (en) Control system for virtual mouse and control method thereof
CN102426483B (zh) 一种面向触控设备的多通道精确目标定位方法
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
US11755124B1 (en) System for improving user input recognition on touch surfaces

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200908