RU2288512C2 - Способ и устройство для просмотра информации на дисплее - Google Patents

Способ и устройство для просмотра информации на дисплее Download PDF

Info

Publication number
RU2288512C2
RU2288512C2 RU2003136273/09A RU2003136273A RU2288512C2 RU 2288512 C2 RU2288512 C2 RU 2288512C2 RU 2003136273/09 A RU2003136273/09 A RU 2003136273/09A RU 2003136273 A RU2003136273 A RU 2003136273A RU 2288512 C2 RU2288512 C2 RU 2288512C2
Authority
RU
Russia
Prior art keywords
display
hand
held device
page
point
Prior art date
Application number
RU2003136273/09A
Other languages
English (en)
Other versions
RU2003136273A (ru
Inventor
Йоханнес ВААНАНЕН (FI)
Йоханнес ВААНАНЕН
Манне ХАННУЛА (FI)
Манне ХАННУЛА
Original Assignee
Миориго С.а.р.л.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Миориго С.а.р.л. filed Critical Миориго С.а.р.л.
Publication of RU2003136273A publication Critical patent/RU2003136273A/ru
Application granted granted Critical
Publication of RU2288512C2 publication Critical patent/RU2288512C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Calculators And Similar Devices (AREA)

Abstract

Изобретение относится к ручным устройствам с дисплеем и предназначено для просмотра информации. Техническим результатом является улучшение регулировки изображения. Согласно заявленному способу в ответ на изменение угла наклона устройства изменяют часть страницы, содержащей информацию, причем упомянутая страница лежит на виртуальной поверхности в системе координат и каждая точка страницы имеет четкое положение в системе координат, при этом первоначально ориентируют поверхность дисплея по отношению к виртуальной поверхности таким образом, что опорная линия, перпендикулярная опорной точке на поверхности дисплея и проходящая из какой-нибудь опорной точки, касается страницы, содержащей информацию, в заданной точке, отображают на дисплее часть страницы, находящейся вокруг заданной точки, и в ответ на наклон ручного устройства создают зеркальную линию путем зеркального отражения опорной линии по отношению к линии, перпендикулярной поверхности дисплея и проходящей через опорную точку, определяют точку касания зеркальной линии виртуальной поверхности, отображают на дисплее часть страницы вокруг точки касания. Также заявлено ручное устройство для просмотра информации. 3 н. и 21 з.п. ф-лы, 10 ил.

Description

ОБЛАСТЬ ТЕХНИКИ
Настоящее изобретение относится к дисплеям, на которых можно просматривать информацию. В частности, настоящее изобретение относится к новому и улучшенному способу и системе просмотра информации на ручных устройствах с дисплеем.
УРОВЕНЬ ТЕХНИКИ
Различные электронные переносные устройства, такие как мобильные телефоны, переносные компьютеры, цифровые секретари, содержат дисплеи. Передача информации для просмотра на дисплее осуществляется, по меньшей мере частично, процессором. Устройство обычно также содержит клавиатуру, с помощью которой пользователь устройства вводит различные команды. Также существуют сенсорные дисплеи (сенсорные экраны). Управление таким устройством осуществляется путем касания экрана пальцем.
Дисплей мобильного устройства способен отображать лишь ограниченный объем информации в определенный момент времени. Из-за размера дисплея крупное изображение, например, можно просматривать только частями. Для того чтобы рассмотреть такое изображение, пользователь устройства работает с дисплеем путем, например, прокрутки дисплея с помощью мыши и т.д.
Устройства, оснащенные дисплеями, имеют различные типы пользовательских интерфейсов, посредством которых пользователи работают с устройством. Существуют графические пользовательские интерфейсы и речевые пользовательские интерфейсы. Графический пользовательский интерфейс управляется различными устройствами управления, включая, например, клавиатуру, сенсорную панель, различные способы управления курсором и т.д.
Существуют, однако, недостатки известных устройств, связанные с возможностью использования устройства, особенно при просмотре информации с помощью устройства. Когда информация, отображаемая на дисплее, должна просматриваться частями, трудно быстро просмотреть всю информацию часть за частью. Трудно, например, отобразить на дисплее панорамную картинку, в то же время быстро и легко просматривая ее.
Пользователю мобильного ручного устройства трудно воспринимать визуальные объекты в целом, которые не могут быть отображены на дисплее в определенный момент времени. Поэтому просмотр информации должен осуществляться максимально возможным естественным и логичным образом. Пользователь мобильного ручного устройства должен иметь возможность изучить и использовать устройство легко и эффективно.
Из уровня техники известно использование локационных детекторов для просмотра информации с помощью устройства. В опубликованной международной заявке WO 9918495 (Telefbnaktiebolaget LM Ericsson) описан способ, когда устройство отображения перемещается в сущности в плоскости устройства отображения, посредством чего различные части полноэкранного изображения отображаются на упомянутом дисплее. Если устройство отображения перемещается по существу в направлении, перпендикулярном плоскости устройства отображения, коэффициент увеличения изображения меняется. Перемещение в плоскости является отчасти проблематичным. При плоскостном перемещении необходимые движения могут быть весьма заметными/крупными, и может быть трудно поддерживать устройство с дисплеем в необходимом для чтения или просмотра положении.
Еще одно известное решение заключается в использовании детекторов наклона для перемещения или, более точно, прокрутки изображения на дисплее. Одно решение такого типа описано в опубликованной международной заявке WO 9814863 (Philips). Когда изображение на экране перемещается путем прокрутки (наклона устройства с дисплеем), результат лучше, чем при перемещении устройства с дисплеем в плоскости устройства с дисплеем, как сказано выше. Однако быстро перемещать изображение на экране и возвращаться из какой-либо точки в начальную точку просмотра трудно, поскольку управление прерывистым перемещением требует постоянного и точного управления устройством с дисплеем. Управление движением прокрутки можно сравнить с движением шарика по плоской поверхности в результате наклона плоскости. Для того чтобы остановить шарик, плоская поверхность должна снова стать перпендикулярной к силе притяжения Земли. Другими словами, управление движениями и возможность использования не находятся на приемлемом уровне, который обеспечивает естественное и логичное использование такого устройства.
Существуют также различные типы устройств отображения с управляемым перемещением и/или локацией, использующиеся, например, в шлемах виртуальной реальности. Там устройство отображения фокусируется наподобие виртуальной камеры. Устройство отображения воспроизводит объект, на который это устройство (камера) направлено в моделируемой виртуальной среде. Использовать модель виртуальной камеры в ручном устройстве не так просто, поскольку отображение периферийных участков полноэкранного изображения дает неудобный угол просмотра. Поэтому регулировка и увеличение/уменьшение изображения на дисплее должны осуществляться наиболее естественным и логичным путем. В известных решениях просмотр информации на устройстве отображения происходит медленно и с затруднениями, поскольку эти технические решения основаны на искусственной логике.
РЕШАЕМАЯ ИЗОБРЕТЕНИЕМ ЗАДАЧА И ТЕХНИЧЕСКИЙ РЕЗУЛЬТАТ
Цель настоящего изобретения заключается в регулировке изображения на устройстве отображения максимально естественным образом, чтобы пользователь ручного устройства мог концентрироваться на информации, отображаемой на устройстве отображения, а не на регулировке отображаемой информации.
КРАТКОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Настоящее изобретение описывает способ, ручное устройство и компьютерную программу для просмотра информации на дисплее ручного устройства. В настоящем изобретении дисплей связан с процессором, отображающим информационное содержание, преобразуемое процессором в виртуальный объект, подходящий для передачи информации пользователю ручного устройства. Дисплей отображает часть виртуального объекта в какой-то момент времени на дисплее. Виртуальный объект содержит, например, символы, картинки, линии, ссылки, видеоданные или пиксели, которые могут быть удобно отображены на дисплее в какой-то момент времени.
Идея настоящего изобретения заключается в просмотре информации на дисплее ручного устройства естественным и логичным путем. Изобретение отличается тем, что просмотр информации на дисплее осуществляется в сущности зеркальным путем. Другими словами, часть виртуального объекта, отображаемого на дисплее, перемещается в направлении наклона ручного устройства. Говоря по другому, перемещения части виртуального объекта, отображаемого на дисплее, зависит от ориентации ручного устройства. Важным отличительным признаком изобретения также является то, что определенная ориентация ручного устройства всегда отображает на дисплее одну и ту же часть виртуального объекта. Вышеописанный способ просмотра является исключительно логичным, а перемещения и реакции на перемещения являются естественными.
Основные функции просмотра можно объяснить на следующем примере. Информация просматривается на ручном устройстве в сущности таким же образом, как рассматриваемая в ручном зеркале. Ручное зеркало обычно держат в руке в непосредственной близости к пользователю. При наклоне ручного зеркала вид за пользователем перемещается в ответ на изменения в ориентации ручного зеркала.
При приближении к функциональным возможностям ручного зеркала просмотр информации на дисплее ручного устройства становится естественным и логичным.
Настоящее изобретение наиболее применимо в ручных устройствах с дисплеем при отображении на дисплее крупных объектов частями. При использовании настоящего изобретения крупный объект может быть просмотрен естественно и логично с точки зрения пользователя. Позиционная память мышц человеческого тела облегчает возврат к точкам, просмотренным раньше, и к исходной точке.
Настоящее изобретение также уменьшает необходимость использования внешних механических переключателей, клавиатуры или других известных механизмов управления для просмотра информации на дисплее. Поэтому использование ручного устройства становится более легким и простым. Основные функциональные возможности настоящего изобретения могут быть осуществлены с помощью узлов и деталей массового производства при умеренной мощности процессора. Таким образом, основные признаки настоящего изобретения могут быть приняты для использования в потребительских товарах без заметного увеличения их стоимости.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Прилагаемые чертежи, которые предназначены для облегчения понимания изобретения, являются частью настоящего описания изобретения, иллюстрируя варианты осуществления изобретения, и вместе с описанием помогают объяснить принципы изобретения.
Фиг.1 иллюстрирует как работает ручное устройство согласно настоящему изобретению;
Фиг.2а, 2b и 2с иллюстрируют более специфические примеры того, как обращаться с ручным устройством, показанным на Фиг.1;
на Фиг.3 показана типичная настройка просмотра согласно настоящему изобретению;
на Фиг.4 показан пример того, как может быть образовано и рассчитано изображение на дисплее согласно настройке просмотра по Фиг.3;
Фиг.5 является блок-схемой, иллюстрирующей один вариант осуществления ручного устройства в соответствии с настоящим изобретением;
Фиг.6 является блок-схемой, иллюстрирующей еще один вариант осуществления ручного устройства в соответствии с настоящим изобретением;
на Фиг.7а, 7b, 7 с и 7d показаны изменения изображения на дисплее ручного устройства как реакции на действия пользователя;
на Фиг.8а, 8b и 8с показаны различные способы присмотра информации;
Фиг.9 является схемой, иллюстрирующей работу предпочтительного варианта осуществления настоящего изобретения;
На Фиг.10а - d показан еще один пример формирования и вычисления изображения на дисплее в соответствии с настройкой просмотра согласно Фиг.4.
Перечень позиций на фиг.1-10: направления - 2, 3, 4 и 5, оси - 6 и 7, горизонтальная плоскость 8, дисплей 10, устройство 20 локации, графические изображения 21, 22 и 23, процессор 30, ручное устройство 40, средство 50 для измерения ускорения (датчик 50 или датчики 50), оперативная память 60, постоянная память 70, блокировка 80 просмотра, адаптер 90, виртуальная поверхность 200, ориентация области (формы) 201 дисплея, страница 202 дисплея, опорная линия 203, нормаль 204 дисплея, зеркальная линия 205.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
На Фиг.1 показано упрощенное переносное ручное устройство согласно настоящему изобретению. Данное ручное устройство может являться, например, мобильным телефоном или цифровым секретарем. На дисплее ручного устройства отображается информация, хранящаяся в памяти ручного устройства. Более подробно ручное устройство объяснено в последующих примерах. На Фиг.1 представлены базовые функции просмотра. Информация просматривается на дисплее путем наклона (поворота) ручного устройства 40 в направлениях 2, 3, 4 и 5 по осям 6 и 7. В памяти ручного устройства 40 содержится виртуальный объект, состоящий из символов, картинок, линий, ссылок, видеоданных или пикселей, которые могут быть удовлетворительно отображены на дисплее в какой-то момент времени. Часть виртуального объекта, отображаемого на дисплее, перемещается в том же направлении, в котором наклоняется ручное устройство. Более того, при определенной ориентации ручного устройства 40 на дисплее всегда отображается одна и та же часть виртуального объекта.
На Фиг.2а, 2b и 2с представлен более конкретный пример наклона ручного устройства 40. Можно сказать, что в типичном исходном положении ручное устройство 40 находится под углом 20-30° к горизонтальной плоскости 8. Эта плоскость в одном варианте осуществления установлена как стандартная плоскость "х-у", от которой измеряются углы поворота ручного устройства 40. Также можно сказать, что эта исходная точка является наиболее подходящей для просмотра информации на дисплее. Поэтому когда пользователь наклоняет ручное устройство 40, угол просмотра изменяется. Изображение на дисплее изменяется в реальном времени для того, чтобы соответствовать новому углу просмотра. Одним весьма важным отличительным признаком настоящего изобретения является то, что изображение на дисплее зависит от угла просмотра, и один и тот же угол просмотра всегда дает одно и то же изображение на дисплее. Этот отличительный признак является весьма естественным и логичным.
На Фиг.2а угол α соответствует вышеуказанным 20-30°. Фиг.2а считается исходным положением при начале просмотра. На Фиг.2b ручное устройство 40 было наклонено до угла β1, который меньше угла α. Изображение на дисплее меняется в зависимости от движений наклона в сущности в реальном времени, и перемещение информации на дисплее происходит в том же направлении, в котором наклоняется ручное устройство 40. На Фиг.2с ручное устройство 40 наклонено до угла β2, который больше угла α.
В одном варианте осуществления угол α является заданным и определяется изготовителем ручного устройства 40. В процессе определения устанавливается, что плоскость просмотра дисплея основывается на осях x_VD и y_VD, которые перпендикулярны друг другу (где VD - виртуальный дисплей). Затем ручное устройство устанавливается в определенное положение (α), и это положение задается как стандартная плоскость "х-у". На Фиг.2а, 2b и 2с стандартная плоскость определена на основании угла α. В еще одном варианте осуществления стандартная плоскость может быть свободно определена на основании любой оси х, оси у и/или оси z.
Начиная с этого момента, ручное устройство 40 наклоняется по отношению к этой плоскости. Когда стандартная плоскость "х-у" зафиксирована, пользователь ручного устройства всегда может вернуться к определенному изображению, наклоняя устройство в первоначальную ориентацию, в которой датчики, измеряющие ориентацию ручного устройства, не вносят никаких ограничений в измеряемое положение. В еще одном варианте осуществления угол α можно корректировать до требуемого значения.
На Фиг.3 и 4 представлен типичный вариант настройки "зеркальной системы". Она содержит точку просмотра VP, виртуальный экран VS и виртуальный дисплей VD. Точка просмотра VP представляет местоположение для пользователя ручного устройства. VD представляет дисплей ручного устройства. Виртуальный экран VS представляет реальную информацию, просматриваемую на дисплее.
Точка просмотра VP определяется для простоты в последующем описании как точка [0 0 0]. Кроме того, средняя точка виртуального дисплея VD определяется как точка P_xyz, где P_xyz=[P_xyz1 P_xyz2 P_xyz3]T, и виртуальный экран VS лежит в плоскости x=kuva_shift.
Ориентация виртуального дисплея VD определяется углами наклона αх αу αz, указывающими угол поворота по каждой оси координат. На Фиг.4 виртуальный дисплей VD является плоскостью и имеет некоторый размер. Каждая координата в этой плоскости VD определяется с использованием нотации Р=[P_xyz2+peili_y P_xyz3+peili_Z], когда ориентация VD определена как параллельная плоскости х.
Необходимо отметить, что Фиг.3 и Фиг.4 представляют только один вариант возможных положений VS, VP и VD и использованных осей.
Для того чтобы определить ориентацию VD, два ортогональных вектора (в плоскости х) определяются следующим образом:
L=[0,1,-1]T
M=[0,1,1]T
Эти векторы представляют векторы ортогонального направления VD. Далее, ориентация виртуального дисплея VD определяется с использованием углов поворота:
Figure 00000002
Figure 00000003
Figure 00000004
После этого вычисляется единичный вектор нормали VD:
РТ1=RxRyRzL
РТ1=RxRyRzM
PNT=PT1 × PT2 (векторное произведение)
Figure 00000005
где PN является единичным вектором нормали плоскости VD. PN определяет применимую ориентацию VD, которая будет использоваться в вычислении проекции.
После этого вычисляется "изображение" на виртуальном дисплее VD. Предположим, что существует вектор, начинающийся от VP и отражающийся через VD. Точка, в которой отражаемый вектор сталкивается с плоскостью VS, определяет проекцию точки на VS на точке на плоскости VD. Отсюда, если все точки на VD обрабатываются, как сказано выше, можно определить изображение на VD.
Идея вычисления представлена с использованием векторов, показанных на Фиг.4. При использовании этих векторов алгоритм работает следующим образом.
1. Точки Р и VP определяют вектор А.
2. Вычисляется проекция proj вектора А на вектор нормали PN.
3. Сумма вектора А и proj*PN определяет точку Q.
4. Точки Q и VP определяют вектор В.
5. Точка, определенная как сумма VP и 2*В, определяет точку R.
6. Вектор направления, который проходит через Р и R, определяет вектор направления, который сталкивается с плоскостью VS в точке S.
7. Результат этого процесса заключается в том, что изображение точки Р на VD является изображением точки S на VS.
Путем повторения операций 1-7 для всех точек на плоскости VD определяется полное изображение на виртуальном дисплее VD. Используя векторное вычисление, то же самое можно представить следующим образом.
Сначала определяется точка Р:
Р=P_xyz+RхRyRz[0 peili_y peili_z]T,
где P_xyz является координатой средней точки VD, peili_y является y-координатой в системе координат плоскости VD и peili_z является z-координатой в системе координат плоскости VD.
После этого определяется проекция на вектор нормали:
А=Р-VP
Figure 00000006
Исходя из этого, можно определить точку Q:
Q=P-proj*PN.
Далее можно определить точку R (причина использования коэффициента 2 заключается в том, что в зеркале приходящий и уходящий лучи света имеют равные углы по сравнению с вектором нормали поверхности).
B=Q-VP
R=VP+2*В
И в заключение вектор направления С определяется следующим образом:
С=R-P.
Так как VS расположен на плоскости х=kuva_shift, вектор С сталкивается с этой плоскостью в точке
S=k*C+Р
где:
Figure 00000007
где Pi является х-компонентом точки Р, и С1 является х-компонентом вектора С. Можно заметить, что в данном вычислении VP была определена как исходная точка для упрощения представления алгоритма. Однако на практике точка VP может быть расположена в любом месте координатной плоскости. Необходимо отметить, что изображение на виртуальном экране VS является горизонтально обратным при рассмотрении виртуального экрана VS с направления точки просмотра VP.
Система, показанная на Фиг.4, имеет несколько характеристик:
1. Изображение на дисплее перемещается в направлении его наклона. В одном варианте осуществления перемещение части виртуального объекта, отображаемого на дисплее, пропорционально величине изменения и/или скорости вращательного движения.
2. При увеличении расстояния между VP и VD один и тот же угол наклона приводит к большему перемещению на виртуальном экране VS. Другими словами, скорость просмотра информации на дисплее увеличивается с увеличением расстояния между VP и VD. В одном варианте осуществления этот фактор перемещения может корректироваться пользователем ручного устройства.
3. При вращении дисплея изображение на дисплее останется неизменным для пользователя.
4. Изображение на дисплее зависит от положения и ориентации VS, VP и VD.
5. Определенное сочетание положения/ориентации VS-VP-VD всегда составляет одно и то же изображение на дисплее.
6. При изменении положения VD угол обзора между VP и VD изменяется.
7. Путем изменения положения VS, VP и VD можно осуществлять изменения масштаба изображения.
8. Изменение масштаба изображения можно осуществлять путем увеличения объекта на VS или путем изменения радиуса кривизны зеркала (VD).
9. Если фигура на VS находится справа, если смотреть с VP, изображение на VD будет зеркальным (горизонтально инвертированным).
Настоящее изобретение не должно включать в себя все вышеизложенные отличительные признаки, но для него могут быть выбраны наиболее подходящие из них. Идеальная зеркальная функциональная способность означает, что информации на дисплее изменяется когда:
a) местоположение или ориентация ручного устройства, пропорциональные координатам, связаны с изменениями в физическом окружении;
b) местоположение пользователя (VP) пропорционально координатам, связанным с изменениями в положении ручного устройства;
c) виртуальное местоположение данных (виртуальный экран), отображаемых на дисплее, пропорционально координатам, связанным с изменениями в физическом окружении.
Для того чтобы моделировать функцию зеркала для пользователя, информация на дисплее изменяется по меньшей мере в соответствии с условием а) или b). Если во внимание принимается только условие а) или условие b), действие дисплея не такое зеркальное, как при выполнении совместно условий а) и b). В одном варианте осуществления дисплей работает в соответствии со всеми условиями а), b) и с).
На Фиг.10а-d показан еще один пример вычислений, который объяснен со ссылкой на Фиг.4. Фиг.10 является боковой проекцией Фиг.10а, и Фиг.10d является боковой проекцией Фиг.10b. В данном примере виртуальный экран назван виртуальной поверхностью.
На Фиг.10а и Фиг.10с стандартная ориентация дисплея 201 определена как параллельная плоскости "y-z". Виртуальная поверхность VS находится выше плоскости дисплея и также параллельна плоскости "y-z". Страница с информацией для просмотра лежит на виртуальной поверхности, и ее размер больше размера дисплея. Опорная точка VP находится на виртуальной поверхности. Ось х (не показана) проходит через опорную точку VP и среднюю точку Р дисплея. После вычисления точки S способом, представленным со ссылкой на Фиг.4, результатом является то, что точка S будет равна точке VP. Конечно, соотношение между каждой отдельно взятой точкой в области дисплея (2а*2b) и соответствующей областью (2а*2b) на виртуальной поверхности может быть вычислено аналогичным способом. Часть страницы (2а*2b), которая должна быть отображена, имеет форму, сходную с формой дисплея (2а*2b). Другими словами, на виртуальной поверхности точка S является средней точкой определенного прямоугольника (2а*2b), и все другие точки, находящиеся вокруг точки S в пределах этого прямоугольника, соотносятся с соответствующими точками, находящимися вокруг точки Р на дисплее. На виртуальной поверхности отображается та часть страницы.
На Фиг.10b и Фиг.10d дисплей наклонен вокруг оси у, причем часть страницы, показанной на дисплее, изменилась следующим образом.
Первоначально (т.е. когда виртуальная поверхность и поверхность дисплея параллельны друг другу) опорная линия 203, проведенная в точке Р, соответствует оси х, т.е. параллельна оси х. Также, нормаль дисплея, проходящая из точки Р, параллельна оси х и опорной линии. Если дисплей наклонить под углом α к виртуальной поверхности, нормаль дисплея также должна быть наклонена под углом α к оси х или опорной линии. В ответ на наклон устройства опорная линия 203 зеркальна по отношению к нормали 204 дисплея, посредством чего создается зеркальная линия 205. Точка касания S' является точкой, в которой зеркальная линия 205 касается виртуальной поверхности 200. Таким же образом, как сказано выше, определяется область (форма) 201, соответствующая области (форме) 202 дисплея. Затем на дисплее отображается часть страницы 202 вокруг точки касания S', которая имеет форму, сходную с формой дисплея.
На Фиг.5 представлен один пример предпочтительного ручного устройства 40. Ручное устройство 40 является, например, мобильным телефоном. Ручное устройство содержит процессор 30 и дисплей 10, соединенный с процессором 30. Оперативная память 60 и постоянная память 70 также соединены с процессором 30. Постоянная память 70 содержит, например, операционную систему. Объемы памяти и мощность процессора 30 зависят от конкретного устройства и выполняемых операций.
Постоянная память 70 может также содержать различные виды прикладных программ для выполнения различных заданий. Прикладные программы включают, например, программное обеспечение для работы с текстом, графикой и таблицами. Прикладные программы и используемые ими данные загружаются в оперативную память 60 для работы программного обеспечения.
Адаптер 90 дисплея используется вместе с процессором 30 для управления дисплеем 10. Для того чтобы не использовать оперативную память 60 для хранения информации о дисплее, адаптер 90 дисплея содержит буфер обмена данными, в котором хранится информация для отображения на дисплее 10.
Ручное устройство 40 содержит средство измерения, которым в предпочтительном варианте осуществления настоящего изобретения является датчик (или датчики) 50 ускорения. С помощью датчика (или датчиков) 50 можно измерять движения наклона ручного устройства 40. Процессор 30 получает результаты измерений и интерпретирует их. Датчик (или датчики) 50 ускорения может быть, например, пьезоэлектрическим или емкостным, выдающим аналоговый сигнал напряжения, который пропорционален коэффициенту ускорения.
С помощью датчика (или датчиков) 50 можно измерять одно-, двух- или трехмерное ускорение. Измерение движений наклона основано на том, что самое большое ускорение параллельно силе тяжести Земли. Поэтому ориентация ручного устройства 40 может быть определена по отношению к Земле. Также можно использовать гироскопы в различных формах для измерения ориентации ручного устройства 40. Измеряемыми величинами являются, например, угол наклона и ускорение.
Информация об отношении между углом вращения ручного устройства и адресом памяти, соответствующим отображаемому изображению, хранится, например, в оперативной памяти 60. Процессор 30 определяет ориентацию ручного устройства 40 по отношению к пользователю или эталонному положению. Процессор 30 может также определять расстояние между пользователем и ручным устройством 40 или ориентацию пользователя по отношению к ручному устройству 40.
Наиболее важным является не способ выполнения вышеуказанных определений, а то, что ориентация ручного устройства 40 влияет на информацию, отображаемую на дисплее 10. Область памяти может быть определена логически, например, как двухмерная область памяти. В начале просмотра процессор 30 начинает процесс определения нового адреса памяти из текущего адреса памяти, так что смещение в области памяти соответствует направлению и величине изменения в ориентации согласно информации об отношении.
Ручное устройство 40 также содержит блокировку 80 просмотра, с помощью которой ему подается сигнал о том, что просмотр завершен. Ориентация ручного устройства 40 должна оставаться такой же для того, чтобы сохранять изображение на дисплее неизменным. В предпочтительном варианте осуществления ручное устройство 40 содержит средство блокировки, например кнопку, с помощью которой можно блокировать просмотр. Пользователь может наклонить ручное устройство обратно до соответствующей ориентации изображения для того, чтобы хорошо видеть информацию на дисплее 10. После отпускания кнопки просмотр может продолжиться.
Ручное устройство 40 на Фиг.6 является почти таким же, как ручное устройство 40 на Фиг.5. Ручное устройство на Фиг.5 также содержит устройство 20 локации. Можно управлять изображением на дисплее 10 также с помощью других, чем датчик (или датчики) ускорения, средств. Ручное устройство 40 может содержать, например, видеокамеру, измеряющую ориентацию и местоположение ручного устройства 40 до его пользователя или до другой опорной точки вокруг пользователя. Устройство 20 локации 20 (камера) может быть настроено на распознавание и измерение расстояния до определенной опорной точки, например до глаз пользователя. Поэтому, когда ориентация и/или положение ручного устройства 40 изменится, угол просмотра, измеряемый камерой, также изменится. Таким образом, можно сделать вывод о том, что ручное устройство 40 было наклонено и/или перемещено в некотором направлении.
Путем анализа видеоизображения можно определять ориентацию ручного устройства 40 относительно опорной точки и расстояние ручного устройства 40 до эталонной точки десятки раз в секунду. Функциональные возможности просмотра могут быть осуществлены с использованием только видеокамеры, поэтому дополнительный датчик (или датчики) ускорения не потребуется. Измерение расстояния также может осуществляться с помощью ультразвукового радиолокатора, подсоединенного через аналого-цифровой преобразователь к процессору 30 ручного устройства 40. В одном варианте осуществления, с точки зрения пользователя, информация на дисплее 10 просматривается таким же образом, как при взгляде в зеркало. Другими словами, изображение на дисплее 10 также зависит от угла просмотра в отношении к плоскости дисплея, как изображение в зеркале зависит от угла взгляда в зеркало.
В варианте осуществления, показанном на Фиг.5, устройство 20 локации содержит видеокамеру, определяющую местоположение головы и глаз пользователя. Для определения местоположения головы и глаз могут использоваться эвристические алгоритмы и нейтральная сеть. Датчики ускорения больше подходят для использования в ручных устройствах, чем видеокамера, поскольку они дешевле. Датчики ускорения также могут представлять более приемлемое решение для устройств, которые не имеют встроенной видеокамеры в стандартной комплектации, как, например, мобильные телефоны третьего поколения. Преимущество использования видеокамеры заключается в том, что использование ручного устройства не будет ограничено определенным положением ручного устройства, например, ручное устройство может без проблем использоваться, когда пользователь лежит на спине. Кроме того, выбор исходной точки для просмотра осуществляется более свободно, и выбранная исходная точка может быть сообщена пользователю данного ручного устройства. В варианте осуществления, показанном на Фиг.5, уровень поверхности дисплея установлен как плоскость "х-у". Было установлено определенное отношение между перемещением ручного устройства по оси х и/или оси у и величина смещения части виртуального объекта, отображаемого на дисплее в какой-то момент времени. Поэтому, когда ручное устройство 40 перемещается по оси х и/или оси у, часть виртуального объекта, отображаемого на дисплее, перемещается в том же направлении, в котором ручное устройство перемещается в плоскости "х-у", в соответствии с информацией об отношении.
В предпочтительном варианте осуществления, показанном на Фиг.5 и Фиг.6, процессор 30 также содержит средство для фильтрации перемещений по оси х, оси у и наклона перед отображением перемещений на дисплее. Поэтому небольшие непреднамеренные перемещения могут быть отфильтрованы.
В варианте осуществления, показанном на Фиг.5 и Фиг.6, отношение между перемещениями наклона и величиной смещения части виртуального объекта, отображаемого на дисплее в какой-то момент времени, может быть изменено. Поэтому пользователь может определить, например, чтобы с определенного момента наклон на 10° приводил к такому же действию на дисплей, как и наклон на 15° до этого момента. В одном варианте осуществления это отношение линейное. Другими словами, отношение между перемещениями наклона и величиной смещения части виртуального объекта, отображаемого на дисплее в какой-то момент времени, не зависит от величины наклона. В другом варианте осуществления это отношение линейное, но, например, экспоненциальное. Другими словами, величина смещения части виртуального объекта, отображаемого на дисплее в какой-то момент времени, зависит от величины наклона. Например, значение коэффициента отношения изменяется (например, экспоненциально) с увеличением величины наклона.
На Фиг.7а-7d показана ситуация, когда объем информации на дисплее зависит от коэффициента изменения масштаба изображения в дополнение к ориентации ручного устройства. Коэффициентом изменения масштаба можно управлять различными способами. В одном варианте осуществления коэффициент изменения масштаба зависит от расстояния между пользователем и ручным устройством. На Фиг.7а показано ручное устройство 40, на котором видны графические изображения 21, 22 и 23. Изображение на дисплее 10 зависит от ориентации ручного устройства или от угла просмотра, под которым пользователь ручного устройства смотрит на дисплей. Если пользователь ручного устройства установит фигуру 21 в середину дисплея и увеличит коэффициент изменения масштаба, размер фигуры 21 увеличится, как показано на Фиг.7b и Фиг.7с. На Фиг.7d коэффициент изменения масштаба был уменьшен, и угол просмотра между пользователем и ручным устройством был изменен.
Коэффициент изменения масштаба может быть изменен несколькими способами. В одном варианте осуществления коэффициент изменения масштаба изображения зависит от расстояния между опорной точкой (например, глазами пользователя) и ручным устройством. При уменьшении расстояния фигура 21 увеличивается и наоборот. Дисплей 10 придется установить в режим изменения масштаба изображения перед изменением коэффициента изменения масштаба. Если бы коэффициент изменения масштаба постоянно зависел от расстояния между опорной точкой и ручным устройством, операция просмотра необязательно была бы осуществимой на практике, так как изображение на дисплее 10 изменялось бы при любом изменении вышеуказанного расстояния.
В еще одном варианте осуществления коэффициент изменения масштаба изображения изменяется при повороте ручного устройства вокруг оси, в сущности перпендикулярной к заданной плоскости "х-у". Плоскостью "х-у" может являться текущая плоскость дисплея 10 или какая-то другая заданная плоскость. Еще в одном варианте осуществления коэффициент изменения масштаба изображения изменяется путем наклона ручного устройства. Перед этим необходимо установить ручное устройство в режим изменения масштаба изображения. При наклоне ручного устройства, например, вправо коэффициент изменения масштаба увеличивается, а при наклоне влево уменьшается. Не важно, какие заданные направления наклона используются, главное, чтобы эти два направления могли быть достаточно отделены друг от друга. Вышеупомянутый режим изменения масштаба изображения включается и выключается, например, определенной кнопкой на ручном устройстве.
На Фиг.8а-8с представлены различные способы осуществления пользовательского интерфейса. На Фиг.8а дисплей 10 ручного устройства 40 содержит информацию для просмотра пользователем. На Фиг.8а на дисплее 10 показана буква "А". В одном варианте осуществления информация на дисплее 10 остается в одном и том же положении в отношении пользователя, когда ручное устройство 40 поворачивается вокруг оси, перпендикулярной к плоскости поверхности дисплея, как показано на Фиг.8b. Другими словами, информация на дисплее 10 остается в одном и том же положении, так как эта информация привязана к реальным физическим координатам.
В другом варианте осуществления информация на дисплее 10 остается в одном и том же положении по отношению к ручному устройству 40, когда ручное устройство 40 поворачивается вокруг оси, перпендикулярной к плоскости поверхности дисплея, как показано на Фиг.8с. Другими словами, ориентация информации на дисплее 10 изменяется по отношению к пользователю ручного устройства 40, так как информация привязана не к реальным физическим координатам, а к дисплею.
На Фиг.9 представлена схема, иллюстрирующая функциональные возможности способа по настоящему изобретению. На Фиг.9 показано ручное устройство 40, содержащее средство 50 для измерения ускорения и процессор 30. Средством 50 для измерения ускорения может являться, например, многокоординатный датчик ускорения, подходящий для измерения изменений в ориентации ручного устройства 40.
После включения ручного устройство оно готово к просмотру информации на дисплее, как показано на этапе 100. Когда ручное устройство работает, датчик 50 ускорения постоянно измеряет величину ускорения. Процессор 30 принимает данные по ускорению и определяет ориентацию ручного устройства, а также изменение в ориентации по сравнению с предыдущим результатом измерения, как показано на этапах 101 и 102. На этапе 103 проверяется, включен просмотр или выключен. Если просмотр выключен, процессор 30 проверяет, выполнено ли заданное условие начала просмотра (этап 104). Если оно не выполнено, процесс возвращается обратно к этапу 101. Это означает, что ориентация ручного устройства не изменилась в достаточной мере, что показало бы, что пользователь хочет просматривать информацию на дисплее ручного устройства.
В том случае, если заданное условие начала просмотра выполнено, процессор 30 устанавливает просмотр как начавшийся (этап 106) и определяет скорость просмотра на основании текущего значения ускорения (этап 108). Процессор 30 также изменяет информацию, представленную на дисплее в соответствии с отношением между углом вращения и величиной смещения части виртуального объекта, хранящегося в оперативной памяти 60, а также установленную скорость просмотра (этап 108). Определенная ориентация ручного устройства всегда дает одно и то же изображение (одну и ту же часть виртуального объекта, хранящегося в памяти) на дисплее. Если на этапе 103 определено, что просмотр уже включен, и условие остановки просмотра выполнено (этап 105), процессор 30 останавливает просмотр и устанавливает просмотр как остановленный (этапы 107 и 109). Если определено, что условие остановки просмотра не выполнено (этап 105), процессор 30 возвращается на этап 101.
Специалисту в данной области техники понятно, что с совершенствованием технологии основная идея настоящего изобретения может быть реализована различными способами. Настоящее изобретение и варианты его осуществления таким образом не ограничиваются вышеприведенными примерами и могут изменяться в рамках объема формулы изобретения.
Наиболее успешно заявленные способ и устройство просмотра информации на дисплее промышленно применимы в ручных устройствах с дисплеем, например таких, как мобильные телефоны, переносные компьютеры, цифровые секретари.

Claims (24)

1. Способ просмотра информации на ручном устройстве, имеющем дисплей и средство детектирования текущего угла наклона упомянутого ручного устройства, согласно которому в ответ на изменение в угле наклона часть страницы, содержащей информацию, отображаемую на дисплее, изменяется, причем упомянутая страница лежит на виртуальной поверхности в системе координат, и согласно которому каждая точка страницы имеет четкое положение в упомянутой системе координат, отличающийся этапами заблаговременной установки ориентации поверхности дисплея по отношению к виртуальной поверхности, причем упомянутая ориентация находится в пространственном начальном состоянии, так что опорная линия, перпендикулярная опорной точке на поверхности дисплея и проходящая из какой-то опорной точки, касается страницы, содержащей информацию, в заданной точке, отображения на дисплее части страницы, находящейся вокруг заданной точки и имеющей форму, сходную с формой дисплея, и в ответ на наклон ручного устройства по отношению к пространственному начальному состоянию создания зеркальной линии путем зеркального отражения опорной линии по отношению к линии, которая перпендикулярна поверхности дисплея и проходит через упомянутую опорную точку, определения точки касания (xn, yn), в которой зеркальная линия касается виртуальной поверхности и страницы, содержащей упомянутую информацию, и отображения на дисплее части страницы вокруг точки касания, причем упомянутая часть страницы имеет форму, сходную с формой дисплея, и положение точки касания на странице соответствует положению опорной точки на дисплее.
2. Способ по п.1, отличающийся тем, что начальное состояние устанавливается под определенным заданным углом к поверхности земли.
3. Способ по п.2, отличающийся тем, что заданный угол равен 20-30°.
4. Способ по п.1, отличающийся тем, что скорость просмотра отображаемой информации зависит от местоположения и ориентации поверхности дисплея по отношению к виртуальной поверхности.
5. Способ по п.1, отличающийся тем, что в способе используется этап поддержания ориентации отображаемой информации в неизменном состоянии при повороте ручного устройства вокруг оси, причем упомянутая ось в сущности перпендикулярна поверхности дисплея.
6. Способ по п.1, отличающийся тем, что в определенной ориентации ручного устройства всегда отображается одна и та же часть текущей страницы.
7. Способ по п.1, отличающийся тем, что отображаемая часть страницы блокируется/разблокируется в ответ на нажатие/отпускание кнопки.
8. Способ по п.1, отличающийся тем, что в способе используются этапы установки ручного устройства в режим изменения масштаба изображения и увеличения или уменьшения масштаба отображаемой информации при повороте ручного устройства вокруг оси, причем упомянутая ось в сущности перпендикулярна поверхности дисплея.
9. Способ по п.1, отличающийся тем, что в способе используются этапы установки ручного устройства в режим изменения масштаба изображения и увеличения или уменьшения отображаемой информации в зависимости от угла наклона ручного устройства.
10. Способ по п.1, отличающийся тем, что в способе используются этапы определения с помощью камеры расстояния между поверхностью дисплея и глазами пользователя, увеличения или уменьшения отображаемой информации в зависимости от упомянутого расстояния.
11. Способ по п.1, отличающийся тем, что в способе используются этапы измерения с помощью видеокамеры ориентации и местоположения ручного устройства по отношению к пользователю упомянутого ручного устройства, поиск определенной точки на видеоизображении, которая будет задана в качестве опорной точки, и изменение масштаба информации в зависимости от перемещений опорной точки по отношению к ручному устройству.
12. Ручное устройство для просмотра информации, которое содержит дисплей и средство для детектирования текущего угла наклона ручного устройства, которое в ответ на изменение угла наклона изменяет часть страницы, содержащую информацию, отображенную на дисплее, причем упомянутая страница лежит на виртуальной поверхности в системе координат, на которой каждая точка страницы имеет четкое положение в упомянутой системе координат, отличающееся тем, что ручное устройство адаптировано для предварительной установки ориентации поверхности дисплея по отношению к виртуальной поверхности, причем упомянутая ориентация находится в пространственном начальном состоянии, так что опорная линия, перпендикулярная опорной точке на поверхности дисплея и проходящая из такой опорной точки, касается страницы, содержащей информации, в заданной точке, отображения на дисплее части страницы, находящейся вокруг заданной точки и имеющей форму, сходную с формой дисплея, и в ответ на наклон ручного устройство по отношению к пространственному начальному состоянию создания зеркальной линии путем зеркального отражения опорной линии по отношению к линии, которая перпендикулярна поверхности дисплея и проходит через опорную точку, определения точки касания (xn, yn) в месте соприкосновения зеркальной линии с виртуальной поверхностью и страницей, содержащей информацию, и отображения на дисплее части страницы вокруг точки касания, причем упомянутая часть имеет форму, сходную с формой дисплея, а положение точки касания на странице соответствует положению опорной точки на дисплее.
13. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для установки начального состояния под определенным заданным углом к поверхности земли.
14. Ручное устройство по п.13, отличающееся тем, что заданный угол равен 20-30°.
15. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для просмотра информации на дисплее со скоростью, которая зависит от местоположения и ориентации поверхности дисплея по отношению к виртуальной поверхности.
16. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для поддержания ориентации отображаемой информации в неизменном состоянии при повороте ручного устройства вокруг оси, причем упомянутая ось, в сущности, перпендикулярна поверхности дисплея.
17. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для отображения одной и той же части текущей страницы всегда в определенной ориентации ручного устройства.
18. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для блокировки/разблокировки отображаемой части страницы в ответ на нажатие кнопки.
19. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для установки ручного устройства в режим изменения масштаба изображения и увеличения или уменьшения масштаба отображаемой информации при повороте ручного устройства вокруг оси, причем упомянутая ось, в сущности, перпендикулярна поверхности дисплея.
20. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для определения с помощью камеры расстояния между поверхностью дисплея и глазами пользователя и увеличения или уменьшения масштаба отображаемой информации на основании такого расстояния.
21. Ручное устройство по п.12, отличающееся тем, что ручное устройство, кроме того, адаптировано для измерения ориентации и местоположения ручного устройства по отношению к пользователю ручного устройства с помощью видеокамеры, поиска определенной точки на видеоизображении для задания ее в качестве опорной точки и изменения объема информации в соответствии с перемещениями опорной точки по отношению к ручному устройству.
22. Способ просмотра информации на ручном устройстве, в котором использована компьютерная программа, реализованная в машиночитаемой среде, в которой упомянутая компьютерная программа выполняет программные операции, записанные в машиночитаемой среде, для осуществления способа просмотра информации на дисплее ручного устройства, имеющего дисплей и средство для детектирования текущего угла наклона ручного устройства, в котором в ответ на изменение в угле наклона часть страницы, содержащей информацию, отображаемую на дисплее, изменяется, причем упомянутая страница лежит на виртуальной поверхности в какой-то системе координат, и в котором каждая точка страницы имеет четкое положение в упомянутой системе координат, отличающийся тем, что упомянутая компьютерная программа выполняет операции заблаговременной установки ориентации поверхности дисплея по отношению к виртуальной поверхности, причем упомянутая ориентация находится в пространственном начальном состоянии, так что опорная линия, перпендикулярная опорной точке на поверхности дисплея и проходящая из какой-то опорной точки, касается страницы, содержащей информацию, в заданной точке, отображения на дисплее части страницы, находящейся вокруг заданной точки и имеющей форму, сходную с формой дисплея, и в ответ на наклон ручного устройства по отношению к пространственному начальному состоянию создания зеркальной линии путем зеркального отражения опорной линии по отношению к линии, которая перпендикулярна поверхности дисплея и проходит через упомянутую опорную точку, определения точки касания (xn, yn), в которой зеркальная линия касается виртуальной поверхности и страницы, содержащей упомянутую информацию, и отображения на дисплее части страницы вокруг точки касания, причем упомянутая часть страницы имеет форму, сходную с формой дисплея, и положение точки касания на странице соответствует положению опорной точки на дисплее.
23. Способ просмотра информации на ручном устройстве по п.22, отличающийся тем, что упомянутая компьютерная программа выполняет операцию установки начального состояния под определенным заданным углом к поверхности земли.
24. Способ просмотра информации на ручном устройстве по п.22, отличающийся тем, что в определенной ориентации ручного устройства всегда отображается одна и та же часть текущей страницы.
RU2003136273/09A 2001-05-16 2002-02-08 Способ и устройство для просмотра информации на дисплее RU2288512C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI20011039 2001-05-16
FI20011039A FI117488B (fi) 2001-05-16 2001-05-16 Informaation selaus näytöllä

Publications (2)

Publication Number Publication Date
RU2003136273A RU2003136273A (ru) 2005-05-27
RU2288512C2 true RU2288512C2 (ru) 2006-11-27

Family

ID=8561217

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2003136273/09A RU2288512C2 (ru) 2001-05-16 2002-02-08 Способ и устройство для просмотра информации на дисплее

Country Status (10)

Country Link
US (6) US20020175896A1 (ru)
EP (1) EP1410142B1 (ru)
JP (1) JP4175897B2 (ru)
KR (1) KR100671585B1 (ru)
CN (1) CN1714326B (ru)
AT (1) ATE317138T1 (ru)
DE (1) DE60208995D1 (ru)
FI (1) FI117488B (ru)
RU (1) RU2288512C2 (ru)
WO (1) WO2002093331A1 (ru)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2447481C2 (ru) * 2007-10-04 2012-04-10 Валерий Константинович Любезнов Способ определения местоположения касания экрана сенсорной системы (варианты) и оптоэлектронная сенсорная система для его реализации
RU2480938C2 (ru) * 2008-02-14 2013-04-27 Нокиа Корпорейшн Представление информации на основе ориентации экрана дисплея
RU2497178C2 (ru) * 2010-12-06 2013-10-27 Кэнон Кабусики Кайся Устройство управления отображением, способ управления отображением и носитель для хранения данных
RU2502117C2 (ru) * 2009-02-12 2013-12-20 Кэнон Кабусики Кайся Устройство для захвата изображения и способ управления им
RU2504821C2 (ru) * 2008-03-26 2014-01-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Терминал и способ управления им
RU2519351C2 (ru) * 2009-08-21 2014-06-10 Моторола Мобилити, Инк. Тактильный пользовательский интерфейс для электронного устройства
RU2520400C2 (ru) * 2008-09-12 2014-06-27 Конинклейке Филипс Электроникс Н.В. Навигация в графическом пользовательском интерфейсе на карманных устройствах
RU2523169C2 (ru) * 2008-05-23 2014-07-20 Майкрософт Корпорейшн Панорамирование контента с использованием операции перетаскивания
RU2524836C2 (ru) * 2009-07-21 2014-08-10 Сони Корпорейшн Информационный процессор, способ обработки и программа
RU2536363C2 (ru) * 2009-04-23 2014-12-20 Сони Корпорейшн Устройство обработки информации, способ обработки информации и программа
RU2544751C2 (ru) * 2009-09-23 2015-03-20 Майкрософт Корпорейшн Компьютерная система с визуальным буфером обмена
RU2559720C2 (ru) * 2010-11-09 2015-08-10 Нокиа Корпорейшн Устройство и способ пользовательского ввода для управления отображаемой информацией
RU2571606C2 (ru) * 2010-08-31 2015-12-20 Моторола Солюшнз, Инк. Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой
RU2603533C2 (ru) * 2010-06-30 2016-11-27 Конинклейке Филипс Электроникс Н.В. Масштабирование отображаемого изображения
RU2623725C2 (ru) * 2014-08-27 2017-06-28 Сяоми Инк. Способ и устройство для отображения изображения
US9772738B2 (en) 2012-02-24 2017-09-26 Samsung Electronics Co., Ltd. Mobile terminal having a screen operation and operation method thereof
RU2632215C2 (ru) * 2013-03-08 2017-10-03 Томсон Лайсенсинг Способ и система для стабилизации и центрирования изображения
RU2664770C1 (ru) * 2014-10-10 2018-08-23 Кэнон Кабусики Кайся Устройство управления, способ управления этим устройством и программа
RU2666626C1 (ru) * 2016-07-28 2018-09-11 Бейджин Сяоми Мобайл Софтвэар Ко., Лтд. Способ и устройство для управления состоянием воспроизведения
RU2791980C2 (ru) * 2012-04-06 2023-03-15 Самсунг Электроникс Ко., Лтд. Способ и устройство для исполнения объекта на дисплее

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
FI20012209A (fi) * 2001-11-14 2003-06-24 Nokia Corp Menetelmä informaation esittämisen ohjaamiseksi elektroniikkalaitteessa ja elektroniikkalaite
US7714880B2 (en) * 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
US7002553B2 (en) * 2001-12-27 2006-02-21 Mark Shkolnikov Active keyboard system for handheld electronic devices
US20050140565A1 (en) * 2002-02-20 2005-06-30 Rainer Krombach Mobile telephone comprising wraparound display
GB2387504B (en) * 2002-04-12 2005-03-16 Motorola Inc Method and system of managing a user interface of a communication device
JP4117352B2 (ja) * 2002-11-12 2008-07-16 株式会社ソニー・コンピュータエンタテインメント ファイル処理方法とこの方法を利用可能な装置
WO2004066632A1 (ja) * 2003-01-17 2004-08-05 Nippon Telegraph And Telephone Corporation 遠隔映像表示方法、映像取得装置及びその方法とそのプログラム
CN100452868C (zh) * 2003-01-17 2009-01-14 日本电信电话株式会社 远程图像显示方法、图像捕获装置和方法
GB0311177D0 (en) * 2003-05-15 2003-06-18 Qinetiq Ltd Non contact human-computer interface
US20080129552A1 (en) * 2003-10-31 2008-06-05 Iota Wireless Llc Concurrent data entry for a portable device
US7721968B2 (en) * 2003-10-31 2010-05-25 Iota Wireless, Llc Concurrent data entry for a portable device
JP2005277452A (ja) * 2004-03-22 2005-10-06 Nec Corp 携帯型電子機器及びその表示切り替え方法
US20050212760A1 (en) * 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
EP1759285A1 (en) * 2004-06-04 2007-03-07 Philips Intellectual Property & Standards GmbH A hand-held device for content navigation by a user
US20090305727A1 (en) * 2005-03-04 2009-12-10 Heikki Pylkko Mobile device with wide range-angle optics and a radiation sensor
US20090297062A1 (en) * 2005-03-04 2009-12-03 Molne Anders L Mobile device with wide-angle optics and a radiation sensor
US20090201257A1 (en) * 2005-05-27 2009-08-13 Kei Saitoh Display Device
US7652660B2 (en) * 2005-10-11 2010-01-26 Fish & Richardson P.C. Mobile device customizer
US7649522B2 (en) * 2005-10-11 2010-01-19 Fish & Richardson P.C. Human interface input acceleration system
TW200729926A (en) * 2006-01-17 2007-08-01 Inventec Appliances Corp Method for zooming image ratio for mobile electronic device and mobile electronic device thereof
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
KR100772909B1 (ko) * 2006-05-30 2007-11-05 삼성전자주식회사 이미지 검색 방법 및 장치
US8493323B2 (en) 2006-08-02 2013-07-23 Research In Motion Limited System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device
EP2090974B1 (en) * 2006-08-02 2011-12-21 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
US8139026B2 (en) 2006-08-02 2012-03-20 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
JP5173174B2 (ja) * 2006-09-13 2013-03-27 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
JP4775212B2 (ja) * 2006-09-26 2011-09-21 日本電気株式会社 携帯端末装置、その表示制御方法、プログラム、及びコンピュータ読み取り可能な記録媒体
EP1914622A3 (en) * 2006-10-16 2012-11-28 Samsung Electronics Co., Ltd. Method and apparatus for moving list on picture plane
KR101270700B1 (ko) * 2006-11-15 2013-06-03 삼성전자주식회사 광시야각 구현 방법 및 장치
TWI330802B (en) * 2006-12-13 2010-09-21 Ind Tech Res Inst Inertial sensing method and system
US8994644B2 (en) * 2007-01-26 2015-03-31 Apple Inc. Viewing images with tilt control on a hand-held device
US20090198132A1 (en) * 2007-08-10 2009-08-06 Laurent Pelissier Hand-held ultrasound imaging device having reconfigurable user interface
KR101365595B1 (ko) * 2007-08-16 2014-02-21 삼성전자주식회사 Gui기반의 디스플레이부를 구비한 디바이스의 입력 방법및 그 장치
JP2009059223A (ja) * 2007-08-31 2009-03-19 Toshiba Corp 情報処理装置、情報処理方法およびプログラム
US20090079701A1 (en) * 2007-09-25 2009-03-26 Grosskopf Jr George Device and Method for Displaying Data and Receiving User Input
US8631358B2 (en) * 2007-10-10 2014-01-14 Apple Inc. Variable device graphical user interface
US8418083B1 (en) 2007-11-26 2013-04-09 Sprint Communications Company L.P. Applying a navigational mode to a device
US8970633B2 (en) * 2007-12-26 2015-03-03 Qualcomm Incorporated Touch wheel zoom and pan
US8384718B2 (en) * 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
TWI378329B (en) * 2008-02-12 2012-12-01 Shenzhen China Star Optoelect Method for controlling angle of display and self-adjusting display device
CA2725542C (en) * 2008-05-28 2016-12-13 Google Inc. Motion-controlled views on mobile computing devices
US20090315810A1 (en) * 2008-06-19 2009-12-24 Sony Ericsson Mobile Communications Ab Information presentation device
WO2009152879A1 (en) * 2008-06-19 2009-12-23 Sony Ericsson Mobile Communications Ab Information presentation device
US10031549B2 (en) * 2008-07-10 2018-07-24 Apple Inc. Transitioning between modes of input
US9285970B2 (en) * 2008-07-25 2016-03-15 Google Technology Holdings LLC Method and apparatus for displaying navigational views on a portable device
JP5047090B2 (ja) * 2008-07-31 2012-10-10 キヤノン株式会社 システム
KR101505198B1 (ko) * 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US9310992B2 (en) * 2008-08-22 2016-04-12 Google Inc. Panning in a three dimensional environment on a mobile device
JP4720879B2 (ja) * 2008-08-29 2011-07-13 ソニー株式会社 情報処理装置及び情報処理方法
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
JP5080409B2 (ja) * 2008-09-11 2012-11-21 Kddi株式会社 情報端末装置
KR101602363B1 (ko) 2008-09-11 2016-03-10 엘지전자 주식회사 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기
JP4962741B2 (ja) * 2008-09-29 2012-06-27 株式会社エクォス・リサーチ 端末装置
US8717283B1 (en) * 2008-11-25 2014-05-06 Sprint Communications Company L.P. Utilizing motion of a device to manipulate a display screen feature
US8441441B2 (en) 2009-01-06 2013-05-14 Qualcomm Incorporated User interface for mobile devices
US20100275122A1 (en) * 2009-04-27 2010-10-28 Microsoft Corporation Click-through controller for mobile interaction
KR101588242B1 (ko) * 2009-07-13 2016-01-25 삼성전자주식회사 휴대 단말기의 스크롤 방법 및 장치
US8531571B1 (en) * 2009-08-05 2013-09-10 Bentley Systmes, Incorporated System and method for browsing a large document on a portable electronic device
CN102043569A (zh) * 2009-10-26 2011-05-04 环达电脑(上海)有限公司 大尺寸图像的浏览装置及其方法
KR101651430B1 (ko) * 2009-12-18 2016-08-26 삼성전자주식회사 휴대용 단말기에서 출력 데이터의 사이즈를 조절하기 위한 장치 및 방법
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
EP2392391B1 (en) 2010-02-03 2017-06-28 Nintendo Co. Ltd. Display device, game system, and game processing method
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
JP5413250B2 (ja) * 2010-03-05 2014-02-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8977987B1 (en) * 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
CN101887348A (zh) * 2010-06-29 2010-11-17 深圳桑菲消费通信有限公司 一种在移动终端上实现文字输入的方法
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US10150033B2 (en) * 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
KR101492310B1 (ko) 2010-11-01 2015-02-11 닌텐도가부시키가이샤 조작 장치 및 정보 처리 장치
KR101932688B1 (ko) 2010-11-29 2018-12-28 삼성전자주식회사 휴대기기 및 이에 적용되는 ui 모드 제공 방법
US20120200573A1 (en) * 2011-02-07 2012-08-09 Hooray LLC E-reader with locked and unlocked content and reader tracking capability
US9035940B2 (en) * 2011-03-08 2015-05-19 Nokia Corporation Apparatus and associated methods
CN102141846A (zh) * 2011-03-09 2011-08-03 中兴通讯股份有限公司 一种直觉式浏览内容的方法及移动终端
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
WO2012141352A1 (en) * 2011-04-13 2012-10-18 Lg Electronics Inc. Gesture recognition agnostic to device orientation
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US8381102B1 (en) * 2011-12-06 2013-02-19 Google Inc. Systems and methods for visually scrolling through a stack of items displayed on a device
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
JP6019601B2 (ja) 2012-02-10 2016-11-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
EP2631743B1 (en) * 2012-02-24 2018-05-02 BlackBerry Limited Handheld device with notification message viewing
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) * 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
KR101890140B1 (ko) 2012-05-07 2018-09-28 삼성전자주식회사 카메라 장치를 이용하여 디스플레이 장치를 제어하는 방법 및 이를 적용한 모바일 장치, 디스플레이 장치, 그리고 시스템
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US9493342B2 (en) 2012-06-21 2016-11-15 Nextinput, Inc. Wafer level MEMS force dies
US20140002443A1 (en) * 2012-06-29 2014-01-02 Blackboard Inc. Augmented reality interface
EP2870445A1 (en) 2012-07-05 2015-05-13 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
US10490166B2 (en) * 2012-07-09 2019-11-26 Blackberry Limited System and method for determining a display orientation of a mobile device
JP6100497B2 (ja) * 2012-10-09 2017-03-22 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
CN103019549A (zh) * 2012-11-28 2013-04-03 深圳市中兴移动通信有限公司 移动终端内容滚动的方法和装置
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
CN103902194A (zh) * 2012-12-28 2014-07-02 鸿富锦精密工业(武汉)有限公司 电子装置及其屏幕画面旋转控制方法
US8976202B2 (en) 2013-01-28 2015-03-10 Dave CAISSY Method for controlling the display of a portable computing device
US9658688B2 (en) * 2013-10-15 2017-05-23 Microsoft Technology Licensing, Llc Automatic view adjustment
US9902611B2 (en) 2014-01-13 2018-02-27 Nextinput, Inc. Miniaturized and ruggedized wafer level MEMs force sensors
JP2014197400A (ja) * 2014-05-16 2014-10-16 日本電気株式会社 液晶表示装置、移動体通信端末装置及び液晶表示方法
US10782787B2 (en) * 2014-06-06 2020-09-22 Adobe Inc. Mirroring touch gestures
US10019140B1 (en) * 2014-06-26 2018-07-10 Amazon Technologies, Inc. One-handed zoom
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
CN105786360A (zh) * 2014-12-23 2016-07-20 珠海金山办公软件有限公司 一种用移动终端演示ppt文档的方法和装置
CN104548596B (zh) * 2015-02-02 2017-05-24 广州周游网络科技有限公司 一种射击游戏的瞄准方法及装置
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US10466119B2 (en) 2015-06-10 2019-11-05 Nextinput, Inc. Ruggedized wafer level MEMS force sensor with a tolerance trench
CN105353908B (zh) * 2015-10-31 2018-03-27 广东欧珀移动通信有限公司 一种画面控制方法及用户终端
CN106843709B (zh) 2015-12-04 2020-04-14 阿里巴巴集团控股有限公司 根据实时信息显示展现对象的方法和装置
EP3316186B1 (en) 2016-10-31 2021-04-28 Nokia Technologies Oy Controlling display of data to a person via a display apparatus
EP3316117A1 (en) * 2016-10-31 2018-05-02 Nokia Technologies OY Controlling content displayed in a display
CN106708183A (zh) * 2016-11-23 2017-05-24 浪潮(苏州)金融技术服务有限公司 一种终端及其使用方法
CN108268056B (zh) * 2016-12-30 2020-12-15 昊翔电能运动科技(昆山)有限公司 手持云台校准方法、装置和***
CN110494724B (zh) 2017-02-09 2023-08-01 触控解决方案股份有限公司 集成数字力传感器和相关制造方法
US11243125B2 (en) 2017-02-09 2022-02-08 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
CN111052082A (zh) * 2017-02-22 2020-04-21 思开睿公司 计算机网络建模
EP3655740A4 (en) 2017-07-19 2021-07-14 Nextinput, Inc. STRESS TRANSFER STACKING IN MEMS FORCE SENSOR
US11423686B2 (en) 2017-07-25 2022-08-23 Qorvo Us, Inc. Integrated fingerprint and force sensor
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
US11439839B2 (en) * 2017-08-09 2022-09-13 Acuity Innovation And Design, Llc Hand-held treatment device using LED light sources with interchangeable emitters
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
CN108664145A (zh) * 2018-05-14 2018-10-16 珠海格力电器股份有限公司 一种界面显示控制方法、装置、存储介质及移动终端
CA3057507C (en) * 2018-10-03 2023-08-22 Khaled Shariff Virtual reality system and method for displaying on a real-world display a viewable portion of a source file projected on an inverse spherical virtual screen
WO2020096096A1 (en) * 2018-11-09 2020-05-14 Samsung Electronics Co., Ltd. Display method and display device in portable terminal
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
KR20200091522A (ko) 2019-01-22 2020-07-31 삼성전자주식회사 컨텐츠의 표시 방향을 제어하기 위한 방법 및 그 전자 장치

Family Cites Families (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720703A (en) 1984-08-02 1988-01-19 Tektronix, Inc. Display method and apparatus employing cursor panning
JPS6232527A (ja) 1985-08-06 1987-02-12 Hitachi Ltd 表示画面制御方式
US4787051A (en) 1986-05-16 1988-11-22 Tektronix, Inc. Inertial mouse system
US5100823A (en) * 1988-02-29 1992-03-31 Motorola, Inc. Method of making buried stacked transistor-capacitor
IL92220A (en) 1989-11-06 1993-02-21 Ibm Israel Three-dimensional computer input device
US5367614A (en) 1992-04-01 1994-11-22 Grumman Aerospace Corporation Three-dimensional computer image variable perspective display system
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
US5526481A (en) 1993-07-26 1996-06-11 Dell Usa L.P. Display scrolling system for personal digital assistant
US6937140B1 (en) 1993-07-30 2005-08-30 Ge Interlogix, Inc. Personal digital assistant key for an electronic lock
JPH0764754A (ja) * 1993-08-24 1995-03-10 Hitachi Ltd 小型情報処理装置
SE504846C2 (sv) 1994-09-28 1997-05-12 Jan G Faeger Styrutrustning med ett rörligt styrorgan
KR0143459B1 (ko) * 1995-05-22 1998-07-01 한민구 모오스 게이트형 전력 트랜지스터
US5648670A (en) * 1995-06-07 1997-07-15 Sgs-Thomson Microelectronics, Inc. Trench MOS-gated device with a minimum number of masks
US5602556A (en) * 1995-06-07 1997-02-11 Check Point Systems, Inc. Transmit and receive loop antenna
US6489945B1 (en) 1998-02-11 2002-12-03 Agilent Technologies, Inc. Method and system for tracking attitude
US6624824B1 (en) 1996-04-30 2003-09-23 Sun Microsystems, Inc. Tilt-scrolling on the sunpad
JPH1011249A (ja) 1996-06-20 1998-01-16 Matsushita Electric Ind Co Ltd 画像生成表示装置
GB9620464D0 (en) * 1996-10-01 1996-11-20 Philips Electronics Nv Hand held image display device
WO1998018495A2 (en) 1996-10-28 1998-05-07 Marsden, John, Christopher Improvements in or relating to diagnostic/therapeutic agents
AU3120197A (en) 1997-05-09 1998-04-02 Remec Inc. Computer control device
US6115025A (en) * 1997-09-30 2000-09-05 Silicon Graphics, Inc. System for maintaining orientation of a user interface as a display changes orientation
SE516552C2 (sv) 1997-10-02 2002-01-29 Ericsson Telefon Ab L M Handburen displayenhet och metod att visa skärmbilder
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US6316807B1 (en) * 1997-12-05 2001-11-13 Naoto Fujishima Low on-resistance trench lateral MISFET with better switching characteristics and method for manufacturing same
SE511516C2 (sv) 1997-12-23 1999-10-11 Ericsson Telefon Ab L M Handburen displayenhet och metod att visa skärmbilder
JP3338777B2 (ja) 1998-04-22 2002-10-28 日本電気株式会社 携帯端末、及びその画面表示方法
US6151208A (en) * 1998-06-24 2000-11-21 Digital Equipment Corporation Wearable computing device mounted on superior dorsal aspect of a hand
US6369794B1 (en) 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
US6400376B1 (en) * 1998-12-21 2002-06-04 Ericsson Inc. Display control for hand-held data processing device
US6201554B1 (en) * 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
JP2000259856A (ja) 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元コンピュータグラフィックス表示方法及び装置
US6433385B1 (en) * 1999-05-19 2002-08-13 Fairchild Semiconductor Corporation MOS-gated power device having segmented trench and extended doping zone and process for forming same
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
EP1063607A1 (de) 1999-06-25 2000-12-27 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Eingabe von Streuerinformationen in Computersysteme
US7194702B1 (en) 1999-06-29 2007-03-20 Gateway Inc. System method apparatus and software for minimizing unintended cursor movement
US6252277B1 (en) * 1999-09-09 2001-06-26 Chartered Semiconductor Manufacturing Ltd. Embedded polysilicon gate MOSFET
US6375572B1 (en) * 1999-10-04 2002-04-23 Nintendo Co., Ltd. Portable game apparatus with acceleration sensor and information storage medium storing a game progam
JP3847058B2 (ja) * 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
US6567101B1 (en) * 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data
CN1119051C (zh) 1999-11-03 2003-08-20 摩托罗拉公司 用于在便携式电子设备上选择用户界面选项的装置和方法
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
KR100399583B1 (ko) * 1999-11-29 2003-09-26 한국전자통신연구원 자기 정렬 기술을 이용한 트렌치 게이트 전력 소자 제조방법
US6552713B1 (en) 1999-12-16 2003-04-22 Hewlett-Packard Company Optical pointing device
US6864912B1 (en) 1999-12-16 2005-03-08 International Business Machines Corp. Computer system providing hands free user input via optical means for navigation or zooming
US7124374B1 (en) 2000-03-06 2006-10-17 Carl Herman Haken Graphical interface control system
WO2001086920A2 (en) 2000-05-12 2001-11-15 Zvi Lapidot Apparatus and method for the kinematic control of hand-held devices
US6861946B2 (en) 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
JP4696335B2 (ja) * 2000-05-30 2011-06-08 株式会社デンソー 半導体装置およびその製造方法
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US7034803B1 (en) 2000-08-18 2006-04-25 Leonard Reiffel Cursor display privacy product
FR2814254B1 (fr) 2000-09-15 2006-07-21 Thomson Csf Procede de traitement du deplacement d'un curseur sur un ecran
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
AU2002221723A1 (en) 2000-10-27 2002-05-06 Telefonaktiebolaget Lm Ericsson (Publ) A portable radio communications device
CN1227617C (zh) 2000-11-06 2005-11-16 皇家菲利浦电子有限公司 测量输入装置运动的方法和输入设置
US7159172B1 (en) 2000-11-08 2007-01-02 Xerox Corporation Display for rapid text reading
US6577296B2 (en) * 2000-11-14 2003-06-10 Vega Vista, Inc. Fixed cursor
US6690358B2 (en) * 2000-11-30 2004-02-10 Alan Edward Kaplan Display control for hand-held devices
FI20002841A (fi) 2000-12-22 2002-06-23 Nokia Corp Menetelmä päätelaitteen näytön ohjaamiseksi
US6731330B2 (en) 2001-01-30 2004-05-04 Hewlett-Packard Development Company, L.P. Method for robust determination of visible points of a controllable display within a camera view
EP1232946B1 (de) * 2001-02-09 2003-05-02 Teepack Spezialmaschinen Gmbh & Co. Kg Verfahren und Vorrichtung zum Stapeln und Verpacken von Aufgussbeuteln, insbesondere zur Bereitung von Tee
US6977645B2 (en) 2001-03-16 2005-12-20 Agilent Technologies, Inc. Portable electronic device with mouse-like capabilities
US6834249B2 (en) 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
JP4027616B2 (ja) 2001-04-20 2007-12-26 三菱電機株式会社 ポインティングデバイス装置および携帯電話機
US6603485B2 (en) 2001-04-24 2003-08-05 Hewlett-Packard Development Company, L.P. Computer cursor spotlight
US20020180733A1 (en) * 2001-05-15 2002-12-05 Koninklijke Philips Electronics N.V. Method and apparatus for adjusting an image to compensate for an offset position of a user
FI117488B (fi) 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US20030001863A1 (en) * 2001-06-29 2003-01-02 Brian Davidson Portable digital devices
US6795056B2 (en) 2001-07-24 2004-09-21 Agilent Technologies, Inc. System and method for reducing power consumption in an optical screen pointing device
US6847351B2 (en) 2001-08-13 2005-01-25 Siemens Information And Communication Mobile, Llc Tilt-based pointing for hand-held devices
JP2003140815A (ja) * 2001-11-06 2003-05-16 Nec Corp 携帯端末
US6978258B2 (en) * 2001-12-26 2005-12-20 Autodesk, Inc. Fuzzy logic reasoning for inferring user location preferences
US7100123B1 (en) 2002-01-25 2006-08-29 Microsoft Corporation Electronic content search and delivery based on cursor location
US6614309B1 (en) * 2002-02-21 2003-09-02 Ericsson Inc. Dynamic bias controller for power amplifier circuits
JP2003288161A (ja) 2002-03-28 2003-10-10 Nec Corp 携帯機器
US20030231189A1 (en) 2002-05-31 2003-12-18 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
US7184025B2 (en) * 2002-05-31 2007-02-27 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
US7456823B2 (en) 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
US7042441B2 (en) 2002-06-28 2006-05-09 Microsoft Corporation Input device including a scroll wheel assembly for manipulating an image in multiple directions
EP1573710A4 (en) 2002-12-16 2007-11-21 Microsoft Corp SYSTEMS AND METHOD FOR CONNECTING TO COMPUTER DEVICES
EP1437677A1 (en) 2002-12-30 2004-07-14 Nokia Corporation Optical user interface for controlling portable electric device
US6977675B2 (en) 2002-12-30 2005-12-20 Motorola, Inc. Method and apparatus for virtually expanding a display
AU2003303787A1 (en) 2003-01-22 2004-08-13 Nokia Corporation Image control
EP1491855A1 (de) * 2003-06-23 2004-12-29 Leica Geosystems AG Optischer Neigungsmesser
EP1524588A1 (en) 2003-10-15 2005-04-20 Sony Ericsson Mobile Communications AB User input device for a portable electronic device
US7721968B2 (en) 2003-10-31 2010-05-25 Iota Wireless, Llc Concurrent data entry for a portable device
TW200522710A (en) 2003-12-29 2005-07-01 Pixart Imaging Inc Image navigation chip
FI20045078A (fi) 2004-03-16 2005-09-17 Myorigo Oy Laajakulmaoptiikalla ja säteilysensorilla varustettu mobiililaite
US7301528B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
WO2005099253A1 (en) 2004-04-08 2005-10-20 Koninklijke Philips Electronics N.V. Mobile projectable gui
JP4167263B2 (ja) 2004-07-15 2008-10-15 株式会社シーアンドエヌ 携帯端末装置
US7138979B2 (en) 2004-08-27 2006-11-21 Motorola, Inc. Device orientation based input signal generation
KR100641182B1 (ko) 2004-12-30 2006-11-02 엘지전자 주식회사 휴대단말기에서의 가상화면 이동장치 및 방법
US7379566B2 (en) 2005-01-07 2008-05-27 Gesturetek, Inc. Optical flow based tilt sensor
US7519468B2 (en) 2005-02-28 2009-04-14 Research In Motion Limited System and method for navigating a mobile device user interface with a directional sensing device
US20090297062A1 (en) 2005-03-04 2009-12-03 Molne Anders L Mobile device with wide-angle optics and a radiation sensor
US20090305727A1 (en) 2005-03-04 2009-12-10 Heikki Pylkko Mobile device with wide range-angle optics and a radiation sensor
JP5038296B2 (ja) 2005-05-17 2012-10-03 クアルコム,インコーポレイテッド 方位感受性信号出力
NO20052656D0 (no) * 2005-06-02 2005-06-02 Lumex As Geometrisk bildetransformasjon basert pa tekstlinjesoking
DE602005006405T2 (de) * 2005-06-24 2009-07-02 Maxpat Trading & Marketing (Far East) Ltd., Tsimshatsui Maisabstreifer
US8164640B2 (en) 2005-06-30 2012-04-24 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
US20070107068A1 (en) 2005-10-14 2007-05-10 Oqo, Inc. Hybrid hardware/firmware multi-axis accelerometers for drop detect and tumble detect
US7667686B2 (en) 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
US8139026B2 (en) * 2006-08-02 2012-03-20 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8994644B2 (en) * 2007-01-26 2015-03-31 Apple Inc. Viewing images with tilt control on a hand-held device
US8099124B2 (en) 2007-04-12 2012-01-17 Symbol Technologies, Inc. Method and system for correlating user/device activity with spatial orientation sensors
US7615751B2 (en) * 2007-12-27 2009-11-10 Honeywell International Inc. Adjustable motion detection sensor with cam
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
US8355031B2 (en) 2009-03-17 2013-01-15 Harris Corporation Portable electronic devices with adjustable display orientation
US9582166B2 (en) * 2010-05-16 2017-02-28 Nokia Technologies Oy Method and apparatus for rendering user interface for location-based service having main view portion and preview portion

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2447481C2 (ru) * 2007-10-04 2012-04-10 Валерий Константинович Любезнов Способ определения местоположения касания экрана сенсорной системы (варианты) и оптоэлектронная сенсорная система для его реализации
RU2480938C2 (ru) * 2008-02-14 2013-04-27 Нокиа Корпорейшн Представление информации на основе ориентации экрана дисплея
US9274681B2 (en) 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
RU2504821C2 (ru) * 2008-03-26 2014-01-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Терминал и способ управления им
RU2523169C2 (ru) * 2008-05-23 2014-07-20 Майкрософт Корпорейшн Панорамирование контента с использованием операции перетаскивания
RU2520400C2 (ru) * 2008-09-12 2014-06-27 Конинклейке Филипс Электроникс Н.В. Навигация в графическом пользовательском интерфейсе на карманных устройствах
RU2502117C2 (ru) * 2009-02-12 2013-12-20 Кэнон Кабусики Кайся Устройство для захвата изображения и способ управления им
RU2536363C2 (ru) * 2009-04-23 2014-12-20 Сони Корпорейшн Устройство обработки информации, способ обработки информации и программа
RU2524836C2 (ru) * 2009-07-21 2014-08-10 Сони Корпорейшн Информационный процессор, способ обработки и программа
RU2519351C2 (ru) * 2009-08-21 2014-06-10 Моторола Мобилити, Инк. Тактильный пользовательский интерфейс для электронного устройства
RU2544751C2 (ru) * 2009-09-23 2015-03-20 Майкрософт Корпорейшн Компьютерная система с визуальным буфером обмена
US9092115B2 (en) 2009-09-23 2015-07-28 Microsoft Technology Licensing, Llc Computing system with visual clipboard
RU2603533C2 (ru) * 2010-06-30 2016-11-27 Конинклейке Филипс Электроникс Н.В. Масштабирование отображаемого изображения
RU2571606C2 (ru) * 2010-08-31 2015-12-20 Моторола Солюшнз, Инк. Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой
RU2559720C2 (ru) * 2010-11-09 2015-08-10 Нокиа Корпорейшн Устройство и способ пользовательского ввода для управления отображаемой информацией
RU2497178C2 (ru) * 2010-12-06 2013-10-27 Кэнон Кабусики Кайся Устройство управления отображением, способ управления отображением и носитель для хранения данных
US9772738B2 (en) 2012-02-24 2017-09-26 Samsung Electronics Co., Ltd. Mobile terminal having a screen operation and operation method thereof
RU2635358C2 (ru) * 2012-02-24 2017-11-13 Самсунг Электроникс Ко., Лтд. Мобильный терминал с возможностью осуществления операции с экранным изображением и способ функционирования
RU2791980C2 (ru) * 2012-04-06 2023-03-15 Самсунг Электроникс Ко., Лтд. Способ и устройство для исполнения объекта на дисплее
RU2632215C2 (ru) * 2013-03-08 2017-10-03 Томсон Лайсенсинг Способ и система для стабилизации и центрирования изображения
RU2623725C2 (ru) * 2014-08-27 2017-06-28 Сяоми Инк. Способ и устройство для отображения изображения
RU2664770C1 (ru) * 2014-10-10 2018-08-23 Кэнон Кабусики Кайся Устройство управления, способ управления этим устройством и программа
RU2666626C1 (ru) * 2016-07-28 2018-09-11 Бейджин Сяоми Мобайл Софтвэар Ко., Лтд. Способ и устройство для управления состоянием воспроизведения

Also Published As

Publication number Publication date
US20100125818A1 (en) 2010-05-20
EP1410142A1 (en) 2004-04-21
WO2002093331A1 (en) 2002-11-21
FI117488B (fi) 2006-10-31
DE60208995D1 (de) 2006-04-13
US20020175896A1 (en) 2002-11-28
FI20011039A (fi) 2002-11-17
US20170192729A9 (en) 2017-07-06
US20060129951A1 (en) 2006-06-15
CN1714326A (zh) 2005-12-28
US11301196B2 (en) 2022-04-12
US7607111B2 (en) 2009-10-20
FI20011039A0 (fi) 2001-05-16
RU2003136273A (ru) 2005-05-27
US9727095B2 (en) 2017-08-08
US20100153891A1 (en) 2010-06-17
KR100671585B1 (ko) 2007-01-18
JP2004534302A (ja) 2004-11-11
EP1410142B1 (en) 2006-02-01
KR20040007571A (ko) 2004-01-24
CN1714326B (zh) 2012-05-30
US20170315594A1 (en) 2017-11-02
ATE317138T1 (de) 2006-02-15
JP4175897B2 (ja) 2008-11-05
US20100020102A1 (en) 2010-01-28

Similar Documents

Publication Publication Date Title
RU2288512C2 (ru) Способ и устройство для просмотра информации на дисплее
US10318017B2 (en) Viewing images with tilt control on a hand-held device
CN108431729B (zh) 用以增大显示区域的三维对象跟踪
USRE42336E1 (en) Intuitive control of portable data displays
US6084556A (en) Virtual computer monitor
US7271795B2 (en) Intuitive mobile device interface to virtual spaces
US7952561B2 (en) Method and apparatus for controlling application using motion of image pickup unit
US9544556B2 (en) Projection control apparatus and projection control method
Issartel et al. Analysis of locally coupled 3d manipulation mappings based on mobile device motion
EP1720090A1 (en) Computerized method and computer system for positioning a pointer
Nourbakhsh et al. A Motion Sensor-Based User Interface for Construction Drawings Navigation

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20080209

NF4A Reinstatement of patent

Effective date: 20100427

PC4A Invention patent assignment

Effective date: 20100629

MM4A The patent is invalid due to non-payment of fees

Effective date: 20110209