FR2971066A1 - Interface homme-machine tridimensionnelle. - Google Patents
Interface homme-machine tridimensionnelle. Download PDFInfo
- Publication number
- FR2971066A1 FR2971066A1 FR1150726A FR1150726A FR2971066A1 FR 2971066 A1 FR2971066 A1 FR 2971066A1 FR 1150726 A FR1150726 A FR 1150726A FR 1150726 A FR1150726 A FR 1150726A FR 2971066 A1 FR2971066 A1 FR 2971066A1
- Authority
- FR
- France
- Prior art keywords
- distance
- symbol
- display
- control object
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000005259 measurement Methods 0.000 claims description 32
- 230000033001 locomotion Effects 0.000 claims description 26
- 238000010200 validation analysis Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 15
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 2
- 230000003071 parasitic effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
La présente invention concerne un procédé pour sélectionner des commandes, mettant en œuvre une interface de commande, un affichage et au moins un capteur apte à détecter au moins un objet de commande, comprenant des étapes (i) d'obtention d'informations de distance entre ledit ou lesdits objet(s) de commande et ladite interface de commande au moyen dudit ou desdits capteur(s), (ii) d'affichage sur ledit affichage d'au moins un symbole représentant une commande ou un ensemble de commandes selon un mode d'affichage, lequel procédé comprenant en outre une étape d'utilisation desdites informations de distance pour déterminer ledit mode d'affichage du ou des symbole(s). L'invention concerne aussi un dispositif mettant en œuvre le procédé et un appareil.
Description
-1- « Interface homme-machine tridimensionnelle »
Domaine technique La présente invention concerne un procédé pour sélectionner des commandes, apte à être mis en oeuvre dans une interface homme machine tridimensionnelle. Elle concerne aussi un dispositif mettant en oeuvre le procédé. Le domaine de l'invention est plus particulièrement mais de manière non 10 limitative celui des interfaces homme machine sans contact. Etat de la technique antérieure Les interfaces tactiles, ou écrans tactiles, sont actuellement largement utilisées pour contrôles des appareils aussi variés que des ordinateurs, des téléphones portables, .... 15 De manière générale, elles comprennent un écran d'affichage et des capteurs qui permettent de déterminer le ou les point(s) de contact entre la surface de l'écran et un ou plusieurs objets de commande tels que des doigts ou un stylet. Ces interfaces tactiles utilisent fréquemment des technologies de mesure 20 capacitives pour détecter la position des objets de commande. L'écran peut être par exemple recouvert d'un maillage d'électrodes capacitives, et la position de l'objet est détectée à partit de ses interactions, sous forme de couplages capacitifs, avec les électrodes. Les interfaces tactiles comprennent également une partie logicielle 25 permettant d'interpréter les commandes de l'utilisateur. L'affichage est modifié en fonction de la position du ou des objet(s) de commande détecté(s), ce qui permet à l'utilisateur d'avoir un contrôle visuel de ses actions et de sélectionner des commandes. On connaît également des interfaces gestuelles, ou interfaces 3D, dans 30 laquelle une troisième dimension est ajoutée avec la possibilité de détecter des objets à distance avant qu'ils ne touchent la surface de l'écran. Ces interfaces sont dotées de capteurs permettant de mesurer la position dans l'espace, par rapport à l'interface, d'un ou plusieurs objets de commande. Les technologies de mesure capacitives sont également bien adaptées à 35 la réalisation de ce type d'interfaces. 2971066 -2- On connaît par exemple le document FR 2 844 349 de Rozière, qui divulgue un détecteur capacitif de proximité comprenant une pluralité d'électrodes indépendantes, qui permet de mesurer la capacité et la distance entre les électrodes et un objet à proximité jusqu'à des distances de plusieurs 5 dizaines, voire centaines de millimètres. Les électrodes peuvent être réalisées de manière transparente en utilisant par exemple de l'ITO (Oxyde d'indium-étain), et déposées sur l'écran d'affichage. Ces interfaces dotées de capacités de mesure dans l'espace ouvrent de nouvelles possibilités d'interaction entre l'utilisateur et la machine, et permettent d'imaginer de nouveaux modes de contrôle d'interface homme machine (IHM) dans lesquels l'information de distance ou de profondeur serait pleinement exploitée pour « naviguer » dans l'interface logicielle. On connaît le document US 2008/0307360 de Chaudhri et al. qui divulgue une interface homme-machine logicielle avec une composante tridimensionnelle. Toutefois l'aspect tridimensionnel est limité à une représentation dans un environnement d'apparence tridimensionnel d'objets informatiques (icones, fichiers, ...). Le mode de contrôle de l'interface, notamment pour la sélection des objets, demeure strictement bidimensionnel puisque basé sur la détection d'évènements tels que le déplacement d'un pointeur de souris dans le plan de l'interface. Le but de la présente invention est de proposer un procédé de sélection de commandes (ou d'objets informatiques) dans une interface homme machine (IHM) dotée de capacités de mesures tridimensionnelle, qui utilise pleinement au niveau de l'interface logicielle la dimension tridimensionnelle des mesures. Exposé de l'invention Cet objectif est atteint avec un procédé pour sélectionner des commandes, mettant en oeuvre une interface de commande, un affichage et au moins un capteur apte à détecter au moins un objet de commande, comprenant des étapes : - d'obtention d'informations de distance entre ledit ou lesdits objet(s) de commande et ladite interface de commande au moyen du ou desdits capteur(s), - d'affichage sur ledit affichage d'au moins un symbole représentant une 35 commande ou un ensemble de commandes selon un mode d'affichage, 2971066 -3- caractérisé en ce qu'il comprend en outre une étape d'utilisation desdites informations de distance pour déterminer ledit mode d'affichage du ou des symbole(s). Le procédé selon l'invention peut comprendre en outre des étapes de : 5 - d'obtention d'informations de position d'au moins un objet de commande par rapport à l'interface de commande au moyen du ou des capteur(s), - d'utilisation desdites informations de position pour déterminer le mode d'affichage du ou des symbole(s) affiché(s). Le mode d'affichage d'un symbole peut comprendre des représentations 10 graphiques différentiées de ce symbole permettant de visualiser un état tel qu'une mise en évidence en vue d'une sélection, une sélection, l'exécution d'une commande, un déplacement, une rotation, une modification .... Le mode d'affichage peut correspondre par exemple une mise en surbrillance, une différenciation graphique par rapport à d'autres symboles affichés au moyen 15 d'un changement de couleur ou de taille, ou un réaffichage du symbole de manière différente et décalée pour être visible par exemple au-delà d'un objet de commande. Le procédé selon l'invention peut comprendre en outre une étape d'utilisation d'au moins l'un des ensembles d'informations suivants : 20 informations de distance, informations de distance et de position, pour déterminer le ou les symbole(s) affiché(s). La détermination du symbole affiché peut comprendre une sélection des symboles visualisés sur l'affichage, donc des commandes et/ou groupes de commandes accessibles sur l'interface, en fonction des informations de 25 distance et/ou de position. Les informations de distance et de position peuvent comprendre : - des mesures de distances et/ou de positions ; - des informations fournies par les capteurs (par exemple les grandeurs physiques mesurées par ces capteurs) et dépendant (de préférence de façon 30 monotone) de la distance et/ou de la position du ou des objet(s) de commande relativement à l'interface de commande ; - des grandeurs représentatives de vitesses et/ou d'accélérations de l'objet de commande, correspondant à des grandeurs dérivées de distances et/ou des positions ; -4- - des informations relatives à des trajectoires, c'est-à-dire à des séquences temporelles de distances et/ou de trajectoires. Suivant des modes de réalisation, le procédé selon l'invention peut mettre en oeuvre au moins l'un des types de mesures suivantes : - mesures d'interactions capacitives entre un objet de commande et le ou des capteur(s), - mesures de variations d'intensité lumineuse dues à la présence d'un objet de commande. Ces mesures peuvent permettre en particulier d'obtenir des informations 10 de distance et/ou de position. Les interactions capacitives mesurées peuvent comprendre notamment : - un couplage capacitif direct entre un objet de commande et des électrodes capacitives de capteurs, auquel cas on mesure les capacités électriques entre l'objet et les électrodes, ou 15 - la perturbation d'un couplage capacitif entre des électrodes de capteurs due à la présence de l'objet de commande, auquel cas on mesure des variations de ces capacités de couplage. Les variations d'intensités lumineuses mesurées peuvent être engendrées par exemple par l'interruption de faisceaux de lumière par des 20 objets de commande, ou des effets d'ombre dus à la présence d'objets de commande. Le procédé selon l'invention peut comprendre en outre des étapes : - d'affichage d'un premier symbole représentant un premier ensemble de commandes, 25 - d'affichage, lorsque la distance d'un objet de commande est inférieure à une distance de seuil, d'au moins un second symbole représentant une commande ou un ensemble de commandes inclus(s) dans ledit premier ensemble de commandes. Cette inclusion peut être définie de manière logique, comme par exemple 30 dans une arborescence de commandes hiérarchisées, ou une pile de commandes ou d'ensembles de commandes. Les seconds symboles peuvent être affichés à des positions sensiblement différentes de celle du premier symbole sur l'affichage, par exemple pour ne pas masquer le premier symbole. 35 Le procédé selon l'invention peut comprendre en outre des étapes : -5- - d'affichage d'un premier symbole représentant une première commande ou un premier ensemble de commandes, - d'affichage, lorsque la distance d'un objet de commande est inférieure à une distance de seuil, d'un second symbole représentant une seconde 5 commande ou un second ensemble de commandes. Le second symbole peut être affiché à une position sensiblement identique à celle du premier symbole sur l'affichage, comme par exemple pour illustrer un déplacement dans le sens de la profondeur dans une pile de symboles dont on enlèverait des éléments au fur et à mesure du déplacement 10 de l'objet de commande. Le procédé selon l'invention peut comprendre en outre une étape de sélection d'une commande comprenant une étape de vérification d'au moins une condition de sélection basée sur un ensemble d'informations parmi : des informations de distance, des informations de distance et de position. 15 Il peut comprendre en outre une étape de vérification d'au moins une condition de sélection parmi les conditions de sélection suivantes : - la distance de l'objet de commande est inférieure à une distance de sélection prédéterminée, - la distance de l'objet de commande est inférieure à une distance de 20 sélection prédéterminée pendant une durée minimale prédéterminée, - l'objet de commande est en contact avec la surface de l'interface de commande, - l'objet de commande effectue un aller-retour rapide en distance, c'est-à-dire par exemple un aller retour sur une distance inférieure à une distance 25 prédéterminée pendant une durée inférieure à une durée prédéterminée, - au moins deux objets de commandes effectuent un mouvement convergent en position vers une position prédéterminée, tel qu'un mouvement de saisie ou de pincement (ou tout autre mouvement relatif). La sélection d'une commande peut avoir lieu lorsque le ou les objets de 30 commande se trouvent dans le voisinage ou convergent vers une position définie pour cette commande. Le procédé selon l'invention peut comprendre en outre une étape d'exécution d'une commande (préalablement sélectionnée) de l'un des types suivants : exécution d'un programme d'ordinateur, exécution d'une 35 application, affichage du contenu d'un dossier stocké sur un moyen de 2971066 -6- stockage informatique, affichage d'une image, exécution d'un son, lecture d'un contenu multimédia, ou de toute autre commande. Le procédé selon l'invention peut comprendre en outre une étape d'exécution d'une commande de déplacement d'un symbole, laquelle 5 comprenant : - une étape d'affichage dudit symbole selon une position représentative d'une position d'un objet de commande ou d'un ensemble d'objets de commande, - une étape de validation du déplacement dudit symbole comprenant une 10 étape de vérification d'au moins une condition de validation basée sur un ensemble d'informations parmi : des informations de distance, des informations de distance et de position. Le procédé selon l'invention peut comprendre en outre une étape de vérification d'au moins une condition de validation parmi les conditions de 15 validation suivantes : - la distance de l'objet de commande est inférieure à une distance de sélection prédéterminée, - la distance de l'objet de commande est inférieure à une distance de sélection prédéterminée pendant une durée minimale prédéterminée, 20 - l'objet de commande est en contact avec la surface de l'interface de commande, - l'objet de commande effectue un aller-retour rapide en distance, - au moins deux objets de commandes effectuent un mouvement divergent en position autour d'une position prédéterminée (ou tout autre 25 mouvement relatif). Suivant des modes de réalisation, le procédé selon l'invention peut comprendre en outre des étapes : - d'affichage de symboles sous la forme d'icones ; - d'activation de l'affichage lorsque la distance de l'objet de commande est 30 inférieure à une distance d'activation prédéterminée, afin par exemple d'éteindre l'écran lorsqu'il n'est pas utilisé et économiser l'énergie. Suivant un autre aspect, il est proposé un dispositif pour sélectionner des commandes, comprenant : - une interface de commande, 35 - un affichage, 2971066 -7- - au moins un capteur apte à détecter un objet de commande, - des moyens électroniques et de calcul aptes à produire au moyen du ou desdits capteur(s) des informations de distance entre au moins un objet de commande et ladite interface de commande, - des moyens de gestion de l'affichage aptes à produire un affichage d'au moins un symbole représentant une commande ou un ensemble de commandes, lequel dispositif comprenant en outre des moyens de calcul aptes à traiter lesdites informations de distance pour déterminer le ou des symbole(s) affiché(s). L'affichage peut être un écran d'affichage, ou tout autre moyen d'affichage, par exemple en relief (affichage 3D). L'interface de commande, les capteurs et l'affichage peuvent être selon toutes dispositions, telles que par exemple : - superposés, avec un affichage intégré à une interface de commande comprenant les capteurs disposés sur sa surface ou sa périphérie; - distincts, avec d'une part une interface de commande pourvue de capteurs et d'autre part un affichage. L'interface de commande peut notamment être un pad relié à un ordinateur, et d'affichage peut être l'écran de l'ordinateur, distinct du pad. Le dispositif selon l'invention peut comprendre en outre : - des moyens électroniques et de calcul aptes à produire au moyen du ou des capteur(s) des informations de position d'au moins un objet de commande par rapport à ladite interface de commande, - des moyens de calcul aptes à traiter lesdites informations de position pour déterminer le ou des symbole(s) affiché(s). Suivant des modes de réalisation, le dispositif selon l'invention peut comprendre en outre des capteurs d'au moins l'un des types suivants : - capteurs capacitifs, - capteurs optiques. Les capteurs optiques peuvent comprendre par exemple des barrières optiques avec des sources de lumière émettant des faisceaux de lumière et des photodétecteurs disposés de telle sorte à être illuminés par ces faisceaux de lumière lorsqu'ils ne sont pas interrompus par des objets de commande. Ils peuvent également comprendre des photodétecteurs sensibles à des 2971066 -8- variations d'éclairement tels que des effets d'ombre ou de réflexion dus à la présence d'objets de commande, par exemple intégrés à un écran à base de technologie TFT ou OLED. Suivant des modes de réalisation, le dispositif selon l'invention peut en 5 outre comprendre tous types de capteurs aptes à produire une information de distance et/ou de position. Il peut notamment comprendre des capteurs acoustiques à ultrasons, disposés par exemple de telle sorte à permettre une localisation des objets de commande par mesures d'échos et triangulation. Suivant encore un autre aspect, il est proposé un appareil de l'un des 10 types suivants : ordinateur, téléphone, smartphone, tablette, écran d'affichage, borne, caractérisé en ce qu'il comprend un dispositif pour sélectionner des commandes mettant en oeuvre le procédé selon l'invention. Description des figures et modes de réalisation D'autres avantages et particularités de l'invention apparaîtront à la 15 lecture de la description détaillée de mises en oeuvre et de modes de réalisation nullement limitatifs, et des dessins annexés suivants : - la figure 1 présente un schéma d'une interface homme-machine tridimensionnelle selon l'invention, - la figure 2 présente une convention de désignation de positions sur la 20 surface de détection, - la figure 3 présente une structure d'ensembles de commandes avec les conditions de position et de distance permettant d'y accéder, et un exemple de parcours dans cette structure, - les figures 4 (a) à (d) illustrent une séquence temporelle de symboles de 25 commandes ou d'ensemble de commandes tels qu'ils s'affichent sur l'écran d'affichage lorsqu'on parcourt la structure de la figure 3, - les figures 5(a), 5(b) et 5(c) illustrent une première variante de séquence temporelle de symboles de commandes ou d'ensemble de commandes tels qu'ils s'affichent lorsqu'on parcourt une pile, tandis que les 30 figures 5(a), 5(b), 5(d) et 5(e) illustrent une seconde variante de cette séquence temporelle, - la figure 6 présente une pile de commandes ou d'ensembles de commandes avec les conditions de position et de distance permettant d'accéder aux éléments, selon une première variante illustrée à la figure 6(a) 35 et correspondant aux figures 5(a), 5(b) et 5(c), et selon une seconde variante 2971066 -9- illustrée à la figure 6(b) et correspondant aux figures 5(a), 5(b), 5(d) et 5(e), respectivement, - la figure 7 présente illustre une séquence de commande de déplacement, avec, figure 7(a) la sélection de la commande, figure 7(b) la validation de la 5 commande et figure 7(c) une rotation du symbole. On va décrite un mode de réalisation de l'invention mettant en oeuvre une interface homme-machine (IHM) qui comprend des capteurs capacitifs. Bien entendu, ce mode de réalisation est un exemple nullement limitatif de mise en oeuvre de l'invention. Une telle interface est par exemple bien 10 adaptée à la réalisation d'une interface homme machine (IHM) pour un système hôte tel qu'un téléphone portable, un smartphone, une tablette ou un ordinateur. En référence à la figure 1, l'interface comprend : - un écran d'affichage 2, basé, de manière non limitative, sur une 15 technologie à cristaux liquides, LCD, TFT (« Thin-film transistor» en anglais ou transistor couches minces), ou OLED (« Organic Light-Emitting Diode » en anglais ou diode électroluminescente organique) ; - une interface de commande 1 comprenant une surface de détection sensiblement transparente équipée de capteurs capacitifs 6 également 20 sensiblement transparents et aptes à détecter la présence d'au moins un objet de contrôle 3 tel qu'une main, un doigt ou un stylet. Les capteurs 6 fournissent des informations relatives à la distance 4 selon l'axe Z entre l'objet 3 et la surface de détection de l'interface 1, et des informations relatives à la position 5 dans le plan (X, Y) d'une projection selon 25 l'axe Z de l'objet 3 sur la l'interface de commande 1. Ils sont également en mesure de détecter un contact entre l'objet de commande 3 et la surface de détection de l'interface 1. Les informations relatives à la distance 4 et à la position 5 comprennent des mesures de distance 4 et de position 5 équivalentes. Ces mesures, pas 30 nécessairement exprimés en unités de longueur, sont des traductions de mesures de capacités ou de variations de capacités. En particulier, des caractéristiques physiques de l'objet de commande 3 peuvent affecter les capacités mesurées et donc leur traduction en termes de distance et/ou de positions équivalentes. 2971066 -10- Les informations relatives à la distance 4 et à la position 5 peuvent également comprendre des trajectoires, définies comme des séquences temporelles de distances 4 et/ou de positions 5, et des grandeurs dérivées telles que des vitesses et des accélérations. 5 Les capteurs 6 comprennent des électrodes capacitives à base d'ITO (Oxyde d'indium-étain). Suivant les applications, elles peuvent être d'un nombre et d'une disposition variée, la figure 1 n'ayant qu'une vocation d'illustration. Les électrodes capacitives des capteurs 6 sont reliées à une électronique 10 de mesure 7 qui permet de calculer la distance 4 et la position 5. Il existe plusieurs modes de réalisation possibles pour les capteurs capacitifs 6 et l'électronique de mesure 7. Avantageusement, les capteurs 6 et l'électronique 7 sont réalisés selon un mode décrit dans le document FR 2 844 349 de Rozière. Ils comprennent 15 une pluralité d'électrodes 6 indépendantes réparties sur la surface de l'interface 1. Ces électrodes 6 sont reliées à une électronique 7 de détection flottante ou en d'autres termes référencées à un potentiel électrique flottant. Une électrode de garde, également au potentiel de référence flottant est placée selon la face arrière des électrodes de mesure 6, entre elles et l'écran 20 d'affichage 2, de telle sorte à éliminer toute capacité parasite. Toutes les électrodes sont au même potentiel et il n'y a ainsi aucune capacité de couplage entre les électrodes susceptible de dégrader la mesure de la capacité. Cette électronique de détection 7 et ses modes d'implémentations utilisables dans le cadre de la présente invention sont également décrits en 25 détail dans le document FR 2 756 048 de Rozière auquel le lecteur est invité à se référer. Des scrutateurs permettent de mesurer séquentiellement la capacité et donc la distance entre les électrodes 6 et l'objet de commande 3. Les électrodes 6 qui ne sont pas « interrogées » sont également maintenues au 30 potentiel de la garde, toujours pour éliminer les capacités parasites. Qu'il s'agisse d'un ordinateur, d'un téléphone portable, d'une tablette ou de tout autre système, le système hôte comprend également des moyens de calcul informatiques 8. Ces moyens de calcul 8 comprennent de manière habituelle un microprocesseur (CPU« Central processing Unit » en anglais) 35 associé à des composants tels que des mémoires vives (RAM), des moyens de 2971066 -11- stockage de masse (disque dur, mémoire flash, ...), et permettent d'exécuter un (ou une pluralité) de programme(s) d'ordinateur ou de logiciels. Une partie de ces logiciels, appelée également interface logicielle, est dédiée aux tâches de gestion de l'IHM. Cette interface logicielle contribue à 5 réaliser les étapes du procédé selon l'invention, qui comprennent : - des étapes d'obtention d'information (ou de mesure) de distance 4 et de position 5 fournies par les capteurs 6 et leur électronique de mesure 7, - des étapes de mise à jour de l'affichage 2 à partir des informations des capteurs 6 et d'informations du système hôte (le téléphone, l'ordinateur, ...), 10 - des étapes de transmission de commandes de l'utilisateur au système hôte. L'interface homme machine logicielle (IHM logicielle) correspond à ce que l'utilisateur voit sur l'affichage 2. Il interagit avec cette IHM logicielle en utilisant un ou des objets de commande 3 tels que ses doigts, un stylet, .... 15 De manière classique, l'IHM logicielle comprend une représentation sous forme graphique, symbolique, du système hôte et/ou des actions possibles : - exécutions de logiciels, d'applications, de tâches en interaction avec les composantes matérielles et/ou logicielles du système hôte, - visualisation, reproduction, copie, déplacement, manipulations de 20 données représentées sous forme graphique ou au moyen de symboles, ... On peut appeler sans perte de généralité toutes les actions qu'un utilisateur peut effectuer par l'intermédiaire de l'objet de commande 3 et de l'IHM logicielle des commandes. Ces commandes sont représentées graphiquement sur l'affichage 2 par 25 des symboles tels que des icônes avec lesquels l'utilisateur peut interagir au moyen de l'objet de commande 3. Un enjeu important dans la conception des IHM réside dans l'organisation et la structuration de la représentation des commandes pour que l'utilisateur puisse aisément les trouver et les sélectionner, en se 30 déplaçant ou en « naviguant » dans l'interface. Les commandes peuvent être organisées selon des structures hiérarchisées de nature tridimensionnelle, qui représentent des ensembles de commandes et parmi lesquelles on distingue en particulier : 2971066 -12- - des structures arborescentes ou arborescences de dossiers dans lesquelles chaque dossier comprend un ensemble de commandes et/ou de sous-dossiers, - des structures empilées ou piles (en anglais « stack ») dans lesquelles 5 des commandes et/ou des ensembles de commandes sont représentés par des symboles (ou icônes) qui donnent l'apparence d'être empilés. Les IHM de l'art antérieur sont basées essentiellement sur une navigation de type bidimensionnelle, qui ne prend en compte que la position 5 de l'objet de commande 3 pour sélectionner les commandes, qu'il s'agisse du 10 curseur d'une souris (survol ou click), d'un contact physique entre un objet 3 et la surface de détection de l'interface 1 (tapotement) ou même d'un survol de la surface de détection de l'interface 1. Ainsi, même la navigation dans des structures de nature tridimensionnelle est en fait ramenée à une suite d'actions dans le plan : Il faut par exemple tapoter sur une icône pour ouvrir 15 un dossier et en visualiser le contenu ou visualiser des commandes empilées, c'est-à-dire accéder à un niveau hiérarchique (ou topologique) différent. Avantageusement, le procédé selon l'invention permet de naviguer de manière réellement tridimensionnelle dans une IHM en exploitant les mesures de distances 4. Il permet en particulier d'accéder aux différentes couches 20 hiérarchiques (ou topologiques) d'un ensemble de commandes arrangées selon une structure de nature tridimensionnelle en faisant varier la distance 4 entre l'objet de commande 3 et la surface de détection de l'interface 1. Cet « accès » est visualisé sur l'affichage 2 en affichant les symboles (ou icônes) représentant une commande ou un ensemble de commandes du niveau 25 hiérarchiques (ou topologiques) sélectionné en fonction de la distance 4. La navigation est dite tridimensionnelle dans la mesure où il est possible en utilisant l'information de distance 4 de parcourir des niveaux hiérarchiques ou topologiques d'une structure de commandes et/ou de groupes de commandes pour laquelle des niveaux peuvent être représentés sur 30 l'affichage 2 par un ou une pluralité de symboles. Il est en outre possible de naviguer dans une structure hiérarchique de commandes particulière parmi une pluralité de telles structures de commandes visualisées sur l'affichage, sans affecter les autres, en exploitant la mesure de position 5. En effet, on prévoit que seule une structure de 35 commandes dont le symbole graphique est survolé par l'objet de commande 3 2971066 -13- (donc pour laquelle la position 5 est dans le voisinage ou sur son symbole graphique) « voit » son affichage modifié en fonction du niveau hiérarchique correspondant à la distance 4. Une fois visualisée, une commande peut être sélectionnée par sélection 5 de son symbole représentatif sur l'IHM. Cette sélection peut être effectuée notamment en vue de son exécution, ou pour déplacer le symbole la représentant sur l'affichage 2 (auquel cas la commande en question comprend le déplacement du symbole sur l'affichage). La sélection d'une commande comprend la vérification d'au moins une 10 condition de sélection, ou en d'autres termes, la sélection d'une commande est validée lorsqu'une ou plusieurs conditions de sélection (ou séquences temporelles de conditions de sélection) sont satisfaites. Diverses conditions de sélection peuvent être mises en oeuvre, y compris au sein d'une même IHM. Des conditions de sélection différentes peuvent être implémentées pour 15 permettre l'exécution de commandes différentes éventuellement attachées ou représentées par un même symbole sur l'affichage 2. Ces commandes peuvent par exemple concerner l'exécution d'une application représentée par une icône, et le déplacement de cette icône. Parmi les conditions de sélection applicables dans le cadre de l'invention, 20 on distingue en particulier les conditions de sélection suivantes : - la distance 4 de l'objet de commande 3 est inférieure à une distance de sélection prédéterminée, - l'objet de commande 3 est en contact avec la surface de l'interface de commande 1. 25 Ces conditions de sélection basées sur une détection de distance 4 minimale ou inférieure à un seuil peuvent être utilisées sans générer d'ambigüité par rapport aux tâches de sélection de commandes car une commande n'a pas de niveau hiérarchique ou topologique inférieur (du moins dans l'application dans laquelle on sélectionne cette commande). Pour limiter 30 encore les risques d'ambigüités, on peut faire en sorte d'afficher le symbole correspondant de manière à ce qu'il ne recouvre pas des symboles correspondant à des groupes de commandes de la même structure hiérarchique (au moins), et utiliser la mesure de position 5 pour déterminer la commande sélectionnée. -14- Ces conditions de sélection peuvent être implémentées en rajoutant une condition sur la durée (une durée minimale prédéterminée) pour limiter les risques de fausses commandes. On peut également implémenter des conditions de sélection basées sur 5 des trajectoires, telles que : - l'objet de commande 3 effectue un aller-retour rapide en distance 4, c'est-à-dire par exemple un aller retour dans une plage (ou une différence) de distances 4 inférieure à une distance prédéterminée pendant une durée inférieure à une durée prédéterminée. 10 Une condition de ce type correspond à un « clic » virtuel, puisqu'effectué sans contact. Comme précédemment, on utilise la mesure de position 5 pour déterminer la commande sélectionnée. On peut enfin implémenter des conditions de sélection basées sur des trajectoires de plusieurs objets de commande, telles que : 15 - au moins deux objets de commandes effectuent un mouvement convergent en position vers une position 5 correspondant au symbole de la commande, selon qu'un mouvement de saisie ou de pincement. Une condition de sélection peut être également être utilisée comme condition de désélection ou de validation, notamment pour « relâcher » un 20 objet lorsque la commande concerne une manipulation ou un déplacement d'un symbole sur l'affichage 2. On peut également prévoir des conditions de validation ou de désélection spécifiques tel que par exemple un mouvement divergent, d'ouverture, de plusieurs objets de commande 3. Ainsi, le déplacement d'un symbole sur 25 l'affichage 2 en utilisant comme objets de commande 3 deux doigts peut être obtenu par une séquence de pincement (sélection), déplacement (le symbole sélectionné suit les doigts), et ouverture des doigts (désélection). Pour aider l'utilisateur dans sa navigation, la position 5 et la distance 4 de l'objet de commande 3 peuvent être visualisés sur l'écran d'affichage 2 au 30 moyen d'un motif circulaire centré sur la position 5 et d'un diamètre dépendant de la distance 4, ou de tout autre motif. On va décrire une implémentation du procédé selon l'invention pour parcourir des structures de commandes de type arborescence de dossiers. 2971066 -15- Cette arborescence comprend des groupes de commandes ou dossiers représentés par le symbole ou l'icône 10, et des commandes représentées par le symbole ou l'icône 11 sur l'écran d'affichage 2. En référence à la figure 2, pour simplifier les explications on définit quatre zones P1, P2, P3, P4 correspondant à quatre positions 5 sur la surface de détection de l'interface 1 et sur l'écran d'affichage 2 placé au dessous. On assimile également l'objet de commande 3 au doigt 3 d'un utilisateur. En référence à la figure 3, on définit pour l'exemple quatre structures de commandes dont le premier niveau hiérarchique, soit respectivement les ensembles de commandes D11, D12, D13 et D14, est accessible lorsque l'objet de commande 3 se trouve à des distances 4 comprises entre H1 et H2. On définit également les ensembles de commandes D21, D22, D23 et la commande C24 qui sont inclus dans D12 et appartiennent à un second niveau hiérarchique accessible lorsque l'objet de commande 3 se trouve à des distances 4 comprises entre H2 et H3. Les flèches 12 illustrent le trajet du doigt 3 dans l'espace des distances 4 (H1, H2, H3) et des positions 5 (P1, ...P4) correspondant à l'exemple ci-dessous. En référence à la figure 4, on va illustrer le processus de sélection de la 20 commande C24 sur l'affichage 2. Dans un premier temps, comme illustré à la figure 4(a), le doigt 3 se trouve à une distance 4 supérieure à H1 et aucun ensemble de commande n'est sélectionné sur l'écran d'affichage 2. L'utilisateur abaisse ensuite son doigt 3 à une distance 4 comprise entre 25 H1 et H2. Lorsque son doigt survole la position P2, l'ensemble de commandes D12 est mis en évidence. Pour cela le symbole ou l'icône correspondante est par exemple mis en surbrillance, ou différencié graphiquement des autres au moyen d'un changement de couleur ou de taille, ou réaffiché de manière différente et décalée pour être visible au-delà du doigt 3. La situation est 30 illustrée à la figure 4(b). En abaissant son doigt 3 au dessus de la position P2 à une distance 4 comprise entre H2 et H3, l'utilisateur accède au contenu de D12. Les ensembles de commandes correspondants D21, D22, D23 et la commande C24 sont affichés, conformément à la figure 4(c). 2971066 -16- L'utilisateur peut alors déplacer son doigt 3 en P4 pour mettre la commande C24 en surbrillance comme illustré à la figure 4(d) et, en effectuant une manoeuvre telle qu'abaisser son doigt à une distance 4 inférieure à H3, ou tapoter la surface de détection de l'interface 1, ou encore 5 effectuer un clic virtuel (un aller-retour rapide du doigt 3 vers la surface de l'interface 1), sélectionner la commande C24 pour qu'elle soit exécutée. L'affichage d'un nouveau niveau hiérarchique peut remplacer celui du niveau précédent pour conserver une bonne lisibilité, par exemple sur un petit écran 2. Il est également possible d'afficher le contenu d'un niveau 10 hiérarchique inférieur à proximité du symbole du groupe de commandes de niveau hiérarchique supérieur sélectionné. Suivant un mode d'implémentation, le symbole représentatif d'un groupe de commande (ou son icône) peut comprendre une représentation des symboles des éléments ou commandes qu'il inclut (donc une représentation 15 de leurs icônes réduites), et l'affichage des icônes du contenu peut être effectué de telle sorte que l'utilisateur a l'impression de zoomer dans le contenu lorsqu'il accède au niveau hiérarchique de ce contenu. On va maintenant décrire une implémentation du procédé selon l'invention pour parcourir des structures de commandes de type empilement 20 de commandes ou piles. En référence aux figures 5 et 6, des commandes peuvent être rassemblées sur l'écran d'affichage 2 sous la forme d'une pile 21 qui regroupe des commandes 11 et/ou des ensembles de commandes 10. Par souci de clarté, la figure 5 illustre un cas où il n'y a qu'une pile 21 de commandes 11 25 visible initialement sur l'affichage 2. Dans un premier temps, comme illustré à la figure 5(a), le doigt 3 se trouve à une distance 4 supérieure à une distance H1 et aucune commande ou ensemble de commande n'est sélectionné. L'utilisateur abaisse ensuite son doigt 3 à une distance 4 comprise entre 30 des distances H1 et H2 telles qu'illustrées aux figures 6(a) et 6(b). Lorsque son doigt passe à proximité de la position P1, la pile 21 est mise en évidence (par exemple en surbrillance ou selon les autres modes décrits précédemment). La situation est illustrée à la figure 5(b). Ensuite deux variantes sont possibles. 2971066 -17- Selon une première variante illustrée à la figure 5(c) et à la figure 6(a), en abaissant son doigt 3 au dessus de la position P1 à une distance 4 comprise entre H2 et H3, l'utilisateur visualise la première commande Cl de la pile, dont le symbole est sensiblement superposé à cette pile 21. 5 Puis, en abaissant son doigt 3 au dessus de la position P1 à une distance 4 comprise entre H3 et H4, il visualise la seconde commande C2 de la pile, et ainsi de suite. Les flèches 22 à la figure 6(a) illustrent le trajet du doigt 3 dans l'espace des distances 4 (H1, ... H4) et des positions 5 (P1, P2) correspondant à cette 10 variante. Cette variante est bien adaptée par exemple à la visualisation d'images, auquel cas le symbole est l'image et la commande simplement sa visualisation. Selon une seconde variante illustrée aux figures 5(d), 5(e) et à la figure 15 6(b), en abaissant son doigt 3 au dessus de la position P1 à une distance 4 comprise entre H2 et H3, l'utilisateur visualise la première commande Cl de la pile, dont le symbole est affiché à une position différente de P1, par exemple P2. On obtient ainsi l'affichage de la figure 5(d). Si l'utilisateur continue à abaisser son doigt 3 au dessus de la position P1 20 à une distance 4 comprise entre H3 et H4, il visualise en P2 la seconde commande C2 de la pile, et ainsi de suite. Dans cette variante, l'utilisateur peut mettre en surbrillance une commande visualisée en vue de la sélectionner en déplaçant son doigt 3 en position P2. La situation est illustrée à la figure 5(e) avec la sélection de C2. 25 Les flèches 23 à la figure 6(b) illustrent le trajet du doigt 3 dans l'espace des distances 4 (H1, ... H4) et des positions 5 (P1, P2) correspondant à cette variante. Comme on l'a dit précédemment, la pile 21 peut comprendre des commandes 11 et/ou des ensembles de commandes 10. Une fois qu'une 30 commande 11 ou un ensemble de commande 10 est mis en surbrillance, on peut la sélectionner ou naviguer dans son arborescence de la même manière que décrit précédemment en relation avec les figures 3 et 4. Les seuils de distance 4 peuvent être gérés de la manière suivante, étant entendu que plusieurs modes de gestion de ces seuils peuvent être 2971066 -18- implémentés en fonction des structures de commandes considérées, et/ou de choix que l'utilisateur peut faire via un menu de configuration : - un premier seuil de distance H1 permettant de sélectionner une structure de commande particulière est défini comme correspondant à une distance 4 5 prédéterminée, - lorsqu'une structure de commandes ou une pile 21 est sélectionnée, les intervalles de distance entre des seuils successifs H1, H2, H3, ... sont calculés en prenant en compte le nombre de niveaux hiérarchique de la structure ou du nombre d'éléments 10, 11 de la pile 21, de telle sorte à permettre de tous 10 les explorer en variant la hauteur 4 du doigt 3 jusqu'au contact avec la surface de détection de l'interface 1, - la sélection d'une commande est effectuée par un contact du doigt 3 avec la surface de détection de l'interface 1. En référence à la figure 7, on va maintenant décrire une implémentation 15 du procédé selon l'invention pour exécuter une commande de déplacement d'un symbole de commande 11 ou d'un symbole de groupe de commande 10, 21. Un symbole en particulier de commande 11 peut représenter plusieurs possibilités de commandes (d'exécution d'une application par exemple), ou uniquement une commande de déplacement (par exemple si le symbole représente une pièce d'un jeu affiché sur l'écran d'affichage 2. En cas de pluralité de commandes possibles, il suffit de définir des conditions de sélection différentes pour chacune d'elles pour éviter toute ambigüité.
Dans un premier temps, l'utilisateur approche deux doigts 3 (ou plus) de la surface de l'interface 2, jusqu'à une distance à laquelle les capteurs 6 sont en mesure de « distinguer » les doigts. Lorsque les doigts 3 sont détectés, et si leurs positions 5 correspondent sensiblement à celle du symbole 11 sur l'affichage 2, le symbole 11 est mis en évidence (par exemple en surbrillance). Suivant les dispositifs, il peut être nécessaire que les doigts 3 entrent en contact avec la surface de l'interface 2. Alternativement, l'utilisateur peut également parcourir une structure ou une pile de commandes pour comme expliqué précédemment pour parvenir à l'étape de mise en évidence du symbole 11. 2971066 -19- Ensuite, l'utilisateur sélectionne la commande de déplacement du symbole de commande 11 en effectuant un mouvement de pincement 30 ou de rapprochement des doigts 3 comme illustré à la figure 3(a). Ce mouvement correspond, du point de vue de la mesure, à un rapprochement 5 des positions 5 qui est la condition de sélection choisie. Le symbole 11 peut être déplacé en déplaçant les doigts 3, dont il suit la position. La validation de la commande, et donc le positionnement du symbole 11 à une position d'arrivée, est effectué en écartant les doigts 3 comme illustré à 10 la figure 7(b). Ce mouvement d'écartement 31 correspond, du point de vue de la mesure, à un éloignement des positions 5 qui est la condition de validation choisie. Il est également possible, comme illustré à la figure 7(c), de faire tourner le symbole 11 en effectuant un mouvement de rotation 32 avec les 15 doigts 3. Si la distance 4 des doigts 3 est augmentée au-delà d'une certaine limite pendant le déplacement, on peut prévoir en fonction des applications, que le symbole 11 se fige, change d'aspect, disparaît ou revient à sa position de départ. Une augmentation la distance 4 au-delà d'une certaine limite peut 20 également être utilisée comme une condition de désélection de la commande de déplacement sans la valider, avec un retour du symbole 11 à sa position de départ. Ce mode de contrôle de commandes de déplacement peut permettre par exemple d'implémenter de manière ludique des jeux de damier (échecs, 25 dames, ...). Suivant des variantes de modes de réalisation : - Les capteurs capacitifs et leur électronique de détection associée peuvent être réalisés selon toutes dispositions. En particulier, ils peuvent comprendre des électrodes croisées (par exemple disposées en lignes et en colonnes), et 30 permettre des mesures de capacités directes (c'est-à-dire des mesures de capacités entre les électrodes 6 et l'objet 3), et/ou des mesures de capacités de couplage (c'est-à-dire des mesures de capacités entre des électrodes émettrices et des électrodes réceptrices, perturbées par la présence de l'objet 3). De tels modes de réalisation sont par exemple bien adaptés à des 2971066 -20- interfaces 1 de grande dimension couvrant des écrans d'affichage 2 d'ordinateurs ; - Le procédé selon l'invention est applicable à la sélection de commandes dans toutes structures de commandes ou de groupes de commandes pour 5 lesquels il est possible en utilisant l'information de distance 4 de parcourir des niveaux hiérarchiques ou topologiques, et de représenter ces niveaux sur l'affichage 2 au moyen d'un ou plusieurs symboles ou icônes ; - La navigation dans les niveaux hiérarchiques ou topologiques des structures de commandes peut dépendre de distance(s) 4 et/ou de position(s) 10 5, ainsi que de toutes informations relatives à ces grandeurs telles que des vitesses et des accélérations. Par exemple, la vitesse de déplacement en distance 4 d'un objet de commande 3 peut être prise en compte pour parcourir plus rapidement une pile ou une autre structure de commandes, en ne visualisant qu'un élément sur n ; 15 - Les intervalles entre les distances 4 de seuil (H1, ...) peuvent être déterminés de toutes manières. En particulier ils peuvent être fixes, prédéfinis, ajustés en fonction du nombre de niveau d'une structure de commandes visualisée pour que la totalité d'une structure puisse toujours être parcourue dans le même intervalle global de distances 4, variables dans une 20 gamme limitée, etc. ; - Afin d'économiser l'énergie, en particulier pour des appareils nomades, on peut prévoir une temporisation qui éteint l'écran 2 après une période d'inactivité. L'écran 2 est alors réactivé par exemple lorsqu'un objet de commande 3 apparaît à une distance 4 inférieure à une distance d'activation, 25 ou simplement lorsqu'un objet est détecté par les capteurs 6. Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention.
Claims (17)
- REVENDICATIONS1. Procédé pour sélectionner des commandes, mettant en oeuvre une interface de commande (1), un affichage (2) et au moins un capteur (6) apte à détecter au moins un objet de commande (3), comprenant des étapes : - d'obtention d'informations de distance (4) entre ledit ou lesdits objet(s) de commande (3) et ladite interface de commande (1) au moyen du ou desdits capteur(s) (6), - d'affichage sur ledit affichage (2) d'au moins un symbole (10, 11, 21) représentant une commande ou un ensemble de commandes selon un mode d'affichage, caractérisé en ce qu'il comprend en outre une étape d'utilisation desdites informations de distance (4) pour déterminer ledit mode d'affichage du ou des 15 symbole(s) (10, 11, 21).
- 2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend en outre des étapes : - d'obtention d'informations de position (5) d'au moins un objet de 20 commande (3) par rapport à l'interface de commande (1) au moyen du ou des capteur(s) (6), - d'utilisation desdites informations de position (5) pour déterminer le mode d'affichage du ou des symbole(s) (10, 11, 21) affiché(s). 25
- 3. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend en outre une étape d'utilisation d'au moins l'un des ensembles d'informations suivants : informations de distance (4), informations de distance (4) et de position (5), pour déterminer le ou les symbole(s) (10, 11, 21) affiché(s). 30
- 4. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il met en oeuvre au moins l'un des types de mesures suivantes : - mesures d'interactions capacitives entre un objet de commande (3) et le ou des capteur(s) (6), 2971066 -22- - mesures de variations d'intensité lumineuse dues à la présence d'un objet de commande (3).
- 5. Procédé selon l'une des revendications précédentes, caractérisé en ce 5 qu'il comprend en outre des étapes : - d'affichage d'un premier symbole (10, 21) représentant un premier ensemble de commandes, - d'affichage, lorsque la distance d'un objet de commande (3) est inférieure à une distance de seuil (H2, H3, ...), d'au moins un second symbole 10 (10, 11) représentant une commande ou un ensemble de commandes inclus(s) dans ledit premier ensemble de commandes (10, 21).
- 6. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend en outre des étapes : - d'affichage d'un premier symbole (10, 11) représentant une première commande ou un premier ensemble de commandes, - d'affichage, lorsque la distance d'un objet de commande est inférieure à une distance de seuil (H2, H3, ...), d'un second symbole (10, 11) représentant une seconde commande ou un second ensemble de commandes.
- 7. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend en outre une étape de sélection d'une commande, comprenant une étape de vérification d'au moins une condition de sélection basée sur un ensemble d'informations parmi : des informations de distance (4), des informations de distance (4) et de position (5).
- 8. Procédé selon la revendication 7, caractérisé en ce qu'il comprend en outre une étape de vérification d'au moins une condition de sélection parmi les conditions de sélection suivantes : - la distance (4) de l'objet de commande (3) est inférieure à une distance de sélection prédéterminée, - la distance (4) de l'objet de commande (3) est inférieure à une distance de sélection prédéterminée pendant une durée minimale prédéterminée, - l'objet de commande (3) est en contact avec la surface (1) de l'interface de commande, 2971066 -23- - l'objet de commande effectue un aller-retour rapide en distance (4), - au moins deux objets de commandes effectuent un mouvement convergent en position (5) vers une position (5) prédéterminée. 5
- 9. Procédé selon l'une des revendications 7 ou 8, caractérisé en ce qu'il comprend en outre une étape d'exécution d'une commande de l'un des types suivants : exécution d'un programme d'ordinateur, exécution d'une application, affichage du contenu d'un dossier stocké sur un moyen de stockage informatique, affichage d'une image, exécution d'un son, lecture 10 d'un contenu multimédia.
- 10. Procédé selon l'une des revendications 7 ou 8, caractérisé en ce qu'il comprend en outre une étape d'exécution d'une commande de déplacement d'un symbole (10, 11, 21), laquelle comprenant : 15 - une étape d'affichage dudit symbole (10, 11, 21) selon une position représentative d'une position (5) d'un objet de commande (3) ou d'un ensemble d'objets de commande (3), - une étape de validation du déplacement dudit symbole (10, 11, 21) comprenant une étape de vérification d'au moins une condition de validation 20 basée sur un ensemble d'informations parmi : des informations de distance (4), des informations de distance (4) et de position (5).
- 11. Procédé selon la revendication 10, caractérisé en ce qu'il comprend en outre une étape de vérification d'au moins une condition de validation parmi 25 les conditions de validation suivantes : - la distance (4) de l'objet de commande (3) est inférieure à une distance de sélection prédéterminée, - la distance (4) de l'objet de commande (3) est inférieure à une distance de sélection prédéterminée pendant une durée minimale prédéterminée, 30 - l'objet de commande (3) est en contact avec la surface (1) de l'interface de commande, - l'objet de commande effectue un aller-retour rapide en distance (4), - au moins deux objets de commandes effectuent un mouvement divergent en position (5) autour d'une position (5) prédéterminée. 35 2971066 -24-
- 12. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend en outre une étape d'affichage de symboles (10, 11, 21) sous la forme d'icones. 5
- 13. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend en outre une étape d'activation de l'affichage (2) lorsque la distance (4) de l'objet de commande (3) est inférieure à une distance d'activation prédéterminée. 10
- 14. Dispositif pour sélectionner des commandes, comprenant : - une interface de commande (1), - un affichage (2), - au moins un capteur (6) apte à détecter un objet de commande (3), - des moyens électroniques et de calcul (7) aptes à produire au moyen du 15 ou desdits capteur(s) (6) des informations de distance (4) entre au moins un objet de commande (3) et ladite interface de commande (1), - des moyens de gestion (8) de l'affichage (2) aptes à produire un affichage d'au moins un symbole (10, 11, 21) représentant une commande ou un ensemble de commandes, 20 caractérisé en ce qu'il comprend en outre des moyens de calcul (8) aptes à traiter lesdites informations de distance (4) pour déterminer le ou des symbole(s) (10, 11, 21) affiché(s).
- 15. Dispositif selon la revendication 14, caractérisé en ce qu'il comprend en 25 outre : - des moyens (7) pour produire au moyen du ou des capteur(s) (6) des informations de position (5) d'au moins un objet de commande (3) par rapport à ladite interface de commande (1), - des moyens (8) pour traiter lesdites informations de position (5) pour 30 déterminer le ou des symbole(s) (10, 11, 21) affiché(s).
- 16. Dispositif selon l'une des revendications 14 ou 15, caractérisé en ce qu'il comprend en outre des capteurs d'au moins l'un des types suivants : - capteurs capacitifs (6), 35 - capteurs optiques. 2971066 -25-
- 17. Appareil de l'un des types suivants : ordinateur, téléphone, smartphone, tablette, écran d'affichage, borne, caractérisé en ce qu'il comprend un dispositif pour sélectionner des commandes selon l'une des revendications 14 5 à 16 et en ce qu'il met en oeuvre le procédé selon l'une quelconque des revendications 1 à 13.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1150726A FR2971066B1 (fr) | 2011-01-31 | 2011-01-31 | Interface homme-machine tridimensionnelle. |
PCT/FR2012/050183 WO2012104529A1 (fr) | 2011-01-31 | 2012-01-30 | Interface homme-machine tridimensionnelle |
EP12708880.5A EP2671146A1 (fr) | 2011-01-31 | 2012-01-30 | Interface homme-machine tridimensionnelle |
CN201280007164.6A CN103460175B (zh) | 2011-01-31 | 2012-01-30 | 三维人机界面 |
US13/982,791 US10303266B2 (en) | 2011-01-31 | 2012-01-30 | Three-dimensional man/machine interface |
CN201810965827.4A CN109240587B (zh) | 2011-01-31 | 2012-01-30 | 三维人机界面 |
US16/398,321 US11175749B2 (en) | 2011-01-31 | 2019-04-30 | Three-dimensional man/machine interface |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1150726A FR2971066B1 (fr) | 2011-01-31 | 2011-01-31 | Interface homme-machine tridimensionnelle. |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2971066A1 true FR2971066A1 (fr) | 2012-08-03 |
FR2971066B1 FR2971066B1 (fr) | 2013-08-23 |
Family
ID=44501813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1150726A Active FR2971066B1 (fr) | 2011-01-31 | 2011-01-31 | Interface homme-machine tridimensionnelle. |
Country Status (5)
Country | Link |
---|---|
US (2) | US10303266B2 (fr) |
EP (1) | EP2671146A1 (fr) |
CN (2) | CN103460175B (fr) |
FR (1) | FR2971066B1 (fr) |
WO (1) | WO2012104529A1 (fr) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014161775A1 (fr) | 2013-04-02 | 2014-10-09 | Fogale Nanotech | Dispositif pour interagir, sans contact, avec un appareil électronique et/ou informatique, et appareil équipé d'un tel dispositif |
WO2015007781A1 (fr) | 2013-07-18 | 2015-01-22 | Fogale Nanotech | Dispositif accessoire garde pour un appareil electronique et/ou informatique, et appareil equipe d'un tel dispositif accessoire |
WO2015074925A1 (fr) | 2013-11-19 | 2015-05-28 | Fogale Nanotech | Dispositif accessoire couvrant pour un appareil portable electronique et/ou informatique, et appareil equipe d'un tel dispositif accessoire |
WO2015121303A1 (fr) | 2014-02-12 | 2015-08-20 | Fogale Nanotech | Procede de saisie sur un clavier numerique, interface homme machine et appareil mettant en oeuvre un tel procede |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7920129B2 (en) | 2007-01-03 | 2011-04-05 | Apple Inc. | Double-sided touch-sensitive panel with shield and drive combined layer |
FR2949007B1 (fr) | 2009-08-07 | 2012-06-08 | Nanotec Solution | Dispositif et procede d'interface de commande sensible a un mouvement d'un corps ou d'un objet et equipement de commande integrant ce dispositif. |
FR2971066B1 (fr) | 2011-01-31 | 2013-08-23 | Nanotec Solution | Interface homme-machine tridimensionnelle. |
FR2976688B1 (fr) | 2011-06-16 | 2021-04-23 | Nanotec Solution | Dispositif et procede pour generer une alimentation electrique dans un systeme electronique avec un potentiel de reference variable. |
US9259904B2 (en) | 2011-10-20 | 2016-02-16 | Apple Inc. | Opaque thin film passivation |
FR2985048B1 (fr) | 2011-12-21 | 2014-08-15 | Nanotec Solution | Dispositif et procede de mesure capacitive sensible a la pression pour interfaces tactiles et sans contact |
FR2985049B1 (fr) | 2011-12-22 | 2014-01-31 | Nanotec Solution | Dispositif de mesure capacitive a electrodes commutees pour interfaces tactiles et sans contact |
FR2988175B1 (fr) | 2012-03-13 | 2014-04-11 | Nanotec Solution | Procede de mesure capacitive par des electrodes non-regulieres, et appareil mettant en œuvre un tel procede |
FR2988176B1 (fr) | 2012-03-13 | 2014-11-21 | Nanotec Solution | Procede de mesure capacitive entre un objet et un plan d’electrodes par demodulation synchrone partielle |
FR3002052B1 (fr) | 2013-02-14 | 2016-12-09 | Fogale Nanotech | Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation |
CN104077013B (zh) * | 2013-03-28 | 2019-02-05 | 联想(北京)有限公司 | 指令识别方法和电子设备 |
FR3004551A1 (fr) | 2013-04-15 | 2014-10-17 | Fogale Nanotech | Procede de detection capacitif multizone, dispositif et appareil mettant en oeuvre le procede |
FR3005763B1 (fr) | 2013-05-17 | 2016-10-14 | Fogale Nanotech | Dispositif et procede d'interface de commande capacitive adapte a la mise en œuvre d'electrodes de mesures fortement resistives |
FR3017723B1 (fr) | 2014-02-19 | 2017-07-21 | Fogale Nanotech | Procede d'interaction homme-machine par combinaison de commandes tactiles et sans contact |
KR101628246B1 (ko) * | 2014-02-24 | 2016-06-08 | 삼성전자주식회사 | 컨텐츠 표시 방법 및 장치 |
FR3019320B1 (fr) | 2014-03-28 | 2017-12-15 | Fogale Nanotech | Dispositif electronique de type montre-bracelet avec interface de commande sans contact et procede de controle d'un tel dispositif |
US10719132B2 (en) * | 2014-06-19 | 2020-07-21 | Samsung Electronics Co., Ltd. | Device and method of controlling device |
FR3025623B1 (fr) | 2014-09-05 | 2017-12-15 | Fogale Nanotech | Dispositif d'interface de commande et capteur d'empreintes digitales |
FR3028061B1 (fr) | 2014-10-29 | 2016-12-30 | Fogale Nanotech | Dispositif capteur capacitif comprenant des electrodes ajourees |
FR3032287B1 (fr) | 2015-02-04 | 2018-03-09 | Quickstep Technologies Llc | Dispositif de detection capacitif multicouches, et appareil comprenant le dispositif |
FR3033203B1 (fr) | 2015-02-27 | 2018-03-23 | Quickstep Technologies Llc | Procede pour interagir avec un appareil electronique et/ou informatique mettant en œuvre une surface de commande capacitive et une surface peripherique, interface et appareil mettant en œuvre ce procede |
US9996222B2 (en) * | 2015-09-18 | 2018-06-12 | Samsung Electronics Co., Ltd. | Automatic deep view card stacking |
US20180004385A1 (en) | 2016-06-30 | 2018-01-04 | Futurewei Technologies, Inc. | Software defined icon interactions with multiple and expandable layers |
WO2018057969A1 (fr) | 2016-09-23 | 2018-03-29 | Apple Inc. | Panneau de capteur tactile à blindage supérieur et/ou inférieur |
US10372282B2 (en) | 2016-12-01 | 2019-08-06 | Apple Inc. | Capacitive coupling reduction in touch sensor panels |
US10798397B2 (en) * | 2019-01-02 | 2020-10-06 | Tencent America LLC | Method and apparatus for video coding |
WO2021117446A1 (fr) * | 2019-12-13 | 2021-06-17 | アルプスアルパイン株式会社 | Dispositif d'entrée |
EP3846003A1 (fr) | 2019-12-30 | 2021-07-07 | Dassault Systèmes | Sélection d'une face à l'aide d'un geste immersif dans la modélisation 3d |
EP3846064A1 (fr) * | 2019-12-30 | 2021-07-07 | Dassault Systèmes | Sélection d'un vertex avec un geste immersif en modélisation 3d |
EP3846004A1 (fr) | 2019-12-30 | 2021-07-07 | Dassault Systèmes | Sélection d'un bord avec un geste immersif en modélisation 3d |
CN113238788B (zh) * | 2021-05-14 | 2024-03-29 | 山东云海国创云计算装备产业创新中心有限公司 | 一种bios升级方法及相关装置 |
US11789561B2 (en) | 2021-09-24 | 2023-10-17 | Apple Inc. | Architecture for differential drive and sense touch technology |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006003590A2 (fr) * | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | Procede et dispositif empechant le maculage d'un dispositif d'affichage |
US20080309632A1 (en) * | 2007-06-13 | 2008-12-18 | Apple Inc. | Pinch-throw and translation gestures |
WO2009028892A2 (fr) * | 2007-08-30 | 2009-03-05 | Lg Electronics Inc. | Interface utilisateur pour dispositif mobile utilisant un geste d'utilisateur à proximité d'un dispositif électronique |
EP2166463A1 (fr) * | 2008-09-09 | 2010-03-24 | Samsung Electronics Co., Ltd. | Procédé et dispositif pour la recherche et l'exécution de contenu utilisant un écran tactile |
Family Cites Families (218)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4549279A (en) | 1983-01-21 | 1985-10-22 | The Laitram Corporation | Single hand, single finger stroke alphameric data processing keyboard system |
JPS63167923A (ja) | 1987-01-05 | 1988-07-12 | Pfu Ltd | イメ−ジデ−タ入力装置 |
GB2204131B (en) | 1987-04-28 | 1991-04-17 | Ibm | Graphics input tablet |
CA2011517C (fr) | 1989-05-15 | 1998-04-21 | Gordon W. Arbeitman | Table de travail a ecran tactile plat pour systeme de traitement de donnees |
JP3301079B2 (ja) | 1990-06-18 | 2002-07-15 | ソニー株式会社 | 情報入力装置、情報入力方法、情報処理装置及び情報処理方法 |
GB2245708A (en) | 1990-06-29 | 1992-01-08 | Philips Electronic Associated | Touch sensor array systems |
US5103085A (en) | 1990-09-05 | 1992-04-07 | Zimmerman Thomas G | Photoelectric proximity detector and switch |
US5347295A (en) | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5483261A (en) | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5488204A (en) | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
US5880411A (en) | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5270818A (en) | 1992-09-17 | 1993-12-14 | Alliedsignal Inc. | Arrangement for automatically controlling brightness of cockpit displays |
JP3469912B2 (ja) | 1992-11-18 | 2003-11-25 | 株式会社デジタル | 複数の同時入力が可能なタッチパネル入力装置及び入力方法 |
US5363051A (en) | 1992-11-23 | 1994-11-08 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Steering capaciflector sensor |
US5345550A (en) * | 1992-12-23 | 1994-09-06 | International Business Machines Corporation | User-modifiable popup menus for object oriented behavior |
JP2752309B2 (ja) | 1993-01-19 | 1998-05-18 | 松下電器産業株式会社 | 表示装置 |
US5572573A (en) | 1994-01-25 | 1996-11-05 | U S West Advanced Technologies, Inc. | Removable user interface for use with interactive electronic devices |
US6947571B1 (en) | 1999-05-19 | 2005-09-20 | Digimarc Corporation | Cell phones with optical capabilities, and related applications |
GB9406702D0 (en) | 1994-04-05 | 1994-05-25 | Binstead Ronald P | Multiple input proximity detector and touchpad system |
US9513744B2 (en) | 1994-08-15 | 2016-12-06 | Apple Inc. | Control systems employing novel physical controls and touch screens |
JP2739445B2 (ja) * | 1995-03-22 | 1998-04-15 | 株式会社エイ・ティ・アール通信システム研究所 | 把持目標物体推測装置およびそれを具備する人工現実感装置 |
US5760760A (en) | 1995-07-17 | 1998-06-02 | Dell Usa, L.P. | Intelligent LCD brightness control system |
EP0861485A1 (fr) | 1995-11-16 | 1998-09-02 | Michael J. Ure | Dispositif d'entree multi-effleurement, procede et systeme minimisant les besoins de memorisation |
US5730165A (en) | 1995-12-26 | 1998-03-24 | Philipp; Harald | Time domain capacitive field detector |
US5825352A (en) | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
US5835079A (en) | 1996-06-13 | 1998-11-10 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US6308144B1 (en) | 1996-09-26 | 2001-10-23 | Computervision Corporation | Method and apparatus for providing three-dimensional model associativity |
GB9620464D0 (en) | 1996-10-01 | 1996-11-20 | Philips Electronics Nv | Hand held image display device |
US5684294A (en) | 1996-10-17 | 1997-11-04 | Northern Telecom Ltd | Proximity and ambient light monitor |
FR2756048B1 (fr) | 1996-11-15 | 1999-02-12 | Nanotec Ingenierie | Pont de mesure capacitif flottant et systeme de mesure multi-capacitif associe |
US6253218B1 (en) * | 1996-12-26 | 2001-06-26 | Atsushi Aoki | Three dimensional data display method utilizing view point tracing and reduced document images |
US6105419A (en) | 1997-03-25 | 2000-08-22 | Recot, Inc. | Apparatus and process for inspecting sealed packages |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US6034803A (en) | 1997-04-30 | 2000-03-07 | K2 T, Inc. | Method and apparatus for directing energy based range detection sensor |
US6920619B1 (en) | 1997-08-28 | 2005-07-19 | Slavoljub Milekic | User interface for removing an object from a display |
GB2330670B (en) | 1997-10-24 | 2002-09-11 | Sony Uk Ltd | Data processing |
GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
US6310610B1 (en) | 1997-12-04 | 2001-10-30 | Nortel Networks Limited | Intelligent touch display |
US6037937A (en) | 1997-12-04 | 2000-03-14 | Nortel Networks Corporation | Navigation tool for graphical user interface |
KR100766627B1 (ko) | 1998-01-26 | 2007-10-15 | 핑거웍스, 인크. | 수동 입력 통합 방법 및 장치 |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US6380853B1 (en) | 1998-02-23 | 2002-04-30 | Marconi Commerce Systems Inc. | Customer-sensitive dispenser using proximity sensing devices |
US6313853B1 (en) | 1998-04-16 | 2001-11-06 | Nortel Networks Limited | Multi-service user interface |
US5956291A (en) | 1998-04-17 | 1999-09-21 | Ductech, Llc | Underwater diving assistant apparatus |
JP3646848B2 (ja) | 1998-04-28 | 2005-05-11 | 日本精機株式会社 | 表示装置 |
JP3792920B2 (ja) | 1998-12-25 | 2006-07-05 | 株式会社東海理化電機製作所 | タッチ操作入力装置 |
US6188391B1 (en) | 1998-07-09 | 2001-02-13 | Synaptics, Inc. | Two-layer capacitive touchpad and method of making same |
US7256770B2 (en) | 1998-09-14 | 2007-08-14 | Microsoft Corporation | Method for displaying information responsive to sensing a physical presence proximate to a computer input device |
JP4542637B2 (ja) | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
US6259436B1 (en) | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
US7293231B1 (en) | 1999-03-18 | 2007-11-06 | British Columbia Ltd. | Data entry for personal computing devices |
US7151528B2 (en) | 1999-06-22 | 2006-12-19 | Cirque Corporation | System for disposing a proximity sensitive touchpad behind a mobile phone keypad |
US20010031633A1 (en) | 1999-12-01 | 2001-10-18 | Nokia Mobile Phones Ltd. | Method and apparatus for providing context-based call transfer operation |
US6414674B1 (en) | 1999-12-17 | 2002-07-02 | International Business Machines Corporation | Data processing system and method including an I/O touch pad having dynamically alterable location indicators |
US7171221B1 (en) | 1999-12-20 | 2007-01-30 | Cingular Wirelesss Ii, Llc | System and method for automatically transferring a call from a first telephone to a designated telephone in close proximity |
US7434177B1 (en) | 1999-12-20 | 2008-10-07 | Apple Inc. | User interface for providing consolidation and access |
US6822635B2 (en) | 2000-01-19 | 2004-11-23 | Immersion Corporation | Haptic interface for laptop computers and other portable devices |
US6661920B1 (en) | 2000-01-19 | 2003-12-09 | Palm Inc. | Method and apparatus for multiple simultaneously active data entry mechanisms on a computer system |
US7138983B2 (en) * | 2000-01-31 | 2006-11-21 | Canon Kabushiki Kaisha | Method and apparatus for detecting and interpreting path of designated position |
US20020140633A1 (en) | 2000-02-03 | 2002-10-03 | Canesta, Inc. | Method and system to present immersion virtual simulations using three-dimensional measurement |
US6601012B1 (en) | 2000-03-16 | 2003-07-29 | Microsoft Corporation | Contextual models and methods for inferring attention and location |
US7417650B1 (en) | 2000-03-16 | 2008-08-26 | Microsoft Corporation | Display and human-computer interaction for a notification platform |
US7444383B2 (en) | 2000-06-17 | 2008-10-28 | Microsoft Corporation | Bounded-deferral policies for guiding the timing of alerting, interaction and communications using local sensory information |
US6847354B2 (en) | 2000-03-23 | 2005-01-25 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Three dimensional interactive display |
US20010035858A1 (en) | 2000-04-13 | 2001-11-01 | Blumberg J. Seth | Keyboard input device |
US7302280B2 (en) | 2000-07-17 | 2007-11-27 | Microsoft Corporation | Mobile phone operation based upon context sensing |
DE10042300A1 (de) | 2000-08-29 | 2002-03-28 | Axel C Burgbacher | Elektronisches Musikinstrument |
JP2002171218A (ja) | 2000-08-31 | 2002-06-14 | Microsoft Corp | 移動通信デバイス上においてユーザ・アクセス可能性を検出する方法および装置 |
US6480188B1 (en) | 2000-09-06 | 2002-11-12 | Digital On-Demand | Thumbwheel selection system |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US6520013B1 (en) | 2000-10-02 | 2003-02-18 | Apple Computer, Inc. | Method and apparatus for detecting free fall |
US6680677B1 (en) | 2000-10-06 | 2004-01-20 | Logitech Europe S.A. | Proximity detector to indicate function of a key |
US7319454B2 (en) | 2000-11-10 | 2008-01-15 | Microsoft Corporation | Two-button mouse input using a stylus |
US6903730B2 (en) | 2000-11-10 | 2005-06-07 | Microsoft Corporation | In-air gestures for electromagnetic coordinate digitizers |
DE10059906A1 (de) | 2000-12-01 | 2002-06-06 | Bs Biometric Systems Gmbh | Druckempfindliche Fläche eines Bildschirms oder Displays |
JP3800984B2 (ja) | 2001-05-21 | 2006-07-26 | ソニー株式会社 | ユーザ入力装置 |
US6904570B2 (en) | 2001-06-07 | 2005-06-07 | Synaptics, Inc. | Method and apparatus for controlling a display of data on a display screen |
US6583676B2 (en) | 2001-06-20 | 2003-06-24 | Apple Computer, Inc. | Proximity/touch detector and calibration circuit |
US20030001899A1 (en) | 2001-06-29 | 2003-01-02 | Nokia Corporation | Semi-transparent handwriting recognition UI |
US20050134578A1 (en) | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US6961912B2 (en) | 2001-07-18 | 2005-11-01 | Xerox Corporation | Feedback mechanism for use with visual selection methods |
JP2003173237A (ja) | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
US8117565B2 (en) | 2001-10-18 | 2012-02-14 | Viaclix, Inc. | Digital image magnification for internet appliance |
US7345671B2 (en) | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
US6938221B2 (en) | 2001-11-30 | 2005-08-30 | Microsoft Corporation | User interface for stylus-based user input |
DE10251296A1 (de) | 2002-11-03 | 2004-05-19 | Trachte, Ralf, Dr. | flexibles Engabesystem / Mehrfinger-System |
US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
US20030132922A1 (en) | 2002-01-17 | 2003-07-17 | Harald Philipp | Touch screen detection apparatus |
US6720942B2 (en) | 2002-02-12 | 2004-04-13 | Eastman Kodak Company | Flat-panel light emitting pixel with luminance feedback |
US7120872B2 (en) | 2002-03-25 | 2006-10-10 | Microsoft Corporation | Organizing, editing, and rendering digital ink |
US6664744B2 (en) | 2002-04-03 | 2003-12-16 | Mitsubishi Electric Research Laboratories, Inc. | Automatic backlight for handheld devices |
US7016705B2 (en) | 2002-04-17 | 2006-03-21 | Microsoft Corporation | Reducing power consumption in a networked battery-operated device using sensors |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7058902B2 (en) | 2002-07-30 | 2006-06-06 | Microsoft Corporation | Enhanced on-object context menus |
FR2844048B1 (fr) | 2002-08-30 | 2005-09-30 | Nanotec Solution | Systeme et procede de mesure sans contact d'un deplacement ou positionnement relatif de deux objets adjacents par voie capacitive, et application au controle de miroirs |
FR2844349B1 (fr) | 2002-09-06 | 2005-06-24 | Nanotec Solution | Detecteur de proximite par capteur capacitif |
US6812466B2 (en) | 2002-09-25 | 2004-11-02 | Prospects, Corp. | Infrared obstacle detection in the presence of sunlight |
US6954197B2 (en) | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
US8042044B2 (en) | 2002-11-29 | 2011-10-18 | Koninklijke Philips Electronics N.V. | User interface with displaced representation of touch area |
US7194699B2 (en) | 2003-01-14 | 2007-03-20 | Microsoft Corporation | Animating images to reflect user selection |
US20040145601A1 (en) | 2003-01-29 | 2004-07-29 | International Business Machines Corporation | Method and a device for providing additional functionality to a separate application |
US20040150669A1 (en) | 2003-01-31 | 2004-08-05 | Sabiers Mark L. | Graphical user interface for describing the state of a managed system |
US7158123B2 (en) | 2003-01-31 | 2007-01-02 | Xerox Corporation | Secondary touch contextual sub-menu navigation for touch screen interface |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US7786983B2 (en) | 2003-04-08 | 2010-08-31 | Poa Sana Liquidating Trust | Apparatus and method for a data input device using a light lamina screen |
US7627343B2 (en) | 2003-04-25 | 2009-12-01 | Apple Inc. | Media player system |
US20040233153A1 (en) | 2003-05-22 | 2004-11-25 | Heber Robinson | Communication device with automatic display and lighting activation and method therefore |
US7362320B2 (en) | 2003-06-05 | 2008-04-22 | Hewlett-Packard Development Company, L.P. | Electronic device having a light emitting/detecting display screen |
US20050015731A1 (en) | 2003-07-15 | 2005-01-20 | Microsoft Corporation | Handling data across different portions or regions of a desktop |
GB2404819A (en) | 2003-08-05 | 2005-02-09 | Research In Motion Ltd | Mobile communications device with integral optical navigation |
DE10337743A1 (de) | 2003-08-13 | 2005-03-10 | Ego Elektro Geraetebau Gmbh | Verfahren sowie Schaltungsanordnung zur Ermittlung des Betätigungszustandes mindestens eines optischen Sensorelements |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7468722B2 (en) | 2004-02-09 | 2008-12-23 | Microsemi Corporation | Method and apparatus to control display brightness with ambient light correction |
EP2254027B1 (fr) | 2004-02-27 | 2018-11-07 | BlackBerry Limited | Système de saisie de texte pour un dispositif électronique mobile et procédés associés |
US7715790B1 (en) | 2004-03-19 | 2010-05-11 | Apple Inc. | Methods and apparatuses for configuration automation |
US20050219223A1 (en) | 2004-03-31 | 2005-10-06 | Kotzin Michael D | Method and apparatus for determining the context of a device |
US20050219228A1 (en) | 2004-03-31 | 2005-10-06 | Motorola, Inc. | Intuitive user interface and method |
US20050221791A1 (en) | 2004-04-05 | 2005-10-06 | Sony Ericsson Mobile Communications Ab | Sensor screen saver |
US20050219394A1 (en) | 2004-04-06 | 2005-10-06 | Sterling Du | Digital camera capable of brightness and contrast control |
US7019622B2 (en) | 2004-05-27 | 2006-03-28 | Research In Motion Limited | Handheld electronic device including vibrator having different vibration intensities and method for vibrating a handheld electronic device |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US20090128498A1 (en) * | 2004-06-29 | 2009-05-21 | Koninklijke Philips Electronics, N.V. | Multi-layered display of a graphical user interface |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
US20060012577A1 (en) | 2004-07-16 | 2006-01-19 | Nokia Corporation | Active keypad lock for devices equipped with touch screen |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US7599044B2 (en) | 2005-06-23 | 2009-10-06 | Apple Inc. | Method and apparatus for remotely detecting presence |
WO2006023569A1 (fr) | 2004-08-16 | 2006-03-02 | Fingerworks, Inc. | Procede d'augmentation de la resolution spatiale de dispositifs tactile |
US20060044280A1 (en) | 2004-08-31 | 2006-03-02 | Huddleston Wyatt A | Interface |
US7292875B2 (en) | 2004-09-30 | 2007-11-06 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | Electronic device with ambient light sensor |
US7522065B2 (en) | 2004-10-15 | 2009-04-21 | Microsoft Corporation | Method and apparatus for proximity sensing in a portable electronic device |
EP1815424B1 (fr) * | 2004-11-16 | 2019-01-09 | Koninklijke Philips N.V. | Manipulation d'images sans contact pour l'amelioration d'une zone |
US7489305B2 (en) | 2004-12-01 | 2009-02-10 | Thermoteknix Systems Limited | Touch screen control |
US20060146012A1 (en) | 2005-01-04 | 2006-07-06 | Arneson Theodore R | System and method for automatic display switching |
US7151460B2 (en) | 2005-01-10 | 2006-12-19 | Nokia Corporation | Electronic device having a proximity detector |
EP1696414A1 (fr) | 2005-02-28 | 2006-08-30 | Research In Motion Limited | Contrôle de rétro-éclairage pour un dispositif informatique portable |
FR2884349B1 (fr) | 2005-04-06 | 2007-05-18 | Moving Magnet Tech Mmt | Actionneur electromagnetique polarise bistable a actionnement rapide |
US7605804B2 (en) | 2005-04-29 | 2009-10-20 | Microsoft Corporation | System and method for fine cursor positioning using a low resolution imaging touch screen |
US9019209B2 (en) * | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
CN101542533A (zh) * | 2005-07-06 | 2009-09-23 | 双子星移动科技公司 | 三维图形用户界面 |
FR2888319B1 (fr) | 2005-07-07 | 2008-02-15 | Nanotec Solution Soc Civ Ile | Procede de mesure sans contact d'un deplacement relatif ou d'un positionnement relatif d'un premier objet par rapport a un second objet, par voie inductive. |
US7728316B2 (en) | 2005-09-30 | 2010-06-01 | Apple Inc. | Integrated proximity sensor and light sensor |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US7714265B2 (en) | 2005-09-30 | 2010-05-11 | Apple Inc. | Integrated proximity sensor and light sensor |
TWI293000B (en) | 2005-11-03 | 2008-01-21 | Benq Corp | Electronic device capable of operating a function according to detection of environmental light |
FR2893711B1 (fr) | 2005-11-24 | 2008-01-25 | Nanotec Solution Soc Civ Ile | Dispositif et procede de mesure capacitive par pont flottant |
US7663620B2 (en) * | 2005-12-05 | 2010-02-16 | Microsoft Corporation | Accessing 2D graphic content using axonometric layer views |
US10521022B2 (en) | 2006-03-17 | 2019-12-31 | Conversant Wireless Licensing S.a.r.l. | Mobile communication terminal and method therefor |
KR20070113022A (ko) * | 2006-05-24 | 2007-11-28 | 엘지전자 주식회사 | 사용자 입력에 반응하는 터치스크린 장치 및 이의 작동방법 |
US7747293B2 (en) | 2006-10-17 | 2010-06-29 | Marvell Worl Trade Ltd. | Display control for cellular phone |
US20080113618A1 (en) | 2006-11-09 | 2008-05-15 | Sony Ericsson Mobile Communications Ab | Pairing system and method for mobile devices |
CN201266371Y (zh) * | 2007-01-05 | 2009-07-01 | 苹果公司 | 手持移动通信装置 |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US8745535B2 (en) | 2007-06-08 | 2014-06-03 | Apple Inc. | Multi-dimensional desktop |
US8010900B2 (en) * | 2007-06-08 | 2011-08-30 | Apple Inc. | User interface for electronic backup |
US8074178B2 (en) * | 2007-06-12 | 2011-12-06 | Microsoft Corporation | Visual feedback display |
US8432365B2 (en) | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
EP2212762A4 (fr) * | 2007-11-19 | 2011-06-29 | Cirque Corp | Dalle tactile combinée à un écran et ayant des capacités de détection de proximité et de toucher |
KR101237640B1 (ko) | 2008-01-29 | 2013-02-27 | (주)멜파스 | 기생 캐패시턴스 방지 구조를 구비한 터치스크린 장치 |
US8650507B2 (en) * | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
EP2104024B1 (fr) | 2008-03-20 | 2018-05-02 | LG Electronics Inc. | Terminal portable capable de détecter un toucher de proximité et procédé pour écran de contrôle l'utilisant |
US8723811B2 (en) * | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
KR101486345B1 (ko) * | 2008-03-21 | 2015-01-26 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 화면 표시 방법 |
KR101012379B1 (ko) | 2008-03-25 | 2011-02-09 | 엘지전자 주식회사 | 단말기 및 이것의 정보 디스플레이 방법 |
KR101513023B1 (ko) | 2008-03-25 | 2015-04-22 | 엘지전자 주식회사 | 단말기 및 이것의 정보 디스플레이 방법 |
KR101481557B1 (ko) * | 2008-03-26 | 2015-01-13 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
KR101495164B1 (ko) * | 2008-04-10 | 2015-02-24 | 엘지전자 주식회사 | 이동단말기 및 그 화면 처리 방법 |
US8296670B2 (en) * | 2008-05-19 | 2012-10-23 | Microsoft Corporation | Accessing a menu utilizing a drag-operation |
US8576181B2 (en) | 2008-05-20 | 2013-11-05 | Lg Electronics Inc. | Mobile terminal using proximity touch and wallpaper controlling method thereof |
KR101502002B1 (ko) * | 2008-05-21 | 2015-03-12 | 엘지전자 주식회사 | 근접 터치를 이용한 이동 단말기 및 그의 화면표시제어방법 |
EP2131272A3 (fr) * | 2008-06-02 | 2014-05-07 | LG Electronics Inc. | Terminal de communication mobile ayant un capteur de proximité et un procédé de commande de l'affichage. |
JP5133791B2 (ja) * | 2008-06-19 | 2013-01-30 | 株式会社ジャパンディスプレイイースト | タッチパネル付き表示装置 |
US20090327969A1 (en) * | 2008-06-27 | 2009-12-31 | Microsoft Corporation | Semantic zoom in a virtual three-dimensional graphical user interface |
KR101504201B1 (ko) * | 2008-07-02 | 2015-03-19 | 엘지전자 주식회사 | 이동단말기 및 그의 키패드 표시방법 |
JP2010061405A (ja) | 2008-09-03 | 2010-03-18 | Rohm Co Ltd | 静電容量センサ、その検出回路、入力装置および容量センサの制御方法 |
JP4775669B2 (ja) * | 2008-10-10 | 2011-09-21 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
KR101021440B1 (ko) * | 2008-11-14 | 2011-03-15 | 한국표준과학연구원 | 터치입력장치, 이를 이용한 휴대기기 및 그 제어방법 |
WO2010064388A1 (fr) | 2008-12-04 | 2010-06-10 | 三菱電機株式会社 | Dispositif d'affichage et d'entrée |
WO2010064387A1 (fr) | 2008-12-04 | 2010-06-10 | 三菱電機株式会社 | Dispositif de saisie sur écran |
GB2466497B (en) * | 2008-12-24 | 2011-09-14 | Light Blue Optics Ltd | Touch sensitive holographic displays |
JP4683126B2 (ja) * | 2008-12-26 | 2011-05-11 | ブラザー工業株式会社 | 入力装置 |
US9141275B2 (en) * | 2009-02-17 | 2015-09-22 | Hewlett-Packard Development Company, L.P. | Rendering object icons associated with a first object icon upon detecting fingers moving apart |
KR101582686B1 (ko) * | 2009-03-02 | 2016-01-05 | 엘지전자 주식회사 | 아이템 표시 방법 및 이를 적용한 이동 통신 단말기 |
US20100265204A1 (en) * | 2009-04-21 | 2010-10-21 | Sony Ericsson Mobile Communications Ab | Finger recognition for authentication and graphical user interface input |
US8669945B2 (en) * | 2009-05-07 | 2014-03-11 | Microsoft Corporation | Changing of list views on mobile device |
US20100289740A1 (en) * | 2009-05-18 | 2010-11-18 | Bong Soo Kim | Touchless control of an electronic device |
US8373669B2 (en) | 2009-07-21 | 2013-02-12 | Cisco Technology, Inc. | Gradual proximity touch screen |
GB0913734D0 (en) | 2009-08-06 | 2009-09-16 | Binstead Ronald P | Masked touch sensors |
FR2949008B1 (fr) | 2009-08-07 | 2011-09-16 | Nanotec Solution | Dispositif de detection capacitif a integration de fonctions. |
FR2948997B1 (fr) | 2009-08-07 | 2012-04-20 | Nanotec Solution | Capteur de pression capacitif integrant une mesure de temperature compatible avec les milieux chauds. |
FR2949007B1 (fr) | 2009-08-07 | 2012-06-08 | Nanotec Solution | Dispositif et procede d'interface de commande sensible a un mouvement d'un corps ou d'un objet et equipement de commande integrant ce dispositif. |
US9152317B2 (en) * | 2009-08-14 | 2015-10-06 | Microsoft Technology Licensing, Llc | Manipulation of graphical elements via gestures |
US8405677B2 (en) | 2009-09-09 | 2013-03-26 | Mitac International Corp. | Method of improving the accuracy of selecting a soft button displayed on a touch-sensitive screen and related portable electronic device |
KR101629711B1 (ko) | 2009-09-16 | 2016-06-13 | 엘지전자 주식회사 | 이동 단말기 |
KR20110061285A (ko) * | 2009-12-01 | 2011-06-09 | 삼성전자주식회사 | 휴대용 디바이스 및 이의 터치 패널 운용 방법 |
TW201124766A (en) | 2010-01-08 | 2011-07-16 | Wintek Corp | Display device with touch panel |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
JP5407950B2 (ja) | 2010-03-11 | 2014-02-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20110296351A1 (en) * | 2010-05-26 | 2011-12-01 | T-Mobile Usa, Inc. | User Interface with Z-axis Interaction and Multiple Stacks |
JP2012032852A (ja) | 2010-07-28 | 2012-02-16 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
US8923014B2 (en) | 2010-08-19 | 2014-12-30 | Lg Display Co., Ltd. | Display device having touch panel |
JP5732784B2 (ja) | 2010-09-07 | 2015-06-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
FR2971066B1 (fr) | 2011-01-31 | 2013-08-23 | Nanotec Solution | Interface homme-machine tridimensionnelle. |
US8736583B2 (en) * | 2011-03-29 | 2014-05-27 | Intel Corporation | Virtual links between different displays to present a single virtual object |
CN102752435A (zh) | 2011-04-19 | 2012-10-24 | 富泰华工业(深圳)有限公司 | 具有光标的手机及其控制光标的方法 |
KR20130057637A (ko) | 2011-11-24 | 2013-06-03 | 삼성전기주식회사 | 접촉 감지 장치 |
US9342169B2 (en) | 2012-02-28 | 2016-05-17 | Sony Corporation | Terminal device |
EP2634680A1 (fr) | 2012-02-29 | 2013-09-04 | BlackBerry Limited | Interaction d'une interface utilisateur graphique sur un dispositif tactile |
FR2990020B1 (fr) | 2012-04-25 | 2014-05-16 | Fogale Nanotech | Dispositif de detection capacitive avec arrangement de pistes de liaison, et procede mettant en oeuvre un tel dispositif. |
US8935625B2 (en) | 2012-08-15 | 2015-01-13 | Conductor, Inc. | User interface for task management |
US20140062875A1 (en) | 2012-09-06 | 2014-03-06 | Panasonic Corporation | Mobile device with an inertial measurement unit to adjust state of graphical user interface or a natural language processing unit, and including a hover sensing function |
US9411474B2 (en) | 2012-11-15 | 2016-08-09 | Nokia Technologies Oy | Shield electrode overlying portions of capacitive sensor electrodes |
FR3002052B1 (fr) * | 2013-02-14 | 2016-12-09 | Fogale Nanotech | Procede et dispositif pour naviguer dans un ecran d'affichage et appareil comprenant une telle navigation |
EP2778859B1 (fr) | 2013-03-15 | 2015-07-08 | BlackBerry Limited | Procédé et appareil de prédiction de mot à l'aide de la position d'un doigt non saisissant |
FR3008809B1 (fr) | 2013-07-18 | 2017-07-07 | Fogale Nanotech | Dispositif accessoire garde pour un appareil electronique et/ou informatique, et appareil equipe d'un tel dispositif accessoire |
US10042509B2 (en) | 2014-04-22 | 2018-08-07 | International Business Machines Corporation | Dynamic hover grace period |
-
2011
- 2011-01-31 FR FR1150726A patent/FR2971066B1/fr active Active
-
2012
- 2012-01-30 CN CN201280007164.6A patent/CN103460175B/zh active Active
- 2012-01-30 CN CN201810965827.4A patent/CN109240587B/zh active Active
- 2012-01-30 WO PCT/FR2012/050183 patent/WO2012104529A1/fr active Application Filing
- 2012-01-30 EP EP12708880.5A patent/EP2671146A1/fr not_active Withdrawn
- 2012-01-30 US US13/982,791 patent/US10303266B2/en active Active
-
2019
- 2019-04-30 US US16/398,321 patent/US11175749B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006003590A2 (fr) * | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | Procede et dispositif empechant le maculage d'un dispositif d'affichage |
US20080309632A1 (en) * | 2007-06-13 | 2008-12-18 | Apple Inc. | Pinch-throw and translation gestures |
WO2009028892A2 (fr) * | 2007-08-30 | 2009-03-05 | Lg Electronics Inc. | Interface utilisateur pour dispositif mobile utilisant un geste d'utilisateur à proximité d'un dispositif électronique |
EP2166463A1 (fr) * | 2008-09-09 | 2010-03-24 | Samsung Electronics Co., Ltd. | Procédé et dispositif pour la recherche et l'exécution de contenu utilisant un écran tactile |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014161775A1 (fr) | 2013-04-02 | 2014-10-09 | Fogale Nanotech | Dispositif pour interagir, sans contact, avec un appareil électronique et/ou informatique, et appareil équipé d'un tel dispositif |
WO2015007781A1 (fr) | 2013-07-18 | 2015-01-22 | Fogale Nanotech | Dispositif accessoire garde pour un appareil electronique et/ou informatique, et appareil equipe d'un tel dispositif accessoire |
WO2015074925A1 (fr) | 2013-11-19 | 2015-05-28 | Fogale Nanotech | Dispositif accessoire couvrant pour un appareil portable electronique et/ou informatique, et appareil equipe d'un tel dispositif accessoire |
EP3432117A1 (fr) | 2013-11-19 | 2019-01-23 | QuickStep Technologies LLC | Dispositif accessoire couvrant pour un appareil portable électronique et/ou informatique, et appareil équipé d'un tel dispositif accessoire |
EP3761152A1 (fr) | 2013-11-19 | 2021-01-06 | QuickStep Technologies LLC | Dispositif accessoire couvrant pour un appareil portable electronique et/ou informatique, et appareil equipe d'un tel dispositif accessoire |
WO2015121303A1 (fr) | 2014-02-12 | 2015-08-20 | Fogale Nanotech | Procede de saisie sur un clavier numerique, interface homme machine et appareil mettant en oeuvre un tel procede |
Also Published As
Publication number | Publication date |
---|---|
CN109240587B (zh) | 2022-01-25 |
CN109240587A (zh) | 2019-01-18 |
CN103460175B (zh) | 2018-08-17 |
CN103460175A (zh) | 2013-12-18 |
US20130307776A1 (en) | 2013-11-21 |
FR2971066B1 (fr) | 2013-08-23 |
US20190361539A1 (en) | 2019-11-28 |
EP2671146A1 (fr) | 2013-12-11 |
US10303266B2 (en) | 2019-05-28 |
WO2012104529A1 (fr) | 2012-08-09 |
US11175749B2 (en) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2971066A1 (fr) | Interface homme-machine tridimensionnelle. | |
EP2956846B1 (fr) | Procédé, appareil et support de stockage pour naviguer dans un écran d'affichage | |
US20190324619A1 (en) | Moving an object by drag operation on a touch panel | |
TWI599922B (zh) | 包含具有兩種以上自由度之使用者介面之電子設備,該使用者介面包含一觸碰敏感表面及非接觸式偵測構件 | |
EP2842019B1 (fr) | Procede pour interagir avec un appareil mettant en oeuvre une surface de commande capacitive, interface et appareil mettant en oeuvre ce procede | |
EP2602706A2 (fr) | Interactions d'utilisateur | |
FR2917516A1 (fr) | Transpositions mode vitesse / mode positionnel | |
EP2196891A2 (fr) | Dispositif et procédé pour fournir une interface utilisateur | |
EP2981879B1 (fr) | Dispositif pour interagir, sans contact, avec un appareil électronique et/ou informatique, et appareil équipé d'un tel dispositif | |
FR3003364A1 (fr) | Procede de traitement d'un geste compose, dispositif et terminal d'utilisateur associes | |
WO2015124564A1 (fr) | Procédé d'interaction homme-machine par combinaison de commandes tactiles et sans contact | |
FR2980004A1 (fr) | Dispositif de pointage temporaire pour terminal mobile equipe d'un ecran de visualisation tactile principal et d'un ecran de visualisation auxiliaire | |
EP3221780B1 (fr) | Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche | |
FR3033203A1 (fr) | Procede pour interagir avec un appareil electronique et/ou informatique mettant en œuvre une surface de commande capacitive et une surface peripherique, interface et appareil mettant en œuvre ce procede | |
WO2015082817A1 (fr) | Procédé de commande de l'interaction avec un écran tactile et équipement mettant en oeuvre ce procédé | |
FR3017470A1 (fr) | Procede de saisie sur un clavier numerique, interface homme machine et appareil mettant en œuvre un tel procede | |
EP2943949A2 (fr) | Dispositif portable de lecture interactif et procédé d'affichage d'un document numérique sur ce dispositif | |
FR3112628A1 (fr) | Dispositif de pointage informatique | |
WO2024041887A1 (fr) | Procédé et dispositif de contrôle d'un écran tactile | |
FR2946768A1 (fr) | Procede d'entree tactile d'instructions de commande d'un programme d'ordinateur et systeme pour la mise en oeuvre de ce procede | |
FR3108998A1 (fr) | Procede et dispositif pour gerer des appuis « multitouch » sur une surface tactile |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 6 |
|
TP | Transmission of property |
Owner name: QUICKSTEP TECHNOLOGIES LLC, US Effective date: 20160509 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 11 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |
|
PLFP | Fee payment |
Year of fee payment: 14 |