ES2737425T3 - Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo - Google Patents

Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo Download PDF

Info

Publication number
ES2737425T3
ES2737425T3 ES09150674T ES09150674T ES2737425T3 ES 2737425 T3 ES2737425 T3 ES 2737425T3 ES 09150674 T ES09150674 T ES 09150674T ES 09150674 T ES09150674 T ES 09150674T ES 2737425 T3 ES2737425 T3 ES 2737425T3
Authority
ES
Spain
Prior art keywords
touch
mobile terminal
touch screen
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09150674T
Other languages
English (en)
Inventor
Jin Sang Yun
Jawon Koo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonaktiebolaget LM Ericsson AB
Original Assignee
Telefonaktiebolaget LM Ericsson AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonaktiebolaget LM Ericsson AB filed Critical Telefonaktiebolaget LM Ericsson AB
Application granted granted Critical
Publication of ES2737425T3 publication Critical patent/ES2737425T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)

Abstract

Método para capturar una imagen en un terminal móvil (100), que comprende una cámara (121, 121') y una pantalla táctil (151), que comprende: mostrar una vista previa de la imagen a capturar en la pantalla táctil (151); recibir una primera entrada táctil en una zona de la vista previa, siendo la primera entrada táctil un contacto táctil con la pantalla táctil (151); reconocer la zona de la vista previa que recibe la primera entrada táctil como una zona a enfocar; enfocar la zona reconocida de la vista previa; estando el método caracterizado por que comprende, además, las etapas de: determinar si la zona reconocida está enfocada; y si la zona reconocida está enfocada, capturar la imagen después de un período de tiempo desde la liberación del toque de contacto.

Description

DESCRIPCIÓN
Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo
REFERENCIA A APLICACIONES RELACIONADAS
Esta solicitud reivindica el beneficio de la fecha de presentación más temprana y el derecho de prioridad a la Solicitud coreana N° 10-2008-0087800, presentada el 5 de septiembre de 2008.
CAMPO DE LA INVENCIÓN
La presente invención se refiere a la captura de imágenes por medio de un terminal móvil equipado con una cámara y una pantalla táctil. La cámara del terminal móvil es controlada por medio de la pantalla táctil. La presente invención se refiere asimismo a un método para enfocar una zona específica de una imagen a capturar por medio de la cámara mediante la designación de la zona específica en la pantalla táctil del terminal móvil.
EXPLICACIÓN DE LA TÉCNICA RELACIONADA
Puesto que la funcionalidad de los terminales, tales como ordenadores personales, portátiles y teléfonos móviles, está diversificada, los terminales han sido implementados como reproductores multimedia capaces de realizar funciones complejas. Por ejemplo, las funciones complejas realizadas por los terminales incluyen capturar imágenes y vídeo, reproducir archivos de música o vídeo, proporcionar juegos y recibir difusiones.
Los terminales se pueden dividir en terminales móviles y terminales fijos, según su movilidad. Los terminales de móviles se pueden dividir asimismo en terminales de mano y terminales de montaje en vehículo, dependiendo de cómo son transportados mientras están en movimiento.
Con el fin de soportar y aumentar la funcionalidad de los terminales, las partes estructurales y/o de software de los terminales han sido mejorado continuamente. En los últimos años, una variedad de terminales, que incluyen los terminales móviles, han adoptado una pantalla táctil. La pantalla táctil tiende a tener una pantalla grande, y se utiliza como un dispositivo de entrada y salida para satisfacer las diversas necesidades de un usuario para superar los límites físicos, tal como el tamaño de los terminales. Además, se han realizado esfuerzos para diversificar las complejas funciones de los terminales como reproductores multimedia según las necesidades de los usuarios, y para proporcionar una interfaz de usuario (UI - User Interface, en inglés) capaz de realizar estas funciones de manera conveniente.
El documento EP2106126 da a conocer un aparato de obtención de imágenes configurado para permitir la selección de una zona a enfocar por medio de una entrada táctil a una imagen de vista previa. El documento US6919927 da a conocer una cámara con una pantalla táctil configurada para controlar funciones tales como el proceso de enfoque automático y la captura de una imagen en base a la presión de una entrada táctil. El documento JP2007093967 da a conocer una cámara que no tiene pulsador de disparador, y que está configurada para permitir la activación de un disparador por medio de una entrada táctil a una pantalla táctil. El documento US2004/189856 da a conocer un aparato de obtención de imágenes configurado para permitir la selección de una zona a enfocar por medio de una entrada táctil a una imagen de vista previa. El documento US 7034881 da a conocer la realización de un toque en la pantalla táctil y el enfoque de la parte tocada, para mostrar un fotograma que indica la zona del sujeto principal enfocado y para capturar una imagen tocando un pulsador de activación en la pantalla táctil o realizando dos toques en sucesión rápida.
COMPENDIO DE LA INVENCIÓN
Según una realización de la presente invención, se da a conocer un método para capturar una imagen en un terminal móvil según la reivindicación 1.
En un ejemplo útil para comprender la presente invención, la zona de la vista previa que recibe la primera entrada táctil es reconocida como la zona a enfocar cuando la primera entrada táctil es mantenida durante un primer tiempo predeterminado. El método de captura de una imagen puede incluir la visualización de una guía de enfoque en la zona tocada tras el reconocimiento de la zona tocada.
En un ejemplo útil para comprender la presente invención, la imagen se captura cuando la primera entrada táctil es mantenida durante un segundo tiempo predeterminado después de determinar que la zona reconocida está enfocada. El método puede incluir, además, informar a un usuario de cuándo la zona reconocida está enfocada. Preferentemente, informar al usuario incluye al menos uno de mostrar un indicador en la pantalla táctil o emitir sonido. Preferentemente, mostrar el indicador incluye parpadear o cambiar el color de un indicador de enfoque, o parpadear o cambiar el color de una guía de enfoque mostrada en la vista previa.
Según un ejemplo para comprender la presente invención, un método para capturar una imagen en un terminal móvil que incluye una cámara y una pantalla táctil incluye mostrar una guía de enfoque en una zona central de una vista previa de la imagen a capturar en la pantalla táctil, recibir una entrada de tocar y soltar en la pantalla táctil, en el que la guía de enfoque se toca, se arrastra y se suelta en una zona de la vista previa a enfocar, reconociendo la zona de la vista previa a enfocar, enfocar la zona reconocida de la vista previa, determinar si la zona reconocida está enfocada y capturar la imagen cuando la zona reconocida está enfocada. En un aspecto de la presente invención, la imagen es capturada cuando finaliza la acción de soltar y se libera un toque de contacto con la pantalla táctil.
En un aspecto del ejemplo, la zona de la vista previa en la que se soltó la guía de enfoque se reconoce como la zona a enfocar cuando se mantiene un toque de contacto en la zona de la vista previa en la que se soltó la guía de enfoque durante un tiempo predeterminado.
Según un ejemplo útil para comprender la presente invención, un método para capturar una imagen en un terminal móvil que incluye una cámara y una pantalla táctil incluye mostrar una vista previa de la imagen a capturar en la pantalla táctil, recibir una entrada táctil en una zona de la vista previa, comprendiendo la entrada táctil un toque de contacto y la liberación del contacto táctil, reconocer la zona que recibe la entrada táctil como una zona a ser enfocada cuando se mantiene el contacto en la zona de la vista previa durante un tiempo predeterminado, enfocar la zona reconocida de la vista previa, determinar si la zona reconocida está enfocada, informar a un usuario de cuándo la zona reconocida está enfocada y capturar la imagen al final de la entrada táctil, cuando el toque de contacto es liberado de pasar por la pantalla táctil.
Según una realización de la presente invención, se da a conocer un terminal móvil según la reivindicación 4.
En un aspecto de la presente invención, el controlador está configurado, además, para reconocer la zona de la vista previa que recibe la primera entrada táctil como la zona a enfocar cuando la primera entrada táctil es mantenida en la pantalla táctil durante un primer tiempo predeterminado. Preferentemente, la pantalla táctil muestra, además, una guía de enfoque sobre la zona tocada tras reconocer la zona tocada.
En un ejemplo útil para comprender la presente invención, el controlador está configurado, además, para capturar la imagen por medio de la cámara cuando la primera entrada táctil es mantenida de manera continua sobre la vista previa durante un segundo tiempo predeterminado después de que la zona reconocida esté enfocada.
Según un ejemplo útil para comprender la presente invención, un terminal móvil incluye una cámara que captura una imagen, una pantalla táctil que muestra la imagen y que recibe una entrada de tocar y soltar, y un controlador configurado para mostrar una guía de enfoque en una zona central de una vista previa de la imagen a capturar en la pantalla táctil, reconocer la zona de la vista previa que recibe la entrada de tocar y soltar como una zona a enfocar cuando se toca, arrastra y suelta la guía de enfoque en la zona a enfocar, enfocar la zona reconocida donde se soltó la guía de enfoque, determinar si la zona reconocida está enfocada y capturar la imagen por medio de la cámara cuando la zona reconocida está enfocada. En un aspecto de la presente invención, el controlador está configurado, además, para capturar la imagen cuando finaliza la acción de soltar y se libera un toque de contacto con la pantalla táctil.
En un aspecto del ejemplo, el controlador está configurado, además, para reconocer la zona de la vista previa donde se soltó la guía de enfoque como la zona a enfocar cuando se mantiene durante un tiempo predeterminado un toque de contacto en la zona de la vista previa en la que la guía de enfoque ha sido soltada.
Según un ejemplo útil para comprender la presente invención, un terminal móvil incluye una cámara que captura una imagen, una pantalla táctil que muestra la imagen y recibe una entrada táctil, comprendiendo la entrada táctil un contacto de tocar y soltar del toque de contacto, y un controlador, configurado para mostrar una vista previa de la imagen a capturar en la pantalla táctil, reconocer una zona de la vista previa que recibe la entrada táctil como una zona a enfocar cuando el toque de contacto se mantiene durante un tiempo predeterminado sobre la vista previa, enfocar la imagen en la zona reconocida, determinar si la zona reconocida está enfocada, informar a un usuario de cuándo la zona reconocida esté enfocada y capturar la imagen por medio de la cámara al final de la entrada táctil, cuando se libera el toque de contacto de la pantalla táctil.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Los anteriores y otros aspectos, características y ventajas de la presente invención resultarán más relevantes tras la consideración de la siguiente descripción de realizaciones preferentes, tomadas junto con los dibujos adjuntos.
La figura 1 es un diagrama de bloques de un terminal móvil según una realización de la presente invención. La figura 2A es una vista, en perspectiva, del lado frontal de un terminal móvil según una realización de la presente invención.
La figura 2B es una vista, en perspectiva, del lado posterior del terminal móvil mostrado en la figura 2A.
Las figuras 3A y 3B son vistas frontales de un terminal móvil según una realización de la presente invención que muestra un estado operativo.
La figura 4 es un diagrama conceptual que muestra la profundidad de proximidad de un sensor de proximidad en un terminal móvil según una realización de la presente invención.
La figura 5 es un diagrama de flujo que ilustra la captura de imágenes en un terminal móvil equipado con una pantalla táctil según una realización de la presente invención.
Las figuras 6A a 6E y 7A y 7B son diagramas que ilustran la captura de imágenes por medio de una pantalla táctil de un terminal móvil3 según una realización de la presente invención.
Las figuras 8A y 8B son diagramas que ilustran la captura de imágenes por medio de una pantalla táctil de un terminal móvil según otra realización de la presente invención.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES PREFERENTES
En la siguiente descripción detallada, se hace referencia a las figuras de los dibujos adjuntos que forman parte de la misma, y que se muestran, a modo de ilustración, realizaciones específicas de la invención. Los expertos de nivel medio en la técnica deben comprender que se pueden utilizar otras realizaciones, y se pueden realizar cambios estructurales, eléctricos y de procedimiento, sin apartarse del alcance de la presente invención tal como está definida en las reivindicaciones adjuntas. Siempre que sea posible, se utilizarán los mismos números de referencia en todos los dibujos para referirse a partes iguales o similares.
A continuación, se describirá en detalle un terminal móvil relacionado con la presente invención, haciendo referencia a los dibujos adjuntos. Se debe tener en cuenta que los sufijos de los elementos constitutivos utilizados en la siguiente descripción, tales como "módulo" y "unidad", se utilizan simplemente considerando la facilidad para escribir la presente memoria descriptiva, pero no se les atribuye una especial importancia y funciones. En consecuencia, las terminologías "módulo" y "unidad" se pueden utilizar de manera intercambiable. Además, un terminal móvil descrito en la presente memoria descriptiva puede incluir, por ejemplo, teléfonos móviles, teléfonos inteligentes, ordenadores portátiles, terminales para difusión digital, asistentes digitales personales (PDA - Personal Digital Assistants, en inglés), reproductores multimedia portátiles (PMP - Portable Multimedia Players, en inglés) y navegadores.
La figura 1 ilustra componentes de un terminal móvil según una realización de la presente invención. El terminal móvil 100 incluye componentes tales como una unidad de comunicación inalámbrica 110, una unidad de entrada de audio/vídeo (A/V) 120, una unidad de entrada de usuario 130, una unidad de detección 140, una unidad de salida 150, memoria 160, una unidad de interfaz 170, un controlador 180 y una fuente de alimentación 190. Los componentes mostrados en la figura 1 no son indispensables, pero se comprende que se puede implementar, alternativamente, un terminal móvil que tenga más o menos componentes.
La unidad de comunicación inalámbrica 110 puede incluir uno o más módulos, permitiendo las comunicaciones inalámbricas entre el terminal móvil 100 y un sistema de comunicación inalámbrico, o entre el terminal móvil 100 y una red en la que el terminal móvil 100 está ubicado. Por ejemplo, la unidad de comunicación inalámbrica 110 incluye un módulo de recepción de difusión 111, un módulo de comunicación móvil 112, un módulo de Internet inalámbrico 113, un módulo de comunicación de corto alcance 114 y un módulo de localización de la posición 115. El módulo receptor de difusión 111 recibe señales de difusión y/o información asociada de difusión desde una entidad externa de gestión de la difusión por medio de un canal de difusión. El canal de difusión puede incluir un canal de satélite y un canal terrestre. La entidad de gestión de la difusión se refiere, en general, a un sistema que genera y transmite señales de difusión y/o información asociada a la difusión, o a un sistema que recibe señales de difusión generadas previamente y/o información asociada a la difusión y las proporciona a un terminal. Las señales de difusión pueden ser implementadas como señales de difusión de TV, señales de difusión de radio y señales de difusión de datos, entre otras. Si se desea, las señales de difusión pueden incluir, además, señales de difusión combinadas con señales de difusión de radio o TV.
La información asociada a la difusión se refiere a la información asociada con un canal de difusión, un programa de difusión o un proveedor de servicios de difusión. La información asociada a la difusión también puede ser proporcionada por medio de una red de comunicación móvil y ser recibida por el módulo de comunicación móvil 112. La información asociada a la difusión puede existir en varias formas. Por ejemplo, la información asociada a la difusión incluye una guía electrónica de programas (EPG - Electronic Program Guide, en inglés) de difusión multimedia digital (DMB - Digital Multimedia Broadcasting, en inglés) o una guía de servicios electrónicos (ESG -Electronic Service Guide, en inglés) de difusión manual de vídeo digital (DVB-H - Digital Video Broadcast-Handheld, en inglés).
El módulo de recepción de difusión 111 puede ser configurado para recibir señales de difusión transmitidas desde diversos tipos de sistemas de difusión. Como ejemplo no limitativo, dichos sistemas de difusión incluyen difusión digital multimedia terrestre (DMB-T - Digital Multimedia Broadcasting-Terrestrial, en inglés), difusión digital multimedia por satélite (DMB-S - Digital Multimedia Broadcasting-Satellite, en inglés), enlace de ida solamente para medios (MediaFLO®), difusión manual de vídeo digital (DVB-H), y difusión digital terrestre de servicios integrados (ISDB-T - Integrated Services Digital Broadcast-Terrestrial, en inglés). Asimismo, se debe comprender que el módulo de recepción de difusión 111 puede ser configurado para que sea adecuado para otros sistemas de difusión, que proporcionan señales de difusión, así como a los sistemas de difusión digital. La señal de difusión y/o la información asociada a la difusión recibida por medio del módulo de recepción de difusión 111 puede ser almacenada en la memoria 160.
El módulo de comunicación móvil 112 transmite/recibe señales de radio hacia/desde una estación base, un terminal externo y una entidad por medio de una red de comunicación móvil. Las señales de radio pueden incluir diversas formas de datos según la transmisión/recepción de señales de llamada de voz, señales de llamada de videotelefonía y mensajes de texto/multimedia.
El módulo inalámbrico de Internet 113 se refiere a un módulo para el acceso inalámbrico a Internet. Este módulo puede estar acoplado interna o externamente al terminal móvil 100. Por ejemplo, las tecnologías inalámbricas de Internet incluyen LAN inalámbrica (WLAN - Wireless LAN, en inglés) (Wi-Fi), banda ancha inalámbrica (Wi-Bro -Wireless Broadband, en inglés), interoperatividad mundial para acceso por microondas (Wimax - World Interoperability for Microwave Access, en inglés) y acceso de paquetes de enlace descendente de alta velocidad (HSD-PA - High-Speed Downlink Packet Access, en inglés).
El módulo de comunicación de corto alcance 114 se refiere a un módulo para comunicaciones de corto alcance. Por ejemplo, las tecnologías de comunicación de corto alcance adecuadas incluyen BLUETOOTH, identificación por radiofrecuencia (RFID - Radio Frequency Identification, en inglés), asociación de datos infrarrojos (IrDA - Infrared data Association, en inglés), banda ultra ancha (UWB - Ultra-WideBand, en inglés) y ZigBee.
El módulo de localización de la posición 115 es un módulo para identificar u obtener de otro modo la ubicación de un terminal móvil 100. Un ejemplo representativo del módulo de localización de la posición 115 incluye un sistema de posicionamiento global (GPS - Global Positioning System, en inglés). Según la tecnología actual, el módulo de GPS 115 puede calcular la información tridimensional de la posición en función de la latitud, la longitud y la altitud con respecto a un punto (objeto) en un tiempo específico, calculando la información acerca de la distancia de un punto (objeto) desde tres o más satélites, y la información acerca del momento en que se midió la información de la distancia y, a continuación, aplicar trigonometría a la información de distancia calculada. También se utiliza un método para calcular la información de la posición y el tiempo utilizando tres satélites y modificar el error de la posición calculada y la información del tiempo utilizando otro satélite. El módulo de g Ps 115 también continúa calculando una ubicación actual en tiempo real y calcula la información de la velocidad en función de la ubicación actual.
Con referencia adicional a la figura 1, la unidad de entrada de A/V 120 está configurada para recibir señales de audio o vídeo. La unidad de entrada de A/V 120 puede incluir una cámara 121, un micrófono 122 y otros. La cámara 121 recibe y procesa fotogramas de imagen de imágenes fijas o vídeo obtenidos por un sensor de imagen en un modo de videollamada o un modo de fotografía. Los fotogramas de imagen procesados pueden ser mostrados en la pantalla 151.
Los fotogramas de imagen procesados en la cámara 121 pueden ser almacenados en la memoria 160 o ser transmitidos al exterior por medio de la unidad de comunicación inalámbrica 110. Se pueden incluir dos o más cámaras 121 según el aspecto de configuración de un terminal.
El micrófono 122 recibe señales de sonido externas en diversos modos, tal como un modo de llamada telefónica, un modo de grabación y un modo de reconocimiento de voz, y procesa las señales de sonido en datos eléctricos de voz. Los datos de voz procesados pueden ser convertidos a un formato, que puede ser transmitido a una estación base de comunicación móvil por medio del módulo de comunicación móvil 112, por ejemplo, en el modo de llamada telefónica, y, a continuación, ser emitidos como un sonido o voz por medio de la unidad de salida 150, tal como una unidad de salida de audio 152. Se pueden implementar diversos algoritmos de eliminación de ruido para eliminar el ruido que se produce en el curso de la recepción de señales de sonido externas en el micro teléfono 122.
La unidad de entrada de usuario 130 genera datos de entrada que responden a la manipulación por el usuario de un terminal o terminales asociados. Ejemplos de la unidad de entrada de usuario 130 incluyen un teclado, un interruptor domo, una rueda de desplazamiento, un interruptor de desplazamiento y un panel táctil, tal como de presión estática/capacitancia.
La unidad de detección 140 detecta el estado actual del terminal móvil 100 y genera una señal de detección para controlar la operación del terminal móvil 100. Por ejemplo, la unidad de detección 140 detecta un estado de apertura/cierre del terminal móvil 100, la posición del terminal móvil 100, la presencia o ausencia de contacto del usuario con el terminal móvil 100, la orientación del terminal móvil 100 y la aceleración/desaceleración del terminal móvil 100. Por ejemplo, cuando el terminal móvil 100 está configurado como un terminal móvil de tipo deslizante, la unidad de detección 140 detecta si una parte deslizante del terminal móvil 100 está abierta o cerrada. Otros ejemplos incluyen la unidad de detección 140 que detecta la presencia o ausencia de potencia proporcionada por la fuente de alimentación 190, la presencia o ausencia de un acoplamiento u otra conexión entre la unidad de interfaz 170 y un dispositivo externo. La unidad de detección 140 puede incluir, además, un sensor de proximidad 141, que se describe a continuación con más detalle.
La unidad de salida 150 está configurada para generar salidas asociadas con el sentido de la vista, el sentido del oído, el sentido del tacto, etc., y puede incluir una pantalla 151, la unidad de salida de audio 152, una unidad de alarma 153, un módulo háptico 154 y otros.
La pantalla 151 muestra la información procesada en el terminal móvil 100. Por ejemplo, cuando el terminal móvil 100 está en modo de llamada telefónica, la pantalla 151 muestra una interfaz de usuario (Ul - User Interface, en inglés) o una interfaz gráfica de usuario (GUI - Graphic User Interface, en inglés), que está asociada con una llamada telefónica. Cuando el terminal móvil 100 está en un modo de llamada de vídeo o en un modo de fotografía, la pantalla 151 muestra imágenes fotografiadas y/o recibidas, UI o GUI.
La pantalla 151 puede ser implementada utilizando tecnologías de pantalla conocidas que incluyen, por ejemplo, una pantalla de cristal líquido (LCD - Liquid Crystal Display, en inglés), una pantalla de transistor de película delgada -cristal líquido (TFT-LCD - Thin Film Transistor - Liquid Crystal Display, en inglés), una pantalla de diodo orgánico emisor de luz (OLED - Organic Light-Emitting Diode Display, en inglés), una pantalla flexible y una pantalla tridimensional. Algunas de las pantallas 151 pueden ser configuradas en un tipo transparente o en un tipo de transmisión de luz, permitiendo que se vea el exterior a través de las mismas. Esto se denomina pantalla transparente. Ejemplos representativos de la pantalla transparente incluyen una LCD transparente. Algunas de las pantallas 151 también pueden ser configuradas en una estructura posterior o tipo de transmisión de luz de la pantalla 151. Dichas configuraciones permiten al usuario ver objetos situados en la parte posterior del cuerpo de un terminal por medio de una zona ocupada por la pantalla 151 del cuerpo del terminal.
Dos o más pantallas 151 pueden estar presentes según el tipo de configuración del terminal móvil 100. Por ejemplo, una pluralidad de las pantallas 151 puede estar dispuesta con ellas separadas entre sí o integralmente en una superficie del terminal móvil 100 y dispuestas en diferentes superficies del terminal móvil 100.
Cuando la pantalla 151 y un sensor táctil, que es un sensor para detectar una operación táctil, constituyen una estructura en capas o una pantalla táctil, la pantalla 151 también se puede utilizar como dispositivo de entrada y como dispositivo de salida. El sensor táctil puede tener una forma tal como una película táctil, una lámina táctil y una almohadilla táctil.
El sensor táctil puede estar configurado para convertir un cambio en la presión aplicada a una parte específica de la pantalla 151 o en la capacitancia electrostática que se produce en una parte específica de la pantalla 151 en una señal de entrada eléctrica. El sensor táctil puede estar configurado para detectar la presión en el momento del contacto, así como una posición y zona tocadas.
Cuando el sensor táctil recibe una entrada táctil, se envía una señal o señales correspondientes a un controlador táctil. El controlador táctil procesa la señal o señales y transmite los datos correspondientes al controlador 180. De este modo, el controlador 180 puede determinar qué zona de la pantalla 151 ha sido tocada.
El sensor de proximidad 141 puede ser posicionado en una zona interna del terminal móvil 100, que está rodeada por la pantalla táctil, o cerca de la pantalla táctil. El sensor de proximidad 141 se refiere a un sensor para detectar objetos que se acercan a una superficie de detección específica o si existen objetos cercanos sin contacto directo mediante la utilización de fuerza electromagnética o rayos infrarrojos. El sensor de proximidad 141 tiene una vida útil más larga que la de un sensor de tipo de contacto y también tiene una mayor eficiencia.
Ejemplos del sensor de proximidad 141 incluyen un sensor fotoeléctrico del tipo de transmisión, un sensor fotoeléctrico del tipo de reflexión directa, un sensor fotoeléctrico del tipo de reflexión especular, un sensor de proximidad del tipo de oscilación de alta frecuencia, un sensor de proximidad del tipo de capacitancia electrostática, un sensor de proximidad del tipo magnético y un sensor de proximidad de infrarrojos.
Cuando la pantalla táctil es del tipo electrostático, la pantalla táctil está configurada para detectar la proximidad de un puntero en base a un cambio en el campo eléctrico según la proximidad del puntero. En este caso, la pantalla táctil (sensor táctil) se puede clasificar como un sensor de proximidad.
En lo sucesivo, por conveniencia de la descripción, un comportamiento en el que un puntero se acerca a la pantalla táctil sin tocar la pantalla táctil y, por lo tanto, el puntero se reconoce como si existiera en la pantalla táctil, se conoce como un "toque de proximidad", y un comportamiento en el que un puntero toca realmente en la pantalla táctil se conoce como "toque de contacto". Una posición táctil de proximidad del puntero en la pantalla táctil se refiere a una posición en la que el puntero corresponde verticalmente a la pantalla táctil cuando el puntero se convierte en el toque de proximidad.
El sensor de proximidad 141 está configurado para detectar una acción de contacto de proximidad y un patrón de contacto de proximidad, que incluye, por ejemplo, una distancia de contacto de proximidad, una dirección de contacto de proximidad, una velocidad de contacto de proximidad, un tiempo de contacto de proximidad, una posición de toque de proximidad, y un estado de movimiento de toque de proximidad. La información correspondiente a la operación táctil de proximidad detectada y el patrón táctil de proximidad puede ser enviada en una pantalla táctil.
La unidad de salida de audio 152 puede enviar datos de audio, que se reciben desde la unidad de comunicación inalámbrica 110 o están almacenados en la memoria 160, en diversos modos que incluyen un modo de recepción de llamada, un modo de establecimiento de llamada, un modo de grabación, un modo de reconocimiento de voz y un modo de recepción de difusión. La unidad de salida de audio 152 emite audio relacionado con una función particular, por ejemplo, llamada recibida o mensaje recibido, que se realiza en el terminal móvil 100. La unidad de salida de audio 152 puede ser implementada utilizando receptores, altavoces, zumbadores y otros.
La unidad de alarma 153 envía señales para informar de la ocurrencia de eventos en el terminal móvil 100. Por ejemplo, los eventos que ocurren en el terminal móvil 100 incluyen señales, incluyendo llamadas recibidas y mensajes recibidos, una señal de entrada clave y una entrada táctil. La unidad de alarma 153 también puede enviar señales para informar de la ocurrencia de eventos de manera diferente a la señal de audio o vídeo, por ejemplo, por medio de vibración. La señal de vídeo o la señal de audio también pueden ser enviadas por medio de la pantalla 151 o de la unidad de salida de audio 152.
El módulo háptico 154 genera una variedad de efectos hápticos que pueden ser percibidos por un usuario. Uno de los ejemplos representativos de los efectos hápticos, que son generados por el módulo háptico 154, incluye un efecto de vibración. La intensidad y el patrón de vibración generados por el módulo háptico 154 pueden ser controlados. Por ejemplo, diferentes vibraciones pueden ser combinadas o producidas o enviadas secuencialmente. El módulo háptico 154 puede generar diversos efectos hápticos, por ejemplo, un efecto causado por el estímulo de la disposición de los pasadores, que se desplazan verticalmente hacia la superficie de contacto con la piel, un efecto causado por un estímulo por medio de la fuerza de pulverización o la fuerza de aspiración del aire, por medio de una boquilla de inyección o una entrada, un efecto causado por un estímulo que pasa sobre la superficie de la piel, un efecto causado por un estímulo por medio del contacto de un electrodo, un efecto causado por un estímulo que emplea fuerza electrostática y un efecto causado por la reaparición de una sensación de frío y calor empleando un elemento que puede absorber o generar calor, así como el efecto de vibración.
El módulo háptico 154 puede ser implementado no solo para transferir los efectos hápticos por medio de un contacto directo, sino también para hacer sentir los efectos hápticos por medio de partes del cuerpo de un usuario, tal como un dedo y un brazo. Se pueden incluir dos o más módulos hápticos 154 según una configuración del terminal móvil 100.
La memoria 160 puede almacenar programas para una operación del controlador 180 y también almacenar temporalmente datos de entrada/salida, tales como datos de la agenda del teléfono, mensajes, imágenes y vídeo. La memoria 160 puede almacenar datos de varios patrones de vibraciones y sonidos, que se emiten en el momento de la entrada táctil en una pantalla táctil.
La memoria 160 puede incluir al menos un tipo de medios de almacenamiento, que incluyen un tipo de memoria rápida (flash, en inglés), un tipo de disco duro, un tipo de micrófono de tarjeta multimedia, una memoria de tipo de tarjeta tal como una memoria SD o XD, una memoria de acceso aleatorio (RAM - Random Access Memory, en inglés), una memoria estática de acceso aleatorio (SRAM - Static Random Access Memory, en inglés), una memoria de solo lectura (ROM - Read Only Memory, en inglés), una memoria de solo lectura programable que se puede borrar eléctricamente (EEPROM - Electrically Erasable Programmable Read-Only Memory, en inglés), una memoria magnética programable (PROM - Programmable Read-Only Memory), una memoria magnética, un disco magnético y un disco óptico. El terminal móvil 100 también puede operar en asociación con un almacenamiento en la web que realiza una función de almacenamiento de la memoria 160 en Internet.
La unidad de interfaz 170 se implementa a menudo para acoplar el terminal móvil 100 con dispositivos externos. La unidad de interfaz 170 está configurada para recibir datos o potencia desde los dispositivos externos y transferir los datos o la potencia a cada componente dentro del terminal móvil 100, o transmitir datos en el terminal móvil 100 a los dispositivos externos. Por ejemplo, un puerto para cascos con cable/inalámbrico, un puerto para cargador externo, un puerto de datos con cable/inalámbrico, un puerto para tarjeta de memoria, un puerto para tarjeta de módulo de identidad, un puerto de entrada/salida de audio (I/O), un I/O de vídeo y un puerto para auriculares pueden estar incluidos en la unidad de interfaz 170.
El módulo de identidad es un chip que almacena diversos fragmentos de información para autenticar los derechos de utilización del terminal móvil 100, y puede incluir un módulo de identificación de usuario (UIM - User Identity Module, en inglés), un módulo de identidad de abonado (SIM - Subscriber Identity Module, en inglés), un módulo de identidad universal de abonado (USIM - Universal Subscriber Identity Module, en inglés) y otros. Un aparato equipado con el módulo de identidad o con el dispositivo de identidad se puede fabricar en forma de tarjeta inteligente. En consecuencia, el dispositivo de identidad puede ser conectado al terminal móvil 100 por medio de un puerto.
La unidad de interfaz 170 se puede convertirse en un paso por medio del cual la fuente de alimentación desde una base externa es suministrada al terminal móvil 100 cuando el terminal móvil 100 está acoplado a la base, o un paso por medio del cual un usuario transfiere una variedad de señales de entrada de comando desde la base al terminal móvil 100. La variedad de señales de comando o la entrada de la fuente de alimentación desde la base pueden funcionar como señales para reconocer que el terminal móvil 100 ha sido montado en la base de manera precisa.
El controlador 180 controla, habitualmente, las operaciones generales del terminal móvil 100. Por ejemplo, el controlador 180 realiza el control y el procesamiento según las llamadas de voz, las comunicaciones de datos y las videollamadas. El controlador 180 puede incluir un módulo multimedia 181 para la reproducción multimedia. El módulo multimedia 181 puede estar implementado dentro del controlador 180 o de manera separada del controlador 180. Además, el controlador 180 puede realizar un procesamiento de reconocimiento de patrones en el que la entrada de escritura o la entrada de dibujo realizada en una pantalla táctil se pueden reconocer como texto e imágenes.
La fuente de alimentación 190 proporciona una fuente de alimentación interna y/o una fuente de alimentación externa requerida por diversos componentes bajo el control del controlador 180.
Las diversas realizaciones descritas en el presente documento pueden ser implementadas en un medio de grabación legible por un ordenador o sus dispositivos similares empleando, por ejemplo, software, hardware o algunas combinaciones de los mismos.
Para una implementación de hardware, las realizaciones descritas en este documento pueden implementarse en al menos uno de circuitos integrados específicos para una aplicación (ASIC - Application-Specific Integrated Circuits, en inglés), procesadores de señal digital (DSP - Digital Signal Procesors, en inglés), dispositivos de procesamiento de señal digital (DSPD - Digital Signal Processing Devices, en inglés), dispositivos lógicos programables (PLD -Programmable Logic Devices, en inglés), matrices de puertas programables (FPGA - Field Programmable Gate Arrays, en inglés), procesadores, controladores, microcontroladores, microprocesadores, otras unidades electrónicas diseñadas para realizar las funciones descritas en el presente documento o una combinación selectiva de las mismas. En algunos casos, las realizaciones pueden ser implementadas por el controlador 180.
Para una implementación mediante software, las realizaciones tales como procedimientos y funciones pueden ser implementadas mediante módulos de software separados, cada uno de los cuales realiza una o más de las funciones y operaciones descritas en el presente documento. Los códigos de software pueden ser implementados utilizando una aplicación de software escrita en cualquier lenguaje de programación adecuado. Los códigos de software pueden estar almacenados en la memoria 160 y ser ejecutados por el controlador 180.
La figura 2A es una vista, en perspectiva, de un lado frontal del terminal móvil según una realización de la presente invención. En esta realización, el terminal móvil 100 tiene un cuerpo terminal de tipo barra. La presente invención no se limita al ejemplo anterior, sino que se puede aplicar a una variedad de configuraciones en las que dos o más cuerpos están acoplados de tal manera que se mueven unos con respecto a otros, como el tipo de deslizamiento, tipo de carpeta, tipo de giro y tipo de balanceo, y combinaciones de los mismos.
Un cuerpo incluye una caja, tal como una carcasa, un alojamiento o una cubierta, que constituye una apariencia externa del terminal móvil 100. En la presente realización, la caja se divide en una caja frontal 101 y una caja posterior 102. Una variedad de componentes electrónicos están integrados en un espacio formado entre la caja frontal 101 y la caja posterior 102. Al menos una caja intermedia puede estar dispuesta entre la caja frontal 101 y la caja posterior 102. Las cajas se pueden fabricar inyectando resina sintética o se pueden fabricar para tener materiales metálicos tales como acero inoxidable (STS) o titanio (Ti).
Tal como se muestra en la figura 2A, la pantalla 151, la unidad de salida de audio 152, la cámara 121, la unidad de entrada de usuario 130 (131, 132), el micrófono 122 y la unidad de interfaz 170 están dispuestas en el cuerpo del terminal, principalmente, en la caja frontal 101.
La pantalla 151 ocupa la mayor parte de la superficie principal de la carcasa frontal 101. La unidad de salida de audio 152 y la cámara 121 están dispuestas en una zona adyacente a uno de los dos extremos de la pantalla 151, y la unidad de entrada de usuario 131 y el micrófono 122 están dispuestos en una zona adyacente al otro de los dos extremos de la pantalla 151. La unidad de entrada de usuario 132 y la unidad de interfaz 170 están dispuestas en los lados de la caja frontal 101 y la caja posterior 102.
La unidad de entrada de usuario 130 es manipulada para recibir comandos para controlar las operaciones del terminal móvil 100 y puede incluir la pluralidad de unidades de entrada de usuario 131 y 132. Las unidades de entrada de usuario 131 y 132 también se pueden denominar colectivamente una 'parte de manipulación', y pueden adoptar cualquier tipo de método siempre que tenga una forma táctil, lo que permite al usuario manipular las unidades de entrada de usuario 131 y 132 mientras percibe un sentido táctil.
El contenido introducido por la primera y la segunda parte de manipulación puede ser establecido de diversas maneras. Por ejemplo, la primera parte de manipulación puede estar configurada para recibir comandos, tales como iniciar, detener y desplazar, y la segunda parte de manipulación puede estar configurada para recibir comandos, tales como un control del volumen de la salida de audio desde la unidad de salida de audio 152, o cambiar la pantalla 151 a un modo de reconocimiento táctil.
La figura 2B es una vista, en perspectiva, de un lado posterior del terminal móvil 100. Con referencia a la figura 2B, se puede montar una cámara adicional 121' en el lado posterior del cuerpo terminal o en la caja posterior 102. La cámara 121' puede ser una cámara, orientada hacia una dirección que es sustancialmente opuesta a una dirección orientada hacia la cámara 121 mostrada en la figura 2A y tiene píxeles diferentes a los de la cámara 121.
Por ejemplo, la cámara 121 puede ser accionada para capturar una imagen de la cara de un usuario con una resolución relativamente baja que es suficiente para transmitir la imagen capturada a una contraparte durante una comunicación de vídeo. En contraste, la cámara 121 puede ser operada para generar una imagen de resolución relativamente más alta con el fin de obtener imágenes de mayor calidad para su utilización posterior o para comunicarse con otros. Las cámaras 121 y 121' pueden estar instaladas en el cuerpo del terminal, de tal manera que pueden girar o desplegarse hacia arriba.
Una memoria rápida 123 y un espejo 124 pueden estar dispuestos adicionalmente adyacentes a la cámara 121'. La memoria rápida 123 irradia luz hacia un sujeto cuando el sujeto es fotografiado por la cámara 121'. El espejo 124 es útil para ayudar a un usuario a colocar la cámara 121 en un modo de autorretrato.
Una unidad de salida de audio 152' puede estar dispuesta más alejada en la parte posterior del cuerpo del terminal. La unidad de salida de audio 152' puede implementar una función estéreo junto con la unidad de salida de audio 152 del lado frontal, tal como se muestra en la figura 2A, y se puede utilizar para implementar un modo de teléfono con altavoz en el momento de las llamadas.
Una antena 124 para recibir señales de difusión distintas de una antena para llamadas puede estar dispuesta adicionalmente en el lado del cuerpo del terminal. La antena 124, que constituye una parte del módulo de recepción de difusión 111, como se muestra en la figura 1, puede ser configurada para ser retraída del cuerpo del terminal. La fuente de alimentación 190 para suministrar energía al terminal móvil 100 puede estar montada en el cuerpo del terminal. La fuente de alimentación 190 puede estar configurada interna o externamente al cuerpo del terminal, de tal manera que sea directamente desmontable del mismo.
Una almohadilla táctil 135 para toque de detección puede estar montada adicionalmente en la caja posterior 102. La almohadilla táctil 135 también puede ser configurada en una pantalla de tipo de transmisión de luz. Cuando la pantalla 151 está configurada para enviar información de la vista desde sus dos lados, la información de la vista también se puede reconocer incluso por medio de la almohadilla táctil 135. La salida de información a ambos lados de la pantalla 151 puede ser controlada mediante la almohadilla táctil 135.
A diferencia de la realización descrita anteriormente, en un aspecto de la presente invención, una pantalla 151 puede estar montada adicionalmente en la almohadilla táctil 135 y, por lo tanto, una pantalla táctil puede estar dispuesta en la caja trasera 102.
La almohadilla táctil 135 puede funcionar en asociación con la pantalla 151 de la caja frontal 101. La almohadilla táctil 135 puede estar dispuesta en paralelo a la pantalla 151 en la parte posterior de la pantalla 151. La almohadilla táctil 135 puede tener un tamaño que sea idéntico al de la pantalla 151 o menor que el mismo.
A continuación, se describe un método de operación asociado de la pantalla 151 y la almohadilla táctil 135 con referencia a las figuras 3A y 3B. Las figuras 3A y 3B son vistas frontales de un terminal móvil según una realización de la presente invención. Se pueden visualizar diversos tipos de información visual en la pantalla 151. Dicha información puede ser visualizada en forma de texto, números, símbolos, gráficos, iconos y otros.
Para introducir dicha información, al menos uno de los textos, números, símbolos, gráficos e iconos se puede mostrar como una disposición específica, de tal manera que puede estar implementado en forma de teclado numérico. Este teclado numérico se puede denominar 'tecla de función'.
La figura 3A ilustra que el toque aplicado a las teclas de función se introduce por la parte frontal del cuerpo del terminal. La pantalla 151 puede ser operada en toda la región o ser operada en el estado en el que la pantalla está dividida en una pluralidad de regiones. En este último caso, la pluralidad de regiones se puede configurar de manera que funcionen en conjunto unas con otras.
Por ejemplo, una ventana de salida 151a y una ventana de entrada 151b se muestran en los lados superior e inferior de la pantalla 151, respectivamente. Las teclas de función 151c, en las que se muestran los números para introducir un número, tal como un número de teléfono, se envían a la ventana de entrada 151b. Cuando se tocan las teclas de función 151c, los números correspondientes a las teclas de función tocadas se muestran en la ventana de salida 151a. Si se manipula la primera parte de manipulación o la unidad de entrada de usuario 131, se intenta establecer una conexión con un número de teléfono que se muestra en la ventana de salida 151a.
La figura 3B ilustra que el toque aplicado a las teclas de función se introduce por la parte trasera del cuerpo del terminal. Mientras que el cuerpo del terminal está dispuesto verticalmente en orientación vertical en la figura 3a , en la figura 3B, el cuerpo del terminal está dispuesto horizontalmente en orientación horizontal. La pantalla 151 puede estar configurada para cambiar su pantalla de salida según la orientación del cuerpo del terminal.
Con referencia adicional a la figura 3B, se activa un modo de entrada de texto en el terminal móvil 100. Una ventana de salida 135a y una ventana de entrada 135b se muestran en la pantalla 151. Las teclas de función 135c en cada una de las cuales se muestra al menos uno de texto, símbolos, y números, pueden estar dispuestas en varios números en la ventana de entrada 135b. Las teclas de función 135c pueden estar dispuestas en forma de clave QWERTY.
Cuando las teclas de función 135c son tocadas por medio de un teclado táctil 135, el texto, los números o los símbolos correspondientes a las teclas de función tocadas se muestran en la ventana de salida 135a. Tal como se ha descrito anteriormente, la entrada táctil por medio de la almohadilla táctil 135 puede evitar que las teclas de función 135c se cubran con los dedos en el momento del toque, en comparación con la entrada táctil por medio de la pantalla 151. Cuando la pantalla 151 y la almohadilla táctil 135 son transparentes, los dedos situados en la parte posterior del cuerpo del terminal se pueden ver a simple vista, lo que permite una entrada táctil más precisa.
La pantalla 151 o la almohadilla táctil 135 pueden estar configuradas para recibir una entrada táctil por medio de desplazamiento, así como el método de entrada descrito en las realizaciones explicadas anteriormente. Un usuario puede desplazar un cursor o un puntero situado en un objeto, por ejemplo, un icono, que se muestra en la pantalla 151, desplazando la pantalla 151 o la almohadilla táctil 135. Además, cuando se desplaza un dedo en la pantalla 151 o en la almohadilla táctil 135, la ruta a lo largo de la cual se desplaza el dedo se puede ver en la pantalla 151. Esto puede ser útil cuando se editan imágenes mostradas en la pantalla 151.
Una de las funciones del terminal móvil 100 puede ser ejecutada cuando la pantalla 151 o la pantalla táctil y la almohadilla táctil 135 se tocan al mismo tiempo dentro de un período de tiempo específico. Cuando la pantalla 151 o la pantalla táctil y la almohadilla táctil 135 se tocan al mismo tiempo, un usuario puede sujetar el cuerpo del terminal con su dedo pulgar e índice. Una de las funciones puede ser, por ejemplo, la activación o desactivación de la pantalla 151 o la almohadilla táctil 135.
El sensor de proximidad 141 descrito con referencia a la figura 1 se describe con más detalle con referencia a la figura 4. La figura 4 ilustra la profundidad de proximidad del sensor de proximidad. Tal como se muestra en la figura 4, cuando un puntero, tal como el dedo de un usuario, se acerca a una pantalla táctil, el sensor de proximidad 141 dispuesto dentro o cerca de la pantalla táctil detecta dicha aproximación y emite una señal de proximidad.
El sensor de proximidad 141 puede estar configurado para emitir una señal de proximidad diferente dependiendo de la distancia entre el puntero en la proximidad y la pantalla táctil, y la distancia se denomina "profundidad de proximidad". La distancia en la que se emite una señal de proximidad cuando un puntero se acerca a la pantalla táctil se denomina distancia de detección. En resumen, la profundidad de proximidad se puede determinar comparando la salida de señales de proximidad de una pluralidad de sensores de proximidad 141 que detectan diferentes profundidades de proximidad.
La figura 4 muestra una sección transversal de una pantalla táctil en la que está dispuesto el sensor de proximidad 141 capaz de detectar, por ejemplo, tres profundidades de proximidad. Alternativamente, también es posible un sensor de proximidad 141 capaz de detectar menos de tres, o cuatro o más profundidades de proximidad. Específicamente, cuando el puntero se toca directamente en la pantalla táctil (D0), es reconocido como un toque de contacto. Cuando el puntero está separado de la pantalla táctil en una distancia D1 o menor, es reconocido como un toque de proximidad de una primera profundidad de proximidad. Cuando el puntero está separado de la pantalla táctil en más de una distancia D1 y menos de una distancia D2, es reconocido como un toque de proximidad de una segunda profundidad de proximidad. Cuando el puntero está separado de la pantalla táctil por más de una distancia D2 y menos de una distancia D3, se reconoce como un toque de proximidad de una tercera profundidad de proximidad. Además, cuando el puntero está separado de la pantalla táctil por una distancia D3 o más, se reconoce que se libera un toque de proximidad.
En consecuencia, el controlador 180 reconoce el toque de proximidad como varias señales de entrada según una distancia de proximidad o una posición de proximidad del puntero con respecto a la pantalla táctil y puede realizar varios controles de operación basados en las diversas señales de entrada reconocidas. En la siguiente descripción de la presente invención, la pantalla 151 se implementa como una pantalla táctil y se utilizará el término pantalla táctil 151 en lugar de la pantalla 151. Además, en la siguiente descripción, 'toque' incluye tanto un toque de proximidad como un contacto o contacto directo. Además, la “entrada táctil” incluye todos los tipos de señales de entrada correspondientes a varios tipos de toques, tal como el toque abajo, el retoque, el lapso de un tiempo de sostenimiento actual posterior al toque, arrastrar y soltar.
La figura 5 es un diagrama de flujo que ilustra un proceso de captura de una imagen en un terminal móvil equipado con una pantalla táctil según una realización de la presente invención. Las figuras 6A a 6E y 7A y 7B ilustran un proceso realizado en la pantalla táctil del terminal móvil, correspondiendo cada figura a un paso diferente en el diagrama de flujo que se muestra en la figura 5. Un método de captura de imagen en el terminal móvil 100 incluye la pantalla táctil según una realización de la presente invención se describe con referencia a las figuras 5 a 7B.
Cuando se selecciona una función de cámara desde un menú que se muestra en la pantalla táctil 151, incluida la unidad de detección 140, o cuando se inicia una función de cámara de la cámara 121 o 121' en el terminal móvil 100 en respuesta a una entrada de usuario recibida por medio de la unidad de entrada de usuario 130 [S210], el controlador 180 muestra una vista previa de una entrada de imagen o recibida a través de la cámara 121 o 121' en la pantalla táctil 151 [S220].
La figura 6A muestra un ejemplo en el que se implementa S220, que muestra la imagen de vista previa en la pantalla táctil 151. La imagen de vista previa se muestra en la pantalla táctil 151 cuando se introduce una imagen por medio de la cámara 121 o 121'. Por ejemplo, la imagen es procesada en una imagen de baja resolución y, a continuación, se muestra en la pantalla táctil 151.
Con referencia adicional a la figura 6A, una guía de enfoque automático (AFG - Auto Focus Guide, en inglés), que indica una posición en la que se realizará el enfoque o una ventana de enfoque para capturar una imagen, se muestra, en general, en una parte central de la pantalla táctil 151. En un aspecto de la presente invención, la AFG se muestra en la parte central de la pantalla táctil 151 por defecto cuando se inicia la función de la cámara. Alternativamente, la AFG puede no mostrarse cuando se inicia la función de la cámara hasta que se recibe una entrada táctil en la imagen de vista previa.
En el método de captura de imágenes según una realización de la presente invención, un usuario desplaza la AFG hasta una posición específica en la pantalla táctil 151, de tal manera que el enfoque automático se realiza en la posición específica en la que se muestra la AFG. Por ejemplo, cuando una imagen de vista previa mostrada en la pantalla táctil 151 incluye dos objetos Obj1 y Obj2 tal como se muestra en la figura 6A, el usuario toca cualquiera de los dos objetos para seleccionar un objeto a enfocar. Por ejemplo, en la figura 6B, el primer objeto Obj1 se selecciona tocando el Obj 1 con la punta del dedo del usuario o con un lápiz óptico.
Cuando un borde con una nitidez igual o superior a un nivel específico es recuperado en la misma posición del análisis de imágenes de una pluralidad de imágenes introducidas por medio de la cámara 121 o 121', esto se denomina un objeto. Según la presente realización, el enfoque automático se realiza cuando la ventana de enfoque es desplazada a una posición específica en la pantalla táctil 151 mediante una entrada táctil de un usuario. Por consiguiente, en la presente invención, es posible enfocar un objeto que no está situado en el centro de la pantalla táctil 151.
Para realizar un enfoque con éxito con respecto a una posición en una imagen de vista previa seleccionada mediante un toque según el método de enfoque automático que se describe a continuación, debe estar presente un objeto o un objetivo en el que se realizará el enfoque en la posición seleccionada. Por consiguiente, si el enfoque se realiza en la posición seleccionada, el enfoque también se realiza en el objeto presente en la posición seleccionada. Por consiguiente, el controlador 180 realiza una operación de búsqueda en un objeto presente en una posición correspondiente mediante enfoque en una posición correspondiente a un valor de coordenadas, que es introducido de acuerdo con el toque en la pantalla táctil 151, sin determinar, por ello, si el objeto está presente en la ventana de enfoque o sin realizar un análisis adicional de la imagen, tal como la determinación de la nitidez, para cada píxel de la imagen de vista previa. Si el enfoque falla debido a la ausencia de un objeto en una posición correspondiente a una entrada de valor de coordenadas según el toque, el controlador 180 puede realizar un enfoque en un objeto adyacente a la posición, ampliando la AFG o la ventana de enfoque tanto como hasta un rango preestablecido en base al valor de coordenada correspondiente y, a continuación, realizando de nuevo el enfoque en el objeto adyacente.
Aunque el número de objetos mostrados en la imagen de vista previa es dos en las figuras 6A a 8B, por conveniencia de la descripción, esta configuración es solo para fines ilustrativos. Se debe comprender que el número de objetos no está limitado y el enfoque automático se puede realizar cuando existen dos o más objetos en la imagen de vista previa. El enfoque según la presente invención se puede realizar con respecto a cualquier posición específica seleccionada, y con independencia de la posición de un objeto en la pantalla. Por lo tanto, un objeto seleccionado por un usuario puede ser cualquier objeto mostrado en la imagen de vista previa. Sin embargo, el controlador 180 puede estar configurado de tal modo que las partes de borde de la pantalla táctil 151 no se seleccionen como una posición para el enfoque automático, ya que el enfoque automático puede no realizarse con éxito en las partes de borde.
La figura 7A muestra un ejemplo en el que el segundo objeto Obj2 es tocado y seleccionado en la imagen de vista preliminar que se muestra inicialmente en la figura 6A. El controlador 180 determina si la entrada táctil ha sido recibida en la pantalla táctil 151 [S230]. Si bien existen varios tipos de entrada táctil y el método de la entrada táctil no está limitado, en la presente realización, el toque se mantiene durante un período de tiempo preestablecido para que se reconozca como entrada táctil para el enfoque automático.
Cuando se toca la pantalla táctil 151 y el toque o contacto es mantenido durante un período de tiempo predeterminado, por ejemplo, un segundo o más, el controlador 180 desplaza la ventana de enfoque a la posición tocada y, a continuación, muestra la AFG en la posición de la ventana de enfoque, tal como se muestra en la figura 6C. A continuación, el controlador 180 realiza el enfoque automático en la posición de la ventana de enfoque en la que se ha recibido la entrada táctil [S240]. El control de la cámara 121 o 121' para el enfoque automático puede emplear un mecanismo de enfoque automático conocido, según el tipo de cámara 121 o 121'. Por ejemplo, el controlador 180 controla el enfoque del primer objeto Obj1, presente en la posición seleccionada, que se realizará controlando directamente una lente dispuesta en la cámara 121 o 121' y un motor para accionar la lente.
Si el enfoque automático en el primer objeto Obj1 presente en la posición seleccionada tiene éxito [S241: Y], el controlador 180 informa al usuario de que el enfoque automático ha tenido éxito por medio de la unidad de salida 150 [S243]. Por ejemplo, el controlador 180 emite un sonido de disparador por medio de la unidad de alarma 153 y/o cambia el color de la AFG, tal como se muestra en la figura 6D. Además, el controlador 180 puede realizar una o más de una variedad de representaciones gráficas en combinación, incluyendo la emisión de un sonido, un cambio en el color de una imagen y/o texto en la pantalla táctil 151, parpadeo y otros.
Una vez que se informa al usuario sobre el resultado del enfoque en el primer objeto Obj1 presente en la posición seleccionada, el usuario introduce posteriormente un comando de captura de imagen para tomar una imagen o capturar la imagen enfocada. Según una realización de la presente invención, el comando de captura de imagen se libera del contacto o toque, por ejemplo, retirando el dedo del usuario o el lápiz óptico de la posición en la que el contacto o toque se mantiene actualmente.
En consecuencia, el controlador 180 determina si un comando de captura de imagen ha sido introducido por un usuario [S250]. Si se determina que el comando de captura de imagen ha sido introducido, según un ejemplo, el controlador 180 controla inmediatamente la cámara 121 o 121' para capturar una imagen enfocada en el primer objeto Obj1 [S260], tal como se muestra en la figura 6E. Mientras que la figura 6E muestra una imagen capturada realizando el enfoque automático en el primer objeto Obj1, la figura 7b muestra una imagen capturada realizando el enfoque automático en el segundo objeto Obj2.
Tal como se muestra en las figuras 6E y 7B, según la presente invención, una posición en la que se realizará el enfoque automático, es decir, una ventana de enfoque, puede ser cambiada por un usuario. En consecuencia, en una imagen capturada, cualquier objeto está enfocado y puede mostrarse nítidamente, mientras que los objetos restantes no están enfocados y pueden verse borrosos. Por lo tanto, incluso un fotógrafo no profesional puede conseguir una fotografía de alta calidad, de tal manera que la profundidad del sujeto se represente adecuadamente, utilizando el método de captura de imágenes según la presente invención.
Aunque el controlador 180 puede realizar la captura de imágenes determinando el final del contacto táctil como la entrada para un comando de captura de imágenes, tal como se describió anteriormente, capturando de este modo la imagen justo después de que se haya liberado el contacto táctil, según la realización de la invención, el controlador 180 está configurado para reconocer la entrada para el comando de captura de imagen cuando ha transcurrido un período de tiempo preestablecido desde el final del toque de contacto, realizando de este modo la captura de imagen después del período de tiempo predeterminado desde la liberación del toque de contacto.
Alternativamente, después de que el enfoque haya tenido éxito, después de haber mantenido el toque durante un período de tiempo preestablecido, el controlador 180 puede informar al usuario del enfoque con éxito, de tal manera que el usuario pueda finalizar la entrada táctil. A continuación, si el usuario no recibe ninguna entrada táctil adicional durante otro período de tiempo preestablecido desde que el enfoque tuvo éxito o se liberó el contacto táctil, el controlador 180 reconoce un comando de captura de imagen después de otro período de tiempo preestablecido desde la liberación del toque de contacto y controla la cámara 121 o 121' para capturar una imagen en ese momento.
Alternativamente, como ejemplo adicional, el controlador 180 puede estar configurado para mostrar un icono específico para introducir un comando de captura de imagen en la pantalla táctil 151 cuando comienza una función de la cámara o el enfoque ha tenido éxito, de tal modo que la imagen se captura cuando el icono es seleccionado por el usuario.
Las figuras 8A y 8B ilustran un proceso de realización de captura de imágenes en un terminal móvil según un ejemplo útil para comprender la presente invención. Algunas de las características descritas anteriormente también se pueden aplicar a este ejemplo.
Cuando se inicia la función de la cámara 121 o 121' S210 tal como se ilustra en la figura 5, se muestra una imagen de vista previa en la pantalla táctil 151 en S220. Posteriormente, el controlador 180 determina si la entrada táctil se ha recibido en la pantalla táctil 151 en S230. En el presente ejemplo, la posición que se enfoca en la imagen de vista previa se controla mediante una entrada táctil que comprende una operación de "arrastrar y soltar".
Por lo tanto, al recibir la entrada táctil, el controlador 180 determina si la entrada táctil es una operación de "arrastrar y soltar". En la presente invención, la operación de "arrastrar y soltar" se refiere a tocar o hacer contacto con una AFG en una pantalla de vista previa tal como se muestra en la figura 8A y, a continuación, deslizar un dedo o un objeto en contacto desde la posición inicialmente contactada o la AFG a otra posición, manteniendo el contacto con la pantalla táctil 151 durante el deslizamiento, finalizando de este modo el toque. Esta operación de "arrastrar y soltar" incluye una operación de "tocar y arrastrar".
Haciendo referencia a la figura 8A, un usuario realiza una operación de arrastrar y soltar tocando la posición A donde inicialmente se muestra la AFG y, a continuación, desliza el dedo desde la posición tocada A hasta la posición B en la que está posicionado el primer objeto Obj1 en la imagen de vista previa. Si se genera una entrada táctil según la operación de arrastrar y soltar [S230: Y en la figura 5], el controlador 180 desplaza una ventana de enfoque a la posición B donde se produjo la suelta y, a continuación, muestra la AFG en la posición de la ventana de enfoque, tal como se muestra en la figura 8B. Posteriormente, el controlador 180 realiza una operación de enfoque automático en la posición de la ventana de enfoque, es decir, la posición B donde se produjo la suelta [S240]. En otras palabras, según este ejemplo, un usuario desplaza la AFG de una primera posición a una segunda posición a enfocar mediante la operación de "arrastrar y soltar" o "tocar y arrastrar".
En un aspecto del ejemplo, el controlador 180 está configurado para desplazar la ventana de enfoque y realizar la operación de enfoque automático en la ventana de enfoque desplazada solo cuando el toque o contacto se mantiene en la posición B en la que se produjo la suelta durante un período de tiempo que es igual o mayor que un período de tiempo preestablecido. Si la operación de autoenfoque en el primer objeto Obj1 o en la posición seleccionada B tiene éxito [S241: Y], el controlador 180 informa al usuario del autoenfoque con éxito [S243] por medio de la unidad de salida 150, para que el usuario pueda confirmar el enfoque con respecto al primer objeto seleccionado Obj1. A continuación, se introduce un comando de captura de imagen, por ejemplo, al finalizar o liberar el toque sostenido o el contacto [S250: Y], y el controlador 180 controla la cámara 121 o 121' para capturar la imagen enfocada del primer objeto Obj1, tal como se muestra en la figura 6E [S260].
Alternativo al ejemplo descrito anteriormente, en un aspecto del ejemplo, el controlador 180 puede estar configurado para desplazar la ventana de enfoque a la posición B en la que se produjo la suelta y controlar la cámara 121 o 121' para realizar el enfoque automático inmediatamente después de ejecutar la operación de arrastrar y soltar. A continuación, si un usuario no introduce una entrada táctil adicional durante un período de tiempo preestablecido, el controlador 180 captura una imagen cuando transcurre el período de tiempo preestablecido.
El método de captura de imágenes descrito anteriormente en un terminal móvil equipado con una pantalla táctil según la presente invención puede estar grabado en medios de grabación legibles por ordenador como un programa para ser ejecutado en ordenadores. El método de captura de imágenes en el terminal móvil equipado con la pantalla táctil según la presente invención puede ser ejecutado por medio de un software. Cuando la captura de imágenes se ejecuta por medio del software, los medios constitutivos de la presente invención son segmentos de código que ejecutan una tarea necesaria. Los programas o segmentos de código pueden estar almacenados en medios legibles por el procesador o ser transmitidos por medio de señales de datos de ordenador combinadas con portadores sobre medios de transmisión o una red de comunicación.
Los medios de grabación legibles por ordenador incluyen la totalidad de los tipos de dispositivos de grabación en los que se almacenan datos capaces de ser leídos por un sistema informático. Por ejemplo, los medios de grabación legibles por ordenador pueden incluir ROM, RAM, CD-ROM, DVD-ROM, DVD-RAM, cintas magnéticas, disquetes, discos duros y almacenes de datos ópticos. Los medios de grabación legibles por ordenador también pueden ser almacenados y ejecutados como códigos, que se distribuyen en aparatos informáticos conectados por medio de una red y que los ordenadores pueden leer de manera distribuida.
Según el terminal móvil de la invención, que incluye la pantalla táctil y el método de captura de imágenes utilizando la misma, el enfoque se puede realizar en cualquier objeto que esté presente en una posición específica en una imagen de vista previa para ser capturada por una simple acción de entrada táctil. La posición a enfocar se puede cambiar fácilmente mediante un simple método de entrada táctil sin la necesidad de buscar un menú o de manipular un pulsador de tecla, facilitando la comodidad del usuario.
Además, según la presente invención, un comando de fotografía para una cámara puede ser introducido por medio de una serie de operaciones de un solo toque en una pantalla táctil. En consecuencia, la facilidad de utilización del dispositivo se mejora sin la necesidad de introducir por separado un comando de fotografía por medio de un dispositivo de entrada externo para manipular la cámara.
Será evidente para los expertos en la técnica que se pueden realizar diversas modificaciones y variaciones en la presente invención sin apartarse del alcance de las invenciones. De este modo, se pretende que la presente invención cubra las modificaciones y variaciones de esta invención siempre que estén dentro del alcance de las reivindicaciones adjuntas.

Claims (9)

REIVINDICACIONES
1. Método para capturar una imagen en un terminal móvil (100), que comprende una cámara (121, 121') y una pantalla táctil (151), que comprende:
mostrar una vista previa de la imagen a capturar en la pantalla táctil (151);
recibir una primera entrada táctil en una zona de la vista previa, siendo la primera entrada táctil un contacto táctil con la pantalla táctil (151);
reconocer la zona de la vista previa que recibe la primera entrada táctil como una zona a enfocar; enfocar la zona reconocida de la vista previa;
estando el método caracterizado por que comprende, además, las etapas de:
determinar si la zona reconocida está enfocada; y
si la zona reconocida está enfocada, capturar la imagen después de un período de tiempo desde la liberación del toque de contacto.
2. Método según la reivindicación 1, en el que la zona de la vista previa que recibe la primera entrada táctil se reconoce como la zona a enfocar cuando la primera entrada táctil se mantiene durante un primer tiempo predeterminado.
3. Método según cualquiera de las reivindicaciones 1 o 2, que comprende, además:
mostrar una guía de enfoque (AFG) en la zona tocada tras reconocer la zona tocada.
4. Terminal móvil (100), que comprende:
una cámara (121, 121') para capturar una imagen;
una pantalla táctil (151) para visualizar la imagen y recibir una primera entrada táctil, siendo la primera entrada táctil un toque de contacto con la pantalla táctil (151); y
un controlador (180) configurado para:
mostrar una vista previa de la imagen a capturar en la pantalla táctil (151);
reconocer una zona de la vista previa que recibe la primera entrada táctil como una zona a enfocar; enfocar la zona reconocida;
estando el terminal móvil caracterizado por que el controlador está configurado para: determinar si la zona reconocida está enfocada; y
si la zona reconocida está enfocada, capturar la imagen después de un período de tiempo desde la liberación del toque de contacto.
5. Terminal móvil (100) según la reivindicación 4, en el que el controlador (180) está configurado, además, para reconocer la zona de la vista previa que recibe la primera entrada táctil como la zona a enfocar cuando la primera entrada táctil es mantenida en la pantalla táctil durante un primer tiempo predeterminado.
6. Terminal móvil (100) según cualquiera de las reivindicaciones 4 o 5, en el que la pantalla táctil (151) muestra, además, una guía de enfoque (AFG) sobre la zona tocada tras reconocer la zona tocada.
7. Terminal móvil (100) según cualquiera de las reivindicaciones 4 a 6, en el que el controlador (180) está configurado, además, para informar a un usuario de cuándo la zona reconocida está enfocada.
8. Terminal móvil (100) según la reivindicación 7, en el que el controlador (180) está configurado para informar al usuario mediante al menos uno de mostrar un indicador en la pantalla táctil o emitir un sonido.
9. Terminal móvil (100) según la reivindicación 8, en el que el controlador (180) está configurado para mostrar el indicador mediante al menos uno de parpadear o cambiar el color de un indicador de enfoque, o parpadear o cambiar un color de una guía de enfoque (AFG).
ES09150674T 2008-09-05 2009-01-15 Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo Active ES2737425T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080087800A KR101505681B1 (ko) 2008-09-05 2008-09-05 터치 스크린을 구비한 이동 단말기 및 이를 이용한 이미지 촬상 방법

Publications (1)

Publication Number Publication Date
ES2737425T3 true ES2737425T3 (es) 2020-01-14

Family

ID=40404935

Family Applications (2)

Application Number Title Priority Date Filing Date
ES19158781T Active ES2787500T3 (es) 2008-09-05 2009-01-15 Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo
ES09150674T Active ES2737425T3 (es) 2008-09-05 2009-01-15 Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES19158781T Active ES2787500T3 (es) 2008-09-05 2009-01-15 Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo

Country Status (8)

Country Link
US (1) US8416306B2 (es)
EP (2) EP3518526B1 (es)
KR (1) KR101505681B1 (es)
CN (1) CN101668119B (es)
DK (1) DK2169946T3 (es)
ES (2) ES2787500T3 (es)
PL (1) PL3518526T3 (es)
TR (1) TR201907143T4 (es)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101689171B1 (ko) * 2010-10-11 2016-12-23 엘지전자 주식회사 이동 단말기 및 이를 이용한 이미지 촬상 방법
US8913176B2 (en) 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
US20190215449A1 (en) 2008-09-05 2019-07-11 Telefonaktiebolaget Lm Ericsson (Publ) Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
CN102236516A (zh) * 2010-04-30 2011-11-09 宏碁股份有限公司 电子装置及其控制方法
KR101651470B1 (ko) * 2010-05-20 2016-08-26 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
KR101709503B1 (ko) * 2010-06-04 2017-03-08 엘지전자 주식회사 이동 단말기 및 영상 디스플레이 방법
EP2393000B1 (en) * 2010-06-04 2019-08-07 Lg Electronics Inc. Mobile terminal capable of providing multiplayer game and method of controlling operation of the mobile terminal
KR101064640B1 (ko) * 2010-06-30 2011-09-15 엘지이노텍 주식회사 카메라 모듈의 자동 초점 영역 설정 방법
US9204026B2 (en) * 2010-11-01 2015-12-01 Lg Electronics Inc. Mobile terminal and method of controlling an image photographing therein
KR101691833B1 (ko) * 2010-11-04 2017-01-09 엘지전자 주식회사 이동 단말기 및 이것의 영상 촬영 제어 방법
CN106959815A (zh) * 2010-12-20 2017-07-18 联想(北京)有限公司 电子设备和拍照方法
KR101701852B1 (ko) * 2010-12-29 2017-02-13 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101794350B1 (ko) * 2011-02-08 2017-12-04 삼성전자주식회사 휴대단말기의 영상 촬영 방법
US9477348B2 (en) 2011-04-15 2016-10-25 Hewlett-Packard Development Company, L.P. Focus-based touch and hover detection
US9880604B2 (en) 2011-04-20 2018-01-30 Microsoft Technology Licensing, Llc Energy efficient location detection
WO2012163393A1 (en) * 2011-05-30 2012-12-06 Sony Ericsson Mobile Communications Ab Improved camera unit
KR101784523B1 (ko) * 2011-07-28 2017-10-11 엘지이노텍 주식회사 터치형 휴대용 단말기
US9596398B2 (en) * 2011-09-02 2017-03-14 Microsoft Technology Licensing, Llc Automatic image capture
JP5532033B2 (ja) * 2011-09-16 2014-06-25 カシオ計算機株式会社 撮像装置、撮像方法、及びプログラム
WO2013089190A1 (ja) * 2011-12-16 2013-06-20 オリンパスイメージング株式会社 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
US10504485B2 (en) * 2011-12-21 2019-12-10 Nokia Tehnologies Oy Display motion quality improvement
US8874162B2 (en) 2011-12-23 2014-10-28 Microsoft Corporation Mobile device safe driving
US9710982B2 (en) 2011-12-23 2017-07-18 Microsoft Technology Licensing, Llc Hub key service
US9467834B2 (en) 2011-12-23 2016-10-11 Microsoft Technology Licensing, Llc Mobile device emergency service
US9325752B2 (en) 2011-12-23 2016-04-26 Microsoft Technology Licensing, Llc Private interaction hubs
US20130305354A1 (en) 2011-12-23 2013-11-14 Microsoft Corporation Restricted execution modes
US9420432B2 (en) 2011-12-23 2016-08-16 Microsoft Technology Licensing, Llc Mobile devices control
US20130225152A1 (en) * 2011-12-23 2013-08-29 Microsoft Corporation Automatically quieting mobile devices
KR101905408B1 (ko) * 2012-01-17 2018-10-08 엘지이노텍 주식회사 카메라 모듈, 그의 오토 포커스 방법 및 오토 포커스 캘리브레이션하는 방법
JP5931464B2 (ja) * 2012-01-20 2016-06-08 オリンパス株式会社 撮影装置
JP6071616B2 (ja) * 2012-03-22 2017-02-01 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
KR101842453B1 (ko) 2012-03-23 2018-05-14 삼성전자주식회사 전자 장치에서 자동 초점 기능을 제어하기 위한 장치 및 방법
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US9131143B2 (en) 2012-07-20 2015-09-08 Blackberry Limited Dynamic region of interest adaptation and image capture device providing same
KR20140014735A (ko) * 2012-07-25 2014-02-06 삼성전자주식회사 이미지 캡처 장치 및 그 제어 방법
CN102902452A (zh) * 2012-08-06 2013-01-30 北京小米科技有限责任公司 一种拍摄图像的方法及移动终端
US9230076B2 (en) 2012-08-30 2016-01-05 Microsoft Technology Licensing, Llc Mobile device child share
KR101343591B1 (ko) 2012-09-03 2013-12-19 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US9918017B2 (en) 2012-09-04 2018-03-13 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US9531961B2 (en) 2015-05-01 2016-12-27 Duelight Llc Systems and methods for generating a digital image using separate color and intensity data
KR102013443B1 (ko) * 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
CN103713835A (zh) * 2012-09-28 2014-04-09 联想(北京)有限公司 一种数据处理方法及电子设备
KR101545883B1 (ko) * 2012-10-30 2015-08-20 삼성전자주식회사 단말의 카메라 제어 방법 및 그 단말
TWI502983B (zh) * 2012-11-02 2015-10-01 Wistron Corp 影像擷取裝置以及影像擷取方法
JP6302215B2 (ja) * 2012-11-23 2018-03-28 キヤノン株式会社 撮像装置
CN103873759B (zh) * 2012-12-17 2018-02-27 联想(北京)有限公司 一种拍摄方法及电子设备
JP5921427B2 (ja) * 2012-12-27 2016-05-24 キヤノン株式会社 撮像制御装置及びその制御方法
JP2016510522A (ja) * 2012-12-28 2016-04-07 ヌビア テクノロジー カンパニー リミテッド 撮像装置及び撮像方法
CN103135927B (zh) * 2013-01-25 2015-09-30 广东欧珀移动通信有限公司 一种移动终端快速对焦拍照方法及***
US9819849B1 (en) 2016-07-01 2017-11-14 Duelight Llc Systems and methods for capturing digital images
US9807322B2 (en) 2013-03-15 2017-10-31 Duelight Llc Systems and methods for a digital image sensor
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US20140232662A1 (en) * 2013-02-19 2014-08-21 Elwha Llc Computing device having a hand cleanliness sensor
KR102034583B1 (ko) 2013-02-28 2019-10-21 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
JP6244655B2 (ja) * 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
US9998866B2 (en) 2013-06-14 2018-06-12 Microsoft Technology Licensing, Llc Detecting geo-fence events using varying confidence levels
US9820231B2 (en) 2013-06-14 2017-11-14 Microsoft Technology Licensing, Llc Coalescing geo-fence events
US9509913B2 (en) * 2013-06-18 2016-11-29 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
KR102092330B1 (ko) 2013-06-20 2020-03-23 삼성전자주식회사 촬영 제어 방법 및 그 전자 장치
KR102121528B1 (ko) * 2013-08-23 2020-06-10 삼성전자주식회사 촬영 장치 및 이의 제어 방법
JP5743236B2 (ja) * 2013-09-17 2015-07-01 オリンパス株式会社 撮影機器及び撮影方法
KR102138516B1 (ko) 2013-10-11 2020-07-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9344626B2 (en) 2013-11-18 2016-05-17 Apple Inc. Modeless video and still frame capture using interleaved frames of video and still resolutions
US20220171530A1 (en) * 2014-06-11 2022-06-02 Lenovo (Singapore) Pte. Ltd. Displaying a user input modality
CN104270562B (zh) * 2014-08-15 2017-10-17 广东欧珀移动通信有限公司 一种拍照对焦方法和拍照对焦装置
KR102252448B1 (ko) * 2014-09-12 2021-05-14 삼성전자주식회사 제어 방법 및 그 방법을 처리하는 전자장치
KR102232517B1 (ko) 2014-09-15 2021-03-26 삼성전자주식회사 이미지 촬영 방법 및 이미지 촬영 장치
CN104298449A (zh) * 2014-10-21 2015-01-21 三星电子(中国)研发中心 调整智能移动终端拍摄按键的方法和智能移动终端
CN104469144B (zh) * 2014-10-31 2017-06-09 广东欧珀移动通信有限公司 拍照方法和电子设备
US10420533B2 (en) 2014-11-04 2019-09-24 Samsung Electronics Co., Ltd. Ultrasound diagnosis apparatus and control method thereof
US10924688B2 (en) 2014-11-06 2021-02-16 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
US11463630B2 (en) 2014-11-07 2022-10-04 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
EP3255523B1 (en) * 2015-03-13 2022-05-04 Huawei Technologies Co., Ltd. Electronic device, photographing method and photographing apparatus
CN104735355B (zh) * 2015-03-13 2018-01-19 广东欧珀移动通信有限公司 一种智能终端的摄像方法及装置
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
CN104702846B (zh) * 2015-03-20 2018-05-08 惠州Tcl移动通信有限公司 移动终端相机预览图像处理方法及***
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
CN104917958B (zh) * 2015-04-30 2019-04-30 深圳市万普拉斯科技有限公司 拍照方法和装置
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
KR102399764B1 (ko) * 2015-09-22 2022-05-19 삼성전자 주식회사 전자 장치 및 촬영 방법
JP6614943B2 (ja) * 2015-11-30 2019-12-04 キヤノン株式会社 撮像制御装置およびその制御方法
KR20170064901A (ko) * 2015-12-02 2017-06-12 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
KR20170123125A (ko) 2016-04-28 2017-11-07 엘지전자 주식회사 이동단말기 및 그 제어방법
US10270958B2 (en) 2016-09-01 2019-04-23 Duelight Llc Systems and methods for adjusting focus based on focus target information
WO2018055617A1 (en) * 2016-09-20 2018-03-29 Flyve Group Ltd. Method and system for managing images
KR102531128B1 (ko) 2018-02-23 2023-05-10 삼성전자주식회사 카메라를 이용하여 복수의 프레임 레이트에 따라 영상을 촬영하는 전자 장치 및 그 작동 방법
CN108965709B (zh) * 2018-07-25 2020-08-14 维沃移动通信有限公司 一种对焦方法及终端
CN113031799B (zh) * 2019-12-25 2024-03-22 宏碁股份有限公司 电子装置与其数据传输方法
CN112312005A (zh) * 2020-02-12 2021-02-02 北京字节跳动网络技术有限公司 图像获取方法及装置
CN113037999A (zh) * 2021-02-23 2021-06-25 Oppo广东移动通信有限公司 拍摄方法、装置、移动终端及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JPH11355617A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
JP4653297B2 (ja) * 2000-11-27 2011-03-16 富士通株式会社 制御装置、電子機器、および媒体
US7551223B2 (en) * 2002-12-26 2009-06-23 Sony Corporation Apparatus, method, and computer program for imaging and automatic focusing
CN100504487C (zh) * 2003-09-29 2009-06-24 联想(北京)有限公司 一种数码相机选择对焦区域的方法
JP4293089B2 (ja) * 2004-08-05 2009-07-08 ソニー株式会社 撮像装置、撮像制御方法およびプログラム
KR101058011B1 (ko) * 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
JP3829144B2 (ja) * 2004-11-25 2006-10-04 シャープ株式会社 合焦エリア調節カメラ付携帯端末
JP4929630B2 (ja) * 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
JP4450783B2 (ja) * 2005-09-28 2010-04-14 富士フイルム株式会社 撮影装置
US7664384B2 (en) * 2006-11-07 2010-02-16 Sony Ericsson Mobile Communications Ab User defined autofocus area
KR100805293B1 (ko) * 2006-11-16 2008-02-20 삼성전자주식회사 휴대기기 및 그 촬영방법
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
KR101328936B1 (ko) * 2007-01-25 2013-11-14 엘지전자 주식회사 터치 휠을 구비한 단말기 및 이를 위한 동작 제어 방법
JP4530067B2 (ja) * 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
CN101360189B (zh) * 2008-07-03 2011-01-19 明基电通有限公司 拍照控制方法及其拍照装置

Also Published As

Publication number Publication date
US20100062803A1 (en) 2010-03-11
CN101668119B (zh) 2012-07-18
ES2787500T3 (es) 2020-10-16
EP2169946B1 (en) 2019-04-24
EP2169946A3 (en) 2014-01-29
EP3518526B1 (en) 2020-03-04
US8416306B2 (en) 2013-04-09
KR20100028862A (ko) 2010-03-15
DK2169946T3 (da) 2019-05-13
CN101668119A (zh) 2010-03-10
PL3518526T3 (pl) 2020-07-27
EP2169946A2 (en) 2010-03-31
EP3518526A1 (en) 2019-07-31
TR201907143T4 (tr) 2019-06-21
KR101505681B1 (ko) 2015-03-30

Similar Documents

Publication Publication Date Title
ES2737425T3 (es) Terminal móvil con pantalla táctil y método de captura de imágenes utilizando el mismo
KR101520689B1 (ko) 이동 단말기 및 이를 이용한 화면 스크롤 방법
KR101832959B1 (ko) 휴대 전자기기 및 이의 제어방법
KR101596842B1 (ko) 영상 프로젝터를 구비한 이동 단말기 및 그 제어 방법
KR101677639B1 (ko) 휴대 전자기기 및 이의 제어방법
US9159260B2 (en) Mobile terminal
ES2739396T3 (es) Terminal móvil y método de control del mismo
ES2738691T3 (es) Terminal móvil
KR101314679B1 (ko) 이동 단말기 및 그 동작 제어 방법
US20100141784A1 (en) Mobile terminal and control method thereof
KR20170037466A (ko) 이동 단말기 및 이의 제어방법
KR20150085402A (ko) 이동단말기 및 그 제어방법
CN105323370A (zh) 移动终端及其控制方法
KR20140142587A (ko) 이동 단말기 및 그것의 제어방법
KR20110054196A (ko) 이동 단말기에서 터치를 이용한 이미지 편집 방법 및 이를 위한 장치
KR20120122314A (ko) 이동단말기 및 이의 제어방법
KR20110034264A (ko) 이동 통신 단말기에서 센서의 오작동 방지 방법 및 이를 적용한 이동 통신 단말기
KR101882266B1 (ko) 이동 단말기 및 그 제어방법
KR20110002613A (ko) 이동 단말기
KR20160089646A (ko) 이동 단말기 및 그 제어 방법
KR20150041451A (ko) 이동 단말기
KR20110116383A (ko) 이동 단말기 및 그를 이용한 퀵 액세스 동작 제어 방법
KR20110005437A (ko) 이동 단말기 및 그 제어방법
KR20160073679A (ko) 이동 단말기 및 그 제어 방법
KR102018547B1 (ko) 이동 단말기 및 그것의 제어방법