MX2014001447A - Aparato electronico y metodo para control del mismo. - Google Patents

Aparato electronico y metodo para control del mismo.

Info

Publication number
MX2014001447A
MX2014001447A MX2014001447A MX2014001447A MX2014001447A MX 2014001447 A MX2014001447 A MX 2014001447A MX 2014001447 A MX2014001447 A MX 2014001447A MX 2014001447 A MX2014001447 A MX 2014001447A MX 2014001447 A MX2014001447 A MX 2014001447A
Authority
MX
Mexico
Prior art keywords
voice
movement
user
task
recognized
Prior art date
Application number
MX2014001447A
Other languages
English (en)
Inventor
Jung-Geun Kim
Yoo-Tai Kim
Seung-Dong Yu
Sang-Jin Han
Hee-Seob Ryu
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110115249A external-priority patent/KR20130018464A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2014001447A publication Critical patent/MX2014001447A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Television Systems (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Se proporciona un aparato electrónico y un método para control del mismo. El método para control del aparato electrónico incluye: reconocer uno de entre una voz de usuario y un movimiento de usuario a través de uno de entre un módulo de reconocimiento de voz y un módulo de reconocimiento de movimiento y realizar una tarea de voz en respuesta a que se reconoce la voz del usuario a través del módulo de reconocimiento de voz y realizar una tarea de movimiento en respuesta a que se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento.

Description

APARATO ELECTRONICO Y METODO PARA CONTROL DEL MISMO CAMPO DE LA INVENCION Los métodos y aparatos concordantes con modalidades ejemplares se relacionan con un aparato electrónico y un método de control del mismo, y más particularmente, con un aparato electrónico el cual es controlado de acuerdo con una entrada de voz de movimiento a través de una unidad de entrada de voz y una unidad de entrada de movimiento, respectivamente, y un método de control del mismo.
ANTECEDENTES DE LA INVENCION Con el desarrollo de tecnologías electrónicas, diversas clases de aparatos electrónicos se han desarrollado y distribuido. En particular, diversos tipos de aparatos electrónicos que incluyen una televisión que es utilizada ampliamente en ámbitos caseros generales.
Tales aparatos electrónicos están equipados con una amplia variedad de funciones para la vida para las expectaciones de los usuarios. Por ejemplo, una televisión se puede conectar a la Internet y proporcionar servicios basados en Internet. Además, los usuarios pueden ver diversos canales de difusión digital a través de una televisión.
En consecuencia, se requieren diversos métodos de entrada para uso de estas funciones de aparatos electrónicos de manera efectiva. Por ejemplo, métodos de entrada Ref : 245607 utilizando un controlador remoto, un ratón, una pantalla táctil se han aplicado a los aparatos electrónicos.
No obstante, estos métodos de entrada sencillos colocan un límite al uso de diversas funciones de los aparatos electrónicos efectivamente. Por ejemplo, si todas las funciones de un aparato electrónico son controladas únicamente por un controlador remoto, es inevitable incrementar el número de botones en el controlador remoto. En este caso, no es fácil para los usuarios generales acostumbrarse al método de uso de tal controlador remoto.
Además, si todos los menús se muestran en la pantalla, los usuarios deben pasar a través de árboles de menú complicados uno por uno con el fin de seleccionar un menú deseado, lo cual puede ser incómodo para el usuario.
Por lo tanto, se requiere un método para control de un aparato electrónico de manera más conveniente y efectiva.
BREVE DESCRIPCION DE LA INVENCION PROBLEMA TECNICO Una o más modalidades ejemplares pueden superar las desventajas anteriores y otras desventajas no descritas en lo anterior. No obstante, se entiende que una o más de las modalidades ejemplares no se requieren para superar las desventajas descritas en lo anterior y pueden no superar alguno de los problemas descritos en lo anterior.
Una o más modalidades ejemplares proporcionan un aparato electrónico el cual es controlado por una entrada de voz y de movimiento a través de una unidad de entrada de voz y una unidad de entrada de movimiento, respectivamente y un método de control del mismo.
SOLUCION AL PROBLEMA De acuerdo con un aspecto de una modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: reconocer uno de entre una voz de usuario y un movimiento de usuario a través de uno de un módulo de reconocimiento de voz y un módulo de reconocimiento de movimiento y, si se reconoce una voz de usuario a través del módulo de reconocimiento de voz, realizar una tarea de voz que corresponde a la voz de usuario reconocida de entre las tareas que son controlables por un controlador remoto y, si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento, realizar una tarea de movimiento que corresponde al movimiento de usuario reconocido de entre las tareas que son controlables por el controlador remoto, en donde la tarea de voz y la tarea de movimiento se pueden dividir por botones incluidos en el controlador remoto y que pueden cartografiarse con los botones .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: si se reconoce una instrucción de inicio de voz a través de un módulo de reconocimiento de voz, cambiar un modo a un modo de tarea de voz en el cual el aparato electrónico es controlado de acuerdo con la voz de un usuario reconocida a través del módulo de reconocimiento de voz y, si se reconoce una instrucción de inicio de movimiento a través de un módulo de reconocimiento de movimiento, cambiar un modo a un modo de tarea de movimiento en el cual el aparato electrónico es controlado de acuerdo con un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de movimiento, el método incluye: mostrar uno de información de asistencia de voz que incluye un inciso de voz para guiar el reconocimiento de voz e información de asistencia de movimiento que incluye un inciso de movimiento para guiar el reconocimiento de movimiento; si una instrucción correspondiente a uno de los incisos de voz incluido en la información de asistencia de voz es reconocido, realizar una tarea de voz que corresponde a la instrucción reconocida y, si se reconoce un movimiento que corresponde a uno de los incisos de movimiento incluidos en la información de asistencia de movimiento, realizar una tarea de movimiento que corresponde al movimiento reconocido.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: reconocer uno de una voz de usuario y un movimiento de usuario a través de un módulo de reconocimiento de voz y un módulo de reconocimiento de movimiento y, si se reconoce un usuario de voz a través del módulo de reconocimiento de voz, realizar un método abreviado de canal para cambiar un canal a un canal que tenga un identificador de canal que corresponda a la voz de usuario reconocida de entre una pluralidad de canales que tengan identificadores de canal, respectivamente y, si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento, realizar cambio de canal para cambiar la pluralidad de canales en fases que correspondan a una dirección del movimiento de usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de movimiento, el método incluye: reconocer una instrucción de inicio de voz (voz de activación) a través de un módulo de reconocimiento de voz, mostrar un inciso de voz para realizar un modo de tarea de voz el cual es controlado por el reconocimiento de voz sobre una unidad de representación en respuesta a la instrucción de inicio de voz reconocida y, si se reconoce una instrucción de inicio de movimiento a través de un módulo de reconocimiento de movimiento, presentar un inciso de movimiento que corresponde a un modo de tarea de movimiento el cual es controlado por el reconocimiento de movimiento de la unidad de representación.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de movimiento, el método incluye: reconocer una instrucción de inicio de movimiento (movimiento de activación) a través de un módulo de reconocimiento de movimiento, presentación de un inciso de movimiento para realizar un modo de tarea de movimiento el cual es controlado por el reconocimiento de movimiento en una unidad de representación en respuesta a la instrucción de inicio de movimiento reconocida y, si se reconoce una instrucción de inicio de voz a través de un módulo de reconocimiento de voz, presentar un inciso de voz que corresponde a un modo de tarea de voz el cual es controlado por el reconocimiento de voz en la unidad de representación.
La tarea de voz puede incluir por lo menos uno de un método abreviado de canal y enmudecimiento, y la tarea de movimiento puede incluir por lo menos un cambio de canal y un control de nivel de volumen.
Si un identificador de canal para seleccionar un canal se incluye en la voz de usuario reconocida, el método abreviado de canal para cambiar a un canal que corresponde a un identificador de canal incluido en el usuario de voz puede realizarse y si el identificador de canal puede incluir por lo menos uno de un número de canal, un nombre de canal y un nombre de programa .
El movimiento del usuario puede incluir un movimiento de aplauso, si se reconoce un movimiento de palmada en una dirección hacia arriba o hacia abajo, el cambio de canal se puede realizar y, si un movimiento de palmada con dirección hacia arriba o hacia la derecha, el control de nivel de volumen se realiza.
El movimiento de usuario reconocido es un movimiento de palmada en una dirección hacia arriba y el cambio de canal se puede realizar de manera que el canal difundido actual se cambia a un canal de difusión un número el cual se incrementa por un número predeterminado y si el movimiento de usuario reconocido es un movimiento de palmada, en una dirección descendente, el cambio de canal se puede realizar de manera que el canal difundido actual se cambia a un canal de difusión un número el cual está disminuido por un número predeterminado. Si el movimiento de usuario reconocido es un movimiento de palmada en una dirección hacia la derecha, se puede realizar un control de nivel de volumen de manera que un volumen del nivel el cual se incrementa del nivel actual por un nivel predeterminado es emitido y, si se reconoce un movimiento de usuario como un movimiento de palmada en una dirección hacia la izquierda, se realiza un control del nivel de volumen de manera que se transmite un volumen de un nivel el cual está disminuido del nivel actual en un nivel predeterminado.
La tarea de voz puede ser ejecutable por un botón de número incluido en el controlador remoto. La tarea de movimiento puede ser ejecutable por al menos uno de un botón de volumen hacia arriba/hacia abajo y un botón de canal hacia arriba/hacia abajo incluido en el controlador remoto.
El método puede incluir además, si se reconoce la voz de usuario, presentación de un inciso de voz para realizar la tarea de voz y, si se reconoce el movimiento del usuario, mostrar un inciso de movimiento para realizar la tarea de movimiento.
El inciso de voz y el inciso de movimiento se pueden representar en la misma área de una pantalla de representación.
El método puede incluir adicionalmente almacenar una pluralidad de módulos para realizar una pluralidad de tareas que incluyen la tarea de voz y la tarea de movimiento en una unidad de almacenamiento.
Cada una de la tarea de voz y la tarea de movimiento pueden cambiar ajustes del aparato electrónico independientemente sin combinación con otras tareas.
La realización del método abreviado de canal puede incluir, si se incluye un número en la voz de usuario, realizar el método abreviado de canal al cambiar directamente a un canal que tiene un número de canal que corresponde a la voz del usuario.
La realización del cambio de canal puede incluir, si el movimiento de usuario es uno de un movimiento de palmada en una dirección hacia arriba y un movimiento de palmada en una dirección hacia abajo, realizar cambio de canal para cambiar un número de canal en secuencia en una dirección que corresponde a un movimiento de usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe entrada de una voz de usuario, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual reconoce una de la voz de usuario del movimiento de usuario y, si se reconoce la voz de usuario, realizar una tarea de voz que corresponde a la voz de usuario reconocida de entre las tareas que son controlables por un controlador remoto y, si se reconoce un movimiento de usuario, realizar una tarea de movimiento que corresponde al movimiento de usuario reconocido de entre las tareas que son controlables por el controlador remoto, en donde la tarea de voz y la tarea de movimiento se dividen por botones incluidos en el controlador remoto y que son cartografiadas con los botones .
La tarea de voz puede incluir por lo menos uno de un método abreviado de canal y enmudecimiento, y la tarea de movimiento puede incluir por lo menos uno de cambio de canal y control de nivel de volumen.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe entrada de una instrucción de inicio de voz, una unidad de entrada de movimiento la cual recibe entrada de una instrucción de inicio de movimiento y una unidad de control la cual reconoce una de la instrucción de inicio de voz y la instrucción de inicio de movimiento y, si se reconoce la instrucción de inicio de voz, cambiar un modo a un modo de tarea de voz en el cual un aparato electrónico es controlado de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz y, si se reconoce la instrucción de inicio de movimiento, cambiar un modo a un modo de tarea de movimiento en el cual el aparato electrónico es controlado de acuerdo con una entrada de movimiento de usuario a través de la unidad de entrada de movimiento.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de movimiento, el aparato electrónico incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de usuario para el reconocimiento de voz, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario para el reconocimiento de movimiento, una unidad de representación la cual representa uno de la información de asistencia de voz que incluye un inciso de voz para guiar el reconocimiento de voz e información de asistencia de movimiento que incluye un inciso de movimiento para guiar el reconocimiento de movimiento, y una unidad de control la cual, si una de las instrucciones que corresponde a los incisos de voz incluida en la información de asistencia de voz es reconocida, realiza un modo de tarea de voz que corresponde a una instrucción reconocida y, si uno de los incisos de movimiento incluido en la información de asistencia de movimiento es reconocida, realiza una tarea de movimiento que corresponde al movimiento reconocido.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de un usuario, una unidad de entrada de movimiento que recibe la entrada de un movimiento de un usuario y una unidad de control, la cual reconoce uno de la voz de usuario y el movimiento de usuario y, si se reconoce la voz de usuario, realizar un método abreviado de canal para cambiar un canal a un canal que tenga un identificador de canal que corresponda a la voz de usuario reconocida de entre una pluralidad de canales que tengan identificadores de canal, respectivamente, y si se reconoce el movimiento de usuario, realizar un cambio de canal para cambiar la pluralidad de canales en fases para que corresponda a una dirección del movimiento de usuario reconocido.
De acuerdo con un aspecto de una modalidad ejemplar, se proporciona un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de movimiento, el aparato electrónico incluye: una unidad de representación, una unidad de entrada de voz la cual recibe la entrada de una voz de usuario, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual controla la unidad de representación, la unidad de entrada de voz y la unidad de entrada de movimiento, en donde la unidad de control reconoce una entrada de instrucción de inicio de voz a través de la unidad de entrada de voz y controla para representar un inciso de voz que corresponde a un modo de tarea de voz, el cual se realiza por reconocimiento de voz, sobre la unidad de representación en respuesta a la instrucción de inicio de voz y, si se reconoce una entrada de instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, se controla para cambiar un modo a un modo de tarea de movimiento el cual se realiza por el reconocimiento de movimiento en respuesta a la instrucción de inicio de movimiento .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de movimiento, el aparato electrónico incluye: una unidad de representación, una unidad de entrada de voz la cual recibe la entrada de una voz de usuario, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual controla la unidad de representación, la unidad de entrada de voz y la unidad de entrada de movimiento en donde, si se reconoce una entrada de instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, la unidad de control controla a la unidad de representación para representar un inciso de movimiento que corresponde a una tarea de movimiento la cual se realiza por un movimiento de usuario y, si se reconoce una entrada de instrucción de inicio de voz a través de la unidad de entrada de voz, la unidad de control controla a la unidad de representación para representar un inciso de voz para realizar un modo de tarea de voz el cual es realizado por la voz del usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: un modo de tarea de voz en el cual por lo menos una de las tareas de voz es realizada de acuerdo con la voz reconocida, representación de información de asistencia de voz para realizar las tareas de voz, reconocimiento de una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz representado como la información de asistencia de voz, realización de una tarea que corresponde al primer inciso de voz, en un modo de tarea de movimiento en el cual por lo menos una de las tareas de movimiento se realiza de acuerdo con un movimiento reconocido, información de asistencia de movimiento de representación para realizar las tareas de movimiento, reconocimiento de un primer movimiento que corresponde a un primer inciso de movimiento de entre por lo menos un inciso de movimiento representado como la información de asistencia de movimiento y realización de una tarea que corresponde al primer inciso de movimiento de entre las segundas tareas.
La realización de la tarea que corresponde al primer inciso de voz puede incluir presentación de información de inciso adicional respecto al primer inciso de voz que corresponda a la primera voz reconocida.
La realización de la tarea que corresponde al primer inciso de voz puede incluir adicionalmente reconocimiento de una segunda voz que corresponda a la información de inciso adicional.
La realización de la tarea que corresponde al primer inciso de voz puede incluir realización de una tarea que corresponda al primer inciso de voz y la segunda voz reconocida de entre las primeras tareas.
Cada uno de por lo menos un inciso de voz puede ser una instrucción pronunciable.
La información de inciso adicional puede incluir por lo menos una de una instrucción adicional respecto al primer inciso de voz, un mensaje de guía y un ejemplo pronunciable .
Cada uno de por lo menos un inciso de movimiento puede incluir una imagen de movimiento que indica un movimiento que es reconocible en un modo de tarea de movimiento y un texto que indique una tarea que corresponde al movimiento reconocible.
Por lo menos una de la información de asistencia de voz y la información de asistencia de movimiento puede incluir por lo menos uno de una imagen y un texto que indique un modo designado del modo de tarea de voz y el modo de tarea de movimiento.
La información de inciso adicional puede incluir por lo menos uno de una imagen y un texto que indique un modo designable del modo de tarea de voz y el modo de tarea de movimiento.
El modo de tarea de voz se puede cambiar al modo de tarea de movimiento si se reconoce una instrucción de inicio de movimiento (movimiento de activación) que indica que un movimiento, el cual es preestablecido para introducir el modo de tarea de movimiento, y el modo de tarea de movimiento se puede cambiar al modo de tarea de voz si se reconoce una instrucción de inicio de voz (voz de activación) que indica una voz la cual se ha preestablecido para introducir el modo de tarea de voz .
Las tareas de voz y las tareas de movimiento son diferentes entre sí. Si se reconoce una tercera voz que corresponde a por lo menos un identificador de un nombre de canal, un nombre de programa y un número de canal, las tareas de voz pueden incluir métodos abreviados de canal para reproducir un canal que corresponde al identificador y, si se reconoce un segundo movimiento que corresponde a un canal hacia arriba y hacia abajo, se pueden incluir tareas de movimiento de cambio de canal para cambiar el canal actual a uno de un canal previo y un canal siguiente del canal actual para que corresponda a uno de un canal hacia arriba y hacia abajo.
Si la tarea que corresponde al primer inciso de voz es un método abreviado de canal de entre las tareas de voz, la información de inciso adicional puede incluir por lo menos uno de un mensaje de guía y un ejemplo de pronunciación respecto a la pronunciación de por lo menos un identificador de un nombre de canal , un nombre de programa y un número de canal .
La realización de la tarea que corresponde al primer inciso de voz puede incluir, si se reconoce una tercera voz para el identificador que corresponde a la información de inciso adicional, realizar el método abreviado de canal para reproducir un canal que corresponde al identificador .
La realización de la tarea que corresponde al primer inciso de movimiento puede incluir, si la tarea que corresponde al primer inciso de movimiento es un cambio de canal de entre las tareas de movimiento, cambiar el canal actual a uno de un canal previo y un canal siguiente del canal actual.
Las tareas de voz y las tareas de movimiento son diferentes entre sí. Si se reconoce una cuarta voz que corresponde a uno de los niveles preestablecidos, las tareas de voz pueden incluir ajuste del nivel del volumen para establecer un nivel de volumen a un nivel que corresponde a la cuarta voz y, si se reconoce un tercer movimiento que corresponde a uno de aumento y disminución de volumen, las tareas de movimiento pueden incluir ajuste del nivel de volumen que indique uno de incrementar un volumen actual por un nivel preestablecido y reducir el volumen actual por un nivel preestablecido de manera que corresponda a uno de aumento y disminución de volumen.
Si la tarea correspondiente al primer inciso de voz es apagado de energía de entre las tareas de voz, la información de inciso adicional puede incluir por lo menos uno de un mensaje de guía que pregunta si se realiza el apagado o no y un ejemplo de pronunciación de una respuesta a la pregunta .
La realización de la tarea que corresponde al primer inciso de voz puede incluir, si la tarea que corresponde al primer inciso de voz es enmudecer de entre las tareas de voz, controlar para realizar en enmudecimiento y presentar información de asistencia de voz cambiada que incluye un segundo inciso de voz que corresponde a desenmudecer de entre las primeras tareas en vez del primer inciso de voz.
Por lo menos un inciso de voz mostrado como la información de asistencia de voz puede seleccionarse por lo menos de uno de los incisos de voz que corresponde a las tareas de voz de acuerdo con por lo menos una de una aplicación, una representación en pantalla (OSD) y un candidato representado junto con la información de asistencia de voz, y un candidato puede incluir por lo menos uno de un nombre el cual incluye por lo menos uno de un número y un texto similar a la voz reconocida, una instrucción la cual es similar a la voz reconocida, una tarea la cual corresponde a la instrucción similar, un movimiento el cual es similar al movimiento reconocido y una tarea la cual corresponde al movimiento similar.
El por lo menos un inciso de movimiento representado como información de asistencia de movimiento ser por lo menos uno que se selecciona de entre los incisos de movimiento que corresponden a las tareas de movimiento de acuerdo con por lo menos uno de una aplicación, una OSD y un candidato representado junto con la información de asistencia de movimiento, y un candidato que puede incluir por lo menos uno de un nombre el cual incluye por lo menos uno de un número y un texto similar a la voz reconocida, una instrucción la cual es similar a la voz reconocida, una tarea la cual corresponde a la instrucción similar, un movimiento el cual es similar al movimiento reconocido y una tarea la cual corresponde al movimiento similar.
El método puede incluir adicionalmente , si se cambia el modo de tarea de voz al modo de tarea de movimiento después de que el candidato es representado junto con la información de asistencia de voz en el modo de tarea de voz, representar continuamente el candidato y cambiar la información de asistencia de voz a información de asistencia de movimiento que corresponde al modo de tarea de movimiento y representar la información de asistencia de movimiento y el candidato puede incluir por lo menos uno de un nombre el cual incluye por lo menos uno de un número y un texto similar a la voz reconocida, una instrucción la cual es similar a la voz reconocida, una tarea la cual corresponde a la instrucción similar, un movimiento el cual es similar al movimiento reconocido y una tarea la cual corresponde al movimiento similar .
La representación continua del candidato y el cambio de información de asistencia de voz a información de asistencia de movimiento y representación de información de asistencia de movimiento puede incluir representar un foco en uno de los candidatos representados continuamente.
El método puede incluir adicionalmente, si se cambia el modo de tarea de movimiento al modo de tarea de voz después de que el candidato es representado junto con información de asistencia de movimiento en el modo de tarea de movimiento, representar continuamente el candidato y cambiar la información de asistencia de movimiento a la información de asistencia de voz que corresponde al modo de tarea de voz y representar la información de asistencia de voz y el candidato puede incluir por lo menos uno de un nombre el cual incluye por lo menos un número y un texto similar a la voz reconocida, una instrucción la cual es similar a la voz reconocida, una tarea la cual corresponde a la instrucción similar, un movimiento el cual es similar al movimiento reconocido y una tarea la cual corresponde al movimiento similar.
La representación continua del candidato y cambio de información de asistencia de voz a información de asistencia de movimiento y representación de información de asistencia de movimiento puede incluir representar un índice el cual incluye por lo menos uno de un número y un texto que corresponde al candidato representado de manera continua.
La realización de la tarea que corresponde al primer inciso de voz puede incluir, si el primer inciso de voz es un inciso para representación de otros incisos además de por lo menos un inciso de voz de entre los incisos de voz que corresponden a las tareas de voz, representar otros incisos .
La representación de otros incisos puede incluir además, si uno de los incisos de voz representados no es reconocido por un tiempo predeterminado, omitir la activación de un temporizador para detener el modo de tarea de voz.
El reconocimiento de la primera voz que corresponde al primer inciso de voz puede incluir proporcionar por lo menos uno de retroalimentación visual y retroalimentación auditiva indicando por lo menos uno del primer inciso de voz y la tarea que corresponde al primer inciso de voz.
El reconocimiento del primer movimiento que corresponde al primer inciso de movimiento puede incluir proporcionar por lo menos una de retroalimentación visual y retroalimentación auditiva indicando por lo menos uno del primer inciso de movimiento y la tarea que corresponde al primer inciso de movimiento.
El reconocimiento de la primera voz que corresponde al primer inciso de voz puede incluir proporcionar por lo menos uno de retroalimentación visual y retroalimentación auditiva que corresponde a un nivel de precisión de reconocimiento de acuerdo con la precisión de reconocimiento de la primera voz.
El reconocimiento del primer movimiento que corresponde al primer inciso de movimiento puede incluir proporcionar por lo menos uno de retroalimentación visual y retroalimentación auditiva que corresponde a un nivel de precisión de reconocimiento de acuerdo con la precisión de reconocimiento del primer movimiento.
El aparato electrónico puede incluir una unidad de control la cual controla para representar información de asistencia de voz para realizar primeras tareas en un modo de tarea de voz en el cual por lo menos una de las primeras tareas se realiza de acuerdo con una voz reconocida, y controles para representar información de asistencia de movimiento para realizar segundas tareas en un modo de tarea de movimiento en el cual por lo menos una de las segundas tareas se realiza de acuerdo con un movimiento reconocido, y la unidad de control puede reconocer una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz representado como la UI en el modo de tarea de voz y realizar una tarea que corresponde al primer inciso de voz de entre las primeras tareas y puede reconocer un primer movimiento que corresponde a un primer inciso de movimiento de entre por lo menos un inciso de movimiento representado como la información de asistencia de movimiento y realizar una tarea que corresponde al primer inciso de movimiento de entre las segundas tareas.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: en un modo de tarea de voz en el cual por lo menos una de las primeras tareas se realiza de acuerdo con una voz reconocida, representar información de asistencia de voz para realizar las primeras tareas, reconocer una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz representado como la información de asistencia de voz, representar información de incisos adicionales respecto al primer inciso de voz que corresponde a la primera voz reconocida, reconocer una segunda voz que corresponde a la información de inciso adicional y realizar una tarea que corresponde al primer inciso de voz y la segunda voz reconocida de entre las primeras tareas.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de control la cual, en un modo de tarea de voz en la cual por lo menos una de las primeras tareas se realiza de acuerdo con una voz reconocida, control para representar información de asistencia de voz para realizar las primeras tareas, en donde la unidad de control reconoce una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz representado como la información de asistencia de voz, controles para representar información de inciso adicional respecto al primer inciso de voz que corresponde a la primera voz reconocida, reconoce una segunda voz que corresponde a la información de inciso adicional y realiza una tarea que corresponde al primer inciso de voz y la segunda voz reconocida de entre las primeras tareas.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para proporcionar un UI de un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de gestos, y el método incluye: reconocer una instrucción de inicio de voz (voz de activación) que representa un inciso de voz que corresponde a una instrucción reconocible por voz en una pantalla de representación del aparato electrónico en respuesta a la instrucción de inicio de voz reconocida, reconocer una primera voz de instrucción que corresponde a una primera instrucción y representar un primer icono ejecutable de una primera aplicación la cual es controlable a través de reconocimiento de voz de modo distintivo de un segundo icono ejecutable de una segunda aplicación la cual no es controlable a través del reconocimiento de voz en la pantalla de representación, en respuesta a la primera voz de instrucción .
El primer icono ejecutable puede ser una combinación de un icono ejecutable original de la primera aplicación y un icono adicional representado en un lado del icono ejecutable original.
Un nombre del primer icono ejecutable se puede representar de modo distintivo del nombre del segundo icono ej ecutable .
El método puede incluir además, si la primera aplicación se controla a través de reconocimiento de voz, presentación de un icono ejecutable de modo distintivo del segundo icono ejecutable.
El método puede incluir adicionalmente presentación de primera retroalimentación sobre un lado de la pantalla de representación en respuesta a la instrucción de inicio de voz reconocid .
El método puede incluir adicionalmente reconocer una segunda voz de instrucción que corresponde al nombre del primer icono ejecutable representado en la UI , el nombre del primer icono ejecutable puede ser representado en un lado del primer icono ejecutable.
El método puede incluir además representar la primera aplicación sobre la pantalla de representación en respuesta a la segunda voz de instrucción.
En la operación de recibir y reconocer la segunda voz de instrucción, si una pluralidad de aplicaciones corresponde a la segunda voz de instrucción, una lista de aplicaciones que corresponde a la pluralidad de aplicaciones se pueden representar en un lado de la UI .
La UI puede representar un tercer icono ejecutable de una tercera aplicación la cual es controlable a través del reconocimiento de voz y un nombre del tercer icono ejecutable sobre un lado del tercer icono ejecutable y, si el nombre del tercer icono ejecutable es más grande que una longitud predeterminada, se puede representar solo una parte del nombre del tercer icono ejecutable.
El método puede incluir además reconocer una tercera voz de instrucción que corresponde a la parte del nombre del tercer icono ejecutable, y la tercera aplicación se puede representar sobre la pantalla de representación en respuesta a la tercera voz de instrucción.
El inciso de voz puede incluir un inciso se voz de retorno y, si una cuarta voz de instrucción corresponde al inciso de voz de retorno, el aparato electrónico puede regresar a una pantalla previa antes de que la UI se presente, en respuesta a la cuarta voz de instrucción.
El método puede incluir además transmitir un video, un audio y datos de control que correspondan a la señal de difusión recibida a través de la pantalla de representación y un altavoz.
El método puede incluir además reconocer una instrucción de inicio de movimiento (movimiento de activación) , presentar un inciso de movimiento que corresponde a un movimiento el cual es controlable a través del reconocimiento de movimiento sobre la pantalla de representación en respuesta a la instrucción de inicio de movimiento reconocida y representar el primer icono ejecutable de la misma manera que el segundo icono ejecutable.
El método puede incluir además representar segunda retroalimentación en un lado de la pantalla de representación en respuesta a la instrucción de inicio de movimiento reconocida .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para proporcionar una UI de un aparato electrónico la cual es capaz de reconocimiento de voz y reconocimiento de gestos, el método incluye: reconocer una instrucción de inicio de voz, representar un inciso de voz que incluye una instrucción respecto a un primer icono ejecutable de una primera aplicación la cual es controlable a través de reconocimiento de voz sobre un lado de la pantalla de representación del aparato electrónico en respuesta a la instrucción de inicio de voz, reconocer una voz de instrucción que corresponde a la instrucción, y representar el primer icono ejecutable de modo distintivo de un segundo icono ejecutable de una segunda aplicación la cual no es controlable a través de reconocimiento de voz sobre la pantalla de representación en respuesta a la voz de instrucción, en donde el primer icono ejecutable puede ser una combinación de un icono ejecutable original de la primera aplicación y un icono adicional representado sobre un lado del icono ejecutable original.
El método puede incluir adicionalmente , si se reconoce una instrucción de inicio de movimiento, representar el primer icono ejecutable de la misma manera que el segundo icono ejecutable.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico el cual es capaz de reconocimiento de voz y reconocimiento de gestos, el aparato electrónico incluye: una unidad de representación, una unidad de entrada de voz la cual recibe una voz; y una unidad de control la cual controla la unidad de representación y la unidad de entrada de voz, en donde la unidad de control reconoce una instrucción de inicio de voz recibida a través de la unidad de entrada de voz y representa un inciso de voz el cual es controlable a través del reconocimiento de voz sobre la unidad de representación, reconoce una primera voz de instrucción recibida a través de la unidad de entrada de voz y controles para representar una UI que incluye un primer icono ejecutable de una primera aplicación la cual es controlable a través de reconocimiento de voz sobre la unidad de representación y representa el primer icono ejecutable de modo distintivo desde el segundo icono ejecutable de una segunda aplicación la cual no es controlable a través del reconocimiento de voz sobre la UI .
La unidad de control puede controlar para representar el primer icono ejecutable el cual es una combinación de un icono ejecutable original de la primera aplicación y un icono adicional representado en un lado del icono ejecutable original.
La unidad de control puede reconocer una segunda voz de instrucción que corresponde a un nombre del primer icono ejecutable recibido a través de la unidad de entrada de voz y controlar para representar la primera aplicación sobre la unidad de representación en respuesta a la segunda voz de instrucción reconocida.
El aparato electrónico puede incluir adicionalmente una unidad de movimiento la cual recibe un movimiento de usuario, y una unidad de control puede controlar a la unidad de entrada de movimiento, reconocer una instrucción de inicio de movimiento recibida a través de la unidad de entrada de movimiento, representar un inciso de movimiento el cual es controlable a través del reconocimiento de movimiento sobre la unidad de representación y representar el primer icono ejecutable y el segundo icono ejecutable de la misma manera sobre la UI.
El aparato electrónico puede incluir adicionalmente una unidad de interconexión de red la cual se puede conectar a un aparato externo de una manera cableada o inalámbrica, y la unidad de control puede controlar la unidad de interconexión de red para descargar una tercera aplicación la cual es controlable a través de reconocimiento de voz desde el aparato externo.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para proporcionar a la UI de un aparato electrónico, el método incluye: introducir un modo de tarea de voz y representar un primer icono ejecutable que corresponde a una primera aplicación la cual es controlable a través de reconocimiento de voz de modo distintivo desde un segundo icono ejecutable de una segunda aplicación la cual no es controlable a través de reconocimiento de voz sobre una pantalla de representación en el modo de tarea de voz .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: seleccionar uno de una pluralidad de señales de difusión en respuesta a un movimiento de usuario reconocido, proporcionar la señal de difusión seleccionada, detener el suministro de la señal de difusión seleccionada y proporcionar un contenido almacenado, volver a reconocer un movimiento de usuario de la misma forma que para el movimiento de usuario reconocido; y cambiar por lo menos parte de una pantalla que presenta el contenido proporcionado en respuesta al movimiento de usuario reconocido nuevamente.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: proporcionar uno de una pluralidad de señales de difusión y uno de los contenidos almacenados, reconocer un movimiento de usuario a través de reconocimiento de movimiento y, si se proporciona la señal de difusión, controlar un nivel de volumen de la señal de difusión proporcionada o proporcionar otra señal de difusión de entre la pluralidad de señales de difusión en respuesta al movimiento de usuario reconocido, y si se proporciona contenido, cambiar por lo menos parte de una pantalla que representa el contenido proporcionado en respuesta al movimiento de usuario reconocido.
La señal de difusión puede ser una señal de difusión la cual es recibida desde una unidad de recepción de difusión y el contenido puede ser un contenido el cual se almacena en una unidad de almacenamiento o un contenido el cual se recibe desde una unidad de entrada de terminal externa o una unidad de interconexión de red.
El contenido puede incluir una pluralidad de páginas y el cambio de por lo menos parte de la pantalla que representa el contenido proporcionado puede incluir cambiar una pantalla en donde una de una pluralidad de páginas es representada en una pantalla en donde otra página de la pluralidad de páginas son representadas.
El cambio de por lo menos parte de la pantalla que representa el contenido proporcionado puede incluir cambiar una pantalla en donde una de una pluralidad de páginas es representada en una pantalla en donde una de las páginas se localiza en las porciones superior, inferior, izquierda y derecha de la página de la pluralidad de páginas es representada en respuesta a una dirección del movimiento de usuario reconocido.
El contenido puede incluir una página y el cambio de por lo menos una parte de la pantalla que representa el contenido proporcionado puede incluir cambiar una pantalla en donde una parte de una página es representada en una pantalla en donde otra parte de una página es representada .
El cambio de por lo menos parte de la pantalla que representa el contenido proporcionado puede incluir cambiar una pantalla en donde el contenido proporcionado es representado en una pantalla en donde se representa contenido diferente del contenido.
El método puede incluir además reconocer una voz de usuario a través de un módulo de reconocimiento de voz y proporcionar otra señal de difusión de entre la pluralidad de señales de difusión de acuerdo con la voz de usuario reconocida .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: proporcionar primeros datos de imagen y datos de audio para los primeros datos de imagen, control de un nivel de volumen de los datos de audio en respuesta a un movimiento de usuario reconocido, detener el suministro de los primeros datos de imagen y los datos de audio y proporcionar segundos datos de imagen, volver a reconocer un movimiento de usuario sustancialmente de la misma forma que del movimiento de usuario reconocido y cambiar por lo menos parte de una pantalla que representa los segundos datos de imagen en respuesta al movimiento de usuario reconocido nuevamente.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: proporcionar uno de primeros datos de imagen de entre los datos de imagen proporcionados desde una pluralidad de fuentes, respectivamente, y segundos datos de imagen de entre una pluralidad de datos de imagen proporcionados por una fuente única, reconocer un movimiento de usuario a través de un módulo de reconocimiento de movimiento y, si se proporcionan primeros datos de imagen, proporcionar datos de imagen suministrados desde una fuente diferente de una fuente de los primeros datos de imagen en respuesta al movimiento de usuario reconocido, y, si se proporcionan datos de segunda imagen, suministrar datos de imagen diferentes de los segundos datos de imagen de entre la pluralidad de datos de imagen proporcionados desde la fuente única, en respuesta al movimiento de usuario reconocido.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: proporcionar uno de los primeros datos de imagen los cuales se producen cuando se suministra energía al aparato electrónico y segundos datos de imagen los cuales se reproducen después de entrada en modo por un usuario después de que se suministra energía al aparato electrónico, reconocer un movimiento de usuario a través de un módulo de reconocimiento de movimiento y, si se proporcionan los primeros datos de imagen, proporcionar datos de imagen diferentes de los primeros datos de imagen los cuales son reproducidos cuando se suministra energía al aparato electrónico en respuesta al movimiento de usuario reconocido, y si se proporcionan segundos datos de imagen, proporcionar datos de imagen diferentes de los segundos datos de imagen los cuales son reproducidos después de entrada en modo por el usuario en respuesta al movimiento de usuario reconocido .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: proporcionar uno de una pluralidad de imágenes en movimiento de uno de una pluralidad de imágenes, reconocer un movimiento de usuario a través de un módulo de reconocimiento de movimiento y, si se proporciona imagen en movimiento, proporcionar una imagen en movimiento diferente de la imagen en movimiento proporcionada de entre la pluralidad de imágenes en movimiento, en respuesta al movimiento de usuario reconocido y, si se proporciona una imagen, proporcionar una imagen diferente de la imagen proporcionada de entre la pluralidad de imágenes en respuesta al movimiento de usuario reconocido.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico, que incluye: una unidad de representación la cual representa uno de una pluralidad de señales de difusión y uno de los contenidos almacenados, una unidad de entrada de movimiento la cual recibe una entrada de movimiento de un usuario y una unidad de control la cual, si se proporciona la señal de difusión, controla el nivel de volumen de la señal de difusión proporcionada o proporciona otra señal de difusión de entre la pluralidad de señales de difusión en respuesta al movimiento del usuario, y si se proporciona contenido, cambia por lo menos parte de una pantalla que representa el contenido proporcionado en respuesta al movimiento de usuario.
El contenido puede incluir una pluralidad de páginas y, si por lo menos parte de la pantalla que representa el contenido proporcionado cambia, la unidad de control puede cambiar una pantalla en donde una de una pluralidad de páginas es representada a una pantalla en donde se representa otra página de la pluralidad de páginas.
Si por lo menos parte de la pantalla que representa el contenido que se proporciona ha cambiado, la unidad de control puede cambiar una pantalla en donde una de la pluralidad de páginas es representada en una pantalla en donde una de las páginas se localiza en las porciones superior, inferior, izquierda y derecha de una de la página de la pluralidad de páginas que son representadas en respuesta a una dirección del movimiento del usuario reconocido a través de la unidad de entrada de movimiento.
El contenido puede incluir una página y, si por lo menos parte de la pantalla que representa el contenido que se proporciona ha cambiado, la unidad de control puede cambiar una pantalla en donde una parte de una página es representada a una pantalla en donde otra parte de una página es representada .
El aparato electrónico puede incluir además una unidad de entrada de voz la cual recibe la entrada de una voz de un usuario. La unidad de control puede proporcionar otra señal de difusión de entre la pluralidad de señales de difusión, de acuerdo con la voz del usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación la cual representa primeros datos de imagen o segundos datos de imagen, una unidad de salida de audio la cual proporciona datos de audio para los primeros datos de imagen, una unidad de entrada de movimiento la cual recibe entrada de un movimiento de un usuario y una unidad de control la cual, si se proporcionan primeros datos de imagen, controla un nivel de volumen de los datos de audio para los primeros datos de imagen en respuesta a un movimiento del usuario y, si se proporcionan segundos datos de imagen, cambia por lo menos parte de una pantalla que representa los segundos datos de imagen en respuesta al movimiento del usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación la cual representa una de una pluralidad de imágenes en movimiento o una de una pluralidad de imágenes, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual, si se proporciona una imagen de movimiento, proporciona una imagen de movimiento diferente de la imagen de movimiento proporcionada de entre la pluralidad de imágenes en movimiento en respuesta a un movimiento de usuario y, si la imagen se proporciona, proporciona una imagen diferente de la imagen proporcionada de entre la pluralidad de imágenes en respuesta al movimiento de usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación la cual representa uno de primeros datos de imagen de entre los datos de imagen proporcionados de una pluralidad de fuentes, respectivamente, y segundos datos de imagen de entre una pluralidad de datos de imagen proporcionados por una fuente única, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual, si se proporcionan primeros datos de imagen, proporciona datos de imagen proporcionados desde una fuente diferente de una fuente de los primeros datos de imagen en respuesta al movimiento de usuario y, si se proporcionan segundos datos de imagen, proporciona datos de imagen diferentes de los segundos datos de imagen de entre la pluralidad de datos de imagen proporcionados a partir de la fuente única en respuesta al movimiento de usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: reconocer uno de una voz de usuario y un movimiento de usuario a través de uno de un módulo de reconocimiento de voz y un módulo de reconocimiento de movimiento y_,__si se reconoce una voz de usuario a través del módulo de reconocimiento de voz, ejecutar un contenido que tiene un identificador de contenido que corresponde a la voz de usuario reconocida de entre una pluralidad de contenidos que tienen identificadores de contenido, respectivamente y, si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento, cambiar la pluralidad de contenidos de acuerdo con una dirección del movimiento de usuario.
El contenido puede ser un contenido de difusión y el cambio puede incluir, si se reconoce una voz de usuario a través del módulo de reconocimiento de voz, cambiar un canal de difusión de corriente a un canal de difusión que tiene un identificador de canal de difusión que corresponde a la voz de usuario reconocida de entre una pluralidad de canales de difusión que tienen identificadores de canal de difusión, respectivamente y, si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento, cambiar la pluralidad de canales de difusión en fases de acuerdo con la dirección del movimiento de usuario.
El identificador de canal puede incluir por lo menos uno de un número de canal , un nombre de canal y un nombre de programa .
El movimiento de usuario puede incluir un movimiento de palmada y el cambio puede incluir, si el movimiento de usuario reconocido es un movimiento de palmada en una dirección hacia arriba, realizar un cambio de canal de manera que el canal de difusión actual se cambia a un canal de difusión un número el cual se incrementa por un número predeterminado y, si el movimiento de usuario reconocido es un movimiento de palmada en una dirección hacia abajo, realizar un cambio de canal de manera que el canal de difusión actual se cambia a un canal de difusión un número el cual disminuye en un número predeterminado.
El contenido puede ser uno de un contenido de imagen, un contenido de música y un contenido de fotografía.
El identificador de contenido puede ser el nombre del contenido.
El movimiento de usuario puede incluir un movimiento de palmada y el cambio puede incluir, si el movimiento de usuario reconocido es un movimiento de palmada en una dirección a la derecha, cambio del contenido actual a un siguiente contenido en una lista de contenido que comprende una pluralidad de contenidos que van a ser reproducidos y, si el movimiento de usuario reconocido es un movimiento de palmada en una dirección hacia la izquierda, cambio del contenido actual a un contenido previo en la lista de contenido.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de un usuario, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual reconoce uno de la voz del usuario y el movimiento del usuario y, si la voz de usuario se reconoce, ejecuta un contenido que tiene un identificador de contenido que corresponde a la voz de usuario reconocida de entre una pluralidad de contenidos que tienen identificadores de contenido, respectivamente y, si se reconoce el movimiento de usuario, cambiar la pluralidad de contenidos de acuerdo con una dirección del movimiento de usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: en un modo de control remoto en el cual el aparato electrónico es controlado de acuerdo con una señal de control remoto introducida a través de un controlador remoto, control del aparato electrónico, reconocimiento de una instrucción de inicio de voz a través de un módulo de reconocimiento de voz y, si se reconoce la instrucción de inicio de voz, cambiar a un modo a un modo de tarea de voz para realizar una tarea de voz en la cual es controlada de acuerdo con la voz de un usuario reconocida a través del módulo de reconocimiento de voz .
El cambio puede incluir representación de un icono que indica que un modo del aparato electrónico es el modo de tarea de voz e información de asistencia de voz que incluye un inciso de voz que guía a la tarea de voz.
El método puede incluir además, si un primer botón de entre los botones incluidos en el controlador remoto se selecciona para cambiar un modo al modo de control remoto, recibir una primera señal de control remoto que corresponde al primer botón; y cambiar un modo a modo de control remoto en respuesta a la primera señal de control remoto.
El primer botón puede ser un botón de cambio de modo de control remoto para cambiar un modo al modo de control remoto.
El primer botón puede ser cierto botón incluido en el controlador remoto y el cambio de modo al modo de control remoto puede incluir además, después de cambiar el modo a modo de control remoto, realizar una tarea que corresponde al primer botón.
El método puede incluir además reconocer una instrucción de inicio de movimiento a través del módulo de reconocimiento de movimiento y, si se reconoce una instrucción de inicio de movimiento, cambiar un modo a un modo de tarea de movimiento para realizar una tarea de movimiento la cual es controlada de acuerdo con un movimiento de usuario reconocido por el módulo de reconocimiento de movimiento.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: en un modo de control remoto en el cual el aparato electrónico es controlado de acuerdo con una señal de control remoto introducida a través de un controlador remoto, controlar el aparato electrónico, reconocer una instrucción de inicio de movimiento a través de un módulo de reconocimiento de movimiento; y, si se reconoce la instrucción de inicio de movimiento, cambiar un modo a un modo de tarea de movimiento para realizar una tarea de movimiento la cual es controlada de acuerdo con un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento.
El cambio puede incluir representar un icono que indica que un modo del aparato electrónico es el modo de tarea de movimiento e información de asistencia de movimiento que incluye un inciso de movimiento que guía la tarea de movimiento .
El controlador remoto puede incluir una almohadilla táctil.
El método puede incluir además, si se selecciona un primer botón de entre los botones incluidos en el controlador remoto para un cambio de un modo a un modo de control remoto, recibir una primera señal de control remoto que corresponde al primer botón, y cambiar un modo al modo de control remoto en respuesta a la primera señal de control remoto.
El primer botón puede ser un botón de cambio de modo de control remoto para cambiar un modo al modo de control remoto.
El primer botón puede ser un cierto botón incluido en el controlador remoto, y el cambio de modo al modo de control remoto puede incluir además, después de cambiar el modo al modo de control remoto, realizar una tarea que corresponde al primer botón.
El método puede incluir además reconocer una instrucción de inicio de voz a través de un módulo de reconocimiento de voz y, si se reconoce la instrucción de inicio de voz, cambiar un modo a un modo de tarea de voz para realizar una tarea de voz la cual es controlada de acuerdo con una voz de usuario reconocida por el módulo de reconocimiento de voz .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico el cual es interconectado con (es decir, se comunica con) un controlador remoto, el aparato electrónico incluye: una unidad receptora de señal de control remoto la cual recibe una señal de control remoto del controlador remoto, una unidad de entrada de voz la cual recibe una instrucción de inicio de voz y una unidad de control la cual, en un modo de control remoto en el cual el aparato electrónico es controlado de acuerdo con una señal de control remoto recibida por la unidad de recepción de señal de control remoto, si la entrada de instrucción de inicio de voz a través de la unidad de entrada de voz es reconocida, cambia a un modo a un modo de tarea de voz para realizar una tarea de voz la cual es controlada de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico el cual comunica con un controlador remoto, el aparato electrónico incluye: una unidad de recepción de señal de control remoto la cual recibe una señal de control remoto del controlador remoto, una unidad de entrada de movimiento la cual recibe una instrucción de inicio de movimiento y una unidad de control la cual, en un modo de control remoto en el cual el aparato electrónico se controla de acuerdo con una señal de control de remoto recibida por la unidad de recepción de señal de control remoto, si la entrada de instrucción de inicio de movimiento a través de la unidad de entrada de movimiento es reconocida, cambia un modo a un modo de tarea de movimiento para realizar una tarea de movimiento la cual es controlada de acuerdo con una entrada de movimiento de usuario a través de la unidad de entrada de movimiento.
De acuerdo con un aspecto de una modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: recibir una entrada de una entrada de voz de usuario a un micrófono incluido en un dispositivo móvil desde el dispositivo móvil el cual se comunica con el aparato electrónico, reconocer la voz de usuario introducida y realizar una tarea de voz del aparato electrónico de acuerdo con la voz de usuario reconocida.
El dispositivo móvil puede ser uno de un controlador remoto, un teléfono móvil, un PDA y una computadora portátil.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: si una aplicación para reconocer una voz se ejecuta en un dispositivo móvil externo, recibir una señal de control desde el dispositivo móvil y realizar una tarea de voz del aparato electrónico de acuerdo con una señal de control recibida desde el dispositivo móvil, en donde la señal de control es generada por el dispositivo móvil utilizando una entrada de voz de usuario a un micrófono incluido en el dispositivo móvil.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: si se ejecuta una aplicación para reconocer una voz en un dispositivo móvil externo, recibir una entrada de voz de usuario en un micrófono incluido en el dispositivo móvil desde el dispositivo móvil, reconocer la entrada de voz de usuario desde el dispositivo móvil y realizar una tarea de voz del aparato electrónico de acuerdo con la voz de usuario.
El método puede incluir además, si se incluye un primer botón en el dispositivo móvil que es seleccionado, recibir una primera señal que corresponde al primer botón y cambiar un modo del aparato electrónico a un modo de tarea de voz en respuesta a la primera señal .
El modo de tarea de voz puede ser un modo para realizar una tarea de voz de acuerdo con una entrada de voz de usuario a un micrófono incluido en el dispositivo móvil.
El método puede incluir además, si uno del primer botón y el segundo botón se selecciona en el modo de tarea de voz, liberar el modo de tarea de voz.
La recepción puede incluir recibir una entrada de voz de usuario a un micrófono incluido en el dispositivo móvil desde el dispositivo móvil mientras se selecciona el segundo botón en el dispositivo móvil.
El método puede incluir adicionalmente representar una UI que indica que es posible introducir la voz de usuario mientras se selecciona el segundo botón en el dispositivo móvil.
El micrófono incluido en el dispositivo móvil se puede utilizar cuando el dispositivo móvil realiza una llamada telefónica.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de usuario desde un dispositivo móvil el cual se comunica con el aparato electrónico, y una unidad de control la cual, si se recibe una entrada de voz de usuario a un micrófono incluido en el dispositivo móvil desde el dispositivo móvil a través de la unidad de entrada de voz, reconoce la voz de usuario introducida y realiza una tarea de voz del aparato electrónico de acuerdo con la voz de usuario reconocida.
EL dispositivo móvil puede ser uno de un controlador remoto, un teléfono móvil, un PDA y una computadora portátil.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona una aparato electrónico que incluye: una unidad de comunicación la cual se comunica con un dispositivo móvil externo y una unidad de control la cual, si una aplicación para reconocimiento de una voz es ejecutada en el dispositivo móvil y una señal de control es recibida desde el dispositivo móvil a través de la unidad de comunicación, realiza una tarea de voz del componente electrónico de acuerdo con una señal de control recibida desde el dispositivo móvil, en donde la señal de control es generada por el dispositivo móvil utilizando una entrada de voz de usuario a un micrófono incluido en el dispositivo móvil.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de un usuario desde un dispositivo móvil el cual se comunica con el aparato electrónico, y una unidad de control la cual, si se ejecuta una aplicación para reconocimiento de una voz en el dispositivo móvil y se introduce una entrada de voz de usuario a un micrófono incluido en el dispositivo móvil, reconoce la entrada de voz de usuario al dispositivo móvil y realiza una tarea de voz del aparato electrónico de acuerdo con la voz de usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: representar uno de una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación y una página de la red, que recibe una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, y, si se reconoce la instrucción de inicio de movimiento, cambiar un modo actual a un modo para apuntar, para realizar una tarea la cual es controlada utilizando un puntero y representar el puntero en el centro de la pantalla de representación.
El método puede incluir, si se reconoce la instrucción de inicio de movimiento, representar información de asistencia de movimiento para realizar una tarea de movimiento en una porción inferior de la pantalla de representación.
El método puede incluir además, si la lista de contenidos se representa en la representación y el puntero se localiza en un primer icono ejecutable de acuerdo con una entrada de movimiento de usuario a la unidad de entrada de movimiento, representar el primer icono ejecutable de modo distintivo de otros iconos ejecutables.
El método puede incluir además, si el puntero se localiza en el primer icono ejecutable y se introduce un primer movimiento de usuario a través de la unidad de entrada del movimiento, ejecutar el primer icono ejecutable.
El método puede incluir adicionalmente , si se introduce una instrucción para finalizar una pantalla de la lista de contenido, eliminar la lista de contenido y el puntero de la pantalla de representación.
El método puede incluir además, si la página de la red es representada en la representación y el puntero se localiza en un primer hiperenlace en la página de la red de acuerdo con una entrada de movimiento de usuario a la unidad de entrada de movimiento, representar el primer hiperenlace de modo distintivo de otros hiperenlaces .
El método puede incluir además, si el puntero se localiza en el primer hiperenlace y se introduce un primer movimiento de usuario a través de la unidad de entrada de movimiento, ejecutar el primer hiperenlace.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de movimiento la cual recibe una instrucción de inicio de movimiento, una unidad de representación la cual representa una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación y una unidad de control la cual, si se reconoce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, cambia un modo actual a un modo de puntero para ejecutar una tarea la cual es controlada utilizando un puntero y controla a la unidad de representación para que represente el puntero en el centro de la pantalla cuando se representa la lista de contenido.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de movimiento la cual recibe una instrucción de inicio de movimiento, una unidad de representación la cual representa una página de red que comprende una pluralidad de hiperenlaces y una unidad de control la cual, si se reconoce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, cambia un modo actual a un modo de puntero para ejecutar una tarea la cual es controlada utilizando un puntero y controla la unidad de representación para representar el puntero en el centro de una pantalla en donde se representa la página de la red.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: representar uno de una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación y una página de la red, recibir una instrucción de inicio de movimiento a través de una unidad de entrada de movimiento, si se reconoce la instrucción de inicio de movimiento, cambiar un modo actual a un modo de puntero para realizar una tarea la cual es controlada utilizando un puntero y representar el puntero en el centro de una pantalla de representación, recibir un movimiento predeterminado a través de la unidad de entrada de movimiento, quitar el puntero de la pantalla de representación y realizar una tarea de movimiento que corresponde al movimiento predeterminado.
La representación puede incluir, si el puntero se localiza en un primer icono ejecutable sobre la lista de contenido, representar el primer icono ejecutable al resaltar el primer icono ejecutable en donde se localiza el puntero.
El método puede incluir además, si se introduce un movimiento predeterminado, no resaltar el primer icono ejecutable.
El movimiento predeterminado puede ser un movimiento para realizar un modo de movimiento del aparato electrónico y puede ser uno de los movimientos de palmada en direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha, un movimiento para agarrar y un movimiento de rotación en dirección contraria al sentido de las manecillas del reloj .
El método puede incluir, si el movimiento predeterminado son movimientos de palmada en direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha, mover la pantalla de representación del aparato electrónico de acuerdo con los movimientos de palmada en direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha y después mover la pantalla de representación que representa el puntero en una ubicación en donde se localiza nuevamente la mano del usuario.
El método puede incluir, si el movimiento predeterminado es un movimiento de agarrar, ejecutar el primer icono ejecutable en donde se localiza el puntero y después de ejecutar el primer icono ejecutable, representar el puntero en una ubicación en donde se localiza nuevamente la mano del usuario.
El método puede incluir, si el movimiento predeterminado es un movimiento de rotación en una dirección contraria al sentido de las manecillas del reloj , representar un programa de difusión de un canal recién sintonizado en la pantalla de representación.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de movimiento la cual recibe una instrucción de inicio de movimiento y un movimiento de usuario, una unidad de representación la cual representa uno de una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación y una página de la red, y una unidad de control la cual si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, cambia un modo actual a un modo de puntero para realizar una tarea la cual es controlada utilizando un puntero y representa el puntero en el centro de una pantalla de representación y, si se introduce un movimiento predeterminado a través de la unidad de entrada de movimiento, retira el puntero de la pantalla de representación y realiza una tarea de movimiento que corresponde al movimiento predeterminado.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona método para el control de un aparato electrónico, el método incluye: representar una pluralidad de incisos seleccionables , recibir uno de una voz de usuario y un movimiento de usuario a través de uno de una unidad de entrada de voz y una unidad de entrada de movimiento y si se seleccionan un primer inciso de entre la pluralidad de incisos de acuerdo con la entrada de un usuario, representar el primer inciso de modo distintivo de los otros incisos, en donde la representación incluye, si el nombre del primer inciso tiene un número de caracteres el cual excede un número predeterminado y un modo del aparato electrónico es un modo de tarea de voz, representar únicamente parte del nombre del primer inciso y, si el nombre del primer inciso tiene un número de caracteres que excede un número predeterminado y un modo del aparato electrónico es un modo de tarea de movimiento, representar el nombre completo del primer inciso.
El inciso seleccionable puede ser uno de un icono ejecutable incluido en una lista de contenido para ejecutar una aplicación un hiperenlace incluido en una página de la red.
La representación puede incluir representar el primer inciso y el nombre del primer inciso más grueso que los otros incisos y nombres de los otros incisos.
El método puede incluir además, si un modo del aparato electrónico es un modo de tarea de voz y una voz de usuario introducida a través de la unidad de entrada de voz concuerda con una parte del nombre del primer inciso representado, ejecutar el primer inciso.
El método puede incluir además, si no hay espacio en una parte del nombre del primer inciso representado y una entrada de usuario que corresponde a una pluralidad de pronunciaciones del nombre del primer inciso representado recibidas a través de la unidad de entrada de voz, ejecutar el primer inciso.
El método puede incluir, si un modo del aparato electrónico es un modo de tarea de voz y una pluralidad de incisos que tienen nombres los cuales concuerdan con una entrada de voz de usuario a través de la unidad de entrada de voz se incluyen entre los nombres de los incisos representados, representar una lista de un grupo candidato.
La lista del grupo candidato puede representar nombres completos de la pluralidad de incisos los cuales concuerdan con la voz de usuario introducida.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación la cual representa una pantalla que comprende una pluralidad de incisos seleccionables , una unidad de entrada de voz la cual recibe la entrada de una voz de usuario, una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de usuario y una unidad de control la cual, si uno de una voz de usuario y un movimiento de usuario se introduce a través de una de la unidad de entrada de voz y la unidad de entrada de movimiento, selecciona un primer inciso de entre la pluralidad de incisos de acuerdo con la entrada de usuario y controla la unidad de representación para representar el primer inciso de modo distintivo de los otros incisos, en donde la unidad de control, si un nombre del primer inciso tiene un número de caracteres el cual excede un número predeterminado y un modo del aparato electrónico es un modo de tarea de voz, representa únicamente una parte del nombre del primer inciso, y si el nombre del primer inciso tiene un número de caracteres el cual excede un número predeterminado y un modo del aparato electrónico es un modo de tarea de movimiento, representa el nombre completo del primer inciso.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para control de un aparato electrónico, el método incluye: representar información de asistencia de voz que incluye una pluralidad de incisos de voz que guían una tarea de voz y, si se introduce una voz de usuario que corresponde a una de la pluralidad de incisos de voz a través de una unidad de entrada de voz, representar un mensaje de guía de la primer croma para realizar una tarea de voz sobre una primera área de la información de asistencia de voz y representar un inciso de voz de una segunda croma sobre una segunda área de la información de asistencia de voz.
La información de asistencia de voz puede incluir un icono que indica que un modo del aparato electrónico es un modo de tarea de voz y un icono se puede localizar en el centro de la información de asistencia de voz.
La primer área puede ser un área izquierda del icono y la segunda área puede ser un área derecha del icono.
Si la voz del usuario es una instrucción para cambiar un canal, un mensaje de guía para guiar el cambio del canal se puede representar en la primer área y un inciso de voz que corresponde a un ejemplo de una instrucción pronunciable para cambio de un canal y un inciso de voz que corresponde a la cancelación de cambio de un canal se pueden representar en una segunda área .
Si la voz del usuario es una instrucción para interrumpir la energía, se puede representar en la primer área un mensaje de guía para confirmar la interrupción de energía y un inciso de voz que corresponde a una instrucción respecto a si se interrumpe el suministro de energía se puede representar en la segunda área.
La segunda croma puede ser más gruesa que la primera croma.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de la voz de un usuario, una unidad de representación la cual representa información de asistencia de voz que incluye una pluralidad de incisos de voz que guían una tarea de voz, una unidad de control la cual, si un usuario de voz que corresponde a uno de la pluralidad de incisos de voz es introducido a través de la unidad de entrada de voz, controla la unidad de representación para representar un mensaje de guía de la primera croma para realizar una tarea de voz sobre una primer área de la información de asistencia de voz y para representar un inciso de voz de la segunda croma sobre una segunda área de la información de asistencia de voz.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: representar información de asistencia de voz que incluye una pluralidad de incisos de voz que guían una tarea de voz y, si se incluye una palabra predeterminada la cual no pertenece a una instrucción que corresponde a la pluralidad de incisos de voz en una entrada de voz de un usuario a través de la unidad de entrada de voz, realizar una tarea de voz que corresponde a la palabra predeterminada, en donde la palabra predeterminada corresponde a una clave ejecutable incluida en un controlador de motor el cual se comunica con el aparato electrónico.
La palabra predeterminada puede incluir uno de una instrucción para generar una lista de canales, una instrucción para generar un menú, una instrucción para ejecutar una red social, una instrucción para guiar una programación de programa, una instrucción para cambiar una imagen tridimensional y una instrucción para difusión de una guía.
La palabra predeterminada puede incluir una palabra que corresponde a una instrucción la cual proporciona una tarea conectada a una función realizada por un aparato electrónico actual. Si una función realizada por el aparato electrónico actual es una función de reproducción de una imagen en movimiento, la palabra predeterminada puede incluir por lo menos uno de una instrucción para reproducir una imagen en movimiento, una instrucción para establecer una pausa en una imagen en movimiento, una instrucción para detener la imagen en movimiento, una instrucción para reproducir un archivo previo, una instrucción para reproducir un siguiente archivo, una instrucción para saltar hacia adelante y una instrucción para saltar hacia atrás.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de la voz de un usuario, una unidad de representación la cual representa información de asistencia de voz que incluye una pluralidad de incisos de voz que guían una tarea de voz, y una unidad de control la cual, si se incluye una palabra predeterminada la cual no pertenece a una instrucción que corresponde a la pluralidad de incisos de voz en una entrada de voz de un usuario a través de la unidad de entrada de voz, se realiza una tarea de voz que corresponde a la palabra predeterminada, en donde la palabra predeterminada corresponde a una clave ejecutable incluida en un controlador remoto el cual se comunica con el aparato electrónico.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de movimiento utilizando ambas manos y, si la instrucción de inicio de movimiento utilizando ambas manos se introduce, cambiar un modo actual a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea de movimiento utilizando ambas manos.
La recepción de la instrucción de inicio de movimiento utilizando ambas manos puede incluir: recibir una instrucción de inicio de movimiento utilizando una mano, si la instrucción de inicio de movimiento utilizando una mano se introduce, cambiar un modo actual a un modo de tarea de movimiento para realizar una tarea de movimiento y recibir una instrucción de inicio de movimiento utilizando la otra mano .
La instrucción de inicio de movimiento utilizando ambas manos puede ser un movimiento de agitación en donde se agitan ambas manos simultáneamente múltiples veces.
La tarea de movimiento utilizando ambas manos puede ser una tarea de agrandar o reducir una pantalla.
El método puede incluir además, si se ejecuta una aplicación en donde es imposible realizar la tarea de moviraiento utilizando ambas manos, transmitir un mensaje que indica que no es posible realizar la tarea de movimiento utilizando ambas manos.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de movimiento la cual recibe instrucción de inicio de movimiento, y si se introduce una instrucción de inicio de movimiento utilizando ambas manos a través de la unidad de entrada de movimiento, cambiar un modo actual a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea de movimiento utilizando ambas manos.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de movimiento a través de una unidad de entrada de movimiento y si se introduce la instrucción de inicio de movimiento, cambiar un modo actual a un modo de tarea de movimiento para realizar una tarea de movimiento de acuerdo con el movimiento de un usuario quien introduce la instrucción de inicio de movimiento en donde, en el modo de tarea de movimiento, la tarea de movimiento se realiza únicamente de acuerdo con el movimiento del usuario quien introduce la instrucción de inicio de movimiento hasta que el usuario quien introdujo la instrucción de inicio de movimiento libera el modo de tarea de movimiento.
El modo de tarea de movimiento se puede mantener incluso si se introduce una instrucción de inicio de movimiento desde otros usuarios diferente al usuario quien introduce la instrucción de inicio de movimiento.
En el modo de tarea de movimiento, incluso si una mano del usuario quien introduce la instrucción de inicio de movimiento se superpone con las manos de otros usuarios, la tarea de movimiento se puede realizar de acuerdo con la mano del usuario quien introduce la instrucción de inicio de movimiento.
El método puede incluir, si se introduce una instrucción de inicio de movimiento utilizando una mano en el modo de tarea de movimiento y si se introduce una instrucción de inicio de movimiento a través de una mano de un usuario quien es diferente del usuario quien introduce la instrucción de inicio de movimiento, cambiar un modo actual a un modo de tarea de movimiento utilizando ambas manos.
La instrucción de inicio de movimiento es un movimiento de agitación en donde un usuario agita las manos múltiples veces.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: si se introducen una pluralidad de instrucciones de inicio de movimiento a partir de una pluralidad de usuarios a través de una unidad de entrada de movimiento, determinar una instrucción de inicio de movimiento la cual inicialmente se introduce de entre la pluralidad de instrucciones de inicio de movimiento y cambiar un modo actual a un modo de tarea de movimiento para realizar una tarea de movimiento de acuerdo con un movimiento de un usuario quien introduce la instrucción de inicio de movimiento que se introdujo inicialmente.
En el modo de tarea de movimiento, la tarea de movimiento se puede realizar únicamente de acuerdo con el movimiento del usuario quien inicialmente introduce la instrucción de inicio de movimiento hasta que el usuario quien inicialmente introdujo la instrucción de inicio de movimiento libera el modo de tarea de movimiento.
El modo de tarea de movimiento se puede mantener incluso si se introduce una instrucción de inicio de movimiento desde otros usuarios diferentes al usuario quien introdujo inicialmente la instrucción de inicio de movimiento.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de movimiento la cual recibe una instrucción de inicio de movimiento; y una unidad de control la cual, si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, cambia un modo actual a un modo de tarea de movimiento en donde se realiza una tarea de movimiento de acuerdo con un movimiento de un usuario quien introduce la instrucción de inicio de movimiento, en donde, en el modo de tarea de movimiento, la tarea de movimiento se realiza únicamente de acuerdo con el movimiento del usuario quien introduce la instrucción de inicio de movimiento hasta que el usuario quien introduce la instrucción de inicio de movimiento libera el modo de tarea de movimiento.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de movimiento la cual recibe una instrucción de inicio de movimiento; y una unidad de control la cual, si se introduce en una pluralidad de instrucciones de inicio de movimiento a partir de una pluralidad de usuarios a través de la unidad de entrada de movimiento, determina una instrucción de inicio de movimiento la cual es introducida inicialmente de entre la pluralidad de instrucciones de inicio de movimiento y cambia un modo actual a un modo de tarea de movimiento para realizar una tarea de movimiento de acuerdo con un movimiento de un usuario quien introduce la instrucción de inicio de movimiento que se introdujo inicialmente.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: representar una imagen, recibir una entrada de una primera voz de usuario, si se introduce la voz de un primer usuario, representar un primer menú que guía por lo menos una tarea de voz sobre un área de la imagen en respuesta a la primera voz de usuario, recibir una entrada de una segunda voz de usuario y realizar una tarea de voz que corresponde a la segunda voz de usuario de entre por lo menos una tarea de voz .
Si la primera voz es una instrucción para cambio de un canal, el primer menú puede incluir información para guiar el cambio de canal y la segunda voz puede ser una de un número de canal, un nombre de canal y un nombre de programa.
La información para guiar el cambio del canal puede incluir un ejemplo de instrucción de uno del número de canal, el nombre de canal y el nombre de programa.
Si la segunda voz es un número de canal de un nombre de canal, la realización de la tarea de voz puede incluir cambiar un canal a un canal que corresponda a uno de un número de canal y un nombre de canal que es introducido.
Si la segunda voz es un programa de canal, la realización de la tarea de voz puede incluir la búsqueda del nombre de programa introducido a partir de una guía de programa almacenada previamente (EPG) y cambiar un canal a un canal para difusión del nombre de programa introducido o programar un tiempo para su observación.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación la cual representa una imagen, una unidad de entrada de voz la cual recibe la entrada de una primera voz de usuario y una segunda voz de usuario, y una unidad de control la cual, si se introduce la primera voz de usuario, controla la unidad de representación para representar un primer menú que guía por lo menos una tarea de voz sobre un área de la imagen en respuesta a la primera voz de usuario y, si se introduce la segunda voz de usuario, realiza una tarea de voz que corresponde a la segunda voz de usuario de entre por lo menos una tarea de voz.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: en un modo de tarea de voz realizar una tarea de voz de acuerdo con una voz de usuario reconocida, representar por lo menos un icono ejecutable y un nombre de cada icono ejecutable correspondiente, recibir la entrada de una voz de usuario; y si un primer icono ejecutable que muestra únicamente una parte del nombre de un icono ejecutable existe entre por lo menos un icono ejecutable, la entrada de voz de usuario es consistente con la parte representada del nombre del primer icono ejecutable, ejecutar el primer icono ejecutable.
La ejecución puede incluir, si la voz de usuario introducida es consistente con una pluralidad de pronunciaciones que constituyen la parte representada del nombre del primer icono ejecutable, ejecutar el primer icono ej ecutable .
La ejecución puede incluir, si un segundo icono ejecutable cuyo nombre incluye un carácter especial existe entre los iconos ejecutables y la voz de usuario introducida es consistente con un nombre pronunciable excluyendo el carácter especial incluido en el nombre del segundo icono ejecutable, ejecutar el segundo icono ejecutable.
El carácter especial puede ser un símbolo el cual no es pronunciable por un usuario.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: representar una página de la red que incluye por lo menos un hiperenlace, extraer un texto de por lo menos un hiperenlace, recibir una voz de usuario y, si existe un primer hiperenlace representando solo una parte de un texto extraído del hiperenlace entre por lo menos un hiperenlace y la entrada de voz de usuario es consistente con la parte representada del texto del primer hiperenlace, ejecutar el primer hiperenlace.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de usuario, una unidad de representación la cual representa un icono ejecutable y un nombre de un icono ejecutable en un modo de tarea de voz en el cual una tarea de voz se realiza de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz, y una unidad de control la cual, si existe un primer icono ejecutable que represente solo una parte de un nombre del icono ejecutable entre los iconos ejecutables, y la voz de usuario introducida es consistente con la parte representada del nombre del primer icono ejecutable, ejecuta el primer icono ejecutable.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico, que incluye: una unidad de entrada de usuario la cual recibe la entrada de una voz de usuario, una unidad de representación la cual representa un icono ejecutable y un nombre de un icono ejecutable en un modo de tarea de voz en el cual una tarea de voz se realiza de acuerdo con una entrada de voz de usuario a través de una unidad de entrada de voz, y una unidad de control la cual, si existe un segundo icono ejecutable cuyo nombre incluye un carácter especial de entre los iconos ejecutables y la voz de usuario introducida es consistente con un nombre pronunciable excluyendo el carácter especial incluido en el nombre del segundo icono ejecutable, ejecuta el segundo icono ejecutable.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de una voz de usuario, una unidad de representación la cual representa una página de la red que incluye por lo menos un hiperenlace y una unidad de control la cual extrae un texto de por lo menos un hiperenlace, si se introduce una voz de usuario a través de la unidad de entrada de voz, reconoce la voz de usuario y, si existe un primer hiperenlace que representa únicamente una parte de un texto extraído del hiperenlace de entre por lo menos un hiperenlace y la voz de usuario introducida es consistente con la parte representada del texto del primer hiperenlace, ejecuta el primer hiperenlace .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: si se introduce una instrucción de inicio de movimiento a través de una unidad de entrada de movimiento, se cambia un modo a un modo de tarea de movimiento para realizar una tarea de movimiento, ejecutar una aplicación de acuerdo con la manipulación de un usuario, y, si se introduce uno de un primer movimiento de usuario y un segundo movimiento de usuario a través de la unidad de entrada de movimiento, agrandar o reducir la pantalla de ejecución de aplicación en respuesta a uno del primer movimiento de usuario y el segundo movimiento de usuario que es reconocido, en donde la pantalla de ejecución de aplicación es ampliable o reducible.
El primer movimiento de usuario puede ser un movimiento de movimiento de ambas manos separándose y, si se reconoce el primer movimiento de usuario, la pantalla de ejecución de aplicación puede ser agrandada y representada.
El segundo movimiento de usuario puede ser un movimiento de jalado de ambas manos acercándose una hacia la otra y si se reconoce el segundo movimiento de usuario, la pantalla de ejecución de aplicación puede ser reducida y representada. de acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento, cambiar un modo a un modo de tarea de movimiento para realizar una tarea de movimiento, ejecutar una aplicación de acuerdo con una manipulación de usuario y, si se introduce un movimiento de movimiento de una mano mientras se mantiene el movimiento de sujeción a través de la unidad de entrada de movimiento, mover una pantalla de ejecución de aplicación en respuesta al movimiento de movimiento de sujeción y representar la pantalla de ejecución de aplicación, en donde la pantalla de ejecución de aplicación se puede mover dentro de una pantalla de representación del aparato electrónico.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación, una unidad de entrada de movimiento la cual recibe la entrada de un primer movimiento de usuario y un segundo movimiento de usuario, y una unidad de control la cual ejecuta una aplicación de acuerdo con una manipulación de usuario y, si uno del primer movimiento de usuario y el segundo movimiento de usuario se introducen a través de la unidad de entrada de movimiento, agrandar o reducir una pantalla de ejecución de aplicación representada sobre la unidad de representación en respuesta a uno del primer movimiento de usuario y el segundo movimiento de usuario que se introduce, en donde la pantalla de ejecución de aplicación es agrandable o reducible.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación, una unidad de entrada de movimiento la cual recibe la entrada de un tercer movimiento de usuario, y una unidad de control la cual ejecuta una aplicación de acuerdo con una manipulación de un usuario y, si el tercer movimiento de usuario se introduce a través de la unidad de entrada de movimiento, mueve una pantalla de ejecución de aplicación representada en la unidad de representación de acuerdo con el tercer movimiento de usuario y representa la pantalla de ejecución de aplicación, en donde el tercer movimiento de usuario es un movimiento de mover una mano sujetada después de realizar un movimiento de agarre y la pantalla de ejecución de aplicación se puede mover dentro de una pantalla de representación del aparato electrónico.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de voz a partir de una unidad de entrada de voz incluida en el aparato electrónico y un aparato el cual se comunica con el aparato electrónico, y si se introduce la instrucción de inicio de voz desde la unidad de entrada de voz incluida en el aparato electrónico, representar un primer icono y, si la instrucción de inicio de voz se introduce desde el aparato el cual se comunica con el aparato electrónico, representar un segundo icono el cual es diferente del primer icono.
El método puede incluir, si se introduce la instrucción de inicio de voz desde la unidad de entrada de voz incluida en el aparato electrónico, cambiar un modo actual a un primer modo de tarea de voz, y si el primer modo de tarea de voz es un modo en el cual, si una voz de usuario es introducida desde la unidad de entrada de voz incluida en el aparato electrónico, se realiza una tarea de voz de acuerdo con la voz de usuario introducida.
El método puede incluir, si el primer icono es representado y no se introduce una voz de usuario a la unidad de entrada de voz incluida en el aparato electrónico durante un tiempo predeterminado, liberar el primer modo de tarea de voz y cambiar el modo actual a un modo de controlador remoto en el cual una tarea es controlada por un controlador remoto.
La instrucción de inicio de voz introducida desde el aparato el cual se comunica con el aparato electrónico puede ser una de una señal que corresponde a un botón específico incluido en el aparato el cual se comunica con el aparato electrónico y una voz de usuario especifica que es introducida a través de la unidad de entrada de voz incluida en el aparato el cual se comunica con el aparato electrónico.
Si se introduce una instrucción de inicio de voz desde el aparato el cual se comunica con el aparato electrónico, se puede cambiar el modo actual a un segundo modo de tarea de voz . El segundo modo de tarea de voz puede ser un modo en el cual, si una voz de usuario es introducida a través de la unidad de entrada de voz del aparato el cual se comunica con el aparato electrónico, se realiza una tarea de voz de acuerdo con una voz de usuario introducida.
El método puede incluir, si se representa el segundo icono y una voz de usuario no es introducida a la unidad de entrada de usuario incluida en el aparato el cual se comunica con el aparato electrónico durante un tiempo predeterminado, liberar el segundo modo de tarea de voz y cambiar un modo actual a un modo de controlador remoto en el cual una tarea es controlada por un controlador remoto.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe una instrucción de inicio de voz, una unidad de comunicación la cual se comunica con un aparato el cual se comunica con el aparato electrónico, una unidad de representación y una unidad de control la cual controla a la unidad de representación para representar un primer icono si la instrucción de inicio de voz es introducida desde la unidad de entrada de voz y para representar un segundo icono que es diferente del primer icono si la instrucción de inicio de voz es introducida desde el aparato el cual se comunica con el aparato electrónico.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: reconocer una instrucción de inicio de voz a través de un módulo de reconocimiento de voz; si la instrucción de inicio de voz se reconoce, representar información de asistencia de voz para realizar una tarea de voz que es controlada por la voz de un usuario reconocida a través del módulo de reconocimiento de voz, si se reconoce una primera voz de usuario para realizar una tarea la cual requiere la entrada de un texto, representar una ventana de entrada de texto, y si una segunda voz de usuario para introducir un texto sobre la ventana de texto introducido se reconoce, representar un texto que corresponde a la segunda voz de usuario reconocida en la ventana de entrada de texto y representar un menú de entrada de texto (un editor de método de entrada (IME) ) .
La tarea la cual requiere la entrada del texto puede ser una tarea para realizar una búsqueda.
La representación del menú de entrada de texto puede incluir representar una pantalla la cual ha sido representada previamente mientras se reconoce la voz de usuario y representar el menú de entrada de texto después de que se reconoce una voz de usuario para introducir un texto sobre la ventana de entrada de texto.
El método puede incluir adicionalmente , si existen una pluralidad de palabras de búsqueda candidatas incluir una entrada de texto sobre una ventana de entrada de texto, representar una lista de palabras de búsqueda candidatas por superposición de la lista con el menú de entrada de texto.
El método puede incluir adicionalmente, si se completa o se cancela la entrada de un texto sobre la ventana de entrada de texto, retirar el menú de entrada de texto de la pantalla de representación.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe una instrucción de inicio de voz, una unidad de representación y una unidad de control la cual controla la unidad de representación, si se introduce una primera voz de usuario para realizar una tarea la cual requiere entrada de un texto a través de la unidad de entrada de voz, para representar una ventana de entrada de texto, si se introduce una segunda voz de usuario para introducir un texto sobre la ventana de entrada de texto a través de la unidad de entrada de voz, para representar un texto que corresponde a la segunda voz de usuario reconocida sobre la ventana de entrada de texto y para representar un menú de entrada de texto (IME) .
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: representar información de asistencia de voz que guía una tarea de voz realizada por una entrada de voz de un usuario a través de una unidad de entrada de voz, si se selecciona un primer botón de entrada de voz incluido en un aparato externo el cual se comunica con el aparato electrónico, representar un primer mensaje de guía que guía una búsqueda de voz en la información de asistencia de voz, y reconocer una entrada de voz de usuario a través de la unidad de entrada de voz mientras se selecciona un botón de búsqueda de voz incluido en el aparato externo.
El reconocimiento puede incluir representar un segundo mensaje de guía que incluye información de que la voz de un usuario está siendo introducida a través de la unidad de entrada de voz en la información de asistencia de voz.
El método puede incluir, si se libera la selección del botón de búsqueda de voz, representar un tercer mensaje de guía que confirma si se ha completado la entrada de la voz de un usuario en la información de asistencia de voz.
El tercer mensaje de guía puede incluir un mensaje para preguntar si se continúa la entrada de la voz de usuario o si se ha completado la entrada de la voz de usuario y si se cancela la entrada de voz de usuario.
El método puede incluir, si se introduce una voz de usuario conforme el botón de búsqueda de voz es seleccionado nuevamente mientras se representa el tercer mensaje de guía, reconocer la voz de usuario introducida continuamente además de una voz de usuario reconocida previamente.
El método puede incluir representar un texto que corresponda a la voz de usuario reconocida sobre una ventana de entrada de texto.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de la voz de un usuario, una unidad de comunicación la cual recibe una señal desde un aparato externo el cual se comunica con el aparato electrónico, una unidad de representación y una unidad de control la cual si se selecciona un botón de entrada de voz incluido en el aparato externo mientras se representa información de asistencia de voz que guía una tarea de voz realizada por una entrada de voz de usuario a través de la unidad de entrada de voz, representa un primer mensaje de guía que guía una búsqueda de voz en la información de asistencia de voz, y reconoce la voz de usuario introducida a través de la unidad de entrada de voz mientras se selecciona el botón de búsqueda de voz incluido en el aparato externo.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de voz a través de una unidad de entrada de voz, cambiar un modo actual a un modo de tarea de voz para realizar una tarea de voz en respuesta a la instrucción de inicio de voz introducida, representar información de asistencia de voz para realizar el modo de tarea de voz, extraer textos de los incisos seleccionables en una pantalla de representación en el modo de tarea de voz y, si una entrada de voz de usuario a través de la unidad de entrada de voz es consistente con el texto extraído, ejecutar un inciso que corresponde al texto.
El inciso seleccionable puede ser uno de un icono ejecutable incluido en una lista de contenido para ejecutar una aplicación y un hiperenlace incluido en una página de la red.
El inciso a partir del cual se extrae el texto puede ser representado de modo distintivo de otros incisos a partir de los cuales no se extraen textos.
La extracción de texto puede incluir, si el texto de un nombre tiene un número de caracteres que excede un número predeterminado, extraer un texto que tiene un número de caracteres menor que el número predeterminado de el texto completo.
La ejecución puede incluir, si una voz de usuario introducida a través de la unidad de entrada de voz es consistente con el texto que tiene un número de caracteres menor que un número predeterminado, ejecutar un inciso que corresponde al texto que tiene un número de caracteres menor que el número predeterminado.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe la entrada de una instrucción de inicio de voz y una voz de usuario, y una unidad de control la cual, si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz, cambia un modo actual a un modo de tarea voz para realizar una tarea de voz y representa información de asistencia de voz para realizar el modo de tarea de voz, extraer textos de incisos seleccionables sobre una pantalla de representación en el modo de tarea de voz y, si una voz de usuario introducida a través de la unidad de entrada de voz es consistente con el texto de extraído, ejecutar un inciso que corresponde al texto.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de voz a través de una unidad de entrada de voz, cambiar un modo actual a un modo de tarea de voz en el cual una tarea es controlada de acuerdo con una voz de usuario introducida a través de la unidad de tarea de voz en respuesta a la instrucción de inicio de voz, extraer textos de una pluralidad de hiperenlaces incluidos en una página de la red en el modo de tarea de voz y, si existe únicamente un hiperenlace que tiene un texto que incluye una entrada de voz de usuario a través de la unidad de entrada de voz mientras se introduce la voz de usuario, ejecutar el hiperenlace que corresponde al texto.
La ejecución puede incluir, si existe únicamente un icono ejecutable que es consistente con la voz de usuario y una parte del texto mientras la voz de usuario se introduce a través de la unidad de entrada de voz, ejecutar el hiperenlace que corresponde al texto.
El método puede incluir además representar el texto extraído de manera distintivo de textos no extraídos.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe una instrucción de inicio de voz y una voz de usuario, una unidad de representación y una unidad de control la cual si se introduce la instrucción de inicio de voz a través de la unidad de entrada de voz, cambia un modo actual a un modo de tarea de voz el cual es controlado por la unidad de entrada de voz, extraer textos de una pluralidad de hiperenlaces incluidos en una página de la red en el modo de tarea de voz, y si existe únicamente un icono ejecutable que tiene un texto que incluye una entrada de voz de usuario a través de la unidad de entrada de voz mientras se introduce la voz de usuario, ejecutar el hiperenlace que corresponde al texto.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de voz a través de una unidad de entrada de voz, cambiar un modo actual a un modo de tarea de voz en el cual una tarea es controlada de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz en respuesta a una instrucción de inicio de voz, representar una página de la red que incluye una pluralidad de hiperenlaces en el modo de tarea de voz, extraer textos incluidos en la pluralidad de hiperenlaces, recibir una voz de usuario a través de la unidad de entrada de voz, reconocer la voz de usuario introducida y, si existen una pluralidad de hiperenlaces que tengan un texto consistente con la voz de usuario reconocida, representar una lista de un grupo candidato que incluye los hiperenlaces que tienen el texto consistente con la voz de usuario reconocida.
El método puede incluir volver a recibir la entrada de una voz de usuario a través de la unidad de entrada de voz, reconocer la voz de usuario introducida nuevamente y cambiar la lista del grupo candidato en base en la voz de usuario introducida nuevamente.
El método puede incluir, si existe únicamente un hiperenlace que tiene un texto consistente con la voz de usuario introducida y la voz de usuario introducida nuevamente, como un resultado de reflejar la voz de usuario introducida nuevamente, ejecutar de modo directo del hiperenlace que tiene el texto consistente.
El método puede incluir adicionalmente representar el texto extraído de modo distintivo de textos no extraídos.
La representación puede incluir representar la lista de un grupo candidato si un modo del aparato electrónico es un modo de tarea de voz.
El método puede incluir, si se libera el modo de tarea de voz, retirar la lista del grupo candidato de una pantalla de representación.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de representación la cual representa una página de la red que incluye una pluralidad de hiperenlaces, una unidad de entrada de voz la cual recibe una instrucción de inicio de voz y una voz de usuario y una unidad de control la cual, si se introduce la instrucción de inicio de voz, cambia el modo actual a un modo de tarea de voz en el cual una tarea es controlada de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz, extractos de textos incluidos en la pluralidad de hiperenlaces en el modo de tarea de voz, reconoce una entrada de voz de usuario a través de la unidad de entrada de voz y, si existen una pluralidad de hiperenlaces que tengan un texto consistente con la voz de usuario reconocida, representa una lista de un grupo candidato que incluye los hiperenlaces que tienen un texto consistente con la voz de usuario reconocida.
Si una voz de usuario es introducida nuevamente a través de la unidad de entrada de voz, la unidad de control puede reconocer la voz de usuario introducida nuevamente y puede controlar la unidad de representación para cambiar la lista del grupo candidato en base en la voz de usuario introducida nuevamente.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un método para el control de un aparato electrónico, el método incluye: recibir una instrucción de inicio de voz a través de una unidad de entrada de voz, cambiar un modo actual a un modo de tarea de voz en el cual una tarea es controlada por la entrada de voz de usuario a través de la unidad de entrada de voz en respuesta a una instrucción de inicio de voz, representar información de asistencia de voz que guíe a la tarea de voz realizada por la entrada de voz de usuario a través de la unidad de entrada de voz en el modo de tarea de voz; introducir una voz de usuario a través de una unidad de entrada de voz, y si la entrada de voz de usuario a través de la unidad de entrada de voz es menor que un nivel de volumen predeterminado, representar una UI de retroalimentación que indique que la voz de usuario no es reconocible en una primer área de la información de asistencia de voz.
La UI de retroalimentación puede ser una GUI que represente el volumen predeterminado y un volumen de la voz de usuario introducido a través de la unidad de entrada de voz en forma de una barra.
La representación puede incluir representar un mensaje que solicite la introducción de una voz de usuario mayor que el volumen predeterminado.
La primer área puede ser un área secundaria de la información de asistencia de voz.
De acuerdo con un aspecto de otra modalidad ejemplar, se proporciona un aparato electrónico que incluye: una unidad de entrada de voz la cual recibe una instrucción de inicio de voz y una voz de usuario, una unidad de representación la cual representa información de asistencia de voz que guía a una tarea de voz realizada por la voz de usuario introducida a través de la unidad de entrada de voz y una unidad de control la cual controla la unidad de representación, si la instrucción de inicio de voz se introduce, para cambiar un modo actual a un modo de tarea de voz en el cual una tarea es controlada por la entrada de voz de un usuario a través de la unidad de entrada de voz, y si la voz de un usuario es introducida a través de la unidad de entrada de voz en un modo de tarea de voz y la voz de usuario introducida a través de la unidad de entrada de voz es menor que un volumen predeterminado, representar una UI de retroalimentación que indica que la voz de usuario no es reconocible en una primer área de la información de asistencia de voz.
EFECTOS VENTAJOSOS DE LA INVENCION Como se describe en lo anterior, el usuario puede controlar el aparato electrónico 100 de manera más eficiente e intuitiva a través de uno de la voz de usuario y el movimiento del usuario.
BREVE DESCRIPCION DE LAS FIGURAS Los aspectos anteriores y/u otros serán evidentes de manera más aparente al describir con detalle modalidades ejemplares con referencia a las figuras anexas, en las cuales : La figura 1 a la figura 3 son diagramas de bloque para explicar la configuración de un aparato electrónico de acuerdo con diversas modalidades ejemplares; la figura 4 y la figura 5 son vistas que ilustran botones de un controlador remoto que corresponde a una tarea de voz y una tarea de movimiento; la figura 6 a la figura 32 son vistas para explicar diversos ejemplos de un método para realizar una tarea de voz ; la figura 33 a la figura 58 son vistas para explicar diversos ejemplos de un método para realizar una tarea de movimiento; la figura 59 y la figura 60 son diagramas de flujo para explicar un método controlado de un aparato electrónico el cual controla tareas al dividir las tareas en una tarea de movimiento y una tarea de voz de acuerdo con diversas modalidades ejemplares; la figura 61 y la figura 62 son vistas que ilustran un UI de voz respecto a una tarea de voz de un aparato electrónico de acuerdo con una modalidad ejemplar; la figura 63 es una vista que ilustra un UI de movimiento respecto a una tarea de movimiento de un aparato electrónico de acuerdo con una modalidad ejemplar; la figura 64 a la figura 66 son vistas que ilustran una retroalimentación visual del reconocimiento de voz o reconocimiento de movimiento de acuerdo con una modalidad ejemplar; la figura 67 a la figura 69 son diagramas de flujo para explicar un método de control de un aparato electrónico el cual proporciona una UI de voz y una UI de movimiento, de acuerdo con diversas modalidades ejemplares; la figura 70 a la figura 78 son vistas para explicar un método para representar un UI de un aparato electrónico para explicar un icono exclusivo para una aplicación de voz de acuerdo con diversas modalidades ej emplares ; la figura 79 es un diagrama de flujo para explicar un método para representar un UI de un aparato electrónico de acuerdo con una modalidad ejemplar; la figura 80 a la figura 91 son vistas que ilustran una pantalla la cual cambia de acuerdo con un movimiento de usuario en direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha, de acuerdo con diversas modalidades ejemplares; la figura 92 y la figura 93 son diagramas de flujo para explicar un método de control de un aparato electrónico en el cual una pantalla cambia de acuerdo con el movimiento de un usuario, de acuerdo con diversas modalidades ej emplares ; la figura 94 a la figura 97 son vistas y un diagrama de flujo para explicar un método para realizar un modo de control remoto, un modo de tarea de movimiento y un modo de tarea de voz, de acuerdo con diversas modalidades ejemplares ; la figura 98 es un diagrama de flujo para explicar reconocimiento de voz utilizando un dispositivo móvil de acuerdo con una modalidad ejemplar; la figura 99 a la figura 104 son vistas y un diagrama de flujo para explicar el modo de apuntar, de acuerdo con una modalidad ejemplar; la figura 105 a la figura 108 son vistas y un diagrama de flujo para explicar un método de representación si se introduce un movimiento en un modo de apuntar, de acuerdo con una modalidad ejemplar; la figura 109 a la figura 111 son vistas y un diagrama de flujo para explicar un método para representar un inciso en un modo de tarea de voz de acuerdo con una modalidad ejemplar ; la figura 112 a la figura 115 son vistas de un diagrama de flujo para explicar una UI que tiene una croma diferente entre sí, de acuerdo con una modalidad ejemplar; la figura 116 a la figura 118 son vistas de un diagrama de flujo para explicar la realización de una tarea que corresponde a una instrucción diferente al inciso de voz de representación de acuerdo con una modalidad ejemplar; la figura 119 a la figura 121 son vistas y un diagrama de flujo para explicar una instrucción de inicio de movimiento para cambiar un modo actual a un modo de tarea de movimiento utilizando ambas manos, de acuerdo con una modalidad ejemplar; la figura 122 es un diagrama de flujo para explicar un método para realizar un modo de tarea de movimiento si se introduce una instrucción de inicio de movimiento a partir de una pluralidad de usuario de acuerdo con una modalidad ejemplar; la figura 123 a la figura 126 son vistas y un diagrama de flujo para explicar un método para realizar una tarea en fases utilizando reconocimiento de voz de acuerdo con una modalidad ejemplar; la figura 127 a la figura 129 son vistas de un diagrama de flujo para explicar la ejecución de un icono ejecutable cuyo nombre se representa parcialmente de acuerdo con una modalidad ejemplar; la figura 130 a la figura 134 son vistas y un diagrama de flujo para explicar la realización de una tarea de acuerdo con un gesto especial de acuerdo con una modalidad ejemplar; la figura 135 a la figura 137 son vistas y un diagrama de flujo para explicar un icono representado de modo diferente dependiendo del método de entrada de voz, de acuerdo con una modalidad ejemplar; la figura 138 a la figura 142 son vistas y un diagrama de flujo para explicar un método para representar un menú de entrada de texto de acuerdo con una modalidad ej emplar ; la figura 143 es un diagrama de flujo para explicar un método para realizar una tarea de voz utilizando un aparato externo de acuerdo con una modalidad ejemplar; la figura 144 a la figura 146 son vistas y un diagrama de flujo para explicar un método para realizar una tarea de voz si se representa una instrucción pronunciable sobre una pantalla de representación, de acuerdo con una modalidad ejemplar; la figura 147 es un diagrama de flujo para explicar un método para reconocer una voz automáticamente de acuerdo con una modalidad ejemplar; la figura 148 es un diagrama de flujo para explicar un método para representar una lista candidata de acuerdo con una modalidad ejemplar; y la figura 149 es un diagrama de flujo para explicar una UI para guiar un error de reconocimiento de voz de acuerdo con una modalidad ejemplar.
DESCRIPCION DETALLADA DE LA INVENCION En lo siguiente se describirán modalidades ejemplares con mayor detalle, con referencia a las figuras anexas .
En la siguiente descripción se utilizan los mismos números de referencia para los mismos elementos cuando se presentan en figuras diferentes. La materia definida en la descripción, tal como la construcción detallada y los elementos se proporcionan para ayudar en una comprensión de las modalidades ejemplares. De este modo, es evidente que modalidades ejemplares se pueden llevar a cabo sin este material definido específicamente. Además, las funciones o elementos conocidos en el ámbito relacionado no se describen de modo detallado dado que podrían obscurecer las modalidades ejemplares con detalles innecesarios.
La figura 1 es un diagrama de bloques esquemático que ilustra un aparato electrónico 100 de acuerdo con una modalidad ejemplar.
Con referencia a la figura 1, el aparato electrónico 100 involucra una unidad de entrada de voz 110, una unidad de entrada de movimiento 120, una unidad de almacenamiento 130 y una unidad de control 140. El aparato electrónico 100 se puede realizar, pero no se limita a una televisión inteligente (TV) , un descodificador, una computadora personal (PC) o una TV digital la cual se puede conectar a una red externa.
La unidad de entrada de voz 110 recibe la entrada de una voz que es pronunciada por un usuario. La unidad de entrada de voz 110 convierte la señal de voz introducida en una señal eléctrica y transmite la señal eléctrica a la unidad de control 140. Por ejemplo, la unidad de entrada de voz 110 se puede realizar por un micrófono. Además, la unidad de entrada de voz 110 se puede realizar por un componente interno en el aparato electrónico 100 o por un dispositivo externo. El dispositivo externo de la unidad de entrada de voz 110 se puede conectar al aparato electrónico 100 a partir de una conexión cableada o inalámbrica o a través de una red.
La unidad de entrada de movimiento 120 recibe una señal de imagen (por ejemplo un cuadro continuo) que se obtiene al tomar una fotografía de el movimiento de un usuario y proporciona la señal de imagen a la unidad de control 140. Por ejemplo, la unidad de entrada de movimiento 120 se puede realizar por una unidad que incluya un lente y un sensor de imagen. La unidad de entrada de movimiento 120 se puede realizar por un componente interno en el aparato electrónico 100 o un dispositivo externo. La unidad de entrada de movimiento de dispositivo externo 120 se puede conectar al aparato electrónico 100 en una conexión cableada o inalámbrica o sobre una red.
La unidad de almacenamiento 130 almacena diversos datos y programas para activar y controlar el aparato electrónico 100. La unidad de almacenamiento 130 almacena un módulo de reconocimiento de voz que reconoce una entrada de voz a través de la unidad de entrada de voz 110 y un módulo de reconocimiento de movimiento que reconoce una entrada de movimiento a través de una unidad de entrada de movimiento 120.
La unidad de almacenamiento 130 puede incluir una base de datos de voz y una base de datos de movimiento. La base de datos de voz hace referencia a una base de datos en la cual una voz predeterminada y una tarea de voz coincidente con la voz predeterminada son registradas. La base de datos de movimiento hace referencia a una base de datos en la cual un movimiento predeterminado y una tarea de movimiento que coincida con el movimiento predeterminado están registrados.
La unidad de control 140 controla la unidad de entrada de voz 110, la unidad de entrada de movimiento 120 y la unidad de almacenamiento 130. La unidad de control 140 puede incluir un procesador de elementos físicos tal como una unidad de procesamiento central (CPU) y una memoria de solo lectura (ROM) y una memoria de acceso aleatorio (RAM) para almacenar un módulo y datos para el control del aparato electrónico 100.
Si se introduce una voz a través de la unidad de entrada de voz 110, la unidad de control 140 reconoce la voz utilizando el módulo de reconocimiento de voz y la base de datos de voz. El reconocimiento de voz se puede dividir en reconocimiento de palabra aislada que reconoce la voz pronunciada al distinguir palabras de acuerdo con una forma de una voz introducida, reconocimiento de habla continua que reconoce una palabra continua, una oración continua y una voz de diálogo y marcado de una contraseña que es un tipo intermedio entre el reconocimiento de palabra aislada y el reconocimiento de habla continua y reconoce una voz al detectar una palabra clave definida de antemano. Si se introduce la voz de un usuario, la unidad de control 140 determina una sección de voz al detectar el inicio y el final de la voz pronunciada por el usuario a partir de una señal de voz introducida. La unidad de control 140 calcula la energía de la señal de voz introducida, clasifica un nivel de energía de la señal de voz de acuerdo con la energía calculada y detecta la sección de voz a través de programación dinámica. La unidad de control 140 genera datos de fonema al detectar un fonema, el cual es la unidad de voz más pequeña, a partir de la señal de voz dentro de la sección de voz detectada en base en un modelo acústico. La unidad de control 140 genera información de texto al aplicar un modelo de Markov oculto (HMM) a los datos de fonema generados. No obstante, el método de reconocimiento de voz descrito en lo anterior es solamente un ejemplo y se pueden utilizar otros métodos de reconocimiento de voz. En el método descrito en lo anterior, la unidad de control 140 reconoce la voz de usuario incluida en la señal de voz .
Si se introduce un movimiento a través de la unidad de entrada de movimiento 120, la unidad de control 140 reconoce el movimiento utilizando el módulo de reconocimiento de movimiento y la base de datos de movimiento. El reconocimiento de movimiento divide una imagen (por ejemplo, un cuadro continuo) que corresponde a la entrada de movimiento de usuario a través de la unidad de entrada de movimiento 120 en un fondo y un área de mano (por ejemplo, al extender los dedos o al cerrar con las manos juntas) y reconoce un movimiento de mano continuo. Si se introduce un movimiento de usuario, la unidad de control 140 almacena una imagen recibida en una base de cuadro y detecta un objeto (por ejemplo, las manos de un usuario) del movimiento de usuario utilizando un cuadro almacenado. La unidad de control 140 detecta el objeto al detectar por lo menos uno de la forma, color y movimiento del objeto incluido en el cuadro. La unidad de control 140 puede realizar un trazo del movimiento del objeto utilizando ubicaciones del objeto incluidas en la pluralidad de cuadros.
La unidad de control 140 determina el movimiento de acuerdo con la forma y el movimiento del objeto trazado. Por ejemplo, la unidad de control 140 determina el movimiento de usuario utilizando por lo menos uno de un cambio en la forma, una velocidad, una ubicación y una dirección del objeto. El movimiento del usuario incluye el movimiento de agarrar al cerrar una mano, un movimiento de mover apuntando o el movimiento de un cursor representado con una mano, el movimiento de palmada o de mover una mano en una dirección a una velocidad predeterminada o mayor, un movimiento de agitación o agitación de una mano horizontal o verticalmente y un movimiento de rotación al hacer girar una mano. La idea técnica de la presente descripción se puede aplicar a otros movimientos. Por ejemplo, el movimiento de usuario puede incluir además un movimiento de extensión al extender una mano.
La unidad de control 140 determina si el objeto abandona un área predeterminada (por ejemplo, un cuadro de 40 cm x 40 cm) dentro de un tiempo predeterminado (por ejemplo, 800 ms) con el fin de determinar si el movimiento del usuario es el movimiento de mover apuntando o un movimiento de palmada. Si el objeto no abandona el área predeterminada dentro del tiempo predeterminado, la unidad de control 140 puede determinar que el movimiento de usuario es un movimiento que se mueve apuntando. Si el objeto abandona el área predeterminada dentro del tiempo predeterminado, la unidad de control 140 puede determinar que el movimiento del usuario es un movimiento de palmada. Como otro ejemplo, si la velocidad del objeto es menor que una velocidad predeterminada (por ejemplo, 30 cm/s) , la unidad de control 140 puede determinar que el movimiento del usuario es un movimiento moviéndose apuntando. Si la velocidad del objeto excede una velocidad predeterminada, la unidad de control 140 determina que el movimiento del usuario es un movimiento de palmada.
Como se describe en lo anterior, la unidad de control 140 realiza una tarea del aparato electrónico 100 utilizando la voz y el movimiento reconocidos. La tarea del aparato electrónico incluye por lo menos una de las funciones realizadas por el aparato electrónico 100, tal como cambio de canal, control de volumen, repetición de contenido (por ejemplo, una imagen en movimiento, música o una fotografía) o navegación en Internet.
Un método detallado para el control del aparato electrónico 100 por la unidad de control 140 se explicará en lo siguiente.
La figura 2 es un diagrama de bloques que ilustra un aparato electrónico 100 de acuerdo con una modalidad ejemplar. Con referencia a la figura 2, el aparato electrónico 100 incluye una unidad de entrada de voz 110, una unidad de entrada de movimiento 120, una unidad de almacenamiento 130, una unidad de control 140, una unidad de recepción de difusión 150, una unidad de entrada de terminal externa 160, una unidad de recepción de señal de control remoto 170, una unidad de interconexión de red 180 y una unidad de salida de imagen 190. Como se muestra en la figura 2, el aparato electrónico 100 se puede realizar por un decodificador, una computadora personal, etc.
La unidad de entrada de voz 110, la unidad de entrada de movimiento 120, la unidad de almacenamiento 130 y una unidad de control 140 de la figura 2 son las mismas que la unidad de entrada de voz 110, la unidad de entrada de movimiento 120, la unidad de almacenamiento 130 y la unidad de control 140 de la figura 1 y por lo tanto se omite una descripción detallada de los mismos.
La unidad de recepción de difusión 150 recibe una señal de difusión desde una fuente externa de una manera cableada o inalámbrica. La señal de difusión incluye un video, un audio y datos adicionales (por ejemplo, una guía electrónica de programa (EPG) ) . La unidad receptora de difusión 150 puede recibir una señal de difusión desde diversas fuentes tales como difusión de onda terrestre, difusión por cable, difusión por satélite, difusión por Internet, etc.
La unidad de entrada de terminal externa 160 recibe datos de video (por ejemplo una imagen en movimiento o una fotografía) y datos de audio (por ejemplo, música) desde una fuente externa. La unidad de entrada de terminal externa 160 puede incluir por lo menos una de una terminal de entrada de interconexión multimedia de alta definición (HDMI), una terminal de entrada de componente, una terminal de entrada de PC, una terminal de entrada USB, etc. La unidad receptora de señal de control remoto 170 recibe una señal de control remoto desde un controlador remoto externo. La unidad receptora de señal de control remoto 170 puede recibir una señal de control remoto en un modo de tarea de voz o un modo de tarea de movimiento del aparato electrónico 100. La unidad de interconexión de red 180 puede conectar el aparato electrónico 100 a un aparato externo (por ejemplo, un servidor, bajo el control de la unidad de control 140. La unidad de control 140 puede descargar una aplicación desde un aparato externo conectado a través de la unidad de interconexión de red 180 o puede realizar navegación en la red. La unidad de interconexión de red 180 puede proporcionar por lo menos uno de Ethernet, una LAN inalámbrica 182, Bluetooth, etc.
La unidad de salida de imagen 190 transmite la señal de difusión externa recibida a través de la unidad de recepción de difusión 150, los datos de video introducidos desde la unidad de entrada de terminal externa 160 o los datos de video almacenados en la unidad de almacenamiento 130 a un aparato de representación externo (por ejemplo, un monitor o una TV) . La unidad de salida de imagen 190 puede incluir una terminal de salida tal como una HDMI , componente, compuesto, arreglo de gráficos de video (VGA) , interconexión de video digital (DVI) , S-video, etc.
La figura 3 es un diagrama de bloques que ilustra un aparato electrónico 100 de acuerdo con otra modalidad ejemplar adicional. Como se muestra en la figura 3, el aparato electrónico 100 incluye una unidad de entrada de voz 110, una unidad de entrada de movimiento 120, una unidad de almacenamiento 130, una unidad de control 140, una unidad de recepción de difusión 150, una unidad de entrada de terminal externa 160, una unidad de recepción de señal de control remoto 170, una unidad de interconexión de red 180, una unidad de representación 193 y una unidad de salida de audio 196. El aparato electrónico 100 puede ser, pero no está limitado a una TV digital.
La unidad de entrada de voz 110, la unidad de entrada de movimiento 120, la unidad de almacenamiento 130, la unidad de control 140, la unidad receptora de difusión 150, la unidad de entrada de terminal externa 160, la unidad de recepción de señal de control remoto 170 y la unidad de interconexión de red 180 de la figura 3 son las mismas que aquellas que tienen los mismos números de referencia en la figura 1 y la figura 2 y por lo tanto se omite la descripción detallada de las mismas.
La unidad de representación 193 representa una imagen que corresponde a una recepción de difusión recibida a través de la unidad receptora de difusión 150. La unidad de representación 193 puede representar datos de imagen (por ejemplo, una imagen en movimiento) introducidos a través de la unidad de entrada de terminal externa 160 o video almacenado en la unidad de almacenamiento. La unidad de representación 193 puede representar información de asistencia de voz para realizar una tarea de voz e información de asistencia de movimiento para realizar una tarea de movimiento bajo el control de la unidad de control 140.
La unidad 196 de salida de audio transmite un audio que corresponde a una señal de difusión bajo el control de la unidad de control 140. La unidad de salida de audio 196 puede incluir por lo menos uno de un altavoz 196a, una terminal de salida de audífono 196b y una terminal de salida S/PDIF 163c. La unidad de almacenamiento 130 incluye un módulo de control de energía 130a, un módulo de control de canal 130b, un módulo de control de volumen 130c y un módulo de control de entrada externa 130d, un módulo de control de pantalla 103e, un módulo de control de audio 130f, un módulo de control de Internet 130g, un módulo de control de aplicación 130h, un módulo de control de búsqueda 13Oi, un módulo de proceso de interconexión de usuario (UI) 130j, un módulo de reconocimiento de voz 130k, un módulo de reconocimiento de movimiento 1301, una base de datos de voz 13Om y una base de datos se movimiento 130n. Estos módulos 130a a 130n se pueden realizar por un programa con el fin de realizar una función de control de energía, una función de control de canal, una función de control de volumen, una función de control de entrada externa, una función de control de pantalla, una función de control de audio, una función de control de Internet, una función de ejecución de aplicación, una función de control de búsqueda y una función de procesamiento de UI . La unidad de control 140 realiza una función correspondiente al ejecutar el programa almacenado en la unidad de almacenamiento 130.
A continuación se explicarán diversas modalidades ejemplares con referencia a las figuras anexas.
Si una voz de usuario se reconoce a través del módulo de reconocimiento de voz 13Ok, la unidad de control 140 realiza una tarea de voz que corresponde a la voz de usuario reconocida de entre las tareas que son controlables por un controlador remoto. Si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento 1301, la unidad de control 140 realiza una tarea de movimiento que corresponde al movimiento de usuario reconocido de entre las tareas que son controlables por el controlador remoto. La tarea de voz y la tarea de movimiento pueden ser cartografiadas al ser clasificadas por botones en el controlador remoto.
La tarea de voz se refiere a una tarea que es controlable de acuerdo con una voz reconocida a través del módulo de reconocimiento de voz. Por ejemplo, la tarea de voz puede incluir por lo menos una de las funciones de apagado del aparato electrónico 100, un método abreviado de canal, enmudecimiento, cambio de una terminal externa, ajuste del nivel de volumen, introducción de textos y reproducción/detención de una imagen. Esto es, diversas tareas que tienen un nombre o un identificador pueden ser pronunciadas por la voz del usuario o una tarea que requiere introducir un texto puede establecerse como una tarea de voz.
La tarea de voz se refiere a una tarea que es controlable de acuerdo con un movimiento reconocido a través del módulo de reconocimiento de movimiento. Por ejemplo, la tarea de movimiento puede incluir cambio de canal, control de nivel de volumen, navegación en pantalla, control de barra deslizable y apuntar un cursor. Esto es, diversas tareas que pueden ser controladas en fases de acuerdo con un tipo y una dirección de un movimiento de usuario y una tarea utilizando un cursor se pueden establecer como una tarea de movimiento.
Si la voz de un usuario reconocida a través del módulo de reconocimiento de voz, la unidad de control 140 realiza una tarea de voz que corresponde directamente a la pronunciación incluida en la voz de usuario.
Por ejemplo, la unidad de control 140 reconoce un identificador de canal a partir de la voz pronunciada por el usuario. El identificador de canal es para identificar a un canal y puede incluir por lo menos uno de un nombre de canal, un número de canal y un nombre de programa .
Si un identificador de canal se almacena en la base de datos de voz almacenada en la unidad de almacenamiento 130 como se describe en lo anterior, la unidad de control 140 realiza un método abreviado a un canal que corresponde al identificador de canal reconocido utilizando la base de datos de voz. Esto es, si el usuario dice "11", la unidad de control 140 confirma si una tarea de voz corresponde a "11" está registrada en la base de datos de voz. Si la tarea de voz que corresponde a "11" es una función de método abreviado de canal para seleccionar el canal 11, la unidad de control 140 realiza el método abreviado al canal 11.
Si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento, la unidad de control 140 realiza una tarea de movimiento que corresponde al movimiento de usuario de acuerdo con una dirección del movimiento de usuario.
Por ejemplo, si se reconoce un movimiento de palmada en una dirección hacia arriba a través del módulo de reconocimiento de movimiento, la unidad de control 140 puede confirmar una tarea de movimiento que corresponde al movimiento de palmada en la dirección hacia arriba desde la base de datos de movimiento y puede realizar cambio de canal para cambiar un canal actual a un canal un número el cual se incrementa por un número predeterminado (por e emplo, 1) . Si un movimiento de palmada en una dirección es descendente se reconoce a través del módulo de reconocimiento de movimiento, la unidad de control 140 puede identificar una tarea de movimiento que corresponde al movimiento de palmada en la dirección descendente desde la base de datos de movimiento y puede realizar un cambio de canal para cambiar el canal actual a un canal un número del cual está disminuido por un número predeterminado (por ejemplo, 1) .
Las tareas de voz y las tareas de movimiento pueden ser cartografiadas al ser clasificadas por botones sobre un controlador remoto, como se muestra en la figura 4 y en la figura 5.
La figura 4 ilustra botones en un controlador remoto que corresponden a una instrucción para realizar por lo menos una tarea de voz. Esto es, se realiza una tarea si se reconoce una entrada de voz que puede corresponder a una tarea que se realiza por uno de los botones en el controlador remoto. Por ejemplo, una tarea que se realiza por un botón de encendido 401 en el controlador remoto corresponde a una tarea que se realiza si se reconoce la frase "palabra de llamada" por ejemplo, "Ginny) o "encendido". En consecuencia, un botón de entrada externo 402 que corresponde a una voz "entrada externa", también, un botón de número 403 que corresponde a un número pronunciado. Además, un botón de canal previo 404 corresponde a una voz "canal previo" . Un botón de enmudecimiento 405 corresponde a la voz "enmudecer" o "desenmudecer". Además, un botón de lista de canales 406 corresponde a la voz "lista de canales". Un botón inteligente de cubo/menú/búsqueda/menú rápido/representación de información 407, un botón de retorno 408, un botón de existencia 409, un botón de suministro de red social/imagen tridimensional 410, un botón de ayuda 411 y un botón de reproducción/pausa/alto/grabar 412 corresponden a las voces que corresponden a sus nombres respectivos.
La figura 5 ilustra botones en un controlador remoto que corresponden a un movimiento para realizar por lo menos una tarea de movimiento. Esto es, una tarea que se realiza si se reconoce una entrada de movimiento puede corresponder a una tarea que es realizada de acuerdo con uno de los botones en el controlador remoto. Por ejemplo, como se muestra en la figura 5, una tarea que es realizada de acuerdo con un botón de aumento/disminución de volumen y un botón de aumento/disminución de canal 421 corresponde a una tarea que es realizada si se reconocen movimientos de palmada en las direcciones hacia arriba, hacia abajo, hacia la derecha y hacia la izquierda. En consecuencia, los botones de direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha 422 corresponden a los movimientos de palmada en las direcciones hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha. Un botón de selección 423 puede corresponder a un movimiento de agarre. Un botón de función 425 puede corresponder a un movimiento de apuntar de una clave correspondiente si la presentación en pantalla (OSD) incluye una guía de clave.
La tarea de voz y la tarea de movimiento pueden cambiar ajustes del aparato electrónico 100 independientemente sin que se combinen entre sí. Esto es, la tarea de voz puede cambiar los ajustes del aparato electrónico 100 utilizando una voz de usuario reconocida por el módulo de reconocimiento de voz 13Ok y las tareas de movimiento pueden cambiar los ajustes del aparato electrónico 100 utilizando un movimiento de usuario reconocido por el módulo de reconocimiento de movimiento 1301.
La unidad de control 140 reconoce uno de la voz de usuario y el movimiento de usuario a través de uno del módulo de reconocimiento de voz 13Ok y el módulo de reconocimiento de movimiento 1301. Si la voz de un usuario reconocida a través del módulo de reconocimiento de voz 130k, la unidad de control 140 ejecuta un contenido que tiene un identificador de contenido que corresponde a la voz de usuario reconocida de entre una pluralidad de contenidos que tienen identificadores de contenido, respectivamente. Si un movimiento de usuario es reconocido a través del módulo de reconocimiento de movimiento 1301, la unidad de control 140 cambia una pluralidad de contenidos de acuerdo con una dirección del movimiento de usuario.
El contenido mencionado en la presente puede ser un contenido de difusión. En particular, si se reconoce una voz de usuario a través del módulo de reconocimiento de voz 130k, la unidad de control 140 cambia un canal de difusión actual a un canal de difusión que tiene un identificador de canal de difusión que corresponde a la voz de usuario reconocida de entre una pluralidad de canales de difusión que tienen identificadores de canal de difusión, respectivamente. El identificador de canal puede incluir por lo menos uno de un número de canal, un nombre de canal y un nombre de programa.
Si se reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento 1301, la unidad de control 140 cambia una pluralidad de canales de difusión en fases de acuerdo con una dirección de movimiento de usuario. El movimiento de usuario puede incluir un movimiento de palmada. Por ejemplo, si se reconoce un movimiento de usuario como un movimiento de palmada en una dirección hacia arriba, la unidad de control 140 realiza cambio de canal de manera que el canal de difusión actual se cambia a un canal de difusión un número el cual se incrementa por un número predeterminado. Si el movimiento de usuario reconocido es un movimiento de palmada en una dirección hacia abajo, la unidad de control 140 realiza un cambio de canal de manera que el canal de difusión actual cambia a un canal de difusión un número el cual disminuye en un número predeterminado.
El contenido puede ser uno de un contenido de imagen, un contenido de música y un contenido de fotografía. Si el contenido es uno de un contenido de imagen, el contenido de música y el contenido de fotografía, el identificador de contenido puede ser un nombre del contenido.
Si el contenido es uno de un contenido de imagen, el contenido de música y el contenido de fotografía, el movimiento de usuario puede incluir un movimiento de palmada. Por ejemplo, si el movimiento de usuario reconocido es un movimiento de palmada en una dirección a la derecha, la unidad de control 140 puede cambiar un contenido actual a un siguiente contenido en una lista de contenido que incluye una pluralidad de contenidos para ser reproducidos y, si el movimiento de usuario reconocido es un movimiento de palmada en una dirección a la izquierda, la unidad de control 140 puede cambiar un contenido actual a un contenido previo en la lista de contenido.
Si se reconoce una instrucción de inicio de voz a través del módulo de reconocimiento de voz 130k, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 se controla de acuerdo con una voz de usuario reconocida a través del módulo de reconocimiento de voz 13Ok. Si la instrucción de inicio de movimiento se reconoce a través del módulo de reconocimiento de movimiento 1301, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento en el cual el aparato electrónico 100 es controlado de acuerdo con un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301.
Específicamente, la unidad de control 140 puede ser operada en uno de un modo de control remoto en el cual el aparato electrónico 100 es controlado por un aparato de control remoto (por ejemplo, un controlador remoto) , un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una voz y un modo de tarea de movimiento en el cual el aparato electrónico 100 es controlado de acuerdo con un movimiento. Si se introduce una instrucción para iniciar otro modo, la unidad de control 140 puede cambiar un modo actual a un modo correspondiente.
Si se reconoce una instrucción de inicio de voz (voz de activación) a través del módulo de reconocimiento de voz 130k mientras el aparato electrónico 100 está en el modo de control remoto o en el modo de tarea de movimiento, la unidad de control 140 cambia un modo del aparato electrónico 100 al modo de tarea de voz. La instrucción de inicio de voz es una instrucción que incluye una palabra que coincide con una operación de introducción al modo de tarea de voz. Por ejemplo, si se establece la palabra "Ginny" como una instrucción de inicio de voz, la unidad de control 140 cambia un modo del aparato electrónico 100 al modo de tarea de voz cuando se reconoce la palabra "Ginny" . La palabra respecto a la instrucción de inicio de voz se puede cambiar directamente por el usuario en un modo de configuración del aparato electrónico 100 o puede ser una instrucción fija que se define como implícita en el momento de fabricación del aparato electrónico 100.
En el modo de tarea de voz, la unidad de control 140 realiza una tarea de voz que corresponde a una palabra incluida en la voz pronunciada por el usuario utilizando la base de datos de voz.
La unidad de control 140 puede mantener en modo de tarea de voz hasta que se reconoce una instrucción de inicio para regresar al modo de control remoto, una instrucción de cancelación de modo o una instrucción de inicio de movimiento para cambiar a un modo de tarea de movimiento. Si no se reconoce voz por un tiempo predeterminado (por ejemplo, 5 minutos) después de que se ha cambiado el modo al modo de tarea de voz, la unidad de control 140 puede regresar automáticamente al modo de control remoto.
Si se reconoce una instrucción de inicio de movimiento (movimiento de activación) a través del módulo de reconocimiento de movimiento 1301 en el modo general del modo de tarea de voz, la unidad de control 140 puede cambiar en modo actual al modo de tarea de movimiento. La instrucción de inicio de movimiento es un movimiento establecido previamente para entrar al modo de tarea de movimiento. Por ejemplo, si un movimiento de agitación de una mano horizontalmente 3~4 veces se establece como la instrucción de inicio de movimiento, la unidad de control 140 cambia el modo al modo de tarea de movimiento cuando se reconoce este movimiento. El movimiento respecto a la instrucción de inicio de movimiento se puede cambiar directamente por el usuario en un modo de configuración o puede ser un movimiento fijo que se define como implícito en el momento de fabricación del aparato electrónico 100.
En el modo de tarea de movimiento, la unidad de control 140 realiza una tarea de movimiento que corresponde al movimiento de usuario utilizando la base de datos de movimiento. La unidad de control 140 puede mantener el modo de tarea de movimiento hasta que se reconoce una instrucción de inicio para regresar al modo de control remoto, una instrucción de cancelación de modo o una instrucción de inicio de voz para cambiar el modo de tarea de voz. Si no se reconoce el movimiento durante un tiempo predeterminado (por ejemplo, 5 minutos) después de que se ha cambiado de modo al modo de tarea de movimiento, la unidad de control 140 puede regresar al modo de control remoto automáticamente.
La unidad de control 140 muestra una de la información de asistencia de voz que incluye un inciso de voz para guiar el reconocimiento de voz e información de asistencia de movimiento que incluye un inciso de movimiento para guiar el reconocimiento de movimiento. Si una de las instrucciones que corresponden a los incisos de voz incluidos en la información de asistencia de voz es reconocido, la unidad de control 140 realiza una tarea de voz que corresponde a la instrucción reconocida. Si uno o más movimientos que corresponden al inciso de movimiento incluido en la información de asistencia de movimiento es reconocido, la unidad de control 140 realiza una tarea de movimiento que corresponde al movimiento reconocido.
Específicamente, si se reconoce una instrucción de inicio de voz a través del módulo de reconocimiento de voz 130k, la unidad de control 140 puede controlar para mostrar incisos de voz respecto a las tareas de voz que son controlables por la voz del usuario. Los incisos de voz pueden presentar instrucciones que corresponden a diversas tareas de voz. En consecuencia, si el usuario pronuncia cierta instrucción, el usuario puede reconocer fácilmente cual tarea de voz se realizará y por lo tanto puede realizar más fácilmente la tarea de voz.
Si se reconoce una instrucción de inicio de movimiento a través del módulo de reconocimiento de movimiento 1301, la unidad de control 140 puede controlar para presentar un inciso de movimiento respecto a las tareas de movimiento que con controlables por el movimiento del usuario. El inciso de movimiento puede presentar movimientos que corresponden a las diversas tareas de movimiento. En consecuencia, si el usuario realiza cierto movimiento, el usuario puede reconocer fácilmente cual tarea de movimiento se realizará y por lo tanto puede realizar la tarea de movimiento más fácilmente.
El inciso de voz o el inciso de movimiento se pueden representar en la misma área de una pantalla de representación (por ejemplo, una porción inferior de la pantalla) . El área sobre la cual se representa el inciso de voz o el inciso de movimiento puede estar superpuesta con la imagen representada. No obstante, esto es simplemente un ejemplo de un inciso de voz y un inciso de movimiento que pueden ser representados en otros lugares o en otros métodos. Por ejemplo, el inciso de voz o el inciso de movimiento se pueden representar en una porción derecha o en una porción izquierda de la pantalla de representación.
La tarea del aparato electrónico 100 se puede dividir en la tarea de voz que es controlada por la voz de un usuario y la tarea de movimiento que es controlada por el movimiento de un usuario, como sigue: TABLA 1 Tarea de voz para control de encendido, método abreviado de canal, ajuste de nivel de volumen, enmudecimiento, cambio de entrada externa, búsqueda, ejecución de función (si un nombre de objeto es definido), cancelación de función, entrada de texto Tarea de movimiento de cambio de canal, control de nivel de volumen, ejecución de función (si un nombre de objeto es indefinido) , control de reproducción, control de barra deslizable, puntero de cursor La tarea de voz que se muestra en la tabla 1 se puede realizar en el modo de tarea de voz el cual es ejecutado por la instrucción de inicio de voz y la tarea de movimiento que se muestra en la tabla 1 se puede realizar en el modo de tarea de movimiento el cual se ejecuta por la instrucción de inicio de movimiento.
A continuación se explican con referencia desde la figura 6 a la figura 32 las tareas de voz las cuales son controladas de acuerdo con la voz de un usuario y se explicarán con referencia desde la figura 33 a la 58 las tareas de movimiento las cuales son controladas de acuerdo con el movimiento del usuario.
La figura 6 y la figura 7 son vistas para explicar el encendido utilizando el reconocimiento de voz de acuerdo con una modalidad ejemplar. Como se muestra en la figura 6, en un modo en espera en el cual una imagen no es emitida pero se suministra energía a la unidad de entrada de voz 110 y la unidad de control 140 si se reconoce "encendido" a través del módulo de reconocimiento de voz 13 Ok, se enciende el aparato electrónico 100, como se muestra en la figura 7.
La figura 8 a la figura 10 son vistas para explicar el apagado utilizando reconocimiento de voz de acuerdo con una modalidad ejemplar. Como se muestra en la figura 8, si el aparato electrónico 100 entra en el modo de tarea de voz y representa la información de asistencia de voz en la porción inferior de la pantalla de representación y se reconoce "apagado" que corresponde a un inciso de voz 811 a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 representa un área de guía 920 para confirmar el apagado del aparato electrónico 100 nuevamente sobre la información de guía de voz, como se muestra en la figura 9. Si se reconoce "si" que corresponde a un inciso de voz 922 a través del módulo de reconocimiento de voz 13Ok, se apaga el aparato electrónico 100, como se muestra en la figura 10.
La figura 11 y la figura 12 son vistas para explicar el encendido inteligente utilizando reconocimiento de voz de acuerdo con una modalidad ejemplar. El encendido inteligente es una función que enciende el aparato electrónico 100 y que simultáneamente cambia un canal actual a un canal deseado por el usuario. Como se muestra en la figura 11, en el modo en espera, en el cual no se emite una imagen pero se suministra energía a la unidad de entrada de voz 110 y a la unidad de control 140, si se reconocen continuamente "Ginny" y "canal 6" a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 se enciende y muestra el canal 6, como se muestra en la figura 12.
La figura 13 a la figura 16 son vistas para explicar el método abreviado de canal utilizando reconocimiento de voz que incluye un número de canal de acuerdo con una modalidad ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de voz y representa la información de asistencia de voz sobre la porción inferior de la pantalla de representación y se reconoce "canal" que corresponde a un inciso de voz 812 a través del módulo de reconocimiento de voz 13Ok como se muestra en la figura 13, el aparato electrónico 100 representa un área de guía 830 para guiar un número de canal y un nombre de canal en la información de asistencia de voz en el extremo inferior de la pantalla de representación, como se muestra en la figura 14. Si el área de guía 830 es representada y se reconoce la voz "7" a través del módulo de reconocimiento de voz 13Ok, el aparato electrónico 100 cambia a un canal para sintonizar el canal 7.
Si existe un canal que incluye "siete" reconocido a través del módulo de reconocimiento de voz 13Ok o si existe un grupo candidato similar a "siete", el aparato electrónico 100 representa una lista de un grupo candidato de voz 1100 y una guía de selección de grupo candidato 1510 para guiar una manera de introducir el grupo candidato de voz, como se muestra en la figura 15.
Si la lista del grupo candidato de voz 1100 es representada y se reconoce "número 1" que corresponde a un número de un inciso 1101 en la lista del grupo candidato de voz a través del módulo de reconocimiento de voz 13Ok, el aparato electrónico 100 sintoniza el canal 7, como se muestra en la figura 16.
La figura 17 a la figura 20 son vistas para explicar método abreviado de canal utilizando reconocimiento de voz que incluye un nombre de canal de acuerdo con una modalidad ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de voz y representa la información de asistencia de voz en la porción inferior de la pantalla de representación y se reconoce "canal" que corresponde al inciso de voz 812 a través del módulo de reconocimiento de voz 13Ok como se muestra en la figura 17, el aparato electrónico 100 representa el área de guía 830 para guiar un número de canal y un nombre de canal en la información de asistencia de voz, como se muestra en la figura 18. Si el área de guía 830 es reproducida y se reconoce una voz "MBC" a través del módulo de reconocimiento de voz 13 Ok, el aparato electrónico 100 sintoniza el canal 11 que tiene el nombre de canal "MBC", como se muestra en la figura 20.
Si existe un canal que incluye "MBC" reconocido a través del módulo de reconocimiento de voz 13Ok o si existe un grupo candidato similar a "MBC", el aparato electrónico 100 representa una vista de un grupo candidato de voz 1900 y una guía de selección de grupo candidato 1910 para guiar una manera de introducir el grupo candidato de voz, como se muestra en la figura 19. La lista del grupo candidato de voz 1900 es representada y la voz "número 11" que corresponde a un número de un inciso 1901 en la lista del grupo candidato de voz 1900 es reconocida a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 sintoniza el canal 11 que tiene el nombre de canal "MBC" como se muestra en la figura 20.
La figura 21 a la figura 23 son vistas para explicar el enmudecimiento utilizando reconocimiento de voz de acuerdo con una modalidad ejemplar. Como se muestra en la figura 21, si se representa información de asistencia de voz sobre la porción inferior de la pantalla de representación y se reconoce "enmudecer" que corresponde a un inciso de voz 813 a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 controla la unidad de salida de audio 196 para que no transmita audio. Además, como se muestra en la figura 22, el aparato electrónico 100 representa un icono de enmudecimiento 2200 sobre la pantalla de representación. En este momento, un área de guía 2210 representa una instrucción de desenmudecer 2213, en vez de la instrucción de enmudecer 813.
Si se reconoce "desenmudecer" a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 controla la unidad de salida de audio 196 para transmitir un audio a un nivel previo que estaba funcionando antes del enmudecimiento . Además, como se muestra en la figura 23, el aparato electrónico 100 suprime el icono de enmudecimiento 2200 en la pantalla de representación.
La figura 24 a la figura 26 son vistas para explicar el cambio de entrada externo utilizando reconocimiento de voz de acuerdo con una modalidad ejemplar. Como se muestra en la figura 24, si el aparato electrónico 100 introduce el modo de tarea de voz y representa la información de asistencia de voz en la porción inferior de la pantalla de la presentación y se reconoce una "entrada externa" que corresponde al inciso de voz 814 a través del módulo de reconocimiento de voz 13Ok, el aparato electrónico 100 representa una lista de entrada externa 2500 y una guía 2510 para guiar la selección de una entrada externa, como se muestra en la figura 25. La lista de entrada externa 2500 representa claramente una terminal externa USB, una terminal externa AVI y una terminal externa PC, las cuales se conectan a la unidad de entrada de terminal externa 160 y representan de manera clara una HDMI 1 y HDMI 2, las cuales no están conectadas a la unidad de entrada de terminal externa 160. Si la lista de entrada externa 2500 es representada y se reconoce "PC" a través del módulo de reconocimiento de voz 130, el aparato electrónico 100 representa un estado de conexión con la entrada externa "PC" en la pantalla de representación.
La figura 27 y la figura 29 son vistas que ilustran una tarea de ejecución de función que tiene un nombre definido para ser pronunciado de acuerdo con una modalidad ejemplar. Como se muestra en la figura 27, si una instrucción de usuario para representar una lista de contenido para realizar funciones inteligentes (por ejemplo, funciones de acceso al Internet, ejecución de una aplicación, reproducción de una imagen en movimiento y escuchar música) es introducida, se representa un cubo inteligente 2700. El cubo inteligente 2700 es una UI que atiende como un cubo de función es soportado por el aparato electrónico 100 y es una UI que representa iconos ejecutables que corresponden a una pluralidad de funciones soportadas por el aparato electrónico 100 (por ejemplo, funciones para observación de un video, escuchar música y tener acceso a Internet) . Además, el cubo inteligente 2700 es una UI que representa iconos ejecutables que corresponden a los contenidos almacenados en la unidad de almacenamiento 130 del aparato electrónico 100 (por ejemplo, fotografías, música y un video) , iconos ejecutables que corresponden a los contenidos recibidos desde las fuentes extemas (por ejemplo una fotografía, música y un video) e iconos ejecutables que corresponden a aplicaciones conectables al exterior (por ejemplo, un navegador de Internet) .
Si se reconoce "Ginny" a través del módulo de reconocimiento de voz 130k para introducir el modo de tarea de voz, el aparato electrónico 100 representa una GUI de voz sobre la porción inferior de la pantalla de representación y entra al modo de tarea de voz, como se muestra en la figura 28. Cuando entra al modo de tarea de voz, el aparato electrónico 100 subraya nombres de los iconos ejecutables del cubo inteligente 2700 de manera que el cubo inteligente 2700 representan los iconos ejecutables seleccionables por la voz del usuario.
Como se muestra en la figura 28, si la información de asistencia de voz es representada y se reconoce una voz de "su video" a través del módulo de reconocimiento de voz 13Ok, el aparato electrónico 100 ejecuta una imagen en movimiento incluida en "su video" del cubo inteligente 2700, como se muestra en la figura 29. Si se incluye una imagen en movimiento en "su video", la imagen en movimiento se ejecuta expeditamente y, si se incluyen una pluralidad de imágenes de movimiento en "su video" se representa una lista de imágenes en movimiento incluidas en "su video".
La figura 30 a la figura 32 son vistas para explicar función de reproducción de imagen y una función de detención de imagen utilizando reconocimiento de voz, de acuerdo con una modalidad ejemplar. Como se muestra en la figura 30, si se reproduce una imagen (por ejemplo, una imagen en movimiento almacenada en la unidad de almacenamiento 130) y se reproduce "Ginny" a través del módulo de reconocimiento de voz 13 Ok para introducir el modo de tarea de voz, el aparato electrónico 100 introduce el modo de tarea de voz y representa la información de asistencia de voz sobre la porción inferior de la pantalla de representación, como se muestra en la figura 31.
En este estado, se reconoce "pausa" a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 detiene temporalmente la reproducción de la imagen actual y representa un icono de pausa en la pantalla de representación, como se muestra en la figura 32. Si se reconoce "volver a reproducir" a través del módulo de reconocimiento de voz 130k, el aparato electrónico 100 reproduce la imagen en pausa, como se muestra en la figura 31.
Se puede representar una instrucción de pausa/alto sobre la información de asistencia de voz mientras se reproduce la imagen y se puede representar una instrucción de reproducción mientras la imagen se encuentra en pausa.
Como se describe en lo anterior, puesto que la tarea de voz que es controlada de acuerdo con la voz del usuario reconocida a través del módulo de reconocimiento de voz 13Ok es una tarea que tiene un identificador pronunciable o una tarea que requiere entrada de texto, el usuario puede controlar la tarea de voz a través de su voz de manera más fácil y conveniente.
La figura 33 y la figura 34 son vistas para explicar cambio de canal utilizando reconocimiento de movimiento de acuerdo con una modalidad ejemplar. Si el aparato electrónico 100 entra al modo de tarea de movimiento y representa información de asistencia de movimiento sobre la porción inferior de la pantalla de representación, como se muestra en la figura 33, se reconoce un movimiento de palmada de un movimiento de la mano del usuario en una dirección a la derecha, lo que corresponde a un inciso de movimiento 3313, a través de un módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 sintoniza el siguiente canal con respecto al canal actual, es decir, el canal 7, lo cual se incrementa del canal 6 actual en uno, como se muestra en la figura 34. Por otra parte, si se representa el canal 7 como se muestra en la figura 34 y se reconoce un movimiento de palmada del movimiento de la mano del usuario en una dirección a la izquierda desde la ubicación actual, lo cual corresponde al inciso de movimiento 3313, el aparato electrónico 100 sintoniza en un canal previo, esto es, el canal 6, el cual esta disminuido del canal actual 7 en 1, como se muestra en la figura 33.
La figura 35 y la figura 37 son vistas para explicar el control de nivel de volumen utilizando reconocimiento de movimiento de acuerdo con una modalidad ejemplar. Si el aparato electrónico 100 entra en el modo de tarea de movimiento y representa información de asistencia de movimiento sobre la porción inferior de una pantalla de representación como se muestra en la figura 35 y se reconoce un movimiento de palmada de movimiento de la mano del usuario en una dirección hacia arriba, la cual corresponde a un inciso de movimiento 3312, a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 representa una barra de control de nivel de volumen 3600 que representa un nivel de volumen y transmite un volumen de un nivel siguiente 10 el cual está incrementado del nivel de volumen actual 9 por un nivel, como se muestra en la figura 36. Si no se reconoce movimiento de usuario durante un tiempo predeterminado (por ejemplo, 5 segundos) después de que la barra de control de nivel de volumen 3600 ha sido representada, el aparato electrónico 100 retira la barra de control de nivel de volumen 3600 de la pantalla de representación y transmite un audio de acuerdo con el nivel de volumen controlado.
La figura 38 a la figura 41 son vistas para explicar cambio de canal utilizando un movimiento de puntero del usuario, de acuerdo con una modalidad ejemplar. Si el usuario introduce una instrucción para generar una lista de canales 3800 (por ejemplo, un botón de lista de canales en un controlador remoto) , con el fin de seleccionar un canal y se representa una lista de canales 3800 en la pantalla de representación, como se muestra en la figura 38, y se reconoce un movimiento para introducir el modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 1301 (por ejemplo, agitación de la mano de un usuario 3~4 veces) , el aparato electrónico 100 genera un cursor 3910 y representa información de asistencia de movimiento sobre la porción inferior de la pantalla de representación, como se muestra en la figura 39.
Si la información de asistencia de movimiento es representada y se reconoce el movimiento de mover la mano desde la ubicación actual en una dirección hacia la izquierda y hacia abajo para mover el cursor 3910 mediante el módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 mueve el cursor 2010 a "11-1 MBC" de acuerdo con el movimiento, como se muestra en la figura 40.
Si se reconoce un movimiento de agarrar, el cual corresponde a un inciso de movimiento 3314 a través del módulo de reconocimiento del movimiento 1301, el aparato electrónico 100 sintoniza en "11-1 MBC" y representa el canal "11-1 MBC", como se muestra en la figura 41.
La figura 42 a la figura 45 son vistas para explicar la ejecución de aplicación utilizando un movimiento de puntero del usuario, de acuerdo con una modalidad ejemplar. Si se representa un cubo inteligente sobre la pantalla de representación, como se muestra en la figura 42, y se reconoce un movimiento (por ejemplo, agitación de la mano 3~4 veces) para introducir el modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 genera y representa un cursor 4305 y representa la información de asistencia de movimiento 4310 sobre la porción interior de la pantalla de representación, como se muestra en la figura 43.
Si se reconoce un movimiento al mover la mano desde una ubicación actual en una dirección a la izquierda y hacia abajo a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 mueve el cursor 4305 a "APP 2" de acuerdo con el movimiento, como se muestra en la figura 44.
Si se reconoce un movimiento de agarrar, el cual corresponde a un inciso de movimiento 4311 a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 ejecuta "APP 2", como se muestra en la figura 45. En este momento, el aparato electrónico 100 puede representar una pantalla que indica la ejecución de una aplicación seleccionada en vez de la pantalla que representa el cubo inteligente, como se muestra en la figura 45. No obstante, esto es simplemente un ejemplo del aparato electrónico 100 que puede representar la ejecución de la aplicación en una pantalla sobre un cubo inteligente más pequeño que el cubo inteligente.
La figura 46 a la figura 48 son vistas para explicar la navegación sobre un área de representación de aplicación del cubo inteligente utilizando un movimiento de usuario de acuerdo con una modalidad ejemplar. Si el cubo inteligente se representa sobre una pantalla de representación como se muestra en la figura 46 y se reconoce un movimiento de agitación de la mano 3-4 veces para entrar al modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 genera un cursor 4710 y representa la información de asistencia de movimiento sobre la porción inferior de la pantalla de representación, como se muestra en la figura 47.
Si el cursor 4710 se localiza sobre un área navegable (por ejemplo, un área en donde la clave de dirección de movimiento a la izquierda y a la derecha 4713 y 4716 se representa) , y se reconoce un movimiento de palmada del movimiento de la mano desde una ubicación actual en una dirección a la derecha a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 mueve un área de representación de aplicación 4720 en donde el cursor 4710 se localiza en una dirección a la izquierda, como se muestra en la figura 48.
La figura 49 a la figura 52 son vistas para explicar la ejecución de un icono que tiene un nombre indefinido utilizando reconocimiento de movimiento de acuerdo con una modalidad ejemplar. Si se representa una pantalla de página de red en la pantalla de representación, como se muestra en la figura 49, y se reconoce un movimiento de agitación de la mano 3-4 veces para entrar en el modo de tarea de movimiento a través del módulo de reconocimiento de movimiento, el aparato electrónico genera un cursor 5005 y representa la información de asistencia de movimiento 5010 sobre la porción inferior de la pantalla de representación, como se muestra en la figura 50.
Si se reconoce el movimiento de la mano desde una ubicación actual en una dirección hacia la izquierda y hacia arriba para mover el cursor 5005 a través de un módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 mueve el cursor 5005 a un icono "marca de libro", de acuerdo con el movimiento como se muestra en la figura 51.
Si se reconoce un movimiento de agarrar a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 representa la ejecución de una marca de libro 5220 indicando la marca de libro de la página de la red representada actualmente sobre la pantalla de representación, como se muestra en la figura 52.
La figura 53 a la figura 55 son vistas para explicar una tarea de control de reproducción utilizando reconocimiento de movimiento de acuerdo con una modalidad ejemplar. Si se representa una imagen de contenido (por ejemplo, una imagen de movimiento almacenada en la unidad de los elementos 130 o una imagen de movimiento recibido desde una fuente externa) sobre la pantalla de representación, como se muestra en la figura 53 y se reconoce un movimiento de agitación de la mano 3-4 veces para entrar al modo de tarea de movimiento a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 genera una barra de control de reproducción 5410 y representa la información de asistencia de movimiento sobre la porción inferior de la pantalla de representación, como se muestra en la figura 54. En este momento, la barra de control de reproducción 5410 se representa sobre una pantalla de representación si se reconoce una instrucción de inicio de movimiento. La barra de control de reproducción 5410 se puede representar sobre la pantalla de representación si se recibe una entrada de usuario adicional (por ejemplo, un botón de control remoto) .
Si se reconoce un movimiento de palmada en la dirección hacia la izquierda a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 salta hacia atrás desde la imagen actual por un tiempo predeterminado (por ejemplo, 10 minutos) y reproduce la imagen. El tiempo predeterminado se puede cambiar mediante configuración.
La figura 56 a la figura 58 son vistas para explicar una tarea de control de reproducción utilizando otro reconocimiento de movimiento de acuerdo con una modalidad ejemplar. Si se representa una imagen (por ejemplo, una imagen en movimiento almacenada en la unidad de almacenamiento 130 o una imagen en movimiento recibida desde una fuente externa) sobre la pantalla de representación, como se muestra en la figura 56 y se reconoce un movimiento de agitación de la mano 3~4 veces para entrar al módulo de tarea de movimiento a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 genera una barra de control de reproducción 5710 y representa la información de asistencia de movimiento sobre la porción inferior de la pantalla de representación, como se muestra en la figura 57. En este momento, la barra de control de reproducción 5710 es representada sobre la pantalla de representación si se reconoce una instrucción de inicio de movimiento. La barra de control de reproducción 5710 se puede representar sobre la pantalla de representación si se recibe una entrada de usuario adicional (por ejemplo, un botón de control remoto) .
Si se reconoce un movimiento de agarrar a través del módulo de reconocimiento de movimiento 1301, el aparato electrónico 100 selecciona un icono 5715 que indica la ubicación de reproducción actual y, si se reconoce un movimiento de desplazamiento en una dirección a la izquierda a través del módulo de reconocimiento de movimiento 1301 posteriormente, el aparato electrónico 100 regresa a una ubicación una cantidad de tiempo predeterminada que corresponde al movimiento de desplazamiento en la dirección hacia la izquierda. El icono 5715 también se mueve hacia atrás una cantidad igual al movimiento de desplazamiento en la dirección a la izquierda. Si se reconoce un movimiento de liberación de agarre por el módulo de reconocimiento de movimiento 1301 (por ejemplo, un movimiento de abrir la mano) , el aparato electrónico 100 reproduce la imagen desde la ubicación a la cual el icono 5715 se mueve hacia atrás, como se muestra en la figura 58. No obstante, esto es simplemente un ejemplo. Si se reconoce un movimiento de desplazamiento en una dirección a la derecha después del agarre, el aparato electrónico 100 avanza hacia adelante un tiempo predeterminado que corresponde al movimiento de desplazamiento en la dirección a la derecha, el icono 5715 también se mueve hacia adelante una cantidad igual al movimiento de desplazamiento en la dirección a la derecha.
Como se describe en lo anterior, puesto que la tarea de movimiento que es controlada de acuerdo con el movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301 es una tarea, cuyo valor de ajuste se puede cambiar en fases o una tarea que utiliza un cursor, el usuario puede controlar la tarea de movimiento con mayor facilidad y conveniencia.
La figura 59 y la figura 60 son diagramas de flujo que ilustran un método para el control de un aparato electrónico, el cual controla una tarea completa al dividirla en una tarea de movimiento y una tarea de voz, de acuerdo con diversas modalidades ejemplares.
La figura 59 es un diagrama de flujo para explicar un método para el control del aparato electrónico 100 de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 reconoce una voz de usuario o un movimiento de usuario (S5910) . La voz de usuario es introducida a través de un micrófono y es reconocida por un módulo de reconocimiento de voz y el movimiento de usuario es fotografiado por una cámara y es reconocido por un módulo de reconocimiento de movimiento.
Si una entrada de usuario es reconocida a través de uno del módulo de reconocimiento de voz o el módulo de reconocimiento de movimiento (S5910) , el aparato electrónico 100 realiza una de una tarea de voz o una tarea de movimiento de acuerdo con la entrada del usuario (S5920) . La tarea de voz es una tarea que incluye un identificador que corresponde a una voz de usuario de entre las tarea para control del aparato electrónico 100 y la tarea de movimiento es una tarea que se realiza en fases, de acuerdo con un movimiento de usuario de entre las tareas para el control del aparato electrónico 100.
Como se describe en lo anterior, el usuario puede controlar el aparato electrónico 100 de manera más eficiente utilizando la voz y el movimiento.
La figura 60 es un diagrama de flujo para explicar un método para el control de un aparato electrónico de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 reconoce una instrucción de inicio a través de uno del módulo de reconocimiento de voz y el módulo de reconocimiento de movimiento (S6005) . La instrucción de inicio puede ser una instrucción de inicio de voz que es reconocida a través del módulo de reconocimiento de voz o una instrucción de inicio de movimiento que se reconoce a través del módulo de reconocimiento de movimiento.
Si la instrucción de inicio reconocida es una instrucción de inicio de voz (S6010-Y) , el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz (S6015) . El modo de tarea de voz es un modo en el cual se realiza una tarea de acuerdo con una voz de usuario reconocida a través del módulo de reconocimiento de voz.
Si se cambia el modo al modo de tarea de voz, el aparato electrónico 100 genera información de asistencia de voz que incluye incisos de voz (S6020) , por ejemplo se representa información de asistencia de voz que incluye incisos de voz para realizar tareas de voz, como se muestra en la figura 61.
En el modo de tarea de voz, el aparato electrónico 100 determina si se reconoce o no la voz de un usuario (S6030) . Si se determina que se reconoce la voz de un usuario (S6030-Y) , el aparato electrónico realiza una tarea de voz que corresponde a la voz de usuario reconocida (S6035) . Por ejemplo, la tarea de voz se realiza como se explica en lo anterior con referencia desde la figura 6 a la figura 32.
La tarea de voz puede incluir por lo menos uno de control de encendido, método abreviado de canal, ajuste de nivel de volumen, enmudecimiento, cambio de entrada externa, entrada de texto y función de reproducir/detener del aparato electrónico.
Se determina si una instrucción de inicio de movimiento es reconocida o no en el modo de tarea de voz (S6040) . Si se reconoce la instrucción de inicio de movimiento (S6040-Y) , el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento (S6045) . Por ejemplo, si la instrucción de inicio de movimiento es reconocida en el modo de tarea de voz, el aparato electrónico 100 cambia el modo al modo de tarea de movimiento y representa información de asistencia de movimiento que incluye incisos de movimiento, como se muestra en la figura 62.
Si no se reconoce la instrucción de inicio de movimiento (S6040-N) , el aparato electrónico 100 mantiene el modo de tarea actual, esto es, el modo de tarea de voz (S6070) . Si la instrucción de inicio reconocida inicialmente es la instrucción de inicio de movimiento en vez de la instrucción de inicio de voz (S6010-N) , el aparato electrónico 100 cambia el modo del aparato electrónico 100 al modo de tarea de movimiento (S6045) , el modo de tarea de movimiento es un modo en el cual se realiza una tarea únicamente por un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301.
Si el modo del aparato electrónico 100 cambia al modo de tarea de movimiento, el aparato electrónico 100 genera información de asistencia de movimiento que incluye un inciso de movimiento (S6050) . Por ejemplo, como se muestra en la figura 62, la información de asistencia de movimiento que incluye un inciso de movimiento para control de una tarea de movimiento es representada.
El aparato electrónico 100 determina si un movimiento de usuario es reconocido o no (S6055) . Si se determina que se reconoce un movimiento de usuario (S6055-Y) , el aparato electrónico 100 realiza una tarea de movimiento que corresponde al movimiento de usuario reconocido (S6060) . Por ejemplo, la tarea de movimiento se realiza como se explica en lo anterior con referencia desde la figura 33 a la figura 58.
La tarea de movimiento puede incluir por lo menos un cambio de canal, control de nivel de volumen, navegación en pantalla, control de barra deslizable y apuntar con un cursor.
Se determina si se reconoce una instrucción de inicio de voz o no en el modo de tarea de movimiento (S6065) si se reconoce una instrucción de inicio de voz (S6065-Y) , el aparato electrónico 100 cambia el modo del modo de tarea de voz (S6010) . Por ejemplo, si se reconoce una instrucción de inicio de voz en el modo de tarea de movimiento, el aparato electrónico 100 cambia el modo al modo de tarea de voz y representa la información de asistencia de voz que incluye a los incisos de voz como se muestran en la figura 60.
Si no se reconoce una instrucción de inicio de voz (S6040-N) , el aparato electrónico 100 mantiene el modo de tarea actual, esto es, el modo de tarea de movimiento (S6070) .
Como se describe en lo anterior, el aparato electrónico 100 puede realizar diversas tareas de acuerdo con el movimiento del usuario o la voz del usuario y por lo tanto se puede mejorar la conveniencia del usuario.
La unidad de control 140 puede controlar la representación de la información de asistencia de voz para realizar las tareas de voz en el modo de tarea de voz en el cual por lo menos una de las tareas de voz se realiza de acuerdo con la voz reconocida. Por ejemplo, si la instrucción de inicio de voz se reconoce a través del módulo de reconocimiento de voz, la unida de control 140 puede controlar para representar la información de asistencia de voz para realizar las tareas de voz que son controlables de acuerdo con la voz de un usuario. Por lo menos un inciso de voz, que corresponde a las tareas de voz diversas se puede representar como información de asistencia de voz. Por lo menos un inciso de voz puede ser una instrucción pronunciable. En consecuencia, el usuario puede identificar con facilidad una instrucción reconocible en el modo de tarea de voz. Además si se pronuncia una instrucción correspondiente, el usuario puede reconocer fácilmente cual tarea de voz se realizará.
La unidad de control 140 puede reconocer una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz representado como información de asistencia de voz en el modo de tarea de voz. La unidad de control 140 determina si existe o no información de inciso adicional respecto al primer inciso de voz que corresponda a la primera voz reconocida. Si no existe información de inciso adicional, la unidad de control 140 puede realizar una tarea que corresponde al primer inciso de voz. Si necesita cambiarse la información de asistencia de voz, la unidad de control 140 puede controlar una unidad de representación (no mostrada) para representar información de asistencia de voz cambiada. Si existe información de inciso adicional, la unidad de control 140 puede controlar para representar información de inciso adicional respecto al primer inciso de voz que corresponde a la primera voz reconocida. La unidad de control 140 puede reconocer una segunda voz que corresponde a la información de inciso adicional. La unidad de control 140 puede realizar una tarea que corresponde al primer inciso de voz y la segunda voz de entre las tareas de voz .
La unidad de control 140 puede controlar para representar información de asistencia de movimiento para realizar las tareas de movimiento en el modo de tarea de movimiento en el cual por lo menos una de las tareas de movimiento se realiza de acuerdo con el movimiento reconocido. Por ejemplo, si se reconoce una instrucción de inicio de movimiento a través del módulo de reconocimiento de movimiento, la unidad de control 140 controla la representación de la información de asistencia de movimiento para realizar las tareas de movimiento que son controlables de acuerdo con el movimiento de usuario. Por lo menos un inciso de movimiento que corresponde a las diversas tareas de movimiento puede ser representados como información de asistencia de movimiento. Por lo menos un inciso de movimiento puede incluir una imagen de movimiento que indica un movimiento reconocible en el modo de tarea de movimiento y una tarea que corresponde al movimiento reconocible. En consecuencia, el usuario puede identificar fácilmente un movimiento reconocible en el modo de tarea de movimiento y puede reconocer fácilmente cual tarea de movimiento se realizará de acuerdo con cual movimiento realice el usuario. Por lo tanto, el usuario puede realizar fácilmente la tarea de movimiento.
La unidad de control 140 puede reconocer un primer movimiento que corresponde a un primer inciso de movimiento de entre por lo menos un inciso de movimiento representado como la información de asistencia de movimiento en el modo de tarea de movimiento. La unidad de control 140 puede determinar si existe o no información de inciso adicional respecto al primer movimiento que corresponde al primer movimiento reconocido. Si no existe información de inciso adicional, la unidad de control 140 puede realizar una tarea que corresponde al primer inciso de movimiento. Además, si necesita cambiarse la información de asistencia de movimiento, la unidad de control 140 puede controlar una unidad de representación (no mostrada) para representar información de asistencia de movimiento cambiada. Si existe información de inciso adicional, la unidad de control 140 puede controlar para representar información de inciso adicional respecto al primer inciso de movimiento que corresponde al primer movimiento reconocido. La unidad de control 140 puede reconocer un segundo movimiento que corresponde a la información de inciso adicional. La unidad de control 140 puede realizar tareas que corresponden al primer inciso de movimiento y el segundo movimiento reconocido de entre las tareas de movimiento. La información de asistencia de voz, la información de asistencia de movimiento, la información de inciso adicional respecto al inciso de voz o la información de inciso adicional respecto al inciso de movimiento se pueden representar en la misma área (la porción inferior) de la pantalla de representación. La información descrita en lo anterior se puede representar en un área establecida previamente o en un área cambiable de manera dinámica. Por ejemplo, la información de asistencia de voz o la información de movimiento se pueden representar sobre una porción superior, inferior, derecha o izquierda de la pantalla de representación y pueden cambiarse dinámicamente de acuerdo con una imagen representada en la pantalla.
La información de asistencia de voz, la información de asistencia de movimiento, la información de inciso adicional respecto al inciso de voz o la información de inciso adicional respecto al inciso de movimiento pueden representar junto con la imagen representada o reproducida, una aplicación, un OSD o un candidato de reconocimiento o se pueden representar independientemente. El área en donde la información anterior es representada se puede superponer con el área en donde se representa la imagen, la aplicación, el OSD o el candidato de reconocimiento. Por lo menos parte de la información de asistencia de voz o la información de asistencia de movimiento se pueden representar de modo transparente o semitransparente. Se puede a ustar la transferencia de acuerdo con una selección del usuario.
La información de asistencia de voz y la información de asistencia de movimiento descritas en lo anterior se pueden proporcionar al usuario de diversas maneras. En lo siguiente se explicará con detalle, con referencia desde la figura 61 hasta la figura 63 la información de asistencia de voz, la información de inciso adicional respecto al inciso de voz y la información de asistencia de movimiento.
La figura 61 es una vista que ilustra información de asistencia de voz representada sobre la unidad de representación 193 en el modo de tarea de voz, de acuerdo con una modalidad ejemplar.
Como se muestra en la figura 61, la unidad de representación 193 puede representar por lo menos un inciso de voz 811, 812, 813, 814, 815, 816, 817 y 818 en el modo de tarea de voz como la información de asistencia de voz. Cada uno de los incisos de voz puede ser una instrucción pronunciable. Además, la información de asistencia de guía puede incluir una imagen de modo o un texto que indique el modo de tarea de voz. La información de asistencia voz puede incluir un área de guía 810 que incluye por lo menos un inciso de voz o una área de representación de modo 820 que representa un modo designado (por ejemplo, en modo de tarea de voz o en modo de tarea de movimiento) del aparato electrónico 100. El área de representación de modo 820 puede incluir por lo menos uno de una imagen de modo y un texto que indica el modo designado de modo de tarea de voz y el modo de tarea de movimiento. Además, el área de guía 810 y el área de representación de modo 820 pueden ser representadas de manera distintiva, como se muestra en la figura 61 o se pueden representar si dibujar un límite entre las dos áreas. El área de representación de modo 820 se puede omitir. La ubicación de cada una del área de guía 810 y el área de representación de modo 820 se puede establecer en el momento de fabricación del aparato electrónico 100 o se puede establecer arbitrariamente por el usuario, o el área de guía 810 y el área de representación de modo 820 se pueden localizar dinámicamente de acuerdo con una imagen representada junto con una UI . Por ejemplo, si se representa una OSD, la ubicación de cada una del área de guía 810 y el área de representación de modo 820 se pueden cambiar a cierta ubicación fuera de un área en donde la OSD se representa de manera que representen a la OSD resaltada. El área de guía 810 se puede representar sobre la porción inferior de la pantalla de representación y el área de representación de modo 820 se pueden representar en el centro inferior de la pantalla de representación. Además, la ubicación del área de representación de modo 820 se puede cambiar a otra ubicación tal como una porción derecha inferior independientemente de área de guía 810, de acuerdo con la configuración.
En el modo de tarea de voz, el área de guía 810 incluye por lo menos uno de los incisos de voz 811, 812, 813, 814, 815, 816, 817 y 818. Por ejemplo, cada uno de por lo menos un inciso de voz puede ser una instrucción para realizar una tarea de voz. Por lo menos una instrucción incluida en el área de guía 810 puede incluir apagado 811, canal 812, enmudecimiento 813, entrada externa 814, cubo inteligente 815, aplicaciones 816, búsqueda 817 o todos 818. El apagado 811 es una instrucción para apagar el aparato electrónico 100. El canal 812 es una instrucción para realizar método abreviado de canal. El enmudecimiento 813 es una instrucción para realizar enmudecimiento. La entrada externa 814 es para instruir un cambio de entrada externa. El cubo inteligente 815 es una instrucción para realizar una tarea de entrar una función inteligente tal como una función de Internet, una función que proporciona aplicación y una función que proporciona multimedia (por ejemplo, una imagen en movimiento, música y una fotografía) del aparato electrónico 100. Las aplicaciones 816 es una instrucción para realizar una tarea de búsqueda de una aplicación del aparato electrónico 100. La búsqueda 817 es una instrucción para realizar un contenido, una aplicación y una búsqueda en la red proporcionada por el aparato electrónico 100. La función de todo 818 es una instrucción para representar todas las instrucciones. El área de guía 818 puede incluir "más" como una instrucción en vez de todo 818. Esto es, la instrucción de todo 818 y "más" pueden ser incisos de voz para representar otros incisos diferentes a por lo menos nos incisos de voz 811, 812, 813, 814, 815, 816, 817 y 818 de entre los incisos de voz que corresponden a las tareas de voz. Además, el aparato electrónico 100 representa otros incisos, el aparato 100 se puede configurar para no utilizar un temporizador establecido previamente. El temporizador establecido previamente es un temporizador para detener el modo de tarea de voz si por lo menos uno de los incisos de voz representados 811, 812, 813, 814, 815, 816, 817 y 818 no es reconocido por un tiempo preestablecido. Si se detiene el modo de tarea de voz, la información de asistencia de voz puede desaparecer y se puede cambiar de modo a un modo en el cual el aparato electrónico 100 es controlado por un controlador remoto general. Además, si se detiene el modo de tarea de voz, el desempeño de la tarea de voz se puede limitar hasta que el aparato electrónico 100 vuelve a entrar al modo de tarea de voz, de acuerdo con una instrucción de inicio de voz. Además, si se representa un OSD o un candidato de reconocimiento sobre la pantalla junto con la información de asistencia de voz, la información de asistencia de movimiento e información de inciso adicional, el temporizador establecido previamente para detener el modo designado puede no activarse sin importar el modo designado. Además, el área de guía 810 puede incluir otras instrucciones diferentes a las instrucciones descritas en lo anterior.
Por lo menos un inciso de voz 811, 812, 813, 814, 815, 816, 817 y 818, los cuales son representados como la información de asistencia de voz, se pueden configurar de modo diferente de acuerdo con la función realizada actualmente. Esto es, por lo menos una instrucción representada en el área de guía 810 puede estar configurada de modo diferente de acuerdo con la función realizada actualmente. De manera específica, por lo menos uno de los incisos de voz que corresponde a las tareas de voz se puede configurar selectivamente de acuerdo con por lo menos una de una aplicación, OSD y un candidato representado junto con la información de asistencia de voz. Por ejemplo, si una función inteligente es realizada actualmente en el aparato electrónico 100, se puede representar información de asistencia de voz que incluye una instrucción "regresar" para regresar a una función de recepción de difusión. Un candidato de reconocimiento puede incluir por lo menos uno de un nombre que tiene por lo menos uno de un número o un texto similar a una voz reconocida, una instrucción similar a una voz reconocida, una tarea que corresponde a una instrucción similar, un movimiento similar a un movimiento reconocido y una tarea que corresponde a un movimiento similar. Por ejemplo, los candidatos similares a una voz reconocida pueden representar una lista de identificadores de canal similares a la voz reconocida en una ventana emergente. La OSD puede incluir información de ajuste actual sobre el aparato electrónico 100 y un menú de ajuste del aparato electrónico 100 que excluye el candidato de reconocimiento, Por ejemplo, como la OSD, se puede representar un identificador de un canal actual (un número de canal o un nombre de canal) que puede ser representado sobre una lista de entrada externa o una lista de canal .
La unidad de control 140 puede reconocer una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz 811, 812, 813, 814, 815, 816, 817 y 818 representada como la información de asistencia de voz. La unidad de control 140 puede controlar para la representación de información de inciso adicional respecto al primer inciso de voz que corresponde a la primera voz reconocida. La información de inciso adicional respecto al primer inciso de voz puede incluir una instrucción adicional respecto al primer inciso de voz, un mensaje de guía o un ejemplo de pronunciación. Por ejemplo, si se reconoce "canal" a través del módulo de reconocimiento de voz 13 Ok como una oz que corresponde al inciso de voz 812 representado en el área de guía 810 y una tarea que corresponde al inciso de voz 812 es un método abreviado de canal, la unidad de representación 193 puede representar información de inciso adicional que incluye un mensaje de guía, un ejemplo de pronunciación o una instrucción adicional (por ejemplo "previo") para pronunciación de por lo menos un identificador de un nombre de canal , un nombre de programa y un número de canal, como se muestra en la figura 62. En la presente, el término "previo" puede ser una instrucción para representar una UI que incluye el área de guía 810 de la figura 61 nuevamente. La información de inciso adicional puede incluir un área de guía 830 que incluye una instrucción adicional, un mensaje de guía o un ejemplo de pronunciación y el área de representación de modo 820. Por ejemplo, el mensaje de guía se puede representar en la porción izquierda del área de guía 830 y la instrucción adicional del ejemplo de pronunciación se puede representar en la porción derecha del área de guía 830.
La unidad de control 140 puede reconocer una segunda voz que corresponde a la información de inciso adicional. La unidad de control 140 puede realizar una tarea que corresponde al primer inciso de voz y en la segunda voz de entre las tareas de voz. Por ejemplo, si el primer inciso de voz es el inciso de voz 812 y se reconoce "MBC" como la segunda voz que corresponde a la información de inciso adicional de la figura 60, la unidad de control 140 puede realizar método abreviado de canal para cambiar un canal actual a un canal que corresponde al identificador de canal que incluye "MBC" . Esto es, la información de inciso adicional respecto al primer inciso de voz puede ser información para guiar en la pronunciación de la segunda voz para preguntar si se realiza la tarea que corresponde al primer inciso de voz o si se obtiene adicionalmente información necesaria para realizar la tarea.
La figura 63 es una vista que ilustra información de asistencia de movimiento representada sobre la unidad de representación 193 del aparato electrónico 100 en el modo de tarea de movimiento, de acuerdo con una modalidad ejemplar.
Como se muestra en la figura 63, la unidad de representación 193 puede representar por lo menos un inciso de movimiento 3311, 3312, 3313 y 3314 como la información de asistencia de movimiento en el modo de tarea de movimiento. Cada uno de por lo menos un inciso de movimiento puede incluir una imagen de movimiento que indica un movimiento reconocible en el modo de tarea de movimiento o un texto que indica una tarea que corresponde a un movimiento reconocible (o una imagen de movimiento) . La información de asistencia de movimiento puede incluir una imagen de modo o un texto que indica el modo de tarea de movimiento. La información de asistencia de movimiento puede incluir un área de guía 3310 que incluye por lo menos un inciso de movimiento y un área de representación de modo 3320 que representa un modo del aparato electrónico 100. El área de representación de modo 3320 puede incluir por lo menos uno de una imagen de modo y un texto que indique un modo designado del modo de tarea de voz y el modo de tarea de movimiento. El área de guía 3310 y el área de representación de modo 3320 se pueden representar de modo distintivo, como se muestra en la figura 63 o se pueden representar sin dibujar límite alguno entre las dos áreas. Además, se puede omitir el área de representación de modo 3320. Por ejemplo, el área de guía 3310 se puede representar sobre la porción inferior de la pantalla de representación y el área de representación de modo 3320 se puede representar en el centro de la porción inferior de la pantalla de representación. La ubicación del área de representación de modo 3320 se puede cambiar de acuerdo con la configuración (por ejemplo, una porción inferior derecha) .
En el modo de tarea de movimiento, el área de guía 3310 incluye por lo menos un inciso de movimiento 3311, 3312, 3313, 3314. Por ejemplo, cada uno de por lo menos un inciso de movimiento puede incluir una imagen de movimiento y un texto que indica una tarea correspondiente a la imagen de movimiento. Por lo menos un inciso de movimiento incluido en el área de guía 3310 puede incluir un inciso de movimiento 3311 que indica que un movimiento de rotación en dirección contraria al sentido de las manecillas del reloj corresponde a "atrás" para retroceder a un ámbito previo, un inciso de movimiento 3312 que indica los movimientos de palmada en las direcciones hacia arriba/hacia abajo corresponde a "aumento/disminución de volumen" para controlar un nivel de volumen, un inciso de movimiento 3313 indican los movimientos de palmada en las direcciones a la izquierda/a la derecha que corresponden a "aumento/disminución de canal" para realizar un cambio de canal y un inciso de movimiento 3314 que indica que un movimiento de agarre corresponde a "volver a reproducir" para reproducir una imagen. El área de guía 3310 puede representar otros incisos de movimiento a los incisos de movimiento descritos en lo anterior. La imagen de movimiento incluida en cada uno de por lo menos uno de los incisos de movimiento descritos en lo anterior y el texto que corresponde a la imagen de movimiento se puede cambiar de acuerdo con los ajustes de cartografía entre un movimiento reconocible y una tarea que corresponde al movimiento reconocible. Por ejemplo, el área de guía 3310 puede incluir un inciso de movimiento que indica que los movimientos de palmada en las direcciones hacia arriba/hacia abajo corresponden a aumento/disminución de canal para realizar un cambio de canal y un inciso de movimiento que indica que los movimientos de palmada en las direcciones a la izquierda/a la derecha corresponden a aumento/disminución de volumen para el control del nivel de volumen.
Por lo menos un inciso de movimiento 3311, 3312, 3313, 3314 representado como información de asistencia de movimiento puede configurarse de manera diferente de acuerdo con una función realizada en ese momento. Esto es, por lo menos un inciso de movimiento 3311, 3312, 3313, 3314 representado en el área de guía 3310 puede estar configurado de manera diferente de acuerdo con una función actual del aparato electrónico 100. Por ejemplo, por lo menos uno de los incisos de movimiento que corresponde a las tareas de movimiento se puede configurar selectivamente de acuerdo con por lo menos uno de una aplicación, OSD y un candidato de reconocimiento representado junto con la información de asistencia de movimiento.
La unidad de control 140 puede reconocer un primer movimiento que corresponde a un primer inciso de movimiento de entre por lo menos un inciso de movimiento 3311, 3312, 3313, 3314 representado como la información de asistencia de movimiento. Si existe información de inciso adicional, la unidad de control 140 puede controlar para representar información de inciso adicional respecto al primer inciso de movimiento que corresponde al primer movimiento reconocido. Por ejemplo, si se reconoce un movimiento de agarre que corresponde al inciso de movimiento 3314, la información de inciso adicional que incluye un mensaje de guía preguntando si se reproduce un inciso seleccionado o archivo de imagen, o un inciso de movimiento que indica movimientos de palmada en las direcciones a la izquierda/a la derecha corresponden a una respuesta si/no, se pueden representar.
En la unidad de control 140 puede reconocer un segundo movimiento que corresponde a la información de inciso adicional. La unidad de control 140 puede realizar una tarea que corresponde al primer inciso de movimiento y el segundo movimiento reconocido de entre las tareas de movimiento. Por ejemplo, si el primer inciso de movimiento es el inciso de movimiento 3314 y un movimiento de palmada en la dirección a la izquierda se reconoce como el segundo movimiento que corresponde a la información de inciso adicional que incluye un mensaje de guía que pregunta si se reproduce un archivo de imagen designado y un inciso de movimiento que indica que los movimientos de palmada en las direcciones a la izquierda/a la derecha corresponden a la respuesta si/no, se reproduce el archivo de imagen designado. Como se describe en lo anterior, la información de inciso adicional respecto al primer inciso de movimiento puede ser información para guiar el segundo movimiento para preguntar si se realiza la tarea correspondiente al primer inciso de movimiento o si adicionalmente se obtiene información necesaria para realizar la tarea.
Si se produce un error en el reconocimiento de movimiento, se puede representar información de asistencia de movimiento que indique el error. Por ejemplo, la información de asistencia de movimiento puede incluir un mensaje de guía "no se ha reconocido el gesto, por favor introduzca nuevamente" o una imagen de una palma que es cartografiado con un texto que indica volver a introducir. Además, la información de asistencia de movimiento puede incluir un mensaje de guía "ahora es imposible reconocimiento de ambas manos" o un mensaje de guía "disponible únicamente en "navegador de red", "ver foto" y "aplicación de mapa de Google"". El reconocimiento de ambas manos se puede realizar para realizar una tarea de ampliar una pantalla o reducir una pantalla, en respuesta a un movimiento de mover ambas manos separándolas o jalar ambas manos más cerca entre sí. Además, como parte de la información de asistencia de movimiento una imagen o un texto que indica un error se puede representar sobre el área de representación de modo.
En lo siguiente se explicará con referencia desde la figura 64 a la figura 66 una interfase de usuario (UI) para proporcionar retroalimentación de acuerdo con el reconocimiento de voz o reconocimiento de movimiento del aparato electrónico 100.
Como se muestra en la figura 64, la información de asistencia de voz que incluye el área de guía 810 y el área de representación de modo 820 se puede representar en el modo de tarea de voz. El área de guía 810 y el área de representación de modo 820 se puede representar con un efecto visual que hace que el área de guía 810 y el área de representación de modo 820 tengan una apariencia similar a surgir del extremo inferior de la pantalla. Por ejemplo, el área de guía 810 y el área de representación de modo 820 se pueden representar en forma de animación por un tiempo predeterminado (por ejemplo, durante 3 segundos) . Por ejemplo, una parte del área de guía 810 y el área de representación de modo 820 surge desde el extremo inferior rápidamente y después asciende con lentitud. La animación de ascenso finaliza cuando el área de guía 810 y el área de representación de modo 820 se representan por completo, como se muestra en la figura 64. Cuando el aparato electrónico 100 entra al modo de tarea de movimiento, se puede representar información de asistencia de movimiento en forma de animación como se describe en lo anterior. Si una UI representada de un modo específico desaparece o si se cambia un modo a un modo específico, se pueden generar diversos efectos visuales o auditivos diferentes al efecto visual descrito en lo anterior.
Si el aparato electrónico 100 reconoce la primera voz que corresponde al primer inciso de voz, el aparato electrónico 100 puede proporcionar por lo menos una retroalimentación visual y retroalimentación auditiva que corresponde a un nivel de precisión de reconocimiento de acuerdo con la precisión de reconocimiento de la primera voz. Si el aparato electrónico 100 reconoce el primer movimiento que corresponde al primer inciso de movimiento, el aparato electrónico 100 puede proporcionar por lo menos uno de retroalimentación visual y retroalimentación auditiva que corresponde a un nivel de precisión de reconocimiento, de acuerdo con la precisión de reconocimiento del primer movimiento. La precisión de reconocimiento en la presente puede indicar un nivel basado en el cual se determina si la primera voz (o el primer movimiento) es una voz (o un movimiento) reconocible por el aparato electrónico 100, o puede indicar un nivel basado en el cual se identifica si la voz (o movimiento) reconocido que corresponde a una de las instrucciones establecidas previamente (o movimientos establecidos previamente) . La precisión de reconocimiento puede ser un índice que cambie de acuerdo a cuanto se requiere para identificar una tarea que corresponde a una voz o un movimiento reconocido.
Por ejemplo, si se reconoce un "cubo inteligente" como una voz que corresponde al inciso de voz 815, el aparato electrónico 100 puede determinar la precisión de reconocimiento al calcular escolásticamente la capacidad para identificar la voz como una de por lo menos una instrucción 811, 812, 813, 814, 815, 816, 817, 818 incluida en el área de guía 810. El aparato electrónico 100 puede comparar la precisión de reconocimiento y el valor umbral establecido previamente y puede representar de modo diferente un efecto visual de acuerdo a si la precisión de reconocimiento es mayor o menor que un valor umbral establecido previamente. Por ejemplo, como se muestra en la figura 65, una animación giratoria en dirección de las manecillas del reloj puede representarse sobre una porción de fondo de una imagen en un área de representación de modo 6520 indicando el modo de tarea de voz, de acuerdo con la precisión de reconocimiento de voz. Si la precisión de reconocimiento es menor que un valor umbral, una velocidad de rotación de la imagen de la animación es lenta y, si la precisión de reconocimiento es mayor que un valor umbral, la velocidad de rotación de la imagen es rápida. Cuando la retroalimentación visual descrita en lo anterior se proporciona de acuerdo con la precisión de reconocimiento, también se puede proporcionar retroalimentación auditiva.
La animación, la cual se representa en el área de representación de modo 820 como la retroalimentación visual, se representa durante un período de tiempo hasta que el cubo inteligente 6600 de la figura 66 es impulsado y representado después de que se ha reconocido la voz que corresponde al inciso de voz y puede no tener nada que hacer con la precisión de reconocimiento.
Si el aparato electrónico 100 reconoce la primera voz que corresponde al primer inciso de voz, el aparato electrónico 100 puede proporcionar retroalimentación visual o retroalimentación auditiva indicando por lo menos uno del primer inciso de voz y la tarea que corresponde al primer inciso de voz. Si el aparato electrónico 100 reconoce el primer movimiento que corresponde al primer inciso de movimiento, el aparato electrónico 100 puede proporcionar retroalimentación visual o retroalimentación auditiva indicando por lo menos uno del primer inciso de movimiento y la tarea que corresponde al primer inciso de movimiento.
Por ejemplo, si se reconoce un "cubo inteligente" como una voz que corresponde al inciso de voz 815, un "cubo inteligente" se puede representar sobre un área de retroalimentación 6530, indicando el inciso de voz 815 o la tarea que corresponde al inciso de voz 815, como se muestra en la figura 65. La retroalimentación visual se puede representar sobre una ubicación predeterminada de la pantalla sin establecer un límite al área de retroalimentación 6530. Además, se puede generar una retroalimentación auditiva "usted dijo cubo inteligente" junto con la retroalimentación visual representada en el área de retroalimentación 6530.
Si se reconoce un movimiento de palmada en una dirección a la derecha como un movimiento que corresponde al inciso 813, el aparato electrónico 100 puede representar retroalimentación visual (por ejemplo, usted realizó aumento de canal") indicando una tarea que corresponde a uno de los incisos de movimiento sobre el área de retroalimentación 6530 o puede controlar para transmitir retroalimentación auditiva utilizando un módulo de texto para pronunciar (TTS) (no mostrado) sobre el aparato electrónico 100.
La figura 67 a la figura 69 son diagramas de flujo para explicar un método de control de un aparato electrónico el cual proporciona información de asistencia de voz e información de asistencia de movimiento de acuerdo con diversas modalidades ejemplares.
La figura 67 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 puede reconocer una entrada de usuario (una voz o un movimiento) utilizando uno de un módulo de reconocimiento de voz o un módulo de reconocimiento de movimiento (S6710) . Se puede introducir una voz de usuario a través de un micrófono y la voz introducida se puede reconocer por el módulo de reconocimiento de voz y un movimiento de usuario puede ser fotografiado por una cámara y el movimiento fotografiado se puede reconocer por el módulo de reconocimiento de movimiento.
El aparato electrónico 100 puede realizar uno de una tarea de voz o una tarea de movimiento de acuerdo con la entrada de usuario recibida (S6720) . Esto es, el aparato electrónico 100 puede ser operado de acuerdo con un modo designado del modo de tarea de voz y un modo de tarea de movimiento. Por ejemplo, si se reconoce una instrucción de inicio de voz o una instrucción de inicio de movimiento, se designa un modo que corresponde a la instrucción de inicio reconocida.
Un modo de tarea de voz es un modo en el cual por lo menos una de las primeras tareas (esto es, las tareas de voz) se realiza de acuerdo con una voz reconocida y el modo de tarea de movimiento es un modo en el cual por lo menos una de las segundas tareas (esto es, tareas de movimiento) se realizan de acuerdo con un movimiento reconocido. Las tareas de voz indican tareas que se realizan de acuerdo con una voz reconocida y las tareas de movimiento indican tareas que se realizan de acuerdo con un movimiento reconocido. Las tareas de voz y las tareas de movimiento pueden ser diferentes entre sí.
La figura 68 y la figura 69 son diagramas de flujo que ilustran un método de control del aparato electrónico 100 de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 puede identificar cual del modo de tarea de voz y el modo de tarea de movimiento se designa (S6805) . Aunque únicamente el modo de tarea de voz o el modo de tarea de movimiento se representa en la modalidad ejemplar actual, pueden incluirse adicionalmente modos identificables que incluyen un modo en el cual el aparato electrónico 100 es controlado por un controlador remoto. Si se designa el modo de tarea de movimiento, el aparato electrónico 100 entra en la operación S6910 de la figura 69 y continúa una operación de control del aparato electrónico 100, de acuerdo con la presente modalidad ejemplar.
Si se designa el modo de tarea de voz, el aparato electrónico 100 puede representar información de asistencia de voz para realizar las primeras tareas en el modo de tarea de voz en el cual por lo menos una de las primeras tareas se realiza de acuerdo con una voz reconocida (S6810) .
El aparato electrónico 100 puede reconocer una primera voz que corresponde a un primer inciso de voz de entre por lo menos un inciso de voz representado como la información de asistencia de voz (S6815) .
El aparato electrónico 100 puede determinar si existe o no información de inciso adicional respecto al primer inciso de voz que corresponde a la primera voz reconocida (S6820) . Si no existe información de inciso adicional respecto al primer inciso de voz, el aparato electrónico 100 puede realizar una tarea que corresponde al primer inciso de voz (S6825) . Además, si necesita cambiarse la información de asistencia de voz, el aparato electrónico 100 puede representar información de asistencia de voz cambiada. Por ejemplo, si se reconoce enmudecimiento como una voz que corresponde al inciso de voz 813, el aparato electrónico 100 realiza enmudecimiento y cambia el inciso de voz 813 al inciso de voz 2213 y representa la información de asistencia de voz cambiada, como se muestra en la figura 22.
Si existe información de inciso adicional respecto a la primera voz, el aparato electrónico 100 puede representar la información de inciso adicional respecto al primer inciso de voz que corresponde a la primera voz reconocida (S6830) . Por ejemplo, si se reconoce "canal" como una voz que corresponde al inciso de voz, se puede representar información de inciso adicional que incluye un mensaje de guía o un ejemplo de pronunciación.
El aparato electrónico 100 puede reconocer una segunda voz que corresponde a la información de inciso adicional (S6835) .
El aparato electrónico 100 puede realizar una tarea que corresponde al primer inciso de voz y la segunda voz reconocida de entre las primeras tareas (S6840) . Por ejemplo, si el primer inciso de voz es el inciso de voz 812 y la segunda voz es "siete", el aparato electrónico 100 puede realizar un método abreviado de canal para cambiar un canal actual a un canal que tenga el ident i f i cador de canal 7.
Si se designa el modo de tarea de movimiento, el aparato electrónico 100 puede representar información de asistencia de movimiento para realizar las segundas tareas en el modo de tarea de movimiento en el cual por lo menos una de las segundas tareas se realiza de acuerdo con un movimiento reconocido (S6910 de la figura 69) .
El aparato electrónico 100 puede reconocer un primer movimiento que corresponde a un primer inciso de movimiento desde por lo menos un inciso de movimiento representado como la información de asistencia de movimiento (S6915) .
El aparato electrónico 100 puede determinar si existe o no información de inciso adicional respecto al primer inciso de movimiento que corresponde al primer movimiento reconocido (S6920) . Si no existe información de inciso adicional respecto al primer inciso de movimiento, el aparato electrónico 100 realiza una tarea que corresponde al primer inciso de movimiento (S6925) . Por ejemplo, si se reconoce un movimiento de palmada en una dirección a la derecha como un movimiento que corresponde al inciso de movimiento 3313 en la figura 33, el aparato electrónico 100 cambia un canal actual (canal 6) al siguiente canal (canal 7) el cual se localiza después del canal actual (canal 6) de acuerdo con el orden preestablecido, de acuerdo con un aumento de canal. Además, si necesita cambiarse la información de asistencia de movimiento, el aparato electrónico puede representar información de asistencia de movimiento cambiada .
Si existe información de inciso adicional respecto al primer inciso de movimiento, el aparato electrónico 100 puede representar información de inciso adicional respecto al primer inciso de movimiento que corresponde al primer movimiento reconocido (S6930) . Por ejemplo, si se reconoce un movimiento de agarre que corresponde al inciso de movimiento, la información de inciso adicional que incluye un mensaje de guía que pregunta si se reproduce un inciso seleccionado o un archivo de imagen o un inciso de movimiento que indica que los movimientos de palmada en las direcciones a la izquierda/a la derecha corresponden a una respuesta si/no, se pueden representar.
El aparato electrónico 100 puede reconocer un segundo movimiento que corresponde a la información de inciso adicional (S6935) .
El aparato electrónico 100 puede realizar una tarea que corresponde al primer inciso de movimiento y el segundo movimiento reconocido de entre las segundas tareas (S6940) . Por ejemplo, si el primer inciso de movimiento es un inciso de movimiento para reproducir una imagen y el segundo movimiento es un movimiento de palmada en una dirección a la izquierda, el aparato electrónico 100 puede reproducir un archivo de imagen designado.
La unidad de control 140 puede representar de modo distintivo un icono ejecutable de un contenido que es controlable a través de reconocimiento de voz y un icono ejecutable del contenido que no es controlable a través de reconocimiento de voz utilizando el módulo de proceso de UI 130j .
La unidad de control 140 puede determinar si un contenido está soportado por el reconocimiento de voz utilizando un encabezador (no mostrado) del contenido almacenado en el aparato electrónico 100 o si se incluye en el contenido un archivo de configuración separado (no mostrado) .
Si se determina que el contenido es controlable a través de reconocimiento de voz, la unidad de control 140 combina un icono adicional almacenado en la unidad de almacenamiento y un icono ejecutable original del contenido utilizando el módulo de proceso de UI 130j y representa el icono combinado. El usuario puede saber que el contenido es controlable a través de reconocimiento de voz en base en la presencia del icono adicional representado en la pantalla de representación.
Se puede almacenar una pluralidad de iconos adicionales en la unidad de almacenamiento 130. El usuario puede cambiar un icono adicional para que se combine con un icono ejecutable original a través de la configuración.
Además, la unidad de control 140 puede representar de modo distintivo un nombre de un contenido que es controlable a través de reconocimiento de voz y un nombre de un contenido que no es controlable a través del reconocimiento de voz utilizando el módulo de proceso de UI 130j, por ejemplo, al subrayar y presentar el nombre resaltado. El usuario puede saber que el contenido es controlable a través de reconocimiento de voz en base en el nombre del icono ejecutable subrayado y presentado resaltado.
La unidad de control 140 puede representar un icono ejecutable de un contenido que es controlable a través de reconocimiento de voz y un nombre del icono ejecutable de modo distintivo de un icono ejecutable de un contenido que no es controlable a través del reconocimiento de voz y un nombre del icono ejecutable utilizando el módulo de proceso UI 130j .
La unidad de control 140 o el contenido pueden representar de modo distintivo un menú que es controlable a través de reconocimiento de voz y un menú que no es controlable a través de reconocimiento de voz de entre los menús de una barra de herramientas representada sobre una UI del contenido ejecutado (por ejemplo, los menús "siguiente", "previo" o "abierto") .
A continuación, se explicará con referencia desde la figura 70 a la figura 79 un método para la representación de un icono ejecutable de una aplicación que es controlable a través de reconocimiento de voz y un nombre del icono ejecutable de modo distintivo a partir de un icono ejecutable de una aplicación que no es controlable a través del reconocimiento de voz y un nombre del icono ejecutable de acuerdo con diversas modalidades ejemplares.
Con referencia a la figura 70, la unidad de control 140 del aparato electrónico 100 genera un video, un audio y datos de control (por ejemplo, una guía de programa electrónica (EPG) ) que corresponde a una señal de difusión recibida desde la unidad de recepción de difusión 150 a la unidad de salida de audio 196 de una pantalla de representación 7000 de la unidad de representación 193.
La unidad de control 140 reconoce una instrucción de inicio de voz (voz de activación) pronunciada por el usuario utilizando la unidad de entrada de voz 110, el módulo de reconocimiento de voz 13Ok y la base de datos de voz 13Om. La unidad de control 140 se cambia a un modo de tarea de voz en el cual el aparato electrónico 100 es controlable a través de reconocimiento de voz por la instrucción de inicio de voz reconocida (por ejemplo, "Ginny"). La unidad de control 140 compara la instrucción de inicio de voz reconocida a través de la unidad de entrada de voz 110 y el módulo de reconocimiento de voz 130k y una instrucción de inicio de voz almacenada previamente en la base de datos de voz 130m. Si la voz es reconocida como la instrucción de inicio de voz como un resultado de la comparación, el aparato electrónico 100 se cambia al modo de tarea de voz bajo el control de la unidad 140. La base de datos de voz 13Om puede almacenar una primera instrucción que corresponde a una voz que es reconocible a través de la unidad de entrada de voz 110 y el modo de reconocimiento de voz 130k (por ejemplo, una instrucción que corresponde a "cambio al modo de tarea de voz" o una instrucción que corresponde a "cambio de canal". La unidad 140 de control puede realizar una tarea de voz del aparato electrónico 100 que corresponde a la primera instrucción. La instrucción de inicio de voz de la instrucción almacenada previamente en la base de datos de voz 13 Om se puede cambiar (por ejemplo, se puede agregar, cambiar o suprimir) a través de la configuración. El reconocimiento de la instrucción de inicio de voz de entrada se puede entender fácilmente por una persona habitualmente experta en el ámbito relacionado.
Con referencia a la figura 71, la unidad de control 140 representa información de asistencia de voz 7110 para realizar el modo de tarea de voz sobre la pantalla de representación 400 sobre la cual se representa una imagen. La unidad de control 140 puede representar la información de asistencia de voz 7110 para superposición sobre la imagen representada. La unidad de control 140 puede representar la información de asistencia de voz 7110 sobre una porción inferior de la pantalla de representación 400. La información de asistencia de voz 7110 puede incluir un área de instrucción/presentación de guía 7111, un área de representación de modo 7120 y 7120a y una primer área de representación de retroalimentación 7230 (véase la figura 72) . Con referencia a la figura 72, la primera área de representación de retroalimentación 7230 se puede representar sobre una porción lateral del área de representación de modo 7120. Si la primer área de representación de alimentación 7230 puede incluir primera retroalimentación visual 7230a (véase la figura 72) . La unidad de control 140 transmite la primera instrucción reconocida al altavoz 161 del aparato electrónico 100 con lo que se proporciona primera retroalimentación auditiva (no mostrada) al usuario. El aparato electrónico 100 puede proporcionar uno de la retroalimentación visual y la retroalimentación auditiva o proporcionar ambas, la retroalimentación visual y la retroalimentación auditiva.
Con referencia a la figura 73, si se reconoce la primera instrucción, la unidad de control 140 representa una lista de contenido que corresponde a la primera instrucción (a continuación, denominada como cubo inteligente 7300) . El cubo inteligente 7300 es una UI que funciona como un cubo de diversas funciones soportadas por el aparato electrónico 100. El cubo inteligente 7300 es una UI en donde los iconos ejecutables que corresponden a diversas funciones soportadas por el aparato electrónico 100 (por ejemplo, funciones de observación de una imagen en movimiento, escucha de música, acceso a Internet) son representadas. Además, el cubo inteligente 7300 es una UI en donde los iconos ejecutables de contenidos almacenados en la unidad de almacenamiento 130 del aparato electrónico 100 (por ejemplo, una fotografía, música, una imagen en movimiento), se representan iconos ejecutables que corresponden a los contenidos recibidos desde fuentes externas (por ejemplo, una fotografía, música, una imagen en movimiento) e iconos ejecutables de aplicaciones ejecutables (por ejemplo, un navegador de red) .
El cubo inteligente 7300 puede incluir una pluralidad de áreas de entre un área de búsqueda 7310 que busca diversos contenidos, aplicaciones o información de Internet utilizando una voz (por ejemplo, un modo de tarea de voz) o un movimiento (por ejemplo, un modo de tarea de movimiento) , un área de difusión 7320 que se localiza en una porción lateral del área de búsqueda 7310 y que representa una imagen de difusión reducida, un área de su video 7330 que se localiza debajo del área de búsqueda 7310 y que representa un icono ejecutable que corresponde a una imagen en movimiento almacenada en la unidad de almacenamiento 130, un área de representación de información 7340 que se localiza bajo el área de búsqueda 7310 y que muestra una noticia o una publicidad de un fabricante del aparato electrónico 100, y un área de aplicaciones 7350 que se localiza debajo del área de búsqueda 7310 y que representa iconos ejecutables de aplicaciones que corresponden a diversos servicios libres o de paga proporcionados por el fabricante del aparato electrónico 100, un área recomendada 7360 que se localiza debajo del área de búsqueda 7310 y que representa un servicio recomendado por el fabricante del aparato electrónico 100, y un área de lista de aplicación 7370 que se localiza debajo del área de búsqueda 7310 y que representa un icono ejecutable que corresponde a una aplicación ejecutable en el aparato electrónico 100. Debe entenderse que una persona habitualmente experta en el ámbito en el tema relacionado, la pluralidad de áreas 7310 a 7370 representadas en el cubo inteligente 7300 se pueden agregar o suprimir de acuerdo con el desempeño o función del aparato electrónico.
El cubo inteligente 7300 puede representar la información de asistencia de voz 7110 que corresponde al modo de tarea de voz. Además, el cubo inteligente 7300 puede representar información de asistencia de movimiento 7720 que corresponde al modo de tarea de movimiento. La información de asistencia de voz 7110 o la información de asistencia de movimiento 7720 (véase la figura 77) se pueden superponer sobre el cubo inteligente 7300. Con referencia a la figura 73, el cubo inteligente 7300 representa la información de guía de voz 7110 que corresponde al modo de tarea de voz.
En el modo de tarea de voz, el cubo inteligente 7300 representa un icono ejecutable (por ejemplo, 7371) que corresponde a un contenido que es controlable a través de reconocimiento de voz (por ejemplo, una aplicación y una imagen en movimiento) de modo distintivo de un icono ejecutable (por ejemplo, 7372) que corresponde a un contenido que no es controlable a través del reconocimiento de voz. El icono ejecutable 7371 que corresponde al contenido que es controlable a través del reconocimiento de voz puede ser una combinación de un icono ejecutable original 7371a que corresponde al contenido que es controlable a través de reconocimiento de voz y un icono adicional 7371b (uno de una imagen fija, una imagen en movimiento y un texto) localizado sobre la porción lateral del icono ejecutable original 7371a. El icono adicional 7371b se puede representar para que se superponga con el icono ejecutable original 7371a o de modo separado del icono ejecutable original 7371a. El icono adicional se agrega a un lado del icono ejecutable que corresponde al contenido de acuerdo a si se reconoce o no una voz. No obstante, esto es solamente un ejemplo. Debe entenderse por una persona habitualmente experta en el ámbito en la técnica relacionada que el icono ejecutable que corresponde al contenido se puede representar de modo distintivo de diversas maneras, de acuerdo a si se reconoce o no la voz, por ejemplo al cambiar una ubicación o tamaño del icono adicional 7371b.
Un nombre 7371c del icono ejecutable que corresponde al contenido que es controlable a través de reconocimiento de voz se puede representar de modo distintivo a partir de un nombre 7372a del icono ejecutable que corresponde al contenido que es incontrolable a través de reconocimiento de voz, por ejemplo, subrayado y resaltado). No obstante, el hecho de distinguir el nombre del icono ejecutable que corresponde al contenido de acuerdo a si es reconocible una voz por subrayado del nombre e inserción de tipo de letra resaltado, es solo un ejemplo. Debe entenderse por una persona habitualmente experta en el ámbito relacionado que el nombre del icono ejecutable que corresponde al contenido se puede representar de modo distintivo de diversas maneras de acuerdo a si es reconocible o no, por ejemplo, al cambiar un tipo de letra o color.
Si el nombre de un icono ejecutable tiene letras más grandes que el número de letras definidos en el cubo inteligente 7300 (por ejemplo, 15 letras en inglés y 8 letras en Coreano) por ejemplo, un nombre 7373c) , se puede representar solo una parte del nombre del icono ejecutable. Por ejemplo, la parte remanente del nombre del icono ejecutable la cual no se representa puede representarse como una elipsis.
La instrucción representada sobre la información de asistencia de voz 7110 del cubo inteligente 7300 se puede cambiar. Si el cubo inteligente 7300 se representa en respuesta a una primera voz de instrucción, se representa una instrucción (retorno 7111i) para regresar a una imagen previa que se ha representado antes de que se represente el cubo inteligente 7300. La instrucción para retorno se puede agregar a la información de asistencia de voz 7110 (por ejemplo, 9 instrucciones en total se representan) o se puede sustituir con una de las instrucciones representadas (por ejemplo, una instrucción "todo") (por ejemplo, se representan 8 instrucciones en total) .
La unidad de control 140 reconoce una segunda voz de instrucción pronunciada por el usuario utilizando la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m (por ejemplo, el nombre de la aplicación 7371c "libro electrónico sorprendente") . La unidad de control 140 compara la segunda instrucción de voz reconocida a través de la unidad de entrada de voz 110 y el módulo de reconocimiento de voz 130k y una segunda voz de instrucción almacenada previamente en la base de datos de voz 130. Si la voz es reconocida como una segunda instrucción como un resultado de comparar la unidad de control 140 que representa tercera retroalimentación visual (por ejemplo "usted ha dicho" libro electrónico sorprendente" (no mostrado) ) que corresponde a la segunda instrucción reconocida sobre la primer área de representación de retroalimentación 7230. La tercera retroalimentación visual (no mostrada) se puede proporcionar durante un tiempo predeterminado (por ejemplo, 500 msec) . El tiempo predeterminado se puede cambiar a través de la configuración.
La unidad de control 140 puede transmitir la segunda instrucción reconocida al altavoz 161 del aparato electrónico para de esta manera proporcionar tercera retroalimentación auditiva (no mostrada) al usuario.
Si la voz no es reconocida como la segunda instrucción como resultado de la comparación, la unidad de control 140 puede proporcionar una cuarta retroalimentación visual (por ejemplo "por favor diga nuevamente" (no mostrada) ) sobre la primer área de representación de retroalimentación 7230. La unidad de control 140 puede proporcionar la cuarta retroalimentación auditiva (por ejemplo, "por favor diga nuevamente" (no mostrada)) para reconocer la segunda voz de instrucción.
Si una pluralidad de nombres de aplicaciones corresponden a la segunda instrucción reconocida, la unidad de control 140 puede representar una ventana emergente de candidatos 7314 que representan la pluralidad de nombres de aplicaciones sobre el cubo inteligente 7300.
Con referencia a la figura 74, si se reconoce una segunda instrucción (por ejemplo, que incluye una parte del nombre de la aplicación, "sorprendente") a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m, la unidad de control 140 presenta una lista de una pluralidad de aplicaciones que corresponden a la segunda instrucción sobre la ventana emergente de candidatos 7414. Por ejemplo, la ventana emergente de candidatos 7414 muestra © libros electrónicos sorprendentes 7414a y (D festival de tambores sorprendente 7414b. Si la ventana emergente de candidatos 7414 se representa sobre el cubo inteligente 7300, la instrucción sobre el área de representación de instrucción/guía 7111 representada sobre la porción inferior del cubo inteligente 7300 se cambia. Por ejemplo, el área de representación de instrucción/guia 7111 representa "diga el número del inciso que desea seleccionar" 7111j sobre la porción izquierda del área de representación de modo 7112 y representa "ejemplos > 1, 2 7111k y retorno 7111i" sobre la porción derecha. Si se reconoce una voz correspondiente a un número (por ejemplo, "uno") a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 13Ok y la base de datos de voz 13Om, la unidad de control 140 selecciona © libro electrónico sorprendente 7414a sobre la lista emergente de candidatos 7414. La unidad de control 140 puede representar el nombre de la solicitud seleccionada sobre la ventana emergente de candidatos 7414 de modo distintivo del nombre de la aplicación no seleccionada.
Además, si una voz que corresponde a un nombre completo de una aplicación representada sobre la ventana emergente de candidatos 7414 es reconocida, la unidad de control 140 puede representar de modo distintivo el © libro electrónico sorprendente sobre la ventana emergente de candidatos 7414.
Con referencia a la figura 75, la unidad de control 140 ejecuta la aplicación, libro electrónico sorprendente, que corresponde a la segunda instrucción (por ejemplo, "libro electrónico sorprendente") reconocida a través de la unidad de entrada de voz 110, el módulo de reconocimiento voz 13Ok y la base de datos de voz 13Om. La unidad de control 140 muestra una UI 7500 del libro electrónico sorprendente que se ejecuta. La unidad de control 140 presenta la UI 7500 del libro electrónico sorprendente que se superpone el cubo inteligente 7300. La unidad de control 140 puede mostrar la UI 7500 del libro electrónico sorprendente en tamaño de pantalla completa al sustituir el cubo inteligente 7300 con la UI 7500. La UI 7500 del libro electrónico sorprendente muestra iconos ejecutables 7501 a 7504 que corresponden a una pluralidad de libros electrónicos almacenados en la unidad de almacenamiento del aparato electrónico 100 y los nombres 7501a a 7504a de los iconos ejecutables. La unidad de control 140 puede mostrar los nombres 7501a a 7504a de los iconos ejecutables que corresponden a la pluralidad de libros electrónicos de modo distintivo entre sí, de acuerdo a si es reconocible una voz. Por ejemplo, la unidad de control 140 muestra el nombre 7501a del icono ejecutable que corresponde al libro inteligente que es controlable a través de reconocimiento de voz de modo distintivo del nombre 7502a de un icono ejecutable que corresponde al libro electrónico que no es controlable a través de reconocimiento de voz. Además, la unidad de control 140 de la aplicación "libro electrónico sorprendente" puede mostrar de modo distintivo un menú que sea controlable a través de reconocimiento de voz y un menú que no sea controlable a través de reconocimiento de voz de entre los menús en un área de herramientas (no mostrada) del libro electrónico sorprendente (por ejemplo, un menú de "siguiente", "previo" o "abierto" no mostrado). El hecho de distinguir el nombre 7501a del icono ejecutable que corresponde al libro electrónico que es controlable a través de reconocimiento de voz pero resaltando el nombre e insertando letras resaltadas, es solo un ejemplo. Debe entenderse por una persona habitualmente experta en la técnica relacionada que el nombre del icono ejecutable que corresponde al libro electrónico se puede representar de modo distintivo de diversas maneras de acuerdo a si una voz es reconocible, por ejemplo, al cambiar el tipo de letra o el color. La unidad de control 140 puede descargar el libro electrónico que es reconocible por una voz desde un servidor externo a través de la unidad de interconexión de red 180.
Si el nombre 7501a del icono ejecutable que corresponde al libro electrónico que es controlable a través de reconocimiento de voz se reconoce a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m, la unidad de control 140 ejecuta y muestra el libro electrónico 7501. El usuario puede controlar el libro electrónico que se representa a través de reconocimiento de voz (por ejemplo, cambio de página) .
La unidad de control 140 reconoce una instrucción de inicio de movimiento 700 utilizando la unidad de entrada de movimiento 120, el módulo de reconocimiento de movimiento 1301 y la base de datos de movimiento 130n. Con referencia a la figura 76, la instrucción de inicio de movimiento 7600 es un movimiento de los dedos abiertos del usuario agitándose horizontalmente 3-4 veces opuesto a la unidad de entrada del movimiento 120. La unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento, en la cual el aparato electrónico 100 es controlable a través de reconocimiento de movimiento de acuerdo con la instrucción de inicio de movimiento reconocida. La unidad de control 140 compara la instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 y el módulo de reconocimiento de movimiento 1301 y una instrucción de inicio de movimiento almacenada previamente en una base de datos de movimiento 130n. Si el movimiento es reconocido como instrucción de inicio de movimiento como resultado de la comparación, el aparato electrónico 100 cambia del modo de tarea de voz al modo de tarea de movimiento por la unidad de control 140. La base de datos de movimiento 130n puede almacenar una segunda instrucción que corresponde a un movimiento que es reconocible a través de la unidad de entrada de movimiento 120 y el módulo de reconocimiento de movimiento 1301 "por ejemplo, una instrucción que corresponde a "previo" o una instrucción que corresponde a "volver a reproducir") . La unidad de control 140 puede realizar una tarea de movimiento del aparato electrónico 100 que corresponde a la segunda instrucción. La instrucción de inicio del movimiento almacenada previamente en la base de datos del movimiento 13On se puede cambiar a través de la configuración (por ejemplo, se puede agregar, cambiar o suprimir) .
El cubo inteligente muestra información de asistencia de movimiento e igualmente muestra un icono ejecutable de una aplicación que es controlable a través de reconocimiento de voz y un icono ejecutable de una aplicación que no es controlable a través del reconocimiento de voz.
Con referencia a la figura 77, la unidad de control 140 muestra información de asistencia de movimiento 7720 y un cursor 7725 que corresponde al modo de tarea de movimiento del cubo inteligente 7300. La unidad de control 140 puede superponerse a la información de asistencia de movimiento 7720 en el cubo inteligente 7300. La unidad de control 140 puede mostrar la información de asistencia de movimiento 7720 en una porción inferior del cubo inteligente 7300. La información de asistencia de movimiento 7720 puede incluir un área de representación de movimiento/guía 7721, un área de representación de modo 7722 y una segunda área de representación de retroalimentación (no mostrada) .
La unidad de control 140 representa la información de asistencia de movimiento 7720 en el cubo inteligente 7300 y de igual manera representa el icono ejecutable de la aplicación que es controlable a través de reconocimiento de voz y el icono ejecutable de la aplicación que no es controlable a través del reconocimiento de voz .
Con referencia a la figura 74, la unidad de control 140 reconoce una tercera voz de instrucción pronunciada por el usuario (por ejemplo, un nombre completo de una aplicación "festival de tambores sorprendente" o una parte del nombre (utilizando la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. La unidad de control 140 compara la tercera instrucción reconocida a través de la unidad de entrada de voz 110 y el módulo de reconocimiento de voz 13 Ok y una tercera instrucción almacenada previamente en la base de datos de voz 130m. Si la voz es reconocida como la tercera instrucción como resultado de la comparación, la unidad de control 140 puede representar la sexta retroalimentación visual (por ejemplo, "usted dijo", "festival de tambores sorprendente"" (no mostrado) ) que corresponde a la tercera instrucción reconocida de la primer área de representación de retroalimentación 7413. La sexta retroalimentación visual (no mostrada) se puede proporcionar durante un tiempo predeterminado (por ejemplo, 500 msec) .
Si no se reconoce la tercera instrucción, la unidad de control 140 puede representar una séptima retroalimentación visual (por ejemplo, "por favor, diga de nuevo") (no mostrada) en la primer área de representación de retroalimentación 7413. La unidad de control 140 puede proporcionar la sexta retroalimentación auditiva (por ejemplo, "por favor repita") para reconocer la tercera voz de instrucción.
Con referencia a la figura 74, si una pluralidad de nombres de aplicaciones corresponden a la tercera instrucción (por ejemplo, que incluyen una parte del nombre de la aplicación que se va a seleccionar, "sorprendente"), la unidad de control 140 puede representar una ventana emergente de candidatos 7414 que representa la pluralidad de nombres de aplicaciones en el cubo inteligente 7400. Si una voz que corresponde a un número (por ejemplo, "dos") es reconocida a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m, la unidad de control 130 selecciona (2) festival de tambores sorprendente 414b en la ventana emergente de candidatos 7414.
Con referencia a la figura 78, la unidad de control 140 ejecuta la aplicación, festival de tambores sorprendente, que corresponde a la tercera instrucción (por ejemplo, "festival de tambores sorprendente") reconocida a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos 130m. La unidad de control 140 representa una UI 7800 de festival de tambores sorprendente que se está ejecutando. La unidad de control 140 puede representar la UI 7800 del festival de tambores excitante para que se superponga en el cubo inteligente 7300. La unidad de control 140 puede representar a la UI 7800 del festival de tambores excitante en un tamaño de pantalla completa al sustituir el cubo inteligente 7300 con la UI 7800.
Los tambores 7801 a 7809 representados en la UI 7800 del festival de tambores sorprendente se puede reproducir a través del reconocimiento de una voz de usuario o un controlador remoto. Los tambores 7801 a 7809 en el festival de tambores sorprendente se pueden reproducir a través de reconocimiento de movimiento (por ejemplo, un movimiento de agarre) en el modo de tarea de movimiento.
La figura 79 es un diagrama de flujo que ilustra un método para representar una UI de un aparato electrónico de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 se enciende S7901.
Por ejemplo, si se oprime un botón de energía (no mostrado) localizado en el aparato electrónico 100, si un botón de energía (no mostrado) en el aparato electrónico 100 localizado en el control remoto es oprimido (por ejemplo, se oprime el botón) o si se reconoce la voz de usuario (por ejemplo, "encender") es reconocida a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m del aparato electrónico 100, el aparato electrónico 100 puede ser encendido.
Se transmite una difusión (S7902) , por ejemplo, el aparato electrónico 100 transmite una imagen que corresponde a una señal de difusión recibida desde la unidad receptora de difusión 150, como se muestra en la figura 70.
Se reconoce una instrucción de inicio de voz (S7903) . Esto es, el aparato electrónico 100 reconoce una instrucción de inicio de voz pronunciada por el usuario utilizando una unidad de entrada de voz 110, el módulo de reconocimiento de voz 13Ok y la base de datos de voz 13Om. El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el cual el aparato electrónico 100 es controlable a través de reconocimiento de voz, de acuerdo con la instrucción de inicio de voz reconocida.
Un conjunto de instrucciones es representada (S7904) . Por ejemplo, el aparato electrónico 100 representa un conjunto de instrucciones 7110 que corresponden al modo de tarea de voz en la pantalla de representación 7000 en donde se representa una imagen, como se muestra en la figura 71.
Una primera voz de instrucción es reconocida (S7905) . Específicamente, el aparato electrónico 100 reconoce una primera voz de instrucción (por ejemplo, "cubo inteligente") pronunciada por el usuario utilizando la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. Si la voz es reconocida como una primera instrucción, el aparato electrónico 100 representa la primera retroalimentación visual que corresponde a la primera instrucción reconocida de la primer área de representación de retroalimentación 7230, como se muestra en la figura 72.
Una UI es representada (S7906) , por ejemplo, si se reconoce la primera instrucción, el aparato electrónico 100 representa el cubo inteligente 7300 que corresponde a la primera instrucción, como se muestra en la figura 73.
Se reconoce una segunda voz de instrucción (S7907) . Específicamente, el aparato electrónico 100 reconoce una segunda voz de instrucción (por ejemplo, el nombre de una aplicación, "libro electrónico sorprendente" 7371c) pronunciada por el usuario utilizando la unidad de entrada de voz 110, el módulo de reconocimiento de voz 13Ok y la base de datos de voz 13Om. Si una pluralidad de nombres de aplicaciones que corresponden a la segunda instrucción reconocida, el aparato electrónico 100 puede representar una ventana emergente de candidatos 7414 que representa la pluralidad de nombres y aplicaciones, como se muestra en la figura 74.
Se ejecuta una primera aplicación (S7908) . Por ejemplo, el aparato electrónico 100 ejecuta la aplicación, libro electrónicos sorprendente, que corresponde a la segunda instrucción, como se muestra en la figura 75.
Se reconoce una instrucción de inicio de movimiento (movimiento de activación) (S7909) . Específicamente, el aparato electrónico 100 reconoce una instrucción de inicio de movimiento 7600 del usuario utilizando la unidad de entrada de movimiento 120, el módulo de reconocimiento de movimiento 1301 y la base de datos de movimiento 130m. Por ejemplo, la instrucción de inicio de movimiento 7600 es el movimiento de un usuario que agita los dedos abiertos horizontalmente 3-4 veces opuesto al movimiento de la unidad de entrada 120, como se muestra en la figura 76.
Los incisos de movimiento se representan sobre un cubo inteligente y un icono ejecutable de una aplicación que es controlable a través de reconocimiento de voz y un icono ejecutable de una aplicación que no es controlable a través del reconocimiento de voz se representa por igual. Por ejemplo, el aparato electrónico 100 representa la información de asistencia de movimiento 7720 y el cursor 7725 que corresponde al modo de tarea de movimiento en el cubo inteligente 7300, como se muestra en la figura 77.
Si la segunda instrucción no es reconocida en la operación S7907, la operación S7911 se realiza.
Se reconoce una tercera instrucción (S7911) . La unidad de control 140 reconoce una tercera voz de instrucción pronunciada por el usuario utilizando la unidad de entrada de voz 110, el módulo de reconocimiento de voz 130k y la base de datos de voz 130m. Si una pluralidad de nombres de aplicaciones corresponden a la tercera instrucción, la unidad de control 140 puede representar la ventana emergente de candidatos 7414 que representan la pluralidad de nombres de aplicaciones en el cubo inteligente 7300, como se muestra en la figura 74.
Se ejecuta una tercera aplicación (S7912) . Por ejemplo, el aparato electrónico 100 ejecuta la aplicación, festival de tambores sorprendente, que corresponde a la tercera instrucción recibida a través de la unidad de entrada de voz 110, el módulo de reconocimiento de voz 13 Ok y la base de datos de voz 130m, como se muestra en la figura 78.
Si no se reconoce la tercera instrucción en la operación S7911, la operación finaliza.
La unidad de control 140 puede proporcionar uno de una pluralidad de señales de difusión recibidas a través de la unidad de recepción de difusión 150 y uno de los contenidos almacenados a la unidad de salida de imagen 190 o la unidad de representación 193. La unidad de representación 193 puede representar la señal de difusión recibida o el contenido almacenado. El contenido almacenado incluye la totalidad de contenidos que son almacenados en el aparato electrónico 100 de manera permanente, momentánea o temporal. Por ejemplo, el contenido se puede almacenar en la unidad de almacenamiento 130 del aparato electrónico 100 permanentemente hasta que se recibe una solicitud de usuario para su borrado. Además, si una parte de la unidad de almacenamiento 130 del aparato electrónico 100 sirve como una memoria intermedia, el contenido puede ser almacenado en la unidad de almacenamiento 130 de manera momentánea o temporal. Específicamente, si una entrada de contenido desde la unidad de entrada de terminal externa 160 o la unidad de interconexión de red 180 se proporciona a la unidad de salida de imagen 190 o la unidad de representación 193 en una base en tiempo real, la unidad de control 140 puede almacenar el contenido en una parte de la unidad de almacenamiento 130 de manera momentánea o temporal, de manera que una velocidad de entrada del contenido sea sustancialmente igual a una velocidad de salida del contenido.
La unidad 140 de control puede reconocer un movimiento de usuario utilizando el módulo de reconocimiento de movimiento 1301 y puede cambiar un estado de la señal de difusión proporcionada o el contenido en respuesta al movimiento de usuario reconocido. Si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede controlar un nivel de volumen de la señal de difusión o puede proporcionar otra señal de difusión de entre la pluralidad de señales de difusión en respuesta al movimiento de usuario reconocido. Si la unidad de control 140 proporciona un contenido, la unidad de control 140 puede cambiar por lo menos parte de la pantalla en la cual se representa el contenido, en respuesta al movimiento de usuario reconocido.
Por ejemplo, si un contenido (por ejemplo, una imagen que incluye una pluralidad de páginas o un documento que incluye una pluralidad de páginas) incluye una pluralidad de páginas en uno de una pluralidad de páginas es representado en la pantalla, la unidad de control 140 puede cambiar la pantalla en la cual una de la pluralidad de páginas es representada a una pantalla en la cual se represente otra página. En particular, la unidad de control 140 puede cambiar la pantalla en la cual una de la pluralidad de páginas es representada a una pantalla en la cual una de las páginas localizada en una porción superior, inferior, izquierda o derecha de una página de la pluralidad de páginas es representada, en respuesta al movimiento de usuario reconocido.
Como otro ejemplo, si un contenido (por ejemplo, una página de la red) incluye una página, la unidad de control 140 puede cambiar una pantalla en la cual una parte de la página es representada a una pantalla en la cual se representa otra parte de la página.
Además, la unidad de control 140 puede cambiar una pantalla en la cual se representa un contenido proporcionado (por ejemplo, una imagen o una imagen en movimiento) a una pantalla en la cual se representa un contenido diferente del contenido.
La unidad de control 140 puede reconocer una voz de usuario utilizando el módulo de reconocimiento de voz 130k y puede proporcionar uno de una pluralidad de señales de difusión de acuerdo con la voz de usuario reconocida. Por ejemplo, si se reconoce un identificador de canal a través del módulo de reconocimiento de voz 13Ok la unidad de control 140 puede proporcionar una señal de difusión que tenga el identificador de canal reconocido de entre la pluralidad de señales de difusión utilizando el módulo de control de canal 130b.
En otra modalidad ejemplar, la unidad de control 140 puede seleccionar una señal de difusión de entre la pluralidad de señales de difusión en respuesta a un movimiento de usuario reconocido utilizando el módulo de reconocimiento de movimiento 1301. La unidad de control 140 puede proporcionar la señal de difusión seleccionada a la unidad de salida de imagen 190 o a la unidad de representación 193. La unidad de representación 193 puede representa la señal de difusión proporcionada. Después, la unidad de control 140 puede detener el suministro de la señal de difusión a la unidad de salida de imagen 190 o la unidad de representación 193. Por ejemplo, la unidad de control 140 puede detener el suministro de la señal de difusión en respuesta a una entrada de usuario recibida a través del módulo de reconocimiento de movimiento 1301, el módulo de reconocimiento de voz 13Ok o el controlador remoto. La unidad de control 140 puede proporcionar un contenido almacenado en el aparato electrónico 100.
Cuando la unidad de control 140 proporciona el contenido almacenado a la unidad de representación 193, la unidad de control 140 puede volver a reconocer un movimiento del usuario el cual tenga la misma forma que el del movimiento de usuario cuando se seleccionó uno de una pluralidad de señales de difusión. El movimiento de usuario de la misma forma incluye un movimiento de usuario que tiene sustancialmente la misma forma. Por ejemplo, si son iguales las formas de objeto de una pluralidad de movimientos de usuario, las formas de los objetos se mueven en la misma dirección y las velocidades de movimiento de las formas de los objetos son mayores que una velocidad predeterminada, la unidad de control 140 puede reconocer la pluralidad de movimientos de usuario como un movimiento de usuario de la misma forma. Por ejemplo, si un movimiento de usuario para seleccionar una señal de difusión y un movimiento de usuario reconocido nuevamente son todos movimientos de palmada y los movimientos de palmada se mueven en la misma dirección, la unidad de control 140 puede reconocer el movimiento de usuario para seleccionar una señal de difusión y el movimiento de usuario reconocido nuevamente como un movimiento de usuario de la misma forma. Además, si un movimiento de usuario para seleccionar una señal de difusión es un movimiento de palmada en una dirección ascendente y un movimiento de usuario para cambiar por lo menos parte de una pantalla en donde un contenido proporcionado sea representado también es un movimiento de palmada en una dirección ascendente, la unidad de control 140 puede reconocer estos dos movimientos en un movimiento de usuario de la misma forma .
A continuación la unidad de control 140 puede cambiar por lo menos parte de la pantalla en donde el contenido proporcionado se representa en respuesta al movimiento de usuario reconocido nuevamente.
En otra modalidad ejemplar, la unidad de control 130 puede proporcionar primeros datos de imagen a una unidad de salida de imagen 190 o la unidad de representación 193. La unidad de control 130 puede proporcionar datos de audio para los primeros datos de imagen a la unidad de salida de audio 196. Los primeros datos de imagen pueden ser datos de imagen de una señal de difusión y los datos de audio para los primeros datos de imagen pueden ser datos de audio de la señal de difusión, por ejemplo. La unidad de control 140 puede controlar un nivel de volumen de los datos de audio en respuesta al movimiento de usuario reconocido. Por ejemplo, la unidad de control 140 puede controlar un nivel de volumen de los datos de audio para los primeros datos de imagen. Después, la unidad de control 140 puede dejar de proporcionar los primeros datos de imagen y los datos de audio para los primeros datos de imagen y puede proporcionar segundos datos de imagen. Los segundos datos de imagen pueden ser datos de imagen de un contenido almacenado en el aparato electrónico 100, por ejemplo. Después, la unidad de control 140 puede volver a reconocer un movimiento de usuario de sustancialmente la misma forma que el movimiento de usuario reconocido para control del nivel de volumen de los datos de audio. La unidad de control 140 puede cambiar por lo menos parte de una pantalla en donde los segundos datos de imagen son representados en respuesta al movimiento de usuario reconocido nuevamente.
En otra modalidad ejemplar, la unidad de control 140 puede proporcionar uno de los primeros datos de imagen de entre los datos de imagen proporcionados a partir de una pluralidad de fuentes, respectivamente y segundos datos de imagen de entre una pluralidad de datos de imagen proporcionados a partir de una fuente única a la unidad de salida de imagen 190 o la unidad de representación 193. La unidad de representación 193 representa los primeros datos de imagen o los segundos datos de imagen. Por ejemplo, los primeros datos de imagen de entre los datos de imagen proporcionados a partir de la pluralidad de fuentes, respectivamente, pueden ser datos de imagen de una señal de difusión que es recibida a través de un canal seleccionado por un sintonizador incluido y la unidad de recepción de difusión 210 de entre datos de imagen de una pluralidad de señales de difusión recibidas a través de una pluralidad de canales. Por ejemplo, los segundos datos de imagen de entre la pluralidad de datos de imagen proporcionados a partir de una fuente única pueden ser datos de imagen de un contenido de entre una pluralidad de contenidos proporcionados desde la unidad de almacenamiento 130 del aparato electrónico 100, un aparato externo conectado a la unidad de entrada de terminal externa 200 o un servidor conectado a una unidad de interconexión de red 180. Después, la unidad de control 140 puede reconocer un movimiento de usuario a través del módulo de reconocimiento de movimiento 1301. Si la unidad de control 140 proporciona los primeros datos de imagen, la unidad de control 140 puede proporcionar datos de imagen proporcionados desde una fuente diferente de la fuente de los primeros datos de imagen en respuesta al movimiento de usuario reconocido. Si la unidad de control 140 proporciona los segundos datos de imagen, la unidad de control 140 puede proporcionar datos de imagen que son diferentes de la segunda imagen de entre la pluralidad de datos de imagen proporcionados desde la fuente única .
En otra modalidad ejemplar, la unidad de control 140 puede proporcionar uno del primer dato de imagen que es reproducido rápidamente cuando se suministra energía al aparato electrónico 100, y segundos datos de imagen que son reproducidos después de que el aparato electrónico 100 entra a un modo después de que se suministra energía al aparato electrónico 100 a la unida de salida de imagen 190 o la unidad de representación 193. La unidad de representación 193 puede representar los datos de la primeras imagen o de la segunda imagen. Los datos de la primera imagen se reproducen rápidamente cuando se suministra energía al aparato electrónico 100 y puede ser una señal de difusión que es reproducida rápidamente cuando se enciende la TV, si el aparato electrónico 100 es una TV, por ejemplo. Los segundos datos de imagen que se reproducen después de que el aparato electrónico 100 entra a un modo después de que suministre energía al aparato electrónico 100 puede ser el contenido que se reproduce después de que una TV entra a un modo de acuerdo con una entrada de usuario a través de la unidad de entrada de voz 110, la unidad de entrada de movimiento 120 o el controlador remoto después de que se enciende la TV, si el aparato electrónico es una TV, por ejemplo. Después, si se proporcionan los datos de la primera imagen, la unidad de control 140 puede proporcionar datos de imagen diferentes que se reproducen rápidamente cuando se suministra energía (por ejemplo, datos de imagen de una señal de difusión de un canal diferente) en respuesta a un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301. Si se proporcionan datos de segunda imagen, la unidad de control 140 puede proporcionar datos de imagen diferentes que son reproducidos después de que el aparato electrónico 100 entra a un modo (por ejemplo, los datos de imagen de un contenido almacenado en la unidad de almacenamiento 130, o datos de imagen de un contenido recibido desde una unidad de entrada de terminal externa 160 o la unidad de interconexión de red 180) en respuesta a un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301.
En otra modalidad ejemplar, la unidad de control 140 puede proporcionar uno de una pluralidad de imágenes en movimiento o uno de una pluralidad de imágenes a la unidad de salida de imagen 190 o la unidad de representación 193. La unidad de representación 193 puede representar la imagen en movimiento o la imagen. Por ejemplo, uno o una pluralidad de imágenes en movimiento pueden indicar una imagen que cambia con el tiempo como uno o una pluralidad de señales de difusión. Además, una de la pluralidad de imágenes puede ser una de una pluralidad de imágenes almacenadas. Después, si la imagen en movimiento se proporciona, la unidad de control 140 puede proporcionar una imagen en movimiento que es diferente de la imagen en movimiento proporcionada de entre la pluralidad de imágenes en movimiento (por ejemplo, una señal de difusión de un canal diferente) en repuesta a un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301. Si se proporciona la imagen, la unidad de control 140 puede proporcionar una imagen que es diferente de la imagen proporcionada de entre la pluralidad de imágenes en respuesta a un movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento 1301.
A continuación se explicará con referencia desde la figura 80 hasta la figura 91 una pantalla que cambia en respuesta a un movimiento de usuario.
La figura 80 y la figura 81 son vistas que ilustran una pantalla que cambia en respuesta a un movimiento de usuario en una dirección hacia arriba, de acuerdo con diversas modalidades ejemplares.
En la figura 80, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección hacia arriba como un movimiento de usuario. Con referencia a 8010 y 8020 de la figura 80, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede detener el suministro de la señal de difusión en una pantalla y puede proporcionar una señal de difusión de un número de canal el cual se incrementa respecto al número de canal de la señal de difusión detenida en respuesta al movimiento de palmada en la dirección hacia arriba. Por ejemplo, una señal de difusión que cambia el número de canal "7" se cambia a una señal de difusión que tiene el número de canal "8". Con referencia a 8030 y 8040 de la figura 80, si la unidad de control 140 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en donde una de una pluralidad de páginas es representada a una pantalla en donde una página localizada debajo de una página de la pluralidad de páginas es representada en respuesta al movimiento de palmada en la dirección hacia arriba. Por ejemplo, la pantalla en donde la segunda página se representa como en 8030 se puede cambiar para la pantalla en donde la tercera página se representa, como en 8040.
En la figura 81, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección hacia arriba como un movimiento de usuario. Con referencia a 8110 y 8120 de la figura 81, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 detiene el suministro de la señal de difusión en una pantalla y puede proporcionar una señal de difusión un número de canal el cual se ha incrementado del número de canal de la señal de difusión detenida en respuesta al movimiento de palmada en la dirección hacia arriba. Con referencia a 8130 y 8140 de la figura 81, si la unidad de control 140 proporciona un contenido incluido en una página, la unidad de control 140 puede cambiar una parte de una página en la pantalla a otra parte localizada debajo de la parte de una página en respuesta al movimiento de palmada en la dirección hacia arriba .
La figura 82 y la figura 83 son vistas que ilustran una pantalla que cambia en respuesta a un movimiento de usuario en una dirección hacia abajo de acuerdo con diversas modalidades ejemplares.
En la figura 82, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección hacia abajo como un movimiento de usuario. Con referencia a 8210 a 8220 de la figura 82, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 detiene el suministro de la señal de difusión en una pantalla y puede proporcionar una señal de difusión a un número de canal el cual está disminuido del número de canal de la señal de difusión detenida en respuesta al movimiento de palmada en la dirección descendente. Por ejemplo, una señal de difusión que tiene el número de canal "8" se cambia a una señal de difusión que tiene número de canal "7". Con referencia a 8230 y 8240 de la figura 82, si la unidad de control 140 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en donde uno de la pluralidad de páginas es representada a una pantalla en donde una página localizada encima de una página de la pluralidad de páginas es representada en respuesta a un movimiento de palmada en la dirección descendente. Por ejemplo, la pantalla en donde la segunda página es representada, en 8230 se puede cambiar a una pantalla en donde la primera página es representada como en 8240.
La figura 83, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección descendente como un movimiento de usuario. Con referencia a 8310 y 8320 de la figura 83, si la unidad de control 140 puede proporcionar una señal de difusión, la unidad de control 140 detiene el suministro de la señal de difusión en una pantalla y puede proporcionar una señal de difusión un número de canal el cual está disminuido del número de canal de la señal de difusión detenido en respuesta al movimiento de palmada en la dirección descendente. Con referencia a 8330 y 8340, si la unidad de control 140 proporciona un contenido incluido en una página, la unidad de control 140 puede cambiar una parte de una página en la pantalla a otra parte localizada por encima de la parte de una página en respuesta al movimiento de palmada en la dirección descendente.
La figura 84 a la figura 87 son vistas que ilustran una pantalla que ha cambiado en respuesta a un movimiento de usuario en una dirección a la izquierda, de acuerdo con diversas modalidades ejemplares.
En la figura 84, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la izquierda como un movimiento de usuario. Con referencia a 8410 y 8420, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede reducir un nivel de volumen de la señal de difusión que se proporciona en respuesta al movimiento de palmada en la dirección a la izquierda. Por ejemplo, el nivel de volumen de la señal de difusión se puede reducir de "14" a "13". Con referencia a 8430 y 8440, si la unidad de control 120 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en donde una de la pluralidad de páginas es representada a una pantalla en donde una página localizada en la porción derecha de una página de la pluralidad de páginas es representada, en respuesta al movimiento de palmada en la dirección a la izquierda. Por ejemplo, la pantalla en donde la segunda página es representada como en 8430 se puede cambiar a la pantalla en donde la tercera página es representada como en 8440.
En la figura 85, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la izquierda como un movimiento de usuario. Con referencia a 8510 a 8520 de la figura 85, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede reducir un nivel de volumen de la señal de difusión que es proporcionada en respuesta a un movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8530 y 8540 de la figura 85, si la unidad de control 140 proporciona un contenido que incluye una página, la unidad de control 140 puede cambiar una pantalla en donde una parte de una página es representada a una pantalla en donde otra parte localizada en la porción derecha de la parte es representada, en respuesta al movimiento de palmada en la dirección a la izquierda.
En la figura 86, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la izquierda como un movimiento de usuario. Con referencia a 8610 y 8620 de la figura 86, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede reducir un nivel de volumen de la señal de difusión que se proporciona en respuesta a un movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8630 y 8640 de la figura 86, la unidad de control 140 puede cambiar una pantalla en donde un segundo contenido es representado a una pantalla en donde un tercer contenido, el cual se localiza después del segundo contenido, es representado en respuesta a un movimiento de palmada en la dirección a la izquierda.
En la figura 87, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la izquierda como un movimiento de usuario. Con referencia a 8710 y 8720 de la figura 87, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede reducir un nivel de volumen de la señal de difusión que se proporciona en respuesta a un movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8730 y 8740 de la figura 87, si la unidad de control 140 proporciona por lo menos contenido de una primer área 8731 y una segunda área 8735 en una pantalla, respectivamente, la unidad de control 140 puede retirar un contenido 8751 de la segunda área 8735 y en vez de esto puede representar un contenido diferente 8752 sobre la segunda área 8735 en respuesta al movimiento de palmada en la dirección a la izquierda.
En la figura 88, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la derecha como un movimiento de usuario. Con referencia a 8810 y 8820 de la figura 88, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede incrementar un nivel de volumen de la señal de difusión que se proporciona en respuesta a un movimiento de palmada en la dirección hacia la derecha. Por ejemplo, el nivel de volumen de la señal de difusión se puede incrementar de "14" a "15". Con referencia a 8830 a 8840 de la figura 88, si la unidad de control 140 proporciona un contenido que incluye una pluralidad de páginas, la unidad de control 140 puede cambiar una pantalla en donde uno de una pluralidad de páginas es representado a una pantalla en donde una página localizada en la porción izquierda de una página de la pluralidad de páginas es representado en respuesta al movimiento de palmada en la dirección a la derecha. Por ejemplo, la pantalla en donde la segunda página se representa como en 8830 se puede cambiar a la pantalla en donde la primera página es representada como en 8840.
En la figura 89, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la derecha como un movimiento de usuario. Con referencia a 8910 y 8920 de la figura 89, si la unidad de control proporciona una señal de difusión, la unidad de control 140 puede incrementar un nivel de volumen de la señal de difusión que se proporciona en respuesta a un movimiento de palmada en la dirección hacia la izquierda. Con referencia a 8930 y 8940 de la figura 89, si la unidad de control 140 proporciona un contenido que incluye una página, la unidad de control 140 puede cambiar una pantalla en donde una parte de una página es representada a una pantalla en donde otra parte localizada en la porción izquierda de la parte es representada en respuesta a un movimiento de palmada en la dirección a la derecha.
En la figura 90, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la derecha como un movimiento de usuario. Con referencia a 9010 a 9020 de la figura 90, si la unidad de control proporciona una señal de difusión, la unidad de control 140 puede incrementar un nivel de volumen de la señal de difusión que se proporciona en respuesta a un movimiento de palmada en la dirección hacia la derecha. Con referencia a 9030 y 9040 de la figura 90, si la unidad de control 140 proporciona un segundo contenido, la unidad de control 140 puede cambiar una pantalla en donde el segundo contenido se representa a una pantalla en donde un primer contenido, el cual se localiza antes que el segundo contenido, es representado en respuesta a un movimiento de palmada en la dirección a la derecha.
En la figura 91, la unidad de control 140 puede reconocer un movimiento de palmada en una dirección a la derecha como un movimiento de usuario. Con referencia a 9110 y 9120 de la figura 91, si la unidad de control 140 proporciona una señal de difusión, la unidad de control 140 puede incrementar un nivel de volumen de la señal de difusión que se proporciona en respuesta a un movimiento de palmada en la dirección a la derecha. Con referencia a 9130 y 9140 de la figura 91, si la unidad de control 140 proporciona por lo menos un contenido de una primer área 9131 y una segunda área 9135 en una pantalla, respectivamente, la unidad de control 140 puede retirar un contenido 9151 de la segunda área 9135 y en vez de esto puede representar un contenido diferente 9152 sobre la segunda área 9135 en respuesta al movimiento de palmada en la dirección a la derecha.
La figura 92 y la figura 93 son diagramas de flujo que ilustran un método de control de un aparato electrónico que cambia una pantalla en respuesta a un movimiento de usuario de acuerdo con diversas modalidades ejemplares.
Con referencia a la figura 92, el aparato electrónico 100 selecciona una señal de difusión de entre una pluralidad de señales de difusión en respuesta a un movimiento de usuario reconocido (S9212) . El movimiento de usuario reconocido puede ser introducido a través de la unidad de entrada de movimiento 120 y se puede reconocer por el módulo de reconocimiento de movimiento 1301. El aparato electrónico 100 proporciona la señal de difusión seleccionada (S9214) . La señal de difusión se puede proporcionar a la unidad de salida de imagen 190 o la unidad de representación 193. Después, en caso de que el aparato electrónico 100 deje de suministrar la señal de difusión seleccionada y proporcione un contenido almacenado (S9216) el aparato electrónico 100 puede volver a reconocer el movimiento de un usuario que tiene sustancialmente la misma forma que el del movimiento de usuario reconocido (S9218) . El contenido almacenado puede ser un contenido que sea almacenado en la unidad de almacenamiento 130 o que se recibe desde la unidad de entrada de terminal externa 160 o la interconexión de red 180. El movimiento de usuario reconocido puede ser introducido a través de la unidad de entrada de movimiento 120 y puede ser reconocido por el módulo de reconocimiento de movimiento 1301. En respuesta al movimiento de usuario reconocido nuevamente, el aparato electrónico 100 puede cambiar por lo menos parte de una pantalla en donde se representa el contenido proporcionado (S9220) .
Con referencia a la figura 93, el aparato electrónico 100 proporciona una de una señal de difusión de entre una pluralidad de señales de difusión y un contenido almacenado (S9312) . El aparato electrónico 100 reconoce un movimiento de usuario a través del módulo de reconocimiento de movimiento 1301 (S9314) . El aparato electrónico 100 puede determinar si la señal proporcionada es una señal de difusión o un contenido en respuesta a un movimiento de usuario (S9316) . Si se proporciona la señal de difusión, el aparato electrónico 100 puede controlar el nivel de volumen de la señal de difusión o proporcionar otra señal de difusión de entre la pluralidad de señales de difusión (S9318) . Si se proporciona el contenido, el aparato electrónico 100 cambia por lo menos parte de una pantalla en donde se representa el contenido proporcionado (S9320) .
Como se describe en lo anterior, el usuario puede controlar el aparato electrónico 100 de manera más eficiente e intuitiva utilizando el movimiento de usuario.
La unidad de control 140 controla al aparato electrónico 100 de acuerdo con una señal de control remoto recibida desde la unidad receptora de señal de control remoto 170, una entrada de voz de usuario a través de la unidad de entrada de voz 110 y una entrada de movimiento de usuario a través de la unidad de entrada de movimiento 120. El controlador remoto mencionado en la presente puede ser un controlador remoto general, pero no debe considerarse como limitante. El controlador remoto puede ser un controlador remoto que incluye una almohadilla táctil.
Específicamente, si se reconoce una instrucción de inicio de voz introducida a través de la unidad de entrada de voz 110 en un modo de control remoto en el cual el aparato electrónico 100 es controlado de acuerdo con una señal de control remoto recibida en la unidad de recepción de señal de control remoto 170, la unidad de control 140 cambia un modo a un modo de tarea de voz para realizar una tarea de voz que es controlada por una voz de un usuario introducida a través de la unidad de entrada de voz 110.
Si se cambia el modo a modo de tarea de voz, la unidad de control 140 puede controlar la unidad de representación 193 para representar un icono que indica que el modo del aparato electrónico 100 es el modo de tarea de voz y la información de asistencia de voz que incluye un inciso de voz que guía a una tarea de voz.
Si se selecciona un primer botón de entre los botones sobre el controlador remoto para cambiar al modo de control remoto en el modo de tarea de voz, la unidad de recepción de señal de control remoto 170 recibe una primera señal de control remoto que corresponde al primer botón. La unidad de control 140 cambia el modo del aparato electrónico 100 al modo de control remoto en el cual el aparato electrónico 100 es controlado por el controlador remoto, en respuesta a la primera señal de control remoto. El primer botón puede ser un botón de cambio de modo de control remoto para cambiar el modo a un modo de control remoto. No obstante, este es solo un ejemplo y el primer botón puede ser un cierto botón de entre los botones en el control remoto. Si el primer botón es cierto botón, la unidad de control 140 cambia el modo al modo de control remoto cuando recibe la primera señal de control remoto que corresponde al primer botón y después realiza una tarea que corresponde al primer botón. Por ejemplo, si el primer botón es un botón de enmudecimiento, la unidad de control 140 cambia el modo del modo de tarea de voz al modo de control remoto y después realiza enmudecimiento.
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 en el modo de tarea de voz, la unidad de control 140 reconoce la instrucción de inicio de movimiento utilizando el módulo de reconocimiento de movimiento 1301. Si se reconoce la instrucción de inicio de movimiento, la unidad de control 140 cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento en el cual el aparato electrónico 100 es controlado por una entrada de movimiento de usuario a través de la unidad de entrada de movimiento 120.
Si la instrucción de inicio de movimiento introducida a través de la unidad de entrada de movimiento 120 es reconocida en el modo de control remoto, en el cual el aparato electrónico 100 es controlado de acuerdo con una señal de control remoto recibida en la unidad de recepción de señal de control remoto 170, la unidad de control 140 cambia el modo al modo de tarea de movimiento para realizar la tarea de movimiento que es controlada por un movimiento de usuario introducido a través de la unidad de entrada de movimiento 120.
Si el modo se cambia al modo de tarea de movimiento, la unidad de control 140 puede controlar a la unidad de representación 193 para que represente un icono indicando que el modo del aparato electrónico 100 está en el modo de tarea de movimiento, e información de asistencia de movimiento indicando un inciso de movimiento que guía a una tarea de movimiento.
Si se selecciona un primer botón de entre los' botones en el controlador remoto para cambiar al modo de control remoto en el modo de tarea de movimiento, la unidad de recepción de señal de control remoto 170 recibe una primera señal de control remoto que corresponde al primer botón. La unidad de control 140 cambia el modo del aparato electrónico 100 al modo de control remoto en el cual el aparato electrónico 100 es controlado por el controlador remoto en respuesta a la primera señal de control remoto. El primer botón puede ser un botón de cambio de modo de control remoto para cambiar a modo de control remoto. No obstante, este es solamente un ejemplo y el primer botón puede ser cierto botón de entre los botones en el controlador remoto. Si el primer botón es cierto botón, la unidad de control 140 cambia el modo a un modo de control remoto cuando recibe la primera señal de control remoto que corresponde al primer botón, y después realiza una tarea que corresponde al primer botón. Por ejemplo, si el primer botón es un botón de enmudecimiento, la unidad de control 140 cambia el modo del aparato electrónico 100 del modo de tarea de voz al modo de control remoto y realiza el enmudecimiento.
Si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110 en el modo de tarea de movimiento, la unidad de control 140 reconoce la instrucción de inicio de voz utilizando el módulo de reconocimiento de voz 130k. Si la instrucción de inicio de voz se reconoce, la unidad de control 140 puede cambiar el modo del aparato electrónico 100 al modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz 110.
En lo siguiente se explicará un método para cambiar a un modo de control remoto, un modo de tarea de movimiento y un modo de tarea de voz de acuerdo con una modalidad ejemplar, con referencia desde la figura 94 hasta la figura 97.
Específicamente, después de que se enciende el aparato electrónico 100, la unidad de control 140 generalmente es operada en un modo de control remoto en el cual el aparato electrónico 100 es controlado por una señal de control remoto. En el modo de control remoto, una UI separada no se representa, como se muestra en la figura 94. No obstante, este es solo un ejemplo y la unidad de control 140 puede representar una UI indicando el modo de control remoto en el modo de control remoto.
Si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110 en el modo de control remoto, la unidad de control 140 reconoce la instrucción de inicio de voz y cambia el modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110. Cuando se cambia a un modo de tarea de voz, la unidad de control 140 puede representar información de asistencia de voz como se muestra en la figura 95.
Si se selecciona un primer botón en un controlador remoto en el modo de tarea de voz, la unidad de control 110 recibe una primera señal de control remoto que corresponde al primer botón a través de la unidad de recepción de señal de control remoto 170 y cambia el modo del aparato electrónico 100 al modo de control remoto nuevamente, como se muestra en la figura 94. El primer botón en el controlador remoto puede ser un botón de cambio de modo de control remoto. No obstante, este es solo un ejemplo y el primer botón puede ser cierto botón en el controlador remoto.
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 en el modo de tarea de voz, la unidad de control 140 reconoce la instrucción de inicio de movimiento y cambia el modo del aparato electrónico 100 a un modo de tarea de movimiento, en el cual el aparato electrónico 100 es controlado de acuerdo con una entrada de movimiento de usuario a través de la unidad de entrada de movimiento 120. Cuando se cambia al modo de tarea de movimiento, la unidad de control 140 puede representar información de asistencia de movimiento 3310, como se muestra en la figura 96.
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 en el modo de control remoto, la unidad de control 140 reconoce la instrucción de inicio de movimiento y cambia el modo del aparato electrónico 100 al modo de tarea de movimiento en el cual el aparato electrónico 100 es controlado de acuerdo con una entrada de movimiento de usuario a través de la unidad de entrada de movimiento 120. Cuando se cambia al modo de tarea de movimiento, la unidad de control 140 puede representar la información de asistencia de movimiento 3310, como se muestra en la figura 96.
Si se selecciona un primer botón en el controlador remoto en el modo de tarea de movimiento, la unidad de control 140 recibe una primera señal de control remoto que corresponde al primer botón a través de la unidad receptora de señal de control remoto 170 y cambia el modo del aparato electrónico 100 al modo de control remoto nuevamente, como se muestra en la figura 94. El primer botón en el controlador remoto puede ser un botón de cambio de modo de control remoto. No obstante, este es solo un ejemplo y el primer botón puede ser cierto botón en el controlador remoto.
Si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110 en el modo de tarea de movimiento, la unidad de control 140 reconoce la instrucción de inicio de voz y cambia el modo del aparato electrónico 100 al modo de tarea de voz en el cual el aparato electrónico es controlado de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110.
Cuando se cambia al modo de tarea de voz, la unidad de control 140 puede representar información de asistencia de voz, como se muestra en la figura 95.
Como se describe en lo anterior, el aparato electrónico 100 se puede cambiar al modo de control remoto, el modo de tarea de voz y el modo de tarea de movimiento utilizando la señal de control remoto, la instrucción de inicio de voz y la instrucción de inicio de movimiento, respectivamente .
La figura 97 es un diagrama de flujo para explicar un método para cambiar a un modo de control remoto, un modo de tarea de movimiento y un modo de tarea de voz, de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 se enciende y después se introduce un modo de control remoto en el cual el aparato electrónico 100 se controla por un controlador remoto (S9710) .
El aparato electrónico 100 permanece en el modo de control remoto (S9710) a menos que se introduzca una instrucción de inicio de voz o una instrucción de inicio de movimiento.
El aparato electrónico 100 determina si se introduce o no una instrucción de inicio de voz (S9720) . Si se introduce una instrucción de inicio de voz (S9720-Y) , el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110 (S9730) . Cuando entra en el modo de tarea de voz, el aparato electrónico 100 puede representar información de asistencia de voz, como se muestra en la figura 95.
El aparato electrónico 100 determina si se introduce una instrucción de inicio de movimiento (S9740) . Si se introduce una instrucción de inicio de movimiento en el modo de tarea de voz (S9740-Y) , el aparato electrónico 100 cambia en modo del aparato electrónico 100 a un modo de tarea de movimiento en el cual el aparato electrónico 100 es controlado de acuerdo con un movimiento de usuario introducido a través de la unidad de entrada de movimiento 120 (S9750) .
Si el aparato electrónico 100 está ya sea en el modo de tarea de voz o en el modo de tarea de movimiento, la unidad de control 140 determina o no el retorno al modo de control remoto (S9760) . Como se describe en lo anterior, la unidad de control 140 puede regresar al modo de control remoto si se reconoce una instrucción de inicio para regresar al modo de control remoto a una instrucción de cancelación de modo. Además, si el aparato electrónico 100 está en un modo de tarea de voz, la unidad de control 140 puede regresar automáticamente al modo de control remoto si no se reconoce una voz durante un tiempo predeterminado (por ejemplo, 5 minutos) . De modo similar, si el aparato electrónico 100 está en el modo de tarea de movimiento, la unidad de control 140 puede regresar automáticamente al modo de control remoto si no se reconoce el movimiento durante un tiempo predeterminado (por ejemplo, 5 minutos) .
Como se muestra en la figura 97, el aparato electrónico 100 opera en el modo de control remoto (S9710) , el modo de tarea de voz (S9730) y el modo de tarea de movimiento (S9750) . En la totalidad de los tres modos, la unidad de control 140 determina si se conmuta al modo de tarea de voz (S9720-Y) , si se conmuta al modo de tarea de movimiento (S9740-Y) , si se conmuta al modo de control remoto (S9760-Y) o si se permanece en el modo actual (S9720-N, S9740-N, S9760-N) . Aunque se ha descrito el método en la figura 97, este es solo un ejemplo y la idea técnica de la presente descripción se puede aplicar a cualquier método para cambiar desde/hacia el modo de control remoto, el modo de tarea de voz y el modo de tarea de movimiento.
Como se describe en lo anterior, el modo del aparato electrónico se cambia al modo de control remoto, el modo de tarea de voz y el modo de tarea de movimiento de manera que el usuario puede controlar el aparato electrónico 100 de acuerdo con un modo deseado por el usuario.
La unidad de control 140 puede controlar el aparato electrónico 100 a través de reconocimiento de voz utilizando un dispositivo móvil externo.
Específicamente, si una voz de usuario es introducida a través de un micrófono incluido en un dispositivo móvil externo, la unidad de control 140 recibe la entrada de la voz de usuario a través de la unidad de entrada de voz 110, reconoce la voz de usuario introducida y realiza una tarea de voz del aparato electrónico 100 de acuerdo con la voz de usuario reconocida. El dispositivo móvil puede ser, pero no se limita a un controlador remoto, un teléfono móvil, un asistente digital personal (PDA, por sus siglas en inglés) y una computadora portátil. La unidad de entrada de voz 110 puede ser una unidad de comunicación para recibir una señal de voz de usuario desde el dispositivo móvil externo.
Una aplicación para reconocimiento de voz se ejecuta en el dispositivo móvil externo y se introduce una voz de usuario. Si el dispositivo móvil reconoce la voz de usuario, genera una señal de control que corresponde a la voz de usuario y después transmite la señal de control al aparato electrónico 100, la unidad de control 140 puede realizar una tarea de voz del aparato electrónico 100 de acuerdo con la señal de control introducida desde el dispositivo móvil.
Si se ejecuta una aplicación para reconocimiento de voz en el dispositivo móvil introduce una entrada de voz de usuario al micrófono incluido en el dispositivo móvil, la unidad de control 140 reconoce la voz de usuario introducida y realiza una tarea de voz del aparato electrónico 100 de acuerdo con la voz de usuario.
Si se selecciona un primer botón incluido en el dispositivo móvil después de que se ha ejecutado el reconocimiento de voz en el dispositivo móvil, la unidad de control 140 recibe una primera señal que corresponde al primer botón a través de una unidad de comunicación (no mostrada) y cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a la primera señal. El modo de tarea de voz se carga al seleccionar el primer botón incluido en el dispositivo móvil que es un modo en el cual se realiza la tarea de voz de acuerdo con una voz de usuario introducida desde el micrófono incluido en el dispositivo móvil. El modo de tarea de voz se cambia al seleccionar el primer botón incluido en el dispositivo móvil que puede ser liberado si uno del primer botón y el segundo botón en el dispositivo móvil es seleccionado. El primer botón y el segundo botón pueden ser un botón físico incluido en el dispositivo móvil. No obstante, este es solo un ejemplo y el primer botón y el segundo botón pueden ser una UI que es representada sobre el dispositivo móvil después de que se ha ejecutado la aplicación para reconocimiento de voz.
La unidad de control 140 puede recibir la entrada de una voz de usuario desde el dispositivo móvil mientras que el segundo botón en el dispositivo móvil se selecciona en el modo de tarea de voz. La unidad de control 140 puede representar una UI indicando que una voz de usuario puede ser introducida en el dispositivo móvil mientras que el segundo botón en el dispositivo móvil se selecciona. En consecuencia, el usuario puede saber que es posible introducir una voz a través de la UI representada en el dispositivo móvil.
Si se introduce una voz de usuario al dispositivo móvil, la unidad de control 140 no recibe una voz de usuario a través de un micrófono incluido en el aparato electrónico 100.
El micrófono incluido en el dispositivo móvil se puede utilizar cuando el dispositivo móvil realice una llamada telefónica. Esto es, si el dispositivo móvil realiza una función de llamada telefónica general, el micrófono recibe la entrada de una voz para una llamada de teléfono del usuario. Si el dispositivo móvil ejecuta una aplicación para reconocimiento de voz, el dispositivo móvil puede recibir la entrada de una voz para controlar el aparato electrónico 100 del usuario.
La figura 98 es un diagrama de flujo para explicar un método para reconocer una voz de usuario utilizando un dispositivo móvil externo de acuerdo con una modalidad ejemplar.
El dispositivo móvil ejecuta una aplicación para entrada de voz (S9810) . El dispositivo móvil puede ser un teléfono móvil.
Después de que se ha ejecutado la aplicación para la entrada de voz en el dispositivo móvil, el dispositivo móvil recibe la entrada de una voz de usuario a través de un micrófono incluido en el dispositivo móvil (S9820) . El micrófono incluido en el dispositivo móvil puede ser un micrófono para realizar una llamada telefónica.
El aparato electrónico 100 recibe la entrada de voz de usuario al dispositivo móvil externo desde el dispositivo móvil (9830) .
Si se recibe la voz de usuario desde el dispositivo móvil, el aparato electrónico 100 reconoce la voz de usuario utilizando el módulo de reconocimiento de voz 130k (S9840) .
El aparato electrónico 100 realiza una tarea de voz de acuerdo con la voz de usuario reconocida utilizando la base de datos de voz (S9850) .
En la modalidad ejemplar anterior, el dispositivo móvil recibe la entrada de la voz de usuario y transmite la voz de usuario al aparato electrónico 100. No obstante, este es solo un ejemplo y el dispositivo móvil puede reconocer directamente la voz de usuario, puede generar una señal de control que corresponde a la voz de usuario y después puede transmitir la señal de control al aparato electrónico 100.
Como se describe en lo anterior, la tarea de voz del aparato electrónico 100 se realiza utilizando el dispositivo móvil tal como un teléfono móvil de manera que el usuario puede controlar el aparato electrónico con mayor facilidad utilizando reconocimiento de voz.
De acuerdo con una modalidad ejemplar, el modo de tarea de movimiento puede ser uno de un modo de movimiento y un modo de apuntar, de acuerdo a si se necesita un puntero para realizar una tarea. Específicamente, el modo de movimiento es un modo en el cual una tarea para cambiar los ajustes del aparato electrónico 100 es controlado de acuerdo con un movimiento preestablecido (por ejemplo, un movimiento de palmada en una dirección hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, un movimiento de agarre o un movimiento de rotación en una dirección contraria al sentido de las manecillas del reloj) . Por ejemplo, si se introduce una instrucción de inicio de movimiento mientras el aparato electrónico 100 realiza una función de recepción de difusión, la unidad de control 140 puede cambiar un modo del aparato electrónico 100 al modo de movimiento. En consecuencia, el aparato electrónico 100 puede realizar una tarea tal como control de volumen o cambio de canal en respuesta a un movimiento de usuario que coincida con el movimiento preestablecido.
El modo de puntero es un modo en el cual se utiliza un puntero para realizar una tarea. Por ejemplo, si se introduce una instrucción de inicio de movimiento cuando el aparato electrónico 100 representa uno de listas que incluyen una pluralidad de incisos seleccionables (por ejemplo, una lista de contenido, una lista de canal, una guía de programa electrónico o EPG y una página de la red) , la unidad 140 de control puede cambiar un modo del aparato electrónico 100 al modo de puntero. En el modo de puntero, la unidad de control 140 representa un puntero en el centro de la pantalla de representación. El puntero se puede representar en una posición superior del centro de la pantalla de representación debido a la presencia de información de asistencia de movimiento .
En lo siguiente se explicará con mayor detalle el modo de puntero .
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 mientras el aparato electrónico 100 representa uno de una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar aplicaciones (por ejemplo, un cubo inteligente) y una página de la red, la unidad de control cambia un modo del aparato electrónico 100 a un modo de puntero y representa un puntero en el centro de la pantalla de representación.
En el modo de puntero, el aparato electrónico 100 puede representar información de asistencia de movimiento para realizar una tarea de movimiento sobre una porción inferior de la pantalla de representación. La información de asistencia de movimiento representada puede ser diferente de la información de asistencia de movimiento del modo de movimiento .
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 mientras el aparato electrónico 100 representa una lista de contenido, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de puntero. En el modo de puntero, si el puntero se localiza en un primer icono ejecutable de la lista de contenido de acuerdo con un movimiento de usuario introducido a la unidad de entrada de movimiento 120, la unidad de control 140 representa el primer icono ejecutable de modo distintivo de otros iconos ejecutables. Si se introduce una instrucción para finalizar una pantalla de la lista de contenido en el modo de puntero, la unidad de control 140 puede remover no solo la lista de contenido sino también el puntero de la pantalla de representación.
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 mientras el aparato electrónico 100 representa una página de la red, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de puntero. La página de la red puede incluir una pluralidad de hiperenlaces . En el modo de puntero, si el puntero se localiza en un primer hiperenlace de la página de la red de acuerdo con el movimiento de usuario introducido a través de la unidad de entrada de movimiento 120, la unidad de control 140 representa el primer hiperenlace de modo distintivo de otros hiperenlaces. Si el puntero se localiza en el primer hiperenlace y se introduce un primer movimiento de usuario (por ejemplo, un movimiento de agarre) a través de la unidad de entrada de movimiento 120, la unidad de control 140 ejecuta el primer hiperenlace.
En lo siguiente se explicará con mayor detalle el modo de puntero, con referencia desde la figura 99 a la figura 103.
Si una lista de contenido que incluye iconos ejecutables para ejecutar aplicaciones se representa como se muestra en la figura 99 y se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120, la unidad de control 140 puede representar información de asistencia de movimiento y un puntero 10010, como se muestra en la figura 100. El puntero 10010 se puede representar en el centro de una pantalla de representación.
Si se introduce un movimiento de movimiento en la dirección hacia la izquierda y hacia abajo a través de la unidad de entrada de movimiento 120 para colocar el puntero 10010 en el icono ejecutable 11APP2 " la unidad de control 140 coloca el puntero 10010 en el icono ejecutable "APP2 " . Si el puntero 10010 se localiza en el icono ejecutable "APP2", la unidad de control 140 resalta el icono ejecutable "APP2" y el nombre del icono ejecutable más grueso que los otros iconos, como se muestra en la figura 101.
Si el puntero 10010 se localiza en el icono ejecutable "APP2 " y se introduce un primer movimiento de usuario (por ejemplo, un movimiento de agarre) a través de la unidad de entrada de movimiento 120, la unidad de control 120 ejecuta un icono "APP2", como se muestra en la figura 102.
Si la lista de contenido es representada y la instrucción de liberación de lista de contenido (por ejemplo, un movimiento de rotación en una dirección contraria al sentido de las manecillas del reloj o un botón de un controlador remoto) se introduce desde el usuario, como se muestra en la figura 100, la unidad de control 140 remueve la lista de contenido y el puntero de la pantalla de representación y representa una pantalla de recepción de difusión, como se muestra en la figura 103.
Aunque la lista de contenido se representa en la modalidad ejemplar anterior, la idea técnica de la presente descripción se puede aplicar si se representa una página de red que incluye una pluralidad de hiperenlaces .
La figura 104 es un diagrama de flujo para explicar un método para proporcionar un modo de puntero de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 representa uno de una lista de contenido y una página de red (S10410) . La lista de contenido puede incluir una pluralidad de iconos ejecutables para ejecutar aplicaciones y la página de la red puede incluir una pluralidad de hiperenlaces .
El aparato electrónico 100 determina si se introduce o no una instrucción de inicio de movimiento (S10420) .
Si se introduce una instrucción de inicio de movimiento (S10420-Y) , el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de puntero (S10430) . El modo de puntero es un modo para realizar una tarea que requiere un puntero (por ejemplo, ejecutar una aplicación y navegar en una página de la red) .
Si el modo se cambia al modo de puntero, el aparato electrónico 100 representa un puntero sobre la pantalla de representación (S10440) . El puntero puede ser representado en el centro de la pantalla de representación.
Como se describe en lo anterior, el aparato electrónico 100 se cambia al modo de puntero para realizar una tarea que requiere un puntero de manera que el usuario pueda controlar el aparato electrónico 100 con mayor facilidad .
Si se introduce un primer movimiento a través de la unidad de entrada de movimiento 120 en el modo de puntero, la unidad de control 140 mueve un puntero en una dirección que corresponde al primer movimiento y, si se introduce un segundo movimiento a través de la unidad de entrada de movimiento 120, la unidad de control 140 realiza una tarea de movimiento que corresponde al segundo movimiento.
Si se introduce el segundo movimiento cuando el puntero se localiza en un primer icono ejecutable de la lista de contenido o en un primer hiperenlace de la página de red, la unidad de control 140 puede dejar de resaltar el primer icono ejecutable y el primer hiperenlace en el cual se localiza el puntero.
El segundo movimiento puede ser un movimiento que se preestablece para realizar un modo de movimiento del aparato electrónico 100 y puede ser uno de un movimiento de palmada en una dirección hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, un movimiento de agarre y un movimiento de rotación en una dirección contraria al movimiento de las manecillas del reloj .
Por ejemplo, si el segundo movimiento es un movimiento de palmada en una dirección hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, la unidad de control 140 puede mover la pantalla de representación de acuerdo con el movimiento de palmada en la dirección hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha. Después de mover la pantalla, la unidad de control 140 puede representar el puntero en una ubicación previa nuevamente.
Además, si el segundo movimiento es un movimiento de agarre, la unidad de control 140 puede ejecutar el primer icono ejecutable en el cual se localiza el puntero. Después de ejecutar el primer icono ejecutable, la unidad de control 140 puede representar el puntero en el lugar previo nuevamente .
Además, si el segundo movimiento es un movimiento de rotación en una dirección contraria al sentido de las manecillas del reloj, la unidad de control 140 puede representar un programa de difusión de un canal sintonizado actualmente sobre la pantalla de representación. Esto es, la unidad de control 140 puede retirar la lista de contenido o la página de la red de la pantalla de representación y proporcionar una función de recepción de difusión. En este momento, puesto que la función de recepción de difusión no requiere un puntero, no se representa al puntero.
Aunque el puntero no se representa en el ejemplo anterior, este es solo un ejemplo. El puntero se puede mantener en la ubicación en donde se ha representado al puntero.
En lo siguiente se explicará con detalle un caso en el cual el movimiento preestablecido se introduce en un modo de puntero, con referencia desde la figura 105 hasta la figura 107.
Si se cambia un modo del aparato electrónico 100 a un modo de puntero, como se muestra en la figura 100, la unidad de control 140 representa un puntero 10510 en el centro de la pantalla de representación, como se muestra en la figura 105.
Si se introduce un movimiento de palmada en una dirección a la derecha a través de la unidad de entrada de movimiento 120 en el estado en donde el puntero se representa sobre la pantalla de representación, la unidad de control 140 retira el puntero 10510 de la pantalla de representación y cambia una pantalla de un área de representación de aplicación 1520 de una pantalla a otra área de representación de aplicación 10530, como se muestra en la figura 106.
Después de mover el área de representación de aplicación 10520, la unidad de control 140 representa el puntero 10510 nuevamente como se muestra en la figura 107.
La figura 108 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 si se introduce un movimiento preestablecido en un modo de puntero, de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 representa uno de una lista de contenido y una página de la red (S10810) . La lista de contenido puede incluir una pluralidad de iconos ejecutables para ejecutar aplicaciones y la página de la red puede incluir una pluralidad de hiperenlaces .
El aparato electrónico 100 determina si una instrucción de inicio de movimiento se introduce o no (S10820) .
Si se introduce una instrucción de inicio de movimiento (S10820-Y) , el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de puntero (S10830) . El modo de puntero es un modo para realizar una tarea que requiere un puntero (por ejemplo, ejecutar una aplicación y navegar en una página de la red) .
Si se cambia el modo a un modo de puntero, el aparato electrónico 100 representa un puntero sobre la pantalla de representación (S10840) . El puntero se puede localizar en el centro de la pantalla de representación.
Si se introduce un movimiento establecido previamente a través de la unidad de entrada de movimiento 120 en el estado en donde el puntero se representa (S10850-Y) , el aparato electrónico 100 quita el puntero y realiza una tarea de movimiento que corresponde al movimiento preestablecido (S10860) . El movimiento preestablecido es un movimiento que es preestablecido en un modo de movimiento y puede ser un movimiento de palmada en una dirección hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha, un movimiento de agarre o un modo de rotación en una dirección contraria al sentido de las manecillas del relo .
El aparato electrónico 100 es controlado como se describe en lo anterior de manera que el usuario puede realizar la tarea de acuerdo con un movimiento preestablecido incluso en el modo de puntero.
La unidad de control 140 puede representar un inciso seleccionado distintivamente de otros incisos de acuerdo con un modo del aparato electrónico 100.
Específicamente, la unidad de control 140 controla a la unidad de representación 193 para representar una pluralidad de incisos seleccionables . El inciso seleccionable puede ser un icono ejecutable de una lista de contenido o un hiperenlace de una página de red.
Si uno de una voz de usuario y un movimiento de usuario se introduce a través de uno de la unidad de entrada de voz 110 y la unidad de entrada de movimiento 120, la unidad de control 140 selecciona un primer inciso de entre la pluralidad de incisos de acuerdo con la entrada del usuario. La unidad de control 140 puede representar el primer inciso seleccionado de modo distintivo de los otros incisos. Por ejemplo, la unidad de control 140 puede resaltar el primer inciso seleccionado más grueso que los otros incisos.
Si un nombre del primer inciso tiene un número de caracteres el cual excede un número preestablecido y un modo del aparato electrónico 100 es un modo de tarea de movimiento cuando el primer inciso se representa de modo distintivo de los otros incisos, la unidad de control 140 puede representar el nombre completo del primer inciso. Por ejemplo, el nombre completo del icono ejecutable seleccionado "tambores sorprendentes" se representa, como se muestra en la figura 109. La unidad de control 140 puede representar el nombre completo del primer inciso en un método de recorrido. En el ejemplo anterior, el nombre completo del inciso se representa en el modo de tarea de movimiento. No obstante, este es simplemente un ejemplo y el nombre completo del inciso se puede representar incluso en un modo de control remoto.
Por otra parte, si un nombre del primer inciso tiene un número de caracteres el cual excede un número preestablecido y un modo del aparato electrónico 100 es un modo de tarea de voz, la unidad de control 140 puede representar únicamente una parte del nombre del primer inciso. La parte del nombre del primer inciso es fija. Por ejemplo, únicamente una parte del nombre del icono ejecutable seleccionado, "tambor sorprendente" se representa, como se muestra en la figura 110.
Si únicamente una parte del nombre del primer inciso se representa en el modo de tarea de voz y una voz de usuario introducida a través de la unidad de entrada de voz 110 concuerda con la parte representada del nombre, la unidad de control 140 ejecuta el primer inciso.
Si no hay espacio en una parte del nombre del primer inciso representado y una voz de usuario que corresponde a una pluralidad de pronunciaciones del nombre del primer inciso representado se introducen a través de la unidad de entrada de voz 110, la unidad de control 140 ejecuta el primer inciso, por ejemplo, si el nombre del primer inciso representado es "hombre" y se introducen en secuencia las palabras "m" , "a" y "n" en secuencia, la unidad de control 140 ejecuta el primer inciso.
Si un modo del aparato electrónico 100 es un modo de tarea de voz y una pluralidad de incisos que tienen nombres los cuales concuerdan con la voz de usuario introducida a través de la unidad de entrada de voz 110 se incluyen entre los nombres de los incisos representados, la unidad de control 140 puede representar una lista de un grupo candidato que incluye una pluralidad de incisos. Si la lista del grupo candidato es representada, la unidad de control 140 puede representar los nombres completos de los incisos de manera que el usuario puede distinguir claramente los incisos.
La figura 111 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 el cual representa incisos de modo diferente, de acuerdo con un modo, de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 representa una pluralidad de incisos seleccionables (S11110) . La pluralidad de incisos pueden ser iconos ejecutables incluidos en una lista de contenido para ejecutar aplicaciones o hiperenlaces incluidos en una página de la red.
El aparato electrónico 100 recibe la entrada de uno de una voz de usuario y un movimiento de usuario a través de uno de la unidad de entrada de movimiento 110 y la unidad de entrada de movimiento 120 (S11120) .
El aparato electrónico 100 selecciona un primer inciso de acuerdo con una entrada de usuario (S11130) . Por ejemplo, en un modo de tarea de voz, el aparato electrónico 100 puede seleccionar el primer inciso de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110 y, en un modo de tarea de movimiento, el aparato electrónico 100 puede seleccionar el primer inciso de acuerdo con un movimiento de usuario introducido a través de la unidad de entrada de movimiento 120. En un modo de control remoto, el aparato electrónico 100 puede seleccionar el primer inciso de acuerdo con una señal de control remoto introducida a través de la unidad de recepción de señal de control remoto 170.
Si se selecciona el primer inciso, el aparato electrónico 100 representa el primer inciso seleccionado de modo distintivo de los otros incisos (S11140) . Por ejemplo, el aparato electrónico 100 puede resaltar el primer inciso seleccionado más grueso que los otros incisos.
Si un nombre del primer inciso tiene un número de caracteres que excede un número preestablecido y un modo del aparato electrónico 100 es del modo de tarea de movimiento (o el modo de control remoto) cuando el primer inciso es representado de modo distintivo de los otros incisos, el aparato electrónico 100 puede representar el nombre completo del primer inciso. Por ejemplo, como se muestra en la figura 109, el nombre completo de un icono ejecutable seleccionado, "tambores sorprendentes" se presenta. Además, el aparato electrónico 100 puede representar el nombre completo del primer inciso en un método de recorrido.
Por otra parte, si un nombre del primer inciso tiene un número de caracteres el cual excede un número preestablecido y el modo del aparato electrónico 100 es el modo de tarea de voz, el aparato electrónico 100 puede representar únicamente una parte del nombre del primer inciso. La parte del nombre del primer inciso está fija. Por ejemplo, solo una parte ("sorprendente") del nombre del icono ejecutable, "tambores sorprendentes" se representa, como se muestra en la figura 110.
Como se describe en lo anterior, únicamente la parte del nombre del inciso es representada en el modo de tarea de voz de manera que el usuario puede ejecutar el primer inciso al pronunciar únicamente la parte del nombre.
La unidad de control 140 representa información de asistencia de voz que incluye una pluralidad de incisos de voz en el modo de tarea de voz. Información de asistencia de voz incluye un icono que indica que el modo del aparato electrónico 100 es el modo de tarea de voz y el icono indica que el modo de tarea de voz pueda localizarse en el centro de la información de asistencia de voz.
Si la información de asistencia de voz es representada y una voz de usuario que corresponde a uno de la pluralidad de incisos de voz se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 representa un mensaje de guía para realizar una tarea de voz sobre una primer área de la información de asistencia de voz y representa el inciso de voz sobre una segunda área de la información de asistencia de voz. La primer área puede ser el área a la izquierda del icono y la segunda área puede ser un área a la derecha del icono. Una propiedad de salida del mensaje de guías puede ser diferente de una propiedad de salida del inciso de voz. La propiedad de salida puede incluir por lo menos uno de tamaño, croma, brillantez y color de caracteres.
Si la voz de usuario es una instrucción para cambiar un canal, la unidad de control 140 puede representar un mensaje de guía para cambio de guía de un canal en la primer área y puede representar un inciso de voz que corresponda a un ejemplo de una instrucción pronunciable para cambiar un canal y un inciso de voz que corresponda a la cancelación de cambio de un canal sobre la segunda área.
Si la voz de usuario es una instrucción para interrumpir el suministro de energía, la unidad de control 140 puede representar un mensaje de guía para confirmar el apagado sobre la primer área, y puede representar un inciso de voz que corresponda a una instrucción respecto a si se apaga o no, sobre la segunda área.
A continuación se explicará la representación de información de asistencia de voz con referencia desde la figura 112 a la figura 114.
Si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110. La unidad de control 140 representa información de asistencia de voz, como se muestra en la figura 112.
La información de asistencia de voz puede representar un icono 820 que indica que el modo actual del aparato electrónico 100 es el modo de tarea de voz. La información de asistencia de voz puede representar un inciso de voz de apagado 811, un inciso de voz de canal 812, un inciso de voz enmudecido 813 y un inciso de voz de entrada externa 814 en el área izquierda del icono 820 y puede representar un inciso de voz de cubo inteligente 815, un inciso de voz de aplicación 816, un inciso de voz de búsqueda 817 y un inciso de voz completo 818 en el área derecha del icono 820.
Si la información de asistencia de voz es representada y se introduce una instrucción "canal", que corresponde al inciso de voz de canal 812 a través de la unidad de entrada de voz 110, la unidad de control 140 cambia la información de asistencia de voz, como se muestra en la figura 113. La unidad de control 140 representa un mensaje de guía que tiene una primera croma en el área izquierda del icono 820 en la información de asistencia de voz para realizar una tarea de voz. Por ejemplo, como se muestra en la figura 113, "por favor mencione el nombre de un canal o un número de canal 810 puede representarse en el área izquierda.
La unidad de control 140 representa un inciso de voz que tiene una segunda croma en el área derecha del icono 820 en la información de asistencia de voz. El inciso de voz puede ser un inciso de voz que corresponda a un ejemplo de una instrucción pronunciable para cambiar un canal y un inciso de voz que corresponda a la cancelación de cambio de un canal (por ejemplo, un inciso de voz previo) . Por ejemplo, como se muestra en la figura 113, "(ejemplo: 11, MBC, canal previo, etc.), previos" 11320 se puede representar en el área derecha del icono 820.
La unidad de control 140 puede controlar de manera que la croma del área derecha del icono 820 sea más gruesa que la croma del área izquierda del icono 820.
Si la información de asistencia de voz representada como se muestra en la figura 112 y se introduce una instrucción de "apagado" que corresponde al inciso de voz de apagado 811 a través de la unidad de entrada de voz 110, la unidad de control 140 cambia la información de asistencia de voz como se muestra en la figura 114. La unidad de control 140 representa un mensaje de guía que tiene una primera croma sobre el área izquierda del icono 820 en la información de asistencia de voz para realizar una tarea de voz. Por ejemplo, como se muestra en la figura 114, "¿desea apagar? 11410 se puede representar en el área izquierda del icono 820.
La unidad de control 140 representa un inciso de voz que tiene una segunda croma en el área derecha del icono 820 en la información de asistencia de voz. El inciso de voz puede ser un inciso de voz que corresponde a una instrucción respecto a sí se interrumpe la energía. Por ejemplo, como se muestra en la figura 114, "si o no" 11420 y 11430 se pueden representar en el área derecha del icono 820.
La unidad de control 140 puede controlar de manera que la croma del área derecha del icono 820 sea más gruesa que la croma del área izquierda del icono 820.
La figura 115 es un diagrama de flujo para explicar un método de control del aparato electrónico 100, el cual representa información de asistencia de voz de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 representa información de asistencia de voz (S11510) . La información de asistencia de voz puede incluir un icono que indica que un modo actual del aparato electrónico 100 es un modo de tarea de voz y una pluralidad de incisos de voz que guían al modo de tarea de voz .
Si la voz de un usuario corresponde a uno de una pluralidad de incisos de voz es introducida a través de la unidad de entrada de voz 110, el aparato electrónico 100 representa un mensaje de guía que tiene una primera croma sobre una primer área y representa un inciso de voz que tiene una segunda croma sobre una segunda área (S11520). La primer área puede ser el área derecha del icono en la información de asistencia de voz y la segunda área puede ser el área a la izquierda del icono en la información de asistencia de voz. La segunda croma puede ser más gruesa que la primera croma.
Como se describe en lo anterior, el inciso de voz pronunciable se representa con croma diferente de la del mensaje de guía de manera que el usuario puede saber cual instrucción el usuario desea pronunciar con mayor claridad.
La unidad de control 140 representa información de asistencia de voz que incluye una pluralidad de incisos de voz que guían una tarea de voz. Si una voz de usuario introducida a través de la unidad de entrada de voz 110 incluye una palabra preestablecida que no pertenece a una instrucción que corresponde a la pluralidad de incisos de voz, la unidad de control 140 puede realizar una tarea de voz que corresponda a la palabra preestablecida.
La palabra preestablecida puede ser una palabra que corresponda a una clave ejecutable incluida en un controlador remoto el cual está interconectado con (es decir, se comunica con) el aparato electrónico 100. Por ejemplo, la palabra preestablecida puede incluir por lo menos uno de una instrucción para generar una lista de canales, una instrucción para generar un menú, una instrucción para ejecutar una red social, una instrucción para guiar un procedimiento de programa, una instrucción para cambiar a una imagen tridimensional y una instrucción para guiar una difusión.
La palabra preestablecida puede ser una palabra que corresponda a una instrucción para proporcionar una tarea relacionada con una función realizada por el aparato electrónico 100. Por ejemplo, si el aparato electrónico 100 actualmente realiza una función de reproducir una imagen en movimiento, la palabra preestablecida puede incluir por lo menos uno de una instrucción para reproducir la imagen en movimiento, una instrucción para poner en pausa la imagen en movimiento, una instrucción para detener la imagen en movimiento, una instrucción para reproducir un archivo previo, una instrucción para reproducir el siguiente archivo, una instrucción para saltar hacia delante y una instrucción para saltar hacia atrás .
Esto es, una instrucción que corresponde a una función esencial del aparato electrónico 100 es almacenada previamente en una base de datos de voz 13Om de manera que el usuario puede utilizar la función esencial del aparato electrónico 100 a través del reconocimiento de voz incluso si la función no se representa en la información de asistencia de voz .
A continuación se explicará con referencia desde la figura 116 hasta la figura 117 un caso en el cual una instrucción que no pertenece a un inciso de voz representado sobre la información de asistencia de voz es pronunciado.
Si una instrucción de inicio de voz (por ejemplo, "Ginny" ) se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el cual el aparato electrónico 100 es controlado de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz 110. Si se cambia el modo al modo de tarea de voz, la unidad de control 140 representa información de asistencia de voz sobre la porción inferior de la pantalla de representación, como se muestra en la figura 116.
En este momento, un icono 820 que indica que el modo actual del aparato electrónico 100 es del modo de tarea de voz que es representado sobre la información de asistencia de voz. La información de asistencia de voz representa un inciso de voz de apagado 811, un inciso de voz de canal 812, un inciso de voz de enmudecimiento 813 y un inciso de voz de entrada externa 814 en el área izquierda del icono 820 y representa un inciso de voz de cubo inteligente 815, un inciso de voz de aplicaciones 816, un inciso de voz de búsqueda 817 y un inciso de voz completo 818 en el área derecha del icono 820.
Si la información de asistencia de voz es representada y una instrucción "lista de canales" la cual no pertenece a la información de asistencia de voz es introducida a través de la unidad de entrada de voz 110, la unidad de control 140 puede representar una lista de canales 11700 en la porción lateral de la pantalla de representación, como se muestra en la figura 117.
La lista de canales 11700 incluye un canal de difusión que se encuentra dentro de un intervalo de número predeterminado con referencia a un canal de difusión sintonizado actualmente. Por ejemplo, si el canal de difusión sintonizado actualmente es "9-1 KBS2", la unidad de control 140 representa "6-1 SBS" , 7-1 KBS 1", "9-1 KBS 2", "11-1 MBC" y "13-1 EBS" en la lista de canales 1170, como se muestra en la figura 117.
El usuario puede cambiar el canal al seleccionar uno de los canales en la lista de canales 11700. En consecuencia, incluso si la información de asistencia de voz no representa un inciso de voz que corresponde a una lista de canales, el usuario puede realizar una tarea de representación de la lista de canales a través del reconocimiento de voz .
La figura 118 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 si una instrucción que no pertenece a un inciso de voz representada sobre la información de asistencia de voz es pronunciada de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 representa información de asistencia de voz (S11810) . La información de asistencia de voz puede incluir un icono que indica que un modo actual del aparato electrónico 100 es un modo de tarea de voz y una pluralidad de incisos de voz guían al modo de tarea de voz.
El aparato electrónico 100 recibe entrada de una instrucción diferente a las instrucciones que corresponden a los incisos de voz (S11820) . Si la instrucción diferente a las instrucciones que corresponden a los incisos de voz puede ser una palabra que corresponde a una clave ejecutable incluida en un controlador remoto el cual se comunica con el aparato electrónico 100. Por ejemplo, la palabra puede incluir uno de una instrucción para generar una lista de canales, una instrucción para generar un menú, una instrucción para ejecutar una red social, una instrucción para guiar un protocolo de programa, una instrucción para cambiar a una imagen tridimensional y una instrucción para guiar una difusión.
La instrucción diferente de las instrucciones que corresponden a los incisos de voz puede ser una palabra que corresponde a una instrucción para proporcionar una tarea relacionada con una función realizada actualmente por el aparato electrónico 100. Por ejemplo, si el aparato electrónico 100 actualmente realiza una función de reproducir una imagen en movimiento, la palabra puede incluir por lo menos uno de una instrucción para reproducir la imagen en movimiento, una instrucción para poner en pausa la imagen en movimiento, una instrucción para detener la imagen en movimiento, una instrucción para reproducir un archivo previo, una instrucción para reproducir el siguiente archivo, una instrucción para saltar hacia delante y una instrucción para saltar hacia atrás .
El aparato electrónico 100 realiza una tarea de voz de acuerdo con la instrucción introducida (S11830) . Por ejemplo, si se introduce una instrucción para generar una lista de canales, el aparato electrónico 100 genera y representa una lista de canales.
Como se describe en lo anterior, el usuario puede realizar una tarea que corresponde a una instrucción que no es representada en la información de asistencia de voz.
La unidad de control 140 puede realizar no solo un modo de tarea de movimiento utilizando una mano sino también un modo de tarea de movimiento utilizando ambas manos.
Específicamente, si una instrucción de inicio de movimiento utilizando ambas manos se introduce a través de la unidad de entrada de movimiento 120, la unidad de control 140 puede cambiar un modo del aparato electrónico 100 a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea de movimiento utilizando ambas manos.
En un modo de tarea de movimiento utilizando una mano, si se introduce una instrucción de inicio de movimiento utilizando la otra mano, la unidad de control 140 puede reconocer la instrucción de inicio de movimiento utilizando ambas manos. Específicamente, si se introduce una instrucción de inicio de movimiento (un movimiento de agitar una mano 3-4 veces) a través de la unidad de entrada de movimiento 120, como se muestra en la figura 119, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento, en el cual al aparato electrónico 100 es controlado de acuerdo con una entrada de movimiento de usuario a través de la unidad de entrada de movimiento 120. Si se introduce una instrucción de inicio de movimiento utilizando la otra mano a través de la unidad de entrada de movimiento 120 en el modo de tarea de movimiento, la unidad de control 140 puede cambiar el modo del aparato electrónico 100 a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea de movimiento utilizando ambas manos.
En otra modalidad ejemplar, la instrucción de inicio de movimiento utilizando ambas manos se puede reconocer sin un movimiento de agitación en la agitación de ambas manos simultáneamente múltiples veces (por ejemplo, 3~4 veces) es introducida. Específicamente, si se introduce un movimiento de agitación de agitación de ambas manos simultáneamente múltiples veces a través de la unidad de entrada de movimiento 120, como se muestra en la figura 120, la unidad de control 140 puede cambiar a un modo de aparato electrónico 100 a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea de movimiento utilizando ambas manos .
La tarea de movimiento utilizando ambas manos puede ser una tarea de ampliar o reducir una pantalla de representación.
En particular, si una aplicación en donde es imposible realizar la tarea de movimiento utilizando ambas manos es ejecutada, la unidad de control 140 puede transmitir un mensaje de que es imposible realizar la tarea de movimiento utilizando ambas manos. Por ejemplo, si la aplicación en donde es imposible realizar la tarea de movimiento utilizando ambas manos se ejecuta, la unidad de control 140 puede representar un icono que indica que es imposible realizar la tarea de movimiento utilizando ambas manos.
La figura 121 es un diagrama de flujo para explicar un modo de tarea de movimiento utilizando ambas manos, de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe la entrada de una instrucción de inicio de movimiento utilizando ambas manos (S12110) . Por ejemplo, en un modo de tarea de movimiento utilizando una mano, si se introduce una instrucción de inicio de movimiento utilizando la otra mano, la instrucción de inicio de movimiento utilizando ambas manos es reconocida y se considera que es introducida.
En otra modalidad ejemplar, la instrucción de inicio de movimiento utilizando más manos se puede reconocer si se introduce un movimiento de agitación agitando ambas manos simultáneamente múltiples veces (por ejemplo, 3-4 veces) .
Si la instrucción de inicio de movimiento utilizando ambas manos es introducida, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea del aparato electrónico utilizando ambas manos (S12120) . El modo de tarea de movimiento utilizando ambas manos puede ser la tarea de agrandar o reducir una pantalla de representación.
Como se describe en lo anterior, el usuario puede realizar una tarea de movimiento utilizando no solo una mano sino también ambas manos.
Si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento, en el cual la tarea de movimiento se realiza de acuerdo con un movimiento de un usuario quien introduce la instrucción de inicio de movimiento. En el modo de tarea de movimiento, la tarea de movimiento se realiza únicamente de acuerdo con el movimiento del usuario quien introduce la instrucción de inicio de movimiento hasta que el usuario quien introduce la instrucción de inicio de movimiento libera el modo de tarea de movimiento. El modo de tarea de movimiento se mantiene incluso si se introduce una instrucción de inicio de movimiento de otros usuarios diferentes al usuario quien introduce la instrucción de inicio de movimiento.
Específicamente, si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120, la unidad de control 140 realiza trazos de las manos de un usuario quien introduce la instrucción de inicio de movimiento utilizando el módulo de reconocimiento de movimiento 1301. La unidad de control 140 puede realizar un trazo de la mano del usuario utilizando por lo menos uno de forma, color y movimiento de la mano del usuario.
Incluso si se introduce una instrucción de inicio de movimiento de una mano de otro usuario, la unidad de entrada de movimiento 120, la unidad de control 140 no realiza una tarea de movimiento por la mano de otro usuario y realiza un seguimiento de la mano del usuario quien inicialmente introdujo la instrucción de inicio de movimiento y realiza una tarea de movimiento.
Incluso si una instrucción de inicio de movimiento es introducida por otro usuario, la unidad de control 140 puede realizar la tarea de movimiento de acuerdo con el movimiento del usuario quien inicialmente introdujo la instrucción de inicio de movimiento hasta que se introduce una instrucción para liberar el modo de tarea de movimiento del usuario quien introduce la instrucción de inicio de movimiento .
Incluso si la mano del usuario quien introduce la instrucción de inicio de movimiento se superpone con las manos de otros usuarios en el modo de tarea de movimiento, la tarea de movimiento se puede realizar de acuerdo con el movimiento del usuario quien introduce la instrucción de inicio de movimiento.
De manera alternativa, si se introduce una instrucción de inicio de movimiento utilizando una mano y otra instrucción de inicio de movimiento utilizando una mano de un usuario diferente a la del usuario quien introduce la instrucción de inicio de movimiento es introducida, la unidad de control 140 puede cambiar el modo del aparato electrónico 100 a un modo de tarea de movimiento utilizando ambas manos para realizar una tarea de movimiento utilizando ambas manos. El modo de tarea de movimiento utilizando ambas manos se puede realizar por una mano del usuario quien inicialmente introduce la instrucción de inicio de movimiento y una mano de otro usuario.
Si se introducen una pluralidad de instrucciones de inicio de movimiento a partir de una pluralidad de usuario a través de la unidad de entrada de movimiento 120, la unidad de control 140 determina una instrucción de inicio de movimiento que inicialmente es introducida de entre la pluralidad de instrucciones de inicio de movimiento. Si se determina la instrucción de inicio de movimiento introducida inicialmente, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento en el cual la tarea de movimiento es realizada de acuerdo con un movimiento del usuario que inicialmente introduce la instrucción de inicio de movimiento.
La tarea de movimiento puede ser realizar únicamente de acuerdo con el movimiento del usuario quien inicialmente introduce la instrucción de inicio de movimiento hasta que el usuario quien inicialmente introduce la instrucción de inicio de movimiento libera el modo de tarea de movimiento. El modo de tarea de movimiento se puede mantener incluso si se introduce una instrucción de inicio de movimiento desde otros usuarios diferente al usuario quien inicialmente introdujo la instrucción de inicio de movimiento .
La figura 122 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 si se introducen una pluralidad de instrucciones de inicio de movimiento a partir de una pluralidad de usuarios de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe la entrada de una pluralidad de instrucciones de inicio de movimiento a partir de una pluralidad de usuarios a través de la unidad de entrada de movimiento 120 (S12210) . La instrucción de inicio de movimiento puede ser un movimiento de agitación de la agitación de la mano del usuario múltiples veces (por ejemplo, 3-4 veces) .
El aparato electrónico 100 determina una instrucción de inicio de movimiento que inicialmente es introducida de entre la pluralidad de instrucciones de inicio de movimiento (S12220) . Específicamente, el aparato electrónico 100 puede determinar la instrucción de inicio de movimiento introducida inicialmente utilizando una forma, color y un movimiento de la mano del usuario la cual es utilizada para introducir la instrucción de inicio de movimiento.
El aparato electrónico 100 realiza una tarea de movimiento utilizando el movimiento del usuario quien inicialmente introduce la instrucción de inicio de movimiento (S12230) . Específicamente, si el aparato electrónico 100 determina la instrucción de inicio de movimiento introducida inicialmente , el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento en el cual se realiza una tarea de movimiento de acuerdo con un movimiento del usuario quien inicialmente introduce la instrucción de inicio de movimiento. El aparato electrónico 100 realiza una tarea de movimiento utilizando un movimiento del usuario quien inicialmente introduce la instrucción de inicio de movimiento en el modo de tarea de movimiento.
La tarea de movimiento puede ser realizar únicamente de acuerdo con el movimiento del usuario quien inicialmente introduce la instrucción de inicio de movimiento hasta que el usuario quien inicialmente introduce la instrucción de inicio de movimiento libera el modo de tarea de movimiento. El modo de tarea de movimiento se puede mantener incluso si se introduce una instrucción de inicio de movimiento desde otros usuarios diferente al usuario quien inicialmente introduce la instrucción de inicio de movimiento.
Como se describe en lo anterior, la tarea de movimiento es realizada de acuerdo con la instrucción de inicio de movimiento introducida inicialmente de manera que un mal funcionamiento por movimientos de otros usuarios se puede evitar.
La unidad de control 140 puede realizar tareas de voz en fases. Específicamente, si una primera voz de un usuario se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 puede representar un primer menú que guía por lo menos una tarea de voz sobre un área de una imagen en respuesta a la primera voz. Si una segunda voz del usuario se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 realiza una tarea de voz que corresponde a la segunda voz del usuario de entre por lo menos una tarea de voz.
Por ejemplo, si una instrucción para cambio de un canal se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 puede presentar un primer menú que incluye información para guiar un cambio de un canal. Si una voz de usuario que corresponde a un identificador de canal (por ejemplo, uno de un número de canal, un nombre de canal y un nombre de programa) se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 puede cambiar un canal actual a un canal que corresponde a una voz de usuario.
Si una voz de usuario que corresponde a un nombre de programa se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 busca por el nombre de programa introducido a través de la unidad de entrada de voz 110 desde una guía de programa almacenada previamente (EPG) y cambia un canal actual a un canal para difusión del nombre de programa introducido o programa un tiempo para su observación.
En lo siguiente, se explicará con referencia desde la figura 123 a la figura 125 un caso en el cual se realiza reconocimiento de voz en fases.
Si se introduce una instrucción de inicio de voz a través de la unidad de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una entrada de voz de usuario a través de la entrada de voz 110. La unidad de control 140 presenta información de asistencia de voz que incluye una pluralidad de incisos de voz, como se muestra en la figura 123.
Si la información de asistencia de voz es representada y una voz de usuario (por ejemplo, "canal") que corresponde a un inciso de voz de canal 812 es introducida a través de la unidad de entrada de voz 110, la unidad de control 140 cambia la información de asistencia de voz y presenta un primer menú que guía el desempeño de una tarea de voz. Por ejemplo, la unidad de control 140 puede representar "por favor mencione el nombre de un canal o un número de canal" 12410 para guiar un cambio de un canal, como se muestra en la figura 124.
Si se introduce una voz de usuario que corresponde a uno de un número de canal, un nombre de canal y un nombre de programa de difusión a través de la unidad de entrada de voz 110, la unidad de control 140 cambia el canal actual a un canal que corresponde al de la voz de un usuario. Por ejemplo, si se introduce "7" a través de la unidad de entrada de voz 110, la unidad de control 140 representa el canal 7 al sintonizar el canal 7, como se muestra en la figura 125.
Como se describe en lo anterior, la tarea de voz se realiza en fases de manera que se puede evitar un mal funcionamiento, específicamente, si el usuario desea cambiar un canal, el usuario cambia de canal después de seleccionar el inciso de voz de canal una vez y por lo tanto puede evitar cambiar a un canal no deseado.
La figura 126 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 el cual realiza una tarea de voz en fases de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 muestra una imagen (S12610) . La imagen puede incluir información de asistencia de voz .
El aparato electrónico 100 recibe la entrada de una primera voz a través de la unidad de entrada de voz 110 (S12620) . La primera voz puede ser una voz de usuario que corresponde a uno de una pluralidad de incisos de voz incluidos en la información de asistencia de voz representada.
El aparato electrónico 100 representa un primer menú que guía el desempeño de una tarea de voz en respuesta a una primera voz introducida (S12630) .
El aparato electrónico 100 recibe la entrada de una segunda voz a través de la unidad de entrada de voz 110 (S12640) . La segunda voz es una instrucción para realizar una tarea de voz específica.
El aparato electrónico 100 realiza una tarea de voz que corresponde a la segunda voz en respuesta a la segunda voz introducida (S12650) . Por ejemplo, si la segunda voz es un nombre de canal, el aparato electrónico 100 cambia un canal de difusión a un canal que corresponde a la segunda voz .
Como se describe en lo anterior, la tarea de voz se realiza en fases de manera que se puede evitar un mal funcionamiento .
En un modo de tarea de voz en el cual una tarea de voz se realiza de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz 110, la unidad de control 140 representa por lo menos un icono ejecutable y un nombre de un icono ejecutable.
La unidad de entrada de voz 110 recibe la entrada de una voz de usuario. Si un primer icono ejecutable que representa solo una parte de un nombre del icono ejecutable existe entre por lo menos un icono ejecutable, y la voz de usuario introducida concuerda con la parte representada del nombre del primer icono ejecutable, la unidad de control 140 ejecuta el primer icono ejecutable.
Si la voz de usuario introducida concuerda con una pluralidad de pronunciaciones que constituyen la parte representada del nombre del primer icono ejecutable, la unidad de control 140 ejecuta el primer icono ejecutable.
Si un segundo icono ejecutable cuyo nombre incluye un carácter especial existe entre los iconos ejecutables y la voz de usuario introducida concuerda con un nombre pronunciado excluyendo el carácter especial incluido en el nombre del segundo icono ejecutable, la unidad de control 140 ejecuta el segundo icono ejecutable.
El carácter especial puede ser un símbolo que no es pronunciable por el usuario. Por ejemplo, el carácter especial puede ser, pero no se limita a un signo de interrogación (?), una coma (,) y un punto (.) .
Por ejemplo, si una aplicación que tiene un nombre de un icono ejecutable "reconocimiento de cara, reconocimiento de voz" existe, la unidad de control 140 ejecuta la aplicación cuando la voz de un usuario "reconocimiento de cara, reconocimiento de voz" es introducida a través de la unidad de entrada 110.
En el ejemplo anterior, la unidad de control 140 realiza el icono ejecutable. No obstante, este es simplemente un ejemplo y la idea técnica de la presente descripción se puede aplicar si la unidad de control 140 realiza un hiperenlace .
En lo siguiente se explicará con referencia desde la figura 127 hasta la figura 128 un método para ejecutar un icono ejecutable que representa una parte de un nombre del icono ejecutable, de acuerdo con una modalidad ejemplar.
La unidad de control 140 representa una lista de contenido (por ejemplo, un cubo inteligente) que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación de acuerdo con una instrucción específica de un usuario. Si un icono ejecutable cuyo nombre tiene un número de caracteres que excede un número predeterminado se incluye de entre la pluralidad de iconos ejecutables incluidos en la lista de contenido, la unidad de control 140 puede representar solo una parte del nombre completo del icono ejecutable. Por ejemplo, si un icono ejecutable cuyo nombre tiene más de 10 caracteres se incluye entre la pluralidad de iconos ejecutables incluidos en la lista de contenido, la unidad de control 140 no representa el nombre completo del icono ejecutable, "tambores sorprendentes" y representa únicamente "sorprendentes", como se muestra en la figura 127.
Si la lista de contenido se representa y se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico es controlado de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110. Si se cambia el modo al modo de tarea de voz, el aparato electrónico 100 representa información de asistencia de voz como se muestra en la figura 127.
Si la información de asistencia de voz es representada y "sorprendente", lo cual concuerda con la parte del nombre representado es pronunciado a través de la unidad de entrada de voz 110, la unidad de control 140 ejecuta "tambores sorprendentes", como se muestra en la figura 128.
Además, si la información de asistencia de voz es representada y una pluralidad de palabras "E" , "X", "C" , "I", "T" , "I", "N" y "G" (sorprendente), la cual constituye parte representada del nombre se introducen a través de la unidad de entrada de voz 110, la unidad de control 140 ejecuta "tambos sorprendente", como se muestra en la figura 128.
La figura 129 es un diagrama de flujo para explicar un método para ejecutar un icono ejecutable que representa solo una parte de un nombre del icono ejecutable de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a una instrucción de inicio de voz introducido a través de la unidad de entrada de voz 110 (S12910) .
El aparato electrónico 100 representa una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación.
En particular, el aparato electrónico 100 representa un icono ejecutable que representa una parte de un nombre del icono ejecutable en la lista de contenido (S12920) . Esto es debido a que el nombre del icono ejecutable tiene un número de caracteres que excede un número predeterminado y por lo tanto no se puede representar la totalidad del nombre del icono ejecutable.
El aparato electrónico 100 recibe una entrada de una voz de usuario a través de una unidad de entrada de voz 110 (S12930) .
El aparato electrónico 100 determina si la voz de usuario introducida a través de la unidad de entrada de voz 110 concuerda con la parte representada del nombre (S12940) .
Si existe un icono ejecutable una parte del nombre el cual concuerda con la entrada de voz de usuario a través de la unidad de entrada de voz 110 (S12940-Y) , el aparato electrónico 100 ejecuta un icono ejecutable (S12950) .
En la modalidad ejemplar anterior, el aparato electrónico 100 ejecuta el icono ejecutable. No obstante, ese es solamente un ejemplo y la idea técnica de la presente descripción se puede aplicar si el aparato electrónico 100 ejecuta un hiperenlace.
Como se describe en lo anterior, se puede ejecutar una aplicación o un hiperenlace al pronunciar solo una parte de un nombre de un icono ejecutable correspondiente.
Si uno de un primer movimiento de usuario y un segundo movimiento de usuario se introduce a través de la unidad de entrada de movimiento 120 en un modo de tarea de movimiento, la unidad de control 140 puede representar una pantalla de ejecución de aplicación al agrandar o reducir la pantalla de ejecución de aplicación en respuesta a uno reconocido del primer movimiento de usuario y el segundo movimiento de usuario si la pantalla de ejecución de aplicación es ampliable o reducible.
Específicamente, si se introduce una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 cuando se ejecuta una aplicación, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento. Si uno del primer movimiento de usuario y el segundo movimiento de usuario se introduce a través de la unidad de entrada de movimiento 120, la unidad de control 140 reconoce la entrada de uno del primer movimiento de usuario y el segundo movimiento de usuario y agranda o reduce la pantalla de ejecución de aplicación en respuesta al movimiento reconocido.
El primer movimiento de usuario puede ser un movimiento de mover ambas manos separándolas y, si se reconoce el primer movimiento de usuario, la unidad de control 140 puede representar la pantalla de ejecución de aplicación al agrandarla.
El segundo movimiento de usuario puede ser un movimiento de jalar ambas manos acercándolas, y si se reconoce el segundo movimiento de usuario, la unidad de control 140 puede representar la pantalla de ejecución de aplicación al reducirla.
Si se introduce un tercer movimiento de usuario a través de la unidad de entrada de movimiento 120 en el modo de tarea de movimiento, la unidad de control 140 puede reconocer el tercer movimiento de usuario al representar la pantalla de ejecución de aplicación al moverla en respuesta al tercer movimiento de usuario. El tercer movimiento de usuario puede ser un movimiento de mover una mano mientas se mantiene un movimiento de agarrar. La pantalla de ejecución de aplicación se puede mover dentro de la pantalla de representación del aparato electrónico 100.
En lo siguiente se explicará con referencia desde la figura 130 hasta la figura 133 un gesto especial el cual se utiliza para entrar a una página de la red.
Si se representa una página de la red y la instrucción de inicio de movimiento se introduce a través de la unidad de entrada de movimiento 120, la unidad de control 140 puede representar información de asistencia de movimiento en una porción inferior de la página de la red, como se muestra en la figura 130. Además, si el aparato electrónico 100 introduce un modo de tarea de movimiento, la unidad de control 140 muestra un puntero 13000 en el centro de la pantalla de representación.
Si la información de asistencia de movimiento es representada y se introduce una instrucción de inicio de movimiento utilizando más manos a través de la unidad de entrada de movimiento 120, la unidad de control 140 introduce un modo de tarea de movimiento utilizando ambas manos.
Si se introduce un movimiento de mover ambas manos separándolas a través de la unidad de entrada de movimiento 120 en el modo de tarea de movimiento utilizando ambas manos, la unidad de control 140 agranda la pantalla de página de la red, como se muestra en la figura 131. Cuando la pantalla de la página de la red es agrandada, el puntero puede ser retirado.
Si se agranda la pantalla de la página de la red, la unidad de control 140 muestra el puntero 13000 nuevamente, como se muestra en la figura 132.
Si el puntero 13000 se muestra y un movimiento de agarrar una mano y mover la mano agarrada se introduce a través de la unidad de entrada de movimiento 120, la unidad de control 140 puede mover la pantalla de representación de acuerdo con el movimiento de agarrar con una mano y mover la mano agarrada.
Por ejemplo, si un movimiento de agarrar con una mano y mover con la mano agarrada en una dirección a la derecha se introduce a través de la unidad de entrada de movimiento 120, la unidad de control 140 puede mover la pantalla de representación en una dirección a la derecha, como se muestra en la figura 133.
Como se describe en lo anterior, el usuario puede mover o agrandar o reducir la pantalla de representación del aparato electrónico 100 utilizando un movimiento de usuario.
La figura 134 es un diagrama de flujo que ilustra un método de control del aparato electrónico 100 si se introduce un gesto especial de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de movimiento a través de la unidad de entrada de movimiento 120 (S13410) .
Si se introduce la instrucción de inicio de movimiento, el aparato electrónico 100 reconoce la instrucción de inicio de movimiento y cambia un modo del aparato electrónico 100 a un modo de tarea de movimiento (S13420) . Si se cambia el modo al modo de tarea de movimiento, el aparato electrónico 100 representa un puntero y la información de asistencia de movimiento realiza el modo de tarea de movimiento.
El aparato electrónico 100 ejecuta una aplicación de acuerdo con una manipulación de un usuario (S13430) .
El aparato electrónico 100 recibe la entrada de un movimiento especial a través de la unidad de entrada de movimiento 120 (S13440) . El movimiento especial puede ser un movimiento de utilizar ambas manos para agrandar o reducir una pantalla de representación o un movimiento de mover una mano agarrada para mover la pantalla de representación.
Si se introduce el movimiento especial, el aparato electrónico 100 realiza una tarea de movimiento que corresponde al movimiento especial (S13450) . POr ejemplo, si se introduce un movimiento de jalar ambas manos acercando una a la otra, el aparato electrónico 100 realiza una tarea de reducir la pantalla de representación y, si se introduce un movimiento de mover ambas manos no separándolas, el aparato electrónico 100 realiza una tarea de agrandar la pantalla de representación. Si se introduce un movimiento de mover la mano agarrada, el aparato electrónico 100 mueve la pantalla de representación en una dirección de movimiento.
Como se describe en lo anterior, el usuario puede mover o agrandar o reducir la pantalla de representación utilizando un movimiento de usuario.
La unidad de control 140 puede recibir una instrucción de inicio de voz a través de la unidad de entrada de voz 110 incluida en el aparato electrónico 100 y también puede recibir una instrucción de inicio de voz desde un aparato al cual se comunica con el aparato electrónico 100.
El reconocimiento de voz obtenido si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110 incluida en el aparato electrónico 100 se denomina como reconocimiento de voz a larga distancia. Si se realiza reconocimiento de voz a larga distancia, un icono 13510 que indica reconocimiento de voz a larga distancia se puede representar, como se muestra en la figura 135.
Específicamente, si se introduce una instrucción de inicio de voz desde la unidad de entrada de voz 110 incluida en el aparato electrónico 100, la unidad de control 140 cambia un modo del aparato electrónico 100 a un primer modo de tarea de voz . El primer modo de tarea de voz es un modo en el cual se realiza una tarea de voz de acuerdo con una voz de usuario introducida desde la unidad de entrada de voz 110 incluida en el aparato electrónico 100. Si se cambia el modo al primer modo de tarea de voz, la unidad de control 140 puede representar el icono 13510 indicando reconocimiento de voz a larga distancia.
Si el icono que indica reconocimiento de voz a larga distancia es representado y no se introduce una voz de usuario a la unidad de entrada de voz 110 incluida en el aparato electrónico 100 durante un tiempo predeterminado, la unidad de control 140 libera el primer modo de tarea de voz y cambia el modo del aparato electrónico 100 a un modo de control remoto en el cual el aparato electrónico 100 es controlado por un controlador remoto.
El reconocimiento de voz obtenido si se introduce una instrucción de inicio de voz desde un aparato el cual se comunica con el aparato electrónico 100 se denomina como reconocimiento de voz a corta distancia. Si se realiza reconocimiento de voz a corta distancia, un icono 13610 que indica reconocimiento de voz a corta distancia puede ser representado, como se muestra en la figura 136. El aparato el cual se comunica con el aparato electrónico 100 puede ser, pero no se limita a un controlador remoto o un teléfono móvil. El aparato se puede comunicar con el aparato electrónico 100 a través de un conexión cableada o inalámbrica, sobre una red, etc. El aparato puede ser acoplado con el aparato electrónico 100 a través de un procesamiento de pareamiento.
La instrucción de inicio de voz introducida desde el aparato el cual se comunica con el aparato electrónico 100 puede ser uno de una señal que corresponde a un botón específico (botón de cambio de modo de tarea de voz) incluido en el aparato el cual se comunica con el aparato electrónico 100 y una voz de usuario específica que se introduce a través de un micrófono incluido en el aparato el cual se comunica con el aparato electrónico 100.
Si la instrucción de inicio de voz se introduce desde el aparato al cual se comunica con el aparato electrónico 100, la unidad de control 140 cambia un modo del aparato electrónico 100 a un segundo modo de tarea de voz. El segundo modo de tarea de voz es un modo en el cual una tarea de voz se realiza de acuerdo con una voz de usuario introducida a través del micrófono incluido en el aparato el cual se comunica con el aparato electrónico 100. Si se cambia el modo al segundo modo de tarea de voz, la unidad de control 140 puede representar el icono 13610 indicando el reconocimiento de voz a corta distancia.
Si el icono que indica reconocimiento de voz a corta distancia se representa y una voz de usuario no se introduce al micrófono incluido en el aparato el cual se comunica con el aparato electrónico 100 por un tiempo predeterminado, la unidad de control 140 libera el segundo modo de tarea de voz y cambia el modo del aparato electrónico 100 a un modo de control remoto en el cual el aparato electrónico 100 es controlado por un controlador remoto.
La figura 137 es un diagrama de flujo para explicar un método de control del aparato electrónico 100 el cual proporciona un icono diferente dependiendo del método de entrada de voz de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de voz desde uno de un micrófono incluido en el aparato electrónico 100 y un micrófono incluido en un controlador remoto (S13710) . Si la instrucción de inicio de voz se introduce desde el micrófono introducido en el aparato electrónico 100, el aparato electrónico 100 cambia a un modo del aparato electrónico 100 a un modo de tarea de voz a larga distancia. Si la instrucción de inicio de voz se introduce desde el micrófono incluido en el controlador remoto, el aparato electrónico 100 cambia el modo del aparato electrónico 100 a un modo de tarea de voz de corta distancia.
El aparato electrónico 100 puede representar un icono de modo diferente, dependiendo del aparato desde el cual se introduce la instrucción de inicio de voz (S13720) . Específicamente, si la instrucción de inicio de voz se introduce desde el micrófono incluido en el aparato electrónico 100, el aparato electrónico 100 representa un icono indicando el modo de tarea de voz a larga distancia y, si la instrucción de inicio de voz se introduce desde el micrófono incluido en el controlador remoto, el aparato electrónico 100 representa un icono indicando el modo de tarea de voz a corta distancia.
Como se describe en lo anterior, el modo de tarea de voz se divide dependiendo del aparato desde el cual se introduce la instrucción de inicio de voz y el icono diferente es representado dependiendo del modo de tarea de voz de manera que un usuario puede saber cual aparato debe ser utilizado para realizar el modo de tarea de voz.
Después de realizar el reconocimiento de voz, la unidad de control 140 representa un menú de corrección de entrada de texto (por ejemplo, un editor de método de entrada (IME)) para corregir un texto que corresponde a una voz reconocida con el fin de reconocer más exactamente la voz.
Por ejemplo, si se introduce la instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 representa información de asistencia de voz para realizar una tarea de voz la cual es controlada de acuerdo con una entrada de voz de usuario a través de la unidad de entrada de voz 110.
Si una primera voz de usuario para realizar una tarea que requiere entrada de texto se introduce, la unidad de control 140 representa una ventana de entrada de texto para entrada de texto. La tarea que requiere entrada de texto puede ser, pero no limitarse a navegación en una página de la red.
Si se introduce una segunda voz de usuario para introducir un texto en la ventana de entrada de texto, la unidad de control 140 puede representar un texto que corresponde a la entrada de segunda voz de usuario sobre la ventana de entrada de texto y puede representar un menú de entrada de texto.
La unidad de control 140 representa una pantalla previa mientras reconoce la voz de usuario, y representa un texto sobre la ventana de entrada de texto después de reconocer la segunda voz de usuario para introducir un texto sobre la ventana de entrada de texto. La unidad de control 140 puede representar el menú de entrada de texto.
Si existe una pluralidad de palabras de búsqueda candidatas que incluyen la entrada de texto en la ventana de entrada de texto, la unidad de control 140 representa una lista de palabras de búsqueda candidatas al superponerlas con el menú de entrada de texto.
Si la entrada de texto en la ventana de entrada de texto se completa o la entrada de texto en la ventana de entrada de texto se cancela, la unidad de control 140 puede retirar el menú de entrada de texto de la pantalla de representación .
En lo siguiente se explicará un método para representar un menú de entrada de texto de acuerdo con una modalidad ejemplar, con referencia desde la figura 138 hasta la figura 141.
Si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110 cuando se representa una página de la red, la unidad de control 140 representa información de asistencia de voz, como se muestra en la figura 138.
Si una voz de usuario (por ejemplo "buscar") que corresponde a un inciso de voz de "buscar" se introduce a través de la unidad de entrada 110, la unidad de control 110 represente una ventana de entrada de texto 13910.
Si se introduce una voz de usuario (por ejemplo, "Samsung Electronics") para introducir un texto sobre la ventana de entrada de texto 13910, la unidad de control 140 reconoce la voz de usuario y representa la voz de usuario reconocida sobre la ventana de entrada de texto 13910. Esto es, la unidad de control 140 introduce y muestra "Samsung Electronics" en la ventana de entrada de texto 13910, como se muestra en la figura 139.
Si se introduce "Samsung Electronics" en la ventana de entrada de texto 13910, la unidad de control 140 muestra un menú de entrada de texto 13920 en un lado de la ventana de entrada de texto, como se muestra en la figura 140. El menú de entrada de texto es un menú para corregir un texto si la entrada de texto en la ventana de entrada de texto no es correcto.
Si una pluralidad de palabras de búsqueda candidatas que incluyen "Samsung Electronics" se introduce en la ventana de entrada de texto 13910 existe, la unidad de control 140 representa una lista de palabras de búsqueda candidatas 13930. Por ejemplo, si las palabras de búsqueda candidatas incluyen "Samsung Electronics" que incluye a "Samsung Electronics", "precio al mayoreo de Samsung Electronics" y "noticias de Samsung Electronics", la unidad de control 140 representa la lista de palabras de búsqueda candidatas 13930, como se muestra en la figura 141.
La figura 142 es un diagrama de flujo para explicar un método de control del aparato electrónico el cual muestra un menú de entrada de texto (IME) de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de voz a través de la unidad de entrada de voz 110 (S14210) . El aparato electrónico 100 puede representar una lista de contenidos que incluye una pluralidad de iconos ejecutables y una página de la red que incluye una pluralidad de hiperenlaces . Si se introduce la instrucción de inicio de voz, el aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz y representa información de asistencia de voz para realizar el modo de tarea de voz (S14220) .
El aparato electrónico 100 recibe la entrada de una voz de usuario para llevar a cabo una búsqueda a través de la unidad de entrada de voz 110 (S14230) .
El aparato electrónico 100 representa una ventana de entrada de texto para llevar a cabo la búsqueda (S14240) .
Si se representa la ventana de entrada de texto, el aparato electrónico 100 recibe la entrada de una voz de usuario para introducir un texto sobre la ventana de entrada del texto a través de la unidad de entrada de voz 110 (S14250) .
Si se introduce voz de usuario para introducir un texto, el aparato electrónico 100 introduce un texto que corresponde a la voz de usuario introducida sobre la ventana de entrada de texto (S14260) .
Si se introduce texto sobre la ventana de entrada de texto, el aparato electrónico 100 representa un menú de entrada de texto (S14270) . El menú de entrada de texto es un menú para corregir el texto introducido en la ventana de entrada de texto sino es claro un reconocimiento de voz.
En consecuencia, si la voz de usuario introducida en la unidad de entrada de usuario 110 no es reconocida perfectamente, el usuario puede suplementar reconocimiento de voz utilizando el menú de entrada de texto.
La unidad de control 140 puede reconocer una voz utilizando un aparato externo.
Específicamente, se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 representa información de asistencia de voz para guiar una tarea de voz la cual se realiza de acuerdo con una voz de usuario introducida a través de un aparato el cual está en comunicación con el aparato electrónico 100 (por e emplo, un controlador remoto) . Si se selecciona un botón de primera entrada de voz incluido en el aparato externo en comunicación con el aparato electrónico 100, la unidad de control 140 representa un primer mensaje de guía que guía una búsqueda de voz en la información de asistencia de voz. Por ejemplo, se puede representar un mensaje de guía "por favor presione el botón de búsqueda de voz y después introduzca una orden" .
La unidad de control 140 reconoce una voz de usuario a través de la unidad de entrada de voz 110 mientras se selecciona el segundo botón de entrada de voz incluido en el aparato externo. La unidad de entrada de voz 110 recibe una entrada de voz de usuario a un micrófono del aparato externo y transmite la voz de usuario a la unidad de control 140. La unidad de control 140 representa un segundo mensaje de guía que incluye información que indica que se introduce voz de usuario a través de la unidad de entrada de voz 110 en la información de asistencia de voz. Por ejemplo, se puede representar un mensaje de guía "se está reconociendo voz de usuario" .
La unidad de control 140 puede introducir la voz de usuario reconocida sobre una ventana de entrada de texto como un texto. La unidad de control 140 puede realizar una tarea de voz que corresponde a la voz de usuario reconocida.
Si se libera la selección del segundo botón de entrada de voz, la unidad de control 140 puede representar un tercer mensaje de guía confirmando si se completa o no la entrada de la voz de usuario en la información de asistencia de voz. El tercer mensaje de guía puede incluir un mensaje preguntando si se continúa introduciendo o no voz de usuario, un mensaje preguntando si se completa o no una voz de usuario introducida y un mensaje preguntando si se cancela la voz de usuario introducida.
Si una voz de usuario es introducida al seleccionar nuevamente el segundo botón de entrada de voz mientras se representa el tercer mensaje de guía, la unidad de control 140 puede reconocer la voz de usuario introducida continuamente además de la voz de usuario reconocida previamente. Por ejemplo, si la voz de usuario reconocida previamente es "Samsung" y una voz de usuario, "Electronics" es introducida al seleccionar nuevamente el segundo botón de entrada de voz, la unidad de voz 140 puede introducir "Samsung Electronics" en la ventana de entrada de texto.
El primer botón de entrada de voz es un botón de entrada de voz y el segundo botón de entrada de voz es un botón de búsqueda de voz . El primer botón de entrada de voz y el segundo botón de entrada de voz pueden ser diferentes entre sí o pueden ser el mismo botón.
La figura 143 es un diagrama de flujo para explicar un método para realizar una tarea de voz utilizando un aparato externo de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 representa información de asistencia de voz para realizar un modo de tarea de voz (S14310) .
Un aparato externo selecciona un botón de entrada de voz de acuerdo con una manipulación de usuario (S14320) .
Si se selecciona el botón de entrada de voz, el aparato electrónico 100 representa un primer mensaje de guía (S14330) . El primer mensaje de guía es una UI que guía una búsqueda de voz en la información de asistencia de voz.
El aparato electrónico 100 recibe una entrada de una voz de usuario a través de la unidad de entrada de voz 110 mientras se selecciona un botón de búsqueda de voz en el aparato externo (S14340) . La unidad de entrada de voz 110 puede ser una unidad de comunicación que recibe una entrada de voz de usuario del aparato externo.
El aparato electrónico 100 reconoce la entrada de voz de usuario a través de la unidad de entrada de voz 110 utilizando el módulo de reconocimiento de voz 130k (S14350) .
En la modalidad ejemplar anterior, el botón de entrada de voz y el botón de búsqueda de voz pueden ser el mismo botón.
Como se describe en lo anterior, la voz es introducida mientras se selecciona el botón de búsqueda de voz en el aparato externo, de manera que se puede evitar reconocimiento de voz no deseable.
Si se representa un nombre pronunciable en la pantalla de representación, la unidad de control 140 puede extraer el nombre y representarlo de modo distintivo. Si se introduce un nombre a través de la unidad de entrada de voz 110, la unidad de control 140 realiza una tarea de voz que corresponde al nombre .
Específicamente, si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz para realizar una tarea de voz en respuesta a la instrucción de inicio de voz introducida y representa información de asistencia de voz para realizar el modo de tarea de voz .
La unidad de control 140 extrae textos de incisos seleccionables de la pantalla de representación. La pantalla de representación puede representar una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación o una página de la red. El inciso seleccionable puede ser uno de un icono ejecutable incluido en la lista de contenido para ejecutar una aplicación y un hiperenlace incluido en la página de la red.
Si un texto de un nombre de un inciso tiene un número de caracteres que excede un número predeterminado, la unidad de control 140 extrae únicamente un texto que tenga un número de caracteres más pequeño que el número predeterminado de entre el texto completo del nombre del inciso y representa el texto.
La unidad de control 140 puede representar el inciso desde el cual se extrae el texto de modo distintivo de otros incisos desde los cuales no se extraen textos.
Si una entrada de voz de usuario a través de la unidad de entrada de voz 110 concuerda con el texto extraído, la unidad de control 140 ejecuta el inciso que corresponde al texto.
Si la voz d usuario introducida a través de la unidad de entrada de voz 110 concuerda con el texto extraído que tiene un número de caracteres menor que el número predeterminado, la unidad de control 140 ejecuta el inciso que corresponde al texto que tiene el número de caracteres más pequeño que el número predeterminado.
En lo siguiente se explicará un caso en el cual se representa una instrucción pronunciable sobre una pantalla de representación, con referencia a la figura 144 y la figura 145.
La unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a una instrucción de inicio de voz introducida a través de la unidad de entrada de voz 110. La unidad de control 140 representa información de asistencia de voz sobre una porción inferior de la pantalla de representación.
Si se introduce un "cubo inteligente" a través de la unidad de entrada de voz 110, la unidad de control 140 genera una lista de contenido que incluye una pluralidad de iconos ejecutables para ejecutar una aplicación y representa la lista de contenido como se muestra en la figura 144.
La unidad de control 140 extrae nombres de la pluralidad de iconos ejecutables.
Si se extrae un nombre de un icono ejecutable, la unidad de control 140 subraya el nombre del icono ejecutable, como se muestra en la figura 144 y, si no se extrae un nombre de un icono ejecutable (por ejemplo, APP10 y APP11) , la unidad de control 140 no subraya el nombre del icono ejecutable .
Si un nombre del icono ejecutable tiene un número de caracteres que excede a un número predeterminado, la unidad de control 140 extrae una parte del nombre del icono ejecutable y representa la parte del nombre. Por ejemplo, si un nombre de un icono ejecutable es "tambores sorprendentes", la unidad de control 140 extrae una parte del nombre del icono ejecutable "sorprendente" y representa la parte del nombre como se muestra en la figura 144. Para indicar que "sorprendente" es parte del nombre, la unidad de control 140 puede representar "..." después de "sorprendente".
Si el nombre extraído del icono ejecutable es representado y el nombre del icono ejecutable se introduce a través de la unidad de entrada de voz 110, la unidad de control 140 ejecuta el icono ejecutable. Por ejemplo, si se introduce "sorprendente" a través de la unidad de entrada de voz 110, la unidad de control 140 ejecuta la aplicación, "tambores sorprendentes", como se muestra en la figura 145.
La figura 146 es un diagrama de flujo para explicar un método para realizar una tarea de voz si se representa una instrucción pronunciable en una pantalla de representación de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de voz a través de la unidad de entrada de voz 110 (S14610) .
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a una instrucción de inicio de voz introducida a través de la unidad de entrada de voz 110 (S14620) .
El aparato electrónico 100 representa información de asistencia de voz para realizar el modo de tarea de voz en una porción inferior de la pantalla de representación (S14630) .
El aparato electrónico 100 extrae un texto de un inciso incluido en la pantalla de representación (S14640) . El inciso puede ser un nombre de un icono ejecutable incluido en una lista de contenido o un texto de un hiperenlace incluido en una página de la red.
El aparato electrónico 100 recibe la entrada de una voz de usuario a través de la unidad de entrada de voz 110 (S14650) .
Si existe un inciso que tenga un texto concordante con la entrada de voz de usuario a través de la unidad de entrada de voz 110, el aparato electrónico 100 ejecuta el inciso correspondiente (S14660) . Si solo una parte del texto se representa y una voz de usuario concordante con la parte del texto se introduce, la unidad de control 140 puede ejecutar el inciso correspondiente.
Como se describe en lo anterior, el nombre del texto se extrae y se representa de modo distintivo, de manera que el usuario puede utilizar más fácilmente reconocimiento de voz .
Aunque una voz de usuario se introduce a través de la unidad de entrada de voz 110, si existe únicamente un hiperenlace que tiene un texto que incluye una voz de usuario introducida, la unidad de control 140 puede ejecutar el hiperenlace que corresponde al texto.
Específicamente, si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110, en respuesta a una instrucción de inicio de voz.
En el modo de tarea de voz, la unidad de control 140 extrae textos de una pluralidad de hiperenlaces desde una página red que incluye una pluralidad de hiperenlaces.
Después de extraer los textos, la unidad de control 140 puede representar los textos extraídos de modo distintivo de los textos no extraídos. Por ejemplo, la unidad de control 140 puede subrayar el texto extraído, representarlo en negrillas o resaltarlo.
Mientras una voz de usuario es introducida a través de la unidad de entrada de voz 110, existe únicamente un hiperenlace que tiene un texto que incluye la voz de usuario introducida, la unidad de control 140 ejecuta el hiperenlace que corresponde al texto. Por ejemplo, si la voz de usuario introducida a través de la unidad de entrada de voz 110 es "Samsung Electronics" y el único texto extraído del hiperenlace es "Samsung Electronics", la unidad de control 140 ejecuta el hiperenlace que tiene el texto "Samsung Electronics" .
Mientras una voz de usuario es introducida a través de la unidad de entrada de voz 110, si existe únicamente un hiperenlace cuyo texto concuerda con la voz de usuario introducida en parte, en vez de en su totalidad, la unidad de control 140 puede ejecutar el hiperenlace que corresponde al texto.
En la modalidad ejemplar anterior, el método para ejecutar un hiperenlace incluido en una página de la red ha sido descrito. No obstante, este es solo un ejemplo y la idea técnica de la presente descripción se puede aplicar a un método para ejecutar un icono ejecutable incluido en una lista de contenido para ejecutar una aplicación.
La figura 147 es un diagrama de flujo para explicar un método de reconocimiento de voz automático, de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de voz a través de la unidad de entrada de voz 110 (S14710) .
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a una instrucción de inicio de voz introducida a través de la unidad de entrada de voz 110 (S14720).
Si se incluye un hiperenlace en la pantalla de representación del aparato electrónico 100, el aparato electrónico 100 extrae un texto del hiperenlace (S14730) .
El aparato electrónico 100 recibe la entrada de una voz de usuario a través de una unidad de entrada de voz 110. Si existe un hiperenlace que incluye un texto concordante con la voz de usuario introducida mientras se introduce la voz de usuario, el aparato electrónico 100 ejecuta el hiperenlace correspondiente (S14740) . El texto concordante con la voz de usuario puede ser un texto completo del hiperenlace. No obstante, este es solo un ejemplo y el texto concordante con la voz de usuario puede ser parte del texto del hiperenlace.
Como se describe en lo anterior, si existe únicamente un texto concordante con la voz de usuario, el hiperenlace correspondiente se ejecuta automáticamente de manera que el usuario pueda ejecutar el hiperenlace más fácilmente utilizando reconocimiento de voz.
Si se reconoce una voz de usuario introducida y existe una pluralidad de hiperenlaces que tienen un texto concordante con la voz de usuario reconocida, la unidad de control 140 representa una lista de un grupo candidato que incluye los hiperenlaces que tienen el texto concordante con la voz de usuario reconocida.
Específicamente, si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz, en el cual el aparato electrónico 100 es controlado de acuerdo con una voz de usuario introducida a través de una unidad de entrada de voz 110 en respuesta a la instrucción de inicio de voz.
La pantalla de representación muestra una página de la red que incluye una pluralidad de hiperenlaces.
La unidad de control 140 extrae textos incluidos en la pluralidad de hiperenlaces incluidos en la página de la red. La unidad de control 140 puede representar el texto extraído de modo distintivo de un texto no extraído. Por ejemplo, la unidad de control 140 puede subrayar el texto extraído, representarlo en negrillas o resaltarlo.
Si se introduce una voz de usuario a través de la unidad de entrada de voz 110, la unidad de control 140 reconoce la voz de usuario introducida, si existe una pluralidad de hiperenlaces que tengan un texto concordante con la voz de usuario reconocida, la unidad de control 140 representa una lista de un grupo candidato que incluye los hiperenlaces que tienen el texto concordante con la voz de usuario reconocida. Por ejemplo, si la voz de usuario introducida en la unidad de entrada de voz 110 es "Samsung Electronics", la unidad de control 140 puede generar una lista de un grupo candidato que incluye hiperenlaces que tienen un texto que incluya "Samsung Electronics" .
Si una voz de usuario es introducida nuevamente a través de la unidad de entrada de voz 110, la unidad de control 140 puede reconocer la voz de usuario introducida nuevamente y puede cambiar la lista del grupo candidato en base en la voz de usuario introducida nuevamente. Por ejemplo, si se reconoce "Samsung Electronics" y se vuelve introducir "existencias", la unidad de control 140 puede cambiar la lista del grupo candidato para incluir únicamente un hiperenlace que tiene el texto que incluya "existencias de Samsung Electronics" .
Si se libera el modo de tarea de voz, la unidad de control 140 puede remover la lista del grupo candidato de la pantalla de representación.
La figura 148 es un diagrama de flujo para explicar un método para representar una lista de un grupo candidato de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de voz a través de una unidad de entrada de voz 110 (S14810) .
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a una instrucción de inicio de voz introducida a través de la unidad 110 de entrada de voz 110 (S14820) .
El aparato electrónico 100 representa una página de la red sobre la pantalla de representación, de acuerdo con una manipulación de usuario (S14830) . La página de la red incluye una pluralidad de hiperenlaces.
El aparato electrónico 100 extrae textos del los hiperenlaces incluidos en la página de la red (S14840) .
El aparato electrónico 100 recibe la entrada de una voz de usuario a través de la unidad de entrada de voz 110 (S14850) .
El aparato electrónico 100 determina si existe únicamente un hiperenlace que tiene un texto concordante con la voz de usuario (S14860) .
Si únicamente existe un hiperenlace que tiene el texto concordante con la voz de usuario (S14860-Y) , la unidad de control 140 ejecuta el hiperenlace correspondiente (S14870) .
No obstante, si existen una pluralidad de hiperenlaces que tengan texto concordante con la voz de usuario (S14860-N) , la unidad de control 140 genera una lista de un grupo candidato que incluye la pluralidad de hiperenlaces y representa la lista del grupo candidato (S14880) . La unidad de control 140 selecciona un hiperenlace de acuerdo con una manipulación de usuario (por ejemplo, introducción de un texto de un hiperenlace como una voz) (S14890) , y ejecuta el hiperenlace seleccionado (S14870) .
Como se describe en lo anterior, la lista del grupo candidato se genera de manera que, incluso si existe una pluralidad de hiperenlaces que concuerdan con una voz de usuario, el usuario puede ejecutar un hiperenlace deseable utilizando la lista del grupo candidato.
Si un nivel de una voz de usuario introducida a través de la unidad de entrada de voz 110 es menor que un nivel predeterminado, la unidad de control 140 puede representar una UI de retroalimentación indicando que la voz del usuario no es reconocible en una primer área de la información de asistencia de voz.
Específicamente, si se introduce una instrucción de inicio de voz a través de la unidad de entrada de voz 110, la unidad de control 140 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en el cual el aparato electrónico 100 es controlado de acuerdo con una voz de usuario introducida a través de una unidad de entrada de voz 110, en respuesta a la instrucción de inicio de voz.
En el modo de tarea de voz, la unidad de control 140 representa la información de asistencia de voz que guía una tarea de voz la cual es realizada de acuerdo con una voz de usuario introducida a través de la unidad de entrada de voz 110. La información de asistencia de voz se puede representar sobre una porción inferior de la pantalla de representación .
La unidad de entrada de voz 110 recibe la entrada de una voz de usuario.
Si la voz de usuario introducida a través de la unidad de entrada de voz 110 es menor que un volumen predeterminado, la unidad de control 140 muestra una UI de retroalimentación indicando que la voz de usuario no es reconocible sobre una primer área de la información de asistencia de voz. La UI de retroalimentación puede incluir una GUI que represente el volumen predeterminado y un volumen de voz de usuario introducido a través de la unidad de entrada de voz 110 en forma de una barra. La primer área se puede localizar en una porción inferior de la información de asistencia de voz.
Además, la unidad de control 140 puede representar un mensaje en donde una voz de usuario debe ser mayor que un volumen predeterminado en una información de asistencia de voz . Por ejemplo, un mensaje "por favor hable más alto" puede representarse .
La figura 149 es un diagrama de flujo para explicar una UI para guiar un error de reconocimiento de voz de acuerdo con una modalidad ejemplar.
El aparato electrónico 100 recibe una instrucción de inicio de voz a través de la unidad de entrada de voz 110 (S14910) .
El aparato electrónico 100 cambia un modo del aparato electrónico 100 a un modo de tarea de voz en respuesta a una instrucción de inicio de voz introducida a través de la unidad de entrada de voz 110 (S14920) .
El aparato electrónico 100 representa información de asistencia de voz para realizar el modo de tarea de voz sobre una porción inferior de la pantalla de representación (S14930) .
El aparato electrónico 100 recibe la entrada de una voz de usuario a través de la unidad de entrada de voz 110 (S14940) .
Si un nivel de voz de usuario introducida a través de la unidad de entrada de voz 110 es menor que un nivel predeterminado, el aparato electrónico 100 representa una UI de retroalimentación (S14950) . La UI de retroalimentación puede una UI incluir un mensaje de que la voz de usuario no es reconocible debido a que el nivel de voz de usuario es más bajo que un nivel predeterminado y un mensaje de que el usuario debe pronunciar con mayor volumen.
Como se describe en lo anterior, si la voz del usuario es demasiado baja de modo que la voz no es reconocible, el aparato electrónico 100 informa que la voz no es reconocible de manera que el usuario puede reconocer fácilmente que la voz no es reconocible y por lo tanto puede resolver con facilidad.
Como se describe en lo anterior, el usuario puede controlar el aparato electrónico 100 más eficientemente y de modo intuitivo mediante uno de la voz de usuario y el movimiento de usuario.
En las modalidades ejemplares anteriores, los movimientos de usuario se describen (tal como un movimiento de usuario de una instrucción de inicio de movimiento el cual se establece como un movimiento de agitación de una mano horizontalmente 3-4 veces). Estas modalidades ejemplares no deben considerarse como limitantes, no obstante, dado que las modalidades ejemplares pueden llevarse a cabo con cualquier movimiento de usuario.
En las modalidades ejemplares anteriores se describen las instrucciones de voz de usuario. Estas modalidades ejemplares no deben considerarse como limitantes, no obstante, dado que las modalidades ejemplares pueden llevarse a cabo por cualquier entrada de voz de usuario.
En las modalidades ejemplares anteriores, la unidad de entrada de voz 110 se puede llevar a cabo por un micrófono que recibe la entrada de una voz de usuario directamente o por una interconexión que recibe una entrada de señal de voz al micrófono. De igual manera, la unidad de entrada de movimiento 120 se puede llevar a cabo por una cámara que fotografía directamente al usuario o puede llevarse a cabo por una interconexión que recibe datos fotografiados por la cámara .
El aparato electrónico 100 descrito en lo anterior se puede llevar a cabo por una TV. No obstante, esto no debe considerarse como una limitante y el aparato electrónico 100 puede materializarse por diversos aparatos tales como un decodificador, una PC, una computadora portátil, una PC tablet, un álbum electrónico, un libro electrónico, un PDA, un teléfono móvil, etc.
También, con referencia a la figura 3, se almacenan diversos módulos de programa en una unidad de almacenamiento 130. No obstante, los módulos de programa no necesariamente se almacenan en una unidad de almacenamiento 130.
Esto es, el módulo de reconocimiento de voz y el módulo de reconocimiento de movimiento se pueden almacenar en unidades de almacenamiento separadas, respectivamente. En consecuencia, el módulo de reconocimiento de voz puede reconocer una voz de usuario a partir de una señal de voz introducida desde un micrófono y puede proporcionar un resultado del reconocimiento a la unidad de control 140. Además, el módulo de reconocimiento de movimiento puede reconocer un movimiento de usuario utilizando una señal de imagen fotografiada por una cámara y puede proporcionar un resultado del reconocimiento a la unidad de control 140.
Además, el módulo de reconocimiento de voz y el módulo de reconocimiento de movimiento pueden almacenarse en aparatos externos separados respectivamente. Por ejemplo, un aparato de reconocimiento de voz que incluye un micrófono puede reconocer una voz de usuario utilizando un módulo de reconocimiento de voz y después puede proporcionar un resultado del reconocimiento al aparato electrónico 100. De igual manera, un aparato de reconocimiento de movimiento que incluye una cámara puede reconocer un movimiento de usuario utilizando un módulo de reconocimiento de movimiento y después puede proporcionar un resultado del reconocimiento al aparato electrónico 100.
Un código de programa para realizar los métodos de control descritos en lo anterior se puede almacenar en diversos tipos de medios de grabación. Específicamente, el código de programa se puede almacenar en diversos tipos de medios de grabación legibles por el aparato terminal tal como una memoria de acceso aleatorio (RAM) , una memoria instantánea, una memoria de solo lectura (ROM) , una ROM programable borrable (EPROM) , una ROM borrable electrónicamente y programable (EEPROM) , un registro, un disco duro, un disco extraíble, una tarjeta de memoria, una memoria USB, un CD-ROM, etc.
Las modalidades ejemplares anteriores y las ventajas son solo ejemplares y no deben considerarse como limitantes del presente concepto inventivo. Las modalidades ejemplares se pueden aplicar fácilmente a otros tipos de aparatos. Además, la descripción de las modalidades ejemplares se pretende que sea ilustrativa y que no limite el alcance de las reivindicaciones y muchas alternativas, modificaciones y variaciones serán evidentes para los expertos en el ámbito.
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (8)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones:
1. Un método para el control de un aparato electrónico, caracterizado porque comprende: representar una pluralidad de contenidos, cada uno de la pluralidad de contenidos comprende por lo menos un identificador de contenido, respectivamente; reconocer uno de entre una voz de usuario y un movimiento de usuario a través de uno de entre un módulo de reconocimiento de voz y un módulo de reconocimiento de movimiento ; ejecutar un contenido de la pluralidad de contenidos que tienen un identificador de contenido que corresponde a una voz de usuario en respuesta a la voz de usuario reconocida a través del módulo de reconocimiento de voz; y cambiar la pluralidad de contenidos de acuerdo con una dirección de un movimiento de usuario en respuesta al movimiento de usuario reconocido a través del módulo de reconocimiento de movimiento.
2. El método de conformidad con la reivindicación 1, caracterizado porque la pluralidad de contenidos comprende contenido de difusión, en donde la ejecución comprende un cambio en un canal de difusión actual a un canal de difusión que tenga un identificador de canal de difusión que corresponda a la voz de usuario reconocida, y en donde el cambio comprenda cambio del canal de difusión de acuerdo con una dirección del movimiento del usuario .
3. El método de conformidad con la reivindicación 2, caracterizado porque el identificador de canal comprende por lo menos uno de entre un número de canal, un nombre de canal y un nombre de programa.
4. El método de conformidad con la reivindicación 2, caracterizado porque el movimiento de usuario comprende un movimiento de palmada, en donde el cambio de canal de difusión comprende incrementar el canal de difusión por un número predeterminado en respuesta a un movimiento de usuario que comprende un movimiento de palmada en la dirección hacia arriba y disminuir el canal de difusión por un número predeterminado en respuesta a un movimiento de usuario que comprende un movimiento de palmada en la dirección hacia abajo.
5. El método de conformidad con la reivindicación 1, caracterizado porque el contenido es uno de entre un contenido de imagen, un contenido de música y un contenido de fotografía.
6. El método de conformidad con la reivindicación 5, caracterizado porque el identificador de contenido es el nombre del contenido.
7. El método de conformidad con la reivindicación 5, caracterizado porque el movimiento de usuario comprende un movimiento de palmada, en donde el cambio comprende cambio de un contenido actual a un contenido siguiente en una lista de contenido que comprende una pluralidad de contenidos en respuesta a un movimiento de usuario que comprende un movimiento de empalme en una dirección a la derecha y cambio del contenido actual a un contenido previo de la lista de contenido en respuesta a un movimiento de usuario que comprende un movimiento de palmada en una dirección hacia la izquierda.
8. Un aparato electrónico, caracterizado porque comprende : una unidad de entrada de voz la cual recibe la entrada de una voz de usuario; una unidad de entrada de movimiento la cual recibe la entrada de un movimiento de un usuario; y una unidad de salida de imagen la cual transmite una imagen con una pluralidad de contenidos, cada una de la pluralidad de contenidos tiene un identificador de contenido; una unidad de control la cual : reconoce uno de entre la voz la usuario y e movimiento de usuario, ejecuta un contenido que corresponde a la voz d usuario reconocida, y cambia la pluralidad de contenidos en respuesta una dirección de movimiento de usuario reconocido.
MX2014001447A 2011-11-07 2012-11-05 Aparato electronico y metodo para control del mismo. MX2014001447A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110115249A KR20130018464A (ko) 2011-08-05 2011-11-07 전자 장치 및 그의 제어 방법
PCT/KR2012/009240 WO2013069936A1 (en) 2011-11-07 2012-11-05 Electronic apparatus and method for controlling thereof

Publications (1)

Publication Number Publication Date
MX2014001447A true MX2014001447A (es) 2014-02-27

Family

ID=47351418

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014001447A MX2014001447A (es) 2011-11-07 2012-11-05 Aparato electronico y metodo para control del mismo.

Country Status (7)

Country Link
US (1) US20130033644A1 (es)
EP (1) EP2590424A3 (es)
JP (1) JP2014532933A (es)
CN (1) CN103092337A (es)
AU (1) AU2012336602A1 (es)
MX (1) MX2014001447A (es)
WO (1) WO2013069936A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140085061A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR20140087717A (ko) * 2012-12-31 2014-07-09 삼성전자주식회사 디스플레이 장치 및 제어 방법
JP2014164630A (ja) * 2013-02-27 2014-09-08 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2014149700A1 (en) * 2013-03-15 2014-09-25 Intel Corporation System and method for assigning voice and gesture command areas
US8938760B1 (en) * 2013-08-01 2015-01-20 Browan Communications Inc. Television box and method for controlling display to display audio/video information
CN103870160B (zh) * 2014-03-26 2018-03-23 联想(北京)有限公司 一种信息处理方法及电子设备
KR102357321B1 (ko) * 2014-08-27 2022-02-03 삼성전자주식회사 음성 인식이 가능한 디스플레이 장치 및 방법
JP2016095614A (ja) * 2014-11-13 2016-05-26 ソフトバンク株式会社 表示制御装置及びプログラム
CN105704293A (zh) * 2014-11-26 2016-06-22 阿里巴巴集团控股有限公司 短信发送者信息的显示方法和装置
KR20170082361A (ko) * 2016-01-06 2017-07-14 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102660511B1 (ko) * 2017-02-10 2024-04-24 삼성전자주식회사 디스플레이 장치 및 방법
CN107105173A (zh) * 2017-04-24 2017-08-29 武汉折叠空间科技有限公司 一种互动型自助视频制作方法
EP3401797A1 (en) 2017-05-12 2018-11-14 Samsung Electronics Co., Ltd. Speech navigation for multilingual web pages
US11024305B2 (en) * 2017-08-07 2021-06-01 Dolbey & Company, Inc. Systems and methods for using image searching with voice recognition commands
CN107300976A (zh) * 2017-08-11 2017-10-27 五邑大学 一种手势识别家庭影院***及其运作方法
CN110134466B (zh) * 2018-02-02 2024-05-28 北京三星通信技术研究有限公司 信息处理方法和终端设备
CN109727596B (zh) * 2019-01-04 2020-03-17 北京市第一〇一中学 控制遥控器的方法和遥控器
CN112533041A (zh) * 2019-09-19 2021-03-19 百度在线网络技术(北京)有限公司 视频播放方法、装置、电子设备和可读存储介质
CN112581946A (zh) * 2019-09-29 2021-03-30 百度在线网络技术(北京)有限公司 语音控制方法、装置、电子设备和可读存储介质
TWI724722B (zh) * 2019-12-31 2021-04-11 技嘉科技股份有限公司 電子裝置及螢幕上顯示介面的顯示方法
KR102318660B1 (ko) * 2020-02-28 2021-10-28 (주)재플 방송 수신 장치와 그의 동영상 재핑 광고 제공 방법 및 동영상 재핑 광고 제공 시스템
JP2021162969A (ja) * 2020-03-31 2021-10-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP7316983B2 (ja) * 2020-08-19 2023-07-28 Tvs Regza株式会社 受信装置、および、受信装置のプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7996232B2 (en) * 2001-12-03 2011-08-09 Rodriguez Arturo A Recognition of voice-activated commands
US7821541B2 (en) * 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050132420A1 (en) * 2003-12-11 2005-06-16 Quadrock Communications, Inc System and method for interaction with television content
TWI253298B (en) * 2004-02-09 2006-04-11 Delta Electronics Inc Video device with voice-assisted system
US8869200B2 (en) * 2006-02-14 2014-10-21 At&T Intellectual Property I, L.P. Selection list of thumbnails
KR100948600B1 (ko) * 2006-12-04 2010-03-24 한국전자통신연구원 제스처/음성 융합 인식 시스템 및 방법
US8209723B2 (en) * 2007-10-16 2012-06-26 Panasonic Corporation Broadcast receiving apparatus, and method and program for broadcast reception
JP2010072507A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 音声認識検索装置及び音声認識検索方法
US20100153996A1 (en) * 2008-12-17 2010-06-17 Migos Charles J Gesture based electronic program management system
JP5177075B2 (ja) * 2009-02-12 2013-04-03 ソニー株式会社 動作認識装置、動作認識方法、プログラム
KR101046022B1 (ko) * 2009-03-11 2011-07-01 삼성전기주식회사 인체 움직임 및 인간 음성을 이용한 원격 조정 장치
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
TW201106701A (en) * 2009-08-14 2011-02-16 Novatek Microelectronics Corp Device and method of voice control and related display device
US8432305B2 (en) * 2009-09-03 2013-04-30 Samsung Electronics Co., Ltd. Electronic apparatus, control method thereof, remote control apparatus, and control method thereof
KR101602461B1 (ko) * 2009-09-22 2016-03-15 삼성전자주식회사 디스플레이 장치 및 휴대폰의 제어방법
JP5473520B2 (ja) * 2009-10-06 2014-04-16 キヤノン株式会社 入力装置及びその制御方法
KR101623007B1 (ko) * 2009-11-11 2016-05-20 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
KR101086699B1 (ko) * 2010-02-04 2011-11-24 성균관대학교산학협력단 사용자 선호도 기반 이미지 관리장치 및 이미지 관리방법
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
JP2011209786A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP5625506B2 (ja) * 2010-06-04 2014-11-19 ソニー株式会社 操作端末装置、電子機器、および電子機器システム
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9304592B2 (en) * 2010-11-12 2016-04-05 At&T Intellectual Property I, L.P. Electronic device control based on gestures
US20120239396A1 (en) * 2011-03-15 2012-09-20 At&T Intellectual Property I, L.P. Multimodal remote control
US8972267B2 (en) * 2011-04-07 2015-03-03 Sony Corporation Controlling audio video display device (AVDD) tuning using channel name
US8923686B2 (en) * 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
EP2555536A1 (en) * 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022221A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same

Also Published As

Publication number Publication date
AU2012336602A1 (en) 2014-01-09
US20130033644A1 (en) 2013-02-07
EP2590424A3 (en) 2015-03-11
CN103092337A (zh) 2013-05-08
EP2590424A2 (en) 2013-05-08
WO2013069936A1 (en) 2013-05-16
JP2014532933A (ja) 2014-12-08

Similar Documents

Publication Publication Date Title
MX2014001447A (es) Aparato electronico y metodo para control del mismo.
US9733895B2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
AU2012293060B2 (en) Electronic apparatus and method for providing user interface thereof
EP2555537B1 (en) Electronic apparatus and method for providing user interface thereof
JP5746111B2 (ja) 電子装置及びその制御方法
US20130035941A1 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same

Legal Events

Date Code Title Description
FG Grant or registration