ES2358139A1 - Robot social. - Google Patents
Robot social. Download PDFInfo
- Publication number
- ES2358139A1 ES2358139A1 ES200902021A ES200902021A ES2358139A1 ES 2358139 A1 ES2358139 A1 ES 2358139A1 ES 200902021 A ES200902021 A ES 200902021A ES 200902021 A ES200902021 A ES 200902021A ES 2358139 A1 ES2358139 A1 ES 2358139A1
- Authority
- ES
- Spain
- Prior art keywords
- robot
- social robot
- head
- controller board
- webcam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000014509 gene expression Effects 0.000 claims abstract description 20
- 210000000744 eyelid Anatomy 0.000 claims abstract description 10
- 230000033001 locomotion Effects 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 7
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 7
- 230000005540 biological transmission Effects 0.000 claims abstract description 3
- 210000003128 head Anatomy 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims description 2
- 238000010168 coupling process Methods 0.000 claims description 2
- 238000005859 coupling reaction Methods 0.000 claims description 2
- 230000004886 head movement Effects 0.000 claims description 2
- 241000030366 Scorpidinae Species 0.000 abstract description 2
- 238000002604 ultrasonography Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 206010003830 Automatism Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
Robot social formado por un sistema de visión artificial compuesto por unas cámaras (3) webcam, un sistema de reconocimiento de voz formado por tres micrófonos (4) dispuestos en configuración triangular, un sistema de expresión compuesto por una matriz de leds, formada por una pluralidad de leds y un led de estado, y unos párpados (6) formados por una media luna asociada a una rueda dentada que engrana con respectivos servomotores a través de una rueda de transmisión, un sistema de síntesis del habla compuesto por unos altavoces (7), un sistema de detección de obstáculos constituido por sensores (8) de ultrasonidos, y un sistema de desplazamiento formado por dos ruedas (9) motrices.
Description
Robot social.
La presente invención esta relacionada con las
plataformas robóticas domésticas de uso personal, proponiendo un
robot social que es capaz de interaccionar con el entorno que lo
rodea aprendiendo del mismo.
Por el término robot se entiende toda máquina
controlada por computador y programada para moverse, manipular
objetos y realizar trabajos a la vez que interactúa con el entorno
que lo rodea.
Inicialmente la robótica iba encaminada a la
creación de automatismos que facilitaran las labores industriales
que debía realizar el ser humano en su lugar de trabajo, llevando a
cabo principalmente de forma preprogramada todas aquellas tareas que
fueran repetitivas, tediosas y peligrosas.
En los últimos años el avance de la
microelectrónica, el desarrollo de la informática, de la teoría de
control y la disponibilidad de servomecanismos electromecánicos e
hidromecánicos, entre otros, han sido un factor clave para la
evolución de la robótica, apareciendo una nueva generación de
autómatas denominados robots sociales.
Los robots sociales son aquellos capaces de
desarrollar actividades cognitivas y emotivas, interactuando y
comunicándose con las personas de una forma sencilla y agradable,
siguiendo una serie de comportamientos, patrones, y normas
sociales.
A este último respecto, los avances en el campo
de la robótica han ido orientados al desarrollo de robots bípedos
con una apariencia de forma humana que facilite las interrelaciones,
y con una precisa estructura mecánica que les confiera de una cierta
destreza física de locomoción y manipulación, siendo este el caso
del conocido robot de Honda "Asimo", en este sentido también es
conocido el robot "Aibo" de Sony, el cual asemeja la forma de
una mascota, pero que igualmente posee una compleja estructura
mecánica.
Aunque este tipo de robots disponen de sistemas
sensoriales para percibir el entorno que los rodea y son capaces de
interactuar con el ser humano, están limitados en el modo de
expresarse y su actuación se limita a respuestas simples frente a
acciones del usuario, siendo por tanto necesario desarrollar robots
sociales inteligentes que puedan relacionarse eficientemente con el
ser humano y con otros robots mediante un apropiado sistema de
expresión y que así mismo puedan aprender de esas
interrelaciones.
De acuerdo con la presente invención se propone
un robot social de uso personal que dispone de medios adecuados que
le permiten relacionarse de una manera eficiente con el entorno que
lo rodea a la vez que aprende de esas interrelaciones.
El robot objeto de la invención esta constituido
en su parte superior por una cabeza en la cual se sitúa un sistema
de visión artificial compuesto por dos cámaras webcam con forma de
ojos, un sistema de reconocimiento de voz formado por tres
micrófonos en disposición triangular y un sistema de expresión,
compuesto por una matriz de leds y unos parpados dispuestos
alrededor de las cámaras webcam con forma de ojos.
En la parte inferior del robot se dispone un
cuerpo, en el cual se sitúa un sistema de síntesis del habla
compuesto por dos altavoces dispuestos a ambos lados del cuerpo, un
sistema detección de obstáculos compuesto por unos sensores de
ultrasonidos, y un sistema de desplazamiento del robot, compuesto
por dos ruedas laterales motrices y una rueda guía central de menor
tamaño.
El robot dispone de una placa principal con un
sistema operativo de código abierto que controla todo el conjunto,
estando conectada esta placa principal a una placa controladora que
recibe las señales provenientes del sistema de visión artificial y
comanda el sistema de síntesis del habla, el sistema detección de
obstáculos, el sistema de desplazamiento y los parpados del sistema
de expresión, y a su vez, ésta placa controladora hace de puente de
conexión entre la placa principal y otra placa controladora que
recibe las señales provenientes del sistema de reconocimiento de voz
y comanda la matriz de leds del sistema de expresión.
Se obtiene así una plataforma robótica universal
y completamente autónoma que por sus características constructivas y
funcionales resulta muy ventajosa para la función de aplicación a la
que se halla destinada, relacionándose de una manera apropiada con
el entorno que lo rodea y aprendiendo de esa interrelación.
La figura 1 es una vista frontal en perspectiva
del robot social objeto de la invención.
La figura 2 es una vista trasera en perspectiva
respecto de la figura anterior.
La figura 3 es una vista frontal en perspectiva
del interior del robot.
La figura 4 es una vista trasera en perspectiva
del interior del robot.
La figura 5.1 es una vista en detalle de uno de
los parpados del sistema de expresión del robot.
La figura 5.2 muestra una vista en detalle de la
matriz de leds del sistema de expresión del robot.
La figura 6 muestra una vista en perspectiva de
los dos servomotores que accionan el movimiento de la cabeza del
robot.
La figura 7 es una vista esquemática de una de
las placas controladoras del conjunto funcional del robot.
La figura 8 es una vista esquemática de la otra
placa controladora del conjunto funcional.
La figura 9 es un esquema general de conexión de
los diferentes dispositivos del robot con las placas
controladoras.
El objeto de la invención se refiere a una
plataforma robótica universal en la forma de un robot social,
completamente autónoma y programada en código abierto, la cual
dispone de medios adecuados para interrelacionarse con el entorno
que la rodea.
En las figuras 1 y 2 se observa el robot objeto
de la invención, el cual está constituido en su parte superior por
una cabeza (1) de forma esférica y en su parte inferior por un
cuerpo (2), situándose en el interior de la cabeza (1) un sistema de
visión artificial compuesto por unas cámaras (3) webcam que asemejan
la forma de unos ojos, un sistema de reconocimiento de voz formado
por unos micrófonos (4) dispuestos en configuración triangular, y un
sistema de expresión compuesto por una matriz de leds (5) que
asemeja la nariz y boca del robot y unos parpados (6) dispuestos
alrededor de las cámaras (3) webcam con forma de ojos.
En el cuerpo (2) del robot se incorpora un
sistema de síntesis del habla compuesto por unos altavoces (7)
situados a ambos lados del cuerpo (2), un sistema de detección de
obstáculos constituido por varios sensores (8) de ultrasonidos, y un
sistema de desplazamiento del robot formado por dos ruedas (9)
motrices guiadas por una rueda (10) central de menor tamaño.
En el interior del cuerpo (2) del robot se
dispone una placa principal (11) con un sistema operativo en código
abierto donde se encuentran implementadas todas las funciones de
control del robot, estando conectada a esta placa (11) principal una
placa (12) controladora que se sitúa en el interior del cuerpo (2)
del robot en su parte frontal, haciendo esta placa (12) controladora
de puente de conexión con otra placa (13) controladora que se sitúa
en la parte posterior del interior de la cabeza (1) del robot.
Como se puede observar en la figura 5.1, los
parpados (6) del sistema de expresión están formados por una media
luna (6.1) asociada a una rueda dentada (6.2) que engrana con
respectivos servomotores (14 y 15) a través de una rueda de
transmisión (6.3). En función de la posición que adopte la media
luna (6.1) se pueden dar diferentes expresiones a la cara del robot,
así, si las medias lunas (6.1) se encuentran en una posición
superior el robot adopta una expresión alegre, si están en una
posición inferior una expresión triste y si, por ejemplo, está en
una posición intermedia, una expresión neutra.
La matriz de leds (5) está formada por una
pluralidad de leds (5.1) que mediante su iluminación selectiva
expresan el estado emocional del robot, y por un led (5.2) de estado
que, por ejemplo, si está en rojo indica un estado de error, en
naranja que está en carga y cuando se halla en blanco que el robot
está descargando actualizaciones. (Ver figura 5.2).
Por otro lado, las cámaras (3) webcam que
asemejan los ojos están separadas aproximadamente unos siete
centímetros para dar sensación de visión humana y de esta manera con
la disposición de los parpados (6), matriz de leds (5) y cámaras (3)
webcam se consigue una expresión en el robot más amigable que
facilita las interacciones con el ser humano.
Los micrófonos (4) del sistema de reconocimiento
de voz son tres y están dispuestos en configuración triangular,
situándose dos en una posición inferior y a ambos lados de la cabeza
(1) del robot, y otro en una posición superior y equidistante de los
otros dos.
La cabeza (1) del robot esta accionada por dos
servomotores (16 y 17) unidos entre sí mediante un eje central,
realizando el servomotor (16) los movimientos laterales de la cabeza
(1) y el servomotor (17) los movimientos verticales, el servomotor
(16) está limitado a un movimiento lateral de unos 180º y el
servomotor (17) a un movimiento vertical de unos 70º, con el
propósito de dar una mayor sensación de comportamiento humano. (Ver
figura 6).
Cuando el robot está en funcionamiento a la
espera de interaccionar, los tres micrófonos (4) se encuentran en
alerta para detectar un determinado umbral de ruido, por ejemplo del
orden de unos 50 dB, así cuando uno de los micrófonos laterales
detecta que se ha superado el umbral de ruido, la cabeza (1) del
robot gira lateralmente por medio del servomotor (16), orientándose
hacia la zona donde se ha recibido la señal, en ese momento se
activan las cámaras (3) webcam y se orienta verticalmente la cabeza
(1), por medio del servomotor (17), hasta que las cámaras (3)
enfoquen la cara de la persona que le está hablando, en ese momento
el robot se encuentra en condiciones de recibir datos de voz a
través del micrófono (4) superior e imágenes a través de las cámaras
(3) webcam, en el caso de que el micrófono (4) superior sea el que
detecte el umbral de ruido, la cabeza (1) no gira lateralmente,
únicamente gira verticalmente, actuando el servomotor (17) hasta que
las cámara (3) webcam detectan la cara de la persona que le está
hablando.
Los sensores (8) de ultrasonidos del sistema de
detección de obstáculos son seis, tres de ellos están dispuestos en
la parte frontal del cuerpo (2), dos en la parte posterior del mismo
y otro en la parte inferior, de manera que dos de los frontales
detectan obstáculos a ambos lados del robot, el otro frontal esta
orientado hacia abajo para detectar obstáculos o cambios de altura
en el desplazamiento del robot, el inferior detecta si el robot ha
sido levantado del suelo y los dos traseros detectan obstáculos en
toda la periferia posterior del robot.
Las ruedas (9) del sistema de desplazamiento,
ubicadas en la parte inferior del robot están respectivamente
asociadas, mediante transmisión directa a su eje, con sendos motores
(18 y 19) provistos con unos encoders.
Como se puede observar en la figura 7, la placa
(12) controladora dispone de cuatro conectores (12.1, 12.2, 12.3,
12.4) para controlar los servomotores (14, 15, 16, 17) que accionan
los parpados (6) del sistema de expresión y el movimiento de la
cabeza (2), dos dispositivos de entrada y salida (12.5, 12.6) para
controlar los encoders de los motores (18 y 19) del sistema de
desplazamiento, tres puertos preferentemente del tipo USB (12.7,
12.8 y 12.9) para conectarse con un dispositivo WIFI y las cámaras
(3) webcam del sistema de visión artificial, un dispositivo (12.10)
de conexión de audio con la placa (11) principal, una salida (12.11)
de audio para los altavoces (7) del sistema de síntesis de habla y
una entrada de audio (12.12) proveniente de la placa (13)
controladora, así como unos puntos de alimentación (12.13, 12.14,
12.15).
Igualmente como se observa en la figura 8, la
placa (13) controladora dispone de tres entradas (13.1, 13.2, 13.3)
de audio para los micrófonos (4) del sistema de reconocimiento de
voz, así como una salida (13.4) para enviar el audio obtenido a la
entrada (12.12) de la placa (12), igualmente dispone de un
multiconector (13.5) para la matriz de leds (5) del sistema de
expresión y de un punto de alimentación (13.6).
Las comunicaciones entre la placa principal (11)
y la placa (12) controladora, así como entre las placas (12 y 13)
controladoras se realiza a través del protocolo I2C, disponiéndose
un Bus de datos entre un conector (12.16) de la placa (12) y otro
conector (13.7) de la placa (13), a este Bus de datos se conectan
los sensores (8) de ultrasonidos del sistema de detección de
obstáculos, una pantalla LCD (18) y un compás digital (19), las
señales de estos últimos dispositivos son controladas por la placa
(12) controladora y enviadas igualmente vía comunicación I2C a la
placa (11) principal para su procesamiento.
La pantalla LCD (18) se sitúa en la parte
trasera del cuerpo (2) del robot y se utiliza para conocer el estado
del mismo, en relación a variables como el nivel de batería, errores
en la plataforma robótica y versiones firmware entre otras.
El compás digital (19) es un sistema de
posicionamiento que permite conocer la posición aproximada del robot
en el entorno en que se encuentra y se encarga de llevar al mismo lo
más cerca posible de una plataforma de carga (no representada)
cuando se encuentra en estado de batería baja, y para el
acoplamiento exacto del robot con la plataforma de carga se disponen
en la misma unos leds de infrarrojos que se corresponden con unos
receptores infrarrojos (20) y que se encuentran conectados a la
placa (13) controladora a través de un conector (13.8).
Ambas placas (12 y 13) controladoras disponen de
unos procesadores (U12 y U13) donde están implementadas funciones
básicas de control disponiéndose sendos conectores (ICSP) para
programar en serie los procesadores de cada placa controladora.
La placa (12) controladora es la encargada de
encender y apagar el robot, recibe una alimentación, generalmente a
12 V, a través del punto de alimentación (12.13) y alimenta a la
placa (11) principal y a la placa (13) controladora a través de los
puntos de alimentación (12.14 y 12.15), así desde la placa (11)
principal se envía la orden de apagado, y la placa (12) controladora
se encarga de apagar la matriz de leds (5), la placa (13)
controladora, apaga a la propia placa (11) principal y por último se
apaga ella misma.
El robot dispone en la parte posterior de la
cabeza (1) de una antena (21), provista de la tecnología de
comunicación WIFI, para relacionarse con una red neuronal artificial
ubicada en una posición remota a la que están conectados distintos
robots, de manera que todos ellos pueden compartir la información
que han recibido potenciándose el aprendizaje de los mismos.
El robot puede conectarse con el exterior
mediante el dispositivo WIFI, de modo que a través del mismo se
puede compartir información, almacenar datos en la red neuronal, o
actualizar el software, igualmente el robot dispone de un
dispositivo BLUETOOTH para conectar al robot con diferentes
dispositivos como teléfonos móviles, pdas u otros.
El robot dispone en la parte posterior del
cuerpo (2) de puertos USB para la conexión de diferentes
dispositivos, tales como por ejemplo el dispositivo BLUETOOH, una
tarjeta de memoria donde podría ubicarse el sistema operativo,
etc.
Con todo ello así, y tal como se observa en el
esquema general de la figura 9, la placa (11) principal es la que
gobierna las acciones del robot y se comunica con las placas (12 y
13) controladoras, que son las que poseen en todo momento datos en
tiempo real del entorno del robot, la placa (12) controladora se
comunica y recibe las señales provenientes de las cámara (3) webcam
del sistema de visión artificial, recibe las señales de los sensores
(8) de ultrasonidos del sistema de detección de obstáculos, así como
la posición del robot mediante el compás digital (19) y envía
información de estado a la pantalla LCD (18), igualmente comanda los
parpados (6) del sistema de expresión, el movimiento de la cabeza
(2), los altavoces (7) del sistema de síntesis de habla, y las
ruedas (9 y 10) del sistema de desplazamiento, mientras que la placa
(13) controladora se comunica y recibe las señales provenientes de
los micrófonos (4) del sistema de reconocimiento de voz, comanda la
matriz de leds (5) del sistema de expresión, y además recibe
información de los receptores infrarrojos (20).
Al encontrarse el sistema operativo configurado
en código abierto (open source), cualquier usuario tiene la
posibilidad de programar, interactuar y/o modificar los diferentes
datos recibidos de todos los componentes hardware del robot
anteriormente descritos, de manera que el robot realice las
funciones que el usuario requiera.
Claims (9)
1. Robot social, del tipo que comprende una
cabeza (1) en donde se ubica un sistema de visión artificial
compuesto por unas cámaras (3) webcam, un sistema de reconocimiento
de voz formado por unos micrófonos (4), y un sistema de expresión; y
un cuerpo (2) en donde se ubica un sistema de síntesis del habla
compuesto por unos altavoces (7), un sistema de detección de
obstáculos constituido por sensores (8) de ultrasonidos, y un
sistema de desplazamiento formado por dos ruedas (9) motrices,
caracterizado porque el sistema de expresión está compuesto
por una matriz de leds (5), formada por una pluralidad de leds (5.1)
y un led (5.2) de estado, y unos parpados (6) formados por una media
luna (6.1) asociada a una rueda dentada (6.2) que engrana con
respectivos servomotores (14 y 15) a través de una rueda de
transmisión (6.3); y porque los micrófonos (4) del sistema de
reconocimiento de voz son tres y están dispuestos en configuración
triangular, dos situados en una posición inferior a ambos lados de
la cabeza (1) y el otro en una posición superior y equidistante de
los otros dos.
2. Robot social, de acuerdo con la primera
reivindicación, caracterizado porque en el interior del
cuerpo (1) se dispone un placa (11) principal con un sistema
operativo en código abierto, la cual está conectada a un placa (12)
controladora situada en el interior del cuerpo (2) y que conecta con
una placa (13) controladora situada en la parte posterior interior
de la cabeza (1).
3. Robot social, de acuerdo con la primera
reivindicación, caracterizado porque las cámaras (3) webcam
están separadas aproximadamente unos siete centímetros.
4. Robot social, de acuerdo con la primera
reivindicación, caracterizado porque los sensores (8) de
ultrasonidos del sistema de detección de obstáculos son seis, tres
de ellos dispuestos en la parte frontal del cuerpo (2), dos en la
parte posterior del mismo y otro en la parte inferior.
5. Robot social, de acuerdo con la primera
reivindicación, caracterizado porque la cabeza (1) está
accionada por dos servomotores (16 y 17), donde el servomotor (16)
realiza movimientos laterales de la cabeza limitados a 180º y el
servomotor (17) realiza movimientos verticales limitados a 70º.
6. Robot social, de acuerdo con la primera
reivindicación, caracterizado porque en la parte posterior de
la cabeza (1) dispone de una antena (21) de conexión con una red
neuronal artificial ubicada en una posición remota.
7. Robot social, de acuerdo con la primera y
segunda reivindicaciones, caracterizado porque la placa (12)
controladora dispone de cuatro conectores (12.1, 12.2, 12.3, 12.4)
de control de unos servomotores (14, 15, 16, 17), dos dispositivos
de entrada y salida (12.5, 12.6) de control de unos motores (18 y
19), tres puertos USB (12.7, 12.8 y 12.9) de conexión con un
dispositivo WIFI y las cámaras (3) webcam, una salida (12.11) de
audio para los altavoces (7), una entrada (12.12) de audio y unos
puntos de alimentación (12.13, 12.14 y 12.15).
8. Robot social, de acuerdo con la primera y
segunda reivindicaciones, caracterizado porque la placa (13)
controladora dispone de tres entradas (13.1, 13.2, 13.3) de audio
para los micrófonos (4), una salida (13.4) de audio, un
multiconector (13.5) para la matriz de leds (5) y un punto de
alimentación (13.6).
9. Robot social, de acuerdo con la primera y
segunda reivindicaciones, caracterizado porque por medio de
un conector (13.8) de la placa (13) controladora se conectan unos
receptores infrarrojos (20) para el acoplamiento exacto del robot
con una plataforma de carga donde se disponen unos leds infrarrojos
en correspondencia con dichos receptores infrarrojos (20).
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200902021A ES2358139B1 (es) | 2009-10-21 | 2009-10-21 | Robot social. |
PCT/ES2010/000409 WO2011048236A1 (es) | 2009-10-21 | 2010-10-08 | Robot social |
EP10824490A EP2492850A4 (en) | 2009-10-21 | 2010-10-08 | SOCIAL ROBOT |
JP2012534727A JP5784027B2 (ja) | 2009-10-21 | 2010-10-08 | ソーシャルロボット |
US13/502,605 US20120209433A1 (en) | 2009-10-21 | 2010-10-08 | Social robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200902021A ES2358139B1 (es) | 2009-10-21 | 2009-10-21 | Robot social. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2358139A1 true ES2358139A1 (es) | 2011-05-06 |
ES2358139B1 ES2358139B1 (es) | 2012-02-09 |
Family
ID=43880323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200902021A Active ES2358139B1 (es) | 2009-10-21 | 2009-10-21 | Robot social. |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120209433A1 (es) |
EP (1) | EP2492850A4 (es) |
JP (1) | JP5784027B2 (es) |
ES (1) | ES2358139B1 (es) |
WO (1) | WO2011048236A1 (es) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9092021B2 (en) * | 2012-01-06 | 2015-07-28 | J. T. Labs Limited | Interactive apparatus |
US20150138333A1 (en) * | 2012-02-28 | 2015-05-21 | Google Inc. | Agent Interfaces for Interactive Electronics that Support Social Cues |
JP2016522465A (ja) * | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | 永続性コンパニオンデバイスを提供するための装置及び方法 |
CN104511902A (zh) * | 2013-09-29 | 2015-04-15 | 哈尔滨咏棠传祺广告传媒有限公司 | 多功能迎宾机器人装置 |
CN103760920B (zh) * | 2014-01-23 | 2017-01-18 | 宏泰集团(厦门)有限公司 | 智能声场控制*** |
CN104913206A (zh) * | 2014-06-06 | 2015-09-16 | 苏州晓炎自动化设备有限公司 | 一种四脚机器人灯 |
USD746887S1 (en) * | 2014-06-11 | 2016-01-05 | Shenzhen Foscam Intelligent Technology Co., Ltd. | Network camera |
KR101639386B1 (ko) * | 2015-03-31 | 2016-07-13 | 한은주 | 안구 형상을 갖는 cctv용 카메라 |
RU2617918C2 (ru) * | 2015-06-19 | 2017-04-28 | Иосиф Исаакович Лившиц | Способ формирования образа человека с учетом характеристик его психологического портрета, полученных под контролем полиграфа |
CN105058391B (zh) * | 2015-08-10 | 2017-06-23 | 弗徕威智能机器人科技(上海)有限公司 | 一种头部安装互动屏幕的智能移动服务机器人 |
CN105234945A (zh) * | 2015-09-29 | 2016-01-13 | 塔米智能科技(北京)有限公司 | 一种基于网络语音对话及体感互动的迎宾机器人 |
CN105345820B (zh) * | 2015-12-01 | 2017-08-22 | 上海唐娃智能科技有限公司 | 儿童成长智能机器人及其控制方法 |
KR102573769B1 (ko) * | 2015-12-15 | 2023-09-04 | 삼성전자주식회사 | 전자장치 및 그 거치대 |
KR102392113B1 (ko) * | 2016-01-20 | 2022-04-29 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음성 명령 처리 방법 |
USD872768S1 (en) | 2016-02-19 | 2020-01-14 | Sony Corporation | Robot having display screen with animated graphical user interface |
CN106003069B (zh) * | 2016-05-30 | 2017-08-15 | 深圳市鼎盛智能科技有限公司 | 一种机器人 |
CN105856260A (zh) * | 2016-06-24 | 2016-08-17 | 深圳市鑫益嘉科技股份有限公司 | 一种带有随叫随到功能的机器人 |
CN105856263A (zh) * | 2016-06-24 | 2016-08-17 | 深圳市鑫益嘉科技股份有限公司 | 一种带有智能跟随功能的机器人 |
DE102016216408A1 (de) | 2016-08-31 | 2018-03-01 | BSH Hausgeräte GmbH | Multimodale Zustandsanzeige |
CN109690435A (zh) * | 2016-09-08 | 2019-04-26 | Groove X 株式会社 | 保持自然的距离感的行为自主型机器人 |
GB2553840B (en) * | 2016-09-16 | 2022-02-16 | Emotech Ltd | Robots, methods, computer programs and computer-readable media |
CN106313071B (zh) * | 2016-09-30 | 2018-09-04 | 河海大学常州校区 | 一种老年人居家使用的智能机器人 |
KR102506428B1 (ko) * | 2016-09-30 | 2023-03-06 | 삼성전자 주식회사 | 전자 장치 및 이의 노이즈 제어 방법 |
JP7351745B2 (ja) * | 2016-11-10 | 2023-09-27 | ワーナー・ブラザース・エンターテイメント・インコーポレイテッド | 環境制御機能を有する社会ロボット |
CN106625698A (zh) * | 2016-11-15 | 2017-05-10 | 墨宝股份有限公司 | 一种具备表情显示功能的智能机器人 |
CN106313082B (zh) * | 2016-11-21 | 2020-04-14 | 深圳哈乐派科技有限公司 | 陪护机器人 |
CN106514665B (zh) * | 2016-11-24 | 2023-04-07 | 上海海大计算机科技有限公司 | 教育机器人及其控制方法 |
CN106363644B (zh) * | 2016-11-29 | 2018-10-23 | 皖西学院 | 一种互联网教育服务智能机器人 |
CN106737724A (zh) * | 2016-11-29 | 2017-05-31 | 上海小持智能科技有限公司 | 一种家庭社交服务型机器人*** |
CN106799733A (zh) * | 2016-12-27 | 2017-06-06 | 深圳前海勇艺达机器人有限公司 | 机器人动作方法与*** |
CN106625715A (zh) * | 2017-01-20 | 2017-05-10 | 小煷伴(深圳)智能科技有限公司 | 一种自主移动的多功能智能机器人 |
KR20180096078A (ko) * | 2017-02-20 | 2018-08-29 | 엘지전자 주식회사 | 모듈형 가정용 로봇 |
CN107214708A (zh) * | 2017-04-18 | 2017-09-29 | 谭昕 | 一种巡逻机器人 |
CN106976097A (zh) * | 2017-05-26 | 2017-07-25 | 成都福莫斯智能***集成服务有限公司 | 一种智能机器人 |
CN106976096A (zh) * | 2017-05-26 | 2017-07-25 | 成都福莫斯智能***集成服务有限公司 | 有效提升教学效率的教学机器人 |
CN107433603A (zh) * | 2017-09-12 | 2017-12-05 | 合肥矽智科技有限公司 | 一种商场购物服务机器人物联网*** |
US20190111565A1 (en) * | 2017-10-17 | 2019-04-18 | True Systems, LLC | Robot trainer |
US11086597B2 (en) | 2017-11-06 | 2021-08-10 | Google Llc | Methods and systems for attending to a presenting user |
CN108098787B (zh) * | 2017-12-25 | 2024-06-11 | 大连大学 | 一种语音互动机器人结构及其*** |
JP7109207B2 (ja) * | 2018-02-23 | 2022-07-29 | パナソニックホールディングス株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
CN108536223A (zh) * | 2018-03-27 | 2018-09-14 | 山东英才学院 | 一种儿童虚拟智能设备 |
CN108818573A (zh) * | 2018-09-11 | 2018-11-16 | 中新智擎科技有限公司 | 一种多功能服务机器人 |
CN109333560A (zh) * | 2018-11-19 | 2019-02-15 | 宁波智能制造技术研究院有限公司 | 一种自平衡式移动机器人 |
WO2020184739A1 (ko) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | 로봇 |
WO2020184738A1 (ko) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | 로봇 |
CN109866235A (zh) * | 2019-04-02 | 2019-06-11 | 安徽延达智能科技有限公司 | 一种运用于煤矿井下的巡检机器人 |
USD944879S1 (en) * | 2019-08-27 | 2022-03-01 | Sony Corporation | Robot |
USD971979S1 (en) | 2019-08-27 | 2022-12-06 | Sony Corporation | Robot |
CN110524555A (zh) * | 2019-08-28 | 2019-12-03 | 南京市晨枭软件技术有限公司 | 一种车站机器人服务*** |
KR102330901B1 (ko) | 2019-09-27 | 2021-11-26 | 엘지전자 주식회사 | 이동로봇 |
CN111546338A (zh) * | 2020-05-08 | 2020-08-18 | 华为技术有限公司 | 一种机器人的控制方法、装置、机器人以及存储介质 |
CN111660300A (zh) * | 2020-07-01 | 2020-09-15 | 中关村科学城城市大脑股份有限公司 | 一种基于城市大脑平台的户政业务机器人 |
USD962357S1 (en) * | 2020-09-25 | 2022-08-30 | Wen Hsien Lee | Top toy |
USD972659S1 (en) * | 2021-03-19 | 2022-12-13 | MerchSource, LLC | Toy combat robot |
CN115431281A (zh) * | 2021-06-02 | 2022-12-06 | 南京西新人工智能研究院有限公司 | 一种头部可随动的人形闻讯服务机器人 |
CN113670475A (zh) * | 2021-08-20 | 2021-11-19 | 青岛进化者小胖机器人科技有限公司 | 一种智能测温机器人 |
CN113858197A (zh) * | 2021-09-26 | 2021-12-31 | 深圳优地科技有限公司 | 面板组件和移动机器人 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002154081A (ja) * | 2000-11-16 | 2002-05-28 | Nec Access Technica Ltd | ロボットならびにその表情表現方法および段差と持ち上げ状態の検出方法 |
US6507773B2 (en) * | 2001-06-14 | 2003-01-14 | Sharper Image Corporation | Multi-functional robot with remote and video system |
US6925357B2 (en) * | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
JP2004237392A (ja) * | 2003-02-05 | 2004-08-26 | Sony Corp | ロボット装置、及びロボット装置の表現方法 |
JP2004268235A (ja) * | 2003-03-11 | 2004-09-30 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP3875659B2 (ja) * | 2003-07-25 | 2007-01-31 | 株式会社東芝 | カメラ装置及びロボット装置 |
JP2005193331A (ja) * | 2004-01-06 | 2005-07-21 | Sony Corp | ロボット装置及びその情動表出方法 |
JP4244812B2 (ja) * | 2004-01-16 | 2009-03-25 | ソニー株式会社 | 行動制御システム及びロボット装置の行動制御方法 |
KR100645379B1 (ko) * | 2004-10-29 | 2006-11-15 | 삼성광주전자 주식회사 | 로봇 제어 시스템 및 로봇 제어방법 |
JP4460528B2 (ja) * | 2004-12-14 | 2010-05-12 | 本田技研工業株式会社 | 識別対象識別装置およびそれを備えたロボット |
JP4373903B2 (ja) * | 2004-12-14 | 2009-11-25 | 本田技研工業株式会社 | 自律移動ロボット |
JP2006167833A (ja) * | 2004-12-14 | 2006-06-29 | Honda Motor Co Ltd | ロボット |
JP2006289507A (ja) * | 2005-04-05 | 2006-10-26 | Sony Corp | ロボット装置及びその制御方法 |
JP2006289508A (ja) * | 2005-04-05 | 2006-10-26 | Sony Corp | ロボット装置及びその表情制御方法 |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
JP2009222969A (ja) * | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
US8565922B2 (en) * | 2008-06-27 | 2013-10-22 | Intuitive Automata Inc. | Apparatus and method for assisting in achieving desired behavior patterns |
US9193065B2 (en) * | 2008-07-10 | 2015-11-24 | Intouch Technologies, Inc. | Docking system for a tele-presence robot |
KR101479234B1 (ko) * | 2008-09-04 | 2015-01-06 | 삼성전자 주식회사 | 로봇 및 그 제어 방법 |
KR101169674B1 (ko) * | 2010-03-11 | 2012-08-06 | 한국과학기술연구원 | 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법 |
-
2009
- 2009-10-21 ES ES200902021A patent/ES2358139B1/es active Active
-
2010
- 2010-10-08 US US13/502,605 patent/US20120209433A1/en not_active Abandoned
- 2010-10-08 JP JP2012534727A patent/JP5784027B2/ja active Active
- 2010-10-08 WO PCT/ES2010/000409 patent/WO2011048236A1/es active Application Filing
- 2010-10-08 EP EP10824490A patent/EP2492850A4/en not_active Withdrawn
Non-Patent Citations (4)
Title |
---|
"BOCA v1. Módulo de control facial del robot SAM" (Alejandro Alonso Puig). 30/09/2006. Recuperado de Internet,URL: http://www.mundobot.com/tecnica/boca/spboca.htm * |
"Diseño de una cabeza robótica para el estudio de procesos de interacción con personas" (Enrique Paz Domonte et al) 10/09/2004.Recuperado de Internet, URL: http://www.cea-ifac.es/actividades/jornadas/XXV/documentos/100-afguezoanz.pdf * |
"Flexible Docking Mechanism with Error-Compensation Capability forAuto Recharging System of Mobile Robot" (Se-gon Roh et al). 23/08/2008 Automation Science and Engineering, 2008. CASE 2008. IEEE International Conference on , vol., no., pp.697-702. Recuperado de Internet, URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4626554&isnumber=4626395 * |
SALICHS, M.A. ET AL.: 'Maggie: A Robotic Platform for Human-Robot Social Interaction' ROBOTICS, AUTOMATION AND MECHATRONICS, 2006 IEEE CONFERENCE ON, [Online] 01 December 2006, pages 1 - 7 Retrieved from the Internet: <URL:http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4018870&isnumber=4018722> * |
Also Published As
Publication number | Publication date |
---|---|
WO2011048236A1 (es) | 2011-04-28 |
US20120209433A1 (en) | 2012-08-16 |
EP2492850A4 (en) | 2013-04-03 |
EP2492850A1 (en) | 2012-08-29 |
JP5784027B2 (ja) | 2015-09-24 |
JP2013508177A (ja) | 2013-03-07 |
ES2358139B1 (es) | 2012-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2358139A1 (es) | Robot social. | |
US9821457B1 (en) | Adaptive robotic interface apparatus and methods | |
US20170348858A1 (en) | Multiaxial motion control device and method, in particular control device and method for a robot arm | |
Salichs et al. | Maggie: A robotic platform for human-robot social interaction | |
US20180025268A1 (en) | Configurable machine learning assemblies for autonomous operation in personal devices | |
JP3714268B2 (ja) | ロボット装置 | |
US20060064202A1 (en) | Environment identification device, environment identification method, and robot device | |
JP4086024B2 (ja) | ロボット装置及びその行動制御方法 | |
US11648485B2 (en) | Toy robot | |
JP2001150374A (ja) | ロボットの故障診断システム | |
JP4281286B2 (ja) | ロボット装置及びその制御方法 | |
JP2004130427A (ja) | ロボット装置及びロボット装置の動作制御方法 | |
JPWO2019138618A1 (ja) | 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム | |
CN112823083A (zh) | 可配置和交互式的机器人*** | |
JP2004283956A (ja) | 充電システム、ロボット装置、充電装置、及び充電方法 | |
KR20210090852A (ko) | 주행모드 변경이 가능한 이동로봇 | |
KR20140136141A (ko) | 로봇 동물을 구비하는 로봇 동물원 | |
WO2018033839A1 (en) | Interactive modular robot | |
JP4539291B2 (ja) | ロボット装置及びその動作制御方法 | |
Abdulkareem et al. | Development of a programmable mobile robot | |
JP2002205290A (ja) | 脚式移動ロボットの制御装置及び制御方法 | |
Kim et al. | Intelligence technology for ubiquitous robots | |
Filippov et al. | Training and Research Using The Robotic Platform of The Anthropomorphic Robot Greta 2.0 | |
Edirisinghe et al. | Design of a human-like robot head with emotions | |
Zhang et al. | The architecture and body of FUWA developmental humanoid |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2358139 Country of ref document: ES Kind code of ref document: B1 Effective date: 20120209 |