KR101159133B1 - 안드로이드 로봇 및 그 이용방법 - Google Patents

안드로이드 로봇 및 그 이용방법 Download PDF

Info

Publication number
KR101159133B1
KR101159133B1 KR1020090133126A KR20090133126A KR101159133B1 KR 101159133 B1 KR101159133 B1 KR 101159133B1 KR 1020090133126 A KR1020090133126 A KR 1020090133126A KR 20090133126 A KR20090133126 A KR 20090133126A KR 101159133 B1 KR101159133 B1 KR 101159133B1
Authority
KR
South Korea
Prior art keywords
voice
robot
voice signal
sound source
signal
Prior art date
Application number
KR1020090133126A
Other languages
English (en)
Other versions
KR20110076424A (ko
Inventor
이덕연
이동욱
이호길
박현섭
손웅희
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020090133126A priority Critical patent/KR101159133B1/ko
Publication of KR20110076424A publication Critical patent/KR20110076424A/ko
Application granted granted Critical
Publication of KR101159133B1 publication Critical patent/KR101159133B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 안드로이드 로봇에 관한 것으로서, 복수의 마이크로폰과, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서와, 상기 변환된 음성 신호를 분석하고 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부를 포함한다. 이러한 본 발명에 의해, 안드로이드 로봇은 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다.
안드로이드 로봇, 음원 프로세서, 음원 추적

Description

안드로이드 로봇 및 그 이용방법{ANDROID ROBOT AND METHOD FOR USING THE ANDROID ROBOT}
본 발명은 안드로이드 로봇에 관한 것이다. 특히 상대방의 음성 및 상대방의 위치를 파악하여 상대방의 음성 및 위치에 적절하게 반응하는 안드로이드 로봇에 관한 것이다.
안드로이드 로봇에 있어서, 음성을 인식하는 것은 매우 중요한 요소이다. 그러나 종래 안드로이드 로봇은 유선 마이크 한 개를 이용하여 음성을 인식하고 있으며 이로 인하여 말하는 객체에 대한 방향성을 가지지 못하고 어디서 소리가 나는지 확인할 수 없는 문제가 있었다.
이러한 문제점을 해결하기 위해 음원의 방향을 추적하는 안드로이드 로봇가 개발되었으나, 종래의 안드로이드 로봇은 아날로그 처리부분과 직접 연결된 음원보드에서 음원을 추출하도록 구성되어 있어 음성신호에 노이즈 성분이 많았으며, 노이즈 성분이 많은 음성신호를 증폭하면 노이즈 성분도 같이 증폭되는 결과가 되어 음성신호를 구분하기가 어려웠고 그 결과 추적된 음원의 방향값이 일정하지 않은 문제가 있었다. 따라서, 노이즈를 최소화하여 보다 정확한 음원의 방향값을 도출할 수 있는 기술이 요청되었다.
또한, 종래의 안드로이드 로봇은, 마이크 입력부터 호스트 프로세서까지 아날로그 라인으로 연결되어 있어서 음성 열화 현상이 심하다는 문제가 있었고, 로봇의 음성, 모션 등의 모든 제어를 호스트 프로세서가 처리하도록 하여 호스트 프로세서에서 로봇 모션과 음성을 동시에 처리하면 많은 부하로 인하여 모션 및 음성에 출력품질이 저하되는 문제가 있어, 이러한 문제점을 해결하는 기술이 요청되었다.
본 발명은 상기 문제점을 해결하기 위해 창출된 것으로, 본 발명의 목적은, 상대방의 음성 및 상대방의 위치를 추적하여 반응하는 안드로이드 로봇을 제공하는 것이다.
본 발명의 다른 목적은 본 발명의 목적은, 상대방의 음성 및 상대방의 위치를 추적하여 반응하는 안드로이드 로봇의 이용방법을 제공하는 것이다.
본 발명의 또 다른 목적은 상대방의 음성 및 상대방의 위치를 추적하여 반응하는 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체를 제공하는 것이다.
상기의 목적을 달성하기 위한 본 발명에 의한 안드로이드 로봇은 복수의 마이크로폰과, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서와, 상기 음성 신호를 분석하여 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부를 포함하는 것을 특징으로 한다. 여기서, 상기 음원 프로세서는, 상기 호스트 프로세 서로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 음성 DB에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하도록 제어한다. 또한, 상기 대역 통과 필터는, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다. 또한, 상기 음원 프로세서는, 상기 음성 신호를 CAN(controller area network)을 통해 상기 호스트 프로세서로 전송할 수 있다. 또한, 상기 마이크로폰은, 상기 상대방의 3차원 위치를 추적하기 위해 적어도 3개가 구비되며, 상기 머리의 좌우 양단과 정수리에 구비될 수 있다. 또한, 상기 코덱 및 상기 음원 프로세서는, 상기 머리의 내부에 구비될 수 있다.
상기 다른 목적을 달성하기 위한 본 발명에 따른 안드로이드의 이용방법은 복수의 마이크로폰이 집음하는 단계; 대역 통과 필터가 상기 복수의 마이크로폰을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계; 코덱이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계; 음원 프로세서가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 단계; 음원 프로세서가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서로 송신하는 단계; 상기 호스트 프로세서가 상기 음성 신호 및 상기 위치 정보를 수신하는 단계; 상기 호스트 프로세서가 상기 수신된 음성 신호를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하는 단계; 상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상 기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서가 상기 조회된 제스처 데이터에 매핑된 로봇 음성데이터를 출력하는 단계를 포함하는 것을 특징으로 한다.
상기 또 다른 목적을 달성하기 위한 본 발명에 따른 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체는, 복수의 마이크로폰이 집음하는 단계; 대역 통과 필터가 상기 복수의 마이크로폰을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계; 코덱이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계; 음원 프로세서가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 방향 및 위치를 추적하는 단계; 음원 프로세서가 상기 변환된 음성 신호와 상기 추적된 방향 및 위치에 대한 정보를 호스트 프로세서로 송신하는 단계; 상기 호스트 프로세서가 상기 음성 신호 및 상기 방향 및 위치에 대한 정보를 수신하는 단계; 상기 호스트 프로세서가 상기 수신된 음성 신호를 분석하고, 분석된 음성신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하는 단계; 상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서가 상기 조회된 제스처 데이터와 대응하는 로봇 음성데이터를 출력하는 단계를 실행시키기 위한 프로그램을 기록될 수 있다.
본 발명에 따른 안드로이드 로봇에 의하면, 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다. 그 결과 안드로이드 로봇은 인간과 보다 자연스러운 의사소통을 할 수 있게 된다.
또한, 본 발명에 따른 안드로이드 로봇에 의하면, 마이크로폰, 코덱, 음원프로세서를 모두 로봇의 머리에 내장시킴으로써 아날로그 라인을 최소화하였고, 그 결과 마이크로폰으로부터 집음된 아날로그 신호에서 노이즈 부분을 최소화할 수 있다.
또한, 본 발명에 따른 안드로이드 로봇에 의하면, 마이크로폰으로부터 집음된 음성신호를 디지털신호로 변환하여 음원 프로세서로 전송함으로써 아날로그 통신 거리를 축소하여 종래기술에 비해 음성 열화 현상을 개선할 수 있다.
또한, 본 발명에 따른 안드로이드 로봇에 의하면, 상대방의 음성에 대응하는 모션, 제스쳐는 호스트 프로세서에서 제어하고, 상대방의 음성에 대응하는 로봇 음성은 음원 프로세서에서 제어하도록 분리함으로써, 호스트 프로세서에서 모두 제어하였던 종래기술에 비해 로봇의 모션 및 음성의 품질을 향상시킬 수 있다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있으므로, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 동일한 참조부호를 동일한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있 지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소도 제1구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재 항목들의 조합 또는 복수의 관련된 기재 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명에 따른 안드로이드 로봇의 구성을 나타내는 블럭도이다.
도 2는 본 발명에 따른 안드로이드 로봇의 머리 내부를 나타내는 도면이다.
도 3 내지 도 5는 본 발명에 따른 안드로이드 로봇에 설치되어 있는 복수의 마이크로폰의 위치를 나타내는 도면이다.
도 1을 참조하면, 본 발명에 따른 안드로이드 로봇은 복수의 마이크로폰(101a, 101b, 101c)과, 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터(102)와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱(103)과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서(104)와, 상기 음성 신호를 분석하여 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서(105)와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부(106)를 포함한다.
또한, 여기서, 상기 음원 프로세서(104)는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커(107)를 통해 출력하도록 제어할 수 있다.
여기서 상기 대역 통과 필터(103)는, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다.
또한, 여기서 상기 음원 프로세서(104)는, 상기 변환된 음성 신호 및 상기 추적된 위치 정보를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 전송할 수 있다.
여기서, 상기 마이크로폰(101a, 101b, 101c), 상기 상대방의 3차원 위치를 추적하기 위해 적어도 3개가 구비되며, 도 5에 나타난 바와 같이, 머리의 좌우 양단과 정수리에 구비될 수 있다.
또한, 상기 코덱 및 상기 음원 프로세서는, 상기 머리의 내부에 구비되어, 아날로그 통신 거리를 최소화할 수 있다.
도 1 내지 도 5를 참조하여 본 발명에 따른 안드로이드 로봇의 각 구성요소를 상세히 살펴본다.
상기 복수의 마이크로폰(101a, 101b, 101c)은 임의의 방향의 음원(상대방)으로부터 신호(소리)를 수집한다. 여기서, 상기 마이크로폰은, 상대방의 3차원 위치를 추적하기 위해 적어도 3개가 구비되어야 한다. 이는 마이크로폰이 놓여있는 기하학적 형상을 이용하여 음원 도달 지연시간을 측정함으로써 음원의 위치를 추정하는 경우, 3차원의 위치를 추적하기 위해 즉 front-back 혼동현상을 방지하기 위해서 최소 3개 이상의 마이크로폰을 이용하는 것이 바람직하기 때문이다. 또한, 3개의 마이크로폰이 구비된 경우, 상기 마이크로폰은, 도 4에 나타난 바와 같이, 안드로이드 로봇의 머리의 좌우 양단과 정수리에 구비될 수 있다. 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)과 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)이 떨어진 거리(d1), 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)과 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)이 떨어진 거리(d2), 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)과 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)이 떨어진 거리(d3)는 서로 다를 수 있지만, 각각의 거리(d1, d2, d3)가 같아지도록 마이크로폰을 설치하는 것이 바람직하다.
상기 대역 통과 필터(102)는, 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다. 상기 복수의 마이크로폰(101a, 101b, 101c)에서 수집된 신호는 상대방의 음성 뿐 아니라 여러 잡음이 포함되어 있으므로, 잡음 성분을 최소화하기 위해서 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호는 각각 상기 대역 통과 필터(102)에 의해 필터링된다. 또한, 1 kHz는 사람의 목소리에 가장 가까운 주파수 대역이기 때문에, 상기 대역 통과 필터(102)는 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 하고, 나머지 주파수에서는 이득을 최소화하여 최적으로 상대방의 음성을 인식하도록 하였다.
상기 코덱(103)은, 상기 대역 통과 필터(102)에 의해 추출된 복수의 음성신호(3개 이상)를 각각 디지털신호로 변환한다. 또한 상기 코덱(103)은 변환된 음성신호를 음원프로세서(104)로 송신한다. 상기 코덱(103)이 마이크로폰으로부터 집음된 음성신호를 디지털신호로 변환하여 음원 프로세서로 송신함으로써, 종래기술에 비해 아날로그 통신 거리가 축소되어 음성 열화 현상이 개선된다.
상기 음원 프로세서(104)는 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적한다. 구체적으로 상기 디지털로 변환된 음성 신호를 주파수 영역으로 변환하고, 상기 주파수 영역으로 변환된 음성신호 간 지연시간을 구한다. 구체적으로 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)의 음성신호(1번 마이크의 음성신호)와 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)의 음성신호(2번 마이크의 음성신호) 간, 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)의 음성신호(1번 마이크의 음성신호)와 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)의 음성신호(3번 마이크의 음성신호) 간, 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)의 음성신호(2번 마이크의 음성신호)와 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)의 음성신호(3번 마이크의 음성신호)간, 일반화된 상호 상관관계 함수를 이용하여 피크점을 찾아 지연시간 값을 구한다. 이 때 지연시간 값이 양수인 경우에는 기준 마이크보다 먼저 신호가 도달한 것이고, 음수인 경우에는 기준 마이크가 먼저 신호가 도달함을 의미한다. 이어 지연시간 계산부(420)로부터 계산된 상기 마이크 간 지연시간 값들을 이용하여 기존의 경험적인 구간선택 방법 없이 직접적으로 기하학적인 방법에 근거하여 후보되는 여러 개의 추적각도를 얻어낸 후 이들 후보 추적 각도들 중 상대방의 방향에 가장 근사한 것으로 계산되는 2개의 추적각도를 구하고 이들의 평균을 취함으로써 결과적인 추적 각도를 추정하여 상대방의 위치를 최종적으로 추정한다.
또한, 상기 음원 프로세서(104)는, 상기 변환된 음성 신호와 상기 추적된 위치 정보를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 전송한다. 여기서, CAN(controller area network)이란 실시간 제어 응용시스템 내에 있는 센서나 기동장치 등과 같은 주변장치들을 서로 연결해 주는 마이크로 제어기용 직렬 버스 네트워크를 가리킨다. CAN에서는 이더넷 등에서 사용되는 것과 같은 주소 지정 개념은 사용되지 않으며, 메시지는 해당 네트워크에서의 고유한 식별자를 사용하여 네트워크 내에 있는 모든 노드들에게 동시에 뿌려진다. 개개의 노드들은 이 식별자에 기반하여 해당 메시지를 처리할 것인지의 여부를 결정하며. 버스 접근 순서 역시 경쟁원리에 따라 메시지 우선순위를 정한다. 충돌이 감지되었을 때 이더넷에서는 전송이 중단되는 것과는 달리, CAN과 같은 방식을 사용하면 중단 없는 데이터 전송이 가능하다는 장점이 있다.
상기 호스트 프로세서(105)는 상기 음원프로세서(104)로부터 상기 변환된 음성 신호 및 상기 추적된 위치 정보를 수신하며, 상기 음성신호를 분석하여 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어한다. 구체적으로 상기 호스트 프로세서(105)는 다수개의 상대방의 예상가능한 음성데이터를 저장하고 있는 예상 음성 DB(미도시)와 상기 다수개의 예상가능한 음성데이터와 매핑되어 있는 제스처 데이터를 저장하고 있는 제스처 DB(미도시)가 내장하고 있고, 상기 호스트 프로세서(105)는 상기 음원프로세서(104)로부터 수신한 음성신호를 어절별로 분석하여 키워드를 추출하고, 음성신호에 포함되어 있는 키워드를 가장 많이 포함 하고 있는 상대방의 예상가능한 음성데이터를 예상 음성 DB(미도시)에서 검색하여, 검색된 예상가능한 음성데이터와 매핑된 제스처 데이터를 제스처 DB(미도시)에서 검색하여 출력해낸다.
상기 로봇 구동부(106)는, 상기 호스트 프로세서(105)의 제어에 따라 구동된다. 구체적으로, 상기 로봇 구동부(106)는 상기 호스트 프로세서(105)의 제어에 따라 상기 조회된 제스처 데이터에 대응하는 동작을 취하며, 상기 추적된 상대방의 위치를 향하여 회전하는 등의 구동을 한다.
또한, 본 발명에 따른 안드로이드 로봇은 상대방의 음성에 응답하여 로봇의 음성을 출력하기 위해, 상기 음원 프로세서(104)(구체적으로 상기 음원 프로세서(104)의 로봇음성 처리부(320))는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하도록 제어한다. 구체적으로 상기 음원 프로세서(104)는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 코덱(103)으로 송신한다. 상기 코덱(103)은 상기 조회된 로봇 음성 데이터를 수신하여, 수신된 상기 로봇 음성데이터를 아날로그 신호로 변환한다. 아날로그 신호로 변환된 로봇의 음성데이터는 스피커(107)를 통해 출력된다. 여기서, 상기 조회된 제스처 데이터는 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로부터 상기 음원 프로세서(104)로 전송된다.
도 2에 나타난 바와 같이, 상기 코덱(103) 및 상기 음원 프로세서(104)는 상기 머리의 내부에 구비되는 것이 바람직하다. 이는 로봇의 머리에 설치된 마이크로폰(101a, 101b, 101c) 및 스피커(107)와의 거리를 최소화하여 노이즈를 최소화하기 위함이다.
도 6은 본 발명에 따른 안드로이드 로봇의 이용방법을 보여주는 흐름도이다.
도 6을 참조하면, 본 발명에 따른 안드로이드 로봇의 이용방법은 먼저 복수의 마이크로폰(101a, 101b, 101c)이 집음한다(S601). 여기서 상기 복수의 마이크로폰(101a, 101b, 101c)은 안드로이드 로봇에 내장되어 있으며, 상대방의 3차원 위치를 추적하기 위해 적어도 3개의 마이크로폰에서 집음하는 것이 바람직하다. 3개의 마이크로폰에서 집음하는 경우, 머리의 좌우 양단과 정수리에 구비된 마이크로폰을 통해 집음할 수 있다.
다음으로 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출한다(S602). 구체적으로 상기 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다.
다음으로 코덱(103)이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환한다(S603).
다음으로, 음원 프로세서(104)가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적한다(S604). 구체적 으로 상기 음원프로세서(104)는 상기 디지털로 변환된 음성 신호를 주파수 영역으로 변환하고, 각 마이크에서 수신된 주파수 영역으로 변환된 음성신호 간의 지연시간 값을 계산하여 계산된 지연시간 값들을 이용하여 기존의 경험적인 구간선택 방법 없이 직접적으로 기하학적인 방법에 근거하여 후보되는 여러 개의 추적각도를 얻어낸 후 이들 후보 추적 각도들 중 상대방의 방향에 가장 근사한 것으로 계산되는 2개의 추적각도를 구하고 이들의 평균을 취함으로써 결과적인 추적 각도를 추정하여 상대방의 위치를 최종적으로 추정한다.
다음으로 음원 프로세서(104)가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서(105)로 송신한다(S605). 구체적으로 상기 음원 프로세서(104)가 상기 변환된 음성 신호를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 송신한다.
다음으로 상기 호스트 프로세서(105)가 상기 음성 신호 및 상기 위치 정보를 수신한다(S606).
다음으로, 상기 호스트 프로세서(105)가 상기 수신된 음성 신호를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회한다(S607). 구체적으로 다수개의 상대방의 예상가능한 음성데이터를 저장하고 있는 예상 음성 DB(미도시)와 상기 다수개의 예상가능한 음성데이터와 매핑되어 있는 제스처 데이터를 저장하고 있는 제스처 DB(미도시)가 내장하고 있는 상기 호스트 프로세서(105)는, 상기 음원프로세서(104)로부터 수신한 음성신호를 어절별로 분석하여 키워드를 추출하고, 음성신호에 포함되어 있는 키워드를 가장 많이 포함하고 있 는 상대방의 예상가능한 음성데이터를 예상 음성 DB(미도시)에서 검색하여, 검색된 예상가능한 음성데이터와 매핑된 제스처 데이터를 제스처 DB(미도시)에서 검색하여 출력해낸다.
다음으로, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원프로세서(104)가 상기 조회된 제스처 데이터와 대응하는 로봇 음성데이터를 출력한다(S608).
단계 S608은 세부적으로, 상기 안드로이드 로봇이 상대방의 음성에 대응하는 제스처 및 상대방의 위치에 적절하게 동작하도록 하기 위해, 상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇 구동부를 제어하는 단계와, 상기 로봇 구동부가 상기 호스트 프로세서의 제어에 따라 구동되는 단계를 포함한다.
또한 단계 S608은, 상기 안드로이드 로봇이 상대방 음성에 대응하는 음성을 출력하도록 하기 위해, 상기 호스트 프로세서가 상기 조회된 제스처 데이터를 상기 음원 프로세서로 송신하는 단계와, 상기 음원 프로세서가 상기 제스처 데이터를 수신하고, 수신된 제스처 데이터에 매핑된 로봇 음성 데이터를 음성 DB(미도시)에서 조회하는 단계와, 상기 음원 프로세서가 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하는 단계를 포함한다. 구체적으로 상기 호스트 프로세서가 상기 조회된 제스처 데이터를 CAN(controller area network)을 통해 상기 음원 프로세서로 송신하며, 상기 음원 프로세서(104)는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 수신하여 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 코덱(103)으로 송신한다. 상기 코덱(103)은 상기 조회된 로봇 음성 데이터를 수신하여, 수신된 상기 로봇 음성데이터를 아날로그 신호로 변환하고, 아날로그 신호로 변환된 로봇의 음성데이터는 스피커(107)를 통해 출력된다.
본 발명에 따른 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체는, 복수의 마이크로폰(101a, 101b, 101c)이 집음하는 단계(S601)와, 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계(S602)와, 코덱(103)이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계(S603)와, 음원 프로세서(104)가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 단계(S604)와, 음원 프로세서(104)가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서(105)로 송신하는 단계(S605)와, 상기 호스트 프로세서(105)가 상기 음성 신호 및 상기 위치 정보를 수신하는 단계(S606)와, 상기 호스트 프로세서(105)가 상기 수신된 음성 신호의 의미를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회하는 단계(S607)와, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서(104)가 상기 조회된 제스처 데이터에 대응하는 로봇 음성데이터를 출력하는 단계(S608)를 실행시키기 위한 프로그램이 기록된다.
여기서, 복수의 마이크로폰(101a, 101b, 101c)이 집음하는 단계(S601)는, 상 기 상대방의 3차원 위치를 추적하기 위해 적어도 3개의 마이크로폰에서 집음하며, 3개의 마이크로폰에서 집음되는 경우, 머리의 좌우 양단과 정수리에 구비된 마이크로폰을 통해 집음할 수 있다.
여기서, 상기 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계는, 상기 대역 통과 필터(102)가 상기 복수의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다.
여기서, 상기 음원 프로세서(104)가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서(105)로 송신하는 단계는, 상기 음원 프로세서(104)가 상기 변환된 음성 신호를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 송신한다.
여기서, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서(105)가 상기 조회된 제스처 데이터에 대응하는 로봇 음성데이터를 출력하는 단계(S608)는, 상기 안드로이드 로봇이 상대방의 음성에 대응하는 제스처 및 상대방의 위치에 적절하게 동작하도록 하기 위해, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇 구동부(106)를 제어하는 단계와, 상기 로봇 구동부(106)가 상기 호스트 프로세서(105)의 제어에 따라 구동되는 단계를 포함한다.
또한, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서(104)가 상기 조회된 제스처 데이터에 대응하는 로봇 음성데이터를 출력하는 단계(S608)는, 상기 안드로이드 로봇이 상대방 음성에 대응하는 음성을 출력하도록 하기 위해, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터를 상기 음원 프로세서(104)로 송신하는 단계와, 상기 음원 프로세서(104)가 상기 제스처 데이터를 수신하고, 수신된 제스처 데이터와 대응하는 로봇 음성 데이터를 음성 DB(미도시)에서 조회하는 단계와, 상기 음원 프로세서(104)가 상기 조회된 로봇 음성 데이터를 스피커(107)를 통해 출력하는 단계를 포함한다.
상술한 바와 같이, 본 발명에 의하면, 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다. 그 결과 안드로이드 로봇은 인간과 보다 자연스러운 의사소통을 할 수 있게 된다.
또한, 상술한 바와 같이 본 발명에 따른 안드로이드 로봇에 의하면, 마이크로폰, 코덱, 음원프로세서를 모두 로봇의 머리에 내장시킴으로써 아날로그 라인을 최소화하였고, 그 결과 마이크로폰으로부터 집음된 아날로그 신호에서 노이즈 부분을 최소화할 수 있다.
또한, 상술한 바와 같이 본 발명에 의하면, 마이크로폰으로부터 집음된 음성신호를 디지털신호로 변환하여 음원 프로세서로 전송함으로써 아날로그 통신 거리를 축소하여 종래기술에 비해 음성 열화 현상을 개선할 수 있다.
또한, 상술한 바와 같이 본 발명에 의하면, 상대방의 음성에 대응하는 모션, 제스쳐는 호스트 프로세서에서 제어하고, 상대방의 음성에 대응하는 로봇 음성은 음원 프로세서에서 제어하도록 분리함으로써, 호스트 프로세서에서 모두 제어하였던 종래기술에 비해 로봇의 모션 및 음성의 품질을 향상시킬 수 있다.
도 1은 본 발명에 따른 안드로이드 로봇의 구성을 나타내는 블럭도이다.
도 2는 본 발명에 따른 안드로이드 로봇의 머리 내부를 나타내는 도면이다.
도 3 내지 도 5는 본 발명에 따른 안드로이드 로봇에 설치되어 있는 복수의 마이크로폰의 위치를 나타내는 도면으로서, 도 3은 본 발명에 따른 안드로이드 로봇의 정면을 나타내는 도면이며, 도 4는 본 발명에 따른 안드로이드 로봇의 우(右)면을 나타내는 도면이고, 도 5는 본 발명에 따른 안드로이드 로봇의 상(上)면을 나타내는 도면이다.
도 6은 본 발명에 따른 안드로이드 로봇의 이용방법을 보여주는 흐름도이다.
[도면 부호에 대한 설명]
101a, 101b, 101c 마이크 102 대역통과필터 103 코덱
104 음원 프로세서 105 호스트 프로세서 106 로봇 구동부
107 스피커

Claims (9)

  1. 음원에 대하여 방향성을 갖도록 배치된 3개의 마이크로폰과,
    상기 복수의 마이크로폰을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터와,
    상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱과,
    상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서와,
    상기 변환된 음성 신호를 분석하고 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서와,
    상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부를 포함하고,
    상기 대역 통과 필터는, 상기 3개의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖는 안드로이드 로봇.
  2. 제1항에 있어서,
    상기 음원 프로세서는, 상기 호스트 프로세서로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하도록 제어하는 것을 특징으로 하는 안드로이드 로봇.
  3. 삭제
  4. 제1항에 있어서,
    상기 음원 프로세서는, 상기 변환된 음성 신호 및 상기 추적된 위치 정보를 CAN(controller area network)을 통해 상기 호스트 프로세서로 전송하는 것을 특징으로 하는 안드로이드 로봇.
  5. 삭제
  6. 제1항에 있어서,
    상기 마이크로폰은, 머리의 좌우 양단과 정수리에 구비되는 것을 특징으로 하는 안드로이드 로봇.
  7. 제1항에 있어서,
    상기 코덱 및 상기 음원 프로세서는, 상기 머리의 내부에 구비되는 것을 특징으로 하는 안드로이드 로봇.
  8. 음원에 대하여 방향성을 갖도록 배치된 3개의 마이크로폰이 집음하는 단계와,
    대역 통과 필터가 상기 복수의 마이크로폰을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하되, 상기 3개의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하며, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 하는 음성신호 추출단계와,
    코덱이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계와,
    음원 프로세서가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 단계와,
    음원 프로세서가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서로 송신하는 단계와,
    상기 호스트 프로세서가 상기 음성 신호 및 상기 위치 정보를 수신하는 단계와,
    상기 호스트 프로세서가 상기 수신된 음성 신호를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하는 단계와,
    상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서가 상기 조회된 제스처 데이터와 대응하는 로봇 음성데이터를 출력하는 단계를 포함하는 안드로이드 로봇의 이용 방법.
  9. 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체에 있어서,
    음원에 대하여 방향성을 갖도록 배치된 3개의 마이크로폰이 집음하는 단계와,
    대역 통과 필터가 상기 복수의 마이크로폰을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하되, 상기 3개의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하며, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 하는 음성신호 추출 단계와,
    코덱이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계와,
    음원 프로세서가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 단계와,
    음원 프로세서가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서로 송신하는 단계와,
    상기 호스트 프로세서가 상기 음성 신호 및 상기 위치 정보를 수신하는 단계와,
    상기 호스트 프로세서가 상기 수신된 음성 신호를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하는 단계와,
    상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서가 상기 조회된 제스처 데이터와 대응하는 로봇 음성데이터를 출력하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
KR1020090133126A 2009-12-29 2009-12-29 안드로이드 로봇 및 그 이용방법 KR101159133B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090133126A KR101159133B1 (ko) 2009-12-29 2009-12-29 안드로이드 로봇 및 그 이용방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090133126A KR101159133B1 (ko) 2009-12-29 2009-12-29 안드로이드 로봇 및 그 이용방법

Publications (2)

Publication Number Publication Date
KR20110076424A KR20110076424A (ko) 2011-07-06
KR101159133B1 true KR101159133B1 (ko) 2012-06-25

Family

ID=44916325

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090133126A KR101159133B1 (ko) 2009-12-29 2009-12-29 안드로이드 로봇 및 그 이용방법

Country Status (1)

Country Link
KR (1) KR101159133B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120177A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
KR100906676B1 (ko) * 2002-03-13 2009-07-08 주식회사 엘지이아이 지능형 로봇의 음성인식장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120177A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
KR100906676B1 (ko) * 2002-03-13 2009-07-08 주식회사 엘지이아이 지능형 로봇의 음성인식장치 및 방법

Also Published As

Publication number Publication date
KR20110076424A (ko) 2011-07-06

Similar Documents

Publication Publication Date Title
JP6520878B2 (ja) 音声取得システムおよび音声取得方法
TWI711035B (zh) 方位角估計的方法、設備、語音交互系統及儲存介質
JP4109414B2 (ja) 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体
EP2428951B1 (en) Method and apparatus for performing microphone beamforming
Sturim et al. Tracking multiple talkers using microphone-array measurements
CN112088315A (zh) 多模式语音定位
JP3838029B2 (ja) 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
JP2016080750A (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP2006227634A (ja) 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体
CN103886861A (zh) 一种控制电子设备的方法及电子设备
CN105049802B (zh) 一种语音识别执法记录仪及其识别方法
CN108665907B (zh) 声音识别装置、声音识别方法、记录介质以及机器人
JP3632099B2 (ja) ロボット視聴覚システム
KR100822880B1 (ko) 지능형 로봇 환경에서 오디오-비디오 기반 음원추적을 통한화자 인식 시스템 및 방법
CN108733059A (zh) 一种导览方法及机器人
CN112925235A (zh) 交互时的声源定位方法、设备和计算机可读存储介质
WO2014087495A1 (ja) 音声対話ロボット、音声対話ロボットシステム
JP5206151B2 (ja) 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法
JP2009131914A (ja) ロボット制御システム
CN110364164B (zh) 对话控制装置、对话***、对话控制方法以及存储介质
KR102372327B1 (ko) 음성 인식 방법 및 이에 사용되는 장치
KR101159133B1 (ko) 안드로이드 로봇 및 그 이용방법
CN114299951A (zh) 一种控制方法及装置
US20060015338A1 (en) Voice recognition method with automatic correction
US20210217439A1 (en) Acoustic event recognition device, method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160328

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190402

Year of fee payment: 8