KR20130093399A - 자율행위 로봇 및 그 제어 방법 - Google Patents

자율행위 로봇 및 그 제어 방법 Download PDF

Info

Publication number
KR20130093399A
KR20130093399A KR1020120014980A KR20120014980A KR20130093399A KR 20130093399 A KR20130093399 A KR 20130093399A KR 1020120014980 A KR1020120014980 A KR 1020120014980A KR 20120014980 A KR20120014980 A KR 20120014980A KR 20130093399 A KR20130093399 A KR 20130093399A
Authority
KR
South Korea
Prior art keywords
sensor
action
situation
robot
unit
Prior art date
Application number
KR1020120014980A
Other languages
English (en)
Inventor
서영호
김현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020120014980A priority Critical patent/KR20130093399A/ko
Priority to US13/586,460 priority patent/US20130211591A1/en
Publication of KR20130093399A publication Critical patent/KR20130093399A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 및 그 제어 방법에 관한 것으로서, 더욱 상세하기는 자율행위 로봇 및 그 제어 방법에 관한 것이다. 본 발명의 자율행위 로봇은 상황의 변화를 감지하는 센서, 엑추에이터 및 센서로 입력된 정보에 기초하여 엑추에이터를 제어하는 제어부를 포함하고, 제어부는 센서와 엑추에이터의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 엑추에이터를 제어한다.

Description

자율행위 로봇 및 그 제어 방법{Autonomous Robot and Method for Controlling thereof}
본 발명은 로봇 및 그 제어 방법에 관한 것으로서, 더욱 상세하기는 자율행위 로봇 및 그 제어 방법에 대한 것이다.
최근 다양한 형태의 지능형 로봇(intelligent robot)이 개발되고 있다. 이러한 지능형 로봇 중 개인용 서비스 로봇은 가정이나 회사 등과 같은 환경에서 사용자에게 로봇의 기능을 이용하여 서비스를 제공하는 로봇을 말한다. 현재 청소로봇, 교육 로봇 등과 같은 일부 서비스 로봇이 보급되어 사용되고 있으나, 아직 의미 있는 시장을 형성하지 못하고 있다.
이와 같이 개인용 서비스 로봇이 아직 커다란 시장을 형성하지 못하고 있는 가장 주요한 이유는 킬러 어플리케이션(killer application)이 없거나 제공하는 서비스(청소, 교육 등)의 질이 만족스럽지 못하기 때문이다.
그러나, 이에 못지 않게 중요한 다른 이유는 서비스 로봇의 사용자가 쉽게 실증을 느끼기 때문이다. 즉, 사용자는 일반적인 가정용 가전 기기가 그 기능을 제대로 수행하는 것에 만족하는 반면, 로봇은 그 주요한 서비스(청소, 교육 등) 외에 로봇으로서 기대되는 사용자와 로봇 간의 지속적인 상호작용에 대해 만족하기를 희망하고 있다.
따라서, 동일한 서비스만을 제공하는 로봇은 사용자로부터 관심을 지속적으로 유지할 수 없고, 이에 따라 사용자와 서비스 로봇 간의 지속적인 상호작용을 통한 "관계"를 유지하는 시스템이 고려되어야 한다.
본 명세서에서는 로봇이 사용자의 명시적인 요청에 따라 서비스 제공할 뿐만이 아니라, 사용자의 요청이 없더라도 상황에 따른 자율 행위를 수행할 수 있도록 하는데 그 목적이 있다.
본 명세서에서 개시하는 자율행위 로봇은 상황의 변화를 감지하는 센서, 엑추에이터 및 센서로 입력된 정보에 기초하여 엑추에이터를 제어하는 제어부를 포함하고, 제어부는 센서와 엑추에이터의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 엑추에이터를 제어한다.
본 명세서에서 개시하는 자율행위 로봇의 제어방법은 상황의 변화를 감지하는 센서와 엑추에이터를 포함하는 자율행위 로봇에서, 센서로부터 감지된 변화를 입력받는 단계, 감지된 변화에 기초하여 상황을 결정하는 단계 및 결정된 상황에 따라 센서와 엑추에이터의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 엑추에이터를 제어하는 단계를 포함한다.
본 명세서에 개시된 발명들에 의하면, 로봇이 사용자의 명시적인 요청에 따라 서비스 제공할 뿐만이 아니라, 사용자의 요청이 없더라도 상황에 따른 자율 행위를 수행할 수 있도록 함으로써, 사용자와 서비스 로봇 간의 지속적인 상호작용을 가능하도록 할 수 있는 효과가 있다.
도 1은 자율행위 로봇의 제어를 위한 장치 추상화 계층과 행위 추상화 계층을 설명하기 위한 도면이다.
도 2는 단위 행위의 실행에 대해 구체적으로 설명하기 위한 도면이다.
도 3은 소정의 목표를 달성하기 위한 단위 행위들의 조합 관계를 설명하기 위한 도면이다.
도 4는 본 명세서에서 개시하는 자율행위 로봇에 대해 구체적으로 설명하기 위한 도면이다.
도 5는 본 명세서에서 개시하는 자율행위 로봇의 제어 방법에 대해 구체적으로 설명하기 위한 도면이다.
도 6은 자율행위 로봇의 시스템 제어에 대한 계층의 구체적인 트리 구조를 설명하기 위한 도면이다.
도 7은 도 6에서 설명한 시스템 제어의 구조를 자세히 설명하기 위한 도면이다.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로, 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물 뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 발명의 원리를 구체화하는 예시적인 개념적 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.
본 명세서의 특허청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 특허청구범위에 의해 정의되는 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.
본 명세서에서는 자율행위 로봇 및 그 제어 방법에 대해 개시한다. 이에 따른 자율행위 로봇은 사용자의 명시적인 요청에 따라 서비스 제공할 뿐만이 아니라, 사용자의 요청이 없더라도 상황에 따른 자율 행위를 수행할 수 있도록 함으로써, 사용자와 서비스 로봇 간의 지속적인 상호 작용을 가능하도록 할 수 있다.
이러한 사용자와의 지속적인 상호작용을 통한 "관계(relation)"의 유지를 위해서는 다음과 같은 기능들이 로봇 제어 구조와 시스템에 고려되어야 한다.
첫째, 로봇이 제공하는 센서와 엑추에이터 장치를 추상화한 행위 계층을 제공하여 센서와 엑추에이터 기능을 조합하여 필요한 행위들을 확장할 수 있도록 한다.
둘째, 단위 행위들을 조합하고 계획하여 각 상황에 맞는 목표를 달성하기 위한 로봇의 자율 행위를 확장할 수 있도록 한다.
셋째, 관심 있는 상황과 각 상황에 대한 로봇의 행위 목표를 정의하고 실제 동작 중에 상황에 따라 로봇 행위 계획들을 실행하고 조정하여 로봇이 자율적으로 동작할 수 있도록 한다.
본 명세서에서는 로봇이 상황에 맞는 행위 계획에 따라 사용자의 명시적 요청이 없이도 자율적으로 동작할 수 있도록 하는 자율행위 로봇과 그 제어 방법을 제안한다. 이를 위해서는 로봇이 수행할 수 있는 단위 행위들을 쉽게 확장할 수 있도록 하고, 기 정의된 행위들을 조합하여 필요한 자율행위를 위한 로봇 동작을 계획할 수 있도록 하며, 이러한 자율 행위들을 상황에 따라 실행하고 조정할 수 있도록 한다.
이하, 도면과 함께 구체적으로 설명한다.
도 1은 자율행위 로봇의 제어를 위한 장치 추상화 계층과 행위 추상화 계층을 설명하기 위한 도면이다.
도 1을 참조하면, 장치 추상화 계층(120: 121, 123, 125)은 자율행위 로봇에서 제공하는 센서(sensor)와 엑추에이터(actuator)와 같은 물리적 장치(111, 113, 115)에 대한 기능(센서 1, 센서 2, 센서 3: 121, 123, 125)을 정의한다. 행위 추상화 계층(130: 131, 133, 135)은 장치 추상화 계층(120)에서 제공하는 센서나 엑추에이터의 기능을 조합하여 자율행위 로봇이 제공하는 단위 행위들(행위 1, 행위 2, 행위 3: 131, 133, 135)을 정의한다. 이러한 행위 추상화 계층(130)의 단위 행위들(131, 133, 135)은 장치 추상화 계층(120)에서의 기능(센서 1, 센서 2, 센서 3: 121, 123, 125) 및/또는 행위 추상화 계층(130)의 단위 행위들(행위 1, 행위 2, 행위 3: 131, 133, 135)과 조합되어 계속 확장될 수 있다. 계층구조상 장치 추상화 계층(120)은 행위 추상화 계층(110)의 하위 계층에 위치할 수 있다.
예를 들어, 장치 추상화 계층의 음원 인식 센서(Sound Localizer)와 모터 제어기의 기능을 조합하여 행위 추상화 계층의 단위 행위(LookAtSound: 소리가 나는 방향으로 모터를 제어하여 쳐다보는 행위)를 정의할 수 있다.
도 2는 단위 행위의 실행에 대해 구체적으로 설명하기 위한 도면이다.
도 2를 참조하면, 단위 행위(200)는 시작할 때 entry() 함수(210), 종료할 때 exit() 함수(230)가 한 차례 호출될 수 있고, 시작과 종료 사이(Body: 220)에는 ECA Rule 기반으로 동작할 수 있다. ECA(Event-Condition-Action) Rule은 이벤트(Event: 221) 발생시의 상황(Condition: 223) 조건을 기반으로 이미 기술된 행동(Action: 225) 또는 서비스를 제공하는 것이다.
이벤트(Event: 221)는 하위 장치 추상화 계층에 존재하는 센서로부터 전달받고, 행동(Action: 225)은 엑추에이터를 통해 발현된다. 하나의 단위 행위에는 다수의 ECA Rule이 존재할 수 있다.
도 3은 소정의 목표를 달성하기 위한 단위 행위들의 조합 관계를 설명하기 위한 도면이다. 단위 행위들은 상황에 맞는 목표를 달성하기 위해 복합 행위로 조합 또는 계획될 수 있다. 모든 행위는 계층구조상 그 하위에 하나 이상의 자식 행위를 포함할 수 있다.
도 3을 참조하면, 도 3의 (a)는 행위 1(310)이 행위 2(311)와 행위 3(313)의 순차적인 수행에 의해 구성되는 구조를 도시한 것이고, 도 3의 (b)는 행위 1(320)이 행위 2(321)와 행위 3(323)의 병렬적인 수행에 의해 구성되는 구조를 도시한 것이다. 행위의 entry() 함수에서 자식 행위들을 생성하는데, 이렇게 순차적인(Sequential) 수행/병렬(Concurrent) 수행의 두 가지 방법 중 하나로 수행 방식을 지정할 수 있다. 순차적인 수행은 앞 행위의 수행이 종료가 되면 다음 행위가 수행되는 것을 의미하고, 병렬 수행은 모든 행위들이 동시에 수행되는 것을 의미한다. 순차적인 수행/병렬 수행은 행위를 구성하는 자식 행위에 대한 시계열적인 조건을 예시한 것으로서, 다양한 형태의 시간 조건을 생성할 수 있다.
도 3의 (c)는 트리 구조의 복합 행위를 도시한 것이다. 트리 구조는 순차적인 수행과 병렬 수행이 복합된 것으로서, 행위 1 내지 3(331, 333, 335)은 병렬 수행이고, 행위 4(337)와 행위 5(339)는 순차적인 수행에 해당한다. 최상위 행위가 모드(목표: 330)에 해당하며 필요한 각 상황에 대해 하나의 모드를 정의할 수 있다. 제어의 흐름은 상위 행위에서 하위 행위로 진행되고, 이벤트의 흐름은 하위 행위에서 상위 행위로 진행될 수 있다.
도 4는 본 명세서에서 개시하는 자율행위 로봇에 대해 구체적으로 설명하기 위한 도면이다.
도 4를 참조하면, 자율행위 로봇(400)은 센서(410), 엑추에이터(420), 제어부(430)를 포함한다.
센서(410)는 외부의 상황의 변화를 감지한다. 상황의 변화는 빛, 소리, 온도 등 감지 가능한 변화는 모두 포함될 수 있다. 움직임의 변화도 상황의 변화에 포함될 수 있으며, 카메라로 획득된 영상의 분석을 통한 움직임의 변화를 감지할 수도 있다. 자율행위 로봇에는 복수 개의 센서(411,413)가 장착될 수 있다.
한편, 자율행위 로봇(400)에서의 센서(410)는 외부 센서를 활용할 수도 있다. 즉, 자율행위 로봇(400)에서의 센서(410)는 자율행위 로봇(400)에 장착되지 않은 외부 센서로부터 관련 정보를 무선 또는 유선으로 입력받는 형태도 포함한다. 따라서, 이 경우의 외부 센서를 입력받는 무선 또는 유선 수신부(410)가 자율행위 로봇의 센서로 해석될 수 있다.
엑추에이터(420)는 시스템을 움직이거나 제어하는 데 쓰이는 기계 장치를 의미하는 것으로서, 전기, 유압, 압축 공기 등을 이용하는 구동장치를 총칭하는 용어로 사용되는 것으로서, 자율행위 로봇(400)에는 복수 개의 엑추에이터(421, 423)가 장착될 수 있다.
제어부(430)는 센서(410)로 입력된 정보에 기초하여 엑추에이터(420)를 제어한다. 이러한 제어부(430)는 센서(410)와 엑추에이터(420)의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 엑추에이터(420)를 제어한다. 여기서, 모드 정보는 필요한 각 상황에 대한 행위 목표를 의미할 수 있으며, 각 상황에 대해 하나의 모드 정보가 정의될 수 있다.
모드 정보는 센서(410)와 엑추에이터(420)의 단위 기능을 정의하는 장치 추상화 계층을 더 포함할 수 있다.
단위 행위는 센서(410)로 입력된 정보에 기초하여 상황에 따라 엑추에이터(420)를 제어하는 ECA 규칙에 따라 정의될 수 있고, 단위 행위는 이러한 ECA 규칙을 복수 개 포함할 수 있다.
행위 추상화 계층은 단위 행위가 조합된 트리 구조를 포함할 수 있고, 이러한 단위 행위에 대한 시계열적 순서에 대한 정보를 포함할 수 있다.
모드 정보는 필요한 상황에 따라 정의될 수 있으며, 정의에 따라 모드 정보는 복수 개일 수 있다.
한편, 제어부(430)는 상황에 따른 조정자 정보에 기초하여 모드 정보를 전이 또는 조정할 수 있다. 조정자 정보는 다수의 모드가 존재하는 경우에 해당 상황에 맞는 모드를 전이시키거나 조정할 수 있도록 하기 위한 것으로서, 모드 정보 전체를 제어하는 최상위 계층에 위치할 수 있다. 조정자 정보는 ECA 규칙에 따라 정의될 수 있다.
이렇게 제어부(430)에서 자율행위 로봇을 제어하기 위한 제어 구조에 대한 정보는 별도의 저장부(440)에 저장될 수 있다. 한편, 이러한 제어 구조는 기 설정된 구조에 따라 정의될 수도 있고, 자율행위 로봇(400)의 학습에 따라 자동적으로 확장되어 질 수도 있다.
도 5는 본 명세서에서 개시하는 자율행위 로봇의 제어 방법에 대해 구체적으로 설명하기 위한 도면이다.
도 5를 참조하면, 상황의 변화를 감지하는 센서와 엑추에이터를 포함하는 자율행위 로봇의 제어방법은 센서로부터 감지된 변화를 입력받는 단계(S501), 감지된 변화에 기초하여 상황을 결정하는 단계(S503) 및 결정된 상황에 따라 센서와 엑추에이터의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 엑추에이터를 제어하는 단계(S505)를 포함한다.
모드 정보는 센서와 엑추에이터의 단위 기능을 정의하는 장치 추상화 계층을 더 포함할 수 있고, 단위 행위는 센서로 입력된 정보에 기초하여 상황에 따라 상기 엑추에이터를 제어하는 ECA 규칙에 따라 정의될 수 있다. 여기서, 단위 행위는 ECA 규칙을 복수 개 포함할 수 있다.
행위 추상화 계층은 단위 행위가 조합된 트리 구조를 포함할 수 있고, 행위 추상화 계층은 단위 행위의 시계열적 순서에 대한 정보를 포함할 수 있다.
제어하는 단계(S505)가 완료되면 대기 상태(S507)로 전환되고, 센서로부터 입력받는 단계로 회귀한다(S501).
모드 정보는 상황에 따라 정의될 수 있고, 복수 개일 수 있다. 여기서, 제어하는 단계(S505)는 상황에 따른 조정자 정보에 기초하여 모드 정보를 전이 또는 조정하는 단계(S509)를 더 포함할 수 있고, 조정자 정보는 ECA 규칙에 따라 정의될 수 있다.
기타 자율행위 로봇에 대한 구체적인 설명은 도 1 내지 도 4에서 설명하였으므로, 여기서는 생략하기로 한다.
이하에서는 본 명세서에서 개시하는 발명에 대한 구체적인 실시예를 도면을 참조하여 설명한다.
도 6은 자율행위 로봇의 시스템 제어에 대한 계층의 구체적인 트리 구조를 설명하기 위한 도면이다.
도 6을 참조하면, 최상위계층에는 조정자(Coordinator: 610)가 위치한다. 필요한 각 상황에 대해 하나의 모드가 존재하고, 이 모드를 최상위 부모로 하는 행위 트리가 구성된다. 예를 들어, Sleep(621), Observation(623), Interaction(625) 세 개의 모드가 정의되어 있고, Observation 모드(523)의 경우 도 6과 같은 행위 트리가 정의된다. 이와 같이 다수의 모드(621, 623, 625)가 존재하는 상황에서 상황에 맞게 모드를 전이시켜주고, 조정을 해주는 조정자(610)가 최상위에 존재한다.
예를 들어, 터치센서(633)와 음성센서(643)에 따라 터치와 음성을 인식(631, 641)하고, 사용자의 얼굴을 따라 움직이는 행위(651)가 수행된다. 사용자의 얼굴을 따라 움직이는 행위(651)는 다수의 자식 행위(652, 653, 654)를 포함하고 있다. 사용자의 얼굴을 따라 움직이는 행위(651)는 자율행위 로봇의 머리를 돌리는 행위(652)와 사용자의 얼굴을 추적하는 행위(653)인 자식행위로 구성되고, 이를 위해 사용자의 얼굴을 인식하는 센서(661, 662, 663)가 구동된다. 이때, 자율행위 로봇의 머리를 움직이는 행위를 수행하는 엑추에이터(656, 658)가 구동된다. 소리센서(657)가 소리를 인식하는 경우에는 소리가 발생된 방향으로 자율행위 로봇의 머리를 돌리는 행위(654)가 수행된다.
도 7은 도 6에서 설명한 시스템 제어의 구조를 자세히 설명하기 위한 도면이다.
도 7을 참조하면, 전체 시스템 제어는 크게 사용자의 명시적인 요청에 따른 서비스를 수행하는 Application Mode(720)와 사용자의 요청이 없더라도 자율적인 행위를 수행하는 System Mode(710)로 구성된다.
Application Mode(720)는 사용자의 특정 명령(청소, 교육 등)을 수행하는 것으로서, Work Mode(721)에 해당하며, 특정 명령을 완료하면 System Mode(710)로 복귀한다.
* Work Mode(721): 사용자의 명시적인 작업 요청에 따라 서비스를 제공하는 상황
System Mode(710)는 사용자의 특정 명령이 없는 상태를 의미하는 것으로서, Sleep Mode(711), Idle Mode(713), Observation Mode(715), Interaction Mode(717)로 구성된다.
* Sleep Mode(711): 장기간 외부 환경 변화가 일어 나지 않은 상황
* Idle Mode(713): 환경 내 소리나 영상 변화를 검출하기 위해 두리번거리며 감지하는 상황
* Observation Mode(715): 환경 내 소리나 영상 변화를 감지하여 변화의 내용(사용자/물체)를 관찰하는 상황
* Interaction Mode(717): 사용자가 인식되어 사용자와 상호작용을 하는 상황
Sleep Mode(711)는 터치 또는 소리(음성 포함)을 검출하면, 시스템이 시작되는 모드로서, 시스템이 시작되면, Idle Mode(713)로 전이한다. 소정의 시간 동안 다른 특이 상황이 검출되지 않으면 다시 Sleep Mode(711)로 전이한다.
Idle Mode(713)는 환경 내의 소리, 사용자의 음성을 검출하거나 터치를 인식하고 카메라 등에 의해 입력된 영상의 변화를 검출하는 모드이다. Observation Mode(715)는 사용자의 얼굴을 검출 및 인식하고 사용자를 추적하며, 사용자의 인식을 유도하는 모드이다. Observation Mode(715)에서는 사용자의 인식을 유도하기 위해 사용자와 간단한 대화를 실행할 수도 있다. Interaction Mode(717)는 사용자가 인식되어 사용자와 구체적인 상호작용을 수행하는 모드이다. Interaction Mode(717)에서는 사용자를 추적하고, 사용자에 대한 응대를 수행함으로써 명시적인 사용자의 명령을 입력받는 경우, Application Mode(720)의 Work Mode(721)에서 처리할 수 있도록 모드가 전이된다.
이러한 5개의 모드는 모드 조정자에 의해 전이 및/또는 조정될 수 있으며, 모드 조정자는 ECA 규칙에 따라 각 모드간 전이/조정을 처리할 수 있다.
이상에서 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 발명을 한정하는 것이 아니며, 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 특허 청구 범위에서 규정하는 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
110: 센서, 엑추에이터
120: 장치 추상화 계층
130: 행위 추상화 계층
400: 자율행위 로봇
410: 센서
420: 엑추에이터
430: 제어부
440: 저장부

Claims (20)

  1. 상황의 변화를 감지하는 센서;
    엑추에이터; 및
    상기 센서로 입력된 정보에 기초하여 상기 엑추에이터를 제어하는 제어부를 포함하고,
    상기 제어부는
    상기 센서와 상기 엑추에이터의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 상기 엑추에이터를 제어하는, 자율행위 로봇.
  2. 제1항에 있어서,
    상기 모드 정보는 상기 센서와 상기 엑추에이터의 단위 기능을 정의하는 장치 추상화 계층을 더 포함하는, 자율행위 로봇.
  3. 제1항에 있어서,
    상기 단위 행위는 상기 센서로 입력된 정보에 기초하여 상기 상황에 따라 상기 엑추에이터를 제어하는 ECA(Event-Condition-Action) 규칙에 따라 정의되는, 자율행위 로봇,
  4. 제2항에 있어서,
    상기 단위 행위는 상기 ECA 규칙을 복수 개 포함하는, 자율행위 로봇.
  5. 제1항에 있어서,
    상기 행위 추상화 계층은 상기 단위 행위가 조합된 트리 구조를 포함하는, 자율행위 로봇.
  6. 제1항에 있어서,
    상기 행위 추상화 계층은 상기 단위 행위의 시계열적 순서에 대한 정보를 포함하는, 자율행위 로봇.
  7. 제1항에 있어서,
    상기 모드 정보는 상기 상황에 따라 정의되는, 자율행위 로봇.
  8. 제1항에 있어서,
    상기 모드 정보는 복수 개인, 자율행위 로봇.
  9. 제8항에 있어서,
    상기 제어부는 상기 상황에 따른 조정자 정보에 기초하여 상기 모드 정보를 전이 또는 조정하는, 자율행위 로봇.
  10. 제9항에 있어서,
    상기 조정자 정보는
    ECA(Event-Condition-Action) 규칙에 따라 정의되는, 자율행위 로봇.
  11. 상황의 변화를 감지하는 센서와 엑추에이터를 포함하는 자율행위 로봇의 제어방법에 있어서,
    상기 센서로부터 감지된 변화를 입력받는 단계;
    상기 감지된 변화에 기초하여 상황을 결정하는 단계; 및
    상기 결정된 상황에 따라 상기 센서와 상기 엑추에이터의 기능을 조합하여 단위 행위를 정의하는 행위 추상화 계층을 포함하는 모드 정보에 따라 상기 엑추에이터를 제어하는 단계를 포함하는, 자율행위 로봇의 제어방법.
  12. 제11항에 있어서,
    상기 모드 정보는 상기 센서와 상기 엑추에이터의 단위 기능을 정의하는 장치 추상화 계층을 더 포함하는, 자율행위 로봇의 제어방법.
  13. 제11항에 있어서,
    상기 단위 행위는 상기 센서로 입력된 정보에 기초하여 상기 상황에 따라 상기 엑추에이터를 제어하는 ECA(Event-Condition-Action) 규칙에 따라 정의되는, 자율행위 로봇의 제어방법,
  14. 제12항에 있어서,
    상기 단위 행위는 상기 ECA 규칙을 복수 개 포함하는, 자율행위 로봇의 제어방법.
  15. 제11항에 있어서,
    상기 행위 추상화 계층은 상기 단위 행위가 조합된 트리 구조를 포함하는, 자율행위 로봇의 제어방법.
  16. 제11항에 있어서,
    상기 행위 추상화 계층은 상기 단위 행위의 시계열적 순서에 대한 정보를 포함하는, 자율행위 로봇의 제어방법.
  17. 제11항에 있어서,
    상기 모드 정보는 상기 상황에 따라 정의되는, 자율행위 로봇의 제어방법.
  18. 제11항에 있어서,
    상기 모드 정보는 복수 개인, 자율행위 로봇의 제어방법.
  19. 제18항에 있어서,
    상기 제어하는 단계는 상기 상황에 따른 조정자 정보에 기초하여 상기 모드 정보를 전이 또는 조정하는 단계를 더 포함하는, 자율행위 로봇의 제어방법.
  20. 제19항에 있어서,
    상기 조정자 정보는
    ECA(Event-Condition-Action) 규칙에 따라 정의되는, 자율행위 로봇의 제어방법.
KR1020120014980A 2012-02-14 2012-02-14 자율행위 로봇 및 그 제어 방법 KR20130093399A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120014980A KR20130093399A (ko) 2012-02-14 2012-02-14 자율행위 로봇 및 그 제어 방법
US13/586,460 US20130211591A1 (en) 2012-02-14 2012-08-15 Autonomous robot and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120014980A KR20130093399A (ko) 2012-02-14 2012-02-14 자율행위 로봇 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20130093399A true KR20130093399A (ko) 2013-08-22

Family

ID=48946292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120014980A KR20130093399A (ko) 2012-02-14 2012-02-14 자율행위 로봇 및 그 제어 방법

Country Status (2)

Country Link
US (1) US20130211591A1 (ko)
KR (1) KR20130093399A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203928B1 (ko) 2015-03-17 2021-01-18 한국전자통신연구원 초광대역 임펄스 레이다 신호를 이용한 마이크로 로봇 위치 인식 방법 및 그에 따른 인식 장치
CN105867378B (zh) * 2016-04-18 2018-07-31 苏州大学 一种通过自动创建抽象动作控制移动机器人的方法
US10813743B2 (en) 2018-09-07 2020-10-27 Musculoskeletal Transplant Foundation Soft tissue repair grafts and processes for preparing and using same
KR102657884B1 (ko) * 2018-12-18 2024-04-17 삼성전자주식회사 서비스 로봇의 동작 제어 방법 및 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004018158A2 (en) * 2002-08-21 2004-03-04 Neal Solomon Organizing groups of self-configurable mobile robotic agents
US9195233B2 (en) * 2006-02-27 2015-11-24 Perrone Robotics, Inc. General purpose robotics operating system
US7801644B2 (en) * 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법
US9120224B2 (en) * 2009-09-22 2015-09-01 GM Global Technology Operations LLC Framework and method for controlling a robotic system using a distributed computer network

Also Published As

Publication number Publication date
US20130211591A1 (en) 2013-08-15

Similar Documents

Publication Publication Date Title
KR102639675B1 (ko) 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
KR102103624B1 (ko) 자율 생활 능력을 갖는 휴머노이드 로봇
JP5548139B2 (ja) 施設を整備するロボットと実時間または近実時間で相互作用する方法
JP2019107461A5 (ko)
JP7012006B2 (ja) 自律機能を有する車輌用の制御システム
US8818556B2 (en) Multi-state model for robot and user interaction
JP6423075B2 (ja) 線形予測位置及び速度コントローラに基づいた全方向車輪を有する人間型ロボット
US11503971B2 (en) Cleaning robot
KR20130093399A (ko) 자율행위 로봇 및 그 제어 방법
US20130218395A1 (en) Autonomous moving apparatus and method for controlling the same
US20190090712A1 (en) Moving robot and control method thereof using artifical intelligence
JP2019169189A5 (ko)
US20210137438A1 (en) Control system for mobile robots
Gianni et al. A unified framework for planning and execution-monitoring of mobile robots
KR20210056603A (ko) 로봇 및 그의 제어 방법
KR102212352B1 (ko) 로봇 제어 방법 및 장치
Fujita et al. SDR-4X II: A small humanoid as an entertainer in home environment
US11590649B2 (en) Grip manipulator and method for controlling the same
US20210187739A1 (en) Robot and robot system
KR20220110585A (ko) 장치와 함께 운반 가능한 센서를 사용한 위치 측정
Jentzsch et al. TUMsBendingUnits from TU Munich: RoboCup 2012 logistics league champion
KR20130047276A (ko) 로봇 상호 간의 감정표현방법
Latif et al. Fusion of automation and teleoperation for person-following with mobile robots
Yanco et al. Improving human-robot interaction for remote robot operation
Chatty et al. Effect of low level imitation strategy on an autonomous multi-robot system using on-line learning for cognitive map building

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid