KR100779088B1 - 로봇 제어 장치 및 그 방법 - Google Patents

로봇 제어 장치 및 그 방법 Download PDF

Info

Publication number
KR100779088B1
KR100779088B1 KR1020060058892A KR20060058892A KR100779088B1 KR 100779088 B1 KR100779088 B1 KR 100779088B1 KR 1020060058892 A KR1020060058892 A KR 1020060058892A KR 20060058892 A KR20060058892 A KR 20060058892A KR 100779088 B1 KR100779088 B1 KR 100779088B1
Authority
KR
South Korea
Prior art keywords
robot
situation
state
unit
action
Prior art date
Application number
KR1020060058892A
Other languages
English (en)
Other versions
KR20070061189A (ko
Inventor
장민수
손주찬
고영철
강상승
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US11/591,275 priority Critical patent/US7797079B2/en
Publication of KR20070061189A publication Critical patent/KR20070061189A/ko
Application granted granted Critical
Publication of KR100779088B1 publication Critical patent/KR100779088B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1658Programme controls characterised by programming, planning systems for manipulators characterised by programming language

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)

Abstract

본 발명에 의한 로봇 제어 장치 및 그 방법은 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하는 것을 특징으로 하며, 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 각종 불안정 상태를 해소하도록 하는 처리 절차와 가치 체계를 로봇에게 주입함으로써 로봇이 능동적으로 행위를 유도해낼 수 있다.

Description

로봇 제어 장치 및 그 방법{Apparatus for controlling robot and method thereof}
도 1은 본 발명에 의한 로봇 제어 장치의 구성을 보여주는 블록도이다.
도 2는 본 발명에 의한 로봇 제어 방법의 과정을 보여주는 흐름도이다.
도 3은 도 2의 불안정상태 판단 단계(S220)를 보다 구체적으로 보여주는 흐름도이다.
도 4는 도 2의 로봇에게 목표 행위를 지시하는 단계(S230)를 보다 구체적으로 보여주는 단계이다.
도 5는 본 발명에 의한 로봇 제어 장치가 실제 다른 장치와 연동되는 모습을 개략적으로 보여주는 도면이다.
본 발명은 로봇이 스스로 목적을 가지고 작동하도록 제어하는 장치 및 그 방법에 관한 것으로서, 보다 상세하게는 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 다양한 불안정한 상태를 해소하기 위한 행위를 로봇이 능동적으로 발현할 수 있는 장치 및 그 방법을 제공하는 것이다.
본 발명과 관련한 종래 기술 분야의 대표적인 것으로는 일본 소니의 아이보(AIBO)로 대표되는 일명 애완 로봇(Pat Robot) 群의 로봇들에 채용된 욕구 및 감정을 기반으로 한 능동 제어 기술이다. 예를 들면, 아이보에는 배고픔, 꾸중 등 내외부 자극을 動因으로 하여 행위를 도출하는 방법이 내장되어 있다. 이 방법에 의하면 아이보는 복수개의 지각 평가와 동기 상태를 입력으로 받고 입력을 구성하는 각 요소 간의 상관관계를 계산할 수 있는 다양한 산술식과 행렬 연산을 반복적용함으로써 능동적으로 행동 출현 경향을 해낸다. 다음의 수학식 1은 본능적인 욕구로부터 행동 출현 경향을 유도하는 계산식의 일례를 보여준다.
Figure 112006046473981-pat00001
위 수학식 1에 의하면 피로도(Fatigue)가 높고 호기심(Curiosity)이 낮으면 쉬는(Resting) 행동 경향이 강화될 것임을 알 수 있다. 피로도와 호기심 등은 로봇의 욕구 및 감성 모델을 기초로 하고 로봇에 배치된 각종 센서들로부터 감지된 외부 자극값들을 종합하여 지속적으로 계산되며 상기와 같은 행동 선택 산술식에 입력된다. 이를 통해 로봇은 능동적으로 일련의 행동들을 표출한다.
그런데, 상기와 같은 욕구와 감성을 기반으로 한 능동적 행위 표출 방법은 본능적인 행위의 도출에는 유용할 수 있으나, 보다 고차원적인 취지의 행위를 이끌 어내는데 활용하기 어려운 문제점이 있다. 여기서 고차원적인 취지의 행위란 다음과 같은 것들이다.
첫째, 사용자를 고려한 행위이다. 즉, 로봇 자체적인 욕구 및 감성에 충실하는 것이 아니라 사용자의 편안함, 쾌적함, 즐거움 등을 향상시킬 수 있는 행위, 즉 서비스를 능동적으로 도출해낼 수 있어야 한다. 예를 들어, 상황 해석 결과 사용자가 거실에 있고 거실의 기온이 높고 습도가 낮아 사용자가 짜증을 낼 만 한 상태인 경우, 로봇은 사용자를 위해 실내 상태를 쾌적하게 만들고자 하는 목표를 생성하고 이를 기반으로 적절한 서비스를 제공할 수 있어야 한다.
둘째, 주변 상황 변화를 지속적으로 해석함으로써 불안정한 상황 발생 여부를 판별하고 발생한 불안정성을 해소할 수 있는 목표 지향적 행위를 도출해낼 수 있어야 한다. 예를 들어, 늦은 밤 시간에 실내 특정 지역의 온도가 지속적으로 상승하고 있는 상황을 감지하였다면 로봇은 비상 상황이 발생했다고 판단하고 이를 해소할 수 있도록 사용자에게 경보를 울리거나 비상 상황이 발생했다고 판단되는 영역을 보다 자세히 검사할 수 있어야 한다.
본 발명이 이루고자 하는 기술적 과제는 상기의 문제점 및 필요성을 해결하기 위하여 안출된 것으로서, 로봇이 상기의 고차원적인 취지의 행위를 능동적으로 발현할 수 있는 내부 지식 처리 기제를 제공하는 장치 및 그 방법을 제시하는 것이다.
상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 로봇 제어 장치는 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하는 것을 특징으로 한다.
상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 로봇 제어 방법은 로봇이 수행하여야할 적어도 하나 이상의 의무를 구축하는 단계; 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계; 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;단계를 포함하는 능동적 로봇 제어 방법 및 그 시스템을 특징으로 한다.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예에 대하여 상세히 설명하도록 한다. 설명의 편의와 이해의 용이함을 위하여 본 발명에 의한 로봇 제어 장치와 그 방법을 함께 서술하도록 한다. 도 1은 본 발명에 의한 로봇 제어 장치의 구성을 보여주는 블록도이다. 도 2는 본 발명에 의한 로봇 제어 방법의 과정을 보여주는 흐름도이다. 그리고 도 3은 도 2의 불안정상태 판단 단계(S220)를 보다 구체적으로 보여주는 흐름도이며, 도 4는 도 2의 로봇에게 목표 행위를 지시하는 단계(S230)를 보다 구체적으로 보여주는 단계이다.
본 발명에 의한 로봇 제어 장치는 크게 상태해석부(110)와 목표생성부(120)로 이루어진다. 상태해석부(110)는 외부에서 입력되는 적어도 하나 이상의 지각 정보를 구축된 수행 의무(S210)를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하게 된다(S220). 목표생성부(120)는 상기 현재의 상황과 상기 상태해석부(110)의 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 그 행위를 지시하고(S230), 그에 따른 로봇의 행위 수행 결과를 상기 지각 정보로서 피드백 받아 목표치에 접근하도록 수정한다(S240).
먼저 상기 상태해석부(110)와 목표생성부(120)의 세부 구성 블록을 살펴본 후 보다 상세하게 설명하도록 한다.
상태해석부(110)는 상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 주의목록부(111), 상기 지각 정보를 일대일 대응되는 기호로 기호화하여 출력하는 상황해석부(113), 상기 기호화된 지각 정보를 저장하는 상황부(115), 상기 상황부(115)의 내용이 바뀔 때마다 상기 상황부(115)를 검색하여 상기 요주의단서가 존재하는지 확인하여, 존재하면 추론 시작을 지시하는 구동신호를 출력하는 상황모니터(117), 그리고 상기 구동신호에 따라 소정의 규칙을 기반으로 하는 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 불안정상태해석부(119)로 구성된다.
한편 목표생성부(120)는 상기 로봇이 수행하여야할 의무를 저장하는 가치체계부(121), 상기 상태해석부(110)의 판단 결과와 현재의 상황을 입력받아 상기 가 치체계부(121)를 억세스하여 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 목표설정부(123) 및 상기 설정된 행위목표를 수행하도록 상기 로봇에게 행동지침을 출력하는 행위선택부(125)로 구성된다.
이제 상기와 같은 구성하에서 상세한 동작을 설명하도록 한다. 먼저 주의목록부(111)는 로봇이 주의를 기울여야 하는 상황이 발생했음을 발견하는 단서 정보를 저장하고 있는다(S221). 상태해석부(110)는 각종 센서, 카메라, 음성인식장치를 포함하는 외부 지각 수단(100)으로부터 각종 지각 정보를 입력받는다. 지각 정보는 상황해석부(113)에 입력되며 상황해석부(113)는 상기 입력된 각 지각 정보를 해석하여 기호화하거나 여러 지각 정보를 결합하여 기호화함으로써 상황 상술 데이터를 생성한다(S223). 이렇게 생성된 상황 상술 데이터는 상황부(115)에 기록된다. 상황부(115)에 기록된 상황 상술 데이터 중 일부는 상황해석부(113)로 재입력되어 변형 혹은 삭제 과정을 거친다. 이는 상황부(115)에 기재되는 상황 상술 데이터 내용의 일관성 유지를 위한 것이다. 상황부(115)는 상황 해석 결과로 생성되는 상황 상술 데이터를 지속적으로 받아들이므로 그 내용이 동적으로 변화한다. 상황 모니터(117)는 상황부(115)의 변화 내용을 지속적으로 감시한다. 상황 모니터(117)는 상황부(115)에 주의목록부(111)에 저장되어 있는 데이터가 등장하면 그 사실을 불안정 상태 해석부(119)로 전달한다. 불안정 상태 해석부(119)는 상황 모니터(117)가 전달한 주의집중단서와 상황부(115)의 내용을 종합하여 판단함으로써 불안정 상태가 발생하였는지 판단한다(S225 내지 S227). 불안정 상태가 발생했다는 결정이 내려지면, 불안정 상태 해석부(119)는 발생한 불안정 상태를 목표 생성부(120)로 전달한다(S229). 목표 생성부(120)의 목표설정부(123)는 불안정 상태와 상황부(115)의 내용을 종합 판단하고 이를 가치체계부(121)에 비추어봄으로써 사용자를 위해 어떤 행위 목표를 설정할지 결정하여 행위 선택부(125)로 전달한다. 행위 선택부(125)는 설정된 목표를 달성할 수 있는 행위를 선택한다(S231 내지 S233). 이렇게 선택된 행위를 수신한 외부의 행위 구체화 및 실행 수단(예를 들면, 로봇)은 그 선택된 행위를 어떻게 수행할지 결정하고 실제로 수행한다. 수행 결과는 지각정보로 다시 상태해석부(110)로 입력되는데, 수행 결과가 성공적이면 설정했던 목표를 달성한 것으로 해석 판단한다. 수행 결과가 성공적이지 못했다면 설정했던 목표가 달성되지 않았으므로 상술한 바와 같은 절차를 통해 새로운 목표를 설정하거나 목표 달성 행위를 중지한다(S235).
상기와 같은 기능 수행에 있어 각 기능을 수행하는 구성요소간에 주고 받는 데이터는 지식 표현 언어(Knowledge Representation Language)에 의해 기술된 데이터이며, 각 구성요소는 이를 기반으로 일련의 논리적인 추론 기능을 수행함으로써 필요한 판단 기능을 수행한다. 또한, 가치체계부(121)는 로봇이 준수해야 할 의무 사항, 임무 사항 등을 기술한 지식베이스(Knowledge Base)로서 로봇 행위의 안전성을 도모하고 로봇 행위의 근본적인 지향점을 설정하는 데이터의 집합이다.
이하 본 발명의 일 실시예에 대하여 보다 구체적인 예와 함께 설명한다. 본 실시예는 본 발명을 실내 상황 해석을 통해 능동적으로 사용자에게 쾌적한 실내 환경을 제공하는 로봇에 적용한 것이다.
먼저 로봇 장치의 구성에 대하여 간략히 설명한다. 본 실시예에서 보이는 로 봇과 로봇 운영 환경의 구성은 도 5에 제시한 바와 같다. 도 5는 본 발명에 의한 로봇 제어 장치가 실제 다른 장치와 연동되는 모습을 개략적으로 보여주는 도면이다.
로봇 장치(540)는 구동부(미도시)와 함께 온도 및 습도를 측정하기 위한 센서(545), 카메라(547), 경보기(543), 통신 모듈(541)을 탑재한다. 통신 모듈(541)은 홈게이트웨이(520)와 무선으로 통신기능을 수행한다. 홈게이트웨이(520)는 원격 제어 기능을 보유한 에어컨(530) 및 전동창문(510)을 제어하는 제어 센터 역할을 수행하며, 로봇은 홈게이트웨이(520)에 기능 요청을 전달함으로써 상기의 장치들을 제어한다.
다음으로 본 발명에 의한 능동적 로봇 제어 장치 및 그 방법이 함께 동작하는 방식을 설명한다. 로봇 장치(540)에 장착된 온도 및 습도 센서(545)는 지속적으로 로봇이 위치한 공간의 온도 및 습도 데이터를 감지하여 상황 해석부(113)으로 전달한다. 상황 해석부(113)는 일정한 규칙을 이용하여 상황을 기호화한다. 예를 들면, 온도가 25도 이상이면 '덥다'에 해당하는 기호를 생성하고, 온도가 10도 이하이면 '서늘하다'에 해당하는 기호를 생성한다. 또한, 로봇의 카메라(547)는 정해진 바에 의하여 지속적으로 영상을 촬영하여 상황 해석부(113)로 전달한다. 동시에 도면에는 도시되지 않았지만 다양한 외부 지각 수단에 의하여 획득된 인식 결과도 상황 해석부(113)로 전달된다. 예를 들어, 영상 인식을 통해 특정 사용자를 인식한 경우 인식된 사용자의 아이디를 상황해석부(113)에 전달한다. 상황 해석부(113)는 전달받은 아이디를 이용하여 어떤 사용자와 마주쳤는지를 알려주는 기호를 상황 부(115)에 기재한다. 다음의 표 1은 임의 시점에 상황부(115)에 기재된 데이터의 내용을 기술한 것이다.
LocatedAt(Me,101) 나(로봇)는 101이란 장소에 위치하고 있다.
LocatedAt(Cheolsu,101) Cheolsu란 아이디를 가진 사용자는 101에 있다.
Confrented(Cheolsu, 2005-1023T10:20:30) Cheolsu란 아이디를 가진 사용자와 마주쳤다.
Temperature(101,28) 101의 온도는 28도이다.
Humidity(101,80) 101의 습도는 80%이다.
Hot(101) 101은 덥다.
Very Humidity(101) 101은 매우 습하다.
로봇 출고자, 또는 사용자는 환경의 불안정 상태에 대한 단서가 되는 Hot이나 VeryHumid같은 기호를 주의목록부(111)에 등록한다. 또한, 사용자와 마주쳤을 때 사용자에 대한 서비스 제공이 필요할 수 있으므로 Confronted와 같은 기호도 등록한다. 상황 모니터(117)는 상황부(115)의 내용이 바뀔 때마다 상황부(115)의 내용을 점검하여 주의집중단서가 존재하는지 여부를 판단한다. 앞서 예시한 바와 같은 내용인 경우, 상황 모니터(117)는 Hot과 VeryHumid를 단서로 하여 불안정 상태 해석부(119)를 구동한다. 불안정 상태 해석부(119)는 현재 상황부(115)의 내용을 종합 분석하여 불안정 상태가 발생하였는지 판단한다. 불안정 상태 해석부(119)는 다음과 같은 규칙을 기반으로 추론을 수행함으로써 불안정 상태 발생 여부를 판단한다.
R10: Hot(?loc) and VeryHumid(?loc) and LocatedAt(?someone,?loc) and ~CaughtCold(?someone)
-> Instability(HotAndHumid,Uncomfortable,?someone,?loc)
R11: TooNoisy(?loc) and LocatedAt(?someone,?loc) and ~PlayingMedia(?someone,?loc)
-> Instability(Noisy,Uncomfortable,?someone,?loc)
규칙 R10은 "어떤 장소가 덥고 매우 습한데 그 장소에 어떤 사람이 있다면, 그 장소가 덥고 습하므로 불안정하다"라고 판단한다는 것이다. 이 규칙에 의하면, 덥고 습한 그 장소에 사람이 없다면 불안정 상태가 발생했다고 판단하지 않는다. 더불어 R10은 그 장소에 있는 사용자가 감기에 걸렸다면 해당 상태를 불안정한 상태로 보지 않겠다는 조건(~CaughtCold(?someone))을 포함하고 있다. 사용자가 감기에 걸려 일부러 보일러 온도를 높이고 가습기를 많이 틀어놓았을 수도 있기 때문이다. 규칙 R11은 어떤 장소가 매우 시끄럽고 사용자가 그 장소에 있는 경우 만약 그 사용자가 영화나 음악 등의 미디어를 튼 것이 아니라면 해당 상태를 불안정한 상태로 보겠다는 의미이다.
불안정 상태 해석부(119)는 감지된 불안정 상태를 목표 생성부(120)로 전달함으로써 로봇의 행위 목표가 생성될 수 있도록 한다. 목표 설정부(123)는 발생한 불안정 상태와 사전 설정된 가치체계부(121)의 데이터, 그리고 상황부(1152)의 여타 상황들을 종합함으로써 목표를 생성한다. 먼저 가치체계부(121)는 다음과 같은 지식을 포함한다.
R20: User(?someone)→ OughtToMake(?someone, Comfortable)
R21: User(?someone)→OughtToBeTo(?someone, Polite)
R22: Uncomfortable = ~Comfortable
R23: Impolite = ~Polite
규칙 R20은 사용자를 편안하게 만들어줘야 한다는 임무 사항으로, 규칙 R21은 사용자에게 예의바르게 행동해야 한다는 임무 사항으로 해석할 수 있다. 논리식 R22와 R23은 각각 두 개념이 상충되는 개념임을 표현해 주고 있다. 이러한 가치체계는 발생한 불안정 상태가 로봇의 임무 준수를 방해하는지 검증하는 단서 정보가 되어 로봇이 구체적으로 어떤 의도를 가지고 행위를 도출하게 되는지 설명해준다. 목표 설정부(123)는 다음과 같은 규칙을 통해 로봇의 가치 체계에 불일치가 발생했음과 그 불일치를 해결하기 위해 어떤 목표를 설정해야 하는지 결정한다.
R30: OughtToMake(?someone,?x) and Instability(?cause,?y,?someone,?loc) and ?x = ~?y
-> Resolve(?cause,?someone,?loc)
R31: Resolve(?cause,?someone,?loc) and Resolvent(?cause, ?goal) -> Goal(?goal,?someone,?loc)
R32: Resolvent(HotAndHumid, CoolAndDry)
규칙 R30은 가치체계를 통해 어떤 임무가 주어졌는데 불안정 상태에 의해 그 임무를 완수할 수 없게 되었을 때 (?x = ~?y에 의해 기술된 바와 같이), 그 원인 요소를 해소하라는 의미이다. 규칙 R31은 원인 요소에 대한 해소 단서를 찾아 그것을 목표로 설정하는 규칙이다. 그리고, R32는 하나의 사실(Fact)로서 HotAndHumid에 대한 원인 해소책은 CoolAndDry임을 기술하고 있다. 따라서 지금까지의 데이터 흐름을 비추어 보면 목표 설정부(123)는 다음과 같이 목표를 설정하게 된다.
Goal(CoolAndDry, Cheolsu, 101)
즉, "장소 l01을 시원하고 건조하게 만드는데 이는 Cheolsu라는 아이디를 가진 사용자를 위한 것이다"란 의미이다.
최종적으로 행위 선택부(125)는 목표로 설정된 CoolAndDry를 달성할 수 있는 수단을 설정한다. 행위 선택부(125)는 다음과 같은 지식을 활용한다.
R40: Action(OpenWindow, WindowClosed, ClearWether, CoolAndDry)
R41: Action(TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)
R42: Goal(?resolvent, ?someone, ?loc) and Action(?action, ?precondition1, ?precondition2, ?resolvent) and ?precondition1(?loc) and
?precondition(?loc) ->Perform(?action, ?loc)
규칙 R40과 R41은 특정 목표를 달성할 수 있는 수단들을 지시한다. 먼저 R40은 창문을 여는 행위를 제시하는데 사전 조건으로 창문이 닫혀있어야 하며 날씨는 쾌청해야 함을 지시하고 있다. 그리고, 행위의 효과는 CoolAndDry이다. 다음 R41은 에어컨을 켜는 행위를 제시하는데 사전 조건으로 창문과 문이 닫혀있어야 함을 지정하고 있다.
규칙 R42는 목표와 달성 수단, 그리고 현재의 상태를 종합하여 수행할 행위를 결정한다. 만약 창문과 문이 닫혀있고 날씨가 흐리다면 선택되는 행위는 에어컨을 켜는 행위가 될 것이다. 그러나, 문과 창문이 닫혀있고 날씨도 맑다면 R40과 R41이 모두 만족되므로 상충이 발생한다. 이런 경우 다음과 같이 행위간에 우선 순위를 설정함으로써 행위 선택 정책을 확장하여 상충을 해소할 수 있다.
R40: Action(OpenWindow, WindowClosed, ClearWether, CoolAndDry)
R41: Action(TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)
R42: Superior(OpenWindow, TurnOnAirconditioner)
R43: Goal(?resolvent, ?someone, ?loc) and Action(?action, ?precondition1, ?precondition2, ?resolvent) and ?precondition(?loc) and ?precondion2(?loc) -> TemporaryPerform(?action, ?loc)
R44: TemporaryPerform (?action1, ?loc) and TemporaryPerform (?action2, ?loc) and Superior(?action1, ?action2) -> Perform(?action1, ?loc)
지식 R42는 창문 열기가 에어컨 켜기보다 우선하는 행위라고 선언하고 있다. 그리고, R43은 최종 행위를 결정하는 대신 중간 결정을 하고 있으며 R44가 복수개 행위가 선택된 경우 우선 순위가 높은 행위를 선택하여 최종 결과를 결정한다.
이렇게 결정된 행위는 행위 구체화 및 실행 수단(예를 들면, 로봇)으로 전달되어 실제 물리적인 서비스 수행으로 발현된다. 예를 들어, 도 5에서 사용자가 방에 있고 방이 덥고 습한 이유로 인해 창문을 열겠다는 행위가 도출되었다면 로봇장치(540)는 통신 모듈을 통해 홈게이트웨이(520)로 방의 전동창문(510)을 열도록 명령하고 이 명령에 따라 전동창문(510)이 열리게 된다.
한가지 주목할 것은 로봇 장치(540)는 지금까지 설명한 바와 같은 처리 과정상의 지식 처리 내용을 저장하여 둠으로써 행위 수행의 의도를 사용자에게 제시해줄 수 있다는 점이다.
즉, 상기의 예에서 로봇은 "Cheolsu를 편안하게 하려고 창문을 열였다고 답할 수 있다. 가치 체계 상에서 상충이 발생한 부분이 Cheolsu의 불편함이었기 때문이다. 또한 왜 Cheolsu가 불편하리라고 판단했는가에 대해서 로봇은 "방이 덥고 습해서"라고 답해줄 수 있다.
이상에서 설명한 바와 같이 본 발명이 제시한 능동적 로봇 제어 방법은 로봇이 사용자와 환경을 지속적으로 안전 및 쾌적하게 유지하고자 하는 의도를 주입하고 이에 따라 행위하도록 만듦으로써 능동적으로 로봇을 제어할 수 있으며, 로봇으로 하여금 자신이 수행한 행위에 대해 왜 그러한 행위를 수행하게 되었는지를 가치체계상의 가치를 빌어 설명할 수 있게 만들 수 있다.
본 발명에 의한 로봇 제어 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
이상에서 설명한 바와 같이, 본 발명에 의한 로봇 제어 장치 및 그 방법은 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 각종 불안정 상태를 해소하도록 하는 처리 절차와 가치 체계를 로봇에게 주입함으로써 로봇이 능동적으로 행위를 유도해낼 수 있다.
그 결과로 로봇이 능동적으로 사용자의 안위를 보존하고 환경의 불안정성을 해결할 수 있으며, 로봇 제작자나 사용자는 가치체계를 통해 로봇에게 임무, 의무, 예절 등을 손쉽게 부여할 수 있다.
또한 로봇이 행위를 수행하게 된 경위와 의도를 설명하도록 만들 수 있다.
그리고 로봇의 능동적이고 지적인 행위 도출에 있어 보다 인간적 사고에 가깝게 제작할 수 있게 함으로써 로봇의 사용자 친화성과 안정성을 향상시킬 수 있기 때문에 개인용 및 가정용 로봇 산업을 신장시키는 원동력의 하나가 될 수 있다.

Claims (9)

  1. 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및
    상기 현재의 상황과 불안정 상태 판단 결과를 기초로 로봇의 수행의무를 규정한 가치체계와 비교하여 상기 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하고,
    상기 상태 해석부 및 목표생성부 간에 지식 표현 언어(Knowledge Representative Language)로 기술된 데이터로 송수신하는 것을 특징으로 하는 로봇 제어 장치.
  2. 삭제
  3. 제1항에 있어서, 상기 상태해석부는
    상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 주의목록부;
    상기 지각 정보를 일대일 대응되는 기호로 기호화하여 출력하는 상황해석부;
    상기 기호화된 지각 정보를 저장하는 상황부;
    상기 상황부의 내용이 바뀔 때마다 상기 상황부를 검색하여 상기 요주의단서 가 존재하는지 확인하여, 존재하면 추론 시작을 지시하는 구동신호를 출력하는 상황모니터; 및
    상기 구동신호에 따라 소정의 규칙을 기반으로 하는 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 불안정상태해석부;를 포함하는 것을 특징으로 하는 로봇 제어 장치.
  4. 제1항에 있어서, 상기 목표생성부는
    상기 로봇이 수행하여야할 의무를 저장하는 가치체계부;
    상기 상태해석부의 판단 결과와 현재의 상황을 입력받아 상기 가치체계부를 억세스하여 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 목표설정부; 및
    상기 설정된 행위목표를 수행하도록 상기 로봇에게 행동지침을 출력하는 행위선택부;를 포함하는 것을 특징으로 하는 로봇 제어 장치.
  5. (a) 로봇이 수행하여야할 적어도 하나 이상의 의무를 구축하는 단계;
    (b) 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계;
    (c) 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및
    (d) 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;를 포함하고,
    상기 의무, 현재의 상황 및 불안정 상태 판단 결과는 지식 표현 언어(Knowledge Representative Language)로 기술되는 것을 특징으로 하는 로봇 제어 방법.
  6. 제5항에 있어서, 상기 (b)단계는
    (b1) 상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 단계;
    (b2) 상기 지각 정보를 일대일 대응되는 기호로 기호화한 후 상황데이터로 저장하는 단계;
    (b3) 상기 상황데이터가 바뀔 때마다 상기 요주의단서들과 비교하여 상기 요주의단서를 포함하면 추론을 시작하는 단계; 및
    (b4) 소정의 규칙을 기반으로 하는 상기 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 단계;를 포함하는 것을 특징으로 하는 로봇 제어 방법.
  7. 제5항에 있어서, 상기 (c)단계는
    (c1) 상기 로봇이 수행하여야할 의무를 저장하는 단계;
    (c2) 상기 불안정 상태 판단 결과와 현재의 상황을 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 단계; 및
    (c3) 상기 로봇에게 상기 설정된 행위목표를 수행하도록 행동지침을 내리는 단계;를 포함하는 것을 특징으로 하는 로봇 제어 방법.
  8. 제7항에 있어서, 상기 (c1)단계는
    상기 의무를 지식의 형태로 저장하는 것을 특징으로 하는 로봇 제어 방법.
  9. (a) 로봇이 수행하여야할 적어도 하나 이상의 의무를 저장하는 단계;
    (b) 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계;
    (c) 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및
    (d) 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;를 포함하는 것을 특징으로 하는 로봇 제어 방법을 컴퓨터에서 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020060058892A 2005-12-09 2006-06-28 로봇 제어 장치 및 그 방법 KR100779088B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/591,275 US7797079B2 (en) 2005-12-09 2006-11-01 Apparatus for controlling robot and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050121046 2005-12-09
KR20050121046 2005-12-09

Publications (2)

Publication Number Publication Date
KR20070061189A KR20070061189A (ko) 2007-06-13
KR100779088B1 true KR100779088B1 (ko) 2007-11-27

Family

ID=38357126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060058892A KR100779088B1 (ko) 2005-12-09 2006-06-28 로봇 제어 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR100779088B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
CN113043274B (zh) * 2021-03-25 2022-06-21 中车青岛四方车辆研究所有限公司 一种机器人性能评价方法及***
CN114474150B (zh) * 2021-12-31 2024-07-09 苏州通标检测科技有限公司 七轴机器人的稳定性测试方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002205291A (ja) 2000-10-23 2002-07-23 Sony Corp 脚式ロボット及び脚式ロボットの行動制御方法、並びに記憶媒体
KR20040011010A (ko) * 2002-07-26 2004-02-05 모스트아이텍 주식회사 로봇을 이용한 홈 시큐리팅/홈 네트워킹 시스템 및 그 운용 방법
KR20040098498A (ko) * 2002-03-15 2004-11-20 소니 가부시끼 가이샤 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
KR20060021946A (ko) * 2004-09-06 2006-03-09 한국과학기술원 로봇의 감정표현장치 및 방법
KR20060039304A (ko) * 2004-11-02 2006-05-08 화천기공 주식회사 휴머노이드 로봇

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002205291A (ja) 2000-10-23 2002-07-23 Sony Corp 脚式ロボット及び脚式ロボットの行動制御方法、並びに記憶媒体
KR20040098498A (ko) * 2002-03-15 2004-11-20 소니 가부시끼 가이샤 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
KR20040011010A (ko) * 2002-07-26 2004-02-05 모스트아이텍 주식회사 로봇을 이용한 홈 시큐리팅/홈 네트워킹 시스템 및 그 운용 방법
KR20060021946A (ko) * 2004-09-06 2006-03-09 한국과학기술원 로봇의 감정표현장치 및 방법
KR20060039304A (ko) * 2004-11-02 2006-05-08 화천기공 주식회사 휴머노이드 로봇

Also Published As

Publication number Publication date
KR20070061189A (ko) 2007-06-13

Similar Documents

Publication Publication Date Title
KR102445382B1 (ko) 음성 처리 방법 및 이를 지원하는 시스템
McNeal et al. Introducing chatbots in libraries
US5920477A (en) Human factored interface incorporating adaptive pattern recognition based controller apparatus
KR101119030B1 (ko) 지능형 로봇 장치의 서비스 시나리오 편집 방법, 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체, 지능형 로봇 장치 및 지능형 로봇의 서비스 방법
US11314548B2 (en) Electronic device and server for processing data received from electronic device
EP3373525A2 (en) Electronic device and method using machine learning for identifying characteristics of users located within a specific space
CN112055857A (zh) 上下文推荐
KR100779088B1 (ko) 로봇 제어 장치 및 그 방법
US7797079B2 (en) Apparatus for controlling robot and method thereof
JP2014098962A (ja) 行動制御装置、行動制御方法、および制御プログラム
CN113199472A (zh) 机器人控制方法、装置、存储介质、电子设备和机器人
EP3963872B1 (en) Electronic apparatus for applying personalized artificial intelligence model to another model
Vastamäki et al. A behavioural model of temperature controller usage and energy saving
KR20080006981A (ko) 지능형 홈 서비스 제공 시스템 및 방법
WO2021070732A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
Boychenko Agency of Interactive Architecture in socio-technological relationship through Actor-Network Theory
Kittle How (not) to think about the sense of ‘able’relevant to free will
US11170661B2 (en) Physical software coding training apparatus
WO2016117514A1 (ja) ロボット制御装置及びロボット
WO2021045434A1 (ko) 전자 장치 및 이의 제어 방법
KR100819237B1 (ko) 소프트웨어 로봇 플랫폼을 업데이트하기 위한 시스템 및업데이트 방법
KR100578071B1 (ko) 퍼스널 로봇의 감정 관리기 및 방법, 그를 이용한 감성합성 장치 및 그 방법
Pasquier et al. An exploration in using cognitive coherence theory to automate BDI agents’ communicational behavior
KR102491931B1 (ko) 대화 수행 시스템, 장치 및 방법
Andrews Snipping or editing? Parsimony in the chimpanzee mind-reading debate: Elliott Sober: Ockham’s razors: A user’s manual. Cambridge: Cambridge University Press, 322 pp, 29.99PB, 99.99 HB

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20121031

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131024

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141027

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee