KR100893758B1 - 로봇의 감성 표현 제어 시스템 및 방법 - Google Patents

로봇의 감성 표현 제어 시스템 및 방법 Download PDF

Info

Publication number
KR100893758B1
KR100893758B1 KR1020070104133A KR20070104133A KR100893758B1 KR 100893758 B1 KR100893758 B1 KR 100893758B1 KR 1020070104133 A KR1020070104133 A KR 1020070104133A KR 20070104133 A KR20070104133 A KR 20070104133A KR 100893758 B1 KR100893758 B1 KR 100893758B1
Authority
KR
South Korea
Prior art keywords
emotional
information
robot
expression
emotion
Prior art date
Application number
KR1020070104133A
Other languages
English (en)
Inventor
강상승
김재홍
손주찬
조현규
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070104133A priority Critical patent/KR100893758B1/ko
Priority to US12/207,714 priority patent/US20090099693A1/en
Application granted granted Critical
Publication of KR100893758B1 publication Critical patent/KR100893758B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 자율적인 감성을 기반으로 다양한 행위의 표현을 통해 인간에게 정서적인 친밀감을 주는 감성 시스템에서 감성 엔진과 연계를 통해 생성된 감성에 적합한 감성 행동 표현을 결정하고 결정된 행동 표현을 기반으로 감성 표현을 효율적으로 전달하기 위한 구동기 제어 방법을 제공함으로써, 종래의 감성 생성으로부터 행동 표현을 결정하는 방법과 비교하여 내장형 시스템을 기반으로 하여 감성 행동을 표현하고 구동기를 제어하기 위한 구조화된 방법을 제공하며 장치 독립적인 관리 운용 방법을 제공한다. 또한 감성을 기반으로 충실한 감성을 표현하기 위해 요구되는 하드웨어적인 장치뿐만 아니라 이를 제어하기 위한 내부 시스템과 이들간의 유기적인 연결 방안을 통해 감성 로봇이나 지능형 로봇과 같은 감성 시스템에서 감성 변화에 따른 적합한 자연스러운 감성 행동 표현을 제공함으로써 인간과 로봇 간의 상호작용을 극대화할 수 있으며, 특히 내장형 운영체제를 기반으로 감성 엔진과 연동하여 감성 행동을 표현하고 제어하기 위한 내장형 시스템으로 라이브러리 또는 응용 프로그램 인터페이스 모듈로 구성함으로써 전체적인 시스템이 가볍고 특정 형태의 감성 시스템뿐만 아니라 다른 감성 시스템으로의 이식도 용이하게 한다.
감성 행동, 행동 표현, 구동기 제어, 감성 로봇

Description

로봇의 감성 표현 제어 시스템 및 방법{SYSTEM FOR EXPRESSING EMOTION OF ROBOTS AND METHOD THEREOF}
본 발명은 로봇 시스템 중 감성 시스템에 관한 것으로, 특히 감성 정보의 입력이 가능한 로봇에서 입력되는 감성 정보로부터 적절한 감성 행동을 정의하고, 대상 구동기를 제어하여 정의된 감성 행동을 표현하도록 하여 사람에게 정서적인 친밀감을 줄 수 있도록 하는 로봇의 감성 표현 시스템 및 방법에 관한 것이다.
본 발명은 정보통신부의 IT신성장동력핵심기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-026-02, 과제명 : 능동형 서비스를 위한 URC 서버 프레임웍 개발].
현재 사용자의 명령이나 주위 환경과 센서 정보로부터 감성 모델을 구성하고 이를 기반으로 동작을 제어하는 감성 시스템에 관한 연구가 이루어지고 있다.
위와 같이 시각이나 청각 및 촉각 센서와 같은 다양한 센서 정보를 이용하여 감성을 생성하거나 행동을 선택하여 표현하는 시스템은 애완용 로봇이나 지능형 로 봇 형태로 개발되어 있으며, 동물을 모사하거나 의인화된 감성을 기반으로 보다 자연스러운 행동 표현을 위해 감성 엔진이나 관련 시스템에 관한 기능 개선 연구도 꾸준히 진행되고 있다.
또한, 인간과 로봇의 자연스러운 상호작용을 위해 사용자의 입력과 상태 변화를 감지하기 위한 센서 장치도 기능 개선과 함께 사용자의 의도를 파악하기 위한 노력들이 시도되고 있으며, 로봇 구동 장치에 있어서도 자연스러운 행동을 표현하기 위한 구동기 기술에 대한 다양한 연구가 이루어지고 있다.
한편, 위와 같은 감성 정보를 기반으로 충실한 감성을 표현하기 위해서는 하드웨어적인 장치의 개발뿐만 아니라 이를 제어하는 내부 시스템에 대한 개발도 중요하며, 특히 특정 로봇이나 시스템에 의존적인 구성이 아니라 독립적으로 운용 가능한 형태로의 개발이 필요하나, 현재까지는 독립적으로 운용 가능한 형태의 감성 표현 시스템이 개발되어 있지 않았다.
따라서 하드웨어적인 구동 장치를 상황과 감성에 따라 자연스럽고 실감나게 구동하기 위해서는 물리적인 장치와 이를 구동하고 운용하기 위한 내부 시스템 간의 유기적인 제어를 통해 로봇 시스템간 독립적으로 운용 가능한 형태의 감성 표현 시스템의 개발이 요구된다.
따라서 본 발명은 감성 로봇과 같은 감성 시스템에서, 감성 엔진에서 생성된 감성 정보의 입력으로부터 감성 플랫폼 프로파일 및 감성 프로퍼티를 검출하고 행동 맵(action map)을 참고하여 적합한 행동 표현을 결정하며 행동 표현에 따라 대상 구동기를 선택하고 제어 명령에 대한 분석 및 제어 방법을 결정하여 구동기를 제어하는 로봇 감성 표현 제어 시스템 및 방법을 제공함에 있다.
또한, 내장형 시스템 내부 자원을 직접 제어하는 방법과 외부 자원을 제어하기 위해 제어 메시지를 생성하고 전송하여 구동기를 제어하는 방법을 제공하여 감성 시스템에서 독립적으로 운용 가능하며 생성된 감성에 적합한 자연스러운 행동 표현을 제공할 수 있도록 하는 로봇 감성 표현 제어 시스템 및 방법을 제공함에 있다.
상술한 본 발명은 로봇의 감성 표현 제어 시스템으로서, 내/외부의 자극을 전달하는 다수의 센서로부터 특징 정보를 추출하고 로봇의 감성 정보를 생성하는 감성 엔진과, 상기 감성 정보를 입력받아 감성 플랫폼 프로파일과 감성 프로퍼티를 검출하고 행동 맵을 참조하여 상기 감성 정보에 대응된 로봇의 행동 표현을 결정하며, 상기 행동 표현에 따른 대상 구동기를 선택하고 제어 방법을 결정하는 감성 표현 및 구동 제어부와, 상기 제어 방법에 따라 상기 대상 구동기의 움직임을 제어하여 상기 감성 엔진으로부터 입력된 로봇의 감성을 표현하는 하드웨어 제어부와, 상기 감성 표현 및 구동 제어부와 통신을 통해 상기 로봇의 감성 표현에 대한 모니터링 및 디버깅을 수행하는 도구와, 모션 및 행동을 생성하고 편집하는 도구와 환경을 설정하거나 자원을 관리하기 위한 도구를 포함하는 외부 관리 운용부를 포함하는 것을 특징으로 한다.
또한, 본 발명은 로봇의 감성 표현 제어 방법으로서, (a)로봇에 대한 내/외부의 자극에 대해 다수의 센서를 통해 특징 정보를 추출하고 로봇의 감성 정보를 생성하는 단계와, (b)상기 로봇의 감성 정보를 입력받아 감성 플랫폼 프로파일과 감성 프로퍼티를 검출하고 행동 맵을 참조하여 상기 감성 정보에 대응된 행동 표현을 결정하는 단계와, (c)상기 행동 표현에 따라 상기 로봇의 움직임을 표현할 대상 구동기를 선택하고 제어 방법을 결정하는 단계와, (d)상기 제어 방법에 따라 상기 대상 구동기의 움직임을 제어하는 단계를 포함하는 것을 특징으로 한다.
본 발명에서는 자율적인 감성을 기반으로 다양한 행위의 표현을 통해 인간에게 정서적인 친밀감을 주는 감성 시스템에서 감성 엔진과 연계를 통해 생성된 감성에 적합한 감성 행동 표현을 결정하고 결정된 행동 표현을 기반으로 감성 표현을 효율적으로 전달하기 위한 구동기 제어 방법을 제공함으로써, 종래의 감성 생성으로부터 행동 표현을 결정하는 방법과 비교하여 내장형 시스템을 기반으로 하여 감성 행동을 표현하고 구동기를 제어하기 위한 구조화된 방법을 제공하며 장치 독립적인 관리 운용 방법을 제공하는 이점이 있다.
또한 감성을 기반으로 충실한 감성을 표현하기 위해 요구되는 하드웨어적인 장치뿐만 아니라 이를 제어하기 위한 내부 시스템과 이들간의 유기적인 연결 방안을 통해 감성 로봇이나 지능형 로봇과 같은 감성 시스템에서 감성 변화에 따른 적합한 자연스러운 감성 행동 표현을 제공함으로써 인간과 로봇 간의 상호작용을 극대화할 수 있으며, 특히 내장형 운영체제를 기반으로 감성 엔진과 연동하여 감성 행동을 표현하고 제어하기 위한 내장형 시스템으로 라이브러리 또는 응용 프로그램 인터페이스 모듈로 구성함으로써 전체적인 시스템이 가볍고 특정 형태의 감성 시스템뿐만 아니라 다른 감성 시스템으로의 이식도 용이하게 하는 이점이 있다.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 발명의 구체적인 핵심 기술요지를 살펴보면, 자율적인 감성을 기반으로 다양한 행위의 표현을 통해 인간에게 정서적인 친밀감을 주는 감성 시스템에서 감성 엔진과 연계를 통해 생성된 감성에 적합한 감성 행동 표현을 결정하고 결정된 행동 표현을 기반으로 감성 표현을 효율적으로 전달하기 위한 구동기 제어 방법을 제공함으로써, 종래의 감성 생성으로부터 행동 표현을 결정하는 방법과 비교하여 내장형 시스템을 기반으로 하여 감성 행동을 표현하고 구동기를 제어하기 위한 구조화된 방법과, 장치 독립적인 관리 운용 방법의 기술을 통해 본 발명에서 이루고자 하는 바를 쉽게 달성할 수 있다.
도 1은 본 발명에 따른 로봇의 감성 표현 제어 시스템의 상세 블록 구성을 도시한 것이다.
위 도 1을 참조하면, 본 발명의 로봇 감성 표현 제어 시스템은, 모니터링 및 디버깅 도구, 모션 및 행동을 생성하고 편집하는 도구, 환경을 설정하거나 자원을 관리하기 위한 도구들로 구성된 외부 관리 운용부(100), 내/외부의 자극으로부터 센서 값을 검출하고 변환하여 특징 정보를 추출하고 감성을 생성하는 감성 엔진(200), 감성 정보를 입력받아 적합한 행동 표현을 결정하고 내부 자원을 제어하거나 제어 메시지를 생성하여 전달하여 구동기를 제어하는 감성 표현 및 구동 제어부(300), 제어 메시지를 기반으로 모터 구동을 통해 기구부의 움직임을 제어하는 하드웨어 제어부(400), 행동 맵, 로그 데이터, 환경 데이터, 자원 파일 등으로 구성된 관리 자원부(500)로 구성된다.
이하, 위 도 1을 참조하여 본 발명의 로봇 감성 표현 제어 시스템 각부의 동작을 상세히 설명하기로 한다.
먼저 외부 관리 운용부(100)는 입/출력 정보를 확인하고 필요에 따라 디버깅 기능을 제공하는 I/O 모니터(110), 모션 및 행동을 생성하고 편집하는 모션 편집 기(120), 시스템 환경을 설정하는 환경설정 도구(130), 자원을 관리하기 위한 자원 관리자(140)들로 구성되며, 감성 표현 및 구동 제어부(300)를 보다 효율적으로 관리 운용하기 위한 다른 수단을 추가적으로 이용 가능할 것이다.
상기의 감성 표현 및 구동 제어부(300)는 내장형 운영체제를 기반으로 감성 엔진과 연동하여 감성 행동을 표현하고 제어하기 위한 내장형 시스템으로 라이브러리 또는 응용 프로그램 인터페이스 모듈로 구성된다. 입출력 정보와 상태를 저장하는 로거부(logger)(310), 행동 표현을 결정하는 행동 표현부(action expression)(320), 매핑 정보(mapping information)를 제공하는 매퍼부(mapper)(330), 환경 설정 정보를 로드 및 참조하는 환경 설정부(config)(340), 행동 표현으로부터 구동기를 제어하는 구동기 제어부(actuator control)(350), 감성 엔진(200), 하드웨어 제어부(400), 외부 관리 운용부(100)과의 통신 환경을 지원하는 통신부(comm)(360)을 포함하여 구성된다.
상기의 관리 자원부(500)는 감성 기반 행위 정보, 행동 표현, 제어 명령 등의 매핑 정보를 제공하는 행동 맵(action map)(510), 입/출력 과정에서 발생하는 중요 정보를 기록한 I/O 로그 데이터(log data)(520), 시스템의 환경 설정 정보를 가지고 있는 환경설정 데이터(config data)(530), 파일 단위로 행동을 표현하고 실행할 수 있도록 하는 행동 파일(action file)과 행동 스크립트(action script), 음향 효과나 음성 정보를 표현하기 위한 사운드 파일 등으로 구성된 리소스 파일(resource file)(540) 등으로 구성된다.
상기의 관리 자원부(500)는 외부 관리 운용부(100)와 감성 표현 및 구동 제 어부(300)의 연동을 지원하고 시스템 환경 및 요구되는 정보를 효율적으로 제공하고 관리하기 위해 필요한 모든 리소스가 그 대상이 될 수 있다.
도 2는 본 발명의 실시 예에 따른 감성 엔진(200)의 입력으로부터 하드웨어 제어부(400)로 출력을 제공하기 위한 내장형 시스템에서의 주요 기능 부들의 연관성을 도시하는 구성도이다.
위 도 2에 도시된 바와 같이, 입력된 감성 정보로부터 하드웨어 제어부(400)로 출력을 제공하기 위한 감성 표현 및 구동 제어부(300)의 세부적인 기능 모듈 구성은 감성 엔진(200)으로부터 감성 상태, 감성 강도 등을 포함하는 감성 정보를 입력 받는 데이터 수신부(301), 감성 플랫폼(platform) 프로파일(profile) 및 감성 프로퍼티(property)를 검출하는 데이터 분해부(data resolution)(302), 행동 맵을 기반으로 매핑 기능을 제공하는 매퍼부(330), 프로파일, 프로퍼티, 매핑 정보를 기반으로 행동 표현을 결정하는 행동 표현부(action expression)(320), 행동 표현부(320)와 구동기 제어부(350)를 유기적으로 연결하는 코디네이터부(coordinator)(303)를 포함한다.
또한, 환경 정보를 로드하고 참조하는 환경 설정부(340), 통신 환경을 지원하는 통신부(360), 구동기를 초기화하거나 상태를 점검하는 구동기 체크부(actuator check)(304), 행동 표현에 따라 구동기를 선택하는 대상 선택부(target selection)(305), 구동기 제어의 메인 기능을 수행하는 구동기 제어부(350), 제어 명령을 분석하고 제어 방법을 결정하는 명령어 분석부(command analysis)(306), 내부 자원을 체크하고 내부 자원을 이용하여 시스템을 호출하거나 실행하는 자원 제어부(resource control)(307), 외부 제어보드로 보낼 메시지를 생성하는 제어 메시지 생성부(control message generation)(308), 제어 메시지를 전송하는 메시지 전송부(send message)(309), 입력된 감성 정보와 출력된 구동기 제어 명령을 기록하고 관리하는 로거부(310)로 이루어진다.
도 3은 본 발명에 따른 감성 입력에 따라 행동 표현을 결정하기 위한 기능 관계 및 흐름을 도시하는 일 실시 예 구성도이다.
위 도 3에 도시된 바와 같이, 데이터 수신부(310)는 감성 엔진(200)으로부터 감성 상태, 감성 강도 등을 포함하는 감성 정보를 입력 받는 데이터 수신 기능을 수행하고, 로거부(310)는 입력 정보를 기록하는 로거 기능을 수행한다. 이때 기록되는 입력 로그 데이터(520a)는 입력된 감성 정보와 타임스탬프 정보를 포함하고 안전하게 저장하고 관리하기 위한 해시 값을 포함한다.
이후 감성 플랫폼 프로파일을 로드하고 데이터 분해부(302)에서 수신 데이터로부터 감성 프로퍼티를 검출하는 데이터 분해 기능을 수행한다. 여기서 감성 플랫폼 프로파일은 감성 로봇과 같은 감성 시스템이 가지고 있는 구동기에 대한 정보와 구체적으로 구동 가능한 값의 범위와 제어 타입 정보를 포함한다. 또한 감성 프로퍼티에는 감성 상태, 감성 강도 또는 감성 지수 정보로 이루어지며, 단일 또는 복합 감성 관계 정보, 기본 감성 행위 정보를 포함할 수 있다.
그 후 행동 표현부(320)에서 프로파일과 프로퍼티 및 매핑 정보를 기반으로 행동 표현을 결정하는 행동 표현 기능을 수행하며, 이는 행동 맵(510)을 기반으로 매핑 기능을 제공하는 매퍼부(330)와 긴밀하게 연결된다. 여기서 행동 맵(510)은 감성 강도에 따른 감성 단계, 감성에 따른 기본 행위, 휴먼 리드블한 행동 표현, 행동 천이 정보 등을 포함하고 있으며, 행동 정의(511)를 기반으로 구성된다. 상기의 행동 정의를 기반으로 작성한 행동 맵(510)은 모션 편집기(120)를 통해 관리하거나 별도의 응용 프로그램을 통해 운용 가능할 것이다.
상기의 결정된 행동 표현 정보는 코디네이터부(303)를 통해 구동기 제어부(350)로 전달되며, 이때 코디네이터부(303)는 행동 표현과 구동기 제어부(350)의 동작을 유기적으로 연결할 뿐만 아니라 환경 설정 데이터(530)를 로드하고 분석 및 적용하는 환경 설정부(340)와 모션 편집기(120)와의 통신 기능을 포함하며, 통신부(360)를 통해 내/외부 시스템과의 통신 기능을 지원한다.
도 4는 본 발명에 따른 결정된 행동 표현에 따라 내부 자원을 호출하거나 외부 하드웨어 장치를 제어하기 위한 기능 관계 및 흐름을 도시하는 일 실 시예 구성도 이다.
위 도 4에 도시된 바와 같이, 행동 표현부(320)와 구동기 제어부(350)를 유기적으로 연결하는 코디네이터부(303)의 코디네이터 기능을 통해 결정된 행동 표현 정보가 구동기 제어부(350)로 전달한다. 상기와 마찬가지로 코디네이터부(303)는 환경 정보를 로드하고 분석 및 적용하는 환경 설정부(340)를 참조하고, 통신부(360)를 통해 자원 관리자(140)와의 통신을 포함한 내/외부 시스템과의 통신 기능을 지원한다.
이어, 구동기를 초기화하거나 상태를 점검하는 구동기 체크부(304)의 구동기 체크 기능을 수행한 다음에, 결정된 행동 표현에 따라 대상 선택부(305)를 통해 구 동기를 선택한다. 구동기 제어의 메인 기능을 수행하는 구동기 제어부(350)는 코디네이터부(303)와 연결되며 선택된 대상에 대한 제어 명령을 매핑한다.
이후 명령어 분석부(306)는 제어 명령의 타입에 따라 제어 명령을 분석하고 제어 방법을 결정하는 명령어 분석 기능을 수행하고, 직접 제어를 수행하는 제어 명령인 경우에는 자원 제어부(307)를 통해 내부 자원을 체크하고 내부 자원을 이용하여 시스템을 호출하거나 실행하는 자원 제어 기능을 수행하게 된다.
이와 달리, 외부 자원을 이용하여 수행하는 제어 명령인 경우에는 제어 메시지 생성부(308)를 통해 외부 제어보드로 보낼 제어 메시지를 생성하는 제어 메시지 생성 기능을 수행하고, 메시지 전송부(309)의 메시지 전송 기능을 통해 제어 메시지를 하드웨어 제어부(400)로 전달하며, 이와 동시에 로거부(310)를 통해 출력 정보를 기록하는 로거 기능을 수행한다.
이때 기록되는 출력 로그 데이터(520b)는 출력된 제어 명령 정보와 타임스탬프 정보를 포함하고 안전하게 저장하고 관리하기 위한 해시 값을 포함한다. 또한 제어 메시지는 제어 명령의 타입에 따라 사전 정의된 메시지 규격에 적합하도록 구성되며, 메시지 시작 정보, 대상 객체 ID 정보, 길이 정보, 제어 타입 및 메시지 타입 정보, 메시지 본문 정보, 오류 검증 정보 등을 포함하여 이루어진다.
도 5는 본 발명에 따른 로봇 감성 표현 제어 시스템에서 감성 정보의 입력으로부터 감성 행동을 표현하고 구동기를 제어하는 동작 흐름을 도시한 것이다. 이하 상기 도 1, 도 2, 도 3, 도 4 및 도 5를 참조하여 본 발명의 실시 예를 상세히 설명하기로 한다.
위 도 5에 도시된 바와 같이, 감성 행동 표현 및 구동기 제어 시스템에서의 일 실시 예 실행 절차에 있어 감성 표현 및 구동 제어부(300)는, 감성 엔진(200)으로부터 생성된 감성 정보를 입력받고 입력 로그를 기록(S110)하며, 감성 로봇 플랫폼 프로파일을 로딩하고, 감성 상태, 감성 강도, 행위 정보 등을 포함하는 감성 정보를 검출(S120)한 후, 상기의 추출된 정보와 행동 맵을 참조하여 적절한 행동 표현을 결정(S130)한다.
이후 구동기를 초기화하거나 점검하고 대상 구동기를 선택(S140)한 후, 행동 표현에 따라 구동기를 제어하기 위한 제어 명령을 분석하고 제어 방법을 결정(S150)한다. 구동기 제어를 위한 외부 자원 이용 판단(S160) 과정에서는 모터와 같은 외부 자원을 이용하여 행동 표현을 할 경우에는 외부 자원 실행 흐름을 수행하고, 내장 사운드와 같은 내부 자원만으로 행동 표현을 할 경우에는 내부 자원 실행 흐름을 수행하며, 복합 구동기 제어의 경우에는 양쪽 자원을 모두 활용하도록 두 흐름이 동시에 실행된다.
즉, 외부 자원을 실행하는 흐름의 경우에는, 제어보드로 보낼 제어 메시지를 생성(S170)하고, 메시지 통신 프로토콜을 통해 제어 메시지를 전달(S180)한다. 이 제어 메시지를 기반으로 제어보드, 즉 내장형 시스템 외부에 위치한 하드웨어 제어부(400)를 통해 구동기를 제어(S190)하게 된다.
또한, 내부 자원을 실행하는 흐름의 경우에는, 내장형 시스템 내부에서 직접 제어하기 위한 내부 자원을 체크(S200)한 다음에, 시스템 호출을 실행하거나 내부 자원을 실행을 위한 모듈을 통해 제어(S210)하게 된다. 이때 내부 자원과 외부 자 원의 실행 흐름은 제어 명령에 따라 동시에 실행될 수도 있고, 둘 중 하나만 실행될 수도 있다. 제어 명령에 대한 실행이 시행함과 동시에 대상 구동기에 대한 정보와 제어 명령에 관한 로그 정보를 기록(S220)함으로써 프로세스를 종료하게 된다.
한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.
도 1은 본 발명의 실시 예에 따른 로봇의 감성 표현 제어 시스템의 블록 구성도,
도 2는 상기 도 1의 감성 표현 및 구동 제어부의 상세 블록 구성도,
도 3은 본 발명의 실시 예에 따른 감성 입력에 따라 행동 표현을 결정하기 위한 기능 관계 및 흐름을 도시한 도면,
도 4는 본 발명의 실시 예에 따른 결정된 행동 표현에 따라 내부 자원을 호출하거나 외부 하드웨어 장치를 제어하기 위한 기능 관계 및 흐름을 도시한 도면,
도 5는 본 발명의 실시 예에 따른 감성 정보의 입력으로부터 감성 행동을 표현하고 구동기를 제어하는 처리 흐름도.
<도면의 주요 부호에 대한 간략한 설명>
100 : 외부 관리운용부 200 : 감성 엔진
300 : 감성 표현 및 구동 제어부 400 : 하드웨어 제어부
500 : 자원 관리부 310 : 로거부
320 : 행동 표현부 330 : 매퍼부
340 : 환경 설정부 350 : 구동기 제어부
360 : 통신부

Claims (18)

  1. 삭제
  2. 다수의 센서로부터 입력되는 정보에 따라 로봇의 감성 정보를 생성하는 감성 엔진과,
    상기 감성 정보를 입력받아 감성 플랫폼 프로파일과 감성 프로퍼티를 검출하고 상기 감성정보에 따른 로봇의 행동 표현을 결정하여 로봇의 대상 구동기를 제어하는 감성 표현 및 구동 제어부와,
    상기 감성 표현 및 구동 제어부의 제어 방법에 따라 상기 대상 구동기의 움직임을 제어하는 하드웨어 제어부와,
    상기 감성 표현 및 구동 제어부와 통신을 통해 상기 로봇의 감성 표현에 대한 모니터링 및 디버깅을 수행하는 도구와, 모션 및 행동을 생성하고 편집하는 도구와 환경을 설정하거나 자원을 관리하기 위한 도구를 포함하는 외부 관리 운용부
    를 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  3. 제 2 항에 있어서,
    상기 시스템은,
    상기 로봇의 입력 감성에 따른 행동 맵, 로그 데이터, 환경 데이터 자원파일을 구비하는 관리 자원부를 더 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  4. 제 2 항에 있어서,
    상기 감성 표현 및 구동 제어부는,
    입/출력 정보와 상태를 저장하는 로거부와,
    상기 입력 감성 정보에 따른 행동 표현을 결정하는 행동 표현부와,
    행동 맵과의 매핑 정보를 제공하는 매퍼부와,
    환경 설정 정보를 로드 및 참조하는 환경 설정부와,
    상기 행동 표현으로부터 구동기를 제어하는 구동기 제어부와,
    상기 외부 관리 운용부와의 통신 환경을 지원하는 통신부
    를 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  5. 제 4 항에 있어서,
    상기 감성 표현 및 구동 제어부는,
    상기 감성엔진으로부터 감성 정보 데이터를 수신하여 입력 로그 정보를 기록하고, 감성 플랫폼 프로파일을 로드하여 감성 프로퍼티를 검출하며, 행동 맵을 기반으로 매핑 기능을 제공하는 상기 매퍼부를 통해 상기 감성 정보에 따른 행동표현을 결정하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  6. 제 5 항에 있어서,
    상기 입력 로그 정보는,
    입력된 감성 정보와 타임스탬프 정보를 포함하고 정보의 보안을 위해 해시 값을 포함하여 이루어진 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  7. 제 5 항에 있어서,
    상기 감성 플랫폼 프로파일은,
    상기 시스템이 가지고 있는 구동기에 대한 정보와 구체적으로 구동 가능한 값의 범위와 제어 타입 정보를 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  8. 제 5 항에 있어서,
    상기 감성 프로퍼티는,
    감성 상태, 감성 강도 또는 감성 지수 정보, 단일 또는 복합 감성 관계 정보, 기본 감성 행위 정보를 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  9. 제 5 항에 있어서,
    상기 행동 맵은,
    행동 정의를 기반으로 감성 강도에 따른 감성 단계, 감성에 따른 기본 행위, 휴먼리드블한 행동 표현, 행동 천이 정보를 포함하며, 상기 외부 관리 운용부의 도구 프로그램에서 생성 및 편집 가능한 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  10. 제 4 항에 있어서,
    상기 감성 표현 및 구동 제어부는,
    상기 감성 엔진으로부터 감성 상태 또는 감성 강도의 감성 정보를 입력 받는 데이터 수신부와,
    상기 감성 정보로부터 감성 플랫폼 프로파일과 감성 프로퍼티를 검출하는 데이터 분해부와,
    상기 행동 표현부와 구동기 제어 모듈을 유기적으로 연결하는 코디네이터부와,
    구동기를 초기화하거나 상태를 점검하는 구동기 체크부와,
    행동 표현에 따라 구동기를 선택하는 대상 선택부와,
    제어 명령을 분석하고 제어 방법을 결정하는 명령어 분석부와,
    내부 자원을 체크하고 내부 자원을 이용하여 시스템을 호출하거나 실행하는 자원 제어부와,
    외부 제어보드로 보낼 메시지를 생성하는 제어 메시지 생성부와,
    제어 메시지를 전송하는 메시지 전송부
    를 더 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  11. 제 10 항에 있어서,
    상기 감성 표현 및 구동 제어부는,
    구동기를 초기화하거나 상태 점검을 위한 구동기 체크를 수행하고 구동기 대상을 선택하며, 선택된 대상에 대한 제어 방법을 결정한 후, 내부 자원의 직접 제어를 위해 내부 자원을 체크하고 시스템을 호출하거나 실행하는 자원 제어를 수행하며, 외부 자원을 이용하기 위해 제어 메시지를 생성하고 하드웨어 제어부에게 전달하며, 출력 로그 정보를 기록하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  12. 제 11 항에 있어서,
    상기 출력 로그 정보는,
    출력된 제어 명령 정보와 타임스탬프 정보를 포함하며, 보안을 위해 해시 값을 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  13. 제 10 항에 있어서,
    상기 감성 표현 및 구동 제어부는,
    상기 로봇의 감성 정보에 따른 행동 표현에 대응되게 구동기를 제어하는 구동기 제어부와의 유기적인 연결을 위해 코디네이터 기능을 수행하고, 상기 외부 관리 운용부와의 통신 및 정보 공유 기능을 수행하는 것을 특징으로 하는 로봇의 감성 표현 제어 시스템.
  14. (a)로봇에 대한 내/외부의 자극에 대해 다수의 센서를 통해 특징 정보를 추출하고 로봇의 감성 정보를 생성하는 단계와,
    (b)상기 로봇의 감성 정보를 입력 받아 감성 플랫폼 프로파일과 감성 프로퍼티를 검출하고 행동 맵을 참조하여 상기 감성 정보에 대응된 행동 표현을 결정하는 단계와,
    (c)상기 행동 표현에 따라 상기 로봇의 움직임을 표현할 대상 구동기를 선택하고 제어 방법을 결정하는 단계와,
    (d)상기 제어 방법에 따라 상기 대상 구동기의 움직임을 제어는 단계
    를 포함하는 로봇의 감성 표현 제어 방법.
  15. 제 14 항에 있어서,
    상기 (b)단계는, (b1)상기 감성 정보를 수신하여 입력 로그 정보를 기록하는 단계와,
    (b2)상기 감성 플랫폼 프로파일을 로드하여 상기 감성 프로퍼티를 검출하며, 행동 맵을 기반으로 상기 감성 정보에 따른 행동표현을 결정하는 단계
    를 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 방법.
  16. 제 14 항에 있어서,
    상기 (d)단계는, (d1) 구동기를 초기화하거나 상태 점검을 위한 구동기 체크를 수행하는 단계와,
    (d2)상기 로봇의 감성 표현을 위한 대상 구동기 제어를 위해 내부 자원을 이용할 것인지 외부 자원을 이용할 것인지 판단하는 단계와,
    (d3)상기 로봇의 감성 표현을 위한 대상 구동기가 내부 자원을 이용하는 것인 경우 직접 제어를 위한 내부 자원을 체크하는 단계와,
    (d4)상기 대상 구동기로 제어명령을 전송하여 상기 제어명령에 따라 상기 대상 구동기의 움직임을 제어하는 단계
    를 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 방법.
  17. 삭제
  18. 제 14 항에 있어서,
    상기 (d)단계이후, (e)상기 로봇의 감성 표현을 위한 움직임 제어후 출력 로그 정보를 기록하는 단계
    를 더 포함하는 것을 특징으로 하는 로봇의 감성 표현 제어 방법.
KR1020070104133A 2007-10-16 2007-10-16 로봇의 감성 표현 제어 시스템 및 방법 KR100893758B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070104133A KR100893758B1 (ko) 2007-10-16 2007-10-16 로봇의 감성 표현 제어 시스템 및 방법
US12/207,714 US20090099693A1 (en) 2007-10-16 2008-09-10 System and method for control of emotional action expression

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070104133A KR100893758B1 (ko) 2007-10-16 2007-10-16 로봇의 감성 표현 제어 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR100893758B1 true KR100893758B1 (ko) 2009-04-20

Family

ID=40534998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070104133A KR100893758B1 (ko) 2007-10-16 2007-10-16 로봇의 감성 표현 제어 시스템 및 방법

Country Status (2)

Country Link
US (1) US20090099693A1 (ko)
KR (1) KR100893758B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106926258B (zh) * 2015-12-31 2022-06-03 深圳光启合众科技有限公司 机器人情绪的控制方法和装置
CN107977702A (zh) * 2017-12-14 2018-05-01 深圳狗尾草智能科技有限公司 机器人思想属性构建方法、交互方法及装置
EP3795225A4 (en) * 2018-05-15 2022-03-30 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
CN109284811B (zh) * 2018-08-31 2021-05-25 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN115357073B (zh) * 2022-08-15 2023-03-21 哈尔滨工业大学 一种基于老年人微表情及行为的智能健康环境调控***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060079832A (ko) * 2005-04-15 2006-07-06 정재영 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
KR20070004268A (ko) * 2005-07-04 2007-01-09 주식회사 유진로봇 다양한 플랫폼의 로봇 제어를 위한 스크립트 생성기 및상용화 저작툴의 활용방법
KR20080046074A (ko) * 2006-11-21 2008-05-26 한국전자통신연구원 로봇의 감성표현

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
CN1392826A (zh) * 2000-10-05 2003-01-22 索尼公司 机器人设备及其控制方法
JP3837479B2 (ja) * 2001-09-17 2006-10-25 独立行政法人産業技術総合研究所 動作体の動作信号生成方法、その装置及び動作信号生成プログラム
US6889118B2 (en) * 2001-11-28 2005-05-03 Evolution Robotics, Inc. Hardware abstraction layer for a robot
CN100436082C (zh) * 2003-08-12 2008-11-26 株式会社国际电气通信基础技术研究所 用于通信机器人的控制***
US7340610B1 (en) * 2004-08-31 2008-03-04 Hitachi, Ltd. Trusted time stamping storage system
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060079832A (ko) * 2005-04-15 2006-07-06 정재영 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
KR20070004268A (ko) * 2005-07-04 2007-01-09 주식회사 유진로봇 다양한 플랫폼의 로봇 제어를 위한 스크립트 생성기 및상용화 저작툴의 활용방법
KR20080046074A (ko) * 2006-11-21 2008-05-26 한국전자통신연구원 로봇의 감성표현

Also Published As

Publication number Publication date
US20090099693A1 (en) 2009-04-16

Similar Documents

Publication Publication Date Title
CN102289210B (zh) 具有软件在环旁路控制的车辆仿真***
KR100893758B1 (ko) 로봇의 감성 표현 제어 시스템 및 방법
CN104123187B (zh) 创建硬件组件的软件的方法以及硬件组件
CN102224491A (zh) 具有基于工作流程的测试过程的测试机
TWI709088B (zh) 電腦系統、編程方法及非暫態電腦可讀取媒體
WO2005071545A3 (en) Method and system for rule-based generation of automation test scripts from abstract test case representation
CA2866180A1 (en) Systems and methods for building a universal intelligent assistant with learning capabilities
WO2004088514A1 (ja) 情報提供装置及び方法,並びに情報提供システム
KR20090078244A (ko) 웹 환경에서의 사용자 친화형 로봇 컨텐츠 저작시스템
Huber et al. Goal-based semantic queries for dynamic processes in the internet of things
CN110543113B (zh) 机器人硬件组装及管理方法、设备、介质、***、前端组装客户端及机器人本体运行***
Gallo et al. Towards a Chatbot for Creating Trigger-Action Rules based on ChatGPT and Rasa.
Ribeiro et al. Thalamus: Closing the mind-body loop in interactive embodied characters
CN112199283A (zh) 程序测试控制、执行方法及其相应的装置、设备、介质
Kchir et al. RobotML for industrial robots: Design and simulation of manipulation scenarios
JP2021533437A (ja) 情報提示方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
KR100819237B1 (ko) 소프트웨어 로봇 플랫폼을 업데이트하기 위한 시스템 및업데이트 방법
Trouilhet et al. Model-driven engineering for end-users in the loop in smart ambient systems
CN114564195A (zh) 一种基于b/s架构的云cad平台的二次开发方法
JP5137367B2 (ja) モデルベース開発補助ブロック、シミュレーションシステム及び自動コード生成方法
JP2022013803A (ja) 技術システムのテストのための方法およびコンピュータプログラム
KR100895296B1 (ko) 로봇의 감성표현
KR101038309B1 (ko) 로봇 서비스 실행 시스템
Mitrović et al. Performance analysis of an adaptive user interface system based on mobile agents
Püschel et al. A combined simulation and test case generation strategy for self-adaptive systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120330

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130325

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160316

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180626

Year of fee payment: 10