KR100813668B1 - 안드로이드 로봇의 감정표현 방법 - Google Patents
안드로이드 로봇의 감정표현 방법 Download PDFInfo
- Publication number
- KR100813668B1 KR100813668B1 KR1020060130636A KR20060130636A KR100813668B1 KR 100813668 B1 KR100813668 B1 KR 100813668B1 KR 1020060130636 A KR1020060130636 A KR 1020060130636A KR 20060130636 A KR20060130636 A KR 20060130636A KR 100813668 B1 KR100813668 B1 KR 100813668B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- robot
- processing step
- motion
- signals
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
Description
이때, 상기 색깔 인식부(13)에서 인식하게 되는 색깔은 사람의 얼굴과 손의 색깔을 통해 감정적 정보를 추출하는 것을 의미하고, 모션 인식부(14)에서 인식하는 모션은 부정적 의미로 고개를 절레절레 흔들거나, 긍정적 의미로 고개를 끄덕 끄덕하거나, 반가움을 표시하기 위해 손을 흔들거나, 긍정의 의미로 팔로 "O" 모양이나 "X" 모양을 만드는 것을 의미하며, 손의 색깔은 모션을 인식하는데 있어 손의 위치를 알려주는 정보로 활용함에 따라 얼굴 색깔뿐만 아니라 손의 색깔 또한 감정적 정보를 추출하는데 사용한다.
이때, 물체의 인식이라 함은 단순히 물체의 인식만을 가지고 감정적 정보를 추출하는 것을 의미하지 않고, 상기 물체 인식부(12)는 물체 추적부(16)에 필요한 정보를 제공하게 되며, 특정 물체에 대해 계속적인 트래킹을 하게 되면 그 물체에 대한 호기심이 증가하는 감정적 정보를 추출할 수 있고, 관심을 특정 물체에 집중하여 그 물체에 대한 이야기를 이끌어 나갈 수 있는 원인을 제공할 수 있으며, 물체의 인식을 통한 감정적 정보추출은 호기심이란 감정을 추출하는데 사용된다.
Claims (9)
- 삭제
- 삭제
- 삭제
- 삭제
- 카메라에 의해 촬상된 영상신호를 이용하여 사람의 감정적 정보를 추출하는 비전 처리단계와;상기 카메라로부터 촬상된 영상신호에 의해 추출된 모션 정보와, 마이크를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호를 이용하여 감성적 정보를 추출하고 각 축들에 적용된 모터에 맞게 편집하는 지능 처리단계와;상기 비전 처리단계와 지능 처리단계에서 추출 및 편집되어 출력되는 신호에 부응하여 로봇의 각부 모터 구동을 제어하는 모션 제어단계;로 이루어지되,상기 비전 처리단계는, 카메라로부터 들어오는 영상정보 중에서 색깔을 인식하여 머리와 손을 구별하고, 모션을 인식하는 모션 인식단계와; 카메라로부터 들어오는 영상정보 중에서 얼굴 및 물체를 인식하여 로봇과 인간과의 거리 정보를 분석하고, 상기 로봇이 실행해야 할 추적 동작을 선택하는 얼굴 및 물체 추적단계;를 포함하고,상기 지능 처리단계는, 비전 처리단계에서 인식된 모션 정보와 마이크를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호를 인식하는 단계와; 상기에서 인식된 신호들을 이용하여 로봇이 표현해야 할 개성과 감정 모델을 추출하는 단계와; 상기에서 추출된 정보들을 이용하여 로봇이 실행해야한 얼굴 표정 및 제스처에 따른 시나리오를 발생시키는 단계와; 음성신호를 포함하여 각종 음향신호를 합성하는 단계;를 포함하며,상기 지능 처리단계는, 로봇이 감정을 표현하기 위해 마이크를 통해서 입력되는 음성 신호와, 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트 신호 및 카메라에서 감지되는 얼굴 및 움직이는 물체의 신호들을 인식하는 단계와; 대화 엔진부를 통해 입력되는 감정적 단어 및 카메라를 통해서 들어오는 모션과 얼굴 및 물체를 추출하는 단계와; 상기에서 추출된 신호들을 표현해야 할 감정과 제스처가 들어 있는 시나리오부 내의 데이터 베이스와 매칭시켜 주는 단계와; 눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 생리적인 행동을 생성하는 단계와; 각 축에 있는 모터에 위치 정보를 분배하는 모션 제어부의 모터 중재자로 전송하는 단계;를 포함하고,상기 모션 제어단계는, 비전 처리단계와 지능 처리단계로부터 입력된 신호들을 통해 립싱크, 얼굴 표정, 제스처, 감정적 행동에 필요한 제어신호를 생성하는 단계와; 상기에서 생성된 신호에 부응하여 로봇의 모든 모터에 최종적인 위치 값을 출력시켜 그의 구동을 제어하는 모터 중재단계;를 포함하는 것을 특징으로 하는 안드로이드 로봇의 감정표현방법.
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060130636A KR100813668B1 (ko) | 2006-12-20 | 2006-12-20 | 안드로이드 로봇의 감정표현 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060130636A KR100813668B1 (ko) | 2006-12-20 | 2006-12-20 | 안드로이드 로봇의 감정표현 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100813668B1 true KR100813668B1 (ko) | 2008-03-14 |
Family
ID=39398818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060130636A KR100813668B1 (ko) | 2006-12-20 | 2006-12-20 | 안드로이드 로봇의 감정표현 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100813668B1 (ko) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101155424B1 (ko) | 2009-12-29 | 2012-06-14 | 한국생산기술연구원 | 피부색 변화를 이용한 안드로이드 로봇의 감정 표현 장치 및 방법 그리고 이를 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체 |
KR101234289B1 (ko) | 2011-02-28 | 2013-02-18 | 동명대학교산학협력단 | 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템 및 그 방법 |
KR101303789B1 (ko) * | 2012-03-09 | 2013-09-04 | 한국생산기술연구원 | 안드로이드 로봇의 안면 근육 제어 장치 |
KR101334646B1 (ko) * | 2012-03-09 | 2013-11-29 | 한국생산기술연구원 | 감정표현이 가능한 영상/음성 기반 로봇용 안구 |
KR101399601B1 (ko) * | 2011-10-27 | 2014-05-27 | 허헌 | 사용자 데이터를 이용한 감정 표현 로봇 |
KR101445700B1 (ko) * | 2013-03-19 | 2014-10-01 | 한국과학기술원 | 로봇 제스처 생성장치 및 방법 |
CN109256149A (zh) * | 2018-08-09 | 2019-01-22 | 上海常仁信息科技有限公司 | 一种机器人的情感交流***和方法 |
CN110053054A (zh) * | 2019-04-09 | 2019-07-26 | 浙江工业大学 | 基于Android手机IMU的机械臂示教方法 |
US10777198B2 (en) | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
KR20200135431A (ko) * | 2018-03-22 | 2020-12-02 | 재팬 사이언스 앤드 테크놀로지 에이전시 | 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램 |
WO2021261688A1 (ko) * | 2020-06-24 | 2021-12-30 | 영남대학교 산학협력단 | 감정 표현 영상 생성을 위한 학습 장치 및 방법과 감정 표현 영상 생성 장치 및 방법 |
CN114571443A (zh) * | 2022-04-28 | 2022-06-03 | 北京深度奇点科技有限公司 | 通过移动端无线控制低代码示教机器人运动的***及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060021946A (ko) * | 2004-09-06 | 2006-03-09 | 한국과학기술원 | 로봇의 감정표현장치 및 방법 |
KR20060079832A (ko) * | 2005-04-15 | 2006-07-06 | 정재영 | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 |
KR20060080317A (ko) * | 2005-01-05 | 2006-07-10 | 현대자동차주식회사 | 감성기반을 갖는 자동차용 소프트웨어 로봇 |
-
2006
- 2006-12-20 KR KR1020060130636A patent/KR100813668B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060021946A (ko) * | 2004-09-06 | 2006-03-09 | 한국과학기술원 | 로봇의 감정표현장치 및 방법 |
KR20060080317A (ko) * | 2005-01-05 | 2006-07-10 | 현대자동차주식회사 | 감성기반을 갖는 자동차용 소프트웨어 로봇 |
KR20060079832A (ko) * | 2005-04-15 | 2006-07-06 | 정재영 | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101155424B1 (ko) | 2009-12-29 | 2012-06-14 | 한국생산기술연구원 | 피부색 변화를 이용한 안드로이드 로봇의 감정 표현 장치 및 방법 그리고 이를 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체 |
KR101234289B1 (ko) | 2011-02-28 | 2013-02-18 | 동명대학교산학협력단 | 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템 및 그 방법 |
KR101399601B1 (ko) * | 2011-10-27 | 2014-05-27 | 허헌 | 사용자 데이터를 이용한 감정 표현 로봇 |
KR101303789B1 (ko) * | 2012-03-09 | 2013-09-04 | 한국생산기술연구원 | 안드로이드 로봇의 안면 근육 제어 장치 |
KR101334646B1 (ko) * | 2012-03-09 | 2013-11-29 | 한국생산기술연구원 | 감정표현이 가능한 영상/음성 기반 로봇용 안구 |
KR101445700B1 (ko) * | 2013-03-19 | 2014-10-01 | 한국과학기술원 | 로봇 제스처 생성장치 및 방법 |
US10777198B2 (en) | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
KR20200135431A (ko) * | 2018-03-22 | 2020-12-02 | 재팬 사이언스 앤드 테크놀로지 에이전시 | 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램 |
KR102516751B1 (ko) * | 2018-03-22 | 2023-03-31 | 재팬 사이언스 앤드 테크놀로지 에이전시 | 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램 |
US11983309B2 (en) | 2018-03-22 | 2024-05-14 | Japan Science And Technology Agency | Device and method to acquire timing of blink motion performed by a dialogue device |
CN109256149A (zh) * | 2018-08-09 | 2019-01-22 | 上海常仁信息科技有限公司 | 一种机器人的情感交流***和方法 |
CN110053054A (zh) * | 2019-04-09 | 2019-07-26 | 浙江工业大学 | 基于Android手机IMU的机械臂示教方法 |
WO2021261688A1 (ko) * | 2020-06-24 | 2021-12-30 | 영남대학교 산학협력단 | 감정 표현 영상 생성을 위한 학습 장치 및 방법과 감정 표현 영상 생성 장치 및 방법 |
CN114571443A (zh) * | 2022-04-28 | 2022-06-03 | 北京深度奇点科技有限公司 | 通过移动端无线控制低代码示教机器人运动的***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100813668B1 (ko) | 안드로이드 로봇의 감정표현 방법 | |
Glas et al. | Erica: The erato intelligent conversational android | |
US7251606B2 (en) | Robot device with changing dialogue and control method therefor and storage medium | |
Wang et al. | Handshake: Realistic human-robot interaction in haptic enhanced virtual reality | |
Spexard et al. | Human-oriented interaction with an anthropomorphic robot | |
JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
CN101820399A (zh) | 形象表达情感信息的触觉通讯玩偶 | |
Salem et al. | Towards an integrated model of speech and gesture production for multi-modal robot behavior | |
KR20060079832A (ko) | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP2024009862A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Vannucci et al. | A robot with style: Can robotic attitudes influence human actions? | |
Lim et al. | Converting emotional voice to motion for robot telepresence | |
Silva et al. | Mirroring emotion system-on-line synthesizing facial expressions on a robot face | |
Inthiam et al. | Mood perception model for social robot based on facial and bodily expression using a hidden Markov model | |
Fukuda et al. | Human-robot mutual communication system | |
US12011828B2 (en) | Method for controlling a plurality of robot effectors | |
Takimoto et al. | A simple bi-layered architecture to enhance the liveness of a robot | |
Beck et al. | Motion control for social behaviors | |
JP7156300B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Oh et al. | Automatic emotional expression of a face robot by using a reactive behavior decision model | |
JP3848076B2 (ja) | 仮想生物システム及び仮想生物システムにおけるパタン学習方法 | |
Bono et al. | Challenges for Robots Acting on 37 | |
Kocoń | Facial expressions modeling for interactive virtual environments | |
KR200386045Y1 (ko) | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Publication of correction | ||
FPAY | Annual fee payment |
Payment date: 20130403 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140121 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150713 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170120 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20180102 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20190102 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20191223 Year of fee payment: 13 |