KR101697646B1 - 로봇을 이용한 육체 운동 교습 시스템 및 방법 - Google Patents

로봇을 이용한 육체 운동 교습 시스템 및 방법 Download PDF

Info

Publication number
KR101697646B1
KR101697646B1 KR1020130165388A KR20130165388A KR101697646B1 KR 101697646 B1 KR101697646 B1 KR 101697646B1 KR 1020130165388 A KR1020130165388 A KR 1020130165388A KR 20130165388 A KR20130165388 A KR 20130165388A KR 101697646 B1 KR101697646 B1 KR 101697646B1
Authority
KR
South Korea
Prior art keywords
user
action
physical exercise
action plan
robot
Prior art date
Application number
KR1020130165388A
Other languages
English (en)
Other versions
KR20150076798A (ko
Inventor
박천수
이대하
장민수
김재홍
박종현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130165388A priority Critical patent/KR101697646B1/ko
Publication of KR20150076798A publication Critical patent/KR20150076798A/ko
Application granted granted Critical
Publication of KR101697646B1 publication Critical patent/KR101697646B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0068Comparison to target or threshold, previous performance or not real time comparison to other individuals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • A63B2024/0093Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load the load of the exercise apparatus being controlled by performance parameters, e.g. distance or speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/17Counting, e.g. counting periodical movements, revolutions or cycles, or including further data processing to determine distances or speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은, 육체 운동 동작 순서에 따라 동작을 수행하는 로봇을 이용한 육체 운동 교습 시스템 및 방법에 관한 것으로, 상기 방법은, 로봇에 설치된 카메라를 이용하여 사용자 인식을 수행하고, 인식된 사용자에 대한 사용자 정보가 존재하는지를 판단하는 단계; 상기 판단 결과, 인식된 사용자에 대한 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 분석하여 육체 운동 동작을 수행을 위한 행위 계획을 생성하는 단계; 및 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 상기 생성된 행위 계획에 따라 육체 운동 동작을 수행하는 단계를 포함한다.

Description

로봇을 이용한 육체 운동 교습 시스템 및 방법{Physical exercise tutoring system and method using for robot}
본 발명은 로봇을 이용한 육체 운동 교습 시스템 및 방법에 관한 것으로, 더욱 상세하게는 로봇과 사용자와의 상호작용 경험, 행동인식, 사용자 의도 및 상황인식 정보를 기반으로 로봇이 사용자의 상태에 맞는 육체 운동을 교습(지도)할 수 있도록 한 로봇을 이용한 육체 운동 교습 시스템 및 방법에 관한 것이다.
기존의 체조, 요가, 스트레치, 춤과 같은 육체 운동에 대한 교습(지도) 방법은 주로 화면을 통한 교습(지도) 방법을 이용해 왔다. 아바타와 로봇을 이용한 동작을 보여주는 경우도 있으나, 사용자의 흥미, 운동 능력, 의욕, 이해 수준 및 상호작용을 고려하지 않은 일방적인 교습 방법으로 그 활용도가 낮았다. 본 발명에서는 로봇을 이용해 강사가 강습을 하는 것과 같이 사용자의 운동능력, 이해 수준, 상호작용 및 상호작용 경험 정보를 활용하여 개인화된 육체운동 교습을 가능하게 한다. 본 발명에서는 사용자의 상태 및 행동을 인식하기 위해 기반이 되는 카메라 기반의 얼굴인식 및 행동 인식 기술을 이용한다.
본 발명의 목적은 로봇을 이용해 사용자와의 상호작용 경험 정보를 활용하여 상호작용 경험을 기반으로 잘하는 동작, 못하는 동작, 좋아하는 동작 등을 저장하여 개인화를 위한 로봇을 이용한 육체 운동 교습 시스템 및 방법을 제공함에 있다.
또한, 본 발명의 다른 목적은 로봇이 강사와 같은 역할을 수행할 수 있도록 사용자의 기분, 상태변화, 흥미, 운동 능력, 이해 수준을 파악하기 위해 사용자가 수행한 동작 인식 및 판단, 사용자의 의도, 상황 이해, 목표기반 계획 수행 및 계획된 행위에 대한 성공 및 실패를 판단할 수 있도록 한 로봇을 이용한 육체 운동 교습 시스템 및 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법은, 로봇에 설치된 카메라를 이용하여 사용자 인식을 수행하고, 인식된 사용자에 대한 사용자 정보가 존재하는지를 판단하는 단계; 상기 판단 결과, 인식된 사용자에 대한 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 분석하여 육체 운동 동작을 수행을 위한 행위 계획을 생성하는 단계; 및 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 상기 생성된 행위 계획에 따라 육체 운동 동작을 수행하는 단계를 포함할 수 있다.
상기 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력 정보 중 적어도 하나 이상의 정보를 포함한다.
상기 행위 계획에 따라 육체 운동 동작을 수행하는 단계는, 해당 행위 계획에 따라 육체 운동 동작을 수행하는 단계; 상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단하는 단계; 및 상기 판단 결과, 육체 운동 동작을 사용자가 모두 수행한 경우, 다음 동작을 수행할 때 해당 동작을 부가하여 참조하는 단계를 더 포함한다.
상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 파악하는 단계에서, 사용자가 행위 계획에 따라 육체 운동 동작을 수행하지 않을 경우, 해당 동작에 대한 사용자의 동작, 사용자의 표정 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영하는 단계를 더 포함한다.
상기 반영하는 단계는, 사용자의 동작, 표정, 행위 계획 성공 실패 여부를 파악하여 사용자의 의도와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 수행하는 단계를 포함한다.

한편, 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템은, 로봇에 설치된 카메라를 이용하여 사용자 인식을 수행하고, 인식된 사용자에 대한 사용자 정보가 존재하는지를 확인하는 동작 인식부; 상기 동작 인식부에서의 확인 결과, 상기 인식된 사용자에 대한 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작 수행을 위한 행위 계획을 생성하는 행위 계획 설정부; 및 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행하는 행위 계획 동작부를 포함할 수 있다.
상기 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력 정보 중 적어도 하나 이상의 정보를 포함한다.
상기 행위 계획 동작부는, 해당 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단하고, 상기 판단 결과, 육체 운동 동작을 사용자가 모두 수행한 경우, 다음 동작을 수행할 때 해당 동작을 부가하여 참조한다.
상기 행위 계획에 따른 육체 운동 동작을 사용자가 수행하지 않을 경우, 해당 동작에 대한 사용자의 동작, 사용자의 표정 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영한다.
상기 행위 계획 설정부는, 동작, 표정, 행위 계획 성공 실패 여부를 파악하여 사용자의 의도와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 수행한다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템 및 방법은 기존의 화면을 보며 따라 하는 일방적인 교습 방법에서 로봇이 사용자의 흥미, 능력, 사용자와 로봇의 상호작용 경험 정보를 기반으로 교습(지도)을 수행하기 때문에 사용자의 상태와 수준에 맞는 육체 운동 효과를 볼 수 있다. 또한, 로봇을 통한 교습방법으로 화면을 통한 교습방법에 흥미가 없는 사용자나 사람과 대면을 기피하는 육체적 활동이 부족한 어린이, 독거노인 및 노인복지시설에 있는 노인들에게 효과적일 수 있다.
도 1은 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템을 나타낸 기능 블록도.
도 2는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법을 나타낸 순서도.
도 3은 도 2에 따른 로봇을 이용한 육체 운동 교습 방법 중 행위 계획 설정의 세부 과정을 나타낸 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.

이하, 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템 및 방법에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다.
도 1은 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템을 나타낸 기능 블록도이다.
도 1에 도시된 바와 같이 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템은 사용자와 로봇간의 상호작용을 통한 육체운동을 교습하기 위한 시스템으로 로봇이 강사와 같은 역할을 수행하여 사용자의 상태나 수준에 따라서 로봇이 다르게 반응하도록 하는 것이다.
본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템은 동작 인식부(100), 행위 계획 설정부(200), 행위 계획 동작부(300) 및 행위 계획 판단부(400)를 포함한다.
동작 인식부(100)는 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 확인한다.
행위 계획 설정부(200)는 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작을 수행을 위한 행위 계획을 생성한다.
그리고, 행위 계획 동작부(300)는 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행한다. 만약, 목표를 달성하면 새로운 육체 운동의 흐름을 생성하며, 목표가 달성되지 않은 상태면 목표를 달성하기 위해 상호작용 계획을 변경하거나 반복적인 수행을 통해 목표를 달성하도록 행위 계획을 생성한다.
행위 계획 설정부(200)는, 로봇이 어떠한 순서로 사용자와 상호작용을 수행할지를 결정하는 역할을 하며, 주어진 목표를 달성하기 위한 최소 수행 가능한 형태의 행위 계획을 생성하는 역할을 한다. 즉, 사용자의 의도 및 상황 정보, 이전의 행위 경험, 행위 계획의 성공 여부 등의 정보를 활용하여 사용자가 로봇과 육체 운동을 수행하기 위한 흐름을 생성하고 제어한다.
이러한 행위 계획 설정부(200)는 사용자가 인식되지 않은 사용자이면, 원하는 사용자에 대해 사용자 등록을 수행하며, 가장 기본적인 수준의 수행 계획을 기반으로 동작을 수행한다.
여기서, 사용자의 상호작용 경험 정보는 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력과 같은 정보 중 적어도 하나 이상의 정보를 포함한다.
또한, 행위 계획 설정부(200)는 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행한 것으로 판단되면, 다음 동작을 수행할 때 해당 동작을 부가하여 참조한다.
반면에, 사용자가 동작을 따라 하지 않으면, 행위 계획 설정부(200)는 해당 동작에 대한 사용자의 상태(하기 동작을 하기 싫은 상태인지, 지루한 상태)를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영한다.
한편, 본 발명의 일 실시예에서의 동작 인식부(100)는 사용자의 동작 인식, 사용자의 표정인식을 통해 사용자의 기분을 파악한다.
행위 계획 설정부(200)는, 동작 인식부(100)를 통해 동작, 표정, 행위 계획 성공 실패 여부 등을 파악하여 사용자의 의도(하기 싫음, 지루함, 몰입, 지속)와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 설정한다. 만약, 목표를 달성하면 새로운 육체 운동의 흐름을 생성하며, 목표가 달성되지 않은 상태면 목표를 달성하기 위해 상호작용 계획을 변경하거나 반복적인 수행을 통해 목표를 달성하도록 행위 계획을 생성한다.
이러한, 본 발명의 일 실시예에서는, 생성된 상호작용 경험, 행위 수행 결과, 파악된 의도 및 상황 정보를 저장하는 저장부(500)를 더 포함하는 것이 바람직하다.
이와 같은 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템의 동작에 상응하는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법에 대하여 도 2 및 도 3을 참조하여 단계적으로 살펴보자.
도 2는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법을 나타낸 순서도이고, 도 3은 도 2에 따른 로봇을 이용한 육체 운동 교습 방법 중 행위 계획 설정의 세부 과정을 나타낸 순서도이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇을 이용한 육체 운동 교습 방법은 로봇에 의해 수행되는 것이 바람직하다.
삭제
먼저, 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 확인한다(S1). 여기서, 카메라를 이용하여 얼굴과 표정을 인식하는 방법은 기존의 얼굴인식 방법과 표정인식 방법을 활용하는 것이 바람직하나 이를 한정하지 않고 사용자의 얼굴이나 표정을 인식할 수 있는 장치를 이용할 수 있다. 예를 들면, 맞이하기에서 사용자의 얼굴을 인식하여 사용자를 구분하며, 얼굴인식이 되면 사용자에게 인사를 하고(인사하기 메시지 생성), 육체 운동을 시작하도록 제안 메시지를 생성(이 동작한 번 해 볼까요? 등)하여 수행한다. 사용자가 고개 제스처를 통해 긍정적인 의도를 보내면 로봇은 기본 동작을 수행하게 된다. 그리고 "따라 하세요." "동작을 5회 반복하세요" 등의 메시지를 발화를 통해 수행한다. 이후, 사용자는 로봇의 동작을 보고 따라 하게 된다.
그리고, 동작인식은 키넥트(Kinect) 센서와 같은 3차원 깊이 정보(3D Depth) 정보를 활용하는 것이 바람직하나 이를 한정하는 것은 아니다.
만약, 사용자 정보가 존재하면(YES), 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작을 수행을 위한 행위 계획을 생성한다(S2).
이어서, 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행한다(S3). 즉, 동작 인식 결과를 통해 잘 따라 했을 경우에 칭찬을 하고, 못 했을 경우에 위로 메시지를 생성하여 사용자에게 제공한다. 이후, 행위 계획에서 수행할 다음 동작을 결정하여 수행하게 된다.
하기에서는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법에서 상기 행위 계획에 따라 육체 운동 동작을 수행하는 단계(S3)의 세부 과정에 대하여 도 3을 참조하여 설명하기로 한다.
행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단한다(S31).
만약, 육체 운동 동작을 사용자가 모두 수행하면(YES), 다음 동작을 수행할 때 해당 동작을 부가하여 참조한다(S32).
한편, 상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 파악하는 단계(S31)에서 사용자가 동작을 따라 하지 않으면(NO), 해당 동작에 대한 사용자의 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영한다(S33).
여기서, 사용자의 상태를 파악하는 방법은, 사용자의 동작 인식, 사용자의 표정인식을 통해 사용자의 기분을 파악하는 것이 바람직하다.
사용자의 의도나 상황을 인식하는 상황/의도 인식은 로봇이 사용자와 상호작용 시 발생하는 사용자의 의도(예, 지루함, 하기 싫음, 질문, 지속 등)를 인식기를 통해 입력된 정보와 현재의 상황정보 및 주변 센서에서 얻은 정보를 이용하여 파악한다.
예를 들어, 로봇이 보여 주는 동작을 따라 하지 않고 가만히 서 있거나 전혀 다른 동작을 수행하면 사용자가 하기 싫어하거나 지루해 하는 의도를 파악할 수 있으며, 동작 수행 중에 손을 들면 질문을 하고 싶어하거나 무슨 의도로 손을 들었는지 로봇이 질문을 해서 확인하는 것도 가능하다.
즉, 본 발명의 일 실시예에서의 다음 행위 계획을 생성할 때 반영하는 단계는, 동작, 표정, 행위 계획 성공 실패 여부 등을 파악하여 사용자의 의도(하기 싫음, 지루함, 몰입, 지속)와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 설정한다.
예를 들어, 체조, 요가, 스트레치, 춤 등과 같은 육체 운동을 수행하다가 지루해 해거나 하기 싫음 등의 예외 상황이 발생하면 흥미를 유발하거나 종료 등의 다른 행위 계획을 생성하여 예외상황을 처리하도록 한다. 이러한 예외 상황은 사용자의 의도뿐 아니라, 로봇의 H/W적 문제나 운용자에 의한 개입되는 경우를 포함한다.
반면에, 상기 사용자 인식을 통해 사용자 정보가 존재하는지 판단하는 단계(S1)에서 인식되지 않은 사용자이면(NO), 원하는 사용자에 대해 사용자 등록을 수행(S4)하며, 기본적인 수준의 수행 계획을 기반으로 동작을 수행한다(S5).
여기서, 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력과 같은 정보 중 적어도 하나 이상의 정보를 포함하는 것이 바람직하다.
한편, 생성된 상호작용 경험, 행위 수행 결과, 파악된 의도 및 상황 정보를 저장부(500)에 저장되는 것이 바람직하다.
이러한 본 발명의 일 실시예에 따른 로봇을 이용한 육체 운동 교습 시스템 및 방법은 로봇 표현은 행위계획에서 생성된 상호작용 흐름을 전달받아서 로봇이 표현하는 것으로 발화나 행동 및 표정으로 표현한다. 행위 계획 설정부(200)는 로봇이 수행하기 위한 상호작용 메시지를 보내면 로봇 표현은 이에 해당하는 표정이나 동작을 생성하여 수행하게 된다.

한편, 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템 및 방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.

따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
삭제
100 : 동작 인식부
200 : 행위 계획 설정부
300 : 행위 계획 동작부
400 : 행위 계획 판단부

Claims (10)

  1. 로봇을 이용한 운동 교습 방법에 있어서,
    로봇에 설치된 카메라를 이용하여 사용자 인식을 수행하고, 인식된 사용자에 대한 사용자 정보가 존재하는지를 판단하는 단계;
    상기 판단 결과, 인식된 사용자에 대한 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 분석하여 육체 운동 동작을 수행을 위한 행위 계획을 생성하는 단계; 및
    사용자의 육체 운동 목표를 설정하고, 설정된 목표가 달성될 때까지 상기 생성된 행위 계획에 따라 육체 운동 동작을 수행하는 단계를 포함하고,
    상기 행위 계획에 따라 육체 운동 동작을 수행하는 단계는,
    해당 행위 계획에 따라 육체 운동 동작을 수행하는 단계;
    상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단하는 단계; 및
    상기 판단 결과, 육체 운동 동작을 사용자가 모두 수행한 경우, 다음 동작을 수행할 때 해당 동작을 부가하여 참조하는 단계를 더 포함하며,
    상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 파악하는 단계에서, 사용자가 행위 계획에 따라 육체 운동 동작을 수행하지 않을 경우, 해당 동작에 대한 사용자의 동작, 사용자의 표정 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영하는 단계;를 더 포함하는 것인 로봇을 이용한 육체 운동 교습 방법.
  2. 제1항에 있어서,
    상기 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력 정보 중 적어도 하나 이상의 정보를 포함하는 것인 로봇을 이용한 육체 운동 교습방법.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 반영하는 단계는, 사용자의 동작, 표정, 행위 계획 성공 실패 여부를 파악하여 사용자의 의도와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 수행하는 단계;를 포함하는 것인 로봇을 이용한 육체 운동 교습방법.
  6. 로봇을 이용한 육체 운동 교습 시스템에 있어서,
    로봇에 설치된 카메라를 이용하여 사용자 인식을 수행하고, 인식된 사용자에 대한 사용자 정보가 존재하는지를 확인하는 동작 인식부;
    상기 동작 인식부에서의 확인 결과, 상기 인식된 사용자에 대한 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작 수행을 위한 행위 계획을 생성하는 행위 계획 설정부; 및
    사용자의 육체 운동 목표를 설정하고, 설정된 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행하는 행위 계획 동작부를 포함하고,
    상기 행위 계획 동작부는,
    해당 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단하고, 상기 판단 결과, 육체 운동 동작을 사용자가 모두 수행한 경우, 다음 동작을 수행할 때 해당 동작을 부가하여 참조하고, 상기 행위 계획에 따른 육체 운동 동작을 사용자가 수행하지 않을 경우, 해당 동작에 대한 사용자의 동작, 사용자의 표정 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영하는 것인 로봇을 이용한 육체 운동 교습 시스템.
  7. 제6항에 있어서,
    상기 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력 정보 중 적어도 하나 이상의 정보를 포함하는 것인 로봇을 이용한 육체 운동 교습 시스템.
  8. 삭제
  9. 삭제
  10. 제6항에 있어서,
    상기 행위 계획 설정부는, 동작, 표정, 행위 계획 성공 실패 여부를 파악하여 사용자의 의도와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 수행하는 것인 로봇을 이용한 육체 운동 교습 시스템.

KR1020130165388A 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법 KR101697646B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130165388A KR101697646B1 (ko) 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130165388A KR101697646B1 (ko) 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20150076798A KR20150076798A (ko) 2015-07-07
KR101697646B1 true KR101697646B1 (ko) 2017-01-18

Family

ID=53789692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130165388A KR101697646B1 (ko) 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101697646B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110559639B (zh) * 2019-08-02 2021-08-03 焦作大学 体操运动的机器人教学方法及机器人

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013169611A (ja) 2012-02-20 2013-09-02 Vstone Kk ロボットシステムおよびロボット

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100676471B1 (ko) * 2004-05-20 2007-02-02 조지성 트레이닝 컨설팅 서비스 제공 서버 및 그 방법
KR20120133224A (ko) * 2011-05-31 2012-12-10 (주)로보코 트레이닝 보조용 로봇 장치를 이용한 트레이닝 정보 관리 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013169611A (ja) 2012-02-20 2013-09-02 Vstone Kk ロボットシステムおよびロボット

Also Published As

Publication number Publication date
KR20150076798A (ko) 2015-07-07

Similar Documents

Publication Publication Date Title
Leite et al. Modelling empathy in social robotic companions
US9381426B1 (en) Semi-automated digital puppetry control
TWI713000B (zh) 線上學習輔助方法、系統、設備以及電腦可讀取記錄媒體
US20160180722A1 (en) Systems and methods for self-learning, content-aware affect recognition
Klotz et al. Engagement-based multi-party dialog with a humanoid robot
Papaioannou et al. Hybrid chat and task dialogue for more engaging hri using reinforcement learning
Barnes et al. The influence of robot design on acceptance of social robots
Loth et al. Ghost-in-the-Machine reveals human social signals for human–robot interaction
KR20160051020A (ko) 사용자와의 상호작용이 가능한 완구 및 그 완구의 사용자와의 상호작용 수행 방법
KR101697646B1 (ko) 로봇을 이용한 육체 운동 교습 시스템 및 방법
Mahadevan et al. Generative expressive robot behaviors using large language models
CN117541445A (zh) 一种虚拟环境交互的口才训练方法、***、设备及介质
Tozadore et al. Towards adaptation and personalization in task based on human-robot interaction
Camarillo-Abad et al. A basic tactile language to support leader-follower dancing
Zhang et al. A robot emotion model with history
Najar et al. Social-task learning for HRI
Park et al. Providing tablets as collaborative-task workspace for human-robot interaction
Zheng et al. Robot-mediated mixed gesture imitation skill training for young children with ASD
JP4774825B2 (ja) 演技評価装置及び方法
Zidianakis et al. Building a sensory infrastructure to support interaction and monitoring in ambient intelligence environments
Stollnberger et al. " The harder it gets" Exploring the interdependency of input modalities and task complexity in human-robot collaboration
Rahman Mixed-initiative collaboration between a humanoid robot and a virtual human through a common platform for a real-world common task: evaluation and benchmarking
Safavi et al. Teaching the user by learning from the user: personalizing movement control in physical human-robot interaction
Munje et al. TEAM3 Challenge: Tasks for Multi-Human and Multi-Robot Collaboration with Voice and Gestures
TWI711016B (zh) 具即時互動與記憶回饋的實境教學與測驗之系統

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191223

Year of fee payment: 4