KR100995933B1 - 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법 - Google Patents

진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법 Download PDF

Info

Publication number
KR100995933B1
KR100995933B1 KR1020080085922A KR20080085922A KR100995933B1 KR 100995933 B1 KR100995933 B1 KR 100995933B1 KR 1020080085922 A KR1020080085922 A KR 1020080085922A KR 20080085922 A KR20080085922 A KR 20080085922A KR 100995933 B1 KR100995933 B1 KR 100995933B1
Authority
KR
South Korea
Prior art keywords
motion
robot
joint angle
trajectory
principal component
Prior art date
Application number
KR1020080085922A
Other languages
English (en)
Other versions
KR20100026785A (ko
Inventor
나성권
박가람
김창환
유범재
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020080085922A priority Critical patent/KR100995933B1/ko
Priority to US12/238,199 priority patent/US20100057255A1/en
Priority to JP2008302457A priority patent/JP2010058260A/ja
Publication of KR20100026785A publication Critical patent/KR20100026785A/ko
Application granted granted Critical
Publication of KR100995933B1 publication Critical patent/KR100995933B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 진화 알고리즘을 이용한 로봇의 동작 제어 방법에 관한 것이다.
본 발명은, 인간의 동작 패턴을 수집하여 데이터베이스를 구축하는 단계와, 주성분 분석 및 역동역학 기반의 보간 방법을 이용한 유전 연산자를 이용하여 상기 데이터베이스를 진화시키는 단계와, 상기 진화된 데이터베이스를 이용하여 실시간으로 로봇의 동작을 생성하는 단계를 포함하는 로봇의 동작 제어 방법을 제공한다.
본 발명에 의하면 진화된 데이터베이스를 이용하여 로봇이 인간의 운동을 학습하고, 최적화된 동작을 실시간으로 제어할 수 있다.
모션 캡쳐, 주성분분석, 로봇, 진화, 기본 동작, 운동 학습

Description

진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법{A method for controlling motion of a robot based upon evolutionary computation and imitation learning}
본 발명은 로봇의 동작 제어 방법에 관한 것으로서, 특히 진화 알고리즘을 이용하여 로봇에게 인간의 동작을 학습시킨 후, 실시간으로 로봇의 동작을 제어하는 방법에 관한 것이다.
최근의 인간형 로봇은 기구적 구조나 외형뿐만 아니라 걷기나 달리기 등과 같은 동작 제어 능력에 있어서도 인간을 닮아 가고 있다. 로봇으로 하여금 인간의 동작과 유사한 동작을 수행하게 하려는 시도가 계속되고 있기 때문이다.
예를 들면, 인간의 동작을 데이터베이스에 저장하고, 저장된 동작을 로봇이 재현함으로써 인간의 동작을 모방하도록 할 수도 있다. 그러나 로봇이 필요로 하는 수많은 동작들을 모두 미리 기록하고 저장하여 이를 활용한다는 것은 물리적으로 불가능하다.
한편, 모션 캡쳐(motion capture) 시스템을 이용함으로써 로봇이 인간의 동작을 모방하여 재현하도록 하는 경우, 캡쳐된 인간의 동작 패턴을 그대로 로봇에 적용하면, 로봇이 인간과 같은 자연스러운 동작을 할 수도 있다. 그러나 질량, 질량 중심, 또는 관성 질량과 같은 물성치가 인간과 로봇에서 서로 다르기 때문에, 캡쳐된 동작은 로봇에 최적화된 것은 아니다.
이와 같은 문제점을 해결하기 위하여 본 발명은 로봇이 인간의 동작을 학습할 수 있는, 진화 알고리즘에 기반한 로봇의 동작 제어 방법을 제공하기 위한 것이다.
본 발명의 특징에 따른 로봇의 동작 제어 방법은, (a) 인간의 동작 패턴을 수집하여 데이터베이스를 구축하는 단계; (b) 주성분 분석 및 역동역학 기반의 보간 방법을 이용한 유전 연산자를 이용하여 상기 데이터베이스를 진화시키는 단계; 및 (c) 상기 진화된 데이터베이스를 이용하여 실시간으로 로봇의 동작을 생성하는 단계를 포함할 수 있다.
상기 (a)단계는 인간의 동작을 모션 캡쳐하는 단계를 포함할 수 있다.
상기 (b)단계는, (b-1) 로봇이 수행할 임의의 동작과 유사한 동작 상태를 가진 기본 동작을 상기 데이터베이스로부터 하나 이상 선택하는 단계; 및 (b-2) 주성분 분석을 통한 주성분 추출 및 상기 주성분의 결합을 통해 최적 동작을 새로이 생성함으로써, 상기 선택된 기본 동작을 재가공하는 단계를 포함할 수 있다.
상기 (b)단계는, 상기 (b-1)단계와 상기(b-2)단계를 반복 수행하여 상기 데 이터베이스를 진화시키는 단계를 포함할 수 있다.
상기 (b-1)단계에서, 상기 임의의 동작은 다음의 수학식으로 표현될 수 있다.
Figure 112008062202723-pat00001
(1)
여기서,
Figure 112008062202723-pat00002
는 상기 임의의 동작의 관절각 궤적,
Figure 112008062202723-pat00003
는 상기 선택된 기본 동작의 평균 관절각 궤적,
Figure 112008062202723-pat00004
는 상기 선택된 기본 동작의 관절각 궤적 중 i번째 주성분 궤적,
Figure 112008062202723-pat00005
는 스칼라 계수임.
상기 임의의 동작의 동작 상태는 다음의 경계 조건을 만족할 수 있다.
Figure 112008062202723-pat00006
(2)
여기서,
Figure 112008062202723-pat00007
는 시작 시간
Figure 112008062202723-pat00008
에서의 관절각,
Figure 112008062202723-pat00009
는 시작 시간
Figure 112008062202723-pat00010
에서의 관절각속도,
Figure 112008062202723-pat00011
는 종료 시간
Figure 112008062202723-pat00012
에서의 관절각,
Figure 112008062202723-pat00013
는 종료 시간
Figure 112008062202723-pat00014
에서의 관절각속도임.
상기 (b-2)단계에서, 상기 선택된 기본 동작이 하나 이상의 관절각 궤적을 포함할 때 상기 관절각 궤적의 평균 궤적(
Figure 112008062202723-pat00015
)을 다음의 수학식을 통해 계산하고,
Figure 112008062202723-pat00016
(3)
여기서, k는 선택된 기본 동작의 수이고,
Figure 112008062202723-pat00017
는 i번째 기본 동작의 관절각 궤적임.
다음의 수학식을 통해 공분산행렬(S)을 계산하고,
Figure 112008062202723-pat00018
(4)
상기 공분산행렬로부터 고유 벡터를 얻고, 상기 고유 벡터들 중에서 상기 관절각 궤적의 주성분 궤적을 얻을 수 있다.
상기 (b-2)단계에서, 다음의 수학식을 통해 상기 선택된 기본 동작의 관절 토크(
Figure 112008062202723-pat00019
)를 결정하고,
Figure 112008062202723-pat00020
(5)
여기서,
Figure 112008062202723-pat00021
는 상기 선택된 기본 동작의 관절각,
Figure 112008062202723-pat00022
는 상기 선택된 기본 동작의 관절각속도,
Figure 112008062202723-pat00023
는 상기 선택된 기본 동작의 관절각가속도,
Figure 112008062202723-pat00024
는 질량 매트릭스(mass matrix),
Figure 112008062202723-pat00025
는 코리올리 벡터임.
Figure 112008062202723-pat00026
는 중력 및 기타의 힘을 포함함.
상기 결정된 관절 토크가 다음의 수학식을 최소로 하면 상기 선택된 기본 동작을 상기 최적동작으로 결정할 수 있다.
Figure 112008062202723-pat00027
(6)
상기 (c)단계는, 주성분 분석 및 기구학적 보간을 통한 동작의 재결합 방법을 이용할 수 있다.
상기 (c)단계는, (c-1) 로봇이 생성할 동작과 유사한 동작 상태를 가진 기본 동작을 상기 진화된 데이터베이스로부터 하나 이상 선택하는 단계; 및 (c-2) 주성분 분석을 통한 주성분 추출 및 상기 주성분의 결합을 통해 최적 동작을 새로이 생성함으로써, 상기 선택된 기본 동작을 재가공하는 단계를 포함할 수 있다.
상기 (c-1)단계에서, 상기 로봇이 생성할 동작은 다음의 수학식으로 표현될 수 있다.
Figure 112008062202723-pat00028
(7)
여기서,
Figure 112008062202723-pat00029
는 상기 로봇이 생성할 동작의 관절각 궤적,
Figure 112008062202723-pat00030
는 상기 선택된 기본 동작의 평균 관절각 궤적,
Figure 112008062202723-pat00031
는 상기 선택된 기본 동작의 관절각 궤적 중 i번째 주성분 궤적,
Figure 112008062202723-pat00032
는 스칼라 계수임.
상기 로봇이 생성할 동작의 동작 상태는 다음의 경계 조건을 만족할 수 있다.
Figure 112008062202723-pat00033
(8)
여기서,
Figure 112008062202723-pat00034
는 시작 시간
Figure 112008062202723-pat00035
에서의 관절각,
Figure 112008062202723-pat00036
는 시작 시간
Figure 112008062202723-pat00037
에서의 관절각 속도,
Figure 112008062202723-pat00038
는 종료 시간
Figure 112008062202723-pat00039
에서의 관절각,
Figure 112008062202723-pat00040
는 종료 시간
Figure 112008062202723-pat00041
에서의 관절각속도임.
상기 (c-2)단계에서, 상기 선택된 기본 동작이 하나 이상의 관절각 궤적을 포함할 때 상기 관절각 궤적의 평균 궤적(
Figure 112008062202723-pat00042
)을 다음의 수학식을 통해 계산하고,
Figure 112008062202723-pat00043
(9)
여기서, k는 선택된 기본 동작의 수이고,
Figure 112008062202723-pat00044
는 i번째 기본 동작의 관절각 궤적임.
다음의 수학식을 통해 공분산행렬(S)을 계산하고,
Figure 112008062202723-pat00045
(10)
상기 공분산행렬로부터 고유 벡터를 얻고, 상기 고유 벡터들 중에서 상기 관절각 궤적의 주성분 궤적을 얻을 수 있다.
본 발명에 의하면, 인간의 기본 동작을 로봇의 특성에 맞게 진화시킴으로써 로봇에게 최적화된 동작을 수행하게 할 수 있다.
또한, 본 발명에 의하면, 진화된 기본 동작 데이터베이스에 기반하여 로봇이 실시간으로 동작을 생성할 수 있다.
또한, 본 발명에 의하면, 모션 캡쳐 데이터만 있으면 이를 손쉽게 로봇에 적 용할 수 있기 때문에 로봇이 인간의 다양한 동작을 모방 및 재현할 수 있다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계 없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
로봇의 동작은 작업(task)과 상태(condition)로 이루어진다. 예를 들어, 손을 테이블 위의 컵으로 가져가는 동작이 있다면, 손을 컵에 가져가는 것이 이 동작이 속한 작업이고, 테이블 위의 컵의 위치가 이 동작의 상태이다. 그러나, 모든 위치의 컵에 손을 가져가는 동작을 일일이 저장해 두고, 이를 활용하는 것은 물리적으로 불가능하다.
본 발명의 실시예에서는 한정된 수의 동작만을 저장하고, 하나 이상의 관절각 궤적으로 이루어진 동작을 기본 동작(movement primitive)이라 정의한다. 또한, 본 발명의 실시예에서는 기본 동작들의 보간(interpolation)을 통하여 컵의 위치와 같은 다양한 동작 상태에 대한 로봇의 팔 동작을 생성한다.
하나의 기본 동작이 진화 알고리즘에서의 하나의 개체(individual)가 된다. 예를 들어, 120Hz로 샘플링된 120초의 길이를 가지는 기본 동작이 있다면 이 개체의 염색체형태(genotype)은 14400행을 가진 실수 벡터이다(14400 = 120초 × 120 Hz). 또한, 수집된 한정된 수의 기본 동작이 집단을 이루어 부모 개체로써 동작하게 된다.
도 1은 본 발명의 실시예에 따른 주성분분석 기반의 유전 연산자를 나타내는 도면이다.
도 1을 참조하면, 작업 T에 속하는 n개의 개체가 부모 개체를 이루고 있다. 각 개체들을 m1부터 mn이라고 표시하면, 각 개체들은 각각 자신의 동작 상태를 가진다. 즉, 개체 mi의 동작 상태는 ci라고 표시된다.
만약 동작 상태 c3을 가지는 동작이 필요하다면, n개의 부모 개체 중에서 동작 상태 c3와 가장 가까운 동작 상태를 가지는 개체를 k개 선택한다. 이것은 동작 상태의 유사성을 비교하는 적절한 척도(distance metric)을 도입하여 해결할 수 있다.
예를 들면, 컵이 특정한 위치에 놓여 있는 경우 이 특정한 위치에 손을 가져가는 팔 동작이 필요하다. 이 경우 컵의 3차원 위치 벡터를 동작 상태 c3로 정의할 수 있고, 동작 상태의 유사성을 비교하기 위해서
Figure 112008062202723-pat00046
의 형태로 거리 척도를 사용한다.
이렇게 선정된 k개의 동작 개체를
Figure 112008062202723-pat00047
라고 표시한다. 하나의 동작 개체는 여러 개의 관절각으로 이루어진다. 예를 들어 7자유도를 가지는 매니퓰레이터(manipulator)의 동작을 기술한다면 동작 개체 한 개는 7개의 관절각 궤적으로 이루어진다.
k개의 동작 개체
Figure 112008062202723-pat00048
로부터 얻어낸 첫번째 자유도의 관절각 궤적을 각각
Figure 112008062202723-pat00049
라고 표시한다. 이 경우 다음의 수학식을 통해 평균 궤적 qmean을 얻어낼 수 있다.
Figure 112008062202723-pat00050
                                                    (1)
한편, 다음의 수학식을 통해 공분산 행렬 S가 얻어진다.
Figure 112008062202723-pat00051
                                   (2)
공분산 행렬 S로부터 얻어진 고유 벡터와 고유값을 각각
Figure 112008062202723-pat00052
Figure 112008062202723-pat00053
라고 표시한다. 여기서 고유값들은
Figure 112008062202723-pat00054
로 정렬된 것이다.
고유 벡터
Figure 112008062202723-pat00055
을 주성분이라고 하고, 이 고유 벡터들은 각각 관절각 궤적을 나타낸다. 주성분 분석의 특성에 따라 k개의 주성분 중에서 지배적인 몇 개의 주성분만을 가지고 전체 관절각 궤적의 특성을 살펴볼 수 있다. 왜냐하면 주성분 분석은 고차원의 데이터를 저차원의 공간으로 투영시켜 차원을 줄여주는 기능을 하기 때문이다.
결과적으로 첫번째 자유도의 관절각
Figure 112008062202723-pat00056
으로부터 평균 궤적 qmean과 k개의 주성분 궤적
Figure 112008062202723-pat00057
을 얻어낼 수 있다. 한편, 이러한 과정을 두번째, 세번째 등의 관절에 대한 궤적들에 대해서도 동일하게 적용하여, 각 관절에 대해서 평균 궤적과 주성분 궤적을 얻어낼 수 있다.
한편, 임의의 로봇 동작은 아래와 같이 평균 궤적과 주성분 궤적의 선형결합으로 나타낼 수 있다.
Figure 112008062202723-pat00058
                             (3)
여기서 q(t)는 관절각 궤적, qmean(t)는 평균 관절각 궤적,
Figure 112008062202723-pat00059
는 i번째 주성분 궤적이다. 그리고 xi (i=1, 2, 3, 4, 5)는 스칼라 계수이다.
일반적으로 동작 상태 c3는 시작시각 t0에서의 관절각 q0와 관절각속도
Figure 112008062202723-pat00060
, 그리고 종료시각 tf에서의 관절각 qf와 관절각속도
Figure 112008062202723-pat00061
로 주어진다.
한편, 미지수 xi는 5개이기 때문에 4개의 경계조건을 만족하는 미지수 5개를 결정하기 위하여 다음의 수학식을 통해 최적화 과정을 수행한다.
Figure 112008062202723-pat00062
                                     (4)
Figure 112008062202723-pat00063
                                  (5)
여기서
Figure 112008062202723-pat00064
는 관절 토크이다. 이 관절 토크는 관절각 q, 관절각속도
Figure 112008062202723-pat00065
및 관절각가속도
Figure 112008062202723-pat00066
가 결정되면 위의 식 (5)를 통해 계산할 수 있다. 최소화하려는 목적함수인 식(4)는 주어진 관절 궤적을 움직일 때 로봇이 필요로 하는 토크의 합이다.
이러한 최적화 과정을 통하여 최소의 에너지(토크)를 필요로 하면서 주어진 동작 상태 c3를 만족하는 동작 개체, 즉 새로운 m3를 생성할 수 있다. 이 과정을 '역동역학기반의 최적화를 통한 동작의 재결합(Reconstituting motion via dynamics-based optimization)'이라 한다.
새로이 생성된 자식개체 m3는 부모개체 m3와 같은 동작 상태 c3를 가지고 있다. 그러나 자식개체 m3는 부모개체 m3를 포함하는 여러 개체들의 주성분을 분해하고 재결합하여 생성된 것이므로 부모개체와 같은 동작 궤적을 가지지 않는다. 따라서, 진화알고리즘 안에서 두 개체의 우수성을 판단하여, 더 우수한 개체가 다음 세대의 부모 집단에 속하게 된다. 이러한 과정이 c0부터 cn까지 적용됨으로써 n개의 자식 집단이 생성된다.
한편, 부모 집단에 속한 mi와 자식 집단에 속한 mi중에서 더 우수한 동작 개체를 다음 세대의 부모 집단으로 선정하기 위해서 적합도 함수(fitness function)가 필요한데, 이는 다음의 수학식으로 정의된다.
Figure 112008062202723-pat00067
                                         (6)
즉, 두 동작 개체 중에서 토크(에너지)를 덜 소비하는 것이 다음 세대의 부모 개체가 되는 것이다.
식(6)은 식(4)와 동일하다. 즉, 유전 연산자에서 사용된 역동역학 기반의 최적화에서의 목적함수와 진화 알고리즘에서 사용된 목적함수가 같은 것이다. 그 이유는, 유전 연산자는 국부적인 최적화 작용(local optimizer)을 하고 진화 알고리즘은 전역적인 최적화 작용(global optimizer)을 하도록 의도되었기 때문이다. 즉, 국부적 최적화와 전역적 최적화가 동시에 이루어짐으로써 집단을 이루고 있는 동작 개체들이 점차적으로 적은 토크를 필요로 하는 에너지 효율적인 동작 패턴으로 진화해 가도록 의도된 것이다.
도 2는 본 발명의 실시예에 따른 유전 연산자와 적합도 함수를 이용하여 기본 동작들이 진화하는 과정을 개략적으로 나타내는 도면이다.
우선, 인간의 동작을 수집하여 하나의 작업을 수행하는 반복 동작들로써 초기 부모 집단을 선택한다. 이 반복 동작들은 다양한 동작 조건들을 포괄하는 것들로 선정한다.
다음으로, 초기 부모 집단으로부터 동작 개체들을 추출하고, 추출된 동작 개체들은 주성분 분석 기반의 유전연산자를 통해서 자식 집단을 형성한다.
다음으로, 부모 집단과 자식 집단의 동작 개체들을 각각 비교하여 더 우수한 동작 개체가 다음 세대의 부모 집단을 형성하고 열등한 동작 개체는 버린다. 이 과 정은 유전 연산자에서 사용된 역동역학 기반의 최적화 과정의 계산량때문에 많은 시간이 소요된다.
다음으로, 이와 같이 형성된 진화된 기본 동작들을 이용해서 그때그때 필요로 하는 동작을 로봇이 실시간으로 생성할 수 있다. 이 과정 역시 기본 동작의 주성분 분석과 이의 재결합으로써 이루어진다. 즉, 로봇이 임의의 동작 상태 ci를 가지는 동작을 생성해야 한다면, 동작 상태 ci와 유사한 동작 상태를 가지는 동작들을 진화된 기본 동작 데이터베이스에서 추출하고 주성분 분석을 통하여 평균 궤적과 주성분 궤적을 얻어낸다. 여기까지의 과정은 주성분 분석 기반의 유전 연산자에서와 동일하다.
그러나, 주성분 분석 기반의 유전 연산자와 달리, 여기서는 로봇의 동작을 구성하는데 있어 다음의 수학식처럼 평균 궤적과 3개의 주성분 궤적만을 사용한다.
Figure 112008062202723-pat00068
                                    (7)
여기서 q(t)는 관절각 궤적, qmean(t)는 평균관절각 궤적,
Figure 112008062202723-pat00069
는 i번째 주성분 궤적이다. 그리고 xi (i=1, 2, 3, 4)는 스칼라 계수이다.
일반적으로 동작 상태 c3는 시작시각 t0에서의 관절각 q0과 관절각속도
Figure 112008062202723-pat00070
, 그리고 종료시각 tf에서의 관절각 qf과 관절각속도
Figure 112008062202723-pat00071
의 4개로 주어진다.
그런데, 주성분 분석 기반의 유전 연산자와 달리, 여기서는 미지수 xi가 4개이기 때문에 4개의 경계조건을 만족하는 미지수 4개를 결정하는 과정은 간단한 행렬연산에 불과하므로 실시간으로 동작을 생성할 수 있다.
한편, 이 과정은 경계에서의 관절각 및 관절각속도만을 고려하여 동작을 생성하므로 '기구학적 보간을 통한 동작의 재결합(Reconstituting motion via kinematic interpolation)'이라 한다.
본 발명의 실시예에서는 기본 동작에 대한 주성분 분석과 함께, 역동역학 기반의 최적화를 통한 동작의 재결합 방법과 기구학적 보간을 통한 동작의 재결합 방법을 사용한다.
그런데, 역동역학 기반의 최적화를 통한 동작의 재결합 방법을 사용하는 경우 로봇의 물리적 특성에 최적화된 동작을 생성할 수 있다는 장점이 있는 반면 최적화에 시간이 오래 걸리기 때문에 로봇이 실시간으로 동작을 생성하지는 못하는 단점이 있다.
반면, 기구학적 보간을 통한 동작의 재결합 방법은 간단한 행렬 연산만을 거치므로 실시간으로 동작을 생성할 수 있지만, 생성된 동작은 캡쳐된 인간 동작의 수학적, 그리고 기구학적 보간에 그치므로 로봇에 최적화된 것은 아니다.
도 3은 기존의 방법과 본 발명의 실시예에 따른 방법을 비교하기 위한 도면이다.
기존의 방법1과 방법2는 인간의 모션 캡쳐 데이터에 직접 주성분 분석과 동 작 재결합 방법을 적용한다.
반면, 본 발명의 실시예에 따른 방법3은 인간의 모션 캡쳐 데이터를 진화시켜서 로봇의 물리적 특성을 반영시키고, 이 진화된 기본 동작에 기반하여 실시간으로 로봇이 필요한 동작을 얻어낸다.
이하, 본 발명의 로봇 동작 제어 방법에 의한 실험예 및 비교예를 기술한다. 그러나, 본 발명은 이하의 실험예 또는 비교예에 한정되는 것은 아니다.
(실험예)
도 4a는 본 실험예에서 사용된 인간형 로봇 ‘마루’의 외양을 나타내는 도면이고, 도4b는 허리 관절과 오른팔을 포함하는 7자유도의 매니퓰레이터(manipulator)를 개략적으로 보여주는 도면이다.
던져진 공을 로봇이 팔로 잡기 위해서는, 공의 위치를 추적할 수 있어야 하고, 공을 잡을 위치를 예상할 수 있어야 한다. 또한, 로봇이 예상 위치로 팔을 움직이며, 손가락으로 공을 잡을 수도 있어야 한다. 그러나 본 실험예에서는 로봇이 사람과 같은 자연스러운 동작을 생성하도록 하는 것이 목적이므로 나머지 능력들은 이미 주어져 있다고 가정하였다.
도 5a는 실험자가 자신에게 던져진 공을 잡기 전의 모습을 나타내는 도면이고, 도5b 및 5c는 실험자가 자신의 정면 및 어깨 위쪽으로 던져진 공을 잡는 모습을 각각 나타내는 도면이다. 또한, 도6a 및 6b는 실험자가 공을 받았던 140개의 지 점들을 표시하는 정면도 및 측면도이다.
실험자의 머리와 몸통 근처의 다양한 지점으로 공을 던졌고, 총 140개의 공을 받는 실험자의 동작을 캡쳐하였다. 즉, 본 실험예에 있어서는 140개의 기본 동작들이 초기 부모 세대를 구성하였다.
동작 상태 ci는 다음의 수학식에 의해 정의되었다.
Figure 112008062202723-pat00072
                                                      (8)
여기서 Ri는 실험자가 공을 받은 순간의 손바닥의 회전 행렬(rotation matrix)이고, pi는 그 순간의 손바닥의 위치 벡터(position vector)이다. 한편, 이 행렬과 벡터는 모두 실험자의 허리에 위치한 기준 좌표계에서 바라보았을 때의 값이다.
각 동작 상태들 간의 유사성을 나타내는 거리 척도로써 다음의 수학식이 정의되었다.
Figure 112008062202723-pat00073
                        (9)
여기서 Ri와 pi는 동작 상태 ci에 속한 것이고, Rj와 pj는 동작 상태 cj에 속한 것이다. 그리고 w1과 w2는 스칼라 가중치 값이며, 본 실험예에서는 1.0과 0.5로 정해졌다.
도7a와 도7b는 기본 동작에 대한 주성분 분석의 예를 보여준다. 즉, 도7a는 임의로 선택한 10개의 기본 동작의 관절각 궤적을 나타내는 도면이고, 도7b는 7a에 도시된 기본 동작들로부터 지배적인 주성분 4개를 추출하여 이를 도시한 도면이다.
본 실험예에서는 주어진 동작 상태에 가장 가까운 20개의 기본 동작을 선택하여 주성분을 추출하고, 이 주성분을 새로운 동작을 생성하는 데 사용하였다.
도8a는 진화 과정에서 더 우수한 자식 개체로 대체되는 부모 개체의 개수를 나타내는 그래프이다. 또한 도8b는 각 세대에서의 개체들의 적합도 함수의 값의 평균을 나타내는 그래프이다.
도8a를 참조하면, 1세대에서 2세대로 진화할 때는 140개의 부모 개체 중 38개의 개체들이 더 우수한 자식 개체로 대체되었다. 한편, 대체되는 부모 개체의 개수는 진화가 진행됨에 따라서 점차 감소하였는데, 이는 동작 개체들의 최적화가 일정한 값으로 수렴한다는 것을 보여준다.
도8b를 참조하면, 적합도 함수의 값의 평균이 1세대에서는 560에 이르다가, 진화가 이루어진 10세대에서는 460 아래로 줄어들었다.
한편, 1세대에서 10세대까지 진화를 시키는데 걸린 시간은 2GB의 램을 가진 펜티엄4 컴퓨터에서 대략 9시간 정도였다(이하 동일한 컴퓨터에서 수행).
(비교예1)
도9a 및 9b는 각각 기존 방법1 및 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 정면도이다. 또한, 도9c 및 9d는 각각 기존 방법1 및 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 측면도이다. 또한, 도10은 기존 방법1과 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 관절각을 각각 나타내는 도면이다.
두 동작 모두 기본적으로는 인간의 모션 캡쳐 데이터를 사용하기 때문에 겉으로 보기에 인간의 동작처럼 자연스럽다. 또한 동일한 동작 조건을 가지고 동작을 생성했으므로, 시작 시점과 종료 시점에서의 관절각 및 관절각속도가 각각 동일하다.
그러나, 시작 시점에서 종료 시점으로 가는 궤적은 동일한 양상을 띠지 않는데, 그 효과는 아래 표1에 나타나 있다.
[표1]
기존 방법 1 본 발명의 방법3
동작 생성 시간 0.092 초 0.101 초
적합도 함수의 값 370.0 275.8
표1을 참조하면, 동작 생성 시간은 두 방법에서 거의 동일하고, 실시간에 가까운 짧은 시간이 소요될 뿐이었다. 이는 두 방법이 활용하는 기본 동작 데이터가 인간 동작이냐 진화된 동작이냐의 차이만 있을 뿐, 동작을 생성하는 알고리즘은 동일하기 때문이다.
한편, 적합도 함수의 값은 방법 3에서 더 작게 나타나는 데, 이것은 방법 3에 의해 생성된 동작이 좀 더 적은 토크가 소요되는 최적화된 동작이며, 에너지 효율적인 것이라는 의미이다. 따라서 본 발명의 실시예에 따른 방법3에서 사용된 진 화된 기본 동작 데이터베이스가 최적의 동작 생성에 기여하였음을 확인할 수 있었다.
(비교예2)
도11a 및 11b는 각각 기존 방법2 및 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 정면도이다. 또한, 도11c 및 11d는 각각 기존 방법2 및 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 측면도이다. 또한, 도12는 기존 방법2와 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 관절각을 각각 나타내는 도면이다.
두 동작도 역시 기본적으로는 인간의 모션 캡쳐 데이터를 사용하기 때문에 겉으로 보기에 사람의 동작처럼 자연스럽다. 또한 동일한 동작 조건을 가지고 동작을 생성했으므로, 시작 시점과 종료 시점에서의 관절각 및 관절각속도가 각각 동일하다.
한편, 동작의 생성 시간과 적합도 함수의 값에는 차이가 있는데, 이는 다음의 표2에 나타나 있다.
[표2]
  기존 방법2 본 발명의 방법3
동작 생성 시간 11.32 초 0.127 초
적합도 함수의 값 348.7 385.1
표2를 참조하면, 기존 방법2에 의하는 경우 동작 생성에 11.32초가 걸렸고, 본 발명의 실시예에 따른 방법3에 의하는 경우에는 0.127초밖에 걸리지 않았다.
기존 방법2에 의하는 경우 역동역학 기반의 최적화 과정을 거치므로 계산에 장시간이 소요되었다. 반면, 기존 방법2에 의하는 경우 적합도 함수의 값은 348.7로써 본 발명의 실시예에 따른 방법3에 의하는 경우에 비해 최적화된 양상을 보여준다. 즉, 기존 방법2에 의해 생성된 로봇 동작은 가장 에너지 효율적이고 최적화되었으며 사람의 동작과 유사하지만, 동작 생성에 오랜 시간이 걸리기 때문에 실시간 동작 생성에는 부적합하였다.
반면, 본 발명의 실시예에 따른 방법3에 의해 생성된 로봇 동작은 기존 방법2에 의해 생성된 것보다는 덜 최적화되었지만 빠르게 동작을 생성한다는 측면에서 실시간 동작 생성에 적합하였다.
(비교예3)
동작 조건 10개를 가지고 방법 1, 2 및 3 모두를 사용하여 각각 동작을 생성하였다. 표3은 생성된 각각의 동작 10개를 평균하여 그 성능을 비교한 결과를 나타낸다.
[표3]
  기존 방법1 기존 방법2 본 발명의 방법3
동작 생성 시간 0.109 초 13.21 초 0.115 초
적합도 함수의 값 498.7 372.6 428.4
표3을 참조하면, 기존 방법1과 본 발명의 실시예에 따른 방법3에 의하는 경우 동작 생성에 매우 짧은 시간이 걸리기 때문에 실시간 동작 생성에 적용이 가능하였다.
한편, 기존 방법2에 의하는 경우에는 적합도 함수의 값이 가장 작으므로 최적화된 동작이 만들어지기는 하였지만, 동작 생성에 시간이 너무 걸려서 실시간 동작 생성에 적용하기는 어려웠다.
요컨대, 본 발명의 실시예에 따른 방법3에 의하는 경우 실시간으로 동작을 생성할 수 있으며, 많은 시간을 들여 최적화시킨 동작과 최적화 측면에서 거의 대등한 성능을 보여주었다.
이상에서 본 발명의 실시예에 대하여 설명하였지만, 본 발명의 권리범위는 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다.
도1은 본 발명의 실시예에 따른 주성분분석 기반의 유전 연산자를 나타내는 도면이다.
도2는 본 발명의 실시예에 따른 유전 연산자와 적합도 함수를 이용하여 기본 동작들이 진화하는 과정을 개략적으로 나타내는 도면이다.
도3은 기존의 방법과 본 발명의 실시예에 따른 방법을 비교하기 위한 도면이다.
도4a는 본 실험예에서 사용된 인간형 로봇 ‘마루’의 외양을 나타내는 도면이다.
도4b는 허리 관절과 오른팔을 포함하는 7자유도의 매니퓰레이터(manipulator)를 개략적으로 보여주는 도면이다.
도 5a는 실험자가 자신에게 던져진 공을 잡기 전의 모습을 나타내는 도면이다.
도5b는 실험자가 자신의 정면 쪽으로 던져진 공을 잡는 모습을 나타내는 도면이다.
도5c는 실험자가 자신의 어깨 위쪽으로 던져진 공을 잡는 모습을 나타내는 도면이다.
도6a은 실험자가 공을 받았던 140개의 지점들을 표시하는 정면도이다.
도6b는 실험자가 공을 받았던 140개의 지점들을 표시하는 측면도이다.
도7a는 임의로 선택한 10개의 기본 동작의 관절각 궤적을 나타내는 도면이 다.
도7b는 도7a에 도시된 기본 동작들로부터 지배적인 주성분 4개를 추출하여 이를 도시한 도면이다.
도8a는 진화 과정에서 더 우수한 자식 개체로 대체되는 부모 개체의 개수를 나타내는 그래프이다.
도8b는 각 세대에서의 개체들의 적합도 함수의 값의 평균을 나타내는 그래프이다.
도9a는 기존 방법1에 의해 생성된 동작의 양상을 나타내는 정면도이다.
도9b는 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 정면도이다.
도9c는 기존 방법1에 의해 생성된 동작의 양상을 나타내는 측면도이다.
도9d는 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 측면도이다.
도10은 기존 방법1과 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 관절각을 각각 나타내는 도면이다.
도11a는 기존 방법2에 의해 생성된 동작의 양상을 나타내는 정면도이다.
도11b는 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타내는 정면도이다.
도11c는 기존 방법2에 의해 생성된 동작의 양상을 나타내는 측면도이다.
도11d는 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 양상을 나타 내는 측면도이다.
도12는 기존 방법2와 본 발명의 실시예에 따른 방법3에 의해 생성된 동작의 관절각을 각각 나타내는 도면이다.

Claims (13)

  1. 로봇의 동작 제어 방법에 있어서,
    (a) 인간의 동작 패턴을 수집하여 데이터베이스를 구축하는 단계;
    (b) 주성분 분석 및 역동역학 기반의 보간 방법을 이용한 유전 연산자를 이용하여 상기 데이터베이스를 진화시키는 단계; 및
    (c) 상기 진화된 데이터베이스를 이용하여 실시간으로 로봇의 동작을 생성하는 단계
    를 포함하고,
    상기 (c)단계는,
    주성분 분석 및 기구학적 보간을 통한 동작의 재결합 방법을 이용하는 로봇의 동작 제어 방법.
  2. 제1항에 있어서,
    상기 (a)단계는 인간의 동작을 모션 캡쳐하는 단계를 포함하는 로봇의 동작 제어 방법.
  3. 제1항에 있어서,
    상기 (b)단계는,
    (b-1) 로봇이 수행할 임의의 동작과 유사한 동작 상태를 가진 기본 동작을 상기 데이터베이스로부터 하나 이상 선택하는 단계; 및
    (b-2) 주성분 분석을 통한 주성분 추출 및 상기 주성분의 결합을 통해 최적 동작을 새로이 생성함으로써, 상기 선택된 기본 동작을 재가공하는 단계
    를 포함하는 로봇의 동작 제어 방법.
  4. 제3항에 있어서,
    상기 (b)단계는,
    상기 (b-1)단계와 상기 (b-2)단계를 반복 수행하여 상기 데이터베이스를 진화시키는 단계
    를 포함하는 로봇의 동작 제어 방법.
  5. 제3항에 있어서,
    상기 (b-1)단계에서,
    상기 임의의 동작은 다음의 수학식으로 표현되는 로봇의 동작 제어 방법.
    Figure 112008062202723-pat00074
    (1)
    여기서,
    Figure 112008062202723-pat00075
    는 상기 임의의 동작의 관절각 궤적,
    Figure 112008062202723-pat00076
    는 상기 선택된 기본 동작의 평균 관절각 궤적,
    Figure 112008062202723-pat00077
    는 상기 선택된 기본 동작의 관절각 궤적 중 i번째 주성분 궤적,
    Figure 112008062202723-pat00078
    는 스칼라 계수임.
  6. 제5항에 있어서,
    상기 임의의 동작의 동작 상태는 다음의 경계 조건을 만족하는 로봇의 동작 제어 방법.
    Figure 112008062202723-pat00079
    (2)
    여기서,
    Figure 112008062202723-pat00080
    는 시작 시간
    Figure 112008062202723-pat00081
    에서의 관절각,
    Figure 112008062202723-pat00082
    는 시작 시간
    Figure 112008062202723-pat00083
    에서의 관절각속도,
    Figure 112008062202723-pat00084
    는 종료 시간
    Figure 112008062202723-pat00085
    에서의 관절각,
    Figure 112008062202723-pat00086
    는 종료 시간
    Figure 112008062202723-pat00087
    에서의 관절각속도임.
  7. 제3항에 있어서,
    상기 (b-2)단계에서,
    상기 선택된 기본 동작이 하나 이상의 관절각 궤적을 포함할 때 상기 관절각 궤적의 평균 궤적(
    Figure 112008062202723-pat00088
    )을 다음의 수학식을 통해 계산하고,
    Figure 112008062202723-pat00089
    (3)
    여기서, k는 선택된 기본 동작의 수이고,
    Figure 112008062202723-pat00090
    는 i번째 기본 동작의 관절각 궤적임.
    다음의 수학식을 통해 공분산행렬(S)을 계산하고,
    Figure 112008062202723-pat00091
    (4)
    상기 공분산행렬로부터 고유 벡터를 얻고,
    상기 고유 벡터들 중에서 상기 관절각 궤적의 주성분 궤적을 얻는 로봇의 동작 제어 방법.
  8. 제3항에 있어서,
    상기 (b-2)단계에서,
    다음의 수학식을 통해 상기 선택된 기본 동작의 관절 토크(
    Figure 112008062202723-pat00092
    )를 결정하고,
    Figure 112008062202723-pat00093
    (5)
    여기서,
    Figure 112008062202723-pat00094
    는 상기 선택된 기본 동작의 관절각,
    Figure 112008062202723-pat00095
    는 상기 선택된 기본 동작의 관절각속도,
    Figure 112008062202723-pat00096
    는 상기 선택된 기본 동작의 관절각가속도,
    Figure 112008062202723-pat00097
    는 질량 매트릭스(mass matrix),
    Figure 112008062202723-pat00098
    는 코리올리 벡터임.
    Figure 112008062202723-pat00099
    는 중력 및 기타의 힘을 포함함.
    상기 결정된 관절 토크가 다음의 수학식을 최소로 하면 상기 선택된 기본 동작을 상기 최적동작으로 결정하는 로봇의 동작 제어 방법.
    Figure 112008062202723-pat00100
    (6)
  9. 삭제
  10. 제1항에 있어서,
    상기 (c)단계는,
    (c-1) 로봇이 생성할 동작과 유사한 동작 상태를 가진 기본 동작을 상기 진화된 데이터베이스로부터 하나 이상 선택하는 단계; 및
    (c-2) 주성분 분석을 통한 주성분 추출 및 상기 주성분의 결합을 통해 최적 동작을 새로이 생성함으로써, 상기 선택된 기본 동작을 재가공하는 단계
    를 포함하는 로봇의 동작 제어 방법.
  11. 제10항에 있어서,
    상기 (c-1)단계에서,
    상기 로봇이 생성할 동작은 다음의 수학식으로 표현되는 로봇의 동작 제어 방법.
    Figure 112008062202723-pat00101
    (7)
    여기서,
    Figure 112008062202723-pat00102
    는 상기 로봇이 생성할 동작의 관절각 궤적,
    Figure 112008062202723-pat00103
    는 상기 선택된 기본 동작의 평균 관절각 궤적,
    Figure 112008062202723-pat00104
    는 상기 선택된 기본 동작의 관절각 궤적 중 i번째 주성분 궤적,
    Figure 112008062202723-pat00105
    는 스칼라 계수임.
  12. 제11항에 있어서,
    상기 로봇이 생성할 동작의 동작 상태는 다음의 경계 조건을 만족하는 로봇의 동작 제어 방법.
    Figure 112008062202723-pat00106
    (8)
    여기서,
    Figure 112008062202723-pat00107
    는 시작 시간
    Figure 112008062202723-pat00108
    에서의 관절각,
    Figure 112008062202723-pat00109
    는 시작 시간
    Figure 112008062202723-pat00110
    에서의 관절각속도,
    Figure 112008062202723-pat00111
    는 종료 시간
    Figure 112008062202723-pat00112
    에서의 관절각,
    Figure 112008062202723-pat00113
    는 종료 시간
    Figure 112008062202723-pat00114
    에서의 관절각속도임.
  13. 제10항에 있어서,
    상기 (c-2)단계에서,
    상기 선택된 기본 동작이 하나 이상의 관절각 궤적을 포함할 때 상기 관절각 궤적의 평균 궤적(
    Figure 112008062202723-pat00115
    )을 다음의 수학식을 통해 계산하고,
    Figure 112008062202723-pat00116
    (9)
    여기서, k는 선택된 기본 동작의 수이고,
    Figure 112008062202723-pat00117
    는 i번째 기본 동작의 관절각 궤적임.
    다음의 수학식을 통해 공분산행렬(S)을 계산하고,
    Figure 112008062202723-pat00118
    (10)
    상기 공분산행렬로부터 고유 벡터를 얻고,
    상기 고유 벡터들 중에서 상기 관절각 궤적의 주성분 궤적을 얻는 로봇의 동작 제어 방법.
KR1020080085922A 2008-09-01 2008-09-01 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법 KR100995933B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080085922A KR100995933B1 (ko) 2008-09-01 2008-09-01 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법
US12/238,199 US20100057255A1 (en) 2008-09-01 2008-09-25 Method for controlling motion of a robot based upon evolutionary computation and imitation learning
JP2008302457A JP2010058260A (ja) 2008-09-01 2008-11-27 進化アルゴリズムと模倣学習に基づくロボットの動作制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080085922A KR100995933B1 (ko) 2008-09-01 2008-09-01 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법

Publications (2)

Publication Number Publication Date
KR20100026785A KR20100026785A (ko) 2010-03-10
KR100995933B1 true KR100995933B1 (ko) 2010-11-22

Family

ID=41726558

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080085922A KR100995933B1 (ko) 2008-09-01 2008-09-01 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법

Country Status (3)

Country Link
US (1) US20100057255A1 (ko)
JP (1) JP2010058260A (ko)
KR (1) KR100995933B1 (ko)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101691940B1 (ko) * 2009-10-30 2017-01-02 삼성전자주식회사 로봇 및 그 제어방법
US9626696B2 (en) 2010-06-17 2017-04-18 Microsoft Technology Licensing, Llc Techniques to verify location for location based services
KR101014852B1 (ko) * 2010-10-08 2011-02-15 동국대학교 산학협력단 인공지능 기반의 캐릭터 동작생성 장치, 방법 및 그 기록 매체
KR101227092B1 (ko) * 2010-11-05 2013-01-29 한국과학기술연구원 로봇의 동작 제어 시스템 및 동작 제어 방법
US9162720B2 (en) * 2010-12-03 2015-10-20 Disney Enterprises, Inc. Robot action based on human demonstration
KR101086671B1 (ko) 2011-06-29 2011-11-25 동국대학교 산학협력단 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇
US9573276B2 (en) * 2012-02-15 2017-02-21 Kenneth Dean Stephens, Jr. Space exploration with human proxy robots
US10035264B1 (en) 2015-07-13 2018-07-31 X Development Llc Real time robot implementation of state machine
KR101962889B1 (ko) * 2015-07-27 2019-03-28 한국전자통신연구원 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム
JP6038417B1 (ja) * 2016-01-29 2016-12-07 三菱電機株式会社 ロボット教示装置及びロボット制御プログラム作成方法
EP3431229A4 (en) * 2016-03-14 2019-06-26 Omron Corporation ACTION INFORMATION GENERATION DEVICE
CN106444738B (zh) * 2016-05-24 2019-04-09 武汉科技大学 基于动态运动基元学习模型的移动机器人路径规划方法
US10919152B1 (en) * 2017-05-30 2021-02-16 Nimble Robotics, Inc. Teleoperating of robots with tasks by mapping to human operator pose
JP6961723B2 (ja) 2018-01-16 2021-11-05 株式会社ソニー・インタラクティブエンタテインメント 移動体および移動体制御方法
US11780084B2 (en) 2018-01-16 2023-10-10 Sony Interactive Entertainment Inc. Robotic device, control method for robotic device, and program
WO2019142228A1 (ja) 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
CN108255058A (zh) * 2018-01-18 2018-07-06 山东大学深圳研究院 智能空间下的服务机器人逆运动学求解方法和装置
CN108664021A (zh) * 2018-04-12 2018-10-16 江苏理工学院 基于遗传算法和五次多项式插值的机器人路径规划方法
US11104001B2 (en) * 2019-03-13 2021-08-31 Sony Interactive Entertainment Inc. Motion transfer of highly dimensional movements to lower dimensional robot movements
JP2020203341A (ja) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
CN110421559B (zh) * 2019-06-21 2021-01-05 国网安徽省电力有限公司淮南供电公司 配网带电作业机器人的遥操作方法和动作轨迹库构建方法
CN113967911B (zh) * 2019-12-31 2023-06-13 浙江大学 基于末端工作空间的仿人机械臂的跟随控制方法及***
CN113561185B (zh) * 2021-09-23 2022-01-11 中国科学院自动化研究所 一种机器人控制方法、装置及存储介质
CN116901055B (zh) * 2023-05-19 2024-04-19 兰州大学 仿人手交互控制方法和装置、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5946673A (en) * 1996-07-12 1999-08-31 Francone; Frank D. Computer implemented machine learning and control system
US6738753B1 (en) * 2000-08-21 2004-05-18 Michael Andrew Hogan Modular, hierarchically organized artificial intelligence entity
US7249116B2 (en) * 2002-04-08 2007-07-24 Fiske Software, Llc Machine learning
JP4878842B2 (ja) * 2003-11-13 2012-02-15 独立行政法人科学技術振興機構 ロボットの駆動方法
US7313463B2 (en) * 2005-03-31 2007-12-25 Massachusetts Institute Of Technology Biomimetic motion and balance controllers for use in prosthetics, orthotics and robotics
US7328194B2 (en) * 2005-06-03 2008-02-05 Aspeed Software Corporation Method and system for conditioning of numerical algorithms for solving optimization problems within a genetic framework
JP4997419B2 (ja) * 2005-11-07 2012-08-08 株式会社国際電気通信基礎技術研究所 ロボット用動作変換システム
JP4798581B2 (ja) * 2006-09-27 2011-10-19 株式会社国際電気通信基礎技術研究所 ロボットシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1 : CICS (2007.10)*

Also Published As

Publication number Publication date
JP2010058260A (ja) 2010-03-18
US20100057255A1 (en) 2010-03-04
KR20100026785A (ko) 2010-03-10

Similar Documents

Publication Publication Date Title
KR100995933B1 (ko) 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법
Mousavian et al. 6-dof graspnet: Variational grasp generation for object manipulation
Zhao et al. Robust realtime physics-based motion control for human grasping
CN1249623C (zh) 人型连杆***的运动生成方法
WO2010013631A1 (ja) 筋張力データベースの構築方法、筋張力データベース、筋張力データベースを用いた筋張力計算方法及び装置
TWI427558B (zh) 遮蔽骨架之位置估算系統、遮蔽骨架之位置估算方法及遮蔽骨架之重建方法
CN107578461B (zh) 一种基于子空间筛选的三维虚拟人体物理运动生成方法
Ruggiero et al. Nonprehensile manipulation of deformable objects: Achievements and perspectives from the robotic dynamic manipulation project
Lin et al. Task-based grasp quality measures for grasp synthesis
JP2008140101A (ja) 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置
Zhao et al. A novel algorithm of human-like motion planning for robotic arms
Park et al. Human-like catching motion of humanoid using evolutionary algorithm (ea)-based imitation learning
Li et al. Spatial map of synthesized criteria for the redundancy resolution of human arm movements
JP5373591B2 (ja) 相関分析システム
Seredyńsk et al. Graph-based potential field for the end-effector control within the torque-based task hierarchy
Hoshino et al. Copycat hand—robot hand imitating human motions at high speed and with high accuracy
Rezaeipanah et al. A shooting strategy when moving on humanoid robots using inverse kinematics and q-learning
Chiappa et al. Using Bayesian dynamical systems for motion template libraries
Caggiano et al. A biomimetic approach to mobility distribution for a human-like redundant arm
Pan et al. 3D motion estimation of human by genetic algorithm
JP2003346150A (ja) 床面認識装置及び床面認識方法並びにロボット装置
Acosta-Calderon et al. A modular architecture for humanoid soccer robots with distributed behavior control
Park et al. Imitation learning of robot movement using evolutionary algorithm
Castillo et al. Data-Driven Latent Space Representation for Robust Bipedal Locomotion Learning
JP5586015B2 (ja) 逆運動学を用いた動作・姿勢生成方法及び装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131029

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141103

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee