KR100415884B1 - 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치 - Google Patents

모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치 Download PDF

Info

Publication number
KR100415884B1
KR100415884B1 KR10-2000-0065643A KR20000065643A KR100415884B1 KR 100415884 B1 KR100415884 B1 KR 100415884B1 KR 20000065643 A KR20000065643 A KR 20000065643A KR 100415884 B1 KR100415884 B1 KR 100415884B1
Authority
KR
South Korea
Prior art keywords
motion
pipe
joint
sensor
value
Prior art date
Application number
KR10-2000-0065643A
Other languages
English (en)
Other versions
KR20020035386A (ko
Inventor
양기혁
Original Assignee
(주)모션테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)모션테크놀로지 filed Critical (주)모션테크놀로지
Priority to KR10-2000-0065643A priority Critical patent/KR100415884B1/ko
Publication of KR20020035386A publication Critical patent/KR20020035386A/ko
Application granted granted Critical
Publication of KR100415884B1 publication Critical patent/KR100415884B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 가변 저항이 달린 센서가 있는 모션캡쳐장비인 슈트(Suite)를 대상자가 착용하고 동작을 취함에 따라, 이를 각 센서가 변위량을 측정하여 공간좌표상의 수치데이터로 컴퓨터에 제공하는 장치 및 방법에 관한 것이다.
이에 따르면, 우선 모션캡쳐 장비를 착용한 대상자가 신체의 부위를 움직임에 따라, X, Y, Z축으로의 변위값을 측정할 수 있도록 신체의 주요관절마다 배치된 3개의 센서가 이를 감지하여 변화값에 따른 각 관절부위의 움직임을 좌표값으로 변환한다. 이러한, 각 관절 부위별 변화값이 데이터로 변환되고 컴퓨터는 이를 취합하여 전체 동작에 따른 공간상의 좌표값으로 계산하게 된다. 이에 따라, 실제의 모션에 따라 컴퓨터상의 모션을 동일화시킬 수 있다. 따라서, 이를 이용하여 의료치료장치로 장애자 재활치료 등 의용공학에 적용할 수 있으며, 애니메이션, 게임, 스포츠 운동분석에 응용할 수 있다.

Description

모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및 장치 { Method and apparatus for capturing motion of human body and thereby making motion data file }
본 발명은 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및 장치에 관한 것으로서, 더욱 상세하게는 기계식 모션 캡쳐장비인 슈트(Suite)를 착용한 대상이 움직임에 따라 상기 움직임의 모션을 캡쳐하여 이를 3차원 데이터로 변환한 후, 3D 그래픽 프로그램을 이용하여 화면상에 한 캐릭터의 동작으로 구성하는 방법을 제공한다.
모션캡쳐 장비는 인체의 움직임을 그대로 잡아내서 컴퓨터에서 사용할 수 있는 형태의 데이터로 만들어 낸다. 이와 같이 만들어진 데이터는 컴퓨터로 옮겨져 해당 프로그램에 맞게 변형된 후, 사용목적에 따라 이용되게 된다. 이는 인체의 움직임을 동일하게 표현해야 하는 의료 분야와 인체의 움직임을 필요로 하는 애니메이션에 적용되어 영화 및 TV, 게임, 엔터테인먼트 등의 여러 분야에 접목되어 사용되어 진다.
이러한 분야에서 현재 접목되어 사용되고 있는 종래의 동작분석(모션캡쳐;Motion capture)방식으로는 대표적으로 광학식(Optical)방식과 마그네틱식(Magnetic)방식의 두 가지 기술을 들 수 있다.
광학식 방식은 가장 일반적으로 알려져 있는 형태인 카메라로 사람이나 사물에 부착된 광학센서(반사체)인 마커(Marker)를 인식하여 모션캡쳐를 한다. 따라서, 광학식 방식은 설치가 복잡하고 초기 설치시 상당한 시간과 비용, 노력이 당연히 필요하게 되며, 더욱이 빛의 조명도에 민감하다는 단점이 있다. 그리고, 이러한 광학식 방식의 동작분석장비는 모션캡쳐 장비 중에서 상당히 고가의 제품에 속한다. 상기의 광학식 방식의 모션캡쳐장비가 고가의 제품으로 취급되는 데에는 모션캡쳐를 위해 많은 대수의 카메라가 필요하고, 이러한 여러 대수의 카메라의 모션캡쳐를 컴퓨터로 처리하기 위해서는 부수적으로 기타 장비들이 더 필요하기 때문이다.
이에 반해, 마그네틱식 방식은 자기장을 이용하는 만큼 외부의 영향에 가장 민감하게 반응한다. 따라서, 모션캡쳐장비의 주변에 자기장에 변화를 줄 수 있는 금속이나 전기적인 자기장에 심한 제한 및 방해를 받는다. 이와 같은 이유로 인해 실내에서만 사용되어지며, 외부에서의 사용은 상당한 제약을 받을 수밖에 없다.
본 발명은 상기 전술한 문제점을 해소하고자 안출된 것으로서, 외부의 영향을 받지 않고 각 신체 부위에 센서를 설치하여 센서에 의한 데이터를 컴퓨터에 제공하는 데 목적이 있다.
또한, 장소나 기상과 같은 외부적 제약을 받지 않고 동작에 의해 발생한 변위량을 정확히 계산하여 제공하는 데 목적이 있다.
도 1은 본 발명의 장치를 사용하여 모션을 캡쳐하는 전체적인 구성을 보이는 구성도이다.
도 2는 본 발명에 따라 모션캡쳐를 통하여 비디오 파일을 생성하는 과정을 보이는 순서도이다.
도 3은 팔동작의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 4는 발목의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 5a는 손목의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 5b 내지 도 5d는 손목의 움직임을 감지하는 방법을 설명하기 위한 모식도이다.
도 6은 머리의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 7은 무릎의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 8은 어깨의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 9는 골반의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
도 10a는 센서를 부착하는 신체의 주요부분을 보여주는 도면이다.
도 10b는 관절의 움직임에 따라, 발생되는 X, Y, Z축의 변화를 설명하기 위한 도면이다.
도 11은 손의 움직임에 따라, 어깨에서부터 손목까지 이르는 팔거리가 변화함을 보여주는 도면이다.
도 12는 도 11의 팔거리 변화에 따른 변화량을 반영하기 위한 가변파이프구조를 보여주는 도면이다.
도 13은 도 12에서 움직이는 변위거리에 대응하기 위한 파이프의 구조를 보여주는 도면이다.
도 14는 도 13의 상기 파이프관의 구조를 상세히 보여주는 도면이다.
도 15는 팔꿈치 변화에 의해서 팔꿈치 부위에 부착된 특정 센서가 회전값을 갖게 되는 것을 보여주는 화면예이다.
도 16은 모션캡쳐 장비를 착용했을 경우, 전면에서 바라본 착용예이다.
도 17은 모션캡쳐 장비를 착용했을 경우, 후면에서 바라본 착용예이다.
도 18은 모션캡쳐 장비에 의해 모션을 캡쳐한 화면을 보여주는 화면예이다.
도 19는 캡쳐한 화면에 편집 및 3차원 그래픽 작업을 행한 후, 캐릭터의 동작을 보여주는 화면예이다.
본 발명은 가변 저항이 달린 센서가 있는 모션캡쳐장비인 슈트(Suite)를 대상자가 착용하고 동작을 취함에 따라, 이를 각 센서가 변위량을 측정하여 공간좌표상의 수치데이터로 컴퓨터에 제공하는 장치 및 방법에 관한 것이다.
이에 따르면, 우선 모션캡쳐 장비를 착용한 대상자가 신체의 부위를 움직임에 따라, X, Y, Z축으로의 변위값을 측정할 수 있도록 신체의 주요관절마다 배치된 3개의 센서가 이를 감지하여 변화값에 따른 각 관절부위의 움직임을 좌표값으로 변환한다. 이러한, 각 관절 부위별 변화값이 데이터로 변환되고 컴퓨터는 이를 취합하여 전체 동작에 따른 공간상의 좌표값으로 계산하게 된다. 이에 따라, 실제의 모션에 따라 컴퓨터상의 모션을 동일화시킬 수 있다. 따라서, 이를 이용하여 의료치료장치로 장애자 재활치료 등 의용공학에 적용할 수 있으며, 애니메이션, 게임, 스포츠 운동분석에 응용할 수 있다.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
도 1은 본 발명의 장치를 사용하여 모션을 캡쳐하는 전체적인 구성을 보이는 구성도이다.
본 발명을 이루는 것으로서 주로 몸에 착용하는 슈트는 주요 신체부위의 움직임을 캡쳐하는 부분(110)과 대상자(100)의 전체적인 움직임을 인식 시켜주는 자이로(Gyro)부분(120)으로 이루어진다. 슈트에는 관절부위마다 센서가 부착되어 관절의 움직임을 감지하게 된다. 센서에 대해서는 뒤에 상세히 기술한다. 또한, 슈트에는 부착된 각 센서(각 센서에의 연결은 보통 3개의 선으로 이루어지며, 이중 2개가 전원공급선으로 이루어지고 나머지 1개의 선은 저항값을 측정하는 선으로 구성된다)에 전원을 공급하고 신호를 캡쳐하기 위해 인아웃박스(140)가 연결되는데, 상기 인아웃박스에 12V 직류(DC)전원을 공급하기 위하여 전원 어댑터(160)가 설치된다. 이는 전원(170)으로부터 교류(AC)전원을 받아 12V 직류(DC)전원으로 변환하는 기능을 담당하게 된다. 이와 함께 자이로(120)에도 인아웃박스(140)를 통해 전원을 동시에 공급하게 된다.
인아웃박스(140)와 자이로(120), 슈트(110)사이에는 25핀 커넥트 케이블로 연결되며, 슈트에 부착된 센서들과 자이로는 각 신체부위의 변위값을 검출하여 캡쳐한 신호를 인아웃박스(140)에 전송한다. 상기 신호를 25핀 커넥트 케이블로 전송받은 인아웃박스(140)는 컴퓨터 본체(150)의 아이사(ISA) 슬롯에 장착된 A/D 컨버터 카드(151)와 50핀 커넥트 케이블을 통해 연결된다. 여기서, A/D 컨버터(151)는 인아웃 박스로부터 전송받은 아날로그 신호를 디지털 신호로 변환하는 기능을 담당하게 된다.
한편, 자이로 프로세서(130)는 자이로(120)의 회전(Rotation)의 공간수치값을 계산하고 처리하는 기능을 담당하며 9핀 커넥터 케이블로 컴퓨터의 시리얼 포트(152)에 연결된다. 자이로 프로세서의 구동을 위하여 12V 직류 어댑터(161)는전원(170)으로부터 교류전원을 받아 12볼트의 직류로 변환하여 제공한다.
도 2는 본 발명에 따라 모션캡쳐를 통하여 비디오 파일을 생성하는 과정을 보이는 순서도이다.
우선 모션캡쳐 장비인 슈트(110)를 입은 대상자가 초기자세(예를 들면, 차렷자세)를 취하면 이때의 각 센서의 저항값을 기준 저항값으로 취한다(단계 S200). 이런 상태에서 대상자가 움직이게 되면, 각 센서의 저항값이 변하게 되므로 각 신체의 관절부분마다 설치되어 있는 2개 내지 3개의 센서의 저항값의 변화에 따라 모션을 캡쳐하게 된다(단계 S210). 이 저항값을 수신한 컴퓨터는 도 18처럼 초기화면, 즉 그래픽 작업이 되지 않은 상태로 3차원의 표준데이터포맷으로 변환한다(단계 S220). 캡쳐로 받아진 데이터는 모션캡쳐의 표준 포맷인 일정 파일형식, 이를테면, 파일 확장자명이 *.bvh인 형식으로 저장되어 진다.
이러한 일정 표준포맷으로 저장되어진 상기 데이터는 사용자에 의해 직접 3차원 소프트웨어에 적용되어지거나(단계 S230), 아니면 모션캡쳐 편집소프트웨어, 가령 필름박스(Filmbox) 등을 통하여 편집 및 수정을 한 후(단계 S240), 3 차원 그래픽 소프트웨어에 적용시킨다(단계 S250). 이러한 3 차원 그래픽 프로그램으로는 3D 스튜디오 맥스(Studio max), 라이트웨이브(Lightwave) 3D 등을 들 수 있다.
이러한 3D 그래픽 소프트웨어에 적용된 모션데이터는 랜더링작업 등을 거쳐(단계 S260), 도 19와 같은 입체형 캐릭터의 동작인 완전한 입체형 비디오 파일이 생성되게 된다(단계 S270).
도 3은 팔동작의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
팔꿈치 관절에 있는 3개의 회전 가능한 회전체에 부착된 센서(300, 310, 320)는 팔꿈치관절이 움직임에 따라, 각 부위별로 위상변화의 변화량을 측정하여 관절의 측정값을 공간 좌표값으로 만들어 내기 위한 값을 검출하는 역할을 담당하게 된다. 즉, 제 1 센서(300)는 Y축 값을 생성시키고, 제 2 센서(310)는 X축 값을 생성시키며, 제 3 센서(320)는 Z축 값을 생성시킨다. 여기서 센서는 상기 회전체가 회전함에 따라, 회전 변위량의 수치를 측정하게 된다.
팔을 위로 접게 되면, 제 1 센서(300)와 제 2 센서(310)는 움직임이 없고 제 3 센서(320)만이 Z축을 변화하게 한다. 물론, 팔을 좌우로 움직였을 경우에는 제 2 센서(310)가 회전하여 X축을 변화시키게 한다. 또한, 팔 전체를 임으로 움직였을 경우에는 각 센서가 움직임에 따라, 즉, 일정량 회전하게 됨에 따라, X, Y, Z축이 모두 변화하게 된다.
팔꿈치관절의 경우에는 손목관절과 연계되어 움직인다. 즉, 손목이 움직이면 제 2 센서(310)가 회전하여 X축과 같이 움직인다.
도 4는 발목의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
발목도 상기 도 3에서 기술한 것과 동일한 방식으로 3개의 회전 가능한 회전체에 부착된 센서(400, 410, 420)가 구비되며 발목의 움직임에 따라, 각 부위별로 위상변화의 변화량을 측정하여 관절의 측정값을 공간 좌표값으로 만들어 내기 위한 값을 검출하는 역할을 담당하게 된다. 즉, 제 1 센서(400)는 Y축 값을 생성시키고, 제 2 센서(410)는 X축 값을 생성시키며, 제 3 센서(420)는 Z축 값을 생성시킨다.
발목관절은 팔꿈치관절과 달리 상하좌우 및 회전이 가능하기 때문에, 상기 도 3보다는 휠씬 복잡하게 X, Y, Z축의 값이 변화하게 된다. 이를테면, 발목관절은 무릎관절과 연계되어 있어, 무릎관절이 움직이면 발목의 제 2 센서(410)가 회전하면서 일정의 X축에 변화를 가져오게 된다. 또한, 발목을 상하로 움직일 경우에도 상기 제 2 센서가 회전하면서 X축에 변화를 가져오게 된다.
만일 발목을 좌우로 회전할 경우에는 제 1 센서(400)가 회전하면서 좌우로의 변위량을 측정하여 Y축의 변화를 가져오게 된다. 상기 도 3에서 전술한 것처럼 발목 전체를 움직이면 3개의 각 센서들은 각 변위량을 측정하여 X, Y, Z축의 값에 변화를 주게 된다.
도 5a는 손목의 모션캡쳐를 실행하기 위한 장치를 착용한 모습을 보여주는 도면이다.
상기 도 3과 4와 동일한 방식으로 구성된 센서가 공간 좌표값을 발생시키게 되는데, 3개의 센서(500, 510, 520)가 상기 전술한 위치변화에 따른 변화량을 측정하여 이를 공간 좌표값으로 변환하게 된다. 이러한 변화량의 측정을 위해 X축 센서(510)와 Z축 센서(520)는 조인트축(530)에 고정되고 Y축 센서(500)는 관절연결축(540)에 고정된다.
이러한 공간 좌표를 생성하기 위해, 3개의 센서들은 도 5b 내지 도 5d와 같이 구성된다.
즉, 도 5b에서 조인트축(530)을 중심으로 두 개의 센서(510, 520)가 상호 직각으로 연결되고, 조인트축(520)에는 센서들이 직교하기 위한 홈이 2개 구비된다. 따라서, 상기 2개의 홈에 제 1 센서(510)와 제 2 센서(520)를 연결하여 이를 조인트축(530)을 기준으로 위에서 보았을 때, 제 1 센서(510)와 제 2 센서(520)가 도 5c처럼 90°각도로 상호 직교하게 되는 것이다.
이렇게 조립된 제 1 센서와 제 2 센서가 포함되어 구성된 슈트를 입은 대상체가 모션을 취하면 상기 모션만큼의 회전량을 발생하고 이를 X축과 Y축으로 구성된 좌표값을 만들어 내게 된다. 여기에 공간상의 움직임을 전부 분석하기 위해서는 Z축을 이루는 제 3 센서(500)가 필요하게 되며 이러한 구성을 이루기 위해 도 5d처럼 제 1 센서(510)와 제 2 센서(520)를 서로 직교로 연결하는 조인트축(530)과 상호 직교하게 배치한다. 이에 따라, 예를 들자면 제 1 센서(510)는 회전 변위량에 따른 값을 X축의 값으로, 제 2 센서(520)는 회전 변위량에 따른 값을 Y축의 값으로, 그리고 마지막으로 제 3 센서(500)는 회전 변위량에 따른 값을 Z축의 값으로 변화함으로써 완전한 공간좌표값을 구성하게 되는 것이다.
상기와 같은 센서구조는 전술한 바 있는 팔꿈치, 발목, 손목관절뿐만 아니라, 머리 (도 6), 무릎(도 7), 어깨(도 8), 엉덩이(도 9) 등에도 적용된다.
그러나, 어깨부위는 도 8처럼 2개의 센서 즉, 제 1 센서(810)와 제 2센서(800)만을 설치해서 X, Y, Z 축의 값을 얻어내는데, 어깨는 몸에 고정된 축이 있으므로, 한 축은 불필요하다. 그러므로 모션이 있건 없건 한 축은 값이 불변인 고정값을 가지게 된다. 이렇게 하여 2개의 센서만으로 X, Y, Z축의 값을 얻어내게 된다. 상기 기술한 방법은 다른 한쪽 어깨부위에도 동일하게 적용된다.
엉덩이 부위도 상기 어깨부위에서 전술한 바와 같이 한 축은 고정값을 가지게 된다. 즉, 도 9에서 2개의 센서도 제 1 센서(900)와 제 2 센서(910)만으로 구성되며 이를 통하여 X, Y, Z 축의 값을 얻어내는데, 허벅지는 몸에 고정된 축이 있으므로, 한 축은 필요하지 않게 된다. 그러므로 모션이 있건 없건 한 축은 값이 불변인 고정값을 가지게 된다. 이렇게 하여 2개의 센서만으로 X, Y, Z축의 값을 얻어내게 된다. 엉덩이 부위도 2쌍으로 동일하게 구성된다.
이를 제외한 머리(도 6)부위와 손목, 팔꿈치, 발목관절 등에는 상기 3개의 센서로 구성된다. 인체의 움직임은 상기 서술한 바와 같이 각 관절에 설치된 X, Y, Z로 대표되는 센서에 의해서 좌표로 구하고 이 좌표는 기본 인체의 골격에 대입되어 인체의 구조에 맞게 움직이게 된다. 다만 인체의 움직임 중 관절의 움직임은 각 관절의 센서에 의해서 값이 나오나 신체의 이동과 허리의 좌우회전은 센서를 통해서 구현하는 것이 어려우므로 허리부위에는 자이로(120) 즉, 자이로스코프(Gyroscope)를 설치하고 이를 통하여 회전값을 얻는다.
도 10a는 센서를 부착하는 신체의 주요부분을 보여주는 도면이다.
상기에 기술한 각 신체의 부위별 부착된 센서에 의하여 기본적으로 인체의골격을 이루어진다. 이것이 도 10의 도면이다. 여기서 동그라미로 표시된 부위가 센서가 설치된 위치이다. 센서가 작동하면 기본적으로 원형들이 움직이면서 여러 신체부위가 균형과 조화를 이루게 된다.
도 10b는 관절의 움직임에 따라, 발생되는 X, Y, Z축의 변화를 설명하기 위한 도면이다.
특히, 도 10b는 무릎관절의 경우를 모식적으로 표현한 것으로서 X, Y, Z축은 몸을 기준으로 해서 보았을 때, 플레밍의 왼손법칙처럼 즉, 엄지는 Y, 검지는 Z, 중지는 X축으로 3방향 축이 서로 직교하게 된다. 따라서, 무릎을 구부리지 않고 편 채로 있는 상태(1010)에서 무릎을 구부리면 Y축의 변화만 생기고, X, Z축은 그대로 있는 상태(1020)가 된다. 이와 반대로 무릎을 좌우로 움직이면, X축이 움직인다. 그리고, 전체의 무릎관절이 움직이게 되면, X, Y, Z축이 함께 움직인다.
도 11은 손의 움직임에 따라, 어깨에서부터 손목까지 이르는 팔거리가 변화함을 보여주는 도면이다.
도 11의 (a)는 팔을 구부린 경우의 어깨부터 팔꿈치까지의 길이(1110)와 팔꿈치부터 손까지의 길이(1120)를 보여준다. 이렇게 구부린 팔을 일직선으로 펼 경우가 도 11의 (b)이다. 여기서는 어깨부터 팔꿈치까지의 길이(1130)와 팔꿈치부터 손까지의 길이(1140)로 이루어진다.
즉, 도 11의 (a)와 도 11의 (b)는 슈트를 착용한 대상자가 모션을 취할 경우관절사이의 거리가 고정불변이 아니라 가변됨을 보여준다.
이때, 어깨와 팔굼치간의 거리는 팔을 구부릴 경우 짧아져서 저항센서간의 거리에 변화가 생기므로 이를 수용하기 위해서는 관절연결체가 이에 알맞게 구성되어야 한다. 이와 같은 경우 관절사이의 거리를 조절 가능하게 하기 위해 가변파이프를 사용해서 도 12 내지 도 14와 같은 구성과 구조를 구비하게 된다.
도 12 내지 도 14는 상기 도 11의 팔거리 변화에 따른 문제점을 해결하기 위한 관절연결체의 구조에 대해서 보여주고 있다.
도 12는 도 11의 팔거리 변화에 따른 변화량을 반영하기 위한 지지체의 가변파이프구조를 보여주는 도면이다.
도 12의 (a)는 고정대(1200), 저항센서가 부착된 파이프관(1210), 관통축(1230)으로 구성된 가변파이프구조를 나타내며, 도 12의 (b)는 팔을 굽혔을 때, 움직인 변위거리(1240)가 발생하게 되는 것을 나타낸다. 파이프관(1210)은 브라켓(1205)에 의해 팔에 고정된다. 도 12의 (a)에서는 상기 고정대(1200)와 파이프관(1210)사이의 거리(1220)가 슈트를 착용한 대상자가 팔을 굽히기 전의 거리를 나타내고, 이에 반해 도 12의 (b)는 슈트를 착용한 대상자가 팔을 굽힌 후, 파이프관(1210)이 고정대(1200)에 비해 상대적으로 일정의 거리를 이동한 거리(1240)를 보여준다. 따라서, 모션을 전후로 하여 변위거리가 발생하게 되는데, 즉 도 12(a)의 거리(1220)에서 도 12(b)의 거리(1240)를 뺀 만큼의 변위가 발생하는 것이다.
상기 변위거리를 수용하기 위해서 관절연결체는 도 13처럼 파이프관(1300)과 관통축(1310)의 이중구조를 가진다. 즉, 관통축(1310)을 중심축으로하여 파이프관(1300)은 직선왕복운동을 할 수 있다.
그러나, 상기 도 13처럼 왕복운동을 할 수 있는 구조를 가지는 것으로만 해서는 정확한 변위거리에 따른 센서의 변위량이 정확히 계산되지 않으며 또한, 관통파이프가 원형이거나 다른 구조일 경우 여러 가지 문제점이 발생할 수 있다. 즉, 비틀림이나 휘어짐 등이 발생하면 파이프관(1300)은 뒤틀어 질 수도 있으며, 이에 따른 모션캡쳐의 정확성에 심대한 영향을 초래할 수 있다. 또한, 파이프관(1300)이 관통축(1310)을 중심축으로 하여 움직일 때, 슈트를 착용한 대상자가 모션을 취할 때마다, 잘 구동되지 않으면, 상기 슈트를 착용하고 모션을 취하는 사람에게나 이를 통해 영상그래픽을 구현하고자 하는 사람에게 바람직하지 않은 결과가 파생될 수도 있다. 이러한 문제점을 해결한 것이 도 14이다.
도 14는 도 13의 상기 파이프관의 구조를 상세히 보여주는 도면이다.
도 14의 (a)(1400)는 상기 전술한 바 있는 파이프관(1300)이 관통축(1310)을 중심축으로 하여 직선왕복운동을 할 때, 비틀림이나 휘어짐을 예방하기 위하여 관통축은 정육면각체의 구조고 있다. 이는 또한, 정확한 궤도만을 따라 왕복운동을 함으로써 신뢰성있는 변위거리를 유지할 수 있다.
도 14의 (b)는 관통축(1310)이 정육면각체의 구조를 가짐에 따라, 정육면각체상에서 원할하게 파이프관(1300)이 움직이기 위해 베어링을 갖춘 구조를 나타내는 단면도이다. 파이프관(1410)은 안과 밖의 구조가 원형이다. 그러나 뒤틀림을 방지하기 위해 정육면각체의 구조를 취하고 있는 관통축(1412)의 3면에 베어링(1411)을 3개 설치하여 비틀림이 없도록 하고 관통축상에서 움직임이 원활히 이루어지도록 한다.
이러한 구조를 취하면 파이프관(1210)은 센서를 부착하고도 원활하게 모션의 움직임에 따라, 관통축(1412)을 중심축으로 정확하게 움직일 수 있다.
상기 파이프관(1210)의 구조를 나타낸 것이 도 14의 (c)이다. 파이프관(1420)은 관통축으로부터의 빠짐을 방지하기 위하여 두 개의 관폭(1421, 1422) 즉, 넓은폭(1422)과 좁은폭(1421)을 가지는 구조를 취한다. 만약, 두 개의 관폭(1421, 1422)이 동일한 관폭으로 이루어지면, 파이프관(1420)은 관통축(1400)을 빠져 나가버릴 것이다. 또한, 상기 파이프관의 좁은폭(1421)의 관폭은 관통축의 지름보다는 약간 크게 만들어진다. 왜냐하면 상기 (b)에서 본 것처럼 베어링이 원할하게 작동하기 위해서 약간의 틈이 필요하기 때문이다.
도 14의 (d)는 상기 파이프관(1420)이 관통축(1400)을 빠져나가지 않도록 관통축의 끝단에 턱을 부착한 관통축의 구조를 보여준다. 상기 관통축에 부착된 턱(1431)은 파이프관(1420)이 관통축을 중심축으로 왕복운동을 할 때, 파이프관(1420)의 좁은폭(1421)의 관폭에 걸리어 관통축이 빠져나가지 않도록 하여서 관통축으로부터의 파이프관(1420)의 빠짐을 방지할 수 있다.
따라서, 상기 전술한 (a) 내지 (b)를 적용하여 보여주는 도면이 도 14의 (e)이다. 그림처럼 관통축(1400)의 턱(1431)이 파이프관(1420)의 좁은폭(1421)의 관폭에 걸리게 된다. 이렇게 되면 관통축이 빠져나가는 위험을 방지할 수 있음으로 슈트를 착용한 대상자는 제한없이 여러 가지 자연스러운 모션을 취할 수 있게 된다.
도 15는 팔꿈치 변화에 의해서 팔꿈치 부위에 부착된 특정 센서가 회전값을 갖게 되는 것을 보여주는 화면예이다.
상기 전술한 바를 토대로 X, Y, Z축을 이루는 3개의 센서가 부착된 팔꿈치를 구부렸을 경우(도 15의 (a)), 센서가 설치된 부위(1500)가 회전하게 된다. 이러한 회전변위량은 센서, 즉 포텐쇼이터의 저항값 변위로 나타나게 되므로 이 값을 컴퓨터로 보내면 컴퓨터(150)는 상기 저항센서를 통하여 측정된 변위량을 토대로 X, Y, Z축의 변동을 계산하여 화면상에 디스플레이 할 수 있게 된다.
도 18은 모션캡쳐 장비에 의해 모션을 캡쳐한 화면을 보여주는 화면예이다.
모션캡쳐의 초기화면을 화면상에 디스플레이하기 위해서 본 발명은 슈트를 착용한 대상자(도 1의 100)의 센서를 구동하기 위한 드라이버와 자체 소프트웨어를 컴퓨터에 설치한다. 또한 컴퓨터시스템의 안정성을 확보하기 위하여 윈도우즈 엔티(Windows NT)를 운영체제로 사용하며, 컴퓨터(150)에는 3D 그래픽을 지원하기 위한 3D 스튜디오 맥스 및 마야 등을 설치하여 3차원 그래픽 소프트웨어를 이용하여 캡쳐 및 편집이 가능하도록 하였고, 자체 소프트웨어는 캡쳐된 모션을 실시간으로 화면상에 디스플레이하면서 표준포맷인 BVH 포맷으로 동시에 저장한다. 이렇게 저장된 BVH포맷은 여러 소프트웨어와 호환가능하여 3D 그래픽 소프트웨어의 대부분에서 시연될 수 있다. 따라서, 슈트를 착용한 대상자가 모션을 취하면 스케레튼(Skeleton)으로 컴퓨터화면상에 동일하게 디스플레이된다.
도 19는 캡쳐한 화면에 편집 및 3차원 그래픽 작업을 행한 후, 캐릭터의 동작을 보여주는 화면예이다.
상기 도 18에서 발생한 표준포맷을 직접 3차원 그래픽 소프트웨어에 적용하거나 아니면 필름박스(FiLMBOX) 등을 통하여 편집이나 수정을 가한 후, 사용한다. 이러한 수정과 편집과정에 의하여 보다 입체적인 캐릭터가 생성되게 된다.
이상, 본 발명을 도면과 실시예를 가지고 설명하였으나, 본 발명은 특정 실시 예에 한정되지는 않으며, 이 기술분야에서 통상의 지식을 가진 자라면, 본 발명의 범위에서 벗어나지 않으면서 많은 수정과 변형이 가능함을 이해할 것이다.
또한, 본 발명의 보호범위는 첨부된 특허 청구범위에 의해 정해져야 할 것이다.
본 발명에 따르면, 종래의 기술에 비해 기계식으로 구동됨으로서 가격이 저렴한 효과가 있다.
또한, 기계식으로 구동됨으로서 제품의 유지보수가 용이하고 성능향상 및 수정 및 변형이 수월한 효과가 있다.
또한, 외부적 환경에 영향을 받지 않고 고품질의 3차원 그래픽을 구현할 수 있는 효과가 있다.

Claims (12)

  1. 피측정 대상자의 관절부위마다 2개 또는 3개씩 설치되되, 이들 상호간에 직교방향으로 배열되어 각각 공간좌표상의 X, Y, Z축의 값을 저항값으로서 출력하는 센서와,
    상기 센서들로부터의 저항값 신호를 디지털 데이터로 변환하는 A/D 컨버터 카드와,
    상기 센서들로부터의 출력신호을 상기 A/D 컨버터 카드에 연결하기 위한 인아웃 박스와,
    상기 대상자의 회전운동과 이동을 감지하기 위한 자이로와,
    상기 자이로를 컨트롤하는 자이로프로세서와,
    상기 인아웃 박스와 자이로 프로세서에 전원을 공급하는 어댑터
    를 포함하는 모션 캡쳐장치.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    관절과 관절 사이에는 한쪽 끝이 한쪽 관절에 고정된 파이프관과, 다른 쪽 관절에 고정되어 있고 상기 파이프관을 관통하는 관통축이 마련되는 것을 특징으로 하는 모션캡쳐 장치.
  5. 제 4 항에 있어서,
    상기 파이프관은 상기 관통축이 작동하기 용이하도록 내측에 3개의 베어링을 가지며, 상기 관통축은 상기 파이프관이 비틀림 없이 직선왕복운동하도록 정육각면체구조를 가지는 것을 특징으로 하는 모션캡쳐 장치.
  6. 제 4 항에 있어서,
    상기 관통축은 끝단에 상기 파이프관이 빠지는 것을 방지하기 위한 턱을 가지고 있는 것을 특징으로 하는 모션캡쳐 장치.
  7. 제 1 항에 있어서,
    상기 센서는 팔꿈치, 발목, 손목, 머리, 무릎에 3개씩 설치되고, 양어깨와 양엉덩이에 각각 2개씩 설치되는 것을 특징으로 하는 모션캡쳐 장치.
  8. 제 1 항에 있어서,
    상기 어댑터는 상기 인아웃 박스에 전원을 공급하기 위한 제 1 전원 어댑터와 상기 자이로 프로세서에 전원을 공급하기 위한 제 2 전원 어댑터인 2개를 특징으로 하는 모션캡쳐 장치.
  9. 모션캡쳐장비인 슈트를 착용한 대상자가 모션을 취함에 따라, 관절부위마다 2개 또는 3개씩 설치되되 이들 상호간에 직교방향으로 배열된 센서에 의해 각 관절의 공간좌표상의 X, Y, Z축의 변위값을 저항값으로서 출력하고, 자이로에 의해 상기 대상자의 회전 및 이동에 따른 변위값을 출력하는 제 1 단계;
    상기 출력된 변위값을 전송받은 A/D컨버터가 상기 신호데이터를 디지털 데이터로 변환하여 컴퓨터 시스템에 전송하는 제 2 단계;
    상기 컴퓨터 시스템에 설치된 모션캡쳐 소프트웨어가 상기 디지털 데이터를 3차원 데이터로 생성하여 상기 컴퓨터의 단말기에 디스플레이하고, 동시에 모션캡쳐의 표준포맷 파일로 저장하는 제 3 단계
    를 포함하여 이루어지는 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법.
  10. 제 9 항에 있어서,
    상기 표준포맷 파일은 상기 사용자에 의해 3차원 소프트웨어에 적용하거나 편집 및 수정을 통하여 모션데이터로 저장되는 제 4 단계;
    상기 모션데이터는 상기 사용자에 의해 3차원 소프트웨어에 적용되어 랜더링작업의 과정을 통하여 비디오파일로 완성되는 제 5 단계를 더 구비하는 것을 특징으로 하는 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법.
  11. 삭제
  12. 삭제
KR10-2000-0065643A 2000-11-06 2000-11-06 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치 KR100415884B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0065643A KR100415884B1 (ko) 2000-11-06 2000-11-06 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0065643A KR100415884B1 (ko) 2000-11-06 2000-11-06 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치

Publications (2)

Publication Number Publication Date
KR20020035386A KR20020035386A (ko) 2002-05-11
KR100415884B1 true KR100415884B1 (ko) 2004-01-24

Family

ID=19697475

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0065643A KR100415884B1 (ko) 2000-11-06 2000-11-06 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치

Country Status (1)

Country Link
KR (1) KR100415884B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080046753A (ko) * 2006-11-23 2008-05-28 연광일 3차원상 모션 트레이싱 장치
KR100955539B1 (ko) * 2008-02-01 2010-04-30 문명철 골프스윙의 자세분석 시스템 및 이를 이용한 자세분석 방법
KR101654156B1 (ko) 2015-06-12 2016-09-05 ㈜리커시브소프트 센서 모듈의 데이터 송수신을 이용한 모션 캡쳐 시스템 및 이를 이용한 모션 캡쳐 방법
KR102094397B1 (ko) 2019-04-19 2020-03-27 (주)코어센스 유니티 프로젝트 내 모션센서 장비를 통한 애니메이션 익스포트 시스템
KR102289695B1 (ko) 2020-02-21 2021-08-13 (주)코어센스 특이점 추출을 통한 휴먼 애니메이션의 모션 데이터 레코딩 방법
KR20210119654A (ko) 2020-03-25 2021-10-06 (주)코어센스 접선 속도 벡터를 이용한 휴먼 모션 구현의 오차 제거 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020072518A (ko) * 2002-08-27 2002-09-16 진영정보통신 주식회사 무선 기계식 모션캡쳐
KR100507780B1 (ko) 2002-12-20 2005-08-17 한국전자통신연구원 고속 마커프리 모션 캡쳐 장치 및 방법
KR20060066261A (ko) * 2004-12-13 2006-06-16 엘지전자 주식회사 이동통신 단말기와 모션캡쳐 센서를 이용한 동작인식 장치및 그 방법
KR100656315B1 (ko) * 2005-01-07 2006-12-13 한국과학기술원 콘솔 게임용 장치
KR100630806B1 (ko) 2005-11-29 2006-10-04 한국전자통신연구원 동작 인식 장치를 이용한 명령 입력 방법
US7869646B2 (en) 2005-12-01 2011-01-11 Electronics And Telecommunications Research Institute Method for estimating three-dimensional position of human joint using sphere projecting technique
US7916143B2 (en) 2006-12-07 2011-03-29 Electronics And Telecommunications Research Institute System and method for producing locomotion animation
KR200445492Y1 (ko) * 2008-01-10 2009-08-04 (주)유알엔디 움직임 동기화 장치
US9864729B1 (en) * 2012-12-21 2018-01-09 Hanking Electronics Ltd. Comprehensive sensor fusion algorithm
KR101865468B1 (ko) 2016-07-27 2018-06-07 건양대학교산학협력단 센서블 슈트 세트를 이용한 원격운동지도 시스템
KR102008235B1 (ko) 2017-10-31 2019-08-07 이화여자대학교 산학협력단 변화된 중력 하에서의 애니메이션 생성 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07185131A (ja) * 1993-12-28 1995-07-25 Konami Kk テレビ遊戯システム
JPH08305473A (ja) * 1995-05-11 1996-11-22 Hitachi Ltd 三次元データ入力システム
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
US5990908A (en) * 1997-09-22 1999-11-23 Lamb & Company Method and apparatus for processing full motion computer animation
US6088042A (en) * 1997-03-31 2000-07-11 Katrix, Inc. Interactive motion data animation system
KR20010089094A (ko) * 2000-03-21 2001-09-29 백수곤 참여자 자신 및 주변환경과 동일한 가상공간 운영 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07185131A (ja) * 1993-12-28 1995-07-25 Konami Kk テレビ遊戯システム
JPH08305473A (ja) * 1995-05-11 1996-11-22 Hitachi Ltd 三次元データ入力システム
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
US6088042A (en) * 1997-03-31 2000-07-11 Katrix, Inc. Interactive motion data animation system
US5990908A (en) * 1997-09-22 1999-11-23 Lamb & Company Method and apparatus for processing full motion computer animation
KR20010089094A (ko) * 2000-03-21 2001-09-29 백수곤 참여자 자신 및 주변환경과 동일한 가상공간 운영 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080046753A (ko) * 2006-11-23 2008-05-28 연광일 3차원상 모션 트레이싱 장치
KR100955539B1 (ko) * 2008-02-01 2010-04-30 문명철 골프스윙의 자세분석 시스템 및 이를 이용한 자세분석 방법
KR101654156B1 (ko) 2015-06-12 2016-09-05 ㈜리커시브소프트 센서 모듈의 데이터 송수신을 이용한 모션 캡쳐 시스템 및 이를 이용한 모션 캡쳐 방법
KR102094397B1 (ko) 2019-04-19 2020-03-27 (주)코어센스 유니티 프로젝트 내 모션센서 장비를 통한 애니메이션 익스포트 시스템
KR102289695B1 (ko) 2020-02-21 2021-08-13 (주)코어센스 특이점 추출을 통한 휴먼 애니메이션의 모션 데이터 레코딩 방법
KR20210119654A (ko) 2020-03-25 2021-10-06 (주)코어센스 접선 속도 벡터를 이용한 휴먼 모션 구현의 오차 제거 방법

Also Published As

Publication number Publication date
KR20020035386A (ko) 2002-05-11

Similar Documents

Publication Publication Date Title
KR100415884B1 (ko) 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치
US8378997B2 (en) Information processing method and device for presenting haptics received from a virtual object
CN106843507B (zh) 一种虚拟现实多人互动的方法及***
JP5414380B2 (ja) 画像処理方法及び画像処理装置
JP2006302034A (ja) 画像処理方法、画像処理装置
KR20140051554A (ko) 관성 센서를 이용한 모션 캡쳐 시스템
JP2004264060A (ja) 姿勢の検出装置における誤差補正方法及びそれを利用した動作計測装置
KR20000017755A (ko) 몸 동작에 대한 데이터 획득 방법
CN109045651B (zh) 高尔夫挥杆矫正***
CN113268141B (zh) 一种基于惯性传感器和织物电子的动作捕获方法及装置
EP3111840A1 (en) Method for detecting ambulatory status and device for detecting ambulatory status
CN108780614A (zh) 运动跟踪和仿真装置和方法
JP2023507241A (ja) 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ
CN112486331A (zh) 基于imu的三维空间手写输入方法和装置
CN206819290U (zh) 一种虚拟现实多人互动的***
US20060134583A1 (en) Simulation and training sphere for receiving persons
JP4667900B2 (ja) 二次元画像からの三次元解析方法とそれを実行するシステム
WO2019083406A1 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
WO2010082157A1 (en) Method for determining the rotation axis of a joint and device for monitoring the movements of at least one body part
JP2011008351A (ja) 画像処理方法及び画像処理装置
JP2006085375A (ja) 画像処理方法、画像処理装置
CN210616536U (zh) 一种基于vr技术的机器人控制装置
CN109997099B (zh) 基于三维磁传感器的手指动作捕捉接口装置
JP2018128739A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、及び記憶媒体
JP2001052202A (ja) 人体動作可視化装置

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130103

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140107

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20160307

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20170104

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20180313

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20190304

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20200205

Year of fee payment: 17