KR102282319B1 - 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법 - Google Patents

상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법 Download PDF

Info

Publication number
KR102282319B1
KR102282319B1 KR1020180148171A KR20180148171A KR102282319B1 KR 102282319 B1 KR102282319 B1 KR 102282319B1 KR 1020180148171 A KR1020180148171 A KR 1020180148171A KR 20180148171 A KR20180148171 A KR 20180148171A KR 102282319 B1 KR102282319 B1 KR 102282319B1
Authority
KR
South Korea
Prior art keywords
motion
human body
information
motion information
angle
Prior art date
Application number
KR1020180148171A
Other languages
English (en)
Other versions
KR20200063378A (ko
Inventor
이창기
원병희
김종현
홍재수
한상규
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020180148171A priority Critical patent/KR102282319B1/ko
Publication of KR20200063378A publication Critical patent/KR20200063378A/ko
Application granted granted Critical
Publication of KR102282319B1 publication Critical patent/KR102282319B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명에 따른 상호 보완형 복합센서를 이용한 인체 동작인식장치는, 인체의 일측 방향에서 인체의 동작을 인식하여 제1동작정보를 획득하는 동작인식센서, 인체의 신체 일부에 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 관성측정센서, 상기 제1동작정보 및 상기 제2동작정보를 동기화하여 동기화정보를 생성하는 동기화모듈 및 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 연산부를 포함한다.

Description

상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법{Gesture Recognition Apparatus for Human Body Using Complementary Complex Sensor and Gesture Recognition Method for Human Body Using the Same}
본 발명은 인체 동작인식장치 및 인체 동작인식방법에 관한 것으로서, 보다 상세하게는 서로 상호 보완적으로 동작정보를 취득하는 복수의 센서를 통해 보다 정확한 인체 동작을 판단할 수 있도록 하는 인체 동작인식장치 및 인체 동작인식방법에 관한 것이다.
최근에는 특정한 컨트롤러, 키보드, 패드 등을 이용한 인터페이스 방식에서 발전하여 센서를 이용한 동작 인식을 통한 인터페이스에 대한 연구 및 개발이 활발하게 이루어지고 있다.
이와 같은 동작 인식 기반 인터페이스는 현재 게임 분야, 의료 분야 등 다양한 산업 분야에서 적용되고 있으며, 인체 동작의 인식 방법 역시 매우 다양화되고 있는 추세이다.
이중 가장 널리 사용되고 있는 동작 인식 방법은 적외선 센서를 통한 인식 방법으로서, 인체로부터 방사되는 적외선 파장을 인식하여 해당 패턴으로부터 인체의 현재 동작을 판단하는 방법이다.
이와 같은 적외선 센서를 통한 동작 인식 방법은 시스템을 구축하기 위한 비용이 저렴하며, 소비전력이 매우 적고, 무소음 측정이 가능하다는 장점이 있으나, 외부 환경에 민감하고 장애물 없이 직선 상에 위치된 대상에 대해서만 동작 인식이 가능하다는 단점이 있다.
따라서 상기와 같은 적외선 센서를 이용한 동작 감지 방식은 동작 감지 대상의 신체 일부가 다른 신체 부위에 의해 가려지거나, 또는 동작 보조자가 존재할 경우 동작 보조자의 신체에 의해 동작 감지 대상의 신체가 가려지는 등과 같은 상황에서는 부정확한 결과가 나타나게 되는 문제가 있었다.
따라서 이와 같은 문제점들을 해결하기 위한 방법이 요구된다.
한국등록특허 제10-1329529호
본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 동작 감지 대상의 신체 일부가 다른 신체 부위, 다른 인체 또는 장애물 등에 의해 가려지더라도 동작 감지 대상에 대한 정확한 동작 인식을 수행할 수 있도록 하기 위한 목적을 가진다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기한 목적을 달성하기 위한 본 발명의 상호 보완형 복합센서를 이용한 인체 동작인식장치는, 인체의 일측 방향에서 인체의 동작을 인식하여 제1동작정보를 획득하는 동작인식센서, 인체의 서로 다른 신체 부위에 복수 개가 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하되, 상기 동작인식센서에 의해 판단이 어려운 부분에 대해서만 상기 제2동작정보를 획득하여 상기 제2동작정보에서 상기 제1동작정보와 중복되는 정보를 담고 있는 데이터를 줄이도록 하는 관성측정센서, 상기 제1동작정보 및 상기 제2동작정보를 동기화하되, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도, 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도를 포함하는 각 신체 부위의 각도 변화 경향을 통해 인체의 동작을 복수의 동작구간으로 분할하여 동기화정보를 생성하는 동기화모듈 및 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 연산부를 포함한다.
삭제
또한 상기 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 오차보정부를 더 포함할 수 있다.
그리고 상기한 목적을 달성하기 위한 본 발명의 상호 보완형 복합센서를 이용한 인체 동작인식방법은, 상호 보완형 복합센서를 이용한 인체 동작인식장치를 통해 수행되는 인체 동작인식방법에 있어서, 인체 일측에 위치된 동작인식센서를 통해 인체의 동작을 감지하여 제1동작정보를 획득하는 (a)단계, 인체의 서로 다른 신체 부위에 복수 개가 부착된 관성측정센서를 통해 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하되, 상기 관성측정센서는 상기 동작인식센서에 의해 판단이 어려운 부분에 대해서만 상기 제2동작정보를 획득하여 상기 제2동작정보에서 상기 제1동작정보와 중복되는 정보를 담고 있는 데이터를 줄이도록 하는 (b)단계, 동기화모듈을 통해 상기 제1동작정보 및 상기 제2동작정보를 동기화하되, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도, 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도를 포함하는 각 신체 부위의 각도 변화 경향을 통해 인체의 동작을 복수의 동작구간으로 분할하여 동기화정보를 생성하는 (c)단계 및 연산부가 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 (d)단계를 포함한다.
삭제
삭제
삭제
삭제
또한 상기 (b)단계 및 상기 (c)단계 사이에는, 오차보정부가 상기 (b)단계에서 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 (ex)단계가 더 포함될 수 있다.
상기한 과제를 해결하기 위한 본 발명의 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법은, 상호 보완적으로 작동하는 동작인식센서 및 관성측정센서를 통해 동작 감지 대상의 신체 일부가 다른 신체 부위, 동작 보조자와 같은 다른 인체 또는 장애물 등에 의해 가려지더라도 동작 감지 대상에 대한 정확한 동작 인식을 수행할 수 있는 장점이 있다.
또한 본 발명은 신체 기능 상태를 판단하기 위해 동작 기반의 평가를 수행하는 재활 임상 영역뿐만 아니라 가정용, 개인용 건강정보를 포함한 서비스 분야에도 적용이 가능하다는 장점이 있다.
그리고 이에 따라 측정 신뢰성이 확보된 동일한 기준으로 대상자의 신체 기능 상태를 정량적으로 평가할 수 있으며, 평가 과정의 움직임을 측정 및 분석하여 기존의 아날로그 평가에 비해 신체 기능 상태를 상세히 분석할 수 있는 장점이 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 인체 동작인식장치에 있어서, 동작인식센서 및 관성측정센서의 구비 형태를 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 인체 동작인식장치의 각 구성요소를 개략적으로 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 인체 동작인식방법의 각 단계를 나타낸 도면; 및
도 4 및 도 5는 본 발명의 일 실시예에 따른 인체 동작인식방법에 있어서, 인체의 초기 자세로부터 최후 자세까지의 변화 과정을 복수의 동작구간으로 분할하여 인체의 최종 동작을 판단하는 과정을 나타낸 도면이다.
이하 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 인체 동작인식장치에 있어서, 동작인식센서 및 관성측정센서의 구비 형태를 나타낸 도면이며, 도 2는 본 발명의 일 실시예에 따른 인체 동작인식장치의 각 구성요소를 개략적으로 나타낸 도면이다.
도 1 및 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인체 동작인식장치는 동작인식센서(10)와, 관성측정센서(20)와, 오차보정부(30)와, 동기화모듈(40)과, 연산부(50)를 포함한다.
상기 동작인식센서(10)는 인체(P)의 일측 방향에서 인체(P)의 동작을 인식하여 제1동작정보를 획득하는 구성요소이며, 상기 동작인식센서(10)는 다양한 방식으로 인체(P)의 동작을 감지할 수 있다.
예컨대 상기 동작인식센서(10)는 적외선센서, 카메라모듈, 초음파센서 등 다양한 형태의 동작인식 모듈 중 적어도 어느 하나 이상이 조합되어 인체(P)의 동작을 감지할 수 있으며, 이외에도 다양한 동작인식 모듈 중 어느 하나 이상이 더 포함될 수 있음은 물론이다.
상기 관성측정센서(20, Inertial Measurement Unit, IMU)는 인체(P)의 신체 일부에 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 구성요소이다. 이와 같은 관성측정센서(20)는 상기 동작인식센서(10)를 보조하여 인체(P)의 동작을 인식할 수 있도록 한다.
상기 동작인식센서(10)는 장애물 없이 직선 상에 위치된 대상에 대해서만 동작 인식이 가능한 특성을 가지므로, 상기 동작인식센서(10)를 통한 동작 감지 방식은 동작 감지 대상이 되는 인체(P)의 신체 일부가 다른 신체 부위에 의해 가려지거나, 또는 대상자를 보조하기 위한 동작 보조자가 인접하여 존재할 경우 동작 보조자의 신체에 의해 동작 감지 대상의 신체가 가려지는 등과 같은 상황에서는 부정확한 결과가 나타나게 될 수 있다. 따라서 본 발명은 상기 관성측정센서(20)를 통해 상기 동작인식센서(10)의 기능을 보완하게 된다.
즉 상기 동작인식센서(10)는 인체(P)의 동작을 구분하고 관절 간의 움직임 상태를 파악하며, 상기 관성측정센서(20)는 부착 위치에 대한 중력 기반의 각도를 측정하여 상호 보완적인 역할을 수행할 수 있다.
그리고 상기 관성측정센서(20)는 인체(P)의 특정 신체 부위에 장착이 가능한 웨어러블 형태로 형성될 수 있으며, 인체(P)의 다양한 신체 부위에 제한 없이 장착될 수 있다.
상기 오차보정부(30)는 상기 관성측정센서(20)가 인체(P)의 서로 다른 신체 부위에 복수 개가 구비될 경우, 상기 복수의 관성측정센서(20-1~20-n)로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 구성요소이다.
상기 관성측정센서(20)를 여러 개 사용할 경우, 반복되는 동작 측정시 각 관성측정센서(20) 간의 각도를 구하는데 있어서 오차가 지속적으로 누적되어 정확한 값을 계산하지 못할 수 있기 때문에, 상기 오차보정부(30)는 이와 같은 정보 누적 과정에서 발생하는 오차를 보정하게 된다.
상기 동기화모듈(40)은 상기 동작인식센서(10)를 통해 획득한 상기 제1동작정보 및 상기 관성측정센서(20)를 통해 획득한 상기 제2동작정보를 동기화하여 동기화정보를 생성한다. 이는 상기 제1동작정보와 상기 제2동작정보를 서로 호환 가능한 데이터로서 처리할 수 있도록 하기 위함이다.
그리고 상기 연산부(50)는 상기 동기화모듈(40)에 의해 동기화된 상기 동기화정보를 기반으로 하여 인체(P)의 최종 동작을 판단하는 구성요소이다.
이상과 같이, 본 발명은 상호 보완적으로 작동하는 동작인식센서(10) 및 관성측정센서(20)를 통해 동작 감지 대상이 되는 인체(P)의 신체 일부가 다른 신체 부위, 동작 보조자와 같은 다른 인체 또는 장애물 등에 의해 가려지더라도 동작 감지 대상에 대한 정확한 동작 인식을 수행할 수 있는 장점이 있다.
또한 측정 신뢰성이 확보된 동일한 기준으로 대상자의 신체 기능 상태를 정량적으로 평가할 수 있으며, 평가 과정의 움직임을 측정 및 분석하여 기존의 아날로그 평가에 비해 신체 기능 상태를 상세히 분석할 수 있다.
이하에서는, 상기와 같은 인체 동작인식장치를 통한 인체 동작인식방법에 대해 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 인체 동작인식방법의 각 단계를 나타낸 도면이다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인체 동작인식방법은 인체(P) 일측에 위치된 동작인식센서(10)를 통해 인체(P)의 동작을 감지하여 제1동작정보를 획득하는 (a)단계와, 인체(P)의 신체 일부에 부착된 하나 이상의 관성측정센서(20)를 통해 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하는 (b)단계와, 동기화모듈(40)을 통해 상기 제1동작정보 및 상기 제2동작정보를 동기화하는 (c)단계와, 연산부(50)가 상기 동기화정보를 기반으로 하여 인체(P)의 최종 동작을 판단하는 (d)단계를 포함한다.
그리고 상기 관성측정센서(20)가 인체(P)의 서로 다른 신체 부위에 복수 개가 구비될 경우, 상기 (b)단계 및 상기 (c)단계 사이에는, 오차보정부(30)가 상기 (b)단계에서 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 (ex)단계가 더 포함될 수 있다.
이와 같은 본 발명의 각 단계 중 상기 (b)단계는, 상기 동작인식센서(10)의 센싱 범위를 벗어나 있는 신체 부위에 대해 상기 제2동작정보를 획득하는 것으로 할 수 있다.
즉 상기 (b)단계에서는 상기 동작인식센서(10)에 의해 판단이 어려운 부분에 대해서만 상기 제2동작정보를 획득하고, 이를 제1동작정보의 보완적 정보로서 활용할 수 있다. 이와 같이 하는 이유는, 제2동작정보에서 상기 제1동작정보와 중복되는 정보를 담고 있는 데이터를 줄여 전체 데이터량을 최소화하기 위한 것이다. 다만, 상기 제1동작정보의 센싱 범위와 관계 없이 상기 제2동작정보를 인체(P)의 전체 부위로부터 획득하도록 설정할 수 있는 것은 물론이다.
또한 본 실시예에서 상기 (c)단계는, 인체(P)의 초기 자세로부터 최후 자세까지의 변화 과정을 복수의 동작구간으로 분할하여 동기화를 수행하는 것으로 할 수 있다.
예컨대, 도 4에 도시된 바와 같이 대상이 되는 인체(P)가 의자 등에 앉아 있는 상태로부터 기립하는 과정까지를 동작의 특성에 따라 구분하게 되면, 초기 자세 이후 최후 자세까지 총 4개의 동작구간으로 분할이 가능하다.
또한 이와 같은 각 동작구간의 분할 기준이 되는 것은 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk), 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa)가 될 수 있다.
즉 본 발명은 인체(P)의 특정 동작을 각 신체 부위의 각도 변화 경향을 통해 복수의 동작구간으로 분할할 수 있다.
구체적으로 도 4에 도시된 바와 같이 대상자의 인체(P)가 의자에 앉아 있는 초기 상태의 경우, 앉은 자세에서 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk)는 90°와 근사한 값을 가진다. 또한 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa)는 0°인 상태이다.
그리고 대상자가 일어나기 위해 지면을 밟아 힘을 가하는 제1동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh) 및 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk)가 90°보다 증가하는 경향을 보이며, 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa) 역시 증가하여 0°이상의 각도를 가지도록 변화한다.
다음으로, 대상자가 의자로부터 엉덩이를 이탈시켜 균형을 잡는 과정인 제2동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh) 및 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk)가 제2동작구간보다 점차 감소하는 경향을 보이게 된다.
그리고 대상자가 신체를 기립시키는 과정인 제3동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk) 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa) 모두가 0°를 향해 감소하는 경향을 보인다.
이후 대상자가 신체를 완전히 기립시키기까지의 과정인 제4동작구간에서는, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도(θh), 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도(θk) 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도(θa) 모두가 0°를 이루게 되며, 대상자의 동작이 종료된다.
이와 같은 전체 과정 중 신체 부위 별 각도 변화를 측정하여 해당 데이터를 연속적으로 나열할 경우, 도 5에 도시된 그래프로서 표현될 수 있다.
즉 본 발명은 이와 같은 각 동작구간을 동작인식센서(10) 및 관성측정센서(20)를 통해 실시간으로 획득하고, 복수의 동작 구간 별로 서로 인접한 관절 사이의 신체 부위에 대한 중력 기반 각도를 추출하고, 복수의 동작 구간 간의 연속성을 통해 인체의 최종 동작을 판단할 수 있다.
또한 현재 대상자의 동작이 어느 동작구간에 포함되어 있는지 또는 이와 같은 동작을 몇 회 시도하였는지 등의 여부 역시 파악이 가능하게 된다.
그리고 상기 (d)단계는, 복수의 동작 구간으로 분할된 상기 동기화정보를 기 저장된 기준정보와 대비하여 인체의 최종 동작을 판단할 수도 있다. 즉 상기 동기화정보의 패턴이 기준정보 패턴의 오차 범위 내에 들어올 경우, 대상자가 해당 동작을 수행한 것으로 판단하게 된다.
이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.
10: 동작인식센서
20: 관성측정센서
30: 오차보정부
40: 동기화모듈
50: 연산부

Claims (9)

  1. 인체의 일측 방향에서 인체의 동작을 인식하여 제1동작정보를 획득하는 동작인식센서;
    인체의 서로 다른 신체 부위에 복수 개가 부착되며, 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하되, 상기 동작인식센서의 센싱 범위를 벗어나 있는 신체 부위에 대해 상기 제2동작정보를 획득하여 상기 제2동작정보에서 상기 제1동작정보와 중복되는 정보를 담고 있는 데이터를 줄이도록 하여 전체 데이터량을 최소화하도록 하는 관성측정센서;
    상기 제1동작정보 및 상기 제2동작정보를 동기화하되, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도, 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도를 포함하는 각 신체 부위의 각도 변화 경향을 통해 인체의 동작을 복수의 동작구간으로 분할하여 동기화정보를 생성하는 동기화모듈; 및
    상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 연산부;
    를 포함하는 상호 보완형 복합센서를 이용한 인체 동작인식장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 오차보정부를 더 포함하는 상호 보완형 복합센서를 이용한 인체 동작인식장치.
  4. 제1항 또는 제3항 중 어느 한 항의 상호 보완형 복합센서를 이용한 인체 동작인식장치를 통해 수행되는 인체 동작인식방법에 있어서,
    인체 일측에 위치된 동작인식센서를 통해 인체의 동작을 감지하여 제1동작정보를 획득하는 (a)단계;
    인체의 서로 다른 신체 부위에 복수 개가 부착된 관성측정센서를 통해 부착 위치에 대한 중력 기반 각도를 측정하여 제2동작정보를 획득하되, 상기 관성측정센서는 상기 동작인식센서의 센싱 범위를 벗어나 있는 신체 부위에 대해 상기 제2동작정보를 획득하여 상기 제2동작정보에서 상기 제1동작정보와 중복되는 정보를 담고 있는 데이터를 줄이도록 하여 전체 데이터량을 최소화하도록 하는 (b)단계;
    동기화모듈을 통해 상기 제1동작정보 및 상기 제2동작정보를 동기화하되, 엉덩 관절의 움직임에 따른 상체의 연장선에 대한 대퇴부의 각도, 무릎 관절의 움직임에 따른 대퇴부의 연장선에 대한 하퇴부의 각도 및 발목 관절의 움직임에 따른 중력 방향에 대한 하퇴부의 각도를 포함하는 각 신체 부위의 각도 변화 경향을 통해 인체의 동작을 복수의 동작구간으로 분할하여 동기화정보를 생성하는 (c)단계; 및
    연산부가 상기 동기화정보를 기반으로 하여 인체의 최종 동작을 판단하는 (d)단계;
    를 포함하는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제4항에 있어서,
    상기 (b)단계 및 상기 (c)단계 사이에는,
    오차보정부가 상기 (b)단계에서 복수의 관성측정센서로부터 획득한 복수의 제2동작정보를 취합하여 오차를 보정하는 (ex)단계가 더 포함되는 상호 보완형 복합센서를 이용한 인체 동작인식방법.
KR1020180148171A 2018-11-27 2018-11-27 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법 KR102282319B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180148171A KR102282319B1 (ko) 2018-11-27 2018-11-27 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180148171A KR102282319B1 (ko) 2018-11-27 2018-11-27 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법

Publications (2)

Publication Number Publication Date
KR20200063378A KR20200063378A (ko) 2020-06-05
KR102282319B1 true KR102282319B1 (ko) 2021-07-29

Family

ID=71089295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180148171A KR102282319B1 (ko) 2018-11-27 2018-11-27 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법

Country Status (1)

Country Link
KR (1) KR102282319B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013879A1 (en) * 2021-08-03 2023-02-09 Samsung Electronics Co., Ltd. A method and system for tracking at least one action of the user(s) for overcoming occlusion

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040140962A1 (en) * 2003-01-21 2004-07-22 Microsoft Corporation Inertial sensors integration
KR20120028416A (ko) * 2010-09-14 2012-03-23 삼성전자주식회사 통합 움직임 감지 장치
KR101329529B1 (ko) 2012-06-27 2013-11-14 주식회사 나무가 동작인식 모듈 및 동작인식 시스템
KR101775581B1 (ko) * 2015-02-09 2017-09-06 주식회사 골프존 사용자 운동 동작 분석 정보 제공을 위한 데이터 처리방법 및 이를 이용한 사용자 운동 동작 분석장치와, 사용자 골프 스윙 분석정보 제공을 위한 데이터 처리방법 및 이를 이용한 골프 스윙 분석 장치
KR102201649B1 (ko) * 2016-07-28 2021-01-12 한국전자통신연구원 분산 융합 필터 기반 자세 인식 장치 및 방법

Also Published As

Publication number Publication date
KR20200063378A (ko) 2020-06-05

Similar Documents

Publication Publication Date Title
Auvinet et al. Detection of gait cycles in treadmill walking using a Kinect
EP3205269B1 (en) System and method for analyzing gait and postural balance of a person
Mentiplay et al. Gait assessment using the Microsoft Xbox One Kinect: Concurrent validity and inter-day reliability of spatiotemporal and kinematic variables
JP6482103B2 (ja) 測定装置及び測定方法
US9524424B2 (en) Calculation of minimum ground clearance using body worn sensors
KR102285632B1 (ko) 보행패턴을 이용한 건강이상감지 시스템 및 방법
Auvinet et al. Validity and sensitivity of the longitudinal asymmetry index to detect gait asymmetry using Microsoft Kinect data
Guffanti et al. Non-invasive multi-camera gait analysis system and its application to gender classification
Baldewijns et al. Validation of the kinect for gait analysis using the GAITRite walkway
Horenstein et al. Validation of magneto-inertial measuring units for measuring hip joint angles
Martins et al. Legs tracking for walker-rehabilitation purposes
US20210121100A1 (en) Biometric system and method
US20200375503A1 (en) Lower limb muscle strength evaluation method, non-transitory computer-readable recording medium storing lower limb muscle strength evaluation program, lower limb muscle strength evaluation device, and lower limb muscle strength evaluation system
KR101696909B1 (ko) 보행 단계 인식 시스템
KR102282319B1 (ko) 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법
Teruyama et al. Effectiveness of Variable‐Gain Kalman Filter Based on Angle Error Calculated from Acceleration Signals in Lower Limb Angle Measurement with Inertial Sensors
Shukla et al. A comparison of four approaches to evaluate the sit-to-stand movement
Yorozu et al. Development of gait measurement robot using laser range sensor for evaluating long-distance walking ability in the elderly
Diaz-Monterrosas et al. A brief review on the validity and reliability of Microsoft Kinect sensors for functional assessment applications
Ngamsuriyaroj et al. Walking gait measurement and analysis via knee angle movement and foot plantar pressures
KR20160035497A (ko) 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템
KR101716479B1 (ko) 보행 불균형 측정 방법 및 시스템
Eguchi et al. Kinetic and spatiotemporal gait analysis system using instrumented insoles and laser range sensor
Eguchi et al. Spatiotemporal and kinetic gait analysis system based on multisensor fusion of laser range sensor and instrumented insoles
Srivises et al. Design of a smart shoe for reliable gait analysis using fuzzy logic

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant