KR20070025138A - 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법 - Google Patents

공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법 Download PDF

Info

Publication number
KR20070025138A
KR20070025138A KR1020050080941A KR20050080941A KR20070025138A KR 20070025138 A KR20070025138 A KR 20070025138A KR 1020050080941 A KR1020050080941 A KR 1020050080941A KR 20050080941 A KR20050080941 A KR 20050080941A KR 20070025138 A KR20070025138 A KR 20070025138A
Authority
KR
South Korea
Prior art keywords
image
motion
screen
recognition
dimensional
Prior art date
Application number
KR1020050080941A
Other languages
English (en)
Inventor
노성렬
Original Assignee
노성렬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노성렬 filed Critical 노성렬
Priority to KR1020050080941A priority Critical patent/KR20070025138A/ko
Publication of KR20070025138A publication Critical patent/KR20070025138A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템에 관한 것으로 특히, 특정의 의미를 갖는 다양한 동작에 대한 기준 3차원 이미지들을 설정하는 제 1과정과; 임의의 X-Y-Z 공간좌표 상에서 X-Y 공간좌표에 대한 영상 취득하는 제 2과정과; 상기 제 2과정에서 영상을 취득하는 공간과 동일한 X-Y-Z 공간좌표 상에서 Y-Z 공간좌표에 대한 영상데이터를 취득하는 제 3과정과; 상기 제 1과정과 제 2과정을 통해 취득되어진 영상 데이터를 취합하여 3차원 이미지로 인식 변환하는 제 4과정과; 상기 제 4과정에서 취득되어진 3차원 이미지를 상기 제 1과정에서 설정되어져 있는 이미지들과 비교하여 상기 제 4과정에서 취득되어진 3차원 이미지의 의미를 판독하는 제 5과정; 및 상기 제 5과정을 통해 판독되어진 의미에 대응하는 컴퓨터 제어 명령신호를 생성하는 제 6과정을 포함하는 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 방법 및 그 시스템을 제공함으로써, 마우스, 키보드 등과 같은 범용의 입력 장치 혹은 장갑타입의 특정의 입력 장치가 없이도 컴퓨터 시스템이 인식할 수 있는 신호(Click, Drag, Scroll, Next, etc)를 생성하고 이를 컴퓨터 인식할 수 있도록 할수 있으며 터치스크린과 같은 직선적 혹은 평면적 입출력장치의 한계를 벗어나 3차원 공간에서의 움직임을 인식함에 따라 매우 다양한 사용자 요청에 부응할 수 있다.
3차원 이미지, 후면영상투사, 카메라

Description

공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템 및 그 방법{THE SPACE PROJECTION PRESENTATION SYSTEM AND THE SAME METHOD}
도 1은 본 발명에 따른 3차원 동작인식을 통한 후면투사형 영상투사장치를 구비한 공간투영 프리젠테이션 시스템의 구성 예시도,
도 2 내지 도 4는 본 발명에 따른 프리젠테이션 제어명령 입력을 위한 손동작의 예시도.
<도면의 주요부분에 대한 부호의 설명>
IC1: 제1 카메라 IC2: 제2 카메라
110: 3차원 이미지 생성부 120: 움직임 인식부
130: 모션 인식부 140: 모션/움직임 판독부
150: 명령인식부 210: 디스플레이 구동부
220: 컴퓨터구동모듈 230: 인터넷 인터페이스
S: 스크린 RP: 프로젝터
본 발명은 후면투사형 영상투사장치를 구비한 공간투영 프리젠테이션 시스템 및 그 방법에 관한 것으로 특히, 사용자의 손동작을 3차원 데이터로 인식하고 이를 기준으로 기 설정된 시스템 운영에 따른 손동작 데이터를 기준으로 해당 명령에 따른 동작을 수행하도록 하는 공간상에서의 3차원 동작인식을 통한 공간투영 프리젠테이션 시스템 및 그 방법에 관한 것이다.
최근 들어, 디스플레이 장치의 대형화 및 고화질화의 요구가 증가됨에 따라 소형의 영상을 투사렌즈를 이용하여 확대 투사하는 영상투사장치가 급속히 확산되고 있다. 이러한, 영상투사장치는 투사 방식에 따라 크게 전면영상투사(Front Projection)장치 및 후면영상투사(Rear Projection)장치로 구분된다.
전면영상투사장치는 스크린의 전면에서 영상신호를 투사하는 방식을 사용하며, 극장, 회의실 등에서 일반적으로 이용된다. 반면, 후면영상투사장치는 스크린의 후면에서 영상신호를 투사하는 방식을 사용한다.
이러한 후면영상투사장치는 프로젝션 TV의 형태로 보편화되어 있다. 특히, 후면영상투사장치는 주위 환경이 밝은 곳에서도 비교적 밝은 영상을 표시할 수 있으므로 전면영상투사장치에 비해 더욱 많이 이용되고 있다.
이와 같은 사용자들의 욕구와 더불어 전자통신기술의 눈부신 발전을 통해 유비쿼터스 기반의 통신시스템이 점차 보급되고 있는 실정이다.
유비쿼터스는 라틴어에서 유래한 용어로, ‘언제 어디서나 동시에 존재 한다’라는 뜻으로서, 물이나 공기처럼 도처에 편재한 자연상태를 의미한다. 이 용어가 정보화 사회와 결합되면서, 유비쿼터스 컴퓨팅, 유비쿼터스 네트워크라는 용어가 출현하게 되었다.
이때 유비쿼터스 네트워크는 사용자가 컴퓨터나 네트워크를 인지하지 않은 상태에서 장소에 구애받지 않고 자유롭게 네트워크에 접속할 수 있는 것으로서, 컵, 화분, 자동차, 벽, 교실이나 사람들이 지니고 다니는 옷, 안경, 신발, 시계 등 모든 물건에 다양한 기능을 갖는 컴퓨터 장치를 심고 이들을 근거리 무선통신과 인터넷 인프라에 의해 네트워크로 연결하는 것이다.
따라서 통상적으로 영상투사장치를 사용하는 장소가 공공장소이거나 혹은 특정 메시지를 불특정 다수에게 알리는 경우, 사용자가 운영자에 의해 제공되는 정보데이터를 운영자에 의해 지정된 순서에 입각하여 순차적으로 인식하는 것이 아니라 사용자가 적극적으로 사용자 자신이 희망하는 자료를 빠르게 검색하고 이를 인식하고자 하는 경우 사용자의 요청을 컴퓨터 시스템이 인식하기 위한 통상의 입력 장치(키보드, 마우스)등을 설치하기가 곤란하다.
이는 통상적으로 영상투사장치의 본체와 스크린간의 거리가 상당한 거리를 유지하여야 하는 경우가 대부분이므로, 통상의 입력 장치를 연결하기가 용이하지 않으며 더욱이 공간상의 제약을 받는 경우는 이를 설치하기가 더욱 용이하지 않기 때문이다.
이러한 문제점을 해소하기 위해 근래 많이 사용되고 있는 표시수단과 입력수 단이 하나로 일체화되어 있는 터치스크린 등을 사용 할 수도 있겠으나 터치스크린의 특성상 대화면의 디스플레이 영역의 형성이 용이하지 않으며, 더욱이 터치스크린의 경우 클릭(click)은 쉽게 인식이 가능하지만 그 외의 동작에 대한 인식률이 낮기 때문에 대화면을 형성하는 경우 사용자가 정보의 검색 및 운영에 어려움이 따르며, 유지보수적인 차원에서도 사용자가 직접 스크린을 터치할 수 있어야 함에 따라 많은 문제점이 발생되었다.
그 외 종래 키보드 혹은 마우스등과 같은 통상적인 입력 장치의 개념을 벗어나고자 하는 연구로 개발되어진 장갑형 입력 장치 등을 적용 할 수도 있겠으나 이 또한 유지보수적인 측면에서는 많은 문제점을 발생시키게 된다.
상술한 문제점을 해소하기 위한 본 발명의 목적은 후면투사형 영상투사장치를 구비한 공간투영 프리젠테이션 시스템에 관한 것으로 특히, 사용자의 손동작을 3차원 데이터로 인식하고 이를 기준으로 기 설정된 시스템 운영에 따른 손동작 데이터를 기준으로 해당 명령에 따른 동작을 수행하도록 하는 공간상에서의 3차원 동작인식을 통한 공간투영 프리젠테이션 시스템 및 그 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 방법의 특징은, 특정의 의미를 갖는 다양한 동작에 대한 기준 3차원 이미지들을 설정하는 제 1과정과; 임의의 X-Y-Z 공간좌표 상에서 X-Y 공간좌표에 대한 영상데이터를 취득하는 제 2과정과; 상기 제 2 과정에서 영상을 취득하는 공간과 동일한 X-Y-Z 공간좌표 상에서 Y-Z 공간좌표에 대한 영상데이터를 취득하는 제 3과정과; 상기 제 1과정과 제 2과정을 통해 취득되어진 영상 데이터를 취합하여 3차원 이미지로 인식 변환하는 제 4과정과; 상기 제 4과정에서 취득되어진 3차원 이미지를 상기 제 1과정에서 설정되어져 있는 이미지들과 비교하여 상기 제 4과정에서 취득되어진 3차원 이미지의 의미를 판독하는 제 5과정; 및 상기 제 5과정을 통해 판독되어진 의미에 대응하는 컴퓨터 제어 명령신호를 생성하는 제 6과정을 포함하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 방법의 부가적인 특징은, 상기 제 3과정은 제 2과정과 동일 시점에 동시에 이루어지는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템의 특징은, 유리소재의 일정 영역을 갖는 스크린과, 상기 스크린의 후면에 일정 이격거리를 두고 위치하며 입력되는 데이터에 따라 상기 스크린에 해당 영상을 투영하는 프로젝터, 및 상기 프로젝터의 운영을 담당하는 컴퓨터를 구비한 후면투사형 영상투사 시스템에 있어서: 상기 스크린의 상단 양측에 위치하며 상기 스크린의 전방 일정영역의 영상을 촬상하여 이미지로 취득하는 제1, 제2 카메라와; 상기 제1, 제2 카메라에서 취득되어진 영상신호를 입력받아 3차원 이미지를 생성하는 3차원 이미지 생성부와; 상기 3차원 이미지 생성부에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라를 통해 취득되어진 영상신호 상의 물체가 취한 행동과 움직임을 인식하여 기 설정된 시스템 운영제어 요청에 따른 손동작 데이터들과 비교하여 그에 따른 의미 있는 행동인가를 판독 인식하는 3차원 이미지 인식판단부; 및 상기 3차원 이미지 인식판단부에서 인식되어진 결과가 시스템 운영에 따른 사용자 요청동작이라고 판단되면 그에 따라 인식결과에 대한 신호를 입력받아 상기 컴퓨터가 인식할 수 있는 입력신호로 변환하여 상기 컴퓨터측으로 전달하는 명령신호 생성수단을 포함하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템의 부가적인 특징은, 상기 3차원 이미지 인식판단부는 상기 3차원 이미지 생성부에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라에서 취득되어진 이미지의 움직임에 따른 상기 스크린상의 좌표 및 벡터 등의 데이터를 산출하는 움직임 인식부와; 상기 3차원 이미지 생성부에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라에서 취득되어진 이미지의 형상을 인식하는 모션 인식부; 및 상기 움직임 인식부와 모션 인식부에서 처리되어 인식되어진 데이터를 입력받아 기 설정된 시스템 운영에 따른 손동작 이미지와 비교하여 그에 따른 의미 있는 행동인가를 판독 인식하는 모션/움직임 판독부을 포함하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템의 부가적인 다른 특징은, 상기 3차원 이미지 생성부와 이미지 인식판단부 및 명령신호 생성수단은 상기 컴퓨터에 내장되는 데 있다.
본 발명의 상술한 목적과 여러 가지 장점은 이 기술 분야에 숙련된 사람들에 의해, 첨부된 도면을 참조하여 후술되는 본 발명의 바람직한 실시 예로부터 더욱 명확하게 될 것이다.
이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다.
첨부한 도 1은 본 발명에 따른 3차원 동작인식을 통한 후면투사형 영상투사장치를 구비한 공간투영 프리젠테이션 시스템의 구성 예시도로서, 유리소재의 일정 영역을 갖는 스크린(S)과, 상기 스크린(S)의 후면에 일정 이격거리(예를 들어 2M)를 두고 위치하며 입력되는 데이터에 따라 상기 스크린(S)에 해당 영상을 투영하는 프로젝터(RP)와, 상기 스크린(S)의 상단 양측에 위치하며 상기 스크린(S)의 전방 일정영역의 영상을 촬상하여 이미지로 취득하는 제1, 제2 카메라(camera: IC1, IC2)와, 상기 제1, 제2 카메라(IC1, IC2)에서 취득되어진 신호(촬영신호1, 촬영신호2)를 입력받아 3차원 이미지를 생성하는 3차원 이미지 생성부(110)와, 상기 3차원 이미지 생성부(110)에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라(IC1, IC2)에서 취득되어진 신호 상의 물체(사용자의 손)의 움직임에 따른 스크린상의 좌표 및 벡터 등의 데이터를 산출하는 움직임 인식부(120)와, 상기 3차원 이미지 생성부(110)에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라(IC1, IC2)에서 취득되어진 신호 상의 물체(사용자의 손)의 형상(모션)을 인식하는 모션 인식부(130)와, 상기 움직임 인식부(120)와 모션 인식부(130)에서 처리되어 인식되어진 데이터를 입력받아 기 설정된 시스템 운영에 따른 손동작 입력과 비교하여 그에 따른 의미있는 행동인가를 판독 인식하는 모션/움직임 판독부(140)와, 상기 모션/움직임 판독부(140)에서 인식되어진 결과가 시스템 운영에 따른 사용자 요청동작이라고 판단되면 그에 따라 인식결과에 대한 신호를 입력받아 컴퓨터 시스템이 인식할 수 있는 신호(Click, Drag, Scroll, Next, etc)로 변환하여 출력하는 명령인식부(150)와, 상기 명령인식부(150)에서 출력되는 명령에 의해 운영되는 컴퓨터구동모듈(220)과, 상기 컴퓨터 구동모듈(220)의 동작에 의해 상기 프로젝터(RP)를 통해 투영되는 화상의 데이터를 변경하는 디스플레이 구동부(210), 및 상기 컴퓨터구동모듈(220)과 인터넷을 연결하는 인터넷 인터페이스(230)로 구성되어 진다.
상기 구성 중 참조번호 110 내지 150으로 지칭되는 구성은 사용자의 움직임을 인식하고 이를 컴퓨터가 인식할 수 있는 명령으로 전환하도록 하는 부분의 구성이며, 참조번호 210 내지 230으로 지칭되는 구성은 통상의 컴퓨터 시스템의 구성을 간략화한 것이다.
또한, 상기 구성 중 참조번호 110 내지 150으로 지칭되는 구성과 참조번호 210 내지 230으로 지칭되는 구성은 통상의 컴퓨터 시스템에 내장되어 일체로 구현될 수도 있음을 밝혀둔다.
도 2 내지 도 4는 본 발명에 따른 컴퓨터 제어명령 입력을 위한 손동작의 예로서, “Click” 혹은 “Drag” 혹은 “Scroll”을 사용자가 요청하는 경우 첨부한 도 2에 도시되어 있는 바와 같이 무엇을 가르키는 듯한 모션을 취하게 되는데, 이때 X-Y-Z 3차원 공간상에서 첨부한 도 2에 도시되어 있는 듯한 손 모양을 취한 사 용자가 움직임 벡터가 스크린면과 직교하는 방향으로 움직이면 이것을“Click”이라 정의할 수 있다.
따라서 “Drag” 혹은 “Scroll” 역시 이와 유사하게 정의한다.
또한 첨부한 도 3에 도시되어 있는 바와 같이 손을 가지런히 편 상태에서 손등과 손바닥이 교차하면 페이지 넘김이라 정의 할 수 있으며, 첨부한 도 4와 같이 주먹을 쥐게 되면 정지로 정의할 수 있다.
그러므로 본 발명에서는 특정의 의미를 갖는 다양한 동작에 대한 기준 3차원 이미지들과 그에 따른 움직임을 설정하여 놓은 것을 전제로 동작되어지는 것이며, 첨부한 도 2내지 도 4에 도시되어진 손 모양에 국한되지 않음을 미리 밝혀둔다.
또한, 본 발명의 설명은 그 설명을 용이하게 하기 위해 제안적인 예를들어 설명하는 것이므로 이에 국한되지 않음도 미리 밝혀둔다.
첨부한 도 1 내지 도 4를 참조하여 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템의 동작을 살펴보기로 한다.
유리소재의 일정 영역을 갖는 스크린(S)상에 임의의 정보가 디스플레이되고 있는 상황에서 임의의 사용자가 스크린(S) 전면에 위치하게 되면 상기 스크린(S)의 상단 양측에 위치하는 제1, 제2 카메라(camera: IC1, IC2)에서는 사용자의 체온을 감지하여 그에 따른 영상 이미지를 취득하게 된다.
이때 사용자가 위치하는 스크린(S) 전면의 공간을 X-Y-Z 공간좌표로 표시하면 제1 카메라(IC1)는 Y-Z 공간좌표에 대한 이미지를 취득하게 되며, 제2 카메라(IC2)는 X-Y 공간좌표에 대한 이미지를 취득하게 된다.
이때 사용자가 첨부한 도 4에 도시되어 있는 바와 같이 주먹을 쥐었다고 가정하자.
상기 제1, 제2 카메라(IC1, IC2)에서 취득되어진 신호(촬영신호1, 촬영신호2)를 입력받은 3차원 이미지 생성부(110)에서는 제1, 제2 카메라(IC1, IC2)에서 취득되어진 신호를 조합하여 X-Y-Z 공간좌표상의 사용자와 손모양에 대한 3D 이미지를 형성하게 된다.
이후, 상기 3차원 이미지 생성부(110)에서 생성되어진 3차원 이미지 데이터는 움직임 인식부(120)와 모션 인식부(130)측에 공급되는 데, 상기 모션 인식부(130)는 전체 영상이미지에서 사용자의 손에 대한 형상(모션)에 대한 이미지만을 인식하게 된다.
또한, 상기 움직임 인식부(120) 역시 사용자의 손이 위치하는 X-Y-Z 공간좌표의 값과 그에 따른 스크린(S) 대응영역 및 손의 움직임에 대한 벡터값, 즉 사용자의 손 이미지의 움직임에 따른 스크린상의 좌표 및 벡터 등의 데이터를 산출하게 된다.
이때 전술한 가정에서와 같이 사용자가 주먹을 쥐었으므로 움직임 벡터 값은 무시범위 안에 들게 됨으로써 상기 움직임 인식부(120)의 출력 값은 제로상태이다.
이후 상기 움직임 인식부(120)와 모션 인식부(130)에서 처리되어 인식되어진 데이터를 입력받은 모션/움직임 판독부(140)는 기 설정된 시스템 운영에 따른 손동작 입력과 비교하여 그에 따른 의미 있는 행동인가를 판독 인식하게 되고 현재 사용자가 취한 모션(손모양)이 주먹이므로 화면정지요청인 것으로 인식하게 된다.
따라서 명령인식부(150)는 상기 모션/움직임 판독부(140)에서 인식되어진 결과가 시스템 운영에 따른 사용자 정지 요청이므로 그에 따라 컴퓨터 시스템측으로 “Stop”신호를 전송하게 된다.
상기 명령인식부(150)에서 출력되는 정지(stop) 명령에 의해 컴퓨터구동모듈(220)은 디스플레이 구동부(210)의 동작을 일시 정지시켜 스크린(S)상에 디스플레이되는 화면을 정지시키게 된다.
이상의 설명에서 본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능하다는 것을 당업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.
이상에서 설명한 바와 같은 본 발명에 따른 공간상에서의 3차원 동작에 대한 인식을 통한 컴퓨터 제어명령 입력방법 및 그 장치를 제공하면 마우스, 키보드 등과 같은 범용의 입력 장치 혹은 장갑타입의 특정의 입력 장치가 없이도 컴퓨터 시스템이 인식할 수 있는 신호(Click, Drag, Scroll, Next, etc)를 생성하고 이를 컴퓨터 인식할 수 있도록 할수 있으며 터치스크린과 같은 직선적 혹은 평면적 입출력장치의 한계를 벗어나 3차원 공간에서의 움직임을 인식함에 따라 매우 다양한 사용자 요청에 부응할 수 있다.

Claims (5)

  1. 특정의 의미를 갖는 다양한 동작에 대한 기준 3차원 이미지들을 설정하는 제 1과정과;
    임의의 X-Y-Z 공간좌표 상에서 X-Y 공간좌표에 대한 영상데이터를 취득하는 제 2과정과;
    상기 제 2과정에서 영상을 취득하는 공간과 동일한 X-Y-Z 공간좌표 상에서 Y-Z 공간좌표에 대한 영상데이터를 취득하는 제 3과정과;
    상기 제 1과정과 제 2과정을 통해 취득되어진 영상 데이터를 취합하여 3차원 이미지로 인식 변환하는 제 4과정과;
    상기 제 4과정에서 취득되어진 3차원 이미지를 상기 제 1과정에서 설정되어져 있는 이미지들과 비교하여 상기 제 4과정에서 취득되어진 3차원 이미지의 의미를 판독하는 제 5과정; 및
    상기 제 5과정을 통해 판독되어진 의미에 대응하는 컴퓨터 제어 명령신호를 생성하는 제 6과정을 포함하는 것을 특징으로 하는 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 방법.
  2. 제 1항에 있어서,
    상기 제 3과정은 제 2과정과 동일 시점에 동시에 이루어지는 것을 특징으로 하는 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 방법.
  3. 유리소재의 일정 영역을 갖는 스크린과, 상기 스크린의 후면에 일정 이격거리를 두고 위치하며 입력되는 데이터에 따라 상기 스크린에 해당 영상을 투영하는 프로젝터, 및 상기 프로젝터의 운영을 담당하는 컴퓨터를 구비한 공간투영 프리젠테이션 시스템에 있어서:
    상기 스크린의 상단 양측에 위치하며 상기 스크린의 전방 일정영역의 영상을 촬상하여 이미지로 취득하는 제1, 제2 카메라와;
    상기 제1, 제2 카메라에서 취득되어진 영상신호를 입력받아 3차원 이미지를 생성하는 3차원 이미지 생성부와;
    상기 3차원 이미지 생성부에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라를 통해 취득되어진 영상신호 상의 물체가 취한 행동과 움직임을 인식하여 기 설정된 시스템 운영제어 요청에 따른 손동작 데이터들과 비교하여 그에 따른 의미 있는 행동인가를 판독 인식하는 3차원 이미지 인식판단부; 및
    상기 3차원 이미지 인식판단부에서 인식되어진 결과가 시스템 운영에 따른 사용자 요청동작이라고 판단되면 그에 따라 인식결과에 대한 신호를 입력받아 상기 컴퓨터가 인식할 수 있는 입력신호로 변환하여 상기 컴퓨터측으로 전달하는 명령신호 생성수단을 포함하는 것을 특징으로 하는 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템.
  4. 제 3항에 있어서,
    상기 3차원 이미지 인식판단부는 상기 3차원 이미지 생성부에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라에서 취득되어진 이미지의 움직임에 따른 상기 스크린상의 좌표 및 벡터 등의 데이터를 산출하는 움직임 인식부와;
    상기 3차원 이미지 생성부에서 생성되어진 3차원 이미지 데이터를 입력받아 상기 제1, 제2 카메라에서 취득되어진 이미지의 형상을 인식하는 모션 인식부; 및
    상기 움직임 인식부와 모션 인식부에서 처리되어 인식되어진 데이터를 입력받아 기 설정된 시스템 운영에 따른 손동작 이미지와 비교하여 그에 따른 의미있는 행동인가를 판독 인식하는 모션/움직임 판독부을 포함하는 것을 특징으로 하는 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템.
  5. 제 3항에 있어서,
    상기 3차원 이미지 생성부와 이미지 인식판단부 및 명령신호 생성수단은 상기 컴퓨터에 내장되는 것을 특징으로 하는 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영 프리젠테이션 시스템.
KR1020050080941A 2005-08-31 2005-08-31 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법 KR20070025138A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050080941A KR20070025138A (ko) 2005-08-31 2005-08-31 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050080941A KR20070025138A (ko) 2005-08-31 2005-08-31 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR20070025138A true KR20070025138A (ko) 2007-03-08

Family

ID=38099440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050080941A KR20070025138A (ko) 2005-08-31 2005-08-31 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR20070025138A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100796771B1 (ko) * 2006-09-15 2008-01-22 김해철 영상셔터를 이용한 가상 터치스크린 시스템 및 동작 방법
WO2012060598A2 (ko) * 2010-11-04 2012-05-10 주식회사 매크론 가상마우스 구동방법
WO2012087851A2 (en) * 2010-12-22 2012-06-28 Microsoft Corporation Sensing user input using the body as an antenna
KR101227883B1 (ko) * 2011-05-30 2013-01-30 김호진 사용자 동작/음성 기반 제어장치 및 이에 적용되는 사용자 동작/음성 기반 제어방법
KR101370027B1 (ko) * 2012-11-29 2014-03-06 주식회사 매크론 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법
KR101457976B1 (ko) * 2012-03-21 2014-11-04 가시오게산키 가부시키가이샤 입력 사용자 인터페이스 장치, 투영 장치, 커맨드 결정 방법 및 프로그램이 기록된 기록 매체

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100796771B1 (ko) * 2006-09-15 2008-01-22 김해철 영상셔터를 이용한 가상 터치스크린 시스템 및 동작 방법
WO2012060598A2 (ko) * 2010-11-04 2012-05-10 주식회사 매크론 가상마우스 구동방법
WO2012060598A3 (ko) * 2010-11-04 2012-09-13 주식회사 매크론 가상마우스 구동방법
WO2012087851A2 (en) * 2010-12-22 2012-06-28 Microsoft Corporation Sensing user input using the body as an antenna
WO2012087851A3 (en) * 2010-12-22 2013-01-03 Microsoft Corporation Sensing user input using the body as an antenna
US8665210B2 (en) 2010-12-22 2014-03-04 Microsoft Corporation Sensing user input using the body as an antenna
KR101227883B1 (ko) * 2011-05-30 2013-01-30 김호진 사용자 동작/음성 기반 제어장치 및 이에 적용되는 사용자 동작/음성 기반 제어방법
KR101457976B1 (ko) * 2012-03-21 2014-11-04 가시오게산키 가부시키가이샤 입력 사용자 인터페이스 장치, 투영 장치, 커맨드 결정 방법 및 프로그램이 기록된 기록 매체
US9213411B2 (en) 2012-03-21 2015-12-15 Casio Computer Co., Ltd. Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program
KR101370027B1 (ko) * 2012-11-29 2014-03-06 주식회사 매크론 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법
WO2014084634A1 (ko) * 2012-11-29 2014-06-05 주식회사 매크론 안경형 디스플레이 디바이스용 마우스 장치 및 그 구동 방법

Similar Documents

Publication Publication Date Title
US11868543B1 (en) Gesture keyboard method and apparatus
US9195345B2 (en) Position aware gestures with visual feedback as input method
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
JP5122517B2 (ja) ポインティングデバイスに基づくユーザインターフェイスシステム
US8094204B2 (en) Image movement based device control method, program, and apparatus
US20140247216A1 (en) Trigger and control method and system of human-computer interaction operation command and laser emission device
US9158391B2 (en) Method and apparatus for controlling content on remote screen
KR100764698B1 (ko) 카메라 영상의 패턴인식과 해석에 의한 휴대 단말기의사용자 인터페이스 제어 방법 및 그 단말기
JP2009134718A5 (ko)
US20150222851A1 (en) Information processing apparatus, information processing system and information processing method
KR20070025138A (ko) 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법
US12028617B2 (en) Display apparatus and processing method for display apparatus with camera
US20210072818A1 (en) Interaction method, device, system, electronic device and storage medium
WO2022088974A1 (zh) 一种遥控方法、电子设备及***
JP2012238293A (ja) 入力装置
US11917329B2 (en) Display device and video communication data processing method
KR20090093220A (ko) 적외선 카메라를 이용한 공간 터치 스크린
US9740294B2 (en) Display apparatus and method for controlling display apparatus thereof
KR102077665B1 (ko) 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법
WO2011096571A1 (ja) 入力装置
CN111176425A (zh) 多屏幕操作方法与使用此方法的电子***
KR20090060698A (ko) 가상 멀티 터치 스크린을 이용한 인터페이스 장치 및 그제어 방법
JP7287156B2 (ja) 表示装置、表示方法、プログラム
CN117608465A (zh) 信息处理装置、显示方法以及存储介质和计算机装置
CN114564142A (zh) 投屏控制方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application