KR101177793B1 - 입체영상 체험 장치 및 방법 - Google Patents

입체영상 체험 장치 및 방법 Download PDF

Info

Publication number
KR101177793B1
KR101177793B1 KR1020120040462A KR20120040462A KR101177793B1 KR 101177793 B1 KR101177793 B1 KR 101177793B1 KR 1020120040462 A KR1020120040462 A KR 1020120040462A KR 20120040462 A KR20120040462 A KR 20120040462A KR 101177793 B1 KR101177793 B1 KR 101177793B1
Authority
KR
South Korea
Prior art keywords
image
setting
motion recognition
data
unit
Prior art date
Application number
KR1020120040462A
Other languages
English (en)
Inventor
안병주
류벽우
신재호
박헌수
Original Assignee
(주) 엔텍코아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 엔텍코아 filed Critical (주) 엔텍코아
Priority to KR1020120040462A priority Critical patent/KR101177793B1/ko
Application granted granted Critical
Publication of KR101177793B1 publication Critical patent/KR101177793B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 동작인식센서를 이용한 입체 영상 체험 장치 및 방법을 제공하고자 하는 것으로서, 배경화면 및 동작인식화면을 복수개의 영상 출력 장치 조합으로 하나의 영상으로 출력하는 영상출력부, 출력된 영상화면에 동작인식센서를 감지하도록 구성하는 동작인식 감지부, 동작인식데이터를 입력받아 배경화면 및 동작인식화면을 재생하고 운영현장에 따라 배경화면, 동작인식화면, 임펙트 효과를 설정하고 설정된 프로그램을 실행하는 데이터 처리부로 구성된다.
본 발명은 영상 출력 장치에서 출력되는 영상에 동작인식이 감지되면 동작인식데이터를 분석하여 해당 영상에 데이터 처리부에서 입력한 각각의 임펙트를 주도록 표시하며 동작인식에 따른 영상출력의 반응속도, 구성, 효과들을 현장에 맞게 구성하여 사용할 수 있는 것을 특징으로 하는 입체 영상 체험 장치 및 방법을 제공한다.

Description

입체영상 체험 장치 및 방법{Stereoscopic Virtual Experience Apparatus and Method}
본 발명은 동작인식 센서를 이용한 3D 입체영상 체험 시스템에 관한 것으로서, 구체적으로는 어떤 물체로 부터의 간섭이나 동작을 3차원 동작인식센서의 감지에 따라, 이미지 영상이 상호 반응 하여 사용자가 원하는 이미지 배경이나 영상을 영상 출력 장치를 이용하여 투사하고 또한 동작인식카메라를 이용하여 그 영상의 영역에 간섭이나 움직임을 인식하여 다이나믹하고 다양한 비주얼 이미지를 연출할 수 있도록 구현하는 장치 및 그 제어방법에 관한 것이다.
현재 교육, 훈련, 게임 산업에서 많이 사용되는 3D 입체영상의 구현방법은 터치패드 및 조이스틱을 이용하여 조작되어진 화면을 3D 입체영상으로 소비자에게 시각적으로 표현하는 기술이다.
단안시(單眼視, Monocular Depth Cue)는 후천적인 경험적 학습으로 습득하는 입체감의 인지요인을 말한다. 단안시 요인은 대기원근법, 선형원근법, 진출색과 후퇴색, 사물의 겹침, 텍스쳐 구배, 명암, 운동시차 등 세부적인 여러 요인들로 나뉘게 된다.
대기원근법은 대기의 질감을 통해 가까운 것은 진하게, 멀리 있는 것은 흐리게 표현되면서 얻게 되는 입체감의 요인을 말한다. 동양화에서 공간감을 불어넣기 위해서 흔히 사용하는 농담법 역시 대기원근법에 속한다고 볼 수 있다.
선형원근법은 소실점을 통해 공긴을 기하학적인 형태로 만들어 입체감을 불어넣는 수법이다. 선형원극법은 르네상스 시대의 화가들이 처음 개발하여 사용했으며 기존의 영화나 회화처럼 2D 평면예술이 사람들에게 무의식적으로 입체감을 전달하기 위해서 흔히 쓰는 수법으로 발전되었다.
색을 이용해서도 미세한 입체감의 표현을 쓸 수 있다. 일반적으로 빨간색처럼 따뜻한 계열의 색은 튀어나와 보이는 느낌을, 파란색처럼 차가워 보이는 느낌의 색은 들어가 보이는 느낌을 무의식중에 전달한다고 알려져 있다. 또한 똑같은 색이라 할지라도 명도와 채도가 높아지면 진출, 반대로 낮아지면 후퇴되어 보이는 색으로 인기된다. 또한 사물의 겹침 정도에 따라 입체감이 달라지기도 한다. 다른 주변사물과 많이 겹쳐있어 온전하게 제 모습을 드러내지 못하면 우리는 그 사물이 멀리 있다고 느끼고 반대로 온전하게 제 모습을 드러낼수록 가깝다고 느끼게 된다.
공간이 조밀함 정도에 따라서도 입체감이 달라질 수 있다. 예를 들어 잔디축구장 안에 심어진 잔디를 살펴보면 간격이 넓게 보이는 것은 가깝게, 거의 붙어있는 잔디는 멀리 있는 것처럼 느끼게 된다. 이러한 현상을 전문용어로 '텍스쳐 구배'라고 부른다.
사물에 드리운 빛과 그림자를 통해서도 우리는 입체감을 느낀다. 이를 명암법이라 부른다. 운동시차는 사물의 속도차를 통해서 공간감을 느끼게 되는 원리를 말한다. 우리는 운동시차의 원리를 이용해 똑같은 속도를 지닌 자동차라도 빠르게 지나가는 것은 가깝게, 느리게 이동하는 것은 멀리 있다고 느낀다. 단안시 요인은 이러한 세부요인들로 구성되어 있으며 잘 만들어진 3D 입체영상에는 이러한 단안시 요인들이 효과적으로 연출되어 있다.
기존의 교육, 훈련, 게임, 문화 산업에 사용되던 2차원적인 공간에 동작인식 센서를 통해 3차원 영상을 구현한 영상기술을 활용하여 3차원 영상 체험 시스템으로 개발하여 3D 입체 기술개발산업의 한 단계 진보된 기술을 구축하고자 한다.
한국공개특허 [10-2007-0078828]("사람의 동작에 따라 반응하는 실시간 동영상 제어방법")에서는 사용자의 동작을 그림자 등으로 처리하여 동화상으로 받아들여서 동화상을 분석하여 사용자의 동작을 인식하며, 사용자의 동작에 따라 화면에 보이는 객체를 변화시켜서 마치 사용자가 가상의 세계에서 체험을 하는듯한 효과를 주는 시스템이 개시되어 있다.
한국공개특허 [10-2007-0078828]
따라서, 본 발명은 일반적인 평면 바닥 또는 벽면에 영상 출력 장치를 이용하여 스토리 라인 영상을 출력하고 사람의 움직임을 감지하여 생성된 입체영상을 결합하여 출력되는 영상을 통한 입체영상 체험 장치 및 방법을 제공함에 있다.
또한, 본 발명은 일차적인 배경화면 영상의 처리기법에 동영상, 사진, 특수효과를 전송하여 동작인식이 감지되지 않는 상황에서도 배경화면이 스토리라인으로 진행될 수 있도록 하기위한 입체영상 체험 장치 및 방법을 제공함에 있다.
아울러, 본 발명은 배경화면에서 동작인식이 감지되었을 경우 배경화면에서 동작인식이 감지된 부분을 중심으로 영상이 변화하는 기술로써 해당 스토리라인에 따른 영상처리에 대한 해상도, 화면변경, 임펙트를 조절할 수 있는 입체영상 체험 장치 및 방법을 제공함에 있다.
상기한 바와 같은 문제점을 해결하기 위한 본 발명의 입체영상 체험 장치에 있어서,
하나의 영상을 복수개로 분할하여 보여주는 복수개의 영상 출력 공간(7); 상기 각각의 영상 출력 공간(7)과 각각 겹쳐지는 동작인식 영역(5)의 동작(4)을 각각 인식하는 복수개의 동작인식 센서(1)를 포함하여 구성되는 동작 인식 감지부(100);를 포함하는 것을 특징으로 한다.
또한, 상기 동작인식 감지부로부(100)터 감지된 신호를 입력받아 해당 포인트별 임펙트 좌표 신호를 생성하는 동작인식 처리부(200); 상기 동작인식 처리부(200)로부터 입력된 상기 임펙트 좌표 신호를 입력받아 동작인식에 따른 연동영상과 배경영상이 연동되도록 데이터 처리를 수행하는 데이터 처리부(300); 상기 데이터 처리부(300)에서 처리된 영상을 적어도 복수개의 영상 출력 장치(2)를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력부(400);를 더 포함하는 것을 특징으로 한다.
또, 상기 동작인식 처리부(200)는 상기 동작인식 감지부(100)의 데이터 감지 범위를 X축, Y축, Z축 별로 범위를 설정하는 범위 설정부(210); 상기 동작인식 감지부(100)의 데이터 감지레벨을 설정하는 감지레벨 설정부(220); 상기 동작인식 감지부(100)의 상기 적어도 하나 이상의 동작인식 센서(1)로부터 감지된 신호를 입력받아, 상기 범위 설정부(210)에서 설정된 범위와 상기 감지레벨 설정부(220)에서 설정된 감지레벨 을 적용하여, X축, Y축, Z축 데이터로 변환 시키는 데이터 변환부(230);를 포함하는 것을 특징으로 한다.
또한, 상기 데이터 처리부(300)는 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 선택하는 동작 영상 설정부(310); 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 선택하는을 선택하는 배경화면 설정부(320); 화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과, 동작시간을 설정하는 운영프로그램 데이터 설정부(330); 상기 동작인식 처리부(200)로부터 해당 포인트별 임펙트를 입력받아 상기 동작 영상 설정부(310)에서 설정된 데이터를 적용하여 해당 포인트별 임펙트를 입체 영상으로 구현하는 동작 영상 생성부(340); 상기 동작 영상 생성부(340)에서 생성된 입체영상을 상기 배경화면 설정부(320)에서 선택된 배경화면 및 상기 운영프로그램 데이터 설정부(330)에서 설정된 데이터에 접목하여 하나의 영상처리를 수행하는 출력 영상 처리부(350);를 포함하는 것을 특징으로 한다.
아울러, 상기 영상 출력부는 액정디스플레이(LCD), 박막액정디스플레이(TFT-LCD), 플라스마디스플레이(PDP), 엘이디(LED) 디스플레이, 플렉시블(Flexible) 디스플레이, 헤드마운티드 디스플레이(HMD:head mounted display), 모니터, 터치 스크린, 프로젝터, 빔프로젝터 중 선택되는 어느 하나로 구성되는 것을 특징으로 한다.
상기한 바와 같은 문제점을 해결하기 위한 본 발명의 입체영상 체험 방법에 있어서,
스토리 라인 배경 및 출력 환경을 설정하는 환경 설정 단계(S10); 상기 환경 설정 단계(S10)에서 설정된 스토리 라인 배경 영상을 출력하는 스토리 라인 출력 단계(S20); 복수개의 동작인식 센서로부터 각각의 지정된 구간의 동작을 감지하는 동작인식 감지 단계(S30); 상기 동작인식 감지단계(S30)에서 감지된 신호를 입력받아 상기 환경 설정 단계(S10)에서 설정된 값을 적용하여 해당 포인트별 임펙트 좌표 신호를 좌표 데이터로 변환하는 동작인식 처리 단계(S40); 상기 동작인식 처리 단계(S40)에서 생성된 상기 좌표 데이터를 입력받고, 상기 환경 설정 단계(S10)에서 설정된 값을 입력받아 동작인식에 따른 연동영상과 상기 스토리 라인의 배경 영상 및 효과가 연동되도록 데이터 처리를 수행하는 데이터 처리 단계(S50); 상기 데이터 처리 단계(S50)에서 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력 단계(S60);를 포함하는 것을 특징으로 한다.
또한, 상기 환경 설정 단계(S10)는 동작인식 처리부의 인식 범위를 설정하는 동작인식 처리부 설정 단계(S11); 데이터 처리부의 영상 출력 옵션을 설정하는 데이터 처리부 설정 단계(S12);를 포함하는 것을 특징으로 한다.
또, 상기 동작인식 처리부 설정 단계(S11)는 동작인식 감지부의 데이터 감지 범위를 X축, Y축, Z축 별로 범위를 설정하는 범위 설정 단계; 동작인식 감지부의 데이터 감지레벨을 설정하는 감지레벨 설정 단계;를 포함하는 것을 특징으로 한다.
또한, 상기 데이터 처리부 설정 단계(S12)는 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 선택하는 배경화면 설정 단계; 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 선택하는 동작 영상 설정 단계; 화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과 및 동작시간 중 선택되는 적어도 어느 하나를 설정하는 운영프로그램 데이터 설정 단계;를 포함하는 것을 특징으로 한다.
아울러, 상기 운영프로그램 데이터 설정 단계에서 상기 에니메이션의 구성은 상기 동작영상 생성부(340) 에서 생성된 입체 영상을 나타나기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 중 선택되는 적어도 어느 하나인 것을 특징으로 한다.
본 발명에 의하면, 동작인식 센서를 통한 3차원 영상 체험 시스템의 개발은 현재까지 개발되고 운영 중인 3D 입체산업의 획기적인 도약의 발판이 되는 중요한 기술을 가지고 있는 아이템으로 3D 입체의 시각적 체험을 뛰어넘어 3차원 체험시스템의 구축으로 영상, 게임, 교육, 훈련, 문화 산업의 기술혁신에 중추적인 기반산업으로 자리 잡을 수 있다.
또한, 본 발명은 배경화면 및 동작인식에 따른 영상처리에 대하여 3D 입체 기술을 융합하여 체험형 컨텐츠와 영상 프로모션 형태로 구현하고 3D 입체영상구현시 실감나는 액션 및 현장감을 원하는 동시에 어지럼증이나, 안구피로와 같은 부작용을 최소화 할 수 있다.
아울러, 동작인식 센서를 이용한 3차원 영상물과 조합 할 수 있는 제품을 개발하여 3D 입체영상물 산업의 수입국가에서 3D 입체산업의 독보적인 기술을 보유하고 있는 수출국가로 탈바꿈 할 수 있다.
도 1은 본 발명의 일 실시예에 따른 입체영상 체험 장치를 도시한 개략도이다.
도 2는 본 발명의 일 실시예에 따른 입체영상 체험 시스템 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 입체영상 체험 시스템 순서도이다.
이하, 본 발명의 바람직한 실시 예에 따른 입체영상 체험 장치 및 방법은 첨부한 도면을 참조하여 상세하게 설명하면 다음과 같다.
도 1은 본 발명의 일 실시예에 따른 입체영상 체험 장치를 도시한 개략도이고, 도 2는 본 발명의 일 실시예에 따른 입체영상 체험 시스템 블록도이고, 도 3은 본 발명의 일 실시예에 따른 입체영상 체험 시스템 순서도이다.
도 1에 도시된바와 같이 본 발명의 일 실시예에 따른 입체영상 체험 장치는 동작인식 센서를 이용한 3D 입체영상 체험 시스템에 있어서, 영상출력 공간(7)과 동작 인식 감지부(100)를 포함하여 구성 할 수 있다.
상기 영상 출력 공간(7)은 하나의 영상을 복수개로 분할하여 보여줄 수 있다. 상기 영상 출력 공간(7)은 벽 또는 바닥 등에 구현할 수 있으며 하나의 영상 출력장치(2)를 이용하여 상기 영상 출력 공간(7)에 출력할 시 넓은 공간에 출력이 어려우므로, 복수개의 영상 출력 장치(2)를 이용하여 넓은 공간에 하나의 영상으로 이어지도록 구현한 영상을 영상 출력 공간(7)에 출력할 수 있다.
상기 동작 인식 감지부(100)는 상기 각각의 영상 출력 공간(7)과 각각 겹쳐지는 동작인식 영역(5)의 사람 또는 사물의 동작(4)을 각각 인식하는 복수개의 동작인식 센서(1)를 포함하여 구성할 수 있다. 상기 각각의 동작인식 센서(1)는 상기 각각의 영상 출력 공간과 각각 겹쳐지는 동작 인식 영역(5)을 담당함으로 보다 디테일한 동작을 인식할 수 있다.
도 2에 도시된바와 같이, 본 발명의 일 실시예에 따른 입체영상 체험 장치는 동작인식 처리부(200), 데이터 처리부(300) 및 영상 출력부(400)를 더 포함하여 구성할 수 있다.
동작인식 처리부(200)는 상기 동작인식 감지부로부(100)터 감지된 신호를 입력받아 해당 포인트별 임펙트 좌표 신호를 생성한다. 이때 상기 동작인식 처리부(200)는 범위 설정부(210), 감지레벨 설정부(220) 및 데이터 변환부를 포함하여 구성할 수 있다.
범위 설정부(210)는 상기 동작인식 감지부(100)의 동작인식 감지 범위를 X축, Y축, Z축 별로 범위를 설정한다. 다시 말하자면, 각각의 동작인식 센서(1)가 동작을 감지하는 동작인식 감지 영역(5)을 각각 설정하여 각각의 동작 인식 영역(5)에 대한 동작 인식을 담당하게 한다.
감지레벨 설정부(220)는 상기 동작인식 감지부(100)의 데이터 감지레벨을 설정하여 불필요한 잡음을 제거하고 임펙트 있는 입체 영상에 필요한 데이터를 입력 받을 수 있도록 한다.
데이터 변환부(230)는 상기 동작인식 감지부(100)의 상기 적어도 하나 이상의 동작인식 센서(1)로부터 감지된 신호를 입력받아, 상기 범위 설정부(210)에서 설정된 범위와 상기 감지레벨 설정부(220)에서 설정된 감지레벨 을 적용하여, X축, Y축, Z축 데이터로 변환 시킨다.
데이터 처리부(300)는 상기 동작인식 처리부(200)로부터 입력된 상기 임펙트 좌표 신호를 입력받아 동작인식에 따른 연동영상과 배경영상이 연동되도록 데이터 처리를 수행한다. 이때 상기 데이터 처리부(300)는 동작 영상 설정부(310), 배경화면 설정부(320), 운영프로그램 데이터 설정부(330), 동작 영상 생성부(340) 및 출력 영상 처리부(350)를 포함하여 구성할 수 있다.
동작 영상 설정부(310)는 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 선택하여 상기 동작인식 센서(1)로부터 감지된 신호를 입력받아 구현하는 입체 영상의 출력 옵션을 조정한다.
배경화면 설정부(320)는 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 선택하는을 선택하여 스토리 라인으로 출력될 배경 및 효과의 옵션을 조정한다.
운영프로그램 데이터 설정부(330)는 화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과 및 동작시간 중 선택되는 적어도 어느 하나를 설정하여 전체적인 출력 화면의 옵션을 설정할 수 있다.
동작 영상 생성부(340)는 상기 동작인식 처리부(200)로부터 해당 포인트별 임펙트를 입력받아 상기 동작 영상 설정부(310)에서 설정된 데이터를 적용하여 해당 포인트별 임펙트를 입체 영상으로 구현한다.
출력 영상 처리부(350)는 상기 동작 영상 생성부(340)에서 생성된 입체영상을 상기 배경화면 설정부(320)에서 선택된 배경화면 및 상기 운영프로그램 데이터 설정부(330)에서 설정된 데이터에 접목하여 하나의 영상처리를 수행한다.
영상 출력부(400)는 상기 데이터 처리부(300)에서 처리된 영상을 적어도 복수개의 영상 출력 장치(2)를 통하여 하나의 영상으로 이어지도록 출력한다. 이때, 상기 영상 출력부는 액정디스플레이(LCD), 박막액정디스플레이(TFT-LCD), 플라스마디스플레이(PDP), 엘이디(LED) 디스플레이, 플렉시블(Flexible) 디스플레이, 헤드마운티드 디스플레이(HMD:head mounted display), 모니터, 터치 스크린, 프로젝터, 빔프로젝터 중 선택되는 어느 하나로 구성될 수 있다.
다시 말하자면, 각각의 영상 출력 장치(2)가 담당하는 각각의 영상 출력 공간(7)에 동작인식센서를 설치하여 영상 출력 장치(2)의 한 포인트에 동작이 감지되면 해당되는 영상 출력 장치(2)의 영상이 동작인식과 같이 연동되도록 출력할 수 있다.
도 3에 도시된바와 같이 본 발명의 일 실시예에 따른 입체영상 체험 장치를 이용한 입체영상 체험 방법은 환경 설정 단계(S10), 스토리 라인 출력 단계(S20), 동작인식 감지 단계(S30), 동작인식 처리 단계(S40), 데이터 처리 단계(S50) 및 영상 출력 단계(S60)를 포함하여 이루어지는 것을 특징으로 한다.
환경 설정 단계(S10)는 입력, 스토리 라인 배경 및 출력 환경을 설정한다. 이때, 상기 환경 설정 단계(S10)는 동작인식 처리부 설정 단계(S11) 및 데이터 처리부 설정 단계(S12)를 포함할 수 있다.
또한, 동작인식 처리부의 인식 범위를 설정하는 동작인식 처리부 설정 단계(S11)는 범위 설정 단계 및 감지레벨 설정단계를 포함할 수 있다.
범위 설정 단계는 동작인식 감지부의 데이터 감지 범위를 X축, Y축, Z축 별로 범위를 설정할 수 있다.
감지레벨 설정 단계는 동작인식 감지부의 데이터 감지레벨을 설정할 수 있다.
또, 데이터 처리부의 영상 출력 옵션을 설정하는 데이터 처리부 설정 단계(S12)는 배경화면 설정 단계, 동작 영상 설정 단계 및 운영프로그램 데이터 설정 단계를 포함할 수 있다.
배경화면 설정 단계는 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 선택할 수 있다.
동작 영상 설정 단계는 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 선택할 수 있다.
운영프로그램 데이터 설정 단계는 화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과, 동작시간을 설정할 수 있다. 이때, 에니메이션의 구성은 상기 동작영상 생성부(340) 에서 생성된 입체 영상을 나타나기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 중 선택되는 적어도 어느 하나인 것을 특징으로 할 수 있다.
스토리 라인 출력 단계(S20)는 상기 환경 설정 단계(S10)에서 설정된 스토리 라인 배경 영상을 출력할 수 있다.
동작인식 감지 단계(S30)는 복수개의 동작인식 센서로부터 각각의 지정된 구간의 동작을 감지할 수 있다.
동작인식 처리 단계(S40)는 상기 동작인식 감지단계(S30)에서 감지된 신호를 입력받아 상기 환경 설정 단계(S10)에서 설정된 값을 적용하여 해당 포인트별 임펙트 좌표 신호를 좌표 데이터로 변환할 수 있다.
데이터 처리 단계(S50)는 상기 동작인식 처리 단계(S40)에서 생성된 상기 좌표 데이터를 입력받고, 상기 환경 설정 단계(S10)에서 설정된 값을 입력받아 동작인식에 따른 연동영상과 상기 스토리 라인의 배경 영상 및 효과가 연동되도록 데이터 처리를 수행할 수 있다.
영상 출력 단계(S60)는 상기 데이터 처리 단계(S50)에서 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력할 수 있다.
다시 말하자면, 환경 설정 단계(S10)에서 설정한 배경화면 영상이 스토리 라인으로 출력(S20)되며, 동작인식 감지 단계(S30)에서 각각의 동작인식 센서가 감지한 데이터를 동작인식 처리 단계(S40)에서 입력받아 해당 포인트별 임펙트 좌표 신호를 좌표 데이터로 변환며, 데이터 처리 단계(S50)에서 동작 영상을 생성하고, 상기 배경화면 영상과 상기 동작 영상을 합성한 출력 영상을 영상 출력 단계(S60)에서 출력 하여 하나의 동작효과로 연동되도록 구현한다.
이에 따라, 배경영상, 동작인식영상, 동작인식 효과, 사운드, 동영상재생, 화면전환의 기능을 설정하여 동작인식에 따른 입체영상을 체험할 수 있고 배경화면과 영상화면을 수정 편집하여 현장에 맞는 3D 입체영상 컨텐츠를 실행할 수 있다.
본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
1 : 동작인식 센서 2 : 영상 출력 장치
3 : 메인컴퓨터 4 : 사람 또는 사물의 동작
5 : 동작 인식 영역 6 : 영상투사반경
7 : 영상 출력 공간
100: 동작인식 감지부 200: 동작인식 처리부
210: 범위 설정부 220: 감지레벨 설정부
230: 데이터 변환부 300: 데이터 처리부
310: 동작영상 설정부 320: 배경화면 설정부
330: 운영프로그램 데이터 설정부 340: 동작영상 생성부
350: 출력영상 처리부 400: 영상 출력부
S10: 환경 설정 단계 S11: 동작인식 처리부 설정 단계
S12: 데이터 처리부 설정 단계 S20: 스토리 라인 출력 단계
S30: 동작인식 감지 단계 S40: 동작인식 처리 단계
S50: 데이터 처리 단계 S60: 영상 출력 단계

Claims (10)

  1. 동작인식 센서를 이용한 3D 입체영상 체험 시스템에 있어서,
    복수개의 영상 출력 공간(7)과 각각 겹쳐지는 동작인식 영역(5)의 동작(4)을 각각 인식하는 복수개의 동작인식 센서(1)를 포함하여 구성되는 동작 인식 감지부(100);
    상기 동작인식 감지부(100)로부터 감지된 신호를 입력받아 해당 포인트별 임펙트 좌표 신호를 생성하는 동작인식 처리부(200);
    상기 동작인식 처리부(200)로부터 입력된 상기 임펙트 좌표 신호를 입력받아 동작인식에 따른 연동영상과 배경영상이 연동되도록 데이터 처리를 수행하는 데이터 처리부(300);
    상기 데이터 처리부(300)에서 처리된 하나의 영상을 복수개로 분할하여 복수개의 영상 출력 장치(2)를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력부(400);
    를 포함하여 구성되는 입체영상 체험 장치.
  2. 삭제
  3. 제 1항에 있어서, 상기 동작인식 처리부(200)는
    상기 동작인식 감지부(100)의 데이터 감지 범위를 X축, Y축, Z축 별로 범위를 설정하는 범위 설정부(210);
    상기 동작인식 감지부(100)의 데이터 감지레벨을 설정하는 감지레벨 설정부(220);
    상기 동작인식 감지부(100)의 상기 복수개의 동작인식 센서(1)로부터 감지된 신호를 입력받아, 상기 범위 설정부(210)에서 설정된 범위와 상기 감지레벨 설정부(220)에서 설정된 감지레벨 을 적용하여, X축, Y축, Z축 데이터로 변환 시키는 데이터 변환부(230);
    를 포함하여 구성되는 입체영상 체험 장치.
  4. 제 1항에 있어서, 상기 데이터 처리부(300)는
    해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정하는 동작 영상 설정부(310);
    배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정하는 배경화면 설정부(320);
    화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과 및 동작시간 중 선택되는 적어도 어느 하나를 설정하는 운영프로그램 데이터 설정부(330);
    상기 동작인식 처리부(200)로부터 해당 포인트별 임펙트를 입력받아 상기 동작 영상 설정부(310)에서 설정된 데이터를 적용하여 해당 포인트별 임펙트를 입체 영상으로 구현하는 동작 영상 생성부(340);
    상기 동작 영상 생성부(340)에서 생성된 입체영상을 상기 배경화면 설정부(320)에서 선택된 배경화면 및 상기 운영프로그램 데이터 설정부(330)에서 설정된 데이터에 접목하여 하나의 영상처리를 수행하는 출력 영상 처리부(350);
    를 포함하여 구성되는 입체영상 체험 장치.
  5. 제 1항에 있어서, 상기 영상 출력부는
    액정디스플레이(LCD), 박막액정디스플레이(TFT-LCD), 플라스마디스플레이(PDP), 엘이디(LED) 디스플레이, 플렉시블(Flexible) 디스플레이, 헤드마운티드 디스플레이(HMD:head mounted display), 모니터, 터치 스크린, 프로젝터, 빔프로젝터 중 선택되는 어느 하나로 구성되는 것을 특징으로 하는 입체 영상 체험 장치.
  6. 입체영상 체험 방법에 있어서,
    스토리 라인 배경 및 출력 환경을 설정하는 환경 설정 단계(S10);
    상기 환경 설정 단계(S10)에서 설정된 스토리 라인 배경 영상을 출력하는 스토리 라인 출력 단계(S20);
    복수개의 동작인식 센서로부터 각각의 지정된 구간의 동작을 감지하는 동작인식 감지 단계(S30);
    상기 동작인식 감지단계(S30)에서 감지된 신호를 입력받아 상기 환경 설정 단계(S10)에서 설정된 값을 적용하여 해당 포인트별 임펙트 좌표 신호를 좌표 데이터로 변환하는 동작인식 처리 단계(S40);
    상기 동작인식 처리 단계(S40)에서 생성된 상기 좌표 데이터를 입력받고, 상기 환경 설정 단계(S10)에서 설정된 값을 입력받아 동작인식에 따른 연동영상과 상기 스토리 라인의 배경 영상 및 효과가 연동되도록 데이터 처리를 수행하는 데이터 처리 단계(S50);
    상기 데이터 처리 단계(S50)에서 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력 단계(S60);
    를 포함하여 이루어지는 것을 특징으로 하는 입체 영상 체험 방법.
  7. 제 6항에 있어서, 상기 환경 설정 단계(S10)는
    동작인식 처리부의 인식 범위를 설정하는 동작인식 처리부 설정 단계(S11);
    데이터 처리부의 영상 출력 옵션을 설정하는 데이터 처리부 설정 단계(S12);
    를 포함하여 이루어지는 것을 특징으로 하는 입체 영상 체험 방법.
  8. 제 7항에 있어서, 상기 동작인식 처리부 설정 단계(S11)는
    동작인식 감지부의 데이터 감지 범위를 X축, Y축, Z축 별로 범위를 설정하는 범위 설정 단계;
    동작인식 감지부의 데이터 감지레벨을 설정하는 감지레벨 설정 단계;
    를 포함하여 이루어지는 것을 특징으로 하는 입체 영상 체험 방법.
  9. 제 7항에 있어서, 상기 데이터 처리부 설정 단계(S12)는
    배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정하는 배경화면 설정 단계;
    해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정하는 동작 영상 설정 단계;
    화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과, 동작시간을 설정하는 운영프로그램 데이터 설정 단계;
    를 포함하여 이루어지는 것을 특징으로 하는 입체 영상 체험 방법.
  10. 제 9항에 있어서, 상기 운영프로그램 데이터 설정 단계에서 상기 에니메이션의 구성은
    동작영상 생성부에서 생성된 입체 영상을 나타나기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 중 선택되는 적어도 어느 하나인 것을 특징으로 하는 입체 영상 체험 방법.
KR1020120040462A 2012-04-18 2012-04-18 입체영상 체험 장치 및 방법 KR101177793B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120040462A KR101177793B1 (ko) 2012-04-18 2012-04-18 입체영상 체험 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120040462A KR101177793B1 (ko) 2012-04-18 2012-04-18 입체영상 체험 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101177793B1 true KR101177793B1 (ko) 2012-08-30

Family

ID=46887946

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120040462A KR101177793B1 (ko) 2012-04-18 2012-04-18 입체영상 체험 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101177793B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288590B1 (ko) * 2013-02-15 2013-07-22 (주) 엔텍코아 적외선 카메라를 이용한 모션제어 장치 및 방법
KR101405439B1 (ko) 2013-01-03 2014-06-11 양승철 동작인식 배경영상 제공시스템, 동작인식 배경영상 제공방법 및 그 기록매체
KR101850028B1 (ko) * 2015-03-06 2018-05-30 한국전자통신연구원 가상 여행 체험 장치 및 그 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100742664B1 (ko) * 2006-05-10 2007-07-25 주식회사 플러 인터랙티브 영상의 디스플레이 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100742664B1 (ko) * 2006-05-10 2007-07-25 주식회사 플러 인터랙티브 영상의 디스플레이 시스템 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101405439B1 (ko) 2013-01-03 2014-06-11 양승철 동작인식 배경영상 제공시스템, 동작인식 배경영상 제공방법 및 그 기록매체
KR101288590B1 (ko) * 2013-02-15 2013-07-22 (주) 엔텍코아 적외선 카메라를 이용한 모션제어 장치 및 방법
KR101850028B1 (ko) * 2015-03-06 2018-05-30 한국전자통신연구원 가상 여행 체험 장치 및 그 방법

Similar Documents

Publication Publication Date Title
US10652522B2 (en) Varying display content based on viewpoint
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US8890812B2 (en) Graphical user interface adjusting to a change of user's disposition
KR101171660B1 (ko) 증강현실의 포인팅 장치
US9978182B2 (en) Technique for more efficiently displaying text in virtual image generation system
US10431006B2 (en) Multisensory augmented reality
WO2015098807A1 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP2018109984A5 (ko)
CN104820497A (zh) 一种基于增强现实的3d交互显示***
KR20120048191A (ko) 테이블 타입 인터렉티브 3차원 시스템
US8462110B2 (en) User input by pointing
JP2011133955A (ja) 映像再生装置及び映像再生方法
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
KR20110132260A (ko) 모니터 기반 증강현실 시스템
Livatino et al. Depth-enhanced mobile robot teleguide based on laser images
KR101177793B1 (ko) 입체영상 체험 장치 및 방법
KR101638550B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP4945694B2 (ja) 映像再生装置及び映像再生方法
KR101919077B1 (ko) 증강 현실 표시 방법 및 장치
KR101288590B1 (ko) 적외선 카메라를 이용한 모션제어 장치 및 방법
CN108205823A (zh) Mr全息真空体验店和体验方法
JP6679966B2 (ja) 三次元仮想空間提示システム、三次元仮想空間提示方法及びプログラム
TW201016275A (en) Image system for adjusting displaying angle by detecting human face and visual simulation control apparatus thereof
US20130106845A1 (en) Stereoscopic image display apparatus
WO2017147826A1 (zh) 智能设备的图像处理方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150821

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160706

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170620

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 8