KR20180108314A - 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치 - Google Patents

사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치 Download PDF

Info

Publication number
KR20180108314A
KR20180108314A KR1020170037894A KR20170037894A KR20180108314A KR 20180108314 A KR20180108314 A KR 20180108314A KR 1020170037894 A KR1020170037894 A KR 1020170037894A KR 20170037894 A KR20170037894 A KR 20170037894A KR 20180108314 A KR20180108314 A KR 20180108314A
Authority
KR
South Korea
Prior art keywords
user
image
gaze
sub
viewed
Prior art date
Application number
KR1020170037894A
Other languages
English (en)
Other versions
KR102306775B1 (ko
Inventor
이광순
박영수
신홍창
음호민
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170037894A priority Critical patent/KR102306775B1/ko
Priority to CN201810156558.7A priority patent/CN108632600B/zh
Publication of KR20180108314A publication Critical patent/KR20180108314A/ko
Application granted granted Critical
Publication of KR102306775B1 publication Critical patent/KR102306775B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시에 따르면 입체영상 재생 방법 및 장치가 개시된다. 본 개시의 일 실시 예에 따른 입체영상 재생 방법은 복수의 서브 영상을 포함하며, 상기 복수의 서브 영상의 조합에 의해 초점을 형성하는 적어도 하나의 영상을 출력하는 과정과, 상기 적어도 하나의 영상을 시청하는 사용자에 대한 사용자 인터렉션 정보를 확인하는 과정과, 상기 사용자 인터렉션 정보에 기초하여 상기 적어도 하나의 영상에 구비되는 상기 복수의 서브 영상을 제어하여 상기 초점을 보정하는 과정과, 상기 초점이 보정된 상기 적어도 하나의 영상을 출력하는 과정을 포함할 수 있다.

Description

사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치{METHOD AND APPARATUS FOR DISPLAYING A 3-DIMENSIONAL IMAGE ADAPTING USER INTERACTION INFORMATION}
본 개시는 입체영상 디스플레이 방법 및 장치에 관한 것이며, 보다 구체적으로는 사용자의 인터렉션을 반영하여 입체영상을 제어하는 방법 및 장치에 대한 것이다.
인간이 3D 입체 시각을 인지하는 과정에는 다양한 시각적 요소들이 영향을 주고 있다. 대표적인 것으로는 다음과 같다. 인간은 좌우에 각각 눈을 가지고 있으므로, 관찰되는 외부 세계의 영상에서 양안 시차(binocular disparity) 정보가 발생되고 이를 두뇌에서 하나의 3D 입체 영상으로 인지하게 된다. 이런 양안 시차에 의한 입체감 인지의 원리는 대중화된 3D 입체 디스플레이 장치에 적용되고 있다. 디스플레이 장치에서는 사용자의 양쪽 눈에 입력될 영상을 출력하고, 사용자는 각각의 눈에 해당하는 좌/우 영상을 분리하는 장치(예컨대, 3D 입체 안경)를 착용해서 3D 입체 영상 콘텐츠를 시청할 수 있다.
이와 같은 입체 영상 기술을 적용할 수 있는 다양한 디스플레이 장치에 대한 연구가 이루어지고 있으며, 특히, 가상현실/증강현실/혼합현실 기술과의 융합에 의해, 착용형 디스플레이 형태의 입체영상 디스플레이 장치의 개발이 활발하게 진행되고 있다.
사용자의 행동, 즉 사용자의 이동이나 움직임에 따라 입체영상에 포함된 장면 또는 객체의 방향을 조절하거나, 초점을 조절하는 것은 입체 영상의 현실감을 극대화하기 위해 필수적인 요구된다.
그러나, 사용자의 행동에 대응하여 입체영상의 출력을 조정하기 위해서는, 사용자의 행동에 맞게 영상 데이터를 재구성하는 등의 동작이 처리해야 하므로, 많은 데이터의 처리나, 연산이 요구되는 문제가 있다.
본 개시의 기술적 과제는 사용자의 인터렉션을 반영한 영상을 효율적으로 구성 및 재생할 수 있는 방법 및 장치를 제공하는 것이다.
본 개시의 다른 기술적 과제는 데이터 처리나 연산 처리를 최소화하면서 사용자의 인터렉션을 반영한 입체영상을 구현할 수 있는 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면 입체영상 재생 방법이 제공될 수 있다. 상기 방법은 복수의 서브 영상을 포함하며, 상기 복수의 서브 영상의 조합에 의해 초점을 형성하는 적어도 하나의 영상을 출력하는 과정과, 상기 적어도 하나의 영상을 시청하는 사용자에 대한 사용자 인터렉션 정보를 확인하는 과정과, 상기 사용자 인터렉션 정보에 기초하여 상기 적어도 하나의 영상에 구비되는 상기 복수의 서브 영상을 제어하여 상기 초점을 보정하는 과정과, 상기 초점이 보정된 상기 적어도 하나의 영상을 출력하는 과정을 포함할 수 있다.
본 개시의 다른 양상에 따르면 입체영상 재생 장치가 제공될 수 있다. 상기 장치는 복수의 서브 영상의 조합에 의해 초점을 형성하는 적어도 하나의 영상을 구비하는 입체영상을 출력하는 입체 영상 디플레이부와, 상기 입체영상을 시청하는 사용자에 대한 사용자 인터렉션 정보를 확인하는 사용자 인터렉션 정보 확인부와, 상기 사용자 인터렉션 정보에 기초하여 상기 복수의 서브 영상을 제어하여 상기 초점을 보정하는 초점 제어부를 포함할 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 사용자의 인터렉션을 반영한 영상을 효율적으로 구성 및 재생할 수 있는 방법 및 장치가 제공될 수 있다.
또한, 본 개시에 따르면, 데이터 처리나 연산 처리를 최소화하면서 사용자의 인터렉션을 반영한 입체영상을 구현할 수 있는 방법 및 장치가 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 입체영상 재생 장치의 구성을 도시하는 블록도이다.
도 2는 본 개시의 일 실시예에 따른 입체영상 재생 장치에 구비되는 디스플레이부에 의해 출력되는 입체영상 출력 방식을 예시하는 도면이다.
도 3은 도2에서 출력되는 입체영상을 구성하는 영상정보를 예시하는 도면이다.
도 4는 도 3의 복수의 서브 영상에 의해 조합된 입체영상을 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른 입체영상 재생 장치에 구비되는 초점 제어부의 동작을 예시하는 도면이다.
도 6은 본 개시의 일 실시예에 따른 입체영상 재생 장치에 의해 출력되는 입체영상을 예시하는 도면이다.
도 7은 본 개시의 일 실시예에 따른 입체영상 재생 방법의 순서를 도시하는 흐름도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
본 개시의 시예에서 사용되는 용어는 다음과 같이 정의한다.
상기 사용자 인터렉션 정보는 입체영상의 초점을 제어하기 위해 사용되는 정보로서, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 지시하는 정보를 포함한다.
입체 영상은 수평 또는 수직 방향의 시차와 패럴렉스를 고려한 복수의 서브 영상을 포함한다. 따라서, 상기 복수의 서브 영상 각각은 서로 다른 수평 또는 수직 방향의 시차와 패럴렉스를 구비한다.
이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.`
도 1은 본 개시의 일 실시예에 따른 입체영상 재생 장치의 구성을 도시하는 블록도이다.
도 1을 참조하면, 본 개시의 일 실시예에 따른 입체영상 재생 장치는 디스플레이부(11)와, 사용자 인터렉션 정보 확인부(13)와, 초점 제어부(15)를 포함할 수 있다.
디스플레이부(11)는 입력받은 입체영상 데이터를 출력하는 디스플레이 패널을 포함할 수 있다. 특히, 디스플레이부(11)는 3차원의 입체영상을 표시하기 위해 좌우 두 개의 디스플레이 패널, 시차를 분리하는 시차장벽(Parallax barrier), 렌티큘라(lenticular lens) 렌즈, 마이크로렌즈(Micro lens), 선광원 등을 이용할 수 있다.
도 2는 본 개시의 일 실시예에 따른 입체영상 재생 장치에 구비되는 디스플레이부에 의해 출력되는 입체영상 출력 방식을 예시하는 도면이고, 도 3은 도2에서 출력되는 입체영상을 구성하는 영상정보를 예시하는 도면이다.
도 2를 참조하면, 디스플레이부(11)는 좌안 및 우안에 각각 대응되는 좌안 디스플레이 패널(110L) 및 우안 디스플레이 패널(110R)을 구비하고, 좌안 및 우안과 디스플레이 패널(110L) 및 우안 디스플레이 패널(110R)의 사이에 각각 마련되는 좌안 렌즈(112L) 및 우안 렌즈(112R)를 구비할 수 있다.
이와 같은 구조에 의해, 좌안 디스플레이 패널(110L)에서 출력되는 좌 영상(200L)은 좌안 렌즈(112L)를 통해 사용자의 좌안으로 제공되고, 우안 디스플레이 패널(110R)에서 출력되는 우 영상(200R)은 우안 렌즈(112R)를 통해 사용자의 우안으로 제공될 수 있다. 여기서, 좌안 렌즈(112L) 및 우안 렌즈(112R) 각각은 초점 거리(120L, 120R)가, 좌안 디스플레이 패널(110L) 및 우안 디스플레이 패널(110R)과 좌안 렌즈(112L) 및 우안 렌즈(112R) 사이(130L, 130R)의 거리보다 크게 설정되도록 구비될 수 있다.
이러한 구성에 따라, 사용자는 좌 영상(200L)과 우 영상(200R)이 가상의 면(virtual image plane)(150)에 형성되는 것으로 인식할 수 있다.
나아가, 좌 영상(200L)과 우 영상(200R)은 적어도 하나의 객체를 구비할 수 있는데, 상기 적어도 하나의 객체는 좌 영상(200L)과 우 영상(200R)에서 소정의 시차(disparity)를 형성할 수 있다. 이와 같이, 좌 영상(200L)과 우 영상(200R)에서의 시차에 의해 상기 적어도 하나의 객체는 가상의 면(150)보다 상대적으로 가깝게 인식될 수 있다.
전술한 좌 영상(200L)과 우 영상(200R)에서의 시차에 의한 입체영상 구현 방식은 단일의 시점(view)을 기준으로 입체영상을 제공하는 방식이다. 나아가, 다시점(Multi-View) 영상을 위해 좌안 디스플레이 패널(110L) 및 우안 디스플레이 패널(110R)은 각각 적어도 하나의 시차장벽(Parallax barrier)을 구비할 수 있으며, 시차장벽을 통해 다시점 입체 영상을 구현할 수 있다.
전술한 일 실시예에서, 좌 영상(200L)과 우 영상(200R)에서의 시차(disparity) 및 운동시차(motion parallax)를 통해, 수평방향의 시차를 예시하였으나, 라이트 필드(light-field)에서와 같이 풀 패럴렉스(full-parallax)를 표현하기 위해서는 수직방향의 시차를 반영할 수 있는 영상이 요구된다.
이에 따라, 좌 영상(200L)과 우 영상(200R) 각각은 수평 및 수직 방향의 시차를 제공할 수 있는 서브 영상을 구비할 수 있다.
입체영상을 구성하는 영상정보를 예시하는 도 3을 참조하면, 입체영상은 복수의 서브 영상(301, 302, 303, 304)을 구비할 수 있다. 상기 복수의 서브 영상은 영상을 구성하는 수평 및 수직 방향의 시차에 기초한다. 상기 입체영상에 구비되는 서브 영상의 개수는 수평 방향 시점의 수와 수직 방향의 시점의 수의 곱에 대응될 수 있다.
예를 들어, 입체영상은 EPI(epipolar plane image) 영상을 포함할 수 있다.
도 3에서 X축 및 Y축은 수평 및 수직 해상도를 나타낸다. 예를 들어, View 축이 수평 시점을 지시할 경우 X은 수평 해상도를 나타내고, Y축은 수식 해상도를 나타내고, View 축이 수직 시점일 경우 X은 수직 해상도를 나타내고, Y축은 수평 해상도를 나타낸다.
또한, 입체영상에는 적어도 하나의 객체가 구비될 수 있는데, 이러한 적어도 하나의 객체는 복수의 서브 영상(301, 302, 303, 304)들 사이에서 서로 다른 시차(D1, D2, D3)가 나타날 수 있다.
도 4는 도 3의 복수의 서브 영상(301, 302, 303, 304)에 의해 조합된 입체영상(400)을 예시하는 도면이다.
복수의 서브 영상(301, 302, 303, 304)은 제1객체(410)와, 제2객체(420)를 구비할 수 있는데, 제1객체(410)는 복수의 서브 영상(301, 302, 303, 304)에서 시차 없이 동일한 위치에 구비되고, 제2객체(420)는 복수의 서브 영상(301, 302, 303, 304)에서 소정의 시차(D1, D2, D3)를 가지며 구비될 수 있다. 이에 따라, 입체영상(400)에서 제1객체(410)가 존재하는 영역이 초점이 맞는 주시점으로 제시될 수 있으며, 제2객체(420)가 존재하는 영역은 초점이 맞지 않는 영역으로 제시될 수 있다.
한편, 사용자 인터렉션 정보 확인부(13)는 사용자 인터렉션 정보를 확인할 수 있다.
본 개시의 일 실시예에서 상기 사용자 인터렉션 정보는 입체영상의 초점을 제어하기 위해 사용되는 정보로서, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 지시하는 정보를 포함할 수 있다.
사용자 인터렉션 정보는 상기 사용자의 머리 위치와, 상기 사용자의 머리 방향을 지시하는 정보를 포함할 수 있다.
또한, 사용자 인터렉션 정보는 상기 사용자의 동공의 위치, 동공의 크기, 및 동공의 방향을 지시하는 정보를 포함할 수 있다.
디스플레이부(11)는 개인형 단말인 HMD(Head Mounted Display)를 포함할 수 있으며, 사용자 인터렉션 정보 확인부(13)는 3축 방향의 이동을 확인할 수 있는 움직임 센서와, 상기 움직임 센서로부터 검출되는 센서 데이터를 기반으로 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 지시하는 정보를 확인하는 움직임 확인부를 포함할 수 있다.
다른 예로서, 디스플레이부(11)는 소정 크기의 디스플레이 장치를 포함할 수 있다. 이 경우, 사용자 인터렉션 정보 확인부(13)는 디스플레이부(11)를 바라보는 사용자를 촬영하는 카메라와, 상기 카메라로부터 촬영되는 영상으로부터 사용자의 특정 영역(예, 머리 영역)을 검출하고, 상기 특정 영역의 이동을 검출하여, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 확인하는 움직임 확인부를 구비할 수 있다. 상기 움직임 확인부는 사용자의 눈(또는 동공)이 위치하는 영역을 검출하고, 동공의 크기와 동공의 방향을 검출할 수도 있다.
초점 제어부(15)는 사용자 인터렉션 정보 확인부(13)에서 확인된 사용자 인터렉션 정보에 대응되는 시점의 서브 영상을 검출한다. 그리고, 초점 제어부(15)는 서브 영상의 출력을 제어하여 디스플레이부(11)를 통해 출력되는 입체영상의 초점을 제어한다.
예컨대, 초점 제어부(15)는 사용자 인터렉션 정보 확인부(13)에서 확인된 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역에 대응되는 시점의 서브 영상을 검출할 수 있다. 상기 서브 영상은 좌 영상으로서 출력될 적어도 하나의 서브 영상과, 우 영상으로서 출력될 적어도 하나의 서브 영상을 포함할 수 있다. 이와 같이 좌 영상에 포함되는 적어도 하나의 서브 영상과, 우 영상에 포함되는 적어도 하나의 서브 영상의 출력 위치를 제어하여, 입체영상에 포함되는 적어도 하나의 객체에 대한 초점을 조절할 수 있다. 이때, 초점 제어부(15)는 좌 영상에 포함되는 서브 영상과, 우 영상에 포함되는 서브 영상의 주 시점을 제어하거나, 좌 영상에 포함되는 서브 영상과, 우 영상에 포함되는 서브 영상의 시차를 제어함으로써, 입체영상에 포함되는 적어도 하나의 객체에 대한 초점을 조절할 수 있다.
도 5는 본 개시의 일 실시예에 따른 입체영상 재생 장치에 구비되는 초점 제어부의 동작을 예시하는 도면이다.
초점 제어부(15)는 입체영상에 포함된 좌 영상에 구비되는 복수의 서브 영상(510L-1, 510L-2, 510L-3, ... 510L-n, n=양의 정수)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3, ... 510R-n)으로부터, 사용자 인터렉션 정보 확인부(13)에서 확인된 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역에 대응되는 시점의 서브 영상, 예를 들어, 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 검출할 수 있다. 그리고, 초점 제어부(15)는 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)에서 주시점에 해당하는 영역이 수직방향으로 정렬되도록 각 라인을 이동(shift)할 수 있다.
초점 제어부(15)는 주시점이 이동 및 정렬된 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 출력할 수 있다.
이와 같이, 주시점이 이동 및 정렬된 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 출력할 경우, 입체영상에 구비되는 객체의 초점이 조절될 수 있다(도 6참조).
추가적으로, 초점 제어부(15)는 주시점이 이동 및 정렬된 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 사용한 보간 동작을 통해, 가상 시점에 대한 적어도 하나의 서브 영상(510L-1', 510L-2', 510L-3', 510R-1', 510R-2', 510R-3')을 생성할 수 있다. 그리고, 초점 제어부(15)는 가상 시점에 대한 적어도 하나의 서브 영상에 대한 필터링을 처리할 수도 있다.
또한, 초점 제어부(15)는 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 반영하여, 주시점이 이동 및 정렬된 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 잘라내거나(cropping), 조합하여(adding) 서브 영상을 재구성할 수도 있다.
나아가, 초점 제어부(15)는 보간 및 필터링되어 생성된 서브 영상에 대해서 잘라내거나(cropping), 조합하여(adding) 서브 영상을 재구성할 수도 있다.
도 7은 본 개시의 일 실시예에 따른 입체영상 재생 방법의 순서를 도시하는 흐름도이다.
본 개시의 일 실시예에 따른 입체영상 재생 방법은 전술한 입체영상 재생 장치에 의해 수행될 수 있다. 입체영상 재생 장치는 3차원의 입체영상을 표시하기 위해 시차를 분리하는 좌우 두 개의 디스플레이 패널, 시차장벽(Parallax barrier), 렌티큘라(lenticular lens) 렌즈, 마이크로렌즈(Micro lens), 선광원 등을 이용하는 장치를 포함할 수 있다
도 7을 참조하면, 입체영상 재생 장치는 입체영상 데이터를 확인하고 출력할 수 있다(S701). 상기 입체영상은 적어도 하나의 서브 영상을 구비할 수 있다.
상기 입체영상은 수평 및 수직 방향의 시차를 제공하는데 필요한 서브 영상을 구비할 수 있다. 더 나아가, 상기 입체 영상은 사용자의 좌안에 제공되는 좌 영상과 사용자의 우안에 제공되는 우 영상을 포함할 수 있으며, 상기 좌 영상 및 우영상은 각각 서브 영상을 포함할 수 있다.
이러한 환경에서, 입체영상 재생 장치는 입체영상을 출력하는데 필요한 서브 영상들을 확인할 수 있다. 상기 복수의 서브 영상은 영상을 구성하는 수평 및 수직 방향의 시차에 기초하므로, 상기 입체영상에 구비되는 서브 영상의 개수는 수평 방향 시점의 수와 수직 방향의 시점의 수의 곱에 대응될 수 있다.
예를 들어, 상기 입체영상은 도 3 및 도 4와 같이 예시될 수 있다. 입체영상에는 적어도 하나의 객체가 구비될 수 있는데, 이러한 적어도 하나의 객체는 복수의 서브 영상(301, 302, 303, 304)들 사이에서 서로 다른 시차(D1, D2, D3)가 나타날 수 있다. 서브 영상(301, 302, 303, 304)의 시차에 의해 입체영상(400)에 구비되는 객체의 초점이 제어될 수 있다. 예컨대, 복수의 서브 영상(301, 302, 303, 304)에는 제1객체(410)와, 제2객체(420)가 구비될 수 있는데, 제1객체(410)는 복수의 서브 영상(301, 302, 303, 304)에서 시차 없이 동일한 위치에 구비되고, 제2객체(420)는 복수의 서브 영상(301, 302, 303, 304)에서 소정의 시차(D1, D2, D3)를 가지며 구비될 수 있다. 이에 따라, 입체영상(400)에서 제1객체(410)가 존재하는 영역이 초점이 맞는 주시점으로 제시될 수 있으며, 제2객체(420)가 존재하는 영역은 초점이 맞지 않는 영역으로 제시될 수 있다.
한편, S702 단계에서, 입체영상 재생 장치는 사용자 인터렉션 정보를 확인할 수 있다.
본 개시의 일 실시예에서 상기 사용자 인터렉션 정보는 입체영상의 초점을 제어하기 위해 사용되는 정보로서, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 지시하는 정보를 포함할 수 있다.
사용자 인터렉션 정보는 상기 사용자의 머리 위치와, 상기 사용자의 머리 방향을 지시하는 정보를 포함할 수 있다.
또한, 사용자 인터렉션 정보는 상기 사용자의 동공의 위치, 동공의 크기, 및 동공의 방향을 지시하는 정보를 포함할 수 있다.
입체영상 재생 장치는 개인형 단말인 HMD(Head Mounted Display) 형태로 구비될 수 있으며, 3축 방향의 이동을 확인할 수 있는 움직임 센서를 구비할 수 있다. 이에 따라, 입체영상 재생 장치는 상기 움직임 센서로부터 검출되는 센서 데이터를 기반으로 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 지시하는 정보를 확인할 수 있다.
다른 예로서, 입체영상 재생 장치는 소정 크기의 디스플레이 장치를 포함할 수 있다. 이 경우, 입체영상 재생 장치는 사용자를 촬영하는 카메라와, 상기 카메라로부터 촬영되는 영상으로부터 사용자의 특정 영역(예, 머리 영역)을 검출하고, 상기 특정 영역의 이동을 검출하여, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 지시하는 정보를 확인할 수 있다. 나아가, 입체영상 재생 장치는 상기 카메라로부터 촬영되는 영상으로부터 사용자의 눈(또는 동공)이 위치하는 영역을 검출하고, 동공의 크기와 동공의 방향을 검출할 수도 있다.
다음으로, 입체영상 재생 장치는 사용자 인터렉션 정보에 대응되는 시점의 서브 영상을 검출하고(S703), 사용자 인터렉션 정보에 맞게 서브 영상을 재구성한다(S704).
구체적으로, 입체영상 재생 장치는 확인된 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역에 대응되는 시점의 서브 영상을 검출할 수 있다. 상기 서브 영상은 좌 영상으로서 출력될 적어도 하나의 서브 영상과, 우 영상으로서 출력될 적어도 하나의 서브 영상을 포함할 수 있다. 그리고, 이와 같이 좌 영상에 포함되는 적어도 하나의 서브 영상과, 우 영상에 포함되는 적어도 하나의 서브 영상의 출력 위치, 출력 크기, 배열 등을 제어하여 서브 영상을 재구성할 수 있다.
이와 같이 S704 단계에서 서브 영상을 재구성함으로써, 입체영상에 포함되는 적어도 하나의 객체에 대한 초점을 조절할 수 있다.
도 5를 참조하여, S703 및 S704 단계의 동작을 좀 더 상세하게 예시한다.
입체영상 재생 장치는 입체영상에 포함된 좌 영상에 구비되는 복수의 서브 영상(510L-1, 510L-2, 510L-3, ... 510L-n)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3, ... 510R-n)으로부터, 사용자 인터렉션 정보에 대응되는 시점의 서브 영상, 예를 들어, 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 검출할 수 있다.
입체영상 재생 장치는 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)에서 주시점에 해당하는 영역이 수직방향으로 정렬되도록 각 라인을 이동(shift)시킨 서브 영상을 재구성할 수 있다.
또한, 입체영상 재생 장치는 주시점이 이동 및 정렬된 좌 영상에 구비되는 서브 영상(510L-1, 510L-2, 510L-3)과, 우 영상에 구비되는 복수의 서브 영상(510R-1, 510R-2, 510R-3)을 사용한 보간 동작을 처리함으로써, 가상 시점에 대한 적어도 하나의 서브 영상을 생성하고, 생성된 서브 영상에 대한 필터링을 처리하여 서브 영상을 재구성할 수도 있다.
또한, 입체영상 재생 장치는 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 반영하여, 주시점이 이동 및 정렬된 서브 영상(510L-1, 510L-2, 510L-3, 510R-1, 510R-2, 510R-3)을 잘라내거나(cropping), 조합하여(adding) 서브 영상을 재구성하거나, 가상 시점에 대한 적어도 하나의 서브 영상의 보간 및 필터링을 통해 생성된 서브 영상을 잘라내거나(cropping), 조합하여(adding) 서브 영상을 재구성할 수도 있다.
S705 단계에서는, 전술한 동작을 통해 재구성된 서브 영상을 포함하는 입체 영상을 출력할 수 있다.
이와 같이 사용자 인터렉션 정보를 반영하여 서브 영상을 재구성하고, 재구성된 서브 영상을 포함하는 입체 영상을 구성 및 출력함으로써, 입체영상은 영상에 포함된 객체의 초점이 조절되거나, 영상의 출력 영역이 조절될 수 있다.
본 개시에 따르면, 입체영상을 디스플레이하는 장치, 특히, HMD와 같은 개인형 실감디스플레이 장치에서 비교적 작은 연산 처리를 통해 연속적인 패럴럭스와 초점 가변이 가능한 입체영상을 제공할 수 있으며, 나아가, 사용자의 몰입 효과가 크고 시청 피로가 작은 가상현실 서비스의 제공이 가능하다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (14)

  1. 복수의 서브 영상을 포함하며, 상기 복수의 서브 영상의 조합에 의해 초점을 형성하는 적어도 하나의 영상을 출력하는 과정과,
    상기 적어도 하나의 영상을 시청하는 사용자에 대한 사용자 인터렉션 정보를 확인하는 과정과,
    상기 사용자 인터렉션 정보에 기초하여 상기 적어도 하나의 영상에 구비되는 상기 복수의 서브 영상을 제어하여 상기 초점을 보정하는 과정과,
    상기 초점이 보정된 상기 적어도 하나의 영상을 출력하는 과정을 포함하는 입체영상 재생 방법.
  2. 제1항에 있어서,
    사용자 인터렉션 정보를 확인하는 과정은,
    상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위를 확인하는 과정을 포함하는 입체영상 재생 방법.
  3. 제1항에 있어서,
    사용자 인터렉션 정보를 확인하는 과정은,
    상기 사용자의 머리 위치와, 상기 사용자의 머리 방향을 지시하는 정보를 확인하는 과정과,
    상기 사용자의 머리 위치와, 상기 사용자의 머리 방향을 지시하는 정보에 대응되는 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위를 확인하는 과정을 포함하는 입체영상 재생 방법.
  4. 제1항에 있어서,
    사용자 인터렉션 정보를 확인하는 과정은,
    상기 사용자의 동공의 위치, 동공의 크기, 및 동공의 방향을 지시하는 정보를 확인하는 과정과,
    상기 사용자의 동공의 위치, 동공의 크기, 및 동공의 방향을 지시하는 정보에 대응되는 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위를 확인하는 과정을 포함하는 입체영상 재생 방법.
  5. 제2항에 있어서,
    상기 적어도 하나의 영상의 초점 정보를 보정하는 과정은,
    상기 사용자의 시선과 상기 서브 영상에 구비되는 객체 사이의 관계를 확인하는 과정과,
    상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위에 대응되는 상기 서브 영상을 검출하는 과정과,
    상기 사용자의 시선이 바라보는 방향 및 상기 사용자의 시선이 바라보는 영역에 맞게 상기 서브 영상을 조절하는 과정과,
    상기 조절된 서브 영상을 구비하는 상기 적어도 하나의 영상을 구성하는 과정을 포함하는 입체영상 재생 방법.
  6. 제2항에 있어서,
    상기 적어도 하나의 영상의 초점 정보를 보정하는 과정은,
    상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위에 대응되는 상기 서브 영상을 검출하고, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역에 맞게 상기 검출된 서브 영상에 포함되는 일부 영역을 잘라내는 과정과,
    상기 서브 영상에 포함되는 일부 영역을 구비하는 상기 적어도 하나의 영상을 구성하는 과정을 포함하는 입체영상 재생 방법.
  7. 제1항에 있어서,
    상기 적어도 하나의 영상은,
    적어도 하나의 좌영상 및 우영상을 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  8. 복수의 서브 영상의 조합에 의해 초점을 형성하는 적어도 하나의 영상을 구비하는 입체영상을 출력하는 입체 영상 디플레이부와,
    상기 입체영상을 시청하는 사용자에 대한 사용자 인터렉션 정보를 확인하는 사용자 인터렉션 정보 확인부와,
    상기 사용자 인터렉션 정보에 기초하여 상기 복수의 서브 영상을 제어하여 상기 초점을 보정하는 초점 제어부를 포함하는 입체영상 재생 장치.
  9. 제8항에 있어서,
    상기 사용자 인터렉션 정보 확인부는,
    사용자 인터렉션 정보로서 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위를 확인하는 것을 특징으로 하는 입체영상 재생 장치.
  10. 제8항에 있어서,
    상기 사용자 인터렉션 정보 확인부는,
    상기 사용자의 머리 위치와, 상기 사용자의 머리 방향을 지시하는 정보를 확인하고,
    상기 사용자의 머리 위치와, 상기 사용자의 머리 방향을 지시하는 정보에 대응되는 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역을 확인하는 것을 특징으로 하는 입체영상 재생 장치.
  11. 제8항에 있어서,
    상기 사용자 인터렉션 정보 확인부는,
    상기 사용자의 동공의 위치, 동공의 크기, 및 동공의 방향을 지시하는 정보를 확인하고,
    상기 사용자의 동공의 위치, 동공의 크기, 및 동공의 방향을 지시하는 정보에 대응되는 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위를 확인하는 것을 특징으로 하는 입체영상 재생 장치.
  12. 제9항에 있어서,
    상기 초점 제어부는,
    상기 사용자의 시선과 상기 서브 영상에 구비되는 객체 사이의 관계를 확인하고,
    상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위에 대응되는 상기 서브 영상을 검출하고,
    상기 사용자의 시선이 바라보는 방향 및 상기 사용자의 시선이 바라보는 영역에 맞게 상기 서브 영상을 조절하고,
    상기 조절된 서브 영상을 구비하는 상기 적어도 하나의 영상을 구성하는 것을 특징으로 하는 입체영상 재생 장치.
  13. 제9항에 있어서,
    상기 초점 제어부는,
    상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역의 범위에 대응되는 상기 서브 영상을 검출하고, 상기 사용자의 시선이 바라보는 방향과, 상기 사용자의 시선이 바라보는 영역에 맞게 상기 검출된 서브 영상에 포함되는 일부 영역을 잘라내고,
    상기 서브 영상에 포함되는 일부 영역을 구비하는 상기 적어도 하나의 영상을 구성하는 것을 특징으로 하는 입체영상 재생 장치.
  14. 제8항에 있어서,
    상기 적어도 하나의 영상은,
    적어도 하나의 좌영상 및 우영상을 포함하는 것을 특징으로 하는 입체영상 재생 장치.
KR1020170037894A 2017-03-24 2017-03-24 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치 KR102306775B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170037894A KR102306775B1 (ko) 2017-03-24 2017-03-24 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치
CN201810156558.7A CN108632600B (zh) 2017-03-24 2018-02-24 反映用户交互信息来播放立体图像的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170037894A KR102306775B1 (ko) 2017-03-24 2017-03-24 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20180108314A true KR20180108314A (ko) 2018-10-04
KR102306775B1 KR102306775B1 (ko) 2021-09-29

Family

ID=63706065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170037894A KR102306775B1 (ko) 2017-03-24 2017-03-24 사용자 인터렉션 정보를 반영하여 입체영상을 재생하는 방법 및 장치

Country Status (2)

Country Link
KR (1) KR102306775B1 (ko)
CN (1) CN108632600B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210004929A (ko) * 2019-04-25 2021-01-13 강성철 다초점 영상 재생 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150090183A (ko) * 2012-11-27 2015-08-05 퀄컴 인코포레이티드 3-d 플레놉틱 비디오 이미지들을 생성하는 시스템 및 방법
CN105812777A (zh) * 2015-01-21 2016-07-27 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2395764B1 (en) * 2010-06-14 2016-02-17 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
TWI496452B (zh) * 2011-07-29 2015-08-11 Wistron Corp 立體影像系統、立體影像產生方法、立體影像調整裝置及其方法
US9426447B2 (en) * 2012-10-09 2016-08-23 Electronics And Telecommunications Research Institute Apparatus and method for eye tracking
US10136124B2 (en) * 2015-04-27 2018-11-20 Microsoft Technology Licensing, Llc Stereoscopic display of objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150090183A (ko) * 2012-11-27 2015-08-05 퀄컴 인코포레이티드 3-d 플레놉틱 비디오 이미지들을 생성하는 시스템 및 방법
CN105812777A (zh) * 2015-01-21 2016-07-27 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210004929A (ko) * 2019-04-25 2021-01-13 강성철 다초점 영상 재생 장치 및 방법

Also Published As

Publication number Publication date
KR102306775B1 (ko) 2021-09-29
CN108632600A (zh) 2018-10-09
CN108632600B (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
US7440004B2 (en) 3-D imaging arrangements
KR20140038366A (ko) 움직임 패럴랙스를 가지는 3-차원 디스플레이
KR20130125777A (ko) 적응 시차를 갖는 3d 디스플레이를 위한 방법 및 시스템
KR20120030005A (ko) 화상 처리 장치 및 방법과 입체 화상 표시 장치
CA3086592A1 (en) Viewer-adjusted stereoscopic image display
TWI589150B (zh) 3d自動對焦顯示方法及其系統
WO2020115815A1 (ja) ヘッドマウントディスプレイ装置
KR100751290B1 (ko) 헤드 마운티드 디스플레이용 영상 시스템
JP6207640B2 (ja) 2次元映像の立体映像化表示装置
Siegel et al. Kinder, gentler stereo
CN108632600B (zh) 反映用户交互信息来播放立体图像的方法及装置
CN101908233A (zh) 产生用于三维影像重建的复数视点图的方法及***
Hwang et al. Stereoscopic 3D Optic Flow Distortions Caused by Mismatches between Image Acquisition and Display Parameters
KR101172507B1 (ko) 시점 조정 3차원 영상 제공 장치 및 방법
WO2017085803A1 (ja) 映像表示装置及び映像表示方法
JP2014053782A (ja) 立体画像データ処理装置、および、立体画像データ処理方法
US20060152580A1 (en) Auto-stereoscopic volumetric imaging system and method
KR102242923B1 (ko) 스테레오 카메라의 정렬장치 및 스테레오 카메라의 정렬방법
Amemiya et al. TeleParallax: Low-Motion-Blur Stereoscopic System With Correct Interpupillary Distance for 3D Head Rotations
Watt et al. 3D media and the human visual system
CN111684517B (zh) 观看者调节的立体图像显示
KR20180092187A (ko) 증강 현실 제공 시스템
Rhee et al. Stereoscopic view synthesis by view morphing
KR101429234B1 (ko) 스케일러를 이용한 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라
JP2010256713A (ja) 眼鏡および表示システム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant