KR102279816B1 - 무안경 입체영상표시장치 - Google Patents

무안경 입체영상표시장치 Download PDF

Info

Publication number
KR102279816B1
KR102279816B1 KR1020140191078A KR20140191078A KR102279816B1 KR 102279816 B1 KR102279816 B1 KR 102279816B1 KR 1020140191078 A KR1020140191078 A KR 1020140191078A KR 20140191078 A KR20140191078 A KR 20140191078A KR 102279816 B1 KR102279816 B1 KR 102279816B1
Authority
KR
South Korea
Prior art keywords
view
image
viewer
viewing
views
Prior art date
Application number
KR1020140191078A
Other languages
English (en)
Other versions
KR20160079555A (ko
Inventor
안충환
이재우
정보균
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020140191078A priority Critical patent/KR102279816B1/ko
Publication of KR20160079555A publication Critical patent/KR20160079555A/ko
Application granted granted Critical
Publication of KR102279816B1 publication Critical patent/KR102279816B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 발명의 무안경 입체영상표시장치는 시청자 위치에 따라 영상패널의 뷰 데이터(view data)를 치환하여 어느 위치에서나 3D 영상을 시청하는 것을 특징으로 한다. 이를 위해 시청자 위치에 따라 좌, 우안이 인지하는 영상의 종류 및 수, 그리고 영상패널 상의 분포를 수식으로 일반화하여 분석한다.
이때, 본 발명은 뷰잉 다이아몬드(viewing diamond)를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입함으로써 2D 영역을 줄이는 것을 특징으로 한다. 또한, 본 발명은 뷰 데이터 렌더링(view data rendering)을 통해 뷰 겹침에 따라 발생하는 크로스토크(crosstalk)를 제거하는 것을 특징으로 한다.
이와 같이 3D 시청영역의 확장으로 시청 자유도가 높아지며, 갭 글라스를 제거할 수 있어 비용이 감소되는 효과를 제공한다.

Description

무안경 입체영상표시장치{AUTOSTEREOSCOPIC 3D DISPLAY DEVICE}
본 발명은 입체영상표시장치에 관한 것으로, 보다 상세하게는 안경을 착용하지 않는 방식의 무안경 입체영상표시장치에 관한 것이다.
3D 디스플레이(display)란 간단히 정의를 내리자면 "인위적으로 3D 화면을 재생시켜 주는 시스템의 총체"라고 할 수 있다.
여기서, 시스템이란 3D로 보여질 수 있는 소프트웨어적인 기술과 그 소프트웨어적 기술로 만든 컨텐츠를 실제로 3D로 구현해내는 하드웨어를 동시에 포함한다. 소프트웨어 영역까지 포함시키는 이유는 3D 디스플레이 하드웨어의 경우 각각의 입체 구현방식마다 별도의 소프트웨어적 방식으로 구성된 컨텐츠가 따로 필요하기 때문이다.
또한, 가상 3D 디스플레이(이하, 입체영상표시장치라 함)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. 다시 말해 우리의 눈은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 약간은(정확히 말하면 좌우의 공간적 정보를 약간씩 나눠 가지고 있는) 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치인 것이다.
이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. 그렇게 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다. 또한, 안경을 착용하는 방식의 경우에는 각각의 방식에 맞는 특수한 안경을 통하여 오른쪽 화상은 왼쪽 눈이 볼 수 없게 가려주고, 왼쪽 화상은 오른쪽 눈이 볼 수 없게 각각 가려주는 방법을 사용한다.
이와 같이 사람이 입체감과 깊이감을 느끼는 요인으로 가장 중요하게는 두 눈 사이의 간격에 의한 양안시차를 들 수 있지만, 이외에도 심리적, 기억적 요인에도 깊은 관계가 있고, 이에 따라 입체 구현방식 역시 관찰자에게 어느 정도의 3차원 영상정보를 제공할 수 있는지를 기준으로 통상 부피표현방식(volumetric type), 3차원표현방식(holographic type), 입체감표현방식(stereoscopic type)으로 구분된다.
부피표현방식은 심리적인 요인과 흡입효과에 의해 깊이방향에 대한 원근감이 느껴지도록 하는 방법으로서, 투시도법, 중첩, 음영과 명암, 움직임 등을 계산에 의해 표시하는 3차원 컴퓨터그래픽, 또는 관찰자에게 시야각이 넓은 대화면을 제공하여 그 공간 내로 빨려 들어가는 것 같은 착시현상을 불러일으키는 이른바 아이맥스 영화 등에 응용되고 있다.
가장 완전한 입체영상 구현기술이라 알려져 있는 3차원표현방식은 레이저광 재생 홀로그래피(holography) 내지 백색광 재생 홀로그래피로 대표될 수 있다.
그리고, 입체감표현방식은 양안의 생리적 요인을 이용하여 입체감을 느끼는 방식으로, 전술한 바와 같이 약 65㎜ 떨어져 존재하는 인간의 좌, 우안에 시차정보가 포함된 평면의 연관 영상이 보일 경우에 뇌가 이들을 융합하는 과정에서 표시면 전후의 공간정보를 생성해 입체감을 느끼는 능력, 즉 입체 사진술(stereography)을 이용한 것이다. 이러한 입체감표현방식은 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다.
안경을 착용하지 않는 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 렌즈 방식과 패러렉스 배리어(parallax barrier) 방식이 있다.
도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면으로써, 렌즈의 배면거리(S)와 시청거리(v) 사이의 관계를 보여주고 있다.
도 1을 참조하면, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 상, 하부 기판과 그 사이에 액정이 충진된 액정패널(10), 액정패널(10)의 후면(後面)에 위치하여 광을 조사하는 백라이트 유닛(미도시) 및 입체영상의 구현을 위해 액정패널(10) 전면(前面)에 위치하는 렌티큘러 렌즈판(20)을 포함하여 이루어진다.
렌티큘러 렌즈판(20)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘러 렌즈가 형성되어 이루어진다.
이러한 렌티큘러 렌즈판(20)은 좌, 우안 영상을 나누어주는 역할을 수행하고 있으며, 렌티큘러 렌즈판(20)으로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(viewing diamond)(정시영역)(미도시)가 형성되어 있다.
뷰잉 다이아몬드의 하나의 폭은 시청자의 양안 간격 크기로 형성되는데, 이는 시청자의 좌안과 우안에 각각 시차가 있는 영상을 입력함으로써 입체영상으로 인식하게 하기 위함이다.
이때, 각 뷰잉 다이아몬드에는 대응되는 액정패널(10)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다.
뷰 데이터는 양안 간격의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다. 이하에서는 뷰 데이터와 뷰 영상을 동일한 의미로 사용하고자 한다.
이러한 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 액정패널(10)과 렌티큘러 렌즈판(20)이 기구물(미도시) 등에 의해 지지되어, 액정패널(10)과 렌티큘러 렌즈판(20) 사이가 소정 간격(배면 거리; S) 이격되어 있다.
이때, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치에서는 배면 거리(S)를 일정하게 유지하기 위해 갭 글라스(26)가 삽입되어 있다.
전술한 바와 같이, 렌티큘러 렌즈 방식의 입체영상표시장치에서는 초기에 설계된 뷰-맵(view map)에 따라 형성되는 멀티 뷰(multi view) 방식으로 구현되기 때문에 시청자는 정해진 뷰의 영역으로 들어갈 때 3D 영상을 시청할 수 있다.
본 출원인이 기 출원한 대한민국 출원 10-2012-0108794를 참조하면, 시청자의 좌안과 우안에 인지되는 영상에 따라 적절히 뷰 데이터를 치환함으로써, 3D 시청영역(viewing zone)의 확장 및 깊이 정도를 제어할 수 있다.
다만, 이 경우에는 시청자가 입체영상표시장치의 최적 시청거리에서 앞이나 뒤로 이동함에 따라 발생하는 2D 영역(즉, 2D 시청영역)의 처리에 대해 언급하고 있지 않다.
도 2a 및 도 2b는 2D 영역이 발생하는 예를 보여주는 도면이다.
이때, 도 2a 및 도 2b는 시청자가 최적 시청거리의 바로 뒤(제 1, 제 2 후방 시청영역)에 위치할 때 시청자의 좌, 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주고 있다.
이때, 도 2a는 시청자의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 2b는 시청자의 우안에서 인지되는 서브-픽셀과 뷰를 예로 보여주고 있다.
도 2a 및 도 2b를 참조하면, 시청자의 좌안 및 우안이 제 1 후방 시청영역 및 제 2 후방 시청영역에 위치하면, 시청자의 좌안은 제 1 뷰 영상(1)을 표시하는 서브-픽셀들 및 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 함께 보고, 시청자의 우안은 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 보게 된다.
즉, 시청자의 좌안 및 우안이 제 1 후방 시청영역 및 제 2 후방 시청영역에 위치하면 시청자는 영상패널의 일부에서 2D 영역을 느끼게 된다.
본 발명은 상기한 문제를 해결하기 위한 것으로, 시청자 위치에 따라 영상패널의 뷰 데이터를 치환함으로써 2D 시청영역 및 역입체시 영역을 제거하여, 어느 위치에서나 3D 영상을 시청할 수 있는 무안경 입체영상표시장치를 제공하는데 목적이 있다.
기타, 본 발명의 다른 목적 및 특징들은 후술되는 발명의 구성 및 특허청구범위에서 설명될 것이다.
상기한 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 시청자 위치에 따라 영상패널의 뷰 데이터를 치환하고, 뷰잉 다이아몬드(viewing diamond)를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입하는 것을 특징으로 한다.
또한, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 뷰 데이터 렌더링(view data rendering)을 통해 뷰 겹침에 따라 발생하는 크로스토크를 제거하는 것을 특징으로 한다.
이를 위해 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널, 영상패널의 전면에 배치되며, 입력 데이터의 광축을 분리하여 최적 시청거리에 제 1 뷰 영상 내지 제 K(K는 1≤K≤m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드를 형성하는 3D 필터 및 시청자의 위치 및 2D 영역에 해당하는 뷰를 연산하고, 이를 바탕으로 뷰잉 다이아몬드를 상호 중첩시키는 타이밍 컨트롤러를 포함하여 구성할 수 있다.
이때, 시청자의 위치가 최적 시청거리의 N배에 해당하는 경우 뷰잉 다이아몬드를 N번 이상 중첩시킬 수 있다.
타이밍 컨트롤러는 시청자의 위치에 따라 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산할 수 있다.
이때, 연산된 뷰 및 뷰의 수를 바탕으로 뷰 데이터 렌더링 영역을 선정할 수 있다.
이때, 선정된 뷰 데이터 렌더링 영역을 바탕으로 뷰 영상을 시청자의 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 영상으로 각각 치환할 수 있다.
이때, 일 예로 좌안의 경우에는 인지되는 다수의 뷰 영상들 중 어느 하나의 뷰 영상으로 치환하며, 우안의 경우에는 인지되는 다수의 뷰 영상들 중 좌안에서 치환된 뷰 영상을 제외한 다른 하나의 뷰 영상으로 치환할 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 3D 시청영역이 확장되어 시청 자유도가 높아지며, 초점 거리와 배면거리의 설계 자유도가 강화되는 효과를 제공한다.
또한, 갭 글라스를 제거할 수 있어 비용이 감소되는 효과를 제공한다.
도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면.
도 2a 및 도 2b는 2D 영역이 발생하는 예를 보여주는 도면.
도 3은 본 발명의 실시예에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도.
도 4는 본 발명의 실시예에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도.
도 5는 무안경 입체영상표시장치에 있어, 시청영역(viewing zone)을 설명하기 위한 예시도.
도 6은 뷰잉 다이아몬드(viewing diamond)를 XZ-평면에 투사시켜 보여주는 도면.
도 7a 및 도 7b는 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 8은 최적 시청거리의 2배 거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 9는 최적 시청거리를 포함하는 전 영역에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 10은 최적 시청거리의 k배의 시청거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면.
도 11은 XZ-평면에서의 뷰잉 다이아몬드 셀(cell)을 예로 들어 보여주는 도면.
도 12는 P1 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면.
도 13a 및 도 13b는 P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 14는 P1 위치에서 2D, 3D 영역을 보여주는 도면.
도 15는 P2 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면.
도 16a 및 도 16b는 P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 17은 P2 위치에서 2D, 3D 영역을 보여주는 도면.
도 18은 P2 위치에서 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면.
도 19a 및 도 19b는 P3 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 20은 P3 위치에서 2D, 3D 영역을 보여주는 도면.
도 21a 및 도 21b는 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 22a 및 도 22b는 최적 시청거리의 2배 이상의 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 23은 최적 시청거리의 2배가 넘는 시청거리에서, 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면.
도 24a 및 도 24b는 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예로 들어 보여주는 도면.
도 25는 2중첩 구조에 있어, P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 26은 2중첩 구조에 있어, P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면.
도 27은 2중첩 구조에 있어, P2 위치에서 2D, 3D 영역을 보여주는 도면.
도 28은 본 발명의 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예로 들어 보여주는 도면.
도 29a 및 도 29b는 P1 위치에서 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 30a 및 도 30b는 P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 31a 및 도 31b는 P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 32a 및 도 32b는 뷰 데이터 렌더링(view data rendering)을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 33a 및 도 33b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 34 및 도 35는 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면.
도 36은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면.
도 37은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
도 38은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면.
이하, 첨부한 도면을 참조하여 본 발명에 따른 무안경 입체영상표시장치의 바람직한 실시예를 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 도면에서 층 및 영역들의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장될 수 있다.
소자(element) 또는 층이 다른 소자 또는 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 소자 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 반면, 소자가 "직접 위(directly on)" 또는 "바로 위"로 지칭되는 것은 중간에 다른 소자 또는 층을 개재하지 않는 것을 나타낸다.
공간적으로 상대적인 용어인 "아래(below, beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 소자 또는 구성 요소들과 다른 소자 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 소자의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 소자를 뒤집을 경우, 다른 소자의 "아래(below)" 또는 "아래(beneath)"로 기술된 소자는 다른 소자의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 따라서 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
도 3은 본 발명의 실시예에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 무안경 입체영상표시장치는 크게 영상패널(110), 영상패널 구동부(111, 112), 3D 필터(120), 3D 필터 구동부(미도시), 타이밍 컨트롤러(113) 등을 포함하여 구성될 수 있다.
본 발명의 실시예에 따른 입체영상표시장치는 액정표시장치(Liquid Crystal Display; LCD), 유기발광표시장치(Organic Light Emitting Diode Display; OLED), 전계발광표시장치(Field Emission Display; FED), 플라즈마영상표시장치(Plasma Display Panel; PDP), 전기발광표시장치(Electroluminescent Display; EL) 등의 평판표시소자로 구현될 수 있다. 본 발명은 아래의 실시예에서 영상패널(110)을 액정표시장치로 구성한 경우를 예시하였지만, 본 발명이 이에 한정되는 것은 아니다.
이때, 영상패널(110)에는 적, 녹 및 청색을 표시하는 다수의 서브-픽셀들이 형성되어 있으며, 이러한 서브-픽셀들은 3D 필터(120)와 작용하여 입체영상을 표시하기 위해, 좌안영상과 우안영상을 표시하는 좌안픽셀과 우안픽셀이 구분되어 있다.
일 예로, 영상패널(110)을 액정표시장치로 구성하는 경우, 본 발명은 액정 모드, 즉 트위스티드 네마틱(Twisted Nematic; TN) 모드, 인-플레인 스위칭(In Plane Switching; IPS) 모드, 프린지-필드 스위칭(Fringe Field Switching; FFS) 모드 및 수직배향(Vertical Alignment; VA) 모드에 상관없이 적용 가능하다.
이때, 도시하지 않았지만, 영상패널(110)은 크게 컬러필터(color filter) 기판과 어레이(array) 기판 및 컬러필터 기판과 어레이 기판 사이에 형성된 액정층으로 구성될 수 있다.
컬러필터 기판은 적, 녹 및 청의 색상을 구현하는 다수의 서브-컬러필터로 구성된 컬러필터와 서브-컬러필터 사이를 구분하고 액정층을 투과하는 광을 차단하는 블랙매트릭스(Black Matrix; BM), 그리고 액정층에 전압을 인가하는 투명한 공통전극으로 이루어질 수 있다.
어레이 기판은 종횡으로 배열되어 다수의 화소영역을 정의하는 다수의 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm), 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm)의 교차영역에 형성된 스위칭소자인 박막 트랜지스터 및 화소영역에 형성된 화소전극으로 이루어져 있다.
박막 트랜지스터는 게이트라인(G1, G2, G3,..., Gn)에 연결된 게이트전극, 데이터라인(D1, D2, D3,..., Dm)에 연결된 소오스전극 및 화소전극에 전기적으로 접속된 드레인전극으로 구성되어 있다. 또한, 박막 트랜지스터는 게이트전극과 소오스/드레인전극 사이의 절연을 위한 게이트절연막 및 게이트전극에 공급되는 게이트 전압에 의해 소오스전극과 드레인전극간에 전도채널(conductive channel)을 형성하는 액티브층을 포함한다.
컬러필터 기판의 외면에는 상부 편광판이 부착되고, 어레이 기판의 외면에는 하부 편광판이 부착된다. 상부 편광판의 광투과축과 하부 편광판의 광투과축은 서로 직교되도록 형성될 수 있다. 그리고, 컬러필터 기판과 어레이 기판의 내면에는 액정층의 프리틸트 각(pre-tilt angle)을 설정하기 위한 배향막이 형성되는 한편, 컬러필터 기판과 어레이 기판 사이에는 영상패널(110)의 셀 갭(cell gap)을 유지하기 위한 스페이서가 형성된다.
이와 같이 구성되는 영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 영상을 표시한다.
영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 2D 모드에서 2D 영상을 표시하고, 3D 모드에서 멀티 뷰 영상을 표시할 수 있다.
입체영상의 뷰는 시청자의 양안 간격만큼 카메라들을 이격하고 객체에 대한 이미지를 촬영하여 생성할 수 있다. 일 예로, 9대의 카메라를 이용하여 객체를 촬영하는 경우, 영상패널(110)은 9뷰의 입체영상을 표시할 수 있다.
영상패널 구동부(111, 112)는 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)에 2D/3D 영상의 데이터전압들을 공급하기 위한 데이터 구동부(111)와 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 스캔 펄스(또는 게이트 펄스)를 순차적으로 공급하기 위한 게이트 구동부(112)를 포함한다. 영상패널 구동부(111, 112)는 3D 모드에서 멀티 뷰 영상 데이터 포맷의 데이터로 입력된 좌안 및 우안 영상 데이터를 영상패널(110)의 서브-픽셀들에 공간적으로 분산하여 기입한다.
이때, 도시하지 않았지만, 호스트 시스템(115)에 연결되는 시청거리 감지부는 센서를 이용하여 시청자의 거리, 시청자의 양안 위치를 감지하여 그 결과를 디지털 데이터로 변화하여 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 공급한다. 센서는 자외선 센서나 고주파 센서 등이 적용될 수 있다.
시청거리 감지부는 2개의 센서 출력을 삼각 측량법으로 분석하여 영상패널(110)과 시청자 사이의 거리를 계산하여 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다. 시청거리 감지부는 공지된 얼굴 인식 알고리즘을 통해 센서 출력을 분석하여 시청자의 양안 위치를 감지하고, 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다.
타이밍 컨트롤러(113)는 데이터 인에이블 신호(Data Enable, DE), 도트 클럭(CLK) 등의 타이밍신호를 입력받아 게이트 구동부(111)와 데이터 구동부(112)의 동작 타이밍을 제어하기 위한 제어신호들(GCS, DCS)을 발생한다.
즉, 타이밍 컨트롤러(113)는 멀티 뷰 영상 변환부(114)(또는 호스트 시스템(115))로부터 입력받은 영상 데이터와 타이밍 신호들에 기초하여 소정의 프레임 주파수로 영상패널(110)을 구동시키고, 소정의 프레임 주파수를 기준으로 게이트 구동부 제어신호(GCS), 데이터 구동부 제어신호(DCS)를 발생할 수 있다. 타이밍 컨트롤러(113)는 게이트 구동부 제어신호(GCS)를 게이트 구동부(111)로 공급하고, 영상 데이터(R, G, B)와 데이터 구동부 제어신호(DCS)를 데이터 구동부(112)로 공급한다.
게이트 구동부(111)를 제어하기 위한 게이트 구동부 제어신호(GCS)는 게이트 스타트 펄스(Gate Start Pulse), 게이트 쉬프트 클럭(Gate Shift Clock) 및 게이트 출력 인에이블 신호(Gate Output Enable) 등을 포함한다. 게이트 스타트 펄스는 첫 번째 게이트 펄스의 타이밍을 제어한다. 게이트 쉬프트 클럭은 게이트 스타트 펄스를 쉬프트 시키기 위한 클럭신호이다. 게이트 출력 인에이블 신호는 게이트 구동부(111)의 출력 타이밍을 제어한다.
데이터 구동부(112)를 제어하기 위한 데이터 구동부 제어신호(DCS)는 소스 스타트 펄스(Source Start Pulse), 소스 샘플링 클럭(Source Sampling Clock), 소스 출력 인에이블 신호(Source Output Enable), 극성제어신호 등을 포함한다. 소스 스타트 펄스는 데이터 구동부(112)의 데이터 샘플링 시작 시점을 제어한다. 소스 샘플링 클럭은 라이징 또는 폴링 에지에 기준 하여 데이터 구동부(112)의 샘플링 동작을 제어하는 클럭신호이다. 데이터 구동부(112)에 입력될 디지털 비디오 데이터가 mini LVDS(Low Voltage Differential Signaling) 인터페이스 규격으로 전송된다면, 소스 스타트 펄스와 소스 샘플링 클럭은 생략될 수 있다. 극성제어신호는 데이터 구동부(112)로부터 출력되는 데이터전압의 극성을 L(L은 자연수) 수평기간 주기로 반전시킨다. 소스 출력 인에이블 신호는 데이터 구동부(112)의 출력 타이밍을 제어한다.
데이터 구동부(112)는 다수의 소스 드라이브 IC를 포함한다. 소스 드라이브 IC들은 타이밍 컨트롤러(113)로부터 입력되는 영상 데이터(R, G, B)를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터전압들은 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)들에 공급된다.
게이트 구동부(111)는 하나 이상의 게이트 드라이브 IC를 포함한다. 게이트 구동부(111)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정 셀의 TFT 구동에 적합한 스윙 폭으로 변환하기 위한 레벨 쉬프터 및 출력 버퍼 등을 포함한다. 게이트 구동부(111)는 타이밍 컨트롤러(113)의 제어 하에 데이터 전압에 동기되는 게이트 펄스를 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 순차적으로 공급한다.
특히, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 시청자 위치에 따라 좌, 우안이 인지하는 영상의 종류 및 수, 그리고 영상패널(110) 상의 분포를 연산을 통해 분석하는 기능을 수행할 수 있다. 이때, 2D 영역을 줄이기 위해 뷰잉 다이아몬드를 겹쳐 3D 영역의 비율을 증가시키거나 2D 영역의 뷰에 블랙 데이터를 삽입할 수 있다. 또는, 2D 영역의 뷰에 인접한 뷰 데이터와 동일하거나 유사한 뷰 데이터를 입력할 수도 있다.
뷰잉 다이아몬드를 겹치는 경우 시청거리의 확장이 가능하다. 일 예로, 시청거리를 N배 확장하기 위해서는 뷰잉 다이아몬드를 N번 이상 겹치도록 구성할 수 있다.
또한, 후술하겠지만, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 본 출원인이 고안한 수학식을 바탕으로 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산하는 기능을 수행할 수 있다. 이렇게 연산된 뷰 및 뷰의 수를 기반으로 뷰 데이터 렌더링 영역, 또는 서브-픽셀이나 뷰를 선정하여 적용할 수 있다.
또한, 본 발명의 실시예에 따른 타이밍 컨트롤러(113)는 뷰 데이터 렌더링 과정을 통해 입력 데이터를 영상패널(110)의 서브-픽셀별로 새롭게 매핑하여 뷰 겹침에 따라 발생하는 크로스토크(crosstalk)를 제거하는 기능을 수행할 수 있다.
이러한 타이밍 컨트롤러(113)와 호스트 시스템(115) 사이에는 멀티 뷰 영상변환부(114)가 설치될 수 있다. 멀티 뷰 영상변환부(114)는 3D 모드에서 호스트 시스템(115)으로부터 입력되는 3D 영상의 좌안 및 우안 영상 데이터를 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.
즉, 멀티 뷰 영상변환부(114)는 3D 모드에서 2D 영상 데이터가 입력되면 미리 설정된 2D-3D 영상 변환 알고리즘을 실행하여 2D 영상 데이터로부터 좌안 및 우안 영상 데이터를 생성하고, 그 데이터들을 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.
호스트 시스템(115)은 TV(television) 시스템, 셋톱박스, 네비게이션 시스템, DVD 플레이어, 블루레이 플레이어, 개인용 컴퓨터(personal computer), 홈 시어터 시스템, 폰 시스템 중 어느 하나로 구현될 수 있다. 호스트 시스템(115)은 스케일러(scaler)를 이용하여 2D/3D 입력 영상의 디지털 비디오 데이터를 영상패널(110)의 해상도에 맞는 포맷으로 변환하고, 그 데이터와 함께 타이밍 신호를 타이밍 컨트롤러(113)로 전송한다.
호스트 시스템(115)은 2D 모드에서 2D 영상을 타이밍 컨트롤러(113)에 공급하는 한편, 3D 모드에서 3D 영상 또는 2D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 유저 인터페이스(User Interface; UI)(미도시)를 통해 입력되는 사용자 데이터에 응답하여 타이밍 컨트롤러(113)에 모드 신호를 전송하여 무안경 입체표시장치의 동자 모드를 2D 모드와 3D 모드에서 스위칭 할 수 있다. 유저 인터페이스는 키패드, 키보드, 마우스, 온 스크린 디스플레이(On Screen Display; OSD), 리모트 컨트롤러, 그래픽 유저 인터페이스(Graphic User Interface; GUI), 터치 UI 등으로 구현될 수 있다. 사용자는 유저 인터페이스를 통해 2D 모드와 3D 모드를 선택할 수 있고, 3D 모드에서 2D-3D 영상 변환을 선택할 수 있다.
즉, 호스트 시스템(115)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 영상 데이터와 타이밍신호들 등을 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 좌안 영상 데이터와 우안 영상 데이터를 포함하는 3D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 전술한 바와 같이 타이밍신호들은 수직동기신호, 수평동기신호, 데이터 인에이블 신호(Data Enable), 도트 클럭 등을 포함한다.
호스트 시스템(115)은 시청거리 감지부로부터 시청자 감지정보를 입력받고, 시청자 감지정보에 따라 최적 뷰의 수를 산출한다. 호스트 시스템(115)은 최적 뷰의 수에 따른 뷰 제어신호를 생성하여 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 시청자 감지정보의 시청자 수를 입력 어드레스로 받고, 해당 입력 어드레스에 저장된 뷰의 수를 출력하는 룩업테이블을 이용하여 뷰 제어신호를 생성할 수 있다.
다음으로, 3D 필터(120)는 이미지의 경로를 광학적으로 분리하는 매개체로서, 영상패널(110)의 좌안픽셀과 우안픽셀로부터 출력된 좌안영상과 우안영상을 투과시키거나 차단시키기 위한 광투과 영역과 광차단 영역을 형성하는 기능을 수행한다.
이러한 3D 필터(120)는 다음의 렌티큘러 렌즈 또는 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다. 렌티큘러 렌즈와 배리어는 액정패널을 이용하여 전기적으로 제어되는 스위처블 렌즈(switchable lens)나 스위처블 배리어(switchable barrier)로 구현될 수 있다. 참고로, 본 출원인은 미국출원 13/077565, 미국출원 13/325272, 대한민국 출원 10-2010-0030531 등을 통해 스위처블 렌즈나 스위처블 배리어를 제안한 바 있다.
3D 필터 구동부는 타이밍 컨트롤러(113)의 제어 하에 3D 모드에서 영상패널(110)의 픽셀 어레이에 기입되는 영상 데이터와 동기되어 스위처블 렌즈나 스위처블 배리어를 시프트(shift)시킬 수 있다.
도 4는 본 발명의 실시예에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도로서, 렌티큘러 렌즈 방식의 입체영상표시장치를 예를 들어 보여주고 있다.
도 4를 참조하면, 렌티큘러 렌즈 방식의 입체영상표시장치는 다수의 서브-픽셀(R, G, B)이 배치되는 영상패널(110) 전면에 소정의 폭(w)을 갖는 다수의 렌티큘러 렌즈(125)를 포함하는 3D 필터인 렌티큘러 렌즈판(120)이 배치된다.
렌티큘러 렌즈판(120)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층이 형성되어 이루어진다.
이러한 렌티큘러 렌즈판(120)은 좌, 우안 영상을 나누어주는 역할을 수행하며, 렌티큘러 렌즈판(120)으로부터 최적 시청거리(Optimal Viewing Distance; OVD) v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 뷰잉 다이아몬드(정시영역)가 형성되어 있다.
따라서, 영상패널(110)을 투과한 영상 이미지는 렌티큘러 렌즈판(120)을 통과하여 최종 시청자의 좌, 우안으로 다른 이미지 그룹이 들어오게 하여, 3차원의 입체영상을 느낄 수 있게 된다.
이러한 렌티큘러 렌즈 방식의 입체영상표시장치는 영상패널(110)과 렌티큘러 렌즈판(120)이 기구물(미도시) 등에 의해 지지되어, 영상패널(110)과 렌티큘러 렌즈판(120) 사이가 소정 간격(배면 거리) 이격되어 있다.
한편, 본 발명의 실시예에 따르면, 다수의 렌티큘러 렌즈(125)의 배열이 서브-픽셀(R, G, B)의 종 방향(Y축 방향)에 대해 제 1 각도(θ)를 갖고 기울어진 형태로 배치되고 있으며, 렌티큘러 렌즈(125)의 서브-픽셀(R, G, B)의 횡 방향(X축 방향)을 따르는 수평 폭(w)은 서브-픽셀(R, G, B)의 정수 배로 설정할 수 있다.
즉, 본 발명의 실시예에 따른 입체영상표시장치는 렌티큘러 렌즈판(120)에 구비되는 렌티큘러 렌즈(125)가 서브-픽셀(R, G, B)의 종 방향을 기준으로 제 1 각도(θ) 기울어져 배치될 수 있다.
따라서, 2D 영상을 표시하는 영상패널(110)에 대해 이러한 렌티큘러 렌즈판(120)의 기울어진 배치에 의해 3D 영상시청을 위한 뷰 수를 조절할 수 있다.
이러한 렌티큘러 렌즈판(120)에 있어서 렌티큘러 렌즈(125)의 서브-픽셀(R, G, B)의 종 방향을 기준으로 기울어진 제 1 각도 θ는 tan-1((M*Pa)/(N*Pb))라는 식으로 표현된다.
이때, Pa는 서브-픽셀(R, G, B)의 단축피치, Pb는 서브-픽셀(R, G, B)의 장축피치이며, M과 N은 각각 임의의 자연수로서 렌티큘러 렌즈(125)가 다수의 서브-픽셀(R, G, B)을 하나의 그룹으로 하고, 하나의 그룹을 정확히 대각방향으로 꼭지점을 관통했을 때의 그룹 내의 서브-픽셀(R, G, B)의 횡 방향으로의 서브-픽셀(R, G, B)의 개수 및 서브-픽셀(R, G, B)의 종 방향으로의 서브-픽셀(R, G, B)의 개수로 정의된다. 이때, 통상적으로 M과 N은 M/N ≤ 2의 값을 만족하는 것이 일반적이다.
이때, 하나의 그룹 내부에 위치하는 다수의 서브-픽셀(R, G, B)에 부여된 숫자는 렌티큘러 렌즈판(120)의 렌티큘러 렌즈(125)를 제 1 각도(θ)로 기울여 배치한 입체영상표시장치의 3D 영상시청이 가능한 영역으로 정의되는 뷰의 개수가 되며, 각 뷰에 부여된 숫자는 각 뷰 영역에서 3D 영상시청 시 보여지는 서브-픽셀(R, G, B)이 된다.
이렇게 렌티큘러 렌즈판(120)을 구비한 본 발명의 실시예에 따른 입체영상표시장치는 휘도 향상 측면에서 효과가 있으며, 나아가 뷰 수의 증가를 통해 3D 영상시청을 위한 시야각을 향상시키는 효과를 갖는다.
뷰 수의 증가는 렌티큘러 렌즈판(120)에 구비되는 렌티큘러 렌즈(125)를 서브-픽셀(R, G, B)의 종 방향을 기준으로 소정의 각도를 갖도록 배치한 구조 즉, 슬랜티드(slanted) 구조를 적용하여 이루어지게 된다. 이러한 슬랜티드 구조 적용에 의해 한쪽 방향으로의 해상도 저하를 방지할 수 있다.
한편, 시청자는 최적 시청거리 이외의 시청거리, 즉 최적 시청거리의 앞이나 뒤에서 입체영상표시장치를 시청하는 것이 일반적이다.
본 출원인의 연구에 따르면, 최적 시청거리대비 영상패널에서 멀어질수록 2D 인지영역(이하 2D 영역이라 함)은 증가하고 3D 인지영역(이하 3D 영역이라 함)은 감소하는 것을 알 수 있다. 또한, 영상패널의 크기에 따라 뷰잉 다이아몬드의 좌표, 인지되는 뷰가 변하기 때문에 영상패널의 크기를 고려한 최적 시청거리 제어기술이 요구된다.
따라서, 입체영상표시장치의 뷰잉 다이아몬드를 수식으로 일반화하여, 시청자 위치에 따른 양안 인지 영상의 종류 및 중첩 영상의 변화를 수식화하고, 시청자 위치 변화와 최적 시청거리 제어와의 상관관계를 분석할 필요가 있다.
우선, 입체영상표시장치의 3D 시청영역(viewing zone)을 다음의 도 5 및 도 6과 같이 입체적으로 표현할 수 있다.
도 5는 무안경 입체영상표시장치에 있어, 시청영역을 설명하기 위한 예시도이다.
그리고, 도 6은 뷰잉 다이아몬드를 XZ-평면에 투사(projection)시켜 보여주는 도면이다.
도 5 및 도 6을 참조하면, 영상패널(110)로부터 최적 시청거리 v에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(130)가 형성되어 있다.
시청영역의 다이아몬드를 전방 삼각 존(front triangle zone)(130a)과 후방 삼각 존(rear triangle zone)(130b)으로 구분할 수 있다.
이하에서의 모든 수식 전계 과정은 최적 시청거리에 형성된 뷰잉 다이아몬드(130)의 폭이 양안 간격(e)과 같고, 광이 직진한다는 가정에서 진행될 수 있다.
영상패널(110)의 폭 및 높이는 각각 W 및 H로 정할 수 있다.
이때, (W/2, 0, 0)에서 (0, 0, v)를 통과하는 광은 R0으로 표시되며, (W/2, 0, 0)에서 (ne, 0, v)를 통과하는 광은 Rn으로 표시할 수 있다. (-W/2, 0, 0)에서 (0, 0, v)를 통과하는 광은 L0으로 표시되며, (-W/2, 0, 0)에서 (ne, 0, v)를 통과하는 광은 Ln으로 표시할 수 있다.
다음과 같이 3D 시청영역(또는 뷰잉 다이아몬드)을 공간상의 좌표로 일반화하여 표시할 수 있으며, 이를 이용하여 디스플레이 특성이 따른 시청영역의 크기 및 시청자의 3D 영역을 계산할 수 있다.
도 7a 및 도 7b는 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.
이때, 도 7a는 XZ-평면에서의 뷰잉 다이아몬드 좌표를 보여주는 반면, 도 7b는 ZY-평면에서의 뷰잉 다이아몬드 좌표를 보여주고 있다.
도 7a 및 도 7b를 참조하면, 전방 삼각 존(130a)의 꼭지점 (n-1)e, ne, fn의 공간 좌표는 다음의 수학식 1로 표현할 수 있다.
[수학식 1]
Figure 112014126610038-pat00001
이때, fn의 공간상의 좌표 (fnx, fny, fnz)는 다음의 수학식들과 같이 삼각형의 닮은비를 이용하면 구할 수 있다.
[수학식 2]
Figure 112014126610038-pat00002
따라서,
Figure 112014126610038-pat00003
마찬가지로,
[수학식 3]
Figure 112014126610038-pat00004
따라서,
Figure 112014126610038-pat00005
[수학식 4]
Figure 112014126610038-pat00006
따라서,
Figure 112014126610038-pat00007
또한, 후방 삼각 존(130b)의 꼭지점 (n-1)e, ne, rn의 공간 좌표 역시 다음의 수학식 5로 표현할 수 있다.
[수학식 5]
Figure 112014126610038-pat00008
여기서, he는 XY-평면에서 시청거리에서 시청자의 양안과 X축과의 거리, 즉 시청자의 눈 높이를 의미한다. hp는 XY-평면에서 영상패널(110)상의 서브-픽셀과 X축과의 거리, 즉 서브-픽셀의 높이를 의미한다.
이를 이용하여 최적 시청거리의 2배 지점의 3D 뷰잉 다이아몬드를 공간상의 좌표로 일반화된 표현이 가능하며, 최적 시청거리의 2배 지점의 뷰잉 다이아몬드 영역을 계산할 수 있다.
도 8은 최적 시청거리의 2배 거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.
도 8을 참조하면, 위와 동일한 방식으로
Figure 112014126610038-pat00009
에서 (0, 0, v)를 지나는 광은
Figure 112014126610038-pat00010
을 지나므로, 최적 시청거리의 2배 지점의 전방 삼각 존(130a')의 꼭지점
Figure 112014126610038-pat00011
의 공간좌표를 다음의 수학식 6과 같이 표현할 수 있다.
[수학식 6]
Figure 112014126610038-pat00012
또한, 동일한 방식으로 최적 시청거리의 2배 지점의 후방 삼각 존(130b')의 꼭지점
Figure 112014126610038-pat00013
의 공간좌표 역시 다음의 수학식 7과 같이 표현할 수 있다.
[수학식 7]
Figure 112014126610038-pat00014
다음으로, 광에 대한 직선의 방정식을 일반화함으로써, 최적 시청거리를 포함한 전 영역에서의 뷰잉 다이아몬드 좌표 또한 일반화할 수 있다.
이때, 수식의 단순화를 위해 XZ-평면에 투사시킨 경우를 예로 들고 있다.
도 9는 최적 시청거리를 포함하는 전 영역에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.
도 9를 참조하면, 광 Rn에 대한 직선의 방정식은 다음 수학식 8과 같다.
[수학식 8]
Figure 112014126610038-pat00015
또한, 광 Lm에 대한 직선의 방정식은 다음 수학식 9와 같다.
[수학식 9]
Figure 112014126610038-pat00016
여기서, n, m은 유리수를 나타낸다.
위 수학식 8, 9를 연립하여 계산하면, 광 Rn과 Lm이 만나는 좌표인 f(n, m)를 다음 수학식 10과 같이 일반화할 수 있다.
[수학식 10]
Figure 112014126610038-pat00017
참고로, XZ-평면에서 f(n-1, n)일 때 수학식 10은 수학식 1과 동일하다. 또한, XZ-평면에서 f(n, n-1)일 때 수학식 10은 수학식 5와 동일하다.
수학식 10의 일반화된 뷰잉 다이아몬드의 좌표를 바탕으로 최적 시청거리의 k배 되는 지점의 좌표 또한 다음과 같이 일반화할 수 있다.
도 10은 최적 시청거리의 k배의 시청거리에서, XZ-평면에서의 뷰잉 다이아몬드 좌표를 예로 들어 보여주는 도면이다.
그리고, 도 11은 XZ-평면에서의 뷰잉 다이아몬드 셀(cell)을 예로 들어 보여주는 도면이다.
도 10 및 도 11을 참조하면, 최적 시청거리의 k배 지점의 좌표를 유도하기 위해 수학식 10의 Z좌표가 kv인 경우를 연산하면 다음 수학식 11과 같다.
[수학식 11]
Figure 112014126610038-pat00018
여기서, k는 0보다 큰 유리수를 나타낸다.
수학식 11을 m에 대해 정리하면 다음의 수학식 12와 같다.
[수학식 12]
Figure 112014126610038-pat00019
따라서, 최적 시청거리의 k배 지점의 좌표를 다음 수학식 13과 같이 일반화할 수 있다.
[수학식 13]
Figure 112014126610038-pat00020
예를 들어, 수학식 13으로부터 최적 시청거리의 2배 지점의 좌표를 연산하면 다음 수학식 14와 같으며, 이는 수학식 6, 7의 뷰잉 다이아몬드 좌표와 동일하다.
[수학식 14]
Figure 112014126610038-pat00021
다음으로, 뷰잉 다이아몬드의 평면좌표를 이용하여 전 영역에서의 뷰잉 다이아몬드의 폭을 일반화할 수 있다.
f(n, m)를 상위 꼭지점으로 하는 뷰잉 다이아몬드(viewing diamond)의 폭
Figure 112014126610038-pat00022
은 피타고라스 정리에 의해 다음 수학식 15와 같이 일반화할 수 있다.
[수학식 15]
Figure 112014126610038-pat00023
Figure 112014126610038-pat00024
따라서, 수학식 10의 좌표를 수학식 15에 대입함으로써 뷰잉 다이아몬드의 폭을 다음 수학식 16과 같이 일반화할 수 있다.
[수학식 16]
Figure 112014126610038-pat00025
예를 들어, 최적 시청거리에 위치한 상위 꼭지점 f(n, m)에서 반시계 방향으로 f(0, 1)f(0, 0), f(1, 0)f(1, 1)의 좌표(n=0, m=1인 경우)를 갖는 뷰잉 다이아몬드의 최대 폭은 수학식 16으로부터 양안 간격과 동일하다는 것을 알 수 있다.
이와 같이 수학식 16을 통해 양안 간격이 상수(fixed)일 경우 뷰잉 다이아몬드의 폭은 영상패널(110)의 폭(W)에 영향을 받음을 알 수 있다.
다음으로, 앞에서 계산한 뷰잉 다이아몬드의 폭을 이용하여, 최적 시청거리의 k배 되는 지점의 뷰잉 다이아몬드의 폭을 수식화 할 수 있다.
이는 수학식 12를 수학식 16에 대입함으로써 최적 시청거리의 k배 되는 지점의 뷰잉 다이아몬드의 폭을 다음 수학식 17과 같이 연산할 수 있다.
[수학식 17]
Figure 112014126610038-pat00026
여기서, 영상패널(110)의 폭(W)이 양안 간격(e)에 비해 충분히 클 경우, 다음 수학식 18과 같이 표현할 수 있다.
[수학식 18]
Figure 112014126610038-pat00027
예를 들어, 영상패널(110)의 폭(W)이 양안 간격(e)보다 충분히 큰 최적 시청거리의 2배 지점의 뷰잉 다이아몬드의 폭을 계산하면 다음과 같다.
[수학식 19]
Figure 112014126610038-pat00028
위 수학식 18로부터 영상패널(110)의 폭(W)이 양안 간격(e)보다 충분히 클 경우, 최적 시청거리의 k배 지점의 뷰잉 다이아몬드의 폭은 ke에 근사함을 알 수 있다.
다음으로, 최적 시청거리(P1 위치)에 위치한 시청자기 인지하는 뷰와 2D, 3D 영역을 영상패널의 관점에서 표현하면 다음과 같다.
도 12는 P1 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면이다.
그리고, 도 13a 및 도 13b는 P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 13a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 13b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.
도 14는 P1 위치에서 2D, 3D 영역을 보여주는 도면이다.
도 12를 참조하면, 시청자의 좌안(1)과 우안(2)이 최적 시청거리(Ks=1인 지점; P1 위치)의 뷰잉 다이아몬드 중심에 위치할 경우, 좌안(1)과 우안(2)이 인지하는 영상은 도 13a와 도 13b와 같이 각각의 뷰로 분리된 영상인 것을 알 수 있다.
즉, 시청자의 좌안(1)은 K번째 뷰의 영상을 인지하는 반면, 시청자의 우안(2)은 K+1번째 뷰의 영상을 인지한다. 여기서, K는 인지되는 뷰의 수를 의미한다.
이와 같이 좌안(1)과 우안(2)의 영상이 겹치는 부분이 없으므로, 시청자는 도 14와 같이 영상패널(110)의 전 영역에 걸쳐 3D로 인지한다.
다음으로, 최적 시청거리를 벗어난 시청자가 인지하는 뷰와 2D, 3D 영역은 다음과 같다.
도 15는 P2 위치에서 XZ-평면에서의 양안 위치를 포함하는 시청영역 좌표를 예로 들어 보여주는 도면이다.
그리고, 도 16a 및 도 16b는 P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 16a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 16b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.
도 17은 P2 위치에서 2D, 3D 영역을 보여주는 도면이다.
도 15를 참조하면, 예를 들어 시청자의 좌안(3)이 Ks=2인 지점(최적 시청거리의 바로 뒤; P2 위치)의 뷰잉 다이아몬드의 중심에 위치할 경우, 좌안(3)과 우안(4)이 인지하는 영상은 도 16a와 도 16b와 같이 단안에 2개의 뷰가 함께 인지되는 것을 알 수 있다.
즉, 시청자의 좌안(3)은 K-1번째 뷰와 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안(4)은 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지한다.
이때, 좌안(3)과 우안(4)에 인지되는 영상간에 동일 뷰(즉, K번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 17과 같이 표현될 수 있다.
이와 같이 최적 시청거리를 벗어난 시청자는 단안에 다수의 뷰 정보가 입력될 수 있으며, 이때 뷰간 차이(disparity)가 큰 영상이 입력될 경우 단안 내 영상간 차이가 인지될 수 있다.
이때, 시청자가 수평 이동하거나 영상패널(110)의 구조(예를 들어, 스트라이프나 슬랜티드 구조)가 다를 경우에도 2D 위치와 영역의 형태는 변할 수 있으나, 해당하는 면적은 동일하다.
한편, 도 16 및 도 17에 표시된 2D 영역은 동일 뷰를 표시한 영역이기 때문에 뷰 데이터를 치환할 경우에도 좌안(3)과 우안(4)에서 모두 변환되기 때문에 2D 영역은 여전히 유지된다. 따라서, 해당 구조에서는 2D 영역이 필수적으로 발생한다.
이에 시청자의 양안 위치를 기준으로 인지되는 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화하며, 이를 도 16a, 도 16b 및 다음의 도 18을 참조하여 설명한다.
도 18은 P2 위치에서 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면이다.
이때, 시청자의 좌안은 뷰잉 다이아몬드의 중앙에 위치한다는 가정이 적용되며, 역시 등을 고려할 때 최소 2D 영역을 산출할 수 있다.
시청자의 양안(3, 4)이 Ks=2인 지점의 뷰잉 다이아몬드에 도 18과 같이 위치하면, 좌안(3)에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.
이와 달리 우안(4)의 경우 각 뷰의 폭(c, d)은 뷰잉 다이아몬드의 중심에서 떨어진 간격에 비례하므로 K+1번째 뷰의 폭(d)은 다음의 수학식 20과 같이 표현될 수 있다.
[수학식 20]
Figure 112014126610038-pat00029
도 16b로부터 c+d=W임을 알 수 있다. 따라서, K번째 뷰의 폭(c)은 다음 수학식 21과 같이 표현될 수 잇다.
[수학식 21]
Figure 112014126610038-pat00030
수학식 16과 도 18로부터 뷰잉 다이아몬드의 폭(2(a+b))은 다음 수학식 22와 같다.
[수학식 22]
Figure 112014126610038-pat00031
여기서, Ks=n-m+1이다.
또한, 2a+b=e이므로, 이를 수학식 22와 연립하여 계산하면, 우안(4)의 위치에 대한 a, b를 구할 수 있다.
[수학식 23]
Figure 112014126610038-pat00032
이를 이용하여 Ks=2인 지점에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화할 수 있다.
즉, 도 16a와 도 16b로부터 양안의 뷰 겹침 구간을 계산하고, 이를 수학식 23에 대입하면 다음과 같이 2D 영역(region)을 수식화 할 수 있다.
[수학식 24]
Figure 112014126610038-pat00033
이때, Ks=2이고,
Figure 112014126610038-pat00034
이다.
[수학식 25]
Figure 112014126610038-pat00035
여기서, 수학식 24 및 수학식 25의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.
수학식 24로부터 Ks=2인 지점에서는 최소 2eH만큼의 2D 영역이 발생하는 것을 알 수 있다.
앞에서 Ks=2인 지점의 2D 영역을 계산하였으므로, Ks=3인 지점과 그 이후 영역을 연산함으로써, 2D 발생 영역을 일반화할 수 있다. 그리고, 이 결과를 좌표로 변환하면 영상패널의 2D 발생 영역을 서브-픽셀별로 특정할 수 있다.
이는 이후 본 발명에서 제안하는 방식에 의해 2D 영역을 정입체시 영역으로 변환함에 있어, 변환 영역의 크기와 위치, 그리고 이때 필요한 데이터 처리량 및 메모리 크기를 계산할 수 있다.
도 19a 및 도 19b는 P3 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 19a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 19b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.
그리고, 도 20은 P3 위치에서 2D, 3D 영역을 보여주는 도면이다.
도 19a 및 도 19b를 참조하면, Ks=3인 지점(Ks=2인 지점의 바로 뒤; P3 위치)에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화할 수 있다.
예를 들어, 시청자의 좌안이 Ks=3인 지점의 뷰잉 다이아몬드의 중심에 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 3개의 뷰가 함께 인지되는 것을 알 수 있다.
즉, 시청자의 좌안은 K-1번째 뷰, K번째 뷰 및 K+1번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K번째 뷰, K+1번째 뷰 및 K+2번째 뷰의 영상을 함께 인지한다.
이때, 좌안과 우안에 인지되는 영상간에 동일 뷰(즉, K번째 뷰와 K+1번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 20과 같이 표현될 수 있다.
또한, 도 19a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.
이와 달리 우안의 경우, 도 19b를 참조하면 K+2번째 뷰의 폭(e)은 다음의 수학식 26과 같이 표현될 수 있다.
[수학식 26]
Figure 112014126610038-pat00036
도 19b로부터 c+d+e=W임을 알 수 있다. 그리고, c=d이므로, K번째 뷰와 K+1번째 뷰의 폭의 합(2c=c+d)은 다음 수학식 27과 같다.
[수학식 27]
Figure 112014126610038-pat00037
수학식 22와 수학식 23 및 수학식 27을 이용하면, Ks=3일 경우의 2D, 3D 영역은 다음 수학식 28과 수학식 29와 같다.
[수학식 28]
Figure 112014126610038-pat00038
이때, Ks=3이고,
Figure 112014126610038-pat00039
이다.
[수학식 29]
Figure 112014126610038-pat00040
여기서, 수학식 28 및 수학식 29의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.
수학식 29로부터 Ks=3인 지점에서의 2D 영역은 영상 데이터 및 뷰 수와 관계없이 최소 3eH만큼 발생하는 것을 알 수 있다.
다음으로, 이상의 결과를 바탕으로 최적 시청거리에서 최적 시청거리의 2배 지점까지의 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화한다.
이때, 최적 시청거리의 2배 지점은 좌안이 뷰 다이아몬드의 중앙에 위치할 때, 양안이 2개의 뷰 다이아몬드 내에 위치할 수 있는 최대거리이다.
도 21a 및 도 21b는 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 21a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 21b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.
도 21a 및 도 21b를 참조하면, 예를 들어 시청자의 좌안이 Ks=j인 지점(Pj 위치)의 뷰잉 다이아몬드의 중심에 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 j개의 뷰가 함께 인지되는 것을 알 수 있다.
즉, 시청자의 좌안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K-j번째 뷰, K-j+1번째 뷰, ...., K번째 뷰 및 K+1번째 뷰의 영상을 함께 인지한다.
이때, 좌안과 우안에 인지되는 영상간에 동일 뷰(즉, K-j번째 뷰에서부터 K번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생한다.
다시 도 21a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.
이와 달리 우안의 경우, 도 21b를 참조하면 K+1번째 뷰의 폭(d)은 다른 뷰들의 폭과 다르며, 다음의 수학식 30과 같이 표현될 수 있다.
[수학식 30]
Figure 112014126610038-pat00041
도 21b로부터 (Ks-1)c+d=W임을 알 수 있다. 그리고, 수학식 30으로부터 다음을 알 수 있다.
[수학식 31]
Figure 112014126610038-pat00042
수학식 22와 수학식 23 및 수학식 31을 이용하면, Ks=j일 경우(즉, 최적 시청거리에서 최적 시청거리의 2배 지점까지)의 2D, 3D 영역은 다음 수학식 32와 수학식 33과 같다.
[수학식 32]
Figure 112014126610038-pat00043
[수학식 33]
Figure 112014126610038-pat00044
여기서, 수학식 32 및 수학식 33의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.
수학식 32로부터 최적 시청거리에서 최적 시청거리의 2배 지점까지의 2D 영역은 영상 데이터 및 뷰 수와 관계없이 최소 eKsH만큼 발생하는 것을 알 수 있다.
다음으로, 최적 시청거리의 2배 이상의 지점에 위치한 시청자의 양안 위치에 따른 인지 영상의 뷰별 영역 및 2D, 3D 영역을 수식으로 일반화한다.
이때, 최적 시청거리의 2배 이상의 지점은 좌안이 뷰 다이아몬드의 중앙에 위치할 때, 양안이 하나의 뷰 다이아몬드 내에 위치하는 거리이다.
도 22a 및 도 22b는 최적 시청거리의 2배 이상의 Pj 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다. 이때, 도 22a는 시청자의 좌안에서 인지되는 뷰를 보여주며, 도 22b는 시청자의 우안에서 인지되는 뷰를 보여주고 있다.
그리고, 도 23은 최적 시청거리의 2배가 넘는 시청거리에서, 뷰잉 다이아몬드에 적용한 양안의 위치를 예로 들어 보여주는 도면이다.
도 22a와 22b 및 도 23을 참조하면, 예를 들어 최적 시청거리의 2배 이상의 위치에서, 시청자의 양안이 Ks=j인 지점의 뷰잉 다이아몬드에 도 22와 같이 위치할 때, 좌안과 우안이 인지하는 영상은 단안에 j개의 뷰가 함께 인지되는 것을 알 수 있다.
즉, 시청자의 좌안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안은 K-j-1번째 뷰, K-j번째 뷰, ...., K-1번째 뷰 및 K번째 뷰의 영상을 함께 인지한다.
다시 도 22a를 참조하면, 시청자의 좌안에 인지되는 영상은 각 뷰가 균등하게 W/Ks의 폭을 가진다.
이와 달리 우안의 경우, 도 22b를 참조하면 K-j-1번째 뷰의 폭(c)은 다른 뷰들의 폭과 다르며, 다음의 수학식 34와 같이 표현될 수 있다.
[수학식 34]
Figure 112014126610038-pat00045
도 22b로부터 c+(Ks-1)d=W임을 알 수 있다. 그리고, 수학식 34로부터 다음을 알 수 있다.
[수학식 35]
Figure 112014126610038-pat00046
도 23으로부터 a=e이므로,
수학식 22와 연립하여 계산하면
Figure 112014126610038-pat00047
임을 알 수 있다.
그리고, 이를 수학식 22와 수학식 35와 함께 이용하면, 최적 시청거리의 2배 이상의 위치에서의 2D, 3D 영역은 다음 수학식 36과 수학식 37과 같다.
[수학식 36]
Figure 112014126610038-pat00048
[수학식 37]
Figure 112014126610038-pat00049
여기서, 수학식 36 및 수학식 37의 부등호는 역시 및 뷰 데이터에 의한 영향을 고려한 경우이다.
수학식 32와 수학식 37로부터 시청자 위치에 관계없이 2D 영역이 최소 eKsH만큼 발생하는 것을 알 수 있다.
다음으로, 최적 시청거리 제어를 고려하여, 최적 시청거리의 2배되는 지점과 최적 시청거리의 3배되는 지점의 2D, 3D 영역을 수식으로 일반화한다.
먼저, 최적 시청거리의 2배되는 지점의 좌표는 수학식 13으로부터,
Figure 112014126610038-pat00050
이며,
이때의
Figure 112014126610038-pat00051
이다.
따라서, 수학식 32와 수학식 33으로부터 최적 시청거리의 2배 위치에서의 2D, 3D 영역을 다음 수학식 38과 수학식 39와 같이 일반화할 수 있다.
[수학식 38]
Figure 112014126610038-pat00052
[수학식 39]
Figure 112014126610038-pat00053
또한, 최적 시청거리의 3배되는 지점의 좌표는 수학식 13으로부터,
Figure 112014126610038-pat00054
이며,
이때의
Figure 112014126610038-pat00055
이다.
따라서, 수학식 36과 수학식 37로부터 최적 시청거리의 3배 위치에서의 2D, 3D 영역을 다음 수학식 40과 수학식 41과 같이 일반화할 수 있다.
[수학식 40]
Figure 112014126610038-pat00056
[수학식 41]
Figure 112014126610038-pat00057
이와 같은 결과에 따르면, 뷰 독립 구조에서는 필연적으로 2D 영역이 발생하는 것을 알 수 있다.
따라서, 본 발명에서는 시청거리를 N배로 확장하기 위한 무안경 입체영상표시장치에 있어, 뷰 겹침 구조, 즉 뷰잉 다이아몬드를 N번 이상 겹치도록 설계하는 것을 특징으로 한다.
도 24a 및 도 24b는 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예로 들어 보여주는 도면으로서, 뷰잉 다이아몬드의 2중첩 구조를 예로 들어 보여주고 있다. 이때, 도 24b는 도 24a에 도시된 A부분을 확대하여 보여주는 도면이다.
이때, P1 위치가 시청자가 입체영상을 정상적으로 시청할 수 있는 최적 시청거리에 해당한다고 가정한다. 그리고, 도 24a 및 도 24b에는 편의상 일부 영역에서만 뷰잉 다이아몬드가 중첩된 상태를 보여주고 있으나, 실제로는 전 영역에 걸쳐 뷰잉 다이아몬드가 중첩되어 있다.
도 24a 및 도 24b를 참조하면, 마름모꼴 영역은 시청영역(viewing zone)으로 뷰잉 다이아몬드(130)를 의미한다.
예로 들면, "K"는 영상패널(110)에 표시된 제 K 뷰 영상(또는 K번째 뷰의 영상)이 보이는 시청영역이고, "K+1"은 영상패널(110)에 표시된 제 K+1 뷰 영상이 보이는 시청영역이다. "K+2"는 영상패널(110)에 표시된 제 K+2 뷰 영상이 보이는 시청영역이고, "K+3"은 영상패널(110)에 표시된 제 K+3 뷰 영상이 보이는 시청영역이다.
이때, 뷰 겹침 구조에 따라 뷰잉 다이아몬드(130)가 겹치는 영역은 뷰가 겹치는 영역으로, 여러 개의 뷰 영상이 인지된다.
시청자가 P1 위치에서 P2 위치(최적 시청거리의 후방)로 이동할 때, 양안이 (1, 2) 위치에서 (3, 4) 위치로 이동한 것과 거의 유사하다.
뷰잉 다이아몬드의 2중첩 구조를 예로 들면, 다음과 같이 시청자가 인지하는 서브-픽셀 영역을 영상패널(110) 기준으로 나타낼 수 있다.
이하에서는 최적 시청거리의 바로 뒤의 P2 위치에 형성되는 시청영역들 및 뷰잉 다이아몬드에 대해서 설명하나, 이는 설명의 편의를 위한 것으로 최적 시청거리의 2배 지점 및 이외 다른 지점에서도 동일하게 적용 가능하다.
도 25는 2중첩 구조에 있어, P1 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다.
그리고, 도 26은 2중첩 구조에 있어, P2 위치에서 시청자의 좌, 우안에서 인지되는 뷰를 예로 들어 보여주는 도면이다.
도 27은 2중첩 구조에 있어, P2 위치에서 2D, 3D 영역을 보여주는 도면이다.
도 25를 참조하면, P1 위치에서 시청자의 좌안(LE1)과 우안(RE1)이 최적 시청거리(Ks=1인 지점; P1 위치)의 뷰잉 다이아몬드 중심에 위치할 경우, 좌안(LE1)과 우안(RE1)이 인지하는 영상은 각각의 뷰로 분리된 영상인 것을 알 수 있다.
다만, 양안 간격 기반의 뷰잉 다이아몬드 구조에서 뷰 독립 구조일 경우에는 Ks=1인 지점에서 하나의 뷰만 단안에 인지되나, 뷰 중첩 구조에서는 단안에 중첩되는 수만큼의 뷰가 인지된다. 그리고, 뒤로 갈수록 하나의 뷰씩 추가된다.
즉, 시청자의 좌안(LE1)은 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지하는 반면, 시청자의 우안(RE1)은 K+2번째 뷰와 K+3번째 뷰의 영상을 함께 인지한다.
이와 같이 좌안(LE1)과 우안(RE1)의 영상이 겹치는 부분이 없으므로, 시청자는 영상패널의 전 영역에 걸쳐 3D로 인지한다.
도 26을 참조하면, 예를 들어 시청자의 좌안(LE2)이 Ks=2인 지점(최적 시청거리의 바로 뒤; P2 위치)의 뷰잉 다이아몬드의 중심에 위치할 경우, 좌안(LE2)과 우안(RE2)이 인지하는 영상은 단안에 3개의 뷰가 함께 인지되는 것을 알 수 있다.
이때, 시청자의 좌안(LE2)은 영상패널의 좌측에서 K번째 뷰와 K-1번째 뷰의 영상을 함께 인지하며, 영상패널의 우측에서 K번째 뷰와 K+1번째 뷰의 영상을 함께 인지한다.
반면에 시청자의 우안(RE2)은 영상패널의 좌측에서 K+2번째 뷰와 K+1번째 뷰의 영상을 함께 인지하며, 영상패널의 우측에서 K+2번째 뷰와 K+3번째 뷰의 영상을 함께 인지한다.
이때, 좌안(LE2)과 우안(RE2)에 인지되는 영상간에 동일 뷰(즉, K+1번째 뷰)가 겹치는 영역, 즉 2D 영역이 발생하며, 이는 도 27과 같이 표현될 수 있다.
다만, 이 경우에는 겹치는 영역이 전부 2D 영역으로 볼 수는 없으며, 2D 영역과 3D 영역과 혼재되어 있어 뷰 독립 구조에 비해 3D 시청영역이 실질적으로 증가하는 효과를 가진다. 이는 좌안(LE2)과 우안(RE2)에 인지되는 영상간에 동일 뷰가 겹치는 영역에서 일부는 뷰 겹침에 따라 3D 영역으로 구현되기 때문이다.
이를 시청자가 인지하는 서브-픽셀 관점에서 보면 다음과 같다.
도 28은 본 발명의 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예로 들어 보여주는 도면이다.
이때, 도 28은 16개의 뷰를 이용하는 경우의 픽셀 어레이를 예로 들어 보여주고 있다. 다만, 본 발명이 전술한 뷰 수에 한정되는 것은 아니다.
도 28의 상단에 표시된 R, G 및 B는 R, G 및 B 서브-픽셀의 위치를 나타낸다.
도 28을 참조하면, m(m은 자연수)뷰를 이용하는 경우, 영상패널은 m개의 서브-픽셀들 단위로 m개의 서브-픽셀들에 순서대로 첫 번째 뷰 내지 m번째 뷰가 할당될 수 있다.
즉, 영상패널의 m개의 서브-픽셀들 중 제 K(K는 1≤K≤m을 만족하는 자연수) 서브-픽셀에 K번째 뷰가 할당된다.
일 예로 16개의 뷰를 이용하는 경우, 제 1 서브-픽셀에 첫 번째 뷰(1st view)가 할당되고, 제 2 서브-픽셀에 2번째 뷰(2nd view)가 할당되며, 제 3 서브-픽셀에 3번째 뷰(3rd view)가 할당되고, 제 4 서브-픽셀에 4번째 뷰(4th view)가 할당된다. 그리고, 제 5 서브-픽셀에 5번째 뷰(5th view)가 할당되고, 제 6 서브-픽셀에 6번째 뷰(6th view)가 할당되며, 제 7 서브-픽셀에 7번째 뷰(7th view)가 할당되고, 제 8 서브-픽셀에 8번째 뷰(8th view)가 할당된다. 제 9 서브-픽셀에 9번째 뷰(9th view)가 할당되고, 제 10 서브-픽셀에 10번째 뷰(10th view)가 할당되며, 제 11 서브-픽셀에 11번째 뷰(11th view)가 할당되고, 제 12 서브-픽셀에 12번째 뷰(12th view)가 할당된다. 제 13 서브-픽셀에 13번째 뷰(13th view)가 할당되고, 제 14 서브-픽셀에 14번째 뷰(14th view)가 할당되며, 제 15 서브-픽셀에 15번째 뷰(15th view)가 할당되고, 제 16 서브-픽셀에 16번째 뷰(16th view)가 할당된다.
이를 위해 3D 필터는 서브-픽셀들 대비 소정의 각도로 비스듬하게 형성된 슬랜티드 구조의 렌티큘러 렌즈(125)로 구현될 수 있다. 보다 구체적으로, 슬랜티드 구조의 렌티큘러 렌즈(125)는 서브-픽셀들의 장축 변을 기준으로 소정의 각도만큼 비스듬하게 형성된다.
이에 따라 3D 필터는 m개의 서브-픽셀들에 표시된 제 1 내지 제 m 뷰 영상(변환되기 전의 뷰 영상)들 각각을 첫 번째 뷰 내지 m번째 뷰 각각으로 분할한다. 따라서, 3D 필터는 제 K 서브-픽셀에 표시되는 제 K 뷰 영상을 K번째 뷰로 출력한다.
참고로, 본 발명에서 설명되는 뷰-맵이란, 영상패널의 서브-픽셀에 반복적으로 매핑(mapping)되는 각각의 뷰의 데이터 순서 및 위치를 표현하는 것으로서, 시청영역에는 정시영역, 역시영역 및 시청불가 영역이 있다.
여기서, 정시영역은 시청자가 입체영상을 정상적으로 시청할 수 있는 영역으로서 시청자의 우안에는 우안영상이 맺히고, 좌안에는 좌안영상이 맺히는 영역을 말한다.
또한, 역시영역은 영상의 차이 정보가 전달되기 때문에, 시청자가 입체적으로 영상을 인식할 수는 있으나, 우안에는 좌안영상이 맺히고 좌안에는 우안영상이 맺히는 영역이기 때문에, 시청자가 눈의 피로를 보다 빨리 느끼게 되는 영역이다.
또한, 시청불가 영역은 입체영상의 시청 자체가 불가능한 영역을 말한다
즉, 뷰-맵에는 전술한 3가지 영역들이 표시되는 위치들에 대한 좌표정보(즉, 첫 번째 뷰 내지 m번째 뷰)들이 포함되어 있다.
그러나, 정시영역과 역시영역을 제외한 영역을 시청불가 영역으로 판단할 수 있음으로, 뷰-맵에는 시청불가 영역에 대한 좌표정보가 생략되어 있을 수도 있다.
도 29a 및 도 29b는 P1 위치에서 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
이때, 도 29a는 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주며, 도 29b는 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주고 있다.
이하에서는 해당 뷰 구조 및 맵핑(mapping)이 전 영역에 걸쳐 반복적으로 구성되는 경우를 가정한다.
인접하는 뷰 상호간에 3D 크로스토크가 없는 이상적인 경우, 뷰잉 다이아몬드의 2중첩 구조에서 시청자가 인지하는 뷰는 단안 기준으로 2개이다. 따라서, 도 29a 및 도 29b와 같이 좌안과 우안이 인지하는 서브-픽셀을 표현할 수 있다.
이때, 본 발명의 실시예에 따른 무안경 입체영상표시장치는 뷰잉 다이아몬드의 폭을 양안 간격을 기준으로 하고 있어, 뷰잉 다이아몬드의 중첩이 없다면 좌안이 첫 번째 뷰를 인지할 경우 우안은 2번째 뷰를 인지한다.
따라서, 2중첩의 경우에는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하게 됨에 따라 도 29a 및 도 29b와 같이, 좌안이 첫 번째 뷰와 2번째 뷰를 인지할 경우 우안은 3번째 뷰와 4번째 뷰를 인지한다.
즉, 2중첩의 경우에는 좌안이 제 1 뷰 영상과 제 2 뷰 영상을 볼 경우 우안은 제 3 뷰 영상과 제 4 뷰 영상을 보게 된다.
도 30a 및 도 30b는 P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
그리고, 도 31a 및 도 31b는 P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
이때, 도 30a 및 도 31b는 3D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다. 그리고, 도 30b 및 도 31a는 2D 영역(실제는 2D, 3D 혼재영역; 도 27 참조)에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다.
즉, 도 30a는 영상패널 좌측의 3D 영역에서의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 31b는 영상패널 우측의 3D 영역에서의 우안에서 인지되는 서브-픽셀과 뷰를 보여준다. 그리고, 도 30b는 영상패널 중앙(실제는 중앙에서 약간 우측)의 2D 영역에서의 좌안에서 인지되는 서브-픽셀과 뷰를 보여주며, 도 31a는 영상패널 중앙의 2D 영역에서의 우안에서 인지되는 서브-픽셀과 뷰를 보여준다.
다만, 이는 2중첩 구조의 P2 위치에서 인지되는 서브-픽셀과 뷰를 예로 들어 설명하는 것이며, 본 발명이 이에 한정되는 것은 아니다.
2중첩의 경우에 P2 위치에서는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하여 도 30a와 도 30b 및 도 31a와 도 31b와 같이, 좌안이 첫 번째 뷰와 2번째 뷰 및 16번째 뷰를 인지할 경우 우안은 2번째 뷰와 3번째 뷰 및 4번째 뷰를 인지한다.
즉, 2중첩의 경우에 P2 위치에서는 좌안이 제 1 뷰 영상과 제 2 뷰 영상 및 제 16 뷰 영상을 볼 경우 우안은 제 2 뷰 영상과 제 3 뷰 영상 및 제 4 뷰 영상을 보게 된다.
이와 같이 도 27 및 도 30a, 도 30b, 도 31a, 도 31b로부터 좌안 및 우안에서 인지되는 서브-픽셀은 영상패널의 일부 영역에 2D 영역이 일부 발생하는 것을 알 수 있다.
즉, 전술한 바와 같이 도 27에서는 영상패널의 중앙에서 중앙 우측 일부 영역에 K+1번째 뷰가 좌안과 우안에 동시에 입력되는 것을 확인할 수 있다. 그리고, 도 30b 및 도 31a에서는 점선의 사각형으로 표시한 2번째 뷰가 겹치는 것을 알 수 있다.
이때, 도 30b 및 도 31a는 전술한 바와 같이 영상패널 중앙(실제는 중앙에서 약간 우측)의 2D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 보여준다.
다만, 이러한 본 발명의 실시예의 경우에는 시청자의 좌안이 K-1번째 뷰와 K번째 뷰 및 K+1번째 뷰를 인지할 때, 시청자의 우안은 K+1번째 뷰와 K+2번째 뷰 및 K+3번째 뷰를 인지하기 때문에 좌안대비 우안이 인지하는 영상이 상대적으로 오른쪽 뷰 영상이다. 이는 영상 정보를 적분해서 인지하는 눈의 특성상 시청자는 다수의 뷰를 인지하는 좌안과 우안 사이에 차이(disparity)가 존재한다고 판단하므로 3D 영상을 시청할 수 있다. 또한, 뷰 독립 구조에 비해 실질적으로 3D 시청영역이 증가하기 때문에 뷰잉 다이아몬드의 중첩 수를 증가시킬수록 2D 인지 서브-픽셀의 비율이 줄어드는 것을 알 수 있다.
다만, 이 경우에도 단안에 영역별로 다수의 뷰가 동시에 인지되기 때문에 크로스토크가 발생할 수 있다. 따라서, 본 발명의 실시예에서는 다음과 같이 뷰 데이터 렌더링(view data rendering) 기술을 적용하여 시청자 위치에 따라 영상패널의 뷰 데이터를 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환하는 것을 특징으로 한다.
도 32a 및 도 32b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
그리고, 도 33a 및 도 33b는 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
이때, 도 32a 및 도 33b는 3D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다. 그리고, 도 32b 및 도 33a는 2D 영역에서의 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여준다.
도 34 및 도 35는 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면이다.
이때, 도 35에 도시된 1, 2, 3,... 및 16은 각각 제 1 뷰 영상, 제 2 뷰 영상, 제 3 뷰 영상,... 및 제 16 뷰 영상을 의미한다.
도 32a, 도 32b, 도 33a, 도 33b, 도 34 및 도 35를 참조하면, 본 발명의 실시예에 따른 뷰 데이터 렌더링 기술을 적용하여 영역별로 인지되는 다수의 뷰를 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환한다. 즉, 일 예로 좌안의 경우에는 인지되는 다수의 뷰의 데이터들 중 어느 하나의 뷰 데이터로 치환하며, 우안의 경우에는 인지되는 다수의 뷰의 데이터들 중 좌안에서 치환된 뷰 데이터를 제외한 다른 하나의 뷰 데이터로 치환할 수 있다.
일 예로 16개의 뷰를 이용하는 경우, 좌안의 16번째 뷰(도 34, 도 35에 도시된 16th view) 및 첫 번째 뷰(1st view)의 입력 데이터가 제 16 뷰 영상 및 제 1 뷰 영상에서 제 1 뷰 영상으로 변환된다.
그리고, 좌, 우안의 2번째 뷰(2nd view) 및 우안의 3번째 뷰(3rd view)와 4번째 뷰(4th view)의 입력 데이터가 제 2 뷰 영상 및 제 3 뷰 영상과 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다.
이때, 예로 든 제 1 뷰 영상과 제 2 뷰 영상은 양안 간격의 차이(disparity)를 갖는 영상을 의미하나, 깊이 조절을 위하여 그 이상 또는 그 이하의 차이를 갖는 뷰 영상도 가능하다.
이와 같이 변환된 뷰 영상을 입력할 경우 도 32a와 도 32b 및 도 33a와 도 33b와 같이 맵핑되며, 도시하진 않았지만 주변 뷰의 영상 또한 적절하게 변환시킬 수 있다. 이에 따라 크로스토크가 감소된다.
한편, 좌안과 우안에서 동일한 뷰를 인지하는 2D 영역을 완전히 제거하기 위해서 2D 영역에 해당하는 서브-픽셀의 뷰 영상만 제거할 수 있다. 일 예로, 2D 영역에 해당하는 서브-픽셀의 뷰에 블랙 데이터를 삽입하면, 좌안과 우안의 인지 서브-픽셀이 겹치는 부분이 제거된다.
도 36은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면이다.
이때, 도 36은 2D 영역에 해당하는 2번째 뷰(도 36에 도시된 2nd view)에 블랙 데이터를 삽입한 것을 제외하고는 전술한 도 34와 실질적으로 동일하다.
그리고, 도 37은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 좌안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
도 38은 도 36에 도시된 뷰 데이터 렌더링을 적용한 경우에 있어, P2 위치에서 우안에서 인지되는 서브-픽셀과 뷰를 예로 들어 보여주는 도면이다.
도 36과 도 37 및 도 38을 참조하면, 본 발명의 실시예에 따른 뷰 데이터 렌더링 기술을 적용하여 영역별로 인지되는 다수의 뷰의 데이터들을 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 데이터로 각각 치환하는 동시에 2D 영역에 해당하는 뷰에는 블랙 데이터를 삽입한다.
즉, 일 예로 좌안의 경우에는 인지되는 다수의 뷰의 데이터들 중 어느 하나의 뷰 데이터로 치환하며, 우안의 경우에는 인지되는 다수의 뷰의 데이터들 중 좌안에서 치환된 뷰 데이터를 제외한 다른 하나의 뷰 데이터로 치환할 수 있다. 그리고, 이와 동시에 2D 영역에 해당하는 뷰에는 블랙 데이터를 삽입한다.
일 예로 16개의 뷰를 이용하는 경우, 좌안의 16번째 뷰(도 36에 도시된 16th view) 및 첫 번째 뷰(1st view)의 입력 데이터가 제 16 뷰 영상 및 제 1 뷰 영상에서 제 1 뷰 영상으로 변환된다.
그리고, 우안의 3번째 뷰(3rd view) 및 4번째 뷰(4th view)의 입력 데이터가 제 3 뷰 영상 및 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다.
이와 동시에 2D 영역에 해당하는 좌, 우안의 2번째 뷰(2nd view)의 입력 데이터는 블랙 데이터로 변환된다.
이때, 예로 든 제 1 뷰 영상과 제 2 뷰 영상은 양안 간격의 차이(disparity)를 갖는 영상을 의미하나, 깊이 조절을 위하여 그 이상 또는 그 이하의 차이를 갖는 뷰 영상도 가능하다.
이와 같이 변환된 뷰 영상을 입력할 경우 도 37 및 도 38과 같이 맵핑되어 좌안과 우안에서 인지되는 서브-픽셀의 겹치는 부분이 완전히 제거된다.
다만, 이 경우에는 휘도가 감소될 수 있으며, 이에 따라 2D 영역의 뷰에 블랙 데이터 대신에 인접한 뷰와 동일하거나 유사한 뷰 데이터를 입력할 수도 있다.
이때, 2D 영역의 비율은 뷰 겹침의 수를 증가시킴으로써 줄일 수 있다.
이러한 본 발명에 따르면, 3D 시청영역이 확장되어 시청 자유도가 높아짐과 동시에 초점 거리와 배면거리의 설계 자유도가 높아진다. 이 경우 시청거리와 초점거리를 조절하기 위해 사용되는 갭 글라스(또는 갭 필름)를 제거할 수 있어 비용이 감소되는 효과를 제공한다.
이와 같이 시청자의 위치를 인식한 후에 시청자의 위치를 기반으로 시청자가 인지하는 서브-픽셀과 그 서브-픽셀에 대응되는 뷰, 그리고 영상패널을 기준으로 몇 개의 뷰가 시청자의 좌안과 우안에 인지되는 지를 전술한 수학식 등을 통해 연산할 수 있다.
또한, 2D 발생 영역을 좌표로 표현할 수 있어 이를 바탕으로 뷰 데이터 렌더링의 적용 여부 및 적용이 필요한 뷰를 선택적으로 적용할 수 있다.
참고로, 시청거리 감지부에 의한 아이-트랙킹(eye tracking) 알고리즘은 다음과 같다. 본원 출원인은 대한민국 출원 10-2013-0038815 등을 통해 아이-트랙킹 알고리즘을 제안한 바 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.
우선, 카메라를 통해 촬영된 입력 영상으로부터 사용자의 수 및 사용자의 얼굴을 검출한다. 예를 들면, 하르 분류기(Haar Classifier) 등과 같은 얼굴 검출 방법을 이용하여 입력 영상으로부터 사용자의 얼굴을 검출한다.
이후, 검출된 사용자의 얼굴에서 눈 중심 좌표, 즉 좌안과 우안 사이의 중심 좌표를 검출한다. 예를 들면, AAM(Active Appearance Model) 등과 같은 눈 모델을 이용하여 좌안 및 우안과 같은 초기의 특징 점들을 선정한 다음, EBGM 모델 등을 통해 최종 특징점인 눈 중심 좌표를 검출한다.
이후, 검출된 눈 중심 좌표를 이용하여 눈을 이용한 거리 모델에 적용하여 사용자의 눈 위치 정보를 산출한다. 사용자의 눈 위치 정보는 입체영상표시장치의 중심점을 기준으로 한 X, Y, Z 좌표 값으로 산출된다.
시청자의 좌안과 우안이 위치하는 시청영역의 위치 판단은 전술한 바와 같이 시청 거리 감지부에 의해 감지된 시청자 양안 위치 정보(좌표 값)와 룩업테이블에 저장된 시청영역 위치 정보(좌표 정보)를 비교하는 방법으로 판단할 수 있다. 이렇게 시청자의 양안이 위치하는 시청영역이 판단되면, 시청자의 양안이 위치하는 시청영역들 내에서 우안 또는 좌안의 위치와 그 시청영역들 내에서 보여지는 좌측과 우측 영상의 비율을 파악하여야 한다. 이와 관련된 상세한 설명은 기 출원된 대한민국 출원 10-2012-0108794를 참조할 수 있으며, 전술한 수학식들과 같이 수식으로 일반화할 수 있다.
상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.
110 : 영상패널 120 : 렌티큘러 렌즈판
125 : 렌티큘러 렌즈 130 : 뷰잉 다이아몬드

Claims (9)

  1. m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널;
    상기 영상패널의 전면에 배치되며, 상기 입력 데이터의 광축을 분리하여 최적 시청거리에 제 1 뷰 영상 내지 제 K(K는 1≤K≤m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드(viewing diamond)를 형성하는 3D 필터; 및
    시청자의 위치 및 2D 영역에 해당하는 뷰를 연산하고, 이를 바탕으로 상기 뷰잉 다이아몬드를 상호 중첩시키는 타이밍 컨트롤러를 포함하고,
    상기 2D 영역은 eKsH(이때, e는 양안 간격을 의미하며, Ks 및 H는 각각 상기 최적 시청거리로부터 후방에 순서대로 형성되는 뷰잉 다이아몬드의 순서 및 상기 영상패널의 높이를 의미)와 같거나 큰 것을 특징으로 하는 무안경 입체영상표시장치.
  2. 제 1 항에 있어서, 상기 시청자의 위치가 상기 최적 시청거리의 N배에 해당하는 경우 상기 뷰잉 다이아몬드를 N번 이상 중첩시키는 것을 특징으로 하는 무안경 입체영상표시장치.
  3. 제 1 항에 있어서, 상기 타이밍 컨트롤러는 상기 시청자의 위치에 따라 시청자의 좌안과 우안이 인지하는 뷰 및 뷰의 수를 연산하는 것을 특징으로 하는 무안경 입체영상표시장치.
  4. 제 3 항에 있어서, 상기 연산된 뷰 및 뷰의 수를 바탕으로 뷰 데이터 렌더링 영역을 선정하는 것을 특징으로 하는 무안경 입체영상표시장치.
  5. 제 4 항에 있어서, 상기 선정된 뷰 데이터 렌더링 영역을 바탕으로 상기 뷰 영상을 상기 시청자의 좌, 우안에 대해 차이(disparity)를 갖는 하나의 뷰 영상으로 각각 치환하는 것을 특징으로 하는 무안경 입체영상표시장치.
  6. 제 5 항에 있어서, 상기 좌안의 경우에는 인지되는 다수의 뷰 영상들 중 어느 하나의 뷰 영상으로 치환하며, 우안의 경우에는 인지되는 다수의 뷰 영상들 중 좌안에서 치환된 뷰 영상을 제외한 다른 하나의 뷰 영상으로 치환하는 것을 특징으로 하는 무안경 입체영상표시장치.
  7. 삭제
  8. 제 1 항에 있어서, 상기 2D 영역에 해당하는 서브-픽셀의 뷰에 블랙 데이터를 삽입하는 것을 특징으로 하는 무안경 입체영상표시장치.
  9. 제 8 항에 있어서, 상기 2D 영역에 해당하는 서브-픽셀의 뷰에 인접한 뷰와 동일하거나 유사한 뷰 데이터를 입력하는 것을 특징으로 하는 무안경 입체영상표시장치.
KR1020140191078A 2014-12-26 2014-12-26 무안경 입체영상표시장치 KR102279816B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140191078A KR102279816B1 (ko) 2014-12-26 2014-12-26 무안경 입체영상표시장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140191078A KR102279816B1 (ko) 2014-12-26 2014-12-26 무안경 입체영상표시장치

Publications (2)

Publication Number Publication Date
KR20160079555A KR20160079555A (ko) 2016-07-06
KR102279816B1 true KR102279816B1 (ko) 2021-07-21

Family

ID=56502494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140191078A KR102279816B1 (ko) 2014-12-26 2014-12-26 무안경 입체영상표시장치

Country Status (1)

Country Link
KR (1) KR102279816B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102447101B1 (ko) 2017-09-12 2022-09-26 삼성전자주식회사 무안경 3d 디스플레이를 위한 영상 처리 방법 및 장치
KR102573104B1 (ko) * 2017-12-27 2023-08-30 엘지디스플레이 주식회사 헤드업 표시 장치
KR102670500B1 (ko) * 2017-12-27 2024-05-28 엘지디스플레이 주식회사 헤드업 표시 장치
KR20220045862A (ko) 2020-10-06 2022-04-13 삼성전자주식회사 동적 크로스토크를 측정하는 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296901B1 (ko) 2010-10-12 2013-08-14 엘지디스플레이 주식회사 입체영상 표시장치 및 그 구동방법
US20130321246A1 (en) * 2012-05-30 2013-12-05 Superd Co., Ltd. Stereoscopic display apparatus and adjustment method
KR101380517B1 (ko) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 멀티 뷰 무안경 입체 영상 표시장치와 그 최적 시청 거리 제어 방법
KR101449748B1 (ko) 2011-08-18 2014-10-13 엘지디스플레이 주식회사 입체영상 디스플레이장치 및 그 구동 방법
EP2811746A1 (en) 2012-02-02 2014-12-10 Korea Institute of Science and Technology Glasses-free 3d image display device for flattening field of view and minimizing dynamic crosstalk

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101497511B1 (ko) * 2008-09-19 2015-03-02 삼성전자주식회사 평면 영상과 입체 영상을 동시에 표현하는 영상 표시 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296901B1 (ko) 2010-10-12 2013-08-14 엘지디스플레이 주식회사 입체영상 표시장치 및 그 구동방법
KR101449748B1 (ko) 2011-08-18 2014-10-13 엘지디스플레이 주식회사 입체영상 디스플레이장치 및 그 구동 방법
EP2811746A1 (en) 2012-02-02 2014-12-10 Korea Institute of Science and Technology Glasses-free 3d image display device for flattening field of view and minimizing dynamic crosstalk
US20130321246A1 (en) * 2012-05-30 2013-12-05 Superd Co., Ltd. Stereoscopic display apparatus and adjustment method
KR101380517B1 (ko) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 멀티 뷰 무안경 입체 영상 표시장치와 그 최적 시청 거리 제어 방법

Also Published As

Publication number Publication date
KR20160079555A (ko) 2016-07-06

Similar Documents

Publication Publication Date Title
KR101380517B1 (ko) 멀티 뷰 무안경 입체 영상 표시장치와 그 최적 시청 거리 제어 방법
EP2268046B1 (en) Autostereoscopic display device and method
US9838674B2 (en) Multi-view autostereoscopic display and method for controlling optimal viewing distance thereof
KR102197382B1 (ko) 곡률 가변형 입체영상표시장치
KR102284841B1 (ko) 무안경 입체영상표시장치
KR102218777B1 (ko) 무안경 입체영상표시장치
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
US9049435B2 (en) Image providing apparatus and image providing method based on user's location
KR102175813B1 (ko) 입체 영상 표시 장치 및 영상 처리 방법
KR102279816B1 (ko) 무안경 입체영상표시장치
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
KR101721103B1 (ko) 입체영상표시장치 및 그 구동방법
KR101717650B1 (ko) 입체영상표시장치 및 그 구동방법
KR102233116B1 (ko) 입체 영상 디스플레이 장치와 이의 구동 방법
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
KR101697591B1 (ko) 입체영상표시장치 및 그 구동방법
KR102189009B1 (ko) 삼차원영상 표시장치 및 그 구동방법
KR102232462B1 (ko) 무안경 입체영상표시장치
KR20160024283A (ko) 렌티큘러 렌즈 방식의 입체영상표시장치
KR20120070362A (ko) 입체영상표시장치 및 그 구동방법
KR101950816B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
KR20160079552A (ko) 입체영상표시장치 및 이의 동작방법
KR20150035104A (ko) 입체감 조절 방법과 이를 이용한 입체 영상 표시장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant