KR20120084775A - 입체 디스플레이 시스템 - Google Patents

입체 디스플레이 시스템 Download PDF

Info

Publication number
KR20120084775A
KR20120084775A KR1020127014079A KR20127014079A KR20120084775A KR 20120084775 A KR20120084775 A KR 20120084775A KR 1020127014079 A KR1020127014079 A KR 1020127014079A KR 20127014079 A KR20127014079 A KR 20127014079A KR 20120084775 A KR20120084775 A KR 20120084775A
Authority
KR
South Korea
Prior art keywords
image
stereoscopic
pair
display
projector
Prior art date
Application number
KR1020127014079A
Other languages
English (en)
Inventor
헨리 핼린 베이커
Original Assignee
휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. filed Critical 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피.
Publication of KR20120084775A publication Critical patent/KR20120084775A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

본 발명의 다양한 실시예는 입체 디스플레이 시스템에 관한 것이다. 일 실시예에서, 입체 디스플레이 시스템은 디스플레이(402), 뷰잉 영역(404), 및 하나 이상의 입체 프로젝터(409 내지 4011)를 포함한다. 각각의 입체 프로젝터 쌍은 뷰잉 영역의 서브 구역에 대응한다. 또한, 각각의 입체 프로젝터의 쌍은 디스플레이 상으로 교정된 이미지 쌍을 영사하여서 대응 서브 구역에 위치된 하나 이상의 뷰어는 배타적으로 이미지 쌍을 뷰잉하고, 그 서브 구역에서 뷰어가 디스플레이 상에 나타난 3차원 이미지를 인지하는 것을 가능하게 한다.

Description

입체 디스플레이 시스템{STEREO DISPLAY SYSTEMS}
본 발명의 실시예는 입체 디스플레이 기술에 관한 것이다.
입체 영상(stereopsis)은 뷰어(viewer)의 좌안 뷰포인트(viewpoint)에 이미지의 제 1 영사(projection)를 나타내고 뷰어의 우안 뷰포인트에 동일 장면에 대한 제 2의 상이한 영사를 나타냄으로써 뷰어가 2차원 디스플레이 상에 나타낸 이미지에서의 뎁스(depth)를 인지하는 시각적인 프로세스이다. 입체 영상은 뷰어의 두 눈에서 상이한 수평 위치의 수용 필드를 갖는 양안 셀(binocular cell)의 시각 피질(visual cortex)에서 프로세싱된다. 양안 셀은 이의 바람직한 자극이 좌안의 정확한 위치 및 우안의 정확한 위치에 있을 때에만 활성화되며, 이는 양안 셀이 시차(disparity) 검출기가 되게 한다. 뷰어가 주요 객체를 응시할 때, 뷰어의 두 눈은 객체가 망막의 중심에 나타나도록 양쪽 눈이 모인다. 주요 객체 주위의 다른 객체는 주요 객체와 관련되어 이동된 것으로 나타난다. 각각의 눈은 상이한 평행 위치에 있기 때문에, 각각의 눈은 장면에 대하여 상이한 망막의 이미지를 산출하는 다소 상이한 관점을 갖는다. 이들 두 영사의 상대적인 방향이 정확할 때, 뷰어의 두뇌는 이상적으로 이미지 사이의 시각적 차이를 단일의 왜곡되지 않은 3차원 이미지로서 해석한다.
최근, 뷰어가 2차원 디스플레이를 이용하여 입체 영상을 수행하는 것을 가능하게하는 입체 디스플레이 기술의 등장은 관심과 인정을 받게 되었다. 통상적인 입체 디스플레이 기술에서는, 뷰어는 각각의 눈으로 전달된 시각적 콘텐츠를 제어하는 안경을 착용하도록 요구되었다. 하지만, 뷰어의 뷰가 디스플레이의 중심에 수직인 위치와 같이, 특정 뷰잉 위치에 대해서만 뷰어에 의해 수신된 영사의 상대적인 방향이 정확한 경우가 일반적이다. 대조적으로, 이들 뷰잉 위치의 외부의 동일한 디스플레이를 시청하는 뷰어는 뷰어의 눈에 의해 수신된 시각적 콘텐츠의 수직 오정렬(misalignment)로서 나타난 재영사 에러를 경험한다. 또한 일부 경우에서 이미지가 매우 상이하다면, 한번에 하나의 이미지가 보여질 수 있으며, 양안 경합(binocular rivalry)으로서 알려진 현상이다. 이와 같은 종류의 시각 효과는 대부분의 뷰어에게 누적되어, 눈의 긴장, 메스꺼움, 피로, 및 입체 디스플레이 기술에 대한 거부반응을 야기한다. 따라서, 단지 문턱값 이하의 불쾌함은 이들의 존재를 허용하기에 충분하지 않을 수 있다.
입체 디스플레이 시스템의 설계자 및 제조자는 통상적인 입체 디스플레이 기술과 관련된 부정적 효과를 감소시키는 개선방안을 찾기 시작했다.
도 1은 단일 관심 포인트의 두 뷰포인트를 도시한다.
도 2는 두 상이한 이미지 평면에서 관심 포인트의 다양한 위치를 도시한다.
도 3a 내지 도 3b는 두 이미지 평면의 오정렬 에피폴라(epipolar) 라인 및 정렬된 에피폴라 라인의 예시를 도시한다.
도 4는 본 발명의 하나 이상의 실시예에 따라 구성된 입체 디스플레이 시스템의 전반적인 계략도이다.
도 5a 내지 도 5c는 본 발명의 하나 이상의 실시예에 따라 생성된 교정된 이미지의 예시를 도시한다.
도 6은 본 발명의 하나 이상의 실시예에 따라 구성된 제 2 입체 디스플레이 시스템의 예시를 도시한다.
도 7은 본 발명의 하나 이상의 실시예에 따른 입체 디스플레이 시스템의 세 서브 영역을 위한 색상 필터링 스킴의 예시를 도시한다.
도 8은 본 발명의 하나 이상의 실시예에 따라 구성된 제 3 입체 디스플레이 시스템의 예시를 도시한다.
도 9는 본 발명의 하나 이상의 실시예에 따라 장면의 세 개의 뷰존(view zone)을 생성하기 위해 사용되는 네 개의 카메라의 예시를 도시한다.
도 10은 본 발명의 하나 이상의 실시예에 따라 3차원 이미지를 뷰잉하는 방법의 제어 흐름도를 도시한다.
본 발명의 다양한 실시예는 디스플레이의 각 뷰어가 3차원 이미지를 정확하게 인지할 수 있도록 뷰어의 눈으로 영사되는 이미지 쌍을 교정하고 정렬하는 입체 디스플레이 시스템에 관한 것이다. 특히, 디스플레이 뷰잉 영역은 서브 구역 또는 서브 뷰잉 영역으로 분할된다. 본 발명의 입체 디스플레이 시스템은 각각의 뷰잉 영역 내에 위치한 뷰어가 이들의 위치로부터 교정되고 정렬되는 것으로 나타나는 이미지 쌍으로 나타내도록 구성되며, 각각의 뷰잉 영역 내의 뷰어가 입체 디스플레이 시스템의 디스플레이 상에 나타난 3차원 이미지를 정확하게 인지하는 것을 가능하게 한다.
에피폴라 기하의 개요
이미 에피폴라 기하 및 입체 영상의 다른 관련 개념에 친숙한 독자는 본 서브섹션을 건너뛰고 입체 디스플레이 시스템 실시예라는 제목의 다음 서브섹션으로 진행할 수 있다. 본 서브섹션은 에피폴라 기하 및 입체 영상에 친숙하지 않은 독자들에게 관련 전문 용어 및 표기법을 이해하기 위한 기반을 제공하고 이하에 설명된 본 발명의 다양한 실시예를 이해하기 위한 기반을 제공하기 위한 것이다.
에피폴라 기하는 입체시각(stereo vision)의 기하를 특성화한다. 특히, 에피폴라 기하는 두 개의 카메라, 또는 뷰어의 두 눈이 두 개의 구별되는 위치로부터 3차원 장면을 뷰잉할 때 생성된 기하 관계 및 제약을 특성화한다. 도 1은 단일 관심 포인트 P의 두 뷰포인트 V1 및 V2를 도시한다. 도 1은 포인트 P와 뷰포인트 V1 사이에 위치한 제 1 가상 이미지 평면(101) 및 포인트 P와 뷰포인트 V2 사이에 위치한 제 2 이미지 평면(102)을 포함한다. 이미지 포인트
Figure pct00001
1
Figure pct00002
2는 각각 이미지 평면ㄷ들01 및 102) 상으로의 포인트 P의 영사이다. 포인트 P 및 뷰포인트 V1 및 V2는 "에피폴라 평면"으로 지칭되는 평면(104)을 형성한다. 두 뷰포인트 V1 및 V2는 구별되기 때문에, 각각의 뷰포인트는 다른 뷰포인트의 이미지 평면의 구별되는 포인트 상으로 영사한다. 이들 두 포인트는 도 1에서 e1 및 e2로서 나타나고 "에피폴(epipoles)"이라 지칭된다. 즉, 뷰포인트 V1은 에피폴 e2로서 이미지 평면(102) 상에 영사하고, 뷰포인트 V2는 에피폴 e1로서 이미지 평면(101) 상으로 영사한다. 뷰포인트 V1 및 V2 에피폴 e1 및 e2는 "기준선"으로 지칭되는 동일 라인(106) 상에 존재한다.
도 1의 예시에서 도시된 바와 같이, V1으로부터 P까지의 라인(108)은 이미지 평면(101)에서 뷰포인트 V1로부터 단일 이미지 포인트
Figure pct00003
1 로 보인다. 라인(108)을 따라 존재하는 포인트 P1 및 P2와 같은, 임의의 포인트는 또한 이미지 평면(101)에서 단일 이미지 포인트로 보인다. 대조적으로, 동일 라인(108)은 뷰포인트 V2로부터 라인(110)으로 보이며 이는 이미지 평면(102)에서 e2
Figure pct00004
2를 잇는 라인이며, 포인트 P1 및 P2 이미지 평면(102)에서 이미지 포인트(112 및 114)로서 각각 나타난다. 이미지 평면(102)에서 라인(110)은 "에피폴라 라인"으로 지칭된다. 대칭적으로, V2로부터 P까지의 라인(116)은 이미지 평면(102)에서 뷰포인트 V2로부터 단일 이미지 포인트
Figure pct00005
2로 보이지만 이미지 평면(101)에서는 e1
Figure pct00006
1를 잇는 에피폴라 라인(118)으로 보인다.
이미지 포인트
Figure pct00007
1가 알려져 있을 때, 161과 102 및 V1과 V2 사이의 상대적인 기하학적 구조를 따라 에피폴라 라인(110)이 결정될 수 있고 포인트 P는 이미지 평면(102)의 이미지 포인트
Figure pct00008
2 상으로 영사하며, 에피폴라 라인(110) 상에 존재한다. 따라서 하나의 이미지 평면에서 관찰된 각각의 포인트에 대해, 동일 이미지 포인트는 다른 이미지 평면의 알려진 에피폴라 라인 상에서 관찰될 수 있다. 이는 대응 이미지 포인트가 만족시키는 "에피폴라 제약"을 제공한다. 따라서, 두 이미지 포인트가 3차원 공간에서의 동일 포인트에 실제로 대응하는지를 테스트하는 것이 가능하다. 에피폴라 제약은 또한 다음과 같이 두 이미지 포인트와 관련한 3 x 3 기초 행렬
Figure pct00009
에 의해 설명될 수 있다.
Figure pct00010
즉, 두 이미지 포인트
Figure pct00011
1
Figure pct00012
2는 에피폴라 제약을 만족시키고, 또한 이미지 포인트
Figure pct00013
1
Figure pct00014
2에 의해 정의된 광선은 동일 평면 상에 있다(coplanar).
모든 에피폴라 평면 및 에피폴라 라인은 P가 위치된 곳에 상관없이 에피폴(즉, 동일 기준선을 공유)에서 교차한다. 도 2는 두 상이한 이미지 평면에서 포인트 P의 다양한 위치를 도시한다. 먼저, 포인트 P는 위치(202)에서 제1 에피폴라 평면 θ1 내에 놓인다. 에피폴라 평면 θ1 은 이미지 평면(101 및 102)과 교차하여 제 1 쌍의 에피폴라 라인(204 및 206)을 형성한다. 포인트 P는 에피폴라 라인(204 및 206) 각각의 이미지 포인트(208 및 210) 상으로 영사된다. 포인트 P가 이동될 때, 포인트 P는 제 2 위치에서 제 2 에피폴라 평면 내에 놓인다. 평면 θ1 θ2 동일 기준선을 공유한다. 동일 기준선을 공유하는 에피폴라 평면군(family of epipolar plane)은 "에피폴라 펜슬" 또는 단지 "펜슬"로 지칭된다. 에피폴라 평면 θ2는 이미지 평면(101 및 102)과 교차하여 제 2 쌍의 에피폴라 라인(214 및 216)을 형성한다. 뷰포인트 V1에서 볼 때, 이미지 포인트(208)는 에피폴라 라인(204)로부터 에피폴라 라인(214) 상의 이미지 포인트(218)로 이동하고, 뷰포인트 V2에서 볼 때, 이미지 포인트(210)는 에피폴라 라인(206)으로부터 에피폴라 라인(216) 상의 이미지 포인트(220)로 수직으로 이동한다. 반면, 포인트 P가 에피폴라 평면 θ2 내에서 제 3 위치(222)로 수평으로 이동될 때, 포인트 P는 각각의 이미지 평면에서 에피폴라 라인을 따라 이동하는 것으로 나타난다. 특히, 뷰포인트 V1에서 볼 때, 이미지 포인트(218)는 에피폴라 라인(214)을 따라 이미지 포인트(224)로 측면으로 이동하는 것으로 나타난다. 대조적으로, 뷰포인트 V2에서 볼 때, 이미지 포인트(22)는 이미지 라인(216)을 따라 이미지 포인트(226)로 측면으로 이동하는 것으로 나타난다.
입체 이미지 캡쳐
3차원 비디오 프레젠테이션을 캡쳐하고 뷰잉하는 것에 있어서 고려해야할 세가지 주요 요인이 존재한다. 첫 번째로, 일반적으로, 카메라의 상대적인 방향은 우선적으로 무한대로의 평행 뷰잉 또는 일부 주시각(vergence)으로 토 인(toed in)되어 대칭적으로 구성되어야한다. 두 번째로, 카메라 캡쳐 및 영사에 대한 디스플레이 표면의 방향은 이상적으로 카메라 사이의 기준선에 대해 직각이 되어야한다. 이는 평행 및 수평으로 배열된 디스플레이 표면상에서의 에피폴라 라인을 야기한다. 세 번째로, 그/그녀가 3차원 프레젠테이션을 시청할 때 디스플레이 표면에 대한 관찰자의 상대적인 방향에 있어서, 뷰어는 뷰잉 영역의 중심 위치에서 장면을 직각으로 바라볼 수 있으며, 이는 최적의 경우이다. 하지만, 뷰어가 중심에서 떨어져 있을 때, 뷰어는 직각으로 여전히 뷰잉할 수 있을 것이지만, 일반적인 경우에는 대부분의 액션이 보여지는 디스플레이의 중심에 주의를 기울이게 될 것이다.
도 3a는 비대칭적으로 위치된 두 카메라의 예시를 도시한다. 도 3a의 예시에서, 뷰포인트 V1 및 V2는 두 카메라의 영사의 중심을 나타낸다. 이미지 평면(301 및 302)은 제 1 카메라와 제 2 카메라에 의해 수집된 이미지에 대응한다. 장면 및 두 뷰포인트 V1 및 V2와 장면의 각각의 포인트 P에 대해, 뷰포인트 V1 및 V2와 만나는 기준선(304)과 P를 지나가는 에피폴라 평면이 존재한다. 기준선(304)은 카메라의 영사의 중심을 통과하는 라인에 대응한다. 도 3a에서 나타난 구조는 기준선(304)을 통과하는 에피폴라 평면의 펜슬로 장면을 분할하며, 다수의 펜슬은 θ1, θ2, θ3, θn, θn+1, θn+2, 및 θn+3 로서 식별된다. 뷰포인트 V1에서 볼 때, 이미지 평면(301)은 에피폴라 평면이 각각의 에피폴라 평면에 대응하는 평행 에피폴라 라인을 생성하는 이미지 평면과 교차하도록 향하여 진다. 예를 들어, 이미지 평면(301)과 교차하는 에피폴라 평면 θ3에 대응하는 에피폴라 라인(306)과, 이미지 평면(301)과 교차하는 에피폴라 평면 θ2에 대응하는 에피폴라 점선 라인(307)은 평행한다. 반면, 뷰포인트 V2에서 볼 때, 이미지 평면(302)은 에피폴라 평면이 기준선(304) 상에 위치된 포인트로부터 나오는 에피폴라 라인을 생성하는 이미지 평면(302)과 교차하도록 향하여 진다. 예를 들어, 이미지 평면(302)과 교차하는 에피폴라 평면 θ3에 대응하는, 에피폴라 라인(308)과, 이미지 평면(302)과 교차하는 에피폴라 평면 θ2에 대응하는, 에피폴라 점선 라인(309)은 평행하지 않고 동일 포인트로부터 나오는 것으로 나타난다.
도 3a의 예시에서 도시된 바와 같이, 이미지 포인트(310)는 이미지 평면(301) 상으로 영사되는 포인트 P에 대응하고, 이미지 포인트(312)는 이미지 평면(302) 상으로 영사되는 포인트 P에 대응한다. 하지만, 에피폴라 평면 θ3에서 이동하는 포인트 P에 대한 두 카메라에 의해 캡쳐된 이미지가 공통 디스플레이 표면상에 영사될 때, 이미지 평면(301 및 302)에서 에피폴라 라인의 상이한 방향은 이미지 평면에서 포인트의 상이한 이동을 유발한다. 예를 들어, 도 3a에서 도시된 바와 같이, 에피폴라 평면 θ3에서 기준선(304)에 대해 평행하게 포인트 P가 이동한다는 것을 고려한다. 포인트 P가 에피폴라 평면 θ3 내에서 위치(314)로부터 신규 위치(316)로 이동할 때, 뷰포인트 V1에서 보면, 이미지 포인트(310)는 신규 위치(318)에 수평으로 이동하는 것으로 나타난다. 즉, 이미지 포인트(310)는 에피폴라 라인(306)을 따라 이동한다. 대조적으로, 뷰포인트 V2에서 보면, 포인트 P는 좌측으로 아래쪽 방향으로 신규 위치(320)로 이동한다. 즉, 이미지 포인트(312)는 에피폴라 라인(308)을 따라 이동하고, 이미지 평면(301)에서 관찰된 이미지 포인트의 이동과 정렬되지 않는다. 두 이미지 평면(301 및 302)의 에피폴라 라인 사이의 오정렬 때문에, 이들 이미지를 캡쳐된 상태로 뷰어가 관찰하게 된다면 그/그녀는 포인트 P의 두 상이한 이동 유형을 볼 것이고, 이는 양호한 3차원 인지에서는 용납될 수 없는 문제이다. 따라서, 시간이 지나면서 뷰어는 눈의 긴장, 피로, 및 메스꺼움을 경험할 것이다. 도 3b에서 도시된 바와 같이, 디스플레이 시스템 실시예의 역할은 이들 에피폴라 라인을 두 눈 사이에서 일치(agreement) 시킴으로써 이 상황을 개선하는 것이다.
상술된 문제점을 회피하기 위해, 카메라는 대칭 캡쳐(즉, 평행 또는 토 인된)를 위해 지향되어야한다. "호모그라피 교정(rectifying homography)"으로 지칭된 변환은 카메라에 의해 생성된 이미지를 수정하는데 사용될 수 있다. 예를 들어, 도 3b는 이미지 평면(301)의 에피폴라 라인에 대해 평행이고 기준선(304)에 대해 평행인 에피폴라 라인을 갖는 도 3a의 이미지 평면(302)으로부터 합성된 이미지 평면(322)을 생성하는데 호모그라피 교정이 어떻게 사용될 수 있는지의 일례를 도시한다. 이제 이 이미지는 디스플레이를 위해 적절하게 구조화된다. (도 3a와 같이)상대적인 카메라 방향일지라도, 이 평행 구조화를 제공하는 교정 변환이 거의 항상 존재한다(예외는 에피폴이 실제로 이미지에 있을 때, 이 경우에 맵핑은 더 이상 단사상(injective)이 아니다). 이미지 평면(301)에서 에피폴라 라인(306)을 따라가는 이미지 포인트(310)의 이동은 변경되지 않으며, 이제 합성된 이미지 평면(322)에서 포인트(320)는 또한 신규 위치(324)로 수평으로 이동한다. 따라서, 이미지 평면(301 및 322)의 에피폴라 라인은 일치되고 기준선(304)과 일치하기 때문에 양쪽 카메라에 의해 캡쳐된 포인트(314)의 이동은 일정하여 눈의 긴장, 피로, 및 메스꺼움을 제거한다.
입체 디스플레이 시스템
향상된 입체시각 경험을 위해, 본 발명의 실시예가 입체 디스플레이 시스템으로 유도되며 뷰잉 영역의 특정 위치에서 그룹화된 뷰어가 디스플레이 상으로 영사된 이미지의 3차원 뷰잉을 위해 분리된 좌안 및 우안 교정 이미지를 수신하는 것을 가능하게 한다. 도 4는 본 발명의 하나 이상의 실시예에 따라 구성된 입체 디스플레이 시스템(400)을 도시한다. 디스플레이 시스템(400)은 디스플레이(402), 좌측, 중심 및 우측 서브 구역(405 내지 407)과 같이, 서브 구역으로 분할된 뷰잉 영역(404), 및 입체 프로젝터 쌍(409 내지 411)을 포함하고, 각 입체 프로젝터 쌍은 서브 구역 중 하나에 대응한다. 디스플레이(402)는 흰색 또는 은빛 표면이 될 수 있고 여기서 뷰잉 영역(404)에 위치된 뷰어에 의한 뷰잉을 위해 이미지가 영사될 수 있다. 각각의 입체 프로젝터의 쌍은, 대응 서브 구역에서 그룹화된 뷰어의 좌안에 대한 이미지를 디스플레이(402) 상으로 영사하는 PL로 표시된 좌안 프로젝터와, 대응 서브 구역에서 그룹화된 뷰어의 우안에 대한 이미지를 디스플레이(402) 상으로 영사하는 PR로 표시된 우안 프로젝터를 포함한다. 단일 입체 프로젝터에 의해 좌안 및 우안에 대하여 생성된 분리 이미지는 "이미지 쌍"으로 지칭된다. 예를 들어, 도 4에서 도시된 바와 같이, 입체 프로젝터(409)는, 서브 구역(405)에서 그룹화된 뷰어에 대한 좌안 이미지를 디스플레이(402) 상으로 영사하는 좌안 프로젝터(412)와 서브 구역(405)에서 그룹화된 뷰어에 대한 우안 이미지를 디스플레이(402) 상으로 영사하는 우안 프로젝터(414)를 포함한다. 각각의 프로젝터의 쌍은 뷰잉 영역(404)의 대응 서브 구역의 뷰어가 도 3b에서 도시된 평행 구조를 수신할 수 있도록 구성되고 지향된다.
본 발명의 입체 디스플레이 시스템 실시예는 단지 세 개의 뷰잉 서브 구역으로 세분된 뷰잉 영역 및 세 개의 대응 입체 프로젝터에 제한되지 않는다는 것에 유의해야한다. 디스플레이 시스템 실시예는 임의의 적절한 수의 뷰잉 서브 구역 및 뷰잉 영역의 임의의 적절한 구성의 대응 입체 프로젝터로 구성될 수 있다. 하지만, 간결함을 위해, 단지 세 개의 서브 구역으로 세분된 뷰잉 영역을 갖는 입체 디스플레이 시스템에 대한 본 발명의 실시예가 이하에서 설명되며, 각각의 서브 구역은 대응하는 입체 프로젝터 쌍을 갖는다.
교정된 이미지 쌍을 캡쳐하고 디스플레이하는 프로세스는 카메라 영사 행렬
Figure pct00015
에 포함된 파라미터의 세트를 결정함으로써 달성될 수 있고, 이는 상술된 기초 행렬
Figure pct00016
로부터 유도될 수 있다. 카메라 행렬
Figure pct00017
는 실제 3차원 장면으로부터 2차원 이미지의 포인트로의 뷰포인트의 맵핑이다. 카메라 행렬
Figure pct00018
는 획득된 이미지의 재영사가 뷰잉 영역의 다양한 서브 구역의 뷰어의 뷰잉 요구조건에 부합하는 것을 가능하게 한다. 예를 들어, 뷰어의 눈 사이의 기준선과 관찰 카메라 사이의 기준선이 고정되는 동안, 합성된 영사의 방향은 가변될 수 있다. 특히, 합성된 이미지 평면을 패닝(panning)하는 것은 이미지 쌍이 에피폴라 정렬을 가능하게 하며 이는 어떠한 뷰잉 자세와도 비교가능하다. 따라서, 카메라 행렬
Figure pct00019
는 다음과 같이 뷰잉 영역의 특정 서브 구역과 관련된 뷰잉 요구조건을 만족시키기 위해 입체 카메라로 캡쳐된 두 이미지를 재샘플링하고 교정하는데 사용될 수 있다.
뷰어는 디스플레이의 중심을 향하여 직각으로 바라보는 것이 예상되기 때문에, 각각의 서브 구역과 관련된 프로젝터는 동일한 수평적 구조를 실질적으로 생성하도록 설정된다. 뷰어의 눈은 카메라에 대해 유사한 스캔 라인 구조를 갖지만, 뷰어는 카메라가 생성하는 이미지 평면보다는 구(sphere)의 내부 상에 이미지를 생성한다. 제 1 근사 및 간결함을 위해, 뷰어의 눈은 평면으로서 취급될 수 있다. 이 모델은 뷰어가 중심의 측면에 위치되고 스크린의 중심에 대해 직각이 아닌 각도에서 디스플레이를 뷰잉할 때 실패하기 시작한다.
도 4로 되돌아가면, 중심 서브 구역(406)에 위치된 뷰어는 디스플레이(402)의 중심에 대해 실질적으로 직각으로 디스플레이(402)를 바라본다. 각각의 뷰어의 눈 스캔 라인은 디스플레이의 표면이 캡쳐되고 교정된 이미지 스캔 라인을 반영(reflect)하는 거의 동일한 방식으로 지향된다. 각각의 뷰에 대해, 안구 대 안구 기준선은 스크린에 대해 평행하고(예를 들어, 도 3b를 참조하여 상술된 카메라 캡쳐 상황에서) 수직 시차(vertical disparity) 또는 오정렬이 존재하지 않는다. 도 5는 중심 서브 구역(406)에 위치된 뷰어의 그룹의 좌안 및 우안에 대해 생성된 합성된 이미지 평면(501 및 502)의 예시를 도시한다. 뷰포인트 VL 및 VP 뷰어의 눈의 좌안 및 우안 뷰포인트를 나타낸다. 도 4에 도시된, 중심 서브 구역(406)에 위치된 뷰어의 그룹에 대해, 입체 프로젝터(410)는 뷰어가 평행 에피폴라 라인을 갖는 좌안 이미지 및 우안 이미지를 수신하도록 구성되고 지향된다. 좌안 뷰포인트 VL에 대한 이미지 평면(501)의 에피폴라 라인은 평행하고, 우안 뷰포인트 VR에 대한 이미지 평면(502)의 에피폴라 라인이 또한 평행하다. 도 5는 또한 이미지 평면(501 및 502)의 에피폴라 라인이 뷰어의 그룹의 눈 사이에서 연장하는 기준선(503)에 대해 실질적으로 평행하다는 것을 나타낸다.
반면, 중심 서브 구역(406)의 좌측 및 우측으로 위치된 서브 구역에 대응하는 입체 프로젝터가, 디스플레이 상으로 영사된 이미지의 에피폴라 라인을 각각의 서브 구역에 위치된 뷰어의 각각의 눈의 에피폴라 라인으로 맵핑하도록 에피폴라 라인을 조정하기 위해 구성되고 지향된다. 예를 들어, 좌측 서브 구역(405)에 위치된 뷰어를 고려하고 뷰어가 디스플레이(402)의 중심에서 우측으로 바라본다고 가정한다(즉, 뷰어는 직각으로 디스플레이(402)를 뷰잉하지 않는다). 도 5b는 뷰 영역에서 중심의 좌측에 위치된 뷰어의 예시 뷰를 도시한다. 도 5b의 예시에서, 원형(507 및 508)에 의해 나타낸 좌안 및 우안을 통해, 뷰어는 디스플레이 스크린(506)을 본다. 도 5b는 뷰어의 눈의 실제 이미지 구역과 근사한 좌안 및 우안 이미지 평면(509 및 510)을 또한 포함한다. 서브 구역(406)과 같은, 중심 서브 영역에 위치된 뷰어와는 다르게, 좌측 서브 구역에 위치된 뷰어에 대해, 뷰어의 안구 대 안구 기준선(512)은 디스플레이 스크린(506)에 대해 평행하지 않고, 오히려, 이는 스크린에서 교차한다. 그 결과로, 좌측 서브 구역의 뷰어의 관찰 포인트로부터, 디스플레이(506) 상에 보여진 객체는 사영 변환(projective transformation)을 거쳐 일부 부분이 그의 안구 스캔 라인에 대해 수직으로 이동되며, 스크린상으로 영사된 임의의 평행 라인은 디스플레이(506)의 우측을 향해 수렴하는 것으로 나타난다. 예를 들어, 도 5b에 도시된 바와 같이, 스태거드(staggered) 평행 라인(518)은 디스플레이(506)의 우측(520)을 향해 수렴하는 것으로 나타난다. 머리 및 안구 회전은 이 영향을 개선하고―여기서 뷰어는 시선을 고정하며, 수직 오정렬은 존재하지 않을 것이지만, 이 위치의 좌측 및 우측에 대한 오정렬이 존재할 것이다.
도 5c는 본 발명의 하나 이상의 실시예에 따라 수행된 이미지 수정으로 뷰 영역에서 중심의 좌측에 위치된 동일 뷰어의 예시 뷰를 도시한다. 도 5b에 도시된 시각적 산란을 수정하기 위해, 도 5c의 예시에서 도시된 바와 같이, 프로젝터(409)와 같은 대응 좌안 및 우안 프로젝터는, 방향성 화살표(522)에 의해 나타낸 바와 같이, 디스플레이(506)의 우측을 향해 수직 방향으로 디스플레이(506) 상으로 영사된 이미지 쌍을 늘이고, 방향성 화살표(524)에 의해 나타낸 바와 같이, 디스플레이의 좌측을 향해 이미지 쌍을 줄이도록 구성되어서, 디스플레이(506) 상의 에피폴라 라인을 각각의 뷰어의 눈에 에피폴라 라인으로 맵핑한다. 즉, 도 5c의 예시에서 도시된 바와 같이, 마치 뷰어가 뷰잉 영역의 중심 서브 구역에 앉아 있는 것처럼, 뷰어의 눈(507 및 508)에 의해 캡쳐되고 좌안 및 우안 이미지 평면(509 및 510) 상에 디스플레이된 이미지의 라인(518)은 수정된(즉, 평행) 것으로 나타난다.
우측 서브 영역(407)에 위치된 뷰어에 대해, 도 5b에 도시된 바와 같이, 뷰어의 안구 대 안구 기준선은 또한 좌측 서브 구역(405)에 위치된 뷰어에 대해 유사한 방식으로 스크린에 평행하지 않다. 우측 서브 구역(407)에서 뷰어의 관찰 포인트로부터, 스크린상으로 영사된 임의의 평행 라인은 디스플레이(402)의 좌측을 향해 수렴하는 것으로 나타난다. 좌측 서브 구역(405)에 위치된 뷰어와 마찬가지로, 여기서 뷰어는 시선을 고정하며, 유사한 시각적 효과가 존재할 것이고, 좌측 및 우측에 대해 에러가 발생할 것이다. 이들 시각적 산란을 수정하고, 도 5c에서 제시된 유사한 이미지 수정을 위해, 대응 프로젝터(411)는, 디스플레이(402)의 좌측을 향해 수직 방향으로 디스플레이(402) 상으로 영사된 이미지 쌍을 늘이고, 디스플레이의 우측을 향해 이미지 쌍을 줄이도록 구성되어서, 디스플레이(402) 상의 에피폴라 라인을 서브 구역(407)의 각각의 뷰어의 눈에 에피폴라 라인으로 맵핑한다. 마치 뷰어가 뷰잉 영역의 중심 서브 구역에 앉아 있는 것처럼, 뷰어의 눈에 의해 캡쳐된 이미지는 또한 수정된 것으로 나타난다.
디스플레이 스크린으로부터 뷰어의 안구로의 영사는 임의의 정렬 이슈를 개선하기 위해 생성된다. 즉, 디스플레이 상의 이미지는 사전구성되어서 이의 에피폴라 라인은 그 뷰잉 영역에서 뷰어의 동등한 뷰잉 에피폴라 구조와 가장 양호하게 정렬한다. 상이한 뷰어는 상이한 방향을 가질 것이기 때문에 이 프로세스는 근사적이다. 이 목표는 전반적으로, 불편함을 최소화하는 것이고, 범위 내에서 뷰어가 허용가능한 인지를 갖게 될 존을 제공함으로써 이를 달성한다.
도 4로 되돌아가면, 디스플레이 시스템(400)은 또한 뷰어에 의해 착용된 안경(416)을 포함한다. 안경은 하나 이상의 입체 프로젝터의 쌍의 좌안 및 우안 필터에 대응하는 좌안 및 우안 필터 렌즈로 구성된다. 도 4에서 도시된 바와 같이, 좌측 필터는 FL로 표시되고 우측 필터는 FR로 표시된다. 각각의 뷰어가 디스플레이(402) 상에 디스플레이된 이미지의 입체 시각을 경험하도록 하기 위해, 각각의 뷰어는 하나의 안경(416)을 착용하여서 좌안 프로젝터에 의해 생성된 좌안 이미지는 뷰어의 좌안에 도달하고 뷰어의 우안에는 도달하지 않으며, 우안 프로젝터에 의해 생성된 우안 이미지는 뷰어의 우안에 도달하고 뷰어의 좌안에는 도달하지 않는다. 예를 들어, 좌측 서브 구역(405)에 위치된 뷰어의 그룹이 각각 하나의 안경(416)을 착용할 때, 좌안 프로젝터(412)에 의해 생성된 이미지는 각각의 뷰어의 좌안에 진입하고 우안 프로젝터(414)에 의해 생성된 이미지는 각각의 뷰어의 우안에 진입하지만, 그 반대로 되지는 않아, 좌측 서브 구역(405)에 위치된 뷰어의 그룹 각각은 입체시각을 경험하는 것을 보장한다.
본 발명의 실시예는 하나의 뷰잉 서브 구역에 위치된 뷰어의 그룹은 배타적으로 그 서브 구역에 대해 의도된 영사를 보게 되며 다른 서브 구역에 대해 의도된 영사를 또한 볼 수 없다는 것을 보장한다. 예를 들어 중심 서브 구역(406)에 위치된 뷰어의 그룹이 또한 좌측 서브 구역(405)에 위치된 뷰어의 그룹에 대해 의도된 영사를 보는 것이 가능하다면, 중심 서브 구역의 뷰어의 그룹은 입체 프로젝터(410)에 의해 생성된 교정된 이미지 쌍을 정확하게 볼 것이지만, 이들은 또한 입체 프로젝터(409)에 의해 생성된 이미지 쌍을 또한 볼 것이다. 좌측 서브 구역에 위치된 뷰어에 대해 의도된 이미지는 중심 서브 구역에 위치된 뷰어에 대해 왜곡된 것으로 나타날 것이며, 혼란, 시각적 산란 및 눈의 긴장, 피로, 및 메스꺼움을 포함한 다른 불쾌한 부작용을 야기한다.
도 6은 본 발명의 하나 이상의 실시예에 따라 구성된 입체 디스플레이 시스템(600)의 예시를 도시한다. 디스플레이 시스템(600)은 디스플레이(602), 뷰잉 서브 구역 A, B, 및 C로 분할된 뷰잉 영역(604)을 포함한다. 디스플레이(602)는 뷰잉 영역(604)에 있는 뷰어에 의한 뷰잉을 위해 이미지가 영사되는 흰색 또는 은빛 표면이 될 수 있다. 이 실시예에서, 입체 프로젝터 A, B, 및 C는 하나의 위치에 놓여질 수 있다. 상술되 바와 같이, 입체 프로젝터의 각각의 쌍은 대응하는 뷰잉 서브 구역에 위치된 뷰어의 그룹에 대한 이미지 쌍을 포함하는 교정된 좌안 및 우안 이미지를 영사하도록 구성된다. 예를 들어, 입체 프로젝터 PAL 및 PAR은 서브 구역 A에 위치된 뷰어의 그룹에 대해 디스플레이(602) 상으로 교정된 좌안 및 우안 이미지를 영사한다. 도 6의 예시에서 도시된 바와 같이, 입체 프로젝터의 각각의 쌍은 또한 특정 서브 구역에 대응하는 좌안 및 우안 필터를 포함한다. 예를 들어, 좌안 프로젝터 PAL은 좌안 필터 FAL를 포함하고 우안 프로젝터 PAR은 우안 필터 FAR을 포함한다. 이 실시예에서, 뷰잉 서브 구역에 위치된 각각의 뷰어는 또한 입체 프로젝터의 좌안 및 우안 필터에 대응하는 좌안 및 우안 렌즈 필터를 갖는 하나의 안경을 착용하며, 이는 각각의 서브 구역과 관련된 필터 시스템을 형성한다. 예를 들어, 서브 구역 A에 위치된 뷰어의 그룹은 각각 좌안 프로젝터 PAL의 좌안 필터 FAL과 매칭하는 좌안 필터 렌즈 FAL 및 우안 프로젝터 PAR의 우안 필터 FAR에 매칭하는 우안 필터 렌즈 FAR로 구성된 하나의 안경 A를 착용한다. 안경 및 입체 프로젝터의 대응하는 좌안 및 우안 필터는 입체 프로젝터에 의해 생성된 이미지 쌍이 대응 서브 구역에서 뷰어의 좌안 및 우안에 도달하고 다른 서브 구역에 위치된 뷰어에 의해 또한 볼 수 없다는 것을 보장한다. 예를 들어, 좌안 프로젝터 PBL의 좌안 필터 FBL 및 하나의 안경 B의 좌안 필터 렌즈 FBL은 좌안 프로젝터 PBL에 의해 디스플레이(602) 상으로 영사된 좌안 이미지가 서브 구역 B에 위치된 뷰어의 좌안에서 뷰잉될 수 있다는 것을 보장한다. 나머지 필터는 좌안 프로젝터 PBL에 의해 영사된 좌안 이미지가 뷰잉되는 것으로부터 방지한다.
특정 서브 구역으로부터 디스플레이(602)를 뷰잉하도록 선택한 뷰어는 서브 구역과 관련된 적절한 안경을 선택할 수 있도록 각각의 서브 구역과 관련된 안경은 마킹될 수 있다. 예를 들어, 컬러 코딩(color coding)은 뷰잉 영역의 특정 서브 영역에 대해 안경을 매칭하는데 사용될 수 있다.
특정 실시예에서, 특정 서브 구역에 위치된 뷰어의 그룹이 그 서브 구역에 대해 의도된 이미지 쌍을 배타적으로 뷰잉할 수 있다는 것을 보장하기 위해, 각각의 서브 구역은 상이한 하나의 관련 셔터 안경을 가질 수 있다. 셔터 안경은 좌안 및 우안 렌즈의 투명함(transparency) 및 어두움(darkness)을 동기화함으로써 대응 좌안 프로젝터 및 우안 프로젝터에 의해 영사된 이미지로 3차원 이미지의 착시를 생성하는데 사용된다. 특히, 하나의 셔터 안경의 각각의 렌즈는 편광 필터(polarizing filter)를 갖는 액정 레이어(liquid crystal layer)를 포함하며 적절한 전압이 인가될 때, 렌즈가 어두워지지만, 그렇지 않다면 렌즈는 투명해지는 성질을 갖는다. 셔터 안경은 우안에 대한 어둠과 좌안에 대한 투명함 사이를 교대함으로써 작동되고, 또한 우안에 대한 투명함과 좌안에 대한 어둠이 갑자기 스위치된다. 하나의 눈에 대한 투명함과 다른 눈에 대한 어둠 사이의 스위칭은 대응 프로젝터의 쌍의 재생률(refresh rate)과 동기화된다. 예를 들어, 우안이 투명한 동안 대응 우안 프로젝터는 디스플레이(602) 상으로 우안에 대한 이미지를 영사하며, 좌안은 어둡고, 좌안 프로젝터는 영사하지 않는다. 렌즈는 스위치되어서 좌안이 투명한 동안 대응 좌안 프로젝터는 디스플레이(602) 상으로 좌안에 대한 이미지를 영사하며 우안은 어둡고 우안 프로젝터는 영사하지 않는다. 물론, 뷰 검출 시간(view integration time) 및 밝기 레벨은 연속적인―깜빡임이 없는(flicker-free)―수신을 보장하도록 선택되어야만 하고, 이는 셔터 주파수 및 드웰(dwell)에 영향을 준다.
다른 실시예에서, 각각의 서브 구역은 편광된 좌안 및 우안 필터로 구성된 상이한 하나의 관련 안경을 가질 수 있다. 예를 들어, 안경 A 및 입체 프로젝터 A의 좌안 및 우안 필터 FAL 및 FAR는 각각 좌편광된 원형 편광(left circularly polarized light) 및 우편광된 원형 편광(right circularly polarized light)을 전송하도록 구성될 수 있고, 안경 B 및 입체 프로젝터 B의 좌안 및 우안 필터 FBL 및 FBR는 각각 수평 편광(horizontally polarized light) 및 수직 편광(vertically polarized light)을 전송하도록 구성될 수 있고, 안경 C 및 입체 프로젝터 C의 좌안 및 우안 필터 FCL 및 FCR은 각각 45° 편광된 광 및 -45° 편광된 광을 전송하도록 구성될 수 있다. 다른 실시예에서, 편광된 필터의 상이한 조합이 사용될 수 있고 다른 편광 각도를 갖는 필터가 사용될 수 있지만, 편광을 위한 두 위상 변이의 선형 조합은 단독으로 사용될 때, 그들 자체에 둘 초과의 이산화(discretization)를 제공하지 않는다.
다른 실시예에서, 특정 서브 구역에 위치된 뷰어의 그룹이 그 서브 구역에 대해 의도된 이미지 쌍을 배타적으로 뷰잉할 수 있다는 것을 보장하기 위해, 각각의 서브 구역은 관련 좌안 및 우안 컬러 필터의 상이한 하나의 쌍을 가질 수 있다. 도 7은 본 발명의 하나 이상의 실시예에 따른 세 서브 구역 A, B, 및 C에 대한 컬러 필터링 스킴의 일례를 도시한다. 도 7의 예시에서, 가시 전자기파 스펙트럼의 일부분(700)이 적색, 녹색, 및 청색으로서 식별된 기본 컬러 구역으로 도시된다. 청색 광은 약 450nm로부터 약 495nm까지의 범위의 파장을 갖고, 녹색 광은 약 490nm로부터 약 570nm까지의 범위의 파장을 갖고, 적색 광은 약 620nm로부터 약 750nm로의 범위의 파장을 갖는다. 청색, 녹색, 및 적색 광의 적절한 강도는 컬러의 유용한 범위를 생성하는데 사용될 수 있다. 각각의 서브 구역에 대해 선택된 좌안 및 우안 필터는 가시 스펙트럼의 적색, 녹색, 및 청색 부분의 상이한 세그먼트 내에서 파장을 전송하도록 구성될 수 있고, 이는 특정 서브 구역에 위치된 뷰어의 그룹이 컬러의 그 서브 구역에 대해 의도된 배타적으로 이미지 쌍을 뷰잉할 수 있다는 것을 보장하기 위해서이다. 도 7은 서브 구역 A, B, 및 C의 좌안 및 우안 필터에 대응하는 가시 스펙트럼의 세그먼트를 식별하는데 사용될 수 있는 패턴의 범례(702)를 포함한다. 예를 들어, 도 7에 도시된 바와 같이, 안경 A 및 입체 프로젝터 PAL의 좌안 필터 FAL은 가시 스펙트럼의 청색, 녹색, 및 적색 파장 범위의 제 1 세트에 대응하는 세그먼트(704 내지 706)를 통과하고 안경 A 및 입체 프로젝터 APR의 우안 필터 FAR은 가시 스펙트럼의 청색, 녹색, 및 적색 파장의 제 2 세트에 대응하는 세그먼트(707 내지 709)를 통과한다. 청색, 녹색, 및 적색 파장 범위의 제 1 세트 및 제 2 세트는, 서브 구역 A에서 각각의 뷰어의 좌안이 프로젝터 PAL의 컬러 영사를 보지만 프로젝터 PAR의 영사는 보지 못하고, 서브 구역 A에서 각각의 뷰어의 우안은 프로젝터 PAR의 컬러 영사를 보지만, 프로젝터 PAL의 영사는 보지 못한다는 것을 보장한다. 이제 안경 C 및 입체 프로젝터 PCL의 좌안 필터 FCL이 가시 스펙트럼의 청색, 녹색, 및 적색 파장 범위의 제 3 세트에 대응하는 세그먼트(710 내지 712)를 통과하고, 안경 C 및 입체 프로젝터 PCR의 우안 필터 FCR이 가시 스펙트럼의 청색, 녹색, 및 적색 파장 범위의 제 4 세트에 대응하는 세그먼트(713 내지 715)를 통과한다는 것을 고려한다. 제 3 세트 및 제 4 세트는 제 1 세트 및 제 2 세트와는 상이하고 서브 구역 A에 있는 뷰어는 서브 구역 C에서 영사된 이미지 쌍을 볼 수 없고 그 반대도 마찬가지라는 것을 보장한다.
본 발명의 실시예는 통상적인 극장 세팅에서와 같이, 뷰잉 영역(604)의 뒤로부터 디스플레이(602) 상으로 영사하는 것에 제한되지 않는다는 것에 유의해야한다. 다른 실시예에서, 입체 프로젝터는 뷰잉 영역 위의 어느 곳이든 위치되고 디스플레이(602) 상으로 영사될 수 있다. 여전히 다른 실시예에서, 입체 프로젝터는 뷰잉 영역(604)의 앞과 디스플레이(602) 뒤에 위치될 수 있다. 도 8은 본 발명의 하나 이상의 실시예에 따라 구성된 입체 디스플레이 시스템(800)의 일례를 도시한다. 디스플레이(802)가 입체 프로젝터 A, B, 및 C와 뷰잉 영역(604) 사이에 위치된다는 것을 제외하면, 디스플레이 시스템(800)은 상술된 디스플레이 시스템(600)과 거의 동일하다. 안경 필터 및 입체 프로젝터와 관련된 필터는 입체 디스플레이 시스템(600)을 참조하여 상술된 필터와 동일한 방식으로 구성되고 작동된다.
이러한 필터링 및 셔터링 메커니즘의 조합은 이미지 뷰 존의 조합적 선택을 제공하기 위해 함께 이용될 수 있다. 예를 들어, 4개의 주파수(2개의 뷰 존)에서 셔터링이 존재할 수 있고, 각각은 12 개 대역(3대역 RGB 필터의 4세트, 다시 2개의 뷰 존)의 컬러 필터링을 사용하며, 따라서 뷰잉 영역 내에서 네 개의 뷰잉 서브 구역을 지원한다.
본 발명의 실시예는 또한 다른 뷰포인트를 제공하는 것을 포함하며 양쪽은 사영적으로(projectively) 정렬된 에피폴라 라인을 제공하고 뷰잉 환경에서 뷰어의 관점으로부터 인지된 방향을 매칭시킨다. 이는 n개의 입체 뷰 존에 대한 n+1개의 카메라로 달성될 수 있고, 여기서 인접한 카메라는 이들의 의도된 뷰잉 방향을 매칭시키기 위해 다른 쌍에 독립적으로 교정되고 재샘플링될 수 있는 상이한 뷰 쌍(viewpair)을 제공한다. 도 9는 본 발명의 하나 이상의 실시예에 따른 장면의 세 뷰존을 생성하는데 사용된 네 개의 카메라의 일례를 도시한다. 도 9의 예시에서 도시된 바와 같이, 인접한 카메라 C1 및 C2는 제 1 입체 뷰존(902)를 형성하고, 인접한 카메라 C2 및 C3는 제 2 입체 뷰존(904)를 형성하고, 인접한 카메라 C3 및 C4는 제 3 입체 뷰존(906)을 형성한다. 도 3a를 참조하여 상술된 바와 같이, 각각의 입체 뷰존에서 카메라의 쌍은 무한대로의 평행 뷰잉이나 포커싱을 위해 주시각으로 토 인된 뷰잉 중 하나를 캡쳐하도록 구성되고 지향될 수 있다. 카메라 C1 및 C2에 의해 캡쳐된 이미지의 쌍은 상술된 입체 프로젝터 PAL 및 PAR에 의해 영사되는 좌안 및 우안 이미지를 생성하도록 교정되고 재샘플링될 수 있고, 카메라 C2 및 C3에 의해 캡쳐된 이미지의 쌍은 상술된 입체 프로젝터 PBL 및 PBR에 의해 영사되는 좌안 및 우안 이미지를 생성하도록 교정되고 재샘플링될 수 있고, 카메라 C3 및 C4에 의해 캡쳐된 이미지의 쌍은 상술된 입체 프로젝터 PCL 및 PCR에 의해 영사되는 좌안 및 우안 이미지를 생성하도록 교정되고 재샘플링될 수 있다.
도 10은 본 발명의 하나 이상의 실시예에 따라 3차원 이미지를 뷰잉하기 위한 방법의 제어 흐름도를 도시한다. 다음 단계는 도 10에 도시되고 이제 설명되는 순서에 제한되지 않음에 유의한다. 도 4, 도 6, 및 도 8을 참조하여 상술된 바와 같이, 단계(1001)에서, 이미지 쌍은 대응 프로젝터의 쌍으로부터 디스플레이 상으로 영사된다. 도 4, 도 6, 및 도 8을 참조하여 상술된 바와 같이, 단계(1002)에서, 이미지 쌍은 뷰잉 영역의 서브 구역에서 선택적으로 뷰잉된다. 도 4 및 도 5를 참조하여 상술된 바와 같이, 단계(1003)에서, 이미지 쌍은 서브 구역에서 배타적으로 뷰잉될 수 있는 3차원 이미지를 생성하도록 교정된다.
상기 설명에서는 본 발명의 완전한 이해를 제공하기 위하여 설명을 목적으로, 특정 명명법이 사용되었다. 하지만, 본 발명을 실시하기 위해 특정 상세가 필요하지 않음이 당업자에게 명백해질 것이다. 본 발명의 특정 실시예의 상기 설명은 예시 및 설명의 목적을 위해 제시된다. 이들은 개시된 정확한 형식에 본 발명을 제한하거나 모든 요소와 양태가 완전히 설명된 것으로 의도되지 않는다. 명백히, 상기 교시의 관점에서 많은 수정 및 변형이 가능하다. 본 발명의 원리 및 이의 실제 적용을 가장 잘 설명하기 위해 본 실시예가 도시되고 설명되었는 바, 고려된 특별한 사용에 적합한 다양한 수정이 가해진 다양한 실시예 및 본 발명을 유용하게 활용하는 것을 가능하게 한다. 본 발명의 범위가 다음의 청구항 및 이들의 균등물에 의해 정의됨을 이해하여야 할 것이다.
400 : 입체 디스플레이 시스템 402 : 디스플레이
404 : 뷰잉 영역 409, 411 : 입체 프로젝터
412 : 좌안 프로젝터 414 : 우안 프로젝터
416 : 안경 507, 508 : 뷰어의 눈
602 : 흰색 또는 은빛 표면 704, 706, 707, 709 : 컬러필터
802 : 배후 영사 디스플레이 스크린

Claims (15)

  1. 입체 디스플레이 시스템(400)에 있어서,
    디스플레이(402)와,
    뷰잉 영역(viewing area)(404)과,
    하나 이상의 입체 프로젝터 쌍(409 내지 411)을 포함하되, 각각의 입체 프로젝터 쌍은 상기 뷰잉 영역의 서브 구역(sub-region)에 대응하고, 상기 대응 서브 구역에 위치된 뷰어에게 실질적으로 교정되어 나타나는 이미지 쌍을 상기 디스플레이 상으로 영사(project)―상기 뷰어는 상기 디스플레이 상에 나타난 3차원 이미지를 인지하는 것을 가능하게 하는 상기 이미지 쌍을 배타적으로 뷰잉함―하는,
    입체 디스플레이 시스템.
  2. 제 1 항에 있어서,
    각각의 입체 프로젝터의 쌍은,
    상기 대응하는 서브 구역에 위치된 하나 이상의 상기 뷰어의 좌안에 실질적으로 교정되어 나타나는 상기 이미지 쌍의 이미지를 영사하도록 구성된 좌안 프로젝터(412)와,
    상기 대응하는 서브 구역에 위치된 하나 이상의 상기 뷰어의 우안에 실질적으로 교정되어 나타나는 상기 이미지 쌍의 이미지를 영사하도록 구성된 우안 프로젝터(414)를 더 포함하는
    입체 디스플레이 시스템.
  3. 제 1 항에 있어서,
    하나 이상의 필터 시스템을 더 포함하되, 각각의 필터 시스템은 상기 뷰잉 영역의 서브 구역(604) 및 대응하는 입체 프로젝터 쌍과 관련되고, 각 필터 시스템은 상기 관련된 서브 구역에서 뷰어가 상기 대응하는 입체 프로젝터에 의해 상기 디스플레이 상으로 영사되는 상기 이미지 쌍을 보되 상이한 입체 프로젝터 쌍에 의해 상기 디스플레이 상으로 영사되는 상기 이미지 쌍은 보지 못하도록 구성되는
    입체 디스플레이 시스템.
  4. 제 3 항에 있어서,
    각각의 필터 시스템은,
    상기 서브 구역에서 뷰어에 의해 착용되는 좌안 필터 및 우안 필터로 구성된 안경과,
    상기 서브 구역에 대응하는 상기 입체 프로젝터의 좌안 프로젝터 및 우안 프로젝터 상에 위치된 좌안 필터 및 우안 필터를 더 포함하되, 상기 서브 구역에서 각각의 뷰어에 대해, 상기 좌안 필터는 상기 좌안 프로젝터에 의해 상기 디스플레이 상으로 영사된 좌안 이미지가 상기 뷰어의 좌안에 의해 배타적으로 보여지는 것을 보장하도록 구성되고, 상기 우안 필터는 상기 우안 프로젝터에 의해 상기 디스플레이 상으로 영사된 우안 이미지가 상기 뷰어의 우안에 의해 배타적으로 보여지는 것을 보장하도록 구성되는
    입체 디스플레이 시스템.
  5. 제 3 항에 있어서,
    각각의 필터 시스템은,
    전자기 스펙트럼의 가시 부분의 청색 파장 범위, 녹색 파장 범위, 및 적색 파장 범위 중 선택된 세그먼트의 제 1 세트를 선택적으로 통과시키도록 구성된 제 1 타입의 컬러 필터(704 내지 706)와,
    전자기 스펙트럼의 가시 부분의 청색 파장 범위, 녹색 파장 범위, 및 적색 파장 범위 중 선택된 세그먼트의 제 2 세트를 선택적으로 통과시키도록 구성된 제 2 타입의 컬러 필터(707 내지 709)를 더 포함하는
    입체 디스플레이 시스템.
  6. 제 3 항에 있어서,
    각각의 필터 시스템은,
    제 1 편광 상태에서 광을 선택적으로 통과시키도록 구성된 제 1 타입의 편광 필터와,
    제 2 편광 상태에서 광을 선택적으로 통과시키도록 구성된 제 2 타입의 편광 필터를 더 포함하는
    입체 디스플레이 시스템.
  7. 제 3 항에 있어서,
    각각의 필터 시스템은,
    관련 서브 구역에서 상기 뷰어에 의해 착용된 셔터 안경을 더 포함하고, 상기 뷰잉 영역의 각각의 서브 구역에 대해, 상기 뷰어에 의해 착용된 상기 셔터 안경의 좌안 렌즈와 우안 렌즈의 투명함과 어두움을 교대하는 것이 상기 입체 프로젝터 쌍의 재생률(refresh rate)과 동기되는
    입체 디스플레이 시스템.
  8. 제 3 항에 있어서,
    각각의 필터 시스템은 셔터 안경 및 컬러 필터 및/또는 편광 필터의 조합을 더 포함하여 상기 서브 구역의 각각에 대한 조합적인 선택을 제공하는
    입체 디스플레이 시스템.
  9. 제 1 항에 있어서,
    상기 뷰잉 영역의 중심 서브 구역과 관련된 입체 프로젝터 쌍은, 상기 디스플레이 상으로 영사된 이미지의 스캔 라인에 또한 실질적으로 평행한 평행 에피폴라 라인(parallel epipolar line)을 갖는 좌안 이미지 및 우안 이미지를 상기 중앙 서브 구역에 위치된 뷰어의 그룹이 수신하도록 구성되고 지향되는
    입체 디스플레이 시스템.
  10. 제 1 항에 있어서,
    상기 디스플레이의 제 1 측면에 위치하는 상기 뷰잉 영역의 서브 구역과 관련된 상기 입체 프로젝터 쌍은 상기 서브 구역에서 에피폴라가 정렬된 뷰잉을 위해 실질적으로 적절하게 구조화되는 것으로 나타나게 하는 방식으로 상기 디스플레이 상으로 영사된 이미지 쌍을 보여주도록 구성되고 지향되며, 상기 제 1 측면의 대향하는 제 2 측면에 위치하는 상기 뷰잉 영역의 서브 구역과 관련된 상기 입체 프로젝터 쌍은 상기 서브 구역에서 에피폴라가 정렬된 뷰잉을 위해 실질적으로 적절하게 구조화되는 것으로 나타나게 하는 방식으로 상기 디스플레이 상으로 영사된 이미지 쌍을 보여주도록 구성되고 지향되는
    입체 디스플레이 시스템.
  11. 제 1 항에 있어서,
    상기 디스플레이는 흰색 또는 은빛 표면(602)을 더 포함하고 상기 하나 이상의 입체 프로젝터는 상기 이미지 쌍이 상기 뷰잉 영역의 뒤 또는 위로부터 상기 디스플레이 상으로 영사되도록 중앙 쪽에 위치하는
    입체 디스플레이 시스템.
  12. 제 1 항에 있어서,
    상기 디스플레이는 배후 영사 디스플레이 스크린(rear projection display screen)(802)를 더 포함하고 하나 이상의 입체 프로젝터는 이미지 쌍이 상기 뷰잉 영역에 위치된 뷰어를 향하는 상기 디스플레이 상으로 영사되도록 뷰잉 영역의 앞 및 디스플레이의 뒤에 위치하는
    입체 디스플레이 시스템.
  13. 제 1 항에 있어서,
    각각의 입체 프로젝터 쌍에 의해 영사된 상기 이미지 쌍은 n개의 입체 뷰 존(stereo view zones)에 대한 n+1개의 카메라에 의해 생성되고, 카메라 쌍(1402 내지 1406)은 다른 카메라 쌍과는 독립적으로 교정되고 재샘플링된 상이한 뷰 쌍을 제공하는
    입체 디스플레이 시스템.
  14. 3차원 이미지를 뷰잉하기 위한 방법에 있어서,
    하나 이상의 이미지 쌍을 영사하는 단계(1001)―상기 각각의 이미지 쌍은 입체 프로젝터 쌍에 의해 생성됨―와,
    뷰잉 영역의 하나 이상의 대응하는 서브 구역에서 상기 하나 이상의 이미지 쌍의 각각을 선택적으로 뷰잉하는 단계(1002)―각각의 서브 구역 내에서 하나 이상의 뷰어는 대응하는 이미지 쌍을 배타적으로 뷰잉함―와,
    상기 하나 이상의 이미지 쌍의 각각을 교정하는 단계(1003)―각각의 서브 구역 내에서 상기 하나 이상의 뷰어는 상기 디스플레이에 나타난 상기 3차원 이미지를 인지함―를 포함하는,
    방법.
  15. 제 14 항에 있어서,
    상기 하나 이상의 이미지 쌍을 영사하는 단계는,
    좌안 프로젝터(412)를 사용하여 상기 대응하는 서브 구역에 위치하는 상기 하나 이상의 뷰어의 좌안에 대하여 실질적으로 교정되어 나타나는 상기 이미지 쌍의 이미지를 영사하는 단계와,
    우안 프로젝터(414)를 사용하여 상기 대응하는 서브 구역에 위치된 상기 하나 아싱의 뷰어의 우안에 대하여 실질적으로 교정되어 나타나는 상기 이미지 쌍의 이미지를 영사하는 단계를 더 포함하는
    방법.
KR1020127014079A 2009-10-30 2009-10-30 입체 디스플레이 시스템 KR20120084775A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2009/062850 WO2011053319A1 (en) 2009-10-30 2009-10-30 Stereo display systems

Publications (1)

Publication Number Publication Date
KR20120084775A true KR20120084775A (ko) 2012-07-30

Family

ID=43922410

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127014079A KR20120084775A (ko) 2009-10-30 2009-10-30 입체 디스플레이 시스템

Country Status (7)

Country Link
US (1) US9122066B2 (ko)
EP (1) EP2494402B1 (ko)
JP (1) JP2013509804A (ko)
KR (1) KR20120084775A (ko)
CN (1) CN102576154A (ko)
TW (1) TW201137398A (ko)
WO (1) WO2011053319A1 (ko)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
CN102428707B (zh) * 2010-03-19 2015-03-11 松下电器产业株式会社 立体视用图像对位装置和立体视用图像对位方法
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
GB2484919A (en) * 2010-10-25 2012-05-02 Cambridge Silicon Radio Directional display device arranged to display visual content toward a viewer
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN107404609B (zh) 2011-05-11 2020-02-11 快图有限公司 用于传送阵列照相机图像数据的方法
US9509922B2 (en) * 2011-08-17 2016-11-29 Microsoft Technology Licensing, Llc Content normalization on digital displays
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
CN102413352B (zh) * 2011-12-21 2014-04-02 四川大学 基于rgbw正方形子像素的跟踪式自由立体显示屏
KR101306245B1 (ko) 2012-01-17 2013-09-09 한국과학기술연구원 시간 분할 방식의 무안경식 3차원 영상표시장치
TWI475529B (zh) * 2012-01-30 2015-03-01 Chunghwa Picture Tubes Ltd 立體影像顯示系統及方法
WO2013120522A1 (de) * 2012-02-15 2013-08-22 Osram Gmbh Verfahren und projektor zum gleichzeitigen projizieren zweier bilder auf eine projektionsfläche
US20150077713A1 (en) * 2012-02-15 2015-03-19 Osram Gmbh Method and projector for projecting a 3d image onto a projection surface
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
CN102759848B (zh) * 2012-06-11 2015-02-04 海信集团有限公司 一种投影显示***、投影设备及投影显示方法
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的***及方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
TW201447379A (zh) * 2013-06-14 2014-12-16 Univ Nat Taiwan 立體影像顯示裝置及顯示方法
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测***及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103431980A (zh) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 视力保护成像***及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射***及方法
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
CN103558909B (zh) 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示***
CN104597625A (zh) * 2013-10-30 2015-05-06 富泰华工业(深圳)有限公司 智能眼镜
US10119808B2 (en) * 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9920090B2 (en) 2014-06-19 2018-03-20 VIIV Healthcare UK (No.5) Limited Betulinic acid derivatives with HIV maturation inhibitory activity
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US10008027B1 (en) * 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
TWI586936B (zh) * 2016-05-20 2017-06-11 國立交通大學 實體影像與虛擬影像之間轉換的方法及其系統
US10762708B2 (en) * 2016-06-23 2020-09-01 Intel Corporation Presentation of scenes for binocular rivalry perception
US10430994B1 (en) 2016-11-07 2019-10-01 Henry Harlyn Baker Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
JP2018085552A (ja) * 2016-11-21 2018-05-31 セイコーエプソン株式会社 プロジェクターシステム
JP6822234B2 (ja) * 2017-03-15 2021-01-27 セイコーエプソン株式会社 プロジェクターシステム
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
BR112022004811A2 (pt) 2019-09-17 2022-06-21 Boston Polarimetrics Inc Sistemas e métodos para modelagem de superfície usando indicações de polarização
JP2022552833A (ja) 2019-10-07 2022-12-20 ボストン ポーラリメトリックス,インコーポレイティド 偏光による面法線計測のためのシステム及び方法
CN114787648B (zh) 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的***和方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的***和方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
TWI832559B (zh) * 2022-11-16 2024-02-11 宏碁股份有限公司 立體影像顯示系統、立體顯示裝置及濾光眼鏡

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4422720A (en) * 1978-06-29 1983-12-27 Sheiman David M Stereoscopic viewing and projection system
US5239372A (en) 1991-12-31 1993-08-24 Stereographics Corporation Stereoscopic video projection system
JP3459721B2 (ja) * 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
US6055012A (en) 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US7239293B2 (en) * 1998-01-21 2007-07-03 New York University Autostereoscopic display
US6710920B1 (en) * 1998-03-27 2004-03-23 Sanyo Electric Co., Ltd Stereoscopic display
DE10005335C2 (de) * 2000-02-08 2002-06-27 Daimler Chrysler Ag Verfahren und Vorrichtung zur mehrdimensionalen Darstellung eines Objekts
JP2001339742A (ja) 2000-03-21 2001-12-07 Olympus Optical Co Ltd 立体映像プロジェクション装置、及びその補正量演算装置
US7444013B2 (en) 2001-08-10 2008-10-28 Stmicroelectronics, Inc. Method and apparatus for recovering depth using multi-plane stereo and spatial propagation
KR20040096519A (ko) * 2002-01-04 2004-11-16 뉴어오케이 엘엘씨 레트로 반사 스크린들을 채용하는 3차원 이미지 투영법
AU2003214630A1 (en) * 2002-04-15 2003-10-27 Yitzhak Weissman Stereoscopic display apparatus particularly useful with lcd projectors
US7411611B2 (en) * 2003-08-25 2008-08-12 Barco N. V. Device and method for performing multiple view imaging by means of a plurality of video processing devices
JP2005175644A (ja) 2003-12-08 2005-06-30 Edamu Kk 映像合成装置および映像合成装置を駆動する映像駆動装置並びに映像合成装置の映像を投影する透過性パネル並びに映像合成装置と映像駆動装置と透過性パネルとを有する立体映像システム
US7433885B2 (en) * 2003-12-15 2008-10-07 Quantum Matrix Holdings, Llc System and method for multi-dimensional organization, management, and manipulation of data
GB0412651D0 (en) * 2004-06-07 2004-07-07 Microsharp Corp Ltd Autostereoscopic rear projection screen and associated display system
JP2006186768A (ja) 2004-12-28 2006-07-13 Seiko Epson Corp 画像表示装置及び方法
US7916932B2 (en) 2005-02-16 2011-03-29 In-G Co., Ltd. Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof
TW200721803A (en) * 2005-10-17 2007-06-01 Via Tech Inc 3-D stereoscopic image display system
TWI268393B (en) 2005-10-20 2006-12-11 Chunghwa Picture Tubes Ltd Projector
US7843449B2 (en) * 2006-09-20 2010-11-30 Apple Inc. Three-dimensional display system
US20070165942A1 (en) * 2006-01-18 2007-07-19 Eastman Kodak Company Method for rectifying stereoscopic display systems
JP5362189B2 (ja) 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
US8305488B2 (en) * 2006-05-10 2012-11-06 Universal City Studios Llc Time-sliced multiplexed image display
EP2066133A4 (en) 2006-09-20 2015-11-18 Nippon Telegraph & Telephone BILDCODE PROCEDURE, DECODING METHOD, DEVICE FOR IT, IMAGE DECODING DEVICE, PROGRAM THEREFOR AND THE PROGRAM CONTAINING STORAGE MEDIUM
DE102006054713B4 (de) * 2006-11-19 2012-08-30 Infitec Gmbh Stereoprojektion mit Interferenzfiltern
WO2008067482A2 (en) 2006-11-29 2008-06-05 F. Poszat Hu, Llc Three dimensional projection display
TW200826671A (en) 2006-12-12 2008-06-16 Jung-Tang Huang A portable interactive projection apparatus and method
JP4166260B1 (ja) 2007-05-19 2008-10-15 株式会社 システム・プロ 立体映像の投影方法及び立体映像の投影装置

Also Published As

Publication number Publication date
WO2011053319A1 (en) 2011-05-05
US20120019530A1 (en) 2012-01-26
EP2494402A4 (en) 2013-04-17
CN102576154A (zh) 2012-07-11
JP2013509804A (ja) 2013-03-14
US9122066B2 (en) 2015-09-01
EP2494402A1 (en) 2012-09-05
TW201137398A (en) 2011-11-01
EP2494402B1 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
KR20120084775A (ko) 입체 디스플레이 시스템
US7440004B2 (en) 3-D imaging arrangements
RU2441341C2 (ru) Стереоскопическая телевизионная система, стереоскопический телевизионный приемник и очки для просмотра стереоскопического изображения
US8179424B2 (en) 3D display method and apparatus
JP6061852B2 (ja) 映像表示装置および映像表示方法
US7612795B2 (en) Enhancement of visual perception III
US7478904B2 (en) Three dimensional viewing spectacles
CN109188700A (zh) 光学显示***及ar/vr显示装置
KR20130069503A (ko) 애너글리프 입체 이미지 캡처 디바이스
US20130063817A1 (en) Stereo vision viewing systems
JP2002223458A (ja) 立体映像作成装置
KR20180076541A (ko) 플로팅 홀로그램 장치
US20160357024A1 (en) 3d display glasses
TWI495904B (zh) 配合軟體光柵來產生立體影像的場色序法液晶顯示器及配合軟體光柵來產生立體影像的方法
JP2012022278A (ja) 映像実体感メガネ
JP2013024910A (ja) 観察用光学機器
CN207799252U (zh) 一种虚拟现实眼镜及3d显示***
US20060152580A1 (en) Auto-stereoscopic volumetric imaging system and method
JP4227187B2 (ja) 立体映像観賞用メガネ
TWI489146B (zh) 配合軟體光柵來產生立體影像的液晶顯示器及配合軟體光柵來產生立體影像的方法
TW201533478A (zh) 配合軟體光柵來產生立體影像的液晶顯示器
CN108051928A (zh) 一种虚拟现实眼镜及3d显示***
Benzeroual et al. On the distinction between perceived & predicted depth in S3D films
KR20000039515A (ko) 입체영상 디스플레이장치
KR101528704B1 (ko) 입체시 측정 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application