KR101057617B1 - 3차원 디스플레이 시스템 - Google Patents

3차원 디스플레이 시스템 Download PDF

Info

Publication number
KR101057617B1
KR101057617B1 KR1020097005689A KR20097005689A KR101057617B1 KR 101057617 B1 KR101057617 B1 KR 101057617B1 KR 1020097005689 A KR1020097005689 A KR 1020097005689A KR 20097005689 A KR20097005689 A KR 20097005689A KR 101057617 B1 KR101057617 B1 KR 101057617B1
Authority
KR
South Korea
Prior art keywords
observer
projection screen
images
sub
normal
Prior art date
Application number
KR1020097005689A
Other languages
English (en)
Other versions
KR20090045938A (ko
Inventor
크리스토프 크라
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20090045938A publication Critical patent/KR20090045938A/ko
Application granted granted Critical
Publication of KR101057617B1 publication Critical patent/KR101057617B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

3차원 디스플레이 시스템(100)은 소정의 각 응답 반사 표면 함수(302)를 갖는 프로젝션 스크린(124)을 제공한다(902). 3차원 이미지(114, 116)는 프로그램가능한 편향각을 갖는 프로그래머블 미러(126)를 정의하도록 상기 소정의 각 응답 반사 표면 함수(302)와 조정하여 각각 변조(904)된다.
Figure R1020097005689
3차원, 이미지, 편향각, 각 응답, 관측자, 피드백, 응답 반사 표면 함수

Description

3차원 디스플레이 시스템{THREE-DIMENSIONAL DISPLAY SYSTEM}
본 출원은 2005년 10월 21일 출원된 발명의 명칭이 "3차원 이미징 및 디스플레이 시스템"인 동시계속중인 미국특허출원 11/255,348과 관련된 발명을 포함한다. 본 특허출원은 애플 컴퓨터사에 양도되고 도켓 번호 P3830US1으로 식별된다.
본 발명은 시각적 디스플레이 시스템에 관한 것으로 특히 3차원 디스플레이 시스템에 관한 것이다.
현대의 3차원 ("3D") 디스플레이 기술은 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 점점 더 보편화되고 실용화되고 있다. 이러한 예로는, 의학적 진단, 비행 시뮬레이션, 항공 트래픽 제어, 전장 시뮬레이션, 날씨 진단, 오락, 광고, 교육, 애니메이션, 가상 현실, 로보틱스, 생체역학 연구, 과학적 시각화 등이 있다.
이러한 관심과 인기의 증가는 많은 요인들에 기인한다. 일상 생활에서, 우리는 인쇄물이나 텔레비전에서 합성 컴퓨터 그래픽 이미지에 의해 둘러싸여 있다. 최근에 사람들은 가정에서 개인 컴퓨터에서 유사한 이미지를 생성할 수도 있다. 우리는 또한 신용카드에서 홀로그램을 보고 시리얼 상자에서 렌티큘러(lenticular) 디스플레이를 자주 본다.
3D 시청에 대한 관심도 물론 새로운 것이 아니다. 사람들은 지난 세기의 전환기에 적어도 스테레오스코프(steroscope) 시대 이후로 이러한 경험을 해왔다. 지난 세기 중반에 3D 영화의 대유행, 그후 홀로그래피에 대한 매료, 그리고 최근의 가상 현실의 출현으로 새로운 자극과 관심 및 열광이 일어났다.
컴퓨터 및 컴퓨터 그래픽에서의 최근의 발전은 공간 3D 이미지를 더욱 실제적이고 접근하기 쉽게 하였다. 예컨대 데스크탑 워크스테이션이 인터랙티브 디스플레이를 위해 충분히 신속히 스테레오스코프 이미지 쌍을 생성하기 위한 계산 능력이 현재 존재한다. 계산 능력 스펙트럼의 정점에서, 복잡한 개체 데이터베이스가 쌍방향으로 조작되고 애니메이트될 수 있게 하는 동일한 기술적 진보로 고품질 3D 디스플레이를 위해 대량의 이미지 데이터가 렌더링될 수 있다.
종래 "3D 컴퓨터 그래픽"이라고 하던 3D 장면의 2차원적 프로젝션은 몇 종류의 다변수 데이터의 검사, 내비게이션 및 이해에 불충분할 수 있다는 인식이 커지고 있다. 3D 렌더링의 혜택이 없다면, 우수한 원근 묘사를 갖는 고품질의 이미지라도 비현실적이고 평면으로 보인다. 이러한 애플리케이션 환경에 대해, 입체영상, 움직임 시차, 및 (아마도 더 적은 정도로) 안구 조절 등의 인간의 깊이 큐(cue)가 이미지 이해 및 사실성을 용이하게 하기 위해 중요한 것으로서 점점 인식되고 있다.
시청에 필요한 하드웨어와 같은 3D 디스플레이 기술의 다른 양태에서, 폭넓은 분야의 가상 현실로 인해 컴퓨터 및 광학 산업은 사실적인 착시를 일으키는 데 필요한 속도와 품질로 장면들을 렌더링하도록 더 나은 스테레오스코프 헬멧이 장착 되고 붐(boom)이 장착된 디스플레이 뿐만 아니라 연관된 하드웨어 및 소프트웨어를 생성하게 되었다. 그러나, 가상 현실로의 대부분의 여행은 현재 혼자하는 거추장스러운 것으로, 즉, 사용자들은 헬멧, 특수 안경, 또는 각각에게만 개별적으로 3D 세상을 제공하는 다른 장치를 착용한다.
이러한 스테레오스코프 디스플레이의 공통적인 형태는 셔터가 달리거나 수동적으로 편광되는 안경류를 사용하는데, 여기서 관측자는, 각 눈에 각각 하나씩, 두개의 디스플레이되는 이미지 중 하나를 차단하는 안경류를 착용한다. 이러한 예로는 수동적으로 편광되는 안경, 및 신속히 교차하는 셔터달린 안경이 있다.
이러한 접근법이 일반적으로 성공적이었지만, 이들은 관측자들이 일반적으로 눈에 장비를 착용하는 것을 좋아하지 않기 때문에 광범위하게 호평을 받지는 못하였다. 또한, 이러한 접근방법은 예컨대 개별화된 프로젝션을 원할 때 한사람 이상의 통행인, 일군의 협력자, 또는 전체 청중에게 3D 이미지를 프로젝트하기에는 비실제적이고, 본질적으로 쓸모없다. 동일한 프로젝션이 제공될 때에도, 이러한 상황은 종래의 오토스테레오스코프(autostereoscope) 디스플레이와 같은 다른 비교적 저개발의 기술을 필요로 하였다.
헤드기어가 필요없는 것을 고려함에 따라, 관측자가 특수한 설비나 장치를 사용하거나 착용할 필요없이 관측자에게 스테레오스코프 시청 경험을 자동적으로 렌더링하는 오토스테레오스코프 디스플레이의 개발이 촉진되었다. 오토스테레오스코프 디스플레이는 안경, 고글 또는 다른 개인 착용 물리적 시청 보조품의 사용없이 시청자에게 공간 이미지를 제공하려고 한다. 오토스테레오스코프 디스플레이는 실제 개체의 광학 특성에 근사한 경험을 제공하는 가능성이 있기 때문에 가치가 있다.
실제로 3차원으로 보이는 이미지를 디스플레이하는 수많은 오토스테레오스코프 방식이 제안되었다. 현재 물리적으로 실현가능한 오토스테레오스코프 디스플레이는 일반적으로 크게 3개의 범주, 즉 리이미징(re-imaging) 디스플레이, 체적(volumetric) 디스플레이, 및 시차(parallax) 디스플레이로 분류될 수 있다.
리이미징 디스플레이는 일반적으로 광을 3차원 개체로부터 캡처하여 공간의 새로운 위치로 재방사한다. 체적 디스플레이는 공간의 체적을 재고 그 공간의 개별 부분들을 조명한다. 시차 디스플레이는 방향에 따라 변하는 세기를 갖는 광을 방사하는 표면이다. 각 디스플레이는 상용 디스플레이 시스템에서 사용되었고, 각각은 고유의 장단점을 갖는다.
더 일반적인 디스플레이 접근법은 체적 및 시차의 2가지 주요 범주로 나뉜다.
체적형의 오토스테레오스코프 디스플레이는 광을 방출하거나 방출하는 것으로 보이는 광원으로서 동작하는 체적 내의 점들의 집합을 생성함으로써 3D 이미지를 생성한다. 이 점들이 흔한 경우로 등방성으로 광을 방사하면, 결과적인 이미지는 고스트로 보이거나 투명하게 보인다. 그 결과, 일반적인 체적 디스플레이는, 깊이방향으로 정렬된 체적 요소들이 서로 차단하도록 인지되지 않으므로 진정한 3D 광계를 생성하지 않는다. 즉, 이 이미지들은 차폐(occlusion)를 디스플레이하지 않는다.
시차형 오토스테레오스코프 디스플레이는 이미지의 스테레오 분리를 내부적으로 수행하여, 관측자가 별도의 안경류를 사용할 필요가 없다. 관측자가 공간의 한 고정 위치에 있는 동안 각 눈에 서로 다른 이미지를 제공하는 이런 종류의 많은 디스플레이 시스템이 개발되었다. 이들 대부분은 시차 장벽 방법에서 여러가지 변종이고, 여기서 미세한 수직 그레이팅(grating) 또는 렌티큘러 렌즈 어레이가 디스플레이 스크린의 전방에 놓인다. 관측자의 눈이 공간에서 임의의 위치에 고정되어 있을 때, 각 눈은 그레이팅이나 렌즈 어레이를 통해 한 집합의 디스플레이 픽셀 (짝수 또는 홀수)을 볼 수 있을 뿐이고 다른 집합은 볼 수 없다. 이 지오메트리는 각 눈이 이미지의 명확한 모습을 디스플레이하는 픽셀 세트에 대응하는 자신의 각각의 이미지만을 본다는 것을 확실히 할 수 있다. 시청자의 각각의 우측 눈과 좌측 눈에 의해 개별적으로 보이는 두개의 이미지 시점은 인간의 시각 시스템이 별개로 보이는 이미지를 동시에 단일 3D 이미지로서 해석하도록 구성된다. 이것은 관측자가 임의의 개인의 보조 장치를 착용하거나 사용할 필요없이 일어난다. 그러나, 시차 장벽 방법은 일반적으로 관측자가 한 위치에 정지되어 있을 것을 요한다. 또한, 많은 경우에, 이러한 디스플레이는 수직 시차가 아닌 수평 시차를 제공하는 2차원 광계를 생성한다.
더 최근의 실질적으로 훨씬 더 현실적인 형태의 오토스테레오스코프 디스플레이가 홀로그램이다. 홀로그래픽 및 의사(pseudo) 홀로그래픽 디스플레이는 시청자를 위해 본래의 광 웨이브프론트를 효과적으로 재생성하거나 시뮬레이팅함으로써 동시에 많은 서로 다른 시점을 제공하는 부분 광계를 출력한다. 결과적인 이미지 는 상당히 광사실적일 수 있어서, 차폐(occlusion) 및 다른 관점종속 효과 (예컨대, 반사)를 나타낼 뿐만 아니라 시청자의 물리적 위치에 독립적이다. 실제로, 시청자는 이미지의 서로 다른 양태를 관측하기 위해 움직일 수 있다. 홀로그래픽 이미지는 또한 많은 관측자가 동일한 이미지를 동시에 볼 수 있게 하는 가능성을 갖고 있다.
훨씬 더 사실적이지만, 동적으로 제공되는 홀로그래픽 이미지는 또한 일반적으로 두 시점 (two-view) 스테레오 디스플레이에 필요한 것보다 훨씬 더 큰 계산 능력 및 대역폭을 필요로 한다. 본래의 웨이브프론트, 또는 그 허용가능한 팩시밀리를 실시간으로 그리고 상용적으로 허용가능한 비용으로 동적으로 재생성하기 위한 효과적인 수단이 현저하게 부족하다.
따라서, 관측자에게 완전하고 방해받지 않는 자유로운 이동을 허용하는 고효율의 실제적이고 효율적이고 복잡하지 않은 저렴한 오토스테레오스코프 3D 디스플레이가 여전히 필요하다. 또한, 수직 뿐만 아니라 수평 움직임 방향으로 진정한 시차 경험을 제공하는 실제적인 오토스테레오스코프 3D 디스플레이에 대한 필요성이 계속 존재한다.
다수의 시청자를 독립적으로 동시에 수용할 수 있는 이러한 실제적인 오토스테레오스코프 3D 디스플레이에 대한 계속적인 필요성이 있다. 모두가 동일한 시청 환경에서 움직임이 완전히 자유로운 상태에서 각 시청자가 참석한 다른 시청자들에 의해 동시에 시청되고 있는 것과 전적으로 다를 수 있는 유일하게 커스터마이즈된 오토스테레오스코프 3D 이미지를 제공받을 수 있는 이러한 동시 시청을 제공하도록 상기 필요성이 실현될 수 있다면 특별한 장점이 제공될 것이다.
또한, 특별한 사용자에게 어필하지만 어려운 미해결의 기술적 과제 때문에, 사실적인 홀로그래픽 경험을 제공하는 실제적인 오토스테레오스코프 3D 디스플레이에 대한 분명한 필요성이 특히 지속적이다. 상기한 바와 같이 다수의 동시 및 개별화된 시청을 가능하게 하는 홀로그래픽 또는 의사 홀로그래픽 시청 시스템에 대한 필요성에 대한 해결책은 훨씬 더 특별할 것이다.
또다른 필요성은 3D 사용자 입력을 위한 제공과 조합하여 시청 경험을 최적화하는 피드백을 조합하여 특수한 시청 고글이나 헤드기어의 필요성 없이 3D 공간에서 가상 3D 개체의 시청 및 조작을 가능하게 하는 눈에 띄지 않는 3D 시청 장치에 대한 것이다.
계속적으로 증가하는 상용적 경쟁 압박, 증가하는 소비자 기대치, 및 시장에서 의미있는 상품 차별화에 대한 기회의 감소의 관점에서, 이러한 문제에 대한 해답을 찾는 것이 점점 중요하다. 또한, 비용 절감, 효율 증대, 성능 개선 및 이러한 경쟁 압박 충족에 대한 점증하는 필요성으로 상기 문제점들에 대한 해결책을 찾아야 한다는 중대한 필요성이 더욱 긴박해지고 있다.
상기 문제점들에 대한 해결책은 오랫동안 추구되었지만 이전의 개발은 어떤 해결책을 교시하거나 시사하지 못하였고, 따라서 이 문제점들에 대한 해결책은 당업자들에 의해 오랫동안 발견되지 않았다.
본 발명은 소정의 각 응답(angularly-responsive) 반사 표면 함수를 갖는 프로젝션 스크린을 갖는 3차원 디스플레이 시스템을 제공한다. 3차원 이미지는 프로그램가능한 편향각을 갖는 프로그래머블 미러를 정의하기 위해 소정의 각 응답 반사 표면 함수와 조정하여 각각 변조된다.
본 발명의 임의의 실시예는 상기 양태에 추가하여 또는 대신하여 다른 양태들을 갖는다. 이 양태들은 첨부 도면을 참조하여 이하의 상세한 설명으로부터 당업자에게 분명해질 것이다.
도 1은 본 발명의 일실시예에 따른 3차원 디스플레이 시스템의 기능 블록도 및 개략도이다.
도 2는 프로젝션 스크린의 표면상의 단일 픽셀의 도면이다.
도 3은 표면 함수를 갖는 프로젝션 스크린의 도면이다.
도 4는 프로젝션 스크린의 표면 함수의 일 함수로서 프로젝터로부터 관측자로의 광 경로의 도면이다.
도 5는 법선 각, 및 올바른 조준 법선 각을 거리 x의 함수로서 도시한 그래프이다.
도 6은 거리 x의 함수로서의 변조 함수의 그래프이다.
도 7은 변조 함수의 물리적 중요성을 도시하는 그래프이다.
도 8은 디지털 신호 프로세서에 나타나는 것으로서 관측자의 단순화된 형태를 도시한다.
도 9는 본 발명의 일실시예에 따른 3차원 디스플레이 시스템의 흐름도이다.
다음 실시예들은 당업자들이 본 발명을 만들고 사용할 수 있도록 구체적으로 설명된다. 다른 실시예들은 본 설명서에 기초하여 명백할 것이고 시스템, 프로세스 또는 기계적 변경이 본 발명의 범위에 벗어남 없이 이루어질 수 있음은 물론이다.
다음 설명에서, 많은 특정한 세부사항이 본 발명의 완전한 이해를 위해 제공된다. 그러나, 본 발명은 이 특정한 세부사항 없이도 실시될 수 있음은 분명할 것이다. 본 발명이 모호하게 되는 것을 피하기 위해, 공지의 회로, 시스템 구성, 및 동작 단계는 상세히 설명되지 않는다.
마찬가지로, 이 시스템의 실시예들을 나타내는 도면은 반 도식적이고 척도에 맞추어 된 것이 아니며, 특히 일부 치수는 명료한 제시를 위한 것으로 도면에서 크게 과장되어 도시되어 있다. 마찬가지로, 설명의 편이를 위해 도면에서 도시가 전체적으로 유사한 방향을 나타내지만, 도면의 도시는 대부분 자의적이다. 일반적으로 본 발명은 임의의 방향으로 동작될 수 있다.
또한, 예시, 설명 및 그 이해의 명료성 및 편이를 위해 공통적인 특징을 갖는 다수의 실시예들이 개시되고 설명되는 곳에서, 서로 유사한 특징들은 일반적으로 동일한 부재번호로 설명될 것이다.
설명의 목적상, 여기서 사용된 "수평"이라는 용어는 관측자의 방향에 상관없이 관측자의 눈의 평면에 평행한 평면으로 정의된다. "수직"이라는 용어는 앞서 정의된 수평에 대해 수직인 방향을 가리킨다. "상에(on)", "위(above)", "아 래(below)", "바닥(bottom)", "맨위(top)", "측(side)" ("측벽"에서), "더 높은", "더 낮은", "상위의(upper)", "보다 위(over)", 및 "보다 아래(under)"와 같은 용어는 수평 면에 대해 정의된다.
본 발명은 눈에 띄지 않고 방해받지 않는 3차원 ("3D") 오토스테레오스코프 시청 경험과 함께 3D 인간 인터페이스 능력을 제공하는 3D 디스플레이 시스템을 제공한다. 관측자는 헤드기어를 착용할 필요가 없다. 일실시예에서, 본 발명의 시스템은 스테레오스코프 3D 디스플레이 및 시청 경험을 제공하고, 다른 실시예에서, 사실적인 홀로그래픽 3D 디스플레이 경험을 제공한다.
본 발명의 임의의 실시예에 따라, 한명 이상의 관측자의 위치는 또한 실시간으로 추적되어 관측자에게 프로젝트되고 있는 3D 이미지가 각 관측자에게 개별적으로 연속적으로 커스터마이즈될 수 있다. 관측자의 실시간 위치 추적은 또한 사실적인 수직 시차 뿐만 아니라 수평 시차를 갖는 3D 이미지를 가능하게 한다. 또한, 각 3D 이미지는 관측자들의 개별적으로 변하는 시청 위치에 따라 조정될 수 있어서, 개인적으로 커스터마이즈되고 개별화된 3D 이미지가 동적의 변경가능한 환경에서 보여질 수 있게 된다. 또한, 위치 추적 및 위치 응답 이미지 조정은 진정한 홀로그래픽 시청 경험의 합성을 가능하게 한다.
따라서, 본 발명의 실시예에 따르면, 예컨대 다음과 같은 구성 블록을 포함하는 오토스테레오스코프 디스플레이 시스템이 개시된다:
ㆍ 아날로그 미러, 폴리곤 스캐너 또는 유사 장치, 및 드라이버 회로를 포함하는 2차원 ("2D") 프로젝터;
ㆍ 3D 이미저 (2D 프로젝터의 일부일 수 있음);
ㆍ 표면 함수를 갖는 프로젝션 스크린;
ㆍ 디스플레이 인터페이스;
ㆍ 디지털 신호 프로세서 ("DSP"); 및
ㆍ 3D 렌더링 능력을 갖는 호스트 중앙처리장치 ("CPU").
상기 및 다른 연관된 구성 블록 및 컴포넌트는 특정 구현예에 필요하거나 적합한 독립 요소로서 구성되거나 또는 하나 이상의 조립체로 조합될 수 있음은 물론이다.
도 1을 참조하면, 본 발명의 일실시예에 따라 3차원 ("3D") 디스플레이 시스템(100)의 기능 블록도 및 개략도가 도시된다. 호스트 CPU(102)는 운영체제 ("OS")(104), 3D/스테레오스코프 렌더링 엔진(106), 그래픽 카드(108), 및 종래 이해되는 다른 컴포넌트 (도시되지 않음)를 포함한다.
3D/스테레오스코프 렌더링 엔진(106)은 이하에서 더 설명되는 3D 이미지 (예컨대, 스테레오스코프 또는 의사(pseude) 홀로그래픽)를 렌더링하고, 특정 구현예에 따라 펌웨어, 소프트웨어 또는 하드웨어로 구현될 수 있다. 따라서, 3D/스테레오스코프 렌더링 엔진(106)은 그래픽 카드(108)와 같은 그래픽 카드의 일부, 그래픽 칩의 일부, 그래픽 칩의 그래픽 프로세서 유닛 ("GPU")에서 실행되는 코드, 전용 주문형 집적 회로 ("ASIC"), 호스트 CPU(102)에서 실행되는 특정 코드 등일 수 있다. 구현예의 선택은 본 설명서 및 특정 구현예의 관련 특징에 기초하여 당업자에게 명백할 것이다.
3D/스테레오스코프 렌더링 엔진(106)에 의해 렌더링되는 3D 이미지는 디지털 비디오 인터페이스 ("DVI") 표준에 기초한 상호접속과 같은 적절한 상호접속을 통해 3D/스테레오스코프 디스플레이(110)로 전송된다. 이 상호접속은 무선 (예컨대, 802.11x Wi-Fi 표준, 초광대역 ("UWB"), 또는 다른 적절한 프로토콜을 이용), 또는 유선 (예컨대, 아날로그 형태로 또는 예컨대 TMDS (transition minimized differential signaling) 또는 LVDS (low voltage differential signaling)에 의해 디지털 형태로 전송)일 수 있다.
3D/스테레오스코프 디스플레이(110) 내부의 디스플레이 인터페이스 및 이미지 스플리터(112)는 3D/스테레오스코프 렌더링 엔진(106)으로부터의 3D 이미지를 두개의 3D 서브이미지, 즉 좌측 서브이미지(114) 및 우측 서브이미지(116)로 분리한다. 좌측 및 우측 서브이미지(114 및 116)는 각각의 이미지 변조기(118 및 120)에서 변조되어 (턴온 및 턴오프되는 것 포함) 도 2에 도시된 바와 같이 관측자의 좌측 및 우측 눈(208 및 210)으로 각각 좌측 및 우측 서브이미지(114 및 116)의 프로젝터(122)에 의한 광학 프로젝션을 가능하게 하고 제어한다. 관측자의 뇌는 그후 두개의 프로젝트된 광학 서브이미지(114 및 116)를 3D 이미지로 조합하여 관측자에게 3D 시청 경험을 제공한다.
관측자의 각각의 좌측 및 우측 눈으로의 편향은 본 발명의 실시예들에 따라 프로젝션 스크린(124)을 이용하여 달성된다. 프로젝션 스크린(124)은, 본 발명에 따라 여기 개시되고 설명된 적절히 변조된 이미지 데이터와 조합하여, 프로그램가능한 편향각을 갖는 프로그래머블 미러인 미러 장치(126)를 형성한다. 넓게 말하 면, 이 조합은 공간 필터인 프로그래머블 미러로서 프로젝션 스크린을 구성하는데, 그 이유는 이 조합이 관측자의 좌측 및 우측 눈의 공간 위치의 함수로서 광이 프로젝션 스크린으로부터 관측자의 특별한 좌측 및 우측 눈으로 반사하도록 동작하고 그렇지 않으면 광이 필터링되는 것처럼 광을 반사하지 않기 때문이다.
따라서, 여기 넓게 설명된 바와 같이, "프로그래머블 미러"라는 용어는 여기 개시된 바와 같이 프로젝션 스크린(124) 및 여기로 프로젝트되어 여기서부터 반사된 변조된 이미지 데이터가 프로젝트된 이미지의 단일 픽셀의 위치와 같은 프로젝션 스크린(124) 상의 특별한 한정된 위치에 대해 프로그램가능하게 변경될 수 있는 편향각을 갖는다는 것을 의미하도록 정의된다. 더 일반적으로, 편향각은 전체 프로젝션 스크린(124) 정도의 많은 반사 지점 (예컨대, 픽셀) 각각에 대해 개별적으로 프로그램가능하게 제어되고 변경될 수 있다. 따라서, 이 정의상, 프로젝션 스크린(124)은 고정된 편향각을 갖지 않는다. 그보다는, 편향각 (예컨대, 관측자의 좌측 눈(208)에 대해 하나 및 관측자의 우측 눈(210)에 대해 하나)은 관측자의 눈의 위치의 변화 (예컨대, 머리 경사, 머리 위치, 관측자 위치 등의 변화에 기인)를 따르기 위해 필요한만큼 변하도록 실시간으로 프로그램될 수 있다.
디지털 신호 프로세서 ("DSP")(128)는 3D 이미저(130)와 조합하여 프로젝션 스크린(124)에 대해 관측자(132) (즉, 사용자)의 올바른 위치를 결정하기 위해 사용된다. 관측자의 머리 위치, 머리 경사, 및 프로젝션 스크린(124)에 대한 눈 이격 거리와 같은 관측자(132)에 대한 특징도 DSP(128) 및 3D 이미저(130)에 의해 결정된다. 이 결정에 기초하여, 이미지 변조기(118 및 120)에 대한 변조 함수에 대 해, 및/또는 프로젝터(122)의 편향각에 대해 적절한 변화가 이루어져서 미러 장치(126)의 프로그램가능한 편향각을 변화시켜 관측자(132)에게 3D 고글 또는 다른 방해되는 시청 수단의 필요없이 최선의 3D 시청 경험을 제공한다.
3D 이미저(130)는 각 관측자(132)의 위치 및 특징을 찾고 결정하기 위해 당업자에 의해 이해되는 임의의 적절한 스캐너 또는 다른 공지의 장치일 수 있다. 이러한 특징은 예컨대 관측자(132)의 키, 머리 방향 (회전 및 경사), 팔 및 손 위치 등을 포함할 수 있다. 일실시예에서, 이하에 더 설명되는 바와 같이, 3D 이미저는 프로젝터에 의해 프로젝트되고 이 목적을 위해 프로젝션 스크린(124)으로부터 반사된 광을 이용할 것이다. 특히 효과적이고 저렴한 3D 이미저는 예컨대 2005년 10월 21일 출원되어 본 발명의 양수인에게 양도된 동시계속중인 미국특허출원 11/255,348의 교시를 사용함으로써 선택적으로 구현될 수 있다.
일부 실시예에서, 3D 이미저(130)는 프로젝터(122)의 통합부로서 구성될 수 있다. 예컨대, 프로젝터(122)는 관측자(132) 뿐만 아니라 프로젝션 스크린(124)을 제어가능하게 직접 조명하도록 구성될 수 있다. 적절히 위치한 광 센서(134)는 관측자(132)로부터 반사된 조명광을 포착하도록 위치한다. 광 센서(134)는, 3D 이미저(130) (또는 설명된 바와 같이 선택적으로 프로젝터(122))가 공지의 소정 각 및 고도로 조명광을 제어가능하게 프로젝트하므로 예컨대 적절한 전방향성 광 센서일 수 있다. 관측자(132)의 위치는 3D 이미저(130)로부터 프로젝트된 조명광의 각 및 고도에 의해 그리고 3D 이미저(130)로부터 광 센서(134)로 조명광의 측정된 TOF (time-of-flight)로부터 결정될 수 있다. 또한, 광 센서(134)가 도시의 편의상 별개의 유닛으로 도시되었지만, 택일적으로 예컨대 3D 이미저(130)와 같은 임의의 다른 시스템 컴포넌트에 포함될 수 있다. 마찬가지로, 3D 이미저(130) 및/또는 광 센서(134)는 프로젝터(122)에 포함 및/또는 통합되는 것이 유리할 수 있고, 선택적으로 이와 함께 공통 컴포넌트를 공유한다.
3D 이미저(130) 및 광 센서(134)는 관측자 입력을 위한 수단을 제공할 수 있다. 예컨대, 관측자(132)가 위치하는 프로젝션 스크린(124)의 전방의 체적은 프로젝션 스크린(124) 상에 3D 디스플레이로서 에코되는(echoed) 가상 디스플레이 체적(136)으로서 3D 디스플레이 시스템(100)에 의해 구성될 수 있다. 가상 디스플레이 체적(136)은 관측자 입력을 위해 사용될 수 있다. 일실시예에서, 관측자(132)는 예컨대 가상 액티브 데스크탑 (도시되지 않음)에서 임의의 특징을 활성화하기 위해 버튼의 3D 표현을 작동할 수 있다. 이러한 액티브 데스크탑은 가상 디스플레이 체적(136)에서 가상으로 표현될 것이고, 프로젝션 스크린(124) 상의 3D 프로젝션 덕분에 관측자(132)의 즉각적인 존재 및 근접에서 가상 디스플레이 체적(136)에서 3D 이미지로서 관측자(132)에게 나타날 것이다. 다른 인간 인터페이스 행동들은 본 발명의 관점에서 당업자에 의해 이해되는 바와 같이 마찬가지로 가능하다.
도 2를 참조하면, 프로젝션 스크린(124) (도 1)의 표면에 단일 픽셀(202)의 도면(200)이 도시되어 있다. 좌측 및 우측 광 빔(204 및 206)은 프로젝터(122)에서 프로젝션 스크린(124) 상의 픽셀(202)로의 경로를 따라 도시되고, 다시 각각 관측자의 우측 및 좌측 눈(208 및 210)으로 돌아간다. 관측자의 좌측 눈(208)으로 들어가는 좌측 광 빔(204)은 픽셀 위치 XL에서 프로젝트된 광의 반사이고, 관측자의 우측 눈(210)으로 들어가는 우측 광 빔(206)은 픽셀 위치 XR에서 프로젝트된 광의 반사이다. 일실시예에서, 픽셀 표면은 연마된 은 또는 알루미늄과 같은 반사재료로 취급된다.
본 실시예에서 돔 형상인 각 픽셀(202)에 대해, 정확히 한 위치 XL 및 한 위치 XR이 있고 여기서 프로젝트된 광 빔(204 및 206)은 각각 관측자의 각 좌측 및 우측 눈(208 및 210)으로 들어가도록 반사한다. 이것은 프로젝터(122)로부터의 조명 광 빔의 입사각이 입사광 빔이 반사되는 지점에서 픽셀(202)의 표면의 법선(212)에 대해 반사된 각과 등가이다. (법선(212)은 입사광 빔이 반사되는 지점에서 픽셀(202)의 표면에 수직인 선이다.) 반사 위치 또는 지점에서 (예컨대, XL 또는 XR), 픽셀(202)의 적은 부분만이 관측자의 대응하는 좌측 눈(208) 또는 우측 눈(210) 쪽으로 광을 반사시킬 것이다. 픽셀(202)의 임의의 다른 부분을 비추는 프로젝터로부터의 광은 관측자의 특정 눈으로 보다는 다른 곳으로 반사될 것이다.
따라서, 법선(212)이 픽셀(202)의 표면의 경사에 수직이고 이 경사는 픽셀(202)에 대해 일정하지 않으므로, 이상적으로 오직 하나의 위치 각각 XL 및 XR이 있고, 여기서 광은 관측자(132)의 대응하는 좌측 눈(208) 및 우측 눈(210)으로 반사된다. 관측자(132)가 다른 위치로 이동하면, 반사의 새로운 위치 또는 지점 (XL 및 XR)은 광이 관측자의 눈에 적절히 계속 반사되도록 요청될 것이다. 마찬가지로, 다른 위치에서의 추가 관측자는 각각 픽셀(202)에서 자신의 유일한 반사 위치 (XL 및 XR)를 필요로 할 것이다.
이에 따라, 프로젝터(122)가 프로젝션 스크린(124)을 스캐닝함에 따라 (도 1) 좌측 및 우측 광 빔(204 및 206)을 적절히 변조함으로써, 유일한 이미지가 프로젝터(122)에 의해 각각 관측자(132)의 좌측 및 우측 눈(208 및 210)으로 전송될 수 있다. 이것은 예컨대 프로젝터(122)가 유일한 위치 XL로 프로젝트되고 있는 정확한 순간에 프로젝션 스크린(124) 상의 각 픽셀(202)로 좌측 눈 이미지 정보를 프로젝트하고, 프로젝터(122)가 유일한 위치 XR 쪽으로 프로젝트되고 있는 정확한 순간에 우측 눈 이미지 정보를 프로젝트함으로써 달성될 수 있다.
이런 식으로 사용될 때, 프로젝션 스크린(124)은 프로그램가능한 편향각을 갖는 프로그래머블 미러 장치로서 기능하고 프로그래머블 미러 장치가 된다. 즉, 프로젝터(122)를 특별한 각각의 편향각 (예컨대, 관측자(132)의 각각의 좌측 및 우측 눈(208 및 210)으로 프로젝트하기 위한 각)으로 프로젝트하도록 프로그램함으로써, 프로젝션 스크린(124)의 편향각은 이 프로그래밍에 따라 유일하게 선택되고 제어된다. 프로젝션 스크린(124)은 (그 구성에 따라) 전방향 반사 표면 (예컨대)에서 프로그램가능한 편향각을 갖는 프로그래머블 미러 장치로 변환된다.
아래에 도시되고 설명되는 바와 같이, 프로젝션 스크린(124)에 대한 사인곡 선 표면 함수를 선택하는 것이 일실시예에서 유용하다. 여기서, "사인곡선 표면 함수"라는 용어는 프로젝션 스크린(124)의 적어도 한 축을 따라 일 변위 함수로서 사인곡선으로 변하는 프로젝션 스크린(124) 상의 표면 토포그래피로서 정의된다.
도 3을 참조하면, 표면 함수(302)를 갖는 프로젝션 스크린(124)의 도면(300)이 도시되어 있다. 본 실시예에서 표면 함수(302)는 사인곡선 표면 함수이고, 이에 의해 표면 토포그래피는 일반적으로 도 3에 도시된 바와 같이 사인곡선으로 변하여 입사광 빔(304)에 대해 연속적으로 변하는 공지의 예측가능한 편향각 ∂O을 제공한다. 프로젝션 스크린(124)의 평면(308)에 대해 측정된 반사된 광 빔(306)에 대한 편향각 ∂O은 따라서 프로젝션 스크린(124) 상의 위치나 좌표의 사인 함수이다. 도면(300)에서, 프로젝션 스크린(124)의 연관된 법선(212)은 수평 변위 x의 함수로서 도시되고 x와 함께 사인곡선으로 유사하게 변한다.
본 실시예에서 표면 함수(302)가 사인곡선으로 도시되었지만, 더 일반적인 의미에서 표면 함수(302)는 공지되거나 잘 정의되어 있는 한 임의의 적절한 함수일 수 있음은 물론이다. 이하에 더 상세히 도시된 바와 같이, 표면 함수(302)는 소정의 (즉, 잘 알려지고 잘 정의된) 반사하는 (즉, 이에 충돌하는 광을 반사) 각 응답 (angularly-responsive) 함수로서 정의된다. 각 응답은, 광의 충돌의 실제 각이 일정하더라도 충돌 광이 반사하는 각은 충돌 광이 지향하는 표면 함수상의 위치에 따라 (즉, 그 함수로서) 변한다 (즉, 일정치 않다). 따라서 광의 반사각은 광이 조준되거나 지향되는 위치에 공지의 예측가능한 방식으로 반응 ("각 응답")한다. 따라서, 프로젝션 스크린(124)은 소정의 각 응답 반사 표면 함수를 정의하는 공간 필터 (표면 함수(302))를 갖는다.
주기 표면 함수 및 유연한 경사 변화 (예컨대, 곡선 토포그래피)를 갖는 표면 함수가 바람직하지만, 다음 함수가 잘 정의되는 한, 톱니 함수, 삼각 함수, 불규칙 함수, 비조화 함수 또는 임의의 적절한 다른 함수를 가지는 것이 가능하다. 수학적으로 잘 정의될 수 있거나, 또는 프로젝션 스크린(124)을 스캐닝하고 결과적인 반사를 예컨대 상관 테이블로 매핑함으로써 동작적으로 잘 정의될 수 있다.
도 3 및 도 4를 더 참조하면, x 함수로서의 반사된 광 빔(306)의 편향각 ∂O은 다음과 같이 결정될 수 있다.
프로젝션 스크린(124)의 표면 함수(302)는 프로젝션 스크린(124)의 두께 (및 표면 고도) z(x)를 다음과 같이 스크린 표면(310) (표면 함수(302)를 구현함)을 따라 수평 변위 x와 관련시킨다:
Figure 112009016748559-pct00001
(수학식 1)
여기서, Z0는 프로젝션 스크린(124)의 ZOFF (Z-Offset)과 최대 두께 (ZOFF+Z0) 사이의 차 (Z0는 실질적으로 표면 함수의 진폭),
ZOFF는 프로젝션 스크린(124)의 평균 두께,
z(x)는 위치 x에서 프로젝션 스크린(124)의 두께, 및
λP는 한 픽셀(202) (도 2)의 길이 (λP는 표면 함수의 일 주기를 나타내는 사인곡선의 360°한 주기).
탄젠트 또는 경사(312)를 x의 함수로서 계산하기 위해, (수학식 1)은 x에 대해 미분된다:
Figure 112009016748559-pct00002
(수학식 2)
각 β*이 계산된다:
Figure 112009016748559-pct00003
(수학식 3)
Figure 112009016748559-pct00004
각 β는 프로젝션 스크린(124)의 평면(308)에 대해 법선(212)의 각이다. 법선(212)의 각 β를 위치 x의 함수로서 얻으려면, β는 다음과 같이 계산될 수 있다:
Figure 112009016748559-pct00005
(수학식 4)
도 4를 참조하면, 프로젝션 스크린(124)의 표면 함수(302)의 함수로서 프로젝터(122)에서 관측자(132)까지의 광 경로(402) (입사광 빔(304) 및 반사광 빔(306)으로 구성)의 도면(400)이 도시된다.
각 ∂P 및 ∂O는 다음과 같이 계산될 수 있다:
Figure 112009016748559-pct00006
(수학식 5)
Figure 112009016748559-pct00007
(수학식 6)
수학식 5 및 6을 이용하여, x축에 대한 법선의 각이 계산될 수 있다. 각 ∂OP는 ∂P와 ∂O 사이의 정확히 중간이므로, x의 함수로서의 법선은:
Figure 112009016748559-pct00008
(수학식 7)
OP (수학식 7)와 β(x) (수학식 4)에서의 함수들이 교차하는 위치들은 다음 MATLAB® (The MathWorks, Natick, MA) 스크립트에서 도시된 바와 같이 변조 함수를 제공한다:
Figure 112009016748559-pct00009
Figure 112009016748559-pct00010
Figure 112009016748559-pct00011
프로젝션 스크린(124)의 크기, 픽셀(202), 프로젝션 거리, 시청 거리 등이 특별한 이용에 종속할지라도, 상기 MATLAB® 스크립트에서의 파라미터는 이러한 일실시예를 대표한다. 본 실시예에서, 프로젝터(122)는 프로젝션 스크린(124)으로부터 500mm, 디스플레이된 이미지 (도시되지 않음)의 좌측단으로부터 250mm 떨어져 있고, 디스플레이된 이미지는 폭이 500mm이고, 관측자는 프로젝션 스크린(124)으로부터 500mm, 디스플레이된 이미지의 좌측단으로부터 125mm 떨어져 있고, 픽셀(202)은 1mm의 깊이와 25mm의 간격을 갖는다.
MATLAB® 스크립트에 대한 상기 소개에서, ∂OP(x) (수학식 7)와 β(x) (수학식 4)에서의 함수들이 교차하는 위치들이 변조 함수를 제공한다는 점이 강조되었는데, 이에 대해 이하에서 설명하기로 한다.
도 5를 참조하면, x 함수로서 법선(212) (도 3)의 각인 β(x)의 곡선(502)을 도시하는 그래프(500)가 도시된다.
도 5에는 ∂OP(x)의 곡선(504)이 도시된다 (본 실시예에서는 기본적으로 직선). 곡선(504)은 ∂OP가 거리 x의 함수로서 점차 변하는 것을 도시한다. ∂OP(x) 는 거리 x의 함수로서 반사된 빔(306)을 관측자(132)의 눈으로 조준하기 위해 올바른 법선(212) (도 4)의 각에 대응한다고 간주될 수 있다. (도 4 참조).
도 6을 참조하면, 거리 x의 함수로서 변조 함수(602)의 그래프(600)가 도시되어 있다. 변조 함수(602)는 β(x) 및 ∂OP(x)의 교차점 (도 5에 도시) 에서 1의 값을 갖고 그외는 0의 값을 갖는다. 관측자의 좌측 눈에 대한 변조 함수와 관측자의 우측 눈에 대한 변조 함수가 있다. 변조 함수는 입사 빔이 관측자(132)의 각각의 좌측 및 우측 눈(208 및 210)으로 직접 반사되게 하기 위해 투사 스크린(124)의 표면 함수(302)에서 (예컨대, 도 2에서 도시된 위치 XL 및 XR에서) 충돌하는 입사 빔(304) (도 4)의 정확한 각각의 각 ∂P에서 프로젝터(122)를 턴온 (예컨대, 변조함수 값 = 1)하기 위해 사용된다.
즉, 좌측 또는 우측 변조 함수 각각은 대응하는 좌측 또는 우측 눈에만 도달하기 위한 올바른 순간에 그 각각의 좌측 또는 우측 이미지의 프로젝션을 제어하고 턴온한다. 다른 때에, 프로젝터(122)는 오프되고 (예컨대, 변조 함수값 = 0) 프로젝션이 이루어지고 않아, 관측자의 눈에 도달하기 위해 조준되지 않은 때에 프로젝트된 빔 (즉, 입사 빔(304))이 마스킹(masking)되거나 게이팅(gating)된다.
적당한 반사 지점 (예컨대, XL 및 XR)에서 조준되지 않은 때 관측자의 눈에 직접 반사되지 않을 것이므로, 프로젝트된 빔 (예컨대, 입사 빔(304))은 상기한 대로 반드시 마스킹될 필요가 없음은 물론이다. 그러나, 상용적으로 실제적인 반사 표면은 완전하지 않고 반사는 일반적으로 반사하지 않고 대신에 어느 정도의 확산 반사를 나타내기 때문에, 마스킹이 바람직하다. 이러한 확산 반사는 프로젝트된 빔이 상술한대로 적당한 반사 지점이 아닌 위치를 비추면 이미지 품질을 저하시킬 수 있다.
유사한 고려가, 입사 빔(304)이 적당한 반사 지점 XL 및 XR 사이의 거리보다 작은 넓이를 가져야 할 뿐만 아니라 명목상으로 그 거리의 절반 이하와 같이 상당히 작은 것이 바람직함을 시사한다.
도 7을 참조하면, 도 6에 도시된 변조 함수(602)의 물리적 중요성을 도시하는 그래픽 표현(700)이 도시된다. 특히, 도 7은 프로젝션 스크린(124)의 표면 함수(302)에 대한 변조 함수(602)의 관계, 및 프로젝터(122)로부터 입사광 빔(304) (도 4)의 결과적인 제어되고 동기화된 전송 및 억제를 도시한다.
일실시예에서, 입사광 빔(304)은 프로젝션 스크린(124)의 표면에 대해 주기적으로 지나간다. 입사광 빔(304)의 이러한 주기적 지나감은 광 빔이 프로젝션 스크린(124)을 지나갈 때 자신의 경로가 시간과 함께 규칙적으로 (즉, 주기적으로) 변하게 한다. 입사광 빔(304)의 위치나 변위 (x, y)는 따라서 시간 t의 함수이다. (설명의 편이상, y는 도시되지 않음).
따라서, 도 7은 입사광 빔(304)이 프로젝션 스크린(124)을 주사할 때 입사광 빔의 물리적 움직임이나 변위 x와 시간 t의 관계를 도시한다. t와 x 사이의 이 상관관계를 이용하여, 관측자(132)에 대해 프로젝트되는 이미지 내의 단일 픽셀은 표면 함수(302)의 한 픽셀에 관련될 수 있다. 그후, 이 이미지를 변조 함수(602)로 적절히 변조시킴으로써, 관측자(132)의 선택된 눈에 원하는 반사가 발생하는 특정 법선(212)에 관계하는 픽셀의 특정 부분을 매핑하는 것이 가능하다. 일실시예에서, 입사광 빔(304)은 프로젝션 스크린(124)의 표면에 대해 입사광 빔(304)이 주기적으로 지나감에 따라 변조 함수(602)에 의해 스위치 온/오프된다. 그 결과, 정확한 각각의 3D 이미지 정보가 관측자(132)의 좌측 및 우측 눈(208 및 210)으로 프로젝트된다.
따라서, 대표적인 이미지 데이터 신호를 나타내는 이미지 데이터 신호(702)가 도 7의 상부에 도시된다. 이미지 데이터 신호(702)는 예컨대 좌측 서브 이미지(114) (도 1)에 대한 컴포넌트(702L) 및 우측 서브 이미지(116)에 대한 컴포넌트(702R)를 포함할 수 있다. 대응하는 이미지 변조기(118 및 120)는 변조 함수(602)에 의해 제어되어 좌측 및 우측 서브 이미지(114 및 116)를 변조하고 각각의 이미지 데이터 신호(702) (즉, 702L 및 702R)를 변조 함수(602)가 1의 값을 가질 때마다 프로젝터(122)로 전달한다. 마찬가지로, 변조 함수(602)가 0의 값을 가질 때에는, 어떤 신호도 프로젝터(122)로 전달되지 않는다. 이것은 이미지 데이터(702) 및 내부의 좌측 및 우측 서브 이미지(702L 및 702R로 나타내는 114 및 116)가 투사 스크린(124)으로부터 관측자(132)의 각각의 좌측 및 우측 눈(208 및 210)의 위치로 개별적으로 그리고 실질적으로 배타적으로 반사하도록 각각 공간적으로 지향되게 하는 각각의 별개의 광 경로(402)를 정의하도록 입사광 빔(304)의 각이 표면 함수(302)와 조정하여 올바른 정확한 순간에만 이미지 데이터 신호(702)가 프로젝터(122)에 의해 프로젝션을 위해 변조되게 한다. 변조 함수(602)에 의해 변조된 이미지 데이터 신호(702)의 투사된 부분은 이에 따라 투사된 부분(704L 및 704R)으로서 도 7에 도시된다.
도 7의 하부는 프로젝션 스크린(124)의 표면 함수(302)의 대응하는 부분을 나타낸다. x, t, 변조 함수(602), 및 관측자의 좌측 눈(208)에 대한 대응하는 법선(212L)와 관측자의 우측 눈(210)에 대한 법선(212R) 사이의 관계가 표시된다. 앞서 설명된 바와 같이, 법선(212)은 관측자의 각각의 좌측 및 우측 눈에 대해 입사광 빔(304)을 반사하기 위한 프로젝션 대상 및 올바른 각의 위치를 상관하여 특정한다. 이 위치 (x) 및 대응하는 시간 (t)에서 변조 함수(602)는 상기한 대로 변조 함수 값 1로 프로젝터(122)를 스위치 "온"한다.
따라서, 변조 함수(602)로 이미지 데이터(702)를 적절히 변조시킴으로써, 좌측 눈(208) 및 우측 눈(210)에 대한 각각의 공간 반사가 생성된다. 각 응답 반사 표면 함수(302)와 조정하여 각각 좌측 및 우측 서브 이미지(114 및 116)를 각 및 세기 변조함으로써, 프로그램가능한 편향각을 갖는 프로그래머블 미러(126)가 제공되고 정의된다.
마찬가지로, 이하에서 더 설명되는 바와 같이, 3D 디스플레이 시스템(100)은 이미징 목적을 위해 공간 반사를 생성할 수 있다. 입사광 빔(304) 또는 반사광 빔(306)은 개체를 이미징하기 위해 사용될 수 있다. 더 구체적으로, 주어진 편향각에 대해 주어진 개체의 거리를 결정하기 위해 사용될 수 있다. 이 특정 모드에서, 3D 디스플레이 시스템(100)은 장치의 시계 (field of view)에서 스캐닝 빔의 수직 및 수평 변위의 함수로서 개체의 거리를 나타낼 맵을 생성하도록 자신의 시계 를 이미징할 것이다. 일실시예에서, 예컨대, 빔이 프로젝터(122)를 떠난 후, 프로그래머블 미러(126)에 의해 개체 (예컨대, 관측자(132)) 상으로 편향된 후 개체로부터 광 센서(134)로 편향된다. 변조된 광 빔의 경로 지연에 기초하여, DSP(128)는 광 빔이 이동한 거리를 계산할 수 있고 따라서 스캐닝되는 특별한 개체의 거리를 계산할 수 있다. 이 특징은 관측자(132)에게 최선의 가능한 스테레오스코프 시각 경험을 제공하기 위한 최적의 편향각의 계산을 용이하게 한다.
본 개시에 기초하여, 변조 함수(602)는 이미지 데이터(702)를 변조하는 데 한정되지 않음은 물론이다. 변조 함수(602)는 수평 및/또는 수직 방향으로 스캐닝 빔 (예컨대, 입사광 빔(304))의 스캔 속도를 변조하기 위해 사용될 수 있다. 일실시예에서, 예컨대, 이러한 구현예는 프로젝터를 계속적으로 "온(on)" 상태로 유지하고, 관측자의 선택된 대상 눈으로 픽셀 위치로부터 그 순간에 프로젝트될 대응하는 픽셀에 대해 입사광 빔(304)을 직접 각각의 법선(212) 위치로 단순히 "점프"한다.
프로젝션 스크린(124)을 일정 속도로 스캐닝할 때 적절한 대상 편향각 ∂O가 찾아지도록 변조 함수(602)가 프로젝션 스크린(124)의 표면으로 인코딩될 수 있음이 이해될 것이다. 이것은 예컨대 관측자(132)가 상당히 고정적인 위치에 있을 때 유리할 수 있다. 이러한 환경에서, 스캐닝 빔은 계속적으로 유지될 수 있다.
본 발명의 개시에 따라 상기 도시된 바와 같이, 프로그램가능한 편향각 ∂O을 갖는 미러가 본 발명의 개시에 따라 변조된 프로젝트된 이미지 빔과 조합하여 여기 개시된 프로젝션 스크린을 구성함으로써 제공될 수 있다.
도 1과 관련하여 상술된 바와 같이, 이 시스템(100)은 관측자(132)와 같은 물리적 개체에 의해 반사된 광을 평가하는 3D 이미저(130) 및 광 센서(134) (도 1)와 같은 픽업 센서를 포함함으로써 하나 이상의 기존 개체나 관측자를 이미징하기 위해 사용될 수 있다. 이것은 개체의 위치 및 형태 특징이 결정될 수 있게 한다. 특별한 특징의 결정은 예컨대 공지의 이미지 인식 기술을 이용하여 쉽게 달성될 수 있다. 이것은 시스템(100)이 예컨대 관측자의 머리의 좌측을 좌측 눈(208)에 대한 좌측 편향각과 연관시키고 관측자의 머리의 우측을 우측 눈(210)에 대한 우측 편향각과 연관시키는 것을 가능하게 한다.
관측자(132)에 대해, 이러한 위치 및 형태 특징은, 좌측 및 우측 이미지가 관측자의 각각의 좌측 및 우측 눈(208 및 210)에 올바로 도달함을 확실히 하도록 좌측 및 우측 이미지에 대한 프로젝트된 광 빔의 적절한 편향각 ∂O을 조정하기 위해 필요함은 물론이다. 관측자 위치 및 형태 특징을 결정하는 이러한 이미징 능력은, 시스템(100)이 이러한 움직임을 수용하고 관측자를 계속적으로 추적하여 뒤따르도록 프로젝션 스크린(124)의 근처에서 관측자가 이동할 수 있게 하는 시스템(100)에서 피드백 메커니즘 (예컨대, 3D 이미저(130) 및 광 센서(134))을 생성한다. 즉, 관측자의 움직임은, 3D 이미지가 관측자가 위치를 이동하고 바꿈에 따라 관측자의 좌측 및 우측 눈에 계속 올바로 직접 지향되도록 적절한 실시간 조정이 이루어질 수 있게 하는 피드백을 제공하기 위해 추적된다.
이러한 피드백은 관측자에 의해 작동되는 다양한 제어 입력을 위해 시스템 입력을 제공하도록 피드백으로서 해석될 수 있는 머리 방향 (회전 및 경사), 팔, 손, 및 손가락 위치 등과 같은 관측자 특징을 정의하고 추적하기 위해 이용될 수 있다. 이 제어 입력은 이후 가상 디스플레이 체적(136)에서의 가상 개체 등을 제어 및/또는 조작하기 위해 3D 디스플레이 시스템(100)의 동작을 제어하도록 사용될 수 있다.
예컨대, 3D 디스플레이 시스템(100)은 가상 디스플레이 체적(136)에서 관측자(132)에게 눈에 띄지 않는 3D 가상 데스크탑 (도시되지 않음)을 제공할 수 있다. 관측자(132)는 가상 디스플레이 체적(136)으로 도달함으로써 그리고 마치 실제로 존재하는 것처럼 (실제로 존재하는 것으로 보임) 가상 개체를 "잡고", "밀고" 또는 조작함으로써 데스크탑 내에서 개체를 조작할 수 있다. 가상 개체의 조작은, 피드백 메커니즘이 가상 개체의 위치에서 손가락 움직임과 같은 관측자 움직임을 인식하고 이에 응답하여 가상 개체의 디스플레이를 재구성하므로 발생한다.
따라서, 더 일반적으로, 가상 디스플레이 체적(136)은 3D 인터랙션을 위해 가상 체적으로서 작용한다. 이러한 3D 인터랙션 및 사용자 인터페이스 ("UIs")는 3D 스테레오스코프 프로젝션 및 시청, 또는 3D 홀로그래픽 (또는 이하에 더 설명되는 의사 홀로그래픽) 프로젝션 및 시청과 관련하여 있을 수 있다.
검출 및 피드백 일실시예에서, 예컨대, 광 센서(134)에 의한 검출을 위해 프로젝터(122)로부터의 광으로 관측자(132)를 조명할 때, 프로젝터(122)에 의해 프로젝트된 각 이미지 프레임은 3개의 서브 프레임으로 분리될 수 있다:
ㆍ 관측자(132)의 좌측 눈(208) (도 2)에 대해 지정된 3D 스테레오스코프 이미지의 좌측 3D 서브 이미지 (즉, 좌측 서브 이미지(114))의 프레임인 프로젝트된 좌측 이미지 서브 프레임;
ㆍ 관측자(132)의 우측 눈(210)에 대해 지정된 3D 스테레오스코프 이미지의 우측 3D 서브 이미지 (즉, 우측 서브 이미지(116))의 프레임인 프로젝트된 우측 이미지 서브 프레임; 및
ㆍ 관측자의 실제 위치 및 방향을 결정하고 찾기 위해 관측자(132)를 조명하는 프레임인 프로젝트된 스캔 이미지 서브 프레임.
이러한 실시예에서, 스캔 이미지 서브 프레임을 프로젝트하는 것은 좌측 및 우측 3D 서브 이미지를 프로젝트하는 것과 일치하여 발생한다.
스캔 이미지 서브 프레임은 관측자가 추적되고 있는 전체 대상 영역을 지나가도록 이용될 수 있고, 또는 관측자의 대체적인 위치가 알려질 때, 스캔 이미지 서브 프레임 동안에 프로젝트된 빔은 관측자(132)를 조명하기 위해 그 대체적인 공지의 위치로 더 구체적으로 지향될 수 있다. 이와 달리, 관측자(132)는 프로젝션 스크린(124)으로부터의 광을 관측자로 반사함으로써 간접적으로 조명될 수 있다. 관측자(132)로부터 반사된 광은 관측자(132)의 3D 프로파일을 생성하고 관측자(132)와 프로젝션 스크린(124) 사이의 관계를 정의하기 위해 사용될 수 있다. 이 관계는 예컨대 관측자와 프로젝션 스크린 사이의 거리 z, 및 이로부터 거리 z에서 프로젝션 스크린(124)의 평면에 평행인 대응하는 x, y 평면에서 다양한 관측자 특징 (예컨대 눈 위치)의 x, y, z 위치로서 정의될 수 있다. 스캔 이미지 서브 프 레임의 수 및 속도는 정해질 수 있고, 또는 관측자(132)의 움직임의 정도 및 속도에 종속하여 및 이에 응답하여 적응적일 수 있다.
상술된 바와 같이, 프로젝션 스크린(124) 근처의 기존 개체 및/또는 관측자의 이미징은 프로젝터(122)에 의해 또는 3D 이미저(130)와 같은 별개의 이미저에 의해 제공될 수 있고, 광 센서(134)는 이에 포함되거나 이로부터 별개로 위치할 수 있다.
도 8을 참조하면, 공지된 적절한 이미지 인식 방법을 이용하여 3D 이미저(130)에 의해 이미징된 후에 DSP(128) (도 1)에 관측자의 형상이 나타날 수 있는 때 관측자(132)의 단순화된 형태(800)가 도시된다. DSP(128)에서의 적절한 이미지 인식은 관측자(132)의 좌측 및 우측 어깨(802 및 804)를 식별하였다. 관측자 머리의 좌측 및 우측(806 및 808)은 또한 관측자의 좌측 및 우측 눈(208 및 210)의 대응 위치를 가질 때 식별되었다 (3D 이미지(130)에 보이지 않으면, 좌측 및 우측 (806 및 808)과 같은 다른 머리 특징의 식별된 위치로부터 인터폴레이팅함으로써 식별될 수 있다). 눈 위치 인터폴레이션을 가능하게 하는 적절한 데이터 및 절차는 예컨대 DSP(128)과 함께 저장될 수 있다.
도 8은 상술된 바와 같이 x, y 및 z에 관한 관측자의 단순화된 형태(800)를 도시한다. 이 점에서, 관측자(132)는 등을 3D 이미저(130)로 향하고 프로젝션 스크린(124)에 근접한 상태에서 (도 1 참조) 프로젝션 스크린(124) (도 8에 도시되지 않음)을 대면하는 것으로 인식된다.
이런 식으로 이용되는, 이미징된 관측자(132)의 단순화된 형태(800)는 관측 자의 좌측 및 우측 눈(208 및 210)의 위치를 적절히 결정 (예컨대, 인터폴레이트)하기 위해 관측자의 머리의 좌측 및 우측 (806 및 808)의 정확한 위치를 결정하기 위해 사용된다. 위치 눈 정보는 결정된 (인터폴레이팅된) 눈 위치에서 관측자의 좌측 및 우측 눈(208 및 210)에 도달하기 위해 각각 좌측 및 우측 이미지의 편향각 ∂O을 올바로 조정하기 위해 시스템(100)에 의해 사용된다. 또한, 관측자(132)가 이동할 때, 시스템(100)은 이 움직임을 추적하고, 관측자의 눈 위치의 움직임을 추적하고, 추적된 움직임에 응답하여 좌측 및 우측 서브 이미지를 조정하기 위해 새로운 눈 위치를 적절히 결정 (인터폴레이팅)한다. 이하에서 더 설명되는 바와 같이, 추적된 움직임에 응답하여 좌측 및 우측 서브 이미지를 조정하는 것은 홀로그램을 모방하는 이미지가 생성될 수 있게 한다.
여기 개시에 기초하여, 본 발명은 동시에 3D 디스플레이 시스템(100)을 이용하여 집합적으로 다수의 관측자를 동시에 수용할 수 있음은 당업자라면 이해할 것이다. 이러한 다수의 관측자가 존재할 때, 3D 이미저(130) 또는 다른 스캐닝 시스템 (앞서 설명됨)은 다수의 관측자 각각의 개별적인 형태 및 위치를 계속적으로 동시에 검출하고 정의한다. 그후 변조 함수(602) 및 이미지 데이터 신호(702)는 각 관측자에 관련된 적절한 유일한 개별적인 이미지 데이터 스트림 및 공간 반사를 가능하게 하고 제어하기 위해 다수의 사용자 각각의 위치 및 방향을 추적하도록 적절히 수정된다. 이런 식으로, 각 시각 경험 (즉, 프로젝트된 이미지)이 원하는대로 선택적으로 서로 유사하거나 다르게 각 개별 관측자에게 유일하고 개인적인 3D 시 각 경험을 동시에 용이하게 제공할 수 있다.
또한, 이미지 인식은 관측자와 비관측자 사이를 구별하도록 구현될 수 있어서, 이미지가 예컨대 구별되게 하는 임의의 소정의 정의 특징을 갖는 원하는 대상 (즉, 존재하는 실제 관측자)에게만 프로젝트된다.
또한, 개별 관측자(132)는 개별적으로 구별, 검출 및 추적될 수 있을 뿐만 아니라 구별되는 개인 특징 (예컨대, 키, 어깨 넓이, 윤곽 등)에 기초하여 유일하게 식별될 수 있다. 개인화된 관측자 선호도가 이후 저장될 수 있고 이러한 각 관측자와 연관될 수 있다. 예컨대, 3D 디스플레이 시스템(100)의 환경으로 들어가면, 이 시스템은 이러한 관측자(132)를 인식하고 유일한 선호도 및 이와 연관된 파라미터에 따라 관측자의 경험을 커스터마이즈할 것이다. 이러한 예로는, 관측자를 자동적으로 인증하는 것, 도착시 관측자를 개인적으로 맞이하는 것, 관측자만을 위해 커스터마이즈된 데스크탑을 제공하는 것, 그 관측자를 위해 커스터마이즈된 제어 응답 (예컨대, 머리 움직임에 대한 응답)을 제공하는 것, 이전에 정지된 3D 디스플레이를 재개하는 것 등이 있다.
본 발명의 가치있고 이로운 특징은 자동 정렬 ("auto-alignment")이다. 본 발명의 자동 정렬 특징은 프로젝터(122), 3D 이미저(130) (프로젝터(122)와 구별된 경우), 프로젝션 스크린(124), 및 관측자(132) 사이의 적절한 자동 정렬을 가능하게 한다. 일실시예에서, 자동 정렬 특징은 3D 이미저 및 광 센서가 프로젝터(122)에 포함될 때 프로젝터(122)를 센서로서 이용한다. 다른 실시예에서, 자동 정렬 특징은 3D 이미저(130) 및/또는 광 센서(134)와 같은 분리된 3D 이미저 및 센서를 이용한다.
자동 정렬 및 교정 특징을 이용하여, DSP(128) 및 3D 이미저(130)와 같은 3D 이미저는 관측자의 위치를 결정할 뿐만 아니라 프로젝션 스크린(124)의 위치를 결정한다. 이것은 관측자(132)의 스캐닝에 유사하게 프로젝션 스크린(124)를 스캐닝함으로써 달성된다. 이러한 스캐닝은 프로젝션 스크린(124), 관측자(132), 및 프로젝터(122)의 정확한 상대적 위치 및 차원을 결정한다. DSP(128)는 이러한 자동 교정에 의해 결정된 대로 업데이트된 현재의 스크린 위치 및/또는 좌표에 따라 변조 함수(602)를 적절히 조정한다 (교정 또는 재교정). 원하거나 필요한 경우, 자동 정렬 교정은 프로젝션 스크린(124) 또는 다른 컴포넌트의 위치가 변하는 경우에도 계속적인 정렬을 보장하도록 주기적으로 반복될 수 있다. 이러한 자동 교정은 관측자(132)가 최선의 시청 경험을 제공받을 것을 보장한다.
여기 개시에 기초하여, 프로젝션 스크린(124) 상의 개별 픽셀도 프로젝션 스크린(124)을 적절히 스캐닝하고 광 센서와 같은 특정 위치로 프로젝션 빔을 리턴하는 프로젝션 각을 기록함으로써 개별적으로 교정될 수 있다. 프로젝션 스크린의 표면 함수(302)를 알고 광 센서의 위치를 알면, 변조 함수(602)는 관측자의 특정한 좌측 및 우측 눈(208 및 210)에 대한 것과 같이 임의의 다른 위치에 유일하게 프로젝트하기 위해 이에 기초하여 용이하게 계산되고 특정될 수 있다.
본 발명의 예외적인 양태는 진정한 홀로그램을 시청하는 것과 실질적으로 구별되지 않는 시청 경험을 생성할 수 있다는 점이다. 이러한 "의사 홀로그래픽" 이미지는 관측자 움직임을 추적하고 응답하는 본 발명의 능력의 직접적인 결과이다. 관측자의 눈 위치의 움직임을 추적함으로써, 좌측 및 우측 3D 서브 이미지는 실제 홀로그램을 모방하는 이미지를 생성하기 위해 추적된 눈 움직임에 응답하여 조정된다. 본 발명은 이에 따라 관측자가 디스플레이되는 다양한 가상 개체의 주위 및 근처에 공간에서 (예컨대, 가상 디스플레이 체적(136) 내에서) 이동할 때 가질 실제의 시청 경험을 재생성하는 관측자에게 3D 이미지를 계속적으로 프로젝트할 수 있다. 이것은 홀로그램에 의해 제공되는 것과 동일한 경험적 시청 효과이다. 이것은 예컨대 관측자가 가상 개체 주위를 이동하고 서로 다른 각도로부터 다수의 측면을 관측할 수 있게 하는 반면, 통상의 3D 이미지는 3D 관점을 제공하지만 시청되는 개체에 대한 (예컨대, 주위의) 움직임을 수용하지 못할 것이다. 본 발명에 의해 프로젝트되는 의사 홀로그래픽 이미지는 관측자의 공간에서의 실제 움직임을 검출하고 뒤따름으로써 그리고 이에 응답하여 시청된 3D 이미지를 적절히 재생성하여 이러한 가상 개체 주위의 실제 움직임을 모방하도록 함으로써 진정한 홀로그램과 동일한 방식으로 개체의 3D 시청을 동적으로 변화시킨다.
본 발명의 의사 홀로그래픽 능력의 강력하고 예상못한 확장은 홀로그래픽 가속(holographic acceleration)이다. 여기 교시된 바와 같이, 홀로그래픽 가속을 이용하여, 관측자의 외관상 움직임은 의사 홀로그래픽 이미지가 관측자의 실제 움직임 또는 변위보다 관측자에 대해 더 빨리 움직이게 함으로써 선택된 요인에 의해 증가된다. 예컨대, 개체 주위를 이동할 때, 개체는 관측자에 의해 이 주위의 실제 움직임보다 더 빨리 회전하는 것으로 나타날 것이다. 직선으로 움직일 때, 프로젝트된 이미지에 대한 움직임은 관측자의 실제 움직임 보다 더 빨라 보일 것이다. 이미지의 가속 정도는 예컨대 관측자에 의해 선택될 수 있고 3D 디스플레이 시스템(100)에 의해 용이하게 구현된다.
홀로그래픽 가속은 가상 디스플레이 체적(136)이 그 정도에 있어서 유한하고 관측자가 프로젝션 스크린(124)을 대면하고 있기 때문에 본 발명의 환경에서 특히 이롭다. 예컨대, 프로젝션 스크린(124)이 평평할 때, 관측자가 가상 개체 주위를 실제적으로 물리적으로 걷는 것은 실제적이지 않다. 홀로그래픽 가속을 이용하여, 관측자는 개체 주위에 작은 호로만 이동하고 그러면서 관측자가 훨씬 더 큰 호를 가로지르고 있는 것처럼 개체가 회전하는 것을 관측함으로써 동일한 효과를 달성할 수 있다. 이러한 시청 경험은 실제 홀로그램을 이용하여 바로 가능하지 않고, 따라서 이것은 본 발명의 분명하고 예상못한 이점이다.
도 9를 참조하면, 본 발명의 일실시예에 따라 3차원 디스플레이 시스템(900)의 흐름도가 도시된다. 3차원 디스플레이 시스템(900)은, 블록(902)에서, 소정의 각 응답 반사 표면 함수를 갖는 프로젝션 스크린을 제공하는 것; 및 블록(904)에서, 프로그램가능한 편향각을 갖는 프로그래머블 미러를 정의하도록 소정의 각 응답 반사 표면 함수와 조정하여 각각 3D 이미지를 변조하는 것을 포함한다.
본 발명이 이렇게 수많은 양태를 갖는다는 것은 예상치 못하게 발견되었다.
원칙적인 이러한 양태는, 본 발명은 관측자에게 완전하고 방해받지 않는 움직임의 자유를 허용하는 매우 효과적이고, 실제적이고, 효율적이고 복잡하지 않고 저렴한 오토스테레오스코프 디스플레이를 제공한다는 점이다.
다른 중요한 이러한 양태는, 본 발명은 수직 뿐만 아니라 수평 움직임 방향 에서 진정한 시차 경험을 제공한다는 점이다.
또다른 중요한 이러한 양태는, 본 발명은 다수의 관측자들을 독립적으로 동시에 수용할 수 있는 실제적인 오토스테레오스코프 디스플레이를 제공한다는 점이다.
본 발명의 특별한 중요한 이러한 양태는, 본 발명은 모두가 동일한 시청 환경에서 움직임이 완전히 자유로운 상태에서 각 관측자가 참석한 다른 관측자들에 의해 동시에 시청되고 있는 것과 전적으로 다를 수 있는 유일하게 커스터마이즈된 오토스테레오스코프 이미지를 제공받을 수 있는 이러한 동시 시청을 제공한다는 점이다.
또다른 특히 중요한 본 발명의 양태는, 사실적인 홀로그래픽 경험을 제공하는 실제적인 오토스테레오스코프 디스플레이를 가능하게 하고 제공한다는 점이다. 더 대단한 것은, 본 발명에 따른 홀로그래픽 또는 의사 홀로그래픽 시청 솔루션은 다수의 연속적이고 개별화된 시청을 가능하게 한다는 점이다.
본 발명의 다른 중요한 양태는, 3D 관측자/사용자 입력을 위한 제공과 조합하여 시청 경험을 최적화하는 피드백을 조합하는 눈에 띄지 않는 3D 시청 시스템을 가능하게 하고 제공하여, 특수한 시청 고글이나 헤드기어가 필요없이 3D 공간에서 3D 개체의 시청 및 조작을 가능하게 한다는 점이다.
본 발명의 또다른 중요한 양태는, 비용을 줄이고, 시스템을 단순화하고 성능을 향상시키는 경향을 매우 유용하게 지원하고 서비스한다는 점이다.
상기 및 다른 본 발명의 유용한 양태는 결과적으로 기술의 상태를 적어도 다 음 레벨로 나아가게 한다.
따라서, 본 발명의 3D 디스플레이 시스템은 시각 디스플레이 시스템, 특히 3D 오토스테레오스코프 및 의사 홀로그래픽 디스플레이 시스템에 대한 중요한 지금까지 알려지지 않은 입수할 수 없는 솔루션, 능력 및 기능적 양태를 제공한다는 것이 발견되었다. 결과적인 시스템 구성은 간단하고, 비용효과적이고, 복잡하지 않고, 매우 다목적이고 효과적이며, 공지의 기술을 채택함으로써 대단하고 비자명하게 구현될 수 있고, 따라서 종래의 제조 프로세스 및 기술과 완전히 호환가능하다.
본 발명이 특정한 최선 모드와 관련하여 설명되었지만, 많은 대안, 수정, 및 변경이 상기 설명의 관점에서 당업자에게 명백할 것임은 물론이다. 따라서, 본 발명은 포함된 청구항의 범위에 포함되는 모든 이러한 대안, 수정, 및 변경을 포함하는 것이다. 여기 설명되고 첨부 도면에 도시된 모든 내용은 예시적인 것이며 비한정적인 의미로 해석되어야 한다.

Claims (46)

  1. 3차원 디스플레이 시스템(100)에 있어서,
    소정의 각 응답 (angularly-responsive) 반사 표면 함수(302)를 갖는 프로젝션 스크린(124)을 제공하는 것(902);
    적어도 한 관측자(132)의 좌측 및 우측 눈(208, 210) 위치를 결정하는 것;
    상기 프로젝션 스크린(124)을 향해 좌측 및 우측 3차원 서브 이미지(114, 116)를 프로젝트하는 것(122); 및
    상기 좌측 및 우측 서브 이미지(114, 116)를 실질적으로 배타적으로 각각의 상기 좌측 및 우측 눈(208, 210) 위치로 각각 지향하도록 상기 소정의 각 응답 반사 표면 함수(302)와 조정하여 각각 상기 서브 이미지(114, 116)를 변조하는 것(118, 120)
    을 포함하는 3차원 디스플레이 시스템.
  2. 청구항 2은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    인터랙티브, 관측자(132)에 의해 작동되는 제어 입력을 위한 피드백을 제공하기 위해 가상 체적(136)에서 소정의 관측자 특징을 추적하는 것을 더 포함하고,
    소정의 관측자 특징은, 상기 적어도 한 관측자의 좌측 눈의 위치, 상기 적어도 한 관측자의 우측 눈의 위치, 상기 적어도 한 관측자의 좌측 어깨의 위치, 상기 적어도 한 관측자의 우측 어깨의 위치, 상기 적어도 한 관측자의 머리의 좌측의 위치, 상기 적어도 한 관측자의 머리의 우측의 위치 중 적어도 하나를 포함하는 3차원 디스플레이 시스템.
  3. 청구항 3은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    관측자(132)가 추적되고 있는 대상 영역을 지나가기 위해 스캔 이미지 서브 프레임을 이용하는 것을 더 포함하는 3차원 디스플레이 시스템.
  4. 제1항에 있어서,
    3차원 인터랙션을 위한 가상 체적(136)으로서 프로젝션 스크린(124) 전방에 소정의 가상 디스플레이 체적(136)을 구성하는 것을 더 포함하는 3차원 디스플레이 시스템.
  5. 청구항 5은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 서브 이미지(114, 116)를 변조하는 것(118, 120)은 상기 적어도 한 관측자(132)의 좌측 및 우측 눈(208, 210)으로의 광학 프로젝션을 제어하기 위해 상기 이미지(114, 116)를 턴 온 및 턴 오프(118, 120)하는 것을 더 포함하는 3차원 디스플레이 시스템.
  6. 청구항 6은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 서브 이미지(114, 116)를 변조하는 것(118, 120)은 스캐닝 빔(304)의 스캔 속도를 변조(118, 120)하는 것을 더 포함하는 3차원 디스플레이 시스템.
  7. 청구항 7은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    다음 수학식
    Figure 112010084966985-pct00025
    을 이용하여 상기 표면 함수(302)의 법선(212)의 각을 결정하는 것을 더 포함하고, 상기 수학식에서,
    β는 상기 표면 함수의 법선의 각이고,
    Z0는 상기 프로젝션 스크린의 평균 두께와 최대 두께 사이의 차이고,
    x는 상기 프로젝션 스크린의 표면에 따른 수평 변위이고,
    Figure 112010084966985-pct00026
    이고, 여기서 λP는 상기 법선 위치로 및 위치로부터 프로젝트되는 한 픽셀의 길이인 3차원 디스플레이 시스템.
  8. 청구항 8은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    다음 수학식
    Figure 112010084966985-pct00013
    을 이용하여 관측자(132)의 눈(208, 210)으로 반사 빔(306)을 조준하기 위해 올바른 상기 표면 함수(302)의 법선(212)의 각을 결정하는 것을 더 포함하고, 상기 수학식에서,
    OP는 상기 표면 함수의 법선의 각이고,
    O는 상기 프로젝션 스크린의 평면으로부터 측정된 반사된 광 빔의 각이고,
    P는 상기 프로젝션 스크린의 평면으로터 측정된 프로젝트된 광 빔의 각이고,
    LP는 상기 서브이미지를 프로젝트하는 프로젝터의 수평 변위이고,
    LPS는 상기 프로젝터의 수직 변위이고,
    LO는 상기 관측자의 수평 변위이고,
    LOS는 상기 관측자의 수직 변위이고,
    ZOFF는 상기 프로젝션 스크린의 평균 두께이고,
    Z0는 상기 프로젝션 스크린의 평균 두께와 최대 두께 사이의 차이고,
    x는 상기 프로젝션 스크린의 표면에 따른 수평 변위이고,
    Figure 112010084966985-pct00027
    이고, 여기서 λP는 상기 법선 위치로 및 위치로부터 프로젝트되는 한 픽셀의 길이인 3차원 디스플레이 시스템.
  9. 청구항 9은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    변조 함수(602)를 상기 프로젝션 스크린(124)의 표면(310)으로 인코딩하는 것을 더 포함하는 3차원 디스플레이 시스템.
  10. 제1항에 있어서,
    상기 프로젝션 스크린(124)을 일정 속도로 스캐닝할 때 소정의 대상 편향각이 맞춰지도록 하기 위해 변조 함수(602)를 상기 프로젝션 스크린(124)의 표면(310)으로 인코딩하는 것을 더 포함하는 3차원 디스플레이 시스템.
  11. 청구항 11은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 적어도 한 관측자(132)와 비관측자들 사이를 구별하는 것; 및
    상기 적어도 한 관측자(132)에게만 이미지(114, 116)를 프로젝트(122)하는 것을 더 포함하는 3차원 디스플레이 시스템.
  12. 삭제
  13. 청구항 13은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 프로젝션 스크린에 대한 상기 눈(208, 210) 위치의 움직임을 추적하는 것을 더 포함하는 3차원 디스플레이 시스템.
  14. 제1항에 있어서,
    상기 프로젝션 스크린에 대한 상기 눈(208, 210) 위치의 움직임을 추적하는 것; 및
    홀로그램을 모방하는 이미지를 생성하도록 상기 추적된 움직임에 응답하여 상기 좌측 및 우측 서브 이미지(114, 116)를 조정하는 것을 더 포함하는 3차원 디스플레이 시스템.
  15. 청구항 15은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 서브 이미지(114, 116)를 변조하는 것(118, 120)은 상기 서브 이미지(114, 116)가 상기 관측자(132)의 눈(208, 210)에 도달하기 위해 조준되지 않을 때 상기 서브 이미지(114, 116)의 프로젝션을 마스킹(masking)하거나 게이팅(gating)하는 것을 더 포함하는 3차원 디스플레이 시스템.
  16. 청구항 16은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 변조하는 것(118, 120)은 상기 표면 함수(302)의 법선(212)과 상관하는 것을 더 포함하고;
    상기 프로젝션 스크린(124)을 향해 좌측 및 우측 3차원 서브 이미지(114, 116)를 프로젝트하는 것(122)은 그 법선(212) 위치로 및 위치로부터 그 순간에 프로젝트될 대응하는 픽셀에 대한 각각의 법선(212) 위치로 입사광 빔(304)을 프로젝트하는 것(122)을 더 포함하는 3차원 디스플레이 시스템.
  17. 제1항에 있어서,
    상기 프로젝션 스크린(124)을 향해 좌측 및 우측 3차원 서브 이미지(114, 116)를 프로젝트하는 것(122)은 그 법선(212) 위치로 및 위치로부터 그 순간에 프로젝트될 대응하는 픽셀에 대한 각각의 법선(212) 위치로 입사광 빔(304)을 프로젝트하는 것(122)을 더 포함하되, 상기 입사광 빔은 상기 픽셀(202)의 반사 지점 XL과 XR 사이의 거리보다 더 작은 폭을 갖는 3차원 디스플레이 시스템.
  18. 제1항에 있어서,
    개별적인 관측자들(132)을 유일하게 식별하는 것;
    개인화된 관측자(132) 선호도를 저장하는 것; 및
    그 관측자(132)와 연관된 상기 선호도에 따라 상기 관측자(132)의 경험을 커스터마이즈(customize)하는 것을 더 포함하는 3차원 디스플레이 시스템.
  19. 청구항 19은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    프로젝션 스크린(124)을 스캐닝하여 그 위치를 결정하고; 및
    결정된 상기 프로젝션 스크린(124) 위치에 따라 상기 변조(118, 120)를 조정함으로써,
    상기 프로젝션 스크린(124)을 자동적으로 정렬하고 상기 좌측 및 우측 서브 이미지(114, 116)를 프로젝트하는 것(122)을 더 포함하는 3차원 디스플레이 시스템.
  20. 청구항 20은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 프로젝션 스크린(124)의 위치를 결정하고;
    적어도 하나의 프로젝트된 서브 이미지를 소정의 위치로 리턴하는 적어도 하나의 프로젝션 각을 기록하며;
    이에 기초하여 상기 변조하는 것(118, 120)을 조정함으로써,
    상기 프로젝션 스크린(124)을 자동적으로 정렬하고 상기 좌측 및 우측 서브 이미지(114, 116)를 프로젝트하는 것(122)을 더 포함하는 3차원 디스플레이 시스템.
  21. 삭제
  22. 청구항 22은(는) 설정등록료 납부시 포기되었습니다.
    제1항에 있어서,
    상기 서브 이미지(114, 116)가 상기 적어도 한 관측자(132)에 대해 상기 적어도 한 관측자(132)의 실제 움직임보다 대응적으로 더 빨리 움직이게 함으로써 상기 적어도 한 관측자(132)의 외관상 움직임을 증가하여 홀로그래픽 가속 (holographic acceleration)을 제공하는 것을 더 포함하는 3차원 디스플레이 시스템.
  23. 삭제
  24. 3차원 디스플레이 시스템에 있어서,
    소정의 각 응답 반사 표면 함수(302)를 갖는 프로젝션 스크린(124); 및
    적어도 한 관측자(132)의 좌측 및 우측 눈(208, 210) 위치를 결정하는 장치(102, 110);
    상기 프로젝션 스크린(124)을 향해 좌측 및 우측 3차원 서브 이미지(114, 116)를 프로젝트하는 장치(122); 및
    상기 좌측 및 우측 서브 이미지(114, 116)를 실질적으로 배타적으로 상기 각각의 좌측 및 우측 눈(208, 210) 위치로 각각 지향하도록 상기 소정의 각 응답 반사 표면 함수(302)와 조정하여 각각 상기 서브 이미지(114, 116)를 변조하는 장치(118, 120)
    를 포함하는 3차원 디스플레이 시스템.
  25. 청구항 25은(는) 설정등록료 납부시 포기되었습니다.
    제24항에 있어서,
    인터랙티브, 관측자(132)에 의해 작동되는 제어 입력을 위한 피드백을 제공하기 위해 가상 체적(136)에서 소정의 관측자 특징을 추적하는 장치(102, 110)를 더 포함하고,
    소정의 관측자 특징은, 상기 적어도 한 관측자의 좌측 눈의 위치, 상기 적어도 한 관측자의 우측 눈의 위치, 상기 적어도 한 관측자의 좌측 어깨의 위치, 상기 적어도 한 관측자의 우측 어깨의 위치, 상기 적어도 한 관측자의 머리의 좌측의 위치, 상기 적어도 한 관측자의 머리의 우측의 위치 중 적어도 하나를 포함하는 3차원 디스플레이 시스템.
  26. 제24항에 있어서,
    관측자(132)가 추적되고 있는 대상 영역을 지나가기 위해 스캔 이미지 서브 프레임을 이용하는 장치(102, 110)를 더 포함하는 3차원 디스플레이 시스템.
  27. 제24항에 있어서,
    3차원 인터랙션을 위한 가상 체적(136)으로서 구성된 상기 프로젝션 스크린(124)의 전방에 소정의 가상 디스플레이 체적(136)을 더 포함하는 3차원 디스플레이 시스템.
  28. 제24항에 있어서,
    상기 서브 이미지(114, 116)를 변조하는 상기 장치(118, 120)는 상기 적어도 한 관측자(132)의 좌측 및 우측 눈(208, 210)으로의 광학 프로젝션을 제어하기 위해 상기 이미지(114, 116)를 턴온 및 턴오프하는 장치(118, 120)를 더 포함하는 3차원 디스플레이 시스템.
  29. 제24항에 있어서,
    상기 서브 이미지(114, 116)를 변조하는 상기 장치(118, 120)는 스캐닝 빔(304)의 스캔 속도를 변조하는 장치(118, 120)를 더 포함하는 3차원 디스플레이 시스템.
  30. 제24항에 있어서,
    다음 수학식
    Figure 112010084966985-pct00028
    을 이용하여 상기 표면 함수(302)의 법선(212)의 각을 결정하는 회로(102)를 더 포함하고, 상기 수학식에서,
    β는 상기 표면 함수의 법선의 각이고,
    Z0는 상기 프로젝션 스크린의 평균 두께와 최대 두께 사이의 차이고,
    x는 상기 프로젝션 스크린의 표면에 따른 수평 변위이고,
    Figure 112010084966985-pct00029
    이고, 여기서 λP는 상기 법선 위치로 및 위치로부터 프로젝트되는 한 픽셀의 길이인 3차원 디스플레이 시스템.
  31. 제24항에 있어서,
    다음 수학식
    Figure 112010084966985-pct00015
    을 이용하여 관측자(132)의 눈(208, 210)으로 반사 빔(306)을 조준하기 위해 올바른 상기 표면 함수(302)의 법선(212)의 각을 결정하는 회로(102)를 더 포함하고, 상기 수학식에서,
    OP는 상기 표면 함수의 법선의 각이고,
    O는 상기 프로젝션 스크린의 평면으로부터 측정된 반사된 광 빔의 각이고,
    P는 상기 프로젝션 스크린의 평면으로터 측정된 프로젝트된 광 빔의 각이고,
    LP는 상기 서브이미지를 프로젝트하는 프로젝터의 수평 변위이고,
    LPS는 상기 프로젝터의 수직 변위이고,
    LO는 상기 관측자의 수평 변위이고,
    LOS는 상기 관측자의 수직 변위이고,
    ZOFF는 상기 프로젝션 스크린의 평균 두께이고,
    Z0는 상기 프로젝션 스크린의 평균 두께와 최대 두께 사이의 차이고,
    x는 상기 프로젝션 스크린의 표면에 따른 수평 변위이고,
    Figure 112010084966985-pct00030
    이고, 여기서 λP는 상기 법선 위치로 및 위치로부터 프로젝트되는 한 픽셀의 길이인 3차원 디스플레이 시스템.
  32. 제24항에 있어서,
    상기 프로젝션 스크린(124)의 표면(310)으로 인코딩되는 변조 함수(602)를 더 포함하는 3차원 디스플레이 시스템.
  33. 제24항에 있어서,
    상기 프로젝션 스크린(124)을 일정 속도로 스캐닝할 때 소정의 대상 편향각이 맞춰지도록 하기 위해 상기 프로젝션 스크린(124)의 표면(310)으로 인코딩되는 변조 함수(602)를 더 포함하는 3차원 디스플레이 시스템.
  34. 제24항에 있어서,
    상기 적어도 한 관측자(132)와 비관측자들 사이를 구별하고; 및
    상기 적어도 한 관측자(132)에게만 이미지(114, 116)를 프로젝트하는(122) 장치(102, 110)를 더 포함하는 3차원 디스플레이 시스템.
  35. 삭제
  36. 제24항에 있어서,
    상기 프로젝션 스크린에 대한 상기 눈(208, 210) 위치의 움직임을 추적하는 장치(102, 110)를 더 포함하는 3차원 디스플레이 시스템.
  37. 제24항에 있어서,
    상기 프로젝션 스크린에 대한 상기 눈(208, 210) 위치의 움직임을 추적하고;
    홀로그램을 모방하는 이미지를 생성하도록 상기 추적된 움직임에 응답하여 상기 좌측 및 우측 서브 이미지(114, 116)를 조정하는 장치(102, 110)를 더 포함하는 3차원 디스플레이 시스템.
  38. 제24항에 있어서,
    상기 서브 이미지(114, 116)를 변조하는 장치(118, 120)는, 상기 서브 이미지(114, 116)가 상기 관측자(132)의 눈(208, 210)에 도달하기 위해 조준되지 않을 때 상기 서브 이미지(114, 116)의 프로젝션을 마스킹하거나 게이팅하는 장치(118, 120)를 더 포함하는 3차원 디스플레이 시스템.
  39. 제24항에 있어서,
    상기 변조하는 장치(118, 120)는 상기 표면 함수(302)의 법선(212)과 상관하는 장치를 더 포함하고;
    상기 프로젝션 스크린(124)을 향해 좌측 및 우측 3차원 서브 이미지(114, 116)를 프로젝트하는 장치(122)는 그 법선(212) 위치로 및 위치로부터 그 순간에 프로젝트될 대응하는 픽셀에 대한 각각의 법선(212) 위치로 입사광 빔(304)을 프로젝트하는 장치(122)를 더 포함하는 3차원 디스플레이 시스템.
  40. 제24항에 있어서,
    상기 프로젝션 스크린(124)을 향해 좌측 및 우측 3차원 서브 이미지(114, 116)를 프로젝트하는 장치(122)는 그 법선(212) 위치로 및 위치로부터 그 순간에 프로젝트될 대응하는 픽셀에 대한 각각의 법선(212) 위치로 입사광 빔(304)을 프로젝트하는 장치(122)를 더 포함하되, 상기 입사광 빔은 상기 픽셀(202)의 반사 지점 XL과 XR 사이의 거리보다 더 작은 폭을 갖는 3차원 디스플레이 시스템.
  41. 제24항에 있어서,
    개별적인 관측자들(132)을 유일하게 식별하고;
    개인화된 관측자(132) 선호도를 저장하고;
    그 관측자(132)와 연관된 상기 선호도에 따라 상기 관측자(132)의 경험을 커스터마이즈하는 장치(102, 110)를 더 포함하는 3차원 디스플레이 시스템.
  42. 제24항에 있어서,
    프로젝션 스크린(124)을 스캐닝하여 그 위치를 결정하고; 및
    결정된 상기 프로젝션 스크린(124) 위치에 따라 상기 변조하기 위해 상기 장치(118, 120)를 조정함으로써,
    상기 프로젝션 스크린(124)을 자동적으로 정렬하는 장치(102, 110) 및 상기 좌측 및 우측 서브 이미지(114, 116)를 프로젝트하는 장치(122)를 더 포함하는 3차원 디스플레이 시스템.
  43. 제24항에 있어서,
    상기 프로젝션 스크린(124)의 위치를 결정하고;
    적어도 하나의 프로젝트된 서브 이미지를 소정의 위치로 리턴하는 적어도 하나의 프로젝션 각을 기록하고;
    이에 기초하여 상기 변조하기 위해 상기 장치(118, 120)를 조정함으로써,
    상기 프로젝션 스크린(124)을 자동적으로 정렬하는 장치(102, 110) 및 상기 좌측 및 우측 서브 이미지(114, 116)를 프로젝트하는 장치(122)를 더 포함하는 3차원 디스플레이 시스템.
  44. 삭제
  45. 제24항에 있어서,
    상기 서브 이미지(114, 116)가 상기 적어도 한 관측자(132)에 대해 상기 적어도 한 관측자(132)의 실제 움직임보다 대응적으로 더 빨리 움직이게 함으로써 상기 적어도 한 관측자(132)의 외관상 움직임을 증가하여 홀로그래픽 가속 (holographic acceleration)을 생성하는 장치(102, 110)를 더 포함하는 3차원 디스플레이 시스템.
  46. 삭제
KR1020097005689A 2006-09-20 2007-09-20 3차원 디스플레이 시스템 KR101057617B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/533,580 US7843449B2 (en) 2006-09-20 2006-09-20 Three-dimensional display system
US11/533,580 2006-09-20
PCT/US2007/079101 WO2008070246A2 (en) 2006-09-20 2007-09-20 Three-dimensional display system

Publications (2)

Publication Number Publication Date
KR20090045938A KR20090045938A (ko) 2009-05-08
KR101057617B1 true KR101057617B1 (ko) 2011-08-19

Family

ID=39188095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097005689A KR101057617B1 (ko) 2006-09-20 2007-09-20 3차원 디스플레이 시스템

Country Status (6)

Country Link
US (2) US7843449B2 (ko)
EP (1) EP2064895A2 (ko)
JP (1) JP5214616B2 (ko)
KR (1) KR101057617B1 (ko)
CN (2) CN102143374B (ko)
WO (1) WO2008070246A2 (ko)

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE524053T1 (de) * 2007-03-01 2011-09-15 Koninkl Philips Electronics Nv Computergesteuertes beleuchtungssystem
US8237779B2 (en) * 2008-04-04 2012-08-07 Texas Instruments Incorporated Coding scheme for digital video signals and an image architecture using the same
US8456516B2 (en) * 2008-07-01 2013-06-04 Barco N.V. Methods and systems for stereoscopic imaging
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
WO2010058362A1 (en) * 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. Extending 2d graphics in a 3d gui
US8686951B2 (en) 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
EP2471268B1 (en) 2009-08-25 2014-10-08 Dolby Laboratories Licensing Corporation 3d display system
TWI392952B (zh) * 2009-09-03 2013-04-11 Nat Univ Tsing Hua 多視角攝像方法及系統
US9122066B2 (en) * 2009-10-30 2015-09-01 Hewlett-Packard Development Company, L.P. Stereo display systems
US8610761B2 (en) 2009-11-09 2013-12-17 Prohectionworks, Inc. Systems and methods for optically projecting three-dimensional text, images and/or symbols onto three-dimensional objects
US20110199342A1 (en) 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20130057663A1 (en) * 2010-04-30 2013-03-07 Alexandre M. Bratkovski Image viewing systems with dynamically reconfigurable screens for three-dimensional viewing
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9032470B2 (en) * 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9141189B2 (en) 2010-08-26 2015-09-22 Samsung Electronics Co., Ltd. Apparatus and method for controlling interface
US9466148B2 (en) * 2010-09-03 2016-10-11 Disney Enterprises, Inc. Systems and methods to dynamically adjust an image on a display monitor represented in a video feed
US20120105805A1 (en) * 2010-11-01 2012-05-03 Huei Pei Kuo Image viewing systems with curved screens
US8459797B2 (en) * 2010-11-01 2013-06-11 Hewlett-Packard Development Company, L.P. Image viewing systems with an integrated screen lens
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
JP5289416B2 (ja) * 2010-11-10 2013-09-11 株式会社東芝 立体画像表示装置、方法およびプログラム
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
US9329469B2 (en) * 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US8743244B2 (en) 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
JP2012222386A (ja) * 2011-04-04 2012-11-12 Sony Corp 表示制御装置および方法、並びにプログラム
KR20120132912A (ko) * 2011-05-30 2012-12-10 삼성전자주식회사 다중 표시 모드를 지원하는 단말기 및 이의 구동 방법
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
DE102011077421A1 (de) * 2011-06-10 2012-12-13 Airbus Operations Gmbh Verfahren und Vorrichtung zum Darstellen von Informationen mittels eines autostereoskopischen 3D-Displays in einer Passagierkabine eines Luft- oder Raumfahrzeuges
DE102011077345B4 (de) 2011-06-10 2019-08-29 Airbus Operations Gmbh Verfahren und Vorrichtung zum Darstellen von Informationen mittels eines Dual-View-Displays in einer Passagierkabine eines Luft- oder Raumfahrzeuges
US8964008B2 (en) 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
TWI428633B (zh) * 2011-08-22 2014-03-01 Wistron Corp 用來調整立體影像顯示模組之立體影像顯示的方法及其立體影像顯示模組
US9165401B1 (en) 2011-10-24 2015-10-20 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
US9113043B1 (en) * 2011-10-24 2015-08-18 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
US20130107022A1 (en) * 2011-10-26 2013-05-02 Sony Corporation 3d user interface for audio video display device such as tv
US20130145272A1 (en) * 2011-11-18 2013-06-06 The New York Times Company System and method for providing an interactive data-bearing mirror interface
FR2983330B1 (fr) * 2011-11-24 2014-06-20 Thales Sa Procede et dispositif de representation d'environnements synthetiques
CN103139581A (zh) * 2011-11-30 2013-06-05 四川长虹电器股份有限公司 一种偏光3d液晶电视重影消除方法
CN102522029A (zh) * 2011-12-06 2012-06-27 公安部交通管理科学研究所 行人和非机动车交通违法警示教育体验***的构建方法
US20130141784A1 (en) * 2011-12-06 2013-06-06 Christopher J. White Stereoscopic display system using illumination detector
JP2013121031A (ja) * 2011-12-07 2013-06-17 Sony Corp 表示装置および方法、並びにプログラム
WO2013127401A1 (fr) * 2012-02-27 2013-09-06 Belarbi Zahmani Kheirddine Systeme hologramme
CN103324327B (zh) * 2012-03-22 2016-04-06 深圳泰山在线科技有限公司 虚拟屏实现方法和***
JP6224068B2 (ja) 2012-03-27 2017-11-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 複数の観視者用の3dディスプレイ
CN103456235A (zh) * 2012-05-31 2013-12-18 苏州萃智新技术开发有限公司 一种地球仪
US8754829B2 (en) * 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
CN102780900B (zh) * 2012-08-09 2014-12-10 冠捷显示科技(厦门)有限公司 一种多人多视角立体显示器影像显示方法
TWI458530B (zh) * 2012-08-20 2014-11-01 Au Optronics Corp 娛樂顯示系統及其互動式立體顯示方法
US8902160B2 (en) * 2012-08-24 2014-12-02 Reincloud Corporation Reducing distortion in an image source comprising a parallax barrier
JP5395934B1 (ja) * 2012-08-31 2014-01-22 株式会社東芝 映像処理装置および映像処理方法
FR2996494A1 (fr) * 2012-10-08 2014-04-11 Jean Baptiste Chaumette Dispositif pour les enfants permettant de dessiner des images a main levee puis de les visionner pour les animer
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
US9584797B2 (en) 2012-10-31 2017-02-28 Elwha Llc Systems and methods to confirm that an autostereoscopic display is accurately aimed
CN103869758A (zh) * 2012-12-11 2014-06-18 苏州安答软件有限公司 一种适用于智能机房管理的3d全景展示***
US20150177608A1 (en) * 2013-02-01 2015-06-25 Jeremy Richard Nelson Auto stereoscopic projector screen
CN103149787A (zh) * 2013-03-13 2013-06-12 桂林理工大学 一种主动式任意方位三维立体投影方法
CN103135331A (zh) * 2013-03-13 2013-06-05 桂林理工大学 一种主动式任意方位三维立体投影装置
TWI637348B (zh) * 2013-04-11 2018-10-01 緯創資通股份有限公司 影像顯示裝置和影像顯示方法
US9245388B2 (en) 2013-05-13 2016-01-26 Microsoft Technology Licensing, Llc Interactions of virtual objects with surfaces
US10349031B2 (en) * 2013-07-28 2019-07-09 Michael J. DeLuca Augmented reality based user interfacing
CN103489338A (zh) * 2013-09-29 2014-01-01 国家电网公司 一种三维场景投影播放器
US9875496B2 (en) 2013-10-29 2018-01-23 Ebay Inc. Product schematics collection and projection
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
TWI507015B (zh) * 2014-02-20 2015-11-01 Au Optronics Corp 三維影像之調整方法及採用此方法之三維顯示器
WO2015180645A1 (en) 2014-05-27 2015-12-03 Mediatek Inc. Projection processor and associated method
CN104394394A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 一种实现全息图像显示的三维显示方法、装置及***
CN104394395A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 一种能够改变扫描频率的全息图像显示方法、装置及***
CN104394393A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 同时为多个观察者提供全息图像的显示方法、装置及***
CN104410853A (zh) * 2014-10-20 2015-03-11 深圳市亿思达科技集团有限公司 一种基于透射的三维全息显示***
CN104410852A (zh) * 2014-10-20 2015-03-11 深圳市亿思达科技集团有限公司 一种基于反射的三维全息显示***
CN104503092B (zh) * 2014-11-28 2018-04-10 深圳市魔眼科技有限公司 不同角度和距离自适应的三维显示方法及设备
TWI556625B (zh) * 2015-05-12 2016-11-01 台達電子工業股份有限公司 投影設備
US10139719B2 (en) * 2015-06-11 2018-11-27 Konica Minolta, Inc. Aerial image display device
US10176553B2 (en) 2015-06-26 2019-01-08 Sony Corporation Image processing system with three-dimensional viewing and method of operation thereof
CA3018604C (en) 2016-04-12 2023-11-07 Quidient, Llc Quotidian scene reconstruction engine
CN107305697B (zh) * 2016-04-22 2021-04-02 北京仿真中心 一种基于显卡dvi接口的目标模拟器实时驱动***及方法
US11058504B2 (en) 2016-06-03 2021-07-13 Covidien Lp Control arm assemblies for robotic surgical systems
EP3463161A4 (en) * 2016-06-03 2020-05-20 Covidien LP SYSTEMS, METHODS, AND COMPUTER READABLE INFORMATION MEDIUM FOR CONTROLLING ASPECTS OF A ROBOTIC SURGICAL DEVICE AND STEREOSCOPIC DISPLAY ADAPTING TO THE OBSERVER
US10091496B2 (en) 2016-11-28 2018-10-02 X Development Llc Systems, devices, and methods for calibrating a light field projection system
US9955144B2 (en) 2016-12-11 2018-04-24 Lightscope Media, Llc 3D display system
US9762892B2 (en) 2016-12-11 2017-09-12 Lightscope Media, Llc Auto-multiscopic 3D display and camera system
US10290152B2 (en) 2017-04-03 2019-05-14 Microsoft Technology Licensing, Llc Virtual object user interface display
WO2019213450A1 (en) 2018-05-02 2019-11-07 Quidient, Llc A codec for processing scenes of almost unlimited detail
CN108663890A (zh) * 2018-05-08 2018-10-16 深圳市华星光电技术有限公司 基于镜面显示的3d投影屏幕及3d投影显示装置
US10846923B2 (en) 2018-05-24 2020-11-24 Microsoft Technology Licensing, Llc Fusion of depth images into global volumes
CN109697957B (zh) * 2019-01-07 2020-11-03 京东方科技集团股份有限公司 图像像素校正方法及***
US11212514B2 (en) 2019-03-25 2021-12-28 Light Field Lab, Inc. Light field display system for cinemas
CN109916331B (zh) * 2019-03-26 2022-01-11 中国科学院光电技术研究所 一种基于复合光栅的结构光微纳结构三维检测方法
CN110568715A (zh) * 2019-09-30 2019-12-13 宁波元年文化传媒有限公司 立体球体表面全覆盖投影装置
US20220086404A1 (en) * 2020-09-17 2022-03-17 Iview Displays (Shenzhen) Company Ltd. Dynamic projection method for target tracking and a dynamic projection equipment
US20230281955A1 (en) 2022-03-07 2023-09-07 Quidient, Llc Systems and methods for generalized scene reconstruction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040252187A1 (en) * 2001-09-10 2004-12-16 Alden Ray M. Processes and apparatuses for efficient multiple program and 3D display
WO2004111913A2 (en) 2003-05-28 2004-12-23 Alden Ray M Multiple program display with 3-d application

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2086556A (en) * 1934-01-11 1937-07-13 Jacobson Beatrice Projection screen for obtaining stereoscopic effects
US2804801A (en) * 1951-11-23 1957-09-03 William T Snyder Projection screens
US3026770A (en) * 1958-04-02 1962-03-27 Rowe E Carney Jr Curved projection screen
US4649425A (en) 1983-07-25 1987-03-10 Pund Marvin L Stereoscopic display
US5065236A (en) 1990-11-02 1991-11-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects
US5024521A (en) * 1990-11-19 1991-06-18 Larry Zuchowski Autostereoscopic presentation system
US5311220A (en) * 1992-06-10 1994-05-10 Dimension Technologies, Inc. Autostereoscopic display
JPH07140570A (ja) * 1993-11-15 1995-06-02 Matsushita Electric Ind Co Ltd 3次元ディスプレイ装置及びその駆動方法
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JPH0968674A (ja) * 1995-09-01 1997-03-11 Tsushin Hoso Kiko 3次元画像表示装置
US6061179A (en) * 1996-01-23 2000-05-09 Canon Kabushiki Kaisha Stereoscopic image display apparatus with two-/three-dimensional image display switching function
US6023277A (en) * 1996-07-03 2000-02-08 Canon Kabushiki Kaisha Display control apparatus and method
US6310733B1 (en) 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
DE19641480A1 (de) * 1996-10-09 1998-04-30 Tan Helmut Verfahren zur stereoskopischen Projektion von 3D-Bilddarstellungen auf einer Bildanzeigeeinrichtung
JP3397602B2 (ja) * 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
JP3526157B2 (ja) 1996-12-24 2004-05-10 株式会社日立製作所 指向性反射スクリーンおよび画像表示装置
JPH10268231A (ja) 1997-03-26 1998-10-09 Philips Japan Ltd 立体画像表示装置
JP3255087B2 (ja) * 1997-06-23 2002-02-12 株式会社エム・アール・システム研究所 立体画像表示装置
AUPO884297A0 (en) * 1997-08-27 1997-09-18 Orme, Gregory Michael Imaging devices
US6533420B1 (en) 1999-01-22 2003-03-18 Dimension Technologies, Inc. Apparatus and method for generating and projecting autostereoscopic images
JP2000338605A (ja) * 1999-05-28 2000-12-08 Hitachi Ltd 指向性反射スクリーンおよび画像表示装置
US6985290B2 (en) 1999-12-08 2006-01-10 Neurok Llc Visualization of three dimensional images and multi aspect imaging
AU2001262560A1 (en) * 2000-05-19 2001-11-26 Tibor Balogh Method and apparatus for displaying 3d images
EP1329759A4 (en) 2000-08-30 2005-05-25 Japan Science & Tech Agency SYSTEM FOR PRESENTING 3D IMAGES
WO2002042999A2 (en) 2000-11-03 2002-05-30 Actuality Systems, Inc. Three-dimensional display systems
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
KR100783358B1 (ko) 2001-04-27 2007-12-07 엘지.필립스 엘시디 주식회사 입체영상 표시장치 및 제조방법
WO2003050611A1 (en) 2001-12-11 2003-06-19 New York University Searchable lightfield display
JP2005515487A (ja) * 2002-01-04 2005-05-26 ニューローケイ・エルエルシー 再帰反射スクリーンを使用した3次元画像投影
US7224382B2 (en) 2002-04-12 2007-05-29 Image Masters, Inc. Immersive imaging system
JP4147054B2 (ja) * 2002-05-17 2008-09-10 オリンパス株式会社 立体観察装置
GB2393344A (en) 2002-09-17 2004-03-24 Sharp Kk Autostereoscopic display
US20040263969A1 (en) * 2002-11-25 2004-12-30 Lenny Lipton Lenticular antireflection display
US20060012542A1 (en) 2004-07-03 2006-01-19 Alden Ray M Multiple program and 3D display screen and variable resolution apparatus and process
JP2006023599A (ja) * 2004-07-09 2006-01-26 Ts Photon:Kk 2d/3d切換式ディスプレイシステム
US20060109200A1 (en) 2004-11-22 2006-05-25 Alden Ray M Rotating cylinder multi-program and auto-stereoscopic 3D display and camera
JP4871539B2 (ja) * 2005-07-25 2012-02-08 キヤノン株式会社 立体像表示装置
US7583437B2 (en) * 2005-12-08 2009-09-01 Real D Projection screen with virtual compound curvature
DE102006004301A1 (de) * 2006-01-20 2007-08-02 Seereal Technologies S.A. Holographische Projektionsvorrichtung zur Vergrößerung eines Rekonstruktionsbereichs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040252187A1 (en) * 2001-09-10 2004-12-16 Alden Ray M. Processes and apparatuses for efficient multiple program and 3D display
WO2004111913A2 (en) 2003-05-28 2004-12-23 Alden Ray M Multiple program display with 3-d application

Also Published As

Publication number Publication date
US7843449B2 (en) 2010-11-30
US9300951B2 (en) 2016-03-29
CN102143374A (zh) 2011-08-03
CN101518096B (zh) 2011-06-22
KR20090045938A (ko) 2009-05-08
WO2008070246A3 (en) 2008-11-06
US20100118118A1 (en) 2010-05-13
EP2064895A2 (en) 2009-06-03
JP2010503899A (ja) 2010-02-04
JP5214616B2 (ja) 2013-06-19
US20080068372A1 (en) 2008-03-20
CN101518096A (zh) 2009-08-26
CN102143374B (zh) 2013-07-17
WO2008070246A2 (en) 2008-06-12

Similar Documents

Publication Publication Date Title
KR101057617B1 (ko) 3차원 디스플레이 시스템
US8199186B2 (en) Three-dimensional (3D) imaging based on motionparallax
US8570372B2 (en) Three-dimensional imager and projection device
KR20220093144A (ko) 눈 추적기를 통합하는 라이트 필드 디스플레이 및 눈 추적 정보를 사용하여 라이트 필드 디스플레이에 대한 뷰를 생성하기 위한 방법
US20180182174A1 (en) Switchable virtual reality and augmented/mixed reality display device, and light field methods
US20160301260A1 (en) Three-dimensional imager and projection device
US20150312561A1 (en) Virtual 3d monitor
US20140327748A1 (en) Rendering for an interactive 360 degree light field display
US20130113891A1 (en) Parallax scanning methods for stereoscopic three-dimensional imaging
JP2005515487A (ja) 再帰反射スクリーンを使用した3次元画像投影
JP2012079291A (ja) プログラム、情報記憶媒体及び画像生成システム
WO2016201015A1 (en) Display for stereoscopic augmented reality
Luo et al. Pepper's Cone: An Inexpensive Do-It-Yourself 3D Display
JPH09238369A (ja) 3次元像表示装置
US20230077212A1 (en) Display apparatus, system, and method
US11710273B2 (en) Image processing
CN108701440B (zh) 信息处理设备、信息处理方法和程序
EP3881281A1 (en) System and method for processing images for display apparatus
CN114503014A (zh) 使用基于透镜的可操控背光的多视立体显示器
CN106772821B (zh) 一种可交互裸眼3d***
JP2585614B2 (ja) 立体画像出力装置
JP5263244B2 (ja) 立体表示装置
JP6601392B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
WO2023136073A1 (ja) 画像表示装置および画像表示方法
KR101032753B1 (ko) 힘 반력 시스템의 스테레오 스코프 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140722

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150716

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160720

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170719

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180718

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190718

Year of fee payment: 9