KR101013086B1 - 장면 물체의 위치 조작을 통한 시차 스캐닝 시스템 및 방법 - Google Patents

장면 물체의 위치 조작을 통한 시차 스캐닝 시스템 및 방법 Download PDF

Info

Publication number
KR101013086B1
KR101013086B1 KR1020057009553A KR20057009553A KR101013086B1 KR 101013086 B1 KR101013086 B1 KR 101013086B1 KR 1020057009553 A KR1020057009553 A KR 1020057009553A KR 20057009553 A KR20057009553 A KR 20057009553A KR 101013086 B1 KR101013086 B1 KR 101013086B1
Authority
KR
South Korea
Prior art keywords
virtual
parallax
scene
image
computer
Prior art date
Application number
KR1020057009553A
Other languages
English (en)
Other versions
KR20050087803A (ko
Inventor
마이클 비 마틴
Original Assignee
비젼 Ⅲ 이미징 인코퍼레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비젼 Ⅲ 이미징 인코퍼레이티드 filed Critical 비젼 Ⅲ 이미징 인코퍼레이티드
Publication of KR20050087803A publication Critical patent/KR20050087803A/ko
Application granted granted Critical
Publication of KR101013086B1 publication Critical patent/KR101013086B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명의 일 태양은 컴퓨터를 사용하여 가상의 무안경 이미지를 만드는 방법을 포함한다. 상기 방법은 가상의 3차원 공간에 적어도 하나의 물체를 정의하는 단계 및 가상의 뷰 포인트를 정의하는 단계를 포함할 수 있다. 이미지는 적어도 하나의 물체의 시차 스캐닝 이동을 시뮬레이션함으로써 만들어질 수 있다. 만들어진 이미지는 디스플레이되고 저장될 수 있다.
Figure 112005027859112-pct00001
가상의 무안경 이미지, 가상 뷰 포인트, 시차 스캐닝

Description

장면 물체의 위치 조작을 통한 시차 스캐닝 시스템 및 방법{Parallax Scanning Through Scene Object Position Manipulation}
본 발명은 2002년 11월 27일자로 출원된 미국 가명세서 제60/429.358호의 우선권을 주장하며, 상기 문헌은 참조문헌으로서 본 명세서에 합체된다.
본 발명은 시각기술분야에 관한 것으로, 보다 상세하게는 시차 스캐닝(parallax scanning)을 사용하여 무안경 3D 컴퓨터 그래픽 이미지를 만들고 디스플레이하는 시스템 및 방법에 관한 것이다.
3차원 착시를 제공하도록 디스플레이될 수 있는 2차원 이미지의 제작은 시각기술분야의 오랜 목표였다. 이러한 3차원 착시를 만들기 위한 방법 및 장치는 인간의 깊이 인식(depth perception)에 대한 생리학의 증가된 이해 뿐만 아니라 아날로그/디지털 신호처리 및 컴퓨터 이미징 소프트웨어를 통한 이미지 조작에서의 발전에 어느 정도 부합했다.
쌍안용(binocular)(즉, 스테레오(stereo)) 시각은 시각필드를 중첩하며 동일한 방향으로 보는 2개의 눈을 필요로 한다. 각각의 눈은 약간 다른 각도로 장면을 보고, 상기 장면을 신경세포 또는 뉴런(neuron)을 따라 늘어선 안구 뒤쪽의 오목한 면인 망막(retina)상에 초점을 맞춘다. 각 눈으로부터의 2차원 망막 이미지들은 광 신경을 따라 뇌의 시각피질(visual cortex)로 전송되고, 상기 시각피질에서 상기 장면의 인식된 3차원 모델을 형성하도록, 입체시(stereopsis)로서 알려진 처리로, 이미지들이 조합된다.
3차원 공간의 인식은, 예를 들어, 단안의 큐(monocular cues) 및 양안의 큐를 포함하여 보여지는 장면에서의 다양한 종류의 정보에 따른다. 단안의 큐는 상대 크기, 선형 원근법, 개입(interposition), 및 명암과 같은 요소들을 포함한다. 양안의 큐는 망막 불일치(retina disparity), 원근 조절(accommodation), 수렴 및 정통한 큐(예를 들어, 주제와의 친밀함)를 포함한다. 이들 모든 요인들은 장면에서 3차원 공간의 인식을 만드는데 기여할 수 있는 한편, 망막 불일치는 3차원 인식을 만들기 위한 가장 중요한 정보원중 하나를 제공할 수 있다. 특히, 망막 불일치는 뇌의 제공되는 시차 정보(prallax information)(즉, 위치, 운동 방향, 또는 다른 관찰위치에 의해 야기된 물체의 다른 시각적 특징에서의 명백한 변화)를 생성한다. 각 눈은 다른 관찰위치를 가지기 때문에, 각 눈은 동일한 장면에 대해 약간 다른 시각을 제공할 수 있다. 시각들 간의 차이는 뇌가 장면의 3차원적 측면을 인식하는데 사용될 수 있는 시차 정보를 나타낸다.
수신된 시각 정보에서 단안의 깊이 큐와 시차 정보 사이에 차이가 존재한다. 양 눈은 본질적으로 동일한 단안의 깊이 큐를 제공하지만, 각각은 진정한 3차원 보기에 필수적인 차이인 다른 시차 깊이 정보를 제공한다.
깊이 정보는, 어느 정도까지는, 2차원 이미지로 인식될 수 있다. 예를 들어, 스틸 사진(still photograph), 그림(painting), 표준 텔레비젼 및 영화를 볼 때 또 는 한쪽 눈을 감은 채 장면을 볼 때, 단안의 깊이가 인식될 수 있다. 단안의 깊이는 양안의 시차 깊이 정보의 이점없이도 인식될 수 있다. 이러한 깊이 관계는 상대 크기, 중첩, 원근감 및 음영과 같은 단안의 깊이 큐로부터 뇌에 의해 해석된다. 2차원 이미지로부터 단안의 깊이 정보를 해석하기(즉, 단안의 큐를 사용하여 2차원 평면상에 3차원 공간을 나타내도록 하는 것) 위해, 시청자(viewer)는 실제로 유년기에 학습된 과정을 통해 이미지에서 깊이 정보를 읽는다.
3차원 이미지는 통상적으로 3D 또는 3차원이라고 하는 컴퓨터로 만든 이미지와는 다를 수 있다. 특히, 용어 3차원(3D)은 과거 수년에 걸친 컴퓨터-이미징 산업에 의해 원근법, 음영, 반사 및 동작을 이용하는 깊이 큐를 사용하여 제작된 이미지를 포함하도록 확장되었다. 이들 이미지는 놀랄 만한 결과들로 보여질 수 있으나, 그럼에도 불구하고 진정한 3차원 이미지에서 발견되는 시차 깊이 정보가 부족하기 때문에 2차원이다.
진정한 3차원 이미지를 생성 및/또는 디스플레이하는 여러 시스템 및 방법이 있다. 이들 방법들은 입체영상(stereo-scopic image) 디스플레이 방법 및 무안경 디스플레이 방법의 2개의 주요 카테고리로 양분될 수 있다. 입체경(stereoscopes), 편광, 애너글리픽(anaglyphic), 펄프리치(Pulfrich), 및 셔터링(schuttering) 기술을 포함하는 입체영상 기술은 시청자가, 예를 들어, 안경과 같은 특수 시청장치를 써야하는 것을 필요로 한다. 홀로그래피(holography), 렌티큘러 스크린(lenticular screen), 및 시차 장벽(parallax barriers)등과 같은 무안경 디스플레이 기술은 특수 안경을 사용하지 않고도 3차원 착시를 갖는 이미지를 만들지만, 이들 방법은 일 반적으로 특수 스크린의 사용을 필요로 한다.
어떤 다른 시스템 및 방법은 시차 스캐닝 정보를 사용하여 종래 디스플레이상에 볼 때에도 시청자가 이미지를 3차원으로 인식하게 하는 무안경 디스플레이를 만들게 할 수 있다. 예를 들어, 적어도 한 방법은 한대의 카메라가 시차 스캐닝 운동을 하면서 이미지를 기록하는 것이 제안되었다. 따라서, 한대의 카메라의 광축은 상기 카메라의 광축이 공칭 정상축으로부터 오프셋되도록 하는 반복 패턴으로 이동되게 할 수 있다. 이 오프셋이 시차 정보를 만든다. 카메라 광축의 이동을 시차 스캐닝 이동이라 한다. 이 이동은 광축의 이동이 패턴을 통해 반복됨에 따라 진동한다. 임의의 특정한 순간에, 상기 이동은 시차 스캔 각도면에서 기술될 수 있다.
시차 정보에 기초한 무안경 디스플레이를 만들기 위해, 스캐닝 이동동안 포착된 이미지가 순차적으로 디스플레이될 수 있다. 이들 이미지는 예를 들어, 약 3Hz 내지 약 6Hz의 보기 싸이클 속도로 디스플레이될 수 있다. 이 빈도는 시차 이미지 보기가 연이어 교번되는 속도를 나타내다. 이 디스플레이되는 시차 이미지의 시퀀스가 3차원 정보를 시청자에게 전달하는 무안경 디스플레이를 제공할 수 있다.
시차 정보는 또한 컴퓨터로 만들어진 이미지에 합체될 수 있다. 예를 들어, 본 명세서에 참조문헌으로 합체된 미국특허 제6,324,347호(이하 "상기 '347특허")는 가상렌즈를 구비한 가상 카메라를 사용하여 컴퓨터로 시차 이미지를 만드는 방법을 개시하고 있다. 시차 이미지는 렌즈 개구의 소정의 시차 스캐닝 패턴을 시뮬레이션함으로써 만들어질 수 있고, 예를 들어, 광선 추적 알고리즘(ray tracing algorithm)이 이미지를 만드는데 사용될 수 있다. 이미지는 프레임 단위(frame-by- frame) 기반으로 컴퓨터 메모리에 저장될 수 있다. 이미지는 컴퓨터 모니터상에 디스플레이를 위한 메모리로부터 검색, TV 스크린 상에 디스플레이를 위한 비디오 테이프상에 기록, 및/또는 스크린 상에 프로젝션을 위한 필름상에 기록될 수 있다.
따라서, 상기 '347특허의 방법에서, 카메라의 뷰 포인트(the point of view)(예를 들어, 렌즈개구)가 상기 시차 스캐닝 정보를 만들기 위해 이동된다. 상기 '347특허의 방법의 일실시예에 의해 사용될 수 있는 바와 같은 이미지 생성 광추적(ray tracing) 방법은 영화 특수효과에 사용된 이미지와 같은 고품질의 컴퓨터 이미지를 만드는데 사용될 수 있다. 그러나, 필드 변화의 깊이와 같은 광학적 효과를 시뮬레이션하기 위해 이러한 광추적 방법을 사용하는 것은 많은 양의 계산을 필요로 할 수 있고 처리 자원에 심한 부담을 지울 수 있다. 따라서, 이러한 광추적 방법은 빠른 응답을 필요로 하는 3D 컴퓨터 게임, 에니메이션, 및 다른 그래픽 애플리케이션과 같은 소정의 애플리케이션에 대해 비현실적일 수 있다.
가상렌즈의 이동을 시뮬레이션함으로써 시차 이미지 정보를 생성하는 것은, 어떤 상황에서는, 디스플레이된 시차 이미지에 불안정(instability)을 만들 수 있다. 도 1a 및 도 1b는 시차정보를 만들기 위한 상기 '347 특허에 사용된 방법의 일실시예를 도시한 것이다. 도 1a는 3개의 물체 A, B, 및 C가 카메라(11)의 광축(20)상에 있는 상태를 도시한 것이다. 상기 '347 특허의 방법은 시차정보를 만들기 위해 카메라(11)의 뷰 포인트(예를 들어, 렌즈 위치)를 이동시키는 것을 포함한다. 예를 들어, 도 1b에 도시된 바와 같이, 카메라(11)는 도 1a에서의 원래 위치에 대해 이동되었다. 그 결과, 수렴면(10)상에 위치된 수렴점(12)의 전후에 있는 물체가 광축(20)에 대해 이동되게 보인다. 특히, 수렴점(12)의 앞에 있는 물체 A가 한 방향으로 이동되게 보이며, 물체 C는 상기 물체 A의 이동방향으로부터 반대 방향으로 광축(20)에 대해 이동되게 보인다.
뷰 포인트가 이동되는 상기 '347 특허의 방법에서, 물체 A 및 C는 렌즈로부터의 각 거리에 따라 선형으로 이동되게 보인다. 도 2a에 도시된 바와 같이, 수렴점(12) 너머에 위치된 물체는 뷰 포인트로부터 거리가 증가함에 따라 선형으로 증가하는 시차 오프셋의 양을 받아들이게 된다. 그러나, 이러한 성질은 디스플레이된 시차 이미지에 불안정을 야기할 수 있다. 특히, 디스플레이 시차 이미지에서, 뷰 포인트로부터 멀리 있는 물체는 상기 뷰 포인트에 가까이 있는 물체에 비하여 큰 거리만큼 이동되게 보인다. 뷰 포인트로부터 더 멀리 있는 물체는 뷰 포인트에 더 가까운 물체보다 열등한 깊이 정보를 제공하기 때문에, 멀리 있는 물체의 이동이 덜 중요해지며 심지어 이미지 불안정(예를 들어, 연이은 시차 이미지 프레임 사이의 물체 이동에 의해 야기된 지터(jitter) 효과)을 초래할 수 있다. 어떤 상황에서는, 상기 '347 특허의 방법을 사용한(예를 들어, 시차 정보를 만들기 위해 가상 뷰 포인트를 이동하여), 깊이 양단에서의 물체 안정성에 대한 직접적인 제어는 비현실적일 수 있다.
본 발명은 종래 기술과 연관된 하나 이상의 문제를 극복하기 위한 것이다.
본 발명의 일 태양은 컴퓨터를 사용하여 가상의 무안경 이미지를 만드는 방법을 포함한다. 상기 방법은 가상 3차원 공간에 적어도 하나의 물체를 정의하는 단계 및 가상의 뷰 포인트를 정의하는 단계를 포함할 수 있다. 이미지는 상기 적어도 하나의 물체의 시차 스캐닝 이동을 시뮬레이션함으로써 만들어질 수 있다. 생성된 이미지가 디스플레이되고 저장될 수 있다.
본 발명의 또 다른 태양은 이미지 생성방법을 포함한다. 상기 방법은 이미지되는 장면과 관련된 적어도 하나의 장면 파라미터를 자동으로 검사하는 단계, 상기 적어도 하나의 파라미터를 기초로 하여 시차 스캐닝 파라미터를 결정하는 단계, 상기 시차 스캐닝 파라미터를 상기 장면에 있는 적어도 하나의 물체에 적용하는 단계, 및 상기 적어도 하나의 물체를 포함하는 이미지를 생성하는 단계를 포함할 수 있다.
도 1a는 어떠한 시차 오프셋도 없는 장면의 개략도를 도시한 것이다;
도 1b는 이미지에서 시차 오프셋 정보를 만드는 종래 기술의 방법의 개략도를 도시한 것이다;
도 1c는 본 발명의 예시적인 실시예에 따른 시차 오프셋 정보를 만드는 방법의 개략도를 도시한 것이다;
도 2a 내지 도 2c는 본 발명의 예시적인 방법에 의해 사용될 수 있는 거리 프로파일에 대한 여러가지 시차 오프셋을 나타낸 것이다; 그리고
도 3은 본 발명의 예시적인 실시예에 의해 수행된 방법을 나타내는 개략도를 도시한 것이다.
본 발명은 시차 스캐닝을 사용하여 무안경 3D 컴퓨터 그래픽 이미지를 만들고 디스플레이하는 시스템 및 방법을 포함한다. 즉, 컴퓨터 그래픽 이미지에 시차 정보를 합체시킴으로써, 이들 이미지들이 3차원 특성을 가지는 것으로 인식될 수 있다. 본 발명은 종래기술의 방법에 대해 적어도 2가지 면에서 향상된다. 첫째는, 자동스캔 제어 알고리즘이 3D 가상 장면 정보를 기초로 적절한 시차 스캔 파라미터를 계산한다. 둘째는, 카메라를 이동시키고 장면 지오메트리(scene geometry)를 고정시킴으로써 시차 스캐닝을 3D 가상장면에 적용하는 대신에, 본 발명의 방법은 카메라를 고정시키고 장면 물체를 이동시킴으로써 시차 스캐닝을 장면에 적용한다.
컴퓨터 이미징에 적용된 바와 같은 이전의 시차 스캐닝 방법은 이미지되는 장면 물체에 대해 카메라의 조리개를 움직임으로써 시차 정보를 장면 이미지에 합체시켰다. 본 발명은 기준 위치에 카메라를 고정시킨 한편, 시차 오프셋을 장면 물체에 적용함으로써 이 과정을 역(逆)으로 한다. 이 방법은 각 물체가 받아들이는 시차량을 변경하기 위한 수단을 제공함으로써 시차 스캐닝 과정의 더 큰 제어를 가능하게 할 수 있다. 어떤 종래기술의 방법은 수렴점으로부터 거리에 비례하는 양만큼 모든 물체를 이동시킬 수 있는 반면에, 본 발명의 방법은 잠정적으로 임의의 거리에 대한 오프셋 맵핑(distance-to-offset mapping)을 가능하게 한다. 이러한 맵핑은 매우 먼 물체 및 매우 근접한 물체에 대해 비례하는 오프셋을 줄일 수 있어, 이에 의해 생성 및/또는 기록된 이미지에 바람직하지 못한 불안정성을 보이는 가장 근접한 물체 또는 가장 먼 물체를 갖는 경우를 최소화하거나 방지할 수 있다.
본 발명의 방법은 이동광소자(moving optical element, MOE) 렌즈의 비선형 특성에 더 밀접하게 근사한 결과를 제공할 수 있다. MOE 렌즈로의 근사는, 예를 들어, 컴퓨터로 만든 이미지를 생동감 있는 동작 이미지로 구성할 때 유용할 수 있으며, 이 경우, 양 타입의 이미지는 시차 스캐닝을 포함한다.
본 발명에 따른 장면 물체를 이동시키는 효과가, 예를 들어, 도 1c에 예시되어 있다. 도시된 바와 같이, 도 1b에 도시된 종래기술의 방법에서 행해지는 카메라(11)의 위치를 바꾸기 보다는, 카메라(11)의 위치가 고정된 채 있다. 대신에, 물체 A, B, 및 C의 위치가 수렴면(10)으로부터 각각의 거리에 기초하여 조절된다. 예를 들어, 물체 A, B, 및 C를 포함하는 가상 장면에서, 컴퓨터는 물체 A가 카메라(11)와 수렴면(10) 사이에 있음을 측정할 수 있다. 그런 후, 컴퓨터는 제 1 방향으로 광축(20)에 대해 물체 A의 위치를 오프셋시킬 수 있다. 마찬가지로, 컴퓨터는 물체 C가 수렴면(10) 보다 뷰 포인트(point of view)로부터 더 먼 거리에 위치되어 있음을 측정할 수 있다. 따라서, 물체 C는 물체 A가 이동된 방향에 반대 방향으로 이동되어 진다. 물체 B의 위치는 고정된 채 있는데, 왜냐하면, 물체 B는 수렴면(10)상의 중심에 있기 때문이다. 유의해야 할 것은 장면에서 각 물체는, 예를 들어, 물체가 있는 x-y 평면상에서 임의의 방향으로 시차 오프셋 양만큼 이동될 수 있다는 것이다. 또한, 필요하다면, 소정량의 회전이 장면에 있는 각 물체에 적용될 수 있다.
도 1b 및 도 1c의 조사로 동일한 시차 스캐닝 정보가 카메라(11)(도 1b)의 위치를 이동시키거나 물체 A, B, 및 C(도 1c)의 위치를 이동시킴으로써 만들어질 수 있는 것이 드러난다. 특히, 도 1b에 도시된 카메라 이동에 응답하여, 물체 A는 광축(20)에 대해 위로(즉, 종이의 기준 프레임에서 도 1b의 상단 방향으로) 이동하 게 보이고, 물체 B는 고정된 채 있으며, 그리고 물체 C는 광축(20)에 대해 아래로 이동하게 보인다. 도 1c에서는 카메라(11)를 고정 위치에 유지함에도 불구하고, 동일한 상대운동이 시뮬레이션될 수 있다. 도 1c에서, 물체 A는 광축에 대해 위로 이동하게 보이고, 물체 B는 고정된 채 있으며, 그리고 물체 C는 광축(20)에 대해 아래로 이동하게 보인다.
도 1b에 도시된 종래기술의 방법의 일실시예에서, 각 물체에 적용된 시차 오프셋의 양은 수렴면에 대한 물체 위치에 따른 선형함수로 제공될 수 있다. 상술한 바와 같이, 이러한 접근은 일련의 시차 이미지의 무안경 디스플레이에 불안정을 야기할 수 있다. 물체 위치를 오프셋하기 위해 회전에 의존하는 종래기술의 방법의 어떤 실시예에서, 물체의 위치는 적용된 시차 오프셋의 양과 수렴면으로부터의 물체 거리를 관련시키는 선형함수에 의해 규정된 위치로부터 벗어날 수 없다.
본 발명의 방법에서, 각 물체에 적용된 오프셋 양은 제어될 수 있다. 시차 이미지는 뷰 포인트보다는 장면의 물체를 이동시킴으로써 만들어지기 때문에, 각 물체에 적용된 이동량이 완전히 조절될 수 있다. 이러한 특성을 기초로, 물체에 적용된 이동량은 선형 함수를 만족하는 값에 국한되지 않는다. 오히려, 임의의 소정의 이동량이 물체에 적용될 수 있다. 이러한 특징은 뷰 포인트로부터 멀리 떨어진 물체의 바람직하지 못한 이동을 최소화하거나 방지하는데 특히 유용할 수 있다. 특히, 장면의 물체에 적용된 이동량은 수렴면으로부터 임계거리보다 더 먼 물체에 감소된 시차 오프셋의 양이 적용되도록 비선형 거리-맵핑 곡선을 따를 수 있다.
도 2a 내지 도 2c는 본 발명의 방법과 결부하여 사용될 수 있는 여러개의 거 리-맵핑 곡선을 도시한 것이다. 도 2a는 선형 거리-맵핑 곡선을 도시한 것이다. 본 발명은 도 2a의 선형 거리-맵핑 곡선에 따른 장면의 물체에 시차 오프셋 값을 적용할 수 있는 한편, 이 곡선은 어떤 상황에서는 무안경 디스플레이에 불안정을 도입할 수 있다. 예를 들어, 선형 거리-맵핑 곡선은 장면의 먼 물체에 너무 큰 시차 오프셋이 적용될 수 있다.
도 2b는 본 발명에 따른 애플리케이션에 사용될 수 있는 비선형 거리-맵핑 곡선을 도시한 것이다. 도시된 바와 같이, 장면의 물체에 적용된 시차 오프셋의 양은 수렴점(12)에서 0이고 소정의 임계거리(32)까지 선형으로 증가하게 된다. 상기 임계거리를 넘어서면, 적용된 시차 오프셋의 양은 일정하게 유지될 수 있다. 임계거리(32)는 임의로 선택된 거리일 수 있다. 제 2 임계거리(32')는 수렴점(12)보다 뷰 포인트에 더 가까운 거리에 대해 실행될 수 있다.
도 2c는 본 발명에 따른 애플리케이션에 사용될 수 있는 또 다른 비선형 거리-맵핑 곡선을 도시한 것이다. 도시된 바와 같이, 장면의 물체에 적용된 시차 오프셋의 양은 수렴점(12)에서 0이고 소정의 임계거리(32)까지 증가하게 된다. 상기 임계거리를 넘어서면, 적용된 시차 오프셋의 양은 일정하게 유지될 수 있다. 그러나, 수렴점(12)과 임계거리(32) 사이가 선형으로 증가하기 보다는, 도 2c의 거리-맵핑 곡선은 임의의 소정의 비선형 함수(예를 들어, 쌍곡선 접선 함수)의 경로를 따를 수 있다. 도 2a 내지 도 2c 중 어느 하나에 도시된 거리-맵핑 곡선의 실행은, 예를 들어, "버텍스 프로그램(vertex programs)" 또는 "버텍스 쉐이더(vertex shaders)"를 지원하는 컴퓨터 하드웨어 기반의 3D 가속기를 사용하여 실시간으로 퍼오브젝 기반(perobject basis)상에 수행될 수 있다.
본 발명에 따른 방법은 도 3에 나타난 바와 같이 처리될 수 있다. 도 3에 예시된 과정은 각각의 새로운 프레임에 대하여 그 과정이 3D 그래픽 애플리케이션에 의해 만들어지고 디스플레이되도록 실행될 수 있음을 의미하는 프레임 기반 상에 수행될 수 있다. 또한, 본 발명의 과정은 3D 그래픽 애플리케이션에 의해 만들어진 프레임의 어느 일부가 시차 오프셋 정보를 포함할 수 있도록 선택적으로 수행될 수 있다.
컴퓨터 시뮬레이션(예를 들어, 3D 컴퓨터 게임)에 임팩트(impact)를 최대화하기 위해, 컴퓨터는 장면 정보를 감시할 수 있고 상기 장면정보를 기초로 하여 적절한 시차 스캐닝 파라미터를 자동으로 결정할 수 있다. 입력 또는 사용자 피드백이 컴퓨터가 결정하는 과정에 사용되거나 사용되지 않을 수 있다. 특히, 자동 스캔 제어 알고리즘은 기록된 장면에 대한 정보를 수집하고 사용하여 시차각도 및 수렴거리와 같은 파라미터에 대한 최적의 셋팅(settings)을 결정할 수 있다. 시차 스캔 셋팅을 결정하는데 사용될 수 있는 적절한 장면 정보로는, 예를 들어, 관찰자 이동속도, 장면에서 여러 물체들의 거리, 시야(field of view) 각도, 및 디스플레이의 스크린 크기를 포함한다. 최적의 시차 스캔 셋팅이 결정되면, 상기 셋팅이 컴퓨터에 의해 만들어진 뒤따른 프레임 또는 프레임 세트에서 실행될 수 있다. 이런 식으로, 시차 스캐닝의 3D 효과가 장면의 성질에 따라 각 장면에 맞추어질 수 있다.
단계 100에서, 컴퓨터로 이미지 프레임을 만드는 방법이 개시된다. 단계 110에서는, 물체 및 물체의 운동이 3차원 공간에서 정의되고, 단계 120에서는, 물체를 포함하기 위한 장면이 또한 3차원 공간에서 정의된다. 이미징 장치 또는 카메라, 카메라 위치(뷰 포인트), 조명, 범위 등이 단계 130에서 정의된다. 카메라 선명도는 이미징 면, 렌즈 파라미터(예를 들어, 크기 및 형태), 및 렌즈 개구 파라미터(예를 들어, 크기 및 형태)의 시뮬레이션을 포함할 수 있다. 각각의 프레임을 만들기 전에, 시차 스캔 각도는 장면 정보 및 이전의 시차 스캔 각도를 기초로 단계 140에서 컴퓨터에 의해 계산된다. 단계 150에서, 물체 점위치(예를 들어, 장면 물체의 일부분을 나타내는데 사용된 다각형상의 점 또는 정점의 위치)가 계산된다. 단계 160에서는, 단계 150에서 계산된 점위치에 대해 시차 오프셋이 계산되고 적용된다. 단계 150 및 160은 장면에 있는 각 물체의 각 점에 대해 반복될 수 있다. 점들이 계산되고 오프셋이 적용되었다면, 물체가 단계 170에서 렌더링(rendering)된다. 렌더링된 이미지는 단계 180에서 프레임 단위로 컴퓨터 메모리에 저장될 수 있다. 그런 후, 저장된 이미지가 컴퓨터 모니터상에 디스플레이를 위한 메모리로부터 검색되고/되거나, TV 스크린상에 디스플레이를 위한 비디오 테이프상에 기록되고/되거나 스크린상에 프로젝션을 위한 필름상에 기록될 수 있다.
일실시예에서, 버텍스 쉐이더를 포함한 다양한 소프트웨어 루틴이 도 3에 나타난 하나 이상의 단계를 수행하는데 사용될 수 있다. 예를 들어, 물체 위치 계산 소프트웨어 루틴(routine)이 시차 스캔 파라미터를 계산할 수 있고, 상기 동일하거나 또 다른 소프트웨어 루틴이 장면에 있는 점을 위치시키기 위한 삼각법(trigonometric) 계산을 수행할 수 있다. 그러나, 단지 이 정보만을 기초로 하여 장면을 렌더링하는 대신에, 상기 계산된 시차 스캔 및 물체 위치 파라미터들을 사용하여 버텍스 쉐이더가 선택되고 로드될 수 있다. 장면에 있는 각 점에 대해, 버 텍스 쉐이더가 상기 계산된 시차 스캔 파라미터를 기초로 하여 적절한 양만큼 상기 계산된 물체 위치를 오프셋하도록 호출될 수 있다. 버텍스 쉐이더는 또한 이 과정동안 임의의 소정의 거리-맵핑 곡선을 상기 계산된 물체 위치에 적용하는데 사용될 수 있다.
버텍스 쉐이더는 장면 온-더-플라이(on-the-fly)에서 물체의 위치를 변경할 수 있다. 예를 들어, 카메라가 고정된 한편, 장면 물체가 광축에 수직인 면으로 이동될 수 있다. 이동량은 광축을 따라 측정된 바와 같이 수렴면에 대한 대물면의 거리를 기초로 할 수 있다. 버텍스 쉐이더 접근은 안정성을 향상시키고 명확하게 선명한 수렴면을 나타낸다. 이 행동은 시차 스캐닝시 MOE 렌즈 광학기의 행동에 훨씬 더 가깝다.

Claims (28)

  1. 컴퓨터를 사용하여 가상의 무안경 이미지를 생성시키기 위하여,
    가상의 3차원 소프트웨어 공간에, 적어도 하나의 물체를 정의하는 것에 의해 이미지될 장면을 생성하는 단계;
    상기 가상의 3차원 소프트웨어 공간과 관련된 가상의 뷰 포인트(point of view)를 정의하는 단계;
    상기 적어도 하나의 물체의 시차 스캐닝 이동(parallax scanning motion)을 시뮬레이션함으로써 상기 가상의 3차원 소프트웨어 공간에 이미지를 생성하는 단계;
    상기 생성된 이미지를 저장하는 단계; 및
    상기 생성된 이미지를 디스플레이하는 단계를 포함하며,
    상기 적어도 하나의 물체는 컴퓨터 생성 이미지를 포함하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  2. 삭제
  3. 삭제
  4. 컴퓨터를 사용하여 가상의 무안경 이미지를 생성시키기 위하여,
    가상의 3차원 소프트웨어 공간에, 적어도 하나의 물체를 형성시키는 것에 의해 이미지될 장면을 생성하는 단계;
    상기 가상의 3차원 소프트웨어 공간과 관련된 가상의 뷰 포인트(point of view)를 정의하는 단계;
    상기 적어도 하나의 물체의 위치에 시차 오프셋을 적용하는 것에 의하여 상기 적어도 하나의 물체의 시차 스캐닝 이동(parallax scanning motion)을 시뮬레이션함으로써 이미지를 생성하는 단계;
    상기 생성된 이미지를 저장하는 단계; 및
    상기 생성된 이미지를 디스플레이하는 단계를 포함하고,
    상기 적어도 하나의 물체는 컴퓨터 생성 이미지를 포함하며,
    상기 시차 오프셋은 상기 적어도 하나의 물체와 수렴면 사이의 거리에 대하여 변하고, 상기 시차 오프셋은 수렴면에서 0이고 기결정된 임계 거리값에서 최대값을 갖는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  5. 제 4 항에 있어서,
    상기 시차 오프셋은 상기 수렴면 및 상기 임계 거리값 사이에서 선형으로 변하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  6. 제 4 항에 있어서,
    상기 시차 오프셋은 상기 수렴면 및 상기 임계 거리값 사이에서 비선형 함수에 따라 변하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  7. 제 4 항에 있어서,
    상기 이미지를 생성하는 단계는 상기 적어도 하나의 물체의 위치를 오프셋하기 위해 버텍스 쉐이더(vertax shader)를 사용하는 단계를 더 포함하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  8. 제 4 항에 있어서,
    상기 가상의 뷰 포인트를 고정된 위치에 유지하는 단계를 더 포함하는 가상의 무안경 이미지 생성 방법.
  9. 가상의 3차원 소프트웨어 환경에서, 이미지될 장면을 생성하는 단계;
    상기 이미지될 장면과 관련된 적어도 하나의 장면 파라미터를 자동으로 감시하는 단계;
    상기 적어도 하나의 장면 파라미터를 기초로 하여 시차 스캐닝 파라미터를 결정하는 단계;
    상기 시차 스캐닝 파라미터를 상기 장면에 있는 적어도 하나의 물체에 적용하는 단계;
    상기 적어도 하나의 물체를 포함하는 이미지를 생성하는 단계; 및
    디스플레이 상에 생성된 이미지를 디스플레이하는 단계를 포함하고,
    상기 장면 파라미터는 상기 장면에 있는 물체와 관찰자 사이의 거리를 포함하는 것을 특징으로 하는 이미지 생성 방법.
  10. 제 9 항에 있어서,
    상기 시차 스캐닝 파라미터는 시차 각도와 수렴거리 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 생성 방법.
  11. 제 9 항에 있어서,
    상기 장면 파라미터는 관찰자 이동속도를 포함하는 것을 특징으로 하는 이미지 생성 방법.
  12. 제 9 항에 있어서,
    상기 장면 파라미터는 상기 장면에 있는 물체와 관찰자 사이의 거리를 포함하는 것을 특징으로 하는 이미지 생성 방법.
  13. 삭제
  14. 가상의 3차원 소프트웨어 공간에, 적어도 하나의 물체를 정의하는 것에 의해 이미지될 장면을 생성하는 단계;
    상기 가상의 3차원 소프트웨어 공간과 관련된 가상의 뷰 포인트(point of view)를 정의하는 단계;
    상기 적어도 하나의 물체의 시차 스캐닝 이동(parallax scanning motion)을 시뮬레이션함으로써 상기 가상의 3차원 소프트웨어 공간에 이미지를 생성하는 단계;
    상기 생성된 이미지를 저장하는 단계; 및
    상기 생성된 이미지를 디스플레이하는 단계를 포함하는 방법을 컴퓨터가 수행하도록 하는 명령들을 포함하는 기계 판독가능한 코드를 저장하며,
    상기 적어도 하나의 물체는 컴퓨터 생성 이미지를 포함하고, 상기 시차 스캐닝 이동은 상기 적어도 하나의 물체의 위치에 시차 오프셋을 적용하는 것에 의해 시뮬레이션되고, 상기 시차 오프셋은 수렴면에서 0이고 기결정된 임계 거리값에서 최대값을 갖는 것을 특징으로 하는 컴퓨터 판독가능한 기록매체.
  15. 제 14 항에 있어서,
    상기 기계 판독가능한 코드는 컴퓨터가 고정된 위치에 가상의 뷰 포인트를 유지하도록 하는 명령어를 포함하는 것을 특징으로 하는 컴퓨터 판독가능한 기록매체.
  16. 가상의 3차원 소프트웨어 공간에, 적어도 하나의 물체를 정의하는 것에 의해 이미지될 장면을 생성하고, 상기 가상의 3차원 소프트웨어 공간과 관련된 가상의 뷰 포인트(point of view)를 정의하며, 상기 적어도 하나의 물체의 시차 스캐닝 이동(parallax scanning motion)을 시뮬레이션함으로써 상기 가상의 3차원 소프트웨어 공간에 이미지를 생성하기 위한 명령어를 포함하는 기계 판독가능한 코드를 저장하는 컴퓨터 판독가능한 메모리;
    상기 컴퓨터 판독가능한 메모리 상에 저장된 명령어를 실행하는 프로세서;
    하나 이상의 생성된 이미지를 저장하는 데이터 기억장치; 및
    상기 생성된 이미지를 디스플레이하는 디스플레이를 포함하며,
    상기 적어도 하나의 물체는 컴퓨터 생성 이미지를 포함하고,
    상기 시차 스캐닝 이동은 상기 적어도 하나의 물체의 위치에 시차 오프셋을 적용하는 것에 의해 시뮬레이션되고, 상기 시차 오프셋은 수렴면에서 0이고 기결정된 임계 거리값에서 최대값을 갖는 것을 특징으로 하는 컴퓨터 기반 이미징 시스템.
  17. 제 16 항에 있어서,
    상기 컴퓨터 판독가능한 메모리는 상기 가상의 뷰 포인트를 고정된 위치에 유지하게 하는 명령어를 포함하는 것을 특징으로 하는 컴퓨터 기반 이미징 시스템.
  18. 제 1 항에 있어서,
    상기 가상의 뷰 포인트는 이미지될 장면에 대하여 고정된 위치에 유지되는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  19. 컴퓨터를 사용하여 가상의 무안경 이미지를 생성하기 위하여,
    가상의 3차원 공간에 적어도 하나의 물체를 정의하는 단계;
    상기 가상의 3차원 공간과 관련된 가상의 뷰 포인트를 정의하는 단계;
    상기 적어도 하나의 물체의 위치에 시차 오프셋을 적용하는 것에 의하여 적어도 하나의 물체의 시차 스캐닝 이동을 시뮬레이셤함으로써 이미지를 생성하는 단계;
    상기 생성된 이미지를 저장하는 단계; 및
    상기 생성된 이미지를 디스플레이하는 단계를 포함하며,
    상기 시차 오프셋은 수렴면에서 0이고 기결정된 임계 거리값에서 최대값을 갖는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  20. 제 19 항에 있어서,
    상기 시차 오프셋은 상기 수렴면과 상기 임계 거리값 사이에서 선형으로 변하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  21. 제 19 항에 있어서,
    상기 시차 오프셋은 상기 수렴면과 상기 임계 거리값 사이에서 비선형 함수에 따라 변하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  22. 제 19 항에 있어서,
    상기 이미지를 생성하는 단계는 상기 적어도 하나의 물체의 위치를 오프셋 시키기 위하여 버텍스 쉐이더(vertax shader)를 사용하는 단계를 더 포함하는 것을 특징으로 하는 가상의 무안경 이미지 생성 방법.
  23. 제 19 항에 있어서,
    상기 가상의 뷰 포인트를 고정된 위치에 유지하는 단계를 더 포함하는 가상의 무안경 이미지 생성 방법.
  24. 제 14 항에 있어서,
    상기 시차 오프셋은 상기 수렴면과 상기 임계 거리값 사이에서 선형으로 변하는 것을 특징으로 하는 컴퓨터 판독가능한 기록매체.
  25. 제 14 항에 있어서,
    상기 시차 오프셋은 상기 수렴면과 상기 임계 거리값 사이에서 비선형 함수에 따라 변하는 것을 특징으로 하는 컴퓨터 판독가능한 기록매체.
  26. 제 1 항에 있어서,
    상기 가상의 뷰 포인트를 고정된 위치에 유지하는 단계를 더 포함하는 가상의 무안경 이미지 생성 방법.
  27. 제 16 항에 있어서,
    상기 시차 오프셋은 상기 수렴면과 상기 임계 거리값 사이에서 선형으로 변하는 것을 특징으로 하는 컴퓨터 기반 이미징 시스템.
  28. 제 16 항에 있어서,
    상기 시차 오프셋은 상기 수렴면과 상기 임계 거리값 사이에서 비선형 함수에 따라 변하는 것을 특징으로 하는 컴퓨터 기반 이미징 시스템.
KR1020057009553A 2002-11-27 2003-11-26 장면 물체의 위치 조작을 통한 시차 스캐닝 시스템 및 방법 KR101013086B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US42935802P 2002-11-27 2002-11-27
US60/429,358 2002-11-27

Publications (2)

Publication Number Publication Date
KR20050087803A KR20050087803A (ko) 2005-08-31
KR101013086B1 true KR101013086B1 (ko) 2011-02-14

Family

ID=32469310

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057009553A KR101013086B1 (ko) 2002-11-27 2003-11-26 장면 물체의 위치 조작을 통한 시차 스캐닝 시스템 및 방법

Country Status (9)

Country Link
US (2) US7463257B2 (ko)
EP (1) EP1570436B1 (ko)
JP (1) JP4766877B2 (ko)
KR (1) KR101013086B1 (ko)
AT (1) ATE433590T1 (ko)
AU (2) AU2003290739A1 (ko)
CA (1) CA2507213C (ko)
DE (1) DE60327943D1 (ko)
WO (1) WO2004051577A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7403201B2 (en) * 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
CN1998153A (zh) * 2004-05-10 2007-07-11 辉达公司 用于视频数据的处理器
WO2008093167A2 (en) * 2006-09-19 2008-08-07 Bracco Imaging S.P.A. Methods and systems for interacting with a 3d visualization system using a 2d interface
US8181885B2 (en) * 2007-09-21 2012-05-22 Silverbrook Research Pty Ltd Method of imaging a coding pattern having an orientation identified via a plurality of direction components
WO2010085549A1 (en) 2009-01-21 2010-07-29 Vision Iii Imaging, Inc. System and method for three-dimensional visualization of geographical data
GB2470759A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Displaying videogame on 3D display by generating stereoscopic version of game without modifying source code
CN101961555B (zh) * 2009-07-21 2014-01-29 科乐美数码娱乐株式会社 视频游戏装置、游戏图像显示控制方法和显示模式切换控制方法
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
WO2011127273A1 (en) 2010-04-07 2011-10-13 Vision Iii Imaging, Inc. Parallax scanning methods for stereoscopic three-dimensional imaging
WO2011136137A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 立体撮像装置及びその制御方法
US20110304618A1 (en) * 2010-06-14 2011-12-15 Qualcomm Incorporated Calculating disparity for three-dimensional images
JP5449551B2 (ja) * 2010-06-25 2014-03-19 富士フイルム株式会社 画像出力装置、方法およびプログラム
KR20120007289A (ko) * 2010-07-14 2012-01-20 삼성전자주식회사 디스플레이 장치 및 그 입체감 설정 방법
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
CN103329549B (zh) 2011-01-25 2016-03-09 富士胶片株式会社 立体视频处理器、立体成像装置和立体视频处理方法
JP2012204852A (ja) * 2011-03-23 2012-10-22 Sony Corp 画像処理装置および方法、並びにプログラム
CN103636191B (zh) * 2011-08-23 2016-11-02 松下电器产业株式会社 三维摄像装置、透镜控制装置
CN102508651B (zh) * 2011-09-29 2015-04-15 深圳超多维光电子有限公司 用户界面的实现方法及***、电子设备
DE112011105927T5 (de) * 2011-12-07 2014-09-11 Intel Corporation Grafik-Renderingverfahren für autostereoskopisches dreidimensionales Display
EP2627093A3 (en) * 2012-02-13 2013-10-02 Thomson Licensing Method and device for inserting a 3D graphics animation in a 3D stereo content
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
US10504265B2 (en) 2015-03-17 2019-12-10 Blue Sky Studios, Inc. Methods, systems and tools for 3D animation
JP6582805B2 (ja) * 2015-09-25 2019-10-02 富士通株式会社 符号化装置、符号化システム、符号化方法、及びプログラム
US10424295B2 (en) * 2016-02-03 2019-09-24 Disney Enterprises, Inc. Calibration of virtual image displays
WO2017218834A1 (en) * 2016-06-17 2017-12-21 Kerstein Dustin System and method for capturing and viewing panoramic images having motion parralax depth perception without images stitching
GB2553293B (en) * 2016-08-25 2022-06-01 Advanced Risc Mach Ltd Graphics processing systems and graphics processors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5014126A (en) * 1989-10-23 1991-05-07 Vision Iii Imaging, Inc. Method and apparatus for recording images with a single image receiver for autostereoscopic display
US6324347B1 (en) * 1993-11-05 2001-11-27 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using a parallax scanning lens aperture
US20040001062A1 (en) * 2002-06-26 2004-01-01 Pharr Matthew Milton System and method of improved calculation of diffusely reflected light

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142357A (en) * 1990-10-11 1992-08-25 Stereographics Corp. Stereoscopic video camera with image sensors having variable effective position
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JPH08331607A (ja) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 三次元表示画像生成方法
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6707487B1 (en) * 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
JP2001103514A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する方法
KR20030029649A (ko) * 2000-08-04 2003-04-14 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 화상 변환 및 부호화 기술

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5014126A (en) * 1989-10-23 1991-05-07 Vision Iii Imaging, Inc. Method and apparatus for recording images with a single image receiver for autostereoscopic display
US6324347B1 (en) * 1993-11-05 2001-11-27 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using a parallax scanning lens aperture
US20040001062A1 (en) * 2002-06-26 2004-01-01 Pharr Matthew Milton System and method of improved calculation of diffusely reflected light

Also Published As

Publication number Publication date
CA2507213A1 (en) 2004-06-17
US20050270284A1 (en) 2005-12-08
WO2004051577A1 (en) 2004-06-17
JP4766877B2 (ja) 2011-09-07
DE60327943D1 (de) 2009-07-23
US20090174705A1 (en) 2009-07-09
US7463257B2 (en) 2008-12-09
ATE433590T1 (de) 2009-06-15
JP2006508467A (ja) 2006-03-09
CA2507213C (en) 2013-01-22
AU2010202382B2 (en) 2014-08-07
EP1570436A1 (en) 2005-09-07
AU2010202382A1 (en) 2010-07-01
KR20050087803A (ko) 2005-08-31
EP1570436B1 (en) 2009-06-10
AU2003290739A1 (en) 2004-06-23

Similar Documents

Publication Publication Date Title
KR101013086B1 (ko) 장면 물체의 위치 조작을 통한 시차 스캐닝 시스템 및 방법
US9251621B2 (en) Point reposition depth mapping
EP2340534B1 (en) Optimal depth mapping
US9438886B2 (en) Parallax scanning methods for stereoscopic three-dimensional imaging
US9460555B2 (en) System and method for three-dimensional visualization of geographical data
US20210364988A1 (en) System and method for holographic image display
EP2409279B1 (en) Point reposition depth mapping
KR100274624B1 (ko) 적층액정디스플레이를이용한3차원입체화상생성장치
KR101567002B1 (ko) 컴퓨터 그래픽스 기반의 스테레오 플로팅 집적 영상생성시스템
Ye et al. A Rendering Method of Microdisplay Image to Expand Pupil Movable Region without Artifacts for Lenslet Array Near-Eye Displays.
KR101345129B1 (ko) 3차원 입체 영상 표시 및 기록 장치
WO2009018557A1 (en) Method and software for transforming images
Liao et al. Long visualization depth autostereoscopic display using light field rendering based integral videography
Laldin Perceived Acceleration in Stereoscopic Animation
Kellnhofer et al. Improving perception of binocular stereo motion on 3D display devices
Laldin et al. The effects of depth warping on perceived acceleration in stereoscopic animation
Chen et al. A View-Dependent Stereoscopic System Using Depth-Image-Based Tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140106

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160104

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee