KR101631514B1 - 전자기기에서 3차원 컨텐츠 생성 방법 및 장치 - Google Patents

전자기기에서 3차원 컨텐츠 생성 방법 및 장치 Download PDF

Info

Publication number
KR101631514B1
KR101631514B1 KR1020090111890A KR20090111890A KR101631514B1 KR 101631514 B1 KR101631514 B1 KR 101631514B1 KR 1020090111890 A KR1020090111890 A KR 1020090111890A KR 20090111890 A KR20090111890 A KR 20090111890A KR 101631514 B1 KR101631514 B1 KR 101631514B1
Authority
KR
South Korea
Prior art keywords
projection matrix
binocular
axis distance
generating
coordinate system
Prior art date
Application number
KR1020090111890A
Other languages
English (en)
Other versions
KR20110055032A (ko
Inventor
이상경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090111890A priority Critical patent/KR101631514B1/ko
Priority to US12/950,624 priority patent/US20110210966A1/en
Publication of KR20110055032A publication Critical patent/KR20110055032A/ko
Application granted granted Critical
Publication of KR101631514B1 publication Critical patent/KR101631514B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 전자기기에서 3차원 컨텐츠 생성 방법 및 장치에 관한 것으로서, 전자기기에서 3차원 컨텐츠 생성을 위한 두 장의 영상을 생성하는 방법은, 제 1 투영 매트릭스를 이용한 제 1 영상을 생성하는 절차 중에 객체의 Z축 거리를 측정하는 과정과, 상기 Z축 거리에 따른 양안차이를 결정하는 과정과, 상기 양안차이를 고려한 제 2 투영 매트릭스를 결정하는 과정과, 상기 제 2 투영 매트릭스를 이용하여 제 2 영상을 생성하는 과정을 포함하여, 양안차이가 과도하게 설정되는 것을 방지하여 시각적인 피로감을 감소시킬 수 있고, 종래 기술에 비해 연산 복잡도가 낮아 연산으로 인한 시스템의 부담을 감소시킬 수 있다.
3차원, 입체, 양안차이, 투영 매트릭스

Description

전자기기에서 3차원 컨텐츠 생성 방법 및 장치{APPARATUS AND METHOD FOR GENERATING THREE DEMENSION CONTENT IN ELECTRONIC DEVICE}
본 발명은 전자기기에서 3차원 컨텐츠 생성 방법 및 장치에 관한 것으로서, 특히, 정규화 좌표계에서의 양안차이를 고려한 투영 매트릭스를 이용하여 3차원 컨텐츠를 생성하는 방법 및 장치에 관한 것이다.
최근 들어, 가상 현실 시스템, 컴퓨터 게임 등이 급속하게 발달됨으로써, 컴퓨터 시스템을 이용하여 실제 세계의 객체(object) 및 지형(terrain) 등을 3차원으로 표현하기 위한 기술이 연구 및 개발되고 있다.
일반적으로, 사용자는 좌 안과 우 안을 통해 서로 다른 방향에서 대상 객체를 주시함으로써 입체감을 느낄 수 있다. 따라서, 2차원 평면 디스플레이 장치에서 좌안과 우안의 차이 즉, 양안차이가 반영된 두 장의 영상을 동시에 디스플레이 하게 될 경우, 사용자는 해당 영상을 3차원적으로 느끼게 된다.
이에 따라, 종래에는 가상 카메라를 이용하여 상기 양안차이가 반영된 두 장 의 영상을 얻는 기법이 제공되고 있다. 즉, 상기 도 1에 도시된 바와 같은 일반적인 그래픽 파이프 라인의 정점 변환 단계 과정에서 가상 카메라를 이용하여 도 2에 도시된 바와 같이, 가상 카메라의 파라미터(202, 204) 설정을 통해 가상 공간(203)에서 양안차이(212)를 발생시키고, 이를 기존 파이프 라인 대로 렌더링하여 상기 양안차이가 반영된 두 장의 영상을 획득하는 방식이 제공되고 있다.
하지만, 상기와 같은 기법은 개발 과정에서 상기 가상 카메라의 파라미터(202, 204)가 고정되기 때문에, 실제로 다양한 가상공간 크기를 갖는 3D 컨텐츠들 각각에 대해 적절한 양안차이를 적용하기 어려운 문제점이 있다. 이러한 문제는, 과도한 양안차이가 적용된 두 장의 영상 출력으로 이어짐으로써, 사용자의 눈에 피로감을 줄 수 있으며, 심하게는 사용자의 시력 저하 및 두통을 유발할 수도 있다.
따라서, 최근에는 상기와 같은 단점을 극복하기 위해 객체의 좌우 변위 차를 분석하여 동적으로 카메라 파라미터를 재설정하는 기법이 제공되었으나, 이러한 기법은 상기 카메라 파라미터를 재 설정하기 위해 행렬의 역을 연산해야 하기 때문에 복잡도가 높으며, 수학적으로 정확성이 보장되지 않는 단점이 있다. 또한, 상기 객체의 좌우 변위 차를 구한 후, 카메라 파라미터를 조절하기 위한 연산을 수행해야하며, 상기 조절된 카메라 파라미터를 이용하여 다시 연산을 수행해야하기 때문에 계산과정이 중복되는 단점이 있다. 또한 상기 가상공간에서 변위의 크기는 컨텐츠마다 달라지는 상대적인 측정 단위이기 때문에, 이를 이용하여 조절한 카메라 파라미터(예: 수렴각과 위치)가 디스플레이 상에서 어느 정도의 양안 차이가 있는 영상 을 만드는지 알기 어려우며, 이에 따라 개발자가 튜닝하기 힘든 문제점이 있다.
본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 전자기기에서 3차원 컨텐츠 생성 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은 전자기기에서 정규화 좌표계에서의 양안차이를 고려한 투영 매트릭스를 이용하여 3차원 컨텐츠를 생성하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 전자기기에서 3차원 컨텐츠 생성 시, 정규화 좌표계에서 객체의 Z축 거리를 이용하여 양안차이를 결정하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 전자기기에서 3차원 컨텐츠 생성 시, 정규화 좌표계에서의 양안차이를 고려한 투영 매트릭스를 생성하여 양안차이가 반영된 두 장의 영상을 획득하는 방법 및 장치를 제공함에 있다.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 전자기기에서 3차원 컨텐츠 생성을 위한 두 장의 영상을 생성하는 방법은, 제 1 투영 매트릭스를 이용한 제 1 영상을 생성하는 절차 중에 객체의 Z축 거리를 측정하는 과정과, 상기 Z축 거리에 따른 양안차이를 결정하는 과정과, 상기 양안차이를 고려한 제 2 투영 매트릭스를 결정하는 과정과, 상기 제 2 투영 매트릭스를 이용하여 제 2 영상 을 생성하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 전자기기에서 3차원 컨텐츠 생성을 위한 두 장의 영상을 생성하는 장치는, 객체의 Z축 거리를 측정하여 상기 Z축 거리에 따른 양안차이를 결정하는 양안차이 결정부와, 제 1 투영 매트릭스를 이용하여 제 1 영상을 생성하고, 상기 양안차이를 고려한 제 2 투영 매트릭스를 결정하여 제 2 영상을 생성하는 투영 매트릭스 결정 및 적용부를 포함하는 것을 특징으로 한다.
본 발명은 전자기기에서 3차원 컨텐츠 생성 시, 정규화 좌표계에서 객체의 Z축 거리를 이용하여 양안차이를 결정하고, 상기 양안차이를 고려한 투영 매트릭스를 생성하여 양안차이가 반영된 두 장의 영상을 획득함으로써, 양안차이가 과도하게 설정되는 것을 방지하여 시각적인 피로감을 감소시킬 수 있고, 종래 기술에 비해 연산 복잡도가 낮아 연산으로 인한 시스템의 부담을 감소시킬 수 있으며, 양안 시차를 영역별 및 모델별로 달리 설정할 수 있어 하드웨어 특성 및 렌더링 효과에 따라 입체감을 유동성 있게 조절할 수 있는 효과가 있다. 또한, 입체 디스플레이를 고려하지 않고 개발된 컨텐츠의 경우에도 입체 컨텐츠로 자동 변환할 수 있는 효과가 있다.
이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.
이하 본 발명에서는 전자기기에서 정규화 좌표계에서의 양안차이를 고려한 투영 매트릭스를 이용하여 3차원 컨텐츠를 생성하는 방법 및 장치에 관해 설명할 것이다. 여기서, 상기 컨텐츠는 전자기기에 탑재된 가상 장치(virtual machine) 혹은 실행기(player)에 의해 실행되는 응용(application) 파일로서 다른 어플리케이션 혹은 컨텐츠와 연계되지 않고 독립적으로 동작하는 것으로, 3D 가상 월드를 구성하고 렌더링 과정을 거치는 컨텐츠를 통칭하는 의미이다. 이하 설명에서는 양안차이를 갖는 두 장의 영상을 각각 좌 영상과 우 영상이라 칭하기로 한다.
도 3은 본 발명에 따른 전자기기에서 양안차이를 고려한 투영 매트릭스를 이용하여 양안차이를 갖는 두 장의 영상을 획득하기 위한 정점 변환 단계를 도시하고 있다.
상기 도 3에 도시된 바와 같이, 본 발명에서는 파이프라인을 통해 객체의 좌 영상을 생성하는 과정에서 상기 객체의 Z축 거리에 따른 양안차이(332)를 결정하고, 상기 양안차이(332)를 고려한 투영 매트릭스 P'(334)를 생성하여 상기 객체의 우 영상을 생성 및 렌더링한다. 즉, 본 발명에서는 상기 좌 영상을 위해 투영 좌표계에서 정규화 좌표로 변환하는 과정에서 객체의 Z 축 거리에 따라 픽셀 단위의 양 안차이(332)를 결정한 후, 하기 수학식 1을 이용하여 상기 양안차이(332)에 따른 투영 매트릭스 P'(334)를 생성하고, 상기 투영 매트릭스 P'(334)를 이용하여 상기 우 영상을 생성한다.
Figure 112009071009404-pat00001
Figure 112009071009404-pat00002
Figure 112009071009404-pat00003
Figure 112009071009404-pat00004
여기서, 상기 Vo는 로컬 좌표계에서 정점, MC는 모델 뷰 변환 매트릭스, P는 투영 매트릭스, Vp는 투영 좌표계의 정점을 의미한다. 또한, Vpn은 Vp를 정규화 장치 좌표계(혹은 정규화 좌표계)로 변환한 정점이며, w는 4차원으로 표현된 동차좌표계의 w성분을 의미하고, WIDTH는 디스플레이 중점으로부터 가로 최대 픽셀까지의 거리 값을 의미하며, d는 양안차이에 의해 디스플레이에 상이 맺힌 경우의 차이를 나타내는 픽셀 값을 의미한다. V'pn는 상기 정규화 장치 좌표계에서 양안차이만큼 이동된 정점을 의미하며, V'p는 상기 V'pn를 투영 좌표계로 다시 변환한 정점을 의미한다.
즉, 본 발명에서는 좌 영상과 양안차이를 갖는 우 영상을 렌더링하기 위해서 상기 수학식 1과 같이 Vo를 V'p로 변환하는 P'를 구해야 한다.
그러면, 상술한 설명을 바탕으로 하기 도 4 내지 도 7을 참조하여 본 발명에 따른 전자기기에서 정규화 좌표계에서 양안차이를 결정하고, 상기 양안차이를 고려한 투영 매트릭스를 이용하여 3차원 컨텐츠를 생성하는 장치 및 방법에 살펴보기로 한다.
도 4는 본 발명에 따른 전자기기의 블록 구성을 도시하고 있다.
상기 도 4를 참조하면, 상기 전자기기는 기하정보 구성부(400), 정보 생성부(410), 투영 매트릭스 결정 및 적용부(420), 렌더링부(430) 및 출력부(440)를 포함하여 구성되며, 상기 정보 생성부(410)는 양안차이 결정부(412)를 포함하여 구성된다.
상기 기하정보 구성부(400)는 렌더링할 객체의 기하정보를 생성하여 상기 정보 생성부(410)로 제공한다.
상기 정보 생성부(410)는 양안 시차 기준점을 생성하고, 객체별 혹은 렌더링 장면(scene) 별로 기준점 값을 설정하여 상기 투영 매트릭스 결정 및 적용부(420)로 제공한다. 또한, 상기 정보 생성부(410)는 상기 양안차이 결정부(412)를 포함함으로써, 정규화 장치 좌표계에서 객체의 Z축 거리에 따른 양안차이를 결정하여 상기 투영 매트릭스 결정 및 적용부(420)로 제공한다. 여기서, 상기 양안 시차 기준 점은 도 6(a)에 도시된 바와 같은, 제로 시차(604), 최대 음의 시차(603) 및 최대 양의 시차(605)를 포함하는 의미로서, 상기 최대 음의 시차(603)와 최대 양의 시차(605)는 음의 시차(Negative Parallax) 영역과 양의 시차(Positive Parallax) 영역에서 상기 제로 시차(604)를 기준으로 좌, 우 픽셀 차이가 가장 큰 시작점으로, 상기 양안차이가 양 혹은 음의 방향으로 가질 수 있는 최대 픽셀값을 나타낸다. 여기서, 상기 최대 음의 시차(603)에 좌 우 픽셀 차이 값이 맵핑되는 경우, 이는 임의의 객체가 상기 최대 음의 시차(603) 지점에 위치하는 상황에서 디스플레이 화면으로 봤을 때 상기 객체의 좌 영상이 렌더링된 위치에서 상기 좌 우 픽셀 차이(611,612) 만큼 수평으로 이동된 위치에 우 영상이 렌더링됨을 의미한다.
상기 양안차이 결정부(410)는 객체의 Z축 거리에 따라 반영되는 좌, 우 픽셀 차이 정도를 함수로 맵핑시키고, 상기 함수를 이용하여 양안차이를 결정한다. 이때, 상기 양안차이 결정부(410)는 상기 도 6(b) 및 6(c)에 도시된 바와 같이, 상기 제로 시차에 대한 Z축 거리가 짧을수록 픽셀 값이 작아지고, Z축 거리가 음 혹은 양의 방향으로 길 수록 픽셀 값이 커지도록 함수를 설정할 수 있다. 물론, 상기 함수는 디스플레이 특성에 따라 혹은 입체감 효과에 따라 달리 설정할 수 있다. 예를 들어, 상기 도 6에 도시된 바와 같이 가상 공간 내에서 객체 A(601)가 음의 시차 영역에 위치하고, 객체 B(602)가 양의 시차 영역에 위치하는 경우, 디스플레이 화면(608)을 통해 보면, 상기 객체 A(601)와 B(602) 각각의 양안차이는 설정된 시차 기준점과 객체의 Z축 거리 및 맵핑된 좌 우 영상 픽셀 차이 값에 따라 결정된다. 여기서는, 상기 디스플레이 화면(608)에서 실선으로 표현된 객체 A와 B가 좌 영상 으로 디스플레이되고, 점선으로 표현된 객체 A와 B가 우 영상으로 디스플레이될 수 있다. 여기서, 상기 제로 시차(604)와 최대 음의 시차(603) 및 최대 양의 시차(605)를 나타내는 기준점은 장면(scene)별로 해당 객체들로부터 추출하여 자동으로 설정될 수 있으며, 시스템에서 고정적으로 설정하여 사용할 수도 있다. 또한, 여기서 상기 최대 음의 시차(603) 혹은 최대 양의 시차(605) 지점을 벗어난 객체의 경우, 상기 최대 음의 시차 혹은 최대 양의 치사와 맵핑된 좌, 우 영상 픽셀 차이값(611, 612)을 적용할 수 있으며, 이는 과도한 양안차이가 적용되는 것을 방지할 수 있다.
상기 투영 매트릭스 결정 및 적용부(420)는 상기 정보 생성부(410)로부터 객체의 렌더링에 필요한 각종 정보와 양안차이를 제공받고, 상기 수학식 1과 같이 상기 양안차이를 고려한 투영 매트릭스를 생성하여 우 영상의 렌더링에 이용한다. 상기 투영 매트릭스 결정 및 적용부(420)는 도 5에 도시된 바와 같이, 제 1 투영 매트릭스를 결정하여 객체의 좌 영상을 생성하는 부분(500)과 상기 양안차 결정부(412)에서 결정한 양안차이를 반영하여 제 2 투영 매트릭스를 결정하고, 상기 제 2 투영 매트릭스를 이용하여 우 영상을 생성하는 부분(510)으로 구성된다.
상기 렌더링부(430)는 상기 양안차이가 적용된 영상 좌 우 영상을 렌더링하고, 상기 출력부(410)는 화면에 상기 양안차이가 적용되어 렌더링된 좌 우 영상을 디스플레이한다.
도 7은 본 발명의 실시 예에 따른 전자기기의 동작 절차를 도시하고 있다.
상기 도 7을 참조하면, 상기 전자기기는 701단계에서 객체의 좌 영상을 생성하기 위한 파이프라인 과정 중에서 상기 좌 영상의 정규화 좌표계 영역에서 상기 객체의 Z축 거리를 측정한다. 이후, 상기 전자기기는 703단계에서 상기 Z축 거리를 이용하여 양안차이를 결정하고, 705단계로 진행하여 상기 양안차이를 이용하여 우 영상을 위한 제 2 투영 매트릭스를 생성한다. 이때, 상기 전자기기는 상기 양안차이 결정시 상기 도 6에 도시된 바와 같은 제로 시차, 최대 음의 시차 및 최대 양의 시차를 고려하여 객체의 Z축 거리에 따른 좌우 픽셀 차이 정도를 나타내는 함수를 이용하여 상기 양안차이를 결정할 수 있다. 또한, 상기 전자기기는 상기 수학식 1을 이용하여 양안차이를 고려한 제 2 투영 매트릭스를 생성할 수 있다.
이후, 상기 전자기기는 707단계에서 상기 제 2 투영 매트릭스를 이용하여 우 영상을 생성하고, 709단계에서 모든 객체에 대해 상기 과정이 수행되었는지 검사한다. 상기 전자기기는 모든 객체에 대해 상기 과정이 수행되지 않았을 시 상기 701단계로 되돌아가 이하 단계를 재수행하고, 상기 모든 객체에 대해 상기 과정이 수행되었을 시 711단계로 진행하여 상기 좌 우 영상을 렌더링하여 화면에 디스플레이하고, 본 발명에 따른 알고리즘을 종료한다.
상술한 설명에서는 객체의 좌 영상을 생성하고 상기 좌 영상의 정규화 장치 좌표계에서 양안차이를 결정한 후, 이를 반영한 투영 매트릭스를 계산하여 우 영상을 생성하였으나, 그 반대의 경우에도 동일하게 적용할 수 있다. 즉, 객체의 우 영상을 생성하고 상기 우 영상의 정규화 장치 좌표계에서 양안차이를 결정한 후, 이 를 반영한 투영 매트릭스를 계산하여 좌 영상을 생성할 수도 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 일반적인 그래픽 파이프라인의 정점 변환 단계를 도시하는 도면,
도 2는 종래 기술에 따라 카메라 파라미터를 이용하여 양안차이를 갖는 두 장의 영상을 획득하기 위한 정점 변환 단계를 도시하는 도면,
도 3은 본 발명에 따른 전자기기에서 양안차이를 고려한 투영 매트릭스를 이용하여 양안차이를 갖는 두 장의 영상을 획득하기 위한 정점 변환 단계를 도시하는 도면,
도 4는 본 발명에 따른 전자기기의 블록 구성을 도시하는 도면,
도 5는 본 발명의 실시 예에 다른 전자기기에서 투영 매트릭스 계산 및 적용부의 상세 구성을 도시하는 도면,
도 6은 본 발명의 실시 예에 따른 전자기기에서 시차와 픽셀 차이 값이 렌더링 화면에 반영되는 개념을 도시하는 도면, 및
도 7은 본 발명의 실시 예에 따른 전자기기의 동작 절차를 도시하는 도면.

Claims (10)

  1. 전자기기에서 3차원 컨텐츠 생성을 위한 두 장의 영상들을 생성하는 방법에 있어서,
    제 1 투영 매트릭스를 이용한 제 1 영상을 생성하는 절차 중에 객체의 Z축 거리를 측정하는 과정과,
    상기 Z축 거리에 따른 양안차이를 결정하는 과정과,
    상기 양안차이를 고려한 제 2 투영 매트릭스를 결정하는 과정과,
    상기 제 2 투영 매트릭스를 이용하여 제 2 영상을 생성하는 과정을 포함하고,
    상기 Z축 거리에 따른 양안차이는, 제로 시차, 최대 음의 시차 및 최대 양의 시차를 고려하여 상기 Z축 거리에 따라 좌우 픽셀 차이 정도를 나타내는 함수를 이용하여 결정하는 것을 특징으로 하는 방법.
  2. 제 1항에 있어서,
    상기 Z축 거리는, 상기 제 1 영상의 정규화 장치 좌표계를 통해 측정하는 것을 특징으로 하는 방법.
  3. 삭제
  4. 제 1항에 있어서,
    상기 제로 시차, 상기 최대 음의 시차 및 상기 최대 양의 시차는, 기준점으로 각각 고정되거나 각각의 객체들로부터 추출되어 기준점으로 각각 설정되는 것을 특징으로 하는 방법.
  5. 제 1항에 있어서,
    상기 양안차이를 고려한 제 2 투영 매트릭스는, 하기 수학식 2를 이용하여 결정되고,
    Figure 112016018633215-pat00005
    상기 Vo는, 로컬 좌표계에서 정점이고,
    상기 MC는, 모델 뷰 변환 매트릭스이고,
    상기 P'는, 제 2 투영 매트릭스이고,
    상기 V'p는, 정규화 장치 좌표계에서 양안차이만큼 이동된 정점을 투영 좌표계로 다시 변환한 정점을 의미하는 것을 특징으로 하는 방법.
  6. 전자기기에서 3차원 컨텐츠 생성을 위한 두 장의 영상들을 생성하는 장치에 있어서,
    객체의 Z축 거리를 측정하여 상기 Z축 거리에 따른 양안차이를 결정하는 양안차이 결정부와,
    제 1 투영 매트릭스를 이용하여 제 1 영상을 생성하고, 상기 양안차이를 고려한 제 2 투영 매트릭스를 결정하여 제 2 영상을 생성하는 투영 매트릭스 결정 및 적용부를 포함하고,
    상기 양안차이 결정부는, 제로 시차, 최대 음의 시차 및 최대 양의 시차를 고려하여 상기 Z축 거리에 따라 좌우 픽셀 차이 정도를 나타내는 함수를 통해 상기 Z축 거리에 따른 양안차이를 결정하는 것을 특징으로 하는 장치.
  7. 제 6항에 있어서,
    상기 Z축 거리는, 상기 제 1 영상의 정규화 장치 좌표계를 통해 측정하는 것을 특징으로 하는 장치.
  8. 삭제
  9. 제 6항에 있어서,
    상기 제로 시차, 상기 최대 음의 시차 및 상기 최대 양의 시차는, 기준점으로 각각 고정되거나 각각의 객체들로부터 추출되어 기준점으로 각각 설정되는 것을 특징으로 하는 장치.
  10. 제 6항에 있어서,
    상기 투영 매트릭스 결정 및 적용부는, 하기 수학식 3을 이용하여 상기 양안차이를 고려한 제 2 투영 매트릭스를 결정하고,
    Figure 112016018633215-pat00006
    상기 Vo는, 로컬 좌표계에서 정점이고,
    상기 MC는, 모델 뷰 변환 매트릭스이고,
    상기 P'는, 제 2 투영 매트릭스이고,
    상기 V'p는, 정규화 장치 좌표계에서 양안차이만큼 이동된 정점을 투영 좌표계로 다시 변환한 정점을 의미하는 것을 특징으로 하는 장치.
KR1020090111890A 2009-11-19 2009-11-19 전자기기에서 3차원 컨텐츠 생성 방법 및 장치 KR101631514B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090111890A KR101631514B1 (ko) 2009-11-19 2009-11-19 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
US12/950,624 US20110210966A1 (en) 2009-11-19 2010-11-19 Apparatus and method for generating three dimensional content in electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090111890A KR101631514B1 (ko) 2009-11-19 2009-11-19 전자기기에서 3차원 컨텐츠 생성 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20110055032A KR20110055032A (ko) 2011-05-25
KR101631514B1 true KR101631514B1 (ko) 2016-06-17

Family

ID=44364122

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090111890A KR101631514B1 (ko) 2009-11-19 2009-11-19 전자기기에서 3차원 컨텐츠 생성 방법 및 장치

Country Status (2)

Country Link
US (1) US20110210966A1 (ko)
KR (1) KR101631514B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9578299B2 (en) * 2011-03-14 2017-02-21 Qualcomm Incorporated Stereoscopic conversion for shader based graphics content
CN103609106A (zh) * 2012-01-18 2014-02-26 松下电器产业株式会社 发送装置、影像显示装置、发送方法、影像处理方法、影像处理程序以及集成电路
CN103108204A (zh) * 2012-12-06 2013-05-15 福建天晴数码有限公司 一种基于Win7或Win Vista的3D显示方法
CN103024414A (zh) * 2012-12-06 2013-04-03 福建天晴数码有限公司 一种基于WinXP***的3D显示方法
US10366536B2 (en) 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
US20180211434A1 (en) * 2017-01-25 2018-07-26 Advanced Micro Devices, Inc. Stereo rendering
WO2018140223A1 (en) * 2017-01-25 2018-08-02 Advanced Micro Devices, Inc. Stereo rendering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5929859A (en) 1995-12-19 1999-07-27 U.S. Philips Corporation Parallactic depth-dependent pixel shifts
US6630931B1 (en) 1997-09-22 2003-10-07 Intel Corporation Generation of stereoscopic displays using image approximation
US20050271303A1 (en) 2004-02-10 2005-12-08 Todd Simpson System and method for managing stereoscopic viewing
JP2007048293A (ja) * 2005-08-05 2007-02-22 Samsung Sdi Co Ltd 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8004515B1 (en) * 2005-03-15 2011-08-23 Nvidia Corporation Stereoscopic vertex shader override
US8284204B2 (en) * 2006-06-30 2012-10-09 Nokia Corporation Apparatus, method and a computer program product for providing a unified graphics pipeline for stereoscopic rendering
US7982733B2 (en) * 2007-01-05 2011-07-19 Qualcomm Incorporated Rendering 3D video images on a stereo-enabled display
US20100328428A1 (en) * 2009-06-26 2010-12-30 Booth Jr Lawrence A Optimized stereoscopic visualization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5929859A (en) 1995-12-19 1999-07-27 U.S. Philips Corporation Parallactic depth-dependent pixel shifts
US6630931B1 (en) 1997-09-22 2003-10-07 Intel Corporation Generation of stereoscopic displays using image approximation
US20050271303A1 (en) 2004-02-10 2005-12-08 Todd Simpson System and method for managing stereoscopic viewing
JP2007048293A (ja) * 2005-08-05 2007-02-22 Samsung Sdi Co Ltd 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法

Also Published As

Publication number Publication date
KR20110055032A (ko) 2011-05-25
US20110210966A1 (en) 2011-09-01

Similar Documents

Publication Publication Date Title
KR101631514B1 (ko) 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
US11276225B2 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
EP2944081B1 (en) Stereoscopic conversion of graphics content based on viewing orientation
US10546429B2 (en) Augmented reality mirror system
WO2009153975A1 (ja) 電子ミラー装置
US20190026935A1 (en) Method and system for providing virtual reality experience based on ultrasound data
CN109615664B (zh) 一种用于光学透视增强现实显示器的标定方法与设备
KR20150121127A (ko) 양안 응시 이미징 방법 및 장치
TW201408041A (zh) 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體
US11651506B2 (en) Systems and methods for low compute high-resolution depth map generation using low-resolution cameras
JP7459051B2 (ja) 角検出のための方法および装置
EP3001681B1 (en) Device, method and computer program for 3d rendering
WO2023056840A1 (zh) 三维物体的显示方法、装置、设备及介质
Avveduto et al. Real-world occlusion in optical see-through AR displays
EP2520345A2 (en) Image producing system, image producing program and image producing method
US9672653B2 (en) Stereo viewpoint graphics processing subsystem and method of sharing geometry data between stereo images in screen-spaced processing
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
KR101807512B1 (ko) 맵핑형 3차원 상호작용 장치 및 방법
KR20050078328A (ko) 입체감을 조절할 수 있는 입체영상 표시장치 및 그 방법
US20210319624A1 (en) Image processing device, image processing method, and program
KR101227183B1 (ko) 3d 그래픽 모델 입체 렌더링 장치 및 입체 렌더링 방법
JP7465133B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190530

Year of fee payment: 4