KR100893855B1 - 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진 - Google Patents

3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진 Download PDF

Info

Publication number
KR100893855B1
KR100893855B1 KR1020020016502A KR20020016502A KR100893855B1 KR 100893855 B1 KR100893855 B1 KR 100893855B1 KR 1020020016502 A KR1020020016502 A KR 1020020016502A KR 20020016502 A KR20020016502 A KR 20020016502A KR 100893855 B1 KR100893855 B1 KR 100893855B1
Authority
KR
South Korea
Prior art keywords
application
texture
rendered
single rectangle
dimensional
Prior art date
Application number
KR1020020016502A
Other languages
English (en)
Other versions
KR20030077680A (ko
Inventor
두드니코프세르게이
고렐릭세르게이
체르넨코발레리
페도로프알렉산더
카클릿안톤
쿠즈네츠소프에브게니
포포프알렉산더
Original Assignee
주식회사 엘지이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지이아이 filed Critical 주식회사 엘지이아이
Priority to KR1020020016502A priority Critical patent/KR100893855B1/ko
Publication of KR20030077680A publication Critical patent/KR20030077680A/ko
Application granted granted Critical
Publication of KR100893855B1 publication Critical patent/KR100893855B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

공지된 2차원 백그라운드와 결합한 어플리케이션 오브젝트들의 자동 입체적인 풀-패럴랙스 3차원 영상의 시각화를 제공하는 상호 작용의 어플리케이션 엔진에 관한 것이다. 상기 엔진은 어플리케이션 공간 내의 임의의 포지션에서 어플리케이션 오브젝트들의 3D 시각화를 위한 소스 데이터로서 오브젝트 위치(localization)의 키 포인트에 해당하는 제한된 임시 랜더된 텍스쳐 셋트를 사용하는 3D 영상의 랜더링 기술을 기반으로 한다. 상기 3D 시각화는 인테그랄 포토그라피 기술을 기반으로 한다.
3D 시각화, 랜더링

Description

3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원 어플리케이션 엔진{Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application}
도 1은 3D 오브젝트 시각화를 위해 임시 랜더된 투영상 셋트를 사용하는 상호 작용의 어플리케이션 엔진의 기능적 도면
도 2는 3D 오브젝트 시각화를 위한 임시 랜더된 투영상 셋트의 사용을 위해 설계된 도 1의 랜더링 모듈의 기능적 도면
본 발명은 일반적으로 어플리케이션 오브젝트의 3차원(Three-dimensional ; 3D) 영상의 시각화를 제공하는 PC(Personal Computer) 기반의 상호 작용의 어플리케이션 엔진 및 상기 어플리케이션 엔진을 갖는 3차원 포그라운드와 2차원 백그라운드 결합 방법에 관한 것이다. 본 발명에서 상기 3D 영상의 시각화는 인테그랄 포토그라피(integral photography) 기술을 기반으로 한다.
통상, 인테그랄 포토그라피는 연속적인 패럴랙스(parallax) 3D 영상을 캡쳐하여 디스플레이하는 광학 기술로 알려져 있다.
상기 기술은 2차원 구형 마이크로 렌즈 어레이(spherical microlens array)(즉, 플라이 아이 렌즈)를 이용하여 3D 영상을 기록/재생하는 것을 기반으로 한다.
기록하는 동안, 수많은 아주 작은 픽쳐들이 각 마이크로 렌즈의 초점면에 나타난다. 각 픽쳐는 등록된 3D 오브젝트의 일부분에 해당하고, 투영상(aspectogram)이라 부르는 그들 픽쳐들의 셋트를 완성한다.
재생하는 동안, 투영상은 투영상 캐리어 스크린 상에 디스플레이되고, 최초 오브젝트들의 true-scale 3D 복사본이 나타나도록 각 복구되는 마이크로 영상이 다른 영상과 통합된다. 임의의 통합 디바이스로서, 기록 단계에서 적용된 같은 마이크로 렌즈 어레이가 사용된다.
Ando et al.은 전형적인 리얼-타임 인테그랄 포토그라피 캡쳐 어플리케이션 및 마이크로 렌즈 어레이에 의해 형성되는 3D 영상의 기록/전송/재생으로 이루어진 영상 시스템을 특허 출원한 바 있다. 다른 방법으로는, Brown이 캐소드 레이 튜브에 대해 상기와 유사한 시스템을 제안하였다. Doudnikou는 리얼 타임 포로젝션 시스템의 형식으로 이 방법을 적용하였다.
최근에 3D 인식을 제공하는 대부분의 리얼 타임 어플리케이션들은 3D 영상 시각화에 필요한 데이터의 리얼 타임 컴퓨터 랜더링(rendering)을 기반으로 한다.
그런 종류의 랜더링은 예를 들면, Visual Papilla Recognition(VISPAR) 시스템에서와 같이 어플리케이션 오브젝트의 리얼 타임 캡쳐의 결과를 컴퓨터 처리를 위한 소스 정보로서 사용하는 것으로 제공될 수 있다.
어플리케이션 오브젝트들에 관한 정보 소스로서, 리얼 타임 3D 영상 랜더링 을 위한 특정 목적의 소프트웨어를 사용하여 생성된 그들 가상 모델(예를 들면, 다각형 메쉬(polygonal mesh))이 사용될 수 있다. 그런 기술은 패럴랙스 파노라모그램(panoramogramm)과 같은 Horizontal Parallax Only(HPO) 시스템에 적용된다.
인테그랄 포토그라피와 같은 풀 패럴랙스(Full parallax) 시스템을 실현하려면, 3D 영상 시각화를 위해 요구되는 데이터의 온-라인 랜더링을 제공하기 위해 아주 많은 계산 레벨이 요구된다.
그런 어려움을 피하려면, 임시 랜더링된 데이터(preliminary rendered data)가 3D 영상의 시각화를 위해 사용되어야 한다.
그런 사실 때문에, 임시 랜더된 데이터에 해당하는 3D 영상만이 재생되고, 그 결과 애니메이트된 영화와 같은 어플리케이션을 얻을 수 있다(Nakajima et al.).
본 발명의 목적은 3D 오브젝트의 투영상이라 명명된 마이크로 영상들의 임시 랜더된 셋트들을 어플리케이션의 로직에 종속되는 임의의 포지션으로 국한되는 어플리케이션 오브젝트들의 시각화를 위한 소스 데이터로 사용하여 3D 영상을 시각화하는 어플리케이션 엔진 및 상기 어플리케이션 엔진을 갖는 3차원 포그라운드와 2차원 백그라운드 결합 방법을 제공함에 있다.
상기와 같은 목적을 달성하기 위해, 본 발명은 PC 기반의 상호 작용의 리얼 타임 어플리케이션을 이용하여 어플리케이션 오브젝트들의 자동 입체적인 풀-패럴 랙스 3차원 영상을 복구하며, 이러한 어플리케이션을 갖는 3차원 포그라운드와 2차원 백그라운드를 결합하는 것을 특징으로 한다.
바람직하게는 상기 어플리케이션 오브젝트들의 3차원 영상의 복구는 인테그랄 포토그라피 기술을 사용하는 것을 특징으로 한다.
바람직하게는 상기 어플리케이션의 2차원 백그라운드를 제공하기 위해 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 사용하는 것을 특징으로 한다.
바람직하게는 상기 어플리케이션 오브젝트의 자동 입체적인 3차원 영상의 시각화를 위한 소스 데이터로서 마이크로 영상의 임시 랜더된 셋트를 이용하는데 이때, 상기 어플리케이션 오브젝트의 키 위치(localization)에 해당하는 임시 랜더된 마이크로 영상만을 이용하는 것을 특징으로 한다.
바람직하게는 상기 3차원 어플리케이션 오브젝트로서 시각화되도록 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 단순 직사각형으로 변환(replacement)하는 것을 특징으로 한다.
바람직하게는 상기 어플리케이션 오브젝트의 다각형 메쉬를 대신하는 단순 직사각형에 대한 텍스쳐 비트맵으로 마이크로 영상의 임시 랜더된 셋트를 적용하는 것을 특징으로 한다.
바람직하게는 임의의 어플리케이션 오브젝트 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 셋트를 생성하는 것을 특징으로 한다.
바람직하게는 상기 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 임의의 어플리케이션 오브젝트 포지션에 해당하는 단일 직사각형으로 변환하기 위해 상기 직사각형들의 셋트를 중첩하는 것을 특징으로 한다.
바람직하게는 3D 어플리케이션 오브젝트로서 시각화되어질 오브젝트의 임의의 비임시적인 랜더된 포지션에 해당하는 마이크로 영상 셋트를 형성하기 위해, 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 몇 개의 텍스쳐를 블렌딩하는 것을 특징으로 한다.
바람직하게는 임의의 포지션으로 제한된 어플리케이션 오브젝트의 3D 이미지의 시각화를 위해, 중간 어플리케이션 오브젝트의 포지션에 해당하는 직사각형에 대한 텍스쳐 비트맵으로 상기 블렌드된 마이크로 영상 셋트를 적용하는 것을 특징으로 한다.
바람직하게는 자동 입체적인 3D 영상의 복구를 제공하는 인테그랄 촬영 기술 또는 어떤 다른 기술을 기반으로 한 3D 디스플레이가 마이크로 영상의 임시 랜더된 셋트를 기반으로 한 상호작용, 리얼 타임 어플리케이션을 위한 시각화 디바이스로서 사용되는 것을 특징으로 한다.
본 발명에 따른 PC 기반의 상호 작용의 리얼 타임 어플리케이션 엔진은, 어플리케이션 오브젝트들의 자동 입체적인(autostereoscopic) 풀-패럴랙스 3차원 영상의 복구를 제공하는 것을 특징으로 한다.
바람직하게는 상기 어플리케이션 엔진은 3차원 어플리케이션 오브젝트로서 시각화되도록 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 단순 직사각형으 로 변환(replacement)하고, 상기 단순 직사각형에 대한 텍스쳐 비트맵으로 어플리케이션 오브젝트의 마이크로 영상의 임시 랜더된 셋트를 적용하는 랜더링 모듈을 구비하는 것을 특징으로 한다.
바람직하게는 상기 랜더링 모듈은 임의의 어플리케이션 오브젝트 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 셋트를 생성하는 것을 특징으로 한다.
바람직하게는 상기 랜더링 모듈은 임의의 어플리케이션 오브젝트 위치(localization)에 해당하는 단일 직사각형을 생성하기 위한 중첩 모듈을 더 구비하는 것을 특징으로 한다.
바람직하게는 상기 랜더링 모듈은 임의의 어플리케이션 오브젝트 포지션에 해당하는 마이크로 영상 셋트를 형성하기 위한 블렌딩 모듈을 더 구비하는 것을 특징으로 한다.
바람직하게는 상기 랜더링 모듈은 중간 어플리케이션 오브젝트의 포지션에 해당하는 직사각형에 대한 텍스쳐 비트맵으로 상기 블렌드된 마이크로 영상 셋트를 적용하여, 임의의 포지션으로 제한된 어플리케이션 오브젝트의 3D 영상을 시각화하는 것을 특징으로 한다.
본 발명의 다른 목적, 특징 및 잇점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하 며, 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 상기한 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
도 1은 본 발명에 따른 3D 게임 엔진의 기능적 도면이다. 게임을 위한 소스로서, 3D Studio MAX(또는, 다른 호환 가능한 소프트웨어)를 사용하여 생성된 3D 환경 오브젝트들이 사용된다. 이들 오브젝트들은 소스 오브젝트 셋트(source objects set)로 구성된다.
그리고, 모든 오브젝트들은 Export 플러그-인을 사용하여 내부 게임 포맷으로 변환된다. 상기 Export 플러그-인은 다른 것들에 부가하여 통상 오브젝트의 시각화를 위해 사용하는 엔진 커넬(engine kernel) 내의 내부 오브젝트 표현(internal object representation)을 형성한다.
상기 내부 오브젝트 표현은 해당 텍스쳐를 갖는 3차원 어플리케이션 오브젝트의 표면에 해당하는 다각형 메쉬이다.
상기 어플리케이션 오브젝트의 내부 오브젝트 표현은 게임 로직의 기능을 갖고 있는 내부 오브젝트 콘트롤러(internal object controllers)와 게임 처리 중에 상호 작용으로 유저가 개입할 수 있게 해주는 외부 오브젝트 콘트롤러(external object controllers)와 링크된다. 상기 내부 오브젝트 표현은 상기 내부 및 외부 오브젝트 콘트롤러의 영향하에 있다.
부가적으로, 투영상 데이터베이스(aspectogram database)를 형성하는 투영상 비트맵 셋트를 얻기 위해, 3D 영상으로서 표시되어지는 오브젝트들은 투영상 발생 툴킷(aspectogram generation toolkit)을 사용하여 임시로 처리되어진다.
오브젝트의 투영상 비트맵 셋트 내의 각 투영상 비트맵은 어플리케이션 공간 내의 오브젝트의 키 포지션에 일부분 해당한다. 투영상 비트맵은 어플리케이션 오브젝트들의 3D 시각화를 제공하기 위한 텍스쳐로서 사용될 것이다.
내부 게임 오브젝트 셋트는 "Live" 어플리케이션 씬을 형성하기 위해 사용된다. 상기 "Live" 어플리케이션 씬은 내부 오브젝트 콘트롤러가 제공하는 게임 로직을 사용하고, 외부(유저) 오브젝트 콘트롤러가 제공하는 유저의 개입을 고려하는 엔진 커넬의 영향하에 있다.
상기 형성된 "Live" 어플리케이션 씬은 랜더링 모듈에 대한 입력 정보이다.
2D 백그라운드로서 표현되어지는 오브젝트들을 시각화하려면 통상적으로 랜더된 오브젝트의 표면에 해당하는 다각형 메쉬를 오브젝트의 텍스쳐로 매핑하는 랜더링 처리가 사용된다.
3D 영상으로서 표현되어질 오브젝트의 경우는, 다각형 메쉬가 단순 직사각형(simple rectangle)으로 변환된다.
상기 투영상 데이터베이스에서 출력되는 적절한 투영상 비트맵은 3D 디스플레이 상에 3D 영상의 재현을 제공하는 해당 직사각형에 대한 텍스쳐로서 사용된다.
상기에서 언급된 어떠한 왜곡 차원을 피하려면, 직사각형은 투영상 비트맵 사이즈에 정확하게 해당되어야 한다.
적절한 게임 레이트 값을 유지하기 위해, 하드웨어 가속기가 랜더링의 마지막 단계(final stage)에서 사용되어진다.
도 2는 도 1의 랜더링 모듈의 기능적 도면이다.
도 2를 보면, "Live" 어플리케이션 씬 내의 각 오브젝트에 대해서, 오브젝트는 3D 오브젝트로서 시각화할 것인지를 판별한다.
만일, 상기 오브젝트가 3D 표현을 이용하여 시각화되지 않는다면, 2D 백그라운드로서 오브젝트를 시각화하기 위해 통상적으로 오브젝트의 다각형 메쉬를 오브젝트의 텍스쳐로 매핑하는 2D 백그라운드 랜더링이 적용된다.
한편, 상기 오브젝트가 3D 표현을 이용하여 시각화된다면 3D 랜더링이 수행되어야 한다.
이때, 자동 입체적인 3D 영상으로서 어플리케이션 오브젝트를 표현하려면, 프로세스는 훨씬 더 복잡해진다.
먼저, 오브젝트 상태(state)는 엔진 커넬에서 생성된 "Live 어플리케이션 씬"으로부터 입력받는다. 그리고 나서, 상기 오브젝트 포지션이 하나의 키 포지션인지를 판별한다.
상기 조건이 맞다고 판단되면 즉, 오브젝트 포지션이 하나의 키 포지션이라면 오브젝트의 다각형 메쉬는 무시하고, 단일의 직사각형(single rectangle)이 상기 투영상 데이터베이스에서 제공되는 키 포지션 투영상 텍스쳐(key position aspectogram texture)에 적용되어 랜더링된다.
상기 조건이 맞지 않다면, 상기 오브젝트의 가장 가까운 키 위치(localization)에 해당하는 직사각형들의 셋트가 생성된다. 그리고, 중첩 모듈(superimposing module)에 의해, 상기 직사각형들의 셋트 중 단일 직사각형이 원하는 포지션에서 생성된다.
동시에, 선택된 키 포지션에 해당하는 투영상 비트맵 텍스쳐들이 투영상 데이터베이스로부터 출력되고, 블렌딩 모듈에 의해 블렌딩된다.
이때, 상기 블렌딩 모듈을 사용함으로써, 다른 키 위치 사이에서 재생된 3D 오브젝트들의 러닝을 스무스하게 할 수 있다.
상기 블렌딩 모듈에 의해 블렌드된 텍스쳐는 상기 중첩 모듈에 의해 생성된 단일 직사각형에 대해 매핑되어질 텍스쳐이다. 결과가 3D 디스플레이 상에 표시된다.
이와 같이 본 발명은, 임시 랜더된 데이터 량은 어플리케이션 오브젝트의 키 포지션에 해당하는 투영상들만으로 제한되며, 본 발명의 랜더링 모듈은 시각화 전에 오브젝트들의 랜더링에 사용된다.
이때, 2차원(2D) 백그라운드 오브젝트(어플리케이션 환경을 제공)와 포그라운드 오브젝트(3차원 영상으로서 시각화됨)와의 양쪽 결합은 그런 종류의 어플리케이션에 사용된다. 그리고, 랜더링 과정 동안, 2D 백그라운드로서 이용되는 오브젝트들은 통상적인 방법(즉, 어플리케이션 오브젝트의 표면을 표현하는 다각형 메쉬를 텍스쳐로 매핑함)으로 랜더된다. 동시에, 3D 오브젝트로서 시각화되어질 오브젝트의 다각형 메쉬 표현은 단순 직사각형으로 변환되고, 변환된 단순 직사각형은 임시 랜더된 투영상과 이에 따르는 3D 공간내의 적절한 위치에서의 시각화를 사용하여 텍스쳐된다.
상기 시각화는 인테그랄 포토그라피 기술을 기반으로 하며 또한, 상기 시각 화는 인테그랄 포토그라피 기술을 기반으로 한 3D 디스플레이를 요구한다.
본 발명은 게임, CAD/CAE 시각화 시스템, 시뮬레이션 시스템, 트레이닝 시스템, 메디컬 그리고 다른 특정 목적을 갖는 영상 시스템에 적용할 수 있다.
이상에서와 같이 본 발명에 따른 어플리케이션 엔진에 의하면, 3D 영상의 시각화를 위해 오브젝트의 키 위치에 해당하는 제한된 임시 랜더된 투영상들의 셋트만을 사용함으로써, 임시 랜더된 데이터 즉, 소스 데이터 량을 줄일 수 있다.
또한, 블렌딩 모듈을 사용함으로써, 다른 키 위치 사이에서 재생된 3D 오브젝트들의 러닝을 스무스하게 할 수 있다.
그리고, PC 하드웨어에 의해 제공되는 부가적인 가속(acceleration)을 사용함으로써, 어플리케이션 레이트를 향상시킬 수 있다.
이상 설명한 내용을 통해 당업자라면 본 발명의 기술 사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다.
따라서, 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정해져야 한다.

Claims (23)

  1. 어플리케이션 오브젝트들의 자동 입체적인(autostereoscopic) 풀-패럴랙스 3차원 영상의 복구를 제공하는 PC 기반의 상호 작용의 리얼 타임 어플리케이션을 갖는 3차원 포그라운드와 2차원 백그라운드의 결합 방법에 있어서,
    라이브 어플리케이션 씬을 입력받는 단계;
    상기 라이브 어플리케이션 씬 내의 오브젝트를 3D 오브젝트로 시각화할 것인지를 판별하는 단계;
    상기 판별결과, 상기 오브젝트를 3D 오브젝트로 시각화하지 않는다면, 상기 오브젝트의 다각형 메쉬를 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하고, 상기 오브젝트를 3D 오브젝트로 시각화한다면, 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 3차원 포그라운드와 2차원 백그라운드의 결합 방법.
  2. 제 1 항에 있어서, 상기 어플리케이션 오브젝트들의 3차원 영상의 복구는
    상호 작용의 리얼 타임 어플리케이션을 갖는 인테그랄 포토그라피 기술을 사용하는 것을 특징으로 하는 결합 방법.
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서, 상기 단순 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계는,
    상기 오브젝트를 3D 오브젝트로 시각화한다면, 상기 오브젝트의 포지션이 하나의 키 포지션인지를 판별하는 단계;
    상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이라면, 상기 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 결합 방법.
  6. 삭제
  7. 삭제
  8. 제 5 항에 있어서,
    상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이 아니라면, 상기 현재 오브젝트의 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서, 상기 현재 오브젝트의 포지션으로부터 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 세트를 생성하는 단계;
    상기 생성된 직사각형들의 세트를 중첩하여 상기 현재 오브젝트 포지션에 해당하는 단일 직사각형을 생성하는 단계;
    상기 오브젝트의 다각형 메쉬를 상기 생성된 단일 직사각형으로 변환하는 단계를 포함하여 이루어지는 것을 특징으로 하는 결합 방법.
  9. 삭제
  10. 제 5 항에 있어서,
    상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환(replacement)하는 것은,
    3D 어플리케이션 오브젝트로서 시각화되어질 오브젝트의 임의의 비임시적인 랜더된 포지션에 해당하는 마이크로 영상 셋트를 형성하기 위해, 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 텍스쳐를 블렌딩하는 것을 특징으로 하는 결합 방법.
  11. 제 10 항에 있어서,
    상기 임의의 포지션으로 제한된 어플리케이션 오브젝트의 3D 이미지의 시각화를 위해, 중간 어플리케이션 오브젝트의 포지션에 해당하는 직사각형에 대한 텍스쳐 비트맵으로 상기 블렌드된 마이크로 영상 셋트를 적용하는 것을 특징으로 하는 결합 방법.
  12. 삭제
  13. 어플리케이션 오브젝트들의 자동 입체적인(autostereoscopic) 풀-패럴랙스 3차원 영상의 복구를 제공하는 PC 기반의 상호 작용의 리얼 타임 어플리케이션을 기록한 컴퓨터로 읽을 수 있는 매체에 있어서,
    라이브 어플리케이션 씬을 입력받는 단계와,
    상기 라이브 어플리케이션 씬 내의 오브젝트를 3D 오브젝트로 시각화할 것인지를 판별하는 단계와,
    상기 판별결과, 상기 오브젝트를 3D 오브젝트로 시각화하지 않는다면, 상기 오브젝트의 다각형 메쉬를 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하고, 상기 오브젝트를 3D 오브젝트로 시각화한다면, 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 수행하기 위한 어플리케이션을 기록한 컴퓨터로 읽을 수 있는 매체.
  14. 제 13 항에 있어서,
    어플리케이션 오브젝트들의 3차원 영상의 복구를 제공하는 것은 인테그랄 포토그라피 기술을 사용하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.
  15. 삭제
  16. 제 13 항에 있어서,
    상기 단순 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계는,
    상기 오브젝트를 3D 오브젝트로 시각화한다면, 상기 오브젝트의 포지션이 하나의 키 포지션인지를 판별하는 단계;
    상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이라면, 상기 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 수행하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.
  17. 삭제
  18. 제 16 항에 있어서,
    상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이 아니라면, 상기 현재 오브젝트의 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서, 상기 현재 오브젝트의 포지션으로부터 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 셋트를 생성하는 단계와,
    상기 생성된 직사각형들의 세트를 중첩하여 상기 현재 오브젝트 포지션에 해당하는 단일 직사각형을 생성하는 단계와,
    상기 오브젝트의 다각형 메쉬를 상기 생성된 단일 직사각형으로 변환하는 단계를 포함하여 수행하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.
  19. 삭제
  20. 삭제
  21. 삭제
  22. 제 16 항에 있어서, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환(replacement)하는 것은,
    상기 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 텍스쳐를 블렌딩하여, 3D 어플리케이션 오브젝트로서 시각화되어질 오브젝트의 임의의 비임시적인 랜더된 포지션에 해당하는 마이크로 영상 셋트를 형성하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.
  23. 삭제
KR1020020016502A 2002-03-26 2002-03-26 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진 KR100893855B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020016502A KR100893855B1 (ko) 2002-03-26 2002-03-26 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020016502A KR100893855B1 (ko) 2002-03-26 2002-03-26 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진

Publications (2)

Publication Number Publication Date
KR20030077680A KR20030077680A (ko) 2003-10-04
KR100893855B1 true KR100893855B1 (ko) 2009-04-17

Family

ID=32376711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020016502A KR100893855B1 (ko) 2002-03-26 2002-03-26 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진

Country Status (1)

Country Link
KR (1) KR100893855B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100939080B1 (ko) * 2007-07-30 2010-01-28 광운대학교 산학협력단 합성 영상 생성 방법 및 장치, 합성 영상을 이용한 디스플레이 방법 및 장치
KR101437447B1 (ko) * 2011-06-28 2014-09-11 삼성전자 주식회사 영상처리장치 및 영상처리방법
KR101314731B1 (ko) * 2012-11-09 2013-10-14 (주) 지쓰리스튜디오 다중 빔프로젝터 기반의 에지 블렌딩 시스템 및 에지 블렌딩 방법
GB2605300B (en) * 2016-10-14 2022-12-28 Vr Chitect Ltd Virtual reality system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970058060A (ko) * 1995-12-14 1997-07-31 김광호 3차원 입체영상 합성방법
JPH1051812A (ja) 1996-08-07 1998-02-20 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JP2004023203A (ja) 2002-06-13 2004-01-22 Sony Corp 撮像装置および撮像方法、並びに表示装置および表示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970058060A (ko) * 1995-12-14 1997-07-31 김광호 3차원 입체영상 합성방법
JPH1051812A (ja) 1996-08-07 1998-02-20 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JP2004023203A (ja) 2002-06-13 2004-01-22 Sony Corp 撮像装置および撮像方法、並びに表示装置および表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국광학회 창립 10주년 기념 제11회 정기총회 및 2000년도 동계학술발표회 논문집, 2000. 2, 이병호, 민성욱, 정성용 저, pp. 294~295 (2 pages)

Also Published As

Publication number Publication date
KR20030077680A (ko) 2003-10-04

Similar Documents

Publication Publication Date Title
Attal et al. MatryODShka: Real-time 6DoF video view synthesis using multi-sphere images
US11076142B2 (en) Real-time aliasing rendering method for 3D VR video and virtual three-dimensional scene
Serrano et al. Motion parallax for 360 RGBD video
JP6873096B2 (ja) イメージ形成における及びイメージ形成に関する改良
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US4925294A (en) Method to convert two dimensional motion pictures for three-dimensional systems
US6205241B1 (en) Compression of stereoscopic images
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
KR101697184B1 (ko) 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
US20110216160A1 (en) System and method for creating pseudo holographic displays on viewer position aware devices
JP2010510569A (ja) 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
WO2023207452A1 (zh) 基于虚拟现实的视频生成方法、装置、设备及介质
CN112446939A (zh) 三维模型动态渲染方法、装置、电子设备及存储介质
KR102059732B1 (ko) 디지털 비디오 렌더링
WO2012140397A2 (en) Three-dimensional display system
JP2023172882A (ja) 三次元表現方法及び表現装置
WO2007048197A1 (en) Systems for providing a 3d image
KR100893855B1 (ko) 3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원어플리케이션 엔진
Park et al. Arbitrary view generation from multiple cameras
KR101163020B1 (ko) 3차원 모델을 스케일링하는 방법 및 스케일링 유닛
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
Kim et al. Ray tracing-based construction of 3D background model for real-time stereoscopic rendering of live immersive video
Pujades et al. The stereoscopic zoom

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120327

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130326

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180314

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190314

Year of fee payment: 11