KR100560507B1 - 개선된 영상 변환 및 부호화 기술 - Google Patents
개선된 영상 변환 및 부호화 기술 Download PDFInfo
- Publication number
- KR100560507B1 KR100560507B1 KR1020007005574A KR20007005574A KR100560507B1 KR 100560507 B1 KR100560507 B1 KR 100560507B1 KR 1020007005574 A KR1020007005574 A KR 1020007005574A KR 20007005574 A KR20007005574 A KR 20007005574A KR 100560507 B1 KR100560507 B1 KR 100560507B1
- Authority
- KR
- South Korea
- Prior art keywords
- perspective
- image
- map
- contour
- tag
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 96
- 238000006243 chemical reaction Methods 0.000 title description 12
- 238000006073 displacement reaction Methods 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 30
- 230000033001 locomotion Effects 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 239000000872 buffer Substances 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000013144 data compression Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 101001017827 Mus musculus Leucine-rich repeat flightless-interacting protein 1 Proteins 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 208000003580 polydactyly Diseases 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/341—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
2D 영상내의 적어도 하나의 물체를 식별하는 단계; 상기 물체 또는 각각의 물체에 식별 택(tag)을 할당하는 단계; 상기 물체 또는 각각의 물체에 원근 택(depth tag)을 할당하는 단계 및 상기 물체 또는 각각의 물체에 대한 윤곽선을 정하여 형성하는 단계를 포함하는 2D영상을 입체영상으로 변환하는데 사용하기 위한 원근맵을 생성하는 방법.
Description
본 발명은 일반적으로 입체(streoscopic) 영상 합성에 관한 것으로, 보다 구체적으로는 입체 영상 디스플레이 목적으로 부호화, 전송 및 복호화를 위해 2 차원(2D)영상을 변환하는 개선된 방법에 관한 것이다.
본 출원인은 PCT/AU96/00820호에서 a)원래 영상내의 적어도 하나의 물체(object)를 식별하는 단계, b)각각의 물체의 윤곽선을 그리는 단계, c)각 물체에 대한 원근(depth)특성을 형성하는 단계, d)관찰자(viewer)의 좌우측 눈(eye)으로 보기 위한 두 개의 스크래치 영상을 형성하도록 각각의 물체의 원근특성의 함수로서 수평방향에서 결정된 량으로 각 물체의 선택영역을 각각 변위시키는 단계를 포함하는 원시 2D영상으로부터 입체 디스플레이를 위한 좌우측 눈 영상을 생성하는 방법을 제안한바 있다.
상기의 단계들은 개별적으로 그리고 집합적으로 동적 원근 큐잉(Dynamic Depth Cuing) 또는 DDC으로 불리어진다.
본 발명은 본 출원인의 이전의 시스템의 동작을 더욱 개선한다.
본 발명은 2D 영상내의 적어도 하나의 물체를 식별하는 단계, 상기 물체 또는 각각의 물체에 식별 택(tag)을 할당하는 단계, 상기 물체 또는 각각의 물체에 원근 택(depth tag)을 할당하는 단계, 및 상기 물체 또는 각각의 물체에 대한 윤곽선을 정하여 형성하는 단계를 포함하는 2D영상을 입체영상으로 변환하는데 사용하기 위한 원근맵을 생성하는 방법을 제공하는 것을 한 특징으로 한다.
제 2 특징에 있어서, 본 발명은 물체에 물체 식별자를 할당하는 단계, 상기 물체에 원근 택을 할당하는 단계, 및 상기 물체 윤곽선을 형성하는 단계를 포함하는 2D영상을 입체 영상으로 변환하는데 사용하기 위한 원근맵(depth map)을 부호화하는 방법을 제공한다. 상기 물체 윤곽선은 일련의 좌표, 곡선 및/또는 기하적 형상으로 형성된다. 편리하게도 상기 식별 택은 고유의 번호가 될 수 있다.
제 3 특징에 있어서, 본 발명은 2D-3D변환처리에 있어서 물체의 윤곽선을 생성하는데 베지어 곡선(bezier curve)을 사용한다.
제 4 특징에 있어서, 본 발명은 2D-3D변환처리에 있어서 물체의 윤곽선을 형성하는데 기하적 형상을 이용한다.
제 5 특징에 있어서, 본 발명은 수직 블랭킹 간격(Vertical Blanking Interval) 또는 MPEG 데이터 스트림내에 정보가 포함된 원근맵 정보의 전송방법을 제공한다.
제 6 특징에 있어서, 본 발명은 2D-3D변환 프로세스를 지원하기 위해 일반 라이브러리(generic library)를 이용한다.
본 발명의 보다 양호한 이해를 위해, 본 발명의 일 실시예를 나타내는 첨부 도면을 참조하여 기술한다.
도 1 및 2는 원근맵 데이터로부터 디스토션 그리드(distortion grid)로 변환하는 방법을 도시한 도면이며,
도 3, 4, 5 및 6은 본 발명에 의해 개시된 물체의 윤곽선을 결정하는 여러 가지 기술을 도시한 도면이며,
도 7은 샘플 디스토션 그리드를 도시한 도면이며,
도 8은 다른 디코더의 하드웨어 블록도이며,
도 9는 다른 디코더의 디코딩처리의 흐름도이며,
도 10은 디스토션되지 않은 메시(undistorted mesh)의 일례를 도시한 도면이며,
도 11은 콘(cone)의 샘플 원근맵을 도시한 도면이며,
도 12는 원근맵으로 변형된 샘플메시를 도시한 도면이며,
도 13 내지 16은 원근맵 Z 입면을 X변위로 변환하는 일 방법을 도시한 도면이며,
도 17은 디스토션되지 않은 메시상에 원래 프레임을 나타내는 도면이며,
도 18은 X변위 맵으로 변형된 샘플 메시를 도시한 도면이며,
도 19는 원래 프레임 메시와 변위 메시와의 샘플 조합을 도시한 도면이며,
도 20은 다른 눈에 대한 샘플 합성 스크래치 영상을 도시한 도면이며,
도 21은 간략한 변위 플로우 차트이다.
물체 식별
변환될 2D영상내의 물체를 오퍼레이터가 시각적으로 관찰함으로서 식별할 수 있다. 오퍼레이터는 통상적으로 영상내의 각 물체나 물체그룹에 컴퓨터 마우스, 라이트 펜, 철필 또는 다른 장치를 이용하여 택을 달며, 물체에 고유의 번호를 할당한다. 상기 번호는 오퍼레이터가 수동으로 부여할 수 있거나 컴퓨터에 의해 특정의 시퀀스로 자동으로 부여된다.
물체는 또한 컴퓨터를 이용 완전자동으로 또는 반자동방식으로 식별될 수 있어서 오퍼레이터는 컴퓨터가 물체의 위치를 결정하도록 지원할 수 있다.
물체를 자동적으로 식별하기 위하여, 컴퓨터는 물체 사이즈, 색, 움직임 속도, 명암, 텍스처(texture), 휘도, 암도(obscuration), 초점뿐만 아니라 이전, 현재 및 미래 영상간의 차이 같은 특성을 이용한다.
반자동 물체 식별에 있어서, 오퍼레이터는 물체를 발견할 수 있는 영상의 성질에 대해 컴퓨터에 어드바이스함으로서 컴퓨터를 지원한다. 예를 들어 오퍼레이터는 컴퓨터에게 장면이 일반 포맷 "뉴스 캐스터"라고 어드바이스 할 수 있는데 이 경우 컴퓨터는 뉴스 캐스터의 헤드와, 숄더, 데스크 및 배경 등을 찾으려고 한다. 오퍼레이터는 가능한 일반 장면의 메뉴로부터 선택할 수 있다. 오퍼레이터는 또한 컴퓨터가 행한 임의의 물체 선택을 수동으로 무효로 하고/하거나 수정 및 조정할 수 있다. 컴퓨터 프로그램은 예를 들면 신경망 또는 전문가 시스템을 이용하여 이들 수정작업으로부터 학습하여 물체 식별 및 번호부여의 정확성을 개선한다.
일단 물체가 식별되고 번호가 부여되면, 그 물체는 연속 프레임상의 영상내에서 이동함에 따라서 경우 수동, 자동 또는 반자동으로 추적된다.
오퍼레이터는 또한 동일 시퀀스로 작업하거나 유사한 이전 장면의 변환을 통해서 다른 오퍼레이터가 만든 물체식별정보를 이용할 수 있다.
물체 윤곽선지정
물체(들)의 윤곽선은 수동, 자동 또는 반자동으로 구할 수 있다.
수동 윤곽선지정에 있어서, 오퍼레이터는 컴퓨터 마우스, 라이트 펜, 철필 또는 다른 장치를 이용하여 물체(들)의 윤곽선을 추적한다. 오퍼레이터는 픽셀×픽셀 베이스로 물체의 윤곽선을 선택하며, 직선, 곡선 근사치, 베지어 곡선 또는 곡선 또는 일반 형상라이브러리로부터 최적의 것을 이용한다. 오퍼레이터는 또한 미리 거의 정확한 형상 및 스케일로된 일반 형상의 라이브러리로부터 선택하거나 형상을 동적으로 맞춘다. 예를 들어 오퍼레이터가 사람의 윤곽선을 선택하려는 경우, 사람의 일반 윤곽선이 그 라이브러리로부터 회수되어 그에 따라 수동, 반자동, 자동의 어느 한 방법으로 조정된다. 또한 오퍼레이터는 원형, 타원형, 삼각형, 정사각형 등의 기하 형상 라이브러리로부터 선택할 수 있다.
자동 윤곽선지정에 있어서, 컴퓨터는 물체 사이즈, 색, 움직임 속도, 명암, 휘도, 암도, 및 이전, 현재 및 다음 영상간의 차이 같은 특성을 이용한다. 물체의 윤곽선을 구하는데 신경 망 및 전문가 시스템이 이용될 수 있다.
반자동 윤곽선지정에 있어서, 오퍼레이터는 물체를 나타내는 영상의 성질과 관련하여 컴퓨터에 어드바이스함으로서 컴퓨터를 지원한다. 예를 들어 오퍼레이터 는 컴퓨터에게 장면이 일반 포맷 "뉴스 캐스터"라고 어드바이스 할 수 있는데 이 경우 컴퓨터는 뉴스 캐스터의 헤드와, 숄더, 데스크 및 배경 등을 찾으려고 한다. 오퍼레이터는 가능한 일반 장면의 메뉴로부터 선택을 하게된다. 오퍼레이터는 또한 컴퓨터가 행한 임의의 물체선택을 무효로 하고/하거나는 수정 및 조정한다. 컴퓨터 프로그램은 예를 들면 신경 망 또는 전문가 시스템을 이용하여 이들 수정작업으로부터 학습하여 윤곽선지정의 정확성을 개선한다.
일단 물체가 윤곽선지정되면, 그 물체는 연속 프레임상의 영상내에서 이동함에 따라서 수동, 자동 또는 반자동으로 추적된다.
오퍼레이터는 또한 동일 시퀀스로 작업하거나 유사한 이전 장면의 변환을 통해서 다른 오퍼레이터가 만든 정보를 이용할 수 있다. 또한 오퍼레이터는 원형, 타원형, 삼각형, 정사각형 등의 기하 형상을 포함하는 미리 정해진 윤곽선의 라이브러리로부터 선택하며, 수동, 반자동 또는 자동으로 라이브러리의 윤곽선을 조정해서 선택된 물체에 맞춘다. 상기 라이브러리는 또한 개별 윤곽선 즉 뉴스 캐스터에 의해 또는 물체의 특정 패밀리 즉 경마, 이브닝 뉴스 등에 의거하여 색인된다.
원근 결정
물체(들)의 원근은 수동, 자동 또는 반자동으로 구해진다. 이 물체의 원근은 문자 숫자식, 시각적, 가청 또는 촉각 정보를 이용하여 할당된다. 바람직한 실시예에 있어서, 물체의 원근은 특정 색으로 물체를 음영지게 함으로서 표시된다. 통상 변환되면 관찰자에게 가장 가까운 3D위치에서 나타나는 물체가 백색으로 그리고 관찰자에게 가장 먼 3D위치에 있는 물체가 흑색이 될 것이다. 당연히 이러한 규정 은 변경될 수 있다. 즉 상대적 또는 절대 원근을 나타내는데 반전되거나 색이 이용된다.
다른 실시예에 있어서, 상기 물체의 원근에는 수치값이 할당된다. 이러한 값은 선형 또는 비선형 연속의 양의 값 또는 음의 값이 될 수 있으며, 단일 또는 다수의 자릿수를 포함한다. 바람직한 실시예에서 이 값은 0에서 255로 되어, 단일 바이트에 부호화될 수 있는데, 여기서 255는 변환을 통해 관찰자에게 가장 가까운 3D위치에서 나타나는 물체를 나타내며, 0은 관찰자에게 가장 먼 3D위치에 있는 물체를 나타낸다. 당연히 이러한 관례는 변경 즉 반전되거나 다른 범위가 사용될 수 있다.
수동의 원근결정에 있어서, 오퍼레이터는 컴퓨터 마우스, 라이트 펜, 철필 또는 다른 장치를 이용하여 물체(들)의 원근을 지정한다. 오퍼레이터는 물체 윤곽선내에 포인팅 장치를 놓고 원근값을 입력함으로써 물체의 원근을 지정할 수 있다. 상기 원근은 숫자, 문자 숫자식 또는 그래픽 값으로 입력되며, 오퍼레이터 또는 정해지거나 소정 허용범위의 값에서 컴퓨터에 의해 자동적으로 정해진다. 오퍼레이터는 또한 라이브러리 또는 허용원근의 메뉴로부터 물체를 선택할 수 있다.
오퍼레이터는 또한 물체내의 원근의 범위 또는 시간, 물체 위치 또는 움직임 또는 이들의 임의의 조합에 따라서 변하는 원근 범위를 지정할 수 있다. 예를 들어 물체는 관찰자쪽에서 가장 가까운 모서리와 관찰자쪽에서 가장 먼 모서리를 가지는 테이블이 될 수 있다. 3D로 변환되었을 때, 상기 테이블의 시각적인 원근은 그 길이를 따라서 변하여야 한다. 이를 달성하기 위해 오퍼레이터는 상기 테이블 을 다수의 세그먼트로 분할해서 각각의 세그먼트에 개별 원근을 지정한다. 다른 방법으로서 오퍼레이터는 명암량이 그 테이블의 특정위치에서의 원근을 나타내도록 상기 물체에 음영을 부여함으로써 물체내의 연속적인 가변원근을 지정할 수 있다. 이 실시예에 있어서, 밝은 음영(light shading)은 가까운 물체를 그리고 어두운 음영(dark shading)은 먼 물체를 나타낸다. 상기 테이블의 예에 있어서, 가장 가까운 모서리는 밝게 음영지는데, 가장 먼 모서리에 도달하기까지 음영이 점점 어둡게 된다.
물체내의 원근의 변화는 시간, 물체 위치 또는 움직임이나 이들의 조합으로 선형 또는 비선형으로 될 수 있다.
물체내의 원근의 변화는 램프(ramp)의 형태일 수 있다. 직선램프는 시작점(A)과 종료점(B)을 가질 것이다. 점 A 및 B에서의 색이 정해지, 점 A에서 점 B로의 기울기가 수직선상에 가해진다.
환형 램프는 중심점(A)에서 반경(B)까지의 거리를 이용하지만 직선형 램프와 유사한 램프를 정의한다.
상기 환형 램프까지 간단히 연장하면 외부림(rim)이 경사지거나 중심점이 가변의 사이즈를 갖게된다.
선형 연장부는 상기 수직선으로부터의 거리와는 대조적으로 선의 절편으로부터의 거리이다. 이 예에 있어서, 라인 세그먼트에 대해 색이 정해지며, "외측"에 대해 색이 정해진다. 상기 선의 절편을 따라서 색이 정해지며, 이 색은 상기 "외측"색으로부터 엷어진다.
다양한 램프가 용이하게 부호화 될 수 있다. 램프는 보다 복잡한 곡선, 방정식, 가변 투명도 등에 의거하여 부호화될 수 있다.
다른 예에 있어서, 물체는 프레임기간에 걸쳐 영상의 전방으로부터 후방으로 이동한다. 오퍼레이터는 최초 프레임에서의 물체에 대한 원근과 최종 또는 후속장면에서의 그 물체의 원근을 지정할 수 있다. 컴퓨터는 선형방식 또는 다른 방식으로 연속 프레임에 걸쳐서 상기 물체의 원근을 보간할 수 있다. 이러한 처리는 완전 자동화될 수 있으므로, 컴퓨터는 물체가 시간에 따라 이동함에 따라서 그의 사이즈의 변화에 의거하여 물체 원근내의 변화를 지정한다.
자동 원근결정에 있어서, 컴퓨터는 사이즈, 색, 움직임 속도, 명암, 휘도, 암도, 초점, 및 이전, 현재 및 미래 영상간의 차이 같은 특성을 이용할 수 있다. 물체의 원근을 구하는데 신경 망 및 전문가 시스템이 이용될 수 있다.
반자동 원근 형성에 있어서, 오퍼레이터는 원근이 할당되어질 영상의 성질과 관련하여 컴퓨터에 어드바이스함으로서 컴퓨터를 지원한다. 예를 들어 오퍼레이터는 컴퓨터에게 장면이 일반 포맷의 "뉴스 캐스터"라고 어드바이스 할 수 있는데 이 경우 컴퓨터는 뉴스 캐스터의 헤드와, 숄더, 데스크 및 배경 등을 찾아서 이들을 논리적 원근시퀀스로 배치한다. 오퍼레이터는 가능한 일반 장면의 메뉴 및 원근로부터 선택을 하게된다. 오퍼레이터는 또한 컴퓨터가 행한 임의의 물체 원근결정을 무효로 하고/하거나 수정 및 조정한다. 컴퓨터 프로그램은 예를 들면 신경망 또는 전문가 시스템을 이용하여 이들 수정작업으로부터 학습하여 원근 할당의 정확성을 연속적으로 개선한다.
일단 임의 물체에 특정 원근이 할당되면, 그 물체는 연속 프레임에 걸쳐서 영상내에서 이동함에 따라서 경우 수동, 자동 또는 반자동으로 추적된다.
오퍼레이터는 또한 동일 시퀀스로 작업하거나 유사한 이전 장면의 변환을 통해서 다른 오퍼레이터가 만든 원근결정을 이용할 수 있다.
다중 오퍼레이터
적절한 방식으로 비디오 시퀀스를 변환하기 위해서는, 다수의 오퍼레이터가 2D 소스재(source material)에서 작업하는 것이 필요하다. 이는 예를 들어 인터넷과 같은 온라인 컴퓨터 서비스를 이용하여 동일 위치에 위치할 수 있지만, 오퍼레이터는 세계 어디에도 위치할 수 있다. 이러한 구성에 있어서, 소스재의 안전성을 확보하기 위해, 오디오를 제거하고 영상의 색을 변경하는 것이 필요하다. 이는 물체의 윤곽선을 정하는 오퍼레이터의 능력에 영향을 미치지는 않으나, 원래 소스재의 침해를 방지한다. 물체윤곽선를 실제 선택하는 것은 비교적 간단한 처리이므로, 낮은 노동력 비용으로 시골에서 효과적으로 실행될 수 있다. 이러한 구성의 이용에 있어서, 변환 절차는 편리하게도 다음과 같다.
1. 관리자는 3D로 변환될 비디오 시퀀스를 식별하고, 이들 시퀀스의 각 프레임을 넘버링한다.
2. 관리자는 필요한 경우, 필요한 안전절차를 부여한다.
3. 관리자는 윤곽선지정을 필요로하는 장면의 물체(들)를 식별해 서 전술한 바와 같이 그 각각에 고유의 택을 매긴다.
4. 이어서 비디오 시퀀스가 적합한 디지털 포맷으로 변환되고, 온라인 서비 스를 통해 원격의 목적지(들)에 전송된다. 긴 비디오 시퀀스의 경우에는 비경제적인데, 이 경우 CD-ROM 상 또는 다른 백업 매체에 담아서 전달하는 것이 바람직하다.
5.상기 시퀀스는 오퍼레이터(들)가 물체 처리를 하고 있는 원격 위치에 수신된다.
6. 상기 처리의 결과가 식별중의 물체 윤곽선이 되므로, 나중에 압축될 데이터 그리고 파일 사이즈는 원래 영상보다 상당히 작게된다. 이 경우 물체정보는 온라인 E-메일 서비스를 통하여 관리자에게 용이하게 반환된다.
7. 관리자는 수신된 물체윤곽선에 대해 품질제어를 하여 프레임 수를 원래 비디오 소스 재에 맞춘다.
8. 이어서 관리자는 상기 물체 윤곽선과 원래 소스 재를 후속의 오퍼레이터에게 넘기고 이 오퍼레이터는 각각의 물체에 대해 필요한 원근 정보를 적용한다.
원근정보를 적용하는 것은 예술적이고 창조적이므로, 소그룹의 오퍼레이터에 의해 중앙위치에서 실시하는 것이 절대적인 것은 아니지만 바람직하다. 이렇게 함으로써 긴 시퀀스에 대해서 물체의 일관성을 확보하게된다.
복합원근의 결정
보다 이상적으로 보이는 3D를 생성하기 위하여, 때때로 간단한 램프나 선형 변형보다 복잡한 원근결정을 이용하는 것이 바람직하다. 이는 예를 들어 나무와 같이 원근에서 많은 변화가 있는 복잡한 내부구조를 가지는 물체에 특히 바람직하다. 이러한 물체의 원근맵은 물체에 텍스처 범프 맵(texture bump map)을 부여하 여 형성될 수 있다. 예를 들어 나무를 생각하면, 제 1 단계는 나무의 윤곽선 둘레를 추적하여 나무에 원근을 지정하는 것이다. 이어서 나무의 각각의 잎에 개개의 원근을 부여하도록 텍스처 범프 맵이 부가된다. 이러한 텍스처 맵은 비교적 간단한 물체에 세부묘사를 부여하는데 있어 본 발명에 유용한 것으로 확인되었다.
그러나, 나무의 잎 또는 다른 복잡한 물체와 같은 미세 세부묘사의 경우, 나무 등이 바람 속에서 이동하거나 또는 카메라앵글이 프레임에서 프레임으로의 변화한다면 이 방법은 보다 복잡해지므로 바람직하지 않다. 또 다른 보다 바람직한 방법은 필요한 범프 맵을 생성하도록 원 물체의 휘도를 이용하는 것이다. 일반적으로 관찰자에 가까운 물체의 요소는 밝게되며, 관찰자에 떨어지면 어두어진다. 따라서 가까운 요소에 밝은 휘도값을 먼 요소에 어두운 휘도값을 할당함으로써 범프 맵이 자동적으로 생성될 수 있다. 이러한 방법의 장점은 물체 자체를 사용하여 그 자신의 범프 맵을 생성할 수 있고, 프레임에서 프레임으로의 물체의 이동이 자동적으로 추적된다는 것이다. 물체의 다른 속성이 범프 맵을 생성하는데 이용되는데, 이들 속성에는 크로미넌스, 채도, 색 배합, 반사, 음영, 초점, 선명도 등이 포함되지만 이들에 제한되지 않는다.
상기 물체 속성으로부터 얻어진 범프 맵 값은 또한 물체내의 원근 변화의 범위가 전체 영상의 원근의 일반적인 범위와 일치하도록 확대된다.
원근맵
물체를 검출하고, 그들의 윤곽선을 구하고, 원근을 할당하는 것을 원근맵의 생성이라 한다. 바람직한 실시예에 있어서, 상기 원근맵은 80 ×60 ×8비트 해상 도의 그레이 스케일 영상으로 되므로 해당 2D영상내의 물체가 256의 개개의 원근중 하나에서 정의될 수 있다.
다른 방법으로서 곡선의 형상은 연속적인 xy좌표와 상기 지점사이의 직선으로부터 곡선의 변위사이의 거리의 비로서 정의할 수 있다. x1y1 및 x2y2는 라인A에 위치하며, 곡선에 의해 연결된다. 상기 지점간의 곡선은 라인A로부터 상기 곡선의 중간까지 측정된 최대 변위B를 가진다. 따라서 상기 곡선은 다음과 같이 정의된다.
곡선 = B/A
이는 -128로부터 +128까지의 값을 가지는데, 0은 두 점간의 직선을 나타낸다. 상기 곡선에 할당된 값이 두 측정치의 비율이므로, 동일 곡선 값은 동일한 B/A비를 가지는 다른 곡선들에 할당될 수 있음을 알아야 한다.
원근맵의 부호화
상기 원근맵은 다수의 방식으로 부호화될 수 있다. 바람직한 실시예에 있어서, 물체 수, 원근 및 물체윤곽선은 다음과 같이 부호화된다. 도 3에 도시된 사람의 윤곽선을 고려한다. 사람은 원근20을 가지는 물체 번호 1로 지정된다. 이 물체의 윤곽선은 이미 설명한 바와 같이 특정 x,y위치에서 구해진다. 통상, 물체 윤곽선 방향으로 변화가 일어난 경우, 특정 마크가 만들어 진다. 이 마크는 문자 숫자식 문자, 형상, 색 또는 다른 시각적 형태로 될 수 있다. 이 마크 각각은 특정 x,y 위치를 가진다. 바람직한 실시예에 있어서, 이는 0에서 255의 범위에 있다. 각 쌍의 x,y 위치사이에 곡선이 존재할 것이다. 각각의 곡선은 모든 가능한 형상 의 라이브러리로부터 선택으로 정해진다. 바람직한 실시예에 있어서, 각각의 곡선은 통상적으로 -127에서 +128내의 값으로 주어져서 그 곡선이 1 바이트로 정의된다. x,y위치에서 다음 x,y위치로 시계방향으로 이동하는 곡선은 양의 값으로 할당되는 반면, 반시계방향으로 이동하는 곡선은 음의 값으로 할당된다. 다른 할당이 적용될 수 도 있다.
원근 트레숄딩
변환 알고리즘에 원근 트레숄드를 부가하면, 그 트레숄드 앞의 물체가 왜곡되지 않게 된다. 이는 전경 물체가 배경 물체와 교차하는 경우 그 모서리에서 발생하는 임의의 작은 왜곡을 방지하도록 행해진다.
바람직한 변환 알고리즘에 있어서, 원근맵은 최종장면의 3D윤곽선을 형성하는 연속의 원근맵을 생성하는데 이용될 수 있다. 트레숄드가 이러한 프로세스에 가해지게되면, 상기 원근맵은 트레숄드 천이를 검출하도록 처리되며, 천이 위 아래의 원근은 독립적으로 처리된다.
따라서 상기 물체에 대한 원근맵 데이터는 다음과 같이 정의된다.
<물체번호> <물체 원근><x1,y1,곡선1, x2,y2, 곡선 2, .......x1,y1>
상기 물체의 원근 정보는 현재 물체의 원근을 생성하는데 필요한 데이터를 포함한다. 전술한 바와같이, 이 원근 데이터는 단일 값, 램프(선형, 환형 또는 기타 형태의 램프)또는 단일물체의 원근을 설명하는 다른 방법이 될 수 있다. 다음의 방법은 단일 물체의 원근 데이터를 부호화하는 가능한 수단을 나타낸다.
상기 원근데이터는 단일 원근값의 경우 다음과 같이 부호화된다.
<원근 플랩1><원근 값>
상기 원근 데이터는 선형 램프를 가지는 물체의 경우 그 원근 값으로서 다음과 같이 부호화된다.
<원근 플랩2><x1,y1, 원근 값1,x2,y2,원근 값2>
여기서 물체의 원근은 x1,y1에서는 값 1로부터 x2,y2에서 값 2 까지 선형적으로 변한다.
상기 원근 데이터는 비선형 램프를 가지는 경우 그 원근 값으로서 다음과 같이 부호화된다.
<원근 플랙3><x1,y1, 원근 값1,x2,y2,원근 값2, 감마>
여기서 감마는 ,x1,y1과 x2,y2 사이의 범위에 걸쳐 원근의 선형변화를 기술하는 값이다.
상기 원근 데이터는 환형 램프를 가지는 물체의 경우 그 원근 값으로서 다음과 같이 부호화 된다.
<원근 플랙4><x1,y1, 원근 값1,반경,원근 값2>
여기서 상기 물체는 x1,y1에서 원근 값1을 가지며, 상기 원근은 x1,y1에서 떨어진 모든 지점의 반경 픽셀에서의 원근 값 2의 값으로 선형방식 또는 다른 방식으로 변한다.
일단 물체 원근맵이 전송되면, 그 물체가 이동하거나 형상이 변하기 까지 상기 원근맵을 다시 전송할 필요가 없다. 물체의 위치만이 변한다면, 그 물체의 새로운 위치가 다음과 같이 물체위치에 대한 오프셋을 할당함으로써 전송될 수 있다.
<물체번호><x오프셋, y오프셋>
마찬가지로 물체의 원근이 변하지만 그 위치나 사이즈는 변하지 않는다면 다음이 전송된다.
<물체 번호><원근>
인접하는 물체는 x,y좌표를 공유하므로, 장면내의 모든 물체의 원근맵을 고유하게 정의하도록 전송될 필요가 있는 x,y 좌표에는 리던던시가 존재함을 이해할 수 있을 것이다.
전송 또는 저장되어야할 추가 데이터의 량을 최소화하기 위해서는 상기 원근맵을 구성하는 데이터를 압축하는 것이 바람직하다. 이 압축에는 임의 형태의 데이터 압축알고리즘을 이용할 수 있으며, 여러 가지가 당업자에게 공지돼 있다. 압축의 여러 가지 예로서는 런 렝스 부호화 및 호프만 부호화가 있으나 여기에 제한되는 것은 아니다. 물체가 프레임에서 프레임으로 이동하지 않기 때문에 프레임간 원근맵내의 차이를 전송하는 것이 바람직하다. 측정 및 처리될 프레임간 차이를 생성하는 기술은 당업자에게 공지돼 있다.
상기 원근맵 정보는 아날로그 텔레비젼신호의 버티컬 블랭킹 인터벌(Vertical Blanking Interval(VBI) 또는 MPEG 혹은 디스토션 메시(distortion mesh)전송을 위해 이미 전술한 디지털 텔레비젼 신호의 다른 디지털 전송 스트림내에 포함될 수 있음을 이해할 수 있을 것이다. 마찬가지로 원근맵 데이터는 DVD의 VOB 파일에 부가될 수 있다.
상기 데이터가 VBI 및 MPEG 데이터 스트림에 어떻게 부가되는지는 공지되 있 으며, 바람직한 실시예는 표준 텔레비젼 영상내의 클로스드 캡셔닝 텔리텍스트(Closed Captioning and Teletext)를 포함하는 현재 이용되는 기술이다. 다른 바람직한 실시예에 있어서, 상기 데이터는 MPEG데이터 스트림의 유저 데이터 영역내에 포함된다.
VBI 또는 MPEG2 스트림내의 상기 데이터를 포함함에 있어서, 다음의 계산은 데이터 조건의 사이즈를 나타낸다.
VBI 명세 사항은 32 바이트/비디오 라인을 허용하며,
영상 당 물체의 최대수가 20이며,
물체 당 최대 X,Y 좌표가 20이며,
물체 #, 물체 원근, X, Y 및 형상 데이터가 각기 1바이트를 취한다고 가정한 경우,
바이트/물체는 1+1+3(20)=62바이트이며, 따라서 20 물체의 경우 VBI 데이터는 20 ×62=1240 바이트/프레임이다.
이는 가장 나쁜 경우이며, 실제에 있어서, 통상의 장면은 200 바이트/프레임을 요한다는 것을 알아야 한다. 이 값은 적절한 데이터압축을 적용하고 리던던시를 고려하면 상당히 감소될 것이다.
MPEG데이터 스트림내의 이러한 정보를 포함함에 있어서, MPEG표준은 수신위치로의 데이터 스트림의 전달을 가능케한다. MPEG스트림내의 데이터의 전달을 제공하기 위한 기술이 수신 디코더에 원근 데이터 맵을 전달하는데 이용될 수 있다. 또한 MPEG신호의 사운드 채널중 하나에 상기 정보를 포함하는 것이 가능하다. MPEG신호가 CD-ROM 또는 DVD와 같은 매체상에 기록되는 경우, 상기 정보를 별개의 디지털 또는 아날로그 파일로서 디지털 오디오 파일내에 포함되며, 다른 수단내의 디스크상에 기록된다. 다른 기술이 당업자에게는 명확하다.
MPEG데이터 스트림의 부분으로서 원래 원근맵을 전송할 수 있다. 바람직한 실시예에 있어서, 상기 원근맵의 해상도는 결과 3D영상내 물체의 원근의 인식할 수 있는 에러가 나타나기 이전 통상적으로 640 ×480 ×8 픽셀에서 80 ×60 ×8 픽셀로 감소될 수 있다. 이러한 해상도는 MPEG 부호화 비디오 신호에 있어서 DCT블록 사이즈와 같다. 따라서 상기 원근맵 정보는 3D변환시 각 블록의 원근을 정의하는 DCT블록에 추가의 정보를 부가함으로써 MPEG신호내에 포함될 수 있다. 상기 원근맵은 또한 오디오 채널과 같은 전술한 MPEG데이터 스트림내에 또는 당업자에게 친숙한 다른 방법으로 부가될 수 있다. 상기 감소된 해상도 원근은 JPEG, MJPEG, MPEG, 등과 같은 표준 영상 데이터 압축 기술을 이용하여 MPEG스트림에 포함되기 이전에 압축될 수 있는데 이에 제한되는 것은 아니다.
다른 실시예에 있어서, 물체 윤곽선은 베지어 곡선을 이용하여 결정된다. 도 4에 도시된 사람의 윤곽선을 고려하면, 도시한 x,y 좌표내에 있는 윤곽선에 베지어 곡선이 적용된다. 따라서 물체에 대한 상기 원근맵은 이하와 같이 정의된다.
<물체 수><물체 원근><x1,x1a, y1a, x2b, x2,y2,.....x1b, y1b>
도 5에 도시한 바와 같은 3 x,y 좌표만을 요하는 베지어 곡선이 생성되며, 이 다음과 같이 정의된다.
<물체 수><물체 원근><x1,y1,x1a, x2,y2,.....x8a,y8a>
상기 방법은 곡선을 이루는데 있어서 유사한 요소 수를 필요로 하므로 바람직하다.
다른 실시예에 있어서 물체 윤곽선은 기하 형상을 이용하여 정해진다. 도 5에 도시한 사람의 윤곽선을 고려하면, 도시한 구성으로 나타나는 윤곽선에 기하 형상이 적용된다. 머리를 형성하는 원은 x1, y1 및 반경 r1으로 형성된 원을 가진다. 삼각형은 x2a, y2a, x2a, y2b, x2c, y2c로서 설명될 수 있으며, 다른 다각형도 마찬가지로 설명될 수 있다. 각각의 기하 형상은 일반 형태<형상><파라미터>를 가진다.
따라서 물체에 대한 원근맵은 <물체수><물체 원근><형상1><파라미터>....<형상n><파라미터>로 정의될 수 있다.
상기 방법중 임의의 방법을 사용하여 생성된 압축 또는 비압축된 윤곽선과 또는 원근맵은 임의의 적합한 아날로그 또는 디지털 포맷으로 매체에 해당 2D영상을 가지거나 가지지 않고 저장되는데 상기 저장매체에는 다음에 제한되는 것은 아니지만 플로피 디스크, 하드디스크, CD-ROM, 레이저디스크, DVD, RAM, ROM, 자기 기록테이프, 비디오 테이프, 비디오카세트 테이프 등이 포함된다. 상기 저장된 윤곽선과 또는 원근맵은 나중에 또는 3D영상의 생성을 위해 또는 미세조정 및 튜닝을 위해 디스토션 메시를 생성하도록 원근맵을 재구성을 할 수 있는 장소에서 다시 볼 수 있다.
디코더
디스토션 메시는 2D영상을 3D영상으로 변환하는데 이용될 수 있다고 전술한바 있다.
원근맵으로부터 필요한 디스토션 그리드를 생성할 수 있다. 원근맵 자체는 2D비디오내에서 전송된 추가의 정보로부터 생성된다. 원근맵으로부터의 디스토션 그리드의 생성은 실시간, 반 실시간, 또는 오프라인으로 발생하며, 지역적으로 또는 임의의 적합한 전송매체를 통해 원격으로 실시된다. 상기 디스토션 그리드의 생성은 소프트웨어 또는 하드웨어로 행해질 수 있다.
따라서 2D영상의 부분으로서 디스토션 메시의 서브 픽셀 점을 전송하는 것보다 원근맵을 재생하는데 필요한 정보가 전송된다. 이어서 디코더에서 원근맵이 재구성되며, 디스토션 그리드로의 변환이 시작된다. 이러한 변환은 수신위치에서 실시간, 반 실시간 또는 오프라인으로 시작되며, 소프트웨어 또는 하드웨어를 이용하여 실행된다. 원근맵 데이터에서 원근맵으로 이어서 디스토션 그리드로의 변환의 바람직한 방법은 도 1에 도시한 플로우 차트로서 행해지며, 또한 도 2의 하드웨어에서 실행된다. 상기 소프트웨어 변환 프로세스 함수의 각각의 요소는 다음과 같다.
즉 영상 시퀀스 소스-2D필름 또는 비디오 또는 몇 가지의 다른 영상 시퀀스 소스.
영역 및 원근 소스- 이는 영상 시퀀스를 가지고 전송된 정보이며, 바람직한 실시예에 있어서, VBI 또는 MPEG 데이터 스트림내에 포함된다. 이는 각 물체의 위치, 형상 및 원근과 관련한 정보를 포함한다.
원근맵에 원근영역을 적용- 물체를 만들려면, 물체내의 "영역"은 원근 정보에 따라 채워지고 음영된다. 음영진 영역외부의 모든 영역은 가공되지 않는다. 이러한 프로세스로서 원래 원근맵이 재구성될 수 있다.
블러 원근맵(Blur Depth Map)-임의의 하드 단부를 제거하기 위하여 하드 원근맵이 흐려지게 된다(가우스, 패스트 또는 기타로 된다). 상기 블러링(blurring)은 영상의 오버래핑을 제거하도록 물체 사이의 원활한 천이를 제공한다. 이러한 블러링은 수평방향에서 다소 가중된다. 수직 블러는 상하의 영상으로의 재단에 의해 정지 영상에 도움을 주어 근 원 물체간의 양호한 천이를 제공한다.
원근맵을 이용한 처리영상- 이어서 블러 원근맵이 디스토션 그리드의 변위를 위한 소스로서 이용되며, 백색은 최대변위를 흑색은 변위없음을 나타낸다. 수평축을 따르는 변위의 량은 임의의 소정의 픽셀 위치에서 원근맵의 원근에 따라 정해진다. 바람직한 실시예에 있어서, 좌측 영상에 대한 변위는 우측이 되며, 우측영상 변위는 좌측이다. 모든 행해진 시차는 영상에 부여되어 백색(전경)변위 물체가 스크린 레벨에서 수렴된다. 이어서 흑색(배경)영역이 천이되지 않은 영상과 같은 행해진 변위를 가진다. 변위의 방향 및 시차는 변환된 영상이 디스플레이되는 3D디스플레이 시스템의 특정 조건을 맞추도록 가변된다.
일단 디스토션 그리드가 생성되면, 2D의 3D로의 변환이 전술한 바와 같이 시작된다.
디스토션 그리드로부터 개개의 좌우측 영상을 생성하기 위한 하드웨어 변환기의 바람직한 실시예가 도 2에 도시되는데, 이는 완전 디지털방식이다. 이러한 처리를 실행하는 방법이 도 2a에 도시되며, 다음과 같이 동작한다.
상기 시스템은 두 개의 라인 저장부(line store)를 이용하는데, 이는 동시 액세스를 수용하도록 멀티 포트로 된다. 한 비디오 라인이 상기 라인 저장부중 하나에 기록되며, 다른 라인 저장부가 출력 비디오 신호를 생성하도록 판독된다. 현재 라인의 단부에서 라인 저장부가 교환된다.
현재 영상에 대해서 원근맵을 생성하도록 비디오 신호로부터 원근 정보가 추출된다. 각각의 출력 픽셀에 있어서, 원근맵이 (디스토션 그리드의) 픽셀 오프셋으로 변환된다. 비디오 라인이 라인 저장부 중 하나로부터 판독될 때 픽셀 오프셋이 픽셀 카운터에 부가된다. 이 픽셀 오프셋은 분수 값이어서, 소정의 픽셀의 각 사이드에서 픽셀 값을 판독하고 중간 값을 보간하는 것이 필요하다. 상기 비디오 디코더로부터의 기수/우수 필드신호가 순차의 비디오 출력을 제어하는데 이용되며, 또한 출력 비디오 신호에 관찰자 셔터 글래스를 동기시키는데 이용된다. 기본 회로는 상기 비디오 포맷을 필요로하는 3D디스플레이에 대한 별개의 좌우측 비디오 신호를 생성하도록 이중화된다.
DDC디코더의 기능 블록도가 도 2b에 도시된다. 제 1 프로세스는 VBI 또는 MPEG데이터 스트림내에 삽입되는 인입 비디오로부터 물체 데이터를 추출하는 것이다. 이러한 추출된 데이터는 압축 포맷으로 되며, 마이크로프로세서를 이용하여 순차적으로 압축해제된다. 상기 마이크로프로세서의 출력은 원래 물체 윤곽선정보이며, 각 물체에 대해 원근 정보를 생성하도록 다시 처리된다. 이러한 데이터는 한 세트의 3 회전 필드 버퍼로 전달되는데 상기 버퍼는 마이크로프로세서에 의해 제어 된다. 이어서 원근맵이 다음의 버퍼로 전송되며, 여기서 수평 및 수직 블러가 가해진다. 일단 블러링이 가해지면, 최종의 데이터가 최종단 버퍼에 공급되고 여기서 데이터가 도 2a에 도시된 원근-픽셀 오프셋 변환기(Depth to Pixel Offset Converter)로 전송된다. 데이터가 상기 변환기로 전송되면, 최종단의 버퍼는 클리어되며, 다음의 원근맵을 수신하도록 대기된다.
DDC디코더 프로세스가 도 2c에 도시되는데, 이는 타이밍도이며, 현재의 마이크로프로세서가 모든 디코딩 프로세스를 동시에 시작할 만큼 충분히 빠르지 않음을 가정한다. 따라서 상기 디코딩 프로세스는 파이프 라인 프로세스로 순차적으로 시작된다. 마이크로프로세서의 성능이 개선됨에 따라 다 그런 것은 아니지만 다수의 프로세스가 동시에 시작되는 것을 기대할 수 있다. 도 2c(1)에 있어서, 4개의 비디오 프레임이 도시되는데, 각각의 프레임은 기수 및 우수 필드를 포함한다.상기 도의 (2)에 있어서, 프레임 4에 대한 물체 리스트가 생성되는 반면, (3)에서 프레임 4에 대한 원근맵이 생성된다. (4)에서 수평 및 수직 블러가 가해지며, (5)에서 프레임 4에 대한 원근맵이 출력되며, 버퍼가 클리어되어 다음의 물체 리스트를 대기한다. 따라서 (5)에서, 프레임 4에 대한 원근맵 및 2D영상이 동시에 활용가능하여 3D로의 변환이 가능하다. 도 2c는 각각의 프레임에 대한 처리를 도시하며, 실제에 있어서, 임의의 시간에 4개의 다른 프레임에 대한 원근맵이 다른 하드웨어 섹션에 의해 생성되는 것을 볼 수 있다.
기타 디코더
전술한 바와 같이, 현재의 활용가능한 마이크로프로세서는 모든 디코딩 프로 세스를 동시에 처리할 만큼 충분히 빠르지 못하므로, 고속의 마이크로프로세서를 필요로 하지 않는 다른 바람직한 실시예의 디코더가 개시된다. 이러한 디코더는 2D-3D 컴퓨터그래픽을 처리하도록 개발된 집적회로를 사용한다. 이러한 전용 그래픽 프로세서는 초당 500,000다각형 이상을 제공할 수 있다. 상기 집적회로는 다량으로 제조되고 저가이므로, 저 비용의 DDC디코더의 생산이 가능하다. 디코더는 그래픽 프로세서의 성능을 나타내는 가장 간단한 다각형, 비음영 맵 다각형을 이용한다.
디코딩 프로세스는 수동으로 실행되는 바와 같이 상기 프로세스를 설명함으로서 보다 용이하게 이해될 수 있다. 이는 도 9의 플로우차트와 후속의 도면으로 도시된다. 상기 프로세스는 비교적 양호한 변형을 이루는데 필요한 xy평면내의 많은 다각형을 이용하여 디스토션 되지 않은 메시를 생성함으로서 시작된다. 바람직한 실시예에 있어서, 필드당 10,000다각형이 이용된다. 디스토션 되지 않은 메시의일예가 도 10에 도시된다. 3D로 변환될 물체에 대한 원근맵(이 실시예에서 도 11에서와 같이 관찰자쪽으로 팁이 방위된 콘)이 변형된 메시에 적용되어 상기 메시 다각형의 Z축 단면이 원근맵내의 대응의 픽셀의 값에 따르게된다. 이는 도 12에 도시된다. 상기 프로세스에 있어서 다음의 단계는 각 다각형의 z축단면을 동등의 x축 변위로 변환하는 것이다. 이는 도 13에서 도 16에 도시된다. 도 13에 있어서, z축 단면 메시를 통한 x 축선택이 도시된다. 도 14에 있어서, 열의 포인트가 x축을 따라 선택되며, 포인트 y=0주위로 90°회전된다. 도 15는 45°포인트에서의 회전의 효과를 나타내며, 도 16은 90°회전이후를 나타낸다. 이러한 프로세스는 모든 x열에 대해 반복되므로써 원근맵 z축 단면을 x축변위로 효과적으로 변환한다.
상기 프로세스에 있어서, 다음 단계는 도 17에서와 같이 원래 비디오 프레임을 디스토션 되지 않은 메시상에 매핑하는 것이다. 결과의 비디오 영상이 도 19의 메시 변위에 따라 확장된다. 이는 이전 출원 PCT/AU/00820에서 기술된바와 같이 영상을 스크래치함으로써 동일의 효과를 가진다. 상기 스크래치된 영상은 스테레오 쌍의 하나의 장면을 형성하는데 이용되는데, 다른 하나는 도 20에 도시한 바와 같은 메시 및 대응의 영상을 생성하는 90°만큼 도 13의 포인트를 회전시킴으로써 형성된다.
2D/3D 그래픽 프로세서를 이용하여 하드웨어로 상기 프로세스를 실행하는 경우, z축 단면을 동등의 x축 변위로 변환하는 단계를 제거할 수 있다. 관찰자에 가까운 다각형이 관찰자에 먼 다각형보다 보다 수평으로 이동되어야 하므로, 도 18의 변위 메시는 도 11의 원근맵으로부터 직접적으로 생성될 수 있다. 이는 원근맵의 그레이 스케일 값과 각 대응 다각형의 천이사이의 직접적인 관계가 있으므로 성취될 수 있다. 이러한 간단한 처리를 도 21의 플로우차트에 도시한다.
다른 하드웨어 디코더
2D/3D 그래픽 프로세서에 의한 하드웨어 DDC디코더의 블록도가 도 8에 도시된다. DDC로부터 원근맵의 추출 및 생성이 전술한 바와 같이, 아직 남아 있는데 도 2b에 도시된다. 인입 비디오 정보가 DDC 데이터 디코더에 전달되며, 이 디코더는 상기 비디오 스트림으로부터 DDC정보를 추출하고 각 비디오 필드에 대해 원근맵을 회복한다. 상기 비디오는 또한 RGB, YUV 또는 다른 비디오 포맷으로 변환되며, 듀얼 필드 저장부에 기록된다. 이는 비디오 필드가 새로운 필드가 로딩됨과 동시에 2D/3D그래픽 프로세서로 한 비디오 필드가 판독되어져 나가게 한다. DDC데이터디코더로부터의 원근맵 데이터 출력은 원근맵 다각형 메시 변환기(Depth Map to Polygon mesh)로 출력되며, 이 변환기는 2D/3D 그래픽 프로세서에 의해 처리되어질 다각형의 형상을 형성한다. 상기 그래픽 프로세서의 다른 입력은 원래 2D비디오 영상인데 이는 다각형이 적용되는 텍스처 맵으로서 이용된다. 상기 그래픽 프로세서의 출력은 인터레이스된 포맷으로 비디오가 읽혀지게 하는 필드 저장부로 전달된다. 이는 PAL/NTSC인코더에 순차적으로 전송되며, 이 인코더 출력은 표준 필드 순차 3D비디오 신호가 된다.
원근맵의 재사용
동일 또는 유사의 장면이 다시 디스플레이 되는 경우 동일의 원근맵이 재사용되므로 전 원근맵을 수신기에 전송하는 것이 필요함을 알 수 있다. 따라서 디코더는 메모리내에 이전에 전송된 원근맵을 재처리하는 것보다 재사용을 위해 이전에 전송된 원근맵의 시퀀스를 유지하는 것이 바람직하다. 원근맵이나 디스토션 메시는 휘발성 또는 비휘발성으로되는 디코더 메모리내에 저장되며, 다음의 것으로 제한되는 것은 아니지만 RAM, EEPROM, 플래시메모리, 자기 또는 광학 저장장치를 포함한다. 일반 원근맵과 또는 디스토션 그리드는 디코더내에 저장되는 것이 또한 바람직하다. 이로서 빈번히 발생하는 장면이 원근맵을 전송하거나 변환할 필요없이 변환될 수 있다. 디코더에 어느 원근맵이 적용되는 지를 고유하게 식별하는 비디오 신호의 데이터를 포함함으로써 정확한 원근맵이 선택될 수 있다. 또한 상기 디코더는 디코더내에 유지되는 원근맵과 또는 디스토션 그리드의 라이브러리를 인에이블시키도록 새롭거나 변경된 원근맵을 수신하는 능력을 가져야한다. 상기 라이브러리는 다음으로 제한되는 것은 아니지만 다음의 매체, 즉 RAM, EEPROM, 플래시 메모리, 자기 또는 광학 저장장치내에 저장된다. 상기 라이브러리는 상기 비디오신호에 포함되는 특정 원근맵 또는 디스토션 그리드의 전송으로 갱신될 수 있다. 상기 라이브러리는 원근맵이나 디스토션 그리드를 포함하는 외부 또는 내부 플러그 인 모듈에 의해 그리고 비디오 신호, 모뎀 또는 인터넷을 통해 디코더에 다운로딩함으로써 유지될 수 있다. 상기 라이브러리를 유지하는 다른 수단은 당업자에게 명확하다.
상기 비디오 신호에 포함된 DDC 데이터의 일반 포맷은 바람직한 실시예에 있어서, 디코더에 대한 다음 데이터의 성격을 나타내는 헤더플랙을 포함한다. 현재 다수의 표준이 일반적으로 다음의 포맷을 가지는 포맷용으로 이용될 수 있다.
<플랙#><디코더에 의해 활성되는 데이터>
플랙의 예는 다음을 포함하는데 이에만 제한되는 것은 아니다.
플랙1- 다음 데이터는 원근맵이며,
플랙2- 다음 데이터는 현재 물체의 재배치와 관련되며,
플랙3- 다음 데이터는 물체의 원근에서의 변화와 관련되며,
플랙4- 다음 데이터는 전에 전송된 원근맵의 재사용과 관련되며,
플랙5- 다음 데이터는 라이브러리내의 원근맵의 사용과 관련되며,
플랙6- 다음 데이터는 라이브러리내의 원근맵의 변경과 관련되며,
플랙7- 다음 데이터는 라이브러리내의 새로운 원근맵의 추가와 관련되며,
플랙8- 다음 데이터는 현재 라이브러리 원근맵의 소거와 관련되며,
플랙9- 다음 데이터는 움직임 변위 지연의 사용과 관련되며,
플랙10- 다음 데이터는 행해진 변위의 사용과 관련되며,
플랙11- 다음 데이터는 수학적 알고리즘의 사용과 관련되며,
플랙 12- 다음 데이터는 수학적 알고리즘 라이브러리의 사용과 관련된다.
또한 각 데이터 패킷의 길이는 각각의 패킷을 고유하게 정의하고 플랙에 대한 필요를 경감하는 다른 길이로 될 수 있다.
상기 설명에 있어서, 디스토션 그리드에 동일 프로세스가 가해진다.
디코더가 라이브러리 내의 지정 범위로부터 자동적으로 선택함으로써 해당 3D 영상에 적용하도록 최적의 원근맵을 지정할 수 있음을 알 수 있다. 예를 들어 DDC데이터는 특정 검색 포인트사이의 원근맵의 라이브러리를 검색하거나 이브닝 뉴스, 경마 등의 일반 카테고리에 의해 디코더에 지시할 수 있다. 이어서 상기 디코더는 물체 사이즈, 형상, 속도, 방위, 색, 음영, 암도에 의거 적합한 맵을 선택할 수 있다.
디코딩 프로세스의 결과에 의해 상기 부호화 프로세스동안 생성된 원래 원근맵이 2D영상과 물체 원근 정보를 필요로하는 3D디스플레이 시스템에 사용을 위한 적합한 포맷으로 활용될 수 있다. 이러한 디스플레이는 성격상 3D 즉 입체적이 된다.
다른 방법
또한 메시 디스토션 프로세스가 수학적 알고리즘에 의해 정의된다. 이러한 알고리즘은 디코더에 저장될 수 있어서, DDC데이터는 알고리즘이 적용된 파라미터를 가진다. 예를 들어 일반식
f(x,y) = [1-exp(-|(|x|-rx).dx|].sin( ((Pl.x)/rx) + Pl/2).
[1-exp(-|(|y|-ry).dy|].sin( ((Pl.y)/ry) + Pl/2)
여기서
Pl : 상수 3.14159...
|x| : x의 절대값
rx : x의 범위, -rx <= x <=rx
ry : y의 범위, -ry <= y <=ry
dx : x에 대한 감쇠계수
dy : y에 대한 감쇠계수
다음의 값이 DDC데이터를 통해 상기 방정식에 주어진 경우, 도 7의 디스토션 그리드가 생성된다.
rx = ry = 50
dx = dy = 0.1
DDC 데이터와 관련하여, 다음이 전송된다.
<도 11><50,50,0.1,0.1>
또한 이들 파라미터는 라이브러리의 형태로 상기 디코더내의 메모리에 저장되며, 상기 DDC데이터내의 라이브러리 인덱스를 보냄으로써 호출된다.
DDC 데이터와 관련하여, 다음이 전송된다.
<도 12><라이브러리 인덱스>
도 9의 움직임 변위의 사용하는 다른 예를 고려한다. 종래 기술은 수평 방향에서의 움직임을 가지는 2D영상이 움직임 변위를 이용하여 3D로 변환되는 것을 도시한다. 카메라의 수평 움직임 즉 카메라의 팬동작으로 인한 움직임이 있는 것이 바람직하다. 이러한 기술에 있어서, 관찰자 눈 중 하나가 현재의 비디오 필드를 수신하고, 다른 눈이 현재 필드를 수신하는데, 각각의 눈에 담긴 영상간에 지연이 있게된다. 어느 눈이 지연된 영상 및 지연 량을 수신하는가에 대한 선택은 2D영상내의 수평 움직임의 방향 및 속도에 따른다. 지연은 통상적으로 1 내지 4 필드의 범위에 있다. 방향 및 지연의 선택은 2D영상내의 전체 움직임 벡터를 고려하여 사이즈, 벡터의 방향 및 지속에 의거 상기 파라미터를 선택함으로써 행해진다. 종래 기술에 있어서, 실제적인 처리능력을 필요로 하는 시야위치에서 실시간으로 상기 계산을 실행하는 것이 필요하다. 바람직한 방법은 움직임 벡터를 계산하고 전송위치에서 필드지연 방향 및 량을 계산하여 이 값을 비디오 신호부분으로서 전송한다. 따라서 바람직한 실시예에 있어서, 전송된 데이터는 다음과 같다.
<플랙 9><방향 및 지연>
여기서 <방향 및 지연>은 통상 -4에서 +4 범위에 있다. 상기 DDC디코더는 상기 데이터를 회복해서 필드 지연의 정확한 량 및 방향을 처리된 영상에 삽입하도록 이 데이터를 이용한다.
디스토션 메시는 현재의 2D비디오 또는 필름 카메라에 한 카메라를 부가함으 로써 실시간으로 얻어지는데, 상기 필름카메라는 가변 초점렌즈 및 선명도 검출 알고리즘을 이용하여 카메라가 보는 영상에서 물체의 원근을 구한다. 물체 원근은 입체 쌍의 카메라로부터 얻어져서 각 영상에서의 픽셀간의 상관이 물체 원근을 나타낸다. 디스토션 메시 데이터를 제공하기 위한 처리이전에 상기 구성의 출력이 원근맵을 생성하는데 이용된다. 이는 본 명세서에서 기술된 물체원근을 나타내도록 원래 2D영상을 처리하고 음영을 가하고, 다른 표시를 가함으로써 얻어진다. 각 물체의 윤곽선은 물체 사이즈, 색, 움직임 속도, 음영, 텍스처, 휘도, 암도 뿐만아니라 이전, 현재 및 다음 영상간의 차이 같은 물체의 특성으로부터 얻어진다. 신경망 및 전문가 시스템이 물체 식별을 지원하는데 이용될 수 있다. 카메라에서 영상을 이동하여 카메라 영상센서상의 후속영상의 물리적 오프셋을 얻을 수 있다. 이러한 이동은 광학적으로, 전자광학적으로, 기계적으로, 전자기계적으로, 전자적으로, 또는 당업자에게 공지된 다른 방법으로 생긴다. 상기 이동은 단일 방향 즉 x방향, 다중방향에서 순차적 또는 랜덤하게 이루어진다. 카메라 센서상의 물체의 이동은 카메라에 가까운 물체의 경우 더 크게된다. 연속 영상의 픽셀을 상관시킴으로써 각 물체의 원근이 얻어진다. 또한 다수의 카메라가 이용될 수 있다. 장면내의 물체의 원근을 구하는데 다른 기술이 이용될 수 있다. 이에는 광학, 레이저, 초음파 또는 마이크로웨이브 원리로 동작하는 렌지 파인더(range finder) 또는 장면내의 물체에 걸리는 그리드의 투사를 이용하여 그리드의 최종 디스토션으로부터 물체의 원근을 구하는 방법이 포함되는데 이에만 제한되지 않는다.
다수의 CAD 소프트웨어 패키지에 의해 영상의 와이어 프레임 모델이 얻어진 다. 이러한 와이어 프레임 모델은 물체의 장면의 영상이며, 장면내의 물체의 위치를 구하는데 이용될 수 있다.
마찬가지로 3D스튜디오와 같은 패키지로부터의 3D 비입체 영상처리를 제공하는 부분에 의해 카메라로부터의 각 픽셀까지의 거리가 출력된다. 이로써 백색으로 나타나는 가장 가까운 물체와 흑색으로 나타나는 카메라로부터 먼 점을 가지는 그레이 스케일을 얻을 수 있다. 이러한 그레이 스케일 맵은 입체 3D로 변환을 위한 호환성 있는 원근맵으로서 이용된다.
본 발명은 MPEG 등의 동영상 처리시스템에 이용될 수 있다.
Claims (42)
- 2D 영상내의 적어도 하나의 물체를 식별하는 단계;상기 물체 또는 각각의 물체에 식별 택(tag)을 할당하는 단계;상기 물체 또는 각각의 물체에 원근 택(depth tag)을 할당하는 단계; 및상기 물체 또는 각각의 물체에 대한 윤곽선을 정하여 형성하는 단계를 포함하는 것을 특징으로 하는 2D영상을 입체영상으로 변환하는데 사용하기 위한 원근맵을 생성하는 방법.
- 제 1항에 있어서, 상기 물체 윤곽선은 일련의 좌표, 곡선 및/또는 기하 형상으로 이루어지는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 식별 택은 고유의 숫자 번호 인 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 적어도 하나의 물체를 식별하는 단계는 일반 장면의 라이브러리와 상기 2D영상을 비교하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 윤곽선을 정하는 단계는 픽셀단위로 물체를 추적하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 윤곽선을 정하는 단계는 물체의 윤곽선에 근사하도록 직선을 이용하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 윤곽선을 정하는 단계는 물체의 윤곽선에 근사하도록 곡선 근사치를 이용하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 윤곽선을 정하는 단계는 물체의 윤곽선에 근사하도록 베지어 곡선(bezier curve)을 이용하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 윤곽선을 정하는 단계는 상기 윤곽선에 근사하도록 곡선 및/또는 일반 또는 기하 형상의 라이브러리와 상기 물체를 비교하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 9항에 있어서, 물체에 최적으로 맞도록 곡선 및/또는 일반 또는 기하 형상을 확대하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 원근 택은 컬러 코드를 포함하는 것을 특징으로 하는 방법.
- 제 11항에 있어서, 백색은 관찰자에서 비교적 가까운 물체를 나타내며, 흑색은 관찰자로부터 비교적 먼 물체를 나타내는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 원근 택은 수치값인 것을 특징으로 하는 방법.
- 제 13항에 있어서, 상기 수치 값은 0에서 255의 범위에 있는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 적어도 하나의 물체는 다수의 절편으로 분할되며, 각각의 세그먼트는 원근 택으로 할당되는 것을 특징으로 하는 방법.
- 제 15항에 있어서, 원근의 변화는 램프기능에 의해 이루어지는 것을 특징으로 하는 방법.
- 제 16항에 있어서, 상기 램프는 선형 또는 환형 램프인 것을 특징으로 하는 방법.
- 제 1항에 있어서, 영상의 연속 프레임상의 상기 물체 또는 각각의 물체를 추적하고, 각각의 프레임 내의 상기 물체에 대한 원근 택을 결정하여 할당하는 단계를 추가로 포함하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 상기 또는 각각의 물체에 텍스처 범프 맵을 부가하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 19항에 있어서, 상기 텍스처 범프 맵은 상기 물체를 다수의 성분으로 나누고 각각의 성분에 각각의 원근 택을 할당함으로써 정해지는 것을 특징으로 하는 방법.
- 제 19항에 있어서, 상기 텍스처 범프 맵은 상기 물체의 각각의 성분의 휘도값으로 정해지는 것을 특징으로 하는 방법.
- 제 19항에 있어서, 상기 텍스처 범프 맵은 상기 물체의 각 성분의 크로미넌스, 채도, 색 배합, 반사 음영, 초점, 및/또는 선명도로 정해지는 것을 특징으로 하는 방법.
- 제 1항에 있어서, 각 2D영상의 80 ×60 ×8비트 해상도의 그레이 스케일 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
- 비디오 시퀀스의 각 프레임을 식별하여 넘버링하는 단계;비디오 시퀀스내의 적어도 하나의 물체를 식별하는 단계;각각의 물체에 식별 택을 할당하는 단계;상기 비디오 시퀀스를 다수의 부분 시퀀스로 분할하는 단계;상기 다수의 부분 시퀀스를 다수의 오퍼레이터에 전송하여, 각각의 오퍼레이터가 상기 택 식별단계에 의해 이미 할당된 부분 시퀀스에서 각 물체에 대한 윤곽선을 구하여 할당하는 단계;상기 다수의 오퍼레이터로부터 상기 부분 시퀀스를 받아들이는 단계;상기 비디오 시퀀스를 재형성하도록 상기 부분 시퀀스를 대조하는 단계; 및 각각의 물체에 원근 택을 할당하는 단계를 포함하는 것을 특징으로 하는 비디오 시퀀스내의 2D영상을 입체영상으로 변환하는데 사용하기 위한 원근맵을 생성하는 방법.
- 제 24항에 있어서, 상기 비디오 시퀀스가 다수의 부분 시퀀스로 분할되기 전에 시퀀스에 안전수단을 부가하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
- 제 25항에 있어서, 상기 안전수단은 상기 비디오 시퀀스로부터 오디오를 제거하고/하거나 상기 비디오 시퀀스의 색을 변경하는 단계를 포함하는 것을 특징으로 하는 방법.
- 물체에 물체 식별자를 할당하는 단계;상기 물체에 원근 택을 할당하는 단계; 및물체 윤곽선을 정하는 단계를 포함하는 것을 특징으로 하는 2D영상을 입체영상으로 변환하는데 사용하기 위한 원근맵을 부호화하는 방법.
- 제 27항에 있어서, 상기 물체의 윤곽선은 일련의 x,y 좌표로 정의되는데, 상기 각 x,y좌표는 곡선으로 분리되는 것을 특징으로 하는 방법.
- 제 28항에 있어서, 상기 각각의 커브는 라이브러리내에 저장되며, 고유의 번호로 할당되는 것을 특징으로 하는 방법.
- 제 28항에 있어서, 상기 물체의 윤곽선은 각 곡선의 방위에 대한 데이터를 포함하는 것을 특징으로 하는 방법.
- 제 28항에 있어서, 각각의 상기 곡선은 베지어 곡선인 것을 특징으로 하는 방법.
- 제 27항에 있어서, 상기 물체 윤곽선은 적어도 하나의 기하형상으로 이루어지는 것을 특징으로 하는 방법.
- 제 32항에 있어서, 적어도 하나의 기하 형상은 그 형상의 형태 및 파라미터에 의해 이루어지는 것을 특징으로 하는 방법.
- 제 27항에 있어서, 상기 물체의 원근 택의 부호화하는 단계는원근의 타입을 할당하는 단계; 및물체에 대해 원근을 할당하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제 34항에 있어서, 상기 원근의 타입에는 단일 값, 선형 램프 또는 환형 램프가 포함되는 것을 특징으로 하는 방법.
- 제 27항에 있어서, 아날로그 텔레비전 신호의 버티컬 블랭킹 인터벌(Vertical Blanking Interval)내에 부호화된 원근맵 데이터를 삽입하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제 27항에 있어서, 디지털 텔레비전 신호의 MPEG내에 부호화된 원근맵 데이터를 삽입하는 단계를 포함하는 것을 특징으로 하는 방법.
- 제 27항에 있어서, DVD의 VOB 파일내에 부호화된 원근맵 데이터를 삽입하는 단계를 포함하는 것을 특징으로 하는 방법.
- 2D영상 및 상기 2D영상에 대응하는 원근맵 데이터를 수신하는 단계;상기 원근맵 데이터에서 식별된 물체를 결정하는 단계;상기 물체에 대한 대응 원근을 결정하는 단계;상기 원근에 따라 상기 물체를 음영지우는 단계; 및디스토션 량이 상기 원근에 따르는 디스토션 그리드(distortion grid)를 형성하도록 영상을 처리하는 단계를 포함하는 것을 특징으로 하는 입체 시청 시스템 상에서 시청을 위하여 2D영상 및 원근맵 데이터를 전송하는 방법.
- 제 39항에 있어서, 상기 디스토션 그리드를 형성하기 이전에 원근맵을 블러링(blurring)하여 물체 간에 원활하게 천이하도록 하는 단계를 포함하는 것을 특징으로 하는 방법.
- 다수의 다각형으로부터 디스토션되지 않은 메시(mesh)를 생성하는 단계;상기 메시내의 다각형의 단면이 원근맵내에 기록된 원근에 따르도록 된 원근맵을 상기 메시에 적용하는 단계;상기 다각형의 단면을 병진변위로 변환해서 디스토션 메시를 형성하는 단계; 및상기 원근맵 데이터에 대응하는 2D영상에 상기 디스토션 메시를 적용하는 단계를 포함하는 것을 특징으로 하는 원근맵 데이터의 부호화 방법.
- 원근맵의 라이브러리를 포함하는 원근맵 데이터를 디코딩하는 디코더로서,입력되는 데이터가 상기 원근맵 라이브러리와 비교되며, 상기 원근맵 데이터가 상기 라이브러리내의 원근맵과 일치하지 않는 경우 상기 청구항 41에 개시된 방법을 이용하여 상기 입력 데이터를 처리하는 것을 특징으로 하는 디코더.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AUPP0778A AUPP077897A0 (en) | 1997-12-05 | 1997-12-05 | Improved image conversion and encoding techniques |
AUPP0778 | 1997-12-05 | ||
AUPP2865 | 1998-04-08 | ||
AUPP2865A AUPP286598A0 (en) | 1998-04-08 | 1998-04-08 | Improved image conversion and encoding techniques |
PCT/AU1998/001005 WO1999030280A1 (en) | 1997-12-05 | 1998-12-03 | Improved image conversion and encoding techniques |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20010032346A KR20010032346A (ko) | 2001-04-16 |
KR100560507B1 true KR100560507B1 (ko) | 2006-03-15 |
Family
ID=25645669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020007005574A KR100560507B1 (ko) | 1997-12-05 | 1998-12-03 | 개선된 영상 변환 및 부호화 기술 |
Country Status (9)
Country | Link |
---|---|
US (3) | US7894633B1 (ko) |
EP (2) | EP2252071A3 (ko) |
JP (1) | JP4698831B2 (ko) |
KR (1) | KR100560507B1 (ko) |
CN (1) | CN1173296C (ko) |
CA (1) | CA2305735C (ko) |
ID (1) | ID27878A (ko) |
MY (1) | MY124160A (ko) |
WO (1) | WO1999030280A1 (ko) |
Families Citing this family (214)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8253729B1 (en) * | 1983-05-09 | 2012-08-28 | Geshwind David M | Trimming depth buffer during 2D to 3D conversion |
US7116324B2 (en) | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures |
US7116323B2 (en) | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images |
AUPQ119799A0 (en) * | 1999-06-25 | 1999-07-22 | Dynamic Digital Depth Research Pty Ltd | Ddc/3 image conversion and encoding techniques |
AUPQ416699A0 (en) | 1999-11-19 | 1999-12-16 | Dynamic Digital Depth Research Pty Ltd | Depth map compression technique |
KR20030062313A (ko) * | 2000-08-09 | 2003-07-23 | 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 | 영상 변환 및 부호화 기술 |
US6664962B1 (en) * | 2000-08-23 | 2003-12-16 | Nintendo Co., Ltd. | Shadow mapping in a low cost graphics system |
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US8401336B2 (en) | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
US8897596B1 (en) | 2001-05-04 | 2014-11-25 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with translucent elements |
JP4708619B2 (ja) * | 2001-07-31 | 2011-06-22 | キヤノン株式会社 | 立体画像形成システムおよび立体画像形成方法 |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
EP2357841B1 (en) * | 2002-03-27 | 2015-07-22 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
US20030198290A1 (en) * | 2002-04-19 | 2003-10-23 | Dynamic Digital Depth Pty.Ltd. | Image encoding system |
US7489812B2 (en) * | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
JP2006513502A (ja) * | 2003-01-17 | 2006-04-20 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 完全な奥行きマップを得る方法 |
JPWO2004100564A1 (ja) * | 2003-05-07 | 2006-07-13 | 富田 誠次郎 | 立体画像の表示方法及び装置 |
CN100414566C (zh) * | 2003-06-19 | 2008-08-27 | 邓兴峰 | 平面图像全景重建立体图像的方法 |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US7680342B2 (en) * | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
KR101038452B1 (ko) * | 2003-08-05 | 2011-06-01 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 멀티뷰 이미지 생성 |
US7650036B2 (en) * | 2003-10-16 | 2010-01-19 | Sharp Laboratories Of America, Inc. | System and method for three-dimensional video coding |
US7787658B2 (en) * | 2004-03-12 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Creating a depth map |
US20050207486A1 (en) * | 2004-03-18 | 2005-09-22 | Sony Corporation | Three dimensional acquisition and visualization system for personal electronic devices |
KR100585966B1 (ko) * | 2004-05-21 | 2006-06-01 | 한국전자통신연구원 | 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법 |
US7643672B2 (en) | 2004-10-21 | 2010-01-05 | Kazunari Era | Image processing apparatus, image pickup device and program therefor |
ATE504897T1 (de) | 2004-10-26 | 2011-04-15 | Koninkl Philips Electronics Nv | Disparitätskarte |
US8774560B2 (en) * | 2005-01-11 | 2014-07-08 | University Of Central Florida Research Foundation, Inc. | System for manipulation, modification and editing of images via remote device |
KR101199498B1 (ko) | 2005-03-31 | 2012-11-09 | 삼성전자주식회사 | 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체 |
US20080278487A1 (en) * | 2005-04-07 | 2008-11-13 | Nxp B.V. | Method and Device for Three-Dimensional Rendering |
US20060233461A1 (en) * | 2005-04-19 | 2006-10-19 | Honeywell International Inc. | Systems and methods for transforming 2d image domain data into a 3d dense range map |
KR100913173B1 (ko) * | 2005-07-05 | 2009-08-19 | 삼성모바일디스플레이주식회사 | 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치 |
KR100932977B1 (ko) | 2005-07-05 | 2009-12-21 | 삼성모바일디스플레이주식회사 | 입체 영상 표시 장치 |
US8384763B2 (en) * | 2005-07-26 | 2013-02-26 | Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
US8279221B2 (en) * | 2005-08-05 | 2012-10-02 | Samsung Display Co., Ltd. | 3D graphics processor and autostereoscopic display device using the same |
US8274553B2 (en) * | 2005-10-18 | 2012-09-25 | Texas Instruments Incorporated | System and method for displaying stereoscopic digital motion picture images |
US7523405B2 (en) * | 2005-11-16 | 2009-04-21 | Microsoft Corporation | Displaying 2D graphic content using depth wells |
US7889244B2 (en) * | 2005-12-27 | 2011-02-15 | Panasonic Corporation | Image processing apparatus |
US7692696B2 (en) * | 2005-12-27 | 2010-04-06 | Fotonation Vision Limited | Digital image acquisition system with portrait mode |
JP5041458B2 (ja) * | 2006-02-09 | 2012-10-03 | 本田技研工業株式会社 | 三次元物体を検出する装置 |
EP1987436B1 (en) * | 2006-02-14 | 2015-12-09 | FotoNation Limited | Image blurring |
IES20060558A2 (en) * | 2006-02-14 | 2006-11-01 | Fotonation Vision Ltd | Image blurring |
US20070189750A1 (en) * | 2006-02-16 | 2007-08-16 | Sony Corporation | Method of and apparatus for simultaneously capturing and generating multiple blurred images |
IES20060564A2 (en) * | 2006-05-03 | 2006-11-01 | Fotonation Vision Ltd | Improved foreground / background separation |
KR100699050B1 (ko) | 2006-06-30 | 2007-03-28 | 삼성전자주식회사 | 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법 |
US8970680B2 (en) | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
TWI442763B (zh) * | 2006-10-26 | 2014-06-21 | Seereal Technologies Sa | 三維內容產生系統 |
JP2010507822A (ja) * | 2006-10-26 | 2010-03-11 | シーリアル テクノロジーズ ソシエテ アノニム | コンテンツ生成システム |
WO2008075276A1 (en) * | 2006-12-19 | 2008-06-26 | Koninklijke Philips Electronics N.V. | Method and system to convert 2d video into 3d video |
KR100894874B1 (ko) * | 2007-01-10 | 2009-04-24 | 주식회사 리얼이미지 | 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법 |
US8077964B2 (en) * | 2007-03-19 | 2011-12-13 | Sony Corporation | Two dimensional/three dimensional digital information acquisition and display device |
US20110043540A1 (en) * | 2007-03-23 | 2011-02-24 | James Arthur Fancher | System and method for region classification of 2d images for 2d-to-3d conversion |
US8213711B2 (en) * | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
US8488868B2 (en) * | 2007-04-03 | 2013-07-16 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
US10605610B2 (en) * | 2007-04-09 | 2020-03-31 | Ian Cummings | Apparatus and methods for reducing data transmission in wireless client-server navigation systems |
US9418433B2 (en) * | 2007-07-03 | 2016-08-16 | Koninklijke Philips N.V. | Computing a depth map |
CN102016917A (zh) * | 2007-12-20 | 2011-04-13 | 皇家飞利浦电子股份有限公司 | 图像数据的分割 |
CN101483765B (zh) * | 2008-01-11 | 2011-09-21 | 华为技术有限公司 | 一种图像处理方法、编解码方法及装置 |
US9094675B2 (en) * | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
KR101488199B1 (ko) * | 2008-03-12 | 2015-01-30 | 삼성전자주식회사 | 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체 |
FR2929421B1 (fr) * | 2008-03-25 | 2012-04-27 | Thales Sa | Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique |
JP5500066B2 (ja) * | 2008-04-03 | 2014-05-21 | Nltテクノロジー株式会社 | 画像処理方法、画像処理装置及びプログラム |
KR100950046B1 (ko) * | 2008-04-10 | 2010-03-29 | 포항공과대학교 산학협력단 | 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법 |
KR20100002032A (ko) * | 2008-06-24 | 2010-01-06 | 삼성전자주식회사 | 영상 생성 방법, 영상 처리 방법, 및 그 장치 |
TW201005673A (en) * | 2008-07-18 | 2010-02-01 | Ind Tech Res Inst | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system |
US8184196B2 (en) * | 2008-08-05 | 2012-05-22 | Qualcomm Incorporated | System and method to generate depth data using edge detection |
KR101497503B1 (ko) | 2008-09-25 | 2015-03-04 | 삼성전자주식회사 | 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치 |
WO2010050691A2 (en) | 2008-10-27 | 2010-05-06 | Samsung Electronics Co,. Ltd. | Methods and apparatuses for processing and displaying image |
US8345956B2 (en) * | 2008-11-03 | 2013-01-01 | Microsoft Corporation | Converting 2D video into stereo video |
US8606076B2 (en) * | 2008-11-24 | 2013-12-10 | Koninklijke Philips N.V. | 3D video reproduction matching the output format to the 3D processing ability of a display |
EP2197217A1 (en) | 2008-12-15 | 2010-06-16 | Koninklijke Philips Electronics N.V. | Image based 3D video format |
WO2010095838A2 (ko) | 2009-02-17 | 2010-08-26 | 삼성전자 주식회사 | 그래픽 화면 처리 방법 및 장치 |
KR101659576B1 (ko) | 2009-02-17 | 2016-09-30 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
WO2010108024A1 (en) * | 2009-03-20 | 2010-09-23 | Digimarc Coporation | Improvements to 3d data representation, conveyance, and use |
US8620147B2 (en) * | 2009-03-31 | 2013-12-31 | Samsung Electronics Co., Ltd. | Method and apparatus for transmitting compressed data using digital data interface, and method and apparatus for receiving compressed data using digital data interface |
CN101562755B (zh) * | 2009-05-19 | 2010-09-01 | 无锡景象数字技术有限公司 | 一种由平面视频制作3d视频的方法 |
US9124874B2 (en) | 2009-06-05 | 2015-09-01 | Qualcomm Incorporated | Encoding of three-dimensional conversion information with two-dimensional video sequence |
JP2011101229A (ja) * | 2009-11-06 | 2011-05-19 | Sony Corp | 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置 |
US8368696B2 (en) * | 2009-06-19 | 2013-02-05 | Sharp Laboratories Of America, Inc. | Temporal parallax induced display |
CN102498720B (zh) | 2009-06-24 | 2015-09-02 | 杜比实验室特许公司 | 在3d或多视图视频数据中嵌入字幕和/或图形叠层的方法 |
TW201119353A (en) | 2009-06-24 | 2011-06-01 | Dolby Lab Licensing Corp | Perceptual depth placement for 3D objects |
US8872900B2 (en) * | 2009-06-26 | 2014-10-28 | Lg Electronics Inc. | Image display apparatus and method for operating the same |
US8872976B2 (en) | 2009-07-15 | 2014-10-28 | Home Box Office, Inc. | Identification of 3D format and graphics rendering on 3D displays |
KR101716636B1 (ko) * | 2009-07-27 | 2017-03-15 | 코닌클리케 필립스 엔.브이. | 3d 비디오 및 보조 데이터의 결합 |
CN101968895A (zh) * | 2009-07-27 | 2011-02-09 | 鸿富锦精密工业(深圳)有限公司 | 二维图像转换***及方法 |
US20110025830A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
WO2011014419A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US9294751B2 (en) | 2009-09-09 | 2016-03-22 | Mattel, Inc. | Method and system for disparity adjustment during stereoscopic zoom |
US8624959B1 (en) * | 2009-09-11 | 2014-01-07 | The Boeing Company | Stereo video movies |
JP5415217B2 (ja) * | 2009-10-02 | 2014-02-12 | パナソニック株式会社 | 三次元映像処理装置 |
US8538135B2 (en) * | 2009-12-09 | 2013-09-17 | Deluxe 3D Llc | Pulling keys from color segmented images |
WO2011071978A1 (en) * | 2009-12-09 | 2011-06-16 | StereoD, LLC | Three dimensional image rendering |
US8638329B2 (en) * | 2009-12-09 | 2014-01-28 | Deluxe 3D Llc | Auto-stereoscopic interpolation |
KR101281961B1 (ko) * | 2009-12-21 | 2013-07-03 | 한국전자통신연구원 | 깊이 영상 편집 방법 및 장치 |
US9042636B2 (en) * | 2009-12-31 | 2015-05-26 | Disney Enterprises, Inc. | Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers |
US8743178B2 (en) * | 2010-01-05 | 2014-06-03 | Dolby Laboratories Licensing Corporation | Multi-view video format control |
US20100164952A1 (en) * | 2010-01-25 | 2010-07-01 | Michael Roderick | Stereoscopic image production method and system |
US8619122B2 (en) * | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8520935B2 (en) | 2010-02-04 | 2013-08-27 | Sony Corporation | 2D to 3D image conversion based on image content |
US8442297B2 (en) * | 2010-02-23 | 2013-05-14 | Arinc Incorporated | Methods of evaluating the quality of two-dimensional matrix dot-peened marks on objects and mark verification systems |
US9426441B2 (en) | 2010-03-08 | 2016-08-23 | Dolby Laboratories Licensing Corporation | Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning |
US9697751B2 (en) | 2010-03-09 | 2017-07-04 | Microsoft Technology Licensing, Llc | Interactive representation of clusters of geographical entities |
US20110222757A1 (en) | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
US8760498B2 (en) | 2011-03-14 | 2014-06-24 | Sony Corporation | Disparity data transport in standard caption service |
KR101385514B1 (ko) * | 2010-06-08 | 2014-04-16 | 주식회사 에스칩스 | 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치 |
TWI462567B (zh) * | 2010-06-18 | 2014-11-21 | Realtek Semiconductor Corp | 三維處理電路及處理方法 |
CN102300106B (zh) * | 2010-06-28 | 2014-03-12 | 瑞昱半导体股份有限公司 | 三维处理电路及处理方法 |
US8848038B2 (en) * | 2010-07-09 | 2014-09-30 | Lg Electronics Inc. | Method and device for converting 3D images |
WO2012014009A1 (en) * | 2010-07-26 | 2012-02-02 | City University Of Hong Kong | Method for generating multi-view images from single image |
CN102985958B (zh) * | 2010-08-31 | 2015-04-01 | 本田技研工业株式会社 | 车辆周围监测装置 |
US8582866B2 (en) * | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8831273B2 (en) | 2010-09-10 | 2014-09-09 | Reald Inc. | Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files |
US9485497B2 (en) | 2010-09-10 | 2016-11-01 | Reald Inc. | Systems and methods for converting two-dimensional images into three-dimensional images |
WO2012032825A1 (ja) | 2010-09-10 | 2012-03-15 | 富士フイルム株式会社 | 立体撮像装置および立体撮像方法 |
CN103098457B (zh) * | 2010-09-10 | 2016-04-13 | 富士胶片株式会社 | 立体成像装置和立体成像方法 |
US8896664B2 (en) | 2010-09-19 | 2014-11-25 | Lg Electronics Inc. | Method and apparatus for processing a broadcast signal for 3D broadcast service |
US20120068996A1 (en) * | 2010-09-21 | 2012-03-22 | Sony Corporation | Safe mode transition in 3d content rendering |
JP5281623B2 (ja) * | 2010-09-29 | 2013-09-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム |
JP5281624B2 (ja) * | 2010-09-29 | 2013-09-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム |
US9305398B2 (en) | 2010-10-08 | 2016-04-05 | City University Of Hong Kong | Methods for creating and displaying two and three dimensional images on a digital canvas |
US8619124B2 (en) * | 2010-10-14 | 2013-12-31 | Industrial Technology Research Institute | Video data processing systems and methods |
JP5250604B2 (ja) * | 2010-10-26 | 2013-07-31 | 富士フイルム株式会社 | 立体画像表示装置、立体画像表示方法およびプログラム |
WO2012061549A2 (en) | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
JP5559012B2 (ja) | 2010-11-12 | 2014-07-23 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
US20120120190A1 (en) * | 2010-11-16 | 2012-05-17 | Hung-Chia Lee | Display device for use in a frame sequential 3d display system and related 3d display system |
US20120120191A1 (en) * | 2010-11-17 | 2012-05-17 | Hung-Chia Lee | Image processor for use in a frame sequential 3d display system and related 3d display system |
US10140699B2 (en) | 2010-12-07 | 2018-11-27 | University Of Iowa Research Foundation | Optimal, user-friendly, object background separation |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
WO2012092246A2 (en) | 2010-12-27 | 2012-07-05 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US9386294B2 (en) | 2011-01-05 | 2016-07-05 | Google Technology Holdings LLC | Method and apparatus for 3DTV image adjustment |
US8624891B2 (en) * | 2011-01-17 | 2014-01-07 | Disney Enterprises, Inc. | Iterative reprojection of images |
WO2012100225A1 (en) * | 2011-01-20 | 2012-07-26 | University Of Iowa Research Foundation | Systems and methods for generating a three-dimensional shape from stereo color images |
EP2665406B1 (en) | 2011-01-20 | 2021-03-10 | University of Iowa Research Foundation | Automated determination of arteriovenous ratio in images of blood vessels |
CN103748612B (zh) * | 2011-01-24 | 2018-04-27 | 英特尔公司 | 用于获取、表示、比较和传输三维数据的方法和*** |
US8730232B2 (en) | 2011-02-01 | 2014-05-20 | Legend3D, Inc. | Director-style based 2D to 3D movie conversion system and method |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
JP5357199B2 (ja) * | 2011-03-14 | 2013-12-04 | 日本電信電話株式会社 | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム |
EP2697975A1 (en) | 2011-04-15 | 2014-02-19 | Dolby Laboratories Licensing Corporation | Systems and methods for rendering 3d images independent of display size and viewing distance |
US8681182B2 (en) | 2011-04-19 | 2014-03-25 | Deluxe 3D Llc | Alternate viewpoint rendering |
KR20120127992A (ko) * | 2011-05-16 | 2012-11-26 | 삼성전자주식회사 | 컨텐츠변환장치, 컨텐츠변환방법 및 그 저장 매체 |
KR20120133571A (ko) * | 2011-05-31 | 2012-12-11 | 삼성전자주식회사 | 3d 영상변환장치, 3d 영상변환장치에 의해 구현되는 방법 및 그 저장매체 |
US9509972B2 (en) | 2011-06-24 | 2016-11-29 | Lg Electronics Inc. | Encoding/decoding method and apparatus using a skip mode |
US20130004059A1 (en) * | 2011-07-01 | 2013-01-03 | Amir Said | Aligning stereoscopic images |
US9351028B2 (en) * | 2011-07-14 | 2016-05-24 | Qualcomm Incorporated | Wireless 3D streaming server |
US20130016098A1 (en) * | 2011-07-17 | 2013-01-17 | Raster Labs, Inc. | Method for creating a 3-dimensional model from a 2-dimensional source image |
WO2013025151A1 (en) * | 2011-08-12 | 2013-02-21 | Telefonaktiebolaget L M Ericsson (Publ) | Signaling of camera and/or depth parameters |
US8928729B2 (en) * | 2011-09-09 | 2015-01-06 | Disney Enterprises, Inc. | Systems and methods for converting video |
US8995755B2 (en) | 2011-09-30 | 2015-03-31 | Cyberlink Corp. | Two-dimensional to stereoscopic conversion systems and methods |
EP2764696B1 (en) | 2011-10-05 | 2020-06-03 | Bitanimate, Inc. | Resolution enhanced 3d video rendering systems and methods |
CN103096026A (zh) * | 2011-10-31 | 2013-05-08 | 鸿富锦精密工业(深圳)有限公司 | 安全监控***及安全监控方法 |
KR101330523B1 (ko) | 2011-11-29 | 2013-11-18 | (주)리얼디스퀘어 | 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체 |
KR101390961B1 (ko) | 2011-11-29 | 2014-05-07 | (주)리얼디스퀘어 | 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체 |
WO2013081304A1 (ko) * | 2011-11-28 | 2013-06-06 | 에스케이플래닛 주식회사 | 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체 |
KR101388668B1 (ko) * | 2011-11-29 | 2014-04-25 | (주)리얼디스퀘어 | 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체 |
US20130141433A1 (en) * | 2011-12-02 | 2013-06-06 | Per Astrand | Methods, Systems and Computer Program Products for Creating Three Dimensional Meshes from Two Dimensional Images |
US9530060B2 (en) * | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
TWI478102B (zh) * | 2012-01-20 | 2015-03-21 | Realtek Semiconductor Corp | 影像深度產生裝置與其方法 |
US11263823B2 (en) | 2012-02-24 | 2022-03-01 | Matterport, Inc. | Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications |
US10848731B2 (en) | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
US9324190B2 (en) | 2012-02-24 | 2016-04-26 | Matterport, Inc. | Capturing and aligning three-dimensional scenes |
US9959634B2 (en) * | 2012-03-13 | 2018-05-01 | Google Llc | Method and system for identifying depth data associated with an object |
US9552129B2 (en) | 2012-03-23 | 2017-01-24 | Microsoft Technology Licensing, Llc | Interactive visual representation of points of interest data |
KR101356544B1 (ko) * | 2012-03-29 | 2014-02-19 | 한국과학기술원 | 3차원 입체영상 생성 방법 및 장치 |
WO2013165614A1 (en) | 2012-05-04 | 2013-11-07 | University Of Iowa Research Foundation | Automated assessment of glaucoma loss from optical coherence tomography |
US9838669B2 (en) * | 2012-08-23 | 2017-12-05 | Stmicroelectronics (Canada), Inc. | Apparatus and method for depth-based image scaling of 3D visual content |
US20140062999A1 (en) * | 2012-09-05 | 2014-03-06 | Shenzhen China Star Optoelectronics Technology Co., Ltd. | Display system and display control method thereof |
US20150249839A1 (en) * | 2012-09-25 | 2015-09-03 | Nippon Telegraph And Telephone Corporation | Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media |
US9250653B2 (en) | 2012-09-28 | 2016-02-02 | City University Of Hong Kong | Capturing, processing, and reconstructing audio and video content of mobile devices |
US9007365B2 (en) | 2012-11-27 | 2015-04-14 | Legend3D, Inc. | Line depth augmentation system and method for conversion of 2D images to 3D images |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9214138B2 (en) | 2012-12-28 | 2015-12-15 | Microsoft Technology Licensing, Llc | Redundant pixel mitigation |
US20140184596A1 (en) * | 2012-12-28 | 2014-07-03 | Microsoft Corporation | Image based rendering |
US9135742B2 (en) | 2012-12-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | View direction determination |
US8983176B2 (en) * | 2013-01-02 | 2015-03-17 | International Business Machines Corporation | Image selection and masking using imported depth information |
US9083960B2 (en) * | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
US10360672B2 (en) | 2013-03-15 | 2019-07-23 | University Of Iowa Research Foundation | Automated separation of binary overlapping trees |
US9007404B2 (en) | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9563955B1 (en) | 2013-05-15 | 2017-02-07 | Amazon Technologies, Inc. | Object tracking techniques |
US9489774B2 (en) * | 2013-05-16 | 2016-11-08 | Empire Technology Development Llc | Three dimensional user interface in augmented reality |
JP5862635B2 (ja) | 2013-10-11 | 2016-02-16 | カシオ計算機株式会社 | 画像処理装置、立体データ生成方法、及びプログラム |
JP2015104016A (ja) * | 2013-11-26 | 2015-06-04 | キヤノン株式会社 | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
CN103646426A (zh) * | 2013-12-13 | 2014-03-19 | 武汉恩倍思科技有限公司 | 一种将2d平面照片转换为3d立体照片的方法 |
EP2999974B1 (en) * | 2014-03-03 | 2019-02-13 | Consortium P, Inc. | Real-time location detection using exclusion zones |
WO2015143435A1 (en) | 2014-03-21 | 2015-09-24 | University Of Iowa Research Foundation | Graph search using non-euclidean deformed graph |
US9407896B2 (en) * | 2014-03-24 | 2016-08-02 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions |
US9449234B2 (en) | 2014-03-31 | 2016-09-20 | International Business Machines Corporation | Displaying relative motion of objects in an image |
US9196027B2 (en) | 2014-03-31 | 2015-11-24 | International Business Machines Corporation | Automatic focus stacking of captured images |
US9300857B2 (en) | 2014-04-09 | 2016-03-29 | International Business Machines Corporation | Real-time sharpening of raw digital images |
US10122992B2 (en) | 2014-05-22 | 2018-11-06 | Disney Enterprises, Inc. | Parallax based monoscopic rendering |
US9897806B2 (en) | 2015-02-10 | 2018-02-20 | Dreamworks Animation L.L.C. | Generation of three-dimensional imagery to supplement existing content |
US9721385B2 (en) | 2015-02-10 | 2017-08-01 | Dreamworks Animation Llc | Generation of three-dimensional imagery from a two-dimensional image using a depth map |
US10368104B1 (en) * | 2015-04-01 | 2019-07-30 | Rockwell Collins, Inc. | Systems and methods for transmission of synchronized physical and visible images for three dimensional display |
US10115194B2 (en) | 2015-04-06 | 2018-10-30 | IDx, LLC | Systems and methods for feature detection in retinal images |
DE102015210453B3 (de) * | 2015-06-08 | 2016-10-13 | Bitmanagement Software GmbH | Verfahren und vorrichtung zum erzeugen von daten für eine zwei- oder dreidimensionale darstellung zumindest eines teils eines objekts und zum erzeugen der zwei- oder dreidimensionalen darstellung zumindest des teils des objekts |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
US10237531B2 (en) | 2016-06-22 | 2019-03-19 | Microsoft Technology Licensing, Llc | Discontinuity-aware reprojection |
US10129523B2 (en) | 2016-06-22 | 2018-11-13 | Microsoft Technology Licensing, Llc | Depth-aware reprojection |
US10558855B2 (en) * | 2016-08-17 | 2020-02-11 | Technologies Holdings Corp. | Vision system with teat detection |
HK1224513A (zh) * | 2016-10-14 | 2017-08-18 | 萬維數碼有限公司 | 通過機器學習技術改進 的自動轉換質量的方法 |
JP7143278B2 (ja) * | 2017-03-24 | 2022-09-28 | 株式会社半導体エネルギー研究所 | 半導体装置 |
US10229537B2 (en) * | 2017-08-02 | 2019-03-12 | Omnivor, Inc. | System and method for compressing and decompressing time-varying surface data of a 3-dimensional object using a video codec |
US10692247B2 (en) * | 2017-08-02 | 2020-06-23 | Omnivor, Inc. | System and method for compressing and decompressing surface data of a 3-dimensional object using an image codec |
US10534837B2 (en) | 2017-11-13 | 2020-01-14 | Samsung Electronics Co., Ltd | Apparatus and method of low complexity optimization solver for path smoothing with constraint variation |
CN112771539B (zh) * | 2018-09-25 | 2023-08-25 | 马特波特公司 | 采用使用神经网络从二维图像预测的三维数据以用于3d建模应用 |
US10769848B1 (en) * | 2019-05-24 | 2020-09-08 | Adobe, Inc. | 3D object reconstruction using photometric mesh representation |
US11501470B2 (en) | 2020-05-27 | 2022-11-15 | Microsoft Technology Licensing, Llc | Geometric encoding of data |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3772465A (en) * | 1971-06-09 | 1973-11-13 | Ass Of Motion Picture Televisi | Image modification of motion pictures |
SE365325B (ko) * | 1971-11-04 | 1974-03-18 | Rothfjell R | |
GB2037545B (en) * | 1978-05-31 | 1983-03-30 | Purdy H | Reproduction of character images particularly for typesetting apparatus |
US4773098A (en) * | 1980-05-27 | 1988-09-20 | Texas Instruments Incorporated | Method of optical character recognition |
US4783829A (en) * | 1983-02-23 | 1988-11-08 | Hitachi, Ltd. | Pattern recognition apparatus |
US4925294A (en) * | 1986-12-17 | 1990-05-15 | Geshwind David M | Method to convert two dimensional motion pictures for three-dimensional systems |
US5644654A (en) * | 1987-04-06 | 1997-07-01 | Canon Kabushiki Kaisha | Image processing apparatus capable of efficient coding of complex shape information |
JPH0766445B2 (ja) * | 1988-09-09 | 1995-07-19 | 工業技術院長 | 画像処理方法 |
US5109425A (en) * | 1988-09-30 | 1992-04-28 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Method and apparatus for predicting the direction of movement in machine vision |
JPH03218581A (ja) * | 1989-11-01 | 1991-09-26 | Hitachi Ltd | 画像セグメンテーション方法 |
US5130815A (en) | 1990-07-20 | 1992-07-14 | Mti Associates | Method and apparatus for encoding a video signal having multi-language capabilities |
JPH0568268A (ja) * | 1991-03-04 | 1993-03-19 | Sharp Corp | 立体視画像作成装置および立体視画像作成方法 |
US5537638A (en) * | 1991-10-25 | 1996-07-16 | Hitachi, Ltd. | Method and system for image mapping |
FR2683648B1 (fr) | 1991-11-12 | 1996-12-13 | Apple Computer | Procede de choix d'objets dans une sequence d'images mobiles et piste d'essai de reussite correspondante. |
US5333209A (en) * | 1992-03-24 | 1994-07-26 | At&T Bell Laboratories | Method of recognizing handwritten symbols |
US5469535A (en) * | 1992-05-04 | 1995-11-21 | Midway Manufacturing Company | Three-dimensional, texture mapping display system |
JPH0644755A (ja) * | 1992-07-24 | 1994-02-18 | Sony Corp | ビデオ信号の伝送方法及び記録装置 |
EP0619677A3 (en) | 1993-04-09 | 1995-03-08 | Matsushita Electric Ind Co Ltd | Digital video signal encryption system. |
JPH0778267A (ja) * | 1993-07-09 | 1995-03-20 | Silicon Graphics Inc | 陰影を表示する方法及びコンピュータ制御表示システム |
CA2106222C (en) | 1993-09-15 | 2000-10-31 | Russell D. N. Mackinnon | Object oriented communication network |
GB9322260D0 (en) | 1993-10-28 | 1993-12-15 | Pandora Int Ltd | Digital video processor |
US5511153A (en) * | 1994-01-18 | 1996-04-23 | Massachusetts Institute Of Technology | Method and apparatus for three-dimensional, textured models from plural video images |
US5640468A (en) * | 1994-04-28 | 1997-06-17 | Hsu; Shin-Yi | Method for identifying objects and features in an image |
US5673377A (en) * | 1994-09-02 | 1997-09-30 | Ray Dream, Inc. | Method and system for displaying a representation of a three-dimensional object with surface features that conform to the surface of the three-dimensional object |
JPH0877356A (ja) * | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
JPH08138053A (ja) * | 1994-11-08 | 1996-05-31 | Canon Inc | 被写体情報処理装置及び遠隔装置 |
US5790086A (en) * | 1995-01-04 | 1998-08-04 | Visualabs Inc. | 3-D imaging system |
KR100414629B1 (ko) * | 1995-03-29 | 2004-05-03 | 산요덴키가부시키가이샤 | 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법 |
US5798762A (en) * | 1995-05-10 | 1998-08-25 | Cagent Technologies, Inc. | Controlling a real-time rendering engine using a list-based control mechanism |
US5617334A (en) * | 1995-07-21 | 1997-04-01 | The Trustees Of Columbia University In The City Of New York | Multi-viewpoint digital video coder/decoder and method |
US5864342A (en) * | 1995-08-04 | 1999-01-26 | Microsoft Corporation | Method and system for rendering graphical objects to image chunks |
AUPN732395A0 (en) * | 1995-12-22 | 1996-01-25 | Xenotech Research Pty Ltd | Image conversion and encoding techniques |
US5793900A (en) * | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
US5806005A (en) * | 1996-05-10 | 1998-09-08 | Ricoh Company, Ltd. | Wireless image transfer from a digital still video camera to a networked computer |
GB9613039D0 (en) * | 1996-06-21 | 1996-08-28 | Philips Electronics Nv | Image data compression for interactive applications |
JP3679512B2 (ja) * | 1996-07-05 | 2005-08-03 | キヤノン株式会社 | 画像抽出装置および方法 |
US5809139A (en) * | 1996-09-13 | 1998-09-15 | Vivo Software, Inc. | Watermarking method and apparatus for compressed digital video |
US6055330A (en) * | 1996-10-09 | 2000-04-25 | The Trustees Of Columbia University In The City Of New York | Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information |
JPH10191020A (ja) * | 1996-12-20 | 1998-07-21 | Canon Inc | 被写体画像切出し方法及び装置 |
US5974175A (en) | 1997-01-22 | 1999-10-26 | Fujitsu Limited | Image processing apparatus and method for detecting a contour of an object from images of a motion picture and extracting the object therefrom |
JP3008875B2 (ja) * | 1997-02-25 | 2000-02-14 | 日本電気株式会社 | 被写体抽出装置 |
US6031564A (en) * | 1997-07-07 | 2000-02-29 | Reveo, Inc. | Method and apparatus for monoscopic to stereoscopic image conversion |
US6630931B1 (en) * | 1997-09-22 | 2003-10-07 | Intel Corporation | Generation of stereoscopic displays using image approximation |
US6029173A (en) * | 1997-11-26 | 2000-02-22 | Navigation Technologies Corporation | Method and system for representation and use of shape information in geographic databases |
US6504569B1 (en) * | 1998-04-22 | 2003-01-07 | Grass Valley (U.S.), Inc. | 2-D extended image generation from 3-D data extracted from a video sequence |
AUPQ416699A0 (en) * | 1999-11-19 | 1999-12-16 | Dynamic Digital Depth Research Pty Ltd | Depth map compression technique |
-
1998
- 1998-12-03 CN CNB988118491A patent/CN1173296C/zh not_active Expired - Fee Related
- 1998-12-03 ID IDW20001305A patent/ID27878A/id unknown
- 1998-12-03 WO PCT/AU1998/001005 patent/WO1999030280A1/en active IP Right Grant
- 1998-12-03 CA CA002305735A patent/CA2305735C/en not_active Expired - Fee Related
- 1998-12-03 EP EP10173075.2A patent/EP2252071A3/en not_active Withdrawn
- 1998-12-03 KR KR1020007005574A patent/KR100560507B1/ko not_active IP Right Cessation
- 1998-12-03 EP EP98960865A patent/EP1044432A4/en not_active Withdrawn
- 1998-12-03 JP JP2000524763A patent/JP4698831B2/ja not_active Expired - Fee Related
- 1998-12-03 MY MYPI98005481A patent/MY124160A/en unknown
-
2000
- 2000-06-05 US US09/586,869 patent/US7894633B1/en not_active Expired - Fee Related
-
2003
- 2003-08-18 US US10/642,490 patent/US7054478B2/en not_active Expired - Fee Related
- 2003-08-18 US US10/642,300 patent/US7551770B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP1044432A1 (en) | 2000-10-18 |
JP4698831B2 (ja) | 2011-06-08 |
EP2252071A2 (en) | 2010-11-17 |
MY124160A (en) | 2006-06-30 |
US7054478B2 (en) | 2006-05-30 |
CA2305735A1 (en) | 1999-06-17 |
CN1173296C (zh) | 2004-10-27 |
EP1044432A4 (en) | 2007-02-21 |
JP2001526477A (ja) | 2001-12-18 |
US20040032980A1 (en) | 2004-02-19 |
CA2305735C (en) | 2008-01-08 |
WO1999030280A1 (en) | 1999-06-17 |
KR20010032346A (ko) | 2001-04-16 |
US7894633B1 (en) | 2011-02-22 |
US20040032488A1 (en) | 2004-02-19 |
US7551770B2 (en) | 2009-06-23 |
CN1281569A (zh) | 2001-01-24 |
EP2252071A3 (en) | 2017-04-12 |
ID27878A (id) | 2001-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100560507B1 (ko) | 개선된 영상 변환 및 부호화 기술 | |
JP5317955B2 (ja) | 複数の視野の効率的な符号化 | |
US7340094B2 (en) | Image segmentation by means of temporal parallax difference induction | |
US6496598B1 (en) | Image processing method and apparatus | |
US10158846B2 (en) | Pseudo-3d forced perspective methods and devices | |
US9282313B2 (en) | Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition | |
CN105469375B (zh) | 处理高动态范围全景图的方法和装置 | |
AU2015213286B2 (en) | System and method for minimal iteration workflow for image sequence depth enhancement | |
WO2019138163A1 (en) | A method and technical equipment for encoding and decoding volumetric video | |
AU738692B2 (en) | Improved image conversion and encoding techniques | |
US20100164952A1 (en) | Stereoscopic image production method and system | |
US7212662B2 (en) | Method for the compressed transmission of image data for 3-dimensional representation of scenes and objects | |
MXPA00005355A (en) | Improved image conversion and encoding techniques | |
US20080063275A1 (en) | Image segmentation by means of temporal parallax difference induction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130114 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140211 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20150216 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20160216 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20170224 Year of fee payment: 12 |
|
LAPS | Lapse due to unpaid annual fee |