KR20050039593A - 디스플레이 시스템 및 방법 - Google Patents

디스플레이 시스템 및 방법 Download PDF

Info

Publication number
KR20050039593A
KR20050039593A KR1020040084258A KR20040084258A KR20050039593A KR 20050039593 A KR20050039593 A KR 20050039593A KR 1020040084258 A KR1020040084258 A KR 1020040084258A KR 20040084258 A KR20040084258 A KR 20040084258A KR 20050039593 A KR20050039593 A KR 20050039593A
Authority
KR
South Korea
Prior art keywords
image
subframe
pixel data
subframes
field
Prior art date
Application number
KR1020040084258A
Other languages
English (en)
Inventor
오프랑리차드이2세
콜린스데이비드씨
하워드피가이
Original Assignee
휴렛-팩커드 디벨롭먼트 컴퍼니, 엘 피
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘 피 filed Critical 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘 피
Publication of KR20050039593A publication Critical patent/KR20050039593A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/007Use of pixel shift techniques, e.g. by mechanical shift of the physical pixels or by optical shift of the perceived pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0224Details of interlacing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0235Field-sequential colour display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)

Abstract

상부 필드(120) 및 바닥 필드(121)가 있는 비월 영상 프레임(interlaced image frame)(122)을 디스플레이하기 위한 디스플레이 시스템(100)은 상부 및 바닥 필드(120, 121)에 대응하는 픽셀 데이터의 스트림을 프로세싱하고, 다수의 영상 서브프레임을 생성하도록 구성되는 영상 처리 장치(106)와, 다수의 영상 서브프레임을 보유하는 광빔을 생성하도록 구성되는 변조기(103)와, 다수의 영상 서브프레임의 각각이 다른 영상 서브프레임의 영상 서브프레임 위치로부터 오프셋된 영상 서브프레임 위치에 공간적으로 디스플레이되도록 광빔을 배치하도록 구성되는 워블링 디바이스(wobbling device)(104)를 포함한다. 영상 처리 장치(106)는 다수의 영상 서브프레임 중 적어도 하나를 생성하기 위해 상부 필드(120)에 대응하는 픽셀 데이터를 프로세싱하고, 다수의 영상 서브프레임 중 적어도 하나를 생성하기 위해 바닥 필드(121)에 대응하는 픽셀 데이터를 프로세싱한다.

Description

디스플레이 시스템 및 방법{DISPLAY SYSTEM FOR AN INTERLACED IMAGE FRAME WITH A WOBBLING DEVICE}
정지 또는 비디오 영상을 디스플레이하기 위해 디스플레이, 투사기, 또는 기타 촬영 시스템과 같은 영상을 디스플레이하기 위한 종래의 시스템 또는 장치가 빈번하게 사용되고 있다. 뷰어는 영상 크기, 콘트라스트비, 컬러 순도, 밝기, 픽셀 컬러 정확도 및 해상도와 같은 여러 기준에 기초하여 디스플레이 시스템을 평가한다. 픽셀 컬러 정확도 및 해상도는 픽셀 컬러 정확도 및 해상도가 디스플레이된 영상의 명확성 및 크기를 제한할 수 있기 때문에 여러 디스플레이 시장에서 특히 중요한 문제이다.
종래의 디스플레이 시스템은 수평 행 및 수직 열로 배열된 픽셀의 어레이를 어드레싱함으로써 디스플레이 영상을 생성한다. 픽셀은 직사각형의 형태를 갖기 때문에, 영상 내의 오브젝트의 대각선 또는 곡선 에지가 계단형이나 들쭉날쭉한 형태를 갖지 않게 나타내는 것이 어려울 수 있다. 또한, 디스플레이 시스템의 하나 이상의 픽셀이 결함이 있으면, 디스플레이되는 영상은 그 결함을 반복할 것이다. 예를 들어, 디스플레이 시스템의 픽셀이 "오프" 위치만 나타내면, 픽셀은 디스플레이된 영상에서 실선의 검은 정사각형을 생성할 수 있다.
종종, 디스플레이 시스템으로의 입력 신호는 비월 비디오 영상(interlaced video image)이다. 비월 비디오에서, 개개의 비월 영상 프레임은 두 개의 연속 필드에 의해 나타난다. 각 필드는 프레임 내의 하나 건너 하나의 수평 라인을 포함한다. 상부 필드는 프레임 내의 홀수 수평 라인을 포함하고, 바닥 필드는 프레임 내의 짝수 수평 라인을 포함한다. 그래서, 영상 프레임은 임의의 순서로 상부 및 바닥 필드를 순차적으로 디스플레이함으로써 디스플레이된다. 예컨대, 텔레비전은 전체 스크린 상에 상부 필드를 먼저 디스플레이하고, 이어서 전체 스크린 상에 바닥 필드를 디스플레이함으로써 그 스크린 상에 영상을 디스플레이할 수 있다. 비월 비디오의 사용은 입력 비월 비디오 데이터를 저장하는 큰 메모리 버퍼 용량을 갖추는 것을 필요로 하기도 한다.
다음 설명에서, 본 디스플레이 시스템을 완전히 이해시키기 위해 다수의 특정 세부사항들이 설명을 위해 설정되어 있다. 그러나, 본 디스플레이 시스템은 이들 특정 세부사항들 없이도 실시 가능하다는 것이 당업자에게 자명할 것이다. 본 명세서에서 "일 실시예(one embodiment or an embodiment)" 의 참조는 그 실시예와 함께 설명되는 특정 특징, 구조, 또는 특성이 적어도 하나의 실시예에 포함되어 있다는 것을 의미한다. 본 명세서의 여러 곳에서 구 "일 실시예에서"가 모두 동일한 실시예를 가리킬 필요는 없다.
상세한 설명 및 첨부 청구의 범위에서 사용되는 용어 "디스플레이 시스템"은 다르게 특정적으로 지정되지 않으면, 투사기, 투사 시스템, 영상 디스플레이 시스템, 텔레비전 시스템, 컴퓨터 시스템 또는 영상을 디스플레이하도록 구성되는 임의의 기타 시스템을 일컫는다. 영상은 정지 영상, 영상 시리즈, 또는 비디오일 수 있다. 상세한 설명 및 첨부 청구의 범위에서 사용되는 용어 "영상"은 다르게 특정적으로 지정되지 않으면, 정지 영상, 영상 시리즈, 비디오 또는 디스플레이 시스템이 디스플레이하는 그 밖의 임의의 것을 일컫는다.
첨부 도면은 본 발명의 각종 실시예들을 도시하며, 본 명세서의 일부이다. 도시한 실시예들은 본 발명의 예일 뿐이며, 본 발명의 범위를 제한하지 않는다.
도면 전체에서, 동일한 참조 번호는 유사하지만, 반드시 동일하지는 않은 요소를 나타낸다.
도 1은 일 실시예에 따른 예시적인 디스플레이 시스템(100)을 도시한다. 도 1의 구성요소는 예시일 뿐이고, 특정 애플리케이션에 가장 잘 작용할 수 있게 수정 또는 변경될 수 있다. 도 1에 도시하는 바와 같이, 영상 데이터는 영상 처리 장치(106) 내로 입력된다. 영상 데이터는 디스플레이 시스템(100)이 디스플레이할 영상을 정의한다. 일 실시예에서, 영상 데이터는 비월 비디오 데이터이다. 다음 예시적인 실시예는 비월 비디오 데이터인 영상 데이터로 설명되지만, 당업자라면, 영상 데이터가 순차 비디오 데이터(progressive video data) 또는 어떤 다른 유형의 영상 데이터일 수 있다는 것을 이해할 수 있을 것이다. 순차 비디오 데이터는 데이터의 교차 라인의 필드와 반대로 데이터의 프레임을 포함하는 비디오 데이터로서 정의된다. 영상 처리 장치(106)에 의해 하나의 영상이 프로세싱되고 있는 것으로 도시되고 설명되어 있지만, 당업자라면, 복수의 또는 시리즈의 영상이 영상 처리 장치(106)에 의해 프로세싱될 수 있다는 것을 이해할 수 있을 것이다. 영상 처리 장치(106)는 광원(101)의 광도(illumination)를 제어하고, 공간적 광 변조기(SLM)(103)를 제어하는 것을 포함하는 다양한 기능을 수행한다. 영상 처리 장치(106)는 아래에 보다 상세히 설명된다.
도 1에 도시한 바와 같이, 광원(101)은 컬러 디바이스(102)로 광빔을 제공한다. 광원(101)은 고압 머큐리 램프(mercury lamp)일 수 있으나, 이에 국한되지 않는다. 컬러 디바이스(102)는 선택적이고, 디스플레이 시스템(100)이 컬러 영상을 디스플레이하게 한다. 컬러 디바이스(102)는 예컨대 순차 컬러 디바이스 또는 스크롤형 컬러 디바이스(scrolling color device)일 수 있다.
컬러 디바이스(102)가 전달하는 광은 렌즈를 통해 또는 어떤 다른 장치(도시하지 않음)를 통해 공간적 광 변조기(SLM)(103)에 포커싱된다. SLM은 입사광을 전기 또는 광 입력에 대응하는 공간 패턴으로 변조하는 장치이다. 본 명세서에서 공간 광 변조기를 가리키기 위해 용어 "SLM" 및 "변조기"가 호환 가능하게 사용된다. 입사광은 그 위상, 세기, 편광(polarization) 또는 방향에서 변조될 수 있다. 그래서, 도 1의 SLM(103)은 영상 처리 장치로부터의 입력에 기초하여 컬러 디바이스(102)가 출력한 광을 변조하여 디스플레이 광학 장치(105)에 의해 고르게 디스플레이되는 광빔을 보유하는 영상을 화면(도시되지 않음) 상에 형성한다. 디스플레이 광학 장치(105)는 영상을 디스플레이하도록 구성되는 임의의 장치를 포함할 수 있다. 예를 들어, 디스플레이 장치(105)는 영상을 화면에 투사하고 포커싱하도록 구성되는 렌즈 등일 수 있다. 화면은 스크린, 텔레비전, 벽, LCD(liquid crystal disply), 또는 컴퓨터 모니터 등일 수 있다.
SLM(103)은 LCOS(liquid crystal on silicon) 어레이 또는 마이크로미러 어레이 등일 수 있다. LCOS 및 마이크로미러 어레이는 기술 분야에 알려져 있으므로 본 명세서에서 상세히 설명되지 않는다. LCOS 어레이는 PhilipsTM LCOS 변조기이지만, 예시일 뿐 이에 국한되지 않는다. 마이크로미러 어레이는 Texas Instruments IncTM으로부터 구할 수 있는 DLP(Digital Light Processing) 칩이지만, 예시일 뿐 이에 국한되지 않는다.
도 1을 참조하면, 예시적인 실시예에 따라, 디스플레이 광학 장치(105)가 영상을 디스플레이하기 전에, 변조된 광이 "워블링" 장치(104)를 통과할 수 있다. 아래에 상세히 설명하는 바와 같이, 워블링 디바이스는 영상 해상도를 높이고 픽셀 비정밀함을 은닉하도록 구성되는 장치이다. 워블링 디바이스(104)는 검류계(galvanometer) 미러이지만, 예시일 뿐 이에 국한되지 않는다. 다른 실시예에서 워블링 디바이스(104)는 SLM(103) 또는 디스플레이 시스템(100)의 임의의 다른 구성요소로 구현될 수 있다.
도 2는 두 개의 필드와 디스플레이 시스템(100;도 1)에 의해 디스플레이되는 그 대응 비월 영상 프레임간의 관계를 도시한다. 도 2는 두 개의 예시적인 필드 ― 상부 필드(120) 및 바닥 필드(121) ― 를 도시한다. 도 2에 도시하는 바와 같이, 상부 및 바닥 필드(120, 121)는 모두 6 × 2 어레이 또는 행렬로 배열되는 12개의 픽셀을 정의하는 데이터를 포함한다. 그래서, 상부 및 바닥 필드(120, 121)는 픽셀 데이터의 6개의 수직 열 및 픽셀 데이터의 2개의 수평 행 또는 라인을 포함한다. 예시를 위해, 도 2의 각 필드에는 픽셀 데이터의 6개의 열 및 2개의 행이 있다. 픽셀 데이터의 열 및 행의 개수는 특정 애플리케이션에서 가장 잘 작용하게 변경될 것이라는 것을 이해할 수 있을 것이다.
도 2에 도시하는 바와 같이, 상부 필드(120)는 픽셀 데이터의 2개 라인을 포함한다. 상부 필드(120)의 제 1 라인은 픽셀(A1, B1, C1, D1, E1, F1)에 대한 픽셀 데이터를 포함한다. 상부 필드(120)의 제 2 라인은 픽셀(G1, H1, I1, J1, K1, L1)에 대한 픽셀 데이터를 포함한다. 이와 마찬가지로, 또한, 바닥 필드(121)는 픽셀 데이터의 2개 라인을 포함한다. 바닥 필드(121)의 제 1 라인은 픽셀(A2, B2, C2, D2, E2, F2)에 대한 픽셀 데이터를 포함한다. 바닥 필드(121)의 제 2 라인은 픽셀(G2, H2, I2, J2, K2, L2)에 대한 픽셀 데이터를 포함한다.
도 2는 상부 및 바닥 필드(120, 121)와 디스플레이 시스템(100;도 1)이 디스플레이하는 대응 비월 영상 프레임(122)간의 관계를 도시한다. 도 2는 비월 영상 프레임(122)이 픽셀 데이터의 4개 라인(123 내지 126)을 포함하는 것을 도시한다. 픽셀 데이터의 각 라인은 상부 필드(120) 또는 바닥 필드(121)의 라인 중 하나에 대응한다. 일 실시예에서, 비월 영상 프레임(122)의 제 1 라인(123)은 상부 필드(120)의 제 1 라인이고, 비월 영상 프레임(122)의 제 2 라인(124)은 바닥 필드(121)의 제 1 라인이고, 비월 영상 프레임(122)의 제 3 라인(125)은 상부 필드(120)의 제 2 라인이고, 비월 영상 프레임(122)의 제 4 라인은 바닥 필드(121)의 제 2 라인이다. 일반적으로, 비월 영상 프레임(122)의 홀수 라인은 상부 필드(120)의 라인에 대응하고, 비월 영상 프레임(122)의 짝수 라인은 바닥 필드(121)의 라인에 대응한다. 그러나, 비월 영상 프레임(122)의 홀수 라인이 바닥 필드(121)의 라인에 대응할 수 있고, 비월 영상 프레임(122)의 짝수 라인이 상부 필드(120)의 라인에 대응할 수 있다는 것을 당업자라면 이해할 수 있을 것이다.
도 3은 디스플레이 시스템(100;도 1) 내로 입력될 수 있는 예시적인 비월 비디오 데이터 시퀀스(127) 또는 스트림을 도시한다. 비월 비디오 데이터 시퀀스는 도 2의 비월 영상 프레임(122;도 2)을 정의한다. 도 3에 도시하는 바와 같이, 비월 비디오 데이터 시퀀스는 비월 영상 프레임(122;도 2) 내에서 발견되는 픽셀을 정의하는 데이터의 1차원 시퀀스를 포함한다. 일 실시예에서, 바닥 필드(121) 내의 모든 라인의 픽셀 데이터가 순차적으로 디스플레이 시스템(100;도 1) 내로 입력되기 전에, 상부 필드(120) 내의 모든 라인의 픽셀 데이터가 순차적으로 디스플레이 시스템(100;도 1) 내로 입력된다. 예를 들어, 도 3에 도시하는 바와 같이, 픽셀 데이터의 제 1 및 제 3 라인(123, 125)이 디스플레이 시스템(100;도 1) 내로 먼저 입력된다. 상부 필드(120)의 제 1 라인(123) 내의 제 1 픽셀 데이터 요소는 도 3의 픽셀(A1)에 대응된다. 이와 마찬가지로, 상부 필드(120)의 다음 라인 내의 제 1 픽셀 데이터(즉, 영상 프레임(122)의 제 3 라인(125))은 픽셀(G1)에 대응한다. 상부 필드(120)의 대응 픽셀 데이터가 디스플레이 시스템(100;도 1) 내로 입력된 후에, 픽셀 데이터의 제 2 및 제 4 라인(124, 126)이 디스플레이 시스템(100;도 1) 내로 입력된다. 바닥 필드(121)의 제 1 라인 내의 제 1 픽셀 데이터(즉, 영상 프레임(122)의 제 2 라인(124))은 도 3의 픽셀(A2)에 대응한다. 이와 마찬가지로, 바닥 필드(121)의 다음 라인 내의 제 1 픽셀 데이터 요소(즉, 영상 프레임(122)의 제 4 라인(126))은 픽셀(G2)에 대응한다. 다른 실시예에서, 바닥 필드(121)에 대응하는 픽셀 데이터의 라인은 상부 필드(120)에 대응하는 픽셀 데이터의 라인보다 먼저 디스플레이 시스템(100;도 1) 내로 입력된다.
일 실시예에 따라, 비월 비디오 데이터는 디지털 영상 데이터, 아날로그 영상 데이터 또는 아날로그 및 디지털 데이터의 조합을 포함할 수 있다. 영상 처리 장치(106)는 디지털 영상 데이터 및/또는 아날로그 영상 데이터를 수신 및 프로세싱하도록 구성될 수 있다.
도 4는 영상 처리 장치(106) 내부의 예시적인 기능이 확장된 도 1과 동일한 디스플레이 시스템(100)을 도시한다. 일 실시예에서, 도 4에 도시하는 바와 같이, 영상 처리 장치(106)는 서브프레임 생성 기능부(141) 및 버퍼(142)를 포함한다. 아래에 설명하는 바와 같이, 서브프레임 생성 기능부(141)는 비월 비디오 데이터를 프로세싱하여 다수의 영상 서브프레임을 생성한다. 아래에 설명하는 바와 같이, 디스플레이 시스템(100)이 서브프레임을 디스플레이하여 디스플레이 영상을 생성한다. 버퍼(142)는 영상 서브프레임의 형성에서 비월 비디오 데이터를 버퍼링하기 위해 사용될 수 있다. 버퍼(142)는 제각각의 영상의 하나 이상의 영상 프레임에 대한 영상 데이터를 저장하는 메모리를 포함한다. 예를 들어, 버퍼(142)는 하드 디스크 드라이브와 같은 비휘발성 메모리 또는 기타 영구 저장 장치를 포함하거나 RAM(random access memory)과 같은 휘발성 메모리를 포함할 수 있다. 그러나, 버퍼(142)는 어떤 디스플레이 시스템의 필수 구성요소는 아닐 수 있다.
영상 서브프레임 생성 기능부(141) 및 버퍼(142)를 포함하는 영상 처리 장치(106)는 하드웨어, 소프트웨어, 펌웨어 또는 이들의 조합을 포함한다. 일 실시예에서, 영상 처리 장치(106)의 하나 이상의 구성요소들은 컴퓨터, 컴퓨터 서버, 또는 로직 연산의 시퀀스를 수행할 수 있는 기타 마이크로프로세서 기반 시스템 내에 포함된다. 또한, 영상 프로세싱는 디스플레이 시스템(100) 전체에 걸쳐 분산될 수 있으며, 영상 프로세싱 자치(106)의 개개의 부분들은 별도의 시스템 구성요소로 구현된다.
일 실시예에서, 서브프레임 생성 기능부(141)는 디스플레이되는 비월 영상 프레임에 대응되는 비월 비디오 데이터를 수신 및 프로세싱하고, 영상 프레임에 대응하는 다수의 영상 서브프레임을 생성한다. 각 영상 서브프레임은 디스플레이되는 영상 프레임에 대응하는 영상 데이터의 서브세트를 나타내는 데이터 어레이 또는 행렬을 포함한다. 영상 서브프레임이 디스플레이되면, 영상 서브프레임의 데이터 어레이가 정의하는 영상이 디스플레이된다. 아래에 설명하는 바와 같이, 각 영상 서브프레임이 공간적으로 상이한 영상 서브프레임 위치에 디스플레이되며, 각 영상 서브프레임의 데이터 어레이는 상이한 픽셀 데이터를 포함한다.
일 실시예에서, 비월 영상 프레임에 대응하는 각 영상 서브프레임은 SLM(103) 내로 입력된다. SLM(103)은 서브프레임에 따라 광빔을 변조하고 서브프레임을 보유하는 광빔을 생성한다. 결국, 디스플레이 광학 장치(105)가 개개의 영상 서브프레임을 보유하는 광빔을 디스플레이하여 디스플레이 영상을 생성한다. 그러나, 서브프레임의 그룹 내의 각 영상 서브프레임에 대응하는 광이 SLM(103)에 의해 변조된 후와 각 영상 서브프레임이 디스플레이 광학 장치(105)에 의해 디스플레이되기 전에, SLM(103)과 디스플레이 광학 장치(105) 사이에서 워블링 디바이스(104)가 광 경로의 위치를 시프트한다. 즉, 워블링 디바이스는 이전에 디스플레이된 영상 프레임과 약간 다른 공간적 위치에 각 영상 서브프레임이 디스플레이 광학 장치(105)에 의해 디스플레이되도록 픽셀을 시프트한다. 워블링 디바이스(104)는 아래에 설명하는 바와 같이, 영상 서브프레임들이 수직 거리 및/또는 수평 거리만큼 서로 오프셋되도록 픽셀을 시프트할 수 있다.
예시적인 실시예에 따라, 영상에 대응하는 서브프레임의 그룹 내의 각 영상 서브프레임은 영상 서브프레임간의 빠른 연속을 육안으로 검출할 수 없는 고속으로 디스플레이 광학 장치(105)에 의해 디스플레이된다. 이 대신에, 영상 서브프레임의 빠른 연속은 단일의 디스플레이 영상으로서 나타난다. 이제, 상세히 설명하는 바와 같이, 영상 서브프레임을 공간적으로 다른 위치에 순차적으로 디스플레이함으로써, 최종 디스플레이되는 영상의 명목 해상도(apparent resolution)가 향상된다.
도 5 내지 8은 예시적인 워블링 디바이스에 의한 영상 서브프레임의 예시적인 공간적 배치를 도시한다. 도 5(a) 내지 5(c)는 하나의 특정 영상을 위해 다수의 영상 서브프레임들이 생성되는 예시적인 실시예를 도시한다. 도 5(a) 내지 5(c)에 도시하는 바와 같이, 예시적인 영상 처리 장치(106)는 특정 영상 프레임에 대해 두 개의 영상 서브프레임을 생성한다. 보다 구체적으로, 영상 처리 장치(106)는 영상 프레임에 대해 제 1 서브프레임(160) 및 제 2 서브프레임(161)을 생성한다. 이 예와 그 다음 예에서, 영상 서브프레임은 영상 처리 장치(106)에 의해 생성되지만, 영상 서브프레임은 서브프레임 생성 기능부(142) 또는 디스플레이 시스템(100)의 다른 구성요소에 의해 생성될 수 있다는 것을 이해할 수 있을 것이다. 도 5(a) 내지 5(c)의 예에서, 예시적인 영상 처리 장치(106)가 두 개의 영상 서브프레임을 생성하지만, 두 개의 영상 서브프레임은 영상 처리 장치(106)에 의해 생성될 수 있는 예시적인 개수의 영상 서브프레임이라는 것과, 임의 개수의 영상 서브프레임이 예시적인 실시예에 따라 생성될 수 있다는 것을 알 수 있을 것이다.
일 실시예에서, 도 5(b)에 도시하는 바와 같이, 제 1 영상 서브프레임(160)은 제 1 영상 서브프레임 위치(185)에 디스플레이된다. 제 2 서브프레임(161)은 수직 거리(163) 및 수평 거리(164)만큼 제 1 서브프레임 위치(185)로부터 오프셋된 제 2 영상 서브프레임 위치(186)에 디스플레이된다. 이러한 경우에, 제 2 서브프레임(161)은 사전결정된 거리만큼 제 1 서브프레임(160)으로부터 공간적으로 오프셋된다. 일 예시적인 실시예에서, 도 5(c)에 도시하는 바와 같이, 수직 거리(163) 및 수평 거리(164)는 각각 대략 하나의 픽셀의 절반이다. 그러나, 제 1 영상 서브프레임 위치(185)와 제 2 영상 서브프레임 위치(186)간의 공간적 오프셋 거리는 특정 애플리케이션을 가장 잘 작용하게 변경될 수 있다. 다른 실시예에서, 제 1 서브프레임(160) 및 제 2 서브프레임(161)은 다른 실시예에서, 수직 거리 또는 수평 거리에서만 오프셋될 수 있다. 일 실시예에서, 워블링 디바이스(104;도 4)는 SLM(103;도 4)과 디스플레이 광학 장치(105;도 4) 사이에서 광빔을 오프셋하도록 구성되어서 제 1 및 제 2 서브프레임(160, 161;도 5)은 서로 공간적으로 오프셋되게 된다.
도 5(c)에 도시하는 바와 같이, 디스플레이 시스템(100;도 4)은 제 1 영상 서브프레임 위치(185)에 제 1 영상 서브프레임(160)을 디스플레이하는 것과, 제 1 영상 서브프레임 위치(185)로부터 공간적으로 오프셋되어 있는 제 2 영상 서브프레임 위치(186)에 제 2 서브프레임(161)을 디스플레이하는 것을 교대로 한다. 보다 구체적으로, 워블링 디바이스(104;도 4)는 수직 거리(163)만큼 및 수평 거리(164)만큼 제 2 서브프레임(161)의 디스플레이를 제 1 서브프레임(160)의 디스플레이에 대해 시프트한다. 이러한 경우에, 제 1 서브프레임(160)의 픽셀은 제 2 서브프레임(161)의 픽셀과 중첩한다. 일 실시예에서, 디스플레이 시스템(100;도 4)은 제 1 영상 서브프레임 위치(185)에 제 1 서브프레임(160)을 디스플레이하고, 제 2 영상 서브프레임 위치(186)에 제 2 서브프레임(161)을 디스플레이하는 하나의 싸이클을 완성하여 명목 해상도가 향상된 디스플레이 영상이 생기게 한다. 그래서, 제 2 서브프레임(161)은 제 1 서브프레임(160)에 대해 공간적으로 그리고 시간적으로 디스플레이된다.
도 6(a) 및 6(b)는 제 1 영상 서브프레임 위치(185)에 제 1 서브프레임(160)으로부터의 픽셀(170)을 디스플레이하고, 제 2 영상 서브프레임 위치(186)에 제 2 서브프레임(161)으로부터의 픽셀(171)을 디스플레이하는 하나의 싸이클을 완성하는 예시적인 실시예를 도시한다. 도 6(a)는 제 1 영상 서브프레임 위치(185)에서의 제 1 서브프레임(160)으로부터의 픽셀(170) 디스플레이를 도시한다. 도 6(b)는 제 2 영상 서브프레임 위치(186)에서의 제 2 서브프레임(161)으로부터의 픽셀(171) 디스플레이를 도시한다. 도 6(b)에서, 제 1 영상 서브프레임 위치(185)는 점선에 의해 표시된다.
그래서, 제 1 및 제 2 서브 프레임(160, 161)을 생성하고, 도 5(a) 내지 5(c) 및 도 6(a) 및 6(b)에 도시하는 바와 같이, 공간적으로 오프셋된 방식으로 두 개의 서브프레임을 디스플레이함으로써, 영상 서브프레임을 이용하지 않고 최종 디스플레이 영상을 생성하기 위해 사용되는 픽셀 데이터 양에 비해 두 배의 양의 픽셀 데이터가 최종 디스플레이 영상을 생성하기 위해 사용된다. 이에 따라, 2 위치 프로세싱을 이용하면, 최종 디스플레이 영상의 해상도는 대략 1.4 또는 루트 2의 계수만큼 향상된다.
또 다른 실시예에서, 도 7(a) 내지 7(d)에 도시하는 바와 같이, 영상 처리 장치(106)는 하나의 영상 프레임에 대해 네 개의 영상 서브프레임을 정의한다. 보다 구체적으로, 영상 처리 장치(106)는 하나의 영상 프레임에 대해 제 1 서브프레임(160), 제 2 서브프레임(161), 제 3 서브프레임(180) 및 제 4 서브프레임(181)을 정의한다.
일 실시예에서, 도 7(b) 내지 7(d)에 도시하는 바와 같이, 제 1 영상 서브프레임(160)은 제 1 영상 서브프레임 위치(185)에 디스플레이된다. 제 2 영상 서브프레임(161)은 제 1 영상 프레임 위치(185)로부터 수직 거리(163) 및 수평 거리(164) 만큼 오프셋된 제 2 영상 서브프레임 위치(186)에 디스플레이된다. 제 3 서브프레임(180)은 제 1 서브프레임 위치(185)로부터 수평 거리(182)만큼 오프셋된 제 3 영상 서브프레임 위치(187)에 디스플레이된다. 수평 거리(182)는 예컨대 수평거리(164)와 동일할 수 있다. 제 4 서브프레임(181)은 제 1 서브프레임(185)으로부터 수직 거리(183)만큼 오프셋된 제 4 영상 서브프레임 위치(188)에 디스플레이된다. 수직 거리(183)는 예컨대 수직 거리(163)와 동일할 수 있다. 이러한 경우에, 제 2 서브프레임(161), 제 3 서브프레임(180) 및 제 4 서브프레임(181)은 각각 서로로부터 공간적으로 오프셋되고, 제 1 서브프레임(160)으로부터 사전결정된 거리만큼 공간적으로 오프셋된다. 일 예시적인 실시예에서, 수직 거리(163), 수평 거리(164), 수평 거리(182) 및 수직 거리(183)는 각각 대략 하나의 픽셀의 절반이다. 그러나, 제 4 서브프레임들간에 공간적으로 오프셋되는 거리는 특정 애플리케이션이 가장 잘 작용할 수 있게 변경될 수 있다. 일 실시예에서, 워블링 디바이스(104;도 4)는 SLM(103;도 4)과 디스플레이 광학 장치(105;도 4)간의 광빔을 오프셋하도록 구성되어서, 제 1, 제 2, 제 3 및 제 4 서브프레임(106, 161, 180, 181;도 5)은 서로로부터 공간적으로 오프셋되게 된다.
일 실시예에서, 디스플레이 시스템(100;도 4)은 제 1 영상 서브프레임 위치(185)에 제 1 서브프레임(160)을 디스플레이하고, 제 2 영상 서브프레임 위치(186)에 제 2 서브프레임(161)을 디스플레이하고, 제 3 영상 서브프레임 위치(187)에 제 3 서브프레임(180)을 디스플레이하고, 제 4 영상 서브프레임 위치(188)에 제 4 서브프레임(181)을 디스플레이하는 하나의 싸이클을 완성하여 향상된 명목 해상도를 갖는 디스플레이 영상이 생기게 한다. 그래서, 제 2 서브프레임(161), 제 3 서브프레임(180) 및 제 4 서브프레임(181)은 서로에 대해 그리고 제 1 서브프레임으로부터 공간적으로 및 시간적으로 디스플레이된다.
도 8(a) 내지 8(d)는 제 1 서브프레임(160)으로부터의 픽셀(170)을 제 1 영상 서브프레임 위치(185)에 디스플레이하고, 제 2 서브프레임(161)으로부터의 픽셀(171)을 제 2 영상 서브프레임 위치(186)에 디스플레이하고, 제 3 서브프레임(180)으로부터의 픽셀(190)을 제 3 영상 서브프레임 위치(187)에 디스플레이하고, 제 4 서브프레임(181)으로부터의 픽셀(191)을 제 4 영상 서브프레임 위치(188)에 디스플레이하는 하나의 싸이클을 완성하는 예시적인 실시예를 도시한다. 도 8(a)는 제 1 영상 서브프레임 위치(185)에서의 제 1 서브프레임(160)으로부터의 픽셀(170) 디스플레이를 도시한다. 도 8(b)는 제 2 영상 서브프레임 위치(186)에서의 제 2 서브프레임(161)으로부터의 픽셀(171) 디스플레이를 도시한다(제 1 영상 서브프레임 위치는 점선에 의해 표시되어 있음). 도 8(c)는 제 3 영상 서브프레임 위치(187)에서의 제 3 서브프레임(180)으로부터의 픽셀(190) 디스플레이를 도시한다(제 1 위치 및 제 2 위치는 점선에 의해 표시되어 있음). 마지막으로, 도 8(d)는 제 4 영상 서브프레임 위치(188)에서의 제 4 서브프레임(181)으로부터의 픽셀(191) 디스플레이를 도시한다(제 1 위치, 제 2 위치 및 제 3 위치는 점선에 의해 표시되어 있음).
그래서, 제 4 영상 서브프레임을 생성하고, 도 7(a) 내지 7(d) 및 도 8(a) 내지 8(d)에 도시하는 바와 같이, 공간적으로 오프셋된 방식으로 제 4 영상 서브프레임을 디스플레이함으로써, 영상 서브프레임을 사용하지 않고 최종 디스플레이 영상을 생성하기 위해 사용되는 픽셀 데이터의 양에 비해 네 배의 양의 픽셀 데이터가 최종 디스플레이 영상을 생성하기 위해 사용된다. 이에 따라, 4 위치 프로세싱을 이용하면, 최종 디스플레이 영상의 해상도는 2 또는 루트 4의 계수만큼 향상된다.
그래서, 도 5 내지 8의 예에 의해 도시하는 바와 같이, 영상 프레임에 대해다수의 영상 서브프레임을 생성하고, 서로에 대해 영상 서브프레임을 공간적으로 그리고 시간적으로 디스플레이함으로써, 디스플레이 시스템(100;도 4)은 SLM(103;도 4)이 디스플레이하도록 구성되는 것보다 높은 해상도로 디스플레이 영상을 생성할 수 있다. 또한, 영상 서브프레임의 픽셀을 오버랩함으로써, 디스플레이 시스템(100;도 4)은 예컨대 결함이 있는 픽셀에 의해 야기되는 바람직하지 않는 시각적 효과를 감소시킬 수 있다. 예를 들어, 네 개의 서브프레임이 영상 처리 장치(106;도 4)에 의해 생성되고, 서로에 대해 오프셋된 위치에 디스플레이되면, 네 개의 서브프레임은, 디스플레이되는 영상의 서로 다른 부분이 각각의 서브프레임 내의 결함이 있는 픽셀과 연관되어 있기 때문에 결점이 있는 픽셀의 바람직하지 않는 효과를 효과적으로 확산시킨다. 결함이 있는 픽셀은 "온" 또는 "오프" 위치만 나타내는 픽셀, 의도한 것보다 작은 세기 또는 큰 세기를 생성하는 픽셀 및/또는 일관적이지 않는 또는 랜덤 연산의 픽셀과 같은 이상한 또는 작용하지 않는 디스플레이 픽셀을 포함하도록 정의된다.
디스플레이 시스템(100;도 1)으로의 입력인 비월 비디오 데이터를 이용하여 영상 서브프레임이 생성되는 예시적인 프로세스가 이제 설명된다. 일 실시예에서, 비월 비디오 데이터를 먼저 디인터레이싱(de-interlacing)(즉, 비월 비디오 데이터를 순차 비디오 데이터로 변환)하지 않고 영상 처리 장치(106;도 4)가 비월 비디오 데이터를 직접 프로세싱하고, 상부 필드에 대응하는 하나 이상의 영상 서브프레임 및 바닥 필드에 대응하는 하나 이상의 영상 서브프레임을 생성한다. 비월 비디오 데이터를 직접 프로세싱하는 것은 영상 서브프레임을 생성하기 전에 먼저 비월 비디오 데이터를 순차 비디오 데이터로 변환하는 것과 관련되어 있는 영상 프로세싱의 복잡도 및 버퍼 필요 크기(142;도 4)를 직접적으로 크게 감소시킨다.
일 실시예에서, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)에서 픽셀 데이터의 상부 필드(120)에 대응하는 제 1 영상 서브프레임(160) 및 비월 비디오 데이터 시퀀스(127)에서 픽셀 데이터의 바닥 필드(121)에 대응하는 제 2 영상 서브프레임(161)을 생성한다. 이어서, 도 5와 연결하여 설명한 바와 같이, 제 1 및 제 2 영상 서브프레임(160, 161)은 각각 제 1 및 제 2 영상 서브프레임 위치(185, 186)에 디스플레이될 수 있다. 상부 및 바닥 필드(120, 121)에 대응하는 제 1 및 제 2 서브프레임(160, 161)은 다수의 서로 다른 방법을 이용하여 생성될 수 있다. 다수의 예시적이지만, 배타적이지 않은 방법이 이제 예시를 목적으로 설명된다. 제 1 및 제 2 영상 서브프레임(160, 161)을 생성하는 정확한 방법은 특정 애플리케이션이 가장 잘 작용하게 변경될 것이다.
도 9는 예시적인 비월 비디오 데이터 시퀀스(127)의 상부 및 바닥 필드(120, 121)에 대응하는 제 1 및 제 2 영상 서브프레임(160, 161)을 생성하는 예시적인 방법을 도시한다. 제 1 및 제 2 영상 서브프레임(160, 161)은 예로서 도 5(a) 내지 5(c)와 연결하여 설명한 바와 같이, 제 1 및 제 2 영상 서브프레임 위치(185, 186)에 디스플레이될 수 있다. 도 3의 비월 비디오 데이터 시퀀스(127)는 예로서 사용될 것이다. 그래서, 상부 및 바닥 필드(120, 121) 내의 각 라인은 픽셀 데이터의 6개 요소를 포함한다. 그러나, 비월 비디오 데이터 시퀀스(127)는 상부 및 바닥 필드(120, 121)에서 보다 많거나 보다 적은 픽셀 데이터를 포함할 수 있다는 것을 당업자라면 인식할 수 있을 것이다. 예를 들어, 상부 및 바닥 필드(120, 121)는 각각 픽셀 데이터의 540개 라인 및 픽셀 데이터의 1920개 열을 포함할 수 있다.
도 9의 방법은 비월 비디오 데이터 시퀀스(127)에 의해 정의되는 영상 프레임이 포함하는 것의 절반 개수의 열 및 라인의 픽셀을 포함하는 변조기로 입력될 제 1 및 제 2 영상 서브프레임(160, 161)을 생성하는 것이 바람직한 경우에 사용될 수 있다. 예를 들어, 영상 프레임이 6 × 4(즉, 픽셀 데이터의 6개 열과 픽셀 데이터의 4개 라인)이면, 변조기는 3 × 2 픽셀이다. 일 실시예에서, 변조기가 영상 프레임이 포함하는 것보다 절반 개수의 픽셀을 포함하면, 비월 비디오 데이터 시퀀스(127)의 각 라인 내의 픽셀 데이터 요소의 개수는 절반으로 감소되어서, 최종 디스플레이 영상은 두 개의 영상 서브프레임이 번갈아 영상 서브프레임 위치에 디스플레이된 후에 원하는 해상도가 된다. 본 명세서 및 첨부 청구의 범위에서 픽셀을 정의하는 픽셀 데이터를 지칭하기 위해 "픽셀 데이터 요소"가 사용된다. 그래서, 본 명세서 및 첨부 청구의 범위에 사용되는 바와 같이, "상부 필드 내의" 픽셀 데이터 요소는 비월 영상 프레임의 상부 필드에 위치하는 픽셀을 정의하는 픽셀 데이터 요소를 지칭한다. 이와 마찬가지로, "바닥 필드 내의" 픽셀 데이터 요소는 비월 영상 프레임의 바닥 필드에 위치하는 픽셀을 정의하는 픽셀 데이터 요소를 지칭한다.
그래서, 도 9에 도시하는 바와 같이, 제 1 및 제 2 영상 서브프레임(160, 161)은 각각 대응하는 영상 프레임이 포함하는 개수의 절반 개수의 열 및 절반 개수의 라인의 픽셀 데이터를 포함한다. 예를 들어, 도 9에 도시하는 제 1 및 제 2 영상 서브프레임(160, 161)은 각각 3개 열 및 2개 라인의 픽셀 데이터를 포함한다. 각각의 전체 비월 입력 필드가 디스플레이 시스템(100;도 4) 내로 들어오기 때문에, 영상 서브프레임(160, 161)의 각각에 대한 픽셀 데이터의 라인의 생성은 순차적으로 자동적으로 수행된다. 도 9는 픽셀 데이터의 각 라인 내의 픽셀 데이터 요소의 개수를 절반으로 감소시키는 예시적인 방법을 도시한다. 일 실시예에서, 도 9에 도시하는 바와 같이, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 상부 필드 내에서 제 1 픽셀 데이터 요소로 시작해서 하나 건너 하나의 픽셀 데이터를 이용 또는 프로세싱하여 제 1 영상 서브프레임(160)을 생성할 수 있다. 그래서, 제 1 영상 서브프레임(160)의 제 1 라인은 픽셀 데이터 요소(A1, C1, E1)를 포함한다. 제 1 영상 서브프레임(160)의 제 2 라인은 픽셀 데이터 요소(G1, I1, K1)를 포함한다.
일 실시예에서, 도 9에 도시하는 바와 같이, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 바닥 필드(121) 내에서 제 2 픽셀 데이터 요소로 시작해서 하나 건너 하나의 픽셀 데이터를 이용 또는 프로세싱하여 제 2 영상 서브프레임(161)을 생성할 수 있다. 그래서, 제 2 영상 서브프레임(161)의 제 1 라인은 픽셀 데이터 요소(B2, D2, F2)를 포함한다. 제 2 라인의 제 2 영상 서브프레임(161)은 픽셀 데이터 요소(H2, J2, L2)를 포함한다.
도 9는 상부 필드(120) 내의 제 1 픽셀 요소로 시작해서 하나 건너 하나의 픽셀 요소가 프로세싱되어 제 1 영상 서브프레임(160)을 생성하는 것과, 바닥 필드(121) 내의 제 2 픽셀 요소로 시작해서 하나 건너 하나의 픽셀 요소가 프로세싱되어 제 2 영상 서브프레임(161)을 생성하는 것을 도시한다. 그러나, 다른 실시예에서, 도 9에 도시한 방법은 상부 필드(120) 내의 제 2 픽셀 요소로 시작해서 하나 건너 하나의 픽셀 요소를 프로세싱하여 제 1 영상 서브프레임(160)을 생성하고, 바닥 필드(121) 내의 제 1 픽셀 요소로 시작해서 하나 건너 하나의 픽셀 요소를 이용 또는 프로세싱하여 제 2 영상 서브프레임(161)을 생성한다.
도 9의 예시적인 방법은 버퍼(141;도 4)의 사용을 필요로 하지 않는다. 또한, 필요로 하는 영상 프로세싱는 최소이다. 그래서, 도 9의 예시적인 방법은 예시적인 디스플레이 시스템의 비용 및 크기를 감소시킬 수 있다.
도 10은 비월 비디오 데이터 시퀀스(127)에 의해 정의되는 영상 프레임이 포함하는 것보다 절반 개수의 픽셀 열 및 라인을 포함하는 변조기로 입력될 제 1 및 제 2 영상 서브프레임(106, 161)을 생성하기 위해 사용될 수 있는 또 다른 예시적인 방법을 도시한다.
도 10의 제 1 및 제 2 영상 서브프레임(160, 161)은 각각 대응하는 영상 프레임이 포함하는 것의 절반 개수의 열 및 절반 개수의 라인의 픽셀 데이터를 포함한다. 예를 들어, 도 10에 도시하는 제 1 및 제 2 영상 서브프레임(160, 161)은 각각 세 개의 열 및 두 개의 라인의 픽셀 데이터를 포함한다. 각각의 전체 비월 입력 필드가 순차적으로 디스플레이 시스템(100;도 4) 내로 들어오기 때문에, 영상 서브프레임(160, 161)의 각각에 대한 픽셀의 라인의 생성은 자동적으로 수행된다. 도 10은 도 9와 연결하여 설명한 바와 같이, 하나 건너 하나의 픽셀 데이터 요소를 스킵하지 않고, 픽셀 데이터의 각 라인 내의 픽셀 데이터 요소의 개수를 감소시키는 예시적인 방법을 도시한다.
일 실시예에서, 도 10에 도시하는 바와 같이, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 상부 필드(120) 내에서 제 1 픽셀 데이터 요소로 시작해서 이웃하는 픽셀 데이터 요소의 각 쌍을 평균하여 제 1 영상 서브프레임(160)을 생성할 수 있다. 예를 들어, 영상 처리 장치(106;도 4)는 먼저, 픽셀 데이터 요소(A1, B1)의 평균을 취할 수 있다. 결과적으로 평균된 값은 (A1′)이다. 하나의 예시적이나 배타적이지 않은 (A1′)을 계산하는 방법은 (A1) 및 (B1)의 값을 더하고, 그 후, 결과합을 2로 나누는 것이다. 즉, (A1′)=(A1+B1)/2이다. 도 10에 도시하는 바와 같이, 영상 처리 장치(106;도 4)는 제 1 영상 서브프레임(160)의 제 1 라인의 제 1 위치에 (A1′)을 배치한다. 이와 마찬가지로, 영상 처리 장치(106;도 4)는 (C1′, E1′, G1′, I1′ 및 K1′)을 생성하기 위해 상부 필드(120)의 각 라인내에서 남아 있는 이웃 픽셀 데이터 요소 쌍의 평균을 계산한다. 그 후, 이들 평균화된 값은 제 1 영상 서브프레임(160)의 남아있는 위치에 배치된다. 도 10의 예에서, (C1′)는 픽셀 데이터 요소 (C1) 및 (D1)의 평균이다. (E1′)은 픽셀 데이터 요소 (E1) 및 (F1)의 평균이다. (G1′)은 픽셀 데이터 요소 (G1) 및 (H1)의 평균이다. (I1′)은 픽셀 데이터 요소 (I1) 및 (J1)의 평균이다. (K1′)은 픽셀 데이터 요소 (K1) 및 (L1)의 평균이다.
그래서, 제 1 영상 서브프레임(160)의 제 1 라인은 픽셀 데이터 요소 (A1′), (C1′) 및 (E1′)을 포함한다. 제 1 영상 서브프레임(160)의 제 2 라인은 픽셀 데이터 요소 (G1′), (I1′) 및 (K1′)을 포함한다.
일 실시예에서, 도 10에 도시하는 바와 같이, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 바닥 필드(121) 내에서 제 2 픽셀 데이터 요소로 시작해서 이웃하는 픽셀 데이터 요소의 각 쌍을 평균하여 제 2 영상 서브프레임(161)을 생성할 수 있다. 예를 들어, 영상 처리 장치(106;도 4)는 픽셀 데이터 요소 (B2) 및 (C2)의 평균을 먼저 취할 수 있다. 그 결과 평균화된 값은 (B2′)이다. (B2)를 계산하는 하나의 예시적인 방법은 (B2) 및 (C2)의 값을 더하고 그 결과합을 2로 나누는 것이다. 즉, (B2′)=(B2+C2)/2이다. 영상 처리 장치(106;도4)는 도 10에 도시하는 바와 같이, 제 2 영상 서브프레임(161)의 제 1 라인의 제 1 위치에 (B2′)를 배치한다. 이와 마찬가지로, 영상 처리 장치(106;도 4)는 바닥 필드(121)의 각 라인 내의 남아 있는 이웃 픽셀 데이터 요소 쌍의 평균을 계산한다. 일 실시예에서, 바닥 필드(121)의 라인 내에 짝수 개수의 픽셀 데이터가 있으면, 그 라인 내의 마지막 픽셀 데이터 요소가 대응하는 영상 서브프레임 내의 마지막 픽셀 데이터 요소로서 사용된다. 이는 마지막 픽셀 데이터 요소와 함께 평균화될 수 있는 그 픽셀 데이터 요소 옆에 이웃하는 픽셀 요소가 없기 때문이다. 그래서, 도 10의 예에서, 영상 처리 장치(106)는 D2′, H2′ 및 J2′를 생성한다. 픽셀 데이터 요소 (F2) 및 (L2)는 이들이 바닥 필드(121) 내의 각 라인내에서 마지막 픽셀 데이터 요소이기 때문에 임의의 다른 픽셀 데이터 요소와 함께 평균화되지 않는다. 도 10의 예에서, (D2′)는 픽셀 데이터 요소 (D2) 및 (E2)의 평균이다. (H2′)는 픽셀 데이터 요소 (H2) 및 (I2)의 평균이다. (J2′)는 픽셀 데이터 요소 (J2) 및 (K2)의 평균이다.
그래서, 제 2 영상 서브프레임(161)의 제 1 라인은 픽셀 데이터 요소 (B2′), (D2′) 및 (F2)를 포함한다. 제 2 영상 서브프레임(161)의 제 2 라인은 픽셀 데이터 요소 (H2′), (J2′) 및 (L2)를 포함한다.
도 10은 상부 필드(120) 내의 제 1 픽셀 요소로 시작해서 이웃하는 픽셀 요소가 평균화되어 제 1 영상 서브프레임(160)을 생성하는 것과, 바닥 필드(121) 내의 제 2 픽셀 요소로 시작해서 이웃하는 픽셀 요소가 평균화되어 제 2 영상 서브프레임(161)을 생성하는 것을 도시한다. 그러나, 다른 실시예에서, 도 10에 도시하는 방법은 상부 필드(120) 내의 제 2 픽셀 요소로 시작해서 이웃하는 픽셀을 평균화하여 제 1 영상 서브프레임(160)을 생성하고,바닥 필드(121) 내의 제 1 픽셀 요소로 시작해서 이웃하는 픽셀 요소를 평균화하여 제 2 영상 서브프레임(161)을 생성할 수 있다.
도 9의 예시적인 방법과 마찬가지로, 도 10의 예시적인 방법은 버퍼(142;도 4)의 사용을 필요로 하지 않는다. 또한, 필요로 하는 영상 프로세싱은 최소이다. 그래서, 도 10의 예시적인 방법은 예시적인 디스플레이 시스템의 비용 및 크기를 감소시킬 수 있다.
도 9 및 10의 제 1 및 제 2 영상 서브프레임(160, 161)의 영상 서브프레임 위치는 워블링 디바이스(104;도 4)에 의해 두 개 이상의 위치간에 교대될 수 있다.
일 실시예에서, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127) 내의 픽셀 데이터의 상부 필드(120)에 대응하는 제 1 영상 서브프레임(160) 및 제 2 영상 서브프레임(161)과 비월 비디오 데이터 시퀀스(127) 내의 픽셀 데이터의 바닥 필드(121)에 대응하는 제 3 영상 서브프레임(180) 및 제 4 영상 서브프레임(181)을 생성한다. 그 후, 네 개의 영상 서브프레임(160, 161, 180, 181)은 도 7과 연결하여 설명한 바와 같이, 네 개의 서로 다른 영상 서브프레임 위치에 디스플레이될 수 있다. 도 11은 도 7과 연결하여 설명한 바와 같이, 네 개의 영상 서브프레임 위치에 디스플레이될 제 1 영상 서브프레임(160), 제 2 영상 서브프레임(161), 제 3 영상 서브프레임(180) 및 제 4 영상 서브프레임(181)을 생성하는 예시적인 방법을 도시한다. 비월 비디오 데이터 시퀀스(127)에 의해 정의되는 영상 프레임보다 절반 개수의 열 및 라인의 픽셀을 포함하는 변조기로 네 개의 영상 프레임이 입력된다. 예를 들어, 도 11에 도시하는 네 개의 영상 서브프레임(160, 161, 180, 181)은 각각 3개의 열 및 2개의 라인의 픽셀 데이터를 포함한다.
도 11의 예시적인 방법은 상부 필드(120)에 대응하는 2개의 영상 서브프레임 및 바닥 필드(121)에 대응하는 2개의 영상 서브프레임을 생성하는 것을 포함한다. 각각의 전체 비월 입력 필드가 디스플레이 시스템(100;도 4) 내로 순차적으로 들어오기 때문에, 영상 서브프레임(160, 161, 180, 181)의 각각에 대한 픽셀 데이터의 라인의 생성은 자동적으로 수행된다.
도 11은 픽셀 데이터의 각 라인 내의 픽셀 데이터 요소의 개수를 절반으로 감소시키는 예시적인 방법을 도시한다. 일 실시예에서, 도 11에 도시하는 바와 같이, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 상부 필드(120) 내에서 제 1 픽셀 데이터 요소로 시작해서 하나 건너 하나의 픽셀 데이터 요소를 사용 또는 프로세싱하여 제 1 영상 서브프레임(160)을 생성할 수 있다. 그래서, 제 1 영상 서브프레임(160)의 제 1 라인은 픽셀 데이터 요소 (A1), (C1) 및 (E1)을 포함한다. 제 1 영상 서브프레임(160)의 제 2 라인은 픽셀 데이터 요소 (G1), (I1) 및 (K1)을 포함한다.
그 후, 영상 처리 장치(106;도 4)는 비월 데이터 시퀀스(127)의 상부 필드(120) 내에서 제 2 픽셀 데이터 요소로 시작해서 하나 건너 하나의 픽셀 데이터 요소를 사용 또는 프로세싱할 수 있다. 그래서, 제 2 영상 서브프레임(161)의 제 1 라인은 픽셀 데이터 요소 (B1), (D1) 및 (F1)을 포함한다. 제 2 영상 서브프레임(161)의 제 2 라인은 픽셀 데이터 (H1), (J1) 및 (L1)을 포함한다.
그 후, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 바닥 필드(120) 내에서 제 1 픽셀 데이터 요소로 시작해서 하나 건너 하나의 픽셀 데이터 요소를 사용 또는 프로세싱하여 제 3 영상 서브프레임(180)을 생성할 수 있다. 그래서, 제 3 영상 서브프레임(180)의 제 1 라인은 픽셀 데이터 요소 (B2), (D2) 및 (F2)를 포함한다. 제 3 영상 서브프레임(180)의 제 2 라인은 픽셀 데이터 요소 (H2), (J2) 및 (L2)를 포함한다.
그 후, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 바닥 필드(120) 내에서 제 2 픽셀 데이터 요소로 시작해서 하나 건너 하나의 픽셀 데이터 요소를 사용 또는 프로세싱하여 제 4 영상 서브프레임(181)을 생성할 수 있다. 그래서, 제 4 영상 서브프레임(181)의 제 1 라인은 픽셀 데이터 요소 (B2), (D2) 및 (F2)를 포함한다. 제 4 영상 서브프레임(181)의 제 2 라인은 픽셀 데이터 요소 (H2), (J2) 및 (L2)를 포함한다.
도 11과 연결하여 설명한 네 개의 영상 서브프레임(160, 161, 180, 181)은 도 7과 연결하여 설명한 네 개의 영상 서브프레임 위치 중 임의의 위치에 디스플레이될 수 있다. 예를 들어, 일 실시예에서, 제 1 영상 서브프레임(160)은 제 1 영상 서브프레임 위치(185;도 7(a))에 디스플레이될 수 있고, 제 2 영상 서브프레임(161)은 제 3 영상 서브프레임 위치(187;도 7(c))에 디스플레이될 수 있고, 제 3 영상 서브프레임(180)은 제 2 영상 서브프레임 위치(186;도 7(b))에 디스플레이될 수 있고, 제 4 영상 서브프레임(181)은 제 4 영상 서브프레임 위치(188;도 7(d))에 디스플레이될 수 있다.
도 12는 도 7에 도시하는 바와 같이, 네 개의 영상 서브프레임 위치에 디스플레이될 제 1 영상 서브프레임(160), 제 2 영상 서브프레임(161), 제 3 영상 서브프레임(180) 및 제 4 영상 서브프레임(181)을 생성하는 또 다른 예시적인 방법을 도시한다. 변조기 내로 비월 비디오 데이터 시퀀스(127)에 의해 정의되는 영상 프레임이 포함하는 것보다 절반 개수의 열 및 라인의 픽셀을 포함하는 네 개의 영상 서브프레임이 입력된다. 예를 들어, 도 12에 도시한 네 개의 영상 서브프레임(160, 161, 180, 181)은 각각 3개의 열 및 2개의 라인의 픽셀 데이터를 포함한다.
도 12의 예시적인 방법은 상부 필드(120)에 대응하는 2개의 영상 서브프레임 및 바닥 필드(121)에 대응하는 2개의 영상 서브프레임을 생성한다. 각각의 전체 비월 입력 필드가 디스플레이 시스템(100;도 4) 내로 순차적으로 들어오기 때문에, 영상 서브프레임(160, 161, 180, 181)의 각각에 대한 픽셀 데이터의 라인의 생성은 자동적으로 수행된다.
도 12는 도 11과 관련하여 설명한 바와 같이, 하나 건너 하나의 픽셀 데이터 요소를 스킵하지 않고, 픽셀 데이터의 각 라인 내의 픽셀 데이터 요소의 개수를 절반으로 감소시키는 예시적인 방법을 도시한다.
도 12에 도시하는 바와 같이, 일 실시예에서, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 상부 필드(120) 내에서 제 1 픽셀 데이터 요소로 시작해서 이웃하는 픽셀 데이터 요소의 각 쌍을 평균하여 제 1 영상 서브프레임(160)을 생성할 수 있다. 이웃하는 픽셀 데이터 요소를 평균하는 것은 도 10과 연결하여 설명되어 있다. 그래서, 제 1 영상 서브프레임(160)의 제 1 라인은 픽셀 데이터 요소 (A1′), (C1′) 및 (E1′)을 포함한다. 제 1 영상 서브프레임(160)의 제 2 라인은 픽셀 데이터 요소 (G1′), (I1′) 및 (K1′)을 포함한다.
그 후, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 상부 필드(120) 내에서 제 2 픽셀 데이터 요소로 시작해서 이웃하는 픽셀 데이터 요소의 각 쌍을 평균하여 제 2 영상 서브프레임(161)을 생성할 수 있다. 이웃하는 픽셀을 평균하는 것은 도 10과 연결하여 설명되어 있다. 그래서, 제 2 영상 서브프레임(161)의 제 1 라인은 픽셀 데이터 요소 (B1′), (D1′) 및 (F1)을 포함한다. 제 2 영상 서브프레임(161)의 제 2 라인은 픽셀 데이터 요소 (H1′), (J1′) 및 (L1′)을 포함한다. (F1) 및 (L1)은 이들이 그 각각의 라인 내에서 마지막 픽셀 요소이기 때문에 평균화되지 않는다. (B1′)은 픽셀 데이터 요소 (B1) 및 (C1)의 평균이다. (D′)은 픽셀 데이터 요소 (D1) 및 (E1)의 평균이다.
그 후, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 바닥 필드(1) 내에서 제 1 픽셀 데이터 요소로 시작해서 이웃하는 픽셀 데이터 요소의 각 쌍을 평균하여 제 3 영상 서브프레임(180)을 생성할 수 있다. 이웃하는 픽셀을 평균화하는 것은 도 10과 연결하여 설명되어 있다. 따라서, 제 3 영상 서브프레임(180)의 제 1 라인은 픽셀 데이터 요소 (A2′), (C2′) 및 (E2′)를 포함한다. 제 3 영상 서브프레임(180)의 제 2 라인은 픽셀 데이터 요소 (G2′), (I2′) 및 (K2′)를 포함한다. (A2′)는 픽셀 데이터 요소 (A2) 및 (B2)의 평균이다. (C2′)는 픽셀 데이터 요소 (C2) 및 (D2)의 평균이다. (E2′)는 픽셀 데이터 요소 (E2) 및 (F2)의 평균이다. (G2′)는 픽셀 데이터 요소 (G2) 및 (H2)의 평균이다. (I2′)는 픽셀 데이터 요소 (K2) 및 (L2)의 평균이다.
그 후, 영상 처리 장치(106;도 4)는 비월 비디오 데이터 시퀀스(127)의 바닥 필드(1) 내에서 제 2 픽셀 데이터 요소로 시작해서 이웃하는 픽셀 데이터 요소의 각 쌍을 평균하여 제 4 영상 서브프레임(181)을 생성할 수 있다. 이웃하는 픽셀을 평균화하는 것은 도 10과 연결하여 설명되어 있다. 따라서, 제 4 영상 서브프레임(181)의 제 1 라인은 픽셀 데이터 요소 (B2′), (D2′) 및 (F2)를 포함한다. 제 4 영상 서브프레임(181)의 제 2 라인은 픽셀 데이터 요소 (H2′), (J2′) 및 (L2)를 포함한다. 제 4 영상 서브프레임(181)의 제 2 라인은 픽셀 데이터 요소 (H2′), (J2′) 및 (L2)를 포함한다. (F2) 및 (L2)는 이들이 그 제각각의 라인 내에서 마지막 픽셀 요소이기 때문에 평균화되지 않는다.
디스플레이되는 영상 프레임의 픽셀의 개수의 절반을 포함하는 변조기(104;도 4)의 문맥에서 위의 예시적인 방법이 설명되었으나, 다수의 다른 크기의 변조기가 사용될 수 있다. 그래서, 본 방법은 영상 서브프레임의 원하는 해상도에 기초하여 수정될 수 있다. 예를 들어, 변조기가 영상 프레임과 동일한 개수의 픽셀을 포함하면, 영상 처리 장치(106;도 4)는 각 라인 내의 픽셀 데이터 요소의 각각을 이용하여 영상 서브프레임을 생성할 수 있다.
또한, 영상 서브프레임을 생성하기 위한 것으로, 상부 및 바닥 필드(120, 121) 내의 픽셀 데이터 요소를 프로세싱하는 위에서 설명한 예시적인 방법은 배타적인 것이 아님을 당업자라면 인식할 수 있을 것이다. 오히려, 영상 서브프레임을 생성하기 위해 상부 및 바닥 필드(120, 121) 내의 픽셀 데이터 요소를 프로세싱하는 가능한 방법은 다수 개 있다.
예를 들어, 특정 영상 서브프레임 내의 각 픽셀 데이터 요소는 상부 또는 바닥 필드의 대응하는 라인 내의 하나 이상의 픽셀 데이터의 여러 함수를 취함으로써 계산될 수 있다. 예를 들어, 함수는 선형 함수일 수 있다. 또한, 함수는 특정 라인 내의 모든 픽셀 데이터 요소의 함수일 수 있다. 예를 들어, 2개의 영상 서브프레임이 생성되면, 제 1 영상 서브프레임(160)의 상부 라인 내의 각 픽셀 데이터 요소는 상부 필드(120) 내의 픽셀 데이터 요소의 제 1 라인(123) 내의 일부 또는 모든 픽셀 데이터 요소의 함수일 수 있다. 이와 마찬가지로, 제 1 영상 서브프레임(160)의 바닥 라인 내의 각각의 픽셀 데이터 요소는 제 3 라인(125) 내의 일부 또는 모든 픽셀 데이터 요소의 함수일 수 있다. 제 2 영상 서브프레임(121)의 픽셀 데이터 요소는 이와 유사한 방식으로 계산될 수 있다.
이와 마찬가지로, 네 개의 영상 서브프레임이 생성되면, 네 개의 영상 서브프레임의 라인 내의 각 픽셀 데이터 요소는 상부 및 바닥 필드 내에서 픽셀 데이터의 요소의 대응하는 라인 내의 일부 또는 모든 픽셀 데이터의 함수일 수 있다. 픽셀 데이터 요소를 프로세싱하기 위해 사용되는 정밀 함수는 특정 애플리케이션이 가장 잘 작용하게 변화될 것이다.
위의 설명은 본 발명의 실시예를 도시하고 설명하기 위해서만 제시되었다. 본 발명은 개시한 임의의 정확한 형태에 국한되는 것이 아니다. 위의 내용에 비추어 여러 변형예들이 가능하다. 본 발명의 범위는 다음 청구의 범위에 의해서 제한된다.
픽셀 컬러 정확도 및 해상도를 높일 수 있다.
도 1은 하나의 예시적인 실시예에 따른 예시적인 디스플레이 시스템을 도시하는 도면,
도 2는 일 실시예에 따라 두 개의 필드와 디스플레이 시스템이 디스플레이하는 그 대응 비월 영상 프레임간의 관계를 나타내는 도면,
도 3은 일 실시예에 따라 디스플레이 시스템 내로 입력될 수 있는 예시적인 비월 비디오 데이터 시퀀스(interlaced video data sequence)를 도시하는 도면,
도 4는 일 실시예에 따른 예시적인 디스플레이 시스템으로서, 영상 처리 장치 내부의 예시적인 기능부의 확장도를 도시하는 도면,
도 5(a) 내지 5(c)는 일 실시예에 따라 특정 영상에 대해 다수의 서브프레임이 생성될 수 있다는 것을 도시하는 도면,
도 6(a) 및 6(b)는 일 실시예에 따라, 제 1 서브프레임으로부터의 픽셀을 제 1 영상 서브프레임 위치에 디스플레이하고, 제 2 서브프레임으로부터의 픽셀을 제 2 서브프레임 위치에 디스플레이하는 것을 도시하는 도면,
도 7(a) 내지 7(d)는 일 실시예에 따라, 서브프레임 생성 함수가 하나의 영상 프레임에 대해 네 개의 영상 서브프레임을 정의할 수 있다는 것을 도시하는 도면,
도 8(a) 내지 8(d)는 일 실시예에 따라, 제 1 서브프레임으로부터의 픽셀을 제 1 영상 서브프레임 위치에 디스플레이하고, 제 2 서브프레임으로부터의 픽셀을 제 2 영상 서브프레임 위치에 디스플레이하고, 제 3 서브프레임으로부터의 픽셀을 제 3 영상 서브프레임 위치에 디스플레이하고, 제 4 서브프레임으로부터의 픽셀을 제 4 영상 서브프레임 위치에 디스플레이하는 것을 도시하는 도면,
도 9는 일 실시예에 따라, 예시적인 비월 비디오 데이터 시퀀스의 상부 및 바닥 필드에 대응하는 제 1 및 제 2 영상 서브프레임을 생성하기 위한 예시적인 방법을 도시하는 도면,
도 10은 일 실시예에 따라 비월 비디오 데이터 시퀀스에 의해 정의되는 영상 프레임이 포함하는 것보다 절반 개수의 픽셀 열 및 픽셀 라인을 포함하는 제 1 및 제 2 영상 서브프레임을 생성하기 위해 사용될 수 있는 또 다른 예시적인 방법을 도시하는 도면,
도 11은 제 1, 제 2, 제 3 및 제 4의 영상 서브프레임을 생성하기 위한 예시적인 방법을 도시하는 도면,
도 12는 일 실시예에 따라 네 개의 영상 서브프레임 위치에 디스플레이되는 제 1, 제 2, 제 3 및 제 4의 영상 서브프레임을 생성하기 위한 또 다른 예시적인 방법을 도시하는 도면.
도면의 주요 부분에 대한 부호의 설명
101 : 광원 102 : 컬러 디바이스
103 : 공간적 광 변조기 104 : 워블링 디바이스(wobbling device)
105 : 디스플레이 광학 장치 106 : 영상 처리 장치

Claims (10)

  1. 비월 영상 프레임(interlaced image frame)(122)을 디스플레이하기 위한 디스플레이 시스템(100) ― 상기 비월 영상 프레임(122)은 상부 필드(120) 및 바닥 필드(121)를 포함하고, 상기 상부 및 바닥 필드(120, 121)는 각각 픽셀의 라인을 가짐 ― 으로서,
    상기 시스템은
    상기 상부 및 바닥 필드(120, 121)에서의 상기 픽셀에 순차적으로 대응하는 픽셀 데이터 요소의 스트림을 프로세싱하고, 다수의 영상 서브 프레임을 생성하도록 구성되는 영상 처리 장치(106)와,
    상기 다수의 영상 서브프레임을 보유하는 광빔을 생성하도록 구성되는 변조기(103)와,
    상기 영상 서브프레임의 각각이 이전의 영상 서브프레임으로부터 공간적으로 오프셋되어 디스플레이되도록 상기 광빔을 배치하도록 구성되는 워블링 디바이스(wobbling device)(104)를 포함하되,
    상기 영상 서브프레임 중 적어도 하나는 상기 상부 필드(120) 내의 상기 픽셀 데이터 요소만을 이용하여 생성되고, 상기 영상 서브프레임 중 적어도 하나는 상기 바닥 필드(121) 내의 상기 픽셀 데이터 요소만을 이용하여 생성되는
    시스템.
  2. 제 1 항에 있어서,
    상기 영상 처리 장치(106)는 제 1 영상 서브프레임을 생성하기 위해 상기 상부 필드(120) 내의 상기 픽셀 데이터 요소를 프로세싱하고, 제 2 영상 서브프레임을 생성하기 위해 상기 하부 필드(121) 내의 상기 픽셀 데이터 요소를 프로세싱하도록 구성되는
    시스템.
  3. 제 2 항에 있어서,
    상기 제 1 영상 서브프레임은 제 1 영상 서브프레임 위치에 디스플레이되고,
    상기 제 2 영상 서브프레임은 제 2 영상 서브프레임 위치에 디스플레이되며,
    상기 제 2 영상 서브프레임 위치는 상기 제 1 영상 서브프레임 위치로부터 오프셋 거리만큼 공간적으로 오프셋되어 있는
    시스템.
  4. 제 2 항에 있어서,
    상기 영상 처리 장치(106)는 또한,
    상기 제 1 영상 서브프레임을 생성하기 위해, 상기 상부 필드(120) 내에서 상기 상부 필드 내의 제 1 픽셀 데이터 요소로 시작해서, 하나 건너 하나의 데이터 요소를 프로세싱하고,
    상기 제 2 영상 서브프레임을 생성하기 위해, 상기 하부 필드(121) 내에서 상기 바닥 필드 내의 제 2 픽셀 데이터 요소로 시작해서, 하나 건너 하나의 데이터 요소를 프로세싱하도록 구성되는
    시스템.
  5. 제 1 항에 있어서,
    상기 영상 처리 장치(106)는
    제 1 영상 서브프레임 및 제 2 영상 서브프레임을 생성하기 위해 상기 상부 필드(120) 내의 상기 픽셀 데이터 요소를 프로세싱하고,
    제 3 영상 서브프레임 및 제 4 영상 서브프레임을 생성하기 위해 상기 하부 필드(121) 내의 상기 픽셀 데이터 요소를 프로세싱하도록 구성되는
    시스템.
  6. 제 1 항에 있어서,
    화면에 상기 광빔을 디스플레이하도록 구성되는 디스플레이 광학 장치(105)를 더 포함하는
    시스템.
  7. 비월 영상 프레임(interlaced image frame)(122) ― 상기 비월 영상 프레임(122)은 상부 필드(120) 및 바닥 필드(121)를 포함하고, 상기 상부 및 바닥 필드(120, 121)는 각각 픽셀의 라인을 가짐 ― 을 디스플레이하기 위한 방법으로서,
    상기 방법은
    상기 상부 및 바닥 필드(120, 121) 내의 상기 픽셀에 순차적으로 대응하는 픽셀 데이터 요소의 스트림을 프로세싱하고, 상기 상부 및 바닥 필드(120, 121)에 대응하는 다수의 영상 서브프레임을 생성하는 단계와,
    이전의 영상 서브프레임으로부터 오프셋된 상기 영상 서브프레임의 각각을 디스플레이하는 단계를 포함하는
    방법.
  8. 제 7 항에 있어서,
    픽셀 데이터 요소의 상기 스트림을 프로세싱하는 상기 단계는
    상기 영상 서브프레임 중 적어도 하나를 생성하기 위해 상기 상부 필드(120) 내의 상기 픽셀 데이터 요소를 프로세싱하는 단계와,
    상기 영상 서브프레임 중 적어도 하나를 생성하기 위해 상기 바닥 필드(121) 내의 상기 픽셀 데이터 요소를 프로세싱하는 단계를 포함하는
    방법.
  9. 제 8 항에 있어서,
    픽셀 데이터 요소의 상기 스트림을 프로세싱하는 상기 단계는
    제 1 영상 서브프레임을 생성하기 위해 상기 상부 필드(120) 내의 상기 픽셀 데이터 요소를 프로세싱하는 단계와,
    제 2 영상 서브프레임을 생성하기 위해 상기 바닥 필드(121) 내의 상기 픽셀 데이터 요소를 프로세싱하는 단계를 더 포함하는
    방법.
  10. 제 7 항에 있어서,
    상기 영상 서브프레임을 보유하는 광빔을 생성하는 단계와,
    상기 영상 서브프레임을 디스플레이하기 위해 상기 광빔을 배치하는 단계를 더 포함하는
    방법.
KR1020040084258A 2003-10-23 2004-10-21 디스플레이 시스템 및 방법 KR20050039593A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/693,287 2003-10-23
US10/693,287 US20050099534A1 (en) 2003-10-23 2003-10-23 Display system for an interlaced image frame with a wobbling device

Publications (1)

Publication Number Publication Date
KR20050039593A true KR20050039593A (ko) 2005-04-29

Family

ID=34394586

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040084258A KR20050039593A (ko) 2003-10-23 2004-10-21 디스플레이 시스템 및 방법

Country Status (6)

Country Link
US (1) US20050099534A1 (ko)
EP (1) EP1526496A3 (ko)
JP (1) JP2005128552A (ko)
KR (1) KR20050039593A (ko)
CN (1) CN1610413A (ko)
TW (1) TWI262715B (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1980791B (zh) 2004-01-26 2012-08-22 西北大学 苝n-型半导体和相关器件
US7453449B2 (en) * 2004-09-23 2008-11-18 Hewlett-Packard Development Company, L.P. System and method for correcting defective pixels of a display device
CN101089722B (zh) * 2006-06-12 2010-05-26 台达电子工业股份有限公司 光学投影***及其影像平滑装置
CN109270682A (zh) * 2016-08-17 2019-01-25 海信集团有限公司 一种激光投影设备
JP2020154196A (ja) * 2019-03-22 2020-09-24 セイコーエプソン株式会社 光学モジュールおよびその制御方法、ならびに投射型表示装置
JP2020154197A (ja) 2019-03-22 2020-09-24 セイコーエプソン株式会社 光学モジュールおよびその制御方法、ならびに投射型表示装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5644361A (en) * 1994-11-30 1997-07-01 National Semiconductor Corporation Subsampled frame storage technique for reduced memory size
US6407726B1 (en) * 1998-01-06 2002-06-18 Sony Corporation Method for driving display devices, and display device
JP3934250B2 (ja) * 1998-05-11 2007-06-20 オリンパス株式会社 画像表示装置
CN100417230C (zh) * 2000-06-16 2008-09-03 夏普公司 投影型图象显示装置
US6680748B1 (en) * 2001-09-27 2004-01-20 Pixim, Inc., Multi-mode camera and method therefor

Also Published As

Publication number Publication date
CN1610413A (zh) 2005-04-27
TWI262715B (en) 2006-09-21
TW200515815A (en) 2005-05-01
US20050099534A1 (en) 2005-05-12
JP2005128552A (ja) 2005-05-19
EP1526496A3 (en) 2007-06-13
EP1526496A2 (en) 2005-04-27

Similar Documents

Publication Publication Date Title
EP1557817B1 (en) Display system
US7787001B2 (en) Image processing apparatus, image display apparatus, image processing method, and computer product
US6984040B2 (en) Synchronizing periodic variation of a plurality of colors of light and projection of a plurality of sub-frame images
US8152312B2 (en) Apparatus and method that present projection image
US6963319B2 (en) Image display system and method
JP2009139968A (ja) スクローリングカラーおよびウォブルデバイスを備えた表示システム
US7154508B2 (en) Displaying least significant color image bit-planes in less than all image sub-frame locations
US9838655B2 (en) Projector and image displaying method
KR20040014293A (ko) 디스플레이 장치를 이용한 이미지 디스플레이 방법,이미지 디스플레이 시스템 및 이미지 디스플레이용디스플레이 장치
JP2001255506A (ja) 液晶表示装置及び液晶表示装置用光源
KR100499283B1 (ko) 표시장치
JP2020052132A (ja) 電気光学装置及びその制御方法
KR20050039593A (ko) 디스플레이 시스템 및 방법
US20180336812A1 (en) Image display apparatus, liquid crystal display method, and liquid crystal display program
JP2007033522A (ja) 画像出力装置及び画像表示装置
JP2005208413A (ja) 画像処理装置及び画像表示装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application