KR100648592B1 - 화상 처리 시스템, 프로젝터 및 화상 처리 방법 - Google Patents

화상 처리 시스템, 프로젝터 및 화상 처리 방법 Download PDF

Info

Publication number
KR100648592B1
KR100648592B1 KR1020040053687A KR20040053687A KR100648592B1 KR 100648592 B1 KR100648592 B1 KR 100648592B1 KR 1020040053687 A KR1020040053687 A KR 1020040053687A KR 20040053687 A KR20040053687 A KR 20040053687A KR 100648592 B1 KR100648592 B1 KR 100648592B1
Authority
KR
South Korea
Prior art keywords
projection
image
distance
information
coordinates
Prior art date
Application number
KR1020040053687A
Other languages
English (en)
Other versions
KR20050009163A (ko
Inventor
고바야시마사노부
Original Assignee
세이코 엡슨 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세이코 엡슨 가부시키가이샤 filed Critical 세이코 엡슨 가부시키가이샤
Publication of KR20050009163A publication Critical patent/KR20050009163A/ko
Application granted granted Critical
Publication of KR100648592B1 publication Critical patent/KR100648592B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

1개의 센서로 투사 화상의 왜곡을 보정할 수 있는 화상 처리 시스템 등을 제공하기 위해서, 구형(矩形)의 캘리브레이션 화상을 표시하기 위한 화상 정보를 생성하는 캘리브레이션 화상정보 생성부(170), 화상 정보에 기초하여 투사 대상물을 향해 캘리브레이션 화상을 투사하는 화상 투사부(190), 투사된 캘리브레이션 화상을 포함하는 영역을 촬상하여 촬상 정보를 생성하는 촬상부(180), 화상 투사부(190)로부터 투사 대상물까지의 거리가 캘리브레이션 화상 전체가 촬상부(180)의 촬상 범위로 들어가는 최단 거리에 있는 상태에서의 촬상 정보에 기초하여, 최단 투사 영역 정보를 생성하는 것과 함께, 실제 사용 상태에서의 촬상 정보에 기초하여, 현투사 영역 정보를 생성하는 투사 영역 정보 생성부(150), 및 최단 투사 영역 정보와 현투사 영역 정보에 기초하여 화상 왜곡 보정용 정보를 생성하는 보정용 정보 생성부(120)를 프로젝터(20)에 설치한다.
화상, 왜곡, 캘리브레이션, 스크린, 센서, 프로젝터

Description

화상 처리 시스템, 프로젝터 및 화상 처리 방법{IMAGE PROCESSING SYSTEM, PROJECTOR, AND IMAGE PROCESSING METHOD}
도1은 화상 투사시의 상태를 나타내는 모식도.
도2는 본 실시형태의 일례에 따른 프로젝터의 기능 블록도.
도3은 본 실시형태의 일례에 따른 프로젝터의 하드웨어 블록도.
도4는 본 실시형태의 일례에 따른 화상 처리의 흐름을 나타내는 플로우차트.
도5는 본 실시형태의 일례에 따른 촬상면을 나타내는 모식도.
도6은 본 실시형태의 일례에 따른 투사 상태를 평면적으로 나타내는 모식도.
도7은 본 실시형태의 일례에 따른 투사 상태를 측면적으로 나타내는 모식도.
도8은 본 실시형태의 일례에 따른 투사 거리를 나타내는 모식도.
도9는 본 실시형태의 일례에 따른 투사 거리 데이터의 데이터 구조를 나타내는 모식도.
도10은 본 실시형태의 일례에 따른 보정 후의 투사 영역의 4개 모서리의 좌표를 나타내는 모식도.
도11은 본 실시형태의 일례에 따른 보정 후의 투사 영역의 4개 모서리의 좌표를 나타내는 보정용 데이터.
*도면의 주요 부분에 대한 부호의 설명
10: 스크린(투사 대상물) 12: 투사 화상
20: 프로젝터(화상 처리 시스템) 60: 센서
120: 보정용 정보 생성부 130: 왜곡 보정부
150: 투사 영역 정보 생성부 170: 캘리브레이션 화상 정보 생성부
180: 촬상부 190: 화상 투사부(투사 수단)
900: 정보 기억 매체
본 발명은 화상의 왜곡 보정이 가능한 화상 처리 시스템, 프로젝터 및 화상 처리 방법에 관한 것이다.
프로젝터 등의 화상 투사 장치로부터의 투사광의 광축과 스크린 등의 투사 대상물의 상대적인 각도에 의해 화상이 왜곡되어, 종방향이나 횡방향으로 소위 사다리꼴 왜곡이 발생하는 경우가 있다.
이 때문에, 화상 투사 장치는 화상을 투사하는 경우에 화상의 왜곡을 제거한 상태로 화상을 투사할 필요가 있다.
그러나, 일반적인 화상의 왜곡 보정 기능이 부여된 화상 투사 장치는 기울기 센서를 내장하여 화상의 종방향의 왜곡만을 보정하고, 화상의 횡방향의 왜곡은 보 정할 수 없다.
또한, 화상의 횡방향의 왜곡을 보정하는 경우, 사용자가 마우스 등을 이용하여 스크린의 4개 모서리 점을 지시함으로써, 화상 투사 장치는 당해 지시 정보에 기초하여 반자동적으로 화상의 왜곡을 보정한다. 또한, 사용자에 따라서는 마우스 등을 이용하여 스크린의 4개 모서리 점을 지시하는 것은 번거로운 일이다.
이러한 과제를 해결하기 위해, 예를 들면, 일본 특허공개 2001-61121호 공보에서는, 패턴 화상을 표시했을 때의 투영면의 화상을, 카메라를 통하여 촬영한 화상에 기초하여 프로젝터 화상 좌표와 카메라 화상 좌표의 대응을 수행하고, 삼각 측량의 방법에 의해 패턴 화상이 투영된 위치의 3차원 좌표를 구함으로써 투영면의 형상을 획득하는 투영면 획득 수단과, 투영면의 형상에 대응하여 입력 원화상에 대한 기울기 보정과 확대 축소 보정을 수행하는 영상 보정 수단을 갖는 프로젝터 장치가 개시되어 있다.
또한, 일본 특허공개 2001-61121호 공보의 방법에서는, 투영면 획득 수단으로서 이미 알려진 3차원 형상 측정 장치를 이용하는 것과, 투영면 획득 수단이 일본 특허공개 2001-61121호 공보의 발명의 요부가 아니라는 것이 기재되어 있다.
그러나, 이미 알려진 3차원 형상 측정 장치는, 예를 들면, 삼각 측량을 수행하는 방식의 경우, 2대 이상의 카메라를 이용할 필요가 있고, 구조가 복잡해지기 때문에 고가의 장치가 된다.
또한, 일본 특허공개 2001-61121호 공보의 방법과 같이, 스크린 등의 투사 대상물의 형상을 파악하여 화상처리하는 방법의 경우, 투사 대상물이 벽인 경우에 는 적용할 수 없고, 투사 대상물이 한정되게 된다.
본 발명은 상기 과제를 감안하여 이루어진 것이고, 그 목적은 1개의 센서로 투사 기준점으로부터 투사 대상까지의 거리와 각도를 측정함으로써, 투사 화상의 왜곡을 보정할 수 있는 화상 처리 시스템, 프로젝터 및 화상 처리 방법을 제공하는 데 있다.
상기 과제를 해결하기 위해, 본 발명에 따른 화상 처리 시스템 및 프로젝터는,
구형(矩形)의 캘리브레이션 화상을 표시하기 위한 화상 정보를 생성하는 캘리브레이션 화상 정보 생성 수단,
상기 화상 정보에 기초하여, 투사 대상물을 향해 캘리브레이션 화상을 투사하는 투사 수단,
투사된 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하여 촬상 정보를 생성하는 촬상 수단,
상기 캘리브레이션 화상 전체가 상기 촬상 수단의 촬상 범위로 들어간 상태이고, 또한 상기 투사 수단으로부터 상기 투사 대상물까지의 거리가 실제 사용 상태에서의 거리와 다른 상태에서의 촬상 정보에 기초하여, 상기 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 가투사(假投寫) 영역 정보를 생성하는 것과 함께, 실제 사용 상태에서의 촬상 정보에 기초하여, 상기 촬상면에 서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 현투사(現投寫) 영역 정보를 생성하는 투사 영역 정보 생성 수단,
화상 왜곡 보정용 정보를 생성하는 보정용 정보 생성 수단, 및
상기 화상 왜곡 보정용 정보에 기초하여, 화상의 왜곡을 보정하는 왜곡 보정 수단
을 포함하고,
상기 보정용 정보 생성 수단은,
상기 가투사 영역 정보에 포함되는 상기 4개 모서리의 좌표와, 상기 현투사 영역 정보에 포함되는 상기 4개 모서리의 좌표의 각각의 좌표간 거리를 도출하고,
당해 좌표간 거리와 투사 거리가 관련지워진 투사 거리 데이터와 상기 좌표간 거리에 기초하여, 상기 투사 수단으로부터 상기 투사 대상물에서의 상기 캘리브레이션 화상의 4개 모서리까지의 상기 투사 수단의 광축상의 투사 거리를 도출하고,
당해 투사 거리와 상기 투사 수단의 반화각(半畵角)에 기초하여, 상기 투사 수단이 화상처리하기 위한 3차원 공간에서의 상기 캘리브레이션 화상의 4개 모서리 중 적어도 3개의 3차원 좌표를 도출하고,
당해 3차원 좌표에 기초하여, 상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출하고,
당해 각도에 기초하여, 상기 화상 왜곡 보정용 정보를 생성하는 것을 특징으로 한다.
또한, 본 발명에 따른 화상 처리 방법은,
화상 투사 장치와 투사 대상물의 위치 관계가 구형의 캘리브레이션 화상 전체가 촬상 범위로 들어가는 제1 상태에서, 상기 화상 투사 장치가 상기 캘리브레이션 화상을 상기 투사 대상물에 투사하고, 투사한 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하고, 당해 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 제1 투사 영역 정보를 생성하고,
화상 투사 장치와 투사 대상물의 위치 관계가 구형의 캘리브레이션 화상 전체가 촬상 범위로 들어가고, 또한 상기 제1 상태와 다른 제2 상태에서, 상기 화상 투사 장치가 상기 캘리브레이션 화상을 상기 투사 대상물로 투사하고, 투사한 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하고, 당해 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 제2 투사 영역 정보를 생성하고,
상기 제1 투사 영역 정보에 포함되는 4개 모서리의 좌표와, 상기 제2 투사 영역 정보에 포함되는 4개 모서리의 좌표의 각각의 좌표간 거리를 도출하고,
당해 좌표간 거리와 투사 거리가 관련지워진 투사 거리 데이터와 상기 좌표간 거리에 기초하여, 상기 화상 투사 장치로부터 상기 투사 대상물상의 상기 캘리브레이션 화상의 4개 모서리까지의 상기 화상 투사 장치의 투사광의 광축상의 투사 거리를 도출하고,
당해 투사거리와 상기 투사광의 반화각에 기초하여, 상기 화상 투사 장치가 화상처리하기 위한 3차원 공간에서의 상기 캘리브레이션 화상의 4개 모서리 중 적 어도 3개의 3차원 좌표를 도출하고,
당해 3차원 좌표에 기초하여, 상기 투사광의 광축과 상기 투사 대상물이 이루는 각도를 도출하고,
당해 각도에 기초하여, 화상 왜곡 보정용 정보를 생성하고,
당해 화상 왜곡 보정용 정보에 기초하여, 화상의 왜곡을 보정하는 것을 특징으로 한다.
본 발명에 따르면, 화상 처리 시스템 등은 1개의 센서로 투사 기준점으로부터 투사 대상물까지의 거리와 각도를 측정함으로써 투사 화상의 왜곡을 보정할 수 있다.
또한, 본 발명에 따르면, 화상 처리 시스템 등은 스크린 등의 틀을 이용하지 않고 투사 화상의 왜곡을 보정할 수 있기 때문에, 벽 등의 각종 투사 대상물에 적용할 수 있고, 범용성을 향상시킬 수 있다.
또한, 상기 화상 처리 시스템 및 상기 프로젝터에서, 상기 보정용 정보 생성 수단은,
상기 3차원 좌표에 기초하여, 상기 투사 대상물의 법선 벡터를 도출하고,
당해 법선 벡터와 상기 투사 수단의 광축의 방향 벡터에 기초하여, 상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출해도 좋다.
또한, 상기 화상 처리 방법에서,
상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출할 때,
상기 3차원 좌표에 기초하여 상기 투사 대상물의 법선 벡터를 도출하고,
당해 법선 벡터와 상기 투사 수단의 광축의 방향 벡터에 기초하여, 상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출해도 좋다.
이하, 본 발명을 화상의 왜곡 보정을 행하는 프로젝터에 적용한 경우를 예로 들어 도면을 참조하면서 설명한다. 한편, 이하에 나타낸 실시형태는 특허청구의 범위에 기재된 발명의 내용에 대해 어떠한 한정을 하는 것도 아니다. 또한, 이하의 실시형태에 나타내는 구성 전부가 특허청구의 범위에 기재된 발명의 해결 수단으로서 필수인 것이라고 한정되지 않는다.
(시스템 전체의 설명)
도1은 화상 투사시의 상태를 나타내는 모식도이다.
화상 처리 시스템의 일종인 프로젝터(20)는 투사 대상물의 일종인 스크린(10)을 향해 화상을 투사한다. 이에 따라, 스크린(10)에 투사 화상(12)이 표시된다.
또한, 본 실시예에서는, 프로젝터(20)는 스크린(10)에 정면으로 대향하고 있지 않은 상태로 되어 있다. 이 때문에, 투사 화상(12)의 왜곡(예를 들면, 소위 사다리꼴 왜곡 등)이 발생한다.
또한, 본 실시예에서는, 촬상 수단의 일부인 센서(60)는 투사 화상(12)을 포함하는 영역을 촬상한다. 그리고, 프로젝터(20)는 센서(60)에 의한 촬상 정보에 기 초하여, 프로젝터(20)의 투사 기준 위치로부터 투사 화상(12)의 4개 모서리까지의 투사 거리를 도출하는 것과 함께, 프로젝터(20)의 투사광의 광축과 스크린(10)이 이루는 각도를 도출한다.
또한, 프로젝터(20)는 당해 투사 거리에 기초하여 투사 화상(12)의 왜곡을 파악하고, 투사 화상(12)의 왜곡을 보정하기 위해 입력 화상 신호를 보정한다.
(기능 블록의 설명)
다음에, 이와 같은 기능을 실장하기 위한 프로젝터(20)의 기능 블록에 대해서 설명한다.
도2는 본 실시형태의 일례에 따른 프로젝터(20)의 기능 블록도이다.
프로젝터(20)는 화상 신호를 입력하는 신호 입력부(110), 화상 왜곡이 보정되도록 입력된 화상 신호를 보정하는 왜곡 보정부(130), 보정된 화상 신호를 출력하는 신호 출력부(160), 화상 신호에 기초하여 화상을 투사하는 투사 수단의 일종인 화상 투사부(190), 및 캘리브레이션 화상 정보를 생성하는 캘리브레이션 화상 정보 생성부(170)를 포함하여 구성된다.
또한, 프로젝터(20)는 투사 화상(12)을 포함하는 영역을 촬상면을 통하여 촬상하여 촬상 정보를 생성하는 촬상부(180), 촬상 정보에 기초하여 센서(60)의 촬상면에서의 투사 화상(12)의 영역을 추출하는 투사 영역 정보 생성부(150), 및 왜곡 보정용 정보를 생성하는 보정용 정보 생성부(120)를 포함하여 구성된다. 한편, 촬상부(180)는 센서(60)를 포함한다.
또한, 화상 투사부(190)는 공간 광변조기(192), 공간 광변조기(192)를 구동하는 구동부(194), 광원(196), 및 렌즈(198)를 포함하여 구성된다.
구동부(194)는 신호 출력부(160)로부터의 화상 신호에 기초하여, 공간 광변조기(192)를 구동한다. 그리고, 화상 투사부(190)는 광원(196)으로부터의 빛을 공간 광변조기(192) 및 렌즈(198)를 통하여 투사한다.
또한, 전술한 프로젝터(20)의 각 부의 기능을 컴퓨터에 실장하기 위한 하드웨어로서는, 예를 들면, 이하의 것을 적용할 수 있다.
도3은 본 실시형태의 일례에 따른 프로젝터(20)의 하드웨어 블록도이다.
예를 들면, 신호 입력부(110)로서는, 예를 들면, A/D 컨버터(930) 등, 왜곡 보정부(130)로서는, 예를 들면, 화상 처리 회로(970), RAM(950), CPU(910) 등, 신호 출력부(160)로서는, 예를 들면, D/A 컨버터(940) 등, 보정용 정보 생성부(120), 투사 영역 정보 생성부(150) 및 캘리브레이션 화상 정보 생성부(170)로서는, 예를 들면, 화상 처리 회로(970), RAM(950) 등, 촬상부(180)로서는, 예를 들면, CCD 센서, CMOS 센서, RGB 센서 등, 공간 광변조기(192)로서는, 예를 들면, 액정 패널(920), 액정 패널(920)을 구동하는 액정 라이트 밸브 구동 드라이버를 기억하는 ROM(960) 등을 이용하여 실장할 수 있다.
한편, 이들 각 부는 시스템 버스(980)를 통하여 상호 정보를 교환할 수 있다.
또한, 이들 각 부는 그 일부 또는 전부를 회로와 같이 하드웨어적으로 실장해도 좋고, 드라이버와 같이 소프트웨어적으로 실장해도 좋다.
또한, 투사 영역 정보 생성부(150) 등으로서 컴퓨터를 기능시키기 위한 프로그램을 기억한 정보 기억 매체(900)로부터 프로그램을 판독하여 투사 영역 정보 생성부(150) 등의 기능을 컴퓨터에 실장시켜도 좋다.
이와 같은 정보 기억 매체(900)로서는, 예를 들면, CD-ROM, DVD-ROM, ROM, RAM, HDD 등을 적용할 수 있고, 그 프로그램의 판독 방식은 접촉 방식이어도, 비접촉방식이어도 좋다.
또한, 정보 기억 매체(900) 대신에, 전술한 각 기능을 실장하기 위한 프로그램 등을 전송로를 통하여 호스트 장치 등으로부터 다운로드함으로써 전술한 각 기능을 실장할 수도 있다.
(화상 처리의 흐름의 설명)
다음에, 이들 각 부를 이용한 화상 처리의 흐름에 대해서 설명한다.
도4는 본 실시형태의 일례에 따른 화상 처리의 흐름을 나타내는 플로우차트이다.
프로젝터(20)의 제조업자는 프로젝터(20)의 출하 전에 화상 투사부(190)의 투사 기준 위치로부터 투사 화상(12)의 4개 모서리까지의 투사 광축상의 거리와, 센서(60)의 촬상면에서의 좌표간 거리의 관계를 구하고, 투사 거리 데이터로서 보정용 정보 생성부(120)에 기억시켜 둔다.
또한, 제조업자는 프로젝터(20)의 출하 전에 프로젝터(20)와 스크린(10)이 정면으로 대향하고 있는 상태에서, 센서(60)의 촬상 범위에 캘리브레이션 화상(투 사 화상(12)) 전체가 들어가는 최단 거리 위치(제1 상태, 가위치(假位置))에 스크린(10)을 설치한다. 프로젝터(20)는 스크린(10)을 향해 캘리브레이션 화상을 투사하고, 투사 화상(12)의 4개 모서리의 촬상면에서의 좌표를 도출하여 최단 투사 영역 정보로서 기억한다(단계 S1).
보다 구체적으로는, 캘리브레이션 화상 정보 생성부(170)는 완전 백색(화상 전체가 백색)의 단색 캘리브레이션 화상용의 화상 정보를 생성하고, 신호 출력부(160)는 당해 화상 정보의 디지털 신호를 화상 투사부(190)로 출력한다.
화상 투사부(190)는 당해 디지털 신호에 기초하여, 스크린(10)을 향해 완전 백색의 캘리브레이션 화상을 투사한다. 이에 따라, 스크린(10)에는 완전 백색의 캘리브레이션 화상이 표시된다.
촬상부(180)는 투사 화상(12)을 포함하는 영역을 촬상면을 통하여 촬상하여 촬상 정보를 생성한다. 여기서, 촬상 정보는, 예를 들면, 휘도값, XYZ값 등의 휘도값을 생성할 수 있는 화상 신호값을 센서(60)의 화소마다 나타내는 정보이다. 한편, 여기서 XYZ값이란 국제 조명 위원회(CIE)에 의해 제정된 국제 규격으로, 기기 독립색(機器獨立色)의 일종인 화상 신호값이다.
여기서, 촬상면과 투사 상태에 대해서 설명한다.
도5는 본 실시형태의 일례에 따른 촬상면(17)을 나타내는 모식도이다. 또한, 도6은 본 실시형태의 일례에 따른 투사 상태를 평면적으로 나타내는 모식도이다. 또한, 도7은 본 실시형태의 일례에 따른 투사 상태를 측면적으로 나타내는 모식도이다.
도5에 나타낸 촬상면(17)은 센서(60)가 화상을 포착하는 면이고, 센서(60)의 촬상 정보를 구형으로 모식적으로 나타내는 영역이기도 하다. 촬상면(17)으로서는, 구체적으로는, 예를 들면, CCD 센서의 촬상면 등이 해당한다.
또한, 센서(60)의 촬상 범위에 캘리브레이션 화상 전체가 들어가는 최단 거리에 스크린(10)을 설치한 경우의 투사 화상(14)은 촬상면(17)에서는 최단 투사 영역(15)이고, 4개의 꼭지점 A0~D0로 둘러싸인 영역이다.
또한, 실제 사용 환경에서의 투사 화상(12)은, 촬상면(17)에서는 현투사 영역(13)이고, 4개의 꼭지점 A~D으로 둘러싸인 영역이다.
투사 영역 정보 생성부(150)는 촬상부(180)로부터의 투사 화상(14)의 촬상 정보에 기초하여, 최단 투사 영역(15)의 4개의 꼭지점 A0~D0의 촬상면(17)에서의 좌표를 나타내는 최단 투사 영역 정보(제1 투사 영역 정보, 가투사 영역 정보)를 생성한다.
또한, 제조업자는 최단 거리에서의 투사로부터 최장 거리에서의 투사에 이르기까지 프로젝터(20)의 위치를 스크린(10)으로부터 거리를 떨어뜨리면서 센서(60)에 의한 촬상을 수행한다. 한편, 여기서 최장 거리란 프로젝터(20)와 스크린(10)이 정면으로 대향하고 있는 상태에서, 제조업체로서 소정의 품질을 보증하는 가장 긴 투사 광축상의 거리이다.
또한, 보정용 정보 생성부(120)는 최단 거리에서의 투사로부터 최장 거리에서의 투사에 이르기까지의 투사 영역 정보와, 각 시점에서의 투사 거리를 파악한다. 그리고, 보정용 정보 생성부(120)는, 각각의 투사 거리에서, 투사 화상(12)의 촬상면(17)에서의 4개 모서리의 좌표가 최단 거리 투사시의 투사 화상(12)의 4개 모서리의 좌표와 비교해서 어느 정도(예를 들면, 몇 도트 등) 어긋나 있는지를 나타내는 좌표간 거리를 연산한다.
또한, 보정용 정보 생성부(120)는 당해 좌표간 거리와 투사 거리를 관련지은 2차원 룩업 테이블(lookup table)을 투사 거리 데이터로서 생성하여 기억한다.
이상의 순서대로, 제조업자는 최단 거리에서의 투사로부터 최장 거리에서의 투사에 이르기까지의 좌표간 거리, 투사 거리가 관련지워진 투사 거리 데이터, 및 최단 투사 영역 정보가 기억된 상태에서 프로젝터(20)를 출하할 수 있다.
그리고, 프로젝터(20)의 사용자가 실제의 사용 환경에서 사용할 때, 투사 영역 정보 생성부(150)는 실제의 사용 환경에서의 촬상부(180)로부터의 투사 화상(12)의 촬상 정보에 기초하여, 현투사 영역(13)의 4개 꼭지점 A~D의 촬상면(17)에서의 좌표를 나타내는 현투사 영역 정보(제2 투사 영역 정보)를 생성한다(단계 S2).
보정용 정보 생성부(120)는, 최단 투사 영역 정보 및 현투사 영역 정보에 기초하여, 현투사 영역(13)의 꼭지점과, 당해 꼭지점에 대응하는 최단 투사 영역(15)의 꼭지점 사이의 촬상면(17)에서의 좌표간 거리를 도출한다(단계 S3).
그리고, 보정용 정보 생성부(120)는 당해 좌표간 거리와 투사 거리 데이터에 기초하여 투사 거리를 도출한다(단계 S4).
도8은 본 실시형태의 일례에 따른 투사 거리를 나타내는 모식도이다. 또한, 도9는 본 실시형태의 일례에 따른 투사 거리 데이터의 데이터 구조를 나타내는 모 식도이다.
렌즈(198)를 포함하는 투사 렌즈부(50)의 투사광의 발사 위치(투사 기준 위치)를 원점으로 하고, 렌즈 평면을 2차원 XY 평면, 투사광의 광축을 3번째 차원의 Z축이라 가정한다. 이 경우, 보정용 정보 생성부(120)는 투사 화상(12)의 각 꼭지점 A,B,C,D로부터 Z축까지의 최단점과 원점의 Z축상의 투사 거리 Ad, Bd, Cd, Dd를 도출한다.
보다 구체적으로는, 보정용 정보 생성부(120)는 도출한 좌표간 거리와, 좌표간 거리와 투사 거리의 관계를 나타내는 투사 거리 데이터에 기초하여, 투사 화상(12)의 4개 모서리까지의 투사 거리 Ad, Bd, Cd, Dd를 도출한다. 예를 들면, 도9에 나타낸 투사 거리 데이터에서, 좌표간 거리가 0도트(dot)인 경우, 투사 거리는 1.5m이다. 한편, 투사 거리 데이터는 4개의 꼭지점의 공통의 데이터이어도 좋고, 4개의 꼭지점이 각각 개별적인 데이터이어도 좋다.
또한, 도6 및 도7에 나타낸 바와 같이, 투사 렌즈부(50)의 반화각(半畵角)이, 우측방향은 θR, 좌측방향은 θL, 상측방향은 θU, 하측방향은 θD인 것이라 가정한다.
이 경우, 투사 화상(12)의 4개 모서리의 프로젝터 좌표 A'B'C'D'(공간 광변조기(192)의 처리용 3차원 공간에서의 좌표)는, A'(A'x,A'y,A'z)=(Ad*tan(θL),Ad*tan(θD),Ad), B'(B'x,B'y,B'z)=(Bd*tan(θL),Bd*tan(θU),Bd), C'(C'x,C'y,C'z)=(Cd*tan(θR),Cd*tan(θU),Cd), D'(D'x,D'y,D'z)=(Dd*tan(θR),Dd*tan(θD),Dd)가 된다.
보정용 정보 생성부(120)는 이들 중 3개의 점을 이용하여 투사 화상(12)이 표시된 스크린(10)의 법선 벡터 N(Nx, Ny, Nz)를 연산한다. 예를 들면, A'C'D'의 3개의 점을 이용하는 경우, Nx=(D'y-C'y)*(A'z-D'z)-(D'z-C'z)*(A'y-D'y), Ny=(D'z-C'z)*(A'x-D'x)-(D'x-C'x)*(A'z-D'z), Nz=(D'x-C'x)*(A'y-D'y)-(D'y-C'y)*(A'x-D'x)가 된다.
또한, 보정용 정보 생성부(120)는, 법선 벡터 N과 투사 렌즈부(50)의 광축의 방향 벡터 (0,0,1)이 이루는 각도(수평 방향 θx, 수직 방향 θy)를 도출한다(단계 S5). 한편, 이 각도가 스크린(10)과 프로젝터(20)의 투사광의 광축이 이루는 각도에 상당한다.
또한, 보정용 정보 생성부(120)는 이 각도, 즉 θx 및 θy에 기초하여 보정 후의 투사 영역의 4개 모서리의 좌표를 보정용 데이터로부터 검색함으로써 보정 후의 투사 영역의 4개 모서리의 좌표 EFGH를 도출한다(단계 S6).
도10은 본 실시형태의 일례에 따른 보정 후의 투사 영역의 4개 모서리의 좌표를 나타내는 모식도이고, 도11은 본 실시형태의 일례에 따른 보정후의 투사 영역의 4개 모서리의 좌표를 나타내는 보정용 데이터이다.
도11에 나타낸 바와 같이, 상기 보정용 데이터는 θx, θy의 값과, 보정 후의 투사 영역의 4개 모서리의 좌표 EFGH 각각의 xy좌표가 관련지워져 있다. 한편, 여기서 보정 후의 투사 영역의 4개 모서리의 EFGH는, 예를 들면, 공간 광변조기(192)에서의 좌표이다.
보정용 정보 생성부(120)는, 도11에 나타낸 보정용 데이터를 이용하여 좌표 EFGH 각각의 xy좌표를 이용하여 화상 왜곡 보정용 정보를 생성하고(단계 S7), 당해 화상 왜곡 보정용 정보를 왜곡 보정부(130)로 송신한다. 한편, 여기서 화상 왜곡 보정용 정보로서는, 예를 들면, 왜곡 보정 전의 화상의 4개 모서리의 좌표와, 왜곡 보정 후의 화상의 4개 모서리의 좌표의 차분값(差分値)을 나타내는 정보 등이 해당한다.
그리고, 왜곡 보정부(130)는 당해 화상 왜곡 보정용 정보에 기초하여, 화상의 왜곡을 보정하도록 화상 신호를 보정한다(단계 S8). 한편, 왜곡 보정부(130)는 화상 왜곡 보정용 정보에 기초하여, 룩업 테이블이나 행렬 등의 왜곡 보정용 데이터를 보정함으로써 화상 신호를 간접적으로 보정해도 좋고, 왜곡 보정용 데이터를 이용하지 않고 화상 신호를 직접적으로 보정해도 좋다.
이에 따라, 화상 투사부(190)는 화상의 왜곡이 보정된 화상을 투사할 수 있다.
이상과 같이, 본 실시형태에 따르면, 1개의 센서(60)로 투사 기준점인 투사 렌즈부(50)의 투사광의 발사점으로부터 스크린(10)까지의 거리와 각도를 측정함으로써, 투사 화상(12)의 왜곡을 보정할 수 있다.
이에 따라, 본 실시형태의 화상 처리 시스템의 제조업자는, 복수의 CCD 카메라 등을 이용하여 투사 화상의 3차원 좌표를 검출하는 방법에 비해, 보다 간단한 구조로, 또한 보다 낮은 비용으로 제조 가능한 화상 처리 시스템을 사용자에게 제공할 수 있다.
또한, 본 실시형태에 따르면, 스크린(10)의 4개 모서리를 이용하지 않고 투 사 화상(12)의 왜곡을 보정할 수 있다. 즉, 본 실시형태에 따르면, 투사 대상물로서 각종 투사 대상물(예를 들면, 화이트 보드, 벽 등)을 적용할 수 있다. 또한, 투사 대상물의 색이나 재질의 영향도 받지 않는다. 따라서, 본 실시형태에 따르면, 범용성을 보다 향상시킬 수 있다.
또한, 본 실시형태에 따르면, 프로젝터(20)는 최단 거리 투사시의 투사 화상(12)의 촬상면(17)에서의 좌표를 기준으로 함으로써, 좌표의 방향 정보를 이용하지 않고, 현투사 영역(13)의 꼭지점과, 당해 꼭지점에 대응하는 최단 투사 영역(15)의 꼭지점 사이의 촬상면(17)에서의 좌표간 거리에 기초하여 투사 거리를 도출할 수 있다. 이에 따라, 프로젝터(20)는 보다 간단하게 투사 거리를 도출하여 투사 화상(12)의 왜곡을 보정할 수 있다.
(변형예)
한편, 본 발명의 적용은 전술한 실시예로 한정되지 않는다.
예를 들면, 프로젝터(20)가 초점 조정 기능을 갖는 경우, 프로젝터(20)에 보정용 정보 생성부(120)에 의해 생성된 프로젝터(20)로부터 스크린(10)까지의 거리 정보에 기초하여 자동 초점 조정(오토 포커스)을 수행하는 제어 수단을 설치해도 좋다.
또한, 전술한 실시예에서는 센서(60)는 프로젝터(20)에 고정되어 있지만, 예를 들면, 센서(60)의 위치 조정 기구(예를 들면, 암(ARM) 기구 등)를 설치하고, 캘리브레이션시에 투사 렌즈부(50)와 센서(60)의 위치가 더욱 떨어진 상태에서 센서 (60)가 투사 화상(12)을 센싱해도 좋다.
이에 따르면, 센서(60)의 측정 정밀도를 더욱 향상시킬 수 있다.
또한, 전술한 실시예에서는 프로젝터(20)는 실제 사용 상태에 있는 촬상 정보에 기초하여 현투사 영역 정보를 생성하고, 캘리브레이션 화상이 촬상 범위로 들어가는 최단 거리에 있는 상태의 촬상 정보에 기초하여 가투사 영역 정보를 생성하였지만, 최단 거리가 아니어도, 프로젝터(20)와 스크린(10)이, 캘리브레이션 화상이 촬상 범위로 들어간 상태이고, 또한 실제 사용 상태와 다른 위치 관계에 있는 상태의 촬상 정보에 기초하여 가투사 영역 정보를 생성해도 좋다.
또한, 전술한 실시예에서는 좌표간 거리와 투사 거리가 관련지워진 투사 거리 데이터로서 2차원 룩업 테이블을 이용하였지만, 예를 들면, 좌표간 거리를 입력하여 투사 거리를 출력하는 함수를 이용해도 좋다.
또한, 전술한 실시예에서는 완전 백색의 캘리브레이션 화상을 이용하였지만, 백색 이외의 단색 캘리브레이션 화상을 이용해도 좋다. 또한, 프로젝터(20)는 완전 흑색(화상 전체가 흑색)의 캘리브레이션 화상을 투사하고, 촬상하여 촬상 정보를 생성하고, 완전 백색의 캘리브레이션 화상을 투사하고, 촬상하여 촬상 정보를 생성하고, 각 촬상 정보에 포함되는 대응하는 화소마다의 휘도값의 비를 비교하여, 소정값 이상의 휘도비로 이루어진 화소 영역을 투사 영역으로서 추출해도 좋다.
이에 따르면, 프로젝터(20)는 스크린(10)의 흠집(傷)이나 스크린(10)으로의 외광(外光) 등의 영향을 받지 않고, 보다 정확하게 투사 영역을 추출할 수 있다.
또한, 전술한 실시예에서는 화상 처리 시스템으로서 프로젝터(20)를 이용하 였지만, 본 발명은 프로젝터(20) 이외에도 CRT(Cathode Ray Tube), LED(Light Emitting Diode), EL(Electro Luminescence) 등의 디스플레이용의 화상 처리 시스템에도 유효하다.
또한, 프로젝터(20)로서는, 예를 들면, 액정 프로젝터, DMD(Digital Micromirror Device)를 이용한 프로젝터 등을 이용해도 좋다. 한편, DMD는 미국 텍사스 인스트루먼트사의 상표이다.
또한, 전술한 프로젝터(20)의 기능은, 예를 들면, 프로젝터 단일체로 실장해도 좋고, 복수의 처리 장치로 분산하여(예를 들면, 프로젝터와 PC로 분산 처리) 실장해도 좋다.
본 발명에 의하면, 1개의 센서로 투사 기준점으로부터 투사 대상까지의 거리와 각도를 측정함으로써, 투사 화상의 왜곡을 보정할 수 있는 화상 처리 시스템, 프로젝터 및 화상 처리 방법을 제공할 수 있다.

Claims (5)

  1. 구형(矩形)의 캘리브레이션 화상을 표시하기 위한 화상 정보를 생성하는 캘리브레이션 화상 정보 생성 수단,
    상기 화상 정보에 기초하여, 투사 대상물을 향해 캘리브레이션 화상을 투사하는 투사 수단,
    투사된 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하여 촬상 정보를 생성하는 촬상 수단,
    상기 캘리브레이션 화상 전체가 상기 촬상 수단의 촬상 범위로 들어간 상태이고, 또한 상기 투사 수단으로부터 상기 투사 대상물까지의 거리가 실제 사용 상태에서의 거리와 다른 상태에서의 촬상 정보에 기초하여, 상기 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 가투사(假投寫) 영역 정보를 생성하는 것과 함께, 실제 사용 상태에서의 촬상 정보에 기초하여, 상기 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 현투사(現投寫) 영역 정보를 생성하는 투사 영역 정보 생성 수단,
    화상 왜곡 보정용 정보를 생성하는 보정용 정보 생성 수단, 및
    상기 화상 왜곡 보정용 정보에 기초하여, 화상의 왜곡을 보정하는 왜곡 보정 수단
    을 포함하고,
    상기 보정용 정보 생성 수단은,
    상기 가투사 영역 정보에 포함되는 상기 4개 모서리의 좌표와, 상기 현투사 영역 정보에 포함되는 상기 4개 모서리의 좌표의 각각의 좌표간 거리를 도출하고,
    당해 좌표간 거리와 투사 거리가 관련지워진 투사 거리 데이터와 상기 좌표간 거리에 기초하여, 상기 투사 수단으로부터 상기 투사 대상물에서의 상기 캘리브레이션 화상의 4개 모서리까지의 상기 투사 수단의 광축상의 투사 거리를 도출하고,
    당해 투사 거리와 상기 투사 수단의 반화각(半畵角)에 기초하여, 상기 투사 수단이 화상처리하기 위한 3차원 공간에서의 상기 캘리브레이션 화상의 4개 모서리 중 적어도 3개의 3차원 좌표를 도출하고,
    당해 3차원 좌표에 기초하여, 상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출하고,
    당해 각도에 기초하여, 상기 화상 왜곡 보정용 정보를 생성하는
    화상 처리 시스템.
  2. 제1항에 있어서,
    상기 보정용 정보 생성 수단은,
    상기 3차원 좌표에 기초하여, 상기 투사 대상물의 법선 벡터를 도출하고,
    당해 법선 벡터와 상기 투사 수단의 광축의 방향 벡터에 기초하여, 상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출하는
    화상 처리 시스템.
  3. 구형의 캘리브레이션 화상을 표시하기 위한 화상 정보를 생성하는 캘리브레이션 화상 정보 생성 수단,
    상기 화상 정보에 기초하여, 투사 대상물을 향해 캘리브레이션 화상을 투사하는 투사 수단,
    투사된 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하여 촬상 정보를 생성하는 촬상 수단,
    상기 캘리브레이션 화상 전체가 상기 촬상 수단의 촬상 범위로 들어간 상태이고, 또한 상기 투사 수단으로부터 상기 투사 대상물까지의 거리가 실제 사용 상태에서의 거리와 다른 상태에서의 촬상 정보에 기초하여, 상기 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 가투사 영역 정보를 생성하는 것과 함께, 실제 사용 상태에서의 촬상 정보에 기초하여, 상기 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 현투사 영역 정보를 생성하는 투사 영역 정보 생성 수단,
    화상 왜곡 보정용 정보를 생성하는 보정용 정보 생성 수단, 및
    상기 화상 왜곡 보정용 정보에 기초하여, 화상의 왜곡을 보정하는 왜곡 보정 수단
    을 포함하고,
    상기 보정용 정보 생성 수단은,
    상기 가투사 영역 정보에 포함되는 상기 4개 모서리의 좌표와, 상기 현투사 영역 정보에 포함되는 상기 4개 모서리의 좌표의 각각의 좌표간 거리를 도출하고,
    당해 좌표간 거리와 투사 거리가 관련지워진 투사 거리 데이터와 상기 좌표간 거리에 기초하여, 상기 투사 수단으로부터 상기 투사 대상물에서의 상기 캘리브레이션 화상의 4개 모서리까지의 상기 투사 수단의 광축상의 투사 거리를 도출하고,
    당해 투사 거리와 상기 투사 수단의 반화각에 기초하여, 상기 투사 수단이 화상처리하기 위한 3차원 공간에서의 상기 캘리브레이션 화상의 4개 모서리 중 적어도 3개의 3차원 좌표를 도출하고,
    당해 3차원 좌표에 기초하여, 상기 투사 수단의 광축과 상기 투사 대상물이 이루는 각도를 도출하고,
    당해 각도에 기초하여, 상기 화상 왜곡 보정용 정보를 생성하는
    프로젝터.
  4. 화상 투사 장치와 투사 대상물의 위치 관계가 구형의 캘리브레이션 화상 전체가 촬상 범위로 들어가는 제1 상태에서, 상기 화상 투사 장치가 상기 캘리브레이션 화상을 상기 투사 대상물에 투사하고, 투사한 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하고, 당해 촬상면에서의 상기 캘리브레이션 화상 의 4개 모서리의 좌표를 나타내는 제1 투사 영역 정보를 생성하고,
    화상 투사 장치와 투사 대상물의 위치 관계가 구형의 캘리브레이션 화상 전체가 촬상 범위로 들어가고, 또한 상기 제1 상태와 다른 제2 상태에서, 상기 화상 투사 장치가 상기 캘리브레이션 화상을 상기 투사 대상물로 투사하고, 투사한 상기 캘리브레이션 화상을 포함하는 영역을 촬상면을 통하여 촬상하고, 당해 촬상면에서의 상기 캘리브레이션 화상의 4개 모서리의 좌표를 나타내는 제2 투사 영역 정보를 생성하고,
    상기 제1 투사 영역 정보에 포함되는 4개 모서리의 좌표와, 상기 제2 투사 영역 정보에 포함되는 4개 모서리의 좌표의 각각의 좌표간 거리를 도출하고,
    당해 좌표간 거리와 투사 거리가 관련지워진 투사 거리 데이터와 상기 좌표간 거리에 기초하여, 상기 화상 투사 장치로부터 상기 투사 대상물상의 상기 캘리브레이션 화상의 4개 모서리까지의 상기 화상 투사 장치의 투사광의 광축상의 투사 거리를 도출하고,
    당해 투사거리와 상기 투사광의 반화각에 기초하여, 상기 화상 투사 장치가 화상처리하기 위한 3차원 공간에서의 상기 캘리브레이션 화상의 4개 모서리 중 적어도 3개의 3차원 좌표를 도출하고,
    당해 3차원 좌표에 기초하여, 상기 투사광의 광축과 상기 투사 대상물이 이루는 각도를 도출하고,
    당해 각도에 기초하여, 화상 왜곡 보정용 정보를 생성하고,
    당해 화상 왜곡 보정용 정보에 기초하여, 화상의 왜곡을 보정하는
    화상 처리 방법.
  5. 제4항에 있어서,
    상기 투사광의 광축과 상기 투사 대상물이 이루는 각도를 도출할 때,
    상기 3차원 좌표에 기초하여 상기 투사 대상물의 법선 벡터를 도출하고,
    당해 법선 벡터와 상기 투사광의 광축 방향 벡터에 기초하여, 상기 투사광의 광축과 상기 투사 대상물이 이루는 각도를 도출하는
    화상 처리 방법.
KR1020040053687A 2003-07-11 2004-07-09 화상 처리 시스템, 프로젝터 및 화상 처리 방법 KR100648592B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003273358A JP2005033703A (ja) 2003-07-11 2003-07-11 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JPJP-P-2003-00273358 2003-07-11

Publications (2)

Publication Number Publication Date
KR20050009163A KR20050009163A (ko) 2005-01-24
KR100648592B1 true KR100648592B1 (ko) 2006-11-24

Family

ID=33448064

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040053687A KR100648592B1 (ko) 2003-07-11 2004-07-09 화상 처리 시스템, 프로젝터 및 화상 처리 방법

Country Status (6)

Country Link
US (1) US7470029B2 (ko)
EP (1) EP1496694A3 (ko)
JP (1) JP2005033703A (ko)
KR (1) KR100648592B1 (ko)
CN (1) CN100426129C (ko)
TW (1) TWI249351B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428064B1 (ko) 2008-02-22 2014-08-07 엘지전자 주식회사 화면 왜곡 보정 장치 및 방법

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3951984B2 (ja) * 2003-08-22 2007-08-01 日本電気株式会社 画像投影方法、及び画像投影装置
JP3879858B2 (ja) 2003-09-26 2007-02-14 セイコーエプソン株式会社 画像処理システム、プロジェクタおよび画像処理方法
US20070030452A1 (en) * 2005-08-08 2007-02-08 N-Lighten Technologies Image adaptation system and method
US7706573B1 (en) * 2005-09-19 2010-04-27 Motamedi Manouchehr E Remote distance-measurement between any two arbitrary points using laser assisted optics
CN100417231C (zh) * 2006-05-31 2008-09-03 北京航空航天大学 立体视觉半实物仿真***及方法
KR101265950B1 (ko) * 2007-09-18 2013-05-23 삼성전자주식회사 프로젝터 및 상기 프로젝터의 프로젝션 제어 방법
DE102008043189A1 (de) * 2007-12-03 2009-06-04 Robert Bosch Gmbh Projektion mit dynamischer Anpassung der Bilddaten
JP4341723B2 (ja) * 2008-02-22 2009-10-07 パナソニック電工株式会社 光投影装置、照明装置
US20090310103A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving information associated with the coordinated use of two or more user responsive projectors
US8733952B2 (en) * 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US20090313152A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems associated with projection billing
US20100066689A1 (en) * 2008-06-17 2010-03-18 Jung Edward K Y Devices related to projection input surfaces
US8944608B2 (en) * 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US20090310039A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for user parameter responsive projection
US8267526B2 (en) * 2008-06-17 2012-09-18 The Invention Science Fund I, Llc Methods associated with receiving and transmitting information related to projection
US20110176119A1 (en) * 2008-06-17 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for projecting in response to conformation
US8308304B2 (en) * 2008-06-17 2012-11-13 The Invention Science Fund I, Llc Systems associated with receiving and transmitting information related to projection
US8384005B2 (en) * 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US8608321B2 (en) * 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US8936367B2 (en) * 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8376558B2 (en) * 2008-06-17 2013-02-19 The Invention Science Fund I, Llc Systems and methods for projecting in response to position change of a projection surface
US8820939B2 (en) * 2008-06-17 2014-09-02 The Invention Science Fund I, Llc Projection associated methods and systems
US8540381B2 (en) * 2008-06-17 2013-09-24 The Invention Science Fund I, Llc Systems and methods for receiving information associated with projecting
US20100066983A1 (en) * 2008-06-17 2010-03-18 Jun Edward K Y Methods and systems related to a projection surface
US20090309826A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US20090309828A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for transmitting instructions associated with user parameter responsive projection
US8641203B2 (en) * 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US20090312854A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for transmitting information associated with the coordinated use of two or more user responsive projectors
US8723787B2 (en) * 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
US8602564B2 (en) * 2008-06-17 2013-12-10 The Invention Science Fund I, Llc Methods and systems for projecting in response to position
US20090313150A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods associated with projection billing
DE102008047376A1 (de) * 2008-09-15 2010-04-15 Endress + Hauser Wetzer Gmbh + Co. Kg Feldgerät
US20100085350A1 (en) * 2008-10-02 2010-04-08 Microsoft Corporation Oblique display with additional detail
JP2010288062A (ja) * 2009-06-11 2010-12-24 Seiko Epson Corp プロジェクター、プログラム、情報記憶媒体および画像投写方法
JP5327468B2 (ja) * 2009-08-04 2013-10-30 セイコーエプソン株式会社 プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
TWI417635B (zh) * 2009-12-30 2013-12-01 Qisda Corp 電子裝置及投影機
TWI439788B (zh) * 2010-01-04 2014-06-01 Ind Tech Res Inst 投影校正系統及方法
CN101872108B (zh) * 2010-05-25 2013-07-03 中兴通讯股份有限公司 投影仪及其显示画面的调整方法、移动终端
WO2012079249A1 (zh) * 2010-12-17 2012-06-21 海尔集团公司 投影显示***
JP5849522B2 (ja) * 2011-08-18 2016-01-27 株式会社リコー 画像処理装置、プロジェクタ、プロジェクタシステム、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
CN103048865A (zh) * 2011-10-14 2013-04-17 宏碁股份有限公司 投影元件以及投影三维图像的方法
US9152022B2 (en) * 2013-07-11 2015-10-06 Intel Corporation Techniques for adjusting a projected image
US9691357B2 (en) 2013-08-09 2017-06-27 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device thereof, image calibration method and apparatus, and electronic device thereof
CN104349096B (zh) * 2013-08-09 2017-12-29 联想(北京)有限公司 一种图像标定方法、装置及电子设备
CN104349095B (zh) * 2013-08-09 2017-08-29 联想(北京)有限公司 一种图像调整方法、装置及电子设备
KR20150066931A (ko) * 2013-12-09 2015-06-17 씨제이씨지브이 주식회사 상영관의 가시 영역을 표현하는 방법
CN103686107B (zh) * 2013-12-13 2017-01-25 华为技术有限公司 一种基于投影图像的处理方法及装置
CN104951200B (zh) * 2014-03-26 2018-02-27 联想(北京)有限公司 一种执行界面操作的方法和装置
JP6458396B2 (ja) * 2014-08-18 2019-01-30 株式会社リコー 画像処理システム、及び画像投影装置
CN104486573B (zh) * 2014-12-22 2017-11-28 联想(北京)有限公司 一种信息处理方法和电子设备
JP6459706B2 (ja) * 2015-03-27 2019-01-30 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
CN105049762A (zh) * 2015-07-09 2015-11-11 山西寰烁电子科技股份有限公司 投影***
EP3252709B1 (en) * 2015-09-15 2019-05-22 Huawei Technologies Co., Ltd. Image distortion correction method and apparatus
CN105607395A (zh) * 2016-03-08 2016-05-25 苏州佳世达光电有限公司 投影装置及其校正方法
CN106254843A (zh) * 2016-08-24 2016-12-21 成都市极米科技有限公司 一种投影仪和投影画面几何校正方法、装置及***
CN108632585B (zh) * 2017-03-24 2021-03-09 中兴通讯股份有限公司 一种图像校正方法及装置、存储介质、投影设备
JP2019005064A (ja) * 2017-06-22 2019-01-17 株式会社ユニバーサルエンターテインメント 遊技機の製造装置
CN108718404B (zh) * 2018-05-26 2021-04-20 明基智能科技(上海)有限公司 影像校正方法及影像校正***
TWI766206B (zh) * 2018-11-13 2022-06-01 創惟科技股份有限公司 影像的修正方法及其裝置
JP7028814B2 (ja) * 2019-02-07 2022-03-02 ファナック株式会社 外形認識装置、外形認識システム及び外形認識方法
KR20220015000A (ko) * 2020-07-30 2022-02-08 삼성전자주식회사 프로젝터 및 그 제어 방법
CN113027075A (zh) * 2021-03-10 2021-06-25 成都昊图新创科技有限公司 一种标线装置和标线方法
CN113645456B (zh) * 2021-09-22 2023-11-07 业成科技(成都)有限公司 投影图像校正方法、投影***及可读存储介质
CN116156132B (zh) * 2022-12-27 2023-11-14 深圳市宇通联发科技有限公司 投影图像校正方法、装置、电子设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980058919A (ko) * 1996-12-30 1998-10-07 구자홍 컨버젼스 자동 조정 장치 및 방법
KR19990050122A (ko) * 1997-12-16 1999-07-05 윤종용 프로젝션 텔레비젼의 컨버젼스 조정방법 및 장치
JP2001320652A (ja) 2000-05-11 2001-11-16 Nec Corp プロジェクタ装置
KR20040036348A (ko) * 2002-10-24 2004-04-30 엘지전자 주식회사 프로젝션 티브이의 화면 조정 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089309A (ja) * 1994-06-23 1996-01-12 Canon Inc 表示方法及び装置
JPH0888860A (ja) * 1994-09-19 1996-04-02 Mitsubishi Electric Corp 自動画像歪補正装置
JPH08219733A (ja) * 1995-02-14 1996-08-30 Matsushita Electric Ind Co Ltd 三次元スキャナ
JPH08331610A (ja) * 1995-06-05 1996-12-13 Mitsubishi Electric Corp 自動画像調整装置
JPH10200836A (ja) 1997-01-07 1998-07-31 Nikon Corp 画像投影装置
JP2000241874A (ja) 1999-02-19 2000-09-08 Nec Corp プロジェクタの自動画面位置調整方法及び装置
JP3509652B2 (ja) * 1999-08-23 2004-03-22 日本電気株式会社 プロジェクタ装置
US6753907B1 (en) 1999-12-23 2004-06-22 Justsystem Corporation Method and apparatus for automatic keystone correction
US6592228B1 (en) * 1999-12-24 2003-07-15 Matsushita Electric Industrial Co., Ltd Projector comprising a microcomputer for controlling zoom and focus adjustments utilizing pattern generation and calculation means
JP4961628B2 (ja) * 2000-08-11 2012-06-27 日本電気株式会社 投射映像補正システム及びその方法
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
CN1209914C (zh) * 2000-10-09 2005-07-06 台达电子工业股份有限公司 投影显示器的投影画面校正方法与装置
JP2002247614A (ja) 2001-02-15 2002-08-30 Ricoh Co Ltd プロゼェクタ
JP3664114B2 (ja) * 2001-07-16 2005-06-22 セイコーエプソン株式会社 プロジェクタによって投写される画像の画像処理
US6527395B1 (en) * 2001-12-10 2003-03-04 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating a projector with a camera
JP3844076B2 (ja) * 2003-03-07 2006-11-08 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4055010B2 (ja) * 2003-09-26 2008-03-05 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
TWI274513B (en) * 2004-07-23 2007-02-21 Seiko Epson Corp Image display method, image display equipment, optical scattering means, and image display program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980058919A (ko) * 1996-12-30 1998-10-07 구자홍 컨버젼스 자동 조정 장치 및 방법
KR19990050122A (ko) * 1997-12-16 1999-07-05 윤종용 프로젝션 텔레비젼의 컨버젼스 조정방법 및 장치
JP2001320652A (ja) 2000-05-11 2001-11-16 Nec Corp プロジェクタ装置
KR20040036348A (ko) * 2002-10-24 2004-04-30 엘지전자 주식회사 프로젝션 티브이의 화면 조정 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428064B1 (ko) 2008-02-22 2014-08-07 엘지전자 주식회사 화면 왜곡 보정 장치 및 방법

Also Published As

Publication number Publication date
TWI249351B (en) 2006-02-11
US7470029B2 (en) 2008-12-30
TW200503541A (en) 2005-01-16
EP1496694A3 (en) 2006-01-25
CN1577050A (zh) 2005-02-09
JP2005033703A (ja) 2005-02-03
US20050036117A1 (en) 2005-02-17
KR20050009163A (ko) 2005-01-24
EP1496694A2 (en) 2005-01-12
CN100426129C (zh) 2008-10-15

Similar Documents

Publication Publication Date Title
KR100648592B1 (ko) 화상 처리 시스템, 프로젝터 및 화상 처리 방법
KR100660039B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법
KR100698545B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법
KR100591708B1 (ko) 화상 처리 시스템, 프로젝터 및 화상 처리 방법
KR100571175B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법
KR100591731B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법
KR100593113B1 (ko) 화상 처리 시스템, 프로젝터 및 화상 처리 방법
US10319111B2 (en) Image projection device for 3D measurement and calibration method for calibration of camera and projector
JP3925521B2 (ja) スクリーンの一部の辺を用いたキーストーン補正
JP5257616B2 (ja) プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP4006601B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP5239611B2 (ja) 投写型表示装置および画像の補正方法
JP4572377B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2008211356A (ja) プロジェクタ、プログラムおよび情報記憶媒体
CN113630588A (zh) 图像投射***的控制方法和图像投射***
JP2010288062A (ja) プロジェクター、プログラム、情報記憶媒体および画像投写方法
JP5354163B2 (ja) プロジェクター、プログラムおよび情報記憶媒体
JP2006217370A (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121023

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131018

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee