KR20140136031A - 프로젝터 및 프로젝터의 제어 방법 - Google Patents

프로젝터 및 프로젝터의 제어 방법 Download PDF

Info

Publication number
KR20140136031A
KR20140136031A KR1020147028457A KR20147028457A KR20140136031A KR 20140136031 A KR20140136031 A KR 20140136031A KR 1020147028457 A KR1020147028457 A KR 1020147028457A KR 20147028457 A KR20147028457 A KR 20147028457A KR 20140136031 A KR20140136031 A KR 20140136031A
Authority
KR
South Korea
Prior art keywords
image
pattern
projection
projected
projector
Prior art date
Application number
KR1020147028457A
Other languages
English (en)
Other versions
KR101631568B1 (ko
Inventor
시키 후루이
Original Assignee
세이코 엡슨 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세이코 엡슨 가부시키가이샤 filed Critical 세이코 엡슨 가부시키가이샤
Publication of KR20140136031A publication Critical patent/KR20140136031A/ko
Application granted granted Critical
Publication of KR101631568B1 publication Critical patent/KR101631568B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

프로젝터는, 투사면에 화상을 투사하도록 구성된 투사부, 투사부로 하여금, 제1 패턴 및 제2 패턴을 포함하는 보정 패턴을 투사하도록 구성된 투사 제어부, 투사된 보정 패턴에 포함되는 제1 패턴 및 제2 패턴을 검출하여, 투사 화상의 왜곡을 보정하는 보정 제어부를 구비한다. 보정 제어부는, 스크린(SC)에 투사된 제2 패턴을 검출하고, 검출한 제2 패턴의 위치에 기초하여 제1 패턴의 위치를 검출한다.

Description

프로젝터 및 프로젝터의 제어 방법{PROJECTOR AND CONTROL METHOD FOR THE PROJECTOR}
본 발명은, 투사면에 화상을 투사하는 프로젝터 및 프로젝터의 제어 방법에 관한 것이다.
종래, 투사면에 화상을 투사하는 프로젝터에 있어서, 투사 화상의 사다리꼴 왜곡을 보정하는 기능을 구비한 것이 알려져 있다(예를 들면, 특허문헌 1 참조). 이러한 종류의 프로젝터는, 화상을 보정하기 위한 조정용 화상을 투사하고, 투사면을 촬영하고, 촬영 화상으로부터 구성 화상을 검출하여 왜곡 보정을 행한다. 이러한 조정용 화상은, 예를 들면 복수의 흰색의 측정점 및 직선으로 구성된다. 왜곡을 보정하는 처리에 있어서, 프로젝터는, 촬영 화상에서의 측정점 및 직선의 위치에 기초하여, 투사면에 대한 프로젝터의 각도 및 거리를 산출한다.
일본공개특허공보 2010-128102호
그런데, 투사면에 있어서의 조정용 화상의 위치는, 예를 들어, 프로젝터의 줌비(zoom ratio)의 영향 때문에 변화한다. 따라서, 투사면과 프로젝터와의 위치 관계를 알지 못한 상태에서는, 투사면의 어디에 조정용 화상이 위치하는지 알지 못한다. 이 때문에, 종래의 프로젝터는, 투사면의 전체를 대상으로 하여 조정용 화상을 탐색한다. 결과적으로, 그 검색은 시간 소비가 큰 프로세스이다. 따라서, 투사면에 투사된 조정용 화상을 단시간에 확실하게 검출하는 방법이 요망되고 있다.
본 발명의 임의의 형태들의 이점은, 투사면에 조정용 화상을 투사하고, 이 조정용 화상에 기초하여 보정 등의 처리를 행하는 프로젝터가, 투사면에 있어서의 조정용 화상을 신속하고 확실하게 검출할 수 있다는 것이다.
본 발명의 일 형태는 프로젝터로서, 투사면에 화상을 투사하도록 구성된 투사부와, 상기 투사부로 하여금, 제1 패턴 및 제2 패턴을 포함하는 조정용 화상을 투사하게 하도록 구성된 제어부와, 상기 투사부에 의해 투사된 상기 조정용 화상에 포함되는 상기 제1 패턴 및 상기 제2 패턴을 검출하여, 투사 화상의 왜곡을 보정하도록 구성된 보정부를 구비하는 프로젝터이다. 상기 보정부는, 상기 투사면에 투사된 상기 제2 패턴을 검출하고, 검출한 상기 제2 패턴의 위치에 기초하여 상기 제1 패턴의 위치를 검출한다.
본 발명의 상기 형태에 의하면, 조정용 화상에 포함되는 제2 패턴을 검출함으로써, 이 제2 패턴의 위치에 기초하여 제1 패턴의 위치를 검출할 수 있다. 이 때문에, 제1 패턴은, 제1 패턴을 검출하기 쉬운 위치 및 형상으로 형성되도록 하는 것이 요구되지 않는다. 따라서, 예를 들면, 검출하기 쉽게 배치된 제2 패턴과 투사 화상의 왜곡 보정에 적합한 제1 패턴을 이용하면, 조정용 화상을 신속하게 검출할 수 있어, 신속하게 고정밀도로 화상을 보정할 수 있다. 즉, 보정에 이용하는 제1 패턴의 형상에 관계없이, 프로젝터가 조정용 화상을 신속하게 검출할 수 있게 된다.
본 발명의 상기 형태의 프로젝터에 있어서, 상기 투사부는 투사 렌즈를 구비할 수 있다. 상기 제2 패턴은, 상기 투사 렌즈의 광축과 상기 투사면과의 교점의 근방에 투사되도록 배치될 수 있다.
이 구성에 의하면, 조정용 화상에 포함되는 제2 패턴은, 프로젝터의 줌비의 영향을 쉽게 받지 않도록 배치되어 있기 때문에, 이 제2 패턴의 위치는 프로젝터와 투사면과의 위치 관계에 관계없이 추정 가능하다. 이 때문에, 프로젝터는, 조정용 화상이 투사된 상태에서 신속하게 제2 패턴을 검출할 수 있고, 이 제2 패턴의 위치에 기초하여 추정을 행함으로써, 제1 패턴을 신속하게 검출할 수 있다.
본 발명의 상기 형태의 프로젝터에 있어서, 상기 제2 패턴의 적어도 일부는, 흰색, 또는, 상기 조정용 화상의 배경으로서 투사되는 화상의 색과 비교하여 고휘도를 갖는 색으로 채색된 복수의 평행한 선을 포함할 수 있다.
이 구성에 의하면, 조정용 화상에 포함되는 제2 패턴을, 보다 신속하게 검출할 수 있다.
본 발명의 상기 형태의 프로젝터는, 상기 투사면을 촬영하도록 구성된 촬상부를 구비할 수 있다. 상기 보정부는, 상기 촬상부의 촬영 화상으로부터 상기 제1 패턴을 검출하여, 투사 화상의 왜곡을 보정할 수 있다.
이 구성에 의하면, 투사면을 촬영하여 얻은 촬영 화상으로부터 제1 패턴을 신속하게 검출하여, 화상을 보정할 수 있다.
본 발명의 상기 형태의 프로젝터에 있어서, 상기 조정용 화상은, 상기 제2 패턴으로서, 상기 촬상부의 촬영 화상에 있어서 상기 투사 렌즈의 광축의 에피폴라선 상 또는 그 에피폴라선의 근방에 비추도록 배치된 직선을 포함할 수 있다.
이 구성에 의하면, 에피폴라선 상 또는 에피폴라선의 근방에 위치하는 제2 패턴은, 프로젝터의 줌비에 의한 영향을 쉽게 받지 않는다. 제2 패턴은 촬영 화상에 있어서 대체로 동일한 위치에 있어서 용이하게 검출할 수 있다. 이 때문에, 제2 패턴을 보다 신속하게 검출할 수 있다.
본 발명의 상기 형태의 프로젝터에 있어서, 상기 조정용 화상은, 상기 제2 패턴으로서, 상기 촬상부의 촬영 화상에 있어서 상기 투사 렌즈의 광축의 에피폴라선 상 또는 그 에피폴라선의 근방에 비추도록 배치된 소정 형상의 도형을 포함할 수 있다.
이 구성에 의하면, 제2 패턴은, 줌비에 관계없이 촬영 화상에 있어서 대체로 동일한 위치에 있기 때문에, 제2 패턴을 보다 신속하게 검출할 수 있다.
본 발명의 상기 형태의 프로젝터에 있어서, 상기 조정용 화상은, 상기 제2 패턴으로서, 상기 촬상부의 촬영 화상에 있어서 상기 투사 렌즈의 광축의 근방에 비추도록 구성된 소정의 도형을 포함할 수 있다.
이 구성에 의하면, 제2 패턴은 촬영 화상에 있어서 대체로 동일한 위치에 있기 때문에, 제2 패턴을 보다 신속하게 검출할 수 있다.
본 발명의 상기 형태의 프로젝터에 있어서, 상기 보정부는, 상기 투사 화상의 왜곡을 보정하는 처리의 개시 조건이 충족된 후, 소정의 완료 조건이 부합될 때까지, 상기 투사 화상의 왜곡을 보정하는 처리를 복수회 실행할 수 있다.
이 구성에 의하면, 상기 투사 화상의 왜곡을 보정하는 처리의 개시 조건이 충족된 후 소정의 완료 조건이 부합될 때까지, 상기 투사 화상의 왜곡을 보정하는 처리를 복수회 실행하고, 이 처리에서 조정용 화상을 검출하는 처리를, 신속하고 확실하게 실행할 수 있다. 이 때문에, 왜곡을 보정하는 처리에 필요로 하는 시간 및 처리의 부하를 줄일 수 있고, 예를 들면 당해 처리를 짧은 주기로 다수회 실행하는 것이 가능하다. 또한, 복수회의 처리를 행하는 것에 따른 대기 시간을 발생시키지 않도록 하여, 유저의 편리성의 향상을 실현할 수 있다.
본 발명의 다른 일 형태는 프로젝터의 제어 방법으로서, 투사면에 화상을 투사하도록 구성된 투사부를 구비한 프로젝터를 제어하고, 상기 투사부로 하여금, 제1 패턴 및 제2 패턴을 포함하는 조정용 화상을 투사하게 하고, 상기 투사부에 의해 투사된 상기 조정용 화상에 포함되는 상기 제1 패턴 및 상기 제2 패턴을 검출하여 상기 투사 화상의 왜곡을 보정하고, 상기 투사면에 투사된 상기 제2 패턴을 검출하고, 검출한 상기 제2 패턴의 위치에 기초하여 상기 제1 패턴의 위치를 검출하는 프로젝터의 제어 방법이다.
이 구성에 의하면, 조정용 화상에 포함되는 제2 패턴이 검출되기 때문에, 이 제2 패턴의 위치에 기초하여 제1 패턴의 위치를 검출할 수 있다. 이 때문에, 예를 들면 검출하기 쉽게 배치된 제2 패턴과, 투사 화상의 왜곡 보정에 적합한 제1 패턴을 이용하면, 조정용 화상을 신속하게 검출할 수 있어, 신속하고 고정밀도로 화상을 보정할 수 있다. 즉, 보정에 이용하는 제1 패턴의 형상에 관계없이, 프로젝터는 조정용 화상을 신속하게 검출할 수 있게 된다.
본 발명의 형태들에 의하면, 조정용 화상을 신속하고 확실하게 검출할 수 있다.
도 1은 실시 형태에 따른 프로젝터의 구성을 나타내는 블록도이다.
도 2a는 프로젝터와 스크린과의 상대 위치와 촬영 화상과의 관계를 나타내는 설명도로서, 프로젝터와 스크린과의 상대 위치를 나타낸다.
도 2b는 프로젝터와 스크린과의 상대 위치와 촬영 화상과의 관계를 나타내는 설명도로서, 프로젝터와 스크린과의 상대 위치를 나타낸다.
도 2c는 프로젝터와 스크린과의 상대 위치와 촬영 화상과의 관계를 나타내는 설명도로서, 촬영 화상에 있어서의 에피폴라선을 나타낸다.
도 3a는 프로젝터에 의해 투사되는 보정 패턴을 나타내는 설명도로서, 투사되는 화상의 예를 나타낸다.
도 3b는 프로젝터에 의해 투사되는 보정 패턴을 나타내는 설명도로서, 보정 패턴의 예를 나타낸다.
도 3c는 프로젝터에 의해 투사되는 보정 패턴을 나타내는 설명도로서, 광변조 장치가 화상과 보정 패턴을 묘화한 예를 나타낸다.
도 3d는 프로젝터에 의해 투사되는 보정 패턴을 나타내는 설명도로서, 촬영 화상의 예를 나타낸다.
도 4a는 프로젝터의 줌비와 촬영 화상과의 관계를 나타내는 설명도로서, 투사 거리와 줌비가 여러 가지로 변화될 때에 얻은 촬영 화상의 예를 나타낸다.
도 4b는 프로젝터의 줌비와 촬영 화상과의 관계를 나타내는 설명도로서, 투사 거리와 줌비가 여러 가지로 변화될 때에 얻은 촬영 화상의 예를 나타낸다.
도 4c는 프로젝터의 줌비와 촬영 화상과의 관계를 나타내는 설명도로서, 투사 거리와 줌비가 여러 가지로 변화될 때에 얻은 촬영 화상의 예를 나타낸다.
도 4d는 프로젝터의 줌비와 촬영 화상과의 관계를 나타내는 설명도로서, 투사 거리와 줌비가 여러 가지로 변화될 때에 얻은 촬영 화상의 예를 나타낸다.
도 5는 프로젝터의 동작을 설명하는 플로우 차트이다.
도 6a는 보정 패턴의 다른 예를 나타내는 도면으로서, 보정 패턴의 예를 나타낸다.
도 6b는 보정 패턴의 다른 예를 나타내는 도면으로서, 광변조 장치가 화상과 보정 패턴을 묘화한 예를 나타낸다.
도 6c는 보정 패턴의 다른 예를 나타내는 도면으로서, 촬영 화상의 예를 나타낸다.
(발명을 실시하기 위한 형태)
이하, 도면을 참조하여 본 발명을 적용한 실시 형태가 설명된다.
도 1은, 실시 형태에 따른 프로젝터(100)의 전체 구성을 나타내는 블록도이다. 프로젝터(100)는, 내장된 화상 기억부(171)에 기억한 화상, 또는, 퍼스널 컴퓨터 또는 각종 영상 플레이어 등의 외부의 화상 공급 장치(도시 생략)로부터 입력되는 화상 데이터에 기초하여, 스크린(SC)에 화상을 투사한다. 본 실시예에서는, 스크린(SC)은 거의 직립하고 있으며, 스크린면은 직사각형 형상으로 형성되어 있다.
프로젝터(100)에 입력되는 화상 데이터는, 동화상(영상)의 데이터 또는 정지화상의 데이터 중 어느 데이터라도 좋다. 프로젝터(100)는 영상을 스크린(SC)에 투사할 수 있고, 정지 화상을 스크린(SC)에 계속 투사할 수 있다. 이하에서 설명되는 실시 형태에서 설명되는 예에서는, 외부의 화상 공급 장치로부터 케이블(200)을 통하여 입력된 아날로그 화상 신호에 기초하여 화상을 투사한다.
프로젝터(100)는, 크게 나누어 광학적인 화상의 형성을 행하는 투사부(101)(투사 수단)와, 프로젝터(100) 전체의 동작을 제어하여, 화상 신호를 전기적으로 처리하는 화상 처리계로 이루어진다. 투사부(101)는, 광원(140), 광변조 장치(130), 투사 광학계(150)로 구성된다. 광원(140)으로서는, 제논 램프, 초고압 수은 램프, LED(Light Emitting Diode), 레이저 광원 등을 사용할 수 있다. 광원(140)은, 광원(140)에 의하여 발한 광을 광변조 장치(130)로 인도하는 리플렉터 및 보조 리플렉터, 그리고 광원(140)에 의하여 발한 광을 광변조 장치(130)에 이르는 경로 상에서 감소시키는 조광 소자(dimming device; 도시 생략) 등을 구비해도 좋다.
광변조 장치(130)는, 후술하는 화상 처리계로부터의 신호를 받아, 광원(140)에 의해 발한 광을 화상광으로 변조한다. 광변조 장치(130)의 구체적인 구성의 예로는, RGB의 각 색에 대응한 3개의 투과형 또는 반사형의 액정광 밸브를 이용한 방식을 포함한다. 이 경우, 광원(140)에 의해 발한 광이 다이크로익 미러 등에 의해 R, G, B의 각 색광으로 분리되어 광변조 장치(130)로 입사된다. 광변조 장치(130)가 구비하는 각 색의 액정 패널에 의해 각 색광이 변조된다. 그 후, 크로스 다이크로익 프리즘에 의해 각 색광이 합성되어, 투사 광학계(150)로 인도된다. 본 실시 형태에서는, 광변조 장치(130)는 투과형 액정 패널을 구비한다. 광변조 장치(130)는, 후술하는 광변조 장치 구동부(134)에 의해 구동된다. 광변조 장치(130)는 매트릭스 형상으로 배치된 각 화소에 있어서의 광의 투과율을 변화시킴으로써, 화상을 형성한다.
투사 광학계(150)는, 투사되는 화상의 확대 및 축소, 그리고 초점의 조정을 행하는 줌 렌즈(151), 줌의 정도를 조정하는 줌 조정용 모터(152), 포커스의 조정을 행하는 포커스 조정용 모터(153)를 구비한다. 투사 광학계(150)에는, 광변조 장치(130)에 의해서 변조된 광이 입사된다. 이 광은 줌 렌즈(151)를 거쳐 스크린(SC) 상에 투사되어, 투사 화상을 포커싱한다. 줌 렌즈(151)는, 복수의 렌즈를 포함하는 렌즈군을 포함한다. 줌 렌즈(151)는 줌 조정용 모터(152)와 포커스 조정용 모터(153)에 의해 구동되어, 예를 들어 렌즈들의 위치 조정을 행함으로써, 스크린(SC) 상의 투사 화상의 확대 및 축소를 행하는 줌 조정 및 스크린(SC) 상에 투사 화상을 적정하게 포커싱시키는 포커스 조정이 행해진다.
화상 처리계는, 프로젝터(100) 전체를 통합적으로 제어하는 CPU(120)와 화상용 프로세서(131)를 주로서 포함한다. 화상 처리계는 A/D 변환부(110), 광변조 장치 구동부(134), 광원 구동부(141), 렌즈 구동부(154), RAM(160), 화상 기억부(171) 및 보정 패턴 기억부(172)를 포함하는 ROM(170), CCD 카메라(181)를 구비한 촬상부(180)(촬상 수단), 촬영 화상 메모리(182), 움직임 검출부(185), 리모컨(remote-controller) 제어부(190), 리모컨(191) 및 조작부(195)를 포함한다. 이들 화상 처리계에 포함되는 각 구성요소는, 버스(102)를 통하여 서로 접속되어 있다.
A/D 변환부(110)는, 외부의 화상 공급 장치로부터 케이블(200)을 통하여 입력된 아날로그 입력 신호를 A/D 변환하는 디바이스이다. A/D 변환부(110)는 변환 후의 디지털 신호를 화상용 프로세서(131)로 출력한다.
CPU(120)는, 화상용 프로세서(131)와 함께, 프로젝터(100)에 있어서의 화상 처리를 행한다. CPU(120)는, 프로젝터(100)의 투사에 관련된 제어를 행하는 투사 제어부(121) 외에, 보정 제어부(122), 줌비 산출부(123), 초점 거리 산출부(124), 3차원 측량부(125) 및 투사각 산출부(126)를 포함한다. 이들 각 부는, ROM(170)에 미리 기억한 프로그램을 실행하는 CPU(120)에 의하여 실현된다. CPU(120)의 투사 제어부(121)는, 제어부로서 기능한다.
화상용 프로세서(131)는, 사다리꼴 왜곡 보정부(132)와 중첩 처리부(133)를 포함한다. 화상용 프로세서(131)는, CPU(120)의 제어에 따라, A/D 변환부(110)로부터 입력되는 화상 데이터를 처리하고, 광변조 장치(130)를 사용하여 투사 화상을 묘화하기 위한 화상 신호를 생성한다. 이 화상용 프로세서(131)는, 사다리꼴 왜곡 보정용이나 화상 처리용의 DSP(Digital Signal Processor)로서 판매되고 있는 범용의 프로세서를 이용하여 구성될 수 있으며 전용의 ASIC로서 구성될 수도 있다. 프로젝터(100)가 화상 기억부(171)에 기억한 화상 데이터를 투사하는 경우, 화상용 프로세서(131)는 이 화상 데이터에 대하여 전술의 처리를 행한다.
광변조 장치 구동부(134)는, 화상용 프로세서(131)로부터 입력되는 화상 신호에 기초하여, 광변조 장치(130)를 구동한다. 이에 따라, A/D 변환부(110)에 입력된 화상 신호에 대응한 화상이, 광변조 장치(130)의 화상 형성 영역에 형성된다. 이 화상이 투사 광학계(150)를 통하여, 스크린(SC) 상에 투사 화상으로서 형성된다.
광원 구동부(141)는, CPU(120)로부터 입력되는 지시 신호에 따라서, 광원(140)에 전압을 인가하여, 광원(140)을 점등 및 소등시킨다.
렌즈 구동부(154)는, CPU(120)의 제어에 따라 줌 조정용 모터(152) 및 포커스 조정용 모터(153)를 구동하여, 줌 조정 및 포커스 조정을 행한다.
RAM(160)은, CPU(120) 및 화상용 프로세서(131)가 실행하는 프로그램이나 데이터를 일시적으로 격납하는 워크 에어리어를 형성한다. 화상용 프로세서(131)는, 화상 프로세서(131)에 의해 행해지는 화상의 표시 상태의 조정 처리 등, 다양한 종류의 처리를 실행하기 위해 필요해지는 워크 에어리어를, 내장 RAM으로서 구비하고 있어도 좋다.
ROM(170)은, 전술한 처리부들을 실현하기 위해 CPU(120)에 의해 실행되는 프로그램 및 당해 프로그램에 관련된 데이터 등을 기억한다. ROM(170)은, 투사부(101)에 의해 투사되는 화상을 기억하는 화상 기억부(171) 및 상기의 왜곡 보정 처리에 이용되는 보정 패턴을 기억하는 보정 패턴 기억부(172)를 포함한다.
촬상부(180)는, 이미 알려진 이미지 센서인 CCD를 포함하는 CCD 카메라(181)와 CCD 카메라(181)의 전방에 배치된 카메라 렌즈(183)를 포함한다. 촬상부(180)는, 프로젝터(100)의 전면(前面)에, 즉, 투사 광학계(150)가 스크린(SC)으로 화상을 투사하는 방향으로, CCD 카메라(181)로, 촬상부(180)가 촬상 가능한 위치에 형성되어 있다. 즉, 촬상부(180)는, 투사 광학계(150)의 투사 방향과 동일한 방향을 촬영하도록 형성되어 있다. 상세하게는, 카메라 렌즈(183)의 광축은, 줌 렌즈(151)의 광축과 평행해도 좋다. 그러나, 카메라 렌즈(183)의 광축은 줌 렌즈(151)의 광축측에 대하여 근소하게 기울어질 수도 있다.
촬상부(180)는, 권장된 투사 거리에 있어서 스크린(SC) 상에 투사된 투사 화상의 전체가 적어도 촬상 범위 내에 들어가도록, CCD 카메라(181) 및 카메라 렌즈(183)의 촬영 방향 및 화각(angle of view)이 설정되어 있다. CCD 카메라(181)는, CCD 외에, CCD로부터 화상 신호를 읽어내는 제어 회로 등을 구비하고 있어도 좋다. 카메라 렌즈(183)는, CCD 상에 화상을 형성하는 고정 초점 렌즈 외에, CCD에 입사하는 광량을 조정하는 오토 아이리스(auto iris) 등의 기구를 구비하고 있어도 좋다. CCD 카메라(181)가 촬영한 촬영 화상의 데이터는, 촬상부(180)로부터 촬영 화상 메모리(182)로 출력되며, 촬영 화상 메모리(182)의 소정의 영역에 반복하여 기입된다. 1화면분의 화상 데이터의 기입이 완료되면, 촬영 화상 메모리(182)는, 소정의 영역의 플래그를 순차 반전한다. 따라서, 이 플래그를 참조함으로써, CPU(120)는, 촬상부(180)를 이용하여 실행되는 촬상이 완료되었는지의 여부를 알 수 있다. CPU(120)는, 이 플래그를 참조하면서, 촬영 화상 메모리(182)에 액세스하여, 필요한 촬영 화상 데이터를 취득한다.
움직임 검출부(185)는, 자이로 센서나 가속도 센서를 포함한다. 움직임 검출부(185)는 프로젝터(100)의 본체의 움직임을 검출하고, 검출값을 CPU(120)로 출력한다. 움직임 검출부(185)의 검출값에는 미리 문턱값이 설정되어 있다. 문턱값을 초과하는 움직임이 움직임 검출부(185)에 의해 검출된 경우에, CPU(120)는, 프로젝터(100)가 움직였다고 판정한다. 움직임 검출부(185)에 의해 검출되는 움직임이 문턱값 이하가 되고, 이 상태가 미리 설정된 대기 시간을 초과하여 계속되는 경우에, CPU(120)는, 프로젝터(100)가 정지했다고 판정한다.
움직임 검출부(185)에 문턱값이 설정되고, 움직임 검출부(185)의 검출값이 문턱값을 초과한 경우와 움직임 검출부(185)의 검출값이 문턱값 이하가 되어 대기 시간이 경과한 경우에, 움직임 검출부(185)가 CPU(120)에 검출 신호를 출력하도록 구성해도 좋다. 이 경우, CPU(120)의 부하를 경감할 수 있다.
리모컨 제어부(190)는, 프로젝터(100)의 외부의 리모컨(191)으로부터 송신되는 무선 신호를 수신한다. 리모컨(191)은, 유저에 의해 조작되는 조작기(도시 생략)를 구비한다. 리모콘(191)은 조작기의 조작에 대응하는 조작 신호를 적외선 신호 또는 소정 주파수를 갖는 전파(radio wave)를 이용하여 송신되는 무선 신호로서 송신한다. 리모컨 제어부(190)는, 적외선 신호를 수신하는 수광부(도시 생략)나 무선 신호를 수신하는 수신 회로(도시 생략)를 구비한다. 리모콘 제어부(190)는, 리모컨(191)으로부터 송신된 신호를 수신하여, 그 신호를 해석하고, 유저에 의한 조작의 내용을 나타내는 신호를 생성하여, 그 신호를 CPU(120)로 출력한다.
조작부(195)는, 예를 들면 프로젝터(100)의 본체에 배치된 조작 패널의 조작기(도시 생략)를 포함한다. 상기 조작기의 조작이 검출되면, 조작부(195)는, 조작기에 대응하는 조작 신호를 CPU(120)로 출력한다. 이 조작기로서는, 전원 ON/OFF를 지시하는 스위치, 왜곡 보정 처리 개시를 지시하는 스위치 등이 있다.
CPU(120) 및 화상용 프로세서(131)의 기능이 설명된다.
투사 제어부(121)는, A/D 변환부(110)에 의해 출력되는 화상 데이터에 기초하여, 투사부(101)에 의해 화상을 투사하는 동작을 제어한다. 구체적으로는, 투사 제어부(121)는, 프로젝터(100)의 전원 온/오프에 따라서 광원 구동부(141)로 하여금 광원(140)을 점등/소등하게 하는 제어, A/D 변환부(110)에 의해 출력되는 화상 데이터를 화상용 프로세서(131)로 하여금 처리하게 하는 제어 등을 행한다.
투사 제어부(121)는, 보정 제어부(122)에 의해 사다리꼴 왜곡 보정부(132)를 제어하여 사다리꼴 왜곡을 보정하는 왜곡 보정 처리를 개시 및 종료시키는 기능을 갖는다. 보정 제어부(122)는, 사다리꼴 왜곡 보정부(132)와 협동하여, 보정부로서 기능한다.
왜곡 보정 처리를 개시하는 개시 조건으로서, 예를 들면, 움직임 검출부(185)의 검출값에 기초하여 프로젝터(100)의 움직임을 검출하는 것, 혹은, 조작부(195) 또는 리모컨(191)의 조작에 의해 왜곡 보정 처리가 지시되는 것이 미리 설정되어 있다. 설정된 조건 중 어느 하나가 부합되는 경우, 투사 제어부(121)는, 왜곡 보정 처리의 개시 조건이 충족되었다고 판정한다. 투사 제어부(121)는, 화상용 프로세서(131)의 중첩 처리부(133)를 제어하여, 보정 패턴 기억부(172)에 기억된 보정 패턴(조정용 화상)을, 투사 중의 화상에 중첩하여 그 보정 패턴을 투사시킨다. 이에 따라, 왜곡 보정 처리의 개시 전부터 투사되어 있었던 화상과 보정 패턴이 겹쳐 표시된다.
투사 제어부(121)는, 보정 제어부(122)로 하여금 왜곡 보정 처리를 실행하게 한다. 왜곡 보정 처리를 개시하면, 보정 제어부(122)는, 보정 패턴 기억부(172)에 기억된 보정 패턴이 스크린(SC)에 투사된 상태에서, 스크린(SC)의 화상을 촬상부(180)로 하여금 촬상하게 하여, 촬영 화상 데이터를 촬영 화상 메모리(182)로부터 취득한다. 보정 제어부(122)는, 취득한 촬영 화상 데이터로부터, 보정용 패턴의 화상을 검출하는 처리를 행한다. 보정 제어부(122)는, 검출된 보정용 패턴의 화상에 기초하여, 처리부들, 즉 줌비 산출부(123), 초점 거리 산출부(124), 3차원 측량부(125) 및, 투사각 산출부(126)의 기능에 의해, 스크린(SC)의 평면에 대한, 프로젝터(100)로부터 투사한 투사광의 광축의 기울기인 투사각 및 프로젝터(100)와 스크린(SC)과의 상대 거리(이하, 투사 거리라고 함)를 산출한다. 보정 제어부(122)는, 산출한 투사 거리에 따라서 렌즈 구동부(154)를 제어하여, 포커스 조정을 행하게 한다.
보정 제어부(122)는, 처리부들, 즉 줌비 산출부(123), 초점 거리 산출부(124), 3차원 측량부(125) 및 투사각 산출부(126)의 기능에 의해 산출된 투사각 및 투사 거리에 기초하여, 왜곡 보정 처리를 행하기 위한 파라미터를 산출한다. 이 파라미터는, 광변조 장치(130)에 의해 묘화되는 화상을, 스크린(SC) 상의 투사 화상의 왜곡을 보상하도록 변형시키기 위한 파라미터이다. 이 파라미터는, 변형의 방향, 변형량 등을 정의하는 데이터를 포함한다. 보정 제어부(122)는, 산출한 파라미터를 사다리꼴 왜곡 보정부(132)로 출력하고, 사다리꼴 왜곡 보정부(132)로 하여금 왜곡 보정 처리를 실행하게 한다.
처리부들, 즉 줌비 산출부(123), 초점 거리 산출부(124), 3차원 측량부(125) 및 투사각 산출부(126)는, 보정 제어부(122)의 제어에 따라, 투사 거리 및 투사각을 산출하기 위해 필요한 처리를 행한다.
화상용 프로세서(131)는, A/D 변환부(110)로부터 입력된 화상 데이터를 처리하는 기능부이다. 화상용 프로세서(131)는, 투사 대상의 화상 데이터에 대하여, 휘도, 콘트라스트, 색의 농도, 색조(tint) 등의 화상의 표시 상태를 조정하는 처리를 행하고, 그 처리 후의 화상 데이터를 광변조 장치 구동부(134)로 출력한다.
화상용 프로세서(131)가 구비하는 사다리꼴 왜곡 보정부(132)는, 보정 제어부(122)로부터 입력되는 파라미터에 따라, A/D 변환부(110)에 의해 출력된 화상 데이터의 화상을 변형시키는 처리를 행한다.
중첩 처리부(133)는, 보정 패턴 기억부(172)에 기억된 보정 패턴을 투사 화상에 중첩시키는 기능을 갖는다. 중첩 처리부(133)는, 사다리꼴 왜곡 보정부(132)의 후단에 접속되어 있다. 중첩 처리부(133)에는 사다리꼴 왜곡 보정부(132)의 처리 후의 화상 데이터가 입력된다. 이 때문에, 사다리꼴 왜곡 보정부(132)가 왜곡 보정 처리를 행하고 있는 경우 그리고 왜곡 보정 처리를 행하지 않은 경우에, 중첩 처리부(133)는, 사다리꼴 왜곡 보정부(132)에 의해 처리된 화상 데이터에 보정 패턴을 중첩한다. 이 구성에 의해, 중첩 처리부(133)가 보정 패턴을 중첩한 화상에 대해서는, 왜곡 보정 처리가 행해지지 않는다. 즉, 프로젝터(100)에 의해 투사되는 보정 패턴은, 항상, 왜곡 보정 처리가 행해지지 않은 상태이다. 이와 같이 중첩 처리부(133)에 의해 보정 패턴이 중첩된 화상은, 투사 광학계(150)에 의해 스크린(SC)에 투사된다. 왜곡 보정 처리는 이 투사 화상에 기초하여 행해진다.
촬상부(180)의 촬영 화상 데이터에 기초하여 보정 패턴을 검출하는 프로젝터(100)의 동작이 상세하게 설명된다.
도 2a 내지 도 2c는, 프로젝터(100)와 스크린(SC)과의 상대 위치와, 촬영 화상과의 관계를 나타내는 설명도로서, 도 2a 및 도 2b는 프로젝터와 스크린과의 상대 위치를 나타내고, 도 2c는 촬영 화상에 있어서의 에피폴라선을 나타낸다. 도 2a에는 스크린(SC)의 이면이 나타나 있다.
도 2a는 프로젝터(100) 및 스크린(SC)의 사시도이다. 이 도 2a에 나타내는 예에서는, 프로젝터(100)는 스크린(SC)의 거의 정면에, 스크린(SC)에 바로 마주하여 설치된다. 줌 렌즈(151)의 광축(15a)과 CCD 카메라(181)의 광축(18a)은 거의 평행하다. 광축(15a)과 스크린(SC)과의 교점을 주목점(point of attention; CP)으로 설정하고, 광축(18a)과 스크린(SC)과의 교점을 촬영 중심점(CF)으로 한다. 줌 렌즈(151) 및 카메라 렌즈(183)가 프로젝터(100)의 본체에 고정되어 있는 경우, 줌 렌즈(151)와 카메라 렌즈(183)와의 상대적인 위치 관계는 고정되어 있다.
도 2b는, 도 2a의 상태를 나타내는 평면도이다. 스크린(SC)에는, 줌 렌즈(151)로부터, 주목점(CP)을 중심으로 하는 투사 범위(P)에 화상이 투사된다. 촬상부(180)는, 촬영 중심점(CF)을 중심으로 하는 촬상 범위(F)를 촬영한다.
이 도 2b에 나타내는 상태에서, 촬상부(180)에 의해 촬영되는 촬영 화상(201)에는, 도 2(c)에 나타내는 바와 같이, 주목점(CP)을 포함하는 범위가 비춰진다. 촬영 화상(201) 상에서, 광축(15a)은, 주목점(CP)으로 연장되는 직선에 상당한다. 이 직선이 줌 렌즈(151)의 광축의 에피폴라선(201a)이다. 이하의 설명에서는, 이 직선을 단순히 에피폴라선(201a)이라고 부른다. 그러나, 실제의 촬영 화상에는, 주목점(CP) 및 에피폴라선(201a)이 화상으로서 비추어지지 않는다. 도 2c에는 에피폴라선(201a) 및 주목점(CP)의 위치 관계를 예시한다. 이 예의 에피폴라선(201a)은, 도 2b에 부호 L로 표시되는 범위의 광축(15a)에 상당한다.
에피폴라선(201a)이 줌 렌즈(151)의 광축(15a)의 위치에 대응하기 때문에, 에피폴라선(201a)은 투사 광학계(150)의 줌비에 따라 크게 이동하지는 않는다. 즉, 줌 렌즈(151)의 줌비가 변경되어 화상이 확대 또는 축소되는 경우, 스크린(SC) 상에서는 광축(15a)(주목점(CP))을 중심으로 하여 화상이 확대 또는 축소된다. 이 때문에, 스크린(SC) 상에 있어서의 화상의 확대 또는 축소의 중심인 주목점(CP) 및 광축(15a)의 위치가, 줌비를 변경해도 변화하지 않는다. 촬영 화상(201)에 있어서의 주목점(CP) 및 에피폴라선(201a)의 위치는, 프로젝터(100)와 스크린(SC)과의 사이의 거리에 따라 때때로 변화한다. 이것은, 광축(15a)과 광축(18a)이 완전하게 일치하고 있지 않기 때문이다. 그러나, 촬영 화상(201)에 있어서의 주목점(CP) 및 에피폴라선(201a)의 변화량(이동량)은 작다. 예를 들면 주목점(CP) 및 에피폴라선(201a)이 촬영 화상(201)의 화각으로부터 벗어나 버리는 일은 거의 일어나지 않는다.
도 3a 내지 도 3d는, 프로젝터(100)에 의해 투사되는 보정 패턴을 나타내는 설명도로서, 도 3a는 투사되는 화상의 예를 나타내고, 도 3b는 보정 패턴의 예를 나타내고, 도 3c는 광변조 장치가 화상과 보정 패턴을 묘화한 예를 나타내고, 도 3d는 촬영 화상의 예를 나타낸다.
본 실시 형태에서는, 도 3a에 나타내는 바와 같이 직사각형의 화상(175)이 투사되는 예가 설명된다. 본 실시 형태에서는 보정 패턴의 예로서, 도 3b에 나타내는 보정 패턴(177)이 설명된다. 보정 패턴(177)은, 정방형의 검정색 마커(177a)(제1 패턴)가 4개의 코너 근방에 배치되어 있는, 전체적으로 직사각형 형상을 갖는다. 각각의 마커(177a)는, 검정색 정방형 안에, 흰색 점을 포함한 도형이다. 보정 패턴(177)에는, 직선 형상의 검정색 영역(177b)(제2 패턴)이 배치된다. 이 검정색 영역(177b)과 겹쳐지도록, 2개의 위치 마커(177c)(제2 패턴)가 배치되어 있다. 위치 마커(177c)는 소정의 형상을 갖는 도형이다. 도 3a 내지 도 3d에 도시된 예에서는 위치 마커(177c)는 직사각형이다. 위치 마커(177c)의 색은, 위치 마커(177c)가 검정색 영역(177b) 상에서 명료하게 구별될 수 있도록 흰색이다.
중첩 처리부(133)가 보정 패턴(177)을 화상(175)에 중첩하면, 광변조 장치(130)의 화상 형성 가능 영역(136)에는, 도 3c에 나타내는 화상이 묘화된다. 이 도 3c에 도시된 예는 사다리꼴 왜곡을 보정하는 처리가 행해지기 전의 상태를 나타낸다. 화상은, 광변조 장치(130)의 화상 형성 가능 영역(136)을 넓게 사용하여 묘화된다. 이 때문에, 화상 형성 가능 영역(136)의 전체에 화상(175)이 형성(묘화)된다. 이 화상(175)에 중첩되도록 보정 패턴(177)이 묘화된다. 보정 패턴(177)은 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)를 제외하고 투명하다. 따라서, 화상(175)의 위에 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)가 겹쳐 묘화되어 있다.
화상(175)에 보정 패턴(177)을 중첩하여 얻은 화상을 스크린(SC)에 투사 하고, 촬상부(180)에 의해 촬영하면, 촬영 화상은 도 3d에 도시된 바와 같이 형성된다. 이 화상(175) 및 보정 패턴(177)은, 이 도 3d의 촬영 화상(201)에 비추어진다.
검정색 영역(177b)은, 에피폴라선(201a)과 겹쳐지는 위치 또는 에피폴라선(201a)의 근방에 비추도록 배치되어 있다. 촬영 화상(201) 중의 에피폴라선(201a)의 위치는, 줌 렌즈(151)와 카메라 렌즈(183)의 위치 관계로부터 일반적으로 특정 가능하다. 보정 패턴(177)의 해상도와 화상 형성 가능 영역(136)의 해상도에 기초하여, 화상 형성 가능 영역(136)에 있어서의 보정 패턴(177)의 묘화 위치가 특정될 수 있다. 이와 같이, 보정 패턴(177)에 있어서, 검정색 영역(177b)이 에피폴라선(201a)과 겹쳐지는 위치 또는 에피폴라선(201a)의 근방에 투사되도록 배치된다. 이 검정색 영역(177b) 상에 위치 마커(177c)가 배치되어 있다. 이에 따라, 검정색 영역(177b) 및 위치 마커(177c)는, 촬영 화상(201)에 있어서 거의 동일한 위치에 항상 비추어진다. 따라서, 보정 제어부(122)는, 촬영 화상 메모리(182)로부터 취득한 촬영 화상 데이터로부터, 에피폴라선을 포함하는 좁은 영역을 탐색하면, 보정 제어부(122)는 검정색 영역 및 위치 마커를 검출할 수 있다.
또한, 전술한 바와 같이, 중첩 처리부(133)는, 사다리꼴 왜곡 보정부(132)의 후단에 접속되어 있다. 따라서 중첩 처리부(133)는, 항상, 사다리꼴 왜곡 보정부(132)에 의해 처리되지 않은 보정 패턴을 화상에 중첩한다. 환언하면, 보정 패턴에는 왜곡 보정 처리가 행해지지 않는다.
화상 형성 가능 영역(136)은 광변조 장치(130)가 화상을 묘화할 수 있는 최대 영역이다. 왜곡 보정 처리를 행하면, 이 화상 형성 가능 영역(136)에 묘화되는 화상의 형상이 변형된다. 예를 들면, 역방향의 사다리꼴로 변형된 화상을 화상 형성 가능 영역(136)에 묘화하여 사다리꼴 왜곡을 보상한다. 이 경우, 화상 형성 가능 영역(136) 전체에 묘화된 직사각형의 화상에 비하여 화상의 사이즈는 축소된다. 이에 대하여, 보정 패턴(177)은 왜곡 보정 처리를 거치지 않고 화상 형성 가능 영역(136)에 묘화되기 때문에, 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)가 화상 형성 가능 영역(136)에 묘화되는 위치는 고정되게 된다. 따라서, 검정색 영역(177b) 및 위치 마커(177c)가 에피폴라선(201a)으로부터 크게 벗어나지 않는다. 촬영 화상(201)으로부터 신속하게 검정색 영역(177b) 및 위치 마커(177c)를 검출할 수 있다.
도 4a 내지 도 4d는, 프로젝터(100)의 줌비와 촬영 화상과의 관계를 나타내는 설명도로서, 투사 거리와 줌비가 여러가지로 변경될 때 얻어진 촬영 화상의 예를 나타낸다.
도 4a에는, 투사 거리가 1m로 설정되고, 줌비를 텔레측에 설정한 예를 나타낸다. 도 4b에는, 투사 거리를 3m로 설정하고, 줌비를 텔레측에 설정한 예를 나타낸다. 도 4c에는, 투사 거리를 1m로 설정하고, 줌비를 와이드측에 설정한 예를 나타낸다. 도 4d에는, 투사 거리를 3m로 설정하고, 줌비를 와이드측에 설정한 예를 나타낸다.
도 4a와 도 4b를 비교하여 알 수 있는 바와 같이, 촬영 화상(201) 상의 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)의 위치는, 투사 거리의 차이에 따라 상이하다. 도 4c와 도 4d를 비교해도 동일하다. 그러나, 검정색 영역(177b) 및 위치 마커(177c)는, 에피폴라선(201a) 상을 따라 이동하고 있으며, 투사 거리가 변화해도 에피폴라선(201a)으로부터 크게 벗어나지 않는 것이 분명하다.
이 비교로부터 분명한 바와 같이, 줌비가 고정되면, 투사 거리가 변화한 경우라도 스크린(SC) 상의 보정 패턴(177) 전체의 사이즈는 변화하지 않는다. 따라서, 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)의 상대적인 위치 관계는 고정되어 있다. 따라서, 위치 마커(177c)를 검출할 수 있으면, 이 위치 마커(177c)의 위치에 기초하여, 4개의 마커(177a)의 위치를 고정밀도로 추정할 수 있다.
도 4a와 도 4c를 비교하여 알 수 있는 바와 같이, 줌비를 변경하면, 스크린(SC) 상의 보정 패턴(177)의 전체적으로의 크기가 변화한다. 이 때문에, 촬영 화상(201) 상의 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)의 위치가, 줌비에 따라 변화한다. 도 4(b)와 도 4(d)를 비교해도 동일하다. 그러나,검정색 영역(177b) 및 위치 마커(177c)는, 에피폴라선(201a) 상에 있기 때문에, 검정색 영역(177b)과 위치 마커(177c)는 줌비가 변화해도 에피폴라선(201a)으로부터 크게 벗어나지 않는 것이 분명하다.
이 비교로부터 분명한 바와 같이, 줌비가 변화한 경우, 스크린(SC) 상의 보정 패턴(177) 전체의 사이즈가 변화하기 때문에, 마커(177a), 검정색 영역(177b) 및 위치 마커(177c)의 상대적인 위치 관계가 변화한다. 예를 들면, 2개의 위치 마커(177c)의 간격이, 줌비에 따라서 증가 또는 감소한다. 따라서, 줌비와, 2개의 위치 마커(177c) 사이의 간격과의 관계가 이미 알려져 있으면, 2개의 위치 마커(177c)를 검출함으로써, 2개의 위치 마커(177c) 사이의 간격으로부터 줌비를 구할 수 있다. 즉, 줌비와, 2개의 위치 마커(177c)의 간격 사이의 관계를 나타내는 계수를 ROM(170)에 기억해 두면, 2개의 위치 마커(177c)를 신속하게 검출하여 줌비를 산출할 수 있다. 또한, 줌비와 위치 마커(177c)의 위치가 명확해지면, 4개의 마커(177a)의 위치를 고정밀도로 추정할 수 있다.
보정 패턴(177)은, 검정색 영역(177b)의 위에 흰색의 위치 마커(177c)를 배치함으로써 형성된다. 따라서, 위치 마커(177c)를 용이하게 검출할 수 있다. 에피폴라선(201a)을 따른 방향의 위치 마커(177c)의 가장자리 위치를 검출할 수 있으면, 위치 마커(177c) 사이의 간격을 구할 수 있기 때문에, 줌비를 산출할 수 있다. 따라서, 위치 마커(177c)의 윤곽의 전부를 검출할 필요가 없다. 에피폴라선(201a)이 촬영 화상(201)에서 연장되는 방향에 있어서, 위치 마커(177c)의 가장자리가 검출될 수만 있으면 된다. 본 실시 형태의 예에서는, 에피폴라선(201a)을 따라 검정색 영역(177b)이 배치되어 있기 때문에, 검정색 영역(177b)의 길이 방향으로, 검정색 영역(177b)과 위치 마커(177c)의 경계가 검출될 수만 있으면 된다. 이 때문에, 본 실시 형태의 위치 마커(177c)는, 윤곽선이 착색되어 있지 않은 단순한 흰색의 직사각형이면 된다. 위치 마커(177c)의 색은, 검정색 영역(177b)과 용이하게 구별 가능하기만 하면 된다. 그 색이, 흰색 이외에 고휘도의 색이면 위치 마커(177c)의 기능은 충분히 나타난다.
도 5는, 프로젝터(100)의 동작을 나타내는 플로우 차트이다.
프로젝터(100)의 전원이 온으로 변환되면, CPU(120)는, 광원 구동부(141)를 제어하여 광원(140)을 점등시킨다(스텝 S11). 또한, CPU(120)는, 렌즈 구동부(154)를 제어하여 투사 광학계(150)에 있어서의 광학적인 조정을 실행시키고 화상용 프로세서(131)로 하여금, 화상의 밝기 및 지정된 컬러 모드에 맞춘 조정 등을 실행하게 한다(스텝 S12). 그 후, 투사 제어부(121)는, 투사부(101)로 하여금 A/D 변환부(110)로부터 출력되는 화상을 투사하게 한다(스텝 S13).
투사 개시 후, 투사 제어부(121)는, 왜곡 보정 처리의 개시 조건이 충족되었는지 아닌지를 판정한다(스텝 S14). 왜곡 보정 처리의 개시 조건은, 예를 들면, 리모컨(191) 또는 조작부(195)에 의한 개시 지시 조작이 실행되는 것 또는 움직임 검출부(185)의 검출값이 문턱값을 초과한 것이다. 리모컨(191) 또는 조작부(195)에 의한 개시 지시 조작이 실행되거나 또는 움직임 검출부(185)의 검출값이 문턱값을 초과한 경우, 투사 제어부(121)는, 왜곡 보정 처리의 개시 조건이 충족되었다고 판정하고(스텝 S14에서 예), 보정 패턴 기억부(172)에 기억된 보정 패턴(177)을 읽어내고, 중첩 처리부(133)로 하여금 화상에 보정 패턴(177)을 중첩하게 하고, 투사부(101)로 하여금 이 보정 패턴(177)을 스크린(SC)에 투사하게 한다(스텝 S15).
이어서, 보정 제어부(122)는, 촬상부(180)로 하여금 스크린(SC)을 촬영하게 하고, 촬영 화상 메모리(182)로부터 촬영 화상 데이터를 취득한다(스텝 S16).
보정 제어부(122)는, 촬영 화상 데이터에 포함되는 위치 마커(177c)를 검출한다(스텝 S17). 이어서, 검출한 위치 마커(177c)의 위치 및 2개의 위치 마커(177c) 사이의 간격에 기초하여, 줌비 산출부(123)에 의해 줌비를 산출한다(스텝 S18). 또한, 보정 제어부(122)는, 위치 마커(177c)의 위치 및 2개의 위치 마커(177c) 사이의 간격에 기초하여, 마커(177a)의 위치를 추정하고, 추정한 위치에서 화상 데이터를 탐색하여, 마커(177a)를 검출한다(스텝 S19).
그 후, 보정 제어부(122)는, 마커(177a)의 위치에 기초하여, 줌비 산출부(123), 초점 거리 산출부(124), 3차원 측량부(125) 및 투사각 산출부(126)에 의한 연산을 행하여, 스크린(SC) 상의 화상에 발생하고 있는 사다리꼴 왜곡을 보정하기 위한 파라미터를 산출한다(스텝 S20).
보정 제어부(122)는, 사다리꼴 왜곡 보정부(132)에 설정되어 있는 파라미터를, 새로운 파라미터에 의해 갱신하고(스텝 S21), 사다리꼴 왜곡 보정부(132)로 하여금 투사 중의 화상에 대한 왜곡 보정 처리를 실행하게 한다. 보정 제어부(122)는, 마커의 위치로부터 산출한 값에 기초하여 렌즈 구동부(154)를 제어하여, 포커스 조정을 실행한다(스텝 S22). 그 후, 새로운 파라미터에 기초하는 왜곡 보정 처리가 사다리꼴 왜곡 보정부(132)에 의해 행해진다. 이 처리 후의 화상에 보정 패턴을 중첩하는 중첩 처리부(133)에 의해 얻어진 화상을 스크린(SC)에 투사한다(스텝 S23).
투사 제어부(121)는, 왜곡 보정 처리를 완료하는 조건이 충족되었는지 아닌지를 판정한다(스텝 S24). 왜곡 보정 처리를 완료하는 조건은, 예를 들면, 리모컨(191) 또는 조작부(195)에 의해 왜곡 보정 처리를 완료하는 지시 조작이 행해지는 것 또는 움직임 검출부(185)의 검출값이 문턱값 이하가 되고 대기 시간이 경과하는 것이다. 이 양자의 조건이 충족되지 않은 경우는(스텝 S24에서 아니오), 투사 제어부(121)는 스텝 S16으로 되돌아온다. 이에 대하여, 리모컨(191) 또는 조작부(195)에 의해 왜곡 보정 처리를 완료하는 지시 조작이 행해지거나 또는 움직임 검출부(185)의 검출값이 문턱값 이하가 되고 대기 시간이 경과한 경우, 투사 제어부(121)는, 왜곡 보정 처리를 완료하는 조건이 충족되었다고 판정하고(스텝 S24에서 예), 중첩 처리부(133)로 하여금 보정 패턴을 중첩하는 처리를 종료하게 한다(스텝 S25). 그 후, 투사 제어부(121)는, 프로젝터(100)가 투사를 종료하는지 아닌지를 판정한다(스텝 S26). 프로젝터(100)가 투사를 종료하지 않는 경우는(스텝 S26에서 아니오), 스텝 S14로 되돌아온다. 프로젝터(100)가 리모컨(191) 또는 조작부(195)의 조작에 따라 투사를 종료하는 경우(스텝 S26에서 예), 투사 제어부(121)는, 투사부(101)에 의한 화상의 투사에 관련된 동작을 정지시키고, 광원(140)을 소등시킨다(스텝 S27).
왜곡 보정 처리의 개시 조건이 충족되지 않은 경우에는(스텝 S14에서 아니오), 투사 제어부(121)는 스텝 S23으로 이행하여 투사가 종료되었는지 아닌지를 판정한다. 프로젝터(100)가 스텝 S26에서 투사를 종료하지 않는 경우, 투사 제어부(121)는 스텝 S14로 되돌아와 개시 조건이 충족되었는지 아닌지를 반복하여 실행한다. 스텝 S14의 판정의 주기는 미리 설정되어 있다. 즉, 개시 조건이 충족되지 않고, 프로젝터(100)가 투사를 종료하지 않는 동안은 설정된 주기로 판정이 반복하여 실행된다.
이와 같이, 투사 제어부(121)의 제어에 의해, 왜곡 보정 처리의 개시 조건이 충족되었다고 판정한 경우에, 프로젝터(100)가 정지하기 전에 프로젝터(100)는, 왜곡 보정 처리를 실행하고, 그 후, 왜곡 보정 처리를 완료하는 조건이 부합될 때까지, 미리 설정된 주기로 반복하여, 왜곡 보정 처리를 실행한다. 이에 따라, 주기적으로 왜곡 보정 처리가 행해지고 보정 후의 화상이 스크린(SC)에 투사된다. 따라서, 프로젝터(100)를 사용하는 유저는, 프로젝터(100)가 정지되거나, 왜곡 보정 처리를 완료하는 조작이 행해지기 전이라도, 보정의 상태를 볼 수 있다. 프로젝터(100)의 이동이 멈추고 난 후, 상기 대기 시간이 경과하기 전에, 프로젝터(100)가 정지한 상태에서 왜곡 보정 처리가 실행된다. 따라서, 프로젝터(100)가 정지한 위치에 따라서 보정된 화상이 스크린(SC)에 투사된다. 이에 따라, 대체적으로, 대기 시간이 경과하기 전에 보정된 화상을 투사할 수 있어, 왜곡이 없는 화상을 신속하게 투사할 수 있다. 이 경우, 프로젝터(100)에 의한 왜곡 보정 처리의 반복 실행 주기는, 상기 대기 시간보다 짧은 시간인 것이 바람직하다.
이와 같이 복수회의 왜곡 보정을 계속하여 실행하는 경우에, 보정 패턴(177)에 대해서도 또한 왜곡 보정 처리가 적용되면, 마커(177a)의 위치에 대해서 복수회 실행된 왜곡 보정의 영향을 제외하는 연산을 행할 필요가 있게 된다. 그 파라미터를 산출하기 위한 처리의 부하가 증대된다. 그래서 본 실시 형태와 같이, 보정 패턴(177)에 대해서 왜곡 보정 처리를 행하지 않으면, 마커(177a)의 위치는, 항상, 스크린(SC)과 프로젝터(100) 사이의 설치각 및 거리를 반영한 분만큼 어긋난 위치가 된다. 따라서, 왜곡 보정 처리를 반복하여 행해도, 마커(177a)의 위치에 기초하여, 스크린(SC)과 프로젝터(100) 사이의 설치각 및 거리를 신속하고 정확하게 구할 수 있어, 정확한 파라미터를 산출할 수 있다. 이 파라미터를 산출하는 처리의 부하는, 왜곡 보정 처리를 반복하여 행해도 증대되지 않는다.
보정 패턴(177)은, 기준 화상으로서 기능하는 위치 마커(177c)가, 촬상부(180)의 촬영 화상(201) 중에서 에피폴라선(201a)과 중첩되는 위치 또는 에피폴라선(201a)의 근방에 배치되도록, 배열되어 있다. 따라서, 위치 마커는(177c)는 촬영 화상(201)으로부터 신속하게 검출할 수 있다. 위치 마커(177c)를 검출하면, 2개의 위치 마커(177c) 사이의 간격에 기초하여 줌비를 산출할 수 있다. 또한, 위치 마커(177c)의 위치로부터 마커(177a)의 위치를 추정할 수 있다. 따라서, 마커(177a)는 부하가 적은 처리로 신속하게 검출할 수 있다. 이에 따라, 스크린(SC)에 투사된 마커(177a)를 신속하게 검출하여, 왜곡 보정 처리를 행할 수 있다.
중첩 처리부(133)가, 사다리꼴 왜곡 보정부(132)의 후단에 접속되어 있기 때문에, 보정 패턴(177)은 사다리꼴 왜곡 보정의 영향을 받지 않고, 항상 화상 형성 가능 영역(136)에 있어서 동일한 위치에 묘화된다. 따라서, 위치 마커(177c)의 위치가 에피폴라선(201a)으로부터 크게 벗어나는 일은 없다. 안정적으로, 신속하게 촬영 화상(201)으로부터 위치 마커(177c)를 검출할 수 있다.
이상 설명한 바와 같이, 본 발명을 적용한 실시 형태에 따른 프로젝터(100)는, 스크린(SC)에 화상을 투사하는 투사부(101), 투사부(101)로 하여금, 제1 패턴으로서 기능하는 마커(177a), 제2 패턴으로서 기능하는 검정색 영역(177b) 및 위치 마커(177c)를 포함하는 보정 패턴(177)을 투사하게 하는 투사 제어부(121) 및 투사부(101)에 의해 투사된 보정 패턴(177)에 포함되는 마커(177a), 검정색 영역(177b) 및 위치 마커(177c) 중 적어도 일부를 검출하여, 투사 화상의 왜곡을 보정하는 보정 제어부(122)를 구비한다. 보정 제어부(122)는, 스크린(SC)에 투사된 위치 마커(177c)를 검출하고, 검출한 위치 마커(177c)의 위치에 기초하여 마커(177a)의 위치를 검출한다. 이에 따라, 촬영 화상(201)으로부터 위치 마커(177c)를 검출하고, 이 위치 마커(177c)의 위치로부터 마커(177a)의 위치를 추측하여 마커(177a)의 위치를 신속하게 검출할 수 있다. 따라서, 마커(177a)의 검출에 필요로 하는 시간을 단축할 수 있다.
예를 들면, 제2 패턴으로서 기능하는 위치 마커(177c)를 검출하기 쉽게 배치하면, 마커(177a)가 검출하기 쉬운 것이 아니라도, 신속하게 마커(177a)를 검출하여 보정을 행할 수 있다. 이 경우, 마커(177a)는, 검출하기 쉬운 형상이나 위치에 형성될 필요가 없기 때문에, 화상의 보정에 적합한 위치 및 형상으로 마커(177a)를 형성할 수 있어, 보정의 정밀도를 더 개선할 수 있다.
투사부(101)는 줌 렌즈(151)을 구비한다. 위치 마커(177c)는, 줌 렌즈(151)의 광축과 스크린(SC)과의 교점의 근방에 투사되도록 배치된다.
이 경우, 위치 마커(177c)의 위치는, 프로젝터(100)의 줌비에 쉽게 영향받지 않아서, 프로젝터(100)와 스크린(SC) 사이의 위치 관계에 관계없이 추측 가능하다. 이 때문에, 프로젝터(100)는, 촬영 화상(201)으로부터 위치 마커(177c)를 신속하게 검출할 수 있다.
위치 마커(177c)는, 흰색, 또는, 보정 패턴(177)의 배경으로서 스크린(SC)에 투사되는 화상 또는 마커(177a)와 비교하여 고휘도의 색으로 채색된 복수의 평행선을 포함한다. 따라서, 프로젝터(100)는, 촬영 화상(201)으로부터 보다 신속하게 위치 마커(177c)를 검출할 수 있다.
위치 마커(177c)가 검정색 영역(177b)과 함께 투사된다. 위치 마커(177c)는 검정색 영역(177b)보다 고휘도의 색으로 형성된다. 따라서, 보다 용이하게 위치 마커(177c)를 검출할 수 있다.
또한, 위치 마커(177c)를, 촬영 화상(201)에 있어서 줌 렌즈(151)의 광축의 에피폴라선(201a) 상에 비추도록 배치된 직선인 검정색 영역(177b)에 배치시킨다. 이에 따라, 위치 마커(177c)를 보다 용이하게 검출 가능하다.
위치 마커(177c) 및 검정색 영역(177b)을, 촬영 화상(201)에 있어서 에피폴라선(201a)의 근방에 비추도록 배치해도 좋다. 이 경우에, 전술된 경우와 같이, 위치 마커(177c)를 보다 용이하게 검출 가능하다.
환언하면, 위치 마커(177c) 및 검정색 영역(177b)을, 촬영 화상(201)에 있어서 줌 렌즈(151)의 광축의 근방에 비추도록 배치해도 좋다. 이 경우에, 전술된 경우와 같이, 위치 마커(177c)를 보다 용이하게 검출 가능하다.
전술의 실시 형태에서 설명한 보정 패턴(177)은 단지 일 예이다. 전술한 예와는 상이한 형상을 갖는 제1 패턴 및 제2 패턴을 포함하는 보정 패턴을 이용하는 것도 물론 가능하다.
도 6a 내지 도 6c는, 보정 패턴의 다른 예를 나타내는 도면으로서, 도 6a는 보정 패턴(178)의 예를 나타내고, 도 6b는 광변조 장치(130)가 화상과 보정 패턴(178)을 묘화한 예를 나타내고, 도 6c는 촬영 화상(201)의 예를 나타낸다.
이 도 6a에 나타내는 보정 패턴(178)은, 하나의 마커(178a)(제1 패턴)를 포함하고 있다. 마커(178a)는, 검정색 또는 저휘도색으로서, 소정의 면적을 갖는 도형이다. 도 6a의 예에서는, 마커(178a)가 직사각형이다. 마커(178a)는, 내부에, 흰색 또는 고휘도의 도형(이 예에서는 원)을 복수 포함하고 있다. 이들 흰색 또는 고휘도의 도형은 제2 패턴에 상당한다.
보정 패턴(178)은, 마커(178a)를 제외하고 투명하다. 따라서, 보정 패턴(178)이 화상(175)에 놓이도록 화상 형성 가능 영역(136)에 묘화하면, 도 6b에 나타내는 바와 같이, 마커(178a)가 화상(175)에 놓여 묘화된다. 보정 패턴(178)은, 보정 패턴(177)처럼 왜곡 보정 처리의 영향을 받지 않기 때문에, 마커(178a)가 묘화되는 위치가 고정되게 된다.
보정 패턴(178)에 포함되는 마커(178a)는, 도 6c에 나타내는 바와 같이, 촬영 화상(201)에 있어서 에피폴라선(201a)과 겹쳐지는 위치에 배치되어 있다. 따라서, 전술의 위치 마커(177c)와 동일하게, 마커(178a)는 프로젝터(100)의 줌비에 따라 이동하지 않는다. 프로젝터(100)로부터 스크린(SC)으로의 투사 거리가 바뀌어도, 마커(178a)의 위치는 변동하기 어렵다.
이 때문에, 보정 제어부(122)는, 촬영 화상(201)에 있어서 에피폴라선(201a)의 근방을 탐색하면, 보정 제어부(122)는 마커(178a)에 포함되는 고휘도색의 화상을, 용이하게 검출할 수 있다. 마커(178a)에 포함되는 복수의 도형의 상대 위치는 알려져 있다. 따라서, 예를 들면 마커(178a)에 포함되는 복수의 원을 검출함으로써, 줌비를 산출할 수 있다. 마커(178a)에 포함되는 복수의 원의 개수가, 3차원 측량부(125)가 3차원 측량을 행하기 위해 필요한 특징점의 수이거나, 그보다 많은 수이면, 마커(178a)를 검출함으로써 3차원 측량을 행하여, 왜곡 보정 처리에 필요한 파라미터를 산출할 수 있다.
이 도 6a 내지 도 6c에 예시한 보정 패턴(178) 외에, 여러 가지 도형을 포함하는 보정 패턴이 이용될 수 있다.
이 변형예에 있어서의 마커(178a)에 포함되는 원의 위치는, 전술의 위치 마커(177c)와 동일하게, 에피폴라선(201a)과 겹쳐지는 위치 또는 에피폴라선(201a)의 근방 또는 줌 렌즈(151)의 광축의 근방이면 좋다. 이 경우, 프로젝터(100)는 마커(178a)에 포함되는 원을 용이하게 검출할 수 있다.
전술한 실시 형태는 본 발명을 적용한 구체적 형태의 예일 뿐이다. 이 실시 형태로 본 발명이 한정되지는 않는다. 전술의 실시 형태와는 상이한 형태로서 본 발명을 적용하는 것도 가능하다. 예를 들면, 전술의 실시 형태에서 설명된 예에서는, 케이블(200)을 통하여 A/D 변환부(110)에 입력된 화상을 투사했다. 그러나, 본 발명은 이것에 한정되지 않는다. 화상 기억부(171)에 기억되어 있는 화상 또는 영상을 투사하는 경우에도 본 발명을 적용하는 것은 물론 가능하다. 전술의 실시 형태에 있어서 프로젝터(100)의 각 부의 동작을 규정하는 시간이나 문턱값 등에 관한 설정값은, ROM(170)에 미리 기억되어 있다. 그러나, 이들 설정값은, 프로젝터(100) 외부의 기억 매체나 장치에 기억해 두고, 필요에 따라서 프로젝터(100)에 의해 취득되어도 좋다. 리모컨(191) 또는 조작부(195)가 조작될 때마다 설정값이 입력되어도 좋다. 프로젝터(100)에 의해 사용되는 보정 패턴(177 및 178) 등이, 프로젝터(100) 외부의 장치 또는 기억 매체에 기억되어 있어도 좋다.
전술의 실시 형태에서는, 프로젝터(100)의 본체에 투사부(101)와 촬상부(180)가 고정되도록 구성된다. 그러나, 본 발명은 이것에 한정되지 않는다. 줌 렌즈(151)의 주점(principal point)과 카메라 렌즈(183)의 주점과의 상대 위치가 알려져 있으며, 도 5에 나타낸 일련의 처리에 있어서 변동하지 않는 구성되어 있다면, 투사부(101)와 촬상부(180)를 별체로서 구성하는 것도 가능하다.
전술의 실시 형태에서는, 스크린(SC) 상의 화상에 발생하는 사다리꼴 왜곡을 보정하는 처리가 설명되어 있다. 그러나, 본 발명은 이것에 한정되지 않는다. 예를 들면, 소위 배럴(barrel) 왜곡이나 핀쿠션(pin-cushion) 왜곡이라고 불리는 왜곡을 보정하는 처리에도 본 발명을 적용 가능하다.
전술의 실시 형태의 설명에서는, 촬상부(180)는 CCD 이미지 센서를 구비한 CCD 카메라(181)를 구비한다. 그러나, 본 발명은 이것에 한정되지 않는다. 촬상부(180)의 이미지 센서로서 CMOS 센서를 이용해도 좋다. 전술의 실시 형태에서는, 광변조 장치의 예로서, RGB의 각 색에 대응한 3개의 투과형 또는 반사형의 액정 패널을 포함하는 구성이 설명되고 있다. 그러나, 본 발명은 이것에 한정되지 않는다. 예를 들면, 1개의 액정 패널과 컬러 휠을 조합한 방식, RGB 각 색의 색광을 변조하는 3개의 디지털 미러 디바이스(DMD)를 이용한 방식 또는 1개의 디지털 미러 디바이스와 컬러 휠을 조합한 방식 등에 의해 구성해도 좋다. 표시부로서 1개만의 액정 패널 또는 DMD를 이용하는 경우에는, 크로스 다이크로익 프리즘 등의 합성 광학계에 상당하는 부재는 불필요하다. 액정 패널 또는 DMD 이외에도, 광원에 의해 발한 광을 변조 가능한 구성이면 문제없이 채용할 수 있다.
도 1에 나타낸 기능부들은, 프로젝터(100)의 기능적 구성을 나타낸다. 기능적 부들의 구체적인 실시 형태는 특별히 제한되지 않는다. 즉, 각 기능부에 개별적으로 대응하는 하드웨어가 반드시 실장될 필요는 없다. 하나의 프로세서가 프로그램을 실행하여 복수의 기능부의 기능을 실현하는 구성을 적용하는 것도 물론 가능하다. 전술의 실시 형태에 있어서 소프트웨어에 의해 실현되고 있는 기능의 일부를 하드웨어로 실현해도 좋다. 또는, 하드웨어에 의해 실현되고 있는 기능의 일부를 소프트웨어로 실현해도 좋다.
100 : 프로젝터
101 : 투사부(투사 수단)
120 : CPU
121 : 투사 제어부(제어 수단)
122 : 보정 제어부(보정 수단)
130 : 광변조 장치
131 : 화상용 프로세서
132 : 사다리꼴 왜곡 보정부
133 : 중첩 처리부
134 : 광변조 장치 구동부
150 : 투사 광학계
151 : 줌 렌즈(투사 렌즈)
170 : ROM
172 : 보정 패턴 기억부
177 : 보정 패턴(조정용 화상)
177a : 마커(제1 패턴)
177b : 검정색 영역(제2 패턴)
177c : 위치 마커(제2 패턴)
180 : 촬상부(촬상 수단)
183 : 카메라 렌즈
185 : 움직임 검출부
191 : 리모컨
195 : 조작부
SC : 스크린(투사면)

Claims (9)

  1. 투사면에 화상을 투사하도록 구성된 투사부와,
    상기 투사부로 하여금, 제1 패턴 및 제2 패턴을 포함하는 조정용 화상을 투사하도록 구성된 제어부와,
    상기 투사부에 의해 투사된 상기 조정용 화상에 포함되는 상기 제1 패턴 및 상기 제2 패턴을 검출하여, 투사 화상의 왜곡을 보정하도록 구성된 보정부를 구비하고,
    상기 보정부는, 상기 투사면에 투사된 상기 제2 패턴을 검출하고, 검출한 상기 제2 패턴의 위치에 기초하여 상기 제1 패턴의 위치를 검출하는 프로젝터.
  2. 제1항에 있어서,
    상기 투사부는 투사 렌즈를 구비하고,
    상기 제2 패턴은, 상기 투사 렌즈의 광축과 상기 투사면과의 교점의 근방에 투사되도록 배치되는 프로젝터.
  3. 제1항 또는 제2항에 있어서,
    상기 제2 패턴의 적어도 일부는, 흰색, 또는, 상기 조정용 화상의 배경으로서 투사되는 화상의 색과 비교하여 고휘도를 갖는 색으로 채색된 복수의 평행선을 포함하는 프로젝터.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 투사면을 촬영하도록 구성된 촬상부를 더 구비하고,
    상기 보정부는, 상기 촬상부의 촬영 화상으로부터 상기 제1 패턴을 검출하여, 상기 투사 화상의 왜곡을 보정하는 프로젝터.
  5. 제4항에 있어서,
    상기 조정용 화상은, 상기 제2 패턴으로서, 상기 촬상부의 촬영 화상에 있어서 상기 투사 렌즈의 광축의 에피폴라선 상 또는 에피폴라선의 근방에 비추도록 배치된 직선을 포함하는 프로젝터.
  6. 제4항 또는 제5항에 있어서,
    상기 조정용 화상은, 상기 제2 패턴으로서, 상기 촬상부의 촬영 화상에 있어서 상기 투사 렌즈의 광축의 에피폴라선 상 또는 에피폴라선의 근방에 비추도록 배치된 소정 형상을 갖는 도형을 포함하는 프로젝터.
  7. 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 조정용 화상은, 상기 제2 패턴으로서, 상기 촬상부의 촬영 화상에 있어서 상기 투사 렌즈의 광축의 근방에 비추도록 구성된 소정의 도형을 포함하는 프로젝터.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 보정부는, 상기 투사 화상의 왜곡을 보정하는 처리의 개시 조건이 충족된 후 소정의 완료 조건이 부합될 때까지, 상기 투사 화상의 왜곡을 보정하는 처리를 복수회 실행하는 프로젝터.
  9. 투사면에 화상을 투사하도록 구성된 투사부를 구비한 프로젝터를 제어하고,
    상기 투사부에 의해, 제1 패턴 및 제2 패턴을 포함하는 조정용 화상을 투사하고,
    상기 투사부에 의해 투사된 상기 조정용 화상에 포함되는 상기 제1 패턴 및 상기 제2 패턴을 검출하여, 투사 화상의 왜곡을 보정하고,
    상기 투사면에 투사된 상기 제2 패턴을 검출하고, 검출한 상기 제2 패턴의 위치에 기초하여 상기 제1 패턴의 위치를 검출하는 프로젝터의 제어 방법.
KR1020147028457A 2012-03-14 2013-03-13 프로젝터 및 프로젝터의 제어 방법 KR101631568B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2012-056949 2012-03-14
JP2012056949A JP5924042B2 (ja) 2012-03-14 2012-03-14 プロジェクター、及び、プロジェクターの制御方法
PCT/JP2013/001655 WO2013136789A1 (en) 2012-03-14 2013-03-13 Projector and control method for the projector

Publications (2)

Publication Number Publication Date
KR20140136031A true KR20140136031A (ko) 2014-11-27
KR101631568B1 KR101631568B1 (ko) 2016-06-17

Family

ID=48142045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147028457A KR101631568B1 (ko) 2012-03-14 2013-03-13 프로젝터 및 프로젝터의 제어 방법

Country Status (9)

Country Link
US (1) US9479748B2 (ko)
EP (1) EP2826249B1 (ko)
JP (1) JP5924042B2 (ko)
KR (1) KR101631568B1 (ko)
CN (1) CN103313010B (ko)
IN (1) IN2014DN08061A (ko)
RU (1) RU2585661C2 (ko)
TW (1) TWI566602B (ko)
WO (1) WO2013136789A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP2014179698A (ja) * 2013-03-13 2014-09-25 Ricoh Co Ltd プロジェクタ及びプロジェクタの制御方法、並びに、その制御方法のプログラム及びそのプログラムを記録した記録媒体
US9733728B2 (en) * 2014-03-03 2017-08-15 Seiko Epson Corporation Position detecting device and position detecting method
JP6277816B2 (ja) * 2014-03-26 2018-02-14 セイコーエプソン株式会社 プロジェクター
WO2016047043A1 (ja) * 2014-09-25 2016-03-31 パナソニックIpマネジメント株式会社 投影装置
CN105072430B (zh) * 2015-08-19 2017-10-03 海信集团有限公司 一种调整投影图像的方法和设备
US20170094238A1 (en) * 2015-09-30 2017-03-30 Hand Held Products, Inc. Self-calibrating projection apparatus and process
TWI581636B (zh) * 2016-05-23 2017-05-01 鴻海精密工業股份有限公司 螢幕顯示比例調整裝置及方法
TWI586173B (zh) 2016-07-14 2017-06-01 張修誠 投影系統及投影影像的修正方法
CN107621743B (zh) * 2016-07-14 2020-04-24 北京宝江科技有限公司 投影***及投影影像的变形修正方法
JP6702171B2 (ja) * 2016-12-22 2020-05-27 カシオ計算機株式会社 投影制御装置、投影制御方法及びプログラム
JPWO2018167999A1 (ja) * 2017-03-17 2020-01-16 パナソニックIpマネジメント株式会社 プロジェクタ及びプロジェクタシステム
JP6926948B2 (ja) * 2017-10-27 2021-08-25 セイコーエプソン株式会社 プロジェクター、画像投写システム、及びプロジェクターの制御方法
JP6642610B2 (ja) * 2018-03-22 2020-02-05 カシオ計算機株式会社 投影制御装置、投影装置、投影制御方法及びプログラム
JP6784944B2 (ja) * 2018-03-26 2020-11-18 カシオ計算機株式会社 投影制御装置、マーカ検出方法及びプログラム
CN108632593B (zh) * 2018-05-31 2020-05-19 歌尔股份有限公司 彩色汇聚误差的修正方法、装置及设备
CN109451289B (zh) * 2018-12-25 2019-12-27 鸿视线科技(北京)有限公司 对投影仪进行检测和校正的方法和***
JP7243510B2 (ja) * 2019-07-29 2023-03-22 セイコーエプソン株式会社 プロジェクターの制御方法、及びプロジェクター
DE102020201097B4 (de) * 2020-01-30 2023-02-16 Carl Zeiss Industrielle Messtechnik Gmbh Anordnung und Verfahren zur optischen Objektkoordinatenermittlung
KR20210123059A (ko) 2020-04-02 2021-10-13 삼성전자주식회사 영상 투사 장치 및 영상 투사 장치의 제어 방법
JP2022185342A (ja) * 2021-06-02 2022-12-14 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130225A (ja) * 2008-11-26 2010-06-10 Seiko Epson Corp 投写型表示装置および投写用調整方法
JP2010128102A (ja) 2008-11-26 2010-06-10 Seiko Epson Corp 投写型表示装置および配置関係検出方法
JP2011250034A (ja) * 2010-05-25 2011-12-08 Seiko Epson Corp プロジェクター、投射状態調整方法及び投射状態調整プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6422704B1 (en) * 1998-06-26 2002-07-23 Matsushita Electric Industrial Co., Ltd. Projector that automatically adjusts the projection parameters
US6753907B1 (en) * 1999-12-23 2004-06-22 Justsystem Corporation Method and apparatus for automatic keystone correction
US6527395B1 (en) * 2001-12-10 2003-03-04 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating a projector with a camera
DE60327289D1 (de) * 2002-07-23 2009-06-04 Nec Display Solutions Ltd Bildprojektor mit Bild-Rückkopplungs-Steuerung
US7125122B2 (en) * 2004-02-02 2006-10-24 Sharp Laboratories Of America, Inc. Projection system with corrective image transformation
JP3882929B2 (ja) * 2004-03-29 2007-02-21 セイコーエプソン株式会社 画像処理システム、プロジェクタおよび画像処理方法
JP3960390B2 (ja) * 2004-05-31 2007-08-15 Necディスプレイソリューションズ株式会社 台形歪み補正装置を備えたプロジェクタ
JP3925521B2 (ja) * 2004-08-19 2007-06-06 セイコーエプソン株式会社 スクリーンの一部の辺を用いたキーストーン補正
JP2006121240A (ja) * 2004-10-20 2006-05-11 Sharp Corp 画像投射方法、プロジェクタ、及びコンピュータプログラム
JP4293163B2 (ja) * 2005-01-06 2009-07-08 セイコーエプソン株式会社 プロジェクタ
KR100809351B1 (ko) * 2006-04-03 2008-03-05 삼성전자주식회사 투사 영상을 보정하는 방법 및 장치
JP5251202B2 (ja) * 2008-03-27 2013-07-31 セイコーエプソン株式会社 プロジェクタの投射画像の歪補正方法、及びプロジェクタ
JP5540493B2 (ja) * 2008-10-30 2014-07-02 セイコーエプソン株式会社 投写光学系に対する投写面の位置または傾きの測定方法、その測定方法を用いる投写画像の画像処理方法およびその画像処理方法を実行するプロジェクタ、投写光学系に対する投写面の位置または傾きを測定するプログラム
CA2739136A1 (en) * 2010-05-10 2011-11-10 Xpand, Inc. 3d projector
JP5527049B2 (ja) * 2010-06-30 2014-06-18 セイコーエプソン株式会社 発光装置、およびプロジェクター

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130225A (ja) * 2008-11-26 2010-06-10 Seiko Epson Corp 投写型表示装置および投写用調整方法
JP2010128102A (ja) 2008-11-26 2010-06-10 Seiko Epson Corp 投写型表示装置および配置関係検出方法
JP2011250034A (ja) * 2010-05-25 2011-12-08 Seiko Epson Corp プロジェクター、投射状態調整方法及び投射状態調整プログラム

Also Published As

Publication number Publication date
TW201338535A (zh) 2013-09-16
US9479748B2 (en) 2016-10-25
EP2826249B1 (en) 2016-08-10
CN103313010B (zh) 2018-01-02
WO2013136789A1 (en) 2013-09-19
TWI566602B (zh) 2017-01-11
US20150015852A1 (en) 2015-01-15
RU2585661C2 (ru) 2016-06-10
EP2826249A1 (en) 2015-01-21
RU2014141156A (ru) 2016-05-10
JP5924042B2 (ja) 2016-05-25
KR101631568B1 (ko) 2016-06-17
CN103313010A (zh) 2013-09-18
JP2013190616A (ja) 2013-09-26
IN2014DN08061A (ko) 2015-05-01

Similar Documents

Publication Publication Date Title
KR101631568B1 (ko) 프로젝터 및 프로젝터의 제어 방법
KR101631571B1 (ko) 프로젝터 및 프로젝터의 제어 방법
KR101725512B1 (ko) 프로젝터 및 프로젝터의 제어 방법
JP6343910B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US9804483B2 (en) Projector and method of controlling projector
JP2009253575A (ja) プロジェクタ、プログラム及び記憶媒体
JP6347126B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP6119902B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP6245343B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP6237816B2 (ja) プロジェクター、及び、プロジェクターの制御方法
CN116896613A (zh) 投射图像的校正方法和投射***

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190515

Year of fee payment: 4