JP2006140831A - Projector device - Google Patents

Projector device Download PDF

Info

Publication number
JP2006140831A
JP2006140831A JP2004329385A JP2004329385A JP2006140831A JP 2006140831 A JP2006140831 A JP 2006140831A JP 2004329385 A JP2004329385 A JP 2004329385A JP 2004329385 A JP2004329385 A JP 2004329385A JP 2006140831 A JP2006140831 A JP 2006140831A
Authority
JP
Japan
Prior art keywords
image
screen
unit
projection
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004329385A
Other languages
Japanese (ja)
Inventor
Masaki Ishikawa
正喜 石川
Hiroshi Kawase
宏志 河瀬
Shigeru Naoi
茂 直井
Kenji Ando
健治 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004329385A priority Critical patent/JP2006140831A/en
Publication of JP2006140831A publication Critical patent/JP2006140831A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector device capable of acquiring the shape of the projection surface of a screen with high accuracy. <P>SOLUTION: This projector device comprises: a plurality of image projecting parts for sequentially adjacently displaying test-pattern projected video images on the screen; a photographing part for photographing the projected video images on the screen from a plurality of positions; and a geometric information calculating part for calculating the three-dimensional shape information of the projection surface of the screen from a photographic image photographed by the photographing part. The geometric information calculating part calculates three-dimensional coordinates of the projection surface of the screen by calculating coordinates of points on the screen which correspond to a plurality of corresponding points on the photographic image from the coordinates of the points by a trigonometrical survey method. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、スクリーンにプロジェクタで映像を投射するプロジェクタ装置に関し、特に、スクリーンの投射面の形状を求め、それにより歪のない映像を表示するプロジェクタ装置に関する。   The present invention relates to a projector device that projects an image on a screen with a projector, and more particularly to a projector device that obtains the shape of a projection surface of a screen and thereby displays an image without distortion.

プロジェクタからの映像をスクリーンに投射すると、スクリーン上では、歪がある画像が表示されることがある。平面スクリーンに投射した際、生じる台形歪を補正する技術としては、キーストーン補正がよく知られている。スクリーンが非平面の場合、キーストーン補正では歪を完全に補正することはできないため、スクリーン形状に基づいた補正を行う必要がある。   When an image from a projector is projected onto a screen, a distorted image may be displayed on the screen. Keystone correction is well known as a technique for correcting trapezoidal distortion that occurs when projected onto a flat screen. When the screen is non-planar, it is necessary to perform correction based on the screen shape because keystone correction cannot completely correct distortion.

特許文献1には、プロジェクタとカメラの特性、位置、姿勢をキャリブレーションし、三角測量の方法でスクリーン投影面の形状を取得する方法が記載されている。特許文献2には、レーザーポインタを用いて、スクリーン上の絶対位置をポイントし、計測したポイント位置に基づいて、プロジェクタの投影画像を補正する幾何補正データを求める方法が記載されている。   Patent Document 1 describes a method of calibrating the characteristics, position, and orientation of a projector and a camera, and acquiring the shape of a screen projection surface by a triangulation method. Patent Document 2 describes a method for obtaining geometric correction data for correcting a projected image of a projector based on a measured point position by pointing an absolute position on a screen using a laser pointer.

特開2001−320652号公報JP 2001-320652 A 特開2004−15205号公報JP 2004-15205 A

特許文献1に記載された方法では、プロジェクタとカメラの間の三角測量でスクリーン投影面の形状を推定する。しかしながら、三角測量によって算出した三次元形状の精度は、撮影部の内部特性や相対位置の精度に大きく依存し、内部特性や相対位置に誤差があると、推定するスクリーンの三次元形状では大きな誤差となって現れる。尚、内部特性とは、画角や焦点距離、レンズ歪などのことである。   In the method described in Patent Document 1, the shape of the screen projection surface is estimated by triangulation between the projector and the camera. However, the accuracy of the three-dimensional shape calculated by triangulation greatly depends on the accuracy of the internal characteristics and relative position of the imaging unit. Appears as The internal characteristics include an angle of view, a focal length, lens distortion, and the like.

また、特許文献1に記載された方法では、カメラのみならず、プロジェクタに関しても、内部特性及び相対位置のキャリブレーションを行う必要があるため、プロジェクタの配置やズームを変えるたびに、プロジェクタの内部特性及び相対位置のキャリブレーションを行わなければならない。これを回避するためには、プロジェクタの設置を高精度により行わなければならないという施工上の問題があった。   Further, in the method described in Patent Document 1, not only the camera but also the projector needs to be calibrated for the internal characteristics and the relative position. Therefore, each time the projector arrangement or zoom is changed, the internal characteristics of the projector are changed. And relative position calibration must be performed. In order to avoid this, there has been a construction problem that the projector must be installed with high accuracy.

特許文献2に記載された方法では、スクリーンの絶対位置をレーザーポインタでポイントするため、スクリーンの製作精度が高くなければならないという問題があった。   In the method described in Patent Document 2, since the absolute position of the screen is pointed with a laser pointer, there is a problem that the manufacturing accuracy of the screen must be high.

本発明はこのような従来の技術が有する問題点に鑑みてなされたものであり、スクリーンの投射面の形状を高い精度で取得することが可能なプロジェクタ装置を提供することを目的とする。   The present invention has been made in view of such problems of the conventional technology, and an object of the present invention is to provide a projector device that can acquire the shape of the projection surface of the screen with high accuracy.

本発明は、プロジェクタ装置は、スクリーン上にテストパターンの投射映像を順次隣接して表示する複数の画像投射部と、前記スクリーン上の投射映像を複数の位置から撮影する撮影部と、前記撮影部が撮影した前記撮影画像から前記スクリーンの投射面の三次元形状情報を求める幾何情報演算部とを有し、前記幾何情報演算部は、三角測量法によって、前記複数の撮影画像上の対応する点の座標から該点に対応する前記スクリーン上の点の座標を求めることにより、前記スクリーンの投射面の三次元座標を求める。   The projector includes a plurality of image projecting units that sequentially display the projected images of the test pattern on the screen, a photographing unit that photographs the projected images on the screen from a plurality of positions, and the photographing unit. A geometric information calculation unit that obtains three-dimensional shape information of the projection surface of the screen from the photographed image, the geometric information calculation unit corresponding points on the plurality of photographed images by triangulation method By obtaining the coordinates of the point on the screen corresponding to the point from the coordinates, the three-dimensional coordinates of the projection surface of the screen are obtained.

本発明によると、スクリーンの投射面の形状を高い精度で取得する結果、歪みのない映像を表示することができるようになる。   According to the present invention, as a result of acquiring the shape of the projection surface of the screen with high accuracy, an image without distortion can be displayed.

以下、本発明の実施の形態を、図面を参照して説明する。図1は、本発明の実施形態に関わるプロジェクタ装置の機能的な基本構成を示した図である。本例のプロジェクタ装置は、テストパターン画像を保持するテストパターン保持部600、入力された映像信号に所定の変形を施して又はテストパターン保持部600からのテストパターン画像を出力する画像変換部500、画像変換部500から入力した画像をスクリーン100上に投射する画像投射部201、202、スクリーン100に投射された映像を撮影する撮影部301、302、撮影部301、302が撮影した画像を保持する撮影画像保持部310、及び、撮影部301、302による撮影画像からスクリーンの投射面の三次元形状情報を求める幾何情報演算部400を備えている。ここでは、2つの画像投射部201、202が示されているが、2つ以上の画像投射部を設けてもよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a functional basic configuration of a projector apparatus according to an embodiment of the present invention. The projector apparatus of this example includes a test pattern holding unit 600 that holds a test pattern image, an image conversion unit 500 that performs predetermined deformation on an input video signal or outputs a test pattern image from the test pattern holding unit 600, Image projection units 201 and 202 that project an image input from the image conversion unit 500 onto the screen 100, image capturing units 301 and 302 that capture images projected on the screen 100, and images captured by the image capturing units 301 and 302 are held. A captured image holding unit 310 and a geometric information calculation unit 400 that obtains three-dimensional shape information of the projection surface of the screen from captured images by the imaging units 301 and 302 are provided. Here, two image projection units 201 and 202 are shown, but two or more image projection units may be provided.

尚、以下に、画像投射部201、202によって投射される元の画像を原画像、画像投射部201、202によって投射されたスクリーン上の映像を投射映像、撮影部301、302による撮影によって得られた画像を撮影画像と呼ぶ。   In the following, the original image projected by the image projecting units 201 and 202 is obtained as an original image, the video on the screen projected by the image projecting units 201 and 202 is obtained as a projected image, and the images taken by the photographing units 301 and 302 are obtained. This image is called a captured image.

画像変換部500は、最初に、テストパターン保持部600からのテストパターン画像を恒等変形して(すなわち変形せずに)、画像投射部201、202へ出力する。幾何情報演算部400は、テストパターン画像を使用してスクリーンの投射面の三次元形状情報を演算する。画像変換部500は、幾何情報演算部400からの三次元形状情報に基づいて、投射映像すべき画像を変形する。ここで使用するテストパターンは特願2003−204217に記載された複数のパターンであり、以下の撮影においては、特願2003−204217に記載された複数のテストパターンの撮影を行うものとする。   The image conversion unit 500 first deforms the test pattern image from the test pattern holding unit 600 (ie, without deformation), and outputs it to the image projection units 201 and 202. The geometric information calculation unit 400 calculates the three-dimensional shape information of the projection surface of the screen using the test pattern image. The image conversion unit 500 transforms an image to be projected based on the three-dimensional shape information from the geometric information calculation unit 400. The test patterns used here are a plurality of patterns described in Japanese Patent Application No. 2003-204217. In the following imaging, a plurality of test patterns described in Japanese Patent Application No. 2003-204217 are taken.

図2を参照して、スクリーンの投射面の三次元形状情報を算出し、それを補正する処理の概要を説明する。ステップS700にて、スクリーン上にテストパターン像を順次隣接するように投射し、それを撮影する。スクリーン上に、先ず、第1の画像投射部201によって投射映像を生成し、次に、第2の画像投射部202によって、それに隣接する投射映像を生成する。第1の画像投射部201による投射映像と第2の画像投射部202による投射映像は、隣接する辺にて、互いに部分的に重複するように、投射される。これを順次繰り返し、スクリーンの全投射面を撮影する。ステップS800にて、投射面の三次元形状情報を算出し、ステップS900にて、投射面の重複領域情報を算出し、ステップS1000にて、投射面の三次元形状情報を補正する。   With reference to FIG. 2, an outline of processing for calculating three-dimensional shape information of the projection surface of the screen and correcting it will be described. In step S700, test pattern images are sequentially projected on the screen so as to be photographed. On the screen, first, a projection image is generated by the first image projection unit 201, and then a projection image adjacent to the projection image is generated by the second image projection unit 202. The projection video by the first image projection unit 201 and the projection video by the second image projection unit 202 are projected so as to partially overlap each other at adjacent sides. This is repeated in sequence to capture the entire projection surface of the screen. In step S800, the three-dimensional shape information of the projection surface is calculated. In step S900, the overlapping area information of the projection surface is calculated. In step S1000, the three-dimensional shape information of the projection surface is corrected.

本発明では、重複領域を用いて、スクリーンの投射面の三次元形状情報を補正するから、マルチプロジェクションのプロジェクタ装置により曲面スクリーン上に広範囲に映像を投射する用途にも適用可能である。更に、本発明によると、スクリーンの投射面の三次元形状情報を正確に得ることができるから、プロジェクタの設置、スクリーンの設置及び製作に要求される精度を緩和することができる。   In the present invention, since the three-dimensional shape information of the projection surface of the screen is corrected using the overlapping area, the present invention can be applied to an application in which an image is projected over a wide area by a multi-projection projector device. Furthermore, according to the present invention, since the three-dimensional shape information of the projection surface of the screen can be obtained accurately, the accuracy required for the installation of the projector, the installation and production of the screen can be relaxed.

図3を参照して、ステップS700のテストパターンの撮影について説明する。ステップS710にて、第1の画像投射部201による投射映像領域の全体を撮影することができるように、撮影部301、302を配置する。図4を参照して説明する。スクリーン100上には、第1の画像投射部201による投射映像領域401と第2の画像投射部202による投射映像領域402が生成されている。投射映像領域401、402には、テストパターン保持部600に保存されているテストパターンを原画像とする映像が表示される。撮影部301、302は、第1の画像投射部201による投射映像領域401の全体を撮影することができるように、配置される。このときの、撮影部301のカメラ姿勢をカメラ姿勢381、撮影部302のカメラ姿勢をカメラ姿勢382とし、2つのカメラ姿勢381、382をまとめてカメラ姿勢群380とする。図6Aは、第1の撮影部301のファインダーの画面を示し、図6Bは、第2の撮影部302のファインダーの画面を示す。   With reference to FIG. 3, imaging of the test pattern in step S700 will be described. In step S <b> 710, the imaging units 301 and 302 are arranged so that the entire projection video area by the first image projection unit 201 can be captured. This will be described with reference to FIG. On the screen 100, a projection video area 401 by the first image projection unit 201 and a projection video area 402 by the second image projection unit 202 are generated. In the projected video areas 401 and 402, a video having a test pattern stored in the test pattern holding unit 600 as an original image is displayed. The imaging units 301 and 302 are arranged so that the entire projection video area 401 by the first image projection unit 201 can be captured. At this time, the camera posture of the photographing unit 301 is the camera posture 381, the camera posture of the photographing unit 302 is the camera posture 382, and the two camera postures 381 and 382 are collectively referred to as a camera posture group 380. 6A shows a viewfinder screen of the first image capturing unit 301, and FIG. 6B shows a viewfinder screen of the second image capture unit 302.

ステップS720にて、第1の画像投射部201によって生成されたスクリーン100上の投射映像領域401を、第1の撮影部301によって撮影する。図7の撮影画像311は、第1の撮影部301によって、カメラ姿勢381にて、撮影された像である。   In step S 720, the first imaging unit 301 captures the projected video area 401 on the screen 100 generated by the first image projecting unit 201. A photographed image 311 in FIG. 7 is an image photographed by the first photographing unit 301 with the camera posture 381.

図5Aを参照して説明する。第1の画像投影部201によって投射される原画像211上の点Pの座標をP(pアx,pアy)、スクリーン100上の原画像点Pの投射映像点Sのグローバル座標をS(sアx,sアy,sアz)、第1の撮影部301による撮影画像311上の投射映像点Sの撮影画像点Cア_ア1の座標をCア_ア1(cア_ア1x,cア_ア1y)とする。原画像点Pの集合から撮影画像点Cア_ア1への写像をfア_ア1、撮影画像点Cア_ア1の集合から原画像点Pの集合への写像をfア_ア1 −1と表すと、写像fア_ア1、及びfア_ア1 −1は、特願2003−204217に記載された例によって定義され、次の数1の関係がある。 This will be described with reference to FIG. 5A. The first image projection unit 201 coordinates P A P-A point on the original image 211 projected by (p A x, p A y), the projected image point of the screen 100 having original image point P A S A global coordinates of S A (s a x , s a y , s a z ), and the coordinates of the captured image point C a_a 1 of the projected video point S a on the captured image 311 by the first imaging unit 301 are represented by C a_a. 1 ( c_a_1x , c_a_1y ). Original image point f A _ A 1 a mapping from the set of P A to the captured image point C A _ A 1, f A mapping from the set of the photographed image point C A _ A 1 to the set of the original image point P A When expressed as _ a 1 -1, the mapping f a _ a 1 and f a _ a 1 -1 is been examples defined described in Japanese Patent Application No. 2003-204217, a relationship of the following Equation 1.

Figure 2006140831
Figure 2006140831

ステップS730にて、第1の画像投射部201によって生成されたスクリーン100上の投射映像領域401を、第2の撮影部302で撮影する。   In step S <b> 730, the second imaging unit 302 captures the projected video area 401 on the screen 100 generated by the first image projecting unit 201.

図5Aに示すように、第2の撮影部302による撮影画像312上の投影映像点Sの撮影画像点Cア_ア2の座標をCア_ア2(cア_ア2x,cア_ア2y)とする。原画像点Pの集合から撮影画像点Cア_ア2の集合への写像をfア_ア2、撮影画像点Cア_ア2の集合から原画像点Pの集合への写像をfア_ア2 −1と表すと、写像fア_ア2、及びfア_ア2 −1は、特願2003−204217に記載された例によって定義され、次の数2の関係がある。 As shown in FIG. 5A, the second imaging section 302 projected images point on the photographed image 312 by S A photographed image points C A _ A two coordinates C A _ A 2 (c A _ A 2x, c A _A2y ). Original image point f A _ A 2 a mapping from the set of P A to a collection of photographic image point C A _ A 2, a mapping from the set of the photographed image point C A _ A 2 to the set of the original image point P A When expressed as f a _ a 2 -1, the mapping f a _ a 2, and f a _ a 2 -1 is examples defined is described in Japanese Patent Application No. 2003-204217, a relationship of the following Equation 2 .

Figure 2006140831
Figure 2006140831

ステップS740において、スクリーン100上に、投射映像領域401に隣接する投射映像領域を生成する他の画像投射部が存在するか否かを判定する。ここでは、第2の画像投射部202が存在するので、ステップS750に進む。   In step S740, it is determined whether there is another image projection unit that generates a projection video area adjacent to the projection video area 401 on the screen 100. Here, since the second image projection unit 202 exists, the process proceeds to step S750.

ステップS750にて、第2の画像投射部202によって生成されたスクリーン100上の投射映像領域402を、第1の撮影部301で撮影する。図7の撮影画像313は、第1の撮影部301によって、カメラ姿勢381にて、撮影された像である。   In step S 750, the first imaging unit 301 captures the projected video area 402 on the screen 100 generated by the second image projecting unit 202. A photographed image 313 in FIG. 7 is an image photographed by the first photographing unit 301 in the camera posture 381.

図5Bに示すように、第2の画像投影部202によって投射される原画像212上の点Pの座標をP(pイx,pイy)、スクリーン100上の原画像点Pイの投射映像点Sのグローバル座標をS(sイx,sイy,sイz)、第1の撮影部301による撮影画像313上の投射映像点Sの撮影画像点Cア_イ1の座標をCア_イ1(cア_イ1x,cア_イ1y)とする。原画像点Pの集合から撮影画像点Cア_イ1への写像をfア_イ1、撮影画像点Cア_イ1の集合から原画像点Pの集合への写像をfア_イ1 −1と表すと、写像fア_イ1、及びfア_イ1 −1は、特願2003−204217に記載された例によって定義され、次の数4の関係がある。 As shown in FIG. 5B, coordinates P i of point P i on the original image 212 projected by the second image projection section 202 (p i x, p y y), a projection screen 100 having original image point P i The global coordinates of the video point S i are set to S i (s i x , s y y , s i z ), and the captured image point C a_i 1 of the projected video point S i on the captured image 313 by the first imaging unit 301 is displayed. Are the coordinates C_a_ 1 ( c_a_ 1x , c_a_ 1y ). Original image point f A _ b 1 a mapping from the set of P i to the captured image point C A _ b 1, f A mapping from the set of the photographed image point C A _ b 1 to the set of the original image point P Lee When expressed as _ i 1 -1, the mapping f a _ b 1, and f a _ b 1 -1 is examples defined is described in Japanese Patent Application No. 2003-204217, a relationship of the following Equation 4.

Figure 2006140831
Figure 2006140831

ステップS760において、上述の処理を未だ行っていない画像投射部が存在するか否かを判定する。ここでは、第2の画像投射部202について、上述の撮影処理を行っていない。従って、ステップS710に戻る。   In step S760, it is determined whether there is an image projection unit that has not yet been subjected to the above-described processing. Here, the above-described photographing process is not performed for the second image projection unit 202. Therefore, the process returns to step S710.

ステップS710にて、第2の画像投射部202による投射映像領域の全体を撮影することができるように、撮影部301、302を配置する。図4を参照して説明する。撮影部301、302は、第2の画像投射部202による投射映像領域402の全体を撮影することができるように、配置される。このときの、撮影部301のカメラ姿勢をカメラ姿勢391、撮影部302のカメラ姿勢をカメラ姿勢392とし、2つのカメラ姿勢391、392をまとめてカメラ姿勢群390とする。図6Cは、第1の撮影部301のファインダーの画面を示し、図6Dは、第2の撮影部302のファインダーの画面を示す。   In step S <b> 710, the photographing units 301 and 302 are arranged so that the entire projection video area by the second image projecting unit 202 can be photographed. This will be described with reference to FIG. The photographing units 301 and 302 are arranged so that the entire projection video area 402 by the second image projecting unit 202 can be photographed. At this time, the camera posture of the photographing unit 301 is a camera posture 391, the camera posture of the photographing unit 302 is a camera posture 392, and the two camera postures 391 and 392 are collectively referred to as a camera posture group 390. 6C shows a finder screen of the first photographing unit 301, and FIG. 6D shows a finder screen of the second photographing unit 302.

ステップS720にて、第2の画像投射部202によって生成されたスクリーン100上の投射映像領域402を、第1の撮影部301によって撮影する。   In step S <b> 720, the first imaging unit 301 captures the projected video area 402 on the screen 100 generated by the second image projecting unit 202.

図5Cに示すように、第2の画像投影部202によって投射される原画像212上の点Pの座標をP(pイx,pイy)、スクリーン100上の原画像点Pの投射映像点Sのグローバル座標をS(sイx,sイy,sイz)、第1の撮影部301による撮影画像321上の投射映像点Sの撮影画像点Cイ_イ1の座標をCイ_イ1(cイ_イ1x,cイ_イ1y)とする。原画像点Pの集合から撮影画像点Cイ_イ1への写像をfイ_イ1、撮影画像点Cイ_イ1の集合から原画像点Pの集合への写像をfイ_イ1 −1と表すと、写像fイ_イ1、及びfイ_イ1 −1は、特願2003−204217に記載された例によって定義され、次の数4の関係がある。 As shown in FIG. 5C, the coordinates of the point P i on the original image 212 projected by the second image projection unit 202 are set to P i (p i x , p y y ), and the original image point P i on the screen 100 is projected. The global coordinates of the video point S i are set to S i (s i x , s y y , s i z ), and the imaged image point C i — i 1 of the projection video point S i on the image 321 taken by the first imaging unit 301 Are set as C B_I 1 (c B_I 1x , C B_I 1 y ). Original image point f Yi _ Yi 1 a mapping from the set of P i to the captured image point C Yi _ Yi 1, a mapping from the set of the photographed image point C Yi _ Yi 1 to the set of the original image point P i f i When expressed as _ i 1 -1, the mapping f i _ i 1 and f i _ i 1 -1 is examples defined is described in Japanese Patent Application No. 2003-204217, a relationship of the following Equation 4.

Figure 2006140831
Figure 2006140831

ステップS730にて、第2の画像投射部202によって生成されたスクリーン100上の投射映像領域402を、第2の撮影部302で撮影する。   In step S <b> 730, the second imaging unit 302 captures the projected video area 402 on the screen 100 generated by the second image projecting unit 202.

図5Cに示すように、第2の撮影部302による撮影画像322上の投影映像点Sの撮影画像点Cイ_イ2の座標をCイ_イ2(cイ_イ2x,cイ_イ2y)とする。原画像点Pの集合から撮影画像点Cイ_イ2の集合への写像をfイ_イ2、撮影画像点Cイ_イ2の集合から原画像点Pの集合への写像をfイ_イ2 −1と表すと、写像fイ_イ2、及びfイ_イ2 −1は、特願2003−204217に記載された例によって定義され、次の数5の関係がある。 As shown in FIG. 5C, a second of the coordinates captured image point C b _ 2 of the projection image point S i on the captured image 322 by the photographing unit 302 C Lee _ i 2 (c i _ i 2x, c i _I2y ). The mapping from the set of original image points P i to the set of photographed image points C i — i 2 is f i — i 2 , and the mapping from the set of photographed image points C i — i 2 to the set of original image points P i — When expressed as f i — i 2 −1 , the maps f i — i 2 and f i — i 2 −1 are defined by the example described in Japanese Patent Application No. 2003-204217, and have the following relationship: .

Figure 2006140831
Figure 2006140831

ステップS740において、スクリーン100上に、投射映像領域402に隣接する投射映像領域を生成する他の画像投射部が存在するか否かを判定する。ここでは、第1の画像投射部201が存在するので、ステップS750に進む。   In step S740, it is determined whether there is another image projection unit that generates a projection video area adjacent to the projection video area 402 on the screen 100. Here, since the first image projection unit 201 exists, the process proceeds to step S750.

ステップS750にて、第1の画像投射部201によって生成されたスクリーン100上の投射映像領域401を、第2の撮影部302で撮影する。ただし、この撮影は冗長なので省略してもよい。   In step S 750, the second imaging unit 302 captures the projected video area 401 on the screen 100 generated by the first image projecting unit 201. However, since this shooting is redundant, it may be omitted.

図5Aに示すように、第2の撮影部302による撮影画像333上の投射映像点Sの撮影画像点Cイ_ア2の座標をCイ_ア2(cイ_ア2x,cイ_ア2y)とする。第1の画像投射部201によって投射される原画像点Pアの集合から第2の撮影部302による撮影画像323上の撮影画像点Cイ_ア2への写像をfイ_ア2、撮影画像点Cイ_ア2の集合から原画像点Pの集合への写像をfイ_ア2 −1と表すと、写像fイ_ア2、及びfイ_ア2 −1は、特願2003−204217に記載された例によって定義され、次の数6の関係がある。 As shown in FIG. 5A, the second the coordinate photographed image point C b _ A 2 of the projected image point S A on the captured image 333 by the photographing unit 302 C Lee _ A 2 (c i _ A 2x, c i _A2y ). F i _ A 2 mapping to the first image projection unit 201 the captured image point C b _ A 2 from a set of original image point P A on the captured image 323 by the second imaging section 302 to be projected by the photographing When a mapping from a set of image points C _ a 2 to a set of original image points P a represents the f i _ a 2 -1, the mapping f i _ a 2, and f i _ a 2 -1, especially It is defined by the example described in the application 2003-204217, and there is the following equation (6).

Figure 2006140831
Figure 2006140831

ステップS760において、上述の処理を未だ行っていない画像投射部が存在するか否かを判定する。ここでは、全ての画像投射部について、上述の撮影処理を行っており、撮影処理を終了する。   In step S760, it is determined whether there is an image projection unit that has not yet been subjected to the above-described processing. Here, the above-described shooting process is performed for all the image projection units, and the shooting process ends.

図7は、第1の画像投影部201によって投射される原画像211、第1の画像投射部201によって生成されたスクリーン100上の投射映像領域401を第1の撮影部301によって、カメラ姿勢381にて、撮影することにより得た撮影画像311、第2の画像投射部202によって生成されたスクリーン100上の投射映像領域402を第1の撮影部301によって、カメラ姿勢381にて、撮影することにより得た撮影画像313、及び、第2の画像投影部202によって投射される原画像212、を示す。撮影画像311には、原画像211の像の全体が含まれるが、撮影画像313には、原画像212の像の一部が含まれる。   7 shows an original image 211 projected by the first image projection unit 201 and a projected video area 401 on the screen 100 generated by the first image projection unit 201 by the first photographing unit 301 by a camera posture 381. Then, the captured image 311 obtained by photographing and the projected video area 402 on the screen 100 generated by the second image projecting unit 202 are photographed by the first photographing unit 301 at the camera posture 381. The captured image 313 obtained by the above and the original image 212 projected by the second image projection unit 202 are shown. The captured image 311 includes the entire image of the original image 211, while the captured image 313 includes a part of the image of the original image 212.

図8を参照して、ステップS800の投射面の三次元形状情報を算出する処理を説明する。ステップS810にて、1つの画像投射部を選択する。ここでは、第1の画像投射部201を選択する。   With reference to FIG. 8, the process which calculates the three-dimensional shape information of the projection surface of step S800 is demonstrated. In step S810, one image projection unit is selected. Here, the first image projection unit 201 is selected.

ステップS820にて、特開2001−320652に記載された三角測量法により、投射映像点Sのグローバル座標S(sアx,sアy,sアz)を求める。図5Aに示すように、第1の撮影部301による撮影画像311上の撮影画像点Cア_ア1と第2の撮影部302による撮影画像312上の撮影画像点Cア_ア2は、共に、スクリーン100上の投射映像点Sを示す。そこで、投射映像点Sのグローバル座標S(sアx,sアy,sアz)を求める。 In step S820, JP by triangulation method described in 2001-320652, determine the global coordinates S A of the projected image point S A (s A x, s A y, s A z). As shown in FIG. 5A, the captured image points C A _ A 2 on the first imaging unit 301 captured image points C A _ A 1 on the captured image 311 according to a second shooting section 302 by the photographing image 312, both shows the projected image point S a on the screen 100. Therefore, determining the global coordinates S A of the projected image point S A (s A x, s A y, s A z) a.

ステップS830にて、第1の撮影部301による撮影画像311上の撮影画像点Cと第2の撮影部302による撮影画像312上の撮影画像点Cの組のうち、スクリーン100上の1つの投射映像点Sを示す組があるか否かを判定する。このような組がある限り、ステップS820の処理を繰り返す。このような組がなくなったら、ステップS840へ進む。 In step S 830, 1 on the screen 100 out of the set of the captured image point C 1 on the captured image 311 by the first capturing unit 301 and the captured image point C 2 on the captured image 312 by the second capturing unit 302. It is determined whether or not there is a pair indicating one projection video point S. As long as there is such a set, the process of step S820 is repeated. If there is no such set, the process proceeds to step S840.

ステップS840にて、上述の処理を未だ行っていない画像投射部が存在するか否かを判定する。ここでは、第2の画像投射部202について、上述の投射映像点のグローバル座標を求める処理を行っていない。従って、ステップS810に戻る。
ステップS810にて、第2の画像投射部202を選択する。
In step S840, it is determined whether there is an image projection unit that has not been subjected to the above-described processing. Here, the process for obtaining the global coordinates of the projected video point is not performed on the second image projection unit 202. Therefore, the process returns to step S810.
In step S810, the second image projection unit 202 is selected.

ステップS820にて、特開2001−320652に記載された三角測量法により、投射映像点Sのグローバル座標S(sイx,sイy,sイz)を求める。図5Cに示すように、第1の撮影部301による撮影画像321上の撮影画像点Cイ_イ1と第2の撮影部302による撮影画像322上の撮影画像点Cイ_イ2は、共に、スクリーン100上の投射映像点Sを示す。そこで、投射映像点Sイのグローバル座標S(sイx,sイy,sイz)を求める。 In step S820, the global coordinates S a (s i x , s y y , s i z ) of the projected video point S i are obtained by the triangulation method described in JP-A-2001-320652. As shown in FIG. 5C, the captured image point C b _ i 2 on the first imaging unit capturing an image point on the photographed image 321 by 301 C Lee _ b 1 and the second imaging section 302 by the photographed image 322, both shows the projected image point S i on the screen 100. Therefore, the global coordinates S a (s i x , s y y , s i z ) of the projected video point S i are obtained.

ステップS830にて、第1の撮影部301による撮影画像321上の撮影画像点と第2の撮影部302による撮影画像322上の撮影画像点の組のうち、スクリーン100上の1つの投射映像点を示す組があるか否かを判定する。このような組がある限り、ステップS820の処理を繰り返す。ここでは、このような組がなくなったから、三次元形状情報算出処理を終了する。   In step S830, one projected video point on the screen 100 out of the set of the captured image point on the captured image 321 by the first capturing unit 301 and the captured image point on the captured image 322 by the second capturing unit 302. It is determined whether there is a pair indicating. As long as there is such a set, the process of step S820 is repeated. Here, since there is no such set, the three-dimensional shape information calculation process is terminated.

ステップS810〜S840の処理により、第1の画像投射部201によってスクリーン100上に結像する投射映像領域401と第2の画像投射部202によってスクリーン100上に結像する投射映像領域402の三次元形状が求まった。   By the processing in steps S810 to S840, the three-dimensional projection video region 401 imaged on the screen 100 by the first image projection unit 201 and the projection video region 402 imaged on the screen 100 by the second image projection unit 202. The shape was sought.

図9および図10を参照して、三次元形状の誤差を説明する。三角測量の方法により算出した三次元形状の精度は、上述のように撮影部の内部特性や相対位置の精度に大きく依存する。図9は、第2の撮影部302の内部特性や相対位置に誤差があり、スクリーン100上に結像する投射映像領域の三次元形状に誤差が生ずる状態を示す。図10に示すように、スクリーン100上にて、2つの画像投射部201、202による投射映像領域401、402は三次元位置的に一致するはずであるが、実際には、一致しないケースが起こりうる。本発明では、この不一致を補正するために、以下に説明するように、投射映像領域の重複情報を利用する。   The error of the three-dimensional shape will be described with reference to FIGS. As described above, the accuracy of the three-dimensional shape calculated by the triangulation method greatly depends on the internal characteristics of the imaging unit and the accuracy of the relative position. FIG. 9 shows a state in which there is an error in the internal characteristics and relative position of the second photographing unit 302 and an error occurs in the three-dimensional shape of the projected video area imaged on the screen 100. As shown in FIG. 10, on the screen 100, the projected video areas 401 and 402 by the two image projection units 201 and 202 should coincide in three-dimensional positions, but in reality, a case where they do not coincide with each other occurs. sell. In the present invention, in order to correct this discrepancy, overlapping information of the projected video area is used as described below.

図11を参照して、ステップS900の投射映像領域の重複情報の算出処理について説明する。   With reference to FIG. 11, the calculation process of the overlap information of the projection video area in step S900 will be described.

ステップS910にて、1つの画像投射部を選択する。ここでは、第1の画像投射部201を選択する。第1の画像投射部201によるスクリーン上の投射映像領域401の全体が写るように第1の撮影部301によって撮影し、そのときのカメラ姿勢381を選択する。   In step S910, one image projection unit is selected. Here, the first image projection unit 201 is selected. Photographing is performed by the first photographing unit 301 so that the entire projected video area 401 on the screen by the first image projecting unit 201 is captured, and the camera posture 381 at that time is selected.

ステップS920にて、第1の撮影部301は、選択したカメラ姿勢381にて、2つ以上の画像投射部による投射映像領域を撮像したか否かを判定する。ここでは、第1の撮影部301は、選択したカメラ姿勢381にて、2つの画像投射部201、202による投射映像領域を撮像したので、ステップS930に進む。図12は、カメラ姿勢381にて、第1の撮影部301による撮影画像311、313を示す。撮影画像311には、第1の画像投射部201の原画像211の全体が含まれ、撮影画像313には、第2の画像投射部202の原画像212の一部が含まれる。   In step S920, the first photographing unit 301 determines whether or not the projected video area by the two or more image projecting units is captured with the selected camera posture 381. Here, since the first image capturing unit 301 has captured the projected video areas of the two image projecting units 201 and 202 with the selected camera posture 381, the process proceeds to step S930. FIG. 12 shows captured images 311 and 313 by the first imaging unit 301 in the camera posture 381. The captured image 311 includes the entire original image 211 of the first image projection unit 201, and the captured image 313 includes a part of the original image 212 of the second image projection unit 202.

ステップS930にて、画像投射部による投射映像のうち、重複領域が存在するものを互いに関連付ける。図12に示すように、カメラ姿勢381にて得た2つの撮影画像311、313より、その重複領域350を得ることができる。   In step S930, among the projected images by the image projection unit, those having overlapping regions are associated with each other. As shown in FIG. 12, the overlapping region 350 can be obtained from the two captured images 311 and 313 obtained with the camera posture 381.

図12に示すように、重複領域350上の点Pco(cox,coy)を写像fア_ア1 −1で変換した点をPアo(pアox,pアoy)とし、写像fア_イ1 −1で変換した点をPイo(pイox,pイoy)とする。原画像211上の座標点(pアox,pアoy)と原画像212上の座標点(pイox,pイoy)が対応する組となる。 As shown in FIG. 12, and point P co (c ox, c oy ) on overlapping regions 350 points converted at mapping f A _ A 1 -1 P A o (p A ox, p A oy) and, to the point that was converted by the mapping f a _ b 1 -1 P i o (p b ox, p b oy) and. Coordinate point on the original image 211 (p A ox, p A oy) and the original image coordinate points on the 212 (p i ox, p i oy) a corresponding set.

重複領域350上の全ての点に対し、対応する座標点の組(pアox,pアoy)と(pイox,pイoy)を求める。この組の集合が重複領域情報である。ここで、第1の画像投射部201の原画像211の座標系から第2の画像投影部202の原画像212の座標系への写像をg12と表す。 For all the points on the overlapping area 350, a set of corresponding coordinate points (p ox , p oy ) and (p ox , p oy ) are obtained. This set of sets is overlapping area information. Here, expressed as g 12 the mapping to the coordinate system of the original image 212 of the second image projection unit 202 from the coordinate system of the original image 211 of the first image projection section 201.

ステップS940において、選択する画像投射部及びカメラ姿勢が残っているか否かを判定する。ここでは、第2の画像投射部202が残っているので、ステップS910に戻る。   In step S940, it is determined whether the selected image projection unit and camera posture remain. Here, since the second image projection unit 202 remains, the process returns to step S910.

ステップS910にて、第2の画像投射部202を選択する。第2の画像投射部202によるスクリーン上の投射映像領域402を第1の撮影部301によって撮影したときのカメラ姿勢391を選択する。   In step S910, the second image projection unit 202 is selected. The camera posture 391 when the first image capturing unit 301 captures an image area 402 projected on the screen by the second image projecting unit 202 is selected.

ステップS920において、第1の撮影部301は、選択したカメラ姿勢391にて、2つ以上の画像投射部による投射映像領域を撮像したか否かを判定する。ここでは、第1の撮影部301は、選択したカメラ姿勢391にて、2つの画像投射部201、202による投射映像領域を撮像したので、ステップS930に進む
ステップS930にて、画像投射部による投射映像のうち、重複領域が存在するものを互いに関連付ける。この結果、写像g12が得られる。
In step S920, the first photographing unit 301 determines whether or not the projected video area by the two or more image projecting units is captured with the selected camera posture 391. Here, since the first image capturing unit 301 has captured the projected video areas by the two image projecting units 201 and 202 with the selected camera posture 391, the process proceeds to step S930. In step S930, the projection by the image projecting unit is performed. Of the videos, those having overlapping areas are associated with each other. As a result, mapping g 12 are obtained.

以上、ステップS910〜S940により、2つの画像投射部201、202による投射映像領域401、402のうち、重複する領域間の座標関係が得られる。   As described above, in steps S910 to S940, the coordinate relationship between overlapping areas among the projected video areas 401 and 402 by the two image projection units 201 and 202 is obtained.

ステップS1000にて、三角測量法で求めた投射映像領域401と402の三次元位置のずれを、写像g12を用いて補正する方法を以下に示す。   A method for correcting the displacement of the three-dimensional positions of the projected video areas 401 and 402 obtained by the triangulation method using the mapping g12 in step S1000 will be described below.

写像g12より、第1の画像投射部201の原画像211上の点(pアox,pアoy)と第2の画像投射部の原画像212上の点(pイox,pイoy)がスクリーン100上にて一致している。従って、ステップS830にて、原画像211上の点(pアox,pアoy)から求まったグローバル座標SアO(sアox,sアoy,sアoz)と原画像212上の点(pイox,pイoy)から求まったグローバル座標SイO(sイox,sイoy,sイoz)は、本来一致するはずである。したがって、グローバル座標上の点SアOと点SイOの差が縮まるように補正すればよい。 From mapping g 12, point (p A ox, p A oy) on the original image 211 of the first image projection section 201 and the second point on the original image 212 of the image projecting section (p i ox, p i oy ) Matches on the screen 100. Therefore, in step S830, the global coordinates S o O (s a ox , sa oy , s a oz ) obtained from the point (p a ox , p a oy ) on the original image 211 and the point on the original image 212 are displayed. The global coordinates S i O (s i ox , s i oy , s i oz ) obtained from (p i ox , p i oy ) should be consistent with each other. Therefore, correction may be such that the difference S A O and the point S i O points on the global coordinate is shortened.

本例では、以下に説明するように、カメラ姿勢のうちカメラ方向(経度、緯度)を補正することで、三次元形状情報を補正する。   In this example, as described below, the three-dimensional shape information is corrected by correcting the camera direction (longitude, latitude) in the camera posture.

図13は、投射面の三次元形状情報を補正する詳細な流れを示す。ステップS1010にて、1つのカメラ姿勢群を選択する。ここではカメラ姿勢群380を選択する。ステップS1020にて、カメラ姿勢群380に含まれる各カメラ姿勢381、382を補正する。以下に補正方法を記す。   FIG. 13 shows a detailed flow for correcting the three-dimensional shape information of the projection surface. In step S1010, one camera posture group is selected. Here, the camera posture group 380 is selected. In step S1020, the camera postures 381 and 382 included in the camera posture group 380 are corrected. The correction method is described below.

三角測量で用いたカメラ姿勢381の経度をθ1c、緯度φ1c、カメラ姿勢382の経度をθ2c、緯度φ2cとする。また、経度の誤差範囲をθe、緯度の誤差範囲をφe、経度の補正精度をθ’、緯度の補正精度をφ’と表す。ただし、θe、φe、θ’、φ’は数7の条件を満たすものとする。 Longitude camera pose 381 used in triangulation Shita1c, latitude Fai1c, longitude theta 2c camera pose 382, and the latitude phi 2c. Also, the longitude error range is represented by θ e , the latitude error range is represented by φ e , the longitude correction accuracy is represented by θ ′, and the latitude correction accuracy is represented by φ ′. However, θ e , φ e , θ ′, and φ ′ satisfy the condition of Equation 7.

Figure 2006140831
Figure 2006140831

ここで、新たに求めるカメラ姿勢381の経度をθ1、緯度φ1、カメラ姿勢382の経度をθ2、緯度φ2とする。θ1、φ1、θ2、φ2の値の範囲は次の数8の式を満たすものとする。 Here, it is assumed that the newly obtained longitude of the camera posture 381 is θ 1 and latitude φ 1 , and the longitude of the camera posture 382 is θ 2 and latitude φ 2 . It is assumed that the range of values of θ 1 , φ 1 , θ 2 , and φ 2 satisfies the following equation (8).

Figure 2006140831
Figure 2006140831

このとき、整数i、j、h、kとθ’、φ’を用いて、θ1、φ1、θ2、φ2を次の数9の式のように表すことができる。 At this time, θ 1 , φ 1 , θ 2 , and φ 2 can be expressed as in the following Expression 9 using integers i, j, h, k, and θ ′ and φ ′.

Figure 2006140831
Figure 2006140831

数7の式の条件から、整数i、j、h、kの値の範囲は、数10のようになる。   From the condition of the expression (7), the range of values of the integers i, j, h, k is as shown in the expression (10)

Figure 2006140831
Figure 2006140831

θ1、φ1、θ2、φ2を用いて、原画像211上の点(pアox,pアoy)からグローバル座標S’アO(s’アox,s’アoy,s’アoz)を新たに算出すると、S’アOとSイOの三次元距離dを数11の式で表すことができる。 Using the angles θ 1 , φ 1 , θ 2 , and φ 2 , the global coordinates S ′ a O (s ′ a ox , s ′ aoy , s ′) are obtained from the point (p a ox , p a oy ) on the original image 211. When a oz) newly calculated, can represent the three-dimensional distance d S 'a O and S Lee O in the numerical formula 11.

Figure 2006140831
Figure 2006140831

ここで、求めた三次元座標の精度を表す指標値eを数12の式で定義する。指標値eは、S’アOとSイOの差が小さいほど、値が小さくなる。 Here, an index value e representing the accuracy of the obtained three-dimensional coordinates is defined by the equation (12). Index value e, the more the difference S 'A O and S b O is small, the value becomes smaller.

Figure 2006140831
Figure 2006140831

数10を満たす全ての整数の組(i,j,h,k)について指標値eを求め、指標値eが最小となるθ1、φ1、θ2、φ2を補正したカメラ方向とする。これにより、カメラ姿勢381、382が補正された。 The index value e is obtained for all integer pairs (i, j, h, k) satisfying Equation 10, and θ 1 , φ 1 , θ 2 , and φ 2 that minimize the index value e are used as the corrected camera directions. . As a result, the camera postures 381 and 382 are corrected.

ステップS1030にて、補正したカメラ姿勢381、382に基づいて、投射映像領域401のグローバル座標を再計算する。グローバル座標の計算方法は、ステップS820と同じ方法を用いる。   In step S1030, the global coordinates of the projection video area 401 are recalculated based on the corrected camera postures 381 and 382. The global coordinate calculation method uses the same method as in step S820.

ステップS1040にて、選択するカメラ姿勢群が残っているか否かを判定する。ここでは、カメラ姿勢群390が残っているので、ステップS1010に戻る。   In step S1040, it is determined whether a camera posture group to be selected remains. Here, since the camera posture group 390 remains, the process returns to step S1010.

ステップS1010〜S1020にて、カメラ姿勢群390に関しても、カメラ姿勢群380と同様にして、カメラ姿勢391、392を補正する。   In steps S <b> 1010 to S <b> 1020, the camera postures 391 and 392 are corrected in the same manner as the camera posture group 380 with respect to the camera posture group 390.

ステップS1030にて、補正したカメラ姿勢391、392に基づいて、投射映像領域402のグローバル座標を再計算する。   In step S1030, the global coordinates of the projected video area 402 are recalculated based on the corrected camera postures 391 and 392.

ステップS1040において、選択するカメラ姿勢群が残っていないので、投射面の三次元形状情報の補正処理を終了する。   In step S1040, the camera posture group to be selected does not remain, and thus the processing for correcting the three-dimensional shape information of the projection surface is terminated.

以上、ステップS1010〜S1040により、投射映像領域401と投射映像領域402の三次元形状情報が補正された。   As described above, the three-dimensional shape information of the projection video area 401 and the projection video area 402 is corrected by steps S1010 to S1040.

本例では、カメラ姿勢のうちカメラ方向(経度、緯度)を補正することで、投射面の三次元形状情報を補正したが、カメラ位置やカメラの内部特性を補正する方法を用いても、同様に投射面の三次元形状情報を補正することができ、結果としてスクリーンの投射面の形状を高い精度で取得することができる。   In this example, the three-dimensional shape information of the projection plane is corrected by correcting the camera direction (longitude, latitude) of the camera posture, but the same applies even if a method for correcting the camera position or the internal characteristics of the camera is used. In addition, the three-dimensional shape information of the projection surface can be corrected, and as a result, the shape of the projection surface of the screen can be obtained with high accuracy.

また、本例では映像投射部の数が2つだったが、3つ以上の映像投射部を有する映像投射装置においても、同様に投射面の三次元形状情報を補正することができ、結果としてスクリーンの投射面の形状を高い精度で取得することができる。   Further, in this example, the number of the video projection units is two, but in the video projection device having three or more video projection units, the three-dimensional shape information of the projection surface can be similarly corrected, and as a result The shape of the projection surface of the screen can be acquired with high accuracy.

以上、本発明の例を説明したが、本発明は上述の例に限定されるものではなく、特許請求の範囲に記載された発明の範囲にて様々な変更が可能であることは当業者に理解されよう。   The example of the present invention has been described above, but the present invention is not limited to the above-described example, and various modifications can be made by those skilled in the art within the scope of the invention described in the claims. It will be understood.

本発明によるプロジェクタ装置の構成例を示す図である。It is a figure which shows the structural example of the projector apparatus by this invention. 本発明によるプロジェクタ装置における処理の概略を示す図である。It is a figure which shows the outline of the process in the projector apparatus by this invention. 撮影の処理の詳細な流れを示す図である。It is a figure which shows the detailed flow of a process of imaging | photography. 撮影部のレンズ姿勢を説明する図である。It is a figure explaining the lens attitude | position of an imaging | photography part. 三角測量法による三次元形状情報算出に用いる撮影画像の図である。It is a figure of the picked-up image used for the three-dimensional shape information calculation by a triangulation method. 撮影部のファインダーの画面の例を示す図である。It is a figure which shows the example of the screen of the finder of an imaging | photography part. 重複領域情報算出に用いる撮影画像を示す図である。It is a figure which shows the picked-up image used for overlapping area information calculation. 三次元形状情報算出の処理の詳細な流れを示す図である。It is a figure which shows the detailed flow of a process of three-dimensional shape information calculation. 撮影部による誤差を説明する図である。It is a figure explaining the error by an imaging part. 投射映像領域のずれを示す図である。It is a figure which shows the shift | offset | difference of a projection video area | region. 重複領域情報算出の処理の詳細な流れを示す図である。It is a figure which shows the detailed flow of the process of overlap area information calculation. 重複領域の求め方を説明する図である。It is a figure explaining how to obtain an overlapping area. 投射面の三次元形状情報の補正の処理の詳細な流れを示す図である。It is a figure which shows the detailed flow of the process of correction | amendment of the three-dimensional shape information of a projection surface.

符号の説明Explanation of symbols

100…スクリーン、201、202…画像投射部、301、302…撮影部、310…撮影画像保持部、400…幾何情報演算部、500…画像変換部、600…テストパターン保持部   DESCRIPTION OF SYMBOLS 100 ... Screen, 201, 202 ... Image projection part, 301, 302 ... Shooting part, 310 ... Shooting image holding part, 400 ... Geometric information calculation part, 500 ... Image conversion part, 600 ... Test pattern holding part

Claims (5)

スクリーン上にテストパターンの投射映像を順次隣接して表示する複数の画像投射部と、前記スクリーン上の投射映像を複数の位置から撮影する撮影部と、前記撮影部が撮影した前記撮影画像から前記スクリーンの投射面の三次元形状情報を求める幾何情報演算部とを有し、前記幾何情報演算部は、三角測量法によって、前記複数の撮影画像上の対応する点の座標から該点に対応する前記スクリーン上の点の座標を求めることにより、前記スクリーンの投射面の三次元座標を求めることを特徴とするプロジェクタ装置。   A plurality of image projection units for sequentially displaying the test pattern projection images on the screen, a photographing unit for photographing the projection images on the screen from a plurality of positions, and the captured images photographed by the photographing unit; A geometric information calculation unit for obtaining three-dimensional shape information of the projection surface of the screen, and the geometric information calculation unit corresponds to the point from the coordinates of the corresponding point on the plurality of captured images by triangulation. A projector apparatus characterized in that three-dimensional coordinates of a projection surface of the screen are obtained by obtaining coordinates of a point on the screen. 請求項1に記載のプロジェクタ装置において、前記幾何情報演算部は、隣接する前記撮影画像の重複領域を検出し、該重複領域上の対応する点の前記スクリーン上の座標の偏差を求め、該偏差が減少するように前記投射面の三次元座標を修正することを特徴とするプロジェクタ装置。   2. The projector according to claim 1, wherein the geometric information calculation unit detects an overlapping region of the adjacent captured images, obtains a deviation of coordinates on the screen of a corresponding point on the overlapping region, and detects the deviation. A projector device that corrects the three-dimensional coordinates of the projection surface so as to reduce the above. 請求項1に記載のプロジェクタ装置において、前記撮影部のカメラの姿勢を修正することによって前記幾何情報演算部によって求められた前記投射面の三次元座標を修正することを特徴とするプロジェクタ装置。   The projector device according to claim 1, wherein the three-dimensional coordinates of the projection surface obtained by the geometric information calculation unit are corrected by correcting a camera posture of the photographing unit. 請求項1に記載のプロジェクタ装置において、前記スクリーンに投射するための画像を前記投射面の三次元座標に基づいて変形する画像変換部を有することを特徴とするプロジェクタ装置。   The projector device according to claim 1, further comprising an image conversion unit that deforms an image to be projected onto the screen based on a three-dimensional coordinate of the projection surface. 請求項1に記載のプロジェクタ装置において、前記画像投射部にテストパターンを供給するテストパターン保持部を有することを特徴とするプロジェクタ装置。   The projector device according to claim 1, further comprising a test pattern holding unit that supplies a test pattern to the image projection unit.
JP2004329385A 2004-11-12 2004-11-12 Projector device Pending JP2006140831A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004329385A JP2006140831A (en) 2004-11-12 2004-11-12 Projector device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004329385A JP2006140831A (en) 2004-11-12 2004-11-12 Projector device

Publications (1)

Publication Number Publication Date
JP2006140831A true JP2006140831A (en) 2006-06-01

Family

ID=36621307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004329385A Pending JP2006140831A (en) 2004-11-12 2004-11-12 Projector device

Country Status (1)

Country Link
JP (1) JP2006140831A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236550A (en) * 2007-03-22 2008-10-02 Matsushita Electric Works Ltd Video display apparatus
JP2009147480A (en) * 2007-12-12 2009-07-02 Gifu Univ Calibration apparatus of projection system
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image
JP2010154461A (en) * 2008-12-26 2010-07-08 Samsung Techwin Co Ltd Projection image converter and projector device
JP2013153392A (en) * 2012-01-26 2013-08-08 Canon Inc Image processing apparatus and image processing method, and program
KR101408295B1 (en) * 2013-05-31 2014-06-17 (주)린소프트 Projection device on nonflat screen and method therefor
JP2016042653A (en) * 2014-08-18 2016-03-31 株式会社リコー Image processing system, and image projection device
JP2017138581A (en) * 2016-02-02 2017-08-10 パナソニックIpマネジメント株式会社 Projection image adjustment system and projection image adjustment method
WO2020255766A1 (en) * 2019-06-20 2020-12-24 ソニー株式会社 Information processing device, information processing method, program, projection device, and information processing system
KR102245223B1 (en) * 2020-12-14 2021-04-27 주식회사 글림시스템즈 Image processing system for displaying multi-layered beam projection contents on irregular projection surface and method thereof

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236550A (en) * 2007-03-22 2008-10-02 Matsushita Electric Works Ltd Video display apparatus
JP2009147480A (en) * 2007-12-12 2009-07-02 Gifu Univ Calibration apparatus of projection system
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image
JP2010154461A (en) * 2008-12-26 2010-07-08 Samsung Techwin Co Ltd Projection image converter and projector device
JP2013153392A (en) * 2012-01-26 2013-08-08 Canon Inc Image processing apparatus and image processing method, and program
KR101408295B1 (en) * 2013-05-31 2014-06-17 (주)린소프트 Projection device on nonflat screen and method therefor
JP2016042653A (en) * 2014-08-18 2016-03-31 株式会社リコー Image processing system, and image projection device
JP2017138581A (en) * 2016-02-02 2017-08-10 パナソニックIpマネジメント株式会社 Projection image adjustment system and projection image adjustment method
JP7015981B2 (en) 2016-02-02 2022-02-04 パナソニックIpマネジメント株式会社 Projection image adjustment system and projection image adjustment method
WO2020255766A1 (en) * 2019-06-20 2020-12-24 ソニー株式会社 Information processing device, information processing method, program, projection device, and information processing system
KR102245223B1 (en) * 2020-12-14 2021-04-27 주식회사 글림시스템즈 Image processing system for displaying multi-layered beam projection contents on irregular projection surface and method thereof

Similar Documents

Publication Publication Date Title
JP6079333B2 (en) Calibration apparatus, method and program
JP4307934B2 (en) Imaging apparatus and method with image correction function, and imaging apparatus and method
US9686479B2 (en) Method for combining multiple image fields
JP5549230B2 (en) Ranging device, ranging module, and imaging device using the same
CN108377378A (en) Photographic device
JP2007164258A (en) Image synthesizing device and method
US7742087B2 (en) Image pickup device
WO2014208230A1 (en) Coordinate computation device and method, and image processing device and method
JP6433200B2 (en) Arithmetic apparatus, arithmetic method, and program
WO2013005265A1 (en) Three-dimensional coordinate measuring device and three-dimensional coordinate measuring method
US10237485B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2000206403A (en) Image pickup device and range-finding device using the same
WO2019171984A1 (en) Signal processing device, signal processing method, and program
WO2021054140A1 (en) Image processing device, image processing method, imaging device, and program
JP2005244835A (en) Multiprojection system
JP2006140831A (en) Projector device
JP2006195540A (en) Mosaic image composing device, mosaic image composing method, and mosaic image composing program
JP2007033087A (en) Calibration device and method
JP2008298589A (en) Device and method for detecting positions
JP7185162B2 (en) Image processing method, image processing device and program
JP2017194591A (en) Distance measurement device, imaging apparatus, and distance measurement method
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
JP4969279B2 (en) Position detection method and position detection apparatus
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP6755737B2 (en) Distance measuring device, imaging device, and distance measuring method