JP6846618B2 - Projection system and calibration equipment - Google Patents

Projection system and calibration equipment Download PDF

Info

Publication number
JP6846618B2
JP6846618B2 JP2017033071A JP2017033071A JP6846618B2 JP 6846618 B2 JP6846618 B2 JP 6846618B2 JP 2017033071 A JP2017033071 A JP 2017033071A JP 2017033071 A JP2017033071 A JP 2017033071A JP 6846618 B2 JP6846618 B2 JP 6846618B2
Authority
JP
Japan
Prior art keywords
unit
projection
projected
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017033071A
Other languages
Japanese (ja)
Other versions
JP2017169195A (en
Inventor
史雄 村松
史雄 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US15/452,953 priority Critical patent/US10104351B2/en
Publication of JP2017169195A publication Critical patent/JP2017169195A/en
Application granted granted Critical
Publication of JP6846618B2 publication Critical patent/JP6846618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、画像を投影する投影システム及び投影システムの初期調整を行うキャリブレーション装置に関する。 The present disclosure relates to a projection system that projects an image and a calibration device that performs initial adjustment of the projection system.

特許文献1は、液晶パネル等の表示画像を投影レンズにより拡大し、角度可変のミラーを介してスクリーンに投影するプロジェクタを開示している。特許文献1のプロジェクタは、ミラーによる画像光の中心軸とスクリーン法線との間の角度を検出する角度センサと、プロジェクタとスクリーンとの間の距離を検出する超音波センサ等の距離センサとを備えている。特許文献1のプロジェクタでは、角度センサ及び距離センサの検出結果に基づいて、投影面上に表示された画像の歪みを調整している。 Patent Document 1 discloses a projector in which a display image of a liquid crystal panel or the like is magnified by a projection lens and projected onto a screen through a mirror having a variable angle. The projector of Patent Document 1 includes an angle sensor that detects the angle between the central axis of image light by a mirror and the screen normal, and a distance sensor such as an ultrasonic sensor that detects the distance between the projector and the screen. I have. In the projector of Patent Document 1, the distortion of the image displayed on the projection surface is adjusted based on the detection results of the angle sensor and the distance sensor.

特開2002−262198号公報JP-A-2002-262198

この種のプロジェクタでは、プロジェクタとミラーとの距離は既知であり、また、プロジェクタとスクリーンの距離を検出するセンサを搭載しているため、プロジェクタの投影画像の位置を調整すること、すなわちキャリブレーションは容易である。本開示は、プロジェクタとミラーが別体として構成され、両者の距離が既知ではない投影システムにおけるキャリブレーションを容易に行うことができる投影システム及びキャリブレーション装置を提供する。 In this type of projector, the distance between the projector and the mirror is known, and since it is equipped with a sensor that detects the distance between the projector and the screen, adjusting the position of the projected image of the projector, that is, calibration is not possible. It's easy. The present disclosure provides a projection system and a calibration device in which a projector and a mirror are configured as separate bodies, and calibration can be easily performed in a projection system in which the distance between the two is unknown.

本開示の一態様における投影システムは、投影部と、光路変更部と、撮像部と、制御部とを備える。投影部は、所定の画像を表示するための投影光を出射する。光路変更部は、投影部からの投影光の光路を変更し、投影光を所定の投影面に導光する。撮像部は、所定の画像に基づき光路変更部から投影面上に投影された投影画像を撮像する。制御部は、投影画像を制御する。制御部は、撮像部が投影画像を撮像した撮像画像に基づいて、投影部から光路変更部までの光路に沿った長さである第1の距離、及び投影部から投影面までの鉛直方向に沿った長さである第2の距離を算出し、算出した第1の距離及び第2の距離に基づいて投影画像を制御する。 The projection system in one aspect of the present disclosure includes a projection unit, an optical path changing unit, an imaging unit, and a control unit. The projection unit emits projected light for displaying a predetermined image. The optical path changing unit changes the optical path of the projected light from the projection unit and guides the projected light to a predetermined projection surface. The imaging unit captures a projected image projected onto the projection surface from the optical path changing unit based on a predetermined image. The control unit controls the projected image. Based on the captured image captured by the imaging unit, the control unit is in the first distance, which is the length along the optical path from the projection unit to the optical path changing unit, and in the vertical direction from the projection unit to the projection surface. A second distance, which is the length along the line, is calculated, and the projected image is controlled based on the calculated first distance and the second distance.

本開示の一態様におけるキャリブレーション装置は、投影画像を投影する投影システムのキャリブレーションを行う。 The calibration device in one aspect of the present disclosure calibrates a projection system that projects a projected image.

本開示における投影システム及びキャリブレーション装置によれば、投影画像を投影する投影システムにおけるキャリブレーションを容易に行うことができる。 According to the projection system and the calibration device in the present disclosure, calibration in the projection system for projecting the projected image can be easily performed.

図1は、本開示の実施形態1に係る投影システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an outline of the projection system according to the first embodiment of the present disclosure. 図2は、実施形態1に係る投影システムの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a projection system according to the first embodiment. 図3は、実施形態1に係る投影システムにおけるミラーユニットの配置状態を示す斜視図である。FIG. 3 is a perspective view showing an arrangement state of the mirror unit in the projection system according to the first embodiment. 図4Aは、実施形態1に係る投影システムにおける制御PCの構成を示すブロック図である。FIG. 4A is a block diagram showing a configuration of a control PC in the projection system according to the first embodiment. 図4Bは、実施形態1に係る投影システムにおけるキャリブレーション装置の構成を示すブロック図である。FIG. 4B is a block diagram showing a configuration of a calibration device in the projection system according to the first embodiment. 図5は、実施形態1に係る投影システムの画像投影動作を説明するための図である。FIG. 5 is a diagram for explaining an image projection operation of the projection system according to the first embodiment. 図6は、実施形態1に係る投影システムのキャリブレーション動作を示すフローチャートである。FIG. 6 is a flowchart showing a calibration operation of the projection system according to the first embodiment. 図7は、実施形態1に係る投影システムのキャリブレーション動作を説明するための図である。FIG. 7 is a diagram for explaining the calibration operation of the projection system according to the first embodiment. 図8は、実施形態1に係るミラーの角度を設定する処理を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining a process of setting the angle of the mirror according to the first embodiment. 図9Aは、実施形態1に係る投影システムの投影画像における基準スポットを説明するための図である。FIG. 9A is a diagram for explaining a reference spot in the projected image of the projection system according to the first embodiment. 図9Bは、実施形態1に係る投影システムの撮像画像における基準スポットの軌跡を説明するための図である。FIG. 9B is a diagram for explaining the locus of the reference spot in the captured image of the projection system according to the first embodiment. 図10は、実施形態1に係る投影システムの距離Lを算出する処理を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining a process of calculating the distance L of the projection system according to the first embodiment. 図11は、実施形態1に係る投影システムの距離Lを算出する方法を説明するための図である。FIG. 11 is a diagram for explaining a method of calculating the distance L of the projection system according to the first embodiment. 図12は、実施形態1に係る投影システムの高さHを算出する処理を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining a process of calculating the height H of the projection system according to the first embodiment. 図13Aは、実施形態1に係る投影システムの高さHを算出するための基準マークを説明するための図である。FIG. 13A is a diagram for explaining a reference mark for calculating the height H of the projection system according to the first embodiment. 図13Bは、実施形態1に係る投影システムの高さHを算出するための基準マークの撮像画像を説明するための図である。FIG. 13B is a diagram for explaining a captured image of a reference mark for calculating the height H of the projection system according to the first embodiment. 図14は、実施形態1における距離Lと高さHとの関係を説明するための図である。FIG. 14 is a diagram for explaining the relationship between the distance L and the height H in the first embodiment. 図15は、実施形態1における距離Lと高さHとの関係の変形例を説明するための図である。FIG. 15 is a diagram for explaining a modified example of the relationship between the distance L and the height H in the first embodiment.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.

なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It should be noted that the applicant is not intended to limit the subject matter described in the claims by those skilled in the art by providing the accompanying drawings and the following description in order to fully understand the present disclosure. Absent.

(実施形態1)
1.構成
1−1.概要
実施形態1に係る投影システムの概要について、図1を参照して説明する。図1は、本実施形態に係る投影システムの概要を説明するための図である。
(Embodiment 1)
1. 1. Configuration 1-1. Outline An outline of the projection system according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining an outline of the projection system according to the present embodiment.

本実施形態に係る投影システムは、図1に示すように、プロジェクタ1と、全方位カメラ2と、ミラーユニット3と、制御PC(パーソナルコンピュータ)4とを備える。本実施形態に係る投影システムは、天井等に吊したプロジェクタ1から出射する投影光を、ミラーユニット3において反射させることにより、投影光に基づく投影画像5を、床面、壁面及び机面等の任意の投影面に投影するシステムである。 As shown in FIG. 1, the projection system according to the present embodiment includes a projector 1, an omnidirectional camera 2, a mirror unit 3, and a control PC (personal computer) 4. In the projection system according to the present embodiment, the projection light emitted from the projector 1 suspended on the ceiling or the like is reflected by the mirror unit 3, so that the projection image 5 based on the projection light is produced on the floor surface, the wall surface, the desk surface, or the like. It is a system that projects onto an arbitrary projection surface.

本システムでは、プロジェクタ1の底面に全方位カメラ2が設置されている。制御PC4は、床面及び壁面にわたる全方位カメラ2の撮像画像に基づき、投影面上の投影画像5を制御する。例えば、制御PC4は、撮像画像に基づき床面上の人6を検出し、人6に追従して種々の提示情報および演出内容を含む投影画像5を投影する。 In this system, the omnidirectional camera 2 is installed on the bottom surface of the projector 1. The control PC 4 controls the projected image 5 on the projected surface based on the captured image of the omnidirectional camera 2 over the floor surface and the wall surface. For example, the control PC 4 detects a person 6 on the floor surface based on the captured image, and projects a projected image 5 including various presentation information and effect contents following the person 6.

ここで、プロジェクタ1及びミラーユニット3が一体的に構成された場合、双方の総重量を有する装置を天井に吊るすこととなり、容易に本装置を設置することができない。また、特定の機種のプロジェクタとミラーユニットを一体で設計するため、多機種のプロジェクタへのミラーユニットの展開が容易ではない。そこで、本実施形態に係る投影システムでは、プロジェクタ1とミラーユニット3とを別体で構成している。これにより、プロジェクタ1とミラーユニット3とを一つずつ設置でき、また、多機種のプロジェクタに対してミラーユニットを展開でき、本システムの導入および取扱いを容易にすることができる。 Here, when the projector 1 and the mirror unit 3 are integrally configured, the device having the total weight of both is hung on the ceiling, and the device cannot be easily installed. Further, since the projector of a specific model and the mirror unit are designed integrally, it is not easy to deploy the mirror unit to many types of projectors. Therefore, in the projection system according to the present embodiment, the projector 1 and the mirror unit 3 are separately configured. As a result, the projector 1 and the mirror unit 3 can be installed one by one, and the mirror unit can be deployed for various types of projectors, facilitating the introduction and handling of this system.

以下、図1に示すように、プロジェクタ1が吊るされた鉛直方向をZ方向とし、Z方向と直交する水平面をXY平面とする。また、プロジェクタ1から投影光を出射する投影方向をY方向とし、Y,Z方向と直交するプロジェクタ1の幅方向をX方向とする。 Hereinafter, as shown in FIG. 1, the vertical direction in which the projector 1 is suspended is defined as the Z direction, and the horizontal plane orthogonal to the Z direction is defined as the XY plane. Further, the projection direction in which the projected light is emitted from the projector 1 is defined as the Y direction, and the width direction of the projector 1 orthogonal to the Y and Z directions is defined as the X direction.

1−2.システム構成
本実施形態に係る投影システムの構成について、図1及び図2を参照して説明する。
1-2. System Configuration The configuration of the projection system according to this embodiment will be described with reference to FIGS. 1 and 2.

図2は、本システムの構成を示すブロック図である。 FIG. 2 is a block diagram showing the configuration of this system.

図2に示すように、本システムにおいて、プロジェクタ1、全方位カメラ2及びミラーユニット3は、それぞれ制御PC4に接続されている。制御PC4は、本システムにおける制御部の一例である。本システムにおける各部の構成について、それぞれ説明する。 As shown in FIG. 2, in this system, the projector 1, the omnidirectional camera 2, and the mirror unit 3 are each connected to the control PC 4. The control PC 4 is an example of a control unit in this system. The configuration of each part in this system will be described.

1−2−1.プロジェクタの構成
プロジェクタ1は、図2に示すように、投影光源11と、画像形成部12と、投影光学系13とを備える。プロジェクタ1は、例えばDLP(Digital Light Processing)方式、3LCD(Liquid Crystal Display)方式又はLCOS(Liquid Crystal On Silicon)方式などのプロジェクタ装置である。プロジェクタ1は、制御PC4から入力される映像信号に基づく投影画像5を生成する投影光を出射する。プロジェクタ1は、本システムにおける投影部の一例である。
1-2-1. Projector Configuration As shown in FIG. 2, the projector 1 includes a projection light source 11, an image forming unit 12, and a projection optical system 13. The projector 1 is, for example, a projector device such as a DLP (Digital Light Processing) system, a 3LCD (Liquid Crystal Display) system, or an LCOS (Liquid Crystal On Silicon) system. The projector 1 emits projected light that generates a projected image 5 based on a video signal input from the control PC 4. The projector 1 is an example of a projection unit in this system.

投影光源11は、例えばLD(Laser Diode)、LED(Light Emitting Diode)又はハロゲンランプなどで構成される。投影光源11は、可視光を画像形成部12に照射する。投影光源11は、プロジェクタ1の投影方式に応じて適宜、RGB等の複数色の光源素子、或いは白色の光源素子を有してもよいし、単色の光源素子のみを有してもよい。 The projection light source 11 is composed of, for example, an LD (Laser Diode), an LED (Light Emitting Diode), a halogen lamp, or the like. The projection light source 11 irradiates the image forming unit 12 with visible light. The projection light source 11 may appropriately have a light source element of a plurality of colors such as RGB or a white light source element, or may have only a single color light source element, depending on the projection method of the projector 1.

画像形成部12は、DMD(Digital Micromirror Device)又はLCDなどの空間光変調素子を備える。画像形成部12は、空間光変調素子における画像形成面に、制御PC4からの映像信号に基づく画像を形成する。投影光源11からの光が、画像形成部12に形成された画像に応じて空間的に変調されることにより、投影光が生成される。 The image forming unit 12 includes a spatial light modulation element such as a DMD (Digital Micromirror Device) or an LCD. The image forming unit 12 forms an image based on the video signal from the control PC 4 on the image forming surface of the spatial light modulation element. The projected light is generated by spatially modulating the light from the projection light source 11 according to the image formed in the image forming unit 12.

投影光学系13は、プロジェクタ1の画角を設定するズームレンズ、及びフォーカスを調整するフォーカスレンズを含む。投影光学系13には、各種のレンズを駆動するためのモータ等の駆動機構が組み込まれている。 The projection optical system 13 includes a zoom lens that sets the angle of view of the projector 1 and a focus lens that adjusts the focus. The projection optical system 13 incorporates a drive mechanism such as a motor for driving various lenses.

なお、プロジェクタ1は、例えば台形補正、デジタルズームおよび光学ズームなどのプロジェクタ1特有の機能を実現する投影制御部(例えばマイコン、CPU(Central Processing Unit)など)を有してもよい。また、上記の各機能は、制御PC4において実現されてもよい。 The projector 1 may have a projection control unit (for example, a microcomputer, a CPU (Central Processing Unit), etc.) that realizes functions unique to the projector 1, such as keystone correction, digital zoom, and optical zoom. Further, each of the above functions may be realized in the control PC 4.

また、プロジェクタ1は、レーザ走査式であってもよく、走査方向に駆動可能なMEMS(Micro Electro Mechanical Systems)ミラー或いはガルバノミラーを備えて構成されてもよい。本システムでは、プロジェクタ1とミラーユニット3とは別体であるため、プロジェクタ1として、ミラーユニット3を介して投影画像を投影する用途の専用装置に限らず、汎用的なプロジェクタ装置を用いることができる。 Further, the projector 1 may be of a laser scanning type, and may be configured to include a MEMS (Micro Electro Mechanical Systems) mirror or a galvano mirror that can be driven in the scanning direction. In this system, since the projector 1 and the mirror unit 3 are separate bodies, it is possible to use a general-purpose projector device as the projector 1, not limited to a dedicated device for projecting a projected image through the mirror unit 3. it can.

1−2−2.全方位カメラの構成
全方位カメラ2は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子及び画角180°を有する全方位レンズ(魚眼レンズ)を備える。全方位カメラ2は、全方位カメラ2の設置位置からの全方位にわたる画像を撮像し、例えば全方位画像を構成する撮像画像を生成して制御PC4に送信する。また、全方位カメラ2は、例えば全方位画像を展開して、パノラマ画像を生成してもよい。全方位カメラ2は、所定の周期において撮像動作を行ってもよいし、制御PC4の制御により撮像動作を行ってもよい。全方位カメラ2は、本システムにおける撮像部の一例である。
1-2-2. Configuration of Omnidirectional Camera The omnidirectional camera 2 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an omnidirectional lens (fisheye lens) having an angle of view of 180 °. The omnidirectional camera 2 captures an image over the omnidirectional direction from the installation position of the omnidirectional camera 2, for example, generates an captured image constituting the omnidirectional image and transmits the captured image to the control PC 4. Further, the omnidirectional camera 2 may, for example, develop an omnidirectional image to generate a panoramic image. The omnidirectional camera 2 may perform an imaging operation at a predetermined cycle, or may perform an imaging operation under the control of the control PC 4. The omnidirectional camera 2 is an example of an imaging unit in this system.

1−2−3.ミラーユニットの構成
ミラーユニット3の構成について、図2及び図3を用いて説明する。図3は、本システムにおけるミラーユニット3の配置状態を示す斜視図である。
1-2-3. Configuration of Mirror Unit The configuration of the mirror unit 3 will be described with reference to FIGS. 2 and 3. FIG. 3 is a perspective view showing an arrangement state of the mirror unit 3 in this system.

ミラーユニット3は、ミラー30と、パン駆動部31と、チルト駆動部32と、ミラー制御部33とを備える。ミラーユニット3は、ミラー30を二軸の回転軸において駆動する装置である。ミラーユニット3は、本システムにおいて、プロジェクタ1からの投影光の光路をミラー30により変更して種々の投影面に投影光を導光する光路変更部の一例である。 The mirror unit 3 includes a mirror 30, a pan drive unit 31, a tilt drive unit 32, and a mirror control unit 33. The mirror unit 3 is a device that drives the mirror 30 on two axes of rotation. The mirror unit 3 is an example of an optical path changing unit that guides the projected light to various projection surfaces by changing the optical path of the projected light from the projector 1 by the mirror 30 in this system.

ミラー30は、図3に示すように、プロジェクタ1からの投影光を反射する反射面30aを有する。反射面30aの形状は、例えば水平サイズ及び垂直サイズによって規定される矩形状である。 As shown in FIG. 3, the mirror 30 has a reflecting surface 30a that reflects the projected light from the projector 1. The shape of the reflecting surface 30a is, for example, a rectangular shape defined by a horizontal size and a vertical size.

パン駆動部31は、例えばモータ及びモータの回転角度の変位量を測定するロータリエンコーダを備えて構成される。パン駆動部31は、図3に示すように、プロジェクタ1の光軸と平行な回転軸J1においてミラー30を回転駆動する。以下、回転軸J1による回転方向を「パン方向」といい、パン方向の回転角度を「パン角度」という。 The pan drive unit 31 includes, for example, a motor and a rotary encoder that measures the amount of displacement of the rotation angle of the motor. As shown in FIG. 3, the pan drive unit 31 rotationally drives the mirror 30 on a rotation axis J1 parallel to the optical axis of the projector 1. Hereinafter, the rotation direction by the rotation axis J1 is referred to as a "pan direction", and the rotation angle in the pan direction is referred to as a "pan angle".

チルト駆動部32は、例えばモータ及びモータの回転角度の変位量を測定するロータリエンコーダを備えて構成される。チルト駆動部32は、図3に示すように、ミラー30の反射面30a上でプロジェクタ1の光軸と直交する方向の回転軸J2においてミラー30を回転駆動する。以下、回転軸J2による回転方向を「チルト方向」といい、チルト方向の回転角度を「チルト角度」という。チルト方向の回転軸J2は、パン方向の回転に応じてミラー30と共に回転する。 The tilt drive unit 32 includes, for example, a motor and a rotary encoder that measures the amount of displacement of the rotation angle of the motor. As shown in FIG. 3, the tilt drive unit 32 rotationally drives the mirror 30 on the reflection surface 30a of the mirror 30 on the rotation axis J2 in the direction orthogonal to the optical axis of the projector 1. Hereinafter, the rotation direction by the rotation axis J2 is referred to as a "tilt direction", and the rotation angle in the tilt direction is referred to as a "tilt angle". The rotation axis J2 in the tilt direction rotates together with the mirror 30 according to the rotation in the pan direction.

本実施形態におけるミラーユニット3では、反射面30aが水平面(XY平面)となるミラー30の角度をパン角度0°及びチルト角度90°として、該角度を基準にパン方向及びチルト方向に駆動することにより、反射面30aを種々の傾斜角度で傾斜させる。 In the mirror unit 3 of the present embodiment, the angle of the mirror 30 in which the reflection surface 30a is a horizontal plane (XY plane) is set to a pan angle of 0 ° and a tilt angle of 90 °, and the mirror unit 3 is driven in the pan direction and the tilt direction with reference to the angles. Therefore, the reflecting surface 30a is tilted at various tilt angles.

図2に戻り、ミラー制御部33は、例えばマイコンで構成され、ミラーユニット3の動作を制御する。例えば、ミラー制御部33は、パン駆動部31及びチルト駆動部32を制御して、パン角度及びチルト角度を変更する。また、ミラー制御部33は、例えばフラッシュメモリで構成される内部メモリを有し、内部メモリに反射面30aのサイズ等を格納している。ミラー制御部33は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよいし、ソフトウェアと協働して所定の機能を実現するCPU又はMPU(Micro Processing Unit)等で構成されてもよい。 Returning to FIG. 2, the mirror control unit 33 is composed of, for example, a microcomputer, and controls the operation of the mirror unit 3. For example, the mirror control unit 33 controls the pan drive unit 31 and the tilt drive unit 32 to change the pan angle and the tilt angle. Further, the mirror control unit 33 has an internal memory composed of, for example, a flash memory, and stores the size of the reflection surface 30a and the like in the internal memory. The mirror control unit 33 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to realize a predetermined function, or may perform a predetermined function in cooperation with software. It may be configured by a CPU or an MPU (Micro Processing Unit) to be realized.

1−2−4.制御PCの構成
制御PC4の構成について、図2、図4A及びA4Bを用いて説明する。図4Aは、本システムにおける制御PC4の構成を示すブロック図である。図4Bは、本システムにおけるキャリブレーション装置46の構成を示すブロック図である。
1-2-4. Configuration of Control PC The configuration of the control PC 4 will be described with reference to FIGS. 2, 4A and A4B. FIG. 4A is a block diagram showing the configuration of the control PC 4 in this system. FIG. 4B is a block diagram showing the configuration of the calibration device 46 in this system.

制御PC4は、本システムを構成する各部(プロジェクタ1、全方位カメラ2及びミラーユニット3)の動作を制御するパーソナルコンピュータである。制御PC4は、本システムのキャリブレーションを行うキャリブレーション装置46を備える制御部の一例である。 The control PC 4 is a personal computer that controls the operation of each unit (projector 1, omnidirectional camera 2 and mirror unit 3) that constitutes this system. The control PC 4 is an example of a control unit including a calibration device 46 that calibrates the system.

図4Aに示すように、制御PC4は、PC制御部40と、記憶部41と、ユーザインタフェース42と、表示部43と、機器インタフェース44と、ネットワークインタフェース45とを備える。以下、「インタフェース」を「I/F」と略記する。 As shown in FIG. 4A, the control PC 4 includes a PC control unit 40, a storage unit 41, a user interface 42, a display unit 43, a device interface 44, and a network interface 45. Hereinafter, "interface" is abbreviated as "I / F".

PC制御部40は、例えばソフトウェアと協働して所定の機能を実現するCPU又はMPUで構成され、制御PC4の全体動作を制御する。PC制御部40は、記憶部41に格納されたデータやプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。例えば、PC制御部40は、投影システムのキャリブレーション動作を実行する。キャリブレーション動作を実行するためのプログラムは、ネットワークから提供されてもよいし、所定の記憶媒体から提供されてもよいし、PC制御部40に組み込まれていてもよい。また、PC制御部40は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。PC制御部40は、CPU,MPU,マイコン、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等の種々の半導体集積回路で構成されてもよい。 The PC control unit 40 is composed of, for example, a CPU or an MPU that realizes a predetermined function in cooperation with software, and controls the overall operation of the control PC 4. The PC control unit 40 reads data and programs stored in the storage unit 41 and performs various arithmetic processes to realize various functions. For example, the PC control unit 40 executes a calibration operation of the projection system. The program for executing the calibration operation may be provided from the network, may be provided from a predetermined storage medium, or may be incorporated in the PC control unit 40. Further, the PC control unit 40 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to realize a predetermined function. The PC control unit 40 is composed of various semiconductor integrated circuits such as a CPU, an MPU, a microcomputer, a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), and an ASIC (Application Specific Integrated Circuit).

記憶部41は、制御PC4の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体であり、例えばハードディスク(HDD(Hard Disk Drive))や半導体記憶装置(SSD(Solid State Drive))を備える。また、記憶部41は、さらに、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の半導体デバイスを備えてもよく、データを一時的に記憶するとともにPC制御部40の作業エリアとしても機能する。例えば、記憶部41は、全方位カメラ2による撮像画像の画像データ、種々の投影画像の画像データ、及び本システムの各種パラメータ(例えば後述の距離L及び高さH)などを格納する。 The storage unit 41 is a storage medium for storing programs and data necessary for realizing the functions of the control PC 4, for example, a hard disk (HDD (Hard Disk Drive)) or a semiconductor storage device (SSD (Solid State Drive)). Be prepared. Further, the storage unit 41 may further include a semiconductor device such as a DRAM (Dynamic Random Access Memory) or a SRAM (Static Random Access Memory), and temporarily stores data and serves as a work area of the PC control unit 40. Also works. For example, the storage unit 41 stores image data of an image captured by the omnidirectional camera 2, image data of various projected images, various parameters of the system (for example, distance L and height H described later) and the like.

ユーザI/F42は、ユーザが操作を行う操作部材を備える。ユーザI/F42は、例えば、キーボード、タッチパッド、タッチパネル、ボタン、スイッチ、又はこれらの組み合わせを含む。ユーザI/F42は、ユーザによって入力される種々の情報を取得する取得部の一例である。 The user I / F 42 includes an operation member operated by the user. The user I / F 42 includes, for example, a keyboard, a touch pad, a touch panel, buttons, switches, or a combination thereof. The user I / F 42 is an example of an acquisition unit that acquires various information input by the user.

表示部43は、例えば、液晶ディスプレイや有機ELディスプレイで構成される。表示部43は、例えばユーザI/F42から入力された情報など、種々の情報を表示する。 The display unit 43 is composed of, for example, a liquid crystal display or an organic EL display. The display unit 43 displays various information such as information input from the user I / F 42.

機器I/F44は、制御PC4に他の機器を接続するための回路(モジュール)である。機器I/F44は、所定の通信規格にしたがい通信を行う。所定の規格には、USB、HDMI(登録商標)、IEEE1394、Wi−Fi、Bluetooth(登録商標)等が含まれる。 The device I / F44 is a circuit (module) for connecting another device to the control PC 4. The device I / F44 communicates according to a predetermined communication standard. Predetermined standards include USB, HDMI®, IEEE 1394, Wi-Fi, Bluetooth® and the like.

ネットワークI/F45は、無線または有線の通信回線を介して制御PC4をネットワークに接続するための回路(モジュール)である。ネットワークI/F45は所定の通信規格に準拠した通信を行う。所定の通信規格には、IEEE802.3,IEEE802.11a/11b/11g/11ac等の通信規格が含まれる。 The network I / F45 is a circuit (module) for connecting the control PC 4 to the network via a wireless or wired communication line. The network I / F45 performs communication conforming to a predetermined communication standard. Predetermined communication standards include communication standards such as IEEE802.3 and IEEE802.11a / 11b / 11g / 11ac.

上述したように、制御PC4は、投影システム(プロジェクタ1、ミラーユニット3及び全方位カメラ2)のキャリブレーションを行う。すなわち、図2に示すように、制御PC4は、投影システムのキャリブレーションを行うキャリブレーション装置46を備える。 As described above, the control PC 4 calibrates the projection system (projector 1, mirror unit 3 and omnidirectional camera 2). That is, as shown in FIG. 2, the control PC 4 includes a calibration device 46 that calibrates the projection system.

図4Bに示すように、キャリブレーション装置46は、第1算出部47と、第2算出部48と、キャリブレーション部49とを備える。第1算出部47は、全方位カメラ2が投影画像50を撮像した撮像画像に基づいて、プロジェクタ1からミラーユニット3までの光路に沿った長さである距離Lを算出する。第2算出部48は、全方位カメラ2が投影画像50を撮像した撮像画像に基づいて、プロジェクタ1から床面71までの鉛直方向に沿った長さである高さHを算出する。キャリブレーション部49は、算出した距離L及び高さHに基づいて投影画像50のキャリブレーションを行う。第1算出部47と、第2算出部48と、キャリブレーション部49とは、制御PC4を構成するPC制御部40と、記憶部41と、ユーザI/F42と、表示部43と、機器I/F44と、ネットワークI/F45とによって実現される。 As shown in FIG. 4B, the calibration device 46 includes a first calculation unit 47, a second calculation unit 48, and a calibration unit 49. The first calculation unit 47 calculates the distance L, which is the length along the optical path from the projector 1 to the mirror unit 3, based on the captured image obtained by the omnidirectional camera 2 capturing the projected image 50. The second calculation unit 48 calculates the height H, which is the length along the vertical direction from the projector 1 to the floor surface 71, based on the captured image obtained by the omnidirectional camera 2 capturing the projected image 50. The calibration unit 49 calibrates the projected image 50 based on the calculated distance L and height H. The first calculation unit 47, the second calculation unit 48, and the calibration unit 49 are the PC control unit 40, the storage unit 41, the user I / F 42, the display unit 43, and the device I that constitute the control PC 4. It is realized by / F44 and network I / F45.

2.動作
以下、本実施形態に係る投影システムの動作について説明する。
2. Operation The operation of the projection system according to this embodiment will be described below.

2−1.動作の概要
本実施形態に係る投影システムの動作の概要について、図5を参照して説明する。
2-1. Outline of Operation An outline of the operation of the projection system according to the present embodiment will be described with reference to FIG.

図5は、本システムの画像投影動作を説明するための図である。図5において、プロジェクタ1及びミラーユニット3が天井70から吊るされて設置される。プロジェクタ1は、床面71を投影面として投影画像50を投影する。 FIG. 5 is a diagram for explaining an image projection operation of this system. In FIG. 5, the projector 1 and the mirror unit 3 are suspended from the ceiling 70 and installed. The projector 1 projects the projected image 50 with the floor surface 71 as the projection surface.

本システムの画像投影時において、全方位カメラ2は床面71を撮像し、撮像画像を制御PC4(図1)に送信する。制御PC4は、全方位カメラ2からの撮像画像に基づき、投影面である床面71上に投影画像50を投影する投影位置P1、投影画像50のサイズ及び投影画像50の向き等を決定する。例えば、制御PC4は、撮像画像中で人6(図1)などの特定の被写体の位置を判断し、被写体の近傍等に投影位置P1を設定する。 At the time of image projection of this system, the omnidirectional camera 2 images the floor surface 71 and transmits the captured image to the control PC 4 (FIG. 1). The control PC 4 determines the projection position P1 for projecting the projection image 50 on the floor surface 71, which is the projection surface, the size of the projection image 50, the orientation of the projection image 50, and the like, based on the image captured by the omnidirectional camera 2. For example, the control PC 4 determines the position of a specific subject such as a person 6 (FIG. 1) in the captured image, and sets the projection position P1 in the vicinity of the subject or the like.

制御PC4は、プロジェクタ1に映像信号を送信して、投影画像50を生成する投影光50aを出射させる。また、制御PC4は、投影画像50が投影位置P1に投影されるように、ミラーユニット3のパン角度ψ及びチルト角度αを制御する。制御PC4は、適宜、プロジェクタ1の光学ズーム及びピント位置の制御も行う。 The control PC 4 transmits a video signal to the projector 1 to emit projected light 50a that generates a projected image 50. Further, the control PC 4 controls the pan angle ψ and the tilt angle α of the mirror unit 3 so that the projected image 50 is projected on the projection position P1. The control PC 4 also controls the optical zoom and the focus position of the projector 1 as appropriate.

以上のように、本システムは、投影面である床面71上の所望の投影位置P1等に投影画像50を投影する。 As described above, this system projects the projected image 50 onto the desired projection position P1 or the like on the floor surface 71, which is the projection surface.

制御PC4は、プロジェクタ1とミラーユニット3との間の距離L、及び床面71からプロジェクタ1の光軸までの高さHを用いて種々の制御を行う。すなわち、距離L及び高さHは、投影画像50の投影位置P1、投影サイズ及びピント位置等を決定するために必要なパラメータであり、画像投影動作の開始前に距離L及び高さHを認識しておく必要がある。ここで、距離Lとは、プロジェクタ1からミラーユニット3までの投影光50aの光路に沿った距離のことである。また、高さHとは、投影面である床面71からプロジェクタ1までの鉛直方向に沿った長さである。 The control PC 4 performs various controls using the distance L between the projector 1 and the mirror unit 3 and the height H from the floor surface 71 to the optical axis of the projector 1. That is, the distance L and the height H are parameters necessary for determining the projection position P1, the projection size, the focus position, and the like of the projected image 50, and recognize the distance L and the height H before the start of the image projection operation. It is necessary to do it. Here, the distance L is a distance along the optical path of the projected light 50a from the projector 1 to the mirror unit 3. The height H is the length along the vertical direction from the floor surface 71, which is the projection surface, to the projector 1.

ここで、距離L及び高さHを知るためには、通常、作業者がメジャー等を用いて直接、距離L及び高さHを測定する必要があり、作業者にとって非常に手間が掛かる作業となる。このとき、メジャー等による測定は、精度が低いことが懸念される。また、測定結果を本システムの制御PC4等に設定することも、専門知識のない者にとって困難になる。そこで、本実施形態の投影システムは、キャリブレーション動作において、距離L及び高さHを、専用の測定センサを搭載することなく自動で算出する。これにより、調整作業者等の手間を掛けることなく距離L及び高さHを特定でき、本システムのキャリブレーションを容易に行うことができる。以下、本システムのキャリブレーション動作について説明する。 Here, in order to know the distance L and the height H, it is usually necessary for the worker to directly measure the distance L and the height H using a measure or the like, which is a very laborious work for the worker. Become. At this time, there is a concern that the accuracy of the measurement by a measure or the like is low. It is also difficult for a person without specialized knowledge to set the measurement result on the control PC4 or the like of this system. Therefore, the projection system of the present embodiment automatically calculates the distance L and the height H in the calibration operation without mounting a dedicated measurement sensor. As a result, the distance L and the height H can be specified without the trouble of an adjustment worker or the like, and the calibration of this system can be easily performed. The calibration operation of this system will be described below.

2−2.キャリブレーション動作
本実施形態に係る投影システムのキャリブレーション動作について、図6及び図7を参照して説明する。図6は、本システムのキャリブレーション動作を示すフローチャートである。図7は、本システムのキャリブレーション動作を説明するための図である。
2-2. Calibration operation The calibration operation of the projection system according to the present embodiment will be described with reference to FIGS. 6 and 7. FIG. 6 is a flowchart showing the calibration operation of this system. FIG. 7 is a diagram for explaining the calibration operation of this system.

図6のフローチャートは、制御PC4のPC制御部40によって実行される。以下、プロジェクタ1及びミラーユニット3が、図5に示すように設置された状態において、本フローチャートによる処理が開始される例について説明する。 The flowchart of FIG. 6 is executed by the PC control unit 40 of the control PC 4. Hereinafter, an example in which the process according to this flowchart is started in a state where the projector 1 and the mirror unit 3 are installed as shown in FIG. 5 will be described.

まず、制御PC4は、ミラーユニット3におけるミラー30の角度位置を、キャリブレーション動作のための初期位置に設定する(S1)。本実施形態では、ミラー30の初期位置として、パン角度ψ=0°及びチルト角度α=45°に設定する(図7(a)参照)。また、本実施形態において、パン角度ψ=0°はミラー30の水平方向がX方向と平行になる角度位置とし、チルト角度α=0°はミラー30の反射面30aがXZ平面と平行になる角度位置とする(図5参照)。ステップS1の処理の詳細については後述する。 First, the control PC 4 sets the angular position of the mirror 30 in the mirror unit 3 to the initial position for the calibration operation (S1). In the present embodiment, the pan angle ψ = 0 ° and the tilt angle α = 45 ° are set as the initial positions of the mirror 30 (see FIG. 7A). Further, in the present embodiment, the pan angle ψ = 0 ° is an angle position where the horizontal direction of the mirror 30 is parallel to the X direction, and the tilt angle α = 0 ° is the reflection surface 30a of the mirror 30 parallel to the XZ plane. It is an angular position (see FIG. 5). The details of the process of step S1 will be described later.

次に、制御PC4は、初期位置のミラーユニット3を介してプロジェクタ1から床面71に投影される投影画像50を制御し、全方位カメラ2による床面71の撮像画像に基づいて、距離L及び高さHをそれぞれ算出する(S2,S3)。図7(a)〜(e)を用いて、距離Lの算出方法の概要について説明する。 Next, the control PC 4 controls the projected image 50 projected from the projector 1 onto the floor surface 71 via the mirror unit 3 at the initial position, and the distance L is based on the image captured by the omnidirectional camera 2 on the floor surface 71. And the height H are calculated respectively (S2, S3). The outline of the calculation method of the distance L will be described with reference to FIGS. 7A to 7E.

図7(a)は、プロジェクタ1から種々の距離L=L0,L1,L2に設置されたミラーユニット3に投影光50aが出射された状態を示している。図7(b)は、プロジェクタ1が投影する測定用画像D50を示している。図7(a)に示すように、投影光50aは、プロジェクタ1からY方向に出射され、チルト角度α=45°のミラーユニット3に達すると、Z方向に反射して床面71に投影される。この際、プロジェクタ1から出射された投影光50aによる測定用画像D50(図7(b))の上端(A)と下端(B)は、ミラーユニット3の反射により、床面71上ではY方向において下端と上端が反転して投影される(図7(c))。ミラー30の角度位置を上記の初期位置(パン角度ψ=0°及びチルト角度α=45°)に設定することにより、測定用画像D50の床面71上での歪みを低減できる。 FIG. 7A shows a state in which the projected light 50a is emitted from the projector 1 to the mirror units 3 installed at various distances L = L0, L1 and L2. FIG. 7B shows a measurement image D50 projected by the projector 1. As shown in FIG. 7A, the projected light 50a is emitted from the projector 1 in the Y direction, and when it reaches the mirror unit 3 having a tilt angle α = 45 °, it is reflected in the Z direction and projected onto the floor surface 71. To. At this time, the upper ends (A) and lower ends (B) of the measurement image D50 (FIG. 7 (b)) by the projected light 50a emitted from the projector 1 are reflected by the mirror unit 3 in the Y direction on the floor surface 71. At the lower end and the upper end are inverted and projected (FIG. 7 (c)). By setting the angular position of the mirror 30 to the above initial positions (pan angle ψ = 0 ° and tilt angle α = 45 °), distortion of the measurement image D50 on the floor surface 71 can be reduced.

図7(a)において距離L0は、プロジェクタ1からの投影光50aが、ミラー30において漏れなく反射されるような距離である。距離L0に設置されたミラーユニット3によれば、図7(c)に示すように、測定用画像D50に基づき床面71上に形成される投影画像50には、測定用画像D50の全体が投影される。 In FIG. 7A, the distance L0 is a distance such that the projected light 50a from the projector 1 is reflected by the mirror 30 without omission. According to the mirror unit 3 installed at the distance L0, as shown in FIG. 7C, the projected image 50 formed on the floor surface 71 based on the measurement image D50 includes the entire measurement image D50. Be projected.

一方、図7(a)において距離L1(>L0)はプロジェクタ1からの投影光50aがミラー30の一端から漏れるような距離である。このとき、距離L0の場合よりもプロジェクタ1から出射される投影光50aは広がり、測定用画像D50の下端(B)部分の投影光50aがミラー30からはみ出している。つまり、距離L1に設置されたミラーユニット3によれば、図7(d)に示すように、床面71上の投影画像50’は、上端(B)の一部が欠けた形状になる。 On the other hand, in FIG. 7A, the distance L1 (> L0) is such that the projected light 50a from the projector 1 leaks from one end of the mirror 30. At this time, the projected light 50a emitted from the projector 1 is wider than in the case of the distance L0, and the projected light 50a at the lower end (B) portion of the measurement image D50 protrudes from the mirror 30. That is, according to the mirror unit 3 installed at the distance L1, as shown in FIG. 7D, the projected image 50'on the floor surface 71 has a shape in which a part of the upper end (B) is missing.

また、図7(a)において距離L2(>L1)はプロジェクタ1からの投影光50aがミラー30の周囲から漏れるような距離である。このとき、プロジェクタ1から出射される投影光50aは更に広がり、測定用画像D50の上端(A)及び下端(B)部分の投影光50aがミラー30からはみ出している。つまり、距離L2に設置されたミラーユニット3によれば、図7(e)に示すように、床面71上の投影画像50”は、ミラーユニット3のミラー30の形状に応じた形状になる。 Further, in FIG. 7A, the distance L2 (> L1) is a distance such that the projected light 50a from the projector 1 leaks from the periphery of the mirror 30. At this time, the projected light 50a emitted from the projector 1 further spreads, and the projected light 50a at the upper end (A) and the lower end (B) of the measurement image D50 protrudes from the mirror 30. That is, according to the mirror unit 3 installed at the distance L2, as shown in FIG. 7E, the projected image 50 ”on the floor surface 71 has a shape corresponding to the shape of the mirror 30 of the mirror unit 3. ..

本実施形態では、以上のように距離Lに応じて変化する投影画像50、50’、50”の撮像画像を全方位カメラ2で画像解析することにより距離Lを算出する(S2)。ステップS2の処理の詳細については後述する。 In the present embodiment, the distance L is calculated by analyzing the captured images of the projected images 50, 50', 50 "that change according to the distance L as described above with the omnidirectional camera 2 (S2). The details of the processing will be described later.

また、撮像画像中の投影画像50の位置は、距離Lと高さHとの間の特定の関係に基づき、規則的に変化する(図14参照)。本実施形態では、制御PC4が上記の関係を特定することにより、高さHを算出する(S3)。ステップS3の処理の詳細については後述する。 Further, the position of the projected image 50 in the captured image changes regularly based on a specific relationship between the distance L and the height H (see FIG. 14). In the present embodiment, the control PC 4 calculates the height H by specifying the above relationship (S3). The details of the process in step S3 will be described later.

制御PC4は、算出した距離L及び高さHを記憶部41(図4A)に格納することにより、本処理を終了する。 The control PC 4 ends this process by storing the calculated distance L and height H in the storage unit 41 (FIG. 4A).

以上の処理により、全方位カメラ2が撮像した投影画像50の画像解析によって距離L及び高さHが算出され、自動的に投影システムのキャリブレーションを行うことができる。また、以上の処理は本システムの通常の使用時に用いる全方位カメラ2の撮像画像に基づき実行され、他のハードウェア構成を追加することなく、容易にキャリブレーションを行うことができる。以下、ステップS1,S2,S3の各処理の詳細について説明する。 By the above processing, the distance L and the height H are calculated by the image analysis of the projected image 50 captured by the omnidirectional camera 2, and the projection system can be automatically calibrated. Further, the above processing is executed based on the captured image of the omnidirectional camera 2 used in the normal use of this system, and calibration can be easily performed without adding other hardware configurations. Hereinafter, details of each process of steps S1, S2, and S3 will be described.

2−2−1.ミラーの角度の設定処理(ステップS1)について
本実施形態に係る投影システムでは、キャリブレーション前の初期状態において、ミラーユニット3におけるミラー30のパン角度ψ及びチルト角度αの角度位置が判別できない場合が想定される。本実施形態では、図6のステップS1において、ミラーユニット3の駆動時の全方位カメラ2による撮像画像に基づき、パン角度ψ及びチルト角度αを角度位置ψ=0°,α=45°に設定する。
2-2-1. Mirror angle setting process (step S1) In the projection system according to the present embodiment, the angle positions of the pan angle ψ and the tilt angle α of the mirror 30 in the mirror unit 3 may not be discriminated in the initial state before calibration. is assumed. In the present embodiment, in step S1 of FIG. 6, the pan angle ψ and the tilt angle α are set to the angular positions ψ = 0 ° and α = 45 ° based on the image captured by the omnidirectional camera 2 when the mirror unit 3 is driven. To do.

本実施形態では、プロジェクタ1から基準スポットを床面71に投影し、ミラーユニット3をパン駆動させたときの基準スポットの軌跡に基づき、ミラー30の角度を設定する(図9A及び図9B参照)。以下、図6のステップS1の処理について、図8、図9A及び図9Bを用いて説明する。図8は、ミラー30の角度を設定する処理を説明するためのフローチャートである。図9Aは、投影画像における基準スポットを説明するための図である。図9Bは、撮像画像における基準スポットの軌跡を説明するための図である。 In the present embodiment, the reference spot is projected from the projector 1 onto the floor surface 71, and the angle of the mirror 30 is set based on the locus of the reference spot when the mirror unit 3 is pan-driven (see FIGS. 9A and 9B). .. Hereinafter, the process of step S1 of FIG. 6 will be described with reference to FIGS. 8, 9A and 9B. FIG. 8 is a flowchart for explaining a process of setting the angle of the mirror 30. FIG. 9A is a diagram for explaining a reference spot in the projected image. FIG. 9B is a diagram for explaining the locus of the reference spot in the captured image.

まず、制御PC4は、プロジェクタ1を制御して、例えば図9Aに示すような基準スポット51を含む投影画像50Aを床面71に投影させる(S11)。基準スポット51は、図9Aに示すように、投影画像50Aの中心位置を示す基準マークの一例である。 First, the control PC 4 controls the projector 1 to project a projected image 50A including a reference spot 51 as shown in FIG. 9A on the floor surface 71 (S11). As shown in FIG. 9A, the reference spot 51 is an example of a reference mark indicating the center position of the projected image 50A.

次に、制御PC4は、ミラーユニット3に、パン駆動部31を駆動する駆動命令を送信する(S12)。制御PC4からの駆動命令に基づき、パン駆動部31は、例えば、パン角度ψを所定ピッチで順次、増大させるようにミラー30を回転駆動し、パン角度ψの変位量を随時、制御PC4に送信する。このとき、チルト駆動部32は動作せず、チルト角度αは固定される。 Next, the control PC 4 transmits a drive command for driving the pan drive unit 31 to the mirror unit 3 (S12). Based on the drive command from the control PC 4, the pan drive unit 31 rotationally drives the mirror 30 so as to sequentially increase the pan angle ψ at a predetermined pitch, and transmits the displacement amount of the pan angle ψ to the control PC 4 at any time. To do. At this time, the tilt drive unit 32 does not operate, and the tilt angle α is fixed.

次に、制御PC4は、ミラーユニット3がパン方向に駆動される期間中、全方位カメラ2に床面71を撮像させ(図5参照)、全方位カメラ2から撮像画像を取得する(S13)。制御PC4は、パン駆動に同期して複数フレームの撮像画像を取得し、それぞれパン角度ψの変位量と関連付けて記憶部41に記録する。 Next, the control PC 4 causes the omnidirectional camera 2 to image the floor surface 71 during the period in which the mirror unit 3 is driven in the pan direction (see FIG. 5), and acquires the captured image from the omnidirectional camera 2 (S13). .. The control PC 4 acquires images of a plurality of frames in synchronization with the pan drive, and records them in the storage unit 41 in association with the displacement amount of the pan angle ψ.

次に、制御PC4は、取得した複数フレームの撮像画像において、床面71上に投影される基準スポット51の軌跡を解析する(S14)。図9Bに、基準スポット51の軌跡の解析結果を示す。図9Bにおいて、横軸は床面71のX方向であり、縦軸は床面71のY方向である。 Next, the control PC 4 analyzes the locus of the reference spot 51 projected on the floor surface 71 in the acquired images of the plurality of frames (S14). FIG. 9B shows the analysis result of the locus of the reference spot 51. In FIG. 9B, the horizontal axis is the X direction of the floor surface 71, and the vertical axis is the Y direction of the floor surface 71.

図9Bに示すように、基準スポット51の位置は、パン角度ψの増大に応じてX方向に進むように移動する。また、基準スポット51の軌跡は、パン駆動時のチルト角度αに応じて変化している。図9Bに示すように、基準スポット51の軌跡は、チルト角度αの増大に応じて、XY平面において上に凸の曲線、X軸と平行な直線、及び下に凸の曲線と移り変わっている。上に凸から下に凸へと変曲する直線状の軌跡において、チルト角度αは角度範囲0°〜90°の中心の角度位置45°であることが特定できる。また、図9Bに示すように、曲線状の軌跡はそれぞれ曲線の頂点を基準として対称であり、曲線の頂点のパン角度ψが角度位置0°であることが特定できる。ステップS14において、制御PC4は、全方位カメラ2からの撮像画像を画像解析することにより、例えば基準スポット51の軌跡の曲率を計算したり、曲線状の軌跡の頂点を特定したりする。 As shown in FIG. 9B, the position of the reference spot 51 moves so as to advance in the X direction as the pan angle ψ increases. Further, the locus of the reference spot 51 changes according to the tilt angle α during pan driving. As shown in FIG. 9B, the locus of the reference spot 51 changes with an upwardly convex curve, a straight line parallel to the X axis, and a downwardly convex curve in the XY plane as the tilt angle α increases. It can be specified that the tilt angle α is the angle position 45 ° at the center of the angle range of 0 ° to 90 ° in the linear locus that changes from convex upward to convex downward. Further, as shown in FIG. 9B, the curved trajectories are symmetrical with respect to the apex of the curve, and it can be specified that the pan angle ψ of the apex of the curve is the angle position 0 °. In step S14, the control PC 4 calculates the curvature of the locus of the reference spot 51 or identifies the apex of the curved locus by analyzing the image captured by the omnidirectional camera 2.

次に、制御PC4は、上記のパン駆動中の撮像画像の解析結果(図9B)に基づいて、床面71上の基準スポット51の軌跡が直線的であるか否かを判断する(S15)。 Next, the control PC 4 determines whether or not the locus of the reference spot 51 on the floor surface 71 is linear based on the analysis result (FIG. 9B) of the captured image during the pan drive (S15). ..

制御PC4は、基準スポット51の軌跡が直線的でないと判断した場合(S15でNo)、ミラーユニット3にチルト駆動命令を送信して、基準スポット51の軌跡が直線状に近づくようにチルト角度αを変更する(S16)。例えば、制御PC4は、基準スポット51の軌跡の曲率に基づき曲線が上に凸であるか下に凸であるかを判断し、上に凸の場合にはチルト角度αを増大させ、下に凸の場合にはチルト角度αを減少させる。制御PC4は、変更後のチルト角度αにおいて、ステップS11以降の処理を繰り返す。 When the control PC 4 determines that the locus of the reference spot 51 is not linear (No in S15), the control PC 4 transmits a tilt drive command to the mirror unit 3 so that the locus of the reference spot 51 approaches the linear shape. Is changed (S16). For example, the control PC 4 determines whether the curve is convex upward or convex based on the curvature of the locus of the reference spot 51, and if it is convex upward, the tilt angle α is increased and convex downward. In the case of, the tilt angle α is reduced. The control PC 4 repeats the processes after step S11 at the changed tilt angle α.

制御PC4が、基準スポット51の軌跡が直線的であると判断した場合(S15でYes)、上記の通り、チルト角度αが角度位置45°であると考えられる。制御PC4は、直線的と判断した基準スポット51の軌跡が得られた際のチルト角度αを角度位置45°として特定し、チルト角度の初期位置に設定する(S17)。 When the control PC 4 determines that the locus of the reference spot 51 is linear (Yes in S15), it is considered that the tilt angle α is the angle position 45 ° as described above. The control PC 4 specifies the tilt angle α when the locus of the reference spot 51 determined to be linear is obtained as the angle position 45 °, and sets it as the initial position of the tilt angle (S17).

また、制御PC4は、曲線状の軌跡の頂点に応じたパン角度ψを角度位置0°に特定し、パン角度の初期角度に設定する(S17)。これにより、制御PC4は、図6のステップS1の処理を終了し、ステップS2に進む。 Further, the control PC 4 specifies the pan angle ψ corresponding to the apex of the curved locus at the angle position 0 ° and sets it as the initial angle of the pan angle (S17). As a result, the control PC 4 ends the process of step S1 of FIG. 6 and proceeds to step S2.

以上の処理によると、ミラーユニット3の駆動中に投影される基準スポット51の軌跡に基づいて、ミラーユニット3が所定の角度位置である状態を特定し、ミラー30を所定の角度位置に設定することができる。 According to the above processing, based on the locus of the reference spot 51 projected while driving the mirror unit 3, the state where the mirror unit 3 is at a predetermined angle position is specified, and the mirror 30 is set at a predetermined angle position. be able to.

以上の処理では、パン角度ψ及びチルト角度αそれぞれの角度位置を特定したが、例えばミラーユニット3がパン角度ψ又はチルト角度αの角度位置を特定の角度位置に設定する機能を有する場合、パン角度ψ及びチルト角度αのいずれか一方の角度を特定してもよい。また、ミラーユニット3がパン角度ψ及びチルト角度αの角度位置を特定の角度位置に設定する機能を有する場合、ステップS11〜S16の処理を省略し、直接、パン角度ψ及びチルト角度αが初期位置に設定されてもよい。 In the above processing, the angle positions of the pan angle ψ and the tilt angle α are specified. For example, when the mirror unit 3 has a function of setting the angle position of the pan angle ψ or the tilt angle α to a specific angle position, the pan Either the angle ψ or the tilt angle α may be specified. Further, when the mirror unit 3 has a function of setting the angle positions of the pan angle ψ and the tilt angle α to a specific angle position, the processing of steps S11 to S16 is omitted, and the pan angle ψ and the tilt angle α are directly set to the initial stage. It may be set to a position.

2−2−2.距離Lの算出処理(ステップS2)について
図6の距離Lを算出する処理(ステップS2)について、図10及び図11を用いて説明する。図10は、距離Lを算出する処理を説明するためのフローチャートである。図11は、距離Lを算出する方法を説明するための図である。
2-2-2. About the process of calculating the distance L (step S2) The process of calculating the distance L of FIG. 6 (step S2) will be described with reference to FIGS. 10 and 11. FIG. 10 is a flowchart for explaining the process of calculating the distance L. FIG. 11 is a diagram for explaining a method of calculating the distance L.

以下では、ステップS2の一例として、デジタルズームを用いて測定用画像D50に基づく投影画像50のサイズを制御し、投影画像50の形状の変化を判断して距離Lを算出する方法について説明する。 Hereinafter, as an example of step S2, a method of controlling the size of the projected image 50 based on the measurement image D50 by using the digital zoom, determining the change in the shape of the projected image 50, and calculating the distance L will be described.

まず、制御PC4は、プロジェクタ1の投影光学系13を制御して光学ズームを行い、図11(a)に示すように、プロジェクタ1の画角をワイド端(広角端)の画角βwに設定する(S21)。以下、図11(a)に示すように、プロジェクタ1の画角がワイド端の状態において、ミラーユニット3の反射面30aの周囲にわたり投影光50aがはみ出す場合について説明する(図7(e)参照)。 First, the control PC 4 controls the projection optical system 13 of the projector 1 to perform optical zoom, and sets the angle of view of the projector 1 to the angle of view βw at the wide end (wide angle end) as shown in FIG. 11A. (S21). Hereinafter, as shown in FIG. 11A, a case where the projected light 50a protrudes around the reflection surface 30a of the mirror unit 3 when the angle of view of the projector 1 is at the wide end will be described (see FIG. 7E). ).

次に、制御PC4は、図11(b)に示すように、測定用画像D50の画像全体を例えば白色等で表示する矩形領域52をプロジェクタ1に投影させる(S22)。すると、図7(e)に示すように、床面71上に形成される投影画像50”の形状は、ミラーユニット3の反射面30aに応じて、矩形領域52の上部及び下部が欠けた形状になる。 Next, as shown in FIG. 11B, the control PC 4 projects a rectangular region 52 that displays the entire image of the measurement image D50 in, for example, white, onto the projector 1 (S22). Then, as shown in FIG. 7E, the shape of the projected image 50 ”formed on the floor surface 71 is such that the upper part and the lower part of the rectangular region 52 are missing according to the reflection surface 30a of the mirror unit 3. become.

次に、制御PC4は、全方位カメラ2に床面71を撮像させ、全方位カメラ2から床面71における投影画像50”の撮像画像を取得する(S23)。 Next, the control PC 4 causes the omnidirectional camera 2 to image the floor surface 71, and acquires the captured image of the projected image 50 ”on the floor surface 71 from the omnidirectional camera 2 (S23).

次に、制御PC4は、取得した全方位カメラ2からの撮像画像の画像解析を行い、投影画像50”の形状が、反射面30aに応じた形状であるか否かを判断する(S24)。 Next, the control PC 4 analyzes the image captured by the acquired omnidirectional camera 2 and determines whether or not the shape of the projected image 50 ”corresponds to the reflection surface 30a (S24).

制御PC4は、投影画像50”の形状が反射面30aに応じた形状であると判断した場合(S24でYes)、図11(b),(c)に示すように、測定用画像D50内で矩形領域52を縮小するデジタルズームを行う(S25)。デジタルズームは、矩形領域52のアスペクト比を維持するように行われる。 When the control PC 4 determines that the shape of the projected image 50 "corresponds to the reflecting surface 30a (Yes in S24), as shown in FIGS. 11B and 11C, in the measurement image D50. Digital zooming is performed to reduce the rectangular area 52 (S25). Digital zooming is performed so as to maintain the aspect ratio of the rectangular area 52.

制御PC4は、縮小した矩形領域52’の測定用画像D50’に基づき、ステップS22以降の処理を繰り返す。このとき、投影光50aにおいて縮小した矩形領域52’に対応する部分の投影光50bが、縮小前と同様に、反射面30aの周囲においてはみ出している場合、床面71上では、形状及び大きさが同じ投影画像50”が投影されている。一方、反射面30aの周囲において、縮小した矩形領域52’に対応する投影光50bが反射面30aの周囲をはみ出さない部分が生じると、床面71上の投影画像は、図7(d)の投影画像50’のように上端の一部が欠けた形状の投影画像に変化する。 The control PC 4 repeats the processes after step S22 based on the measurement image D50'of the reduced rectangular area 52'. At this time, when the projected light 50b of the portion corresponding to the reduced rectangular region 52'in the projected light 50a protrudes around the reflecting surface 30a as before the reduction, the shape and size on the floor surface 71. On the other hand, when there is a portion around the reflecting surface 30a where the projected light 50b corresponding to the reduced rectangular region 52'does not protrude from the periphery of the reflecting surface 30a, the floor surface is projected. The projected image on 71 changes to a projected image having a shape in which a part of the upper end is missing as in the projected image 50'of FIG. 7 (d).

制御PC4は、測定用画像D50’に基づく投影画像50’の形状が反射面30aに応じた形状でないと判断した場合(S24でNo)、反射面30aのサイズ、画角βw及び矩形領域52’のサイズに基づき、距離Lを算出する(S26)。例えば、図11(a)に示すように、反射面30aの上部において矩形領域52’に対応する投影光50bがはみ出さなくなった場合、制御PC4は、撮像画像中の投影画像50’の下部の形状が反射面30aに応じた形状でないことを判断する(S24でNo)。この場合、制御PC4は、例えば次式によって距離Lを算出する。
L=2−3/2V(cot(β/2)+1) (1)
上式(1)において、βは矩形領域52’に対応する有効画角であり、Vは反射面30aの垂直方向のサイズであり、cot(β/2)=1/tan(β/2)である。制御PC4は、プロジェクタ1内部の投影光50aの光路長などにより、上式を適宜、補正して用いてもよい。
When the control PC 4 determines that the shape of the projected image 50'based on the measurement image D50'is not the shape corresponding to the reflecting surface 30a (No in S24), the size of the reflecting surface 30a, the angle of view βw, and the rectangular region 52' The distance L is calculated based on the size of (S26). For example, as shown in FIG. 11A, when the projected light 50b corresponding to the rectangular region 52'does not protrude above the reflective surface 30a, the control PC 4 controls the lower part of the projected image 50'in the captured image. It is determined that the shape does not correspond to the reflecting surface 30a (No in S24). In this case, the control PC 4 calculates the distance L by, for example, the following equation.
L = 2 -3/2 V (cot ( β / 2) +1) (1)
In the above equation (1), β is an effective angle of view corresponding to the rectangular region 52', V is the vertical size of the reflecting surface 30a, and cot (β / 2) = 1 / tan (β / 2). Is. The control PC 4 may be used by appropriately correcting the above equation according to the optical path length of the projected light 50a inside the projector 1.

制御PC4は、ステップS26において距離Lを算出することにより、図6のステップS2の処理を終了し、ステップS3に進む。 By calculating the distance L in step S26, the control PC 4 ends the process of step S2 of FIG. 6 and proceeds to step S3.

以上の処理によると、プロジェクタ1からミラーユニット3までの、投影光50aの光路に沿った長さである距離Lに応じて変化する投影画像50の形状、及び反射面30aのサイズに基づいて、距離Lを算出することができる。 According to the above processing, based on the shape of the projected image 50 and the size of the reflecting surface 30a, which change according to the distance L, which is the length along the optical path of the projected light 50a, from the projector 1 to the mirror unit 3. The distance L can be calculated.

上記の説明では、反射面30aの上部(Z方向)において投影光50bがはみ出さなくなった場合の投影画像50’の形状に基づき距離Lを算出する例を説明した。反射面30aの下部(Z方向)において投影光50bがはみ出さなくなった場合についても同様に、所定の式を用いて距離Lを算出することができる。 In the above description, an example of calculating the distance L based on the shape of the projected image 50'when the projected light 50b does not protrude from the upper part (Z direction) of the reflecting surface 30a has been described. Similarly, when the projected light 50b does not protrude from the lower portion (Z direction) of the reflecting surface 30a, the distance L can be calculated using a predetermined formula.

また、上記の説明では、ステップS21においてミラーユニット3の反射面30aの周囲にわたり投影光50aがはみ出す場合について説明したが、ミラーユニット3の反射面30aの一部において投影光50aがはみ出す場合についても、適宜、投影画像50”から投影画像50’への形状の変化を判断し、変化した部分に対応する式を用いることにより、距離Lを算出することができる。 Further, in the above description, the case where the projected light 50a protrudes around the reflecting surface 30a of the mirror unit 3 in step S21 has been described, but there is also a case where the projected light 50a protrudes from a part of the reflecting surface 30a of the mirror unit 3. The distance L can be calculated by appropriately determining the change in shape from the projected image 50'to the projected image 50'and using the formula corresponding to the changed portion.

また、上記の説明では、デジタルズームを用いて矩形領域52のサイズを変更したが、これに加えて、又は代えて、光学ズームを用いてもよい。 Further, in the above description, the size of the rectangular region 52 is changed by using the digital zoom, but in addition to or instead of this, the optical zoom may be used.

また、上記の説明では、制御PC4は、矩形領域52のサイズを変更することにより、投影画像50”の形状の変化を判断して距離Lを算出した。制御PC4は、矩形領域52のサイズを変更せずに投影画像50”の形状に基づき距離Lを算出してもよい。例えば制御PC4は、ワイド端で全画面にクロスハッチを表示した測定用画像D50に基づく投影画像50”の撮像画像の画像解析により、反射面30aの形状に応じて投影画像50”において欠けている部分を抽出し、抽出した部分の形状に基づき距離Lを算出してもよい。 Further, in the above description, the control PC 4 determines the change in the shape of the projected image 50 ”by changing the size of the rectangular region 52, and calculates the distance L. The control PC 4 calculates the size of the rectangular region 52. The distance L may be calculated based on the shape of the projected image 50 ”without changing. For example, the control PC 4 is missing in the projected image 50 "according to the shape of the reflecting surface 30a by image analysis of the captured image of the projected image 50" based on the measurement image D50 in which the crosshatch is displayed on the full screen at the wide end. A portion may be extracted and the distance L may be calculated based on the shape of the extracted portion.

2−2−3.高さHの算出処理(ステップS3)について
図6の高さHを算出する処理(ステップS3)について、図12、図13A,図13B及び図14を用いて説明する。図12は、高さHを算出する処理を説明するためのフローチャートである。図13Aは、高さHを算出するための基準マークを説明するための図である。図13Bは、高さHを算出するための基準マークの撮像画像を説明するための図である。図14は、距離Lと高さHとの関係を説明するための図である。
2-2-3. About the height H calculation process (step S3) The process of calculating the height H in FIG. 6 (step S3) will be described with reference to FIGS. 12, 13A, 13B, and 14. FIG. 12 is a flowchart for explaining the process of calculating the height H. FIG. 13A is a diagram for explaining a reference mark for calculating the height H. FIG. 13B is a diagram for explaining a captured image of a reference mark for calculating the height H. FIG. 14 is a diagram for explaining the relationship between the distance L and the height H.

まず、制御PC4は、例えば図13Aに示すような十字マーク53を含む投影画像50Bをプロジェクタ1に投影させる(S31)。十字マーク53は、図13Aに示すように、投影画像50Bにおける中心位置を示している。十字マーク53は基準マークの一例であり、十字マークに代えて種々のマークを用いてもよく、図9Aの基準スポット51を用いてもよい。 First, the control PC 4 projects the projected image 50B including the cross mark 53 as shown in FIG. 13A on the projector 1 (S31). As shown in FIG. 13A, the cross mark 53 indicates the center position in the projected image 50B. The cross mark 53 is an example of a reference mark, and various marks may be used instead of the cross mark, or the reference spot 51 of FIG. 9A may be used.

次に、制御PC4は、十字マーク53が投影された床面71を全方位カメラ2に撮像させ、全方位カメラ2から撮像画像20を取得する(S32)。図13Bに、ステップS32において取得される撮像画像20の一例を示す。 Next, the control PC 4 causes the omnidirectional camera 2 to image the floor surface 71 on which the cross mark 53 is projected, and acquires the captured image 20 from the omnidirectional camera 2 (S32). FIG. 13B shows an example of the captured image 20 acquired in step S32.

次に、制御PC4は、取得した撮像画像20に基づき、図14に示すように、全方位カメラ2から十字マーク53の投影位置に向く方向D1(第1の方向)とZ方向(第2の方向)とでなす角度θを算出する(S33)。 Next, based on the acquired captured image 20, the control PC 4 faces the directions D1 (first direction) and Z direction (second direction) toward the projection position of the cross mark 53 from the omnidirectional camera 2 as shown in FIG. The angle θ formed by the direction) is calculated (S33).

ステップS33において、本実施形態では全方位画像を構成する撮像画像20を用いる。図13Bに示すように撮像画像20では、中心位置から同心円状の位置に応じて特定の角度位置が対応しており、例えば中心位置に十字マーク53があれば角度θ=0°である。制御PC4は、撮像画像20において中心位置を基準とする十字マーク53の位置に基づき角度θを算出する。 In step S33, in this embodiment, the captured image 20 that constitutes the omnidirectional image is used. As shown in FIG. 13B, in the captured image 20, a specific angle position corresponds to a concentric position from the center position. For example, if there is a cross mark 53 at the center position, the angle θ = 0 °. The control PC 4 calculates the angle θ based on the position of the cross mark 53 with respect to the center position in the captured image 20.

次に、制御PC4は、算出した角度θに基づく距離Lと高さHとの関係式を取得する(S34)。図14に示すように、距離Lと高さHとは、角度θに基づき以下の関係式を満たす。
L/H=tanθ (2)
上式(2)によると、角度θに基づく関係式(2)を満たす距離Lと高さHの組み合わせは、図14に示すように、(L1,H1),(L2,H2)など、種々の候補が考えられる。距離Lと高さHの内の一方の値が特定されると、関係式(2)に基づき他方の値を算出できる。
Next, the control PC 4 acquires the relational expression between the distance L and the height H based on the calculated angle θ (S34). As shown in FIG. 14, the distance L and the height H satisfy the following relational expression based on the angle θ.
L / H = tanθ (2)
According to the above equation (2), there are various combinations of the distance L and the height H that satisfy the relational expression (2) based on the angle θ, such as (L1, H1), (L2, H2), as shown in FIG. Candidates are possible. When one of the values of the distance L and the height H is specified, the other value can be calculated based on the relational expression (2).

次に、制御PC4は、取得した関係式(2)に、図6のステップS2において算出した距離Lを代入することによって、高さHを算出し(S35)、図6のステップS3の処理を終了する。 Next, the control PC 4 calculates the height H by substituting the distance L calculated in step S2 of FIG. 6 into the acquired relational expression (2) (S35), and performs the process of step S3 of FIG. finish.

以上の処理によると、角度θを算出することにより、距離Lと高さHとの2変数に対して、一つの独立条件(式(2))を得ることができる。ステップS2の算出結果と併せて、二つの独立条件が得られ、距離Lと高さHとを算出することができる。 According to the above processing, by calculating the angle θ, one independent condition (Equation (2)) can be obtained for the two variables of the distance L and the height H. Together with the calculation result of step S2, two independent conditions can be obtained, and the distance L and the height H can be calculated.

以上の説明では、図6のステップS2の後に距離Lと高さHとの関係式(2)を取得したが、ステップS2の前に距離Lと高さHとの関係式(2)を取得してもよい。この場合、図12のステップS31〜S34の処理を図6のステップS2よりも前に行い、ステップS2の後に高さHの算出(S35)を行う。 In the above description, the relational expression (2) between the distance L and the height H was acquired after step S2 in FIG. 6, but the relational expression (2) between the distance L and the height H was acquired before step S2. You may. In this case, the processes of steps S31 to S34 of FIG. 12 are performed before step S2 of FIG. 6, and the height H is calculated (S35) after step S2.

以上のようにして、本実施形態に係る投影システムのキャリブレーション動作により、距離L及び高さHを求めることができる。 As described above, the distance L and the height H can be obtained by the calibration operation of the projection system according to the present embodiment.

3.効果等
以上のように、本実施形態において投影システムは、プロジェクタ1と、ミラーユニット3と、全方位カメラ2と、制御PC4とを備える。プロジェクタ1は、測定用画像D50を表示するための投影光50aを出射する。ミラーユニット3は、プロジェクタ1からの投影光50aの光路を変更し、投影光50aを床面71に導光する。全方位カメラ2は、測定用画像D50に基づきミラーユニット3から床面71上に投影された投影画像50を撮像する。制御PC4は、投影画像50を制御する。制御PC4は、全方位カメラ2が投影画像50を撮像した撮像画像に基づいて、プロジェクタ1からミラーユニット3までの光路に沿った長さである距離L(第1の距離)、及びプロジェクタ1から床面71までの鉛直方向に沿った長さである高さH(第2の距離)を算出し、算出した距離L及び高さHに基づいて投影画像50を制御する。
3. 3. Effects and the like As described above, in the present embodiment, the projection system includes a projector 1, a mirror unit 3, an omnidirectional camera 2, and a control PC 4. The projector 1 emits projected light 50a for displaying the measurement image D50. The mirror unit 3 changes the optical path of the projected light 50a from the projector 1 and guides the projected light 50a to the floor surface 71. The omnidirectional camera 2 captures a projected image 50 projected onto the floor surface 71 from the mirror unit 3 based on the measurement image D50. The control PC 4 controls the projected image 50. The control PC 4 has a distance L (first distance), which is a length along the optical path from the projector 1 to the mirror unit 3, and a distance L (first distance) from the projector 1 based on the captured image captured by the omnidirectional camera 2. The height H (second distance), which is the length along the vertical direction to the floor surface 71, is calculated, and the projected image 50 is controlled based on the calculated distance L and the height H.

以上の投影システムによると、制御PC4によって、全方位カメラ2が投影画像50を撮像した撮像画像に基づき距離L及び高さHが算出され、投影システムのキャリブレーションを容易に行うことができる。また、キャリブレーション後の本システムにおいて、適切に投影画像50を制御することができる。 According to the above projection system, the control PC 4 calculates the distance L and the height H based on the captured image captured by the omnidirectional camera 2, and the projection system can be easily calibrated. In addition, the projected image 50 can be appropriately controlled in this system after calibration.

また、本実施形態において、制御PC4は、投影画像50を投影する投影システム(プロジェクタ1、ミラーユニット3及び全方位カメラ2)のキャリブレーションを行うキャリブレーション装置46である。 Further, in the present embodiment, the control PC 4 is a calibration device 46 that calibrates the projection system (projector 1, mirror unit 3, and omnidirectional camera 2) that projects the projected image 50.

また、本実施形態において、ミラーユニット3は、投影光50aを反射する反射面30aを備える。制御PC4は、反射面30aのチルト角度αが所定の初期位置(α=45°)である場合に投影された投影画像50の撮像画像に基づいて、距離Lと高さHとを算出する(S1)。初期位置の反射面30aに対する投影画像50の撮像画像に基づいて、制御PC4は、キャリブレーションを容易に行うことができる。 Further, in the present embodiment, the mirror unit 3 includes a reflecting surface 30a that reflects the projected light 50a. The control PC 4 calculates the distance L and the height H based on the captured image of the projected image 50 projected when the tilt angle α of the reflecting surface 30a is a predetermined initial position (α = 45 °) ( S1). The control PC 4 can easily perform calibration based on the captured image of the projected image 50 with respect to the reflecting surface 30a at the initial position.

なお、チルト角度αの初期位置は45°でなくてもよい。図15を用いて、任意のチルト角度α(0°<α<90°)に基づくキャリブレーション動作について説明する。図15は、距離Lと高さHとの関係の変形例を説明するための図である。 The initial position of the tilt angle α does not have to be 45 °. The calibration operation based on an arbitrary tilt angle α (0 ° <α <90 °) will be described with reference to FIG. FIG. 15 is a diagram for explaining a modified example of the relationship between the distance L and the height H.

図15に示すように、任意のチルト角度α(0°<α<90°)において、距離Lと高さHとは、以下の関係式を満たす。
L/H=(tanθ+cot(2α)) (3)
このため、種々の初期位置のチルト角度αに対して、図6のステップS3において式(2)に代えて上式(3)を用いることにより、距離Lと高さHとの関係式を得ることができる。また、ステップS1,S2においても、適宜、チルト角度αの初期位置を変更することができる。
As shown in FIG. 15, at an arbitrary tilt angle α (0 ° <α <90 °), the distance L and the height H satisfy the following relational expression.
L / H = (tanθ + cot (2α)) (3)
Therefore, for the tilt angles α at various initial positions, the relational expression between the distance L and the height H is obtained by using the above equation (3) instead of the equation (2) in step S3 of FIG. be able to. Further, also in steps S1 and S2, the initial position of the tilt angle α can be changed as appropriate.

また、本実施形態において、全方位カメラ2は、反射面30aによって反射された投影光50aが床面71に形成した投影画像50を撮像する。制御PC4は、全方位カメラ2による撮像画像における投影画像50,50’,50”の形状又はサイズの少なくとも一方と、反射面30aのサイズに基づいて、距離Lを算出する(S2)。これにより、全方位カメラ2以外のハードウェア構成を追加することなく制御PC4は、距離Lを算出することができる。 Further, in the present embodiment, the omnidirectional camera 2 captures the projected image 50 formed on the floor surface 71 by the projected light 50a reflected by the reflecting surface 30a. The control PC 4 calculates the distance L based on at least one of the shapes or sizes of the projected images 50, 50', 50 "in the image captured by the omnidirectional camera 2 and the size of the reflecting surface 30a (S2). The control PC 4 can calculate the distance L without adding a hardware configuration other than the omnidirectional camera 2.

また、本実施形態において、プロジェクタ1は、基準スポット51を含む投影画像50Aを床面71上に投影する(S11)。全方位カメラ2は、床面71上に投影された基準スポット51を含む投影画像50Aを撮像する。制御PC4は、ミラーユニット3を制御して床面71上で基準スポット51を移動させる(S12)。制御PC4は、全方位カメラ2が基準スポット51を含む投影画像50Aを撮像した撮像画像における基準スポット51の軌跡(図9B)に基づいて、反射面30aのチルト角度α及びパン角度ψを特定する(S15,S17)。これにより、初期状態ではチルト角度α及びパン角度ψが判別されない場合であっても、制御PC4は、容易にキャリブレーションを行うことができる。なお、基準スポット51に限らず種々の基準マークを用いてもよい。 Further, in the present embodiment, the projector 1 projects the projected image 50A including the reference spot 51 on the floor surface 71 (S11). The omnidirectional camera 2 captures a projected image 50A including a reference spot 51 projected on the floor surface 71. The control PC 4 controls the mirror unit 3 to move the reference spot 51 on the floor surface 71 (S12). The control PC 4 specifies the tilt angle α and the pan angle ψ of the reflecting surface 30a based on the locus of the reference spot 51 (FIG. 9B) in the captured image obtained by the omnidirectional camera 2 capturing the projected image 50A including the reference spot 51. (S15, S17). As a result, the control PC 4 can be easily calibrated even when the tilt angle α and the pan angle ψ are not discriminated in the initial state. Not limited to the reference spot 51, various reference marks may be used.

また、本実施形態において、プロジェクタ1は十字マーク53を含む投影画像50Bを床面71上に投影する(S31)。全方位カメラ2は、床面71上に投影された十字マーク53を含む投影画像50Bを撮像する(S32)。制御PC4は、全方位カメラ2が十字マーク53を含む投影画像50Bを撮像した撮像画像20に基づいて、全方位カメラ2から投影画像50Bが投影された位置に向く方向D1(第1の方向)と高さHを規定するZ方向(第2の方向)とでなす角度θを算出する(S33)。制御PC4は、算出した角度θ及び距離Lに基づいて、高さHを算出する(S35)。これにより、算出した角度θ及び距離Lに基づき、容易に高さHを特定することができる。 Further, in the present embodiment, the projector 1 projects the projected image 50B including the cross mark 53 on the floor surface 71 (S31). The omnidirectional camera 2 captures a projected image 50B including a cross mark 53 projected on the floor surface 71 (S32). The control PC 4 has a direction D1 (first direction) toward the position where the projected image 50B is projected from the omnidirectional camera 2 based on the captured image 20 obtained by the omnidirectional camera 2 capturing the projected image 50B including the cross mark 53. And the Z direction (second direction) that defines the height H are calculated as the angle θ (S33). The control PC 4 calculates the height H based on the calculated angle θ and the distance L (S35). Thereby, the height H can be easily specified based on the calculated angle θ and the distance L.

また、本実施形態において、全方位カメラ2は、人6などの所定の被写体を撮像する。制御PC4は、全方位カメラ2が被写体を撮像した撮像画像に基づいて投影画像5を制御する。これにより、通常の使用時に被写体を撮像するための全方位カメラ2を用いて、他のハードウェア構成を追加することなくキャリブレーションを行うことができる。 Further, in the present embodiment, the omnidirectional camera 2 captures a predetermined subject such as a person 6. The control PC 4 controls the projected image 5 based on the captured image captured by the omnidirectional camera 2. As a result, calibration can be performed using the omnidirectional camera 2 for capturing the subject during normal use without adding other hardware configurations.

また、本実施形態において、プロジェクタ1から出射される投影光50aの光路は水平である。 Further, in the present embodiment, the optical path of the projected light 50a emitted from the projector 1 is horizontal.

(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technology disclosed in the present application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, substitutions, additions, omissions, etc. are appropriately made. It is also possible to combine the components described in each of the above embodiments into a new embodiment. Therefore, other embodiments will be illustrated below.

上記の実施形態では、図6のステップS2,S3の処理により、距離L及び高さHを算出した。本開示における投影システムでは、ステップS2,S3のいずれか一方に代えて、例えば床面71等の投影面に投影した投影画像の合焦距離に基づいて、総距離(L+H)を算出してもよい。この場合、例えばプロジェクタ1が投影光学系13においてレンズ位置の位置センサを備えることにより、合焦距離を測定することができる。 In the above embodiment, the distance L and the height H are calculated by the processing of steps S2 and S3 of FIG. In the projection system of the present disclosure, instead of either one of steps S2 and S3, the total distance (L + H) may be calculated based on the focusing distance of the projected image projected on the projection surface such as the floor surface 71. Good. In this case, for example, if the projector 1 is provided with a position sensor for the lens position in the projection optical system 13, the focusing distance can be measured.

また、上記の実施形態では、プロジェクタ1及びミラーユニット3は天井70等から吊るように設置したが、例えば壁等に固定してもよいし、床又は机等に置いて用いてもよい。この場合、第1の距離は、距離Lと同様に、それぞれ設置されたプロジェクタ1とミラーユニットとの間の距離である。また、第2の距離は、高さHに代えて、種々の設置場所に応じて適宜、設定される投影面からプロジェクタ1までの距離である。 Further, in the above embodiment, the projector 1 and the mirror unit 3 are installed so as to be suspended from the ceiling 70 or the like, but may be fixed to a wall or the like, or may be placed on a floor or a desk or the like for use. In this case, the first distance is the distance between the projector 1 and the mirror unit, respectively, as in the distance L. Further, the second distance is a distance from the projection surface to the projector 1 which is appropriately set according to various installation locations instead of the height H.

また、上記の実施形態では、投影システムにおける撮像部の一例として、全方位カメラ2について説明した。本開示における撮像部は、全方位カメラ2に限らず、画角180°未満の画角を有するカメラを用いてもよい。この場合、例えば、図12のS33において、制御PC4は、全方位画像ではなく通常の平面画像から、角度θを算出する。また、撮像部は、RGBカメラであってもよいし、赤外カメラでもあってもよい。 Further, in the above embodiment, the omnidirectional camera 2 has been described as an example of the imaging unit in the projection system. The imaging unit in the present disclosure is not limited to the omnidirectional camera 2, and a camera having an angle of view of less than 180 ° may be used. In this case, for example, in S33 of FIG. 12, the control PC 4 calculates the angle θ from a normal plane image instead of an omnidirectional image. Further, the imaging unit may be an RGB camera or an infrared camera.

また、上記の実施形態では、投影システムにおける光路変更部の一例として、ミラーユニット3について説明したが、光路変更部はミラーユニット3に限定されない。例えば、ミラー30を用いずに、プリズム等の種々の光学系を用いて光路変更部が構成されてもよい。 Further, in the above embodiment, the mirror unit 3 has been described as an example of the optical path changing unit in the projection system, but the optical path changing unit is not limited to the mirror unit 3. For example, the optical path changing portion may be configured by using various optical systems such as a prism without using the mirror 30.

また、ミラーユニット3の回転軸はJ1,J2(図3)に限らない。例えば回転軸J1に代えて、Z方向を回転軸としてもよいし、反射面30aの垂直方向を回転軸としてもよい。この場合、適宜、所定の角度位置に対応する軌跡を予め設定しておくことで、図8のフローチャートと同様の処理を行うことができる。 Further, the rotation axes of the mirror unit 3 are not limited to J1 and J2 (FIG. 3). For example, instead of the rotation axis J1, the Z direction may be the rotation axis, or the vertical direction of the reflecting surface 30a may be the rotation axis. In this case, the same processing as the flowchart of FIG. 8 can be performed by appropriately setting a locus corresponding to a predetermined angular position in advance.

また、上記の実施形態における制御PC4に代えて、種々の情報処理装置を用いてもよい。また、上記の実施形態では制御PC4とプロジェクタ1とは別体であったが、本開示における制御部及びキャリブレーション装置46は、投影部と一体的に構成されてもよい。 Further, various information processing devices may be used instead of the control PC 4 in the above embodiment. Further, although the control PC 4 and the projector 1 are separate bodies in the above embodiment, the control unit and the calibration device 46 in the present disclosure may be integrally configured with the projection unit.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。 As described above, an embodiment has been described as an example of the technique in the present disclosure. To that end, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Therefore, among the components described in the attached drawings and the detailed description, not only the components essential for problem solving but also the components not essential for problem solving in order to exemplify the above technology. Can also be included. Therefore, the fact that these non-essential components are described in the accompanying drawings or detailed description should not immediately determine that those non-essential components are essential.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において、種々の変更、置換、付加、省略などを行うことができる。 Further, since the above-described embodiment is for exemplifying the technique in the present disclosure, various changes, substitutions, additions, omissions, etc. can be made within the scope of claims or the equivalent thereof.

本開示における投影システムは、投影面に画像を投影する種々の用途に適用可能である。 The projection system in the present disclosure is applicable to various uses for projecting an image on a projection surface.

1 プロジェクタ
2 全方位カメラ
3 ミラーユニット
4 制御PC
40 PC制御部
41 記憶部
46 キャリブレーション装置
47 第1算出部
48 第2算出部
49 キャリブレーション部
L 距離(第1の距離)
H 高さ(第2の距離)
1 Projector 2 Omnidirectional camera 3 Mirror unit 4 Control PC
40 PC control unit 41 Storage unit 46 Calibration device 47 First calculation unit 48 Second calculation unit 49 Calibration unit L Distance (first distance)
H height (second distance)

Claims (9)

所定の画像を表示するための投影光を出射する投影部と、
前記投影部からの投影光の光路を変更し、投影光を所定の投影面に導光する光路変更部と、
前記所定の画像に基づいて前記光路変更部から前記投影面上に投影された投影画像を撮像する撮像部と、
前記投影画像を制御する制御部とを備え、
前記制御部は、前記撮像部が前記投影画像を撮像した撮像画像に基づいて、前記投影部から前記光路変更部までの前記光路に沿った長さである第1の距離、及び前記投影部から前記投影面までの鉛直方向に沿った長さである第2の距離を算出し、算出した前記第1の距離及び前記第2の距離に基づいて前記投影画像を制御する
投影システム。
A projection unit that emits projected light to display a predetermined image,
An optical path changing unit that changes the optical path of the projected light from the projection unit and guides the projected light to a predetermined projection surface.
An imaging unit that captures a projected image projected onto the projection surface from the optical path changing unit based on the predetermined image, and an imaging unit.
A control unit that controls the projected image is provided.
The control unit is a first distance along the optical path from the projection unit to the optical path changing unit, and from the projection unit, based on the image captured by the imaging unit. A projection system that calculates a second distance, which is a length along the vertical direction to the projection surface, and controls the projected image based on the calculated first distance and the second distance.
前記光路変更部は、前記投影光を反射する反射面を備え、
前記制御部は、前記反射面の傾斜角度及び前記撮像画像に基づいて前記第1及び前記第2の距離を算出する
請求項1に記載の投影システム。
The optical path changing portion includes a reflecting surface that reflects the projected light.
The projection system according to claim 1, wherein the control unit calculates the first and second distances based on the inclination angle of the reflection surface and the captured image.
前記撮像部は、前記反射面によって反射された前記投影光が前記投影面に形成した前記投影画像を撮像し、
前記制御部は、前記撮像部による前記撮像画像における前記投影画像の形状又はサイズの少なくとも一方と、前記反射面のサイズに基づいて、前記第1の距離を算出する
請求項2に記載の投影システム。
The imaging unit captures the projected image formed on the projected surface by the projected light reflected by the reflecting surface.
The projection system according to claim 2, wherein the control unit calculates the first distance based on at least one of the shape or size of the projected image in the captured image by the imaging unit and the size of the reflecting surface. ..
前記投影部は、基準マークを含む画像を前記投影面上に投影し、
前記撮像部は、前記投影面上に投影された前記基準マークを含む投影画像を撮像し、
前記制御部は、
前記光路変更部を制御して前記投影面上で前記基準マークを移動させ、
前記撮像部が前記基準マークを含む投影画像を撮像した撮像画像における基準マークの軌跡に基づいて、前記反射面の傾斜角度を特定する
請求項2に記載の投影システム。
The projection unit projects an image including a reference mark on the projection surface, and then
The imaging unit captures a projected image including the reference mark projected on the projection surface.
The control unit
The reference mark is moved on the projection surface by controlling the optical path changing unit.
The projection system according to claim 2, wherein the imaging unit specifies an inclination angle of the reflection surface based on the locus of the reference mark in the captured image obtained by capturing the projected image including the reference mark.
前記投影部は、基準マークを含む画像を前記投影面上に投影し、
前記撮像部は、前記投影面上に投影された前記基準マークを含む投影画像を撮像し、
前記制御部は、前記撮像部が前記基準マークを含む投影画像を撮像した撮像画像に基づいて、前記撮像部から前記基準マークが投影された位置に向く第1の方向と、前記第2の距離を規定する第2の方向とでなす角度を算出し、
前記角度及び前記第1の距離に基づいて、前記第2の距離を算出する
請求項1に記載の投影システム。
The projection unit projects an image including a reference mark on the projection surface, and then
The imaging unit captures a projected image including the reference mark projected on the projection surface.
The control unit has a first direction toward a position where the reference mark is projected from the imaging unit and a second distance based on the captured image obtained by the imaging unit capturing the projected image including the reference mark. Calculate the angle between the second direction and
The projection system according to claim 1, wherein the second distance is calculated based on the angle and the first distance.
前記撮像部は、所定の被写体を撮像し、
前記制御部は、前記撮像部が前記被写体を撮像した撮像画像に基づいて前記投影画像を制御する
請求項1に記載の投影システム。
The imaging unit captures a predetermined subject and
The projection system according to claim 1, wherein the control unit controls the projection image based on an image captured by the imaging unit.
前記撮像部は、全方位カメラで構成される
請求項1に記載の投影システム。
The projection system according to claim 1, wherein the imaging unit includes an omnidirectional camera.
前記光路は、水平である
請求項1に記載の投影システム。
The projection system according to claim 1, wherein the optical path is horizontal.
投影システムのキャリブレーションを行うキャリブレーション装置であって、
前記投影システムは、
所定の画像を表示するための投影光を出射する投影部と、
前記投影部からの投影光の光路を変更し、前記投影光を所定の投影面に導光する光路変更部と、
前記所定の画像に基づいて前記光路変更部から前記投影面上に投影された投影画像を撮像する撮像部とを備え、
前記キャリブレーション装置は、
前記撮像部が前記投影画像を撮像した撮像画像に基づいて、前記投影部から前記光路変更部までの前記光路に沿った長さである第1の距離を算出する第1算出部と、
前記撮像部が前記投影画像を撮像した撮像画像に基づいて、前記投影部から前記投影面までの鉛直方向に沿った長さである第2の距離を算出する第2算出部と、
算出した前記第1の距離及び前記第2の距離に基づいて前記投影画像のキャリブレーションを行うキャリブレーション部とを備える
キャリブレーション装置。
A calibration device that calibrates the projection system.
The projection system
A projection unit that emits projected light to display a predetermined image,
An optical path changing unit that changes the optical path of the projected light from the projection unit and guides the projected light to a predetermined projection surface.
It is provided with an imaging unit that captures a projected image projected onto the projection surface from the optical path changing unit based on the predetermined image.
The calibration device is
A first calculation unit that calculates a first distance, which is a length along the optical path, from the projection unit to the optical path changing unit based on the captured image obtained by the imaging unit.
A second calculation unit that calculates a second distance, which is a length along the vertical direction from the projection unit to the projection surface, based on the captured image obtained by the imaging unit.
A calibration device including a calibration unit that calibrates the projected image based on the calculated first distance and the second distance.
JP2017033071A 2016-03-10 2017-02-24 Projection system and calibration equipment Active JP6846618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/452,953 US10104351B2 (en) 2016-03-10 2017-03-08 Projection system and calibration apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016047628 2016-03-10
JP2016047628 2016-03-10

Publications (2)

Publication Number Publication Date
JP2017169195A JP2017169195A (en) 2017-09-21
JP6846618B2 true JP6846618B2 (en) 2021-03-24

Family

ID=59914087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017033071A Active JP6846618B2 (en) 2016-03-10 2017-02-24 Projection system and calibration equipment

Country Status (1)

Country Link
JP (1) JP6846618B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7417935B2 (en) * 2020-03-11 2024-01-19 パナソニックIpマネジメント株式会社 Projection direction changing device and image projection system
CN115576163A (en) * 2021-07-06 2023-01-06 华为技术有限公司 Display device and imaging method
CN113923428B (en) * 2021-11-23 2024-01-30 中国航空工业集团公司洛阳电光设备研究所 Terminal and method for rapidly calibrating projection precision of head-up projection device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000171897A (en) * 1998-12-04 2000-06-23 Toshiba Corp Liquid crystal projector
JP3646658B2 (en) * 2001-03-01 2005-05-11 セイコーエプソン株式会社 Image distortion correction
JP2004260785A (en) * 2002-07-23 2004-09-16 Nec Viewtechnology Ltd Projector with distortion correction function
JP2004248126A (en) * 2003-02-17 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> Arbitrary direction information projector, control program for it, and recording medium recorded with the program
JP2005064667A (en) * 2003-08-08 2005-03-10 Nec Viewtechnology Ltd Projection apparatus and method
US7134756B2 (en) * 2004-05-04 2006-11-14 Microsoft Corporation Selectable projector and imaging modes of display table
JP2005331585A (en) * 2004-05-18 2005-12-02 Nec Viewtechnology Ltd Projector having device for measuring distance and tilt angle
JP2008089841A (en) * 2006-09-29 2008-04-17 Brother Ind Ltd Projection device
JP2008203393A (en) * 2007-02-19 2008-09-04 Seiko Epson Corp Projection system
JP2009002982A (en) * 2007-06-19 2009-01-08 Seiko Epson Corp Display device
JP5370176B2 (en) * 2010-01-22 2013-12-18 セイコーエプソン株式会社 Projector system
JP6238059B2 (en) * 2013-12-18 2017-11-29 カシオ計算機株式会社 Projection apparatus and projection method

Also Published As

Publication number Publication date
JP2017169195A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
US10104351B2 (en) Projection system and calibration apparatus
JP6369810B2 (en) Projection image display system, projection image display method, and projection display device
US9726965B2 (en) Projection device, image correction method, and computer-readable recording medium
JP6244638B2 (en) Projection apparatus, projection method, and projection program
WO2014171136A1 (en) Projection-type video display apparatus
JP6846618B2 (en) Projection system and calibration equipment
US9811876B2 (en) Display apparatus and control method
JP6201359B2 (en) Projection system, projection method, and projection program
US20210302753A1 (en) Control apparatus, control method, and program
CN110463191B (en) Projector and control method of projector
JP2010122273A (en) Method of measuring zoom ratio of projection optical system, method of correcting projection image using the method, and projector executing the correction method
JP2014206634A (en) Electronic apparatus
JP6191019B2 (en) Projection apparatus and projection method
JP2015026219A (en) Electronic device
JP7147617B2 (en) Projector and projector control method
US20230037686A1 (en) Electronic device, contents searching system and searching method thereof
US10437139B2 (en) Projector apparatus, projection method, and storage medium
JP2016122179A (en) Projection device and projection method
JP6197322B2 (en) Projection device, image output device, projection method, and projection program
JP6146038B2 (en) Projection device and projection method
JP2013083985A (en) Projection device, projection method, and program
JP7031191B2 (en) Projector, projection method and program
JP6347126B2 (en) Projector and projector control method
JP5630799B2 (en) Projection apparatus, projection method, and program
US20230276032A1 (en) Electronic apparatus and method for controlling thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210125

R151 Written notification of patent or utility model registration

Ref document number: 6846618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151