JP2013085073A - Image projection device - Google Patents

Image projection device Download PDF

Info

Publication number
JP2013085073A
JP2013085073A JP2011222863A JP2011222863A JP2013085073A JP 2013085073 A JP2013085073 A JP 2013085073A JP 2011222863 A JP2011222863 A JP 2011222863A JP 2011222863 A JP2011222863 A JP 2011222863A JP 2013085073 A JP2013085073 A JP 2013085073A
Authority
JP
Japan
Prior art keywords
image
projection
unit
imaging
control program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011222863A
Other languages
Japanese (ja)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011222863A priority Critical patent/JP2013085073A/en
Publication of JP2013085073A publication Critical patent/JP2013085073A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability and to miniaturize a digital camera.SOLUTION: A projector 46 projects a reproduced image on a screen from the front of the screen. An imaging apparatus 16 has a visual field which is set so that the screen is deviated and repetitively outputs an image showing a scene captured by the visual field. A CPU 36 searches motion of a left hand whose forefinger is extended to right/left direction on the basis of an image outputted from the imaging apparatus 16, and updates the reproduced image which is to be projected by the projector 46 in response to detection of such motion.

Description

この発明は、画像投影装置に関し、特に投影面の前方から投影面に画像を投影する、画像投影装置に関する。   The present invention relates to an image projection device, and more particularly to an image projection device that projects an image onto a projection surface from the front of the projection surface.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、プロジェクタは、ユーザの後方上部に設けられ、ユーザの前方に設けられたガラスなどの透明または半透明のスクリーンに画像を投影する。また、撮像装置は、スクリーンの反対側に設けられ、スクリーンに投影された画像に向かってジェスチャを行うユーザの姿を撮影する。プロジェクタによって投影される画像は、ユーザのジェスチャに応じて変化する。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the projector is provided on the rear upper part of the user, and projects an image on a transparent or translucent screen such as glass provided in front of the user. The imaging device is provided on the opposite side of the screen and captures the appearance of the user performing a gesture toward the image projected on the screen. The image projected by the projector changes according to the user's gesture.

特開2009−70416号公報JP 2009-70416 A

しかし、背景技術では、プロジェクタおよび撮像装置が分離しているため、小型化に限界がある。   However, in the background art, since the projector and the imaging device are separated, there is a limit to downsizing.

それゆえに、この発明の主たる目的は、小型化できかつ操作性を高めることができる、画像投影装置を提供することである。   Therefore, a main object of the present invention is to provide an image projecting apparatus that can be reduced in size and improved in operability.

この発明に従う画像投影装置(10:実施例で相当する参照符号。以下同じ)は、投影面の前方から投影面に画像を投影する投影手段(46)、投影面が外れるように設定された視野を有し、視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段(16)、撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索手段(S61~S81, S87)、および投影手段によって投影すべき画像を探索手段の探知に応答して更新する更新手段(S83~S85, S35~S43)を備える。   An image projection apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes projection means (46) for projecting an image onto the projection plane from the front of the projection plane, and a field of view set so that the projection plane deviates. Imaging means (16) for repeatedly outputting an image representing a scene captured in the field of view, search means for searching for a motion of a specific object that satisfies a predetermined condition based on the image output from the imaging means (S61 ~ S81, S87) and update means (S83 to S85, S35 to S43) for updating an image to be projected by the projection means in response to detection by the search means.

好ましくは、投影手段および撮像手段は互いに並列して処理を実行し、投影手段および撮像手段から並列して出力される2つの画像は互いに相違する。   Preferably, the projection unit and the imaging unit execute processing in parallel with each other, and the two images output in parallel from the projection unit and the imaging unit are different from each other.

好ましくは、内蔵画面(30)に画像を表示する表示手段(28)、投影手段および表示手段を選択的に起動する起動手段(S45~S49, S55)、および起動手段による表示手段の起動に対応して探索手段を停止する停止手段(S59)がさらに備えられる。   Preferably, display means (28) for displaying an image on the built-in screen (30), activation means (S45 to S49, S55) for selectively activating the projection means and the display means, and activation of the display means by the activation means Then, stop means (S59) for stopping the search means is further provided.

さらに好ましくは、内蔵画面は投影手段の投影方向に面し、撮像手段の撮像方向は投影手段の投影方向と逆の方向に相当する。   More preferably, the built-in screen faces the projection direction of the projection unit, and the imaging direction of the imaging unit corresponds to a direction opposite to the projection direction of the projection unit.

好ましくは、投影手段に対する姿勢が可変となるように撮像手段を支持する支持手段(SH1)がさらに備えられる。   Preferably, support means (SH1) for supporting the imaging means so that the posture with respect to the projection means is variable is further provided.

好ましくは、撮像手段の撮像方向は投影手段の投影方向に相当し、撮像手段に向けて光を反射させる反射手段(ML1)を着脱自在に保持する保持手段(HL1)がさらに備えられる。   Preferably, the imaging direction of the imaging unit corresponds to the projection direction of the projection unit, and further includes a holding unit (HL1) that detachably holds a reflection unit (ML1) that reflects light toward the imaging unit.

好ましくは、特定物体は人物の手に相当し、探索手段は、手を表す画像の代表点を検出する検出手段(S65~S75)、および検出手段によって検出された代表点の動きを既定条件と照合する照合手段(S77)を含む。   Preferably, the specific object corresponds to a person's hand, and the search means uses detection means (S65 to S75) for detecting a representative point of the image representing the hand, and the movement of the representative point detected by the detection means is a predetermined condition. A collation means (S77) for collation is included.

この発明に従う投影制御プログラムは、投影面の前方から投影面に画像を投影する投影手段(46)、および投影面が外れるように設定された視野を有し、視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段(16)を備える画像投影装置(10)のプロセッサ(36)に、撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ(S61~S81, S87)、および投影手段によって投影すべき画像を探索ステップの探知に応答して更新する更新ステップ(S83~S85, S35~S43)を実行させるための、投影制御プログラムである。   The projection control program according to the present invention includes a projection means (46) for projecting an image onto the projection plane from the front of the projection plane, and an image representing a scene captured by the field of view, with the field of view set so that the projection plane deviates. A search step (S61) for searching for a motion of a specific object satisfying a predetermined condition based on an image output from the image pickup means in the processor (36) of the image projection device (10) including the image pickup means (16) that repeatedly outputs ~ S81, S87) and an update step (S83 to S85, S35 to S43) for updating an image to be projected by the projection means in response to detection of the search step.

この発明に従う投影制御方法は、投影面の前方から投影面に画像を投影する投影手段(46)、および投影面が外れるように設定された視野を有し、視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段(16)を備える画像投影装置(10)によって実行される投影制御方法であって、撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ(S61~S81, S87)、および投影手段によって投影すべき画像を探索ステップの探知に応答して更新する更新ステップ(S83~S85, S35~S43)を備える。   The projection control method according to the present invention comprises a projection means (46) for projecting an image onto the projection plane from the front of the projection plane, and an image representing a scene captured by the field of view, the field of view set so that the projection plane deviates. Is a projection control method executed by the image projecting device (10) including the imaging means (16) that repeatedly outputs the image, and searches for a motion of a specific object that satisfies a predetermined condition based on the image output from the imaging means A search step (S61 to S81, S87) and an update step (S83 to S85, S35 to S43) for updating an image to be projected by the projection means in response to detection of the search step are provided.

この発明に従う外部制御プログラムは、投影面の前方から投影面に画像を投影する投影手段(46)、投影面が外れるように設定された視野を有し、視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段(16)、およびメモリ(38)に保存された内部制御プログラムに従う処理を実行するプロセッサ(36)を備える画像投影装置(10)に供給される外部制御プログラムであって、撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ(S61~S81, S87)、および投影手段によって投影すべき画像を探索ステップの探知に応答して更新する更新ステップ(S83~S85, S35~S43)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention includes a projection means (46) for projecting an image onto the projection plane from the front of the projection plane, an image representing a scene captured by the field of view having a field of view set so that the projection plane deviates. An external control program supplied to an image projecting device (10) including an imaging means (16) for repeatedly outputting and a processor (36) for executing processing according to an internal control program stored in a memory (38) A search step (S61 to S81, S87) for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from the means, and an image to be projected by the projection means is updated in response to detection of the search step This is an external control program for causing a processor to execute update steps (S83 to S85, S35 to S43) in cooperation with the internal control program.

この発明に従う画像投影装置(10)は、投影面の前方から投影面に画像を投影する投影手段(46)、投影面が外れるように設定された視野を有し、視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段(16)、外部制御プログラムを取り込む取り込み手段(48)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(38)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(36)を備える画像投影装置であって、外部制御プログラムは、撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ(S61~S81, S87)、および投影手段によって投影すべき画像を探索ステップの探知に応答して更新する更新ステップ(S83~S85, S35~S43)を内部制御プログラムと協働して実行するプログラムに相当する。   An image projecting device (10) according to the present invention has a projection means (46) for projecting an image onto the projection plane from the front of the projection plane, a field set so that the projection plane deviates, and a scene captured by the field of view. Executes processing according to the imaging means (16) that repeatedly outputs an image to be represented, the capturing means (48) for capturing an external control program, and the external control program captured by the capturing means and the internal control program stored in the memory (38) The image projection apparatus includes a processor (36) that performs a search step (S61 to S81, S87) for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from an imaging unit. And an update step (S83 to S85, S35 to S43) for updating an image to be projected by the projection means in response to detection of the search step in a program that executes in cooperation with the internal control program This is.

この発明によれば、投影すべき画像は、装置に触れることなく更新される。これによって、操作性の向上が図られる。また、撮像手段と前面投射型の投影手段との位置関係は撮像手段の視野が投影面から外れる関係を満足すればよいため、撮像手段と投影手段とを互いに近接させることができる。これによって装置の小型化が図られる。   According to the present invention, the image to be projected is updated without touching the apparatus. Thereby, the operability is improved. In addition, since the positional relationship between the imaging unit and the front projection type projection unit only needs to satisfy the relationship in which the field of view of the imaging unit deviates from the projection plane, the imaging unit and the projection unit can be brought close to each other. As a result, the apparatus can be miniaturized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. (A)は記録画像の一例を示す図解図であり、(B)は記録画像の他の一例を示す図解図であり、(C)は記録画像のその他の一例を示す図解図であり、(D)は記録画像のさらにその他の一例を示す図解図である。(A) is an illustrative view showing an example of a recorded image, (B) is an illustrative view showing another example of the recorded image, (C) is an illustrative view showing another example of the recorded image, ( D) is an illustrative view showing still another example of a recorded image. 図2実施例を上方から眺めた状態を表す図解図である。FIG. 3 is an illustrative view showing a state in which the embodiment in FIG. 2 is viewed from above. 図2実施例の動作の一部を示す図解図である。FIG. 3 is an illustrative view showing one portion of behavior of the embodiment in FIG. 2; 図2実施例で参照されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register referred to in the embodiment in FIG. 2; (A)は辞書画像の一例を示す図解図であり、(B)は辞書画像の他の一例を示す図解図であり、(C)は辞書画像のその他の一例を示す図解図であり、(D)は辞書画像のさらにその他の一例を示す図解図であり、(E)は辞書画像の他の一例を示す図解図であり、(F)は辞書画像のその他の一例を示す図解図であり、(G)は辞書画像のさらにその他の一例を示す図解図であり、(H)は辞書画像の他の一例を示す図解図であり、(I)は辞書画像のその他の一例を示す図解図であり、(J)は辞書画像のさらにその他の一例を示す図解図であり、(K)は辞書画像の他の一例を示す図解図である。(A) is an illustrative view showing an example of a dictionary image, (B) is an illustrative view showing another example of the dictionary image, (C) is an illustrative view showing another example of the dictionary image, (D) is an illustrative view showing yet another example of a dictionary image, (E) is an illustrative view showing another example of the dictionary image, and (F) is an illustrative view showing another example of the dictionary image. (G) is an illustrative view showing still another example of a dictionary image, (H) is an illustrative view showing another example of the dictionary image, and (I) is an illustrative view showing another example of the dictionary image. (J) is an illustrative view showing still another example of the dictionary image, and (K) is an illustrative view showing another example of the dictionary image. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. この発明の他の実施例を上方から眺めた状態を表す図解図である。It is an illustration figure showing the state which looked at the other Example of this invention from the upper direction. この発明のその他の実施例を上方から眺めた状態を表す図解図である。It is an illustration figure showing the state which looked at the other Example of this invention from the upper direction. この発明のさらにその他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の画像投影装置は、基本的に次のように構成される。投影手段1は、投影面の前方から投影面に画像を投影する。撮像手段2は、投影面が外れるように設定された視野を有し、視野で捉えられたシーンを表す画像を繰り返し出力する。探索手段3は、撮像手段2から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する。更新手段4は、投影手段1によって投影すべき画像を探索手段3の探知に応答して更新する。   Referring to FIG. 1, the image projection apparatus according to this embodiment is basically configured as follows. The projection unit 1 projects an image onto the projection plane from the front of the projection plane. The imaging means 2 has a field of view set so that the projection plane is off, and repeatedly outputs an image representing a scene captured by the field of view. The search means 3 searches for the movement of a specific object that satisfies a predetermined condition based on the image output from the imaging means 2. The updating unit 4 updates the image to be projected by the projecting unit 1 in response to detection by the searching unit 3.

投影すべき画像は、装置に触れることなく更新される。これによって、操作性の向上が図られる。また、撮像手段2と前面投射型の投影手段1との位置関係は撮像手段2の視野が投影面から外れる関係を満足すればよいため、撮像手段2と投影手段1とを互いに近接させることができる。これによって装置の小型化が図られる。
[実施例]
The image to be projected is updated without touching the device. Thereby, the operability is improved. Further, since the positional relationship between the imaging unit 2 and the front projection type projection unit 1 only needs to satisfy the relationship in which the field of view of the imaging unit 2 deviates from the projection plane, the imaging unit 2 and the projection unit 1 can be brought close to each other. it can. As a result, the apparatus can be miniaturized.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞り機構14を含む。フォーカスレンズ12および絞り機構14を経た光学像は、撮像装置16の撮像面に照射され、光電変換を施される。これによって、撮像面で捉えられたシーンを表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture mechanism 14 driven by drivers 18a and 18b, respectively. The optical image that has passed through the focus lens 12 and the diaphragm mechanism 14 is irradiated onto the imaging surface of the imaging device 16 and subjected to photoelectric conversion. As a result, a charge representing the scene captured on the imaging surface is generated.

キー入力装置40に設けられたモード切り換えスイッチ40mdによってカメラモードが選択されると、CPU36は、撮像タスクの下で動画取り込み処理および動画表示処理を実行するべく、ドライバ18cに露光動作および電荷読み出し動作の繰り返しを命令し、LCDドライバ28に表示動作の繰り返しを命令する。   When the camera mode is selected by the mode changeover switch 40md provided in the key input device 40, the CPU 36 causes the driver 18c to perform an exposure operation and a charge readout operation in order to execute a moving image capturing process and a moving image display process under the imaging task. And the LCD driver 28 is instructed to repeat the display operation.

ドライバ18cは、SG20から出力された垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。撮像装置16からは、読み出された電荷に基づく生画像データが周期的に出力される。   In response to the vertical synchronization signal Vsync output from the SG 20, the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the imaging device 16, raw image data based on the read charges is periodically output.

信号処理回路22は、撮像装置16から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施し、これによって作成されたYUV形式の画像データをメモリ制御回路24を通してSDRAM26の動画像エリア26aに書き込む。   The signal processing circuit 22 performs processes such as white balance adjustment, color separation, and YUV conversion on the raw image data output from the imaging device 16, and the YUV format image data generated thereby is stored in the SDRAM 26 through the memory control circuit 24. Write to the moving image area 26a.

LCDドライバ28は、動画像エリア26aに格納された画像データをメモリ制御回路24を通して読み出し、読み出された画像データに基づいてLCDモニタ30を駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 28 reads the image data stored in the moving image area 26a through the memory control circuit 24, and drives the LCD monitor 30 based on the read image data. As a result, a real-time moving image (through image) representing the scene captured on the imaging surface is displayed on the monitor screen.

撮像面の中央には図示しない評価エリアが割り当てられる。輝度評価回路32は、信号処理回路22から出力されたYデータのうち評価エリアに属するYデータを、垂直同期信号Vsyncに応答して積分する。積分値は、輝度評価値として輝度評価回路32から出力される。また、AF評価回路34は、信号処理回路22から出力されたYデータのうち評価エリアに属するYデータの高域周波数成分を、垂直同期信号Vsyncに応答して積分する。積分値は、AF評価値としてAF評価回路34から出力される。   An evaluation area (not shown) is assigned to the center of the imaging surface. The luminance evaluation circuit 32 integrates Y data belonging to the evaluation area among the Y data output from the signal processing circuit 22 in response to the vertical synchronization signal Vsync. The integrated value is output from the luminance evaluation circuit 32 as a luminance evaluation value. Further, the AF evaluation circuit 34 integrates the high frequency component of the Y data belonging to the evaluation area among the Y data output from the signal processing circuit 22 in response to the vertical synchronization signal Vsync. The integrated value is output from the AF evaluation circuit 34 as an AF evaluation value.

キー入力装置40に設けられたシャッタボタン40shが非操作状態のとき、CPU36は、輝度評価回路32から出力された輝度評価値に基づいて適正EV値を算出するべく、簡易AE処理を繰り返し実行する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、LCDモニタ30に表示されるスルー画像の明るさが適度に調整される。   When the shutter button 40sh provided in the key input device 40 is in a non-operating state, the CPU 36 repeatedly executes a simple AE process so as to calculate an appropriate EV value based on the luminance evaluation value output from the luminance evaluation circuit 32. . The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively. As a result, the brightness of the through image displayed on the LCD monitor 30 is appropriately adjusted.

シャッタボタン40shが操作されると、CPU36は、輝度評価回路32から出力された輝度評価値に基づいて最適EV値を算出するべく、厳格AE処理を実行する。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、ドライバ18bおよび18cにそれぞれ設定される。これによって、LCDモニタ30に表示されるスルー画像の明るさが厳格に調整される。   When the shutter button 40sh is operated, the CPU 36 executes a strict AE process so as to calculate the optimum EV value based on the luminance evaluation value output from the luminance evaluation circuit 32. The aperture amount and the exposure time that define the calculated optimal EV value are set in the drivers 18b and 18c, respectively, as described above. As a result, the brightness of the through image displayed on the LCD monitor 30 is strictly adjusted.

CPU36は続いて、AF処理を実行する。フォーカスレンズ12は光軸方向に移動され、AF評価回路34から出力されたAF評価値はフォーカスレンズ12の移動処理と並列して繰り返し取り込まれる。合焦点は取り込まれたAF評価値に基づいて探索され、フォーカスレンズ12は発見された合焦点に配置される。これによって、LCDモニタ30に表示されるスルー画像の鮮鋭度が向上する。   Subsequently, the CPU 36 executes AF processing. The focus lens 12 is moved in the optical axis direction, and the AF evaluation value output from the AF evaluation circuit 34 is repeatedly captured in parallel with the movement process of the focus lens 12. The focal point is searched based on the captured AF evaluation value, and the focus lens 12 is arranged at the found focal point. Thereby, the sharpness of the through image displayed on the LCD monitor 30 is improved.

AF処理が完了すると、CPU36は、静止画取り込み処理を実行し、かつ記録処理の実行をメモリI/F42に命令する。静止画取り込み処理の結果、AF処理が完了した時点のシーンを表す画像データが、動画像エリア26aから静止画像エリア26bに退避される。記録処理の実行を命令されたメモリI/F42は、静止画像エリア26bに退避された画像データをメモリ制御回路24を通して読み出し、読み出された画像データをファイル形式で記録媒体44に記録する。   When the AF process is completed, the CPU 36 executes the still image capturing process and instructs the memory I / F 42 to execute the recording process. As a result of the still image capturing process, image data representing a scene at the time when the AF process is completed is saved from the moving image area 26a to the still image area 26b. The memory I / F 42 instructed to execute the recording process reads the image data saved in the still image area 26b through the memory control circuit 24, and records the read image data on the recording medium 44 in a file format.

モード切り換えスイッチ40mdによって再生モードが選択されると、CPU36は、再生タスクの下で以下の処理を実行する。CPU36はまず、記録媒体44に記録された最新の画像ファイルを指定し、指定された画像ファイルに注目した再生処理の実行をメモリI/F42に命令する。   When the playback mode is selected by the mode switch 40md, the CPU 36 executes the following processing under the playback task. First, the CPU 36 designates the latest image file recorded on the recording medium 44, and instructs the memory I / F 42 to execute a reproduction process focusing on the designated image file.

メモリI/F42は、指定された画像ファイルの画像データを記録媒体44から読み出し、読み出された画像データをメモリ制御回路24を通してSDRAM26の静止画像エリア26bに書き込む。   The memory I / F 42 reads the image data of the designated image file from the recording medium 44 and writes the read image data into the still image area 26 b of the SDRAM 26 through the memory control circuit 24.

現時点の表示モード(=前回の再生タスクの終了時に選択されていた表示モード)がモニタモードであれば、CPU36は、LCDドライバ28を再生デバイスとして選択する。LCDドライバ28は、SDRAM26の静止画像エリア26bに格納された画像データをメモリ制御回路24を通して読み出し、読み出された画像データに基づいてLCDモニタ30を駆動する。   If the current display mode (= the display mode selected at the end of the previous playback task) is the monitor mode, the CPU 36 selects the LCD driver 28 as a playback device. The LCD driver 28 reads the image data stored in the still image area 26b of the SDRAM 26 through the memory control circuit 24, and drives the LCD monitor 30 based on the read image data.

キー入力装置40に設けられた送り/戻しボタン40frによって送り操作が行われると、CPU36は、記録媒体44に記録された次の画像ファイルを指定する。また、送り/戻しボタン40frによって戻し操作が行われると、CPU36は、記録媒体44に記録された前の画像ファイルを指定する。指定された画像ファイルは上述と同様の再生処理を施され、この結果、LCDモニタ30に表示された画像が別の画像に更新される。   When the feed operation is performed by the feed / return button 40fr provided in the key input device 40, the CPU 36 designates the next image file recorded on the recording medium 44. Further, when a return operation is performed by the send / return button 40fr, the CPU 36 designates the previous image file recorded on the recording medium 44. The designated image file is subjected to a reproduction process similar to that described above, and as a result, the image displayed on the LCD monitor 30 is updated to another image.

したがって、図3(A)〜図3(D)に示す4フレームの画像R_1〜R_4が記録されており、かつ現時点で画像R1が再生されている場合、再生画像は、送り操作が行われる毎に画像R_2→画像R_3→画像R_4→画像R_1→…の順で更新され、戻し操作が行われる毎に画像R_4→画像R_3→画像R_2→画像R_1→…の順で更新される。   Therefore, when the four-frame images R_1 to R_4 shown in FIGS. 3A to 3D are recorded and the image R1 is being reproduced at the present time, the reproduced image is displayed every time a feeding operation is performed. Are updated in the order of image R_2 → image R_3 → image R_4 → image R_1 →... Each time a return operation is performed, the image R_4 → image R_3 → image R_2 → image R_1 →.

これに対して、現時点の表示モードがプロジェクションモードであれば、CPU36は、プロジェクタ46を再生デバイスとして選択し、動画取り込み処理を開始するべく露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令し、そして指検出タスク(後述)を起動する。プロジェクタ46は、SDRAM26の静止画像エリア26bに格納された画像データをメモリ制御回路24を通して読み出し、読み出された画像データを光学像に変換し、そして変換された光学像を投影レンズ46Lを通して投影する。   On the other hand, if the current display mode is the projection mode, the CPU 36 selects the projector 46 as a playback device, and instructs the driver 18c to repeat the exposure operation and the charge readout operation in order to start the moving image capturing process. Then, a finger detection task (described later) is activated. The projector 46 reads the image data stored in the still image area 26b of the SDRAM 26 through the memory control circuit 24, converts the read image data into an optical image, and projects the converted optical image through the projection lens 46L. .

なお、動画取り込み処理によって繰り返し取得される画像データは、起動された指検出タスクの下で参照される。   Note that the image data repeatedly acquired by the moving image capturing process is referred to under the activated finger detection task.

図4を参照して、フォーカスレンズ12はカメラ筐体CB1の前面に設けられ、LCDモニタ30および投影レンズ46Lはカメラ筐体CB1の背面に設けられる。シャッタボタン40shは、カメラ筐体CB1の上面に設けられる。   Referring to FIG. 4, focus lens 12 is provided on the front surface of camera housing CB1, and LCD monitor 30 and projection lens 46L are provided on the back surface of camera housing CB1. The shutter button 40sh is provided on the upper surface of the camera housing CB1.

また、プロジェクションモードでは、ディジタルカメラ10は、図5に示すように三脚50で支持される。図5によれば、ディジタルカメラ10の背面がスクリーンSCR1を向き、投影レンズ46Lから投射された光学像はスクリーンSCR1に映し出される。カメラ操作者OP1は、少なくとも左手が撮像面の視野に収まる位置に立つ。   In the projection mode, the digital camera 10 is supported by a tripod 50 as shown in FIG. According to FIG. 5, the back surface of the digital camera 10 faces the screen SCR1, and the optical image projected from the projection lens 46L is displayed on the screen SCR1. The camera operator OP1 stands at a position where at least the left hand is within the field of view of the imaging surface.

指検出タスクは、図6に示すレジスタRGST1と図7(A)〜図7(K)に示す辞書画像D_1〜D_11を収めてフラッシュメモリ38に設けられた辞書DICとを利用して、以下に述べる要領で実行される。   The finger detection task uses the register RGST1 shown in FIG. 6 and the dictionary DIC provided in the flash memory 38 containing the dictionary images D_1 to D_11 shown in FIGS. 7 (A) to 7 (K). Performed as described.

まず、レジスタRGST1がクリアされ、垂直同期信号Vsyncが発生する毎に変数Kが“1”〜“11”の各々に設定される。続いて、辞書DICに収められた辞書画像D_1〜D_11の中からK番目の辞書画像D_Kが指定され、指定された辞書画像D_Kに符合する画像が表示画像エリア26aに格納された最新フレームの画像データから探索される。   First, the register RGST1 is cleared and the variable K is set to each of “1” to “11” each time the vertical synchronization signal Vsync is generated. Subsequently, the Kth dictionary image D_K is designated from the dictionary images D_1 to D_11 stored in the dictionary DIC, and the image of the latest frame stored in the display image area 26a is an image corresponding to the designated dictionary image D_K. Searched from data.

辞書DICに収められた辞書画像D_1〜D11はいずれも、人差し指だけを伸ばした左手を表す画像である。したがって、人差し指だけを伸ばした左手が撮像面で捉えられると、探索結果は“探知”を示す。辞書画像D_1〜D_11のいずれか1つに符合する画像が探知されると、探知された画像の代表点(代表点:左手の人差し指の先端)が検出され、検出された代表点の座標がレジスタRGST1に登録される。   The dictionary images D_1 to D11 stored in the dictionary DIC are all images representing the left hand with only the index finger extended. Therefore, when the left hand with only the index finger extended is captured on the imaging surface, the search result indicates “detection”. When an image matching any one of the dictionary images D_1 to D_11 is detected, a representative point of the detected image (representative point: the tip of the index finger of the left hand) is detected, and the coordinates of the detected representative point are registered. Registered in RGST1.

撮像面で捉えられた左手の人差し指の動き(=カメラ操作者OP1のジャスチャ)は、レジスタRGST1に登録された座標の変化に基づいて判別される。判別された動きが撮像面に向かって左方向への人差し指の移動に相当すれば、既定条件の1つが満足されたとみなされ、送り指示が再生タスクに向けて発行される。一方、判別された動きが撮像面に向かって右方向への人差し指の移動に相当すれば、既定条件の他の1つが満足されたとみなされ、戻し指示が再生タスクに向けて発行される。   The movement of the index finger of the left hand captured on the imaging surface (= the gesture of the camera operator OP1) is determined based on a change in coordinates registered in the register RGST1. If the determined movement corresponds to the movement of the index finger in the left direction toward the imaging surface, it is considered that one of the predetermined conditions is satisfied, and a feed instruction is issued toward the reproduction task. On the other hand, if the determined movement corresponds to the movement of the index finger in the right direction toward the imaging surface, it is considered that the other predetermined condition is satisfied, and a return instruction is issued to the reproduction task.

指検出タスクから送り指示が発行されると、CPU36は、記録媒体44に記録された次の画像ファイルを再生タスクの下で指定する。また、指検出タスクから戻し指示が発行されると、CPU36は、記録媒体44に記録された前の画像ファイルを再生タスクの下で指定する。指定された画像ファイルは上述と同様の再生処理を施され、この結果、プロジェクタ46によって投影された画像が別の画像に更新される。   When a sending instruction is issued from the finger detection task, the CPU 36 designates the next image file recorded on the recording medium 44 under the reproduction task. When a return instruction is issued from the finger detection task, the CPU 36 designates the previous image file recorded on the recording medium 44 under the reproduction task. The designated image file is subjected to reproduction processing similar to that described above, and as a result, the image projected by the projector 46 is updated to another image.

したがって、図3(A)〜図3(D)を参照した上述の例では、再生画像は、送り指示が発行される毎に画像R_2→画像R_3→画像R_4→画像R_1→…の順で更新され、戻し指示が発行される毎に画像R_4→画像R_3→画像R_2→画像R_1→…の順で更新される。   Therefore, in the example described above with reference to FIGS. 3A to 3D, the reproduced image is updated in the order of image R_2 → image R_3 → image R_4 → image R_1 →... Each time a return instruction is issued, the image is updated in the order of image R_4 → image R_3 → image R_2 → image R_1 →.

なお、表示モードは、キー入力装置40に設けられた再生デバイス切換ボタン40swによって再生デバイス切換操作が操作される毎に、モニタモードとプロジェクションモードとの間で切換えられる。   The display mode is switched between the monitor mode and the projection mode every time the playback device switching operation is operated by the playback device switching button 40sw provided in the key input device 40.

CPU36は、カメラモードが選択されたとき図8に示す撮像タスクを実行し、再生モードが選択されたとき図9〜図10に示す再生タスクおよび図11〜図12に示す指検出タスクを実行する。なお、CPU36は、μITRONのようなマルチタスクOSの上で複数のタスクを並列的に実行するCPUである。また、CPU36によって実行されるタスクに相当する制御プログラムはフラッシュメモリ38に記憶される。   The CPU 36 executes the imaging task shown in FIG. 8 when the camera mode is selected, and executes the playback task shown in FIGS. 9 to 10 and the finger detection task shown in FIGS. 11 to 12 when the playback mode is selected. . The CPU 36 is a CPU that executes a plurality of tasks in parallel on a multitasking OS such as μITRON. A control program corresponding to a task executed by the CPU 36 is stored in the flash memory 38.

図8を参照して、ステップS1では動画取り込み処理を開始し、ステップS3では動画表示処理を開始する。この結果、撮像面で捉えられたシーンを表す画像データが信号処理回路22から繰り返し出力され、出力された画像データに基づくスルー画像がLCDモニタ30に表示される。ステップS5ではシャッタボタン40shが操作されたか否かを判別し、判別結果がNOである限りステップS7の簡易AE処理を繰り返し実行する。この結果、スルー画像の明るさが適度に調整される。   Referring to FIG. 8, in step S1, a moving image capturing process is started, and in step S3, a moving image display process is started. As a result, image data representing a scene captured on the imaging surface is repeatedly output from the signal processing circuit 22, and a through image based on the output image data is displayed on the LCD monitor 30. In step S5, it is determined whether or not the shutter button 40sh has been operated, and the simple AE process in step S7 is repeatedly executed as long as the determination result is NO. As a result, the brightness of the through image is appropriately adjusted.

ステップS5の判別結果がNOからYESに更新されると、ステップS9で厳格AE処理を実行し、ステップS11でAF処理を実行する。この結果、スルー画像の明るさが厳格に調整され、スルー画像の鮮鋭度が向上する。AF処理が完了すると、ステップS13で静止画取り込み処理を実行し、ステップS15で記録処理の実行をメモリI/F42に命令する。AF処理が完了した時点のシーンを表す画像データは、静止画取り込み処理によって表示画像エリア26aから記録画像エリア26bに退避される。退避された画像データは、メモリI/F42によって読み出され、ファイル形式で記録媒体44に記録される。ステップS15の処理が完了すると、ステップS5に戻る。   When the determination result in step S5 is updated from NO to YES, the strict AE process is executed in step S9, and the AF process is executed in step S11. As a result, the brightness of the through image is strictly adjusted, and the sharpness of the through image is improved. When the AF process is completed, the still image capturing process is executed in step S13, and the memory I / F 42 is commanded to execute the recording process in step S15. Image data representing a scene at the time when the AF process is completed is saved from the display image area 26a to the recorded image area 26b by the still image capturing process. The saved image data is read by the memory I / F 42 and recorded in the recording medium 44 in a file format. When the process of step S15 is completed, the process returns to step S5.

図9を参照して、ステップS21では記録媒体44に記録された最新の画像ファイルを指定し、ステップS23では指定された画像ファイルの再生をメモリI/F42に命令する。メモリI/F42は、指定された画像ファイルに収められた画像データを記録媒体44から読み出し、読み出された画像データをメモリ制御回路24を通してSDRAM26の静止画像エリア26bに書き込む。   Referring to FIG. 9, in step S21, the latest image file recorded on the recording medium 44 is designated, and in step S23, the memory I / F 42 is instructed to reproduce the designated image file. The memory I / F 42 reads the image data stored in the designated image file from the recording medium 44 and writes the read image data to the still image area 26 b of the SDRAM 26 through the memory control circuit 24.

ステップS25では、現時点の表示モード(=前回の再生タスクの終了時に選択されていた表示モード)がプロジェクションモードおよびモニタモードのいずれであるかを判別する。判別結果が“プロジェクションモード”であれば、ステップS27でプロジェクタ46を再生デバイスとして選択し、ステップS29で動画取り込み処理を開始し、そしてステップS31で指検出タスクを起動する。これに対して、表示モードがモニタモードであれば、ステップS33でLCDドライバ28を再生デバイスとして選択する。   In step S25, it is determined whether the current display mode (= the display mode selected at the end of the previous reproduction task) is the projection mode or the monitor mode. If the determination result is “projection mode”, the projector 46 is selected as a playback device in step S27, the moving image capturing process is started in step S29, and the finger detection task is activated in step S31. On the other hand, if the display mode is the monitor mode, the LCD driver 28 is selected as a playback device in step S33.

ステップS27の処理によってプロジェクタ46が再生デバイスとして選択された場合、選択されたプロジェクタ46は、SDRAM26の静止画像エリア26bに格納された画像データをメモリ制御回路24を通して読み出し、読み出された画像データを光学像に変換し、そして変換された光学像を投影レンズ46Lを通して投影する。   When the projector 46 is selected as a playback device by the process of step S27, the selected projector 46 reads the image data stored in the still image area 26b of the SDRAM 26 through the memory control circuit 24, and reads the read image data. An optical image is converted, and the converted optical image is projected through the projection lens 46L.

これに対して、ステップS33の処理によってLCDドライバ28が再生デバイスとして選択された場合、選択されたLCDドライバ28は、SDRAM26の静止画像エリア26bに格納された画像データをメモリ制御回路24を通して読み出し、読み出された画像データに基づいてLCDモニタ30を駆動する。   On the other hand, when the LCD driver 28 is selected as a playback device by the process of step S33, the selected LCD driver 28 reads out the image data stored in the still image area 26b of the SDRAM 26 through the memory control circuit 24, The LCD monitor 30 is driven based on the read image data.

なお、ステップS29の処理によって繰り返し取得される画像データは、ステップS31で起動された指検出タスクの下で参照される。   Note that the image data repeatedly acquired by the process in step S29 is referred to under the finger detection task activated in step S31.

ステップS35では、送り操作が行われるか或いは送り指示が発行されるという論理和条件が満足されたか否かを判別する。また、ステップS37では、戻し操作が行われるか或いは戻し指示が発行されるという論理和条件が満足されたか否かを判別する。さらに、ステップS45では、再生デバイス切り換え操作が行われたか否かを判別する。   In step S35, it is determined whether or not a logical sum condition that a feed operation is performed or a feed instruction is issued is satisfied. In step S37, it is determined whether or not a return operation is performed or a logical sum condition that a return instruction is issued is satisfied. In step S45, it is determined whether or not a playback device switching operation has been performed.

ステップS35の判別結果がYESであれば、記録媒体44に記録された次の画像ファイルをステップS39で指定する。ステップS37の判別結果がYESであれば、記録媒体44に記録された前の画像ファイルをステップS41で指定する。ステップS43では、ステップS39またはS41で指定された画像ファイルの再生をメモリI/F42に命令する。この結果、プロジェクタ46によって投影された画像またはLCDモニタ30に表示された画像が別の画像に更新される。ステップS43の処理が完了すると、ステップS35に戻る。   If the decision result in the step S35 is YES, a next image file recorded on the recording medium 44 is designated in a step S39. If the determination result in step S37 is YES, the previous image file recorded on the recording medium 44 is designated in step S41. In step S43, the memory I / F 42 is instructed to reproduce the image file designated in step S39 or S41. As a result, the image projected by the projector 46 or the image displayed on the LCD monitor 30 is updated to another image. When the process of step S43 is completed, the process returns to step S35.

ステップS45の判別結果がYESであれば、現時点の表示モードがプロジェクションモードおよびモニタモードのいずれであるかを判別する。判別結果が“プロジェクションモード”であれば、ステップS49でプロジェクタ46を再生デバイスとして選択し、ステップS51で動画取り込み処理を開始し、そしてステップS53で指検出タスクを起動する。これに対して、表示モードがモニタモードであれば、ステップS55でLCDドライバ28を再生デバイスとして選択し、ステップS57で動画取り込み処理を停止し、そしてステップS59で指検出タスクを停止する。ステップS53またはS59の処理が完了すると、ステップS35に戻る。   If the determination result in the step S45 is YES, it is determined whether the current display mode is the projection mode or the monitor mode. If the determination result is “projection mode”, the projector 46 is selected as a playback device in step S49, the moving image capturing process is started in step S51, and the finger detection task is activated in step S53. On the other hand, if the display mode is the monitor mode, the LCD driver 28 is selected as a playback device in step S55, the moving image capturing process is stopped in step S57, and the finger detection task is stopped in step S59. When the process of step S53 or S59 is completed, the process returns to step S35.

なお、ステップS35の判別結果,ステップS37の判別結果,およびステップS45の判別結果のいずれもがNOであれば、そのままステップS35に戻る。   If any of the determination result in step S35, the determination result in step S37, and the determination result in step S45 is NO, the process returns to step S35 as it is.

図11を参照して、ステップS61ではレジスタRGST1をクリアし、ステップS63では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS65で変数Kを“1”に設定する。ステップS67では、辞書DICに収められた辞書画像D_1〜D_11の中からK番目の辞書画像D_Kを指定し、指定された辞書画像D_Kに符合する画像を表示画像エリア26aに格納された最新フレームの画像データから探索する。   Referring to FIG. 11, in step S61, register RGST1 is cleared, and in step S63, it is determined whether or not vertical synchronization signal Vsync is generated. When the determination result is updated from NO to YES, the variable K is set to “1” in step S65. In step S67, the Kth dictionary image D_K is designated from the dictionary images D_1 to D_11 stored in the dictionary DIC, and an image corresponding to the designated dictionary image D_K is stored in the display image area 26a. Search from image data.

ステップS69では、辞書画像D_Kに符合する画像が探知されたか否かを判別する。辞書DICに収められた辞書画像D_1〜D_11はいずれも、人差し指だけを伸ばした左手を表す画像である。したがって、ステップS69の判別結果は、人差し指だけを伸ばした左手が撮像面で捉えられたときにYESを示す。判別結果がYESであればステップS71に進み、判別結果がNOであればステップS73に進む。   In step S69, it is determined whether an image matching the dictionary image D_K has been detected. The dictionary images D_1 to D_11 stored in the dictionary DIC are all images representing the left hand with only the index finger extended. Therefore, the determination result in step S69 indicates YES when the left hand with only the index finger extended is captured on the imaging surface. If the determination result is YES, the process proceeds to step S71, and if the determination result is NO, the process proceeds to step S73.

ステップS71では、探知された画像の代表点(代表点:左手の人差し指の先端)を検出し、検出された代表点の座標をレジスタRGST1に登録する。登録が完了すると、ステップS77に進む。一方、ステップS73では変数Kをインクリメントし、ステップS75ではインクリメント後の変数Kが“11”を上回るか否かを判別する。判別結果がNOであればステップS67に戻り、判別結果がYESであればステップS77に進む。   In step S71, the representative point of the detected image (representative point: the tip of the left index finger) is detected, and the coordinates of the detected representative point are registered in the register RGST1. When registration is completed, the process proceeds to step S77. On the other hand, in step S73, the variable K is incremented, and in step S75, it is determined whether or not the incremented variable K exceeds “11”. If a determination result is NO, it will return to Step S67, and if a determination result is YES, it will progress to Step S77.

ステップS77では、撮像面で捉えられた左手の人差し指の動き(=カメラ操作者OP1のジャスチャ)を、レジスタRGST1に登録された座標の変化に基づいて判別する。判別された動きが撮像面に向かって左方向への人差し指の移動に相当すれば、ステップS79からステップS83に進み、送り指示を再生タスクに向けて発行する。一方、判別された動きが撮像面に向かって右方向への人差し指の移動に相当すれば、ステップS81からステップS85に進み、戻し指示を再生タスクに向けて発行する。   In step S77, the movement of the forefinger of the left hand captured on the imaging surface (= the gesture of the camera operator OP1) is determined based on the change in coordinates registered in the register RGST1. If the determined movement corresponds to the movement of the index finger in the left direction toward the imaging surface, the process proceeds from step S79 to step S83, and a sending instruction is issued for the reproduction task. On the other hand, if the determined movement corresponds to the movement of the index finger in the right direction toward the imaging surface, the process proceeds from step S81 to step S85, and a return instruction is issued for the reproduction task.

ステップS81またはS85の処理が完了すると、ステップS87でレジスタRGST1をクリアし、その後にステップS63に戻る。なお、左方向または右方向への人差し指の移動を表す判別結果が得られなければ、ステップS83〜S87の処理を実行することなくステップS63に戻る。   When the process of step S81 or S85 is completed, the register RGST1 is cleared in step S87, and then the process returns to step S63. If a determination result indicating the movement of the index finger in the left direction or the right direction is not obtained, the process returns to step S63 without executing the processes in steps S83 to S87.

以上の説明からわかるように、プロジェクタ46は、スクリーンSCR1(投影面)の前方からスクリーンSCR1に再生画像を投影する。撮像装置16は、スクリーンSCR1が外れるように設定された視野を有し、この視野で捉えられたシーンを表す画像を繰り返し出力する。CPU36は、人差し指を伸ばした左手の左右方向への動きを撮像装置16から出力された画像に基づいて探索し(S61~S81, S87)、プロジェクタ46によって投影すべき再生画像をこのような動きの探知に応答して更新する(S83~S85, S35~S43)。   As can be seen from the above description, the projector 46 projects the reproduced image onto the screen SCR1 from the front of the screen SCR1 (projection plane). The imaging device 16 has a field of view set so that the screen SCR1 is removed, and repeatedly outputs an image representing a scene captured in this field of view. The CPU 36 searches for the left-right movement of the left hand with the index finger extended based on the image output from the imaging device 16 (S61 to S81, S87), and the reproduced image to be projected by the projector 46 has such a movement. Update in response to the detection (S83 to S85, S35 to S43).

このように、プロジェクタ46によって投影される画像は、ディジタルカメラ10に手を触れることなく更新される。これによって、操作性の向上が図られる。また、撮像装置16と前面投射型のプロジェクタ46との位置関係は撮像装置16の視野が投影面から外れる関係を満足すればよいため、撮像装置16とプロジェクタ46とを互いに近接させることができる。これによってディジタルカメラ10の小型化が図られる。   As described above, the image projected by the projector 46 is updated without touching the digital camera 10. Thereby, the operability is improved. Further, since the positional relationship between the imaging device 16 and the front projection projector 46 only needs to satisfy the relationship in which the field of view of the imaging device 16 deviates from the projection plane, the imaging device 16 and the projector 46 can be brought close to each other. As a result, the digital camera 10 can be miniaturized.

なお、この実施例では、図4に示すように、カメラ筐体CB1の前面にフォーカスレンズ12を設ける一方、カメラ筐体CB1の背面にLCDモニタ30および投影レンズ46Lを設けるようにしている。この場合、LCDモニタ30の画面はプロジェクタ46の投影方向に面し、撮像装置16は、プロジェクタ46の投影方向と逆の方向のシーンを捉える。   In this embodiment, as shown in FIG. 4, the focus lens 12 is provided on the front surface of the camera housing CB1, while the LCD monitor 30 and the projection lens 46L are provided on the back surface of the camera housing CB1. In this case, the screen of the LCD monitor 30 faces the projection direction of the projector 46, and the imaging device 16 captures a scene in a direction opposite to the projection direction of the projector 46.

しかし、図13に示すように、投影レンズ46LおよびLCDモニタ30をカメラ筐体CB2の前面および背面にそれぞれ設け、カメラ筐体CB3の前面にフォーカスレンズ12を設け、そしてカメラ筐体CB3がシャフトSH1の回り方向に回転できるようにカメラ筐体CB2およびCB3をシャフトSH1によって結合するようにしてもよい。この場合、好ましくは、プロジェクションモードは、撮像面の視野がプロジェクタ46による投影画像から外れるようにカメラ筐体CB3が回転した状態で起動される。   However, as shown in FIG. 13, the projection lens 46L and the LCD monitor 30 are provided on the front surface and the back surface of the camera housing CB2, respectively, the focus lens 12 is provided on the front surface of the camera housing CB3, and the camera housing CB3 is connected to the shaft SH1. The camera casings CB2 and CB3 may be coupled by the shaft SH1 so that the camera casings CB2 and CB3 can be rotated in the direction of the rotation. In this case, preferably, the projection mode is activated in a state in which the camera casing CB3 is rotated so that the field of view of the imaging surface deviates from the image projected by the projector 46.

また、図14に示すように、撮像方向および投影方向がほぼ一致するようにカメラ筐体CB1の前面にフォーカスレンズ12および投影レンズ46Lを設ける一方、カメラ筐体CB1の背面にLCDモニタ30を設け、さらにカメラ筐体CB1の後方のシーンを表す光を撮像装置16に向けて反射させるミラーML1を着脱自在に支持する支持部HL1をカメラ筐体CB1に設けるようにしてもよい。この場合、好ましくは、プロジェクションモードは、ミラーML1が支持部HL1に装着されたときに起動される。   Further, as shown in FIG. 14, the focus lens 12 and the projection lens 46L are provided on the front surface of the camera housing CB1 so that the imaging direction and the projection direction substantially coincide with each other, while the LCD monitor 30 is provided on the back surface of the camera housing CB1. Further, the camera housing CB1 may be provided with a support portion HL1 that removably supports the mirror ML1 that reflects the light representing the scene behind the camera housing CB1 toward the imaging device 16. In this case, preferably, the projection mode is activated when the mirror ML1 is attached to the support portion HL1.

さらに、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ42に予め記憶される。しかし、図15に示すように通信I/F48をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ38に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   Further, in this embodiment, a multitask OS and a control program corresponding to a plurality of tasks executed thereby are stored in the flash memory 42 in advance. However, as shown in FIG. 15, a communication I / F 48 is provided in the digital camera 10, and some control programs are prepared in the flash memory 38 from the beginning as internal control programs, while other control programs are external control programs. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU36によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the process executed by the CPU 36 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
16 …撮像装置
30 …LCDモニタ
36 …CPU
44 …記録媒体
46 …プロジェクタ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Imaging device 30 ... LCD monitor 36 ... CPU
44 ... Recording medium 46 ... Projector

Claims (11)

投影面の前方から前記投影面に画像を投影する投影手段、
前記投影面が外れるように設定された視野を有し、前記視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段、
前記撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索手段、および
前記投影手段によって投影すべき画像を前記探索手段の探知に応答して更新する更新手段を備える、画像投影装置。
Projection means for projecting an image onto the projection plane from the front of the projection plane;
An imaging unit having a field of view set so that the projection plane is deviated and repeatedly outputting an image representing a scene captured by the field of view;
Search means for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from the imaging means; and update means for updating an image to be projected by the projection means in response to detection by the search means. An image projection apparatus.
前記投影手段および前記撮像手段は互いに並列して処理を実行し、
前記投影手段および前記撮像手段から並列して出力される2つの画像は互いに相違する、請求項1記載の画像投影装置。
The projection means and the imaging means execute processing in parallel with each other,
The image projection apparatus according to claim 1, wherein two images output in parallel from the projection unit and the imaging unit are different from each other.
内蔵画面に画像を表示する表示手段、
前記投影手段および前記表示手段を選択的に起動する起動手段、および
前記起動手段による前記表示手段の起動に対応して前記探索手段を停止する停止手段をさらに備える、請求項1または2記載の画像投影装置。
Display means for displaying images on the built-in screen;
The image according to claim 1, further comprising: an activation unit that selectively activates the projection unit and the display unit; and a stop unit that stops the search unit in response to activation of the display unit by the activation unit. Projection device.
前記内蔵画面は前記投影手段の投影方向に面し、
前記撮像手段の撮像方向は前記投影手段の投影方向と逆の方向に相当する、請求項3記載の画像投影装置。
The built-in screen faces the projection direction of the projection means,
The image projection apparatus according to claim 3, wherein an imaging direction of the imaging unit corresponds to a direction opposite to a projection direction of the projection unit.
前記投影手段に対する姿勢が可変となるように前記撮像手段を支持する支持手段をさらに備える、請求項1ないし3のいずれかに記載の画像投影装置。   The image projection apparatus according to claim 1, further comprising a support unit that supports the imaging unit such that a posture with respect to the projection unit is variable. 前記撮像手段の撮像方向は前記投影手段の投影方向に相当し、
前記撮像手段に向けて光を反射させる反射手段を着脱自在に保持する保持手段をさらに備える、請求項1ないし3のいずれかに記載の画像投影装置。
The imaging direction of the imaging means corresponds to the projection direction of the projection means,
The image projection apparatus according to claim 1, further comprising a holding unit that detachably holds a reflection unit that reflects light toward the imaging unit.
前記特定物体は人物の手に相当し、
前記探索手段は、前記手を表す画像の代表点を検出する検出手段、および前記検出手段によって検出された代表点の動きを前記既定条件と照合する照合手段を含む、請求項1ないし6のいずれかに記載の画像投影装置。
The specific object corresponds to a human hand,
7. The search unit according to claim 1, wherein the search unit includes a detection unit that detects a representative point of the image representing the hand, and a collation unit that collates a motion of the representative point detected by the detection unit with the predetermined condition. An image projection apparatus according to claim 1.
投影面の前方から前記投影面に画像を投影する投影手段、および前記投影面が外れるように設定された視野を有し、前記視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段を備える画像投影装置のプロセッサに、
前記撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ、および
前記投影手段によって投影すべき画像を前記探索ステップの探知に応答して更新する更新ステップを実行させるための、投影制御プログラム。
Projection means for projecting an image onto the projection plane from the front of the projection plane, and imaging means for repeatedly outputting an image representing a scene captured by the field of view, the field of view being set so that the projection plane deviates. In the processor of the image projector,
A search step for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from the imaging means; and an update step for updating an image to be projected by the projection means in response to detection of the search step. Projection control program for execution.
投影面の前方から前記投影面に画像を投影する投影手段、および前記投影面が外れるように設定された視野を有し、前記視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段を備える画像投影装置によって実行される投影制御方法であって、
前記撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ、および
前記投影手段によって投影すべき画像を前記探索ステップの探知に応答して更新する更新ステップを備える、投影制御方法。
Projection means for projecting an image onto the projection plane from the front of the projection plane, and imaging means for repeatedly outputting an image representing a scene captured by the field of view, the field of view being set so that the projection plane deviates. A projection control method executed by an image projector,
A search step for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from the imaging means; and an update step for updating an image to be projected by the projection means in response to detection of the search step. A projection control method.
投影面の前方から前記投影面に画像を投影する投影手段、
前記投影面が外れるように設定された視野を有し、前記視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える画像投影装置に供給される外部制御プログラムであって、
前記撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ、および
前記投影手段によって投影すべき画像を前記探索ステップの探知に応答して更新する更新ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
Projection means for projecting an image onto the projection plane from the front of the projection plane;
An image having a field of view set so that the projection plane deviates, an imaging unit that repeatedly outputs an image representing a scene captured by the field of view, and a processor that executes a process according to an internal control program stored in a memory An external control program supplied to the projection device,
A search step for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from the imaging means; and an update step for updating an image to be projected by the projection means in response to detection of the search step. An external control program for causing the processor to execute in cooperation with the internal control program.
投影面の前方から前記投影面に画像を投影する投影手段、
前記投影面が外れるように設定された視野を有し、前記視野で捉えられたシーンを表す画像を繰り返し出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える画像投影装置であって、
前記外部制御プログラムは、
前記撮像手段から出力された画像に基づいて既定条件を満足する特定物体の動きを探索する探索ステップ、および
前記投影手段によって投影すべき画像を前記探索ステップの探知に応答して更新する更新ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、画像投影装置。
Projection means for projecting an image onto the projection plane from the front of the projection plane;
An imaging unit having a field of view set so that the projection plane is deviated and repeatedly outputting an image representing a scene captured by the field of view;
An image projection apparatus comprising: a capturing unit that captures an external control program; and a processor that executes processing according to the external control program captured by the capturing unit and an internal control program stored in a memory,
The external control program is
A search step for searching for a motion of a specific object that satisfies a predetermined condition based on an image output from the imaging means; and an update step for updating an image to be projected by the projection means in response to detection of the search step. An image projection apparatus corresponding to a program executed in cooperation with the internal control program.
JP2011222863A 2011-10-07 2011-10-07 Image projection device Pending JP2013085073A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011222863A JP2013085073A (en) 2011-10-07 2011-10-07 Image projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011222863A JP2013085073A (en) 2011-10-07 2011-10-07 Image projection device

Publications (1)

Publication Number Publication Date
JP2013085073A true JP2013085073A (en) 2013-05-09

Family

ID=48529846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011222863A Pending JP2013085073A (en) 2011-10-07 2011-10-07 Image projection device

Country Status (1)

Country Link
JP (1) JP2013085073A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103280227A (en) * 2013-06-14 2013-09-04 苏州旭宇升电子有限公司 Portable type video-audio device
CN103294277A (en) * 2013-06-14 2013-09-11 苏州旭宇升电子有限公司 Portable audio-video device
CN103313013A (en) * 2013-06-17 2013-09-18 苏州旭宇升电子有限公司 Projecting device
CN103336561A (en) * 2013-06-17 2013-10-02 苏州旭宇升电子有限公司 Portable office device
CN103338344A (en) * 2013-06-17 2013-10-02 苏州旭宇升电子有限公司 Portable office device
CN104683720A (en) * 2013-11-28 2015-06-03 联想(北京)有限公司 Electronic equipment and control method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103280227A (en) * 2013-06-14 2013-09-04 苏州旭宇升电子有限公司 Portable type video-audio device
CN103294277A (en) * 2013-06-14 2013-09-11 苏州旭宇升电子有限公司 Portable audio-video device
CN103313013A (en) * 2013-06-17 2013-09-18 苏州旭宇升电子有限公司 Projecting device
CN103336561A (en) * 2013-06-17 2013-10-02 苏州旭宇升电子有限公司 Portable office device
CN103338344A (en) * 2013-06-17 2013-10-02 苏州旭宇升电子有限公司 Portable office device
CN104683720A (en) * 2013-11-28 2015-06-03 联想(北京)有限公司 Electronic equipment and control method
CN104683720B (en) * 2013-11-28 2019-12-03 联想(北京)有限公司 A kind of electronic equipment and control method

Similar Documents

Publication Publication Date Title
JP4929630B2 (en) Imaging apparatus, control method, and program
CN105472258B (en) The control method of camera and camera
JP2013085073A (en) Image projection device
JP2007074031A (en) Imaging device, and image processing apparatus and method therefor
JP6006024B2 (en) Imaging apparatus, imaging method, and program
CN103220457A (en) Image photographing device and display method
US20110063327A1 (en) Display and imager displaying and magnifying images on their screen
JP2013117650A (en) Digital camera
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP5529568B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2014103547A (en) Electronic camera
JP2003348385A (en) Camera system for calligraphic works and paintings and presentation method using the same
JP2004104652A (en) Image pickup device
JP2013115444A (en) Electronic camera
JP2010200243A (en) Camera
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP5188633B2 (en) Electronics
US20160198084A1 (en) Image pickup apparatus, operation support method, and medium recording operation support program
JP2012027608A (en) Image processing device
JP2007281533A (en) Image data generating apparatus and image data generating method
JP2007208648A (en) Imaging apparatus
JP5775620B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP4930905B2 (en) Imaging apparatus and program thereof
JP2023044327A (en) Imaging apparatus
JP2010114565A (en) Imaging apparatus and method of controlling the same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521