JP2005295406A - Imaging device, and program - Google Patents

Imaging device, and program Download PDF

Info

Publication number
JP2005295406A
JP2005295406A JP2004110464A JP2004110464A JP2005295406A JP 2005295406 A JP2005295406 A JP 2005295406A JP 2004110464 A JP2004110464 A JP 2004110464A JP 2004110464 A JP2004110464 A JP 2004110464A JP 2005295406 A JP2005295406 A JP 2005295406A
Authority
JP
Japan
Prior art keywords
feature
image
information
detected
detection means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004110464A
Other languages
Japanese (ja)
Other versions
JP4461885B2 (en
Inventor
Masayuki Furuya
真之 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004110464A priority Critical patent/JP4461885B2/en
Publication of JP2005295406A publication Critical patent/JP2005295406A/en
Application granted granted Critical
Publication of JP4461885B2 publication Critical patent/JP4461885B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To support the position adjustment of an object through the use of an image picked-up by an imaging device. <P>SOLUTION: The control part 110 of the imaging unit 100 recognizes the object which is indicated in the picked-up image acquired by an imaging part 120, sets reference in adjusting the position of the object, and detects the feature of the object indicated in the picked-up image and the feature of the reference, so as to store them in a storage part 160 as feature information. The control part 110 also recognizes the object which is indicated in another picked-up image and detects the feature of the object. The control part 110 recognizes the present position of the object, based on the detected feature and the feature information stored in the storage part 160. An error between the present position of the object and the reference is obtained so as to output guide information by sound for supporting the position adjustment operation of the user from a sounding part 142. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮像装置に関し、特に、物体の位置案内をおこなうことができる携帯可能な撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly, to a portable imaging apparatus capable of performing position guidance of an object.

従来より、例えば、工場の生産ラインなどで、部品の取付状態などをカメラで撮像し、予め登録されている基準位置とのズレを画像認識によって特定することで、部品の取付位置を自動補正する技術が知られている(例えば、特許文献1)。   Conventionally, for example, on a production line in a factory, the mounting state of a component is imaged with a camera, and a deviation from a reference position registered in advance is specified by image recognition, so that the mounting position of the component is automatically corrected. A technique is known (for example, Patent Document 1).

このような手法で用いられるカメラは、特定の場所に固定されたものであり、また、認識対象物や基準位置なども予め決められたものであるため、特定の場所での特定用途にしか利用することができなかった。すなわち、任意の場所で任意の物体を対象とすることができなかった。   The camera used in such a method is fixed at a specific location, and the object to be recognized, the reference position, etc. are also determined in advance, so it can only be used for a specific application at a specific location. I couldn't. That is, an arbitrary object cannot be targeted at an arbitrary place.

一方で、高画質でコンパクトなデジタルカメラが普及しつつあり、デジタル方式による撮影が手軽にできるようになってきている。このようなデジタルカメラでは、デジタル方式で撮像・記録することができるので、上記従来技術における画像認識の手法を適用することができ、デジタルカメラを上記のような位置認識の用途に利用することが考えられる。   On the other hand, high-quality and compact digital cameras are becoming popular, and it is now possible to easily perform digital photography. Since such a digital camera can capture and record in a digital manner, the image recognition method in the prior art can be applied, and the digital camera can be used for the position recognition as described above. Conceivable.

このようなデジタルカメラを位置認識に利用することができれば、種々の物体の位置認識をいつでもどこでも実施することができる。すなわち、これまで複数人が協力して行わなければならなかった物体の位置調整などを、1人もしくは少人数でおこなうことができる。しかしながら、上記従来技術にかかる手法では、カメラが固定されていることが前提となっているので、基準位置自体がずれることが考慮されていなかった。したがって、撮影条件が撮影毎に異なる携帯型のデジタルカメラに従来の手法をそのまま適用しても、実用的な位置認識を実現することはできなかった。
特開平7−303000号公報
If such a digital camera can be used for position recognition, position recognition of various objects can be performed anytime and anywhere. That is, the position adjustment of an object, which has been performed by a plurality of people so far, can be performed by one or a small number of people. However, since the method according to the conventional technique is based on the premise that the camera is fixed, the reference position itself is not taken into account. Therefore, even if the conventional method is applied as it is to a portable digital camera with different shooting conditions for each shooting, practical position recognition cannot be realized.
JP 7-303000 A

本発明は上記実状に鑑みてなされたもので、物体の位置認識の用途に利用できる撮像装置およびプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging apparatus and a program that can be used for the object position recognition.

上記目的を達成するため、本発明の第1の観点に係る撮像装置は、
入射光をデジタルデータに変換して画像データを取得する携帯可能な撮像装置において、
一の画像データに示される対象物を認識する対象物認識手段と、
前記対象物の位置を規定するための基準を示す基準情報を取得する基準情報取得手段と、
前記対象物認識手段が認識した対象物の特徴を検出する特徴検出手段と、
前記特徴検出手段が検出した特徴を示す特徴情報を記録する特徴記録手段と、
他の画像データに示される前記対象物を認識して特徴を検出し、前記特徴記録手段が記録した特徴情報に基づいて、検出した特徴と、前記基準との誤差を検出する誤差検出手段と、
前記誤差検出手段が検出した誤差に基づいて、前記対象物の位置を調整するための案内情報を出力する案内手段と、
を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to the first aspect of the present invention provides:
In a portable imaging device that obtains image data by converting incident light into digital data,
Object recognition means for recognizing an object shown in one image data;
Reference information acquisition means for acquiring reference information indicating a reference for defining the position of the object;
Feature detection means for detecting features of the object recognized by the object recognition means;
Feature recording means for recording feature information indicating the features detected by the feature detection means;
An error detecting means for detecting the feature by recognizing the object shown in other image data, and detecting an error between the detected feature and the reference based on the feature information recorded by the feature recording means;
Guidance means for outputting guidance information for adjusting the position of the object based on the error detected by the error detection means;
It is characterized by providing.

上記撮像装置において、
前記基準情報取得手段は、前記一の画像データと前記他の画像データに示される基準物体を認識する基準物体認識手段をさらに備えていることが望ましく、この場合、
前記誤差検出手段は、検出した特徴と、前記基準物体認識手段が認識した基準との誤差を検出することが望ましい。
In the imaging apparatus,
Preferably, the reference information acquisition means further includes reference object recognition means for recognizing a reference object indicated in the one image data and the other image data.
Preferably, the error detection means detects an error between the detected feature and the reference recognized by the reference object recognition means.

上記撮像装置において、
前記基準情報取得手段は、
重力方向を検出する重力方向検出手段をさらに備えていることが望ましく、この場合、
前記重力方向検出手段が検出した重力方向に基づく所定の方向を前記基準情報として取得することが望ましい。
In the imaging apparatus,
The reference information acquisition means includes
It is desirable to further include gravity direction detection means for detecting the direction of gravity, in this case,
It is desirable to acquire a predetermined direction based on the gravity direction detected by the gravity direction detection means as the reference information.

上記撮像装置において、
前記特徴検出手段、および、前記誤差検出手段は、前記対象物の特徴と前記基準との相対角度を特徴として検出することが望ましい。
In the imaging apparatus,
The feature detection unit and the error detection unit may detect a relative angle between the feature of the object and the reference as a feature.

上記撮像装置において、
前記特徴検出手段、および、前記誤差検出手段は、前記対象物の特徴と前記基準との相対位置を特徴として検出することができ、
この場合、
前記画像データを構成するピクセルによって、前記相対位置を検出するものとすることができる。
In the imaging apparatus,
The feature detection means and the error detection means can detect the relative position between the feature of the object and the reference as a feature,
in this case,
The relative position may be detected by a pixel constituting the image data.

上記撮像装置において、
前記対象物認識手段は、前記対象物を示す色情報に基づいて、前記一の画像データに示される当該対象物を認識することができ、この場合、
前記誤差検出手段は、前記色情報に基づいて、前記他の画像データに示される当該対象物を認識することが望ましい。
In the imaging apparatus,
The object recognition means can recognize the object shown in the one image data based on color information indicating the object, in this case,
It is desirable that the error detection unit recognizes the target object indicated in the other image data based on the color information.

上記撮像装置は、
ユーザからの指示を入力する入力手段をさらに備えていてもよく、この場合、
前記特徴記録手段は、前記入力手段からの入力情報を特徴情報として記録することができる。
The imaging apparatus is
An input means for inputting an instruction from the user may be further provided. In this case,
The feature recording means can record input information from the input means as feature information.

上記撮像装置において、
前記案内手段は、案内情報を音声出力することが望ましい。
In the imaging apparatus,
The guide means preferably outputs the guide information by voice.

上記目的を達成するため、本発明の第2の観点にかかるプログラムは、
撮像装置を制御するコンピュータに、
一の撮像画像に示される対象物を認識するステップと、
前記対象物の位置を調整する際の基準を設定するステップと、
前記一の撮像画像に示される前記対象物と前記基準の特徴を検出し、特徴情報として記録するステップと、
他の撮像画像に示される前記対象物を認識するステップと、
前記他の撮像画像における前記対象物と前記基準の特徴を検出するステップと、
前記他の撮像画像から検出された特徴と、前記特徴情報とに基づいて、前記対象物の位置を認識するステップと、
認識した前記対象物の位置に応じて、ユーザの位置調整動作を支援するための案内情報を出力するステップと、
を実行させることを特徴とする。
In order to achieve the above object, a program according to the second aspect of the present invention is:
In the computer that controls the imaging device,
Recognizing an object shown in one captured image;
Setting a reference for adjusting the position of the object;
Detecting the object and the feature of the reference shown in the one captured image, and recording it as feature information;
Recognizing the object shown in another captured image;
Detecting the object and the reference feature in the other captured image;
Recognizing the position of the object based on the feature detected from the other captured image and the feature information;
Outputting guidance information for supporting the user's position adjustment operation according to the recognized position of the object;
Is executed.

本発明によれば、撮像装置が取得した撮像画像から対象物を認識して特徴を検出し、検出した特徴と所定の基準との誤差に基づいて、対象物を所定の位置に調整するための案内情報を出力するので、物体の位置合わせなどを1人あるいは少人数でおこなうことができる。   According to the present invention, a feature is detected by recognizing an object from a captured image acquired by an imaging device, and the object is adjusted to a predetermined position based on an error between the detected feature and a predetermined reference. Since the guidance information is output, the positioning of the object can be performed by one person or a small number of people.

(実施形態1)
本発明にかかる実施形態を、以下図面を参照して説明する。本実施形態では、CCD(Charge Coupled Device:電荷結合素子)などの撮像素子を用いて撮像する撮像装置に本発明を適用することよって、物体の位置を認識して位置調整支援をおこなう。本実施形態では、撮像装置として、携帯可能なデジタルカメラを用いることとする。また、「物体の位置認識」は、対象となる物体を撮像した画像を用いて、その物体の空間内での位置を撮像画像上で認識することをいい、「位置調整支援」は、認識結果に基づいて、ユーザによる物体の位置調整を支援することをいう。そして、このような動作を、例えば、「物体を所定の位置に正確に配置する」や「物体を移動させた後に、元の位置に正確に戻す」などといった場面に適用する。
(Embodiment 1)
Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, the present invention is applied to an image pickup apparatus that picks up an image using an image pickup device such as a CCD (Charge Coupled Device), thereby recognizing the position of an object and providing position adjustment support. In this embodiment, a portable digital camera is used as the imaging device. “Object position recognition” refers to recognizing the position of the object in the space on the captured image using an image of the target object, and “position adjustment support” is the recognition result. Based on the above, it means that the user supports the position adjustment of the object. Such an operation is applied to scenes such as “place the object accurately at a predetermined position” or “return the object to the original position accurately after moving”.

本実施形態に係る撮像装置(デジタルカメラ)の構成を図1、図2を参照して説明する。図1は本実施形態にかかる撮像装置100のシステム構成(内部構成)を示すブロック図であり、図2は撮像装置100の外観例を示す図(図2(a)は正面図、図2(b)は背面図)である。図示するように、本実施形態にかかる撮像装置100は、制御部110と、撮像部120と、入力部130、出力部140と、画像記録部150と、記憶部160と、センサ部170と、を備える。   A configuration of an imaging apparatus (digital camera) according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing a system configuration (internal configuration) of the imaging apparatus 100 according to the present embodiment, FIG. 2 is a diagram showing an example of the appearance of the imaging apparatus 100 (FIG. 2A is a front view, FIG. b) is a rear view). As illustrated, the imaging apparatus 100 according to the present embodiment includes a control unit 110, an imaging unit 120, an input unit 130, an output unit 140, an image recording unit 150, a storage unit 160, a sensor unit 170, Is provided.

制御部110は、例えば、CPU(Central Processing Unit:中央演算処理装置)などから構成され、撮像装置100の各部を制御する。ここで、制御部110は、記憶部160に格納された動作プログラムを実行することで後述する各処理が実現される。なお、制御部110は、動作時に必要なデータや動作プログラムなどを展開(ロード)するための記憶領域を備えているものとする。この記憶領域(以下「ワークエリア」とする)は、例えば、レジスタやキャッシュメモリ、および、RAM(Random Access Memory)などから構成される。   The control unit 110 includes, for example, a CPU (Central Processing Unit) and controls each unit of the imaging device 100. Here, the control part 110 implement | achieves each process mentioned later by running the operation | movement program stored in the memory | storage part 160. FIG. Note that the control unit 110 includes a storage area for developing (loading) data and operation programs necessary for operation. This storage area (hereinafter referred to as “work area”) is configured by, for example, a register, a cache memory, and a RAM (Random Access Memory).

撮像部120は、制御部110の制御によって撮像動作をおこなうものであり、本実施形態では、図1に示すように、レンズユニット121、測距・測光部122、撮像素子123、などを備える。   The imaging unit 120 performs an imaging operation under the control of the control unit 110. In the present embodiment, as illustrated in FIG. 1, the imaging unit 120 includes a lens unit 121, a distance measurement / photometry unit 122, an imaging element 123, and the like.

レンズユニット121は、レンズ群や絞り羽根などから構成される光学的部材や、これを駆動する駆動部などから構成される。駆動部は、制御部110の制御により光学的部材を駆動するものであり、例えば、設定された絞りとなるよう絞り羽根を駆動する。また、レンズユニット121がAF(Auto Focus:オートフォーカス)機能を備えている場合には、撮影対象に合焦するよう光学的部材を駆動し、ズーム機能を備えている場合には、ユーザのズーム操作に応じて光学的部材を駆動する。   The lens unit 121 includes an optical member including a lens group and diaphragm blades, and a driving unit that drives the optical member. The drive unit drives the optical member under the control of the control unit 110. For example, the drive unit drives the diaphragm blades so as to have a set diaphragm. In addition, when the lens unit 121 has an AF (Auto Focus) function, the optical member is driven to focus on an object to be photographed. The optical member is driven according to the operation.

測距・測光部122は、例えば、赤外線照射部、受光部、距離センサ、光センサなどから構成され、撮像装置100から撮影対象(被写体)までの距離や光量などを測定する。   The distance measurement / photometry unit 122 includes, for example, an infrared irradiation unit, a light receiving unit, a distance sensor, a light sensor, and the like, and measures a distance, a light amount, and the like from the imaging device 100 to a shooting target (subject).

撮像素子123は、例えば、CCD(Charge Coupled Device:電荷結合素子)などから構成され、レンズユニット121を介して入光した可視光(入射光)を光電変換により電荷に変換して蓄積する。ここで撮像素子123は、所定のAD変換回路などを備えるものとし、蓄積された電荷量に基づいてデジタルデータに変換する。すなわち、変換されたデジタルデータは、入射光から得られる「画像データ」を構成することとなる。   The imaging device 123 is configured by, for example, a CCD (Charge Coupled Device), and converts visible light (incident light) incident through the lens unit 121 into electric charge by photoelectric conversion and accumulates it. Here, the image pickup device 123 includes a predetermined AD conversion circuit and the like, and converts it into digital data based on the accumulated charge amount. That is, the converted digital data constitutes “image data” obtained from incident light.

入力部130は、ユーザによって操作される部材から構成され、ユーザからの指示を受け付ける。入力部130は、操作に応じた所定の信号を制御部110に送出することで、ユーザの指示を制御部110に入力する。本実施形態では、入力部130は、少なくとも、シャッタボタン131と操作入力部132とを備える。   The input unit 130 is configured by a member operated by the user, and receives an instruction from the user. The input unit 130 inputs a user instruction to the control unit 110 by sending a predetermined signal corresponding to the operation to the control unit 110. In the present embodiment, the input unit 130 includes at least a shutter button 131 and an operation input unit 132.

シャッタボタン131は、ユーザによる押下に応じて上下方向に可動するボタンなどから構成され、ユーザに押下されることによって、撮影開始などを指示する信号(以下、「シャッタ信号」とする)を制御部110に送出する。   The shutter button 131 includes a button that can be moved up and down in response to a press by the user, and a signal that instructs the start of shooting (hereinafter referred to as a “shutter signal”) when pressed by the user. 110.

操作入力部132は、例えば、所定の操作ボタンやダイヤル、カーソルキー、などから構成され、ユーザの操作により、種々の設定を変更する指示などが入力される。本実施形態においては、撮影モードをはじめとする各種動作モードの変更・設定に用いられる他、位置認識の対象となる物体の特定や基準の設定などに用いられる。また、本実施形態では、動作モードとして「位置認識モード」や「位置合わせモード」などが用意されるものとし、操作入力部132が操作されることによって、ユーザが所望する動作モードに設定される。   The operation input unit 132 includes, for example, predetermined operation buttons, dials, cursor keys, and the like, and instructions for changing various settings are input by user operations. In the present embodiment, it is used for changing and setting various operation modes including a photographing mode, and for specifying an object that is a position recognition target and setting a reference. In this embodiment, “position recognition mode”, “position alignment mode”, and the like are prepared as operation modes, and the operation mode desired by the user is set by operating the operation input unit 132. .

出力部140は、ユーザに対して通知される種々の情報を出力するものであり、本実施形態では、画像を出力する表示部141と、音声を出力する報音部142と、を備える。   The output unit 140 outputs various types of information notified to the user. In the present embodiment, the output unit 140 includes a display unit 141 that outputs an image and a sound report unit 142 that outputs sound.

表示部141は、例えば、液晶表示装置などから構成され、画像情報を表示出力する。本実施形態では、撮像素子123によって得られた画像や画像記録部150に記録された画像を表示する他、設定変更をおこなうためのメニュー画面、および、設定状態やユーザに対する案内情報などが表示される。なお、表示部141がタッチパネルなどから構成される場合には、操作入力部132と同等の入力装置として機能させることができる。本実施形態にかかる表示部141は、このようなタッチパネル式の表示装置から構成されるものとする。   The display unit 141 is composed of, for example, a liquid crystal display device, and displays and outputs image information. In the present embodiment, in addition to displaying an image obtained by the image sensor 123 and an image recorded in the image recording unit 150, a menu screen for changing settings and setting information, guidance information for the user, and the like are displayed. The Note that when the display unit 141 includes a touch panel or the like, the display unit 141 can function as an input device equivalent to the operation input unit 132. The display unit 141 according to the present embodiment is configured from such a touch panel display device.

報音部142は、例えば、スピーカなどから構成され、所定の音声情報を出力する。ここでは、撮像装置100による撮影時の各種動作(例えば、合焦、シャッタ押下など)に応じた音声(アラーム音など)が出力される他、本実施形態では、物体の位置調整時の案内音声(案内情報)などが出力される。   The sound report unit 142 includes, for example, a speaker and outputs predetermined sound information. Here, in addition to outputting sounds (alarm sounds, etc.) according to various operations (for example, focusing, shutter pressing, etc.) at the time of shooting by the imaging apparatus 100, in this embodiment, guidance sounds at the time of object position adjustment (Guidance information) etc. are output.

画像記録部150は、例えば、ROM(Read Only Memory)、もしくは、フラッシュメモリなどの記憶装置を備えるメモリカードなどから構成され、撮像素子123のAD変換回路によって変換されたデジタルデータを記録することで、撮像部120の撮像動作によって得られた画像データを記録する。   The image recording unit 150 includes, for example, a ROM (Read Only Memory) or a memory card including a storage device such as a flash memory, and records digital data converted by the AD conversion circuit of the image sensor 123. The image data obtained by the imaging operation of the imaging unit 120 is recorded.

記憶部160は、例えば、ROMやフラッシュメモリなどの記憶装置から構成され、制御部110が実行するプログラムや、各処理に必要なデータ(以下、「処理データ」とする)などを記憶する。ここでは、撮像準備動作および撮像動作のための各種制御を実行するプログラム(以下、「撮像プログラム」とする)の他、本実施形態では、物体の位置調整するユーザを案内するためのプログラムが格納される。より詳細には、以下のようなプログラムが格納される。
(P1)「対象認識プログラム」:撮像画像から対象となっている物体を認識するためのプログラム
(P2)「特徴検出プログラム」:認識された物体の特徴を検出するためのプログラム
(P3)「誤差検出プログラム」:検出された特徴同士の誤差を検出するためのプログラム
(P4)「案内情報出力プログラム」:検出された誤差に基づいて、ユーザに対する案内情報を出力するためのプログラム
The storage unit 160 includes, for example, a storage device such as a ROM or a flash memory, and stores a program executed by the control unit 110, data necessary for each process (hereinafter referred to as “process data”), and the like. Here, in addition to a program for executing various preparations for the imaging preparation operation and the imaging operation (hereinafter referred to as “imaging program”), in this embodiment, a program for guiding the user who adjusts the position of the object is stored. Is done. More specifically, the following program is stored.
(P1) “Target recognition program”: A program for recognizing a target object from a captured image (P2) “Feature detection program”: A program for detecting a feature of a recognized object (P3) “Error” "Detection program": Program for detecting errors between detected features (P4) "Guidance information output program": Program for outputting guidance information for the user based on the detected errors

このようなプログラムを制御部110が実行することで、制御部110は以下のような機能を実現する。
(F1)「対象認識機能」:対象とする物体を撮像画像中から認識する機能
(F2)「特徴検出機能」:対象物体の特徴を検出する機能
(F3)「位置認識機能」:対象物体の特徴に基づいて、対象物体の位置や角度を認識する機能
(F4)「基準認識機能」:位置合わせの基準を認識する機能
(F5)「誤差検出機能」:対象物体と基準との相対関係を認識し、誤差を検出する機能
(F6)「案内機能」:検出した誤差に基づいて、ユーザの位置調整動作を支援するための案内情報を出力してユーザを案内する機能
When the control unit 110 executes such a program, the control unit 110 realizes the following functions.
(F1) “Target recognition function”: a function for recognizing a target object from a captured image (F2) “feature detection function”: a function for detecting a feature of the target object (F3) “position recognition function”: a target object Function for recognizing position and angle of target object based on feature (F4) “reference recognition function”: function for recognizing alignment reference (F5) “error detection function”: relative relationship between target object and reference Function for recognizing and detecting error (F6) "Guidance function": Function for guiding the user by outputting guidance information for assisting the user's position adjustment operation based on the detected error

なお、本実施形態では、制御部110がプログラムを実行することによるソフトウェア処理で上記各機能を実現するが、例えば、これらの各機能をそれぞれ専門的に処理する回路等(いわゆる「ASIC」(Application Specific Integrated Circuit))を撮像装置100に構成することにより、ハードウェア処理によって上記各機能が実現されてもよい。   In the present embodiment, each function is realized by software processing by the control unit 110 executing a program. For example, a circuit or the like that specially processes each function (so-called “ASIC” (Application By configuring the Specific Integrated Circuit)) in the imaging apparatus 100, the above functions may be realized by hardware processing.

また、記憶部160には、「処理データ」として、例えば、撮影時の露光量に対する絞り値やシャッタスピードの組み合わせなどといった撮影時に必要となる諸設定を示す情報(以下、「撮影パラメータ」という)などが記憶される他、本実施形態では、撮像画像から抽出される画像や、抽出された画像から検出される特徴を示す特徴情報などが格納される。   Further, in the storage unit 160, information indicating various settings necessary for shooting such as a combination of an aperture value and a shutter speed with respect to the exposure amount at the time of shooting (hereinafter referred to as “shooting parameters”) as “processing data”. In this embodiment, the image extracted from the captured image, the feature information indicating the feature detected from the extracted image, and the like are stored.

なお、上記の各構成は、本発明の実施に必要な要部であり、撮像装置100には、これらの他に、デジタルカメラとして必要な構成や機能、および、その他の付加的な構成や機能が、必要に応じて備えられているものとする。   Note that each of the above-described configurations is a main part necessary for carrying out the present invention, and in addition to these, the imaging apparatus 100 includes a configuration and functions necessary for a digital camera, and other additional configurations and functions. Are provided as necessary.

次に、上記のように構成された撮像装置100の動作を図面を参照して以下説明する。後述する各処理は、記憶部160に格納されている動作プログラムを制御部110が実行することで実現される。   Next, the operation of the imaging apparatus 100 configured as described above will be described below with reference to the drawings. Each process to be described later is realized by the control unit 110 executing an operation program stored in the storage unit 160.

本発明の実施形態1にかかる「位置調整支援処理」を図3に示すフローチャートを参照して説明する。ここでは、例えば、壁面などの垂直面に設置する物体(例えば、絵画など。以下、「対象物TG」とする)を、垂直面上にまっすぐ設置(配置)する場合(図4)を例に以下説明する。ここで、対象物TGの形状は矩形であるものとし、当該矩形形状の上下の辺部が水平に、あるいは、左右の辺部が垂直となるように設置するものとする。   The “position adjustment support process” according to the first embodiment of the present invention will be described with reference to the flowchart shown in FIG. Here, for example, a case where an object (for example, a painting or the like, hereinafter referred to as “object TG”) installed on a vertical surface such as a wall surface is installed (arranged) straight on the vertical surface (FIG. 4) is taken as an example. This will be described below. Here, it is assumed that the shape of the object TG is a rectangle, and that the rectangle is installed such that the upper and lower sides are horizontal or the left and right sides are vertical.

「位置調整支援処理(1)」においては、対象物TGを配置する際の基準を設定するための「基準設定処理(1)」(ステップS1100)、対象物TGを認識するための「対象物認識処理(1)」(ステップS1200)、対象物TGが所望された位置や角度で設置できるようユーザに案内情報を出力する「案内情報出力処理(1)」(ステップS1300)、が撮像装置100において順次実行される。各処理の詳細を以下説明する。   In the “position adjustment support process (1)”, the “reference setting process (1)” (step S1100) for setting a reference for placing the object TG, and the “object for recognizing the object TG” “Recognition process (1)” (step S1200) and “guidance information output process (1)” (step S1300) for outputting guidance information to the user so that the object TG can be installed at a desired position and angle. Are executed sequentially. Details of each process will be described below.

まず、実施形態1にかかる「基準設定処理(1)」を図5に示すフローチャートを参照して説明する。この「基準設定処理(1)」は、撮影モードとして「位置認識モード」が選択されたことを契機に開始される。   First, the “reference setting process (1)” according to the first embodiment will be described with reference to the flowchart shown in FIG. This “reference setting process (1)” is started when “position recognition mode” is selected as the photographing mode.

制御部110は、まず、角度に関する基準を設定するための、図6(a)に示すような「角度設定画面」を表示部141に表示する(ステップS1101)。ここでは、対象物TGを設置する際の角度を所定の基準との相対角度で設定する。「角度設定画面」においては、基準を選択するためのメニューが表示される。図示するように「角度設定画面」には、例えば、「水平方向」、「垂直方向」、「ファインダ」、「基準指定」、「角度指定なし」、などの項目が選択可能に表示される。   First, the control unit 110 displays an “angle setting screen” as shown in FIG. 6A on the display unit 141 for setting a reference regarding the angle (step S1101). Here, the angle at the time of installing the target object TG is set as a relative angle with a predetermined reference. In the “angle setting screen”, a menu for selecting a reference is displayed. As shown in the drawing, items such as “horizontal direction”, “vertical direction”, “finder”, “reference designation”, “no angle designation”, and the like are displayed on the “angle setting screen” so as to be selectable.

項目「水平方向」は、対象物TGの一部を水平方向と平行にして設置する場合に選択される。項目「垂直方向」は、対象物TGの一部を垂直方向と平行にして設置する場合に選択される。項目「ファインダ」は、撮像装置100のファインダ、すなわち、表示部141における表示画面上での上下方向および左右方向を基準とする場合に選択される。項目「基準指定」は、任意の基準物体との相対角度を指定する場合に選択される。「角度指定なし」は、対象物TGの設置角度を指定しない場合に選択される。   The item “horizontal direction” is selected when a part of the object TG is installed parallel to the horizontal direction. The item “vertical direction” is selected when a part of the object TG is installed parallel to the vertical direction. The item “finder” is selected when the finder of the imaging apparatus 100, that is, the vertical direction and the horizontal direction on the display screen of the display unit 141 are used as a reference. The item “reference designation” is selected when a relative angle with an arbitrary reference object is designated. “No angle designation” is selected when the installation angle of the object TG is not designated.

ユーザは、対象物TGの設置位置や形状などに応じて、所望する角度基準を選択する。すなわち、ユーザが操作入力部132もしくは表示部141を操作することによって所望する項目を選択すると、当該選択項目を示す情報(以下、「基準角度情報」とする)が制御部110に入力される(ステップS1102)。入力された基準角度情報は、ワークエリアに保持される。なお、本実施形態では、矩形の対象物TGを壁面上にまっすぐ(水平)に設置する場合を想定しているので、項目「水平方向」が選択されたものとして以下説明する。   The user selects a desired angle reference according to the installation position and shape of the object TG. That is, when a user selects a desired item by operating the operation input unit 132 or the display unit 141, information indicating the selected item (hereinafter referred to as “reference angle information”) is input to the control unit 110 ( Step S1102). The input reference angle information is held in the work area. In addition, in this embodiment, since the case where the rectangular target object TG is installed straight (horizontal) on a wall surface is assumed, it demonstrates below that the item "horizontal direction" is selected.

基準角度が設定されると、制御部110は、位置に関する基準を設定するための、図6(b)に示すような「位置設定画面」を表示部141に表示する(ステップS1103)。ここでは、対象物TGを設置する際の位置を所定の基準との相対位置で設定する。「位置設定画面」においては、基準を選択するためのメニューが表示される。図示するように「位置設定画面」には、例えば、「ファインダ」、「基準指定」、「指定なし」、などの項目が選択可能に表示される。   When the reference angle is set, the control unit 110 displays a “position setting screen” as shown in FIG. 6B on the display unit 141 for setting a reference regarding the position (step S1103). Here, the position when installing the object TG is set in a relative position with respect to a predetermined reference. In the “position setting screen”, a menu for selecting a reference is displayed. As shown in the figure, for example, items such as “finder”, “reference designation”, and “no designation” are displayed on the “position setting screen” so as to be selectable.

項目「ファインダ」は、表示部141における表示画面上での相対位置を基準とする場合に選択される。項目「基準指定」は、任意の基準物体との相対位置を指定する場合に選択される。「位置指定なし」は、対象物TGの設置位置を指定しない場合に選択される。   The item “finder” is selected when the relative position on the display screen in the display unit 141 is used as a reference. The item “reference designation” is selected when a relative position with respect to an arbitrary reference object is designated. “No position designation” is selected when the installation position of the object TG is not designated.

ユーザは、対象物TGの設置位置や形状などに応じて、所望する位置基準を選択する。すなわち、ユーザが操作入力部132もしくは表示部141を操作することによって所望する項目を選択すると、当該選択項目を示す情報(以下、「基準位置情報」とする)が制御部110に入力される(ステップS1104)。入力された基準位置情報は、ワークエリアあるいは記憶部160に保持される。なお、本実施形態では、対象物TGを壁面上に設置する場合を想定しているので、位置を指定する必要はない。したがって、項目「位置指定なし」が選択されたものとして以下説明する。   The user selects a desired position reference according to the installation position and shape of the object TG. That is, when the user selects a desired item by operating the operation input unit 132 or the display unit 141, information indicating the selected item (hereinafter referred to as “reference position information”) is input to the control unit 110 ( Step S1104). The input reference position information is held in the work area or the storage unit 160. In the present embodiment, since it is assumed that the object TG is installed on the wall surface, it is not necessary to specify the position. Therefore, the following description will be given assuming that the item “no position designation” is selected.

基準角度および基準位置が設定されると、制御部110は表示部141あるいは報音部142を制御し、ユーザに対象物TGの撮影開始を促すメッセージを出力して(ステップS1105)、処理を終了する。   When the reference angle and the reference position are set, the control unit 110 controls the display unit 141 or the sound report unit 142 to output a message that prompts the user to start photographing the target object TG (step S1105), and ends the process. To do.

制御部110は「基準設定処理(1)」に引き続いて「対象物認識処理(1)」を実行する(ステップS1200)。すなわち、「基準設定処理(1)」の終了を契機に「対象物認識処理(1)」が実行される。「対象物認識処理(1)」の詳細を、図7に示すフローチャートを参照して説明する。   The control unit 110 executes “target recognition processing (1)” following “reference setting processing (1)” (step S1200). That is, the “object recognition process (1)” is executed when the “reference setting process (1)” ends. Details of the “object recognition process (1)” will be described with reference to the flowchart shown in FIG.

「対象物認識処理(1)」が実行された状態では、撮像素子123がレンズユニット121を介して入光する入射光を受光し、受光した素子の電荷に応じた画像が表示部141に表示される(ステップS1201)。   In a state where “object recognition processing (1)” is executed, the image sensor 123 receives incident light that enters through the lens unit 121, and an image corresponding to the charge of the received element is displayed on the display unit 141. (Step S1201).

ユーザは、表示部141に表示されている画像をもとに、対象物TGの全体が撮像範囲内に収まるよう、撮像装置100の位置調整やズーム操作などをおこなう。対象物TGの全体が収まると、ユーザはシャッタボタン131を押下して撮像を指示する。すなわち、シャッタボタン131からシャッタ信号が制御部110に入力される。これに応じて、制御部110は、シャッタ押下時の条件で撮像動作を実行する(ステップS1202)。制御部110は、撮像された画像(以下、「撮像画像P1」とする)を画像記録部150に保存するとともに、撮像画像P1に示されている対象物TGの範囲をユーザに選択させるための「対象選択画面」を表示部141に表示する(ステップS1203)。   Based on the image displayed on the display unit 141, the user adjusts the position of the imaging apparatus 100, performs a zoom operation, or the like so that the entire object TG is within the imaging range. When the entire object TG is accommodated, the user presses the shutter button 131 to instruct imaging. That is, a shutter signal is input from the shutter button 131 to the control unit 110. In response to this, the control unit 110 executes an imaging operation under the condition when the shutter is pressed (step S1202). The control unit 110 stores the captured image (hereinafter referred to as “captured image P1”) in the image recording unit 150 and causes the user to select the range of the target TG indicated in the captured image P1. The “target selection screen” is displayed on the display unit 141 (step S1203).

すなわち、図8(a)に示すように、撮像画像P1とともに、範囲選択をおこなうための選択手段PT(例えば、ポインタやカーソルなど)を表示部141に表示する。ユーザは、操作入力部132のカーソルキーなどを操作し、表示部141に表示されている撮像画像P1中の対象物TGを選択する。この場合の選択動作は、例えば、一般的な画像処理における選択動作と同様のものとすることができる。すなわち、例えば、ポインタをドラッグさせることで所定の形状(矩形や円形など)で範囲指定したり、複数の点を指定することで直線や多角形を指定したり、フリーハンドで指定した選択範囲内の一定の色や輝度の集合部分を自動的に選択するなどによって、撮像画像P1中で対象物TGを示す部分が選択される(ステップS1204)。   That is, as shown in FIG. 8A, a selection means PT (for example, a pointer or a cursor) for performing range selection is displayed on the display unit 141 together with the captured image P1. The user operates the cursor key or the like of the operation input unit 132 to select the target object TG in the captured image P1 displayed on the display unit 141. The selection operation in this case can be the same as the selection operation in general image processing, for example. That is, for example, by dragging the pointer, you can specify a range with a predetermined shape (rectangle, circle, etc.), by specifying multiple points, you can specify a straight line or a polygon, or within the selection range specified by freehand A portion indicating the target object TG in the captured image P1 is selected by automatically selecting a set portion having a certain color or brightness (step S1204).

対象物TGが選択されると、制御部110は、選択範囲を示す画像を抽出し、対象物TGのみを示す対象物画像TP1としてワークエリアあるいは記憶部160に格納する(ステップS1205)。すなわち、撮像画像P1中に示される対象物TGが認識される。   When the target object TG is selected, the control unit 110 extracts an image indicating the selection range and stores it in the work area or the storage unit 160 as a target image TP1 indicating only the target object TG (step S1205). That is, the object TG shown in the captured image P1 is recognized.

制御部110は、取得した対象物画像TP1の特徴を検出し、検出した特徴を示す特徴情報を、当該対象物画像TP1と対応付けて記憶部160に格納する(ステップS1206)。ここでは、対象物画像TP1の位置座標および色情報や輝度情報、および、サイズなどといった対象物画像TP1を特定する特徴の他、対象物画像TP1に示される対象物TGの輪郭や角部などといった対象物TGの形状的な特徴を画像認識により検出する。ここでは、検出した輪郭を構成する部分(以下、「形状要素」とする)を分割して認識する。ここでは、輪郭を構成する複数の線分などを角度の変化などに基づいて認識する。すなわち、図4に示すような矩形形状の対象物TGを撮像した対象物画像TP1においては、矩形の有する4つの辺部(SG1〜SG4)のそれぞれが形状要素として認識される(図8(b))。   The control unit 110 detects the feature of the acquired object image TP1, and stores the feature information indicating the detected feature in the storage unit 160 in association with the object image TP1 (step S1206). Here, in addition to the features that specify the object image TP1 such as the position coordinates, color information, luminance information, and size of the object image TP1, the outline and corners of the object TG shown in the object image TP1 The shape feature of the object TG is detected by image recognition. Here, a part constituting the detected contour (hereinafter referred to as “shape element”) is divided and recognized. Here, a plurality of line segments constituting the contour are recognized based on a change in angle or the like. That is, in the object image TP1 obtained by imaging the rectangular object TG as shown in FIG. 4, each of the four sides (SG1 to SG4) of the rectangle is recognized as a shape element (FIG. 8B). )).

認識された各形状要素の特徴も検出され、当該対象物画像TP1の特徴情報として記録される。ここでは、例えば、各形状要素の位置座標やサイズ、所定の基準との相対角度など、が求められて記録される。ここで「所定の基準」とは、例えば、取得された画像上での上下左右方向や、センサ部170が検出する重力方向(すなわち垂直方向)および重力方向に直交する水平方向などである。   The feature of each recognized shape element is also detected and recorded as feature information of the object image TP1. Here, for example, the position coordinates and size of each shape element, the relative angle with a predetermined reference, and the like are obtained and recorded. Here, the “predetermined reference” is, for example, the up / down / left / right direction on the acquired image, the gravity direction (that is, the vertical direction) detected by the sensor unit 170, and the horizontal direction orthogonal to the gravity direction.

また、対象物画像TP1を撮像した際の撮影パラメータも特徴情報として記録されるものとする。ここでは、例えば、測距・測光部122により検出された撮像装置100と対象物TGまでの距離や撮像時のレンズユニット121の焦点距離などといった、特に撮像時の画角を特定できる撮影パラメータが記録される。   In addition, shooting parameters when the object image TP1 is captured are also recorded as feature information. Here, for example, there are shooting parameters that can specify the angle of view at the time of imaging, such as the distance between the imaging device 100 detected by the distance measurement / photometry unit 122 and the object TG and the focal length of the lens unit 121 at the time of imaging. To be recorded.

制御部110は、ステップS1104で指定された基準と、ステップS1206で検出された対象物画像TP1の特徴との相対関係を認識し、認識した相対関係に基づいて、いずれの形状要素を指定された基準に合わせるべきかを推測する(ステップS1207)。本実施形態では、対象物TGが矩形形状をしており、ステップS1104で指定された基準が「水平方向」であるため、制御部110は、ステップS1206で認識した形状要素(SG1〜SG4)のそれぞれについての特徴情報に基づいて、いずれの形状要素を水平方向にすべきかを推測する。より詳細には、各形状要素SG1〜SG4と画像上での左右方向もしくは水平方向との相対角度に基づいて、いずれの形状要素を水平方向とすべきかを推測する。本実施形態の例では、形状要素SG2とSG4が、対象物TGの上辺と下辺に対応するので、制御部110は、形状要素SG2とSG4を水平方向にすべきであると推測する。すなわち、制御部110は、対象物画像TP1の特徴と、所定の基準との相対関係を認識して、基準に合わせるべき部分を推測する。   The control unit 110 recognizes the relative relationship between the reference specified in step S1104 and the feature of the target image TP1 detected in step S1206, and any shape element is specified based on the recognized relative relationship. It is estimated whether the reference should be met (step S1207). In the present embodiment, the object TG has a rectangular shape, and the reference designated in step S1104 is “horizontal direction”, so the control unit 110 determines the shape elements (SG1 to SG4) recognized in step S1206. Based on the feature information about each, it is estimated which shape element should be horizontal. More specifically, it is estimated which shape element should be in the horizontal direction based on the relative angle between each of the shape elements SG1 to SG4 and the horizontal direction or the horizontal direction on the image. In the example of the present embodiment, since the shape elements SG2 and SG4 correspond to the upper side and the lower side of the object TG, the control unit 110 estimates that the shape elements SG2 and SG4 should be in the horizontal direction. That is, the control unit 110 recognizes the relative relationship between the feature of the object image TP1 and a predetermined reference, and estimates a portion to be matched with the reference.

基準に合わせるべき形状要素を推測できると(ステップS1208:Yes)、図8(c)に示すように、推測内容とともに当該内容をユーザに確認するメッセージを表示部141に表示してユーザに確認する。ユーザは、表示された内容でよい場合は、画面上の「OK」を選択することで、推測内容を了承した旨を入力する。この場合(ステップS1209:Yes)、制御部110は、ステップS1207での推測内容、すなわち、基準に合わせるべきとされた形状要素がいずれであるかが特定され、特定された形状要素を示す情報(以下、「特定要素情報」とする)を、記憶部160に格納されている当該対象物画像TP1の特徴情報に追加して(ステップS1210)、処理を終了する。   When the shape element to be matched with the reference can be estimated (step S1208: Yes), as shown in FIG. 8C, a message confirming the content with the user is displayed on the display unit 141 and confirmed with the user. . If the displayed content is acceptable, the user selects “OK” on the screen to input that he / she has accepted the estimated content. In this case (step S1209: Yes), the control unit 110 identifies the content to be estimated in step S1207, that is, which shape element is supposed to be matched with the reference, and indicates the identified shape element ( (Hereinafter referred to as “specific element information”) is added to the feature information of the target object image TP1 stored in the storage unit 160 (step S1210), and the process ends.

一方、対象物の形状が不規則であるなどにより基準に合わせるべき形状要素が推測できない場合(ステップS1208:No)や、ユーザが推測内容を了承しない場合(ステップS1209:No)、制御部110は、当該対象物TGのいずれの部分を基準に合わせるかをユーザに指定させるための「基準位置指定画面」を表示部141に表示する(ステップS1211)。ここでは、対象物画像TP1上に各形状要素が選択可能に表示されるとともに、「対象選択画面」と同様の選択手段PTが表示される。ユーザは、操作入力部132などによって選択手段PTを操作し、表示されている対象物画像TP1上で、基準に合わせる形状要素を指定する。   On the other hand, when the shape element to be matched with the reference cannot be estimated because the shape of the object is irregular (step S1208: No), or when the user does not accept the estimated content (step S1209: No), the control unit 110 Then, the “reference position designation screen” for allowing the user to designate which part of the target object TG is matched with the reference is displayed on the display unit 141 (step S1211). Here, each shape element is displayed on the object image TP1 in a selectable manner, and the selection means PT similar to the “object selection screen” is displayed. The user operates the selection means PT using the operation input unit 132 or the like, and designates a shape element that matches the reference on the displayed object image TP1.

ユーザによって基準に合わせる形状要素が指定されると、制御部110は、当該形状要素が基準に合わせられるべき形状要素であると特定し、当該形状要素を示す特定要素情報を、記憶部160に格納されている当該対象物画像TP1の特徴情報に追加して(ステップS1210)、処理を終了する。   When a shape element that matches the reference is specified by the user, the control unit 110 specifies that the shape element is a shape element that should be adjusted to the reference, and stores specific element information indicating the shape element in the storage unit 160. Is added to the feature information of the target object image TP1 (step S1210), and the process ends.

制御部110は、引き続き「案内情報出力処理(1)」を実行する(ステップS1300)。すなわち、「対象物認識処理(1)」の終了を契機に「案内情報出力処理(1)」が開始される。「案内情報出力処理(1)」が開始された状態では、対象物TGを所望する位置に設定する場所が撮像されるよう撮像装置100が配置され、この状態でのレンズユニット121への入射光に基づく画像(以下、「撮像画像P2」とする)が随時取得される。すなわち「対象物認識処理(1)」での撮像画像P1とは異なる撮像画像が取得されることとなる。「案内情報出力処理(1)」の詳細を図9に示すフローチャートを参照して説明する。   The controller 110 continues to execute the “guidance information output process (1)” (step S1300). That is, the “guidance information output process (1)” is started when the “object recognition process (1)” ends. In the state where the “guidance information output process (1)” is started, the imaging device 100 is arranged so as to image a place where the target TG is set to a desired position, and the incident light to the lens unit 121 in this state An image based on (hereinafter referred to as “captured image P2”) is acquired at any time. That is, a captured image different from the captured image P1 in the “target recognition process (1)” is acquired. Details of the “guidance information output process (1)” will be described with reference to the flowchart shown in FIG.

制御部110は、記憶部160に格納されている対象物画像TP1とこれに対応付けられた特徴情報に基づいて、撮像画像P2内に対象物TGが示されているか否かを判別する。すなわち、撮像画像P2内に対象物TGを示す画像(以下、「対象物画像TP2」とする)が認識できるか否かを判別する(ステップS1301)。ここでは、特徴情報に示される対象物画像TP1の色情報に基づき、撮像画像P2内に同様の色情報を有する領域が存在するか否かによって、対象物画像TP2を認識する。   The control unit 110 determines whether or not the target object TG is indicated in the captured image P2 based on the target object image TP1 stored in the storage unit 160 and the feature information associated therewith. That is, it is determined whether or not an image showing the target object TG in the captured image P2 (hereinafter, referred to as “target image TP2”) can be recognized (step S1301). Here, based on the color information of the target image TP1 indicated in the feature information, the target image TP2 is recognized depending on whether or not a region having similar color information exists in the captured image P2.

撮像画像P2中に対象物画像TP2が認識されない場合(ステップS1301:No)、制御部110は報音部142から、例えば、対象物TGが撮像範囲内にない旨の警告メッセージを示す音声情報を出力し(ステップS1302)、ユーザに通知する。   When the target image TP2 is not recognized in the captured image P2 (step S1301: No), the control unit 110 outputs, from the sound report unit 142, for example, audio information indicating a warning message that the target TG is not within the imaging range. Output (step S1302) and notify the user.

一方、撮像画像P2中に対象物画像TP2が認識された場合(ステップS1301:Yes)、制御部110は、認識した対象物画像TP2について、ステップS1206と同様の処理により、当該対象物画像TP2の特徴を検出する(ステップS1303)。すなわち、対象物画像TP2を特定するための特徴および形状要素を検出する。   On the other hand, when the target image TP2 is recognized in the captured image P2 (step S1301: Yes), the control unit 110 performs the same processing on the recognized target image TP2 as the target image TP2 by the same process as step S1206. A feature is detected (step S1303). That is, features and shape elements for specifying the object image TP2 are detected.

制御部110は、対象物画像TP2についての特徴を検出すると、記憶部160に格納した対象物画像TP1についての特徴情報と指定された基準に基づき、現在の対象物画像TP2の特徴と指定された基準とを随時比較して、その誤差を検出する(ステップS1304)。より詳細には、制御部110は、まず、対象物画像TP2について形状要素を検出し、基準に合わせるべき形状要素がいずれであるかを特定する。すなわち、対象物画像TP1の特徴情報である特定要素情報に示される形状要素の特徴と同一もしくは類似する形状要素を対象物画像TP2から特定する。そして、特定された形状要素と基準との誤差を検出する。   When the control unit 110 detects the feature about the target image TP2, the control unit 110 is specified as the feature of the current target image TP2 based on the feature information about the target image TP1 stored in the storage unit 160 and the specified reference. The error is detected by comparing with the reference as needed (step S1304). More specifically, the control unit 110 first detects a shape element for the object image TP2, and identifies which shape element should be matched with the reference. That is, a shape element that is the same as or similar to the feature of the shape element indicated in the specific element information that is the feature information of the target image TP1 is specified from the target image TP2. Then, an error between the identified shape element and the reference is detected.

本実施形態では、対象物画像TP1における形状要素SG2とSG4(図8(b)参照)を基準に合わせるべき形状要素としているので、形状要素SG2、SG4と同一もしくは類似する形状要素を対象物画像中TP2から検出し、これらと基準との相対角度を求める。本実施形態では基準を「水平方向」としているので、検出した形状要素と水平方向との相対角度を求める。すなわち、検出された特徴と基準との相対関係を認識する。ここで、基準となる水平方向を示す情報は、制御部110が、センサ部170が検出する重力方向に直交する方向を演算して求める。   In the present embodiment, the shape elements SG2 and SG4 (see FIG. 8B) in the object image TP1 are the shape elements to be matched with the reference, and therefore the shape elements that are the same as or similar to the shape elements SG2 and SG4 are used as the object image. Detect from middle TP2, and obtain the relative angle between these and the reference. In this embodiment, since the reference is “horizontal direction”, the relative angle between the detected shape element and the horizontal direction is obtained. That is, the relative relationship between the detected feature and the reference is recognized. Here, the information indicating the reference horizontal direction is obtained by the control unit 110 by calculating a direction orthogonal to the gravitational direction detected by the sensor unit 170.

制御部110は、このようにして求めた誤差、すなわち、形状要素と基準との相対角度の大きさが所定の許容範囲内であるか否かを判別する(ステップS1305)。ここで「所定の許容範囲」とは、形状要素と基準との角度について、所望する角度と実際の角度とのズレの許容範囲をいい、例えば、ユーザの要求する精度や撮像装置100の性能などに基づいて任意に設定される。   The control unit 110 determines whether or not the error obtained in this way, that is, the relative angle between the shape element and the reference is within a predetermined allowable range (step S1305). Here, the “predetermined allowable range” refers to an allowable range of deviation between a desired angle and an actual angle with respect to the angle between the shape element and the reference. For example, the accuracy required by the user, the performance of the imaging apparatus 100, and the like. It is arbitrarily set based on.

誤差が許容範囲内にない場合(ステップS1305:No)、制御部110は、誤差が許容範囲内に収まるよう、所定の案内情報を報音部142から音声出力する(ステップS1306)。ここでは、ユーザがどのように対象物TGを動かせば誤差が少なくなるかを示す情報が案内情報として出力される。本例のように水平方向を基準としている場合、基準に合わせるべき形状要素と水平方向との相対角度に基づいて、対象物TGをいずれの方向にどの程度動かせばよいかを示すメッセージ(例えば、「もう少し左に傾けてください」など)を音声出力する。   If the error is not within the allowable range (step S1305: No), the control unit 110 outputs predetermined guidance information from the report sound unit 142 by voice so that the error is within the allowable range (step S1306). Here, information indicating how the user moves the object TG and the error is reduced is output as guidance information. When the horizontal direction is used as a reference as in this example, a message indicating how much the object TG should be moved in which direction based on the relative angle between the shape element to be matched with the reference and the horizontal direction (for example, "Please tilt it a little more to the left").

このような案内情報を出力すると、制御部110は、誤差が許容範囲内に収まるまで、対象物画像PT2と基準との誤差を検出する(ステップS1304、S1305:No)。   When such guidance information is output, the control unit 110 detects an error between the object image PT2 and the reference until the error falls within an allowable range (steps S1304 and S1305: No).

一方、対象物画像PT2と基準との誤差が許容範囲内となった場合(ステップS1305:Yes)、制御部110は、対象物TGが所定の位置となった旨を示す案内情報を報音部142から音声出力して(ステップS1307)、処理を終了する。   On the other hand, when the error between the target object image PT2 and the reference is within the allowable range (step S1305: Yes), the control unit 110 provides guidance information indicating that the target object TG has reached a predetermined position as a sounding unit. The voice is output from 142 (step S1307), and the process is terminated.

上記各処理によって、対象物TGが指定した方向となるよう正確に設置することができる。この場合、撮像装置100が、取得した撮像画像に基づいて対象を認識し、ユーザが対象を指定した基準に合わせられるよう、音声によって案内情報をユーザに通知するので、対象物TGの位置合わせをユーザ1人で実施することができる。   Through the above processes, the object TG can be accurately placed in the designated direction. In this case, the imaging apparatus 100 recognizes the target based on the acquired captured image, and notifies the user of guidance information by voice so that the user can meet the reference that specifies the target. Therefore, the target object TG is aligned. This can be done by one user.

上記実施形態1では「水平方向」を基準とした場合を例示したが、他の基準が指定された場合も同様の処理によってユーザを案内することができる。すなわち、指定された基準が「垂直方向」である場合には、センサ部170が検出した重力方向を基準として対象物画像PT2との誤差を求めて、案内情報を出力する。また、指定された基準が「ファインダ」である場合には、取得される画像上での上下方向あるいは左右方向を基準として対象物画像PT2との誤差を求めればよい。基準「ファインダ」は、例えば、撮像装置100がセンサ部170を有していない場合や三脚などで撮像装置100を固定できる場合に有効となる。   In the first embodiment, the case where the “horizontal direction” is used as a reference is illustrated, but the user can be guided by the same process even when another reference is specified. That is, when the designated reference is “vertical direction”, an error from the object image PT2 is obtained with reference to the gravity direction detected by the sensor unit 170, and guidance information is output. In addition, when the designated reference is “finder”, an error from the object image PT2 may be obtained with reference to the vertical direction or the horizontal direction on the acquired image. The reference “finder” is effective, for example, when the imaging apparatus 100 does not have the sensor unit 170 or when the imaging apparatus 100 can be fixed with a tripod or the like.

上記実施形態1では、基準となる方向を固定的な方向としたが、これに限られず、例えば、時間経過にしたがって規則的に変化する方向を基準としてもよい。   In the first embodiment, the reference direction is a fixed direction. However, the direction is not limited to this, and for example, a direction that regularly changes over time may be used as a reference.

(実施形態2)
上記実施形態1では、角度のみに基づいて対象物TGの位置合わせをユーザに案内したが、対象物TGと他の基準となる物体(以下、「基準物体RF」とする)とを画像認識することで、対象物TGと基準物体RFとの相対的な位置関係を検出し、例えば、対象物TGを現在の場所から移動した後に、同じ場所に正確に戻せるようユーザを案内することができる。この場合を実施形態2として以下説明する。なお、撮像装置100の構成および用語の定義等は実施形態1と同様である。
(Embodiment 2)
In the first embodiment, the user is guided to align the target TG based only on the angle. However, the target TG and another reference object (hereinafter referred to as “reference object RF”) are image-recognized. Thus, the relative positional relationship between the object TG and the reference object RF can be detected, and for example, after moving the object TG from the current location, the user can be guided so that the user can accurately return to the same location. This case will be described below as a second embodiment. Note that the configuration of the imaging apparatus 100, the definition of terms, and the like are the same as those in the first embodiment.

本実施形態では、実施形態1と同様に、矩形形状の対象物TGを壁面に設置する場合を例示するが、図10に示すように、対象物TGの前方に他の物体が基準物体RFとして存在することが実施形態1とは異なる。基準物体RFは任意の物体であり、本来的に存在している種々の物体を基準物体RFとすることができる。なお、基準物体RFとなり得る物体が本来的に存在しない場合には、撮像装置100を用いた位置認識時に、例えば、適当な物体を基準物体RFとして一時的に設置するものとする。本実施形態では、理解を容易にするため、基準物体RFが、矩形形状から構成された箱状の物体であるものとして、以下説明する。   In the present embodiment, as in the first embodiment, a case where a rectangular target TG is installed on a wall surface is illustrated. However, as illustrated in FIG. 10, another object is used as a reference object RF in front of the target TG. It is different from the first embodiment. The reference object RF is an arbitrary object, and various originally existing objects can be used as the reference object RF. Note that when there is essentially no object that can serve as the reference object RF, for example, an appropriate object is temporarily set as the reference object RF during position recognition using the imaging apparatus 100. In the present embodiment, in order to facilitate understanding, the following description will be given assuming that the reference object RF is a box-shaped object configured from a rectangular shape.

本実施形態においても、実施形態1と同様に、対象物TGを配置する際の基準を設定するための「基準設定処理(2)」(ステップS2100)、対象物TGを認識するための「対象物認識処理(2)」(ステップS2200)、対象物TGが所望された位置や角度で設置できるようユーザに案内情報を出力する「案内情報出力処理(2)」(ステップS2300)、により実現される「位置調整支援処理」が撮像装置100によって実行される(図11)。   Also in the present embodiment, as in the first embodiment, “reference setting process (2)” for setting a reference for placing the object TG (step S2100), “object for recognizing the object TG” Object recognition process (2) "(step S2200), and" guidance information output process (2) "(step S2300) for outputting guidance information to the user so that the object TG can be installed at a desired position and angle. The “position adjustment support process” is executed by the imaging apparatus 100 (FIG. 11).

本実施形態にかかる「基準設定処理(2)」は、実施形態1の「基準設定処理(1)」と同様の処理である。すなわち、表示部141に「角度設定画面」および「位置設定画面」を表示することで、基準となる角度と位置が設定される。上記実施形態1では、位置の設定がなされない場合を例示したが、本実施形態では基準物体RFとの相対位置により位置決めをおこなうため、位置の設定を必須とする。ここでは、基準物体RFを基準とするため、角度設定および位置設定において、項目「基準指定」が指定される。   The “reference setting process (2)” according to the present embodiment is the same process as the “reference setting process (1)” according to the first embodiment. That is, by displaying the “angle setting screen” and the “position setting screen” on the display unit 141, the reference angle and position are set. In the first embodiment, the case where the position is not set is illustrated. However, in this embodiment, since the positioning is performed based on the relative position with respect to the reference object RF, the setting of the position is essential. Here, since the reference object RF is used as a reference, the item “reference specification” is specified in angle setting and position setting.

「基準設定処理(2)」により、設置する対象物TGの角度および位置を規定するための基準が設定されると、制御部110は「対象物認識処理(2)」を実行する(ステップS2200)。この「対象物認識処理(2)」を図12に示すフローチャートを参照して説明する。   When the reference for defining the angle and position of the object TG to be installed is set by the “reference setting process (2)”, the control unit 110 executes the “object recognition process (2)” (step S2200). ). This “object recognition process (2)” will be described with reference to the flowchart shown in FIG.

制御部110はまず、「対象物認識処理(1)」(図7)のステップS1201〜S1206と同様の処理を実行することにより、撮像画像P1から対象物画像TP1を抽出するとともに、対象物画像TP1の特徴を検出して特徴情報を記憶部160に格納する(ステップS2201)。   First, the control unit 110 executes the same processing as steps S1201 to S1206 of the “object recognition process (1)” (FIG. 7) to extract the object image TP1 from the captured image P1, and also the object image. The feature of TP1 is detected and feature information is stored in the storage unit 160 (step S2201).

本実施形態では、「基準設定処理(2)」において「基準指定」が指定されているため、制御部110は、指定された基準となる基準物体RFを撮像画像P1から認識する(ステップS2202)。ここでは、ステップS2201と同様の処理によって基準物体RFが認識される。すなわち、ユーザが表示部141に表示された選択手段PTを操作することにより、撮像画像P1中で基準物体RFが示されている領域が指定されると、制御部110は、指定された領域を抽出して基準画像RP1を取得する。制御部110は、取得した基準画像RP1を記憶部160に格納するとともに、基準画像RP1を画像認識することにより特徴を検出し、検出した特徴を示す特徴情報を記憶部160に格納する。基準画像RP1についても対象物画像TP1と同様に、基準画像RP1の輪郭を構成する形状要素が検出される。   In this embodiment, since “reference designation” is designated in “reference setting process (2)”, the control unit 110 recognizes the designated reference object RF from the captured image P1 (step S2202). . Here, the reference object RF is recognized by the same processing as in step S2201. That is, when the user operates the selection unit PT displayed on the display unit 141 to specify the region where the reference object RF is indicated in the captured image P1, the control unit 110 displays the specified region. Extract the reference image RP1. The control unit 110 stores the acquired reference image RP1 in the storage unit 160, detects a feature by recognizing the reference image RP1, and stores feature information indicating the detected feature in the storage unit 160. For the reference image RP1, similarly to the object image TP1, the shape elements constituting the contour of the reference image RP1 are detected.

対象物画像TP1と基準画像RP1についての特徴が検出されると、制御部110は、それぞれの特徴の相対関係に基づいて、対象物TGを設置する際の角度および位置の基準を規定する(ステップS2203)。例えば、図10に示すような場面において、対象物TGと基準物体RFとを撮像すると、図13(a)に示すような撮像画像P1が得られる。本例のように、対象物TGと基準物体RFの双方が矩形形状で構成される場合、撮像画像P1には、図13(a)に示すような位置関係で2つの矩形(すなわち、対象物画像TP1と基準画像RP1)が示されることとなる。   When the features of the object image TP1 and the reference image RP1 are detected, the control unit 110 defines the reference of the angle and the position when the object TG is installed based on the relative relationship between the features (step) S2203). For example, when the object TG and the reference object RF are imaged in the scene as shown in FIG. 10, a captured image P1 as shown in FIG. 13A is obtained. When both the target object TG and the reference object RF are configured in a rectangular shape as in this example, the captured image P1 has two rectangles (that is, the target object) in the positional relationship shown in FIG. An image TP1 and a reference image RP1) will be shown.

このような撮像画像P1において、対象物画像TP1と基準画像RP1のそれぞれで形状要素を検出しているので、対象物画像TP1の形状要素と基準画像RP1の形状要素の相対関係をみることで、対象物TGの設置時の角度と位置を規定することができる。図13(a)に示す撮像画像P1から検出された形状要素の例を図13(b)に示す。図示するように、対象物画像TP1からは形状要素TS1〜TS4が検出され、基準画像RP1からは形状要素RS1〜RS3が検出される。上述したように、各形状要素についての特徴を検出しているので、それぞれの特徴に基づいて相対関係をみる。この場合、例えば、各形状要素の角度やサイズ(長さ)などの特徴から相対関係を認識する。   In such a captured image P1, since the shape element is detected in each of the object image TP1 and the reference image RP1, by looking at the relative relationship between the shape element of the object image TP1 and the shape element of the reference image RP1, The angle and position at the time of installation of the target object TG can be defined. An example of the shape element detected from the captured image P1 shown in FIG. 13A is shown in FIG. As illustrated, the shape elements TS1 to TS4 are detected from the object image TP1, and the shape elements RS1 to RS3 are detected from the reference image RP1. As described above, since the feature of each shape element is detected, the relative relationship is seen based on each feature. In this case, for example, the relative relationship is recognized from features such as the angle and size (length) of each shape element.

図13(b)の場合では、対象物画像TP1の形状要素TS2およびTS4と、基準画像RP1の形状要素RS2とが平行であると認識することができる。あるいは、形状要素TS2およびTS4と形状要素RS1およびRS3との相対角度は直角であると認識することもできる。すなわち、対象物画像TP1の形状要素と、基準画像RP1の形状要素との間の相対角度をみることにより、現在設置されている対象物TGの角度を、基準物体RFとの相対角度に基づいて認識することができる。   In the case of FIG. 13B, it can be recognized that the shape elements TS2 and TS4 of the object image TP1 and the shape element RS2 of the reference image RP1 are parallel. Or it can also recognize that the relative angle of shape element TS2 and TS4 and shape element RS1 and RS3 is a right angle. That is, by looking at the relative angle between the shape element of the object image TP1 and the shape element of the reference image RP1, the angle of the currently installed object TG is based on the relative angle with the reference object RF. Can be recognized.

また、対象物画像TP1の形状要素と基準画像RP1の形状要素との相対関係から、対象物TGと基準物体RFとの相対位置を特定することもできる。すなわち、対象物画像TP1の形状要素上のある箇所と、基準画像RP1の形状要素上のある箇所との間の画像上の距離差を検出することで、対象物画像TP1と基準画像RP1との相対的位置関係を認識することができる。   In addition, the relative position between the target object TG and the reference object RF can be specified from the relative relationship between the shape element of the target object TP1 and the shape element of the reference image RP1. That is, by detecting a difference in image distance between a certain location on the shape element of the target image TP1 and a certain location on the shape element of the reference image RP1, the difference between the target image TP1 and the reference image RP1 is detected. The relative positional relationship can be recognized.

図13(a)に示す撮像画像P1の場合、例えば、図13(c)に示すように、対象物画像TP1の形状要素TS4の一端部TE1と、基準画像RP1の形状要素RS2の一端部RE1とを認識し、端部TE1と端部RE1との間の左右方向の距離差D1を求める。すなわち、端部TE1から形状要素RS2への垂線との交点であるRC1と端部RE1との間の距離が距離差D1となる。この場合、各形状要素の座標が特徴として検出されているので、各端部の座標に基づいて、距離差D1を画像上のピクセル数(ドット数)によって求めることができる。   In the case of the captured image P1 shown in FIG. 13A, for example, as shown in FIG. 13C, one end TE1 of the shape element TS4 of the object image TP1 and one end RE1 of the shape element RS2 of the reference image RP1. And the distance difference D1 in the left-right direction between the end TE1 and the end RE1 is obtained. That is, the distance between RC1 and the end part RE1 which is the intersection with the perpendicular line from the end part TE1 to the shape element RS2 is the distance difference D1. In this case, since the coordinates of each shape element are detected as features, the distance difference D1 can be obtained from the number of pixels (dot number) on the image based on the coordinates of each end.

同様にして、形状要素TS4の他端部TE2と、形状要素RS2の他端部RE2とを認識し、これらの間の左右方向の距離差D2(すなわち、端部TE2から形状要素RS2への垂線との交点であるRC2と端部RE2との間の距離)を求める。さらに、形状要素TS4と形状要素RS2の長さと、距離差D1およびD2との比を求めることで、形状要素TS4とRS2との間の相対的な位置関係を認識することができる。すなわち、図13(c)の例では、例えば、形状要素TS4の長さを1とすると、形状要素RS2上での区間RE1−RC1、RC1−RC2、RC2−RE2の長さの比を、例えば「0.7:1:0.6」というように認識することができる。   Similarly, the other end portion TE2 of the shape element TS4 and the other end portion RE2 of the shape element RS2 are recognized, and a distance difference D2 between them in the left-right direction (that is, a perpendicular line from the end portion TE2 to the shape element RS2). And the distance between RC2 and the end portion RE2). Furthermore, the relative positional relationship between the shape elements TS4 and RS2 can be recognized by obtaining the ratio between the lengths of the shape element TS4 and the shape element RS2 and the distance differences D1 and D2. That is, in the example of FIG. 13C, for example, when the length of the shape element TS4 is 1, the ratio of the lengths of the sections RE1-RC1, RC1-RC2, RC2-RE2 on the shape element RS2 is, for example, It can be recognized as “0.7: 1: 0.6”.

制御部110は、図14(a)に示すように、認識内容とともに当該内容をユーザに確認するメッセージを表示部141に表示してユーザに確認する。ユーザは、表示された内容でよい場合は、画面上の「OK」を選択することで、認識内容を了承した旨を入力する。この場合(ステップS2204:Yes)、制御部110は、ステップS2203での認識内容、すなわち、相対関係をとった形状要素がいずれであるかを特定し、特定した形状要素とその相対関係を示す情報(以下、「相対関係情報」とする)を、記憶部160に格納されている当該対象物画像TP1の特徴情報に追加して(ステップS2205)、処理を終了する。   As shown in FIG. 14A, the control unit 110 displays a message confirming the content to the user together with the recognized content on the display unit 141 and confirms it to the user. If the displayed content is acceptable, the user selects “OK” on the screen to input that the recognized content is accepted. In this case (step S2204: Yes), the control unit 110 identifies what is recognized in step S2203, that is, which shape element has a relative relationship, and indicates the identified shape element and its relative relationship. (Hereinafter referred to as “relative relationship information”) is added to the feature information of the target object image TP1 stored in the storage unit 160 (step S2205), and the process is terminated.

一方、ユーザが認識内容を了承しない場合(ステップS2204:No)、制御部110は、対象物TGと基準物体RFとの相対関係をユーザに指定させるための「相対関係指定画面」を表示部141に表示する(ステップS2206)。ここでは、図14(b)に示すように、各形状要素が選択可能に表示されるとともに選択手段PTが表示される。ユーザは、操作入力部132などによって選択手段PTを操作し、表示されている形状要素を指定し、例えば、数値入力などによって所望する相対角度などを入力する。   On the other hand, when the user does not approve the recognition content (step S2204: No), the control unit 110 displays a “relative relationship designation screen” for allowing the user to designate the relative relationship between the target object TG and the reference object RF. (Step S2206). Here, as shown in FIG. 14B, each shape element is displayed so as to be selectable and the selection means PT is displayed. The user operates the selection means PT using the operation input unit 132 or the like, specifies the displayed shape element, and inputs a desired relative angle, for example, by numerical input.

ユーザによって相対関係が指定されると、制御部110は、当該相対関係を示す相対関係情報を、記憶部160に格納されている当該対象物画像TP1の特徴情報に追加して(ステップS2205)、処理を終了する。   When the relative relationship is designated by the user, the control unit 110 adds the relative relationship information indicating the relative relationship to the feature information of the target image TP1 stored in the storage unit 160 (step S2205). End the process.

上記「対象物認識処理(2)」にて相対関係情報が特徴情報として記録されると、例えば、ユーザは、対象物TGの移動等をおこなう。そして、対象物TGを元の場所に戻す際に、撮像装置100を用いて、同じ場所に正確に設置するようにする。すなわち、撮像装置100が画像認識に基づく案内情報を出力することで、ユーザが対象物TGを元の場所に正確に設置できるよう案内する。ここでは、撮像装置100の制御部110が「案内情報出力処理(2)」を実行する(ステップS2300)。「案内情報出力処理(2)」は、例えば、撮像装置100が、対象物を元の位置に戻すための動作モード(「位置合わせモード」)に設定されたことを契機に開始されるものとする。「案内情報出力処理(2)」の詳細を、図15に示すフローチャートを参照して説明する。   When the relative relationship information is recorded as the feature information in the “target recognition process (2)”, for example, the user moves the target TG. Then, when the object TG is returned to the original location, the imaging device 100 is used to accurately install the object TG at the same location. That is, the imaging apparatus 100 outputs guidance information based on image recognition, so that the user can guide the target object TG to be accurately placed at the original location. Here, the control unit 110 of the imaging apparatus 100 executes “guidance information output processing (2)” (step S2300). The “guidance information output process (2)” is started when the imaging apparatus 100 is set to an operation mode (“positioning mode”) for returning the object to the original position, for example. To do. Details of the “guidance information output process (2)” will be described with reference to the flowchart shown in FIG.

「案内情報出力処理(2)」が開始された状態では、対象物体RFが撮像されるよう撮像装置100が配置され、この状態でのレンズユニット121への入射光に基づく画像(以下、「撮像画像P2」とする)が随時取得される。すなわち「対象物認識処理(2)」での撮像画像P2とは異なる撮像画像が取得されることとなる。   In the state where the “guidance information output process (2)” is started, the imaging device 100 is arranged so as to capture the target object RF, and an image based on the incident light on the lens unit 121 in this state (hereinafter referred to as “imaging”). Image P2 ”) is acquired at any time. That is, a captured image different from the captured image P2 in the “target recognition process (2)” is acquired.

制御部110は、撮像画像P2に、基準物体RFが示されているか否かを判別する。すなわち、基準物体RFを示す基準画像RP1と同様の画像(以下、「基準画像RP2」とする)が撮像画像P2内に認識できるか否かを判別する(ステップS2301)。ここでは、記憶部160に格納されている基準画像RP1についての特徴情報(例えば、色情報)に基づいて、同様の特徴を有する基準画像RP2が撮像画像P2内に存在するか否かを検知することで、撮像画像P2に基準物体RFが写り込んでいるか否かを判別する。   The control unit 110 determines whether or not the reference object RF is indicated in the captured image P2. That is, it is determined whether or not an image similar to the reference image RP1 indicating the reference object RF (hereinafter referred to as “reference image RP2”) can be recognized in the captured image P2 (step S2301). Here, based on the feature information (for example, color information) about the reference image RP1 stored in the storage unit 160, it is detected whether or not the reference image RP2 having the same feature exists in the captured image P2. Thus, it is determined whether or not the reference object RF is reflected in the captured image P2.

基準画像RP2が認識できない場合(ステップS2301:No)、制御部110は報音部142から、例えば、基準物体RFが撮像範囲内にない旨の警告メッセージを示す音声情報を出力し(ステップS2302)、ユーザに通知する。   When the reference image RP2 cannot be recognized (step S2301: No), the control unit 110 outputs, for example, audio information indicating a warning message that the reference object RF is not within the imaging range from the sound report unit 142 (step S2302). , Notify the user.

一方、撮像画像P2中に基準画像RP2が認識された場合(ステップS2301:Yes)、制御部110は、記憶部160に格納されている対象物画像TP1とこれに対応付けられた特徴情報に基づいて、撮像画像P2内に対象物TGが示されているか否かを判別する。すなわち、撮像画像P2内に対象物TGを示す対象物画像TP2が認識できるか否かを判別する(ステップS2303)。ここでは、特徴情報に示される対象物画像TP1の色情報に基づき、撮像画像P2内に同様の色情報を有する領域が存在するか否かによって、対象物画像TP2を認識する。   On the other hand, when the reference image RP2 is recognized in the captured image P2 (step S2301: Yes), the control unit 110 is based on the object image TP1 stored in the storage unit 160 and the feature information associated therewith. Then, it is determined whether or not the object TG is shown in the captured image P2. That is, it is determined whether or not the object image TP2 indicating the object TG can be recognized in the captured image P2 (step S2303). Here, based on the color information of the target image TP1 indicated in the feature information, the target image TP2 is recognized depending on whether or not a region having similar color information exists in the captured image P2.

撮像画像P2中に対象物画像TP2が認識されない場合(ステップS2303:No)、制御部110は報音部142から、例えば、対象物TGが撮像範囲内にない旨の警告メッセージを示す音声情報を出力し(ステップS2304)、ユーザに通知する。   When the target image TP2 is not recognized in the captured image P2 (step S2303: No), the control unit 110 outputs, from the sound report unit 142, for example, audio information indicating a warning message that the target TG is not within the imaging range. Output (step S2304) and notify the user.

一方、撮像画像P2中に対象物画像TP2が認識された場合(ステップS2303:Yes)、制御部110は、認識した基準画像RP2と対象物画像TP2のそれぞれについて、特徴を検出する(ステップS2305)。すなわち、基準画像RP2と対象物画像TP2を特定するための特徴および形状要素を検出する。また、検出された形状要素について、座標位置やサイズ、画像上での相対角度、などの特徴を検出する。   On the other hand, when the object image TP2 is recognized in the captured image P2 (step S2303: Yes), the control unit 110 detects the features of each of the recognized reference image RP2 and object image TP2 (step S2305). . That is, features and shape elements for specifying the reference image RP2 and the object image TP2 are detected. In addition, for the detected shape element, features such as a coordinate position and size, a relative angle on the image, and the like are detected.

制御部110は、検出した特徴に基づいて、撮像画像P2に示される基準画像RP2と対象物画像TP2との相対的位置関係を認識する(ステップS2306)。制御部110は、認識した基準画像RP2と対象物画像TP2との相対的位置関係と、記憶部160に格納した相対関係情報に示される相対関係とを比較し、撮像画像P2での基準画像RP2と対象物画像TP2との間の誤差(ズレ)を検出する(ステップS2307)。   Based on the detected feature, the control unit 110 recognizes the relative positional relationship between the reference image RP2 and the object image TP2 shown in the captured image P2 (step S2306). The control unit 110 compares the relative positional relationship between the recognized reference image RP2 and the object image TP2 with the relative relationship indicated by the relative relationship information stored in the storage unit 160, and the reference image RP2 in the captured image P2. And an error (displacement) between the object image TP2 and the object image TP2 are detected (step S2307).

例えば、撮像画像P1において(図13参照)、基準画像RP1の形状要素であるTS2と基準画像RP1の形状要素であるRS2の相対角度をA1とする。この場合に、撮像画像P2における基準画像RP2の形状要素RS2と対象物画像TP2の形状要素TS2との相対角度A2を検出し、相対角度A1と相対角度A2との誤差を求めることで、基準画像RP2と対象画像TP2との角度についてのズレを検出することができる。この「ズレ」は、対象物TGを本来の設置位置に正確に設置した際の基準物体RFとの相対角度に対する誤差ということになる。   For example, in the captured image P1 (see FIG. 13), the relative angle between TS2 that is the shape element of the reference image RP1 and RS2 that is the shape element of the reference image RP1 is A1. In this case, the relative angle A2 between the shape element RS2 of the reference image RP2 and the shape element TS2 of the object image TP2 in the captured image P2 is detected, and an error between the relative angle A1 and the relative angle A2 is obtained, thereby obtaining the reference image. It is possible to detect a deviation of the angle between RP2 and target image TP2. This “deviation” is an error with respect to a relative angle with respect to the reference object RF when the object TG is accurately installed at the original installation position.

このような角度のズレの他、制御部110は、位置のズレも検出する。すなわち、、撮像画像P2から検出された形状要素の長さ比を撮像画像P2上でのピクセル数(ドット数)に基づいて求め、記憶部160に格納されている相対関係情報に示されている形状要素の長さ比と比較することで、相対位置のズレを検出する。   In addition to such an angle shift, the control unit 110 also detects a position shift. In other words, the length ratio of the shape elements detected from the captured image P2 is obtained based on the number of pixels (number of dots) on the captured image P2, and is indicated in the relative relationship information stored in the storage unit 160. The relative position shift is detected by comparing with the length ratio of the shape element.

制御部110は、ステップS2307で検出した誤差が所定の許容範囲内であるか否かを判別する(ステップS2308)。そして、許容範囲内でない場合(ステップS2308:No)、制御部110は、報音部142から角度もしくは位置の調整を指示する案内情報を音声出力して(ステップS2309)、ユーザに対象物TGの位置調整を促す。ここでは、角度にズレがある場合には、例えば、「もう少し左に傾けてください」などといったメッセージを音声出力し、位置にズレがある場合には、例えば、「もう少し左に移動させてください」なとどいったメッセージを音声出力する。   The controller 110 determines whether or not the error detected in step S2307 is within a predetermined allowable range (step S2308). If not within the allowable range (step S2308: No), the control unit 110 outputs the guidance information for instructing the angle or position adjustment from the sound report unit 142 (step S2309), and notifies the user of the target TG. Encourage position adjustment. Here, if there is a deviation in the angle, for example, a message such as “Please tilt it a little more to the left” will be output, and if there is a deviation in the position, for example, “Please move it a little to the left.” Voice output of any message.

このような案内情報にしたがって、ユーザは対象物TGの位置調整をおこなう。そして、誤差が所定の許容範囲内になると(ステップS2308:Yes)、制御部110は、対象物TGが所定位置になった旨を示すメッセージを報音部142から音声出力し(ステップS2310)、処理を終了する。   In accordance with such guidance information, the user adjusts the position of the object TG. When the error falls within the predetermined allowable range (step S2308: Yes), the control unit 110 outputs a message indicating that the object TG has reached the predetermined position from the sound reporting unit 142 (step S2310). End the process.

上記のような処理によれば、対象物TGと基準物体RFとの相対的な位置関係を画像認識により認識し、認識した位置関係となるようにユーザを案内することができるので、移動させた対象物TGを元の位置に正確に戻す場合などにおいて、ユーザを適切に案内することができる。この場合、撮像装置100が、音声によって案内情報をユーザに通知するので、対象物TGの位置合わせをユーザ1人もしくは少人数で実施することができる。   According to the processing as described above, the relative positional relationship between the object TG and the reference object RF can be recognized by image recognition, and the user can be guided to the recognized positional relationship. In the case where the object TG is accurately returned to the original position, the user can be guided appropriately. In this case, since the imaging apparatus 100 notifies the user of guidance information by voice, the alignment of the target object TG can be performed by one user or a small number of users.

なお、上記実施形態2では、「対象物認識処理(2)」で対象物TGと基準物体RFの双方を撮像し、「案内情報出力処理(2)」で、対象物TGと基準物体RFとの相対位置に基づいて案内するようにしたが、例えば、「対象物認識処理(2)」では基準物体RFのみを撮像し、「案内情報出力処理(2)」において対象物TGと基準物体RFを撮像し、撮像された基準物体RFと対象物TGとの相対関係をユーザが入力することで、対象物TGの設置すべき位置を特定してもよい。すなわち、対象物TGを元に戻すのではなく、新たに設置するような場合であっても、任意の基準物体RFを利用して、対象物TGをユーザが所望する位置に正確に設置できるよう案内することもできる。   In the second embodiment, both the object TG and the reference object RF are imaged in the “object recognition process (2)”, and the object TG and the reference object RF are captured in the “guidance information output process (2)”. However, for example, in the “target recognition process (2)”, only the reference object RF is imaged, and in the “guidance information output process (2)”, the target TG and the reference object RF are captured. And the user inputs the relative relationship between the captured reference object RF and the target object TG, so that the position where the target object TG is to be installed may be specified. That is, even if the target object TG is not returned to the original state but is newly installed, the target object TG can be accurately set at a position desired by the user using an arbitrary reference object RF. You can also guide.

また、上記各実施形態では、理解を容易にするため、対象物TGや基準物体RFを矩形形状で構成される物体としたが、対象物TGおよび基準物体RFの形状・形態は任意のものとすることができる。また、対象物TGや基準物体RFの数も任意であり、複数の対象物TGや基準物体RFを対象にしてもよい。また、対象物TGの設置形態も任意であり、上記実施形態のように壁面などの垂直面に設置する場合に限られず、任意面に載置する場合などにも適用することができる。さらに、対象物TGを設置する場合に限られず、例えば、設置されている対象物TGの角度や位置を変えたい場合などにも適用することができる。また、ひとつの撮像画像上に撮像できるのであれば、対象物TGと基準物体RFとの位置関係も任意である。   In each of the above-described embodiments, the object TG and the reference object RF are objects configured in a rectangular shape for easy understanding, but the shapes and forms of the object TG and the reference object RF are arbitrary. can do. Further, the number of target objects TG and reference objects RF is also arbitrary, and a plurality of target objects TG and reference objects RF may be targeted. The installation form of the object TG is also arbitrary, and is not limited to the case where the object TG is installed on a vertical surface such as a wall surface as in the above-described embodiment, but can also be applied to the case where the object TG is placed on an arbitrary surface. Furthermore, the present invention is not limited to the case where the target object TG is installed, and can be applied, for example, when the angle or position of the installed target object TG is desired to be changed. In addition, if the image can be captured on one captured image, the positional relationship between the object TG and the reference object RF is also arbitrary.

上記各実施形態では、音声出力により案内情報を出力することでユーザに通知したが、案内情報の出力形態は任意であり、例えば、振動や光などによってユーザに通知するようにしてもよい。また、撮像装置100に所定の通信機能を有している場合、ユーザが携行する通信端末などと通信することによって、ユーザに案内情報を通知してもよい。さらに、ユーザの状態を検知するセンサなどを撮像装置100に構成することで、ユーザの状態に応じた案内情報を出力するようにしてもよい。すなわち、撮像装置100とユーザが離れていても、ユーザに案内情報を通知できるのであれば、任意の出力形態を採用することができる。これにより、目視では位置確認ができないような場所であっても、物体の位置調整などを効果的に支援できるという効果を有する。   In each of the above embodiments, the user is notified by outputting the guidance information by voice output. However, the guidance information may be output in any form, and may be notified to the user by vibration or light, for example. Further, when the imaging apparatus 100 has a predetermined communication function, the user may be notified of guidance information by communicating with a communication terminal carried by the user. Furthermore, guidance information corresponding to the user's state may be output by configuring the imaging device 100 with a sensor that detects the user's state. That is, even if the imaging apparatus 100 and the user are separated from each other, any output form can be adopted as long as the guide information can be notified to the user. Thereby, even in a place where the position cannot be visually confirmed, it is possible to effectively support the position adjustment of the object.

上記各実施形態では、本発明が適用された撮像装置100としてデジタルカメラを例示したが、撮像機能を有する装置であれば、その他の任意の装置を上記実施形態にかかる撮像装置100として機能させることができる。例えば、携帯電話などの移動体通信端末やPDA(Personal Data Assistance:携帯情報端末)、携帯型のパーソナルコンピュータなどといった汎用装置を撮像装置100として利用することもできる。なお、汎用装置のような多機能装置の一機能として本発明を適用可能であることはもとより、本発明によって実現される機能を主機能とした専用装置として提供してもよい。   In each of the above embodiments, a digital camera has been exemplified as the imaging device 100 to which the present invention is applied. However, any other device having an imaging function is allowed to function as the imaging device 100 according to the above embodiment. Can do. For example, a general-purpose device such as a mobile communication terminal such as a cellular phone, a PDA (Personal Data Assistance: portable information terminal), or a portable personal computer can be used as the imaging device 100. It should be noted that the present invention can be applied as a function of a multi-function device such as a general-purpose device, and may be provided as a dedicated device having a function realized by the present invention as a main function.

汎用装置などを本発明の実施形態にかかる撮像装置100として機能させる場合、上述した各機能を実現するためのプログラムを汎用装置に適用すればよい。この場合、上記実施形態にかかる動作プログラムを当該汎用装置にインストールし、当該汎用装置の制御部がこれを実行する。これにより、上述の各処理が実現され、上述したような位置認識機能や位置調整支援機能などを、汎用装置によって実現することができる。   When a general-purpose device or the like is caused to function as the imaging device 100 according to the embodiment of the present invention, a program for realizing each function described above may be applied to the general-purpose device. In this case, the operation program according to the above embodiment is installed in the general-purpose device, and the control unit of the general-purpose device executes this. Thereby, each processing described above is realized, and the position recognition function and the position adjustment support function as described above can be realized by a general-purpose device.

このような動作プログラムを提供する方法は任意であり、例えば、CD−ROMやメモリカードなどの記録媒体に格納して提供可能であることはもとより、インターネットなどの通信媒体を介して提供することもできる。   A method for providing such an operation program is arbitrary. For example, the operation program can be provided by being stored in a recording medium such as a CD-ROM or a memory card, or can be provided via a communication medium such as the Internet. it can.

以上説明したように、本発明を上記実施形態の如く適用することで、撮像装置の画像認識を利用して、物体の位置調整を1人もしくは少人数で効率的におこなうことができる。   As described above, by applying the present invention as in the above-described embodiment, the position adjustment of an object can be efficiently performed by one person or a small number of people using image recognition of an imaging apparatus.

本発明の実施形態に係る撮像装置のシステム構成を示す図である。1 is a diagram illustrating a system configuration of an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態にかかる撮像装置の外観を示す図であり、(a)は正面図、(b)は背面図である。It is a figure which shows the external appearance of the imaging device concerning embodiment of this invention, (a) is a front view, (b) is a rear view. 本発明の実施形態1にかかる「位置調整支援処理(1)」を説明するためのフローチャートである。It is a flowchart for demonstrating the "position adjustment assistance process (1)" concerning Embodiment 1 of this invention. 本発明の実施形態1にかかる撮像装置が撮像する対象物の例を示す図である。It is a figure which shows the example of the target object which the imaging device concerning Embodiment 1 of this invention images. 図3に示す「位置調整支援処理(1)」で実行される「基準設定処理(1)」を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining a “reference setting process (1)” executed in the “position adjustment support process (1)” shown in FIG. 3. 図5に示す「基準設定処理(1)」で出力される表示画面の例を示す図であり、(a)は「角度設定画面」の例を示し、(b)は「位置設定画面」の例を示す。FIG. 6 is a diagram illustrating an example of a display screen output in “reference setting process (1)” illustrated in FIG. 5, where (a) illustrates an example of an “angle setting screen”, and (b) illustrates a “position setting screen”. An example is shown. 図3に示す「位置調整支援処理(1)」で実行される「対象物認識処理(1)」を説明するためのフローチャートである。It is a flowchart for demonstrating the "object recognition process (1)" performed by the "position adjustment assistance process (1)" shown in FIG. 図8に示す「対象物認識処理(1)」を説明するための図であり、(a)は撮像画像の例を示し、(b)は対象物画像から検出される形状要素の例を示し、(c)はユーザへの確認画面の表示例を示す。FIG. 9 is a diagram for explaining “object recognition processing (1)” illustrated in FIG. 8, where (a) illustrates an example of a captured image, and (b) illustrates an example of a shape element detected from the object image. , (C) shows a display example of a confirmation screen to the user. 図3に示す「位置調整支援処理(1)」で実行される「案内情報出力処理(1)」を説明するためのフローチャートである。It is a flowchart for demonstrating the "guidance information output process (1)" performed by the "position adjustment assistance process (1)" shown in FIG. 本発明の実施形態2にかかる撮像装置が撮像する対象物と基準物体の例を示す図である。It is a figure which shows the example of the target object and reference | standard object which the imaging device concerning Embodiment 2 of this invention images. 本発明の実施形態2にかかる「位置調整支援処理(2)」を説明するためのフローチャートである。It is a flowchart for demonstrating the "position adjustment assistance process (2)" concerning Embodiment 2 of this invention. 図11に示す「位置調整支援処理(2)」で実行される「対象物認識処理(2)」を説明するためのフローチャートである。12 is a flowchart for explaining “object recognition processing (2)” executed in “position adjustment support processing (2)” shown in FIG. 11; (a)は図12に示す「対象物認識処理(2)」で取得される撮像画像の例を示す図であり、(b)は撮像画像から検出される形状要素の例を示す図であり、(c)は形状要素から相対位置を求める手順を説明するための図である。(A) is a figure which shows the example of the captured image acquired by the "object recognition process (2)" shown in FIG. 12, (b) is a figure which shows the example of the shape element detected from a captured image. (C) is a figure for demonstrating the procedure which calculates | requires a relative position from a shape element. 図12に示す「対象物認識処理(2)」で出力される表示画面の例を示す図であり、(a)はユーザへの確認画面の表示例を示し、(b)は「相対関係指定画面」の例を示す。It is a figure which shows the example of the display screen output by "object recognition process (2)" shown in FIG. 12, (a) shows the example of a display of the confirmation screen to a user, (b) is "relative relationship designation | designated. An example of “screen” is shown. 図11に示す「位置調整支援処理(2)」で実行される「案内情報出力処理(2)」を説明するためのフローチャートである。12 is a flowchart for explaining “guidance information output processing (2)” executed in “position adjustment support processing (2)” shown in FIG. 11;

符号の説明Explanation of symbols

100…撮像装置、110…制御部、120…撮像部、121…レンズユニット、122…測距・測光部、123…撮像素子、130…入力部、131…シャッタボタン、132…操作入力部、140…出力部、141…表示部、142…報音部、150…画像記録部、160…記憶部、170…センサ部 DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Control part, 120 ... Imaging part, 121 ... Lens unit, 122 ... Ranging and photometry part, 123 ... Imaging element, 130 ... Input part, 131 ... Shutter button, 132 ... Operation input part, 140 ... Output unit 141 ... Display unit 142 ... Reporting unit 150 ... Image recording unit 160 ... Storage unit 170 ... Sensor unit

Claims (10)

入射光をデジタルデータに変換して画像データを取得する携帯可能な撮像装置において、
一の画像データに示される対象物を認識する対象物認識手段と、
前記対象物の位置を規定するための基準を示す基準情報を取得する基準情報取得手段と、
前記対象物認識手段が認識した対象物の特徴を検出する特徴検出手段と、
前記特徴検出手段が検出した特徴を示す特徴情報を記録する特徴記録手段と、
他の画像データに示される前記対象物を認識して特徴を検出し、前記特徴記録手段が記録した特徴情報に基づいて、検出した特徴と、前記基準との誤差を検出する誤差検出手段と、
前記誤差検出手段が検出した誤差に基づいて、前記対象物の位置を調整するための案内情報を出力する案内手段と、
を備えることを特徴とする撮像装置。
In a portable imaging device that obtains image data by converting incident light into digital data,
Object recognition means for recognizing an object shown in one image data;
Reference information acquisition means for acquiring reference information indicating a reference for defining the position of the object;
Feature detection means for detecting features of the object recognized by the object recognition means;
Feature recording means for recording feature information indicating the features detected by the feature detection means;
Error detection means for detecting the feature by recognizing the object shown in the other image data and detecting an error between the detected feature and the reference based on the feature information recorded by the feature recording means;
Guidance means for outputting guidance information for adjusting the position of the object based on the error detected by the error detection means;
An imaging apparatus comprising:
前記基準情報取得手段は、前記一の画像データと前記他の画像データに示される基準物体を認識する基準物体認識手段をさらに備え、
前記誤差検出手段は、検出した特徴と、前記基準物体認識手段が認識した基準との誤差を検出する、
ことを特徴とする請求項1に記載の撮像装置。
The reference information acquisition means further comprises reference object recognition means for recognizing a reference object indicated in the one image data and the other image data,
The error detection means detects an error between the detected feature and the reference recognized by the reference object recognition means;
The imaging apparatus according to claim 1.
前記基準情報取得手段は、
重力方向を検出する重力方向検出手段をさらに備え、
前記重力方向検出手段が検出した重力方向に基づく所定の方向を前記基準情報として取得する、
ことを特徴とする請求項1または2に記載の撮像装置。
The reference information acquisition means includes
A gravity direction detecting means for detecting the gravity direction;
Obtaining a predetermined direction based on the gravity direction detected by the gravity direction detection means as the reference information;
The imaging apparatus according to claim 1 or 2, wherein
前記特徴検出手段、および、前記誤差検出手段は、前記対象物の特徴と前記基準との相対角度を特徴として検出する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The feature detection means and the error detection means detect a relative angle between the feature of the object and the reference as a feature,
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記特徴検出手段、および、前記誤差検出手段は、前記対象物の特徴と前記基準との相対位置を特徴として検出する、
ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
The feature detection means and the error detection means detect a relative position between the feature of the object and the reference as a feature.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記特徴検出手段、および、前記誤差検出手段は、前記画像データを構成するピクセルによって、前記相対位置を検出する、
ことを特徴とする請求項5に記載の撮像装置。
The feature detection means and the error detection means detect the relative position by pixels constituting the image data.
The imaging apparatus according to claim 5.
前記対象物認識手段は、前記対象物を示す色情報に基づいて、前記一の画像データに示される当該対象物を認識し、
前記誤差検出手段は、前記色情報に基づいて、前記他の画像データに示される当該対象物を認識する、
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
The object recognition means recognizes the object shown in the one image data based on color information indicating the object,
The error detecting means recognizes the object shown in the other image data based on the color information;
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
ユーザからの指示を入力する入力手段をさらに備え、
前記特徴記録手段は、前記入力手段からの入力情報を特徴情報として記録する、
ことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
It further comprises an input means for inputting an instruction from the user,
The feature recording means records input information from the input means as feature information;
The imaging apparatus according to claim 1, wherein
前記案内手段は、案内情報を音声出力する、
ことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
The guide means outputs the guide information by voice.
The imaging apparatus according to claim 1, wherein
撮像装置を制御するコンピュータに、
一の撮像画像に示される対象物を認識するステップと、
前記対象物の位置を調整する際の基準を設定するステップと、
前記一の撮像画像に示される前記対象物と前記基準の特徴を検出し、特徴情報として記録するステップと、
他の撮像画像に示される前記対象物を認識するステップと、
前記他の撮像画像における前記対象物と前記基準の特徴を検出するステップと、
前記他の撮像画像から検出された特徴と、前記特徴情報とに基づいて、前記対象物の位置を認識するステップと、
認識した前記対象物の位置に応じて、ユーザの位置調整動作を支援するための案内情報を出力するステップと、
を実行させることを特徴とするプログラム。
In the computer that controls the imaging device,
Recognizing an object shown in one captured image;
Setting a reference for adjusting the position of the object;
Detecting the object and the feature of the reference shown in the one captured image, and recording it as feature information;
Recognizing the object shown in another captured image;
Detecting the object and the reference feature in the other captured image;
Recognizing the position of the object based on the feature detected from the other captured image and the feature information;
Outputting guidance information for supporting the user's position adjustment operation according to the recognized position of the object;
A program characterized by having executed.
JP2004110464A 2004-04-02 2004-04-02 Imaging apparatus and program Expired - Lifetime JP4461885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004110464A JP4461885B2 (en) 2004-04-02 2004-04-02 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004110464A JP4461885B2 (en) 2004-04-02 2004-04-02 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2005295406A true JP2005295406A (en) 2005-10-20
JP4461885B2 JP4461885B2 (en) 2010-05-12

Family

ID=35327817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004110464A Expired - Lifetime JP4461885B2 (en) 2004-04-02 2004-04-02 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP4461885B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101204804B1 (en) 2006-02-23 2012-11-26 삼성전자주식회사 Guiding method through voice output for function of digital imaging apparatus
CN111985448A (en) * 2020-09-02 2020-11-24 深圳壹账通智能科技有限公司 Vehicle image recognition method and device, computer equipment and readable storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101204804B1 (en) 2006-02-23 2012-11-26 삼성전자주식회사 Guiding method through voice output for function of digital imaging apparatus
CN111985448A (en) * 2020-09-02 2020-11-24 深圳壹账通智能科技有限公司 Vehicle image recognition method and device, computer equipment and readable storage medium

Also Published As

Publication number Publication date
JP4461885B2 (en) 2010-05-12

Similar Documents

Publication Publication Date Title
JP5787907B2 (en) Imaging device for taking self-portrait images
KR102338576B1 (en) Electronic device which stores depth information associating with image in accordance with Property of depth information acquired using image and the controlling method thereof
US9456141B2 (en) Light-field based autofocus
US8659619B2 (en) Display device and method for determining an area of importance in an original image
JP5292638B2 (en) Focus calibration method for imaging system
KR101777354B1 (en) Digital photographing apparatus, method for controlling the same, and computer-readable storage medium
JP4019200B2 (en) Camera with image display
JP2004343747A (en) Photographing method for mobile communication terminal with camera
US20100053363A1 (en) Photographing method and apparatus
JP2008211409A (en) Mobile terminal
CN102111541A (en) Image pickup control apparatus, image pickup control method and program
JP2008193196A (en) Imaging device and specified voice output method
JP2005348181A (en) Photography system, its control method and program for control
EP2461592A2 (en) A timing solution for projector camera devices and systems
JP2010147715A (en) Imager
JP2014531829A (en) Remotely controllable digital video camera system
US20100315528A1 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium having recorded thereon program for executing the method
JP6727453B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
KR20190087215A (en) Electronic device and methof to control auto focus of camera
JP2006319903A (en) Mobile apparatus provided with information display screen
US8405752B2 (en) Image taking apparatus
JP4461885B2 (en) Imaging apparatus and program
KR20110090085A (en) Digital photographing apparatus and method for controlling the same
JP4871798B2 (en) Electronics
JP4974753B2 (en) Imaging apparatus, control method therefor, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4461885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4