JP5593778B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5593778B2
JP5593778B2 JP2010077621A JP2010077621A JP5593778B2 JP 5593778 B2 JP5593778 B2 JP 5593778B2 JP 2010077621 A JP2010077621 A JP 2010077621A JP 2010077621 A JP2010077621 A JP 2010077621A JP 5593778 B2 JP5593778 B2 JP 5593778B2
Authority
JP
Japan
Prior art keywords
map
data
image
classification
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010077621A
Other languages
Japanese (ja)
Other versions
JP2011210042A (en
Inventor
祐和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010077621A priority Critical patent/JP5593778B2/en
Publication of JP2011210042A publication Critical patent/JP2011210042A/en
Application granted granted Critical
Publication of JP5593778B2 publication Critical patent/JP5593778B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、複数の撮像画像を地図上で分類することが可能な技術に関する。   The present invention relates to an image processing apparatus and method, and a program, and more particularly to a technique capable of classifying a plurality of captured images on a map.

近年、メモリ容量の増大化が進み、デジタルカメラは、非常に多数の撮像画像のデータを記録できるようになってきている。
しかしながら、ユーザにとっては、撮像画像の記録数が増加する程、所望の撮像画像を探索したり、撮像画像を整理するための操作が困難になっていく。
そこで、このような操作の困難性を低減すべく、例えば特許文献1,2には、撮像位置が近いという基準で複数の撮像画像を幾つかのグループに分類して、当該グループの中で代表的な撮像位置だけを地図上に識別表示する技術が開示されている。
In recent years, the memory capacity has been increasing, and digital cameras can record a large number of captured image data.
However, for a user, as the number of recorded captured images increases, an operation for searching for a desired captured image or organizing captured images becomes more difficult.
Therefore, in order to reduce the difficulty of such an operation, for example, in Patent Documents 1 and 2, a plurality of captured images are classified into several groups on the basis that the imaging positions are close, and representatives of the groups are represented. A technique for identifying and displaying only a typical imaging position on a map is disclosed.

特開2002−191015号公報JP 2002-191015 A 特開2005−94810号公報JP 2005-94810 A

しかしながら、特許文献1,2に記載の技術では、距離の近さを基準として撮像画像の分類を行っているだけであり、道路や建物等のオブジェクトの存在や、それらオブジェクトの境界の存在を考慮していない。
このため、ユーザにとっては、分類後の各グループと、地図との対応関係を認識することが困難になる。従って、特許文献1,2に記載の技術を用いた分類の結果を用いても、所望の撮像画像を探索したり、撮像画像を整理するためのユーザの操作の困難性が充分に低減したとはいい難い。
However, the techniques described in Patent Documents 1 and 2 only classify captured images based on the proximity of distances, and consider the existence of objects such as roads and buildings, and the existence of boundaries between these objects. Not done.
For this reason, it becomes difficult for the user to recognize the correspondence between each group after classification and the map. Therefore, even if the classification results using the techniques described in Patent Documents 1 and 2 are used, the difficulty of the user's operation for searching for a desired captured image or organizing the captured images is sufficiently reduced. Is not good.

ここで、従来の別の技術として、撮像位置から特定される地域名称(国、都道府県、市町村、番地単位の住所名)を属性情報として、撮影画像のデータに付加して記録する技術が存在する。従って、当該従来の別の技術と、特許文献1,2に記載の技術とを組み合わせることにより、地域名称を単位として撮像画像を分類することまでは可能になる。
しかしながら、当該従来の別の技術と、特許文献1,2に記載の技術とを組み合わせたとしても、地域名称とは対応しない領域を単位として撮像画像を分類することはできない。その結果、例えば、地図縮尺や撮像位置の分布の大小に応じて柔軟に撮像画像を分類したり、ラスター地図とベクター地図との差異を考慮して撮像画像の分類することができない。
Here, as another conventional technique, there is a technique in which the area name (country, prefecture, municipality, street address) is identified as attribute information and added to the captured image data for recording. To do. Therefore, by combining the conventional another technique and the techniques described in Patent Documents 1 and 2, it becomes possible to classify the captured images in units of area names.
However, even if another conventional technique and the techniques described in Patent Documents 1 and 2 are combined, captured images cannot be classified in units of areas that do not correspond to area names. As a result, for example, the captured image cannot be classified flexibly according to the map scale or the distribution of the imaging position, or the captured image cannot be classified in consideration of the difference between the raster map and the vector map.

以上まとめると、地域名称とは対応しない領域を単位として複数の撮像画像を地図上で分類したいと要望が挙げられているが、特許文献1,2を含む従来の手法では、当該要望に十分に応えることはできない。このため、当該要望に十分に応えることが可能な手法の実現が求められている。   In summary, there is a desire to classify a plurality of captured images on a map with an area that does not correspond to the area name as a unit, but the conventional methods including Patent Documents 1 and 2 are sufficient to satisfy the request. I can't respond. For this reason, the realization of the technique which can fully respond to the said demand is calculated | required.

本発明は、このような状況に鑑みてなされたものであり、地域名称とは対応しない領域を単位として複数の撮像画像を地図上で分類することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to classify a plurality of captured images on a map in units of areas that do not correspond to area names.

本発明の一態様によると、所定の地図のデータに基づいて、前記地図上で識別表示されるオブジェクトの境界線を特定し、特定された前記境界線で囲まれる領域をグループ領域として、前記地図上の領域を複数のグループ領域に区分する区分手段と、複数の撮像画像のデータを、各々の撮像位置に応じて、前記区分手段に区分された前記複数のグループ領域の何れかに属するように分類する分類手段と、表示対象となる地図範囲を設定する設定手段と、を備え、前記区分手段は、前記地図のうち、前記設定手段により設定された前記地図範囲内の領域を前記複数のグループ領域に区分することを特徴とする画像処理装置を提供する。 According to an aspect of the present invention, based on predetermined map data, a boundary line of an object identified and displayed on the map is specified, and the area surrounded by the specified boundary line is set as a group area, and the map Sorting means for dividing the upper area into a plurality of group areas, and data of a plurality of captured images so as to belong to any one of the plurality of group areas divided into the sorting means according to each imaging position Classification means for classifying; and setting means for setting a map range to be displayed; and the sorting means includes, in the map, an area within the map range set by the setting means as the plurality of groups. An image processing apparatus is provided that is divided into regions .

本発明の一態様によると、上述した本発明の一態様に係る画像処理装置に対応する画像処理方法及びプログラムの各々を提供する。   According to one aspect of the present invention, an image processing method and a program corresponding to the above-described image processing apparatus according to one aspect of the present invention are provided.

本発明によれば、地域名称とは対応しない領域を単位として複数の撮像画像を地図上で分類することができる。   According to the present invention, it is possible to classify a plurality of captured images on a map in units of areas that do not correspond to area names.

本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 地図情報表示処理を実行するための図1の撮像装置の機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the imaging device of FIG. 1 for performing map information display processing. 図2の撮像装置の地図範囲設定部により設定された矩形の地図範囲の一例を示す図である。It is a figure which shows an example of the rectangular map range set by the map range setting part of the imaging device of FIG. 図3の地図範囲内で区分された複数のグループ領域を示す図である。It is a figure which shows the several group area | region divided within the map range of FIG. 図2の撮像装置の画像分類部による分類結果が格納されるテーブルの構造の一例を示す図である。It is a figure which shows an example of the structure of the table in which the classification result by the image classification part of the imaging device of FIG. 2 is stored. 図2の撮像装置の表示部に表示された地図情報画像の一例を示す図である。It is a figure which shows an example of the map information image displayed on the display part of the imaging device of FIG. 図2の撮像装置の表示部に表示された地図情報画像の一例であって、図6とは異なる例を示す図である。It is an example of the map information image displayed on the display part of the imaging device of FIG. 2, Comprising: It is a figure which shows the example different from FIG. 図2の撮像装置が実行する地図情報表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the map information display process which the imaging device of FIG. 2 performs. 図2の撮像装置が実行する地図情報表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the map information display process which the imaging device of FIG. 2 performs.

以下、本発明の一実施形態を図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明に係る画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラにより構成することができる。   FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus according to the present invention. The imaging device 1 can be configured by a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、操作部17と、表示部18と、記憶部19と、通信部20と、GPS(Global Positioning System)部21と、ドライブ22と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an operation unit 17. A display unit 18, a storage unit 19, a communication unit 20, a GPS (Global Positioning System) unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラムに従って各種の処理を実行する。又は、CPU11は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to programs recorded in the ROM 12. Alternatively, the CPU 11 executes various processes according to a program loaded from the storage unit 19 to the RAM 13.
The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.

例えば本実施形態では、後述する図2の撮像画像取得部51乃至表示制御部58の各機能を実現するプログラムが、ROM12や記憶部19に記憶されている。従って、CPU11が、これらのプログラムに従った処理を実行することで、後述する図2の撮像画像取得部51乃至表示制御部58の各機能を実現することができる。   For example, in the present embodiment, programs for realizing the functions of the captured image acquisition unit 51 to the display control unit 58 in FIG. 2 to be described later are stored in the ROM 12 and the storage unit 19. Therefore, when the CPU 11 executes processing according to these programs, each function of the captured image acquisition unit 51 to display control unit 58 of FIG. 2 to be described later can be realized.

CPU11、ROM12、及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、操作部17、表示部18、記憶部19、通信部20、及びGPS部21が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an operation unit 17, a display unit 18, a storage unit 19, a communication unit 20, and a GPS unit 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、一定時間毎に被写体像を光電変換(撮像)して画像信号を蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
なお、以下、撮像部16の出力信号を、「撮像画像のデータ」と呼ぶ。従って、撮像部16からは撮像画像のデータが出力されて、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) a subject image at regular time intervals to accumulate image signals, and sequentially supplies the accumulated image signals to the AFE as analog signals.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. Therefore, captured image data is output from the imaging unit 16 and is appropriately supplied to the CPU 11 and the like.

操作部17は、各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部18は、液晶ディスプレイ等で構成され、各種画像を表示する。
記憶部19は、DRAM(Dynamic Random Access Memory)等で構成され、撮像部16から出力された撮像画像のデータを一時的に記憶する。また、記憶部19は、各種画像処理に必要な各種データ、例えば、画像のデータ、各種フラグの値、閾値等も記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
GPS部21は、GPS(Global Positioning System)用の複数の衛星からGPS信号を受信して、このGPS信号に基づいて撮像装置1の現在位置を示す緯度及び経度の情報(以下、「GPS位置情報」と呼ぶ)を生成する。
The operation unit 17 includes various buttons and the like, and accepts user instruction operations.
The display unit 18 is composed of a liquid crystal display or the like and displays various images.
The storage unit 19 is configured by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores captured image data output from the imaging unit 16. The storage unit 19 also stores various data necessary for various image processing, such as image data, various flag values, threshold values, and the like.
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.
The GPS unit 21 receives GPS signals from a plurality of satellites for GPS (Global Positioning System), and information on latitude and longitude indicating the current position of the imaging device 1 based on the GPS signals (hereinafter referred to as “GPS position information”). ").

入出力インターフェース15にはまた、必要に応じてドライブ22が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像データ等の各種データも、記憶部19と同様に記憶することができる。   A drive 22 is connected to the input / output interface 15 as necessary, and a removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

図2は、地図情報表示処理を実行するための撮像装置1の機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram illustrating a functional configuration of the imaging apparatus 1 for executing the map information display process.

ここで、地図情報表示処理とは、次のような一連の処理をいう。
即ち、撮像装置1は、地図上で識別表示されるオブジェクト(道路や建築物等の構成要素)の境界線を特定し、特定された境界線で囲まれる領域をグループ領域として、地図上の領域を複数のグループ領域に区分する。
撮像装置1は、複数の撮像画像のデータを、各々の撮像位置に応じて、複数のグループ領域の何れかに属するように分類する。
撮像装置1は、地図上の複数のグループ領域に対して、各々に分類された撮像画像に関する情報(以下、「分類情報」と呼ぶ)を重畳した画像のデータを生成する。なお、このような画像を、以下、「地図情報画像」と呼ぶ。
そして、撮像装置1は、地図情報画像を表示部18に表示させる。
このような一連の処理が、地図情報表示処理である。
Here, the map information display process refers to the following series of processes.
In other words, the imaging device 1 identifies a boundary line of an object (a component such as a road or a building) that is identified and displayed on the map, and a region surrounded by the identified boundary line is used as a group region. Is divided into a plurality of group areas.
The imaging apparatus 1 classifies the data of a plurality of captured images so as to belong to any of a plurality of group regions according to each imaging position.
The imaging apparatus 1 generates image data in which information (hereinafter referred to as “classification information”) regarding captured images classified into each group area on a map is superimposed. Hereinafter, such an image is referred to as a “map information image”.
Then, the imaging apparatus 1 displays a map information image on the display unit 18.
Such a series of processes is a map information display process.

図2に示すように、撮像装置1は、地図情報表示処理を実現すべく、上述した撮像部16と、操作部17と、表示部18と、通信部20と、GPS部21と、を備えている。さらに、撮像装置1は、撮像画像取得部51と、地図範囲設定部52と、地図取得部53と、グループ領域区分部54と、画像分類部55と、分類情報生成部56と、地図情報画像生成部57と、表示制御部58と、を備えている。さらにまた、撮像装置1は、地図記憶部61と、撮像画像記憶部62と、を備えている。   As shown in FIG. 2, the imaging device 1 includes the imaging unit 16, the operation unit 17, the display unit 18, the communication unit 20, and the GPS unit 21 described above in order to realize the map information display process. ing. Furthermore, the imaging device 1 includes a captured image acquisition unit 51, a map range setting unit 52, a map acquisition unit 53, a group region classification unit 54, an image classification unit 55, a classification information generation unit 56, and a map information image. A generation unit 57 and a display control unit 58 are provided. Furthermore, the imaging device 1 includes a map storage unit 61 and a captured image storage unit 62.

本実施形態では、撮像画像取得部51乃至表示制御部58の各々は、図1に示す構成のうち、CPU11というハードウェアと、ROM12等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成されている。
また、地図記憶部61及び撮像画像記憶部62は、図1に示す構成のうち、撮像装置1のRAM13若しくは記憶部19、又はリムーバブルメディア31内の一領域として構成されている。
In the present embodiment, each of the captured image acquisition unit 51 to the display control unit 58 is configured as a combination of hardware called the CPU 11 and a program (software) stored in the ROM 12 or the like in the configuration shown in FIG. Yes.
Further, the map storage unit 61 and the captured image storage unit 62 are configured as one area in the RAM 13 or the storage unit 19 of the imaging device 1 or the removable medium 31 in the configuration illustrated in FIG. 1.

撮像画像取得部51は、記録指示操作等の所定のタイミングで、撮像部16から出力された撮像画像のデータを記憶させる。このとき、撮像画像取得部51は、GPS部21から出力されたGPS位置情報を、当該撮像画像の撮像位置を示す情報として、撮像画像のデータと共に撮像画像記憶部62に記憶させる。
より具体的には本実施形態では、撮像画像のデータは、Exif(Exchangeable Image File Format)形式の所定のファイルに含められる。なお、このような撮像画像のデータを含むファイルを、以下、「撮像画像ファイル」と呼ぶ。撮像画像ファイルには、撮像画像のデータの他、当該撮像画像に関する各種メタ情報を含めることが可能である。そこで、本実施形態では、撮像時点のGPS位置情報が、撮像位置を示すメタ情報として撮像画像ファイルに含められる。そして、このような撮像画像ファイルが、撮像画像記憶部62に記憶される。
The captured image acquisition unit 51 stores the captured image data output from the imaging unit 16 at a predetermined timing such as a recording instruction operation. At this time, the captured image acquisition unit 51 stores the GPS position information output from the GPS unit 21 in the captured image storage unit 62 together with the captured image data as information indicating the captured position of the captured image.
More specifically, in the present embodiment, captured image data is included in a predetermined file in an Exif (Exchangeable Image File Format) format. A file including such captured image data is hereinafter referred to as a “captured image file”. The captured image file can include various types of meta information related to the captured image in addition to the captured image data. Therefore, in the present embodiment, the GPS position information at the time of imaging is included in the captured image file as meta information indicating the imaging position. Then, such a captured image file is stored in the captured image storage unit 62.

地図範囲設定部52は、実世界の地理的範囲のうち、表示部18の表示対象となる範囲を、地図範囲として設定する。
地図範囲の形状は、特に限定されないが、本実施形態では説明の簡略上、図3に示すように「矩形」であるとする。
The map range setting unit 52 sets, as a map range, a range to be displayed on the display unit 18 in the real world geographical range.
The shape of the map range is not particularly limited, but in the present embodiment, for simplicity of explanation, it is assumed that it is “rectangular” as shown in FIG.

図3は、地図範囲設定部52により設定された矩形の地図範囲の一例を示している。
図3においては、座標は経度と緯度とで示されている。このため、図3の地図範囲の説明の範囲内では、座標は「(経度、座標)」と表現する。
図3の例では、左上端の座標PLUが(経度N1、緯度E1)であり、右上端の座標PRUが(経度N1、緯度E2)であり、左下端の座標PLDが(経度N2、緯度E1)であり、右下端の座標PRDが(経度N2、緯度E2)である範囲が、地図範囲として設定されている。
なお、オブジェクト71乃至77は、後述する図4の説明に用いるために便宜上図3に描画されているものであって、地図範囲設定部52によって地図範囲が設定された段階では特定されていない場合がある。
FIG. 3 shows an example of a rectangular map range set by the map range setting unit 52.
In FIG. 3, the coordinates are indicated by longitude and latitude. Therefore, the coordinates are expressed as “(longitude, coordinates)” within the range of the description of the map range in FIG. 3.
In the example of FIG. 3, the upper left coordinate PLU is (longitude N1, latitude E1), the upper right coordinate PRU is (longitude N1, latitude E2), and the lower left coordinate PLD is (longitude N2, latitude E1). ) And the range where the coordinate PRD at the lower right corner is (longitude N2, latitude E2) is set as the map range.
Note that the objects 71 to 77 are drawn in FIG. 3 for convenience for use in the description of FIG. 4 described later, and are not specified at the stage where the map range is set by the map range setting unit 52. There is.

ここで、図3から容易にわかることであるが、矩形の地図範囲は、左上端の座標PLU及び右下端の座標PRDの組と、右上端の座標PRU及び左下端の座標PLDの組とのうち、一方の組がわかれば、他方の組を容易に特定することができる。即ち、矩形の地図範囲は、左上端の座標PLU及び右下端の座標PRDの組と、右上端の座標PRU及び左下端の座標PLDの組とのうちの一方の組、換言すると当該矩形内に引かれる2つの対角線のうちの一方の両端の座標の組(以下、「対角線両端座標」と呼ぶ)によって特定することができる。   Here, as can be easily understood from FIG. 3, the rectangular map range is composed of a set of the upper left coordinate PLU and the lower right coordinate PRD, and a set of the upper right coordinate PRU and the lower left coordinate PLD. Of these, if one set is known, the other set can be easily identified. That is, the rectangular map range is one set of the set of the upper left coordinate PLU and the lower right coordinate PRD and the set of the upper right coordinate PRU and the lower left coordinate PLD, in other words, within the rectangle. It can be specified by a set of coordinates at one end of one of the two diagonal lines to be drawn (hereinafter referred to as “diagonal end coordinates”).

従って、矩形の地図範囲の指定手法は、対角線両端座標を特定可能な手法であれば、任意の手法を採用することができる。
本実施形態では、ユーザは、次のような第1及び第2の指定手法のうち所望の指定手法を選択的に用いて、地図範囲を指定することができるものとする。
Therefore, any method can be adopted as the method for specifying the rectangular map range as long as the diagonal end coordinates can be specified.
In the present embodiment, it is assumed that the user can specify a map range by selectively using a desired specification method among the following first and second specification methods.

第1の指定手法とは、ユーザが、操作部17を操作して、対角線両端座標を直接指定する、といった手法である。このような手法を、以下、「直接座標指定手法」と呼ぶ。直接座標指定手法が用いられた場合、地図範囲設定部52は、ユーザにより直接指定された対角線両端座標に基づいて、地図範囲を設定する。
なお、ここでいう対角線両端座標を直接指定するとは、撮像装置1にとって対角線両端座標が直接指定されたと認識できることを意味し、ユーザの操作内容自体は特に限定されない。即ち、ユーザの操作としては、対角線両端座標の緯度及び経度を直接入力するという操作のみならず、ズーム倍率等が多段階に設定されている場合に所望の段階のズーム倍率を選択操作する等、各種各様の操作が含まれる。
The first designation method is a method in which the user operates the operation unit 17 to directly specify the diagonal end point coordinates. Hereinafter, such a method is referred to as a “direct coordinate designation method”. When the direct coordinate designating method is used, the map range setting unit 52 sets the map range based on the diagonal end coordinates directly designated by the user.
Directly designating the diagonal end point coordinates here means that the imaging device 1 can recognize that the diagonal end point coordinates are directly designated, and the user's operation content itself is not particularly limited. That is, as the user's operation, not only the operation of directly inputting the latitude and longitude of the diagonal end coordinates, but when the zoom magnification or the like is set in multiple stages, the zoom magnification of a desired stage is selected and operated, etc. Various operations are included.

一方、第2の指定手法とは、ユーザが、操作部17を操作して、撮像位置の確認等を所望する撮像画像を1枚以上指定する、といった手法である。このような手法を、以下、「確認画像指定手法」と呼ぶ。確認画像指定手法が用いられた場合、地図範囲設定部52は、ユーザにより指定された1以上の撮像画像の撮像位置を取得して、これら1以上の撮像位置の全てを含む範囲を決定し、決定した当該範囲を地図範囲として設定する。
なお、確認画像指定手法が用いられる場合に、ユーザが1枚以上の撮像画像を指定する操作の手法は、特に限定されない。例えば、撮像装置1は、撮像画像記憶部62に記憶されている撮像画像ファイルを示すフォルダを表示部18に表示させ、ユーザは、表示されたフォルダの中から所望のフォルダを指定操作する、といった手法を採用することができる。また例えば、撮像装置1は、撮像画像記憶部62に記憶されている撮像画像ファイルのメタ情報、例えば撮像日時等を表示部18に表示させ、ユーザは、表示されたメタ情報の中から所望のメタ情報を指定操作する、といった手法を採用することができる。
On the other hand, the second designation method is a method in which the user operates the operation unit 17 to designate one or more captured images for which confirmation of the imaging position or the like is desired. Hereinafter, such a method is referred to as a “confirmation image designation method”. When the confirmation image designation method is used, the map range setting unit 52 acquires the imaging positions of one or more captured images designated by the user, determines a range including all of the one or more imaging positions, The determined range is set as a map range.
Note that, when the confirmation image designation method is used, the method of operation by which the user designates one or more captured images is not particularly limited. For example, the imaging device 1 causes the display unit 18 to display a folder indicating the captured image file stored in the captured image storage unit 62, and the user specifies a desired folder from the displayed folders. Techniques can be employed. Further, for example, the imaging apparatus 1 displays meta information of the captured image file stored in the captured image storage unit 62, for example, the imaging date and time on the display unit 18, and the user can select desired meta information from the displayed meta information. It is possible to adopt a technique such as specifying and operating meta information.

図2に戻り、地図取得部53は、地図範囲設定部52により設定された地図範囲を少なくとも含む地図のデータを取得する。
地図のデータの取得先は、特に限定されないが、本実施形態では、原則として、地図記憶部61であるとする。ただし、地図記憶部61に目的の地図のデータが記憶されていない場合には、本実施形態では、地図取得部53は、通信部20を制御して、インターネット等の地図のデータを配信するWebサイトにアクセスして、目的の地図のデータをダウンロードするものとする。なお、このようにしてダウンロードされた地図のデータは、地図記憶部61に記憶される。
Returning to FIG. 2, the map acquisition unit 53 acquires map data including at least the map range set by the map range setting unit 52.
The acquisition destination of the map data is not particularly limited. In the present embodiment, it is assumed that the map storage unit 61 is in principle. However, when the target map data is not stored in the map storage unit 61, in this embodiment, the map acquisition unit 53 controls the communication unit 20 to distribute the map data such as the Internet. Suppose you access the site and download the map data of interest. The map data downloaded in this way is stored in the map storage unit 61.

グループ領域区分部54は、地図取得部53により取得された地図のデータを用いて、当該地図上で、より正確には地図範囲設定部52により設定された地図範囲上で識別表示されるオブジェクト(道路や施設等の構成要素)の境界線を特定する。
そして、グループ領域区分部54は、特定された境界線で囲まれる領域をグループ領域として、地図範囲上の領域を複数のグループ領域に区分する。
The group area classifying unit 54 uses the map data acquired by the map acquiring unit 53 to identify and display objects on the map, more precisely on the map range set by the map range setting unit 52 ( Identify the boundaries of road and facilities).
And the group area | region division part 54 divides | segments the area | region on a map range into a some group area | region using the area | region enclosed by the identified boundary line as a group area | region.

具体的には例えば、上述した図3の地図範囲が設定されている場合には、グループ領域区分部54は、建築物のオブジェクト71乃至76、及び道路のオブジェクト77の境界線を特定する。
この場合、グループ領域区分部54は、図4に示すように、図3の地図範囲上の領域を複数のグループ領域A乃至Kに区分する。即ち、図4は、図3の地図範囲内で区分された複数のグループ領域A乃至Kを示している。
Specifically, for example, when the above-described map range of FIG. 3 is set, the group area classification unit 54 specifies the boundary lines of the building objects 71 to 76 and the road object 77.
In this case, the group area dividing unit 54 divides the area on the map range of FIG. 3 into a plurality of group areas A to K as shown in FIG. That is, FIG. 4 shows a plurality of group areas A to K divided within the map range of FIG.

なお、このようなグループ領域区分部54に適用されるグループ領域の区分の手法は、特に限定されないが、地図のデータの形式に適した手法を採用すると好適である。このため、本実施形態のグループ領域区分部54は、地図のデータの形式が、ベクター地図の形式であるのかラスター地図の形式であるのかによって、グループ領域の区分の手法を選択的に切り替えて用いるようにしている。なお、この段落の内容のさらなる詳細については、図9のステップS9乃至S16の処理として後述する。   The group area classification method applied to the group area classification unit 54 is not particularly limited, but it is preferable to employ a technique suitable for the format of the map data. For this reason, the group area classification unit 54 of the present embodiment selectively switches the group area classification method depending on whether the map data format is a vector map format or a raster map format. Like that. Further details of the contents of this paragraph will be described later as the processing of steps S9 to S16 in FIG.

画像分類部55は、撮像画像記憶部62に記憶されている複数の撮像画像のデータを、各々の撮像位置に応じて、複数のグループ領域の何れかに分類する。
ここで、分類対象の撮像画像のデータは、その撮像位置が地図範囲内に存在するものである。従って、地図範囲の指定手法として、確認画像指定手法が採用されている場合には、ユーザが指定した1以上の撮像画像の全てのデータが分類対象になる。これに対して、直接座標指定手法が採用されている場合には、画像分類部55は、撮像画像記憶部62に記憶されている複数の撮像画像のデータの中から、その撮像位置が地図範囲内に存在するものを分類対象として選定する。
The image classification unit 55 classifies the data of a plurality of captured images stored in the captured image storage unit 62 into any of a plurality of group regions according to each imaging position.
Here, the data of the picked-up image to be classified has its image pickup position within the map range. Therefore, when the confirmation image designation method is adopted as the map range designation method, all data of one or more captured images designated by the user are classified. On the other hand, when the direct coordinate designating method is adopted, the image classification unit 55 determines that the imaging position is a map range from the data of a plurality of captured images stored in the captured image storage unit 62. Those that exist are selected for classification.

具体的には本実施形態では、画像分類部55は、図5に示すようテーブルを生成し、複数の撮像画像のデータの各分類結果を当該テーブルに格納していく。
なお、テーブル自体の記憶場所は、特に限定されず、図1に示す構成のうち、撮像装置1のRAM13や記憶部19であってもよいし、或いはまたリムーバブルメディア31であってもよい。
図5は、画像分類部55による分類結果が格納されるテーブルの構造の一例を示している。
Specifically, in the present embodiment, the image classification unit 55 generates a table as shown in FIG. 5 and stores each classification result of data of a plurality of captured images in the table.
The storage location of the table itself is not particularly limited, and may be the RAM 13 or the storage unit 19 of the imaging apparatus 1 or the removable medium 31 in the configuration shown in FIG.
FIG. 5 shows an example of the structure of a table in which the classification result by the image classification unit 55 is stored.

本実施形態において、テーブルは行列構造を有しているため、以下、図5中横方向の項目の集合体を「行」と称し、同図中縦方向の項目の集合体を「列」と称する。所定の行には、所定の撮像画像ファイルにデータとして含まれる撮像画像が対応付けられている。即ち、所定の行には、当該行に対応する撮像画像についての、「ファイル名」、「X座標」、「Y座標」、及び「グループ領域」という項目がそれぞれ配置されている。
所定の行の「ファイル名」には、当該行に対応する撮像画像のデータが含まれる撮像画像ファイルの名称が格納される。
所定の行の「X座標」には、当該行に対応する撮像画像の撮像位置の表示部18の座標のうち、X座標が格納される。所定の行の「Y座標」には、当該行に対応する撮像画像の撮像位置の表示部18の座標のうち、Y座標が格納される。
例えば本実施形態では、表示部18の座標系は、有効画素のうち左上端の画素の位置を原点(0,0)とし、水平右方向の軸をX軸として、垂直下方向の軸をY軸とするように構築されている。そして、表示部18の水平方向の画素数は640画素とされ、垂直方向の画素数は480画素とされている。このため、「X座標」には、表示部18のX座標が取り得る0乃至639の範囲内の値が格納され、「Y座標」には、表示部18のY座標が取り得る0乃至479の範囲内の値が格納される。
所定の行の「グループ領域」には、当該行に対応する撮像画像の分類結果、即ち、当該撮像画像のデータが分類されたグループ領域の略称が格納されている。図5の例では、図4に示すグループ領域A乃至Kのうち、撮像位置が含まれるグループ領域の略称(A乃至Kのうちの何れかのアルファベット)が、「グループ領域」に格納される。
In the present embodiment, since the table has a matrix structure, the collection of items in the horizontal direction in FIG. 5 is hereinafter referred to as “row”, and the collection of items in the vertical direction in FIG. Called. A predetermined line is associated with a captured image included as data in a predetermined captured image file. That is, items of “file name”, “X coordinate”, “Y coordinate”, and “group region” for the captured image corresponding to the row are arranged in the predetermined row, respectively.
In the “file name” of a predetermined line, the name of the captured image file including the captured image data corresponding to the line is stored.
In the “X coordinate” of the predetermined row, the X coordinate is stored among the coordinates of the imaging unit of the imaging position of the captured image corresponding to the row. In the “Y coordinate” of a predetermined row, the Y coordinate is stored among the coordinates of the imaging unit of the imaging position of the captured image corresponding to the row.
For example, in the present embodiment, the coordinate system of the display unit 18 uses the position of the upper left pixel among the effective pixels as the origin (0, 0), the horizontal right axis as the X axis, and the vertical lower axis as the Y axis. It is built to be an axis. The number of pixels in the horizontal direction of the display unit 18 is 640 pixels, and the number of pixels in the vertical direction is 480 pixels. Therefore, “X coordinate” stores a value within the range of 0 to 639 that the X coordinate of the display unit 18 can take, and “Y coordinate” stores 0 to 479 that the Y coordinate of the display unit 18 can take. A value within the range of is stored.
The “group area” of a predetermined row stores the classification result of the captured image corresponding to the row, that is, the abbreviation of the group area into which the data of the captured image is classified. In the example of FIG. 5, among the group areas A to K illustrated in FIG. 4, the abbreviation of the group area including the imaging position (any alphabet of A to K) is stored in the “group area”.

具体的には例えば、1行目に着目すると、「ファイル名」が「file001」の撮像画像ファイルについては、撮像画像の撮像位置の表示部18の「X座標」は「80」であり、その「Y座標」は「145」であることを示している。そして、その結果として、当該撮像画像のデータの「グループ領域」は、グループ領域「B」に分類されたことを示している。   Specifically, for example, focusing on the first line, for the captured image file with “file001” being “file001”, the “X coordinate” of the captured image display position display unit 18 is “80”. The “Y coordinate” indicates “145”. As a result, the “group region” of the captured image data is classified into the group region “B”.

図2に戻り、分類情報生成部56は、画像分類部55の分類結果に基づいて、各種各様の分類情報を生成する。
この場合、本実施形態では、各分類情報は、表示部18に表示させるシンボル等のデータ(以下、「シンボルデータ」と呼ぶ)や、表示部18の表示位置の座標を示すデータ(以下、「座標データ」と呼ぶ)等で構成されるものとする。即ち、本明細書において、分類情報を地図の画像の上に重畳して表示すると表現した場合、その表現は、当該分類情報に含まれるシンボルデータにより表現されるシンボル等を、地図の画像のうち、当該分類情報に含まれる座標データにより示される座標の位置に重畳して表示することを意味する。
Returning to FIG. 2, the classification information generation unit 56 generates various types of classification information based on the classification result of the image classification unit 55.
In this case, in the present embodiment, each classification information includes data such as a symbol to be displayed on the display unit 18 (hereinafter referred to as “symbol data”) and data indicating the coordinates of the display position of the display unit 18 (hereinafter, “ And so on). That is, in this specification, when it is expressed that the classification information is displayed by being superimposed on the map image, the expression represents a symbol or the like represented by the symbol data included in the classification information in the map image. This means that it is displayed superimposed on the coordinate position indicated by the coordinate data included in the classification information.

従って、分類情報は、地図の画像に重畳して表示可能なものであれば足り、その形態、その種類、その個数等は特に限定されない。具体的には本実施形態では、次のような3種類の分類情報が生成されるものとする。   Therefore, the classification information is sufficient if it can be displayed superimposed on the map image, and its form, type, number, etc. are not particularly limited. Specifically, in this embodiment, it is assumed that the following three types of classification information are generated.

本実施形態で生成される1種類目の分類情報は、各々の撮像画像単位毎に生成される分類情報であって、各々の撮像位置を示す分類情報であり、以下、「撮像位置情報」と呼ぶ。
即ち、撮像位置情報は、画像分類部55による分類対象となった撮像画像のデータ毎に生成され、●(黒丸印)のシンボルデータと、表示部18における表示座標を示すデータとから構成されている。ここで、表示座標は、撮像画像の撮像位置を示す表示部18の座標であるとする。
具体的例として図5のテーブルに基づいて、「ファイル名」が「fileα」の撮像画像ファイル毎に、撮像位置情報が生成されるものとする。ここで、αは、正確には001乃至010の整数値であるが、説明の便宜上0乃至10であるものとする。また、「ファイル名」が「fileα」の撮像画像ファイルに対応する撮像位置情報を、以下符号を付して、「撮像位置情報Sk」と呼ぶ。この場合、図5の1乃至10行目の各々に対応する撮像画像ファイル(file0乃至10の各々)に対して、撮像位置情報S1乃至S10の各々が生成されることになる(後述する図6参照)。
The first type of classification information generated in the present embodiment is classification information generated for each captured image unit, and is classification information indicating each imaging position, and hereinafter referred to as “imaging position information”. Call.
That is, the imaging position information is generated for each piece of captured image data to be classified by the image classification unit 55, and is composed of symbol data of ● (black circles) and data indicating display coordinates on the display unit 18. Yes. Here, it is assumed that the display coordinates are coordinates of the display unit 18 indicating the imaging position of the captured image.
As a specific example, imaging position information is generated for each captured image file whose “file name” is “fileα” based on the table of FIG. Here, although α is an integer value from 001 to 010, it is assumed to be 0 to 10 for convenience of explanation. In addition, imaging position information corresponding to a captured image file whose “file name” is “fileα” is hereinafter referred to as “imaging position information Sk” with reference numerals. In this case, each of the imaging position information S1 to S10 is generated for the captured image file (each of files 0 to 10) corresponding to each of the 1st to 10th lines in FIG. 5 (FIG. 6 to be described later). reference).

本実施形態で生成される2種類目の分類情報は、所定のグループ領域に撮像画像が1枚含まれていることを示す分類情報であり、以下、「画像1枚情報」と呼ぶ。
即ち、画像1枚情報は、グループ領域区分部54によって区分された複数のグループ領域のうち、1枚の撮像画像を含むグループ領域に対して生成され、●(黒丸印)のシンボルデータと、表示部18における表示座標を示すデータとから構成されている。
ここで、表示座標は、当該グループ領域内の表示部18の座標であれば足り、例えばグループ領域内の中心の座標でもよい。ただし、本実施形態では、表示座標として、当該グループ領域に含まれる1枚の撮像画像の撮像位置を示す表示部18の座標が採用されているものとする。
ここで、具体例として図5のテーブルに基づいて画像1枚情報が生成されるものとして、βが、グループ領域の略称A乃至Kのうちの何れかのアルファベットを示すものとする。この場合、グループ領域βに対応する画像1枚情報を、以下符号を付して、「画像1枚情報Sβ」と呼ぶ。図5のテーブルによれば、1枚の撮像画像を含むグループ領域は、グループ領域I及びHである。このため、グループ領域I及びHの各々に対して、画像1枚情報SI及びSHが生成されることになる(後述する図7参照)。
The second type of classification information generated in the present embodiment is classification information indicating that one captured image is included in a predetermined group area, and is hereinafter referred to as “single image information”.
That is, single image information is generated for a group region including one captured image among a plurality of group regions divided by the group region dividing unit 54, and symbol data of ● (black circle) and display And data indicating display coordinates in the unit 18.
Here, the display coordinates need only be the coordinates of the display unit 18 in the group area, and may be, for example, the coordinates of the center in the group area. However, in the present embodiment, it is assumed that the coordinates of the display unit 18 indicating the imaging position of one captured image included in the group area are adopted as the display coordinates.
Here, as a specific example, assuming that one piece of image information is generated based on the table of FIG. 5, β indicates any alphabet among the abbreviations A to K of the group area. In this case, the single image information corresponding to the group region β is hereinafter referred to as “single image information Sβ” with reference numerals. According to the table in FIG. 5, group areas including one captured image are group areas I and H. Therefore, single image information SI and SH are generated for each of the group areas I and H (see FIG. 7 described later).

本実施形態で生成される3種類目の分類情報は、所定のグループ領域に撮像画像が複数枚含まれていることを示す分類情報であり、以下、「画像複数枚情報」と呼ぶ。
即ち、画像複数枚情報は、グループ領域区分部54によって区分された複数のグループ領域のうち、複数枚の撮像画像を含むグループ領域に対して生成され、★(黒星印)のシンボルデータと、表示部18における表示座標を示すデータとから構成されている。
ここで、表示座標は、当該グループ領域内の表示部18の座標であれば足り、例えばグループ領域内の中心の座標でもよい。ただし、本実施形態では、表示座標として、当該グループ領域に含まれる複数の撮像画像のうち代表する1枚の撮像位置を示す表示部18の座標が採用されているものとする。
ここで、具体例として図5のテーブルに基づいて画像複数枚情報が生成されるものとして、γが、グループ領域の略称A乃至Kのうちの何れかのアルファベットを示すものとする。この場合、グループ領域γに対応する画像複数枚情報を、以下符号を付して、「画像複数枚情報Sγ」と呼ぶ。図5のテーブルによれば、複数枚の撮像画像を含むグループ領域は、グループ領域B、C、及びKである。このため、グループ領域B、C、及びKの各々に対して、画像複数枚情報SB、SC、及びSKが生成されることになる(後述する図7参照)。
The third type of classification information generated in the present embodiment is classification information indicating that a plurality of captured images are included in a predetermined group area, and is hereinafter referred to as “multiple image information”.
That is, the multiple image information is generated for a group region including a plurality of captured images among the plurality of group regions divided by the group region dividing unit 54, and symbol data of ★ (black star) and display And data indicating display coordinates in the unit 18.
Here, the display coordinates need only be the coordinates of the display unit 18 in the group area, and may be, for example, the coordinates of the center in the group area. However, in the present embodiment, it is assumed that the coordinates of the display unit 18 indicating one representative imaging position among a plurality of captured images included in the group region are employed as the display coordinates.
Here, as a specific example, it is assumed that information on a plurality of images is generated based on the table of FIG. In this case, the plurality of pieces of image information corresponding to the group region γ will be referred to as “multiple pieces of image information Sγ” with reference numerals. According to the table in FIG. 5, group areas including a plurality of captured images are group areas B, C, and K. Therefore, multiple image information SB, SC, and SK are generated for each of the group areas B, C, and K (see FIG. 7 described later).

このようにして分類情報生成部56により生成された分類情報は、地図情報画像生成部57に供給される。また、地図取得部53により取得されて、グループ領域区分部54によって1以上のグループ領域に区分された地図のデータも、地図情報画像生成部57に供給される。
そこで、地図情報画像生成部57は、当該地図上の複数のグループ領域に対して当該分類情報を重畳した画像、即ち地図情報画像のデータを生成して、表示制御部58に供給する。
The classification information generated by the classification information generation unit 56 in this way is supplied to the map information image generation unit 57. Map data acquired by the map acquisition unit 53 and divided into one or more group areas by the group area classification unit 54 is also supplied to the map information image generation unit 57.
Therefore, the map information image generation unit 57 generates an image in which the classification information is superimposed on a plurality of group areas on the map, that is, data of the map information image, and supplies the generated data to the display control unit 58.

表示制御部58は、地図情報画像生成部57から供給されたデータにより表現される地図情報画像を表示部18に表示させる。   The display control unit 58 causes the display unit 18 to display a map information image expressed by the data supplied from the map information image generation unit 57.

図6及び図7は、表示部18に表示された地図情報画像の各例を示している。
図6の地図情報画像81は、上述した図3に示す地図の上に、上述した撮像位置情報S1乃至S10の各々が重畳された画像である。
このような地図情報画像81等、全ての撮像画像の各々に対応する各撮像位置情報が重畳された地図情報画像をまとめて、以下、「全地点表示画像」と呼ぶ。
ユーザは、全地点表示画像を表示部18に表示させる選択をすることで、地図範囲に含まれる全ての撮像画像の各々の撮像位置の分布状態を視認することができる。
一方、図7の地図情報画像82は、上述した図3に示す地図の上に、上述した画像1枚情報SI及びSH、並びに画像複数枚情報SB、SC、及びSKの各々が重畳された画像である。
このような地図情報画像82等、画像1枚情報又は画像複数枚情報が重畳された地図情報画像をまとめて、以下、「グループ表示画像」と呼ぶ。
ユーザは、グループ表示画像を表示部18に表示させる選択をすることで、地図範囲に含まれる撮像画像の分布状態を、複数のグループ領域毎の観点で視認することができる。
6 and 7 show examples of the map information image displayed on the display unit 18.
A map information image 81 in FIG. 6 is an image in which each of the imaging position information S1 to S10 described above is superimposed on the map shown in FIG. 3 described above.
Such map information images 81 and the like are collectively referred to as “all-point display images” hereinafter.
The user can visually recognize the distribution state of the imaging positions of all the captured images included in the map range by selecting to display the all-point display image on the display unit 18.
On the other hand, the map information image 82 in FIG. 7 is an image in which each of the above-described single image information SI and SH and multiple image information SB, SC, and SK is superimposed on the map shown in FIG. It is.
Such map information images 82 and the like are collectively referred to as “group display images” hereinafter.
The user can visually recognize the distribution state of the captured image included in the map range from the viewpoint of each of the plurality of group areas by selecting to display the group display image on the display unit 18.

次に、図8及び図9を参照して、図2の撮像装置1が実行する地図情報表示処理につて説明する。
図8及び図9は、地図情報表示処理の流れを説明するフローチャートである。
Next, map information display processing executed by the imaging device 1 in FIG. 2 will be described with reference to FIGS. 8 and 9.
8 and 9 are flowcharts for explaining the flow of the map information display process.

地図情報表示処理は、例えば図2は図示しないが、ユーザが地図範囲を指示する操作を操作部17に対して行った場合、その操作を契機として開始される。即ち、次のような処理が実行される。   Although the map information display process is not illustrated in FIG. 2, for example, when the user performs an operation for instructing the map range with respect to the operation unit 17, the map information display process is started as a trigger. That is, the following processing is executed.

図8のステップS1において、地図範囲設定部52は、直接座標指定手法で地図範囲が指定されたか否かを判定する。   In step S <b> 1 of FIG. 8, the map range setting unit 52 determines whether or not the map range is specified by the direct coordinate specification method.

ユーザが操作部17を操作して直接座標指定手法で地図範囲を指定した場合、即ち、対角線両端座標が指定された場合、ステップS1においてYESであると判定されて、処理はステップS2に進む。
ステップS2において、地図範囲設定部52は、指定された対角線両端座標に基づいて地図範囲を設定する。
When the user operates the operation unit 17 to specify the map range by the direct coordinate specification method, that is, when the diagonal end coordinates are specified, it is determined as YES in Step S1, and the process proceeds to Step S2.
In step S2, the map range setting unit 52 sets a map range based on the designated diagonal end point coordinates.

これに対して、ユーザが操作部17を操作して確認画像指定手法で地図範囲を指定した場合、即ち、確認表示の対象として1以上の撮像画像が指定された場合、ステップS1においてNOであると判定されて、処理はステップS3に進む。
ステップS3において、地図範囲設定部52は、確認表示の対象として指示された1以上の撮像画像を選択する。なお、図2には図示しないが、選択対象は、撮像画像記憶部62にデータとして記憶されている撮像画像である。
ステップS4において、地図範囲設定部52は、ステップS3の処理で選択された1以上の撮像画像の撮像位置の全てを含む範囲を、地図範囲として設定する。
On the other hand, when the user operates the operation unit 17 to specify the map range by the confirmation image specifying method, that is, when one or more captured images are specified as the target of the confirmation display, NO is determined in step S1. And the process proceeds to step S3.
In step S <b> 3, the map range setting unit 52 selects one or more captured images instructed as a target for confirmation display. Although not shown in FIG. 2, the selection target is a captured image stored as data in the captured image storage unit 62.
In step S4, the map range setting unit 52 sets a range including all of the imaging positions of one or more captured images selected in the process of step S3 as a map range.

このようにして、ステップS2又はS4の処理で地図範囲が設定されると、処理はステップS5に進む。
ステップS5において、地図取得部53は、指定された地図範囲をカバーする地図のデータが地図記憶部61に記憶されているか否かを判定する。
In this way, when the map range is set in the process of step S2 or S4, the process proceeds to step S5.
In step S <b> 5, the map acquisition unit 53 determines whether map data that covers the specified map range is stored in the map storage unit 61.

指定された地図範囲をカバーする地図のデータが地図記憶部61に記憶されている場合、ステップS5においてYESであると判定される。すると、当該地図のデータが地図取得部53によって地図記憶部61から読み出されて、グループ領域区分部54に供給される。これにより、処理はステップS9に進む。ただし、ステップS9以降の処理については後述する。   When the map data covering the designated map range is stored in the map storage unit 61, it is determined as YES in Step S5. Then, the map data is read from the map storage unit 61 by the map acquisition unit 53 and is supplied to the group region sorting unit 54. Thereby, a process progresses to step S9. However, the processing after step S9 will be described later.

これに対して、指定された地図範囲をカバーする地図のデータが地図記憶部61に記憶されていない場合、ステップS5においてNOであると判定されて、処理はステップS6に進む。
ステップS6において、地図取得部53は、通信部20を制御して、地図のデータの配信サイトにアクセス可能か否かを判定する。
地図のデータの配信サイトにアクセス不能な場合、地図取得部53は、ステップS6においてNOであると判定し、ステップS7において、図2には図示しないが表示制御部58を制御して、地図のデータが無い旨のメッセージを表示部18に表示させる。その後、処理はステップS1に戻され、それ以降の処理が繰り返される。即ち、当該メッセージを視認したユーザは、操作部17を操作して別の地図範囲を指定し、当該指定を受けて、ステップS1以降の処理が繰り返し実行される。
これに対して、地図のデータの配信サイトにアクセス可能な場合、地図取得部53は、ステップS6においてYESであると判定し、ステップS8において、指定された地図範囲をカバーする地図のデータをダウンロードする。なお、ダウンロードされた地図のデータは、グループ領域区分部54に供給されると共に地図記憶部61に記憶される。
On the other hand, when the map data covering the designated map range is not stored in the map storage unit 61, it is determined as NO in Step S5, and the process proceeds to Step S6.
In step S6, the map acquisition unit 53 controls the communication unit 20 to determine whether the map data distribution site is accessible.
If the map data distribution site is not accessible, the map acquisition unit 53 determines NO in step S6, and in step S7 controls the display control unit 58 (not shown in FIG. 2) to A message indicating that there is no data is displayed on the display unit 18. Thereafter, the process returns to step S1, and the subsequent processes are repeated. That is, the user who has visually recognized the message operates the operation unit 17 to specify another map range, receives the specification, and repeatedly executes the processing from step S1.
On the other hand, when the map data distribution site is accessible, the map acquisition unit 53 determines YES in step S6, and downloads map data covering the specified map range in step S8. To do. The downloaded map data is supplied to the group area sorting unit 54 and stored in the map storage unit 61.

このようなステップS8の処理が実行された場合又は、上述したステップS5の処理でYESであると判定された場合、処理は図9のステップS9に進む。   When the process of step S8 is executed or when it is determined YES in the process of step S5 described above, the process proceeds to step S9 of FIG.

ステップS9において、グループ領域区分部54は、地図のデータの形式はベクター地図であるか否かを判定する。
本実施形態では、地図のデータの形式としては、上述したように、ベクター地図とラスター地図とが採用されている。
ベクター地図とは、地図の中で道路や施設などのオブジェクトに対応する表示用のデータが、地図の他の要素を表す表示用のデータから予め分離されている地図をいう。さらに、ベクター地図の各オブジェクトに対応する表示用のデータは有向線分のデータ、又はベクトルデータの集合体で構成され、道幅や規模等に対応するオブジェクトに関連する属性情報が付加されている。
一方、ラスター地図とは、地図の中で道路や施設等のオブジェクトに対応する表示用のデータが、地図の他の要素を表す表示用のデータから予め分離されておらず、表示用のデータを1以上の枚数の地図の画像を表すデータで構成している地図をいう。
In step S9, the group region classification unit 54 determines whether or not the map data format is a vector map.
In the present embodiment, as described above, a vector map and a raster map are employed as the map data format.
A vector map is a map in which display data corresponding to objects such as roads and facilities in the map is separated in advance from display data representing other elements of the map. Furthermore, the display data corresponding to each object of the vector map is composed of directed line segment data or a collection of vector data, and attribute information related to the object corresponding to the road width, scale, etc. is added. .
On the other hand, a raster map means that display data corresponding to objects such as roads and facilities in the map is not separated in advance from display data representing other elements of the map. A map composed of data representing one or more map images.

地図のデータの形式がベクター地図である場合、ステップS9においてYESであると判定されて、処理はステップS10に進む。
ステップS10において、グループ領域区分部54は、ベクター地図のデータに基づいて、指定された地図範囲に応じて表示すべき道路や施設を選択する。即ち、指定された地図範囲が狭いほど、狭い道路や小さい施設(建築物等)まで表示されるため、これらの狭い道路や小さい施設まで選択される。
このベクター地図による表示処理は一般的な技術なので詳細な説明は省略するが、グループ領域区分部54は、例えば、各道路や施設に付加されている道幅や規模を示す属性情報に基づいて、地図範囲に応じた表示対象オブジェクトの選択を行う。
ステップS11において、グループ領域区分部54は、図2には図示しないが表示制御部58を制御して、ベクター地図のデータに基づいて、指定された地図範囲の地図を表示部18に表示させ、当該地図上に、ステップS10の処理で選択された道路や施設を表示させる。
ステップS12において、グループ領域区分部54は、ベクター地図のデータに基づいて、ステップS10の処理で選択された道路や施設(それらの境界線)で囲まれる各領域を、グループ領域に設定する。
このように、ベクター地図の場合は、地図範囲に応じて表示対象となる道路や施設を変化させているので、グループ領域を区分するための道路や施設を、表示対象となる道路や施設と同一にすることで、地図表示に応じてグループ領域の区分をスムーズに変化させることが可能になる。しかしながら、必ずしも、表示対象となる道路や施設と、グループ領域を区分するための道路や施設とを同一にする必要は特に無い。
If the map data format is a vector map, it is determined as YES in step S9, and the process proceeds to step S10.
In step S10, the group area classification unit 54 selects roads and facilities to be displayed according to the specified map range based on the vector map data. That is, as the specified map range is narrower, narrow roads and small facilities (buildings, etc.) are displayed, and thus these narrow roads and small facilities are selected.
Since the display process using the vector map is a general technique, a detailed description thereof will be omitted. However, the group area classification unit 54, for example, based on attribute information indicating the road width and scale added to each road or facility, The display target object is selected according to the range.
In step S11, the group area sorting unit 54 controls the display control unit 58 (not shown in FIG. 2) to display a map in the designated map range on the display unit 18 based on the vector map data. On the map, the road and facility selected in the process of step S10 are displayed.
In step S12, the group area classification unit 54 sets each area surrounded by the roads and facilities (the boundaries thereof) selected in the process of step S10 as a group area based on the vector map data.
Thus, in the case of a vector map, the roads and facilities to be displayed are changed according to the map range, so the roads and facilities for classifying the group area are the same as the roads and facilities to be displayed. By doing so, it becomes possible to change the division of the group area smoothly according to the map display. However, it is not always necessary to make the roads and facilities to be displayed the same as the roads and facilities for dividing the group area.

このように、地図のデータの形式がベクター地図である場合、ステップS9においてYESであると判定されて、上述したステップS10乃至S12の処理が実行されることによって、グループ領域が設定される。
これに対して、地図のデータの形式がラスター地図である場合、ステップS9においてNOであると判定されて、次のようなステップS13乃至S16の処理が実行されることによって、グループ領域が設定される。
Thus, when the format of the map data is a vector map, it is determined as YES in step S9, and the group area is set by executing the processes of steps S10 to S12 described above.
On the other hand, when the map data format is a raster map, it is determined as NO in step S9, and the group area is set by executing the following processes in steps S13 to S16. The

即ち、ステップS13において、グループ領域区分部54は、図2には図示しないが表示制御部58を制御して、ラスター地図のデータに基づいて、指定された地図範囲の地図を表示部18に表示させる。
ステップS14において、グループ領域区分部54は、指定された地図範囲に応じて、後述するステップS17の画像認識処理により抽出すべき道路の太さや施設の大きさを設定する。即ち、指定された地図範囲が狭いほど、狭い道路や小さい施設まで抽出されるため、これらの狭い道路を示す太さや小さい施設を示す大きさが設定される。
ステップS15において、グループ領域区分部54は、ステップS14の処理で設定された抽出条件に応じた画像認識処理によって地図上の道路や施設を抽出する。即ち、ステップS14の処理で設定された抽出条件とは、抽出すべき道路の太さや施設の大きさを意味する。従って、ラスター地図のデータに対して画像認識処理が施されることによって、抽出すべき太さ以上の道路に対応する領域のデータや、抽出すべき大きさ以上の施設に対応する領域のデータが抽出される。
ステップS16において、グループ領域区分部54は、ステップS15の処理で抽出された道路や施設(それらの境界線)で囲まれる各領域を、グループ領域に設定する。
即ち、ベクター地図のように、道路の道幅や施設の規模を示す情報が付加されていない場合であっても、地図範囲に応じた道幅や規模の道路や施設を境界線としてグループ領域を設定することが可能となる。
That is, in step S13, the group area sorting unit 54 controls the display control unit 58 (not shown in FIG. 2), and displays a map in the specified map range on the display unit 18 based on the raster map data. Let
In step S14, the group area classification unit 54 sets the thickness of the road and the size of the facility to be extracted by the image recognition process in step S17 described later, according to the designated map range. That is, as the specified map range is narrower, narrower roads and smaller facilities are extracted, so the thickness indicating these narrow roads and the size indicating the smaller facilities are set.
In step S15, the group area sorting unit 54 extracts roads and facilities on the map by image recognition processing according to the extraction conditions set in step S14. That is, the extraction condition set in the process of step S14 means the thickness of the road to be extracted and the size of the facility. Therefore, by performing an image recognition process on the raster map data, data on a region corresponding to a road having a thickness larger than that to be extracted or data on a region corresponding to a facility larger than a size to be extracted. Extracted.
In step S <b> 16, the group area sorting unit 54 sets each area surrounded by the roads and facilities (the boundaries thereof) extracted in the process of step S <b> 15 as a group area.
That is, even when information indicating road width and facility size is not added as in a vector map, a group region is set with roads and facilities of road width and facility corresponding to the map range as boundaries. It becomes possible.

このようにして、地図のデータの形式がラスター地図である場合にはステップS13乃至S16の処理が実行されることによって、グループ領域が設定される。一方、上述したように、地図のデータの形式がベクター地図である場合にはステップS10乃至S12の処理が実行されて、グループ領域が設定される。何れにしてもグループ領域が設定されると、処理はステップS17に進む。   In this way, when the map data format is a raster map, the group region is set by executing the processing of steps S13 to S16. On the other hand, as described above, when the map data format is a vector map, the processing of steps S10 to S12 is executed to set the group area. In any case, when the group area is set, the process proceeds to step S17.

ステップS17において、画像分類部55は、撮像画像記憶部62に記憶されている複数の撮像画像のデータを、各々の撮像位置に応じて、複数のグループ領域の何れかに分類する。   In step S <b> 17, the image classification unit 55 classifies the data of the plurality of captured images stored in the captured image storage unit 62 into any of a plurality of group regions according to each imaging position.

ここで、図8及び図9の地図情報表示処理では、図7の地図情報画像82にように、グループ表示画像が表示部18に表示されるものとする。
このため、分類情報生成部56は、画像分類部55の分類結果に基づいて、複数のグループ領域毎に、画像1枚情報又は画像複数枚情報を生成する。
なお、画像1枚情報又は画像複数枚情報を示すシンボル、即ち、地図に重畳されて表示されるシンボルは、グループ領域に属する1以上の撮像画像を代表して示すシンボルであるため、以下、「代表シンボル」と呼ぶ。
即ち、複数のグループ領域毎に、●(黒丸印)を代表シンボルとする画像1枚情報、又は、★(黒星印)を代表シンボルとする画像複数枚情報が生成される。
これにより、処理はステップS17からステップS18に進む。
Here, in the map information display process of FIGS. 8 and 9, it is assumed that the group display image is displayed on the display unit 18 as the map information image 82 of FIG.
Therefore, the classification information generation unit 56 generates single image information or multiple image information for each of a plurality of group areas based on the classification result of the image classification unit 55.
Note that a symbol indicating single image information or multiple image information, that is, a symbol superimposed and displayed on a map is a symbol representative of one or more captured images belonging to a group area. This is called a “representative symbol”.
That is, for each of a plurality of group regions, single-image information having a black circle symbol as a representative symbol or multiple-image information having a black symbol as a representative symbol is generated.
Accordingly, the process proceeds from step S17 to step S18.

ステップS18において、地図情報画像生成部57は、撮像画像の存在する各グループ領域について、含まれる撮像画像の数に応じた所定の代表シンボルを、そのグループ領域内に含む地図情報画像、即ち、グループ表示画像のデータを生成する。そして、地図情報画像生成部57は、表示制御部58を制御して、生成したデータに対応する当該グループ表示画像を表示部18に表示させる。即ち、図7の地図情報画像82等が表示部18に表示される。   In step S18, the map information image generation unit 57 includes, for each group region in which the captured image exists, a map information image that includes a predetermined representative symbol corresponding to the number of captured images included in the group region, that is, a group. Display image data is generated. Then, the map information image generation unit 57 controls the display control unit 58 to display the group display image corresponding to the generated data on the display unit 18. That is, the map information image 82 and the like in FIG. 7 are displayed on the display unit 18.

ここで、当該グループ表示画像を視認したユーザは、操作部17を操作することによって、複数の代表シンボルのうち所望の1つを選択することができる。
ステップS19において、表示制御部58は、図2には図示しないが、このような代表シンボルの選択の操作があったか否かを判定する。
Here, the user who has visually recognized the group display image can select a desired one of the plurality of representative symbols by operating the operation unit 17.
In step S19, the display control unit 58 determines whether or not there has been such a representative symbol selection operation, which is not shown in FIG.

代表シンボルの選択の操作があった場合、ステップS19においてYESであると判定されて、処理はステップS20に進む。
ステップS20において、表示制御部58は、図2には図示しないが、選択された代表シンボルに対応するグループ領域内の1以上の撮像画像を一覧表示する。
即ち、本実施形態では、撮像画像のデータは、撮像画像ファイルに含められている。当該撮像画像ファイルは、Exif形式であるため、撮像画像のサムネイル画像のデータも含められている。このため、図2には図示はしないが、選択された代表シンボルに対応するグループ領域内の1以上の撮像画像のサムネイル画像のデータが取得され、これらのデータに基づいて、1以上の撮像画像の一覧表示が行われる。
これにより、処理はステップS21に進む。ただし、ステップS21以降の処理については後述する。
If there is an operation for selecting a representative symbol, it is determined as YES in Step S19, and the process proceeds to Step S20.
In step S20, the display control unit 58 displays a list of one or more captured images in the group area corresponding to the selected representative symbol (not shown in FIG. 2).
That is, in the present embodiment, the captured image data is included in the captured image file. Since the captured image file is in the Exif format, the thumbnail image data of the captured image is also included. Therefore, although not shown in FIG. 2, thumbnail image data of one or more captured images in the group area corresponding to the selected representative symbol is acquired, and one or more captured images are acquired based on these data. Is displayed.
Thereby, a process progresses to step S21. However, the processing after step S21 will be described later.

これに対して、代表シンボルの選択の操作が無かった場合、ステップS19においてNOであると判定されて、ステップS20の処理は実行されずに、即ち、1以上の撮像画像の一覧表示が行われずに、処理はステップS21に進む。   On the other hand, if there is no representative symbol selection operation, it is determined as NO in step S19, and the process of step S20 is not executed, that is, a list of one or more captured images is not displayed. The process proceeds to step S21.

ステップS21において、表示制御部58は、ユーザから確認終了の指示がなされたか否かを判定する。
ユーザからの確認終了指示がなされていない場合、ステップS21においてNOであると判定されて、処理は図8のステップS1に戻され、それ以降の処理が繰り返される。即ち、ユーザからの確認終了指示がなされるまでの間、ステップS1乃至S21のループ処理が繰り返される。
その後、ユーザが、操作部17を操作して確認終了指示をすると、ステップS21においてYESであると判定されて、地図情報表示処理は終了となる。
In step S <b> 21, the display control unit 58 determines whether or not a confirmation end instruction has been given by the user.
When the confirmation end instruction is not given from the user, it is determined as NO in Step S21, the process is returned to Step S1 in FIG. 8, and the subsequent processes are repeated. That is, the loop process of steps S1 to S21 is repeated until a confirmation end instruction is issued from the user.
Thereafter, when the user operates the operation unit 17 to give a confirmation end instruction, it is determined as YES in Step S21, and the map information display process ends.

以上説明したように、本実施形態の撮像装置1は、所定の地図のデータに基づいて、当該地図上で識別表示されるオブジェクトの境界線を特定し、特定された境界線で囲まれる領域をグループ領域として、地図上の領域を複数のグループ領域に区分することができる。
そして、本実施形態の撮像装置1は、複数の撮像画像のデータを、各々の撮像位置に応じて、区分された複数のグループ領域の何れかに属するように分類することができる。
これにより、住所(国、都道府県、市町村、番地等)等の地域名称に対応して明確に区分けされていない領域であっても、境界線の座標さえ特定できれば、撮影画像を分類する際の境界線として利用することが可能になる。よって、このような境界線を用いることによって、地域名称とは対応しない領域を単位として複数の撮像画像を地図上で分類することが可能になる。
As described above, the imaging device 1 according to the present embodiment specifies the boundary line of the object identified and displayed on the map based on the data of the predetermined map, and the area surrounded by the specified boundary line is determined. As a group area, an area on the map can be divided into a plurality of group areas.
And the imaging device 1 of this embodiment can classify | categorize the data of a some captured image so that it may belong to either of the some divided group area | region according to each imaging position.
As a result, even if it is an area that is not clearly divided according to the area name such as address (country, prefecture, municipality, street address, etc.) It can be used as a boundary line. Therefore, by using such a boundary line, it is possible to classify a plurality of captured images on a map in units of areas that do not correspond to area names.

また、本実施形態の撮像装置1は、地図のデータの形式がベクター地図であるかラスター地図であるか否かを判定することができる。
本実施形態の撮像装置1は、ベクター地図であると判定した場合、設定された地図範囲に応じて、表示すべきオブジェクトを選定し、選定されたオブジェクトを、境界線を特定するオブジェクトとして採用することができる。
これに対して、本実施形態の撮像装置1は、ラスター地図であると判定した場合、地図のデータに対して画像認識処理を施し、画像認識処理の結果に基づいてオブジェクトを認識することができる。
このようにして、予め座標データを持たない道路や施設のオブジェクトが含まれるラスター地図、即ち、画像情報として提供されるラスター地図であっても、地図上で識別表示可能なものであれば、撮影画像を分類する際の境界線として利用することが可能になる。
Further, the imaging apparatus 1 of the present embodiment can determine whether the map data format is a vector map or a raster map.
When it is determined that the image capturing apparatus 1 is a vector map, the imaging apparatus 1 according to the present embodiment selects an object to be displayed according to the set map range, and employs the selected object as an object for specifying a boundary line. be able to.
On the other hand, when it is determined that the image capturing apparatus 1 is a raster map, the image capturing apparatus 1 can perform image recognition processing on the map data and recognize an object based on the result of the image recognition processing. .
In this way, even a raster map including road and facility objects that do not have coordinate data in advance, that is, a raster map provided as image information, can be photographed if it can be identified and displayed on the map. It can be used as a boundary line when classifying images.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、上述の実施形態では、グループ領域区分部54は、ラスター地図のデータを用いて、地図上の領域を複数のグループ領域に区分することができた。
さらに、タッチペン機能等、当該地図が表示されている表示部18に対してユーザが手書き操作で書き込んだ情報を受け付ける機能を、撮像装置1が有している場合がある。このような場合には、グループ領域区分部54は、画像認識処理の一部として、ユーザが手書きで書き込んだ線情報を境界線として特定することができる。
さらにまた、ラスター地図のデータに、分離可能な文字情報が含まれている場合がある。このような場合には、グループ領域区分部54は、文字情報を除外した地図のデータに基づいて、文字情報を除外した地図上の領域を複数のグループ領域に区分することもできる。
For example, in the above-described embodiment, the group area classifying unit 54 can classify an area on the map into a plurality of group areas using raster map data.
Furthermore, the imaging apparatus 1 may have a function of receiving information written by a user by handwriting on the display unit 18 on which the map is displayed, such as a touch pen function. In such a case, the group area classification unit 54 can specify line information handwritten by the user as a boundary line as part of the image recognition process.
Furthermore, the raster map data may include separable character information. In such a case, the group area classification unit 54 can also classify the area on the map excluding the character information into a plurality of group areas based on the map data excluding the character information.

例えば、上述の実施形態の図8及び図9の地図情報表示処理では、画像1枚情報を示す●(黒丸印)の代表シンボル、又は、画像複数枚情報を示す★(黒星印)の代表シンボルが地図上に重畳された地図情報画像、即ちグループ表示画像が表示部18に表示された。
しかしながら、地図上に重畳される代表シンボルは、図8及び図9の例に特に限定されない。例えば、グループ領域に含まれる撮像画像の数を、単純に「1枚」と「複数枚」といった2種類に区分するのではなく、K種類(Kは、グループ領域に含まれ得る撮像画像の最大枚数以下の整数値)に区分してもよい。例えば、K=3として、「1枚」、「少数枚」、及び「多数枚」といった3種類に区分してもよい。この場合、地図情報画像生成部57は、K種類の代表シンボルの各々を地図上に重畳させることができる。
また、地図情報画像生成部57は、代表シンボル(分類情報)のみならず、各種各様の情報を地図上に重畳するようにしてもよい。例えば、地図情報画像生成部57は、境界線を示す線情報として、通常の線よりも太くしたり色を変えた線情報を地図上に重畳してもよい。また例えば、地図情報画像生成部57は、グループ領域を示す情報、例えばグループ名等を地図上に重畳させて、図4に示すような地図情報画像のデータを生成してもよい。
さらにまた、表示部18に表示させる地図情報画像の種類は、図8及び図9の例ではグループ表示画像としているが、特にこれに限定されない。例えば、表示部18は、別の種類、例えば図6に示すような全地点表示画像等を地図情報画像として表示してもよい。この場合、ユーザが、操作部17を操作することで、任意の一の種類から任意の別の一の種類に表示を更新する指示をできるようにしてもよい。
For example, in the map information display processing of FIG. 8 and FIG. 9 of the above-described embodiment, a representative symbol of ● (black circle) indicating single image information or a representative symbol of ★ (black star) indicating multiple image information Is displayed on the display unit 18 as a map information image superimposed on the map, that is, a group display image.
However, the representative symbols superimposed on the map are not particularly limited to the examples of FIGS. For example, the number of captured images included in the group area is not simply divided into two types, “one” and “multiple”, but K types (K is the maximum number of captured images that can be included in the group region). It may be divided into integer values equal to or less than the number of sheets. For example, assuming that K = 3, it may be divided into three types such as “one sheet”, “small number”, and “large number”. In this case, the map information image generation unit 57 can superimpose each of the K types of representative symbols on the map.
Further, the map information image generation unit 57 may superimpose not only the representative symbol (classification information) but also various kinds of information on the map. For example, the map information image generation unit 57 may superimpose on the map line information that is thicker than a normal line or whose color is changed as line information indicating a boundary line. Further, for example, the map information image generation unit 57 may generate data of a map information image as shown in FIG. 4 by superimposing information indicating a group area, for example, a group name on the map.
Furthermore, the type of map information image displayed on the display unit 18 is a group display image in the examples of FIGS. 8 and 9, but is not particularly limited thereto. For example, the display unit 18 may display another type, for example, an all-point display image as shown in FIG. 6 as the map information image. In this case, the user may be able to issue an instruction to update the display from any one type to any other type by operating the operation unit 17.

また例えば、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の撮像装置として構成される例として説明した。しかしながら、本発明は、撮像装置に特に限定されず、撮像機能の有無を問わず(撮像画像のデータは別の装置から取得してもよい)、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。   For example, in the above-described embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as an imaging apparatus such as a digital camera. However, the present invention is not particularly limited to an imaging apparatus, and is applicable to any electronic device that can execute the above-described image processing regardless of whether or not an imaging function is provided (data of a captured image may be acquired from another apparatus). can do. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware or can be executed by software.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。   When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、16・・・撮像部、17・・・操作部、18・・・表示部、19・・・記憶部、20・・・通信部、21・・・ドライブ、31・・・リムーバブルメディア、51・・・撮像画像取得部、52・・・地図範囲設定部、53・・・地図取得部、54・・・グループ領域区分部、55・・・画像分類部、56・・・分類情報生成部、57・・・地図情報画像生成部、58・・・表示制御部、61・・・地図記憶部、62・・・撮像画像記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 16 ... Imaging part, 17 ... Operation part, 18 ... Display part, 19 ... Storage unit, 20 ... communication unit, 21 ... drive, 31 ... removable media, 51 ... captured image acquisition unit, 52 ... map range setting unit, 53 ... map acquisition unit, 54 ... Group area classification part, 55 ... Image classification part, 56 ... Classification information generation part, 57 ... Map information image generation part, 58 ... Display control part, 61 ... Map storage part 62 ... Captured image storage unit

Claims (15)

所定の地図のデータに基づいて、前記地図上で識別表示されるオブジェクトの境界線を特定し、特定された前記境界線で囲まれる領域をグループ領域として、前記地図上の領域を複数のグループ領域に区分する区分手段と、
複数の撮像画像のデータを、各々の撮像位置に応じて、前記区分手段に区分された前記複数のグループ領域の何れかに属するように分類する分類手段と、
表示対象となる地図範囲を設定する設定手段と、
を備え、
前記区分手段は、前記地図のうち、前記設定手段により設定された前記地図範囲内の領域を前記複数のグループ領域に区分することを特徴とする画像処理装置。
Based on data of a predetermined map, a boundary line of an object identified and displayed on the map is specified, an area surrounded by the specified boundary line is set as a group area, and the area on the map is a plurality of group areas Sorting means to categorize,
Classification means for classifying data of a plurality of captured images so as to belong to any of the plurality of group areas divided by the classification means according to each imaging position;
A setting means for setting a map range to be displayed;
With
The image processing apparatus according to claim 1, wherein the classifying unit classifies an area within the map range set by the setting unit in the map into the plurality of group areas .
前記設定手段は、前記分類手段による分類の対象となる前記複数の撮像画像のデータが予め指定された場合、指定された前記複数の撮像画像の各々の撮像位置を全て含む範囲内で、前記地図範囲を設定する、
請求項1に記載の画像処理装置。
When the data of the plurality of captured images to be classified by the classification unit is specified in advance, the setting unit includes the map within a range including all the imaging positions of the specified plurality of captured images. Set the range,
The image processing apparatus according to claim 1 .
前記分類手段は、前記設定手段により設定された前記地図範囲に応じて、前記境界線を特定する前記オブジェクトを変更する
請求項1又は2に記載の画像処理装置。
The classification unit changes the object that identifies the boundary line according to the map range set by the setting unit.
The image processing apparatus according to claim 1 .
前記オブジェクトは、道路又は建築物であり、
前記分類手段は、前記設定手段により設定された前記地図範囲に応じて、幅の異なる道路又は接地面積が異なる建築物を採用する、
請求項3に記載の画像処理装置。
The object is a road or a building,
The classification unit employs roads with different widths or buildings with different ground contact areas according to the map range set by the setting unit.
The image processing apparatus according to claim 3 .
前記地図のデータの形式は、各オブジェクトに対応するデータが地図の他の要素を表すデータから予め分離されているベクター地図であり、
前記区分手段は、前記設定手段により設定された前記地図範囲に応じて、各オブジェクトに対応するデータを参照して、前記境界線を特定するオブジェクトを選択する、
請求項1乃至4の何れか1項に記載の画像処理装置。
The map data format is a vector map in which data corresponding to each object is separated in advance from data representing other elements of the map,
The sorting unit selects an object for specifying the boundary line with reference to data corresponding to each object according to the map range set by the setting unit.
The image processing apparatus according to claim 1 .
前記地図のデータの形式は、各オブジェクトに対して属性情報が付加されているベクター地図であり、
前記区分手段は、各オブジェクトに付加されている属性情報に基づいて前記境界線を特定するオブジェクトを選択する、
請求項5に記載の画像処理装置。
The map data format is a vector map in which attribute information is added to each object,
The sorting means selects an object that identifies the boundary line based on attribute information added to each object.
The image processing apparatus according to claim 5 .
前記区分手段は、前記設定手段により設定された前記地図範囲に応じて、表示すべきオブジェクトを選定し、選定された前記オブジェクトを、前記境界線を特定する前記オブジェクトとして採用する、
請求項5又は6に記載の画像処理装置。
The sorting unit selects an object to be displayed according to the map range set by the setting unit, and employs the selected object as the object for specifying the boundary line.
The image processing apparatus according to claim 5 .
前記地図のデータの形式は、各オブジェクトに対応するデータが他の要素を表すデータからから分離されていない画像データとして与えられているラスター地図であり、
前記区分手段は、前記地図のデータである画像のデータに対して画像認識処理を施し、前記画像認識処理の結果に基づいて前記オブジェクトを認識する、
請求項1乃至4の何れか1項に記載の画像処理装置。
The map data format is a raster map provided as image data in which data corresponding to each object is not separated from data representing other elements,
The classification means performs image recognition processing on image data that is the map data, and recognizes the object based on a result of the image recognition processing.
The image processing apparatus according to claim 1 .
前記区分手段は、前記画像認識処理の結果に基づいて前記オブジェクトの幅若しくは規模を認識し、この認識結果に基づいて前記境界線を特定するオブジェクトを選択する、
請求項8に記載の画像処理装置。
The classifying means recognizes the width or scale of the object based on the result of the image recognition process, and selects an object for specifying the boundary line based on the recognition result.
The image processing apparatus according to claim 8 .
前記区分手段は、
前記地図のデータの形式がベクター地図であるかラスター地図であるか否かを判定し、
前記ベクター地図であると判定した場合、前記設定手段により設定された前記地図範囲に応じて、表示すべきオブジェクトを選定し、選定された前記オブジェクトを、前記境界線を特定する前記オブジェクトとして採用し、
前記ラスター地図であると判断した場合、前記地図のデータに対して画像認識処理を施し、前記画像認識処理の結果に基づいて前記オブジェクトを認識する、
請求項1乃至4の何れか1項に記載の画像処理装置。
The sorting means includes
Determining whether the data format of the map is a vector map or a raster map;
If it is determined that the map is the vector map, an object to be displayed is selected according to the map range set by the setting unit, and the selected object is adopted as the object for specifying the boundary line. ,
If it is determined that the map is a raster map, image recognition processing is performed on the map data, and the object is recognized based on a result of the image recognition processing.
The image processing apparatus according to claim 1 .
前記地図を表示する表示手段と、
前記地図が表示されている前記表示手段に対して、ユーザが手書きで情報を書きこむ操作を受け付ける操作手段と、
を備え、
前記区分手段は、前記画像認識処理の一部として、さらに、前記ユーザが手書きで書き込んで前記操作手段により受け付けられた線情報を前記境界線として特定する、
請求項8乃至10の何れか1項に記載の画像処理装置。
Display means for displaying the map;
Operation means for accepting an operation for a user to write information by hand to the display means on which the map is displayed;
With
The classification means further identifies line information written by the user by handwriting and accepted by the operation means as part of the image recognition processing, as the boundary line.
The image processing apparatus according to claim 8 .
前記地図のデータは、分離可能な文字情報が含まれており、
前記区分手段は、前記文字情報を除外した前記地図のデータに基づいて、前記文字情報を除外した前記地図上の領域を複数のグループ領域に区分する、
請求項8乃至10の何れか1項に記載の画像処理装置。
The map data includes separable character information,
The classification means classifies the area on the map excluding the character information into a plurality of group areas based on the map data excluding the character information.
The image processing apparatus according to claim 8 .
前記分類手段の分類の結果に基づいて、グループ領域に属する1以上の撮像画像のデータを代表する代表シンボルのデータを含む分類情報を、前記複数のグループ領域毎に生成する分類情報生成手段と、
前記分類情報生成手段により生成された前記分類情報と前記地図のデータとに基づいて、前記地図に対して、前記代表シンボルを前記複数のグループ領域が存在する位置に重畳した地図情報画像のデータを生成する地図情報画像生成手段と、
をさらに備える請求項1乃至9の何れか1項に記載の画像処理装置。
Classification information generating means for generating, for each of the plurality of group areas, classification information including representative symbol data representing data of one or more captured images belonging to the group area based on the classification result of the classification means;
Based on the classification information generated by the classification information generation means and the map data, map information image data in which the representative symbol is superimposed on the map at a position where the plurality of group regions exist is mapped to the map. Map information image generating means for generating;
The image processing apparatus according to claim 1 , further comprising:
画像処理装置が、所定の地図のデータを対象として画像処理を実行する画像処理方法において、
所定の地図のデータに基づいて、前記地図上で識別表示されるオブジェクトの境界線を特定し、特定された前記境界線で囲まれる領域をグループ領域として、前記地図上の領域を複数のグループ領域に区分する区分処理と、
複数の撮像画像のデータを、各々の撮像位置に応じて、区分された前記複数のグループ領域の何れかに属するように分類する分類処理と、
表示対象となる地図範囲を設定する設定処理と、
を含み、
前記区分処理は、前記地図のうち、前記設定処理により設定された前記地図範囲内の領域を前記複数のグループ領域に区分することを特徴とする画像処理方法。
In an image processing method in which an image processing apparatus executes image processing on data of a predetermined map,
Based on data of a predetermined map, a boundary line of an object identified and displayed on the map is specified, an area surrounded by the specified boundary line is set as a group area, and the area on the map is a plurality of group areas Classification processing to categorize
A classification process for classifying data of a plurality of captured images so as to belong to any of the plurality of group areas divided according to each imaging position;
A setting process for setting the map range to be displayed;
Including
The image processing method according to claim 1, wherein, in the map, an area within the map range set by the setting process is divided into the plurality of group areas .
画像処理装置に対して、所定の地図のデータを対象とする画像処理の実行を制御するコンピュータに、
所定の地図のデータに基づいて、前記地図上で識別表示されるオブジェクトの境界線を特定し、特定された前記境界線で囲まれる領域をグループ領域として、前記地図上の領域を複数のグループ領域に区分する区分機能と、
複数の撮像画像のデータを、各々の撮像位置に応じて、区分された前記複数のグループ領域の何れかに属するように分類する分類機能と、
表示対象となる地図範囲を設定する設定機能と、
を実現させ、
前記区分機能は、前記地図のうち、前記設定機能により設定された前記地図範囲内の領域を前記複数のグループ領域に区分することを特徴とするプログラム。
A computer that controls execution of image processing for data of a predetermined map for an image processing apparatus,
Based on data of a predetermined map, a boundary line of an object identified and displayed on the map is specified, an area surrounded by the specified boundary line is set as a group area, and the area on the map is a plurality of group areas A classification function to categorize
A classification function for classifying data of a plurality of captured images so as to belong to any of the plurality of group areas divided according to each imaging position;
A setting function to set the map range to be displayed,
Realized,
The classification function is a program characterized in that, in the map, an area within the map range set by the setting function is divided into the plurality of group areas .
JP2010077621A 2010-03-30 2010-03-30 Image processing apparatus and method, and program Expired - Fee Related JP5593778B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010077621A JP5593778B2 (en) 2010-03-30 2010-03-30 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010077621A JP5593778B2 (en) 2010-03-30 2010-03-30 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2011210042A JP2011210042A (en) 2011-10-20
JP5593778B2 true JP5593778B2 (en) 2014-09-24

Family

ID=44941020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010077621A Expired - Fee Related JP5593778B2 (en) 2010-03-30 2010-03-30 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5593778B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6075590B2 (en) 2012-02-28 2017-02-08 日本精機株式会社 Vehicle display device
JP6009384B2 (en) * 2013-03-26 2016-10-19 株式会社ゼンリンデータコム Map image providing apparatus, map image providing method, map image providing system, and route guidance system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3982605B2 (en) * 2000-09-29 2007-09-26 カシオ計算機株式会社 Captured image management apparatus, captured image management method, and captured image management program
JP2007194948A (en) * 2006-01-19 2007-08-02 Fujifilm Corp Image-editing device and image-editing program

Also Published As

Publication number Publication date
JP2011210042A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
US10474931B2 (en) Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
CN101790034B (en) Image processing apparatus, image displaying method, and image displaying program
EP2219372B1 (en) Image processing device, dynamic image reproduction device, and processing method and program used in the devices
US20110122153A1 (en) Information processing apparatus, information processing method, and program
JP5601407B2 (en) Image classification program, image classification apparatus, and electronic camera
JP2007156849A (en) Image controller and image display
JP2009159514A (en) Imaging device, control method thereof, and program
JP2010283802A (en) Image processing apparatus, and method of managing images
US20120194544A1 (en) Electronic equipment
JP2011055295A (en) Photographing apparatus
JP4901258B2 (en) Camera and data display method
JP5593778B2 (en) Image processing apparatus and method, and program
JP5155266B2 (en) Image display device, image display method, and image display program
JP5385059B2 (en) Image display method, program, image display apparatus, and imaging apparatus
JP4552088B2 (en) Image file management method and apparatus
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
JP2011049866A (en) Image display apparatus
JP2006350546A (en) Information processor, image classification method and information processing system
JP2011053456A (en) Image display method, program, image display device, and imaging apparatus with the image display device
JP2013175956A (en) Image pickup device, image pickup method, image processing device, image processing method and image processing system
JP2013239815A (en) Image display device and computer program
JP2018060392A (en) Image synthesis device, image synthesis method, and image synthesis system
JP5565271B2 (en) Information processing apparatus, information processing method, and program
WO2022137979A1 (en) Image processing device, image processing method, and program recording medium
JP5713256B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140721

R150 Certificate of patent or registration of utility model

Ref document number: 5593778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees