JP2011124865A - Device and method for image classification, and program - Google Patents

Device and method for image classification, and program Download PDF

Info

Publication number
JP2011124865A
JP2011124865A JP2009281819A JP2009281819A JP2011124865A JP 2011124865 A JP2011124865 A JP 2011124865A JP 2009281819 A JP2009281819 A JP 2009281819A JP 2009281819 A JP2009281819 A JP 2009281819A JP 2011124865 A JP2011124865 A JP 2011124865A
Authority
JP
Japan
Prior art keywords
image
shooting
unit
classification
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009281819A
Other languages
Japanese (ja)
Other versions
JP5509828B2 (en
Inventor
Kazumasa Morichika
和正 森近
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009281819A priority Critical patent/JP5509828B2/en
Publication of JP2011124865A publication Critical patent/JP2011124865A/en
Application granted granted Critical
Publication of JP5509828B2 publication Critical patent/JP5509828B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To group captured images with a more suitable state, in which a major photographic subject is landscapes or the like. <P>SOLUTION: When capturing the images, the capturing positions and directions are acquired together with the captured images, according to a classification condition based on the acquired capturing positions and directions, the captured images are classified into a plurality of groups. A group folder 102 for each group is formed in a memory which memorizes the captured images. The classified captured images are recorded in the group folder 102 to which each corresponds. Even the image captured in a similar place, about the image in which the scenery and the comparatively large building or the like are captured, only the image in which almost similar landscape or the like, is captured can be classified into an identical group. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、例えばデジタルカメラに用いて好適な画像の分類技術に関するものである。   The present invention relates to an image classification technique suitable for use in, for example, a digital camera.

従来、例えば下記特許文献1には、デジタルカメラで撮影した複数枚の画像(撮影画像)を、撮影画像に付加されている撮影時日と、撮影位置の位置データとに基づき、複数グループに分類する一方、画面上に地図を表示し、表示した地図上のランドマークの所在地に対応する位置に各グループの画像を表示する技術が記載されている。つまり、撮影画像を同じ日に同一のランドマークの所在地で撮影されたことを分類条件としてグループ化する技術が記載されている。   Conventionally, for example, in Patent Document 1 below, a plurality of images (captured images) captured by a digital camera are classified into a plurality of groups based on the shooting date added to the captured image and the position data of the shooting position. On the other hand, a technique for displaying a map on a screen and displaying an image of each group at a position corresponding to the location of a landmark on the displayed map is described. That is, a technique is described in which captured images are grouped as classification conditions based on captured images of the same landmark on the same day.

係る技術を用いれば、例えば「花火大会」や「夏祭り」等のイベントでの撮影はほぼ同一の場所で行われることが多いため、撮影後に画像を確認する際や、画像データを整理する際には都合がよい。   Using such technology, for example, shooting at events such as “Fireworks” and “Summer Festival” is often performed in almost the same place, so when checking images after shooting or organizing image data Is convenient.

特開2007−322847号公報JP 2007-322847 A

しかしながら、上記従来の技術では撮影画像を撮影時日と撮影位置とに基づき分類するため、例えば撮影画像が人物写真であれば問題はないが、撮影画像が風景写真の場合には、以下の問題がある。すなわち風景や比較的大きな建造物等は遠距離から撮影される場合が多く、その場合には、同じ場所で撮影された画像であっても、撮影方向によって被写体は全く異なるものなる。そのため、上記従来の技術では、主要被写体が風景等である撮影画像を分類する場合、撮影画像を必ずしも適切にグループ化できるとは限らないという問題があった。   However, in the above conventional technique, the captured images are classified based on the shooting date and the shooting position, so there is no problem if the captured image is a person photograph, for example. There is. That is, landscapes and relatively large buildings are often photographed from a long distance. In this case, even if the images are photographed at the same place, the subject is completely different depending on the photographing direction. For this reason, the conventional technique has a problem that when shooting images whose main subject is a landscape or the like are classified, the shooting images cannot always be appropriately grouped.

本発明は、かかる従来の課題に鑑みてなされたものであり、主要被写体が風景等である撮影画像をより適切な状態でグループ化することを目的とする。   The present invention has been made in view of such conventional problems, and an object of the present invention is to group captured images whose main subject is a landscape or the like in a more appropriate state.

前記課題を解決するため、請求項1記載の発明に係る画像分類装置にあっては、撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得する取得手段と、複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に含まれる撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する分類手段とを備えたことを特徴とする。   In order to solve the above-described problem, in the image classification device according to the first aspect of the present invention, an acquisition unit that acquires a plurality of types of image-related information including a shooting position and a shooting direction regarding a shot image, and a plurality of shootings Classification means for classifying images into a plurality of groups according to a classification condition using both photographing positions and photographing directions included in a plurality of types of image-related information obtained by the obtaining means.

また、請求項2記載の発明に係る画像分類装置にあっては、各撮影画像が遠距離にある被写体の撮影を意図した遠距離撮影により取得されたものであるか否かを判断する判断手段をさらに備え、前記分類手段は、前記判断手段によって遠距離撮影により取得されたものであると判断されたことを条件として、複数の撮影画像を撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類することを特徴とする。   Further, in the image classification device according to the second aspect of the present invention, the judging means for judging whether or not each photographed image is obtained by long-distance photographing intended for photographing a subject at a long distance. The classification unit is further configured to classify a plurality of photographed images according to a classification condition using both the photographing position and the photographing direction on the condition that the judgment unit determines that the image is acquired by long-distance photographing. It is characterized by being classified into a plurality of groups.

また、請求項3記載の発明に係る画像分類装置にあっては、前記判断手段は、各撮影画像が、遠距離にある被写体の撮影を意図した遠距離撮影により取得されたものであるか、近距離にある被写体の撮影を意図した近距離撮影により取得されたものであるか否かを判断し、前記分類手段は、前記判断手段によって遠距離撮影により取得されたものであると判断された撮影画像については、撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類し、前記判断手段によって近距離撮影により取得されたものであると判断された撮影画像については、前記撮影方向を用いない分類条件に従って複数グループに分類することを特徴とする。   Further, in the image classification device according to the invention of claim 3, the determination means is that each captured image is acquired by long-distance shooting intended to shoot a subject at a long distance, It is determined whether or not the object is acquired by close-up shooting intended for shooting a subject at a short distance, and the classification unit is determined to be acquired by long-range shooting by the determination unit The captured images are classified into a plurality of groups according to the classification condition using both the shooting position and the shooting direction, and the shooting direction is determined for the shot image determined to be acquired by the short distance shooting by the determination unit. It is characterized by classifying into a plurality of groups according to a classification condition that does not use.

また、請求項4記載の発明に係る画像分類装置にあっては、前記撮影画像における主要被写体の内容を示す識別情報を取得する識別情報取得手段をさらに備え、前記判断手段は、前記識別情報取得手段により取得された識別情報により示される主要被写体の内容に基づいて前記撮影画像が前記遠景撮影により取得されたものであるか否かを判断することを特徴とする。   The image classification apparatus according to claim 4 further includes identification information acquisition means for acquiring identification information indicating the content of a main subject in the captured image, and the determination means includes the identification information acquisition. It is characterized in that it is determined whether or not the photographed image is obtained by the distant view photographing based on the content of the main subject indicated by the identification information obtained by the means.

また、請求項5記載の発明に係る画像分類装置にあっては、前記識別情報取得手段は、前記識別情報を前記撮影画像が予め決められた特徴を有するか否かを判断し、その判断結果を前記識別情報として取得することを特徴とする。   Further, in the image classification device according to the invention of claim 5, the identification information acquisition means determines whether or not the captured image has a predetermined characteristic from the identification information, and the determination result Is obtained as the identification information.

また、請求項6記載の発明に係る画像分類装置にあっては、前記識別情報は、少なくとも、前記主要被写体が風景であるか人物であるかを示し、前記判断手段は、前記識別情報により前記主要被写体が風景であると示されている場合には、前記撮影画像が前記遠距離撮影により取得されたものであると判断し、前記識別情報により前記主要被写体が人物であると示されている場合には、前記撮影画像が前記近距離撮影により取得されたものであると判断することを特徴とする。   Further, in the image classification device according to the invention of claim 6, the identification information indicates at least whether the main subject is a landscape or a person, and the determination means uses the identification information to When the main subject is shown to be a landscape, it is determined that the captured image is acquired by the long-distance shooting, and the identification information indicates that the main subject is a person. In this case, it is determined that the captured image is acquired by the short-distance shooting.

また、請求項7記載の発明に係る画像分類装置にあっては、前記撮影画像における撮影時の被写体距離を示す距離情報を取得する距離情報取得手段をさらに備え、前記判断手段は、前記距離情報取得手段により取得された距離情報により示される被写体距離に基づいて前記撮影画像が前記遠景撮影により取得されたものであるか否かを判断することを特徴とする。   The image classification apparatus according to claim 7 further includes distance information acquisition means for acquiring distance information indicating a subject distance at the time of shooting in the captured image, and the determination means includes the distance information. It is characterized in that it is determined whether or not the photographed image is obtained by the distant view photographing based on the subject distance indicated by the distance information obtained by the obtaining means.

また、請求項8記載の発明に係る画像分類装置にあっては、前記判断手段は、前記距離情報により示される被写体距離が所定距離以上である場合に、前記撮影画像が前記遠距離撮影により取得されたものであると判断し、前記距離情報により示される被写体距離が所定距離未満である場合に、前記撮影画像が前記近距離撮影により取得されたものであると判断することを特徴とする。   In the image classification device according to claim 8, the determination unit obtains the captured image by the long-distance shooting when the subject distance indicated by the distance information is a predetermined distance or more. If the subject distance indicated by the distance information is less than a predetermined distance, it is determined that the photographed image has been acquired by the short-distance photographing.

また、請求項9記載の発明に係る画像分類装置にあっては、表示手段に特定地域の地図を表示させる地図表示制御手段と、画像記憶手段に記憶されている複数の撮影画像のうちで、撮影位置が前記特定地域に含まれる複数の撮影画像を表示対象として特定する特定手段と、前記表示手段に、前記特定手段により表示対象として特定された複数の撮影画像を、前記分類手段により分類されたグループを単位として、前記特定地域の地図上における撮影位置に対応する位置に表示させる画像表示制御手段とをさらに備えたことを特徴とする。   In the image classification device according to the invention of claim 9, among the map display control means for displaying the map of the specific area on the display means, and the plurality of captured images stored in the image storage means, A specifying unit that specifies a plurality of captured images whose shooting positions are included in the specific area as a display target, and a plurality of captured images that are specified as a display target by the specifying unit are classified by the classification unit in the display unit. And image display control means for displaying the image at a position corresponding to the shooting position on the map of the specific area in units of groups.

また、請求項10記載の発明に係る画像分類装置にあっては、前記画像表示制御手段は、前記グループを単位とした前記複数の撮影画像の表示に際し、各グループを代表する撮影画像である代表画像を、前記特定地域の地図上における撮影位置に対応する位置に表示させることを特徴とする。   In the image classification device according to the invention of claim 10, the image display control means is a representative that is a captured image representing each group when displaying the plurality of captured images in units of the group. The image is displayed at a position corresponding to the shooting position on the map of the specific area.

また、請求項11記載の発明に係る画像分類装置にあっては、前記特定手段により表示対象として特定された複数の撮影画像から、表示に最も適した撮影画像を予め決められた基準に従い前記代表画像としてグループ毎に選択する選択手段をさらに備え、前記画像表示制御手段は、前記選択手段により選択された各グループの代表画像を、前記特定地域の地図上における撮影位置に対応する位置に表示させることを特徴とする。   In the image classification device according to the invention described in claim 11, the representative image is selected from a plurality of captured images specified as display objects by the specifying means according to a predetermined criterion. The image display control means further displays a representative image of each group selected by the selection means at a position corresponding to the shooting position on the map of the specific area. It is characterized by that.

また、請求項12記載の発明に係る画像分類装置にあっては、前記分類手段は、前記画像記憶手段に記憶されている複数の前記撮影画像を前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類することを特徴とする。   In the image classification device according to the invention described in claim 12, the classification means includes a plurality of types of image-related information acquired by the acquisition means for the plurality of photographed images stored in the image storage means. It is characterized by classifying into a plurality of groups according to classification conditions based on information.

また、請求項13記載の発明に係る画像分類装置にあっては、前記分類手段は、前記画像表示制御手段が前記特定手段により表示対象として特定された複数の撮影画像を前記表示手段に表示させる際に、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類することを特徴とする。   Further, in the image classification device according to the invention of claim 13, the classification means causes the display means to display a plurality of photographed images specified as display objects by the specifying means. In this case, a plurality of captured images specified as display targets by the specifying unit, which are stored in the image storage unit, are divided into a plurality of groups according to a classification condition based on a plurality of types of image-related information acquired by the acquiring unit. It is characterized by classifying.

また、請求項14記載の発明に係る画像分類装置にあっては、前記特定手段により表示対象として特定された複数の撮影画像における、前記地図表示制御手段が表示手段に表示させる地図内での撮影位置の密集度を判定する判定手段をさらに備え、前記分類手段は、前記判定手段により判断された密集度に応じた数の複数種の画像関連情報に基づく分類条件に従って複数グループに分類することを特徴とする。   Further, in the image classification device according to the invention of claim 14, in the plurality of photographed images specified as the display object by the specifying means, the photographing within the map that the map display control means displays on the display means. A determination unit that determines a density of positions; and the classification unit classifies the plurality of groups into a plurality of groups according to a classification condition based on a plurality of types of image-related information according to the density determined by the determination unit. Features.

また、請求項15記載の発明に係る画像分類装置にあっては、前記特定手段により表示対象として特定された複数の撮影画像における、前記地図表示制御手段が表示手段に表示させる地図内での撮影位置の密集度を判定する判定手段をさらに備え、前記分類手段は、前記判定手段により判断された密集度が予め決められた基準よりも低いことを条件として、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類することを特徴とする。   Further, in the image classification device according to the invention of claim 15, in the plurality of photographed images specified as display objects by the specifying means, the image is taken within the map displayed on the display means by the map display control means. The apparatus further comprises determination means for determining the density of the positions, and the classification means is stored in the image storage means on condition that the density determined by the determination means is lower than a predetermined reference. The plurality of captured images specified as display targets by the specifying unit are classified into a plurality of groups according to a classification condition based on a plurality of types of image-related information acquired by the acquiring unit.

また、請求項16記載の発明に係る画像分類装置にあっては、前記判定手段は、前記予め決められた基準よりも低い側の前記密集度を2段階に分けて判定し、前記分類手段は、前記判定手段により判断された密集度が前記予め決められた基準よりも低く、かつ前記2段階のうち低い側であることを条件として、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された、撮影位置及び撮影方向と、撮影位置及び撮影方向以外の画像関連情報とに基づく分類条件に従って複数グループに分類する一方、前記判定手段により判断された密集度が前記予め決められた基準よりも低く、かつ前記2段階のうち高い側であることを条件として、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された撮影位置及び撮影方向のみに基づく分類条件に従って複数グループに分類することを特徴とする。   Further, in the image classification device according to the invention of claim 16, the determination means determines the density on the side lower than the predetermined reference in two stages, and the classification means The specifying means stored in the image storage means, provided that the density determined by the determination means is lower than the predetermined reference and is on the lower side of the two stages. While classifying a plurality of captured images specified as display targets into a plurality of groups according to a classification condition based on the imaging position and imaging direction and image-related information other than the imaging position and imaging direction acquired by the acquisition unit, Stored in the image storage means on the condition that the density determined by the determination means is lower than the predetermined reference and is higher in the two stages. That, a plurality of captured image specified as a display target by the specifying means, and wherein the classifying into a plurality of groups according to the classification condition based only on the photographing position and photographing direction acquired by the acquisition unit.

また、請求項17記載の発明に係る画像分類装置にあっては、前記地図表示制御手段が表示手段に表示させる地図の縮尺を変更する変更手段をさらに備えたことを特徴とする。   The image classification apparatus according to the invention of claim 17 further comprises a changing means for changing a scale of a map displayed on the display means by the map display control means.

また、請求項18記載の発明に係る画像分類装置にあっては、被写体を撮影し撮影画像を取得する撮影手段と、この撮影手段により取得された撮影画像を記憶する画像記憶手段とをさらに備え、前記取得手段は、前記撮影手段により取得された撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得し、前記分類手段は、前記撮影手段により取得された撮影画像を、前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類し、分類したグループを単位として前記画像記憶手段に記憶させることを特徴とする。   Further, the image classification device according to the invention of claim 18 further comprises a photographing means for photographing a subject and obtaining a photographed image, and an image storage means for storing the photographed image obtained by the photographing means. The acquisition unit acquires a plurality of types of image-related information including a shooting position and a shooting direction related to the shot image acquired by the shooting unit, and the classification unit acquires the shot image acquired by the shooting unit, According to a classification condition based on a plurality of types of image-related information acquired by the acquisition unit, classification into a plurality of groups is performed, and the classified group is stored in the image storage unit as a unit.

また、請求項19記載の発明に係る画像分類装置にあっては、撮影画像に関する撮影位置と撮影方向とを含む前記複数種の画像関連情報には、撮影時刻と解像度とズーム倍率とのうち少なくともいずれか1つがさらに含まれることを特徴とする。   In the image classification device according to the nineteenth aspect of the present invention, the plurality of types of image-related information including a photographing position and a photographing direction relating to a photographed image include at least one of photographing time, resolution, and zoom magnification. Any one of them is further included.

また、請求項20記載の発明に係る画像分類方法にあっては、撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得する工程と、複数の撮影画像を、取得した複数種の画像関連情報に含まれる撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する工程とを含むことを特徴とする。   In the image classification method according to the invention of claim 20, a step of acquiring a plurality of types of image-related information including a shooting position and a shooting direction relating to a shot image, and a plurality of acquired shot images. And a step of classifying into a plurality of groups in accordance with a classification condition using both the photographing position and the photographing direction included in the kind of image related information.

また、請求項21記載の発明に係るプログラムにあっては、コンピュータを、撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得する取得手段と、複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に含まれる撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する分類手段として機能させることを特徴とする。   Further, in the program according to the invention of claim 21, the computer obtains a plurality of types of image-related information including a photographing position and a photographing direction related to a photographed image, a plurality of photographed images, It is characterized by functioning as a classification means for classifying into a plurality of groups according to a classification condition using both the photographing position and the photographing direction included in the plurality of types of image-related information obtained by the obtaining means.

本発明によれば、主要被写体が風景等である撮影画像をより適切な状態でグループ化することが可能となる。   According to the present invention, it is possible to group captured images whose main subject is a landscape or the like in a more appropriate state.

本発明に係るデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to the present invention. 画像記録部における静止画ファイルの格納構造を示す概念図である。It is a conceptual diagram which shows the storage structure of the still image file in an image recording part. 記録方法として分類記録が設定されているときの記録モードでの処理を示したフローチャートである。It is the flowchart which showed the process in a recording mode when classification | category recording is set as a recording method. 図3に続くフローチャートである。It is a flowchart following FIG. 位置・方向グループにグループ分けされた各々の画像における撮影位置、及び撮影方向を便宜的に示す、図2に対応する図である。It is a figure corresponding to FIG. 2 which shows the imaging | photography position and imaging | photography direction in each image grouped into the position and direction group for convenience. 再生モードでの処理内容を示したフローチャートである。It is the flowchart which showed the processing content in reproduction | regeneration mode. 第3の分類条件により画像をグループ化するときの処理を示したフローチャートである。It is the flowchart which showed the process when grouping an image by 3rd classification conditions. 作業用テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of a work table. 地図表示モードによる代表画像の表示形態を示す図である。It is a figure which shows the display form of the representative image by map display mode. 地図表示モードによる代表画像の他の表示形態を示す図である。It is a figure which shows the other display form of the representative image by map display mode.

以下、本発明の実施形態について説明する。図1は、本発明を適用したデジタルカメラ1の電気的構成の概略を示すブロック図である。   Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram showing an outline of an electrical configuration of a digital camera 1 to which the present invention is applied.

図1に示したように、デジタルカメラ1は装置全体を制御するCPU(Central Processing Unit)2を有している。CPU2には、現在の日付と時刻とを得るためのカレンダー機能を有する内蔵時計2aが含まれる。   As shown in FIG. 1, the digital camera 1 has a CPU (Central Processing Unit) 2 that controls the entire apparatus. The CPU 2 includes a built-in clock 2a having a calendar function for obtaining the current date and time.

CPU2には、光学レンズ装置3と、イメージセンサ4、画像メモリ5、液晶モニタ6、画像処理部7、画像記録部8、プログラムコード記憶部9、キー入力部10、GPS部11、方位検出部12がそれぞれ接続されている。   The CPU 2 includes an optical lens device 3, an image sensor 4, an image memory 5, a liquid crystal monitor 6, an image processing unit 7, an image recording unit 8, a program code storage unit 9, a key input unit 10, a GPS unit 11, and an orientation detection unit. 12 are connected to each other.

光学レンズ装置3は、被写体の光学像を集光するフォーカスレンズを含む撮影レンズや、撮影レンズを駆動するアクチュエータ等から構成される。イメージセンサ4は、光学レンズ装置3で集光された光学像をデジタル化して取り込むためのCCD(Charge Coupled Device)やCMOS(Complementary Meta1 0xide Semiconductor)等の固体撮像素子である。画像メモリ5は、主としてイメージセンサ4が取り込んだ画像、つまりイメージセンサ4により撮像された画像のデータを一時記憶するためのメモリであり、SDRAM(Synchronous dynamic random-access memory)等である。   The optical lens device 3 includes a photographic lens including a focus lens that collects an optical image of a subject, an actuator that drives the photographic lens, and the like. The image sensor 4 is a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Meta 10xide Semiconductor) for digitizing and capturing the optical image collected by the optical lens device 3. The image memory 5 is a memory for temporarily storing an image mainly captured by the image sensor 4, that is, data of an image captured by the image sensor 4, and is an SDRAM (Synchronous dynamic random-access memory) or the like.

キー入力部10は、電源キーや、シャッターキー、記録/再生のモード切替キー、カーソルキー、決定キー等の複数の操作キーから構成される。キー入力部10における操作キーの操作状態はCPU2において随時監視される。   The key input unit 10 includes a plurality of operation keys such as a power key, a shutter key, a recording / playback mode switching key, a cursor key, and an enter key. The operation state of the operation keys in the key input unit 10 is monitored at any time by the CPU 2.

画像処理部7は、例えばDSP(Digital Signal Processor)により構成され、画像メモリ5に一時記憶された後、CPU2を介して供給される画像データをRGBデータに変換し、さらにRGBデータを輝度(Y)成分及び色差(UV)成分からなるYUVデータに変換する。変換後のYUVデータは、撮影用の記録モードで撮影待機状態にある間には、CPU2を介して液晶モニタ6へ供給され、液晶モニタ6の画面上にライブビュー画像として表示される。   The image processing unit 7 is configured by, for example, a DSP (Digital Signal Processor), temporarily stores the image data in the image memory 5, converts the image data supplied via the CPU 2 into RGB data, and further converts the RGB data into luminance (Y ) Component and color difference (UV) component to YUV data. The converted YUV data is supplied to the liquid crystal monitor 6 via the CPU 2 and displayed as a live view image on the screen of the liquid crystal monitor 6 while in the shooting standby state in the recording mode for shooting.

また、画像処理部7は、記録モードでシャッターキーが押された撮影時に、YUVデータに変換後の画像データをJPEG(Joint Photographic Expert Group)方式により圧縮する。圧縮後の画像データは、CPU2によってカメラのモデル名や、撮影日時、被写体距離を含む複数種の撮影条件等からなる付属情報(画像関連情報)が付加され、Exif(Exchangeable Image File Format)規格に準拠した静止画ファイルとして画像記録部8に記憶される。なお、本実施形態においては、主としてイメージセンサ4と画像メモリ5と画像処理部7とが本発明の撮影手段として機能する。   Further, the image processing unit 7 compresses the image data converted into YUV data by the JPEG (Joint Photographic Expert Group) method at the time of shooting when the shutter key is pressed in the recording mode. The compressed image data is attached to the Exif (Exchangeable Image File Format) standard by the CPU 2 to which additional information (image related information) including a camera model name, shooting date and time, subject distance, and the like is added. It is stored in the image recording unit 8 as a compliant still image file. In the present embodiment, the image sensor 4, the image memory 5, and the image processing unit 7 mainly function as the photographing unit of the present invention.

画像記録部8は、例えばデジタルカメラ1に着脱自在な各種のメモリカードや、デジタルカメラ1に内蔵された内蔵フラッシュメモリによって構成され、本発明の画像記憶手段として機能する。図2は、画像記録部8における静止画ファイル(撮影画像)の格納構造を示した概念図である。   The image recording unit 8 includes, for example, various memory cards that are detachable from the digital camera 1 and a built-in flash memory that is built in the digital camera 1 and functions as the image storage unit of the present invention. FIG. 2 is a conceptual diagram showing a storage structure of still image files (captured images) in the image recording unit 8.

図2に示したように、画像記録部8には、撮影画像の格納場所としてカメラ画像フォルダ101が設けられ、さらにカメラ画像フォルダ101の下位にグループフォルダ102が必要に応じて設けられる。そして、静止画ファイル(「0001.JPG」等)は、カメラ画像フォルダ101とグループフォルダ102とのいずれか一方に記録される。   As shown in FIG. 2, the image recording unit 8 is provided with a camera image folder 101 as a storage location of a captured image, and a group folder 102 is provided below the camera image folder 101 as necessary. The still image file (such as “0001.JPG”) is recorded in either the camera image folder 101 or the group folder 102.

また、グループフォルダ102には、位置別フォルダと位置・方向別フォルダとの2種類が存在している。図2に示した例では、「B1」と記したグループフォルダ102が位置別フォルダであり、「A1」〜「A4」と記したグループフォルダ102が位置・方向別フォルダである。位置別フォルダと位置・方向別フォルダとは、例えばフォルダ名(ここでは「B1」等)によって区別される。   The group folder 102 includes two types of folders: a location folder and a location / direction folder. In the example illustrated in FIG. 2, the group folder 102 indicated as “B1” is a folder according to position, and the group folders 102 indicated as “A1” to “A4” are folders according to position and direction. The folder by position and the folder by position / direction are distinguished by, for example, a folder name (here, “B1” or the like).

また、画像処理部7は、デジタルカメラ1に再生モードが設定されているときには、CPU2により画像記録部8から読み出された圧縮状態にある画像データを伸張する。伸張後の画像データ(YUVデータ)は、CPU2を介して液晶モニタ6へ供給され、液晶モニタ6の画面上に再生画像として表示される。   Further, the image processing unit 7 expands the compressed image data read from the image recording unit 8 by the CPU 2 when the playback mode is set in the digital camera 1. The decompressed image data (YUV data) is supplied to the liquid crystal monitor 6 via the CPU 2 and displayed as a reproduced image on the screen of the liquid crystal monitor 6.

プログラム記憶部9は、記憶内容の書き替えが可能であるメモリであり、例えば内蔵フラッシュメモリである。プログラム記憶部9には、CPU2にデジタルカメラ1を制御させるためのプログラムと、地図データ、及びデジタルカメラ1の動作内容に関する設定データが記憶されている。   The program storage unit 9 is a memory in which stored contents can be rewritten, for example, a built-in flash memory. The program storage unit 9 stores a program for causing the CPU 2 to control the digital camera 1, map data, and setting data regarding the operation content of the digital camera 1.

上記のプログラムには、一般的なコントラスト検出方式によって、光学レンズ装置13のフォーカスレンズを駆動して被写体にピントを合わせるAF(Auto Focus)制御をCPU2に実行させるための制御プログラム等が含まれる。   The above program includes a control program for causing the CPU 2 to execute AF (Auto Focus) control for driving the focus lens of the optical lens device 13 and focusing on the subject by a general contrast detection method.

地図データは日本国内の各地の地図であり、複数段階の縮尺の地図データ、及び主な観光施設や建築物等のランドマークに関するデータ等である。   The map data is a map of various places in Japan, such as map data at a plurality of scales, and data related to landmarks such as main tourist facilities and buildings.

また、設定データは、使用者によって設定されたデジタルカメラ1の動作内容のデータや、CPU12が必要に応じて自動的に設定した動作内容に関するデータである。   The setting data is data on the operation content of the digital camera 1 set by the user or data on the operation content automatically set by the CPU 12 as necessary.

使用者によって設定されるデジタルカメラ1の動作内容には、記録モードでの撮影画像の記録方法が含まれる。撮影画像の記録方法は通常記録と分類記録との2種類である。通常記録は、撮影した画像を画像記録部8のカメラ画像フォルダ101(図2参照)に記録する記録方法である。また、分類記録は、撮影した画像を決められた分類条件に従いグループ化(分類)するとともに、画像記録部8にグループ毎に作成したグループフォルダ102(図2参照)に記録する記録方法である。   The operation content of the digital camera 1 set by the user includes a method of recording a captured image in the recording mode. There are two types of recording methods for photographed images: normal recording and classification recording. Normal recording is a recording method in which a captured image is recorded in the camera image folder 101 (see FIG. 2) of the image recording unit 8. The classification recording is a recording method in which captured images are grouped (classified) according to a predetermined classification condition and recorded in the group folder 102 (see FIG. 2) created for each group in the image recording unit 8.

GPS部11は、公知のGPS(Global Positioning System)を利用した測位を行う。すなわちGPS部11は、複数のGPS衛星から送られてくる電波を受信することにより、地球上の現在位置、つまり電波の受信位置を示す位置データ(緯度、経度)を計算し、計算結果を位置データとしてCPU2へ供給する。   The GPS unit 11 performs positioning using a known GPS (Global Positioning System). That is, the GPS unit 11 receives radio waves transmitted from a plurality of GPS satellites, calculates position data (latitude, longitude) indicating the current position on the earth, that is, the reception position of the radio waves, and the calculation result is The data is supplied to the CPU 2 as data.

方位検出部12は、主として地磁気を検出する2又は3軸の地磁気センサーにより構成され、2又は3軸の地磁気成分に基づいて撮影方向を示す角度情報を測定し、測定結果を方向データとしてCPU2へ供給する。方位検出部12が取得する角度情報は、真北を0°とした時計回りの回転角度である。   The azimuth detecting unit 12 is mainly composed of a 2- or 3-axis geomagnetic sensor that detects geomagnetism, measures angle information indicating a shooting direction based on the 2- or 3-axis geomagnetic component, and sends the measurement result to the CPU 2 as direction data. Supply. The angle information acquired by the azimuth detecting unit 12 is a clockwise rotation angle with true north as 0 °.

撮影時においてGPS部11により取得された位置データと、方位検出部12により取得された方向データとは撮影画像の圧縮画像データに付加される。具体的に述べると、位置データと方向データとは、静止画ファイルにおいてGPSに関する付属情報が記述される「GPS info IFD」に、撮影位置及び撮影方向のデータとして記述される。   The position data acquired by the GPS unit 11 and the direction data acquired by the direction detection unit 12 at the time of shooting are added to the compressed image data of the shot image. More specifically, the position data and the direction data are described as data of the shooting position and the shooting direction in “GPS info IFD” in which additional information about GPS is described in the still image file.

次に、デジタルカメラ1に記録モードが設定されているときの動作について説明する。デジタルカメラ1においては、撮影時における撮影画像の記録方法として、通常記録と分類記録との2種類が用意されている。通常記録は、撮影した画像を画像記録部8のカメラ画像フォルダ101(図2参照)に記録する記録方法である。また、分類記録は、撮影した画像を決められた分類条件に従いグループ化(分類)するとともに、画像記録部8にグループ毎に作成したグループフォルダ102(図2参照)に記録する記録方法である。   Next, an operation when the recording mode is set in the digital camera 1 will be described. In the digital camera 1, two types of recording, that is, normal recording and classification recording, are prepared as recording methods of captured images at the time of shooting. Normal recording is a recording method in which a captured image is recorded in the camera image folder 101 (see FIG. 2) of the image recording unit 8. The classification recording is a recording method in which captured images are grouped (classified) according to a predetermined classification condition and recorded in the group folder 102 (see FIG. 2) created for each group in the image recording unit 8.

ここでは、撮影画像の記録方法として分類記録が設定されている場合のデジタルカメラ1の動作について説明する。なお、撮影画像の記録方法として分類記録が設定されている場合には、CPU2がプログラム記憶部9に記憶されているプログラムに従い動作することにより本発明の取得手段、判断手段、分類手段、距離情報取得手段として機能し、以下の処理を実行する。   Here, the operation of the digital camera 1 when classification recording is set as the recording method of the captured image will be described. When classification recording is set as the recording method of the photographed image, the CPU 2 operates according to the program stored in the program storage unit 9 to obtain the acquisition unit, determination unit, classification unit, and distance information of the present invention. It functions as an acquisition unit and executes the following processing.

図3及び図4は、分類記録が設定されている場合にCPU2が実行する本発明に係る処理内容を示したフローチャートである。記録モードにおいて、CPU2はユーザーによるシャッターキーの押下の有無を逐次検出しており、シャッターキーが押下されると(ステップSA1:YES)、直ちにイメージセンサ4に被写体を撮像させて撮影画像を取得する(ステップSA2)。なお、ステップSA2の処理に際してCPU2はAF制御を実施する。   3 and 4 are flowcharts showing the processing contents according to the present invention executed by the CPU 2 when the classification record is set. In the recording mode, the CPU 2 sequentially detects whether or not the user has pressed the shutter key. When the shutter key is pressed (step SA1: YES), the image sensor 4 immediately captures the subject and acquires a captured image. (Step SA2). In the process of step SA2, the CPU 2 performs AF control.

次に、CPU2は、GPS部11によって撮影位置(位置データ)を取得するとともに、方位検出部12によって撮影方向(方向データ)を取得する(ステップSA3)。しかる後、CPU2は、取得した撮影位置と撮影方向とを、撮影時日や被写体距離等の他の情報と共に付属情報として撮影画像(圧縮後の画像データ)に付加し、画像記録部8に一時的に記録する(ステップSA4)。   Next, the CPU 2 acquires a shooting position (position data) by the GPS unit 11 and acquires a shooting direction (direction data) by the direction detection unit 12 (step SA3). Thereafter, the CPU 2 adds the acquired photographing position and photographing direction to the photographed image (compressed image data) as attached information together with other information such as the photographing date and subject distance, and temporarily stores them in the image recording unit 8. (Step SA4).

なお、CPU2は、被写体距離を、例えばAF制御時におけるフォーカスレンズの制御位置から計算するか、又は予め用意されているフォーカスレンズの位置と被写体距離との対応関係を示す距離取得テーブルを参照することにより取得する。   Note that the CPU 2 calculates the subject distance from, for example, the control position of the focus lens at the time of AF control, or refers to a distance acquisition table indicating a correspondence relationship between the focus lens position and the subject distance prepared in advance. Get by.

引き続き、CPU2は、今回取得した撮影画像における撮影時の被写体距離が閾値以上であるか否かを判断する(ステップSA5)。ここで、上記閾値は、風景や、比較的大きな建造物等を主要被写体とした遠距離撮影が行われたと判断できる距離であり、例えば10mである。   Subsequently, the CPU 2 determines whether or not the subject distance at the time of photographing in the photographed image acquired this time is greater than or equal to the threshold (step SA5). Here, the threshold value is a distance at which it can be determined that long-distance shooting has been performed with a main subject such as a landscape or a relatively large building, for example, 10 m.

被写体距離が閾値以上でない場合(ステップSA5:NO)、すなわち人物撮影等の近距離撮影が行われたと判断できる場合、CPU2は、画像記録部8(メモリカード等)に位置別フォルダが存在するか否かを確認する(ステップSA6)。位置別フォルダは、撮影位置のみに基づきグループ化した画像、つまり位置別グループの画像を格納するフォルダであって、図2に示した例では「B1」と記したグループフォルダ102である。   If the subject distance is not greater than or equal to the threshold (step SA5: NO), that is, if it can be determined that close-up shooting such as person shooting has been performed, the CPU 2 determines whether there is a folder by position in the image recording unit 8 (memory card or the like). It is confirmed whether or not (step SA6). The position-specific folder is a folder for storing images grouped based only on photographing positions, that is, images of position-specific groups, and is the group folder 102 indicated as “B1” in the example shown in FIG.

そして、CPU2は、位置別フォルダが存在していなければ(ステップSA6:NO)、画像記録部8に、位置別フォルダを新たに作成した後(ステップSA7)、作成した位置別フォルダに、今回取得した撮影画像を移動する(ステップSA8)。   If the location folder does not exist (step SA6: NO), the CPU 2 newly creates a location folder in the image recording unit 8 (step SA7), and then obtains the current location folder in the created location folder. The taken image is moved (step SA8).

一方、位置別フォルダが存在する場合(ステップSA6:YES)、CPU2は、位置別フォルダが複数でなければ、つまり1つであれば(ステップSA9:NO)、その位置別フォルダを対象として直ちに後述するステップSA11の判断を行う。また、CPU2は、位置別フォルダが複数であれば(ステップSA9:YES)、今回の撮影位置と最も近い位置(場所)で撮影された画像が格納されている位置別フォルダを特定した後(ステップSA10)、特定した位置別フォルダを対象として以下の確認を行う。   On the other hand, if there is a location-specific folder (step SA6: YES), the CPU 2 will immediately describe the location-specific folder as a target if there are not a plurality of location-specific folders, that is, one (step SA9: NO). Step SA11 is determined. Further, if there are a plurality of position-specific folders (step SA9: YES), the CPU 2 identifies a position-specific folder in which an image photographed at a position (location) closest to the current photographing position is stored (step ST9). SA10) The following confirmation is performed for the specified folder by location.

すなわち、CPU2は、今回の撮影画像を含めた全画像の撮影位置が許容範囲に収まるか否かを判断する(ステップSA11)。つまり対象となっているフォルダ内に格納されている位置別グループの画像に今回の撮影画像を加えた場合に、当該グループの全画像の撮影位置が、互いに予め決められている広さを上限とする範囲の近い撮影位置(以下、同様の場所という。)となるか否かを判断する。なお、ステップSA11の処理において判断する許容範囲は例えば半径100mである。   That is, the CPU 2 determines whether or not the shooting positions of all images including the current shot image are within the allowable range (step SA11). In other words, when the current shot image is added to the image of the position group stored in the target folder, the shooting position of all the images in the group is limited to a predetermined width. It is determined whether or not a shooting position (hereinafter referred to as the same place) is close to the range to be performed. Note that the allowable range determined in the process of step SA11 is a radius of 100 m, for example.

そして、CPU2は、全画像の撮影位置が許容範囲に収まらない場合には(ステップSA11:NO)、画像記録部8に、位置別フォルダを新たに作成した後(ステップSA7)、作成した位置別フォルダに今回取得した撮影画像を移動する(ステップSA8)。これに対し、全画像の撮影位置が許容範囲に収まる場合(ステップSA11:YES)、CPU2は、今回取得した撮影画像を、ステップSA10の処理で特定した既存の位置別フォルダに移動する(ステップSA12)。   If the shooting positions of all the images do not fall within the allowable range (step SA11: NO), the CPU 2 creates a new folder for each position in the image recording unit 8 (step SA7), and then creates the created position-specific folder. The captured image acquired this time is moved to the folder (step SA8). On the other hand, when the shooting positions of all the images are within the allowable range (step SA11: YES), the CPU 2 moves the captured image acquired this time to the existing folder by position specified in the process of step SA10 (step SA12). ).

つまり上述したステップSA6〜SA12の処理によって、CPU2は、被写体距離が閾値未満の撮影画像については、撮影位置のみに基づいて、同一グループ内の画像を同様の場所で撮影された画像とすることを条件(分類条件)として撮影画像をグループ化(分類)し、各々の撮影画像をグループ毎に異なる位置別フォルダに記録する。図2の例では、「0021.JPG」〜「0023.JPG」の画像(静止画ファイル)が、同一の位置別グループに属する画像である。   That is, by the processes in steps SA6 to SA12 described above, the CPU 2 determines that images taken in the same group are taken at the same place based on only the shooting position for a shot image whose subject distance is less than the threshold. The captured images are grouped (classified) as a condition (classification condition), and each captured image is recorded in a different folder for each group. In the example of FIG. 2, images (still image files) “0021.JPG” to “0023.JPG” belong to the same position group.

一方、CPU2は、被写体距離が閾値以上である場合、つまり撮影画像が遠距離撮影であると判断できる場合においては(ステップSA5:YES)、以下の処理を行う。   On the other hand, when the subject distance is greater than or equal to the threshold, that is, when it can be determined that the captured image is long-distance shooting (step SA5: YES), the CPU 2 performs the following processing.

まず、CPU2は、画像記録部8(メモリカード等)に位置・方向別フォルダが存在するか否かを確認する(ステップSA13)。位置・方向別フォルダは、撮影位置と撮影方向とに基づきグループ化した画像、つまり位置・方向別グループの画像を格納するフォルダであって、図2に示した例では「A1」〜「A4」と記したグループフォルダ102である。   First, the CPU 2 checks whether or not a folder for each position / direction exists in the image recording unit 8 (memory card or the like) (step SA13). The folder classified by position / direction is a folder for storing images grouped based on the photographing position and photographing direction, that is, a group of images classified by position / direction. In the example shown in FIG. 2, “A1” to “A4” are stored. Is a group folder 102.

そして、CPU2は、位置・方向別フォルダが存在していなければ(ステップSA13:NO)、図4に示したように、画像記録部8に、位置・方向別フォルダを新たに作成した後(ステップSA14)、作成した位置・方向別フォルダに今回取得した撮影画像を移動する(ステップSA15)。   If the position / direction folder does not exist (step SA13: NO), the CPU 2 creates a new position / direction folder in the image recording unit 8 as shown in FIG. SA14) The captured image acquired this time is moved to the created folder by position / direction (step SA15).

一方、位置・方向別フォルダが存在する場合(ステップSA13:YES)、図4に示したように、CPU2は、位置・方向別フォルダが複数でなければ、つまり1つであれば(ステップSA16:NO)、その位置・方向別フォルダを対象として直ちに後述するステップSA18の判断を行う。また、CPU2は、位置・方向別フォルダが複数であれば(ステップSA16:YES)、今回の撮影位置と最も近い位置(場所)で撮影された画像が格納されている位置・方向別フォルダを特定した後(ステップSA17)、特定した位置・方向別フォルダを対象として以下の確認を行う。   On the other hand, if there are folders by position and direction (step SA13: YES), as shown in FIG. 4, the CPU 2 does not have a plurality of folders by position and direction, that is, one folder (step SA16: NO), the determination in step SA18, which will be described later, is performed immediately for the folder by position and direction. If there are a plurality of position / direction folders (step SA16: YES), the CPU 2 identifies the position / direction folder storing the image photographed at the position (location) closest to the current photographing position. After that (step SA17), the following confirmation is performed for the specified folder by position and direction.

すなわち、CPU2は、今回の撮影画像を含めた全画像の撮影位置が許容範囲に収まるか否かを判断する(ステップSA18)。つまり前述したステップSA11と同様に、対象となっているフォルダ内に格納されている位置・方向別グループの画像に今回の撮影画像を加えた場合に、当該グループの全画像の撮影位置が、予め決められている広さを上限とする範囲の同じ場所となるか否かを判断する。なお、ステップSA18の処理において判断する許容範囲は、ステップSA11の処理において判断する許容範囲と同一でもよいし、異なっていてもよい。   That is, the CPU 2 determines whether or not the shooting positions of all images including the current shot image are within the allowable range (step SA18). That is, as in step SA11 described above, when the current captured image is added to the image of the position / direction group stored in the target folder, the captured positions of all the images in the group are set in advance. It is determined whether or not they are in the same range within a range having a predetermined area as an upper limit. Note that the allowable range determined in step SA18 may be the same as or different from the allowable range determined in step SA11.

そして、CPU2は、全画像の撮影位置が許容範囲に収まらない場合には(ステップSA18:NO)、画像記録部8に、位置・方向別フォルダを新たに作成した後(ステップSA14)、作成した位置・方向別フォルダに今回取得した撮影画像を移動する(ステップSA15)。   Then, when the shooting positions of all the images do not fall within the allowable range (step SA18: NO), the CPU 2 creates a new folder for each position and direction in the image recording unit 8 (step SA14) and creates it. The captured image acquired this time is moved to the folder classified by position / direction (step SA15).

これに対し、全画像の撮影位置が許容範囲に収まる場合(ステップSA18:YES)、引き続き、CPU2は、今回の撮影画像を含めた全画像の撮影方向が許容角度に収まるか否かを判断する(ステップSA19)。つまりCPU2は、対象となっているフォルダ内に格納されている位置・方向別グループの画像に今回の撮影画像を加えた場合に、当該グループの全画像の撮影方向(真北を0°とした角度)が、予め決められている幅を上限とする範囲の似通った撮影方向(以下、同様の方向という。)となるか否かを判断する。なお、許容角度は例えば15°である。   On the other hand, when the shooting positions of all the images fall within the allowable range (step SA18: YES), the CPU 2 continues to determine whether the shooting directions of all the images including the current shot image fall within the allowable angle. (Step SA19). In other words, when the current captured image is added to the image of the position / direction group stored in the target folder, the CPU 2 captures all images in the group (true north is set to 0 °). It is determined whether or not (angle) is a similar shooting direction (hereinafter referred to as the same direction) within a range having a predetermined width as an upper limit. The allowable angle is 15 °, for example.

そして、CPU2は、全画像の撮影方向が許容角度に収まらない場合には(ステップSA19:NO)、画像記録部8に、位置・方向別フォルダを新たに作成した後(ステップSA14)、作成した位置別フォルダに今回取得した撮影画像を移動する(ステップSA15)。これに対し、全画像の撮影方向が許容範囲に収まる場合(ステップSA19:YES)、CPU2は、今回取得した撮影画像を、ステップSA18,SA19の処理で判断の対象とした既存の位置・方向別フォルダに移動する(ステップSA20)。   If the shooting direction of all the images does not fall within the allowable angle (step SA19: NO), the CPU 2 creates a new folder for each position / direction in the image recording unit 8 (step SA14) and creates it. The captured image acquired this time is moved to the folder by position (step SA15). On the other hand, when the shooting direction of all the images falls within the allowable range (step SA19: YES), the CPU 2 determines the captured image acquired this time according to the existing position / direction determined by the processing of steps SA18 and SA19. Move to a folder (step SA20).

つまり上述したステップSA13〜SA20の処理によって、CPU2は、被写体距離が閾値を超える撮影画像については、撮影位置と撮影方向とに基づいて、同一グループ内の画像を、互いに同様の場所で、かつ同様の方向が撮影された画像とすることを条件(分類条件)として撮影画像をグループ化(分類)し、各々の撮影画像をグループ毎に異なる位置・方向別フォルダに記録する。図2の例では、「0001.JPG」、「0002.JPG」、「0005.JPG」の画像(静止画ファイル)が、同一の位置・方向別グループに属する画像である。   That is, by the processes in steps SA13 to SA20 described above, the CPU 2 determines, for the captured images whose subject distance exceeds the threshold, images in the same group at the same place and in the same manner based on the shooting position and the shooting direction. The captured images are grouped (classified) under the condition (classification condition) that the direction of the image is captured, and each captured image is recorded in a folder for each position / direction different for each group. In the example of FIG. 2, the images (still image files) “0001.JPG”, “0002.JPG”, and “0005.JPG” belong to the same position / direction group.

また、図5は、図2の位置・方向別フォルダ(「A1」〜「A4」)に格納されている各画像、つまり複数の位置・方向グループにグループ分けされた各々の画像における撮影位置、及び撮影方向を、東京タワーの周辺を示す地図上に便宜的に示した図である。図5に記した「1」〜「10」が各画像の撮影順で、かつ各画像のファイル名の下二桁(撮影順)であり、矢印で示した方向が撮影方向である。すなわち「1」、「2」、「5」の画像が第1の位置・方向グループに、「3」、「4」の画像が第2の位置・方向グループに、「6」、「9」、「10」の画像が第3の位置・方向グループに、「7」、「8」の画像が第4の位置・方向グループにそれぞれグループ分けされた画像である。   FIG. 5 shows the shooting positions in the images stored in the position / direction folders (“A1” to “A4”) in FIG. 2, that is, the images grouped into a plurality of position / direction groups. It is the figure which showed conveniently and the imaging | photography direction on the map which shows the circumference | surroundings of Tokyo Tower. “1” to “10” shown in FIG. 5 are the shooting order of each image and the last two digits (shooting order) of the file name of each image, and the direction indicated by the arrow is the shooting direction. That is, “1”, “2”, “5” images are in the first position / direction group, and “3”, “4” images are in the second position / direction group, “6”, “9”. , “10” images are grouped into a third position / direction group, and “7” and “8” images are grouped into a fourth position / direction group.

以上のようにデジタルカメラ1においては、撮影画像の記録方法として分類記録が設定されている場合には、撮影時点において、撮影画像が撮影位置と撮影方向とに基づいてグループ化され、各々の撮影画像がグループ毎に異なる位置・方向別フォルダに自動的に記録される。   As described above, in the digital camera 1, when the classification recording is set as the recording method of the captured image, the captured images are grouped based on the capturing position and the capturing direction at the time of capturing, and each captured image is captured. Images are automatically recorded in folders with different positions and directions for each group.

係ることから、同様の場所で撮影された画像であっても、風景や比較的大きな建造物等が撮影された画像については、ほぼ同様の風景等が撮影された画像だけを同一グループに分類することができる。したがって、主要被写体が風景や比較的大きな建造物等である複数の撮影画像を、より適切な状態でグループ化することができる。その結果、例えば撮影後に画像データを整理する際の作業性が向上する。   Therefore, even for images taken at the same place, for images taken of landscapes or relatively large buildings, only images taken of substantially similar landscapes are classified into the same group. be able to. Therefore, it is possible to group a plurality of captured images in which the main subject is a landscape or a relatively large building in a more appropriate state. As a result, for example, workability when organizing image data after shooting is improved.

しかも、デジタルカメラ1においては、撮影位置と撮影方向とに基づく撮影画像のグループ化が、風景や、比較的大きな建造物等を主要被写体とした遠距離撮影が行われたと判断できることを条件として行われる。そのため、風景等が撮影された画像のグルーブに、人物撮影等が撮影された画像が混在する可能性が僅かとなる。したがって、主要被写体が風景や比較的大きな建造物等である複数の撮影画像を、より一層適切な状態でグループ化することができる。   In addition, in the digital camera 1, the grouping of the captured images based on the shooting position and the shooting direction is performed on the condition that it can be determined that long-distance shooting with a landscape or a relatively large building as a main subject has been performed. Is called. For this reason, there is little possibility that an image obtained by photographing a person or the like is mixed in a groove of an image obtained by photographing a landscape or the like. Therefore, it is possible to group a plurality of captured images in which the main subject is a landscape or a relatively large building in a more appropriate state.

なお、本実施形態においては、撮影画像が、風景や比較的大きな建造物等が撮影された画像であるか否かを、CPU2が撮影時における被写体距離を取得し、取得した被写体距離に基づいて判断する構成とした。しかし、CPU2には、本実施形態とは異なる方法によって、撮影画像が風景や比較的大きな建造物等が撮影された画像であるか否かを判断させてもよい。   In the present embodiment, the CPU 2 obtains the subject distance at the time of photographing, based on the obtained subject distance, whether or not the photographed image is an image obtained by photographing a landscape or a relatively large building. It was set as the structure judged. However, the CPU 2 may determine whether or not the captured image is an image of a landscape, a relatively large building, or the like by a method different from the present embodiment.

例えばデジタルカメラ1が撮影モードとして人物撮影用のモードや風景撮影用のモードといった複数種の撮影モードを備えた構成であれば、CPU2に、撮影モードの設定内容を、撮影画像の主要被写体の内容を示す識別情報として取得させ、撮影モードが風景撮影用のモードであった場合に、撮影画像が、風景や比較的大きな建造物等が撮影された画像であると判断させてもよい。   For example, if the digital camera 1 is configured to have a plurality of types of shooting modes such as a person shooting mode and a landscape shooting mode as shooting modes, the CPU 2 sets the shooting mode setting contents and the contents of the main subject of the shot image. When the shooting mode is a landscape shooting mode, it may be determined that the shot image is an image obtained by shooting a landscape, a relatively large building, or the like.

また、例えばCPU2に、撮影画像に人物の顔部分と判断できる特徴部分の有無を検出させ、その検出結果を撮影画像の主要被写体の内容を示す識別情報として、人物の顔部分が検出できたときには、撮影画像が、風景や比較的大きな建造物等が撮影された画像ではないと判断させてもよい。   Also, for example, when the CPU 2 detects the presence or absence of a feature portion that can be determined as a human face portion in the photographed image and uses the detection result as identification information indicating the contents of the main subject in the photographed image, The captured image may be determined not to be an image of a landscape or a relatively large building.

上記のようにCPU2に本実施形態とは異なる方法によって、撮影画像が、風景や比較的大きな建造物等が撮影された画像であるか否かを判断させる場合であっても、風景等が撮影された画像のグルーブに、人物撮影等が撮影された画像が混在する可能性が僅かとなる。したがって、主要被写体が風景や比較的大きな建造物等である複数の撮影画像を、より一層適切な状態でグループ化することができる。   As described above, even when the CPU 2 determines whether or not the photographed image is an image obtained by photographing a landscape, a relatively large building, or the like by a method different from the present embodiment, the landscape or the like is photographed. There is a small possibility that an image obtained by photographing a person or the like is mixed in the groove of the obtained image. Therefore, it is possible to group a plurality of captured images in which the main subject is a landscape or a relatively large building in a more appropriate state.

また、本実施形態では、撮影時点で撮影画像を複数のグループに分類する際には、単に撮影位置と撮影方向とを用いて撮影画像をグループ化したが、撮影時点における撮影画像のグループ化に際しては、撮影位置及び撮影方向以外の他の付属情報を用いて、撮影画像をグループ化するようにしてもよい。その場合における他の付属情報には、例えば撮影日や撮影時刻、撮影画像の解像度(画素数)、ズーム機能を有する構成であればズーム倍率を用いることができる。   In this embodiment, when the captured images are classified into a plurality of groups at the time of shooting, the shot images are simply grouped using the shooting position and the shooting direction. In other words, the captured images may be grouped using additional information other than the shooting position and the shooting direction. As other attached information in that case, for example, a shooting magnification and a zooming factor can be used as long as the shooting date and time, a resolution (number of pixels) of a shot image, and a zoom function are provided.

次に、デジタルカメラ1に再生モードが設定されたときの動作について説明する。デジタルカメラ1においては、再生モードで画像記録部8に記録されている画像を表示する際の表示モードとして、個別表示モードとカレンダー表示モードと地図表示モードとの3種類が予め用意されており、ユーザーが表示モードを必要に応じて所望するモードに適宜設定することができる。   Next, an operation when the playback mode is set in the digital camera 1 will be described. In the digital camera 1, three types of display modes, an individual display mode, a calendar display mode, and a map display mode, are prepared in advance as display modes for displaying an image recorded in the image recording unit 8 in the playback mode. The user can appropriately set the display mode to a desired mode as necessary.

なお、個別表示モードは、ユーザーに選択された任意の画像を個別に表示する一般的な表示モードである。また、カレンダー表示モードは、カレンダー上の各々の日付け位置に、各日に撮影された画像を表示し、該当する画像が複数存在する場合には、最古又は最新の画像を代表画像として表示するモードである。   The individual display mode is a general display mode for individually displaying an arbitrary image selected by the user. In the calendar display mode, images taken on each day are displayed at each date position on the calendar, and when there are a plurality of corresponding images, the oldest or latest image is displayed as a representative image. It is a mode to do.

ここでは、主として表示モードに地図表示モードが設定されている場合のデジタルカメラ1の動作について説明する。なお、表示モードに地図表示モードが設定されている場合には、CPU2がプログラム記憶部9に記憶されているプログラムに従い動作することにより本発明の取得手段、分類手段、地図表示制御手段、特定手段、画像表示制御手段、選択手段、判定手段、変更手段として機能し、以下の処理を実行する。   Here, the operation of the digital camera 1 when the map display mode is set as the display mode will be mainly described. When the map display mode is set as the display mode, the CPU 2 operates according to the program stored in the program storage unit 9 to obtain the acquisition means, classification means, map display control means, and specification means of the present invention. , Function as image display control means, selection means, determination means, change means, and execute the following processing.

図6は、再生モードでCPU2が実行する本発明に係る処理内容を示したフローチャートである。再生モードにおいて、CPU2は、まず地図表示モードが設定されているか否かを確認し、地図表示モードが設定されていないときには(ステップSB1:NO)、直ちに個別表示モードや、カレンダー表示モードによる表示処理に移行する(ステップSB2)。   FIG. 6 is a flowchart showing the processing contents according to the present invention executed by the CPU 2 in the reproduction mode. In the reproduction mode, the CPU 2 first checks whether or not the map display mode is set. If the map display mode is not set (step SB1: NO), the display process immediately in the individual display mode or the calendar display mode is performed. (Step SB2).

一方、地図表示モードが設定されている場合(ステップSB1:YES)、CPU2は、地図表示エリアを設定する(ステップSB3)。なお、再生モードでの処理開始当初においてCPU2が設定する地図表示エリアは、例えば前回、地図表示モードでの動作を終了したとき設定していた特定地域や、GPS部11によって測位された現在位置を含む地域であって、予め決められた縮尺で表現されるエリアである。   On the other hand, when the map display mode is set (step SB1: YES), the CPU 2 sets a map display area (step SB3). The map display area set by the CPU 2 at the beginning of the processing in the playback mode is, for example, the specific area that was set when the operation in the map display mode was ended last time, or the current position measured by the GPS unit 11. It is an area that is included and is expressed in a predetermined scale.

地図表示エリアの設定後、CPU2は、画像記録部8に記録されている画像のうちで、撮影位置が設定した地図表示エリア(以下、設定エリアという。)内の画像を特定する(ステップSB4)。なお、ステップSB4の処理については、CPU2に、既説した位置別フォルダと位置・方向別フォルダとの双方を対象として該当する画像を特定させてもよいし、いずれか一方のグループフォルダ102のみを対象として該当する画像を特定させてもよい。   After setting the map display area, the CPU 2 specifies an image in a map display area (hereinafter referred to as a setting area) set with the shooting position among images recorded in the image recording unit 8 (step SB4). . As for the process of step SB4, the CPU 2 may specify corresponding images for both the position-specific folder and the position / direction-specific folder described above, or only one of the group folders 102 may be specified. You may specify the image applicable as object.

引き続き、CPU2は、該当する画像の撮影位置に基づいて、設定エリア内での画像の密集度を判定する(ステップSB5)。このとき、CPU2は密集度を高、中、低の3段階のレベルで判定する。密集度の判定方法は、設定エリア内での画像の撮影位置の偏りを考慮したものであり、CPU2は以下の方法により密集度を判定する。   Subsequently, the CPU 2 determines the density of the image within the setting area based on the shooting position of the corresponding image (step SB5). At this time, the CPU 2 determines the density at three levels of high, medium, and low. The method for determining the density is a method that considers the deviation of the image capturing position within the setting area, and the CPU 2 determines the density by the following method.

すなわちCPU2は、設定エリアを複数ブロックに分割し、各ブロックについてブロック内の任意の地点で撮影された画像の数をそれぞれ取得し、最大であった画像数を確認する。複数ブロックの各ブロックの大きさ(広さ)は、後述する処理で地図上に表示する画像の大きさに応じて予め決められている大きさである。さらに、CPU2は、全ブロックの位置を上下方向、及び左右方向にそれぞれ半ブロック分ずつ移動させて、ブロックの位置毎に、最大であった画像数をそれぞれ確認する。しかる後、CPU2は、各ブロックの位置を変えて確認した3回分の最大の画像数の平均値、又は最高値から密集度が「高」、「中」、「低」のいずれのレベルであるかを判定する。   That is, the CPU 2 divides the setting area into a plurality of blocks, acquires the number of images taken at arbitrary points in the block for each block, and confirms the maximum number of images. The size (width) of each block of the plurality of blocks is a size determined in advance according to the size of the image displayed on the map in the process described later. Further, the CPU 2 moves the positions of all the blocks by half blocks in the vertical direction and the horizontal direction, respectively, and confirms the maximum number of images for each block position. After that, the CPU 2 changes the position of each block and confirms the average value of the maximum number of images for three times, or the density is any level of “high”, “medium”, and “low” from the highest value. Determine whether.

なお、ステップSB5の処理では、設定エリア内での画像の撮影位置の偏りを考慮せず、設定エリア内での画像の密集度を、単に設定エリアに該当する画像の数に基づき簡易的に判定してもよい。   Note that in the process of step SB5, the density of images in the setting area is simply determined based on the number of images corresponding to the setting area without taking into account the bias of the shooting positions of the images in the setting area. May be.

次に、CPU2は、ステップSB5の処理で判定した密集度に応じた異なる分類条件に従い設定エリアに該当する画像をグループ化する。   Next, the CPU 2 groups the images corresponding to the setting area according to different classification conditions corresponding to the density determined in the process of step SB5.

まず、CPU2は、密集度が高レベルであった場合には(ステップSB6:「高」)、設定エリアに該当する画像を、撮影位置のみに基づく第1の分類条件に従いグループ化する(ステップSB7)。第1の分類条件は、先に説明した撮影画像の記録方法として分類記録が設定されているときの記録モードにおいて、被写体距離が閾値未満の撮影画像をグループ化する場合と同様であり、同一グループ内の画像を同様の場所で撮影された画像とすることである。なお、ステップSB7におけるCPU2の具体的な処理については後述する。   First, when the density is high (step SB6: “high”), the CPU 2 groups the images corresponding to the setting area according to the first classification condition based only on the shooting position (step SB7). ). The first classification condition is the same as that in the case of grouping the captured images whose subject distance is less than the threshold in the recording mode when the classification recording is set as the captured image recording method described above. The image inside is taken as an image taken at the same place. The specific processing of the CPU 2 in step SB7 will be described later.

また、CPU2は、ステップSB5の処理で判定した密集度が中レベルであった場合には(ステップSB6:「中」)、設定エリアに該当する画像を、撮影位置と撮影方向とに基づく第2の分類条件に従いグループ化する処理を行う(ステップSB8)。第2の分類条件は、先に説明した撮影画像の記録方法として分類記録が設定されているときの記録モードにおいて、被写体距離が閾値以上の撮影画像をグループ化する場合と同様であり、同一グループ内の画像を、同様の場所で、かつ同様の方向が撮影された画像とすることである。なお、ステップSB8におけるCPU2の具体的な処理については後述する。   Further, when the density determined in the process of step SB5 is the medium level (step SB6: “medium”), the CPU 2 sets the second image based on the shooting position and the shooting direction for the image corresponding to the setting area. The grouping process is performed according to the classification conditions (step SB8). The second classification condition is the same as that in the case of grouping the captured images with the subject distance equal to or greater than the threshold in the recording mode when the classification recording is set as the captured image recording method described above. The images inside are images taken in the same place and in the same direction. The specific processing of the CPU 2 in step SB8 will be described later.

また、CPU2は、ステップSB5の処理で判定した密集度が低レベルであった場合には(ステップSB6:「低」)、設定エリアに該当する画像を、撮影位置と撮影方向と撮影時刻とに基づく第3の分類条件に従いグループ化する処理を行う(ステップSB9)。第3の分類条件は、先に説明した第2の分類条件に、撮影時刻に関する条件をさらに加えたものであり、同一グループ内の画像を、同様の時間帯に、同様の場所で、かつ同様の方向が撮影された画像とすることである。なお、撮影時刻は、実際には撮影日を含む撮影日時であるが、ここでは便宜上、撮影時刻として説明する。   If the density determined in the process of step SB5 is low (step SB6: “low”), the CPU 2 sets the image corresponding to the setting area to the shooting position, shooting direction, and shooting time. A grouping process is performed in accordance with the third classification condition (step SB9). The third classification condition is obtained by further adding a condition related to the shooting time to the second classification condition described above, and images in the same group in the same place and in the same time zone. The direction of is to be taken images. Note that the shooting time is actually the shooting date and time including the shooting date, but here it will be described as the shooting time for convenience.

上述したようにCPU2は、対象画像のグループ化に際しては、設定エリアに該当する全画像を、設定エリア内での密集度に応じた分割条件(第1〜第3の分類条件)に従いグループ化することにより、対象画像のグループ化後のグループ数を調整する。つまり表示する地図の縮尺が大きいときほど、または設定エリアに該当する画像が多いときほどグループ数が少なくなるようにする。   As described above, when grouping the target images, the CPU 2 groups all the images corresponding to the setting area according to the division condition (first to third classification conditions) according to the density in the setting area. Thus, the number of groups after grouping the target images is adjusted. In other words, the larger the scale of the map to be displayed or the more images corresponding to the setting area, the smaller the number of groups.

ここで、ステップSB9におけるCPU2の具体的な処理について説明する。図7は、第3の分類条件に従い画像をグループ化するときのCPU2の処理を示したフローチャートである。   Here, a specific process of the CPU 2 in step SB9 will be described. FIG. 7 is a flowchart showing the processing of the CPU 2 when images are grouped according to the third classification condition.

第3の分類条件による画像のグループ化に際してCPU2は、まず、設定エリアに該当する画像において撮影(記録)順が最先の画像に最初のグループを設定した後(ステップSB101)、設定エリアに該当する画像において撮影(記録)順が次の画像を処理対象として、撮影時刻と撮影位置と撮影方向とを確認する(ステップSB102)。   When grouping images according to the third classification condition, the CPU 2 first sets the first group in the image with the earliest shooting (recording) order in the image corresponding to the setting area (step SB101), and then corresponds to the setting area. In the image to be captured, the image having the next shooting (recording) order is processed, and the shooting time, shooting position, and shooting direction are confirmed (step SB102).

次にCPU2は、設定済のグループが複数であれば(ステップSB103:YES)、撮影時刻が対象画像と最も近い画像を含むグループを確認対象として設定し(ステップSB104)、以下の処理を行う。なお、処理開始当初は設定済のグループが複数でないため(ステップSB103:NO)、撮影順が最先の画像に設定した最初のグループが確認対象となる。   Next, if there are a plurality of groups that have been set (step SB103: YES), the CPU 2 sets a group that includes an image whose shooting time is closest to the target image as a check target (step SB104), and performs the following processing. Since there are not a plurality of groups that have been set at the beginning of the process (step SB103: NO), the first group that has been set for the image with the earliest shooting order is the subject of confirmation.

その後、CPU2は、確認対象のグループ内における今回の対象画像を含めた全画像の撮影時刻が許容時間に収まるか否かを判断する(ステップSB105)。つまり確認対象となっているグループの全画像の撮影時刻が、互いに予め決められている時間を上限とする時間内の近い時刻(同様の時間帯)となるか否かを判断する。なお、ステップSB104の処理において判断する許容時間は数10分〜数時間であり、例えば30分である。   Thereafter, the CPU 2 determines whether or not the photographing time of all images including the current target image in the confirmation target group falls within the allowable time (step SB105). That is, it is determined whether or not the shooting times of all the images in the group to be checked are close to each other within a time that is a predetermined time (similar time zone). The allowable time determined in the process of step SB104 is several tens of minutes to several hours, for example, 30 minutes.

そして、CPU2は、全画像の撮影時刻が許容時間に収まらなければ(ステップSB105:NO)、対象画像が属するグループとして新たなグループを設定する(ステップSB106)。   If the photographing time of all the images does not fall within the allowable time (step SB105: NO), the CPU 2 sets a new group as the group to which the target image belongs (step SB106).

一方、全画像の撮影時刻が許容時間に収まる場合(ステップSB105:YES)、引き続き、CPU2は、対象画像を含めた全画像の撮影位置が許容範囲に収まるか否かを判断する(ステップSB107)。つまり確認対象となっているグループの全画像の撮影位置が、予め決められている広さを上限とする範囲の同じ場所(同様の場所)となるか否かを判断する。なお、許容範囲は例えば半径100mである。   On the other hand, when the shooting time of all images falls within the allowable time (step SB105: YES), the CPU 2 subsequently determines whether the shooting position of all images including the target image falls within the allowable range (step SB107). . That is, it is determined whether or not the shooting positions of all the images in the group to be checked are in the same place (similar place) within a predetermined upper limit. The allowable range is, for example, a radius of 100 m.

そして、CPU2は、全画像の撮影位置が許容時間に収まらなければ(ステップSB107:NO)、対象画像が属するグループとして新たなグループを設定する(ステップSB106)。   If the photographing positions of all the images do not fall within the allowable time (step SB107: NO), the CPU 2 sets a new group as the group to which the target image belongs (step SB106).

一方、全画像の撮影位置が許容範囲に収まる場合(ステップSB107:YES)、さらに、CPU2は、対象画像を含めた全画像の撮影方向が許容角度に収まるか否かを判断する(ステップSB108)。つまりCPU2は、確認対象となっているグループの全画像の全画像の撮影方向(真北を0°とした角度)が、予め決められている幅を上限とする範囲の似通った撮影方向(同様の方向)となるか否かを判断する。なお、許容角度は例えば15°である。   On the other hand, when the shooting positions of all the images fall within the allowable range (step SB107: YES), the CPU 2 further determines whether the shooting direction of all the images including the target image falls within the allowable angle (step SB108). . In other words, the CPU 2 captures all the images of all the images in the confirmation target group (an angle with true north as 0 °) and a similar shooting direction with a predetermined width as an upper limit (similarly). It is determined whether or not the direction of The allowable angle is 15 °, for example.

そして、CPU2は、全画像の撮影方向が許容角度に収まらなければ(ステップSB107:NO)、対象画像が属するグループとして新たなグループを設定する(ステップSB106)。これに対し、全画像の撮影方向が許容範囲に収まる場合(ステップSB107:YES)、CPU2は、対象画像が属するグループとして、確認対象となっているグループを設定する(ステップSB109)。   If the photographing direction of all the images does not fall within the allowable angle (step SB107: NO), the CPU 2 sets a new group as the group to which the target image belongs (step SB106). On the other hand, when the shooting direction of all images falls within the allowable range (step SB107: YES), the CPU 2 sets a group to be confirmed as a group to which the target image belongs (step SB109).

以後、CPU2は、設定エリアに該当する全ての画像にいずれかのグループを設定するまで、つまりグループ分けが完了するまで(ステップSB110:NO)、ステップSB102〜SB109の処理を繰り返す。なお、その間にCPU2は、設定エリアに該当する各々の各画像がいずれのグループに属するかを画像記録部8(又は内部メモリ)に順次記憶する。そして、全ての画像にいずれかのグループを設定した時点で(ステップSB110:YES)、第3の分類条件による画像のグループ化を完了する。   Thereafter, the CPU 2 repeats the processes of steps SB102 to SB109 until any group is set for all images corresponding to the setting area, that is, until grouping is completed (step SB110: NO). In the meantime, the CPU 2 sequentially stores in the image recording unit 8 (or internal memory) which group each image corresponding to the setting area belongs to. Then, when any group is set for all the images (step SB110: YES), the grouping of images based on the third classification condition is completed.

なお、CPU2が、ステップSB7において対象画像を第1の分類条件によりグループ化するときの処理は、以下の通りである。すなわちCPU2は、上述した図7の処理中、ステップSB102の処理を、次の対象画像の撮影位置を確認する処理に代え、ステップSB104の処理を、撮影位置が対象画像と最も近い画像を含むグループを確認対象として設定する処理に代えるとともに、ステップSB105,SB108の処理を廃止した内容の処理を行い、設定エリアに該当する全ての画像をグループ化する。   The processing when the CPU 2 groups the target images according to the first classification condition in step SB7 is as follows. That is, the CPU 2 replaces the process of step SB102 with the process of confirming the shooting position of the next target image during the process of FIG. 7 described above, and replaces the process of step SB104 with the group including the image whose shooting position is closest to the target image. Is set as a confirmation target, and the processing of the contents in which the processing of steps SB105 and SB108 is abolished is performed, and all the images corresponding to the setting area are grouped.

また、CPU2が、ステップSB8において対象画像を第2の分類条件によりグループ化するときの処理は、以下の通りである。すなわちCPU2は、上述した図7の処理中、ステップSB102の処理を、次の対象画像の撮影位置と撮影方向とを確認する処理に代え、ステップSB104の処理を、撮影位置が対象画像と最も近い画像を含むグループを確認対象として設定する処理に代えるとともに、ステップSB105の処理を廃止した内容の処理を行い、設定エリアに該当する全ての画像をグループ化する。   Further, the processing when the CPU 2 groups the target images according to the second classification condition in step SB8 is as follows. That is, the CPU 2 replaces the process of step SB102 with the process of confirming the shooting position and shooting direction of the next target image during the process of FIG. 7 described above, and replaces the process of step SB104 with the shooting position closest to the target image. In place of the process of setting a group including an image as a confirmation target, the process of the content in which the process of step SB105 is abolished is performed, and all the images corresponding to the setting area are grouped.

そして、CPU2は、前述したように設定エリアに該当する全画像を設定エリア内での密集度に応じた分割条件(第1〜第3の分類条件)に従いグループ化した後、引き続き以下の処理を行う。   Then, as described above, the CPU 2 groups all images corresponding to the setting area according to the division condition (first to third classification conditions) according to the density in the setting area, and then continues the following processing. Do.

まず、CPU2は、設定エリアに該当する全画像について、表示に適することを観点とした画質を、例えば各画像の明るさやコントラスト、被写体ぶれや被写体ボケの度合から評価し、かつ評価結果に従った順位付けを行うとともに、各グループにおいて順位が1位の画像(最良の画質を有する画像)を代表画像として設定する(ステップSB10)。なお、ステップSB10の処理においてCPU2は、各画像における画質の評価結果と、各グループの代表画像となる画像を示す情報とを記憶することにより、画像記録部8(又は内部メモリ)に作業用テーブルを作成する。   First, the CPU 2 evaluates the image quality from the viewpoint of being suitable for display for all images corresponding to the setting area, for example, from the brightness and contrast of each image, the degree of subject blurring and subject blurring, and in accordance with the evaluation result. In addition to ranking, an image ranked first in each group (an image having the best image quality) is set as a representative image (step SB10). In the process of step SB10, the CPU 2 stores the evaluation result of the image quality in each image and information indicating the image that becomes the representative image of each group, so that the work table is stored in the image recording unit 8 (or internal memory). Create

図8は、この時点で作成される作業用テーブル101の概念図である。なお、図8に示した作業用テーブル101は、設定エリアに該当する画像が図5に示した撮影位置、及び撮影方向で撮影された10枚の画像であり、かつ各々の画像が撮影位置と撮影方向とに基づく第2の分類条件に従いA〜Dの4グループにグループ化されたものとして便宜的に例示したものである。   FIG. 8 is a conceptual diagram of the work table 101 created at this time. In the work table 101 shown in FIG. 8, the images corresponding to the setting area are 10 images taken in the shooting position and the shooting direction shown in FIG. 5, and each image is set as the shooting position. For convenience, it is illustrated as being grouped into four groups A to D according to the second classification condition based on the shooting direction.

しかる後、CPU2は、設定エリアの地図、つまり設定されている縮尺の地図を液晶モニタ6の画面上に表示するとともに、作業用テーブル101を参照して各グループの代表画像のデータを画像記録部8から読み出し、各々の代表画像を撮影位置に対応する地図上の位置に所定の大きさで表示させる(ステップSB11)。   After that, the CPU 2 displays a map of the setting area, that is, a map of the set scale on the screen of the liquid crystal monitor 6, and refers to the work table 101 to display the data of the representative image of each group as an image recording unit. 8, each representative image is displayed at a predetermined size at a position on the map corresponding to the shooting position (step SB11).

図9(a)は、地図上に、作業用テーブル101に設定されている代表画像(「2」、「4」、「7」、「10」)が表示された状態を示した図である。また、図10は、図9(a)に示した場合に比べ、ステップSB3の処理で設定された地図表示エリア(表示される地域)が広く、かつ設定エリアに該当する画像が2グループにグループ化された場合の状態を示した図である。つまり液晶モニタ6に、図9(a)に示した地図よりも広域(大縮尺)の地図が表示され、かつ2枚の代表画像(「2」、「10」)が表示された状態を示した図である。   FIG. 9A is a diagram showing a state in which the representative images (“2”, “4”, “7”, “10”) set in the work table 101 are displayed on the map. . Further, in FIG. 10, compared to the case shown in FIG. 9A, the map display area (displayed area) set in the process of step SB3 is wide, and images corresponding to the setting area are grouped into two groups. It is the figure which showed the state at the time of becoming. In other words, the liquid crystal monitor 6 shows a state where a map of a wider area (large scale) than the map shown in FIG. 9A is displayed and two representative images (“2” and “10”) are displayed. It is a figure.

その後、CPU2は、所定のキー操作によって地図の縮尺が変更されたか否か、及び所定のキー操作によっていずれかの代表画像が指定されたか否かを逐次確認する(ステップSB12、ステップSB13)。   Thereafter, the CPU 2 sequentially confirms whether or not the scale of the map has been changed by a predetermined key operation, and whether any representative image has been designated by the predetermined key operation (steps SB12 and SB13).

そして、CPU2は、代表画像の表示中に地図の縮尺が変更されたときには(ステップSB12:YES)、ステップSB3の処理へ戻り、変更後の縮尺に応じた範囲の地域を地図表示エリアとして再設定した後、ステップSB4以降の前述した処理を繰り返す。   When the scale of the map is changed during display of the representative image (step SB12: YES), the CPU 2 returns to the process of step SB3 and resets the area in the range corresponding to the scale after the change as the map display area. After that, the above-described processing after step SB4 is repeated.

また、CPU2は、代表画像の表示中に、いずれかの代表画像が指定されたときには(ステップSB13:YES)、表示中の他の代表画像に代えて、指定された代表画像と同一のグループに分類されている他の全ての画像を地図上に一覧表示させる。図9(b)は、図9(a)に示した状態において、「2」で示した代表画像が指定された後の状態を示した図であり、この場合、代表画像を含む同一グループ3枚の画像(「1」、「2」、「5」)が地図上に一覧表示される。   Further, when any representative image is designated during display of the representative image (step SB13: YES), the CPU 2 replaces the other representative image being displayed with the same group as the designated representative image. List all other classified images on the map. FIG. 9B is a diagram showing a state after the representative image indicated by “2” is designated in the state shown in FIG. 9A. In this case, the same group 3 including the representative image is shown. A list of images (“1”, “2”, “5”) is displayed on the map.

これによりCPU2は、地図表示モードによる画像の表示処理を終了する。なお、その後、CPU2は、例えば一覧表示した画像のいずれかが所定のキー操作によって指定されたら、指定された画像を全画面表示する処理に移行する。   Thereby, CPU2 complete | finishes the display process of the image by map display mode. After that, for example, when any of the displayed images is designated by a predetermined key operation, the CPU 2 shifts to a process of displaying the designated image on the full screen.

以上のようにデジタルカメラ1においては、画像記録部8に記録されている画像を地図表示モードで表示する際には、複数の撮影画像が自動的にグループ化され、各グループの代表画像が、設定エリア(特定地域)の地図上の撮影位置に対応する位置にそれぞれ表示される。その後、ユーザーに指定された代表画像のグループに分類された複数の撮影画像がされる。   As described above, in the digital camera 1, when displaying the image recorded in the image recording unit 8 in the map display mode, a plurality of captured images are automatically grouped, and the representative images of each group are It is displayed at a position corresponding to the shooting position on the map in the setting area (specific area). Thereafter, a plurality of photographed images classified into a group of representative images designated by the user are taken.

そして、複数の撮影画像のグループ化に際しては、設定エリア内に表示すべき画像の密集度が高、中、低の3段階のレベルの「中」また「低」、つまり予め決められた基準よりも低い場合、表示対象の撮影画像が撮影位置と撮影方向、又は撮影位置と撮影方向と撮影時といった複数種の付属情報(画像関連情報)に基づく第2又は第3の分類条件に従いグループ化される。   When grouping a plurality of captured images, the density of images to be displayed in the setting area is “medium” or “low” in three levels of high, medium, and low, that is, based on a predetermined standard. Is lower, the captured images to be displayed are grouped according to the second or third classification condition based on a plurality of types of attached information (image related information) such as a shooting position and a shooting direction, or a shooting position, a shooting direction, and a shooting time. The

係ることから、設定エリア内での画像の密集度が予め決められた基準よりも低い場合においては、同様の場所で撮影された画像であっても、風景や比較的大きな建造物等が撮影された画像については、ほぼ同様の風景等が撮影された画像だけを同一グループに分類することができる。したがって、上記の場合については、主要被写体が風景や比較的大きな建造物等である複数の撮影画像を、より適切な状態でグループ化することができる。その結果、複数の撮影画像を地図上に表示する場合の使い勝手が向上する。   Therefore, when the density of images in the setting area is lower than a predetermined standard, a landscape or a relatively large building is photographed even if the image is photographed in the same place. As for the images, only images in which almost the same scenery is photographed can be classified into the same group. Therefore, in the above case, a plurality of captured images in which the main subject is a landscape or a relatively large building can be grouped in a more appropriate state. As a result, usability when displaying a plurality of captured images on a map is improved.

一方、デジタルカメラ1においては、前述したように設定エリア内に表示すべき画像の密集度に応じて、対象画像を分類した後のグループ数を調整し、表示する地図の縮尺が大きいときほど、また設定エリアに該当する画像が多いときほどグループ数を少なくする。そのため、各グループの代表画像を地図上の撮影位置に対応する位置に表示したときには、複数の代表画像が重なって見づらくなる状態をなくすことができる。これによっても、複数の撮影画像を地図上に表示する場合の使い勝手を向上させることができる。   On the other hand, in the digital camera 1, as described above, the number of groups after classifying the target image is adjusted according to the density of the images to be displayed in the setting area, and as the scale of the map to be displayed is larger, The number of groups is reduced as the number of images corresponding to the setting area increases. Therefore, when the representative image of each group is displayed at a position corresponding to the shooting position on the map, it is possible to eliminate a state where a plurality of representative images overlap and are difficult to see. This also improves the usability when displaying a plurality of captured images on a map.

なお、本実施形態においては、設定エリア内に表示すべき画像の密集度が「高」レベルの場合には、対象画像を撮影位置のみに基づく第1の分類条件に従いグループ化する構成としたが、以下のようにしてもよい。   In this embodiment, when the density of images to be displayed in the setting area is “high” level, the target images are grouped according to the first classification condition based only on the shooting position. The following may be used.

すなわち対象画像をグループ化する際には、常に撮影位置と撮影方向とを含む複数種の付属情報に基づく分割条件に従ったグループ化を行うとともに、設定エリア内に表示すべき画像の密集度に応じて、グループ化に際して使用する撮影位置及び撮影方向以外の他の付属情報の種類を増減することによって、グループ数を調整する構成としてもよい。撮影位置及び撮影方向以外の他の付属情報には、例えば本実施形態で使用した撮影日や撮影時刻の他にも、撮影画像の解像度(画素数)や、ズーム機能を有する構成であればズーム倍率を用いることができる。   In other words, when grouping target images, always perform grouping according to division conditions based on multiple types of attached information including the shooting position and shooting direction, and adjust the density of images to be displayed in the setting area. Accordingly, the number of groups may be adjusted by increasing or decreasing the types of additional information other than the shooting position and shooting direction used for grouping. For example, in addition to the shooting date and the shooting time used in the present embodiment, the attached information other than the shooting position and the shooting direction includes the resolution (number of pixels) of the shot image and the zoom if the configuration has a zoom function. Magnification can be used.

また、本実施形態では、対象画像のグループ化に際して使用される撮影位置及び撮影方向等の複数種の画像関連情報が、静止画ファイルに格納されている付属情報である場合について説明したが、画像関連情報は画像本体に付加されているものである必要はなく、静止画ファイルとは別のデータファイルに記録されていても構わない。   In the present embodiment, a case has been described in which a plurality of types of image-related information such as shooting positions and shooting directions used when grouping target images is attached information stored in a still image file. The related information does not have to be added to the image body, and may be recorded in a data file different from the still image file.

また、図6及び図7に示した処理、つまり記録済の複数の画像をグループ化し、グループを単位として地図上に表示させる処理は、デジタルカメラに限らず、例えば汎用のパーソナルコンピュータ等の他の装置において実施しても構わない。   The process shown in FIGS. 6 and 7, that is, the process of grouping a plurality of recorded images and displaying them on the map as a group is not limited to a digital camera, but may be other types such as a general-purpose personal computer. You may implement in an apparatus.

また、本発明は、撮影時に少なくとも撮影位置及び撮影方向が取得可能な構成を備えたものであれば、本実施形態のようにレンズ一体式の一般的なデジタルカメラに限らず、携帯電話端末等の他の携帯情報機器に内蔵されているデジタルカメラ、さらには静止画撮影が可能なデジタルビデオカメラにも適用することができる。   In addition, the present invention is not limited to a general digital camera integrated with a lens as in the present embodiment as long as it has a configuration capable of acquiring at least a shooting position and a shooting direction at the time of shooting. The present invention can also be applied to digital cameras incorporated in other portable information devices and digital video cameras capable of taking still images.

1 デジタルカメラ
2 CPU
3 光学レンズ装置
4 イメージセンサ
5 画像メモリ
6 液晶モニタ
7 画像処理部
8 画像記録部
9 プログラムコード記憶部
10 キー入力部
11 GPS部
12 方位検出部
1 Digital camera 2 CPU
DESCRIPTION OF SYMBOLS 3 Optical lens apparatus 4 Image sensor 5 Image memory 6 Liquid crystal monitor 7 Image processing part 8 Image recording part 9 Program code memory | storage part 10 Key input part 11 GPS part 12 Direction detection part

Claims (21)

撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得する取得手段と、
複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に含まれる撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する分類手段と
を備えたことを特徴とする画像分類装置。
An acquisition means for acquiring a plurality of types of image-related information including a shooting position and a shooting direction relating to a shot image;
Classifying means for classifying a plurality of photographed images into a plurality of groups according to a classification condition using both photographing positions and photographing directions included in the plurality of types of image-related information obtained by the obtaining means. Image classification device.
各撮影画像が遠距離にある被写体の撮影を意図した遠距離撮影により取得されたものであるか否かを判断する判断手段をさらに備え、
前記分類手段は、前記判断手段によって遠距離撮影により取得されたものであると判断されたことを条件として、複数の撮影画像を撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する
ことを特徴とする請求項1記載の画像分類装置。
A judgment means for judging whether or not each photographed image is acquired by a long distance photographing intended for photographing a subject at a long distance;
The classifying unit classifies a plurality of captured images into a plurality of groups according to a classification condition using both a shooting position and a shooting direction on the condition that the determination unit determines that the images are acquired by long-distance shooting. The image classification apparatus according to claim 1, wherein:
前記判断手段は、各撮影画像が、遠距離にある被写体の撮影を意図した遠距離撮影により取得されたものであるか、近距離にある被写体の撮影を意図した近距離撮影により取得されたものであるか否かを判断し、
前記分類手段は、前記判断手段によって遠距離撮影により取得されたものであると判断された撮影画像については、撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類し、前記判断手段によって近距離撮影により取得されたものであると判断された撮影画像については、前記撮影方向を用いない分類条件に従って複数グループに分類することを特徴とする請求項2記載の画像分類装置。
The determination means is that each captured image is acquired by long-distance shooting intended for shooting a subject at a long distance, or acquired by short-range shooting intended for shooting a subject at a short distance. Whether or not
The classification unit classifies the captured images determined by the determination unit as being acquired by long-distance shooting into a plurality of groups according to a classification condition using both a shooting position and a shooting direction. 3. The image classification apparatus according to claim 2, wherein the captured images determined to be acquired by short-distance shooting are classified into a plurality of groups according to a classification condition that does not use the shooting direction.
前記撮影画像における主要被写体の内容を示す識別情報を取得する識別情報取得手段をさらに備え、
前記判断手段は、前記識別情報取得手段により取得された識別情報により示される主要被写体の内容に基づいて前記撮影画像が前記遠景撮影により取得されたものであるか否かを判断する
ことを特徴とする請求項2記載の画像分類装置。
Further comprising identification information acquisition means for acquiring identification information indicating the content of the main subject in the captured image;
The determination means determines whether or not the captured image is acquired by the distant view shooting based on the content of the main subject indicated by the identification information acquired by the identification information acquisition means. The image classification device according to claim 2.
前記識別情報取得手段は、前記識別情報を前記撮影画像が予め決められた特徴を有するか否かを判断し、その判断結果を前記識別情報として取得することを特徴とする請求項4記載の画像分類装置。   5. The image according to claim 4, wherein the identification information acquisition unit determines whether the photographed image has a predetermined characteristic based on the identification information, and acquires the determination result as the identification information. Classification device. 前記識別情報は、少なくとも、前記主要被写体が風景であるか人物であるかを示し、
前記判断手段は、前記識別情報により前記主要被写体が風景であると示されている場合には、前記撮影画像が前記遠距離撮影により取得されたものであると判断し、前記識別情報により前記主要被写体が人物であると示されている場合には、前記撮影画像が前記近距離撮影により取得されたものであると判断することを特徴とする請求項4または5記載の画像分類装置。
The identification information indicates at least whether the main subject is a landscape or a person,
When the identification information indicates that the main subject is a landscape, the determination unit determines that the captured image is acquired by the long-distance shooting, and the identification information determines the main subject. 6. The image classification apparatus according to claim 4, wherein if the subject is shown to be a person, it is determined that the photographed image is acquired by the short-distance photographing.
前記撮影画像における撮影時の被写体距離を示す距離情報を取得する距離情報取得手段をさらに備え、
前記判断手段は、前記距離情報取得手段により取得された距離情報により示される被写体距離に基づいて前記撮影画像が前記遠景撮影により取得されたものであるか否かを判断する
ことを特徴とする請求項2記載の画像分類装置。
Further comprising distance information acquisition means for acquiring distance information indicating a subject distance at the time of shooting in the shot image;
The determination unit determines whether or not the captured image is acquired by the distant view shooting based on a subject distance indicated by the distance information acquired by the distance information acquisition unit. Item 3. The image classification device according to Item 2.
前記判断手段は、前記距離情報により示される被写体距離が所定距離以上である場合に、前記撮影画像が前記遠距離撮影により取得されたものであると判断し、前記距離情報により示される被写体距離が所定距離未満である場合に、前記撮影画像が前記近距離撮影により取得されたものであると判断することを特徴とする請求項7記載の画像分類装置。   The determination unit determines that the captured image is acquired by the long-distance shooting when the subject distance indicated by the distance information is a predetermined distance or more, and the subject distance indicated by the distance information is The image classification device according to claim 7, wherein when the distance is less than a predetermined distance, it is determined that the captured image is acquired by the short-distance shooting. 表示手段に特定地域の地図を表示させる地図表示制御手段と、
画像記憶手段に記憶されている複数の撮影画像のうちで、撮影位置が前記特定地域に含まれる複数の撮影画像を表示対象として特定する特定手段と、
前記表示手段に、前記特定手段により表示対象として特定された複数の撮影画像を、前記分類手段により分類されたグループを単位として、前記特定地域の地図上における撮影位置に対応する位置に表示させる画像表示制御手段と
をさらに備えたことを特徴とする請求項1乃至8いずれか記載の画像分類装置。
Map display control means for displaying a map of a specific area on the display means;
Among a plurality of captured images stored in the image storage means, a specifying means for specifying a plurality of captured images whose shooting positions are included in the specific area as display targets;
An image for causing the display unit to display a plurality of captured images specified as display targets by the specifying unit at a position corresponding to a shooting position on the map of the specific area in units of groups classified by the classification unit. The image classification apparatus according to claim 1, further comprising display control means.
前記画像表示制御手段は、前記グループを単位とした前記複数の撮影画像の表示に際し、各グループを代表する撮影画像である代表画像を、前記特定地域の地図上における撮影位置に対応する位置に表示させることを特徴とする請求項9記載の画像分類装置。   The image display control means displays a representative image, which is a captured image representing each group, at a position corresponding to a captured position on the map of the specific area when displaying the plurality of captured images in units of the group. The image classification apparatus according to claim 9, wherein: 前記特定手段により表示対象として特定された複数の撮影画像から、表示に最も適した撮影画像を予め決められた基準に従い前記代表画像としてグループ毎に選択する選択手段をさらに備え、
前記画像表示制御手段は、前記選択手段により選択された各グループの代表画像を、前記特定地域の地図上における撮影位置に対応する位置に表示させる
ことを特徴とする請求項10記載の画像分類装置。
A selection unit that selects a photographed image most suitable for display from the plurality of photographed images specified as a display target by the identifying unit as the representative image according to a predetermined criterion;
The image classification apparatus according to claim 10, wherein the image display control unit displays a representative image of each group selected by the selection unit at a position corresponding to a shooting position on the map of the specific area. .
前記分類手段は、前記画像記憶手段に記憶されている複数の前記撮影画像を前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類する
ことを特徴とする請求項9又は10,11記載の画像分類装置。
The classification means classifies the plurality of captured images stored in the image storage means into a plurality of groups according to a classification condition based on a plurality of types of image-related information acquired by the acquisition means. The image classification device according to 9, 10, or 11.
前記分類手段は、前記画像表示制御手段が前記特定手段により表示対象として特定された複数の撮影画像を前記表示手段に表示させる際に、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類する
ことを特徴とする請求項9又は10,11記載の画像分類装置。
The classification unit displays the plurality of captured images specified as display targets by the specifying unit on the display unit when the image display control unit displays on the display unit. 12. The image classification according to claim 9, wherein the plurality of photographed images specified as targets are classified into a plurality of groups according to a classification condition based on a plurality of types of image-related information acquired by the acquisition unit. apparatus.
前記特定手段により表示対象として特定された複数の撮影画像における、前記地図表示制御手段が表示手段に表示させる地図内での撮影位置の密集度を判定する判定手段をさらに備え、
前記分類手段は、前記判定手段により判断された密集度に応じた数の複数種の画像関連情報に基づく分類条件に従って複数グループに分類する
ことを特徴とする請求項13記載の画像分類装置。
A determination unit for determining a density of shooting positions in a map displayed on the display unit by the map display control unit in a plurality of captured images specified as display targets by the specifying unit;
The image classification device according to claim 13, wherein the classification unit classifies the image into a plurality of groups according to a classification condition based on a plurality of types of image-related information corresponding to the density determined by the determination unit.
前記特定手段により表示対象として特定された複数の撮影画像における、前記地図表示制御手段が表示手段に表示させる地図内での撮影位置の密集度を判定する判定手段をさらに備え、
前記分類手段は、前記判定手段により判断された密集度が予め決められた基準よりも低いことを条件として、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類する
ことを特徴とする請求項13記載の画像分類装置。
A determination unit for determining a density of shooting positions in a map displayed on the display unit by the map display control unit in a plurality of captured images specified as display targets by the specifying unit;
The classification means stores a plurality of items specified as display objects by the specifying means, stored in the image storage means, on condition that the density determined by the determining means is lower than a predetermined reference. The image classification apparatus according to claim 13, wherein the captured images are classified into a plurality of groups according to a classification condition based on a plurality of types of image-related information acquired by the acquisition unit.
前記判定手段は、前記予め決められた基準よりも低い側の前記密集度を2段階に分けて判定し、
前記分類手段は、前記判定手段により判断された密集度が前記予め決められた基準よりも低く、かつ前記2段階のうち低い側であることを条件として、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された、撮影位置及び撮影方向と、撮影位置及び撮影方向以外の画像関連情報とに基づく分類条件に従って複数グループに分類する一方、前記判定手段により判断された密集度が前記予め決められた基準よりも低く、かつ前記2段階のうち高い側であることを条件として、前記画像記憶手段に記憶されている、前記特定手段により表示対象として特定された複数の撮影画像を、前記取得手段により取得された撮影位置及び撮影方向のみに基づく分類条件に従って複数グループに分類する
ことを特徴とする請求項15記載の画像分類装置。
The determination means determines the density on the side lower than the predetermined reference in two stages,
The classification means is stored in the image storage means on the condition that the density determined by the determination means is lower than the predetermined reference and is on the lower side of the two stages. A plurality of captured images specified as display targets by the specifying unit are grouped into a plurality of groups according to a classification condition based on the shooting position and shooting direction acquired by the acquiring unit and image related information other than the shooting position and shooting direction. While being classified, the density determined by the determination unit is lower than the predetermined reference and stored on the image storage unit on the condition that it is on the higher side of the two stages. A plurality of captured images specified as display targets by the specifying unit are classified according to a classification condition based only on the shooting position and the shooting direction acquired by the acquiring unit. Image classification apparatus according to claim 15, wherein the classifying the several groups.
前記地図表示制御手段が表示手段に表示させる地図の縮尺を変更する変更手段をさらに備えた
ことを特徴とする請求項14又は15,16記載の画像分類装置。
The image classification apparatus according to claim 14, further comprising changing means for changing a scale of a map displayed on the display means by the map display control means.
被写体を撮影し撮影画像を取得する撮影手段と、
この撮影手段により取得された撮影画像を記憶する画像記憶手段と
をさらに備え、
前記取得手段は、前記撮影手段により取得された撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得し、
前記分類手段は、前記撮影手段により取得された撮影画像を、前記取得手段により取得された複数種の画像関連情報に基づく分類条件に従って複数グループに分類し、分類したグループを単位として前記画像記憶手段に記憶させる
ことを特徴とする請求項1乃至11いずれか記載の画像分類装置。
Photographing means for photographing a subject and obtaining a photographed image;
Image storage means for storing a photographed image acquired by the photographing means,
The acquisition unit acquires a plurality of types of image-related information including a shooting position and a shooting direction related to a shot image acquired by the shooting unit,
The classification unit classifies the captured images acquired by the imaging unit into a plurality of groups according to a classification condition based on a plurality of types of image-related information acquired by the acquisition unit, and the image storage unit in units of the classified groups The image classification device according to claim 1, wherein the image classification device is stored in the image classification device.
撮影画像に関する撮影位置と撮影方向とを含む前記複数種の画像関連情報には、撮影時刻と解像度とズーム倍率とのうち少なくともいずれか1つがさらに含まれることを特徴とすることを特徴とする請求項1乃至18いずれか記載の画像分類装置。   The plurality of types of image-related information including a shooting position and a shooting direction related to a shot image further include at least one of a shooting time, a resolution, and a zoom magnification. Item 19. The image classification device according to any one of Items 1 to 18. 撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得する工程と、
複数の撮影画像を、取得した複数種の画像関連情報に含まれる撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する工程と
を含むことを特徴とする画像分類方法。
Acquiring a plurality of types of image-related information including a shooting position and a shooting direction related to a shot image;
A method of classifying a plurality of photographed images into a plurality of groups according to a classification condition using both photographing positions and photographing directions included in the obtained plural types of image-related information.
コンピュータを、
撮影画像に関する撮影位置と撮影方向とを含む複数種の画像関連情報を取得する取得手段と、
複数の撮影画像を、前記取得手段により取得された複数種の画像関連情報に含まれる撮影位置と撮影方向の両方を用いた分類条件に従って複数グループに分類する分類手段と
して機能させることを特徴とするプログラム。
Computer
An acquisition means for acquiring a plurality of types of image-related information including a shooting position and a shooting direction relating to a shot image;
A function of classifying a plurality of photographed images into a plurality of groups according to a classification condition using both photographing positions and photographing directions included in the plurality of types of image-related information obtained by the obtaining means. Program.
JP2009281819A 2009-12-11 2009-12-11 Image classification apparatus, image classification method, and program Expired - Fee Related JP5509828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009281819A JP5509828B2 (en) 2009-12-11 2009-12-11 Image classification apparatus, image classification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009281819A JP5509828B2 (en) 2009-12-11 2009-12-11 Image classification apparatus, image classification method, and program

Publications (2)

Publication Number Publication Date
JP2011124865A true JP2011124865A (en) 2011-06-23
JP5509828B2 JP5509828B2 (en) 2014-06-04

Family

ID=44288310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009281819A Expired - Fee Related JP5509828B2 (en) 2009-12-11 2009-12-11 Image classification apparatus, image classification method, and program

Country Status (1)

Country Link
JP (1) JP5509828B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016058923A (en) * 2014-09-10 2016-04-21 カシオ計算機株式会社 Image processing system, image processing method, and program
US20210203900A1 (en) * 2020-04-17 2021-07-01 Beijing Baidu Netcom Science And Technology Co., Ltd. Image processing method and apparatus, electronic device and computer-readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282570A (en) * 2003-03-18 2004-10-07 Fuji Xerox Co Ltd Image processor
JP2006146755A (en) * 2004-11-24 2006-06-08 Seiko Epson Corp Display control unit, image display method, and computer program
JP2006185242A (en) * 2004-12-28 2006-07-13 Fuji Photo Film Co Ltd Image synthesizer, image synthesizing program, image synthesizing program storage medium and image synthesizing method
JP2006352369A (en) * 2005-06-14 2006-12-28 Fujifilm Holdings Corp Image file management method and apparatus thereof
JP2007213184A (en) * 2006-02-08 2007-08-23 Seiko Epson Corp Retrieval device, retrieval method, and retrieval program
JP2009237243A (en) * 2008-03-27 2009-10-15 Seiko Epson Corp Display device, display method and display program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282570A (en) * 2003-03-18 2004-10-07 Fuji Xerox Co Ltd Image processor
JP2006146755A (en) * 2004-11-24 2006-06-08 Seiko Epson Corp Display control unit, image display method, and computer program
JP2006185242A (en) * 2004-12-28 2006-07-13 Fuji Photo Film Co Ltd Image synthesizer, image synthesizing program, image synthesizing program storage medium and image synthesizing method
JP2006352369A (en) * 2005-06-14 2006-12-28 Fujifilm Holdings Corp Image file management method and apparatus thereof
JP2007213184A (en) * 2006-02-08 2007-08-23 Seiko Epson Corp Retrieval device, retrieval method, and retrieval program
JP2009237243A (en) * 2008-03-27 2009-10-15 Seiko Epson Corp Display device, display method and display program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016058923A (en) * 2014-09-10 2016-04-21 カシオ計算機株式会社 Image processing system, image processing method, and program
US20210203900A1 (en) * 2020-04-17 2021-07-01 Beijing Baidu Netcom Science And Technology Co., Ltd. Image processing method and apparatus, electronic device and computer-readable storage medium
US11930307B2 (en) * 2020-04-17 2024-03-12 Beijing Baidu Netcom Science Technology Co., Ltd. Image processing method and apparatus, electronic device and computer-readable storage medium

Also Published As

Publication number Publication date
JP5509828B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
US8756009B2 (en) Portable apparatus
US20090135274A1 (en) System and method for inserting position information into image
US8412031B2 (en) Camera with a function of automatically setting shooting conditions and shooting method
JP2004135230A (en) Panorama compositing of two or more image data
JP5446794B2 (en) Imaging apparatus, data processing method, and program
JP2004080359A (en) Digital camera and photographing system
KR20190118654A (en) Image display method and electronic device
JP5396708B2 (en) Electronic camera
JP5387723B2 (en) Image display device, image display method, and image display program
JP5509828B2 (en) Image classification apparatus, image classification method, and program
JP4468794B2 (en) Display control apparatus, camera, and display control method
EP3644600B1 (en) Imaging device, information processing method, system, and carrier means
US20100002095A1 (en) Imaging apparatus and stored picture image playback method
JP5638993B2 (en) Image display device and image display method
JP4803155B2 (en) Panorama composition of multiple image data
JP2011119832A (en) Image display device and image display method
JP5024181B2 (en) Imaging apparatus, image display method, and image display program
US20110205396A1 (en) Apparatus and method, and computer readable recording medium for processing, reproducing, or storing image file including map data
JP2009111827A (en) Photographing apparatus and image file providing system
JP5800280B2 (en) Imaging apparatus, imaging condition control method, program
JP2014120815A (en) Information processing apparatus, imaging device, information processing method, program, and storage medium
JP2012113578A (en) Retrieval apparatus, retrieval method, retrieval program, camera device employing the same and retrieval system
JP2011170491A (en) Location name retrieval device, location name search method and electronic apparatus
JP2004357343A (en) Electronic camera
CN103312964A (en) Imaging apparatus and method for specifying shooting posture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R150 Certificate of patent or registration of utility model

Ref document number: 5509828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees