JP2008028648A - Image reproducing device and image reproducing program - Google Patents

Image reproducing device and image reproducing program Download PDF

Info

Publication number
JP2008028648A
JP2008028648A JP2006198324A JP2006198324A JP2008028648A JP 2008028648 A JP2008028648 A JP 2008028648A JP 2006198324 A JP2006198324 A JP 2006198324A JP 2006198324 A JP2006198324 A JP 2006198324A JP 2008028648 A JP2008028648 A JP 2008028648A
Authority
JP
Japan
Prior art keywords
image
display
shooting
arrangement
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006198324A
Other languages
Japanese (ja)
Other versions
JP4715661B2 (en
Inventor
Isao Takahashi
高橋  功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006198324A priority Critical patent/JP4715661B2/en
Publication of JP2008028648A publication Critical patent/JP2008028648A/en
Application granted granted Critical
Publication of JP4715661B2 publication Critical patent/JP4715661B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To arrange an image according to features of the image and to display it on a map. <P>SOLUTION: A feature detector 103b detects features of a plurality of images photographed in the same photography place, and an image arrangement determining unit 103c determines an arrangement of display images generated from the respective images based upon the detected features of the respective images and arranges the respective display images according to the determined arrangement. Then a display control unit 103d displays the display images at a display position on the map corresponding to the photography place. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像を再生するための画像再生装置、および画像再生プログラムに関する。   The present invention relates to an image playback device and an image playback program for playing back images.

次のような映像再生装置が知られている。この映像再生装置は、映像データに含まれる位置情報に基づいて、地図上の撮影位置や被写***置に相当する位置に映像データを示す記号を表示する。そして、映像データの解析結果に応じて判定されるユーザの嗜好性に基づいて記号の表示属性を変化させて、使用者が映像を容易に選択できるようにしている(例えば特許文献1)。   The following video reproduction apparatuses are known. This video reproduction apparatus displays a symbol indicating video data at a position corresponding to a shooting position or a subject position on a map based on position information included in the video data. Then, the display attribute of the symbol is changed based on the user's preference determined according to the analysis result of the video data so that the user can easily select the video (for example, Patent Document 1).

特開2004−242288号公報JP 2004-242288 A

しかしながら、従来の映像再生装置では、地図上に表示した記号の表示属性を変化させているが、その記号に対応する映像データが複数ある場合には記号の表示属性の変化がいずれの映像データによるものかを判別できず、使用者は各映像データの特徴を把握することができなかった。   However, in the conventional video reproduction device, the display attribute of the symbol displayed on the map is changed. However, when there are a plurality of video data corresponding to the symbol, the change in the display attribute of the symbol depends on which video data. The user was unable to determine whether it was a thing, and the user could not grasp the characteristics of each video data.

本発明は、同じ撮影場所で撮影された複数枚の画像の特徴をそれぞれ検出し、検出した各画像の特徴に基づいて、各画像から生成された表示用画像の配置を決定し、決定した配置に従って各表示用画像を配置し、撮影場所に応じた地図上の表示位置に表示することを特徴とする。
ここで、画像内のフォーカスエリアを画像の特徴として検出してもよく、この場合、各画像からフォーカスエリアを含む画像を抽出して表示用画像とし、各画像内におけるフォーカスエリアの位置に応じて表示用画像の配置を決定してもよい。
また、画像の撮影方向を画像の特徴として検出し、各画像に基づいて生成された縮小画像を表示用画像とし、各画像の撮影方向に応じて表示用画像の配置を決定すればよい。
また、撮影時の撮影条件、すなわち撮影倍率または被写界深度を画像の特徴として検出し、各画像に基づいて生成された縮小画像を表示用画像とし、各画像間の撮影倍率の大小関係または被写界深度の大小関係に基づいて、表示用画像の配置を決定してもよい。
さらに、画像データの情報量を画像の特徴として検出してもよい。このとき、画像データは静止画データと動画データとを含み、情報量は静止画データの画素数または動画データの撮影時間としてもよい。そして、この場合には、各画像に基づいて生成された縮小画像を表示用画像とし、各画像間の静止画データの画素数の大小関係または動画データの撮影時間の大小関係に基づいて、表示用画像の配置を決定すればよい。
The present invention detects the characteristics of a plurality of images shot at the same shooting location, determines the arrangement of display images generated from each image based on the detected characteristics of each image, and determines the determined arrangement Each display image is arranged according to the above and is displayed at a display position on a map corresponding to the shooting location.
Here, the focus area in the image may be detected as a feature of the image. In this case, an image including the focus area is extracted from each image as a display image, and the focus area in each image is determined according to the position of the focus area. The arrangement of the display image may be determined.
Further, the image capturing direction may be detected as an image feature, a reduced image generated based on each image may be used as a display image, and the arrangement of the display image may be determined according to the image capturing direction of each image.
Also, shooting conditions at the time of shooting, that is, shooting magnification or depth of field are detected as image features, and a reduced image generated based on each image is used as a display image. The arrangement of the display image may be determined based on the magnitude relationship of the depth of field.
Further, the information amount of the image data may be detected as an image feature. At this time, the image data includes still image data and moving image data, and the amount of information may be the number of pixels of still image data or the shooting time of moving image data. In this case, a reduced image generated based on each image is used as a display image, and the display is performed based on the size relationship of the number of pixels of still image data or the shooting time of moving image data between the images. What is necessary is just to determine arrangement | positioning of the image for work.

本発明によれば、表示用画像の配置位置に基づいて画像の特徴を把握することができる。   According to the present invention, it is possible to grasp the characteristics of an image based on the arrangement position of the display image.

図1は、本実施の形態における画像再生装置の一実施の形態の構成を示すブロック図である。画像再生装置100は、入力装置101と、外部インターフェース102と、制御装置103と、HDD104と、モニタ105とを備えている。   FIG. 1 is a block diagram showing a configuration of an embodiment of an image reproduction apparatus according to the present embodiment. The image reproduction device 100 includes an input device 101, an external interface 102, a control device 103, an HDD 104, and a monitor 105.

入力装置101は、例えば、キーボードやマウスなどの使用者が画像再生装置100に対する入力信号を入力するための装置である。使用者によって入力装置101を介して入力された操作信号は制御装置103へ出力され、制御装置103では操作信号に応じた種々の処理が実行される。   The input device 101 is a device for a user such as a keyboard and a mouse to input an input signal to the image reproduction device 100, for example. The operation signal input by the user via the input device 101 is output to the control device 103, and the control device 103 executes various processes according to the operation signal.

外部インターフェース102は、例えばUSBインターフェースや無線LANモジュールなど、外部機器と有線通信または無線通信を行うためのインターフェースである。後述する制御装置103は、この外部インターフェース102を介して外部機器、例えばカメラ(デジタルカメラ)から画像ファイルを取り込む。または、外部インターフェース102として、メモリカードなどの記憶媒体を挿入するためのメモリカードスロットを設け、メモリカード経由で画像ファイルを取り込むようにしてもよい。   The external interface 102 is an interface for performing wired communication or wireless communication with an external device such as a USB interface or a wireless LAN module. A control device 103 (to be described later) takes in an image file from an external device such as a camera (digital camera) via the external interface 102. Alternatively, a memory card slot for inserting a storage medium such as a memory card may be provided as the external interface 102, and an image file may be captured via the memory card.

HDD104は、外部インターフェース102を介して取り込まれた画像ファイル、画像再生装置100を動作させるための種々のプログラム、および後述する地図データを記録するためのハードディスクドライブである。モニタ105は、例えば液晶モニタであり、制御装置103によってその表示内容が制御される。   The HDD 104 is a hard disk drive for recording image files taken in via the external interface 102, various programs for operating the image playback apparatus 100, and map data to be described later. The monitor 105 is a liquid crystal monitor, for example, and the display content is controlled by the control device 103.

ここでHDD104に記録される地図データについて説明する。本実施の形態では、XYZ座標系で表される3次元の地図データを用い、地図上の任意の地点は、X座標値、Y座標値、Z座標値によって特定される。すなわち、地図上の横方向の位置をX座標値により特定し、縦方向の位置をY座標値によって特定し、地図上の高さ方向の位置をZ座標値によって特定する。これによって、実空間上で緯度、経度、標高の3つの情報によって特定される地点を、地図上では、X座標値、Y座標値、Z座標値の組み合わせによって特定することができる。なお、HDD104には、複数のスケール(縮尺率)の地図データが格納されており、後述する地図表示部103aによって、任意の縮尺率の地図データが読み込まれてモニタ105へ出力される。   Here, map data recorded in the HDD 104 will be described. In the present embodiment, three-dimensional map data represented by an XYZ coordinate system is used, and an arbitrary point on the map is specified by an X coordinate value, a Y coordinate value, and a Z coordinate value. That is, the horizontal position on the map is specified by the X coordinate value, the vertical position is specified by the Y coordinate value, and the height direction position on the map is specified by the Z coordinate value. Thereby, a point specified by three pieces of information of latitude, longitude, and altitude in the real space can be specified by a combination of the X coordinate value, the Y coordinate value, and the Z coordinate value on the map. The HDD 104 stores map data of a plurality of scales (scale ratios). Map data of an arbitrary scale ratio is read and output to the monitor 105 by a map display unit 103a described later.

次に、外部インターフェース102を介して取り込まれる画像ファイルについて説明する。ここで取り込まれる画像ファイルは、画像データを格納する画像データ部と、画像データに関する付加情報を格納する付加情報部とを備えたファイル形式の画像ファイル、例えばExif形式の画像ファイルである。画像データ部には、デジタルカメラで撮像され、種々の画像処理が施された後、所定の画像形式、例えばJpeg形式に圧縮された画像データが格納されている。   Next, an image file captured via the external interface 102 will be described. The image file captured here is an image file in a file format including an image data portion for storing image data and an additional information portion for storing additional information related to the image data, for example, an Exif format image file. The image data portion stores image data that has been captured by a digital camera, subjected to various image processing, and then compressed into a predetermined image format, for example, the Jpeg format.

付加情報部には、画像データ部に記録されている画像データのサムネイル画像(縮小画像)や画像の撮影日時や撮影条件などの画像データ部に格納される画像データの特徴を示す種々の情報が格納される。ここで、サムネイル画像は画像を撮影したデジタルカメラで生成されて格納されているものとする。また、画像データの特徴を示す情報としては、(A)フォーカスエリア位置に関する情報、(B)画像の撮影方向に関する情報、(C)画像の撮影条件に関する情報、および(D)画像の情報量に関する情報が少なくとも付加情報部には含まれているものとする。以下、付加情報部に含まれる各情報について詳細に説明する。   In the additional information section, various information indicating the characteristics of the image data stored in the image data section such as the thumbnail image (reduced image) of the image data recorded in the image data section, the shooting date and time of the image, and shooting conditions are stored. Stored. Here, it is assumed that the thumbnail image is generated and stored by the digital camera that captured the image. The information indicating the characteristics of the image data includes (A) information on the focus area position, (B) information on the shooting direction of the image, (C) information on the shooting conditions of the image, and (D) information on the amount of information of the image. Information is included at least in the additional information section. Hereinafter, each piece of information included in the additional information section will be described in detail.

(A)フォーカスエリア位置に関する情報
フォーカスエリア位置に関する情報は、画像内における画像撮影時のフォーカスエリア位置を示す情報である。本実施の形態では、画像を撮影したデジタルカメラが撮影範囲内を複数の領域に分割し、そのいずれかの領域をフォーカスエリアとして設定して画像を撮影する機能を有しているときに、撮影時にどの領域がフォーカスエリアとして設定されていたかを示す情報が含まれている。例えば、図2に示すように、デジタルカメラが撮影範囲2a内を縦9×横16の複数領域に分割して、いずれかの領域をフォーカスエリアとして設定して画像を撮影する場合には、各領域には、それぞれの領域を一意に識別するための領域番号が付加されている。そして、画像撮影時に領域2bがフォーカスエリアとして設定されていた場合には、当該領域2bに割り当てられている領域番号がフォーカスエリア位置に関する情報として付加情報部に記録される。
(A) Information on the focus area position Information on the focus area position is information indicating the focus area position at the time of image capturing in the image. In this embodiment, when a digital camera that has captured an image has a function of dividing an image capturing range into a plurality of areas and setting one of the areas as a focus area to capture an image. Sometimes information indicating which area is set as the focus area is included. For example, as shown in FIG. 2, when a digital camera divides the shooting range 2a into a plurality of 9 × 16 horizontal areas and sets one of the areas as a focus area, An area number for uniquely identifying each area is added to the area. When the area 2b is set as the focus area at the time of image shooting, the area number assigned to the area 2b is recorded in the additional information section as information regarding the focus area position.

(B)画像の撮影方向に関する情報
画像の撮影方向に関する情報は、画像撮影時にデジタルカメラが向いていた方位を示す情報(撮影方位情報)、および画像撮影時における水平方向に対するデジタルカメラの仰角を示す情報(仰角情報)とを含んでいる。なお、撮影方位情報は画像を撮影したデジタルカメラが備える方位センサで検出されたものであり、仰角情報はデジタルカメラが備えるジャイロセンサで検出されたものである。
(B) Information related to the image capturing direction The information related to the image capturing direction indicates information indicating the direction in which the digital camera was facing at the time of image capturing (image capturing direction information) and the elevation angle of the digital camera relative to the horizontal direction at the time of image capturing. Information (elevation angle information). Note that the shooting direction information is detected by the direction sensor included in the digital camera that captured the image, and the elevation angle information is detected by the gyro sensor included in the digital camera.

本実施の形態では、デジタルカメラは、例えば図3に示すように、画像の撮影方位としては、撮影地点3aからみた北(N)、東(E)、西(W)、南(S)、北東(NE)、北西(NW)、東南(ES)、および西南(WS)の8方位のうちいずれかの方位を検出して付加情報部に記録することができる。この場合に、使用者が撮影地点から北を向いて画像を撮影した場合には、画像の撮影方位に関する情報としては「北」を示す情報として「N」が記録される。なお、8方位のそれぞれに1〜8の番号を付加し、画像の撮影方位に関する情報として撮影方位に応じた番号を記録するなど、その他の方位を識別するための情報を記録するようにしてもよい。   In the present embodiment, for example, as shown in FIG. 3, the digital camera has an image shooting direction of north (N), east (E), west (W), south (S), as viewed from the shooting point 3a. Any one of eight directions of northeast (NE), northwest (NW), southeast (ES), and southwest (WS) can be detected and recorded in the additional information section. In this case, when the user photographs an image facing the north from the photographing point, “N” is recorded as information indicating “north” as information regarding the photographing direction of the image. In addition, information for identifying other orientations may be recorded, such as adding numbers 1 to 8 to each of the eight orientations and recording a number corresponding to the orientation of the image as information relating to the orientation of the image. Good.

(C)画像の撮影条件に関する情報
画像の撮影条件に関する情報としては、少なくとも撮影日時情報、撮影時の撮影倍率情報、撮影時の被写界深度情報、および画像撮影地点の位置情報が記録される。ここで、画像撮影地点の位置情報としては、デジタルカメラが備える位置検出装置によって検出された画像撮影時のデジタルカメラの位置情報がHDD104に記録されている地図データ上で特定可能な情報に変換されて記録される。例えば、デジタルカメラでは、GPSセンサによって撮影地点の緯度および経度を検出し、高度センサによって撮影地点の標高を検出した場合には、検出した緯度、経度、および標高を地図データ上のX座標値、Y座標値、およびZ座標値に変換する。そして、変換後の座標値(X,Y,Z)が画像撮影地点の位置情報として記録される。
(C) Information on image shooting conditions Information on image shooting conditions includes at least shooting date / time information, shooting magnification information at the time of shooting, depth of field information at the time of shooting, and position information of the image shooting point. . Here, as the position information of the image shooting point, the position information of the digital camera at the time of image shooting detected by the position detection device provided in the digital camera is converted into information that can be specified on the map data recorded in the HDD 104. Recorded. For example, in a digital camera, when the latitude and longitude of a shooting point are detected by a GPS sensor and the elevation of the shooting point is detected by an altitude sensor, the detected latitude, longitude, and elevation are converted into X coordinate values on map data, Convert to Y coordinate value and Z coordinate value. Then, the converted coordinate values (X, Y, Z) are recorded as the position information of the image shooting point.

(D)画像の情報量に関する情報
画像の情報量に関する情報としては、画像データ部に格納される画像データの記録画素数が記録される。すなわち、画像データの記録画素数が大きいほど画像の情報量は多く、画像データの記録画素数が小さいほど画像の情報量は少ないことから、本実施の形態ではこの画像データの記録画素数を画像の情報量に関する情報として用いる。
(D) Information relating to information amount of image As information relating to the information amount of the image, the number of recording pixels of the image data stored in the image data portion is recorded. That is, the larger the number of recorded pixels of image data, the larger the amount of image information, and the smaller the number of recorded pixels of image data, the smaller the amount of information of the image. It is used as information related to the amount of information.

制御装置103は、CPU、メモリ、およびその他周辺回路で構成され、地図表示部103aと、特徴検出部103bと、画像配置決定部103cと、表示制御部103dとを機能的に備えている。   The control device 103 includes a CPU, a memory, and other peripheral circuits, and functionally includes a map display unit 103a, a feature detection unit 103b, an image arrangement determination unit 103c, and a display control unit 103d.

地図表示部103aは、使用者によって入力装置101が操作されてモニタ105への地図の表示が指示されると、HDD104から地図データを読み込んでモニタ105へ出力する。このとき、使用者は地図を表示する地点、および表示する地図の縮尺率を指定することができる。例えば、使用者は地点として住所や施設名などを指定することができ、地図の縮尺率として1/50000などを指定することができる。   When the user operates the input device 101 to instruct display of a map on the monitor 105, the map display unit 103a reads map data from the HDD 104 and outputs it to the monitor 105. At this time, the user can designate the point where the map is displayed and the scale ratio of the map to be displayed. For example, the user can specify an address, a facility name, or the like as a point, and can specify 1 / 50,000 or the like as a map scale ratio.

地図表示部103aは、HDD104に記録されている使用者によって指定された縮尺率の地図データの中から、使用者によって指定された地点を含み、かつモニタ105内に表示することができる範囲の地図データ、すなわち使用者によって指定された地点を含む周辺地図の地図データを読み込んでモニタ105へ出力する。   The map display unit 103a includes a map of a range that can be displayed on the monitor 105 including a point specified by the user from map data of a scale specified by the user recorded in the HDD 104. Data, that is, map data of a surrounding map including the point designated by the user is read and output to the monitor 105.

特徴検出部103b〜表示制御部103dの各部は、地図表示部103aによってモニタ105に表示された地図上に各地点で撮影された画像に基づいて生成された表示用画像を表示する。   Each part of the feature detection unit 103b to the display control unit 103d displays a display image generated based on an image photographed at each point on the map displayed on the monitor 105 by the map display unit 103a.

ここで、一般的に、地図上の撮影地点に相当する位置に画像を表示する従来の装置では、表示用画像としてサムネイル画像を用いていた。そして、複数枚の画像が同一地点で撮影されている場合には、モニタ105内の限られた範囲内に複数のサムネイル画増が不規則に表示されたり、あるいは各サムネイル画像の一部または全体が重なった状態で表示されたりするため、地図上に表示されたサムネイル画像の中から使用者が所望の画像を選択することが困難であった。   Here, in general, a conventional apparatus that displays an image at a position corresponding to a shooting point on a map uses a thumbnail image as a display image. When a plurality of images are taken at the same point, a plurality of thumbnail image increases are irregularly displayed within a limited range in the monitor 105, or a part or the whole of each thumbnail image is displayed. Are displayed in a state where they overlap, it is difficult for the user to select a desired image from among the thumbnail images displayed on the map.

よって、本実施の形態では、特徴検出部103b〜表示制御部103dの各部は、従来の装置におけるこれらの不具合を解決するために、複数枚の画像が同一地点で撮影されている場合には、各画像の特徴に基づいて表示用画像の配置位置を決定し、決定した配置位置に従って地図上に表示用画像を表示するようにする。ここで、地図上に表示する表示用画像については後述することとする。以下、特徴検出部103b〜表示制御部103dの各部による処理を具体的に説明する。   Therefore, in the present embodiment, each part of the feature detection unit 103b to the display control unit 103d has a plurality of images taken at the same point in order to solve these problems in the conventional apparatus. The arrangement position of the display image is determined based on the feature of each image, and the display image is displayed on the map according to the determined arrangement position. Here, the display image displayed on the map will be described later. Hereinafter, the processing by each unit of the feature detection unit 103b to the display control unit 103d will be specifically described.

特徴検出部103bは、HDD104に記録されている画像ファイルの付加情報部から上述した(A)〜(D)の画像データの特徴を示す情報を読み込んで、各画像ファイルに含まれる画像データの特徴を検出する。ここで読み込んだ画像データの特徴を示す情報は、制御装置103が有するメモリ内に記録される。そして、特徴検出部103bは、検出した各画像データの特徴に基づいて、HDD104に記録されている画像ファイルの中からモニタ105上に表示された地図上に表示する表示対象の画像ファイルを選択する。   The feature detection unit 103b reads the information indicating the features of the image data (A) to (D) described above from the additional information portion of the image file recorded in the HDD 104, and the feature of the image data included in each image file. Is detected. Information indicating the characteristics of the read image data is recorded in a memory included in the control device 103. Then, the feature detection unit 103b selects an image file to be displayed on the map displayed on the monitor 105 from the image files recorded on the HDD 104, based on the detected feature of each image data. .

すなわち、特徴検出部103bは、HDD104内にモニタ105上に表示されている地図の範囲内で撮影された画像ファイルがある場合には、それらを表示対象の画像ファイルとして選択する。このために、特徴検出部103bは、メモリに記録した各画像の画像の撮影条件に関する情報に含まれる画像撮影地点の位置情報に基づいて、画像の撮影地点が地図表示部103aによってHDD104から読み込まれた地図データの範囲内に含まれている画像ファイルを表示対象の画像ファイルとして選択する。   That is, if there are image files shot within the range of the map displayed on the monitor 105 in the HDD 104, the feature detection unit 103b selects them as display target image files. For this purpose, the feature detection unit 103b reads the image shooting point from the HDD 104 by the map display unit 103a based on the position information of the image shooting point included in the information related to the shooting condition of the image of each image recorded in the memory. The image file included in the range of the map data is selected as the display target image file.

ここで、HDD104内にモニタ105上に表示されている地図の範囲内で撮影された画像ファイルがない場合には、表示対象の画像ファイルが存在しないことから処理を終了する。なお、モニタ105に表示されている地図の範囲は、地図の縮尺によって異なる。すなわち、地図の縮尺率が小さい場合にはモニタ105には広範囲の地図が表示されるが、地図の縮尺率が大きい場合には、縮尺率が小さい場合と比べてモニタ105には狭い範囲の地図が表示されることになる。   Here, if there is no image file taken within the range of the map displayed on the monitor 105 in the HDD 104, the processing ends because there is no image file to be displayed. Note that the range of the map displayed on the monitor 105 varies depending on the scale of the map. That is, when the scale of the map is small, a wide range map is displayed on the monitor 105, but when the scale of the map is large, the monitor 105 has a narrower range of maps than when the scale is small. Will be displayed.

画像配置決定部103cは、特徴検出部103bによって選択された表示対象の画像ファイルをHDD104から読み込む。そして、読み込んだ画像の撮影地点の位置情報に基づいて、複数枚の画像が撮影された地図上の地点を特定する。例えば、各画像ファイルを撮影地点ごとにグルーピングし、複数の画像ファイルが含まれるグループを抽出することによって、複数枚の画像が撮影された地図上の地点を特定することができる。なお、画像配置決定部103cは、特徴検出部103bによってメモリに記録された画像データの特徴を示す情報に基づいて処理を行うことによって、その都度、画像ファイルの付加情報部にアクセスして情報を読み込む必要がなくなり、処理の速度を高速化することができる。   The image arrangement determination unit 103 c reads the image file to be displayed selected by the feature detection unit 103 b from the HDD 104. Then, a point on the map where a plurality of images are photographed is specified based on the position information of the photographing point of the read image. For example, by grouping each image file for each shooting point and extracting a group including a plurality of image files, the point on the map where a plurality of images are shot can be specified. Note that the image arrangement determination unit 103c performs processing based on information indicating the characteristics of the image data recorded in the memory by the feature detection unit 103b, thereby accessing the additional information unit of the image file each time to obtain information. There is no need to read it, and the processing speed can be increased.

画像配置決定部103cは、このようにして特定した地図上における複数枚の画像が撮影された地点ごとに、同じ場所で撮影された画像に対応する表示用画像の配置を決定する。本実施の形態では、表示用画像として使用する画像、および表示用画像の配置方法は、上述した(A)〜(D)の各画像データの特徴を示す情報のうち、いずれの情報を用いて処理を行うかによって異なる。このため画像配置決定部103cは、(A)〜(D)の内、どの情報に基づいて表示用画像の配置を決定する必要があるかを判定して、判定結果に応じた処理を行う。   The image arrangement determining unit 103c determines the arrangement of the display images corresponding to the images taken at the same place for each spot where a plurality of images on the map specified in this way are taken. In this embodiment, the image used as the display image and the arrangement method of the display image are any of the above-described information indicating the characteristics of the image data (A) to (D). Depends on whether processing is performed. For this reason, the image arrangement determining unit 103c determines which information of (A) to (D) needs to determine the arrangement of the display image, and performs processing according to the determination result.

本実施の形態では、(A)〜(D)の内、どの情報に基づいて表示用画像の配置を決定するかは、使用者によってあらかじめ設定されるものとする。しかし他の方法として、例えば画像ファイルに(A)〜(D)の内、いずれかの情報しか含まれていない場合には、自動的にその情報に基づいて表示用画像の配置を決定するようにしてもよい。   In the present embodiment, it is assumed that a user determines in advance which information among (A) to (D) the arrangement of the display image is to be determined. However, as another method, for example, when the image file includes only one of the information items (A) to (D), the arrangement of the display image is automatically determined based on the information. It may be.

以下、(A)〜(D)の各情報に応じた画像配置決定部103cによる処理について(a)〜(d)によりそれぞれ説明する。なお、ここでは、複数枚の画像が撮影された1地点について複数枚の表示用画像の配置を決定する方法について説明する。よって、モニタ105に表示された地図上に、複数枚の画像が撮影された地点が複数ある場合には、以下に説明する処理をそれぞれの地点に対して実行すればよい。   Hereinafter, the processing by the image arrangement determination unit 103c corresponding to each piece of information (A) to (D) will be described with reference to (a) to (d). Here, a method for determining the arrangement of a plurality of display images at one point where a plurality of images are taken will be described. Therefore, when there are a plurality of points where a plurality of images are taken on the map displayed on the monitor 105, the processing described below may be executed for each point.

(a)画像データの特徴を示す情報として「フォーカスエリア位置に関する情報」を使用した場合の処理
この場合、画像配置決定部103cは、同じ場所で撮影された複数の画像のフォーカスエリア位置に関する情報に基づいて、各画像内のフォーカスエリア位置を特定する。すなわち、同じ場所で撮影された複数枚の画像のそれぞれについて、図2に示したように撮影時に撮影範囲2a内のどの領域がフォーカスエリア2bとして設定されていたかを特定する。
(A) Processing when “information on focus area position” is used as information indicating the characteristics of image data In this case, the image arrangement determining unit 103c uses information on the focus area positions of a plurality of images taken at the same place. Based on this, the focus area position in each image is specified. That is, for each of a plurality of images shot at the same place, as shown in FIG. 2, which region in the shooting range 2a is set as the focus area 2b at the time of shooting is specified.

画像配置決定部103cは、各画像から特定したフォーカスエリアを含む所定の大きさの領域を切り出すことによって表示用画像を生成する。例えば図4(a)に示すように、画像内を9つの領域4a〜4iに分割しておき、画像配置決定部103cは、領域4a〜4iの中から画像内のフォーカスエリア位置が含まれる領域を表示用画像として切り出す。   The image arrangement determining unit 103c generates a display image by cutting out a region having a predetermined size including the focus area identified from each image. For example, as shown in FIG. 4A, the image is divided into nine areas 4a to 4i, and the image arrangement determining unit 103c includes an area including the focus area position in the image from the areas 4a to 4i. Is cut out as a display image.

なお、本実施の形態では、図4(a)に示すように、9つの領域4a〜4iのうち中央に位置する3つの領域4d〜4fの大きさを、その他の領域4a〜4cおよび4g〜4iの大きさよりも小さく設定しておくことによって、表示用画像として切り出す領域の大きさを画像内のフォーカスエリア位置に基づいて重み付けを行うことができる。   In the present embodiment, as shown in FIG. 4A, the size of the three regions 4d to 4f located at the center of the nine regions 4a to 4i is set to the other regions 4a to 4c and 4g to 4g. By setting the size smaller than 4i, the size of the area to be cut out as the display image can be weighted based on the focus area position in the image.

例えば、同じ場所で撮影された画像が図4(a)に示す画像と図4(b)に示す画像の2枚である場合には、画像配置決定部103cは、図4(a)に示す画像からはフォーカスエリア2bを含む領域4aを表示用画像4aとして切り出す。また、図4(b)に示す画像からはフォーカスエリア2bを含む領域4eを表示用画像4eとして切り出す。そして、画像配置決定部103cは、切り出し元となった画像内における各表示用画像の切り出し位置に応じて、それぞれの表示用画像の配置位置を決定する。   For example, when there are two images taken at the same place, the image shown in FIG. 4A and the image shown in FIG. 4B, the image arrangement determining unit 103c is shown in FIG. 4A. A region 4a including the focus area 2b is cut out from the image as a display image 4a. Further, from the image shown in FIG. 4B, a region 4e including the focus area 2b is cut out as a display image 4e. Then, the image arrangement determining unit 103c determines the arrangement position of each display image according to the cutout position of each display image in the image that is the cutout source.

具体的には、画像配置決定部103cは、図5に示すように、切り出し元となった画像に相当するサイズの配置用領域5aを仮想的に設定する。そして、切り出した各表示用画像の配置用領域5a内における配置位置が、切り出し元の画像内における各表示用画像の切り出し位置と一致するように、それぞれの表示用画像の配置位置を決定する。これによって、図5に示すように、表示用画像4aと表示用画像4eの配置用領域5a内における配置位置を決定することができる。   Specifically, as shown in FIG. 5, the image arrangement determining unit 103 c virtually sets an arrangement area 5 a having a size corresponding to the image that is the cut-out source. Then, the arrangement position of each display image is determined so that the arrangement position of each cut-out display image in the arrangement area 5a matches the cut-out position of each display image in the cut-out source image. Thereby, as shown in FIG. 5, the arrangement position of the display image 4a and the display image 4e in the arrangement area 5a can be determined.

表示制御部103dは、画像配置決定部103cによって決定された配置となるように各表示用画像を配置して、地図上の画像撮影地点に応じた表示位置に表示する。例えば、図6(a)に示すように、地図上の画像の撮影地点の近傍で、かつ撮影地点とは重ならない位置に配置用領域5a内に配置した表示用画像4aおよび4eを表示する。ここで、配置用領域5aを示す枠(点線)は、説明のために図示したもので、実際の地図上には表示されない。   The display control unit 103d arranges each display image so as to have the arrangement determined by the image arrangement determination unit 103c, and displays the display image at a display position corresponding to the image shooting point on the map. For example, as shown in FIG. 6A, the display images 4a and 4e arranged in the arrangement area 5a are displayed in the vicinity of the photographing point of the image on the map and at a position not overlapping the photographing point. Here, the frame (dotted line) indicating the arrangement area 5a is illustrated for explanation and is not displayed on the actual map.

そして、表示制御部103dは、地図上の画像の撮影地点に相当する位置に撮影地点マーク6aを表示し、当該撮影地点マーク6aと表示用画像4aまたは4eとの間を引き出し線6bで結ぶ。これによって撮影地点マーク6aで示す撮影地点で撮影された画像に基づいて生成された表示用画像4aおよび4eを、撮影地点と対応付けて地図上に表示することができる。   Then, the display control unit 103d displays the shooting spot mark 6a at a position corresponding to the shooting spot of the image on the map, and connects the shooting spot mark 6a and the display image 4a or 4e with a lead line 6b. Thereby, the display images 4a and 4e generated based on the image photographed at the photographing point indicated by the photographing point mark 6a can be displayed on the map in association with the photographing point.

以上のように、同一地点で撮影された画像が複数枚ある場合に、画像内のフォーカスエリア位置に応じた位置に各表示用画像を配置して地図上に表示するようにしたので、使用者は、地図上に表示された表示用画像の位置関係から、同一地点で撮影された各画像のフォーカスエリア位置を視覚的に把握することができる。このため、使用者は同一地点で撮影された画像が複数枚あり、地図上に複数の表示用画像が表示された場合であっても、各表示用画像の配置位置に基づいて画像の特徴を把握して、所望の画像、すなわち好みの位置にフォーカス位置を有する画像を容易に選択することができる。   As described above, when there are a plurality of images taken at the same point, each display image is arranged at a position corresponding to the focus area position in the image and displayed on the map. Can visually grasp the focus area position of each image taken at the same point from the positional relationship of the display images displayed on the map. For this reason, even when the user has a plurality of images taken at the same point and a plurality of display images are displayed on the map, the user can characterize the images based on the arrangement positions of the display images. It is possible to easily select a desired image, that is, an image having a focus position at a desired position.

なお、同じ場所で撮影された画像の中にフォーカスエリア位置が一致する画像が複数存在する場合には、配置用領域5a内で複数の表示用画像の配置位置が重なることになる。この場合には、画像配置決定部103cは、例えば、画像ファイルの付加情報部に記録されている画像の撮影日時に応じて、撮影日時が新しい画像から切り出した表示用画像を代表画像として地図上に表示し、それ以外の表示用画像は撮影日時が新しいものから順番に代表画像の下に重ねるように配置すればよい。   When there are a plurality of images with the same focus area position among images taken at the same place, the arrangement positions of the plurality of display images overlap in the arrangement area 5a. In this case, the image arrangement determination unit 103c, for example, displays a display image cut out from an image with a new shooting date and time as a representative image on the map according to the shooting date and time of the image recorded in the additional information unit of the image file. The other display images may be arranged so as to overlap the representative image in order from the latest shooting date and time.

この場合には、使用者は、引き出し線6bの長さをマウスでドラッグして変更できるようにし、使用者によって引き出し線6bの長さが変更されると、その長さに応じて地図上に表示する代表画像を切り替えるようにする。例えば、引き出し線6bの長さを短くすると、撮影日時が新しい画像から古い画像に向けて順番に代表画像とする表示用画像を変化させる。また、使用者が引き出し線6bの長さを長くすると、撮影日時が古い画像から新しい画像に向けて順番に代表画像とする表示用画像を変化させる。   In this case, the user can change the length of the lead line 6b by dragging with the mouse, and when the length of the lead line 6b is changed by the user, the length of the lead line 6b is changed according to the length on the map. The representative image to be displayed is switched. For example, when the length of the lead line 6b is shortened, the display image as the representative image is sequentially changed from the image with the latest shooting date to the old image. Further, when the user increases the length of the lead line 6b, the display image as the representative image is sequentially changed from the image with the oldest shooting date to the new image.

また、表示制御部103dは、図6(b)に示すように、地図上に配置用領域5aを示す枠を表示して、地図上に表示用画像を配置するために設定した領域を使用者が見えるようにしてもよい。このとき、引き出し線6bは、撮影地点マーク6aと配置用領域5aを示す枠とを結ぶようにすれば、枠内に表示された表示用画像のグループは、同一の撮影地点で撮影されたものであることを明示することができる。   Further, as shown in FIG. 6B, the display control unit 103d displays a frame indicating the arrangement area 5a on the map and displays the area set for arranging the display image on the map. May be visible. At this time, if the lead-out line 6b connects the shooting point mark 6a and the frame indicating the arrangement area 5a, the group of display images displayed in the frame are those shot at the same shooting point. It can be clearly shown.

この場合、地図上に表示した配置用領域5a内で表示用画像が表示されていない範囲は、透明にして下に表示されている地図が見えるようにしてもよい。あるいは、配置用領域5a内に表示されているいずれかの表示用画像の切り出し元となった画像を用いて補間するようにしてもよい。例えば、表示制御部103dは、切り出し元となった画像の中からフォーカスエリア位置が最も画像の中心に近い画像を用いて補間するようにしてもよい。   In this case, the range where the display image is not displayed in the arrangement area 5a displayed on the map may be transparent so that the map displayed below can be seen. Or you may make it interpolate using the image used as the cutout origin of one of the display images currently displayed in the arrangement | positioning area | region 5a. For example, the display control unit 103d may perform interpolation using an image whose focus area position is closest to the center of the image from among the images that have been cut out.

(b)画像データの特徴を示す情報として「画像の撮影方向に関する情報」を使用した場合の処理
本実施の形態では、画像の撮影方向に関する情報として記録されている撮影方位情報と仰角情報のうち、撮影方位情報に基づいて表示用画像の配置を決定する。まず、画像配置決定部103cは、同じ場所で撮影された複数の画像の撮影方向に関する情報に基づいて、各画像の撮影方位を特定する。すなわち、同じ場所で撮影された複数枚の画像のそれぞれについて、撮影方位が北(N)、東(E)、西(W)、南(S)、北東(NE)、北西(NW)、東南(ES)、および西南(WS)のいずれであったかを特定する。
(B) Processing in the case of using “information relating to image capturing direction” as information indicating the characteristics of image data In the present embodiment, out of the shooting direction information and elevation angle information recorded as information relating to the image capturing direction The arrangement of the display image is determined based on the shooting direction information. First, the image arrangement determining unit 103c specifies the shooting direction of each image based on information regarding the shooting direction of a plurality of images shot at the same place. That is, for each of a plurality of images taken at the same place, the shooting direction is north (N), east (E), west (W), south (S), northeast (NE), northwest (NW), southeast. Specify whether it was (ES) or southwest (WS).

画像配置決定部103cはまた、各画像の付加情報部に記録されているサムネイル画像を表示用画像として読み込む。例えば、図7(a)に示すように、撮影地点3aから北(N)、東(E)、南(S)、西南(WS)、および西(W)を向いて撮影した5枚の画像がある場合には、それぞれの画像から読み込んだサムネイル画像を表示用画像7a〜7eとする。そして、画像配置決定部103cは、各画像の撮影方位に応じて、読み込んだ各表示用画像の配置位置を決定する。   The image arrangement determining unit 103c also reads a thumbnail image recorded in the additional information portion of each image as a display image. For example, as shown in FIG. 7A, five images taken from the shooting point 3a facing north (N), east (E), south (S), southwest (WS), and west (W). If there is, thumbnail images read from the respective images are set as display images 7a to 7e. Then, the image arrangement determining unit 103c determines the arrangement position of each read display image according to the shooting direction of each image.

このために画像配置決定部103cは、図3に示した8方位を北を上としたときの位置関係で表したときに、それぞれの表示用画像が撮影位置に応じた位置に配置されるように、各表示用画像の配置位置を決定する。すなわち、北西(NW)を左上位置、北(N)を中央上位置、北東(NE)を右上位置、西(W)を左中央位置、東(E)を右中央位置、西南(WS)を左下位置、南(S)を中央下位置、および東南(ES)を右下位置と定義する。そして、各表示用画像の配置位置を画像の撮影方位に応じた位置関係となるように決定する。例えば、図7(a)に示した表示用画像7a〜7eは、各画像の撮影方位に応じて図7(b)に示すように配置位置が決定される。   For this reason, when the image layout determination unit 103c represents the eight orientations shown in FIG. 3 in a positional relationship with north as the top, each display image is arranged at a position corresponding to the shooting position. Next, the arrangement position of each display image is determined. That is, northwest (NW) is the upper left position, north (N) is the upper center position, northeast (NE) is the upper right position, west (W) is the left center position, east (E) is the right center position, and southwest (WS) is The lower left position, south (S) is defined as the center lower position, and southeast (ES) is defined as the lower right position. Then, the arrangement positions of the respective display images are determined so as to have a positional relationship according to the shooting direction of the images. For example, the arrangement positions of the display images 7a to 7e shown in FIG. 7A are determined as shown in FIG. 7B according to the shooting direction of each image.

ここで、この図7(b)に示す例では、各表示用画像で囲まれる領域7fには配置する表示用画像がないため、この領域は透明な領域にして地図が表示されるようにする。あるいは、図7(c)に示すように、表示用画像7a〜7eのいずれかを表示するようにしてもよい。例えば、表示用画像7a〜7eの内、画像の撮影日時が最も新しいものを選択して領域7fに表示してもよい。ここでは、領域7fに表示用画像7dを表示した例を示している。   Here, in the example shown in FIG. 7B, since there is no display image to be arranged in the region 7f surrounded by the display images, this region is made a transparent region so that the map is displayed. . Alternatively, as shown in FIG. 7C, any one of the display images 7a to 7e may be displayed. For example, among the display images 7a to 7e, the image having the latest shooting date and time may be selected and displayed in the region 7f. Here, an example is shown in which a display image 7d is displayed in the region 7f.

表示制御部103dは、図7(b)または図7(c)に示すように、画像配置決定部103cによって決定された配置となるように各表示用画像を配置して、地図上の画像撮影地点に応じた表示位置に表示する。このとき、表示制御部103dは、上述した(a)の場合と同様に地図上の画像の撮影地点の近傍で、かつ撮影地点とは重ならない位置に各表示用画像を表示する。そして、地図上の画像の撮影地点に相当する位置に撮影地点マーク6aを表示し、当該撮影地点マーク6aと表示用画像との間を引き出し線6bで結ぶ。   As shown in FIG. 7B or 7C, the display control unit 103d arranges each display image so as to be the arrangement determined by the image arrangement determination unit 103c, and captures an image on the map. It is displayed at the display position according to the point. At this time, the display control unit 103d displays each display image in the vicinity of the shooting point of the image on the map and at a position that does not overlap with the shooting point as in the case of (a) described above. Then, the shooting point mark 6a is displayed at a position corresponding to the shooting point of the image on the map, and the shooting point mark 6a and the display image are connected by a lead line 6b.

これによって、使用者は、地図上に表示された表示用画像の位置関係から、同一地点で撮影された各画像の撮影方位を視覚的に把握することができ、同一地点で撮影された画像が複数枚ある場合でも所望の画像、すなわち好みの方位を撮影した画像を容易に選択することができる。   As a result, the user can visually grasp the shooting direction of each image shot at the same point from the positional relationship of the display images displayed on the map, and the image shot at the same point can be obtained. Even when there are a plurality of images, it is possible to easily select a desired image, that is, an image obtained by photographing a desired orientation.

なお、同じ場所で撮影された画像の中に撮影方位が同じ画像が複数存在する場合には、上述した(a)の場合と同様に、画像配置決定部103cは、画像の撮影日時が新しい画像の表示用画像を代表画像として地図上に表示するようにし、それ以外の表示用画像は撮影日時が新しいものから順番に代表画像の下に重ねて表示するように配置する。そして、使用者は、引き出し線6bの長さをマウスでドラッグして変化させることによって、代表画像として表示する表示用画像を変更することができる。   Note that when there are a plurality of images having the same shooting direction among images shot at the same place, the image placement determination unit 103c, as in the case of (a) described above, causes the image shooting date and time of the image to be new. These display images are displayed on the map as representative images, and the other display images are arranged so as to be displayed under the representative image in order from the latest shooting date and time. The user can change the display image to be displayed as the representative image by dragging and changing the length of the lead line 6b with the mouse.

(c)画像データの特徴を示す情報として「画像の撮影条件に関する情報」を使用した場合の処理
この場合、画像配置決定部103cは、同じ場所で撮影された複数の画像の撮影条件に関する情報に基づいて、各画像の撮影時の撮影倍率情報、または撮影時の被写界深度情報を特定する。そして、各画像の付加情報部に記録されているサムネイル画像を表示用画像として、各画像の撮影時の撮影倍率情報、または撮影時の被写界深度情報に基づいて、各表示用画像の配置位置を決定する。なお、撮影時の撮影倍率情報と撮影時の被写界深度情報のいずれに基づいて表示用画像の配置位置を決定するかは、あらかじめ設定されているものとし、ここでは各画像の撮影時の撮影倍率情報に基づいて表示用画像の配置位置を決定する例について説明する。
(C) Processing in the case where “information regarding image capturing conditions” is used as information indicating the characteristics of the image data In this case, the image arrangement determining unit 103c uses the information regarding the image capturing conditions of a plurality of images captured at the same place. Based on this, the magnification information at the time of photographing each image or the depth of field information at the time of photographing is specified. Then, the thumbnail image recorded in the additional information section of each image is used as a display image, and the arrangement of each display image is based on the shooting magnification information at the time of shooting each image or the depth of field information at the time of shooting. Determine the position. Note that it is assumed that the arrangement position of the display image is determined based on either the shooting magnification information at the time of shooting or the depth of field information at the time of shooting. An example of determining the arrangement position of the display image based on the photographing magnification information will be described.

画像配置決定部103cは、同じ場所で撮影された複数の画像の表示用画像の配置位置を、撮影時の撮影倍率の大小関係に基づいて決定する。例えば、同じ場所で撮影された画像が3枚あり、それぞれの画像の撮影時の撮影倍率が1倍、2倍、および4倍である場合には、図8(a)に示すように、地図上の撮影地点6aに近い位置から、撮影倍率が1倍の画像の表示用画像8a、撮影倍率が2倍の画像の表示用画像8b、撮影倍率が4倍の画像の表示用画像8cの順に並ぶように各表示用画像の配置位置を決定する。   The image arrangement determining unit 103c determines the arrangement positions of the display images of a plurality of images taken at the same place based on the magnitude relationship of the shooting magnification at the time of shooting. For example, if there are three images taken at the same place and the shooting magnification at the time of shooting each image is 1, 2 and 4 times, as shown in FIG. From the position close to the upper shooting point 6a, an image 8a for displaying an image with a shooting magnification of 1x, an image 8b for displaying an image with a shooting magnification 2x, and a display image 8c for an image with an imaging magnification 4x. The arrangement positions of the display images are determined so that they are arranged.

このとき、隣り合う2枚の表示用画像を、撮影倍率が小さい方の表示用画像の左上の点と、撮影倍率が大きい方の表示用画像の右下の点とが接するように配置位置を決定する。そして、表示制御部103dは、画像配置決定部103cで決定された配置位置に従って、各表示用画像を地図上に表示する。   At this time, the arrangement positions of the two adjacent display images are arranged so that the upper left point of the display image with the smaller shooting magnification is in contact with the lower right point of the display image with the larger shooting magnification. decide. The display control unit 103d displays each display image on the map according to the arrangement position determined by the image arrangement determination unit 103c.

これによって、使用者は、撮影地点6aに近い表示用画像8aから遠い表示用画像8cに向けて撮影倍率が大きくなっていることを判断することができ、地図上に表示された表示用画像の位置関係から同一地点で撮影された各画像の撮影倍率を視覚的に把握することができる。このため、同一地点で撮影された画像が複数枚ある場合でも、所望の画像、すなわち好みの撮影倍率で撮影された画像、または被写界震度で撮影された画像を容易に選択することができる。   Thus, the user can determine that the shooting magnification increases from the display image 8a close to the shooting point 6a toward the display image 8c far from the display point 6a, and the display image displayed on the map can be determined. From the positional relationship, it is possible to visually grasp the shooting magnification of each image shot at the same point. For this reason, even when there are a plurality of images taken at the same point, it is possible to easily select a desired image, that is, an image taken at a preferred shooting magnification or an image taken at the field seismic intensity. .

また、この場合も、同じ場所で撮影された画像の中に撮影倍率が同じ画像が複数存在する場合には、画像配置決定部103cは、画像の撮影日時が新しい画像から切り出した表示用画像が代表画像として表示されるようにし、それ以外の表示用画像は撮影日時が新しいものから順番に代表画像の下に重ねて表示するように配置する。そして、使用者は、引き出し線6bの長さをマウスでドラッグして変化させることによって、代表画像として表示する表示用画像を変更することができる。   Also in this case, when there are a plurality of images having the same shooting magnification in the images shot at the same place, the image arrangement determination unit 103c displays the display image cut out from the image with the new shooting date and time. The display image is displayed as a representative image, and the other display images are arranged so as to be displayed under the representative image in order from the latest shooting date and time. The user can change the display image to be displayed as the representative image by dragging and changing the length of the lead line 6b with the mouse.

なお、各画像の撮影時の被写界深度情報に基づいて表示用画像の配置位置を決定する場合には、上述した撮影倍率の場合と同様に、被写界震度の大小関係に基づいて各表示用画像の配置位置を決定すればよい。また、図8(b)に示すように、各表示用画像の大きさを画像の撮影倍率に応じて変化させるようにしてもよい。   In addition, when determining the arrangement position of the display image based on the depth-of-field information at the time of shooting each image, similarly to the case of the above-described shooting magnification, each position is determined based on the magnitude relationship of the field seismic intensity. What is necessary is just to determine the arrangement position of the display image. Further, as shown in FIG. 8B, the size of each display image may be changed in accordance with the shooting magnification of the image.

(d)画像データの特徴を示す情報として「画像の情報量に関する情報」を使用した場合の処理
この場合、画像配置決定部103cは、同じ場所で撮影された複数の画像について、画像データの記録画素数を特定する。そして、画像配置決定部103cは、同じ場所で撮影された複数の画像の表示用画像の配置位置を、画像データの記録画素数の大小関係に基づいて決定する。すなわち、(c)の場合と同様に、図8(a)に示すように地図上の撮影地点6aに近い位置から、記録画素数が最も小さい画像の表示用画像8a、記録画素数が2番目に小さい画像の表示用画像8b、記録画素数が最も大きい画像の表示用画像8cの順に並ぶように各表示用画像の配置位置を決定する。
(D) Processing when “information on information amount of image” is used as information indicating the characteristics of image data In this case, the image arrangement determining unit 103c records image data for a plurality of images taken at the same place. Specify the number of pixels. Then, the image arrangement determination unit 103c determines the arrangement positions of the display images of a plurality of images taken at the same location based on the magnitude relationship of the number of recording pixels of the image data. That is, similarly to the case of (c), as shown in FIG. 8A, from the position close to the shooting point 6a on the map, the display image 8a having the smallest recording pixel number and the second recording pixel number are the second. The arrangement position of each display image is determined so that the display image 8b with the smallest image and the display image 8c with the largest number of recorded pixels are arranged in this order.

このとき、隣り合う2枚の表示用画像を記録画素数が小さい方の表示用画像の左上の点と、記録画素数が大きい方の表示用画像の右下の点とが接するように配置位置を決定する。そして、表示制御部103dは、画像配置決定部103cで決定された配置位置に従って、各表示用画像を地図上に表示する。これによって、使用者は、撮影地点6aに近い表示用画像8aから遠い表示用画像8cに向けて記録画素数が大きくなっていることを判断することができ、地図上に表示された表示用画像の位置関係から同一地点で撮影された各画像の記録画素数を視覚的に把握することができる。このため、同一地点で撮影された画像が複数枚ある場合でも所望の画像、すなわち好みの記録画素数の画像を容易に選択することができる。   At this time, the two adjacent display images are arranged so that the upper left point of the display image having the smaller number of recording pixels is in contact with the lower right point of the display image having the larger number of recording pixels. To decide. The display control unit 103d displays each display image on the map according to the arrangement position determined by the image arrangement determination unit 103c. As a result, the user can determine that the number of recorded pixels is increasing toward the display image 8c far from the display image 8a close to the shooting point 6a, and the display image displayed on the map. Therefore, the number of recorded pixels of each image taken at the same point can be visually grasped. For this reason, even when there are a plurality of images taken at the same point, a desired image, that is, an image having a desired number of recording pixels can be easily selected.

この場合も、同じ場所で撮影された画像の中に記録画素数が同じ画像が複数存在する場合には、画像配置決定部103cは、画像の撮影日時が新しい画像から切り出した表示用画像が代表画像として表示されるようにし、それ以外の表示用画像は撮影日時が新しいものから順番に代表画像の下に重ねて表示するように配置する。そして、使用者は、引き出し線6bの長さをマウスでドラッグして変化させることによって、代表画像として表示する表示用画像を変更することができる。また、図8(b)に示すように、各表示用画像の大きさを画像の記録画素数に応じて変化させるようにしてもよい。   Also in this case, when there are a plurality of images with the same number of recording pixels among images taken at the same place, the image arrangement determination unit 103c is represented by a display image cut out from an image with a new shooting date and time. The other display images are arranged so as to be displayed under the representative image in order from the latest shooting date and time. The user can change the display image to be displayed as the representative image by dragging and changing the length of the lead line 6b with the mouse. Further, as shown in FIG. 8B, the size of each display image may be changed according to the number of recorded pixels of the image.

図9は、本実施の形態における画像再生装置100の処理を示すフローチャートである。図9に示す処理は、使用者によってモニタ105に表示された地図上への表示用画像の表示が指示されると起動するプログラムとして、制御装置103によって実行される。   FIG. 9 is a flowchart showing processing of the image reproduction device 100 according to the present embodiment. The process shown in FIG. 9 is executed by the control device 103 as a program that starts when the user instructs the display of the display image on the map displayed on the monitor 105.

ステップS10において、特徴検出部103bは、画像ファイルの付加情報部に記録されている画像の撮影条件に関する情報に含まれる画像撮影地点の位置情報に基づいて、画像撮影地点がモニタ105に表示されている地図の範囲内に含まれている画像ファイルを表示対象の画像ファイルとして選択する。その後、ステップS20へ進み、画像配置決定部103cは、表示対象の画像ファイルを撮影地点ごとにグルーピングし、複数の画像ファイルが含まれるグループを抽出することによって、複数枚の画像が撮影された地図上の地点を特定して、ステップS30へ進む。   In step S10, the feature detection unit 103b displays the image shooting point on the monitor 105 based on the position information of the image shooting point included in the information related to the shooting condition of the image recorded in the additional information unit of the image file. The image file included in the range of the map is selected as the image file to be displayed. Thereafter, the process proceeds to step S20, and the image arrangement determining unit 103c groups the image files to be displayed for each shooting point, and extracts a group including a plurality of image files, whereby a map in which a plurality of images are shot. The upper point is specified, and the process proceeds to step S30.

ステップS30では、画像配置決定部103cは、複数枚の画像が撮影された地点があるか否かを判断する。複数枚の画像が撮影された地点がないと判断した場合には、そのまま処理を終了する。これに対して複数枚の画像が撮影された地点があると判断した場合には、ステップS40へ進む。ステップS40では、複数枚の画像が撮影された地点のうち、任意の1地点を処理対象地点として設定して、ステップS50へ進む。   In step S30, the image arrangement determining unit 103c determines whether or not there is a spot where a plurality of images are captured. If it is determined that there is no point where a plurality of images have been taken, the process ends. On the other hand, if it is determined that there is a point where a plurality of images are taken, the process proceeds to step S40. In step S40, one arbitrary point is set as a processing target point among points where a plurality of images are taken, and the process proceeds to step S50.

ステップS50では、画像配置決定部103cは、上述した(A)〜(D)の各画像データの特徴を示す情報のうち、どの情報を表示用画像の配置位置を決定するために使用するかを、予め設定されている設定内容に基づいて判定する。そして、ステップS60〜ステップS80において、ステップS50での判定結果に応じた表示用画像の配置位置を、上述した(a)〜(d)のいずれかの処理によって決定し、地図上の表示位置に表示する。   In step S50, the image arrangement determination unit 103c determines which information among the information indicating the characteristics of the image data (A) to (D) described above is used to determine the arrangement position of the display image. The determination is made on the basis of preset contents. In step S60 to step S80, the arrangement position of the display image according to the determination result in step S50 is determined by any one of the processes (a) to (d) described above, and the display position on the map is determined. indicate.

まず、ステップS60では、画像配置決定部103cは、元画像から切り出した画像、またはサムネイル画像を表示用画像として取得してステップS70へ進む。ステップS70では、画像配置決定部103cは、上述した(a)〜(d)のいずれかの処理によって、画像データの特徴を示す情報に基づいて各表示用画像の配置位置を決定する。その後、ステップS80へ進み、表示制御部103dは、画像配置決定部103cによって決定された配置位置に従って各表示用画像を配置して、地図上の画像撮影地点に応じた表示位置に表示する。その後、ステップS90へ進む。   First, in step S60, the image arrangement determining unit 103c acquires an image cut out from the original image or a thumbnail image as a display image, and proceeds to step S70. In step S70, the image arrangement determining unit 103c determines the arrangement position of each display image based on the information indicating the characteristics of the image data by any one of the processes (a) to (d) described above. Thereafter, the process proceeds to step S80, and the display control unit 103d arranges each display image in accordance with the arrangement position determined by the image arrangement determination unit 103c, and displays it at a display position corresponding to the image shooting point on the map. Thereafter, the process proceeds to step S90.

ステップS90では、ステップS20で特定した全ての複数枚の画像が撮影された地点に対して、ステップS60〜ステップS80の処理が完了したか否かを判断する。未処理の地点が残っていると判断した場合には、ステップS100へ進み、未処理の地点のうち1地点を処理対象地点として設定して、ステップS60へ戻る。これに対して、全ての地点の処理が完了したと判断した場合には、処理を終了する。   In step S90, it is determined whether or not the processing in steps S60 to S80 has been completed for the points where all the plurality of images identified in step S20 have been taken. If it is determined that an unprocessed point remains, the process proceeds to step S100, one of the unprocessed points is set as a process target point, and the process returns to step S60. On the other hand, if it is determined that all the points have been processed, the process ends.

以上説明した本実施の形態によれば、次のような作用効果を得ることができる。
(1)同一地点で撮影された画像が複数枚ある場合に、各画像の特徴を示す情報に基づいて各表示用画像の配置位置を決定して地図上に表示するようにした。これによって、使用者は、同一地点で撮影された画像が複数枚あり、地図上に複数の表示用画像が表示される場合であっても、各表示用画像の配置位置に基づいて画像の特徴を把握して、所望の画像を容易に選択することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) When there are a plurality of images taken at the same point, the arrangement position of each display image is determined based on information indicating the characteristics of each image and displayed on the map. Thus, even when there are a plurality of images taken at the same point and a plurality of display images are displayed on the map, the user can determine the feature of the image based on the arrangement position of each display image. And a desired image can be easily selected.

(2)画像の特徴を示す情報としてフォーカスエリア位置に関する情報を使用し、同一地点で撮影された画像が複数枚ある場合には、画像内のフォーカスエリア位置に応じた位置に各表示用画像を配置して地図上に表示するようにした。これによって、使用者は、地図上に表示された表示用画像の位置関係から、各画像のフォーカスエリア位置を視覚的に把握して、好みの位置にフォーカス位置を有する画像を容易に選択することができる。 (2) When information regarding the focus area position is used as information indicating the characteristics of the image, and there are a plurality of images taken at the same point, each display image is placed at a position corresponding to the focus area position in the image. Arranged and displayed on the map. As a result, the user can visually grasp the focus area position of each image from the positional relationship of the display images displayed on the map, and easily select an image having the focus position at a preferred position. Can do.

(3)画像の特徴を示す情報として画像の撮影方向に関する情報を使用し、同一地点で撮影された画像が複数枚ある場合には、画像の撮影方位に応じた位置に各表示用画像を配置して地図上に表示するようにした。これによって、使用者は、地図上に表示された表示用画像の位置関係から、各画像の撮影方位を視覚的に把握して、好みの方位を撮影した画像を容易に選択することができる。 (3) Using information related to the shooting direction of the image as information indicating the characteristics of the image, and when there are multiple images shot at the same point, each display image is arranged at a position corresponding to the shooting direction of the image And displayed it on the map. Accordingly, the user can visually grasp the shooting direction of each image from the positional relationship of the display images displayed on the map, and can easily select an image obtained by shooting the desired direction.

(4)画像の特徴を示す情報として画像の撮影条件に関する情報を使用し、同一地点で撮影された画像が複数枚ある場合には、各画像の撮影時の撮影倍率の大小関係、または撮影時の被写界深度の大小関係に応じた位置に各表示用画像を配置して地図上に表示するようにした。これによって、使用者は、地図上に表示された表示用画像の位置関係から、各画像の撮影時の撮影倍率の大小関係、または撮影時の被写界深度の大小関係を視覚的に把握して、好みの撮影倍率で撮影された画像、または被写界震度で撮影された画像を容易に選択することができる。 (4) When information related to image capturing conditions is used as information indicating image characteristics and there are a plurality of images captured at the same location, the relationship between the magnifications at the time of capturing each image, or at the time of capturing Each display image is arranged at a position corresponding to the magnitude relationship of the depth of field and displayed on the map. As a result, the user can visually grasp the magnitude relationship of the shooting magnification at the time of shooting each image or the magnitude relationship of the depth of field at the time of shooting from the positional relationship of the display images displayed on the map. Thus, it is possible to easily select an image photographed at a favorite photographing magnification or an image photographed at the object field seismic intensity.

(5)画像の特徴を示す情報として画像の情報量に関する情報を使用し、同一地点で撮影された画像が複数枚ある場合には、各画像の記録画素数の大小関係に応じた位置に各表示用画像を配置して地図上に表示するようにした。これによって、使用者は、地図上に表示された表示用画像の位置関係から、各画像の記録画素数の大小関係を視覚的に把握して、好みの記録画素数の画像を容易に選択することができる。 (5) When information regarding the amount of information of an image is used as information indicating the characteristics of the image, and there are a plurality of images taken at the same point, each position is set at a position corresponding to the size relationship of the number of recorded pixels of each image Display images are arranged and displayed on the map. As a result, the user visually grasps the size relationship of the number of recorded pixels of each image from the positional relationship of the display images displayed on the map, and easily selects an image having the desired number of recorded pixels. be able to.

―変形例―
なお、上述した実施の形態の画像再生装置は、以下のように変形することもできる。
(1)上述した実施の形態では、画像配置決定部103cは、特徴検出部103bによってメモリに記録された画像データの特徴を示す情報を読み込んで表示用画像の配置位置を決定する例について説明した。しかしながら、外部インターフェース102を介して画像ファイルが読み込まれたときに、特徴検出部103bは、各画像ファイルの付加情報部から画像データの特徴を示す情報を読み込んでデータベース化しておくようにしてもよい。そして、画像配置決定部103cは、当該データベースから画像データの特徴を示す情報を読み込んで表示用画像の配置位置を決定するようにしてもよい。例えば、図10に示すような特徴データベースをHDD104に作成し、画像ファイルを一意に示す画像IDごとに、種々の画像データの特徴を示す情報を管理するようにする。これによって、特徴検出部103bは、処理のたびにHDD104に記録された画像ファイル名意から画像データの特徴を示す情報を読み込む必要がなくなり、処理をさらに高速化することができる。
-Modification-
Note that the image reproduction device of the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, an example has been described in which the image arrangement determination unit 103c reads information indicating the characteristics of image data recorded in the memory by the feature detection unit 103b and determines the arrangement position of the display image. . However, when an image file is read via the external interface 102, the feature detection unit 103b may read information indicating the feature of the image data from the additional information part of each image file and create a database. . Then, the image arrangement determining unit 103c may read information indicating the characteristics of the image data from the database and determine the arrangement position of the display image. For example, a feature database as shown in FIG. 10 is created in the HDD 104, and information indicating the characteristics of various image data is managed for each image ID uniquely indicating an image file. As a result, the feature detection unit 103b does not need to read information indicating the feature of the image data from the image file name recorded in the HDD 104 each time processing is performed, and the processing can be further speeded up.

(2)上述した実施の形態では、(a)で上述した処理において、画像データの特徴を示す情報として「フォーカスエリア位置に関する情報」を使用して表示用画像の配置位置を決定する際には、フォーカスエリアを含む所定の大きさの領域を切り出して表示用画像を生成するようにした。そして、このとき、図4(a)に示したように、画像内を9つの領域4a〜4iに分割しておき、領域4a〜4iの中から画像内のフォーカスエリア位置が含まれる領域を表示用画像として切り出す例について説明した。しかしながら、その他の方法によってフォーカスエリアを含む所定の大きさの領域を切り出すようにしてもよい。例えば、表示用画像のアスペクト比があらかじめ設定されたアスペクト比、例えば4:3となるように切り出してもよく、また、フォーカスエリア位置が表示用画像の対角中心となるような表示用画像を切り出してもよい。 (2) In the embodiment described above, in the process described above in (a), when determining the arrangement position of the display image using “information on the focus area position” as information indicating the characteristics of the image data, A display image is generated by cutting out a region having a predetermined size including the focus area. At this time, as shown in FIG. 4A, the image is divided into nine areas 4a to 4i, and an area including the focus area position in the image is displayed from the areas 4a to 4i. An example of cutting out as an image for use has been described. However, an area having a predetermined size including the focus area may be cut out by other methods. For example, the display image may be cut out so that the aspect ratio of the display image is a preset aspect ratio, for example, 4: 3, and the display image whose focus area position is the diagonal center of the display image is used. It may be cut out.

(3)上述した実施の形態では、(c)の処理で画像の撮影時の撮影倍率の大小関係、または撮影時の被写界深度の大小関係に応じて画像の配置位置を決定する際に、地図上の撮影地点から遠くなるにつれて撮影倍率または被写界深度が大きくなるように表示用画像の配置位置を決定する例について説明した。しかしこれに限定されず、地図上の撮影地点から遠くなるにつれて撮影倍率または被写界深度が小さくなるように表示用画像の配置位置を決定するようにしてもよい。また、(d)の処理においても、地図上の撮影地点から遠くなるにつれて画像データの記録画素数が小さくなるように表示用画像の配置位置を決定するようにしてもよい。 (3) In the above-described embodiment, when determining the arrangement position of the image according to the size relationship of the shooting magnification at the time of shooting the image or the size relationship of the depth of field at the time of shooting in the process of (c). An example has been described in which the arrangement position of the display image is determined so that the shooting magnification or the depth of field increases as the distance from the shooting point on the map increases. However, the present invention is not limited to this, and the arrangement position of the display image may be determined so that the photographing magnification or the depth of field decreases as the distance from the photographing point on the map increases. Also, in the process of (d), the arrangement position of the display image may be determined so that the number of recorded pixels of the image data decreases as the distance from the shooting point on the map increases.

(4)上述した実施の形態では、(c)の処理において、「画像の撮影条件に関する情報」として各画像の撮影時の撮影倍率情報、または撮影時の被写界深度情報を使用して表示用画像の配置位置を決定する例について説明した。しかしながらその他の撮影条件に関する情報を使用するようにしてもよい。例えば、各画像を撮影したときの気象情報を「画像の撮影条件に関する情報」として使用して、表示用画像の配置位置を決定するようにしてもよい。この場合、気象情報としては、例えば天候、温度、湿度、照度などを用いるようにすればよい。なお、温度、湿度、照度はデジタルカメラが備えるセンサによって検出され、天候は使用者が手入力するようにしてもよい。あるいは、デジタルカメラにインターネットに接続するための通信装置を搭載し、画像撮影地点の気象情報をインターネット上の天気情報サービスから自動的に取得するようにしてもよい。 (4) In the above-described embodiment, in the process of (c), the display is performed by using the shooting magnification information at the time of shooting of each image or the depth of field information at the time of shooting as “information regarding the shooting conditions of the image”. The example of determining the arrangement position of the image for use has been described. However, you may make it use the information regarding other imaging conditions. For example, the weather information when each image is captured may be used as “information regarding the image capturing condition” to determine the arrangement position of the display image. In this case, as weather information, for example, weather, temperature, humidity, illuminance, etc. may be used. The temperature, humidity, and illuminance may be detected by a sensor provided in the digital camera, and the weather may be manually input by the user. Alternatively, a communication device for connecting to the Internet may be mounted on the digital camera, and the weather information of the image shooting point may be automatically acquired from the weather information service on the Internet.

(5)上述した実施の形態では、HDD104に記憶される画像データは静止画データであり、(d)の処理では画像データの記録画素数を「画像の情報量に関する情報」として使用して表示用画像の配置位置を決定する例について説明した。しかしこれに限定されず、HDD104に記憶される画像データが動画データである場合にも本発明は適用可能である。この場合、表示用画像として動画データに含まれる任意のフレームの画像、例えば1フレーム目の画像を用いるようにし、動画データの記録時間を「画像の情報量に関する情報」として使用して表示用画像の配置位置を決定するようにしてもよい。すなわち、画像配置決定部103cは、同じ場所で撮影された複数の動画データがある場合に、各動画データの記録時間の大小関係に基づいて、表示用画像の配置位置を決定すればよい。 (5) In the above-described embodiment, the image data stored in the HDD 104 is still image data. In the process of (d), the number of recorded pixels of the image data is used as “information regarding the information amount of the image”. The example of determining the arrangement position of the image for use has been described. However, the present invention is not limited to this, and the present invention is also applicable when the image data stored in the HDD 104 is moving image data. In this case, an image of an arbitrary frame included in the moving image data, for example, the image of the first frame is used as the display image, and the recording time of the moving image data is used as “information about the information amount of the image”. The arrangement position may be determined. That is, when there are a plurality of moving image data photographed at the same place, the image arrangement determining unit 103c may determine the arrangement position of the display image based on the size relationship of the recording time of each moving image data.

(6)上述した実施の形態では、表示用画像の配置位置を決定した結果、同じ配置位置に複数の表示用画像が重なって表示された場合には、使用者は、引き出し線6bの長さをマウスでドラッグして変化させることによって、代表画像として地図上に表示する表示用画像を変更することができるようにした。このとき、代表画像の下に重なっている表示用画像の枚数を使用者が視覚的に把握できるような図形(アイコン)を地図上に表示するようにしてもよい、例えば、図11に示すように、表示用画像の近傍に糸巻きを示す図形11aを表示し、この糸巻きに巻かれている糸の量で重なっている表示用画像の枚数を表すようにしてもよい。すなわち、使用者が引き出し線6bの長さを変化させて、撮影日時が古い画像の表示用画像を表示するように変更したときには、代表画像の下に残っている表示用画像の枚数が減ることから糸巻きに巻かれている糸の量を減らす。逆に、使用者が引き出し線6bの長さを変化させて、撮影日時が新しい画像の表示用画像を表示するように変更したときには、代表画像の下に残っている表示用画像の枚数が増えることから糸巻きに巻かれている糸の量を増やす。これによって、使用者は糸巻きに巻かれている糸の量を見るだけで、現在表示されている代表画像の下に重なっている表示用画像の枚数を把握することができる。 (6) In the above-described embodiment, when a plurality of display images are displayed in the same arrangement position as a result of determining the arrangement position of the display image, the user can set the length of the lead line 6b. The display image displayed on the map as a representative image can be changed by dragging the mouse with the mouse. At this time, a figure (icon) may be displayed on the map so that the user can visually grasp the number of display images that overlap under the representative image. For example, as shown in FIG. Alternatively, a figure 11a indicating a thread winding may be displayed in the vicinity of the display image, and the number of display images overlapping with the amount of the thread wound around the thread winding may be represented. That is, when the user changes the length of the lead line 6b to change to display a display image with an old shooting date and time, the number of display images remaining under the representative image decreases. Reduce the amount of yarn wound on the spool. On the other hand, when the user changes the length of the lead line 6b to change to display a display image with a new shooting date and time, the number of display images remaining under the representative image increases. Increase the amount of yarn wound around the spool. As a result, the user can grasp the number of display images that overlap below the currently displayed representative image only by looking at the amount of yarn wound around the spool.

(7)上述した実施の形態では、(A)〜(D)の内、どの情報に基づいて表示用画像の配置を決定するかは使用者によってあらかじめ設定されており、その設定内容に応じて(a)〜(d)のいずれかの処理を実行する例について説明した。しかしこれに限定されず、(a)〜(d)の処理を組み合わせて実行してもよい。このために、モニタ105に表示されている地図の範囲内に、複数枚の画像が撮影された地点が複数ある場合には、各地点ごとに異なる処理を実行するようにしてもよい。例えば、複数枚の画像が撮影された地点が2地点ある場合に、その中の1地点に対する処理では(A)の情報を用いて(a)の処理を行い、他の1地点に対する処理では(C)の情報を用いて(c)の処理を行うようにしてもよい。 (7) In the above-described embodiment, the information on which the layout of the display image is determined based on which information of (A) to (D) is set in advance by the user. The example which performs the process in any one of (a)-(d) was demonstrated. However, the present invention is not limited to this, and the processes (a) to (d) may be executed in combination. For this reason, when there are a plurality of points where a plurality of images are taken within the range of the map displayed on the monitor 105, a different process may be executed for each point. For example, when there are two points where a plurality of images are taken, the process (a) is performed using the information (A) in the process for one of the points, and the process for the other one ( You may make it perform the process of (c) using the information of C).

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

画像再生装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of an image reproduction apparatus. 画像内のフォーカスエリア位置の具体例を示す図である。It is a figure which shows the specific example of the focus area position in an image. 画像の撮影方位の具体例を示す図である。It is a figure which shows the specific example of the imaging | photography azimuth | direction of an image. 画像内のフォーカスエリア位置が含まれる領域を表示用画像として切り出す場合の具体例を示す図である。It is a figure which shows the specific example in the case of cutting out the area | region containing the focus area position in an image as a display image. 表示用画像の配置位置を決定結果の具体例を示す第1の図である。FIG. 10 is a first diagram illustrating a specific example of a result of determining the arrangement position of a display image. 地図上への表示用画像の表示例を示す図である。It is a figure which shows the example of a display of the image for a display on a map. 表示用画像の配置位置を決定結果の具体例を示す第2の図である。It is a 2nd figure which shows the specific example of the determination result of the arrangement position of the display image. 表示用画像の配置位置を決定結果の具体例を示す第3の図である。It is a 3rd figure which shows the specific example of the determination result of the arrangement position of the display image. 画像再生装置100の処理を示すフローチャート図である。3 is a flowchart showing processing of the image reproduction device 100. FIG. 変形例における特徴データベースの具体例を示す図である。It is a figure which shows the specific example of the feature database in a modification. 変形例における地図上への表示用画像の表示例を示す図である。It is a figure which shows the example of a display of the image for a display on the map in a modification.

符号の説明Explanation of symbols

100 画像再生装置、101 入力装置、102 外部インターフェース、103 制御装置、103a 地図表示部、103b 特徴検出部、103c 画像配置決定部、103d 表示制御部、104 HDD、105 モニタ DESCRIPTION OF SYMBOLS 100 Image reproduction apparatus, 101 Input device, 102 External interface, 103 Control apparatus, 103a Map display part, 103b Feature detection part, 103c Image arrangement determination part, 103d Display control part, 104 HDD, 105 Monitor

Claims (9)

同じ撮影場所で撮影された複数枚の画像の特徴をそれぞれ検出する検出手段と、
前記検出手段で検出した各画像の特徴に基づいて、各画像から生成された表示用画像の配置を決定する決定手段と、
前記決定手段で決定した配置に従って各表示用画像を配置し、前記撮影場所に応じた地図上の表示位置に表示する表示制御手段とを備えることを特徴とする画像再生装置。
Detection means for detecting the characteristics of each of a plurality of images taken at the same shooting location;
Determining means for determining the arrangement of the display image generated from each image based on the feature of each image detected by the detecting means;
An image reproduction apparatus comprising: display control means for arranging each display image in accordance with the arrangement determined by the determining means and displaying it at a display position on a map corresponding to the shooting location.
請求項1に記載の画像再生装置において、
前記検出手段は、画像内のフォーカスエリアを前記画像の特徴として検出することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
The image reproduction apparatus characterized in that the detection means detects a focus area in an image as a feature of the image.
請求項2に記載の画像再生装置において、
前記決定手段は、各画像から前記フォーカスエリアを含む画像を抽出して前記表示用画像とし、各画像内における前記フォーカスエリアの位置に応じて前記表示用画像の配置を決定することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 2,
The determining unit extracts an image including the focus area from each image to be used as the display image, and determines the arrangement of the display image according to the position of the focus area in each image. Image playback device.
請求項1に記載の画像再生装置において、
前記検出手段は、画像の撮影方向を前記画像の特徴として検出し、
前記決定手段は、各画像に基づいて生成された縮小画像を前記表示用画像として、前記検出手段で検出した各画像の撮影方向に応じて前記表示用画像の配置を決定することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
The detecting means detects a shooting direction of the image as a feature of the image;
The determining means determines the arrangement of the display image according to the shooting direction of each image detected by the detecting means, using the reduced image generated based on each image as the display image. Image playback device.
請求項1に記載の画像再生装置において、
前記検出手段は、撮影時の撮影条件を前記画像の特徴として検出することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
The image reproduction apparatus characterized in that the detection means detects a shooting condition at the time of shooting as a feature of the image.
請求項5に記載の画像再生装置において、
前記撮影条件は、撮影倍率または被写界深度であり、
前記決定手段は、各画像に基づいて生成された縮小画像を前記表示用画像とし、各画像間の前記撮影倍率の大小関係または前記被写界深度の大小関係に基づいて、前記表示用画像の配置を決定することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 5, wherein
The shooting condition is a shooting magnification or a depth of field,
The determining means uses the reduced image generated based on each image as the display image, and based on the magnitude relationship of the shooting magnification between the images or the magnitude relationship of the depth of field, An image reproduction apparatus characterized by determining an arrangement.
請求項1に記載の画像再生装置において、
前記画像データは、静止画データと動画データとを含み、
前記検出手段は、前記静止画データの画素数または前記動画データの撮影時間で表される画像データの情報量を前記画像の特徴として検出することを特徴とする画像再生装置。
The image reproduction apparatus according to claim 1,
The image data includes still image data and moving image data,
The image reproduction apparatus characterized in that the detection means detects an information amount of image data represented by a number of pixels of the still image data or a shooting time of the moving image data as a feature of the image.
請求項7に記載の画像再生装置において、
前記決定手段は、各画像に基づいて生成された縮小画像を前記表示用画像とし、各画像間の前記静止画データの画素数の大小関係または前記動画データの撮影時間の大小関係に基づいて、前記表示用画像の配置を決定することを特徴とする画像再生装置。
The image reproduction device according to claim 7,
The determining means uses the reduced image generated based on each image as the display image, and based on the size relationship of the number of pixels of the still image data between the images or the size relationship of the shooting time of the moving image data, An image reproducing apparatus for determining an arrangement of the display image.
コンピュータに、
同じ撮影場所で撮影された複数枚の画像の特徴をそれぞれ検出する検出手順と、
前記検出手順で検出した各画像の特徴に基づいて、各画像から生成された表示用画像の配置を決定する決定手順と、
前記決定手順で決定した配置に従って各表示用画像を配置し、前記撮影場所に応じた地図上の表示位置に表示する表示制御手順とを実行させるための画像再生プログラム。
On the computer,
A detection procedure for detecting the characteristics of multiple images taken at the same shooting location,
A determination procedure for determining the arrangement of the display image generated from each image based on the characteristics of each image detected by the detection procedure;
An image reproduction program for executing a display control procedure for arranging each display image according to the arrangement determined in the determination procedure and displaying the display image at a display position on a map corresponding to the shooting location.
JP2006198324A 2006-07-20 2006-07-20 Image reproducing apparatus and image reproducing program Active JP4715661B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006198324A JP4715661B2 (en) 2006-07-20 2006-07-20 Image reproducing apparatus and image reproducing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006198324A JP4715661B2 (en) 2006-07-20 2006-07-20 Image reproducing apparatus and image reproducing program

Publications (2)

Publication Number Publication Date
JP2008028648A true JP2008028648A (en) 2008-02-07
JP4715661B2 JP4715661B2 (en) 2011-07-06

Family

ID=39118860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006198324A Active JP4715661B2 (en) 2006-07-20 2006-07-20 Image reproducing apparatus and image reproducing program

Country Status (1)

Country Link
JP (1) JP4715661B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200928A (en) * 2008-02-22 2009-09-03 Fujitsu Ltd Image management apparatus
JP2011043871A (en) * 2009-08-19 2011-03-03 Nikon Systems Inc Image display method, program, and image display device
JP2015118509A (en) * 2013-12-18 2015-06-25 富士ゼロックス株式会社 Information processing apparatus and information processing program
WO2017221659A1 (en) * 2016-06-20 2017-12-28 マクセル株式会社 Image capturing device, display device, and image capturing and displaying system
JP2017228828A (en) * 2016-06-20 2017-12-28 マクセルホールディングス株式会社 Imaging apparatus, display apparatus, and imaging display system
JP2018007041A (en) * 2016-07-01 2018-01-11 マクセルホールディングス株式会社 Imaging apparatus, display device, and imaging and display system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11122638A (en) * 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd Image processor, image processing method, and computer-readable information recording medium recorded with image processing program
JP2001169164A (en) * 1999-12-08 2001-06-22 Casio Comput Co Ltd Camera device, image reproducing device, and method for acquiring subject name in camera device
JP2003250107A (en) * 2002-12-26 2003-09-05 Mitsubishi Electric Corp Video information display apparatus
JP2005269104A (en) * 2004-03-17 2005-09-29 Fuji Photo Film Co Ltd Image processing method and image processor
JP2006020166A (en) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd Map display system and digital camera
JP2006033186A (en) * 2004-07-13 2006-02-02 Ricoh Co Ltd System for collecting image with object position

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11122638A (en) * 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd Image processor, image processing method, and computer-readable information recording medium recorded with image processing program
JP2001169164A (en) * 1999-12-08 2001-06-22 Casio Comput Co Ltd Camera device, image reproducing device, and method for acquiring subject name in camera device
JP2003250107A (en) * 2002-12-26 2003-09-05 Mitsubishi Electric Corp Video information display apparatus
JP2005269104A (en) * 2004-03-17 2005-09-29 Fuji Photo Film Co Ltd Image processing method and image processor
JP2006020166A (en) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd Map display system and digital camera
JP2006033186A (en) * 2004-07-13 2006-02-02 Ricoh Co Ltd System for collecting image with object position

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200928A (en) * 2008-02-22 2009-09-03 Fujitsu Ltd Image management apparatus
US8169505B2 (en) 2008-02-22 2012-05-01 Fujitsu Limited Image management apparatus for displaying images based on geographical environment
JP2011043871A (en) * 2009-08-19 2011-03-03 Nikon Systems Inc Image display method, program, and image display device
JP2015118509A (en) * 2013-12-18 2015-06-25 富士ゼロックス株式会社 Information processing apparatus and information processing program
CN113542601A (en) * 2016-06-20 2021-10-22 麦克赛尔株式会社 Image pickup apparatus, display apparatus, and image pickup display system
JP2017228828A (en) * 2016-06-20 2017-12-28 マクセルホールディングス株式会社 Imaging apparatus, display apparatus, and imaging display system
CN109417598A (en) * 2016-06-20 2019-03-01 麦克赛尔株式会社 Photographic device, display device and camera shooting display system
US11004167B2 (en) * 2016-06-20 2021-05-11 Maxell, Ltd. Image capturing apparatus having capability of recognizing a relationship among a plurality of images
WO2017221659A1 (en) * 2016-06-20 2017-12-28 マクセル株式会社 Image capturing device, display device, and image capturing and displaying system
US11367158B2 (en) 2016-06-20 2022-06-21 Maxell, Ltd. Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
US11710205B2 (en) 2016-06-20 2023-07-25 Maxell, Ltd. Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
CN113542601B (en) * 2016-06-20 2024-01-23 麦克赛尔株式会社 Image pickup apparatus, display apparatus, and image pickup display system
JP2018007041A (en) * 2016-07-01 2018-01-11 マクセルホールディングス株式会社 Imaging apparatus, display device, and imaging and display system

Also Published As

Publication number Publication date
JP4715661B2 (en) 2011-07-06

Similar Documents

Publication Publication Date Title
JP5611412B2 (en) Information display device
EP2252044A2 (en) Electronic apparatus, display controlling method and program
US8462993B2 (en) Map information display apparatus, map information display method, and program
US8254727B2 (en) Method and apparatus for providing picture file
EP1696398B1 (en) Information processing system, information processing apparatus and information processing method , program, and recording medium
JP4715661B2 (en) Image reproducing apparatus and image reproducing program
US20110058087A1 (en) Image control apparatus, image control method, and recording medium
KR20100003898A (en) Method of controlling image processing apparatus, image processing apparatus and image file
US7447418B2 (en) Image reproducing device and image recording/reproducing device
KR20150025167A (en) Method for taking spherical panoramic image and an electronic device thereof
JP2011119832A (en) Image display device and image display method
JP2007179389A (en) Photographing device
JP2010113217A (en) Display state setting device, display state setting method and display state setting program
JP2010085445A (en) Information processor and information processing program
JP2010021885A (en) Imaging device, and imaging support method
JP2010175896A (en) Information processor, imaging device and program
JP2004242288A (en) Video reproducing apparatus and video recording and reproducing apparatus
JP2005190087A (en) Image retrieval device and image retrieval method
JP4102933B2 (en) Captured image management apparatus, captured image management method, and captured image management program
JP2011170491A (en) Location name retrieval device, location name search method and electronic apparatus
JP2004186788A (en) Imaging apparatus
US20110242362A1 (en) Terminal device
EP2695096A1 (en) A method, system and electronic device for at least one of efficient graphic processing and salient based learning
KR101400459B1 (en) Apparatus and method for displaying
JP5458123B2 (en) Imaging data processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110314

R150 Certificate of patent or registration of utility model

Ref document number: 4715661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250