WO2013186921A1 - 表示装置、表示方法及び表示プログラム - Google Patents

表示装置、表示方法及び表示プログラム Download PDF

Info

Publication number
WO2013186921A1
WO2013186921A1 PCT/JP2012/065384 JP2012065384W WO2013186921A1 WO 2013186921 A1 WO2013186921 A1 WO 2013186921A1 JP 2012065384 W JP2012065384 W JP 2012065384W WO 2013186921 A1 WO2013186921 A1 WO 2013186921A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
map
map data
shooting
data
Prior art date
Application number
PCT/JP2012/065384
Other languages
English (en)
French (fr)
Inventor
賢二 恒川
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2012/065384 priority Critical patent/WO2013186921A1/ja
Publication of WO2013186921A1 publication Critical patent/WO2013186921A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Definitions

  • the present invention relates to the technical field of displaying images.
  • Patent Document 1 proposes a technique for displaying a moving locus on a map image when traveling or climbing, and displaying the captured image while confirming the direction in which the image was captured. Specifically, Patent Document 1 records the detected position information and shooting direction information together with the shot image information at the time of shooting by the shooting unit, and records the shooting information (position information, shooting direction information). Information and photographed image information) and a map database are associated with each other and displayed on the map image as a directional icon.
  • the map data is updated sequentially, but the technique described in Patent Document 1 described above does not display a map image in consideration of such update of the map data. Therefore, in the technique described in Patent Document 1, when the map data corresponding to the photographed location is updated, the map image corresponding to the updated map data (for example, the latest version of the map data) is taken as the captured image. May be displayed together with Therefore, in the technique described in Patent Document 1, since the map image does not correspond to the photographed image, that is, the map image is not a map at the time of photographing, the user may feel uncomfortable.
  • a main object of the present invention is to provide a display device, a display method, and a display program capable of appropriately displaying a map image showing a map at the time of photographing in a configuration in which a map image and a photographed image are displayed simultaneously.
  • the display device includes: image data regarding a captured image; a shooting position indicating a position where the image is shot; and a shooting date and time indicating the date and time when the image is shot.
  • the shooting Map data acquisition means for acquiring map data having update date information corresponding to date and time, an image corresponding to the image data included in the image information acquired by the image information acquisition means, and the map data acquisition means Display control means for simultaneously displaying a map image corresponding to the acquired map data.
  • the display method executed by the display device includes: image data about a captured image, a shooting position indicating a position where the image was shot, and a date and time when the image was shot.
  • An image information acquisition step for acquiring image information including the shooting date and time, and the shooting position based on the shooting position and the shooting date and time included in the image information acquired by the image information acquisition step.
  • map data a map data acquisition step for acquiring map data having update date information corresponding to the shooting date and time, an image corresponding to the image data included in the image information acquired by the image information acquisition step, A display control step of simultaneously displaying a map image corresponding to the map data acquired by the map data acquisition step. And butterflies.
  • a display program executed by a display device including a computer includes: the image data about a photographed image; a photographing position indicating a position where the image is photographed; Based on the image information acquisition means for acquiring the image information including the date and time when the image was taken, the shooting position and the shooting date and time included in the image information acquired by the image information acquisition means, In the map data corresponding to the shooting position, map data acquisition means for acquiring map data having update date information corresponding to the shooting date and time, and the image data included in the image information acquired by the image information acquisition means And the map image corresponding to the map data acquired by the map data acquisition means are the same. Characterized in that to function as a display control unit, to be displayed on.
  • the block diagram which shows the function structure of the display apparatus which concerns on 1st Example is shown.
  • An example of the display screen by 1st Example is shown.
  • An example of the display screen by a comparative example is shown.
  • the other example of the display screen by 1st Example is shown.
  • photography date is shown.
  • the processing flow which concerns on 1st Example is shown.
  • An example of the display screen by 2nd Example is shown.
  • An example of the display screen by a comparative example is shown.
  • the other example of the display screen by 2nd Example is shown.
  • the processing flow concerning 2nd Example is shown.
  • An example of the display screen by the modification 1 is shown.
  • the display device includes image data regarding a captured image, a capturing position indicating a position where the image is captured, and a capturing date / time indicating the date and time when the image is captured.
  • the shooting date and time Map data acquisition means for acquiring map data having update date information corresponding to the image, an image corresponding to the image data included in the image information acquired by the image information acquisition means, and acquisition by the map data acquisition means Display control means for simultaneously displaying a map image corresponding to the map data.
  • the above display device is preferably used for simultaneously displaying an image (captured image) obtained by shooting and a map image.
  • the image information acquisition means includes image data regarding an image taken by a photographing means such as a camera, a photographing position indicating a position where the image is photographed, and a photographing date and time indicating the date and time when the image is photographed. Get image information.
  • This “image (captured image)” includes a still image and a moving image.
  • the map data acquisition unit is a map having update date information corresponding to the shooting date and time in the map data corresponding to the shooting position based on the shooting position and shooting date and time included in the image information acquired by the image information acquisition unit. Get the data.
  • the map data acquisition means selects the version of map data that was adopted at the time of shooting.
  • the display control unit simultaneously displays an image corresponding to the image data included in the image information acquired by the image information acquisition unit and a map image corresponding to the map data acquired by the map data acquisition unit. Thereby, an appropriate map image corresponding to the captured image can be displayed. That is, a map image indicating a map at the time of shooting can be appropriately displayed.
  • the map data acquisition means refers to a map database in which a plurality of versions of map data are stored in association with update date information, and includes a plurality of versions of map data. Then, map data having update date information corresponding to the shooting date and time included in the image information is selected. In this case, the map data acquisition unit selects a version of map data corresponding to the shooting date and time from a plurality of versions of map data including the shooting position.
  • the display control unit displays an icon indicating the shooting position at a position on the map image corresponding to the shooting position. By displaying such an icon in the map image, it is possible to easily grasp the shooting position.
  • the image information further includes a shooting direction indicating a direction in which the image is shot, and the display control unit displays the icon so as to indicate the shooting direction. Let By displaying such an icon in the map image, the shooting direction can be easily grasped.
  • the display control unit can determine that the map data is not the latest data when the map data acquired by the map data acquisition unit is not the latest data.
  • the map image is displayed in a manner. Thereby, it can be easily grasped that the map data used for the map image is not the latest. In other words, it is possible to easily grasp that the current situation of the place where the image was taken has changed since the time of shooting.
  • the display control means can change the display mode of the map image between a location corresponding to map data that is not the latest data and a location corresponding to map data that is the latest data.
  • an instruction receiving unit that receives an instruction to switch from a map image corresponding to the map data to a map image corresponding to the latest map data when the map data is not the latest data.
  • the display control means switches the map image to be displayed to the map image corresponding to the latest map data when the instruction receiving means receives the instruction. According to this aspect, it is possible to easily grasp the change in the situation of the place where the image was taken by switching from the map image at the time of shooting to the latest map image.
  • the display control means can pop up an image corresponding to the image data included in the image information in the map image.
  • a display method executed by a display device includes image data about a captured image, a shooting position indicating a position where the image was shot, and a date and time when the image was shot.
  • a display control step of simultaneously displaying a map image corresponding to the map data acquired by the map data acquisition step.
  • a display program executed by a display device having a computer includes: an image data on a captured image; a shooting position indicating a position where the image is captured; Based on the image information acquisition means for acquiring the image information including the date and time when the image was taken, the shooting position and the shooting date and time included in the image information acquired by the image information acquisition means, In the map data corresponding to the shooting position, map data acquisition means for acquiring map data having update date information corresponding to the shooting date and time, and the image data included in the image information acquired by the image information acquisition means And a map image corresponding to the map data acquired by the map data acquisition means Display control means for displaying, to function as a.
  • FIG. 1 is a block diagram illustrating a functional configuration of the display device 1 according to the first embodiment.
  • the display device 1 includes a user interface 11, an input / output interface 12, a map database 13, an image information storage unit 14, a display unit 15, and a control unit 16.
  • the display device 1 basically functions to simultaneously display an image photographed by photographing means such as a camera (hereinafter referred to as “photographed image” as appropriate) and a map image corresponding to the map data.
  • the display device 1 is realized by a personal computer (PC), a portable terminal device such as a smartphone, a navigation device with a camera, or the like.
  • the user interface 11 is an interface that accepts input from the user. For example, the user interface 11 receives an input for selecting a captured image to be displayed or changing the scale of the map image.
  • the input / output interface 12 is an interface for inputting / outputting predetermined data.
  • the input / output interface 12 inputs and outputs image data and map data.
  • the map database 13 is a database for map data to be displayed.
  • the map database 13 stores not only currently used map data but also almost all map data used in the past. Specifically, the map data is sequentially updated, but the map database 13 includes not only the latest version of the map data but also the current version that has been used up to the present time. All versions of map data are stored. Specifically, the map database 13 stores a plurality of versions of map data in association with update date information (information indicating the date on which map data was updated).
  • the map database 13 stores map data for each mesh (map mesh). This mesh is an individual group when the latitude and longitude are rounded and grouped, and is represented on the map by, for example, a rectangular basket having a predetermined length.
  • the image information storage unit 14 stores image information related to an image taken by a photographing means such as a camera.
  • the image information includes image data that is data of the captured image itself, a shooting position that indicates the position (latitude and longitude) at which the image was shot, and the date and time when the image was shot (that is, the time stamp at the time of shooting). This is information including a shooting date and time and a shooting direction indicating a direction (direction) in which the image is shot.
  • shooting information information obtained by removing image data from image information, that is, information including a shooting position, a shooting date and a shooting direction, is appropriately referred to as “shooting information”.
  • the display unit 15 includes a liquid crystal display (LCD) and displays a photographed image and a map image.
  • LCD liquid crystal display
  • the control unit 16 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and controls the entire display device 1.
  • the control unit 16 simultaneously displays the captured image corresponding to the image information stored in the image information storage unit 14 and the map image corresponding to the map data stored in the map database 13 on the display unit 15.
  • the control unit 16 performs control to simultaneously display a captured image and a map image corresponding to the location and date / time (that is, the shooting position and the shooting date / time) at which the captured image was captured. Details of the control performed by the control unit 16 will be described later.
  • the control unit 16 corresponds to an example of “image information acquisition unit”, “map data acquisition unit”, and “display control unit” in the present invention.
  • a display control method performed by the control unit 16 in the first embodiment will be described.
  • a still image that is, an image corresponding to a photograph
  • a captured image that is, an image corresponding to a captured image.
  • the control unit 16 performs control to cause the display unit 15 to simultaneously display a captured image and a map image corresponding to the captured image. Specifically, first, the control unit 16 acquires, from the image information storage unit 14, image information related to a captured image to be displayed based on an output from the user interface 11. And the control part 16 acquires the map data according to the imaging
  • control unit 16 simultaneously displays a captured image corresponding to the image data included in the acquired image information and a map image corresponding to the acquired map data.
  • control unit 16 displays the captured image and the map image side by side at the same time.
  • control unit 16 pops up a captured image in the map image.
  • control unit 16 displays an icon indicating the shooting position at a position on the map image corresponding to the shooting position included in the acquired image information.
  • control unit 16 displays an icon so as to indicate the shooting direction based on the shooting direction included in the acquired image information.
  • the display screen according to the first embodiment and the display screen according to the comparative example will be described with reference to FIGS.
  • the map image is displayed without considering the shooting date and time.
  • a captured image and a map image corresponding to the latest map data corresponding to the position where the captured image is captured are displayed simultaneously.
  • Such a comparative example corresponds to the technique described in Patent Document 1 described above.
  • FIG. 2 shows an example of a display screen according to the first embodiment.
  • the case where the cherry tree contained in the forest was photographed from Kawahara is taken as an example.
  • the map data about the place where the forest exists is updated after the photographing. Specifically, by developing a place where forests existed and building an apartment, map data containing information about forests to map data containing information about apartments built in places where forests exist It has been updated. The conditions exemplified here are also applied to FIGS. 3 and 4 to be described later.
  • the symbol g11 indicates an example of a captured image
  • the symbol g12 indicates an example of a map image.
  • the captured image g11 and the map image g12 are displayed side by side at the same time. That is, the captured image g11 and the map image g12 are displayed in each of the areas obtained by dividing one screen into approximately two.
  • the photographed image g11 includes a cherry tree image photographed from Kawahara.
  • the map image g12 is a map image corresponding to the shooting position and shooting date / time corresponding to the shot image g11.
  • an image corresponding to map data having update date information corresponding to the shooting date is displayed as a map image g12 among a plurality of versions of map data including the shooting position.
  • a past version of a map including information about a forest (see symbol g12a), not an image corresponding to the latest version of map data including information on an apartment built in a place where the forest exists.
  • An image corresponding to the data is displayed as a map image g12.
  • the symbol ic1 in the map image g12 indicates an icon.
  • the icon ic1 is displayed at a position on the map image g12 corresponding to the shooting position, and is displayed so that the tip of the icon ic1 faces the direction according to the shooting direction.
  • FIG. 3 shows an example of a display screen according to a comparative example.
  • a symbol g13 indicates an example of a captured image
  • a symbol g14 indicates an example of a map image.
  • the captured image g13 and the map image g14 are displayed side by side at the same time.
  • the photographed image g13 includes a cherry blossom image photographed from Kawahara, as with the photographed image g11.
  • the map image g14 is a map image corresponding to the shooting position corresponding to the shot image g13.
  • an image corresponding to the latest version of the map data including the shooting position is displayed as the map image g14.
  • FIG. 3 shows an example of a display screen according to a comparative example.
  • the map image g14 does not correspond to the photographed image g13, that is, the map image g14 is not a map at the time of photographing, there is a possibility that the user may feel uncomfortable.
  • an appropriate map image g14 corresponding to the photographed image g11 can be displayed, that is, the map image g12 indicating the map at the time of photographing can be appropriately displayed.
  • the situation at that time can be missed.
  • the situation at the time can be notified. .
  • FIG. 4 shows another example of the display screen according to the first embodiment.
  • a symbol g15 indicates an example of a map image
  • a symbol g16 indicates an example of a captured image.
  • the map image g15 is displayed on almost the whole of one screen, and the captured image g16 is popped up in the map image g15.
  • the captured image g16 is pop-up displayed with the icon ic3 as a reference.
  • the map image g15, the captured image g16, and the icon ic3 are substantially the same as those in FIG. Also by such a display screen according to another example, the same effect as the display screen shown in FIG. 2 can be obtained.
  • FIG. 5B shows the update status of the map data for meshes 1 to 9 shown in FIG.
  • the mesh 1 will be described as a representative.
  • the map data is updated in October 1970, then the map data is updated in July 1980, then the map data is updated in February 2000, and then 2010. Map data was updated in April.
  • the update date information indicating that the mesh 1 was updated in October 1970 and the updated version of the map data are stored in association with each other and updated in July 1980.
  • Update date information indicating the updated version and map data of the updated version are stored in association with each other, and update date information indicating update in February 2000 and the updated version of map data are associated with each other.
  • the update date information indicating that the data is stored and updated in April 2010 and the updated version of the map data are stored in association with each other.
  • the update date information and the updated version of the map data are stored in association with each other.
  • the control unit 16 displays the map image for each of the meshes 1 to 9 based on the map data stored in the map database 13 in this way. For example, when displaying the current map image, the control unit 16 selects the version of the map data updated in April 2010 for the meshes 1 to 5 and March 1990 for the meshes 6 to 9. Select the updated version of the map data. In this case, for the meshes 1 to 5, the version of the map data updated in April 2010 becomes the latest version of the map data, and for the meshes 6 to 9, the version of the map data updated in March 1990. Is the latest version of map data.
  • the control unit 16 compares the photographing date and time with the update date included in the update date information of each mesh 1 to 9, so that the map of the version updated in July 1980 for the meshes 1 to 4 is used.
  • the data is selected, and for the meshes 5 to 9, the version of the map data updated in October 1970 is selected.
  • the version of the map data that was used at the time of shooting is selected, but in some cases, the version of the map data that was used at the time of shooting may not be selected.
  • map data is updated within a predetermined period after shooting, it is not the version of map data adopted at the shooting date and time, but the version of map data updated within a predetermined period from the shooting date and time. May be selected. This is because if the map data is updated within a predetermined period after shooting, the actual local situation at the time of shooting is considered to have already changed before the map data is updated. That is, the local situation at the time of photographing is considered to be represented by the updated map data.
  • the meshes 5 to 9 are not the map data of the version updated in October 1970
  • the version of the map data updated in March 1990 which is the month following February 1990, can be selected.
  • step S101 the control unit 16 acquires, from the image information storage unit 14, image information related to a captured image to be displayed based on an output from the user interface 11. Then, the process proceeds to step S102.
  • step S102 the control unit 16 extracts shooting information (that is, information including the shooting position, the shooting date and time, and the shooting direction) from the image information acquired in step S101. Then, the process proceeds to step S103.
  • shooting information that is, information including the shooting position, the shooting date and time, and the shooting direction
  • step S103 the control unit 16 refers to the map database 13 to select map data corresponding to the shooting position and shooting date / time included in the shooting information extracted in step S102, and a map corresponding to the selected map data.
  • the image is displayed on the display unit 15.
  • the control unit 16 selects a version of map data having update date information corresponding to the shooting date / time from among a plurality of versions of map data including the shooting position, that is, was adopted at the time of shooting. Select a version of map data. If the version of the map data used at the time of shooting is the same as the latest version of the map data, the latest version of the map data may be selected.
  • step S104 the process proceeds to step S104.
  • step S104 the control unit 16 displays an icon corresponding to the shooting position and shooting direction included in the shooting information extracted in step S102 on the map image. Specifically, the control unit 16 displays an icon indicating the shooting direction at a position on the map image corresponding to the shooting position. Then, the process proceeds to step S105.
  • step S105 the control unit 16 causes the display unit 15 to display a captured image corresponding to the image data included in the image information acquired in step S101.
  • the control unit 16 displays the captured images side by side next to the map image.
  • the control unit 16 pops up a captured image in the map image.
  • a still image is displayed as a captured image.
  • a moving image is displayed instead of a still image.
  • a moving image taken while traveling on a vehicle or a train or moving on foot is displayed.
  • the term “captured image” will be used as appropriate for such a moving image.
  • the second embodiment is also realized by the display device 1 shown in FIG. Therefore, the description of the same configuration, processing, and control as in the first embodiment is omitted as appropriate. Further, the configuration, processing, and control not particularly described are the same as those in the first embodiment.
  • the display control method according to the second embodiment is also executed by the control unit 16 included in the display device 1. Specifically, in the second embodiment, first, the control unit 16 acquires image information regarding a captured image (moving image) to be displayed from the image information storage unit 14 based on an output from the user interface 11. In this case, the control unit 16 acquires image information including image data, shooting positions, shooting dates and times, and shooting directions for a plurality of frames. Thereafter, the control unit 16 performs processing for each frame of image information.
  • control unit 16 refers to the map database 13 to acquire map data corresponding to the shooting position and shooting date / time included in the image information for one frame. Specifically, the control unit 16 selects a version of map data having update date information corresponding to the shooting date / time from a plurality of versions of map data including the shooting position, that is, adopted at the time of shooting. Select the version of the map data you had.
  • control unit 16 simultaneously displays a map image corresponding to the map data acquired as described above and a captured image corresponding to the image data included in the image information for one frame.
  • the control unit 16 displays the captured image and the map image side by side at the same time.
  • the control unit 16 pops up a captured image in the map image.
  • the control unit 16 displays an icon corresponding to the shooting position and shooting direction included in the image information for one frame on the map image.
  • the control unit 16 displays an icon indicating the shooting direction at a position on the map image corresponding to the shooting position.
  • the control unit 16 repeatedly executes such processing for one frame of image information for a plurality of frames constituting a captured image to be displayed.
  • the control unit 16 responds to such a change in the photographing position.
  • the corresponding map image is displayed. Specifically, the control unit 16 fixes the position of the icon to be displayed on the screen, and moves the map image according to the change of the shooting position with reference to the position of the icon.
  • the display screen according to the second embodiment and the display screen according to the comparative example will be described with reference to FIGS.
  • the captured image and the map image corresponding to the latest map data corresponding to the position where the captured image is captured are displayed simultaneously as in the first embodiment.
  • FIG. 7 shows an example of a display screen according to the second embodiment.
  • a case where a landscape in front of the vehicle is photographed while traveling on a road with a vehicle is taken as an example.
  • map data about a place where a road, a forest, or the like exists after the photographing is updated.
  • map data has been updated.
  • the conditions exemplified here are also applied to FIGS. 8 and 9 described later.
  • symbol g21 indicates an example of a captured image
  • symbol g22 indicates an example of a map image.
  • the captured image g21 and the map image g22 are displayed side by side at the same time. That is, the captured image g21 and the map image g22 are displayed in each of the areas obtained by dividing one screen into approximately two.
  • the photographed image g21 shows an image of a landscape in front taken while traveling on a road with a vehicle.
  • the map image g22 is a map image corresponding to the shooting position and shooting date / time corresponding to the shot image g21.
  • an image corresponding to map data having update date information corresponding to the shooting date is displayed as a map image g22 among a plurality of versions of map data including the shooting position.
  • information about roads and forests is used instead of images corresponding to the latest version of map data including information on apartments built in places where roads and forests exist.
  • An image corresponding to the past version of the map data is displayed as a map image g22.
  • the symbol ic4 in the map image g22 indicates an icon.
  • the icon ic4 is displayed at a position on the map image g22 corresponding to the shooting position (specifically, a position on the road g22a), and is displayed so that the tip of the icon ic4 faces the direction according to the shooting direction.
  • the control unit 16 displays a map image g22 corresponding to such a change in the shooting position. Specifically, the control unit 16 fixes the position of the icon ic4 on the screen, and moves the map image g22 according to the change of the shooting position with reference to the position of the icon ic4.
  • the display which the icon ic4 is moving on the road g22a is made. That is, the same display as that of displaying the vehicle position with the navigation device is performed.
  • FIG. 8 shows an example of a display screen according to a comparative example.
  • the symbol g23 indicates an example of a captured image
  • the symbol g24 indicates an example of a map image.
  • the captured image g23 and the map image g24 are displayed side by side at the same time.
  • the photographed image g21 shows an image of a landscape in front that was photographed while traveling on a road with a vehicle.
  • the map image g24 is a map image corresponding to the shooting position corresponding to the shot image g23.
  • an image corresponding to the latest version of map data including the shooting position is displayed as the map image g24.
  • FIG. 8 shows an example of a display screen according to a comparative example.
  • the map image g24 does not correspond to the photographed image g23, that is, the map image g24 is not a map at the time of photographing, there is a possibility that the user may feel uncomfortable.
  • an appropriate map image g24 corresponding to the photographed image g21 can be displayed, that is, the map image g22 indicating the map at the time of photographing can be appropriately displayed.
  • the situation at the time can be missed, and when another user takes a picture, the situation at the time can be notified. .
  • FIG. 9 shows another example of the display screen according to the second embodiment.
  • a symbol g25 indicates an example of a map image
  • a symbol g26 indicates an example of a captured image.
  • the map image g25 is displayed on almost the entire screen, and the captured image g26 is displayed in a pop-up on the map image g25.
  • the captured image g26 is pop-up displayed with the icon ic6 as a reference.
  • the map image g25, the captured image g26, and the icon ic6 are substantially the same as those in FIG. Even with such a display screen according to another example, the same operation and effect as the display screen shown in FIG. 7 can be obtained.
  • step S ⁇ b> 201 the control unit 16 acquires, from the image information storage unit 14, image information related to a captured image (moving image) to be displayed based on an output from the user interface 11.
  • the control unit 16 acquires image information including image data for a plurality of frames, shooting positions, shooting dates and times, and shooting directions. Then, the process proceeds to step S202.
  • step S202 the control unit 16 acquires image information for one frame from the image information for a plurality of frames acquired in step S201. Then, the process proceeds to step S203.
  • step S203 the control unit 16 extracts shooting information (that is, information including the shooting position, shooting date and time, and shooting direction) from the image information for one frame acquired in step S202. Then, the process proceeds to step S204.
  • shooting information that is, information including the shooting position, shooting date and time, and shooting direction
  • step S204 the control unit 16 refers to the map database 13 to select map data corresponding to the shooting position and shooting date and time included in the shooting information extracted in step S203, and a map corresponding to the selected map data.
  • the image is displayed on the display unit 15.
  • the control unit 16 selects a version of map data having update date information corresponding to the shooting date / time from among a plurality of versions of map data including the shooting position, that is, was adopted at the time of shooting. Select a version of map data. If the version of the map data used at the time of shooting is the same as the latest version of the map data, the latest version of the map data may be selected.
  • step S204 the process proceeds to step S205.
  • step S205 the control unit 16 displays an icon corresponding to the shooting position and shooting direction included in the shooting information extracted in step S203 on the map image. Specifically, the control unit 16 displays an icon indicating the shooting direction at a position on the map image corresponding to the shooting position. Then, the process proceeds to step S206.
  • step S206 the control unit 16 causes the display unit 15 to display a captured image corresponding to the image data included in the image information for one frame acquired in step S202.
  • the control unit 16 displays the captured images side by side next to the map image.
  • the control unit 16 pops up a captured image in the map image. Then, the process proceeds to step S207.
  • step S207 the control unit 16 determines whether or not the frame subjected to the processing in steps S202 to S206 is the final frame of the moving image to be displayed. If it is the last frame (step S207: Yes), the process ends. On the other hand, if it is not the last frame (step S207: No), the process returns to step S202. In this case, the control unit 16 acquires image information for the next frame (step S202), and performs the processing from step S203 on for the frame.
  • the previous frame is shot.
  • Information may be used. In general, in the case of a moving image of 30 frames / second or 15 frames / second, shooting information is given once per second. In this case, the same shooting information may be used for 30 frames or 15 frames.
  • Modification 1 when the map data used for the map image to be displayed simultaneously with the photographed image (that is, the map data selected based on the photographing position and photographing date / time) is not the latest data, the map data is not the latest data.
  • the map image is displayed in such a manner that it can be discriminated.
  • the control unit 16 changes the display mode of the map image between a location corresponding to the map data that is not the latest data and a location corresponding to the map data that is the latest data.
  • the user interface 11 instructs to switch from the map image corresponding to the map data to the map image corresponding to the latest map data. Function to accept. And the control part 16 switches the map image to display to the map image according to the newest map data, when the user interface 11 receives such an instruction
  • FIG. 11 shows an example of a display screen according to the first modification.
  • a symbol g31 indicates an example of a captured image
  • a symbol g32 indicates an example of a map image.
  • the captured image g31 and the map image g32 are displayed side by side at the same time.
  • the captured image g31 is the same image as the captured image g21 shown in FIG.
  • the basic configuration of the map image g32 is the same as that of the map image g22 shown in FIG.
  • the control part 16 can discriminate
  • the control unit 16 displays the location where the map data which is not the latest data is used using a color different from the location where the map data which is the latest data is used (specifically, a translucent color) Are superimposed and displayed). For example, the control unit 16 performs such display in units of map meshes or objects.
  • the control unit 16 also displays the year corresponding to the shooting date.
  • the display of the map image g32 can be switched by a user operation (button operation, touch panel operation, etc.).
  • the control unit 16 switches the map image g32 to a map image corresponding to the latest map data.
  • Modification 1 it can be easily understood that the map data used for the map image is not the latest. That is, it can be easily grasped that the current situation of the place where the image was taken has changed since the time of the image taking. Moreover, according to the modification 1, the change of the condition of the image
  • FIG. 11 shows an example in which the captured image g31 and the map image g32 are displayed side by side. Instead, the captured image may be displayed as a pop-up in the map image as shown in FIGS. good.
  • the display device 1 is configured to include the map database 13 and the image information storage unit 14, but the present invention is not limited to application to such a configuration.
  • the present invention can also be applied to a configuration that does not include the map database 13 and the image information storage unit 14.
  • the present invention can be applied to a terminal device that communicates with a server.
  • the map data and the image information are stored in the server, and the terminal device acquires the map data and the image information from the server, and displays the map image and the captured image by the method as described above. it can.
  • Such a terminal device corresponds to an example of a “display device” in the present invention.
  • the present invention can be applied to a server that communicates with a terminal device.
  • the server selects map data corresponding to the captured image to be displayed by the method as described above, transmits the selected map data and image data corresponding to the captured image to the display device, and displays the display device.
  • the server can perform only the process of displaying a map image and a captured image based on the map data and image data transmitted from the server. That is, the present invention can be realized as an application on the Web.
  • the server corresponds to an example of the “display device” in the present invention.
  • the server functions as “image information acquisition means”, “map data acquisition means”, and “display control means” in the present invention.
  • the shooting direction is included in the image information.
  • the present invention can also be applied to image information that does not include the shooting direction. If the image information does not include the shooting direction, an icon indicating only the shooting position included in the image information may be displayed on the map image.
  • the present invention can be applied to various devices having a function of displaying an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

 表示装置は、撮影された画像についての画像データと、当該画像が撮影された位置を示す撮影位置と、当該画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段と、画像情報取得手段によって取得された画像情報に含まれる撮影位置及び撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段と、画像情報取得手段によって取得された画像情報に含まれる画像データに応じた画像と、地図データ取得手段によって取得された地図データに応じた地図画像とを同時に表示させる表示制御手段と、を備える。

Description

表示装置、表示方法及び表示プログラム
 本発明は、画像を表示する技術分野に関する。
 従来から、地図画像と撮影画像とを同時に表示させる技術が提案されている。例えば、特許文献1には、旅行や登山をした場合に、移動した軌跡を地図画像上に表示し、そこで撮影した画像を撮影した方向を確認しながら表示する技術が提案されている。具体的には、特許文献1には、撮影手段での撮影時に、検出された位置情報及び撮影方向の情報を撮影画像情報と一緒に記録し、記録された撮影情報(位置情報、撮影方向の情報及び撮影画像情報)と地図データベースとを関連させ、方向性を持ったアイコンとして地図画像上に表示することが記載されている。
特開2007-129407号公報
 ところで、地図データは逐次更新されるものであるが、上記した特許文献1に記載された技術では、そのような地図データの更新を考慮して地図画像を表示していなかった。したがって、特許文献1に記載された技術では、撮影した場所に対応する地図データが更新された場合に、更新後の地図データ(例えば最新のバージョンの地図データ)に応じた地図画像を、撮影画像と一緒に表示させてしまう場合があった。そのため、特許文献1に記載された技術では、地図画像が撮影画像に対応したものでないために、つまり地図画像が撮影当時の地図でないために、ユーザに違和感を与えてしまう場合があった。
 本発明が解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、地図画像と撮影画像とを同時に表示させる構成において、撮影当時の地図を示す地図画像を適切に表示させることが可能な表示装置、表示方法及び表示プログラムを提供することを主な目的とする。
 請求項1に記載の発明では、表示装置は、撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段と、前記画像情報取得手段によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段と、前記画像情報取得手段によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得手段によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御手段と、を備えることを特徴とする。
 請求項9に記載の発明では、表示装置によって実行される表示方法は、撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得工程と、前記画像情報取得工程によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得工程と、前記画像情報取得工程によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得工程によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御工程と、を備えることを特徴とする。
 請求項10に記載の発明では、コンピュータを有する表示装置によって実行される表示プログラムは、前記コンピュータを、撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段、前記画像情報取得手段によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段、前記画像情報取得手段によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得手段によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御手段、として機能させることを特徴とする。
第1実施例に係る表示装置の機能構成を示すブロック図を示す。 第1実施例による表示画面の一例を示す。 比較例による表示画面の一例を示す。 第1実施例による表示画面の他の例を示す。 撮影日時に応じた地図データを選択する方法を説明するための図を示す。 第1実施例に係る処理フローを示す。 第2実施例による表示画面の一例を示す。 比較例による表示画面の一例を示す。 第2実施例による表示画面の他の例を示す。 第2実施例に係る処理フローを示す。 変形例1による表示画面の一例を示す。
 本発明の1つの観点では、表示装置は、撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段と、前記画像情報取得手段によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段と、前記画像情報取得手段によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得手段によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御手段と、を備える。
 上記の表示装置は、撮影により得られた画像(撮影画像)と地図画像とを同時に表示させるために好適に利用される。画像情報取得手段は、カメラなどの撮影手段によって撮影された画像についての画像データと、当該画像が撮影された位置を示す撮影位置と、当該画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する。この「画像(撮影画像)」には、静止画像及び動画像が含まれる。地図データ取得手段は、画像情報取得手段によって取得された画像情報に含まれる撮影位置及び撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する。つまり、地図データ取得手段は、撮影当時に採用されていたバージョンの地図データを選択する。そして、表示制御手段は、画像情報取得手段によって取得された画像情報に含まれる画像データに応じた画像と、地図データ取得手段によって取得された地図データに応じた地図画像とを同時に表示させる。これにより、撮影画像に対応した適切な地図画像を表示させることができる。つまり、撮影当時の地図を示す地図画像を適切に表示させることができる。
 上記の表示装置において好適には、前記地図データ取得手段は、複数のバージョンの地図データが更新日付情報に対応付けられて記憶された地図データベースを参照して、前記複数のバージョンの地図データの中ら、前記画像情報に含まれる前記撮影日時に対応する更新日付情報を有する地図データを選択する。この場合、地図データ取得手段は、撮影位置が含まれる複数のバージョンの地図データの中から、撮影日時に対応するバージョンの地図データを選択する。
 上記の表示装置の一態様では、前記表示制御手段は、前記撮影位置に対応する前記地図画像上の位置に、当該撮影位置を示すアイコンを表示させる。このようなアイコンを地図画像中に表示させることにより、撮影位置を容易に把握させることができる。
 上記の表示装置の他の一態様では、前記画像情報は、前記画像が撮影された方位を示す撮影方位を更に含んでおり、前記表示制御手段は、前記撮影方位を指し示すように前記アイコンを表示させる。このようなアイコンを地図画像中に表示させることにより、撮影方位を容易に把握させることができる。
 上記の表示装置の他の一態様では、前記表示制御手段は、前記地図データ取得手段によって取得された前記地図データが最新のデータでない場合に、当該地図データが最新のデータでないことを判別可能な態様で前記地図画像を表示させる。これにより、地図画像に用いられた地図データが最新のものでないことを容易に把握させることができる。つまり、撮影した場所の現在の状況が撮影時から変化したことを容易に把握させることができる。
 好ましくは、前記表示制御手段は、最新のデータでない地図データに対応する箇所と最新のデータである地図データに対応する箇所とで、前記地図画像の表示態様を変えることができる。
 上記の表示装置の他の一態様では、前記地図データが最新のデータでない場合に、当該地図データに応じた地図画像から、最新の地図データに応じた地図画像へ切り替える指示を受け付ける指示受付手段を更に有しており、前記表示制御手段は、前記指示受付手段が前記指示を受け付けた場合に、表示させる地図画像を、前記最新の地図データに応じた地図画像へ切り替える。この態様によれば、撮影時の地図画像から最新の地図画像に切り替えることで、撮影した場所の状況の変化を容易に把握させることができる。
 好適な例では、前記表示制御手段は、前記画像情報に含まれる前記画像データに応じた画像を、前記地図画像中にポップアップ表示させることができる。
 本発明の他の観点では、表示装置によって実行される表示方法は、撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得工程と、前記画像情報取得工程によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得工程と、前記画像情報取得工程によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得工程によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御工程と、を備える。
 本発明の更に他の観点では、コンピュータを有する表示装置によって実行される表示プログラムは、前記コンピュータを、撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段、前記画像情報取得手段によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段、前記画像情報取得手段によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得手段によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御手段、として機能させる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [第1実施例]
 まず、本発明の第1実施例について説明する。
 (装置構成)
 図1は、第1実施例に係る表示装置1の機能構成を示すブロック図である。図1に示すように、表示装置1は、ユーザインターフェース11と、入出力インターフェース12と、地図データベース13と、画像情報記憶部14と、表示部15と、制御部16と、を有する。表示装置1は、基本的には、カメラなどの撮影手段によって撮影された画像(以下では適宜「撮影画像」と呼ぶ。)と、地図データに応じた地図画像とを同時に表示させるように機能する。例えば、表示装置1は、パーソナルコンピュータ(PC)や、スマートフォンなどの携帯型端末装置や、カメラ付きのナビゲーション装置などによって実現される。
 ユーザインターフェース11は、ユーザからの入力を受け付けるインターフェースである。例えば、ユーザインターフェース11は、表示させる撮影画像を選択したり、地図画像のスケールを変更したりするための入力を受け付ける。
 入出力インターフェース12は、所定のデータについての入出力を行うインターフェースである。例えば、入出力インターフェース12は、画像データや地図データの入出力を行う。
 地図データベース13は、表示する地図データについてのデータベースである。地図データベース13には、現在用いられている地図データだけでなく、過去に用いられていた概ね全ての地図データも記憶されている。具体的には、地図データは逐次更新されるものであるが、地図データベース13には、最新のバージョンの地図データだけでなく、現在に至るまでに用いられていた、更新が行われる前の概ね全てのバージョンの地図データが記憶されている。詳しくは、地図データベース13には、このような複数のバージョンの地図データが更新日付情報(地図データの更新が行われた日付を示す情報)に対応付けられて記憶されている。また、地図データベース13には、メッシュ(地図メッシュ)ごとに地図データが記憶されている。このメッシュは、緯度経度を丸めてグループ化したときの個々のグループであり、地図上では例えば所定長の方形枡で表現される。
 画像情報記憶部14は、カメラなどの撮影手段によって撮影された画像に関する画像情報を記憶している。画像情報は、撮影された画像自体のデータである画像データと、当該画像が撮影された位置(緯度経度)を示す撮影位置と、当該画像が撮影された日時(つまり撮影時のタイムスタンプ)を示す撮影日時と、当該画像が撮影された方位(方角)を示す撮影方位と、を含む情報である。以下では、画像情報から画像データを除いた情報、つまり撮影位置、撮影日時及び撮影方位を含む情報を、適宜「撮影情報」と呼ぶ。
 表示部15は、液晶ディスプレイ(LCD:Liquid Crystal Display)などで構成され、撮影画像や地図画像を表示する。
 制御部16は、CPU(Central Processing Unit)やROM(Read Only Memory)やRAM(Random Access Memory)などを有しており、表示装置1全体の制御を行う。本実施例では、制御部16は、画像情報記憶部14に記憶された画像情報に応じた撮影画像と、地図データベース13に記憶された地図データに応じた地図画像とを同時に表示部15に表示させる制御を行う。具体的には、制御部16は、撮影画像と、当該撮影画像が撮影された場所及び日時(つまり撮影位置及び撮影日時)に応じた地図画像とを同時に表示させる制御を行う。制御部16が行う制御の詳細については後述する。なお、制御部16は、本発明における「画像情報取得手段」、「地図データ取得手段」及び「表示制御手段」の一例に相当する。
 (表示制御方法)
 次に、第1実施例において制御部16が行う表示制御方法について説明する。なお、第1実施例では、撮影画像として静止画像(つまり写真に相当する画像)を例に挙げる。
 第1実施例では、制御部16は、撮影画像と、その撮影画像に応じた地図画像とを同時に表示部15に表示させる制御を行う。具体的には、まず、制御部16は、ユーザインターフェース11からの出力に基づいて、表示すべき撮影画像に関する画像情報を画像情報記憶部14から取得する。そして、制御部16は、地図データベース13を参照することで、取得された画像情報に含まれる撮影位置及び撮影日時に応じた地図データを取得する。より具体的には、制御部16は、撮影位置が含まれる複数のバージョンの地図データの中から、撮影日時に対応するバージョンの地図データを選択する、つまり撮影日時に対応する更新日付情報を有する地図データを選択する。言い換えると、制御部16は、撮影当時に採用されていたバージョンの地図データを選択する。
 この後、制御部16は、取得された画像情報に含まれる画像データに応じた撮影画像と、取得された地図データに応じた地図画像とを同時に表示させる。1つの例では、制御部16は、撮影画像と地図画像とを並べて同時に表示させる。他の例では、制御部16は、地図画像中に撮影画像をポップアップ表示させる。
 また、制御部16は、取得された画像情報に含まれる撮影位置に対応する地図画像上の位置に、当該撮影位置を示すアイコンを表示させる。加えて、制御部16は、取得された画像情報に含まれる撮影方位に基づいて、当該撮影方位を指し示すようにアイコンを表示させる。
 次に、図2乃至図4を参照して、第1実施例による表示画面と比較例による表示画面とを比較しながら説明する。比較例では、第1実施例と異なり、撮影日時を考慮しないで地図画像を表示させるものとする。具体的には、比較例では、撮影画像と、その撮影画像が撮影された位置に応じた最新の地図データに対応する地図画像とを同時に表示させるものとする。このような比較例は、前述した特許文献1に記載された技術に相当する。
 図2は、第1実施例による表示画面の一例を示している。ここでは、森林に含まれる桜の木を川原から撮影した場合を例に挙げる。また、当該撮影後において、森林が存在した場所についての地図データが更新されたものとする。具体的には、森林が存在した場所が開発されてマンションが建設されることで、森林についての情報を含む地図データから、森林が存在する場所に建設されたマンションの情報を含む地図データへと更新されたものとする。なお、ここで例示した条件は、後述する図3及び図4にも適用されるものとする。
 図2において、符号g11は撮影画像の一例を示しており、符号g12は地図画像の一例を示している。この例では、撮影画像g11と地図画像g12とが並べて同時に表示されている。つまり、一の画面を略2分割したエリアのそれぞれに、撮影画像g11と地図画像g12とが表示されている。撮影画像g11には、川原から撮影された桜の画像が含まれている。地図画像g12は、撮影画像g11に対応する撮影位置及び撮影日時に応じた地図画像である。具体的には、第1実施例では、撮影位置が含まれる複数のバージョンの地図データの中で、撮影日時に対応する更新日付情報を有する地図データに応じた画像が、地図画像g12として表示される。図2に示す例では、森林が存在する場所に建設されたマンションの情報を含む最新のバージョンの地図データに応じた画像ではなく、森林(符号g12a参照)についての情報を含む過去のバージョンの地図データに応じた画像が、地図画像g12として表示されている。
 また、図2において、地図画像g12中の符号ic1は、アイコンを示している。アイコンic1は、撮影位置に対応する地図画像g12上の位置に表示されると共に、その先端が撮影方位に応じた方向を向くように表示される。
 図3は、比較例による表示画面の一例を示している。図3において、符号g13は撮影画像の一例を示しており、符号g14は地図画像の一例を示している。この例でも、撮影画像g13と地図画像g14とが並べて同時に表示されている。また、撮影画像g13には、撮影画像g11と同様に、川原から撮影された桜の画像が含まれている。地図画像g14は、撮影画像g13に対応する撮影位置に応じた地図画像である。具体的には、比較例では、撮影位置が含まれる最新のバージョンの地図データに応じた画像が、地図画像g14として表示される。図3に示す例では、森林についての情報を含む過去のバージョンの地図データに応じた画像ではなく、森林が存在する場所に建設されたマンション(符号g14a、g14b参照)の情報を含む最新の地図データに応じた画像が、地図画像g14として表示されている。
 このような比較例によれば、地図画像g14が撮影画像g13に対応したものでないために、つまり地図画像g14が撮影当時の地図でないために、ユーザに違和感を与えてしまう可能性がある。これに対して、第1実施例によれば、撮影画像g11に対応した適切な地図画像g14を表示させることができる、つまり撮影当時の地図を示す地図画像g12を適切に表示させることができる。このような第1実施例によれば、ユーザ自身が撮影を行った場合には当時の状況を懐かしむことができるし、他のユーザが撮影を行った場合には当時の状況を知らせることができる。
 図4は、第1実施例による表示画面の他の例を示している。図4において、符号g15は地図画像の一例を示しており、符号g16は撮影画像の一例を示している。この例では、一の画面の概ね全体に地図画像g15が表示されていると共に、地図画像g15中に撮影画像g16がポップアップ表示されている。具体的には、アイコンic3を基準にして撮影画像g16がポップアップ表示されている。地図画像g15、撮影画像g16及びアイコンic3は、図2と概ね同様のものである。このような他の例に係る表示画面によっても、図2に示した表示画面と同様の作用効果が得られる。
 次に、図5を参照して、地図データベース13に記憶された地図データの中から、撮影日時に応じた地図データを選択する方法について説明する。ここでは、図5(a)に示すような9つの地図のメッシュ1~9を例に挙げる。図5(b)は、図5(a)に示すメッシュ1~9についての地図データの更新状況を示している。
 メッシュ1を代表して説明すると、まず1970年10月に地図データが更新され、次に1980年7月に地図データが更新され、次に2000年2月に地図データが更新され、次に2010年4月に地図データが更新されている。地図データベース13では、メッシュ1については、1970年10月に更新されたことを示す更新日付情報とその更新後のバージョンの地図データとが対応付けて記憶され、1980年7月に更新されたことを示す更新日付情報とその更新後のバージョンの地図データとが対応付けて記憶され、2000年2月に更新されたことを示す更新日付情報とその更新後のバージョンの地図データとが対応付けて記憶され、2010年4月に更新されたことを示す更新日付情報とその更新後のバージョンの地図データとが対応付けて記憶されている。その他のメッシュ2~9についても、メッシュ1と同様に、更新日付情報と更新後のバージョンの地図データとが対応付けて記憶されている。
 制御部16は、このように地図データベース13に記憶された地図データに基づいて、メッシュ1~9のそれぞれについての地図画像を表示させる。例えば、現在の地図画像を表示させる場合には、制御部16は、メッシュ1~5については2010年4月に更新されたバージョンの地図データを選択し、メッシュ6~9については1990年3月に更新されたバージョンの地図データを選択する。この場合、メッシュ1~5については、2010年4月に更新されたバージョンの地図データが最新のバージョンの地図データとなり、メッシュ6~9については、1990年3月に更新されたバージョンの地図データが最新のバージョンの地図データとなる。
 他方で、画像情報に含まれる撮影日時が1985年であり、そのような撮影日時に対応する地図データに応じた地図画像を表示する場合を考える。この場合、制御部16は、撮影日時と、各メッシュ1~9の更新日付情報に含まれる更新日付とを比較することで、メッシュ1~4については1980年7月に更新されたバージョンの地図データを選択し、メッシュ5~9については1970年10月に更新されたバージョンの地図データを選択する。
 なお、原則的には、撮影当時に採用されていたバージョンの地図データを選択するが、場合によっては、撮影当時に採用されていたバージョンの地図データを選択しなくても良い。具体的には、撮影後において所定期間以内に地図データが更新された場合には、撮影日時において採用されていたバージョンの地図データではなく、撮影日時から所定期間以内に更新されたバージョンの地図データを選択しても良い。こうするのは、撮影後において所定期間以内に地図データが更新された場合には、撮影時における実際の現地の状況は、地図データの更新前に既に変わっているものと考えられるからである。つまり、撮影時における現地の状況は更新後の地図データが表しているものと考えられるからである。例えば、図5に示した例では、画像情報に含まれる撮影日時が1990年2月である場合には、メッシュ5~9については、1970年10月に更新されたバージョンの地図データではなく、1990年2月の翌月である1990年3月に更新されたバージョンの地図データを選択することができる。
 (処理フロー)
 次に、図6を参照して、第1実施例に係る処理フローについて説明する。この処理フローは制御部16によって実行される。
 まず、ステップS101では、制御部16は、ユーザインターフェース11からの出力に基づいて、表示すべき撮影画像に関する画像情報を画像情報記憶部14から取得する。そして、処理はステップS102に進む。ステップS102では、制御部16は、ステップS101で取得した画像情報から撮影情報(つまり撮影位置、撮影日時及び撮影方位を含む情報)を抽出する。そして、処理はステップS103に進む。
 ステップS103では、制御部16は、地図データベース13を参照することで、ステップS102で抽出した撮影情報に含まれる撮影位置及び撮影日時に応じた地図データを選択し、選択した地図データに応じた地図画像を表示部15に表示させる。この場合、制御部16は、撮影位置が含まれる複数のバージョンの地図データの中から、撮影日時に対応する更新日付情報を有するバージョンの地図データを選択する、つまり、撮影当時に採用されていたバージョンの地図データを選択する。なお、撮影当時に採用されていたバージョンの地図データが最新のバージョンの地図データと同じ場合には、最新のバージョンの地図データを選択しても良い。以上のステップS103の後、処理はステップS104に進む。
 ステップS104では、制御部16は、ステップS102で抽出した撮影情報に含まれる撮影位置及び撮影方位に応じたアイコンを、地図画像上に表示させる。具体的には、制御部16は、撮影位置に対応する地図画像上の位置に、撮影方位を指し示すようなアイコンを表示させる。そして、処理はステップS105に進む。
 ステップS105では、制御部16は、ステップS101で取得された画像情報に含まれる画像データに応じた撮影画像を、表示部15に表示させる。1つの例では、制御部16は、地図画像の隣に撮影画像を並べて表示させる。他の例では、制御部16は、地図画像中に撮影画像をポップアップ表示させる。以上のステップS105の後、処理は終了する。
 以上説明した処理フローによれば、撮影画像に対応した適切な地図画像を表示させることが可能となる。つまり、撮影当時の地図を示す地図画像を適切に表示させることが可能となる。
 [第2実施例]
 次に、第2実施例について説明する。上記の第1実施例では、撮影画像として静止画像を表示させていたが、第2実施例では、静止画像の代わりに動画像を表示させる。具体的には、第2実施例では、車両又は電車での走行中や徒歩での移動中に撮影した動画像を表示させる。以下では、このような動画像についても適宜「撮影画像」の文言を用いるものとする。
 第2実施例も、図1に示した表示装置1によって実現される。したがって、上記した第1実施例と同様の構成や処理や制御については、その説明を適宜省略する。また、特に説明しない構成や処理や制御については、第1実施例と同様であるものとする。
 (表示制御方法)
 次に、第2実施例に係る表示制御方法について説明する。第2実施例に係る表示制御方法も、表示装置1が有する制御部16によって実行される。具体的には、第2実施例では、まず、制御部16は、ユーザインターフェース11からの出力に基づいて、表示すべき撮影画像(動画像)に関する画像情報を画像情報記憶部14から取得する。この場合、制御部16は、複数フレームについての画像データ、撮影位置、撮影日時及び撮影方位を含む画像情報を取得する。この後、制御部16は、1フレーム分の画像情報ごとに処理を行っていく。
 制御部16は、まず、地図データベース13を参照することで、1フレーム分の画像情報に含まれる撮影位置及び撮影日時に応じた地図データを取得する。具体的には、制御部16は、撮影位置が含まれる複数のバージョンの地図データの中から、撮影日時に対応する更新日付情報を有するバージョンの地図データを選択する、つまり、撮影当時に採用されていたバージョンの地図データを選択する。
 この後、制御部16は、上記のように取得された地図データに応じた地図画像と、1フレーム分の画像情報に含まれる画像データに応じた撮影画像とを同時に表示させる。1つの例では、制御部16は、撮影画像と地図画像とを並べて同時に表示させる。他の例では、制御部16は、地図画像中に撮影画像をポップアップ表示させる。また、制御部16は、1フレーム分の画像情報に含まれる撮影位置及び撮影方位に応じたアイコンを、地図画像上に表示させる。具体的には、制御部16は、撮影位置に対応する地図画像上の位置に、撮影方位を指し示すようなアイコンを表示させる。制御部16は、このような1フレーム分の画像情報についての処理を、表示すべき撮影画像を構成する複数フレーム分だけ、繰り返し実行する。
 ここで、第2実施例で用いる撮影画像(動画像)は移動中に撮影されたものであるため、撮影位置は時々刻々と変化するので、制御部16は、そのような撮影位置の変化に応じた地図画像を表示させる。具体的には、制御部16は、画面上に表示させるアイコンの位置を固定し、当該アイコンの位置を基準にして、撮影位置の変化に応じて地図画像を移動させる。
 次に、図7乃至図9を参照して、第2実施例による表示画面と比較例による表示画面とを比較しながら説明する。比較例では、第1実施例で示したものと同様に、撮影画像と、その撮影画像が撮影された位置に応じた最新の地図データに対応する地図画像とを同時に表示させるものとする。
 図7は、第2実施例による表示画面の一例を示している。ここでは、車両にて道路を走行中に前方の風景を撮影した場合(1つの例では車載カメラで撮影した場合)を例に挙げる。また、当該撮影後において、道路や森林などが存在した場所についての地図データが更新されたものとする。具体的には、道路や森林が存在した場所が開発されてマンションが建設されることで、道路や森林についての情報を含む地図データから、道路や森林が存在する場所に建設されたマンションの情報を含む地図データへと更新されたものとする。なお、ここで例示した条件は、後述する図8及び図9にも適用されるものとする。
 図7において、符号g21は撮影画像の一例を示しており、符号g22は地図画像の一例を示している。この例では、撮影画像g21と地図画像g22とが並べて同時に表示されている。つまり、一の画面を略2分割したエリアのそれぞれに、撮影画像g21と地図画像g22とが表示されている。撮影画像g21は、車両にて道路を走行中に撮影された、前方の風景の画像を示している。地図画像g22は、撮影画像g21に対応する撮影位置及び撮影日時に応じた地図画像である。具体的には、第2実施例では、撮影位置が含まれる複数のバージョンの地図データの中で、撮影日時に対応する更新日付情報を有する地図データに応じた画像が、地図画像g22として表示される。図7に示す例では、道路や森林が存在する場所に建設されたマンションの情報を含む最新のバージョンの地図データに応じた画像ではなく、道路や森林(符号g22a、g22b参照)についての情報を含む過去のバージョンの地図データに応じた画像が、地図画像g22として表示されている。
 また、図7において、地図画像g22中の符号ic4は、アイコンを示している。アイコンic4は、撮影位置に対応する地図画像g22上の位置(詳しくは道路g22a上の位置)に表示されると共に、その先端が撮影方位に応じた方向を向くように表示される。第2実施例では、撮影位置は時々刻々と変化するので、制御部16は、そのような撮影位置の変化に応じた地図画像g22を表示させる。具体的には、制御部16は、画面上のアイコンic4の位置を固定し、当該アイコンic4の位置を基準にして、撮影位置の変化に応じて地図画像g22を移動させる。これにより、第2実施例によれば、アイコンic4が道路g22a上を移動しているような表示がなされる。つまり、ナビゲーション装置で自車位置を表示するのと同様の表示がなされる。
 図8は、比較例による表示画面の一例を示している。図8において、符号g23は撮影画像の一例を示しており、符号g24は地図画像の一例を示している。この例でも、撮影画像g23と地図画像g24とが並べて同時に表示されている。また、撮影画像g23は、撮影画像g21と同様に、車両にて道路を走行中に撮影された、前方の風景の画像を示している。地図画像g24は、撮影画像g23に対応する撮影位置に応じた地図画像である。具体的には、比較例では、撮影位置が含まれる最新のバージョンの地図データに応じた画像が、地図画像g24として表示される。図8に示す例では、道路や森林についての情報を含む過去のバージョンの地図データに応じた画像ではなく、道路や森林が存在する場所に建設されたマンション(符号g24a、g24b参照)の情報を含む最新の地図データに応じた画像が、地図画像g24として表示されている。そのため、比較例では、アイコンic5がマンションg24a、g24b上を移動しているような表示がなされる。
 このような比較例によれば、地図画像g24が撮影画像g23に対応したものでないために、つまり地図画像g24が撮影当時の地図でないために、ユーザに違和感を与えてしまう可能性がある。これに対して、第2実施例によれば、撮影画像g21に対応した適切な地図画像g24を表示させることができる、つまり撮影当時の地図を示す地図画像g22を適切に表示させることができる。このような第2実施例によれば、ユーザ自身が撮影を行った場合には当時の状況を懐かしむことができるし、他のユーザが撮影を行った場合には当時の状況を知らせることができる。
 図9は、第2実施例による表示画面の他の例を示している。図9において、符号g25は地図画像の一例を示しており、符号g26は撮影画像の一例を示している。この例では、一の画面の概ね全体に地図画像g25が表示されていると共に、地図画像g25中に撮影画像g26がポップアップ表示されている。具体的には、アイコンic6を基準にして撮影画像g26がポップアップ表示されている。地図画像g25、撮影画像g26及びアイコンic6は、図7と概ね同様のものである。このような他の例に係る表示画面によっても、図7に示した表示画面と同様の作用効果が得られる。
 (処理フロー)
 次に、図10を参照して、第2実施例に係る処理フローについて説明する。この処理フローは制御部16によって実行される。
 まず、ステップS201では、制御部16は、ユーザインターフェース11からの出力に基づいて、表示すべき撮影画像(動画像)に関する画像情報を画像情報記憶部14から取得する。この場合、制御部16は、複数フレーム分の画像データ、撮影位置、撮影日時及び撮影方位を含む画像情報を取得する。そして、処理はステップS202に進む。
 ステップS202では、制御部16は、ステップS201で取得した複数フレーム分の画像情報から、1フレーム分の画像情報を取得する。そして、処理はステップS203に進む。ステップS203では、制御部16は、ステップS202で取得した1フレーム分の画像情報から撮影情報(つまり撮影位置、撮影日時及び撮影方位を含む情報)を抽出する。そして、処理はステップS204に進む。
 ステップS204では、制御部16は、地図データベース13を参照することで、ステップS203で抽出した撮影情報に含まれる撮影位置及び撮影日時に応じた地図データを選択し、選択した地図データに応じた地図画像を表示部15に表示させる。この場合、制御部16は、撮影位置が含まれる複数のバージョンの地図データの中から、撮影日時に対応する更新日付情報を有するバージョンの地図データを選択する、つまり、撮影当時に採用されていたバージョンの地図データを選択する。なお、撮影当時に採用されていたバージョンの地図データが最新のバージョンの地図データと同じ場合には、最新のバージョンの地図データを選択しても良い。以上のステップS204の後、処理はステップS205に進む。
 ステップS205では、制御部16は、ステップS203で抽出した撮影情報に含まれる撮影位置及び撮影方位に応じたアイコンを、地図画像上に表示させる。具体的には、制御部16は、撮影位置に対応する地図画像上の位置に、撮影方位を指し示すようなアイコンを表示させる。そして、処理はステップS206に進む。
 ステップS206では、制御部16は、ステップS202で取得された1フレーム分の画像情報に含まれる画像データに応じた撮影画像を、表示部15に表示させる。1つの例では、制御部16は、地図画像の隣に撮影画像を並べて表示させる。他の例では、制御部16は、地図画像中に撮影画像をポップアップ表示させる。そして、処理はステップS207に進む。
 ステップS207では、制御部16は、ステップS202~S206の処理がなされたフレームが、表示すべき動画像の最終フレームであるか否かを判定する。最終フレームである場合には(ステップS207:Yes)、処理は終了する。これに対して、最終フレームでない場合には(ステップS207:No)、処理はステップS202に戻る。この場合には、制御部16は、次のフレームについての画像情報を取得し(ステップS202)、当該フレームに対してステップS203以降の処理を行う。
 以上説明した処理フローによっても、撮影画像に対応した適切な地図画像を表示させることが可能となる。つまり、撮影当時の地図を示す地図画像を適切に表示させることが可能となる。
 なお、1フレーム分の画像情報に撮影情報(撮影位置、撮影日時及び撮影方位)が含まれていない場合には、撮影情報を用いて処理がなされるステップS204、S205では、前のフレームの撮影情報を用いれば良い。一般に、30フレーム/秒や15フレーム/秒の動画像の場合には、撮影情報は1秒に1回付与される。この場合には、30フレームの間や15フレームの間は、同じ撮影情報を用いれば良い。
 [変形例]
 以下では、上記した実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
 (変形例1)
 変形例1では、撮影画像と同時に表示させる地図画像に用いる地図データ(つまり撮影位置及び撮影日時に基づいて選択された地図データ)が最新のデータでない場合に、当該地図データが最新のデータでないことを判別可能な態様で地図画像を表示させる。具体的には、制御部16は、最新のデータでない地図データに対応する箇所と最新のデータである地図データに対応する箇所とで、地図画像の表示態様を変える。
 また、変形例1では、表示させる地図画像に用いる地図データが最新のデータでない場合に、ユーザインターフェース11は、当該地図データに応じた地図画像から、最新の地図データに応じた地図画像へ切り替える指示を受け付けるように機能する。そして、制御部16は、ユーザインターフェース11がそのような指示を受け付けた場合に、表示させる地図画像を、最新の地図データに応じた地図画像へ切り替える。
 図11は、変形例1による表示画面の一例を示している。図11において、符号g31は撮影画像の一例を示しており、符号g32は地図画像の一例を示している。この例では、撮影画像g31と地図画像g32とが並べて同時に表示されている。撮影画像g31は、図7に示した撮影画像g21などと同様の画像である。地図画像g32も、基本的な構成は、図7に示した地図画像g22と同様である。
 変形例1では、制御部16は、符号g33に示すように、最新のデータでない地図データが用いられた地図画像g32の箇所を、最新のデータでない地図データが用いられたことを判別可能な態様で表示させる。具体的には、制御部16は、最新のデータでない地図データが用いられた箇所を、最新のデータである地図データが用いられた箇所と異なる色を用いて表示させる(詳しくは半透明の色を重畳して表示させる)。例えば、制御部16は、地図のメッシュ単位やオブジェクト単位でこのような表示を行う。また、制御部16は、撮影日時に対応する年も表示させる。
 更に、変形例1では、このような地図画像g32を表示させる場合に、ユーザの操作(ボタン操作やタッチパネル操作など)により、地図画像g32の表示を切り替えられるようにする。制御部16は、ユーザによる表示を切り替える操作をユーザインターフェース11が受け付けた場合に、地図画像g32から、最新の地図データに応じた地図画像へ切り替える。
 以上説明した変形例1によれば、地図画像に用いられた地図データが最新のものでないことを容易に把握させることができる。即ち、撮影した場所の現在の状況が撮影時から変化したことを容易に把握させることができる。また、変形例1によれば、撮影時の地図画像から最新の地図画像に切り替えることで、撮影した場所の状況の変化を容易に把握させることができる。
 なお、図11では、撮影画像g31と地図画像g32とを並べて表示させる例を示したが、この代わりに、図4や図9に示したように撮影画像を地図画像中にポップアップ表示させても良い。
 (変形例2)
 上記した実施例では、表示装置1が地図データベース13及び画像情報記憶部14を有して構成されていたが、本発明はこのような構成への適用に限定はされない。本発明は、地図データベース13及び画像情報記憶部14を有しない構成にも適用することができる。例えば、本発明は、サーバと通信を行う端末装置に適用することができる。この例では、地図データ及び画像情報をサーバに記憶させておき、端末装置は、サーバから地図データ及び画像情報を取得して、上述したような方法により、地図画像及び撮影画像を表示させることができる。このような端末装置は、本発明における「表示装置」の一例に相当する。
 他の例では、本発明は、端末装置と通信を行うサーバに適用することができる。この例では、サーバは、上述したような方法により、表示すべき撮影画像に応じた地図データを選択し、選択した地図データと撮影画像に対応する画像データとを表示装置に送信し、表示装置は、サーバから送信された地図データ及び画像データに基づいた地図画像及び撮影画像を表示させる処理のみを行うことができる。つまり、本発明は、Web上のアプリケーションとして実現することができる。この場合には、サーバが本発明における「表示装置」の一例に相当する。具体的には、サーバは本発明における「画像情報取得手段」、「地図データ取得手段」及び「表示制御手段」として機能する。
 (変形例3)
 上記した実施例では、画像情報に撮影方位が含まれていたが、本発明は、撮影方位が含まれていない画像情報にも適用可能である。画像情報に撮影方位が含まれていない場合には、画像情報に含まれる撮影位置のみを示すアイコンを地図画像に表示させれば良い。
 本発明は、画像を表示する機能を有する種々の機器に適用することができる。
 1 表示装置
 11 ユーザインターフェース
 12 入出力インターフェース
 13 地図データベース
 14 画像情報記憶部
 15 表示部
 16 制御部

Claims (10)

  1.  撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段と、
     前記画像情報取得手段によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段と、
     前記画像情報取得手段によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得手段によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御手段と、を備えることを特徴とする表示装置。
  2.  前記地図データ取得手段は、複数のバージョンの地図データが更新日付情報に対応付けられて記憶された地図データベースを参照して、前記複数のバージョンの地図データの中ら、前記画像情報に含まれる前記撮影日時に対応する更新日付情報を有する地図データを選択することを特徴とする請求項1に記載の表示装置。
  3.  前記表示制御手段は、前記撮影位置に対応する前記地図画像上の位置に、当該撮影位置を示すアイコンを表示させることを特徴とする請求項1又は2に記載の表示装置。
  4.  前記画像情報は、前記画像が撮影された方位を示す撮影方位を更に含んでおり、
     前記表示制御手段は、前記撮影方位を指し示すように前記アイコンを表示させることを特徴とする請求項3に記載の表示装置。
  5.  前記表示制御手段は、前記地図データ取得手段によって取得された前記地図データが最新のデータでない場合に、当該地図データが最新のデータでないことを判別可能な態様で前記地図画像を表示させることを特徴とする請求項1乃至4のいずれか一項に記載の表示装置。
  6.  前記表示制御手段は、最新のデータでない地図データに対応する箇所と最新のデータである地図データに対応する箇所とで、前記地図画像の表示態様を変えることを特徴とする請求項5に記載の表示装置。
  7.  前記地図データが最新のデータでない場合に、当該地図データに応じた地図画像から、最新の地図データに応じた地図画像へ切り替える指示を受け付ける指示受付手段を更に有しており、
     前記表示制御手段は、前記指示受付手段が前記指示を受け付けた場合に、表示させる地図画像を、前記最新の地図データに応じた地図画像へ切り替えることを特徴とする請求項5又は6に記載の表示装置。
  8.  前記表示制御手段は、前記画像情報に含まれる前記画像データに応じた画像を、前記地図画像中にポップアップ表示させることを特徴とする請求項1乃至7のいずれか一項に記載の表示装置。
  9.  表示装置によって実行される表示方法であって、
     撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得工程と、
     前記画像情報取得工程によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得工程と、
     前記画像情報取得工程によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得工程によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御工程と、を備えることを特徴とする表示方法。
  10.  コンピュータを有する表示装置によって実行される表示プログラムであって、
     前記コンピュータを、
     撮影された画像についての画像データと、前記画像が撮影された位置を示す撮影位置と、前記画像が撮影された日時を示す撮影日時と、を含む画像情報を取得する画像情報取得手段、
     前記画像情報取得手段によって取得された前記画像情報に含まれる前記撮影位置及び前記撮影日時に基づいて、当該撮影位置に応じた地図データにおいて、当該撮影日時に対応する更新日付情報を有する地図データを取得する地図データ取得手段、
     前記画像情報取得手段によって取得された前記画像情報に含まれる前記画像データに応じた画像と、前記地図データ取得手段によって取得された前記地図データに応じた地図画像とを同時に表示させる表示制御手段、として機能させることを特徴とする表示プログラム。
PCT/JP2012/065384 2012-06-15 2012-06-15 表示装置、表示方法及び表示プログラム WO2013186921A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/065384 WO2013186921A1 (ja) 2012-06-15 2012-06-15 表示装置、表示方法及び表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/065384 WO2013186921A1 (ja) 2012-06-15 2012-06-15 表示装置、表示方法及び表示プログラム

Publications (1)

Publication Number Publication Date
WO2013186921A1 true WO2013186921A1 (ja) 2013-12-19

Family

ID=49757782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/065384 WO2013186921A1 (ja) 2012-06-15 2012-06-15 表示装置、表示方法及び表示プログラム

Country Status (1)

Country Link
WO (1) WO2013186921A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044607A1 (fr) * 2006-10-04 2008-04-17 Nikon Corporation Caméra électronique
JP2011047662A (ja) * 2009-08-25 2011-03-10 Clarion Co Ltd ナビゲーション装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044607A1 (fr) * 2006-10-04 2008-04-17 Nikon Corporation Caméra électronique
JP2011047662A (ja) * 2009-08-25 2011-03-10 Clarion Co Ltd ナビゲーション装置

Similar Documents

Publication Publication Date Title
EP1850251A3 (en) Image viewer
JP2023027216A5 (ja) 情報処理装置、表示方法、プログラム、システム
EP2549731A3 (en) Image processing apparatus, image processing method, and storage medium
US20200272308A1 (en) Shake Event Detection System
EP3712782B1 (en) Diagnosis processing apparatus, diagnosis system, and diagnosis processing method
JP2012004763A (ja) カメラ
JPWO2017051735A1 (ja) 撮像支援システム及び装置及び方法、並びに撮像端末
TW201919003A (zh) 電腦可讀取儲存媒體、信息處理裝置以及信息處理方法
JP2017067834A (ja) 無人航空機の撮像画像表示装置、撮像画像表示方法、および撮像画像表示プログラム
JPWO2018025825A1 (ja) 撮像システム
KR20220078715A (ko) 무주의 조건 동안 그래픽 사용자 인터페이스에 영향을 미치는 정보의 상태 변화 연기
JP2014153095A (ja) 情報表示装置
JP2009271326A (ja) 位置依存情報処理装置、位置依存情報処理方法、位置依存情報表示システム、位置依存情報表示プログラム
JP5830055B2 (ja) 画像処理装置および画像処理システム
WO2013186921A1 (ja) 表示装置、表示方法及び表示プログラム
WO2014174630A1 (ja) マルチモニタ、マルチモニタの表示方法
JP2014063448A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US10986394B2 (en) Camera system
JP2010074527A (ja) 監視制御装置及び監視システム
US10459315B2 (en) Electronic apparatus for displaying overlay images
US10235029B2 (en) Information processing apparatus, information processing method
JP2008283347A5 (ja)
KR20130076926A (ko) 사고지도를 생성하는 스마트 단말기 및 그 방법
JP2005037967A5 (ja)
JP2012226089A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12878896

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12878896

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP