WO2012165088A1 - 撮影装置及びプログラム - Google Patents

撮影装置及びプログラム Download PDF

Info

Publication number
WO2012165088A1
WO2012165088A1 PCT/JP2012/060998 JP2012060998W WO2012165088A1 WO 2012165088 A1 WO2012165088 A1 WO 2012165088A1 JP 2012060998 W JP2012060998 W JP 2012060998W WO 2012165088 A1 WO2012165088 A1 WO 2012165088A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
shooting
scene
shooting scene
acquired
Prior art date
Application number
PCT/JP2012/060998
Other languages
English (en)
French (fr)
Inventor
杉本 雅彦
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2013517931A priority Critical patent/JP5425341B2/ja
Priority to CN201280026660.6A priority patent/CN103563351B/zh
Publication of WO2012165088A1 publication Critical patent/WO2012165088A1/ja
Priority to US14/092,419 priority patent/US8913158B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2125Display of information relating to the still picture recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00323Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a measuring, monitoring or signaling apparatus, e.g. for transmitting measured information to a central location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Definitions

  • the present invention relates to a photographing apparatus and a program having a function of recognizing a photographing scene.
  • CMOS Complementary Metal Oxide Semiconductor
  • this type of photographing apparatus has a function of recognizing a photographing scene suitable for the current state of the photographing point and photographing using a photographing condition uniquely determined for the recognized photographing scene. In this case, accurately recognizing the shooting scene is an important factor in performing shooting suitable for the current situation.
  • techniques for recognizing a shooting scene techniques described in Japanese Patent Application Laid-Open Nos. 2007-228118 and 2007-306461 are known.
  • Japanese Patent Laid-Open No. 2007-306461 discloses a plurality of shooting location categories (for example, “mountain”, “flat land”, “seaside”, “urban area”) in which the current position acquired by GPS is determined in advance. There is disclosed a technique for determining which one belongs, and recognizing a shooting scene according to the current situation of the shooting point according to the determined category.
  • the technique described in Japanese Patent Laid-Open No. 2007-306461 is a technique for recognizing a shooting scene according to the category to which the current position acquired by GPS belongs. It is not clear whether they are selected. Even if a category can be selected from the current position acquired by the GPS by any method, the category is general-purpose and not specific to the shooting point. It must be said that the photographic scene recognized based on such a category is difficult to trust.
  • the present invention has been made to solve the above problems, and an object thereof is to provide a photographing apparatus and a program capable of recognizing a photographing scene according to the situation with high accuracy.
  • the photographing apparatus includes a photographing unit that obtains a subject image by photographing a subject, and a position of the photographing point using GPS when operated.
  • the shooting scene information associated with the position information, the subject image acquired by the shooting means, and the subject image are captured.
  • the operating unit When the operating unit is not operated based on at least one of the shooting support information that is acquired prior to shooting for shooting and the shooting support information that supports the shooting, and the operating unit is not operated, the operating unit If the GPS information is not acquired by the acquisition means even though the acquisition means is operated by the position information, and position information corresponding to the GPS information acquired by the acquisition means operated by the operation means is A scene recognizing unit for recognizing a shooting scene at a current shooting point based on at least one of a subject image acquired by the shooting unit and the shooting support information, in at least one case where the shooting unit is not stored in the storage unit; Constructed including.
  • the imaging device of the second aspect of the present invention is the imaging device of the first aspect of the present invention, in which the GPS information acquired by the acquisition means operated by the operating means is acquired by the scene recognition means.
  • the GPS information acquired by the acquisition means operated by the operating means is acquired by the scene recognition means.
  • at least one of the subject image and the shooting condition acquired by the shooting unit from a plurality of shooting scene candidate information indicating a plurality of predetermined shooting scene candidates.
  • Shooting scene candidate information that is similar with a predetermined degree of similarity or more is selected, and among the selected shooting scene candidate information, acquired by the acquisition unit of the shooting scene information stored in the storage unit.
  • the storage means stores a photographing scene information group having a plurality of the photographing scene information, and the scene recognizing means.
  • the plurality of shooting scene information groups includes the plurality of shooting scene candidate information.
  • at least one of the subject image acquired by the imaging unit and the imaging support information is similar to the predetermined similarity or higher than the plurality of imaging scene candidate information.
  • Shooting scene candidate information is selected, and the selected shooting scene candidate information includes the shooting scene information stored in the storage unit.
  • a shooting scene candidate indicated by shooting scene candidate information corresponding to shooting scene information associated with the position information corresponding to the GPS information acquired by the acquiring means is recognized as a shooting scene at the current shooting point, and the at least one The number of the shooting scene candidate information is less than the number of the plurality of shooting scene information included in the shooting scene information group, the shooting scene candidate information is information corresponding to the shooting scene information, and the shooting scene candidate Among the information, the shooting scene candidate indicated by the shooting scene candidate information in which at least one of the subject image acquired by the shooting unit and the shooting condition is similar to each other with the predetermined similarity or higher is determined at the current shooting point. Recognized as a shooting scene.
  • the storage means further uses the shooting scene information for the shooting scene information.
  • GPS information acquired by the acquisition means operated by the actuating means further comprising time acquisition means for associating and storing time information indicating the time of the photographing scene shown, and acquiring the current time.
  • time acquisition means for associating and storing time information indicating the time of the photographing scene shown, and acquiring the current time.
  • the shooting scene candidate indicated by the candidate information is recognized as a shooting scene at the current shooting point.
  • the storage means further includes a shooting scene indicated by the shooting scene information with respect to the shooting scene information.
  • the scene recognition unit corresponds to the position information stored in the storage unit when the GPS information acquired by the acquisition unit operated by the operation unit corresponds to the plurality of photographing From the scene candidate information
  • shooting scene candidate information is selected in which at least one of the subject image acquired by the shooting unit and the shooting support information is similar to the predetermined similarity or higher, and the selected shooting scene candidate information is selected.
  • the position corresponding to the GPS information acquired by the acquisition unit is selected from the shooting scene information stored in the storage unit.
  • the shooting scene candidate shown is recognized as a shooting scene at the current shooting point.
  • the storage means further uses the shooting scene information for the shooting scene information.
  • the scene recognition unit corresponds to the position information stored in the storage unit by the GPS information acquired by the acquisition unit operated by the operation unit Selecting, from the plurality of shooting scene candidate information, shooting scene candidate information in which at least one of the subject image acquired by the shooting means and the shooting support information is similar with a predetermined similarity or higher.
  • the GPS acquired by the acquiring means among the photographed scene information stored in the storage means The shooting scene candidate indicated by the shooting scene candidate information corresponding to the shooting scene information corresponding to the position information corresponding to the information and corresponding to the shooting scene information with the reliability higher than the predetermined reliability is shot at the current shooting point. Recognized as a scene.
  • the reliability is represented by a binary value in the photographing apparatus according to the fifth aspect or the sixth aspect of the present invention.
  • receiving means for receiving an instruction to change the storage contents of the storage means in the photographing apparatus according to any one of the first to seventh aspects of the present invention, receiving means for receiving an instruction to change the storage contents of the storage means; Changing means for changing the storage content of the storage means in accordance with the instruction received by the receiving means.
  • the photographing apparatus is the photographing apparatus according to any one of the first to eighth aspects of the present invention, wherein the acquisition means is set in advance after the acquisition means is operated by the operating means.
  • the GPS information can be acquired at a predetermined period, and further includes a period changing means for changing the period when a predetermined change condition is satisfied as a condition for changing the period.
  • a photographing scene detecting means for detecting a change in a photographing scene at a photographing point based on the image information acquired by the photographing means.
  • the change condition is a condition that a change of a predetermined amount or more of the shooting scene is detected by the shooting scene detecting means.
  • the photographing apparatus is the photographing apparatus according to the tenth aspect of the present invention, further comprising power detection means for detecting a remaining amount of power of the driving power source of the photographing apparatus, wherein the change The condition is that the remaining amount equal to or greater than a reference value is detected by the power detection unit, and a change of a predetermined amount or more of the shooting scene is detected by the shooting scene detection unit.
  • the photographic device is the ninth photographing device of the present invention, further comprising power detection means for detecting a remaining amount of power of a driving power source for the photographing device, wherein the change condition is The power detection means detects the remaining amount equal to or higher than a reference value.
  • the storage means further includes the photographing associated with the position information.
  • a degree of similarity between a shooting scene indicated by the scene information and a shooting scene included in a predetermined area including the position indicated by the position information is stored in association with each position information, and the acquisition unit includes The position information can be acquired at a predetermined cycle after the acquisition unit is operated by the operation unit, and the similarity associated with the position information corresponding to the GPS information acquired by the acquisition unit is large.
  • the apparatus further includes period changing means for increasing the period.
  • the power for detecting the remaining power of the driving power source of the photographing apparatus includes detection means, and when the acquisition means is activated, the GPS information is acquired when the remaining amount equal to or greater than a reference value is detected by the power detection means.
  • the accuracy of the position information is determined when the address on the map is recognized. The accuracy was lower than required.
  • an acquisition means for acquiring GPS information for specifying the position of the shooting point using GPS is predetermined.
  • Positioning information indicating the geographical position that can be specified by the GPS information, and the position information indicating that the GPS information acquired by the acquisition means operated by the operating means is activated when the condition is satisfied.
  • the shooting scene information associated with the position information and the subject are shot.
  • the subject image obtained by the photographing means for obtaining the subject image and the image obtained before the photographing for obtaining the subject image are obtained.
  • the shooting scene at the current shooting point is recognized, and when the operation unit is not operated, the acquisition unit is operated by the operation unit.
  • the computer is caused to function as a scene recognition unit for recognizing a shooting scene at the current shooting point based on at least one of the subject image acquired by the shooting unit and the shooting support information.
  • the digital camera 10 includes an optical unit 22 configured to include a lens for forming a subject image, and a charge disposed behind the optical axis of the lens.
  • a coupling element (hereinafter referred to as “CCD”) 24 and an analog signal processing unit 26 that performs various analog signal processing on the input analog signal are configured.
  • the digital camera 10 also performs an analog / digital converter (hereinafter referred to as “ADC”) 28 that converts an input analog signal into digital data, and performs various digital signal processing on the input digital data. And a digital signal processing unit 30.
  • ADC analog / digital converter
  • the digital signal processing unit 30 includes a line buffer having a predetermined capacity, and also performs control for directly storing the input digital data in a predetermined area of the memory 48 described later.
  • the output terminal of the CCD 24 is connected to the input terminal of the analog signal processing unit 26, the output terminal of the analog signal processing unit 26 is connected to the input terminal of the ADC 28, and the output terminal of the ADC 28 is connected to the input terminal of the digital signal processing unit 30.
  • the analog signal indicating the subject image output from the CCD 24 is subjected to predetermined analog signal processing by the analog signal processing unit 26, converted into digital image data by the ADC 28, and then input to the digital signal processing unit 30.
  • the digital camera 10 displays a liquid crystal display (hereinafter referred to as “LCD”) 38 that displays an image obtained by taking a picture, a menu screen, and the like, and a signal for causing the LCD 38 to display the image, the menu screen, and the like.
  • LCD liquid crystal display
  • An LCD interface 36 that is generated and supplied to the LCD 38, a CPU (central processing unit) 40 that controls the operation of the entire digital camera 10, a primary storage unit that temporarily stores digital image data and the like obtained by photographing, and a power source
  • the memory 48 includes a secondary storage unit that stores information that should be retained even after being turned off, and a memory interface 46 that controls access to the memory 48.
  • the digital camera 10 includes an external memory interface 50 for enabling the portable memory card 52 to be accessed by the digital camera 10, and a compression / decompression processing circuit 54 that performs compression processing and decompression processing on digital image data. It is configured to include.
  • a flash memory is used as the memory 48 and an xD picture card (registered trademark) is used as the memory card 52.
  • the form is not limited to this.
  • the digital camera 10 is connected to an external device (not shown) such as a personal computer or other digital camera via a network (for example, the Internet, a local area network, etc.), and exchanges various information with the external device.
  • a network for example, the Internet, a local area network, etc.
  • a communication interface 57 is provided.
  • the digital camera 10 receives radio waves transmitted from GPS satellites, and determines GPS information (in this embodiment, longitude, latitude, and altitude as an example) and current time, which specify a geographical current position.
  • GPS information in this embodiment, longitude, latitude, and altitude as an example
  • current time which specify a geographical current position.
  • a GPS receiving unit 58 for receiving the time information shown is provided.
  • the digital signal processing unit 30, the LCD interface 36, the CPU 40, the memory interface 46, the external memory interface 50, the compression / decompression processing circuit 54, the communication interface 57, and the GPS receiving unit 58 are connected to each other via a system bus BUS. Therefore, the CPU 40 controls the operation of the digital signal processing unit 30, the compression / decompression processing circuit 54 and the GPS receiving unit 58, acquires the GPS information and time information received by the GPS receiving unit 58, and the LCD interface 36 for the LCD 38. Display of various information via the memory, access to the memory 48 via the memory interface 46, access to the memory card 52 via the external memory interface 50, and access to the external device via the communication interface 57, respectively. It can be carried out.
  • the digital camera 10 includes a timing generator 32 that mainly generates a timing signal (pulse signal) for driving the CCD 24 and supplies the timing signal to the CCD 24.
  • the CPU 40 drives the CCD 24 via the timing generator 32. Be controlled.
  • the digital camera 10 is provided with a motor drive unit 34, and driving of a focus adjustment motor, a zoom motor, and an aperture drive motor (not shown) provided in the optical unit 22 is also controlled by the CPU 40 via the motor drive unit 34.
  • the motor drive unit 34 driving of a focus adjustment motor, a zoom motor, and an aperture drive motor (not shown) provided in the optical unit 22 is also controlled by the CPU 40 via the motor drive unit 34.
  • the lens according to the present embodiment has a plurality of lenses, is configured as a zoom lens system capable of changing the focal length (magnification), and includes a lens driving mechanism (not shown).
  • the lens drive mechanism includes the focus adjustment motor, the zoom motor, and the aperture drive motor, and these motors are each driven by a drive signal supplied from the motor drive unit 34 under the control of the CPU 40.
  • the digital camera 10 includes a release switch (so-called shutter) that is pressed when performing shooting and a power switch that is operated when switching on / off the power of the digital camera 10.
  • a portion 56 is provided.
  • the operation unit 56 includes a transmissive touch panel overlaid on the LCD 38. Various types of information are displayed on the display surface of the LCD 38, and information and instructions are received when the user touches the touch panel. .
  • a shooting mode designation button that is pressed when setting a shooting mode that enables shooting, and shooting is performed under shooting conditions suitable for each of a plurality of shooting scenes.
  • a scene-specific shooting mode designation button that is pressed when setting a scene-specific shooting mode
  • a shooting scene designation button that is pressed when specifying a shooting scene in the scene-specific shooting mode
  • shooting A playback mode designation button that is pressed when setting the playback mode, which is a mode for playing back the image obtained on the LCD 38
  • a menu display button that is pressed when displaying various menu screens on the LCD 38, and so on.
  • Confirm button that is pressed when confirming the operation content of the button, and is pressed when canceling the previous operation content Extinguishing button, and the screen returns various buttons such as button is pressed to when to return to the previous screen is displayed on the display surface of the LCD38.
  • buttons displayed on the display surface of the LCD 38 are pressed by being touched by the user via the touch panel.
  • some of the instructions given to the digital camera 10 by the user are realized by a touch panel display.
  • the present invention is not limited to this, and the digital camera can be operated with a numeric keypad or operation buttons without using the touch panel display. 10 may be instructed.
  • the operation unit 56 configured as described above is connected to the CPU 40. Therefore, the CPU 40 can always grasp the operation state with respect to the operation unit 56.
  • the release switch of the digital camera 10 is in a state where it is pressed down to an intermediate position (hereinafter referred to as “half-pressed state”) and a state where it is pressed down to a final pressed position beyond the intermediate position. (Hereinafter, referred to as a “fully pressed state”) is configured to be capable of detecting a two-stage pressing operation.
  • the AF function is activated after the AE (Automatic Exposure) function is set by setting the release switch halfway and the exposure state (shutter speed, aperture state) is set. Focusing control is performed, and then exposure (photographing) is performed when the button is fully pressed.
  • AE Automatic Exposure
  • the digital camera 10 has a strobe 44 that emits light to irradiate the subject as necessary at the time of shooting, and is interposed between the strobe 44 and the CPU 40, and power for causing the strobe 44 to emit light under the control of the CPU 40. And a charging unit 42 for charging the battery.
  • the strobe 44 is also connected to the CPU 40, and the light emission of the strobe 44 is controlled by the CPU 40.
  • the user when the scene-specific shooting mode is set, the user can assist the user in specifying a shooting scene suitable for the current shooting point.
  • a shooting scene recommendation function for recognizing a shooting scene at the current shooting point and recommending the recognized shooting scene to the user.
  • FIG. 2 is a schematic diagram showing an example of the structure of the databases A and B.
  • the databases A and B shown in FIG. 2 are based on the objects (for example, blue sky, evening sky, green leaves, snow, water, etc.) included in the subject image obtained by shooting and the colors included in the subject image. This is used to derive shooting scene information for recognizing (specifying) a shooting scene at a shooting point.
  • Both the databases A and B have first shooting scene candidate information as shooting scene information for recognizing a plurality of shooting scenes (first shooting scene candidates).
  • object information for recognizing the object is associated with the first shooting scene candidate information.
  • the first shooting scene candidate information is associated with color information for recognizing a color included in the image when the first shooting scene candidate is displayed as an image on the display surface of the LCD 38.
  • the color information is associated with an occupation ratio indicating the ratio of the area occupied by the color recognized by the color information to the entire image when the first shooting scene candidate is displayed on the display surface of the LCD 38.
  • Database B is different from Database A in that the number of first shooting scene candidates is smaller.
  • the first shooting scene candidate that recognizes the beach (the beach) and the first shooting scene candidate that recognizes the snow (snow scene) are included in the database A, but are not included in the database B. .
  • FIG. 3 is a schematic diagram showing an example of the structure of the database C.
  • the database C shown in FIG. 3 is used for deriving shooting scene information for recognizing a shooting scene at the current shooting point based on GPS information and time information received by the GPS receiver 58.
  • the database C has second shooting scene candidate information as shooting scene information for recognizing a plurality of shooting scenes (second shooting scene candidates), and the second shooting scene candidate information is included in the database A. This corresponds to shooting scene candidate information.
  • the second shooting scene candidate information is information indicating the latitude, longitude, and altitude of the shooting scene corresponding to the second shooting scene candidate recognized by the second shooting scene candidate information, and is specified by the GPS information. Location information indicating a possible geographical location and a time zone are associated. Further, the reliability when the second shooting scene candidate uniquely derived by the position information and the time zone is adopted as the final shooting scene is associated with one set of the position information and the time zone.
  • the digital camera 10 displays a map on the LCD 38 using map software, and a place name (current position) (based on GPS information (latitude, longitude) received by the GPS receiver 58).
  • a place name (current position) (based on GPS information (latitude, longitude) received by the GPS receiver 58).
  • Country name, prefecture name, city name, street address, etc.) are specified, and a current location display mode for displaying the specified position on the map together with the location name is provided.
  • This current location display mode is activated when an instruction is given from the user via the operation unit 56, and the LCD 38 can specify the address as shown in FIG. 4 as an example based on the GPS information received by the GPS receiving unit 58.
  • the screen area is divided by a virtual mesh (a rectangular mesh having a uniform size that is not actually displayed on the screen).
  • FIG. 4 is a map position specifying map with a fine position accuracy.
  • the screen area is not required to be subdivided (accurate) as in the current position display mode. Therefore, in the scene-by-scene shooting mode, as shown in FIG. 5 as an example, the screen area is divided by a mesh that can identify a shooting scene and has a coarser mesh than the mesh used in the current location display mode. .
  • FIG. 5 is a scene recognition map with a low positional accuracy, and the scene recognition map can be used to output the probability of each scene based on GPS information (latitude, longitude).
  • each position information included in the database C defines the position and size of the mesh. That is, each piece of position information included in the database C according to the present embodiment is defined by latitude / longitude information indicating latitude and longitude for each of the upper left point and lower right point (diagonal point) of the mesh, and the mesh. It includes the altitude information indicating the lowest altitude and the highest altitude in the area.
  • the second shooting scene candidate and the reliability of the second shooting scene candidate are uniquely identified from the GPS information received by the GPS receiver 58 as shown in FIG. It is determined.
  • the reliability is expressed as a percentage, but the present invention is not limited to this, and as an example, the reliability may be defined by two values of ON and OFF as shown in FIG. In this case, a reduction in the storage capacity of the memory 48 required for storing the reliability can be expected.
  • the CCD 24 performs imaging through the optical unit 22 and sequentially outputs analog signals for R (red), G (green), and B (blue) indicating the subject image to the analog signal processing unit 26.
  • the analog signal processing unit 26 subjects the analog signal input from the CCD 24 to analog signal processing such as correlated double sampling processing, and then sequentially outputs the analog signal to the ADC 28.
  • the ADC 28 converts the R, G, and B analog signals input from the analog signal processing unit 26 into R, G, and B signals (digital image data) each having a predetermined number of bits, and sequentially converts them to the digital signal processing unit 30. Output.
  • the digital signal processing unit 30 accumulates digital image data sequentially input from the ADC 28 in a built-in line buffer and temporarily stores the digital image data directly in a predetermined area of the memory 48.
  • the digital image data stored in a predetermined area of the memory 48 is read out by the digital signal processing unit 30 according to the control by the CPU 40, and is subjected to white gain by applying a digital gain for each of R, G, and B according to a predetermined physical quantity.
  • digital image data having a predetermined number of bits is generated by performing gamma processing and sharpness processing.
  • the digital signal processing unit 30 performs YC signal processing on the generated digital image data to generate a luminance signal Y and chroma signals Cr and Cb (hereinafter referred to as “YC signal”), and the YC signal is stored in the memory 48. Is stored in an area different from the predetermined area.
  • the LCD 38 is configured to display a moving image (through image) obtained by continuous imaging by the CCD 24 and can be used as a finder.
  • the LCD 38 is generated.
  • the YC signals thus output are sequentially output to the LCD 38 via the LCD interface 36. As a result, a through image is displayed on the LCD 38.
  • the compression / decompression processing circuit 54 compresses the YC signal in a predetermined compression format (JPEG format in the present embodiment), and then the external memory. Shooting is performed by recording an electronic file (image file) in the memory card 52 via the interface 50.
  • FIG. 7 is a flowchart showing an example of the processing flow of the database update processing program executed by the CPU 40 when the power of the digital camera 10 is turned on.
  • the program is stored in a predetermined program storage area of the memory 48. Stored in advance.
  • a case will be described in which the contents of the database C are configured with default information (information at the time of initial setting) as a premise.
  • a case where the digital camera 10 is connected to a server device (not shown) on the manufacturer side of the digital camera 10 via the communication interface 57 will be described as a premise.
  • a description will be given of a case where the second shooting scene candidate to which the position information and time zone corresponding to the GPS information and time information received by the GPS receiving unit 58 belongs is specified. To do.
  • step 100 the process waits until update instruction information for instructing the update method of the database C is received via the operation unit 56.
  • the update instruction information is received in step 100, an affirmative determination is made and the process proceeds to step 102.
  • step 102 a menu screen 60 (see FIG. 8) for allowing the user to specify the database update method is displayed on the LCD 38, and then the process proceeds to step 104 to determine whether or not the database C update method is specified. .
  • FIG. 8 shows an example of the menu screen 60 displayed on the LCD 38.
  • the current contents of the database C are stored in a storage area that is predetermined by the manufacturer when the digital camera 10 is manufactured.
  • a “maker initial value” indicating that updating to the default information stored in advance in “1” can be specified, and the current contents of the database C are “download” for updating the information distributed from the manufacturer via the network.
  • the specifiable item and the specifiable item “self-setting” for changing the current contents of the database C according to an instruction given from the user via the operation unit 56 are displayed.
  • Step 104 is affirmed when any of the items that can be designated such as “manufacturer initial value”, “download”, and “self setting” is designated by the user via the operation unit 56 while the menu screen 60 is displayed. On the other hand, the process proceeds to step 106 as a result of the determination. On the other hand, if none of the specifiable items on the menu screen 60 is designated, the process proceeds to step 116.
  • step 106 it is determined whether or not an item that can be designated as “manufacturer initial value” on the menu screen 60 (update to default information) is specified. If the determination is affirmative, the process proceeds to step 108.
  • the default information stored in a predetermined storage area of the memory 48 is acquired, and in the next step 110, the specific contents of the current database C are changed to the default information acquired by the processing in the above step 108. Then, the process proceeds to step 112.
  • step 112 the process waits until the change to the default information of the specific contents of the database C is completed. When the change of the specific contents of the database C to the default information is completed in step 112, the determination is affirmative and the process proceeds to step 114. Then, after the information indicating that the change of the specific contents of the database C has been completed (for example, a message “Database has been correctly updated”) is displayed on the LCD 38, the process proceeds to step 116.
  • step 106 determines whether or not an item that can be designated as “download” (indicated as “DL” in the example shown in FIG. 7) on the menu screen 60 has been designated. If the determination is affirmative, the process proceeds to step 120. After the download of the contents of the database C from the manufacturer's server device is started, the process proceeds to step 122 and the specific contents of the database C are downloaded. Until the download is completed in step 122, the process proceeds to step 124.
  • step 124 the change to the information downloaded by the processing of steps 120 and 122 is started for the specific contents of the database C, and the change of the specific contents of the database C is completed in the next step 126.
  • the process waits, and when the change of the specific contents of the database C is completed in step 126, the determination is affirmative and the process proceeds to step 114.
  • step 118 determines whether or not an item that can be designated as “self setting” is designated. If a negative determination is made at step 118 (when an item that can be designated as “self setting” is designated), the routine proceeds to step 128.
  • FIG. 9 shows an example of the self-setting screen 62 displayed on the LCD 38.
  • “confidence at the current position” (corresponding to “reliability” included in the database C shown in FIG. 3) is displayed under the item “self-setting”. Is displayed, and under the item, the second shooting scene candidate currently specified and the “confidence level at the current position” corresponding to the reliability associated with the second shooting scene candidate. Is shown graphically.
  • the “confidence level at the current position” for the second shooting scene candidate for “Beach” is 5%
  • “Confidence level at the current position” is 0%
  • “Confidence level at the current position” for the second shooting scene candidate “green” is 3%.
  • step 132 the process of step 130 is performed.
  • the corresponding reliability of the database C is changed in accordance with the change instruction received by. For example, in the self-setting screen 62 shown in FIG. 9, with respect to a figure (horizontal rectangle in the example shown in FIG.
  • the reliability of the database C corresponding to “degree” is also increased by “1”, and the graphic indicating “confidence at the current position” for the second photographed scene candidate “beach” on the display surface of the LCD 38 is “ When 1 is shrunk, the reliability of the database C corresponding to the “confidence level at the current position” corresponding thereto is also decreased by “1”.
  • step 134 it is determined whether or not an instruction to end the change of the predetermined contents of the database C has been accepted through the operation unit 56. If the determination is negative, the process returns to step 130. If the determination is affirmative, the routine proceeds to step 114.
  • step 116 it is determined whether or not a predetermined condition (for example, a condition that a predetermined operation has been performed on the operation unit 56) is satisfied as a condition for ending the update of the database C. If a negative determination is made, the process proceeds to step 104. If an affirmative determination is made, the database update processing program is terminated.
  • a predetermined condition for example, a condition that a predetermined operation has been performed on the operation unit 56
  • FIG. 10 shows the GPS update executed by the CPU 40 in a predetermined cycle when a condition for operating the GPS receiver 58 (for example, a condition that the scene-specific shooting mode is set) is satisfied.
  • 4 is a flowchart illustrating an example of a processing flow of a processing program, and the program is stored in advance in a predetermined program storage area of the memory.
  • image information for example, YC signal
  • image information for one frame obtained by shooting as a premise is an evaluation target used in GPS update processing (image information for obtaining a difference described later).
  • image information for example, YC signal
  • step 300 of FIG. 10 GPS information and time information have been received by the GPS receiver 58 from the time when the power of the digital camera 10 is turned on to the present time (updated from the time when the digital camera 10 is turned on until the present time. If the determination is affirmative, the process proceeds to step 302. If the determination is negative, the process proceeds to step 316.
  • step 302 it is determined whether or not a predetermined time (for example, 60 seconds) has elapsed since the GPS information and time information were previously received by the GPS receiver 58. If the determination is negative, the GPS update processing program On the other hand, if the determination is affirmative, the process proceeds to step 304 to acquire image information (for example, YC signal) from the predetermined storage area ⁇ of the memory 48 and erase the stored contents of the storage area ⁇ . Thereafter, the process proceeds to step 306, and after acquiring the latest image information (for example, YC signal) for one frame obtained by photographing, the process proceeds to step 310.
  • a predetermined time for example, 60 seconds
  • step 310 the image information acquired by the process of step 306 is stored in the storage area ⁇ of the memory 48, and then the process proceeds to step 312 and the image information acquired by the process of step 304 and the process of step 306 are performed.
  • the difference (in this embodiment, “absolute value of the difference”) with the image information acquired by the above is calculated.
  • an example of calculating a difference between image information as a variation amount of a shooting scene is given.
  • the present invention is not limited to this, and a photometric value, a divided photometric value, a focus position, and a focus evaluation value , And the variation amount of the face detection result may be calculated.
  • step 314 it is determined whether or not the difference calculated by the process in step 312 exceeds a predetermined threshold value. If the determination is negative, the GPS update processing program is terminated, If it is determined, the process proceeds to step 316.
  • step 316 acquisition of GPS information and time information is started by receiving radio waves transmitted from GPS satellites via the GPS receiver 58. If the determination in step 318 is affirmative, step 316 is performed.
  • the process proceeds to 320, and the GPS information and time information acquired by the processing of steps 316 and 318 are stored in the storage area ⁇ of the memory 48, and then the GPS update processing program is terminated. It should be noted that the content stored in the storage area ⁇ is affirmative when the scene-specific shooting mode setting is canceled, when the power switch of the digital camera 10 is turned off, and at step 204 of the scene recognition processing program described later. If erased.
  • step 318 the process proceeds to step 322, where it is determined whether or not a predetermined time (for example, 10 seconds) has elapsed since the processing of step 316 was executed. If the determination is affirmative, the process returns to step 318. If the determination is affirmative, the GPS update processing program is terminated.
  • a predetermined time for example, 10 seconds
  • FIG. 11 is a flowchart showing an example of a process flow of a scene recognition processing program executed by the CPU 40 every predetermined time (for example, every 15 seconds) when the power of the digital camera 10 is turned on. Are stored in advance in a predetermined program storage area of the memory 48.
  • step 200 it is determined whether or not a condition for operating the GPS receiver 58 (for example, a condition that the scene-specific shooting mode is set) is satisfied. If the determination is affirmative, step 202 is performed. On the other hand, if a negative determination is made, the process proceeds to step 204, and whether or not the operation information is received by the operation unit 56, indicating that the GPS reception unit 58 does not receive information (does not use GPS). If the determination is affirmative, the process proceeds to step 208. If the determination is negative, the scene recognition processing program is terminated.
  • a condition for operating the GPS receiver 58 for example, a condition that the scene-specific shooting mode is set
  • step 202 the storage area ⁇ of the memory 48 is accessed and the acquisition of GPS information and time information is started. Then, the process proceeds to step 206, where it is determined whether or not the acquisition of GPS information and time information is completed. If the determination is affirmative, the process proceeds to step 208. If the determination is negative, the process proceeds to step 209. In step 209, it is determined whether or not the variable x is less than the threshold value N. If a negative determination is made, the process proceeds to step 208. If an affirmative determination is made, the process proceeds to step 212. After 1 is incremented, the process returns to step 206.
  • step 208 after acquiring the latest one frame of image information (for example, YC signal) obtained by photographing and photographing support information for supporting the photographing, the process proceeds to step 210.
  • the above-described photographing support information for example, brightness (divided photometric value; photometric value of each divided area obtained by dividing the screen into a plurality of areas (for example, 16 ⁇ 16 divided))
  • Shooting support information that is acquired prior to shooting such as distance information, focus position, focus evaluation value, and face detection result and supports the shooting is applied.
  • FIG. 12 is a flowchart showing an example of the processing flow of the first shooting scene candidate selection processing program, and the program is stored in advance in a predetermined program storage area of the memory 48.
  • step 350 of FIG. 12 after recognizing a specific object included in the subject image indicated by the image information based on the image information and shooting support information acquired by the processing of step 208, the process proceeds to step 352.
  • the object included in the subject image can be recognized by, for example, dividing the subject image into a plurality of regions and performing pattern matching using a predetermined template for each region obtained by the division. It is.
  • “outside light”, “sun”, “beach”, “sand”, “green”, “snow”, “person's face”, and the like are applied as specific objects. Needless to say, other objects may be used.
  • step 352 it is determined whether or not a specific object has been recognized by the processing in step 350. If the determination is affirmative, the process proceeds to step 354. If the determination is negative, the process proceeds to step 356. To do.
  • step 354 the object information for recognizing the specific object recognized by the processing in step 350 is stored in the storage area ⁇ of the memory 48, and the process proceeds to step 356.
  • step 356 the occupation ratio (for example, “number of pixels of a specific color / number of pixels of the entire image”) is calculated for the plurality of specific colors for the subject image subjected to the processing in step 350 above. After the calculated occupation ratio is stored in the storage area ⁇ of the memory 48, the process proceeds to step 358.
  • step 358 it is determined whether or not the GPS receiving unit 58 is operating (in this case, GPS information and time information are stored in the storage area ⁇ of the memory 48 as an example). If the determination is negative, the process proceeds to step 362. In step 360, a flag is set for database A, and then the process proceeds to step 364. In step 362, a flag is set for the database B, and then the process proceeds to step 364.
  • step 364 it is determined whether or not object information is stored in the storage area ⁇ of the memory 48. If the determination is affirmative, the process proceeds to step 366. If the determination is negative, the process proceeds to step 368. Transition. In step 366, the object information is acquired from the storage area ⁇ of the memory 48 and the storage content of the storage area ⁇ is erased, and acquired from the storage area ⁇ from the database (database A or database B) for which the flag is currently set. After acquiring all the first shooting scene candidate information associated with the object information corresponding to the object information, the process proceeds to step 369.
  • step 368 from the database (database A or database B) for which the flag is currently set, first shooting scene candidate information (“-” shown in FIG. 2 corresponding to “-” shown in FIG. 2) that is not associated with object information. After all candidate information is acquired, the process proceeds to step 369. If object information is associated with all first shooting scene candidates in the databases A and B, the processing in steps 364 and 368 is not necessary.
  • step 369 attention should be paid to one first shooting scene candidate information that has not yet been processed in steps 370 to 376 in the first shooting scene candidate information obtained by the processing in step 366 or step 368. After designating as first shooting scene candidate information, the process proceeds to step 370.
  • step 370 the specific color occupancy is acquired from the storage area ⁇ of the memory 48, and then the process proceeds to step 372, where the specific color occupancy acquired by the processing in step 370 is the processing in step 369. Whether or not the degree of similarity is equal to or higher than a predetermined similarity by determining whether or not the occupancy ratio of the same color associated with the first shooting scene candidate information specified by is matched within a predetermined error If the determination is affirmative, the process proceeds to step 374, increments the variable i by 1, and then proceeds to step 376.
  • step 376 it is determined whether or not the processing in steps 370 to 374 has been executed for the occupancy ratios of all colors stored in the storage area ⁇ of the memory 48. On the other hand, if the determination is affirmative, the process proceeds to step 378.
  • the variable i is the image information and shooting support information (for example, image information) included in the first shooting scene candidate information in which the image information and shooting support information acquired by the processing in step 208 indicate the first shooting scene candidate.
  • a threshold value for example, a value that serves as an index indicating the degree of similarity
  • the process proceeds to step 380, where the first photographic scene candidate information acquired at the present time (the first 366 acquired by the process of step 366 or step 368) is acquired. 1 shooting scene candidate information) and the variable i are associated with each other and stored in the storage area ⁇ of the memory 48, and then the process proceeds to step 382.
  • step 382 the first shooting scene candidate information (first shooting scene candidate information acquired by the processing of step 366 or step 368) acquired at the present time is still the processing target of steps 370 to 376. If there is a negative determination, the process returns to step 369. If the determination is affirmative, the process proceeds to step 384 to store the storage area ⁇ . After erasing the stored contents and canceling the flag setting for the database (database A or database B), the first shooting scene candidate selection processing program is terminated, and the process proceeds to step 214 in the flowchart shown in FIG.
  • step 214 of FIG. 11 GPS information and time information are stored in the storage area ⁇ of the memory 48, and position information corresponding to the GPS information stored in the storage area ⁇ of the memory 48 and the storage area of the memory 48 are stored. It is determined whether or not the time zone corresponding to the time information stored in ⁇ is included in the database C. If the determination is affirmative, the process proceeds to step 216.
  • step 216 as an example, the position information corresponding to the GPS information (latitude, longitude, and altitude) stored in the storage area ⁇ of the memory 48 is associated from the database C shown in FIG. After all the second shooting scene candidate information associated with the time zone to which the time information stored in the region ⁇ belongs is acquired, the process proceeds to step 218.
  • step 218 it is determined whether or not there are a plurality of pieces of second shooting scene candidate information acquired by the processing in step 216. If the determination is affirmative, the process proceeds to step 220, while the determination is negative. If so, the process proceeds to step 222.
  • each of the plurality of second shooting scene candidate information acquired by the processing in step 216 is uniquely identified from the database C by the GPS information and time information stored in the storage area ⁇ of the memory 48.
  • the process proceeds to step 224.
  • the second photographic scene candidate information acquired by the processing in step 216 is stored in the storage area ⁇ of the memory 48, and the process proceeds to step 224.
  • step 224 whether or not first shooting scene candidate information corresponding to the second shooting scene candidate information stored in the storage area ⁇ by the processing in step 220 or step 222 is stored in the storage area ⁇ of the memory 48. If the determination is affirmative, the process proceeds to step 226.
  • step 226 the second shooting scene candidate information stored in the storage area ⁇ by the processing in step 220 or step 222 is stored in the memory 48 as shooting scene information for specifying a shooting scene recommended by the shooting scene recommendation function. After storing in the area ⁇ , the scene recognition processing program is terminated.
  • step 214 the process proceeds to step 228, and after acquiring the first shooting scene candidate information from the storage area ⁇ of the memory 48, the process proceeds to step 230 and the storage area ⁇ of the memory 48 Of the acquired first shooting scene candidate information, the most reliable information is stored in the storage area ⁇ of the memory 48 as shooting scene information for specifying a shooting scene recommended by the shooting scene recommendation function, and then the scene recognition is performed. Terminate the processing program.
  • “the most reliable” in step 230 means, for example, the one having the largest variable i associated with the first shooting scene candidate information.
  • step 232 the most reliable one of the first shooting scene candidate information stored in the storage area ⁇ of the memory 48 and the second shooting scene candidate information stored in the storage area ⁇ of the memory 48, After storing in the storage area ⁇ of the memory 48 as shooting scene information for specifying a shooting scene recommended by the shooting scene recommendation function, the present scene recognition processing program is terminated.
  • “the most reliable” means, for example, the variable i associated with the first shooting scene candidate information stored in the storage area ⁇ of the memory 48 and the storage area of the memory 48.
  • FIG. 13 shows an example in which a shooting scene recommended by the shooting scene recommendation function is presented to the user.
  • a shooting scene candidate screen showing a shooting scene candidate is displayed, and a confirmation button, a cancel button, and a screen return button are displayed.
  • the shooting scene candidate screen 38a displays shooting scene information for specifying a plurality of shooting scenes in a button format that can be designated.
  • shooting scene information for specifying a shooting scene of “night view”, shooting scene information for specifying a shooting scene of “beach”, and shooting scene information for specifying a shooting scene of “snow” are in button format.
  • a button indicating shooting scene information for specifying a shooting scene recommended by the shooting scene recommendation function is displayed blinking.
  • FIG. 13 shows an example in which a shooting scene recommended by the shooting scene recommendation function is presented to the user.
  • a button related to shooting scene information for specifying a shooting scene of “night view” is displayed blinking.
  • the designated button is highlighted, and when the confirmation button is subsequently designated, the button is highlighted.
  • Shooting can be executed under shooting conditions that are predetermined as shooting conditions suitable for the shooting scene specified by the shooting scene information.
  • the imaging system 12 as a photographing unit that obtains a subject image by photographing the subject, and the GPS using the GPS when operated is used.
  • GPS receiving unit 58 as an acquisition unit for acquiring information
  • CPU 40 as an operating unit for operating GPS receiving unit 58 when a predetermined condition for operating GPS receiving unit 58 is satisfied
  • GPS information A database C that stores location information indicating an identifiable geographical position and second shooting scene candidate information as shooting scene information indicating a shooting scene at a position specified by the position information, and activated GPS reception.
  • the GPS receiving unit 58 is activated, but the GPS information is not received by the GPS receiving unit 58, and the activated GPS receiving unit 58 is operated.
  • At least the subject image obtained by photographing and the photographing condition used for photographing to obtain the subject image CPU 40 as a scene recognizing means for specifying a shooting scene at the current shooting point based on one side; Since with it can recognize shooting scene according to the situation with high precision.
  • the CPU 40 corresponds to the position information stored in the database C when the GPS information acquired by the operated GPS receiving unit 58 corresponds to a plurality of predetermined multiple information. From among a plurality of first shooting scene candidates as shooting scene candidates, select a first shooting scene candidate in which at least one of a subject image acquired by shooting and a shooting condition are similar to each other with a predetermined similarity or higher. Among the first photographed scene candidates, the second photographed scene candidates associated with the position information corresponding to the GPS information received by the GPS receiver 58 among the second photographed scene candidates stored in the database C are selected. Since the corresponding second shooting scene candidate is specified as the shooting scene at the current shooting point, shooting according to the situation Can recognize over on to more accurately.
  • the CPU 40 when the GPS information acquired by the activated GPS receiver 58 corresponds to the position information stored in the database C, the CPU 40 performs shooting from the database A.
  • the first shooting scene candidate corresponding to the second shooting scene candidate associated with the position information corresponding to the GPS information received by the GPS receiver 58 is recognized as a shooting scene at the current shooting point. If the GPS receiver 58 is not activated, the GP is activated even though the GPS receiver 58 is activated.
  • the database C further stores time information (time zone) indicating the time of the second shooting scene candidate in association with the second shooting scene candidate, and stores the current time information.
  • time information time zone
  • the CPU 40 corresponds to the position information stored in the database C when the GPS information acquired by the activated GPS receiver 58 is stored in the database From A (or database B), a first shooting scene candidate in which at least one of a subject image acquired by shooting and a shooting condition are similar to each other with a predetermined similarity or higher is selected, and the selected first shooting scene candidate is selected.
  • the database C further stores the second shooting scene candidate in association with the reliability of the second shooting scene candidate, and the CPU 40 operates the GPS reception.
  • the GPS information acquired by the unit 58 corresponds to the position information stored in the database C
  • at least one of the subject image acquired by shooting and the shooting conditions is determined in advance from the database A (or database B).
  • the first shooting scene candidates that are similar in degree of similarity or higher are selected, and the GPS receiving unit 58 among the second shooting scene candidates stored in the database C among the selected first shooting scene candidates is received.
  • the second shooting scene candidate associated with the position information and time zone corresponding to the GPS information and time information Since the first photographic scene candidate corresponding to the second photographic scene candidate with the reliability of the predetermined reliability or higher is recognized as the photographic scene at the current photographic point, the photographic scene corresponding to the situation is recognized with higher accuracy. be able to.
  • the operation unit 56 that receives an instruction to change the storage content of the database C and the CPU 40 that changes the storage content of the database C according to the instruction received by the operation unit 56 are provided. Convenience for the user can be improved.
  • the GPS receiving unit 58 acquires GPS information at a predetermined cycle, and when a predetermined change condition is satisfied as a condition for changing the predetermined cycle, the cycle is set. Since the CPU 40 is further provided, the power consumption required for updating the GPS information can be suppressed while suppressing a decrease in the accuracy of specifying the shooting scene.
  • the CPU 40 is further provided as a photographing scene detection means for detecting a change in the photographing scene at the photographing point based on the image information acquired by photographing.
  • the condition for changing the predetermined cycle the condition that the CPU 40 has detected a change of a predetermined amount or more of the shooting scene is applied.
  • the power consumption required for updating the GPS information can be suppressed while suppressing the decrease.
  • the GPS update process is executed with a fixed cycle.
  • the GPS update process may be changed.
  • the remaining battery level of the digital camera 10 is greater than or equal to a reference value
  • GPS information and time information using GPS can be acquired, and the update cycle may be changed according to the remaining battery level.
  • steps 400, 402, and 404 are added before the step 300 of the GPS update processing program as shown in FIG.
  • step 400 after the remaining battery level is acquired, the process proceeds to step 402, where it is determined whether the remaining battery level acquired by the process in step 400 is equal to or greater than a reference value, and a negative determination is made. If so, the GPS update processing program is terminated.
  • step 402 the process proceeds to step 404, and after setting an update cycle according to the remaining battery level, the process proceeds to step 300.
  • step 404 for example, a period uniquely determined for the remaining battery capacity may be set so that the update period becomes longer as the remaining battery capacity becomes smaller. Thereby, the power consumption required when acquiring GPS information and time information can be suppressed.
  • the update cycle may be changed only when the remaining battery level of the digital camera 10 is equal to or greater than the reference value and a change of a predetermined amount or more of the shooting scene at the shooting point is detected.
  • the update cycle may be changed only when a change of a predetermined amount or more of the shooting scene at the shooting point is detected.
  • the second shooting associated with the GPS information is performed.
  • the GPS information update cycle (GPS update cycle) is lengthened. There is almost no problem.
  • the GPS scene at the shooting point changes rapidly (for example, a busy road in the city center), the GPS scene can be recognized with high accuracy by shortening the GPS information update cycle. Is possible.
  • the first shooting scene candidate (second shooting scene candidate) in which the subject image is similar with a predetermined similarity or higher based on the color included in the specific object and the subject image is obtained.
  • the first shooting scene candidate (second shooting scene candidate) in which the shooting support information is similar with a predetermined similarity or higher may be selected.
  • shooting support information for example, divided photometric values
  • shooting support information is associated with the first shooting scene candidate information included in the database A and the database B, and actual shooting is performed in the databases A and B. What is necessary is just to select the 1st imaging scene candidate information corresponding to the imaging
  • a method of selecting first shooting scene candidate information from shooting support information provided for shooting is used in combination with a method of selecting first shooting scene candidate information based on a color included in a specific object and subject image. You may do it.
  • “narrow down the first shooting scene candidate information” means, for example, that the shooting support information included in the first shooting scene candidate information among the plurality of pieces of first shooting scene candidate information is the shooting support information used for shooting. That is, the similar first shooting scene candidate information is selected.
  • the digital camera 10 includes an RTC (real time clock).
  • time information may be acquired from the RTC.
  • the second shooting scene candidate is derived based on the GPS information and time information received by the GPS receiver 58 in the database C.
  • the GPS receiver 58 The second shooting scene candidate may be derived from the GPS information or the time information received by.
  • the second shooting scene associated with the position information corresponding to the GPS information received by the GPS receiver 58 and having a reliability equal to or higher than a predetermined reliability.
  • a candidate may be derived, and the derived second photographing scene candidate may be recognized as a photographing scene at the current photographing point.
  • the second shooting scene candidate information and the reliability are associated with all the position information in the database C, the position information directly corresponding to the GPS information acquired using the GPS is directly used.
  • the second photographic scene candidate information and the reliability can be selected, the second photographic scene candidate information and the reliability may not be associated with all the position information included in the database C.
  • the second shooting scene candidate and the reliability are obtained by interpolation from the second shooting scene candidate information and the reliability associated with each of the plurality of pieces of position information other than the position information corresponding to the GPS information acquired using the GPS. Should be derived. Further, in this case, it is possible to recognize the shooting scene with high accuracy by assigning weight values to the second shooting scene candidate information and the reliability in advance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Camera Data Copying Or Recording (AREA)

Abstract

 状況に応じた撮影シーンを高精度に認識することができる撮影装置及びプログラムを提供する。GPS受信部58が作動されてから所定期間内にGPS受信部58によってGPS情報が取得されなかった場合、GPS受信部58が作動されてから所定期間内にGPS受信部58によってGPS情報が取得され、取得されたGPS情報がデータベースCに記憶されていない場合、及びGPS受信部58が作動されずに撮影によって被写体画像が取得された場合の少なくとも1つの場合、撮影によって取得された被写体画像及び撮影支援情報の少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識する。

Description

撮影装置及びプログラム
 本発明は、撮影シーンを認識する機能を有する撮影装置及びプログラムに関する。
 近年、CCD(Charge Coupled Device)エリアセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージ・センサ等の固体撮像素子の高解像度化に伴い、デジタル電子スチルカメラ、デジタルビデオカメラ、携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮影機能を有する情報機器を撮影装置と称する。
 ところで、この種の撮影装置は、撮影地点の現状に適した撮影シーンを認識し、認識した撮影シーンに対して一意に定められた撮影条件を用いて撮影を行う機能を有している。この場合、撮影シーンを精度良く認識することが現状に適した撮影を行う上で重要な要素となる。撮影シーンを認識する技術としては特開2007-228118号公報及び特開2007-306461号公報に記載の技術が知られている。
 特開2007-228118号公報には、被写体情報取得部によって取得された被写体情報と、GPSによって取得された現在位置及び現在時刻と、に基づいて複数の撮影シーンから撮影地点の現在の状況に応じた撮影シーンを認識する技術が開示されている。
 また、特開2007-306461号公報には、GPSによって取得された現在位置が予め定められた複数の撮影場所のカテゴリ(例えば、「山岳」、「平地」、「海辺」、「市街地」)の何れかに属するかを判定し、判定されたカテゴリに従って撮影地点の現在の状況に応じた撮影シーンを認識する技術が開示されている。
 しかしながら、特開2007-228118号公報に記載の技術は、GPSを用いることを前提にした技術であるため、何らかの理由でGPSを用いて情報を取得することができなくなった場合、撮影シーンを精度良く認識することが困難になる。
 また、特開2007-306461号公報に記載の技術は、GPSによって取得された現在位置が属するカテゴリに応じて撮影シーンを認識する技術であるが、GPSによって取得された現在位置から如何にしてカテゴリを選定しているのか判然としない。仮に、GPSによって取得された現在位置から何らかの手法でカテゴリを選定することができるとしても、そのカテゴリは汎用的なものであって撮影地点にとって固有のものではない。このようなカテゴリに依拠して認識された撮影シーンは信頼し難いと言わざるを得ない。
 このように、特開2007-228118号公報及び特開2007-306461号公報に記載の技術は、状況に応じた撮影シーンを精度良く認識することは困難である、という問題点があった。
 本発明は、上記問題点を解決するために成されたものであり、状況に応じた撮影シーンを高精度に認識することができる撮影装置及びプログラムを提供することを目的とする。
 上記目的を達成するために、本発明の第1の態様の撮影装置を、被写体を撮影することにより被写体画像を取得する撮影手段と、作動された場合にGPSを利用して撮影地点の位置を特定するGPS情報を取得する取得手段と、予め定められた条件を満足した場合に前記取得手段を作動させる作動手段と、前記GPS情報により特定可能な地理的な位置を示す位置情報と該位置情報により示される位置における撮影シーンを示す撮影シーン情報とを関連付けて予め記憶した記憶手段と、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、該位置情報に関連付けられた撮影シーン情報、及び前記撮影手段によって取得された被写体画像と該被写体画像を取得するための撮影に先立って取得されて該撮影を支援する撮影支援情報との少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識し、前記作動手段が作動されなかった場合、前記作動手段によって前記取得手段が作動されたにも拘らず前記取得手段によって前記GPS情報が取得されなかった場合、及び前記作動手段によって作動された前記取得手段によって取得されたGPS情報に対応する位置情報が前記記憶手段に記憶されていない場合の少なくとも1つの場合、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識するシーン認識手段と、を含んで構成した。
 また、本発明の第2の態様の撮影装置を、本発明の第1の態様の撮影装置において、前記シーン認識手段が、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、予め定められた複数の撮影シーン候補を示す複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影条件の少なくとも一方が予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識するものとした。
 また、本発明の第3の態様の撮影装置を、本発明の第2の態様の撮影装置において、前記記憶手段が、前記撮影シーン情報を複数有する撮影シーン情報群を記憶し、前記シーン認識手段が、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報を前記撮影シーン情報群が有する複数の撮影シーン情報に相当する情報とし、該複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識し、前記少なくとも1つの場合、前記撮影シーン候補情報の数を前記撮影シーン情報群が有する複数の撮影シーン情報の数よりも少なくすると共に前記撮影シーン候補情報を前記撮影シーン情報に相当する情報とし、該撮影シーン候補情報のうち、前記撮影手段によって取得された被写体画像及び前記撮影条件の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識するものとした。
 また、本発明の第4の態様の撮影装置を、本発明の第2の態様または第3の態様の撮影装置において、前記記憶手段が、更に、前記撮影シーン情報に対して該撮影シーン情報により示される撮影シーンの時刻を示す時刻情報を関連付けて記憶し、現在の時刻を取得する時刻取得手段を更に含み、前記シーン認識手段が、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報及び前記時刻取得手段によって取得された現在の時刻に対応する時刻情報に関連付けられている撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識するものとした。
 また、本発明の第5の態様の撮影装置を、本発明の第4の態様の撮影装置において、前記記憶手段が、更に、前記撮影シーン情報に対して該撮影シーン情報により示される撮影シーンの信頼度を関連付けて記憶し、前記シーン認識手段が、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報及び前記時刻取得手段によって取得された現在の時刻に対応する時刻情報に関連付けられている撮影シーン情報であって、かつ所定信頼度以上の信頼度の撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識するものとした。
 また、本発明の第6の態様の撮影装置を、本発明の第2の態様または第3の態様の撮影装置において、前記記憶手段が、更に、前記撮影シーン情報に対して該撮影シーン情報により示される撮影シーンの信頼度を関連付けて記憶し、前記シーン認識手段が、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている撮影シーン情報であって、かつ所定信頼度以上の信頼度の撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識するものとした。
 また、本発明の第7の態様の撮影装置を、本発明の第5の態様または第6の態様の撮影装置において、前記信頼度を2値で示したものとした。
 また、本発明の第8の態様の撮影装置を、本発明の第1~第7の態様の何れかの態様の撮影装置において、前記記憶手段の記憶内容を変更する指示を受け付ける受付手段と、前記受付手段によって受け付けられた指示に従って前記記憶手段の記憶内容を変更する変更手段と、を更に含んで構成した。
 また、本発明の第9の態様の撮影装置を、本発明の第1~第8の何れかの態様の撮影装置において、前記取得手段を、前記作動手段によって前記取得手段が作動されてから予め定められた周期で前記GPS情報を取得可能とし、前記周期を変更する条件として予め定められた変更条件を満足した場合に該周期を変更する周期変更手段を更に含んで構成した。
 また、本発明の第10の態様の撮影装置を、第9の態様の撮影装置において、前記撮影手段によって取得された画像情報に基づいて、撮影地点における撮影シーンの変化を検出する撮影シーン検出手段を更に含み、前記変更条件を、前記撮影シーン検出手段によって撮影シーンの所定量以上の変化が検出された、との条件としたものとした。
 また、本発明の第11の態様の撮影装置を、本発明の第10の態様の撮影装置において、前記撮影装置の駆動用電源の電力の残量を検出する電力検出手段を更に含み、前記変更条件を、前記電力検出手段によって基準値以上の前記残量が検出され、かつ前記撮影シーン検出手段によって撮影シーンの所定量以上の変化が検出された、との条件としたものとした。
 また、本発明の第12の態様の撮影装置を、本発明の第9の撮影装置において、前記撮影装置の駆動用電源の電力の残量を検出する電力検出手段を更に含み、前記変更条件を、前記電力検出手段によって基準値以上の前記残量が検出された、との条件としたものとした。
 また、本発明の第13の態様の撮影装置を、本発明の第1~第8の態様の何れかの態様の撮影装置において、前記記憶手段が、更に、前記位置情報に関連付けられた前記撮影シーン情報により示される撮影シーンと、該位置情報により示される位置を含む予め定められた領域内に含まれる撮影シーンとの類似度を前記位置情報毎に関連付けて記憶し、前記取得手段を、前記作動手段によって前記取得手段が作動されてから予め定められた周期で前記位置情報を取得可能とし、前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている前記類似度が大きいほど前記周期を長くする周期変更手段を更に含んで構成した。
 また、本発明の第14の態様の撮影装置を、本発明の第1~第13の態様の何れかの態様の撮影装置において、前記撮影装置の駆動用電源の電力の残量を検出する電力検出手段を更に含み、前記取得手段が、作動された場合に前記電力検出手段によって基準値以上の前記残量が検出されたときに前記GPS情報を取得するものとした。
 また、本発明の第15の態様の撮影装置を、本発明の第1~第14の態様の何れかの態様の撮影装置において、前記位置情報の精度を、地図上の番地を認識する場合に要求される精度よりも低くしたものとした。
 一方、上記目的を達成するために、本発明の第16の態様のプログラムを、作動された場合にGPSを利用して撮影地点の位置を特定するGPS情報を取得する取得手段を予め定められた条件を満足した場合に作動させる作動手段、並びに、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が、前記GPS情報により特定可能な地理的な位置を示す位置情報と該位置情報により示される位置における撮影シーンを示す撮影シーン情報とを関連付けて予め記憶した記憶手段に記憶されている位置情報に対応する場合、該位置情報に関連付けられた撮影シーン情報、及び被写体を撮影することにより被写体画像を取得する撮影手段によって取得された被写体画像と該被写体画像を取得するための撮影に先立って取得されて該撮影を支援する撮影支援情報との少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識し、前記作動手段が作動されなかった場合、前記作動手段によって前記取得手段が作動されたにも拘らず前記取得手段によって前記GPS情報が取得されなかった場合、及び前記作動手段によって作動された前記取得手段によって取得されたGPS情報に対応する位置情報が前記記憶手段に記憶されていない場合の少なくとも1つの場合、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識するシーン認識手段としてコンピュータを機能させるためのものとした。
 本発明によれば、状況に応じた撮影シーンを高精度に認識することができる、という効果が得られる。
実施の形態に係るデジタルカメラの電気系の要部構成の一例を示すブロック図である。 実施の形態に係るデータベースの構造の一例を示す模式図(その1)である。 実施の形態に係るデータベースの構造の一例を示す模式図(その2)である。 実施の形態に係るGPS受信部によって受信されるGPS情報の精細度の説明に供する概念図(その1)である。 実施の形態に係るGPS受信部によって受信されるGPS情報の精細度の説明に供する概念図(その2)である。 実施の形態に係るGPS受信部によって受信されたGPS情報により特定された位置における撮影シーンの信頼度を説明するための概念図である。 実施の形態に係るデータベース更新処理プログラムの処理の流れの一例を示すフローチャートである。 実施の形態に係るメニュー画面の一例を示す模式図である。 実施の形態に係る自己設定画面の一例を示す模式図である。 実施の形態に係るGPS更新処理プログラム(その1)の処理の流れの一例を示すフローチャートである。 実施の形態に係るシーン認識処理プログラムの処理の流れの一例を示すフローチャートである。 実施の形態に係る第1撮影シーン候補選定処理プログラムの処理の流れの一例を示すフローチャートである。 実施の形態に係る撮影シーン候補の表示例を示す模式図である。 実施の形態に係るGPS更新処理プログラム(その2)の処理の流れの一例を示すフローチャートである。 実施の形態に係るデータベースの構造の変形例を示す模式図である。
 まず、図1を参照して、本実施の形態に係るデジタルカメラ10の電気系の要部構成を説明する。
 同図に示されるように、本実施の形態に係るデジタルカメラ10は、被写体像を結像させるためのレンズを含んで構成された光学ユニット22と、当該レンズの光軸後方に配置された電荷結合素子(以下、「CCD」という。)24と、入力されたアナログ信号に対して各種のアナログ信号処理を行うアナログ信号処理部26と、を含んで構成されている。
 また、デジタルカメラ10は、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)28と、入力されたデジタルデータに対して各種のデジタル信号処理を行うデジタル信号処理部30と、を含んで構成されている。
 なお、デジタル信号処理部30は、所定容量のラインバッファを内蔵し、入力されたデジタルデータを後述するメモリ48の所定領域に直接記憶させる制御も行う。
 CCD24の出力端はアナログ信号処理部26の入力端に、アナログ信号処理部26の出力端はADC28の入力端に、ADC28の出力端はデジタル信号処理部30の入力端に、各々接続されている。従って、CCD24から出力された被写体像を示すアナログ信号はアナログ信号処理部26によって所定のアナログ信号処理が施され、ADC28によってデジタル画像データに変換された後にデジタル信号処理部30に入力される。
 一方、デジタルカメラ10は、撮影されて得られた画像やメニュー画面等を表示する液晶ディスプレイ(以下、「LCD」という。)38と、当該画像やメニュー画面等をLCD38に表示させるための信号を生成してLCD38に供給するLCDインタフェース36と、デジタルカメラ10全体の動作を司るCPU(中央処理装置)40と、撮影により得られたデジタル画像データ等を一時的に記憶する一次記憶部及び電源を切っても保持すべき情報を記憶しておく二次記憶部を有するメモリ48と、メモリ48に対するアクセスの制御を行うメモリインタフェース46と、を含んで構成されている。
 また、デジタルカメラ10は、可搬型のメモリカード52をデジタルカメラ10でアクセス可能とするための外部メモリインタフェース50と、デジタル画像データに対する圧縮処理及び伸張処理を行う圧縮・伸張処理回路54と、を含んで構成されている。
 なお、本実施の形態のデジタルカメラ10では、メモリ48としてフラッシュ・メモリ(Flash Memory)が用いられ、メモリカード52としてxDピクチャ・カード(登録商標)が用いられているが、本発明の実施の形態はこれに限るものではない。
 また、デジタルカメラ10は、ネットワーク(例えばインターネット、ローカル・エリア・ネットワークなど)を介してパーソナル・コンピュータや他のデジタルカメラなどの外部装置(図示省略)に接続され、外部装置との各種情報の授受を司る通信インタフェース57を備えている。
 更に、デジタルカメラ10は、GPS衛星から発信される電波を受信して、地理的な現在位置を特定するGPS情報(本実施の形態では、一例として、経度、緯度及び標高)並びに現在の時刻を示す時刻情報を受信するGPS受信部58を備えている。
 デジタル信号処理部30、LCDインタフェース36、CPU40、メモリインタフェース46、外部メモリインタフェース50、圧縮・伸張処理回路54、通信インタフェース57及びGPS受信部58はシステムバスBUSを介して相互に接続されている。従って、CPU40は、デジタル信号処理部30、圧縮・伸張処理回路54及びGPS受信部58の作動の制御と、GPS受信部58によって受信されたGPS情報及び時刻情報の取得と、LCD38に対するLCDインタフェース36を介した各種情報の表示と、メモリ48に対するメモリインタフェース46を介したアクセスと、メモリカード52に対する外部メモリインタフェース50を介したアクセスと、外部装置への通信インタフェース57を介したアクセスと、を各々行うことができる。
 一方、デジタルカメラ10には、主としてCCD24を駆動させるためのタイミング信号(パルス信号)を生成してCCD24に供給するタイミングジェネレータ32が備えられており、CCD24の駆動はCPU40によりタイミングジェネレータ32を介して制御される。
 更に、デジタルカメラ10にはモータ駆動部34が備えられており、光学ユニット22に備えられた図示しない焦点調整モータ、ズームモータ及び絞り駆動モータの駆動もCPU40によりモータ駆動部34を介して制御される。
 すなわち、本実施の形態に係る上記レンズは複数枚のレンズを有し、焦点距離の変更(変倍)が可能なズームレンズ系として構成されており、図示しないレンズ駆動機構を備えている。このレンズ駆動機構に上記焦点調整モータ、ズームモータ及び絞り駆動モータは含まれるものであり、これらのモータは各々CPU40の制御によりモータ駆動部34から供給された駆動信号によって駆動される。
 更に、デジタルカメラ10には、撮影を実行する際に押圧操作されるレリーズスイッチ(所謂シャッタ)及びデジタルカメラ10の電源のオン/オフを切り替える際に操作される電源スイッチを含んで構成された操作部56を備えている。また、操作部56は、LCD38上に重ねられた透過型のタッチパネルを含んで構成されており、LCD38の表示面に各種情報が表示されると共に、ユーザがタッチパネルに触れることにより情報や指示を受け付ける。例えば、本実施の形態に係るデジタルカメラ10では、撮影を行うことを可能にする撮影モードを設定する際に押圧操作される撮影モード指定ボタン、複数の撮影シーンの各々に適した撮影条件で撮影を行うことを可能にするシーン別撮影モードを設定する際に押圧操作されるシーン別撮影モード指定ボタン、シーン別撮影モードにおいて撮影シーンを指定する際に押圧操作される撮影シーン指定ボタン、及び撮影して得られた画像をLCD38に再生するモードである再生モードに設定する際に押圧操作される再生モード指定ボタン、LCD38に各種メニュー画面を表示させるときに押圧操作されるメニュー表示ボタン、それまでの操作内容を確定するときに押圧操作される確定ボタン、直前の操作内容を取り消すときに押圧操作される取消ボタン、並びに前画面に戻るときに押圧操作される画面戻りボタン等の各種ボタン類がLCD38の表示面に表示される。LCD38の表示面に表示された各種ボタンはユーザによってタッチパネルを介して触れられることにより押圧操作される。なお、本実施の形態では、ユーザがデジタルカメラ10に与える指示のうちの一部をタッチパネルディスプレイにより実現しているが、これに限らず、タッチパネルディスプレイを用いずにテンキーや操作ボタンなどでデジタルカメラ10に指示を与える形態としても良い。
 このように構成された操作部56はCPU40に接続されている。従って、CPU40は、操作部56に対する操作状態を常時把握できる。
 なお、本実施の形態に係るデジタルカメラ10のレリーズスイッチは、中間位置まで押下される状態(以下、「半押し状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」という。)と、の2段階の押圧操作が検出可能に構成されている。
 そして、デジタルカメラ10では、レリーズスイッチを半押し状態にすることによりAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、絞りの状態)が設定された後、AF機能が働いて合焦制御され、その後、引き続き全押し状態にすると露光(撮影)が行われる。
 また、デジタルカメラ10には、撮影時に必要に応じて被写体に照射する光を発するストロボ44と、ストロボ44とCPU40との間に介在されると共に、CPU40の制御によりストロボ44を発光させるための電力を充電する充電部42と、が備えられている。ストロボ44はCPU40にも接続されており、ストロボ44の発光はCPU40によって制御される。
 ところで、本実施の形態に係るデジタルカメラ10では、前述したように、シーン別撮影モードが設定された状態で現在の撮影地点に適した撮影シーンをユーザに指定させる際にユーザを補助するための機能として、現在の撮影地点における撮影シーンを認識し、認識した撮影シーンをユーザに対して推奨する撮影シーン推奨機能を有している。この撮影シーン推奨機能を実現するために、本実施の形態に係るデジタルカメラ10では、一例として図2に示すデータベースA,B及び図3に示すデータベースCがメモリ48に予め記憶されている。
 図2は、データベースA,Bの構造の一例を示す模式図である。図2に示すデータベースA,Bは、撮影によって得られた被写体画像に含まれるオブジェクト(例えば、青空、夕空、緑の葉、雪、水など)及びその被写体画像に含まれる色に基づいて現在の撮影地点における撮影シーンを認識(特定)する撮影シーン情報を導出するために用いられる。データベースA,Bは共に複数の撮影シーン(第1撮影シーン候補)を認識する撮影シーン情報として第1撮影シーン候補情報を有している。第1撮影シーン候補情報により認識される第1撮影シーン候補が特定のオブジェクトによって特徴付けられている場合にはそのオブジェクトを認識するオブジェクト情報が第1撮影シーン候補情報に関連付けられている。また、第1撮影シーン候補情報には、第1撮影シーン候補をLCD38の表示面に画像で表示した際にその画像に含まれる色を認識する色情報が関連付けられている。また、色情報には、第1撮影シーン候補をLCD38の表示面に表示した際の画像全域に対するその色情報により認識される色が占有する領域の割合を示す占有率が関連付けられている。
 データベースBは、データベースAに比べ、第1撮影シーン候補の数が少ない点が異なっている。図2に示す例では、ビーチ(浜辺)を認識する第1撮影シーン候補及びスノー(雪景色)を認識する第1撮影シーン候補がデータベースAに含まれているが、データベースBに含まれていない。
 図3は、データベースCの構造の一例を示す模式図である。図3に示すデータベースCは、GPS受信部58によって受信されたGPS情報及び時刻情報に基づいて現在の撮影地点における撮影シーンを認識する撮影シーン情報を導出するために用いられる。データベースCは、複数の撮影シーン(第2撮影シーン候補)を認識する撮影シーン情報としての第2撮影シーン候補情報を有しており、第2撮影シーン候補情報は、データベースAに含まれる第1撮影シーン候補情報に相当するものである。また、第2撮影シーン候補情報には、第2撮影シーン候補情報により認識される第2撮影シーン候補に相当する撮影シーンに係る緯度、経度及び標高を示す情報であって、かつGPS情報により特定可能な地理的な位置を示す位置情報、並びに時間帯が関連付けられている。また、位置情報及び時間帯の1組に対して、位置情報及び時間帯によって一意に導き出される第2撮影シーン候補を最終的な撮影シーンとして採用した場合の信頼度が関連付けられている。
 なお、本実施の形態に係るデジタルカメラ10は、地図ソフトウェアを利用してLCD38に地図を表示すると共に、GPS受信部58によって受信されたGPS情報(緯度、経度)に基づいて現在位置の地名(国名、都道府県名、市名、番地など)を特定し、特定した位置を地名と共に地図上に重ねて表示する現在地表示モードを備えている。この現在地表示モードはユーザから操作部56を介して指示が与えられることによって起動し、LCD38はGPS受信部58によって受信されたGPS情報に基づいて一例として図4に示すように番地まで特定可能な仮想的なメッシュ(実際には画面に表示されない均一な大きさの矩形状メッシュ)で画面領域が分割される。図4は位置精度が細かい地図上位置特定マップである。
 これに対し、シーン別撮影モードでは、撮影シーン推奨機能を用いて現在の撮影地点の撮影シーンを認識する場合、現在地表示モードほど画面領域の細分化(精度)は要求されない。そのため、シーン別撮影モードでは、一例として図5に示すように撮影シーンを特定可能な仮想的なメッシュであって、かつ現在地表示モードで用いるメッシュに比べて目の粗いメッシュで画面領域を分割する。図5は位置精度が粗いシーン認識用マップであり、GPS情報(緯度、経度)にもとづいて各シーンの確からしさを出力するために該シーン認識用マップを使用することができる。
 なお、本実施の形態では、データベースCに含まれる各位置情報がメッシュの位置及び大きさを規定している。つまり、本実施の形態に係るデータベースCに含まれる位置情報の各々は、メッシュの左上点及び右下点(対角点)の各々についての緯度及び経度を示す緯度・経度情報、並びにメッシュで規定される地域における最も低い標高及び最も高い標高を示す標高情報を含んで構成されている。これにより、図3に示すデータベースCを用いて、GPS受信部58によって受信されたGPS情報から第2撮影シーン候補及びその第2撮影シーン候補の信頼度が一例として図6に示すように一意に決定される。なお、図6に示す例では、位置情報により特定されるメッシュに対応付けられた第2撮影シーン候補として“ビーチ”、“雪(図3に示すデータベースCに含まれる「スノー」に相当)”及び“緑(図3に示すデータベースCに含まれる「風景」に相当)”の各々についての信頼度(“ビーチらしさ:val_beach”、“雪らしさ:val_snow”、及び“緑らしさ:val_green”と表記)が示されている。また、本実施の形態では、信頼度を百分率で表現しているが、これに限らず、一例として図6に示すようにON及びOFFの2値で規定しても良く、この場合、信頼度を記憶するために要するメモリ48の記憶容量の削減が期待できる。
 次に、本実施の形態に係るデジタルカメラ10の撮影時における全体的な動作について簡単に説明する。
 まず、CCD24は、光学ユニット22を介した撮像を行い、被写体画像を示すR(赤)、G(緑)、B(青)毎のアナログ信号をアナログ信号処理部26に順次出力する。
 アナログ信号処理部26は、CCD24から入力されたアナログ信号に対して相関二重サンプリング処理等のアナログ信号処理を施した後にADC28に順次出力する。
 ADC28は、アナログ信号処理部26から入力されたR、G、B毎のアナログ信号を各々所定ビット数のR、G、Bの信号(デジタル画像データ)に変換してデジタル信号処理部30に順次出力する。デジタル信号処理部30は、内蔵しているラインバッファにADC28から順次入力されるデジタル画像データを蓄積して一旦メモリ48の所定領域に直接格納する。
 メモリ48の所定領域に格納されたデジタル画像データは、CPU40による制御に応じてデジタル信号処理部30により読み出され、所定の物理量に応じたR,G,B毎のデジタルゲインをかけることでホワイトバランス調整を行うと共に、ガンマ処理及びシャープネス処理を行って所定ビット数のデジタル画像データを生成する。
 そして、デジタル信号処理部30は、生成したデジタル画像データに対しYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)を生成し、YC信号をメモリ48の上記所定領域とは異なる領域に格納する。
 なお、LCD38は、CCD24による連続的な撮像によって得られた動画像(スルー画像)を表示してファインダとして使用することができるものとして構成されており、LCD38をファインダとして使用する場合には、生成したYC信号を、LCDインタフェース36を介して順次LCD38に出力する。これによってLCD38にスルー画像が表示されることになる。
 ここで、レリーズスイッチがユーザによって半押し状態とされたタイミングで前述のようにAE機能が働いて露出状態が設定された後、前述した山登り合焦機能が働いて合焦制御され、その後、引き続き全押し状態とされたタイミングで、その時点でメモリ48に格納されているYC信号を、圧縮・伸張処理回路54によって所定の圧縮形式(本実施の形態では、JPEG形式)で圧縮した後に外部メモリインタフェース50を介してメモリカード52に電子化ファイル(画像ファイル)として記録することにより撮影を行う。
 次に、図7を参照して、データベースCの内容を更新する場合のデジタルカメラ10の作用を説明する。なお、図7は、デジタルカメラ10の電源がオンされた場合にCPU40によって実行されるデータベース更新処理プログラムの処理の流れの一例を示すフローチャートであり、当該プログラムはメモリ48の所定のプログラム記憶領域に予め記憶されている。また、ここでは、錯綜を回避するために、前提としてデータベースCの内容がデフォルト情報(初期設定時の情報)で構成されている場合について説明する。また、ここでは、錯綜を回避するために、前提としてデジタルカメラ10が通信インタフェース57を介してデジタルカメラ10のメーカ側のサーバ装置(図示省略)に接続されている場合について説明する。また、ここでは、錯綜を回避するために、前提としてGPS受信部58によって受信されたGPS情報及び時刻情報に対応する位置情報及び時間帯が属する第2撮影シーン候補が指定されている場合について説明する。
 ステップ100では、データベースCの更新方式を指示する更新指示情報が操作部56を介して受け付けられるまで待機し、ステップ100において更新指示情報が受け付けられると肯定判定となってステップ102に移行する。ステップ102では、データベースの更新方式をユーザに指定させるためのメニュー画面60(図8参照)をLCD38に表示した後、ステップ104に移行し、データベースCの更新方式が指定されたか否かを判定する。
 図8には、LCD38に表示されたメニュー画面60の一例が示されている。図8に示すように、メニュー画面60には、“データベース更新方式”との項目の下に、データベースCの現在の内容を、デジタルカメラ10の製造時にメーカ側がメモリ48の予め定められた記憶領域に予め記憶させたデフォルト情報に更新することを示す“メーカ初期値”との指定可能項目、データベースCの現在の内容を、メーカ側からネットワーク経由で配信された情報に更新する“ダウンロード”との指定可能項目、及びデータベースCの現在の内容を、操作部56を介してユーザから与えられた指示に応じて変更する“自己設定”との指定可能項目が表示される。メニュー画面60が表示されている状態でユーザによって操作部56を介して“メーカ初期値”、“ダウンロード”及び“自己設定”との何れかの指定可能項目が指定された場合、ステップ104は肯定判定となってステップ106に移行する一方、メニュー画面60の何れの指定可能項目も指定されていない場合はステップ116に移行する。
 ステップ106では、メニュー画面60の“メーカ初期値”との指定可能項目(デフォルト情報に更新すること)が指定されたか否かを判定し、肯定判定となった場合にはステップ108に移行し、メモリ48の予め定められた記憶領域に記憶されているデフォルト情報を取得し、次のステップ110にて、現在のデータベースCの特定の内容の上記ステップ108の処理によって取得されたデフォルト情報への変更を開始した後、ステップ112に移行する。ステップ112では、データベースCの特定の内容のデフォルト情報への変更が完了するまで待機し、ステップ112においてデータベースCの特定の内容のデフォルト情報への変更が完了すると肯定判定となってステップ114に移行し、データベースCの特定の内容の変更が完了したことを示す情報(例えば「データベースが正しく更新されました。」とのメッセージ)をLCD38に表示した後、ステップ116に移行する。
 一方、ステップ106において否定判定となった場合にはステップ118に移行し、メニュー画面60の“ダウンロード”(図7に示す例では“DL”と表記)との指定可能項目が指定されたか否かを判定し、肯定判定となった場合にはステップ120に移行し、メーカ側のサーバ装置からデータベースCの内容についてダウンロードを開始した後、ステップ122に移行し、データベースCの特定の内容についてのダウンロードが終了するまで待機し、ステップ122においてダウンロードが終了するとステップ124に移行する。
 ステップ124では、データベースCの特定の内容について、上記ステップ120,122の処理によってダウンロードされた情報への変更を開始し、次のステップ126にて、データベースCの特定の内容の変更が完了するまで待機し、ステップ126においてデータベースCの特定の内容の変更が完了すると肯定判定となってステップ114に移行する。
 一方、ステップ118において否定判定となった場合(“自己設定”との指定可能項目が指定された場合)にはステップ128に移行する。ステップ128では、データベースCの現在の内容をユーザの指示に従って変更するための自己設定画面62をLCD38に表示した後、ステップ130に移行し、データベースCの特定の内容を変更するための指示が操作部56を介して受け付けられたか否かを判定する。
 図9には、LCD38に表示された自己設定画面62の一例が示されている。図9に示すように、自己設定画面62には、“自己設定”との項目の下に“現在の位置における確信度”(図3に示すデータベースCに含まれる“信頼度”に相当)との項目が表示されると共に、その項目の下には現時点で指定されている第2撮影シーン候補及びこの第2撮影シーン候補に関連付けられている信頼度に相当する“現在の位置における確信度”が図表化されて示される。なお、図9に示す例では、“ビーチ”との第2撮影シーン候補についての“現在の位置における確信度”が5%であること、“雪”との第2撮影シーン候補についての“現在の位置における確信度”が0%であること、及び“緑”との第2撮影シーン候補についての“現在の位置における確信度”が3%であることが表示されている。
 自己設定画面62が表示されている状態で操作部56を介して“現在の位置における確信度”の変更指示が受け付けられた場合に肯定判定となってステップ132に移行し、上記ステップ130の処理によって受け付けられた変更指示に応じてデータベースCの該当の信頼度を変更する。例えば、図9に示す自己設定画面62において、“ビーチ”との第2撮影シーン候補についての“現在の位置における確信度”を示す図形(図9に示す例では横長矩形)に対して、長手方向の長さを伸縮させる方向にタッチパネルを介して指示を与えることにより、この指示に応じて、LCD38の表示面の図形が伸縮すると共に、その伸縮量に応じて、“現在の位置における確信度”に相当するデータベースCの信頼度も増減する。例えば、LCD38の表示面において“ビーチ”との第2撮影シーン候補についての“現在の位置における確信度”を示す図形が長手方向に“1”伸びると、これに対応する“現在の位置における確信度”に相当するデータベースCの信頼度も“1”増加し、LCD38の表示面において“ビーチ”との第2撮影シーン候補についての“現在の位置における確信度”を示す図形が長手方向に“1”縮むと、これに対応する“現在の位置における確信度”に相当するデータベースCの信頼度も“1”減少する。
 次のステップ134では、データベースCの予め定められた内容の変更を終了する指示が操作部56を介して受け付けられたか否かを判定し、否定判定となった場合にはステップ130に戻る一方、肯定判定となった場合にはステップ114に移行する。
 ステップ116では、データベースCの更新を終了する条件として予め定められた条件(例えば、操作部56に対して予め定められた操作が行われた、との条件)を満足したか否かを判定し、否定判定となった場合にはステップ104に移行する一方、肯定判定となった場合には本データベース更新処理プログラムを終了する。
 次に、図10を参照して、GPS受信部58によってGPS情報及び時刻情報を取得する場合のデジタルカメラ10の作用を説明する。なお、図10は、GPS受信部58を作動させるための条件(例えば、シーン別撮影モードが設定された、との条件)を満足した場合にCPU40によって予め定められた周期で実行されるGPS更新処理プログラムの処理の流れの一例を示すフローチャートであり、当該プログラムはメモリ48の所定のプログラム記憶領域に予め記憶されている。また、ここでは、錯綜を回避するために、前提として撮影によって得られた1フレーム分の画像情報(例えばYC信号)がGPS更新処理で用いられる評価対象(後述する差分を得るための画像情報)としてメモリ48の予め定められた記憶領域αに記憶されている場合について説明する。
 図10のステップ300では、デジタルカメラ10の電源がONされてから現時点までにGPS受信部58によってGPS情報及び時刻情報が受信された(デジタルカメラ10の電源がONされてから現時点までに更新された履歴がある)か否かを判定し、肯定判定となった場合にはステップ302に移行する一方、否定判定となった場合にはステップ316に移行する。
 ステップ302では、GPS受信部58によってGPS情報及び時刻情報が前回受信されてから所定時間(例えば、60秒)経過したか否かを判定し、否定判定となった場合には本GPS更新処理プログラムを終了する一方、肯定判定となった場合にはステップ304に移行し、メモリ48の予め定められた記憶領域αから画像情報(例えばYC信号)を取得すると共に記憶領域αの記憶内容を消去した後、ステップ306に移行し、撮影によって得られた最新の1フレーム分の画像情報(例えばYC信号)を取得した後、ステップ310に移行する。ステップ310では、上記ステップ306の処理によって取得された画像情報をメモリ48の記憶領域αに記憶した後、ステップ312に移行し、上記ステップ304の処理によって取得された画像情報と上記ステップ306の処理によって取得された画像情報との差分(本実施の形態では、「差の絶対値」)を算出する。なお、本実施の形態では、撮影シーンの変動量として、画像情報間の差分を算出する形態例を挙げているが、これに限らず、測光値、分割測光値、フォーカス位置、合焦評価値、及び顔検出結果の何れかの変動量を算出しても良い。
 次のステップ314では、上記ステップ312の処理によって算出された差分が予め定められた閾値を超えたか否かを判定し、否定判定となった場合には本GPS更新処理プログラムを終了する一方、肯定判定となった場合にはステップ316に移行する。ステップ316では、GPS衛星から発信される電波をGPS受信部58を介して受信することによりGPS情報及び時刻情報の取得を開始し、次のステップ318にて、肯定判定となった場合にはステップ320に移行し、上記ステップ316,318の処理によって取得されたGPS情報及び時刻情報をメモリ48の記憶領域βに記憶した後、本GPS更新処理プログラムを終了する。なお、記憶領域βの記憶内容は、シーン別撮影モードの設定が解除された場合、デジタルカメラ10の電源スイッチがOFFされた場合、及び後述するシーン認識処理プログラムのステップ204において肯定判定となった場合に消去される。
 一方、ステップ318において否定判定となった場合にはステップ322に移行し、上記ステップ316の処理が実行されてから予め定められた時間(例えば10秒)が経過したか否かを判定し、否定判定となった場合にはステップ318に戻る一方、肯定判定となった場合には本GPS更新処理プログラムを終了する。
 次に、図11を参照して、前述した撮影シーン推奨機能において現在の撮影地点における撮影シーンを認識する場合のデジタルカメラ10の作用を説明する。なお、図11は、デジタルカメラ10の電源がオンされた場合にCPU40によって所定時間毎(例えば15秒毎)に実行されるシーン認識処理プログラムの処理の流れの一例を示すフローチャートであり、当該プログラムはメモリ48の所定のプログラム記憶領域に予め記憶されている。
 ステップ200では、GPS受信部58を作動させるための条件(例えば、シーン別撮影モードが設定された、との条件)を満足したか否かを判定し、肯定判定となった場合にはステップ202に移行する一方、否定判定となった場合にはステップ204に移行し、GPS受信部58によって情報を受信しない(GPSを使用しない)ことを指示する指示情報が操作部56によって受け付けられたか否かを判定し、肯定判定となった場合にはステップ208に移行する一方、否定判定となった場合には本シーン認識処理プログラムを終了する。
 ステップ202では、メモリ48の記憶領域βにアクセスしてGPS情報及び時刻情報の取得を開始した後、ステップ206に移行し、GPS情報及び時刻情報の取得が完了したか否かを判定し、肯定判定となった場合にはステップ208に移行する一方、否定判定となった場合にはステップ209に移行する。ステップ209では、変数xが閾値N未満であるか否かを判定し、否定判定となった場合にはステップ208に移行する一方、肯定判定となった場合にはステップ212に移行し、変数xを1インクリメントした後、ステップ206に戻る。
 ステップ208では、撮影によって得られた最新の1フレーム分の画像情報(例えばYC信号)及びその撮影を支援する撮影支援情報を取得した後、ステップ210に移行する。なお、本実施の形態では、上記の撮影支援情報として、例えば、明るさ(分割測光値;画面内を複数のエリアに分割(例えば16×16分割)して得られた各分割領域の測光値)、距離情報、フォーカス位置、合焦評価値、顔検出結果などの撮影に先立って取得されて該撮影を支援する撮影支援情報を適用している。
 ステップ210では、第1撮影シーン候補選定処理プログラムを実行する。図12は、第1撮影シーン候補選定処理プログラムの処理の流れの一例を示すフローチャートであり、当該プログラムはメモリ48の所定のプログラム記憶領域に予め記憶されている。
 図12のステップ350では、上記ステップ208の処理によって取得された画像情報及び撮影支援情報に基づいて、その画像情報により示される被写体画像に含まれる特定のオブジェクトを認識した後、ステップ352に移行する。なお、被写体画像に含まれるオブジェクトは、例えば、被写体画像を複数の領域に分割し、分割して得た領域毎に、予め定められたテンプレートを用いてパターンマッチングを行うことによって認識することが可能である。なお、本実施の形態では、特定のオブジェクトとして、「外灯」、「太陽」、「ビーチ」、「砂地」、「緑地」、「雪」及び「人物の顔」などを適用しているが、これ以外の物体であっても良いことは言うまでもない。
 ステップ352では、上記ステップ350の処理によって特定のオブジェクトが認識されたか否かを判定し、肯定判定となった場合にはステップ354に移行する一方、否定判定となった場合にはステップ356に移行する。
 ステップ354では、上記ステップ350の処理によって認識された特定のオブジェクトを認識するオブジェクト情報をメモリ48の記憶領域γに記憶した後、ステップ356に移行する。
 ステップ356では、上記ステップ350の処理に供した被写体画像を対象にして複数の特定の色毎の画像全域における占有率(例えば、「特定の色の画素数/画像全域の画素数」)を算出し、算出して得た占有率をメモリ48の記憶領域δに記憶した後、ステップ358に移行する。
 ステップ358では、GPS受信部58が作動しているか(ここでは、一例としてメモリ48の記憶領域βにGPS情報及び時刻情報が記憶されているか)否かを判定し、肯定判定となった場合にはステップ360に移行する一方、否定判定となった場合にはステップ362に移行する。ステップ360では、データベースAに対してフラグを設定した後、ステップ364に移行する。ステップ362では、データベースBに対してフラグを設定した後、ステップ364に移行する。
 ステップ364では、メモリ48の記憶領域γにオブジェクト情報が記憶されているか否かを判定し、肯定判定となった場合にはステップ366に移行する一方、否定判定となった場合にはステップ368に移行する。ステップ366では、メモリ48の記憶領域γからオブジェクト情報を取得すると共に記憶領域γの記憶内容を消去し、現時点でフラグが設定されているデータベース(データベースAまたはデータベースB)から、記憶領域γから取得したオブジェクト情報に相当するオブジェクト情報に関連付けられている第1撮影シーン候補情報を全て取得した後、ステップ369に移行する。
 ステップ368では、現時点でフラグが設定されているデータベース(データベースAまたはデータベースB)から、オブジェクト情報が関連付けられていない第1撮影シーン候補情報(図2に示す「-」に対応する第1撮影シーン候補情報)を全て取得した後、ステップ369に移行する。なお、データベースA,Bにおいて全ての第1撮影シーン候補にオブジェクト情報が関連付けられている場合には上記ステップ364,368の処理は不要である。
 ステップ369では、上記ステップ366又は上記ステップ368の処理によって取得された第1撮影シーン候補情報において、未だにステップ370~ステップ376の処理対象とされていない1つの第1撮影シーン候補情報を注目すべき第1撮影シーン候補情報として指定した後、ステップ370に移行する。
 ステップ370では、メモリ48の記憶領域δから特定の色の占有率を取得した後、ステップ372に移行し、上記ステップ370の処理によって取得された特定の色の占有率が、上記ステップ369の処理によって指定された第1撮影シーン候補情報に関連付けられている同色の占有率と予め定められた誤差内で一致しているか否かを判定することによって予め定められた類似度以上であるか否かを判定し、肯定判定となった場合にはステップ374に移行して変数iを1インクリメントした後、ステップ376に移行する。
 一方、ステップ372において否定判定となった場合にはステップ376に移行する。ステップ376では、メモリ48の記憶領域δに記憶されている全ての色の占有率について上記ステップ370~374の処理を実行したか否かを判定し、否定判定となった場合にはステップ370に移行する一方、肯定判定となった場合にはステップ378に移行する。
 ステップ378では、変数iが、上記ステップ208の処理によって取得された画像情報及び撮影支援情報が第1撮影シーン候補を示す第1撮影シーン候補情報に含まれる画像情報及び撮影支援情報(例えば画像情報を取得するために第1撮影シーン候補の撮影で用いられた分割測光値)に類似していると判断することができる値として予め定められた閾値(例えば類似度を示す指標となる値)を超えているか否かを判定し、肯定判定となった場合にはステップ380に移行し、現時点で取得されている第1撮影シーン候補情報(上記ステップ366又は上記ステップ368の処理によって取得された第1撮影シーン候補情報)及び変数iを関連付けてメモリ48の記憶領域εに記憶した後、ステップ382に移行する。
 ステップ382では、現時点で取得されている第1撮影シーン候補情報(上記ステップ366又は上記ステップ368の処理によって取得された第1撮影シーン候補情報)において、未だにステップ370~ステップ376の処理対象とされていない第1撮影シーン候補情報が存在するか否かを判定し、否定判定となった場合にはステップ369に戻る一方、肯定判定となった場合にはステップ384に移行し、記憶領域δの記憶内容を消去すると共に、データベース(データベースAまたはデータベースB)に対するフラグの設定を解除した後、本第1撮影シーン候補選定処理プログラムを終了して図11に示すフローチャートのステップ214に移行する。
 図11のステップ214では、メモリ48の記憶領域βにGPS情報及び時刻情報が記憶されており、かつメモリ48の記憶領域βに記憶されているGPS情報に対応する位置情報及びメモリ48の記憶領域βに記憶されている時刻情報に対応する時間帯がデータベースCに含まれているか否かを判定し、肯定判定となった場合にはステップ216に移行する。ステップ216では、一例として図3に示すデータベースCから、メモリ48の記憶領域βに記憶されているGPS情報(緯度、経度及び標高)に対応する位置情報が関連付けられており、かつメモリ48の記憶領域βに記憶されている時刻情報が属する時間帯も関連付けられている第2撮影シーン候補情報を全て取得した後、ステップ218に移行する。ステップ218では、上記ステップ216の処理によって取得された第2撮影シーン候補情報が複数であるか否かを判定し、肯定判定となった場合にはステップ220に移行する一方、否定判定となった場合にはステップ222に移行する。
 ステップ220では、上記ステップ216の処理によって取得された複数の第2撮影シーン候補情報の各々について、メモリ48の記憶領域βに記憶されているGPS情報及び時刻情報によってデータベースCから一意に特定される複数の信頼度のうち、最大の信頼度が関連付けられた第2撮影シーン候補情報をメモリ48の記憶領域ζに記憶した後、ステップ224に移行する。ステップ222では、上記ステップ216の処理によって取得された第2撮影シーン候補情報をメモリ48の記憶領域ζに記憶した後、ステップ224に移行する。
 ステップ224では、上記ステップ220又は上記ステップ222の処理によって記憶領域ζに記憶された第2撮影シーン候補情報に相当する第1撮影シーン候補情報がメモリ48の記憶領域εに記憶されているか否かを判定し、肯定判定となった場合にはステップ226に移行する。
 ステップ226では、上記ステップ220又は上記ステップ222の処理によって記憶領域ζに記憶された第2撮影シーン候補情報を、撮影シーン推奨機能によって推奨される撮影シーンを特定する撮影シーン情報としてメモリ48の記憶領域ηに記憶した後、本シーン認識処理プログラムを終了する。
 一方、ステップ214において否定判定となった場合にはステップ228に移行し、メモリ48の記憶領域εから第1撮影シーン候補情報を取得した後、ステップ230に移行し、メモリ48の記憶領域εから取得した第1撮影シーン候補情報のうち、最も信頼度の高いものを、撮影シーン推奨機能によって推奨される撮影シーンを特定する撮影シーン情報としてメモリ48の記憶領域ηに記憶した後、本シーン認識処理プログラムを終了する。なお、上記ステップ230において「最も信頼度の高いもの」とは、例えば第1撮影シーン候補情報に関連付けられている変数iが最も大きいものを意味する。
 一方、ステップ224において否定判定となった場合にはステップ232に移行する。ステップ232では、メモリ48の記憶領域εに記憶されている第1撮影シーン候補情報及びメモリ48の記憶領域ζに記憶されている第2撮影シーン候補情報のうち、最も信頼度の高いものを、撮影シーン推奨機能によって推奨される撮影シーンを特定する撮影シーン情報としてメモリ48の記憶領域ηに記憶した後、本シーン認識処理プログラムを終了する。なお、上記ステップ232において「最も信頼度の高いもの」とは、例えば、メモリ48の記憶領域εに記憶されている第1撮影シーン候補情報に関連付けられている変数iと、メモリ48の記憶領域ζに記憶されている第2撮影シーン候補情報に関連付けられている信頼度を予め定められたテーブル又は演算式を用いて変数iに換算して得た変数iとを比較することによって得られた最大の変数iを有する撮影シーン候補情報のことを意味する。
 図13には、撮影シーン推奨機能によって推奨された撮影シーンをユーザに提示する形態例が示されている。LCD38の表示面には、撮影シーンの候補を示す撮影シーン候補画面が表示されると共に、確定ボタン、取消ボタン、及び画面戻りボタンが表示される。撮影シーン候補画面38aには、複数の撮影シーンを特定する撮影シーン情報が指定可能なボタン形式で表示される。図13に示す例では、“夜景”の撮影シーンを特定する撮影シーン情報、“ビーチ”の撮影シーンを特定する撮影シーン情報、及び“スノー”の撮影シーンを特定する撮影シーン情報がボタン形式で表示され、撮影シーン推奨機能によって推奨された撮影シーンを特定する撮影シーン情報を示すボタンが点滅表示される。なお、図13に示す例では、“夜景”の撮影シーンを特定する撮影シーン情報に係るボタンが点滅表示される。撮影シーン候補画面38aに表示された何れかのボタンがユーザによってタッチパネルを介して指定されると、指定されたボタンが反転表示され、続いて確定ボタンが指定されると、反転表示されたボタンに係る撮影シーン情報により特定される撮影シーンに適した撮影条件として予め定められた撮影条件で撮影が実行可能となる。
 以上詳細に説明したように、本実施の形態に係るデジタルカメラ10では、被写体を撮影することにより被写体画像を取得する撮影手段としての撮像系12と、作動された場合にGPSを利用してGPS情報を取得する取得手段としてのGPS受信部58と、GPS受信部58を作動させるための予め定められた条件を満足した場合にGPS受信部58を作動させる作動手段としてのCPU40と、GPS情報により特定可能な地理的な位置を示す位置情報と位置情報により特定される位置における撮影シーンを示す撮影シーン情報としての第2撮影シーン候補情報とを関連付けて記憶したデータベースCと、作動されたGPS受信部58によって取得されたGPS情報がデータベースCに記憶されている位置情報に対応する場合、第2撮影シーン候補情報、及び撮影によって取得された被写体画像と該被写体画像を取得するための撮影に先立って取得されて該撮影を支援する撮影支援情報との少なくとも一方に基づいて、現在の撮影地点における撮影シーンを特定し、GPS受信部58が作動されなかった場合、GPS受信部58が作動されたにも拘らずGPS受信部58によってGPS情報が受信されなかった場合、及び作動されたGPS受信部58によって受信されたGPS情報に対応する位置情報がデータベースCに含まれない場合の少なくとも1つの場合、撮影によって取得された被写体画像と該被写体画像を取得するための撮影で用いた撮影条件との少なくとも一方に基づいて、現在の撮影地点における撮影シーンを特定するシーン認識手段としてのCPU40と、を備えているので、状況に応じた撮影シーンを高精度に認識することができる。
 また、本実施の形態に係るデジタルカメラ10では、CPU40が、作動されたGPS受信部58によって取得されたGPS情報がデータベースCに記憶されている位置情報に対応する場合、予め定められた複数の撮影シーン候補としての複数の第1撮影シーン候補から、撮影によって取得された被写体画像及び撮影条件の少なくとも一方が予め定められた類似度以上で類似している第1撮影シーン候補を選定し、選定した第1撮影シーン候補のうち、データベースCに記憶されている第2撮影シーン候補のうちのGPS受信部58によって受信されたGPS情報に対応する位置情報に関連付けられている第2撮影シーン候補に相当する第2撮影シーン候補を現在の撮影地点における撮影シーンとして特定しているので、状況に応じた撮影シーンをより一層高精度に認識することができる。
 また、本実施の形態に係るデジタルカメラ10では、CPU40が、作動されたGPS受信部58によって取得されたGPS情報がデータベースCに記憶されている位置情報に対応する場合、データベースAから、撮影によって取得された被写体画像及び撮影条件の少なくとも一方が予め定められた類似度以上で類似している第1撮影シーン候補を選定し、選定した第1撮影シーン候補のうち、データベースCに記憶されている撮影シーン情報のうちのGPS受信部58によって受信されたGPS情報に対応する位置情報に関連付けられている第2撮影シーン候補に相当する第1撮影シーン候補を現在の撮影地点における撮影シーンとして認識し、GPS受信部58が作動されなかった場合、GPS受信部58が作動されたにも拘らずGPS受信部58によってGPS情報が受信されなかった場合、及び作動されたGPS受信部58によって受信されたGPS情報に対応する位置情報がデータベースCに含まれない場合の少なくとも1つの場合、データベースBから、撮影によって取得された被写体画像及び前記撮影条件の少なくとも一方が予め定められた類似度以上で類似している特定の第1撮影シーン候補を選定し、選定した第1撮影シーン候補を現在の撮影地点における撮影シーンとして認識しているので、状況に応じた撮影シーンをより一層高精度に認識することができる。
 また、本実施の形態に係るデジタルカメラ10では、データベースCが、更に、第2撮影シーン候補に対して該第2撮影シーン候補の時刻を示す時刻情報(時間帯)を関連付けて記憶し、現在の時刻を取得する時刻取得手段としてのGPS受信部58を更に備え、CPU40が、作動されたGPS受信部58によって取得されたGPS情報がデータベースCに記憶されている位置情報に対応する場合、データベースA(又はデータベースB)から、撮影によって取得された被写体画像及び撮影条件の少なくとも一方が予め定められた類似度以上で類似している第1撮影シーン候補を選定し、選定した第1撮影シーン候補のうち、データベースCに記憶されている第2撮影シーン候補のうちのGPS受信部58によって受信されたGPS情報及び時刻情報に対応する位置情報及び時間帯に関連付けられている第2撮影シーン候補に相当する第1撮影シーン候補を現在の撮影地点における撮影シーンとして認識しているので、状況に応じた撮影シーンをより一層高精度に認識することができる。
 また、本実施の形態に係るデジタルカメラ10では、データベースCが、更に、第2撮影シーン候補に対して該第2撮影シーン候補の信頼度を関連付けて記憶し、CPU40が、作動されたGPS受信部58によって取得されたGPS情報がデータベースCに記憶されている位置情報に対応する場合、データベースA(又はデータベースB)から、撮影によって取得された被写体画像及び撮影条件の少なくとも一方が予め定められた類似度以上で類似している第1撮影シーン候補を選定し、選定した第1撮影シーン候補のうち、データベースCに記憶されている第2撮影シーン候補のうちのGPS受信部58によって受信されたGPS情報及び時刻情報に対応する位置情報及び時間帯に関連付けられている第2撮影シーン候補であって、かつ所定信頼度以上の信頼度の第2撮影シーン候補に相当する第1撮影シーン候補を現在の撮影地点における撮影シーンとして認識しているので、状況に応じた撮影シーンをより一層高精度に認識することができる。
 また、本実施の形態では、データベースCの記憶内容を変更する指示を受け付ける操作部56と、操作部56によって受け付けられた指示に従ってデータベースCの記憶内容を変更するCPU40と、を備えているので、ユーザにとっての利便性を向上させることができる。
 また、本実施の形態では、GPS受信部58に対して予め定められた周期でGPS情報を取得させ、予め定められた周期を変更する条件として予め定められた変更条件を満足した場合に該周期を変更するCPU40を更に備えているので、撮影シーンの特定精度の低下を抑制しつつ、GPS情報の更新に要する消費電力を抑制することができる。
 また、本実施の形態では、撮影によって取得された画像情報に基づいて、撮影地点における撮影シーンの変化を検出する撮影シーン検出手段としてのCPU40を更に備えている。
 また、本実施の形態では、予め定められた周期を変更する条件として、CPU40によって撮影シーンの所定量以上の変化が検出された、との条件を適用しているので、撮影シーンの特定精度の低下を抑制しつつ、GPS情報の更新に要する消費電力を抑制することができる。
 なお、上記実施の形態では、GPS更新処理を固定周期で実行する場合の形態例を挙げて説明したが、GPS更新処理を実行する周期を変動させても良い。例えば、デジタルカメラ10の電池の残量が基準値以上の場合に、GPSを用いたGPS情報及び時刻情報の取得を可能にすると共に、電池の残量に応じて更新周期を変更しても良い。この場合、一例として図14に示すようにGPS更新処理プログラムのステップ300の前段にステップ400,402,404を追加する形態例が挙げられる。ステップ400では、電池の残量を取得した後、ステップ402に移行し、上記ステップ400の処理によって取得された電池の残量が基準値以上であるか否かを判定し、否定判定となった場合にはGPS更新処理プログラムを終了する。一方、ステップ402において肯定判定となった場合にはステップ404に移行し、電池の残量に応じた更新周期を設定した後、ステップ300に移行する。上記ステップ404では、例えば、電池の残量が少ないほど更新周期が長くなるように電池の残量に対して一意に定められた周期を設定すれば良い。これにより、GPS情報及び時刻情報を取得する際に要する電力消費を抑えることができる。
 また、デジタルカメラ10の電池の残量が基準値以上であり、かつ撮影地点における撮影シーンの所定量以上の変化が検出された場合に限り、更新周期を変更しても良い。この場合、単にデジタルカメラ10の電池の残量が基準値以上であれば更新周期を変更する場合に比べ、更新周期を変更する条件として更なる条件が加わっているため、GPS情報及び時刻情報を取得する際に要する電力消費をより一層抑えることが可能となる。なお、デジタルカメラ10の電池の残量に拘らず、撮影地点における撮影シーンの所定量以上の変化が検出された場合に限り、更新周期を変更しても良い。
 また、GPS情報及び時刻情報を取得する際に要する電力消費を抑えるために有効なその他の形態例としては、例えば、図15に示すように、データベースCにおいて、GPS情報に関連付けられた第2撮影シーン候補情報と、GPS情報により特定される位置を含む予め定められた領域(例えば、GPS情報により特定される位置を中心とした半径300m以内の領域)内に含まれる撮影シーンを特定する撮影シーン情報との類似度をGPS情報毎に関連付けて記憶しておき、GPS受信部58によってGPS情報が受信された場合、受信されたGPS情報に関連付けられている類似度が大きいほど長い更新周期を設定するようにしても良い。これにより、撮影地点における撮影シーンが前回撮影したときとほとんど変わらないようなところ(例えば、大草原の真ん中や巨大砂漠の真ん中)であれば、GPS情報の更新周期(GPSの更新周期)を長くしてもほとんど問題はない。これに対し、撮影地点における撮影シーンが目まぐるしく変化するようなところ(例えば、都心の人通りの多い道路)であれば、GPS情報の更新周期を短くすることで撮影シーンを高精度に認識することが可能となる。
 また、上記実施の形態では、特定のオブジェクト及び被写体画像に含まれる色に基づいてその被写体画像が予め定められた類似度以上で類似している第1撮影シーン候補(第2撮影シーン候補)を選定する場合の形態例を挙げて説明したが、撮影支援情報が予め定められた類似度以上で類似している第1撮影シーン候補(第2撮影シーン候補)を選定しても良い。この場合、データベースA及びデータベースBに含まれる第1撮影シーン候補情報に撮影支援情報として予め定められた撮影支援情報(例えば分割測光値)を関連付けておき、データベースA,Bにおいて、実際の撮影で用いられた撮影支援情報に相当する撮影支援情報に対応する第1撮影シーン候補情報を選定すれば良い。また、特定のオブジェクト及び被写体画像に含まれる色に基づいて第1撮影シーン候補情報を選定する方法と併用して、撮影に供した撮影支援情報から第1撮影シーン候補情報を選定する方法を適用しても良い。この場合、特定のオブジェクトから認識された第1撮影シーン候補情報が複数ある場合に、それらから更に撮影支援情報を用いて第1撮影シーン候補情報を絞ることが可能となり、現状に応じた撮影シーンをより高精度に認識することできる。なお、「第1撮影シーン候補情報を絞る」とは、例えば、複数の第1撮影シーン候補情報のうち、第1撮影シーン候補情報に含まれる撮影支援情報が撮影に供した撮影支援情報に最も類似している第1撮影シーン候補情報を選定する、ということである。
 また、上記実施の形態では、時刻情報としてGPS受信部58によって受信されたものを適用する場合の形態例を挙げて説明したが、これに限らず、デジタルカメラ10にRTC(リアルタイムクロック)を搭載しておき、RTCから時刻情報を取得するようにしても良い。このようにデジタルカメラ10にRTCを搭載しておくことで、仮に何らかの理由でGPSを用いて時刻情報を取得することができなかったとしても、RTCから得た時刻を用いて第2撮影シーン候補を選定することが可能となる。
 また、上記実施の形態では、データベースCにおいて、GPS受信部58によって受信されたGPS情報及び時刻情報に基づいて第2撮影シーン候補を導出するようにしたが、これに限らず、GPS受信部58によって受信されたGPS情報又は時刻情報から第2撮影シーン候補を導出しても良い。また、一例として図3に示すデータベースCを用いて、GPS受信部58によって受信されたGPS情報に対応する位置情報に関連付けられており、かつ所定信頼度信頼度以上の信頼度の第2撮影シーン候補を導出し、導出した第2撮影シーン候補を現在の撮影地点における撮影シーンとして認識しても良い。
 また、上記実施の形態では、データベースCにおいて全ての位置情報に対して第2撮影シーン候補情報及び信頼度が関連付けられているため、GPSを用いて取得したGPS情報に対応する位置情報から直接的に第2撮影シーン候補情報及び信頼度を選定することができたが、データベースCに含まれる全ての位置情報に対して第2撮影シーン候補情報及び信頼度を関連付けなくても良い。この場合、GPSを用いて取得したGPS情報に対応する位置情報以外の複数の位置情報の各々に関連付けられている第2撮影シーン候補情報及び信頼度から補間法により第2撮影シーン候補及び信頼度を導出すれば良い。また、この場合、第2撮影シーン候補情報及び信頼度に重み値を予め付与しておくことで、撮影シーンを高精度に認識することが可能となる。
 また、上記実施の形態では、CPU40によってシーン認識処理プログラムが実行されることによりシーン認識処理プログラムの各ステップを実現するソフトウェア的な形態を例示したが、これに限らず、各種回路(一例として、ASIC(Application Specific Integrated Circuit))を接続して構成されるハードウェア的な形態や、ソフトウェア的な形態とハードウェア的な形態とを組み合わせた形態が挙げられる。
 また、上記各実施の形態では、シーン認識処理プログラムがメモリ48に予め記憶されている場合の形態例を挙げて説明したが、本発明はこれに限定されるものではなく、これらのプログラムをCD-ROMやDVD-ROM、USBメモリなどのコンピュータによって読み取られる記録媒体に格納した状態で提供する形態を適用してもよいし、有線又は無線による通信手段を介して配信する形態を適用しても良い。
 日本国特許出願2011-122119号の開示はその全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 

Claims (16)

  1.  被写体を撮影することにより被写体画像を取得する撮影手段と、
     作動された場合にGPSを利用して撮影地点の位置を特定するGPS情報を取得する取得手段と、
     予め定められた条件を満足した場合に前記取得手段を作動させる作動手段と、
     前記GPS情報により特定可能な地理的な位置を示す位置情報と該位置情報により示される位置における撮影シーンを示す撮影シーン情報とを関連付けて予め記憶した記憶手段と、
     前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、該位置情報に関連付けられた撮影シーン情報、及び前記撮影手段によって取得された被写体画像と該被写体画像を取得するための撮影に先立って取得されて該撮影を支援する撮影支援情報との少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識し、前記作動手段が作動されなかった場合、前記作動手段によって前記取得手段が作動されたにも拘らず前記取得手段によって前記GPS情報が取得されなかった場合、及び前記作動手段によって作動された前記取得手段によって取得されたGPS情報に対応する位置情報が前記記憶手段に記憶されていない場合の少なくとも1つの場合、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識するシーン認識手段と、
     を含む撮影装置。
  2.  前記シーン認識手段は、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、予め定められた複数の撮影シーン候補を示す複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影条件の少なくとも一方が予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識する、
     請求項1に記載の撮影装置。
  3.  前記記憶手段は、前記撮影シーン情報を複数有する撮影シーン情報群を記憶し、
     前記シーン認識手段は、
     前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報を前記撮影シーン情報群が有する複数の撮影シーン情報に相当する情報とし、該複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識し、
     前記少なくとも1つの場合、前記撮影シーン候補情報の数を前記撮影シーン情報群が有する複数の撮影シーン情報の数よりも少なくすると共に前記撮影シーン候補情報を前記撮影シーン情報に相当する情報とし、該撮影シーン候補情報のうち、前記撮影手段によって取得された被写体画像及び前記撮影条件の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識する、
     請求項2に記載の撮影装置。
  4.  前記記憶手段は、更に、前記撮影シーン情報に対して該撮影シーン情報により示される撮影シーンの時刻を示す時刻情報を関連付けて記憶し、
     現在の時刻を取得する時刻取得手段を更に含み、
     前記シーン認識手段は、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報及び前記時刻取得手段によって取得された現在の時刻に対応する時刻情報に関連付けられている撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識する、
     請求項2又は請求項3に記載の撮影装置。
  5.  前記記憶手段は、更に、前記撮影シーン情報に対して該撮影シーン情報により示される撮影シーンの信頼度を関連付けて記憶し、
     前記シーン認識手段は、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報及び前記時刻取得手段によって取得された現在の時刻に対応する時刻情報に関連付けられている撮影シーン情報であって、かつ所定信頼度以上の信頼度の撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識する、
     請求項4に記載の撮影装置。
  6.  前記記憶手段は、更に、前記撮影シーン情報に対して該撮影シーン情報により示される撮影シーンの信頼度を関連付けて記憶し、
     前記シーン認識手段は、前記作動手段によって作動された前記取得手段によって取得されたGPS情報が前記記憶手段に記憶されている位置情報に対応する場合、前記複数の撮影シーン候補情報から、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方が前記予め定められた類似度以上で類似している撮影シーン候補情報を選定し、選定した撮影シーン候補情報のうち、前記記憶手段に記憶されている前記撮影シーン情報のうちの前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている撮影シーン情報であって、かつ所定信頼度以上の信頼度の撮影シーン情報に相当する撮影シーン候補情報により示される撮影シーン候補を現在の撮影地点における撮影シーンとして認識する、
     請求項2又は請求項3に記載の撮影装置。
  7.  前記信頼度を2値で示した請求項5又は請求項6に記載の撮影装置。
  8.  前記記憶手段の記憶内容を変更する指示を受け付ける受付手段と、
     前記受付手段によって受け付けられた指示に従って前記記憶手段の記憶内容を変更する変更手段と、
     を更に含む請求項1~請求項7の何れか1項に記載の撮影装置。
  9.  前記取得手段を、前記作動手段によって前記取得手段が作動されてから予め定められた周期で前記GPS情報を取得可能とし、
     前記周期を変更する条件として予め定められた変更条件を満足した場合に該周期を変更する周期変更手段を更に含む、
     請求項1~請求項8の何れか1項に記載の撮影装置。
  10.  前記撮影手段によって取得された画像情報に基づいて、撮影地点における撮影シーンの変化を検出する撮影シーン検出手段を更に含み、
     前記変更条件を、前記撮影シーン検出手段によって撮影シーンの所定量以上の変化が検出された、との条件とした、
     請求項9に記載の撮影装置。
  11.  前記撮影装置の駆動用電源の電力の残量を検出する電力検出手段を更に含み、
     前記変更条件を、前記電力検出手段によって基準値以上の前記残量が検出され、かつ前記撮影シーン検出手段によって撮影シーンの所定量以上の変化が検出された、との条件とした、
     請求項10に記載の撮影装置。
  12.  前記撮影装置の駆動用電源の電力の残量を検出する電力検出手段を更に含み、
     前記変更条件を、前記電力検出手段によって基準値以上の前記残量が検出された、との条件とした、
     請求項9に記載の撮影装置。
  13.  前記記憶手段は、更に、前記位置情報に関連付けられた前記撮影シーン情報により示される撮影シーンと、該位置情報により示される位置を含む予め定められた領域内に含まれる撮影シーンとの類似度を前記位置情報毎に関連付けて記憶し、
     前記取得手段を、前記作動手段によって前記取得手段が作動されてから予め定められた周期で前記位置情報を取得可能とし、
     前記取得手段によって取得された前記GPS情報に対応する位置情報に関連付けられている前記類似度が大きいほど前記周期を長くする周期変更手段を更に含む、
     請求項1~請求項8の何れか1項に記載の撮影装置。
  14.  前記撮影装置の駆動用電源の電力の残量を検出する電力検出手段を更に含み、
     前記取得手段は、作動された場合に前記電力検出手段によって基準値以上の前記残量が検出されたときに前記GPS情報を取得する、
     請求項1~請求項13の何れか1項に記載の撮影装置。
  15.  前記位置情報の精度を、地図上の番地を認識する場合に要求される精度よりも低くした請求項1~請求項14の何れか1項に記載の撮影装置。
  16.  コンピュータを、
     作動された場合にGPSを利用して撮影地点の位置を特定するGPS情報を取得する取得手段を予め定められた条件を満足した場合に作動させる作動手段、並びに、
     前記作動手段によって作動された前記取得手段によって取得されたGPS情報が、前記GPS情報により特定可能な地理的な位置を示す位置情報と該位置情報により示される位置における撮影シーンを示す撮影シーン情報とを関連付けて予め記憶した記憶手段に記憶されている位置情報に対応する場合、該位置情報に関連付けられた撮影シーン情報、及び被写体を撮影することにより被写体画像を取得する撮影手段によって取得された被写体画像と該被写体画像を取得するための撮影に先立って取得されて該撮影を支援する撮影支援情報との少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識し、前記作動手段が作動されなかった場合、前記作動手段によって前記取得手段が作動されたにも拘らず前記取得手段によって前記GPS情報が取得されなかった場合、及び前記作動手段によって作動された前記取得手段によって取得されたGPS情報に対応する位置情報が前記記憶手段に記憶されていない場合の少なくとも1つの場合、前記撮影手段によって取得された被写体画像及び前記撮影支援情報の少なくとも一方に基づいて、現在の撮影地点における撮影シーンを認識するシーン認識手段、
     として機能させるためのプログラム。
PCT/JP2012/060998 2011-05-31 2012-04-24 撮影装置及びプログラム WO2012165088A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013517931A JP5425341B2 (ja) 2011-05-31 2012-04-24 撮影装置及びプログラム
CN201280026660.6A CN103563351B (zh) 2011-05-31 2012-04-24 拍摄装置及方法
US14/092,419 US8913158B2 (en) 2011-05-31 2013-11-27 Shooting device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011122119 2011-05-31
JP2011-122119 2011-05-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/092,419 Continuation US8913158B2 (en) 2011-05-31 2013-11-27 Shooting device and program

Publications (1)

Publication Number Publication Date
WO2012165088A1 true WO2012165088A1 (ja) 2012-12-06

Family

ID=47258952

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060998 WO2012165088A1 (ja) 2011-05-31 2012-04-24 撮影装置及びプログラム

Country Status (4)

Country Link
US (1) US8913158B2 (ja)
JP (1) JP5425341B2 (ja)
CN (1) CN103563351B (ja)
WO (1) WO2012165088A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162242A (ja) * 2014-02-28 2015-09-07 シャープ株式会社 ネットワークシステム、通信方法、サーバ、サーバ用プログラム、端末、端末用プログラム
WO2016199213A1 (ja) * 2015-06-09 2016-12-15 日立マクセル株式会社 画像取得装置、およびそれに用いる位置情報取得方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155005A (ja) * 2013-02-07 2014-08-25 Canon Inc 表示装置及びその制御方法
CN105812646A (zh) * 2014-12-30 2016-07-27 Tcl集团股份有限公司 一种拍照方法、装置以及图像处理方法、装置和通信***
KR101692643B1 (ko) * 2015-11-18 2017-01-03 재단법인 다차원 스마트 아이티 융합시스템 연구단 저전력 무선 카메라 및 센서 시스템
US10679326B2 (en) * 2015-11-24 2020-06-09 Canon Kabushiki Kaisha Image data processing apparatus and image data processing method that determine confidence data indicating a level of confidence in a pixel value in high resolution image data
JP2017220826A (ja) * 2016-06-08 2017-12-14 オリンパス株式会社 情報端末装置、撮影機会提供方法、及びプログラム
JP6914480B2 (ja) * 2016-06-27 2021-08-04 カシオ計算機株式会社 指標表示装置、指標表示方法、プログラム、及び指標表示システム
CN108600634B (zh) * 2018-05-21 2020-07-21 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备
CN110619251B (zh) * 2018-06-19 2022-06-10 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备
CN109271899A (zh) * 2018-08-31 2019-01-25 朱钢 一种提高Ai智慧摄影场景识别准确率的实现方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228118A (ja) * 2006-02-22 2007-09-06 Seiko Epson Corp 撮影シーンの決定
JP2007258927A (ja) * 2006-03-22 2007-10-04 Seiko Epson Corp 撮像装置
JP2007306461A (ja) * 2006-05-15 2007-11-22 Sony Ericsson Mobilecommunications Japan Inc カメラ付き携帯端末及びその撮影モード特定方法
JP2008177780A (ja) * 2007-01-17 2008-07-31 Olympus Imaging Corp デジタルカメラ
JP2009060195A (ja) * 2007-08-30 2009-03-19 Fujifilm Corp 撮像装置および方法並びにプログラム
JP2009077157A (ja) * 2007-09-20 2009-04-09 Fujifilm Corp 撮影制御方法、撮像装置、撮影意図判定装置、及び撮影システム
JP2010045436A (ja) * 2008-08-08 2010-02-25 Olympus Imaging Corp カメラ及び撮影システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP2007184733A (ja) * 2006-01-05 2007-07-19 Fujifilm Corp 撮像装置及び撮影モード表示方法
JP4609338B2 (ja) * 2006-02-09 2011-01-12 セイコーエプソン株式会社 撮影パラメータ値の設定
JP2008167307A (ja) * 2006-12-28 2008-07-17 Olympus Imaging Corp デジタルカメラ

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228118A (ja) * 2006-02-22 2007-09-06 Seiko Epson Corp 撮影シーンの決定
JP2007258927A (ja) * 2006-03-22 2007-10-04 Seiko Epson Corp 撮像装置
JP2007306461A (ja) * 2006-05-15 2007-11-22 Sony Ericsson Mobilecommunications Japan Inc カメラ付き携帯端末及びその撮影モード特定方法
JP2008177780A (ja) * 2007-01-17 2008-07-31 Olympus Imaging Corp デジタルカメラ
JP2009060195A (ja) * 2007-08-30 2009-03-19 Fujifilm Corp 撮像装置および方法並びにプログラム
JP2009077157A (ja) * 2007-09-20 2009-04-09 Fujifilm Corp 撮影制御方法、撮像装置、撮影意図判定装置、及び撮影システム
JP2010045436A (ja) * 2008-08-08 2010-02-25 Olympus Imaging Corp カメラ及び撮影システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162242A (ja) * 2014-02-28 2015-09-07 シャープ株式会社 ネットワークシステム、通信方法、サーバ、サーバ用プログラム、端末、端末用プログラム
WO2016199213A1 (ja) * 2015-06-09 2016-12-15 日立マクセル株式会社 画像取得装置、およびそれに用いる位置情報取得方法

Also Published As

Publication number Publication date
US20140132801A1 (en) 2014-05-15
JPWO2012165088A1 (ja) 2015-02-23
CN103563351B (zh) 2015-11-25
JP5425341B2 (ja) 2014-02-26
US8913158B2 (en) 2014-12-16
CN103563351A (zh) 2014-02-05

Similar Documents

Publication Publication Date Title
JP5425341B2 (ja) 撮影装置及びプログラム
US8599251B2 (en) Camera
US9013589B2 (en) Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image
WO2010001778A1 (ja) 撮像装置、画像表示装置および電子カメラ
JP5194650B2 (ja) 電子カメラ
US8558923B2 (en) Image capturing apparatus and method for selective real time focus/parameter adjustment
US8412031B2 (en) Camera with a function of automatically setting shooting conditions and shooting method
US9900525B2 (en) Image processing device, imaging device, image processing method, and image processing program generating a split image
JP4984044B2 (ja) 撮影システム及びその撮影条件の設定方法と、それに用いられる端末及びサーバ
US20140210941A1 (en) Image capture apparatus, image capture method, and image capture program
US8189055B2 (en) Digital photographing apparatus and method of controlling the same
JP5186984B2 (ja) 電子カメラ
JP2007258927A (ja) 撮像装置
CN113315956B (zh) 图像处理设备、摄像设备、图像处理方法和机器可读介质
JP5800664B2 (ja) 撮像装置およびその制御方法
US20130135442A1 (en) Digital photographing apparatus and control method thereof
JP5851133B2 (ja) 画像再生装置、画像再生方法およびプログラム
JP2009111827A (ja) 撮影装置及び画像ファイル提供システム
US20110205396A1 (en) Apparatus and method, and computer readable recording medium for processing, reproducing, or storing image file including map data
JP5181935B2 (ja) 画像処理装置、プログラム及び被写体検出方法
JP2005072949A (ja) 画像撮影装置及びプログラム
JP2006345162A (ja) デジタルカメラ
JP4757828B2 (ja) 画像合成装置、撮影装置、画像合成方法及び画像合成プログラム
JP2003333397A (ja) カメラ
JP2012134767A (ja) ウェーブフォーム表示機能を備えたカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12792098

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013517931

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12792098

Country of ref document: EP

Kind code of ref document: A1