WO2024122396A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
WO2024122396A1
WO2024122396A1 PCT/JP2023/042469 JP2023042469W WO2024122396A1 WO 2024122396 A1 WO2024122396 A1 WO 2024122396A1 JP 2023042469 W JP2023042469 W JP 2023042469W WO 2024122396 A1 WO2024122396 A1 WO 2024122396A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
information
imaging
image
unit
Prior art date
Application number
PCT/JP2023/042469
Other languages
English (en)
French (fr)
Inventor
陽介 平塚
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024122396A1 publication Critical patent/WO2024122396A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • This disclosure relates to an image processing device and method, and in particular to an image processing device and method that can suppress a decrease in the usability of captured images.
  • an imaging device or the like stores an imaging time indicating the generation timing of an image in a file together with the image (i.e., adds the imaging time to the image)
  • the imaging device manages time information that allows a user or the like to set the time in order to generate this imaging time.
  • This time information is also called local time information
  • the imaging time indicated by this local time information is also called imaging local time.
  • the time of this local time information can be set by a user or the like, it is easy to make the imaging times correspond (synchronize the times) between imaging devices. Therefore, by using this imaging local time, it is easier to align a group of images generated by multiple imaging devices based on the imaging time.
  • it is easy to tamper with the imaging local time it has been difficult to guarantee that the imaging local time is the actual imaging time of the image.
  • This time information is also called server time information
  • the imaging time indicated by this server time information is also called imaging server time.
  • the time of this server time information was managed in a state in which it could not be changed by users, etc. Therefore, it was possible to guarantee with a certain degree of accuracy that the imaging server time was the actual imaging time of the captured image.
  • the time information in the imaging device is managed using a clock signal generated by a crystal oscillator in the imaging device, the accuracy is generally not high enough. Therefore, the server time information is prone to discrepancies between imaging devices, and it was difficult to use it to align a group of captured images generated by multiple imaging devices based on the imaging time.
  • This disclosure has been made in light of these circumstances, and aims to prevent any reduction in the usability of captured images.
  • An image processing device is an image processing device that includes a setting unit that sets a first time, an acquisition unit that acquires a second time provided from a server, a time management unit that manages the first time information, the start time of which is the set first time, and the second time information, the start time of which is the acquired second time, using a local clock generated within the device, an imaging unit that captures an image of a subject and generates an image, and a file generation unit that generates a file that stores the captured image, the first imaging time, which indicates the timing of generation of the captured image by the first time information, and the second imaging time, which indicates the timing of generation by the second time information.
  • An image processing method is an image processing method that sets a first time, acquires a second time provided from a server, manages first time information whose start time is the set first time and second time information whose start time is the acquired second time using a local clock generated within the device, captures an image of a subject to generate a captured image, and generates a file that stores the captured image, the first capture time in which the timing of generation of the captured image is indicated by the first time information, and the second capture time in which the timing of generation is indicated by the second time information.
  • An image processing device includes a file acquisition unit that acquires a file in which a captured image generated by an imaging device, a first imaging time indicating the timing of generation of the captured image by first time information, and a second imaging time indicating the timing of generation by second time information are stored, and a display processing unit that displays the captured image, the first imaging time, and the second imaging time, wherein the first time information is time information that starts at a first time set in the imaging device and is managed using a local clock generated within the imaging device, and the second time information is time information that starts at a second time supplied from a server to the imaging device and is managed using the local clock.
  • An image processing method is an image processing method that acquires a file in which a captured image generated by an imaging device, a first imaging time indicating the timing of generation of the captured image by first time information, and a second imaging time indicating the timing of generation by second time information are stored, and displays the captured image, the first imaging time, and the second imaging time, in which the first time information is time information that starts at a first time set in the imaging device and is managed using a local clock generated within the imaging device, and the second time information is time information that starts at a second time provided to the imaging device from a server and is managed using the local clock.
  • a first time is set, a second time provided from a server is acquired, the first time information having the set first time as a start time and the second time information having the acquired second time as a start time are managed using a local clock generated within the device, a subject is imaged to generate an image, and a file is generated that stores the image, the first image capture time indicating the timing of generation of the image using the first time information, and the second image capture time indicating the timing of generation using the second time information.
  • a file is acquired in which a captured image generated by an imaging device, a first imaging time indicating the timing of generation of the captured image by first time information, and a second imaging time indicating the timing of generation of the captured image by second time information are stored, and the captured image, the first imaging time, and the second imaging time are displayed.
  • FIG. 13 is a diagram illustrating an example of a method for generating an image file.
  • FIG. 1 is a diagram illustrating an example of a main configuration of an image processing system. 1 is a block diagram showing an example of a main configuration of an imaging apparatus; 1 is a block diagram showing an example of a main configuration of a display device; 2 is a block diagram showing an example of the main configuration of a clock server; FIG. 13 is an external view showing a display example.
  • 11 is a flowchart illustrating an example of the flow of a local time setting process.
  • 11 is a flowchart illustrating an example of the flow of a server time acquisition process.
  • 11 is a flowchart illustrating an example of the flow of an imaging process.
  • 11 is a flowchart illustrating an example of the flow of an image display process.
  • 11 is a flowchart illustrating an example of the flow of an image display process.
  • 11 is a flowchart illustrating an example of the flow of an imaging process.
  • 11 is a flowchart illustrating an example of the flow of an imaging process.
  • 11 is a flowchart illustrating an example of the flow of an image display process.
  • 13 is a flowchart illustrating an example of the flow of a deviation amount information supply process.
  • 11 is a flowchart illustrating an example of the flow of an image display process.
  • 13 is a flowchart illustrating an example of the flow of a corrected imaging server time supply process.
  • 11 is a flowchart illustrating an example of the flow of an imaging process.
  • 11 is a flowchart illustrating an example of the flow of a server time acquisition process.
  • 11 is a flowchart illustrating an example of the flow of an image display process.
  • 11 is a flowchart illustrating an example of the flow of a server time acquisition process.
  • 13 is a flowchart illustrating an example of the flow of a server time supply process.
  • 11 is a flowchart illustrating an example of the flow of an imaging process.
  • 11 is a flowchart illustrating an example of the flow of an operation mode setting process.
  • FIG. 2 is a block diagram showing an example of a main configuration of a computer.
  • Patent Document 1 (above)
  • time is a value indicating timing
  • the unit of the value may include any unit related to time, such as, for example, year, month, week, day, hour, minute, second, etc.
  • time information includes any information that may indicate such time.
  • an imaging device or the like stores an imaging time indicating the generation timing of an image in a file together with the image (i.e., adds the imaging time to the image).
  • the imaging device manages time information that allows a user or the like to set the time in order to generate this imaging time.
  • this time information is also referred to as local time information.
  • the imaging time indicated by this local time information is also referred to as imaging local time.
  • the time set by a user or the like is also referred to as set local time.
  • the local time information is managed using a clock signal obtained by a crystal oscillator in the imaging device, with the start time being a time set by a user or the like (set local time). In other words, the time is advanced from the start time (set local time) by the clock signal.
  • this clock signal is also referred to as the local clock.
  • the time of this local time information can be set by a user, etc., so that the imaging times can be easily matched (time synchronization) between imaging devices.
  • the imaging times of the images generated by each imaging device can be matched.
  • the local time information of each imaging device is unified with a specified degree of accuracy. Therefore, by using this imaging local time, it is easier to align a group of images generated by multiple imaging devices based on their imaging times.
  • This time adjustment may be performed by any method.
  • wired or wireless communication may be used between the imaging devices to adjust the time.
  • Such a method allows for more accurate time adjustment.
  • this requires a communication function or a stable communication environment, and the conditions for achieving this are stricter.
  • the user of each imaging device may also manually adjust the time. For example, the same local time may be set in each imaging device, and management (time progression) may begin simultaneously (at the same timing).
  • This method allows for easy and inexpensive time adjustment without the need for communication. Note that time adjustment with an accuracy of about one tenth of a second can be easily achieved using this method.
  • the time of the local time information is easily tampered with.
  • a time different from the actual time can easily be set as the set local time.
  • This can reduce the accuracy of the image capturing local time.
  • accuracy refers to the smallness of the deviation between the local time information and the standard time information. The smaller the deviation from the standard time information, the more accurate (highly accurate) the local time information (image capturing local time) is. In other words, the greater the deviation from the standard time information, the more inaccurate (less accurate) the local time information (image capturing local time) is.
  • the current time is obtained from a clock server or the like that manages standard time information, and time information based on this current time is managed by the imaging device in order to generate the imaging time.
  • this time information is also referred to as server time information.
  • the imaging time indicated by this server time information is also referred to as imaging server time.
  • the current time obtained from the clock server or the like i.e., the time at which the current time was obtained, as indicated by the server time information
  • the time of this server time information was managed in a state where it could not be changed by the user, etc. Therefore, the accuracy of the imaging server time (server time information) could be guaranteed with a certain degree of precision.
  • accuracy refers to the small amount of deviation between the server time information and the standard time information, just as in the case of local time information.
  • the imaging server time could be used as a more accurate imaging time for an image. Therefore, for example, the imaging server time could be used to determine the authenticity of an image.
  • the time information is managed using a clock signal generated by a crystal oscillator in the imaging device, so the accuracy is generally not high enough and depends on the individual device. Therefore, as time passes from days, months, and years, the accuracy of the server time information may decrease (i.e., the deviation between the server time information and the standard time information may increase). In other words, as time passes from the acquired server time, the accuracy of the correspondence between the server time information between imaging devices may decrease (i.e., the deviation between the server time information between imaging devices may increase).
  • the correspondence between the imaging devices is required to be more accurate than the image capture time when used for authenticity determination. Therefore, when the accuracy of the correspondence between the server time information between imaging devices decreases as described above, it is difficult to make the correspondence between the imaging server time between the imaging devices sufficiently accurate to be used for aligning the group of captured images.
  • a first image processing device includes a setting unit that sets a first time (set local time), an acquisition unit that acquires a second time (acquired server time) supplied from a server (such as a clock server), a time management unit that uses a local clock generated within the first image processing device to manage the first time information (local time information) whose start time is the set first time and the second time information (server time information) whose start time is the acquired second time, an imaging unit that images a subject and generates an image, and a file generation unit that generates a file that stores the image, the first imaging time (imaging local time) whose generation timing for the image is indicated by the first time information, and the second imaging time (imaging server time) whose generation timing is indicated by the second time information.
  • a first time is set, a second time provided from a server is acquired, and the first time information having the set first time as a start time and the second time information having the acquired second time as a start time are managed using a local clock generated within the first image processing device, an image of a subject is captured to generate an captured image, and a file is generated that stores the captured image, the first capture time indicating the timing of the capture image generation by the first time information, and the second capture time indicating the timing of the capture image generation by the second time information.
  • the local time information is time information that allows a user or the like to set a set local time (first time).
  • the imaging device may have an interface (input unit) that accepts input related to this setting.
  • the server time information (second time information) is time information based on an acquired server time (second time) acquired from a clock server or the like that manages and provides standard time information (global clock).
  • the imaging device manages this server time information in a state in which it cannot be set by a user or the like.
  • the imaging device may have an interface (communication unit, etc.) that acquires the acquired server time provided from a clock server or the like. Note that the timing at which this acquired server time is acquired may be any timing.
  • the imaging device manages the local time information and server time information using a local clock.
  • "manage" means to advance the time.
  • the imaging device advances the time using the local clock, starting from a set local time set by a user or the like.
  • server time information the imaging device advances the time using the local clock, starting from an acquired server time (the current time indicated by the standard time information) acquired from a clock server or the like.
  • an imaging device When an imaging device captures an image of a subject and generates an image, it indicates the timing at which the image was generated (imaging time) using local time information and server time information. In other words, the imaging device generates information indicating the imaging time in the local time information (imaging local time) and information indicating the imaging time in the server time information (imaging server time). The imaging device stores these in a file together with the captured image.
  • the file is supplied to a display device (second image processing device) via a communication medium or a storage medium.
  • the display device acquires the file and displays the captured image stored in the file, the local image capture time, and the image capture server time.
  • the second image processing device includes a file acquisition unit that acquires a file that stores an image generated by an imaging device (first image processing device), a first imaging time (imaging local time) that indicates the timing of generation of the image by first time information (local time information), and a second imaging time (imaging server time) that indicates the timing of generation by second time information (server time information), and a display processing unit that displays the image, the first imaging time, and the second imaging time.
  • first image processing device acquires a file that stores an image generated by an imaging device (first image processing device), a first imaging time (imaging local time) that indicates the timing of generation of the image by first time information (local time information), and a second imaging time (imaging server time) that indicates the timing of generation by second time information (server time information), and a display processing unit that displays the image, the first imaging time, and the second imaging time.
  • a second image processing device acquires a file that stores the captured image generated by the imaging device, a first capture time that indicates the timing of generation of the captured image using first time information, and a second capture time that indicates the timing of generation of the captured image using second time information, and displays the captured image, the first capture time, and the second capture time.
  • the first time information is time information that starts from a first time (set local time) set in the imaging device (first image processing device) and is managed using a local clock generated within the imaging device.
  • the second time information is time information that starts from a second time (obtained server time) supplied to the imaging device from a server (clock server, etc.) and is managed using a local clock.
  • a user of the display device can determine the authenticity of the displayed captured image (whether or not it has been tampered with or the possibility of it being tampered with, etc.) based on the imaging server time (second imaging time) displayed in this way. For example, if the imaging server time is an impossible time for the contents of the captured image, the user can suspect that the captured image may have been tampered with.
  • the server time information (second time information) is managed in a state in which it cannot be changed by the user, etc. Therefore, the accuracy of the imaging server time (server time information) can be guaranteed with a certain degree of precision. This allows the user to more accurately determine the authenticity of the captured image.
  • the user of the display device can align a group of captured images generated by multiple imaging devices whose local time information (first time information) has been synchronized.
  • local time information can be easily made to correspond between imaging devices. Therefore, by using the imaging local time, it is possible to more easily and accurately align a group of captured images generated by multiple imaging devices based on the imaging time.
  • the display device may also determine the authenticity of the captured image based on the local image capture time and the image capture server time.
  • the second information processing device may further include an authenticity determination unit that determines the authenticity of the captured image based on the first imaging time (imaging local time) and the second imaging time (imaging server time).
  • the display processing unit may then be configured to display the result of the authenticity determination.
  • the display device can more accurately determine the authenticity of the captured image.
  • the user of the display device can confirm a more accurate result of determining the authenticity of the captured image.
  • the imaging device may also digitally sign the local imaging time and the imaging server time.
  • the first information processing device may further include a signature generation unit that generates an electronic signature for the captured image, the first imaging time (imaging local time), and the second imaging time (imaging server time).
  • the file generation unit may then be configured to store the generated electronic signature in a file.
  • the imaging device can prevent tampering with the imaging local time and imaging server time.
  • Method 1-1 When the above-mentioned method 1 is applied, as shown in the second row from the top of the table in FIG. 1, the acquisition time of the server time (acquired server time) may be stored in a file (method 1-1).
  • the file generation unit may be configured to store in the file a second time (acquisition server time) indicating the acquisition timing.
  • the clock server or the like supplies the current time in the standard time information to the terminal side.
  • the imaging device acquires that current time.
  • that current time is used as the start time of the server time information.
  • that current time can also be said to be the time in the server time information that indicates the timing at which that current time was acquired. Therefore, that current time is also referred to as the acquired server time.
  • the imaging device may hold that acquired server time (the current time in the standard time information acquired from the clock server or the like).
  • the imaging device may then store that acquired server time in a file together with the captured image, the imaging local time, and the imaging server time, etc.
  • the imaging device may then supply that file to a display device or the like.
  • the display device when the display device acquires the file, it may perform processing using the acquisition server time stored in the file.
  • This acquisition server time may be used in any way.
  • the display device may use the acquisition server time to determine the reliability of the imaging server time.
  • the display device may also display the reliability determination result.
  • the second image processing device may further include a reliability determination unit that determines the reliability of the second imaging time (imaging server time).
  • the display processing unit may then be configured to display the determined reliability.
  • the display device may determine the reliability of the imaging server time, for example, based on the length of time between the acquisition server time and the imaging server time. For example, the longer the time between the acquisition server time and the imaging server time, the lower the reliability of the imaging server time may be determined. In this way, the display device can present the reliability of the imaging server time. In other words, the user of the display device can more easily check the reliability of the imaging server time.
  • the imaging server time may also be corrected based on the acquired server time.
  • a display device may display the imaging server time corrected based on the acquired server time.
  • correction refers to a process of reducing the amount of deviation from the standard time information.
  • correcting the imaging server time refers to a process of bringing the imaging server time closer to the imaging time indicated by the standard time information.
  • the deviation between the imaging server time and the imaging time based on the standard time information can be derived based on the time from the acquisition server time to the imaging server time and the deviation per unit time of the local clock. Therefore, by correcting the imaging server time with the derived deviation, the time can be brought closer to the imaging time based on the standard time information.
  • the second time (acquired server time) may be stored in the file.
  • the display processing unit may then be configured to display the second imaging time (imaging server time) corrected based on the deviation amount per unit time of the local clock and the second time.
  • the deviation per unit time of the local clock may be managed by any device.
  • the imaging device may manage the deviation per unit time.
  • a clock server or the like may manage the deviation per unit time.
  • the clock server may manage the deviation per unit time of the local clock for each device.
  • an information processing device (clock server) has a deviation management unit that manages the deviation per unit time of the local clock generated in each of the other devices.
  • the information processing device manages the deviation per unit time of the local clock generated in other devices for each other device.
  • the clock server can more easily provide the deviation per unit of time of the local clock of the requested (specified) device.
  • the imaging device may manage the deviation amount per unit time of its own local clock. In this way, the imaging device can more easily provide the deviation amount per unit time of its own local clock.
  • the deviation per unit time of the local clock may be derived by any device.
  • the imaging device may derive the deviation per unit time.
  • the clock server may derive the deviation per unit time.
  • the imaging server time may be corrected in any device.
  • the display device may correct the imaging server time based on the deviation per unit time between the acquired server time and the local clock.
  • the clock server may correct the imaging server time based on the deviation per unit time between the acquired server time and the local clock.
  • the imaging device may also generate an electronic signature for this acquired server time.
  • the first information processing device may further include a signature generation unit that generates an electronic signature for the captured image, the first imaging time (imaging local time), the second imaging time (imaging server time), and the second time (acquired server time).
  • the file generation unit may then be configured to store the generated electronic signature in a file. In this way, the imaging device can prevent tampering with the acquired server time.
  • local identification information may be stored in a file (method 1-1-1), as shown in the third row from the top of the table in Fig. 1.
  • local identification information refers to identification information that identifies an imaging device.
  • the file generation unit may be configured to store identification information (local identification information) that identifies the device in a file.
  • the device that processes the file e.g., a display device
  • the device that processes the file can more easily identify the device that generated the captured image stored in the file based on the local identification information.
  • the display device may request the deviation amount per unit time of the local clock of the imaging device using the local identification information (or a file in which the local identification information is stored).
  • the clock server may supply the requested deviation amount per unit time of the local clock of the imaging device to the display device based on the local identification information.
  • the display device may correct the imaging server time based on the deviation amount per unit time of the local clock of the imaging device and the acquisition server time, and display the corrected imaging server time and imaging local time.
  • the information processing device may further include a deviation amount information supply unit that supplies deviation amount information indicating the deviation amount per unit time of the local clock of a specified other device (imaging device) to a display device that displays an image generated in the other device.
  • a deviation amount information supply unit that supplies deviation amount information indicating the deviation amount per unit time of the local clock of a specified other device (imaging device) to a display device that displays an image generated in the other device.
  • the second image processing device may further include a deviation information acquisition unit that acquires deviation information indicating the deviation amount per unit time of the local clock from a server (such as a clock server), and an imaging time correction unit that corrects the second imaging time (imaging server time) based on the acquired deviation information and the second time (acquired server time).
  • a deviation information acquisition unit that acquires deviation information indicating the deviation amount per unit time of the local clock from a server (such as a clock server)
  • an imaging time correction unit that corrects the second imaging time (imaging server time) based on the acquired deviation information and the second time (acquired server time).
  • the clock server can more easily provide the display device with the deviation per unit time of the local clock of the requested device. Also, the display device can display the image capture time more accurately.
  • the display device may request the clock server to correct the imaging server time using its local identification information, the acquisition server time, and the imaging server time (or a file in which they are stored).
  • the clock server may identify the deviation per unit time of the local clock of the requested imaging device based on the local identification information.
  • the clock server may then correct the imaging server time based on the deviation per unit time and the acquisition server time.
  • the clock server may then supply the corrected imaging server time to the display device.
  • the display device may obtain and display the corrected imaging server time.
  • the information processing device may further include an imaging time correction unit that corrects the imaging time of an image generated in another device using the deviation per unit time of the local clock of the other specified device, and an imaging time supply unit that supplies the corrected imaging time to a display device that displays the image.
  • an imaging time correction unit that corrects the imaging time of an image generated in another device using the deviation per unit time of the local clock of the other specified device
  • an imaging time supply unit that supplies the corrected imaging time to a display device that displays the image.
  • the second image processing device may further include an imaging time acquisition unit that acquires the corrected second imaging time (imaging server time) from a server (such as a clock server).
  • a server such as a clock server
  • the clock server can correct the imaging server time more accurately.
  • the clock server can provide a more accurate imaging server time.
  • the display device can display a more accurate imaging time.
  • the imaging device may also digitally sign this local identification information.
  • the first information processing device may further include a signature generation unit that generates digital signatures for the captured image, the first imaging time (imaging local time), the second imaging time (imaging server time), the second time (acquisition server time), and the local identification information.
  • the file generation unit may then be configured to store the generated digital signature in a file. In this way, the imaging device can prevent tampering with the local identification information.
  • the deviation amount information may be stored in a file (method 1-1-2) as shown in the fourth row from the top of the table in Fig. 1.
  • the deviation amount information indicates the deviation amount per unit time of the local clock.
  • the file generation unit may be configured to store, in a file, deviation amount information indicating the deviation amount per unit time of the local clock.
  • the device that processes the file e.g., a display device
  • the device that processes the file can more easily obtain the deviation amount per unit time of the local clock.
  • the deviation per unit time of the local clock may be derived by any device.
  • the imaging device may derive the deviation per unit time of its own local clock.
  • the imaging device may derive the deviation per unit time of the local clock from the current time in the server time information (also referred to as the current server time), the previously acquired server time, and the currently acquired server time.
  • the imaging device derives the time from the previously acquired server time to the current server time (time according to the server time information), derives the deviation between the current server time and the currently acquired server time (deviation of the current time between the standard time information and the server time information), and derives the deviation per unit time of the local clock based on these.
  • the imaging device may also obtain the deviation per unit time of its own local clock from a clock server, etc.
  • the display device may then correct the imaging server time based on the deviation amount information stored in the file and the acquisition server time, and display the corrected imaging server time.
  • the file may store deviation amount information indicating the deviation amount per unit time of the local clock and the second time (acquisition server time), and the second image processing device (display device) may further include an imaging time correction unit that corrects the second imaging time (imaging server time) based on the deviation amount information and the second time.
  • the display device can more easily correct the imaging server time.
  • the imaging device may also digitally sign this deviation amount information.
  • the first information processing device (imaging device) may further include a signature generation unit that generates digital signatures for the captured image, the first imaging time (imaging local time), the second imaging time (imaging server time), the second time (acquisition server time), and the deviation amount information.
  • the file generation unit may then be configured to store the generated digital signature in a file. In this way, the imaging device can prevent tampering with the deviation amount information.
  • Method 1-1-3 When the above-mentioned method 1-1 is applied, as shown in the fifth row from the top of the table in Figure 1, when obtaining the current time (currently obtained server time) from the server, local identification information, the current server time, and the previously obtained server time may be provided (method 1-1-3).
  • a first image processing device when the acquisition unit acquires the second time (currently acquired server time), it may be configured to supply to a server (such as a clock server) identification information (local identification information) that identifies the device, the current time (current server time) indicated by the second time information (server time information), and the second time (previously acquired server time) indicating the timing of the previous acquisition.
  • a server such as a clock server
  • identification information local identification information
  • the imaging device can more easily provide this information to a clock server, etc.
  • the clock server may use the current server time provided by the imaging device, the previously obtained server time, and the current time of the clock server (i.e., the currently obtained server time) to derive the deviation per unit time of the local clock of the imaging device.
  • the clock server may then manage the derived deviation per unit time for each device (linked to local identification information).
  • the device when an information processing device (clock server) supplies a first current time (currently acquired server time supplied) to another device (imaging device), the device may further include an acquisition unit that acquires identification information (local identification information) that identifies the other device, a second current time (previously supplied acquired server time) previously supplied to the other device, and a third current time (current server time) indicated by time information (server time information) managed by the other device using a local clock with the second current time as a start time, and an offset amount derivation unit that derives an offset amount per unit time using the first current time and the acquired second and third current times.
  • the offset amount management unit may be configured to use the acquired identification information to manage the derived offset amount per unit time for each of the other devices.
  • the clock server can more easily derive the deviation per unit time of the local clock.
  • the clock server can more easily manage the deviation per unit time of the local clock for each device.
  • Method 1-2 When the above-mentioned method 1 is applied, as shown in the sixth row from the top of the table in Fig. 1, if the imaging device cannot manage the time information, the storage of the time information may be omitted (method 1-2). For example, if the secondary battery built into the imaging device runs out and the local time information or the server time information cannot advance normally, the accuracy (or reliability) of the time information may be reduced. Therefore, such imaging times with low reliability (low accuracy) may not be stored in the file (storage in the file may be omitted).
  • the time management unit may be configured to omit storing the second imaging time in a file.
  • server time information may be acquired at startup, shutdown, or network connection, as shown in the seventh row from the top of the table in Fig. 1 (method 1-3).
  • the imaging device may acquire the current time (acquired server time) from a clock server or the like at any timing. For example, it may be at startup of the imaging device, at shutdown, or when connected to a network.
  • the acquisition unit may be configured to acquire the second time (acquired server time) when the device is started or shut down, or when the device is connected to a network.
  • the imaging device may also periodically acquire the current time (acquired server time) from a clock server or the like during a period when the imaging device is connectable to the network.
  • the imaging device may also acquire the current time (acquired server time) from a clock server or the like at a timing based on an instruction from a user or the like.
  • server time information may be obtained using encrypted communication (method 1-4).
  • the information processing device may further include a current time supply unit that supplies the current time (acquired server time) to another device (imaging device) using encrypted communication.
  • an acquisition unit may acquire the encrypted second time (acquired server time) and decrypt it.
  • the local time information may be overwritten with the server time information (method 1-5) as shown in the ninth row from the top of the table in Fig. 1.
  • the imaging device may have a function for overwriting the local time information with the server time information.
  • the setting unit may be configured to set the first time (set local time) using the second time information (server time information).
  • a setting may be provided for overwriting the local time information with the server time information (method 1-5-1), as shown in the bottom row of the table in Fig. 1.
  • the imaging device may have, as operation modes, a mode in which the local time information is overwritten with the server time information and a mode in which the local time information is not overwritten, and the operation mode may be selected by the user or the like.
  • a setting unit may be configured to select, based on a user instruction, whether or not to use second time information (server time information) to set the first time (set local time).
  • server time information server time information
  • ⁇ Combination> Each method described above in ⁇ 3. Transmission of imaging local time and imaging server time> may be applied in combination with any other method as long as no contradiction occurs. Three or more methods may be applied in combination. For example, any two or more of methods 1-1 to 1-5 may be applied in combination. Moreover, the methods that can be combined are not limited to those shown in the table of FIG. 1 as "methods" but may include all the elements described above in ⁇ 3. Transmission of imaging local time and imaging server time>. Moreover, each method described above may be applied in combination with a method other than those described above.
  • FIG. 2 is a system diagram showing an example of the configuration of an image processing system to which the present technology is applied.
  • the image processing system 100 shown in Fig. 2 is a system that processes captured images.
  • FIG. 2 the main device configurations and data flows are shown, but what is shown in FIG. 2 is not necessarily everything. In other words, in image processing system 100, there may be devices that are not shown in FIG. 2, and there may be processes or data flows that are not shown as arrows in FIG. 2.
  • the image processing system 100 has an imaging device 111, a display device 112, and a clock server 113 that are communicatively connected to each other via a network 110.
  • FIG. 2 shows one imaging device 111, one display device 112, and one clock server 113, there may be any number of each. In other words, there may be two or more imaging devices 111, two or more display devices 112, and two or more clock servers 113. Furthermore, the numbers of imaging devices 111, two or more display devices 112, and two or more clock servers 113 do not have to be the same.
  • FIG. 2 shows one network as network 110, but the image processing system 100 may have multiple networks.
  • the network 110 is a communication network that serves as a communication medium between the devices.
  • the network 110 may be a wired communication network, a wireless communication network, or may include both.
  • the network 110 may be a wired LAN (Local Area Network), a wireless LAN, a public telephone line network, a wide area communication network for wireless mobile devices such as a so-called 4G line or 5G line, or the Internet, or a combination of these.
  • the network 110 may be a single communication network or multiple communication networks.
  • the network 110 may be partially or entirely composed of a communication cable of a specified standard, such as a USB (Universal Serial Bus) (registered trademark) cable or an HDMI (High-Definition Multimedia Interface) (registered trademark) cable.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • the imaging device 111 performs processing related to capturing images of a subject, i.e., generating captured images.
  • the imaging device 111 may manage local time information.
  • the imaging device 111 may manage server time information.
  • the imaging device 111 may capture images of a subject and generate captured images.
  • the imaging device 111 may generate image files that store the captured images, etc.
  • the display device 112 performs processing related to the display of captured images, etc.
  • the display device 112 may acquire an image file.
  • the display device 112 may determine the authenticity of the captured image stored in the image file.
  • the display device 112 may determine the reliability of the imaging server time stored in the image file.
  • the display device 112 may correct the imaging server time stored in the image file.
  • the display device 112 may display the captured image, etc.
  • the clock server 113 performs processes related to the management of standard time information.
  • the clock server 113 may manage clock server time information (standard time information).
  • the imaging device 111, the display device 112, and the clock server 113 may also communicate via the network 110 to exchange information. For example, as indicated by the dotted double-arrow 121, the imaging device 111 may supply the local identification information, the current server time, and the previously obtained server time to the clock server 113. In response, the clock server 113 may supply the current time (obtained server time) in the standard time information to the imaging device 111.
  • imaging device 111 may supply an image file to display device 112.
  • Display device 112 may acquire the image file.
  • the captured image may be stored in this image file.
  • the image file may also store the local image capture time.
  • the image file may also store the image capture server time.
  • the image file may also store the acquisition server time.
  • the image file may also store local identification information.
  • the image file may also store deviation amount information.
  • the display device 112 may supply the local identification information and the imaging server time stored in the image file supplied from the imaging device 111 to the clock server 113.
  • the clock server 113 may supply the deviation amount information or the corrected imaging server time to the display device 112.
  • the imaging device 111 is configured by an information processing terminal device having an imaging function, such as a digital camera, a smartphone, a tablet terminal, or a notebook personal computer.
  • the imaging device 111 may be configured by one device (electronic device), or may be configured by multiple devices (electronic devices).
  • the imaging device 111 may be configured by a digital camera and a smartphone. In that case, for example, the digital camera may generate captured images, and the smartphone may generate signatures for the captured images and supply them to the display device 112.
  • the imaging device 111 will be described as being configured by one device (electronic device).
  • FIG. 3 is a block diagram showing an example of the configuration of an imaging device 111, which is one aspect of an image processing device to which this technology is applied.
  • FIG. 3 shows the main processing units, data flows, etc., and is not necessarily all that is shown in FIG. 3.
  • processing units that are not shown as blocks in FIG. 3
  • processing or data flows that are not shown as arrows, etc. in FIG. 3.
  • the imaging device 111 has a control unit 201, an imaging processing unit 202, an input unit 203, and an output unit 204.
  • the control unit 201 controls each processing unit in the imaging processing unit 202.
  • the imaging processing unit 202 is controlled by the control unit 201 to perform processing related to imaging.
  • the input unit 203 has an input device such as a button or a switch.
  • the input unit 203 accepts instructions input from a user or the like via the input device.
  • the input unit 203 supplies the accepted instructions to the control unit 201.
  • the control unit 201 may control the imaging processing unit 202 based on the accepted instructions.
  • the output unit 204 has an output device such as a monitor or a speaker.
  • the output unit 204 outputs information supplied from the control unit 201 via the output device as, for example, an image or sound.
  • the control unit 201 may supply any information, such as a control result, to the output unit 204 to output it.
  • the imaging processing unit 202 has a time setting unit 211, a time acquisition unit 212, and a time management unit 213.
  • the time setting unit 211 performs processing related to setting local time information.
  • the time setting unit 211 may be controlled by the control unit 201 and set the set local time according to a user instruction received by the input unit 203.
  • the time setting unit 211 may supply the set local time to the time management unit 213.
  • the time acquisition unit 212 performs processing related to the acquisition of acquired server time.
  • the time acquisition unit 212 has a communication function for communicating with the clock server 113 via the network 110.
  • the time acquisition unit 212 may use this communication function to acquire the current time in the standard time information (i.e., acquired server time) supplied from the clock server 113.
  • the time acquisition unit 212 may supply the acquired acquired server time to the time management unit 213.
  • the time management unit 213 performs processes related to the management of time information.
  • the time management unit 213 has a crystal oscillator, uses the crystal oscillator to generate a local clock, and uses the local clock to manage time information.
  • the time management unit 213 may use the local clock to manage local time information whose start time is the set local time supplied from the time setting unit 211. That is, the time management unit 213 may advance the time from the set local time using the local clock.
  • the time management unit 213 may also use the local clock to manage server time information whose start time is the acquired server time supplied from the time acquisition unit 212. That is, the time management unit 213 may advance the time from the acquired server time using the local clock.
  • the time management unit 213 may also obtain a notification indicating the generation timing of the captured image by the sensor unit 222 (i.e., the image capture timing), and set the image capture time in each of the local time information and the server time information according to the notification. That is, the time management unit 213 may set the image capture local time and the image capture server time. The time management unit 213 may supply the set image capture local time and image capture server time to the image file generation unit 231. When generating electronic signatures for the image capture local time and the image capture server time, the time management unit 213 may supply the set image capture local time and image capture server time to the hash processing unit 228.
  • the time management unit 213 may also supply other information, such as the acquisition server time, local identification information, and deviation amount information, to the image file generation unit 231.
  • the time management unit 213 may also supply the other information to the hash processing unit 228.
  • the imaging device 111 also has an optical system 221, a sensor unit 222, a RAW processing unit 223, a YUV processing unit 224, a reduced image generating unit 225, an image information adding unit 226, a 3D information processing unit 227, a hash processing unit 228, a signature control unit 229, a signature generating unit 230, an image file generating unit 231, an image file recording unit 232, and an image file supply unit 233.
  • the optical system 221 is composed of optical elements such as lenses, mirrors, filters, and apertures, and exerts a predetermined influence on the light beam from the subject, directing the light beam to the sensor unit 222. In other words, the light beam from the subject enters the sensor unit 222 via the optical system 221.
  • the sensor unit 222 performs processing related to photoelectric conversion.
  • the sensor unit 222 has an image sensor 241 and a 3D information sensor 242.
  • the sensor unit 222 may generate a captured image and 3D information using light rays from a subject that are incident via the optical system 221.
  • the image sensor 241 performs processing related to the generation of captured images.
  • the image sensor 241 has a pixel array in which pixels having photoelectric conversion elements are arranged in a matrix.
  • the image sensor 241 may receive light rays from a subject that enters through the optical system 221 in its pixel array, and perform photoelectric conversion to generate a captured image (a RAW image or a JPEG (Joint Photographic Experts Group) image generated from the RAW image).
  • a captured image a RAW image or a JPEG (Joint Photographic Experts Group) image generated from the RAW image.
  • the image sensor 241 captures an image of a subject and generates a captured image of the subject, and therefore can also be called a captured image generation unit.
  • the image sensor 241 may also supply the generated captured image to the RAW processing unit 223.
  • the 3D information sensor 242 detects distance-related information for multiple locations within the captured image obtained by the image sensor 241 on the same optical axis as the captured image, and generates 3D information.
  • the 3D information sensor 242 can also be considered a 3D information generator.
  • the 3D information sensor 242 has a specified sensor device that detects distance-related information.
  • the 3D information sensor 242 receives light rays from the subject that are incident via the optical system 221 in the sensor device, detects distance-related information, and generates 3D information.
  • the same optical axis means that the light rays from the subject that enter the 3D information sensor 242 pass through the optical system 221 through which the light rays from the subject that enter the image sensor 241 pass. In other words, it means that the paths at least from the subject to the sensor unit 222 of the light rays that enter the image sensor 241 and the light rays that enter the 3D information sensor 242 are the same. In this way, the captured image and distance-related information are detected on the same optical axis, making it difficult to perform trick photography, such as capturing a face photo and detecting the distance to a person other than the subject in the face photo. In other words, there is a high possibility that the subject of the captured image and the subject of the 3D information are the same.
  • the “distance-related information” may be information indicating the distance from the imaging device 111 (3D information sensor 242) to the subject, or may be information for deriving that distance.
  • the distance-related information may include a depth map, phase difference data, ToF (Time of Flight) data, or a collection of parallax images.
  • the 3D information sensor 242 supplies the generated 3D information to the 3D information processing unit 227.
  • the image sensor 241 and the 3D information sensor 242 are configured as separate bodies, but the image sensor 241 and the 3D information sensor 242 may be integrated, or the image sensor 241 may also serve as the 3D information sensor 242.
  • the 3D information sensor 242 may be configured as a ToF sensor that measures distance using a ToF method, separate from the image sensor 241.
  • the 3D information sensor 242 may be configured as an image surface phase difference detection pixel formed in the effective pixel area of the pixel array of the image sensor 241.
  • the image surface phase difference detection pixel is a pixel used for a focusing (autofocus) function of the phase difference method, and can detect phase difference data.
  • the image sensor 241 and the 3D information sensor 242 are formed as a single body.
  • the 3D information sensor 242 may be configured as a phase difference sensor that detects phase difference data, separate from the image sensor 241.
  • the image sensor 241 also serves as the 3D information sensor 242. In other words, in this case, the image sensor 241 generates the captured images and 3D information, and the 3D information sensor 242 can be omitted.
  • the following description will be given taking as an example a case where the 3D information sensor 242 is configured with image surface phase difference detection pixels. In other words, the description will be given taking as an example a case where the 3D information sensor 242 detects phase difference data as distance-related information.
  • the RAW processing unit 223 performs processing related to the RAW image.
  • the RAW processing unit 223 may acquire a captured image (RAW image) supplied from the image sensor 241.
  • the RAW processing unit 223 may perform a predetermined processing on the RAW image.
  • the content of this processing is arbitrary. For example, it may be correction of white balance or the like.
  • the RAW processing unit 223 may supply the processed RAW image to the YUV processing unit 224.
  • the YUV processing unit 224 performs processing related to the generation of a YUV image.
  • the YUV processing unit 224 may acquire a RAW image supplied from the RAW processing unit 223.
  • the YUV processing unit 224 may convert the RAW image into a YUV image.
  • the YUV processing unit 224 may encode the YUV image and convert it into a JPEG image.
  • the YUV processing unit 224 may supply the generated JPEG image to the reduced image generation unit 225. Note that when the image sensor 241 outputs a JPEG image as the captured image, the RAW processing unit 223 and the YUV processing unit 224 may be omitted, and the image sensor 241 may supply the JPEG image to the reduced image generation unit 225.
  • the reduced image generating unit 225 performs processing related to the generation of reduced images.
  • the reduced image generating unit 225 may obtain a JPEG image supplied from the YUV processing unit 224.
  • the reduced image generating unit 225 may generate a reduced image of the JPEG image.
  • the original JPEG image is also referred to as the "main image" in comparison with this reduced image.
  • the method of generating this reduced image is arbitrary.
  • the reduced image generating unit 225 may generate a reduced image by thinning out some of the pixel values of the main image.
  • the reduced image generating unit 225 may generate a reduced image by combining pixel values for each predetermined partial area of the main image to reduce the number of pixels.
  • the reduced image generating unit 225 may create the reduced image by looking at all the pixels of the main image. If the number of taps is insufficient, the reduced image generating unit 225 may repeat the reduction by a factor that has a sufficient number of taps multiple times to generate a reduced image with the desired reduction factor. The reduced image generating unit 225 supplies the generated reduced image to the image information adding unit 226 together with the main image (JPEG image).
  • the image information addition unit 226 performs processing related to the addition of image information. For example, the image information addition unit 226 may acquire the original image and the reduced image supplied from the reduced image generation unit 225. The image information addition unit 226 may generate image information that is information related to the acquired original image. The image information addition unit 226 may associate the generated image information with the original image. In other words, the image information addition unit 226 may generate the image information as metadata for the original image. The image information addition unit 226 may supply the generated image information to the hash processing unit 228 together with the original image and the reduced image.
  • the 3D information processing unit 227 performs processing on the 3D information.
  • the 3D information processing unit 227 may acquire 3D information supplied from the 3D information sensor 242.
  • the 3D information processing unit 227 may perform a predetermined processing on the acquired 3D information.
  • the 3D information processing unit 227 may supply the acquired 3D information to the hash processing unit 228.
  • the 3D information processing unit 227 may reduce the resolution of the acquired 3D information and supply the low-resolution 3D information to the hash processing unit 228.
  • the 3D information processing unit 227 may omit reducing the resolution of the 3D information and supply the acquired 3D information to the hash processing unit 228.
  • the 3D information processing unit 227 may also be called a 3D information resolution setting unit.
  • the 3D information processing unit 227 may determine whether or not the subject (distance measurement target) of the acquired 3D information is flat, and supply the determination result to the signature control unit 229.
  • the 3D information processing unit 227 can also be considered a plane determination unit.
  • the hash processing unit 228 performs processing related to hash generation. For example, the hash processing unit 228 may acquire the original image, the reduced image, and image information supplied from the image information addition unit 226. The hash processing unit 228 may acquire 3D information supplied from the 3D information processing unit 227. The hash processing unit 228 may generate a hash using the original image, the image information, and the 3D information. The hash processing unit 228 may supply the generated hash to the signature generation unit 230 together with the original image, the reduced image, the image information, and the 3D information.
  • the hash processing unit 228 may also acquire the local imaging time and the imaging server time supplied from the time management unit 213.
  • the hash processing unit 228 may generate a hash using the original image, image information, 3D information, the local imaging time, and the imaging server time.
  • the hash processing unit 228 may supply the generated hash to the signature generation unit 230 together with the original image, reduced image, image information, 3D information, the local imaging time, and the imaging server time.
  • the hash processing unit 228 may also acquire other information supplied from the time management unit 213, such as the acquisition server time, local identification information, and displacement amount information.
  • the hash processing unit 228 may generate a hash using the other acquired information together with the original image, image information, 3D information, local image capture time, and image capture server time.
  • the hash processing unit 228 may supply the generated hash to the signature generation unit 230 together with the original image, reduced image, image information, 3D information, local image capture time, and image capture server time, as well as other information.
  • the hash processing unit 228 may be driven under the control of the signature control unit 229. That is, when the signature control unit 229 instructs the hash processing unit 228 to generate a hash as described above, and when the signature control unit 229 does not instruct the hash generation, the hash processing unit 228 may omit the generation of the hash. When the hash generation is omitted, the hash processing unit 228 may supply the acquired information (for example, the original image, the reduced image, the image information, and the 3D information) to the signature generation unit 230.
  • the acquired information for example, the original image, the reduced image, the image information, and the 3D information
  • the signature control unit 229 performs processing related to signature control. For example, the signature control unit 229 may control whether or not to generate a signature based on an instruction from a user or an application input via the control unit 201. The signature control unit 229 may control whether or not to generate a signature based on a determination result of whether or not the subject (distance measurement target) of the 3D information is flat, which is supplied from the 3D information processing unit 227. For example, the signature control unit 229 may control to omit signature generation when it is determined that the subject (distance measurement target) of the 3D information is flat. The signature control unit 229 may control to generate a signature when it is determined that the subject (distance measurement target) of the 3D information is not flat.
  • the signature control unit 229 may control whether or not to generate a signature by controlling the hash processing unit 228 and the signature generation unit 230. For example, when controlling not to generate a signature, the signature control unit 229 may cause the hash processing unit 228 to omit hash generation and the signature generation unit 230 to omit signature generation. When controlling to generate a signature, the signature control unit 229 may cause the hash processing unit 228 to generate a hash and the signature generation unit 230 to generate a signature. The signature control unit 229 may supply control information indicating whether or not to generate a signature to the 3D information processing unit 227.
  • the signature generation unit 230 performs processing related to signature generation.
  • the signature generation unit 230 may acquire a hash supplied from the hash processing unit 228 and information used to generate the hash (e.g., the original image, the reduced image, the image information, and the 3D information).
  • the signature generation unit 230 may encrypt the acquired hash using a device private key corresponding to the imaging device 111 to generate a signature (digital signature).
  • the signature generation unit 230 may generate a signature for information including at least the original image and the 3D information. Therefore, the signature generation unit 230 can also be called a signature generation unit.
  • the signature generation unit 230 may supply the generated signature to the image file generation unit 231 together with information corresponding to the signature (e.g., the original image, the reduced image, the image information, and the 3D information).
  • the signature generation unit 230 may be driven under the control of the signature control unit 229. For example, when signature generation is instructed by the signature control unit 229, the signature generation unit 230 may generate a signature as described above. When signature generation is not instructed by the signature control unit 229, the signature generation unit 230 may omit the generation of the signature. When signature generation is omitted, the signature generation unit 230 may supply information supplied from the hash processing unit 228 (for example, the original image, reduced image, image information, and 3D information, etc.) to the image file generation unit 231.
  • the hash processing unit 228 for example, the original image, reduced image, image information, and 3D information, etc.
  • the image file generation unit 231 performs processing related to the generation of an image file.
  • the image file generation unit 231 may acquire information (e.g., the original image, the reduced image, image information, 3D information, and a signature) supplied from the signature generation unit 230.
  • the image file generation unit 231 may generate an image file in a predetermined format and store the acquired information (e.g., the original image, the reduced image, image information, 3D information, and a signature) in the image file.
  • the image file generation unit 231 may supply the image file to the image file recording unit 232.
  • the image file generation unit 231 may also supply the image file to the image file supply unit 233.
  • the image file recording unit 232 performs processing related to recording of image files.
  • the image file recording unit 232 has a drive that drives a removable recording medium such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory and performs writing and reading.
  • the image file recording unit 232 may acquire an image file supplied from the image file generation unit 231.
  • the image file recording unit 232 may record the acquired image file on the removable recording medium via the drive.
  • the image file supply unit 233 performs processing related to the supply of image files.
  • the image file supply unit 233 has a communication function for communicating with the display device 112 via the network 110.
  • the image file supply unit 233 may acquire an image file supplied from the image file generation unit 231.
  • the image file supply unit 233 may use the communication function to supply the acquired image file to the display device 112.
  • the display device 112 is configured by an information processing device having an image display function, such as a smartphone, a tablet terminal, a notebook personal computer, a desktop personal computer, a dedicated computer, or a server.
  • the display device 112 may be configured by one device (electronic device), or may be configured by multiple devices (electronic devices). In the following, the display device 112 will be described as being configured by one device (electronic device).
  • FIG. 4 is a block diagram showing an example of the configuration of a display device 112, which is one aspect of an image processing device to which this technology is applied.
  • FIG. 4 shows the main processing units, data flows, etc., and is not necessarily all that is shown in FIG. 4.
  • the display device 112 there may be processing units that are not shown as blocks in FIG. 4, and there may be processes or data flows that are not shown as arrows, etc. in FIG. 4.
  • the display device 112 has an image file acquisition unit 311, a display processing unit 312, and a display unit 313.
  • the display device 112 also has an authenticity determination unit 321, a reliability determination unit 322, a deviation amount information acquisition unit 323, an imaging time correction unit 324, and an imaging time acquisition unit 325.
  • the image file acquisition unit 311 performs processing related to the acquisition of image files.
  • the image file acquisition unit 311 has a communication function for communicating with the imaging device 111 via the network 110.
  • the image file acquisition unit 311 may use the communication function to acquire an image file supplied from the imaging device 111.
  • the image file acquisition unit 311 may supply the acquired image file to the display processing unit 312.
  • the image file acquisition unit 311 may supply the acquired image file to the authenticity determination unit 321.
  • the image file acquisition unit 311 may supply the acquired image file to the reliability determination unit 322.
  • the image file acquisition unit 311 may supply the acquired image file to the imaging time correction unit 324.
  • the image file acquisition unit 311 may also supply the acquired image file to the deviation amount information acquisition unit 323.
  • the image file acquisition unit 311 may also supply the acquired image file to the image capture time acquisition unit 325.
  • the display processing unit 312 performs processing related to the display of information.
  • the display processing unit 312 may acquire an image file supplied from the image file acquisition unit 311.
  • the display processing unit 312 may extract information stored in the acquired image file.
  • the display processing unit 312 may supply image information for displaying the extracted information to the display unit 313 and display it.
  • the display processing unit 312 may extract a captured image, a local image capture time, and a server image capture time from the image file, and supply image information for displaying them to the display unit 313 and display them.
  • the display processing unit 312 may also extract other information such as the server image capture time, local identification information, and displacement amount information from the image file, and supply image information for displaying the other extracted information to the display unit 313 and display it.
  • the display processing unit 312 may also acquire information indicating the authenticity determination result supplied from the authenticity determination unit 321.
  • the display processing unit 312 may supply image information for displaying the authenticity determination result to the display unit 313 and cause it to be displayed.
  • the display processing unit 312 may also acquire information indicating the reliability determination result supplied from the reliability determination unit 322.
  • the display processing unit 312 may supply image information for displaying the reliability determination result to the display unit 313 and cause it to be displayed.
  • the display processing unit 312 may also acquire the corrected imaging server time supplied from the imaging time correction unit 324 or the imaging time acquisition unit 325.
  • the display processing unit 312 may supply image information for displaying the corrected imaging server time to the display unit 313 and cause it to be displayed.
  • the display unit 313 performs processing related to the display of image information.
  • the display unit 313 has an image display device such as a liquid crystal monitor. This image display device may be any device that can display an image.
  • the display unit 313 may acquire image information supplied from the display processing unit 312.
  • the display unit 313 may use the image display device to display an image corresponding to the acquired image information.
  • the display unit 313 may display the captured image, the local image capture time, and the image capture server time supplied from the display processing unit 312.
  • the display unit 313 may display other information such as the acquisition server time, local identification information, and deviation amount information supplied from the display processing unit 312.
  • the display unit 313 may display the authenticity determination result supplied from the display processing unit 312.
  • the display unit 313 may display the reliability determination result supplied from the display processing unit 312.
  • the display unit 313 may display the corrected image capture server time supplied from the display processing unit 312.
  • the authenticity determination unit 321 performs processing related to determining the authenticity of the captured image. For example, the authenticity determination unit 321 may acquire an image file supplied from the image file acquisition unit 311. The authenticity determination unit 321 may determine the authenticity of the captured image based on the imaging server time stored in the acquired image file. The authenticity determination unit 321 may generate information indicating the authenticity determination result and supply it to the display processing unit 312.
  • the reliability determination unit 322 performs processing related to determining the reliability of the imaging server time. For example, the reliability determination unit 322 may acquire an image file supplied from the image file acquisition unit 311. The reliability determination unit 322 may determine the reliability of the imaging server time based on the acquisition server time stored in the acquired image file. The reliability determination unit 322 may generate information indicating the reliability determination result and supply it to the display processing unit 312.
  • the reliability determination unit 322 performs processing related to determining the reliability of the imaging server time. For example, the reliability determination unit 322 may acquire an image file supplied from the image file acquisition unit 311. The reliability determination unit 322 may determine the reliability of the imaging server time based on the acquisition server time stored in the acquired image file. The reliability determination unit 322 may generate information indicating the reliability determination result and supply it to the display processing unit 312.
  • the deviation amount information acquisition unit 323 performs processing related to the acquisition of deviation amount information.
  • the deviation amount information acquisition unit 323 has a communication function for communicating with the clock server 113 via the network 110.
  • the deviation amount information acquisition unit 323 may request deviation amount information from the clock server 113.
  • the deviation amount information acquisition unit 323 may supply the local identification information stored in the image file to the clock server 113.
  • the deviation amount information acquisition unit 323 may also supply the image file (the image file in which the local identification information is stored) to the clock server 113.
  • the deviation amount information acquisition unit 323 may acquire the deviation amount information supplied from the clock server 113 in response to the request. This deviation amount information corresponds to the request made by the deviation amount information acquisition unit 323.
  • this deviation amount information is information indicating the deviation amount per unit time of the local clock of the device (the imaging device 111 in the case of the example of FIG. 2) indicated by the local identification information supplied by the deviation amount information acquisition unit 323.
  • the deviation amount information acquisition unit 323 may supply the acquired deviation amount information to the imaging time correction unit 324.
  • the imaging time correction unit 324 performs processing related to the correction of the imaging server time. For example, the imaging time correction unit 324 may acquire an image file supplied from the image file acquisition unit 311. If the imaging server time, acquisition server time, and deviation amount information (deviation amount per unit time of the local clock of the imaging device 111) are stored in this image file, the imaging time correction unit 324 may correct the imaging server time based on the acquisition server time and the deviation amount information. For example, the imaging time correction unit 324 derives the imaging time in the standard time information based on the time from the acquisition server time to the imaging server time and the deviation amount per unit time of the local clock. The imaging time correction unit 324 sets this derived "imaging time in the standard time information" as the corrected imaging server time.
  • the imaging time correction unit 324 may acquire the deviation amount information supplied from the deviation amount information acquisition unit 323.
  • the imaging time correction unit 324 may correct the imaging server time stored in the image file based on the acquisition server time stored in the image file and the deviation amount information supplied from the deviation amount information acquisition unit 323.
  • the correction method is the same as the method described above.
  • the imaging time correction unit 324 sets this derived "imaging time in the standard time information" as the corrected imaging server time.
  • the imaging time correction unit 324 may supply the corrected imaging server time to the display processing unit 312.
  • the imaging time acquisition unit 325 performs processing related to acquisition of the corrected imaging server time.
  • the imaging time acquisition unit 325 has a communication function for communicating with the clock server 113 via the network 110.
  • the imaging time acquisition unit 325 may request the corrected imaging server time from the clock server 113.
  • the imaging time acquisition unit 325 may supply the local identification information, the acquisition server time, and the imaging server time stored in the image file to the clock server 113.
  • the imaging time acquisition unit 325 may also supply the image file (the image file in which the local identification information, the acquisition server time, and the imaging server time are stored) to the clock server 113.
  • the imaging time acquisition unit 325 may acquire the corrected imaging server time supplied from the clock server 113 in response to the request.
  • This corrected imaging server time corresponds to the request made by the imaging time acquisition unit 325.
  • this corrected imaging server time corresponds to the imaging server time supplied by the imaging time acquisition unit 325.
  • This corrected imaging server time may be derived, for example, in the clock server 113 in a manner similar to that of the imaging time correction unit 324.
  • the imaging time acquisition unit 325 may supply the corrected imaging server time to the display processing unit 312.
  • the clock server 113 may be configured, for example, as a single information processing device or as multiple information processing devices.
  • the clock server 113 may also be implemented as cloud computing (i.e., a cloud server) in which multiple devices share and cooperate with each other to perform processing via a network.
  • FIG. 5 is a block diagram showing an example of the configuration of a clock server 113, which is one aspect of an image processing device to which this technology is applied.
  • FIG. 5 shows the main processing units, data flows, etc., and is not necessarily all that is shown in FIG. 5.
  • the clock server 113 there may be processing units that are not shown as blocks in FIG. 5, and there may be processing or data flows that are not shown as arrows, etc. in FIG. 5.
  • the clock server 113 has a time management unit 411, a current time supply unit 412, a time acquisition unit 413, and a deviation amount derivation unit 414.
  • the clock server 113 also has a deviation amount management unit 421, a request acquisition unit 422, a deviation amount information supply unit 423, an imaging time correction unit 424, and an imaging time supply unit 425.
  • the time management unit 411 manages the standard time information. For example, the time management unit 411 may supply the current time in the standard time information to the current time supply unit 412. The time management unit 411 may also supply the current time in the standard time information to the deviation amount derivation unit 414. Note that these processes (supply of the current time) may be performed based on a request from the imaging device 111.
  • the current time supplying unit 412 performs processing related to supplying the current time.
  • the current time supplying unit 412 has a communication function for communicating with the imaging device 111 via the network 110.
  • the current time supplying unit 412 may obtain the current time in the standard time information supplied from the time management unit 411.
  • the current time supplying unit 412 may supply the current time in the standard time information to the imaging device 111. Note that this processing (supply of the current time) may be performed based on a request from the imaging device 111.
  • the time acquisition unit 413 performs processing related to acquisition of information related to time, etc.
  • the time acquisition unit 413 has a communication function for communicating with the imaging device 111 via the network 110.
  • the time acquisition unit 413 may acquire information supplied from the imaging device 111 (e.g., local identification information, current server time, previously acquired server time, etc.).
  • the time acquisition unit 413 may acquire this information as a request for the current time in the standard time information.
  • the time acquisition unit 413 may supply the acquired information to the deviation amount derivation unit 414.
  • the time acquisition unit 413 may also notify the time management unit 411 and the current time supply unit 412 that the request has been acquired.
  • the deviation amount derivation unit 414 performs processing related to the derivation of the deviation amount per unit time of the local clock.
  • the deviation amount derivation unit 414 may acquire the local identification information, the current server time, the previously acquired server time, etc., supplied from the time acquisition unit 413.
  • the deviation amount derivation unit 414 may also acquire the current time in the standard time information supplied from the time management unit 411.
  • the deviation amount derivation unit 414 may use the acquired information to derive the deviation amount per unit time of the local clock.
  • the deviation amount derivation unit 414 may derive the time from the previously acquired server time to the current server time, derive the deviation amount between the current server time and the current time in the standard time information, and derive the deviation amount per unit time of the local clock based on the derived time and deviation amount.
  • This derived deviation amount per unit time is the deviation amount per unit time of the local clock of the device (e.g., the imaging device 111) indicated by the acquired local identification information.
  • the deviation amount derivation unit 414 may supply the derived deviation amount per unit time of the local clock to the deviation amount management unit 421 together with the acquired local identification information, etc.
  • the deviation amount management unit 421 performs processing related to management of the deviation amount per unit time of the local clock. For example, the deviation amount management unit 421 may acquire information (such as the deviation amount per unit time of the local clock and local identification information) supplied from the deviation amount derivation unit 414. The deviation amount management unit 421 may manage the deviation amount per unit time of the local clock for each device based on the local identification information. The deviation amount management unit 421 may supply the deviation amount per unit time of the local clock of a specified device (local identification information) to the deviation amount information supply unit 423. Note that this device may be specified by, for example, a request from the display device 112. For example, the deviation amount management unit 421 may acquire a request from the display device 112 supplied from the request acquisition unit 422.
  • the desired device may be specified in this request.
  • this request may include local identification information (or an image file that stores the local identification information) that specifies the desired device.
  • the deviation amount management unit 421 may supply the deviation amount per unit time of the local clock of the specified device to the deviation amount information supply unit 423.
  • the deviation amount management unit 421 may also supply the deviation amount per unit time of the local clock of a specified device (local identification information) to the imaging time correction unit 424.
  • the device may be specified, for example, by a request from the imaging time correction unit 424.
  • the deviation amount management unit 421 may supply the deviation amount per unit time of the local clock to the imaging time correction unit 424 in response to a request from the imaging time correction unit 424.
  • the desired device may be specified in this request.
  • this request may include local identification information (or an image file that stores the local identification information) that specifies the desired device.
  • the request acquisition unit 422 performs processing related to the acquisition of requests.
  • the request acquisition unit 422 has a communication function for communicating with the display device 112 via the network 110.
  • the request acquisition unit 422 may acquire a request for deviation amount information supplied from the display device 112.
  • This request may include, for example, local identification information specifying the desired device (or an image file that stores the local identification information).
  • the request acquisition unit 422 may supply the request to the deviation amount management unit 421.
  • the request acquisition unit 422 may also acquire a request for the corrected imaging server time supplied from the display device 112. This request may include, for example, local identification information specifying the desired device, the acquisition server time, and the imaging server time (and an image file that stores this information). The request acquisition unit 422 may supply the request to the imaging time correction unit 424.
  • the imaging time correction unit 424 performs processing related to the correction of the imaging server time.
  • the imaging time correction unit 424 may acquire a request for the corrected imaging server time supplied from the request acquisition unit 422.
  • This request may include, for example, local identification information specifying the desired device, the acquisition server time, and the imaging server time (or an image file storing these pieces of information).
  • the imaging time correction unit 424 may request the deviation amount per unit time of the local clock of the device indicated by the local identification information from the deviation amount management unit 421.
  • the request may include the local identification information (or an image file storing the local identification information).
  • the imaging time correction unit 424 may acquire the deviation amount per unit time of the local clock of the desired device (i.e., the device indicated by the local identification information) supplied from the deviation amount management unit 421 in response to the request.
  • the imaging time correction unit 424 may correct the imaging server time using the deviation amount per unit time of the local clock and the acquired server time. In other words, the imaging time correction unit 424 may derive the corrected imaging server time. This method of correcting the imaging server time is the same as in the imaging time correction unit 324 of the display device 112 described above.
  • the imaging time correction unit 424 may supply the derived, corrected imaging server time to the imaging time supply unit 425.
  • the imaging time supply unit 425 performs processing related to the supply of the corrected imaging server time.
  • the imaging time supply unit 425 has a communication function for communicating with the display device 112 via the network 110.
  • the imaging time supply unit 425 may acquire the corrected imaging server time supplied from the imaging time correction unit 424.
  • the imaging time supply unit 425 may supply the acquired corrected imaging server time to the display device 112.
  • the user may be able to set an operation mode in the imaging device 111.
  • the housing of the imaging device 111 may be provided with a shutter button 511 operated by a user or the like when instructing imaging, a user interface 512 constituted by buttons or the like operated by the user when instructing something other than imaging, and a monitor 513 that displays an image.
  • the user may operate the user interface 512 to display a menu screen (FIG. 6) on the monitor 513, which is a GUI (Graphical User Interface) for setting the operation mode, etc., to set the operation mode, etc.
  • FIG. 6 shows an example of the display of a menu screen related to the network function.
  • GUI Graphic User Interface
  • the user may operate the user interface 512, etc. to select "Acquire clock server time information", thereby executing a process for acquiring the current time (acquired server time) from the clock server 113.
  • the user may select "Display current server time", which causes the current time (current server time) in the server time information managed in the time management unit 213 to be displayed on the monitor 513.
  • the user may select "Display acquired server time”, which causes the acquired server time (the previously acquired server time) held by the time management unit 213 to be displayed on the monitor 513.
  • the user may select "Automatic acquisition of clock server time information” and set it to "ON” or “OFF”, which may set whether or not the current time from the clock server 113 is automatically acquired (regularly or irregularly).
  • the imaging device 111 acquires the current time from the clock server 113 without a user instruction (for example, when a predetermined condition is met).
  • ⁇ Application of Method 1> In the image processing system 100 (each device) configured as above, the various methods (the present technology) described above in ⁇ 3. Transmission of image capture local time and image capture server time> may be applied. For example, the above-mentioned method 1 may be applied. That is, local time information and server time information may be managed, and the image capture time according to each time information may be stored in a file together with the captured image.
  • the time setting unit 211 may set a set local time (first time).
  • the time acquisition unit 212 may acquire an acquired server time (second time) supplied from a clock server 113 or the like (server).
  • the time management unit 213 may manage local time information (first time information) whose start time is the set local time and server time information (second time information) whose start time is the acquired server time, using a local clock generated within the imaging device 111.
  • the sensor unit 222 may capture an image of a subject and generate an image.
  • the image file generation unit 231 may generate a file that stores the captured image, the image capture local time (first image capture time) whose generation timing is indicated by the local time information, and the image capture server time (second image capture time) whose generation timing is indicated by the server time information.
  • the local time information (first time information) is time information that allows a user or the like to set a set local time (first time).
  • the imaging device 111 manages the local time information using a local clock. In other words, the imaging device 111 advances the local time information using the local clock, with the set local time set by the user or the like as the start time.
  • the time setting unit 211 sets the set local time (first time) in step S101.
  • step S102 the time management unit 213 manages local time information (first time information) that starts at the set local time using a local clock generated within the imaging device 111.
  • step S102 When the processing of step S102 is completed, the local time setting process is completed.
  • the server time information is time information based on an acquired server time (second time) acquired from a clock server or the like that manages and provides standard time information (global clock).
  • the imaging device 111 manages this server time information in a state in which it cannot be set by a user or the like. Note that the timing for acquiring this acquired server time may be any timing.
  • the imaging device 111 manages the server time information using a local clock. In other words, the imaging device 111 advances the time of the server time information using the local clock, starting from the acquired server time (the current time indicated by the standard time information) acquired from a clock server or the like.
  • step S111 the time acquisition unit 212 acquires the current time (second time) in the standard time information supplied from the clock server 113. In other words, the time acquisition unit 212 acquires the acquired server time.
  • step S112 the time management unit 213 manages the server time information (second time information) whose start time is the acquired server time (the current time in the acquired standard time information) using a local clock generated within the imaging device 111.
  • step S112 When the processing of step S112 is completed, the server time acquisition process is also completed.
  • the imaging device 111 When the imaging device 111 (first information processing device) captures an image of a subject and generates an image, the imaging device 111 indicates the generation timing (imaging time) of the captured image using local time information and server time information. That is, the imaging device 111 generates information indicating the imaging time in the local time information (imaging local time) and information indicating the imaging time in the server time information (imaging server time). The imaging device 111 stores them in an image file together with the captured image. Then, the file is supplied to the display device 112 (second image processing device) via a communication medium or a storage medium.
  • An example of the flow of imaging processing executed in the imaging device 111 to perform such processing will be described with reference to the flowchart of FIG. 9.
  • step S121 the sensor unit 222 (image sensor 241 and 3D information sensor 242) captures an image of the subject and obtains a RAW image and 3D information on the same optical axis.
  • the RAW processing unit 223 performs correction processing on the RAW image, such as adjusting the white balance.
  • the YUV processing unit 224 converts the corrected RAW image into a YUV image.
  • the YUV processing unit 224 also encodes the YUV image to generate a JPEG image.
  • the reduced image generating unit 225 generates a reduced image by reducing the JPEG image (original image). This reduced image generating method is arbitrary.
  • the reduced image may have any size.
  • the reduced image may be a so-called thumbnail or a so-called screennail.
  • the image information adding unit 226 generates image information related to the original image and the reduced image as metadata.
  • the 3D information processing unit 227 performs predetermined processing on the 3D information, such as reducing the resolution of the 3D information.
  • step S123 the hash processing unit 228 generates a hash using the original image, the 3D information, the reduced image, and the image information.
  • step S124 the signature generation unit 230 generates a signature for the image and the 3D information by encrypting the generated hash using the device private key corresponding to the imaging device 111.
  • the image file generation unit 231 generates an image file and stores the main image (captured image), the reduced image, image information, and the signature.
  • the image file generation unit 231 also stores the local imaging time (first imaging time) and the imaging server time (second imaging time) in the image file.
  • the image file generation unit 231 generates an image file that stores the captured image, the first imaging time (imaging local time) indicating the timing of generation of the captured image by local time information (first time information), and the second imaging time (imaging server time) indicating the timing of generation of the captured image by server time information (second time information).
  • the time management unit 213 generates the local imaging time and the imaging server time.
  • step S126 the image file recording unit 232 records the image file.
  • step S127 the image file supply unit 233 supplies the image file to the display device 112.
  • step S127 the imaging process ends.
  • the display device 112 may acquire the image file and display the captured image, the local image capture time, and the image capture server time stored in the image file.
  • the image file acquisition unit 311 may acquire a file that stores a captured image generated by the imaging device 111 (first image processing device), an imaging local time (first imaging time) indicating the timing of generation of the captured image by local time information (first time information), and an imaging server time (second imaging time) indicating the timing of generation of the captured image by server time information (second time information).
  • the display processing unit 312 may display the captured image, the first imaging time, and the second imaging time on the display unit 313.
  • the local time information is time information that starts from the set local time (first time) set in the imaging device 111 (first image processing device) and is managed using a local clock generated within the imaging device 111.
  • the server time information is time information that starts from the acquired server time (second time) supplied to the imaging device 111 from the clock server 113 or the like (server) and is managed using a local clock.
  • the image file acquisition unit 311 acquires an image file in step S131.
  • This image file stores an image generated by an imaging device (first image processing device), an imaging local time (first imaging time) indicating the timing of generation of the image by local time information (first time information), and an imaging server time (second imaging time) indicating the timing of generation by server time information (second time information).
  • step S132 the display processing unit 312 extracts the captured image, the local image capture time, and the image capture server time from the acquired image file, and displays them on the display unit 313.
  • step S132 When the processing of step S132 is completed, the image display processing ends.
  • a user of the display device 112 can determine the authenticity of the displayed captured image (whether it has been tampered with or the possibility of it being tampered with, etc.) based on the thus displayed imaging server time (second imaging time). This allows the user to more accurately determine the authenticity of the captured image.
  • the user of the display device 112 can align the group of captured images generated by the multiple imaging devices 111, whose local time information (first time information) has been synchronized, based on the thus displayed imaging local time (first imaging time).
  • first time information can be easily matched between the imaging devices 111. Therefore, by using the imaging local time, the user can more easily and accurately align the group of captured images generated by the multiple imaging devices 111 based on the imaging time.
  • the imaging device 111 can provide an image file that includes both the local imaging time and the imaging server time. Furthermore, the display device 112 can display both the local imaging time and the imaging server time stored in the image file. In other words, both the imaging device 111 and the display device 112 can suppress a decrease in the accuracy of the imaging time added to the captured image, and suppress a decrease in the accuracy of the correspondence of the imaging times between imaging devices. In other words, both the imaging device 111 and the display device 112 can suppress a decrease in the usability (ease of use) of the captured image.
  • the display device 112 may determine the authenticity of the captured image based on the local image capturing time and the image capturing server time.
  • the authenticity determination unit 321 may determine the authenticity of the captured image based on the local imaging time (first imaging time) and the imaging server time (second imaging time). Then, the display processing unit 312 may display the result of the authenticity determination on the display unit 313.
  • the image file acquisition unit 311 acquires an image file in step S141.
  • This image file stores an image generated by an imaging device (first image processing device), an imaging local time (first imaging time) indicating the timing of generation of the image by local time information (first time information), and an imaging server time (second imaging time) indicating the timing of generation by server time information (second time information).
  • step S142 the authenticity determination unit 321 determines the authenticity of the captured image based on the local image capture time and the image capture server time stored in the image file, and determines whether the captured image has been tampered with.
  • the authenticity determination unit 321 may determine that the captured image has been tampered with.
  • step S143 the display processing unit 312 extracts the captured image, the local image capture time, and the image capture server time from the acquired image file, and displays them on the display unit 313.
  • step S143 When the processing of step S143 is completed, the image display processing ends. Also, if it is determined in step S142 that the captured image has been tampered with, the processing of step S143 is omitted and the image display processing ends. In this case, an error message may be displayed.
  • the display device 112 can more accurately determine the authenticity of the captured image. In other words, the user of the display device 112 can confirm a more accurate result of determining the authenticity of the captured image.
  • the imaging device 111 may also generate an electronic signature for the local imaging time and the imaging server time.
  • the time management unit 213 may generate the local imaging time and the imaging server time.
  • the hash processing unit 228 may further generate a hash using the local imaging time and the imaging server time.
  • the signature generation unit 230 may generate an electronic signature for the captured image, the local imaging time (first imaging time), and the imaging server time (second imaging time) by encrypting this hash (i.e., the hash generated using the captured image, the local imaging time, the imaging server time, etc.).
  • the imaging device 111 can prevent tampering with the imaging local time and imaging server time.
  • the above-mentioned method 1-1 may be applied. That is, the acquisition time of the server time (acquired server time) may be stored in a file.
  • the image file generating unit 231 may store the acquired server time (second time) indicating the acquisition timing in the image file.
  • steps S151 to S154 are executed in the same manner as steps S121 to S124 in FIG. 9.
  • the image file generation unit 231 generates an image file and stores the main image (captured image), the reduced image, image information, and the signature.
  • the image file generation unit 231 also stores the imaging local time (first imaging time), the imaging server time (second imaging time), and the acquisition server time in the image file.
  • the image file generation unit 231 generates an image file that stores the captured image, the imaging local time (first imaging time) indicating the generation timing of the captured image by local time information (first time information), the imaging server time (second imaging time) indicating the generation timing by server time information (second time information), and the acquisition server time (second time) indicating the acquisition timing.
  • the time management unit 213 holds the acquisition server time.
  • steps S156 and S157 are performed in the same manner as those in steps S126 and S127 in FIG. 9.
  • step S157 the imaging process ends.
  • Image display process flow the image display process executed in the display device 112 (second information processing device) is executed in the same manner as in the example of FIG.
  • the display device 112 may perform processing using the acquisition server time stored in the file. This acquisition server time may be used in any manner. For example, the display device 112 may use the acquisition server time to determine the reliability of the imaging server time. The display device 112 may also display the reliability determination result.
  • the reliability determination unit 322 may determine the reliability of the imaging server time (second imaging time). Then, the display processing unit 312 may display the determined reliability on the display unit 313.
  • the image file acquisition unit 311 acquires an image file in step S161.
  • This image file stores an image generated by an imaging device (first image processing device), an imaging local time (first imaging time) indicating the timing of generation of the image by local time information (first time information), an imaging server time (second imaging time) indicating the timing of generation by server time information (second time information), and an acquisition server time (second time) indicating the acquisition timing.
  • the reliability determination unit 322 determines the reliability of the imaging server time (second imaging time) using the acquisition server time (second time). Any method may be used to determine the reliability of the imaging server time. For example, the reliability determination unit 322 may determine the reliability of the imaging server time based on the length of time between the acquisition server time and the imaging server time. For example, the reliability determination unit 322 may determine that the longer the time between the acquisition server time and the imaging server time, the lower the reliability of the imaging server time.
  • step S163 the display processing unit 312 extracts the captured image, the local image capture time, and the image capture server time from the acquired image file, and displays them on the display unit 313.
  • the display processing unit 312 also displays the reliability determination result on the display unit 313.
  • step S163 When the processing of step S163 is completed, the image display processing ends.
  • the display device 112 can present the reliability of the imaging server time. In other words, the user of the display device 112 can more easily check the reliability of the imaging server time.
  • the imaging server time may also be corrected based on the acquisition server time.
  • the acquisition server time (second time) may be stored in an image file supplied to the display device 112 (second information processing device). Then, in the display device 112, the display processing unit 312 may display on the display unit 313 the imaging server time (second imaging time) corrected based on the deviation amount per unit time of the local clock and the acquisition server time.
  • the deviation per unit time of the local clock may be managed by any device.
  • the imaging device 111 may manage the deviation per unit time.
  • the clock server 113 or the like may manage the deviation per unit time.
  • the clock server 113 may manage the deviation per unit time of the local clock for each device.
  • the deviation management unit 421 in the clock server 113 (information processing device) may manage the deviation per unit time of the local clock generated in another device (e.g., the imaging device 111) for each other device.
  • the clock server 113 can more easily provide the deviation per unit time of the local clock of the requested (specified) device.
  • the imaging device 111 may also manage the deviation amount per unit time of its own local clock. In this way, the imaging device 111 can more easily provide the deviation amount per unit time of its own local clock.
  • the deviation amount per unit time of the local clock may be derived by any device.
  • the imaging device 111 may derive the deviation amount per unit time.
  • the clock server 113 may derive the deviation amount per unit time.
  • the imaging server time may be corrected in any device.
  • the display device 112 may correct the imaging server time based on the deviation per unit time between the acquired server time and the local clock.
  • the clock server 113 may correct the imaging server time based on the deviation per unit time between the acquired server time and the local clock.
  • the imaging device 111 may also generate an electronic signature for this acquired server time.
  • the signature generation unit 230 may generate an electronic signature for the captured image, the imaging local time (first imaging time), the imaging server time (second imaging time), and the acquired server time (second time).
  • the image file generation unit 231 may then store the generated electronic signature in the image file. In this way, the imaging device 111 can prevent tampering with the acquired server time.
  • the above-described method 1-1-1 may be applied. That is, local identification information for identifying the imaging device 111 may be stored in a file.
  • the image file generating unit 231 may store local identification information (identification information) for identifying the device in a file.
  • steps S171 to S174 are executed in the same manner as steps S121 to S124 in FIG. 9.
  • the image file generation unit 231 generates an image file and stores the main image (captured image), the reduced image, image information, and the signature.
  • the image file generation unit 231 also stores in the image file the local image capture time (first image capture time), the image capture server time (second image capture time), the acquisition server time, and local identification information.
  • the image file generation unit 231 generates an image file that stores the captured image, the local image capture time (first image capture time) indicating the timing of generation of the captured image by the local time information (first time information), the image capture server time (second image capture time) indicating the timing of generation by the server time information (second time information), the acquisition server time (second time) indicating the timing of acquisition, and local identification information that identifies the device.
  • steps S176 and S177 are performed in the same manner as those in steps S126 and S127 in FIG. 9.
  • step S177 the imaging process ends.
  • the device that processes the file e.g., display device 112 can more easily identify the device that generated the captured image stored in the file based on the local identification information.
  • the display device 112 may perform processing using the local identification information.
  • the display device 112 may use the local identification information to acquire the deviation amount per unit time of the local clock of the imaging device 111 from the clock server 113. Then, the display device 112 may use the acquired deviation amount per unit time of the local clock to correct the imaging server time and display the corrected imaging server time.
  • the display device 112 may request the deviation per unit time of the local clock of the imaging device 111 using the local identification information (or an image file in which the local identification information is stored).
  • the clock server 113 may supply the requested deviation per unit time of the local clock of the imaging device 111 to the display device based on the local identification information.
  • the display device 112 may correct the imaging server time based on the deviation per unit time of the local clock of the imaging device 111 and the acquired server time, and display the corrected imaging server time and imaging local time.
  • the deviation amount information supply unit 423 may supply deviation amount information indicating the deviation amount per unit time of the local clock of a specified other device (imaging device 111) to the display device 112 that displays the captured image generated in the other device.
  • the deviation amount information acquisition unit 323 may acquire deviation amount information indicating the deviation amount per unit time of the local clock from the clock server 113 or the like (server). Then, the imaging time correction unit 324 may correct the imaging server time (second imaging time) based on the acquired deviation amount information and the acquisition server time (second time).
  • the image file acquisition unit 311 acquires an image file in step S181.
  • This image file stores an image generated by an imaging device (first image processing device), an imaging local time (first imaging time) indicating the timing of generation of the image by local time information (first time information), an imaging server time (second imaging time) indicating the timing of generation by server time information (second time information), an acquisition server time (second time) indicating the acquisition timing, and local identification information that identifies the device.
  • step S182 the deviation amount information acquisition unit 323 requests deviation amount information indicating the deviation amount per unit time of the local clock generated within the imaging device 111 by supplying local time information indicating the imaging device 111 (or an image file storing that local identification information) to the clock server 113.
  • step S183 the deviation amount information acquisition unit 323 acquires the deviation amount information provided by the clock server 113 in response to the request.
  • step S184 the imaging time correction unit 324 corrects the imaging server time using the acquired server time and the acquired deviation amount information.
  • step S185 the display processing unit 312 extracts the captured image and the local imaging time from the image file, and displays the corrected imaging server time on the display unit 313 together with the extracted captured image and local imaging time.
  • step S185 the image display process ends.
  • the display device 112 can display the image capture time more accurately.
  • step S191 the request acquisition unit 422 of the clock server 113 receives a request (a request for deviation amount information) from the display device 112.
  • This request includes local identification information (or an image file that stores the local identification information) that indicates the desired device (e.g., the imaging device 111).
  • the deviation amount management unit 421 identifies the deviation amount per unit time of the local clock of the specified device (e.g., the imaging device 111) in accordance with the request (local identification information).
  • the deviation amount information supply unit 423 generates deviation amount information indicating the deviation amount per unit time of the identified local clock, and supplies the deviation amount information to the display device 112 that made the request.
  • step S192 When the processing of step S192 is completed, the deviation amount information supply process ends.
  • the clock server 113 can more easily supply the deviation per unit time of the local clock of the requested device (e.g., the imaging device 111) to the display device 112.
  • the clock server 113 may manage the deviation amount per unit time of the local clock, and the clock server 113 may correct the imaging server time.
  • the display device 112 may request the clock server 113 to correct the imaging server time using the local identification information, the acquired server time, and the imaging server time (or an image file in which they are stored).
  • the clock server 113 may specify the deviation amount per unit time of the requested local clock of the imaging device 111 based on the local identification information.
  • the clock server 113 may correct the imaging server time based on the deviation amount per unit time and the acquired server time.
  • the clock server 113 may supply the corrected imaging server time to the display device 112.
  • the display device 112 may acquire and display the corrected imaging server time.
  • the imaging time correction unit 424 may use the deviation per unit time of the local clock of a specified imaging device 111 (another device) to correct the imaging time of an image generated in the imaging device 111.
  • the imaging time supply unit 425 may supply the corrected imaging time to the display device 112 that displays the captured image.
  • the imaging time acquisition unit 325 may acquire the corrected imaging server time (second imaging time) from the clock server 113 or the like (server).
  • the image file acquisition unit 311 acquires an image file in step S201.
  • This image file stores an image generated by an imaging device (first image processing device), an imaging local time (first imaging time) indicating the timing of generation of the image by local time information (first time information), an imaging server time (second imaging time) indicating the timing of generation by server time information (second time information), an acquisition server time (second time) indicating the acquisition timing, and local identification information that identifies the device.
  • step S202 the imaging time acquisition unit 325 requests correction of the imaging server time by supplying the local time information indicating the imaging device 111, the acquisition server time, and the imaging server time (or an image file storing them) to the clock server 113.
  • step S203 the imaging time acquisition unit 325 acquires the corrected imaging server time provided by the clock server 113 in response to the request.
  • step S204 the display processing unit 312 extracts the captured image and the local imaging time from the image file, and displays the corrected imaging server time on the display unit 313 together with the extracted captured image and local imaging time.
  • step S204 When the processing of step S204 is completed, the image display processing ends.
  • the request acquisition unit 422 of the clock server 113 accepts a request (a request for the corrected imaging server time) from the display device 112.
  • This request includes local time information indicating the desired device (e.g., the imaging device 111), the acquisition server time, and the imaging server time (or an image file that stores them).
  • the deviation amount management unit 421 identifies the deviation amount per unit time of the local clock of the specified device (e.g., the imaging device 111) in accordance with the request (local identification information).
  • the imaging time correction unit 424 corrects the imaging server time using the identified deviation amount per unit time of the local clock and the acquired server time.
  • step S213 the imaging time supply unit 425 supplies the corrected imaging server time to the display device 112 that made the request.
  • the clock server 113 can correct the imaging server time more accurately. In other words, the clock server 113 can provide a more accurate imaging server time.
  • the imaging device 111 may also generate an electronic signature for this local identification information.
  • the signature generation unit 230 may generate an electronic signature for the captured image, the imaging local time (first imaging time), the imaging server time (second imaging time), the acquisition server time (second time), and the local identification information.
  • the image file generation unit 231 may store the generated electronic signature in the image file. In this way, the imaging device 111 can prevent tampering with the local identification information.
  • the above-mentioned method 1-1-2 may be applied. That is, the deviation amount information may be stored in a file.
  • the image file generating unit 231 may store the deviation amount information indicating the deviation amount per unit time of the local clock in a file.
  • step S221 to step S224 are executed in the same manner as the processes from step S121 to step S124 in FIG. 9.
  • the image file generation unit 231 generates an image file and stores the main image (captured image), the reduced image, image information, and the signature.
  • the image file generation unit 231 also stores the imaging local time (first imaging time), the imaging server time (second imaging time), the acquisition server time, and the deviation amount information in the image file.
  • the image file generation unit 231 generates an image file that stores the captured image, the imaging local time (first imaging time) indicating the generation timing of the captured image by the local time information (first time information), the imaging server time (second imaging time) indicating the generation timing by the server time information (second time information), the acquisition server time (second time) indicating the acquisition timing, and the deviation amount information.
  • steps S226 and S227 are performed in the same manner as those in steps S126 and S127 in FIG. 9.
  • step S227 the imaging process ends.
  • the device that processes the file e.g., the display device 112 can more easily obtain the deviation amount per unit time of the local clock.
  • the deviation amount per unit time of the local clock may be derived by any device.
  • the imaging device 111 may derive the deviation amount per unit time of its own local clock.
  • the imaging device 111 may derive the deviation amount per unit time of the local clock from the current time (also referred to as the current server time) in the server time information, the previously acquired server time, and the currently acquired server time.
  • the imaging device 111 derives the time from the previously acquired server time to the current server time (the time according to the server time information), derives the deviation amount between the current server time and the currently acquired server time (the deviation amount of the current time between the standard time information and the server time information), and derives the deviation amount per unit time of the local clock based on them. Also, the imaging device 111 may acquire the deviation amount per unit time of its own local clock from the clock server 113 or the like.
  • step S231 the time acquisition unit 212 acquires the current time provided by the clock server.
  • step S232 the time management unit 213 uses the local clock to manage the server time information, which starts at the acquired current time.
  • step S233 the time management unit 213 derives the amount of deviation per unit time using the current server time, the previously obtained server time, and the currently obtained server time.
  • step S233 When the processing of step S233 is completed, the server time acquisition process is also completed.
  • the imaging device 111 can more easily calculate the deviation per unit time of its own local clock.
  • the display device 112 may correct the imaging server time based on the deviation amount information and the acquisition server time stored in the image file as described above, and display the corrected imaging server time.
  • the image file may store deviation amount information indicating the deviation amount per unit time of the local clock and the acquisition server time (second time).
  • the imaging time correction unit 324 may correct the imaging server time (second imaging time) based on the deviation amount information and the acquisition server time.
  • the image file acquisition unit 311 acquires an image file in step S241.
  • This image file stores the captured image generated by the imaging device 111 (first image processing device), the imaging local time (first imaging time) indicating the timing of generation of the captured image using local time information (first time information), the imaging server time (second imaging time) indicating the timing of generation using server time information (second time information), the acquisition server time (second time) indicating the acquisition timing, and the deviation amount information.
  • step S242 the imaging time correction unit 324 corrects the imaging server time using the deviation amount information and the acquired server time.
  • step S243 the display processing unit 312 extracts the captured image and the local imaging time from the image file, and displays the corrected imaging server time on the display unit 313 together with the extracted captured image and local imaging time.
  • step S243 When the processing of step S243 is completed, the image display processing ends.
  • the display device 112 can more easily correct the imaging server time. In addition, the display device 112 can display a more accurate imaging time.
  • the imaging device 111 may also generate an electronic signature for this deviation amount information.
  • the signature generation unit 230 may generate an electronic signature for the captured image, the imaging local time (first imaging time), the imaging server time (second imaging time), the acquisition server time (second time), and the deviation amount information.
  • the image file generation unit 231 may store the generated electronic signature in an image file. In this way, the imaging device 111 can prevent tampering with the deviation amount information.
  • the above-mentioned method 1-1-3 may be applied. That is, when acquiring the current time (currently acquired server time) from a server (such as the clock server 113), local identification information, the current server time, and the previously acquired server time may be provided.
  • the time acquisition unit 212 when the time acquisition unit 212 acquires the currently acquired server time (the second time), the time acquisition unit 212 may supply the server (such as the clock server 113) with local identification information (identification information) for identifying the device, the current server time (the current time indicated by the server time information (the second time information)), and the previously acquired server time (the second time indicating the timing of the previous acquisition).
  • step S251 the time acquisition unit 212 supplies the local identification information, the current server time, and the previously acquired server time to the clock server 113 and requests the current time.
  • step S252 the time acquisition unit 212 acquires the current time in the standard time information provided by the clock server 113 in response to the request.
  • step S253 the time management unit 213 uses the local clock to manage the server time information, which starts at the acquired current time.
  • step S253 When the processing of step S253 is completed, the server time acquisition process is also completed.
  • the imaging device 111 can more easily provide the local identification information, the current server time, and the previously obtained server time to the clock server 113, etc.
  • the clock server 113 may use the current server time and the previously obtained server time supplied from the imaging device 111, and the current time in the standard time information (i.e., the currently obtained server time) to derive the amount of deviation per unit time of the local clock of the imaging device 111.
  • the clock server 113 may then manage the derived amount of deviation per unit time for each device (linked to local identification information).
  • the time acquisition unit 413 in the clock server 113 supplies the acquired server time (first current time) to be supplied currently to the imaging device 111 (another device)
  • it may acquire local identification information that identifies the imaging device 111, the acquired server time previously supplied to the imaging device 111 (second current time previously supplied), and the current server time (third current time) indicated by server time information managed by the imaging device 111 using a local clock with the second current time previously supplied as the start time.
  • the deviation amount derivation unit 414 may derive the deviation amount per unit time using the first current time and the acquired second current time and third current time.
  • the deviation amount management unit 421 may use the acquired identification information to manage the derived deviation amount per unit time for each of the other devices.
  • step S261 the time acquisition unit 413 acquires the local identification information, current server time, and previously acquired server time supplied from the imaging device 111 as a request for the current time.
  • step S262 the current time supply unit 412 supplies the current time in the standard time information to the imaging device 111 in response to the request.
  • step S263 the deviation amount derivation unit 414 uses the current server time, the previously obtained server time, and the current time to derive the deviation amount per unit time of the local clock of the imaging device 111.
  • step S264 the deviation amount management unit 421 manages the derived deviation amount per unit time of the local clock of the imaging device 111 for each device.
  • step S264 When the processing of step S264 is completed, the server time supply process ends.
  • the clock server 113 can more easily derive the deviation per unit time of the local clock. In addition, the clock server 113 can more easily manage the deviation per unit time of the local clock for each device.
  • the above-mentioned method 1-2 may be applied. That is, if the imaging device 111 cannot manage the time information, the storage of the time information may be omitted. For example, in the first image processing device (imaging device), if the time management unit 213 cannot manage the server time information (second time information), the storage of the imaging server time (second imaging time) in the image file may be omitted.
  • steps S271 to S274 are executed in the same manner as steps S121 to S124 in FIG. 9.
  • step S275 the image file generation unit 231 generates an image file and stores the original image (captured image), the reduced image, image information, and the signature.
  • step S276 the time management unit 213 determines whether the time information is being managed correctly. If it is determined that the time information is being managed correctly, the process proceeds to step S277.
  • step S277 the image file generation unit 231 stores the imaging local time (first imaging time) and the imaging server time (second imaging time) in the image file.
  • step S277 the processing proceeds to step S279.
  • step S278 the image file generation unit 231 omits storing the imaging server time (second imaging time) and stores the imaging local time (first imaging time) in the image file.
  • steps S279 and S280 are performed in the same manner as those in steps S126 and S127 in FIG. 9.
  • step S280 the imaging process ends.
  • the imaging device 111 can suppress the storage of information with low reliability or accuracy in the file. In other words, the imaging device 111 can suppress a decrease in the accuracy or reliability of the image file (i.e., the information in the image file).
  • the imaging device 111 may acquire server time information at startup, shutdown, or network connection.
  • the imaging device may acquire the current time (acquired server time) from a clock server or the like at any timing. For example, it may be at startup of the imaging device, at shutdown, or when connected to the network.
  • the time management unit 213 may acquire the acquired server time (second time) at startup or shutdown of the imaging device 111, or when connected to the network.
  • the imaging device 111 may periodically acquire the current time (acquired server time) from the clock server 113 or the like during a period when the imaging device 111 is connectable to the network. In addition, the imaging device 111 may acquire the current time (acquired server time) from the clock server 113 or the like at a timing based on an instruction from a user or the like.
  • the imaging device 111 may acquire server time information using encrypted communication.
  • the current time supply unit 412 may supply the current time (acquired server time) to another device (imaging device 111) using encrypted communication.
  • the time acquisition unit 212 may acquire and decrypt the acquired server time (second time) provided using encrypted communication.
  • the imaging device 111 may overwrite the local time information with the server time information.
  • the time setting unit 211 may set the set local time (first time) using the server time information (second time information).
  • a setting may be provided for overwriting the local time information with the server time information.
  • the imaging device 111 may have, as operation modes, a mode in which the local time information is overwritten with the server time information and a mode in which the local time information is not overwritten, and the operation mode may be selected by a user or the like.
  • the time setting unit 211 may select, based on a user instruction, whether or not to use the server time information (second time information) to set the set local time (first time).
  • control unit 201 of the imaging device 111 determines in step S291 whether or not to set the overwrite mode. If it is determined that the overwrite mode is to be set, the process proceeds to step S292.
  • step S292 the control unit 201 controls the time management unit 213 to set the operation mode to an overwrite mode in which the server time information (second time information) is used to set the set local time (first time).
  • the operation mode setting process ends.
  • step S291 If it is determined in step S291 that overwrite mode is not to be set (overwrite prohibition mode is to be set), processing proceeds to step S293.
  • step S293 the control unit 201 controls the time management unit 213 to set the operation mode to an overwrite prohibition mode, which prohibits the setting of the set local time (first time) using server time information (second time information).
  • step S293 ends, the operation mode setting process ends.
  • ⁇ Combination> Each method described above in ⁇ 3. Transmission of imaging local time and imaging server time> may be applied to the image processing system 100 (each device) in combination with any other method as long as no contradiction occurs. Three or more methods may be applied in combination. For example, any two or more of methods 1-1 to 1-5 may be applied in combination. In addition, the methods that can be combined are not limited to those shown in the table of FIG. 1 as "methods" but may include all the elements described above in ⁇ 3. Transmission of imaging local time and imaging server time>. In addition, each method described above may be applied in combination with other methods other than those described above.
  • the above-mentioned series of processes can be executed by hardware or software.
  • the programs constituting the software are installed in a computer.
  • the computer includes a computer built into dedicated hardware, and a general-purpose personal computer, etc., capable of executing various functions by installing various programs.
  • FIG. 26 is a block diagram showing an example of the hardware configuration of a computer that executes the above-mentioned series of processes using a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input/output interface 910 Also connected to the bus 904 is an input/output interface 910.
  • An input unit 911, an output unit 912, a memory unit 913, a communication unit 914, and a drive 915 are connected to the input/output interface 910.
  • the input unit 911 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, etc.
  • the output unit 912 includes, for example, a display, a speaker, an output terminal, etc.
  • the storage unit 913 includes, for example, a hard disk, a RAM disk, a non-volatile memory, etc.
  • the communication unit 914 includes, for example, a network interface.
  • the drive 915 drives removable media 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads a program stored in the storage unit 913, for example, into the RAM 903 via the input/output interface 910 and the bus 904, and executes the program, thereby carrying out the above-mentioned series of processes.
  • the RAM 903 also stores data necessary for the CPU 901 to execute various processes, as appropriate.
  • the program executed by the computer can be applied by recording it on removable media 921 such as package media, for example.
  • the program can be installed in the storage unit 913 via the input/output interface 910 by inserting the removable media 921 into the drive 915.
  • the program can also be provided via a wired or wireless transmission medium, such as a local area network, the Internet, or digital satellite broadcasting. In that case, the program can be received by the communication unit 914 and installed in the storage unit 913.
  • a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be received by the communication unit 914 and installed in the storage unit 913.
  • this program can also be pre-installed in the ROM 902 or memory unit 913.
  • This technology can be applied to any encoding/decoding method.
  • this technology can be applied to any configuration.
  • this technology can be applied to various electronic devices.
  • the present technology can be implemented as part of an apparatus, such as a processor (e.g., a video processor) as a system LSI (Large Scale Integration), a module using multiple processors (e.g., a video module), a unit using multiple modules (e.g., a video unit), or a set in which other functions are added to a unit (e.g., a video set).
  • a processor e.g., a video processor
  • system LSI Large Scale Integration
  • modules using multiple processors e.g., a video module
  • a unit using multiple modules e.g., a video unit
  • a set in which other functions are added to a unit e.g., a video set.
  • the present technology can also be applied to a network system consisting of multiple devices.
  • the present technology may be implemented as cloud computing in which multiple devices share and collaborate on processing via a network.
  • the present technology may be implemented in a cloud service that provides image (video) related services to any terminal, such as a computer, AV (Audio Visual) equipment, portable information processing terminal, IoT (Internet of Things) device, etc.
  • a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
  • Systems, devices, processing units, etc. to which the present technology is applied can be used in any field, for example, transportation, medical care, crime prevention, agriculture, livestock farming, mining, beauty, factories, home appliances, weather, nature monitoring, etc.
  • the applications thereof are also arbitrary.
  • this technology can be applied to systems and devices used to provide ornamental content, etc.
  • this technology can be applied to systems and devices used for transportation, such as monitoring traffic conditions and automatic driving control.
  • this technology can be applied to systems and devices used for security purposes.
  • this technology can be applied to systems and devices used for automatic control of machines, etc.
  • this technology can be applied to systems and devices used for agriculture and livestock farming.
  • this technology can be applied to systems and devices that monitor natural conditions such as volcanoes, forests, and oceans, and wildlife, etc.
  • this technology can be applied to systems and devices used for sports.
  • a "flag” refers to information for identifying multiple states, and includes not only information used to identify two states, true (1) or false (0), but also information capable of identifying three or more states.
  • the value that this "flag” can take may be, for example, two values, 1/0, or three or more values. That is, the number of bits constituting this "flag” is arbitrary, and may be one bit or multiple bits.
  • identification information including flags
  • identification information includes flags
  • “flag” and “identification information” include not only the information itself, but also difference information with respect to the reference information.
  • association means, for example, making one piece of data available (linked) when processing the other piece of data.
  • data associated with each other may be combined into one piece of data, or each piece of data may be individual data.
  • information associated with encoded data (image) may be transmitted on a transmission path different from that of the encoded data (image).
  • information associated with encoded data (image) may be recorded on a recording medium different from that of the encoded data (image) (or on a different recording area of the same recording medium).
  • this "association" may be a part of the data, not the entire data.
  • an image and information corresponding to that image may be associated with each other in any unit, such as multiple frames, one frame, or a part of a frame.
  • the configuration described above as one device (or processing unit) may be divided and configured as multiple devices (or processing units).
  • the configurations described above as multiple devices (or processing units) may be combined and configured as one device (or processing unit).
  • configurations other than those described above may be added to the configuration of each device (or processing unit).
  • part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit).
  • the above-mentioned program may be executed in any device.
  • the device has the necessary functions (functional blocks, etc.) and is capable of obtaining the necessary information.
  • each step of a single flowchart may be executed by a single device, or may be shared among multiple devices.
  • the multiple processes may be executed by a single device, or may be shared among multiple devices.
  • multiple processes included in a single step may be executed as multiple step processes.
  • processes described as multiple steps may be executed collectively as a single step.
  • the processing of the steps describing a program executed by a computer may be executed chronologically in the order described in this specification, or may be executed in parallel, or individually at the required timing, such as when a call is made. In other words, as long as no contradiction arises, the processing of each step may be executed in an order different from the order described above. Furthermore, the processing of the steps describing this program may be executed in parallel with the processing of other programs, or may be executed in combination with the processing of other programs.
  • the multiple technologies related to the present technology can be implemented independently and individually, so long as no contradictions arise.
  • any multiple of the present technologies can also be implemented in combination.
  • part or all of the present technology described in any embodiment can be implemented in combination with part or all of the present technology described in another embodiment.
  • part or all of any of the present technologies described above can be implemented in combination with other technologies not described above.
  • the present technology can also be configured as follows. (1) a setting unit that sets a first time; an acquisition unit that acquires a second time provided from a server; a time management unit that manages first time information, the start time of which is the set first time, and second time information, the start time of which is the acquired second time, by using a local clock generated within the device; an imaging unit that captures an image of a subject and generates a captured image; and a file generation unit that generates a file storing the captured image, a first capturing time indicating a generation timing of the captured image by the first time information, and a second capturing time indicating the generation timing by the second time information.
  • the image processing device according to any one of (1) to (5), wherein the time management unit is configured to omit storing the second image capturing time in the file when the second time information cannot be managed.
  • the acquisition unit is configured to acquire the second time when the device is started up or shut down, or when the device is connected to a network.
  • the acquisition unit acquires the encrypted second time and decrypts it.
  • the setting unit is configured to set the first time by using the second time information.
  • the image processing device (10) The image processing device according to (9), wherein the setting unit is configured to select, based on a user instruction, whether or not to use the second time information to set the first time.
  • the image capturing method further includes: a signature generating unit configured to generate an electronic signature for the captured image, the first image capturing time, and the second image capturing time;
  • the image processing device according to any one of (1) to (10), wherein the file generation unit is configured to store the generated electronic signature in the file.
  • a file acquisition unit that acquires a file storing a captured image generated by an imaging device, a first capture time indicating a generation timing of the captured image by first time information, and a second capture time indicating the generation timing by second time information; a display processing unit that displays the captured image, the first capturing time, and the second capturing time, the first time information is time information that is managed using a local clock generated within the imaging device, with a first time set in the imaging device as a start time, The second time information is time information that is managed using the local clock, with a second time supplied from a server to the imaging device as a start time.
  • the image capturing apparatus further includes an authenticity determination unit that determines authenticity of the captured image based on the first imaging time and the second imaging time, The image processing device according to any one of the preceding claims, wherein the display processing unit is configured to display a result of the authenticity determination.
  • the image capturing apparatus further includes a reliability determination unit that determines a reliability of the second image capturing time, The image processing device according to any one of (13) to (14), wherein the display processing unit is configured to display the determined reliability.
  • the second time is stored in the file, The image processing device according to any one of (13) to (15), wherein the display processing unit is configured to display the second imaging time corrected based on the deviation amount per unit time of the local clock and the second time.
  • a deviation amount information acquisition unit that acquires deviation amount information indicating a deviation amount per unit time of the local clock from the server;
  • the file stores deviation amount information indicating a deviation amount per unit time of the local clock and the second time,
  • the first time information is time information that is managed using a local clock generated within the imaging device, with a first time set in the imaging device as a start time
  • the image processing method wherein the second time information is time information managed using the local clock, with a second time supplied from a server to the imaging device as a start time.
  • An information processing device comprising: a deviation amount management unit that manages, for each of other devices, a deviation amount per unit time of a local clock generated within the other device.
  • An imaging time correction unit that corrects an imaging time of a captured image generated in the other device by using the deviation amount per unit time of the local clock of the other device that is specified;
  • an acquisition unit that acquires, when supplying a first current time to the other device, identification information for identifying the other device, a second current time previously supplied to the other device, and a third current time indicated by time information managed by the other device using the local clock with the second current time as a start time; a deviation amount deriving unit that derives the deviation amount per unit time by using the first current time and the acquired second current time and third current time,
  • the information processing device according to any one of (21) to (23), wherein the deviation amount management unit is configured to manage the derived deviation amount per unit time for each of the other devices by using the acquired identification information.
  • the information processing device according to any one of (21) to (24), further comprising a current time supplying unit that supplies the current time to the other device by using encrypted communication.
  • a current time supplying unit that supplies the current time to the other device by using encrypted communication.
  • Image processing system 110 Network, 111 Imaging device, 112 Display device, 113 Clock server, 201 Control unit, 211 Time setting unit, 212 Time acquisition unit, 213 Time management unit, 221 Optical system, 222 Sensor unit, 228 Hash processing unit, 230 Signature generation unit, 231 Image file generation unit, 232 Image file recording unit, 233 Image file supply unit, 311 Image file Acquisition unit, 312, display processing unit, 321, authenticity determination unit, 322, reliability determination unit, 323, deviation amount information acquisition unit, 324, imaging time correction unit, 325, imaging time acquisition unit, 411, time management unit, 412, current time supply unit, 413, time acquisition unit, 414, deviation amount derivation unit, 421, deviation amount management unit, 422, request acquisition unit, 423, deviation amount information supply unit, 424, imaging time correction unit, 425, imaging time supply unit, 900, computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

本開示は、撮像画像のユーザビリティの低減を抑制することができるようにする画像処理装置および方法に関する。 第1の時刻を設定し、サーバから供給される第2の時刻を取得し、その設定した第1の時刻を開始時刻とする第1の時刻情報と、その取得した第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理し、被写体を撮像し撮像画像を生成し、その撮像画像と、その撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、その生成タイミングを第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成する。本開示は、例えば、画像処理装置、または画像処理方法等に適用することができる。

Description

画像処理装置および方法
 本開示は、画像処理装置および方法に関し、特に、撮像画像のユーザビリティの低減を抑制することができるようにした画像処理装置および方法に関する。
 従来、撮像装置等において撮像画像の生成タイミングを示す撮像時刻をその撮像画像とともにファイルに格納する(すなわち、撮像画像に撮像時刻を付加する)場合、例えば、この撮像時刻を生成するために、ユーザ等が時刻を設定することができる時刻情報を撮像装置により管理する方法があった。この時刻情報をローカル時刻情報とも称し、このローカル時刻情報により示される撮像時刻を撮像ローカル時刻とも称する。このローカル時刻情報の時刻はユーザ等により設定可能であるため、容易に撮像装置間で撮像時刻の対応を取る(時刻合わせをする)ことができる。そのため、この撮像ローカル時刻を利用することにより、より容易に、複数の撮像装置により生成された撮像画像群を撮像時刻に基づいて整列することができる。ただし、改ざんが容易であるため、撮像ローカル時刻が撮像画像の実際の撮像時刻であることを保証することは困難であった。
 また、時計サーバ等から現在時刻を取得し、撮像時刻を生成するために、その現在時刻に基づく時刻情報を撮像装置により管理する方法もあった。この時刻情報をサーバ時刻情報とも称し、このサーバ時刻情報により示される撮像時刻を撮像サーバ時刻とも称する。このサーバ時刻情報の時刻は、ユーザ等が変更することができない状態で管理された。したがって、撮像サーバ時刻が撮像画像の実際の撮像時刻であることをある程度の精度で保証することができた。ただし、撮像装置において時刻情報は、撮像装置内の水晶振動子により生成されるクロック信号を用いて管理されるため、一般的に、その精度は十分に高くない。そのため、サーバ時刻情報は、撮像装置間でずれが生じ易く、複数の撮像装置により生成された撮像画像群を撮像時刻に基づいて整列することに利用することは困難であった。
国際公開第2022/137798号
 つまり、これらの方法では、撮像画像に付加された撮像時刻の正確性の低減を抑制するとともに、撮像装置間におけるその撮像時刻の対応の正確性の低減を抑制することは、困難であった。そのため、撮像時刻に基づく撮像画像の真贋判定の正確性が低減したり、撮像時刻に基づく撮像画像の整列の正確性が低減したり、その作業の容易性が低減したりするおそれがあった。すなわち、撮像画像のユーザビリティ(使いやすさ)が低減するおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、撮像画像のユーザビリティの低減を抑制することができるようにするものである。
 本技術の一側面の画像処理装置は、第1の時刻を設定する設定部と、サーバから供給される第2の時刻を取得する取得部と、設定した前記第1の時刻を開始時刻とする第1の時刻情報と、取得した前記第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理する時刻管理部と、被写体を撮像し撮像画像を生成する撮像部と、前記撮像画像と、前記撮像画像の生成タイミングを前記第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを前記第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成するファイル生成部とを備える画像処理装置である。
 本技術の一側面の画像処理方法は、第1の時刻を設定し、サーバから供給される第2の時刻を取得し、設定した前記第1の時刻を開始時刻とする第1の時刻情報と、取得した前記第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理し、被写体を撮像し撮像画像を生成し、前記撮像画像と、前記撮像画像の生成タイミングを前記第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを前記第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成する画像処理方法である。
 本技術の他の側面の画像処理装置は、撮像装置により生成された撮像画像と、前記撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得するファイル取得部と、前記撮像画像、前記第1の撮像時刻、および前記第2の撮像時刻を表示する表示処理部とを備え、前記第1の時刻情報は、前記撮像装置において設定された第1の時刻を開始時刻とし、前記撮像装置内で生成されるローカルクロックを用いて管理された時刻情報であり、前記第2の時刻情報は、サーバから前記撮像装置に供給された第2の時刻を開始時刻とし、前記ローカルクロックを用いて管理された時刻情報である画像処理装置である。
 本技術の他の側面の画像処理方法は、撮像装置により生成された撮像画像と、前記撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得し、前記撮像画像、前記第1の撮像時刻、および前記第2の撮像時刻を表示し、前記第1の時刻情報は、前記撮像装置において設定された第1の時刻を開始時刻とし、前記撮像装置内で生成されるローカルクロックを用いて管理された時刻情報であり、前記第2の時刻情報は、サーバから前記撮像装置に供給された第2の時刻を開始時刻とし、前記ローカルクロックを用いて管理された時刻情報である画像処理方法である。
 本技術の一側面の画像処理装置および方法においては、第1の時刻が設定され、サーバから供給される第2の時刻が取得され、その設定した第1の時刻を開始時刻とする第1の時刻情報と、その取得した第2の時刻を開始時刻とする第2の時刻情報とが、装置内で生成されるローカルクロックを用いて管理され、被写体が撮像されて撮像画像が生成され、その撮像画像と、その撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、その生成タイミングを第2の時刻情報により示した第2の撮像時刻とを格納するファイルが生成される。
 本技術の他の側面の画像処理装置および方法においては、撮像装置により生成された撮像画像と、その撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、その生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルが取得され、その撮像画像、第1の撮像時刻、および第2の撮像時刻が表示される。
画像ファイルの生成方法の例を示す図である。 画像処理システムの主な構成例を示す図である。 撮像装置の主な構成例を示すブロック図である。 表示装置の主な構成例を示すブロック図である。 時計サーバの主な構成例を示すブロック図である。 表示例を示す外観図である。 ローカル時刻設定処理の流れの例を説明するフローチャートである。 サーバ時刻取得処理の流れの例を説明するフローチャートである。 撮像処理の流れの例を説明するフローチャートである。 画像表示処理の流れの例を説明するフローチャートである。 画像表示処理の流れの例を説明するフローチャートである。 撮像処理の流れの例を説明するフローチャートである。 画像表示処理の流れの例を説明するフローチャートである。 撮像処理の流れの例を説明するフローチャートである。 画像表示処理の流れの例を説明するフローチャートである。 ずれ量情報供給処理の流れの例を説明するフローチャートである。 画像表示処理の流れの例を説明するフローチャートである。 補正後撮像サーバ時刻供給処理の流れの例を説明するフローチャートである。 撮像処理の流れの例を説明するフローチャートである。 サーバ時刻取得処理の流れの例を説明するフローチャートである。 画像表示処理の流れの例を説明するフローチャートである。 サーバ時刻取得処理の流れの例を説明するフローチャートである。 サーバ時刻供給処理の流れの例を説明するフローチャートである。 撮像処理の流れの例を説明するフローチャートである。 動作モード設定処理の流れの例を説明するフローチャートである。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.技術内容・技術用語をサポートする文献等
 2.撮像画像と撮像時刻
 3.撮像ローカル時刻と撮像サーバ時刻の伝送
 4.第1の実施の形態(画像処理システム)
 5.付記
 <1.技術内容・技術用語をサポートする文献等>
 本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の特許文献等に記載されている内容や以下の特許文献において参照されている他の文献の内容等も含まれる。
 特許文献1:(上述)
 つまり、上述の特許文献に記載されている内容や、上述の特許文献において参照されている他の文献の内容等も、サポート要件を判断する際の根拠となる。
 <2.撮像画像と撮像時刻>
  <時刻情報の利用>
 本明細書において、時刻はタイミングを示す値であり、その値の単位は、例えば、年、月、週、日、時、分、秒等、時刻に関する任意の単位を含み得るものとする。また、時刻情報はそのような時刻を示し得る任意の情報を含むものとする。従来、撮像装置等において撮像画像の生成タイミングを示す撮像時刻をその撮像画像とともにファイルに格納する(すなわち、撮像画像に撮像時刻を付加する)方法があった。その場合、例えば、この撮像時刻を生成するために、ユーザ等が時刻を設定することができる時刻情報を撮像装置において管理する方法があった。以下において、この時刻情報をローカル時刻情報とも称する。また、このローカル時刻情報により示される撮像時刻を撮像ローカル時刻とも称する。また、ユーザ等により設定された時刻を設定ローカル時刻とも称する。
 ローカル時刻情報は、ユーザ等により設定された時刻(設定ローカル時刻)を開始時刻とし、その撮像装置内の水晶振動子により得られるクロック信号を用いて管理される。すなわち、そのクロック信号により開始時刻(設定ローカル時刻)から時刻が進められる。以下において、このクロック信号をローカルクロックとも称する。
 このローカル時刻情報の時刻はユーザ等により設定可能であるため、容易に撮像装置間で撮像時刻の対応を取る(時刻合わせをする)ことができる。つまり、複数の撮像装置で時刻合わせを行ってから撮像することにより、各撮像装置で生成される撮像画像の撮像時刻の対応をとることができる。つまり、各撮像装置のローカル時刻情報が所定の精度で統一される。そのため、この撮像ローカル時刻を利用することにより、より容易に、複数の撮像装置により生成された撮像画像群を撮像時刻に基づいて整列することができる。
 この時刻合わせは、どのような方法で行われてもよい。例えば、撮像装置間で時刻合わせの為の有線通信や無線通信等を行ってもよい。このような手法により、より高精度に時刻合わせを行うことができる。ただし、通信機能等が必要になったり、安定した通信環境が必要になったり、実現するための条件がより厳しくなる。また、各撮像装置のユーザが手動で時刻合わせを行ってもよい。例えば、各撮像装置に互いに同一の設定ローカル時刻を設定し、同時に(互いに同一のタイミングにおいて)管理(時刻の進行)を開始してもよい。このような手法により、通信を必要とせずに、容易かつ安価に時刻合わせを行うことができる。なお、10分の1秒程度の精度の時刻合わせであれば、このような手法により容易に実現することができる。
 ただし、ローカル時刻情報の時刻は改ざんが容易である。つまり、実際の時刻とは異なる時刻を設定ローカル時刻として容易に設定することができる。そのため、撮像ローカル時刻の正確性が低減するおそれがあった。そのため、現実的には、撮像ローカル時刻の正確性を保証することは困難であった。ここで、正確性とは、ローカル時刻情報と標準時刻情報とのずれ量の少なさを示す。標準時刻情報に対するずれ量が少ない程、ローカル時刻情報(撮像ローカル時刻)はより正確である(正確性が高い)と言える。換言するに、標準時刻情報に対するずれ量が大きい程、ローカル時刻情報(撮像ローカル時刻)はより不正確である(正確性が低い)と言える。例えば、撮像時刻に基づいて撮像画像の真贋を判定する手法があるが、撮像ローカル時刻の正確性は上述のように保証されないので、現実的には、撮像ローカル時刻をそのような手法に利用することは困難であった。
 これに対して、標準時刻情報を管理する時計サーバ等から現在時刻を取得し、撮像時刻を生成するために、その現在時刻に基づく時刻情報を撮像装置により管理する方法もあった。以下において、この時刻情報をサーバ時刻情報とも称する。また、このサーバ時刻情報により示される撮像時刻を撮像サーバ時刻とも称する。また、時計サーバ等から取得される現在時刻(すなわち、サーバ時刻情報により示される、その現在時刻を取得した時刻)を取得サーバ時刻とも称する。
 撮像装置において、このサーバ時刻情報の時刻は、ユーザ等により変更することができない状態で管理された。したがって、撮像サーバ時刻(サーバ時刻情報)の正確性は、ある程度の精度で保証することができた。ここで、正確性とは、ローカル時刻情報の場合と同様に、サーバ時刻情報と標準時刻情報とのずれ量の少なさを示す。つまり、撮像サーバ時刻を撮像画像のより正確な撮像時刻として利用することができた。そのため、例えば、撮像サーバ時刻を撮像画像の真贋判定に利用することができた。
 ただし、撮像装置において時刻情報は、撮像装置内の水晶振動子により生成されるクロック信号を用いて管理されるため、一般的に、その精度は十分に高くなく、かつ、個体に依存する。そのため、日、月、年と時間が経過するに従って、サーバ時刻情報の正確性が低減する(つまり、サーバ時刻情報と標準時刻情報とのずれ量が増大する)おそれがあった。換言するに、取得サーバ時刻から時間が経過するに従って、サーバ時刻情報は、撮像装置間においても対応関係の正確性が低減する(つまり、撮像装置間でサーバ時刻情報のずれ量が増大する)おそれがあった。一般的に、複数の撮像装置により生成された撮像画像群を撮像時刻に基づいて整列する場合の撮像装置間における撮像時刻の対応関係には、真贋判定に利用する場合の撮像時刻よりも高い正確性が求められる。そのため、上述のように撮像装置間におけるサーバ時刻情報の対応関係の正確性が低減すると、その撮像装置間における撮像サーバ時刻の対応関係の正確性を、その撮像画像群の整列に利用することができる程十分に高くすることは困難であった。
 つまり、複数の撮像装置により生成された撮像画像群を撮像サーバ時刻に基づいて整列することにより、その整列の精度(正確性)が低減するおそれがあった。換言するに、正確にその整列を行うためには、撮像時刻以外の情報(例えば撮像画像の内容)等を考慮して手作業等により整列する等、煩雑な作業が必要であった。そのため、現実的には、複数の撮像装置により生成された撮像画像群の整列に撮像サーバ時刻を利用することは困難であった。
 つまり、これらの方法では、撮像画像に付加された撮像時刻の正確性の低減を抑制するとともに、撮像装置間におけるその撮像時刻の対応の正確性の低減を抑制することは、困難であった。そのため、撮像時刻に基づく撮像画像の真贋判定の正確性が低減したり、撮像時刻に基づく撮像画像の整列の正確性が低減したり、その作業の容易性が低減したりするおそれがあった。すなわち、撮像画像のユーザビリティ(使いやすさ)が低減するおそれがあった。
 <3.撮像ローカル時刻と撮像サーバ時刻の伝送>
  <方法1>
 そこで、図1の表の最上段に示されるように、ローカル時刻情報とサーバ時刻情報を管理し、各時刻情報による撮像時刻を撮像画像とともにファイルに格納する(方法1)。
 例えば、第1の画像処理装置(撮像装置)が、第1の時刻(設定ローカル時刻)を設定する設定部と、サーバ(時計サーバ等)から供給される第2の時刻(取得サーバ時刻)を取得する取得部と、その設定した第1の時刻を開始時刻とする第1の時刻情報(ローカル時刻情報)と、その取得した第2の時刻を開始時刻とする第2の時刻情報(サーバ時刻情報)とを、その第1の画像処理装置内で生成されるローカルクロックを用いて管理する時刻管理部と、被写体を撮像し撮像画像を生成する撮像部と、その撮像画像と、その撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻(撮像ローカル時刻)と、その生成タイミングを第2の時刻情報により示した第2の撮像時刻(撮像サーバ時刻)とを格納するファイルを生成するファイル生成部とを備える。
 また、第1の画像処理装置(撮像装置)において、第1の時刻を設定し、サーバから供給される第2の時刻を取得し、その設定した第1の時刻を開始時刻とする第1の時刻情報と、その取得した第2の時刻を開始時刻とする第2の時刻情報とを、その第1の画像処理装置内で生成されるローカルクロックを用いて管理し、被写体を撮像し撮像画像を生成し、その撮像画像と、その撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、その生成タイミングを第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成する。
 ローカル時刻情報(第1の時刻情報)は、ユーザ等が設定ローカル時刻(第1の時刻)を設定することができる時刻情報である。撮像装置は、その設定に関する入力を受け付けるインタフェース(入力部)を有してもよい。サーバ時刻情報(第2の時刻情報)は、標準時刻情報(グローバルクロック)を管理し、提供する時計サーバ等から取得する取得サーバ時刻(第2の時刻)に基づく時刻情報である。撮像装置は、このサーバ時刻情報を、ユーザ等により設定することができない状態で管理する。撮像装置は、時計サーバ等から供給される取得サーバ時刻を取得するインタフェース(通信部等)を有してもよい。なお、この取得サーバ時刻を取得するタイミングは、どのようなタイミングであってもよい。
 撮像装置は、ローカル時刻情報およびサーバ時刻情報を、ローカルクロックを用いて管理する。ここで「管理する」とは、時刻を進めることを意味する。例えば、撮像装置は、ローカル時刻情報について、ユーザ等により設定された設定ローカル時刻を開始時刻としてローカルクロックにより時刻を進める。また、撮像装置は、サーバ時刻情報について、時計サーバ等から取得された取得サーバ時刻(標準時刻情報により示される現在時刻)を開始時刻としてローカルクロックにより時刻を進める。
 撮像装置は、被写体を撮像して撮像画像を生成すると、その撮像画像の生成タイミング(撮像時刻)を、ローカル時刻情報およびサーバ時刻情報を用いて示す。つまり、撮像装置は、ローカル時刻情報における撮像時刻を示す情報(撮像ローカル時刻)と、サーバ時刻情報における撮像時刻を示す情報(撮像サーバ時刻)とを生成する。撮像装置は、それらを撮像画像とともにファイルに格納する。
 そして、そのファイルが、通信媒体や記憶媒体を介して、表示装置(第2の画像処理装置)へ供給される。表示装置は、そのファイルを取得し、ファイルに格納される撮像画像、撮像ローカル時刻、および撮像サーバ時刻を表示する。
 例えば、第2の画像処理装置(表示装置)が、撮像装置(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングを第1の時刻情報(ローカル時刻情報)により示した第1の撮像時刻(撮像ローカル時刻)と、その生成タイミングを第2の時刻情報(サーバ時刻情報)により示した第2の撮像時刻(撮像サーバ時刻)とが格納されたファイルを取得するファイル取得部と、その撮像画像、第1の撮像時刻、および第2の撮像時刻を表示する表示処理部とを備える。
 また、第2の画像処理装置(表示装置)において、撮像装置により生成された撮像画像と、その撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、その生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得し、その撮像画像、第1の撮像時刻、および第2の撮像時刻を表示する。
 なお、第1の時刻情報(ローカル時刻情報)は、撮像装置(第1の画像処理装置)において設定された第1の時刻(設定ローカル時刻)を開始時刻とし、その撮像装置内で生成されるローカルクロックを用いて管理される時刻情報である。また、第2の時刻情報(サーバ時刻情報)は、サーバ(時計サーバ等)から撮像装置に供給された第2の時刻(取得サーバ時刻)を開始時刻とし、ローカルクロックを用いて管理される時刻情報である。
 例えば、表示装置のユーザは、このように表示された撮像サーバ時刻(第2の撮像時刻)に基づいて、表示された撮像画像の真贋(改ざんの有無またはその可能性等)を判定することができる。例えば、撮像サーバ時刻が撮像画像の内容に対して有り得ない時刻である場合、ユーザは、その撮像画像が改ざんされている可能性を疑うことができる。上述のように、サーバ時刻情報(第2の時刻情報)はユーザ等により変更することができない状態で管理される。そのため、撮像サーバ時刻(サーバ時刻情報)の正確性は、ある程度の精度で保証することができる。そのため、ユーザは、撮像画像の真贋判定をより正確に行うことができる。
 また、表示装置のユーザは、このように表示された撮像ローカル時刻(第1の撮像時刻)に基づいて、互いにローカル時刻情報(第1の時刻情報)の時刻合わせが行われている複数の撮像装置で生成された撮像画像群を整列することができる。上述のように、ローカル時刻情報は容易に撮像装置間で対応を取ることができる。したがって、撮像ローカル時刻を利用することにより、より容易かつより正確に、複数の撮像装置により生成された撮像画像群を撮像時刻に基づいて整列することができる。
 つまり、撮像画像に付加された撮像時刻の正確性の低減を抑制するとともに、撮像装置間におけるその撮像時刻の対応の正確性の低減を抑制することができる。すなわち、撮像画像のユーザビリティ(使いやすさ)の低減を抑制することができる。
 なお、表示装置が、その撮像ローカル時刻と撮像サーバ時刻とに基づいて撮像画像の真贋判定を行ってもよい。
 例えば、第2の情報処理装置(表示装置)が、第1の撮像時刻(撮像ローカル時刻)および第2の撮像時刻(撮像サーバ時刻)に基づいて、撮像画像の真贋判定を行う真贋判定部をさらに備えてもよい。そして、表示処理部が、その真贋判定の結果を表示するように構成されてもよい。
 このようにすることにより、表示装置は、撮像画像の真贋判定をより正確に行うことができる。換言するに、表示装置のユーザは、撮像画像のより正確な真贋判定結果を確認することができる。
 また、撮像装置が、撮像ローカル時刻と撮像サーバ時刻とを電子署名化してもよい。
 例えば、第1の情報処理装置(撮像装置)が、撮像画像、第1の撮像時刻(撮像ローカル時刻)、および、第2の撮像時刻(撮像サーバ時刻)の電子署名を生成する署名生成部をさらに備えてもよい。そして、ファイル生成部が、その生成された電子署名をファイルに格納するように構成されてもよい。
 このようにすることにより、撮像装置は、撮像ローカル時刻および撮像サーバ時刻の改ざんを抑制することができる。
  <方法1-1>
 上述の方法1が適用される場合において、図1の表の上から2段目に示されるように、サーバ時刻の取得時刻(取得サーバ時刻)をファイルに格納してもよい(方法1-1)。
 例えば、第1の画像処理装置(撮像装置)において、ファイル生成部が、取得タイミングを示す第2の時刻(取得サーバ時刻)をファイルに格納するように構成されてもよい。
 時計サーバ等は標準時刻情報における現在時刻を端末側に供給する。撮像装置は、その現在時刻を取得する。上述のように、撮像装置において、その現在時刻はサーバ時刻情報の開始時刻として利用される。つまり、その現在時刻は、サーバ時刻情報における、その現在時刻を取得したタイミングを示す時刻とも言える。したがって、その現在時刻を取得サーバ時刻とも称する。つまり、撮像装置は、その取得サーバ時刻(時計サーバ等より取得した標準時刻情報における現在時刻)を保持してもよい。そして、撮像装置は、撮像画像、撮像ローカル時刻、および撮像サーバ時刻等とともに、その取得サーバ時刻をファイルに格納してもよい。そして、撮像装置は、そのファイルを表示装置等に供給してもよい。
 例えば、表示装置が、そのファイルを取得すると、そのファイルに格納される取得サーバ時刻を利用した処理を行ってもよい。この取得サーバ時刻はどのように利用されてもよい。例えば、表示装置は、その取得サーバ時刻を用いて撮像サーバ時刻の信頼度判定を行ってもよい。また、表示装置は、その信頼度判定結果を表示してもよい。
 例えば、第2の画像処理装置(表示装置)が、第2の撮像時刻(撮像サーバ時刻)の信頼度を判定する信頼度判定部をさらに備えてもよい。そして、表示処理部が、その判定された信頼度を表示するように構成されてもよい。
 上述したように、サーバ時刻情報は、取得サーバ時刻から時間が経過する程、その正確性が低減し得る。そこで、表示装置は、例えば、取得サーバ時刻と撮像サーバ時刻との間の時間の長さに基づいて、撮像サーバ時刻の信頼度を判定してもよい。例えば、取得サーバ時刻と撮像サーバ時刻との間の時間が長い程、撮像サーバ時刻の信頼度が低いと判定してもよい。このようにすることにより、表示装置は、撮像サーバ時刻の信頼度を提示することができる。換言するに、表示装置のユーザは、より容易に、撮像サーバ時刻の信頼度を確認することができる。
 また、取得サーバ時刻に基づいて撮像サーバ時刻が補正されてもよい。例えば、表示装置が、取得サーバ時刻に基づいて補正された撮像サーバ時刻を表示してもよい。ここで、「補正」とは、標準時刻情報とのずれ量を低減させる処理を示す。つまり、撮像サーバ時刻の補正とは、その撮像サーバ時刻を標準時刻情報により示される撮像時刻に近づける処理を示す。
 撮像サーバ時刻と標準時刻情報による撮像時刻とのずれ量は、取得サーバ時刻から撮像サーバ時刻までの時間とローカルクロックの単位時間当たりのずれ量とに基づいて導出することができる。したがって、導出したずれ量で撮像サーバ時刻を補正することにより、その時刻を標準時刻情報による撮像時刻に近づけることができる。
 例えば、第2の情報処理装置(表示装置)において、ファイルには第2の時刻(取得サーバ時刻)が格納されていてもよい。そして、表示処理部が、ローカルクロックの単位時間当たりのずれ量とその第2の時刻とに基づいて補正された第2の撮像時刻(撮像サーバ時刻)を表示するように構成されてもよい。
 なお、ローカルクロックの単位時間当たりのずれ量は、どの装置により管理されてもよい。例えば、撮像装置がその単位時間当たりのずれ量を管理してもよい。また、時計サーバ等がその単位時間当たりのずれ量を管理してもよい。
 時計サーバが管理する場合、時計サーバは、ローカルクロックの単位時間当たりのずれ量を、機器毎に管理してもよい。
 例えば、情報処理装置(時計サーバ)が、他の装置内で生成されるローカルクロックの単位時間当たりのずれ量を、他の装置毎に管理するずれ量管理部を備える。
 また、情報処理装置(時計サーバ)において、他の装置内で生成されるローカルクロックの単位時間当たりのずれ量を、他の装置毎に管理する。
 このようにすることにより、時計サーバは、要求された(指定された)装置のローカルクロックの単位時間当たりのずれ量をより容易に供給することができる。
 また、撮像装置が管理する場合、撮像装置は、自身のローカルクロックの単位時間当たりのずれ量を管理してもよい。このようにすることにより、撮像装置は、自身のローカルクロックの単位時間当たりのずれ量をより容易に供給することができる。
 なお、ローカルクロックの単位時間当たりのずれ量は、どの装置において導出されてもよい。例えば、撮像装置がその単位時間当たりのずれ量を導出してもよい。また、時計サーバがその単位時間当たりのずれ量を導出してもよい。
 また、撮像サーバ時刻は、どの装置において補正されてもよい。例えば、表示装置が、取得サーバ時刻とローカルクロックの単位時間当たりのずれ量に基づいて、撮像サーバ時刻を補正してもよい。また、時計サーバが、取得サーバ時刻とローカルクロックの単位時間当たりのずれ量に基づいて、撮像サーバ時刻を補正してもよい。
 また、撮像装置が、この取得サーバ時刻を電子署名化してもよい。例えば、第1の情報処理装置(撮像装置)が、撮像画像、第1の撮像時刻(撮像ローカル時刻)、第2の撮像時刻(撮像サーバ時刻)、および第2の時刻(取得サーバ時刻)の電子署名を生成する署名生成部をさらに備えてもよい。そして、ファイル生成部が、その生成された電子署名をファイルに格納するように構成されてもよい。このようにすることにより、撮像装置は、取得サーバ時刻の改ざんを抑制することができる。
  <方法1-1-1>
 上述の方法1-1が適用される場合において、図1の表の上から3段目に示されるように、ローカル識別情報をファイルに格納してもよい(方法1-1-1)。本明細書において、ローカル識別情報は、撮像装置を識別する識別情報を示す。
 例えば、第1の画像処理装置(撮像装置)において、ファイル生成部が、装置を識別する識別情報(ローカル識別情報)をファイルに格納するように構成されてもよい。
 このように、ローカル識別情報をファイルに格納する(撮像画像に付加する)ことにより、そのファイルを処理する装置(例えば表示装置)は、そのローカル識別情報に基づいて、そのファイルに格納される撮像画像を生成した装置をより容易に識別することができる。
 なお、時計サーバがローカルクロックの単位時間当たりのずれ量を管理し、表示装置が撮像サーバ時刻を補正する場合、表示装置は、そのローカル識別情報(またはローカル識別情報が格納されるファイル)を用いて撮像装置のローカルクロックの単位時間当たりのずれ量を要求してもよい。時計サーバは、そのローカル識別情報に基づいて、要求された撮像装置のローカルクロックの単位時間当たりのずれ量を表示装置に供給してもよい。表示装置は、その撮像装置のローカルクロックの単位時間当たりのずれ量と、取得サーバ時刻とに基づいて、撮像サーバ時刻を補正し、補正後の撮像サーバ時刻と撮像ローカル時刻を表示してもよい。
 例えば、情報処理装置(時計サーバ)が、指定された他の装置(撮像装置)のローカルクロックの単位時間当たりのずれ量を示すずれ量情報を、他の装置において生成された撮像画像を表示する表示装置へ供給するずれ量情報供給部をさらに備えてもよい。
 例えば、第2の画像処理装置(表示装置)が、ローカルクロックの単位時間当たりのずれ量を示すずれ量情報をサーバ(時計サーバ等)から取得するずれ量情報取得部と、その取得されたずれ量情報と第2の時刻(取得サーバ時刻)とに基づいて第2の撮像時刻(撮像サーバ時刻)を補正する撮像時刻補正部をさらに備えてもよい。
 このようにすることにより、時計サーバは、要求された装置のローカルクロックの単位時間当たりのずれ量をより容易に表示装置に供給することができる。また、表示装置は、より正確な撮像時刻を表示することができる。
 時計サーバがローカルクロックの単位時間当たりのずれ量を管理し、その時計サーバが撮像サーバ時刻を補正する場合、表示装置は、時計サーバに対して、そのローカル識別情報と取得サーバ時刻と撮像サーバ時刻と(またはそれらが格納されるファイル)を用いて撮像サーバ時刻の補正を要求してもよい。時計サーバは、そのローカル識別情報に基づいて、要求された撮像装置のローカルクロックの単位時間当たりのずれ量を特定してもよい。そして、時計サーバは、その単位時間当たりのずれ量と取得サーバ時刻とに基づいて撮像サーバ時刻を補正してもよい。そして、時計サーバは、その補正された撮像サーバ時刻を表示装置に供給してもよい。表示装置は、その補正された撮像サーバ時刻を取得し、表示してもよい。
 例えば、情報処理装置(時計サーバ)が、指定された他の装置のローカルクロックの単位時間当たりのずれ量を用いて、他の装置において生成された撮像画像の撮像時刻を補正する撮像時刻補正部と、その補正された撮像時刻を、その撮像画像を表示する表示装置へ供給する撮像時刻供給部とをさらに備えてもよい。
 例えば、第2の画像処理装置(表示装置)が、補正された第2の撮像時刻(撮像サーバ時刻)をサーバ(時計サーバ等)から取得する撮像時刻取得部をさらに備えてもよい。
 このようにすることにより、時計サーバは、撮像サーバ時刻をより正確に補正することができる。つまり、時計サーバは、より正確な撮像サーバ時刻を提供することができる。また、表示装置は、より正確な撮像時刻を表示することができる。
 また、撮像装置が、このローカル識別情報を電子署名化してもよい。例えば、第1の情報処理装置(撮像装置)が、撮像画像、第1の撮像時刻(撮像ローカル時刻)、第2の撮像時刻(撮像サーバ時刻)、第2の時刻(取得サーバ時刻)、およびローカル識別情報の電子署名を生成する署名生成部をさらに備えてもよい。そして、ファイル生成部が、その生成された電子署名をファイルに格納するように構成されてもよい。このようにすることにより、撮像装置は、ローカル識別情報の改ざんを抑制することができる。
  <方法1-1-2>
 上述の方法1-1が適用される場合において、図1の表の上から4段目に示されるように、ずれ量情報をファイルに格納してもよい(方法1-1-2)。本明細書において、ずれ量情報は、ローカルクロックの単位時間当たりのずれ量を示す。
 例えば、第1の画像処理装置(撮像装置)において、ファイル生成部が、ローカルクロックの単位時間当たりのずれ量を示すずれ量情報をファイルに格納するように構成されてもよい。
 このように、ずれ量情報をファイルに格納する(撮像画像に付加する)ことにより、そのファイルを処理する装置(例えば表示装置)は、ローカルクロックの単位時間当たりのずれ量をより容易に取得することができる。
 この場合、ローカルクロックの単位時間当たりのずれ量は、どのような装置において導出されてもよい。例えば、撮像装置が、自身のローカルクロックの単位時間当たりのずれ量を導出してもよい。その場合、撮像装置は、サーバ時刻情報における現在時刻(現在サーバ時刻とも称する)と、前回の取得サーバ時刻と、今回の取得サーバ時刻とからローカルクロックの単位時間当たりのずれ量を導出してもよい。つまり、撮像装置は、前回の取得サーバ時刻から現在サーバ時刻までの時間(サーバ時刻情報による時間)を導出し、現在サーバ時刻と今回の取得サーバ時刻とのずれ量(標準時刻情報とサーバ時刻情報との間の現在時刻のずれ量)を導出し、それらに基づいて、ローカルクロックの単位時間当たりのずれ量を導出する。また、撮像装置が、自身のローカルクロックの単位時間当たりのずれ量を時計サーバ等から取得してもよい。
 表示装置は、このようにファイルに格納されたずれ量情報と取得サーバ時刻とに基づいて撮像サーバ時刻を補正し、補正後の撮像サーバ時刻を表示してもよい。
 例えば、ファイルには、ローカルクロックの単位時間当たりのずれ量を示すずれ量情報と第2の時刻(取得サーバ時刻)とが格納されており、第2の画像処理装置(表示装置)が、そのずれ量情報と第2の時刻とに基づいて第2の撮像時刻(撮像サーバ時刻)を補正する撮像時刻補正部をさらに備えてもよい。
 このようにすることにより、表示装置は、より容易に撮像サーバ時刻を補正することができる。
 また、撮像装置が、このずれ量情報を電子署名化してもよい。例えば、第1の情報処理装置(撮像装置)が、撮像画像、第1の撮像時刻(撮像ローカル時刻)、第2の撮像時刻(撮像サーバ時刻)、第2の時刻(取得サーバ時刻)、およびずれ量情報の電子署名を生成する署名生成部をさらに備えてもよい。そして、ファイル生成部が、その生成された電子署名をファイルに格納するように構成されてもよい。このようにすることにより、撮像装置は、ずれ量情報の改ざんを抑制することができる。
  <方法1-1-3>
 上述の方法1-1が適用される場合において、図1の表の上から5段目に示されるように、サーバから現在時刻(今回の取得サーバ時刻)を取得する際に、ローカル識別情報、現在サーバ時刻、前回の取得サーバ時刻を提供してもよい(方法1-1-3)。
 例えば、第1の画像処理装置(撮像装置)において、取得部が、第2の時刻(今回の取得サーバ時刻)を取得する際に、装置を識別する識別情報(ローカル識別情報)、第2の時刻情報(サーバ時刻情報)で示される現在時刻(現在サーバ時刻)、および、前回の取得タイミングを示す第2の時刻(前回の取得サーバ時刻)をサーバ(時計サーバ等)に供給するように構成されてもよい。
 このようにすることにより、撮像装置は、より容易に、これらの情報を時計サーバ等に提供することができる。
 時計サーバは、撮像装置から供給される現在サーバ時刻と前回の取得サーバ時刻と、時計サーバの現在時刻(すなわち、今回の取得サーバ時刻)とを用いて、その撮像装置のローカルクロックの単位時間当たりのずれ量を導出してもよい。そして、時計サーバは、その導出した単位時間当たりのずれ量を機器毎に(ローカル識別情報に紐づけて)管理してもよい。
 例えば、情報処理装置(時計サーバ)が、他の装置(撮像装置)に第1の現在時刻(今回供給する取得サーバ時刻)を供給する際に、他の装置を識別する識別情報(ローカル識別情報)と、他の装置に前回供給した第2の現在時刻(前回供給した取得サーバ時刻)と、他の装置が第2の現在時刻を開始時刻としてローカルクロックを用いて管理した時刻情報(サーバ時刻情報)により示される第3の現在時刻(現在サーバ時刻)とを取得する取得部と、その第1の現在時刻、並びに、取得した第2の現在時刻および第3の現在時刻を用いて単位時間当たりのずれ量を導出するずれ量導出部とをさらに備えてもよい。そして、ずれ量管理部が、その取得した識別情報を用いて、導出された単位時間当たりのずれ量を、他の装置毎に管理するように構成されてもよい。
 このようにすることにより、時計サーバは、より容易に、ローカルクロックの単位時間当たりのずれ量を導出することができる。また、時計サーバは、より容易に、そのローカルクロックの単位時間当たりのずれ量を機器毎に管理することができる。
  <方法1-2>
 上述の方法1が適用される場合において、図1の表の上から6段目に示されるように、撮像装置で時刻情報を管理できない場合、時刻情報の格納を省略してもよい(方法1-2)。例えば、撮像装置に内蔵される2次電池が切れる等して、ローカル時刻情報やサーバ時刻情報を正常に進めることができない事態になった場合、それらの時刻情報の正確性(または信頼度)が低減するおそれがある。そのため、そのような低信頼度(低正確性)の撮像時刻は、ファイルに格納しない(ファイルへの格納を省略する)ようにしてもよい。
 例えば、第1の画像処理装置(撮像装置)において、時刻管理部が、第2の時刻情報を管理できない場合、第2の撮像時刻のファイルへの格納を省略するように構成されてもよい。
 このようにすることにより、信頼度または正確性の低い情報をファイルに格納することを抑制することができる。換言するに、ファイル(すなわち、ファイル内の情報)の正確性または信頼度の低減を抑制することができる。
  <方法1-3>
 上述の方法1が適用される場合において、図1の表の上から7段目に示されるように、起動時、終了時、またはネットワーク接続時にサーバ時刻情報を取得してもよい(方法1-3)。撮像装置は、どのようなタイミングにおいて、時計サーバ等から現在時刻(取得サーバ時刻)を取得してもよい。例えば、撮像装置の起動時であってもよいし、終了時(シャットダウン時)であってもよいし、ネットワーク接続であってもよい。
 例えば、第1の画像処理装置(撮像装置)において、取得部が、装置の起動時若しくは終了時、または、ネットワーク接続時に第2の時刻(取得サーバ時刻)を取得するように構成されてもよい。
 また、撮像装置が、ネットワークに接続可能な期間において、時計サーバ等から現在時刻(取得サーバ時刻)を定期的に取得してもよい。また、撮像装置が、ユーザ等の指示に基づくタイミングにおいて、時計サーバ等から現在時刻(取得サーバ時刻)を取得してもよい。
  <方法1-4>
 上述の方法1が適用される場合において、図1の表の上から8段目に示されるように、暗号化された通信を用いてサーバ時刻情報を取得してもよい(方法1-4)。
 例えば、情報処理装置(時計サーバ)が、暗号化された通信を用いて現在時刻(取得サーバ時刻)を他の装置(撮像装置)に供給する現在時刻供給部をさらに備えてもよい。
 例えば、第1の画像処理装置(撮像装置)において、取得部が、暗号化された第2の時刻(取得サーバ時刻)を取得し、復号してもよい。
 このようにすることにより、時計サーバから撮像装置へ供給される取得サーバ時刻(標準時刻情報における現在時刻)の改ざんを抑制することができる。
  <方法1-5>
 上述の方法1が適用される場合において、図1の表の上から9段目に示されるように、サーバ時刻情報でローカル時刻情報を上書きしてもよい(方法1-5)。つまり、撮像装置が、サーバ時刻情報でローカル時刻情報を上書きする機能を備えてもよい。
 例えば、第1の画像処理装置(撮像装置)において、設定部が、第2の時刻情報(サーバ時刻情報)を用いて第1の時刻(設定ローカル時刻)を設定するように構成されてもよい。
  <方法1-5-1>
 上述の方法1-5が適用される場合において、図1の表の最下段に示されるように、サーバ時刻情報でローカル時刻情報を上書きする設定を設けてもよい(方法1-5-1)。つまり、撮像装置が、動作モードとして、サーバ時刻情報でローカル時刻情報を上書きするモードと、上書きしないモードを有し、ユーザ等によりその動作モードが選択され得るようにしてもよい。
 例えば、第1の画像処理装置(撮像装置)において、設定部が、第1の時刻(設定ローカル時刻)の設定に第2の時刻情報(サーバ時刻情報)を利用するか否かを、ユーザ指示に基づいて選択するように構成されてもよい。
 このようにすることにより、ユーザ等は、より容易に、サーバ時刻情報によってローカル時刻情報を上書きさせることができる。
  <組み合わせ>
 <3.撮像ローカル時刻と撮像サーバ時刻の伝送>において上述した各方法は、矛盾が生じない限り、任意の他の方法と組み合わせて適用してもよい。3以上の方法を組み合わせて適用してもよい。例えば、方法1-1から方法1-5までの内のいずれか2つ以上を組み合わせて適用してもよい。また、組み合わせ可能な手法は、「方法」として図1の表に示したものだけでなく、<3.撮像ローカル時刻と撮像サーバ時刻の伝送>において上述した全ての要素を含み得る。また、上述した各方法は、上述した以外の他の方法と組み合わせて適用してもよい。
 なお、本明細書において、上位の方法について行った説明は、矛盾が生じない限り、その方法に属する下位の方法にも適用される。例えば、「方法1を適用してもよい」と説明した場合、方法1-1から方法1-5までの各方法を適用することができる。また、「方法1を適用してもよい」と説明した場合、方法1-1を適用することもできるし、方法1-1-1から方法1-1-3までの各方法も適用することができる。
 <4.第1の実施の形態>
  <画像処理システム>
 本技術は、撮像画像を処理する画像処理システム(またはシステムを構成する各装置)に適用することができる。図2は、本技術を適用した画像処理システムの構成の一例を示すシステム図である。図2に示される画像処理システム100は、撮像画像を処理するシステムである。
 図2においては、装置構成やデータの流れ等の主なものを示しており、図2に示されるものが全てとは限らない。つまり、画像処理システム100において、図2に示されていない装置が存在したり、図2において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図2に示されるように、画像処理システム100は、ネットワーク110を介して互いに通信可能に接続される撮像装置111、表示装置112、および時計サーバ113を有する。なお、図2においては、撮像装置111、表示装置112、および時計サーバ113が1台ずつ示されているが、それぞれの数はいくつであってもよい。つまり、撮像装置111、表示装置112、および時計サーバ113は、それぞれ2台以上であってもよい。また、撮像装置111、表示装置112、および時計サーバ113のそれぞれの数は、互いに同一でなくてもよい。また、図2においては、ネットワーク110として1つのネットワークが示されているが、画像処理システム100が、複数のネットワークを有してもよい。
 ネットワーク110は、各装置間の通信媒体となる通信網である。ネットワーク110は、有線通信の通信網であってもよいし、無線通信の通信網であってもよいし、それらの両方を含んでもよい。例えば、有線LAN(Local Area Network)、無線LAN、公衆電話回線網、所謂4G回線や5G回線等の無線移動体用の広域通信網、またはインターネット等であってもよいし、それらの組み合わせであってもよい。また、ネットワーク110は、単数の通信網であってもよいし、複数の通信網であってもよい。また、例えば、ネットワーク110は、その一部若しくは全部が、例えばUSB(Universal Serial Bus)(登録商標)ケーブルやHDMI(High-Definition Multimedia Interface)(登録商標)ケーブル等のような、所定の規格の通信ケーブルにより構成されるようにしてもよい。
 撮像装置111は、被写体の撮像、すなわち、撮像画像の生成に関する処理を行う。例えば、撮像装置111は、ローカル時刻情報を管理してもよい。撮像装置111は、サーバ時刻情報を管理してもよい。撮像装置111は、被写体を撮像し、撮像画像を生成してもよい。撮像装置111は、その撮像画像等を格納する画像ファイルを生成してもよい。
 表示装置112は、撮像画像等の表示に関する処理を行う。例えば、表示装置112は、画像ファイルを取得してもよい。表示装置112は、画像ファイルに格納される撮像画像の真贋判定を行ってもよい。表示装置112は、画像ファイルに格納される撮像サーバ時刻の信頼度を判定してもよい。表示装置112は、画像ファイルに格納される撮像サーバ時刻を補正してもよい。表示装置112は、撮像画像等を表示してもよい。
 時計サーバ113は、標準時刻情報の管理に関する処理を行う。例えば、時計サーバ113は、時計サーバ時刻情報(標準時刻情報)を管理してもよい。
 また、撮像装置111、表示装置112、および時計サーバ113は、ネットワーク110を介して通信を行い、情報を授受してもよい。例えば、点線両矢印121に示されるように、撮像装置111は、ローカル識別情報、現在サーバ時刻、前回の取得サーバ時刻を時計サーバ113へ供給してもよい。これに対して、時計サーバ113は、標準時刻情報における現在時刻(取得サーバ時刻)を撮像装置111へ供給してもよい。
 また、点線矢印122に示されるように、撮像装置111は、画像ファイルを表示装置112へ供給してもよい。表示装置112は、その画像ファイルを取得してもよい。例えば、この画像ファイルには、撮像画像が格納されてもよい。また、この画像ファイルには、撮像ローカル時刻が格納されてもよい。また、この画像ファイルには、撮像サーバ時刻が格納されてもよい。また、この画像ファイルには、取得サーバ時刻が格納されてもよい。また、この画像ファイルには、ローカル識別情報が格納されてもよい。また、この画像ファイルには、ずれ量情報が格納されてもよい。
 また、点線両矢印123に示されるように、表示装置112は、撮像装置111から供給される画像ファイルに格納されるローカル識別情報や撮像サーバ時刻を時計サーバ113へ供給してもよい。これに対して、時計サーバ113は、ずれ量情報または補正された撮像サーバ時刻を表示装置112へ供給してもよい。
  <撮像装置>
 撮像装置111は、例えば、デジタルカメラ、スマートフォン、タブレット端末、ノート型パーソナルコンピュータといった、撮像機能を有する情報処理端末装置により構成される。撮像装置111が1つの装置(電子機器)により構成されてもよいし、複数の装置(電子機器)により構成されてもよい。例えば、撮像装置111がデジタルカメラおよびスマートフォンにより構成されてもよい。その場合、例えば、デジタルカメラが撮像画像を生成し、スマートフォンがそれらの署名の生成や、表示装置112への供給を行ってもよい。以下においては、撮像装置111が1つの装置(電子機器)により構成されるものとして説明する。
 図3は、本技術を適用した画像処理装置の一態様である撮像装置111の構成の一例を示すブロック図である。
 なお、図3においては、処理部やデータの流れ等の主なものを示しており、図3に示されるものが全てとは限らない。つまり、撮像装置111において、図3においてブロックとして示されていない処理部が存在したり、図3において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図3に示されるように撮像装置111は、制御部201、撮像処理部202、入力部203、および出力部204を有する。制御部201は、撮像処理部202内の各処理部を制御する。撮像処理部202は、制御部201により制御されて、撮像に関する処理を行う。入力部203は、例えばボタンやスイッチ等の入力デバイスを有する。入力部203は、その入力デバイスを介してユーザ等の指示入力等を受け付ける。入力部203は、その受け付けた指示等を制御部201へ供給する。制御部201は、その受け付けられた指示等に基づいて撮像処理部202を制御してもよい。出力部204は、例えばモニタやスピーカ等の出力デバイスを有する。出力部204は、その出力デバイスを介して制御部201から供給される情報を、例えば画像や音声等として出力する。制御部201は、例えば制御結果等、任意の情報を出力部204へ供給し、出力させてもよい。
 撮像処理部202は、時刻設定部211、時刻取得部212、および時刻管理部213を有する。
 時刻設定部211は、ローカル時刻情報の設定に関する処理を行う。例えば、時刻設定部211は、制御部201により制御されて、入力部203により受け付けられたユーザ指示に従って、設定ローカル時刻を設定してもよい。時刻設定部211は、設定した設定ローカル時刻を時刻管理部213へ供給してもよい。
 時刻取得部212は、取得サーバ時刻の取得に関する処理を行う。時刻取得部212は、ネットワーク110を介して時計サーバ113との通信を行う通信機能を有する。例えば、時刻取得部212は、その通信機能を利用して、時計サーバ113から供給される、標準時刻情報における現在時刻(すなわち取得サーバ時刻)を取得してもよい。時刻取得部212は、その取得した取得サーバ時刻を時刻管理部213へ供給してもよい。
 時刻管理部213は、時刻情報の管理に関する処理を行う。時刻管理部213は、水晶振動子を有し、その水晶振動子を用いてローカルクロックを生成し、そのローカルクロックを用いて時刻情報を管理する。例えば、時刻管理部213は、そのローカルクロックを用いて、時刻設定部211から供給される設定ローカル時刻を開始時刻とするローカル時刻情報を管理してもよい。つまり、時刻管理部213は、ローカルクロックにより設定ローカル時刻から時刻を進めてもよい。また、時刻管理部213は、そのローカルクロックを用いて、時刻取得部212から供給される取得サーバ時刻を開始時刻とするサーバ時刻情報を管理してもよい。つまり、時刻管理部213は、ローカルクロックにより取得サーバ時刻から時刻を進めてもよい。
 また、時刻管理部213は、センサ部222による撮像画像の生成タイミング(すなわち、撮像タイミング)を示す通知を取得し、その通知に従って、ローカル時刻情報およびサーバ時刻情報のそれぞれにおける撮像時刻を設定してもよい。つまり、時刻管理部213は、撮像ローカル時刻および撮像サーバ時刻を設定してもよい。時刻管理部213は、設定した撮像ローカル時刻および撮像サーバ時刻を画像ファイル生成部231へ供給してもよい。撮像ローカル時刻および撮像サーバ時刻の電子署名を生成する場合、時刻管理部213は、設定した撮像ローカル時刻および撮像サーバ時刻をハッシュ処理部228へ供給してもよい。
 また、時刻管理部213は、例えば、取得サーバ時刻、ローカル識別情報、ずれ量情報等の、その他の情報を画像ファイル生成部231へ供給してもよい。また、その他の情報の電子署名を生成する場合、時刻管理部213は、その他の情報をハッシュ処理部228へ供給してもよい。
 また、撮像装置111は、光学系221、センサ部222、RAW処理部223、YUV処理部224、縮小画像生成部225、画像情報付加部226、3D情報処理部227、ハッシュ処理部228、署名制御部229、署名生成部230、画像ファイル生成部231、画像ファイル記録部232、および画像ファイル供給部233を有する。
 光学系221は、例えばレンズ、ミラー、フィルタ、絞り等の光学素子により構成され、被写体からの光線に対して所定の影響を及ぼし、その光線をセンサ部222へ誘導する。つまり、被写体からの光線は、この光学系221を介してセンサ部222に入射する。
 センサ部222は、光電変換に関する処理を行う。センサ部222は、イメージセンサ241および3D情報センサ242を有する。例えば、センサ部222は、光学系221を介して入射される被写体からの光線を用いて撮像画像や3D情報を生成してもよい。
 イメージセンサ241は、撮像画像の生成に関する処理を行う。イメージセンサ241は、光電変換素子を有する画素が行列状に配置される画素アレイを有する。例えば、イメージセンサ241は、その画素アレイにおいて、光学系221を介して入射する被写体からの光線を受光し、光電変換して撮像画像(RAW画像またはそのRAW画像から生成されたJPEG(Joint Photographic Experts Group)画像)を生成してもよい。つまり、イメージセンサ241は、被写体を撮像し、その被写体の撮像画像を生成するので、撮像画像生成部とも言える。また、イメージセンサ241は、生成した撮像画像をRAW処理部223へ供給してもよい。
 3D情報センサ242は、イメージセンサ241において得られる撮像画像内の複数個所についての距離関連情報をその撮像画像と同一の光軸で検出し、3D情報を生成する。つまり、3D情報センサ242は、3D情報生成部とも言える。例えば、3D情報センサ242は、距離関連情報を検出する所定のセンサデバイスを有する。3D情報センサ242は、そのセンサデバイスにおいて、光学系221を介して入射する被写体からの光線を受光し、距離関連情報を検出して3D情報を生成する。
 ここで、「同一の光軸」とは、3D情報センサ242へ入射する被写体からの光線が、イメージセンサ241へ入射する被写体からの光線が通過する光学系221を通過することを示す。つまり、イメージセンサ241へ入射する光線と3D情報センサ242へ入射する光線の、少なくとも被写体からセンサ部222までの経路が互いに同一であることを示す。このように、撮像画像および距離関連情報が互いに同一の光軸において検出されることにより、例えば、顔写真等を撮像し、その顔写真の被写体とは別の人物までの距離を検出するといったトリック撮影を行うことが困難になる。つまり、撮像画像の被写体と3D情報の被写体とが互いに同一である可能性が高くなる。
 また、「距離関連情報」は、撮像装置111(3D情報センサ242)から被写体までの距離を示す情報であってもよいし、その距離を導出するための情報であってもよい。例えば、距離関連情報は、デプスマップ、位相差データ、ToF(Time of Flight)データ、または、視差画像の集合等を含み得る。
 3D情報センサ242は、生成した3D情報を3D情報処理部227へ供給する。
 なお、図3においては、イメージセンサ241および3D情報センサ242が別体として構成されているが、イメージセンサ241および3D情報センサ242が一体化されてもよいし、イメージセンサ241が3D情報センサ242を兼ねてもよい。例えば、距離関連情報がToFデータである場合、3D情報センサ242は、イメージセンサ241とは別体の、ToF方式で距離を計測するToFセンサにより構成されてもよい。また、距離関連情報が位相差データである場合、3D情報センサ242は、イメージセンサ241の画素アレイの有効画素領域に形成される像面位相差検出画素により構成されてもよい。像面位相差検出画素は、位相差方式の合焦(オートフォーカス)機能に用いられる画素であり、位相差データを検出し得る。この場合、イメージセンサ241および3D情報センサ242が一体として形成される。また、3D情報センサ242は、イメージセンサ241とは別体の、位相差データを検出する位相差センサにより構成されてもよい。また、距離関連情報が3Dスイングパノラマ撮影等により生成される視差画像の集合である場合、イメージセンサ241が3D情報センサ242を兼ねる。換言するに、この場合、イメージセンサ241が撮像画像および3D情報を生成し、3D情報センサ242は省略し得る。
 以下においては、特に説明しない限り、3D情報センサ242が、像面位相差検出画素により構成される場合を例に説明する。つまり、3D情報センサ242により、距離関連情報として位相差データが検出される場合を例に説明する。
 RAW処理部223は、RAW画像に関する処理を行う。例えば、RAW処理部223は、イメージセンサ241から供給される撮像画像(RAW画像)を取得してもよい。RAW処理部223は、そのRAW画像に対して所定の処理を行ってもよい。この処理の内容は任意である。例えば、ホワイトバランス等の補正であってもよい。RAW処理部223は、処理後のRAW画像をYUV処理部224に供給してもよい。
 YUV処理部224は、YUV画像の生成に関する処理を行う。例えば、YUV処理部224は、RAW処理部223から供給されるRAW画像を取得してもよい。YUV処理部224は、そのRAW画像をYUV画像に変換してもよい。YUV処理部224は、そのYUV画像を符号化し、JPEG画像に変換してもよい。YUV処理部224は、その生成したJPEG画像を縮小画像生成部225へ供給してもよい。なお、イメージセンサ241が撮像画像としてJPEG画像を出力する場合、RAW処理部223およびYUV処理部224を省略し、イメージセンサ241がそのJPEG画像を縮小画像生成部225へ供給するようにしてもよい。
 縮小画像生成部225は、縮小画像の生成に関する処理を行う。例えば、縮小画像生成部225は、YUV処理部224から供給されるJPEG画像を取得してもよい。縮小画像生成部225は、そのJPEG画像の縮小画像を生成してもよい。なお、以下において、この縮小画像に対して元のJPEG画像を「本画像」とも称する。この縮小画像の生成方法は任意である。例えば、縮小画像生成部225は、本画像の一部の画素値を間引くことにより縮小画像を生成してもよい。縮小画像生成部225は、本画像の所定の部分領域毎に画素値を合成して画素数を低減させることにより、縮小画像を生成してもよい。縮小画像生成部225は、本画像の全画素を見て作るようにしてもよい。タップ数が足りない場合、縮小画像生成部225は、タップ数の足りる倍率の縮小を複数回繰り返し、所望の縮小倍率の縮小画像を生成してもよい。縮小画像生成部225は、生成した縮小画像を、本画像(JPEG画像)とともに画像情報付加部226へ供給する。
 画像情報付加部226は、画像情報の付加に関する処理を行う。例えば、画像情報付加部226は、縮小画像生成部225から供給される本画像および縮小画像を取得してもよい。画像情報付加部226は、その取得した本画像に関する情報である画像情報を生成してもよい。画像情報付加部226は、その生成した画像情報を本画像に関連付けてもよい。つまり、画像情報付加部226は、画像情報を本画像のメタデータとして生成してもよい。画像情報付加部226は、その生成した画像情報を、本画像および縮小画像とともにハッシュ処理部228へ供給してもよい。
 3D情報処理部227は、3D情報に対する処理を行う。例えば、3D情報処理部227は、3D情報センサ242から供給される3D情報を取得してもよい。3D情報処理部227は、その取得した3D情報に対する所定の処理を行ってもよい。例えば、3D情報処理部227は、その取得した3D情報をハッシュ処理部228へ供給してもよい。また、3D情報処理部227は、署名制御部229の制御に基づいて、署名が生成されない場合、その取得した3D情報を低解像度化し、その低解像度の3D情報をハッシュ処理部228へ供給してもよい。また、3D情報処理部227は、署名制御部229の制御に基づいて、署名が生成される場合、3D情報の低解像度化を省略し、その取得した3D情報をハッシュ処理部228へ供給してもよい。3D情報処理部227は、3D情報解像度設定部とも言える。また、3D情報処理部227は、その取得した3D情報の被写体(測距対象)が平面であるか否かを判定し、その判定結果を署名制御部229へ供給してもよい。3D情報処理部227は、平面判定部とも言える。
 ハッシュ処理部228は、ハッシュの生成に関する処理を行う。例えば、ハッシュ処理部228は、画像情報付加部226から供給される本画像、縮小画像、および画像情報を取得してもよい。ハッシュ処理部228は、3D情報処理部227から供給される3D情報を取得してもよい。ハッシュ処理部228は、その本画像、画像情報、および3D情報を用いてハッシュ(hash)を生成してもよい。ハッシュ処理部228は、生成したハッシュを、本画像、縮小画像、画像情報、および3D情報とともに署名生成部230へ供給してもよい。
 また、ハッシュ処理部228は、時刻管理部213から供給される撮像ローカル時刻および撮像サーバ時刻を取得してもよい。ハッシュ処理部228は、本画像、画像情報、3D情報、並びに、撮像ローカル時刻および撮像サーバ時刻を用いてハッシュを生成してもよい。ハッシュ処理部228は、生成したハッシュを、本画像、縮小画像、画像情報、3D情報、並びに、撮像ローカル時刻および撮像サーバ時刻とともに署名生成部230へ供給してもよい。
 また、ハッシュ処理部228は、時刻管理部213から供給される、例えば、取得サーバ時刻、ローカル識別情報、ずれ量情報等の、その他の情報を取得してもよい。ハッシュ処理部228は、本画像、画像情報、3D情報、並びに、撮像ローカル時刻および撮像サーバ時刻とともに、その取得したその他の情報を用いてハッシュを生成してもよい。ハッシュ処理部228は、生成したハッシュを、本画像、縮小画像、画像情報、3D情報、撮像ローカル時刻および撮像サーバ時刻、並びに、その他の情報とともに署名生成部230へ供給してもよい。
 なお、ハッシュ処理部228は、署名制御部229により制御されて駆動してもよい。つまり、ハッシュ処理部228は、署名制御部229によりハッシュ生成が指示された場合、上述のようにハッシュを生成し、署名制御部229によりハッシュ生成が指示されなかった場合、そのハッシュの生成を省略してもよい。ハッシュの生成が省略される場合、ハッシュ処理部228は、取得した情報(例えば、本画像、縮小画像、画像情報、および3D情報等)を署名生成部230へ供給してもよい。
 署名制御部229は、署名の制御に関する処理を行う。例えば、署名制御部229は、制御部201を介して入力されるユーザやアプリケーション等からの指示に基づいて、署名を生成するか否かを制御してもよい。署名制御部229は、3D情報処理部227から供給される、3D情報の被写体(測距対象)が平面であるか否かの判定結果に基づいて、署名を生成するか否かを制御してもよい。例えば、署名制御部229は、3D情報の被写体(測距対象)が平面であると判定された場合、署名の生成を省略するように制御してもよい。署名制御部229は、3D情報の被写体(測距対象)が平面でないと判定された場合、署名を生成するように制御してもよい。その制御の際、署名制御部229は、ハッシュ処理部228および署名生成部230を制御することにより、署名を生成するか否かを制御してもよい。例えば、署名制御部229は、署名を生成しないように制御する場合、ハッシュ処理部228に対してハッシュの生成を省略させ、署名生成部230に対して署名の生成を省略させてもよい。署名制御部229は、署名を生成するように制御する場合、ハッシュ処理部228に対してハッシュを生成させ、署名生成部230に対して署名を生成させてもよい。署名制御部229は、署名を生成するか否かを示す制御情報を3D情報処理部227へ供給してもよい。
 署名生成部230は、署名の生成に関する処理を行う。例えば、署名生成部230は、ハッシュ処理部228から供給されるハッシュやそのハッシュの生成に用いた情報(例えば、本画像、縮小画像、画像情報、および3D情報等)を取得してもよい。署名生成部230は、撮像装置111に対応する機器秘密鍵を用いて、その取得したハッシュを暗号化し、署名(電子署名)を生成してもよい。つまり、署名生成部230は、少なくとも本画像および3D情報を含む情報の署名を生成してもよい。したがって、署名生成部230は、署名生成部とも言える。署名生成部230は、生成した署名を、その署名に対応する情報(例えば、本画像、縮小画像、画像情報、および3D情報等)とともに画像ファイル生成部231へ供給してもよい。
 なお、署名生成部230は、署名制御部229により制御されて駆動してもよい。例えば、署名制御部229により署名生成が指示された場合、署名生成部230は、上述のように署名を生成してもよい。また、署名制御部229により署名生成が指示されなかった場合、署名生成部230は、その署名の生成を省略してもよい。署名の生成が省略される場合、署名生成部230は、ハッシュ処理部228から供給された情報(例えば、本画像、縮小画像、画像情報、および3D情報等)を画像ファイル生成部231へ供給してもよい。
 画像ファイル生成部231は、画像ファイルの生成に関する処理を行う。例えば、画像ファイル生成部231は、署名生成部230から供給される情報(例えば、本画像、縮小画像、画像情報、3D情報、および署名等)を取得してもよい。画像ファイル生成部231は、所定のフォーマットで画像ファイルを生成し、その取得した情報(例えば、本画像、縮小画像、画像情報、3D情報、および署名等)をその画像ファイルに格納してもよい。画像ファイル生成部231は、その画像ファイルを画像ファイル記録部232へ供給してもよい。また、画像ファイル生成部231は、その画像ファイルを画像ファイル供給部233へ供給してもよい。
 画像ファイル記録部232は、画像ファイルの記録に関する処理を行う。画像ファイル記録部232は、例えば、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体を駆動し、書き込みや読み出しを行うドライブを有する。例えば、画像ファイル記録部232は、画像ファイル生成部231から供給される画像ファイルを取得してもよい。画像ファイル記録部232は、その取得した画像ファイルを、そのドライブを介してリムーバブル記録媒体に記録してもよい。
 画像ファイル供給部233は、画像ファイルの供給に関する処理を行う。画像ファイル供給部233は、ネットワーク110を介して表示装置112と通信を行う通信機能を有する。例えば、画像ファイル供給部233は、画像ファイル生成部231から供給される画像ファイルを取得してもよい。画像ファイル供給部233は、その通信機能を利用して、取得した画像ファイルを表示装置112へ供給してもよい。
  <表示装置>
 表示装置112は、例えば、スマートフォン、タブレット端末、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、専用のコンピュータ、サーバといった、画像表示機能を有する情報処理装置により構成される。表示装置112が1つの装置(電子機器)により構成されてもよいし、複数の装置(電子機器)により構成されてもよい。以下においては、表示装置112が1つの装置(電子機器)により構成されるものとして説明する。
 図4は、本技術を適用した画像処理装置の一態様である表示装置112の構成の一例を示すブロック図である。
 なお、図4においては、処理部やデータの流れ等の主なものを示しており、図4に示されるものが全てとは限らない。つまり、表示装置112において、図4においてブロックとして示されていない処理部が存在したり、図4において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図4に示されるように表示装置112は、画像ファイル取得部311、表示処理部312、および表示部313を有する。また、表示装置112は、真贋判定部321、信頼度判定部322、ずれ量情報取得部323、撮像時刻補正部324、および撮像時刻取得部325を有する。
 画像ファイル取得部311は、画像ファイルの取得に関する処理を行う。画像ファイル取得部311は、ネットワーク110を介して撮像装置111と通信を行う通信機能を有する。例えば、画像ファイル取得部311は、その通信機能を利用して、撮像装置111から供給される画像ファイルを取得してもよい。画像ファイル取得部311は、その取得した画像ファイルを表示処理部312へ供給してもよい。画像ファイル取得部311は、その取得した画像ファイルを真贋判定部321へ供給してもよい。画像ファイル取得部311は、その取得した画像ファイルを信頼度判定部322へ供給してもよい。画像ファイル取得部311は、その取得した画像ファイルを撮像時刻補正部324へ供給してもよい。
 また、画像ファイル取得部311は、その取得した画像ファイルをずれ量情報取得部323へ供給してもよい。また、画像ファイル取得部311は、その取得した画像ファイルを撮像時刻取得部325へ供給してもよい。
 表示処理部312は、情報の表示に関する処理を行う。例えば、表示処理部312は、画像ファイル取得部311から供給される画像ファイルを取得してもよい。表示処理部312は、その取得した画像ファイルに格納される情報を抽出してもよい。表示処理部312は、抽出した情報を表示するための画像情報を表示部313へ供給し、表示させてもよい。例えば、表示処理部312は、画像ファイルから撮像画像、撮像ローカル時刻、および撮像サーバ時刻を抽出し、それらを表示するための画像情報を表示部313へ供給し、表示させてもよい。また、表示処理部312は、画像ファイルから、取得サーバ時刻、ローカル識別情報、ずれ量情報等のその他の情報を抽出し、抽出したその他の情報を表示するための画像情報を表示部313へ供給し、表示させてもよい。
 また、表示処理部312は、真贋判定部321から供給される真贋判定結果を示す情報を取得してもよい。表示処理部312は、その真贋判定結果を表示するための画像情報を表示部313へ供給し、表示させてもよい。また、表示処理部312は、信頼度判定部322から供給される信頼度判定結果を示す情報を取得してもよい。表示処理部312は、その信頼度判定結果を表示するための画像情報を表示部313へ供給し、表示させてもよい。また、表示処理部312は、撮像時刻補正部324または撮像時刻取得部325から供給される、補正された撮像サーバ時刻を取得してもよい。表示処理部312は、その補正された撮像サーバ時刻を表示するための画像情報を表示部313へ供給し、表示させてもよい。
 表示部313は、画像情報の表示に関する処理を行う。表示部313は、例えば液晶モニタ等の画像表示デバイスを有する。この画像表示デバイスは画像を表示できるものであればどのようなデバイスであってもよい。例えば、表示部313は、表示処理部312から供給される画像情報を取得してもよい。表示部313は、その画像表示デバイスを用いて、その取得した画像情報に対応する画像を表示してもよい。例えば、表示部313は、表示処理部312から供給される撮像画像、撮像ローカル時刻、および撮像サーバ時刻を表示してもよい。表示部313は、表示処理部312から供給される取得サーバ時刻、ローカル識別情報、ずれ量情報等のその他の情報を表示してもよい。表示部313は、表示処理部312から供給される真贋判定結果を表示してもよい。表示部313は、表示処理部312から供給される信頼度判定結果を表示してもよい。表示部313は、表示処理部312から供給される、補正された撮像サーバ時刻を表示してもよい。
 真贋判定部321は、撮像画像の真贋判定に関する処理を行う。例えば、真贋判定部321は、画像ファイル取得部311から供給される画像ファイルを取得してもよい。真贋判定部321は、その取得した画像ファイルに格納される撮像サーバ時刻に基づいて撮像画像の真贋を判定してもよい。真贋判定部321は、その真贋判定結果を示す情報を生成し、表示処理部312へ供給してもよい。
 信頼度判定部322は、撮像サーバ時刻の信頼度の判定に関する処理を行う。例えば、信頼度判定部322は、画像ファイル取得部311から供給される画像ファイルを取得してもよい。信頼度判定部322は、その取得した画像ファイルに格納される取得サーバ時刻に基づいて撮像サーバ時刻の信頼度を判定してもよい。信頼度判定部322は、その信頼度判定結果を示す情報を生成し、表示処理部312へ供給してもよい。
 信頼度判定部322は、撮像サーバ時刻の信頼度の判定に関する処理を行う。例えば、信頼度判定部322は、画像ファイル取得部311から供給される画像ファイルを取得してもよい。信頼度判定部322は、その取得した画像ファイルに格納される取得サーバ時刻に基づいて撮像サーバ時刻の信頼度を判定してもよい。信頼度判定部322は、その信頼度判定結果を示す情報を生成し、表示処理部312へ供給してもよい。
 ずれ量情報取得部323は、ずれ量情報の取得に関する処理を行う。ずれ量情報取得部323は、ネットワーク110を介して時計サーバ113と通信を行う通信機能を有する。例えば、ずれ量情報取得部323は、時計サーバ113に対してずれ量情報を要求してもよい。その際、ずれ量情報取得部323は、画像ファイルに格納されるローカル識別情報を時計サーバ113に供給してもよい。また、ずれ量情報取得部323は、その画像ファイル(ローカル識別情報が格納されている画像ファイル)を時計サーバ113に供給してもよい。ずれ量情報取得部323は、その要求に応じて時計サーバ113から供給されるずれ量情報を取得してもよい。このずれ量情報は、ずれ量情報取得部323が行った要求に対応する。つまり、このずれ量情報は、ずれ量情報取得部323が供給したローカル識別情報が示す装置(図2の例の場合、撮像装置111)のローカルクロックの単位時間当たりのずれ量を示す情報である。ずれ量情報取得部323は、その取得したずれ量情報を撮像時刻補正部324へ供給してもよい。
 撮像時刻補正部324は、撮像サーバ時刻の補正に関する処理を行う。例えば、撮像時刻補正部324は、画像ファイル取得部311から供給される画像ファイルを取得してもよい。この画像ファイルに、撮像サーバ時刻、取得サーバ時刻、およびずれ量情報(撮像装置111のローカルクロックの単位時間当たりのずれ量)が格納されている場合、撮像時刻補正部324は、取得サーバ時刻とずれ量情報とに基づいて撮像サーバ時刻を補正してもよい。例えば、撮像時刻補正部324は、取得サーバ時刻から撮像サーバ時刻までの時間と、ローカルクロックの単位時間当たりのずれ量とに基づいて、標準時刻情報における撮像時刻を導出する。撮像時刻補正部324は、この導出した「標準時刻情報における撮像時刻」を補正された撮像サーバ時刻とする。
 画像ファイル取得部311から供給される画像ファイルにずれ量情報等が格納されていない場合、撮像時刻補正部324は、ずれ量情報取得部323から供給されるずれ量情報を取得してもよい。撮像時刻補正部324は、画像ファイルに格納される取得サーバ時刻と、ずれ量情報取得部323から供給されたずれ量情報とに基づいて、画像ファイルに格納される撮像サーバ時刻を補正してもよい。補正の方法は、上述の方法と同様である。
 いずれの場合も、ずれ量情報が完全に正確であるとは限らないので、この導出した「標準時刻情報における撮像時刻」は、実際の標準時刻情報における撮像時刻と完全に一致するとは限らない。ただし、撮像サーバ時刻よりは、実際の標準時刻情報における撮像時刻に近いと想定される。したがって、撮像時刻補正部324は、この導出した「標準時刻情報における撮像時刻」を補正された撮像サーバ時刻とする。撮像時刻補正部324は、その補正された撮像サーバ時刻を表示処理部312へ供給してもよい。
 撮像時刻取得部325は、補正された撮像サーバ時刻の取得に関する処理を行う。撮像時刻取得部325は、ネットワーク110を介して時計サーバ113と通信を行う通信機能を有する。例えば、撮像時刻取得部325は、時計サーバ113に対して補正された撮像サーバ時刻を要求してもよい。その際、撮像時刻取得部325は、画像ファイルに格納されるローカル識別情報、取得サーバ時刻、および撮像サーバ時刻を時計サーバ113に供給してもよい。また、撮像時刻取得部325は、その画像ファイル(ローカル識別情報、取得サーバ時刻、および撮像サーバ時刻が格納されている画像ファイル)を時計サーバ113に供給してもよい。撮像時刻取得部325は、その要求に応じて時計サーバ113から供給される、補正された撮像サーバ時刻を取得してもよい。この補正された撮像サーバ時刻は、撮像時刻取得部325が行った要求に対応する。つまり、この補正された撮像サーバ時刻は、撮像時刻取得部325が供給した撮像サーバ時刻に対応する。この補正された撮像サーバ時刻は、例えば、時計サーバ113において、撮像時刻補正部324の場合と同様の方法で導出されてもよい。撮像時刻取得部325は、その補正された撮像サーバ時刻を表示処理部312へ供給してもよい。
  <時計サーバ>
 時計サーバ113は、例えば、単数の情報処理装置により構成されてもよいし、複数の情報処理装置に構成されてもよい。また、時計サーバ113は、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティング(つまり、クラウドサーバ)として実施するようにしてもよい。
 図5は、本技術を適用した画像処理装置の一態様である時計サーバ113の構成の一例を示すブロック図である。
 なお、図5においては、処理部やデータの流れ等の主なものを示しており、図5に示されるものが全てとは限らない。つまり、時計サーバ113において、図5においてブロックとして示されていない処理部が存在したり、図5において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
 図5に示されるように時計サーバ113は、時刻管理部411、現在時刻供給部412、時刻取得部413、およびずれ量導出部414を有する。また、時計サーバ113は、ずれ量管理部421、要求取得部422、ずれ量情報供給部423、撮像時刻補正部424、および撮像時刻供給部425を有する。
 時刻管理部411は、標準時刻情報を管理する。例えば、時刻管理部411は、標準時刻情報における現在時刻を現在時刻供給部412へ供給してもよい。また、時刻管理部411は、標準時刻情報における現在時刻をずれ量導出部414へ供給してもよい。なお、これらの処理(現在時刻の供給)は、撮像装置111からの要求に基づいて行われてもよい。
 現在時刻供給部412は、現在時刻の供給に関する処理を行う。現在時刻供給部412は、ネットワーク110を介して撮像装置111と通信を行う通信機能を有する。例えば、現在時刻供給部412は、時刻管理部411から供給される標準時刻情報における現在時刻を取得してもよい。現在時刻供給部412は、その標準時刻情報における現在時刻を撮像装置111へ供給してもよい。なお、この処理(現在時刻の供給)は、撮像装置111からの要求に基づいて行われてもよい。
 時刻取得部413は、時刻等に関する情報の取得に関する処理を行う。時刻取得部413は、ネットワーク110を介して撮像装置111と通信を行う通信機能を有する。例えば、時刻取得部413は、撮像装置111から供給される情報(例えば、ローカル識別情報、現在のサーバ時刻、前回の取得サーバ時刻等)を取得してもよい。時刻取得部413は、標準時刻情報における現在時刻の要求として、この情報を取得してもよい。時刻取得部413は、その取得した情報をずれ量導出部414へ供給してもよい。また、時刻取得部413は、要求を取得した旨を時刻管理部411や現在時刻供給部412へ通知してもよい。
 ずれ量導出部414は、ローカルクロックの単位時間当たりのずれ量の導出に関する処理を行う。例えば、ずれ量導出部414は、時刻取得部413から供給される、ローカル識別情報、現在のサーバ時刻、前回の取得サーバ時刻等を取得してもよい。また、ずれ量導出部414は、時刻管理部411から供給される標準時刻情報における現在時刻を取得してもよい。ずれ量導出部414は、それらの取得した情報を用いて、ローカルクロックの単位時間当たりのずれ量を導出してもよい。例えば、ずれ量導出部414は、前回の取得サーバ時刻から現在のサーバ時刻までの時間を導出し、現在サーバ時刻と標準時刻情報における現在時刻とのずれ量を導出し、その導出した時間とずれ量とに基づいて、ローカルクロックの単位時間当たりのずれ量を導出してもよい。この導出した単位時間当たりのずれ量は、取得したローカル識別情報が示す装置(例えば撮像装置111)のローカルクロックの単位時間当たりのずれ量である。ずれ量導出部414は、導出したローカルクロックの単位時間当たりのずれ量を、取得したローカル識別情報等とともに、ずれ量管理部421へ供給してもよい。
 ずれ量管理部421は、ローカルクロックの単位時間当たりのずれ量の管理に関する処理を行う。例えば、ずれ量管理部421は、ずれ量導出部414から供給される情報(ローカルクロックの単位時間当たりのずれ量やローカル識別情報等)を取得してもよい。ずれ量管理部421は、そのローカル識別情報に基づいて、ローカルクロックの単位時間当たりのずれ量を機器毎に管理してもよい。ずれ量管理部421は、指定された機器(ローカル識別情報)のローカルクロックの単位時間当たりのずれ量を、ずれ量情報供給部423へ供給してもよい。なお、この機器の指定は、例えば表示装置112からの要求により行われてもよい。例えば、ずれ量管理部421は、要求取得部422から供給される、表示装置112からの要求を取得してもよい。この要求において所望の機器が指定されてもよい。例えば、この要求に、所望の機器を指定するローカル識別情報(またはローカル識別情報を格納する画像ファイル)が含まれていてもよい。ずれ量管理部421は、その要求に応じて、指定された機器のローカルクロックの単位時間当たりのずれ量を、ずれ量情報供給部423へ供給してもよい。
 また、ずれ量管理部421は、指定された機器(ローカル識別情報)のローカルクロックの単位時間当たりのずれ量を、撮像時刻補正部424へ供給してもよい。なお、この機器の指定は、例えば撮像時刻補正部424からの要求により行われてもよい。例えば、ずれ量管理部421は、撮像時刻補正部424からの要求に応じて、ローカルクロックの単位時間当たりのずれ量を、撮像時刻補正部424へ供給してもよい。この要求において所望の機器が指定されてもよい。例えば、この要求に、所望の機器を指定するローカル識別情報(またはローカル識別情報を格納する画像ファイル)が含まれていてもよい。
 要求取得部422は、要求の取得に関する処理を行う。要求取得部422は、ネットワーク110を介して表示装置112と通信を行う通信機能を有する。例えば、要求取得部422は、表示装置112から供給されるずれ量情報の要求を取得してもよい。この要求には、例えば、所望の機器を指定するローカル識別情報(またはローカル識別情報を格納する画像ファイル)が含まれていてもよい。要求取得部422は、その要求をずれ量管理部421へ供給してもよい。
 また、要求取得部422は、表示装置112から供給される、補正された撮像サーバ時刻の要求を取得してもよい。この要求には、例えば、所望の機器を指定するローカル識別情報と取得サーバ時刻と撮像サーバ時刻と(またそれらの情報を格納する画像ファイル)が含まれていてもよい。要求取得部422は、その要求を撮像時刻補正部424へ供給してもよい。
 ずれ量情報供給部423は、ずれ量情報の供給に関する処理を行う。ずれ量情報供給部423は、ネットワーク110を介して表示装置112と通信を行う通信機能を有する。例えば、ずれ量情報供給部423は、ずれ量管理部421から供給される、ローカルクロックの単位時間当たりのずれ量を取得してもよい。ずれ量情報供給部423は、その取得したローカルクロックの単位時間当たりのずれ量を示すずれ量情報を表示装置112へ供給してもよい。
 撮像時刻補正部424は、撮像サーバ時刻の補正に関する処理を行う。例えば、撮像時刻補正部424は、要求取得部422から供給される、補正された撮像サーバ時刻の要求を取得してもよい。この要求には、例えば、所望の機器を指定するローカル識別情報と取得サーバ時刻と撮像サーバ時刻と(またそれらの情報を格納する画像ファイル)が含まれていてもよい。撮像時刻補正部424は、そのローカル識別情報が示す機器のローカルクロックの単位時間当たりのずれ量を、ずれ量管理部421へ要求してもよい。例えば、その要求にローカル識別情報(またはローカル識別情報を格納する画像ファイル)が含まれていてもよい。撮像時刻補正部424は、その要求に応じてずれ量管理部421から供給される、所望の機器(すなわち、ローカル識別情報が示す機器)のローカルクロックの単位時間当たりのずれ量を取得してもよい。
 撮像時刻補正部424は、そのローカルクロックの単位時間当たりのずれ量と取得サーバ時刻とを用いて撮像サーバ時刻を補正してもよい。つまり、撮像時刻補正部424は、補正された撮像サーバ時刻を導出してもよい。この撮像サーバ時刻の補正方法は、上述した表示装置112の撮像時刻補正部324の場合と同様である。撮像時刻補正部424は、その導出した、補正された撮像サーバ時刻を、撮像時刻供給部425へ供給してもよい。
 撮像時刻供給部425は、補正された撮像サーバ時刻の供給に関する処理を行う。撮像時刻供給部425は、ネットワーク110を介して表示装置112と通信を行う通信機能を有する。例えば、撮像時刻供給部425は、撮像時刻補正部424から供給される、補正された撮像サーバ時刻を取得してもよい。撮像時刻供給部425は、その取得した、補正された撮像サーバ時刻を表示装置112へ供給してもよい。
  <ネットワーク機能の設定>
 なお、撮像装置111において、ユーザが動作モードを設定することができるようにしてもよい。例えば、図6に示されるように、撮像装置111の筐体に、ユーザ等が撮像を指示する際に操作するシャッタボタン511と、ユーザが撮像以外の指示を行う際に操作するボタン等により構成されるユーザインタフェース512と、画像を表示するモニタ513とが設けられてもよい。
 例えば、ユーザが、ユーザインタフェース512を操作して、モニタ513に動作モード等の設定の為のGUI(Graphical User Interface)であるメニュー画面(図6)を表示させることにより、動作モード等の設定が行われてもよい。図6は、ネットワーク機能に関するメニュー画面の表示例を示す。例えば、このネットワーク機能に関するメニュー画面(GUI)において、ユーザが、ユーザインタフェース512を操作する等して、「時計サーバ時刻情報の取得」を選択することにより、時計サーバ113から現在時刻(取得サーバ時刻)を取得するための処理が実行されてもよい。ユーザが、「現在サーバ時刻の表示」を選択することにより、時刻管理部213において管理されているサーバ時刻情報における現在時刻(現在サーバ時刻)がモニタ513に表示されてもよい。ユーザが、「取得サーバ時刻の表示」を選択することにより、時刻管理部213が保持している取得サーバ時刻(前回取得された取得サーバ時刻)がモニタ513に表示されてもよい。ユーザが、「時計サーバ時刻情報の自動取得」を選択し、「ON」または「OFF」を設定することにより、時計サーバ113からの現在時刻を自動的に(定期的または不定期に)取得するか否かが設定されてもよい。図6の例のように、「時計サーバ時刻情報の自動取得」を「ON」に設定することにより、撮像装置111は、ユーザの指示なしに(例えば予め定められた条件を満たす場合に)、時計サーバ113から現在時刻を取得する。
  <方法1の適用>
 このような構成の画像処理システム100(の各装置)において、<3.撮像ローカル時刻と撮像サーバ時刻の伝送>において上述した各種方法(本技術)を適用してもよい。例えば、上述した方法1を適用してもよい。つまり、ローカル時刻情報とサーバ時刻情報を管理し、各時刻情報による撮像時刻を撮像画像とともにファイルに格納してもよい。
 例えば、撮像装置111(第1の画像処理装置)において、時刻設定部211が、設定ローカル時刻(第1の時刻)を設定してもよい。時刻取得部212が、時計サーバ113等(サーバ)から供給される取得サーバ時刻(第2の時刻)を取得してもよい。時刻管理部213が、その設定した設定ローカル時刻を開始時刻とするローカル時刻情報(第1の時刻情報)と、その取得した取得サーバ時刻を開始時刻とするサーバ時刻情報(第2の時刻情報)とを、その撮像装置111内で生成されるローカルクロックを用いて管理してもよい。センサ部222が、被写体を撮像し撮像画像を生成してもよい。画像ファイル生成部231が、その撮像画像と、その撮像画像の生成タイミングをローカル時刻情報により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報により示した撮像サーバ時刻(第2の撮像時刻)とを格納するファイルを生成してもよい。
   <ローカル時刻設定処理の流れ>
 ローカル時刻情報(第1の時刻情報)は、ユーザ等が設定ローカル時刻(第1の時刻)を設定することができる時刻情報である。撮像装置111は、ローカル時刻情報を、ローカルクロックを用いて管理する。つまり、撮像装置111は、ローカル時刻情報について、ユーザ等により設定された設定ローカル時刻を開始時刻としてローカルクロックにより時刻を進める。
 このようなローカル時刻情報を設定するために撮像装置111(第1の情報処理装置)において実行されるローカル時刻設定処理の流れの例を、図7のフローチャートを参照して説明する。
 ローカル時刻設定処理が開始されると、時刻設定部211は、ステップS101において、設定ローカル時刻(第1の時刻)を設定する。
 ステップS102において、時刻管理部213は、その設定ローカル時刻を開始時刻とするローカル時刻情報(第1の時刻情報)を、撮像装置111内で生成されるローカルクロックを用いて管理する。
 ステップS102の処理が終了すると、ローカル時刻設定処理が終了する。
   <サーバ時刻取得処理の流れ>
 サーバ時刻情報(第2の時刻情報)は、標準時刻情報(グローバルクロック)を管理し、提供する時計サーバ等から取得する取得サーバ時刻(第2の時刻)に基づく時刻情報である。撮像装置111は、このサーバ時刻情報を、ユーザ等により設定することができない状態で管理する。なお、この取得サーバ時刻を取得するタイミングは、どのようなタイミングであってもよい。
 撮像装置111は、サーバ時刻情報を、ローカルクロックを用いて管理する。つまり、撮像装置111は、サーバ時刻情報について、時計サーバ等から取得された取得サーバ時刻(標準時刻情報により示される現在時刻)を開始時刻としてローカルクロックにより時刻を進める。
 この取得サーバ時刻を取得するために撮像装置111(第1の情報処理装置)において実行されるサーバ時刻取得処理の流れの例を、図8のフローチャートを参照して説明する。
 サーバ時刻取得処理が開始されると、時刻取得部212は、ステップS111において、時計サーバ113から供給される標準時刻情報における現在時刻(第2の時刻)を取得する。換言するに、時刻取得部212は、取得サーバ時刻を取得する。
 ステップS112において、時刻管理部213は、その取得サーバ時刻(取得した標準時刻情報における現在時刻)を開始時刻とするサーバ時刻情報(第2の時刻情報)を、撮像装置111内で生成されるローカルクロックを用いて管理する。
 ステップS112の処理が終了すると、サーバ時刻取得処理が終了する。
   <撮像処理の流れ>
 撮像装置111(第1の情報処理装置)は、被写体を撮像して撮像画像を生成すると、その撮像画像の生成タイミング(撮像時刻)を、ローカル時刻情報およびサーバ時刻情報を用いて示す。つまり、撮像装置111は、ローカル時刻情報における撮像時刻を示す情報(撮像ローカル時刻)と、サーバ時刻情報における撮像時刻を示す情報(撮像サーバ時刻)とを生成する。撮像装置111は、それらを撮像画像とともに画像ファイルに格納する。そして、そのファイルが、通信媒体や記憶媒体を介して、表示装置112(第2の画像処理装置)へ供給される。このような処理を行うために撮像装置111において実行される撮像処理の流れの例を、図9のフローチャートを参照して説明する。
 撮像処理が開始されると、センサ部222(イメージセンサ241および3D情報センサ242)は、ステップS121において、被写体を撮像し、RAW画像と3D情報を同一光軸で取得する。
 ステップS122において、RAW処理部223は、そのRAW画像に対し、ホワイトバランスの調整等の補正処理を行う。YUV処理部224は、その補正されたRAW画像をYUV画像に変換する。また、YUV処理部224は、そのYUV画像を符号化し、JPEG画像を生成する。縮小画像生成部225は、そのJPEG画像(本画像)を縮小した縮小画像を生成する。この縮小画像の生成方法は任意である。また、縮小画像のサイズは任意である。例えば、縮小画像は、所謂サムネイルであってもよいし、所謂スクリンネイルであってもよい。画像情報付加部226は、本画像や縮小画像に関する画像情報をメタデータとして生成する。3D情報処理部227は、例えばその3D情報を低解像度化する等、その3D情報に対する所定の処理を行う。
 ステップS123において、ハッシュ処理部228は、本画像、3D情報、縮小画像、および画像情報を用いてハッシュを生成する。
 ステップS124において、署名生成部230は、撮像装置111に対応する機器秘密鍵を用いて、その生成したハッシュを暗号化することにより、本画像および3D情報の署名を生成する。
 ステップS125において、画像ファイル生成部231は、画像ファイルを生成し、本画像(撮像画像)、縮小画像、画像情報、および署名を格納する。また、画像ファイル生成部231は、その画像ファイルに、撮像ローカル時刻(第1の撮像時刻)と撮像サーバ時刻(第2の撮像時刻)とを格納する。つまり、画像ファイル生成部231は、撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した第1の撮像時刻(撮像ローカル時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した第2の撮像時刻(撮像サーバ時刻)とを格納する画像ファイルを生成する。なお、時刻管理部213が、その撮像ローカル時刻および撮像サーバ時刻を生成する。
 ステップS126において、画像ファイル記録部232は、その画像ファイルを記録する。
 ステップS127において、画像ファイル供給部233は、その画像ファイルを表示装置112へ供給する。
 ステップS127が終了すると撮像処理が終了する。
   <画像表示処理の流れ>
 表示装置112(第2の情報処理装置)は、その画像ファイルを取得し、画像ファイルに格納される撮像画像、撮像ローカル時刻、および撮像サーバ時刻を表示してもよい。
 例えば、表示装置112(第2の画像処理装置)において、画像ファイル取得部311が、撮像装置111(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)とが格納されたファイルを取得してもよい。表示処理部312が、その撮像画像、第1の撮像時刻、および第2の撮像時刻を表示部313に表示してもよい。
 なお、ローカル時刻情報(第1の時刻情報)は、撮像装置111(第1の画像処理装置)において設定された設定ローカル時刻(第1の時刻)を開始時刻とし、その撮像装置111内で生成されるローカルクロックを用いて管理される時刻情報である。また、サーバ時刻情報(第2の時刻情報)は、時計サーバ113等(サーバ)から撮像装置111に供給された取得サーバ時刻(第2の時刻)を開始時刻とし、ローカルクロックを用いて管理される時刻情報である。
 このような処理を行うために表示装置112において実行される画像表示処理の流れの例を、図10のフローチャートを参照して説明する。
 画像表示処理が開始されると、画像ファイル取得部311は、ステップS131において、画像ファイルを取得する。この画像ファイルには、撮像装置(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)とが格納されている。
 ステップS132において、表示処理部312は、その取得した画像ファイルから、撮像画像、撮像ローカル時刻、撮像サーバ時刻を抽出し、それらを表示部313に表示する。
 ステップS132の処理が終了すると画像表示処理が終了する。
 例えば、表示装置112のユーザは、このように表示された撮像サーバ時刻(第2の撮像時刻)に基づいて、表示された撮像画像の真贋(改ざんの有無またはその可能性等)を判定することができる。そのため、ユーザは、撮像画像の真贋判定をより正確に行うことができる。
 また、表示装置112のユーザは、このように表示された撮像ローカル時刻(第1の撮像時刻)に基づいて、互いにローカル時刻情報(第1の時刻情報)の時刻合わせが行われている複数の撮像装置111で生成された撮像画像群を整列することができる。上述のように、ローカル時刻情報は容易に撮像装置111間で対応を取ることができる。したがって、ユーザは、撮像ローカル時刻を利用することにより、より容易かつより正確に、複数の撮像装置111により生成された撮像画像群を撮像時刻に基づいて整列することができる。
 以上のように各処理を実行することにより、撮像装置111は、撮像ローカル時刻と撮像サーバ時刻の両方を含む画像ファイルを提供することができる。また、表示装置112は、その画像ファイルに格納される撮像ローカル時刻と撮像サーバ時刻の両方を表示することができる。つまり、撮像装置111および表示装置112はいずれも、撮像画像に付加された撮像時刻の正確性の低減を抑制するとともに、撮像装置間におけるその撮像時刻の対応の正確性の低減を抑制することができる。すなわち、撮像装置111および表示装置112はいずれも、撮像画像のユーザビリティ(使いやすさ)の低減を抑制することができる。
   <画像表示処理の流れ>
 なお、表示装置112が、その撮像ローカル時刻と撮像サーバ時刻とに基づいて撮像画像の真贋判定を行ってもよい。
 例えば、表示装置112(第2の情報処理装置)において、真贋判定部321が、撮像ローカル時刻(第1の撮像時刻)および撮像サーバ時刻(第2の撮像時刻)に基づいて、撮像画像の真贋判定を行ってもよい。そして、表示処理部312が、その真贋判定の結果を表示部313に表示してもよい。
 その場合の、表示装置112において実行される画像表示処理の流れの例を、図11のフローチャートを参照して説明する。
 この場合、画像表示処理が開始されると、画像ファイル取得部311は、ステップS141において、画像ファイルを取得する。この画像ファイルには、撮像装置(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)とが格納されている。
 ステップS142において、真贋判定部321は、画像ファイルに格納される撮像ローカル時刻と撮像サーバ時刻とに基づいて撮像画像の真贋判定を行い、その撮像画像が改ざんされているか否かを判定する。
 この真贋判定方法はどのような方法であってもよい。例えば、撮像サーバ時刻と撮像ローカル時刻とが極端に異なる場合や、複数の撮像画像の撮像サーバ時刻に基づく整列順と、撮像ローカル時刻に基づく整列順とが異なる場合等、撮像サーバ時刻および撮像ローカル時刻に何らかの矛盾等が生じる場合、真贋判定部321は、その撮像画像が改ざんされていると判定してもよい。
 撮像画像が改ざんされていないと判定された場合、処理はステップS143へ進む。ステップS143において、表示処理部312は、その取得した画像ファイルから、撮像画像、撮像ローカル時刻、撮像サーバ時刻を抽出し、それらを表示部313に表示する。
 ステップS143の処理が終了すると画像表示処理が終了する。また、ステップS142において、撮像画像が改ざんされていると判定された場合、ステップS143の処理が省略され、画像表示処理が終了する。この場合、エラー表示などを行ってもよい。
 このように各処理を実行することにより、表示装置112は、撮像画像の真贋判定をより正確に行うことができる。換言するに、表示装置112のユーザは、撮像画像のより正確な真贋判定結果を確認することができる。
 また、撮像装置111が、撮像ローカル時刻と撮像サーバ時刻とを電子署名化してもよい。その場合、時刻管理部213が、その撮像ローカル時刻および撮像サーバ時刻を生成してもよい。図9のステップS123において、ハッシュ処理部228が、さらに、撮像ローカル時刻および撮像サーバ時刻も用いてハッシュを生成してもよい。図9のステップS124において、署名生成部230が、このハッシュ(つまり、撮像画像、撮像ローカル時刻、および撮像サーバ時刻等を用いて生成されたハッシュ)を暗号化することにより、撮像画像、撮像ローカル時刻(第1の撮像時刻)、および、撮像サーバ時刻(第2の撮像時刻)の電子署名を生成してもよい。
 このようにすることにより、撮像装置111は、撮像ローカル時刻および撮像サーバ時刻の改ざんを抑制することができる。
  <方法1-1の適用>
 例えば、上述した方法1-1を適用してもよい。つまり、サーバ時刻の取得時刻(取得サーバ時刻)をファイルに格納してもよい。例えば、撮像装置111(第1の画像処理装置)において、画像ファイル生成部231が、取得タイミングを示す取得サーバ時刻(第2の時刻)を画像ファイルに格納してもよい。
   <撮像処理の流れ>
 その場合、撮像装置111(第1の画像処理装置)において実行される撮像処理の流れの例を、図12のフローチャートを参照して説明する。
 撮像処理が開始されると、ステップS151からステップS154までの各処理が、図9のステップS121からステップS124までの各処理と同様に実行される。
 ステップS155において、画像ファイル生成部231は、画像ファイルを生成し、本画像(撮像画像)、縮小画像、画像情報、および署名を格納する。また、画像ファイル生成部231は、その画像ファイルに、撮像ローカル時刻(第1の撮像時刻)と撮像サーバ時刻(第2の撮像時刻)と取得サーバ時刻とを格納する。つまり、画像ファイル生成部231は、撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)とを格納する画像ファイルを生成する。なお、時刻管理部213が、その取得サーバ時刻を保持する。
 ステップS156およびステップS157の各処理は、図9のステップS126およびステップS127の各処理と同様に実行される。
 ステップS157が終了すると撮像処理が終了する。
   <画像表示処理の流れ>
 この場合の、表示装置112(第2の情報処理装置)において実行される画像表示処理は、図10の例と同様に実行される。
 なお、表示装置112が、そのファイルに格納される取得サーバ時刻を利用した処理を行ってもよい。この取得サーバ時刻はどのように利用されてもよい。例えば、表示装置112は、その取得サーバ時刻を用いて撮像サーバ時刻の信頼度判定を行ってもよい。また、表示装置112は、その信頼度判定結果を表示してもよい。
 例えば、表示装置112(第2の画像処理装置)において信頼度判定部322が、撮像サーバ時刻(第2の撮像時刻)の信頼度を判定してもよい。そして、表示処理部312が、その判定された信頼度を表示部313に表示してもよい。
 この場合の画像表示処理の流れの例を、図13のフローチャートを参照して説明する。
 画像表示処理が開始されると、画像ファイル取得部311は、ステップS161において、画像ファイルを取得する。この画像ファイルには、撮像装置(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)が格納されている。
 ステップS162において、信頼度判定部322は、取得サーバ時刻(第2の時刻)を用いて撮像サーバ時刻(第2の撮像時刻)の信頼度を判定する。この撮像サーバ時刻の信頼度の判定方法はどのような方法であってもよい。例えば、信頼度判定部322が、取得サーバ時刻と撮像サーバ時刻との間の時間の長さに基づいて、撮像サーバ時刻の信頼度を判定してもよい。例えば、信頼度判定部322が、取得サーバ時刻と撮像サーバ時刻との間の時間が長い程、撮像サーバ時刻の信頼度が低いと判定してもよい。
 ステップS163において、表示処理部312は、その取得した画像ファイルから、撮像画像、撮像ローカル時刻、撮像サーバ時刻を抽出し、それらを表示部313に表示する。また、表示処理部312は、信頼度の判定結果を表示部313に表示する。
 ステップS163の処理が終了すると画像表示処理が終了する。
 以上のように各処理を実行することにより、表示装置112は、撮像サーバ時刻の信頼度を提示することができる。換言するに、表示装置112のユーザは、より容易に、撮像サーバ時刻の信頼度を確認することができる。
 また、取得サーバ時刻に基づいて撮像サーバ時刻が補正されてもよい。例えば、表示装置112(第2の情報処理装置)に供給される画像ファイルには取得サーバ時刻(第2の時刻)が格納されていてもよい。そして、その表示装置112において、表示処理部312が、ローカルクロックの単位時間当たりのずれ量とその取得サーバ時刻とに基づいて補正された撮像サーバ時刻(第2の撮像時刻)を表示部313に表示してもよい。
 なお、ローカルクロックの単位時間当たりのずれ量は、どの装置により管理されてもよい。例えば、撮像装置111がその単位時間当たりのずれ量を管理してもよい。また、時計サーバ113等がその単位時間当たりのずれ量を管理してもよい。
 時計サーバ113は、ローカルクロックの単位時間当たりのずれ量を機器毎に管理してもよい。例えば、時計サーバ113(情報処理装置)においてずれ量管理部421が、他の装置(例えば撮像装置111)内で生成されるローカルクロックの単位時間当たりのずれ量を、他の装置毎に管理してもよい。
 このようにすることにより、時計サーバ113は、要求された(指定された)装置のローカルクロックの単位時間当たりのずれ量をより容易に供給することができる。
 また、撮像装置111は、自身のローカルクロックの単位時間当たりのずれ量を管理してもよい。このようにすることにより、撮像装置111は、自身のローカルクロックの単位時間当たりのずれ量をより容易に供給することができる。
 なお、ローカルクロックの単位時間当たりのずれ量は、どの装置において導出されてもよい。例えば、撮像装置111がその単位時間当たりのずれ量を導出してもよい。また、時計サーバ113がその単位時間当たりのずれ量を導出してもよい。
 また、撮像サーバ時刻は、どの装置において補正されてもよい。例えば、表示装置112が、取得サーバ時刻とローカルクロックの単位時間当たりのずれ量に基づいて、撮像サーバ時刻を補正してもよい。また、時計サーバ113が、取得サーバ時刻とローカルクロックの単位時間当たりのずれ量に基づいて、撮像サーバ時刻を補正してもよい。
 また、撮像装置111が、この取得サーバ時刻を電子署名化してもよい。例えば、署名生成部230が、撮像画像、撮像ローカル時刻(第1の撮像時刻)、撮像サーバ時刻(第2の撮像時刻)、および取得サーバ時刻(第2の時刻)の電子署名を生成してもよい。そして、画像ファイル生成部231が、その生成された電子署名を画像ファイルに格納してもよい。このようにすることにより、撮像装置111は、取得サーバ時刻の改ざんを抑制することができる。
  <方法1-1-1の適用>
 例えば、上述した方法1-1-1を適用してもよい。つまり、撮像装置111を識別するローカル識別情報をファイルに格納してもよい。例えば、撮像装置111(第1の画像処理装置)において、画像ファイル生成部231が、装置を識別するローカル識別情報(識別情報)をファイルに格納してもよい。
   <撮像処理の流れ>
 その場合の撮像装置111(第1の画像処理装置)において実行される撮像処理の流れの例を、図14のフローチャートを参照して説明する。
 撮像処理が開始されると、ステップS171からステップS174までの各処理が、図9のステップS121からステップS124までの各処理と同様に実行される。
 ステップS175において、画像ファイル生成部231は、画像ファイルを生成し、本画像(撮像画像)、縮小画像、画像情報、および署名を格納する。また、画像ファイル生成部231は、その画像ファイルに、撮像ローカル時刻(第1の撮像時刻)と撮像サーバ時刻(第2の撮像時刻)と取得サーバ時刻とローカル識別情報とを格納する。つまり、画像ファイル生成部231は、撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)と、装置を識別するローカル識別情報とを格納する画像ファイルを生成する。
 ステップS176およびステップS177の各処理は、図9のステップS126およびステップS127の各処理と同様に実行される。
 ステップS177が終了すると撮像処理が終了する。
 このように、ローカル識別情報をファイルに格納する(撮像画像に付加する)ことにより、そのファイルを処理する装置(例えば表示装置112)は、そのローカル識別情報に基づいて、そのファイルに格納される撮像画像を生成した装置をより容易に識別することができる。
   <画像表示処理の流れ>
 この場合、表示装置112(第2の情報処理装置)は、そのローカル識別情報を用いた処理を行ってもよい。例えば、表示装置112そのローカル識別情報を用いて、時計サーバ113から撮像装置111のローカルクロックの単位時間当たりのずれ量を取得してもよい。そして、表示装置112は、その取得したローカルクロックの単位時間当たりのずれ量を用いて、撮像サーバ時刻を補正し、補正された撮像サーバ時刻を表示してもよい。
 なお、時計サーバ113がローカルクロックの単位時間当たりのずれ量を管理し、表示装置112が撮像サーバ時刻を補正する場合、表示装置112は、そのローカル識別情報(またはローカル識別情報が格納される画像ファイル)を用いて撮像装置111のローカルクロックの単位時間当たりのずれ量を要求してもよい。時計サーバ113は、そのローカル識別情報に基づいて、要求された撮像装置111のローカルクロックの単位時間当たりのずれ量を表示装置に供給してもよい。表示装置112は、その撮像装置111のローカルクロックの単位時間当たりのずれ量と、取得サーバ時刻とに基づいて、撮像サーバ時刻を補正し、補正後の撮像サーバ時刻と撮像ローカル時刻を表示してもよい。
 例えば、時計サーバ113(情報処理装置)において、ずれ量情報供給部423が、指定された他の装置(撮像装置111)のローカルクロックの単位時間当たりのずれ量を示すずれ量情報を、他の装置において生成された撮像画像を表示する表示装置112へ供給してもよい。
 例えば、表示装置112(第2の画像処理装置)において、ずれ量情報取得部323が、ローカルクロックの単位時間当たりのずれ量を示すずれ量情報を時計サーバ113等(サーバ)から取得してもよい。そして、撮像時刻補正部324が、その取得されたずれ量情報と取得サーバ時刻(第2の時刻)とに基づいて撮像サーバ時刻(第2の撮像時刻)を補正してもよい。
 この場合の画像表示処理の流れの例を、図15のフローチャートを参照して説明する。
 画像表示処理が開始されると、画像ファイル取得部311は、ステップS181において、画像ファイルを取得する。この画像ファイルには、撮像装置(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)と、装置を識別するローカル識別情報とが格納されている。
 ステップS182において、ずれ量情報取得部323は、撮像装置111を示すローカル時刻情報(または、そのローカル識別情報を格納する画像ファイル)を時計サーバ113へ供給することにより、撮像装置111内において生成されるローカルクロックの単位時間当たりのずれ量を示すずれ量情報を要求する。
 ステップS183において、ずれ量情報取得部323は、その要求に応じて時計サーバ113から供給されるずれ量情報を取得する。
 ステップS184において、撮像時刻補正部324は、取得サーバ時刻と、その取得したずれ量情報とを用いて撮像サーバ時刻を補正する。
 ステップS185において、表示処理部312は、画像ファイルから撮像画像および撮像ローカル時刻を抽出し、その抽出した撮像画像および撮像ローカル時刻とともに、補正された撮像サーバ時刻を表示部313に表示する。
 ステップS185の処理が終了すると画像表示処理が終了する。
 以上のように各処理を実行することにより、表示装置112は、より正確な撮像時刻を表示することができる。
   <ずれ量情報供給処理の流れ>
 また、時計サーバ113(情報処理装置)において、ずれ量情報を供給するために実行されるずれ量情報供給処理の流れの例を、図16のフローチャートを参照して説明する。
 ずれ量情報供給処理が開始されると、時計サーバ113の要求取得部422は、ステップS191において、表示装置112からの要求(ずれ量情報の要求)を受け付ける。この要求には、所望の装置(例えば撮像装置111)を示すローカル識別情報(またはそのローカル識別情報を格納する画像ファイル)が含まれる。
 ステップS192において、ずれ量管理部421は、その要求(ローカル識別情報)に従って、指定された機器(例えば撮像装置111)のローカルクロックの単位時間当たりのずれ量を特定する。ずれ量情報供給部423は、その特定されたローカルクロックの単位時間当たりのずれ量を示すずれ量情報を生成し、そのずれ量情報を、要求元である表示装置112へ供給する。
 ステップS192の処理が終了するとずれ量情報供給処理が終了する。
 以上のように各処理を実行することにより、時計サーバ113は、要求された装置(例えば撮像装置111)のローカルクロックの単位時間当たりのずれ量をより容易に表示装置112へ供給することができる。
   <画像表示処理の流れ>
 また、時計サーバ113がローカルクロックの単位時間当たりのずれ量を管理し、その時計サーバ113が撮像サーバ時刻を補正してもよい。その場合、表示装置112は、時計サーバ113に対して、そのローカル識別情報と取得サーバ時刻と撮像サーバ時刻と(またはそれらが格納される画像ファイル)を用いて撮像サーバ時刻の補正を要求してもよい。時計サーバ113は、そのローカル識別情報に基づいて、要求された撮像装置111のローカルクロックの単位時間当たりのずれ量を特定してもよい。そして、時計サーバ113は、その単位時間当たりのずれ量と取得サーバ時刻とに基づいて撮像サーバ時刻を補正してもよい。そして、時計サーバ113は、その補正された撮像サーバ時刻を表示装置112に供給してもよい。表示装置112は、その補正された撮像サーバ時刻を取得し、表示してもよい。
 例えば、時計サーバ113(情報処理装置)において、撮像時刻補正部424が、指定された撮像装置111(他の装置)のローカルクロックの単位時間当たりのずれ量を用いて、その撮像装置111において生成された撮像画像の撮像時刻を補正してもよい。撮像時刻供給部425は、その補正された撮像時刻を、その撮像画像を表示する表示装置112へ供給してもよい。
 例えば、表示装置112(第2の画像処理装置)において、撮像時刻取得部325が、その補正された撮像サーバ時刻(第2の撮像時刻)を時計サーバ113等(サーバ)から取得してもよい。
 この場合の画像表示処理の流れの例を、図17のフローチャートを参照して説明する。
 画像表示処理が開始されると、画像ファイル取得部311は、ステップS201において、画像ファイルを取得する。この画像ファイルには、撮像装置(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)と、装置を識別するローカル識別情報とが格納されている。
 ステップS202において、撮像時刻取得部325は、撮像装置111を示すローカル時刻情報と取得サーバ時刻と撮像サーバ時刻(または、それらを格納する画像ファイル)を時計サーバ113へ供給することにより、撮像サーバ時刻の補正を要求する。
 ステップS203において、撮像時刻取得部325は、その要求に応じて時計サーバ113から供給される、補正された撮像サーバ時刻を取得する。
 ステップS204において、表示処理部312は、画像ファイルから撮像画像および撮像ローカル時刻を抽出し、その抽出した撮像画像および撮像ローカル時刻とともに、補正された撮像サーバ時刻を表示部313に表示する。
 ステップS204の処理が終了すると画像表示処理が終了する。
 以上のように各処理を実行することにより、表示装置112は、より正確な撮像時刻を表示することができる。
   <補正後撮像サーバ時刻供給処理の流れ>
 また、時計サーバ113(情報処理装置)において、補正された撮像サーバ時刻を供給するために実行される補正後撮像サーバ時刻供給処理の流れの例を、図18のフローチャートを参照して説明する。
 補正後撮像サーバ時刻供給処理が開始されると、時計サーバ113の要求取得部422は、ステップS211において、表示装置112からの要求(補正された撮像サーバ時刻の要求)を受け付ける。この要求には、所望の装置(例えば撮像装置111)を示すローカル時刻情報と取得サーバ時刻と撮像サーバ時刻(または、それらを格納する画像ファイル)が含まれる。
 ステップS212において、ずれ量管理部421は、その要求(ローカル識別情報)に従って、指定された機器(例えば撮像装置111)のローカルクロックの単位時間当たりのずれ量を特定する。撮像時刻補正部424は、その特定したローカルクロックの単位時間当たりのずれ量と取得サーバ時刻とを用いて、撮像サーバ時刻を補正する。
 ステップS213において、撮像時刻供給部425は、その補正された撮像サーバ時刻を、要求元である表示装置112へ供給する。
 ステップS213の処理が終了すると補正後撮像サーバ時刻供給処理が終了する。
 以上のように各処理を実行することにより、時計サーバ113は、撮像サーバ時刻をより正確に補正することができる。つまり、時計サーバ113は、より正確な撮像サーバ時刻を提供することができる。
 また、撮像装置111が、このローカル識別情報を電子署名化してもよい。例えば、撮像装置111(第1の情報処理装置)において、署名生成部230が、撮像画像、撮像ローカル時刻(第1の撮像時刻)、撮像サーバ時刻(第2の撮像時刻)、取得サーバ時刻(第2の時刻)、およびローカル識別情報の電子署名を生成してもよい。そして、画像ファイル生成部231が、その生成された電子署名を画像ファイルに格納してもよい。このようにすることにより、撮像装置111は、ローカル識別情報の改ざんを抑制することができる。
  <方法1-1-2の適用>
 例えば、上述した方法1-1-2を適用してもよい。つまり、ずれ量情報をファイルに格納してもよい。例えば、撮像装置111(第1の画像処理装置)において、画像ファイル生成部231が、ローカルクロックの単位時間当たりのずれ量を示すずれ量情報をファイルに格納してもよい。
   <撮像処理の流れ>
 その場合の撮像装置111(第1の画像処理装置)において実行される撮像処理の流れの例を、図19のフローチャートを参照して説明する。
 撮像処理が開始されると、ステップS221からステップS224までの各処理が、図9のステップS121からステップS124までの各処理と同様に実行される。
 ステップS225において、画像ファイル生成部231は、画像ファイルを生成し、本画像(撮像画像)、縮小画像、画像情報、および署名を格納する。また、画像ファイル生成部231は、その画像ファイルに、撮像ローカル時刻(第1の撮像時刻)と撮像サーバ時刻(第2の撮像時刻)と取得サーバ時刻とずれ量情報とを格納する。つまり、画像ファイル生成部231は、撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)と、ずれ量情報とを格納する画像ファイルを生成する。
 ステップS226およびステップS227の各処理は、図9のステップS126およびステップS127の各処理と同様に実行される。
 ステップS227が終了すると撮像処理が終了する。
 このように、ずれ量情報をファイルに格納する(撮像画像に付加する)ことにより、そのファイルを処理する装置(例えば表示装置112)は、ローカルクロックの単位時間当たりのずれ量をより容易に取得することができる。
   <サーバ時刻取得処理の流れ>
 この場合、ローカルクロックの単位時間当たりのずれ量は、どのような装置において導出されてもよい。例えば、撮像装置111が、自身のローカルクロックの単位時間当たりのずれ量を導出してもよい。その場合、撮像装置111は、サーバ時刻情報における現在時刻(現在サーバ時刻とも称する)と、前回の取得サーバ時刻と、今回の取得サーバ時刻とからローカルクロックの単位時間当たりのずれ量を導出してもよい。つまり、撮像装置111は、前回の取得サーバ時刻から現在サーバ時刻までの時間(サーバ時刻情報による時間)を導出し、現在サーバ時刻と今回の取得サーバ時刻とのずれ量(標準時刻情報とサーバ時刻情報との間の現在時刻のずれ量)を導出し、それらに基づいて、ローカルクロックの単位時間当たりのずれ量を導出する。また、撮像装置111が、自身のローカルクロックの単位時間当たりのずれ量を時計サーバ113等から取得してもよい。
 標準時刻情報における現在時刻(取得サーバ時刻)を取得するために撮像装置111(第1の画像処理装置)において実行されるサーバ時刻取得処理の流れの例を、図20のフローチャートを参照して説明する。なお、撮像装置111が、自身のローカルクロックの単位時間当たりのずれ量を算出するものとする。
 サーバ時刻取得処理が開始されると、時刻取得部212は、ステップS231において、時計サーバから供給される現在時刻を取得する。
 ステップS232において、時刻管理部213は、取得した現在時刻を開始時刻とするサーバ時刻情報を、ローカルクロックを用いて管理する。
 ステップS233において、時刻管理部213は、現在サーバ時刻と前回の取得サーバ時刻と今回の取得サーバ時刻を用いて単位時間当たりのずれ量を導出する。
 ステップS233の処理が終了すると、サーバ時刻取得処理が終了する。
 このように各処理を実行することにより、撮像装置111は、自身のローカルクロックの単位時間当たりのずれ量をより容易に算出することができる。
   <画像表示処理の流れ>
 表示装置112は、上述のように画像ファイルに格納されたずれ量情報と取得サーバ時刻とに基づいて撮像サーバ時刻を補正し、補正後の撮像サーバ時刻を表示してもよい。例えば、画像ファイルには、ローカルクロックの単位時間当たりのずれ量を示すずれ量情報と取得サーバ時刻(第2の時刻)とが格納されてもよい。表示装置112(第2の画像処理装置)において、撮像時刻補正部324が、そのずれ量情報と取得サーバ時刻とに基づいて撮像サーバ時刻(第2の撮像時刻)を補正してもよい。その場合の画像表示処理の流れの例を図21のフローチャートを参照して説明する。
 画像表示処理が開始されると、画像ファイル取得部311は、ステップS241において、画像ファイルを取得する。この画像ファイルには、撮像装置111(第1の画像処理装置)により生成された撮像画像と、その撮像画像の生成タイミングをローカル時刻情報(第1の時刻情報)により示した撮像ローカル時刻(第1の撮像時刻)と、その生成タイミングをサーバ時刻情報(第2の時刻情報)により示した撮像サーバ時刻(第2の撮像時刻)と、取得タイミングを示す取得サーバ時刻(第2の時刻)と、ずれ量情報とが格納されている。
 ステップS242において、撮像時刻補正部324は、そのずれ量情報と取得サーバ時刻とを用いて、撮像サーバ時刻を補正する。
 ステップS243において、表示処理部312は、画像ファイルから撮像画像および撮像ローカル時刻を抽出し、その抽出した撮像画像および撮像ローカル時刻とともに、補正された撮像サーバ時刻を表示部313に表示する。
 ステップS243の処理が終了すると画像表示処理が終了する。
 以上のように各処理を実行することにより、表示装置112は、より容易に撮像サーバ時刻を補正することができる。また、表示装置112は、より正確な撮像時刻を表示することができる。
 また、撮像装置111が、このずれ量情報を電子署名化してもよい。例えば、撮像装置111(第1の情報処理装置)において、署名生成部230が、撮像画像、撮像ローカル時刻(第1の撮像時刻)、撮像サーバ時刻(第2の撮像時刻)、取得サーバ時刻(第2の時刻)、およびずれ量情報の電子署名を生成してもよい。そして、画像ファイル生成部231が、その生成された電子署名を画像ファイルに格納してもよい。このようにすることにより、撮像装置111は、ずれ量情報の改ざんを抑制することができる。
  <方法1-1-3の適用>
 例えば、上述した方法1-1-3を適用してもよい。つまり、サーバ(時計サーバ113等)から現在時刻(今回の取得サーバ時刻)を取得する際に、ローカル識別情報、現在サーバ時刻、前回の取得サーバ時刻を提供してもよい。例えば、撮像装置111(第1の画像処理装置)において、時刻取得部212が、今回の取得サーバ時刻(第2の時刻)を取得する際に、装置を識別するローカル識別情報(識別情報)、現在サーバ時刻(サーバ時刻情報(第2の時刻情報)で示される現在時刻)、および、前回の取得サーバ時刻(前回の取得タイミングを示す第2の時刻)をサーバ(時計サーバ113等)に供給してもよい。
   <サーバ時刻取得処理の流れ>
 この場合のサーバ時刻取得処理の流れの例を、図22のフローチャートを参照して説明する。なお、撮像装置111が、自身のローカルクロックの単位時間当たりのずれ量を算出するものとする。
 サーバ時刻取得処理が開始されると、時刻取得部212は、ステップS251において、ローカル識別情報、現在サーバ時刻、前回の取得サーバ時刻を時計サーバ113に供給し、現在時刻を要求する。
 ステップS252において、時刻取得部212は、その要求に応じて時計サーバ113から供給される標準時刻情報における現在時刻を取得する。
 ステップS253において、時刻管理部213は、取得した現在時刻を開始時刻とするサーバ時刻情報を、ローカルクロックを用いて管理する。
 ステップS253の処理が終了すると、サーバ時刻取得処理が終了する。
 このように各処理を実行することにより、撮像装置111は、より容易に、ローカル識別情報、現在サーバ時刻、前回の取得サーバ時刻を時計サーバ113等に提供することができる。
   <サーバ時刻供給処理の流れ>
 時計サーバ113は、撮像装置111から供給される現在サーバ時刻と前回の取得サーバ時刻と、標準時刻情報における現在時刻(すなわち、今回の取得サーバ時刻)とを用いて、その撮像装置111のローカルクロックの単位時間当たりのずれ量を導出してもよい。そして、時計サーバ113は、その導出した単位時間当たりのずれ量を機器毎に(ローカル識別情報に紐づけて)管理してもよい。
 例えば、時計サーバ113(情報処理装置)において時刻取得部413が、撮像装置111(他の装置)に今回供給する取得サーバ時刻(第1の現在時刻)を供給する際に、撮像装置111を識別するローカル識別情報と、撮像装置111に前回供給した取得サーバ時刻(前回供給した第2の現在時刻)と、撮像装置111がその前回供給した第2の現在時刻を開始時刻としてローカルクロックを用いて管理したサーバ時刻情報により示される現在サーバ時刻(第3の現在時刻)とを取得してもよい。ずれ量導出部414が、その第1の現在時刻、並びに、取得した第2の現在時刻および第3の現在時刻を用いて単位時間当たりのずれ量を導出してもよい。ずれ量管理部421が、その取得した識別情報を用いて、導出された単位時間当たりのずれ量を、他の装置毎に管理してもよい。
 このような処理を実行する際に、時計サーバ113において実行されるサーバ時刻供給処理の流れの例を、図23のフローチャートを参照して説明する。
 サーバ時刻供給処理が開始されると、時刻取得部413は、ステップS261において、撮像装置111から供給されるローカル識別情報、現在サーバ時刻、前回の取得サーバ時刻を、現在時刻の要求として取得する。
 ステップS262において、現在時刻供給部412は、その要求に応じて、標準時刻情報における現在時刻を撮像装置111へ供給する。
 ステップS263において、ずれ量導出部414は、現在サーバ時刻と前回の取得サーバ時刻と現在時刻とを用いて、撮像装置111のローカルクロックの単位時間当たりのずれ量を導出する。
 ステップS264において、ずれ量管理部421は、その導出した撮像装置111のローカルクロックの単位時間当たりのずれ量を機器毎に管理する。
 ステップS264の処理が終了するとサーバ時刻供給処理が終了する。
 このように各処理を実行することにより、時計サーバ113は、より容易に、ローカルクロックの単位時間当たりのずれ量を導出することができる。また、時計サーバ113は、より容易に、そのローカルクロックの単位時間当たりのずれ量を機器毎に管理することができる。
  <方法1-2の適用>
 例えば、上述した方法1-2を適用してもよい。つまり、撮像装置111で時刻情報を管理できない場合、時刻情報の格納を省略してもよい。例えば、第1の画像処理装置(撮像装置)において、時刻管理部213が、サーバ時刻情報(第2の時刻情報)を管理できない場合、撮像サーバ時刻(第2の撮像時刻)の画像ファイルへの格納を省略してもよい。
   <撮像処理の流れ>
 その場合の撮像装置111(第1の画像処理装置)において実行される撮像処理の流れの例を、図24のフローチャートを参照して説明する。
 撮像処理が開始されると、ステップS271からステップS274までの各処理が、図9のステップS121からステップS124までの各処理と同様に実行される。
 ステップS275において、画像ファイル生成部231は、画像ファイルを生成し、本画像(撮像画像)、縮小画像、画像情報、および署名を格納する。
 ステップS276において、時刻管理部213は、時刻情報を正しく管理できているか否かを判定する。時刻情報を正しく管理できていると判定された場合、処理は、ステップS277へ進む。
 ステップS277において、画像ファイル生成部231は、撮像ローカル時刻(第1の撮像時刻)および撮像サーバ時刻(第2の撮像時刻)を画像ファイルに格納する。ステップS277の処理が終了すると処理はステップS279へ進む。また、ステップS276において、撮像サーバ時刻を正しく管理できていないと判定された場合、処理はステップS278へ進む。ステップS278において、画像ファイル生成部231は、撮像サーバ時刻(第2の撮像時刻)の格納を省略し、撮像ローカル時刻(第1の撮像時刻)を画像ファイルに格納する。ステップS278の処理が終了すると処理はステップS279へ進む。
 ステップS279およびステップS280の各処理は、図9のステップS126およびステップS127の各処理と同様に実行される。
 ステップS280が終了すると撮像処理が終了する。
 このようにすることにより、撮像装置111は、信頼度または正確性の低い情報をファイルに格納することを抑制することができる。換言するに、撮像装置111は、画像ファイル(すなわち、画像ファイル内の情報)の正確性または信頼度の低減を抑制することができる。
  <方法1-3の適用>
 例えば、上述した方法1-3を適用してもよい。つまり、撮像装置111が、起動時、終了時、またはネットワーク接続時にサーバ時刻情報を取得してもよい。撮像装置は、どのようなタイミングにおいて、時計サーバ等から現在時刻(取得サーバ時刻)を取得してもよい。例えば、撮像装置の起動時であってもよいし、終了時(シャットダウン時)であってもよいし、ネットワーク接続であってもよい。例えば、第1の画像処理装置(撮像装置)において、時刻管理部213が、撮像装置111の起動時若しくは終了時、または、ネットワーク接続時に取得サーバ時刻(第2の時刻)を取得してもよい。
 また、撮像装置111が、ネットワークに接続可能な期間において、時計サーバ113等から現在時刻(取得サーバ時刻)を定期的に取得してもよい。また、撮像装置111が、ユーザ等の指示に基づくタイミングにおいて、時計サーバ113等から現在時刻(取得サーバ時刻)を取得してもよい。
  <方法1-4の適用>
 例えば、上述した方法1-4を適用してもよい。つまり、撮像装置111が、暗号化された通信を用いてサーバ時刻情報を取得してもよい。例えば、時計サーバ113(情報処理装置)において、現在時刻供給部412が、暗号化された通信を用いて現在時刻(取得サーバ時刻)を他の装置(撮像装置111)に供給してもよい。
 また、撮像装置111(第1の画像処理装置)において、時刻取得部212が、暗号化された通信を用いて供給される取得サーバ時刻(第2の時刻)を取得し、復号してもよい。
 このようにすることにより、時計サーバ113から撮像装置111へ供給される取得サーバ時刻(標準時刻情報における現在時刻)の改ざんを抑制することができる。
  <方法1-5の適用>
 例えば、上述した方法1-5を適用してもよい。つまり、撮像装置111が、サーバ時刻情報でローカル時刻情報を上書きしてもよい。例えば、撮像装置111(第1の画像処理装置)において、時刻設定部211が、サーバ時刻情報(第2の時刻情報)を用いて設定ローカル時刻(第1の時刻)を設定してもよい。
  <方法1-5-1の適用>
 また、上述した方法1-5-1を適用してもよい。つまり、サーバ時刻情報でローカル時刻情報を上書きする設定を設けてもよい。例えば、撮像装置111が、動作モードとして、サーバ時刻情報でローカル時刻情報を上書きするモードと、上書きしないモードを有し、ユーザ等によりその動作モードが選択され得るようにしてもよい。例えば、撮像装置111(第1の画像処理装置)において、時刻設定部211が、設定ローカル時刻(第1の時刻)の設定にサーバ時刻情報(第2の時刻情報)を利用するか否かを、ユーザ指示に基づいて選択してもよい。
   <動作モード設定処理の流れ>
 その場合、撮像装置111(第1の画像処理装置)において動作モードを設定するために実行される動作モード設定処理の流れの例を、図25のフローチャートを参照して説明する。
 動作モード設定処理が開始されると、撮像装置111の制御部201は、ステップS291において、上書きモードを設定するか否かを判定する。上書きモードを設定すると判定された場合、処理はステップS292へ進む。
 ステップS292において、制御部201は、時刻管理部213を制御し、動作モードとして、サーバ時刻情報(第2の時刻情報)を用いて設定ローカル時刻(第1の時刻)を設定するモードである上書きモードを設定する。ステップS292の処理が終了すると動作モード設定処理が終了する。
 また、ステップS291において、上書きモードを設定しない(上書き禁止モードを設定する)と判定された場合、処理はステップS293へ進む。
 ステップS293において、制御部201は、時刻管理部213を制御し、動作モードとして、サーバ時刻情報(第2の時刻情報)を用いて設定ローカル時刻(第1の時刻)を設定することを禁止するモードである上書き禁止モードを設定する。ステップS293の処理が終了すると動作モード設定処理が終了する。
 このようにすることにより、ユーザ等は、より容易に、サーバ時刻情報によってローカル時刻情報を上書きさせることができる。
  <組み合わせ>
 <3.撮像ローカル時刻と撮像サーバ時刻の伝送>において上述した各方法は、矛盾が生じない限り、任意の他の方法と組み合わせて画像処理システム100(の各装置)に適用してもよい。3以上の方法を組み合わせて適用してもよい。例えば、方法1-1から方法1-5までの内のいずれか2つ以上を組み合わせて適用してもよい。また、組み合わせ可能な手法は、「方法」として図1の表に示したものだけでなく、<3.撮像ローカル時刻と撮像サーバ時刻の伝送>において上述した全ての要素を含み得る。また、上述した各方法は、上述した以外の他の方法と組み合わせて適用してもよい。
 <5.付記>
  <その他>
 上述した本技術の各例(各方法)は、矛盾が生じない限り、他の例(他の方法)と適宜組み合わせて適用してもよい。また、上述した本技術の各例を、上述した以外の他の技術と組み合わせて適用してもよい。
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図26に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
 バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
 入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
 以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
 その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
  <本技術の適用可能な対象>
 本技術は、任意の符号化・復号方式に適用することができる。
 また、本技術は、任意の構成に適用することができる。例えば、本技術は、様々な電子機器に応用され得る。
 また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
 また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
  <本技術を適用可能な分野・用途>
 本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
 例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
  <その他>
 なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
 また、撮像画像に関する各種情報(メタデータ等)は、撮像画像に関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
 なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 第1の時刻を設定する設定部と、
 サーバから供給される第2の時刻を取得する取得部と、
 設定した前記第1の時刻を開始時刻とする第1の時刻情報と、取得した前記第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理する時刻管理部と、
 被写体を撮像し撮像画像を生成する撮像部と、
 前記撮像画像と、前記撮像画像の生成タイミングを前記第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを前記第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成するファイル生成部と
 を備える画像処理装置。
 (2) 前記ファイル生成部は、取得タイミングを示す前記第2の時刻を前記ファイルに格納するように構成される
 (1)に記載の画像処理装置。
 (3) 前記ファイル生成部は、装置を識別する識別情報を前記ファイルに格納するように構成される
 (2)に記載の画像処理装置。
 (4) 前記ファイル生成部は、前記ローカルクロックの単位時間当たりのずれ量を示すずれ量情報を前記ファイルに格納するように構成される
 (2)または(3)に記載の画像処理装置。
 (5) 前記取得部は、前記第2の時刻を取得する際に、装置を識別する識別情報、前記第2の時刻情報で示される現在時刻、および、前回の前記取得タイミングを示す前記第2の時刻を前記サーバに供給するように構成される
 (2)から(4)までのいずれかに記載の画像処理装置。
 (6) 前記時刻管理部は、前記第2の時刻情報を管理できない場合、前記第2の撮像時刻の前記ファイルへの格納を省略するように構成される
 (1)から(5)までのいずれかに記載の画像処理装置。
 (7) 前記取得部は、装置の起動時若しくは終了時、または、ネットワーク接続時に前記第2の時刻を取得するように構成される
 (1)から(6)までのいずれかに記載の画像処理装置。
 (8) 前記取得部は、暗号化された前記第2の時刻を取得し、復号する
 (1)から(7)までのいずれかに記載の画像処理装置。
 (9) 前記設定部は、前記第2の時刻情報を用いて前記第1の時刻を設定するように構成される
 (1)から(8)までのいずれかに記載の画像処理装置。
 (10) 前記設定部は、前記第1の時刻の設定に前記第2の時刻情報を利用するか否かを、ユーザ指示に基づいて選択するように構成される
 (9)に記載の画像処理装置。
 (11) 前記撮像画像、前記第1の撮像時刻、および、前記第2の撮像時刻の電子署名を生成する署名生成部をさらに備え、
 前記ファイル生成部は、生成された前記電子署名を前記ファイルに格納するように構成される
 (1)から(10)までのいずれかに記載の画像処理装置。
 (12) 第1の時刻を設定し、
 サーバから供給される第2の時刻を取得し、
 設定した前記第1の時刻を開始時刻とする第1の時刻情報と、取得した前記第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理し、
 被写体を撮像し撮像画像を生成し、
 前記撮像画像と、前記撮像画像の生成タイミングを前記第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを前記第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成する
 画像処理方法。
 (13) 撮像装置により生成された撮像画像と、前記撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得するファイル取得部と、
 前記撮像画像、前記第1の撮像時刻、および前記第2の撮像時刻を表示する表示処理部と
 を備え、
 前記第1の時刻情報は、前記撮像装置において設定された第1の時刻を開始時刻とし、前記撮像装置内で生成されるローカルクロックを用いて管理された時刻情報であり、
 前記第2の時刻情報は、サーバから前記撮像装置に供給された第2の時刻を開始時刻とし、前記ローカルクロックを用いて管理された時刻情報である
 画像処理装置。
 (14) 前記第1の撮像時刻および前記第2の撮像時刻に基づいて、前記撮像画像の真贋判定を行う真贋判定部をさらに備え、
 前記表示処理部が、前記真贋判定の結果を表示するように構成される
 (13)に記載の画像処理装置。
 (15) 前記第2の撮像時刻の信頼度を判定する信頼度判定部をさらに備え、
 前記表示処理部が、判定された前記信頼度を表示するように構成される
 (13)または(14)に記載の画像処理装置。
 (16) 前記ファイルには前記第2の時刻が格納されており、
 前記表示処理部は、前記ローカルクロックの単位時間当たりのずれ量と前記第2の時刻とに基づいて補正された前記第2の撮像時刻を表示するように構成される
 (13)から(15)までのいずれかに記載の画像処理装置。
 (17) 前記ローカルクロックの前記単位時間当たりのずれ量を示すずれ量情報を前記サーバから取得するずれ量情報取得部と、
 取得された前記ずれ量情報と前記第2の時刻とに基づいて前記第2の撮像時刻を補正する撮像時刻補正部をさらに備える
 (16)に記載の画像処理装置。
 (18) 補正された前記第2の撮像時刻を前記サーバから取得する撮像時刻取得部をさらに備える
 (16)に記載の画像処理装置。
 (19) 前記ファイルには、前記ローカルクロックの前記単位時間当たりのずれ量を示すずれ量情報と前記第2の時刻とが格納されており、
 前記ずれ量情報と前記第2の時刻とに基づいて前記第2の撮像時刻を補正する撮像時刻補正部をさらに備える
 (16)に記載の画像処理装置。
 (20) 撮像装置により生成された撮像画像と、前記撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得し、
 前記撮像画像、前記第1の撮像時刻、および前記第2の撮像時刻を表示し、
 前記第1の時刻情報は、前記撮像装置において設定された第1の時刻を開始時刻とし、前記撮像装置内で生成されるローカルクロックを用いて管理された時刻情報であり、
 前記第2の時刻情報は、サーバから前記撮像装置に供給された第2の時刻を開始時刻とし、前記ローカルクロックを用いて管理された時刻情報である
 画像処理方法。
 (21) 他の装置内で生成されるローカルクロックの単位時間当たりのずれ量を、前記他の装置毎に管理するずれ量管理部
 を備える情報処理装置。
 (22) 指定された前記他の装置の前記ローカルクロックの前記単位時間当たりのずれ量を示すずれ量情報を、前記他の装置において生成された撮像画像を表示する表示装置へ供給するずれ量情報供給部をさらに備える
 (21)に記載の情報処理装置。
 (23) 指定された前記他の装置の前記ローカルクロックの前記単位時間当たりのずれ量を用いて、前記他の装置において生成された撮像画像の撮像時刻を補正する撮像時刻補正部と、
 補正された前記撮像時刻を、前記撮像画像を表示する表示装置へ供給する撮像時刻供給部と
 をさらに備える(21)に記載の情報処理装置。
 (24) 前記他の装置に第1の現在時刻を供給する際に、前記他の装置を識別する識別情報と、前記他の装置に前回供給した第2の現在時刻と、前記他の装置が前記第2の現在時刻を開始時刻として前記ローカルクロックを用いて管理した時刻情報により示される第3の現在時刻とを取得する取得部と、
 前記第1の現在時刻、並びに、取得した前記第2の現在時刻および前記第3の現在時刻を用いて前記単位時間当たりのずれ量を導出するずれ量導出部と
 をさらに備え、
 前記ずれ量管理部は、取得した前記識別情報を用いて、導出された前記単位時間当たりのずれ量を、前記他の装置毎に管理するように構成される
 (21)から(23)までのいずれかに記載の情報処理装置。
 (25) 暗号化された通信を用いて現在時刻を前記他の装置に供給する現在時刻供給部をさらに備える
 (21)から(24)までのいずれかに記載の情報処理装置。
 (26) 他の装置内で生成されるローカルクロックの単位時間当たりのずれ量を、前記他の装置毎に管理する
 情報処理方法。
 100 画像処理システム, 110 ネットワーク, 111 撮像装置, 112 表示装置, 113 時計サーバ, 201 制御部, 211 時刻設定部, 212 時刻取得部, 213 時刻管理部, 221 光学系, 222 センサ部, 228 ハッシュ処理部, 230 署名生成部, 231 画像ファイル生成部, 232 画像ファイル記録部, 233 画像ファイル供給部, 311 画像ファイル取得部, 312 表示処理部, 321 真贋判定部, 322 信頼度判定部, 323 ずれ量情報取得部, 324 撮像時刻補正部, 325 撮像時刻取得部, 411 時刻管理部, 412 現在時刻供給部, 413 時刻取得部, 414 ずれ量導出部, 421 ずれ量管理部, 422 要求取得部, 423 ずれ量情報供給部, 424 撮像時刻補正部, 425 撮像時刻供給部, 900 コンピュータ

Claims (20)

  1.  第1の時刻を設定する設定部と、
     サーバから供給される第2の時刻を取得する取得部と、
     設定した前記第1の時刻を開始時刻とする第1の時刻情報と、取得した前記第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理する時刻管理部と、
     被写体を撮像し撮像画像を生成する撮像部と、
     前記撮像画像と、前記撮像画像の生成タイミングを前記第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを前記第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成するファイル生成部と
     を備える画像処理装置。
  2.  前記ファイル生成部は、取得タイミングを示す前記第2の時刻を前記ファイルに格納するように構成される
     請求項1に記載の画像処理装置。
  3.  前記ファイル生成部は、装置を識別する識別情報を前記ファイルに格納するように構成される
     請求項2に記載の画像処理装置。
  4.  前記ファイル生成部は、前記ローカルクロックの単位時間当たりのずれ量を示すずれ量情報を前記ファイルに格納するように構成される
     請求項2に記載の画像処理装置。
  5.  前記取得部は、前記第2の時刻を取得する際に、装置を識別する識別情報、前記第2の時刻情報で示される現在時刻、および、前回の前記取得タイミングを示す前記第2の時刻を前記サーバに供給するように構成される
     請求項2に記載の画像処理装置。
  6.  前記時刻管理部は、前記第2の時刻情報を管理できない場合、前記第2の撮像時刻の前記ファイルへの格納を省略するように構成される
     請求項1に記載の画像処理装置。
  7.  前記取得部は、装置の起動時若しくは終了時、または、ネットワーク接続時に前記第2の時刻を取得するように構成される
     請求項1に記載の画像処理装置。
  8.  前記取得部は、暗号化された前記第2の時刻を取得し、復号する
     請求項1に記載の画像処理装置。
  9.  前記設定部は、前記第2の時刻情報を用いて前記第1の時刻を設定するように構成される
     請求項1に記載の画像処理装置。
  10.  前記設定部は、前記第1の時刻の設定に前記第2の時刻情報を利用するか否かを、ユーザ指示に基づいて選択するように構成される
     請求項9に記載の画像処理装置。
  11.  前記撮像画像、前記第1の撮像時刻、および、前記第2の撮像時刻の電子署名を生成する署名生成部をさらに備え、
     前記ファイル生成部は、生成された前記電子署名を前記ファイルに格納するように構成される
     請求項1に記載の画像処理装置。
  12.  第1の時刻を設定し、
     サーバから供給される第2の時刻を取得し、
     設定した前記第1の時刻を開始時刻とする第1の時刻情報と、取得した前記第2の時刻を開始時刻とする第2の時刻情報とを、装置内で生成されるローカルクロックを用いて管理し、
     被写体を撮像し撮像画像を生成し、
     前記撮像画像と、前記撮像画像の生成タイミングを前記第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを前記第2の時刻情報により示した第2の撮像時刻とを格納するファイルを生成する
     画像処理方法。
  13.  撮像装置により生成された撮像画像と、前記撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得するファイル取得部と、
     前記撮像画像、前記第1の撮像時刻、および前記第2の撮像時刻を表示する表示処理部と
     を備え、
     前記第1の時刻情報は、前記撮像装置において設定された第1の時刻を開始時刻とし、前記撮像装置内で生成されるローカルクロックを用いて管理された時刻情報であり、
     前記第2の時刻情報は、サーバから前記撮像装置に供給された第2の時刻を開始時刻とし、前記ローカルクロックを用いて管理された時刻情報である
     画像処理装置。
  14.  前記第1の撮像時刻および前記第2の撮像時刻に基づいて、前記撮像画像の真贋判定を行う真贋判定部をさらに備え、
     前記表示処理部が、前記真贋判定の結果を表示するように構成される
     請求項13に記載の画像処理装置。
  15.  前記第2の撮像時刻の信頼度を判定する信頼度判定部をさらに備え、
     前記表示処理部が、判定された前記信頼度を表示するように構成される
     請求項13に記載の画像処理装置。
  16.  前記ファイルには前記第2の時刻が格納されており、
     前記表示処理部は、前記ローカルクロックの単位時間当たりのずれ量と前記第2の時刻とに基づいて補正された前記第2の撮像時刻を表示するように構成される
     請求項13に記載の画像処理装置。
  17.  前記ローカルクロックの前記単位時間当たりのずれ量を示すずれ量情報を前記サーバから取得するずれ量情報取得部と、
     取得された前記ずれ量情報と前記第2の時刻とに基づいて前記第2の撮像時刻を補正する撮像時刻補正部をさらに備える
     請求項16に記載の画像処理装置。
  18.  補正された前記第2の撮像時刻を前記サーバから取得する撮像時刻取得部をさらに備える
     請求項16に記載の画像処理装置。
  19.  前記ファイルには、前記ローカルクロックの前記単位時間当たりのずれ量を示すずれ量情報と前記第2の時刻とが格納されており、
     前記ずれ量情報と前記第2の時刻とに基づいて前記第2の撮像時刻を補正する撮像時刻補正部をさらに備える
     請求項16に記載の画像処理装置。
  20.  撮像装置により生成された撮像画像と、前記撮像画像の生成タイミングを第1の時刻情報により示した第1の撮像時刻と、前記生成タイミングを第2の時刻情報により示した第2の撮像時刻とが格納されたファイルを取得し、
     前記撮像画像、前記第1の撮像時刻、および前記第2の撮像時刻を表示し、
     前記第1の時刻情報は、前記撮像装置において設定された第1の時刻を開始時刻とし、前記撮像装置内で生成されるローカルクロックを用いて管理された時刻情報であり、
     前記第2の時刻情報は、サーバから前記撮像装置に供給された第2の時刻を開始時刻とし、前記ローカルクロックを用いて管理された時刻情報である
     画像処理方法。
PCT/JP2023/042469 2022-12-07 2023-11-28 画像処理装置および方法 WO2024122396A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263430791P 2022-12-07 2022-12-07
US63/430,791 2022-12-07

Publications (1)

Publication Number Publication Date
WO2024122396A1 true WO2024122396A1 (ja) 2024-06-13

Family

ID=91379293

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/042469 WO2024122396A1 (ja) 2022-12-07 2023-11-28 画像処理装置および方法

Country Status (1)

Country Link
WO (1) WO2024122396A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003309802A (ja) * 2002-04-16 2003-10-31 Canon Inc 撮像装置、撮像方法、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
JP2004357166A (ja) * 2003-05-30 2004-12-16 Canon Inc 撮像装置
JP2007142985A (ja) * 2005-11-21 2007-06-07 Canon Inc 撮像装置及びその制御方法、検証装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2010136241A (ja) * 2008-12-08 2010-06-17 Nikon Systems Inc 撮像装置
JP2010151645A (ja) * 2008-12-25 2010-07-08 Sony Corp 電子機器、撮像装置、時刻補正方法およびプログラム
JP2018189469A (ja) * 2017-05-01 2018-11-29 株式会社リコー 検証システム、検証装置、撮像装置、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003309802A (ja) * 2002-04-16 2003-10-31 Canon Inc 撮像装置、撮像方法、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
JP2004357166A (ja) * 2003-05-30 2004-12-16 Canon Inc 撮像装置
JP2007142985A (ja) * 2005-11-21 2007-06-07 Canon Inc 撮像装置及びその制御方法、検証装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2010136241A (ja) * 2008-12-08 2010-06-17 Nikon Systems Inc 撮像装置
JP2010151645A (ja) * 2008-12-25 2010-07-08 Sony Corp 電子機器、撮像装置、時刻補正方法およびプログラム
JP2018189469A (ja) * 2017-05-01 2018-11-29 株式会社リコー 検証システム、検証装置、撮像装置、プログラム

Similar Documents

Publication Publication Date Title
US11734456B2 (en) Systems and methods for authenticating photographic image data
US11646902B2 (en) Methods for requesting and authenticating photographic image data
US10361866B1 (en) Proof of image authentication on a blockchain
US11868509B2 (en) Method and arrangement for detecting digital content tampering
US8908058B2 (en) Storage and transmission of pictures including multiple frames
CN111460526A (zh) 基于区块链的影像数据记录、获取、验证方法及装置
CN104079830A (zh) 暗码添加方法和装置、暗码照片处理方法和装置
US20200272748A1 (en) Methods and apparatus for validating media content
US20070179748A1 (en) Measuring device, measuring method, measuring program product, measurement data editing device, measurement data editing method, measurement data editing program product, measurement time verifying device, measurement time verifying method and measurement time verifying program product
US20210383029A1 (en) Information processing program, information processing device, and information processing method
CN111339203B (zh) 区块链数据采集方法、装置及***
JP2018189469A (ja) 検証システム、検証装置、撮像装置、プログラム
KR101628720B1 (ko) 진본성 및 무결성을 입증하기 위한 사본영상 증거관리시스템
WO2012170111A1 (en) Storage and transmission of pictures including multiple frames
WO2024122396A1 (ja) 画像処理装置および方法
US20240113891A1 (en) Image processing apparatus and method
CN114270776A (zh) 成像设备、图像数据处理方法以及程序
WO2024122601A1 (ja) 画像処理装置および方法
EP1040619A1 (fr) Dispositif d'authentification d'images numeriques
KR20220010613A (ko) 실제 사건의 디지털 표현을 사건 발생의 실시간과 결합하는 방법
RU2792876C1 (ru) Способ привязки цифрового представления фактического события к реальному времени его наступления
US20240054507A1 (en) Content management system, content generation apparatus, content management method, control method for contents generation apparatus, and storage medium storing content management program
JP2017174023A (ja) 照合情報処理装置
JP2024076326A (ja) 管理システム、コンテンツ生成装置、コンテンツの管理方法、コンテンツ生成装置の制御方法、及びプログラム
JP2024100463A (ja) 管理システム、コンテンツの管理方法、及びプログラム