WO2018051699A1 - 撮像装置、撮像方法、撮像プログラム - Google Patents

撮像装置、撮像方法、撮像プログラム Download PDF

Info

Publication number
WO2018051699A1
WO2018051699A1 PCT/JP2017/029198 JP2017029198W WO2018051699A1 WO 2018051699 A1 WO2018051699 A1 WO 2018051699A1 JP 2017029198 W JP2017029198 W JP 2017029198W WO 2018051699 A1 WO2018051699 A1 WO 2018051699A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
main
control
signal
unit
Prior art date
Application number
PCT/JP2017/029198
Other languages
English (en)
French (fr)
Inventor
史憲 入江
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2018539573A priority Critical patent/JP6467116B2/ja
Priority to CN201780056809.8A priority patent/CN109716752B/zh
Publication of WO2018051699A1 publication Critical patent/WO2018051699A1/ja
Priority to US16/355,092 priority patent/US10939056B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to an imaging apparatus, an imaging method, and an imaging program.
  • an imaging device In recent years, with the increase in the resolution of image sensors such as CCD (Charge Coupled Device) image sensors or CMOS (Complementary Metal Oxide Semiconductor) image sensors, digital still cameras, digital video cameras, mobile phones with cameras, etc.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging device information on the subject being imaged is acquired based on a captured image signal obtained by imaging performed before the main imaging for storage, and the exposure or the position of the focus lens at the time of actual imaging is acquired based on this information.
  • the imaging conditions such as are determined.
  • Patent Documents 1 and 2 describe an imaging apparatus that changes between exposure control of an image sensor during main imaging for storage and exposure control of the image sensor during imaging for determining imaging conditions.
  • the imaging condition at the time of arbitrary main imaging for storage is determined by another main imaging performed immediately before the arbitrary main imaging. It is preferable to carry out based on the signal.
  • the imaging conditions at the time of this other main imaging are conditions suitable for storage and are not appropriate conditions for determining the imaging conditions. For this reason, an appropriate imaging condition may not be determined from this captured image signal.
  • the image sensor includes a phase difference detection pixel
  • the level of the signal output from the phase difference detection pixel in the captured image signal obtained by the other main imaging detects the phase difference. If it is too low or too high, the accuracy of determining the position of the focus lens at the time of the arbitrary actual imaging is lowered.
  • the exposure at the time of the other main imaging is changed from the proper exposure by the user setting or the manual setting, the exposure determined based on the captured image signal obtained at the time of the other main imaging. Proper exposure may not be achieved. For this reason, the determination accuracy of the appropriate exposure at the time of the arbitrary main imaging is lowered.
  • the imaging conditions are appropriate for determining the imaging conditions at the time of the arbitrary main imaging. It is conceivable to perform pre-imaging.
  • Patent Documents 1 and 2 do not consider the case of continuously performing imaging for storage.
  • the present invention has been made in view of the above circumstances, and an imaging device, an imaging method, and an imaging method capable of simultaneously reducing the imaging interval and improving the imaging quality when continuously performing imaging for storage, and An object is to provide an imaging program.
  • An image pickup apparatus of the present invention includes a light receiving surface in which a plurality of pixel rows each having a plurality of pixels arranged in one direction are arranged in a direction perpendicular to the one direction, and a sensor unit that takes an image of a subject through an image pickup optical system;
  • An imaging device having a storage unit that stores a signal output from the sensor unit, and a main imaging for storage by the sensor unit, and according to the charge accumulated in each of the plurality of pixels by the main imaging Main imaging control for outputting an imaging signal from the sensor unit, and after the imaging signal is stored in the storage unit by the main imaging control, the main imaging next to the main imaging under an exposure condition different from the main imaging.
  • Temporary imaging for determining imaging conditions at the time is performed by the sensor unit, and imaging signals corresponding to charges accumulated in some of the plurality of pixels are output from the sensor unit by the temporary imaging.
  • An imaging control unit that performs imaging control including a provisional imaging control, a signal output control unit that outputs the imaging signal stored in the storage unit by the imaging control from the imaging element, and the main imaging control The first imaging signal output from the sensor unit and stored in the storage unit, output from the imaging element by the signal output control unit, and output from the sensor unit by the provisional imaging control and stored in the storage unit
  • An imaging condition determining unit that determines an imaging condition for the next main imaging based on at least the second imaging signal of the second imaging signals output from the imaging element by the signal output control unit
  • the signal output control unit divides the first imaging signal stored in the storage unit into a plurality of groups, and sequentially outputs the first imaging signal from the imaging element for each group.
  • the imaging control unit is a period from when all the imaging signals belonging to at least one of the groups are output from the imaging element to when all the imaging signals belonging to all the groups are output from the imaging element.
  • the provisional imaging control is performed, and the provisional imaging is performed by the sensor unit.
  • the imaging method of the present invention includes a sensor unit that includes a light receiving surface in which a plurality of pixel rows that are arranged in one direction are arranged in a direction orthogonal to the one direction, and that images a subject through an imaging optical system; An imaging method using an imaging device having a storage unit that stores a signal output from the sensor unit, wherein the sensor unit performs main imaging for storage, and each of the plurality of pixels is performed by the main imaging.
  • the main imaging control for outputting an imaging signal corresponding to the charge accumulated in the sensor unit from the sensor unit, and after the imaging signal is stored in the storage unit by the main imaging control, under an exposure condition different from the main imaging, Temporary imaging for determining imaging conditions at the time of actual imaging subsequent to the actual imaging is performed by the sensor unit, and an imaging signal corresponding to charges accumulated in some of the plurality of pixels by the temporary imaging.
  • Imaging control step for performing imaging control including provisional imaging control for outputting from the sensor unit, signal output control step for outputting the imaging signal stored in the storage unit by the imaging control from the imaging element, The first imaging signal output from the sensor unit by the main imaging control and stored in the storage unit, and output from the imaging element by the signal output control step, and output from the sensor unit by the temporary imaging control. Based on at least the second imaging signal out of the second imaging signals stored in the storage unit and output from the imaging element in the signal output control step, the imaging conditions for the next main imaging are determined.
  • An imaging condition determination step for determining, and in the signal output control step, the first imaging signal stored in the storage unit is The image sensor is divided into a number of groups and sequentially output from the image sensor for each group. In the image capture control step, all image signals belonging to at least one group are output from the image sensor, The provisional imaging control is performed and the provisional imaging is performed by the sensor unit during a period until all imaging signals belonging to the imaging element are output from the imaging element.
  • the imaging program of the present invention stores a light receiving surface in which a plurality of pixel rows each having a plurality of pixels arranged in one direction are arranged in a direction orthogonal to the one direction, and a signal read from the plurality of pixels.
  • the main imaging control for reading out the imaging signal corresponding to the electric charge accumulated in each pixel, and after the imaging signal is stored in the storage unit by the main imaging control, the main imaging control is performed under an exposure condition different from the main imaging.
  • An imaging control step for performing imaging control including provisional imaging control to be read; a signal output control step for outputting the imaging signal stored in the storage unit by the imaging control from the imaging element; and Output from a plurality of pixels, stored in the storage unit, output from the imaging element in the signal output control step, and output from the partial pixels in the temporary imaging control and stored in the memory
  • a program for causing a computer to execute the condition determining step, and storing in the storage unit in the signal output control step The first imaging signal is divided into a plurality of groups and sequentially output from the imaging device for each group.
  • the imaging control step all imaging signals belonging to at least one of the groups are output from the imaging device. Then, during the period from when the imaging signals belonging to all the groups are output from the imaging device, the provisional imaging control is performed and the provisional imaging is performed by the imaging device.
  • an imaging device an imaging method, and an imaging program capable of simultaneously reducing the imaging interval and improving the imaging quality in the case of continuously performing imaging for storage.
  • FIG. 1 is a diagram illustrating a schematic configuration of a digital camera as an example of an imaging apparatus for describing an embodiment of the present invention. It is a schematic diagram which shows schematic structure of the image pick-up element 5 mounted in the digital camera shown in FIG.
  • FIG. 3 is a schematic plan view illustrating a configuration of a sensor unit 51 of the image sensor 5 illustrated in FIG. 2.
  • FIG. 2 is a timing chart schematically showing an operation of the digital camera shown in FIG. 1 in a continuous shooting mode. 2 is a timing chart showing in detail a first example of the operation of the digital camera shown in FIG. 1 in the continuous shooting mode. 6 is a timing chart showing in detail a second example of the operation of the digital camera shown in FIG.
  • FIG. 6 is a timing chart showing in detail a third example of the operation of the digital camera shown in FIG. 1 in the continuous shooting mode. It is a figure which shows an example of the photometry ranging area 60A set to the light-receiving surface 60 of the image pick-up element 5.
  • FIG. It is a figure for demonstrating operation
  • the external appearance of the smart phone 200 which is one Embodiment of the imaging device of this invention is shown. It is a block diagram which shows the structure of the smart phone 200 shown in FIG.
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention.
  • the digital camera shown in FIG. 1 includes a lens device 40 having an imaging lens 1, an aperture 2, a lens control unit 4, a lens driving unit 8, and an aperture driving unit 9.
  • the lens device 40 is described as being detachable from the digital camera body, but may be fixed to the digital camera body.
  • the imaging lens 1 and the diaphragm 2 constitute an imaging optical system, and the imaging optical system includes a focus lens.
  • This focus lens is a lens for adjusting the focus of the imaging optical system, and is composed of a single lens or a plurality of lenses. Focus adjustment is performed by moving the focus lens in the optical axis direction of the imaging optical system.
  • a liquid lens capable of changing the focal position by variably controlling the curved surface of the lens may be used.
  • the lens control unit 4 of the lens device 40 is configured to be able to communicate with the system control unit 11 of the digital camera body by wire or wirelessly.
  • the lens control unit 4 drives the focus lens included in the imaging lens 1 through the lens driving unit 8 or drives the diaphragm 2 through the diaphragm driving unit 9 according to a command from the system control unit 11. .
  • the digital camera body includes a MOS type image pickup device 5 that picks up an image of a subject through an image pickup optical system, a sensor drive unit 10, a system control unit 11 that performs overall control of the electric control system of the digital camera, and an operation unit 14. Prepare.
  • the system control unit 11 includes various processors, a RAM (Random Access Memory), and a ROM (Read Only Memory), and performs overall control of the entire digital camera.
  • a RAM Random Access Memory
  • ROM Read Only Memory
  • programmable logic which is a processor whose circuit configuration can be changed after manufacturing, such as a CPU (Central Processing Unit) and an FPGA (Field Programmable Gate Array), which are general-purpose processors that execute programs and perform various processes Examples include a dedicated electrical circuit that is a processor having a circuit configuration that is specifically designed to execute a specific process such as a device (Programmable Logic Device: PLD) or an ASIC (Application Specific Integrated Circuit).
  • PLD Programmable Logic Device
  • ASIC Application Specific Integrated Circuit
  • the structures of these various processors are electric circuits in which circuit elements such as semiconductor elements are combined.
  • the processor of the system control unit 11 may be configured by one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be constituted by.
  • the processor of the system control unit 11 implements each function described later by executing an imaging program stored in a ROM built in the system control unit 11.
  • the electric control system of this digital camera generates captured image data by performing interpolation calculation, gamma correction calculation, RGB / YC conversion processing, and the like on a later-described captured image signal output from the image sensor 5.
  • the digital signal processing unit 17 includes a processor, a RAM, and a ROM, and performs various processes when the processor executes a program stored in the ROM.
  • the digital signal processing unit 17, the external memory control unit 20, and the display control unit 22 are connected to each other by a control bus 24 and a data bus 25, and operate based on a command from the system control unit 11.
  • FIG. 2 is a schematic diagram showing a schematic configuration of the image sensor 5 mounted on the digital camera shown in FIG.
  • the image sensor 5 includes a sensor unit 51 and a storage unit 52.
  • the sensor unit 51 images a subject and outputs a captured image signal.
  • the sensor unit 51 is driven by the sensor driving unit 10.
  • the storage unit 52 stores the captured image signal output from the sensor unit 51.
  • the storage unit 52 stores a large number of storage elements such as capacitors or flip-flops for storing data, and stores the data of the multiple storage elements. And a control circuit (not shown) for controlling reading. This control circuit is controlled by the system control unit 11.
  • the storage unit 52 may be anything as long as it includes a rewritable storage element, and a semiconductor memory or a ferroelectric memory can be used.
  • the storage unit 52 may be, for example, SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), FRAM (registered trademark) (Ferroelectric Random Access Memory), flash memory, or the like.
  • SRAM Static Random Access Memory
  • DRAM Dynamic Random Access Memory
  • FRAM registered trademark
  • flash memory or the like.
  • the storage unit 52 can store the same number of imaging signals as the total number of pixels included in the sensor unit 51.
  • the image sensor 5 includes an interface that conforms to a standard such as SLVS (Scalable Low Voltage Signaling) (not shown).
  • SLVS Scalable Low Voltage Signaling
  • the configuration of the image sensor 5 includes, for example, the following four, but is not limited thereto.
  • [2] A configuration in which a chip in which the sensor unit 51 is formed and a chip in which the storage unit 52 is formed are stacked, and the two chips are electrically connected by stud bumps.
  • the configuration [1] is most desirable, the configuration [2] is desirable next to [1], and the configuration [3] is [2].
  • the configuration of [4] is desirable next to [3]. According to the configuration of [3] and [4], it can be manufactured without using advanced technology.
  • FIG. 3 is a schematic plan view showing the configuration of the sensor unit 51 of the image sensor 5 shown in FIG.
  • the sensor unit 51 includes a light receiving surface 60 in which a plurality of pixel rows 62 including a plurality of pixels 61 arranged in a row direction X that is one direction are arranged in a column direction Y orthogonal to the row direction X, and a light receiving surface 60.
  • a drive circuit 63 that drives the arranged pixels, and a signal processing circuit 64 that processes an imaging signal read from each pixel 61 of the pixel row 62 arranged on the light receiving surface 60 are provided.
  • the upper end of the light receiving surface 60 in the column direction Y is referred to as the upper end
  • the lower end of the light receiving surface 60 in the column direction Y is referred to as the lower end.
  • the pixel 61 receives light passing through the imaging optical system of the lens device 40, generates a charge corresponding to the amount of received light, and stores the photoelectric conversion unit, and converts the charge accumulated in the photoelectric conversion unit into a voltage signal. And a readout circuit that reads out the image signal as a signal line.
  • a well-known configuration can be adopted for the readout circuit.
  • the readout circuit outputs, for example, a transfer transistor for transferring the charge accumulated in the photoelectric conversion unit to the floating diffusion, a reset transistor for resetting the potential of the floating diffusion, and a voltage signal corresponding to the potential of the floating diffusion. And a selection transistor for selectively reading out a voltage signal output from the output transistor to a signal line.
  • the readout circuit may be shared by a plurality of photoelectric conversion units.
  • the region of the light receiving surface 60 where the (4N + 2) th pixel row 62 from the upper end side of all the pixel rows 62 arranged on the light receiving surface 60 is arranged is referred to as a field F2.
  • the region of the light receiving surface 60 where the (4N + 3) th pixel row 62 from the upper end side of the light receiving surface 60 among all the pixel rows 62 arranged on the light receiving surface 60 is referred to as a field F3.
  • the region of the light receiving surface 60 where the (4N + 4) th pixel row 62 from the upper end side of all the pixel rows 62 arranged on the light receiving surface 60 is arranged is referred to as a field F4.
  • the pixel 61 constituting the pixel row 62 in any one of the field F1 to the field F4 includes a phase difference detection pixel.
  • the phase difference detection pixel is a pixel for detecting a phase difference between two images based on a pair of light beams that have passed through two different portions arranged in the row direction X of the pupil region of the imaging optical system of the lens device 40.
  • the phase difference detection pixel receives the first pixel including the first photoelectric conversion unit that receives one of the pair of light beams and accumulates the charge according to the amount of received light, and the other of the pair of light beams.
  • a plurality of pairs of the first pixel and the second pixel are arranged in the field F1, and a phase difference can be calculated based on a signal read from the pair.
  • phase difference detection pixel may be configured by a pixel including both the first photoelectric conversion unit and the second photoelectric conversion unit.
  • the drive circuit 63 drives a readout circuit connected to the photoelectric conversion unit of each pixel 61 in units of pixel rows, and resets each photoelectric conversion unit included in the pixel row 62 for each pixel row 62. A voltage signal corresponding to the charge accumulated in the conversion unit is read out to the signal line.
  • the signal processing circuit 64 performs correlated double sampling processing on the voltage signal read out from each pixel 61 of the pixel row 62 to the signal line, and converts the voltage signal after the correlated double sampling processing into a digital signal.
  • the data is output to the storage unit 52.
  • the digital signal obtained by reading the signal line from the arbitrary pixel 61 and processing it by the signal processing circuit 64 becomes an imaging signal corresponding to the electric charge accumulated in the photoelectric conversion unit of the arbitrary pixel 61.
  • FIG. 4 is a diagram showing functional blocks of the system control unit 11 shown in FIG.
  • a processor that has executed the imaging program functions as an imaging control unit 11A, a signal output control unit 11B, and an imaging condition determination unit 11C.
  • the digital camera shown in FIG. 1 is equipped with a continuous shooting mode in which imaging for storage is performed a plurality of times continuously.
  • the imaging control unit 11A performs temporary imaging control and temporary imaging according to the instruction. Imaging control including imaging control is continuously performed a plurality of times.
  • the sensor unit 51 performs the main imaging which is an image for storage, and according to the charges accumulated in each of all the pixels 61 of the light receiving surface 60 by the main imaging.
  • the image pickup signal is output from the sensor unit 51.
  • imaging by the sensor unit 51 refers to resetting the photoelectric conversion unit of each pixel on the light receiving surface 60 so that charge can be accumulated in the photoelectric conversion unit and starting exposure of the photoelectric conversion unit. Thereafter, the exposure of the photoelectric conversion unit is terminated by transferring the charge accumulated in the photoelectric conversion unit to the floating diffusion at a timing when a predetermined time has passed.
  • a first imaging signal that is an imaging signal corresponding to the electric charge accumulated in the photoelectric conversion unit of each pixel 61 by the main imaging is stored in the storage unit 52.
  • the first set of image pickup signals is also referred to as a main picked-up image signal.
  • the drive circuit 63 is controlled, so that the next imaging after the main imaging is performed under an exposure condition different from the main imaging.
  • Temporary imaging which is imaging for determining imaging conditions at the time of actual imaging, is performed by the sensor unit 51, and by this temporary imaging, a part of all the pixels 61 (here, the pixels 61 in the field F1) are accumulated. In this control, an image pickup signal corresponding to the charged electric charge is output from the sensor unit 51.
  • a second imaging signal that is an imaging signal corresponding to the electric charge accumulated in the photoelectric conversion unit of each pixel 61 in the field F1 by temporary imaging is stored in the storage unit 52.
  • this second set of imaging signals is also referred to as a provisional captured image signal.
  • the exposure condition means at least one of an exposure time of imaging, a gain value multiplied by the imaging signal, or an aperture value of the aperture 2 at the time of imaging.
  • the signal output control unit 11B controls the control circuit of the storage unit 52 to output the imaging signal stored in the storage unit 52 from the imaging element 5 by the imaging control performed by the imaging control unit 11A.
  • the signal output control unit 11B divides the main captured image signal into a plurality of groups and sequentially outputs the main captured image signal from the image sensor 5 for each group with respect to the main captured image signal stored in the storage unit 52.
  • the signal output control unit 11B applies the actual captured image signal to the group GF1 including the first imaging signals corresponding to the charges accumulated in the pixels 61 in the field F1, and the pixels 61 in the field F2.
  • the group GF2 composed of the first imaging signal corresponding to the accumulated charge
  • the group GF3 composed of the first imaging signal corresponding to the charge 61 accumulated in the field F3
  • the four groups are sequentially output from the image sensor 5 to the data bus 25 by being divided into the group GF4 composed of the first image signal corresponding to the accumulated charges.
  • the imaging condition determination unit 11C includes at least a first imaging signal output from the imaging element 5 by the signal output control unit 11B and a second imaging signal output from the imaging element 5 by the signal output control unit 11B. Based on the second imaging signal, an imaging condition for the next main imaging is determined.
  • the imaging control unit 11 ⁇ / b> A includes the group GF ⁇ b> 1, the group GF ⁇ b> 2, the group GF ⁇ b> 3, and the group GF ⁇ b> 4 until at least the group GF ⁇ b> 1 is output from the image sensor 5 until all these groups are output from the image sensor 5. During the period, the provisional imaging control is performed.
  • FIG. 5 is a timing chart schematically showing the operation of the digital camera shown in FIG. 1 in the continuous shooting mode.
  • FIG. 5 the timing of main imaging and provisional imaging performed by the sensor unit 51 is shown beside the “sensor unit”.
  • FIG. 5 the timing of storing the main captured image signal and the temporary captured image signal in the storage unit 52 is shown beside the “storage unit”.
  • processing performed by the system control unit 11 and the digital signal processing unit 17 is shown next to “camera side processing”.
  • the imaging control unit 11A performs the first actual imaging control, and the sensor unit 51 performs the actual imaging under the first imaging condition (step S1).
  • a signal (referred to as a main captured image signal G1) corresponding to the electric charge accumulated in each pixel 61 in the main imaging is stored in the storage unit 52 (step S2).
  • the imaging conditions include the above-described exposure conditions and the focusing position (focus lens position) of the imaging optical system.
  • the system control unit 11 performs live view imaging by the sensor unit 51 in order to display a live view image.
  • Live view which is control for outputting an imaging signal corresponding to the electric charge accumulated in a part of the pixels 61 (for example, the pixel 61 in the field F1) of all the pixels 61 by imaging for live view. Imaging control is continuously performed.
  • the system control unit 11 causes the image pickup device 5 to output the picked-up image signals (collection of image pickup signals output from the pixels 61 in the field F1) stored in the storage unit 52 by the respective live view image pickup control.
  • the digital signal processing unit 17 generates a live view image based on the captured image signal and displays it on the display unit 23.
  • the imaging control unit 11A performs photometry (calculation of subject brightness) and distance measurement (based on one or more captured image signals output from the imaging device 5 by live view imaging control before an imaging instruction is given).
  • the first imaging condition is determined based on the results of photometry and distance measurement.
  • the group GF1 of the main captured image signals G1 stored in the storage unit 52 is sequentially output from the image sensor 5 under the control of the signal output control unit 11B.
  • the group GF2 is sequentially output from the imaging device 5.
  • the group GF3 is sequentially output from the image sensor 5.
  • the group GF4 is sequentially output from the image sensor 5 (step S3).
  • the digital signal processing unit 17 processes the output main captured image signal G1 to generate captured image data, and stores the generated captured image data in the storage medium 21 (step S4). .
  • step S3 the imaging control unit 11A performs photometry and distance measurement based on one or a plurality of captured image signals output from the image sensor 5 by the live view imaging control before the imaging instruction is performed.
  • An exposure condition suitable for performing is determined (step S5).
  • step S6 when the output of the group GF1 is finished in the process in which the main captured image signal G1 is output from the image sensor 5, the imaging control unit 11A performs temporary imaging control, and the sensor unit 51 performs temporary imaging under the second imaging condition. Imaging is performed (step S6).
  • the imaging control unit 11A sets the exposure condition in the second imaging condition to the exposure condition determined in step S5, and the focusing position in the second imaging condition is set in step S1. Keep the same as the actual imaging.
  • a signal (referred to as a provisional captured image signal g1) corresponding to the electric charge accumulated in each pixel 61 in the field F1 by the provisional imaging in step S6 is stored in the storage unit 52 (step S7).
  • the temporary captured image signal g1 stored in the storage unit 52 is sequentially output from the image sensor 5 under the control of the signal output control unit 11B (step S8). .
  • the imaging condition determination unit 11C performs photometry and distance measurement based on the provisional captured image signal g1, and the next main imaging (FIG. 5, the third imaging condition of the main imaging (2)) is determined (step S9).
  • the imaging control unit 11A performs the second actual imaging control, and the sensor unit 51 performs the actual imaging under the third imaging condition (step S10).
  • a signal (referred to as a main captured image signal G2) corresponding to the electric charge accumulated in each pixel 61 in the main imaging is stored in the storage unit 52 (step S11).
  • the group GF1 of the main captured image signal G2 stored in the storage unit 52 is sequentially output from the image sensor 5 under the control of the signal output control unit 11B.
  • the group GF2 is sequentially output from the imaging device 5.
  • the group GF3 is sequentially output from the image sensor 5.
  • the group GF4 is sequentially output from the image sensor 5 (step S12).
  • the digital signal processing unit 17 processes the output main captured image signal G2 to generate captured image data, and stores the generated captured image data in the storage medium 21 (step S13). .
  • step S12 the imaging control unit 11A determines an exposure condition suitable for photometry and distance measurement based on the temporary captured image signal g1 obtained in step S8, and determines the determined exposure condition during temporary imaging. Is determined as the exposure condition (step S14).
  • step S12 when the output of the group GF1 is finished, provisional imaging control is performed by the imaging control unit 11A, and provisional imaging is performed by the sensor unit 51 under the fourth imaging condition (step S15).
  • the exposure condition determined in step S14 is set as the exposure condition in the fourth imaging condition. Further, the focusing position in the fourth imaging condition is set to be the same as that in the actual imaging in step S10.
  • provisional captured image signal g2 a signal (referred to as provisional captured image signal g2) corresponding to the electric charge accumulated in each pixel 61 in the field F1 by this provisional imaging is stored in the storage unit 52 (step S16).
  • the temporary captured image signal g2 stored in the storage unit 52 is sequentially output from the image sensor 5 under the control of the signal output control unit 11B (step S17). .
  • the imaging condition determination unit 11C When the provisional captured image signal g2 is output, the imaging condition determination unit 11C performs photometry and distance measurement based on the provisional captured image signal g2, and based on the photometry and distance measurement results, the next main imaging is performed. Conditions are determined (step S18). Thereafter, processing similar to that in steps S10 to S18 is repeated.
  • the imaging condition for the second imaging in the continuous shooting mode is based on the provisional captured image signal g1 obtained by the provisional imaging performed at the first time (step S6). Has been decided.
  • the temporary captured image signal g1 is obtained by performing temporary imaging under appropriate exposure conditions for determining the imaging conditions. For this reason, the imaging conditions at the time of the second main imaging can be made appropriate, and the imaging image quality can be improved.
  • provisional imaging (step S6) for obtaining the provisional captured image signal g1 is performed during a period in which the actual captured image signal G1 obtained by the first actual imaging is output from the image sensor 5. For this reason, the interval between the main imaging and the main imaging can be shortened, and high-speed continuous shooting is possible.
  • the timing for starting the provisional imaging control (the timing for starting step S6 (step S15)) is a space that allows the provisional captured image signal to be stored in the storage unit 52 at the start of step S7 (step S16). As long as is free, it may be performed any time after the end of step S2 (step S11).
  • step S3 step S12
  • this period is sufficiently longer than the period during which provisional imaging control is performed.
  • step S7 may be completed.
  • the process of step S8 can be performed at a time before starting the output of the group GF3 or the group GF4 in step S3 (step S12).
  • the provisional captured image signal is output before the start of the output of the group GF4 of the actual captured image signal, thereby performing the imaging condition determination process (step S9 (step S18)) at the next actual imaging. Can be done quickly. As a result, the time until the start of the next main imaging can be shortened, and the continuous shooting interval can be further shortened.
  • the exposure condition at the time of provisional imaging in step S14 is determined based on the provisional captured image signal g1 obtained by provisional imaging in step S6. For this reason, it is not necessary to perform another provisional imaging for determining the exposure condition between step S6 and step S10, and the continuous shooting interval can be shortened.
  • step S14 the imaging control unit 11A determines the exposure conditions for the temporary imaging performed in step S15 based on the main captured image signal G1 and the temporary captured image signal g1 obtained by the main imaging in step S1. Good. According to this configuration, it is possible to determine the exposure condition for provisional imaging using more information, and to determine this exposure condition with higher accuracy.
  • the imaging control unit 11A compares the exposure value based on the main captured image signal G1 and the exposure value based on the temporary captured image signal g1, and if the difference between the two is small, the imaging control unit 11A is based on the temporary captured image signal g1.
  • the exposure value or the average value of the exposure value based on the main captured image signal G1 and the exposure value based on the temporary captured image signal g1 is determined as the exposure condition for the next temporary imaging.
  • the imaging control unit 11A determines the exposure value based on the temporary captured image signal g1 as the exposure condition at the next temporary imaging.
  • the imaging condition determination unit 11C determines the imaging condition based on the main captured image signal and the temporary captured image signal obtained by the main imaging control and the temporary imaging control immediately before this processing. May be. According to this configuration, it is possible to determine the imaging conditions for the main imaging with high accuracy.
  • the imaging condition determination unit 11C has a phase difference with a higher reliability between a phase difference calculation result using the main captured image signal and a phase difference calculation result using the provisional captured image signal, or Based on the average value of these two phase differences, the in-focus position at the time of actual imaging is determined.
  • the imaging condition determination unit 11C compares the exposure determined using the main captured image signal with the exposure determined using the temporary captured image signal, and if the difference between the two is small, the average value of the two exposures is calculated. If the difference between the two is large, the exposure determined using the provisional captured image signal is determined as the exposure during the main imaging.
  • the imaging condition determination unit 11C compares the calculation result of the phase difference using the main captured image signal with the calculation result of the phase difference using the provisional captured image signal, and the main subject (focus point) at the next main imaging. The position of the subject to be matched. Then, the imaging condition determination unit 11C performs photometry and distance measurement based on a signal obtained by imaging the predicted main subject in the provisional captured image signal, and determines the imaging condition.
  • FIG. 6 is a timing chart showing in detail the first example of the operation of the digital camera shown in FIG. 1 in the continuous shooting mode.
  • FIG. 6 illustrates an operation in a case where the imaging control unit 11A performs imaging control including main imaging control and temporary imaging control that performs temporary imaging with a shorter exposure time than actual imaging by the main imaging control. .
  • the imaging control unit 11A sequentially resets the pixel rows 62 from the upper end side of the light receiving surface 60 at time t1, thereby starting exposure of the main imaging by the sensor unit 51 (straight line in FIG. 6). R1).
  • the imaging control unit 11A transfers the charge accumulated in each photoelectric conversion unit of this pixel row 62 to the floating diffusion, and this pixel The exposure of the row 62 is terminated, and a voltage signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O1 in FIG. 6).
  • the signal output control unit 11B is in the field F1 in the main captured image signal.
  • the imaging signals output from the pixels 61 are sequentially output from the storage unit 52 to the data bus 25 (straight line f1a in FIG. 6).
  • the imaging control unit 11A sequentially resets the pixel rows 62 in the field F1 from the upper end side of the light receiving surface 60 during the output period of the imaging signal output from the pixels 61 in the field F1 from the imaging element 5. Then, exposure for provisional imaging by the sensor unit 51 is started (straight line R2 in FIG. 6).
  • the aperture value of the aperture 2 is the same for the main imaging and the provisional imaging.
  • the imaging control unit 11A When a predetermined exposure time Tb ( ⁇ exposure time Ta) elapses after exposure of provisional imaging starts in each pixel row 62 of the field F1, the imaging control unit 11A accumulates in each photoelectric conversion unit of the pixel row 62. The transferred charge is transferred to the floating diffusion, the exposure of the pixel row 62 is terminated, and an image pickup signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O2 in FIG. 6).
  • the completion timing (time t3) of the output of the imaging signal by the straight line f1a coincides with the start timing of the output of the imaging signal from the sensor unit 51 by the straight line O2
  • the exposure start timing of provisional imaging may be determined so that the output of the imaging signal from the sensor unit 51 by the straight line O2 at the time of.
  • the temporary captured image signal composed of the imaging signal output from the sensor unit 51 on the straight line O2 is overwritten on the storage area of the imaging signal output on the straight line f1a of the main captured image signal.
  • the signal output control unit 11B sequentially outputs the temporary captured image signal from the storage unit 52 to the data bus 25 (straight line f1b in FIG. 6). ).
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F2 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f2a in FIG. 6).
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F3 in the main imaging image signal. Are sequentially output to the data bus 25 (straight line f3a in FIG. 6).
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F4 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f4a in FIG. 6).
  • the imaging condition for the next main imaging can be determined at time t5. For this reason, the next main imaging can be started immediately after the output of the imaging signal from the imaging element 5 by the straight line f4a is completed, and the continuous shooting interval can be shortened.
  • FIG. 7 is a timing chart showing in detail a second example of the operation of the digital camera shown in FIG. 1 in the continuous shooting mode.
  • the imaging control unit 11A sequentially resets the pixel rows 62 from the upper end side of the light receiving surface 60 at time t1, thereby starting exposure of the main imaging by the sensor unit 51 (straight line in FIG. 7). R1).
  • the imaging control unit 11A transfers the charge accumulated in each photoelectric conversion unit of this pixel row 62 to the floating diffusion, and this pixel The exposure of the row 62 is terminated, and a voltage signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O1 in FIG. 7).
  • the signal output control unit 11B is in the field F1 in the main captured image signal.
  • the imaging signals output from the pixels 61 are sequentially output from the storage unit 52 to the data bus 25 (straight line f1a in FIG. 7).
  • the imaging control unit 11A sequentially resets the pixel row 62 in the field F1 from the upper end side of the light receiving surface 60. Then, the exposure for provisional imaging by the sensor unit 51 is started (straight line R2 in FIG. 7).
  • the aperture value of the aperture 2 is the same for the main imaging and the temporary imaging.
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F2 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f2a in FIG. 7).
  • a predetermined exposure time Tb has elapsed since the exposure for provisional imaging of each pixel row 62 in the field F1 has started. To do.
  • the imaging control unit 11A transfers the charge accumulated in each photoelectric conversion unit of the pixel row 62 of the field F1 in which the exposure time Tb has passed to the floating diffusion, ends the exposure of the pixel row 62, and converts the transferred charge into the transferred charge.
  • a corresponding voltage signal is output from the sensor unit 51 (straight line O2 in FIG. 7).
  • the temporary captured image signal composed of the imaging signal output from the sensor unit 51 on the straight line O2 is overwritten on the storage area of the imaging signal output on the straight line f1a of the main captured image signal.
  • the signal output control unit 11B transfers the temporary captured image signal from the storage unit 52 to the data bus 25. Output sequentially (straight line f1b in FIG. 7).
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F3 in the captured image signal. Are sequentially output to the data bus 25 (straight line f3a in FIG. 7).
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F4 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f4a in FIG. 7).
  • the imaging condition for the next main imaging can be determined at time t5. For this reason, the next main imaging can be started immediately after the output of the imaging signal from the imaging element 5 by the straight line f4a is completed, and the continuous shooting interval can be shortened.
  • the imaging control unit 11A performs the temporary imaging control once between the main imaging control and the main imaging control.
  • the imaging control unit 11A may perform temporary imaging control a plurality of times between the main imaging control and the main imaging control.
  • the imaging condition determination unit 11C determines the imaging conditions at the time of the actual imaging, the actual captured image signal obtained by the actual imaging control immediately before the actual imaging, and a plurality of temporary imaging controls immediately before the actual imaging. Are determined based on at least a plurality of temporary captured image signals among the plurality of temporary captured image signals obtained by each of the above. An example of the method for determining the imaging condition is shown below.
  • a phase difference is calculated from each of the plurality of provisionally picked-up image signals, and an in-focus position at the time of main imaging is determined based on the phase reliability having the highest reliability.
  • Photometry is performed by each of the plurality of temporarily captured image signals, and the exposure at the time of actual imaging is determined based on the plurality of photometric results.
  • phase difference is calculated based on the actual captured image signal, a phase difference is calculated based on each of the plurality of temporary captured image signals, and the result at the time of actual imaging is calculated based on the most reliable of these phase differences. Determine the focal position.
  • phase difference is calculated from each of the plurality of provisional captured image signals, and the position of the main subject at the time of the next main imaging is predicted by comparing these phase differences. Based on the signal of the area where the subject forms an image, photometry and distance measurement are performed to determine the imaging conditions for the main imaging.
  • a phase difference is calculated from all captured image signals including the main captured image signal and a plurality of temporary captured image signals, and the position of the main subject at the next main imaging is predicted by comparing these phase differences. Based on the predicted signal of the area where the main subject forms an image, photometry and distance measurement are performed to determine the imaging conditions for actual imaging.
  • FIG. 8 is a timing chart showing in detail a third example of the operation of the digital camera shown in FIG. 1 in the continuous shooting mode.
  • FIG. 8 shows an operation of one imaging control when the imaging control unit 11A continuously performs imaging control including main imaging control and three temporary imaging controls.
  • the imaging control unit 11A starts the exposure of the main imaging by the sensor unit 51 by sequentially resetting the pixel rows 62 from the upper end side of the light receiving surface 60 at time t1 (straight line in FIG. 8). R1).
  • the imaging control unit 11A transfers the charge accumulated in each photoelectric conversion unit of this pixel row 62 to the floating diffusion, and this pixel The exposure of the row 62 is terminated, and an image pickup signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O1 in FIG. 8).
  • the signal output control unit 11B When the main captured image signal composed of the imaging signal output from the sensor unit 51 by the straight line O1 is stored in the storage unit 52 (time t2), the signal output control unit 11B includes the field of the main captured image signal.
  • the imaging signal output from the pixel 61 at F1 is sequentially output from the storage unit 52 to the data bus 25 (straight line f1a in FIG. 6).
  • the imaging control unit 11A sequentially resets the pixel rows 62 of the field F1 from the upper end side of the light receiving surface 60, thereby exposing the first temporary imaging by the sensor unit 51. Is started (straight line R2 in FIG. 8).
  • the imaging control unit 11A converts the charge accumulated in each photoelectric conversion unit in the pixel row 62 into a floating diffusion. Then, the exposure of the pixel row 62 is completed, and an image pickup signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O2 in FIG. 8).
  • the output completion timing of the imaging signal by the straight line f1a coincides with the output start timing of the imaging signal from the sensor unit 51 by the straight line O2, but not limited to this, the output by the straight line O2 at a time later than the time t3.
  • the exposure start timing of the first temporary imaging may be determined so that the output of the imaging signal from the sensor unit 51 is started.
  • the temporary captured image signal composed of the imaging signal output from the sensor unit 51 on the straight line O2 is overwritten on the storage area of the imaging signal output on the straight line f1a of the main captured image signal.
  • the signal output control unit 11B sequentially outputs the temporary image signal stored in the storage unit 52 to the data bus 25 (FIG. 8).
  • Straight line f1b
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F2 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f2a in FIG. 8).
  • the imaging control unit 11A sequentially resets the pixel rows 62 in the field F1 from the upper end side of the light receiving surface 60, thereby exposing the second provisional imaging by the sensor unit 51. Is started (straight line R3 in FIG. 8).
  • the imaging control unit 11A converts the charge accumulated in each photoelectric conversion unit in the pixel row 62 into a floating diffusion. Then, the exposure of the pixel row 62 is completed, and an image pickup signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O3 in FIG. 8).
  • the output completion timing of the imaging signal by the straight line f2a and the output start timing of the imaging signal from the sensor unit 51 by the straight line O3 coincide with each other.
  • the exposure start timing of the second provisional imaging may be determined so that the output of the imaging signal from the sensor unit 51 is started.
  • the temporary captured image signal composed of the imaging signal output from the sensor unit 51 on the straight line O3 is overwritten on the storage area of the temporary captured image signal output on the straight line f1b.
  • the signal output control unit 11B sequentially outputs the temporary image signal stored in the storage unit 52 to the data bus 25 (FIG. 8).
  • Straight line f1c
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F3 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f3a in FIG. 8).
  • the imaging control unit 11A sequentially resets the pixel rows 62 of the field F1 from the upper end side of the light receiving surface 60, thereby exposing the third provisional imaging by the sensor unit 51. Is started (straight line R4 in FIG. 8).
  • the imaging control unit 11A converts the charge accumulated in each photoelectric conversion unit in the pixel row 62 into a floating diffusion. Then, the exposure of the pixel row 62 is completed, and an image pickup signal corresponding to the transferred charge is output from the sensor unit 51 (straight line O4 in FIG. 8).
  • the output completion timing of the imaging signal by the straight line f3a and the output start timing of the imaging signal from the sensor unit 51 by the straight line O4 coincide with each other.
  • the exposure start timing of the third provisional imaging may be determined so that the output of the imaging signal from the sensor unit 51 is started.
  • the temporary captured image signal composed of the imaging signal output from the sensor unit 51 on the straight line O4 is overwritten on the storage area of the temporary captured image signal output on the straight line f1c.
  • the signal output control unit 11B sequentially outputs the temporary image signal stored in the storage unit 52 to the data bus 25 (FIG. 8).
  • Straight line f1d
  • the signal output control unit 11B stores the imaging signal output from the pixel 61 in the field F4 in the main captured image signal. Are sequentially output to the data bus 25 (straight line f4a in FIG. 8).
  • the imaging condition determination unit 11C performs imaging at the next main imaging based on at least three temporary captured image signals out of the main captured image signal output from the image sensor 5 and the three temporary captured image signals. Determine the conditions.
  • the imaging control unit 11A performs exposure for each of the plurality of temporary imagings performed after the next main imaging based on at least three temporary captured image signals among the main captured image signal and the three temporary captured image signals. Determine the conditions.
  • the aperture value of the aperture 2 is the same for the main imaging and the three temporary imaging.
  • the exposure time Tb, the exposure time Tc, and the exposure time Td are all different values and different values from the exposure time Ta.
  • the exposure conditions can be determined with higher accuracy.
  • the exposure time Tb, the exposure time Tc, and the exposure time Td are different from the exposure time Ta, and at least two of them may be the same value.
  • the exposure conditions for a plurality of provisional imagings may all be the same, the exposure conditions for the plurality of times and the exposure conditions for actual imaging are different. For this reason, it is possible to determine the imaging condition for the next main imaging or the exposure condition for the next provisional imaging with high accuracy.
  • FIG. 9 is a diagram showing an example of a photometric distance measuring area 60A set on the light receiving surface 60 of the image sensor 5. As shown in FIG. As shown in FIG. 7, nine photometric distance measuring areas 60 ⁇ / b> A are set on the light receiving surface 60.
  • the photometric distance measuring area 60A indicates an area used for determining the exposure condition and the in-focus position, and the system control unit 11 selects the photometric distance measuring area 60A selected from the nine photometric distance measuring areas 60A.
  • the photometry and the distance measurement are performed based on the image pickup signal output from the pixel 61 located at.
  • the exposure value at the time of actual imaging may be measured or There are cases where the level is not at a level that enables accurate ranging.
  • the imaging control unit 11A performs provisional imaging control corresponding to each of the three selected photometric distance measuring areas 60A.
  • the imaging control unit 11A sets the exposure value at the time of temporary imaging corresponding to the selected photometric distance measuring area 60A as an exposure value (photometric value) in which the exposure value of the photometric distance measuring area 60A is determined in advance. And an exposure condition that is a value that enables accurate distance measurement).
  • the imaging control unit 11A may perform temporary imaging control twice or more in correspondence with each of the three selected photometric distance measuring areas 60A.
  • the imaging control unit 11A performs provisional imaging that is performed following the main imaging as the continuous shooting interval (time from the start of the main imaging to the start of the next main imaging) set by the user in the continuous shooting mode increases. It is preferable to set a large upper limit for the number of times.
  • the continuous shooting interval when the continuous shooting interval is short, the number of temporary imaging controls is reduced, so that high-speed continuous shooting can be realized.
  • the continuous shooting interval when the continuous shooting interval is long, the number of times of temporary imaging control is increased, so that the accuracy of determining imaging conditions can be improved.
  • the number of temporary imaging control times is greater than the number of selected photometric distance measuring areas 60A. It is thought that it will be less.
  • the imaging control unit 11A determines the range of the light receiving surface 60 on which the subject to be focused in the latest actual imaging that has not been performed is based on the information on the main subject that has been focused in the past actual imaging. Assuming that the nine photometric distance measuring areas 60A include at least the estimated range, provisional imaging control corresponding to the photometric distance measuring area 60A is performed.
  • the imaging control unit 11 ⁇ / b> A has a main subject that has been focused at the time of the main imaging two times before the latest main imaging at the time before the latest main imaging that has not been performed.
  • the position 71 is detected based on the main captured image signal obtained in the main imaging two times before.
  • the imaging control unit 11A determines the position of the main subject 72 focused at the time of the main imaging immediately before the above-described latest main imaging, as a main captured image signal obtained by the previous main imaging. Detect based on.
  • the imaging control unit 11A predicts the position of the main subject 73 to be focused in the latest main imaging based on the position of the main subject 71 and the position of the main subject 72.
  • the imaging control unit 11A performs at least temporary imaging control corresponding to the lower left photometric distance measuring area 60A in FIG. 10 including the position of the main subject 73 as temporary imaging control performed after the latest main imaging. Execute.
  • the imaging control unit 11A performs provisional imaging control corresponding to the middle photometric distance measuring area 60A in FIG. 10 including the position of the main subject 72, as provisional imaging control performed after the latest main imaging.
  • Two temporary imaging controls including the temporary imaging control corresponding to the lower left photometric distance measuring area 60A in FIG. 10 including the position of the main subject 73 may be performed.
  • provisional imaging is performed such that the photometric distance measuring area 60A that is predicted to form the main subject is appropriately exposed. Can be implemented, and even with a small number of provisional imaging times, it is possible to improve the accuracy of determining imaging conditions at the time of actual imaging following the latest actual imaging.
  • a digital camera has been taken as an example of the imaging device, but an embodiment of a smartphone with a camera as the imaging device will be described below.
  • FIG. 11 shows an appearance of a smartphone 200 that is an embodiment of the photographing apparatus of the present invention.
  • a smartphone 200 shown in FIG. 11 has a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
  • Such a casing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure or a slide mechanism can be employed.
  • FIG. 12 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, etc., or reception of Web data or streaming data is performed.
  • the display input unit 204 displays images (still images and moving images), character information, and the like by visually controlling the display by the control of the main control unit 220 and detects user operations on the displayed information.
  • a so-called touch panel which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 is visible and detects one or more coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the photographing apparatus of the present invention integrally form a display input unit 204.
  • the arrangement 203 covers the display panel 202 completely.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
  • the size of the display area and the size of the display panel 202 may be completely matched, it is not always necessary to match the two.
  • the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion.
  • the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • examples of the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. Can also be adopted.
  • the calling unit 211 includes a speaker 205 or a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the surface on which the display input unit 204 is provided, and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
  • the storage unit 212 is a control program or control data of the main control unit 220, application software, address data that associates the name or telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, or The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
  • Each of the internal storage unit 217 and the external storage unit 218 constituting the storage unit 212 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a flash memory type hard memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (registered trademark) (Bluetooth (registered trademark)), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark) ), ZigBee (registered trademark), etc.) for direct or indirect connection.
  • Bluetooth registered trademark
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB User Wideband
  • ZigBee registered trademark
  • a wired / wireless headset for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber) Identity Module Card / UIM (User Identity Module) Card) card, external audio / video device connected via audio / video I / O (Input / Output) terminal, external audio / video device connected wirelessly, smartphone connected / wired, wired / wireless connection Personal computers connected, wired / wireless connected PDAs, wired / wireless connected personal computers, earphones, and the like.
  • a wired / wireless headset for example, a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber) Identity Module Card / UIM (User Identity Module) Card) card, external
  • the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200 or transmits data inside the smartphone 200 to the external device.
  • the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes a positioning calculation process based on the received plurality of GPS signals, A position consisting of longitude and altitude is detected.
  • the GPS receiving unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS receiving unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a triaxial acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction or acceleration of the smartphone 200 is detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program or control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication or data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
  • the application processing function includes, for example, an infrared communication function for controlling the external input / output unit 213 to perform data communication with the opposite device, an e-mail function for sending and receiving e-mails, or a web browsing function for browsing web pages. is there.
  • the main control unit 220 also has an image processing function such as displaying video on the display input unit 204 based on received data or downloaded image data such as streaming data (still image or moving image data).
  • the image processing function refers to a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203. By executing the display control, the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
  • the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
  • a touch panel control function for controlling the sensitive area of the operation panel 203 or the display position of the software key.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one of a plurality of positions by drawing a trajectory with a finger or the like, or simultaneously specifying a plurality of positions. means.
  • the camera unit 208 includes configurations other than the external memory control unit 20, the storage medium 21, the display control unit 22, the display unit 23, and the operation unit 14 in the digital camera shown in FIG.
  • the captured image data generated by the camera unit 208 can be stored in the storage unit 212 or output through the external input / output unit 213 or the wireless communication unit 210.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this and may be mounted on the back surface of the display input unit 204. .
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • an image acquired by the camera unit 208 can be displayed on the display panel 202.
  • An image of the camera unit 208 can be used as one of operation inputs on the operation panel 203.
  • the position can also be detected with reference to an image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. The current usage environment can also be judged.
  • the image from the camera unit 208 can also be used in the application software.
  • the posture information acquired by the motion sensor unit 215 can be added and stored in the storage unit 212, or can be output through the external input / output unit 213 or the wireless communication unit 210.
  • the imaging element 5 is assumed to be a MOS type, but the present invention can be similarly applied even if the imaging element 5 is a CCD type.
  • a sensor unit that includes a light receiving surface in which a plurality of pixel rows arranged in one direction are arranged in a direction orthogonal to the one direction, and that images a subject through an imaging optical system;
  • An imaging device having a storage unit for storing an output signal, and main imaging for storage by the sensor unit, and an imaging signal corresponding to the charge accumulated in each of the plurality of pixels by the main imaging.
  • Main imaging control to be output from the sensor unit, and after the imaging signal is stored in the storage unit by the main imaging control, an imaging condition at the next main imaging after the main imaging under an exposure condition different from the main imaging.
  • the provisional imaging control is performed by the sensor unit, and the sensor unit outputs an imaging signal corresponding to the electric charge accumulated in some of the plurality of pixels by the provisional imaging.
  • An imaging control unit that performs imaging control including: a signal output control unit that outputs the imaging signal stored in the storage unit by the imaging control from the imaging element; and an output from the sensor unit by the main imaging control. And stored in the storage unit, output from the image sensor by the signal output control unit, and output from the sensor unit by the provisional imaging control, stored in the storage unit, and stored in the storage unit.
  • An imaging condition determining unit that determines an imaging condition for the next main imaging based on at least the second imaging signal of the second imaging signal output from the imaging element by the output control unit.
  • the signal output control unit divides the first imaging signal stored in the storage unit into a plurality of groups, and sequentially outputs the first imaging signal from the imaging element for each group, so that the imaging
  • the control unit performs the provisional operation in a period from when all the imaging signals belonging to at least one of the groups are output from the imaging element to when all the imaging signals belonging to all the groups are output from the imaging element.
  • An imaging apparatus that performs imaging control and performs the provisional imaging by the sensor unit.
  • the imaging apparatus which has a continuous shooting mode in which the imaging control is continuously performed a plurality of times, and in the continuous shooting mode, the imaging condition determination unit performs the imaging before the actual imaging. Based on at least one of the imaging signal stored in the storage unit by the actual imaging control performed or the imaging signal stored in the storage unit by the temporary imaging control performed before the main imaging. An imaging apparatus for determining an exposure condition at the time of the provisional imaging performed after the main imaging.
  • the imaging control includes the main imaging control and a plurality of temporary imaging controls.
  • the imaging apparatus according to any one of (4) to (6), wherein the imaging control unit includes a plurality of areas for use in determining the imaging condition set on the light receiving surface.
  • An imaging apparatus that performs at least one provisional imaging control corresponding to each of the plurality of selection areas when there are a plurality of selection areas selected from the above.
  • the imaging apparatus according to any one of (1) to (10), wherein the imaging condition determining unit includes at least the second of the first imaging signal and the second imaging signal.
  • An imaging device that calculates the brightness of the subject being imaged based on the imaging signal of the image and determines the exposure value at the next main imaging based on the brightness as the imaging condition.
  • the imaging apparatus according to any one of (1) to (11), wherein the some pixels include phase difference detection pixels, and the imaging condition determination unit includes the first imaging A defocus amount is calculated based on at least the second imaging signal of the signal and the second imaging signal, and the in-focus position of the imaging optical system during the next main imaging is calculated based on the defocus amount An imaging apparatus that determines as the imaging condition.
  • a sensor unit that includes a light receiving surface in which a plurality of pixel rows arranged in one direction are arranged in a direction orthogonal to the one direction, and that images a subject through an imaging optical system;
  • the main imaging control for outputting an imaging signal corresponding to the charge from the sensor unit, and after the imaging signal is stored in the storage unit by the main imaging control, the main imaging control is performed under an exposure condition different from the main imaging.
  • Temporary imaging for determining the imaging conditions for the next main imaging is performed by the sensor unit, and an imaging signal corresponding to the charge accumulated in some of the plurality of pixels by the temporary imaging is transmitted to the sensor.
  • An imaging control step for performing imaging control including provisional imaging control to be output from the unit, a signal output control step for outputting the imaging signal stored in the storage unit by the imaging control from the imaging element, and the main imaging The first imaging signal output from the sensor unit by control and stored in the storage unit, and output from the imaging element by the signal output control step, and the storage unit output from the sensor unit by the provisional imaging control.
  • An imaging for determining an imaging condition for the next main imaging based on at least the second imaging signal among the second imaging signals output from the imaging element by the signal output control step.
  • a condition determining step, and in the signal output control step, the first imaging signal stored in the storage unit is grouped into a plurality of groups.
  • the imaging control step all the imaging signals belonging to at least one of the groups are output from the imaging element and then all of the groups belonging to all the groups are output.
  • the imaging condition determination step includes the main imaging control performed before the main imaging. Performed after the main imaging based on at least one of the imaging signal stored in the storage unit or the imaging signal stored in the storage unit by the provisional imaging control performed before the main imaging. An imaging method for determining an exposure condition at the time of the provisional imaging.
  • an exposure condition at the time of temporary imaging of the temporary imaging control performed in association with the selected area is set in advance so that an exposure value of the selected area
  • a defocus amount is calculated based on at least the second imaging signal of the signal and the second imaging signal, and the in-focus position of the imaging optical system during the next main imaging is calculated based on the defocus amount
  • a light receiving surface in which a plurality of pixel rows each including a plurality of pixels arranged in one direction are arranged in a direction orthogonal to the one direction, and a storage unit that stores signals read from the plurality of pixels.
  • the main imaging control that reads out the imaging signal corresponding to the accumulated charge, and after the imaging signal is stored in the storage unit by the main imaging control, the next imaging after the main imaging is performed under an exposure condition different from the main imaging.
  • Temporary imaging for determining imaging conditions at the time of actual imaging is performed by the imaging element, and the provisional imaging control is performed to read out imaging signals corresponding to charges accumulated in some of the plurality of pixels by the temporary imaging.
  • An imaging control step for performing imaging control including: a signal output control step for outputting the imaging signal stored in the storage unit by the imaging control from the imaging element; and a plurality of pixels by the main imaging control. Output and stored in the storage unit, output from the imaging element by the signal output control step and output from the partial pixel by the temporary imaging control, and stored in the storage unit.
  • An imaging condition determining step for determining an imaging condition for the next main imaging based on at least the second imaging signal of the second imaging signals output from the imaging element in the signal output control step; ,
  • the signal output control step the first imaging stored in the storage unit.
  • the signal is divided into a plurality of groups and sequentially output from the imaging device for each group.
  • all the imaging signals belonging to at least one of the groups are output from the imaging device, and then all the above-described signals are output.
  • An imaging program that performs the provisional imaging control and performs the provisional imaging by the imaging element during a period until all imaging signals belonging to the group are output from the imaging element.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

記憶用の撮像を連続して行う場合に、撮像間隔の短縮と撮像品質の向上とを両立させることのできる撮像装置、撮像方法、及び、撮像プログラムを提供する。デジタルカメラは、画素行62が複数配列された受光面60を含むセンサ部51と、センサ部51から出力される信号を記憶する記憶部52とを有する撮像素子5によって記憶用の本撮像を行い、この本撮像によって記憶部52に記憶された本撮像画像信号を撮像素子5から出力させる期間に、次の本撮像時の撮像条件を決定するための仮撮像を撮像素子5によって行い、この仮撮像によって記憶部52に記憶された仮撮像画像信号を撮像素子5から出力させ、この仮撮像画像信号に基づいて次の本撮像時の撮像条件を決定するシステム制御部11を備える。

Description

撮像装置、撮像方法、撮像プログラム
 本発明は、撮像装置、撮像方法、撮像プログラムに関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、又は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、又は、カメラ付きの携帯電話機等の撮像機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
 撮像装置では、記憶用の本撮像よりも前に行う撮像によって得られる撮像画像信号に基づいて撮像中の被写体の情報を取得し、この情報に基づいて、本撮像時における露出又はフォーカスレンズの位置等の撮像条件を決めることが行われる。
 特許文献1、2には、記憶用の本撮像時における撮像素子の露光制御と、撮像条件の決定のための撮像時における撮像素子の露光制御とを変える撮像装置が記載されている。
日本国特開2016-001807号公報 日本国特開2015-176114号公報
 静止画像を連続して撮像する場合を想定する。この場合、静止画像の撮像間隔を短くするためには、記憶用の任意の本撮像時における撮像条件の決定を、この任意の本撮像の直前に行われた別の本撮像によって得られる撮像画像信号に基づいて行うことが好ましい。
 しかし、この別の本撮像時の撮像条件は、記憶に適した条件であって、撮像条件を決定するための適正な条件となっているわけではない。このため、この撮像画像信号からでは、適正な撮像条件を決定できない場合がある。
 例えば、撮像素子が位相差検出用画素を含むものである場合に、上記別の本撮像時によって得られる撮像画像信号のうち、位相差検出用画素から出力された信号のレベルが、位相差を検出するには低すぎたり、高すぎたりすると、上記任意の本撮像時におけるフォーカスレンズの位置の決定精度が低下する。
 また、上記別の本撮像時における露出が、ユーザ設定等によって適正露出から変更されていたり、マニュアル設定されていたりすると、上記別の本撮像時によって得られる撮像画像信号に基づいて決められる露出が適正露出とはならない場合がある。このため、上記任意の本撮像時における適正露出の決定精度が低下する。
 上記任意の本撮像時における撮像条件の決定精度を向上させるために、例えば、上記別の本撮像が行われた後に、上記任意の本撮像時における撮像条件を決定するための適正な撮像条件でプレ撮像を実施することが考えられる。
 しかし、この方法では、上記別の本撮像によって生成された撮像画像信号が撮像素子から出力されるのを待ってからプレ撮像を行うため、静止画像の撮像間隔が長くなる。
 特許文献1、2は、記憶用の撮像を連続して行う場合のことは考慮していない。
 本発明は、上記事情に鑑みてなされたものであり、記憶用の撮像を連続して行う場合に、撮像間隔の短縮と撮像品質の向上とを両立させることのできる撮像装置、撮像方法、及び、撮像プログラムを提供することを目的とする。
 本発明の撮像装置は、一方向に配列された複数の画素からなる画素行が上記一方向と直交する方向に複数配列された受光面を含み、撮像光学系を通して被写体を撮像するセンサ部と、上記センサ部から出力される信号を記憶する記憶部とを有する撮像素子と、上記センサ部によって記憶用の本撮像を行い、上記本撮像によって上記複数の画素の各々に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる本撮像制御と、上記本撮像制御によって上記撮像信号が上記記憶部に記憶された後に、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を上記センサ部によって行い、上記仮撮像によって上記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる仮撮像制御と、を含む撮像制御を行う撮像制御部と、上記撮像制御によって上記記憶部に記憶された上記撮像信号を上記撮像素子から出力させる信号出力制御部と、上記本撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御部によって上記撮像素子から出力された第一の撮像信号と、上記仮撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御部によって上記撮像素子から出力された第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて、上記次の本撮像時の撮像条件を決定する撮像条件決定部と、を備え、上記信号出力制御部は、上記記憶部に記憶された上記第一の撮像信号を複数のグループに分けて上記グループ毎に順次、上記撮像素子から出力させ、上記撮像制御部は、少なくとも1つの上記グループに属する全ての撮像信号が上記撮像素子から出力されてから、全ての上記グループに属する全ての撮像信号が上記撮像素子から出力されるまでの期間に、上記仮撮像制御を行って上記センサ部により上記仮撮像を行うものである。
 本発明の撮像方法は、一方向に配列された複数の画素からなる画素行が上記一方向と直交する方向に複数配列された受光面を含み、撮像光学系を通して被写体を撮像するセンサ部と、上記センサ部から出力される信号を記憶する記憶部とを有する撮像素子とを用いた撮像方法であって、上記センサ部によって記憶用の本撮像を行い、上記本撮像によって上記複数の画素の各々に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる本撮像制御と、上記本撮像制御によって上記撮像信号が上記記憶部に記憶された後に、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を上記センサ部によって行い、上記仮撮像によって上記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる仮撮像制御と、を含む撮像制御を行う撮像制御ステップと、上記撮像制御によって上記記憶部に記憶された上記撮像信号を上記撮像素子から出力させる信号出力制御ステップと、上記本撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第一の撮像信号と、上記仮撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて、上記次の本撮像時の撮像条件を決定する撮像条件決定ステップと、を備え、上記信号出力制御ステップでは、上記記憶部に記憶された上記第一の撮像信号を複数のグループに分けて上記グループ毎に順次上記撮像素子から出力させ、上記撮像制御ステップでは、少なくとも1つの上記グループに属する全ての撮像信号が上記撮像素子から出力されてから、全ての上記グループに属する全ての撮像信号が上記撮像素子から出力されるまでの期間に、上記仮撮像制御を行って上記センサ部により上記仮撮像を行うものである。
 本発明の撮像プログラムは、一方向に配列された複数の画素からなる画素行が上記一方向と直交する方向に複数配列された受光面と、上記複数の画素から読み出された信号を記憶する記憶部とを有し、撮像光学系を通して被写体を撮像する撮像素子とを用いて被写体を撮像する撮像プログラムであって、上記撮像素子によって記憶用の本撮像を行い、上記本撮像によって上記複数の画素の各々に蓄積された電荷に応じた撮像信号を読み出す本撮像制御と、上記本撮像制御によって上記撮像信号が上記記憶部に記憶された後に、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を上記撮像素子によって行い、上記仮撮像によって上記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を読み出す仮撮像制御と、を含む撮像制御を行う撮像制御ステップと、上記撮像制御によって上記記憶部に記憶された上記撮像信号を上記撮像素子から出力させる信号出力制御ステップと、上記本撮像制御によって上記複数の画素から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第一の撮像信号と、上記仮撮像制御によって上記一部の画素から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて、上記次の本撮像時の撮像条件を決定する撮像条件決定ステップと、をコンピュータに実行させるためのプログラムであり、上記信号出力制御ステップでは、上記記憶部に記憶された上記第一の撮像信号を複数のグループに分けて上記グループ毎に順次上記撮像素子から出力させ、上記撮像制御ステップでは、少なくとも1つの上記グループに属する全ての撮像信号が上記撮像素子から出力されてから、全ての上記グループに属する全ての撮像信号が上記撮像素子から出力されるまでの期間に、上記仮撮像制御を行って上記撮像素子により上記仮撮像を行うものである。
 本発明によれば、記憶用の撮像を連続して行う場合に、撮像間隔の短縮と撮像品質の向上とを両立させることのできる撮像装置、撮像方法、及び、撮像プログラムを提供することができる。
本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。 図1に示すデジタルカメラに搭載される撮像素子5の概略構成を示す模式図である。 図2に示す撮像素子5のセンサ部51の構成を示す平面模式図である。 図1に示すシステム制御部11の機能ブロックを示す図である。 図1に示すデジタルカメラの連写モード時の動作を模式的に示すタイミングチャートである。 図1に示すデジタルカメラの連写モード時の動作の第一の例を詳細に示すタイミングチャートである。 図1に示すデジタルカメラの連写モード時の動作の第二の例を詳細に示すタイミングチャートである。 図1に示すデジタルカメラの連写モード時の動作の第三の例を詳細に示すタイミングチャートである。 撮像素子5の受光面60に設定された測光測距エリア60Aの一例を示す図である。 仮撮像制御の回数が測光測距エリア60Aの選択数より少ない場合の動作を説明するための図である。 本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。 図11に示すスマートフォン200の構成を示すブロック図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示す図である。
 図1に示すデジタルカメラは、撮像レンズ1と、絞り2と、レンズ制御部4と、レンズ駆動部8と、絞り駆動部9と、を有するレンズ装置40を備える。
 本実施形態において、レンズ装置40はデジタルカメラ本体に着脱可能なものとして説明するが、デジタルカメラ本体に固定されるものであってもよい。
 撮像レンズ1と絞り2は撮像光学系を構成し、撮像光学系はフォーカスレンズを含む。
 このフォーカスレンズは、撮像光学系の焦点を調節するためのレンズであり、単一のレンズ又は複数のレンズで構成される。フォーカスレンズが撮像光学系の光軸方向に移動することで焦点調節が行われる。
 なお、フォーカスレンズとしては、レンズの曲面を可変制御して焦点位置を変えることのできる液体レンズを用いてもよい。
 レンズ装置40のレンズ制御部4は、デジタルカメラ本体のシステム制御部11と有線又は無線によって通信可能に構成される。
 レンズ制御部4は、システム制御部11からの指令にしたがい、レンズ駆動部8を介して撮像レンズ1に含まれるフォーカスレンズを駆動したり、絞り駆動部9を介して絞り2を駆動したりする。
 デジタルカメラ本体は、撮像光学系を通して被写体を撮像するMOS型の撮像素子5と、センサ駆動部10と、デジタルカメラの電気制御系全体を統括制御するシステム制御部11と、操作部14と、を備える。
 システム制御部11は、各種のプロセッサとRAM(Ramdom Access Memory)とROM(Read Only Memory)と含んで構成され、デジタルカメラ全体を統括制御する。
 各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Prosessing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 システム制御部11のプロセッサは、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
 システム制御部11のプロセッサは、システム制御部11に内蔵のROMに格納された撮像プログラムを実行することで、後述する各機能を実現する。
 さらに、このデジタルカメラの電気制御系は、撮像素子5から出力される後述の本撮像画像信号に対し、補間演算、ガンマ補正演算、及び、RGB/YC変換処理等を行って撮像画像データを生成するデジタル信号処理部17と、着脱自在の記憶媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22と、を備える。
 デジタル信号処理部17は、プロセッサとRAMとROMを含み、このROMに格納されたプログラムをこのプロセッサが実行することで各種処理を行う。
 デジタル信号処理部17、外部メモリ制御部20、及び、表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令に基づいて動作する。
 図2は、図1に示すデジタルカメラに搭載される撮像素子5の概略構成を示す模式図である。
 撮像素子5は、センサ部51と、記憶部52と、を備える。
 センサ部51は、被写体を撮像して撮像画像信号を出力する。センサ部51はセンサ駆動部10によって駆動される。
 記憶部52は、センサ部51から出力された撮像画像信号を記憶するものであり、データを記憶するためのコンデンサ又はフリップフロップ等の多数の記憶素子と、この多数の記憶素子のデータの記憶及び読み出しを制御する図示省略の制御回路とを含む。この制御回路は、システム制御部11によって制御される。
 記憶部52は、書き換え可能な記憶素子を含むものであれば何でも良く、半導体メモリ又は強誘電体メモリ等を用いることができる。
 記憶部52には、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、FRAM(登録商標)(Ferroelectric Random Access Memory)、又は、フラッシュメモリ等を用いることができる。
 記憶部52は、センサ部51に含まれる画素の総数と同じ数の撮像信号を記憶可能となっている。
 また、撮像素子5は、図示省略のSLVS(Scalable Low Voltage Signaling)等の規格に準拠するインタフェースを含む。記憶部52に記憶された撮像画像信号は、このインタフェースによってデータバス25に出力される。
 撮像素子5の構成としては、例えば以下の4つが挙げられるが、これらに限定されるものではない。
[1]センサ部51と記憶部52が1チップ化された構成
[2]センサ部51が形成されたチップと、記憶部52が形成されたチップとが積層され、2つのチップがスタッドバンプで電気的に接続されている構成
[3]センサ部51と記憶部52が1つのパッケージに収容され、センサ部51のパッドと記憶部52のパッドがワイヤボンドによって接続されている構成
[4]センサ部51と記憶部52が別のパッケージに収容され、これら2つのパッケージがリードフレームによって接続される構成
 撮像素子5の消費電力低減、高速性、小型化の観点からは、[1]の構成が最も望ましく、[2]の構成が[1]の次に望ましく、[3]の構成が[2]の次に望ましく、[4]の構成が[3]の次に望ましい。[3]と[4]の構成によれば、高度な技術を用いることなく製造することができる。
 図3は、図2に示す撮像素子5のセンサ部51の構成を示す平面模式図である。
 センサ部51は、一方向である行方向Xに配列された複数の画素61からなる画素行62が、行方向Xと直交する列方向Yに複数配列された受光面60と、受光面60に配列された画素を駆動する駆動回路63と、受光面60に配列された画素行62の各画素61から読み出される撮像信号を処理する信号処理回路64と、を備える。
 以下では、図3において受光面60の列方向Yの上方向の端部を上端といい、受光面60の列方向Yの下方向の端部を下端という。
 画素61は、レンズ装置40の撮像光学系を通った光を受光し受光量に応じた電荷を発生して蓄積する光電変換部と、この光電変換部に蓄積された電荷を電圧信号に変換して撮像信号として信号線に読み出す読み出し回路と、を含む。
 読み出し回路は、周知の構成を採用可能である。
 読み出し回路は、例えば、光電変換部に蓄積された電荷をフローティングディフュージョンに転送するための転送トランジスタと、フローティングディフュージョンの電位をリセットするためのリセットトランジスタと、フローティングディフュージョンの電位に応じた電圧信号を出力する出力トランジスタと、出力トランジスタから出力される電圧信号を選択的に信号線に読み出すための選択トランジスタと、を含む。
 なお、読み出し回路は、複数の光電変換部で共用される場合もある。
 受光面60に配列された全ての画素行62のうち、Nを0以上の整数として受光面60の上端側から数えて(4N+1)番目にある画素行62が配置される受光面60の領域をフィールドF1という。
 受光面60に配列された全ての画素行62のうち受光面60の上端側から数えて(4N+2)番目にある画素行62が配置される受光面60の領域をフィールドF2という。
 受光面60に配列された全ての画素行62のうち受光面60の上端側から数えて(4N+3)番目にある画素行62が配置される受光面60の領域をフィールドF3という。
 受光面60に配列された全ての画素行62のうち受光面60の上端側から数えて(4N+4)番目にある画素行62が配置される受光面60の領域をフィールドF4という。
 フィールドF1~フィールドF4のいずれか(以下ではフィールドF1とする)にある画素行62を構成する画素61には、位相差検出用画素が含まれている。
 位相差検出用画素は、レンズ装置40の撮像光学系の瞳領域の行方向Xに並ぶ異なる2つの部分を通過した一対の光束に基づく2つの像の位相差を検出するための画素である。
 位相差検出用画素には、上記の一対の光束の一方を受光し受光量に応じた電荷を蓄積する第一の光電変換部を含む第一画素と、上記の一対の光束の他方を受光し受光量に応じた電荷を蓄積する第二の光電変換部を含む第二画素とがある。
 フィールドF1には、この第一画素と第二画素のペアが複数配置されており、このペアから読み出される信号に基づいて位相差の算出が可能となっている。
 なお、位相差検出用画素は、第一の光電変換部と第二の光電変換部の両方を含む画素で構成される場合もある。
 駆動回路63は、各画素61の光電変換部に接続される読み出し回路を画素行単位で駆動して、画素行62毎に、この画素行62に含まれる各光電変換部のリセット、この各光電変換部に蓄積された電荷に応じた電圧信号の信号線への読み出し等を行う。
 信号処理回路64は、画素行62の各画素61から信号線に読み出された電圧信号に対し、相関二重サンプリング処理を行い、相関二重サンプリング処理後の電圧信号をデジタル信号に変換して記憶部52に出力する。
 任意の画素61から信号線に読み出されて信号処理回路64で処理されて得られたデジタル信号は、この任意の画素61の光電変換部に蓄積された電荷に応じた撮像信号となる。
 図4は、図1に示すシステム制御部11の機能ブロックを示す図である。
 システム制御部11では、撮像プログラムを実行したプロセッサが、撮像制御部11Aと、信号出力制御部11Bと、撮像条件決定部11Cとして機能する。
 図1のデジタルカメラは、複数回の記憶用の撮像を連続して行う連写モードを搭載している。
 撮像制御部11Aは、この連写モードにおいて、記憶媒体21に記憶するための記憶用の撮像を行う指示(以下、撮像指示という)がなされると、この指示に応じて、本撮像制御と仮撮像制御とを含む撮像制御を複数回続けて行う。
 本撮像制御は、駆動回路63を制御することで、センサ部51によって記憶用の撮像である本撮像を行い、この本撮像によって受光面60の全ての画素61の各々に蓄積された電荷に応じた撮像信号をセンサ部51から出力させる制御である。
 本明細書においてセンサ部51による“撮像”とは、受光面60にある各画素の光電変換部をリセットしてこの光電変換部に電荷を蓄積可能な状態としてこの光電変換部の露光を開始させ、その後、所定の時間が経過したタイミングで、この光電変換部に蓄積された電荷をフローティングディフュージョンに転送することで、この光電変換部の露光を終了させることを言う。
 本撮像制御が行われると、本撮像によって各画素61の光電変換部に蓄積された電荷に応じた撮像信号である第一の撮像信号が記憶部52に記憶される。以下では、この第一の撮像信号の集合を、本撮像画像信号ともいう。
 仮撮像制御は、上記の本撮像制御によって本撮像画像信号が記憶部52に記憶された後に、駆動回路63を制御することで、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための撮像である仮撮像をセンサ部51によって行い、この仮撮像によって全ての画素61の一部の画素61(ここではフィールドF1にある画素61)に蓄積された電荷に応じた撮像信号をセンサ部51から出力させる制御である。
 仮撮像制御が行われると、仮撮像によってフィールドF1にある各画素61の光電変換部に蓄積された電荷に応じた撮像信号である第二の撮像信号が記憶部52に記憶される。以下では、この第二の撮像信号の集合を、仮撮像画像信号ともいう。
 ここで、露光条件とは、撮像の露光時間、撮像信号に乗じるゲインの値、又は、撮像時の絞り2の絞り値の少なくとも1つのことを言う。
 信号出力制御部11Bは、記憶部52の制御回路を制御することで、撮像制御部11Aが行った撮像制御によって記憶部52に記憶された撮像信号を撮像素子5から出力させる制御を行う。
 信号出力制御部11Bは、記憶部52に記憶された本撮像画像信号については、この本撮像画像信号を複数のグループに分けてグループ毎に撮像素子5から順次出力させる。
 信号出力制御部11Bは、具体的には、本撮像画像信号を、フィールドF1にある画素61に蓄積された電荷に応じた第一の撮像信号からなるグループGF1と、フィールドF2にある画素61に蓄積された電荷に応じた第一の撮像信号からなるグループGF2と、フィールドF3にある画素61に蓄積された電荷に応じた第一の撮像信号からなるグループGF3と、フィールドF4にある画素61に蓄積された電荷に応じた第一の撮像信号からなるグループGF4とに分けて、これら4つのグループを順次、撮像素子5からデータバス25に出力させる。
 撮像条件決定部11Cは、信号出力制御部11Bによって撮像素子5から出力された第一の撮像信号と、信号出力制御部11Bによって撮像素子5から出力された第二の撮像信号のうちの少なくとも第二の撮像信号に基づいて、次の本撮像時の撮像条件を決定する。
 なお、撮像制御部11Aは、グループGF1、グループGF2、グループGF3、及び、グループGF4のうち、少なくともグループGF1が撮像素子5から出力されてから、これら全てのグループが撮像素子5から出力されるまでの期間に、上記の仮撮像制御を行う。
 図5は、図1に示すデジタルカメラの連写モード時の動作を模式的に示すタイミングチャートである。
 図5において、“センサ部”の横には、センサ部51で行われる本撮像と仮撮像のタイミングが示されている。
 図5において、“記憶部”の横には、記憶部52への本撮像画像信号と仮撮像画像信号の記憶のタイミングが示されている。
 図5において、“撮像素子出力”の横には、撮像素子5からの撮像信号の出力状態が示されている。
 図5において、“カメラ側処理”の横には、システム制御部11及びデジタル信号処理部17で行われる処理が示されている。
 撮像指示が行われると、撮像制御部11Aによって1回目の本撮像制御が行われ、センサ部51により第一の撮像条件で本撮像が行われる(ステップS1)。
 そして、この本撮像で各画素61に蓄積された電荷に応じた信号(本撮像画像信号G1とする)が記憶部52に記憶される(ステップS2)。
 撮像条件とは、上述した露光条件と、撮像光学系の合焦位置(フォーカスレンズの位置)とを含む。
 図5において図示していないが、連写モードに設定されてから撮像指示が行われるまでは、システム制御部11が、ライブビュー画像を表示するために、ライブビュー用の撮像をセンサ部51によって行い、このライブビュー用の撮像によって全ての画素61の一部の画素61(例えばフィールドF1にある画素61)に蓄積された電荷に応じた撮像信号をセンサ部51から出力させる制御であるライブビュー用撮像制御を連続して行う。
 そして、システム制御部11は、この各ライブビュー用撮像制御によって記憶部52に記憶された撮像画像信号(フィールドF1にある画素61から出力された撮像信号の集合)を撮像素子5から出力させる。
 そして、デジタル信号処理部17は、この撮像画像信号に基づいてライブビュー画像を生成して表示部23に表示させる。
 撮像制御部11Aは、撮像指示が行われる前のライブビュー用撮像制御によって撮像素子5から出力された1つ又は複数の撮像画像信号に基づいて測光(被写体の明るさの算出)及び測距(位相差の算出)を行い、この測光及び測距の結果に基づいて、上記の第一の撮像条件を決定している。
 本撮像画像信号G1の記憶部52への記憶が完了すると、信号出力制御部11Bの制御により、記憶部52に記憶された本撮像画像信号G1のうちのグループGF1が撮像素子5から順次出力される。このグループGF1の出力が終わると、グループGF2が撮像素子5から順次出力される。このグループGF2の出力が終わると、グループGF3が撮像素子5から順次出力される。このグループGF3の出力が終わると、グループGF4が撮像素子5から順次出力される(ステップS3)。
 グループGF4の出力が終わると、デジタル信号処理部17が、出力された本撮像画像信号G1を処理して撮像画像データを生成し、生成した撮像画像データを記憶媒体21に記憶する(ステップS4)。
 一方、ステップS3が開始すると、撮像制御部11Aは、撮像指示が行われる前にライブビュー用撮像制御によって撮像素子5から出力された1つ又は複数の撮像画像信号に基づいて、測光及び測距を行うのに適した露光条件を決定する(ステップS5)。
 そして、本撮像画像信号G1が撮像素子5から出力されている過程で、グループGF1の出力が終わると、撮像制御部11Aによって仮撮像制御が行われ、センサ部51により第二の撮像条件で仮撮像が行われる(ステップS6)。
 なお、撮像制御部11Aは、上記第二の撮像条件のうちの露光条件を、ステップS5で決定した露光条件に設定し、上記第二の撮像条件のうちの合焦位置については、ステップS1の本撮像時と同じままとする。
 ステップS6の仮撮像によって、フィールドF1にある各画素61に蓄積された電荷に応じた信号(仮撮像画像信号g1とする)は記憶部52に記憶される(ステップS7)。
 仮撮像画像信号g1の記憶部52への記憶が完了すると、信号出力制御部11Bの制御により、記憶部52に記憶された仮撮像画像信号g1が撮像素子5から順次出力される(ステップS8)。
 仮撮像画像信号g1の出力が終わると、撮像条件決定部11Cは、仮撮像画像信号g1に基づいて測光及び測距を行い、この測光及び測距の結果に基づいて、次の本撮像(図5の本撮像(2))の第三の撮像条件を決定する(ステップS9)。
 第三の撮像条件が決定されると、撮像制御部11Aによって2回目の本撮像制御が行われ、センサ部51により上記第三の撮像条件で本撮像が行われる(ステップS10)。
 そして、この本撮像で各画素61に蓄積された電荷に応じた信号(本撮像画像信号G2とする)が記憶部52に記憶される(ステップS11)。
 本撮像画像信号G2の記憶部52への記憶が完了すると、信号出力制御部11Bの制御により、記憶部52に記憶された本撮像画像信号G2のうちのグループGF1が撮像素子5から順次出力される。このグループGF1の出力が終わると、グループGF2が撮像素子5から順次出力される。このグループGF2の出力が終わると、グループGF3が撮像素子5から順次出力される。このグループGF3の出力が終わると、グループGF4が撮像素子5から順次出力される(ステップS12)。
 グループGF4の出力が終わると、デジタル信号処理部17が、出力された本撮像画像信号G2を処理して撮像画像データを生成し、生成した撮像画像データを記憶媒体21に記憶する(ステップS13)。
 一方、ステップS12が開始すると、撮像制御部11Aは、ステップS8で得られた仮撮像画像信号g1に基づいて、測光及び測距に適した露光条件を判定し、判定した露光条件を仮撮像時の露光条件として決定する(ステップS14)。
 ステップS12の処理の過程で、グループGF1の出力が終わると、撮像制御部11Aによって仮撮像制御が行われ、センサ部51により第四の撮像条件で仮撮像が行われる(ステップS15)。
 この第四の撮像条件のうちの露光条件は、ステップS14で決定された露光条件が設定される。また、第四の撮像条件のうちの合焦位置については、ステップS10の本撮像時と同じに設定される。
 そして、この仮撮像によってフィールドF1にある各画素61に蓄積された電荷に応じた信号(仮撮像画像信号g2とする)が記憶部52に記憶される(ステップS16)。
 仮撮像画像信号g2の記憶部52への記憶が完了すると、信号出力制御部11Bの制御により、記憶部52に記憶された仮撮像画像信号g2が撮像素子5から順次出力される(ステップS17)。
 仮撮像画像信号g2の出力が終わると、撮像条件決定部11Cは、仮撮像画像信号g2に基づいて測光及び測距を行い、この測光及び測距の結果に基づいて、次の本撮像の撮像条件を決定する(ステップS18)。以降は、ステップS10~ステップS18と同様の処理が繰り返し行われる。
 以上のように図1のデジタルカメラでは、連写モードにおいて2回目に行う本撮像時の撮像条件を、1回目に行った仮撮像(ステップS6)によって得られた仮撮像画像信号g1に基づいて決定している。
 この仮撮像画像信号g1は、撮像条件を決定するための適正な露光条件で仮撮像を行って得られたものである。このため、2回目の本撮像時の撮像条件を適正なものとすることができ、撮像画質を向上させることができる。
 また、仮撮像画像信号g1の取得のための仮撮像(ステップS6)は、1回目の本撮像によって得られる本撮像画像信号G1が撮像素子5から出力される期間に行われる。このため、本撮像と本撮像の間隔を短くすることができ、高速な連写が可能となる。
 なお、図5において、仮撮像制御を開始するタイミング(ステップS6(ステップS15)の開始タイミング)は、ステップS7(ステップS16)の開始時点で、記憶部52に仮撮像画像信号を記憶できるだけのスペースが空いていれば、ステップS2(ステップS11)の終了以降、いつ行ってもよい。
 図5において、ステップS3(ステップS12)が行われる期間は、便宜上、長さを短くしているが、この期間は仮撮像制御が行われる期間よりも十分に長い。
 例えば、ステップS3(ステップS12)においてグループGF2の出力が完了した時点で、ステップS7(ステップS16)が完了していることもある。このような場合には、ステップS8(ステップS17)の処理は、ステップS3(ステップS12)におけるグループGF3又はグループGF4の出力を開始するよりも前の時点で行うことができる。
 このように、本撮像画像信号のグループGF4の出力開始よりも前に、仮撮像画像信号の出力を行うことで、次の本撮像時の撮像条件の決定処理(ステップS9(ステップS18))を早く行うことができる。この結果、次の本撮像開始までの時間を短縮することができ、連写間隔を更に短くすることができる。
 また、ステップS14の仮撮像時における露光条件の決定は、ステップS6の仮撮像によって得られた仮撮像画像信号g1に基づいて行われる。このため、ステップS6とステップS10の間でこの露光条件を決定するための別の仮撮像を行う必要がなくなり、連写間隔を短くすることができる。
 なお、撮像制御部11Aは、ステップS14において、ステップS1の本撮像で得られる本撮像画像信号G1と仮撮像画像信号g1とに基づいて、ステップS15で行う仮撮像の露光条件を決定してもよい。この構成によれば、より多くの情報を使って仮撮像の露光条件の決定することができ、この露光条件をより高精度に決定することができる。
 例えば、撮像制御部11Aは、本撮像画像信号G1に基づく露出値と、仮撮像画像信号g1に基づく露出値とを比較して、両者の差が小さい場合には、仮撮像画像信号g1に基づく露出値、又は、本撮像画像信号G1に基づく露出値と仮撮像画像信号g1に基づく露出値の平均値を、次の仮撮像時の露光条件として決定する。
 また、撮像制御部11Aは、上記の両者の差が大きい場合には、仮撮像画像信号g1に基づく露出値を、次の仮撮像時の露光条件として決定する。
 また、撮像条件決定部11Cは、ステップS9又はステップS18において、この処理の直前の本撮像制御及び仮撮像制御の各々によって得られる本撮像画像信号及び仮撮像画像信号に基づいて撮像条件を決定してもよい。この構成によれば、本撮像の撮像条件の決定を高精度に行うことができる。
 例えば、撮像条件決定部11Cは、本撮像画像信号を用いた位相差の算出結果と、仮撮像画像信号を用いた位相差の算出結果とのうちの信頼性が高い方の位相差、又は、これら2つの位相差の平均値に基づいて本撮像時の合焦位置を決定する。
 撮像条件決定部11Cは、本撮像画像信号を用いて決めた露出と、仮撮像画像信号を用いて決めた露出とを比較し、両者の差が小さい場合には、2つの露出の平均値を本撮像時の露出として決定し、両者の差が大きい場合には、仮撮像画像信号を用いて決めた露出を本撮像時の露出として決定する。
 或いは、撮像条件決定部11Cは、本撮像画像信号を用いた位相差の算出結果と、仮撮像画像信号を用いた位相差の算出結果との比較で、次の本撮像時の主要被写体(焦点を合わせるべき被写体)の位置を予測する。そして、撮像条件決定部11Cは、仮撮像画像信号のうち、予測した主要被写体を撮像して得られた信号に基づいて測光及び測距を行って撮像条件を決定する。
 図6は、図1に示すデジタルカメラの連写モード時の動作の第一の例を詳細に示すタイミングチャートである。
 図6は、撮像制御部11Aが、本撮像制御と、この本撮像制御による本撮像よりも露光時間の短い仮撮像を行う仮撮像制御とを含む撮像制御を実施する場合の動作を示している。
 図6において、“センサ部”の横には、受光面60にある各画素行62の画素61に含まれる光電変換部のリセットタイミングを示す直線R1,R2と、この光電変換部からの撮像信号の読み出しタイミングを示す直線O1,O2とが示されている。
 図6において、“記憶部”の横には、記憶部52に記憶された撮像信号の出力タイミングを示す直線f1a,f1b,f2a,f3a,f4aが示されている。
 撮像指示があると、撮像制御部11Aは、時刻t1において受光面60の上端側から画素行62を順次リセットしていくことで、センサ部51による本撮像の露光を開始する(図6の直線R1)。
 撮像制御部11Aは、各画素行62の露光が開始してから所定の露光時間Taが経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた電圧信号をセンサ部51から出力させる(図6の直線O1)。
 センサ部51から出力された撮像信号で構成される本撮像画像信号が記憶部52に記憶されると(時刻t2)、信号出力制御部11Bは、この本撮像画像信号のうち、フィールドF1にある画素61から出力された撮像信号を記憶部52からデータバス25へと順次出力する(図6の直線f1a)。
 フィールドF1にある画素61から出力された撮像信号の撮像素子5からの出力期間中に、撮像制御部11Aが、受光面60の上端側からフィールドF1の画素行62を順次リセットしていくことで、センサ部51による仮撮像の露光を開始する(図6の直線R2)。なお、ここでは、絞り2の絞り値は、本撮像と仮撮像とで同じにしている。
 撮像制御部11Aは、フィールドF1の各画素行62において仮撮像の露光が開始してから所定の露光時間Tb(<露光時間Ta)が経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた撮像信号をセンサ部51から出力させる(図6の直線O2)。
 なお、直線f1aによる撮像信号の出力の完了タイミング(時刻t3)と、直線O2による撮像信号のセンサ部51からの出力の開始タイミングは一致しているが、これに限らず、時刻t3よりも後の時刻で直線O2による撮像信号のセンサ部51からの出力が開始されるように仮撮像の露光開始タイミングが決められていてもよい。
 直線O2でセンサ部51から出力された撮像信号で構成される仮撮像画像信号は、本撮像画像信号のうちの直線f1aで出力された撮像信号の記憶エリアに上書きされる。
 時刻t4において、この仮撮像画像信号が記憶部52に記憶完了されると、信号出力制御部11Bは、この仮撮像画像信号を記憶部52からデータバス25に順次出力する(図6の直線f1b)。
 時刻t5において、直線f1bによる撮像信号の撮像素子5からの出力が完了すると、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF2にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図6の直線f2a)。
 時刻t6において、直線f2aによる撮像信号の撮像素子5からの出力が完了すると、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF3にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図6の直線f3a)。
 時刻t7において、直線f3aによる撮像信号の撮像素子5からの出力が完了すると、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF4にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図6の直線f4a)。
 以上の動作例によれば、時刻t5の時点で次の本撮像時の撮像条件を決定することができる。このため、直線f4aによる撮像信号の撮像素子5からの出力が完了してから直ぐに次の本撮像を開始することができ、連写間隔を短くすることができる。
 図7は、図1に示すデジタルカメラの連写モード時の動作の第二の例を詳細に示すタイミングチャートである。
 撮像指示があると、撮像制御部11Aは、時刻t1において受光面60の上端側から画素行62を順次リセットしていくことで、センサ部51による本撮像の露光を開始する(図7の直線R1)。
 撮像制御部11Aは、各画素行62の露光が開始してから所定の露光時間Taが経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた電圧信号をセンサ部51から出力させる(図7の直線O1)。
 センサ部51から出力された撮像信号で構成される本撮像画像信号が記憶部52に記憶されると(時刻t2)、信号出力制御部11Bは、この本撮像画像信号のうち、フィールドF1にある画素61から出力された撮像信号を記憶部52からデータバス25へと順次出力する(図7の直線f1a)。
 フィールドF1にある画素61から出力された撮像信号の撮像素子5からの出力期間中には、撮像制御部11Aが、受光面60の上端側からフィールドF1の画素行62を順次リセットしていくことで、センサ部51による仮撮像の露光を開始する(図7の直線R2)。なお、絞り2の絞り値は、本撮像と仮撮像とで同じとしている。
 直線f1aによる撮像信号の撮像素子5からの出力が完了すると(時刻t3)、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF2にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図7の直線f2a)。
 本撮像画像信号のうちのフィールドF2にある画素61から出力された撮像信号の出力期間中に、フィールドF1にある各画素行62の仮撮像の露光が開始してから所定の露光時間Tbが経過する。
 撮像制御部11Aは、露光時間Tbが経過したフィールドF1の画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた電圧信号をセンサ部51から出力させる(図7の直線O2)。
 直線O2でセンサ部51から出力された撮像信号で構成される仮撮像画像信号は、本撮像画像信号のうちの直線f1aで出力された撮像信号の記憶エリアに上書きされる。
 この仮撮像画像信号が記憶部52に記憶完了され、直線f2aによる撮像信号の出力が完了すると(時刻t4)、信号出力制御部11Bは、この仮撮像画像信号を記憶部52からデータバス25に順次出力する(図7の直線f1b)。
 直線f1bによる撮像信号の撮像素子5からの出力が完了すると(時刻t5)、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF3にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図7の直線f3a)。
 直線f3aによる撮像信号の撮像素子5からの出力が完了すると(時刻t6)、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF4にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図7の直線f4a)。
 以上の動作例によれば、時刻t5の時点で次の本撮像時の撮像条件を決定することができる。このため、直線f4aによる撮像信号の撮像素子5からの出力が完了してから直ぐに次の本撮像を開始することができ、連写間隔を短くすることができる。
 以上の説明では、撮像制御部11Aが、本撮像制御と本撮像制御の間に仮撮像制御を1回行うものとした。この変形例として、撮像制御部11Aは、本撮像制御と本撮像制御の間に複数回の仮撮像制御を行ってもよい。
 この場合、撮像条件決定部11Cは、任意の本撮像時の撮像条件を、この本撮像の直前の本撮像制御によって得られる本撮像画像信号と、この本撮像の直前の複数回の仮撮像制御の各々によって得られる複数の仮撮像画像信号とのうち、少なくとも複数の仮撮像画像信号に基づいて決定する。撮像条件の決定方法の一例を以下に示す。
(1)複数の仮撮像画像信号の各々によって位相差を算出し、これらの位相差のうちの信頼性が最も高いものに基づいて本撮像時の合焦位置を決定する。複数の仮撮像画像信号の各々によって測光を行い、これら複数の測光結果に基づいて本撮像時の露出を決定する。
(2)本撮像画像信号によって位相差を算出し、複数の仮撮像画像信号の各々によって位相差を算出し、これらの位相差のうちの信頼性が最も高いものに基づいて本撮像時の合焦位置を決定する。
(3)複数の仮撮像画像信号の各々によって位相差を算出し、これらの位相差の比較で、次の本撮像時の主要被写体の位置を予測し、仮撮像画像信号のうち、予測した主要被写体が結像するエリアの信号に基づいて測光及び測距を行って本撮像時の撮像条件を決定する。
(4)本撮像画像信号と複数の仮撮像画像信号を含む全ての撮像画像信号によって位相差を算出し、これら位相差の比較で、次の本撮像時の主要被写体の位置を予測し、仮撮像画像信号のうち、予測した主要被写体が結像するエリアの信号に基づいて測光及び測距を行って本撮像時の撮像条件を決定する。
 図8は、図1に示すデジタルカメラの連写モード時の動作の第三の例を詳細に示すタイミングチャートである。図8は、撮像制御部11Aが、本撮像制御と3回の仮撮像制御とを含む撮像制御を連続して実施する場合の1回の撮像制御の動作を示している。
 図8において、“センサ部”の横には、受光面60にある各画素行62の画素61に含まれる光電変換部のリセットタイミングを示す直線R1,R2,R3,R4と、この光電変換部からの撮像信号の読み出しタイミングを示す直線O1,O2,O3,O4とが示されている。
 図8において、“記憶部”の横には、記憶部52に記憶された撮像信号の出力タイミングを示す直線f1a,f1b,f2a,f1c,f3a,f1d,f4aが示されている。
 撮像指示があると、撮像制御部11Aは、時刻t1において受光面60の上端側から画素行62を順次リセットしていくことで、センサ部51による本撮像の露光を開始する(図8の直線R1)。
 撮像制御部11Aは、各画素行62の露光が開始してから所定の露光時間Taが経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた撮像信号をセンサ部51から出力させる(図8の直線O1)。
 直線O1によってセンサ部51から出力された撮像信号で構成される本撮像画像信号が記憶部52に記憶されると(時刻t2)、信号出力制御部11Bは、この本撮像画像信号のうち、フィールドF1にある画素61から出力された撮像信号を記憶部52からデータバス25へと順次出力する(図6の直線f1a)。
 直線f1aによる撮像信号の出力期間中に、撮像制御部11Aは、受光面60の上端側からフィールドF1の画素行62を順次リセットしていくことで、センサ部51による1回目の仮撮像の露光を開始する(図8の直線R2)。
 そして、撮像制御部11Aは、フィールドF1にある各画素行62の露光が開始してから所定の露光時間Tbが経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた撮像信号をセンサ部51から出力させる(図8の直線O2)。
 なお、直線f1aによる撮像信号の出力完了タイミングと、直線O2によるセンサ部51からの撮像信号の出力開始タイミングは一致しているが、これに限らず、時刻t3よりも後の時刻で直線O2による撮像信号のセンサ部51からの出力が開始されるように1回目の仮撮像の露光開始タイミングが決められていてもよい。
 直線O2でセンサ部51から出力された撮像信号で構成される仮撮像画像信号は、本撮像画像信号のうちの直線f1aで出力された撮像信号の記憶エリアに上書きされる。
 直線O2で出力された仮撮像画像信号の記憶が完了すると(時刻t4)、信号出力制御部11Bは、記憶部52に記憶された仮像画像信号をデータバス25に順次出力する(図8の直線f1b)。
 直線f1bによる撮像信号の撮像素子5からの出力が完了すると(時刻t5)、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF2にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図8の直線f2a)。
 直線f2aによる撮像信号の出力期間中に、撮像制御部11Aは、受光面60の上端側からフィールドF1の画素行62を順次リセットしていくことで、センサ部51による2回目の仮撮像の露光を開始する(図8の直線R3)。
 そして、撮像制御部11Aは、フィールドF1にある各画素行62の露光が開始してから所定の露光時間Tcが経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた撮像信号をセンサ部51から出力させる(図8の直線O3)。
 なお、直線f2aによる撮像信号の出力完了タイミングと、直線O3によるセンサ部51からの撮像信号の出力開始タイミングは一致しているが、これに限らず、時刻t6よりも後の時刻で直線O3による撮像信号のセンサ部51からの出力が開始されるように2回目の仮撮像の露光開始タイミングが決められていてもよい。
 直線O3でセンサ部51から出力された撮像信号で構成される仮撮像画像信号は、直線f1bで出力された仮撮像画像信号の記憶エリアに上書きされる。
 直線O3で出力された仮撮像画像信号の記憶が完了すると(時刻t7)、信号出力制御部11Bは、記憶部52に記憶された仮像画像信号をデータバス25に順次出力する(図8の直線f1c)。
 直線f1cによる撮像信号の撮像素子5からの出力が完了すると(時刻t8)、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF3にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図8の直線f3a)。
 直線f3aによる撮像信号の出力期間中に、撮像制御部11Aは、受光面60の上端側からフィールドF1の画素行62を順次リセットしていくことで、センサ部51による3回目の仮撮像の露光を開始する(図8の直線R4)。
 そして、撮像制御部11Aは、フィールドF1にある各画素行62の露光が開始してから所定の露光時間Tdが経過すると、この画素行62の各光電変換部に蓄積された電荷をフローティングディフュージョンに転送して、この画素行62の露光を終了し、転送した電荷に応じた撮像信号をセンサ部51から出力させる(図8の直線O4)。
 なお、直線f3aによる撮像信号の出力完了タイミングと、直線O4によるセンサ部51からの撮像信号の出力開始タイミングは一致しているが、これに限らず、時刻t9よりも後の時刻で直線O4による撮像信号のセンサ部51からの出力が開始されるように3回目の仮撮像の露光開始タイミングが決められていてもよい。
 直線O4でセンサ部51から出力された撮像信号で構成される仮撮像画像信号は、直線f1cで出力された仮撮像画像信号の記憶エリアに上書きされる。
 直線O4で出力された仮撮像画像信号の記憶が完了すると(時刻t10)、信号出力制御部11Bは、記憶部52に記憶された仮像画像信号をデータバス25に順次出力する(図8の直線f1d)。
 直線f1dによる撮像信号の撮像素子5からの出力が完了すると(時刻t11)、信号出力制御部11Bは、本撮像画像信号のうちのフィールドF4にある画素61から出力された撮像信号を記憶部52からデータバス25に順次出力する(図8の直線f4a)。
 そして、撮像条件決定部11Cは、撮像素子5から出力された本撮像画像信号と、3つの仮撮像画像信号とのうち、少なくとも3つの仮撮像画像信号に基づいて、次の本撮像時の撮像条件を決定する。
 また、撮像制御部11Aは、この本撮像画像信号と3つの仮撮像画像信号とのうち、少なくとも3つの仮撮像画像信号に基づいて、次の本撮像の後に行う複数回の各仮撮像の露光条件を決定する。
 なお、図8の例では、絞り2の絞り値は、本撮像と3回の仮撮像とで同じとしている。そして、露光時間Tb、露光時間Tc、及び、露光時間Tdは、全て異なる値であり、かつ、露光時間Taとは異なる値となっている。
 以上のように、複数回の仮撮像を行うことで、本撮像の直前に被写体の情報をより多く取得することが可能となり、本撮像時の撮像条件又はこの本撮像の後に行う仮撮像時の露光条件をより高精度に決定することができる。
 特に、図8に示すように、複数回の仮撮像の露光条件がそれぞれ異なる構成とすることで、明るさや距離に変化がある被写体を撮像している場合でも、本撮像時の撮像条件又は次の仮撮像時の露光条件の決定精度を向上させることができる。
 なお、露光時間Tb、露光時間Tc、及び、露光時間Tdは、露光時間Taとは異なる値であり、かつ、これらのうちの少なくとも2つが同じ値であってもよい。
 この場合、複数回の仮撮像の露光条件が全て同一となる場合もあるが、この複数回の露光条件と本撮像時の露光条件とは異なる。このため、次の本撮像時の撮像条件の決定又は次の仮撮像時の露光条件の決定を高精度に行うことは可能である。
 また、複数回の仮撮像の露光条件が全て同一となる場合でも、複数の仮撮像画像信号に基づいて主要被写体の移動予測を行うことができる。
 このため、次の本撮像時の合焦位置を決めるときの情報としてこの主要被写体の移動予測結果を利用することで、次の本撮像時の合焦位置の決定精度を向上させることができる。
 次に、複数回の仮撮像を行う場合の各仮撮像の露光条件の具体例について説明する。
 図9は、撮像素子5の受光面60に設定された測光測距エリア60Aの一例を示す図である。図7に示すように、受光面60には、9つの測光測距エリア60Aが設定されている。
 測光測距エリア60Aは、露光条件と合焦位置の決定に用いるためのエリアを示しており、システム制御部11は、この9つの測光測距エリア60Aの中から選択された測光測距エリア60Aにある画素61から出力される撮像信号に基づいて測光及び測距を行う。
 例えば、行方向Xに並ぶ3つの測光測距エリア60Aが選択されている状態で1回目の本撮像が行われる場合を考える。
 この場合、この3つの測光測距エリア60Aに、行方向Xに向かって濃淡が大きく変化する被写体が結像していると、測光測距エリア60Aによっては、本撮像時の露出値が測光又は測距を精度よく行うことできるレベルになっていない場合がある。
 そこで、撮像制御部11Aは、選択されている3つの測光測距エリア60Aの各々に対応させて仮撮像制御を行う。
 具体的には、撮像制御部11Aは、選択された測光測距エリア60Aに対応させて行う仮撮像時の露光条件を、この測光測距エリア60Aの露出値が予め決められた露出値(測光及び測距を精度よく行うことができる値)となる露光条件に設定する。
 このように、測光測距エリア60Aが複数選択されている場合に、各測光測距エリア60Aの露出が適正となるように仮撮像を行うことで、選択中の全ての測光測距エリア60Aから出力される撮像信号を用いた測光及び測距の精度を高めることができる。
 なお、撮像制御部11Aは、選択されている3つの測光測距エリア60Aの各々に対応させて仮撮像制御を2回以上行ってもよい。
 このようにすることで、選択中の全ての測光測距エリア60Aから出力される撮像信号を用いた測光及び測距の精度を更に高めることができる。
 撮像制御部11Aは、連写モードでユーザにより設定される連写間隔(本撮像が開始されてから次の本撮像が開始されるまでの時間)が大きいほど、本撮像に続けて行う仮撮像の回数の上限値を大きく設定するのが好ましい。
 この構成によれば、連写間隔が短い場合には仮撮像制御の回数が減るため、高速連写を実現できる。また、連写間隔が長い場合には、仮撮像制御の回数が増えるため、撮像条件の決定精度を向上させることができる。
 このように仮撮像制御の回数の上限値が制御されると、測光測距エリア60Aが複数選択されている場合には、仮撮像制御の回数が、選択中の測光測距エリア60Aの数よりも少なくなることが考えられる。
 例えば、測光測距エリア60Aが9つ全て選択されており、撮像制御に含まれる仮撮像制御の回数が2回に制限される場合を考える。
 この場合、撮像制御部11Aは、過去の本撮像時に焦点を合わせていた主要被写体の情報に基づいて、未実施の最新の本撮像において焦点を合わせるべき被写体が結像する受光面60の範囲を推定し、9つの測光測距エリア60Aのうち、少なくとも上記推定した範囲を含むものについては、この測光測距エリア60Aに対応させた仮撮像制御を行う。
 例えば、図10に示すように、撮像制御部11Aは、未実施の最新の本撮像を実施する前の時点で、この最新の本撮像の2回前の本撮像時に焦点を合わせていた主要被写体71の位置を、この2回前の本撮像で得られていた本撮像画像信号に基づいて検出する。
 また、撮像制御部11Aは、上記の最新の本撮像の1つ前の本撮像時に焦点を合わせていた主要被写体72の位置を、この1回前の本撮像で得られていた本撮像画像信号に基づいて検出する。
 そして、撮像制御部11Aは、主要被写体71の位置と主要被写体72の位置とに基づいて、上記の最新の本撮像時における焦点を合わせるべき主要被写体73の位置を予測する。
 そして、撮像制御部11Aは、上記の最新の本撮像の後に行う仮撮像制御として、この主要被写体73の位置を含む図10中の左下の測光測距エリア60Aに対応させた仮撮像制御を少なくとも実行する。
 なお、撮像制御部11Aは、上記の最新の本撮像の後に行う仮撮像制御として、この主要被写体72の位置を含む図10中の真ん中の測光測距エリア60Aに対応させた仮撮像制御と、主要被写体73の位置を含む図10中の左下の測光測距エリア60Aに対応させた仮撮像制御との2回の仮撮像制御を行ってもよい。
 この構成によれば、連写間隔が短くなって仮撮像制御の回数が制限される場合でも、主要被写体が結像されると予測される測光測距エリア60Aが適正露出となるような仮撮像を少なくとも実施することができ、少ない仮撮像回数であっても、上記の最新の本撮像の次の本撮像時の撮像条件の決定精度を高めることができる
 ここまでは撮像装置としてデジタルカメラを例にしたが、以下では、撮像装置としてカメラ付のスマートフォンの実施形態について説明する。
 図11は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。
 図11に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。
 また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。
 なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造又はスライド機構を有する構成を採用したりすることもできる。
 図12は、図11に示すスマートフォン200の構成を示すブロック図である。
 図12に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。
 また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータ等の送受信、又は、Webデータ又はストリーミングデータ等の受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像および動画像)又は文字情報等を表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等を表示デバイスとして用いたものである。
 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指又は尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図11に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさ等に応じて適宜設計されるものである。
 更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、又は、静電容量方式等が挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205又はマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。
 また、図11に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチ等を用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指等で押下されるとオンとなり、指を離すとバネ等の復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部212は、主制御部220の制御プログラム又は制御データ、アプリケーションソフトウェア、通信相手の名称又は電話番号等を対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ又は、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータ等を一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。
 なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)等の格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394等)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(登録商標)(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)等)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)又はSIM(Subscriber Identity Module Card)/UIM(User Identity Module
 Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホン等がある。
 外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達したり、スマートフォン200の内部のデータを外部機器に伝送したりする。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。
 GPS受信部214は、無線通信部210又は外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサ等を備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向又は加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラム又は制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。
 また、主制御部220は、無線通信部210を通じて、音声通信又はデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。
 アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、又は、ウェブページを閲覧するウェブブラウジング機能等がある。
 また、主制御部220は、受信データ又はダウンロードしたストリーミングデータ等の画像データ(静止画像又は動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。
 画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコン又はスクロールバー等のソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。
 なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像等について、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作又は、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域又はソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指等によって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記憶媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。
 カメラ部208によって生成された撮像画像データは、記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることができる。
 図11に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することができる。操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。
 また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断したり現在の使用環境を判断したりすることもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等を付加して記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることもできる。
 以上の説明では、撮像素子5がMOS型であるものとしたが、撮像素子5がCCD型であっても本発明を同様に適用可能である。
 以上のように、本明細書には以下の事項が開示されている。
(1) 一方向に配列された複数の画素からなる画素行が上記一方向と直交する方向に複数配列された受光面を含み、撮像光学系を通して被写体を撮像するセンサ部と、上記センサ部から出力される信号を記憶する記憶部とを有する撮像素子と、上記センサ部によって記憶用の本撮像を行い、上記本撮像によって上記複数の画素の各々に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる本撮像制御と、上記本撮像制御によって上記撮像信号が上記記憶部に記憶された後に、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を上記センサ部によって行い、上記仮撮像によって上記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる仮撮像制御と、を含む撮像制御を行う撮像制御部と、上記撮像制御によって上記記憶部に記憶された上記撮像信号を上記撮像素子から出力させる信号出力制御部と、上記本撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御部によって上記撮像素子から出力された第一の撮像信号と、上記仮撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御部によって上記撮像素子から出力された第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて、上記次の本撮像時の撮像条件を決定する撮像条件決定部と、を備え、上記信号出力制御部は、上記記憶部に記憶された上記第一の撮像信号を複数のグループに分けて上記グループ毎に順次、上記撮像素子から出力させ、上記撮像制御部は、少なくとも1つの上記グループに属する全ての撮像信号が上記撮像素子から出力されてから、全ての上記グループに属する全ての撮像信号が上記撮像素子から出力されるまでの期間に、上記仮撮像制御を行って上記センサ部により上記仮撮像を行う撮像装置。
(2) (1)記載の撮像装置であって、上記撮像制御部は、上記本撮像の前に上記センサ部により行われた撮像によって上記記憶部に記憶された撮像信号に基づいて上記仮撮像時における露光条件を決定する撮像装置。
(3) (2)記載の撮像装置であって、上記撮像制御を複数回連続して行う連写モードを有し、上記連写モード時には、上記撮像条件決定部は、上記本撮像の前に行われた上記本撮像制御により上記記憶部に記憶された撮像信号、又は、上記本撮像の前に行われた上記仮撮像制御により上記記憶部に記憶された撮像信号のうちの少なくとも一方に基づいて、その本撮像の後に行われる上記仮撮像時における露光条件を決定する撮像装置。
(4) (1)~(3)のいずれか1つ記載の撮像装置であって、上記撮像制御は、上記本撮像制御と、複数回の上記仮撮像制御とを含む撮像装置。
(5) (4)記載の撮像装置であって、上記複数回の上記仮撮像制御は、上記仮撮像時における露光条件がそれぞれ異なる撮像装置。
(6) (4)記載の撮像装置であって、上記複数回の上記仮撮像制御のうちの少なくとも2回の上記仮撮像制御時における上記仮撮像時の露光条件は同じである撮像装置。
(7) (4)~(6)のいずれか1つ記載の撮像装置であって、上記撮像制御部は、上記受光面に設定される上記撮像条件の決定に用いるための複数のエリアの中から選択された選択エリアが複数である場合に、上記複数の上記選択エリアの各々に対応させて少なくとも1回の上記仮撮像制御を行う撮像装置。
(8) (7)記載の撮像装置であって、上記撮像制御部は、上記選択エリアに対応させて行う上記仮撮像制御の上記仮撮像時の露光条件を、その選択エリアの露出値が予め決められた露出値となる露光条件に設定する撮像装置。
(9) (7)又は(8)記載の撮像装置であって、上記撮像制御を複数回連続して行う連写モードを有し、上記撮像制御部は、上記連写モードにおいて連続して行われる2つの上記本撮像の間隔の設定値が大きいほど、上記本撮像制御に続けて行う上記複数回の上記仮撮像制御の実施回数の上限値を大きく設定する撮像装置。
(10) (9)記載の撮像装置であって、上記撮像制御部は、上記選択エリアの数が上記上限値よりも大きい場合には、上記連写モード中の撮像指示に応じて実施された過去の上記本撮像時に焦点を合わせていた被写体の情報に基づいて、未実施の最新の上記本撮像において焦点を合わせるべき被写体が結像する上記受光面の範囲を推定し、上記選択エリアのうち、少なくとも上記推定した範囲を含む上記選択エリアについてはその選択エリアに対応する上記仮撮像制御を行う撮像装置。
(11) (1)~(10)のいずれか1つ記載の撮像装置であって、上記撮像条件決定部は、上記第一の撮像信号と上記第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて撮像中の被写体の明るさを算出し、上記明るさに基づいて上記次の本撮像時の露出値を上記撮像条件として決定する撮像装置。
(12) (1)~(11)のいずれか1つ記載の撮像装置であって、上記一部の画素は、位相差検出用画素を含み、上記撮像条件決定部は、上記第一の撮像信号と上記第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいてデフォーカス量を算出し、上記デフォーカス量に基づいて上記次の本撮像時の上記撮像光学系の合焦位置を上記撮像条件として決定する撮像装置。
(13) 一方向に配列された複数の画素からなる画素行が上記一方向と直交する方向に複数配列された受光面を含み、撮像光学系を通して被写体を撮像するセンサ部と、上記センサ部から出力される信号を記憶する記憶部とを有する撮像素子とを用いた撮像方法であって、上記センサ部によって記憶用の本撮像を行い、上記本撮像によって上記複数の画素の各々に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる本撮像制御と、上記本撮像制御によって上記撮像信号が上記記憶部に記憶された後に、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を上記センサ部によって行い、上記仮撮像によって上記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を上記センサ部から出力させる仮撮像制御と、を含む撮像制御を行う撮像制御ステップと、上記撮像制御によって上記記憶部に記憶された上記撮像信号を上記撮像素子から出力させる信号出力制御ステップと、上記本撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第一の撮像信号と、上記仮撮像制御によって上記センサ部から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて、上記次の本撮像時の撮像条件を決定する撮像条件決定ステップと、を備え、上記信号出力制御ステップでは、上記記憶部に記憶された上記第一の撮像信号を複数のグループに分けて上記グループ毎に順次上記撮像素子から出力させ、上記撮像制御ステップでは、少なくとも1つの上記グループに属する全ての撮像信号が上記撮像素子から出力されてから、全ての上記グループに属する全ての撮像信号が上記撮像素子から出力されるまでの期間に、上記仮撮像制御を行って上記センサ部により上記仮撮像を行う撮像方法。
(14) (13)記載の撮像方法であって、上記撮像制御ステップでは、上記本撮像の前に上記センサ部により行われた撮像によって上記記憶部に記憶された撮像信号に基づいて上記仮撮像時における露光条件を決定する撮像方法。
(15) (14)記載の撮像方法であって、上記撮像制御が複数回連続して行われる場合に、上記撮像条件決定ステップでは、上記本撮像の前に行われた上記本撮像制御により上記記憶部に記憶された撮像信号、又は、上記本撮像の前に行われた上記仮撮像制御により上記記憶部に記憶された撮像信号のうちの少なくとも一方に基づいて、その本撮像の後に行われる上記仮撮像時における露光条件を決定する撮像方法。
(16) (13)~(15)のいずれか1つ記載の撮像方法であって、上記撮像制御は、上記本撮像制御と、複数回の上記仮撮像制御とを含む撮像方法。
(17) (16)記載の撮像方法であって、上記複数回の上記仮撮像制御は、上記仮撮像時における露光条件がそれぞれ異なる撮像方法。
(18) (16)記載の撮像方法であって、上記複数回の上記仮撮像制御のうちの少なくとも2回の上記仮撮像制御時における上記仮撮像時の露光条件は同じである撮像方法。
(19) (16)~(18)のいずれか1つ記載の撮像方法であって、上記撮像制御ステップでは、上記受光面に設定される上記撮像条件の決定に用いるための複数のエリアの中から選択された選択エリアが複数である場合に、上記複数の上記選択エリアの各々に対応させて少なくとも1回の上記仮撮像制御を行う撮像方法。
(20) (19)記載の撮像方法であって、上記撮像制御ステップでは、上記選択エリアに対応させて行う上記仮撮像制御の上記仮撮像時の露光条件を、その選択エリアの露出値が予め決められた露出値となる露光条件に設定する撮像方法。
(21) (19)又は(20)記載の撮像方法であって、上記撮像制御ステップでは、上記撮像制御を複数回連続して行う場合に、連続する2つの上記本撮像の間隔の設定値が大きいほど、上記本撮像制御に続けて行う上記複数回の上記仮撮像制御の実施回数の上限値を大きく設定する撮像方法。
(22) (21)記載の撮像方法であって、上記撮像制御ステップでは、上記選択エリアの数が上記上限値よりも大きい場合には、上記複数回の本撮像のうちの過去の上記本撮像時に焦点を合わせていた被写体の情報に基づいて、未実施の最新の上記本撮像において焦点を合わせるべき被写体が結像する上記受光面の範囲を推定し、上記選択エリアのうち、少なくとも上記推定した範囲を含む上記選択エリアについてはその選択エリアに対応する上記仮撮像制御を行う撮像方法。
(23) (13)~(22)のいずれか1つ記載の撮像方法であって、上記撮像条件決定ステップでは、上記第一の撮像信号と上記第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて撮像中の被写体の明るさを算出し、上記明るさに基づいて上記次の本撮像時の露出値を上記撮像条件として決定する撮像方法。
(24) (13)~(23)のいずれか1つ記載の撮像方法であって、上記一部の画素は、位相差検出用画素を含み、上記撮像条件決定ステップでは、上記第一の撮像信号と上記第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいてデフォーカス量を算出し、上記デフォーカス量に基づいて上記次の本撮像時の上記撮像光学系の合焦位置を上記撮像条件として決定する撮像方法。
(25) 一方向に配列された複数の画素からなる画素行が上記一方向と直交する方向に複数配列された受光面と、上記複数の画素から読み出された信号を記憶する記憶部とを有し、撮像光学系を通して被写体を撮像する撮像素子とを用いて被写体を撮像する撮像プログラムであって、上記撮像素子によって記憶用の本撮像を行い、上記本撮像によって上記複数の画素の各々に蓄積された電荷に応じた撮像信号を読み出す本撮像制御と、上記本撮像制御によって上記撮像信号が上記記憶部に記憶された後に、上記本撮像とは異なる露光条件で、上記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を上記撮像素子によって行い、上記仮撮像によって上記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を読み出す仮撮像制御と、を含む撮像制御を行う撮像制御ステップと、上記撮像制御によって上記記憶部に記憶された上記撮像信号を上記撮像素子から出力させる信号出力制御ステップと、上記本撮像制御によって上記複数の画素から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第一の撮像信号と、上記仮撮像制御によって上記一部の画素から出力されて上記記憶部に記憶され、上記信号出力制御ステップによって上記撮像素子から出力された第二の撮像信号のうちの少なくとも上記第二の撮像信号に基づいて、上記次の本撮像時の撮像条件を決定する撮像条件決定ステップと、をコンピュータに実行させるためのプログラムであり、上記信号出力制御ステップでは、上記記憶部に記憶された上記第一の撮像信号を複数のグループに分けて上記グループ毎に順次上記撮像素子から出力させ、上記撮像制御ステップでは、少なくとも1つの上記グループに属する全ての撮像信号が上記撮像素子から出力されてから、全ての上記グループに属する全ての撮像信号が上記撮像素子から出力されるまでの期間に、上記仮撮像制御を行って上記撮像素子により上記仮撮像を行う撮像プログラム。
 本発明によれば、記憶用の撮像を連続して行う場合に、撮像間隔の短縮と撮像品質の向上とを両立させることができる。
 以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
 本出願は、2016年9月16日出願の日本特許出願(特願2016-181517)に基づくものであり、その内容はここに取り込まれる。
1 撮像レンズ
2 絞り
4 レンズ制御部
5 撮像素子
40 レンズ装置
51 センサ部
60 受光面
60A 測光測距エリア
61 画素
62 画素行
63 駆動回路
64 信号処理回路
X 行方向
Y 列方向
F1~F4 フィールド
52 記憶部
71~73 主要被写体
8 レンズ駆動部
9 絞り駆動部
10 センサ駆動部
11 システム制御部
11A 撮像制御部
11B 信号出力制御部
11C 撮像条件決定部
14 操作部
17 デジタル信号処理部
20 外部メモリ制御部
21 記憶媒体
22 表示制御部
23 表示部
24 制御バス
25 データバス
R1~R4 リセットタイミングを示す直線
O1~O4 露光終了タイミングを示す直線
f1a、f2a、f3a、f4a、f1b、f1c、f1d 記憶部からの信号の出力タイミングを示す直線
Ta、Tb、Tc、Td 露光時間
200 スマートフォン
201 筐体
202 表示パネル
203 操作パネル
204 表示入力部
205 スピーカ
206 マイクロホン
207 操作部
208 カメラ部
210 無線通信部
211 通話部
212 記憶部
213 外部入出力部
214 GPS受信部
215 モーションセンサ部
216 電源部
217 内部記憶部
218 外部記憶部
220 主制御部
ST1~STn GPS衛星

Claims (25)

  1.  一方向に配列された複数の画素からなる画素行が前記一方向と直交する方向に複数配列された受光面を含み、撮像光学系を通して被写体を撮像するセンサ部と、前記センサ部から出力される信号を記憶する記憶部とを有する撮像素子と、
     前記センサ部によって記憶用の本撮像を行い、前記本撮像によって前記複数の画素の各々に蓄積された電荷に応じた撮像信号を前記センサ部から出力させる本撮像制御と、前記本撮像制御によって前記撮像信号が前記記憶部に記憶された後に、前記本撮像とは異なる露光条件で、前記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を前記センサ部によって行い、前記仮撮像によって前記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を前記センサ部から出力させる仮撮像制御と、を含む撮像制御を行う撮像制御部と、
     前記撮像制御によって前記記憶部に記憶された前記撮像信号を前記撮像素子から出力させる信号出力制御部と、
     前記本撮像制御によって前記センサ部から出力されて前記記憶部に記憶され、前記信号出力制御部によって前記撮像素子から出力された第一の撮像信号と、前記仮撮像制御によって前記センサ部から出力されて前記記憶部に記憶され、前記信号出力制御部によって前記撮像素子から出力された第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいて、前記次の本撮像時の撮像条件を決定する撮像条件決定部と、を備え、
     前記信号出力制御部は、前記記憶部に記憶された前記第一の撮像信号を複数のグループに分けて前記グループ毎に順次、前記撮像素子から出力させ、
     前記撮像制御部は、少なくとも1つの前記グループに属する全ての撮像信号が前記撮像素子から出力されてから、全ての前記グループに属する全ての撮像信号が前記撮像素子から出力されるまでの期間に、前記仮撮像制御を行って前記センサ部により前記仮撮像を行う撮像装置。
  2.  請求項1記載の撮像装置であって、
     前記撮像制御部は、前記本撮像の前に前記センサ部により行われた撮像によって前記記憶部に記憶された撮像信号に基づいて前記仮撮像時における露光条件を決定する撮像装置。
  3.  請求項2記載の撮像装置であって、
     前記撮像制御を複数回連続して行う連写モードを有し、
     前記連写モード時には、前記撮像条件決定部は、前記本撮像の前に行われた前記本撮像制御により前記記憶部に記憶された撮像信号、又は、前記本撮像の前に行われた前記仮撮像制御により前記記憶部に記憶された撮像信号のうちの少なくとも一方に基づいて、当該本撮像の後に行われる前記仮撮像時における露光条件を決定する撮像装置。
  4.  請求項1~3のいずれか1項記載の撮像装置であって、
     前記撮像制御は、前記本撮像制御と、複数回の前記仮撮像制御とを含む撮像装置。
  5.  請求項4記載の撮像装置であって、
     前記複数回の前記仮撮像制御は、前記仮撮像時における露光条件がそれぞれ異なる撮像装置。
  6.  請求項4記載の撮像装置であって、
     前記複数回の前記仮撮像制御のうちの少なくとも2回の前記仮撮像制御時における前記仮撮像時の露光条件は同じである撮像装置。
  7.  請求項4~6のいずれか1項記載の撮像装置であって、
     前記撮像制御部は、前記受光面に設定される前記撮像条件の決定に用いるための複数のエリアの中から選択された選択エリアが複数である場合に、前記複数の前記選択エリアの各々に対応させて少なくとも1回の前記仮撮像制御を行う撮像装置。
  8.  請求項7記載の撮像装置であって、
     前記撮像制御部は、前記選択エリアに対応させて行う前記仮撮像制御の前記仮撮像時の露光条件を、当該選択エリアの露出値が予め決められた露出値となる露光条件に設定する撮像装置。
  9.  請求項7又は8記載の撮像装置であって、
     前記撮像制御を複数回連続して行う連写モードを有し、
     前記撮像制御部は、前記連写モードにおいて連続して行われる2つの前記本撮像の間隔の設定値が大きいほど、前記本撮像制御に続けて行う前記複数回の前記仮撮像制御の実施回数の上限値を大きく設定する撮像装置。
  10.  請求項9記載の撮像装置であって、
     前記撮像制御部は、前記選択エリアの数が前記上限値よりも大きい場合には、前記連写モード中の撮像指示に応じて実施された過去の前記本撮像時に焦点を合わせていた被写体の情報に基づいて、未実施の最新の前記本撮像において焦点を合わせるべき被写体が結像する前記受光面の範囲を推定し、前記選択エリアのうち、少なくとも前記推定した範囲を含む前記選択エリアについては当該選択エリアに対応する前記仮撮像制御を行う撮像装置。
  11.  請求項1~10のいずれか1項記載の撮像装置であって、
     前記撮像条件決定部は、前記第一の撮像信号と前記第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいて撮像中の被写体の明るさを算出し、前記明るさに基づいて前記次の本撮像時の露出値を前記撮像条件として決定する撮像装置。
  12.  請求項1~11のいずれか1項記載の撮像装置であって、
     前記一部の画素は、位相差検出用画素を含み、
     前記撮像条件決定部は、前記第一の撮像信号と前記第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいてデフォーカス量を算出し、前記デフォーカス量に基づいて前記次の本撮像時の前記撮像光学系の合焦位置を前記撮像条件として決定する撮像装置。
  13.  一方向に配列された複数の画素からなる画素行が前記一方向と直交する方向に複数配列された受光面を含み、撮像光学系を通して被写体を撮像するセンサ部と、前記センサ部から出力される信号を記憶する記憶部とを有する撮像素子とを用いた撮像方法であって、
     前記センサ部によって記憶用の本撮像を行い、前記本撮像によって前記複数の画素の各々に蓄積された電荷に応じた撮像信号を前記センサ部から出力させる本撮像制御と、前記本撮像制御によって前記撮像信号が前記記憶部に記憶された後に、前記本撮像とは異なる露光条件で、前記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を前記センサ部によって行い、前記仮撮像によって前記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を前記センサ部から出力させる仮撮像制御と、を含む撮像制御を行う撮像制御ステップと、
     前記撮像制御によって前記記憶部に記憶された前記撮像信号を前記撮像素子から出力させる信号出力制御ステップと、
     前記本撮像制御によって前記センサ部から出力されて前記記憶部に記憶され、前記信号出力制御ステップによって前記撮像素子から出力された第一の撮像信号と、前記仮撮像制御によって前記センサ部から出力されて前記記憶部に記憶され、前記信号出力制御ステップによって前記撮像素子から出力された第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいて、前記次の本撮像時の撮像条件を決定する撮像条件決定ステップと、を備え、
     前記信号出力制御ステップでは、前記記憶部に記憶された前記第一の撮像信号を複数のグループに分けて前記グループ毎に順次前記撮像素子から出力させ、
     前記撮像制御ステップでは、少なくとも1つの前記グループに属する全ての撮像信号が前記撮像素子から出力されてから、全ての前記グループに属する全ての撮像信号が前記撮像素子から出力されるまでの期間に、前記仮撮像制御を行って前記センサ部により前記仮撮像を行う撮像方法。
  14.  請求項13記載の撮像方法であって、
     前記撮像制御ステップでは、前記本撮像の前に前記センサ部により行われた撮像によって前記記憶部に記憶された撮像信号に基づいて前記仮撮像時における露光条件を決定する撮像方法。
  15.  請求項14記載の撮像方法であって、
     前記撮像制御が複数回連続して行われる場合に、前記撮像条件決定ステップでは、前記本撮像の前に行われた前記本撮像制御により前記記憶部に記憶された撮像信号、又は、前記本撮像の前に行われた前記仮撮像制御により前記記憶部に記憶された撮像信号のうちの少なくとも一方に基づいて、当該本撮像の後に行われる前記仮撮像時における露光条件を決定する撮像方法。
  16.  請求項13~15のいずれか1項記載の撮像方法であって、
     前記撮像制御は、前記本撮像制御と、複数回の前記仮撮像制御とを含む撮像方法。
  17.  請求項16記載の撮像方法であって、
     前記複数回の前記仮撮像制御は、前記仮撮像時における露光条件がそれぞれ異なる撮像方法。
  18.  請求項16記載の撮像方法であって、
     前記複数回の前記仮撮像制御のうちの少なくとも2回の前記仮撮像制御時における前記仮撮像時の露光条件は同じである撮像方法。
  19.  請求項16~18のいずれか1項記載の撮像方法であって、
     前記撮像制御ステップでは、前記受光面に設定される前記撮像条件の決定に用いるための複数のエリアの中から選択された選択エリアが複数である場合に、前記複数の前記選択エリアの各々に対応させて少なくとも1回の前記仮撮像制御を行う撮像方法。
  20.  請求項19記載の撮像方法であって、
     前記撮像制御ステップでは、前記選択エリアに対応させて行う前記仮撮像制御の前記仮撮像時の露光条件を、当該選択エリアの露出値が予め決められた露出値となる露光条件に設定する撮像方法。
  21.  請求項19又は20記載の撮像方法であって、
     前記撮像制御ステップでは、前記撮像制御を複数回連続して行う場合に、連続する2つの前記本撮像の間隔の設定値が大きいほど、前記本撮像制御に続けて行う前記複数回の前記仮撮像制御の実施回数の上限値を大きく設定する撮像方法。
  22.  請求項21記載の撮像方法であって、
     前記撮像制御ステップでは、前記選択エリアの数が前記上限値よりも大きい場合には、前記複数回の本撮像のうちの過去の前記本撮像時に焦点を合わせていた被写体の情報に基づいて、未実施の最新の前記本撮像において焦点を合わせるべき被写体が結像する前記受光面の範囲を推定し、前記選択エリアのうち、少なくとも前記推定した範囲を含む前記選択エリアについては当該選択エリアに対応する前記仮撮像制御を行う撮像方法。
  23.  請求項13~22のいずれか1項記載の撮像方法であって、
     前記撮像条件決定ステップでは、前記第一の撮像信号と前記第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいて撮像中の被写体の明るさを算出し、前記明るさに基づいて前記次の本撮像時の露出値を前記撮像条件として決定する撮像方法。
  24.  請求項13~23のいずれか1項記載の撮像方法であって、
     前記一部の画素は、位相差検出用画素を含み、
     前記撮像条件決定ステップでは、前記第一の撮像信号と前記第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいてデフォーカス量を算出し、前記デフォーカス量に基づいて前記次の本撮像時の前記撮像光学系の合焦位置を前記撮像条件として決定する撮像方法。
  25.  一方向に配列された複数の画素からなる画素行が前記一方向と直交する方向に複数配列された受光面と、前記複数の画素から読み出された信号を記憶する記憶部とを有し、撮像光学系を通して被写体を撮像する撮像素子とを用いて被写体を撮像する撮像プログラムであって、
     前記撮像素子によって記憶用の本撮像を行い、前記本撮像によって前記複数の画素の各々に蓄積された電荷に応じた撮像信号を読み出す本撮像制御と、前記本撮像制御によって前記撮像信号が前記記憶部に記憶された後に、前記本撮像とは異なる露光条件で、前記本撮像の次の本撮像時の撮像条件を決定するための仮撮像を前記撮像素子によって行い、前記仮撮像によって前記複数の画素の一部の画素に蓄積された電荷に応じた撮像信号を読み出す仮撮像制御と、を含む撮像制御を行う撮像制御ステップと、
     前記撮像制御によって前記記憶部に記憶された前記撮像信号を前記撮像素子から出力させる信号出力制御ステップと、
     前記本撮像制御によって前記複数の画素から出力されて前記記憶部に記憶され、前記信号出力制御ステップによって前記撮像素子から出力された第一の撮像信号と、前記仮撮像制御によって前記一部の画素から出力されて前記記憶部に記憶され、前記信号出力制御ステップによって前記撮像素子から出力された第二の撮像信号のうちの少なくとも前記第二の撮像信号に基づいて、前記次の本撮像時の撮像条件を決定する撮像条件決定ステップと、をコンピュータに実行させるためのプログラムであり、
     前記信号出力制御ステップでは、前記記憶部に記憶された前記第一の撮像信号を複数のグループに分けて前記グループ毎に順次前記撮像素子から出力させ、
     前記撮像制御ステップでは、少なくとも1つの前記グループに属する全ての撮像信号が前記撮像素子から出力されてから、全ての前記グループに属する全ての撮像信号が前記撮像素子から出力されるまでの期間に、前記仮撮像制御を行って前記撮像素子により前記仮撮像を行う撮像プログラム。
PCT/JP2017/029198 2016-09-16 2017-08-10 撮像装置、撮像方法、撮像プログラム WO2018051699A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018539573A JP6467116B2 (ja) 2016-09-16 2017-08-10 撮像装置、撮像方法、撮像プログラム
CN201780056809.8A CN109716752B (zh) 2016-09-16 2017-08-10 摄像装置、摄像方法、存储介质
US16/355,092 US10939056B2 (en) 2016-09-16 2019-03-15 Imaging apparatus, imaging method, imaging program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-181517 2016-09-16
JP2016181517 2016-09-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/355,092 Continuation US10939056B2 (en) 2016-09-16 2019-03-15 Imaging apparatus, imaging method, imaging program

Publications (1)

Publication Number Publication Date
WO2018051699A1 true WO2018051699A1 (ja) 2018-03-22

Family

ID=61619554

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029198 WO2018051699A1 (ja) 2016-09-16 2017-08-10 撮像装置、撮像方法、撮像プログラム

Country Status (4)

Country Link
US (1) US10939056B2 (ja)
JP (2) JP6467116B2 (ja)
CN (1) CN109716752B (ja)
WO (1) WO2018051699A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095156A (ja) * 2018-12-12 2020-06-18 キヤノン株式会社 撮像装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7511387B2 (ja) 2020-06-01 2024-07-05 キヤノン株式会社 撮像装置、制御方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112095A (ja) * 2000-09-29 2002-04-12 Minolta Co Ltd デジタルスチルカメラ
JP2005117192A (ja) * 2003-10-03 2005-04-28 Matsushita Electric Ind Co Ltd 固体撮像装置の駆動方法およびこれを備えたカメラ
JP2010200177A (ja) * 2009-02-26 2010-09-09 Olympus Corp 撮像装置及び画像処理プログラム
JP2012147187A (ja) * 2011-01-11 2012-08-02 Olympus Imaging Corp 撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4254805B2 (ja) * 2005-08-31 2009-04-15 カシオ計算機株式会社 デジタルカメラ、プログラム
JP4908067B2 (ja) 2006-06-01 2012-04-04 オリンパス株式会社 固体撮像装置及びそれを用いた撮像装置システム
JP2008052246A (ja) * 2006-07-28 2008-03-06 Olympus Imaging Corp デジタルカメラ
JP5152260B2 (ja) 2010-06-28 2013-02-27 株式会社ニコン 撮像装置
EP2640056A4 (en) * 2010-11-08 2015-07-15 Panasonic Ip Man Co Ltd IMAGE FORMING DEVICE, IMAGE FORMING METHOD, PROGRAM, AND INTEGRATED CIRCUIT
TWI444753B (zh) * 2010-11-16 2014-07-11 Altek Corp 影像擷取裝置及其曝光時間調整方法
TWI435599B (zh) * 2010-12-31 2014-04-21 Altek Corp 影像擷取裝置及其影像擷取方法
JP5835996B2 (ja) * 2011-08-08 2015-12-24 オリンパス株式会社 撮像装置
JP2015175641A (ja) * 2014-03-13 2015-10-05 富士フイルム株式会社 撮影システム及び撮影方法
JP2015176114A (ja) 2014-03-18 2015-10-05 ソニー株式会社 撮像装置および撮像装置の制御方法
JP6460653B2 (ja) 2014-06-11 2019-01-30 オリンパス株式会社 画像処理装置、それを備えた撮像装置、画像処理方法、及び画像処理プログラム
JP2016018033A (ja) * 2014-07-07 2016-02-01 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP2016096459A (ja) * 2014-11-14 2016-05-26 三星電子株式会社Samsung Electronics Co.,Ltd. 撮像装置及び撮像方法
CN105407276A (zh) * 2015-11-03 2016-03-16 北京旷视科技有限公司 拍照方法和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112095A (ja) * 2000-09-29 2002-04-12 Minolta Co Ltd デジタルスチルカメラ
JP2005117192A (ja) * 2003-10-03 2005-04-28 Matsushita Electric Ind Co Ltd 固体撮像装置の駆動方法およびこれを備えたカメラ
JP2010200177A (ja) * 2009-02-26 2010-09-09 Olympus Corp 撮像装置及び画像処理プログラム
JP2012147187A (ja) * 2011-01-11 2012-08-02 Olympus Imaging Corp 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095156A (ja) * 2018-12-12 2020-06-18 キヤノン株式会社 撮像装置
JP7246176B2 (ja) 2018-12-12 2023-03-27 キヤノン株式会社 撮像装置

Also Published As

Publication number Publication date
JP6467116B2 (ja) 2019-02-06
JP2019092168A (ja) 2019-06-13
CN109716752B (zh) 2020-11-24
US10939056B2 (en) 2021-03-02
JPWO2018051699A1 (ja) 2019-04-25
JP6697585B2 (ja) 2020-05-20
US20190214416A1 (en) 2019-07-11
CN109716752A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
US9288384B2 (en) Image device and focus control method
JP6573731B2 (ja) 撮像装置、撮像方法、及び、撮像プログラム
JP6031587B2 (ja) 撮像装置、信号処理方法、信号処理プログラム
US20160021299A1 (en) Imaging device and focus control method
JP6307526B2 (ja) 撮像装置及び合焦制御方法
JP6569022B2 (ja) 撮像装置、撮像方法、及び撮像プログラム
JP5990665B2 (ja) 撮像装置及び合焦制御方法
JP6462189B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
JP6697585B2 (ja) 撮像装置、撮像方法、撮像プログラム
JP6569025B2 (ja) 撮像装置、撮像方法、及び撮像プログラム
US10750105B2 (en) Imaging apparatus, operation method of imaging apparatus, and operation program of imaging apparatus
JP6569015B2 (ja) 撮像装置、撮像方法、及び、撮像プログラム
JP6928663B2 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
US10715737B2 (en) Imaging device, still image capturing method, and still image capturing program
US10778880B2 (en) Imaging device, imaging method, and imaging program
WO2019054017A1 (ja) 撮像制御装置、撮像装置、撮像制御方法、撮像制御プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018539573

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17850605

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17850605

Country of ref document: EP

Kind code of ref document: A1