WO2021241120A1 - 撮像装置及び撮像方法 - Google Patents

撮像装置及び撮像方法 Download PDF

Info

Publication number
WO2021241120A1
WO2021241120A1 PCT/JP2021/017017 JP2021017017W WO2021241120A1 WO 2021241120 A1 WO2021241120 A1 WO 2021241120A1 JP 2021017017 W JP2021017017 W JP 2021017017W WO 2021241120 A1 WO2021241120 A1 WO 2021241120A1
Authority
WO
WIPO (PCT)
Prior art keywords
threshold value
unit
photoelectric conversion
change
signal
Prior art date
Application number
PCT/JP2021/017017
Other languages
English (en)
French (fr)
Inventor
和俊 児玉
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2022527612A priority Critical patent/JPWO2021241120A1/ja
Priority to CN202180037011.5A priority patent/CN115699791A/zh
Priority to US17/998,678 priority patent/US20230179879A1/en
Publication of WO2021241120A1 publication Critical patent/WO2021241120A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/47Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • H04N25/633Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current by using optical black pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Definitions

  • This disclosure relates to an imaging device and an imaging method.
  • an asynchronous image pickup device called DVS (Dynamic Vision Sensor) has been proposed (see, for example, Patent Document 1).
  • DVS Dynamic Vision Sensor
  • the asynchronous image pickup device only when some event (for example, movement) occurs in the scene, the data of the portion where the brightness level is changed caused by the event is acquired. Therefore, the asynchronous image pickup device can acquire image data much faster than a general synchronous image pickup device that unnecessarily acquires all data of an image at a fixed frame rate.
  • DVS Since DVS has excellent sensitivity, it also reacts to changes in electrical signals due to noise from the photoelectric conversion element in the image pickup device, and may generate an event even in a scene where there is originally no movement. In addition, the power consumption of the DVS increases by generating a useless event that is originally necessary.
  • the present disclosure provides an imaging device and an imaging method that do not cause unnecessary events.
  • a photoelectric conversion unit having a plurality of photoelectric conversion elements for photoelectric conversion to generate an electric signal, and a photoelectric conversion unit.
  • a setting unit that sets a threshold value according to the noise level in a predetermined region among the plurality of photoelectric conversion elements, and a setting unit.
  • a first detection unit that detects a detection signal when the amount of change in the electric signal generated by the plurality of photoelectric conversion elements exceeds the threshold value.
  • the photoelectric conversion element in the predetermined region is shielded from light.
  • Each of the photoelectric conversion elements other than the predetermined region may perform photoelectric conversion of the incident light to generate an electric signal.
  • the plurality of photoelectric conversion elements are arranged in a two-dimensional matrix, and the light-shielded light-shielding region is at least the arrangement of the photoelectric conversion elements in rows and the arrangement of the photoelectric conversion elements in columns.
  • the light-shielded light-shielding region is at least the arrangement of the photoelectric conversion elements in rows and the arrangement of the photoelectric conversion elements in columns.
  • the arrangement of the photoelectric conversion elements in row units and the arrangement of the photoelectric conversion elements in column units may include the ends of the plurality of photoelectric conversion elements arranged in a two-dimensional matrix.
  • the setting unit may set the threshold value based on the number in which the absolute value of the change amount of the electric signal generated by the photoelectric conversion element in the predetermined region exceeds the threshold value in the predetermined period.
  • the first detection unit detects the first detection signal when the absolute value of the amount of change in the direction in which the signal level of the electric signal increases exceeds the first threshold value, and at the same time, the signal level of the electric signal decreases.
  • the second detection signal is detected when the absolute value of the amount of change in direction exceeds the second threshold value.
  • the setting unit is The first threshold value is set based on the number of absolute values of the amount of change in the direction in which the signal level of the electric signal generated by the electric conversion element in the predetermined region increases exceeds the first threshold value in a predetermined period.
  • the two threshold values are set based on the number in which the absolute value of the amount of change in the direction in which the signal level of the electric signal generated by the electric conversion element in the predetermined region decreases exceeds the second threshold value in the predetermined period. May be good.
  • the setting unit may set the threshold in a stepwise manner based on the number exceeding the threshold in the predetermined period.
  • the setting unit may reduce the rate of change of the threshold value over time.
  • the setting unit may reduce the rate of change of the threshold value and bring it closer to the initial setting.
  • the setting unit may reduce the rate of change and asymptotically approach the predetermined set value.
  • the setting unit does not have to change the threshold value when the number exceeding the threshold value is less than the predetermined value in the predetermined period.
  • the setting unit may set the threshold value according to the temperature corresponding to the plurality of photoelectric conversion elements.
  • the setting unit may increase the rate of change of the threshold value as the temperature change increases.
  • the first detection unit sequentially reads out the electric signal of the photoelectric conversion element in the predetermined region, and reads the electric signal in order.
  • the setting unit may count the number of the detected signals exceeding the threshold value over a predetermined period.
  • a threshold value is set according to the noise level of the light-shielded photoelectric conversion element.
  • an imaging method in which a detection signal is detected when the absolute value of the change amount of the electric signal generated by a plurality of photoelectric conversion elements, each of which photoelectrically converts incident light to generate an electric signal, exceeds the threshold value. Will be done.
  • the block diagram which shows an example of the structure of the image pickup apparatus which concerns on the 1st structure example of this disclosure.
  • the block diagram which shows an example of the structure of a pixel array part. A circuit diagram showing an example of a pixel circuit configuration.
  • the block diagram which shows the 1st configuration example of the address event detection part.
  • the circuit diagram which shows an example of the structure of a subtractor and a quantizer in an address event detection part.
  • the block diagram which shows the 2nd configuration example of the address event detection part The block diagram which shows the 2nd configuration example of the address event detection part of a light-shielding pixel.
  • the flowchart which shows the processing example of the threshold value control part The flowchart which shows the processing example of the threshold value control part in parallel processing.
  • FIG. 5 is a flowchart showing a processing example of step S1000 of FIGS.
  • the figure which shows typically the processing example shown in FIG. The figure which shows the processing example which performed 3 cycles of the processing shown in FIG.
  • a flowchart showing an example of changing the threshold value step by step The figure which shows typically the processing example shown in FIG. 23.
  • the flowchart which shows the example which changes the 1st threshold value step by step The figure which shows typically the example of changing the 1st threshold value stepwise.
  • the flowchart which shows the example which changes the 2nd threshold value step by step The figure which shows typically the example of changing the 2nd threshold value stepwise.
  • a flowchart showing an example in which a dead zone is provided.
  • the block diagram which shows the schematic configuration example of the vehicle control system which is an example of the mobile body control system to which the technique which concerns on this disclosure can be applied.
  • FIG. 1 is a block diagram showing an example of a system configuration of an imaging system to which the technique according to the present disclosure is applied.
  • the image pickup system 10 to which the technique according to the present disclosure is applied is configured to include an image pickup lens 11, a recording unit 12, a control unit 13, and an image pickup device 20.
  • the image pickup system 10 is an example of the electronic device of the present disclosure, and examples of the electronic device include a camera system mounted on an industrial robot, an in-vehicle camera system, and the like.
  • the image pickup lens 11 captures incident light from the subject and forms an image on the image pickup surface of the image pickup apparatus 20.
  • the image pickup apparatus 20 obtains image pickup data by photoelectrically converting the incident light captured by the image pickup lens 11 on a pixel-by-pixel basis.
  • the image pickup device 20 the image pickup device of the present disclosure described later is used.
  • the image pickup apparatus 20 executes predetermined signal processing such as image recognition processing on the captured image data, and the processing result and the detection signal of an address event described later (hereinafter, simply referred to as “detection signal”).
  • detection signal The data indicating that there is) is output to the recording unit 12.
  • the method of generating the detection signal of the address event will be described later.
  • the recording unit 12 stores data supplied from the image pickup apparatus 20 via the signal line 14.
  • the control unit 13 is configured by, for example, a microcomputer and controls the image pickup operation in the image pickup apparatus 20.
  • FIG. 2 is a block diagram showing an example of the configuration of the image pickup device according to the first configuration example used as the image pickup device 20 in the image pickup system 10 to which the technique according to the present disclosure is applied.
  • the image pickup apparatus 20 is an asynchronous image pickup apparatus called DVS, and is a pixel array unit 21, a drive unit 22, and an arbiter unit (arbitration unit). ) 23, a column processing unit 24, a signal processing unit 25, and a setting unit 26. Further, the setting unit 26 has a counting unit 26a and a threshold value control unit 26b.
  • a plurality of pixels 30 are two-dimensionally arranged in a matrix (array shape) in the pixel array unit 21.
  • a vertical signal line VSL which will be described later, is wired for each pixel sequence with respect to this matrix-shaped pixel array.
  • Each of the plurality of pixels 30 generates an analog signal having a voltage corresponding to the photocurrent as a pixel signal. Further, each of the plurality of pixels 30 detects the presence or absence of an address event depending on whether or not the amount of change in the photocurrent exceeds a predetermined threshold value. Then, when the address event occurs, the pixel 30 outputs the request to the arbiter unit 23.
  • the pixel array unit 21 is provided with a light-shielding region 21a that blocks light.
  • the pixel array unit 21 other than the light-shielding region 21a is provided with a light-receiving region 21b.
  • the light-shielding region 21a is provided, for example, corresponding to a plurality of row-based pixels 30 at the upper end portion. Alternatively, it may be provided corresponding to a plurality of pixels 30 in a column unit. As described above, the light-shielding region 21a is provided so as to cover the plurality of pixels 30 at at least one of the upper end portion, the lower end portion, the left end portion, and the right end portion of the pixel array portion 21.
  • the configuration of the pixel 30 in the light-shielding region 21a is the same as that of the pixel 30 other than the light-shielding region 21a, except that light is not incident.
  • the plurality of pixels 30 in the light-shielding region 21a detect the presence or absence of an address event, for example, depending on whether or not the amount of change in current due to dark noise exceeds a predetermined threshold value.
  • the pixel 30 in the light-shielding region 21a may be referred to as a light-shielding pixel 30.
  • the temperature sensor 21c acquires the temperature corresponding to the plurality of pixels 30 in the pixel array unit 21, and supplies a signal including the temperature information to the threshold control unit 26b of the setting unit 26.
  • the drive unit 22 drives each of the plurality of pixels 30 arranged in the light receiving region 21b other than the light shielding region 21a, and causes the column processing unit 24 to output the pixel signal generated by each pixel 30.
  • the arbiter unit 23 arbitrates the requests from each of the plurality of pixels 30, and transmits a response based on the arbitration result to the pixels 30.
  • the pixel 30 Upon receiving the response from the arbiter unit 23, the pixel 30 supplies a detection signal (address event detection signal) indicating the detection result to the drive unit 22 and the signal processing unit 25.
  • a detection signal address event detection signal
  • the reading of the detection signal from the pixel 30 it is also possible to read a plurality of lines.
  • the column processing unit 24 is composed of, for example, an analog-digital converter, and performs processing for converting an analog pixel signal output from the pixel 30 of the pixel array unit 21 into a digital signal for each pixel array. Then, the column processing unit 24 supplies the digital signal after the analog-to-digital conversion to the signal processing unit 25.
  • the signal processing unit 25 executes predetermined signal processing such as CDS (Correlated Double Sampleing) processing and image recognition processing on the digital signal supplied from the column processing unit 24. Then, the signal processing unit 25 supplies the data indicating the processing result and the detection signal supplied from the arbiter unit 23 to the recording unit 12 (see FIG. 1) via the signal line 14.
  • predetermined signal processing such as CDS (Correlated Double Sampleing) processing and image recognition processing
  • the setting unit 26 sets a threshold value for detecting the presence or absence of an address event.
  • the setting unit 26 sets a threshold value according to, for example, the noise level of a plurality of light-shielding pixels 30.
  • the counting unit 26a counts the address events generated by the light-shielding pixels 30.
  • the threshold control unit 26b sets a threshold value for detecting the presence or absence of an address event in the address event detection unit 33, which will be described later, according to the number of address events counted by the count unit 26a.
  • the threshold value control unit 26b has, for example, a register, and it is possible to set the threshold value of the address event and the threshold value of the number of occurrences of the address event by the register. The details of the threshold control unit 26b will be described later.
  • FIG. 3 is a block diagram showing an example of the configuration of the pixel array unit 21.
  • each of the plurality of pixels 30 has a light receiving unit 31, a pixel signal generation unit 32, and an address event detection unit 33. ing.
  • the light receiving portion 31 of the light receiving region 21b photoelectrically converts the incident light to generate a photocurrent. Then, the light receiving unit 31 supplies the photocurrent generated by photoelectric conversion to either the pixel signal generation unit 32 or the address event detection unit 33 under the control of the drive unit 22 (see FIG. 2).
  • the light receiving unit 31 of the light-shielding pixel outputs an output current corresponding to a noise component such as a dark current. Then, the light receiving unit 31 of the light-shielding pixel supplies a current corresponding to the noise component to the address event detection unit 33 under the control of the drive unit 22 (see FIG. 2).
  • the pixel signal generation unit 32 generates a signal having a voltage corresponding to the optical current supplied from the light receiving unit 31 of the light receiving region 21b as a pixel signal SIG, and the generated pixel signal SIG is used as a column via the vertical signal line VSL. It is supplied to the processing unit 24 (see FIG. 2).
  • the address event detection unit 33 detects the presence or absence of an address event depending on whether or not the amount of change in the photocurrent from each of the light receiving units 31 of the light receiving region 21b exceeds a predetermined threshold value.
  • Address events (hereinafter, may be simply referred to as "events") are, for example, an on-event indicating that the amount of change in photocurrent exceeds the first threshold value of the upper limit, and a second threshold value in which the amount of change is the lower limit. It consists of an off-event indicating that the amount has fallen below.
  • the address event detection signal is composed of, for example, one bit indicating an on-event detection result and one bit indicating an off-event detection result.
  • the address event detection unit 33 may be configured to detect only on-events.
  • the address event detection unit 33 of the light-shielding pixel detects the presence or absence of an address event depending on whether or not the amount of change in the output current output by each of the light-receiving units 31 of the light-shielding pixel exceeds a predetermined threshold value.
  • the address event includes, for example, an on event indicating that the amount of change in the output current exceeds the upper limit first threshold value, and an off event indicating that the amount of change has fallen below the lower limit second threshold value.
  • the address event detection signal is composed of, for example, one bit indicating an on-event detection result and one bit indicating an off-event detection result.
  • the address event detection unit 33 may be configured to detect only on-events or only off-events.
  • the address event detection unit 33 in the light receiving area 21b supplies a request for transmitting an address event detection signal to the arbiter unit 23 (see FIG. 2). Then, when the address event detection unit 33 receives the response to the request from the arbiter unit 23, the address event detection unit 33 supplies the address event detection signal to the drive unit 22 and the signal processing unit 25.
  • the address event detection unit 33 of the light-shielding pixel supplies the detection signal of the address event to the count unit 26a of the setting unit 26 when the address event occurs. Then, the count unit 26a counts the numbers of the on-event and the off-event, and supplies the count number to the threshold control unit 26b. With such a configuration, the address event detection unit 33 of the light-shielding pixel can supply the detection signal including the event information to the setting unit 26 by a route different from that of the address event detection unit 33 of the light receiving region 21b.
  • FIG. 4 is a circuit diagram showing an example of the circuit configuration of the pixel 30. As described above, each of the plurality of pixels 30 has a light receiving unit 31, a pixel signal generation unit 32, and an address event detection unit 33.
  • the light receiving unit 31 has a light receiving element (photoelectric conversion element) 311, a transfer transistor 312, and an OFG (Over Flow Gate) transistor 313.
  • a light receiving element photoelectric conversion element
  • a transfer transistor 312 As the transfer transistor 312 and the OFG transistor 313, for example, an N-type MOS (Metal Oxide Semiconductor) transistor is used.
  • the transfer transistor 312 and the OFG transistor 313 are connected in series with each other.
  • the light receiving element 311 of the light-shielded pixel generates a common connection node N 1 and is connected to ground, the charge amount of charge corresponding to the noise component of the transfer transistor 312 and OFG transistor 313.
  • the transfer transistor 312 of the light receiving element 311 of the light-shielding pixel is always in the OFF state, and the charge supply to the pixel signal generation unit 32 is stopped. Therefore, the light-shielding pixel 30 may be configured not to have the transfer transistor 312 and the pixel signal generation unit 32.
  • the transfer signal TRG is supplied from the drive unit 22 shown in FIG. 2 to the gate electrode of the transfer transistor 312 in the light receiving region 21b.
  • the transfer transistor 312 supplies the charge photoelectrically converted by the light receiving element 311 to the pixel signal generation unit 32 in response to the transfer signal TRG.
  • a control signal OFG is supplied from the drive unit 22 to the gate electrode of the OFG transistor 313.
  • the OFG transistor 313 supplies the electric signal generated by the light receiving element 311 to the address event detection unit 33 in response to the control signal OFG.
  • the electric signal supplied to the address event detection unit 33 is a photocurrent composed of electric charges.
  • the pixel signal generation unit 32 has a reset transistor 321, an amplification transistor 322, a selection transistor 323, and a stray diffusion layer 324.
  • a reset transistor 321, an amplification transistor 322, a selection transistor 323, and a stray diffusion layer 324 As the reset transistor 321 and the amplification transistor 322 and the selection transistor 323, for example, an N-type MOS transistor is used.
  • the pixel signal generation unit 32 is supplied with the electric charge converted photoelectric by the light receiving element 311 by the transfer transistor 312 from the light receiving unit 31.
  • the electric charge supplied from the light receiving unit 31 is accumulated in the floating diffusion layer 324.
  • the floating diffusion layer 324 generates a voltage signal having a voltage value according to the amount of accumulated charge. That is, the floating diffusion layer 324 converts the electric charge into a voltage.
  • the reset transistor 321 is connected between the power supply line of the power supply voltage VDD and the stray diffusion layer 324.
  • a reset signal RST is supplied from the drive unit 22 to the gate electrode of the reset transistor 321.
  • the reset transistor 321 initializes (reset) the charge amount of the floating diffusion layer 324 in response to the reset signal RST.
  • the amplification transistor 322 is connected in series with the selection transistor 323 between the power supply line of the power supply voltage VDD and the vertical signal line VSL.
  • the amplification transistor 322 amplifies the charge-voltage-converted voltage signal in the stray diffusion layer 324.
  • the selection signal SEL is supplied from the drive unit 22 to the gate electrode of the selection transistor 323.
  • the selection transistor 323 outputs the voltage signal amplified by the amplification transistor 322 as a pixel signal SIG to the column processing unit 24 (see FIG. 2) via the vertical signal line VSL.
  • the drive unit 22 is instructed by the control unit 13 shown in FIG. 1 to start detecting an address event in the light receiving region 21b.
  • the control signal OFG By supplying the control signal OFG to the OFG transistor 313 of the light receiving unit 31, the OFG transistor 313 is driven to supply the optical current to the address event detection unit 33.
  • the drive unit 22 supplies the control signal OFG to the OFG transistor 313 of the light-receiving unit 31 of the light-shielding pixel.
  • the OFG transistor 313 is driven to supply an output current to the address event detection unit 33.
  • the drive unit 22 turns off the OFG transistor 313 of the pixel 30 and stops the supply of the photocurrent to the address event detection unit 33.
  • the drive unit 22 drives the transfer transistor 312 by supplying the transfer signal TRG to the transfer transistor 312, and transfers the charge photoelectrically converted by the light receiving element 311 to the floating diffusion layer 324.
  • the shading pixel 30 is used only for detecting an address event.
  • the configuration of the pixel 30 illustrated here is an example, and is not limited to this configuration example.
  • the OFG transistor 313 may be omitted in the light receiving unit 31, and the transfer transistor 312 may have the function of the OFG transistor 313.
  • FIG. 5 is a block diagram showing a first configuration example of the address event detection unit 33 of the light receiving region 21b.
  • FIG. 6 is a block diagram showing a first configuration example of the address event detection unit 33 of the light-shielding pixel.
  • the address event detection unit 33 according to this configuration example has a current / voltage conversion unit 331, a buffer 332, a subtractor 333, a quantizer 334, and a transfer unit 335. There is.
  • the current-voltage conversion unit 331 converts the photocurrent from the light receiving unit 31 of the pixel 30 into a logarithmic voltage signal.
  • the current-voltage conversion unit 331 supplies the converted voltage signal to the buffer 332.
  • the buffer 332 buffers the voltage signal supplied from the current-voltage conversion unit 331 and supplies it to the subtractor 333.
  • a row drive signal is supplied to the subtractor 333 from the drive unit 22.
  • the subtractor 333 lowers the level of the voltage signal supplied from the buffer 332 according to the row drive signal. Then, the subtractor 333 supplies the voltage signal after the level drop to the quantizer 334.
  • the quantizer 334 quantizes the voltage signal supplied from the subtractor 333 into a digital signal and outputs it to the transfer unit 335 as an address event detection signal.
  • the transfer unit 335 of the light receiving region 21b transfers the detection signal of the address event supplied from the quantizer 334 to the arbiter unit 23 and the like.
  • the transfer unit 335 supplies a request for transmitting an address event detection signal to the arbiter unit 23.
  • the transfer unit 335 receives the response to the request from the arbiter unit 23, the transfer unit 335 supplies the detection signal of the address event to the drive unit 22 and the signal processing unit 25.
  • the light-shielding pixel transfer unit 335 transfers the address event detection signal supplied from the quantizer 334 to the setting unit 26.
  • FIG. 7 is a circuit diagram showing an example of the configuration of the current-voltage conversion unit 331 in the address event detection unit 33.
  • the current-voltage conversion unit 331 according to this example has a circuit configuration including an N-type transistor 3311, a P-type transistor 3312, and an N-type transistor 3313.
  • transistors 3311 to 3313 for example, MOS transistors are used.
  • the N-type transistor 3311 is connected between the power supply line of the power supply voltage VDD and the signal input line 3314.
  • the P-type transistor 3312 and the N-type transistor 3313 are connected in series between the power supply line of the power supply voltage VDD and the ground. Then, the common connection node N 2 of the P-type transistor 3312 and the N-type transistor 3313, the gate electrode of the N-type transistors 3311, 5, and an input terminal of the buffer 332 shown in FIG. 6 are connected.
  • a predetermined bias voltage V bias is applied to the gate electrode of the P-type transistor 3312.
  • the P-type transistor 3312 supplies a constant current to the N-type transistor 3313.
  • Photocurrent is input from the light receiving unit 31 to the gate electrode of the N-type transistor 3313 through the signal input line 3314.
  • the drain electrodes of the N-type transistor 3311 and the N-type transistor 3313 are connected to the power supply side, and such a circuit is called a source follower.
  • the photocurrent from the light receiving unit 31 is converted into a logarithmic voltage signal by these two source followers connected in a loop.
  • FIG. 8 is a circuit diagram showing an example of the configuration of the subtractor 333 and the quantizer 334 in the address event detection unit 33.
  • the subtractor 333 has a configuration including a capacitance element 3331, an inverter circuit 3332, a capacitance element 3333, and a switch element 3334.
  • One end of the capacitive element 3331 is connected to the output terminal of the buffer 332 shown in FIGS. 5 and 6, and the other end is connected to the input terminal of the inverter circuit 3332.
  • the capacitive element 3333 is connected in parallel to the inverter circuit 3332.
  • the switch element 3334 is connected between both ends of the capacitive element 3333.
  • a row drive signal is supplied from the drive unit 22 to the switch element 3334 as an open / close control signal.
  • the switch element 3334 opens and closes a path connecting both ends of the capacitive element 3333 according to the row drive signal.
  • the inverter circuit 3332 inverts the polarity of the voltage signal input via the capacitive element 3331.
  • the charge Q 2 stored in the capacitance element 3333 is expressed by the following equation (3), where the capacitance value of the capacitance element 3333 is C 2 and the output voltage is V out.
  • Q 2 -C 2 x V out ... (3)
  • Equation (5) represents the subtraction operation of the voltage signal, and the gain of the subtraction result is C 1 / C 2 . Since it is usually desired to maximize the gain, it is preferable to design C 1 to be large and C 2 to be small. On the other hand, if C 2 is too small, kTC noise may increase and noise characteristics may deteriorate . Therefore, the capacity reduction of C 2 is limited to the range in which noise can be tolerated. Further, since the address event detection unit 33 including the subtractor 333 is mounted on each pixel 30, the capacitive element 3331 and the capacitive element 3333 have an area limitation. In consideration of these, the capacitance values C 1 and C 2 of the capacitive elements 3331 and 3333 are determined.
  • the quantizer 334 is configured to have a comparator 3341.
  • the comparator 3341 has an output signal of the inverter circuit 3332, that is, a voltage signal from the subtractor 430 as a non-inverting (+) input, and a predetermined threshold voltage Vth as an inverting ( ⁇ ) input. Then, the comparator 3341 compares the voltage signal from the subtractor 430 with the predetermined threshold voltage Vth, and outputs a signal indicating the comparison result to the transfer unit 335 as an address event detection signal.
  • FIG. 9 is a block diagram showing a second configuration example of the address event detection unit 33 of the light receiving region 21b.
  • FIG. 10 is a block diagram showing a second configuration example of the address event detection unit 33 of the light-shielding pixel.
  • the address event detection unit 33 includes a current-voltage conversion unit 331, a buffer 332, a subtractor 333, a quantizer 334, and a transfer unit 335, in addition to the current-voltage conversion unit 331. It is configured to have a storage unit 336 and a control unit 337.
  • the storage unit 336 is provided between the quantizer 334 and the transfer unit 335, and based on the sample signal supplied from the control unit 337, the output of the quantizer 334, that is, the comparison result of the comparator 3341 is obtained. accumulate.
  • the storage unit 336 may be a sampling circuit such as a switch, plastic, or capacitance, or may be a digital memory circuit such as a latch or flip-flop.
  • the control unit 337 supplies a predetermined threshold voltage Vth to the inverted ( ⁇ ) input terminal of the comparator 3341 according to the control signal of the threshold control unit 26b of the setting unit 26.
  • the threshold voltage Vth supplied from the control unit 337 to the comparator 3341 may have different voltage values in time division.
  • the control unit 337 sets the threshold voltage Vth1 corresponding to the on-event indicating that the amount of change in the optical current exceeds the upper limit threshold value and the off-event indicating that the amount of change has fallen below the lower limit threshold value.
  • one comparator 3341 can detect a plurality of types of address events.
  • the storage unit 336 uses, for example, the threshold voltage V th1 corresponding to the on-event during the period in which the threshold voltage V th2 corresponding to the off-event is supplied from the control unit 337 to the inverting (-) input terminal of the comparator 3341.
  • the comparison result of the comparator 3341 that has been used may be accumulated.
  • the storage unit 336 may be inside the pixel 30 or outside the pixel 30. Further, the storage unit 336 is not an essential component of the address event detection unit 33. That is, the storage unit 336 may be omitted.
  • the image pickup device 20 according to the first configuration example described above is an asynchronous type image pickup device that reads out an event by an asynchronous type read-out method.
  • the event reading method is not limited to the asynchronous reading method, and may be a synchronous reading method.
  • the image pickup device to which the synchronous readout method is applied is a scan type image pickup device, which is the same as a normal image pickup device that performs image pickup at a predetermined frame rate.
  • FIG. 11 is a block diagram showing an example of the configuration of the image pickup device according to the second configuration example, that is, the scan type image pickup device, which is used as the image pickup device 20 in the image pickup system 10 to which the technique according to the present disclosure is applied. ..
  • the image pickup apparatus 20 includes a pixel array unit 21, a drive unit 22, a signal processing unit 25, a setting unit 26, a readout area selection unit 27, and a readout area selection unit 27. It is configured to include a signal generation unit 28.
  • the pixel array unit 21 includes a plurality of pixels 30.
  • the plurality of pixels 30 output an output signal in response to the selection signal of the read area selection unit 27.
  • Each of the plurality of pixels 30 may be configured to have a quantizer in the pixel, for example, as shown in FIG.
  • the plurality of pixels 30 output an output signal corresponding to the amount of change in light intensity. As shown in FIG. 11, the plurality of pixels 30 may be two-dimensionally arranged in a matrix.
  • the pixel array unit 21 is provided with a light-shielding region 21a for blocking light and a light-receiving region 21b other than the light-shielding region 21a.
  • the light-shielding region 21a corresponds to at least one of the arrangement of the plurality of pixels 30 in the row unit and the arrangement of the plurality of pixels 30 in the column unit. Further, the light-shielding region 21a is provided at least one of the upper end portion, the lower end portion, the left end portion, and the right end portion of the pixel array portion 21. As described above, the light-shielding region 21a is provided so as to cover the plurality of pixels 30 at the end of the pixel array portion 21.
  • the configuration of the pixel 30 in the light-shielding region 21a may be the same as that of the pixel 30 other than the light-receiving region 21b, except that light is not incident.
  • the plurality of pixels 30 in the light-shielding region 21a detect the presence or absence of an address event depending on whether or not the amount of change in current due to noise exceeds a predetermined threshold value.
  • the drive unit 22 drives each of the plurality of pixels 30 and causes the signal processing unit 25 to output the pixel signal generated by each pixel 30.
  • the drive unit 22 and the signal processing unit 25 are circuit units for acquiring gradation information. Therefore, when only the event information is acquired, the drive unit 22 and the signal processing unit 25 may be omitted.
  • the read area selection unit 27 selects a part of the plurality of pixels 30 included in the pixel array unit 21. For example, the read area selection unit 27 selects any one or a plurality of rows included in the structure of the two-dimensional matrix corresponding to the pixel array unit 21. The read area selection unit 27 sequentially selects one or a plurality of rows according to a preset cycle. Further, the read area selection unit 27 may determine the selection area in response to a request from each pixel 30 of the pixel array unit 21.
  • the signal generation unit 28 generates an event signal corresponding to the active pixel that has detected an event among the selected pixels, based on the output signal of the pixel selected by the read area selection unit 27.
  • An event is an event in which the intensity of light changes.
  • the active pixel is a pixel in which the amount of change in light intensity corresponding to the output signal exceeds a preset first threshold value or falls below a second threshold value.
  • the signal generation unit 28 detects the first detection signal when the absolute value of the amount of change in the direction in which the signal level of the electric signal increases exceeds the first threshold value, and the signal level of the electric signal decreases.
  • the second detection signal is detected when the absolute value of the change amount of is exceeded the second threshold value. Then, the pixel in which the first detection signal or the second detection signal is detected is used as the active pixel, and the event signal corresponding to the active pixel is generated.
  • the signal generation unit 28 can be configured to include, for example, a column selection circuit for arbitrating the signal entering the signal generation unit 28. Further, the signal generation unit 28 can be configured to output not only the information of the active pixel in which the event is detected but also the information of the inactive pixel in which the event is not detected.
  • the signal generation unit 28 outputs the address information and the time stamp information (for example, (X, Y, Ton), (X, Y, Toff) of the active pixel that detected the event through the output line 15.
  • the data output from the signal generation unit 28 may be not only address information and time stamp information but also frame format information (for example, (0, 0, 1, 0, ...)). Indicates the time when the on-event was detected, and Toff indicates the time when the off-event was detected.
  • the counting unit 26a of the setting unit 26 uses the address information and the time stamp information of the active pixel (for example, (X, Y, Ton), (X, Y, Toff)) to turn on-event and off within a predetermined period.
  • the number of each event is counted and the count number is supplied to the threshold control unit 26b.
  • the count unit 29a may count either the on event or the off event and supply the count number to the threshold control unit 26b.
  • FIG. 12 is an exploded perspective view showing an outline of the laminated chip structure of the image pickup apparatus 20.
  • the laminated chip structure is a structure in which at least two chips of a light receiving chip 201, which is a first chip, and a detection chip 202, which is a second chip, are laminated. It has become. Then, in the circuit configuration of the pixel 30 shown in FIG. 4, each of the light receiving elements 311 is arranged on the light receiving chip 201, and all the elements other than the light receiving element 311 and the elements of the other circuit parts of the pixel 30 are detected chips. Placed on 202.
  • the light receiving chip 201 and the detection chip 202 are electrically connected via a connection portion such as a via (VIA), a Cu—Cu junction, or a bump.
  • each element of the light receiving unit 31 is arranged on the light receiving chip 201, and elements other than the light receiving unit 31 and elements of other circuit parts of the pixel 30 are arranged on the detection chip 202. It can be configured to be. Further, each element of the light receiving unit 31, the reset transistor 321 of the pixel signal generation unit 32, and the floating diffusion layer 324 can be arranged on the light receiving chip 201, and the other elements can be arranged on the detection chip 202. .. Further, a part of the elements constituting the address event detection unit 33 can be arranged on the light receiving chip 201 together with the elements of the light receiving unit 31 and the like.
  • FIG. 13 is a block diagram showing an example of the configuration of the column processing unit 24 of the image pickup apparatus 20 according to the first configuration example.
  • the column processing unit 24 according to this example has a configuration having a plurality of analog-to-digital converters (ADCs) 241 arranged for each pixel row of the pixel array unit 21.
  • ADCs analog-to-digital converters
  • the configuration example in which the analog-to-digital converter 241 is arranged in a one-to-one correspondence with the pixel array of the pixel array unit 21 is illustrated here, the configuration example is not limited to this configuration example.
  • the analog-to-digital converter 241 may be arranged in units of a plurality of pixel rows, and the analog-to-digital converter 241 may be used in a time division manner among the plurality of pixel trains.
  • the analog-to-digital converter 241 converts the analog pixel signal SIG supplied via the vertical signal line VSL into a digital signal having a larger number of bits than the above-mentioned address event detection signal. For example, assuming that the detection signal of the address event is 2 bits, the pixel signal is converted into a digital signal having 3 bits or more (16 bits or the like). The analog-to-digital converter 241 supplies the digital signal generated by the analog-to-digital conversion to the signal processing unit 25.
  • the image pickup apparatus 20 is provided with a detection unit (that is, an address event detection unit 33) for each pixel address to detect in real time that the amount of light of the pixel exceeds a predetermined threshold value as an address event. It is an image pickup device.
  • this image pickup device acquires data that causes the occurrence of the true event.
  • data may be acquired unnecessarily due to a noise event (false event) such as sensor noise. This not only reads out the noise signal, but also reduces the throughput of the signal output.
  • the image pickup apparatus 20 of the present disclosure described below is adapted to adjust the sensitivity to true events and false events according to the number of events in the light-shielding pixels.
  • FIG. 14 is a schematic diagram showing the relationship between the noise event and the temperature.
  • the horizontal axis shows time, and the vertical axis shows the number of events and temperature.
  • the line L12A shows the time change of the temperature, and the line L12B shows the time change of the number of dark events which is a noise event in the dark (light-shielding time).
  • the pixel 30 outputs a dark current by performing photoelectric conversion even in the dark. This is counted as a dark event.
  • the time-series change in the number of dark events correlates with, for example, the time-series change in temperature. For example, if the sensitivity to noise events is reduced, the noise events are reduced, but the detection sensitivity of true events is also reduced. On the other hand, if the detection sensitivity of a true event is increased, the sensitivity to a noise event also increases.
  • the threshold control unit 26b adjusts the sensitivity to the true event and the sensitivity to the false event caused by dark noise by adjusting the sensitivity according to the state of the image pickup apparatus 20. More details will be given below.
  • FIG. 15 is a flowchart showing a processing example of the threshold control unit 26b of the setting unit 26.
  • an example will be described in which an event is detected by the pixel 30 in the light receiving region 21b after the sensitivity is adjusted by using the light shielding pixel 30 in the light blocking region 21a.
  • the method of reading the event detection signal differs between the image pickup device according to the first configuration example of the asynchronous type and the image pickup device (scan method) according to the second configuration example, but the first asynchronous type
  • the method of setting the threshold value of the image pickup apparatus according to the configuration example and the method of setting the threshold value of the image pickup apparatus (scan method) according to the second configuration example can perform the same processing.
  • the threshold value control unit 26b sets a threshold value according to the noise level of the light-shielding pixel 30 in the light-shielding region 21a (step S1000).
  • the address event detection unit 33 of the light receiving region 21b detects the detection signal when the amount of change in the electric signal generated by the pixel 30 of the light receiving region 21b exceeds the threshold set in the threshold control unit 26b ( Step S1100).
  • the threshold control unit 26b determines whether or not to end the entire processing (step S1200), and if not (NO in step S1200), repeats the processing from step S102. On the other hand, when it ends (YES in step S1200), the whole process ends.
  • the threshold value control unit 26b sets the threshold value according to the noise level of the light-shielding pixel 30 in the light-shielding region 21a, so that the sensitivity to the true event and the dark noise event can be adjusted.
  • FIG. 16 is a flowchart showing a processing example of the threshold control unit 26b in parallel processing. As shown in FIG. 16, the threshold value setting according to the noise level of the light-shielding pixel 30 (step S1000) and the detection process of the address event detection unit 33 of the light receiving region 21b (step S1100) are performed in parallel.
  • FIG. 17 is a flowchart showing a processing example of step S1000 of FIGS. 15 and 16.
  • FIG. 18 is a diagram schematically showing a processing example shown in FIG. The horizontal axis shows time and the vertical axis shows the threshold value.
  • the amount of change of the first threshold value for the on-event and the second threshold value for the off-event with respect to the reference level (AZ level) is schematically shown.
  • the absolute value of the amount of change of the first threshold value for the on-event and the second threshold value for the off-event with respect to the reference level (AZ level) is treated as the same value. For example, when the first threshold is increased by Vh1 volt from the initial setting, the second threshold is decreased by Vh1 volt from the initial setting.
  • Comparator 3341 indicates an event detection signal corresponding to the on-event indicating that the amount of change in current exceeds a first threshold voltage V th1 of the upper on the upper side, the fact that the second threshold voltage V th2 exceeds the lower
  • the event detection signal corresponding to the off-event is output to the count unit 26a of the setting unit 26.
  • the counting unit 26a counts the number of events that have occurred within a predetermined period and supplies the event to the threshold value control unit 26b (step S102).
  • the predetermined period of step S102 shown in FIG. 17 does not have to be the entire shooting period, and the predetermined period for counting the number of light-shielding pixel events and the number of light-shielding pixel events. May be provided alternately with a period in which the number is not counted.
  • the read area selection unit 27 selects a part of the plurality of pixels 30 included in the light shielding area 21a. For example, the read area selection unit 27 selects any one or a plurality of rows included in the structure of the two-dimensional matrix corresponding to the light-shielding region 21a.
  • the read area selection unit 27 (see FIG. 11) sequentially selects one or a plurality of rows according to a preset cycle, and the address information and time stamp information of the active pixel of the light-shielding pixel 30 (for example, (X,). Y, Ton), (X, Y, Toff)) are read out in sequence and supplied to the counting unit 26a via the signal generation unit 28.
  • the counting unit 26a of the setting unit 26 uses the address information and the time stamp information of the active pixel (for example, (X, Y, Ton), (X, Y, Toff)) to perform an on-event within a predetermined period and a time stamp information. , The number of each off-event is counted, and the count number is supplied to the threshold control unit 26b.
  • the time stamp information of the active pixel for example, (X, Y, Ton), (X, Y, Toff)
  • the threshold control unit 26b determines whether or not the count number of events (number of on-events + number of off-events) within the predetermined time is within the predetermined range (step S104). When the number of events is out of the predetermined range (YES in step S104), the threshold control unit 26b further determines whether or not the count number of events is equal to or greater than the predetermined value (step S106). When the number of events is equal to or greater than a predetermined value (YES in step S106), the threshold control unit 26b lowers the sensitivity of the threshold (step S108).
  • the threshold control unit 26b with respect to the pixel array portion 21 across the pixel 30, is increased by a predetermined value Th1a bolt from the first threshold voltage V th1, predetermined value Th1a volts is reduced from the second threshold voltage V th2.
  • the threshold control unit 26b decreases the predetermined value Th2a volt from the first threshold voltage V th1 and increases the predetermined value Th2a volt from the second threshold voltage V th2 with respect to the pixels 30 of the entire pixel array unit 21 (step S110).
  • the threshold control unit 26b does not change the first threshold voltage Vth1 and the second threshold voltage Vth2 with respect to the pixels 30 of the entire pixel array unit 21 (step S112).
  • FIG. 19 is a diagram showing a processing example in which the processing shown in FIG. 17 is performed for three cycles.
  • the horizontal axis shows time and the vertical axis shows the threshold value.
  • the absolute value of the amount of change from the reference level of the electric signal generated by the photoelectric conversion element 311 in the shield region 21a sets the threshold value (first threshold voltage V th1 or second threshold voltage V th2 ) in a predetermined period.
  • a threshold value (first threshold voltage V th1 or second threshold voltage V th2 ) is set based on the number exceeded.
  • the threshold value can be controlled according to the number of dark noise events generated in the light-shielding pixel 30 in the light-shielding region 21a, and the sensitivity to the true event and the dark noise event can be adjusted.
  • FIG. 20 is a flowchart showing a processing example for independently adjusting the first threshold value for the on-event and the second threshold value for the off-event.
  • the threshold control unit 26b sets a first threshold value according to the on-event of the light-shielding pixel 30 in the light-shielding region 21a (step S1000a), and in parallel, the light-shielding pixel 30 in the light-shielding region 21a.
  • the second threshold value is set according to the level of the off-event of (step S1000b).
  • the address event detection unit 33 of the light receiving region 21b the amount of change in the electric signal generated by the pixel 30 of the light receiving region 21b exceeds the first threshold value or the second threshold value independently set in the threshold value control unit 26b.
  • the on-event detection signal and the off-event detection signal are detected (step S1100).
  • FIG. 21 is a diagram schematically showing a processing example for independently adjusting the first threshold value for the on-event and the second threshold value for the off-event.
  • the horizontal axis shows time and the vertical axis shows the threshold value.
  • the threshold value control unit 26b independently sets the first threshold value and the second threshold value according to the noise level of the light-shielding pixel 30 in the light-shielding region 21a.
  • the sensitivity can be adjusted for the true event in which the absolute value of the change amount in the direction in which the signal level of the electric signal increases exceeds the first threshold value and the dark noise event corresponding to the on-event.
  • the first threshold value and the second threshold value can be adjusted independently, the generation distribution of the dark noise event corresponding to the on-event and the dark noise event corresponding to the off-event is statistically biased. Even in some cases, the sensitivity can be adjusted more appropriately.
  • FIG. 22 is a flowchart showing a processing example in which the first threshold value and the second threshold value in parallel processing are independently adjusted.
  • the threshold control unit 26b performs a process of setting a first threshold value according to the level of the on-event of the light-shielding pixel 30 in the light-shielding region 21a (step S1000a), and in parallel with the light-shielding of the light-shielding region 21a.
  • the process of setting the second threshold value according to the off-event level of the pixel 30 (step S1000b) and the detection process of the address event detection unit 33 of the light receiving region 21b (step S1100) are performed in parallel.
  • the first threshold value and the second threshold value can be adjusted independently without stopping the event detection of the address event detection unit 33 of the light receiving region 21b.
  • FIG. 23 is a flowchart showing an example in which the threshold value is changed stepwise in the process of setting the threshold value (step S1000).
  • FIG. 24 is a diagram schematically showing a processing example shown in FIG. 23. The horizontal axis shows time and the vertical axis shows the threshold value. As shown in FIG. 20, the amount of change of the first threshold value for the on-event and the second threshold value for the off-event with respect to the reference level (AZ level) is changed stepwise in time series. For example, the threshold value is changed in several steps until the threshold value, which is the assumed convergence value, is reached.
  • the predetermined value Th1 is AZ level + Vhf ⁇ 0.8
  • the predetermined value Th2 is AZ level + Thf ⁇ 0.96, and so on. Change so that it approaches asymptotically over time.
  • the threshold value control unit 26b determines whether or not the count number of events (number of on-events + number of off-events) within a predetermined time with respect to the initially set threshold value Th0 is equal to or greater than a predetermined value (step). S104). When the number of events is equal to or greater than a predetermined value (YES in step S104), the threshold control unit 26b gradually lowers the sensitivity of the threshold (step S108a). That is, in the first period, the threshold control unit 26b increases the first threshold voltage V th1 by a predetermined value Th1 volt from the reference level with respect to the pixels 30 of the entire pixel array unit 21, and uses the second threshold voltage V th2 as a reference.
  • the first threshold voltage V th1 is increased by a predetermined value Th2 volt from the reference level with respect to the pixels 30 of the entire pixel array unit 21, and the second threshold voltage V th2 is increased from the reference level to a predetermined value Th2.
  • the absolute value of (Th2-Th1) is smaller than the absolute value of (Th1-Th0).
  • the threshold control unit 26b ends the entire process without changing the current threshold.
  • the threshold value is changed step by step, it is possible to set the sensitivity close to the target number of dark noise events. Further, since the threshold value is changed stepwise, the threshold value can be changed while suppressing the change in the number of events generated per hour in the pixel 30 of the light receiving region 21b.
  • FIG. 25 is a flowchart showing an example in which the first threshold value is changed stepwise in the process of setting the threshold value (step S1000a).
  • the on-events of the light-shielding pixels are counted (step S102a), and when it is not within a predetermined range, the first threshold value is changed stepwise (step S110a).
  • step S110a the first threshold value is changed stepwise.
  • FIG. 26 is a diagram schematically showing an example of changing the first threshold value step by step.
  • the horizontal axis indicates time, and the vertical axis indicates the first threshold value.
  • the initially set first threshold value Th0a is changed to the first threshold value Th1a in the first stage, and is changed to the first threshold value Th2a in the second stage.
  • the process shown in FIG. 26 can also be applied to the threshold value setting process (step S1000).
  • FIG. 27 is a flowchart showing an example in which the second threshold value is changed stepwise in the process of setting the threshold value (step S1000b).
  • the off-events of the light-shielding pixels are counted (step S102b), and when the event is not within a predetermined range, the second threshold value is changed stepwise (step S110b).
  • step S110b the second threshold value is changed stepwise.
  • FIG. 28 is a diagram schematically showing an example of changing the second threshold value step by step.
  • the horizontal axis indicates time, and the vertical axis indicates the first threshold value.
  • the initially set first threshold value Th0b is changed to the first threshold value Th1b in the first stage, and is changed to the first threshold value Th2b in the second stage.
  • the process shown in FIG. 28 can also be applied to the threshold value setting process (step S1000).
  • FIG. 29 is a flowchart showing an example in which a dead zone is provided in the processing of the threshold value setting processing (step S1000b).
  • FIG. 30 is a diagram schematically showing an example in which the second threshold value provided with the dead zone is changed stepwise. The horizontal axis represents time and the vertical axis represents the second threshold.
  • the dead zone means a threshold value provided above and below the second threshold value Th0b, Th1b, Th2b, and the like.
  • the threshold value of the second threshold value Th0b when changing the threshold value of the second threshold value Th0b, if the second threshold value Th1b is within the dead zone, the threshold value is not changed, and if it is outside the dead zone, the threshold value is changed.
  • the second threshold value Th1b since the second threshold value Th1b is outside the range of the dead zone of the second threshold value Th0b, the value of the second threshold value Th1b is changed from the second threshold value Th0b.
  • the second threshold value Th2b since the second threshold value Th2b is within the dead zone of the second threshold value Th1b, the value of the second threshold value Th2b is set to the same value as the second threshold value Th1b and is not changed.
  • the value of the second threshold value Th1b to be changed is the range of the dead zone of the current second threshold value Th0b.
  • the value of the second threshold value Th1b is changed from the second threshold value Th0b.
  • the value of the second threshold value Th1b is maintained at the value of the second threshold value Th0b, and the process is terminated. In this way, if the amount to be changed of the threshold value is within the dead zone, the threshold value is not changed.
  • the process shown in FIG. 30 can also be applied to the threshold value setting process (step S1000, step S1000a).
  • the observer may feel the variation in the image. Therefore, when the range of the dead zone is increased, the threshold value is not changed, and the observer's perception of image variation is suppressed. On the other hand, if the range of the dead zone is increased, the sensitivity adjustment is suppressed. Therefore, by adjusting the range of the dead zone, it is possible to balance the sensitivity adjustment and the variation of the image.
  • FIG. 31 is a flowchart showing an example of changing the amount of change of the threshold value according to the temperature change in the process of setting the threshold value (step S1000b).
  • FIG. 32 is a diagram schematically showing an example of changing the amount of change of the threshold value according to the temperature change.
  • the horizontal axis represents time and the vertical axis represents the second threshold.
  • the amount of change in the second threshold value Th1b is increased in the region where the time-series value Tma of the temperature changes greatly with time.
  • the threshold control unit 26b corresponds to the pixel 30 of the light receiving region 21b recorded in the recording unit 12 in time series.
  • the amount of change in temperature over time is calculated using the temperature information. For example, the absolute value of the time difference of temperature is calculated (step S116b).
  • the temperature acquired from the temperature sensor 21c is recorded in the recording unit 12 in time series.
  • the threshold value control unit 26b calculates the change amount of the second threshold value based on the change amount of the temperature, and changes the second threshold value (step S118b). In this way, the amount of change in the second threshold value is adjusted according to the amount of change in temperature over time. As shown in FIG. 14, since the temperature change and the noise change are correlated, the change amount of the second threshold value can be increased at the timing when the temperature change is large, so that the sensitivity can be adjusted more efficiently.
  • the threshold value control unit 26b sets the threshold value according to the noise level of the light-shielding pixel 30 in the light-shielding region 21a. As a result, the amount of dark noise events generated can be adjusted, so that the sensitivity to the true event and the dark noise event can be adjusted.
  • the image pickup system 10 according to the modified example of the first embodiment is different from the image pickup system 10 according to the first embodiment in that an arithmetic processing unit 15 for setting a threshold value is provided outside the image pickup device 20.
  • the differences from the image pickup system 10 according to the first embodiment will be described below.
  • FIG. 33 is a block diagram showing the configuration of the image pickup apparatus 20 according to the modified example of the first embodiment.
  • the description of the drive unit 22, the arbiter unit 23, and the column processing unit 24 is omitted.
  • the arithmetic processing unit 15 is provided outside the image pickup apparatus 20.
  • the arithmetic processing unit 15 is a device in which a user can change an arithmetic program and processing parameters. This allows the user to set the threshold value by any algorithm.
  • the technology according to the present disclosure can be applied to various products. A more specific application example will be described below.
  • the technology according to the present disclosure is any kind of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). It may be realized as a distance measuring device mounted on the body.
  • FIG. 34 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plurality of control units conforms to any standard such as CAN (Control Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various arithmetic, and a drive circuit that drives various controlled devices. To prepare for.
  • Each control unit is provided with a network I / F for communicating with other control units via the communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication.
  • a communication I / F for performing communication is provided. In FIG.
  • control unit 7600 As the functional configuration of the integrated control unit 7600, the microcomputer 7610, the general-purpose communication I / F7620, the dedicated communication I / F7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F7660, the audio image output unit 7670, The vehicle-mounted network I / F 7680 and the storage unit 7690 are illustrated.
  • Other control units also include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 may include, for example, a gyro sensor that detects the angular velocity of the axial rotation motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or steering wheel steering. It includes at least one of sensors for detecting an angle, engine speed, wheel speed, and the like.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, and the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • a radio wave transmitted from a portable device that substitutes for a key or signals of various switches may be input to the body system control unit 7200.
  • the body system control unit 7200 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source of the drive motor, according to various programs. For example, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input to the battery control unit 7300 from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature control of the secondary battery 7310 or the cooling device provided in the battery device.
  • the outside information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the image pickup unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle exterior information detection unit 7420 is used, for example, to detect the current weather or an environment sensor for detecting the weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the ambient information detection sensors is included.
  • the environment sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ringing, Laser Imaging Detection and Ranking) device.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 35 shows an example of the installation position of the image pickup unit 7410 and the vehicle exterior information detection unit 7420.
  • the image pickup unit 7910, 7912, 7914, 7916, 7918 are provided, for example, at at least one of the front nose, side mirror, rear bumper, back door, and upper part of the windshield of the vehicle interior of the vehicle 7900.
  • the image pickup unit 7910 provided in the front nose and the image pickup section 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the image pickup units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the image pickup unit 7916 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the image pickup unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 35 shows an example of the shooting range of each of the imaging units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging range of the imaging units 7912 and 7914 provided on the side mirrors, respectively
  • the imaging range d indicates the imaging range d.
  • the imaging range of the imaging unit 7916 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the image pickup units 7910, 7912, 7914, 7916, a bird's-eye view image of the vehicle 7900 can be obtained.
  • the vehicle exterior information detection unit 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, side, corner and the upper part of the windshield of the vehicle interior of the vehicle 7900 may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, a lidar device.
  • These out-of-vehicle information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle outside information detection unit 7400 causes the image pickup unit 7410 to capture an image of the outside of the vehicle and receives the captured image data. Further, the vehicle outside information detection unit 7400 receives the detection information from the connected vehicle outside information detection unit 7420.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a lidar device
  • the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the out-of-vehicle information detection unit 7400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the out-of-vehicle information detection unit 7400 may perform an environment recognition process for recognizing rainfall, fog, road surface conditions, etc. based on the received information.
  • the out-of-vehicle information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on the road surface, or the like based on the received image data.
  • the vehicle outside information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes image data captured by different image pickup units 7410 to generate a bird's-eye view image or a panoramic image. May be good.
  • the vehicle exterior information detection unit 7400 may perform the viewpoint conversion process using the image data captured by different image pickup units 7410.
  • the in-vehicle information detection unit 7500 detects the in-vehicle information.
  • a driver state detection unit 7510 for detecting the state of the driver is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that captures the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, a seat surface or a steering wheel, and detects biometric information of a passenger sitting on the seat or a driver holding the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and may determine whether the driver is asleep. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input-operated by the passenger, such as a touch panel, a button, a microphone, a switch, or a lever. Data obtained by recognizing the voice input by the microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. You may.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Further, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on the information input by the passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. By operating the input unit 7800, the passenger or the like inputs various data to the vehicle control system 7000 and instructs the processing operation.
  • the storage unit 7690 may include a ROM (Read Only Memory) for storing various programs executed by the microcomputer, and a RAM (Random Access Memory) for storing various parameters, calculation results, sensor values, and the like. Further, the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or a wireless LAN (Wi-F).
  • GSM Global System of Mobile communications
  • WiMAX Wireless LAN
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-A
  • Wi-F wireless LAN
  • Other wireless communication protocols such as (also referred to as (registered trademark)) and Bluetooth (registered trademark) may be implemented.
  • the general-purpose communication I / F7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a business-specific network) via a base station or an access point, for example. You may. Further, the general-purpose communication I / F7620 uses, for example, P2P (Peer To Peer) technology, and is a terminal existing in the vicinity of the vehicle (for example, a terminal of a driver, a pedestrian, or a store, or an MTC (Machine Type Communication) terminal). May be connected with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I / F7630 is, for example, a WAVE (Wireless Access in Vehicle Environment), which is a combination of the lower layer IEEE802.11p and the upper layer IEEE1609, DSRC (Dedicated Short Range Communication protocol), or a standard such as DSRC (Dedicated Short Range Communication) protocol. May be implemented.
  • Dedicated communication I / F7630 is typically vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-home (Vehicle to Home) communication, and pedestrian-to-Pedestrian (Vehicle to Pedestrian) communication. ) Carry out V2X communication, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and executes positioning, and performs positioning, and the latitude, longitude, and altitude of the vehicle. Generate location information including.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic jam, road closure, or required time.
  • the function of the beacon receiving unit 7650 may be included in the above-mentioned dedicated communication I / F 7630.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I / F7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • the in-vehicle device I / F7660 is via a connection terminal (and a cable if necessary) (not shown), USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile).
  • a wired connection such as High-definition Link may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a passenger's mobile device or wearable device, or information device carried in or attached to the vehicle. Further, the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the vehicle-mounted network I / F7680 transmits / receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information acquired. For example, the microcomputer 7610 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. May be good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. Cooperative control may be performed for the purpose of.
  • the microcomputer 7610 automatically travels autonomously without relying on the driver's operation by controlling the driving force generator, steering mechanism, braking device, etc. based on the acquired information on the surroundings of the vehicle. Coordinated control may be performed for the purpose of driving or the like.
  • the microcomputer 7610 has information acquired via at least one of a general-purpose communication I / F7620, a dedicated communication I / F7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F7660, and an in-vehicle network I / F7680. Based on the above, three-dimensional distance information between the vehicle and an object such as a surrounding structure or a person may be generated, and local map information including the peripheral information of the current position of the vehicle may be created. Further, the microcomputer 7610 may predict the danger of a vehicle collision, a pedestrian or the like approaching or entering a closed road, and generate a warning signal based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are exemplified as output devices.
  • the display unit 7720 may include, for example, at least one of an onboard display and a head-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as eyeglass-type displays worn by passengers, projectors or lamps other than these devices.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or the information received from other control units in various formats such as texts, images, tables, and graphs. Display visually.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, or the like into an analog signal and outputs the audio signal audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit (not shown).
  • the other control unit may have a part or all of the functions carried out by any of the control units. That is, as long as information is transmitted and received via the communication network 7010, predetermined arithmetic processing may be performed by any of the control units.
  • a sensor or device connected to any control unit may be connected to another control unit, and a plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • the techniques according to the present disclosure include, for example, the imaging unit 7910, 7912, 7914, 7916, 7918, the vehicle outside information detection unit 7920, 7922, 7924, 7926, 7928, 7930, and the driver state detection. It can be applied to the part 7510 and the like. Specifically, the image pickup system 10 of FIG. 1 having the image pickup apparatus of the present disclosure can be applied to these image pickup units and detection units.
  • the influence of noise events such as sensor noise can be mitigated, and the occurrence of true events can be detected reliably and quickly, thus realizing safe vehicle driving. It becomes possible to do.
  • a photoelectric conversion unit having a plurality of photoelectric conversion elements that perform photoelectric conversion to generate an electric signal, and A setting unit that sets a threshold value according to the noise level in a predetermined region among the plurality of photoelectric conversion elements, and a setting unit.
  • a first detection unit that detects a detection signal when the amount of change in the electric signal generated by the plurality of photoelectric conversion elements exceeds the threshold value.
  • An image pickup device An image pickup device.
  • the plurality of photoelectric conversion elements are arranged in a two-dimensional matrix, and the light-shielded light-shielding region includes the arrangement of the photoelectric conversion elements in row units and the photoelectric conversion elements in column units.
  • the image pickup apparatus according to (2) which corresponds to at least one of the arrangements.
  • the arrangement of the photoelectric conversion elements in units of rows and the arrangement of the photoelectric conversion elements in units of columns includes the ends of the plurality of photoelectric conversion elements arranged in a two-dimensional matrix.
  • the setting unit sets the threshold value based on the number in which the absolute value of the change amount of the electric signal generated by the photoelectric conversion element in the predetermined region exceeds the threshold value in a predetermined period (1).
  • the first detection unit detects the first detection signal when the absolute value of the amount of change in the direction in which the signal level of the electric signal increases exceeds the first threshold value, and at the same time, the signal level of the electric signal.
  • the second detection signal is detected when the absolute value of the amount of change in the direction of decreasing exceeds the second threshold value.
  • the setting unit is The first threshold value is set based on the number of absolute values of the amount of change in the direction in which the signal level of the electric signal generated by the electric conversion element in the predetermined region increases exceeds the first threshold value in a predetermined period.
  • the two threshold values are set based on the number in which the absolute value of the amount of change in the direction in which the signal level of the electric signal generated by the electric conversion element in the predetermined region decreases exceeds the second threshold value in the predetermined period.
  • the first detection unit sequentially reads out the electric signal of the photoelectric conversion element in the predetermined region.
  • the imaging device according to any one of (1) to (13), wherein the setting unit counts the number of the detected signals exceeding the threshold value over a predetermined period.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Air Bags (AREA)

Abstract

[課題]無駄なイベントを発生させるおそれがない。 [解決手段]撮像装置は、光電変換して電気信号を生成する複数の光電変換素子を有する光電変換部と、前記複数の光電変換素子のうちの所定領域のノイズレベルに応じて閾値を設定する設定部と、前記複数の光電変換素子で生成された前記電気信号の変化量が前記閾値を超えた場合に検出信号を検出する第1検出部と、を備える。

Description

撮像装置及び撮像方法
 本開示は、撮像装置及び撮像方法に関する。
 イベントドリブン方式の撮像装置の一つとして、DVS(Dynamic Vision Sensor)と呼ばれる非同期型の撮像装置が提案されている(例えば、特許文献1参照)。非同期型の撮像装置では、シーンの中で何らかのイベント(例えば、動き)が発生したときだけ、当該イベントによって生じる輝度レベルの変化した部分のデータの取得が行われる。従って、非同期型の撮像装置は、固定フレームレートで不必要に画像の全てのデータを取得する一般的な同期型の撮像装置よりも遥かに高速に画像データを取得することができる。
特表2017-535999号公報
 DVSは、感度に優れるため、撮像装置内の光電変換素子のノイズによる電気信号の変化にも反応してしまい、本来的には動きがないシーンであっても、イベントを発生させるおそれがある。また、本来は必要な無駄なイベントを発生させることにより、DVSの消費電力が増大してしまう。
 そこで、本開示では、無駄なイベントを発生させるおそれがない撮像装置及び撮像方法を提供するものである。
 上記の課題を解決するために、本開示によれば、光電変換して電気信号を生成する複数の光電変換素子を有する光電変換部と、
 前記複数の光電変換素子のうちの所定領域のノイズレベルに応じて閾値を設定する設定部と、
 前記複数の光電変換素子で生成された前記電気信号の変化量が前記閾値を超えた場合に検出信号を検出する第1検出部と、
 を備える、撮像装置が提供される。
 前記所定領域の前記光電変換素子は、遮光されており、
 前記所定領域以外の光電変換素子は、それぞれが入射光を光電変換して電気信号を生成してもよい。
 前記複数の光電変換素子は、2次元の行列状に配置されており、前記遮光されている遮光領域は、行単位の前記光電変換素子の配置、及び列単位の前記光電変換素子の配置の少なくとも一方に対応してもよい。
 前記行単位の前記光電変換素子の配置、及び前記列単位の前記光電変換素子の配置は、前記2次元の行列状に配置された前記複数の光電変換素子の端部を含のでもよい。
 前記設定部は、前記所定領域における光電変換素子で生成された前記電気信号の変化量の絶対値が、所定期間において前記閾値を超えた数に基づき、前記閾値を設定してもよい。
 前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに第1検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに第2検出信号を検出し、
 前記設定部は、
 前記所定領域における電変換素子で生成された前記電気信号の信号レベルが増大する方向の変化量の絶対値が、所定期間において前記第1閾値を超えた数に基づき、前記第1閾値を設定し、
 前記所定領域における電変換素子で生成された前記電気信号の信号レベルが減少する方向の変化量の絶対値が、所定期間において前記第2閾値を超えた数に基づき、前記2閾値を設定してもよい。
 前記設定部は、前記所定期間において前記閾値を超えた数に基づき、前記閾値を段階的に設定してもよい。
 前記設定部は、時間経過にしたがい、前記閾値の変化率を減少させてもよい。
 前記設定部は、前記閾値の変化率を減少させ、初期設定置に漸近させてもよい。
 前記設定部は、前記閾値を第1段階の閾値に設定した後に、前記変化率を減少させ、所定の設定値に漸近させてもよい。
 前記設定部は、前記所定期間において前記閾値を超えた数が所定値未満である場合に、前記閾値を変更しなくてもよい。
 設定部は、前記複数の光電変換素子に対応する温度に応じて、前記閾値を設定してもよい。
 前記設定部は、前記温度変化が大きくなるに従い、前記閾値の変化率を大きくしてもよい。
 前記第1検出部は、前記所定領域の光電変換素子の前記電気信号を順繰りに読み出し、
 前記設定部は、前記閾値を超えた前記検出信号の数を所定期間にわたってカウントしてもよい。
 上記の課題を解決するために、本開示によれば、 遮光された光電変換素子のノイズレベルに応じて閾値を設定し、
 それぞれが入射光を光電変換して電気信号を生成する複数の光電変換素子で生成された前記電気信号の変化量の絶対値が前記閾値を超えた場合に検出信号を検出する、撮像方法が提供される。
本開示に係る技術が適用される撮像システムのシステム構成の一例を示すブロック図。 本開示の第1構成例に係る撮像装置の構成の一例を示すブロック図。 画素アレイ部の構成の一例を示すブロック図。 画素の回路構成の一例を示す回路図。 アドレスイベント検出部の第1構成例を示すブロック図。 遮光画素のアドレスイベント検出部の第1構成例を示すブロック図。 電流電圧変換部の構成の一例を示す回路図。 アドレスイベント検出部における減算器及び量子化器の構成の一例を示す回路図。 アドレスイベント検出部の第2構成例を示すブロック図。 遮光画素のアドレスイベント検出部の第2構成例を示すブロック図。 本開示の第2構成例に係る撮像装置の構成の一例を示すブロック図。 撮像装置の積層型のチップ構造の概略を示す分解斜視図。 第1構成例に係る撮像装置のカラム処理部の構成の一例を示すブロック図。 ノイズイベントと温度との関係を示す模式図。 閾値制御部の処理例を示すフローチャート。 並列処理における閾値制御部の処理例を示すフローチャート。 図15及び図16のステップS1000の処理例を示すフローチャート。 図17で示す処理例を模式的に示す図。 図17で示す処理を3周期行った処理例を示す図。 第1閾値と、第2閾値とを独立に調整する処理例を示すフローチャート。 第1閾値と、第2閾値と、を独立に調整する処理例を模式的に示す図。 並列処理における第1閾値と、第2閾値とを独立に調整する処理例を示すフローチャート。 閾値を段階的に変更する例を示すフローチャート。 図23で示す処理例を模式的に示す図。 第1閾値を段階的に変更する例を示すフローチャート。 第1閾値を段階的に変更する例を模式的に示す図。 第2閾値を段階的に変更する例を示すフローチャート。 第2閾値を段階的に変更する例を模式的に示す図。 不感帯を設けた例を示すフローチャート。 不感帯を設けた第2閾値を段階的に変更する例を模式的に示す図。 温度変化に応じて閾値の変更量を変更する例を示すフローチャート。 温度変化に応じて閾値の変更量を変更する例を模式的に示す図。 第1実施形態の変形例に係る撮像装置の構成を示すブロック図。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図。 撮像部及び車外情報検出部の設置位置の例を示す図。
 以下、図面を参照して、撮像装置及び撮像方法の実施形態について説明する。以下では、撮像装置の主要な構成部分を中心に説明するが、撮像装置には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
(第1実施形態)
 図1は、本開示に係る技術が適用される撮像システムのシステム構成の一例を示すブロック図である。
 図1に示すように、本開示に係る技術が適用される撮像システム10は、撮像レンズ11、記録部12、制御部13及び、撮像装置20、を備える構成となっている。この撮像システム10は、本開示の電子機器の一例であり、当該電子機器としては、産業用ロボットに搭載されるカメラシステムや、車載カメラシステムなどを例示することができる。
 上記の構成の撮像システム10において、撮像レンズ11は、被写体からの入射光を取り込んで撮像装置20の撮像面上に結像する。撮像装置20は、撮像レンズ11によって取り込まれた入射光を画素単位で光電変換して撮像データを取得する。この撮像装置20として、後述する本開示の撮像装置が用いられる。
 撮像装置20は、撮像した画像データに対して、画像認識処理等の所定の信号処理を実行し、その処理結果と、後述するアドレスイベントの検出信号(以下、単に「検出信号」と記述する場合がある)とを示すデータを記録部12に出力する。アドレスイベントの検出信号の生成方法については後述する。記録部12は、信号線14を介して撮像装置20から供給されるデータを記憶する。制御部13は、例えば、マイクロコンピュータによって構成され、撮像装置20における撮像動作の制御を行う。
[第1構成例に係る撮像装置(アービタ方式)]
 図2は、本開示に係る技術が適用される撮像システム10における撮像装置20として用いられる、第1構成例に係る撮像装置の構成の一例を示すブロック図である。
 図2に示すように、本開示の撮像装置としての第1構成例に係る撮像装置20は、DVSと呼ばれる非同期型の撮像装置であり、画素アレイ部21、駆動部22、アービタ部(調停部)23、カラム処理部24、信号処理部25、及び設定部26を備える構成となっている。また、設定部26は、カウント部26aと、閾値制御部26bとを有する。
 上記の構成の撮像装置20において、画素アレイ部21には、複数の画素30が行列状(アレイ状)に2次元配列されている。この行列状の画素配列に対して、画素列毎に、後述する垂直信号線VSLが配線される。
 複数の画素30のそれぞれは、光電流に応じた電圧のアナログ信号を画素信号として生成する。また、複数の画素30のそれぞれは、光電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。そして、アドレスイベントが生じた際に画素30は、リクエストをアービタ部23に出力する。
 また、画素アレイ部21には、光を遮断する遮光領域21aが設けられている。一方で、遮光領域21a以外の画素アレイ部21には、受光領域21bが設けられている。
 遮光領域21aは、例えば上端部における行単位の複数の画素30に対応して設けられる。或いは、列単位の複数の画素30に対応して設けてもよい。このように、遮光領域21aは、画素アレイ部21の上端部、下端部、左端部、右端部の少なくともいずれかに、複数の画素30を覆うように、設けられている。遮光領域21aの画素30の構成は、光が入射しないことを除き、遮光領域21a以外の画素30と同等の構成である。これにより、遮光領域21aにおける複数の画素30は、例えば暗時ノイズによる電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。また、本実施形態では、遮光領域21aの画素30を遮光画素30と称する場合がある。
 温度センサ21cは、画素アレイ部21における複数の画素30に対応する温度を取得し、温度情報を含む信号を設定部26の閾値制御部26bに供給する。
 駆動部22は、遮光領域21a以外の受光領域21bに配置される複数の画素30のそれぞれを駆動して、各画素30で生成された画素信号をカラム処理部24に出力させる。
 アービタ部23は、複数の画素30のそれぞれからのリクエストを調停し、調停結果に基づく応答を画素30に送信する。アービタ部23からの応答を受け取った画素30は、検出結果を示す検出信号(アドレスイベントの検出信号)を駆動部22及び信号処理部25に供給する。画素30からの検出信号の読出しについては、複数行読出しとすることも可能である。
 カラム処理部24は、例えば、アナログ-デジタル変換器から成り、画素アレイ部21の画素列毎に、その列の画素30から出力されるアナログの画素信号をデジタル信号に変換する処理を行う。そして、カラム処理部24は、アナログ-デジタル変換後のデジタル信号を信号処理部25に供給する。
 信号処理部25は、カラム処理部24から供給されるデジタル信号に対して、CDS(Correlated Double Sampling)処理や画像認識処理などの所定の信号処理を実行する。そして、信号処理部25は、処理結果を示すデータと、アービタ部23から供給される検出信号とを信号線14を介して記録部12(図1参照)に供給する。
 設定部26は、アドレスイベントの有無を検出する際の閾値を設定する。この設定部26は、例えば複数の遮光画素30のノイズレベルに応じて閾値を設定する。カウント部26aは、遮光画素30で発生したアドレスイベントをカウントする。
 閾値制御部26bは、カウント部26aがカウントしたアドレスイベントの数に応じて、アドレスイベントの有無を検出する際の閾値を、後述するアドレスイベント検出部33に設定する。閾値制御部26bは例えばレジスタを有しており、レジスタによりアドレスイベントの閾値、及びアドレスイベントの発生数の閾値を設定することが可能である。なお、閾値制御部26bの詳細は後述する。
[画素アレイ部の構成例]
 図3は、画素アレイ部21の構成の一例を示すブロック図である。
 複数の画素30が行列状に2次元配列されて成る画素アレイ部21において、複数の画素30のそれぞれは、受光部31、画素信号生成部32、及び、アドレスイベント検出部33を有する構成となっている。
 上記の構成の画素30において、受光領域21bの受光部31は、入射光を光電変換して光電流を生成する。そして、受光部31は、駆動部22(図2参照)の制御に従って、画素信号生成部32及びアドレスイベント検出部33のいずれかに、光電変換して生成した光電流を供給する。
 一方で、遮光画素の受光部31は、例えば暗電流などのノイズ成分に対応する出力電流を出力する。そして、遮光画素の受光部31は、駆動部22(図2参照)の制御に従って、アドレスイベント検出部33に、ノイズ成分に対応する電流を供給する。
 画素信号生成部32は、受光領域21bの受光部31から供給される光電流に応じた電圧の信号を画素信号SIGとして生成し、この生成した画素信号SIGを、垂直信号線VSLを介してカラム処理部24(図2参照)に供給する。
 アドレスイベント検出部33は、受光領域21bの受光部31のそれぞれからの光電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。アドレスイベント(以下では単に「イベント」と称する場合がある)は、例えば、光電流の変化量が上限の第1閾値を超えた旨を示すオンイベント、及び、その変化量が下限の第2閾値を下回った旨を示すオフイベントから成る。また、アドレスイベントの検出信号は、例えば、オンイベントの検出結果を示す1ビット、及び、オフイベントの検出結果を示す1ビットから成る。なお、アドレスイベント検出部33については、オンイベントのみを検出する構成とすることもできる。
 一方で、遮光画素のアドレスイベント検出部33は、遮光画素の受光部31のそれぞれが出力する出力電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。アドレスイベントは、例えば、出力電流の変化量が上限の第1閾値を超えた旨を示すオンイベント、及び、その変化量が下限の第2閾値を下回った旨を示すオフイベントから成る。また、アドレスイベントの検出信号は、例えば、オンイベントの検出結果を示す1ビット、及び、オフイベントの検出結果を示す1ビットから成る。なお、アドレスイベント検出部33については、オンイベントのみ、又はオフイベントのみを検出する構成とすることもできる。
 アドレスイベントが発生した際に、受光領域21bのアドレスイベント検出部33は、アドレスイベントの検出信号の送信を要求するリクエストをアービタ部23(図2参照)に供給する。そして、アドレスイベント検出部33は、リクエストに対する応答をアービタ部23から受け取ると、アドレスイベントの検出信号を駆動部22及び信号処理部25に供給する。
 一方で、遮光画素のアドレスイベント検出部33は、アドレスイベントが発生した際に、アドレスイベントの検出信号を設定部26のカウント部26aに供給する。そして、カウント部26aは、オンイベント、及び、オフイベントそれぞれの数をカウントし、カウント数を閾値制御部26bに供給する。このような構成にすることにより、遮光画素のアドレスイベント検出部33は、受光領域21bのアドレスイベント検出部33と異なる経路でイベント情報を含む検出信号を設定部26に供給可能である。
[画素の回路構成例]
 図4は、画素30の回路構成の一例を示す回路図である。上述したように、複数の画素30のそれぞれは、受光部31、画素信号生成部32、及び、アドレスイベント検出部33を有する構成となっている。
 上記の構成の画素30において、受光部31は、受光素子(光電変換素子)311、転送トランジスタ312、及び、OFG(Over Flow Gate)トランジスタ313を有する構成となっている。転送トランジスタ312及びOFGトランジスタ313としては、例えば、N型のMOS(Metal Oxide Semiconductor)トランジスタが用いられる。転送トランジスタ312及びOFGトランジスタ313は、互いに直列に接続されている。
 受光領域21bの受光素子311は、転送トランジスタ312とOFGトランジスタ313との共通接続ノードNとグランドとの間に接続されており、入射光を光電変換して入射光の光量に応じた電荷量の電荷を生成する。
 一方で、遮光画素の受光素子311は、転送トランジスタ312とOFGトランジスタ313との共通接続ノードNとグランドとの間に接続されており、ノイズ成分に応じた電荷量の電荷を生成する。遮光画素の受光素子311の転送トランジスタ312は、常にOFF状態であり、画素信号生成部32への電荷供給は停止されている。このため、遮光画素30は、転送トランジスタ312及び画素信号生成部32を有さない構成でもよい。
 受光領域21bの転送トランジスタ312のゲート電極には、図2に示す駆動部22から転送信号TRGが供給される。転送トランジスタ312は、転送信号TRGに応答して、受光素子311で光電変換された電荷を画素信号生成部32に供給する。
 OFGトランジスタ313のゲート電極には、駆動部22から制御信号OFGが供給される。OFGトランジスタ313は、制御信号OFGに応答して、受光素子311で生成された電気信号をアドレスイベント検出部33に供給する。アドレスイベント検出部33に供給される電気信号は、電荷からなる光電流である。
 画素信号生成部32は、リセットトランジスタ321、増幅トランジスタ322、選択トランジスタ323、及び、浮遊拡散層324を有する構成となっている。リセットトランジスタ321、増幅トランジスタ322、及び、選択トランジスタ323としては、例えば、N型のMOSトランジスタが用いられる。
 画素信号生成部32には、受光部31から転送トランジスタ312によって、受光素子311で光電変換された電荷が供給される。受光部31から供給される電荷は、浮遊拡散層324に蓄積される。浮遊拡散層324は、蓄積した電荷の量に応じた電圧値の電圧信号を生成する。すなわち、浮遊拡散層324は、電荷を電圧に変換する。
 リセットトランジスタ321は、電源電圧VDDの電源ラインと浮遊拡散層324との間に接続されている。リセットトランジスタ321のゲート電極には、駆動部22からリセット信号RSTが供給される。リセットトランジスタ321は、リセット信号RSTに応答して、浮遊拡散層324の電荷量を初期化(リセット)する。
 増幅トランジスタ322は、電源電圧VDDの電源ラインと垂直信号線VSLとの間に、選択トランジスタ323と直列に接続されている。増幅トランジスタ322は、浮遊拡散層324で電荷電圧変換された電圧信号を増幅する。
 選択トランジスタ323のゲート電極には、駆動部22から選択信号SELが供給される。選択トランジスタ323は、選択信号SELに応答して、増幅トランジスタ322によって増幅された電圧信号を画素信号SIGとして垂直信号線VSLを介してカラム処理部24(図2参照)へ出力する。
 上記の構成の画素30が2次元配置されて成る画素アレイ部21を有する撮像装置20において、駆動部22は、図1に示す制御部13により受光領域21bのアドレスイベントの検出開始が指示されると、受光部31のOFGトランジスタ313に制御信号OFGを供給することによって当該OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を供給させる。
 一方で、駆動部22は、図1に示す制御部13により遮光画素のアドレスイベントの検出開始が指示されると、遮光画素の受光部31のOFGトランジスタ313に制御信号OFGを供給することによって当該OFGトランジスタ313を駆動してアドレスイベント検出部33に出力電流を供給させる。
 そして、受光領域21bの画素30においてアドレスイベントが検出されると、駆動部22は、その画素30のOFGトランジスタ313をオフ状態にしてアドレスイベント検出部33への光電流の供給を停止させる。次いで、駆動部22は、転送トランジスタ312に転送信号TRGを供給することによって当該転送トランジスタ312を駆動して、受光素子311で光電変換された電荷を浮遊拡散層324に転送させる。
 このようにして、上記の構成の画素30が2次元配置されて成る画素アレイ部21を有する撮像装置20は、アドレスイベントが検出された受光領域21bの画素30の画素信号のみをカラム処理部24に出力する。一方で、遮光画素30は、アドレスイベントの検出にのみ使用される。これにより、アドレスイベントの有無に関わらず、全画素の画素信号を出力する場合と比較して、撮像装置20の消費電力や、画像処理の処理量を低減することができる。
 尚、ここで例示した画素30の構成は一例であって、この構成例に限定されるものではない。例えば、画素信号生成部32を備えない画素構成とすることもできる。この画素構成の場合は、受光部31において、OFGトランジスタ313を省略し、当該OFGトランジスタ313の機能を転送トランジスタ312に持たせるようにすればよい。
[アドレスイベント検出部の第1構成例]
 図5は、受光領域21bのアドレスイベント検出部33の第1構成例を示すブロック図である。図6は、遮光画素のアドレスイベント検出部33の第1構成例を示すブロック図である。図5及び6に示すように、本構成例に係るアドレスイベント検出部33は、電流電圧変換部331、バッファ332、減算器333、量子化器334、及び、転送部335を有する構成となっている。
 電流電圧変換部331は、画素30の受光部31からの光電流を、その対数の電圧信号に変換する。電流電圧変換部331は、変換した電圧信号をバッファ332に供給する。バッファ332は、電流電圧変換部331から供給される電圧信号をバッファリングし、減算器333に供給する。
 減算器333には、駆動部22から行駆動信号が供給される。減算器333は、行駆動信号に従って、バッファ332から供給される電圧信号のレベルを低下させる。そして、減算器333は、レベル低下後の電圧信号を量子化器334に供給する。量子化器334は、減算器333から供給される電圧信号をデジタル信号に量子化してアドレスイベントの検出信号として転送部335に出力する。
 図5に示すように、受光領域21bの転送部335は、量子化器334から供給されるアドレスイベントの検出信号をアービタ部23等に転送する。この転送部335は、アドレスイベントが検出された際に、アドレスイベントの検出信号の送信を要求するリクエストをアービタ部23に供給する。そして、転送部335は、リクエストに対する応答をアービタ部23から受け取ると、アドレスイベントの検出信号を駆動部22及び信号処理部25に供給する。
 一方で、図6に示すように、遮光画素の転送部335は、量子化器334から供給されるアドレスイベントの検出信号を設定部26に転送する。
 続いて、アドレスイベント検出部33における電流電圧変換部331、減算器333、及び、量子化器334の構成例について説明する。
(電流電圧変換部の構成例)
 図7は、アドレスイベント検出部33における電流電圧変換部331の構成の一例を示す回路図である。図7に示すように、本例に係る電流電圧変換部331は、N型トランジスタ3311、P型トランジスタ3312、及び、N型トランジスタ3313を有する回路構成となっている。これらのトランジスタ3311~3313としては、例えば、MOSトランジスタが用いられる。
 N型トランジスタ3311は、電源電圧VDDの電源ラインと信号入力線3314との間に接続されている。P型トランジスタ3312及びN型トランジスタ3313は、電源電圧VDDの電源ラインとグランドとの間に直列に接続されている。そして、P型トランジスタ3312及びN型トランジスタ3313の共通接続ノードNには、N型トランジスタ3311のゲート電極と、図5、及び図6に示すバッファ332の入力端子とが接続されている。
 P型トランジスタ3312のゲート電極には、所定のバイアス電圧Vbiasが印加される。これにより、P型トランジスタ3312は、一定の電流をN型トランジスタ3313に供給する。N型トランジスタ3313のゲート電極には、信号入力線3314を通して、受光部31から光電流が入力される。
 N型トランジスタ3311及びN型トランジスタ3313のドレイン電極は電源側に接続されており、このような回路はソースフォロワと呼ばれる。これらのループ状に接続された2つのソースフォロワにより、受光部31からの光電流は、その対数の電圧信号に変換される。
(減算器及び量子化器の構成例)
 図8は、アドレスイベント検出部33における減算器333及び量子化器334の構成の一例を示す回路図である。
 本例に係る減算器333は、容量素子3331、インバータ回路3332、容量素子3333、及び、スイッチ素子3334を有する構成となっている。
 容量素子3331の一端は、図5及び図6に示すバッファ332の出力端子に接続され、その他端は、インバータ回路3332の入力端子に接続されている。容量素子3333は、インバータ回路3332に対して並列に接続されている。スイッチ素子3334は、容量素子3333の両端間に接続されている。スイッチ素子3334にはその開閉制御信号として、駆動部22から行駆動信号が供給される。スイッチ素子3334は、行駆動信号に応じて、容量素子3333の両端を接続する経路を開閉する。インバータ回路3332は、容量素子3331を介して入力される電圧信号の極性を反転する。
 上記の構成の減算器333において、スイッチ素子3334をオン(閉)状態とした際に、容量素子3331のバッファ332側の端子に電圧信号Vinitが入力され、その逆側の端子は仮想接地端子となる。この仮想接地端子の電位を、便宜上、ゼロとする。このとき、容量素子3331に蓄積されている電荷Qinitは、容量素子3331の容量値をCとすると、次式(1)により表される。一方、容量素子3333の両端は、短絡されているため、その蓄積電荷はゼロとなる。
  Qinit=C×Vinit             ・・・(1) 
 次に、スイッチ素子3334がオフ(開)状態となり、容量素子3331のバッファ332側の端子の電圧が変化してVafterになった場合を考えると、容量素子3331に蓄積される電荷Qafterは、次式(2)により表される。
  Qafter=C×Vafter             ・・・(2) 
 一方、容量素子3333に蓄積される電荷Qは、容量素子3333の容量値をCとし、出力電圧をVoutとすると、次式(3)により表される。
  Q=-C×Vout              ・・・(3) 
 このとき、容量素子3331及び容量素子3333の総電荷量は変化しないため、次の式(4)が成立する。
  Qinit=Qafter+Q             ・・・(4) 
 式(4)に式(1)乃至式(3)を代入して変形すると、次式(5)が得られる。
  Vout=-(C/C)×(Vafter-Vinit)  ・・・(5) 
 式(5)は、電圧信号の減算動作を表し、減算結果の利得はC/Cとなる。通常、利得を最大化することが望まれるため、Cを大きく、Cを小さく設計することが好ましい。一方、Cが小さすぎると、kTCノイズが増大し、ノイズ特性が悪化するおそれがあるため、Cの容量削減は、ノイズを許容することができる範囲に制限される。また、画素30毎に減算器333を含むアドレスイベント検出部33が搭載されるため、容量素子3331や容量素子3333には、面積上の制約がある。これらを考慮して、容量素子3331,3333の容量値C,Cが決定される。
 図8において、量子化器334は、コンパレータ3341を有する構成となっている。コンパレータ3341は、インバータ回路3332の出力信号、即ち、減算器430からの電圧信号を非反転(+)入力とし、所定の閾値電圧Vthを反転(-)入力としている。そして、コンパレータ3341は、減算器430からの電圧信号と所定の閾値電圧Vthとを比較し、比較結果を示す信号をアドレスイベントの検出信号として転送部335に出力する。
[アドレスイベント検出部の第2構成例]
 図9は、受光領域21bのアドレスイベント検出部33の第2構成例を示すブロック図である。図10は、遮光画素のアドレスイベント検出部33の第2構成例を示すブロック図である。図9、及び図10に示すように、本構成例に係るアドレスイベント検出部33は、電流電圧変換部331、バッファ332、減算器333、量子化器334、及び、転送部335の他に、記憶部336及び制御部337を有する構成となっている。
 記憶部336は、量子化器334と転送部335との間に設けられており、制御部337から供給されるサンプル信号に基づいて、量子化器334の出力、即ち、コンパレータ3341の比較結果を蓄積する。記憶部336は、スイッチ、プラスチック、容量などのサンプリング回路であってもよいし、ラッチやフリップフロップなどのデジタルメモリ回路でもあってもよい。
 制御部337は、設定部26の閾値制御部26bの制御信号に従い、コンパレータ3341の反転(-)入力端子に対して所定の閾値電圧Vthを供給する。制御部337からコンパレータ3341に供給される閾値電圧Vthは、時分割で異なる電圧値であってもよい。例えば、制御部337は、光電流の変化量が上限の閾値を超えた旨を示すオンイベントに対応する閾値電圧Vth1、及び、その変化量が下限の閾値を下回った旨を示すオフイベントに対応する閾値電圧Vth2を異なるタイミングで供給することで、1つのコンパレータ3341で複数種類のアドレスイベントの検出が可能になる。
 記憶部336は、例えば、制御部337からコンパレータ3341の反転(-)入力端子に、オフイベントに対応する閾値電圧Vth2が供給されている期間に、オンイベントに対応する閾値電圧Vth1を用いたコンパレータ3341の比較結果を蓄積するようにしてもよい。尚、記憶部336は、画素30の内部にあってもよいし、画素30の外部にあってもよい。また、記憶部336は、アドレスイベント検出部33の必須の構成要素ではない。すなわち、記憶部336は、無くてもよい。
[第2構成例に係る撮像装置(スキャン方式)]
 上述した第1構成例に係る撮像装置20は、非同期型の読出し方式にてイベントを読み出す非同期型の撮像装置である。但し、イベントの読出し方式としては、非同期型の読出し方式に限られるものではなく、同期型の読出し方式であってもよい。同期型の読出し方式が適用される撮像装置は、所定のフレームレートで撮像を行う通常の撮像装置と同じ、スキャン方式の撮像装置である。
 図11は、本開示に係る技術が適用される撮像システム10における撮像装置20として用いられる、第2構成例に係る撮像装置、即ち、スキャン方式の撮像装置の構成の一例を示すブロック図である。
 図11に示すように、本開示の撮像装置としての第2構成例に係る撮像装置20は、画素アレイ部21、駆動部22、信号処理部25、設定部26、読出し領域選択部27、及び信号生成部28を備える構成となっている。
 画素アレイ部21は、複数の画素30を含む。複数の画素30は、読出し領域選択部27の選択信号に応答して出力信号を出力する。複数の画素30のそれぞれについては、例えば図6に示すように、画素内に量子化器を持つ構成とすることもできる。複数の画素30は、光の強度の変化量に対応する出力信号を出力する。複数の画素30は、図11に示すように、行列状に2次元配置されていてもよい。
 また、図2と同様に、画素アレイ部21には、光を遮断する遮光領域21aと、遮光領域21a以外の受光領域21bとが設けられている。遮光領域21aは、行単位の複数の画素30の配置、及び列単位の複数の画素30の配置の少なくとも一方に対応する。また、遮光領域21aは、画素アレイ部21の上端部、下端部、左端部、右端部の少なくともいずれかに設けられる。このように、遮光領域21aは、画素アレイ部21の端部の複数の画素30を覆うように、設けられている。遮光領域21aの画素30の構成は、光が入射しないことを除き、受光領域21b以外の画素30と同等の構成としてもよい。これにより、遮光領域21aにおける複数の画素30は、ノイズによる電流の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。
 駆動部22は、複数の画素30のそれぞれを駆動して、各画素30で生成された画素信号を信号処理部25に出力させる。尚、駆動部22及び信号処理部25については、階調情報を取得するための回路部である。従って、イベント情報のみを取得する場合は、駆動部22及び信号処理部25は無くてもよい。
 読出し領域選択部27は、画素アレイ部21に含まれる複数の画素30のうちの一部を選択する。例えば、読出し領域選択部27は、画素アレイ部21に対応する2次元行列の構造に含まれる行のうちのいずれか1つもしくは複数の行を選択する。読出し領域選択部27は、予め設定された周期に応じて1つもしくは複数の行を順次選択する。また、読出し領域選択部27は、画素アレイ部21の各画素30からのリクエストに応じて選択領域を決定してもよい。
 信号生成部28は、読出し領域選択部27によって選択された画素の出力信号に基づいて、選択された画素のうちのイベントを検出した活性画素に対応するイベント信号を生成する。イベントは、光の強度が変化するイベントである。活性画素は、出力信号に対応する光の強度の変化量が予め設定された第1閾値を超える、又は、第2閾値を下回る画素である。例えば、信号生成部28は、電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに第1検出信号を検出するとともに、電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに第2検出信号を検出する。そして、第1検出信号又は第2検出信号を検出した画素を活性画素とし、活性画素に対応するイベント信号を生成する。
 信号生成部28については、例えば、信号生成部28に入ってくる信号を調停するような列選択回路を含む構成とすることができる。また、信号生成部28については、イベントを検出した活性画素の情報の出力のみならず、イベントを検出しない非活性画素の情報も出力する構成とすることができる。
 信号生成部28からは、出力線15を通して、イベントを検出した活性画素のアドレス情報及びタイムスタンプ情報(例えば、(X,Y,Ton), (X,Y,Toff)が出力される。但し、信号生成部28から出力されるデータについては、アドレス情報及びタイムスタンプ情報だけでなく、フレーム形式の情報(例えば、(0,0,1,0,・・・))であってもよい。Tonは、オンイベントを検出した時間を示し、Toffはオフイベントを検出した時間を示す。
 設定部26のカウント部26aは、活性画素のアドレス情報及びタイムスタンプ情報(例えば、(X,Y,Ton)、(X,Y,Toff)を用いて、所定期間内のオンイベント、及び、オフイベントそれぞれの数をカウントし、カウント数を閾値制御部26bに供給する。カウント部29aは、オンイベント、又はオフイベントの一方をカウントし、カウント数を閾値制御部26bに供給してもよい。
[チップ構造の構成例]
 上述した第1構成例又は第2構成例に係る撮像装置20のチップ(半導体集積回路)構造としては、例えば、積層型のチップ構造を採ることができる。図12は、撮像装置20の積層型のチップ構造の概略を示す分解斜視図である。
 図12に示すように、積層型のチップ構造、所謂、積層構造は、第1のチップである受光チップ201、及び、第2のチップである検出チップ202の少なくとも2つのチップが積層された構造となっている。そして、図4に示す画素30の回路構成において、受光素子311のそれぞれが受光チップ201上に配置され、受光素子311以外の素子の全てや、画素30の他の回路部分の素子などが検出チップ202上に配置される。受光チップ201と検出チップ202とは、ビア(VIA)、Cu-Cu接合、バンプなどの接続部を介して電気的に接続される。
 尚、ここでは、受光素子311を受光チップ201に配置し、受光素子311以外の素子や画素30の他の回路部分の素子などを検出チップ202に配置する構成例を例示したが、この構成例に限られるものではない。
 例えば、図4に示す画素30の回路構成において、受光部31の各素子を受光チップ201に配置し、受光部31以外の素子や画素30の他の回路部分の素子などを検出チップ202に配置する構成とすることができる。また、受光部31の各素子、及び、画素信号生成部32のリセットトランジスタ321、浮遊拡散層324を受光チップ201に配置し、それ以外の素子を検出チップ202に配置する構成とすることができる。更には、アドレスイベント検出部33を構成する素子の一部を、受光部31の各素子などと共に受光チップ201に配置する構成とすることができる。
[カラム処理部の構成例]
 図13は、第1構成例に係る撮像装置20のカラム処理部24の構成の一例を示すブロック図である。図13に示すように、本例に係るカラム処理部24は、画素アレイ部21の画素列毎に配置された複数のアナログ-デジタル変換器(ADC)241を有する構成となっている。
 尚、ここでは、画素アレイ部21の画素列に対して、1対1の対応関係でアナログ-デジタル変換器241を配置する構成例を例示したが、この構成例に限定されるものではない。例えば、複数の画素列を単位としてアナログ-デジタル変換器241を配置し、当該アナログ-デジタル変換器241を複数の画素列間で、時分割で用いる構成とすることもできる。
 アナログ-デジタル変換器241は、垂直信号線VSLを介して供給されるアナログの画素信号SIGを、先述したアドレスイベントの検出信号よりもビット数の多いデジタル信号に変換する。例えば、アドレスイベントの検出信号を2ビットとすると、画素信号は、3ビット以上(16ビットなど)のデジタル信号に変換される。アナログ-デジタル変換器241は、アナログ-デジタル変換で生成したデジタル信号を信号処理部25に供給する。
[ノイズイベントについて]
 ところで、撮像装置20は、画素アドレス毎に、その画素の光量が所定の閾値を超えた旨をアドレスイベントとしてリアルタイムに検出する検出部(即ち、アドレスイベント検出部33)を画素30毎に備えた撮像装置である。
 この撮像装置では、本来、シーンの中で何らかのイベント(即ち、真イベント)が発生したとき、当該真イベントの発生に要因するデータの取得が行われる。しかし、真イベントの発生の無いシーンでも、センサノイズ等のノイズイベント(偽イベント)に要因して、無駄に、データの取得が行われる場合がある。これにより、ノイズ信号が読み出されてしまうだけでなく、信号出力のスループットを低下させることになる。以下に説明する本開示の撮像装置20は、遮光画素におけるイベント数により、真イベントと偽イベントとに対する感度調整を行うようにしたものである。
 図14は、ノイズイベントと温度との関係を示す模式図である。横軸は時間を示し、縦軸はイベント数と温度を示す。ラインL12Aは、温度の時間変化を示し、ラインL12Bは、暗時(遮光時)におけるノイズイベントである暗時イベント数の時間変化を示す。画素30は、暗時でも光電変換を行うおうことにより暗時電流を出力する。これが、暗時イベントとしてカウントされる。
 図14に示すように、暗時イベント数の時系列変化は、例えば温度の時系列変化と相関する。例えば、ノイズイベントに対する感度を下げると、ノイズイベントは減るが、真イベントの検出感度も低下してしまう。一方で、真イベントの検出感度を上げるとノイズイベントに対する感度も増加してしまう。
 このため、閾値制御部26bは、撮像装置20の状態に応じて、感度調整を行うことにより、真イベントに対する感度と、暗時ノイズを要因とする偽イベントに対する感度との調整を行う。より詳細に以下に説明する。
 図15は、設定部26の閾値制御部26bの処理例を示すフローチャートである。ここでは、遮光領域21aの遮光画素30を用いて感度調整した後に、受光領域21bの画素30によるイベントの検出を行う例を説明する。上述のように、非同期型の第1構成例に係る撮像装置と、第2構成例に係る撮像装置(スキャン方式)とでは、イベントの検出信号の読みだし方法が異なるが、非同期型の第1構成例に係る撮像装置の閾値の設定方法と、第2構成例に係る撮像装置(スキャン方式)の閾値の設定方法とは、同等の処理を行うことが可能である。
 図15に示すように、まず、閾値制御部26bは、遮光領域21aの遮光画素30のノイズレベルに応じて閾値を設定する(ステップS1000)。
 次に、受光領域21bのアドレスイベント検出部33は、受光領域21bの画素30で生成された電気信号の変化量が閾値制御部26bに設定された閾値を超えた場合に検出信号を検出する(ステップS1100)。
 次に、閾値制御部26bは、全体処理を終了するか否かを判定し(ステップS1200)、終了しない場合(ステップS1200のNO)、ステップS102からの処理を繰り返す。一方で、終了する場合(ステップS1200のYES)、全体処理を終了する。
 このように、閾値制御部26bは、遮光領域21aの遮光画素30のノイズレベルに応じて閾値を設定するので、真イベントと暗時ノイズイベントとに対する感度調整を行うことができる。
 図16は、並列処理における閾値制御部26bの処理例を示すフローチャートである。図16に示すように、遮光画素30のノイズレベルに応じた閾値の設定(ステップS1000)と、受光領域21bのアドレスイベント検出部33の検出処理(ステップS1100)とを、並列に行う。
 このように、処理を並列に行うことにより、受光領域21bのアドレスイベント検出部33のイベント検出を停止することなく、真イベントと暗時ノイズイベントとに対する感度調整を行うことができる。
 図17は、図15及び図16のステップS1000の処理例を示すフローチャートである。
 図18は、図17で示す処理例を模式的に示す図である。横軸は時間を示し、縦軸は閾値を示す。図18に示すように、オンイベントに対する第1閾値、及び、オフイベントに対する第2閾値の基準レベル(AZレベル)に対する変化量を模式的に示す。ここでは、オンイベントに対する第1閾値、及び、オフイベントに対する第2閾値の基準レベル(AZレベル)に対する変化量の絶対値を同値として扱う。例えば、第1閾値を初期設定置からVh1ボルト増加させる場合には、第2閾値を初期設定置からVh1ボルト減少させる。
 図17に示すように、閾値制御部26bは、第1閾値電圧Vth1、及び、第2閾値電圧Vth2を、遮光画素30及び受光領域21bのコンパレータ3341(図8,10を参照)の反転(-)入力端子に供給する(ステップS100)。コンパレータ3341は、電流の変化量が上限の第1閾値電圧Vth1を上側に超えた旨を示すオンイベントに対応するイベント検出信号と、第2閾値電圧Vth2を下側に超えた旨を示すオフイベントに対応するイベント検出信号を設定部26のカウント部26aに出力する。カウント部26aは、所定期間内に発生したイベント数をカウントし、閾値制御部26bに供給する(ステップS102)。
 なお、図16で示す並列処理の場合には、図17で示すステップS102の所定期間は、全撮影期間である必要はなく、遮光画素のイベント数をカウントする所定期間と、遮光画素のイベント数をカウントしない期間とを交互に設けてもよい。
 第2構成例に係る撮像装置(スキャン方式)の場合には、読出し領域選択部27は、遮光領域21aに含まれる複数の画素30のうちの一部を選択する。例えば、読出し領域選択部27は、遮光領域21aに対応する2次元行列の構造に含まれる行のうちのいずれか1つもしくは複数の行を選択する。読出し領域選択部27(図11参照)は、予め設定された周期に応じて1つもしくは複数の行を順次選択し、遮光画素30の活性画素のアドレス情報及びタイムスタンプ情報(例えば、(X,Y,Ton)、(X,Y,Toff))を順繰りに読み出し、信号生成部28を介してカウント部26aに供給する。設定部26のカウント部26aは、活性画素のアドレス情報及びタイムスタンプ情報((例えば、(X,Y,Ton)、(X,Y,Toff))を用いて、所定期間内のオンイベント、及び、オフイベントそれぞれの数をカウントし、カウント数を閾値制御部26bに供給する。
 次に、閾値制御部26bは、所定時間内のイベントのカウント数(オンイベント数+オフイベント数)が所定範囲であるか否かを判定する(ステップS104)。閾値制御部26bは、イベント数が所定範囲外である場合(ステップS104のYES)、更に、イベントのカウント数が所定値以上か否かを判定する(ステップS106)。閾値制御部26bは、イベント数が所定値以上である場合(ステップS106のYES)、閾値の感度を下げる(ステップS108)。すなわち、閾値制御部26bは、画素アレイ部21全体の画素30に対して、第1閾値電圧Vth1から所定値Th1aボルト増加させ、第2閾値電圧Vth2から所定値Th1aボルト減少させる。
 一方で、イベント数が所定値未満である場合(ステップS106のNO)、閾値の感度を上げる。閾値制御部26bは、画素アレイ部21全体の画素30に対して、第1閾値電圧Vth1から所定値Th2aボルト減少させ、第2閾値電圧Vth2から所定値Th2aボルト増加させる(ステップS110)。
 一方で、イベント数が所定値未満である場合(ステップS104のNO)、閾値の感度を維持する。すなわち、閾値制御部26bは、画素アレイ部21全体の画素30に対して、第1閾値電圧Vth1及び第2閾値電圧Vth2を変更しない(ステップS112)。
 図19は、図17で示す処理を3周期行った処理例を示す図である。横軸は時間を示し、縦軸は閾値を示す。図19に示すように、オンイベントに対する第1閾値、及び、オフイベントに対する第2閾値を時間経過とともに変動させることが可能である。
 このように、遮蔽領域21aにおける光電変換素子311で生成された電気信号の基準レベルからの変化量の絶対値が、所定期間において閾値(第1閾値電圧Vth1又は第2閾値電圧Vth2)を超えた数に基づき、閾値(第1閾値電圧Vth1又は第2閾値電圧Vth2)を設定する。これにより、遮光領域21aの遮光画素30における暗時ノイズイベントの発生数に応じて閾値制御が可能となり、真イベントと暗時ノイズイベントとに対する感度調整を行うことができる。
 図20は、オンイベントに対する第1閾値と、オフイベントに対する第2閾値と、を独立に調整する処理例を示すフローチャートである。図20に示すように、まず、閾値制御部26bは、遮光領域21aの遮光画素30のオンイベントに応じて第1閾値を設定し(ステップS1000a)、並行して、遮光領域21aの遮光画素30のオフイベントのレベルに応じて第2閾値を設定する(ステップS1000b)。
 次に、受光領域21bのアドレスイベント検出部33は、受光領域21bの画素30で生成された電気信号の変化量が閾値制御部26bに独立に設定された第1閾値又は第2閾値を超えた場合にオンイベントの検出信号、及びオフイベントの検出信号を検出する(ステップS1100)。
 図21は、オンイベントに対する第1閾値と、オフイベントに対する第2閾値と、を独立に調整する処理例を模式的に示す図である。横軸は時間を示し、縦軸は閾値を示す。
 このように、閾値制御部26bは、遮光領域21aの遮光画素30のノイズレベルに応じて第1閾値、及び第2閾値を独立に設定する。これにより、電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超える真イベントとオンイベントに対応する暗時ノイズイベントと、に対する感度調整を行うことができる。また、同時に、電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超え超える真イベントとオフイベントに対応する暗時ノイズイベントと、に対する感度調整を行うことができる。このように、第1閾値と第2閾値とを独立して調整できるので、オンイベントに対応する暗時ノイズイベントと、オフイベントに対応する暗時ノイズイベントとの発生分布に統計的に偏りがある場合にも、より適切に感度調整が可能となる。
 図22は、並列処理における第1閾値と、第2閾値と、を独立に調整する処理例を示すフローチャートである。図21に示すように、閾値制御部26bは、遮光領域21aの遮光画素30のオンイベントのレベルに応じて第1閾値を設定する処理(ステップS1000a)と、並行して、遮光領域21aの遮光画素30のオフイベントのレベルに応じて第2閾値を設定する処理(ステップS1000b)と、受光領域21bのアドレスイベント検出部33の検出処理(ステップS1100)とを、並列に行う。
 このように、処理を並列に行うことにより、受光領域21bのアドレスイベント検出部33のイベント検出を停止することなく、第1閾値と第2閾値とを独立して調整できる。
 図23は、閾値の設定処理(ステップS1000)の処理において閾値を段階的に変更する例を示すフローチャートである。
 図24は、図23で示す処理例を模式的に示す図である。横軸は時間を示し、縦軸は閾値を示す。図20に示すように、オンイベントに対する第1閾値、及び、オフイベントに対する第2閾値の基準レベル(AZレベル)に対する変化量を時系列に段階的に変化させる。例えば、収束想定値である閾値に達するまでに数段階の閾値の変化を与える。ここでは、想定収束値がAZレベル+所定値Vhfである場合、所定値Th1をAZレベル+Vhf×0.8、所定値Th2をAZレベル+Thf×0.96などのように、閾値の想定収束値に時間経過とともに漸近的に近づくように変更する。
 図23に示すように、閾値制御部26bは、初期設定した閾値Th0に対する所定時間内のイベントのカウント数(オンイベント数+オフイベント数)が所定値以上であるか否かを判定する(ステップS104)。閾値制御部26bは、イベント数が所定値以上である場合(ステップS104のYES)、閾値の感度を段階的に下げる(ステップS108a)。すなわち、閾値制御部26bは、第1期間では、画素アレイ部21全体の画素30に対して、第1閾値電圧Vth1を基準レベルから所定値Th1ボルト増加させ、第2閾値電圧Vth2を基準レベルから所定値Th1ボルト減少させる。次の、第2期間では、画素アレイ部21全体の画素30に対して、第1閾値電圧Vth1を基準レベルから所定値Th2ボルト増加させ、第2閾値電圧Vth2を基準レベルから所定値Th2ボルト減少させる。この場合、(Th2-Th1)の絶対値は、(Th1-Th0)の絶対値より小さくなる。
 一方で、閾値制御部26bはイベント数が所定値未満である場合(ステップS104のNO)、現在の閾値を変更せず、全体処理を終了する。
 このように、段階的に閾値を変更するので、目的とする暗時ノイズイベン数に近い感度に設定可能である。また、段階的に閾値を変更するので、受光領域21bの画素30の時間あたりのイベントの発生数の変化を抑制しつつ閾値を変更できる。
 図25は、閾値の設定処理(ステップS1000a)の処理において第1閾値を段階的に変更する例を示すフローチャートである。図25に示すように、遮光画素のオンイベントをカウントし(ステップS102a)、所定範囲でない場合に、第1閾値を段階的に変更する(ステップS110a)。このように、第1閾値と第2閾値とを独立して調整する場合にも、第1閾値を段階的に変更する処理をおこなうことが可能である。
 図26は、第1閾値を段階的に変更する例を模式的に示す図である。横軸は時間を示し、縦軸は第1閾値を示す。図26に示すように、初期設定された第1閾値Th0aを、第1段階目に第1閾値Th1aに変更し、第2段階目に第1閾値Th2aに変更する。このように、第1閾値粗く調整した後に、少しずつ収束させることで、発散を抑制しつつ、収束を早めることができる。なお、図26に示す処理は、閾値の設定処理(ステップS1000)にも適用可能である。
 図27は、閾値の設定処理(ステップS1000b)の処理において第2閾値を段階的に変更する例を示すフローチャートである。図27に示すように、遮光画素のオフイベントをカウントし(ステップS102b)、所定範囲でない場合に、第2閾値を段階的に変更する(ステップS110b)。このように、第1閾値と第2閾値とを独立して調整する場合にも、第2閾値を段階的に変更する処理をおこなうことが可能である。
 図28は、第2閾値を段階的に変更する例を模式的に示す図である。横軸は時間を示し、縦軸は第1閾値を示す。図28に示すように、初期設定された第1閾値Th0bを、第1段階目に第1閾値Th1bに変更し、第2段階目に第1閾値Th2bに変更する。このように、第2閾値を粗く調整した後に、少しずつ収束させることで、発散を抑制しつつ、収束を早めることができる。なお、図28に示す処理は、閾値の設定処理(ステップS1000)にも適用可能である。
 図29は、閾値の設定処理(ステップS1000b)の処理において不感帯を設けた例を示すフローチャートである。図30は、不感帯を設けた第2閾値を段階的に変更する例を模式的に示す図である。横軸は時間を示し、縦軸は第2閾値を示す。
 ここで、不感帯とは、第2閾値Th0b、Th1b、Th2bなどの上下に設けられている閾値を意味する。例えば、AZレベルと第2閾値Th0bの差の絶対値の前後10パーセントを不感帯とする。より具体的には、AZレベルが例えば100であり、第2閾値Th0bが50であれば、AZレベルと第2閾値Th0bの差の絶対値は(100-50)であり、差の絶対値の前後10パーセントは50×0.1=±5となる。すなわち、不感帯は、45~55の範囲となる。例えば、第2閾値Th0bの閾値を変更する場合に、第2閾値Th1bが不感帯の範囲内なら、閾値を変更せず、不感帯外なら閾値を変更する。図30では、第2閾値Th1bが第2閾値Th0bの不感帯の範囲外であるので、第2閾値Th1bの値は、第2閾値Th0bから変更されている。一方で、第2閾値Th2bが第2閾値Th1bの不感帯の範囲内であるので、第2閾値Th2bの値は、第2閾値Th1bと同値とし、変更されない。
 図29に示すように、閾値制御部26bは、オフイベント数が所定の範囲である場合(ステップS104bのNO)、変更予定の第2閾値Th1bの値が現在の第2閾値Th0bの不感帯の範囲か否かを判定する(ステップS112b)、不感帯の範囲外である場合(ステップS112bのNO)、の第2閾値Th1bの値を第2閾値Th0bから変更する。一方で、不感帯の範囲内である場合(ステップS112bのYES)、第2閾値Th1bの値を第2閾値Th0bの値に維持して処理を終了する。
 このように閾値の変更すべき量が不感帯の範囲であれば、閾値を変更しないこととした。なお、図30に示す処理は、閾値の設定処理(ステップS1000、ステップS1000a)にも適用可能である。
 例えば、閾値の変更を行うと画像のばらつきを観察者は感じてしまう場合がある。このため、不感帯の範囲を大きくすると閾値が変更されず、観察者が画像のばらつきを感じすることが抑制される。一方で、不感帯の範囲を大きくすると感度調整が抑制される。このため、不感帯の範囲を調整することで、感度調整と、画像のばらつきとをバランスさせることが可能となる。
 図31は、閾値の設定処理(ステップS1000b)の処理において温度変化に応じて閾値の変更量を変更する例を示すフローチャートである。図32は、温度変化に応じて閾値の変更量を変更する例を模式的に示す図である。横軸は時間を示し、縦軸は第2閾値を示す。図32に示すよう、温度の時系列値Tmaの時間変化が大きい領域での第2閾値Th1bの変化量を大きくする。
 図31に示すように、閾値制御部26bは、オフイベント数が所定の範囲である場合(ステップS104bのNO)、記録部12に時系列に記録されている受光領域21bの画素30に対応する温度情報を用いて、温度の時間変化量を演算する。例えば、温度の時間差分の絶対値を演算する(ステップS116b)。温度センサ21cから取得した温度は、記録部12に時系列に記録されている。
 次に、閾値制御部26bは、温度の変化量に基づき、第2閾値の変更量を演算して、第2閾値を変更する(ステップS118b)。このように、温度の時間変化量に応じて第2閾値の変化量を調整する。図14に示すように、温度変化とノイズ変化は相関するため、温度変化が大きなタイミングで、第2閾値の変化量を大きくできるので、より効率的に感度調整が可能となる。
 以上説明したように、本実施形態によれば、閾値制御部26bが、遮光領域21aの遮光画素30のノイズレベルに応じて閾値を設定することとした。これにより、暗時ノイズイベントの発生量を調整できるので、真イベントと暗時ノイズイベントとに対する感度調整を行うことが可能となる。
(第1実施形態の変形例)
 第1実施形態の変形例に係る撮像システム10は、閾値を設定する演算処理部15を撮像装置20の外部に有する点で、第1実施形態に係る撮像システム10と相違する。以下に1実施形態に係る撮像システム10と相違する点を説明する。
 図33は、第1実施形態の変形例に係る撮像装置20の構成を示すブロック図である。図33では、駆動部22、アービタ部23、カラム処理部24の記載を省略している。図33に示すように、演算処理部15を撮像装置20の外部に有する。演算処理部15は、ユーザーが演算プログラムや、処理パラメータを変更可能な装置である。これにより、ユーザーが任意のアルゴリズムで閾値設定を行う事ができる。
<本開示に係る技術の適用例>
 本開示に係る技術は、様々な製品に適用することができる。以下に、より具体的な適用例について説明する。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される測距装置として実現されてもよい。
[移動体]
 図34は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図31に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図34では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図35は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 尚、図35には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図34に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。尚、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。尚、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図34の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 尚、図34に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部7910,7912,7914,7916,7918や、車外情報検出部7920,7922,7924,7926,7928,7930や、運転者状態検出部7510等に適用され得る。具体的には、これらの撮像部や検出部に対して、本開示の撮像装置を有する図1の撮像システム10を適用することができる。そして、本開示に係る技術を適用することにより、センサノイズ等のノイズイベントの影響を緩和し、真イベントの発生を確実に、かつ、迅速に感知することができるため、安全な車両走行を実現することが可能となる。
 なお、本技術は以下のような構成を取ることができる。
 (1)光電変換して電気信号を生成する複数の光電変換素子を有する光電変換部と、
 前記複数の光電変換素子のうちの所定領域のノイズレベルに応じて閾値を設定する設定部と、
 前記複数の光電変換素子で生成された前記電気信号の変化量が前記閾値を超えた場合に検出信号を検出する第1検出部と、
 を備える、撮像装置。
 (2)前記所定領域の前記光電変換素子は、遮光されており、
 前記所定領域以外の光電変換素子は、それぞれが入射光を光電変換して電気信号を生成する、(1)に記載の撮像装置。
 (3)前記複数の光電変換素子は、2次元の行列状に配置されており、前記遮光されている遮光領域は、行単位の前記光電変換素子の配置、及び列単位の前記光電変換素子の配置の少なくとも一方に対応する、(2)に記載の撮像装置。
 (4)前記行単位の前記光電変換素子の配置、及び前記列単位の前記光電変換素子の配置は、前記2次元の行列状に配置された前記複数の光電変換素子の端部を含む、(3)に記載の撮像装置。
 (5)前記設定部は、前記所定領域における光電変換素子で生成された前記電気信号の変化量の絶対値が、所定期間において前記閾値を超えた数に基づき、前記閾値を設定する、(1)乃至(4)のいずれか一項に記載の撮像装置。
 (6)前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに第1検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに第2検出信号を検出し、
 前記設定部は、
 前記所定領域における電変換素子で生成された前記電気信号の信号レベルが増大する方向の変化量の絶対値が、所定期間において前記第1閾値を超えた数に基づき、前記第1閾値を設定し、
 前記所定領域における電変換素子で生成された前記電気信号の信号レベルが減少する方向の変化量の絶対値が、所定期間において前記第2閾値を超えた数に基づき、前記2閾値を設定する、(1)乃至(5)のいずれか一項に記載の撮像装置。
 (7)前記設定部は、前記所定期間において前記閾値を超えた数に基づき、前記閾値を段階的に設定する、(1)乃至(5)のいずれか一項に記載の撮像装置。
 (8)前記設定部は、時間経過にしたがい、前記閾値の変化率を減少させる、(7)に記載の撮像装置。
 (9)前記設定部は、前記閾値の変化率を減少させ、初期設定置に漸近させる、(8)に記載の撮像装置。
 (10)前記設定部は、前記閾値を第1段階の閾値に設定した後に、前記変化率を減少させ、所定の設定値に漸近させる、(8)に記載の撮像装置。
 (11)前記設定部は、前記所定期間において前記閾値を超えた数が所定値未満である場合に、前記閾値を変更しない、(1)乃至(10)のいずれか一項に記載の撮像装置。
 (12)前記設定部は、前記複数の光電変換素子に対応する温度に応じて、前記閾値を設定する、(1)乃至(10)のいずれか一項に記載の撮像装置。
 (13)前記設定部は、前記温度変化が大きくなるに従い、前記閾値の変化率を大きくする、(12)に記載の撮像装置。
 (14)前記第1検出部は、前記所定領域の光電変換素子の前記電気信号を順繰りに読み出し、
 前記設定部は、前記閾値を超えた前記検出信号の数を所定期間にわたってカウントする、(1)乃至(13)のいずれか一項に記載の撮像装置。
 (15)遮光された光電変換素子のノイズレベルに応じて閾値を設定し、
 それぞれが入射光を光電変換して電気信号を生成する複数の光電変換素子で生成された前記電気信号の変化量の絶対値が前記閾値を超えた場合に検出信号を検出する、撮像方法。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 10 撮像システム、20 撮像装置、21 画素アレイ部、21a 遮光領域、21b 受光領域、22 駆動部、23 アービタ部、24 カラム処理部、25 信号処理部、26 設定部、26a カウント部、26b 閾値制御部、30 画素、31 受光部、33 アドレスイベント検出部。

Claims (15)

  1.  光電変換して電気信号を生成する複数の光電変換素子を有する光電変換部と、
     前記複数の光電変換素子のうちの所定領域のノイズレベルに応じて閾値を設定する設定部と、
     前記複数の光電変換素子で生成された前記電気信号の変化量が前記閾値を超えた場合に検出信号を検出する第1検出部と、
     を備える、撮像装置。
  2.  前記所定領域の前記光電変換素子は、遮光されており、
     前記所定領域以外の前記光電変換素子は、それぞれが入射光を光電変換して前記電気信号を生成する、請求項1に記載の撮像装置。
  3.  前記複数の光電変換素子は、2次元の行列状に配置されており、前記遮光されている遮光領域は、行単位の前記光電変換素子の配置、及び列単位の前記光電変換素子の配置の少なくとも一方に対応する、請求項2に記載の撮像装置。
  4.  前記行単位の前記光電変換素子の配置、及び前記列単位の前記光電変換素子の配置は、前記2次元の行列状に配置された前記複数の光電変換素子の端部を含む、請求項3に記載の撮像装置。
  5.  前記設定部は、前記所定領域における前記光電変換素子で生成された前記電気信号の変化量の絶対値が、所定期間において前記閾値を超えた数に基づき、前記閾値を設定する、請求項1に記載の撮像装置。
  6.  前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに第1検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに第2検出信号を検出し、
     前記設定部は、
     前記所定領域における電変換素子で生成された前記電気信号の信号レベルが増大する方向の変化量の絶対値が、所定期間において前記第1閾値を超えた数に基づき、前記第1閾値を設定し、
     前記所定領域における電変換素子で生成された前記電気信号の信号レベルが減少する方向の変化量の絶対値が、所定期間において前記第2閾値を超えた数に基づき、前記第2閾値を設定する、請求項1に記載の撮像装置。
  7.  前記設定部は、前記所定期間において前記閾値を超えた数に基づき、前記閾値を段階的に設定する、請求項5に記載の撮像装置。
  8.  前記設定部は、時間経過にしたがい、前記閾値の変化率を減少させる、請求項7に記載の撮像装置。
  9.  前記設定部は、前記閾値の変化率を減少させ、初期設定置に漸近させる、請求項8に記載の撮像装置。
  10.  前記設定部は、前記閾値を第1段階の閾値に設定した後に、前記変化率を減少させ、所定の設定値に漸近させる、請求項8に記載の撮像装置。
  11.  前記設定部は、所定期間において前記閾値を超えた数が所定値未満である場合に、前記閾値を変更しない、請求項1に記載の撮像装置。
  12.  前記設定部は、前記複数の光電変換素子に対応する温度に応じて、前記閾値を設定する、請求項1に記載の撮像装置。
  13.  前記設定部は、前記温度変化が大きくなるに従い、前記閾値の変化率を大きくする、請求項12に記載の撮像装置。
  14.  前記第1検出部は、前記所定領域の光電変換素子の前記電気信号を順繰りに読み出し、
     前記設定部は、前記閾値を超えた前記検出信号の数を所定期間にわたってカウントする、請求項1に記載の撮像装置。
  15.  遮光された光電変換素子のノイズレベルに応じて閾値を設定し、
     それぞれが入射光を光電変換して電気信号を生成する複数の光電変換素子で生成された前記電気信号の変化量の絶対値が前記閾値を超えた場合に検出信号を検出する、撮像方法。
PCT/JP2021/017017 2020-05-28 2021-04-28 撮像装置及び撮像方法 WO2021241120A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022527612A JPWO2021241120A1 (ja) 2020-05-28 2021-04-28
CN202180037011.5A CN115699791A (zh) 2020-05-28 2021-04-28 成像装置和成像方法
US17/998,678 US20230179879A1 (en) 2020-05-28 2021-04-28 Imaging device and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-093556 2020-05-28
JP2020093556 2020-05-28

Publications (1)

Publication Number Publication Date
WO2021241120A1 true WO2021241120A1 (ja) 2021-12-02

Family

ID=78744516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017017 WO2021241120A1 (ja) 2020-05-28 2021-04-28 撮像装置及び撮像方法

Country Status (5)

Country Link
US (1) US20230179879A1 (ja)
JP (1) JPWO2021241120A1 (ja)
CN (1) CN115699791A (ja)
TW (1) TWI788818B (ja)
WO (1) WO2021241120A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023182049A1 (ja) * 2022-03-23 2023-09-28 ソニーセミコンダクタソリューションズ株式会社 イメージセンサ、データ構造
WO2023189279A1 (ja) * 2022-03-29 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、撮像装置および信号処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023006711A (ja) * 2021-06-30 2023-01-18 株式会社アイシン 物体検出システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134271A (ja) * 2018-01-31 2019-08-08 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2020066432A1 (ja) * 2018-09-28 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の制御方法および電子機器
WO2020066803A1 (ja) * 2018-09-27 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および、撮像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201340708A (zh) * 2012-03-19 2013-10-01 Sony Corp 固體攝像裝置及電子機器
TW202408216A (zh) * 2018-01-23 2024-02-16 日商索尼半導體解決方案公司 光檢測裝置
JP7407708B2 (ja) * 2018-07-17 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 撮像素子、積層型撮像素子及び固体撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134271A (ja) * 2018-01-31 2019-08-08 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2020066803A1 (ja) * 2018-09-27 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および、撮像装置
WO2020066432A1 (ja) * 2018-09-28 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の制御方法および電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023182049A1 (ja) * 2022-03-23 2023-09-28 ソニーセミコンダクタソリューションズ株式会社 イメージセンサ、データ構造
WO2023189279A1 (ja) * 2022-03-29 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、撮像装置および信号処理方法

Also Published As

Publication number Publication date
CN115699791A (zh) 2023-02-03
TW202147825A (zh) 2021-12-16
TWI788818B (zh) 2023-01-01
US20230179879A1 (en) 2023-06-08
JPWO2021241120A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
US11863911B2 (en) Imaging system, method of controlling imaging system, and object recognition system
WO2021241120A1 (ja) 撮像装置及び撮像方法
US11895398B2 (en) Imaging device and imaging system
WO2020196092A1 (ja) 撮像システム及び撮像システムの制御方法、並びに、物体認識システム
WO2022009664A1 (ja) 撮像装置及び撮像方法
US11683606B2 (en) Imaging device and electronic equipment
WO2021256095A1 (ja) 撮像装置及び撮像方法
US20230047180A1 (en) Imaging device and imaging method
CN113647089B (zh) 成像***
WO2021235323A1 (ja) 撮像装置及び撮像方法
WO2021153428A1 (ja) 撮像装置、電子機器及び撮像方法
WO2022065032A1 (ja) 撮像装置及び撮像方法
WO2024106169A1 (ja) 光検出素子及び電子機器
US20230108884A1 (en) Imaging device and imaging method
WO2022124092A1 (ja) 固体撮像素子、撮像装置及び固体撮像素子の制御方法
WO2023136093A1 (ja) 撮像素子、および電子機器
JP2018029221A (ja) 固体撮像素子、信号処理装置、および、固体撮像素子の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21813407

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022527612

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21813407

Country of ref document: EP

Kind code of ref document: A1