WO2017212722A1 - 制御装置及び制御方法 - Google Patents

制御装置及び制御方法 Download PDF

Info

Publication number
WO2017212722A1
WO2017212722A1 PCT/JP2017/009256 JP2017009256W WO2017212722A1 WO 2017212722 A1 WO2017212722 A1 WO 2017212722A1 JP 2017009256 W JP2017009256 W JP 2017009256W WO 2017212722 A1 WO2017212722 A1 WO 2017212722A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
control
control unit
present
region
Prior art date
Application number
PCT/JP2017/009256
Other languages
English (en)
French (fr)
Inventor
鷹本 勝
成貴 工藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/306,271 priority Critical patent/US20190141263A1/en
Priority to CN201780030955.3A priority patent/CN109155826A/zh
Publication of WO2017212722A1 publication Critical patent/WO2017212722A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/59Control of the dynamic range by controlling the amount of charge storable in the pixel, e.g. modification of the charge conversion ratio of the floating node capacitance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Definitions

  • the present disclosure relates to a control device and a control method.
  • Patent Document 1 discloses a technique for individually controlling a high-resolution area in which all pixels are read and a low-resolution area in which thinning-out reading is performed in a CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • the exposure of the high resolution area is started at a predetermined timing so that the exposure is completed before and after the completion of the thinning readout in the low resolution area. Therefore, for example, when the technique described in Patent Document 1 is used, images with different exposures can be acquired in the low resolution region and the high resolution region.
  • the present disclosure proposes a new and improved control device and control method capable of realizing dynamic imaging control for each imaging region.
  • a control device including an imaging control unit that controls imaging for each of a plurality of imaging regions set in an imaging device based on a plurality of trigger signals.
  • control executed by the control device including controlling imaging for each of a plurality of imaging regions set in the imaging device based on a plurality of trigger signals.
  • Embodiment 1.1 Functional configuration example of control device 1.2.
  • Embodiment> [1.1. Functional configuration of control device]
  • the captured image (moving image or still image) obtained by imaging a product flowing through a line by an imaging device can be used for various inspections of the product. It can be used for various purposes.
  • an imaging device capable of clearly imaging an imaging target having a site where the difference in brightness is greatly different is required in a system in an industrial field or the like.
  • control device has been conceived by focusing on the above points. For this reason, the control apparatus which concerns on this embodiment may have a function which controls imaging for every some imaging area set to an imaging device. At this time, the control device according to the present embodiment can control imaging for each of the plurality of imaging regions based on a plurality of input trigger signals.
  • the imaging region according to the present embodiment may be a region set in a pixel circuit included in the imaging device, for example.
  • the plurality of imaging regions according to the present embodiment may be regions that do not overlap each other.
  • an imaging device having a CMOS as an imaging element may be mentioned.
  • the imaging device included in the imaging device according to the present embodiment may be configured by only a CMOS, or a stack type imaging device configured by stacking other components such as a CCD (Charge Coupled Device) on the CMOS. It may be.
  • CCD Charge Coupled Device
  • the imaging device according to the present embodiment is not limited to the example described above.
  • the imaging device according to the present embodiment includes an imaging device having an arbitrary imaging element that can be applied to a global shutter.
  • FIG. 1 is a configuration diagram illustrating an example of a logical configuration and a physical configuration of the control device 100 according to the present embodiment.
  • the control device 100 according to the present embodiment includes an imaging control unit 102 and an imaging unit 104.
  • the imaging control unit 102 has a function of controlling imaging for each of a plurality of imaging regions set in the imaging device based on a plurality of trigger signals.
  • the imaging control unit 102 can control imaging for each of a plurality of imaging regions set in the imaging unit 104 described later, based on a plurality of input trigger signals, XTRIG1 and XTRIG2.
  • the trigger signal according to the present embodiment may be a signal generated based on various conditions.
  • the trigger signal according to the present embodiment may be, for example, a signal generated based on detection of an imaging target by a separate detection unit, or based on an instruction operation related to imaging (for example, pressing a shutter button). It may be a signal generated. Examples of the separate means include a detection device using infrared rays and a detection device using another imaging device. Further, the trigger signal according to the present embodiment may be a signal generated based on conditions such as a preset time.
  • the imaging control unit 102 receives the plurality of trigger signals generated as described above (or directly) via a communication unit described later, and based on the plurality of trigger signals, Imaging can be controlled for each imaging region. That is, the imaging control unit 102 according to the present embodiment can realize dynamic imaging control based on a plurality of input trigger signals.
  • each of the trigger signals according to the present embodiment may be a signal corresponding to the imaging area.
  • the single trigger signal may be a signal corresponding to a plurality of imaging regions.
  • the imaging control unit 102 may control imaging of two imaging regions corresponding to the trigger signal XTRIG1 based on the trigger signal XTRIG1.
  • the imaging control unit 102 can control imaging of two imaging regions corresponding to the trigger signal XTRIG2 based on the trigger signal XTRIG2.
  • the single trigger signal may be a signal corresponding to a single imaging region.
  • the imaging control unit 102 may control imaging of a single imaging region corresponding to the trigger signal XTRIG1 based on the trigger signal XTRIG1.
  • the imaging control unit 102 can control imaging of two imaging regions corresponding to the trigger signal XTRIG2 based on the trigger signal XTRIG2.
  • the imaging control unit 102 can also perform imaging control of the imaging area based on a trigger signal corresponding to the imaging area.
  • the imaging control unit 102 may control exposure for each imaging region.
  • exposure refers to an operation of converting light incident on the image sensor into charges and accumulating the converted charges. That is, the imaging control unit 102 according to the present embodiment can control the charge accumulation period in the imaging region based on a plurality of trigger signals.
  • the imaging control unit 102 can perform control so that the charge accumulation period differs between imaging regions. According to the above-described function of the imaging control unit 102, each part can be imaged with different exposure even if the imaging target has a part with a greatly different brightness difference, and a clearer captured image can be obtained. Is possible.
  • the imaging control unit 102 may start charge accumulation in the imaging region based on a change in the trigger signal corresponding to the imaging region. That is, the imaging control unit 102 according to the present embodiment starts accumulation of electric charges in the imaging area corresponding to the trigger signal based on the change of the trigger signal related to the start of accumulation, so that accumulation is performed for each imaging area.
  • the start timing can be controlled.
  • the imaging control unit 102 starts the charge accumulation based on the trigger signal first changed among the trigger signals corresponding to the image capture areas where the charge accumulation is started.
  • the charge accumulation at may be terminated. That is, the imaging control unit 102 according to the present embodiment, based on the change in the trigger signal that first indicates the end of the accumulation among the plurality of trigger signals, Accumulation can be terminated.
  • the imaging control unit 102 can control the charge accumulation period for each imaging region based on a plurality of trigger signals.
  • the control of the charge accumulation period according to this embodiment will be described in detail later.
  • the imaging control unit 102 may control the gain when reading out charges for each imaging region based on a plurality of trigger signals. That is, the imaging control unit 102 according to the present embodiment can control the brightness of a captured image acquired for each imaging region based on a plurality of trigger signals.
  • the gain controlled for each imaging region by the imaging control unit 102 may include gains of different sizes.
  • the imaging control unit 102 according to the present embodiment can perform control so that the gain when reading out the charges between the imaging regions is different. According to the above-described function of the imaging control unit 102, each part can be imaged with a different gain even for an imaging target having a part with a greatly different brightness difference, and a clearer captured image can be obtained. Is possible.
  • the imaging control unit 102 starts reading out the charges in each imaging region based on the completion of transfer of the charges accumulated in all the imaging regions. Also good.
  • the imaging control unit 102 may change the gain in the imaging area to be read next when the readout of the transferred charge is completed in the imaging area. That is, the imaging control unit 102 according to the present embodiment reads the charges with different gains for each imaging region after completing the transfer of charges in all the imaging regions, thereby increasing the brightness of the image captured for each imaging region. It is possible to control.
  • the imaging control unit 102 can control the gain related to reading of charges for each imaging region based on a plurality of trigger signals.
  • the gain control according to the present embodiment will be described in detail later.
  • the imaging control unit 102 controls imaging for each imaging area based on a plurality of trigger signals.
  • the imaging control unit 102 may control imaging of all the imaging regions based on a single trigger signal.
  • the imaging control unit 102 can control imaging of all imaging regions set in the imaging unit 104 based on the trigger signal XTRIG1 described above.
  • the imaging control unit 102 may determine whether to perform different control for each imaging area or to perform the same control for all imaging areas depending on the set mode. That is, the imaging control unit 102 according to the present embodiment can control imaging of the imaging area based on the set mode. At this time, for example, in the above mode, the first mode for controlling the imaging for each imaging region based on a plurality of trigger signals and the imaging for all the imaging regions based on a single trigger signal are controlled. A second mode may be included. The imaging control unit 102 can control the imaging of the imaging unit 104 based on either the first mode or the second mode that is set.
  • the above mode may be set based on, for example, a user operation.
  • the user can set an arbitrary mode according to an imaging target or the like through an operation input unit described later. Further, the above mode can be set so as to be switched according to, for example, a preset time condition. In a factory or the like, when a product or the like flowing on the same line changes with time, it is possible to realize imaging control according to an imaging target by setting the mode to be changed based on a time condition.
  • the imaging unit 104 has an imaging device and generates a captured image by imaging.
  • the imaging unit 104 may have a function of performing imaging for each imaging region based on the control of the imaging control unit 102.
  • the control device 100 includes, for example, a control unit (not shown), a ROM (Read Only Memory: not shown), a RAM (Random Access Memory: not shown), a storage unit (not shown), and a communication unit. (Not shown), an operation unit (not shown) that can be operated by the user, a display unit (not shown) for displaying various screens on the display screen, and the like may be provided.
  • the control device 100 connects the above-described components through a bus as a data transmission path.
  • the control unit (not shown) is composed of one or two or more processors composed of arithmetic circuits such as MPU (Micro Processing Unit), various processing circuits, and the like, and controls the entire control device 100. Further, the control unit (not shown) may play the role of the imaging control unit 102 in the control device 100, for example.
  • MPU Micro Processing Unit
  • the imaging control unit 102 may be configured by a dedicated (or general-purpose) circuit (for example, a processor separate from the control unit (not shown)) that can execute the processing of the imaging control unit 102. Good.
  • ROM (not shown) stores control data such as programs and calculation parameters used by a control unit (not shown).
  • a RAM (not shown) temporarily stores programs executed by a control unit (not shown).
  • the storage unit (not shown) is a storage unit included in the control device 100, and stores various data such as data related to the control method according to the present embodiment and various applications.
  • examples of the storage unit include a magnetic recording medium such as a hard disk, a non-volatile memory such as a flash memory, and the like.
  • the storage unit may be detachable from the control device 100.
  • the communication unit (not shown) is a communication unit included in the control apparatus 100, and is connected to an external device such as an external imaging device or an external recording medium or an external device such as a server via a network (or directly). Communicate with the device wirelessly or by wire.
  • the communication unit includes, for example, a communication antenna and an RF (Radio Frequency) circuit (wireless communication), an IEEE 802.15.1 port and a transmission / reception circuit (wireless communication), an IEEE 802.11 port and a transmission / reception circuit (wireless communication). Communication), or LAN (Local Area Network) terminal and transmission / reception circuit (wired communication).
  • the operation input unit is an operation input unit included in the control device 100, and receives an operation input by the user.
  • Examples of the operation input unit (not shown) include buttons, direction keys, rotary selectors such as a jog dial, or combinations thereof.
  • the display unit is a display means provided in the control device 100 and outputs various visual information.
  • Examples of the display unit (not shown) include a liquid crystal display (Liquid Crystal Display), an organic EL display (Organic Electro-Luminescence Display, or an OLED display (also called Organic Light Emitting Diode Display)).
  • the functional configuration of the control device 100 according to this embodiment has been described above.
  • the functional configuration of the control device 100 according to the present embodiment is not limited to the configuration example illustrated in FIG.
  • control apparatus 100 when the control apparatus 100 according to the present embodiment controls imaging in an external imaging device based on the trigger signal, the control apparatus 100 may not include the imaging unit 104 illustrated in FIG. .
  • the control device 100 includes, for example, an imaging device 150 and a trigger adjustment circuit 152.
  • the control device 100 is driven by, for example, power supplied from an internal power source such as a battery provided in the control device 100 or power supplied from a connected external power source.
  • the imaging device 150 functions as the imaging unit 104.
  • the imaging device 150 includes, for example, an optical lens (not shown), an imaging device (not shown) such as a CMOS, a pixel circuit 160 corresponding to the imaging device (not shown), a driver 162, and an analog device. It has digital conversion circuits 164a and 164b.
  • the pixel circuit 160 includes, for example, a transistor, a capacitor, and the like, and accumulation of electric charges according to photoelectric conversion in each pixel, initialization of each pixel, and the like are performed by a signal transmitted from the driver 162.
  • the transistor include bipolar transistors and FETs (Field-Effect Transistors) such as TFTs (Thin Film Transistors) and MOSFETs (Metal-Oxide-Semiconductor Field Effect Transistors).
  • a capacitor etc. are mentioned as a capacitive element.
  • the plurality of imaging regions described above may be set in the pixel circuit 160 according to the present embodiment.
  • two imaging regions PIX_N and PIX_S are set in the pixel circuit 160.
  • the imaging region PIX_N may be an imaging region corresponding to the trigger signal XTRIG1.
  • the imaging area PIX_S may be an imaging area corresponding to the trigger signal XTRIG2.
  • the imaging region according to the present embodiment is a region of the pixel circuit 160 corresponding to each trigger signal.
  • an arbitrary ROI may be set.
  • ROI1 and ROI2 are set in the imaging regions PIX_N and PIX_S in the pixel circuit 160, respectively.
  • the imaging region according to the present embodiment may indicate the ROI.
  • the imaging region according to the present embodiment can be defined as a predetermined region on the pixel circuit 160 that is controlled based on the trigger signal.
  • the pixel circuit 160 may include three or more imaging regions.
  • the third imaging region can be set as an imaging region corresponding to the trigger signal XTRIG3 (not shown), for example.
  • the third imaging region may be set as an imaging region corresponding to the trigger signal XTRIG1 or XTRIG2.
  • the trigger signal according to the present embodiment may correspond to a plurality of imaging regions.
  • the imaging device 150 is configured to include a stacked area ADC (Analog-to-Digital Converter), an area having an arbitrary shape that can be set in the pixel circuit 160 is used as the imaging area. It is possible to set.
  • ADC Analog-to-Digital Converter
  • the driver 162 drives the pixel circuit 160 by generally transmitting a signal to the pixel circuit 160.
  • the driver 162 according to the present embodiment can perform the above driving for each imaging region set in the pixel circuit 160 based on control of a trigger adjustment circuit 152 described later.
  • the driver 162 according to the present embodiment may drive an imaging region corresponding to the control signal based on a control signal from a trigger adjustment circuit 152 described later.
  • a plurality of drivers 162 may be provided according to the number of imaging regions. In this case, the plurality of drivers 162 may drive the corresponding imaging areas.
  • Each of the analog / digital conversion circuits 164a and 164b converts an analog signal corresponding to photoelectric conversion from each pixel into a digital signal (image data).
  • the analog / digital conversion circuits 164a and 164b according to the present embodiment may operate regardless of the imaging region.
  • the imaging control unit 102 according to the present embodiment may read the imaging area PIX_N by reading the imaging area PIX_N to both the analog / digital conversion circuits 164a and 164b and then switching the gain.
  • the analog / digital conversion circuits 164a and 164b can convert the gain of an analog signal to be converted into a digital signal (the gain of the analog signal can be switched). Conversion circuit).
  • the analog / digital conversion circuits 164a and 164b according to this embodiment can also convert an analog signal corresponding to photoelectric conversion from the corresponding imaging region into a digital signal. Since either or one of the analog / digital conversion circuits 164a and 164b has the above-described gain adjustment function, exposure and gain can be controlled independently for each imaging region.
  • the imaging device 150 has been described above.
  • the imaging device 150 has the above configuration, for example.
  • the configuration of the imaging device 150 is not limited to the configuration described above, and the imaging device 150 may include an AGC (Automatic Gain Control) circuit or the like.
  • the trigger adjustment circuit 152 functions as the imaging control unit 102.
  • the trigger adjustment circuit 152 controls imaging for each of a plurality of imaging regions set in the pixel circuit 160 based on a plurality of trigger signals.
  • the trigger adjustment circuit 152 controls imaging of the imaging area PIX_N based on the trigger signal XTRIG1, and controls imaging of the imaging area PIX_S based on the trigger signal XTRIG2.
  • control device 100 has been described.
  • the hardware configuration of the control device 100 according to the present embodiment is not limited to the configuration example illustrated in FIG.
  • control apparatus 100 when the control apparatus 100 controls an external imaging device based on the trigger signal, the control apparatus 100 can be configured not to include the imaging device 150 shown in FIG.
  • the configuration shown in FIG. 1 may be realized by one or two or more ICs (Integrated Circuits).
  • the imaging control unit 102 can control imaging for each imaging region based on a plurality of trigger signals.
  • examples of imaging control by the imaging control unit 102 according to the present embodiment include the following examples (A) to (D).
  • the trigger signal according to the present embodiment may correspond to a plurality of imaging regions.
  • FIG. 2 is an explanatory diagram illustrating a first control example by the imaging control unit 102 according to the present embodiment.
  • FIG. 2 illustrates a case where the imaging control unit 102 controls the two imaging regions PIX_N and PIX_S based on the two trigger signals XTRIG1 and XTRIG2.
  • the imaging region PIX_N may be an imaging region corresponding to the trigger signal XTRIG1.
  • the imaging area PIX_S may be an imaging area corresponding to the trigger signal XTRIG2. That is, the imaging control unit 102 can control imaging of the imaging area PIX_N based on the trigger signal XTRIG1, and can control imaging of the imaging area PIX_S based on the trigger signal XTRIG2.
  • the time is shown on the horizontal axis. That is, in FIG. 2, it may be in a state in which time has passed as it proceeds to the right side in the figure.
  • the imaging control unit 102 controls the exposure of the corresponding imaging areas PIX_N and PIX_S based on the trigger signals XTRIG1 and XTRIG2.
  • the imaging control unit 102 can start charge accumulation in the imaging region based on a change in the trigger signal corresponding to the imaging region.
  • the imaging control unit 102 starts the accumulation period_N1 of the imaging region PIX_N based on the change 1A of the trigger signal XTRIG1. Similarly, the imaging control unit 102 according to the present embodiment starts the accumulation period_S1 of the imaging region PIX_S based on the change 2A of the trigger signal XTRIG2.
  • the imaging control unit 102 causes the imaging region to perform a light receiving element reset process or the like prior to the start of charge accumulation. That is, in the first control example according to the present embodiment, each imaging region starts the accumulation of electric charges after performing a reset process of the light receiving element based on the control of the imaging control unit 102.
  • the above-described reset processing refers to an operation for discharging the charge accumulated in the light receiving element.
  • the accumulation of electric charges is started after a delay (Delay) required for the reset process occurs from the change of the trigger signal.
  • Delay a delay required for the reset process occurs from the change of the trigger signal.
  • the accumulation period_N1 in the imaging region PIX_N is started with a relatively large delay from the change 1A of the external signal XTRIG1.
  • the accumulation period _S1 in the imaging region PIX_S is started with a relatively large delay from the change 2A of the external signal XTRIG2.
  • the imaging control unit 102 starts accumulating charges based on a trigger signal that has changed first among trigger signals corresponding to the imaging region where accumulation of charges has started. Accumulation of charge in the imaging region is terminated.
  • the imaging control unit 102 based on the change in the trigger signal that first indicates the end of the accumulation among the plurality of trigger signals, Stop accumulation.
  • the imaging control unit 102 ends the accumulation of charges in the imaging regions PIX_N and PIX_S based on the change 1B of the trigger signal XTRIG1 that has occurred earlier. At this time, the imaging control unit 102 according to the present embodiment does not execute processing based on the change 2B of XTRIG2 that occurs later. That is, at this time, the change 2B of XTRIG2 is masked.
  • the imaging control unit 102 ends the accumulation period_N1 in the imaging region PIX_N and the accumulation period_S1 in the imaging region PIX_S based on the change 1B of the trigger signal XTRIG1.
  • the accumulation period is delayed by the delay (Delay) and offset according to the reset process described above.
  • the imaging control unit 102 performs the above-described control, so that the charge transfer period in each imaging region can be synchronized.
  • the accumulation period_N1 in the imaging area PIX_N and the accumulation period_S1 in the imaging area PIX_S end simultaneously, and the transfer period_N1 in the imaging area PIX_N and the transfer period_S1 in the imaging area PIX_S start at the same time. Yes.
  • the start of accumulation is prohibited during the period from the change of the trigger signal that first indicates the end of accumulation to the end of the charge transfer period in all imaging regions. This is a period (period T1).
  • the imaging control unit 102 detects a change related to the start of accumulation of the trigger signal in the period T1, the imaging control unit 102 can mask the change.
  • the imaging region When the transfer of charge is completed in each imaging region, the imaging region according to the present embodiment starts reading the charge in each imaging region. At this time, the imaging control unit 102 can control the gain when reading out charges for each imaging region.
  • the imaging control unit 102 first performs charge reading (reading period_N1) with an arbitrary gain in the imaging region PIX_N, and then switches the gain at timing G1. Do. Subsequently, the imaging control unit 102 causes the charge in the imaging region PIX_S to be read with a gain different from that of the imaging region PIX_N (reading period_S1).
  • the lengths of the readout period_N1 and the readout period_S1 change depending on the imaging region PIX_N and the imaging region PIX_S, respectively.
  • the readout period _N1 and the readout period _S1 can change depending on the sizes of ROI1 and ROI2, respectively.
  • the imaging control unit 102 changes the gain in the imaging area where the next readout is performed when the readout of the charges in the imaging area is completed, thereby imaging with different gains for each imaging area. An image can be acquired.
  • the imaging control unit 102 causes the imaging region to be reset in the imaging region prior to the start of charge accumulation. For this reason, in the first control example according to the present embodiment, it is possible to newly start accumulation of charges in the imaging region even during the charge readout period.
  • the imaging control unit 102 starts the accumulation period_N2 in the imaging region PIX_N based on the change 1C of the trigger signal XTRIG1.
  • the accumulation period_N2 may be started before the end of the reading period_N1.
  • the imaging control unit 102 starts the accumulation period_S2 in the imaging region PIX_S based on the change 2C of the trigger signal XTRIG2. Also in this case, the accumulation period_S2 may be started before the end of the reading period_S1.
  • the first control example according to this embodiment has been described above.
  • the imaging control unit 102 according to the present embodiment repeatedly performs the control described above based on the trigger signal.
  • the imaging control unit 102 ends the accumulation period_N2 in the imaging region PIX_N and the accumulation period_S2 in the imaging region PIX_S based on the change 2D of the trigger signal XTRIG2.
  • the transfer period_N2 in the imaging region PIX_N and the transfer period_S2 in the imaging region PIX_S are controlled to start at the same time and to end at the same time.
  • the imaging control unit 102 does not control the gain when reading out charges for each imaging region, that is, when the imaging control unit 102 controls reading of charges in all imaging regions with the same gain, etc.
  • the reading of the charges in the imaging area may be performed simultaneously.
  • the imaging control unit 102 performs control so that the readout period_N2 in the imaging area PIX_N and the readout period_S2 in the imaging area PIX_S start at the same time and end simultaneously.
  • the imaging control unit 102 may perform control so that the readout period _N2 and the readout period _S2 are changed in the same manner as the readout period _N1 and the readout period _S1.
  • FIG. 3 is an explanatory diagram illustrating a second control example by the imaging control unit 102 according to the present embodiment.
  • differences between the first control example and the second control example will be mainly described, and description of overlapping control will be omitted.
  • the imaging control unit 102 performs the reset process of the light receiving element in the imaging region when the charge reading is completed. Let it be done.
  • each imaging region reads out charges based on the control of the imaging control unit 102, and then performs the above-described reset processing and stands by.
  • each imaging region in the second control example according to the present embodiment accumulates charges without delay by releasing the standby state when accumulation start control is performed by the imaging control unit 102. It is possible to start.
  • the accumulation period_N1 in the imaging region PIX_N is started without delay.
  • the accumulation period _S1 in the imaging region PIX_S is started without delay.
  • the imaging control unit 102 ends the accumulation period_N1 in the imaging area PIX_N and the accumulation period_S1 in the imaging area PIX_S based on the change 1B of XTRIG1.
  • the delay (Delay) at the end of accumulation in the second control example according to the present embodiment is significantly reduced as compared with the first control example.
  • the delay (Delay) related to the end of the accumulation period is only offset. The start of charge transfer can be accelerated.
  • the imaging control unit 102 causes the imaging region to be reset in the imaging region when the charge reading is completed. For this reason, in the second control example according to the present embodiment, it is possible to realize imaging control with less delay (Delay) compared to the first control example.
  • the gain control by the imaging control unit 102 in the second control example according to the present embodiment may be the same as in the first control example, and thus detailed description thereof is omitted.
  • FIG. 4 is an explanatory diagram illustrating a third control example by the imaging control unit 102 according to the present embodiment.
  • differences between the first and second control examples and the third control example will be mainly described, and description of overlapping control will be omitted.
  • the imaging control unit 102 is based on a change in the trigger signal corresponding to each imaging region. The start and end of the accumulation period are controlled for each imaging region.
  • the imaging control unit 102 starts the accumulation period _N1 in the imaging region PIX_N based on the change 1A of the trigger signal XTRIG1, and then trigger signal XTRIG1.
  • the accumulation period _N1 is terminated based on the change 1B.
  • the imaging control unit 102 starts the accumulation period_S1 in the imaging region PIX_S based on the change 2A of the trigger signal XTRIG2, and then ends the accumulation period_S1 based on the change 2B of the trigger signal XTRIG2. Yes.
  • the imaging control unit 102 can control the end of charge in the imaging region corresponding to the trigger signal based on the change of each trigger signal. .
  • the charge transfer period in each imaging region may not be synchronized.
  • the transfer period_N1 in the imaging area PIX_N and the transfer period_S1 in the imaging area PIX_S each start independently and end independently.
  • the imaging control unit 102 performs control so that reading of charges in each imaging region is started after transfer of charges in all imaging regions is completed.
  • the imaging control unit 102 starts the readout period _N1 in the imaging area PIX_N after both the transfer period _N1 in the imaging area PIX_N and the transfer period _S1 in the imaging area PIX_S are completed.
  • the imaging control unit 102 performs the above-described control, whereby the gain can be controlled for each imaging region.
  • the imaging control unit 102 controls the start and end of the accumulation period for each imaging region based on the change in the trigger signal corresponding to each imaging region. To do. For this reason, in the third control example according to the present embodiment, exposure for each imaging region can be controlled more flexibly than in the first and second control examples.
  • the gain control by the imaging control unit 102 in the third control example according to the present embodiment may be the same as in the first and second control examples, and thus detailed description thereof is omitted.
  • control related to the reset process of the light receiving element in the third control example according to the present embodiment may be the same as the second control.
  • FIG. 5 is an explanatory diagram illustrating a fourth control example by the imaging control unit 102 according to the present embodiment.
  • differences between the first to third control examples and the fourth control example will be mainly described, and description of overlapping control will be omitted.
  • the imaging control unit 102 is based on the change of the trigger signal corresponding to each imaging region. Charge accumulation, transfer, and readout are controlled independently for each imaging region.
  • the imaging control unit 102 starts the accumulation period _N1 in the imaging region PIX_N based on the change 1A of the trigger signal XTRIG1, and then trigger signal XTRIG1.
  • the accumulation period _N1 is terminated based on the change 1B.
  • the transfer period_N1 is started without delay after the end of the accumulation period_N1, and the read period_N1 is started without delay after the end of the transfer period_N1.
  • the imaging control unit 102 starts the accumulation period_S1 in the imaging region PIX_S based on the change 2A of the trigger signal XTRIG2, and then ends the accumulation period_S1 based on the change 2B of the trigger signal XTRIG2. Yes.
  • the transfer period_S1 starts without delay after the end of the accumulation period_S1, and the read period_S1 starts without delay after the end of the transfer period_S1.
  • the imaging control unit 102 independently controls charge transfer and reading in each imaging region. Is possible.
  • the transfer period_N1 in the imaging region PIX_N and the transfer period_S1 in the imaging region PIX_S each start independently and end independently. Further, the readout period _N1 in the imaging area PIX_N and the readout transmission period _S1 in the imaging area PIX_S each start independently and end independently.
  • the first to third control examples are performed by the imaging control unit 102 controlling the transfer and reading of charges in each imaging region independently. Compared to the above, it is possible to control exposure for each imaging region more flexibly.
  • the fourth control example according to the present embodiment gain control different from that in the first to third control examples may be performed.
  • a conversion circuit capable of adjusting the gain of an analog signal to be converted into a digital signal (a conversion circuit capable of switching the gain of the analog signal) is employed. Also good. That is, in the fourth control example according to the present embodiment, both or one of the analog / digital conversion circuits 164a and 164b described above may have the gain adjustment function described above.
  • both or one of the analog / digital conversion circuits 164a and 164b includes a comparator.
  • the capacitance ratio of the capacitor connected to the terminal to which the reference signal is applied in the comparator and the terminal electrically connected to the pixel circuit 160 is switched. The gain is adjusted. At this time, the same reference signal may be supplied to the analog / digital conversion circuits 164a and 164b.
  • FIG. 6 is an explanatory diagram for explaining the analog / digital conversion circuit 164 in the fourth control example according to the present embodiment.
  • FIG. 6 shows a configuration related to gain adjustment, that is, a part of the analog / digital conversion circuit 164 in the configuration of the analog / digital conversion circuit 164.
  • the gain-to-analog / digital conversion circuit 164 includes a comparator Comp.
  • the non-inverting input terminal (+) of the comparator Comp is electrically connected to a reference signal generator included in the imaging device 150, and a reference signal is applied thereto.
  • the inverting input terminal ( ⁇ ) of the comparator Comp is electrically connected to the pixel circuit 160, and an analog signal is applied thereto.
  • the analog / digital conversion circuit 164 capable of adjusting the gain includes, for example, a counter circuit (not shown) in the subsequent stage of the comparator Comp.
  • a counter circuit (not shown) provided in the analog / digital conversion circuit 164 capable of adjusting the gain is provided with a counter clock and a count direction by a control signal transmitted from the imaging control unit 102, for example, and performs a count operation.
  • a counter circuit (not shown) included in the analog / digital conversion circuit 164 capable of adjusting the gain is reset by a control signal transmitted from the imaging control unit 102.
  • a counter circuit (not shown) outputs a digital signal corresponding to the signal level of the analog signal input to the comparator Comp.
  • the non-inverting input terminal (+) of the comparator Comp has a plurality of capacitive elements C1, C2, C3, C4 and switching circuits SW1, SW2 for changing the capacitance connected to the non-inverting input terminal (+) of the comparator Comp. , SW3, SW4 are connected.
  • Each of the switching circuits SW1, SW2, SW3, and SW4 is turned on by, for example, corresponding control signals GAINRAMP ⁇ 0>, GAINRAMP ⁇ 1>, GAINRAMP ⁇ 2>, and GAINRAMP ⁇ 3> transmitted from the imaging control unit 102. (Conductive state) or off state (non-conductive state).
  • the capacitive element connected to the switching circuit that is turned on among the capacitive elements C1, C2, C3, and C4 is The comparator Comp is electrically connected to the non-inverting input terminal (+).
  • the inverting input terminal ( ⁇ ) of the comparator Comp has a plurality of capacitive elements C5, C6, C7, and C8 and switching circuits SW5 and SW6 for changing the capacitance connected to the inverting input terminal ( ⁇ ) of the comparator Comp. , SW7, SW8 are connected.
  • Each of the switching circuits SW5, SW6, SW7, and SW8 is turned on by a corresponding control signal GAINVSL ⁇ 0>, GAINVSL ⁇ 1>, GAINVSL ⁇ 2>, GAINVSL ⁇ 3> transmitted from the imaging control unit 102, for example. Or it will be in an OFF state.
  • the switching circuits SW5, SW6, SW7, and SW8 are turned on, the capacitive element connected to the switching circuit that is turned on among the capacitive elements C5, C6, C7, and C8 is The state is electrically connected to the inverting input terminal ( ⁇ ) of the comparator Comp.
  • the analog / digital conversion circuit 164 capable of adjusting the gain has a configuration as shown in FIG. 6, for example, so that a reference signal is applied to the comparator Comp (non-inverting input terminal (+)) and the pixel circuit 160.
  • the capacitance ratio of the capacitors connected to the terminal (inverted input terminal ( ⁇ )) electrically connected to is switched.
  • FIG. 7 and 8 are explanatory diagrams for explaining the analog / digital conversion circuit 164 capable of adjusting the gain according to the present embodiment, and an example of gain adjustment in the analog / digital conversion circuit 164 capable of adjusting the gain.
  • the capacitive elements C1, C2, C3, and C4 and the capacitive elements C5, C6, C7, and C8 that constitute the analog / digital conversion circuit 164 capable of adjusting the gain are 96.74 [fF]. An example is shown.
  • the gain is adjusted by switching the capacitance ratio of the capacitors connected to the terminals of the comparator Comp (the non-inverting input terminal (+) and the inverting input terminal ( ⁇ )).
  • the gain can be adjusted for each imaging region by the configuration as described above.
  • the gain adjustment in the fourth control example according to the present embodiment is not limited to the example described above.
  • the fourth control example according to the embodiment can be realized by a control method as described in, for example, Japanese Patent Application Laid-Open No. 2013-207433 filed by the applicant of the present disclosure.
  • the analog / digital conversion circuits 164a and 164b may convert the analog signal into a digital signal by comparing the magnitude relationship between the reference signal and the analog signal having different slopes.
  • control apparatus As mentioned above, although the control apparatus was mentioned and demonstrated as this embodiment, this embodiment is not restricted to this form.
  • the present embodiment is applied to an imaging apparatus including an imaging device installed and used at a fixed point, such as an industrial camera used in a factory or a distribution system, a camera used in ITS, a security camera, or the like. Can do. Further, the present embodiment is not limited to the above example, and can be applied to an imaging device for general consumers, for example. In this case, for example, a trigger signal based on a shutter operation by the user may be used.
  • the present embodiment can be applied to various devices that can perform processing related to the control method according to the present embodiment, such as a computer such as a PC (Personal Computer) or a server.
  • a processing IC that can be incorporated in, for example, the above imaging apparatus or device.
  • control device is applied to an arbitrary moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, and the like. It is possible.
  • FIG. 9 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes an ADAS (Advanced Driver Assistance System) function including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 10 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 10 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104. Such pedestrian recognition is, for example, whether or not the user is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that there is a pedestrian in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed.
  • voice image output part 12052 may control the display part 12062 so that the icon etc. which show a pedestrian may be displayed on a desired position.
  • the technology according to the present embodiment can be used, for example, for controlling the imaging unit 12031 in the vehicle control system.
  • a control apparatus provided with the imaging control part which controls imaging for every some imaging region set to an imaging device based on a plurality of trigger signals.
  • Each of the trigger signals is the control device according to (1), corresponding to the imaging region.
  • the imaging control unit is configured to determine the amount of charge in the imaging region in which charge accumulation has started, based on the trigger signal that has changed first among the trigger signals corresponding to the imaging region in which charge accumulation has started.
  • the control device according to (7), wherein the gain controlled for each imaging region includes gains of different sizes.
  • the said imaging control part is a control apparatus as described in said (9) which changes the said gain in the imaging area which performs the next reading, when reading of the transferred electric charge is completed in the said imaging area.
  • a single trigger signal corresponds to a single imaging region;
  • the imaging control unit performs imaging control of the imaging area based on the trigger signal corresponding to the imaging area, (1), (2), (3), (4), (5), ( 7) or the control device according to any one of (8).
  • the imaging control unit controls imaging of the imaging area based on a set mode, In the mode, a first mode for controlling imaging for each imaging region based on a plurality of the trigger signals;
  • the control device according to any one of (1) to (11), further including: a second mode that controls imaging of all the imaging regions based on one trigger signal.
  • the control apparatus according to any one of (1) to (12), further including an imaging unit including the imaging device.
  • a control method executed by a control device including controlling imaging for each of a plurality of imaging regions set in an imaging device based on a plurality of trigger signals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像領域ごとの動的な撮像制御を実現する。 【解決手段】複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御する撮像制御部を備える、制御装置、が提供される。前記トリガ信号のそれぞれは、前記撮像領域に対応してもよい。また、複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御することを含む、制御装置により実行される制御方法、が提供される。

Description

制御装置及び制御方法
 本開示は、制御装置及び制御方法に関する。
 撮像対象や使用用途に応じた種々の撮像デバイスが提案されている。また、単一の撮像デバイスにおいて、複数の撮像領域で異なる撮像条件に基づく画像を取得する技術が開発されている。例えば、特許文献1には、CMOS(Complementary Metal Oxide Semiconductor)センサにおいて、全画素読み出しを行う高解像度領域と、間引き読み出しを行う低解像度領域と、をそれぞれ個別に制御する技術が開示されている。
特開2007-235387号公報
 例えば特許文献1に記載の技術では、低解像度領域における間引き読出しが終了するタイミングと前後して露光が終了するように、予めのタイミングで高解像度領域の露光が開始される。よって、例えば特許文献1に記載の技術が用いられる場合には、低解像度領域と高解像度領域で異なる露光の画像を取得し得る。
 しかしながら、例えば特許文献1に記載の技術のように、低解像度領域と高解像度領域で露光時間を制御する場合、上記の各領域による撮像は、予めの設定に基づいて制御される。このため、特許文献1に記載の技術では、条件に応じて柔軟に撮像条件を変更することが困難な場合がある。
 そこで、本開示では、撮像領域ごとの動的な撮像制御を実現することが可能な、新規かつ改良された制御装置及び制御方法を提案する。
 本開示によれば、複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御する撮像制御部を備える、制御装置が提供される。
 また、本開示によれば、複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御することを含む、制御装置により実行される制御が提供される。
 以上説明したように本開示によれば、撮像領域ごとの動的な撮像制御を実現することが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る制御装置の構成図である。 同実施形態に係る第1の制御例を説明するための説明図である。 同実施形態に係る第2の制御例を説明するための説明図である。 同実施形態に係る第3の制御例を説明するための説明図である。 同実施形態に係る第4の制御例を説明するための説明図である。 同実施形態に係るゲインを調整可能な変換回路を説明するための説明図である。 同実施形態に係るゲインを調整可能な変換回路を説明するための説明図である。 同実施形態に係るゲインを調整可能な変換回路を説明するための説明図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態
  1.1.制御装置の機能構成例
  1.2.制御装置のハードウェア構成例
  1.3.撮像制御部による撮像制御の一例
  1.4.本実施形態に係る制御装置の適用例
 <1.実施形態>
 [1.1.制御装置の機能構成]
 近年、工場や物流システムなどで利用される産業用カメラや、ITS(Intelligent Transport Systems)において利用されるカメラ、防犯カメラなど、定点に設置される撮像デバイスを利用するシステムが広く存在する。例えば、上記の産業用カメラを利用するシステムの場合、撮像デバイスにより、ラインを流れる製造物などを撮像することで、取得した撮像画像(動画像、または静止画像)を当該製造物の検査など様々な用途に用いることが可能である。
 一方、上記のような産業用システムにおいて、一撮像対象の表面に明暗の差の大きく異なる部位が存在する場合、単一の撮像デバイスでは、すべての部位を鮮明に撮像することが困難な場合がある。
 このため、産業分野などにおけるシステムなどでは、明暗の差の大きく異なる部位を有する撮像対象を、鮮明に撮像することが可能な撮像デバイスが求められている。
 本開示の実施形態に係る制御装置は、上記の点に着目して発想されたものである。このため、本実施形態に係る制御装置は、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御する機能を有してよい。この際、本実施形態に係る制御装置は、入力される複数のトリガ信号に基づいて、上記複数の撮像領域ごとに撮像を制御することが可能である。
 ここで、本実施形態に係る撮像領域とは、例えば、撮像デバイスが有する画素回路に設定される領域であってよい。また、本実施形態に係る複数の撮像領域は、互いに重複しない領域であってよい。
 本実施形態に係る撮像デバイスとしては、例えば、撮像素子としてCMOSを有する撮像デバイスが挙げられる。本実施形態に係る撮像デバイスが有する撮像素子は、CMOSのみで構成されてもよいし、CMOSにCCD(Charge Coupled Device)などの他の構成要素が積層されて構成される、スタック型の撮像素子であってもよい。
 なお、本実施形態に係る撮像デバイスは、上記に示す例に限られない。例えば、本実施形態に係る撮像デバイスとしては、グローバルシャッターに適用することが可能な、任意の撮像素子を有する撮像デバイスが、挙げられる。
 以下、図1を参照して、本実施形態に係る制御装置100の機能構成例について説明する。図1は、本実施形態に係る制御装置100の論理構成および物理構成の一例を示す構成図である。図1を参照すると、本実施形態に係る制御装置100は、撮像制御部102および撮像部104を備える。
 (撮像制御部102)
 撮像制御部102は、複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御する機能を有する。図1に示す一例においては、撮像制御部102は、入力される複数のトリガ信号、XTRIG1およびXTRIG2、に基づいて、後述する撮像部104に設定される複数の撮像領域ごとに撮像を制御できる。
 ここで、本実施形態に係るトリガ信号は、種々の条件に基づいて生成される信号であってよい。本実施形態に係るトリガ信号は、例えば、別途の検知手段が撮像対象を検知したことに基づいて生成する信号であってもよいし、撮像に係る指示操作(例えば、シャッターボタン押下など)に基づいて生成される信号であってもよい。上記の別途の手段には、例えば、赤外線を利用した検出装置や、別の撮像デバイスを利用した検出装置などが挙げられる。また、本実施形態に係るトリガ信号は、予め設定された時間などの条件に基づいて生成される信号であってもよい。
 本実施形態に係る撮像制御部102は、上記のように生成された複数のトリガ信号を、後述する通信部を介して(あるいは、直接的に)受信し、当該複数のトリガ信号に基づいて、撮像領域ごとに撮像を制御することができる。すなわち、本実施形態に係る撮像制御部102は、入力される複数のトリガ信号に基づいた動的な撮像制御を実現することが可能である。
 また、本実施形態に係るトリガ信号のそれぞれは、撮像領域に対応する信号であってよい。この際、単一のトリガ信号は、複数の撮像領域に対応する信号であってもよい。例えば、撮像部104に4つの撮像領域が設けられる場合、撮像制御部102は、トリガ信号XTRIG1に基づいて、トリガ信号XTRIG1に対応する2つの撮像領域の撮像を制御してよい。また、撮像制御部102は、トリガ信号XTRIG2に基づいて、トリガ信号XTRIG2に対応する2つの撮像領域の撮像を制御することができる。
 また、単一のトリガ信号は、単一の撮像領域に対応する信号であってもよい。例えば、撮像部104に2つの撮像領域が設けられる場合、撮像制御部102は、トリガ信号XTRIG1に基づいて、トリガ信号XTRIG1に対応する単一の撮像領域の撮像を制御してよい。また、撮像制御部102は、トリガ信号XTRIG2に基づいて、トリガ信号XTRIG2に対応する2つの撮像領域の撮像を制御することができる。
 すなわち、本実施形態に係る撮像制御部102は、撮像領域の撮像制御を、当該撮像領域に対応するトリガ信号に基づいて行うこともできる。
 より具体的には、本実施形態に係る撮像制御部102は、撮像領域ごとに露光を制御してよい。ここで、「露光」とは撮像素子で入射された光を電荷に変換し、変換された電荷を蓄積する動作のことを指す。すなわち、本実施形態に係る撮像制御部102は、複数のトリガ信号に基づいて、撮像領域における電荷の蓄積期間を制御することができる。
 なお、撮像制御部102によって、撮像領域ごとに制御される電荷の蓄積期間には、異なる期間が含まれてよい。すなわち、本実施形態に係る撮像制御部102は、撮像領域間で電荷の蓄積期間が異なるように制御することが可能である。撮像制御部102が有する上記の機能によれば、明暗の差の大きく異なる部位を有する撮像対象であっても、各部位を異なる露光で撮像させることができ、より鮮明な撮像画像を取得することが可能となる。
 上記の効果を実現するため、本実施形態に係る撮像制御部102は、撮像領域に対応するトリガ信号の変化に基づいて、当該撮像領域における電荷の蓄積を開始させてよい。すなわち、本実施形態に係る撮像制御部102は、蓄積の開始に係るトリガ信号の変化に基づいて、当該トリガ信号に対応する撮像領域における電荷の蓄積を開始させることで、撮像領域ごとに蓄積の開始に係るタイミングを制御することができる。
 また、本実施形態に係る撮像制御部102は、電荷の蓄積が開始された撮像領域に対応するトリガ信号のうち、最初に変化したトリガ信号に基づいて、電荷の蓄積を開始している撮像領域における電荷の蓄積を終了させてもよい。すなわち、本実施形態に係る撮像制御部102は、複数のトリガ信号のうち、最初に蓄積の終了を示したトリガ信号の変化に基づいて、電荷の蓄積を行っているすべての撮像領域における電荷の蓄積を終了させることができる。
 以上説明したように、本実施形態に係る撮像制御部102は、複数のトリガ信号に基づいて、撮像領域ごとに電荷の蓄積期間を制御することができる。なお、本実施形態に係る電荷の蓄積期間の制御については、後に詳細に説明する。
 また、本実施形態に係る撮像制御部102は、複数のトリガ信号に基づいて、撮像領域ごとに電荷を読み出す際のゲインを制御してもよい。すなわち、本実施形態に係る撮像制御部102は、複数のトリガ信号に基づいて、撮像領域ごとに取得される撮像画像の明度を制御することが可能である。
 この際、撮像制御部102によって、撮像領域ごとに制御される上記のゲインには、異なる大きさのゲインが含まれてよい。すなわち、本実施形態に係る撮像制御部102は、撮像領域間で電荷を読み出す際のゲインが異なるように制御することが可能である。撮像制御部102が有する上記の機能によれば、明暗の差の大きく異なる部位を有する撮像対象であっても、各部位を異なるゲインで撮像させることができ、より鮮明な撮像画像を取得することが可能となる。
 上記の効果を実現するため、本実施形態に係る撮像制御部102は、すべての撮像領域において蓄積された電荷の転送が完了したことに基づいて、それぞれの撮像領域における電荷の読み出しを開始させてもよい。
 また、本実施形態に係る撮像制御部102は、撮像領域において、転送された電荷の読み出しが完了した場合に、次に読み出しを行う撮像領域における上記のゲインを変更してもよい。すなわち、本実施形態に係る撮像制御部102は、すべての撮像領域において電荷の転送が完了したのち、撮像領域ごとに異なるゲインで電荷を読み出すことで、撮像領域ごとに撮像される画像の明度を制御することが可能である。
 以上説明したように、本実施形態に係る撮像制御部102は、複数のトリガ信号に基づいて、撮像領域ごとに電荷の読み出しに係るゲインを制御することができる。なお、本実施形態に係るゲインの制御については、後に詳細に説明する。
 また、上記では、撮像制御部102が、複数のトリガ信号に基づいて、撮像領域ごとに撮像を制御する場合について説明した。一方、本実施形態に係る撮像制御部102は、単一のトリガ信号に基づいて、すべての撮像領域の撮像を制御してもよい。例えば、撮像制御部102は、上記で示したトリガ信号、XTRIG1、に基づいて、撮像部104に設定されるすべての撮像領域の撮像を制御することができる。
 この場合、例えば、撮像制御部102は、設定されるモードにより、撮像領域ごとに異なる制御を行うか、すべての撮像領域で同一の制御を行うかを判定してもよい。すなわち、本実施形態に係る撮像制御部102は、設定されるモードに基づいて、撮像領域の撮像を制御することが可能である。この際、上記のモードには、例えば、複数のトリガ信号に基づいて撮像領域ごとに撮像を制御する第1のモードと、単一のトリガ信号に基づいて、すべての撮像領域の撮像を制御する第2のモードと、が含まれてもよい。撮像制御部102は、設定される第1のモードまたは第2のモードのいずれかに基づいて、撮像部104の撮像を制御することができる。
 なお、上記のモードは、例えば、ユーザの操作に基づいて設定されてもよい。ユーザは、撮像対象などに応じた任意のモードを後述する操作入力部を通じて設定することができる。また、上記のモードは、例えば、予め設定した時間条件などにより切り替わるよう設定されることもできる。工場などにおいて、時間により同一ラインを流れる製品などが変化する場合、時間条件に基づいてモードが変更されるように設定することで、撮像対象に応じた撮像制御を実現することが可能である。
 (撮像部104)
 撮像部104は、撮像デバイスを有し、撮像により撮像画像を生成する。本実施形態に係る撮像部104は、撮像制御部102の制御に基づいて、撮像領域ごとに撮像を行う機能を有してよい。
 (その他の構成)
 また、制御装置100は、例えば、制御部(図示せず)や、ROM(Read Only Memory:図示せず)、RAM(Random Access Memory:図示せず)、記憶部(図示せず)、通信部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えてもよい。制御装置100は、例えば、データの伝送路としてのバスにより上記の各構成要素間を接続する。
 制御部(図示せず)は、MPU(Micro Processing Unit)などの演算回路で構成される、1または2以上のプロセッサや、各種処理回路などで構成され、制御装置100全体を制御する。また、制御部(図示せず)は、制御装置100において、例えば、撮像制御部102の役割を果たしてもよい。
 なお、撮像制御部102は、撮像制御部102の処理を実行可能な専用の(または汎用の)回路(例えば、制御部(図示せず)とは別体のプロセッサなど)で構成されていてもよい。
 ROM(図示せず)は、制御部(図示せず)が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部(図示せず)により実行されるプログラムなどを一時的に記憶する。
 記憶部(図示せず)は、制御装置100が備える記憶手段であり、本実施形態に係る制御方法に係るデータや、各種アプリケーションなど様々なデータを記憶する。
 ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、制御装置100から着脱可能であってもよい。
 通信部(図示せず)は、制御装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の撮像デバイスや外部の記録媒体などの外部デバイスや、サーバなどの外部装置と、無線または有線で通信を行う。通信部(図示せず)としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。
 操作入力部(図示せず)は、制御装置100が備える操作入力手段であり、ユーザによる操作入力を受け付ける。操作入力部(図示せず)としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
 表示部(図示せず)は、制御装置100が備える表示手段であり、種々の視覚情報を出力する。表示部(図示せず)としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Displayともよばれる。)などが挙げられる。
 以上、本実施形態に係る制御装置100の機能構成について説明した。なお、本実施形態に係る制御装置100の機能構成は、図1に示す構成例に限定されない。
 例えば、本実施形態に係る制御装置100が、トリガ信号に基づいて、外部の撮像デバイスにおける撮像を制御する場合には、制御装置100は、図1に示す撮像部104を備えていなくてもよい。
 [1.2.制御装置100のハードウェア構成例]
 引き続き図1を参照し、本実施形態に係る制御装置100のハードウェア構成例について説明する。
 図1を参照すると、本実施形態に係る制御装置100は、例えば、撮像デバイス150と、トリガ調整回路152と、を備える。また、制御装置100は、例えば、制御装置100が備えているバッテリなどの内部電源から供給される電力、または、接続されている外部電源から供給される電力などによって、駆動する。
 (撮像デバイス150)
 撮像デバイス150は、撮像部104として機能する。撮像デバイス150は、例えば、光学系のレンズ(図示せず)と、CMOSなどの撮像素子(図示せず)と、撮像素子(図示せず)に対応する画素回路160と、ドライバ162と、アナログ・デジタル変換回路164a、164bとを有する。
 (画素回路160)
 画素回路160は、例えば、トランジスタや容量素子などで構成され、ドライバ162から伝達される信号によって、各画素における光電変換に応じた電荷の蓄積や、各画素の初期化などが行われる。上記トランジスタとしては、例えば、バイポーラトランジスタや、TFT(Thin Film Transistor)やMOSFET(Metal-Oxide-Semiconductor Field Effect Transistor)などのFET(Field-Effect Transistor)などが、挙げられる。また、容量素子としては、キャパシタなどが挙げられる。
 また、本実施形態に係る画素回路160には、上述した複数の撮像領域が設定されてよい。図1に示す一例においては、画素回路160には、2つの撮像領域PIX_NおよびPIX_Sが設定されている。図1に示す一例の場合、例えば、撮像領域PIX_Nは、トリガ信号XTRIG1に対応する撮像領域であってよい。また、撮像領域PIX_Sは、トリガ信号XTRIG2に対応する撮像領域であってよい。このように、本実施形態に係る撮像領域は、各トリガ信号に対応する画素回路160の領域である。
 また、本実施形態に係る画素回路160は、任意のROI(Region Of Interest)が設定されてもよい。図1に示す一例では、画素回路160における撮像領域PIX_NおよびPIX_Sに、それぞれROI1およびROI2が設定されている。このように、画素回路160にROIが設定される場合、本実施形態に係る撮像領域は、ROIを示すものであってもよい。本実施形態に係る撮像領域は、トリガ信号に基づいて制御される画素回路160上の所定領域として定義することができる。
 なお、図1は、画素回路160が、2つの撮像領域PIX_NおよびPIX_Sを含む場合を例示しているが、本実施形態に係る画素回路160は、3つ以上の撮像領域を含んでもよい。この場合、例えば、3つめの撮像領域は、例えば、トリガ信号XTRIG3(図示しない)に対応する撮像領域として設定され得る。また、例えば、上記の3つめの撮像領域は、トリガ信号XTRIG1またはXTRIG2に対応する撮像領域として設定されてもよい。本実施形態に係るトリガ信号は、複数の撮像領域に対応してもよい。
 また、図1では、2つの撮像領域PIX_NおよびPIX_Sが、同一の大きさである場合を例示しているが、本実施形態に係る複数の撮像領域は、異なる大きさで設定されてもよい。また、例えば、撮像デバイス150が積層型の領域ADC(Analog-to-Digital Converter)を備える構成である場合には、画素回路160に設定することが可能な任意の形状の領域を、撮像領域として設定することが可能である。
 (ドライバ162)
 ドライバ162は、画素回路160に概して信号を伝達することによって、画素回路160を駆動させる。特に、本実施形態に係るドライバ162は、後述するトリガ調整回路152の制御に基づいて、画素回路160に設定される撮像領域ごとに上記の駆動を行うことができる。本実施形態に係るドライバ162は、後述するトリガ調整回路152からの制御信号に基づいて、当該制御信号に対応する撮像領域を駆動してよい。また、図示していないが、ドライバ162は、撮像領域の数に応じて複数設けられてもよい。この場合、複数のドライバ162は、それぞれ対応する撮像領域を駆動してよい。
 (アナログ・デジタル変換回路164)
 アナログ・デジタル変換回路164aおよび164bそれぞれは、各画素から光電変換に応じたアナログ信号をデジタル信号(画像データ)に変換する。本実施形態に係るアナログ・デジタル変換回路164aおよび164bは、撮像領域に依らず動作してよい。例えば、本実施形態に係る撮像制御部102は、撮像領域PIX_Nをアナログ・デジタル変換回路164aおよび164bの両方に読み出させたのち、ゲインを切り替えて、撮像領域PIX_Sを読み出させてもよい。
 一方、本実施形態に係るアナログ・デジタル変換回路164aおよび164bは、後述するように、デジタル信号に変換するアナログ信号のゲインを調整することが可能な変換回路(アナログ信号のゲインを切り替えることが可能な変換回路)であってもよい。この場合、本実施形態に係るアナログ・デジタル変換回路164aおよび164bは、それぞれ対応する撮像領域からの光電変換に応じたアナログ信号をデジタル信号に変換することも可能である。アナログ・デジタル変換回路164aおよび164bの双方または一方が、上記のゲイン調整機能を有することで、撮像領域ごとに露光やゲインを独立して制御することが可能となる。
 以上、本実施形態に係る撮像デバイス150について説明した。撮像デバイス150は、例えば、上記のような構成を有する。なお、撮像デバイス150の構成は上記に示す構成に限られず、撮像デバイス150は、AGC(Automatic Gain Control)回路などを備えていてもよい。
 (トリガ調整回路152)
 トリガ調整回路152は、撮像制御部102として機能する。トリガ調整回路152は、複数のトリガ信号に基づいて、画素回路160に設定される複数の撮像領域ごとに撮像を制御する。図1に示す一例の場合、トリガ調整回路152は、トリガ信号XTRIG1に基づいて、撮像領域PIX_Nの撮像を制御し、トリガ信号XTRIG2に基づいて、撮像領域PIX_Sの撮像を制御する。
 以上、本実施形態に係る制御装置100のハードウェア構成例について説明した。なお、本実施形態に係る制御装置100のハードウェア構成は図1に示す構成例に限定されない。
 例えば、制御装置100が、トリガ信号に基づいて、外部の撮像デバイスを制御する場合には、制御装置100は、図1に示す撮像デバイス150を備えない構成をとることが可能である。
 また、例えば、図1に示す構成は、1または2以上のIC(Integrated Circuit)で実現されてもよい。
 [1.3.撮像制御部102による撮像制御の一例]
 以上、本実施形態に係る制御装置100について詳細に説明した。次に、本実施形態に係る撮像制御部102による撮像制御の一例について説明する。
 上述したように、本実施形態に係る撮像制御部102は、複数のトリガ信号に基づいて、撮像領域ごとに撮像を制御することが可能である。この際、本実施形態に係る撮像制御部102による撮像制御の例としては、下記の(A)~(D)に示す例が挙げられる。なお、以下では、一のトリガ信号が一の撮像領域に対応する場合を例に説明するが、上述したように、本実施形態に係るトリガ信号は、複数の撮像領域に対応してもよい。
 (A)第1の制御例
 図2は、本実施形態に係る撮像制御部102による第1の制御例を示す説明図である。図2には、撮像制御部102が、2つのトリガ信号XTRIG1およびXTRIG2に基づいて、2つの撮像領域PIX_NおよびPIX_Sを制御する場合が例示されている。
 ここで、撮像領域PIX_Nは、トリガ信号XTRIG1に対応する撮像領域であってよい。また、撮像領域PIX_Sは、トリガ信号XTRIG2に対応する撮像領域であってよい。すなわち、撮像制御部102は、トリガ信号XTRIG1に基づいて、撮像領域PIX_Nの撮像を制御し、トリガ信号XTRIG2に基づいて、撮像領域PIX_Sの撮像を制御することができる。
 なお、図2においては、横軸に時間経過が示されている。すなわち、図2においては、図中の右側に進むほど時間が経過している状態であってよい。
 図2を参照すると、本実施形態に係る撮像制御部102は、トリガ信号XTRIG1およびXTRIG2に基づいて、対応するそれぞれの撮像領域PIX_NおよびPIX_Sの露光を制御している。
 上述したとおり、本実施形態に係る撮像制御部102は、撮像領域に対応するトリガ信号の変化に基づいて、当該撮像領域における電荷の蓄積を開始させることが可能である。
 図2を参照すると、本実施形態に係る撮像制御部102は、トリガ信号XTRIG1の変化1Aに基づいて、撮像領域PIX_Nの蓄積期間_N1を開始させている。また、同様に、本実施形態に係る撮像制御部102は、トリガ信号XTRIG2の変化2Aに基づいて、撮像領域PIX_Sの蓄積期間_S1を開始させている。
 この際、本実施形態に係る第1の制御例では、撮像制御部102は、電荷の蓄積開始に先立ち、撮像領域に受光素子のリセット処理などを行わせる。すなわち、本実施形態に係る第1の制御例において、各撮像領域は、撮像制御部102に制御に基づいて受光素子のリセット処理を行ったのち、電荷の蓄積を開始する。ここで、上記のリセット処理とは、受光素子に蓄積された電荷を排出するための動作を指す。
 このため、本実施形態に係る第1の制御例では、トリガ信号の変化から、上記のリセット処理に要する時間ぶんの遅延(Delay)が発生したのち、電荷の蓄積が開始される。図2に示す一例を参照すると、撮像領域PIX_Nにおける蓄積期間_N1は、外部信号XTRIG1の変化1Aから比較的大きな遅延を挟んで開始されている。また、同様に、撮像領域PIX_Sにおける蓄積期間_S1は、外部信号XTRIG2の変化2Aから比較的大きな遅延を挟んで開始されている。
 引き続き、本実施形態の第1の制御例における、撮像制御部102による蓄積期間の制御について説明する。本実施形態の第1の制御例において、撮像制御部102は、電荷の蓄積が開始された撮像領域に対応するトリガ信号のうち、最初に変化したトリガ信号に基づいて、電荷の蓄積を開始している撮像領域における電荷の蓄積を終了させる。
 すなわち、本実施形態に係る撮像制御部102は、複数のトリガ信号のうち、最初に蓄積の終了を示したトリガ信号の変化に基づいて、電荷の蓄積を行っているすべての撮像領域における電荷の蓄積を終了させる。
 図2を参照すると、トリガ信号XTRIG1の変化1Bは、トリガ信号XTRIG2の変化2Bに先行して生じている。この場合、本実施形態に係る撮像制御部102は、先に生じたトリガ信号XTRIG1の変化1Bに基づいて、撮像領域PIX_NおよびPIX_Sにおける電荷の蓄積を終了させる。この際、本実施形態に係る撮像制御部102は、後に生じたXTRIG2の変化2Bに基づく処理を実行しない。すなわち、この際、XTRIG2の変化2Bはマスクされる。
 図2に示す一例では、撮像制御部102は、トリガ信号XTRIG1の変化1Bに基づいて、撮像領域PIX_Nにおける蓄積期間_N1、および撮像領域PIX_Sにおける蓄積期間_S1を終了させている。この際、本実施形態に係る第1の制御例においては、上述したリセット処理に係る遅延(Delay)およびオフセットぶんだけ蓄積期間が遅れて終了する。本実施形態に係る撮像制御部102が上記の制御を行うことで、各撮像領域で異なる露光を実現することが可能となる。
 また、本実施形態に係る撮像制御部102が上記の制御を行うことで、各撮像領域における電荷の転送期間を同期させることが可能となる。図2を参照すると、撮像領域PIX_Nにおける蓄積期間_N1、および撮像領域PIX_Sにおける蓄積期間_S1は同時に終了し、また、撮像領域PIX_Nにおける転送期間_N1、および撮像領域PIX_Sにおける転送期間_S1が同時に開始されている。
 なお、本実施形態に係る第1の制御例において、最初に蓄積の終了を示したトリガ信号の変化から、すべての撮像領域における電荷の転送期間が終了するまでの期間は、蓄積の開始を禁止する期間(期間T1)となる。本実施形態に係る撮像制御部102は、期間T1において、トリガ信号の蓄積開始に係る変化を検出した場合、当該変化をマスクすることができる。
 各撮像領域において、電荷の転送が完了すると、本実施形態に係る撮像領域は、それぞれの撮像領域における電荷の読み出しを開始させる。この際、撮像制御部102は、撮像領域ごとに電荷を読み出す際のゲインを制御することができる。
 図1に示す一例の場合、本実施形態に係る撮像制御部102は、まず、撮像領域PIX_Nにおいて任意のゲインで電荷の読み出し(読み出し期間_N1)を行わせたのち、タイミングG1でゲインの切り替えを行う。続いて、撮像制御部102は、撮像領域PIX_Nとは異なるゲインで、撮像領域PIX_Sにおける電荷の読み出しを行わせる(読み出し期間_S1)。
 なお、読み出し期間_N1および読み出し期間_S1の長さは、それぞれ撮像領域PIX_Nおよび撮像領域PIX_Sに依存して変化する。例えば、撮像領域PIX_NおよびPIX_Sが、それぞれ図1に示したROI1およびROI2に対応する場合、読み出し期間_N1および読み出し期間_S1は、それぞれROI1およびROI2の大きさにより変化し得る。
 このように、本実施形態に係る撮像制御部102は、撮像領域における電荷の読み出しが完了した場合に、次の読み出しを行う撮像領域におけるゲインを変更することで、撮像領域ごとに異なるゲインの撮像画像を取得させることが可能である。
 また、上述したとおり、本実施形態に係る第1の制御例において、撮像制御部102は、電荷の蓄積開始に先立ち、撮像領域に受光素子のリセット処理を行わせる。このため、本実施形態に係る第1の制御例では、電荷の読み出し期間中においても、撮像領域に新たに電荷の蓄積を開始させることが可能である。
 図1に示す一例では、撮像制御部102は、トリガ信号XTRIG1の変化1Cに基づいて、撮像領域PIX_Nにおける蓄積期間_N2を開始させている。この際、図1に示すように、蓄積期間_N2は、読み出し期間_N1の終了前に開始されてよい。また、撮像制御部102は、トリガ信号XTRIG2の変化2Cに基づいて、撮像領域PIX_Sにおける蓄積期間_S2を開始させている。この場合も同様に、蓄積期間_S2は、読み出し期間_S1の終了前に開始されてよい。
 このように、本実施形態に係る第1の制御例では、撮像領域における電荷の読み出しを、いわゆるパイプライン動作で行わせることが可能である。
 以上、本実施形態に係る第1の制御例について説明した。本実施形態に係る撮像制御部102は、トリガ信号に基づいて、上記で説明した制御を繰り返し行う。図1に示す一例では、撮像制御部102は、トリガ信号XTRIG2の変化2Dに基づいて、撮像領域PIX_Nにおける蓄積期間_N2および撮像領域PIX_Sにおける蓄積期間_S2を終了させている。
 この際、上記で説明したように、撮像領域PIX_Nにおける転送期間_N2および撮像領域PIX_Sにおける転送期間_S2は、同時に開始し、また、同時に終了するよう制御される。
 なお、撮像制御部102が撮像領域ごとに電荷を読み出す際のゲインを制御しない場合、すなわち、撮像制御部102がすべての撮像領域における電荷の読み出しを同一のゲインにより制御する場合などには、各撮像領域における電荷の読み出しは、同時に実行されてもよい。図1に示す一例では、撮像制御部102は、撮像領域PIX_Nにおける読み出し期間_N2および撮像領域PIX_Sにおける読み出し期間_S2が、同時に開始し、また、同時に終了するよう制御している。
 一方、すべての撮像領域における電荷の読み出しが同時に実行される場合、各撮像領域における電荷の読み出し期間は、よりサイズの大きい撮像領域に依存することとなる。上記の影響を回避するため、撮像制御部102は、読み出し期間_N1および読み出し期間_S1と同様、読み出し期間_N2および読み出し期間_S2が前後するように制御してもよい。
 (B)第2の制御例
 次に、本実施形態に係る撮像制御部102による第2の制御例について説明する。図3は、本実施形態に係る撮像制御部102による第2の制御例を示す説明図である。なお、以下の説明においては、第1の制御例と第2の制御例との差異について中心に述べ、重複する制御については、説明を省略する。
 本実施形態に係る第2の制御例では、本実施形態に係る第1の制御例とは異なり、撮像制御部102は、電荷の読み出しが完了した場合に、撮像領域に受光素子のリセット処理を行わせる。
 すなわち、本実施形態に係る第2の制御例において、各撮像領域は、撮像制御部102の制御に基づいて電荷の読み出しを行ったのち、上記のリセット処理を実行し、待機を行う。
 このため、本実施形態に係る第2の制御例における各撮像領域は、撮像制御部102による蓄積開始の制御が行われた際、待機状態を解除することで、遅延(Delay)なく電荷の蓄積を開始することが可能である。
 図3を参照すると、本実施形態に係る第2の制御例においては、XTRIG1の変化1Aに基づいて、撮像領域PIX_Nにおける蓄積期間_N1が、遅延(Delay)なく開始されている。また同様に、XTRIG2の変化2Aに基づいて、撮像領域PIX_Sにおける蓄積期間_S1が、遅延(Delay)なく開始されている。
 また、図3を参照すると、本実施形態に係る撮像制御部102は、XTRIG1の変化1Bに基づいて、撮像領域PIX_Nにおける蓄積期間_N1および撮像領域PIX_Sにおける蓄積期間_S1が終了させている。この際、本実施形態に係る第2の制御例における蓄積終了時の遅延(Delay)は、第1の制御例と比較して、大幅に減少していることがわかる。
 すなわち、本実施形態に係る第2の制御例においては、蓄積期間の開始時におけるリセット処理に係る遅延(Dlay)が存在しないため、蓄積期間の終了に係る遅延(Delay)はオフセットぶんのみとなり、電荷の転送の開始を早めることができる。
 以上、本実施形態に係る第2の制御例について説明した。上述したように、本実施形態に係る第2の制御例において、撮像制御部102は、電荷の読み出しが完了した場合に、撮像領域に受光素子のリセット処理を行わせる。このため、本実施形態に係る第2の制御例では、第1の制御例と比較して、より遅延(Delay)の少ない撮像制御を実現することが可能である。
 なお、本実施形態に係る第2の制御例における撮像制御部102によるゲインの制御については、第1の制御例と同一であってよいため、詳細な説明は省略する。
 (C)第3の制御例
 次に、本実施形態に係る撮像制御部102による第3の制御例について説明する。図4は、本実施形態に係る撮像制御部102による第3の制御例を示す説明図である。なお、以下の説明においては、第1および第2の制御例と、第3の制御例と、の差異について中心に述べ、重複する制御については、説明を省略する。
 本実施形態に係る第3の制御例では、本実施形態に係る第1および第2の制御例とは異なり、撮像制御部102は、それぞれの撮像領域に対応するトリガ信号の変化に基づいて、撮像領域ごとに蓄積期間の開始および終了を制御する。
 図4を参照すると、本実施形態に係る第3の制御例において、撮像制御部102は、トリガ信号XTRIG1の変化1Aに基づいて、撮像領域PIX_Nにおける蓄積期間_N1を開始させたのち、トリガ信号XTRIG1の変化1Bに基づいて、蓄積期間_N1を終了させている。
 また同様に、撮像制御部102は、トリガ信号XTRIG2の変化2Aに基づいて、撮像領域PIX_Sにおける蓄積期間_S1を開始させたのち、トリガ信号XTRIG2の変化2Bに基づいて、蓄積期間_S1を終了させている。
 このように、本実施形態に係る第3の制御例において、撮像制御部102は、それぞれのトリガ信号の変化に基づいて、当該トリガ信号に対応する撮像領域における電荷の終了を制御することができる。
 このため、本実施形態に係る第3の制御例では、各撮像領域における電荷の転送期間が同期されなくてもよい。図4を参照すると、撮像領域PIX_Nにおける転送期間_N1と、撮像領域PIX_Sにおける転送期間_S1と、はそれぞれが独立して開始され、また独立して終了している。
 一方、本実施形態に係る第3の制御例では、撮像制御部102は、すべての撮像領域における電荷の転送が完了してから、各撮像領域における電荷の読み出しが開始されるように制御する。
 図4を参照すると、撮像制御部102は、撮像領域PIX_Nにおける転送期間_N1および撮像領域PIX_Sにおける転送期間_S1の双方が完了したのち、撮像領域PIX_Nにおける読み出し期間_N1を開始させている。
 本実施形態に係る第3の制御例では、撮像制御部102が上記の制御を行うことで、撮像領域ごとにゲインを制御することが可能となる。
 以上、本実施形態に係る第3の制御例について説明した。上述したように、本実施形態に係る第3の制御例において、撮像制御部102は、それぞれの撮像領域に対応するトリガ信号の変化に基づいて、撮像領域ごとに蓄積期間の開始および終了を制御する。このため、本実施形態に係る第3の制御例では、第1および第2の制御例と比較して、より柔軟に撮像領域ごとの露光を制御することが可能である。
 なお、本実施形態に係る第3の制御例における撮像制御部102によるゲインの制御については、第1および第2の制御例と同一であってよいため、詳細な説明は省略する。
 また、本実施形態に係る第3の制御例における受光素子のリセット処理に係る制御については、第2の制御と同一であってよい。
 (D)第4の制御例
 次に、本実施形態に係る撮像制御部102による第4の制御例について説明する。図5は、本実施形態に係る撮像制御部102による第4の制御例を示す説明図である。なお、以下の説明においては、第1~第3の制御例と、第4の制御例と、の差異について中心に述べ、重複する制御については、説明を省略する。
 本実施形態に係る第4の制御例では、本実施形態に係る第1~第3の制御例とは異なり、撮像制御部102は、それぞれの撮像領域に対応するトリガ信号の変化に基づいて、撮像領域ごとに電荷の蓄積、転送、および読み出しを独立して制御する。
 図5を参照すると、本実施形態に係る第4の制御例において、撮像制御部102は、トリガ信号XTRIG1の変化1Aに基づいて、撮像領域PIX_Nにおける蓄積期間_N1を開始させたのち、トリガ信号XTRIG1の変化1Bに基づいて、蓄積期間_N1を終了させている。この際、転送期間_N1は、蓄積期間_N1の終了後に遅延なく開始され、読み出し期間_N1は、転送期間_N1の終了後に遅延なく開始されている。
 また同様に、撮像制御部102は、トリガ信号XTRIG2の変化2Aに基づいて、撮像領域PIX_Sにおける蓄積期間_S1を開始させたのち、トリガ信号XTRIG2の変化2Bに基づいて、蓄積期間_S1を終了させている。この際、転送期間_S1は、蓄積期間_S1の終了後に遅延なく開始され、読み出し期間_S1は、転送期間_S1の終了後に遅延なく開始されている。
 このように、本実施形態に係る第4の制御例では、第1~第3の制御例とは異なり、撮像制御部102は、各撮像領域における電荷の転送や読み出しを独立して制御することが可能である。
 図5を参照すると、撮像領域PIX_Nにおける転送期間_N1と、撮像領域PIX_Sにおける転送期間_S1と、はそれぞれが独立して開始され、また独立して終了している。また、撮像領域PIX_Nにおける読み出し期間_N1と、撮像領域PIX_Sにおける読み出し送期間_S1と、はそれぞれが独立して開始され、また独立して終了している。
 以上説明したように、撮像制御部102が、各撮像領域における電荷の転送や読み出しを独立して制御することにより、本実施形態に係る第4の制御例では、第1~第3の制御例と比較して、より柔軟に撮像領域ごとの露光を制御することが可能である。
 一方、本実施形態に係る第4の制御例では、図5に示すように、各撮像領域における電荷の読み出し期間が一部重複する可能性がある。このため、本実施形態に係る第4の制御例では、第1~第3の制御例のように、撮像領域における電荷の読み出しが完了した場合に、次の読み出しを行う撮像領域におけるゲインを変更することが困難である。
 このため、本実施形態に係る第4の制御例では、第1~第3の制御例とは異なるゲインの制御が行われてよい。本実施形態に係る第4の制御例では、例えば、デジタル信号に変換するアナログ信号のゲインを調整することが可能な変換回路(アナログ信号のゲインを切り替えることが可能な変換回路)を採用してもよい。すなわち、本実施形態に係る第4の制御例において、上述したアナログ・デジタル変換回路164aおよび164bの双方または一方は、上記のゲイン調整機能を有してよい。
 この場合、例えば、アナログ・デジタル変換回路164aおよび164bの双方または一方は、コンパレータを含む。そして、コンパレータを含むアナログ・デジタル変換回路164では、コンパレータにおける参照信号が印加される端子と、画素回路160と電気的に接続される端子とに接続される容量の容量比が切り替えられることにより、ゲインが調整される。この際、アナログ・デジタル変換回路164aおよび164bには、同一の参照信号が供給されてよい。
 図6は、本実施形態に係る第4の制御例における、アナログ・デジタル変換回路164を説明するための説明図である。また、図6は、アナログ・デジタル変換回路164の構成のうち、ゲインの調整に係る構成、すなわち、アナログ・デジタル変換回路164のうちの一部を示している。
 ゲインをアナログ・デジタル変換回路164は、コンパレータCompを含む。コンパレータCompの非反転入力端子(+)は、撮像デバイス150が含む参照信号生成器と電気的に接続され、参照信号が印加される。また、コンパレータCompの反転入力端子(-)は、画素回路160と電気的に接続され、アナログ信号が印加される。
 また、ゲインを調整可能なアナログ・デジタル変換回路164は、例えば、コンパレータCompの後段に、カウンタ回路(図示せず)を備える。ゲインを調整可能なアナログ・デジタル変換回路164が備えるカウンタ回路(図示せず)は、例えば、撮像制御部102から伝達される制御信号により、カウンタクロック、およびカウント方向が与えられ、カウント動作を行う。また、ゲインを調整可能なアナログ・デジタル変換回路164が備えるカウンタ回路(図示せず)は撮像制御部102から伝達される制御信号により、カウントがリセットされる。カウンタ回路(図示せず)は、コンパレータCompに入力されるアナログ信号の信号レベルに応じたデジタル信号を出力する。
 以下、図6を参照しつつ、アナログ・デジタル変換回路164の構成のうちのゲインの調整に係る構成について、説明する。
 コンパレータCompの非反転入力端子(+)には、複数の容量素子C1、C2、C3、C4と、コンパレータCompの非反転入力端子(+)に接続される容量を変えるためのスイッチング回路SW1、SW2、SW3、SW4とが、接続される。
 スイッチング回路SW1、SW2、SW3、SW4それぞれは、例えば、撮像制御部102から伝達される、対応する制御信号GAINRAMP<0>、GAINRAMP<1>、GAINRAMP<2>、GAINRAMP<3>によって、オン状態(導通状態)またはオフ状態(非導通状態)となる。スイッチング回路SW1、SW2、SW3、SW4の1または2以上がオン状態となった場合、容量素子C1、C2、C3、C4のうちのオン状態となったスイッチング回路に接続されている容量素子は、コンパレータCompの非反転入力端子(+)に電気的に接続された状態となる。
 また、コンパレータCompの反転入力端子(-)には、複数の容量素子C5、C6、C7、C8と、コンパレータCompの反転入力端子(-)に接続される容量を変えるためのスイッチング回路SW5、SW6、SW7、SW8とが、接続される。
 スイッチング回路SW5、SW6、SW7、SW8それぞれは、例えば、撮像制御部102から伝達される、対応する制御信号GAINVSL<0>、GAINVSL<1>、GAINVSL<2>、GAINVSL<3>によって、オン状態またはオフ状態となる。スイッチング回路SW5、SW6、SW7、SW8の1または2以上がオン状態となった場合、容量素子C5、C6、C7、C8のうちのオン状態となったスイッチング回路に接続されている容量素子は、コンパレータCompの反転入力端子(-)に電気的に接続された状態となる。
 ゲインを調整可能なアナログ・デジタル変換回路164は、例えば図6に示すような構成を有することによって、コンパレータCompにおける参照信号が印加される端子(非反転入力端子(+))と、画素回路160と電気的に接続される端子(反転入力端子(-))とに接続される容量の容量比が切り替えられる。
 図7、図8は、本実施形態に係るゲインを調整可能なアナログ・デジタル変換回路164を説明するための説明図であり、ゲインを調整可能なアナログ・デジタル変換回路164におけるゲインの調整の一例を示している。図7、図8は、ゲインを調整可能なアナログ・デジタル変換回路164を構成する容量素子C1、C2、C3、C4と、容量素子C5、C6、C7、C8とが、96.74[fF]である例を示している。
 ゲインを調整可能なアナログ・デジタル変換回路164では、コンパレータCompの端子(非反転入力端子(+)および反転入力端子(-))に接続される容量の容量比が切り替えられることによりゲインが調整される。
 以上、本実施形態に係る第4の制御例におけるアナログ・デジタル変換回路164aおよび164bの構成例について説明した。本実施形態に係る第4の制御例では、上記のような構成により、撮像領域ごとにゲインを調整することが可能となる。
 一方、本実施形態に係る第4の制御例におけるゲインの調整は、上記で説明した例に限定されない。実施形態に係る第4の制御例では、例えば、本開示の出願人が出願した特開2013-207433に記載されるような制御方法により実現することも可能である。この場合、アナログ・デジタル変換回路164aおよび164bは、互いに異なる傾斜の参照信号とアナログ信号との大小関係を比較して、当該アナログ信号をデジタル信号に変換してよい。
 [1.4.本実施形態に係る制御装置の適用例]
 以上、本実施形態として、制御装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、工場や物流システムなどで利用される産業用カメラや、ITSにおいて利用されるカメラ、防犯カメラなどの、定点に設置されて用いられる撮像デバイスを備える撮像装置に適用することができる。また、本実施形態は、上記の例に限定されず、例えば、一般コンシューマ向けの撮像装置に適用することも可能である。この場合、例えば、ユーザによるシャッター操作などに基づくトリガ信号が用いられてよい。
 また、本実施形態は、PC(Personal Computer)やサーバなどのコンピュータなどの、本実施形態に係る制御方法に係る処理を行うことが可能な、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような撮像装置や機器に組み込むことが可能な、処理ICに適用することもできる。
 さらに、本開示の一実施形態に係る制御装置は、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットなどの、任意の移動体に適用することが可能である。
 以下、本実施形態に係る技術が移動体に適用される場合の一例を説明する。
 図9は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図9に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図9の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図10は、撮像部12031の設置位置の例を示す図である。
 図10では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図10には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本実施形態に係る技術が移動体に適用される場合における車両制御システムの一例について説明した。本実施形態に係る技術は、例えば、上記車両制御システムにおける撮像部12031の制御に用いられ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御する撮像制御部を備える、制御装置。
(2)
 前記トリガ信号のそれぞれは、前記撮像領域に対応する、前記(1)に記載の制御装置。
(3)
 前記撮像制御部は、複数の前記トリガ信号に基づいて、前記撮像領域ごとに電荷の蓄積期間を制御する、前記(1)または(2)に記載の制御装置。
(4)
 前記撮像領域ごとに制御される前記蓄積期間には、異なる期間が含まれる、前記(3)に記載の制御装置。
(5)
 前記撮像制御部は、前記撮像領域に対応する前記トリガ信号の変化に基づいて、前記撮像領域における電荷の蓄積を開始させる、前記(3)または(4)に記載の制御装置。
(6)
 前記撮像制御部は、電荷の蓄積が開始された前記撮像領域に対応する前記トリガ信号のうち、最初に変化した前記トリガ信号に基づいて、電荷の蓄積を開始している前記撮像領域における電荷の蓄積を終了させる、前記(5)に記載の制御装置。
(7)
 前記撮像制御部は、複数の前記トリガ信号に基づいて、前記撮像領域ごとに電荷を読み出す際のゲインを制御する、前記(1)~(6)のいずれかに記載の制御装置。
(8)
 前記撮像領域ごとに制御される前記ゲインには、異なる大きさのゲインが含まれる、前記(7)に記載の制御装置。
(9)
 前記撮像制御部は、すべての前記撮像領域において蓄積された電荷の転送が完了したことに基づいて、それぞれの前記撮像領域における電荷の読み出しを開始させる、前記(7)または(8)に記載の制御装置。
(10)
 前記撮像制御部は、前記撮像領域において、転送された電荷の読み出しが完了した場合に、次の読み出しを行う撮像領域における前記ゲインを変更する、前記(9)に記載の制御装置。
(11)
 単一の前記トリガ信号は、単一の前記撮像領域に対応し、
 前記撮像制御部は、前記撮像領域の撮像制御を、前記撮像領域に対応する前記トリガ信号に基づいて行う、前記(1)、(2)、(3)、(4)、(5)、(7)、または(8)のいずれかに記載の制御装置。
(12)
 前記撮像制御部は、設定されるモードに基づいて、前記撮像領域の撮像を制御し、
 前記モードには、複数の前記トリガ信号に基づいて前記撮像領域ごとに撮像を制御する第1のモードと、
一の前記トリガ信号に基づいてすべての前記撮像領域の撮像を制御する第2のモードと、が含まれる、前記(1)~(11)のいずれかに記載の制御装置。
(13)
 前記撮像デバイスを有する撮像部をさらに備える、前記(1)~(12)のいずれかに記載の制御装置。
(14)
 複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御することを含む、制御装置により実行される制御方法。
 100  制御装置
 102  撮像制御部
 104  撮像部
 150  撮像デバイス
 152  トリガ調整回路
 160  画素回路
 162  ドライバ
 164a、164b アナログ・デジタル変換回路

Claims (14)

  1.  複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御する撮像制御部を備える、制御装置。
  2.  前記トリガ信号のそれぞれは、前記撮像領域に対応する、請求項1に記載の制御装置。
  3.  前記撮像制御部は、複数の前記トリガ信号に基づいて、前記撮像領域ごとに電荷の蓄積期間を制御する、請求項1に記載の制御装置。
  4.  前記撮像領域ごとに制御される前記蓄積期間には、異なる期間が含まれる、請求項3に記載の制御装置。
  5.  前記撮像制御部は、前記撮像領域に対応する前記トリガ信号の変化に基づいて、前記撮像領域における電荷の蓄積を開始させる、請求項3に記載の制御装置。
  6.  前記撮像制御部は、電荷の蓄積が開始された前記撮像領域に対応する前記トリガ信号のうち、最初に変化した前記トリガ信号に基づいて、電荷の蓄積を開始している前記撮像領域における電荷の蓄積を終了させる、請求項5に記載の制御装置。
  7.  前記撮像制御部は、複数の前記トリガ信号に基づいて、前記撮像領域ごとに電荷を読み出す際のゲインを制御する、請求項1に記載の制御装置。
  8.  前記撮像領域ごとに制御される前記ゲインには、異なる大きさのゲインが含まれる、請求項7に記載の制御装置。
  9.  前記撮像制御部は、すべての前記撮像領域において蓄積された電荷の転送が完了したことに基づいて、それぞれの前記撮像領域における電荷の読み出しを開始させる、請求項7に記載の制御装置。
  10.  前記撮像制御部は、前記撮像領域において、転送された電荷の読み出しが完了した場合に、次の読み出しを行う撮像領域における前記ゲインを変更する、請求項9に記載の制御装置。
  11.  単一の前記トリガ信号は、単一の前記撮像領域に対応し、
     前記撮像制御部は、前記撮像領域の撮像制御を、前記撮像領域に対応する前記トリガ信号に基づいて行う、請求項1に記載の制御装置。
  12.  前記撮像制御部は、設定されるモードに基づいて、前記撮像領域の撮像を制御し、
     前記モードには、複数の前記トリガ信号に基づいて前記撮像領域ごとに撮像を制御する第1のモードと、
    一の前記トリガ信号に基づいてすべての前記撮像領域の撮像を制御する第2のモードと、が含まれる、請求項1に記載の制御装置。
  13.  前記撮像デバイスを有する撮像部をさらに備える、請求項1に記載の制御装置。
  14.  複数のトリガ信号に基づいて、撮像デバイスに設定される複数の撮像領域ごとに撮像を制御することを含む、制御装置により実行される制御方法。
PCT/JP2017/009256 2016-06-09 2017-03-08 制御装置及び制御方法 WO2017212722A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/306,271 US20190141263A1 (en) 2016-06-09 2017-03-08 Control device and control method
CN201780030955.3A CN109155826A (zh) 2016-06-09 2017-03-08 控制器件和控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-115206 2016-06-09
JP2016115206 2016-06-09

Publications (1)

Publication Number Publication Date
WO2017212722A1 true WO2017212722A1 (ja) 2017-12-14

Family

ID=60578426

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009256 WO2017212722A1 (ja) 2016-06-09 2017-03-08 制御装置及び制御方法

Country Status (3)

Country Link
US (1) US20190141263A1 (ja)
CN (1) CN109155826A (ja)
WO (1) WO2017212722A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3780629A4 (en) * 2018-04-05 2021-02-17 Sony Semiconductor Solutions Corporation TRANSMITTER DEVICE, RECEIVER DEVICE AND COMMUNICATION SYSTEM

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7057635B2 (ja) * 2017-08-15 2022-04-20 キヤノン株式会社 撮像装置、カメラおよび輸送機器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322604A (ja) * 1998-06-08 1998-12-04 Sony Corp 固体撮像装置
JP2011135171A (ja) * 2009-12-22 2011-07-07 Samsung Electronics Co Ltd 撮像装置および撮像方法
JP2013255188A (ja) * 2012-06-08 2013-12-19 Sony Corp 撮像素子、撮像装置、撮像方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100309340A1 (en) * 2009-06-03 2010-12-09 Border John N Image sensor having global and rolling shutter processes for respective sets of pixels of a pixel array
US8488033B2 (en) * 2009-12-22 2013-07-16 Samsung Electronics Co., Ltd. Photographing apparatus and photographing method
CN102131051B (zh) * 2010-12-28 2012-11-28 惠州Tcl移动通信有限公司 一种摄像设备及其图像获取方法和装置
JP6075393B2 (ja) * 2013-05-31 2017-02-08 株式会社ニコン 電子機器及び制御プログラム
EP3588940B1 (en) * 2013-07-04 2023-03-22 Nikon Corporation Electronic apparatus, method for controlling electronic apparatus, and control program
CN105075234B (zh) * 2013-09-30 2019-08-13 株式会社尼康 电子设备、电子设备的控制方法以及控制程序
JP6294626B2 (ja) * 2013-10-08 2018-03-14 キヤノン株式会社 撮像素子、撮像装置、携帯電話機
CN105163039A (zh) * 2015-09-18 2015-12-16 联想(北京)有限公司 一种控制方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322604A (ja) * 1998-06-08 1998-12-04 Sony Corp 固体撮像装置
JP2011135171A (ja) * 2009-12-22 2011-07-07 Samsung Electronics Co Ltd 撮像装置および撮像方法
JP2013255188A (ja) * 2012-06-08 2013-12-19 Sony Corp 撮像素子、撮像装置、撮像方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3780629A4 (en) * 2018-04-05 2021-02-17 Sony Semiconductor Solutions Corporation TRANSMITTER DEVICE, RECEIVER DEVICE AND COMMUNICATION SYSTEM

Also Published As

Publication number Publication date
US20190141263A1 (en) 2019-05-09
CN109155826A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
WO2020116185A1 (ja) 固体撮像装置、信号処理チップ、および、電子機器
US10704957B2 (en) Imaging device and imaging method
US11770625B2 (en) Data processing device and data processing method
JP6977722B2 (ja) 撮像装置、および画像処理システム
WO2017175492A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
US20210297589A1 (en) Imaging device and method of controlling imaging device
WO2017169233A1 (ja) 撮像処理装置、撮像処理方法、コンピュータプログラム及び電子機器
US20240163588A1 (en) Solid-state imaging element and imaging device
JP2020099015A (ja) センサ及び制御方法
WO2017169274A1 (ja) 撮像制御装置、撮像制御方法、コンピュータプログラム及び電子機器
US11355536B2 (en) Image sensor, signal processing device, signal processing method, and electronic device
US20230217117A1 (en) Signal processing device, signal processing method, and detection sensor
WO2017212722A1 (ja) 制御装置及び制御方法
WO2018139187A1 (ja) 固体撮像装置およびその駆動方法、並びに電子機器
WO2017149964A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
WO2017203752A1 (ja) 撮像装置、および制御方法
WO2019167363A1 (ja) 画像処理装置と画像処理方法およびプログラム
US20220224846A1 (en) Solid-state imaging element, imaging device, and method for controlling solid-state imaging element
WO2020090459A1 (ja) 固体撮像装置、及び電子機器
JP7309713B2 (ja) コンパレータ及び撮像装置
WO2017199487A1 (ja) 制御装置、制御方法、およびプログラム
WO2020021826A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2020021945A1 (ja) 撮像装置
WO2018211986A1 (ja) 信号処理装置および方法、撮像素子、並びに、電子機器
WO2022158246A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17809906

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17809906

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP