WO2021048683A1 - 撮像装置、撮像モジュール、電子機器及び撮像方法 - Google Patents

撮像装置、撮像モジュール、電子機器及び撮像方法 Download PDF

Info

Publication number
WO2021048683A1
WO2021048683A1 PCT/IB2020/058112 IB2020058112W WO2021048683A1 WO 2021048683 A1 WO2021048683 A1 WO 2021048683A1 IB 2020058112 W IB2020058112 W IB 2020058112W WO 2021048683 A1 WO2021048683 A1 WO 2021048683A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
light emitting
light
emitting device
image data
Prior art date
Application number
PCT/IB2020/058112
Other languages
English (en)
French (fr)
Inventor
久保田大介
初見亮
鎌田太介
Original Assignee
株式会社半導体エネルギー研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社半導体エネルギー研究所 filed Critical 株式会社半導体エネルギー研究所
Priority to JP2021544975A priority Critical patent/JPWO2021048683A1/ja
Priority to US17/639,683 priority patent/US20220294981A1/en
Priority to KR1020227010880A priority patent/KR20220063195A/ko
Priority to CN202080063748.XA priority patent/CN114365474A/zh
Publication of WO2021048683A1 publication Critical patent/WO2021048683A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/125Colour sequential image capture, e.g. using a colour wheel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K50/00Organic light-emitting devices
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/60OLEDs integrated with inorganic light-sensitive elements, e.g. with inorganic solar cells or inorganic photodiodes
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K65/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element and at least one organic radiation-sensitive element, e.g. organic opto-couplers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Definitions

  • One aspect of the present invention relates to an imaging device, an imaging module, an electronic device, and an imaging method.
  • semiconductor devices display devices, light emitting devices, power storage devices, storage devices, electronic devices, lighting devices, input devices (for example, touch sensors, etc.), input / output devices (for example, touch panels, etc.) , Their driving methods, or their manufacturing methods can be given as an example.
  • Semiconductor devices refer to all devices that can function by utilizing semiconductor characteristics.
  • Patent Document 1 discloses an image pickup apparatus having an oxide semiconductor and using a transistor having an extremely small off-current in a pixel circuit.
  • One aspect of the present invention is to provide a lightweight and thin imaging device.
  • One aspect of the present invention is to provide an imaging device capable of capturing a high-definition image.
  • One aspect of the present invention is to provide an imaging device capable of capturing a high-quality image.
  • One aspect of the present invention is to provide a multifunctional imaging device.
  • One aspect of the present invention is to provide a highly convenient imaging device.
  • One aspect of the present invention is to provide an image pickup apparatus having high color reproducibility.
  • One aspect of the present invention is to provide a novel imaging device.
  • One aspect of the present invention is to provide an imaging method having high color reproducibility.
  • One aspect of the present invention is to provide a novel imaging method.
  • the imaging unit includes a light receiving device, a first light emitting device, and a second light emitting device.
  • the first light emitting device has a function of emitting light in a wavelength region different from that of the second light emitting device.
  • the image pickup unit has a function of causing the first light emitting device to emit light and acquiring the first image data.
  • the image pickup unit has a function of causing the second light emitting device to emit light and acquiring the second image data.
  • the memory has a function of holding the first reference data and the second reference data.
  • the arithmetic circuit has a function of correcting the first image data using the first reference data and calculating the first corrected image data.
  • the arithmetic circuit has a function of correcting the second image data using the second reference data and calculating the second corrected image data. Further, the arithmetic circuit has a function of adding the first corrected image data and the second corrected image data to generate composite image data.
  • the light receiving device has a first pixel electrode, and the first light emitting device has a second pixel electrode located on the same plane as the first pixel electrode.
  • the light receiving device further has an active layer and a common electrode
  • the first light emitting device further has a light emitting layer and a common electrode.
  • the active layer is located on the first pixel electrode and has a first organic compound.
  • the light emitting layer is located on the second pixel electrode and has a second organic compound.
  • the common electrode has a portion that overlaps with the first pixel electrode via the active layer and a portion that overlaps with the second pixel electrode via the light emitting layer.
  • the imaging unit further has a lens.
  • the lens has a portion that overlaps the light receiving device and is located on the first pixel electrode. Further, it is preferable that the light transmitted through the lens is incident on the light receiving device.
  • One aspect of the present invention is an imaging module having the above-mentioned imaging device and any one or more of a connector and an integrated circuit.
  • One aspect of the present invention is an electronic device having the above-mentioned imaging module and any one or more of an antenna, a battery, a housing, a camera, a speaker, a microphone, and an operation button.
  • One aspect of the present invention is a step of causing the first light emitting device to emit light and acquiring the first image data, and correcting the first image data using the first reference data, and the first corrected image data.
  • This is an imaging method including a step of calculating and a step of adding the first corrected image data and the second corrected image data to generate composite image data.
  • the first light emitting device emits light in a wavelength region different from that of the second light emitting device.
  • a lightweight and thin imaging device can be provided. According to one aspect of the present invention, it is possible to provide an imaging device capable of capturing a high-definition image. According to one aspect of the present invention, it is possible to provide an imaging device capable of capturing a high-quality image. According to one aspect of the present invention, a multifunctional imaging device can be provided. According to one aspect of the present invention, a highly convenient imaging device can be provided. According to one aspect of the present invention, an image pickup device having high color reproducibility can be provided. According to one aspect of the present invention, a novel imaging device can be provided. According to one aspect of the present invention, an imaging method having high color reproducibility can be provided. According to one aspect of the present invention, a novel imaging method can be provided.
  • FIG. 1 is a block diagram showing an example of an imaging device.
  • 2A to 2C are top views showing an example of pixels.
  • 3A to 3D are cross-sectional views showing an example of an image pickup apparatus.
  • FIG. 4 is a conceptual diagram illustrating the operation of the image pickup apparatus.
  • FIG. 5 is a flowchart showing an example of the operation of the image pickup apparatus.
  • 6A to 6C are cross-sectional views showing an example of an image pickup apparatus.
  • 7A to 7C are cross-sectional views showing an example of an image pickup apparatus.
  • 8A to 8C are cross-sectional views showing an example of an image pickup apparatus.
  • 9A to 9C are cross-sectional views showing an example of an image pickup apparatus.
  • 10A to 10C are cross-sectional views showing an example of an image pickup apparatus.
  • FIG. 11 is a perspective view showing an example of the image pickup apparatus.
  • FIG. 12 is a cross-sectional view showing an example of the image pickup apparatus.
  • 13A and 13B are cross-sectional views showing an example of an image pickup apparatus.
  • 14A to 14C are cross-sectional views showing an example of an image pickup apparatus.
  • FIG. 15 is a cross-sectional view showing an example of an imaging device.
  • 16A and 16B are circuit diagrams showing an example of a pixel circuit.
  • 17A and 17B are diagrams showing an example of an electronic device.
  • 18A to 18D are diagrams showing an example of an electronic device.
  • 19A to 19F are diagrams showing an example of an electronic device.
  • membrane and the word “layer” can be interchanged with each other in some cases or depending on the situation.
  • conductive layer can be changed to the term “conductive layer”.
  • insulating film can be changed to the term “insulating layer”.
  • One aspect of the present invention is an image pickup apparatus having an image pickup unit, a memory, and an arithmetic circuit.
  • the imaging unit includes a light emitting device (also referred to as a light emitting element), a light receiving device, and (also referred to as a light receiving element).
  • the light emitting device and the light receiving device are arranged in a matrix in the imaging unit, the light emitting device emits light, and the light receiving device receives the light reflected from the subject.
  • the memory has a function of holding reference data.
  • the arithmetic circuit has a function of correcting the image data output from the light receiving device using the reference data and calculating the corrected image data.
  • the image pickup apparatus sequentially emits light emitting devices of different colors to take an image, corrects the image data obtained from the images taken with the light of each color, and calculates the corrected image data. By adding these corrected image data, it has a function of generating composite image data.
  • the imaging device can display a composite image on the imaging unit based on the composite image data.
  • the light emitting device preferably emits light in the wavelength range of visible light.
  • an EL element such as an OLED (Organic Light Emitting Diode) or a QLED (Quantum-dot Light Emitting Diode).
  • luminescent substances possessed by EL elements substances that emit fluorescence (fluorescent materials), substances that emit phosphorescence (phosphorescent materials), inorganic compounds (quantum dot materials, etc.), and substances that exhibit thermally activated delayed fluorescence (thermally activated delayed fluorescence (thermally activated delayed fluorescence) Thermally activated fluorescent (TADF) material) and the like can be mentioned.
  • an LED such as a micro LED (Light Emitting Diode) can also be used.
  • the light receiving device preferably has sensitivity in the wavelength range of visible light. In particular, it is preferable to use a light receiving device having sensitivity over the entire wavelength region of visible light.
  • a light receiving device for example, a pn type or pin type photodiode can be used.
  • the light receiving device functions as a photoelectric conversion element that detects light incident on the light receiving device and generates an electric charge. The amount of charge generated is determined based on the amount of light incident on the light receiving device.
  • an organic photodiode having a layer containing an organic compound as the light receiving device.
  • the organic photodiode can be easily made thinner, lighter, and larger in area, and has a high degree of freedom in shape and design, so that it can be applied to various imaging devices.
  • an organic EL element as a light emitting device and an organic photodiode as a light receiving device.
  • the organic photodiode has many layers that can have the same configuration as the organic EL element. Therefore, the light emitting device and the light receiving device can be built in the image pickup device without significantly increasing the manufacturing process.
  • the active layer of the light receiving device and the light emitting layer of the light emitting device can be made separately, and the other layers can have the same configuration for the light emitting device and the light receiving device. Therefore, the image pickup device can be lightweight and thin.
  • the layer that the light receiving device and the light emitting device have in common may have different functions in the light emitting device and those in the light receiving device.
  • the components are referred to based on the function in the light emitting device.
  • the hole injection layer functions as a hole injection layer in the light emitting device and as a hole transport layer in the light receiving device.
  • the electron injection layer functions as an electron injection layer in the light emitting element and as an electron transport layer in the light receiving element.
  • the light emitting device for example, a light emitting device that emits light in the red wavelength region, a light emitting device that emits light in the green wavelength region, and a light emitting device that emits light in the blue wavelength region can be used.
  • the subject can be imaged in color.
  • the image pickup apparatus according to one aspect of the present invention can be used as a color image scanner.
  • the imaging device according to one aspect of the present invention corrects the image data obtained from the images captured by the light of each color, calculates the corrected image data, and adds the corrected image data to form a composite image. Data can be generated.
  • the light receiving device does not have a spectroscopic function, it can be an image pickup device having high color reproducibility. Further, by using a light emitting device having high color reproducibility, it is possible to obtain an image pickup device having even higher color reproducibility.
  • the blue wavelength region is 400 nm or more and less than 490 nm, and the blue emission has at least one emission spectrum peak in the wavelength region.
  • the green wavelength region is 490 nm or more and less than 580 nm, and the green emission has at least one emission spectrum peak in the wavelength region.
  • the red wavelength region is 580 nm or more and 680 nm or less, and the red emission has at least one emission spectrum peak in the wavelength region.
  • the imaging device uses a light receiving device having sensitivity over the entire wavelength region of visible light, so that a light receiving device for red, a light receiving device for green, and a light receiving device for blue are not provided. Therefore, it can be an imaging device capable of capturing a high-definition image. Further, since the image pickup device according to one aspect of the present invention has a light emitting device, it also has a function of displaying an image, and can be a multifunctional and highly convenient image pickup device. For example, by displaying the image captured by the imaging unit on the imaging unit, the captured image can be confirmed immediately.
  • the imaging device can be applied to a display unit of an electronic device.
  • the electronic device for example, a television device, a personal computer, a monitor for a computer, a digital signage, a mobile phone, a portable game machine, a portable information terminal, or the like can be used.
  • the image pickup apparatus By applying the image pickup apparatus according to one aspect of the present invention to the display section of an electronic device, it is possible to obtain a display section having an image pickup function.
  • the user can perform imaging by placing a subject to be imaged on the display unit of the electronic device.
  • the user can immediately display the captured image on the display unit to check the image, and the electronic device can be highly convenient.
  • the imaging device according to one aspect of the present invention can be applied to personal authentication by capturing biological information such as fingerprints and palm prints with a light receiving device. Further, the imaging device according to one aspect of the present invention can be applied to a touch sensor by detecting the position information of an object touching the imaging unit.
  • FIG. 1 A block diagram illustrating the image pickup apparatus 10 according to one aspect of the present invention is shown in FIG.
  • the image pickup apparatus 10 includes an image pickup section 61, a drive circuit section 62, a drive circuit section 63, a drive circuit section 64, and a circuit section 65.
  • the imaging unit 61 has pixels 60 arranged in a matrix. Each pixel 60 has a light emitting device and a light receiving device. The light receiving device may be provided on all pixels 60, or may be provided on some pixels 60. Further, one pixel 60 may have a plurality of light receiving devices.
  • the drive circuit unit 62 functions as a source line drive circuit (also referred to as a source driver).
  • the drive circuit unit 63 functions as a gate line drive circuit (also referred to as a gate driver).
  • the drive circuit unit 64 has a function of generating a signal for driving the light receiving device of the pixel 60 and outputting the signal to the pixel 60.
  • the circuit unit 65 has a function of receiving a signal output from the pixel 60 and outputting it as data to the arithmetic circuit 71.
  • the circuit unit 65 functions as a read circuit.
  • the calculation circuit 71 has a function of receiving a signal output from the circuit unit 65 and performing a calculation.
  • the memory 73 has a function of holding a program executed by the arithmetic circuit 71, data input to the arithmetic circuit 71, data output from the arithmetic circuit 71, and the like.
  • a CPU Central Processing Unit
  • DSP Digital Signal Processor
  • GPU Graphics Processing Unit
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • FPGA Field Programmable Analog Array
  • a storage device to which a non-volatile storage element is applied can be preferably used.
  • a flash memory MRAM (Magnetoresistive Random Access Memory), PRAM (Phase change RAM), ReRAM (Resistive RAM), FeRAM (Ferroelectric RAM) and the like can be used.
  • the drive circuit unit 62 is electrically connected to the pixel 60 via the wiring 82.
  • the drive circuit unit 63 is electrically connected to the pixel 60 via the wiring 83.
  • the drive circuit unit 64 is electrically connected to the pixel 60 via the wiring 84.
  • the circuit unit 65 is electrically connected to the pixel 60 via the wiring 85.
  • the arithmetic circuit 71 is electrically connected to the circuit unit 65 via the wiring 86.
  • the memory 73 is electrically connected to the arithmetic circuit 71 via the wiring 87.
  • each of the pixels 60 has two or more sub-pixels. Further, the pixel 60 preferably has a sub-pixel having a light emitting device and a sub pixel having a light receiving device.
  • An example of the pixel 60 is shown in FIG. 2A.
  • FIG. 2A shows an example in which the pixel 60 has four sub-pixels of a sub-pixel 60R, a sub-pixel 60G, a sub-pixel 60B, and a sub-pixel 60PD.
  • the sub-pixel 60R has a light emitting device 91R that emits light in a red wavelength region
  • the sub-pixel 60G has a light emitting device 91G that emits light in a green wavelength region
  • the sub-pixel 60B has a light emitting device 91G that emits light in a blue wavelength region
  • the subpixel 60PD has a light receiving device 91PD.
  • the pixel 60 shown in FIG. 2A shows an example in which four sub-pixels are arranged in a 2 ⁇ 2 matrix, but one aspect of the present invention is not limited to this.
  • four sub-pixels may be arranged in a row. Further, the arrangement order of each sub-pixel is not particularly limited.
  • the pixel 60 has five sub-pixels of a sub-pixel 60R, a sub-pixel 60G, a sub-pixel 60B, a sub-pixel 60W, and a sub-pixel 60PD, and the sub-pixel 60W has a light emitting device 91W that emits white light. An example is shown.
  • the color elements applied to the sub-pixels are not limited to the above, and cyan (C), magenta (M), and the like may be combined. Further, although FIGS. 2A to 2C show an example in which the areas of the sub-pixels are the same, one aspect of the present invention is not limited to this. The area of each sub-pixel may be different.
  • FIGS. 3A to 3D Schematic cross-sectional views of the imaging unit 61 are shown in FIGS. 3A to 3D.
  • the imaging unit 61 shown in FIG. 3A has a substrate 51 and a substrate 59, and has a layer 53 and a layer 57 between the substrate 51 and the substrate 59.
  • the layer 57 has a light emitting device such as a light emitting device 91R, and the layer 53 has a light receiving device 91PD.
  • the imaging unit 61 shown in FIG. 3B has a substrate 51 and a substrate 59, and has a layer 53, a layer 55, and a layer 57 between the substrate 51 and the substrate 59.
  • Layer 55 has transistors.
  • the image pickup unit 61 emits red (R), green (G), and blue (B) light from, for example, a layer 57 having a light emitting device such as a light emitting device 91R to the layer 53 having a light receiving device 91PD.
  • the configuration may be such that light is incident from the outside.
  • FIGS. 3A and 3B the light emitted from the layer 57 and the light incident on the layer 53 are indicated by arrows.
  • the layer 55 having a transistor preferably has a first transistor and a second transistor.
  • the first transistor is electrically connected to the light receiving device 91PD included in the layer 53.
  • the second transistor is electrically connected to a light emitting device such as the light emitting device 91R included in the layer 57.
  • the imaging device of one aspect of the present invention has a function of imaging a subject in contact with the imaging unit 61.
  • the light emitting device included in the layer 57 emits light
  • the subject 52 in contact with the imaging unit 61 reflects the light
  • the light receiving device 91PD included in the layer 53 receives the reflected light.
  • the subject 52 on the imaging unit 61 can be imaged.
  • the imaging device can also image a subject 52 that is not in contact with the imaging unit 61.
  • the imaging unit 61 shown in FIG. 3A can also image the subject 52 that is not in contact with the imaging unit 61.
  • FIGS. 3C and 3D the light emitted from the layer 57, reflected by the subject 52, and incident on the layer 53 is indicated by an arrow.
  • FIG. 4 is a conceptual diagram illustrating the operation of the image pickup apparatus.
  • imaging is performed using a three-color light emitting device of the light emitting device 91R that emits the red color, the light emitting device 91G that emits the green color, and the light emitting device 91B that emits the blue color shown in FIGS. 2A and 2B. This will be described with an example.
  • the imaging unit 61 It lights the light-emitting device 91R emitting red light by the imaging unit 61, by using the light receiving device 91PD, for imaging the first image IM R.
  • Signal from the light receiving device 91PD of each pixel (hereinafter, referred to as the first image data R X) is output to the arithmetic circuit 71 via the circuit unit 65.
  • the imaging unit 61, the light-emitting device 91G emitting green light is lit, with the light receiving device 91PD, imaging the second image IM G.
  • Signal from the light receiving device 91PD of each pixel hereinafter, referred to as second image data G X
  • second image data G X Signal from the light receiving device 91PD of each pixel (hereinafter, referred to as second image data G X) is output to the arithmetic circuit 71 via the circuit unit 65.
  • the image pickup unit 61 lights the light emitting device 91B that emits blue light, and the light receiving device 91PD is used to image the third image IM B.
  • Signal from the light receiving device 91PD of each pixel (hereinafter, referred to as the third image data B X) is output to the arithmetic circuit 71 via the circuit unit 65.
  • the arithmetic circuit 71 In the arithmetic circuit 71, the first image data R X, the second image data G X, and the third image data B X of are corrected, respectively. Arithmetic circuit 71, a first image data R X corrected using the reference data to calculate a first corrected image data R LSB. Similarly, the arithmetic circuit 71, the second image data G X corrected using the reference data, calculates a second corrected image data G LSB. Arithmetic circuit 71, the third image data B X corrected using the reference data to calculate a third corrected image data B LSB.
  • the reference data will be explained.
  • the reference data that serves as a black reference and the reference data that serves as a white reference are acquired in advance.
  • the black reference subject is imaged with red light, green light, and blue light, respectively, and the first black reference data R min , the second black reference data G min , and the second black reference data G min, which serve as black reference data, are captured.
  • the third black reference data B min is acquired.
  • the first black reference data R min is an output value output from the light receiving device of each pixel in imaging with red light.
  • the second black reference data G min is an output value output from the light receiving device of each pixel in imaging with green light.
  • the third black reference data B min is an output value output from the light receiving device of each pixel in imaging with blue light.
  • a voltage value can be used as the first black reference data R min , the second black reference data G min , and the third black reference data B min. It is preferable that the black subject used for acquiring the reference data has an extremely low reflectance.
  • the white reference subject is imaged with red light, green light, and blue light, respectively, and the first white reference data R max and the second white reference data G, which are the white reference data, are captured.
  • the max and the third white reference data B max are acquired.
  • the first white reference data R max is an output value output from the light receiving device of each pixel in imaging with red light.
  • the second white reference data G max is an output value output from the light receiving device of each pixel in imaging with green light.
  • the third white reference data B max is an output value output from the light receiving device of each pixel in imaging with blue light.
  • a voltage value can be used as the first white reference data R max , the second white reference data G max , and the third white reference data B max. It is preferable that the white subject used for acquiring the reference data has an extremely high reflectance.
  • the reference data may be acquired at the time of shipment of the imaging device and stored in the memory 73.
  • the memory 73 it is preferable to use a non-volatile memory such as a flash memory. Further, the reference data may be rewritten when the user uses the imaging device.
  • the arithmetic circuit 71 has a function of reading reference data stored in the memory 73. Specifically, the arithmetic circuit 71 has a function of reading reference data from the memory 73 and using the reference data to correct image data of each color into corrected image data. Further, the corrected image data of each color may be output to the memory 73 and held.
  • the first black reference data R min and the first white reference data R max are referred to as the first reference data, the second black reference data G min , and the second white reference data.
  • G max may be referred to as a second reference data
  • a third black reference data B min and a third white reference data B max may be referred to as a third reference data.
  • the white reference data B max of 3 may be referred to as reference data.
  • First image data R X outputted from the light receiving device, the second image data G X, and the third image data B X are each the following formula (1), equation (2), Equation (3) Is converted into the first corrected image data R LSB , the second corrected image data G LSB , and the third corrected image data B LSB.
  • R LSB (R X -R min ) / (R max -R min) ⁇ A (1)
  • G LSB (G X -G min ) / (G max -G min) ⁇ A (2)
  • the constant A indicates the maximum value of the gradation that can be taken by the composite image SyIM.
  • the gradation of the composite image SyIM takes an integer of 0 or more and 2 n -1 or less, and the constant A is 2 n -1.
  • the constant A is 255.
  • the first image data R X output from the light receiving device whereas the second image data G X, and the third image data B X of an analog value, the first corrected image data R LSB, The second corrected image data G LSB and the third corrected image data B LSB are digital values.
  • the arithmetic circuit 71 adds the first corrected image data R LSB , the second corrected image data G LSB , and the third corrected image data B LSB to generate composite image data, and generates a color composite image SyIM. can do.
  • the reference data acquired by photographing the white reference subject and the black reference subject are used for correction, but one aspect of the present invention is not limited to this.
  • a unique value determined from the characteristics of the light receiving device may be used as reference data.
  • the temperature inside the image pickup apparatus or the temperature of the usage environment may be acquired, and reference data using the temperature as a variable may be used.
  • the reference data with the temperature as a variable the influence of the temperature at the time of imaging can be reduced, and the imaging device with high color reproducibility even when the characteristics of the light emitting device and the light receiving device change depending on the temperature. Can be done.
  • the cumulative drive time of the light emitting device and the cumulative drive time of the light receiving device may be acquired, and reference data using the cumulative drive time as a variable may be used.
  • reference data By using the reference data with the cumulative usage time as a variable, it is possible to obtain an image pickup device having high color reproducibility even when the characteristics of the light emitting device and the light receiving photon change depending on the cumulative driving time of each.
  • FIG. 5 is a flowchart illustrating the operation of the image pickup apparatus.
  • step S11 the light emitting device 91R that emits red light is turned on.
  • step S12 by using a light receiving device 91PD, for imaging the first image IM R. Since the light emitting device 91R is used for imaging while emitting light, red light is reflected by the subject, and the reflected light is incident on the light receiving device 91PD. That is, the first image IM R can be said that information about the red object.
  • the signal from the light receiving device 91PD of each pixel (hereinafter, referred to as the first image data R X), and outputs to the arithmetic circuit 71.
  • First image data R X is data corresponding to a current value flowing through the light-receiving device 91PD of each pixel is output to the arithmetic circuit 71 via the circuit unit 65 from the imaging unit 61.
  • the first image data R X for example, it can be used voltage value.
  • step S13 the light emitting device 91R is turned off.
  • step S21 the arithmetic circuit 71, a first image data R X corrected using the reference data to calculate a first corrected image data R LSB.
  • the first corrected image data R LB is output to the memory 73 and held.
  • the reference data is held in the memory 73 and is read out by the arithmetic circuit 71 at the time of correction.
  • the reference data the first white reference data R max and the first black reference data R min can be used.
  • step S31 the light emitting device 91G that emits green light is turned on.
  • step S32 by using a light receiving device 91PD, imaging the second image IM G. Since the light emitting device 91G is used for imaging while emitting light, green light is reflected by the subject, and the reflected light is incident on the light receiving device 91PD. That is, the second image IM G can be said to be information about the green object.
  • the signal from the light receiving device 91PD of each pixel (hereinafter, referred to as second image data G X), and outputs to the arithmetic circuit 71.
  • Second image data G X is data corresponding to a current value flowing through the light-receiving device 91PD of each pixel is output to the arithmetic circuit 71 via the circuit unit 65 from the imaging unit 61.
  • the second image data G X for example, it can be used voltage value.
  • step S33 the light emitting device 91G is turned off.
  • step S41 the arithmetic circuit 71, the second image data G X corrected using the reference data, calculates a second corrected image data G LSB.
  • the second corrected image data LSB is output to the memory 73 and held.
  • the reference data the second white reference data G max and the second black reference data G min can be used.
  • step S51 the light emitting device 91B that emits blue light is turned on.
  • step S52 by using a light receiving device 91PD, it captures a third image IM B. Since the light emitting device 91B is made to emit light while taking an image, blue light is reflected by the subject, and the reflected light is incident on the light receiving device 91PD. That is, the third image IM B can be said to be information regarding the blue color of the subject.
  • the signal from the light receiving device 91PD of each pixel hereinafter, referred to as the third image data B X), and outputs to the arithmetic circuit 71.
  • a third image data B X for example, it can be used voltage value.
  • step S53 the light emitting device 91B is turned off.
  • step S61 the arithmetic circuit 71, the third image data B X corrected using the reference data to calculate a third corrected image data B LSB.
  • the third corrected image data B LSB is output to the memory 73 and held.
  • the reference data the third white reference data B max and the third black reference data B min can be used.
  • step S71 the first corrected image data R LSB , the second corrected image data G LSB , and the third corrected image data B LSB are read from the memory 73 to the arithmetic circuit 71, and these are added together to form the composite image data. Can be generated to generate a color composite image SyIM.
  • FIG. 5 shows an example in which imaging is performed in the order of red, green, and blue
  • the type of color, the number of colors, and the order of colors to be imaged are not particularly limited.
  • FIG. 6A A cross-sectional view of the image pickup apparatus 10A is shown in FIG. 6A.
  • the image pickup device 10A has a light receiving device 110 and a light emitting device 190.
  • the light receiving device 110 has a pixel electrode 111, a common layer 112, an active layer 113, a common layer 114, and a common electrode 115.
  • the light emitting device 190 has a pixel electrode 191 and a common layer 112, a light emitting layer 193, a common layer 114, and a common electrode 115.
  • the pixel electrode 111, the pixel electrode 191 and the common layer 112, the active layer 113, the light emitting layer 193, the common layer 114, and the common electrode 115 may each have a single layer structure or a laminated structure.
  • the pixel electrode 111 and the pixel electrode 191 are located on the insulating layer 214.
  • the pixel electrode 111 and the pixel electrode 191 can be formed of the same material and in the same process.
  • the common layer 112 is located on the pixel electrode 111 and on the pixel electrode 191.
  • the common layer 112 is a layer commonly used for the light receiving device 110 and the light emitting device 190.
  • the active layer 113 overlaps with the pixel electrode 111 via the common layer 112.
  • the light emitting layer 193 overlaps with the pixel electrode 191 via the common layer 112.
  • the active layer 113 has a first organic compound, and the light emitting layer 193 has a second organic compound different from the first organic compound.
  • the common layer 114 is located on the common layer 112, on the active layer 113, and on the light emitting layer 193.
  • the common layer 114 is a layer commonly used for the light receiving device 110 and the light emitting device 190.
  • the common electrode 115 has a portion that overlaps with the pixel electrode 111 via the common layer 112, the active layer 113, and the common layer 114. Further, the common electrode 115 has a portion that overlaps with the pixel electrode 191 via the common layer 112, the light emitting layer 193, and the common layer 114.
  • the common electrode 115 is a layer commonly used for the light receiving device 110 and the light emitting device 190.
  • an organic compound is used for the active layer 113 of the light receiving device 110.
  • the light receiving device 110 can have a layer other than the active layer 113 having the same configuration as the light emitting device 190 (EL element). Therefore, the light receiving device 110 can be formed in parallel with the formation of the light emitting device 190 only by adding the step of forming the active layer 113 to the manufacturing process of the light emitting device 190. Further, the light emitting device 190 and the light receiving device 110 can be formed on the same substrate. Therefore, the light emitting device 190 and the light receiving device 110 can be incorporated in the image pickup apparatus without significantly increasing the manufacturing process.
  • the image pickup device 10A shows an example in which the light receiving device 110 and the light emitting device 190 have a common configuration except that the active layer 113 of the light receiving device 110 and the light emitting layer 193 of the light emitting device 190 are separately formed.
  • the configuration of the light receiving device 110 and the light emitting device 190 is not limited to this.
  • the light receiving device 110 and the light emitting device 190 may have layers that are separated from each other (see the imaging devices 10K, 10L, and 10M described later).
  • the light receiving device 110 and the light emitting device 190 preferably have one or more layers (common layers) that are commonly used. As a result, the light emitting device 190 and the light receiving device 110 can be incorporated in the image pickup apparatus without significantly increasing the manufacturing process.
  • the image pickup apparatus 10A has a light receiving device 110, a light emitting device 190, a transistor 41, a transistor 42, and the like between a pair of boards (board 151 and board 152).
  • the common layer 112, the active layer 113, and the common layer 114 located between the pixel electrode 111 and the common electrode 115 can also be referred to as an organic layer (a layer containing an organic compound).
  • the pixel electrode 111 preferably has a function of reflecting visible light.
  • the end of the pixel electrode 111 is covered with a partition wall 216.
  • the common electrode 115 has a function of transmitting visible light.
  • the light receiving device 110 has a function of detecting light.
  • the light receiving device 110 is a photoelectric conversion element that receives light 22 incident from the outside of the image pickup device 10A and converts it into an electric signal.
  • the light 22 can also be said to be the light reflected by the object from the light emitted by the light emitting device 190. Further, the light 22 may enter the light receiving device 110 via a lens described later.
  • the pixel electrode 111 functions as an anode and the common electrode 115 functions as a cathode in alignment with the light emitting device 190. That is, the light receiving device 110 can detect the light incident on the light receiving device 110 and generate an electric charge by driving the light receiving device 110 by applying a reverse bias between the pixel electrode 111 and the common electrode 115.
  • a light-shielding layer BM is provided on the surface of the substrate 152 on the substrate 151 side.
  • the light-shielding layer BM has openings at a position overlapping the light receiving device 110 and a position overlapping the light emitting device 190.
  • the light-shielding layer BM a material that blocks light emission from the light-emitting device can be used.
  • the light-shielding layer BM preferably absorbs visible light.
  • a metal material, a resin material containing a pigment (carbon black or the like) or a dye, or the like can be used to form a black matrix.
  • the light-shielding layer BM may have a laminated structure of a red color filter, a green color filter, and a blue color filter.
  • the light receiving device 110 detects the light emitted by the light emitting device 190 reflected by the object.
  • the light emitted from the light emitting device 190 may be reflected in the image pickup device 10A and may be incident on the light receiving device 110 without passing through the object.
  • the light-shielding layer BM can suppress the influence of such stray light.
  • the light-shielding layer BM is not provided, the light 23a emitted by the light emitting device 190 may be reflected by the substrate 152, and the reflected light 23b may be incident on the light receiving device 110.
  • the light-shielding layer BM it is possible to prevent the reflected light 23b from being incident on the light receiving device 110. As a result, noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • the common layer 112, the light emitting layer 193, and the common layer 114 located between the pixel electrode 191 and the common electrode 115, respectively, can be said to be an EL layer.
  • the pixel electrode 191 preferably has a function of reflecting visible light.
  • the end of the pixel electrode 191 is covered by a partition wall 216.
  • the pixel electrode 111 and the pixel electrode 191 are electrically insulated from each other by a partition wall 216.
  • the common electrode 115 has a function of transmitting visible light.
  • the light emitting device 190 has a function of emitting visible light. Specifically, the light emitting device 190 is an electroluminescent device that emits light toward the substrate 152 by applying a voltage between the pixel electrode 191 and the common electrode 115 (see light emitting 21).
  • the light emitting layer 193 is preferably formed so as not to overlap the light receiving region of the light receiving device 110. As a result, it is possible to suppress the light emitting layer 193 from absorbing the light 22, and it is possible to increase the amount of light emitted to the light receiving device 110.
  • the pixel electrode 111 is electrically connected to the source or drain of the transistor 41 through an opening provided in the insulating layer 214.
  • the end of the pixel electrode 111 is covered with a partition wall 216.
  • the pixel electrode 191 is electrically connected to the source or drain of the transistor 42 through an opening provided in the insulating layer 214.
  • the end of the pixel electrode 191 is covered with a partition wall 216.
  • the transistor 42 has a function of controlling the drive of the light emitting device 190.
  • the transistor 41 and the transistor 42 are in contact with each other on the same layer (the substrate 151 in FIG. 6A).
  • At least a part of the circuit electrically connected to the light receiving device 110 is formed of the same material and the same process as the circuit electrically connected to the light emitting device 190.
  • the thickness of the image pickup apparatus can be reduced and the manufacturing process can be simplified as compared with the case where the two circuits are formed separately.
  • the light receiving device 110 and the light emitting device 190 are each covered with a protective layer 195.
  • the protective layer 195 is provided in contact with the common electrode 115.
  • the protective layer 195 it is possible to prevent impurities such as water from entering the light receiving device 110 and the light emitting device 190, and to improve the reliability of the light receiving device 110 and the light emitting device 190.
  • the protective layer 195 and the substrate 152 are bonded to each other by the adhesive layer 142.
  • the protective layer may not be provided on the light receiving device 110 and the light emitting device 190.
  • the common electrode 115 and the substrate 152 are bonded to each other by the adhesive layer 142.
  • Imaging device 10B A cross-sectional view of the image pickup apparatus 10B having a configuration different from that of the image pickup apparatus 10A described above is shown in FIG. 6B. In the following description of the imaging device, the description of the same configuration as that of the imaging device described above may be omitted.
  • the image pickup device 10B shown in FIG. 6B has a lens 149 in addition to the configuration of the image pickup device 10A.
  • the image pickup apparatus of this embodiment may have a lens 149.
  • the lens 149 is provided at a position overlapping the light receiving device 110.
  • the lens 149 is provided in contact with the substrate 152.
  • the lens 149 included in the image pickup apparatus 10B has a convex surface on the substrate 151 side.
  • the lens 149 may have a convex surface on the substrate 152 side.
  • FIG. 6B shows an example in which the lens 149 is formed first, the light-shielding layer BM may be formed first. In FIG. 6B, the end of the lens 149 is covered with a light-shielding layer BM.
  • the image pickup device 10B has a configuration in which the light 22 is incident on the light receiving device 110 via the lens 149.
  • the imaging range of the light receiving device 110 can be narrowed as compared with the case where the lens 149 is not provided, and the overlapping of the imaging range with the adjacent light receiving device 110 can be suppressed. As a result, a clear image with less blurring can be captured.
  • the size of the pinhole when the lens 149 is provided is the size of the pinhole (in FIG. 6B, the size of the opening of the BM overlapping the light receiving device 110) as compared with the case where the lens 149 is not provided. Corresponding) can be increased. Therefore, by having the lens 149, the amount of light incident on the light receiving device 110 can be increased.
  • the image pickup apparatus shown in FIGS. 7B and 7C also has a configuration in which the light 22 is incident on the light receiving device 110 via the lens 149, similarly to the image pickup apparatus 10B shown in FIG. 6B, respectively.
  • the lens 149 is provided in contact with the upper surface of the protective layer 195.
  • the lens 149 of the image pickup apparatus shown in FIG. 7B has a convex surface on the substrate 152 side.
  • the image pickup apparatus shown in FIG. 7C is provided with a lens array 146 on the image pickup surface side of the substrate 152.
  • the lens included in the lens array 146 is provided at a position overlapping the light receiving device 110. It is preferable that a light-shielding layer BM is provided on the surface of the substrate 152 on the substrate 151 side.
  • a lens such as a microlens may be directly formed on a substrate or a light receiving device, or a separately manufactured lens array such as a microlens array may be formed on the substrate. You may stick them together.
  • FIG. 6C A cross-sectional view of the image pickup apparatus 10C is shown in FIG. 6C.
  • the image pickup apparatus 10C shown in FIG. 6C differs from the image pickup apparatus 10A in that it does not have a substrate 151, a substrate 152, and a partition wall 216, and has a substrate 153, a substrate 154, an adhesive layer 155, an insulating layer 212, and a partition wall 217. ..
  • the substrate 153 and the insulating layer 212 are bonded to each other by an adhesive layer 155.
  • the substrate 154 and the protective layer 195 are bonded to each other by an adhesive layer 142.
  • the image pickup apparatus 10C has a configuration in which the insulating layer 212, the transistor 41, the transistor 42, the light receiving device 110, the light emitting device 190, and the like formed on the manufacturing substrate are transposed on the substrate 153. It is preferable that the substrate 153 and the substrate 154 have flexibility, respectively. This makes it possible to increase the flexibility of the image pickup apparatus 10C. For example, it is preferable to use a resin for the substrate 153 and the substrate 154, respectively.
  • polyester resins such as polyethylene terephthalate (PET) and polyethylene naphthalate (PEN), polyacrylonitrile resin, acrylic resin, polyimide resin, polymethylmethacrylate resin, polycarbonate (PC) resin, and polyether sulfone, respectively.
  • PES resin polyamide resin (nylon, aramid, etc.), polysiloxane resin, cycloolefin resin, polystyrene resin, polyamideimide resin, polyurethane resin, polyvinyl chloride resin, polyvinylidene chloride resin, polypropylene resin, polytetrafluoroethylene (PES) PTFE) resin, ABS resin, cellulose nanofibers and the like can be used.
  • PES polytetrafluoroethylene
  • ABS resin cellulose nanofibers and the like
  • glass having a thickness sufficient to have flexibility may be used.
  • a film having high optical isotropic properties may be used as the substrate of the image pickup apparatus of this embodiment.
  • the film having high optical isotropic properties include a triacetyl cellulose (TAC, also referred to as cellulose triacetate) film, a cycloolefin polymer (COP) film, a cycloolefin copolymer (COC) film, and an acrylic film.
  • TAC triacetyl cellulose
  • COP cycloolefin polymer
  • COC cycloolefin copolymer
  • the partition wall 217 preferably absorbs the light emitted by the light emitting device.
  • a black matrix can be formed by using a resin material containing a pigment or a dye. Further, by using a brown resist material, the partition wall 217 can be formed of a colored insulating layer.
  • the light 23c emitted by the light emitting device 190 is reflected by the substrate 154 and the partition wall 217, and the reflected light 23d may be incident on the light receiving device 110. Further, the light 23c passes through the partition wall 217 and is reflected by a transistor, wiring, or the like, so that the reflected light may enter the light receiving device 110. By absorbing the light 23c by the partition wall 217, it is possible to suppress the reflected light 23d from entering the light receiving device 110. As a result, noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • the partition wall 217 preferably absorbs at least the wavelength of light detected by the light receiving device 110.
  • the partition wall 217 preferably absorbs at least the green light.
  • the partition wall 217 has a red color filter, it can absorb the green light 23c and suppress the reflected light 23d from entering the light receiving device 110.
  • FIG. 8A A cross-sectional view of the image pickup apparatus 10D is shown in FIG. 8A.
  • the image pickup device 10D has a colored layer 148a in addition to the configuration of the image pickup device 10B.
  • the colored layer 148a has a portion in contact with the upper surface of the pixel electrode 111 of the light receiving device 110 and a portion in contact with the side surface of the partition wall 216.
  • the colored layer 148a preferably absorbs the light emitted by the light emitting device.
  • a black matrix can be formed by using a resin material containing a pigment or a dye. Further, by using a brown resist material, the colored layer 148a can be formed of the colored insulating layer.
  • the colored layer 148a preferably absorbs at least the wavelength of light detected by the light receiving device 110.
  • the colored layer 148a preferably absorbs at least the green light.
  • the colored layer 148a has a red color filter, it can absorb green light and suppress stray light (reflected light) from entering the light receiving device 110.
  • the amount of stray light incident on the light receiving device 110 can be reduced. As a result, noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • the colored layer is arranged between the light receiving device 110 and the light emitting device 190. As a result, stray light incident on the light receiving device 110 from the light emitting device 190 can be suppressed.
  • FIG. 8B A cross-sectional view of the image pickup apparatus 10E is shown in FIG. 8B.
  • the image pickup device 10E has a colored layer 148b in addition to the configuration of the image pickup device 10D.
  • the material that can be used for the colored layer 148b is the same as that of the colored layer 148a.
  • the colored layer 148b has a portion in contact with the upper surface of the pixel electrode 191 of the light emitting device 190 and a portion in contact with the side surface of the partition wall 216.
  • the imaging device of the present embodiment preferably has one or both of the colored layer 148a and the colored layer 148b.
  • the amount of stray light incident on the light receiving device 110 can be further reduced.
  • the imaging device 10E since the colored layer 148b is in contact with the upper surface of the pixel electrode 191, the amount of light extracted to the outside of the imaging device 10E among the light emitting 21 of the light emitting device 190 is measured by the imaging device 10D (FIG. 8A). May be reduced. Therefore, when only one of the colored layer 148a and the colored layer 148b is provided, it is preferable to provide only the colored layer 148a on the light receiving device 110 side as in the image pickup apparatus 10D. As a result, the light extraction efficiency of the light emitting device 190 can be increased, and the incident of stray light on the light receiving device 110 can be suppressed. Therefore, it is possible to obtain an imaging device capable of capturing a high-quality image.
  • FIG. 8C A cross-sectional view of the image pickup apparatus 10F is shown in FIG. 8C.
  • the image pickup device 10F has a colored layer 148 in addition to the configuration of the image pickup device 10B.
  • the material that can be used for the colored layer 148 is the same as that of the colored layer 148a.
  • the colored layer 148 is provided so as to cover the upper surface and the side surface of the partition wall 216.
  • the colored layer 148 has a portion in contact with the upper surface of the pixel electrode 111 included in the light receiving device 110 and a portion in contact with the upper surface of the pixel electrode 191 included in the light emitting device 190.
  • the colored layer 148a and the colored layer 148b shown in FIG. 8B do not have to be separated from each other, and may be one film as in the colored layer 148 shown in FIG. 8C.
  • the amount of stray light incident on the light receiving device 110 can be reduced.
  • noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • FIG. 9A A cross-sectional view of the image pickup apparatus 10G is shown in FIG. 9A.
  • the image pickup device 10G has a colored layer 147 in addition to the configuration of the image pickup device 10B.
  • the colored layer 147 is located on the insulating layer 214, and the partition wall 216 is provided so as to cover the upper surface and the side surface of the colored layer 147.
  • the colored layer 147 and the light receiving device 110 are electrically insulated by a partition wall 216.
  • the colored layer 147 and the light emitting device 190 are electrically insulated by a partition wall 216.
  • the material that can be used for the colored layer 147 is the same as that of the colored layer 148a. Similar to the colored layers 148, 148a, and 148b described above, the colored layer 147 absorbs the stray light generated in the image pickup apparatus 10G, so that the amount of stray light incident on the light receiving device 110 can be reduced. As a result, noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • the resistivity may be lower than that of the partition wall 216 depending on the material.
  • a resin containing a pigment such as carbon black has a lower resistivity than a resin containing no such pigment. Therefore, depending on the material, by providing any of the colored layers 148, 148a, and 148b, a current may leak to an adjacent light emitting device or light receiving device. For example, when a current leaks to an adjacent light emitting device, there arises a problem that other than the desired light emitting device emits light (also referred to as crosstalk).
  • the colored layer 147 is provided separately from the light receiving device 110 and the light emitting device 190, respectively. Further, the colored layer 147 is electrically insulated from each of the light receiving device 110 and the light emitting device 190 by a partition wall 216. Therefore, even if the colored layer 147 is a layer having a low resistivity, it is unlikely to affect the light receiving device 110 and the light emitting device 190. Therefore, the range of selection of the material used for the colored layer 147 is widened, which is preferable. For example, as the colored layer 147, a black matrix may be formed by using a metal material or the like.
  • FIG. 9B A cross-sectional view of the image pickup apparatus 10H is shown in FIG. 9B.
  • the image pickup device 10H has a colored layer 148c in addition to the configuration of the image pickup device 10B.
  • the partition wall 216 has an opening that reaches the insulating layer 214.
  • the colored layer 148c has a portion that contacts the insulating layer 214 through the opening, a portion that contacts the side surface of the partition wall 216 inside the opening, and a portion that contacts the upper surface of the partition wall 216.
  • the colored layer 148c and the light receiving device 110 are electrically insulated by a partition wall 216.
  • the colored layer 148c and the light emitting device 190 are electrically insulated by the partition wall 216.
  • the material that can be used for the colored layer 148c is the same as that of the colored layer 147.
  • the amount of stray light incident on the light receiving device 110 can be reduced.
  • noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • the colored layer 148c is provided separately from the light receiving device 110 and the light emitting device 190, respectively. Further, the colored layer 148c is electrically insulated from each of the light receiving device 110 and the light emitting device 190 by a partition wall 216. Therefore, even if the colored layer 148c is a layer having a low resistivity, it is unlikely to affect the light receiving device 110 and the light emitting device 190. Therefore, the range of selection of the material used for the colored layer 148c is widened, which is preferable.
  • FIG. 9C A cross-sectional view of the image pickup apparatus 10J is shown in FIG. 9C.
  • the image pickup device 10J has a colored layer 148c in addition to the configuration of the image pickup device 10D.
  • the image pickup apparatus of one aspect of the present invention preferably has one or more of colored layers 148, 148a, 148b, 148c, and 147.
  • the stray light generated in the image pickup apparatus can be absorbed, and the amount of stray light incident on the light receiving device 110 can be reduced. Therefore, it is possible to reduce noise and increase the sensitivity of the sensor using the light receiving device 110.
  • FIG. 10A shows a cross-sectional view of the image pickup device 10K
  • FIG. 10B shows a cross-sectional view of the image pickup device 10L
  • FIG. 10C shows a cross-sectional view of the image pickup device 10M.
  • the image pickup device 10K is different from the image pickup device 10A in that it does not have a common layer 114 and has a buffer layer 184 and a buffer layer 194.
  • the buffer layer 184 and the buffer layer 194 may have a single-layer structure or a laminated structure, respectively.
  • the light receiving device 110 has a pixel electrode 111, a common layer 112, an active layer 113, a buffer layer 184, and a common electrode 115.
  • the light emitting device 190 has a pixel electrode 191 and a common layer 112, a light emitting layer 193, a buffer layer 194, and a common electrode 115.
  • the image pickup device 10L is different from the image pickup device 10A in that it does not have a common layer 112 and has a buffer layer 182 and a buffer layer 192.
  • the buffer layer 182 and the buffer layer 192 may have a single-layer structure or a laminated structure, respectively.
  • the light receiving device 110 has a pixel electrode 111, a buffer layer 182, an active layer 113, a common layer 114, and a common electrode 115.
  • the light emitting device 190 has a pixel electrode 191 and a buffer layer 192, a light emitting layer 193, a common layer 114, and a common electrode 115.
  • the image pickup device 10M differs from the image pickup device 10A in that it does not have a common layer 112 and a common layer 114 and has a buffer layer 182, a buffer layer 184, a buffer layer 192, and a buffer layer 194.
  • the light receiving device 110 has a pixel electrode 111, a buffer layer 182, an active layer 113, a buffer layer 184, and a common electrode 115.
  • the light emitting device 190 has a pixel electrode 191 and a buffer layer 192, a light emitting layer 193, a buffer layer 194, and a common electrode 115.
  • the active layer 113 and the light emitting layer 193 can be separately produced, but also other layers can be produced separately.
  • the buffer layer 184 between the common electrode 115 and the active layer 113 and the buffer layer 194 between the common electrode 115 and the light emitting layer 193 are separately formed.
  • the buffer layer 184 for example, an electron transport layer can be formed.
  • the buffer layer 194 for example, one or both of the electron injection layer and the electron transport layer can be formed.
  • the buffer layer 182 between the pixel electrode 111 and the active layer 113 and the buffer layer 192 between the pixel electrode 191 and the light emitting layer 193 are separately formed.
  • a hole transport layer can be formed.
  • the buffer layer 192 for example, one or both of the hole injection layer and the hole transport layer can be formed.
  • the light receiving device 110 and the light emitting device 190 do not have a common layer between a pair of electrodes (pixel electrode 111 or pixel electrode 191 and common electrode 115).
  • the pixel electrode 111 and the pixel electrode 191 are formed on the insulating layer 214 by the same material and the same process, and the buffer layer 182 and the active layer are formed on the pixel electrode 111.
  • the buffer layer 184 and forming the buffer layer 192, the light emitting layer 193, and the buffer layer 194 on the pixel electrode 191, the pixel electrode 111, the buffer layer 182, the active layer 113, the buffer layer 184, and the pixel electrode It can be produced by forming a common electrode 115 so as to cover the 191 and the buffer layer 192, the light emitting layer 193, and the buffer layer 194.
  • the order of formation of the laminated structure of the buffer layer 182, the active layer 113, and the buffer layer 184 and the laminated structure of the buffer layer 192, the light emitting layer 193, and the buffer layer 194 is not particularly limited.
  • the buffer layer 192, the light emitting layer 193, and the buffer layer 194 may be formed.
  • the buffer layer 192, the light emitting layer 193, and the buffer layer 194 may be formed before the buffer layer 182, the active layer 113, and the buffer layer 184 are formed.
  • the buffer layer 182, the buffer layer 192, the active layer 113, the light emitting layer 193, and the like may be formed alternately in this order.
  • FIG. 11 shows a perspective view of the image pickup device 100A
  • FIG. 12 shows a cross-sectional view of the image pickup device 100A.
  • the image pickup apparatus 100A has a configuration in which a substrate 152 and a substrate 151 are bonded together.
  • the substrate 152 is clearly indicated by a broken line.
  • the image pickup device 100A can also be said to be an image pickup module having the image pickup device according to one aspect of the present invention and any one or more of a connector and an integrated circuit (IC).
  • a connector a flexible printed circuit board (FPC: Flexible printed circuit board), TCP (Tape Carrier Package), or the like can be used.
  • the integrated circuit (IC) can be mounted on the image pickup module by a COG (Chip On Glass) method, a COF (Chip On Film) method, or the like.
  • FIG. 11 shows an example in which the IC173 and the FPC172 are mounted on the image pickup apparatus 100A.
  • the image pickup apparatus 100A includes an image pickup unit 162, a circuit 164, wiring 165, and the like.
  • a scanning line drive circuit can be used.
  • the wiring 165 has a function of supplying signals and power to the imaging unit 162 and the circuit 164.
  • the signal and power are input to the wiring 165 from the outside via the FPC 172 or from the IC 173.
  • FIG. 11 shows an example in which the IC173 is provided on the substrate 151 by the COG method, the COF method, or the like.
  • the IC 173 an IC having, for example, a scanning line drive circuit or a signal line drive circuit can be applied.
  • the image pickup apparatus 100A and the image pickup module may be configured without an IC. Further, the IC may be mounted on the FPC by the COF method or the like.
  • FIG. 12 shows a part of the region including the FPC 172, a part of the region including the circuit 164, a part of the region including the imaging unit 162, and one of the regions including the end portion of the image pickup apparatus 100A shown in FIG. An example of the cross section when each part is cut is shown.
  • the image pickup apparatus 100A shown in FIG. 12 has a transistor 201, a transistor 205, a transistor 206, a light emitting device 190, a light receiving device 110, and the like between the substrate 151 and the substrate 152.
  • the substrate 152 and the insulating layer 214 are adhered to each other via the adhesive layer 142.
  • a solid sealing structure, a hollow sealing structure, or the like can be applied to seal the light emitting device 190 and the light receiving device 110.
  • the space 143 surrounded by the substrate 152, the adhesive layer 142, and the insulating layer 214 is filled with an inert gas (nitrogen, argon, or the like), and a hollow sealing structure is applied.
  • the adhesive layer 142 may be provided so as to overlap with the light emitting device 190.
  • the space 143 surrounded by the substrate 152, the adhesive layer 142, and the insulating layer 214 may be filled with a resin different from that of the adhesive layer 142.
  • the light emitting device 190 has a laminated structure in which the pixel electrode 191 and the common layer 112, the light emitting layer 193, the common layer 114, and the common electrode 115 are laminated in this order from the insulating layer 214 side.
  • the pixel electrode 191 is electrically connected to the conductive layer 222b of the transistor 206 via an opening provided in the insulating layer 214.
  • the transistor 206 has a function of controlling the drive of the light emitting device 190.
  • the end of the pixel electrode 191 is covered with a partition wall 216.
  • the pixel electrode 191 contains a material that reflects visible light
  • the common electrode 115 contains a material that transmits visible light.
  • the light receiving device 110 has a laminated structure in which the pixel electrode 111, the common layer 112, the active layer 113, the common layer 114, and the common electrode 115 are laminated in this order from the insulating layer 214 side.
  • the pixel electrode 111 is electrically connected to the conductive layer 222b of the transistor 205 via an opening provided in the insulating layer 214.
  • the end of the pixel electrode 111 is covered with a partition wall 216.
  • the pixel electrode 111 contains a material that reflects visible light
  • the common electrode 115 contains a material that transmits visible light.
  • the light emitted by the light emitting device 190 is emitted to the substrate 152 side. Further, light is incident on the light receiving device 110 via the substrate 152 and the space 143. It is preferable to use a material having high transparency to visible light for the substrate 152.
  • the pixel electrode 111 and the pixel electrode 191 can be manufactured by the same material and the same process.
  • the common layer 112, the common layer 114, and the common electrode 115 are used for both the light receiving device 110 and the light emitting device 190.
  • the light receiving device 110 and the light emitting device 190 can all have the same configuration except that the configurations of the active layer 113 and the light emitting layer 193 are different. As a result, the light receiving device 110 and the light receiving device 110 can be built in the image pickup apparatus 100A without significantly increasing the number of manufacturing steps.
  • a light-shielding layer BM is provided on the surface of the substrate 152 on the substrate 151 side.
  • the light-shielding layer BM has openings at a position overlapping the light receiving device 110 and a position overlapping the light emitting device 190.
  • the transistor 201, the transistor 205, and the transistor 206 are all formed on the substrate 151. These transistors can be manufactured by the same material and the same process.
  • An insulating layer 211, an insulating layer 213, an insulating layer 215, and an insulating layer 214 are provided on the substrate 151 in this order.
  • a part of the insulating layer 211 functions as a gate insulating layer of each transistor.
  • a part of the insulating layer 213 functions as a gate insulating layer of each transistor.
  • the insulating layer 215 is provided so as to cover the transistor.
  • the insulating layer 214 is provided so as to cover the transistor and has a function as a flattening layer.
  • the number of gate insulating layers and the number of insulating layers covering the transistors are not limited, and may be a single layer or two or more layers, respectively.
  • the insulating layer can function as a barrier layer.
  • an inorganic insulating film as the insulating layer 211, the insulating layer 213, and the insulating layer 215, respectively.
  • an inorganic insulating film for example, a silicon nitride film, a silicon nitride film, a silicon oxide film, a silicon nitride film, an aluminum oxide film, an aluminum nitride film, or the like can be used.
  • a hafnium oxide film, an yttrium oxide film, a zirconium oxide film, a gallium oxide film, a tantalum oxide film, a magnesium oxide film, a lanthanum oxide film, a cerium oxide film, a neodymium oxide film and the like may be used. Further, two or more of the above-mentioned insulating films may be laminated and used.
  • the organic insulating film often has a lower barrier property than the inorganic insulating film. Therefore, the organic insulating film preferably has an opening near the end of the image pickup apparatus 100A. As a result, it is possible to prevent impurities from entering from the end of the image pickup apparatus 100A via the organic insulating film.
  • the organic insulating film may be formed so that the end portion of the organic insulating film is inside the end portion of the image pickup apparatus 100A so that the organic insulating film is not exposed at the end portion of the image pickup apparatus 100A.
  • An organic insulating film is suitable for the insulating layer 214 that functions as a flattening layer.
  • the material that can be used for the organic insulating film include acrylic resin, polyimide resin, epoxy resin, polyamide resin, polyimideamide resin, siloxane resin, benzocyclobutene resin, phenol resin, and precursors of these resins.
  • an opening is formed in the insulating layer 214.
  • an organic insulating film is used for the insulating layer 214, it is possible to prevent impurities from entering the imaging unit 162 from the outside through the insulating layer 214. Therefore, the reliability of the image pickup apparatus 100A can be improved.
  • the transistor 201, the transistor 205, and the transistor 206 are a conductive layer 221 that functions as a gate, an insulating layer 211 that functions as a gate insulating layer, a conductive layer 222a and a conductive layer 222b that function as a source and a drain, a semiconductor layer 231 and a gate insulating layer. It has an insulating layer 213 that functions as a gate and a conductive layer 223 that functions as a gate.
  • the same hatching pattern is attached to a plurality of layers obtained by processing the same conductive film.
  • the insulating layer 211 is located between the conductive layer 221 and the semiconductor layer 231.
  • the insulating layer 213 is located between the conductive layer 223 and the semiconductor layer 231.
  • the structure of the transistor included in the image pickup apparatus of this embodiment is not particularly limited.
  • a planar type transistor, a stagger type transistor, an inverted stagger type transistor and the like can be used.
  • either a top gate type or a bottom gate type transistor structure may be used.
  • gates may be provided above and below the semiconductor layer on which the channel is formed.
  • a configuration in which a semiconductor layer on which a channel is formed is sandwiched between two gates is applied to the transistor 201, the transistor 205, and the transistor 206.
  • the transistor may be driven by connecting two gates and supplying the same signal to them.
  • the threshold voltage of the transistor may be controlled by giving a potential for controlling the threshold voltage to one of the two gates and giving a potential for driving to the other.
  • the crystallinity of the semiconductor material used for the transistor is also not particularly limited, and either an amorphous semiconductor or a semiconductor having crystallinity (microcrystalline semiconductor, polycrystalline semiconductor, single crystal semiconductor, or semiconductor having a partially crystalline region). May be used. It is preferable to use a semiconductor having crystallinity because deterioration of transistor characteristics can be suppressed.
  • the semiconductor layer of the transistor preferably has a metal oxide (also referred to as an oxide semiconductor).
  • the semiconductor layer of the transistor may have silicon. Examples of silicon include amorphous silicon and crystalline silicon (low temperature polysilicon, single crystal silicon, etc.).
  • the semiconductor layers include, for example, indium and M (M is gallium, aluminum, silicon, boron, ittrium, tin, copper, vanadium, beryllium, titanium, iron, nickel, germanium, zirconium, molybdenum, lantern, cerium, neodymium, etc. It is preferable to have one or more selected from hafnium, tantalum, tungsten, and magnesium) and zinc.
  • M is preferably one or more selected from aluminum, gallium, yttrium, and tin.
  • an oxide containing indium (In), gallium (Ga), and zinc (Zn) also referred to as IGZO
  • IGZO oxide containing indium (In), gallium (Ga), and zinc (Zn)
  • the sputtering target used for forming the In-M-Zn oxide has an atomic number ratio of In equal to or higher than the atomic number ratio of M.
  • the atomic number ratio of the semiconductor layer to be formed includes a fluctuation of plus or minus 40% of the atomic number ratio of the metal element contained in the sputtering target.
  • the atomic number ratio of In is 4
  • the atomic number ratio of Ga is 1 or more and 3 or less, and Zn.
  • the atomic number ratio of is 2 or more and 4 or less.
  • the atomic number ratio of Ga is larger than 0.1 when the atomic number ratio of In is 5. This includes the case where the number of atoms is 2 or less and the atomic number ratio of Zn is 5 or more and 7 or less.
  • the atomic number ratio of Ga is larger than 0.1 when the atomic number ratio of In is 1. This includes the case where the number of atoms of Zn is 2 or less and the atomic number ratio of Zn is larger than 0.1 and 2 or less.
  • the transistor included in the circuit 164 and the transistor included in the imaging unit 162 may have the same structure or different structures.
  • the structures of the plurality of transistors included in the circuit 164 may all be the same, or there may be two or more types.
  • the structures of the plurality of transistors included in the imaging unit 162 may all be the same, or there may be two or more types.
  • a connecting portion 204 is provided in a region of the substrate 151 where the substrates 152 do not overlap.
  • the wiring 165 is electrically connected to the FPC 172 via the conductive layer 166 and the connection layer 242.
  • a conductive layer 166 obtained by processing the same conductive film as the pixel electrode 191 is exposed on the upper surface of the connecting portion 204.
  • the connection portion 204 and the FPC 172 can be electrically connected via the connection layer 242.
  • optical members can be arranged on the outside of the substrate 152.
  • the optical member include a polarizing plate, a retardation plate, a light diffusing layer (diffusing film, etc.), an antireflection layer, a condensing film, and the like.
  • an antistatic film for suppressing the adhesion of dust a water-repellent film for preventing the adhesion of dirt, a hard coat film for suppressing the occurrence of scratches due to use, a shock absorbing layer and the like are arranged. You may.
  • Glass, quartz, ceramic, sapphire, resin and the like can be used for the substrate 151 and the substrate 152, respectively.
  • the flexibility of the image pickup apparatus can be increased.
  • various curable adhesives such as a photocurable adhesive such as an ultraviolet curable type, a reaction curable type adhesive, a thermosetting type adhesive, and an anaerobic type adhesive can be used.
  • these adhesives include epoxy resin, acrylic resin, silicone resin, phenol resin, polyimide resin, imide resin, PVC (polyvinyl chloride) resin, PVB (polyvinyl butyral) resin, EVA (ethylene vinyl acetate) resin and the like.
  • a material having low moisture permeability such as an epoxy resin is preferable.
  • a two-component mixed type resin may be used.
  • an anisotropic conductive film (ACF: Anisotropic Conductive Film), an anisotropic conductive paste (ACP: Anisotropic Connective Paste), or the like can be used.
  • ACF Anisotropic Conductive Film
  • ACP Anisotropic Connective Paste
  • the light emitting device 190 includes a top emission type, a bottom emission type, a dual emission type, and the like.
  • a conductive film that transmits visible light is used for the electrode on the side that extracts light. Further, it is preferable to use a conductive film that reflects visible light for the electrode on the side that does not take out light.
  • the light emitting device 190 has at least a light emitting layer 193.
  • the light emitting device 190 includes a substance having high hole injecting property, a substance having high hole transporting property, a hole blocking material, a substance having high electron transporting property, a substance having high electron injecting property, or a bipolar. It may further have a layer containing a sex substance (a substance having high electron transport property and hole transport property) and the like.
  • the common layer 112 preferably has one or both of a hole injecting layer and a hole transporting layer.
  • the common layer 114 preferably has one or both of an electron transport layer and an electron injection layer.
  • Either a low molecular weight compound or a high molecular weight compound can be used for the common layer 112, the light emitting layer 193, and the common layer 114, and an inorganic compound may be contained.
  • the layers constituting the common layer 112, the light emitting layer 193, and the common layer 114 can be formed by a method such as a vapor deposition method (including a vacuum vapor deposition method), a transfer method, a printing method, an inkjet method, or a coating method, respectively. ..
  • the light emitting layer 193 may have an inorganic compound such as a quantum dot as a light emitting material.
  • the active layer 113 of the light receiving device 110 includes a semiconductor.
  • the semiconductor include an inorganic semiconductor such as silicon and an organic semiconductor containing an organic compound.
  • an organic semiconductor is used as the semiconductor included in the active layer.
  • the light emitting layer 193 of the light emitting device 190 and the active layer 113 of the light receiving device 110 can be formed by the same method (for example, vacuum vapor deposition method), which is preferable because the manufacturing apparatus can be shared. ..
  • Examples of the n-type semiconductor material contained in the active layer 113 include electron-accepting organic semiconductor materials such as fullerenes (for example, C 60 , C 70, etc.) or derivatives thereof. Further, as a material for the p-type semiconductor contained in the active layer 113, an electron-donating organic semiconductor material such as copper (II) phthalocyanine (CuPc) or tetraphenyldibenzoperiflanthene (DBP) can be used. Can be mentioned.
  • electron-accepting organic semiconductor materials such as fullerenes (for example, C 60 , C 70, etc.) or derivatives thereof.
  • an electron-donating organic semiconductor material such as copper (II) phthalocyanine (CuPc) or tetraphenyldibenzoperiflanthene (DBP) can be used. Can be mentioned.
  • the active layer 113 is preferably formed by co-depositing an n-type semiconductor and a p-type semiconductor.
  • Materials that can be used for conductive layers such as the gate, source, and drain of transistors, as well as various wiring and electrodes that make up the image pickup device, include aluminum, titanium, chromium, nickel, copper, yttrium, zirconium, molybdenum, silver, and tantalum. , And metals such as tungsten, and alloys containing the metal as a main component. A film containing these materials can be used as a single layer or as a laminated structure.
  • a conductive oxide such as indium oxide, indium tin oxide, indium zinc oxide, zinc oxide, zinc oxide containing gallium, or graphene can be used.
  • metal materials such as gold, silver, platinum, magnesium, nickel, tungsten, chromium, molybdenum, iron, cobalt, copper, palladium, and titanium, and alloy materials containing the metal materials can be used.
  • a nitride of the metal material for example, titanium nitride
  • the laminated film of the above material can be used as the conductive layer.
  • a laminated film of an alloy of silver and magnesium and an indium tin oxide because the conductivity can be enhanced.
  • These can also be used for conductive layers such as various wirings and electrodes constituting the image pickup device, and conductive layers (conductive layers that function as pixel electrodes and common electrodes) of the light receiving device.
  • Examples of the insulating material that can be used for each insulating layer include resins such as acrylic resin and epoxy resin, and inorganic insulating materials such as silicon oxide, silicon oxide, silicon nitride, silicon nitride, and aluminum oxide.
  • FIG. 13A A cross-sectional view of the image pickup apparatus 100B is shown in FIG. 13A.
  • the image pickup device 100B is mainly different from the image pickup device 100A in that it has a lens 149 and a protective layer 195.
  • the protective layer 195 that covers the light receiving device 110 and the light emitting device 190, impurities such as water can be suppressed from entering the light receiving device 110 and the light emitting device 190, and the reliability of the light receiving device 110 and the light emitting device 190 can be improved. it can.
  • the insulating layer 215 and the protective layer 195 are in contact with each other through the opening of the insulating layer 214.
  • the inorganic insulating film of the insulating layer 215 and the inorganic insulating film of the protective layer 195 are in contact with each other.
  • FIG. 13B shows an example in which the protective layer 195 has a three-layer structure.
  • the protective layer 195 has an inorganic insulating layer 195a on the common electrode 115, an organic insulating layer 195b on the inorganic insulating layer 195a, and an inorganic insulating layer 195c on the organic insulating layer 195b.
  • the end of the inorganic insulating layer 195a and the end of the inorganic insulating layer 195c extend outward from the end of the organic insulating layer 195b and are in contact with each other. Then, the inorganic insulating layer 195a comes into contact with the insulating layer 215 (inorganic insulating layer) through the opening of the insulating layer 214 (organic insulating layer). As a result, the light receiving device 110 and the light emitting device 190 can be surrounded by the insulating layer 215 and the protective layer 195, so that the reliability of the light receiving device 110 and the light emitting device 190 can be improved.
  • the protective layer 195 may have a laminated structure of an organic insulating film and an inorganic insulating film. At this time, it is preferable that the end portion of the inorganic insulating film extends outward rather than the end portion of the organic insulating film.
  • a lens 149 is provided on the surface of the substrate 152 on the substrate 151 side.
  • the lens 149 has a convex surface on the substrate 151 side. It is preferable that the light receiving region of the light receiving device 110 overlaps the lens 149 and does not overlap the light emitting layer 193. This makes it possible to increase the sensitivity and accuracy of the sensor using the light receiving device 110.
  • the lens 149 preferably has a refractive index of 1.3 or more and 2.5 or less.
  • the lens 149 can be formed using at least one of an inorganic material and an organic material.
  • a resin-containing material can be used for the lens 149.
  • a material containing at least one of an oxide and a sulfide can be used for the lens 149.
  • a resin containing chlorine, bromine, or iodine, a resin containing a heavy metal atom, a resin containing an aromatic ring, a resin containing sulfur, or the like can be used for the lens 149.
  • a material containing a resin and nanoparticles of a material having a higher refractive index than the resin can be used for the lens 149. Titanium oxide, zirconium oxide, etc. can be used for the nanoparticles.
  • Lens 149 such as cerium oxide, hafnium oxide, lanthanum oxide, magnesium oxide, niobium oxide, tantalum oxide, titanium oxide, yttrium oxide, zinc oxide, oxides containing indium and tin, or oxides containing indium, gallium and zinc. Can be used for. Alternatively, zinc sulfide or the like can be used for the lens 149.
  • the protective layer 195 and the substrate 152 are bonded to each other by the adhesive layer 142.
  • the adhesive layer 142 is provided so as to overlap the light receiving device 110 and the light emitting device 190, respectively, and a solid-state sealing structure is applied to the image pickup apparatus 100B.
  • FIG. 14A A cross-sectional view of the image pickup apparatus 100C is shown in FIG. 14A.
  • the transistor structure of the image pickup device 100C is different from that of the image pickup device 100B.
  • the image pickup apparatus 100C has a transistor 208, a transistor 209, and a transistor 210 on the substrate 151.
  • the transistor 208, the transistor 209, and the transistor 210 are a conductive layer 221 that functions as a gate, an insulating layer 211 that functions as a gate insulating layer, a semiconductor layer having a channel forming region 231i and a pair of low resistance regions 231n, and a pair of low resistance regions. Covers the conductive layer 222a connected to one of the 231n, the conductive layer 222b connected to the other of the pair of low resistance regions 231n, the insulating layer 225 functioning as the gate insulating layer, the conductive layer 223 functioning as the gate, and the conductive layer 223. It has an insulating layer 215.
  • the insulating layer 211 is located between the conductive layer 221 and the channel forming region 231i.
  • the insulating layer 225 is located between the conductive layer 223 and the channel forming region 231i.
  • the conductive layer 222a and the conductive layer 222b are connected to the low resistance region 231n via openings provided in the insulating layer 225 and the insulating layer 215, respectively.
  • the conductive layer 222a and the conductive layer 222b one functions as a source and the other functions as a drain.
  • the pixel electrode 191 of the light emitting device 190 is electrically connected to one of the pair of low resistance regions 231n of the transistor 208 via the conductive layer 222b.
  • the pixel electrode 111 of the light receiving device 110 is electrically connected to the other of the pair of low resistance regions 231n of the transistor 209 via the conductive layer 222b.
  • the transistor 208, the transistor 209, and the transistor 210 shown in FIG. 14A show an example in which the insulating layer 225 covers the upper surface and the side surface of the semiconductor layer.
  • the insulating layer 225 overlaps with the channel forming region 231i of the semiconductor layer 231 and does not overlap with the low resistance region 231n.
  • the structure shown in FIG. 14B can be produced by processing the insulating layer 225 using the conductive layer 223 as a mask.
  • the insulating layer 215 is provided so as to cover the insulating layer 225 and the conductive layer 223, and the conductive layer 222a and the conductive layer 222b are connected to the low resistance region 231n, respectively, through the openings of the insulating layer 215. Further, an insulating layer 218 may be provided to cover the transistor.
  • the image pickup device 100C is different from the image pickup device 100B in that it has a colored layer 147.
  • the colored layer 147 is located on the insulating layer 214, and the partition wall 216 is provided so as to cover the upper surface and the side surface of the colored layer 147.
  • the colored layer 147 and the light receiving device 110 are provided so as to be separated from each other.
  • the colored layer 147 and the light emitting device 190 are provided apart from each other.
  • the colored layer 147 is not limited to the arrangement shown in FIG. 14A.
  • the colored layer 147 may cover one or both of the end portion of the pixel electrode 111 and the end portion of the pixel electrode 191.
  • the colored layer 147 is provided separately from the light receiving device 110 and the light emitting device 190, even if the colored layer 147 is a layer having a low resistivity, it affects the light receiving device 110 and the light emitting device 190. Hateful. Therefore, the range of selection of the material used for the colored layer 147 is widened, which is preferable.
  • the area where the colored layer 147 is provided can be increased.
  • the larger the area where the colored layer 147 is provided the more the stray light generated in the image pickup apparatus can be absorbed by the colored layer 147, and the amount of stray light incident on the light receiving device 110 can be reduced, which is preferable. As a result, noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • FIG. 1 A cross-sectional view of the image pickup apparatus 100D is shown in FIG.
  • the image pickup device 100D is different from the image pickup device 100C in that it does not have the colored layer 147 but has the colored layer 148a.
  • the colored layer 148a has a portion in contact with the upper surface of the pixel electrode 111 of the light receiving device 110 and a portion in contact with the side surface of the partition wall 216.
  • the amount of stray light incident on the light receiving device 110 can be reduced. As a result, noise can be reduced and the sensitivity of the sensor using the light receiving device 110 can be increased.
  • the image pickup apparatus 100D differs from the image pickup apparatus 100C in that it does not have the substrate 151 and the substrate 152 and has the substrate 153, the substrate 154, the adhesive layer 155, and the insulating layer 212.
  • the substrate 153 and the insulating layer 212 are bonded to each other by an adhesive layer 155.
  • the substrate 154 and the protective layer 195 are bonded to each other by an adhesive layer 142.
  • the image pickup apparatus 100D has a configuration in which an insulating layer 212, a transistor 208, a transistor 209, a transistor 210, a light receiving device 110, a light emitting device 190, and the like formed on the manufacturing substrate are transposed on the substrate 153. .. It is preferable that the substrate 153 and the substrate 154 have flexibility, respectively. This makes it possible to increase the flexibility of the image pickup apparatus 100D.
  • an inorganic insulating film that can be used for the insulating layer 211, the insulating layer 213, and the insulating layer 215 can be used.
  • the image pickup device 100C shows an example without the lens 149
  • the image pickup device 100D shows an example with the lens 149.
  • the lens 149 can be appropriately provided depending on the application of the sensor and the like.
  • Metal oxides applicable to the semiconductor layer will be described below.
  • a metal oxide having nitrogen may also be collectively referred to as a metal oxide.
  • a metal oxide having nitrogen may be referred to as a metal oxynitride.
  • a metal oxide having nitrogen such as zinc acid nitride (ZnON) may be used for the semiconductor layer.
  • CAAC c-axis aligned critical
  • CAC Cloud-Aligned Composite
  • CAC Cloud-Binded Composite
  • OS Oxide Semiconductor
  • CAC-OS has a conductive function in a part of the material and an insulating function in a part of the material, and has a function as a semiconductor in the whole material.
  • the conductive function is a function of allowing electrons (or holes) to flow as carriers
  • the insulating function is a function of not allowing electrons (or holes) to flow as carriers. is there.
  • CAC-OS has a conductive region and an insulating region.
  • the conductive region has the above-mentioned conductive function
  • the insulating region has the above-mentioned insulating function.
  • the conductive region and the insulating region may be separated at the nanoparticle level. Further, the conductive region and the insulating region may be unevenly distributed in the material. In addition, the conductive region may be observed with the periphery blurred and connected in a cloud shape.
  • the conductive region and the insulating region may be dispersed in the material in a size of 0.5 nm or more and 10 nm or less, preferably 0.5 nm or more and 3 nm or less, respectively.
  • CAC-OS is composed of components having different band gaps.
  • CAC-OS is composed of a component having a wide gap due to an insulating region and a component having a narrow gap due to a conductive region.
  • the carriers when the carriers flow, the carriers mainly flow in the components having a narrow gap.
  • the component having a narrow gap acts complementarily to the component having a wide gap, and the carrier flows to the component having a wide gap in conjunction with the component having a narrow gap. Therefore, when the CAC-OS is used in the channel formation region of the transistor, a high current driving force, that is, a large on-current and a high field effect mobility can be obtained in the on-state of the transistor.
  • CAC-OS can also be referred to as a matrix composite material or a metal matrix composite material.
  • Oxide semiconductors are divided into single crystal oxide semiconductors and other non-single crystal oxide semiconductors.
  • non-single crystal oxide semiconductors include CAAC-OS (c-axis aligned crystalline oxide semiconductor), polycrystalline oxide semiconductor, nc-OS (nanocrystalline oxide semiconductor), and pseudo-amorphous oxide semiconductor (a-like). : Amorphous-like oxide semiconductor), amorphous oxide semiconductors, and the like.
  • CAAC-OS has a c-axis orientation and has a distorted crystal structure in which a plurality of nanocrystals are connected in the ab plane direction.
  • the strain refers to a region where the orientation of the lattice arrangement changes between a region in which the lattice arrangement is aligned and a region in which another lattice arrangement is aligned in the region where a plurality of nanocrystals are connected.
  • Nanocrystals are basically hexagons, but they are not limited to regular hexagons and may be non-regular hexagons. Further, in the strain, it may have a lattice arrangement such as a pentagon and a heptagon. In CAAC-OS, it is difficult to confirm a clear grain boundary (also referred to as grain boundary) even in the vicinity of strain. That is, it can be seen that the formation of grain boundaries is suppressed by the distortion of the lattice arrangement. This is because CAAC-OS can tolerate distortion because the arrangement of oxygen atoms is not dense in the ab plane direction and the bond distance between atoms changes due to the substitution of metal elements. Because.
  • CAAC-OS has a layered crystal structure in which a layer having indium and oxygen (hereinafter, In layer) and a layer having elements M, zinc, and oxygen (hereinafter, (M, Zn) layer) are laminated. It tends to have a layered structure).
  • Indium and the element M can be replaced with each other, and when the element M of the (M, Zn) layer is replaced with indium, it can be expressed as the (In, M, Zn) layer. Further, when the indium of the In layer is replaced with the element M, it can be expressed as the (In, M) layer.
  • CAAC-OS is a highly crystalline metal oxide.
  • CAAC-OS it is difficult to confirm a clear crystal grain boundary, so it can be said that a decrease in electron mobility due to the grain boundary is unlikely to occur.
  • CAAC-OS impurities and defects oxygen deficiency (V O:. Oxygen vacancy also referred) etc.) with less metal It can also be called an oxide. Therefore, the metal oxide having CAAC-OS has stable physical properties. Therefore, the metal oxide having CAAC-OS is resistant to heat and has high reliability.
  • the nc-OS has periodicity in the atomic arrangement in a minute region (for example, a region of 1 nm or more and 10 nm or less, particularly a region of 1 nm or more and 3 nm or less).
  • nc-OS does not show regularity in crystal orientation between different nanocrystals. Therefore, no orientation is observed in the entire film. Therefore, the nc-OS may be indistinguishable from the a-like OS and the amorphous oxide semiconductor depending on the analysis method.
  • Indium-gallium-zinc oxide which is a kind of metal oxide having indium, gallium, and zinc, may have a stable structure by forming the above-mentioned nanocrystals. is there.
  • IGZO tends to have difficulty in crystal growth in the atmosphere, it is preferable to use smaller crystals (for example, the above-mentioned nanocrystals) than large crystals (here, a few mm crystal or a few cm crystal). However, it may be structurally stable.
  • the a-like OS is a metal oxide having a structure between the nc-OS and an amorphous oxide semiconductor.
  • the a-like OS has a void or low density region. That is, the a-like OS has lower crystallinity than the nc-OS and CAAC-OS.
  • Oxide semiconductors have various structures, and each has different characteristics.
  • the oxide semiconductor of one aspect of the present invention may have two or more of amorphous oxide semiconductor, polycrystalline oxide semiconductor, a-like OS, nc-OS, and CAAC-OS.
  • the metal oxide film that functions as a semiconductor layer can be formed by using either one or both of an inert gas and an oxygen gas.
  • the oxygen flow rate ratio (oxygen partial pressure) at the time of forming the metal oxide film is not particularly limited. However, in the case of obtaining a transistor having high field effect mobility, the oxygen flow rate ratio (oxygen partial pressure) at the time of film formation of the metal oxide film is preferably 0% or more and 30% or less, and 5% or more and 30% or less. Is more preferable, and 7% or more and 15% or less is further preferable.
  • the metal oxide preferably has an energy gap of 2 eV or more, more preferably 2.5 eV or more, and further preferably 2.7 eV or more. As described above, by using the metal oxide having a wide energy gap, the off-current of the transistor can be reduced.
  • the substrate temperature at the time of forming the metal oxide film is preferably 350 ° C. or lower, more preferably room temperature or higher and 200 ° C. or lower, and further preferably room temperature or higher and 130 ° C. or lower. It is preferable that the substrate temperature at the time of forming the metal oxide film is room temperature because the productivity can be increased.
  • the metal oxide film can be formed by a sputtering method.
  • a PLD method for example, a PECVD method, a thermal CVD method, an ALD method, a vacuum deposition method, or the like may be used.
  • the imaging device of the present embodiment has a light receiving device and a light emitting device in the imaging unit. As a result, it is possible to reduce the size and weight of the electronic device as compared with the case where the light emitting device is provided outside the image pickup unit.
  • the light receiving device can have at least one layer other than the active layer having the same configuration as the light emitting device (EL element). Further, the light receiving device may have all the layers other than the active layer having the same configuration as the light emitting device (EL element).
  • the light emitting device and the light receiving device can be formed on the same substrate only by adding a step of forming an active layer to the manufacturing process of the light emitting device.
  • the pixel electrode and the common electrode can be formed by the same material and the same process, respectively.
  • the manufacturing process of the image pickup apparatus can be simplified. .. As described above, it is possible to manufacture a highly convenient imaging device by incorporating a light emitting device and a light receiving device without having a complicated process.
  • the imaging device of the present embodiment has a colored layer between the light receiving device and the light emitting device.
  • the colored layer may also serve as a partition wall that electrically insulates the light receiving device and the light emitting device. Since the colored layer can absorb the stray light in the image pickup apparatus, the sensitivity of the sensor using the light receiving device can be increased.
  • the image pickup apparatus of one aspect of the present invention includes a first pixel circuit having a light receiving device and a second pixel circuit having a light emitting device.
  • the first pixel circuit and the second pixel circuit are arranged in a matrix, respectively.
  • FIG. 16A shows an example of a first pixel circuit having a light receiving device
  • FIG. 16B shows an example of a second pixel circuit having a light emitting device.
  • the pixel circuit PIX1 shown in FIG. 16A includes a light receiving device PD, a transistor M1, a transistor M2, a transistor M3, a transistor M4, and a capacitive element C1.
  • a photodiode is used as the light receiving device PD.
  • the cathode is electrically connected to the wiring V1 and the anode is electrically connected to either the source or the drain of the transistor M1.
  • the gate is electrically connected to the wiring TX, and the other of the source or drain is electrically connected to one electrode of the capacitive element C1, one of the source or drain of the transistor M2, and the gate of the transistor M3.
  • the gate is electrically connected to the wiring RES, and the other of the source or drain is electrically connected to the wiring V2.
  • one of the source and the drain is electrically connected to the wiring V3 and the other of the source and the drain is electrically connected to one of the source and the drain of the transistor M4.
  • the gate is electrically connected to the wiring SE, and the other of the source and drain is electrically connected to the wiring OUT1.
  • a constant potential is supplied to the wiring V1, the wiring V2, and the wiring V3, respectively.
  • the transistor M2 is controlled by a signal supplied to the wiring RES, and has a function of resetting the potential of the node connected to the gate of the transistor M3 to the potential supplied to the wiring V2.
  • the transistor M1 is controlled by a signal supplied to the wiring TX, and has a function of controlling the timing at which the potential of the node changes according to the current flowing through the light receiving device PD.
  • the transistor M3 functions as an amplification transistor that outputs an output according to the potential of the node.
  • the transistor M4 is controlled by a signal supplied to the wiring SE, and functions as a selection transistor for reading an output corresponding to the potential of the node by an external circuit connected to the wiring OUT1.
  • the relationship between the cathode and the anode of the light receiving device PD may be reversed from that in FIG. 16A.
  • the pixel circuit PIX2 shown in FIG. 16B includes a light emitting device EL, a transistor M5, a transistor M6, a transistor M7, and a capacitive element C2.
  • a light emitting diode is used as the light emitting device EL.
  • the gate is electrically connected to the wiring VG, one of the source or the drain is electrically connected to the wiring VS, the other of the source or the drain is one electrode of the capacitive element C2, and the gate of the transistor M6. And electrically connect.
  • One of the source or drain of the transistor M6 is electrically connected to the wiring V4, and the other is electrically connected to the anode of the light emitting device EL and one of the source or drain of the transistor M7.
  • the gate is electrically connected to the wiring MS, and the other of the source and drain is electrically connected to the wiring OUT2.
  • the cathode of the light emitting device EL is electrically connected to the wiring V5.
  • a constant potential is supplied to the wiring V4 and the wiring V5, respectively.
  • the anode side of the light emitting device EL can have a high potential, and the cathode side can have a lower potential than the anode side.
  • the transistor M5 is controlled by a signal supplied to the wiring VG, and functions as a selection transistor for controlling the selection state of the pixel circuit PIX2. Further, the transistor M6 functions as a drive transistor that controls the current flowing through the light emitting device EL according to the potential supplied to the gate. When the transistor M5 is in the conductive state, the potential supplied to the wiring VS is supplied to the gate of the transistor M6, and the emission brightness of the light emitting device EL can be controlled according to the potential.
  • the transistor M7 is controlled by a signal supplied to the wiring MS, and has a function of outputting the potential between the transistor M6 and the light emitting device EL to the outside via the wiring OUT2.
  • the wiring V1 to which the cathode of the light receiving device PD is electrically connected and the wiring V5 to which the cathode of the light emitting device EL is electrically connected can have the same layer and the same potential.
  • an image may be captured by causing the light emitting device to emit light in a pulsed manner.
  • an organic EL element is suitable because it has excellent frequency characteristics.
  • the frequency can be, for example, 1 kHz or more and 100 MHz or less.
  • the transistor M1, the transistor M2, the transistor M3, and the transistor M4 included in the pixel circuit PIX1 and the transistor M5, the transistor M6, and the transistor M7 included in the pixel circuit PIX2 are each made of metal in the semiconductor layer on which channels are formed. It is preferable to apply a transistor using an oxide (oxide semiconductor).
  • a transistor using a metal oxide having a wider bandgap and a smaller carrier density than silicon can realize an extremely small off-current. Therefore, the small off-current makes it possible to retain the electric charge accumulated in the capacitive element connected in series with the transistor for a long period of time. Therefore, it is particularly preferable to use a transistor to which an oxide semiconductor is applied for the transistor M1, the transistor M2, and the transistor M5 connected in series with the capacitive element C1 or the capacitive element C2. Further, by using a transistor to which an oxide semiconductor is applied for other transistors as well, the manufacturing cost can be reduced.
  • transistors M1 to M7 a transistor in which silicon is applied to a semiconductor in which a channel is formed can also be used.
  • highly crystalline silicon such as single crystal silicon or polycrystalline silicon because high field effect mobility can be realized and higher speed operation is possible.
  • transistors M1 to M7 a transistor to which an oxide semiconductor is applied to one or more is used, and a transistor to which silicon is applied may be used in addition to the transistor M1 to the transistor M7.
  • the transistor is described as an n-channel type transistor in FIGS. 16A and 16B, a p-channel type transistor can also be used.
  • the transistor included in the pixel circuit PIX1 and the transistor included in the pixel circuit PIX2 are formed side by side on the same substrate.
  • the transistor included in the pixel circuit PIX1 and the transistor included in the pixel circuit PIX2 are mixed in one region and arranged periodically.
  • the electronic device of the present embodiment has an imaging device of one aspect of the present invention.
  • the image pickup apparatus of one aspect of the present invention can be applied to the display unit of an electronic device. Since the image pickup apparatus of one aspect of the present invention has a function of detecting light, biometric authentication can be performed on the display unit, or touch or near touch can be detected. As a result, the functionality and convenience of the electronic device can be enhanced.
  • Electronic devices include, for example, electronic devices with relatively large screens such as television devices, desktop or notebook personal computers, monitors for computers, digital signage, and large game machines such as pachinko machines, as well as digital cameras.
  • the electronic device of the present embodiment is a sensor (force, displacement, position, speed, acceleration, angular velocity, rotation speed, distance, light, liquid, magnetism, temperature, chemical substance, voice, time, hardness, electric field, current, voltage. , Including the ability to measure power, radiation, flow rate, humidity, gradient, vibration, odor or infrared rays).
  • the electronic device of this embodiment can have various functions. For example, a function to display various information (still images, moving images, text images, etc.) on the display unit, a touch panel function, a function to display a calendar, date or time, a function to execute various software (programs), wireless communication. It can have a function, a function of reading a program or data recorded on a recording medium, and the like.
  • the electronic device 6500 shown in FIG. 17A is a portable information terminal that can be used as a smartphone.
  • the electronic device 6500 includes a housing 6501, a display unit 6502, a power button 6503, an operation button 6504, a speaker 6505, a microphone 6506, a camera 6507, a light source 6508, and the like.
  • the display unit 6502 has a touch panel function.
  • An imaging device can be applied to the display unit 6502.
  • FIG. 17B is a schematic cross-sectional view including the end portion of the housing 6501 on the microphone 6506 side.
  • a translucent protective member 6510 is provided on the display surface side of the housing 6501, and the display panel 6511, the optical member 6512, the touch sensor panel 6513, and the printed circuit board are provided in the space surrounded by the housing 6501 and the protective member 6510.
  • a substrate 6517, a battery 6518, and the like are arranged.
  • a display panel 6511, an optical member 6512, and a touch sensor panel 6513 are fixed to the protective member 6510 by an adhesive layer (not shown).
  • a part of the display panel 6511 is folded back in the area outside the display unit 6502, and the FPC 6515 is connected to the folded back part.
  • IC6516 is mounted on FPC6515.
  • the FPC6515 is connected to a terminal provided on the printed circuit board 6517.
  • a flexible display according to one aspect of the present invention can be applied to the display panel 6511. Therefore, an extremely lightweight electronic device can be realized. Further, since the display panel 6511 is extremely thin, it is possible to mount a large-capacity battery 6518 while suppressing the thickness of the electronic device. Further, by folding back a part of the display panel 6511 and arranging the connection portion with the FPC 6515 on the back side of the pixel portion, an electronic device having a narrow frame can be realized.
  • FIG. 18A shows an example of a television device.
  • the display unit 7000 is incorporated in the housing 7101.
  • a configuration in which the housing 7101 is supported by the stand 7103 is shown.
  • An imaging device can be applied to the display unit 7000.
  • the operation of the television device 7100 shown in FIG. 18A can be performed by an operation switch provided in the housing 7101 or a separate remote controller operating device 7111.
  • the display unit 7000 may be provided with a touch sensor, and the television device 7100 may be operated by touching the display unit 7000 with a finger or the like.
  • the remote controller 7111 may have a display unit that displays information output from the remote controller 7111.
  • the channel and volume can be operated by the operation keys or the touch panel provided on the remote controller 7111, and the image displayed on the display unit 7000 can be operated.
  • the television device 7100 is configured to include a receiver, a modem, and the like.
  • the receiver can receive general television broadcasts.
  • information communication is performed in one direction (sender to receiver) or two-way (sender and receiver, or between recipients, etc.). It is also possible.
  • FIG. 18B shows an example of a notebook personal computer.
  • the notebook personal computer 7200 includes a housing 7211, a keyboard 7212, a pointing device 7213, an external connection port 7214, and the like.
  • a display unit 7000 is incorporated in the housing 7211.
  • An imaging device can be applied to the display unit 7000.
  • FIGS. 18C and 18D show an example of digital signage.
  • the digital signage 7300 shown in FIG. 18C has a housing 7301, a display unit 7000, a speaker 7303, and the like. Further, it may have an LED lamp, an operation key (including a power switch or an operation switch), a connection terminal, various sensors, a microphone, and the like.
  • FIG. 18D is a digital signage 7400 attached to a columnar pillar 7401.
  • the digital signage 7400 has a display unit 7000 provided along the curved surface of the pillar 7401.
  • the image pickup apparatus of one aspect of the present invention can be applied to the display unit 7000.
  • the wider the display unit 7000 the more information can be provided at one time. Further, the wider the display unit 7000 is, the easier it is to be noticed by people, and for example, the advertising effect of the advertisement can be enhanced.
  • the touch panel By applying the touch panel to the display unit 7000, not only the image or moving image can be displayed on the display unit 7000, but also the user can operate it intuitively, which is preferable. In addition, when used for the purpose of providing information such as route information or traffic information, usability can be improved by intuitive operation.
  • the digital signage 7300 or the digital signage 7400 can be linked with the information terminal 7311 such as a smartphone or the information terminal 7411 owned by the user by wireless communication.
  • the information of the advertisement displayed on the display unit 7000 can be displayed on the screen of the information terminal 7311 or the information terminal 7411. Further, by operating the information terminal 7311 or the information terminal 7411, the display of the display unit 7000 can be switched.
  • the digital signage 7300 or the digital signage 7400 can execute a game using the screen of the information terminal 7311 or the information terminal 7411 as an operation means (controller). As a result, an unspecified number of users can participate in and enjoy the game at the same time.
  • the electronic devices shown in FIGS. 19A to 19F include a housing 9000, a display unit 9001, a speaker 9003, an operation key 9005 (including a power switch or an operation switch), a connection terminal 9006, and a sensor 9007 (force, displacement, position, speed). , Acceleration, angular velocity, rotation speed, distance, light, liquid, magnetism, temperature, chemical substance, voice, time, hardness, electric field, current, voltage, power, radiation, flow rate, humidity, gradient, vibration, smell or infrared (Including the function of), microphone 9008, and the like.
  • the electronic devices shown in FIGS. 19A to 19F have various functions. For example, a function to display various information (still images, moving images, text images, etc.) on the display unit, a touch panel function, a function to display a calendar, date or time, etc., a function to control processing by various software (programs), It can have a wireless communication function, a function of reading and processing a program or data recorded on a recording medium, and the like.
  • the functions of electronic devices are not limited to these, and can have various functions.
  • the electronic device may have a plurality of display units.
  • the electronic device even if the electronic device is provided with a camera or the like, it has a function of shooting a still image or a moving image and saving it on a recording medium (external or built in the camera), a function of displaying the shot image on a display unit, and the like. Good.
  • FIGS. 19A to 19F The details of the electronic devices shown in FIGS. 19A to 19F will be described below.
  • FIG. 19A is a perspective view showing a mobile information terminal 9101.
  • the mobile information terminal 9101 can be used as, for example, a smartphone.
  • the mobile information terminal 9101 may be provided with a speaker 9003, a connection terminal 9006, a sensor 9007, and the like. Further, the mobile information terminal 9101 can display character and image information on a plurality of surfaces thereof.
  • FIG. 19A shows an example in which three icons 9050 are displayed. Further, the information 9051 indicated by the broken line rectangle can be displayed on another surface of the display unit 9001. Examples of information 9051 include notification of incoming calls such as e-mail, SNS, and telephone, titles such as e-mail and SNS, sender name, date and time, time, remaining battery level, and antenna reception strength. Alternatively, an icon 9050 or the like may be displayed at the position where the information 9051 is displayed.
  • FIG. 19B is a perspective view showing a mobile information terminal 9102.
  • the mobile information terminal 9102 has a function of displaying information on three or more surfaces of the display unit 9001.
  • information 9052, information 9053, and information 9054 are displayed on different surfaces.
  • the user can check the information 9053 displayed at a position that can be observed from above the mobile information terminal 9102 with the mobile information terminal 9102 stored in the chest pocket of the clothes.
  • the user can check the display without taking out the mobile information terminal 9102 from the pocket, and can determine, for example, whether or not to receive a call.
  • FIG. 19C is a perspective view showing a wristwatch-type portable information terminal 9200.
  • the mobile information terminal 9200 can be used as, for example, a smart watch.
  • the display unit 9001 is provided with a curved display surface, and can display along the curved display surface.
  • the mobile information terminal 9200 can also make a hands-free call by communicating with a headset capable of wireless communication, for example.
  • the mobile information terminal 9200 can also perform data transmission and charge with other information terminals by means of the connection terminal 9006.
  • the charging operation may be performed by wireless power supply.
  • FIG. 19D, 19E and 19F are perspective views showing a foldable mobile information terminal 9201. Further, FIG. 19D is a perspective view of the mobile information terminal 9201 in an unfolded state, FIG. 19F is a folded state, and FIG. 19E is a perspective view of a state in which one of FIGS. 19D and 19F is in the process of changing to the other.
  • the mobile information terminal 9201 is excellent in portability in the folded state, and is excellent in display listability due to a wide seamless display area in the unfolded state.
  • the display unit 9001 included in the personal digital assistant terminal 9201 is supported by three housings 9000 connected by a hinge 9055. For example, the display unit 9001 can be bent with a radius of curvature of 0.1 mm or more and 150 mm or less.
  • BM light-shielding layer
  • EL light-emitting device
  • PD light-receiving device
  • 10A image pickup device
  • 10B image pickup device
  • 10C image pickup device
  • 10D image pickup device
  • 10E image pickup device
  • 10F image pickup device
  • 10G image pickup device
  • 10H image pickup device
  • 10J image pickup device
  • 10K image pickup device
  • 10L image pickup device
  • 10M image pickup device
  • 23c light
  • 23d light
  • 60B sub-pixel
  • 60G sub-pixel
  • 60PD Sub-pixel
  • 60R Sub-pixel
  • 60W Sub-pixel
  • 60: Pixel 61: Imaging unit
  • 62 Drive circuit unit
  • 64 Drive circuit unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Inorganic Chemistry (AREA)
  • Sustainable Development (AREA)
  • Color Television Image Signal Generators (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)

Abstract

軽量かつ薄型の撮像装置を提供する。利便性の高い撮像装置を提供する。 撮像部と、メモリと、演算回路とを有する撮像装置とする。撮像部は、受光デバイスと、第1の発光デバイスと、第2の発光デバイスとを有する。第1の発光デバイスは、第2の発光デバイスと異なる波長領域の光を発する機能を有する。撮像部は、第1の発光デバイスを発光させて、第1の画像データを取得する機能を有する。撮像部は、第2の発光デバイスを発光させて、第2の画像データを取得する機能を有する。メモリは、第1の基準データ及び第2の基準データを保持する機能を有する。演算回路は、第1の基準データを用いて第1の画像データを補正し、第1の補正画像データを算出する機能を有する。演算回路は、第2の基準データを用いて第2の画像データを補正し、第2の補正画像データを算出する機能を有する。演算回路は、第1の補正画像データと第2の補正画像データを足し合わせて、合成画像データを生成する機能を有する。受光デバイスは第1の画素電極を有し、第1の発光デバイスは第1の画素電極と同一面上に位置する第2の画素電極を有する。

Description

撮像装置、撮像モジュール、電子機器及び撮像方法
 本発明の一態様は、撮像装置、撮像モジュール、電子機器、及び撮像方法に関する。
 なお、本発明の一態様は、上記の技術分野に限定されない。本発明の一態様の技術分野として、半導体装置、表示装置、発光装置、蓄電装置、記憶装置、電子機器、照明装置、入力装置(例えば、タッチセンサなど)、入出力装置(例えば、タッチパネルなど)、それらの駆動方法、又はそれらの製造方法を一例として挙げることができる。半導体装置は、半導体特性を利用することで機能しうる装置全般を指す。
 基板上に形成された酸化物半導体薄膜を用いてトランジスタを構成する技術が注目されている。例えば、酸化物半導体を有するオフ電流が極めて小さいトランジスタを画素回路に用いる構成の撮像装置が特許文献1に開示されている。
特開2011−119711号公報
 本発明の一態様は、軽量かつ薄型の撮像装置を提供することを課題の一とする。本発明の一態様は、高精細な画像を撮像できる撮像装置を提供することを課題の一とする。本発明の一態様は、高画質な画像を撮像できる撮像装置を提供することを課題の一とする。本発明の一態様は、多機能の撮像装置を提供することを課題の一とする。本発明の一態様は、利便性の高い撮像装置を提供することを課題の一とする。本発明の一態様は、色再現性の高い撮像装置を提供することを課題の一とする。本発明の一態様は、新規な撮像装置を提供することを課題の一とする。本発明の一態様は、色再現性の高い撮像方法を提供することを課題の一とする。本発明の一態様は、新規な撮像方法を提供することを課題の一とする。
 なお、これらの課題の記載は、他の課題の存在を妨げるものではない。本発明の一態様は、必ずしも、これらの課題の全てを解決する必要はないものとする。明細書、図面、請求項の記載から、これら以外の課題を抽出することが可能である。
 本発明の一態様は、撮像部と、メモリと、演算回路と、を有する撮像装置である。撮像部は、受光デバイスと、第1の発光デバイスと、第2の発光デバイスと、を有する。第1の発光デバイスは、第2の発光デバイスと異なる波長領域の光を発する機能を有する。撮像部は、第1の発光デバイスを発光させて、第1の画像データを取得する機能を有する。撮像部は、第2の発光デバイスを発光させて、第2の画像データを取得する機能を有する。メモリは、第1の基準データ及び第2の基準データを保持する機能を有する。演算回路は、第1の基準データを用いて第1の画像データを補正し、第1の補正画像データを算出する機能を有する。演算回路は、第2の基準データを用いて第2の画像データを補正し、第2の補正画像データを算出する機能を有する。また、演算回路は、第1の補正画像データと第2の補正画像データを足し合わせて、合成画像データを生成する機能を有する。受光デバイスは、第1の画素電極を有し、第1の発光デバイスは、第1の画素電極と同一面上に位置する第2の画素電極を有する。
 前述の撮像装置において、受光デバイスは、さらに活性層、及び共通電極を有し、第1の発光デバイスは、さらに発光層、及び共通電極を有する。活性層は、第1の画素電極上に位置し、第1の有機化合物を有する。発光層は、第2の画素電極上に位置し、第2の有機化合物を有する。共通電極は、活性層を介して第1の画素電極と重なる部分と、発光層を介して第2の画素電極と重なる部分と、を有する。
 前述の撮像装置において、撮像部は、さらに、レンズを有することが好ましい。レンズは、受光デバイスと重なる部分を有し、第1の画素電極上に位置する。また、レンズを透過した光が、受光デバイスに入射することが好ましい。
 本発明の一態様は、前述の撮像装置と、コネクタ及び集積回路のいずれか一以上と、を有する撮像モジュールである。
 本発明の一態様は、前述の撮像モジュールと、アンテナ、バッテリ、筐体、カメラ、スピーカ、マイク、及び操作ボタンのいずれか一以上と、を有する電子機器である。
 本発明の一態様は、第1の発光デバイスを発光させ、第1の画像データを取得する工程と、第1の基準データを用いて第1の画像データを補正し、第1の補正画像データを算出する工程と、第2の発光デバイスを発光させ、第2の画像データを取得する工程と、第2の基準データを用いて第2の画像データを補正し、第2の補正画像データを算出する工程と、第1の補正画像データと第2の補正画像データを足し合わせて、合成画像データを生成する工程と、を有する撮像方法である。第1の発光デバイスは、第2の発光デバイスと異なる波長領域の光を発する。
 本発明の一態様により、軽量かつ薄型の撮像装置を提供できる。本発明の一態様により、高精細な画像を撮像できる撮像装置を提供できる。本発明の一態様により、高画質な画像を撮像できる撮像装置を提供できる。本発明の一態様により、多機能の撮像装置を提供できる。本発明の一態様により、利便性の高い撮像装置を提供できる。本発明の一態様により、色再現性の高い撮像装置を提供できる。本発明の一態様により、新規な撮像装置を提供できる。本発明の一態様により、色再現性の高い撮像方法を提供できる。本発明の一態様により、新規な撮像方法を提供できる。
 なお、これらの効果の記載は、他の効果の存在を妨げるものではない。本発明の一態様は、必ずしも、これらの効果の全てを有する必要はない。明細書、図面、請求項の記載から、これら以外の効果を抽出することが可能である。
図1は、撮像装置の一例を示すブロック図である。
図2A乃至図2Cは、画素の一例を示す上面図である。
図3A乃至図3Dは、撮像装置の一例を示す断面図である。
図4は、撮像装置の動作を説明する概念図である。
図5は、撮像装置の動作の一例を示すフローチャートである。
図6A乃至図6Cは、撮像装置の一例を示す断面図である。
図7A乃至図7Cは、撮像装置の一例を示す断面図である。
図8A乃至図8Cは、撮像装置の一例を示す断面図である。
図9A乃至図9Cは、撮像装置の一例を示す断面図である。
図10A乃至図10Cは、撮像装置の一例を示す断面図である。
図11は、撮像装置の一例を示す斜視図である。
図12は、撮像装置の一例を示す断面図である。
図13A、図13Bは、撮像装置の一例を示す断面図である。
図14A乃至図14Cは、撮像装置の一例を示す断面図である。
図15は、撮像装置の一例を示す断面図である。
図16A、図16Bは、画素回路の一例を示す回路図である。
図17A、図17Bは、電子機器の一例を示す図である。
図18A乃至図18Dは、電子機器の一例を示す図である。
図19A乃至図19Fは、電子機器の一例を示す図である。
 実施の形態について、図面を用いて詳細に説明する。但し、本発明は以下の説明に限定されず、本発明の趣旨及びその範囲から逸脱することなくその形態及び詳細を様々に変更し得ることは当業者であれば容易に理解される。従って、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。
 なお、以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、その繰り返しの説明は省略する。また、同様の機能を指す場合には、ハッチパターンを同じくし、特に符号を付さない場合がある。
 図面において示す各構成の、位置、大きさ、範囲などは、理解の簡単のため、実際の位置、大きさ、範囲などを表していない場合がある。このため、開示する発明は、必ずしも、図面に開示された位置、大きさ、範囲などに限定されない。
 なお、「膜」という言葉と、「層」という言葉とは、場合によっては、又は、状況に応じて、互いに入れ替えることが可能である。例えば、「導電層」という用語を、「導電膜」という用語に変更することが可能である。または、例えば、「絶縁膜」という用語を、「絶縁層」という用語に変更することが可能である。
(実施の形態1)
 本発明の一態様は、撮像部と、メモリと、演算回路とを有する撮像装置である。また、撮像部に、発光デバイス(発光素子ともいう)と、受光デバイスと(受光素子ともいう)を有する。具体的には、撮像部に発光デバイス及び受光デバイスがそれぞれマトリクス状に配置され、発光デバイスが光を発し、被写体から反射された光を受光デバイスが受光する。メモリは、基準データを保持する機能を有する。演算回路は、基準データを用いて受光デバイスから出力される画像データを補正し、補正画像データを算出する機能を有する。また、本発明の一態様である撮像装置は、異なる色の発光デバイスを順次発光させて撮像し、各色の光で撮像した画像から得られる画像データをそれぞれ補正して補正画像データを算出し、これらの補正画像データを足し合わせることで、合成画像データを生成する機能を有する。また、本発明の一態様である撮像装置は、合成画像データに基づいて合成画像を撮像部に表示させることができる。
 発光デバイスは、可視光の波長領域の光を発することが好ましい。発光デバイスとして、OLED(Organic Light Emitting Diode)やQLED(Quantum−dot Light Emitting Diode)などのEL素子を用いることが好ましい。EL素子が有する発光物質として、蛍光を発する物質(蛍光材料)、燐光を発する物質(燐光材料)、無機化合物(量子ドット材料など)、熱活性化遅延蛍光を示す物質(熱活性化遅延蛍光(Thermally activated delayed fluorescence:TADF)材料)などが挙げられる。また、発光デバイスとして、マイクロLED(Light Emitting Diode)などのLEDを用いることもできる。
 受光デバイスは、可視光の波長領域に感度を有することが好ましい。特に、可視光の波長領域全体に感度を有する受光デバイスを用いることが好ましい。受光デバイスとして、例えば、pn型またはpin型のフォトダイオードを用いることができる。受光デバイスは、受光デバイスに入射する光を検出し電荷を発生させる光電変換素子として機能する。受光デバイスに入射する光量に基づき、発生する電荷量が決まる。
 特に、受光デバイスとして、有機化合物を含む層を有する有機フォトダイオードを用いることが好ましい。有機フォトダイオードは、薄型化、軽量化、及び大面積化が容易であり、また、形状及びデザインの自由度が高いため、様々な撮像装置に適用できる。
 本発明の一態様では、発光デバイスとして有機EL素子を用い、受光デバイスとして有機フォトダイオードを用いることが好ましい。有機フォトダイオードは、有機EL素子と共通の構成にできる層が多い。そのため、作製工程を大幅に増やすことなく、撮像装置に発光デバイス及び受光デバイスを内蔵することができる。例えば、受光デバイスの活性層と発光デバイスの発光層を作り分け、それ以外の層は、発光デバイスと受光デバイスとで同一の構成にすることができる。したがって、軽量かつ薄型の撮像装置とすることができる。なお、受光デバイスと発光デバイスとが共通で有する層は、発光デバイスにおける機能と受光デバイスにおける機能とが異なる場合がある。本明細書中では、発光デバイスにおける機能に基づいて構成要素を呼称する。例えば、正孔注入層は、発光デバイスにおいて正孔注入層として機能し、受光デバイスにおいて正孔輸送層として機能する。同様に、電子注入層は、発光素子において電子注入層として機能し、受光素子において電子輸送層として機能する。
 発光デバイスとして、例えば、赤色の波長領域の光を発する発光デバイスと、緑色の波長領域の光を発する発光デバイスと、青色の波長領域の光を発する発光デバイスと、を用いることができる。これらの発光デバイスを順次発光させ、それぞれの反射光を受光デバイスで検出することにより、被写体をカラーで撮像することができる。つまり、本発明の一態様である撮像装置は、カラーのイメージスキャナとして用いることができる。また、本発明の一態様である撮像装置は、各色の光で撮像した画像から得られる画像データをそれぞれ補正して補正画像データを算出し、これらの補正画像データを足し合わせることで、合成画像データを生成することができる。つまり、受光デバイスが分光機能を有さなくても、色再現性の高い撮像装置とすることができる。また、色再現性の高い発光デバイスを用いることで、さらに色再現性の高い撮像装置とすることができる。
 なお、本明細書等において、青色の波長領域は、400nm以上490nm未満であり、青色の発光は、該波長領域に少なくとも一つの発光スペクトルピークを有する。また、緑色の波長領域は、490nm以上580nm未満であり、緑色の発光は、該波長領域に少なくとも一つの発光スペクトルピークを有する。また、赤色の波長領域は、580nm以上680nm以下であり、赤色の発光は、該波長領域に少なくとも一つの発光スペクトルピークを有する。
 本発明の一態様である撮像装置は、可視光の波長領域全体に感度を有する受光デバイスを用いることにより、赤色用の受光デバイス、緑色用の受光デバイス、及び青色用の受光デバイスそれぞれを設けなくてもよいため、高精細な画像を撮像できる撮像装置とすることができる。また、本発明の一態様である撮像装置は、発光デバイスを有することから画像を表示する機能も有し、多機能で利便性の高い撮像装置とすることができる。例えば、撮像部で撮像した画像を、撮像部に表示させることで、撮像した画像を即座に確認することが可能となる。
 本発明の一態様である撮像装置は、電子機器の表示部に適用することができる。電子機器として、例えば、テレビジョン装置、パーソナルコンピュータ、コンピュータ用などのモニタ、デジタルサイネージ、携帯電話機、携帯型ゲーム機、携帯情報端末などを用いることができる。本発明の一態様である撮像装置を電子機器の表示部に適用することにより、撮像機能を備える表示部とすることができる。使用者は、電子機器の表示部に撮像を行いたい被写体を置くことにより、撮像を行うことが可能となる。また、使用者は、撮像した画像を即座に表示部に表示させて画像を確認することができ、利便性の高い電子機器とすることができる。また、本発明の一態様である撮像装置は、受光デバイスによって指紋や掌紋などの生体情報を撮像することで、個人認証に応用することができる。また、本発明の一態様である撮像装置は、撮像部に触れる対象物の位置情報を検知することで、タッチセンサに応用することができる。
 本発明の一態様である撮像装置について、図1乃至図15を用いて説明する。
<撮像装置の構成例1>
 本発明の一態様の撮像装置10を説明するブロック図を、図1に示す。撮像装置10は、撮像部61、駆動回路部62、駆動回路部63、駆動回路部64、及び回路部65を有する。
 撮像部61は、マトリクス状に配列された画素60を有する。画素60はそれぞれ、発光デバイス及び受光デバイスを有する。受光デバイスは、全ての画素60に設けられていてもよく、一部の画素60に設けられていてもよい。また、1つの画素60が複数の受光デバイスを有していてもよい。
 駆動回路部62は、ソース線駆動回路(ソースドライバともいう)として機能する。駆動回路部63は、ゲート線駆動回路(ゲートドライバともいう)として機能する。駆動回路部64は、画素60が有する受光デバイスを駆動させるための信号を生成し、当該信号を画素60に出力する機能を有する。回路部65は、画素60から出力される信号を受信し、データとして演算回路71に出力する機能を有する。回路部65は、読み出し回路として機能する。演算回路71は、回路部65から出力される信号を受信し、演算する機能を有する。メモリ73は、演算回路71が実行するプログラム、演算回路71に入力されるデータ、演算回路71から出力されたデータなどを保持する機能を有する。
 演算回路71として、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等を用いることができる。また、これらをFPGA(Field Programmable Gate Array)やFPAA(Field Programmable Analog Array)といったPLD(Programmable Logic Device)によって実現した構成としてもよい。
 メモリ73として、不揮発性の記憶素子が適用された記憶装置を好適に用いることができる。メモリ73として、例えば、フラッシュメモリ、MRAM(Magnetoresistive Random Access Memory)、PRAM(Phase change RAM)、ReRAM(Resistive RAM)、FeRAM(Ferroelectric RAM)などを用いることができる。
 駆動回路部62は、配線82を介して画素60と電気的に接続される。駆動回路部63は、配線83を介して画素60と電気的に接続される。駆動回路部64は、配線84を介して画素60と電気的に接続される。回路部65は、配線85を介して画素60と電気的に接続される。演算回路71は、配線86を介して回路部65と電気的に接続される。メモリ73は、配線87を介して演算回路71と電気的に接続される。
 画素60はそれぞれ、2以上の副画素を有することが好ましい。さらに、画素60は、発光デバイスを有する副画素と、受光デバイスを有する副画素とを有することが好ましい。画素60の一例を、図2Aに示す。図2Aは、画素60が、副画素60R、副画素60G、副画素60B、及び副画素60PDの4つの副画素を有する例を示している。例えば、副画素60Rは赤色の波長領域の光を発する発光デバイス91Rを有し、副画素60Gは緑色の波長領域の光を発する発光デバイス91Gを有し、副画素60Bは青色の波長領域の光を発する発光デバイス91Bを有し、副画素60PDは受光デバイス91PDを有する。
 なお、図2Aに示す画素60は、4つの副画素が2×2のマトリクス状に配置されている例を示しているが、本発明の一態様はこれに限られない。図2Bに示すように、4つの副画素が一列に配置されてもよい。また、各副画素の並び順も、特に限定されない。
 図2A及び図2Bでは、副画素が発する光の色の組み合わせが赤色(R)、緑色(G)、青色(B)の3つである例を示したが、色の組み合わせ及び色の数はこれに限定されない。赤色(R)、緑色(G)、青色(B)、白色(W)の4つの色、または赤色(R)、緑色(G)、青色(B)、黄色(Y)の4つの色としてもよい。図2Cは、画素60が、副画素60R、副画素60G、副画素60B、副画素60W及び副画素60PDの5つの副画素を有し、副画素60Wは白色の光を発する発光デバイス91Wを有する例を示している。なお、副画素に適用される色要素は上記に限定されず、シアン(C)及びマゼンタ(M)などを組み合わせてもよい。また、図2A乃至図2Cでは、各副画素の面積が等しい例を示しているが、本発明の一態様はこれに限られない。各副画素の面積を異ならせてもよい。
 撮像部61の断面模式図を、図3A乃至図3Dに示す。
 図3Aに示す撮像部61は、基板51と、基板59とを有し、基板51と基板59との間に、層53と、層57と、を有する。層57は発光デバイス91Rなどの発光デバイスを有し、層53は受光デバイス91PDを有する。
 図3Bに示す撮像部61は、基板51と、基板59とを有し、基板51と基板59との間に、層53と、層55と、層57と、を有する。層55はトランジスタを有する。
 撮像部61は、例えば、発光デバイス91Rなどの発光デバイスを有する層57から、赤色(R)、緑色(G)、及び青色(B)の光が射出され、受光デバイス91PDを有する層53に、外部から光が入射する構成とすることができる。なお、図3A及び図3Bにおいて、層57から射出される光、及び層53に入射する光を矢印で示している。
 トランジスタを有する層55は、第1のトランジスタ及び第2のトランジスタを有することが好ましい。第1のトランジスタは、層53が有する受光デバイス91PDと電気的に接続される。第2のトランジスタは、層57が有する発光デバイス91Rなどの発光デバイスと電気的に接続される。
 本発明の一態様の撮像装置は、撮像部61に接触している被写体を撮像する機能を有する。例えば、図3Cに示すように、層57が有する発光デバイスが光を発し、当該光を撮像部61に接触した被写体52が反射し、当該反射光を層53が有する受光デバイス91PDが受光する。これにより、撮像部61上の被写体52を撮像することができる。
 本発明の一態様の撮像装置は、図3Dに示すように、撮像部61に接触していない被写体52を撮像することもできる。また、図3Aに示す撮像部61においても同様に、撮像部61に接触していない被写体52を撮像することができる。なお、図3C及び図3Dにおいて、層57から射出し、被写体52で反射され、層53に入射する光を矢印で示している。
 撮像装置の動作について、図1及び図4を用いて説明する。図4は、撮像装置の動作を説明する概念図である。ここでは、図2A及び図2Bに示した赤色の色を発する発光デバイス91R、緑色の色を発する発光デバイス91G、及び青色の色を発する発光デバイス91Bの3色の発光デバイスを用いて撮像を行う例を挙げて、説明する。
 撮像部61で赤色の光を発する発光デバイス91Rを点灯させ、受光デバイス91PDを用いて、第1の画像IMを撮像する。各画素の受光デバイス91PDからの信号(以下、第1の画像データRと記す)が、回路部65を介して演算回路71に出力される。同様に、撮像部61で、緑色の光を発する発光デバイス91Gを点灯させ、受光デバイス91PDを用いて、第2の画像IMを撮像する。各画素の受光デバイス91PDからの信号(以下、第2の画像データGと記す)が、回路部65を介して演算回路71に出力される。同様に、撮像部61で青色の光を発する発光デバイス91Bを点灯させ、受光デバイス91PDを用いて、第3の画像IMを撮像する。各画素の受光デバイス91PDからの信号(以下、第3の画像データBと記す)が、回路部65を介して演算回路71に出力される。
 演算回路71で、第1の画像データR、第2の画像データG、及び第3の画像データBはそれぞれ補正される。演算回路71は、基準データを用いて第1の画像データRを補正し、第1の補正画像データRLSBを算出する。同様に、演算回路71は、基準データを用いて第2の画像データGを補正し、第2の補正画像データGLSBを算出する。演算回路71は、基準データを用いて第3の画像データBを補正し、第3の補正画像データBLSBを算出する。
 ここで、基準データについて説明する。基準データとして、黒色の基準となる基準データ、及び白色の基準となる基準データを予め取得しておく。
 黒色の基準となる被写体を、赤色の光、緑色の光、及び青色の光それぞれで撮像し、黒色の基準データとなる第1の黒色基準データRmin、第2の黒色基準データGmin、及び第3の黒色基準データBminを取得する。第1の黒色基準データRminは、赤色の光での撮像において各画素の受光デバイスから出力される出力値である。第2の黒色基準データGminは、緑色の光での撮像において各画素の受光デバイスから出力される出力値である。第3の黒色基準データBminは、青色の光での撮像において各画素の受光デバイスから出力される出力値である。第1の黒色基準データRmin、第2の黒色基準データGmin、及び第3の黒色基準データBminとして、例えば、電圧値を用いることができる。基準データの取得に用いる黒色の被写体は、反射率が極めて低いことが好ましい。
 同様に、白色の基準となる被写体を、赤色の光、緑色の光、及び青色の光それぞれで撮像し、白色の基準データとなる第1の白色基準データRmax、第2の白色基準データGmax、及び第3の白色基準データBmaxを取得する。第1の白色基準データRmaxは、赤色の光での撮像において各画素の受光デバイスから出力される出力値である。第2の白色基準データGmaxは、緑色の光での撮像において各画素の受光デバイスから出力される出力値である。第3の白色基準データBmaxは、青色の光での撮像において各画素の受光デバイスから出力される出力値である。第1の白色基準データRmax、第2の白色基準データGmax、及び第3の白色基準データBmaxとして、例えば、電圧値を用いることができる。基準データの取得に用いる白色の被写体は、反射率が極めて高いことが好ましい。
 なお、基準データは撮像装置の出荷時に取得し、メモリ73に格納させておけばよい。メモリ73は、フラッシュメモリなどの不揮発性メモリを用いることが好ましい。また、使用者が撮像装置を使用する際に、基準データを書き換えられるようにしてもよい。演算回路71は、メモリ73に格納された基準データを読み出す機能を有する。具体的には、演算回路71は、メモリ73から基準データを読み出し、当該基準データを用いて各色の画像データを補正画像データに補正する機能を有する。また、各色の補正画像データはそれぞれ、メモリ73に出力され、保持されてもよい。
 第1の黒色基準データRmin、第2の黒色基準データGmin、及び第3の黒色基準データBmin、第1の白色基準データRmax、第2の白色基準データGmax、及び第3の白色基準データBmaxはそれぞれ、画素60毎に取得することが好ましい。画素60毎に取得した基準データを用いて補正を行うことにより、発光デバイス及び受光デバイスの特性のばらつきが補正に与える影響を低減させることができる。また、第1の黒色基準データRmin、第2の黒色基準データGmin、及び第3の黒色基準データBmin、第1の白色基準データRmax、第2の白色基準データGmax、及び第3の白色基準データBmaxはそれぞれ、撮像部61全体の平均値を用いてもよい。基準データとして平均値を用いることにより、メモリ73の容量を小さくすることができる。
 なお、本明細書等において、第1の黒色基準データRmin、及び第1の白色基準データRmaxを、第1の基準データ、第2の黒色基準データGmin、及び第2の白色基準データGmaxを、第2の基準データ、第3の黒色基準データBmin、及び第3の白色基準データBmaxを、第3の基準データと記す場合がある。また、第1の黒色基準データRmin、第2の黒色基準データGmin、及び第3の黒色基準データBmin、第1の白色基準データRmax、第2の白色基準データGmax、及び第3の白色基準データBmaxを、基準データと記す場合がある。
 基準データを用いた第1の補正画像データRLSB、第2の補正画像データGLSB、及び第3の補正画像データBLSBの算出について、説明する。
 各受光デバイスから出力された第1の画像データR、第2の画像データG、及び第3の画像データBはそれぞれ、次の式(1)、式(2)、式(3)を用いて第1の補正画像データRLSB、第2の補正画像データGLSB、及び第3の補正画像データBLSBへ変換される。
 RLSB=(R−Rmin)/(Rmax−Rmin)×A  (1)
 GLSB=(G−Gmin)/(Gmax−Gmin)×A  (2)
 BLSB=(B−Bmin)/(Bmax−Bmin)×A  (3)
 ここで、定数Aは、合成画像SyIMが取り得る階調の最大値を示す。合成画像SyIMをnビットとする場合、合成画像SyIMの階調は0以上2−1以下の整数を取り、定数Aは2−1となる。例えば、合成画像SyIMを8ビットとする場合、合成画像SyIMの階調は0以上255以下の整数を取り、定数Aは255となる。なお、受光デバイスから出力された第1の画像データR、第2の画像データG、及び第3の画像データBはアナログ値であるのに対し、第1の補正画像データRLSB、第2の補正画像データGLSB、及び第3の補正画像データBLSBはデジタル値となる。
 演算回路71は、第1の補正画像データRLSB、第2の補正画像データGLSB、及び第3の補正画像データBLSBを足し合わせて合成画像データを生成し、カラーの合成画像SyIMを生成することができる。
 以上のように、白色の基準データ及び黒色の基準データを用いて各色の画像データを補正し、合成画像SyIMを生成することにより、色再現性の高い撮像装置とすることができる。
 なお、ここでは白色の基準となる被写体と、黒色の基準となる被写体をそれぞれ撮像することで取得した基準データを補正に用いる例を示したが、本発明の一態様はこれに限られない。受光デバイスの特性から決定した固有の値を、基準データとして用いてもよい。また、撮像装置内の温度、または使用環境の温度を取得し、温度を変数とする基準データを用いてもよい。温度を変数とする基準データを用いることで、撮像時の温度の影響を小さくすることができ、発光デバイス及び受光デバイスの特性が温度によって変化する場合においても色再現性の高い撮像装置とすることができる。また、発光デバイスの累積駆動時間及び受光デバイスの累積駆動時間を取得し、累積駆動時間を変数とする基準データを用いてもよい。累積使用時間を変数とする基準データを用いることで、発光デバイス及び受光光子の特性がそれぞれの累積駆動時間によって変化する場合においても色再現性の高い撮像装置とすることができる。
<撮像装置の動作例>
 本発明の一態様である撮像装置の動作を、図5を用いて説明する。図5は、撮像装置の動作を説明するフローチャートである。
 ステップS11として、赤色の光を発する発光デバイス91Rを点灯する。ここで、撮像部61が有する全ての発光デバイス91Rを点灯させることが好ましい。
 ステップS12として、受光デバイス91PDを用いて、第1の画像IMを撮像する。発光デバイス91Rを発光させながら撮像するため、赤色の光が被写体で反射し、当該反射光が受光デバイス91PDに入射する。つまり、第1の画像IMは、被写体の赤色に関する情報ということができる。また、各画素の受光デバイス91PDからの信号(以下、第1の画像データRと記す)を、演算回路71に出力する。第1の画像データRは、各画素の受光デバイス91PDに流れる電流値に対応するデータであり、撮像部61から回路部65を介して演算回路71に出力される。第1の画像データRとして、例えば、電圧値を用いることができる。
 ステップS13として、発光デバイス91Rを消灯する。ここで、撮像部61が有する全ての発光デバイス91Rを消灯させることが好ましい。
 ステップS21として、演算回路71で、基準データを用いて第1の画像データRを補正し、第1の補正画像データRLSBを算出する。第1の補正画像データRLSBはメモリ73に出力され、保持される。基準データはメモリ73に保持されており、補正の際に演算回路71に読み出される。ここでは、基準データとして、第1の白色基準データRmax、及び第1の黒色基準データRminを用いることができる。
 ステップS31として、緑色の光を発する発光デバイス91Gを点灯する。ここで、撮像部61が有する全ての発光デバイス91Gを点灯させることが好ましい。
 ステップS32として、受光デバイス91PDを用いて、第2の画像IMを撮像する。発光デバイス91Gを発光させながら撮像するため、緑色の光が被写体で反射し、当該反射光が受光デバイス91PDに入射する。つまり、第2の画像IMは、被写体の緑色に関する情報ということができる。また、各画素の受光デバイス91PDからの信号(以下、第2の画像データGと記す)を、演算回路71に出力する。第2の画像データGは、各画素の受光デバイス91PDに流れる電流値に対応するデータであり、撮像部61から回路部65を介して演算回路71に出力される。第2の画像データGとして、例えば、電圧値を用いることができる。
 ステップS33として、発光デバイス91Gを消灯する。ここで、撮像部61が有する全ての発光デバイス91Gを消灯させることが好ましい。
 ステップS41として、演算回路71で、基準データを用いて第2の画像データGを補正し、第2の補正画像データGLSBを算出する。第2の補正画像データGLSBはメモリ73に出力され、保持される。ここでは、基準データとして、第2の白色基準データGmax、及び第2の黒色基準データGminを用いることができる。
 ステップS51として青色の光を発する発光デバイス91Bを点灯する。ここで、撮像部61が有する全ての発光デバイス91Bを点灯させることが好ましい。
 ステップS52として、受光デバイス91PDを用いて、第3の画像IMを撮像する。発光デバイス91Bを発光させながら撮像するため、青色の光が被写体で反射し、当該反射光が受光デバイス91PDに入射する。つまり、第3の画像IMは、被写体の青色に関する情報ということができる。また、各画素の受光デバイス91PDからの信号(以下、第3の画像データBと記す)を、演算回路71に出力する。第3の画像データBは、各画素の受光デバイス91PDに流れる電流値に対応するデータであり、撮像部61から回路部65を介して演算回路71に出力される。第3の画像データBとして、例えば、電圧値を用いることができる。
 ステップS53として、発光デバイス91Bを消灯する。ここで、撮像部61が有する全ての発光デバイス91Bを消灯させることが好ましい。
 ステップS61として、演算回路71で、基準データを用いて第3の画像データBを補正し、第3の補正画像データBLSBを算出する。第3の補正画像データBLSBはメモリ73に出力され、保持される。ここでは、基準データとして、第3の白色基準データBmax、及び第3の黒色基準データBminを用いることができる。
 ステップS71として、メモリ73から演算回路71に、第1の補正画像データRLSB、第2の補正画像データGLSB、及び第3の補正画像データBLSBを読み出し、これらを足し合わせて合成画像データを生成し、カラーの合成画像SyIMを生成することができる。
 以上のように、白色の基準データ及び黒色の基準データを用いて、各色の画像データを補正することにより、色再現性の高い撮像装置とすることができる。
 なお、図5では、赤色、緑色、青色の順に撮像を行う例を示したが、色の種類、色の数、及び撮像を行う色の順は特に限定されない。
<撮像装置の構成例2>
 本発明の一態様である撮像装置の詳細な構成について、図6乃至図10を用いて説明する。
[撮像装置10A]
 撮像装置10Aの断面図を、図6Aに示す。
 撮像装置10Aは、受光デバイス110及び発光デバイス190を有する。
 受光デバイス110は、画素電極111、共通層112、活性層113、共通層114、及び共通電極115を有する。
 発光デバイス190は、画素電極191、共通層112、発光層193、共通層114、及び共通電極115を有する。
 画素電極111、画素電極191、共通層112、活性層113、発光層193、共通層114、及び共通電極115は、それぞれ、単層構造であってもよく、積層構造であってもよい。
 画素電極111及び画素電極191は、絶縁層214上に位置する。画素電極111と画素電極191は、同一の材料及び同一の工程で形成することができる。
 共通層112は、画素電極111上及び画素電極191上に位置する。共通層112は、受光デバイス110と発光デバイス190に共通で用いられる層である。
 活性層113は、共通層112を介して、画素電極111と重なる。発光層193は、共通層112を介して、画素電極191と重なる。活性層113は、第1の有機化合物を有し、発光層193は、第1の有機化合物と異なる第2の有機化合物を有する。
 共通層114は、共通層112上、活性層113上、及び発光層193上に位置する。共通層114は、受光デバイス110と発光デバイス190に共通で用いられる層である。
 共通電極115は、共通層112、活性層113、及び共通層114を介して、画素電極111と重なる部分を有する。また、共通電極115は、共通層112、発光層193、及び共通層114を介して、画素電極191と重なる部分を有する。共通電極115は、受光デバイス110と発光デバイス190に共通で用いられる層である。
 本実施の形態の撮像装置では、受光デバイス110の活性層113に有機化合物を用いる。受光デバイス110は、活性層113以外の層を、発光デバイス190(EL素子)と共通の構成にすることができる。そのため、発光デバイス190の作製工程に、活性層113を成膜する工程を追加するのみで、発光デバイス190の形成と並行して受光デバイス110を形成することができる。また、発光デバイス190と受光デバイス110とを同一基板上に形成することができる。したがって、作製工程を大幅に増やすことなく、撮像装置に発光デバイス190及び受光デバイス110を内蔵することができる。
 撮像装置10Aでは、受光デバイス110の活性層113と、発光デバイス190の発光層193と、を作り分ける以外は、受光デバイス110と発光デバイス190が共通の構成である例を示す。ただし、受光デバイス110と発光デバイス190の構成はこれに限定されない。受光デバイス110と発光デバイス190は、活性層113と発光層193のほかにも、互いに作り分ける層を有していてもよい(後述の撮像装置10K、10L、10M参照)。受光デバイス110と発光デバイス190は、共通で用いられる層(共通層)を1層以上有することが好ましい。これにより、作製工程を大幅に増やすことなく、撮像装置に発光デバイス190及び受光デバイス110を内蔵することができる。
 撮像装置10Aは、一対の基板(基板151及び基板152)間に、受光デバイス110、発光デバイス190、トランジスタ41、及びトランジスタ42等を有する。
 受光デバイス110において、それぞれ画素電極111及び共通電極115の間に位置する共通層112、活性層113、及び共通層114は、有機層(有機化合物を含む層)ということもできる。画素電極111は可視光を反射する機能を有することが好ましい。画素電極111の端部は隔壁216によって覆われている。共通電極115は可視光を透過する機能を有する。
 受光デバイス110は、光を検知する機能を有する。具体的には、受光デバイス110は、撮像装置10Aの外部から入射される光22を受光し、電気信号に変換する、光電変換素子である。光22は、発光デバイス190の発光を対象物が反射した光ということもできる。また、光22は、後述するレンズを介して受光デバイス110に入射してもよい。本実施の形態では、発光デバイス190と揃えて、画素電極111が陽極として機能し、共通電極115が陰極として機能するものとして説明する。つまり、受光デバイス110は、画素電極111と共通電極115との間に逆バイアスをかけて駆動することで、受光デバイス110に入射する光を検出し電荷を発生させることができる。
 基板152の基板151側の面には、遮光層BMが設けられている。遮光層BMは、受光デバイス110と重なる位置及び発光デバイス190と重なる位置に開口を有する。遮光層BMを設けることで、受光デバイス110が光を検出する範囲を制御することができる。
 遮光層BMとして、発光デバイスからの発光を遮る材料を用いることができる。遮光層BMは、可視光を吸収することが好ましい。遮光層BMとして、例えば、金属材料、又は、顔料(カーボンブラックなど)もしくは染料を含む樹脂材料等を用いてブラックマトリクスを形成することができる。遮光層BMは、赤色のカラーフィルタ、緑色のカラーフィルタ、及び青色のカラーフィルタの積層構造であってもよい。
 ここで、発光デバイス190の発光が対象物によって反射された光を受光デバイス110は検出する。しかし、発光デバイス190の発光が、撮像装置10A内で反射され、対象物を介さずに、受光デバイス110に入射されてしまう場合がある。遮光層BMは、このような迷光の影響を抑制することができる。例えば、遮光層BMが設けられていない場合、発光デバイス190が発した光23aは、基板152で反射され、反射光23bが受光デバイス110に入射することがある。遮光層BMを設けることで、反射光23bが受光デバイス110に入射することを抑制できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
 発光デバイス190において、それぞれ画素電極191及び共通電極115の間に位置する共通層112、発光層193、及び共通層114は、EL層ということもできる。画素電極191は可視光を反射する機能を有することが好ましい。画素電極191の端部は隔壁216によって覆われている。画素電極111と画素電極191とは隔壁216によって互いに電気的に絶縁されている。共通電極115は可視光を透過する機能を有する。
 発光デバイス190は、可視光を発する機能を有する。具体的には、発光デバイス190は、画素電極191と共通電極115との間に電圧を印加することで、基板152側に光を射出する電界発光デバイスである(発光21参照)。
 発光層193は、受光デバイス110の受光領域と重ならないように形成されることが好ましい。これにより、発光層193が光22を吸収することを抑制でき、受光デバイス110に照射される光量を多くすることができる。
 画素電極111は、絶縁層214に設けられた開口を介して、トランジスタ41が有するソースまたはドレインと電気的に接続される。画素電極111の端部は、隔壁216によって覆われている。
 画素電極191は、絶縁層214に設けられた開口を介して、トランジスタ42が有するソースまたはドレインと電気的に接続される。画素電極191の端部は、隔壁216によって覆われている。トランジスタ42は、発光デバイス190の駆動を制御する機能を有する。
 トランジスタ41とトランジスタ42とは、同一の層(図6Aでは基板151)上に接している。
 受光デバイス110と電気的に接続される回路の少なくとも一部は、発光デバイス190と電気的に接続される回路と同一の材料及び同一の工程で形成されることが好ましい。これにより、2つの回路を別々に形成する場合に比べて、撮像装置の厚さを薄くすることができ、また、作製工程を簡略化できる。
 受光デバイス110及び発光デバイス190は、それぞれ、保護層195に覆われていることが好ましい。図6Aでは、保護層195が、共通電極115上に接して設けられている。保護層195を設けることで、受光デバイス110及び発光デバイス190に水などの不純物が入り込むことを抑制し、受光デバイス110及び発光デバイス190の信頼性を高めることができる。また、接着層142によって、保護層195と基板152とが貼り合わされている。
 なお、図7Aに示すように、受光デバイス110上及び発光デバイス190上に保護層を有していなくてもよい。図7Aでは、接着層142によって、共通電極115と基板152とが貼り合わされている。
[撮像装置10B]
 前述の撮像装置10Aと異なる構成を有する撮像装置10Bの断面図を、図6Bに示す。なお、以降の撮像装置の説明において、先に説明した撮像装置と同様の構成については、説明を省略することがある。
 図6Bに示す撮像装置10Bは、撮像装置10Aの構成に加え、レンズ149を有する。
 本実施の形態の撮像装置は、レンズ149を有していてもよい。レンズ149は、受光デバイス110と重なる位置に設けられている。撮像装置10Bでは、レンズ149が基板152に接して設けられている。撮像装置10Bが有するレンズ149は、基板151側に凸面を有している。または、レンズ149は基板152側に凸面を有していてもよい。
 基板152の同一面上に遮光層BMとレンズ149との双方を形成する場合、形成順は問わない。図6Bでは、レンズ149を先に形成する例を示すが、遮光層BMを先に形成してもよい。図6Bでは、レンズ149の端部が遮光層BMによって覆われている。
 撮像装置10Bは、光22がレンズ149を介して受光デバイス110に入射する構成である。レンズ149を有すると、レンズ149を有さない場合に比べて、受光デバイス110の撮像範囲を狭くすることができ、隣接する受光デバイス110と撮像範囲が重なることを抑制できる。これにより、ぼやけの少ない、鮮明な画像を撮像できる。また、受光デバイス110の撮像範囲が同じ場合、レンズ149を有すると、レンズ149を有さない場合に比べて、ピンホールの大きさ(図6Bでは受光デバイス110と重なるBMの開口の大きさに相当する)を大きくすることができる。したがって、レンズ149を有することで、受光デバイス110に入射する光量を増やすことができる。
 図7B及び図7Cに示す撮像装置も、それぞれ、図6Bに示す撮像装置10Bと同様に、光22がレンズ149を介して受光デバイス110に入射する構成である。
 図7Bでは、レンズ149が保護層195の上面に接して設けられている。図7Bに示す撮像装置が有するレンズ149は、基板152側に凸面を有している。
 図7Cに示す撮像装置は、基板152の撮像面側に、レンズアレイ146が設けられている。レンズアレイ146が有するレンズは、受光デバイス110と重なる位置に設けられている。基板152の基板151側の面には、遮光層BMが設けられていることが好ましい。
 本実施の形態の撮像装置に用いるレンズの形成方法は、基板上または受光デバイス上にマイクロレンズなどのレンズを直接形成してもよいし、別途作製されたマイクロレンズアレイなどのレンズアレイを基板に貼り合わせてもよい。
[撮像装置10C]
 撮像装置10Cの断面図を、図6Cに示す。
 図6Cに示す撮像装置10Cは、基板151、基板152、及び隔壁216を有さず、基板153、基板154、接着層155、絶縁層212、及び隔壁217を有する点で、撮像装置10Aと異なる。
 基板153と絶縁層212とは接着層155によって貼り合わされている。基板154と保護層195とは接着層142によって貼り合わされている。
 撮像装置10Cは、作製基板上に形成された絶縁層212、トランジスタ41、トランジスタ42、受光デバイス110、及び発光デバイス190等を、基板153上に転置することで作製される構成である。基板153及び基板154は、それぞれ、可撓性を有することが好ましい。これにより、撮像装置10Cの可撓性を高めることができる。例えば、基板153及び基板154には、それぞれ、樹脂を用いることが好ましい。
 基板153及び基板154として、それぞれ、ポリエチレンテレフタレート(PET)、ポリエチレンナフタレート(PEN)等のポリエステル樹脂、ポリアクリロニトリル樹脂、アクリル樹脂、ポリイミド樹脂、ポリメチルメタクリレート樹脂、ポリカーボネート(PC)樹脂、ポリエーテルスルホン(PES)樹脂、ポリアミド樹脂(ナイロン、アラミド等)、ポリシロキサン樹脂、シクロオレフィン樹脂、ポリスチレン樹脂、ポリアミドイミド樹脂、ポリウレタン樹脂、ポリ塩化ビニル樹脂、ポリ塩化ビニリデン樹脂、ポリプロピレン樹脂、ポリテトラフルオロエチレン(PTFE)樹脂、ABS樹脂、セルロースナノファイバー等を用いることができる。基板153及び基板154の一方または双方に、可撓性を有する程度の厚さのガラスを用いてもよい。
 本実施の形態の撮像装置が有する基板には、光学等方性が高いフィルムを用いてもよい。光学等方性が高いフィルムとして、トリアセチルセルロース(TAC、セルローストリアセテートともいう)フィルム、シクロオレフィンポリマー(COP)フィルム、シクロオレフィンコポリマー(COC)フィルム、及びアクリルフィルム等が挙げられる。
 隔壁217は、発光デバイスが発した光を吸収することが好ましい。隔壁217として、例えば、顔料もしくは染料を含む樹脂材料等を用いてブラックマトリクスを形成することができる。また、茶色レジスト材料を用いることで、着色された絶縁層で隔壁217を構成することができる。
 発光デバイス190が発した光23cは、基板154及び隔壁217で反射され、反射光23dが受光デバイス110に入射することがある。また、光23cが隔壁217を透過し、トランジスタまたは配線等で反射されることで、反射光が受光デバイス110に入射することがある。隔壁217によって光23cが吸収されることで、反射光23dが受光デバイス110に入射することを抑制できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
 隔壁217は、少なくとも、受光デバイス110が検知する光の波長を吸収することが好ましい。例えば、発光デバイス190が発する緑色の光を受光デバイス110が検知する場合、隔壁217は、少なくとも緑色の光を吸収することが好ましい。例えば、隔壁217が、赤色のカラーフィルタを有すると、緑色の光23cを吸収することができ、反射光23dが受光デバイス110に入射することを抑制できる。
[撮像装置10D]
 撮像装置10Dの断面図を、図8Aに示す。
 撮像装置10Dは、撮像装置10Bの構成に加え、有色層148aを有する。
 有色層148aは、受光デバイス110が有する画素電極111の上面に接する部分と、隔壁216の側面に接する部分と、を有する。
 有色層148aは、発光デバイスが発した光を吸収することが好ましい。有色層148aとして、例えば、顔料もしくは染料を含む樹脂材料等を用いてブラックマトリクスを形成することができる。また、茶色レジスト材料を用いることで、着色された絶縁層で有色層148aを構成することができる。
 有色層148aは、少なくとも、受光デバイス110が検知する光の波長を吸収することが好ましい。例えば、発光デバイス190が発する緑色の光を受光デバイス110が検知する場合、有色層148aは、少なくとも緑色の光を吸収することが好ましい。例えば、有色層148aが、赤色のカラーフィルタを有すると、緑色の光を吸収することができ、迷光(反射光)が受光デバイス110に入射することを抑制できる。
 有色層148aが撮像装置10D内で生じた迷光を吸収することで、受光デバイス110に入射される迷光の量を低減できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
 本実施の形態の撮像装置において、有色層は、受光デバイス110と発光デバイス190との間に配置される。これにより、発光デバイス190から受光デバイス110に入射される迷光を抑制することができる。
[撮像装置10E]
 撮像装置10Eの断面図を、図8Bに示す。
 撮像装置10Eは、撮像装置10Dの構成に加え、有色層148bを有する。有色層148bに用いることができる材料は、有色層148aと同様である。
 有色層148bは、発光デバイス190が有する画素電極191の上面に接する部分と、隔壁216の側面に接する部分と、を有する。
 本実施の形態の撮像装置は、有色層148a及び有色層148bのうち一方または双方を有していることが好ましい。
 有色層148a及び有色層148bの双方を有することで、受光デバイス110に入射される迷光の量をさらに低減できる。
 なお、撮像装置10Eでは、有色層148bが画素電極191の上面に接するため、発光デバイス190の発光21のうち、撮像装置10Eの外部に取り出される光の量が、撮像装置10D(図8A)よりも少なくなってしまうことがある。そのため、有色層148a及び有色層148bのうち一方のみを設ける場合には、撮像装置10Dのように、受光デバイス110側の有色層148aのみを設けることが好ましい。これにより、発光デバイス190の光取り出し効率を高くでき、かつ、受光デバイス110への迷光の入射を抑制できる。したがって、高画質な画像を撮像できる撮像装置とすることができる。
[撮像装置10F]
 撮像装置10Fの断面図を、図8Cに示す。
 撮像装置10Fは、撮像装置10Bの構成に加え、有色層148を有する。有色層148に用いることができる材料は、有色層148aと同様である。
 有色層148は、隔壁216の上面及び側面を覆うように設けられている。有色層148は、受光デバイス110が有する画素電極111の上面に接する部分と、発光デバイス190が有する画素電極191の上面に接する部分と、を有する。
 図8Bに示す有色層148a及び有色層148bとは互いに分離していなくてもよく、図8Cに示す有色層148のように一つの膜であってもよい。有色層148が撮像装置10F内で生じた迷光を吸収することで、受光デバイス110に入射される迷光の量を低減できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
[撮像装置10G]
 撮像装置10Gの断面図を、図9Aに示す。
 撮像装置10Gは、撮像装置10Bの構成に加え、有色層147を有する。
 有色層147は、絶縁層214上に位置し、隔壁216が、有色層147の上面及び側面を覆うように設けられている。有色層147と受光デバイス110は、隔壁216によって電気的に絶縁されている。同様に、有色層147と発光デバイス190は、隔壁216によって電気的に絶縁されている。
 有色層147に用いることができる材料は、有色層148aと同様である。前述の有色層148、148a、148bと同様に、有色層147が撮像装置10G内で生じた迷光を吸収することで、受光デバイス110に入射される迷光の量を低減できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
 前述の有色層148、148a、148bは、光を吸収するように構成されるため、材料によっては、隔壁216に比べて抵抗率が低くなることがある。例えば、カーボンブラックなどの顔料が含まれる樹脂は、当該顔料が含まれていない樹脂に比べて抵抗率が低くなる。そのため、材料によっては、有色層148、148a、148bのいずれかを設けることで、隣接する発光デバイスまたは受光デバイスに電流がリークする恐れがある。例えば、隣接する発光デバイスに電流がリークすることで、所望の発光デバイス以外が発光してしまう(クロストークともいう)という問題が生じる。
 一方、有色層147は、受光デバイス110及び発光デバイス190とそれぞれ離間して設けられる。また、有色層147は、受光デバイス110及び発光デバイス190のそれぞれと、隔壁216によって電気的に絶縁されている。したがって、有色層147が抵抗率の低い層であっても、受光デバイス110及び発光デバイス190に影響を与えにくい。そのため、有色層147に用いる材料の選択の幅が広がり好ましい。例えば、有色層147として、金属材料等を用いてブラックマトリクスを形成してもよい。
[撮像装置10H]
 撮像装置10Hの断面図を、図9Bに示す。
 撮像装置10Hは、撮像装置10Bの構成に加え、有色層148cを有する。
 撮像装置10Hでは、隔壁216が、絶縁層214に達する開口を有する。有色層148cは、当該開口を介して絶縁層214と接する部分と、当該開口の内側で隔壁216の側面と接する部分と、隔壁216の上面と接する部分と、を有する。有色層148cと受光デバイス110は、隔壁216によって電気的に絶縁されている。同様に、有色層148cと発光デバイス190は、隔壁216によって電気的に絶縁されている。
 有色層148cに用いることができる材料は、有色層147と同様である。有色層148cが撮像装置10H内で生じた迷光を吸収することで、受光デバイス110に入射される迷光の量を低減できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
 有色層148cは、受光デバイス110及び発光デバイス190とそれぞれ離間して設けられる。また、有色層148cは、受光デバイス110及び発光デバイス190のそれぞれと、隔壁216によって電気的に絶縁されている。したがって、有色層148cが抵抗率の低い層であっても、受光デバイス110及び発光デバイス190に影響を与えにくい。そのため、有色層148cに用いる材料の選択の幅が広がり好ましい。
[撮像装置10J]
 撮像装置10Jの断面図を、図9Cに示す。
 撮像装置10Jは、撮像装置10Dの構成に加え、有色層148cを有する。
 図8A乃至図8C及び図9A乃至図9Cに示すように、本発明の一態様の撮像装置は、有色層148、148a、148b、148c、147の一つまたは複数を有することが好ましい。これにより、撮像装置内で生じた迷光を吸収することができ、受光デバイス110に入射される迷光の量を低減できる。したがって、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
[撮像装置10K、10L、10M]
 図10Aに撮像装置10Kの断面図を示し、図10Bに撮像装置10Lの断面図を示し、図10Cに撮像装置10Mの断面図を示す。
 撮像装置10Kは、共通層114を有さず、バッファ層184及びバッファ層194を有する点で、撮像装置10Aと異なる。バッファ層184及びバッファ層194は、それぞれ、単層構造であってもよく、積層構造であってもよい。
 撮像装置10Kにおいて、受光デバイス110は、画素電極111、共通層112、活性層113、バッファ層184、及び共通電極115を有する。また、撮像装置10Kにおいて、発光デバイス190は、画素電極191、共通層112、発光層193、バッファ層194、及び共通電極115を有する。
 撮像装置10Lは、共通層112を有さず、バッファ層182及びバッファ層192を有する点で、撮像装置10Aと異なる。バッファ層182及びバッファ層192は、それぞれ、単層構造であってもよく、積層構造であってもよい。
 撮像装置10Lにおいて、受光デバイス110は、画素電極111、バッファ層182、活性層113、共通層114、及び共通電極115を有する。また、撮像装置10Lにおいて、発光デバイス190は、画素電極191、バッファ層192、発光層193、共通層114、及び共通電極115を有する。
 撮像装置10Mは、共通層112及び共通層114を有さず、バッファ層182、バッファ層184、バッファ層192、及びバッファ層194を有する点で、撮像装置10Aと異なる。
 撮像装置10Mにおいて、受光デバイス110は、画素電極111、バッファ層182、活性層113、バッファ層184、及び共通電極115を有する。また、撮像装置10Mにおいて、発光デバイス190は、画素電極191、バッファ層192、発光層193、バッファ層194、及び共通電極115を有する。
 受光デバイス110と発光デバイス190の作製において、活性層113と発光層193を作り分けるだけでなく、他の層も作り分けることができる。
 撮像装置10Kでは、共通電極115と活性層113との間のバッファ層184と、共通電極115と発光層193との間のバッファ層194とを作り分ける例を示す。バッファ層184として、例えば、電子輸送層を形成することができる。バッファ層194として、例えば、電子注入層及び電子輸送層の一方または双方を形成することができる。
 撮像装置10Lでは、画素電極111と活性層113との間のバッファ層182と、画素電極191と発光層193との間のバッファ層192とを作り分ける例を示す。バッファ層182として、例えば、正孔輸送層を形成することができる。バッファ層192として、例えば、正孔注入層及び正孔輸送層の一方または双方を形成することができる。
 撮像装置10Mでは、受光デバイス110と発光デバイス190とで、一対の電極(画素電極111または画素電極191と共通電極115)間に、共通の層を有さない例を示す。撮像装置10Mが有する受光デバイス110及び発光デバイス190は、絶縁層214上に画素電極111と画素電極191とを同一の材料及び同一の工程で形成し、画素電極111上にバッファ層182、活性層113、及びバッファ層184を形成し、画素電極191上にバッファ層192、発光層193、及びバッファ層194を形成した後、画素電極111、バッファ層182、活性層113、バッファ層184、画素電極191、バッファ層192、発光層193、及びバッファ層194を覆うように共通電極115を形成することで作製できる。なお、バッファ層182、活性層113、及びバッファ層184の積層構造と、バッファ層192、発光層193、及びバッファ層194の積層構造の形成順は特に限定されない。例えば、バッファ層182、活性層113、及びバッファ層184を形成した後に、バッファ層192、発光層193、及びバッファ層194を形成してもよい。逆に、バッファ層182、活性層113、及びバッファ層184を形成する前に、バッファ層192、発光層193、及びバッファ層194を形成してもよい。また、バッファ層182、バッファ層192、活性層113、発光層193、などの順に交互に形成してもよい。
<撮像装置の構成例3>
 以下では、図11乃至図15を用いて、本発明の一態様の撮像装置のより詳細な構成について説明する。
[撮像装置100A]
 図11に撮像装置100Aの斜視図を示し、図12に撮像装置100Aの断面図を示す。
 撮像装置100Aは、基板152と基板151とが貼り合わされた構成を有する。図11では、基板152を破線で明示している。
 撮像装置100Aは、本発明の一態様である撮像装置と、コネクタ及び集積回路(IC)のいずれか一以上を有する撮像モジュールということもできる。コネクタとして、フレキシブルプリント回路基板(FPC:Flexible printed circuit)、またはTCP(Tape Carrier Package)等を用いることができる。また、集積回路(IC)は、COG(Chip On Glass)方式、またはCOF(Chip On Film)方式等により撮像モジュールに実装することができる。図11では撮像装置100Aに、IC173及びFPC172が実装されている例を示している。また、撮像装置100Aは、撮像部162、回路164、配線165等を有する。
 回路164として、例えば走査線駆動回路を用いることができる。
 配線165は、撮像部162及び回路164に信号及び電力を供給する機能を有する。当該信号及び電力は、FPC172を介して外部から、またはIC173から配線165に入力される。
 図11では、COG方式またはCOF方式等により、基板151にIC173が設けられている例を示す。IC173は、例えば走査線駆動回路または信号線駆動回路などを有するICを適用できる。なお、撮像装置100A及び撮像モジュールは、ICを設けない構成としてもよい。また、ICを、COF方式等により、FPCに実装してもよい。
 図12に、図11で示した撮像装置100Aの、FPC172を含む領域の一部、回路164を含む領域の一部、撮像部162を含む領域の一部、及び、端部を含む領域の一部をそれぞれ切断したときの断面の一例を示す。
 図12に示す撮像装置100Aは、基板151と基板152の間に、トランジスタ201、トランジスタ205、トランジスタ206、発光デバイス190、受光デバイス110等を有する。
 基板152と絶縁層214は接着層142を介して接着されている。発光デバイス190及び受光デバイス110の封止には、固体封止構造または中空封止構造などが適用できる。図12では、基板152、接着層142、及び絶縁層214に囲まれた空間143が、不活性ガス(窒素やアルゴンなど)で充填されており、中空封止構造が適用されている。接着層142は、発光デバイス190と重ねて設けられていてもよい。また、基板152、接着層142、及び絶縁層214に囲まれた空間143を、接着層142と異なる樹脂で充填してもよい。
 発光デバイス190は、絶縁層214側から画素電極191、共通層112、発光層193、共通層114、及び共通電極115の順に積層された積層構造を有する。画素電極191は、絶縁層214に設けられた開口を介して、トランジスタ206が有する導電層222bと電気的に接続されている。トランジスタ206は、発光デバイス190の駆動を制御する機能を有する。画素電極191の端部は、隔壁216によって覆われている。画素電極191は可視光を反射する材料を含み、共通電極115は可視光を透過する材料を含む。
 受光デバイス110は、絶縁層214側から画素電極111、共通層112、活性層113、共通層114、及び共通電極115の順に積層された積層構造を有する。画素電極111は、絶縁層214に設けられた開口を介して、トランジスタ205が有する導電層222bと電気的に接続されている。画素電極111の端部は、隔壁216によって覆われている。画素電極111は可視光を反射する材料を含み、共通電極115は可視光を透過する材料を含む。
 発光デバイス190が発する光は、基板152側に射出される。また、受光デバイス110には、基板152及び空間143を介して、光が入射する。基板152には、可視光に対する透過性が高い材料を用いることが好ましい。
 画素電極111及び画素電極191は同一の材料及び同一の工程で作製することができる。共通層112、共通層114、及び共通電極115は、受光デバイス110と発光デバイス190との双方に用いられる。受光デバイス110と発光デバイス190とは、活性層113と発光層193の構成が異なる以外は全て共通の構成とすることができる。これにより、作製工程を大幅に増やすことなく、撮像装置100Aに受光デバイス110及び受光デバイス110を内蔵することができる。
 基板152の基板151側の面には、遮光層BMが設けられている。遮光層BMは、受光デバイス110と重なる位置及び発光デバイス190と重なる位置に開口を有する。遮光層BMを設けることで、受光デバイス110が光を検出する範囲を制御することができる。また、遮光層BMを有することで、対象物を介さずに、発光デバイス190が発する光が受光デバイス110に直接入射することを抑制できる。したがって、ノイズが少なく感度の高いセンサを実現できる。
 トランジスタ201、トランジスタ205、及びトランジスタ206は、いずれも基板151上に形成されている。これらのトランジスタは、同一の材料及び同一の工程により作製することができる。
 基板151上には、絶縁層211、絶縁層213、絶縁層215、及び絶縁層214がこの順で設けられている。絶縁層211は、その一部が各トランジスタのゲート絶縁層として機能する。絶縁層213は、その一部が各トランジスタのゲート絶縁層として機能する。絶縁層215は、トランジスタを覆って設けられる。絶縁層214は、トランジスタを覆って設けられ、平坦化層としての機能を有する。なお、ゲート絶縁層の数及びトランジスタを覆う絶縁層の数は限定されず、それぞれ単層であっても2層以上であってもよい。
 トランジスタを覆う絶縁層の少なくとも一層に、水や水素などの不純物が拡散しにくい材料を用いることが好ましい。これにより、絶縁層をバリア層として機能させることができる。このような構成とすることで、トランジスタに外部から不純物が拡散することを効果的に抑制でき、撮像装置の信頼性を高めることができる。
 絶縁層211、絶縁層213、及び絶縁層215として、それぞれ、無機絶縁膜を用いることが好ましい。無機絶縁膜として、例えば、窒化シリコン膜、酸化窒化シリコン膜、酸化シリコン膜、窒化酸化シリコン膜、酸化アルミニウム膜、窒化アルミニウム膜などを用いることができる。また、酸化ハフニウム膜、酸化イットリウム膜、酸化ジルコニウム膜、酸化ガリウム膜、酸化タンタル膜、酸化マグネシウム膜、酸化ランタン膜、酸化セリウム膜、及び酸化ネオジム膜等を用いてもよい。また、上述の絶縁膜を2以上積層して用いてもよい。
 ここで、有機絶縁膜は、無機絶縁膜に比べてバリア性が低いことが多い。そのため、有機絶縁膜は、撮像装置100Aの端部近傍に開口を有することが好ましい。これにより、撮像装置100Aの端部から有機絶縁膜を介して不純物が入り込むことを抑制することができる。または、有機絶縁膜の端部が撮像装置100Aの端部よりも内側にくるように有機絶縁膜を形成し、撮像装置100Aの端部に有機絶縁膜が露出しないようにしてもよい。
 平坦化層として機能する絶縁層214には、有機絶縁膜が好適である。有機絶縁膜に用いることができる材料として、アクリル樹脂、ポリイミド樹脂、エポキシ樹脂、ポリアミド樹脂、ポリイミドアミド樹脂、シロキサン樹脂、ベンゾシクロブテン系樹脂、フェノール樹脂、及びこれら樹脂の前駆体等が挙げられる。
 図12に示す領域228では、絶縁層214に開口が形成されている。これにより、絶縁層214に有機絶縁膜を用いる場合であっても、絶縁層214を介して外部から撮像部162に不純物が入り込むことを抑制できる。したがって、撮像装置100Aの信頼性を高めることができる。
 トランジスタ201、トランジスタ205、及びトランジスタ206は、ゲートとして機能する導電層221、ゲート絶縁層として機能する絶縁層211、ソース及びドレインとして機能する導電層222a及び導電層222b、半導体層231、ゲート絶縁層として機能する絶縁層213、並びに、ゲートとして機能する導電層223を有する。ここでは、同一の導電膜を加工して得られる複数の層に、同じハッチングパターンを付している。絶縁層211は、導電層221と半導体層231との間に位置する。絶縁層213は、導電層223と半導体層231との間に位置する。
 本実施の形態の撮像装置が有するトランジスタの構造は特に限定されない。例えば、プレーナ型のトランジスタ、スタガ型のトランジスタ、逆スタガ型のトランジスタ等を用いることができる。また、トップゲート型またはボトムゲート型のいずれのトランジスタ構造としてもよい。または、チャネルが形成される半導体層の上下にゲートが設けられていてもよい。
 トランジスタ201、トランジスタ205、及びトランジスタ206には、チャネルが形成される半導体層を2つのゲートで挟持する構成が適用されている。2つのゲートを接続し、これらに同一の信号を供給することによりトランジスタを駆動してもよい。または、2つのゲートのうち、一方に閾値電圧を制御するための電位を与え、他方に駆動のための電位を与えることで、トランジスタの閾値電圧を制御してもよい。
 トランジスタに用いる半導体材料の結晶性についても特に限定されず、非晶質半導体、結晶性を有する半導体(微結晶半導体、多結晶半導体、単結晶半導体、または一部に結晶領域を有する半導体)のいずれを用いてもよい。結晶性を有する半導体を用いると、トランジスタ特性の劣化を抑制できるため好ましい。
 トランジスタの半導体層は、金属酸化物(酸化物半導体ともいう)を有することが好ましい。または、トランジスタの半導体層は、シリコンを有していてもよい。シリコンとして、アモルファスシリコン、結晶性のシリコン(低温ポリシリコン、単結晶シリコンなど)などが挙げられる。
 半導体層は、例えば、インジウムと、M(Mは、ガリウム、アルミニウム、シリコン、ホウ素、イットリウム、スズ、銅、バナジウム、ベリリウム、チタン、鉄、ニッケル、ゲルマニウム、ジルコニウム、モリブデン、ランタン、セリウム、ネオジム、ハフニウム、タンタル、タングステン、及びマグネシウムから選ばれた一種または複数種)と、亜鉛と、を有することが好ましい。特に、Mは、アルミニウム、ガリウム、イットリウム、及びスズから選ばれた一種または複数種であることが好ましい。
 特に、半導体層として、インジウム(In)、ガリウム(Ga)、及び亜鉛(Zn)を含む酸化物(IGZOとも記す)を用いることが好ましい。
 半導体層がIn−M−Zn酸化物の場合、In−M−Zn酸化物を成膜するために用いるスパッタリングターゲットは、Inの原子数比がMの原子数比以上であることが好ましい。このようなスパッタリングターゲットの金属元素の原子数比として、In:M:Zn=1:1:1、In:M:Zn=1:1:1.2、In:M:Zn=2:1:3、In:M:Zn=3:1:2、In:M:Zn=4:2:3、In:M:Zn=4:2:4.1、In:M:Zn=5:1:6、In:M:Zn=5:1:7、In:M:Zn=5:1:8、In:M:Zn=6:1:6、In:M:Zn=5:2:5等が挙げられる。
 スパッタリングターゲットとして、多結晶の酸化物を含むターゲットを用いると、結晶性を有する半導体層を形成しやすくなるため好ましい。なお、成膜される半導体層の原子数比は、上記のスパッタリングターゲットに含まれる金属元素の原子数比のプラスマイナス40%の変動を含む。例えば、半導体層に用いるスパッタリングターゲットの組成がIn:Ga:Zn=4:2:4.1[原子数比]の場合、成膜される半導体層の組成は、In:Ga:Zn=4:2:3[原子数比]の近傍となる場合がある。
 なお、原子数比がIn:Ga:Zn=4:2:3またはその近傍と記載する場合、Inの原子数比を4としたとき、Gaの原子数比が1以上3以下であり、Znの原子数比が2以上4以下である場合を含む。また、原子数比がIn:Ga:Zn=5:1:6またはその近傍であると記載する場合、Inの原子数比を5としたときに、Gaの原子数比が0.1より大きく2以下であり、Znの原子数比が5以上7以下である場合を含む。また、原子数比がIn:Ga:Zn=1:1:1またはその近傍であると記載する場合、Inの原子数比を1としたときに、Gaの原子数比が0.1より大きく2以下であり、Znの原子数比が0.1より大きく2以下である場合を含む。
 回路164が有するトランジスタと、撮像部162が有するトランジスタは、同じ構造であってもよく、異なる構造であってもよい。回路164が有する複数のトランジスタの構造は、全て同じであってもよく、2種類以上あってもよい。同様に、撮像部162が有する複数のトランジスタの構造は、全て同じであってもよく、2種類以上あってもよい。
 基板151の、基板152が重ならない領域には、接続部204が設けられている。接続部204では、配線165が導電層166及び接続層242を介してFPC172と電気的に接続されている。接続部204の上面は、画素電極191と同一の導電膜を加工して得られた導電層166が露出している。これにより、接続部204とFPC172とを接続層242を介して電気的に接続することができる。
 基板152の外側には各種光学部材を配置することができる。光学部材として、偏光板、位相差板、光拡散層(拡散フィルムなど)、反射防止層、及び集光フィルム等が挙げられる。また、基板152の外側には、ゴミの付着を抑制する帯電防止膜、汚れを付着しにくくする撥水性の膜、使用に伴う傷の発生を抑制するハードコート膜、衝撃吸収層等を配置してもよい。
 基板151及び基板152には、それぞれ、ガラス、石英、セラミック、サファイア、樹脂などを用いることができる。基板151及び基板152に可撓性を有する材料を用いると、撮像装置の可撓性を高めることができる。
 接着層として、紫外線硬化型等の光硬化型接着剤、反応硬化型接着剤、熱硬化型接着剤、嫌気型接着剤などの各種硬化型接着剤を用いることができる。これら接着剤として、エポキシ樹脂、アクリル樹脂、シリコーン樹脂、フェノール樹脂、ポリイミド樹脂、イミド樹脂、PVC(ポリビニルクロライド)樹脂、PVB(ポリビニルブチラル)樹脂、EVA(エチレンビニルアセテート)樹脂等が挙げられる。特に、エポキシ樹脂等の透湿性が低い材料が好ましい。また、二液混合型の樹脂を用いてもよい。また、接着シート等を用いてもよい。
 接続層242として、異方性導電フィルム(ACF:Anisotropic Conductive Film)、異方性導電ペースト(ACP:Anisotropic Conductive Paste)などを用いることができる。
 発光デバイス190は、トップエミッション型、ボトムエミッション型、デュアルエミッション型などがある。光を取り出す側の電極には、可視光を透過する導電膜を用いる。また、光を取り出さない側の電極には、可視光を反射する導電膜を用いることが好ましい。
 発光デバイス190は少なくとも発光層193を有する。発光デバイス190は、発光層193以外の層として、正孔注入性の高い物質、正孔輸送性の高い物質、正孔ブロック材料、電子輸送性の高い物質、電子注入性の高い物質、またはバイポーラ性の物質(電子輸送性及び正孔輸送性が高い物質)等を含む層をさらに有していてもよい。例えば、共通層112は、正孔注入層及び正孔輸送層の一方又は双方を有することが好ましい。例えば、共通層114は、電子輸送層及び電子注入層の一方または双方を有することが好ましい。
 共通層112、発光層193、及び共通層114には低分子系化合物及び高分子系化合物のいずれを用いることもでき、無機化合物を含んでいてもよい。共通層112、発光層193、及び共通層114を構成する層は、それぞれ、蒸着法(真空蒸着法を含む)、転写法、印刷法、インクジェット法、塗布法等の方法で形成することができる。
 発光層193は、発光材料として、量子ドットなどの無機化合物を有していてもよい。
 受光デバイス110の活性層113は、半導体を含む。当該半導体として、シリコンなどの無機半導体、及び、有機化合物を含む有機半導体が挙げられる。本実施の形態では、活性層が有する半導体として、有機半導体を用いる例を示す。有機半導体を用いることで、発光デバイス190の発光層193と、受光デバイス110の活性層113と、を同じ方法(例えば、真空蒸着法)で形成することができ、製造装置を共通化できるため好ましい。
 活性層113が有するn型半導体の材料として、フラーレン(例えばC60、C70等)またはその誘導体等の電子受容性の有機半導体材料が挙げられる。また、活性層113が有するp型半導体の材料として、銅(II)フタロシアニン(Copper(II) phthalocyanine;CuPc)やテトラフェニルジベンゾペリフランテン(Tetraphenyldibenzoperiflanthene;DBP)等の電子供与性の有機半導体材料が挙げられる。
 例えば、活性層113は、n型半導体とp型半導体と共蒸着して形成することが好ましい。
 トランジスタのゲート、ソース及びドレインのほか、撮像装置を構成する各種配線及び電極などの導電層に用いることのできる材料として、アルミニウム、チタン、クロム、ニッケル、銅、イットリウム、ジルコニウム、モリブデン、銀、タンタル、及びタングステンなどの金属、並びに、当該金属を主成分とする合金などが挙げられる。これらの材料を含む膜を単層で、または積層構造として用いることができる。
 透光性を有する導電材料として、酸化インジウム、インジウム錫酸化物、インジウム亜鉛酸化物、酸化亜鉛、ガリウムを含む酸化亜鉛などの導電性酸化物またはグラフェンを用いることができる。または、金、銀、白金、マグネシウム、ニッケル、タングステン、クロム、モリブデン、鉄、コバルト、銅、パラジウム、及びチタンなどの金属材料や、該金属材料を含む合金材料を用いることができる。または、該金属材料の窒化物(例えば、窒化チタン)などを用いてもよい。なお、金属材料、合金材料(またはそれらの窒化物)を用いる場合には、透光性を有する程度に薄くすることが好ましい。また、上記材料の積層膜を導電層として用いることができる。例えば、銀とマグネシウムの合金とインジウムスズ酸化物の積層膜などを用いると、導電性を高めることができるため好ましい。これらは、撮像装置を構成する各種配線及び電極などの導電層や、受光デバイスが有する導電層(画素電極や共通電極として機能する導電層)にも用いることができる。
 各絶縁層に用いることのできる絶縁材料として、例えば、アクリル樹脂、エポキシ樹脂などの樹脂、酸化シリコン、酸化窒化シリコン、窒化酸化シリコン、窒化シリコン、酸化アルミニウムなどの無機絶縁材料が挙げられる。
[撮像装置100B]
 撮像装置100Bの断面図を、図13Aに示す。
 撮像装置100Bは、レンズ149及び保護層195を有する点で、主に撮像装置100Aと異なる。
 受光デバイス110及び発光デバイス190を覆う保護層195を設けることで、受光デバイス110及び発光デバイス190に水などの不純物が入り込むことを抑制し、受光デバイス110及び発光デバイス190の信頼性を高めることができる。
 撮像装置100Bの端部近傍の領域228において、絶縁層214の開口を介して、絶縁層215と保護層195とが互いに接することが好ましい。特に、絶縁層215が有する無機絶縁膜と保護層195が有する無機絶縁膜とが互いに接することが好ましい。これにより、有機絶縁膜を介して外部から撮像部162に不純物が入り込むことを抑制することができる。したがって、撮像装置100Bの信頼性を高めることができる。
 図13Bに、保護層195が3層構造である例を示す。図13Bにおいて、保護層195は、共通電極115上の無機絶縁層195aと、無機絶縁層195a上の有機絶縁層195bと、有機絶縁層195b上の無機絶縁層195cと、を有する。
 無機絶縁層195aの端部と無機絶縁層195cの端部は、有機絶縁層195bの端部よりも外側に延在し、互いに接している。そして、無機絶縁層195aは、絶縁層214(有機絶縁層)の開口を介して、絶縁層215(無機絶縁層)と接する。これにより、絶縁層215と保護層195とで、受光デバイス110及び発光デバイス190を囲うことができるため、受光デバイス110及び発光デバイス190の信頼性を高めることができる。
 このように、保護層195は、有機絶縁膜と無機絶縁膜との積層構造であってもよい。このとき、有機絶縁膜の端部よりも無機絶縁膜の端部を外側に延在させることが好ましい。
 基板152の基板151側の面に、レンズ149が設けられている。レンズ149は、基板151側に凸面を有する。受光デバイス110の受光領域は、レンズ149と重なり、かつ、発光層193と重ならないことが好ましい。これにより、受光デバイス110を用いたセンサの感度及び精度を高めることができる。
 レンズ149は、1.3以上2.5以下の屈折率を有することが好ましい。レンズ149は、無機材料及び有機材料の少なくとも一方を用いて形成することができる。例えば、樹脂を含む材料をレンズ149に用いることができる。また、酸化物及び硫化物の少なくとも一方を含む材料をレンズ149に用いることができる。
 具体的には、塩素、臭素、またはヨウ素を含む樹脂、重金属原子を含む樹脂、芳香環を含む樹脂、硫黄を含む樹脂などをレンズ149に用いることができる。または、樹脂と当該樹脂より屈折率の高い材料のナノ粒子を含む材料をレンズ149に用いることができる。酸化チタンまたは酸化ジルコニウムなどをナノ粒子に用いることができる。
 酸化セリウム、酸化ハフニウム、酸化ランタン、酸化マグネシウム、酸化ニオブ、酸化タンタル、酸化チタン、酸化イットリウム、酸化亜鉛、インジウムとスズを含む酸化物、またはインジウムとガリウムと亜鉛を含む酸化物などを、レンズ149に用いることができる。または、硫化亜鉛などを、レンズ149に用いることができる。
 撮像装置100Bでは、保護層195と基板152とが接着層142によって貼り合わされている。接着層142は、受光デバイス110及び発光デバイス190とそれぞれ重ねて設けられており、撮像装置100Bには、固体封止構造が適用されている。
[撮像装置100C]
 撮像装置100Cの断面図を、図14Aに示す。
 撮像装置100Cは、トランジスタの構造が、撮像装置100Bと異なる。
 撮像装置100Cは、基板151上に、トランジスタ208、トランジスタ209、及びトランジスタ210を有する。
 トランジスタ208、トランジスタ209、及びトランジスタ210は、ゲートとして機能する導電層221、ゲート絶縁層として機能する絶縁層211、チャネル形成領域231i及び一対の低抵抗領域231nを有する半導体層、一対の低抵抗領域231nの一方と接続する導電層222a、一対の低抵抗領域231nの他方と接続する導電層222b、ゲート絶縁層として機能する絶縁層225、ゲートとして機能する導電層223、並びに、導電層223を覆う絶縁層215を有する。絶縁層211は、導電層221とチャネル形成領域231iとの間に位置する。絶縁層225は、導電層223とチャネル形成領域231iとの間に位置する。
 導電層222a及び導電層222bは、それぞれ、絶縁層225及び絶縁層215に設けられた開口を介して低抵抗領域231nと接続される。導電層222a及び導電層222bのうち、一方はソースとして機能し、他方はドレインとして機能する。
 発光デバイス190の画素電極191は、導電層222bを介してトランジスタ208の一対の低抵抗領域231nの一方と電気的に接続される。
 受光デバイス110の画素電極111は、導電層222bを介してトランジスタ209の一対の低抵抗領域231nの他方と電気的に接続される。
 図14Aに示すトランジスタ208、トランジスタ209及びトランジスタ210は、絶縁層225が半導体層の上面及び側面を覆う例を示している。一方、図14Bに示すトランジスタ202は、絶縁層225が、半導体層231のチャネル形成領域231iと重なり、低抵抗領域231nとは重ならない。例えば、導電層223をマスクに絶縁層225を加工することで、図14Bに示す構造を作製できる。図14Bでは、絶縁層225及び導電層223を覆って絶縁層215が設けられ、絶縁層215の開口を介して、導電層222a及び導電層222bがそれぞれ低抵抗領域231nと接続されている。さらに、トランジスタを覆う絶縁層218を設けてもよい。
 撮像装置100Cは、有色層147を有する点で、撮像装置100Bと異なる。
 有色層147は、絶縁層214上に位置し、隔壁216が、有色層147の上面及び側面を覆うように設けられている。
 図14Aでは、有色層147と受光デバイス110とが互いに離間して設けられている。同様に、有色層147と発光デバイス190とは、互いに離間して設けられている。有色層147は図14Aの配置に限られない。図14Cに示すように、有色層147が画素電極111の端部及び画素電極191の端部の一方または双方を覆っていてもよい。
 図14Aにおいて、有色層147は、受光デバイス110及び発光デバイス190とそれぞれ離間して設けられるため、有色層147が抵抗率の低い層であっても、受光デバイス110及び発光デバイス190に影響を与えにくい。したがって、有色層147に用いる材料の選択の幅が広がり好ましい。
 図14Cにおいて、有色層147は、画素電極111の端部及び画素電極191の端部を覆うため、有色層147が設けられる面積を広くすることができる。有色層147が設けられる面積が広いほど、撮像装置内で生じた迷光を有色層147で吸収することができ、受光デバイス110に入射される迷光の量を低減でき、好ましい。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
[撮像装置100D]
 撮像装置100Dの断面図を、図15に示す。
 撮像装置100Dは、有色層147を有さず、有色層148aを有する点で、撮像装置100Cと異なる。
 有色層148aは、受光デバイス110が有する画素電極111の上面に接する部分と、隔壁216の側面に接する部分と、を有する。
 有色層148aが撮像装置100D内で生じた迷光を吸収することで、受光デバイス110に入射される迷光の量を低減できる。これにより、ノイズを低減し、受光デバイス110を用いたセンサの感度を高めることができる。
 撮像装置100Dは、基板151及び基板152を有さず、基板153、基板154、接着層155、及び絶縁層212を有する点で、撮像装置100Cと異なる。
 基板153と絶縁層212とは接着層155によって貼り合わされている。基板154と保護層195とは接着層142によって貼り合わされている。
 撮像装置100Dは、作製基板上で形成された絶縁層212、トランジスタ208、トランジスタ209、トランジスタ210、受光デバイス110、及び発光デバイス190等を、基板153上に転置することで作製される構成である。基板153及び基板154は、それぞれ、可撓性を有することが好ましい。これにより、撮像装置100Dの可撓性を高めることができる。
 絶縁層212には、絶縁層211、絶縁層213、及び絶縁層215に用いることができる無機絶縁膜を用いることができる。
 撮像装置100Cでは、レンズ149を有さない例を示し、撮像装置100Dでは、レンズ149を有する例を示す。レンズ149はセンサの用途等に応じて適宜設けることができる。
<金属酸化物>
 以下では、半導体層に適用可能な金属酸化物について説明する。
 なお、本明細書等において、窒素を有する金属酸化物も金属酸化物(metal oxide)と総称する場合がある。また、窒素を有する金属酸化物を、金属酸窒化物(metal oxynitride)と呼称してもよい。例えば、亜鉛酸窒化物(ZnON)などの窒素を有する金属酸化物を、半導体層に用いてもよい。
 なお、本明細書等において、CAAC(c−axis aligned crystal)、及びCAC(Cloud−Aligned Composite)と記載する場合がある。CAACは結晶構造の一例を表し、CACは機能または材料の構成の一例を表す。
 例えば、半導体層にはCAC(Cloud−Aligned Composite)−OS(Oxide Semiconductor)を用いることができる。
 CAC−OSとは、材料の一部では導電性の機能と、材料の一部では絶縁性の機能とを有し、材料の全体では半導体としての機能を有する。なお、CAC−OSを、トランジスタの半導体層に用いる場合、導電性の機能は、キャリアとなる電子(またはホール)を流す機能であり、絶縁性の機能は、キャリアとなる電子を流さない機能である。導電性の機能と、絶縁性の機能とを、それぞれ相補的に作用させることで、スイッチングさせる機能(On/Offさせる機能)をCAC−OSに付与することができる。CAC−OSにおいて、それぞれの機能を分離させることで、双方の機能を最大限に高めることができる。
 CAC−OSは、導電性領域、及び絶縁性領域を有する。導電性領域は、上述の導電性の機能を有し、絶縁性領域は、上述の絶縁性の機能を有する。また、材料中において、導電性領域と、絶縁性領域とは、ナノ粒子レベルで分離している場合がある。また、導電性領域と、絶縁性領域とは、それぞれ材料中に偏在する場合がある。また、導電性領域は、周辺がぼけてクラウド状に連結して観察される場合がある。
 CAC−OSにおいて、導電性領域と、絶縁性領域とは、それぞれ0.5nm以上10nm以下、好ましくは0.5nm以上3nm以下のサイズで材料中に分散している場合がある。
 CAC−OSは、異なるバンドギャップを有する成分により構成される。例えば、CAC−OSは、絶縁性領域に起因するワイドギャップを有する成分と、導電性領域に起因するナローギャップを有する成分と、により構成される。当該構成の場合、キャリアを流す際に、ナローギャップを有する成分において、主にキャリアが流れる。また、ナローギャップを有する成分が、ワイドギャップを有する成分に相補的に作用し、ナローギャップを有する成分に連動してワイドギャップを有する成分にもキャリアが流れる。このため、上記CAC−OSをトランジスタのチャネル形成領域に用いる場合、トランジスタのオン状態において高い電流駆動力、つまり大きなオン電流、及び高い電界効果移動度を得ることができる。
 すなわち、CAC−OSは、マトリックス複合材(matrix composite)、または金属マトリックス複合材(metal matrix composite)と呼称することもできる。
 酸化物半導体(金属酸化物)は、単結晶酸化物半導体と、それ以外の非単結晶酸化物半導体と、に分けられる。非単結晶酸化物半導体として、例えば、CAAC−OS(c−axis aligned crystalline oxide semiconductor)、多結晶酸化物半導体、nc−OS(nanocrystalline oxide semiconductor)、擬似非晶質酸化物半導体(a−like OS:amorphous−like oxide semiconductor)、及び非晶質酸化物半導体などがある。
 CAAC−OSは、c軸配向性を有し、かつa−b面方向において複数のナノ結晶が連結し、歪みを有した結晶構造となっている。なお、歪みとは、複数のナノ結晶が連結する領域において、格子配列の揃った領域と、別の格子配列の揃った領域と、の間で格子配列の向きが変化している箇所を指す。
 ナノ結晶は、六角形を基本とするが、正六角形状とは限らず、非正六角形状である場合がある。また、歪みにおいて、五角形及び七角形などの格子配列を有する場合がある。なお、CAAC−OSにおいて、歪み近傍においても、明確な結晶粒界(グレインバウンダリーともいう。)を確認することは難しい。すなわち、格子配列の歪みによって、結晶粒界の形成が抑制されていることがわかる。これは、CAAC−OSが、a−b面方向において酸素原子の配列が稠密でないことや、金属元素が置換することで原子間の結合距離が変化することなどによって、歪みを許容することができるためである。
 CAAC−OSは、インジウム、及び酸素を有する層(以下、In層)と、元素M、亜鉛、及び酸素を有する層(以下、(M,Zn)層)とが積層した、層状の結晶構造(層状構造ともいう)を有する傾向がある。なお、インジウムと元素Mは、互いに置換可能であり、(M,Zn)層の元素Mがインジウムと置換した場合、(In,M,Zn)層と表すこともできる。また、In層のインジウムが元素Mと置換した場合、(In,M)層と表すこともできる。
 CAAC−OSは結晶性の高い金属酸化物である。一方、CAAC−OSは、明確な結晶粒界を確認することが難しいため、結晶粒界に起因する電子移動度の低下が起こりにくいといえる。また、金属酸化物の結晶性は不純物の混入や欠陥の生成などによって低下する場合があるため、CAAC−OSは不純物や欠陥(酸素欠損(V:oxygen vacancyともいう。)など)の少ない金属酸化物ともいえる。したがって、CAAC−OSを有する金属酸化物は、物理的性質が安定する。そのため、CAAC−OSを有する金属酸化物は熱に強く、信頼性が高い。
 nc−OSは、微小な領域(例えば、1nm以上10nm以下の領域、特に1nm以上3nm以下の領域)において原子配列に周期性を有する。また、nc−OSは、異なるナノ結晶間で結晶方位に規則性が見られない。そのため、膜全体で配向性が見られない。したがって、nc−OSは、分析方法によっては、a−like OSや非晶質酸化物半導体と区別が付かない場合がある。
 なお、インジウムと、ガリウムと、亜鉛と、を有する金属酸化物の一種である、インジウム−ガリウム−亜鉛酸化物(以下、IGZO)は、上述のナノ結晶とすることで安定な構造をとる場合がある。特に、IGZOは、大気中では結晶成長がし難い傾向があるため、大きな結晶(ここでは、数mmの結晶、または数cmの結晶)よりも小さな結晶(例えば、上述のナノ結晶)とする方が、構造的に安定となる場合がある。
 a−like OSは、nc−OSと非晶質酸化物半導体との間の構造を有する金属酸化物である。a−like OSは、鬆または低密度領域を有する。すなわち、a−like OSは、nc−OS及びCAAC−OSと比べて、結晶性が低い。
 酸化物半導体(金属酸化物)は、多様な構造をとり、それぞれが異なる特性を有する。本発明の一態様の酸化物半導体は、非晶質酸化物半導体、多結晶酸化物半導体、a−like OS、nc−OS、CAAC−OSのうち、二種以上を有していてもよい。
 半導体層として機能する金属酸化物膜は、不活性ガス及び酸素ガスのいずれか一方または双方を用いて成膜することができる。なお、金属酸化物膜の成膜時における酸素の流量比(酸素分圧)に、特に限定はない。ただし、電界効果移動度が高いトランジスタを得る場合においては、金属酸化物膜の成膜時における酸素の流量比(酸素分圧)は、0%以上30%以下が好ましく、5%以上30%以下がより好ましく、7%以上15%以下がさらに好ましい。
 金属酸化物は、エネルギーギャップが2eV以上であることが好ましく、さらには2.5eV以上であることがより好ましく、さらには2.7eV以上であることが好ましい。このように、エネルギーギャップの広い金属酸化物を用いることで、トランジスタのオフ電流を低減することができる。
 金属酸化物膜の成膜時の基板温度は、350℃以下が好ましく、室温以上200℃以下がより好ましく、室温以上130℃以下がさらに好ましい。金属酸化物膜の成膜時の基板温度が室温であると、生産性を高めることができ、好ましい。
 金属酸化物膜は、スパッタリング法により形成することができる。そのほか、例えばPLD法、PECVD法、熱CVD法、ALD法、真空蒸着法などを用いてもよい。
 以上のように、本実施の形態の撮像装置は、撮像部に受光デバイスと発光デバイスとを有する。これにより、撮像部の外部に発光デバイスを設ける場合に比べて、電子機器の小型化及び軽量化を図ることができる。
 受光デバイスは、活性層以外の少なくとも一層を、発光デバイス(EL素子)と共通の構成にすることができる。さらには、受光デバイスは、活性層以外の全ての層を、発光デバイス(EL素子)と共通の構成にすることもできる。例えば、発光デバイスの作製工程に、活性層を成膜する工程を追加するのみで、発光デバイスと受光デバイスとを同一基板上に形成することができる。また、受光デバイスと発光デバイスは、画素電極と共通電極とを、それぞれ、同一の材料及び同一の工程で形成することができる。また、受光デバイスと電気的に接続される回路と、発光デバイスと電気的に接続される回路と、を、同一の材料及び同一の工程で作製することで、撮像装置の作製工程を簡略化できる。このように、複雑な工程を有さなくとも、発光デバイス及び受光デバイスを内蔵し、利便性の高い撮像装置を作製することができる。
 本実施の形態の撮像装置は、受光デバイスと発光デバイスとの間に、有色層を有する。当該有色層は、受光デバイスと発光デバイスとを電気的に絶縁する隔壁が兼ねていてもよい。有色層は、撮像装置内の迷光を吸収することができるため、受光デバイスを用いたセンサの感度を高めることができる。
 本実施の形態は、他の実施の形態と適宜組み合わせることができる。また、本明細書において、1つの実施の形態の中に、複数の構成例が示される場合は、構成例を適宜組み合わせることが可能である。
(実施の形態2)
 本実施の形態では、本発明の一態様の撮像装置について、図16を用いて説明する。
 本発明の一態様の撮像装置は、受光デバイスを有する第1の画素回路と、発光デバイスを有する第2の画素回路と、を有する。第1の画素回路と第2の画素回路は、それぞれ、マトリクス状に配置される。
 図16Aに、受光デバイスを有する第1の画素回路の一例を示し、図16Bに、発光デバイスを有する第2の画素回路の一例を示す。
 図16Aに示す画素回路PIX1は、受光デバイスPD、トランジスタM1、トランジスタM2、トランジスタM3、トランジスタM4、及び容量素子C1を有する。ここでは、受光デバイスPDとして、フォトダイオードを用いた例を示している。
 受光デバイスPDは、カソードが配線V1と電気的に接続し、アノードがトランジスタM1のソースまたはドレインの一方と電気的に接続する。トランジスタM1は、ゲートが配線TXと電気的に接続し、ソースまたはドレインの他方が容量素子C1の一方の電極、トランジスタM2のソースまたはドレインの一方、及びトランジスタM3のゲートと電気的に接続する。トランジスタM2は、ゲートが配線RESと電気的に接続し、ソースまたはドレインの他方が配線V2と電気的に接続する。トランジスタM3は、ソースまたはドレインの一方が配線V3と電気的に接続し、ソースまたはドレインの他方がトランジスタM4のソースまたはドレインの一方と電気的に接続する。トランジスタM4は、ゲートが配線SEと電気的に接続し、ソースまたはドレインの他方が配線OUT1と電気的に接続する。
 配線V1、配線V2、及び配線V3には、それぞれ定電位が供給される。受光デバイスPDを逆バイアスで駆動させる場合には、配線V2に、配線V1の電位よりも低い電位を供給する。トランジスタM2は、配線RESに供給される信号により制御され、トランジスタM3のゲートに接続するノードの電位を、配線V2に供給される電位にリセットする機能を有する。トランジスタM1は、配線TXに供給される信号により制御され、受光デバイスPDに流れる電流に応じて上記ノードの電位が変化するタイミングを制御する機能を有する。トランジスタM3は、上記ノードの電位に応じた出力を行う増幅トランジスタとして機能する。トランジスタM4は、配線SEに供給される信号により制御され、上記ノードの電位に応じた出力を配線OUT1に接続する外部回路で読み出すための選択トランジスタとして機能する。なお、受光デバイスPDのカソードとアノードの接続の関係を図16Aと逆にしてよい。
 図16Bに示す画素回路PIX2は、発光デバイスEL、トランジスタM5、トランジスタM6、トランジスタM7、及び容量素子C2を有する。ここでは、発光デバイスELとして、発光ダイオードを用いた例を示している。特に、発光デバイスELとして、有機EL素子を用いることが好ましい。
 トランジスタM5は、ゲートが配線VGと電気的に接続し、ソースまたはドレインの一方が配線VSと電気的に接続し、ソースまたはドレインの他方が、容量素子C2の一方の電極、及びトランジスタM6のゲートと電気的に接続する。トランジスタM6のソースまたはドレインの一方は配線V4と電気的に接続し、他方は、発光デバイスELのアノード、及びトランジスタM7のソースまたはドレインの一方と電気的に接続する。トランジスタM7は、ゲートが配線MSと電気的に接続し、ソースまたはドレインの他方が配線OUT2と電気的に接続する。発光デバイスELのカソードは、配線V5と電気的に接続する。
 配線V4及び配線V5には、それぞれ定電位が供給される。発光デバイスELのアノード側を高電位に、カソード側をアノード側よりも低電位にすることができる。トランジスタM5は、配線VGに供給される信号により制御され、画素回路PIX2の選択状態を制御するための選択トランジスタとして機能する。また、トランジスタM6は、ゲートに供給される電位に応じて発光デバイスELに流れる電流を制御する駆動トランジスタとして機能する。トランジスタM5が導通状態のとき、配線VSに供給される電位がトランジスタM6のゲートに供給され、その電位に応じて発光デバイスELの発光輝度を制御することができる。トランジスタM7は配線MSに供給される信号により制御され、トランジスタM6と発光デバイスELとの間の電位を、配線OUT2を介して外部に出力する機能を有する。
 受光デバイスPDのカソードが電気的に接続される配線V1と、発光デバイスELのカソードが電気的に接続される配線V5は、同一の層、同一の電位とすることができる。
 なお、本実施の形態の撮像装置では、発光デバイスをパルス状に発光させることで、画像を撮像してもよい。発光デバイスの駆動時間を短縮することで、撮像装置の消費電力の低減、及び、発熱の抑制を図ることができる。特に、有機EL素子は周波数特性が優れているため、好適である。周波数は、例えば、1kHz以上100MHz以下とすることができる。
 ここで、画素回路PIX1が有するトランジスタM1、トランジスタM2、トランジスタM3、及びトランジスタM4、並びに、画素回路PIX2が有するトランジスタM5、トランジスタM6、及びトランジスタM7には、それぞれチャネルが形成される半導体層に金属酸化物(酸化物半導体)を用いたトランジスタを適用することが好ましい。
 シリコンよりもバンドギャップが広く、かつキャリア密度の小さい金属酸化物を用いたトランジスタは、極めて小さいオフ電流を実現することができる。そのため、その小さいオフ電流により、トランジスタと直列に接続された容量素子に蓄積した電荷を長期間に亘って保持することが可能である。そのため、特に容量素子C1または容量素子C2に直列に接続されるトランジスタM1、トランジスタM2、及びトランジスタM5には、酸化物半導体が適用されたトランジスタを用いることが好ましい。また、これ以外のトランジスタも同様に酸化物半導体を適用したトランジスタを用いることで、作製コストを低減することができる。
 トランジスタM1乃至トランジスタM7に、チャネルが形成される半導体にシリコンを適用したトランジスタを用いることもできる。特に単結晶シリコンや多結晶シリコンなどの結晶性の高いシリコンを用いることで、高い電界効果移動度を実現することができ、より高速な動作が可能となるため好ましい。
 トランジスタM1乃至トランジスタM7のうち、一以上に酸化物半導体を適用したトランジスタを用い、それ以外にシリコンを適用したトランジスタを用いる構成としてもよい。
 なお、図16A及び図16Bにおいて、トランジスタをnチャネル型のトランジスタとして表記しているが、pチャネル型のトランジスタを用いることもできる。
 画素回路PIX1が有するトランジスタと画素回路PIX2が有するトランジスタは、同一基板上に並べて形成されることが好ましい。特に、画素回路PIX1が有するトランジスタと画素回路PIX2が有するトランジスタとを1つの領域内に混在させて周期的に配列する構成とすることが好ましい。
 受光デバイスPDまたは発光デバイスELと重なる位置に、トランジスタ及び容量素子の一方又は双方を有する層を1つまたは複数設けることが好ましい。これにより、各画素回路の実効的な占有面積を小さくでき、高精細な撮像部を実現できる。
 本実施の形態は、他の実施の形態と適宜組み合わせることができる。
(実施の形態3)
 本実施の形態では、本発明の一態様の電子機器について、図17乃至図19を用いて説明する。
 本実施の形態の電子機器は、本発明の一態様の撮像装置を有する。例えば、電子機器の表示部に、本発明の一態様の撮像装置を適用することができる。本発明の一態様の撮像装置は、光を検出する機能を有するため、表示部で生体認証を行うこと、または、タッチもしくはニアタッチを検出することができる。これにより、電子機器の機能性や利便性などを高めることができる。
 電子機器として、例えば、テレビジョン装置、デスクトップ型もしくはノート型のパーソナルコンピュータ、コンピュータ用などのモニタ、デジタルサイネージ、パチンコ機などの大型ゲーム機などの比較的大きな画面を備える電子機器の他、デジタルカメラ、デジタルビデオカメラ、デジタルフォトフレーム、携帯電話機、携帯型ゲーム機、携帯情報端末、音響再生装置、などが挙げられる。
 本実施の形態の電子機器は、センサ(力、変位、位置、速度、加速度、角速度、回転数、距離、光、液、磁気、温度、化学物質、音声、時間、硬度、電場、電流、電圧、電力、放射線、流量、湿度、傾度、振動、においまたは赤外線を測定する機能を含むもの)を有していてもよい。
 本実施の形態の電子機器は、様々な機能を有することができる。例えば、様々な情報(静止画、動画、テキスト画像など)を表示部に表示する機能、タッチパネル機能、カレンダー、日付または時刻などを表示する機能、様々なソフトウェア(プログラム)を実行する機能、無線通信機能、記録媒体に記録されているプログラムまたはデータを読み出す機能等を有することができる。
 図17Aに示す電子機器6500は、スマートフォンとして用いることのできる携帯情報端末機である。
 電子機器6500は、筐体6501、表示部6502、電源ボタン6503、操作ボタン6504、スピーカ6505、マイク6506、カメラ6507、及び光源6508等を有する。表示部6502はタッチパネル機能を備える。
 表示部6502に、本発明の一態様の撮像装置を適用することができる。
 図17Bは、筐体6501のマイク6506側の端部を含む断面概略図である。
 筐体6501の表示面側には透光性を有する保護部材6510が設けられ、筐体6501と保護部材6510に囲まれた空間内に、表示パネル6511、光学部材6512、タッチセンサパネル6513、プリント基板6517、バッテリ6518等が配置されている。
 保護部材6510には、表示パネル6511、光学部材6512、及びタッチセンサパネル6513が接着層(図示しない)により固定されている。
 表示部6502よりも外側の領域において、表示パネル6511の一部が折り返されており、当該折り返された部分にFPC6515が接続されている。FPC6515には、IC6516が実装されている。FPC6515は、プリント基板6517に設けられた端子に接続されている。
 表示パネル6511には本発明の一態様のフレキシブルディスプレイを適用することができる。そのため、極めて軽量な電子機器を実現できる。また、表示パネル6511が極めて薄いため、電子機器の厚さを抑えつつ、大容量のバッテリ6518を搭載することもできる。また、表示パネル6511の一部を折り返して、画素部の裏側にFPC6515との接続部を配置することにより、狭額縁の電子機器を実現できる。
 図18Aにテレビジョン装置の一例を示す。テレビジョン装置7100は、筐体7101に表示部7000が組み込まれている。ここでは、スタンド7103により筐体7101を支持した構成を示している。
 表示部7000に、本発明の一態様の撮像装置を適用することができる。
 図18Aに示すテレビジョン装置7100の操作は、筐体7101が備える操作スイッチや、別体のリモコン操作機7111により行うことができる。または、表示部7000にタッチセンサを備えていてもよく、指等で表示部7000に触れることでテレビジョン装置7100を操作してもよい。リモコン操作機7111は、当該リモコン操作機7111から出力する情報を表示する表示部を有していてもよい。リモコン操作機7111が備える操作キーまたはタッチパネルにより、チャンネル及び音量の操作を行うことができ、表示部7000に表示される映像を操作することができる。
 なお、テレビジョン装置7100は、受信機及びモデムなどを備えた構成とする。受信機により一般のテレビ放送の受信を行うことができる。また、モデムを介して有線または無線による通信ネットワークに接続することにより、一方向(送信者から受信者)または双方向(送信者と受信者間、あるいは受信者間同士など)の情報通信を行うことも可能である。
 図18Bに、ノート型パーソナルコンピュータの一例を示す。ノート型パーソナルコンピュータ7200は、筐体7211、キーボード7212、ポインティングデバイス7213、外部接続ポート7214等を有する。筐体7211に、表示部7000が組み込まれている。
 表示部7000に、本発明の一態様の撮像装置を適用することができる。
 図18C及び図18Dに、デジタルサイネージの一例を示す。
 図18Cに示すデジタルサイネージ7300は、筐体7301、表示部7000、及びスピーカ7303等を有する。さらに、LEDランプ、操作キー(電源スイッチ、または操作スイッチを含む)、接続端子、各種センサ、マイクロフォン等を有することができる。
 図18Dは円柱状の柱7401に取り付けられたデジタルサイネージ7400である。デジタルサイネージ7400は、柱7401の曲面に沿って設けられた表示部7000を有する。
 図18C及び図18Dにおいて、表示部7000に、本発明の一態様の撮像装置を適用することができる。
 表示部7000が広いほど、一度に提供できる情報量を増やすことができる。また、表示部7000が広いほど、人の目につきやすく、例えば、広告の宣伝効果を高めることができる。
 表示部7000にタッチパネルを適用することで、表示部7000に画像または動画を表示するだけでなく、ユーザーが直感的に操作することができ、好ましい。また、路線情報もしくは交通情報などの情報を提供するための用途に用いる場合には、直感的な操作によりユーザビリティを高めることができる。
 図18C及び図18Dに示すように、デジタルサイネージ7300またはデジタルサイネージ7400は、ユーザーが所持するスマートフォン等の情報端末機7311または情報端末機7411と無線通信により連携可能であることが好ましい。例えば、表示部7000に表示される広告の情報を、情報端末機7311または情報端末機7411の画面に表示させることができる。また、情報端末機7311または情報端末機7411を操作することで、表示部7000の表示を切り替えることができる。
 デジタルサイネージ7300またはデジタルサイネージ7400に、情報端末機7311または情報端末機7411の画面を操作手段(コントローラ)としたゲームを実行させることもできる。これにより、不特定多数のユーザーが同時にゲームに参加し、楽しむことができる。
 図19A乃至図19Fに示す電子機器は、筐体9000、表示部9001、スピーカ9003、操作キー9005(電源スイッチ、または操作スイッチを含む)、接続端子9006、センサ9007(力、変位、位置、速度、加速度、角速度、回転数、距離、光、液、磁気、温度、化学物質、音声、時間、硬度、電場、電流、電圧、電力、放射線、流量、湿度、傾度、振動、においまたは赤外線を測定する機能を含むもの)、マイクロフォン9008、等を有する。
 図19A乃至図19Fに示す電子機器は、様々な機能を有する。例えば、様々な情報(静止画、動画、テキスト画像など)を表示部に表示する機能、タッチパネル機能、カレンダー、日付または時刻などを表示する機能、様々なソフトウェア(プログラム)によって処理を制御する機能、無線通信機能、記録媒体に記録されているプログラムまたはデータを読み出して処理する機能、等を有することができる。なお、電子機器の機能はこれらに限られず、様々な機能を有することができる。電子機器は、複数の表示部を有していてもよい。また、電子機器にカメラ等を設け、静止画や動画を撮影し、記録媒体(外部またはカメラに内蔵)に保存する機能、撮影した画像を表示部に表示する機能、等を有していてもよい。
 図19A乃至図19Fに示す電子機器の詳細について、以下説明を行う。
 図19Aは、携帯情報端末9101を示す斜視図である。携帯情報端末9101は、例えばスマートフォンとして用いることができる。なお、携帯情報端末9101は、スピーカ9003、接続端子9006、センサ9007等を設けてもよい。また、携帯情報端末9101は、文字や画像情報をその複数の面に表示することができる。図19Aでは3つのアイコン9050を表示した例を示している。また、破線の矩形で示す情報9051を表示部9001の他の面に表示することもできる。情報9051の一例として、電子メール、SNS、電話などの着信の通知、電子メールやSNSなどの題名、送信者名、日時、時刻、バッテリの残量、アンテナ受信の強度などがある。または、情報9051が表示されている位置にはアイコン9050などを表示してもよい。
 図19Bは、携帯情報端末9102を示す斜視図である。携帯情報端末9102は、表示部9001の3面以上に情報を表示する機能を有する。ここでは、情報9052、情報9053、情報9054がそれぞれ異なる面に表示されている例を示す。例えばユーザーは、洋服の胸ポケットに携帯情報端末9102を収納した状態で、携帯情報端末9102の上方から観察できる位置に表示された情報9053を確認することもできる。ユーザーは、携帯情報端末9102をポケットから取り出すことなく表示を確認し、例えば電話を受けるか否かを判断できる。
 図19Cは、腕時計型の携帯情報端末9200を示す斜視図である。携帯情報端末9200は、例えばスマートウォッチとして用いることができる。また、表示部9001はその表示面が湾曲して設けられ、湾曲した表示面に沿って表示を行うことができる。また、携帯情報端末9200は、例えば無線通信可能なヘッドセットと相互通信することによって、ハンズフリーで通話することもできる。また、携帯情報端末9200は、接続端子9006により、他の情報端末と相互にデータ伝送を行うことや、充電を行うこともできる。なお、充電動作は無線給電により行ってもよい。
 図19D、図19E及び図19Fは、折り畳み可能な携帯情報端末9201を示す斜視図である。また、図19Dは携帯情報端末9201を展開した状態、図19Fは折り畳んだ状態、図19Eは図19Dと図19Fの一方から他方に変化する途中の状態の斜視図である。携帯情報端末9201は、折り畳んだ状態では可搬性に優れ、展開した状態では継ぎ目のない広い表示領域により表示の一覧性に優れる。携帯情報端末9201が有する表示部9001は、ヒンジ9055によって連結された3つの筐体9000に支持されている。例えば、表示部9001は、曲率半径0.1mm以上150mm以下で曲げることができる。
 本実施の形態は、他の実施の形態と適宜組み合わせることができる。
BM:遮光層、EL:発光デバイス、PD:受光デバイス、10A:撮像装置、10B:撮像装置、10C:撮像装置、10D:撮像装置、10E:撮像装置、10F:撮像装置、10G:撮像装置、10H:撮像装置、10J:撮像装置、10K:撮像装置、10L:撮像装置、10M:撮像装置、10:撮像装置、21:発光、22:光、23a:光、23b:反射光、23c:光、23d:反射光、41:トランジスタ、42:トランジスタ、51:基板、52:被写体、53:層、55:層、57:層、59:基板、60B:副画素、60G:副画素、60PD:副画素、60R:副画素、60W:副画素、60:画素、61:撮像部、62:駆動回路部、63:駆動回路部、64:駆動回路部、65:回路部、71:演算回路、73:メモリ、82:配線、83:配線、84:配線、85:配線、86:配線、87:配線、91B:発光デバイス、91G:発光デバイス、91PD:受光デバイス、91R:発光デバイス、91W:発光デバイス、100A:撮像装置、100B:撮像装置、100C:撮像装置、100D:撮像装置、110:受光デバイス、111:画素電極、112:共通層、113:活性層、114:共通層、115:共通電極、142:接着層、143:空間、146:レンズアレイ、147:有色層、148a:有色層、148b:有色層、148c:有色層、148:有色層、149:レンズ、151:基板、152:基板、153:基板、154:基板、155:接着層、162:撮像部、164:回路、165:配線、166:導電層、172:FPC、173:IC、182:バッファ層、184:バッファ層、190:発光デバイス、191:画素電極、192:バッファ層、193:発光層、194:バッファ層、195a:無機絶縁層、195b:有機絶縁層、195c:無機絶縁層、195:保護層、201:トランジスタ、202:トランジスタ、204:接続部、205:トランジスタ、206:トランジスタ、208:トランジスタ、209:トランジスタ、210:トランジスタ、211:絶縁層、212:絶縁層、213:絶縁層、214:絶縁層、215:絶縁層、216:隔壁、217:隔壁、218:絶縁層、221:導電層、222a:導電層、222b:導電層、223:導電層、225:絶縁層、228:領域、231i:チャネル形成領域、231n:低抵抗領域、231:半導体層、242:接続層、6500:電子機器、6501:筐体、6502:表示部、6503:電源ボタン、6504:操作ボタン、6505:スピーカ、6506:マイク、6507:カメラ、6508:光源、6510:保護部材、6511:表示パネル、6512:光学部材、6513:タッチセンサパネル、6515:FPC、6516:IC、6517:プリント基板、6518:バッテリ、7000:表示部、7100:テレビジョン装置、7101:筐体、7103:スタンド、7111:リモコン操作機、7200:ノート型パーソナルコンピュータ、7211:筐体、7212:キーボード、7213:ポインティングデバイス、7214:外部接続ポート、7300:デジタルサイネージ、7301:筐体、7303:スピーカ、7311:情報端末機、7400:デジタルサイネージ、7401:柱、7411:情報端末機、9000:筐体、9001:表示部、9003:スピーカ、9005:操作キー、9006:接続端子、9007:センサ、9008:マイクロフォン、9050:アイコン、9051:情報、9052:情報、9053:情報、9054:情報、9055:ヒンジ、9101:携帯情報端末、9102:携帯情報端末、9200:携帯情報端末、9201:携帯情報端末

Claims (6)

  1.  撮像部と、メモリと、演算回路と、を有し、
     前記撮像部は、受光デバイスと、第1の発光デバイスと、第2の発光デバイスと、を有し、
     前記第1の発光デバイスは、前記第2の発光デバイスと異なる波長領域の光を発する機能を有し、
     前記撮像部は、前記第1の発光デバイスを発光させて、第1の画像データを取得する機能を有し、
     前記撮像部は、前記第2の発光デバイスを発光させて、第2の画像データを取得する機能を有し、
     前記メモリは、第1の基準データ及び第2の基準データを保持する機能を有し、
     前記演算回路は、前記メモリに保持された前記第1の基準データを用いて前記第1の画像データを補正し、第1の補正画像データを算出する機能を有し、
     前記演算回路は、前記メモリに保持された前記第2の基準データを用いて前記第2の画像データを補正し、第2の補正画像データを算出する機能を有し、
     前記演算回路は、前記第1の補正画像データと前記第2の補正画像データを足し合わせて、合成画像データを生成する機能を有し、
     前記受光デバイスは、第1の画素電極を有し、
     前記第1の発光デバイスは、前記第1の画素電極と同一面上に位置する第2の画素電極を有する撮像装置。
  2.  請求項1において、
     前記受光デバイスは、活性層、及び共通電極を有し、
     前記第1の発光デバイスは、発光層、及び前記共通電極を有し、
     前記活性層は、前記第1の画素電極上に位置し、
     前記活性層は、第1の有機化合物を有し、
     前記発光層は、前記第2の画素電極上に位置し、
     前記発光層は、第2の有機化合物を有し、
     前記共通電極は前記活性層を介して前記第1の画素電極と重なる部分と、前記発光層を介して前記第2の画素電極と重なる部分と、を有する撮像装置。
  3.  請求項1または請求項2において、
     前記撮像部は、レンズを有し、
     前記レンズは、前記受光デバイスと重なる部分を有し、
     前記レンズは、前記第1の画素電極上に位置し、
     前記レンズを透過した光が、前記受光デバイスに入射する撮像装置。
  4.  請求項1乃至請求項3のいずれか一に記載の撮像装置と、
     コネクタ及び集積回路のいずれか一以上と、を有する撮像モジュール。
  5.  請求項4に記載の撮像モジュールと、
     アンテナ、バッテリ、筐体、カメラ、スピーカ、マイク、及び操作ボタンのいずれか一以上と、を有する電子機器。
  6.  第1の発光デバイスを発光させ、第1の画像データを取得する工程と、
     第1の基準データを用いて前記第1の画像データを補正し、第1の補正画像データを算出する工程と、
     第2の発光デバイスを発光させ、第2の画像データを取得する工程と、
     第2の基準データを用いて前記第2の画像データを補正し、第2の補正画像データを算出する工程と、
     前記第1の補正画像データと前記第2の補正画像データを足し合わせて、合成画像データを生成する工程と、を有し、
     前記第1の発光デバイスは、前記第2の発光デバイスと異なる波長領域の光を発する機能を有する撮像方法。
PCT/IB2020/058112 2019-09-13 2020-09-01 撮像装置、撮像モジュール、電子機器及び撮像方法 WO2021048683A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021544975A JPWO2021048683A1 (ja) 2019-09-13 2020-09-01
US17/639,683 US20220294981A1 (en) 2019-09-13 2020-09-01 Imaging device, imaging module, electronic device, and imaging method
KR1020227010880A KR20220063195A (ko) 2019-09-13 2020-09-01 촬상 장치, 촬상 모듈, 전자 기기, 및 촬상 방법
CN202080063748.XA CN114365474A (zh) 2019-09-13 2020-09-01 摄像装置、摄像模块、电子设备及摄像方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019167577 2019-09-13
JP2019-167577 2019-09-13

Publications (1)

Publication Number Publication Date
WO2021048683A1 true WO2021048683A1 (ja) 2021-03-18

Family

ID=74866218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2020/058112 WO2021048683A1 (ja) 2019-09-13 2020-09-01 撮像装置、撮像モジュール、電子機器及び撮像方法

Country Status (5)

Country Link
US (1) US20220294981A1 (ja)
JP (1) JPWO2021048683A1 (ja)
KR (1) KR20220063195A (ja)
CN (1) CN114365474A (ja)
WO (1) WO2021048683A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114430833A (zh) 2019-09-27 2022-05-03 株式会社半导体能源研究所 电子设备及程序
KR20240065545A (ko) * 2022-11-01 2024-05-14 삼성디스플레이 주식회사 발광 표시 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06142038A (ja) * 1992-11-05 1994-05-24 Olympus Optical Co Ltd 電子内視鏡装置
WO2014125945A1 (ja) * 2013-02-13 2014-08-21 ソニー株式会社 受発光装置
WO2015125553A1 (ja) * 2014-02-19 2015-08-27 オリンパス株式会社 撮像装置、内視鏡装置及び顕微鏡装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724012B2 (en) * 2000-12-14 2004-04-20 Semiconductor Energy Laboratory Co., Ltd. Display matrix with pixels having sensor and light emitting portions
US8138502B2 (en) * 2005-08-05 2012-03-20 Semiconductor Energy Laboratory Co., Ltd. Light-emitting device and manufacturing method thereof
KR101645680B1 (ko) 2009-11-06 2016-08-04 가부시키가이샤 한도오따이 에네루기 켄큐쇼 반도체 장치
CN108121939A (zh) * 2016-11-28 2018-06-05 南昌欧菲生物识别技术有限公司 有机发光二极管显示屏指纹识别装置及电子设备
US11017500B2 (en) * 2018-10-08 2021-05-25 Verily Life Sciences Llc Image acquisition using time-multiplexed chromatic illumination
DE112020000840T5 (de) * 2019-02-15 2021-11-11 Semiconductor Energy Laboratory Co., Ltd. Anzeigevorrichtung, Anzeigemodul und elektronisches Gerät
JPWO2021250507A1 (ja) * 2020-06-12 2021-12-16

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06142038A (ja) * 1992-11-05 1994-05-24 Olympus Optical Co Ltd 電子内視鏡装置
WO2014125945A1 (ja) * 2013-02-13 2014-08-21 ソニー株式会社 受発光装置
WO2015125553A1 (ja) * 2014-02-19 2015-08-27 オリンパス株式会社 撮像装置、内視鏡装置及び顕微鏡装置

Also Published As

Publication number Publication date
CN114365474A (zh) 2022-04-15
KR20220063195A (ko) 2022-05-17
US20220294981A1 (en) 2022-09-15
JPWO2021048683A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7478097B2 (ja) 表示装置
WO2020165686A1 (ja) 表示装置、表示モジュール、及び電子機器
WO2020148600A1 (ja) 表示装置、表示モジュール、及び電子機器
JP2021057039A (ja) 表示装置、認証方法、及びプログラム
WO2020136495A1 (ja) 表示装置
WO2021074738A1 (ja) 表示装置、表示モジュール、及び電子機器
WO2020148604A1 (ja) 表示装置および電子機器
JP7203170B2 (ja) 半導体装置
JP7488825B2 (ja) 表示装置、表示モジュール、及び電子機器
WO2021059069A1 (ja) 電子機器
WO2021059073A1 (ja) 電子機器、及びプログラム
JP2021076836A (ja) 表示装置、表示モジュール、及び電子機器
US20240105120A1 (en) Display apparatus
WO2021005434A1 (ja) 表示装置、表示モジュール、及び電子機器
WO2021048683A1 (ja) 撮像装置、撮像モジュール、電子機器及び撮像方法
JP7495847B2 (ja) 表示装置
WO2021171137A1 (ja) 半導体装置、撮像装置、および表示装置
WO2021220141A1 (ja) 表示装置、表示モジュール、及び電子機器
JP7510432B2 (ja) 表示装置、表示モジュール、及び電子機器
WO2021165788A1 (ja) 半導体装置
CN112771840B (zh) 图像处理方法和装置及摄像装置
WO2021229350A1 (ja) 表示装置、表示モジュール、及び電子機器
TWI845544B (zh) 顯示裝置、顯示模組及電子裝置
JP2024103530A (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20862769

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021544975

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20227010880

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20862769

Country of ref document: EP

Kind code of ref document: A1