ES2761935T3 - Conjunto de cámara y dispositivo electrónico móvil - Google Patents

Conjunto de cámara y dispositivo electrónico móvil Download PDF

Info

Publication number
ES2761935T3
ES2761935T3 ES18169883T ES18169883T ES2761935T3 ES 2761935 T3 ES2761935 T3 ES 2761935T3 ES 18169883 T ES18169883 T ES 18169883T ES 18169883 T ES18169883 T ES 18169883T ES 2761935 T3 ES2761935 T3 ES 2761935T3
Authority
ES
Spain
Prior art keywords
intensity
camera assembly
illumination intensity
pixel
lighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18169883T
Other languages
English (en)
Inventor
Yibao Zhou
Jiao Cheng
Haiping Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2761935T3 publication Critical patent/ES2761935T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0411Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using focussing or collimating elements, i.e. lenses or mirrors; Aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0488Optical or mechanical part supplementary adjustable parts with spectral filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4204Photometry, e.g. photographic exposure meter using electric radiation detectors with determination of ambient light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4228Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Development (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Abstract

Un conjunto de cámara (200), caracterizado en que comprende al menos dos conjuntos de lentes (11) que tienen un sensor de imagen (100), estando un conjunto de lentes configurado para detectar un brillo ambiental actual que se utiliza para controlar el tiempo de exposición de cada componente del sensor de luz correspondiente a cada píxel en otro conjunto de lentes configurado para obtener una imagen, en el que cada sensor de imagen (100) comprende: una matriz de píxeles (10), que comprende una pluralidad de píxeles de fila y una pluralidad de píxeles de columna, en las que cada píxel está asociado con un solo interruptor; y un circuito de control (20), configurado para: controlar cada píxel en la matriz de píxeles (10) para que funcione por separado al controlar el interruptor único que se activará o desactivará; controlar el sensor de imagen (100) para que funcione en un modo de obtención de imágenes o en un modo de detección de luz; recibir una instrucción de detección de luz para controlar una región de intersección (12) de una parte de píxeles de fila y una parte de píxeles de columna en la matriz de píxeles (10) para detectar una intensidad de iluminación, a fin de permitir que el sensor de imagen (100) funcione en el modo de detección de luz; y recibir una instrucción de obtención de imágenes para controlar la matriz de píxeles (10) para adquirir una imagen, a fin de permitir que el sensor de imagen (100) funcione en el modo de obtención de imágenes; en el que la región de intersección (12) es una región de intersección anular (12) que rodea un centro de la matriz de píxeles (10).

Description

DESCRIPCIÓN
Conjunto de cámara y dispositivo electrónico móvil
Campo
La presente divulgación se refiere a dispositivos electrónicos y, más particularmente, a un conjunto de cámara, y a un dispositivo electrónico móvil.
Antecedentes
Típicamente, una cámara frontal configurada para capturar una selfie y un sensor de luz configurado para detectar el brillo ambiental para realizar el ajuste del brillo de una pantalla de visualización de acuerdo con el brillo ambiental pueden establecerse en un teléfono celular. Sin embargo, dado que la cámara frontal y el sensor de luz se establecen por separado en la mayoría de los teléfonos en la actualidad, el espacio para ubicar la pantalla de visualización en el teléfono disminuye, lo que lleva a una baja relación pantalla-cuerpo del teléfono.
El documento US 2012/092541 A1 divulga un aparato. El aparato incluye una pantalla y una cámara combinada y una disposición de medición de luz ambiental que tiene elementos fotosensibles. La disposición está configurada para operar en un primer modo de potencia y un segundo modo de potencia diferente. La disposición está configurada para usar los elementos fotosensibles para medir una señal de color de luz incidente en la pantalla cuando la disposición está en el primer modo de potencia. La disposición está configurada para usar los elementos fotosensibles para capturar una imagen cuando la disposición está en el segundo modo de potencia.
EL documento US 2008/122821 A1 divulga un dispositivo portátil que incluye al menos un dispositivo de grabación de imágenes que tiene una primera unidad sensible a la luz configurada para grabar una imagen y detectar las primeras condiciones de luz relacionadas con el dispositivo portátil; una pantalla para renderizar la imagen grabada; y un dispositivo de iluminación para iluminar la pantalla, en el que el dispositivo de iluminación está configurado para controlar una iluminación de la pantalla en base a las primeras condiciones de luz detectadas.
El documento US 2015/046505 A1 divulga un procedimiento de procesamiento de información y un dispositivo electrónico, que comprende: adquirir un primer valor de un primer parámetro por el primer sensor; adquirir un segundo valor del primer parámetro por el segundo sensor; juzgar si un valor de diferencia entre el primer valor y el segundo valor es mayor o igual que un primer umbral o no; determinar un tercer valor basado en un primer algoritmo, el primer valor y el segundo valor, e informar el tercer valor como un valor del primer parámetro a la unidad de procesamiento, cuando el valor de diferencia es mayor o igual que el primer umbral; determinar un cuarto valor basado en un segundo algoritmo, el primer valor y el segundo valor, e informar el cuarto valor como el valor del primer parámetro a la unidad de procesamiento, cuando el valor de diferencia es menor que el primer umbral.
El documento US 2013/076712 A1 divulga un dispositivo electrónico que tiene una pantalla con un brillo que se ajusta en función de los datos de luz ambiental de múltiples sensores de luz ambiental. Los sensores sombreados pueden ser ignorados. Una matriz de sensores táctiles en la pantalla puede tener electrodos que se superponen a los sensores de luz ambiental. Cuando una señal del sensor táctil indica que un objeto externo está cubriendo uno de los sensores de luz ambiental, los datos de ese sensor de luz ambiental pueden descartarse. Los sensores de luz ambiental pueden incluir un sensor de luz ambiental primario como un sensor de luz ambiental de respuesta del ojo humano y pueden incluir una matriz de sensores de luz ambiental secundarios, como sensores de respuesta del ojo no humano. Los sensores secundarios de luz ambiental pueden formarse en una capa de pantalla tal como una capa de transistor de película delgada y pueden formarse a partir de materiales de película delgada. Puede usarse un algoritmo para calibrar dinámicamente los sensores de luz ambiental que no responden al ojo humano al sensor de luz ambiental que responde al ojo humano.
Divulgación
Las realizaciones de la presente divulgación proporcionan un conjunto de cámara y un dispositivo electrónico móvil de acuerdo con las reivindicaciones adjuntas.
En una realización, la región de intersección es una región de intersección anular que rodea un centro de la matriz de píxeles.
En una realización, la región de intersección anular es centralmente simétrica alrededor del centro.
En una realización, la región de intersección anular tiene una forma de un anillo circular y un anillo cuadrado.
En una realización, hay al menos dos regiones de intersección, las al menos dos regiones de intersección están centradas alrededor de un centro de la matriz de píxeles y espaciadas uniformemente.
En una realización, las al menos dos regiones de intersección tienen básicamente la misma área.
En una realización, la región de intersección está ubicada en un centro de la matriz de píxeles.
En una realización, una relación de un área de la región de intersección a un área de la matriz de píxeles varía de 0,1 a 0,4.
En una realización, el conjunto de cámara comprende un filtro encima de cada sensor de imagen.
En una realización, el conjunto de cámara comprende una lente encima de cada filtro, un eje óptico de la lente está básicamente alineado con un centro del sensor de imagen.
En una realización, las regiones de intersección en los dos sensores de imagen están dispuestas alejadas entre sí y en lados diferentes de los sensores de imagen respectivos.
El dispositivo electrónico móvil de acuerdo con las realizaciones de la presente divulgación incluye el conjunto de cámara descrito anteriormente y un procesador. El procesador está configurado para generar la instrucción de detección de luz y la instrucción de obtención de imágenes.
En una realización, el dispositivo electrónico móvil comprende un conjunto de cámara configurado como un conjunto de cámara frontal. Cuando las regiones de intersección en dos matrices de píxeles del conjunto de cámara detectan una primera intensidad de iluminación y una segunda intensidad de iluminación respectivamente, el procesador está configurado para: determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación final; u obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación final.
En una realización, el dispositivo electrónico móvil comprende al menos dos conjuntos de cámara, uno de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara frontal y otro de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara posterior. Cuando las regiones de intersección en dos matrices de píxeles del conjunto de cámara frontal detectan una primera intensidad de iluminación y una segunda intensidad de iluminación respectivamente, y las regiones de intersección en dos matrices de píxeles del conjunto de cámara posterior detectan una tercera intensidad de iluminación y una cuarta intensidad de iluminación respectivamente, el procesador está configurado para: determinar un máximo de la primera intensidad de iluminación, la segunda intensidad de iluminación, la tercera intensidad de iluminación y la cuarta intensidad de iluminación como una intensidad de iluminación final; u obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como intensidad de iluminación frontal, obtener un valor medio de la tercera intensidad de iluminación y la cuarta intensidad de iluminación como intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como intensidad de iluminación final; o determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación frontal, obtener un valor medio de la tercera intensidad de iluminación y la cuarta intensidad de iluminación como una intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como intensidad de iluminación final; u obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación frontal, determinar un máximo de la tercera intensidad de iluminación y la cuarta intensidad de iluminación como una intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como intensidad de iluminación final.
En una realización, el dispositivo electrónico móvil comprende al menos dos conjuntos de cámara, uno de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara frontal y otro de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara posterior. Cuando una región de intersección en una matriz de píxeles del conjunto de cámara frontal detecta una primera intensidad de iluminación, y una región de intersección en una matriz de píxeles del conjunto de cámara posterior detecta una segunda intensidad de iluminación, el procesador está configurado para: determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación final.
En una realización, el dispositivo electrónico móvil comprende al menos dos conjuntos de cámara, uno de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara frontal y otro de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara posterior. Cuando las regiones de intersección en dos matrices de píxeles del conjunto de cámara frontal detectan una primera intensidad de iluminación y una segunda intensidad de iluminación respectivamente, y una región de intersección en una matriz de píxeles del conjunto de cámara posterior detecta una tercera intensidad de iluminación, el procesador está configurado para: determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación frontal, y determinar un máximo de la intensidad de iluminación frontal y la tercera intensidad de iluminación como una intensidad de iluminación final; u obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación frontal, y determinar un máximo de la intensidad de iluminación frontal y la tercera intensidad de iluminación como una intensidad de iluminación final.
En una realización, el dispositivo electrónico móvil comprende al menos dos conjuntos de cámara, uno de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara frontal y otro de los al menos dos conjuntos de cámara está configurado como un conjunto de cámara posterior. Cuando una región de intersección en una matriz de píxeles del conjunto de cámara frontal detecta una primera intensidad de iluminación, y las regiones de intersección en dos matrices de píxeles del conjunto de cámara posterior detectan una segunda intensidad de iluminación y una tercera intensidad de iluminación respectivamente, el procesador está configurado para: determinar un máximo de la segunda intensidad de iluminación y la tercera intensidad de iluminación como intensidad de iluminación posterior, y determine un máximo de la intensidad de iluminación posterior y la primera intensidad de iluminación como intensidad de iluminación final; u obtener un valor medio de la segunda intensidad de iluminación y la tercera intensidad de iluminación como intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación posterior y la primera intensidad de iluminación como intensidad de iluminación final.
En una realización, el dispositivo electrónico móvil comprende otro conjunto de cámara, en el que el otro conjunto de cámara comprende un sensor de imagen que comprende una matriz de píxeles y un circuito de control. La matriz de píxeles comprende una pluralidad de píxeles de fila y una pluralidad de píxeles de columna. El circuito de control se configura para: controlar el sensor de imagen para que funcione en un modo de obtención de imágenes o en una región de detección de luz; recibir una instrucción de detección de luz para controlar una región de intersección de una parte de píxeles de fila y una parte de píxeles de columna para detectar una intensidad de iluminación, a fin de permitir que el sensor de imagen funcione en el modo de detección de luz; y recibir una instrucción de obtención de imágenes para controlar la matriz de píxeles del sensor de imagen para adquirir una imagen, a fin de permitir que el sensor de imagen funcione en el modo de obtención de imágenes.
En una realización, el dispositivo electrónico móvil comprende un conjunto de cámara configurado como uno de un conjunto de cámara frontal y un conjunto de cámara posterior, y el otro conjunto de cámara está configurado como el otro del conjunto de cámara frontal y del conjunto de cámara posterior.
En una realización, el dispositivo electrónico móvil comprende dos conjuntos de cámara, uno de los dos conjuntos de cámara está configurado como un conjunto de cámara frontal, el otro de los dos conjuntos de cámara está configurado como un conjunto de cámara posterior. El conjunto de cámara frontal y el conjunto de cámara posterior están configurados de modo que, cuando dos sensores de imagen del conjunto de cámara frontal funcionan en el modo de obtención de imágenes, al menos un sensor de imagen de dos sensores de imagen del conjunto de cámara posterior funciona en el modo de detección de luz; y cuando dos sensores de imagen del conjunto de cámara posterior funcionan en el modo de obtención de imágenes, al menos un sensor de imagen de dos sensores de imagen del conjunto de cámara frontal funciona en el modo de detección de luz.
Los aspectos y ventajas adicionales de las realizaciones de la presente divulgación se darán en parte en las siguientes descripciones, se harán evidentes en parte a partir de las siguientes descripciones, o se aprenderán de la práctica de las realizaciones de la presente divulgación.
Breve descripción de los dibujos
Estos y otros aspectos y ventajas de las realizaciones de la presente divulgación serán evidentes y se apreciarán más fácilmente a partir de las siguientes descripciones realizadas con referencia a los dibujos.
La figura 1 es un diagrama esquemático de un conjunto de cámara de acuerdo con una realización de la presente divulgación.
La figura 2 es un diagrama esquemático de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La figura 3 es un diagrama esquemático de una matriz de píxeles de acuerdo con una realización de la presente divulgación.
Las figuras 4 a la 10 son diagramas esquemáticos de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La figura 11 es una vista frontal de un dispositivo electrónico de acuerdo con una realización de la presente divulgación.
La figura 12 es una vista lateral de un dispositivo electrónico de acuerdo con una realización de la presente divulgación.
La figura 13 es otra vista frontal de un dispositivo electrónico de acuerdo con una realización de la presente divulgación.
La figura 14 es un diagrama de bloques de un conjunto de cámara de acuerdo con una realización de la presente divulgación.
La figura 15 es un diagrama esquemático de un sensor de imagen de acuerdo con una realización de la presente divulgación.
Realizaciones de la presente divulgación
Ahora se hará referencia en detalle a realizaciones ejemplares, ejemplos de las cuales se ilustran en los dibujos adjuntos, en los que los mismos o similares números de referencia a lo largo de los dibujos representan los mismos o similares elementos o elementos que tienen las mismas funciones o similares. Las realizaciones descritas a continuación con referencia a los dibujos son meramente ejemplares y se usan para explicar la presente divulgación, y no deben entenderse como una limitación de la presente divulgación.
Con referencia a la figura 1 y la figura 2, el conjunto de cámara 200 de acuerdo con las realizaciones de la presente divulgación incluye dos conjuntos de lente 110. Cada conjunto de lente 110 incluye un sensor de imagen 100. Cada sensor de imagen 100 incluye una matriz de píxeles 10 y un circuito de control 20. La matriz de píxeles 10 incluye una pluralidad de píxeles de fila y una pluralidad de píxeles de columna. El circuito de control 20 está configurado para controlar el sensor de imagen 100 para que funcione en un modo de obtención de imágenes o en un modo de detección de luz.
El circuito de control 20 está configurado además para recibir una instrucción de detección de luz para controlar una región de intersección de una parte de píxeles de fila y una parte de píxeles de columna de la matriz de píxeles 10 para detectar una intensidad de iluminación cuando el sensor de imagen 100 funciona en la detección de luz y recibir una instrucción de obtención de imágenes para controlar la matriz de píxeles 10 para adquirir una imagen cuando el sensor de imagen 100 funciona en el modo de obtención de imágenes.
De acuerdo con las realizaciones de la presente divulgación, dado que el sensor de imagen 100 tiene tanto el modo de obtención de imágenes como el modo de detección de luz, no es necesario establecer un componente de cámara y un componente de sensor de luz en el dispositivo electrónico, tal como un teléfono celular, de modo que se aumenta el espacio para ubicar la pantalla de visualización en el dispositivo electrónico, como el teléfono celular, lo que aumenta la relación pantalla-cuerpo del teléfono celular.
En algunas realizaciones, en cada sensor de imagen 100, cada píxel de fila incluye una pluralidad de píxeles, y cada píxel de columna incluye una pluralidad de píxeles. Cada píxel puede obtener una señal de intensidad de iluminación y una señal de obtención de imágenes. Por lo tanto, cuando el sensor de imagen 100 funciona en el modo de obtención de imágenes, la matriz de píxeles 10 puede obtener una imagen externa formada en una superficie de la matriz de píxeles 10. Cuando el sensor de imagen 100 funciona en el modo de detección de luz, la matriz de píxeles 10 puede obtener la intensidad de iluminación de la luz irradiada en los píxeles.
En algunas realizaciones, el circuito de control 20 puede controlar la región de intersección 12 para realizar un proceso fotográfico de acuerdo con la instrucción de detección de luz. Cuando la luz en el entorno actual alcanza cada píxel en la región de intersección 12, un componente del sensor de luz correspondiente a cada píxel en la región de intersección 12 puede generar un cambio de voltaje, de modo que puede obtenerse un valor de píxel correspondiente a cada píxel. La intensidad de iluminación puede obtenerse mediante el cálculo basado en una serie de valores de píxeles obtenidos de la región de intersección 12.
El circuito de control 20 puede controlar la matriz de píxeles 10 para adquirir la imagen de acuerdo con la instrucción de obtención de imágenes. Cuando la luz en el entorno actual alcanza cada píxel en la matriz de píxeles 10, un componente del sensor de luz correspondiente a cada píxel en la matriz de píxeles 10 puede generar un cambio de voltaje, de modo que puede obtenerse un valor de píxel correspondiente a cada píxel. La imagen final puede obtenerse al realizar un procesamiento de interpolación y des-mosaico de acuerdo con una serie de valores de píxeles obtenidos de la matriz de píxeles 10.
Cuando el sensor de imagen 100 funciona en el modo de obtención de imágenes, todos o una parte de los píxeles en la matriz de píxeles 10 pueden controlarse para adquirir la imagen. En otras palabras, una región de obtención de imágenes de la matriz de píxeles 10 puede ser una región completa de la matriz de píxeles 10 o puede ser una región parcial de la matriz de píxeles 10.
La región de intersección 12, configurada como una región de detección de luz de la matriz de píxeles 10, puede incluir una pluralidad de píxeles. Cada píxel en la región de intersección 12 corresponde tanto a un píxel de fila como a un píxel de columna. Por ejemplo, un píxel en la región de intersección 12 corresponde al 4o píxel de fila y al 4o píxel de columna. El circuito de control 20 puede controlar que cada píxel en la matriz de píxeles 10 funcione por separado, para controlar que la región de intersección 12 esté en un estado de funcionamiento mientras que otras regiones estén en un estado inactivo.
En algunas realizaciones, un píxel de fila está asociado con un conmutador, mientras que un píxel de columna está asociado con otro conmutador. Cuando los dos interruptores están encendidos, un píxel correspondiente tanto al píxel de fila como al píxel de columna está habilitado para que funcione. Como se ilustra en la figura 3, un píxel correspondiente tanto al 3er píxel de fila y al 16o píxel de columna es P1. El 3er píxel de fila está acoplado a un primer interruptor S1 y el 16o píxel de columna está acoplado a un segundo conmutador S2. Cuando los interruptores primero y segundo S1 y S2 están encendidos, el píxel P1 está habilitado para que funcione. En algunas realizaciones, puede habilitarse un solo píxel para que funcione de otras maneras. Por ejemplo, cada píxel está acoplado a un solo interruptor, cuando el único interruptor está encendido, el píxel correspondiente comienza a funcionar.
Cuando el sensor de imagen 100 funciona en el modo de obtención de imágenes, la región de intersección 12 también puede adquirir la imagen externa. Además, en algunas realizaciones de la presente divulgación, la matriz de píxeles tiene la forma de un cuadrado. En algunas realizaciones, la matriz de píxeles 10 puede tener la forma de un polígono o un círculo, etc., que no está limitado en la presente memoria.
Como el conjunto de cámara 200 incluye dos conjuntos de lente 110 y cada conjunto de lente 110 incluye un sensor de imagen 100, el conjunto de cámara 200 incluye dos sensores de imagen 100. Cada uno de los dos sensores de imagen 100 puede funcionar en el modo de obtención de imágenes, en el modo de detección de luz o en el modo inactivo. Cada uno de los sensores de imagen izquierdo 100 y el sensor de imagen derecho 100 ilustrados en la figura 1 pueden funcionar en el modo de obtención de imágenes, en el modo de detección de luz o en el modo inactivo, respectivamente. El conjunto de cámara 200 de acuerdo con las realizaciones de la presente divulgación puede aplicarse en un dispositivo electrónico 300. Por lo tanto, el estado de funcionamiento del dispositivo electrónico 300 puede ser una de nueve situaciones en la tabla 1.
Tabla 1
Figure imgf000006_0001
El modo inactivo del sensor de imagen 100 significa que el sensor de imagen 100 no está en el modo de obtención de imágenes o en el modo de detección de luz, por lo tanto, el sensor de imagen 100 no puede detectar la intensidad de iluminación ni adquirir la imagen.
En algunos ejemplos, cuando el sensor de imagen izquierdo 100 está en modo de obtención de imágenes y el sensor de imagen derecho 100 está en modo de obtención de imágenes, tanto el conjunto de lentes izquierdo 110 como el conjunto de lentes derecho 110 pueden adquirir imágenes.
En algunas realizaciones, el conjunto de lente izquierdo 110 puede ser un conjunto de lente de amplio ángulo, mientras que el conjunto de lente derecho 110 puede ser un conjunto de lente teleobjetivo. El conjunto de lente izquierdo 110 puede adquirir una imagen de amplio ángulo, y el conjunto de lente derecho 110 puede adquirir una imagen teleobjetivo. Puede adquirirse una imagen de alta calidad al fusionar la imagen de amplio ángulo y la imagen teleobjetivo.
En algunos ejemplos, cuando los dos conjuntos de lentes 110 adquieren las imágenes, los dos conjuntos de lentes 110 pueden realizar la obtención de imágenes simultáneamente para adquirir múltiples cuadros de primeras imágenes y múltiples cuadros de segundas imágenes. El procesador 310 puede analizar los múltiples cuadros de las primeras imágenes y los múltiples cuadros de las segundas imágenes y filtrar un cuadro de imagen con la más alta calidad de obtención de imágenes como imagen final. En otra realización, el procesador 310 puede realizar un procesamiento de fusión y empalme en la primera imagen y la segunda imagen para mejorar el color y la definición de la imagen final.
En algunas realizaciones, un conjunto de lente 110 puede configurarse para ayudar al otro conjunto de lente 110 en la obtención de imágenes, a fin de optimizar la calidad de la obtención de imágenes. Por ejemplo, el conjunto de lente 110 puede detectar el brillo ambiental actual, y el procesador 310 analiza el brillo ambiental para controlar el tiempo de exposición de cada componente del sensor de luz correspondiente a cada píxel en el otro conjunto de lente 110 para obtener la imagen con brillo adecuado. De esta manera, durante la obtención de imágenes del conjunto de cámara 200, se usa un conjunto de lente 110 para detectar el brillo ambiental para ayudar al otro conjunto de lente 110 en la imagen, de modo que los problemas de que la imagen final esté sujeta a una sobre-exposición o un brillo demasiado bajo puede evitarse, y mejorar así la calidad de la imagen.
Como se ilustra en la figura 1, en algunas realizaciones, cada conjunto de lente 110 incluye un filtro 210. El filtro 210 está dispuesto encima del sensor de imagen 100.
En algunas realizaciones, el filtro 210 es un filtro RGB 210, de modo que el sensor de imagen 100 puede adquirir una imagen con alta calidad. El filtro RGB 210 puede disponerse en la matriz de Bayer para permitir que la luz L pase a través del filtro 210 y atraviese la matriz de píxeles 10, para adquirir una imagen en color.
En algunas realizaciones, el filtro 210 puede ser un filtro visible 210. De esta manera, después de que la luz pasa a través del filtro visible 210, solo la luz visible de la luz puede alcanzar la matriz de píxeles 10 mientras que la luz con otras longitudes de onda está bloqueada, de modo que la región de intersección 12 puede configurarse para detectar la intensidad de iluminación de la luz visible y la matriz de píxeles 10 puede configurarse para adquirir la imagen, y evitar así la interferencia de la luz invisible en la luz y mejorar la precisión de la detección de luz y la calidad de la imagen. En algunas realizaciones, cada conjunto de lente 110 incluye además una lente 220 dispuesta sobre el filtro 210. El eje óptico 222 de la lente 220 está alineado con el centro del sensor de imagen 100.
En algunas realizaciones, la luz que pasa a través de la lente 220 puede alcanzar regiones respectivas del sensor de imagen 100 por igual, de modo que el sensor de imagen 100 puede tener un mejor efecto de obtención de imágenes y puede detectar mejor la intensidad de iluminación.
En algunas realizaciones, el conjunto de cámara 200 incluye además una placa de circuito 230 y una carcasa 240. Los dos sensores de imagen 100 están dispuestos en la placa de circuito 230. Ambas lentes 220 están dispuestas en la carcasa 240 y acopladas de manera fija a la carcasa 240.
El sensor de imagen 100 se describirá en detalle a continuación.
En algunas realizaciones, la región de intersección 12 está ubicada en un centro de la matriz de píxeles 10, como se ilustra en la figura 2.
En consecuencia, es fácil para la luz en cada región de intersección 12 ubicada en el centro de la matriz de píxeles 10, de modo que es fácil para el sensor de imagen 100 detectar la intensidad de iluminación. Por lo tanto, el sensor de imagen 100 tiene una alta sensibilidad a la detección de la intensidad de iluminación.
En algunas realizaciones, la región de intersección 12 es una región de intersección anular 12, que rodea el centro de la matriz de píxeles 10, como se ilustra en la figura 4 y la figura 5.
En algunas realizaciones, la región de intersección anular 12 tiene la forma de un anillo circular, como se ilustra en la figura 4. Dado que la región de intersección anular 12 incluye una pluralidad de píxeles y cada píxel puede tener la forma de un círculo o un polígono, cada uno de un límite interno y un límite externo de la región de intersección anular 12 puede estar formado por una pluralidad de segmentos de línea, y esencialmente en forma de círculo.
En algunas realizaciones, la región de intersección anular 12 puede tener la forma de un anillo cuadrado, como se ilustra en la figura 5. En algunas realizaciones, la región de intersección anular 12 puede tener diferentes formas del anillo circular o el anillo cuadrado, por ejemplo, en forma de un anillo irregular.
En algunas realizaciones, la región de intersección 12 puede estar dispuesta centralmente simétrica alrededor del centro de la matriz de píxeles 10. En este caso, la región que rodea el centro de la matriz de píxeles 10 puede detectar la intensidad de iluminación, de modo que puede mejorarse la sensibilidad del sensor de imagen 10 a la detección de la intensidad de iluminación.
En algunas realizaciones, hay al menos dos regiones de intersección 12. Las al menos dos regiones de intersección 12 están centradas alrededor del centro de la matriz de píxeles 10 y están espaciadas uniformemente. Por ejemplo, puede haber dos, tres, cuatro o cinco regiones de intersección 12.
El número de las regiones de intersección 12 puede establecerse de acuerdo con situaciones reales, que no están limitadas en la presente memoria. Además, cada región de intersección 12 puede tener la forma de un círculo, un sector circular, un polígono o similar, que no está limitado en la presente memoria.
En algunas realizaciones, cuando el número de las regiones de intersección 12 es dos, las dos regiones de intersección 12 están dispuestas simétricamente en los lados izquierdo y derecho del centro de la matriz de píxeles 10, como se ilustra en la figura 6.
En algunas realizaciones, cuando el sensor de imagen 100 se aplica en el dispositivo electrónico 300 tal como un teléfono celular, como se ilustra en la figura 11, una dirección izquierda-derecha de la matriz de píxeles 10 corresponde a una dirección transversal del dispositivo electrónico 300. En otras palabras, las dos regiones de intersección 12 están dispuestas en paralelo a lo largo de la dirección transversal del dispositivo electrónico 300, de modo que cuando el dispositivo electrónico 300 se inclina en la dirección transversal, al menos una región de intersección 12 puede detectar la intensidad de iluminación, y facilitar así para mejorar la sensibilidad del sensor de imagen 100 a la detección de la intensidad de iluminación.
En algunas realizaciones, cuando hay dos regiones de intersección 12, las dos regiones de intersección 12 están dispuestas simétricamente encima y debajo del centro de la matriz de píxeles 10, como se ilustra en la figura 7.
En algunas realizaciones, cuando el sensor de imagen 100 se aplica en el dispositivo electrónico 300 tal como un teléfono celular, una dirección hacia arriba y hacia abajo de la matriz de píxeles 10 corresponde a una dirección longitudinal del dispositivo electrónico 300. En otras palabras, las dos regiones de intersección 12 están dispuestas en paralelo a lo largo de la dirección longitudinal del dispositivo electrónico 300, de modo que cuando el dispositivo electrónico 300 se inclina en la dirección longitudinal, al menos una región de intersección 12 puede detectar la intensidad de iluminación, y facilitar así para mejorar la sensibilidad del sensor de imagen 100 a la detección de la intensidad de iluminación.
En algunas realizaciones, hay cuatro regiones de intersección 12. Dos regiones de intersección 12 están dispuestas simétricamente en los lados izquierdo y derecho del centro de la matriz de píxeles 10, y las otras dos regiones de intersección 12 están dispuestas simétricamente encima y debajo del centro de la matriz de píxeles 10, como se ilustra en la figura 8.
La dirección transversal mencionada anteriormente del dispositivo electrónico 300 se refiere, por ejemplo, a la dirección izquierda-derecha ilustrada en la figura 11. La dirección longitudinal mencionada anteriormente del dispositivo electrónico 300 se refiere, por ejemplo, a la dirección arriba-abajo ilustrada en la figura 11.
En algunas realizaciones, hay cinco regiones de intersección 12, que están centradas alrededor del centro de la matriz de píxeles 10 y espaciadas uniformemente. En otras palabras, dos regiones de intersección adyacentes 12 y el centro de la matriz de píxeles 10 forman un ángulo de 72 grados, como se ilustra en la figura 9.
En algunas realizaciones, cuando hay una pluralidad de regiones de intersección, la pluralidad de regiones de intersección 12 tienen la misma área.
Cuando la matriz de píxeles 10 tiene una forma regular, el centro de la matriz de píxeles 10 se refiere a un centro geométrico de la forma regular. Por ejemplo, cuando la matriz de píxeles 10 tiene la forma de un círculo, el centro de la matriz de píxeles 10 es el centro del círculo. Para otro ejemplo, cuando la matriz de píxeles 10 tiene la forma de un cuadrado, el centro de la matriz de píxeles 10 se refiere a un punto de intersección de líneas diagonales del cuadrado. Cuando la matriz de píxeles 10 tiene una forma irregular, el centro de la matriz de píxeles 10 se refiere a un centro de gravedad de la matriz de píxeles 10.
En algunas realizaciones, una relación de un área A1 de la región de intersección 12 a un área de la matriz de píxeles 10 es A1/A2, que varía de 0,1 a 0,4, es decir, 0,1 <= A1/A2 <= 0,4. Por ejemplo, A1/A2= 0,15, 0,2, 0,25, 0,3, 0,35 o similares.
Cuando A1/A2 varía de 0,1 a 0,4, el número de píxeles necesarios para que funcione puede disminuir en función de la premisa de que la matriz de píxeles 10 detecte la intensidad de iluminación, de modo que puede reducirse el consumo de energía del sensor de imagen 100.
Con referencia a la figura 10, en algunas realizaciones, la región de intersección 12 en dos sensores de imagen 100 puede estar dispuesta lejos una de la otra y en diferentes lados de los respectivos sensores de imagen 100.
En la realización ilustrada en la figura 10, una región de intersección izquierda 12 está dispuesta a la izquierda del sensor de imagen izquierdo 100. Una región de intersección derecha 12 está dispuesta a la derecha del sensor de imagen derecho 100. En consecuencia, el conjunto de cámara 200 puede detectar la intensidad de iluminación en un amplio rango y obtener resultados de detección más precisos.
Con referencia a la figura 11, el dispositivo electrónico 300 de acuerdo con las realizaciones de la presente divulgación incluye el conjunto de cámara 200 mencionado en cualquiera de las realizaciones anteriores y un procesador 310. El procesador 310 está configurado para generar la instrucción de detección de luz y la instrucción de obtención de imágenes. El dispositivo electrónico 300 puede ser un dispositivo provisto de una pantalla de visualización, tal como un teléfono celular, un ordenador de panel o un dispositivo portátil inteligente o similar.
En el dispositivo electrónico 300 de acuerdo con las realizaciones de la presente divulgación, dado que un sensor de imagen 100 tiene tanto el modo de obtención de imágenes como el modo de detección de luz, no es necesario establecer tanto un componente de cámara como un componente de sensor de luz en el dispositivo electrónico 300, tal como el teléfono celular, de modo que se aumenta el espacio para ubicar la pantalla de visualización en el teléfono celular, lo que lleva a una alta relación pantalla-cuerpo del teléfono celular.
En algunas realizaciones, el procesador 310 envía la instrucción de detección de luz o la instrucción de obtención de imágenes al circuito de control 20. El procesador 310 puede generar y transmitir por separado la instrucción de detección de luz, o puede generar y transmitir por separado la instrucción de obtención de imágenes.
La instrucción de detección de luz y la instrucción de obtención de imágenes pueden ser generadas por el procesador 310 cuando recibe una operación de entrada. La operación de entrada puede ser una operación ingresada por el usuario o por un entorno de aplicación.
Por ejemplo, en el teléfono celular de acuerdo con las realizaciones de la presente divulgación, el procesador 310 puede generar la instrucción de detección de luz y la instrucción de obtención de imágenes después de recibir una operación de tocar el teléfono celular o presionar una tecla de función determinada del usuario.
En algunas realizaciones, la instrucción de detección de luz y la instrucción de obtención de imágenes pueden ser generadas por el procesador 310 cuando la hora del sistema del teléfono celular alcanza un punto de tiempo predeterminado. El circuito de control 20 puede configurarse para recibir por separado la instrucción de detección de luz para controlar la región de intersección 12 para detectar la intensidad de iluminación, o recibir por separado la instrucción de obtención de imágenes para controlar la matriz de píxeles 10 para adquirir la imagen.
El procesador 310 puede enviar la instrucción de detección de luz o la instrucción de obtención de imágenes a un circuito de control 20 para controlar una matriz de píxeles correspondiente 10 para que funcione. El procesador 310 también puede enviar la instrucción de detección de luz o la instrucción de obtención de imágenes a dos circuitos de control 20 para controlar simultáneamente dos matrices de píxeles 10 para que funcionen. El modo de funcionamiento de cada uno de los dos sensores de imagen 10 se muestra en la tabla 1.
Con referencia a la figura 11, en algunas realizaciones, el dispositivo electrónico 300 incluye un único conjunto de cámara 200 configurado como un conjunto de cámara frontal 201. Por lo tanto, el conjunto de cámara única 200 puede adquirir la intensidad de iluminación por delante de la pantalla de visualización 320 y la imagen de un objeto delante de la pantalla de visualización 320. El procesador 310 puede controlar el brillo de la pantalla de visualización 320 del dispositivo electrónico 300 de acuerdo con las intensidades de iluminación obtenidas por los dos sensores de imagen 100 en el conjunto de cámara frontal 201.
En algunas realizaciones, cuando las regiones de intersección 12 en dos matrices de píxeles 10 detectan una primera intensidad de iluminación L1 y una segunda intensidad de iluminación L2 respectivamente, el procesador 310 está configurado para seleccionar un máximo de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como una intensidad de iluminación final Lf, es decir, Lf=Max{L1, L2}.
En algunas realizaciones, cuando las regiones de intersección 12 en dos matrices de píxeles 10 detectan la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 respectivamente, el procesador 310 está configurado para obtener un valor medio de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como la intensidad de iluminación final Lf, es decir, Lf= (L1+L2)/2.
En consecuencia, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con la intensidad de iluminación final Lf. Por ejemplo, el procesador 310 sube o baja el brillo de la pantalla de visualización 320 de acuerdo con la intensidad de iluminación final Lf.
La intensidad de iluminación final Lf para controlar el brillo de la pantalla de visualización 320 puede establecerse de acuerdo con situaciones reales. El procesador 310 puede usar la intensidad de iluminación final Lf obtenida en cualquiera de las realizaciones anteriores para controlar el brillo de la pantalla de visualización 320 en cualquier caso. Además, la primera intensidad de iluminación L1 se obtiene mediante un sensor de imagen 100, mientras que la segunda intensidad de iluminación L2 se obtiene mediante el otro sensor de imagen 100.
La carcasa 302 del dispositivo electrónico 300 se proporciona con una abertura que permite que la luz entre en el conjunto de cámara 200 y llegue al sensor de imagen 100, de modo que el dispositivo electrónico 300 pueda realizar funciones de detección de la intensidad de iluminación y adquisición de la imagen.
En algunas realizaciones, el dispositivo electrónico 300 incluye dos conjuntos de cámara 200. Un conjunto de cámara 200 está configurado como un conjunto de cámara frontal 201, y el otro conjunto de cámara 200 está configurado como un conjunto de cámara posterior 202, como se ilustra en la figura 12.
El conjunto de cámara frontal 201 incluye dos sensores de imagen 100. El conjunto de cámara posterior 202 también incluye dos sensores de imagen 100. En los cuatro sensores de imagen 100, cada sensor de imagen 100 puede estar en el modo de obtención de imágenes, en el modo de detección de luz o en el modo inactivo. Para facilitar la descripción, los dos sensores de imagen 100 en el conjunto de cámara frontal 201 se denominan primer sensor de imagen y segundo sensor de imagen, respectivamente. Los dos sensores de imagen 100 en el conjunto de cámara posterior 202 se denominan tercer sensor de imagen y cuarto sensor de imagen respectivamente. Cuando el dispositivo electrónico 300 se proporciona con el conjunto de cámara frontal 201 y el conjunto de cámara posterior 202, el estado de funcionamiento del dispositivo electrónico 300 incluye las situaciones que se muestran en la tabla 2.
Tabla 2
Figure imgf000010_0001
Como se muestra en la tabla 2, el estado de funcionamiento del dispositivo electrónico 300 puede ser una combinación de modos de funcionamiento de cuatro sensores de imagen 100.
En algunas realizaciones, cuando los dos sensores de imagen 100 en el conjunto de cámara frontal 201 funcionan en el modo de obtención de imágenes, al menos uno de los dos sensores de imagen 100 en el conjunto de cámara posterior 202 funciona en el modo de detección de luz.
En consecuencia, el procesador 301 puede controlar el conjunto de cámara frontal 201 para tomar una imagen de acuerdo con la intensidad de iluminación detectada por el sensor de imagen 100 del conjunto de cámara posterior 202, de modo que se pueda adquirir una imagen con alta calidad. Por ejemplo, cuando el sensor de imagen 100 en el conjunto de cámara posterior 202 detecta una baja intensidad de iluminación, el procesador 301 puede controlar el conjunto de cámara frontal 201 para aumentar el tiempo de exposición para adquirir una imagen con alto brillo.
De manera similar, en algunas realizaciones, cuando los dos sensores de imagen 100 en el conjunto de cámara posterior 202 funcionan en el modo de obtención de imágenes, al menos uno de los dos sensores de imagen 100 en el conjunto de cámara frontal 201 funciona en el modo de detección de luz.
Durante el uso del dispositivo electrónico 300, cuando el sensor de imagen 100 en el conjunto de cámara frontal 201 obtiene una intensidad de iluminación y el sensor de imagen 100 en el conjunto de cámara posterior 202 obtiene una intensidad de iluminación, el dispositivo electrónico 300 puede obtener la intensidad de iluminación alrededor del conjunto de cámara frontal 201 y la intensidad de iluminación alrededor del conjunto de cámara posterior 202 simultáneamente. Por ejemplo, cuando el procesador 310 no genera la instrucción de obtención de imágenes, al menos un sensor de imagen 100 en el conjunto de cámara frontal 201 y al menos un sensor de imagen 100 en el conjunto de cámara posterior 202 funcionan en el modo de detección de luz.
Al tomar el dispositivo electrónico 300 como un teléfono celular como ejemplo, en algún escenario de uso, puede haber una situación en la que las intensidades de iluminación en una cara frontal y posterior del dispositivo electrónico 300 son obviamente diferentes. Por ejemplo, el usuario puede poner el teléfono celular en la mesa con la cara frontal opuesta al tablero. Si el brillo de la pantalla de visualización 320 se controla solo de acuerdo con la intensidad de iluminación en la cara frontal detectada por el conjunto de cámara frontal 201, la pantalla de visualización 320 puede estar en un estado de no visualización o en un estado de visualización de bajo brillo. Cuando el usuario levanta repentinamente el dispositivo electrónico 300 para usarlo, el dispositivo electrónico 300 necesita despertar la pantalla de visualización 320 o aumentar el brillo de la pantalla de visualización 320 en poco tiempo. Cuando el usuario levanta y baja con frecuencia el dispositivo electrónico 300, el dispositivo electrónico 300 consumiría una gran cantidad de energía eléctrica para controlar el brillo de la pantalla de visualización 320.
El dispositivo electrónico 300 de acuerdo con las realizaciones de la presente divulgación puede detectar tanto la intensidad de iluminación en la cara frontal como la intensidad de iluminación en la cara posterior. Cuando el usuario coloca el teléfono celular en la mesa con la cara frontal opuesta a la parte superior de la mesa, el brillo de la pantalla de visualización 320 puede controlarse de acuerdo con la intensidad de iluminación en la cara posterior en un cierto período de tiempo. Cuando el usuario toma el dispositivo electrónico 300 para usarlo, no es necesario cambiar el brillo de la pantalla de visualización 320, que es conveniente de usar y ahorra energía.
En algunas realizaciones, cuando cuatro sensores de imagen 100 están configurados para detectar las intensidades de iluminación, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con las intensidades de iluminación detectadas por los cuatro sensores de imagen 100.
En algunas realizaciones, cuando las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara frontal 201 detectan una primera intensidad de iluminación L1 y una segunda intensidad de iluminación L2 respectivamente, y las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara posterior 202 detectan una tercera intensidad de iluminación L3 y una cuarta intensidad de iluminación L4 respectivamente, el procesador 310 puede configurarse para seleccionar un máximo de la primera intensidad de iluminación L1, la segunda intensidad de iluminación L2, la tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 como la intensidad de iluminación final Lf, es decir, Lf= Max{L1, L2, L3, L4}.
En algunas realizaciones, cuando las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara frontal 201 detectan la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 respectivamente, y las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara posterior 202 detectan la tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 respectivamente, el procesador 310 puede configurarse para obtener un valor medio de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como una intensidad de iluminación frontal (la intensidad de iluminación frontal se refiere a una intensidad de iluminación detectada por la región de detección de luz en el conjunto de cámara frontal) Lq, para obtener un valor medio de la tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 como una intensidad de iluminación posterior (la intensidad de iluminación posterior se refiere a una intensidad de iluminación detectada por la región de detección de luz en el conjunto de cámara posterior) Lh, y para seleccionar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como la intensidad de iluminación final Lf, es decir, Lq= (L1+L2)/2, Lh= (L3+L4)/2, Lf= Max{Lq, Lh}.
En algunas realizaciones, cuando las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara frontal 201 detectan la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 respectivamente, y las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara posterior 202 detectan la tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 respectivamente, el procesador 310 puede configurarse para seleccionar un máximo de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como una intensidad de iluminación frontal Lq, para obtener un valor medio de la tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 como una intensidad de iluminación posterior Lh, y para seleccionar un máximo de la intensidad de iluminación delantera y la intensidad de iluminación posterior como la intensidad de iluminación final Lf, es decir, Lq= Max{L1, L2}, Lh= (L3+L4)/2, Lf= Max{Lq, Lh}.
En algunas realizaciones, cuando las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara frontal 201 detectan la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 respectivamente, y las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara posterior 202 detectan la tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 respectivamente, el procesador 310 puede configurarse para obtener un valor medio de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como una intensidad de iluminación frontal Lq, para seleccionar un máximo de tercera intensidad de iluminación L3 y la cuarta intensidad de iluminación L4 como una intensidad de iluminación posterior Lh, y para seleccionar un máximo de la intensidad de iluminación delantera y la intensidad de iluminación posterior como la intensidad de iluminación final Lf, es decir, Lq= (L1+L2)/2, Lh= Max{L3, L4}, Lf= Max{Lq, Lh}.
En consecuencia, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con la intensidad de iluminación final Lf. La intensidad de iluminación final Lf para controlar el brillo de la pantalla de visualización 320 puede establecerse de acuerdo con situaciones reales. El procesador 310 puede usar la intensidad de iluminación final Lf obtenida en cualquiera de las realizaciones anteriores para controlar el brillo de la pantalla de visualización 320 en cualquier caso.
En algunas realizaciones, cuando las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara frontal 201 detectan una primera intensidad de iluminación L1 y una segunda intensidad de iluminación L2 respectivamente, y la región de intersección 12 de una matriz de píxeles 10 en el conjunto de cámara posterior 202 detecta una tercera intensidad de iluminación L3, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con la primera intensidad de iluminación L1, la segunda intensidad de iluminación L2 y la tercera intensidad de iluminación L3.
En algunas realizaciones, el procesador 310 puede configurarse para seleccionar un máximo de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como la intensidad de iluminación frontal Lq, y para seleccionar un máximo de la intensidad de iluminación frontal Lq y la tercera intensidad de iluminación L3 como la intensidad de iluminación final Lf, es decir, Lq= Max{L1, L2}, Lf= Max{Lq, L3}.
En algunas realizaciones, el procesador 310 puede configurarse para obtener un valor medio de la primera intensidad de iluminación L1 y la segunda intensidad de iluminación L2 como la intensidad de iluminación frontal Lq, y para seleccionar un máximo de la intensidad de iluminación frontal Lq y la tercera intensidad de iluminación L3 como la intensidad de iluminación final Lf, es decir, Lq= (L1+L2)/2, Lf= Max{Lq, L3}.
En consecuencia, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con la intensidad de iluminación final Lf. La intensidad de iluminación final Lf para controlar el brillo de la pantalla de visualización 320 puede establecerse de acuerdo con situaciones reales. El procesador 310 puede usar la intensidad de iluminación final Lf obtenida en cualquiera de las realizaciones anteriores para controlar el brillo de la pantalla de visualización 320 en cualquier caso.
En algunas realizaciones, cuando la región de intersección 12 de una matriz de píxeles 10 en el conjunto de cámara frontal 201 detecta una primera intensidad de iluminación L1, y las regiones de intersección 12 de dos matrices de píxeles 10 en el conjunto de cámara posterior 202 detectan una segunda intensidad de iluminación L2 y una tercera intensidad de iluminación L3 respectivamente, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con la primera intensidad de iluminación L1, la segunda intensidad de iluminación L2 y la tercera intensidad de iluminación L3.
En algunas realizaciones, el procesador 310 puede configurarse para seleccionar un máximo de la segunda intensidad de iluminación L2 y la tercera intensidad de iluminación L3 como la intensidad de iluminación posterior Lh, y para seleccionar un máximo de la intensidad de iluminación posterior Lh y la primera intensidad de iluminación L1 como la intensidad de iluminación final Lf, es decir, Lh= Max{L2, L3}, Lf= Max{Lh, L1}.
En algunas realizaciones, el procesador 310 puede configurarse para obtener un valor medio de la segunda intensidad de iluminación L2 y la tercera intensidad de iluminación L3 como la intensidad de iluminación posterior Lh, y para seleccionar un máximo de la intensidad de iluminación posterior Lh y la primera intensidad de iluminación L1 como la intensidad de iluminación final Lf, es decir, Lh= (L2+L3)/2, Lf= Max{Lh, L1}.
En consecuencia, el procesador 310 puede controlar el brillo de la pantalla de visualización 320 de acuerdo con la intensidad de iluminación final Lf. La intensidad de iluminación final Lf para controlar el brillo de la pantalla de visualización 320 puede establecerse de acuerdo con situaciones reales. El procesador 310 puede usar la intensidad de iluminación final Lf obtenida en cualquiera de las realizaciones anteriores para controlar el brillo de la pantalla de visualización 320 en cualquier caso.
Con referencia a las Figuras 11-15, en algunas realizaciones, el dispositivo electrónico 300 incluye además un único conjunto de cámara diferente 400. El único conjunto de cámara diferente 400 incluye un sensor de imagen 410. El sensor de imagen 410 incluye una matriz de píxeles 412 y un circuito de control 414. La matriz de píxeles 412 del sensor de imagen 410 incluye una pluralidad de píxeles de fila y una pluralidad de píxeles de columna. El circuito de control 414 del sensor de imagen 410 está configurado para controlar el sensor de imagen 410 para que funcione en el modo de obtención de imágenes o en el modo de detección de luz. El circuito de control 414 del sensor de imagen 410 está configurado además para recibir una instrucción de detección de luz para controlar una región de intersección 416 de una parte de píxeles de fila y una parte de píxeles de columna en la matriz de píxeles 412 del sensor de imagen 410 para detectar una intensidad de iluminación, para permitir que el sensor de imagen 410 funcione en el modo de detección de luz, y para recibir una instrucción de obtención de imágenes para controlar la matriz de píxeles 412 del sensor de imagen 410 para adquirir una imagen, a fin de permitir que el sensor de imagen 410 funcione en el modo de obtención de imágenes.
El sensor de imagen 410 es esencialmente el mismo que el sensor de imagen 100. La descripción del sensor de imagen 100 es adecuada para el sensor de imagen 410. Por ejemplo, la región de intersección 416 del sensor de imagen 410 puede estar ubicada en un centro de la matriz de píxeles 412 del sensor de imagen 410. Por lo tanto, con respecto a las partes no mencionadas del sensor de imagen 410, puede hacerse referencia a la descripción de las del sensor de imagen 100, que no se describen en la presente memoria.
Además, en algunas realizaciones, el conjunto de cámara diferente 400 incluye además una placa de circuito 420, un filtro 430 y una lente 440. El sensor de imagen 410 está dispuesto en la placa de circuito 420 de los diferentes conjuntos de cámara 400. El filtro 430 de los diferentes conjuntos de cámara 400 está dispuesto encima del sensor de imagen 410. La lente 440 del conjunto de cámara diferente 400 está dispuesta arriba en el filtro 430.
En algunas realizaciones, el dispositivo electrónico 300 incluye un conjunto de cámara única 200 configurado como el conjunto de cámara frontal. El conjunto de cámara diferente 400 está configurado como el conjunto de cámara posterior. En otra realización, el dispositivo electrónico 300 incluye un conjunto de cámara única 200 configurado como el conjunto de cámara posterior, y el conjunto de cámara diferente 400 está configurado como el conjunto de cámara frontal, como se ilustra en la figura 13.
El dispositivo electrónico 300 incluye además una batería, un circuito de alimentación y una memoria, etc. La batería está configurada para suministrar energía para el dispositivo electrónico 300. El circuito de suministro de energía está acoplado a la batería y configurado para suministrar energía para el dispositivo electrónico 300. La memoria está configurada para almacenar información de datos, como el código del programa.
Además, los términos "primero" y "segundo" solo se usan para la descripción y no pueden verse como indicativos o implicados de importancia relativa o al indicar o implicar el número de las características técnicas indicadas. Por lo tanto, las características definidas con "primero" y "segundo" pueden comprender o implicar al menos una de estas características. En la descripción de la presente divulgación, "una pluralidad de" significa dos o más de dos, a menos que se especifique lo contrario.
En la presente invención, a menos que se especifique o se limite de otro modo, los términos "montado", "conectado", "acoplado", "fijo" y similares se usan ampliamente, y pueden ser, por ejemplo, conexiones fijas, conexiones desmontables o conexiones integrales; también pueden ser conexiones mecánicas o eléctricas; también pueden ser conexiones directas o conexiones indirectas a través de estructuras intermedias; también pueden ser comunicaciones internas de dos elementos, que pueden entender los expertos en la técnica de acuerdo con situaciones específicas. Se proporcionan diversas realizaciones y ejemplos en la siguiente descripción para implementar diferentes estructuras de la presente divulgación. Para simplificar la presente divulgación, se describirán ciertos elementos y ajustes. Sin embargo, estos elementos y ajustes son solo a modo de ejemplo y no pretenden limitar la presente divulgación. Además, los números de referencia pueden repetirse en diferentes ejemplos en la presente divulgación. Esta repetición tiene el propósito de simplificación y claridad y no se refiere a relaciones entre diferentes realizaciones y/o ajustes. Además, se proporcionan ejemplos de diferentes procesos y materiales en la presente divulgación. Sin embargo, los expertos en la técnica apreciarán que también pueden aplicarse otros procesos y/o materiales.
La referencia a lo largo de esta memoria descriptiva a "una realización", "algunas realizaciones", "un ejemplo", "un ejemplo específico" o "algunos ejemplos" significa que una funcionalidad, estructura, material o característica particular descrita en relación con la realización o se incluye un ejemplo en al menos una realización o ejemplo de la presente divulgación. En esta memoria descriptiva, las descripciones ejemplares de los términos mencionados no se refieren necesariamente a la misma realización o ejemplo. Además, las funcionalidades, estructuras, materiales o características particulares pueden combinarse de cualquier manera adecuada en una o más realizaciones o ejemplos. Además, los expertos en la técnica podrían combinar diferentes realizaciones o diferentes características en realizaciones o ejemplos descritos en la presente divulgación.
Puede entenderse que cualquier proceso o procedimiento descrito en un diagrama de flujo o descrito en la presente memoria de otras maneras incluye uno o más módulos, segmentos o porciones de códigos de instrucciones ejecutables para lograr funciones o pasos lógicos específicos en el proceso, y el ámbito de una realización preferida de la presente divulgación incluye otras implementaciones, en el que el orden de ejecución puede diferir del que se representa o discute, incluso de acuerdo con la función involucrada, al ejecutar concurrentemente o con concurrencia parcial o en el orden contrario para realizar la función, lo que debe entenderse por los expertos en la materia.
La lógica y/o el paso descritos en otras maneras en la presente memoria o que se muestran en el diagrama de flujo, por ejemplo, una tabla de secuencia particular de instrucciones ejecutables para realizar la función lógica, puede lograrse específicamente en cualquier medio legible por ordenador para ser utilizado por el sistema de ejecución de instrucciones, dispositivo o equipo (tal como el sistema basado en computadoras, el sistema que comprende procesadores u otros sistemas capaces de adquirir la instrucción del sistema de ejecución de instrucciones, dispositivo y equipo y ejecutar la instrucción), o para usarse en combinación con el sistema de ejecución de instrucciones, dispositivo y equipo. En cuanto a la memoria descriptiva, "el medio legible por ordenador" puede ser cualquier dispositivo adaptable para incluir, almacenar, comunicar, propagar o transferir programas para ser utilizados por o en combinación con el sistema de ejecución de instrucciones, dispositivo o equipo. Los ejemplos más específicos del medio legible por ordenador comprenden, pero no se limitan a: una conexión electrónica (un dispositivo electrónico) con uno o más cables, una caja de ordenador portátil (un dispositivo magnético), una memoria de acceso aleatorio (RAM), una memoria de solo lectura (ROM), una memoria de solo lectura programable y borrable (EPROM o memoria flash), un dispositivo de fibra óptica y una memoria portátil de solo lectura de disco compacto (CDROM). Además, el medio legible por ordenador puede ser incluso un papel u otro medio apropiado capaz de imprimir programas sobre los mismos, esto es porque, por ejemplo, el papel u otro medio apropiado puede escanearse ópticamente y luego editarse, descifrarse o procesarse con otros procedimientos cuando sea necesario para obtener los programas de manera eléctrica, y luego los programas pueden almacenarse en las memorias del ordenador.
Debe entenderse que cada parte de la presente divulgación puede realizarse mediante hardware, software, firmware o su combinación. En las realizaciones anteriores, el software o firmware almacenado en la memoria puede ejecutar una pluralidad de pasos o procedimientos y ejecutarlos mediante el sistema de ejecución de instrucciones apropiado. Por ejemplo, si se realiza mediante el hardware, del mismo modo que en otra realización, los pasos o procedimientos pueden realizarse mediante una o una combinación de las siguientes técnicas conocidas en la técnica: un circuito lógico discreto que tiene un circuito de compuerta lógica para realizar una función lógica de una señal de datos, un circuito integrado de aplicación específica que tiene un circuito de compuerta lógica de combinación apropiada, una matriz de compuertas programables (PGA), una matriz de compuertas programables de campo (FPGA), etc.
Los expertos en la técnica comprenderán que todos o parte de los pasos en el procedimiento de ejemplo anterior para la presente divulgación pueden lograrse al ordenar al hardware relacionado con programas, los programas pueden almacenarse en un medio de almacenamiento legible por ordenador y los programas comprenden uno o una combinación de los pasos en las realizaciones del procedimiento de la presente divulgación cuando se ejecuta en un ordenador.
Además, cada celula de la función de las realizaciones de la presente divulgación puede integrarse en un módulo de procesamiento, o estas celulas pueden ser una existencia física separada, o dos o más celulas están integradas en un módulo de procesamiento. El módulo integrado puede realizarse en forma de hardware o en forma de módulos de función de software. Cuando el módulo integrado se realiza en forma de módulo de función de software y se vende o se utiliza como un producto independiente, el módulo integrado puede almacenarse en un medio de almacenamiento legible por ordenador.
El medio de almacenamiento mencionado anteriormente puede ser memorias de solo lectura, discos magnéticos, CD, etc.

Claims (14)

REIVINDICACIONES
1. Un conjunto de cámara (200), caracterizado en que comprende al menos dos conjuntos de lentes (11) que tienen un sensor de imagen (100), estando un conjunto de lentes configurado para detectar un brillo ambiental actual que se utiliza para controlar el tiempo de exposición de cada componente del sensor de luz correspondiente a cada píxel en otro conjunto de lentes configurado para obtener una imagen, en el que cada sensor de imagen (100) comprende:
una matriz de píxeles (10), que comprende una pluralidad de píxeles de fila y una pluralidad de píxeles de columna, en las que cada píxel está asociado con un solo interruptor; y
un circuito de control (20), configurado para:
controlar cada píxel en la matriz de píxeles (10) para que funcione por separado al controlar el interruptor único que se activará o desactivará;
controlar el sensor de imagen (100) para que funcione en un modo de obtención de imágenes o en un modo de detección de luz;
recibir una instrucción de detección de luz para controlar una región de intersección (12) de una parte de píxeles de fila y una parte de píxeles de columna en la matriz de píxeles (10) para detectar una intensidad de iluminación, a fin de permitir que el sensor de imagen (100) funcione en el modo de detección de luz; y recibir una instrucción de obtención de imágenes para controlar la matriz de píxeles (10) para adquirir una imagen, a fin de permitir que el sensor de imagen (100) funcione en el modo de obtención de imágenes; en el que la región de intersección (12) es una región de intersección anular (12) que rodea un centro de la matriz de píxeles (10).
2. El conjunto de cámara (200) de acuerdo con la reivindicación 1, en el que la región de intersección anular (12) es centralmente simétrica alrededor del centro; y/o
la región de intersección anular (12) tiene la forma de un anillo circular y un anillo cuadrado.
3. El conjunto de cámara (200) de acuerdo con cualquiera de las reivindicaciones 1-2, en el que hay al menos dos regiones de intersección (12) en un sensor de imagen, las al menos dos regiones de intersección (12) están centradas alrededor de un centro de la matriz de píxeles (10) y uniformemente espaciadas.
4. El conjunto de cámara (200) de acuerdo con la reivindicación 3, en el que las al menos dos regiones de intersección (12) tienen básicamente la misma área.
5. El conjunto de cámara (200) de acuerdo con cualquiera de las reivindicaciones 1-4, en el que la región de intersección (12) está ubicada en un centro de la matriz de píxeles (10); y/o
una relación de un área de la región de intersección (12) a un área de la matriz de píxeles (10) varía de 0.1 a 0.4; y/o las regiones de intersección (12) en los dos sensores de imagen (100) están dispuestas a los lados de los respectivos sensores de imagen (100) separados entre sí.
6. El conjunto de cámara (200) de acuerdo con cualquiera de las reivindicaciones 1-5, en el que el conjunto de cámara (200) comprende un filtro (210) encima de cada sensor de imagen (100).
7. El conjunto de cámara (200) de acuerdo con la reivindicación 6, en el que el conjunto de cámara (200) comprende una lente (220) encima de cada filtro (210), un eje óptico (222) de la lente (220) está básicamente alineado con un centro del sensor de imagen (100).
8. Un dispositivo electrónico móvil (300), caracterizado en que comprende un conjunto de cámara (200) de acuerdo con cualquiera de las reivindicaciones 1-7 y un procesador (310); en el que,
el procesador (310) está configurado para generar la instrucción de detección de luz y la instrucción de obtención de imágenes.
9. El dispositivo electrónico móvil (300) de acuerdo con la reivindicación 8, en el que el dispositivo electrónico móvil (300) comprende un conjunto de cámara (200) configurado como un conjunto de cámara frontal (201);
en el que cuando las regiones de intersección (12) en dos matrices de píxeles (10) del conjunto de cámara (200) detectan una primera intensidad de iluminación y una segunda intensidad de iluminación respectivamente, el procesador (310) está configurado para:
determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación final; u
obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación final.
10. El dispositivo electrónico móvil (300) de acuerdo con la reivindicación 8, en el que el dispositivo electrónico móvil (300) comprende al menos dos conjuntos de cámara (200), uno de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara frontal (201) y otro de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara posterior (202);
en el que cuando las regiones de intersección (12) en dos matrices de píxeles (10) del conjunto de cámara frontal (201) detectan una primera intensidad de iluminación y una segunda intensidad de iluminación respectivamente, y las regiones de intersección (12) en dos matrices de píxeles (10) del conjunto de cámara posterior (202) detectan una tercera intensidad de iluminación y una cuarta intensidad de iluminación respectivamente, el procesador (310) está configurado para:
determinar un máximo de la primera intensidad de iluminación, la segunda intensidad de iluminación, la tercera intensidad de iluminación y la cuarta intensidad de iluminación como una intensidad de iluminación final; u obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como intensidad de iluminación frontal, obtener un valor medio de la tercera intensidad de iluminación y la cuarta intensidad de iluminación como intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como intensidad de iluminación final; o determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como intensidad de iluminación frontal, obtener un valor medio de la tercera intensidad de iluminación y la cuarta intensidad de iluminación como intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como intensidad de iluminación final; u
obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como intensidad de iluminación frontal, determinar un máximo de la tercera intensidad de iluminación y la cuarta intensidad de iluminación como intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación frontal y la intensidad de iluminación posterior como intensidad de iluminación final.
11. El dispositivo electrónico móvil (300) de acuerdo con la reivindicación 8, en el que el dispositivo electrónico móvil (300) comprende al menos dos conjuntos de cámara (200), uno de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara frontal (201) y otro de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara posterior (202);
en el que cuando una región de intersección (12) en una matriz de píxeles (10) del conjunto de cámara frontal (201) detecta una primera intensidad de iluminación, y una región de intersección (12) en una matriz de píxeles (10) del conjunto de cámara posterior (202) detecta una segunda intensidad de iluminación, el procesador (310) está configurado para:
determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación final.
12. El dispositivo electrónico móvil (300) de acuerdo con la reivindicación 8, en el que el dispositivo electrónico móvil (300) comprende al menos dos conjuntos de cámara (200), uno de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara frontal (201) y otro de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara posterior (202);
en el que cuando las regiones de intersección (12) en dos matrices de píxeles (10) del conjunto de cámara frontal (201) detectan una primera intensidad de iluminación y una segunda intensidad de iluminación respectivamente, y una región de intersección (12) en una matriz de píxeles (10) del conjunto de cámara posterior (202) detecta una tercera intensidad de iluminación, el procesador (310) está configurado para:
determinar un máximo de la primera intensidad de iluminación y la segunda intensidad de iluminación como una intensidad de iluminación frontal, y determinar un máximo de la intensidad de iluminación frontal y la tercera intensidad de iluminación como una intensidad de iluminación final; u
obtener un valor medio de la primera intensidad de iluminación y la segunda intensidad de iluminación como intensidad de iluminación frontal, y determinar un máximo de la intensidad de iluminación frontal y la tercera intensidad de iluminación como intensidad de iluminación final.
13. El dispositivo electrónico móvil (300) de acuerdo con la reivindicación 8, en el que el dispositivo electrónico móvil (300) comprende al menos dos conjuntos de cámara (200), uno de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara frontal (201) y otro de los al menos dos conjuntos de cámara (200) está configurado como un conjunto de cámara posterior (202);
en el que cuando una región de intersección (12) en una matriz de píxeles (10) del conjunto de cámara frontal (201) detecta una primera intensidad de iluminación, y regiones de intersección (12) en dos matrices de píxeles (10) del conjunto de cámara posterior (202) detectan una segunda intensidad de iluminación y una tercera intensidad de iluminación respectivamente, el procesador (310) está configurado para:
determinar un máximo de la segunda intensidad de iluminación y la tercera intensidad de iluminación como una intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación posterior y la primera intensidad de iluminación como una intensidad de iluminación final; u
obtener un valor medio de la segunda intensidad de iluminación y la tercera intensidad de iluminación como intensidad de iluminación posterior, y determinar un máximo de la intensidad de iluminación posterior y la primera intensidad de iluminación como intensidad de iluminación final.
14. El dispositivo electrónico móvil (300) de acuerdo con cualquiera de las reivindicaciones 8-13, que comprende otro conjunto de cámara (400), en el que el otro conjunto de cámara (400) comprende un sensor de imagen (410) que comprende:
una matriz de píxeles (412), que comprende una pluralidad de píxeles de fila y una pluralidad de píxeles de columna; y
un circuito de control (414), configurado para:
controlar el sensor de imagen (410) para que funcione en un modo de obtención de imágenes o en una región de detección de luz;
recibir una instrucción de detección de luz para controlar una región de intersección (416) de una parte de píxeles de fila y una parte de píxeles de columna para detectar una intensidad de iluminación, a fin de permitir que el sensor de imagen (410) funcione en el modo de detección de luz; y
recibir una instrucción de obtención de imágenes para controlar la matriz de píxeles (412) del sensor de imagen (410) para adquirir una imagen, a fin de permitir que el sensor de imagen (410) funcione en el modo de obtención de imágenes.
ES18169883T 2017-05-03 2018-04-27 Conjunto de cámara y dispositivo electrónico móvil Active ES2761935T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710305887.9A CN107222664B (zh) 2017-05-03 2017-05-03 相机模组及电子装置

Publications (1)

Publication Number Publication Date
ES2761935T3 true ES2761935T3 (es) 2020-05-21

Family

ID=59943991

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18169883T Active ES2761935T3 (es) 2017-05-03 2018-04-27 Conjunto de cámara y dispositivo electrónico móvil

Country Status (11)

Country Link
US (1) US10554869B2 (es)
EP (1) EP3399287B8 (es)
JP (1) JP6801114B2 (es)
KR (1) KR20190077576A (es)
CN (1) CN107222664B (es)
AU (1) AU2018263023B2 (es)
CA (1) CA3050024C (es)
ES (1) ES2761935T3 (es)
IL (1) IL268142B (es)
SG (1) SG11201906432XA (es)
WO (1) WO2018202051A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135341B (zh) * 2017-05-03 2019-12-27 Oppo广东移动通信有限公司 影像传感器、相机模组及电子装置
CN107426471B (zh) * 2017-05-03 2021-02-05 Oppo广东移动通信有限公司 相机模组和电子装置
CN107222664B (zh) * 2017-05-03 2020-03-06 Oppo广东移动通信有限公司 相机模组及电子装置
CN107979698B (zh) * 2017-11-22 2020-05-12 Oppo广东移动通信有限公司 环境光强度检测方法、装置、存储介质及电子设备
CN113923422B (zh) * 2018-04-04 2023-06-30 华为技术有限公司 一种环境光检测的方法及终端
CN108391038B (zh) 2018-04-24 2019-06-04 Oppo广东移动通信有限公司 电子装置及其摄像头组件
EP3820122B1 (en) * 2018-07-16 2022-02-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Electronic device
CN109067942B (zh) 2018-08-03 2021-03-16 Oppo广东移动通信有限公司 显示屏和具有其的电子装置
USD891387S1 (en) * 2019-01-30 2020-07-28 Lg Electronics Inc. Cellular phone
CN110166593B (zh) * 2019-05-20 2020-12-22 Oppo广东移动通信有限公司 摄像头模组及电子设备
CN111090104B (zh) * 2019-12-26 2022-11-11 维沃移动通信有限公司 成像处理方法和电子设备
KR20220135986A (ko) * 2021-03-31 2022-10-07 삼성전자주식회사 카메라를 이용한 조도 측정 방법 및 이를 지원하는 전자 장치
CN117120816A (zh) 2021-03-31 2023-11-24 三星电子株式会社 使用相机的照度测量的方法和支持该方法的电子装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015597A (ja) * 2002-06-10 2004-01-15 Minolta Co Ltd 電子カメラ
US7646405B2 (en) * 2002-07-11 2010-01-12 Seiko Epson Corporation Output image adjustment of image data
JP2004241822A (ja) * 2003-02-03 2004-08-26 Konica Minolta Holdings Inc 携帯端末
JP4270001B2 (ja) * 2004-03-29 2009-05-27 日本電気株式会社 携帯端末装置
JP4943695B2 (ja) * 2005-11-21 2012-05-30 富士フイルム株式会社 多焦点カメラの撮影光学系
US20080122821A1 (en) * 2006-11-24 2008-05-29 Sony Ericsson Mobile Communications Ab Luminance control for a display
US7683305B2 (en) * 2007-09-27 2010-03-23 Aptina Imaging Corporation Method and apparatus for ambient light detection
CN101582985B (zh) 2008-12-09 2011-07-27 王玉龙 数码触景技术相机
US20120092541A1 (en) * 2010-10-19 2012-04-19 Nokia Corporation Method and apparatus for ambient light measurement system
KR20120067050A (ko) 2010-12-15 2012-06-25 엘지이노텍 주식회사 카메라 모듈 및 그의 마운트 시프트 계산 방법
US20130076712A1 (en) * 2011-09-22 2013-03-28 Dong Zheng Distributed Light Sensors for Ambient Light Detection
US20140063288A1 (en) * 2012-08-30 2014-03-06 Pantech Co., Ltd. Imaging apparatus, electronic device and method providing exposure compensation
CN104410787B (zh) 2012-12-28 2018-12-04 努比亚技术有限公司 一种摄像装置和摄像方法
US9607571B2 (en) * 2013-08-07 2017-03-28 Beijing Lenovo Software Ltd. Information processing method and electronic device
CN104517585A (zh) * 2013-09-29 2015-04-15 联想(北京)有限公司 调整显示屏幕的方法和装置
JP6270854B2 (ja) * 2013-08-30 2018-01-31 マクセル株式会社 情報処理装置、情報処理方法、及び、プログラム
US9277144B2 (en) * 2014-03-12 2016-03-01 Apple Inc. System and method for estimating an ambient light condition using an image sensor and field-of-view compensation
US9232150B2 (en) * 2014-03-12 2016-01-05 Apple Inc. System and method for estimating an ambient light condition using an image sensor
CN104780316B (zh) 2015-04-14 2017-09-29 广东欧珀移动通信有限公司 一种相机启动检测方法和相机启动检测装置
CN106303273B (zh) * 2016-07-29 2019-08-30 深圳市中兴移动软件有限公司 一种移动终端及其拍照控制方法
CN107426470B (zh) * 2017-05-03 2021-02-05 Oppo广东移动通信有限公司 相机模组和电子装置
CN107222664B (zh) 2017-05-03 2020-03-06 Oppo广东移动通信有限公司 相机模组及电子装置
CN107426471B (zh) * 2017-05-03 2021-02-05 Oppo广东移动通信有限公司 相机模组和电子装置
KR20190008610A (ko) * 2017-07-17 2019-01-25 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Also Published As

Publication number Publication date
KR20190077576A (ko) 2019-07-03
US20180324342A1 (en) 2018-11-08
WO2018202051A1 (en) 2018-11-08
CA3050024A1 (en) 2018-11-08
AU2018263023B2 (en) 2020-08-06
AU2018263023A1 (en) 2019-07-25
EP3399287B8 (en) 2019-12-25
CN107222664B (zh) 2020-03-06
US10554869B2 (en) 2020-02-04
EP3399287B1 (en) 2019-11-20
IL268142B (en) 2021-03-25
JP6801114B2 (ja) 2020-12-16
CN107222664A (zh) 2017-09-29
JP2020506587A (ja) 2020-02-27
SG11201906432XA (en) 2019-08-27
CA3050024C (en) 2021-07-27
EP3399287A1 (en) 2018-11-07
IL268142A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
ES2761935T3 (es) Conjunto de cámara y dispositivo electrónico móvil
KR102173852B1 (ko) 카메라 어셈블리 및 모바일 전자장치
US11019271B2 (en) Image sensor, camera module and electronic device
AU2018263022B2 (en) Camera assembly and mobile electronic device
ES2731695T3 (es) Método de control y aparato electrónico
WO2018201843A1 (zh) 影像传感器、相机模组及电子装置
ES2752655T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
WO2018201876A1 (zh) 影像传感器、相机模组和电子装置
TW202136825A (zh) 攝像裝置、及攝像方法