ES2731695T3 - Método de control y aparato electrónico - Google Patents

Método de control y aparato electrónico Download PDF

Info

Publication number
ES2731695T3
ES2731695T3 ES17204187T ES17204187T ES2731695T3 ES 2731695 T3 ES2731695 T3 ES 2731695T3 ES 17204187 T ES17204187 T ES 17204187T ES 17204187 T ES17204187 T ES 17204187T ES 2731695 T3 ES2731695 T3 ES 2731695T3
Authority
ES
Spain
Prior art keywords
image
pixel
pixels
color
photosensitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17204187T
Other languages
English (en)
Inventor
Yi Wei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2731695T3 publication Critical patent/ES2731695T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

Un método de control para controlar un aparato (100) electrónico que comprende un sensor (21) de imagen y una pantalla (30) táctil, comprendiendo el sensor (21) de imagen una matriz (212) de grupo de píxeles fotosensibles y una matriz (211) de unidad de filtro de color, comprendiendo la matriz (212) de grupo de píxeles fotosensibles una pluralidad de grupos (212a) de píxeles fotosensibles comprendiendo cada uno una pluralidad de píxeles (2121) fotosensibles adyacentes entre sí, y comprendiendo la matriz (211) de unidad de filtro de color una pluralidad de unidades (211a) de filtro de color dispuestas en un patrón de matriz de color predeterminado, cubriendo cada unidad de filtro de color un correspondiente grupo (212a) de píxeles fotosensibles y teniendo un color uniforme, comprendiendo el método de control: controlar el sensor (21) de imagen para emitir una imagen (1512) fusionada y una imagen (1502) de bloque de color de una escena, en el que la imagen (800) fusionada comprende una pluralidad de píxeles fusionados dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado, en el que la pluralidad de píxeles (2121) fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz (212) de grupo de píxeles fotosensibles se fusionan en el correspondiente píxel fotosensible fusionado; y en el que la imagen (900) de bloque de color comprende una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de grupos de píxeles de imagen comprende una pluralidad de píxeles originales que tienen un mismo color y adyacentes entre sí, en el que cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles (2121) fotosensibles; usar un tercer método de interpolación para convertir la imagen (1512) fusionada en una imagen (2001) de previsualización; controlar la pantalla (30) táctil para visualizar la imagen (2001) de previsualización; definir una primera región (2008) predeterminada basándose en una entrada de usuario a la pantalla (30) táctil; convertir la imagen (1502) de bloque de color en una primera imagen (1506) de imitación y cubrir la imagen (1512) fusionada en una imagen (1516) restaurada, en el que en una segunda región (1504) predeterminada, la imagen (1502) de bloque de color se convierte usando un primer método de interpolación, y la segunda región (1504) predeterminada corresponde a la primera región (2008; o 2504) predeterminada; en el que la primera imagen (1506) de imitación comprende una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y en el que un número de la pluralidad de píxeles de imitación es el mismo que el número de la pluralidad de píxeles (2121) fotosensibles; en el que en una tercera región (1514) predeterminada, la imagen (1512) fusionada se convierte usando un segundo método de interpolación, y la tercera región (1514) predeterminada corresponde a una primera región fuera de la primera región (2008; o 2504) predeterminada; en el que la imagen (1516) restaurada comprende una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado y los mismos en número de píxeles que la pluralidad de píxeles (2121) fotosensibles; y obtener una segunda imagen (1522) de imitación sintetizando la primera imagen (1506) de imitación y la imagen (1516) restaurada.

Description

DESCRIPCIÓN
Método de control y aparato electrónico
Referencia cruzada a solicitud relacionada
Esta solicitud reivindica prioridad a la Solicitud china con N.° 201611078974.7, presentada el 29 de noviembre de 2016.
Campo de la divulgación
La presente divulgación se refiere a un campo técnico del procesamiento de imágenes, y más específicamente, la presente divulgación se refiere a un método de control y a un aparato electrónico.
Antecedentes de la divulgación
Los sensores de imagen actuales incluyen una matriz de grupo de píxeles y una matriz de unidad de filtro de color dispuesta sobre la matriz de grupo de píxeles. Cada unidad de filtro de color en la matriz de unidad de filtro de color cubre un correspondiente grupo de píxeles. Cada grupo de píxeles incluye una pluralidad de píxeles fotosensibles. En la operación, los sensores de imagen pueden controlarse para exponerse a la luz y emitir una imagen fusionada. La imagen fusionada incluye una matriz de píxeles fusionados. La pluralidad de píxeles fotosensibles de un mismo grupo de píxeles están fusionados en un píxel fotosensible fusionado para su emisión. De esta manera, puede aumentarse una relación de señal a ruido de la imagen fusionada. Sin embargo, se reduce la resolución de la imagen fusionada. Los sensores de imagen pueden controlarse también para exponerse a la luz y emitir una imagen de bloque de color de un número de píxeles superior. La imagen de bloque de color incluye una matriz de píxeles original. Cada píxel fotosensible emite un correspondiente píxel original. Sin embargo, debido a que una pluralidad de píxeles originales que corresponden a una misma unidad de filtro de color tienen un mismo color, aún no se ve mejorada la resolución de la imagen de bloque de color. Por lo tanto, la imagen de bloque de color del número de píxeles superior necesita convertirse en una imagen de imitación del número de píxeles superior a través de interpolación. La imagen de imitación puede incluir una pluralidad de píxeles de imitación dispuestos en un patrón de Bayer. La imagen de imitación puede convertirse en una imagen de color verdadero. A través de la interpolación, puede mejorarse la claridad de la imagen de color verdadero, sin embargo, a costa de recursos y consumo de tiempo más elevados, que da como resultado un tiempo de toma de imagen más largo y una pobre experiencia de usuario.
La Publicación de Solicitud alemana N.° 10 2011 100350 A1 desvela un sensor de imagen que emite una primera imagen que incluye una primera región emitida por grupos de elementos de sensor seleccionados del sensor de imagen, y una segunda región emitida por grupos restantes de los elementos de sensor del sensor de imagen. Los grupos seleccionados de los elementos de sensor del sensor de imagen realizan evaluación individual, de modo que la primera región tiene una resolución espacial superior. Los grupos restantes de los elementos de sensor del sensor de imagen realizan agrupamiento de modo que se combinan elementos de sensor adyacentes, y la segunda región tiene una resolución espacial inferior. Sin embargo, no se realiza la visualización de una imagen de previsualización en una pantalla táctil para definir la primera región basándose en entrada de usuario a la pantalla táctil, en el que la imagen de previsualización se convierte de una segunda imagen capturada por el sensor de imagen usando completamente agrupamiento.
Sumario de la divulgación
La presente divulgación tiene como objetivo resolver uno de los problemas técnicos en la tecnología pertinente al menos hasta algún grado. Por lo tanto, la presente divulgación proporciona un método de control como se define en la reivindicación 1 y un aparato electrónico como se define en la reivindicación 8.
De acuerdo con una realización de la presente divulgación, un método de control controla un aparato electrónico. El aparato electrónico incluye un sensor de imagen y una pantalla táctil. El sensor de imagen incluye una matriz de grupo de píxeles fotosensibles y una matriz de unidad de filtro de color. La matriz de grupo de píxeles fotosensibles incluye una pluralidad de grupos de píxeles fotosensibles incluyendo cada uno una pluralidad de píxeles fotosensibles adyacentes entre sí, y la matriz de unidad de filtro de color incluye una pluralidad de unidades de filtro de color cubriendo cada una un correspondiente grupo de píxeles fotosensibles y teniendo un color uniforme.
El método de control incluye: controlar el sensor de imagen para emitir una imagen fusionada y una imagen de bloque de color de correspondientes escenas de manera que ha de conseguirse una manera de compartición de información, en el que la imagen fusionada incluye una pluralidad de píxeles fusionados dispuestos en un patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado, en el que la pluralidad de píxeles fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz de grupo de píxeles fotosensibles están fusionados en el correspondiente píxel fotosensible fusionado; y en el que la imagen de bloque de color incluye una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de grupos de píxeles de imagen incluye una pluralidad de píxeles originales que tienen un mismo color y adyacentes entre sí, en el que cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles fotosensibles;
usar un tercer método de interpolación para convertir la imagen fusionada en una imagen de previsualización; controlar la pantalla táctil para visualizar la imagen de previsualización;
definir una primera región predeterminada basándose en la entrada de usuario a la pantalla táctil;
convertir la imagen de bloque de color en una primera imagen de imitación y convertir la imagen fusionada en una imagen restaurada, en el que en una segunda región predeterminada, la imagen de bloque de color se convierte usando un primer método de interpolación, y la segunda región predeterminada corresponde a la primera región predeterminada, para conseguir la manera de compartición de información; en el que la primera imagen de imitación incluye una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y en el que un número de la pluralidad de píxeles de imitación es el mismo que el número de la pluralidad de píxeles fotosensibles; en el que en una tercera región predeterminada, la imagen fusionada se convierte usando un segundo método de interpolación, y la tercera región predeterminada corresponde a una primera región fuera de la primera región predeterminada, para conseguir la manera de compartición de información; en el que la imagen restaurada incluye una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado y los mismos en número de píxeles que la pluralidad de píxeles fotosensibles; y
obtener una segunda imagen de imitación sintetizando la primera imagen de imitación y la imagen restaurada.
De acuerdo con una realización de la presente divulgación, un aparato electrónico incluye un sensor de imagen, una pantalla táctil, y un aparato de control. El sensor de imagen incluye una matriz de grupo de píxeles fotosensibles y una matriz de unidad de filtro de color. La matriz de grupo de píxeles fotosensibles incluye una pluralidad de grupos de píxeles fotosensibles incluyendo cada uno una pluralidad de píxeles fotosensibles adyacentes entre sí, y la matriz de unidad de filtro de color incluye una pluralidad de unidades de filtro de color cubriendo cada una un correspondiente grupo de píxeles fotosensibles y teniendo un color uniforme. El aparato de control incluye un módulo de emisión, un segundo módulo de conversión, un módulo de visualización, un primer módulo de procesamiento, un primer módulo de conversión, y un módulo de sintetización. El módulo de salida está configurado para controlar el sensor de imagen para emitir una imagen fusionada y una imagen de bloque de color de correspondientes escenas de manera que ha de conseguirse una manera de compartición de información. La imagen fusionada incluye una pluralidad de píxeles fusionados dispuestos en un patrón de matriz de color predeterminado. Cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado. La pluralidad de píxeles fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz de grupo de píxeles fotosensibles están fusionados en el correspondiente píxel fotosensible fusionado. La imagen de bloque de color incluye una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado. Cada uno de la pluralidad de grupos de píxeles de imagen incluye una pluralidad de píxeles originales que tienen un mismo color y son adyacentes entre sí. Cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles fotosensibles. El segundo módulo de conversión está configurado para usar un tercer método de interpolación para convertir la imagen fusionada en una imagen de previsualización. El módulo de visualización está configurado para controlar la pantalla táctil para visualizar la imagen de previsualización. El primer módulo de procesamiento está configurado para definir una primera región predeterminada basándose en la entrada de usuario a la pantalla táctil. El primer módulo de conversión está configurado para convertir la imagen de bloque de color en una primera imagen de imitación y convertir la imagen fusionada en una imagen restaurada. En una segunda región predeterminada, la imagen de bloque de color se convierte usando un primer método de interpolación, y la segunda región predeterminada corresponde a la primera región predeterminada, para conseguir la manera de compartición de información. La primera imagen de imitación incluye una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y los mismos en número de píxeles que la pluralidad de píxeles fotosensibles. En una tercera región predeterminada, la imagen fusionada se convierte usando un segundo método de interpolación, y la tercera región predeterminada corresponde a una primera región fuera de la primera región predeterminada, para conseguir la manera de compartición de información. La imagen restaurada incluye una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado y los mismos en número de píxeles que la pluralidad de píxeles fotosensibles. Un módulo de sintetización está configurado para obtener una segunda imagen de imitación sintetizando la primera imagen de imitación y la imagen restaurada.
Descripción de los dibujos
Los aspectos y ventajas de la presente divulgación se hacen evidentes y fáciles de entender a partir de la siguiente descripción de las realizaciones en conjunto con los dibujos adjuntos.
La Figura 1 es un diagrama de flujo esquemático de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 2 es un diagrama de flujo esquemático de un método de control de acuerdo con otra realización de la presente divulgación.
La Figura 3 es un diagrama de bloques funcional esquemático de un aparato de control de acuerdo con una realización de la presente divulgación.
La Figura 4 es un diagrama de bloques esquemático de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La Figura 5 es un diagrama de circuito esquemático de un grupo de píxeles fotosensibles del sensor de imagen de acuerdo con una realización de la presente divulgación.
La Figura 6 es un diagrama esquemático de una unidad de filtro de color de acuerdo con una realización de la presente divulgación.
La Figura 7 es un diagrama estructural esquemático de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La Figura 8 es un diagrama esquemático de un estado de una imagen fusionada de acuerdo con una realización de la presente divulgación.
La Figura 9 es un diagrama esquemático de un estado de una imagen de bloque de color de acuerdo con una realización de la presente divulgación.
La Figura 10 es un diagrama esquemático de un estado de una imagen de bloque de color y un estado de una primera imagen de imitación que ilustra un método de control de acuerdo con una realización de la presente divulgación.
La Figura 11 es un diagrama de flujo esquemático de una operación de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 12 es un diagrama de bloques funcional de un módulo de cálculo de acuerdo con una realización de la presente divulgación.
La Figura 13 es un diagrama de flujo esquemático de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 14 es un diagrama de bloques funcional esquemático de un aparato de control de acuerdo con una realización de la presente divulgación.
La Figura 15 es un diagrama esquemático de estados que ilustran síntesis de imágenes de acuerdo con una realización de la presente divulgación.
La Figura 16 es un diagrama de flujo esquemático de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 17 es un diagrama de bloques funcional de un módulo de definición de acuerdo con una realización de la presente divulgación.
La Figura 18 es un diagrama de flujo esquemático de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 19 es un diagrama de bloques funcional de un módulo de procesamiento de acuerdo con una realización de la presente divulgación.
La Figura 20 es un diagrama esquemático de estados que ilustran el método de control de acuerdo con una realización de la presente divulgación.
La Figura 21 es un diagrama de flujo esquemático de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 22 es un diagrama de bloques funcional de un módulo de procesamiento de acuerdo con una realización de la presente divulgación.
La Figura 23 es un diagrama de flujo esquemático de un método de control de acuerdo con una realización de la presente divulgación.
La Figura 24 es un diagrama de bloques funcional de una unidad de expansión de acuerdo con una realización de la presente divulgación.
La Figura 25 es un diagrama esquemático de estados que ilustran el método de control de acuerdo con una realización de la presente divulgación.
La Figura 26 es un diagrama de bloques funcional de un aparato electrónico de acuerdo con una realización de la presente divulgación.
Descripción detallada de las realizaciones
Las realizaciones de la presente divulgación se describen en detalle a continuación y se ilustran ejemplos de las realizaciones en los dibujos adjuntos, en los que las mismas o similares etiquetas a través de toda la presente divulgación representan correspondientes mismos elementos o similares o correspondientes elementos que tienen las mismas funciones o similares. La descripción de las realizaciones con referencia a los dibujos adjuntos a continuación es ejemplar, tiene como objeto ilustrar la presente divulgación, y no puede considerarse como limitaciones a la presente divulgación.
En las Figuras 1 y 2, en una realización, se proporciona un método de control para controlar un aparato electrónico. El aparato electrónico incluye un módulo de cámara. El módulo de cámara incluye un sensor de imagen. El sensor de imagen incluye una matriz de grupo de píxeles fotosensibles y una matriz de unidad de filtro de color dispuesta sobre la matriz de grupo de píxeles fotosensibles. Cada unidad de filtro de color cubre un correspondiente grupo de píxeles fotosensibles. la matriz de grupo de píxeles fotosensibles incluye una pluralidad de grupos de píxeles fotosensibles incluyendo cada uno una pluralidad de píxeles fotosensibles. El método de control incluye las siguientes operaciones.
En el bloque S11, controlar el sensor de imagen para emitir una imagen fusionada y una imagen de bloque de color de una misma escena. La imagen fusionada incluye una pluralidad de píxeles fusionados dispuestos en un patrón de matriz de color predeterminado. Cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado. La pluralidad de píxeles fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz de grupo de píxeles fotosensibles están fusionados en el correspondiente píxel fotosensible fusionado. La imagen de bloque de color incluye una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado. Cada uno de la pluralidad de grupos de píxeles de imagen incluye una pluralidad de píxeles originales que tienen un mismo color. Cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles fotosensibles.
En el bloque S12, definir una primera región predeterminada usando la imagen fusionada basándose en una entrada de usuario.
En el bloque S13, convertir la imagen de bloque de color en una primera imagen de imitación y convertir la imagen fusionada en una imagen restaurada. En una segunda región predeterminada, la imagen de bloque de color se convierte usando un primer método de interpolación, y la segunda región predeterminada corresponde a la primera región predeterminada. La primera imagen de imitación incluye una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y los mismos en número de píxeles que la pluralidad de píxeles fotosensibles. Es decir, la pluralidad de píxeles de imitación son los mismos en número de píxeles que la pluralidad de grupos de píxeles de imagen. En una tercera región predeterminada, la imagen fusionada se convierte usando un segundo método de interpolación, y la tercera región predeterminada corresponde a una primera región fuera de la primera región predeterminada. La imagen restaurada incluye una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado. Las complejidades del segundo método de interpolación son inferiores a aquellas del primer método de interpolación.
La pluralidad de píxeles de imitación incluye un píxel actual, y la pluralidad de píxeles originales de un primer grupo de píxeles de imagen de la pluralidad de grupos de píxeles de imagen incluye un píxel relacionado que corresponde a una posición del píxel actual. Convertir la imagen de bloque de color en la primera imagen de imitación y convertir la imagen fusionada en la imagen restaurada incluye las siguientes operaciones.
En el bloque S131, determinar si el píxel relacionado está localizado en la segunda región predeterminada.
En el bloque S133, cuando el píxel relacionado está localizado en la segunda región predeterminada, determinar si un color del píxel actual es el mismo que un color del píxel relacionado.
En el bloque S135, cuando el color del píxel actual es el mismo que el color del píxel relacionado, usar un valor de píxel del píxel relacionado como un valor de píxel del píxel actual.
En el bloque S137, cuando el color del píxel actual es diferente del color del píxel relacionado, usar valores de píxel de un grupo de píxeles relacionados que incluye una pluralidad de píxeles para calcular el valor de píxel del píxel actual a través del primer método de interpolación. Un color de la pluralidad de píxeles del grupo de píxeles relacionados es el mismo que el píxel actual, y la pluralidad de píxeles del grupo de píxeles relacionados están localizados en un primer conjunto de grupos de píxeles de imagen en la pluralidad de grupos de píxeles de imagen. El primer conjunto de grupos de píxeles de imagen vecino al primer grupo de píxeles de imagen.
En el bloque S139, cuando el píxel relacionado no está localizado en la segunda región predeterminada, convertir la imagen fusionada en la imagen restaurada a través del segundo método de interpolación.
En el bloque S14, obtener una segunda imagen de imitación sintetizando la primera imagen de imitación y la imagen restaurada.
Haciendo referencia a la Figura 3, el método de control, en una realización, puede implementarse por un aparato 10 de control.
En la Figura 26, el aparato 10 de control se usa para controlar un aparato 100 electrónico. El aparato 100 electrónico incluye un módulo 20 de cámara. El módulo 20 de cámara incluye un sensor 21 de imagen. El sensor 21 de imagen incluye una matriz de grupo de píxeles fotosensibles y una matriz de unidad de filtro de color dispuesta sobre la matriz de grupo de píxeles fotosensibles. Cada unidad de filtro de color cubre un correspondiente grupo de píxeles fotosensibles. la matriz de grupo de píxeles fotosensibles incluye una pluralidad de grupos de píxeles fotosensibles incluyendo cada uno una pluralidad de píxeles fotosensibles. En la Figura 3, el aparato 10 de control incluye un módulo 11 de emisión, un módulo 12 de definición, un módulo 13 de conversión, y un módulo 14 de sintetización.
El módulo 11 de salida está configurado para controlar el sensor 21 de imagen para emitir una imagen fusionada y una imagen de bloque de color de una misma escena. La imagen fusionada incluye una pluralidad de píxeles fusionados dispuestos en un patrón de matriz de color predeterminado. Cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado. La pluralidad de píxeles fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz de grupo de píxeles fotosensibles están fusionados en el correspondiente píxel fotosensible fusionado. La imagen de bloque de color incluye una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado. Cada uno de la pluralidad de grupos de píxeles de imagen incluye una pluralidad de píxeles originales que tienen un mismo color. Cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles fotosensibles.
El módulo 12 de definición está configurado para definir una primera región predeterminada usando la imagen fusionada basándose en una entrada de usuario.
El módulo 13 de conversión está configurado para convertir la imagen de bloque de color en una primera imagen de imitación y convertir la imagen fusionada en una imagen restaurada. En una segunda región predeterminada, la imagen de bloque de color se convierte usando un primer método de interpolación, y la segunda región predeterminada corresponde a la primera región predeterminada. La primera imagen de imitación incluye una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y los mismos en número de píxeles que la pluralidad de píxeles fotosensibles. Es decir, la pluralidad de píxeles de imitación son los mismos en número de píxeles que la pluralidad de grupos de píxeles de imagen. En una tercera región predeterminada, la imagen fusionada se convierte usando un segundo método de interpolación, y la tercera región predeterminada corresponde a una primera región fuera de la primera región predeterminada. La imagen restaurada incluye una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado. Las complejidades del segundo método de interpolación son inferiores a aquellas del primer método de interpolación.
La pluralidad de píxeles de imitación incluye un píxel actual, y la pluralidad de píxeles originales de un primer grupo de píxeles de imagen de la pluralidad de grupos de píxeles de imagen incluye un píxel relacionado que corresponde a una posición del píxel actual. El módulo 13 de conversión incluye un módulo 131 de determinación, un módulo 133 de determinación, un módulo 135 de cálculo, un módulo 137 de cálculo, y un módulo 139 de cálculo.
El módulo 131 de determinación está configurado para determinar si el píxel relacionado está localizado en la segunda región predeterminada.
El módulo 133 de determinación está configurado para, cuando el píxel relacionado está localizado en la segunda región predeterminada, determinar si un color del píxel actual es el mismo que un color del píxel relacionado.
El módulo 135 de cálculo está configurado para, cuando el color del píxel actual es el mismo que el color del píxel relacionado, usar un valor de píxel del píxel relacionado como un valor de píxel del píxel actual.
El módulo 137 de cálculo está configurado para, cuando el color del píxel actual es diferente del color del píxel relacionado, usar valores de píxel de un grupo de píxeles relacionados que incluye una pluralidad de píxeles para calcular el valor de píxel del píxel actual a través del primer método de interpolación. Un color de la pluralidad de píxeles del grupo de píxeles relacionados es el mismo que el píxel actual, y la pluralidad de píxeles del grupo de píxeles relacionados están localizados en un primer conjunto de grupos de píxeles de imagen en la pluralidad de grupos de píxeles de imagen. El primer conjunto de grupos de píxeles de imagen vecino al primer grupo de píxeles de imagen.
El módulo 139 de cálculo está configurado para, cuando el píxel relacionado no está localizado en la segunda región predeterminada, convertir la imagen fusionada en la imagen restaurada a través del segundo método de interpolación.
El módulo 14 de sintetización está configurado para obtener una segunda imagen de imitación sintetizando la primera imagen de imitación y la imagen restaurada.
Es decir, el bloque S11 puede implementarse por el módulo 11 de salida. El bloque S12 puede implementarse por el módulo 12 de definición. El bloque S12 puede implementarse por el módulo 12 de definición. El bloque S13 puede implementarse por el módulo 13 de conversión. El bloque S131 puede implementarse por el módulo 131 de determinación. El bloque S133 puede implementarse por el módulo 133 de determinación. El bloque S135 puede implementarse por el módulo 135 de cálculo. El bloque S137 puede implementarse por el módulo 137 de cálculo. El bloque S139 puede implementarse por el módulo 139 de cálculo. El bloque S14 puede implementarse por el módulo 14 de sintetización.
Se ha de observar que un término "imagen de imitación" usado en el presente documento hace referencia a una primera imagen dispuesta en un primer patrón de matriz de color convertido de una segunda imagen dispuesta en un segundo patrón de matriz de color. La primera imagen imita una tercera imagen tomada usando un primer sensor de imagen que incluye una pluralidad de píxeles fotosensibles dispuestos en el primer patrón de matriz de color tal como un patrón de Bayer. Similar a la tercera imagen, la primera imagen puede procesarse directamente en una imagen de color verdadero. Una expresión "píxel de imitación" usada en el presente documento hace referencia a un píxel en la "imagen de imitación" que imita un píxel emitido por un píxel fotosensible de la primera imagen sensor. Una expresión "imagen restaurada" usada en el presente documento hace referencia a una cuarta imagen dispuesta en el primer patrón de matriz de color convertida de una quinta imagen dispuesta en el primer patrón de matriz de color. Un número de píxeles de la cuarta imagen se restaura para que sean los mismos que los de la tercera imagen. Similar a la primera imagen, la cuarta imagen puede procesarse directamente en una imagen de color verdadero. Una expresión "píxel restaurado" usada en el presente documento hace referencia a un píxel en la "imagen restaurada" que tiene un mismo tamaño que un píxel fotosensible del primer sensor de imagen.
Se ha de observar que una expresión "número de píxel" hace referencia a un número total de píxeles de una porción de una imagen, en el que la porción de la imagen puede ser la imagen completa, una pluralidad de grupos de píxeles de imagen de la imagen, o una pluralidad de píxeles de la imagen.
Se ha de entender que el método de control, en una realización, usa el primer método de interpolación para procesar la segunda región predeterminada en la imagen de bloque de color y usa el segundo método de interpolación para procesar la tercera región predeterminada en la imagen fusionada. La segunda región predeterminada corresponde a la primera región predeterminada, y la tercera región predeterminada corresponde a la primera región fuera de la primera región predeterminada. La primera región predeterminada puede definirse basándose en la entrada de usuario. Las complejidades incluyen una complejidad temporal y una complejidad espacial. En comparación con el primer método de interpolación, tanto la complejidad temporal como la complejidad espacial del segundo método de interpolación son inferiores que aquellas del primer método de interpolación. De esta manera, durante la toma de imagen, el sensor 21 de imagen emite la imagen de bloque de color y la imagen fusionada. El primer método de interpolación de la complejidad superior se aplica únicamente a la segunda región predeterminada en la imagen de bloque de color. Por lo tanto, se reduce eficazmente una cantidad de datos de imagen a procesarse, y tiempo para procesar los datos de imagen, y la resolución de una parte principal que le interesa al usuario, es decir se aumenta una parte que corresponde a la primera región predeterminada, mejorando de esta manera una experiencia de usuario.
Las Figuras 4 y 7 ilustran el sensor 21 de imagen que incluye una matriz 212 de grupo de píxeles fotosensibles y una matriz 211 de unidad de filtro de color dispuesta sobre la matriz 212 de grupo de píxeles fotosensibles.
Además, en las Figuras 4, 5, y 7, la matriz 212 de grupo de píxeles fotosensibles incluye una pluralidad de grupos 212a de píxeles fotosensibles. Cada grupo 212a de píxeles fotosensibles incluye una pluralidad de píxeles 2121 fotosensibles adyacentes entre sí. En la Figura 5, cada píxel 2121 fotosensible incluye un elemento 21211 fotosensible y un transistor 21212 de transferencia. El elemento 21211 fotosensible puede ser un fotodiodo y el transistor 21212 de transferencia puede ser un transistor de MOS.
En las Figuras 4 y 7, la matriz 211 de unidad de filtro de color incluye una pluralidad de unidades 211a de filtro de color. Cada unidad 211a de filtro de color cubre un correspondiente grupo 212a de píxeles fotosensibles.
Específicamente, en las Figuras 4 y 6, en algunos ejemplos, la matriz 211 de unidad de filtro de color está dispuesta en un patrón de Bayer. Es decir, cuatro unidades 211a de filtro de color adyacentes entre sí son una unidad de filtro de color rojo, una unidad de filtro de color azul y dos unidades de filtro de color verde.
En las Figuras 5 y 7, cada grupo 212a de píxeles fotosensibles corresponde a una unidad 211a de filtro de color que tiene un color uniforme. Si un grupo 212a de píxeles fotosensibles incluye n elementos 21211 fotosensibles adyacentes entre sí, entonces una unidad 211a de filtro de color cubre los n elementos 21211 fotosensibles en el grupo 212a de píxeles fotosensibles. La unidad 211a de filtro de color puede estar construida integralmente o puede ser n filtros e color independientes ensamblados juntos.
En la Figura 5, en una realización, cada grupo 212a de píxeles fotosensibles incluye cuatro píxeles 2121 fotosensibles adyacentes entre sí. Dos de los píxeles 2121 fotosensibles adyacentes entre sí forman un subgrupo 2120 de píxeles fotosensibles juntos. El subgrupo 2120 de píxeles fotosensibles incluye adicionalmente un seguidor 21213 de fuente y un convertidor de analógico a digital (ADC) 21214. El grupo 212a de píxeles fotosensibles incluye adicionalmente un sumador 2122. Cada transistor 21212 de transferencia en el subgrupo 2120 de píxeles fotosensibles tiene un terminal acoplado a un cátodo del correspondiente elemento 21211 fotosensible. Cada transistor 21212 de transferencia en el subgrupo 2120 de píxeles fotosensibles tiene otro terminal acoplado a un terminal de puerta del seguidor 21213 de fuente común. Un terminal de fuente del seguidor 21213 de fuente está acoplado al ADC 21214. El seguidor 21213 de fuente puede ser un transistor de MOS. Dos subgrupos 2120 de píxeles fotosensibles están acoplados al sumador 2122 a través de correspondientes seguidores 21213 de fuente y correspondientes ADC 21214.
Es decir, cuatro elementos 21211 fotosensibles adyacentes entre sí en un grupo 212a de píxeles fotosensibles del sensor 21 de imagen usan comúnmente una unidad 211a de filtro de color que tiene un color uniforme. Cada elemento 21211 fotosensible está acoplado a un correspondiente transistor 21212 de transferencia, y dos elementos 21211 fotosensibles adyacentes entre sí están acoplados a un seguidor 21213 de fuente común y un ADC común 21214. Los cuatro elementos 21211 fotosensibles adyacentes entre sí están acoplados a un sumador 2122 común.
Además, los cuatro elementos 21211 fotosensibles están dispuestos en una matriz 2*2. Los dos elementos 21211 fotosensibles en el subgrupo 2120 de píxeles fotosensibles pueden estar localizados en una misma columna.
En las Figuras 5 y 7, durante la formación de imágenes, cuando cada dos subgrupos 2120 de píxeles fotosensibles, es decir, cada cuatro elementos 21211 fotosensibles, cubiertos por la misma unidad 211a de filtro de color se exponen a luz al mismo tiempo, los píxeles pueden fusionarse y puede emitirse una imagen fusionada.
Específicamente, el elemento 21211 fotosensible está configurado para convertir luz en cargas. Las cargas generadas son proporcionales a la intensidad de la luz. El transistor 21212 de transferencia está configurado para controlar la conducción o el recorte de un circuito basado en una señal de control. Cuando el circuito conduce, el seguidor 21213 de fuente está configurado para convertir las cargas generadas por el elemento 21211 fotosensible que está expuesto a la luz en una señal de tensión. El ADC 21214 está configurado para convertir la señal de tensión en una señal digital. El sumador 2122 está configurado para añadir dos señales digitales y emitirlas de manera común al aparato 10 de control en la Figura 26 acoplado al sensor 21 de imagen en la Figura 26 para su procesamiento.
En las Figuras 4 y 8, tomando un sensor 21 de imagen 16M como un ejemplo, el sensor 21 de imagen puede fusionar 16M de los píxeles fotosensibles en 4M de píxeles fotosensibles fusionados. Es decir, el sensor 21 de imagen puede emitir la imagen 800 fusionada. La imagen 800 fusionada incluye una pluralidad de píxeles fusionados. Como se muestra en la Figura 8, un tamaño de cada píxel fusionado corresponde a un tamaño de un correspondiente píxel fotosensible fusionado y un tamaño de cada uno de cuatro cuadrados en cada píxel fusionado corresponde a un tamaño de un correspondiente píxel fotosensible. Después de la fusión, un tamaño de un píxel fotosensible fusionado se vuelve 4 veces un tamaño de un píxel fotosensible, mejorando de esta manera una sensibilidad del píxel fotosensible fusionado. Además, debido a que el ruido en el sensor 21 de imagen es en su mayoría ruido aleatorio, con respecto a cuatro píxeles fotosensibles antes de que se fusionen, puede existir ruido en uno o dos de los cuatro píxeles fotosensibles. Después de que se fusionan los cuatro píxeles fotosensibles en el píxel fotosensible fusionado, se reduce el impacto del ruido en el uno o dos de los cuatro píxeles fotosensibles en el píxel fotosensible fusionado. Es decir, se reduce el ruido en el sensor 21 de imagen, y se aumenta una relación de señal a ruido.
Sin embargo, al mismo tiempo cuando cada uno de cuatro píxeles fotosensibles se vuelve un píxel fotosensible fusionado, se reduce la resolución de la imagen 800 fusionada.
En las Figuras 5 y 7, durante la formación de imágenes, cuando cada uno de cuatro elementos 21211 fotosensibles cubiertos por la misma unidad 211a de filtro de color se exponen a la luz de manera secuencial, después del procesamiento de imagen, puede emitirse una imagen de bloque de color.
Específicamente, el elemento 21211 fotosensible está configurado para convertir luz en cargas. Las cargas generadas son proporcionales a la intensidad de la luz. El transistor 21212 de transferencia está configurado para controlar la conducción o recorte del circuito basándose en una señal de control. Cuando el circuito conduce, el seguidor 21213 de fuente está configurado para convertir las cargas generadas por el elemento 21211 fotosensible que está expuesto a la luz en una señal de tensión. El ADC 21214 está configurado para convertir la señal de tensión en una señal digital y para emitir al aparato 10 de control en la Figura 26 acoplado al sensor 21 de imagen en la Figura 26.
En las Figuras 4 y 9, tomando un sensor 21 de imagen de 16M como un ejemplo, el sensor 21 de imagen puede mantener adicionalmente 16M de los píxeles fotosensibles para su emisión. Es decir, el sensor 21 de imagen puede emitir la imagen 900 de bloque de color. La imagen 900 de bloque de color incluye una pluralidad de grupos de píxeles de imagen. Cada uno de la pluralidad de grupos de píxeles de imagen incluye una pluralidad de píxeles originales que tienen un mismo color y están dispuestos en una matriz 2*2. Un tamaño de cada uno de la pluralidad de píxeles originales es el mismo que el tamaño de un correspondiente píxel fotosensible. Sin embargo, puesto que la unidad 211a de filtro de color que cubre cada uno de cuatro elementos 21211 fotosensibles adyacentes entre sí tiene un color uniforme, aunque se exponen cuatro elementos 21211 fotosensibles a la luz de manera separada, cuatro píxeles originales de salida adyacentes entre sí en cada uno de la pluralidad de grupos de píxeles de imagen tienen el mismo color. Por lo tanto, la resolución de la imagen 900 de bloque de color no puede aumentarse.
De acuerdo con una realización de la presente divulgación, un método de control convierte la imagen de bloque de color de salida en una primera imagen de imitación.
Se ha de entender que cuando la imagen fusionada se está emitiendo, cada uno de cuatro píxeles fotosensibles adyacentes entre sí que tienen el mismo color se fusiona en el píxel fotosensible fusionado para su emisión. De esta manera, cada uno de cuatro píxeles fusionados adyacentes entre sí en la imagen fusionada puede considerarse como que está dispuesto en un patrón de Bayer típico, y por lo tanto la imagen fusionada puede recibirse por un módulo de procesamiento de imagen, y procesarse directamente por el módulo de procesamiento de imagen en una imagen de color verdadero. Cuando se está emitiendo la imagen de bloque de color, cada píxel fotosensible se emite de manera separada. Puesto que cada uno de cuatro píxeles fotosensibles adyacentes entre sí tiene el mismo color, cuatro píxeles originales adyacentes entre sí en cada uno de la pluralidad de grupos de píxeles de imagen tienen el mismo color, y por lo tanto, los cuatro píxeles originales pueden considerarse como que están dispuestos en un patrón de Bayer no típico. El módulo de procesamiento de imagen no puede procesar directamente el patrón de Bayer no típico. Es decir, cuando el sensor 21 de imagen usa el mismo módulo de procesamiento de imagen, para dos modos para emitir imágenes de color verdadero que sean compatibles, es decir, la imagen de color verdadero emitida bajo un modo fusionado, y la imagen de color verdadero emitida bajo un modo de bloque de color, la imagen de bloque de color necesita convertirse en la primera imagen de imitación. En otras palabras, cada uno de la pluralidad de grupos de píxeles de imagen que tiene una disposición del patrón de Bayer no típica se convierte teniendo una disposición del patrón de Bayer típico.
La primera imagen de imitación incluye una pluralidad de píxeles de imitación dispuestos en el patrón de Bayer. La pluralidad de píxeles de imitación incluye un píxel actual, y la pluralidad de píxeles originales de un primer grupo de píxeles de imagen de la pluralidad de grupos de píxeles de imagen incluye un píxel relacionado que corresponde a una posición del píxel actual.
Tomando la Figura 10 como un ejemplo, los píxeles actuales son R3'3' y R5'5', en una primera imagen 1004 de imitación y los correspondientes píxeles relacionados son R33 y R55 en una imagen 1002 de bloque de color.
Cuando se obtiene el píxel actual R3'3', puesto que el píxel relacionado R33 que corresponde al píxel actual R3'3' tiene un mismo color que el píxel actual R3'3', un valor de píxel del píxel relacionado R33 se usa directamente como un valor de píxel del píxel actual R3'3'.
Cuando se obtiene el píxel actual R5'5', puesto que el píxel relacionado R55 que corresponde al píxel actual R5'5' tiene un color diferente del píxel actual R5'5', un valor de píxel del píxel relacionado R55 no puede usarse directamente como un valor de píxel del píxel actual R5'5'. Un grupo de píxeles relacionados del píxel actual R5'5' necesita usarse para calcular el valor de píxel del píxel actual R5'5' a través de interpolación.
Se ha de observar que un valor de píxel en la descripción anterior y a continuación debe considerarse de manera amplia un valor de atributo de color de un píxel, tal como un valor de color.
El grupo de píxeles relacionados incluye una pluralidad de, tal como 4, píxeles originales en un primer conjunto de grupos de píxeles de imagen que tienen un mismo color que el píxel actual. El primer conjunto de grupos de píxeles de imagen vecino al primer grupo de píxeles de imagen.
Se ha de observar que un término "vecino" usado en el presente documento debería entenderse de manera amplia. Tomando la Figura 10 como un ejemplo, el píxel relacionado R55 corresponde al píxel actual R5'5'. El primer conjunto de grupos de píxeles de imagen vecino al primer grupo de píxeles de imagen al que pertenece el píxel relacionado R55 y que tiene el mismo color que el píxel actual R5'5' son grupos de píxeles de imagen a los que pertenecen los píxeles R44, R74, R47, R77 y no son otros grupos de píxeles de imagen rojos espacialmente más alejados del primer grupo de píxeles de imagen al que pertenece el píxel relacionado R55. Los píxeles originales rojos espacialmente más cercanos al píxel relacionado R55 son los píxeles R44, R74, R47, y R77. Es decir, el grupo de píxeles relacionados del píxel actual R5'5' consiste en los píxeles R44, R74, R47, y R77. El píxel actual R5'5' tiene el mismo color que los píxeles R44, R74, R47, y R77, y corresponde al píxel relacionado R55 vecino a los píxeles R44, R74, R47, y R77.
De esta manera, con respecto a diferentes situaciones para los píxeles actuales, se usan diferentes métodos para convertir un píxel original en un píxel de imitación, convirtiendo de esta manera la imagen 1002 de bloque de color en la primera imagen 1004 de imitación. Durante la toma de imágenes, se usan filtros de color especial dispuestos en el patrón de Bayer, y por lo tanto, puede aumentarse una relación de señal a ruido de las imágenes. Durante el procesamiento de imagen, la imagen 1002 de bloque de color puede procesarse a través de interpolación, y por lo tanto, puede aumentarse la resolución de las imágenes.
En la Figura 11, en una realización, el bloque S137 incluye las siguientes operaciones.
En el bloque S1371, para cada dirección de componente, calcular un valor de píxel de un correspondiente primer píxel interpolado entre primeros píxeles del grupo de píxeles relacionados en una dirección de interpolación y un valor de píxel de un correspondiente segundo píxel interpolado entre segundos píxeles del grupo de píxeles relacionados en la dirección de interpolación, en el que una dirección de componente cruza la dirección de interpolación, y calcular un correspondiente valor de diferencia entre el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel.
En el bloque S1372, para cada dirección de componente, calcular un correspondiente peso basándose en el correspondiente valor de diferencia de cada dirección de componente.
En el bloque S1373, usar el correspondiente peso de cada dirección de componente, y el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel de cada dirección de componente para calcular el valor de píxel del píxel actual.
En la Figura 12, en una realización, el módulo 137 de cálculo incluye un módulo 1371 de cálculo, un módulo 1372 de cálculo, y un módulo 1373 de cálculo. El módulo 1371 de cálculo está configurado para, para cada dirección de componente, calcular un valor de píxel de un correspondiente primer píxel interpolado entre primeros píxeles del grupo de píxeles relacionados en una dirección de interpolación y un valor de píxel de un correspondiente segundo píxel interpolado entre segundos píxeles del grupo de píxeles relacionados en la dirección de interpolación, en el que una dirección de componente cruza la dirección de interpolación. El módulo 1371 de cálculo está configurado adicionalmente para calcular un correspondiente valor de diferencia entre el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel. El módulo 1372 de cálculo está configurado para, para cada dirección de componente, calcular un correspondiente peso basándose en el correspondiente valor de diferencia de cada dirección de componente. El módulo 1373 de cálculo está configurado para usar el correspondiente peso de cada dirección de componente, y el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel de cada dirección de componente para calcular el valor de píxel del píxel actual. Es decir, el bloque S1371 puede implementarse por el módulo 1371 de cálculo. El bloque S1372 puede implementarse por el módulo 1372 de cálculo. El bloque S1373 puede implementarse por el módulo 1373 de cálculo.
Específicamente, el procesamiento a través de la interpolación considera correspondientes valores de diferencia de energía de una imagen para las diferentes direcciones de componente. A través de interpolación lineal usando los correspondientes pesos para las diferentes direcciones de componente, en el que los correspondientes pesos están basados en correspondientes valores de diferencia del grupo de píxeles relacionados en las diferentes direcciones de componente, se calcula el valor de píxel del píxel actual. Para una dirección de componente de un valor de diferencia de energía menor, un peso de referencia es mayor, que provoca que un peso usado durante la interpolación sea mayor.
En un ejemplo, para facilidad de cálculo, únicamente se consideran las direcciones horizontal y vertical.
El valor de píxel del píxel actual R5'5' se obtiene a través de interpolación usando valores de píxel de los píxeles R44, R74, R47, y R77. Puesto que no existen píxeles originales que tienen un mismo color como el píxel actual R5'5' en direcciones de componente horizontal y vertical, se calculan valores de píxel interpolados en las direcciones de componente horizontal y vertical usando el grupo de píxeles relacionados. Para el componente dirección horizontal, se calcula un valor de píxel de un primer píxel R45 interpolado entre primeros píxeles R44 y R47 del grupo de píxeles relacionados en una dirección de interpolación vertical y un valor de píxel de un segundo píxel R75 interpolado entre segundos píxeles R74 y R77 del grupo de píxeles relacionados en la dirección de interpolación vertical. Para la dirección de componente vertical, se calcula un valor de píxel de un primer píxel R54 interpolado entre primeros píxeles R44 y R74 del grupo de píxeles relacionados en una dirección de interpolación horizontal y un valor de píxel de un segundo píxel R57 interpolado entre segundos píxeles R47 y R77 del grupo de píxeles relacionados en la dirección de interpolación horizontal.
Específicamente, R45=R44*2/3+R47*1/3, R75=2/3*R74+1/3*R77, R54=2/3*R44+1/3*R74, y R57= 2/3*R47+1/3*R77. Por conveniencia, en el presente documento, los valores de píxel de los píxeles tal como los píxeles R44, R45, R47, R54, R57, R74, R75, y R77 se representan por los mismos símbolos que aquellos de los píxeles.
Para cada una de las direcciones de componente horizontal y vertical, se calcula un correspondiente valor de diferencia y un correspondiente peso. Es decir, basándose en el correspondiente valor de diferencia del color para cada una de las direcciones de componente horizontal y vertical, se determina un correspondiente peso referenciado durante la interpolación. Para una dirección de componente de un valor de diferencia menor, un peso es mayor, y para una dirección de componente de un valor de diferencia mayor, un peso es menor. Específicamente, para el componente dirección horizontal, se calcula un valor de diferencia X1 entre el valor de píxel del primer píxel r 45 y el valor de píxel del segundo píxel R75 por X1=|R45-R75|. Para la dirección de componente vertical, se calcula un valor de diferencia X2 entre el valor de píxel del primer píxel R54 y el valor de píxel del segundo píxel R75 por X2=|R54-R57|. Para el componente dirección horizontal, se calcula un peso W2 por W2=X2/(X1+X2). Para la dirección de componente vertical, se calcula un peso W1 por W1=X1/(X1+X2).
A continuación, a través de la interpolación lineal usando correspondientes pesos W2 y W1 para las direcciones de componente horizontal y vertical, se calcula el valor de píxel del píxel actual R5'5' por R5'5'=(2/3*R45+1/3*R75)*W2+(2/3*R54+1/3*R57)*W1. Se ha de entender que si el valor de diferencia X1 es mayor que el valor de diferencia X2, entonces el peso W1 es mayor que el peso W2. Por lo tanto, el peso para el componente dirección horizontal es el peso W2, y el peso para la dirección de interpolación vertical es el peso W1, y viceversa.
De esta manera, el valor de píxel del píxel actual puede calcularse a través de interpolación. Basándose en el control método anterior, la pluralidad de píxeles originales de cada grupo de píxeles de imagen puede convertirse en píxeles de imitación dispuestos en el patrón de Bayer típico. Es decir, cuatro píxeles de imitación adyacentes entre sí y dispuestos en una matriz de 2*2 incluyen un píxel de imitación de rojo, dos píxeles de imitación de verde, y un píxel de imitación de azul.
Se ha de observar que la interpolación incluye pero sin limitación la manera en la que únicamente se consideran valores de píxel de un mismo color para las direcciones vertical y horizontal durante el cálculo como en la presente realización. Por ejemplo, pueden considerarse adicionalmente los valores de píxel de otros colores.
En la Figura 13, en una realización, antes del bloque S137, el método de control incluye adicionalmente la siguiente operación.
En el bloque S136a, realizar compensación de equilibrio de blancos en la imagen de bloque de color.
Después del bloque S137, el método de control incluye adicionalmente la siguiente operación.
En el bloque S138a, realizar restauración de compensación de equilibrio de blancos en la primera imagen de imitación.
En la Figura 14, en una realización, el módulo 13 de conversión incluye adicionalmente un módulo 136a de compensación de equilibrio de blancos y un módulo 138a de restauración de compensación de equilibrio de blancos. El bloque S136a puede implementarse por el módulo 136a de compensación de equilibrio de blancos. El bloque S138a puede implementarse por el módulo 138a de restauración de compensación de equilibrio de blancos. Es decir, el módulo 136a de compensación de equilibrio de blancos está configurado para realizar compensación de equilibrio de blancos en la imagen de bloque de color. El módulo 138a de restauración de compensación de equilibrio de blancos está configurado para realizar la restauración de compensación de equilibrio de blancos en la primera imagen de imitación.
Específicamente, en un ejemplo, durante la interpolación durante la conversión de la imagen de bloque de color en la primera imagen de imitación, los píxeles de imitación rojo y azul no hacen referencia únicamente a colores de píxeles originales de correspondientes canales del mismo color, sino también hacen referencia a pesos de color de píxeles originales de un canal verde. Por lo tanto, antes de la interpolación, es necesario que se realice compensación de equilibrio de blancos, para eliminar el efecto de la compensación de equilibrio de blancos en la interpolación. Para no romper el equilibrio de blancos de la imagen de bloque de color, después de la interpolación, es necesario que se realice restauración de compensación de equilibrio de blancos en la primera imagen de imitación. La restauración se realiza basándose en valores de ganancia rojo, verde y azul durante la compensación.
De esta manera, el efecto del equilibrio de blancos se elimina durante la interpolación, y el equilibrio de blancos de la imagen de bloque de color puede mantenerse para la primera imagen de imitación después de la interpolación.
En la Figura 13, en una realización, antes del bloque S137, el método de control incluye adicionalmente la siguiente operación.
En el bloque S136b, realizar compensación de píxel muerto en la imagen de bloque de color.
En la Figura 14, en una realización, el aparato 10 de control incluye adicionalmente un módulo 136b de compensación de píxel muerto. El módulo 136b de compensación de píxel muerto está configurado para realizar compensación de píxel muerto en la imagen de bloque de color. Es decir, el bloque S136b puede implementarse por el módulo 136b de compensación de píxel muerto.
Se ha de entender que limitado por un proceso de fabricación, pueden existir píxeles muertos en el sensor 21 de imagen. Los píxeles muertos normalmente no cambian con la sensibilidad y siempre muestran mismos valores de píxel. La presencia de los píxeles muertos afecta a la calidad de la imagen. Por lo tanto, para asegurar que la interpolación sea precisa y que no se vea afectada por los píxeles muertos, es necesario que se realice compensación de píxel muerto antes de la interpolación.
Específicamente, durante la compensación de píxel muerto, puede realizarse detección en píxeles originales, y cuando se detecta un cierto píxel original como un píxel muerto, puede realizarse compensación de píxel muerto basándose en valores de píxel de otros píxeles originales en la imagen grupo de píxeles al que pertenece el cierto píxel original.
De esta manera, el impacto de los píxeles muertos en la interpolación puede eliminarse aumentando de esta manera la calidad de imagen.
En la Figura 13, en una realización, antes del bloque S137, el método de control incluye adicionalmente la siguiente operación.
En el bloque S136c, realizar compensación de diafonía en la imagen de bloque de color.
En la Figura 14, en una realización, el aparato 10 de control incluye adicionalmente un módulo 136c de compensación de diafonía. El módulo 136c de compensación de diafonía está configurado para realizar compensación de diafonía en la imagen de bloque de color. Es decir, el bloque S136c puede implementarse por el módulo 136c de compensación de diafonía.
Específicamente, cuatro píxeles fotosensibles en un grupo de píxeles fotosensibles están cubiertos por filtros de color que tienen un mismo color. Pueden existir diferencias de sensibilidad entre los píxeles fotosensibles, de manera que existe ruido de patrón fijo en una región de color sólido en una imagen de color verdadero convertida de la primera imagen de imitación, afectando de esta manera a la calidad de la imagen. Por lo tanto, es necesario que se realice compensación de diafonía en la imagen de bloque de color.
En la Figura 13, en una realización, después del bloque S137, el método de control incluye adicionalmente la siguiente operación.
En el bloque S138b, realizar corrección de sombreado de lente, interpolación cromática, reducción de ruido y agudización de borde en la primera imagen de imitación.
En la Figura 14, en una realización, el aparato 10 de control incluye adicionalmente un módulo 138b de procesamiento. El módulo 138b de procesamiento está configurado para realizar corrección de sombreado de lente, interpolación cromática, reducción de ruido y agudización de borde en la primera imagen de imitación. Es decir, el bloque S138b puede implementarse por el módulo 138b de procesamiento.
Se ha de entender que después de que se convierte la imagen de bloque de color en la primera imagen de imitación que está dispuesta en el patrón de Bayer típico, el módulo 138b de procesamiento puede usarse para procesar la primera imagen de imitación. El proceso de procesamiento realizado por el módulo 138b de procesamiento incluye corrección de sombreado de lente, interpolación cromática, reducción de ruido y agudización de borde. Después del procesamiento, puede obtenerse una imagen de bloque de color verdadera y emitirse al usuario.
Tomando la Figura 8 como un ejemplo, el sensor 21 de imagen fusiona 16M de píxeles fotosensibles en 4M de píxeles fotosensibles fusionados para emitir la imagen 800 fusionada. Para facilitar la síntesis posterior de la imagen de bloque de color y la imagen fusionada, la imagen fusionada necesita ampliarse mediante el estiramiento para convertirse en la imagen restaurada de un mismo tamaño que la imagen de bloque de color. En la Figura 15, el primer método de interpolación se aplica a la segunda región 1504 predeterminada en la imagen 1502 de bloque de color para obtener la primera imagen 1506 de imitación. La segunda región 1504 predeterminada corresponde a la primera región 2008 predeterminada que va a describirse con referencia a la Figura 20. El segundo método de interpolación se aplica a la tercera región 1514 predeterminada en la imagen 1512 fusionada para obtener la imagen 1516 restaurada. La tercera región 1514 predeterminada corresponde a la primera región 2010 en la Figura 20 fuera de la primera región 2008 predeterminada. Las imágenes 1506 y 1516 se sintetizan en la segunda imagen 1522 de imitación. Una cuarta región 1526 predeterminada en la segunda imagen 1522 de imitación tiene resolución inferior. La cuarta región 1526 predeterminada corresponde a la primera región 2008 predeterminada.
En la Figura 16, en una realización, el aparato electrónico incluye adicionalmente una pantalla táctil. El bloque S12 incluye las siguientes operaciones.
En el bloque S121, usar un tercer método de interpolación para convertir la imagen fusionada en una imagen de previsualización.
En el bloque S122, controlar la pantalla táctil para visualizar la imagen de previsualización.
En el bloque S123, definir la primera región predeterminada basándose en la entrada de usuario a la pantalla táctil.
En la Figura 26, el aparato electrónico 10 incluye adicionalmente una pantalla táctil 30. En la Figura 17, en una realización, el módulo 12 de definición incluye un módulo 121 de conversión, un módulo 122 de visualización, y módulo 123 de procesamiento. El módulo 121 de conversión está configurado para usar un tercer método de interpolación para convertir la imagen fusionada en una imagen de previsualización. El módulo 122 de visualización está configurado para controlar la pantalla táctil para visualizar la imagen de previsualización. El módulo 123 de procesamiento está configurado para definir la primera región predeterminada basándose en la entrada de usuario a la pantalla táctil.
Es decir, el bloque S121 puede implementarse por el módulo 121 de conversión. El bloque S122 puede implementarse por el módulo 122 de visualización. El bloque S123 puede implementarse por el módulo 123 de procesamiento.
Se ha de entender que el usuario selecciona en la imagen de previsualización de modo que puede definirse la primera región predeterminada. El módulo 121 de conversión convierte la imagen fusionada en la imagen de previsualización. El módulo 122 de visualización visualiza la imagen de previsualización. El tercer método de interpolación se usa para convertir la imagen fusionada en la imagen de previsualización. El tercer método de interpolación incluye el segundo método de interpolación y un método de interpolación bilineal. Durante la conversión, en primer lugar, se usa el segundo método de interpolación para convertir la imagen fusionada en una imagen restaurada, y a continuación, se usa el método de interpolación bilineal para convertir la imagen restaurada en una imagen de color verdadero, es decir la imagen de previsualización. De esta manera, el usuario puede previsualizar la imagen de previsualización, y selecciona en la imagen de previsualización de modo que puede definirse la primera región predeterminada.
Se ha de observar que, la imagen restaurada no está limitada a que se convierta en la imagen de color verdadero usando el método de interpolación bilineal. Como alternativa pueden usarse otros métodos de interpolación.
En la Figura 18, en una realización, el bloque S123 incluye las siguientes operaciones.
En el bloque S1231, dividir la imagen de previsualización en una pluralidad de primeras unidades de expansión dispuestas en una matriz.
En el bloque S1232, identificar una posición tocada basándose en la entrada de usuario.
En el bloque S1233, determinar una unidad de expansión de origen que reside en la posición tocada. La pluralidad de primeras unidades de expansión incluye la unidad de expansión de origen.
En el bloque S1234, calcular un valor de contraste de cada una de una pluralidad de segundas unidades de expansión más exteriores que la unidad de expansión de origen como un centro. La pluralidad de primeras unidades de expansión incluyen adicionalmente la pluralidad de segundas unidades de expansión.
En el bloque S1235, determinar una pluralidad de unidades de expansión de borde que tienen valores de contraste cada uno de los cuales supera un umbral predeterminado. La pluralidad de segundas unidades de expansión incluyen la pluralidad de unidades de expansión de borde.
En el bloque S1236, definir una segunda región encerrada por la pluralidad de unidades de expansión de borde como la primera región predeterminada.
En la Figura 19, en una realización, el módulo 123 de procesamiento incluye una unidad 1231 de división, una unidad 1232 de identificación, una unidad 1233 de determinación, una unidad 1234 de cálculo, un módulo 1235 de procesamiento, y un módulo 1236 de procesamiento. La unidad 1231 de división está configurada para dividir la imagen de previsualización en una pluralidad de primeras unidades de expansión dispuestas en una matriz. La unidad 1232 de identificación está configurada para identificar una posición tocada basándose en la entrada de usuario. La unidad 1233 de determinación está configurada para determinar una unidad de expansión de origen que reside en la posición tocada. La pluralidad de primeras unidades de expansión incluye la unidad de expansión de origen. La unidad 1234 de cálculo está configurada para calcular un valor de contraste de cada una de una pluralidad de segundas unidades de expansión más exteriores que la unidad de expansión de origen como un centro. La pluralidad de primeras unidades de expansión incluyen adicionalmente la pluralidad de segundas unidades de expansión. El módulo 1235 de procesamiento está configurado para determinar una pluralidad de unidades de expansión de borde que tienen valores de contraste cada uno de los cuales supera un umbral predeterminado. La pluralidad de segundas unidades de expansión incluyen la pluralidad de unidades de expansión de borde. El módulo 1236 de procesamiento está configurado para definir una segunda región encerrada por la pluralidad de unidades de expansión de borde como la primera región predeterminada.
Es decir, el bloque S1231 puede implementarse por la unidad 1231 de división. El bloque S1232 puede implementarse por la unidad 1232 de identificación. El bloque S1233 puede implementarse por la unidad 1233 de determinación. El bloque S1234 puede implementarse por la unidad 1234 de cálculo. El bloque S1235 puede implementarse por el módulo 1235 de procesamiento. El bloque S1236 puede implementarse por el módulo 1236 de procesamiento.
Específicamente, tomando la Figura 20 como un ejemplo, un punto negro en la imagen 2001 de previsualización es la posición tocada 2002. La imagen 2001 de previsualización se divide en la pluralidad de primeras unidades 2004 de expansión. Cada cuadrado es una de la pluralidad de primeras unidades 2004 de expansión. Se determina la unidad de expansión de origen que reside en la posición tocada 2002. La pluralidad de primeras unidades 2004 de expansión incluyen la unidad de expansión de origen. Se calcula el valor de contraste de cada una de la pluralidad de segundas unidades de expansión más exteriores que la unidad de expansión de origen como el centro. La pluralidad de primeras unidades 2004 de expansión incluyen adicionalmente la pluralidad de segundas unidades de expansión. Se determina la pluralidad de unidades 2006 de expansión de borde que tienen valores de contraste cada uno de los cuales supera el umbral predeterminado. La pluralidad de segundas unidades de expansión incluyen la pluralidad de unidades 2006 de expansión de borde. En la Figura 19, la pluralidad de unidades de porción de borde 2006 corresponden a una porción de borde de una cara humana y se muestran como cuadrados grises. De esta manera, la segunda región encerrada por la pluralidad de unidades 2006 de expansión de borde se define como la primera región 2008 predeterminada. La primera región 2008 predeterminada se indica por el usuario como una parte principal que le interesa al usuario y se procesa por el primer método de interpolación, aumentando de esta manera la resolución de la parte principal y mejorando una experiencia de usuario.
En la Figura 21, en una realización, el bloque S123 incluye las siguientes operaciones.
En el bloque S1237, identificar una posición tocada basándose en la entrada de usuario.
En el bloque S1238, con respecto a la posición tocada como un centro, expandirse hacia fuera para formar una tercera región que tiene una forma predeterminada, en el que la tercera región se define como la primera región predeterminada.
En la Figura 22, en una realización, el módulo 123 de procesamiento incluye una unidad 1237 de identificación, y una unidad 1238 de expansión. La unidad 1237 de identificación está configurada para identificar una posición tocada basándose en la entrada de usuario. La unidad 1238 de expansión está configurada para, con respecto a la posición tocada como un centro, expandirse hacia fuera para formar una tercera región que tiene una forma predeterminada como la primera región predeterminada.
Es decir, el bloque S1237 puede implementarse por la unidad 1237 de identificación. El bloque S1238 puede implementarse por la unidad 1238 de expansión.
En la Figura 23, en una realización, el bloque S1238 incluye las siguientes operaciones.
En el bloque S12381, determinar la forma predeterminada basándose en la entrada de usuario.
En la Figura 24, en una realización, la unidad 1238 de expansión incluye una unidad 12381 de procesamiento. La unidad 12381 de procesamiento está configurada para determinar la forma predeterminada basándose en la entrada de usuario.
Es decir, el bloque S12381 puede implementarse por la unidad 12381 de procesamiento.
Específicamente, tomando la Figura 25 como un ejemplo, un punto negro es la posición 2502 tocada. La tercera región que tiene una forma circular se forma expandiéndose hacia fuera con respecto a la posición 2502 tocada como el centro. La tercera región que tiene la forma circular se define como la primera región 2504 predeterminada. En la Figura 25, la primera región 2504 predeterminada incluye una cara humana completa. El primer método de interpolación puede aplicarse a la cara humana para aumentar la resolución de la cara humana.
Se ha de observar que, en otra realización, la forma predeterminada puede ser un rectángulo, un cuadrado u otras formas. El usuario puede ajustar un tamaño de la primera región 2504 predeterminada y arrastrar para mover la primera región 2504 predeterminada basándose en necesidades reales. Adicionalmente, definir la primera región predeterminada basándose en la entrada de usuario a la pantalla táctil incluye que el usuario extraiga directamente una cuarta región que tiene una forma arbitraria, en el que la cuarta región se define como la primera región predeterminada. Como alternativa, el usuario indica unos pocos puntos en la pantalla táctil, los pocos puntos están conectados por líneas, y se define una quinta región encerrada por las líneas conectadas como la primera región predeterminada. El primer método de interpolación se aplica a la primera región predeterminada. De esta manera, se aumenta la resolución de una parte principal que el usuario indica como de interés, mejorando de esta manera una experiencia de usuario.
En la Figura 26, en una realización, un aparato 100 electrónico incluye un aparato 10 de control, una pantalla táctil 30, y un módulo 20 de cámara.
En una realización, el aparato 100 electrónico puede ser un teléfono celular, un ordenador de tableta, y similares.
Cada uno del teléfono celular y el ordenador de tableta están equipados con un módulo de cámara, es decir el módulo 20 de cámara. Cuando un usuario usa el teléfono celular o el ordenador de tableta para tomar una imagen, puede emplearse el método de control de cualquier realización de la presente divulgación para obtener una imagen de alta resolución.
Se ha de observar que el aparato 100 electrónico puede ser otro aparato electrónico que tienen funciones de toma de imágenes. El método de control de cualquier realización de la presente divulgación puede corresponder a uno de los modos de procesamiento de imagen del aparato 100 electrónico. Es decir, cuando el usuario usa el aparato 100 electrónico para tomar una imagen, el usuario necesita seleccionar de los modos de procesamiento de imagen. Cuando el usuario selecciona el modo de procesamiento de imagen que corresponde al método de control de cualquier realización de la presente divulgación, el usuario puede indicar la primera región predeterminada y el aparato 100 electrónico puede usar el método de control de cualquier realización de la presente divulgación para realizar procesamiento de imagen.
En una realización, el módulo 20 de cámara incluye una cámara frontal y una cámara trasera. Cada una de la cámara frontal y la cámara trasera pueden usarse en el método de control de cualquier realización de la presente divulgación para mejorar una experiencia de usuario.
En la descripción de la presente divulgación, se ha de apreciar que las relaciones de orientación o localización indicadas por términos tales como "central", "longitudinal", "lateral", "longitud", "anchura", "espesor", "arriba", "abajo", "frontal", "trasera", "izquierda", "derecha", "vertical", "horizontal", "superior", "inferior", "interno", "externo", "en el sentido de las agujas del reloj", y "en el sentido contrario de las agujas del reloj" están basados en relaciones de orientación o localización ilustradas en los dibujos adjuntos. Los términos se usan únicamente para facilitar la descripción de la presente divulgación y para simplificar la descripción, no se usan para indicar o implicar que el dispositivo o elemento pertinente debe tener una orientación particular o que debe estar estructurado y operar bajo la orientación particular y por lo tanto no pueden considerarse como limitaciones a la presente divulgación.
Además, los términos "primero" y "segundo" se usan únicamente para fin de descripción, y no pueden considerarse como que indican o que implican importancia relativa o que señalan de manera implícita el número de características técnicas relevantes. Por lo tanto, las características que se definen de manera correspondiente como "primera" y "segunda" pueden cada una incluir expresa o implícitamente al menos una de las características. En la descripción de la presente divulgación, el significado de "una pluralidad de" es al menos dos, tal como dos y tres, a menos que se defina de otra manera y se defina de manera específica.
En la presente divulgación, a menos que se especifique y defina de manera definitiva de otra manera, una primera característica que está "por encima" o "por debajo" de una segunda característica puede incluir la primera característica directamente en contacto con la segunda característica, y puede incluir también la primera característica no en contacto directo con y la segunda característica sino a través de una característica intermedia. Además, estando la primera característica "por encima", "sobre", y "por debajo" de la segunda característica puede incluir que la primera característica esté "directamente por encima" y "de manera oblicua por encima" de la segunda característica, o únicamente representa un nivel de la primera característica que es superior que un nivel de la segunda característica. La primera característica que está "por debajo", "por encima", y "debajo" de la segunda característica puede incluir que la primera característica esté "directamente por debajo" y "por debajo de manera oblicua" de la segunda característica, o únicamente representa un nivel de la primera característica es más bajo que un nivel de la segunda característica.
La descripción anterior proporciona diversas realizaciones o ejemplos para implementar diversas estructuras de la presente divulgación. Para simplificar la descripción de la presente divulgación, se describen a continuación partes y configuraciones de ejemplos específicos. Ciertamente, son únicamente ilustrativos, y no se pretende que limiten la presente divulgación. Además, los números de referencia y letras de referencia pueden repetirse en diferentes ejemplos. La repetición es para los fines de simplicidad y claridad y no indica una relación de las diversas realizaciones y/o las configuraciones. Adicionalmente, la presente divulgación proporciona ejemplos específicos de diversos procesos y materiales; sin embargo, las aplicaciones de otros procesos y/u otros materiales pueden apreciarse por los expertos en la materia.
En la descripción de la presente memoria descriptiva, los términos de referencia "una realización", "algunas realizaciones", "una realización ilustrativa", "un ejemplo", "un ejemplo específico", "algunos ejemplos", y así sucesivamente significan que los rasgos, estructuras, materiales, o características específicos descritos en conjunto con las realizaciones o ejemplos se incluyen en al menos una de las realizaciones o los ejemplos. En la presente memoria descriptiva, la descripción ilustrativa de los términos anteriormente mencionados no está limitada a la misma realización o ejemplo. Además, los rasgos, estructuras, materiales, o características específicos descritos pueden combinarse de una manera apropiada en una cualquiera o más de las realizaciones o ejemplos.
Cualquier proceso o método proporcionado en los diagramas de flujo o descrito por otras maneras puede apreciarse para representar que están incluidos uno o más módulos de código, fragmentos de código o partes de código de instrucciones ejecutables para implementar funciones lógicas específicas u operaciones de proceso. Además, el alcance de las realizaciones preferidas de la presente divulgación incluyen otras implementaciones, tal como aquellas no en la secuencia ilustrada o analizada y que incluyen funciones ejecutadas al mismo tiempo o en orden inverso basándose en las funciones implicadas. Estas deben apreciarse por los expertos en la materia a los que pertenece la presente divulgación.
Cualquier función y/u operación lógica representada por los diagramas de flujo o descrita por otras maneras puede considerarse, por ejemplo, una tabla de secuencia de instrucciones ejecutables para implementar la función lógica, y puede implementarse específicamente en medio legible por ordenador para usarse por sistemas, aparatos o dispositivos de ejecución de instrucción (tal como sistemas informáticos, sistemas que incluyen un módulo de procesamiento, u otros sistemas que pueden recuperar instrucciones de los sistemas, aparatos o dispositivos de ejecución de instrucción, y ejecutar las instrucciones), o usarse por cualquier combinación de los sistemas, aparatos o dispositivos de ejecución de instrucción. Con respecto a la presente memoria descriptiva, "medio legible por ordenador" puede ser medio no transitorio que puede incluir programas almacenados, comunicados, propagados o transmitidos para usarse por los sistemas, aparatos o dispositivos de ejecución de instrucción o usarse por cualquier combinación de los sistemas, aparatos o dispositivos de ejecución de instrucción. Ejemplos específicos (una lista no exhaustiva) del medio legible por ordenador incluyen los siguientes: componentes de conexión eléctrica (dispositivos electrónicos) que tienen uno o más cables, discos o cartuchos informáticos portátiles (dispositivos magnéticos), memorias de acceso aleatorio (RAM), memorias de sólo lectura (ROM), memorias de sólo lectura borrables y programables (EPROM o memorias flash), dispositivos de fibra óptica y memorias de sólo lectura de disco compacto óptico portátil (CDROM). Además, el medio legible por ordenador puede incluso ser papeles u otro medio adecuado en el que se imprimen los programas. Los papeles o el otro medio adecuado pueden explorarse ópticamente, por ejemplo, y después editarse, interpretarse, o, si fuera necesario, procesarse por otras maneras adecuadas para obtener electrónicamente los programas, que se almacenan a continuación en memorias de ordenadores.
Debería entenderse que diversas partes de las realizaciones de la presente divulgación pueden implementarse por hardware, software, firmware o cualquier combinación de los mismos. En las realizaciones anteriormente mencionadas, las operaciones o los métodos pueden implementarse por software o firmware almacenado en memorias y ejecutarse por sistemas de ejecución de instrucción adecuados. Por ejemplo, si se implementan por hardware, las operaciones o métodos pueden implementarse por una cualquiera o cualquier combinación de las siguientes técnicas conocidas en la técnica: circuitos lógicos discretos que tienen circuitos lógicos para implementar funciones lógicas con respecto a señales digitales, circuitos integrados específicos de la aplicación que tienen circuitos lógicos combinados de manera adecuada, matrices de puertas programables (PGA), campos de matrices de puertas programables (FPGA), y similares.
Aunque se han ilustrado y descrito anteriormente las realizaciones de la presente divulgación, se ha de apreciar que las realizaciones anteriores son ilustrativas y no pueden considerarse como limitaciones a la presente divulgación. Los expertos en la materia pueden cambiar, modificar, sustituir y variar las realizaciones anteriores dentro del alcance de la presente divulgación.

Claims (13)

REIVINDICACIONES
1. Un método de control para controlar un aparato (100) electrónico que comprende un sensor (21) de imagen y una pantalla (30) táctil, comprendiendo el sensor (21) de imagen una matriz (212) de grupo de píxeles fotosensibles y una matriz (211) de unidad de filtro de color, comprendiendo la matriz (212) de grupo de píxeles fotosensibles una pluralidad de grupos (212a) de píxeles fotosensibles comprendiendo cada uno una pluralidad de píxeles (2121) fotosensibles adyacentes entre sí, y comprendiendo la matriz (211) de unidad de filtro de color una pluralidad de unidades (211a) de filtro de color dispuestas en un patrón de matriz de color predeterminado, cubriendo cada unidad de filtro de color un correspondiente grupo (212a) de píxeles fotosensibles y teniendo un color uniforme, comprendiendo el método de control: controlar el sensor (21) de imagen para emitir una imagen (1512) fusionada y una imagen (1502) de bloque de color de una escena, en el que la imagen (800) fusionada comprende una pluralidad de píxeles fusionados dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado, en el que la pluralidad de píxeles (2121) fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz (212) de grupo de píxeles fotosensibles se fusionan en el correspondiente píxel fotosensible fusionado; y en el que la imagen (900) de bloque de color comprende una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de grupos de píxeles de imagen comprende una pluralidad de píxeles originales que tienen un mismo color y adyacentes entre sí, en el que cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles (2121) fotosensibles; usar un tercer método de interpolación para convertir la imagen (1512) fusionada en una imagen (2001) de previsualización; controlar la pantalla (30) táctil para visualizar la imagen (2001) de previsualización;
definir una primera región (2008) predeterminada basándose en una entrada de usuario a la pantalla (30) táctil; convertir la imagen (1502) de bloque de color en una primera imagen (1506) de imitación y cubrir la imagen (1512) fusionada en una imagen (1516) restaurada,
en el que en una segunda región (1504) predeterminada, la imagen (1502) de bloque de color se convierte usando un primer método de interpolación, y la segunda región (1504) predeterminada corresponde a la primera región (2008; o 2504) predeterminada; en el que la primera imagen (1506) de imitación comprende una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y en el que un número de la pluralidad de píxeles de imitación es el mismo que el número de la pluralidad de píxeles (2121) fotosensibles;
en el que en una tercera región (1514) predeterminada, la imagen (1512) fusionada se convierte usando un segundo método de interpolación, y la tercera región (1514) predeterminada corresponde a una primera región fuera de la primera región (2008; o 2504) predeterminada; en el que la imagen (1516) restaurada comprende una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado y los mismos en número de píxeles que la pluralidad de píxeles (2121) fotosensibles; y obtener una segunda imagen (1522) de imitación sintetizando la primera imagen (1506) de imitación y la imagen (1516) restaurada.
2. El método de control de la reivindicación 1, caracterizado por que el patrón de matriz de color predeterminado es un patrón de Bayer.
3. El método de control de una cualquiera de las reivindicaciones 1-2, caracterizado por que la pluralidad de píxeles de imitación comprenden un píxel actual, y la pluralidad de píxeles originales de un primer grupo de píxeles de imagen de la pluralidad de grupos de píxeles de imagen comprenden un píxel relacionado que corresponde a una posición del píxel actual; y en el que convertir la imagen (1502) de bloque de color en la primera imagen (1506) de imitación y convertir la imagen (1512) fusionada en la imagen (1516) restaurada comprende:
determinar si el píxel relacionado está localizado en la segunda región (1504) predeterminada;
cuando el píxel relacionado está localizado en la segunda región (1504) predeterminada,
determinar si un color del píxel actual (R3'3' o R5'5') es el mismo que un color del píxel relacionado (R33 o R55); cuando el color del píxel actual (R3'3') es el mismo que el color del píxel relacionado (R33), usar un valor de píxel del píxel relacionado (R33) como un valor de píxel del píxel actual (R3'3');
cuando el color del píxel actual (R5'5') es diferente del color del píxel relacionado (R55), usar valores de píxel de un grupo de píxeles relacionados que comprende una pluralidad de píxeles (R44, R74, R47, y R77) para calcular el valor de píxel del píxel actual (R5'5') a través del primer método de interpolación, en el que un color de la pluralidad de píxeles (R44, R74, R47, y R77) del grupo de píxeles relacionados es el mismo que el píxel actual (R5'5'), y la pluralidad de píxeles (R44, R74, R47, y R77) del grupo de píxeles relacionados están localizados en un primer conjunto de grupos de píxeles de imagen en la pluralidad de grupos de píxeles de imagen, en el que el primer conjunto de grupos de píxeles de imagen es vecino al primer grupo de píxeles de imagen; y cuando el píxel relacionado no está localizado en la segunda región (1504) predeterminada, convertir la imagen (1512) fusionada en la imagen (1516) restaurada a través del segundo método de interpolación.
4. El método de control de la reivindicación 3, caracterizado por que usar los valores de píxel del grupo de píxeles relacionados que comprende la pluralidad de píxeles (R44, r 74, R47, y R77) para calcular el valor de píxel del píxel actual (R5'5') a través del primer método de interpolación comprende:
para cada dirección de componente, calcular un valor de píxel de un correspondiente primer píxel interpolado entre primeros píxeles (R44 y R47) del grupo de píxeles relacionados en una dirección de interpolación y un valor de píxel de un correspondiente segundo píxel interpolado entre segundos píxeles (R74 y R77) del grupo de píxeles relacionados en la dirección de interpolación, en el que una dirección de componente cruza la dirección de interpolación, y calcular un correspondiente valor de diferencia entre el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel;
para cada dirección de componente, calcular un correspondiente peso basándose en el correspondiente valor de diferencia de cada dirección de componente; y
usar el correspondiente peso de cada dirección de componente, y el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel de cada dirección de componente para calcular el valor de píxel del píxel actual (R5'5').
5. El método de control de una cualquiera de las reivindicaciones 1-4, caracterizado por que definir la primera región (2008) predeterminada basándose en la entrada de usuario a la pantalla (30) táctil comprende:
dividir la imagen (2001) de previsualización en una pluralidad de primeras unidades (2004) de expansión dispuestas en una matriz;
identificar una posición (2002) tocada basándose en la entrada de usuario;
determinar una unidad de expansión de origen que reside en la posición (2002) tocada, en el que la pluralidad de primeras unidades (2004) de expansión comprenden la unidad de expansión de origen;
calcular un valor de contraste de cada una de una pluralidad de segundas unidades de expansión más exteriores que la unidad de expansión de origen como un centro, en el que la pluralidad de primeras unidades (2004) de expansión comprende adicionalmente la pluralidad de segundas unidades de expansión;
determinar una pluralidad de unidades (2006) de expansión de borde que tienen valores de contraste cada uno de los cuales supera un umbral predeterminado, en el que la pluralidad de segundas unidades de expansión comprende la pluralidad de unidades (2006) de expansión de borde; y definir una segunda región encerrada por la pluralidad de unidades (2006) de expansión de borde como la primera región (2008) predeterminada.
6. El método de control de una cualquiera de las reivindicaciones 1-4, caracterizado por que definir la primera región (2504) predeterminada basándose en la entrada de usuario a la pantalla (30) táctil comprende:
identificar una posición (2502) tocada basándose en la entrada de usuario; y
con respecto a la posición (2502) tocada como un centro, expandir hacia fuera para formar una tercera región que tiene una forma predeterminada, en el que la tercera región se define como la primera región (2504) predeterminada.
7. El método de control de la reivindicación 6, caracterizado por que con respecto a la posición (2502) tocada como un centro, expandir hacia fuera para formar la tercera región que tiene la forma predeterminada comprende: determinar la forma predeterminada basándose en la entrada de usuario.
8. Un aparato (100) electrónico, que comprende:
un sensor (21) de imagen, en el que el sensor (21) de imagen comprende una matriz (212) de grupo de píxeles fotosensibles y una matriz (211) de unidad de filtro de color, en el que la matriz (212) de grupo de píxeles fotosensibles comprende una pluralidad de grupos (212a) de píxeles fotosensibles comprendiendo cada uno una pluralidad de píxeles (2121) fotosensibles adyacentes entre sí, y la matriz (211) de unidad de filtro de color comprende una pluralidad de unidades (211a) de filtro de color dispuestas en un patrón de matriz de color predeterminado, cubriendo cada unidad de filtro de color un correspondiente grupo (212a) de píxeles fotosensibles y que tiene un color uniforme; una pantalla (30) táctil; y un aparato de control (10) que comprende:
un módulo de emisión (11) configurado para controlar el sensor (21) de imagen para emitir una imagen (1512) fusionada y una imagen (1502) de bloque de color de una escena, en el que la imagen (800) fusionada comprende una pluralidad de píxeles fusionados dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de píxeles fusionados se emite por un correspondiente píxel fotosensible fusionado, en el que la pluralidad de píxeles (2121) fotosensibles de un correspondiente grupo de píxeles fotosensibles de la matriz (212) de grupo de píxeles fotosensibles se fusionan en el correspondiente píxel fotosensible fusionado; y en el que la imagen (900) de bloque de color comprende una pluralidad de grupos de píxeles de imagen dispuestos en el patrón de matriz de color predeterminado, en el que cada uno de la pluralidad de grupos de píxeles de imagen comprende una pluralidad de píxeles originales que tienen un mismo color y adyacentes entre sí, en el que cada uno de la pluralidad de píxeles originales se emite por un correspondiente píxel fotosensible de la pluralidad de píxeles (2121) fotosensibles;
un segundo módulo (121) de conversión configurado para usar un tercer método de interpolación para convertir la imagen (1512) fusionada en una imagen (2001) de previsualización;
un módulo (122) de visualización configurado para controlar la pantalla (30) táctil para visualizar la imagen (2001) de previsualización;
un primer módulo (123) de procesamiento configurado para definir una primera región (2008) predeterminada basándose en una entrada de usuario a la pantalla (30) táctil;
un primer módulo (13) de conversión configurado para convertir la imagen (1502) de bloque de color en una primera imagen (1506) de imitación y convertir la imagen (1512) fusionada en una imagen (1516) restaurada, en el que en una segunda región (1504) predeterminada, la imagen (1502) de bloque de color se convierte usando un primer método de interpolación, y la segunda región (1504) predeterminada corresponde a la primera región (2008; o 2504) predeterminada;
en el que la primera imagen (1506) de imitación comprende una pluralidad de píxeles de imitación dispuestos en el patrón de matriz de color predeterminado, y los mismos en número de píxeles que la pluralidad de píxeles (2121) fotosensibles;
en el que en una tercera región (1514) predeterminada, la imagen (1512) fusionada se convierte usando un segundo método de interpolación, y la tercera región (1514) predeterminada corresponde a una primera región fuera de la primera región (2008; o 2504) predeterminada; en el que la imagen (1516) restaurada comprende una pluralidad de píxeles restaurados dispuestos en el patrón de matriz de color predeterminado y los mismos en número de píxeles que la pluralidad de píxeles (2121) fotosensibles; y un módulo (14) de sintetización configurado para obtener una segunda imagen (1522) de imitación sintetizando la primera imagen (1506) de imitación y la imagen (1516) restaurada.
9. El aparato (100) electrónico de la reivindicación 8, caracterizado por que el patrón de matriz de color predeterminado es un patrón de Bayer.
10. El aparato (100) electrónico de una cualquiera de las reivindicaciones 8-9, caracterizado por que la pluralidad de píxeles de imitación comprende un píxel actual, y la pluralidad de píxeles originales de un primer grupo de píxeles de imagen de la pluralidad de grupos de píxeles de imagen comprenden un píxel relacionado que corresponde a una posición del píxel actual; y en el que el primer módulo de conversión comprende:
un primer módulo (131) de determinación configurado para determinar si el píxel relacionado está localizado en la segunda región (1504) predeterminada;
un segundo módulo (133) de determinación configurado para, cuando el píxel relacionado está localizado en la segunda región (1504) predeterminada, determinar si un color del píxel actual (R3'3' o R5'5') es el mismo que un color del píxel relacionado (R33 o R55); un primer módulo (135) de cálculo configurado para, cuando el color del píxel actual (R3'3') es el mismo que el color del píxel relacionado (R33), usar un valor de píxel
del píxel relacionado (R33) como un valor de píxel del píxel actual (R3'3');
un segundo módulo (137) de cálculo configurado para cuando el color del píxel actual (R5'5') es diferente del color del píxel relacionado (R55), usar valores de píxel de un grupo de píxeles relacionados que comprenden una pluralidad de píxeles (R44, R74, R47, y R77) para calcular el valor de píxel del píxel actual (R5'5') a través del primer método de interpolación, en el que un color de la pluralidad de píxeles (R44, R74, R47, y R77) del grupo de píxeles relacionados es el mismo que el píxel actual (R5'5'), y la pluralidad de píxeles (R44, R74, R47, y R77) del grupo de píxeles relacionados están localizados en un primer conjunto de grupos de píxeles de imagen en la pluralidad de grupos de píxeles de imagen, en el que el primer conjunto de grupos de píxeles de imagen es vecino al primer grupo de píxeles de imagen;
un tercer módulo (139) de cálculo configurado para, cuando el píxel relacionado no está localizado en la segunda región (1504) predeterminada, convertir la imagen (1512) fusionada en la imagen (1516) restaurada a través del segundo método de interpolación.
11. El aparato (100) electrónico de la reivindicación 10, caracterizado por que el segundo módulo (137) de cálculo comprende:
una primera unidad (1371) de cálculo configurada para, para cada dirección de componente, calcular un valor de píxel de un correspondiente primer píxel interpolado entre primeros píxeles (R44 y R47) del grupo de píxeles relacionados en una dirección de interpolación y un valor de píxel de un correspondiente segundo píxel interpolado entre segundos píxeles (R74 y R77) del grupo de píxeles relacionados en la dirección de interpolación, en el que una dirección de componente cruza la dirección de interpolación, y calcular un correspondiente valor de diferencia entre el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel; una segunda unidad (1372) de cálculo configurada para, para cada dirección de componente, calcular un correspondiente peso basándose en el correspondiente valor de diferencia de cada dirección de componente; y una tercera unidad (1373) de cálculo configurada para usar el correspondiente peso de cada dirección de componente, y el valor de píxel del correspondiente primer píxel y el valor de píxel del correspondiente segundo píxel de cada dirección de componente para calcular el valor de píxel del píxel actual (R5'5').
12. El aparato (100) electrónico de una cualquiera de las reivindicaciones 8-11, caracterizado por que el primer módulo (123) de procesamiento comprende:
una unidad (1231) de división configurada para dividir la imagen (2001) de previsualización en una pluralidad de primeras unidades (2004) de expansión dispuestas en una matriz; una primera unidad (1232) de identificación configurada para identificar una posición (2002) tocada basándose en la entrada de usuario;
una primera unidad (1233) de determinación configurada para determinar una unidad de expansión de origen que reside en la posición (2002) tocada, en el que la pluralidad de primeras unidades (2004) de expansión comprenden la unidad de expansión de origen;
una cuarta unidad (1234) de cálculo configurada para calcular un valor de contraste de cada una de una pluralidad de segundas unidades de expansión más exteriores que la unidad de expansión de origen como un centro, en el que la pluralidad de primeras unidades (2004) de expansión comprende adicionalmente la pluralidad de segundas unidades de expansión;
una primera unidad (1235) de procesamiento configurada para determinar una pluralidad de unidades (2006) de expansión de borde que tienen valores de contraste cada uno de los cuales supera un umbral predeterminado, en el que la pluralidad de segundas unidades de expansión comprende la pluralidad de unidades (2006) de expansión de borde; y una segunda unidad (1236) de procesamiento configurada para definir una segunda región encerrada por la pluralidad de unidades (2006) de expansión de borde como la primera región (2008) predeterminada.
13. El aparato (100) electrónico de una cualquiera de las reivindicaciones 8-11, caracterizado por que el primer módulo (123) de procesamiento comprende:
una segunda unidad (1237) de identificación configurada para identificar una posición (2502) tocada basándose en la entrada de usuario; y
una unidad (1238) de expansión configurada para, con respecto a la posición (2502) tocada como un centro, expandir hacia fuera para formar una tercera región que tiene una forma predeterminada, en el que la tercera región se define como la primera región (2504) predeterminada.
ES17204187T 2016-11-29 2017-11-28 Método de control y aparato electrónico Active ES2731695T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611078974.7A CN106357967B (zh) 2016-11-29 2016-11-29 控制方法、控制装置和电子装置

Publications (1)

Publication Number Publication Date
ES2731695T3 true ES2731695T3 (es) 2019-11-18

Family

ID=57862867

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17204187T Active ES2731695T3 (es) 2016-11-29 2017-11-28 Método de control y aparato electrónico

Country Status (5)

Country Link
US (2) US10277803B2 (es)
EP (1) EP3327666B1 (es)
CN (1) CN106357967B (es)
ES (1) ES2731695T3 (es)
WO (1) WO2018098978A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106357967B (zh) * 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置和电子装置
CN106604001B (zh) * 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106713790B (zh) * 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN107370917B (zh) * 2017-06-30 2020-01-10 Oppo广东移动通信有限公司 控制方法、电子装置和计算机可读存储介质
WO2019082232A1 (ja) * 2017-10-23 2019-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法及びプログラム
CN108419022A (zh) * 2018-03-06 2018-08-17 广东欧珀移动通信有限公司 控制方法、控制装置、计算机可读存储介质和计算机设备
CN111785220B (zh) * 2019-04-03 2022-02-08 名硕电脑(苏州)有限公司 显示器校正方法与***
CN112785533B (zh) * 2019-11-07 2023-06-16 RealMe重庆移动通信有限公司 图像融合方法、图像融合装置、电子设备与存储介质
JP2023010159A (ja) * 2021-07-09 2023-01-20 株式会社ソシオネクスト 画像処理装置および画像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002099749A2 (en) * 2001-06-06 2002-12-12 Koninklijke Philips Electronics N.V. Conversion unit and method and image processing apparatus
JP5012333B2 (ja) * 2007-08-30 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 画像処理装置および画像処理方法ならびに撮像装置
JP5068158B2 (ja) * 2007-12-28 2012-11-07 イーストマン コダック カンパニー 撮像装置
US7745779B2 (en) 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
US8130278B2 (en) * 2008-08-01 2012-03-06 Omnivision Technologies, Inc. Method for forming an improved image using images with different resolutions
KR101086501B1 (ko) * 2008-11-26 2011-11-25 주식회사 하이닉스반도체 이미지 데이터 프로세싱 방법, 이미지센서 및 집적회로
CN101815157B (zh) 2009-02-24 2013-01-23 虹软(杭州)科技有限公司 图像及视频的放大方法与相关的图像处理装置
JP5644177B2 (ja) * 2010-05-07 2014-12-24 ソニー株式会社 固体撮像装置、および、その製造方法、電子機器
CN102547080B (zh) * 2010-12-31 2015-07-29 联想(北京)有限公司 摄像模组以及包含该摄像模组的信息处理设备
DE102011100350A1 (de) 2011-05-03 2012-11-08 Conti Temic Microelectronic Gmbh Bildsensor mit einstellbarer Auflösung
JP2013066146A (ja) 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
CN104782110B (zh) * 2012-09-19 2018-09-14 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
CN104423946B (zh) * 2013-08-30 2018-02-27 联想(北京)有限公司 一种图像处理方法以及电子设备
US9479695B2 (en) 2014-07-31 2016-10-25 Apple Inc. Generating a high dynamic range image using a temporal filter
JP6369233B2 (ja) * 2014-09-01 2018-08-08 ソニー株式会社 固体撮像素子及びその信号処理方法、並びに電子機器
CN104580910B (zh) 2015-01-09 2018-07-24 宇龙计算机通信科技(深圳)有限公司 基于前、后摄像头的图像合成方法及***
US20170019615A1 (en) * 2015-07-13 2017-01-19 Asustek Computer Inc. Image processing method, non-transitory computer-readable storage medium and electrical device thereof
CN105578078B (zh) * 2015-12-18 2018-01-19 广东欧珀移动通信有限公司 图像传感器、成像装置、移动终端及成像方法
CN105611258A (zh) * 2015-12-18 2016-05-25 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
CN106713790B (zh) * 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106357967B (zh) * 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置和电子装置

Also Published As

Publication number Publication date
CN106357967B (zh) 2018-01-19
EP3327666B1 (en) 2019-05-29
US20180152625A1 (en) 2018-05-31
US10277803B2 (en) 2019-04-30
WO2018098978A1 (zh) 2018-06-07
CN106357967A (zh) 2017-01-25
US20180255234A1 (en) 2018-09-06
US10469736B2 (en) 2019-11-05
EP3327666A1 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
ES2731695T3 (es) Método de control y aparato electrónico
US10880501B2 (en) Image sensor, output method, phase focusing method, imaging device, and terminal
ES2774493T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
US10419588B2 (en) Camera assembly and mobile electronic device
ES2761935T3 (es) Conjunto de cámara y dispositivo electrónico móvil
ES2752655T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
US10257447B2 (en) Imaging method, imaging device, and electronic device
EP3591963B1 (en) Image sensor, camera module, and electronic device
KR102083292B1 (ko) 이미지 센서, 이미징 장치, 이동 단말기 및 이미징 방법
CA3049704C (en) Camera assembly and mobile electronic device
ES2761401T3 (es) Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes
ES2734072T3 (es) Método y aparato de tratamiento de imágenes y dispositivo electrónico
US9781366B2 (en) Image sensing system and method of driving the same
US10194126B2 (en) Image processing method, imaging apparatus, and method performed thereby
ES2748572T3 (es) Método y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2732973T3 (es) Método y aparato de procesamiento de imagen y dispositivo electrónico
KR20160095060A (ko) 시야의 가리움에 기초한 카메라 선택
CN112235484A (zh) 用于生成数字图像的***和方法
ES2757506T3 (es) Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control
US11134195B2 (en) Image sensor, camera module and electronic device
CN105578080B (zh) 成像方法、成像装置及电子装置
CN114845015A (zh) 图像传感器、控制方法、成像装置、终端及可读存储介质
CN105407299B (zh) 摄像装置及控制摄像装置的方法
KR20190051371A (ko) 보색관계의 필터 어레이를 포함하는 카메라 모듈 및 그를 포함하는 전자 장치
JP6537326B2 (ja) 撮像装置および撮像制御プログラム