ES2688122T3 - Método y dispositivo de procesamiento de imagen - Google Patents

Método y dispositivo de procesamiento de imagen Download PDF

Info

Publication number
ES2688122T3
ES2688122T3 ES13801460.0T ES13801460T ES2688122T3 ES 2688122 T3 ES2688122 T3 ES 2688122T3 ES 13801460 T ES13801460 T ES 13801460T ES 2688122 T3 ES2688122 T3 ES 2688122T3
Authority
ES
Spain
Prior art keywords
image
area
camera
presentation
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13801460.0T
Other languages
English (en)
Inventor
Zhen He
Jilin LIU
Yang Liu
Tengyue Li
Dong Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Application granted granted Critical
Publication of ES2688122T3 publication Critical patent/ES2688122T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

Un método de procesamiento de imagen, que comprende: recibir al mismo tiempo información de disparo de una primera cámara (224) y una segunda cámara (225) para realizar un fotografiado; utilizar la primera cámara (224) para fotografiar y obtener una primera imagen, y utilizar la segunda cámara (225) para fotografiar y obtener una segunda imagen; y presentar al mismo tiempo la primera imagen y la segunda imagen; en donde la presentación simultánea de la primera imagen y la segunda imagen comprende: determinar un área de presentación especificada de la segunda imagen en la primera imagen; y presentar la segunda imagen en el área de presentación especificada de la primera imagen; y en donde la determinación de un área de presentación especificada de la segunda imagen en la primera imagen comprende: determinar un área prominente (H) y un área no prominente (L) en la primera imagen de acuerdo con un algoritmo preestablecido; y utilizar el área no prominente (L) en la primera imagen como el área de presentación especificada de la segunda imagen en la primera imagen; caracterizado por que después de la presentación simultánea de la primera imagen y la segunda imagen, el método comprende, además: obtener una similitud entre un área frontera de la segunda imagen y un área de la primera imagen en una posición que acomoda la segunda imagen en la primera imagen, en donde se obtienen características que comprenden, color, borde y textura en el área frontera de la segunda imagen y en la posición que acomoda la segunda imagen en la primera imagen y, a continuación, se calcula la similitud entre las características; ajustar la primera imagen y/o la segunda imagen para aumentar la similitud si la similitud es menor que un umbral, en donde se ajustan uno o más parámetros de los parámetros que comprenden color, tonalidad, saturación, contraste, brillo, curvatura y nivel de color de la primera imagen y/o la segunda imagen con el fin de aumentar la similitud entre el área frontera de la segunda imagen y el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, de modo que la segunda imagen se muestra de modo más natural con un estilo consistente en la primera imagen; y combinar la segunda imagen con la primera imagen si la similitud es mayor que el umbral, en donde se ajustan la tonalidad, saturación, contraste y brillo en el borde de la segunda imagen y en el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, con el fin de reducir la diferencia entre el borde de la segunda imagen y la primera imagen, y la segunda imagen y la primera imagen se combinan en una imagen.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCIÓN
Método y dispositivo de procesamiento de imagen Campo técnico
La presente invención está relacionada con el campo de las tecnologías de procesamiento de imagen y, en particular, con un método y un equipo de procesamiento de imagen.
Antecedentes
Con la popularización de los dispositivos de fotografía como, por ejemplo, cámaras digitales y cámaras de vídeo digitales, y la integración de un equipo de fotografía y un dispositivo portal como, por ejemplo, un teléfono móvil o un PAD con una cámara incorporada, la gente empieza a utilizar los dispositivos de fotografía o los dispositivos portátiles para tomar imágenes y grabar vídeos cada vez con más frecuencia.
Sin embargo, un equipo de fotografía sobre un dispositivo de fotografía o un dispositivo portátil tradicional únicamente puede realizar una fotografía del primer plano y del fondo por separado, y es difícil que pueda capturar y mostrar al mismo tiempo tanto la escena frontal como la posterior.
En la técnica anterior, se puede realizar una conmutación rápida entre una cámara frontal y una cámara posterior en el dispositivo, y la fotografía de las escenas frontal y posterior se puede realizar con una conmutación en el tiempo de modo que se pueden capturar rápidamente escenas frontales y posteriores de 180 grados. Sin embargo, este método sigue sin poder realizar una captura simultánea de las imágenes de las escenas frontal y posterior.
El documento US 2012/0274808 A1 describe un recubrimiento de imágenes en un dispositivo móvil. En un modo de realización un sistema de imágenes de un dispositivo de comunicaciones móviles incluye una primera cámara con una interfaz de control a un controlador y una interfaz de datos al controlador, una segunda cámara con una interfaz de datos a la primera cámara, y un procesador para combinar una imagen recibida desde la segunda cámara a través de la interfaz de datos de la segunda cámara con una imagen desde la primera cámara y para enviar la imagen combinada al controlador a través de la interfaz de datos.
El documento US 2007/0031062 A1 divulga un "Keyframe Stitcher (ensamblador de fotogramas)" que proporciona una técnica eficiente para construir imágenes panorámicas en mosaico registrando o alineando tramas de vídeo para construir una representación panorámica en mosaico. El hacer coincidir pares de imágenes se realiza extrayendo puntos característicos de cada trama de imagen y haciendo coincidir dichos puntos entre pares de imágenes. Además, el Keyframe Stitcher preserva la precisión del punteado de imágenes cuando se hacen coincidir pares de imágenes utilizando la información de ordenación inherente en el vídeo. El coste de búsqueda de coincidencias entre tramas de imágenes se reduce identificando "keyframes (fotogramas)" basados en el solapamiento calculado imagen a imagen.
Resumen
Los modos de realización de la presente invención proporcionan un método y un equipo de procesamiento de imagen, los cuales pueden conseguir la captura simultánea de imágenes de la escena frontal y posterior.
Con el fin de resolver el problema técnico descrito más arriba, los modos de realización de la presente invención divulgan las soluciones técnicas tal como se detalla en las reivindicaciones adjuntas.
En los modos de realización de la presente invención, se disparan al mismo tiempo dos cámaras con el fin de realizar una fotografía bidireccional, y se muestran al mismo tiempo las imágenes tomadas por ambas cámaras, de modo que se capturan al mismo tiempo las imágenes de la escena frontal y posterior y se obtiene una imagen panorámica.
Breve descripción de los dibujos
Con el fin de describir con más claridad las soluciones técnicas en los modos de realización de la presente invención o en la técnica anterior, a continuación se introducen brevemente los dibujos adjuntos necesarios para describir los modos de realización o la técnica anterior. Evidentemente, una persona con un conocimiento normal en la técnica puede todavía derivar sin esfuerzos creativos otros dibujos a partir de estos dibujos adjuntos.
La FIG. 1 es un diagrama de flujo de un método de procesamiento de imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 2 es un diagrama de flujo de un método para obtener una primera imagen y una segunda imagen de acuerdo con un modo de realización de la presente invención;
5
10
15
20
25
30
35
40
45
la FIG. 3 es un diagrama de flujo de un método para obtener un parámetro de enfoque introducido manualmente por un usuario de acuerdo con un modo de realización de la presente invención;
la FIG. 4 es un diagrama de flujo de un método para mostrar simultáneamente una primera imagen y una segunda imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 5 es un diagrama esquemático de la distribución espacial en un modo de realización mostrado en la FIG. 4;
la FIG. 6 es un diagrama esquemático de una distribución de un rostro humano en un modo de realización mostrado en la FIG. 4;
la FIG. 7 es un diagrama esquemático de una distribución de bordes en un modo de realización mostrado en la FIG. 4;
la FIG. 8 es un diagrama de flujo de un método para determinar la posición de una segunda imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 9 es un diagrama de flujo de un método para intercambiar las áreas de presentación de una primera imagen y una segunda imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 10 es un diagrama de flujo de un método para procesar una primera imagen y una segunda imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 11 es un diagrama de flujo de otro método de procesamiento de imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 12 es un diagrama esquemático de la estructura de un terminal en un modo de realización mostrado en la FIG. 11;
la FIG. 13a es un diagrama esquemático de un primer modo de exposición para mostrar una imagen panorámica de acuerdo con un modo de realización de la presente invención;
la FIG. 13b es un diagrama esquemático de un segundo modo de exposición para mostrar una imagen panorámica de acuerdo con un modo de realización de la presente invención;
la FIG. 14 es un diagrama esquemático de un tercer modo de exposición para mostrar una imagen panorámica de acuerdo con un modo de realización de la presente invención;
la FIG. 15 es un diagrama esquemático para procesar una imagen fotografiada no plana de acuerdo con un modo de realización de la presente invención;
la FIG. 16 es un diagrama de flujo de un método de uso de una cámara para fotografiar una vista reflejada por una lente auxiliar panorámica con el fin de obtener una imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 17a es un diagrama de flujo de un método para procesar una imagen obtenida mediante fotografiado de acuerdo con un modo de realización de la presente invención;
la FIG. 17b es un diagrama esquemático de un método para recortar una imagen obtenida mediante fotografiado de acuerdo con un modo de realización mostrado en la FIG. 17a;
la FIG. 18 es un diagrama esquemático de la estructura de un equipo de procesamiento de imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 19 es un diagrama esquemático de la estructura de una unidad de obtención de imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 20 es un diagrama esquemático de la estructura de una unidad de salida de imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 21 es un diagrama esquemático de la estructura de otro equipo de procesamiento de imagen de acuerdo con un modo de realización de la presente invención;
la FIG. 22 es un diagrama esquemático de la estructura de un terminal de acuerdo con un modo de realización de la presente invención;
la FIG. 23 es un diagrama esquemático de la estructura de otro terminal de acuerdo con un modo de realización de la presente invención; y
5
10
15
20
25
30
35
40
45
50
la FIG. 24 es un diagrama esquemático de la estructura de una lente auxiliar panorámica de acuerdo con un modo de realización de la presente invención.
Descripción de los modos de realización
Con el fin de permitir que las personas experimentadas en la técnica comprendan mejor las soluciones técnicas en los modos de realización de la presente invención y hacer más comprensibles los objetivos, características y ventajas descritos más arriba de la presente invención, a continuación se describen con más detalle las soluciones técnicas de la presente invención haciendo referencia a los dibujos adjuntos.
Haciendo referencia a la FIG. 1, la FIG. 1 es un diagrama de flujo de un método de procesamiento de imagen de acuerdo con un modo de realización de la presente invención.
El método puede incluir:
Paso 101: recibir al mismo tiempo información de disparo de una primera cámara y una segunda cámara para realizar una fotografía.
En este modo de realización, un terminal como, por ejemplo, un teléfono móvil o un PAD, incluye al menos una primera cámara y una segunda cámara, donde la primera cámara puede ser una cámara frontal o bien una cámara posterior en un equipo de fotografía, y la segunda cámara puede ser la otra de la cámara frontal y la cámara posterior; la cámara frontal es una cámara situada en el mismo lado que la interfaz de operación del equipo de fotografía, y la cámara posterior es una cámara situada en la parte posterior de la interfaz de operación del equipo de fotografía. Sin embargo, la primera cámara y la segunda cámara pueden ser cámaras en otras posiciones, y en la presente solicitud son únicamente ejemplos.
En función de las configuraciones por defecto, el terminal puede disparar automáticamente una fotografía bidireccional cuando un usuario inicia una aplicación de fotografía, esto es, el terminal recibe al mismo tiempo información de disparo de la primera cámara y la segunda cámara para realizar una fotografía; o, cuando el usuario inicia la aplicación de fotografía, el terminal muestra al usuario una variedad de información de opciones, por ejemplo, la información de disparo de la primera cámara, el disparo de la segunda cámara, el disparo de la fotografía bidireccional, etc. En función de la operación del usuario al seleccionar la información de disparo de la fotografía bidireccional, el terminal recibe al mismo tiempo la información de disparo de la primera cámara y la segunda cámara para realizar la fotografía.
Paso 102: utilizar la primera cámara para fotografiar y obtener una primera imagen, y utilizar la segunda cámara para fotografiar y obtener una segunda imagen.
En el modo de realización de la presente invención, un circuito de control de la primera cámara y un circuito de control de la segunda cámara pueden encontrarse al mismo tiempo en estados de funcionamiento. Un sistema de imagen de la primera cámara también puede ser independiente de un sistema de imagen de la segunda cámara y, por lo tanto, después de recibir al mismo tiempo información de activación de la primera cámara y la segunda cámara, el terminal puede utilizar la primera cámara para fotografiar y obtener la primera imagen y utilizar la segunda cámara para fotografiar y obtener la segunda imagen.
Paso 103: mostrar al mismo tiempo la primera imagen y la segunda imagen.
Después de que el terminal haya obtenido al mismo tiempo la primera imagen y la segunda imagen, la primera imagen y la segunda imagen se pueden mostrar al mismo tiempo en una pantalla de presentación. Específicamente, la pantalla de presentación se puede dividir en áreas, una primera área de presentación de imagen muestra la primera imagen, y una segunda área de presentación de imagen muestra la segunda imagen; o, la primera imagen se muestra a pantalla completa, y la segunda imagen se muestra al mismo tiempo en cierta área de la primera imagen, esto es, se implementa una presentación foto sobre foto. Existen múltiples formas de presentación, las cuales no se describen aquí de forma exhaustiva.
En el modo de realización de la presente invención, se disparan al mismo tiempo dos cámaras para realizar una fotografía bidireccional, y las imágenes tomadas por ambas cámaras se muestran al mismo tiempo, de modo que las imágenes de las escenas frontal y posterior se capturan al mismo tiempo y se obtiene una imagen panorámica.
En otro modo de realización de la presente invención, cuando se utiliza una primera cámara para fotografiar y obtener una primera imagen y se utiliza una segunda cámara para fotografiar y obtener una segunda imagen, tal como se muestra en la FIG. 2, el proceso puede incluir los siguientes pasos:
Paso 201: obtener un primer parámetro de enfoque de la primera cámara y un segundo parámetro de enfoque de la segunda cámara.
5
10
15
20
25
30
35
40
45
50
Tomando como ejemplo el primer parámetro de enfoque, el primer parámetro de enfoque puede ser un parámetro de enfoque obtenido por la primera cámara en una forma de enfoque automático por defecto, o puede ser un parámetro de enfoque introducido manualmente por el usuario y obtenido por el terminal después de que el usuario haya introducido manualmente el parámetro o ajustado manualmente el enfoque. El segundo parámetro de enfoque es como el primer parámetro de enfoque, y no se vuelven a describir los detalles en la presente solicitud.
Tal como se muestra en la FIG. 3, la forma de obtener, por parte del terminal, un parámetro de enfoque introducido manualmente por un usuario puede incluir los siguientes pasos:
Paso 301: utilizar la primera cámara para obtener una vista previa de la primera imagen, y utilizar la segunda cámara para obtener una vista previa de la segunda imagen.
La vista previa de la primera imagen y la vista previa de la segunda imagen se pueden mostrar al mismo tiempo en áreas separadas; o la vista previa de la primera imagen se muestra a pantalla completa, y la vista previa de la segunda imagen se muestra en cierta área sobre la vista previa de la primera imagen.
Paso 302: determinar el primer parámetro de enfoque de la primera cámara de acuerdo con la operación del usuario para ajustar el enfoque para la vista previa de la primera imagen, y determinar el segundo parámetro de enfoque de la segunda cámara de acuerdo con la operación del usuario para ajustar el enfoque para la vista previa de la segunda imagen.
El usuario puede tocar directamente la pantalla para ajustar el enfoque para la vista previa de la primera imagen y la vista previa de la segunda imagen, respectivamente. Cuando la vista previa de la primera imagen se muestra a pantalla completa y la vista previa de la segunda imagen se muestra en cierta área sobre la vista previa de la primera imagen, con el fin de facilitar la operación del usuario para ajustar el enfoque para la vista previa de la segunda imagen, después de que el usuario haya ajustado el enfoque para la vista previa de la primera imagen, el usuario puede realizar una operación de deslizamiento sobre la pantalla de presentación y, después de detectar la operación de deslizamiento, el terminal cambia el modo de presentación de la vista previa de la primera imagen con el modo de presentación de la vista previa de la segunda imagen, esto es, muestra la vista previa de la segunda imagen a pantalla completa y muestra la vista previa de la primera imagen en cierta área sobre la vista previa de la segunda imagen y, a continuación, el terminal determina un segundo parámetro de enfoque de la segunda cámara de acuerdo con la operación del usuario para ajustar el enfoque para la vista previa de la segunda imagen.
Paso 202: utilizar la primera imagen para fotografiar y obtener una primera imagen de acuerdo con el primer parámetro de enfoque, y utilizar la segunda cámara para fotografiar y obtener una segunda imagen de acuerdo con el segundo parámetro de enfoque.
En otro modo de realización de la presente invención, cuando la primera imagen y la segunda imagen se muestran al mismo tiempo, una de las formas específicas de implementación es: mostrar la primera imagen, y mostrar la segunda imagen sobre un área de presentación especificada de la primera imagen. Tal como se muestra en la FIG. 4, el proceso de presentación puede incluir específicamente los siguientes pasos:
Paso 401: determinar un área de presentación especificada de la segunda imagen sobre la primera imagen.
El proceso de determinación del área de presentación especificada puede incluir concretamente:
1) Determinar un área prominente y un área no prominente en la primera imagen de acuerdo con un algoritmo preestablecido.
El algoritmo preestablecido puede ser un algoritmo existente, o un algoritmo de distribución basado en espacio, o un algoritmo de distribución basado en el rostro humano, o un algoritmo de distribución basado en bordes, etc. Por ejemplo:
Forma 1: algoritmo de distribución basado en espacio
En primer lugar se determina un área prominente, un área de nivel medio y un área no prominente de la primera imagen. Si la primera imagen se muestra a pantalla completa se puede determinar el área prominente, el área de nivel medio y el área no prominente de la pantalla de presentación. Tal como se muestra en la FIG. 5, el área de presentación de la pantalla de presentación se puede dividir en 3x3 zonas, el área central es un área prominente, el área fuera del área central se puede dividir en un área de nivel medio y un área no prominente en la medida en que atraen la atención de los ojos humanos, donde H representa un área prominente, M representa un área de nivel medio y L representa un área no prominente. El área de presentación especificado puede ser el área de nivel medio o el área no prominente. Cuando se muestra, la segunda imagen se puede mostrar en el área M o el área L.
Forma 2: algoritmo de distribución basado en el rostro humano
5
10
15
20
25
30
35
40
45
En primer lugar se obtiene una imagen de un rostro humano utilizando la cámara y, a continuación, el área de la imagen del rostro humano se clasifica como área prominente (H), y el área restante se clasifica como área no prominente (L), tal como se muestra en la FIG. 6. El área de presentación especificada puede ser el área no prominente. Si la primera imagen se muestra a pantalla completa la segunda imagen se puede situar en el área no prominente.
Forma 3: algoritmo de distribución basado en bordes
En primer lugar se determina un área prominente (H) y un área frontera (L) en función del algoritmo de distribución basado en bordes, tal como se muestra en la FIG. 7. El área de presentación especificada puede ser el área frontera. Si la primera imagen se muestra a pantalla completa, la segunda imagen se puede situar en el área frontera.
Forma 4: el área de presentación especificada puede estar preestablecida. El tamaño y la forma del área de presentación especificada pueden estar preestablecidos y también se pueden ajustar al mostrarse.
2) Utilizar el área no prominente en la primera imagen como el área de presentación especificada de la segunda imagen sobre la primera imagen.
Paso 402: mostrar la segunda imagen en el área de presentación especificada de la primera imagen.
En otro modo de realización de la presente invención, después de haber mostrado la segunda imagen en el área de presentación especificada de la primera imagen, tal como se muestra en la FIG. 8, el método puede incluir, además:
Paso 801: obtener una ubicación de la segunda imagen arrastrada por el usuario.
Si el usuario necesita ajustar una posición de presentación de la segunda imagen, el usuario puede tocar la segunda imagen y arrastrarla en la pantalla de presentación, y el terminal detecta la información de la operación de arrastre de la segunda imagen en función de las operaciones de tocar y arrastrar realizada por el usuario sobre la segunda imagen y, a continuación, puede obtener la ubicación de arrastre del usuario en función de la posición en la que el dedo del usuario toca la pantalla.
Paso 802: determinar una posición de presentación de la segunda imagen de acuerdo con la ubicación de arrastre.
Después de determinar la ubicación de arrastre, el terminal puede mostrar la segunda imagen de acuerdo con la ubicación de arrastre.
En otro modo de realización de la presente invención, después de haber mostrado la segunda imagen en el área de presentación especificada de la primera imagen, tal como se muestra en la FIG. 9, el método puede incluir, además, los siguientes pasos:
Paso 901: obtener información sobre la operación de intercambio del usuario de las áreas de presentación de la primera imagen y la segunda imagen.
La información de operación de intercambio puede específicamente ser la operación de deslizamiento del usuario entre la primera imagen y la segunda imagen, o la operación de toque continuo del usuario sobre la primera imagen y la segunda imagen, etc.
Paso 902: intercambiar las áreas de presentación de la primera imagen y la segunda imagen de acuerdo con la información de operación de intercambio.
Después del intercambio, la primera imagen se muestra en el área de presentación especificada de la segunda imagen, y la segunda imagen se puede mostrar a pantalla completa.
En otro modo de realización de la presente invención, después de haber mostrado la segunda imagen en el área de presentación especificada de la primera imagen, tal como se muestra en la FIG. 10, el método puede incluir, además, los siguientes pasos:
Paso 1001: obtener una similitud entre un área frontera de la segunda imagen y una posición que acomoda la segunda imagen en la primera imagen.
Específicamente, se pueden obtener características como, por ejemplo, color, borde y textura en el área frontera de la segunda imagen y aquellas en la posición que acomoda la segunda imagen en la primera imagen y, a continuación, se calcula la similitud entre las características.
Paso 1002: determinar si la similitud es mayor que un umbral.
5
10
15
20
25
30
35
40
45
50
Si la similitud es mayor que el umbral, indica que el color y el resto de características del borde de la segunda imagen son idénticos o similares a aquellos en la posición que acomoda la segunda imagen en la primera imagen y, en este caso, se ejecuta el paso 1003; y si la similitud es menor que el umbral, la primera imagen y la segunda imagen se pueden almacenar directamente, o se puede ejecutar el paso 1004.
Paso 1003: combinar la segunda imagen con la primera imagen.
Este paso puede consistir específicamente en ajustar el tono, la saturación, el contraste y el brillo en el borde de la segunda imagen y en la posición que acomoda la segunda imagen en la primera imagen, de modo que disminuya la diferencia entre el área frontera de la segunda imagen y la primera imagen y, a continuación, se oculta o cancela el borde de presentación de la segunda imagen, y la segunda imagen y la primera imagen se combinan en una imagen.
Paso 1004: ajustar la primera imagen y/o la segunda imagen para aumentar la similitud entre el área frontera de la segunda imagen y la posición que acomoda la segunda imagen en la primera imagen.
Específicamente, se pueden ajustar uno o más parámetros de parámetros como, por ejemplo, color, tono, saturación, contraste, brillo, curvatura y nivel de color de la primera imagen y/o la segunda imagen con el fin de aumentar la similitud entre el área frontera de la segunda imagen y la posición que acomoda la segunda imagen en la primera imagen, de modo que la segunda imagen se muestra con más naturalidad con un estilo consistente en la primera imagen.
Además, un modo de realización de la presente invención proporciona otro método de procesamiento de imagen.
Haciendo referencia a la FIG. 11, la FIG. 11 es un diagrama de flujo de otro método de procesamiento de imagen de acuerdo con un modo de realización de la presente invención.
En el modo de realización de la presente invención, tal como se muestra en la FIG. 12, el terminal dispone de una lente auxiliar panorámica 121 y al menos una cámara 122. La lente auxiliar panorámica 121 puede ser una lente de reflexión o refracción anular colocada en el terminal. La lente auxiliar panorámica 121 puede reflejar o refractar una vista que rodea el terminal, donde la vista que rodea el terminal puede ser una vista anular de 360-grados centrada en el terminal. La lente auxiliar panorámica 121 se encuentra en tal relación de posición con respecto a la cámara 122 que la lente auxiliar panorámica 121 puede reflejar o refractar la vista que rodea el terminal a un área de fotografía de la cámara 122. El método puede incluir los siguientes pasos:
Paso 111: recibir la vista reflejada o refractada por parte de la lente auxiliar panorámica.
Dependiendo de la configuración por defecto, el terminal puede habilitar de forma automática una función de fotografía panorámica cuando el usuario inicia la aplicación de fotografía. En este caso, la lente auxiliar panorámica refleja o refracta la vista que rodea a la cámara, donde la lente auxiliar panorámica es una lente de reflexión o una lente de refracción anular que refleja o refracta una vista anular en un campo de 360 grados alrededor de la cámara.
Alternativamente, cuando el usuario inicia la aplicación de fotografía, el terminal puede mostrar al usuario una variedad de información de opciones, por ejemplo, información sobre un modo frontal, un modo posterior, un modo de fotograma completo de 360 grados, etc. El modo frontal se refiere a activar en el terminal únicamente la captura de la vista frontal, donde la escala por defecto es 3:2, y se puede realizar un ajuste definido por el usuario en función de los requisitos del usuario en escenarios como, por ejemplo, autodisparador y video llamadas. El modo posterior se refiere a activar en el terminal únicamente la captura de la vista posterior, donde la escala por defecto es 3:2, y se puede realizar un ajuste definido por el usuario en función de los requisitos del usuario en escenarios como, por ejemplo, una fotografía y una grabación de vídeo normales de usuarios. El modo de fotograma completo de 360 grados se refiere a la activación de una búsqueda y captura de una vista de 360 grados, y a la utilización de una lente auxiliar panorámica y una única cámara para obtener una imagen panorámica de 360 grados. En función de la operación del usuario de selección del modo de fotograma completo de 360 grados, el terminal recibe una vista anular reflejada por la lente auxiliar panorámica.
Paso 112: utilizar la cámara para fotografiar la vista reflejada o refractada por la lente auxiliar panorámica para obtener una imagen.
La cámara fotografía la vista anular reflejada o refractada por parte de la lente auxiliar panorámica con el fin de obtener una imagen panorámica, la cual puede ser específicamente una imagen panorámica de 360 grados centrada en el terminal.
Paso 113: mostrar la imagen obtenida mediante el fotografiado.
La imagen panorámica se puede presentar mediante múltiples formas de visualización, por ejemplo:
5
10
15
20
25
30
35
40
45
50
Forma 1: tal como se muestra en la FIG. 13a, la imagen panorámica obtenida se puede presentar de forma continua en forma de expansión plana, o tal como se muestra en la FIG. 13b, la imagen panorámica obtenida se presenta de forma continua en forma anular, y el usuario puede deslizarla sobre la pantalla táctil para desplazar la imagen panorámica de forma continua.
Forma 2: la imagen panorámica se puede dividir en múltiples imágenes desde diferentes ángulos, mostrarse en diferentes posiciones sobre la pantalla de presentación al mismo tiempo. Por ejemplo, tal como se muestra en la FIG. 14, la imagen de una vista frontal del terminal se muestra en el lado izquierdo del centro de la pantalla, y es la misma que la imagen fotografiada por una cámara frontal tradicional del terminal; la imagen de una vista detrás del terminal se muestra en el lado derecho del centro de la pantalla, y es la misma que la imagen fotografiada por una cámara posterior tradicional del terminal; la imagen de una vista en el campo de 180 grados frente al terminal se muestra en la parte superior de la pantalla; y la imagen de una vista en el campo de 180 grados detrás del terminal se muestra en la parte inferior de la pantalla. No obstante, se pueden mostrar múltiples imágenes desde diferentes ángulos.
En otro modo de realización de la presente invención, antes de mostrar la imagen obtenida al hacer la fotografía, el método puede incluir, además:
si la imagen obtenida utilizando la cámara para fotografiar la vista anular reflejada o refractada por la lente auxiliar panorámica es una imagen no plana, procesar la imagen no plana en una imagen plana.
Tal como se muestra en la FIG. 15, si la lente auxiliar panorámica 151 es un reflector curvado, la vista reflejada por el reflector también es una vista curvada, y la imagen obtenida mediante la fotografía también es una imagen curvada 152 distorsionada. En este paso, utilizando un algoritmo existente, la imagen curvada 152 se puede procesar en una imagen plana 153 y, a continuación, se muestra la imagen plana 153.
En otro modo de realización de la presente invención, tal como se muestra en la FIG. 16, el proceso de utilización de una cámara para fotografiar una vista anular reflejada o refractada mediante una lente auxiliar panorámica para obtener una imagen puede incluir los siguientes pasos:
Paso 161: obtener un parámetro de enfoque de la cámara.
El parámetro de enfoque puede ser un parámetro de enfoque obtenido por la cámara en una forma de enfoque automático por defecto; o puede ser un parámetro de enfoque introducido manualmente por el usuario y obtenido por el terminal después de que el usuario introduzca manualmente el parámetro o ajuste manualmente el enfoque.
La obtención, por parte del terminal, de un parámetro de enfoque introducido manualmente por el usuario puede incluir:
en primer lugar, utilizar la cámara para obtener una vista previa de la vista reflejada o refractada por parte de la lente auxiliar panorámica, donde la vista previa incluye múltiples vistas previas parciales desde diferentes ángulos,
donde las múltiples vistas previas parciales en la vista previa se pueden distribuir de la forma que se muestra en la FIG. 14; y
a continuación, determinar un parámetro de enfoque de la cámara en función de la operación del usuario de ajuste de un enfoque para una vista previa parcial de las múltiples vistas previas parciales. En la vista previa presentada de la forma que se muestra en la FIG. 14, el usuario puede ajustar manualmente el enfoque para una vista previa desde un ángulo para determinar el parámetro de enfoque de la cámara. En función de la operación del usuario de ajuste del enfoque para la vista previa desde un ángulo, el terminal puede actualizar en tiempo real las vistas previas desde otros ángulos después de haber ajustado el enfoque.
Independientemente de la forma de obtención del parámetro de enfoque, en el momento de determinar el parámetro de enfoque, el orden de preferencia de un objetivo de enfoque sobre el que se determina el parámetro de enfoque puede ser: en la forma de presentación que se muestra en la FIG. 14, la vista previa de la vista posterior (en el lado derecho de la parte central de la FIG. 14) es la primera opción, la vista previa de la vista frontal (en el lado izquierdo de la parte central de la FIG. 14) es la segunda opción, la vista previa de la vista posterior de 180 grados (en la parte superior de la FIG. 14) es la tercera opción, y la vista previa de la vista frontal de 180 grados (en la parte inferior de la FIG. 14) es la última opción.
Paso 162: en función del parámetro de enfoque, utilizar la cámara para fotografiar la vista anular reflejada o refractada por la lente auxiliar panorámica para obtener una imagen.
En otro modo de realización de la presente invención, después de mostrar la imagen obtenida mediante el fotografiado, tal como se muestra en la FIG. 17a, el método de procesamiento de imagen puede incluir, además:
5
10
15
20
25
30
35
40
45
Paso 171: recortar la imagen obtenida mediante el fotografiado de acuerdo con una escala predefinida.
Específicamente, la vista de 360 grados se puede recortar de acuerdo con cualquier escala (por ejemplo, una escala determinada por el usuario arrastrando un área de recorte) o una escala de plantilla (por ejemplo, 3:2 horizontal a vertical, 4:3 horizontal a vertical, 16:9 horizontal a vertical, 1:1, etc.). Tal como se muestra en la FIG. 17b, la vista recortada se puede aplanar automáticamente en función de un algoritmo y almacenarse a continuación.
Paso 172: almacenar la imagen recortada.
Sin embargo, la vista de 360 grados también se puede almacenar directamente sin recortar.
El modo de realización de la presente invención es aplicable a una cámara digital, una cámara de vídeo digital, o incluso una cámara profesional, con el fin de implementar la captura de más información y se puede aplicar en escenarios como, por ejemplo, televisión, películas o incluso en el campo de los juegos, por ejemplo, se pueden grabar y presentar programas interactivos y películas interactivas. Durante la visualización el usuario puede realizar una rotación para visualizar otras zonas diferentes, y puede llevar un dispositivo en la cabeza para implementar una experiencia 4D real. En el campo de los negocios, el modo de realización de la presente invención se puede integrar en un sistema de conferencia de telepresencia. En un escenario como, por ejemplo, una demostración o una conferencia, se puede implementar una conferencia de fotograma completo que mejore el sistema de telepresencia actual.
La descripción anterior se ocupa de modos de realización del método de la presente invención y, a continuación, se introduce un equipo para implementar el método.
Haciendo referencia a la FIG. 18, la FIG. 18 es un diagrama esquemático de la estructura de un equipo de procesamiento de imagen de acuerdo con un modo de realización de la presente invención.
El equipo puede incluir:
una unidad 181 de recepción de información, configurada recibir al mismo tiempo información de disparo de una primera cámara y una segunda cámara para realizar una fotografía.
una unidad 182 de obtención de imágenes, configurada para utilizar la primera cámara para fotografiar y obtener una primera imagen, y utilizar la segunda cámara para fotografiar y obtener una segunda imagen.
una unidad 183 de salida de imágenes, configurada para mostrar al mismo tiempo la primera imagen y la segunda imagen.
En el modo de realización de la presente invención la unidad anterior en el equipo dispara al mismo tiempo dos cámaras para realizar una fotografía bidireccional, y muestra al mismo tiempo las imágenes tomadas por ambas cámaras de modo que se capturan al mismo tiempo las imágenes de la escena frontal y posterior y se obtiene una imagen panorámica.
En otro modo de realización, tal como se muestra en la FIG. 19, la unidad de obtención de imágenes puede incluir, además:
una subunidad 191 de obtención de parámetros, configurada para obtener un primer parámetro de enfoque de la primera cámara y un segundo parámetro de enfoque de la segunda cámara; y
una subunidad 192 de obtención de imágenes, configurada para utilizar la primera cámara para fotografiar de acuerdo con el primer parámetro de enfoque y obtener la primera imagen, y utilizar la segunda cámara para fotografiar de acuerdo con el segundo parámetro de enfoque y obtener la segunda imagen.
En otro modo de realización, la subunidad 191 de obtención de parámetros puede incluir, además:
una primera subunidad, configurada para utilizar la primera cámara para obtener una vista previa de la primera imagen; y
una segunda subunidad, configurada para determinar el primer parámetro de enfoque de la primera cámara de acuerdo con una operación de ajuste del enfoque para la vista previa de la primera imagen.
En otro modo de realización de la presente invención, tal como se muestra en la FIG. 20, la unidad de salida de imágenes puede incluir, además:
una subunidad 2001 de determinación de área, configurada para determinar un área de presentación especificada de la segunda imagen sobre la primera imagen; y
5
10
15
20
25
30
35
40
45
una subunidad 2002 de salida, configurada para mostrar la segunda imagen en el área de presentación especificada de la primera imagen.
La subunidad 2001 de determinación de área puede incluir, además:
una tercera subunidad, configurada para determinar un área prominente y un área no prominente en la primera imagen de acuerdo con un algoritmo preestablecido; y
una cuarta subunidad, configurada para utilizar el área no prominente en la primera imagen como el área de presentación especificada de la segunda imagen sobre la primera imagen.
En otro modo de realización de la presente invención, el equipo de procesamiento de imagen puede incluir, además:
una unidad de obtención de ubicación, configurada para obtener una ubicación de arrastre de la segunda imagen; y
una unidad de determinación de posición, configurada para determinar una posición de presentación de la segunda imagen en función de la ubicación de arrastre.
En otro modo de realización de la presente invención, el equipo de procesamiento de imagen puede incluir, además:
una unidad de obtención de información, configurada para obtener información sobre las operaciones de intercambio de las áreas de presentación de la primera imagen y la segunda imagen; y
una unidad de intercambio, configurada para intercambiar las áreas de presentación de la primera imagen y la segunda imagen de acuerdo con la información sobre la operación de intercambio.
En otro modo de realización de la presente invención, el equipo de procesamiento de imagen puede incluir, además:
una unidad de cálculo, configurada para obtener una similitud entre un área frontera de la segunda imagen y una posición que acomoda la segunda imagen en la primera imagen;
una unidad de síntesis, configurada para combinar la segunda imagen con la primera imagen si la similitud es mayor o igual que un umbral; y
una unidad de ajuste, configurada para ajustar la primera imagen y/o la segunda imagen para aumentar la similitud si la similitud es menor o igual que el umbral.
La FIG. 21 es un diagrama esquemático de la estructura de otro equipo de procesamiento de imagen de acuerdo con un modo de realización de la presente invención.
El equipo se aplica a un terminal con una lente auxiliar panorámica y al menos una cámara, donde la lente auxiliar panorámica se utiliza para reflejar o refractar una vista alrededor del terminal en un área de fotografiado de la cámara, y el equipo incluye:
una unidad 211 de recepción de vista, configurada para recibir la vista reflejada o refractada por parte de la lente auxiliar panorámica;
una unidad 212 de obtención de imagen, configurada para utilizar la cámara para fotografiar la vista reflejada o refractada por parte de la lente auxiliar panorámica para obtener una imagen; y
una unidad 213 de salida de imágenes, configurada para mostrar la imagen obtenida mediante el fotografiado.
La unidad 213 de salida de imágenes puede estar específicamente configurada para: presentar de forma continua la imagen obtenida mediante el fotografiado en una forma de expansión plana; o presentar de forma continua la imagen obtenida mediante el fotografiado en una forma de presentación anular; o dividir la imagen obtenida mediante el fotografiado en múltiples imágenes desde diferentes ángulos, y presentar simultáneamente las múltiples imágenes desde diferentes ángulos.
En el modo de realización de la presente invención, el equipo puede utilizar las unidades para capturar al mismo tiempo las imágenes de escena frontal y posterior y obtener una imagen panorámica.
En otro modo de realización de la presente invención, la unidad de obtención de imágenes puede incluir, además:
una subunidad de vista previa, configurada para utilizar la cámara para obtener una vista previa de la vista reflejada o refractada por parte de la lente auxiliar panorámica, donde la vista previa incluye la vista previa de vistas parciales desde diferentes ángulos;
5
10
15
20
25
30
35
40
45
50
una subunidad de determinación de parámetros, configurada para determinar un parámetro de enfoque de la cámara de acuerdo con una operación de ajuste del foco para cualquier vista previa de las vistas previas parciales de las múltiples vistas previas de vistas previas parciales; y
una subunidad de obtención, configurada para: en función del parámetro de enfoque, utilizar la cámara para fotografiar la vista reflejada o refractada por parte de la lente auxiliar panorámica para obtener una imagen.
En otro modo de realización de la presente invención, el equipo puede incluir, además:
una unidad de recorte, configurada para recortar la imagen obtenida mediante el fotografiado de acuerdo con una escala definida; y
una unidad de almacenamiento, configurada para almacenar la imagen recortada.
Haciendo referencia a la FIG. 22, la FIG. 22 es un diagrama esquemático de la estructura de un terminal de acuerdo con un modo de realización de la presente invención.
El terminal puede incluir un procesador 221, una pantalla 222, una memoria 223, una primera cámara 224, y una segunda cámara 225, donde el procesador 221 está configurado para controlar los estados de funcionamiento de la primera cámara 224 y la segunda cámara 225, el procesador 221 está conectado a la pantalla 222 y la memoria 223, respectivamente, la memoria 223 almacena un conjunto de códigos de programa, y el procesador 221 está configurado para invocar los códigos de programa almacenados en la memoria para ejecutar las siguientes operaciones:
recibir al mismo tiempo información de disparo de la primera cámara 224 y la segunda cámara 225 para realizar una fotografía;
utilizar la primera cámara 224 para fotografiar y obtener una primera imagen, y utilizar la segunda cámara 225 para fotografiar y obtener una segunda imagen; y
la pantalla 222 está configurada para presentar al mismo tiempo la primera imagen y la segunda imagen.
En el modo de realización de la presente invención, el terminal dispara al mismo tiempo dos cámaras para realizar una fotografía bidireccional y muestra simultáneamente las imágenes tomadas por ambas cámaras, de modo que las imágenes de las escenas frontal y posterior se capturan al mismo tiempo y se obtiene una imagen panorámica.
La FIG. 23 es un diagrama esquemático de la estructura de otro terminal de acuerdo con un modo de realización de la presente invención.
El terminal puede incluir un procesador 231, una pantalla 232, una memoria 233, una lente auxiliar panorámica 234, y al menos una cámara 235, donde el procesador 231 está configurado para controlar los estados de funcionamiento de la cámara 235, la lente auxiliar panorámica 234 está configurada para reflejar o refractar una vista alrededor del terminal en un área de fotografía de la cámara 235, el procesador 231 está conectado a la pantalla 232 y la memoria 233, respectivamente, la memoria 233 almacena un conjunto de códigos de programa, y el procesador 231 está configurado para invocar los códigos de programa almacenados en la memoria 233 para ejecutar las siguientes operaciones:
recibir la vista reflejada o refractada por parte de la lente auxiliar panorámica 234;
utilizar la cámara 235 para fotografiar la vista reflejada o refractada por parte de la lente auxiliar panorámica 233 para obtener una imagen; y
la pantalla 232 está configurada para presentar la imagen obtenida mediante el fotografiado.
En el modo de realización de la presente invención, el terminal utiliza una lente auxiliar panorámica y una única cámara para capturar al mismo tiempo las imágenes de la escena frontal y posterior y obtener una imagen panorámica.
En otro modo de realización de la presente invención, tal como se muestra en la FIG. 24, la lente auxiliar panorámica 241 puede estar situada en la parte superior del terminal y conectada de forma resiliente a la parte superior del terminal y, mientras está funcionando, la lente auxiliar panorámica 241 sobresale del terminal para reflejar o refractar una vista alrededor del terminal a un área de fotografiado de la cámara 242. La lente auxiliar panorámica 241 puede ser específicamente una lente convexa anular 243 o una lente de ojo de pez 244. La lente de ojo de pez es una lente con una distancia focal muy corta (por ejemplo, una distancia focal de 16 mm o inferior) y un ángulo cercano o igual a 180°, y es una lente de gran angular extremo.
Una persona con un conocimiento normal en la técnica conoce que, en combinación con los ejemplos descritos en los modos de realización divulgados en esta memoria descriptiva, las unidades y pasos de algoritmo se
5
10
15
20
25
30
35
40
pueden implementar mediante hardware electrónico, o una combinación de software informático y hardware electrónico. Si las funciones se implementan mediante hardware o software depende de las aplicaciones concretas y las condiciones de restricción de diseño de la solución técnica. Una persona experimentada en la técnica puede utilizar diferentes métodos para implementar las funciones descritas para cada aplicación concreta, pero no se debería considerar que la implementación va más allá del alcance de la presente invención.
Una persona experimentada en la técnica puede comprender claramente que, para el propósito de una descripción conveniente y breve, para un proceso de funcionamiento detallado del sistema, equipo y unidad anteriores, se puede hacer referencia a un proceso correspondiente en los modos de realización del método anterior y los detalles no se vuelven a describir en la presente solicitud.
En los distintos modos de realización proporcionados en la presente solicitud, se debe entender que el sistema, equipo y método divulgados se pueden implementar de otras formas. Por ejemplo, el modo de realización del equipo descrito es tan solo un ejemplo. Por ejemplo, la división en unidades es únicamente una división de funciones lógicas y en una implementación real puede ser otro tipo de división. Por ejemplo, una pluralidad de unidades o componentes se pueden combinar o integrar en otro sistema, o algunas características se pueden ignorar o no implementar. Además, los acoplamientos mutuos o acoplamientos directos o conexiones de comunicación mostrados o descritos se pueden implementar mediante algunas interfaces. Los acoplamientos indirectos o las conexiones de comunicación entre equipos o unidades se pueden implementar de forma electrónica, mecánica u otras formas.
Las unidades descritas como componentes independientes pueden estar o no físicamente separados, y los componentes mostrados como unidades pueden ser o no unidades físicas, pueden estar localizados en una posición, o se pueden distribuir en una pluralidad de unidades de red. Algunas o todas las unidades se pueden seleccionar para que cumplan el objetivo de la solución del modo de realización en función de las necesidades reales.
Además, las unidades funcionales en los modos de realización de la presente invención se pueden integrar en una unidad de procesamiento, o cada una de las unidades puede existir físicamente de forma independiente, o dos o más unidades se pueden integrar en una unidad.
Cuando las funciones se implementan en forma de una unidad funcional software y se comercializan o utilizan como un producto independiente, las funciones se pueden almacenar en un medio de almacenamiento legible por un ordenador. Basándose en dicho conocimiento, las soluciones técnicas de la presente invención esencialmente, o las parte que contribuye a la técnica anterior, o todas o parte de las soluciones técnicas se pueden implementar en forma de producto software. El producto software informático se almacena en un medio de almacenamiento e incluye varias instrucciones para gestionar un dispositivo informático (el cual puede ser un ordenador personal, un servidor o un dispositivo de red) o un procesador (procesador) para realizar todos o una parte de los pasos de los métodos descritos en los modos de realización de la presente invención. El medio de almacenamiento anterior incluye cualquier medio que pueda almacenar códigos de programa como, por ejemplo, un disco flash USB, un disco duro extraíble, una memoria de sólo lectura (Read-Only Memory, ROM), una memoria de acceso aleatorio (Random Access Memory, RAM), un disco magnético, o un disco óptico.
Las descripciones anteriores son únicamente modos de realización específicos de la presente invención, pero no pretenden limitar el alcance de protección de la presente invención. Cualquier variación o sustitución fácilmente ideada por una persona experimentada en la técnica dentro del alcance técnico descrito en la presente invención se considerará dentro del alcance de protección de las presente invención. Por lo tanto, el alcance de protección de la presente invención estará sujeto al alcance de protección de las reivindicaciones.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Un método de procesamiento de imagen, que comprende:
    recibir al mismo tiempo información de disparo de una primera cámara (224) y una segunda cámara (225) para realizar un fotografiado;
    utilizar la primera cámara (224) para fotografiar y obtener una primera imagen, y utilizar la segunda cámara (225) para fotografiar y obtener una segunda imagen; y
    presentar al mismo tiempo la primera imagen y la segunda imagen;
    en donde la presentación simultánea de la primera imagen y la segunda imagen comprende:
    determinar un área de presentación especificada de la segunda imagen en la primera imagen; y
    presentar la segunda imagen en el área de presentación especificada de la primera imagen; y
    en donde la determinación de un área de presentación especificada de la segunda imagen en la primera imagen comprende:
    determinar un área prominente (H) y un área no prominente (L) en la primera imagen de acuerdo con un algoritmo preestablecido; y
    utilizar el área no prominente (L) en la primera imagen como el área de presentación especificada de la segunda imagen en la primera imagen;
    caracterizado por que después de la presentación simultánea de la primera imagen y la segunda imagen, el método comprende, además:
    obtener una similitud entre un área frontera de la segunda imagen y un área de la primera imagen en una posición que acomoda la segunda imagen en la primera imagen, en donde se obtienen características que comprenden, color, borde y textura en el área frontera de la segunda imagen y en la posición que acomoda la segunda imagen en la primera imagen y, a continuación, se calcula la similitud entre las características;
    ajustar la primera imagen y/o la segunda imagen para aumentar la similitud si la similitud es menor que un umbral, en donde se ajustan uno o más parámetros de los parámetros que comprenden color, tonalidad, saturación, contraste, brillo, curvatura y nivel de color de la primera imagen y/o la segunda imagen con el fin de aumentar la similitud entre el área frontera de la segunda imagen y el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, de modo que la segunda imagen se muestra de modo más natural con un estilo consistente en la primera imagen; y
    combinar la segunda imagen con la primera imagen si la similitud es mayor que el umbral, en donde se ajustan la tonalidad, saturación, contraste y brillo en el borde de la segunda imagen y en el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, con el fin de reducir la diferencia entre el borde de la segunda imagen y la primera imagen, y la segunda imagen y la primera imagen se combinan en una imagen.
  2. 2. El método de acuerdo con la reivindicación 1, en donde la utilización de la primera cámara (224) para fotografiar y obtener una primera imagen comprende:
    obtener un primer parámetro de enfoque de la primera cámara (224); y
    utilizar la primera cámara (222) para fotografiar de acuerdo con el primer parámetro de enfoque para obtener la primera imagen.
  3. 3. El método de acuerdo con la reivindicación 2, en donde la obtención de un primer parámetro de enfoque de la primera cámara (224) comprende:
    utilizar la primera cámara (224) para obtener una vista previa de la primera imagen; y
    determinar el primer parámetro de enfoque de la primera cámara (224) en función de una operación de ajuste del enfoque para la vista previa de la primera imagen.
  4. 4. El método de acuerdo con la reivindicación 1, en donde el algoritmo preestablecido es un algoritmo de distribución basado en espacio, y la determinación de un área prominente (H) y un área no prominente (L) en la primera imagen de acuerdo con un algoritmo preestablecido comprende:
    5
    10
    15
    20
    25
    30
    35
    40
    45
    si la primera imagen se muestra a pantalla completa, determinar un área central de un área de presentación como el área prominente (H) y dividir el área fuera del área central en un área de nivel medio (M) y un área no prominente (L) en la medida en que atraen la atención de los ojos humanos.
  5. 5. El método de acuerdo con la reivindicación 1, en donde el algoritmo preestablecido es un algoritmo de distribución basado en el rostro humano, y la determinación de un área prominente (H) y un área no prominente (L) en la primera imagen de acuerdo con un algoritmo preestablecido comprende:
    obtener una imagen del rostro humano de un usuario utilizando la primera cámara (224);
    clasificar el área de la imagen del rostro humano como área prominente (H); y
    clasificar el área restante como área no prominente (L).
  6. 6. El método de acuerdo con la reivindicación 1, en donde: después de mostrar simultáneamente la primera imagen y la segunda imagen, el método comprende, además:
    obtener una ubicación de arrastre de la segunda imagen, en donde la ubicación de arrastre es obtenida por el usuario tocando la segunda imagen, y arrastrando la segunda imagen en una pantalla de presentación, y la información de la operación de arrastre de la segunda imagen se determina en función de las operaciones de tocar y arrastrar realizadas por el usuario sobre la segunda imagen, y la ubicación de arrastre del usuario está determinada en función de la posición en la que el dedo del usuario toca la pantalla de presentación; y
    determinar una posición de presentación de la segunda imagen de acuerdo con la ubicación de arrastre.
  7. 7. El método de acuerdo con la reivindicación 1, en donde: después de la presentación simultánea de la primera imagen y la segunda imagen, el método comprende, además:
    obtener información sobre operaciones de intercambio sobre las áreas de presentación de la primera imagen y la segunda imagen; e
    intercambiar las áreas de presentación de la primera imagen y la segunda imagen en función de la información sobre las operaciones de intercambio.
  8. 8. Un equipo de procesamiento de imagen, que comprende:
    una unidad (181) de recepción de información, configurada para recibir simultáneamente información de disparo de una primera cámara (224) y una segunda cámara (225) para realizar un fotografiado;
    una unidad (182) de obtención de imágenes, configurada para utilizar la primera cámara (224) para fotografiar y obtener una primera imagen, y utilizar la segunda cámara (225) para fotografiar y obtener una segunda imagen; y
    una unidad (183) de salida de imágenes, configurada para presentar simultáneamente la primera imagen y la segunda imagen,
    en donde la unidad (183) de salida de imágenes comprende:
    una subunidad (2001) de determinación de área, configurada para determinar un área de presentación especificada de la segunda imagen en la primera imagen; y
    una subunidad (2002) de salida, configurada para presentar la segunda imagen en el área de presentación especificada de la primera imagen; y
    en donde la subunidad (2001) de determinación de área comprende:
    una tercera subunidad, configurada para determinar un área prominente (H) y un área no prominente (L) en la primera imagen en función de un algoritmo preestablecido; y
    una cuarta subunidad, configurada para utilizar el área no prominente (L) en la primera imagen como el área de presentación especificada de la segunda imagen en la primera imagen;
    en donde el equipo de procesamiento de imagen comprende, además
    una unidad de cálculo, configurada para obtener una similitud entre un área frontera de la segunda imagen y un área de la primera imagen en una posición que acomoda la segunda imagen en la primera imagen, en donde se obtienen características que comprenden, color, borde y textura en el área frontera de la segunda imagen y en la posición que acomoda la segunda imagen en la primera imagen y, a continuación, se calcula la similitud entre las características;
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    una unidad de ajuste, configurada para ajustar la primera imagen y/o la segunda imagen para aumentar la similitud si la similitud es menor que el umbral, en donde se ajustan uno o más parámetros de los parámetros que comprenden color, tonalidad, saturación, contraste, brillo, curvatura y nivel de color de la primera imagen y/o la segunda imagen con el fin de aumentar la similitud entre el área frontera de la segunda imagen y el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, de modo que la segunda imagen se muestra de forma más natural con un estilo consistente en la primera imagen; y
    una unidad de síntesis, configurada para combinar la segunda imagen con la primera imagen si la similitud es mayor que el umbral, en donde se ajustan la tonalidad, saturación, contraste y brillo en el borde de la segunda imagen y en el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, con el fin de reducir la diferencia entre el borde de la segunda imagen y la primera imagen, y la segunda imagen y la primera imagen se combinan en una imagen.
  9. 9. El equipo de acuerdo con la reivindicación 8, en donde la unidad (182) de obtención de imágenes comprende:
    una subunidad (191) de obtención de parámetros, configurada para obtener un primer parámetro de enfoque de la primera cámara (224) y un segundo parámetro de enfoque de la segunda cámara (225); y
    una subunidad (192) de obtención de imágenes, configurada para utilizar la primera cámara (224) para fotografiar de acuerdo con el primer parámetro de enfoque con el fin de obtener la primera imagen y utilizar la segunda cámara (225) para fotografiar de acuerdo con el segundo parámetro de enfoque con el fin de obtener la segunda imagen.
  10. 10. El equipo de acuerdo con la reivindicación 9, en donde la subunidad (191) de obtención de parámetros comprende:
    una primera subunidad, configurada para utilizar la primera cámara (224) para obtener una vista previa de la primera imagen; y
    una segunda subunidad, configurada para determinar el primer parámetro de enfoque de la primera cámara (224) en función de una operación de ajuste del enfoque para la vista previa de la primera imagen.
  11. 11. El equipo de acuerdo con la reivindicación 8, en donde el algoritmo preestablecido es un algoritmo de distribución basado en espacio, y la tercera subunidad está configurada para determinar un área central de un área de presentación como un área prominente (H) y dividir un área fuera del área central en un área de nivel medio (M) y un área no prominente (L) en la medida en que atraen la atención de los ojos humanos si la primera imagen se muestra a pantalla completa.
  12. 12. El equipo de acuerdo con la reivindicación 8, en donde el algoritmo preestablecido es un algoritmo de distribución basado en el rostro humano, y la tercera subunidad está configurada para obtener una imagen del rostro humano de un usuario utilizando la primera cámara (224); clasificar el área de la imagen del rostro humano como área prominente (H); y clasificar el área restante como área no prominente (L).
  13. 13. El equipo de acuerdo con la reivindicación 8, que comprende, además:
    una unidad de obtención de ubicación, configurada para obtener una ubicación de arrastre de la segunda imagen, en donde la ubicación de arrastre es obtenida por el usuario tocando la segunda imagen, y arrastrando la segunda imagen en una pantalla de presentación, y la información de la operación de arrastre de la segunda imagen se determina en función de las operaciones de tocar y arrastrar realizadas por el usuario sobre la segunda imagen, y la ubicación de arrastre del usuario está determinada en función de la posición en la que el dedo del usuario toca la pantalla de presentación; y
    una unidad de determinación de posición, configurada para determinar una posición de presentación de la segunda imagen en función de la ubicación de arrastre.
  14. 14. El equipo de acuerdo con la reivindicación 8, que comprende, además:
    una unidad de obtención de información, configurada para obtener información sobre operaciones de intercambio sobre las áreas de presentación de la primera imagen y la segunda imagen; y
    una unidad de intercambio, configurada para intercambiar las áreas de presentación de la primera imagen y la segunda imagen en función de la información sobre las operaciones de intercambio.
  15. 15. Un terminal, que comprende un procesador (221), una pantalla (222), una memoria (223), una primera cámara (224), y una segunda cámara (225), en donde el procesador (221) está configurado para controlar los estados de funcionamiento de la primera cámara (224) y la segunda cámara (225), el procesador (221) está conectado a la pantalla (222) y la memoria (223), respectivamente, la memoria (223) almacena un conjunto de
    5
    10
    15
    20
    25
    30
    códigos de programa, y el procesador (221) está configurado para invocar los códigos de programa almacenados en la memoria (223) para ejecutar la siguientes operaciones:
    recibir al mismo tiempo información de disparo de la primera cámara (224) y la segunda cámara (225) para realizar un fotografiado; y
    utilizar la primera cámara (224) para fotografiar y obtener una primera imagen, y utilizar la segunda cámara (225) para fotografiar y obtener una segunda imagen; y
    la pantalla (222) está configurada para presentar simultáneamente la primera imagen y la segunda imagen;
    en donde la presentación simultánea de la primera imagen y la segunda imagen comprende:
    determinar un área de presentación especificada de la segunda imagen en la primera imagen; y presentar la segunda imagen en el área de presentación especificada de la primera imagen; y
    en donde la determinación de un área de presentación especificada de la segunda imagen en la primera imagen comprende:
    determinar un área prominente (H) y un área no prominente (L) en la primera imagen en función de
    un algoritmo preestablecido; y
    utilizar el área no prominente (L) en la primera imagen como el área de presentación especificada de
    la segunda imagen en la primera imagen;
    después de la presentación simultánea de la primera imagen y la segunda imagen, obtener la similitud entre un área frontera de la segunda imagen y un área de la primera imagen en una posición que acomoda la segunda imagen en la primera imagen, en donde se obtienen características que comprenden, color, borde y textura en el área frontera de la segunda imagen y en la posición que acomoda la segunda imagen en la primera imagen y, a continuación, se calcula la similitud entre las características;
    ajustar la primera imagen y/o la segunda imagen para aumentar la similitud si la similitud es menor que un umbral, en donde se ajustan uno o más parámetros de los parámetros que comprenden color, tonalidad, saturación, contraste, brillo, curvatura y nivel de color de la primera imagen y/o la segunda imagen con el fin de aumentar la similitud entre el área frontera de la segunda imagen y el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, de modo que la segunda imagen se muestra de forma más natural con un estilo consistente en la primera imagen; y
    combinar la segunda imagen con la primera imagen si la similitud es mayor que el umbral, en donde se ajustan la tonalidad, saturación, contraste y brillo en el borde de la segunda imagen y en el área de la primera imagen en la posición que acomoda la segunda imagen en la primera imagen, con el fin de reducir la diferencia entre el borde de la segunda imagen y la primera imagen, y la segunda imagen y la primera imagen se combinan en una imagen.
ES13801460.0T 2013-01-07 2013-08-07 Método y dispositivo de procesamiento de imagen Active ES2688122T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310004832.6A CN103916582B (zh) 2013-01-07 2013-01-07 一种图像处理方法及装置
CN201310004832 2013-01-07
PCT/CN2013/080974 WO2014106381A1 (zh) 2013-01-07 2013-08-07 一种图像处理方法及装置

Publications (1)

Publication Number Publication Date
ES2688122T3 true ES2688122T3 (es) 2018-10-31

Family

ID=50877222

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13801460.0T Active ES2688122T3 (es) 2013-01-07 2013-08-07 Método y dispositivo de procesamiento de imagen

Country Status (5)

Country Link
US (2) US8922695B2 (es)
EP (2) EP2779628B1 (es)
CN (4) CN107580178B (es)
ES (1) ES2688122T3 (es)
WO (1) WO2014106381A1 (es)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9557885B2 (en) 2011-08-09 2017-01-31 Gopro, Inc. Digital media editing
KR102076773B1 (ko) * 2013-01-04 2020-02-12 삼성전자주식회사 영상 데이터 획득 방법 및 그 방법을 처리하는 전자 장치
CN107580178B (zh) * 2013-01-07 2022-04-05 华为技术有限公司 一种图像处理方法及装置
US9760768B2 (en) 2014-03-04 2017-09-12 Gopro, Inc. Generation of video from spherical content using edit maps
US20150288880A1 (en) * 2014-04-07 2015-10-08 Wu-Hsiung Chen Image capturing method and image capturing apparatus
US9685194B2 (en) 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US20160026874A1 (en) 2014-07-23 2016-01-28 Gopro, Inc. Activity identification in video
CN105338238B (zh) * 2014-08-08 2019-04-23 联想(北京)有限公司 一种拍照方法及电子设备
JP6101661B2 (ja) * 2014-08-27 2017-03-22 富士フイルム株式会社 画像合成装置および画像合成方法ならびに画像合成プログラムおよび画像合成プログラムを格納した記録媒体
CN104349063B (zh) * 2014-10-27 2018-05-15 东莞宇龙通信科技有限公司 一种控制摄像头拍摄的方法、装置及终端
CN104333701B (zh) * 2014-11-28 2017-04-26 广东欧珀移动通信有限公司 一种相机预览画面的显示方法、装置及终端
US9734870B2 (en) 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
CN104580910B (zh) * 2015-01-09 2018-07-24 宇龙计算机通信科技(深圳)有限公司 基于前、后摄像头的图像合成方法及***
US9729785B2 (en) 2015-01-19 2017-08-08 Microsoft Technology Licensing, Llc Profiles identifying camera capabilities that are usable concurrently
US9679605B2 (en) 2015-01-29 2017-06-13 Gopro, Inc. Variable playback speed template for video editing application
CN104660909A (zh) * 2015-03-11 2015-05-27 酷派软件技术(深圳)有限公司 图像获取方法、图像获取装置和终端
CN110769149B (zh) 2015-04-23 2021-05-11 苹果公司 用于处理来自多相机的内容的方法、电子设备和存储介质
US10186012B2 (en) 2015-05-20 2019-01-22 Gopro, Inc. Virtual lens simulation for video and photo cropping
CN105812650B (zh) * 2015-06-29 2017-08-15 维沃移动通信有限公司 一种图像获取方法及电子设备
CN104994261B (zh) 2015-06-30 2017-06-23 广东欧珀移动通信有限公司 一种摄像装置及具有该摄像装置的终端
CN104994294B (zh) * 2015-06-30 2018-01-23 广东欧珀移动通信有限公司 一种多广角镜头的拍摄方法及移动终端
CN105657299A (zh) * 2015-07-14 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的拍摄数据的处理方法及***
KR102384175B1 (ko) * 2015-07-29 2022-04-08 주식회사 만도모빌리티솔루션즈 차량의 카메라 장치
TWI547177B (zh) * 2015-08-11 2016-08-21 晶睿通訊股份有限公司 視角切換方法及其攝影機
CN106488108A (zh) * 2015-08-31 2017-03-08 中兴通讯股份有限公司 成像的方法及装置
KR20170032761A (ko) * 2015-09-15 2017-03-23 엘지전자 주식회사 이동 단말기
US9721611B2 (en) 2015-10-20 2017-08-01 Gopro, Inc. System and method of generating video from video clips based on moments of interest within the video clips
US10204273B2 (en) 2015-10-20 2019-02-12 Gopro, Inc. System and method of providing recommendations of moments of interest within video clips post capture
CN105391866A (zh) * 2015-11-30 2016-03-09 东莞酷派软件技术有限公司 一种拍照方法、装置及终端
CN109660738B (zh) * 2015-12-22 2021-01-12 北京奇虎科技有限公司 基于双摄像头的曝光控制方法及***
US10109319B2 (en) 2016-01-08 2018-10-23 Gopro, Inc. Digital media editing
US10083537B1 (en) 2016-02-04 2018-09-25 Gopro, Inc. Systems and methods for adding a moving visual element to a video
CN105791688A (zh) * 2016-03-04 2016-07-20 海信电子科技(深圳)有限公司 移动终端及成像方法
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US9838731B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing with audio mixing option
US9794632B1 (en) 2016-04-07 2017-10-17 Gopro, Inc. Systems and methods for synchronization based on audio track changes in video editing
CN105957045A (zh) * 2016-04-29 2016-09-21 珠海市魅族科技有限公司 一种图像合成的方法及装置
CN106101525A (zh) * 2016-05-31 2016-11-09 北京奇虎科技有限公司 应用程序调用双摄像头进行拍摄的方法及装置
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
CN106101627A (zh) * 2016-06-30 2016-11-09 乐视控股(北京)有限公司 一种虚拟现实***中的视频处理方法和装置
CN106060526A (zh) * 2016-07-04 2016-10-26 天脉聚源(北京)传媒科技有限公司 一种基于双摄像头的直播方法及装置
US10185891B1 (en) 2016-07-08 2019-01-22 Gopro, Inc. Systems and methods for compact convolutional neural networks
KR102542515B1 (ko) 2016-07-28 2023-06-12 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
KR102525575B1 (ko) * 2016-08-12 2023-04-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
KR102567002B1 (ko) * 2016-08-16 2023-08-14 삼성전자주식회사 영상 표시 장치 및 그 동작방법
CN106254780A (zh) * 2016-08-31 2016-12-21 宇龙计算机通信科技(深圳)有限公司 一种双摄像头拍照控制方法、拍照控制装置及终端
CN106331494A (zh) * 2016-08-31 2017-01-11 郭裴哲 一种手机双摄像头拍照***及方法
US9836853B1 (en) 2016-09-06 2017-12-05 Gopro, Inc. Three-dimensional convolutional neural networks for video highlight detection
US10284809B1 (en) 2016-11-07 2019-05-07 Gopro, Inc. Systems and methods for intelligently synchronizing events in visual content with musical features in audio content
US10262639B1 (en) 2016-11-08 2019-04-16 Gopro, Inc. Systems and methods for detecting musical features in audio content
CN106534689A (zh) * 2016-11-22 2017-03-22 珠海格力电器股份有限公司 基于多个摄像头合成图像的方法和装置
CN106709882A (zh) * 2016-12-16 2017-05-24 努比亚技术有限公司 一种图像融合的方法及装置
KR102650189B1 (ko) * 2016-12-26 2024-03-22 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
CN106657788A (zh) * 2016-12-28 2017-05-10 深圳众思科技有限公司 电子设备的图像处理方法及电子设备
CN106791674A (zh) * 2016-12-29 2017-05-31 上海喆视智能科技有限公司 Vr拍摄方法、***及移动终端
KR102672599B1 (ko) 2016-12-30 2024-06-07 삼성전자주식회사 Af 방법 및 이를 수행하는 전자 장치
CN106686311A (zh) * 2017-01-16 2017-05-17 宇龙计算机通信科技(深圳)有限公司 终端和使用该终端进行图像拍摄的方法
CN106713716B (zh) * 2017-01-23 2020-03-31 努比亚技术有限公司 一种双摄像头的拍摄控制方法和装置
US10534966B1 (en) 2017-02-02 2020-01-14 Gopro, Inc. Systems and methods for identifying activities and/or events represented in a video
US10127943B1 (en) 2017-03-02 2018-11-13 Gopro, Inc. Systems and methods for modifying videos based on music
KR101810671B1 (ko) * 2017-03-07 2018-01-25 링크플로우 주식회사 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치
US10185895B1 (en) 2017-03-23 2019-01-22 Gopro, Inc. Systems and methods for classifying activities captured within images
US10083718B1 (en) 2017-03-24 2018-09-25 Gopro, Inc. Systems and methods for editing videos based on motion
CN106851228B (zh) * 2017-03-30 2023-05-05 百度在线网络技术(北京)有限公司 全景图像采集***、控制方法、设备及存储介质
CN106791455B (zh) * 2017-03-31 2019-11-15 努比亚技术有限公司 全景拍摄方法及装置
US10187690B1 (en) 2017-04-24 2019-01-22 Gopro, Inc. Systems and methods to detect and correlate user responses to media content
CN107273402A (zh) * 2017-04-24 2017-10-20 广东小天才科技有限公司 一种用双摄像头搜索试题的方法及装置
CN106973237B (zh) * 2017-05-25 2019-03-01 维沃移动通信有限公司 一种拍摄方法及移动终端
CN107807772A (zh) * 2017-10-17 2018-03-16 广东欧珀移动通信有限公司 图像数据处理方法、装置及移动终端
KR101967819B1 (ko) * 2017-11-02 2019-04-10 주식회사 코난테크놀로지 타일 영상 기반 다중 재생을 위한 영상 처리장치 및 그 타일 영상 구성방법
CN107820014B (zh) * 2017-11-27 2020-07-21 努比亚技术有限公司 一种拍摄方法、移动终端及计算机存储介质
CN108200332A (zh) * 2017-12-27 2018-06-22 努比亚技术有限公司 一种拼图方法、移动终端及计算机可读存储介质
CN108540641A (zh) * 2018-02-28 2018-09-14 努比亚技术有限公司 复合图像获取方法、柔性屏终端及计算机可读存储介质
CN108495033B (zh) * 2018-03-28 2021-09-07 努比亚技术有限公司 一种拍照调控方法、设备及计算机可读存储介质
CN108419016B (zh) * 2018-04-17 2022-03-11 北京小米移动软件有限公司 拍摄方法、装置及终端
CN108683847B (zh) * 2018-05-14 2022-01-04 Oppo广东移动通信有限公司 拍照方法、装置、终端及存储介质
US11212439B2 (en) * 2018-07-24 2021-12-28 Ricoh Company, Ltd. Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
CN108632536B (zh) * 2018-07-31 2020-10-30 Oppo广东移动通信有限公司 一种相机控制方法及装置、终端、存储介质
CN109040596B (zh) * 2018-08-27 2020-08-28 Oppo广东移动通信有限公司 一种调整摄像头的方法、移动终端及存储介质
CN109040597B (zh) * 2018-08-28 2021-02-23 Oppo广东移动通信有限公司 一种基于多摄像头的图像处理方法、移动终端及存储介质
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN112954219A (zh) 2019-03-18 2021-06-11 荣耀终端有限公司 一种多路录像方法及设备
CN111860533B (zh) * 2019-04-30 2023-12-12 深圳数字生命研究院 图像的识别方法及装置、存储介质和电子装置
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN110072056B (zh) * 2019-05-10 2022-02-01 北京迈格威科技有限公司 基于多个摄像头模组的数据处理方法及装置
JP2020202503A (ja) * 2019-06-11 2020-12-17 キヤノン株式会社 撮像装置、コンピュータプログラムおよび記憶媒体
CN110798615A (zh) * 2019-10-14 2020-02-14 深圳酷派技术有限公司 一种拍摄方法、装置、存储介质以及终端
CN112800805A (zh) * 2019-10-28 2021-05-14 上海哔哩哔哩科技有限公司 视频剪辑方法、***、计算机设备及计算机存储介质
WO2021083146A1 (zh) * 2019-10-30 2021-05-06 北京字节跳动网络技术有限公司 视频处理方法、装置、终端及存储介质
CN110740261A (zh) * 2019-10-30 2020-01-31 北京字节跳动网络技术有限公司 视频录制方法、装置、终端及存储介质
CN111010512A (zh) * 2019-12-13 2020-04-14 维沃移动通信有限公司 显示控制方法及电子设备
CN113542581A (zh) 2020-04-22 2021-10-22 华为技术有限公司 多路录像的取景方法、图形用户界面及电子设备
CN112333389B (zh) * 2020-10-30 2023-04-07 维沃移动通信(杭州)有限公司 图像显示控制方法、装置及电子设备
CN112383709A (zh) * 2020-11-06 2021-02-19 维沃移动通信(杭州)有限公司 图片显示方法、装置及设备
CN112714255B (zh) * 2020-12-30 2023-02-21 维沃移动通信(杭州)有限公司 拍摄方法、装置、电子设备及可读存储介质
CN112911196A (zh) * 2021-01-15 2021-06-04 随锐科技集团股份有限公司 多镜头采集的视频图像处理方法及***
CN112887609B (zh) * 2021-01-27 2023-04-07 维沃移动通信有限公司 拍摄方法、装置和电子设备、存储介质
JP2022162409A (ja) * 2021-04-12 2022-10-24 キヤノン株式会社 電子機器及びその制御方法
CN113873135A (zh) * 2021-11-03 2021-12-31 乐美科技股份私人有限公司 一种图像获得方法、装置、电子设备及存储介质
CN116095465B (zh) * 2022-05-25 2023-10-20 荣耀终端有限公司 录像方法、装置及存储介质
CN117425057A (zh) 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1100262B1 (en) * 1998-06-22 2007-10-10 FUJIFILM Corporation Imaging device and method
US7064783B2 (en) * 1999-12-31 2006-06-20 Stmicroelectronics, Inc. Still picture format for subsequent picture stitching for forming a panoramic image
US7206029B2 (en) * 2000-12-15 2007-04-17 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on video content analysis
US7495694B2 (en) * 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP4118231B2 (ja) * 2003-12-17 2008-07-16 シャープ株式会社 携帯通信端末
US7051938B2 (en) * 2003-12-29 2006-05-30 Motorola, Inc. System and method for a multi-directional imaging system
FI116749B (fi) * 2004-09-14 2006-02-15 Nokia Corp Kameraelementtejä käsittävä laite
CN1878241A (zh) * 2005-06-07 2006-12-13 浙江工业大学 具有全景摄像功能的手机
JP2006345039A (ja) * 2005-06-07 2006-12-21 Opt Kk 撮影装置
US7424218B2 (en) * 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US7460730B2 (en) * 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching
US20100045773A1 (en) * 2007-11-06 2010-02-25 Ritchey Kurtis J Panoramic adapter system and method with spherical field-of-view coverage
CN101004538B (zh) * 2007-01-18 2010-11-10 汤一平 无死角的全方位视觉传感器
US7834894B2 (en) * 2007-04-03 2010-11-16 Lifetouch Inc. Method and apparatus for background replacement in still photographs
CN100531373C (zh) * 2007-06-05 2009-08-19 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN101378559A (zh) * 2007-08-30 2009-03-04 联想移动通信科技有限公司 采用摄像头组合全景拍的手机
KR101404527B1 (ko) * 2007-12-26 2014-06-09 다이니폰 인사츠 가부시키가이샤 화상 변환 장치 및 화상 변환 방법
JP5114235B2 (ja) * 2008-02-07 2013-01-09 富士フイルム株式会社 画像表示装置,画像表示方法及び撮像装置
CN101510138B (zh) * 2008-02-16 2012-07-11 旭丽电子(广州)有限公司 显示装置及应用其处理或操作影像对象的方法
KR20110068994A (ko) * 2008-08-14 2011-06-22 리모트리얼리티 코포레이션 3-미러 파노라마 카메라
CN101547333A (zh) * 2009-04-20 2009-09-30 中兴通讯股份有限公司 在可视通话过程中用户前后场景切换的方法及终端
JP5235798B2 (ja) * 2009-06-22 2013-07-10 富士フイルム株式会社 撮影装置及びその制御方法
KR101356269B1 (ko) * 2009-09-08 2014-01-29 주식회사 팬택 듀얼 카메라를 지원하는 이동 단말 및 그 이동 단말의 이미지 처리 방법
CN102055834B (zh) * 2009-10-30 2013-12-11 Tcl集团股份有限公司 一种移动终端的双摄像头拍照方法
GB201002248D0 (en) * 2010-02-10 2010-03-31 Lawton Thomas A An attachment for a personal communication device
JP5544993B2 (ja) * 2010-04-06 2014-07-09 富士通株式会社 ライブラリ装置およびインベントリ制御方法
CN101841662A (zh) * 2010-04-16 2010-09-22 华为终端有限公司 移动终端获得相框合成图像的方法及移动终端
CN101872113B (zh) * 2010-06-07 2014-03-19 中兴通讯股份有限公司 一种全景照片的拍摄方法及设备
DE102010026572B4 (de) * 2010-07-08 2013-10-31 Michael Kanna Verfahren zur Aufnahme und Wiedergabe von Panoramadarstellungen
TW201215126A (en) * 2010-09-27 2012-04-01 Hon Hai Prec Ind Co Ltd Image dividing system for cameras and using method of the same
KR101680684B1 (ko) * 2010-10-19 2016-11-29 삼성전자주식회사 영상 처리 방법 및 이를 적용한 영상 촬영 장치
US9204026B2 (en) 2010-11-01 2015-12-01 Lg Electronics Inc. Mobile terminal and method of controlling an image photographing therein
JP5625887B2 (ja) * 2010-12-22 2014-11-19 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5778931B2 (ja) * 2011-01-25 2015-09-16 キヤノン株式会社 撮像装置及びその制御方法
US8520080B2 (en) * 2011-01-31 2013-08-27 Hand Held Products, Inc. Apparatus, system, and method of use of imaging assembly on mobile terminal
CN102185965B (zh) * 2011-03-18 2013-12-11 惠州Tcl移动通信有限公司 一种双摄像头手机及其实现方法
US8988558B2 (en) * 2011-04-26 2015-03-24 Omnivision Technologies, Inc. Image overlay in a mobile device
CN102495460B (zh) * 2011-12-13 2014-01-22 复旦大学 一种全景成像镜头
US8830356B2 (en) * 2012-05-22 2014-09-09 Blackberry Limited Method and device for composite image creation
US9094540B2 (en) * 2012-12-13 2015-07-28 Microsoft Technology Licensing, Llc Displacing image on imager in multi-lens cameras
CN107580178B (zh) * 2013-01-07 2022-04-05 华为技术有限公司 一种图像处理方法及装置

Also Published As

Publication number Publication date
US9204039B2 (en) 2015-12-01
CN107580178B (zh) 2022-04-05
US20150085167A1 (en) 2015-03-26
EP2779628B1 (en) 2018-07-18
EP3346329B1 (en) 2023-12-20
EP2779628A4 (en) 2016-05-11
CN103916582B (zh) 2017-09-29
US8922695B2 (en) 2014-12-30
US20140192212A1 (en) 2014-07-10
CN107395975A (zh) 2017-11-24
CN107509029A (zh) 2017-12-22
WO2014106381A1 (zh) 2014-07-10
EP3346329A1 (en) 2018-07-11
EP2779628A1 (en) 2014-09-17
CN103916582A (zh) 2014-07-09
CN107580178A (zh) 2018-01-12

Similar Documents

Publication Publication Date Title
ES2688122T3 (es) Método y dispositivo de procesamiento de imagen
CN108933899B (zh) 全景拍摄方法、装置、终端及计算机可读存储介质
JP4553346B2 (ja) 焦点調節装置及び焦点調節方法
US8275171B2 (en) Composition determining apparatus, composition determining method, and program
RU2629436C2 (ru) Способ и устройство управления масштабированием и устройство цифровой фотосъемки
US20160219217A1 (en) Camera Field Of View Effects Based On Device Orientation And Scene Content
US9300858B2 (en) Control device and storage medium for controlling capture of images
CN108605087B (zh) 终端的拍照方法、拍照装置和终端
US10827107B2 (en) Photographing method for terminal and terminal
CN106462050A (zh) 用于半球形和球形成像的宽视场阵列相机
TW201251447A (en) Positional sensor-assisted image registration for panoramic photography
JP6401324B2 (ja) ダイナミックフォトの撮影方法及び装置
JP2016516369A (ja) 写真出力方法および装置
WO2022022726A1 (zh) 一种拍摄方法及设备
JP2020188448A (ja) 撮像装置及び撮像方法
US10212341B2 (en) Mobile electronic device with multiple cameras
US20130176472A1 (en) Digital photographing apparatus and method of controlling the same
KR102506363B1 (ko) 정확히 2개의 카메라를 갖는 디바이스 및 이 디바이스를 사용하여 2개의 이미지를 생성하는 방법
CN107172338B (zh) 一种摄像头及电子设备
KR101094648B1 (ko) 구도결정을 하는 사진사 로봇 및 그 제어방법
KR20150080343A (ko) 렌즈 특성 기반의 촬영 모드 제시 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 촬영 장치.
CN104811602A (zh) 移动终端的自拍方法及其装置
Vaquero et al. Composition context photography
CN105578002B (zh) 一种拍照方法和装置
JP2010217915A (ja) 撮像装置及びその制御方法