ES2873115T3 - Método y aparato para generar una imagen sintetizada - Google Patents

Método y aparato para generar una imagen sintetizada Download PDF

Info

Publication number
ES2873115T3
ES2873115T3 ES19205490T ES19205490T ES2873115T3 ES 2873115 T3 ES2873115 T3 ES 2873115T3 ES 19205490 T ES19205490 T ES 19205490T ES 19205490 T ES19205490 T ES 19205490T ES 2873115 T3 ES2873115 T3 ES 2873115T3
Authority
ES
Spain
Prior art keywords
foreground
image
display
sub
subregion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19205490T
Other languages
English (en)
Inventor
Yu Zhang
Zhijun Du
Nan Wang
Wei Ding
Qiang He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Application granted granted Critical
Publication of ES2873115T3 publication Critical patent/ES2873115T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

Un método implementado por ordenador para generar una imagen sintetizada, comprendiendo el método: determinar, en función de un conjunto de imágenes de fondo, una imagen de fondo para la imagen sintetizada (110); dividir subregiones para los elementos de primer plano en la imagen de fondo, siendo utilizada cada subregión para mostrar al menos un elemento de primer plano (120); determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión (130); y dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión (140); en donde: el elemento de primer plano comprende una imagen de primer plano o una línea de texto; y determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión que comprende: seleccionar una función de curva entre varias funciones de curva preestablecidas; determinar los parámetros de la función de curva dentro de un rango preestablecido, y generar una curva de visualización; y si el elemento de primer plano comprende una imagen de primer plano, extraer puntos de la curva de visualización como posición del vértice de la imagen de primer plano, y tomar la curva de visualización como un límite de visualización de la imagen de primer plano; y si el elemento de primer plano comprende una línea de texto, extraer, de acuerdo con el número de unidades de texto en la línea de texto, un número correspondiente de puntos de la curva de visualización como posiciones de los vértices de las unidades de texto.

Description

DESCRIPCIÓN
Método y aparato para generar una imagen sintetizada
Campo técnico
La presente invención se refiere al campo técnico del procesamiento de imágenes, y en particular a un método y un aparato para generar una imagen sintetizada.
Antecedentes de la técnica
Las actividades de promoción en Internet suelen consistir en la presentación o difusión de imágenes en páginas web y plataformas de medios sociales. Utilizar siempre la misma imagen puede provocar fácilmente el cansancio psicológico del usuario y, para lograr un mejor efecto, las imágenes presentadas se deben cambiar con frecuencia.
Las imágenes utilizadas para las actividades de promoción suelen ser imágenes generadas mediante la síntesis de una imagen de fondo y elementos de primer plano. En la técnica anterior, se suele utilizar un método de plantilla única para sintetizar una imagen de fondo y los elementos de primer plano en una sola imagen, es decir, dibujando los elementos de primer plano sobre una imagen de fondo fija en posiciones fijas. El cambio de la imagen requiere que el diseñador vuelva a generar una plantilla, o que modifique la imagen de fondo, o que modifique los elementos de primer plano, lo que consume mucho tiempo y tiene una baja eficiencia, y difícilmente satisface el requisito de generar un gran número de imágenes sintetizadas en poco tiempo en algunas actividades de promoción. El documento WO 2008/133357 describe un sistema y métodos de servicio de síntesis de fotografías. El documento GB 2 378 340 describe la generación de una imagen delimitada por un marco o de imágenes superpuestas.
Resumen de la invención
La invención se define mediante las reivindicaciones adjuntas. En vista de esto, la presente invención proporciona un método para generar una imagen sintetizada, que comprende:
determinar, en función de un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada; dividir subregiones para los elementos de primer plano en la imagen de fondo, siendo utilizada cada subregión para mostrar al menos un elemento de primer plano;
determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión; y
dibujar, de acuerdo con la forma de visualización, el correspondiente elemento de primer plano dentro de la subregión.
La presente invención proporciona además un aparato para generar una imagen sintetizada, que comprende:
una unidad de determinación de imágenes de fondo, configurada para determinar, en función de un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada;
una unidad de división de subregiones, configurada para dividir subregiones para los elementos de primer plano en la imagen de fondo, siendo utilizada cada subregión para mostrar al menos un elemento de primer plano;
una unidad de determinación de la forma de visualización, configurada para determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión; y
una unidad de dibujo de elementos de primer plano, configurada para dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión.
A partir de la solución técnica anterior se puede observar que en las formas de realización de la presente invención, seleccionando una imagen de fondo y generando dinámicamente subregiones y formas de visualización de los elementos de primer plano, se puede generar automáticamente en poco tiempo un gran número de imágenes sintetizadas, que tienen imágenes de fondo variables, disposiciones de regiones variables y formas de visualización de elementos de primer plano variables, lo que mejora la eficiencia de la generación de imágenes sintetizadas.
Breve descripción de los dibujos adjuntos
La Fig. 1 es un diagrama de flujo de un método para generar una imagen sintetizada en una forma de realización de la presente invención;
La Fig. 2 es un diagrama de disposición de subregiones en un ejemplo de la presente patente;
La Fig. 3 es otro diagrama de disposición de subregiones en un ejemplo de la presente invención;
La Fig. 4 es un diagrama esquemático de la forma de visualización de una línea de texto en un ejemplo de la presente invención;
La Fig. 5 es un diagrama esquemático de una forma de visualización de una imagen de primer plano en un ejemplo de la presente invención;
La Fig. 6 es un diagrama de estructura de hardware de un dispositivo informático que aplica una forma de realización de la presente invención; y
La Fig. 7 es un diagrama de estructura lógica de un aparato para generar una imagen sintetizada en una forma de realización de la presente invención.
Descripción detallada
Las formas de realización de la presente invención proponen un método novedoso para generar una imagen sintetizada, en el que se aplica una imagen de fondo cambiada automáticamente, y disposiciones y posiciones de elementos de primer plano cambiadas automáticamente para generar una imagen sintetizada, y se puede generar un gran número de imágenes sintetizadas diferentes en poco tiempo, de forma que se resuelve el problema existente en la técnica anterior. El procedimiento de las formas de realización de la presente invención es según se muestra en la Fig. 1.
Etapa 110, determinar, en función de un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada.
Por lo general, una imagen sintetizada comprende una imagen de fondo que tiene una región relativamente grande y que no está cubierta por elementos de primer plano. Cuanto mayor sea la región de la imagen de fondo que no está cubierta por los elementos de primer plano, más fácil será utilizar los parámetros generados de acuerdo con la imagen de fondo para reconocer la imagen sintetizada. La imagen de fondo variable puede aumentar la dificultad de reconocimiento de la imagen sintetizada. En esta forma de realización, se preestablece un conjunto de imágenes de fondo, que comprende al menos una imagen de fondo. Se selecciona una imagen de fondo del conjunto de imágenes de fondo, y se genera una imagen de fondo de la imagen sintetizada de acuerdo con la imagen de fondo seleccionada.
Para seleccionar una imagen de fondo del conjunto de imágenes de fondo se pueden utilizar también diversos métodos. Por ejemplo, cada imagen de fondo del conjunto de imágenes de fondo se puede seleccionar por turnos, o una imagen de fondo se puede seleccionar aleatoriamente a partir del conjunto de imágenes de fondo; y una imagen de fondo se puede reseleccionar cuando el número de utilizaciones de la imagen sintetizada alcanza un determinado valor predeterminado, y una imagen de fondo también se puede reseleccionar tomando un determinado tiempo como un período.
Del mismo modo, se pueden utilizar diversos métodos para generar la imagen de fondo de la imagen sintetizada de acuerdo con la imagen de fondo seleccionada. Por ejemplo, la imagen de fondo seleccionada se puede utilizar directamente como la imagen de fondo de la imagen sintetizada, o la imagen de fondo seleccionada se puede utilizar como imagen de fondo de la imagen sintetizada después de ser sometida a un procesamiento especial (tal como el procesamiento de desenfoque gaussiano, el procesamiento de tratamiento de la luz o el procesamiento de la máscara). Se puede utilizar un algoritmo y parámetros fijos para realizar el procesamiento especial, y también se puede utilizar un algoritmo y/o parámetros cambiados aleatoriamente o periódicamente para realizar el procesamiento especial.
El método para seleccionar la imagen de fondo y el método para generar la imagen de fondo de la imagen sintetizada se pueden utilizar en cualquier combinación, y esto no se limita en esta forma de realización.
Etapa 120, dividir subregiones para los elementos de primer plano en la imagen de fondo, siendo utilizada cada subregión para mostrar al menos un elemento de primer plano.
El método para dividir las subregiones en la imagen de fondo se puede determinar de acuerdo con la relación entre los elementos de primer plano de diversas subregiones y los requisitos de un escenario de aplicación real. Si todos los elementos de primer plano se pueden mostrar arbitrariamente en cualquier posición de la imagen de fondo, entonces, de acuerdo con el número de elementos de primer plano, se puede generar un número correspondiente de subregiones, y la posición y el tamaño de cada subregión se determinan aleatoriamente. Si la visualización de todos o algunos de los elementos de primer plano debe satisfacer una determinada condición (tal como una determinada relación de posición o una determinada relación de proporción de tamaño), entonces los elementos de primer plano asociados se pueden visualizar dentro de la misma subregión, o se puede aplicar una condición de limitación correspondiente a la división de diversas subregiones que muestran elementos de primer plano asociados.
En una implementación, se puede preestablecer un archivo de configuración, y en el archivo de configuración se describe una condición de limitación para dividir las subregiones, de forma que se satisfagan los requisitos de visualización de los elementos de primer plano. El archivo de configuración comprende el número de subregiones y una relación de posición de al menos algunas de las subregiones, y la posición específica de cada subregión se genera automáticamente mediante un algoritmo de disposición utilizando el archivo de configuración. En concreto, después de obtener el número y la relación de posición de las subregiones a partir del archivo de configuración, se calcula una región en la que se permite un cambio dinámico para cada subregión en la imagen de fondo de acuerdo con la relación de posición, y se determinan las posiciones de los vértices y el tamaño de la subregión dentro de la región en la que se permite un cambio dinámico. El algoritmo de disposición específico puede hacer referencia a la implementación de la técnica anterior, y no se describirá más. El archivo de configuración puede comprender además un valor máximo y/o un valor mínimo de la forma y el tamaño de una subregión, etc., y en este momento, la forma y el tamaño de la subregión y su relación de posición con otras subregiones se deben tener en cuenta para asignar una región donde se permita un cambio dinámico para cada subregión. Dentro de la región donde se permite un cambio dinámico, las posiciones de los vértices y el tamaño de la subregión se pueden determinar arbitrariamente bajo la condición de satisfacer el archivo de configuración.
Por ejemplo, en el archivo de configuración se designa que se dividen tres subregiones, y se disponen como una subregión I, una subregión II y una subregión III sucesivamente de arriba a abajo, entonces una determinada ejecución de un algoritmo de disposición genera una disposición de subregiones según se muestra en la Fig. 2, y otra ejecución del algoritmo de disposición genera una disposición de subregiones según se muestra en la Fig. 3.
Volviendo a la Fig. 1, en la etapa 130, determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión.
El elemento de primer plano puede ser una imagen de primer plano, y también puede ser una línea de texto; y la línea de texto puede ser una o más unidades de texto, en donde la unidad de texto es una parte constitutiva de la línea de texto, que puede ser una palabra (tal como una palabra china y una palabra inglesa), una letra, un número y/o un símbolo, y también puede ser una combinación de dos o tres de la palabra, la letra y el número.
Dentro de la subregión, se pueden utilizar diferentes formas para mostrar el elemento de primer plano de la subregión (es decir, el elemento de primer plano que se muestra dentro de la subregión). Por ejemplo, se puede proporcionar un conjunto que comprenda formas de la forma original, una forma circular, una forma cuadrada, etc., y se selecciona una de las mismas aleatoriamente o por turnos como la forma de visualización del elemento de primer plano; y en este método de implementación, si el elemento de primer plano es una línea de texto, cada texto se puede mostrar en la forma seleccionada, y los textos también se pueden disponer en la forma seleccionada.
En otra implementación, se preestablecen varias funciones de curva; y se preestablecen los rangos de valores de los parámetros en las funciones de curva preestablecidas, y los rangos preestablecidos de los parámetros pueden variar con las diferentes funciones de curva aplicables, y el rango preestablecido debe permitir que la curva de visualización, generada después de que el parámetro se aplique a la función de curva, se sitúe parcialmente dentro de la subregión.
Si el elemento de primer plano que utiliza la curva de visualización es una línea de texto, se puede seleccionar una función de curva de entre varias funciones de curva preestablecidas; los parámetros de la función de curva se determinan dentro del rango preestablecido, y se genera una curva de visualización; y de acuerdo con el número de unidades de texto en la línea de texto, se extrae un número correspondiente de puntos de la curva de visualización como posiciones de los vértices de las unidades de texto. Por ejemplo, con respecto a la línea de texto, que incluye seis caracteres chinos, utilizando la curva de visualización según se muestra en la Fig. 4, la parte de la curva de visualización, de la que las coordenadas horizontales se sitúan dentro de la subregión, se puede dividir igualmente en seis partes, tomando el punto de inicio de cada parte igual como la coordenada horizontal, y tomando el punto en el que la coordenada horizontal está en la curva de visualización como una posición del vértice de cada carácter chino. De esta manera, la línea de texto se mostrará como la forma de la curva de visualización, por favor hágase referencia a la Fig. 4.
Si el elemento de primer plano que utiliza la curva de visualización es una imagen de primer plano, se puede seleccionar al menos una función de curva de entre las funciones de curva preestablecidas; los parámetros de la función de curva seleccionada se determinan dentro de un rango preestablecido, y se genera al menos una curva de visualización; y los puntos se extraen de la curva de visualización como posiciones de los vértices de la imagen de primer plano, y la curva de visualización generada se toma como un límite de visualización de la imagen de primer plano. Por ejemplo, se puede seleccionar una función de curva, y se generan dos curvas de visualización paralelas con diferentes parámetros para que sirvan respectivamente como límites superior e inferior (o límites izquierdo y derecho) de la imagen de primer plano, mientras que las líneas rectas paralelas al eje vertical (o al eje horizontal) en las que se sitúan los dos puntos extraídos sirven respectivamente como límites izquierdo y derecho (o límites superior e inferior) de la imagen de primer plano; y también se pueden seleccionar dos funciones de curva para generar dos curvas de visualización intersecadas que sirvan respectivamente como límite superior y límite izquierdo de la imagen de primer plano, mientras que el límite inferior y el límite derecho de la imagen de primer plano utilizan el límite inferior y el límite derecho de la subregión, y en este momento, el punto de intersección de las dos curvas de visualización sirve como posición del vértice extraído.
En algunos casos de aplicación, después de que la imagen de primer plano se haya dibujado en la imagen de fondo, la línea de texto se dibuja en la imagen de primer plano. En este caso, la forma de visualización de la línea de texto se determina en la imagen de primer plano que muestra la línea de texto. En otras palabras, se puede considerar que se toma la imagen de primer plano que muestra la línea de texto como una subregión cuando se determina la forma de visualización de la línea de texto.
Etapa 140, dibujar, de acuerdo con la forma de visualización del elemento de primer plano, el elemento de primer plano correspondiente dentro de la subregión.
Con respecto a la imagen de primer plano, si la forma de visualización es diferente de la forma o el tamaño original de la imagen de primer plano, entonces después de realizar la transformación afín, la transformación de perspectiva y/o la transformación de escala en la imagen de primer plano de acuerdo con la forma de visualización determinada, el elemento de primer plano se puede dibujar dentro de la subregión. Además, el procesamiento de la transformación del color, la rotación, el estiramiento, etc. también se puede realizar en la imagen de primer plano. Esta forma de realización no limita el método específico de procesamiento de la transformación.
Con respecto a la línea de texto, para reducir la utilización de un algoritmo de detección de texto para localizar una región de texto, se utiliza un método de reconocimiento óptico de caracteres (OCR) para segmentar y reconocer el texto; se utiliza una palabra clave en el texto para blindar la posibilidad de una imagen; y después de añadir textura y/o deformación a cada texto de acuerdo con la forma de visualización determinada, la línea de texto se puede dibujar dentro de la subregión. La deformación puede consistir en operaciones de rotación y estiramiento, etc., con respecto a una unidad de texto; la textura puede consistir en rayas horizontales y verticales a diferentes intervalos, y también puede consistir en diversas rayas curvas; y en una región en la que el texto y las rayas se superponen, se puede mostrar una imagen de fondo, y también se puede mostrar una determinada fusión de colores del texto de primer plano y la imagen de fondo. Esta forma de realización no limita el método de procesamiento específico.
Se puede observar que en las formas de realización de la presente invención, seleccionando una imagen de fondo y generando dinámicamente subregiones y formas de visualización de los elementos de primer plano, se puede generar en poco tiempo un gran número de imágenes sintetizadas que tienen imágenes de fondo variables, disposiciones de regiones variables y formas de elementos de primer plano variables, lo que mejora la eficiencia de la generación de imágenes sintetizadas y reduce al mismo tiempo los costes de la diversificación de imágenes.
Es necesario señalar que el método de esta forma de realización se puede aplicar a cualquier dispositivo informático, tal como un servidor, una máquina virtual, un ordenador personal, un ordenador tipo tableta, un teléfono móvil y otros dispositivos. En una aplicación de un modo cliente/servidor (C/S), el método de esta forma de realización se puede aplicar parcialmente al servidor y parcialmente al cliente, y el servidor y el cliente realizan en colaboración la generación de la imagen sintetizada.
En un ejemplo de aplicación de la presente invención, la imagen sintetizada se genera mediante una imagen de fondo, una imagen de primer plano y una línea de texto. Los materiales para sintetizar una imagen se almacenan en un servidor, comprendiendo un conjunto de imágenes de fondo compuesto por diversas imágenes de fondo, varias imágenes de primer plano, y varias líneas de texto, etc., en donde la imagen de primer plano comprende una imagen cuya posición se puede cambiar dinámicamente en la imagen de fondo, tal como un logotipo; y la línea de texto puede generar cada unidad de texto en una imagen y un orden de visualización de estas imágenes, y también puede ser texto que se convierte en una imagen utilizando una biblioteca de caracteres del sistema cuando se dibuja la línea de texto. Además, un archivo de configuración para dividir subregiones en la imagen de fondo, varias funciones de curva para determinar una forma de visualización de un elemento de primer plano, e información tal como rangos de valores preestablecidos de parámetros de los mismos se preestablecen en el servidor.
Cuando el servidor necesita generar una imagen sintetizada (tal como al recibir una solicitud del cliente para adquirir una imagen sintetizada, al llegar un periodo de cambio de la imagen sintetizada, etc.), se selecciona aleatoriamente una imagen de fondo del conjunto de imágenes de fondo, y se utiliza como imagen de fondo de la imagen sintetizada después de realizar el procesamiento de desenfoque gaussiano en la imagen de fondo con parámetros seleccionados aleatoriamente. Diferentes parámetros pueden permitir que la misma imagen de fondo presente imágenes con diferente información de características, lo que reduce eficazmente las características comunes de las imágenes de fondo, y mantiene la artística al mismo tiempo.
Después de determinar la imagen de fondo, se llama a un algoritmo de disposición para calcular, de acuerdo con una relación de posición entre subregiones y el rango del tamaño de cada subregión en el archivo de configuración, una región donde se permita un cambio dinámico para cada subregión, y las posiciones de los vértices y el tamaño real (dentro del rango del tamaño en el archivo de configuración) de la subregión se deciden aleatoriamente dentro de la región donde se permite un cambio dinámico. Por lo tanto, diversas subregiones para mostrar la imagen de primer plano y/o la línea de texto se dividen dinámicamente, para decidir la posición en la imagen de fondo donde se coloca un elemento de primer plano que se va a presentar. La totalidad de la imagen de fondo determina el estilo general de la imagen sintetizada, y la posición y el tamaño de cada subregión determina la configuración del tipo de imagen sintetizada.
El elemento de primer plano de cada subregión puede ser una línea de texto, puede ser una o más imágenes de primer plano, y también puede ser una combinación de una línea de texto y una imagen de primer plano. Cuando el elemento de primer plano se dibuja en la subregión, con respecto a la línea de texto, se selecciona aleatoriamente una función de curva de entre varias funciones de curva almacenadas, se determinan aleatoriamente los valores de los parámetros dentro de los rangos de valores de los parámetros de la función de curva, y los valores de los parámetros se aplican a la función de curva para generar una curva de visualización. Al extraer las coordenadas de los puntos de la curva de visualización, se puede obtener la coordenada del vértice de cada unidad de texto en la línea de texto. En función de las coordenadas de los vértices de cada unidad de texto, después de realizar la deformación y el procesamiento de la textura, etc., en la unidad de texto, ésta se dibuja en una posición correspondiente en la imagen de fondo con un tamaño determinado.
Con respecto a la imagen de primer plano, se selecciona aleatoriamente una función de curva de entre varias funciones de curva almacenadas, se determinan aleatoriamente los valores de los parámetros dentro de los rangos de valores de los parámetros de la función de curva, y los valores de los parámetros se aplican a la función de curva para generar una primera curva de visualización; la curva de visualización se traslada una cierta distancia para servir como una segunda curva de visualización (o generar una segunda curva de visualización con otro valor de parámetro), y se extraen dos puntos de la primera curva de visualización como dos posiciones de los vértices de la imagen de primer plano; y los dos puntos se trasladan a la segunda curva de visualización para servir como otras dos posiciones de los vértices de la imagen de primer plano, y la primera curva de visualización entre las dos posiciones de los vértices y la segunda curva de visualización entre las otras dos posiciones de los vértices sirven como dos límites de visualización de la imagen de primer plano. Por ejemplo, según se muestra en la Fig. 5, la parte sombreada es la forma de visualización de la imagen de primer plano, y el límite superior y el límite inferior de la parte sombreada son respectivamente curvas de visualización. Después de determinar la forma de visualización de la imagen de primer plano, se realiza el procesamiento de la deformación en la imagen de primer plano de acuerdo con la forma de visualización, y la imagen de primer plano se dibuja en una posición correspondiente en la imagen de fondo.
Después de las etapas anteriores, se pueden generar imágenes sintetizadas con imágenes de fondo variables, disposiciones variables y formas de elementos de primer plano y formas de presentación variables. En correspondencia con el procedimiento anterior, las formas de realización de la presente invención proporcionan además un aparato para generar una imagen sintetizada. El aparato se puede implementar utilizando software, y también se puede implementar utilizando hardware o una combinación de software y hardware. Tomando como ejemplo la implementación de software, como aparato en el sentido lógico, está formado por una CPU (Unidad Central de Proceso) de un dispositivo informático donde se sitúa para leer una instrucción de programa informático correspondiente en una memoria para su ejecución. Desde el punto de vista del hardware, además de la CPU, la memoria y la memoria no volátil mostradas en la Fig. 6, el dispositivo en el que se sitúa el aparato para generar una imagen sintetizada comprende generalmente adicionalmente otro hardware, tal como una tarjeta para implementar una función de comunicación de red, etc.
La Fig. 7 muestra un aparato para generar una imagen sintetizada proporcionada por esta forma de realización, que comprende una unidad de determinación de imágenes de fondo, una unidad de división de subregiones, una unidad de determinación de la forma de visualización y una unidad de dibujo de elementos de primer plano, en donde: la unidad de determinación de la imagen de fondo se configura para determinar, en función de un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada; la unidad de división de subregiones se configura para dividir subregiones para elementos de primer plano en la imagen de fondo, siendo utilizada cada subregión para mostrar al menos un elemento de primer plano; la unidad de determinación de la forma de visualización se configura para determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión; y la unidad de dibujo de elementos de primer plano se configura para dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión.
Opcionalmente, la unidad de división de subregiones puede comprender además un módulo de adquisición de relaciones de posición, un módulo de cálculo de regiones dinámicas y un módulo de posición y dimensionado de subregiones, en donde: el módulo de adquisición de relaciones de posición se configura para adquirir, a partir de un archivo de configuración, el número de subregiones y una relación de posición de al menos algunas de las subregiones; el módulo de cálculo de regiones dinámicas se configura para calcular, de acuerdo con la relación de posición, una región en la que se permita un cambio dinámico para cada subregión en la imagen de fondo; y el módulo de posición y dimensionado de subregiones se configura para determinar, dentro de la región en la que se permite un cambio dinámico, las posiciones de los vértices y el tamaño de la subregión.
En una implementación, el elemento de primer plano comprende una imagen de primer plano; la unidad de determinación de la forma de visualización comprende un primer módulo de selección de la función de curva, un primer módulo de generación de la curva de visualización y un módulo de forma de la imagen de primer plano, en donde: el primer módulo de selección de la función de curva se configura para seleccionar al menos una función de curva de entre varias funciones de curva preestablecidas; el primer módulo de generación de la curva de visualización se configura para determinar los parámetros de la función de curva dentro de un rango preestablecido, y generar al menos una curva de visualización; y el módulo de forma de la imagen de primer plano se configura para extraer puntos de la curva de visualización como posiciones de los vértices de la imagen de primer plano, y tomar la curva de visualización como un límite de visualización de la imagen de primer plano.
Opcionalmente, el elemento de primer plano comprende una imagen de primer plano; y la unidad de dibujo de elementos de primer plano se configura específicamente para: después de realizar, de acuerdo con la forma de visualización, una transformación afín, una transformación de perspectiva y/o una transformación de escala en la imagen de primer plano, dibujar la misma dentro de la subregión.
Opcionalmente, el elemento de primer plano comprende una línea de texto; la unidad de determinación de la forma de visualización comprende un segundo módulo de selección de la función de curva, un segundo módulo de generación de la curva de visualización y un módulo de forma de la línea de texto, en donde: el segundo módulo de selección de la función de curva se configura para seleccionar una función de curva de entre varias funciones de curva preestablecidas; el segundo módulo de generación de la curva de visualización se configura para determinar los parámetros de la función de curva dentro de un rango preestablecido, y generar una curva de visualización; y el módulo de forma de la línea de texto se configura para extraer, de acuerdo con el número de unidades de texto en la línea de texto, un número correspondiente de puntos de la curva de visualización como posiciones de los vértices de las unidades de texto.
Opcionalmente, la unidad de dibujo de elementos de primer plano se configura específicamente para: después de añadir, de acuerdo con la forma de visualización, textura y/o deformación a cada unidad de texto de la línea de texto, dibujar la misma dentro de la subregión.
Se debe tener en cuenta que el aparato en las formas de realización de la presente invención se dispersa en dos o más dispositivos para su implementación, tal como se dispersa en un dispositivo cliente y un servidor para su implementación.
Las descripciones presentadas anteriormente son sólo formas de realización preferidas de la presente invención, y no pretenden limitar la presente invención.
En una configuración típica, un dispositivo informático incluye uno o más procesadores (CPU), una interfaz de entrada/salida, una interfaz de red y una memoria.
La memoria puede incluir una memoria no permanente, una memoria de acceso aleatorio (RAM) y/o una memoria no volátil (tal como una memoria de sólo lectura (ROM) o una memoria flash (flash RAM)), etc., en medios legibles por ordenador. La memoria es un ejemplo de medio legible por ordenador.
Los medios legibles por ordenador comprenden medios permanentes y no permanentes, extraíbles y no extraíbles, y pueden realizar el almacenamiento de información con cualquier método o tecnología. La información puede ser una instrucción legible por ordenador, una estructura de datos, un módulo de programa u otros datos. Los ejemplos de medios de almacenamiento informático incluyen, pero se limitan a, una memoria de cambio de fase (PRAM), una memoria estática de acceso aleatorio (SRAM), una memoria dinámica de acceso aleatorio (DRAM), otros tipos de memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM), una memoria de sólo lectura programable borrable eléctricamente (EEPROM), una memoria flash u otras tecnologías de memoria, memoria de sólo lectura en disco compacto (CD-ROM), disco versátil digital (DVD) u otro tipo de almacenamiento óptico, cinta de casete magnética, cinta magnética y almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético o cualquier otro medio que no sea de transmisión, que se pueda utilizar para almacenar información a la que pueda acceder un dispositivo informático. De acuerdo con la definición de la presente memoria, los medios legibles por ordenador no incluyen los medios transitorios, tales como las señales de datos moduladas y las portadoras.
También se debe tener en cuenta que los términos "que incluye", "que comprende" o cualesquiera otras variaciones de los mismos pretenden abarcar una inclusión no exhaustiva, de modo que los procesos, métodos, mercancías al por menor o dispositivos que incluyen una serie de elementos no sólo incluyen estos elementos, sino que también incluyen otros elementos que no están enumerados expresamente o incluyen todos los elementos inherentes a dichos procesos, métodos, mercancías al por menor o dispositivos. Si no hay más limitaciones, los elementos definidos por "que comprende un... " no excluye la situación en la que existen otros elementos idénticos en el proceso, método, mercancía al por menor o dispositivo que incluye los elementos.
Los expertos en la técnica deben entender que las formas de realización de la presente invención se pueden proporcionar como métodos, sistemas o productos de programas informáticos. Por lo tanto, la presente invención puede adoptar formas de realización completas de hardware, formas de realización completas de software o formas de realización que combinen software y hardware. Además, la presente invención puede estar en forma de un producto de programa informático que se implementa en uno o más medios de almacenamiento utilizables en ordenador (incluyendo, entre otras, una memoria de disco, un CD-ROM, una memoria óptica, y similares) que incluyen códigos de programa utilizables por ordenador.

Claims (12)

REIVINDICACIONES
1. Un método implementado por ordenador para generar una imagen sintetizada, comprendiendo el método:
determinar, en función de un conjunto de imágenes de fondo, una imagen de fondo para la imagen sintetizada (110);
dividir subregiones para los elementos de primer plano en la imagen de fondo, siendo utilizada cada subregión para mostrar al menos un elemento de primer plano (120);
determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión (130); y
dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión (140);
en donde:
el elemento de primer plano comprende una imagen de primer plano o una línea de texto; y
determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión que comprende:
seleccionar una función de curva entre varias funciones de curva preestablecidas;
determinar los parámetros de la función de curva dentro de un rango preestablecido, y generar una curva de visualización; y
si el elemento de primer plano comprende una imagen de primer plano, extraer puntos de la curva de visualización como posición del vértice de la imagen de primer plano, y tomar la curva de visualización como un límite de visualización de la imagen de primer plano; y
si el elemento de primer plano comprende una línea de texto, extraer, de acuerdo con el número de unidades de texto en la línea de texto, un número correspondiente de puntos de la curva de visualización como posiciones de los vértices de las unidades de texto.
2. El método de acuerdo con la reivindicación 1, en donde la determinación, en función de un conjunto de imágenes de fondo, de la imagen de fondo para la imagen sintetizada comprende:
seleccionar una de varias imágenes de fondo; y
después de realizar el procesamiento de desenfoque gaussiano, el procesamiento de tratamiento de la luz y/o el procesamiento de la máscara en la imagen de fondo seleccionada, tomar la imagen de fondo procesada como la imagen de fondo para la imagen sintetizada.
3. El método de acuerdo con la reivindicación 1, en donde la división de subregiones para los elementos de primer plano en la imagen de fondo comprende:
obtener, a partir de un archivo de configuración, el número de subregiones y una relación de posición de al menos algunas de las subregiones;
calcular, de acuerdo con la relación de posición, una región en la que se permite un cambio dinámico para cada subregión en la imagen de fondo; y
determinar, dentro de la región en la que se permite un cambio dinámico, las posiciones de los vértices y el tamaño de la subregión.
4. El método de acuerdo con la reivindicación 3, en donde el archivo de configuración está preconfigurado y describe las condiciones de limitación para dividir subregiones de los elementos de primer plano en la imagen de fondo.
5. El método de acuerdo con la reivindicación 4, en donde el archivo de configuración comprende adicionalmente un valor máximo y/o un valor mínimo de la forma y el tamaño de una subregión.
6. El método de acuerdo con la reivindicación 1, en donde el elemento de primer plano comprende una imagen de primer plano; y
dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión comprende:
después de realizar, de acuerdo con la forma de visualización, una transformación afín, una transformación de perspectiva y/o una transformación de escala en la imagen de primer plano, dibujar el elemento de primer plano transformado dentro de la subregión.
7. El método de acuerdo con la reivindicación 6, en donde la imagen de primer plano se dibuja dentro de la subregión después de procesar la transformación del color, la rotación y/o el estiramiento de la imagen de primer plano.
8. El método de acuerdo con la reivindicación 7, en donde el elemento de primer plano comprende una línea de texto mostrada en la imagen de primer plano; y
determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión comprende determinar, en la imagen de primer plano en la que se muestra la línea de texto, una forma de visualización de la línea de texto.
9. El método de acuerdo con una cualquiera de las reivindicaciones 1 u 8, en donde dibujar, de acuerdo con la forma de visualización, del elemento de primer plano correspondiente dentro de la subregión comprende, después de añadir, de acuerdo con la forma de visualización, textura y/o deformación a cada unidad de texto de la línea de texto, dibujar la línea de texto dentro de la subregión.
10. El método de acuerdo con la reivindicación 9, en donde añadir textura comprende la adición de rayas horizontales, verticales o curvas a diferentes intervalos.
11. El método de acuerdo con la reivindicación 9, en donde añadir deformación comprende la rotación y el estiramiento.
12. Un aparato para generar una imagen sintetizada, implementado el aparato por software, hardware o una combinación de hardware y software, en donde el aparato se configura para realizar el método de cualquiera de las reivindicaciones 1 a 11.
ES19205490T 2015-03-30 2016-03-22 Método y aparato para generar una imagen sintetizada Active ES2873115T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510144685.1A CN106157341B (zh) 2015-03-30 2015-03-30 生成合成图片的方法及装置

Publications (1)

Publication Number Publication Date
ES2873115T3 true ES2873115T3 (es) 2021-11-03

Family

ID=57004223

Family Applications (2)

Application Number Title Priority Date Filing Date
ES16771291T Active ES2819868T3 (es) 2015-03-30 2016-03-22 Método y aparato para generar imagen sintética
ES19205490T Active ES2873115T3 (es) 2015-03-30 2016-03-22 Método y aparato para generar una imagen sintetizada

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES16771291T Active ES2819868T3 (es) 2015-03-30 2016-03-22 Método y aparato para generar imagen sintética

Country Status (9)

Country Link
US (2) US10692261B2 (es)
EP (2) EP3279866B1 (es)
JP (1) JP6768695B2 (es)
KR (2) KR102107887B1 (es)
CN (1) CN106157341B (es)
ES (2) ES2819868T3 (es)
PL (2) PL3279866T3 (es)
SG (1) SG11201707783VA (es)
WO (1) WO2016155536A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157341B (zh) 2015-03-30 2019-05-14 阿里巴巴集团控股有限公司 生成合成图片的方法及装置
CN106161346B (zh) 2015-03-30 2019-09-20 阿里巴巴集团控股有限公司 图片合成方法及装置
CN108573515B (zh) * 2017-03-10 2022-03-01 阿里巴巴集团控股有限公司 一种合图生成方法及装置、合图模板生成方法及装置
CN107608733B (zh) * 2017-09-19 2021-04-02 阿里巴巴(中国)有限公司 图片显示方法、装置和终端设备
CN107967341A (zh) * 2017-12-08 2018-04-27 广东欧珀移动通信有限公司 一种图片显示方法、终端设备及存储介质
CN110533744B (zh) * 2018-05-25 2023-02-28 阿里巴巴集团控股有限公司 合成图片的方法、设备、***和移动终端
CN109145266B (zh) * 2018-07-25 2022-03-25 珠海市圈宝网络科技有限公司 一种从图片快速生成动态pdf文件的方法
CN109240689B (zh) * 2018-08-15 2022-08-09 腾讯科技(深圳)有限公司 一种应用图标的生成方法、装置、服务器及介质
CN108924518B (zh) * 2018-08-27 2020-10-09 上海蒙彤文化传播有限公司 推介视频中合成方法及相关产品
CN111402364A (zh) * 2018-12-27 2020-07-10 北京字节跳动网络技术有限公司 一种图像生成方法、装置、终端设备及存储介质
CN110068586B (zh) * 2019-04-10 2020-06-12 中国石油大学(北京) 扫描电镜照片的制图方法及装置
CN110163285B (zh) * 2019-05-23 2021-03-02 阳光保险集团股份有限公司 票证识别训练样本合成方法和计算机存储介质
CN110647705A (zh) * 2019-08-14 2020-01-03 平安普惠企业管理有限公司 图片合成方法、装置、设备及存储介质
CN110619312B (zh) * 2019-09-20 2022-08-23 百度在线网络技术(北京)有限公司 定位元素数据的增强方法、装置、设备及存储介质
CN110838084B (zh) * 2019-09-24 2023-10-17 咪咕文化科技有限公司 一种图像的风格转移方法、装置、电子设备及存储介质
CN110688506A (zh) * 2019-09-30 2020-01-14 北京金山安全软件有限公司 一种模板生成方法、装置、电子设备及存储介质
CN110992297A (zh) * 2019-11-11 2020-04-10 北京百度网讯科技有限公司 多商品图像合成方法、装置、电子设备及存储介质
CN111222301A (zh) * 2020-01-07 2020-06-02 天津麒麟信息技术有限公司 一种3d文字绘制方法、***、可读存储介质及设备
CN111723585B (zh) * 2020-06-08 2023-11-28 中国石油大学(华东) 一种风格可控的图像文本实时翻译与转换方法
KR20220005820A (ko) * 2020-07-07 2022-01-14 삼성전자주식회사 그래픽 효과를 적용하기 위한 전자 장치 및 그에 관한 방법
CN112804516B (zh) * 2021-04-08 2021-07-06 北京世纪好未来教育科技有限公司 一种视频播放方法、装置、可读存储介质、电子设备
CN114863245B (zh) * 2022-05-26 2024-06-04 中国平安人寿保险股份有限公司 图像处理模型的训练方法和装置、电子设备及介质
CN115334296A (zh) * 2022-07-01 2022-11-11 深圳市安博斯技术有限公司 一种立体图像显示方法和显示装置
KR102618644B1 (ko) * 2023-08-28 2023-12-27 주식회사 리콘랩스 3차원 모델을 이용한 합성 이미지 출력 방법 및 장치

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566759A (ja) * 1991-09-09 1993-03-19 Casio Comput Co Ltd 修飾文字出力装置
JP3449563B2 (ja) * 1993-09-10 2003-09-22 アルプス電気株式会社 画像データ編集方法
JPH10191020A (ja) * 1996-12-20 1998-07-21 Canon Inc 被写体画像切出し方法及び装置
JP3045087B2 (ja) * 1996-12-27 2000-05-22 日本電気株式会社 画像合成装置
JP2001121775A (ja) * 1999-08-19 2001-05-08 Tokyo Denshi Sekkei Kk 画像データ生成装置、画像出力システムおよび端末
JP4337251B2 (ja) * 2000-09-04 2009-09-30 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
GB2378340A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Generation of an image bounded by a frame or of overlapping images
JP2003058878A (ja) * 2001-08-17 2003-02-28 Ricoh Co Ltd 合成画像形成プログラム
GB0124155D0 (en) * 2001-10-08 2001-11-28 Segmentis Ltd Graphical user interface
US7110137B2 (en) * 2002-04-30 2006-09-19 Microsoft Corporation Mixed raster content files
JP4236659B2 (ja) * 2005-11-02 2009-03-11 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラムおよび記録媒体
CN101093644A (zh) * 2006-06-19 2007-12-26 深圳安凯微电子技术有限公司 一种支持多输出格式下画中画功能的lcd控制电路及方法
JP4915513B2 (ja) * 2006-10-31 2012-04-11 富士ゼロックス株式会社 画像処理装置、画像形成装置、画像処理プログラム
WO2008133357A1 (en) * 2007-04-25 2008-11-06 Nexmore Systems Inc Photo synthesis service system and method
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US8584012B1 (en) * 2008-10-10 2013-11-12 Adobe Systems Incorporated Methods and systems for displaying text on a path
CN101442600B (zh) * 2008-12-11 2011-01-05 华为终端有限公司 动态处理图像的方法、装置及终端
CN101853498B (zh) * 2009-03-31 2012-01-11 华为技术有限公司 图像合成方法及图像处理装置
CN101998045A (zh) * 2009-08-11 2011-03-30 佛山市顺德区顺达电脑厂有限公司 可合成场景信息的影像处理装置
JP5359856B2 (ja) * 2009-12-25 2013-12-04 カシオ計算機株式会社 画像合成装置、画像合成方法及びプログラム
JP4998595B2 (ja) * 2010-05-31 2012-08-15 カシオ計算機株式会社 画像合成装置、及びプログラム
JP2013021607A (ja) * 2011-07-13 2013-01-31 Ricoh Co Ltd 画像データ処理装置、画像形成装置、プログラム及び記録媒体
US8731315B2 (en) * 2011-09-12 2014-05-20 Canon Kabushiki Kaisha Image compression and decompression for image matting
JP2013186521A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014096757A (ja) * 2012-11-12 2014-05-22 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
CN102938863B (zh) * 2012-11-27 2016-08-17 乐视致新电子科技(天津)有限公司 基于Android***的智能电视图标主题替换方法和装置
JP5553423B1 (ja) * 2013-01-31 2014-07-16 株式会社精美堂 カレンダー及びその作成方法、並びにカレンダー作成システム
KR102089624B1 (ko) * 2013-09-02 2020-03-16 삼성전자주식회사 이미지를 합성하기 위한 방법 및 그 전자 장치
CN103491351A (zh) * 2013-09-29 2014-01-01 东南大学 违章建筑物的智能视频监控方法
US20150109323A1 (en) * 2013-10-18 2015-04-23 Apple Inc. Interactive black and white image editing
US9519950B2 (en) * 2013-12-20 2016-12-13 Furyu Corporation Image generating apparatus and image generating method
CN106157341B (zh) 2015-03-30 2019-05-14 阿里巴巴集团控股有限公司 生成合成图片的方法及装置

Also Published As

Publication number Publication date
US10692261B2 (en) 2020-06-23
JP6768695B2 (ja) 2020-10-14
WO2016155536A1 (zh) 2016-10-06
KR20200037887A (ko) 2020-04-09
SG11201707783VA (en) 2017-10-30
PL3618003T3 (pl) 2021-08-09
EP3618003A1 (en) 2020-03-04
EP3279866A4 (en) 2018-12-12
JP2018510429A (ja) 2018-04-12
EP3618003B1 (en) 2021-02-24
EP3279866A1 (en) 2018-02-07
CN106157341B (zh) 2019-05-14
PL3279866T3 (pl) 2020-11-16
EP3279866B1 (en) 2020-08-12
ES2819868T3 (es) 2021-04-19
US20180018800A1 (en) 2018-01-18
US10878609B2 (en) 2020-12-29
KR102107887B1 (ko) 2020-05-08
KR102215766B1 (ko) 2021-02-17
CN106157341A (zh) 2016-11-23
KR20170131669A (ko) 2017-11-29
US20200160577A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
ES2873115T3 (es) Método y aparato para generar una imagen sintetizada
JP5538435B2 (ja) 画像特徴抽出方法及びシステム
JP2017016686A5 (es)
Li et al. Using spring algorithms to remove node overlapping
JP2018510429A5 (es)
US9082189B2 (en) Automated bounding box generation within the boundaries of arbitrary shapes
Kwon et al. Spherical layout and rendering methods for immersive graph visualization
US10318629B2 (en) Adaptive content rendering for optimizing page layout
US10600223B2 (en) Methods and systems for determining the structure of a sorted collection list of layouts
CN107870911B (zh) 一种数据可视化展示方法和设备
JP2017151916A5 (es)
US20210166053A1 (en) Merging object detections using graphs
KR20190128393A (ko) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
Liang et al. Divide and conquer treemaps: Visualizing large trees with various shapes
CN112036158A (zh) 词云数据分布处理方法及装置
JP2006107020A5 (es)
Hu et al. PicWords: Render a picture by packing keywords
US20190206106A1 (en) Methods and systems for decorating and embellishing a digital object layout
WO2020192212A1 (zh) 图片处理方法、图集处理方法、计算机设备和存储介质
US20160063756A1 (en) Method And Device For Displaying Picture, And Storage Medium Therefore
US11600028B1 (en) Semantic resizing of line charts
JP2019113908A5 (ja) コンピュータプログラム、及びテキストデータ表示処理システム
US20160163090A1 (en) Computing device and method for simulating process of scanning drawing of object
CN105608246B (zh) 用于确定引导线的布置位置的方法和装置
Petersen et al. Morphing billboards: an image-based appearance model for hand tracking