MXPA03002793A - Archivos de contenido de trama mezclada. - Google Patents

Archivos de contenido de trama mezclada.

Info

Publication number
MXPA03002793A
MXPA03002793A MXPA03002793A MXPA03002793A MXPA03002793A MX PA03002793 A MXPA03002793 A MX PA03002793A MX PA03002793 A MXPA03002793 A MX PA03002793A MX PA03002793 A MXPA03002793 A MX PA03002793A MX PA03002793 A MXPA03002793 A MX PA03002793A
Authority
MX
Mexico
Prior art keywords
layer
foreground
pixel
image
color
Prior art date
Application number
MXPA03002793A
Other languages
English (en)
Inventor
Wei Zhu
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MXPA03002793A publication Critical patent/MXPA03002793A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Holo Graphy (AREA)
  • Image Processing (AREA)
  • Medicines That Contain Protein Lipid Enzymes And Other Medicines (AREA)
  • Record Information Processing For Printing (AREA)
  • Communication Control (AREA)

Abstract

Se describen un sistema y un procedimiento para generar y utilizar archivos de contenido de trama mezclada. Los archivos MRC pueden ser creados directamente desde una aplicacion, en lugar de ser procesados desde una imagen compuesta, para separar una imagen individual dentro de las mascaras en segundo plano, primer plano y seleccion para cada pagina. Tambien, se describe una estructura MRC mejorada en la cual solamente las porciones relevantes estan contenidas en las capas en segundo plano, primer plano y de seleccion para cada pagina.

Description

ARCHIVOS DE CONTENIDO DE TRAMA MEZCLADA CAMPO DE LA INVENCION Los aspectos de la presente invención están dirigidos a generar y utilizar archivos. Más particularmente, la presente invención se refiere a la generación y utilización de archivos de contenido de trama mezclada.
ANTECEDENTES DE LA INVENCION El uso de archivos no modificables se ha incrementado con el crecimiento del internet. Un formato de archivo estándar para publicar documentos es el formato de archivo Adobe Acrobat (generalmente asociado con la extensión .PDF). Otros formatos de archivos incluyen JPEG y archivos de mapa de bits. Un beneficio de estos archivos es que uno puede utilizar estos formatos de archivos para intercambiar información sobre el internet con mínima preocupación acerca de la modificación de los documentos. Otro formato de archivo que es comúnmente utilizado es el MRC o archivo de contenido de trama mezclada. Este formato de archivo separa una imagen en tres imágenes de igual tamaño y las almacena a diferentes resoluciones, en algunos casos, con diferentes escalas de compresión o tecnologías. La Figura 2 muestra un procedimiento típico para la generación de archivos MRC. Un generador de imagen 301 da salida a una imagen de origen 302. La imagen de origen 302 tiene una resolución de imagen de 300 dpi. La imagen de origen es separada mediante el procedimiento de separación 303 en tres imágenes separadas 304-306. Las tres imágenes separadas incluyen una imagen de máscara blanca/negra (B/W) 304, una imagen en primer plano 305, y una imagen en segundo plano 306. Las tres imágenes 304-306 tienen las mismas dimensiones (x,y) que la imagen de origen 302. Como se muestra en la Figura 2, las resoluciones de las tres imágenes 304-306 se muestran como de 300 dpi, y 100 dpi, respectivamente. Las tres imágenes pueden ser selectivamente comprimidas mediante el procedimiento de compresión 307 a varios grados a través de diferentes tecnologías de compresión. A pesar de los beneficios de ser capaz de descomponer una imagen de origen 302 en varios otros archivos 304-306, los archivos MRC sufren de un procedimiento de descomposición muy largo (procedimiento de separación 303), como se conoce en la técnica. El procedimiento de separación 303 intenta analizar todos los componentes de una imagen y separar los aspectos para inclusión de cada uno de los archivos 304-306. Existe una necesidad para generar archivos MRC sin un gran retraso. También, los archivos compuestos 304-306 pueden ser grandes mientras tienen un contenido pequeño. La Figura 3 ilustra una muestra de un archivo MRC convencional. El archivo incluye tres capas incluyendo la capa de segundo plano 401, la capa selector o negro/blanco o capa de máscara B/W 402, y la capa de primer plano 403. Para propósitos de ilustración, la imagen compuesta 411 se muestra como la imagen resultante cuando las tres capas (401.403) son combinadas. Como se conoce en la técnica, la capa de segundo plano tiene una profundidad de color por píxel de 24 bits por píxel (24 bpp), la capa selectora tiene una profundidad de color por píxel de 1 bpp, y la capa de primer plano tiene una profundidad de color por píxel de 1 bpp, y la capa de segundo plano tiene una profundidad de color de 24 bpp. Cada capa comprende una imagen. Cada imagen tiene las mismas dimensiones (x,y) (como se muestra en las Figuras 2 y 3). Por ejemplo, la capa de segundo plano 4.01 incluye una imagen con contenido 404 en el centro. La capa selectora 402 incluye una imagen con tres juegos de contenido 405-407. El contenido 405 es "Texto Negro", el cual pretende representar texto negro. El contenido 406 es "Texto de color A", el cual es texto que tiene color A en la imagen compuesta 411, aún está representada en la capa selectora 402 como texto negro. Esto es debido a que la capa selectora 402 solamente tiene 1 bpp de profundidad de color. Similarmente, el contenido 407 es "Texto de color B", el cual es texto que tiene color B en la imagen compuesta 411, aún es texto negro en la capa selectora 402. La capa de segundo plano 403 incluye tres juegos de paletas de color incluyendo negro 408, color A 409 y color B 410. Una preocupación con el archivo MRC de la Figura 3 es la cantidad importante de espacio no utilizado. El espacio no utilizado incrementa el tamaño de imagen subrayado para cada capa. Este espacio no utilizado incrementa el tiempo necesario para codificar, descodificar y componer los escenarios. También, la combinación de espacio no utilizado con el contenido algunas veces resulta en una pobre compresión de las capas. Por consiguiente, existe una necesidad de minimizar el espacio utilizado en los archivos compuestos 304-306.
COMPENDIO DE LA INVENCION Los aspectos de la presente invención están dirigidos a la generación y uso de archivos MRC para tratar una o más de las necesidades descritas anteriormente. En algunos aspectos, los archivos MRC son generados a través de controladores de impresión sin tener que ser procesados a través de un procedimiento de separación. En otras modalidades, cada capa del archivo MRC incluye una o más imágenes (o sub-imágenes) para permitir la compresión que es más eficiente que una imagen individual que cubre cada capa. Estos varios aspectos pueden ser utilizados separadamente o en combinación. Estas y otras características de la invención serán evidentes después de la consideración de la siguiente descripción detallada de las varias modalidades.
BREVE DESCRIPCION DE LOS DIBUJOS El compendio anterior de la invención, así como la siguiente descripción detallada de las modalidades preferidas, se entiende mejor cuando se lee en conjunto con los dibujos que la acompañan, los cuales se incluyen a manera de ejemplo, y no a manera de limitación con respecto a la invención reclamada. La Figura 1 es un diagrama esquemático de un ambiente de computación digital de propósito general que puede ser utilizado para ¡mplementar varios aspectos de la invención. La Figura 2 muestra un procedimiento convencional para crear un archivo de contenido de trama mezclada. La Figura 3 muestra un archivo de contenido de trama mezclada. La Figura 4 muestra un procedimiento para crear un archivo de contenido de trama mezclada de acuerdo con los aspectos de la invención. La Figura 5 muestra un ejemplo de un archivo de contenido de trama mezclada de acuerdo con los aspectos de la presente invención. La Figura 6 muestra otro ejemplo de un archivo de contenido de trama mezclada de acuerdo con aspectos de la presente invención. Las Figuras 7A y 7B muestran varios procedimientos para crear archivos de contenido de trama mezclada de acuerdo con aspectos de la presente invención.
Las Figuras 8A y 8B muestra pasos de procedimientos alternativos para la Figura 7A. Las Figuras 9A y 9B muestra varios procedimientos para convertir una imagen compuesta de un archivo de contenido de trama mezclada de acuerdo con aspectos de la presente invención. La Figura 10 muestra otro procedimiento ilustrativo de crear un archivo de contenido de trama mezclada de acuerdo con aspectos de la presente invención. La Figura 11 muestra un procedimiento ilustrativo para fusionar imágenes de acuerdo con aspectos de la presente invención. La Figura 12 muestra varios resultados de la fusión de imágenes de acuerdo con aspectos de la presente invención. La Figura 13 muestra un procedimiento ilustrativo para configurar la proximidad entre imágenes de acuerdo con aspectos de la presente invención. La Figura 14 muestra dos imágenes y varias representaciones del espacio consumido a través de su fusión de acuerdo con aspectos de la presente invención. Las Figuras 15A, 15B y 15C muestra varias representaciones del conteo de espacio consumido en imágenes combinadas de acuerdo con aspectos de la presente invención.
DESCRIPCION DETALLADA La siguiente descripción está dirigida a archivos de contenido de trama mezclada. Se aprecia que los conceptos descritos y métodos pueden ser aplicados a otros tipos de archivos. También, se describen varios procedimientos. Estos procedimientos son provistos como ejemplos que pueden ser utilizados y .no son considerados como solamente expresiones de varios procedimientos utilizados para generar o usar los archivos de contenido de trama mezclada mejorados. Además, los colores de píxel de la capa selectora son generalmente referidos como negro y blanco y de esta forma solamente pueden tener píxeles como activados (on) o inactivados (off) (o estado de color 1 y estado de color 0). El negro y blanco son utilizados para simplificar la nomenclatura. Sin embargo, se pueden utilizar cualesquiera colores en su lugar (por ejemplo, fucsia y cian) o "activado e inactivado" y similares. La Figura 1 ilustra un diagrama esquemático de un ambiente de computación digital de propósito general que puede ser utilizado para implementar varios aspectos de la presente invención. En la Figura 1, una computadora 100 incluye una unidad de procesamiento 110, un sistema de memoria 120, y un sistema bus (cable que lleva señales a un lugar) 130 que acopla varios componentes del sistema incluyendo el sistema de memoria a la unidad de procesamiento 110. El sistema bus 130 puede ser cualquiera de varios tipos de estructuras de bus incluyendo un bus de memoria o controlador de memoria, un bus periférico, y un bus local utilizando cualquiera de una variedad de arquitecturas de bus. El sistema de memoria 120 incluye memoria de solo lectura (ROM) 140 y memoria de acceso aleatorio (RAM) 150. Un sistema básico de entrada/salida 160 (BIOS), conteniendo las rutinas básicas que ayudan a transferir la información entre elementos dentro de la computadora 100, tales como durante el arranque, se almacena en el ROM 140. La computadora 100 también incluye una unidad de disco duro (no mostrada), una unidad de disco magnético 180 para leer de o escribir en un disco magnético removible 191 para leer de o escribir en un disco óptico removible 192 tal como un CD ROM u otro medio óptico. La unidad de disco duro 170, la unidad de disco magnético 180, y la unidad de disco óptico 191 están conectados al sistema bus 130 a través de una interfase de unidad de disco duro 192, una interfase de unidad de disco magnético 193, y una interfase de unidad de disco óptica 194, respectivamente. Las unidades y sus medios legibles por computadora asociados proporcionan almacenamiento no volátil de instrucciones legibles por computadora, estructuras de datos, módulos de programa y otros datos para la computadora personal 100. Se apreciará por aquellos expertos en la técnica que otros tipos de medios legibles por computadora que pueden almacenar datos que son accesibles a través de una computadora, tales como casetes magnéticos, tarjetas de memoria flash, discos de video digitales, cartuchos Bernoulli, memorias de acceso aleatorio (RAMs), memorias de solo lectura (ROMs), y similares, también puede ser utilizados en ei ejemplo del ambiente operativo.
Un número de módulos de programa pueden ser almacenados en la unidad de disco duro 170, disco magnético 190, disco óptico 192, ROM 140 o RAM 150, incluyendo un sistema operativo 195, una o más aplicaciones de programa 196, otros módulos de programa 197, y datos de programa 198. Un usuario puede introducir comandos e información dentro de la computadora 100 a través de dispositivos de entrada tales como un teclado 101 y un dispositivo de señalamiento 102. Otros dispositivos de entrada (no mostrados) pueden incluir un micrófono, palanca de juego, almohadilla para juego, disco satélite o similares. Estos y otros dispositivos de entrada por lo general se conectan a la unidad de procesamiento 110 a través de una interfase de puerto serial 106 que está acoplada af bus del sistema, pero pueden estar conectados a través de otras ¡nterfases, tales como un puerto paralelo, puerto de juegos, o un bus serial universal (USB). Además aún, estos dispositivos pueden estar acoplados directamente al bus del sistema 130 a través de una interfase apropiada (no mostrada). Un monitor 107 y otro tipo de dispositivo de exhibición también está conectado al bus del sistema 130 a través de una interfase, tal como un adaptador de video 108. Además del monitor, las computadoras personales típicamente incluyen otros dispositivos de salida periféricos (no mostrados), tales como bocinas e impresoras. En algunas modalidades, un digitalizador de pluma 165 y pluma o estilete que la acompaña 166 son proporcionados con el fin de capturar digitalmente la entrada a mano libre. Aunque una conexión entre el digitalizador de pluma 165 y el puerto de ¡nterfase serial 106 es mostrado, en la práctica, el digitaíizador de pluma 165 puede estar acoplado a la unidad de procesamiento 110 directamente, a través de un puerto paralelo u otra interfase y el bus del sistema 130 como se conoce en la técnica. Además, aunque el digitaíizador 165 se muestra separado del monitor 107, el área de captura utiiizabie del digitaíizador 165 puede ser co-extensivo con el área de exhibición del monitor 107. Aún además, el digitaíizador 165 puede estar integrado en el monitor 107, o puede existir como una superposición de dispositivo separado o de otra manera anexo al monitor 107. La computadora 1000 puede operar en un ambiente conectado en red utilizando conexiones lógicas a una o más computadoras, tales como computadora remota 109. La computadora remota 109 puede ser un servidor, un direccionador, un red de PC, un dispositivo de peer (en una conexión se refiere a cada uno de los extremos), y otro nodo de red común, y típicamente incluye o muchos de los elementos descritos anteriormente con relación a la computadora 100, aunque solamente un dispositivo de almacenamiento de memoria 111 ha sido ilustrado en la Figura 1. Las conexiones lógicas descritas en la Figura 1 incluyen una red de área local (LAN) 112 y una red de área amplia (WAN) 113. Tales ambientes de red son un lugar común en las oficinas, redes de computadora amplias de empresa, intranets y el internet. Cuando se utiliza en un ambiente de red LAN, la computadora 100 está conectada a la red local 112 a través de una interfase o adaptador de red 114. Cuando se utiliza en un ambiente de red WAN, la computadora personal 100 típicamente incluye un módem 115 u otros medios para establecer una comunicación a través de la red de área amplia 113, tales como el internet. El módem 115, el cual puede ser interno o externo, está conectado al bus del sistema 130 a través de una interfase de puerto serial 106. En un ambiente conectado en red, los módulos de programa descritos con relación a la computadora personal 100, o porciones del mismo, pueden estar almacenados en el dispositivo de almacenamiento de memoria remoto. Se apreciará que las conexiones de red mostradas son ilustrativas y otras técnicas para establecer un enlace de comunicación entre las computadoras pueden ser utilizado. Se presume la existencia de cualquiera de los varios protocolos bien conocidos tales como TCP/IP, Ethernet, FTP, HTTP, y el sistema puede operar en una configuración de cliente-servidor para permitir al usuario recibir páginas web de un servidor con base en la web. Cualquiera de varios navegadores web convencionales puede ser utilizado para exhibir y manipular datos en las páginas web. La Figura 4 muestra un procedimiento para crear un archivo de contenido de trama mezclada de acuerdo con aspectos de la presente invención. Un generador de imagen 500 (por ejemplo, un programa de pintura, un programa de procesamiento de palabras, un sistema para publicar web, y similares) da salida al contenido del archivo MRC (las tres capas: capa selectora 502, capa en primer plano 503, y capa en segundo plano 504) sin dar salida a una imagen compuesta que necesita ser convertida (es decir, separada) a través del procedimiento 303 de la Figura 2. Esta salida puede incluir llamadas al motor de conversión de gráficas 501 (por ejemplo, el GDI API disponible de Microsoft Corporation de Redmond, Washington). Otros convertidores de gráficas 501 pueden ser utilizados también. Alternativamente, la conversión puede tener lugar completamente dentro del generador de imagen 500. Finalmente, el archivo MRC puede ser comprimido opcionalmente a través de motor de compresión selectivo 505. La compresión es opcional como se muestra a través de una caja rota. La Figura 5 muestra un ejemplos de un archivo de contenido de trama mezclada de acuerdo con aspectos de la presente invención. El archivo MRC incluye tres capas: capa en segundo plano 601, capa selectora 602 y capa en primer plano 603. La imagen compuesta 604 se muestra para propósitos de explicación. La capa en segundo plano incluye el contenido 605. El contenido en segundo plano 605 puede ser representado a través de imagen del tamaño de la imagen compuesta 604. Alternativamente, el contenido en segundo plano puede ser representado por una imagen que tiene un rectángulo limitado más pequeño que el tamaño de la imagen compuesta 604. La capa selectora 602 incluye el contenido 606 representado por "texto color A", el cual mientras está representado por texto que tiene un tipo de fuente de color A, la capa selectora 602 representa el contenido 606 como texto negro. La capa en segundo plano 603 incluye texto negro 607, un rectángulo coloreado 608 en color A, y el contenido 609 como "texto en color B" en un tipo de letra de color B. El rectángulo coloreado 608 puede ser eliminado en un número de casos. Por ejemplo, si el texto tiene un color uniforme y puede ser representado por la combinación de las capas de selección y en segundo plano. El contenido 607-609 puede ser representado como una imagen individual del tamaño de la imagen compuesta 604 (similar a las descripciones de tamaño idénticas anteriores). Alternativamente, el contenido 607-609 puede ser representado por dos o más imágenes (o sub-imágenes). Las imágenes pueden ser definidas por áreas limitantes (rectángulos u otras formas como se conoce en la técnica) según representadas por las áreas limitantes alrededor de cada contenido 607-609. Como se muestra en la Figura 5, la capa de selección 602 es utilizada cuando una imagen en primer plano traslapa una imagen en segundo plano. Aquí, empujando el contenido a la capa en primer plano desde la capa de selección hace que la tarea de conversión sea más rápida, ya que no hay necesidad de verificar y llevar a cabo la selección o combinación alfa cuando no existe traslape del contenido en primer plano y segundo plano. Otro aspecto es que el texto de color es uniforme y ciertos dibujos de línea pueden ser almacenados como imágenes binarias en la capa en primer plano con la paleta de color apropiada, en lugar de ser almacenada como una imagen binaria en la capa selectora más una imagen en color en la capa en primer plano. Se cree que empujando el contenido fuera de la capa selectora dentro de la capa en primer plano mejorará el funcionamiento de la compresión y conversión. Otra combinación se muestra en la Figura 5 en donde la capa de selección y la de segundo plano están presentes sin la capa en primer plano. En este caso, cuando existe un píxel que no sea blanco en la capa de selección pero no existe píxel correspondiente en la capa en primer plano, el color del píxel en la imagen compuesta es aquel de la capa de selección. Esta combinación es común y puede ser más eficiente en el funcionamiento de la conversión y compresión que en la selección del segundo plano, y la combinación de la capa en primer plano. La capa en primer plano puede tener una alta profundidad de color (por ejemplo, 24 bpp). En una modalidad, todas las imágenes en la capa en primer plano tiene la misma profundidad de color. Alternativamente, las imágenes en la capa en primer plano pueden tener una o más profundidades de color. Por ejemplo, el contenido 607 puede tener una profundidad de color de 1 bpp, mientras el contenido 608 y 609 tiene una profundidad de color de 24 bpp. Existen situaciones en donde el color actual que va a ser asociado con una región puede ser definido con base en menos que una profundidad de color alta. De esta forma, en aún otra modalidad adicional, el contenido 608 puede tener una profundidad de color de 8 bpp mientras que el contenido 609 puede tener una profundidad de color de algo más que 1 bpp y 8 bpp (incluyendo pero no limitándose a 2 bpp, 4 bpp, 16 bpp, 24 bpp, 32 bpp y similares). Al utilizar la profundidad de color al grado necesario para definir una escala de color (en lugar de prefijar para una capa completa) permite mayor y/o más eficiente compresión a través de la eliminación innecesaria de color especificando bits por píxel y/o compresión más rápida y funcionamiento de la conversión. La habilidad de definir las profundidades de color con base en cada imagen o colección de imágenes en una capa es aplicable a la capa en segundo plano también. La Figura 6 muestra otra representación de un archivo MRC. Aquí, la imagen 610 está combinada con "texto color C" 611 y "Texto negro" 612 para formar una imagen compuesta 613. Cada imagen 610, 611 y 612 tiene un tamaño más pequeño que el tamaño de la imagen compuesta. En este ejemplo alternativo, la suma combinada de imágenes 610, 611 y 612 es más pequeña que el tamaño de la imagen compuesta. La Figura 7A muestra un procedimiento ilustrativo para crear un archivo de contenido de trama mezclada de acuerdo con aspectos de la presente invención. El procedimiento empieza en el paso 710 a partir de la aplicación de generación de imagen. Primero, el dibujo de texto y el dibujo de líneas son procesado en el paso 702. Si el dibujo texto y/o de líneas está presente, estos son agregados a la capa selectora en el paso 703. El color de la línea o texto es utilizado para crear un área de color para el primer plano en el paso 704. El área de color puede ser rectangular o cualquier otra forma, según sea necesario para definir el área en la capa en primer plano para especificar apropiadamente el color del texto y/o líneas del paso 702. Enseguida, las fotografías residentes en el archivo de imágenes son procesadas en el paso 705 y agregadas a la capa en segundo plano en el paso 706. El ejemplo de la Figura 7A muestra la habilidad para procesar imágenes directamente desde una aplicación, como habiéndolas enviado a una unidad de dispositivo, o de un metarchivo bobinado, en contraste, el método convencional para generar un archivo MRC es tomar una imagen compuesta intacta y separarla en varios componentes a través del procedimiento de separación 303. El procedimiento de separación 303 tiende a fallar y consume recursos importantes para manejar el procedimiento de descomposición de imagen. El ejemplo de la Figura 7A, sin embargo, proporciona la habilidad de generar archivos MRC sin el procedimiento de separación como en el ejemplo de la Figura 7A maneja los varios componentes de una imagen mientras los varios componentes aún están accesibles separadamente. La Figura 7B muestra un procedimiento alternativo para crear un archivo MRC, cuando un convertidor de gráficos inicia el procedimiento de generación MRC en el paso 701, las llamadas de gráficas están listadas con las áreas de imágenes relevantes en el paso 708. La lista puede incluir uno o más de los siguientes para cada área de imagen: • Área limitada; · Tipo de salida de gráficos; y • Color utilizado Enseguida, en el paso 709, si el área de imagen es dibujo de texto o líneas, entonces el área de imagen es agregada a la capa selectora en el paso 703. De otra forma, en el paso 710, el área de imagen es agregada a la capa en primer plano/segundo plano. Cualquier tipo de imagen es agregada a la capa en primer plano/segundo plano, haciendo que la capa en primer plano/segundo plano sea una buena representación del documento. Las Figuras 8A y 8B muestran varias opciones para el paso 704 de la figura 7A. En la Figura 8A, el tipo de letra o color de brocha del texto y líneas, respectivamente, son notados en el paso 801 y pasados al paso 803. También, en el paso 802, el área o áreas límite (la cual puede ser rectangular o de otras formas que definan los límites del texto y/o líneas) son determinadas y pasadas al paso 803. Los pasos 801 y 802 pueden ocurrir en cualquier orden o pueden ser manejados concurrentemente. Además se aprecia que las áreas determinadas en el paso 8092 no tienen porque ser llenadas completamente. Por ejemplo, un dibujo de línea de un círculo puede tener un área límite en la forma de una protuberancia. En el paso 803, el área o áreas determinadas en el paso 802 son pintadas como áreas llenas en la capa en primer plano. La Figura 8B muestra otra alternativa para el paso 704. Primero, cada píxel en la capa de selección 804 es explorada. Si el píxel es negro como se determinó en el paso 805, entonces el color del píxel en segundo plano es utilizado para llenar el color de un píxel en primer plano correspondiente en el paso 806. El paso de exploración 804 puede cubrir cada píxel de la capa selectora completa. Alternativamente, como la capa selectora puede estar rota en imágenes que contienen en contenido, el paso 804 solamente puede explorar la imágenes en la capa selectora. Ya que el área de la capa selectora no consumida por las imágenes no contendría el contenido, estas áreas no serían exploradas por e! paso 804. En otro aspecto de la invención, la configuración del archivo MRC es modificado. La Figura 9A muestra un procedimiento ilustrativo de conversión de una imagen compuesta a partir de un archivo de contenido de trama mezclada de la Figura 6. En el paso 901, el sistema empieza a construir una imagen compuesta a partir de varias capas MRC. Para todos los píxeies en la imagen compuesta, se determina si un píxel es una capa selectora en el paso 902. Si es si, entonces el sistema determina si el píxel en la capa selectora es blanco en el paso 905. Si el píxel es blanco, entonces el sistema checa si hay un píxel en la capa en segundo plano en el paso 906. Si no hay píxel en la capa en segundo plano, entonces el color en segundo plano por omisión es utilizado en el paso 909, de lo contrario el color del píxel correspondiente de la capa en segundo plano es utilizado en el paso 910. Si el píxel en la capa selectora no es blanco a partir del paso 905, entonces el sistema checa si hay un píxel en la capa en primer plano en el paso 907. Si no hay un píxel en la capa en primer plano, entonces el color del píxel en la capa selectora es utilizado en el paso 908. Si hay un píxel en la capa en primer plano en el paso 917, entonces el color del píxel correspondiente a la capa en primer plano es utilizado en el paso 904. Si no hay píxel en la capa selectora en el paso 902, entonces el sistema determina si hay un píxel en la capa en primer plano en el paso 903. Si hay un píxel en la capa en primer plano, entonces el sistema utiliza el color del píxel correspondiente en la capa en primer plano en el paso 904. Por el contrario, el sistema determina si hay un píxel en la capa en segundo plano en el paso 906 y procede como se describió anteriormente. Si no hubo píxel en la capa selectora como se determinó en el paso 902, entonces el sistema determina si hay un píxel correspondiente en la capa en primer plano en el paso 903. Si no, entonces el color del píxel correspondiente en la capa en segundo plano es utilizado (paso 906). Si no hay un píxel correspondiente en la imagen en segundo plano, entonces el color del píxel por omisión puede ser utilizado (por ejemplo, blanco o gris o aún ser designado como transparente). Si el resultado del paso 903 es si, entonces el color del píxel correspondiente en la capa en primer plano es utilizado (paso 904). La Figura 9B muestra un procedimiento para combinar múltiples capas en una imagen compuesta. Desde el inicio en 901, el sistema obtiene los rectángulos de límite u otras formas para el contenido de las capas. Enseguida, el sistema calcula cuatro listas. La primera lista (NOL_FGBG) representa áreas en donde el primer plano no se traslapa con las áreas de selección y las áreas en donde el segundo plano no se traslapa con las áreas en primer plano. La segunda lista (SEL) representa áreas en donde la selección no se traslapa con las áreas en primer plano. La tercera lista (SELFG) representa áreas en donde solamente las áreas de selección y en primer plano se traslapan. La cuarta lista (BGFGSEL) representa áreas en donde las capas de segundo plano, selección y primer plano todas se traslapan . Enseguida, en el paso 913, la imagen compuesta es llenada con un color en segundo plano por omisión. Cada lista es procesada en los pasos 914-917. En el paso 914, cada área en la primera lista (NOL_FGBG), cuando un área en primer plano está presente, es llenada con la imagen en' primer plano. Por el contrario, el área es llenada con la imagen en segundo plano. En el paso 915, cada área en la segunda lista (SEL), cuando el píxel en la capa de selección es blanco, no se hacen modificaciones en la imagen compuesta. Por el contrario, el valor del color del píxel en la capa de selección es utilizado. En el paso 916, cada área en la tercera lista (SELFG), cuando el píxel en la capa de selección es blanco, no se hacen modificaciones en la imagen compuesta. Por el contrario, el color del píxel en la capa en primer plano es utilizado. En el paso 917, para cada área en la cuarta lista (BGFGSEL), si el píxel en la capa de selección es blanco, el color del segundo plano es utilizado. Por el contrario, el color de píxel en el primer plano es utilizado. La Figura 10 muestra otro procedimiento ilustrativo para crear un archivo de contenido de trama mezclada. El procedimiento como se muestra en la Figura 10 produce e! archivo MRC de la Figura 6. El procedimiento empieza en el paso 1001 en donde el procedimiento es iniciado. En un ejemplo, el paso 1000 puede ser la recepción de un comando para imprimir el archivo MRC. Ya que el paso 1000 puede ser parte de una aplicación, parte de una caja de herramientas de gráficos llamado por una aplicación, o puede ser un huésped de varias formar de iniciar la creación de un archivo MRC, el paso 1000 se muestra en una caja rota. Para propósitos de simplicidad, lo siguiente se describe en asociación con la creación de archivos MRC en una unidad impresora. Lo siguiente incluye referencia a GDI API, disponible en el sistema operativo WINDOWS® disponible de Microsoft Corporation, el cual expone varias llamadas para manipulación de imagen. Se aprecia que los sistemas operativos incluyendo LINUX y sistemas con base Apple tendrán variaciones en varias llamadas. Por consiguiente, ya que todos los sistemas operativos y unidades de impresión pretenden ser abarcadazos por ei alcance de esta descripción, la referencia a las llamadas GDI pretenden no se limitantes y solamente para propósitos de explicación. Para construir una unidad de impresión utilizando GDI, se pueden utilizar un número de llamadas. Lo siguiente describe un número de llamadas que ayudan a separar el contenido en varias capas. Las llamadas pueden ser descritas en general como DrvXXX GDI APIs. Específicamente, estas incluyen: • DrvCopyBits • DrvBitBit • DrvStretchBIt • DrvStrokePath • DrvFillPath • DrvStrokeAndFillPath • DrvLineTo • DrvTextOut • DrvAlphaBlend • DrvGradientFill • DrvPIgBIt • DrvStretchBItROP • DrvTransparentBIt Estas llamadas están separadas en métodos de generación en primer plano y métodos de generación en segundo plano como sigue: • Métodos de generación en primer plano o DrvStrokePath o DrvLineTo o DrvTextOut o DrvBitBit • Métodos de generación en segundo plano o DrvCopyBits DrvBitBit DrvStretchBlt DrvAlphaBlend DrvGradientFill DrvPlgBlt DrvStretchBltROP DrvTransparentBlt DrvFillPath DrvStrokeAndFillPath Se aprecia que las conversiones de gráficas cambian a través del tiempo. Por consiguiente, la lista anterior es dada a manera de ejemplo. Se aprecia que las otras llamadas pueden ser utilizadas o se volverán conocidas para aquellos expertos en la técnica y son consideradas dentro del alcance de las llamadas de gráficas establecidas anteriormente. El procedimiento de impresión puede ser separado en dos escenarios para los propósitos de explicación. Estos dos escenarios representados por las mitades derecha e izquierda de la Figura 10. Durante el primer escenario, dos memorias intermedias de mapa de bits son creadas en el paso 1001. Los dos mapas de bits son la capa de selección y una combinación de la capa en segundo plano/primer plano. La capa de combinación puede ser denominada como BGFG-SURFACE y la capa de selección puede ser denominada como SEL_SURFACE. Ambos mapas de bits cubren la página completa. En el paso 1002, el sistema determina si una de las llamadas recibidas fue una llamada en DrvXXX generada en primer plano. Alternativamente, las llamadas FillPath y StrokeandFillPath, según opuestas a las llamadas BitBIt, pueden ser utilizadas cuando una brocha es un color sólido y utilizando varias operaciones de conversión. Si es si, entonces en el paso 1004, se convierte en ambas, BGFG_SURFACE y SEL_SURFACE utilizando una llamada EngXXX correspondiente (como parte del GDI API) sobre BGFG_SURFACE y SEL_SURFACE separadamente. Si la llamada fue una llamada DrvXXX de generación en segundo plano (representada como "no" desde el paso de decisión 1002), se convierte en BGFG_SURFACE utilizando la llamada EngXXX correspondiente desde la caja de herramientas GDI en el paso 1006. También, para cada llamada DrvXXX, un nodo de datos es creado que contiene por lo menos algo de la siguiente información: • Rectángulo de límite o área que puede ser afectada por la llamada DrvXXX, • Valor del color del texto para la llamada DrvTextOut y para los dibujos de líneas. · ID para identificar el tipo de llamada DrvXXX. Además, cada nodo es agregado a los elementos de la lista de elementos de segundo plano (BGE_LIST) o la lista de los elementos del primer plano (FGE_LIST) para procesamiento en el segundo escenario. Los pasos del procedimiento 1003 y 1005 muestran que el nodo puede ser empujado dentro de cada lista. Sin embargo, como las ubicaciones de estos pasos pueden ocurrir antes o después de los pasos 1004 y 1006, los pasos 1003 y 1005 se muestran en cajas rotas. BGFG_SURFACE puede ser la misma resolución como la resolución más alta que va a ser usada para las imágenes de segundo plano y primer plano. Alternativamente, la resolución de BGFG_SURFACE puede ser fijada a la misma resolución que la resolución de la página como en la imagen final. El segundo escenario empieza después de todas las llamadas DrvXXX. En este escenario, las imágenes para las tres capas son generadas. En el paso 1007, el procedimiento determinar si las imágenes en la lista en segundo plano/primer plano se traslapan. Si es así, entonces las imágenes son procesadas agregadas a las imágenes para ser combinadas a través del procedimiento RC (o procedimientos). Si las imágenes no se traslapan, el procedimiento intenta forzar las imágenes a la lista de selección en el paso 1009. Para determinar en donde es necesaria la imagen de selección, se lleva a cabo una prueba de intersección para cada imagen en BGE_LIST con cada imagen en FGE_LIST. Todas las áreas (rectangular o al contrario) en donde los elementos del segundo plano y elementos del primer plano se intersectan son conducidas por una imagen de selección. En una modalidad, el procedimiento intenta colocar tantas imágenes en la capa de selección como sea posible en la capa en primer plano. En otra modalidad, el procedimiento intenta mantener la suma de las áreas de todas las imágenes a un mínimo para reducir el tamaño de compresión e incrementar el funcionamiento en el escenario de la compresión, de la descompresión y de la conversión. En una modalidad adicional, el procedimiento intenta tratar de tener el número menor de total de imágenes en todas las capas. Estas modalidades pueden ser combinadas o utilizadas separadamente. Estas se describen junta para propósitos de explicación. En el paso 1010, el procedimiento intenta reducir el número de artículos o imágenes por capa. Por ejemplo, dos imágenes de texto no traslapadas del mismo color pueden ser combinadas. En el paso 1010, el procedimiento intenta reducir el número de elementos en las capas. Aquí, los elementos de la misma capa son combinados juntos para hacer elementos más grandes dentro de los más grandes. Se deberá notar que este paso podría introducir nuevos artículos en las listas. Lo siguiente lista varios métodos para combinar los elementos. Uno o más pueden ser utilizados para determinar como agrupar elementos de las capas: • El elemento combinado debe evitar crear nuevos traslapes con elementos en otras capas, a menos que haciendo esto traiga beneficios en otros aspectos listados más adelante; • El área de elementos combinados no debe ser mucho más grande que la suma de los elementos individuales. Se debe fijar un nivel (por ejemplo, 30% - 40%) y compararlo para determinar cuando los elementos combinados están siendo muy grandes; y · La conversión de llamadas específicas puede tener calificadores (por ejemplo, elementos en primer plano creador por DrvTextOut no deben ser combinados con elementos creados por otras llamadas DrvXXX porque estas tienen diferentes valores BPP. También, dentro de los elementos en primer plano creados por DrvTextOut, solamente los elementos con ei mismo color pueden ser combinados. Después de determinar como descomponer la página, existen tres listas: • BGE_LIST; · SLE_LIST; y • FG E LIST. Cada lista contiene una lista de nodos que describe el área (por ejemplo, rectangular o de otras formas) para recortar desde la página. En una modalidad adicional, las listas pueden incluir un factor de escala describiendo como la imagen en la lista será escalada en la imagen final. El factor de escala permite la habilidad de almacenar cada imagen de elemento a una resolución diferente, aún dentro de la misma capa. Finalmente, las varias capas son convertidas en el paso 1011. Para cada elemento en la lista de elementos en primer plano que no intersectan con imágenes de selección, una imagen puede ser formada recortando un área a partir de BGFG_SURFACE y colocada en la capa en segundo plano. Para cada elemento en la lista de elementos en primer plano que no intersecte con imágenes de selección, una imagen puede ser formada recortando un área a partir de SEL_SURFACE y agregada a la capa en primer plano. Para los elementos en las listas en primer plano y segundo piano que intersecten con imágenes de selección, las imágenes son creadas para cada capa utilizando ambos, SEL_SURFACE y BGFG_SURFACE. Por ejemplo, también haciendo referencia a la opción de intersección/comparación píxel por píxel de la Figura 9B, para un elemento en segundo plano que intersecta con una imagen de selección, la imagen en segundo plano puede ser construida recortando un área a partir de BGFG_SURFACE. Enseguida, para cada píxel en la imagen en segundo plano, el procedimiento verifica el píxel correspondiente en SEL_SURFACE. Si el píxel en SEL_SURFACE es negro, el valor del píxel en la imagen en segundo plano es reemplazada con un píxel en segundo plano cercano el cuyo píxel correspondiente en SEL_SURFACE es blanco. Para un elemento en primer plano que intersecte con la imagen de selección, la imagen en primer plano puede ser construida recortando un área de BGFG_SURFACE. Enseguida, para cada píxel en la imagen en primer plano, el procedimiento verifica el píxel correspondiente en SEL_SURFACE. Si el píxel en SEL_SU RFACE es blanco, el valor del píxel en la imagen en segundo plano es con un píxel en segundo plano cercano cuyo píxel correspondiente en SEL_SU RFACE es negro. Una ventaja de forzar imágenes a la capa selectora y/o reducir el número de imágenes por capa es que las capas resultantes puede ser comprimidas con una mayor eficiencia. Como se mencionó anteriormente, varias técnicas de compresión pueden ser utilizadas para comprimir las varias imágenes. Por ejemplo, para cada imagen que es de 1 bpp, uno debe comprimirla utilizando compresión G4. Para cada imagen que es de 24 bpp, uno debe comprimirla utilizando compresión JPGG como se conoce en la técnica. La Figura 11 muestra un procedimiento para fusionar imágenes. Las imágenes pueden ser procesadas todas juntas o pueden ser separadas en grupos (denominados en la presente como "trozos"). Las imágenes en los trozos pueden ser agrupadas por tipo de imagen. Alternativamente, los trozos pueden ser agrupados a través del orden en el cual son creadas. Los trozos pueden tener o no tener un número máximo predeterminado de imágenes. En la Figura 11, el trozo 1 tiene N imágenes. Las imágenes están configuradas en orden de proximidad una con otra. La proximidad se describe más adelante con relación a la Figura 13. La proximidad puede ser visualizadas como la distancia física entre las imágenes o puede ser la aproximación de las imágenes una con la otra para propósitos de fusión. Si dos imágenes se traslapan, su valor de proximidad es "0", significando que estas tienen el valor de proximidad más bajo y deberían ser fusionadas. Las imágenes que no deberían ser fusionadas pueden ser fijadas para tener un valor de proximidad de 1 o más. Se aprecia que cualquier escala de proximidad puede ser utilizada. Todas las imágenes en el trozo son comparadas una contra la otra y cada par de imágenes es clasificada en términos de valor de proximidad. Si N = 5 en la Figura 11, los pares de imágenes deberían ser como sigue: Imagen , Imagen 2 Imagen 1 , Imagen 3 Imagen , Imagen 4, Imagen 1, Imagen 5,' Imagen 2, Imagen 3 Imagen 2, Imagen 4, Imagen 2, Imagen 5, Imagen 3, Imagen 4, Imagen 3, Imagen 5, Imagen 4, Imagen 5 La proximidad para cada par es determinada y los pares ordenados cornos e muestra en la Figura 11 para el trozo 1 en el lado izquierdo de la Figura. En el paso 1101, para el primer par de imágenes, el procedimiento determina si el nivel es menor que un nivel predeterminado. Si es si, entonces las imágenes en el paso 1102 y la proximidad es recalculada para las imágenes restantes. Si la proximidad del paso 1101 es más alta que el nivel, entonces la fusión debe detenerse en el paso 1104. Por ejemplo, el nivel puede ser fijado a cualquier valor entre el valor de proximidad más bajo (significando que las imágenes deben ser fusionadas) y el valor de proximidad más alto (significando que las imágenes no podrían ser fusionadas). La escala para el nivel puede ser 0.4-0.6. Se observa que el valor del nivel puede ser mayor o menor que aquel del rango anterior dependiendo de los tipos de imágenes, los radios de los tipos de imágenes y otros factores. Como se estableció anteriormente, el procedimiento intenta fusionar imágenes juntas que están próximas una con la otra. Otra ventaja puede ser lograda en la minimización del número de imágenes resultantes que la operación MRC necesita procesar. En este caso, aunque las imágenes puedan no tener una proximidad por debajo del nivel utilizado en 1101, un número deseado de imágenes por trozo puede ser especificado con el fin de minibar el número de imágenes necesarias para ser procesadas. El paso 1103 representa una determinación de si el número de imágenes en el trozo es menor que el número deseado de imágenes en el trozo. Por ejemplo, el número deseado de imágenes puede ser 4. Por lo tanto, aunque el valor de proximidad entre cualquiera de dos de las imágenes pueda ser mayor, las imágenes aún deben ser fusionadas (paso 1102) para reducir el número de imágenes resultantes y la proximidad de los pares de imágenes resultantes es recalculado en el paso 1105. La Figura 12 muestra un ejemplo de la función de fusión dando seguimiento a través de pares de imágenes y de imágenes resultantes. Las imágenes individuales por áreas de imagen 1-N 1201-1205 respectivamente. El procedimiento de fusión 1206 se mueve entre las imágenes 12Q1-1205. La fusión de cualquiera de dos imágenes puede ser un simple procedimiento de fusión (procedimiento 1207) en donde la imagen resultante (área de imagen A, la cual es una imagen individual y es tratada como una imagen en segundo plano) no da como resultando ninguna imagen MRC. Alternativamente, la fusión resultante puede ser compleja para fusionar con MRC como se muestra en el procedimiento 1208. Existen por lo menos dos tipos de resultados de fusión a partir de la fusión MRC 1208. El primer 1211 es un área de imagen C en donde las capas en segundo plano y de selección son producidas. La tercera 1211 es un área de imagen D en donde las capas en segundo plano, de selección y en primer plano son producidas. Este ordenamiento de imagen (en segundo plano) individual, MRC con capas es segundo plano y selección, y MRC con segundo plano, selección y primer plano es también el preferido para determinar que fusión llevar a cabo. Esto es, uno debería producir un archivo MRC con una capa en segundo plano individual en lugar de u archivo MRC con capas en segundo plano, selección y primer plano. La Figura 13 muestra un procedimiento para determinar la proximidad para cualquiera de dos áreas de imagen. Dos áreas de imagen A 1301 y B 1302 son verificadas para traslape en e paso 1303. Si las imágenes se traslapan, entonces la proximidad es fijada a 0 en el paso 1307. Si no, el procedimiento determina si ambas imágenes son imágenes MRC actualmente en el paso 1304. Si ambas imágenes son imágenes MRC, entonces la proximidad de las imágenes es fijada (paso 1308) a un valor entre 0 y un valor alto (aquí, el valor más alto siendo 1). Este valor intermedio puede ser fijado para todas las situaciones (por ejemplo, 0.5).
Alternativamente, el valor debe ser fijado como un porcentaje. En un ejemplo, el porcentaje puede ser el porcentaje de eficiencia de combinar las áreas de imagen. En otras palabras, el porcentaje puede ser el paso no utilizado de la imagen fusionada dividido entre el área total de las imágenes combinadas. Este porcentaje se muestra a través de la ecuación en el paso 1308. La Figura 14 muestra un ejemplo para determinar el paso no utilizado. En la Figura 14, la imagen de texto A 1401 está siendo considerada para combinación con la imagen de texto B 1402. En este ejemplo, las área límite de 1401 y 1402 se muestran mediante rectángulos. El área de imagen combinada de las dos áreas 1401 y 1402 resulta en espacio no utilizado 1403 mostrado limitado por líneas punteadas. En una modalidad alternativa, el espacio no utilizado puede estar basado en una rejilla rectangular, dando como resultando un área total incluyendo 1401, 1402, área cerrada por líneas punteadas 1403 y áreas más alejadas 1404 y 1405. En el primer ejemplo, el espacio no utilizado incluye el área 1403. En el segundo ejemplo el espacio no utilizado incluye el área no utilizada 1403, 1404, y 1405. Haciendo referencia de nuevo a la Figura 13, si ambas imágenes no son actualmente imágenes MRC, entonces el procedimiento determina si ambas imágenes son imágenes de texto/línea en el paso 1305. Si es si, y las imágenes son del mismo color (paso 1306), la proximidad es establecida en el paso 1308, como se describió anteriormente.
Si las imágenes de texto/línea no son del mismo color, MRC necesita ser utilizado para que la proximidad sea establecida alta (por ejemplo 1) como se muestra en el paso 1309. Alternativamente, la proximidad puede ser fijada alta como se muestra en el paso 1310 en donde la proximidad es fijada a un coeficiente las veces que la nueva área MRC generada por la fusión de las dos imágenes dividida por el área total de la imágenes combinadas. Si el resultado del paso 1305 es no, entonces la proximidad es establecida en el paso 1310. Alternativamente, uno puede establecer la proximidad como en el paso 1309. Una vez que los archivos fusionados son creados, la cantidad de espacio consumido por la imágenes originales en las imágenes combinadas puede ser recordado. Existen diferentes maneras de medir el espacio de la imágenes fusionadas. La Figura 15A muestra tres imágenes (1-3) en donde cada una es tres unidades en tamaño. Se aprecia que cualquier designación de espacio puede ser utilizada incluyendo centímetros cuadrados, milímetros cuadrados, pulgadas cuadradas, píxeles y similares. La imagen 1 se traslapa con la imagen 3 y la imagen 2 se traslapa con la imagen 3. En la Figura 15B, 1501 muestra la combinación de imágenes 1 y 2. Después de la fusión de la imagen combinada 1+3 con la imagen 2, la combinación resultante es representada en 1502. En 1502, el número de unidades utilizadas actualmente es 7. Sin embargo, este número puede ser aproximado tomando la combinación de las imágenes 1 y 3 (1503) y agregando el tamaño de imagen 2 1504 resultando un tamaño aproximado de 8 unidades. La Figura 15C muestra aún otra representación. Aquí, las imágenes 1 y 2 son combinadas primero dando como resultado una imagen 1505. Agregando la imagen 3 resulta la imagen 1506, otra vez siendo 7 unidades en tamaño como la unidad central de la imagen 2 y la unidad inferior de la imagen 3 no se cuenta separadamente sino combinada. Alternativamente, este valor del tamaño de espacio utilizado en la imagen combinada puede incluir 1507 de las imágenes 1 y 2 con la imagen 3 1508, produciendo un total de 9 unidades. En aún otra modalidad, el tamaño de la imagen fusionada puede ser terminada al tamaño total de la imagen combinada. Ya que se muestran sistemas ilustrativos y métodos moralizando la presente invención a manera de ejemplo, se entenderá, por supuesto, que la invención no está limitada a estas modalidades. Se pueden hacer modificaciones por aquellos expertos en la técnica, particularmente para iluminar las enseñanzas anteriores. Por ejemplo, cada uno de los elementos de las modalidades antes mencionadas puede ser utilizado solo o en combinación con elementos de otras modalidades. Aunque la invención ha sido definida utilizando las reivindicaciones anexas, estas reivindicaciones son ilustrativas en que la invención pretende incluir los elementos y pasos descritos aquí en cualquier combinación o sub-combinación. Por consiguiente, existe cualquier u número de combinaciones alternativas para definir la invención, las cuales incorporan uno o más elementos a partir de la especificación, incluyendo la descripción , reivindicaciones y dibujos, en varias combinaciones o sub-combinaciones. Será aparente para aquellos expertos en la tecnología relevante, en luz de la presente especificación, que combinaciones alternativas de los aspectos de la invención, ya sea solos o en combinación con uno o más elementos o pasos definidos aquí, pueden ser utilizados como modificaciones o alteraciones de la invención o como parte de la invención. Se pretende que la descripción escrita de la invención contenida aquí cubra todas de dichas modificaciones y alteraciones.

Claims (23)

REIVINDICACIONES
1. Un método para formar una imagen de contenido de trama mezclada (MRC) que comprende los pasos de: recibir un comando para generar un archivo como una imagen
MRC desde una aplicación; y generar dicha imagen MRC a través del uso de una unidad de impresión. 2. El método de acuerdo con la reivindicación 1, que comprende además los pasos de: generar una capa de selección; generar una capa en primer plano/segundo plano combinada; y generar listas de artículos, dichas listas incluyendo una lista de artículos para una capa en primer plano y una capa en segundo plano y una capa de selección.
3. El método de acuerdo con la reivindicación 2, que comprende además los pasos de: procesar dichas listas; y generar una capa en segundo plano y una capa en primer plano.
4. Un procedimiento para generar un archivo de contenido de trama mezclada comprendiendo los pasos de: procesar dibujos de texto o línea; agregar dicho dibujos de texto o línea a la capa selectora; procesar una lista de imágenes para formar un fuego de imágenes en primer plano, de selección y en segundo plano; utilizar un color de un tipo de letra de dicho texto o un color de dicha línea y agregar un área de dicho color de dicho tipo de letra o dicho color de dicha línea a una capa en primer plano; y agregar fotografías a una capa en segundo plano.
5. Un procedimiento para convertir un archivo de contenido de trama mezclada en una imagen compuesta, que comprende los pasos de: determinar si un píxel está en una capa selectora; determinar si dicho píxel es blanco; determinar si dicho píxel está en una capa en primer plano; y utilizar un color de dicho píxel a partir de dicha capa en primer plano para pintar un píxel correspondiente en dicha imagen compuesta cuando dichas determinaciones determinan que dicho píxel está en dicha capa selectora, que dicho píxel no es blanco en dicha capa selectora, y dicho píxel está en dicha capa en primer plano.
6. El procedimiento de acuerdo con la reivindicación 5, que comprende además los pasos de: si se hace una determinación de que no hay un píxel en dicha capa selectora, entonces determinar sí un píxel correspondiente existe en dicha capa en primer plano; y utilizar un color de dicho píxel correspondiente de dicha capa en primer plano para pintar un píxel correspondiente en dicha imagen compuesta cuando dicha determinación determina que dicho píxel existe en dicha capa en primer plano, por el contrario utilizando un color de un píxel correspondiente en una capa en segundo plano.
7. Un medio legible por computadora, dicho medio teniendo una estructura de datos de contenido de trama mezclada comprendiendo: una capa en segundo plano; una capa en primer plano; y una capa selectora, en donde dicha capa selectora incluye dos o más imágenes.
8. Un medio legible por computadora, dicho medio teniendo una estructura de datos de contenido de trama mezclada que puede ser convertida a una imagen compuesta, dicha estructura de datos de contenido de trama mezclada comprendiendo: una capa en segundo plano, una capa en primer plano; y una capa selectora, en donde dicha capa selectora incluye una imagen que es más pequeña que dicha imagen compuesta.
9. Un medio legible por computadora, dicho medio teniendo una estructura de datos de contenido de trama mezclada comprendiendo: una capa en segundo plano, una capa en primer plano; y una capa selectora, en donde dicha capa en primer plano incluye una o más imágenes paletas de color.
10. El medio legible por computadora de acuerdo con la reivindicación 9, en donde dichas una o más imágenes incluyen dos o más Imágenes que tiene diferentes profundidades de color.
11. Un medio legible por computadora que tiene un programa almacenado en ei mismo, dicho programa capaz de formar una imagen de contenido de trama mezclada (MRC), dicho programa comprendiendo los siguientes pasos: recibir un comando para generar un archivo de imagen MRC desde una aplicación; y generar dicha imagen MRC a través el uso de una unidad de impresión.
12. El medio legible por computadora de acuerdo con la reivindicación 11, que comprende además los pasos de: generar una capa de selección, convertir una capa en primer plano/segundo plano combinada; y procesar los contenidos de dicho archivo para generar listas de artículos, dichas listas incluyendo una lista de artículos para una capa en primer plano y una lista de artículos para una capa en segundo plano.
13. El medio legible por computadora de acuerdo con la reivindicación 12, que comprende además los pasos de: procesar dichas listas; y generar una capa en segundo plano y capa en primer plano.
14. Un medio legible por computadora que tiene un programa almacenado en el mismo, dicho programa generando un archivo de contenido de trama mezclada, dicho programa comprendiendo los siguientes pasos: procesar dibujos de texto o líneas; agregar dichos dibujos de texto o líneas a una capa selectora; utilizar un color de tipo de letra de dicho texto o un color de dicha línea y agregar un área de dicho color de dicho tipo de fuente o dicho color de dicha línea a una capa en primer plano; y agregar las fotografías a una capa en segundo plano.
15. Un medio legible por computadora que tiene un programa almacenado en el mismo, dicho programa convirtiendo un archivo de contenido de trama mezclada en una imagen compuesta, dicho programa comprendiendo los siguientes pasos: determinar si un píxel está en una capa selectora; determinar si dicho píxel es blanco; y utilizar un color de dicho píxel de dicha capa en primer plano para pintar un píxel correspondiente en dicha imagen compuesta cuando dichos pasos de determinación determinan que dicho píxel está en dicha capa selectora, que dicho píxel no es blanco en dicha capa selectora, y dicho píxel está en la capa en primer plano.
16. El medio legible por computadora de acuerdo con la reivindicación 15, que comprende además los pasos de: si no existe un píxel en dicha capa selectora, entonces determinar si un píxel correspondiente está en dicha capa en primer plano; y utilizar un color de dicho píxel correspondiente de dicha capa en primer plano para pintar un píxel correspondiente en dicha imagen compuesta cuando el paso de determinación determina que dicho píxel existe en dicha capa en primer plano, por el contrario utilizar un color de un píxel correspondiente en una capa en segundo plano.
17. Un medio legible por computadora que tiene una estructura de datos almacenada en el mismo, dicha estructura de datos de un tipo de contenido de trama mezclada incluyendo: una capa selectora que tiene un bit por píxel de profundidad de color en donde un color está asociado con la capa selectora y la capa selectora representa el texto de color.
18. Un procedimiento para convertir imágenes que comprende los pasos de: determinar un área límite para cada imagen; generar por lo menos dos listas en donde dicha primera lista refleje aquellas áreas sin traslapes entre las imágenes y dicha segunda lista refleje aquellas áreas sin traslape; convertir las áreas no traslapadas para cada área; convertir las áreas traslapadas en un píxel mediante bases de píxel.
19. Un procedimiento para convertir imágenes compuestas comprendiendo los pasos de: determinar un área límite para cada imagen; generar cuatro listas en donde dicha primer lista refieja aquellas áreas sin traslape entre las imágenes, en donde dicha segunda lista refleja aquellas áreas en donde las áreas de la capa selectora no se traslapan con las áreas de la capa en primer plano, y en donde dicha cuarta lista refleja aquellas áreas en donde las áreas en segundo plano, de selección y en primer plano se traslapan.
20. El procedimiento de acuerdo con la reivindicación 19, que comprende además los pasos de: llenar dicha imagen compuesta con dichas áreas de la capa en primer plano de dicha lista cuando dichas áreas de la capa en primer plano están presentes en dicha primera lista, por el contrario llenar dicha imagen compuesta con áreas de la capa en segundo plano.
21. El procedimiento de acuerdo con la reivindicación 19, que comprende además el paso de: llenar dicha imagen compuesta con dicha área de la capa selectora de dicha segunda lista cuando dicha segunda lista contiene un área de capa de selección que no es blanca.
22. El procedimiento de acuerdo con la reivindicación 19, que comprende además el paso de: llenar dicha imagen compuesta con dicha área de la capa de selección de dicha tercera lista cuando dicha tercera lista contiene un área de capa de selección que no es blanca, por el contrario llenar dicha imagen compuesta con dicha área de capa en primer plano.
23. El procedimiento de acuerdo con la reivindicación 19, que comprende además el paso de: llenar dicha imagen compuesta con dicha área de la capa en primer plano cuando el área de la capa de selección no es blanca, por el contrario llenar dicha imagen compuesta con dicha área de la
MXPA03002793A 2002-04-30 2003-03-28 Archivos de contenido de trama mezclada. MXPA03002793A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/134,636 US7110137B2 (en) 2002-04-30 2002-04-30 Mixed raster content files

Publications (1)

Publication Number Publication Date
MXPA03002793A true MXPA03002793A (es) 2005-02-14

Family

ID=22464255

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA03002793A MXPA03002793A (es) 2002-04-30 2003-03-28 Archivos de contenido de trama mezclada.

Country Status (20)

Country Link
US (2) US7110137B2 (es)
EP (1) EP1359545B1 (es)
JP (1) JP4299034B2 (es)
KR (1) KR100935267B1 (es)
CN (1) CN1293464C (es)
AT (1) ATE328335T1 (es)
AU (1) AU2003203331B2 (es)
BR (1) BR0301147A (es)
CA (1) CA2423528C (es)
DE (1) DE60305573T2 (es)
DK (1) DK1359545T3 (es)
ES (1) ES2265532T3 (es)
HK (1) HK1058849A1 (es)
MX (1) MXPA03002793A (es)
MY (1) MY144550A (es)
NO (1) NO329337B1 (es)
PL (1) PL359440A1 (es)
RU (1) RU2360288C2 (es)
TW (1) TWI322387B (es)
ZA (1) ZA200302351B (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8064090B2 (en) * 2002-08-28 2011-11-22 Xmpie (Israel) Ltd. System and method for processing variable print documents
AU2003256037A1 (en) * 2002-08-28 2004-03-19 Xmpie (Israel) Ltd. Apparatus and method for processing variable print documents
KR100910974B1 (ko) * 2002-10-02 2009-08-05 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법
US20040123247A1 (en) * 2002-12-20 2004-06-24 Optimost Llc Method and apparatus for dynamically altering electronic content
JP2004260273A (ja) * 2003-02-24 2004-09-16 Oki Data Corp 画像形成装置
US20050222687A1 (en) * 2004-04-02 2005-10-06 Gordana Vunjak-Novakovic Cartilage implant assembly and method for implantation
KR100538224B1 (ko) * 2003-06-09 2005-12-21 삼성전자주식회사 잉크 젯 프린터의 스캔 및 인쇄 방법 및 장치
JP4125208B2 (ja) * 2003-09-29 2008-07-30 キヤノン株式会社 画像処理装置及び画像処理方法
JP4049136B2 (ja) * 2004-08-10 2008-02-20 ブラザー工業株式会社 画像処理装置及びプログラム
GB2421106A (en) * 2004-12-07 2006-06-14 Hewlett Packard Development Co A method and apparatus for preparing variable-data documents for publishing
EP1670257B1 (en) * 2004-12-10 2018-09-26 Ricoh Company, Ltd. Compressing a mutlivalue image with control of memory space requirement
US7880925B2 (en) * 2005-08-02 2011-02-01 Kabushiki Kaisha Toshiba Apparatus and method for generating an image file with a color layer and a monochrome layer
JP4606298B2 (ja) * 2005-10-18 2011-01-05 シャープ株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US7730398B2 (en) 2005-10-25 2010-06-01 Research In Motion Limited Image stitching for mobile electronic devices
US7995075B2 (en) 2006-03-02 2011-08-09 Mediatek Inc. Display data extraction methods, devices and computer systems utilizing the same
JP4764231B2 (ja) 2006-03-31 2011-08-31 キヤノン株式会社 画像処理装置、制御方法、コンピュータプログラム
CN100538620C (zh) * 2006-04-29 2009-09-09 光宝科技股份有限公司 打印方法及打印对象控制装置
CN100545831C (zh) * 2006-09-27 2009-09-30 北京大学 一种透明页面的光栅化处理方法及装置
CN100576238C (zh) 2006-09-30 2009-12-30 北京大学 一种光栅图像处理方法和装置
KR101282030B1 (ko) * 2007-01-26 2013-07-04 삼성전자주식회사 데이터의 보안 전송을 위한 화상형성장치 및 그 전송방법
JP4914318B2 (ja) * 2007-09-14 2012-04-11 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、プログラム、および記録媒体
US8218887B2 (en) * 2007-09-28 2012-07-10 Abbyy Software, Ltd. Enhanced method of multilayer compression of PDF (image) files using OCR systems
US8619083B2 (en) * 2009-01-06 2013-12-31 Microsoft Corporation Multi-layer image composition with intermediate blending resolutions
US20100245918A1 (en) * 2009-03-30 2010-09-30 Nguyen Uoc H Methods and Systems for Rendering Data
US8339670B2 (en) * 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data based on graphic-list partitioning
US8339672B2 (en) * 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data using graphic-list partitions and associated rendering processors
US8339653B2 (en) * 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data based on overlap characteristics
US8411319B2 (en) * 2009-03-30 2013-04-02 Sharp Laboratories Of America, Inc. Methods and systems for concurrent rendering of graphic-list elements
US20100245889A1 (en) * 2009-03-30 2010-09-30 Nguyen Uoc H Methods and Systems for Rendering Data
US8339671B2 (en) * 2009-03-30 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for rendering data by partitioning a graphics list
AU2009202377A1 (en) * 2009-06-15 2011-01-06 Canon Kabushiki Kaisha Combining overlapping objects
JP2011040970A (ja) * 2009-08-10 2011-02-24 Canon Inc データ処理装置、および、データ処理方法
JP5434555B2 (ja) * 2009-12-14 2014-03-05 富士ゼロックス株式会社 画像情報処理装置及びプログラム
US20120092480A1 (en) * 2010-05-28 2012-04-19 Putman Matthew C Unique digital imaging method employing known background
US20120127198A1 (en) * 2010-11-22 2012-05-24 Microsoft Corporation Selection of foreground characteristics based on background
KR101868637B1 (ko) * 2012-02-16 2018-06-18 삼성전자주식회사 이미지 파일의 인코딩 및 디코딩 방법, 기계로 읽을 수 있는 저장 매체 및 멀티미디어 장치
TWI505203B (zh) * 2012-11-02 2015-10-21 Avisonic Technology Corp 產生車用影像的影像處理方法及影像處理裝置
JP5886265B2 (ja) * 2013-11-28 2016-03-16 シャープ株式会社 携帯端末装置、プログラム、及び記録媒体
US10268698B2 (en) * 2014-11-21 2019-04-23 Adobe Inc. Synchronizing different representations of content
CN106157341B (zh) 2015-03-30 2019-05-14 阿里巴巴集团控股有限公司 生成合成图片的方法及装置
DE102016204044A1 (de) * 2016-03-11 2017-09-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und head-up-display zum perspektivischen transformieren und anzeigen eines bildinhalts sowie fahrzeug
CN108376416A (zh) * 2018-01-16 2018-08-07 天津大学 一种图像生成方法以及装置
CN108924557B (zh) * 2018-06-11 2022-02-08 海信视像科技股份有限公司 图像处理方法、装置、电子设备及存储介质
US11704843B2 (en) * 2021-03-03 2023-07-18 Adobe Inc. Advanced application of color gradients to text
KR20220126914A (ko) * 2021-03-10 2022-09-19 삼성전자주식회사 이미지의 알파 값을 이용하여 이미지를 출력하는 전자 장치 및 그 제어 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5778092A (en) * 1996-12-20 1998-07-07 Xerox Corporation Method and apparatus for compressing color or gray scale documents
US6324305B1 (en) * 1998-12-22 2001-11-27 Xerox Corporation Method and apparatus for segmenting a composite image into mixed raster content planes
US6373981B1 (en) * 1998-12-21 2002-04-16 Xerox Corporation Method and apparatus for segmenting data to create mixed raster content planes
US6400844B1 (en) * 1998-12-02 2002-06-04 Xerox Corporation Method and apparatus for segmenting data to create mixed raster content planes
JP2000175052A (ja) * 1998-12-07 2000-06-23 Xerox Corp ピクセルマップ表現の処理方法及び装置
JP2000175053A (ja) * 1998-12-07 2000-06-23 Xerox Corp 文書の圧縮ピクセルマップ表現を表す混合ラスタコンテントプレ―ンの処理方法
JP2001136361A (ja) * 1999-11-01 2001-05-18 Canon Inc 画像通信装置およびその方法
US6608928B1 (en) * 1999-11-03 2003-08-19 Xerox Corporation Generic pre-processing of mixed raster content planes
US6633670B1 (en) * 2000-03-31 2003-10-14 Sharp Laboratories Of America, Inc. Mask generation for multi-layer image decomposition
US6701012B1 (en) * 2000-07-24 2004-03-02 Sharp Laboratories Of America, Inc. Out-of-layer pixel generation for a decomposed-image layer
US6941014B2 (en) * 2000-12-15 2005-09-06 Xerox Corporation Method and apparatus for segmenting an image using a combination of image segmentation techniques
US7027647B2 (en) * 2001-12-31 2006-04-11 Hewlett-Packard Development Company, L.P. Coder matched layer separation for compression of compound documents
US6941024B2 (en) * 2002-01-14 2005-09-06 Hewlett-Packard Development Company, L.P. Coder matched layer separation and interpolation for compression of compound documents

Also Published As

Publication number Publication date
CN1455332A (zh) 2003-11-12
US7110137B2 (en) 2006-09-19
PL359440A1 (en) 2003-11-03
DE60305573D1 (de) 2006-07-06
BR0301147A (pt) 2004-08-17
AU2003203331A1 (en) 2003-11-20
MY144550A (en) 2011-09-30
TW200306500A (en) 2003-11-16
EP1359545A1 (en) 2003-11-05
NO20031441L (no) 2003-10-31
RU2360288C2 (ru) 2009-06-27
ATE328335T1 (de) 2006-06-15
CA2423528A1 (en) 2003-10-30
JP2003331298A (ja) 2003-11-21
JP4299034B2 (ja) 2009-07-22
US20070013951A1 (en) 2007-01-18
NO20031441D0 (no) 2003-03-28
ES2265532T3 (es) 2007-02-16
CN1293464C (zh) 2007-01-03
NO329337B1 (no) 2010-09-27
KR100935267B1 (ko) 2010-01-06
CA2423528C (en) 2011-03-22
US20030202212A1 (en) 2003-10-30
KR20030085472A (ko) 2003-11-05
ZA200302351B (en) 2004-03-10
DE60305573T2 (de) 2006-11-02
HK1058849A1 (en) 2004-06-04
EP1359545B1 (en) 2006-05-31
AU2003203331B2 (en) 2008-10-30
TWI322387B (en) 2010-03-21
DK1359545T3 (da) 2006-09-25

Similar Documents

Publication Publication Date Title
MXPA03002793A (es) Archivos de contenido de trama mezclada.
US8014013B2 (en) Systems and methods for segmenting pages and changing settings for graphical elements in printing
JP5302768B2 (ja) 画像処理装置及び画像処理方法
JP5452825B2 (ja) レンダリングのために多頁ドキュメントの頁別にサイズ縮小するための方法
JP4995057B2 (ja) 描画装置、印刷装置、描画方法、及びプログラム
US7894098B1 (en) Color separation of pattern color spaces and form XObjects
EP1955257A2 (en) System to print artwork containing transparency
US20070279705A1 (en) Image processing apparatus and control method thereof, and program
US6992789B2 (en) Method, system, and program for managing a multi-page document
CN101562680A (zh) 图像形成装置和图像形成方法
JP6708476B2 (ja) 文書保存処理システム
JP4747780B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2009093645A (ja) オーバーラップする要素を含む電子ドキュメントをレンダリングするシステムおよび方法
US7710602B2 (en) Systems and methods for context-based adaptive image processing using segmentation
JP4375199B2 (ja) 画像処理装置およびプログラム
JP6512763B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2010092141A (ja) 画像処理システム、画像読取装置、画像処理装置および画像処理プログラム
JP5424785B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
US10248894B2 (en) Raster pixel object identification mechanism
JP5315637B2 (ja) 画像処理装置、原稿電子化システムおよびプログラム
JP2003036445A (ja) 画像処理装置

Legal Events

Date Code Title Description
FG Grant or registration