ES2966632T3 - Dispositivo de cámara y procedimieto para captar un objeto - Google Patents

Dispositivo de cámara y procedimieto para captar un objeto Download PDF

Info

Publication number
ES2966632T3
ES2966632T3 ES21213614T ES21213614T ES2966632T3 ES 2966632 T3 ES2966632 T3 ES 2966632T3 ES 21213614 T ES21213614 T ES 21213614T ES 21213614 T ES21213614 T ES 21213614T ES 2966632 T3 ES2966632 T3 ES 2966632T3
Authority
ES
Spain
Prior art keywords
perspective
partial
camera
area
deflector element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21213614T
Other languages
English (en)
Inventor
Klemens Wehrle
Ralf Paske
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Application granted granted Critical
Publication of ES2966632T3 publication Critical patent/ES2966632T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0081Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/10Apparatus characterised by the means used for detection ofthe destination
    • B07C3/14Apparatus characterised by the means used for detection ofthe destination using light-responsive detecting means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/18Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
    • G02B7/182Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • G06K7/10415Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM
    • G06K7/10425Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM the interrogation device being arranged for interrogation of record carriers passing by the interrogation device
    • G06K7/10435Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM the interrogation device being arranged for interrogation of record carriers passing by the interrogation device the interrogation device being positioned close to a conveyor belt or the like on which moving record carriers are passing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10831Arrangement of optical elements, e.g. lenses, mirrors, prisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • B65G2203/0216Codes or marks on the article
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/845Objects on a conveyor
    • G01N2021/8455Objects on a conveyor and using position detectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0582Reflectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • G06K7/10871Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels randomly oriented data-fields, code-marks therefore, e.g. concentric circles-code

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

Se especifica un dispositivo de cámara (10, 30a-e) para detectar un objeto (14) en una corriente de objetos (14) que se mueven en una dirección longitudinal (16) con respecto al dispositivo de cámara (10, 30a-e), en el que el El dispositivo de cámara (10, 30a-e) comprende una cámara (10) con un sensor de imagen (24) para grabar imágenes de los objetos (14) y al menos un primer elemento de desviación (30a), el campo de visión (18) de teniendo la cámara (10) al menos una primera zona de visión parcial (32a, 18a) con detección del primer elemento de desviación (30a) y una segunda zona de visión parcial (32b, 18b) con detección del primer elemento de desviación (30a). El primer elemento de desviación (30a) está dispuesto de tal manera que una primera perspectiva de la primera área de visión parcial (32a, 18a) es diferente de una segunda perspectiva de la segunda área de visión parcial (32b, 18b), la primera área de visión parcial (32a) , 18a) ofrece así una perspectiva diferente del objeto (14) que la primera zona de visión parcial (32a, 18a), de modo que al menos dos lados del objeto (14) se registran simultáneamente con el sensor de imagen (24). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Dispositivo de cámara y procedimieto para captar un objeto
La invención se refiere a un dispositivo de cámara y a un procedimiento para captar un objeto en una corriente de objetos que se mueven en relación con el dispositivo de cámara en una dirección longitudinal según el preámbulo de la reivindicación 1 u 11.
En aplicaciones industriales, se utilizan cámaras de diversas formas para captar automáticamente las propiedades de los objetos, por ejemplo, para inspeccionarlos o medirlos. A este respecto, las imágenes del objeto se captan y analizan en función del objetivo mediante procedimientos de procesamiento de imágenes. Una aplicación importante de cámaras es la lectura de códigos. Con ayuda de un sensor de imagen, se captan objetos con códigos sobre ellos, se identifican las áreas codificadas en las imágenes y se descodifican. Los lectores de códigos basados en cámaras también pueden trabajar fácilmente con tipos de códigos distintos de los códigos de barras unidimensionales, que, como un código matricial, también tienen una estructura bidimensional y proporcionan más información. Entre los campos de aplicación habituales de los lectores de códigos figuran las cajas de supermercado, la identificación automática de paquetes, la clasificación de envíos postales, la gestión de equipajes en aeropuertos y otras aplicaciones logísticas.
Una situación de detección habitual es el montaje de la cámara está montada sobre una cinta transportadora. La cámara capta imágenes durante el movimiento relativo del flujo de objetos en la cinta transportadora e inicia otras etapas de procesamiento en función de las propiedades del objeto captadas. Estas etapas de tratamiento consisten, por ejemplo, en un tratamiento posterior adaptado al objeto concreto en una máquina que actúa sobre los objetos transportados, o en la modificación del flujo de objetos mediante la expulsión de determinados objetos del flujo de objetos en el marco de un control de calidad o la clasificación del flujo de objetos en varios flujos parciales de objetos. Si la cámara es un lector de códigos, los objetos se identifican para su correcta clasificación o etapas de procesamiento similares mediante los códigos adjuntos. Por regla general, el sistema transportador utiliza un codificador incremental para suministrar continuamente impulsos relacionados con el desplazamiento, de modo que las posiciones de los objetos se conocen en todo momento, incluso si varían las velocidades de transporte.
El sensor de imagen de la cámara puede estar configurado como línea o matriz. El movimiento del objeto que se ha de captar se utiliza para componer sucesivamente una imagen encadenando líneas o combinando imágenes individuales. A este respecto, solo puede captarse un lado del objeto desde la respectiva perspectiva de la cámara, y debe utilizarse una cámara adicional para cada lado de lectura adicional.
La figura 9 muestra una instalación convencional en donde una cámara 100 capta un objeto 104 situado en una cinta transportadora 102 con su campo de visión 106 desde arriba, en una llamada lectura superior. Para la lectura lateral se requieren cámaras adicionales 100a-b montadas junto a la cinta transportadora 102 con sus correspondientes áreas 106a-b de visión. La figura 10 muestra un montaje alternativo para una lectura superior utilizando un espejo deflector 108. Esto permite un diseño más compacto del túnel de lectura con la cámara 100 montada más cerca. Sin embargo, esto no cambia el hecho de que la cámara 100 solo puede captar un único lado del objeto y se necesitarían dos cámaras adicionales para una lectura lateral.
Es concebible orientar la cámara de tal manera que dos lados del objeto puedan ser captados sucesivamente durante el movimiento de transporte. En el documento US 6484066 B1, una cámara ve la superficie frontal y una superficie lateral desde una correspondiente perspectiva oblicua y una segunda cámara ve la superficie posterior y la otra superficie lateral. Respectivos espejos prolongan la trayectoria de la luz en un espacio de instalación reducido según el principio de la figura 10 anteriormente descrita. Sin embargo, la perspectiva oblicua provoca distorsiones que hay que compensar y reducen la calidad de la imagen.
El documento DE 202013009 198 U1 divulga un dispositivo para desviar y ampliar el área de visión de una cámara. A este respecto, inclinando los espejos uno hacia otro correspondientemente, se obtiene un área de visión más amplia, de modo que las áreas parciales adyacentes se visualizan unas sobre otras en el sensor de imagen. En el documento EP 2624042 A2 se presenta una disposición alternativa de espejos para una correspondiente ampliación del área de visión. En ambos casos, sin embargo, solo hay una única perspectiva del objeto; para captar imágenes desde varios lados todavía hay que utilizar varias cámaras.
El documento EP 0258810 A2 trata de la inspección de artículos. Gracias a una pluralidad de espejos, cinco de los seis lados pueden captarse con la misma cámara. Los numerosos espejos suponen un gran esfuerzo de ajuste y no funcionan con una cámara lineal, por lo que la resolución para la lectura de códigos sigue correspondientemente siendo limitada, en donde la lectura de códigos tampoco es una aplicación prevista. Para la iluminación, se dispone todo un grupo de unidades de iluminación dispuestas alrededor del artículo. La captura de un objeto desde varios lados mediante una disposición de espejos también se conoce por el documento US 2010226 114 A1, en donde las similares desventajas se ven agravadas por el hecho de que en este caso no se prevé ningún movimiento del objeto.
En el documento EP 2937810 A1, se utilizan espejos escalonados para captar eficazmente un objeto varias veces a diferentes distancias. Esto significa que el objeto se encuentra en el rango de profundidad de campo en la trayectoria de la luz a través de al menos uno de los espejos. En una forma de realización, los espejos se utilizan para captar la parte delantera, la parte superior o la parte trasera, dependiendo de la posición de transporte. Sin embargo, no es posible captar un objeto desde varias perspectivas al mismo tiempo, y las superficies laterales solo podrían captarse con cámaras adicionales.
El documento US 2010/0163622 A1 utiliza una estructura de espejo monolítico en un lector óptico de códigos para dividir el campo de visión del sensor de imagen en varias vistas diferentes. Esta estructura de espejo es compleja e inflexible.
El documento WO 2004/105967 A1 trata de un dispositivo para captar imágenes de productos como, por ejemplo, fruta o huevos, en una cinta transportadora. El campo de visión de una cámara se multiplica por cuatro con ayuda de espejos para captar una mayor área superficial de los productos.
Por lo tanto, es objetivo de la invención mejorar la captura de objetos que se mueven en una corriente.
Este objetivo se resuelve mediante un dispositivo de cámara y un procedimiento para captar un objeto en una corriente de objetos que se mueven en relación con el dispositivo de cámara en una dirección longitudinal según la reivindicación 1 o 12. Una cámara del dispositivo de cámara utiliza un sensor de imagen para captar imágenes de objetos que forman una corriente de objetos que se mueven en relación con la cámara en una dirección longitudinal. Al menos un primer elemento deflector garantiza que la trayectoria del haz de recepción se pliegue para la captura de imágenes. El campo de visión de la cámara se divide al menos en un primer campo de visión parcial con detección del primer elemento deflector y un segundo campo de visión parcial sin detección del primer elemento deflector. En otras palabras, el primer elemento deflector puede verse en la primera área de visión parcial y no en la segunda área de visión parcial. En general, también se pueden prever más de dos áreas de visión parcial con diferentes configuraciones de elementos deflectores individuales o varios elementos deflectores consecutivamente. Es concebible que área de visión parcial capte el objeto completamente sin deflexión y, por tanto, directamente. Las áreas de visión parciales son preferiblemente disyuntas entre sí, por lo que se corresponden con diferentes píxeles del sensor de imagen, y/o forman conjuntamente todo el campo de visión del sensor de imagen o de la cámara, lo que significa que se utilizan todos los píxeles del sensor de imagen.
La invención se basa en la idea básica de ampliar el campo de visión de la cámara plegando la trayectoria del haz de diferentes maneras, de modo que se creen diferentes perspectivas del objeto más allá de la perspectiva original. El primer elemento deflector crea una perspectiva adicional del objeto proporcionando un pliegue o al menos un pliegue diferente en la primera área de visión parcial que en la segunda área de visión parcial. Esto permite captar el objeto desde varias perspectivas con la misma cámara. Esta captura tiene lugar simultáneamente desde distintas perspectivas, a diferencia de lo que ocurre, por ejemplo, en el documento EP 2937810 A1, en donde las superficies frontal, superior y posterior solo pueden captarse consecutivamente en distintas posiciones de transporte. Las perspectivas también son en gran medida de libre elección, incluida la captura lateral.
En muchos lugares, esta descripción se basa en la idea de objetos al menos aproximadamente paralelepípedos que presentan seis lados o superficies. Esta es también una aplicación frecuente, pero la invención no se limita a ello, especialmente porque las correspondientes seis perspectivas también están disponibles para objetos de cualquier geometría.
La invención tiene la ventaja de que es posible captar varios lados con menos cámaras. La reducción del número de cámaras disminuye los costes y la complejidad y permite diseñar un sistema mecánico más pequeño y compacto. A este respecto, se aprovecha al máximo la alta resolución cada vez más disponible de los sensores de imagen.
La segunda perspectiva es preferiblemente una vista superior. De este modo, el flujo de objetos se detecta desde arriba desde la segunda perspectiva y se capta la parte superior de los objetos, también conocida como lectura superior en el caso de un lector de códigos. Preferiblemente, la cámara también está montada por encima de la corriente. O bien se orienta ella misma hacia abajo, o bien se crea la segunda perspectiva desde arriba mediante correspondientes elementos deflectores. El primer elemento deflector no está implicado; se encuentra fuera de la segunda área de visión parcial.
La primera perspectiva es una vista lateral perpendicular a la dirección longitudinal. La primera perspectiva lateral en esta forma de realización es creada por la deflexión del primer elemento deflector. Esto significa que también se capta un lado del objeto, por ejemplo, adicionalmente al lado superior desde la segunda perspectiva, por donde la segunda perspectiva puede comprender alternativamente también una superficie frontal o posterior.
El dispositivo de cámara comprende preferiblemente un segundo elemento deflector, el campo de visión de la cámara presenta una tercera área de visión parcial con detección del segundo elemento deflector, y el segundo elemento deflector está dispuesto de tal manera que una tercera perspectiva de la tercera área de visión parcial es diferente de la primera perspectiva y de la segunda perspectiva, de modo que se captan simultáneamente tres lados del objeto con el sensor de imagen. Análogamente a la primera perspectiva a través del primer elemento deflector, se genera así una tercera perspectiva con una tercera área de visión parcial y un segundo elemento deflector. Por consiguiente, el segundo elemento deflector se capta con precisión en la tercera área de visión parcial, pero no en las otras áreas de visión parcial, y el primer elemento deflector no se detecta en la tercera área de visión parcial. La tercera perspectiva es preferiblemente una vista lateral desde la dirección opuesta a la primera perspectiva. Esto significa que los dos lados del objeto se captan desde la primera y la tercera perspectiva, adicionalmente a la segunda perspectiva, por ejemplo, la parte superior.
La cámara está montada de forma estacionaria en un equipo transportador que desplaza la corriente de objetos en dirección longitudinal. Una posición de montaje preferente es sobre la cinta transportadora para combinar la detección desde arriba con la detección de uno o más lados, en particular con la detección lateral, pero también son concebibles otras posiciones de montaje para combinar otras perspectivas. Si se desea detectar la parte inferior, deben tomarse medidas en el equipo transportador como, por ejemplo, la colocación de una ventana de visualización.
El dispositivo de cámara presenta preferiblemente un tercer elemento deflector que está dispuesto de tal manera que se capta en la segunda área de visión parcial. Esto significa que la trayectoria del haz de recepción también se pliega en la segunda área de visión parcial o en la segunda perspectiva. Un ejemplo es la orientación de la cámara no directamente hacia el objeto, por ejemplo, una dirección visual plana al menos aproximadamente paralela o antiparalela a la dirección longitudinal con desviación hacia el objeto desde arriba o desde un lado. Es concebible plegar la trayectoria del haz de la segunda perspectiva varias veces utilizando elementos deflectores adicionales.
El dispositivo de cámara presenta otro elemento deflector, denominado en lo sucesivo cuarto elemento deflector, que pliega una vez más la trayectoria del haz de recepción de la primera perspectiva plegada por el primer elemento deflector. La deflexión para la primera perspectiva es, por lo tanto, de dos etapas, por ejemplo, primero desde una cámara montada por encima junto a la corriente y luego sobre el objeto. Además de un diseño particularmente compacto, la doble deflexión permite detectar el objeto al menos casi perpendicularmente a su superficie de captación, en particular la superficie lateral.
El dispositivo de cámara presenta preferiblemente un quinto elemento deflector que pliega una vez más la trayectoria del haz de recepción de la tercera perspectiva plegada por el segundo elemento deflector. La función del quinto elemento deflector para la tercera perspectiva corresponde a la del cuarto elemento deflector para la primera perspectiva.
Los elementos deflectores se disponen preferiblemente de forma que los trayectos luminosos entre la cámara y el objeto tengan la misma longitud para las diferentes perspectivas con una tolerancia correspondiente a un rango de profundidad de campo de la cámara. Como resultado, se capturan imágenes nítidas en todas las perspectivas. Una opción de implementación es montar el tercer elemento deflector a una distancia mayor de la cámara que el primer o segundo elemento deflector. En última instancia, esto amplía artificialmente la trayectoria de la luz en la segunda perspectiva para compensar los desvíos necesarios en la primera o tercera perspectiva. Esto hace posible que la trayectoria de la luz desde la cámara a través del tercer elemento deflector hasta el objeto, por ejemplo, hasta su parte superior, tenga aproximadamente la misma longitud que la trayectoria desde la cámara a través del primer elemento deflector y el cuarto elemento deflector hasta el objeto, por ejemplo, hasta su superficie lateral, o correspondientemente desde la cámara a través del segundo elemento deflector y el quinto elemento deflector hasta el objeto, por ejemplo, hasta su otra superficie lateral.
Los respectivos elementos deflectores presentan preferiblemente un espejo y un soporte para el montaje en una disposición y orientación predeterminadas en relación con la corriente de objetos. Los elementos deflectores pueden colocarse y orientarse en gran medida a voluntad en el espacio utilizando sus propios soportes y como componentes propios, a diferencia de una estructura de espejo monolítica según el documento US 2010/0163622 A1 mencionado al principio. Los espejos cumplen otras tareas ópticas, por ejemplo, estar dotados de propiedades de agrupamiento o dispersión mediante superficies de espejo curvadas o de propiedades de filtrado para determinados espectros mediante revestimientos y similares.
El sensor de imagen se diseña preferiblemente como sensor lineal. Tales sensores lineales están disponibles con resoluciones de píxeles muy altas, algunas de las cuales no son forzosamente necesarias para la detección de un único lado del objeto. Según la invención, los píxeles adicionales pueden aprovecharse para captar lados adicionales desde perspectivas adicionales.
Las áreas de visión parcial corresponden preferiblemente a zonas pixeladas adyacentes del sensor de imagen, en particular una zona pixelada central corresponde a la segunda área de visión parcial y una zona pixelada lateral, a la primera u otras áreas de visión parcial. La anchura del área de visión es así preferiblemente mayor que la de la corriente de objetos que se ha de captar o la cinta transportadora, y ventajosamente se utiliza un exceso lateral en uno o en dos lados para una perspectiva adicional o dos perspectivas adicionales.
Alternativamente, las áreas de visión parcial corresponden a áreas pixeladas superpuestas del sensor de imagen. En este caso, el sensor de imagen es un sensor matricial cuyos segmentos de línea superpuestos se utilizan para las diferentes perspectivas. Para ello, los elementos deflectores se diseñan preferiblemente con varias secciones inclinadas de forma correspondiente o se utilizan elementos deflectores adicionales para disponer adecuadamente las áreas de visión parcial en el sensor de matriz.
El dispositivo de cámara presenta una unidad de iluminación para iluminar las áreas de visión parcial a través de los respectivos elementos deflectores. Si la unidad de iluminación también utiliza los elementos deflectores, basta con una única unidad de iluminación central, de forma bastante análoga a un único sensor de imagen, que puede captar desde varias perspectivas según la invención.
El dispositivo de cámara presenta preferiblemente una unidad de control y evaluación que está configurada para localizar áreas codificadas en los datos de imagen captados por el sensor de imagen y para leer el contenido codificado de las mismas. Pueden captarse contenidos codificados en un sentido amplio, por ejemplo, como lectura textos (OCR,Optical Character Reading)o reconocimiento de símbolos. Sin embargo, se prefiere especialmente un lector de códigos basado en cámaras que lea códigos de barras ópticos y códigos 2D ópticos utilizando una única cámara y un único sensor de imagen simultáneamente desde varios lados del objeto.
El procedimiento según la invención puede perfeccionarse de forma similar y presenta ventajas similares. Las características ventajosas se describen a modo de ejemplo, pero no de forma concluyente, en las reivindicaciones dependientes que siguen a las reivindicaciones independientes.
La invención también se explica con más detalle a continuación con respecto a otras características y ventajas a modo de ejemplo con ayuda de formas de realización y con referencia al dibujo adjunto. Las ilustraciones del dibujo muestran en:
la Figura 1 una vista esquemática de una cámara montada en una cinta transportadora con objetos que se han de detectar;
la Figura 2 una vista tridimensional de un dispositivo de cámara con trayectorias de haces plegadas para la captura simultánea desde arriba y desde un lado;
la Figura 3 una vista frontal del dispositivo de cámara según la figura 2;
la Figura 4 una vista superior del dispositivo de cámara según la figura 2;
la Figura 5 una descomposición de las trayectorias de luz de la figura 2 para explicar cómo se puede mantener el objeto en el rango de profundidad de campo para todas las perspectivas utilizando trayectorias de luz de la misma longitud;
la Figura 6 una vista tridimensional de un dispositivo de cámara con trayectorias de haces plegadas para la captura simultánea desde arriba y desde los dos lados;
la Figura 7 una vista frontal del dispositivo de cámara según la figura 6;
la Figura 8 una vista superior del dispositivo de cámara según la figura 6;
la Figura 9 una representación de un dispositivo de cámara convencional que requiere tres cámaras para captar tres lados; y
la Figura 10 una representación de otro dispositivo de cámara convencional que utiliza un espejo para capturar un objeto desde arriba en una orientación horizontal.
La figura 1 muestra una cámara 10 montada sobre una cinta transportadora 12 sobre la que se transportan objetos 14 a través de un área 18 de visión de la cámara 10 en una dirección 16 de transporte indicada por flechas. En una forma de realización preferida, los objetos 14 llevan códigos 20 en sus superficies exteriores que son leídos por la cámara 10. Para ello, la cámara 10 utiliza una lente receptora 22 con un sensor 24 de imagen para captar imágenes de los objetos 14 situados en el área 18 de visión.
Una unidad 26 de evaluación comprende una unidad de descodificación que evalúa las imágenes. A este respecto, se identifican las áreas codificadas y se lee el contenido codificado 20. La funcionalidad de evaluación también puede implementarse, al menos parcialmente, fuera de la cámara 10. Preferiblemente, la cámara 10 solo está configurada como lector de códigos basado en una cámara. Además de la lectura de códigos ópticos 1D o 2D, otras posibles tareas de procesamiento de imágenes son el reconocimiento de símbolos, en particular etiquetas HazMat, la lectura de fuentes (OCR,Optical Character Reading),en particular direcciones, y otras tareas de procesamiento.
La cámara 10 puede estar configurada como cámara lineal con un sensor 24 de imagen de barrido lineal, preferiblemente con una alta resolución de, por ejemplo, ocho mil o doce mil píxeles. Alternativamente, el sensor 24 de imagen es un sensor matricial, que puede presentar una resolución global equiparable de cuatro, ocho o doce megapíxeles. Sin embargo, estas se distribuyen por la superficie, de modo que la captura sucesiva de imágenes con una línea durante el transcurso del movimiento de transporte puede dar lugar a imágenes de resolución significativamente mayor. En algunas aplicaciones, en particular cuando se utiliza el procesamiento de imágenes basado en el aprendizaje automático o CNN (redes neuronales convolucionales), también es suficiente una resolución de píxeles inferior. Con un sensor matricial, también es concebible en principio la captura de imágenes estáticas sin flujo de objetos en movimiento o cinta transportadora 12. Por el contrario, a menudo tiene sentido combinar sucesivamente las imágenes captadas con un sensor matricial en una imagen mayor durante el transcurso de un movimiento de transporte.
A un túnel de lectura formado por la cámara 10 y la cinta transportadora 12 pueden pertenecer otros sensores, que están representados por un sensor 28 de avance, por ejemplo, un codificador incremental que se utiliza para determinar la velocidad o el avance de la cinta transportadora 12. Como resultado, la información capturada en cualquier punto a lo largo de la cinta transportadora 12 puede convertirse a otras posiciones a lo largo de la cinta transportadora 12 o, lo que es equivalente gracias al avance conocido, a otros puntos en el tiempo. Otros sensores concebibles son una barrera de luz de disparo, que reconoce en cada caso la entrada de un objeto 14 en el área 18 de visión, o un sensor de geometría, en particular un escáner láser, que detecta un contorno 3<d>de los objetos 14 sobre la cinta transportadora 12.
El área 18 de visión de la cámara 10 está dividida por elementos deflectores 30a-c, en particular espejos, y la respectiva trayectoria 32a-b del haz de recepción se pliega correspondientemente. Esto se reconocerá mejor y se explicará con más detalle más adelante con ayuda de las figuras 2 a 8. Los elementos deflectores 30a, 30b aseguran que la trayectoria 32a de haz de recepción se pliegue hacia un lado del objeto 14. Mediante un elemento deflector 30c, la otra trayectoria 32b de haz receptor se desvía de un curso vertical hacia la parte superior del objeto 14 hacia la horizontal correspondientemente a la alineación de la cámara 10.
De este modo se crean áreas 18a-b de visión parcial en la superficie y en una superficie lateral del objeto 14, de modo que se pueden detectar dos lados del objeto 14 al mismo tiempo. Las áreas 18a-b de visión parcial de la figura 1 tienen forma de línea para la detección sucesiva por líneas del objeto 14 en el curso del movimiento de transporte; con un sensor matricial como sensor 24 de imagen, se crean áreas de visión parcial correspondientemente más amplias.
La división del área 18 de visión en áreas 18a-b de visión parcial también da lugar a zonas pixeladas o segmentos de imagen que pueden distinguirse en el sensor 24 de imagen. Con un sensor lineal, estos segmentos de imagen se sitúan preferiblemente de manera adyacente entre sí. Esto significa que se desacoplan áreas parciales del campo de lectura que no son necesarias para la parte central de la detección y, dado el caso, su iluminación, y se utilizan para la detección de un lado adicional mediante desviaciones o pliegues. Con un sensor matricial, las áreas 18a-b de visión parcial también pueden disponerse unas junto a otras, pero también superponerse en franjas en el sensor 24 de imagen.
Una iluminación activa de la cámara 10, no mostrada en la figura 1, también se pliega sobre los elementos deflectores 30a-c como una iluminación coaxial al sensor 24 de imagen.
Esto significa que basta con una iluminación central en el emplazamiento de la cámara o integrada en ella, y así se iluminan las respectivas áreas 18a-b de visión parcial.
Las imágenes captadas pueden procesarse en la unidad 26 de evaluación o en una unidad de procesamiento de imágenes posterior con parámetros adaptados a las áreas 18a-b de visión parcial. Los parámetros del sensor 24 de imagen o de la iluminación se ajustan o regulan por secciones.
De esta manera, se ajustan, por ejemplo, el contraste o el brillo. También está prevista la conformación del haz o el filtrado óptico mediante el correspondientemente recubrimiento de los elementos deflectores 30a-c.
La figura 2 muestra una vista tridimensional del dispositivo de cámara según la figura 1. Las figuras 3 y 4 son una vista frontal en la dirección de transporte y una vista superior complementarias. La cámara 10 está alineada horizontal o paralelamente a la cinta transportadora y en su dirección 16 de transporte, alternativamente también en contra de la dirección 16 de transporte. Una trayectoria lateral 32a de haz de recepción es guiada o plegada lateralmente a través de un elemento deflector 30a superior del lado izquierdo, primero hacia abajo junto a la cinta transportadora 12 y, después, a través de un elemento deflector 30b inferior del lado izquierdo lo más verticalmente posible sobre la superficie lateral del objeto 14. La trayectoria lateral 32a de haz de recepción corresponde al área 18a de visión parcial no referenciada específicamente en la figura 2 en aras de una mayor claridad. Contrariamente a la invención, el elemento deflector 30a superior izquierdo solo, es decir, sin el elemento deflector inferior izquierdo, podría desviar alternativamente sobre la superficie lateral, pero en este caso con una trayectoria de haz oblicua y ya no vertical. Una trayectoria central 32b de haz de recepción se desvía hacia abajo sobre la parte superior del objeto 14 en un elemento deflector 30c central. La trayectoria central 32b de haz de recepción corresponde al área 18b de visión parcial, que, en este caso, ya no se referencia específicamente.
Gracias a los elementos deflectores 30a-c y a las correspondientes trayectorias plegadas 32a-b de haz de recepción, la parte superior y el lado izquierdo del objeto 14 pueden captarse simultáneamente con la cámara 10 desde dos perspectivas diferentes. Se sobreentiende que esto también podría aplicarse al lado derecho. En cualquier caso, la detección por dos lados es particularmente ventajosa en el caso de una primera perspectiva desde el lado y una segunda perspectiva desde arriba, pero también sería concebible detectar otros dos lados o superficies del objeto 14 o dos perspectivas distintas de desde arriba y desde el lado.
La figura 5 muestra de nuevo la representación de la figura 2 como fondo y divide las trayectorias 32a-b de haz de recepción en sus subsecciones rectilíneas A-E. La cámara 10 con su sistema óptico 22 receptor solo tiene un alcance de profundidad de campo limitado. Por lo tanto, es especialmente ventajoso que las trayectorias de luz de las distintas perspectivas tengan la misma longitud. Como resultado, se capturan en cada caso imágenes nítidas desde los lados capturados simultáneamente del objeto 14. Las diferencias en las longitudes la trayectoria de la luz, especialmente si superan la tolerancia que permite un rango de profundidad de campo finito, provocarían, por el contrario, borrosidad en la captura de al menos un lado o superficie. Gracias a la hábil disposición de los elementos deflectores 30a-c, puede garantizarse una longitud igual de las trayectorias 32a-b de haces de recepción, es decir, puede cumplirse la ecuación A+B=C+D+E. Para ello, el elemento deflector 30c central está dispuesto más lejos de la cámara 10 que el elemento deflector 30a superior izquierdo, de modo que A y B se extienden tanto como corresponde a las desviaciones a través de la doble desviación sobre la superficie lateral con las secciones C, D, E. Conviene reiterar que basta con una igualdad aproximada dentro de la amplitud del rango de profundidad de campo.
La cámara 10 puede presentar un enfoque ajustable o un enfoque automático en lugar de un enfoque fijo. Sin embargo, esto por sí solo no resuelve el problema del desenfoque desde distintas perspectivas, ya que la profundidad de campo solo puede ajustarse para una perspectiva. Otra forma de resolver el problema del enfoque es una combinación con la enseñanza del documento EP 2 937 810 A1 mencionado al principio. A este respecto, los elementos deflectores 30a-c se sustituyen convenientemente por elementos deflectores escalonados a diferentes distancias. Las secciones de imagen capturadas se multiplican correspondientemente al escalonamiento, y en cada caso se selecciona y procesa una sección de imagen capturada en el rango de profundidad de campo con una trayectoria de luz adecuadamente larga.
La figura 6 muestra otra forma de realización del dispositivo de cámara en una vista tridimensional, con las figuras 7 y 8 complementariamente como vista frontal en la dirección de transporte y vista superior. A diferencia de la forma de realización mostrada según las figuras 2 a 5, ahora también se captura el otro lado del objeto 14 desde una tercera perspectiva adicional. Con respecto a las diversas opciones de diseño y, en particular, al diseño de las trayectorias de luz para una respectiva captura en el rango de profundidad de campo, se cumplen análogamente las explicaciones anteriores. Esto también se cumple en particular para un diseño con trayectorias de luz de igual longitud, como se muestra en la figura 5, es decir, que el otro lado del objeto 14 también debe detectarse preferiblemente con una trayectoria de luz de igual longitud.
Para crear una tercera perspectiva y detectar también el segundo lado derecho del objeto 14, que en este caso se ve en la dirección 16 de transporte, se desacopla lateralmente una trayectoria lateral 32c adicional de haz de recepción a través de un elemento deflector 30d superior derecho, primero hacia abajo junto a la cinta transportadora 12 y luego a través de un elemento deflector 30e inferior derecho lo más verticalmente posible sobre la otra superficie lateral del objeto 14. La trayectoria lateral 32c adicional de haz de recepción corresponde a un área 18c de visión parcial adicional que solo se referencia en la figura 7 en aras de una mayor claridad. Dos áreas 18a, 18c de visión parcial están ahora desacopladas a ambos lados del área 18b de visión parcial central. Gracias a los elementos deflectores 30a-e y a las correspondientes trayectorias plegadas 32a-c de haz de recepción, la cámara 10 puede captar simultáneamente la parte superior, el lado izquierdo y el lado derecho del objeto 14 desde tres perspectivas diferentes. En lugar de captar desde arriba y desde ambos lados, serían concebibles otras tres perspectivas sobre una combinación diferente de lados del objeto 14.
Si la desviación no es perpendicular a las superficies laterales como se ha descrito anteriormente, sino en el plano horizontal en un ángulo de 45°, es decir, prácticamente sobre un borde vertical de un objeto imaginario 14 con forma de paralelepípedo, la superficie delantera o trasera también pueden detectarse sucesivamente con el respectivo lado en el curso del movimiento de transporte en un ejemplo que no se inscribe en el marco de la invención. En la forma de realización mostrada según las figuras 2 a 5, habría que tomar una decisión a favor de la superficie delantera o trasera o habría que cubrir la superficie no cubierta en cada caso por la perspectiva desde arriba inclinándola correspondientemente. En la forma de realización mostrada en las figuras 6 a 8, un lado puede detectarse con la superficie delantera y el otro lado con la superficie trasera. Sin embargo, hay que aceptar en cada caso la desventaja de que ya no existe una perspectiva vertical sobre la respectiva superficie del objeto.

Claims (11)

REIVINDICACIONES
1. Dispositivo (10, 30a-e) de cámara para detectar un objeto (14) en una corriente de objetos (14) que se mueven con respecto al dispositivo (10, 30a-e) de cámara en una dirección longitudinal (16), en donde el dispositivo (10, 30a-e) de cámara comprende una cámara (10) con un sensor (24) de imagen para captar imágenes de los objetos (14) y al menos un primer elemento deflector (30a), en donde el campo (18) de visión de la cámara (10) presenta al menos una primera área (32a, 18a) de visión parcial con detección del primer elemento deflector (30a) y una segunda área (32b, 18b) de visión parcial sin detección del primer elemento deflector (30a) y en donde la cámara (10) está montada estacionariamente en un equipo transportador (12) que transporta la corriente de objetos (14) en la dirección longitudinal (16), en donde el primer elemento deflector (30a) está dispuesto de tal manera que una primera perspectiva de la primera área (32a, 18a) de visión parcial es diferente de una segunda perspectiva de la segunda área de visión parcial (32b, 18b), por lo que la primera área (32a, 18a) de visión parcial ofrece una perspectiva del objeto (14) diferente de la segunda área de visión parcial (32b, 18b), de modo que se captan simultáneamente al menos dos lados del objeto (14) con el sensor (24) de imagen,caracterizado
por quela primera perspectiva es una vista lateral perpendicular a la dirección longitudinal (16) ypor queel primer elemento deflector (30a) pliega una trayectoria lateral (32a) de haz de recepción correspondiente a la primera área (32a, 18a) de visión parcial primero hacia abajo junto al equipo transportador (12) y luego a través de otro elemento deflector (30b) sobre una superficie lateral del objeto (14), de modo que la deflexión para la primera perspectiva es de dos etapas,por queel dispositivo (10, 30a-e) de cámara dispone además de una unidad de iluminación para iluminar las áreas (32a-c, 18a-c) de visión parciales a través de los respectivos elementos deflectores (30a-e),por quelos parámetros del sensor (24) de imagen o de la unidad de iluminación se ajustan o regulan por secciones, ypor quela conformación del haz o el filtrado óptico está previsto mediante un revestimiento de los elementos deflectores (30a-b).
2. Dispositivo (10, 30a-e) de cámara según la reivindicación 1, en donde la segunda perspectiva es una vista superior.
3. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, que comprende un segundo elemento deflector (30d), en donde el campo de visión de la cámara (10) presenta una tercera área (32c, 18c) de visión parcial con detección del segundo elemento deflector (30d) y el segundo elemento deflector (30d) está dispuesto de tal manera que una tercera perspectiva de la tercera área (32c, 18c) de visión parcial es diferente de la primera perspectiva y de la segunda perspectiva, de modo que tres lados del objeto (14) se registran simultáneamente con el sensor (24) de imagen, en donde en particular la tercera perspectiva es una vista lateral desde una dirección opuesta a la primera perspectiva.
4. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, que comprende un tercer elemento deflector (30c) dispuesto de tal manera que es captado en la segunda área (32b, 18b) de visión parcial.
5. Dispositivo (10, 30a-e) de cámara según la reivindicación 3,
que presenta un quinto elemento deflector (30e) que pliega una vez más la trayectoria (32c) de haz de recepción de la tercera perspectiva plegada por el segundo elemento deflector (30d).
6. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, en donde los elementos de desviación (30a-e) están dispuestos de tal manera que los trayectos luminosos (32a-c) entre la cámara (10) y el objeto (14) son de igual longitud para las diferentes perspectivas con una tolerancia correspondiente a la profundidad de campo de la cámara (10).
7. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, en donde los elementos deflectores (30a-e) comprenden un espejo y un soporte para el montaje en una disposición y orientación predeterminadas con respecto a la corriente de objetos (14).
8. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, en donde el sensor (24) de imagen está configurado como un sensor de línea.
9. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, en donde la áreas pixeladas adyacentes del sensor (24) de imagen se corresponden con las áreas (32a-c, 18a-c) de visión parcial, en particular un área pixelada central se corresponde con la segunda área (32b, 18b) de visión parcial y un área pixelada lateral se corresponde con otras áreas (32a, 32c, 18a, 18c) de visión parcial, o en donde áreas pixeladas superpuestas del sensor (24) de imagen se corresponden con las áreas (32a-c, 18a-c) de visión parcial.
10. Dispositivo (10, 30a-e) de cámara según una de las reivindicaciones anteriores, que presenta una unidad de control y evaluación (26) que está configurada para localizar áreas codificadas (22) en los datos de imagen captados por el sensor (24) de imagen y para leer el contenido codificado de las mismas.
11. Procedimiento para detectar un objeto (14) en una corriente de objetos (14) movidos por un equipo transportador (12) en una dirección longitudinal (16), en donde las imágenes de los objetos (16) son captadas por un sensor (24) de imagen en un campo (18) de visión y el campo (18) de visión presenta una primera área (32a, 18a) de visión parcial con detección de un primer elemento deflector (30a) y una segunda área (32b, 18b) de visión parcial sin detección del primer elemento deflector (30a), en donde el primer elemento deflector (30a) está dispuesto de tal manera que una primera perspectiva de la primera área (32a, 18a) de visión parcial es diferente de una segunda perspectiva de la segunda área de visión parcial (32b, 18b), por lo que la primera área (32a, 18a) de visión parcial ofrece una perspectiva diferente del objeto (14) que la segunda área de visión parcial (32b, 18b), de manera que al menos dos lados del objeto (14) son captados simultáneamente con el sensor (24) de imagen,
caracterizado
por quela primera perspectiva es una vista lateral perpendicular a la dirección longitudinal (16) ypor queel primer elemento deflector (30a) pliega una trayectoria lateral (32a) de haz de recepción correspondiente a la primera área (32a, 18a) de visión parcial primero hacia abajo junto al equipo transportador (12) y luego a través de otro elemento deflector (30b) sobre una superficie lateral del objeto (14), de modo que la deflexión para la primera perspectiva es de dos etapas,por quelas áreas (32a-c, 18a-c) de visión parciales son iluminadas, además, a través de los respectivos elementos deflectores (30a-e),por quelos parámetros del sensor (24) de imagen o de la unidad de iluminación se ajustan o regulan por secciones, ypor quese efectúa una conformación del haz o un filtrado óptico mediante un revestimiento de los elementos deflectores (30a-b).
ES21213614T 2021-01-19 2021-12-10 Dispositivo de cámara y procedimieto para captar un objeto Active ES2966632T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021100947.2A DE102021100947B4 (de) 2021-01-19 2021-01-19 Kameravorrichtung und Verfahren zur Erfassung eines Objekts

Publications (1)

Publication Number Publication Date
ES2966632T3 true ES2966632T3 (es) 2024-04-23

Family

ID=79170799

Family Applications (1)

Application Number Title Priority Date Filing Date
ES21213614T Active ES2966632T3 (es) 2021-01-19 2021-12-10 Dispositivo de cámara y procedimieto para captar un objeto

Country Status (5)

Country Link
US (1) US20220229291A1 (es)
EP (1) EP4030234B1 (es)
JP (1) JP2022111066A (es)
DE (1) DE102021100947B4 (es)
ES (1) ES2966632T3 (es)

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799326B2 (ja) * 1986-08-30 1995-10-25 株式会社マキ製作所 球塊状物品の外観検査方法と装置
JPH01178658U (es) * 1988-06-08 1989-12-21
JP2944092B2 (ja) 1989-01-27 1999-08-30 株式会社マキ製作所 物品の外観検査装置
GB2297628A (en) 1995-02-03 1996-08-07 David William Ross Viewing apparatus
JP3961729B2 (ja) * 1999-03-03 2007-08-22 株式会社デンソー 全焦点撮像装置
EP1189707A4 (en) * 1999-04-30 2008-03-05 Siemens Ag SYSTEM FOR SEPARATING ELEMENTS
US6484066B1 (en) 1999-10-29 2002-11-19 Lockheed Martin Corporation Image life tunnel scanner inspection system using extended depth of field technology
EP1436646A4 (en) 2001-09-13 2006-09-13 Anzpac Systems Ltd METHOD AND DEVICE FOR ARTICLE TESTING
JP2003298929A (ja) * 2002-04-03 2003-10-17 Sharp Corp 撮像装置
WO2004105967A1 (en) 2003-05-27 2004-12-09 Fps Food Processing Systems B.V. Imaging device
JP2005107404A (ja) * 2003-10-01 2005-04-21 Matsushita Electric Ind Co Ltd 広角撮像光学系、並びにそれを備えた広角撮像装置、監視用撮像装置、車載用撮像装置及び投写装置
US8608076B2 (en) 2008-02-12 2013-12-17 Datalogic ADC, Inc. Monolithic mirror structure for use in a multi-perspective optical code reader
US20100226114A1 (en) 2009-03-03 2010-09-09 David Fishbaine Illumination and imaging system
US9027838B2 (en) 2012-02-06 2015-05-12 Cognex Corporation System and method for expansion of field of view in a vision system
JP2014170184A (ja) * 2013-03-05 2014-09-18 Olympus Corp 撮像素子及び撮像光学系
DE202013009198U1 (de) 2013-10-18 2013-12-02 Sick Ag Vorrichtung zum Umlenken und zur Verbreiterung des Sichtbereichs
DE102014105759A1 (de) 2014-04-24 2015-10-29 Sick Ag Kamera und Verfahren zur Erfassung eines bewegten Stroms von Objekten
US10198647B2 (en) * 2015-09-25 2019-02-05 Datalogic IP Tech, S.r.l. Compact imaging module with range finder
JP6701706B2 (ja) * 2015-12-09 2020-05-27 株式会社ニコン 電子機器及びプログラム
US20220180643A1 (en) * 2019-03-22 2022-06-09 Vergence Automation, Inc. Vectorization for object detection, recognition, and assessment for vehicle vision systems
CN209992978U (zh) * 2019-06-11 2020-01-24 海门八达快递有限公司 全方位扫码装置
KR20210000985A (ko) * 2019-06-26 2021-01-06 삼성전자주식회사 비전 센서, 이를 포함하는 이미지 처리 장치 및 비전 센서의 동작 방법

Also Published As

Publication number Publication date
US20220229291A1 (en) 2022-07-21
DE102021100947B4 (de) 2022-07-28
EP4030234C0 (de) 2023-10-11
EP4030234A1 (de) 2022-07-20
EP4030234B1 (de) 2023-10-11
CN114827395A (zh) 2022-07-29
JP2022111066A (ja) 2022-07-29
DE102021100947A1 (de) 2022-07-21

Similar Documents

Publication Publication Date Title
US8496173B2 (en) Camera-based code reader and method for its adjusted manufacturing
ES2745066T3 (es) Dispositivo de cámara y método para grabar un flujo de objetos
US20150310242A1 (en) Camera and method for the detection of a moved flow of objects
US7599075B2 (en) Automatic optical inspection using multiple objectives
US20100006742A1 (en) Large depth of field line scan camera
US6899272B2 (en) Bioptics bar code reader
EP3074915B1 (en) Optical code reading system with dynamic image regionalization
ES2593800T3 (es) Procedimiento y patrón de luz para medir la altura o el curso de la altura de un objeto
ES2393109T3 (es) Procedimiento para la parametrización automática de sistemas de medida
US20100013934A1 (en) System for image acquisition
US20020008139A1 (en) Wide-field extended-depth doubly telecentric catadioptric optical system for digital imaging
US20080023560A1 (en) Swipe Imager Scan Engine
US20100065643A1 (en) Reading device and method for code markings on receptacles
KR20130080805A (ko) 검체 정보 검출 장치 및 검체 정보 검출 방법
US9141840B2 (en) Apparatus for deflecting and for widening a visible range
ES2348858T3 (es) Procedimiento y dispositivo de escaneado.
JP2018518720A (ja) カメラ及びそれを用いた物品処理装置
ES2966632T3 (es) Dispositivo de cámara y procedimieto para captar un objeto
US20150338498A1 (en) Camera and method for capturing image data
ES2259166T3 (es) Escaner.
ES2237719T3 (es) Lector de codigo optoelectronico.
US5912447A (en) Concentric optical path equalizer with radially moving mirrors
EP1371424A2 (en) Optically-guided indicia reader system
ES2265907T3 (es) Procedimiento y dispositivo para detectar defectos en piezas de un material traslucido o transparentes.
CN114827395B (zh) 用于检测对象的相机设备和方法