AT15136U1 - Monitoring System - Google Patents

Monitoring System Download PDF

Info

Publication number
AT15136U1
AT15136U1 ATGM50037/2016U AT500372016U AT15136U1 AT 15136 U1 AT15136 U1 AT 15136U1 AT 500372016 U AT500372016 U AT 500372016U AT 15136 U1 AT15136 U1 AT 15136U1
Authority
AT
Austria
Prior art keywords
area
cameras
led
images
camera
Prior art date
Application number
ATGM50037/2016U
Other languages
English (en)
Inventor
Terenzi Claudio
Bontempi Agostino
Original Assignee
Wide Automation S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wide Automation S R L filed Critical Wide Automation S R L
Publication of AT15136U1 publication Critical patent/AT15136U1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2433Detection of presence or absence
    • B23Q17/2438Detection of presence or absence of an operator or a part thereof
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B9/00Safety arrangements
    • G05B9/02Safety arrangements electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49141Detect near collision and slow, stop, inhibit movement tool

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Iron Core Of Rotating Electric Machines (AREA)
  • Studio Devices (AREA)

Abstract

System zur Überwachung eines Bereichs (A) in der Nähe einer Bearbeitungsmaschine (M), wobei die Maschine (M) mindestens einen beweglichen Arbeitskopf (2) in dem Bereich (A) oder in dessen Nähe aufweist, umfassend, in Kombination: einen ersten Kamerakopf (TV1), ausgestattet mit einer ersten Kamera (T1), einer zweiten Kamera (T2) und einer dritten Kamera (T3), die in einem vorgegebenen Abstand zueinander angeordnet sind, um Bilder des Bereichs (A) aufzunehmen, und eine Verarbeitungseinheit (3), die mit den Kameras (T1, T2, T3) verbunden ist, um die Bilder zu empfangen.

Description

Beschreibung [0001] Die vorliegende Erf indung betrifft ein Überwachungssystem, insbesondere zur Überwa-chung von Bereichen im näheren Umfeld einer Werkzeugmaschine.
[0002] Auf dem Gebiet der Werkzeugmaschinen sind verschiedene Systeme bekannt, die das Monitoring, das heißt die Überwachung, eines an eine Werkzeugmaschine angrenzenden Be-reiches (in dem sich eine Bedienperson aufhalten kann) ermöglichen.
[0003] Solche Überwachungssysteme dienen dem Zweck, einen vorbestimmten Arbeitsbereich im näheren Umfeld der Werkzeugmaschine zu iiberwachen, urn die Anwesenheit einer Person im Arbeitsbereich zu erkennen und demzufolge die Werkzeugmaschine gegebenenfalls anzu-halten.
[0004] Die genannten Überwachungssysteme ermöglichen es daher, die Sicherheit fiir das Bedienungspersonal zu erhöhen, da die Maschine angehalten wird, wenn sich eine Bedienperson der Maschine in einer potenziellen Gefährdungssituation nähert.
Es besteht jedoch seit langem das Bedürfnis nach einem Überwachungssystem, das besonders zuverlässig ist, das heißt insbesondere, bei dem einerseits die versehentliche Auslösung von Fehlalarmen reduziert und andererseits die Gefahr der Nichterkennung einer im überwachten Bereich anwesenden Bedienperson vermindert ist.
[0005] Aufgabe der vorliegenden Neuerung ist daher die Beseitigung der aufgefiihrten Nachtei-le durch die Bereitstellung eines Überwachungssystems und eines Überwachungsverfahrens, die zugleich wirksam und zuverlässig sind.
[0006] Gemäß der Neuerung wird diese Aufgabe durch ein Überwachungssystem gelöst, das die technischen Eigenschaften umfasst, die in einem Oder mehreren der angefügten Ansprüche dargelegt sind.
[0007] Die technischen Eigenschaften der Erfindung gemäß den genannten Zwecken sind deutlich feststellbar aus dem Inhalt der unten wiedergegebenen Anspriiche, und ihre Vorteile sind am deutlichsten offenbar in der folgenden genauen Beschreibung, die mit Bezug auf die angefiigten Zeichnungen erstellt ist, die eine rein beispielhafte und nicht einschränkende Aus-führungsform davon darstellen. Hierbei zeigen: [0008] - Fig. 1 in schematischer Ansicht die Anwendung des erfindungsgemäßen Überwa- chungssystems; [0009] - Fig. 2 ein Detail des erfindungsgemäßen Überwachungssystems.
[0010] Mit Bezug auf die beigefiigten Zeichnungen bezeichnet die Bezugsnummer 1 ein System zur Überwachung eines Bereichs A in der Nähe einer Bearbeitungsmaschine M.
[0011] Unter Bearbeitungsmaschine M wird in diesem Zusammenhang eine beliebige Maschine zur Ausführung von Bearbeitungen Oder Behandlungen an Gegenständen Oder Produkten verstanden, wie beispielsweise eine Werkzeugmaschine.
[0012] Zu beachten ist, dass solche Maschinen im Allgemeinen mindestens ein bewegliches Element 2 aufweisen, das iiblicherweise das Bearbeitungswerkzeug trägt.
[0013] Dieses bewegliche Element 2 beinhaltet einen Arbeitskopf 2 (nachfolgend können diese beiden Begriffe austauschbar verwendet werden).
[0014] In dem in Fig. 1 dargestellten Beispiel ist mit dem Bezugszeichen P ein Werkstück ge-kennzeichnet und mit Bezugszeichen 2 ein bewegliches Element, das Bestandteil der Maschine M ist.
[0015] Hier ist zu bemerken, wie das Element 2 entlang einer Richtung X beweglich ist.
Das System 1 beinhaltet einen ersten Kamerakopf TV1, ausgestattet mit einer ersten Kamera T1, einer zweiten Kamera T2 und einer dritten Kamera T3, die in einem vorgegebenen Abstand zueinander angeordnet sind, urn Bilder des Bereichs A aufzunehmen.
[0016] Vorzugsweise weisen die Kameras (T1, T2, T3) des ersten Kamerakopfes TV1 eine parallele optische Achse auf.
[0017] Zu beachten ist, dass die Kameras (T1, T2, T3) derart angeordnet sind, dass sie, jeweils paarweise, die Aufnahme dreidimensionaler Bilder des Bereichs A ermöglichen.
[0018] Vorzugsweise umfasst das System, wie in Fig. 1 dargestellt, auch einen zweiten Kame-rakopf TV2, der, im Gebrauch, in einer vorgegebenen Relativposition zum ersten Kamerakopf TV1 angeordnet ist, urn Bilder des Bereichs A aus einem anderen Sichtwinkel aufzunehmen.
[0019] Der zweite Kamerakopf TV2 weist dieselben technischen und funktionalen Merkmale auf wie der erste Kamerakopf TV1, auf den daher bei der nachfolgenden Beschreibung Bezug genommen wird.
[0020] Die Kameras (T4, T5, T6) des zweiten Kamerakopfes TV2 sind in einer Winkelstellung relativ zu den Kameras (T1, T2, T3) des ersten Kamerakopfes TV1 angeordnet: Mit anderen Worten nehmen die Kameras der beiden Kameraköpfe (TV1, TV2) Bilder des Bereichs A fiber verschiedene optische Pfade auf.
[0021] Vorzugsweise, sind die Kameras (T4, T5, T6) des zweiten Kamerakopfes TV2 frontal gegeniiber (diesen zugewandt) den Kameras (T1, T2, T3) des ersten Kamerakopfes TV1 angeordnet, wie in Fig. 1 dargestellt.
[0022] Zu beachten ist, dass das Vorhandensein des zweiten Kamerakopfes TV2 optional ist und die Vorteile der Verwendung des zweiten Kamerakopfes TV2 im Folgenden noch genauer beschrieben werden.
[0023] Zu beachten ist, dass die Kameras (T1, T2, T3) des ersten Kamerakopfes TV1 im Innern eines kastenartigen Behälters 5 untergebracht sind.
[0024] Vorzugsweise umfasst der kastenartige Behälter 5 einen Träger 6, der dafiir ausgelegt ist, auf dem Boden aufgestellt Oder mit einem Oder mehreren Elementen der Maschine M ver-bunden zu werden.
[0025] Gemäß der Neuerung umfasst das System 1 eine Verarbeitungseinheit 3, die mit den Kameras (T1, T2, T3) verbunden ist, urn die Bilder zu empfangen, und die fiir Folgendes ausgelegt ist: [0026] - a) Analysieren, jeweils paarweise, der Bilder der Kameras (T1, T2, T3) des ersten Kamerakopfes TV1, urn die Anwesenheit eines Objekts in dem Bereich A zu erkennen; [0027] - b) Erfassen einer Position des Arbeitskopfes 2 in dem Bereich A; [0028] - c) Bereitstellen eines Signals SA zum Anhalten der Maschine M in Abhängigkeit von der relativen Position des Arbeitskopfes 2 zu dem im Bereich A erkannten Objekt.
[0029] Vorzugsweise ist die Verarbeitungseinheit 3 in den ersten Kamerakopf TV1 integriert.
[0030] Zu beachten ist, dass der Vorgang b) des Erfassens der Position des beweglichen Elements 2 im Bereich A entweder das Ablesen dieser Position direkt von der Maschine M vorse-hen kann, oder eine Analyse der von den Kameras aufgenommen Bilder vorsehen kann, urn daraus die Position des beweglichen Elements 2 im Bereich A abzuleiten.
[0031] Daher kann der erste Kamerakopf TV1 eine Schnittstelle vorsehen, die mit der Steuer-einheit der Maschine verbunden ist, urn die Position des beweglichen Elements 2 im Bereich A aufzunehmen, oder er kann alternativ ein Modul (Hardware oder Software) zur Bildverarbeitung vorsehen, das dafiir ausgelegt ist, die Position des beweglichen Elements 2 im Bereich A aus der Analyse eines oder mehrerer Paare von Kameras (T1, T2, T3) des ersten Kamerakopfes TV1 abzuleiten.
[0032] Gemäß einem weiteren Aspekt beinhaltet das System 1 eine Schnittstellenzentrale zu der Maschine M, die mit der Verarbeitungseinheit 3 und der Maschine M verbunden ist, urn die Haltsignalisierung von der Verarbeitungseinheit 3 zu empfangen und ein Befehlssignal an die
Steuereinheit (zum Beispiel an die SPS) der Maschine M zu senden.
[0033] Alternativ kann direkt in der Verarbeitungseinheit 3 ein Kommunikationsmodul integriert sein, das dafiir ausgelegt ist, eine Schnittstelle zur Maschine M zu bilden, um ein Befehlssignal an die Steuereinheit (zum Beispiel an die SPS) der Maschine M zu senden.
[0034] Mit anderen Worten ist die Verarbeitungseinheit 3 mit einer Kommunikationsschnittstelle (Kommunikationsmodul) zu der Maschine M ausgestattet.
[0035] Vorzugsweise ist die Kommunikationsschnittstelle vom bidirektionalen Typ (um das Senden von Befehlen an die Maschine M und den Empfang von Daten von der Maschine M, die auf diese Befehle bezogen sein können Oder nicht, zu ermöglichen).
[0036] Gemäß einem weiteren Aspekt beinhaltet der erste Kamerakopf TV1 mindestens einen Ultraschallsensor U1 (der einen Ultraschall-Sender und einen Empfänger integriert).
[0037] Dieser Ultraschallsensor U1 ist mit dem Kamerakopf TV1 verbunden (daran befestigt).
[0038] Zu beachten ist ferner, dass der Ultraschallsensor U1 mit der Verarbeitungseinheit 3 verbunden ist.
[0039] Die Verarbeitungseinheit 3 ist dafiir ausgelegt, das Signal des Ultraschallsensors U1 zu verarbeiten, um die Anwesenheit eines Objekts in dem Bereich A zu erkennen, und das Ergeb-nis der Verarbeitung des Signals des Ultraschallsensors U1 mit dem Ergebnis der, jeweils paarweisen, Analyse der Bilder der Kameras (T1, T2, T3) zu vergleichen.
[0040] Vorteilhaft ermöglicht dieser Ultraschallsensor somit die Erhöhung der Zuverlässigkeit des Systems bei der Erkennung von Objekten innerhalb des überwachten Bereichs: tatsächlich wird sowohl die Anzahl von Fehlalarmen, als auch die Anzahl unerkannte Zutritte in den iiber-wachten Bereich vermindert.
[0041] Zu beachten ist, dass, gemäß einer ersten Ausfiihrungsform, die Steuereinheit 3 dafiir ausgelegt ist, die Anwesenheit eines Objekts in dem Bereich A anhand der Analyse der Bilder aller Paare von Kameras (T1, T2, T3) des ersten Kamerakopfes nach einer Verarbeitungslogik vom Typ OR zu erkennen.
[0042] Mit anderen Worten reicht auch aus, dass die Anwesenheit eines Objekts mit nur einem Kamerapaar erfasst wird, damit die Verarbeitungseinheit daraus eine Bedingung der Anwesenheit eines Objektes im iiberwachten Bereich A ableitet.
[0043] Zu beachten ist, dass, gemäß einer zweiten und unterschiedlichen alternativen Ausfiihrungsform, die Steuereinheit 3 dafiir ausgelegt ist, die Anwesenheit eines Objekts in dem Bereich A anhand der Analyse der Bilder aller Paare von Kameras (T1, T2, T3) des ersten Kamerakopfes nach einer Verarbeitungslogik vom Typ AND zu erkennen.
[0044] Mit anderen Worten ist es in diesem Fall erforderlich, dass die Anwesenheit eines Objekts von alien Kamerapaaren erfasst wird, damit die Verarbeitungseinheit daraus eine Bedingung der Anwesenheit eines Objektes im iiberwachten Bereich A ableitet.
[0045] Zu beachten ist, dass es, unabhängig von der zur Analyse des Signals der Paare von Kameras (T1, T2, T3) angewandten Verarbeitungslogik (OR/AND), möglich ist, das Signal des Ultraschallsensors U1 in Kombination mit dem Ergebnis der Bilderanalyse gemäß verschiede-nen Logiken zu analysieren, wie nachfolgend noch deutlicher veranschaulicht wird.
[0046] Gemäß einer ersten Ausfiihrungsform ist die Verarbeitungseinheit 3 dafiir ausgelegt, die Anwesenheit eines Objekts in dem Bereich A zu erkennen, indem sie, nach einer Verarbeitungslogik vom Typ AND, das Ergebnis der Verarbeitung der Kamerapaare (T1, T2, T3) mit dem des Ultraschallsensors kombiniert.
[0047] Mit anderen Worten ist es, damit die Anwesenheit eines Objekts in dem zu iiberwachen-den Bereich A festgestellt wird, erforderlich, dass die Anwesenheit eines Objekts sowohl iiber die Kameras als auch iiber den Ultraschallsensor U1 erkannt wird.
[0048] Gemäß einer zweiten Ausführungsform (unabhängig von der zur Analyse des Signals der Kamerapaare T1, T2, T3 angewendeten Verarbeitungslogik OR Oder AND) ist die Verarbei-tungseinheit 3 dafür ausgelegt, die Anwesenheit eines Objekts in dem Bereich A zu erkennen, indem sie, nach einer Verarbeitungslogik vom Typ OR, das Ergebnis der Verarbeitung der Kamerapaare (T1, Τ2, Τ3) mit dem des Ultraschallsensors kombiniert.
[0049] Mit anderen Worten ist es, damit die Anwesenheit eines Objekts in dem zu iiberwachen-den Bereich A festgestellt wird, ausreichend, dass die Anwesenheit eines Objekts entweder über die Kameras (T1, T2, T3) Oder iiber den Ultraschallsensor U1 erkannt wird.
[0050] Es ist daher zu bemerken, dass vorteilhaft durch das Vorhandensein der Ultra-schallsensoren die Zuverlässigkeit des Systems zusätzlich erhöht wird, da die Feststellung der Bedingung der Anwesenheit eines Objekts auf Grundlage der Verarbeitung zweier unterschied-licher Sensorgattungen (optisch / Ultraschall) erfolgt. Gemäß einem weiteren Aspekt beinhaltet das System 1 außerdem mindestens eine Beleuchtungsquelle, die mit dem ersten Kamerakopf TV1 verbunden (daran befestigt) ist und dafiir ausgelegt ist, den iiberwachten Bereich zu be-leuchten.
[0051] Vorzugsweise beinhaltet die mindestens eine Beleuchtungsquelle mindestens eine LED (L1,L2, L3, L4).
[0052] Noch vorteilhafter beinhaltet der erste Kamerakopf TV1 eine Vielzahl von LEDs (L1, L2, L3, L4).
[0053] Auf diese Weise wird der zu überwachende Bereich A vorteilhaft (mit einem vorgegebe-nen Lichtmuster) beleuchtet.
[0054] Vorzugsweise ist die LED (L1, L2, L3, L4) eine Infrarot-Leuchtdiode.
[0055] Gemäß einem noch weiteren Aspekt ist die LED (L1, L2, L3, L4) eine Leuchtdiode mit hoher Leuchtkraft.
[0056] Gemäß diesem Aspekt beinhaltet das System 1 eine Ansteuereinheit der LED (L1, L2, L3, L4), die dafiir ausgelegt ist, die LED (L1, L2, L3, L4) impulsweise zu versorgen.
[0057] Vorzugsweise ist die Ansteuereinheit in den Kamerakopf TV1 integriert; und noch vorteilhafter ist die Ansteuereinheit in die Verarbeitungseinheit 3 integriert.
[0058] Gemäß einem weiteren Aspekt ist die Ansteuereinheit dafiir ausgelegt, die LED (L1, L2, L3, L4) synchron zur Aufnahme von Bildern eines Paars von Kameras (T1, T2, T3) zu aktivie-ren.
[0059] Auf diese Weise wird vorteilhaft kurzzeitig eine sehr hohe Lichtmenge ausgegeben, so dass die Beleuchtung nicht störend ist und die LED-Klasse den Vorrichtungen zugeordnet werden kann, die keine Gefährdung fiir die Augen darstellen.
[0060] Es ist daher zu bemerken, dass dieser Aspekt es ermöglicht, die Zuverlässigkeit der Erkennung insgesamt zu erhöhen.
[0061] Vorzugsweise ist, falls das System mit zwei Messköpfen, einem ersten und einem zweiten, ausgestattet ist, die Steuereinheit jedes Messkopfes dafiir ausgelegt, die von den LEDs des anderen Kamerakopfes ausgegebene Lichtstrahlung zu erfassen.
[0062] Zu beachten ist, dass die Steuereinheit jedes Messkopfes vorteilhaft dafiir ausgelegt ist, die Position der LEDs des jeweils anderen Kamerakopfes (mittels Bildanalyse) zu erfassen und zu iiberwachen: Dadurch kann das System kontinuierlich kontrollieren, ob die relative Position der Kameraköpfe zueinander korrekt ist beziehungsweise der Position entspricht, fiir die die Kalibrierung vorgenommen wurde.
[0063] Tatsächlich wiirde das System bei einem versehentlichen Verschieben Oder Verstellen eines der zwei Messköpfe (durch Stoß, unbefugten Umbau usw.), sofort eine Positionsände-rung der Beleuchtungspunkte der LEDs des anderen Kamerakopfes erfassen.
[0064] Nachfolgend werden im Detail eine bevorzugte Ausführungsform des Systems 1 und die von diesem ausgeführten Überwachungsvorgänge beschrieben.
[0065] Zu beachten ist, dass diese Beschreibung des Systems 1 und der von diesem ausge-führten Vorgänge nicht als einschränkend sondern als rein beispielhaft zu verstehen ist.
[0066] Im Folgenden werden die Llberwachungsphasen beschrieben, die von einem Paar Ka-meras (T1, T2; T2, T3; T1, T3) des ersten Kamerakopfes TV1 ausgeführt werden: In Bezug auf jedes weitere beliebige Kamerapaar gelten dieselben Betrachtungen.
[0067] Die llberwachung sieht die Aufnahme eines Paars von Bildern des Bereichs A durch zwei Kameras des ersten Kamerakopfes TV1 vor.
[0068] Diese zwei Bilder sind vorzugsweise miteinander synchronisiert, das heißt sie sind zum gleichen Zeitpunkt aufgenommen.
[0069] Anschließend wird an den zwei aufgenommenen Bildern eine Analyse zur Erkennung der Anwesenheit eines Objekts in dem Bereich A durchgeführt.
[0070] Diese Analyse sieht die Erstellung einer Entfernungskarte vor.
[0071] Die Phase der Erstellung einer Entfernungskarte beinhaltet eine Phase des Erstellens einer Karte Oder Matrix auf Grundlage eines Vergleichs zwischen zwei aufgenommenen Bildern.
[0072] Diese Karte Oder Matrix beinhaltet die Position (in der Welt) jedes Pixels (oder allgemei-ner jedes Bildabschnitts) relativ zu einem gemeinsamen Bezugssystem der Kameras (T1, T2, T3).
[0073] Die Erstellung der Karte erfolgt auf Grundlage einer Unterschiedsanalyse.
[0074] Vorzugsweise ist die Erstellung einer Karte vorgesehen, welche die Koordinaten, in der Welt (das heißt relativ zu einem gemeinsamen Bezugssystem der zwei Kameras), jedes Pixels enthält.
[0075] Vorzugsweise enthält die Karte die Koordinaten jedes Pixels in drei orthogonalen Rich-tungen: [0076] - eine Richtung X, im Wesentlichen parallel zur optischen Achse der Kameras; [0077] - eine Richtung Z, im Wesentlichen orthogonal zum Fußboden des Bereichs; [0078] - eine Richtung Y orthogonal zu den vorherigen.
[0079] Anschließend ist eine Extraktion und Klassifikation der Hindernisse vorgesehen. Daher ist die Steuereinheit 3 dafiir ausgelegt, eine Extraktion und Klassifikation der Hindernisse durchzuführen.
[0080] Genauer gesagt ist die Steuereinheit 3 dafiir ausgelegt, die Entfernungskarte zu analy-sieren, urn ein Objekt in dem zu iiberwachenden Bereich A zu erkennen.
[0081] Diese Analyse der Entfernungskarte umfasst eine Phase des Suchens, in der Entfernungskarte, nach aneinander angrenzenden Abschnitten, die im Wesentlichen denselben Ent-fernungswert entlang der von den Kameras wegfiihrenden Richtung X aufweisen, das heißt entlang der Richtung, die im Wesentlichen parallel zu der optischen Achse der Kameras (T1, T2;T2, T3;T1,T3) ist.
[0082] Weiterhin sieht die Llberwachung vor, dass eine Analyse mehrerer Bilder durchgeführt wird, die jeweils mit verschiedenen Kamerapaaren des ersten Kamerakopfes aufgenommen wurden.
[0083] Genauer gesagt ist es, da der Kamerakopf aus drei Kameras (T1, T2, T3) besteht, mög-lich, die Analyse an drei verschiedenen Paaren (T1, T2; T2, T3; T1, T3) von Kameras durchzu-führen.
[0084] Gemäß diesem Aspekt ist eine Phase des Vergleichens der Ergebnisse der fiir jedes
Kamerapaar ausgeführten Analysen vorgesehen, um die Anwesenheit eines Objekts in dem Bereich A in verschiedenen Kamerapaaren zu überprüfen.
[0085] Gemäß einer Ausführungsform des Systems 1 ist es vorgesehen, den Bereich A in eine Vielzahl von Teilbereichen (A1, A2, A3) aufzuteilen.
[0086] Jeder Teilbereich (A1, A2, A3) entspricht einem Teilabschnitt des zu überwachenden Bereichs A: Das in Fig. 1 dargestellte Beispiel zeigt drei verschiedene Teilbereiche (A1, A2, A3).
[0087] Gemäß dieser Ausfiihrungsform ist die Verarbeitungseinheit 3 dafiir ausgelegt, die Bilder der Kameras (T1, T2, T3) zu analysieren, um zu erkennen, in welchem Teilbereich (A1, A2, A3) das erkannte Objekt angeordnet ist (dieses Objekt wurde mittels der zuvor beschriebenen Kriterien erkannt).
[0088] Ferner ist in dieser Phase der Analyse die Verarbeitungseinheit 3 dafiir ausgelegt, das erfasste Objekt dem erkannten Teilbereich (A1, A2, A3) zuzuordnen.
[0089] Zu beachten ist, dass gemäß dieser Ausfiihrungsform das Befehlssignal SA (Anhalten) der Maschine M von der Verarbeitungseinheit 3 in Abhängigkeit von der relativen Position des beweglichen Elements 2 zu dem erkannten Teilbereich (A1, A2, A3) bereitgestellt wird.
[0090] Mit anderen Worten kann, gemäß diesem Anwendungsbeispiel, jeder Teilbereich sein: [0091] - „freigegeben“, falls eine Person und der Arbeitskopf gleichzeitig in diesem Teilbereich anwesend sein können, ohne dass die Haltsignalisierung ausgegeben wird; [0092] - „verboten“, falls eine Person und der Arbeitskopf nicht gleichzeitig in diesem Teilbe reich anwesend sein können (da dies einer potenziellen Gefährdungssituation entspricht) und die gleichzeitige Anwesenheit des Arbeitskopfs und einer Person im Teilbereich die Ausgabe der Alarmsignalisierung bewirkt.
[0093] Zu beachten ist, dass das System 1, insbesondere die Verarbeitungseinheit 3, so konfi-guriert werden kann, dass einige Teilbereiche permanent verboten Oder freigegeben sind, Oder dass jeder Teilbereich in Abhängigkeit von der Position des Arbeitskopfes freigegeben Oder verboten werden kann: gemäß letztgenannter Möglichkeit bewirkt die Anwesenheit des Arbeitskopfes in einem Teilbereich dessen Verbot, während seine Abwesenheit die Freigabe des Teilbereichs bewirkt.
[0094] Das nachfolgende, auf Fig. 1 bezogene Beispiel wird die obigen Ausfiihrungen verdeut-lichen.
[0095] Fig. 1 zeigt das im Teilbereich A1 angeordnete bewegliche Element 2.
Der Eintritt einer Person in diesen Teilbereich, in dem sich das bewegliche Element 2 bezie-hungsweise der Arbeitskopf befindet, bewirkt die Auslösung des Maschinenhalts.
[0096] Dieser Teilbereich A1 ist verboten, da sich dort der Arbeitskopf 2 befindet.
Dagegen bewirkt das Eintreten einer Person in den Teilbereich A3 keinen Maschinenhalt, da diese Bedingung keine potenzielle Gefährdung mit sich bringt, weil sich die Person im Teilbereich A3 in ausreichender Entfernung von dem beweglichen Element 2 befindet.
[0097] Zu beachten ist, dass der Teilbereich A3, in diesem speziellen Beispiel, freigegeben ist, da sich der Arbeitskopf 2 nicht darin befindet.
Auf diese Weise aktiviert das System 1 eine Signalisierung fiir den Maschinenhalt in Abhängig-keit von der relativen Position zwischen dem beweglichen Element 2 und dem erkannten Objekt (das heißt der Person).
[0098] Zu beachten ist, dass die Verarbeitungseinheit 3 im Allgemeinen dafiir ausgelegt ist, die Haltsignalisierung auszugeben, falls auf Grundlage der Bilderanalyse eine Bedingung der Nähe zwischen dem beweglichen Element 2 und der mittels Analyse der Bilder der Kameras erkannten Person (dem Objekt) festgestellt wird, die einer potenziellen Gefährdungssituation entspricht.
Diese Bedingung der Nähe entspricht in diesem speziellen Fall der Anwesenheit des bewegli- chen Elements 2 und der erkannten Person (des Objekts) im selben Teilbereich (A1, A2, A3) Oder in dem direkt daran angrenzenden Teilbereich (A1, A2, A3).
[0099] Vorteilhaft ist aufgrund des Vorhandenseins von zwei Oder mehr Kameraköpfen das System besonders unanfällig für Fehlalarme beziehungsweise insgesamt zuverlässiger.
Die Kameraköpfe (TV1, TV2) sind vorzugsweise derart relativ zueinander angeordnet, dass die entsprechenden Kameras Bilder aus unterschiedlichen Sichtwinkeln aufnehmen.
[00100] Zu beachten ist, dass, wie in Fig. 1 dargestellt, vorzugsweise die zwei Kameraköpfe (TV1, TV2) einander zugewandt angeordnet sind.
Vorteilhaft ermöglicht die Verwendung eines zweiten Kamerakopfes TV2 die Vermeidung po-tenzieller Schattenbereiche in dem Bereich direkt vor den Kameras des ersten Kamerakopfes TV1.

Claims (18)

  1. Ansprüche
    1. System zur Überwachung eines Bereichs (A) in der Nähe einer Bearbeitungsmaschine (M), wobei die Maschine (M) mindestens einen beweglichen Arbeitskopf (2) in dem Bereich (A) Oder in dessen Nähe aufweist, dadurch gekennzeichnet, dass es, in Kombination, Fol-gendes umfasst: - einen ersten Kamerakopf (TV1), ausgestattet mit einer ersten Kamera (T1), einer zwei-ten Kamera (T2) und einer dritten Kamera (T3), die in einem vorgegebenen Abstand zu-einander angeordnet sind um Bilder des Bereichs (A) aufzunehmen; - eine Verarbeitungseinheit (3), die mit den Kameras (T1, T2, T3) verbunden ist, um die Bilder zu empfangen, und die für Folgendes ausgelegt ist: a) Analysieren, jeweils paarweise, der Bilder der Kameras (T1, T2, T3), um die Anwe-senheit eines Objekts in dem Bereich (A) zu erkennen; b) Erfassen einer Position des Arbeitskopfes (2) in dem Bereich (A); c) Bereitstellen eines Signals (SA) zum Anhalten der Maschine (M) in Abhängigkeit von der relativen Position des Arbeitskopfes (2) zu dem im Bereich (A) erkannten Objekt.
  2. 2. System nach Anspruch 1, worin die Kameras (T1, T2, T3) des ersten Kamerakopfes (TV1) eine parallele optische Achse aufweisen.
  3. 3. System nach Anspruch 1 Oder 2, worin die Steuereinheit (3) dafiir ausgelegt ist, eine Be-dingung der Anwesenheit eines Objekts in dem Bereich (A) zu erfassen, falls die Anwe-senheit eines Objekts auf den Bildern aller Kombinationen von Paaren (T1, T2; T2, T3; T1, T3) von Kameras (T1, T2, T3) erkannt wurde.
  4. 4. System nach einem der Anspriiche 1 Oder 2, worin die Steuereinheit (3) dafür ausgelegt ist, eine Bedingung der Anwesenheit eines Objekts in dem Bereich (A) zu erfassen, falls die Anwesenheit eines Objekts auf den Bildern von mindestens einem Paar der Kombinationen von Paaren der Kameras (T1, T2, T3) erkannt wurde.
  5. 5. System nach wenigstens einem der Anspriiche 1 bis 4, umfassend mindestens einen Ultraschallsensor (U1), der mit dem Kamerakopf (TV1) verbunden und an die Verarbeitungseinheit (3) angeschlossen ist, wobei die Verarbeitungseinheit (3) dafiir ausgelegt ist, das Signal des mindestens einen Ultraschallsensors (U1) zu verarbeiten, um auf Grundla-ge dieses Signals eine Anwesenheit eines Objekts in dem Bereich (A) zu erkennen, und das Ergebnis der Verarbeitung des Signals des Ultraschallsensors (U1) mit dem Ergebnis der, jeweils paarweisen, Analyse der Bilder der Kameras (T1, T2, T3) zu vergleichen, um eine Bedingung der Anwesenheit eines Objekts in dem Bereich (A) daraus abzuleiten.
  6. 6. System nach Anspruch 5, worin die Steuereinheit (3) dafiir ausgelegt ist, eine Bedingung der Anwesenheit eines Objekts in dem Bereich (A) abzuleiten, falls eine Anwesenheit eines Objekts durch die Analyse der Bilder der Paare von Kameras (T1, T2, T3) Oder durch die Analyse des Signals des Ultraschallsensors (U1) erkannt wurde.
  7. 7. System nach Anspruch 5, worin die Steuereinheit (3) dafiir ausgelegt ist, eine Bedingung der Anwesenheit eines Objekts in dem Bereich (A) abzuleiten, falls eine Anwesenheit eines Objekts sowohl durch die Analyse der Bilder der Paare von Kameras (T1, T2, T3) als auch durch die Analyse des Signals des Ultraschallsensors (U1) erkannt wurde.
  8. 8. System nach wenigstens einem der Anspriiche 1 bis 7, außerdem mindestens eine Be-leuchtungsquelle umfassend, die mit dem ersten Kamerakopf (TV1) verbunden ist und dafiir ausgelegt ist, den iiberwachten Bereich zu beleuchten.
  9. 9. System nach Anspruch 8, worin die mindestens eine Beleuchtungsquelle eine LED (L1; L2; L3; L4) beinhaltet.
  10. 10. System nach Anspruch 9, worin die LED (L1; L2; L3; L4) eine Infrarot-Leuchtdiode ist.
  11. 11. System nach Anspruch 9 Oder 10, worin die LED (L1; L2; L3; L4) eine Leuchtdiode mit hoher Leuchtkraft ist.
  12. 12. System nach Anspruch 11, umfassend eine Ansteuereinheit der LED (L1; L2; L3; L4), die dafür ausgelegt ist, die LED (L1, L2, L3, L4) impulsweise zu versorgen.
  13. 13. System nach Anspruch 12, worin die Ansteuereinheit der LED (L1; L2; L3; L4) in den ers-ten Kamerakopf (TV1) integriert ist.
  14. 14. System nach Anspruch 12, worin die Ansteuereinheit der LED (L1; L2; L3; L4) in die Verar-beitungseinheit (3) integriert ist.
  15. 15. System nach einem der Ansprüche von 9 bis 14, worin die Ansteuereinheit dafiir ausgelegt ist, die LED (L1; L2; L3; L4) synchron zur Aufnahme von Bildern eines Paars von Kameras (T1, T2, T3) zu aktivieren.
  16. 16. System nach wenigstens einem der Ansprüche 1 bis 15, worin die Verarbeitungseinheit (3) in den ersten Kamerakopf (TV1) integriert ist.
  17. 17. System nach wenigstens einem der Anspmche 1 bis 16, worin die Verarbeitungseinheit (3) eine Kommunikationsschnittstelle zu der Maschine (M) aufweist.
  18. 18. System nach Anspruch 17, worin die Kommunikationsschnittstelle zu der Maschine (M) vom bidirektionalen Typ ist. Hierzu 1 Blatt Zeichnungen
ATGM50037/2016U 2015-03-05 2016-03-04 Monitoring System AT15136U1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITBO2015U000018U ITBO20150018U1 (it) 2015-03-05 2015-03-05 Sistema di monitoraggio.

Publications (1)

Publication Number Publication Date
AT15136U1 true AT15136U1 (de) 2017-01-15

Family

ID=55968046

Family Applications (1)

Application Number Title Priority Date Filing Date
ATGM50037/2016U AT15136U1 (de) 2015-03-05 2016-03-04 Monitoring System

Country Status (6)

Country Link
AT (1) AT15136U1 (de)
DE (1) DE202016101172U1 (de)
ES (1) ES1163783Y (de)
FR (1) FR3033419B3 (de)
IE (1) IES86722B2 (de)
IT (1) ITBO20150018U1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107263196B (zh) * 2017-07-13 2020-03-24 台山市仁丰五金电器有限公司 新型数控机床防护装置及应用该装置的数控机床

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005028490A1 (de) * 2005-06-20 2006-12-28 Sick Ag Kamerasystem
GB2447772A (en) * 2007-03-23 2008-09-24 Truetzschler Gmbh & Co Kg Apparatus for monitoring and securing danger zones on power-driven textile machines
WO2012039277A1 (ja) * 2010-09-22 2012-03-29 新日本製鐵株式会社 立ち入り制限領域侵入者検出システム、侵入者検出装置、立ち入り制限領域侵入者検出方法、及びそのプログラム
US20120081537A1 (en) * 2010-10-04 2012-04-05 General Electric Company Camera protective system and method
EP2685150A1 (de) * 2012-07-09 2014-01-15 Wide Automation S.r.l. Überwachungssystem und Verfahren
DE102013104265A1 (de) * 2013-04-26 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
US20140333771A1 (en) * 2013-05-08 2014-11-13 International Electronic Machines Corporation Operations Monitoring in an Area

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005028490A1 (de) * 2005-06-20 2006-12-28 Sick Ag Kamerasystem
GB2447772A (en) * 2007-03-23 2008-09-24 Truetzschler Gmbh & Co Kg Apparatus for monitoring and securing danger zones on power-driven textile machines
WO2012039277A1 (ja) * 2010-09-22 2012-03-29 新日本製鐵株式会社 立ち入り制限領域侵入者検出システム、侵入者検出装置、立ち入り制限領域侵入者検出方法、及びそのプログラム
US20120081537A1 (en) * 2010-10-04 2012-04-05 General Electric Company Camera protective system and method
EP2685150A1 (de) * 2012-07-09 2014-01-15 Wide Automation S.r.l. Überwachungssystem und Verfahren
DE102013104265A1 (de) * 2013-04-26 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
US20140333771A1 (en) * 2013-05-08 2014-11-13 International Electronic Machines Corporation Operations Monitoring in an Area

Also Published As

Publication number Publication date
FR3033419B3 (fr) 2017-06-09
ES1163783Y (es) 2016-11-21
ITBO20150018U1 (it) 2016-09-05
DE202016101172U1 (de) 2016-04-26
ES1163783U (es) 2016-08-30
IES86722B2 (en) 2016-11-02
FR3033419A3 (fr) 2016-09-09
IES20160070A2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
DE102013106514B3 (de) Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
EP3200122B1 (de) Optoelektronischer sensor und verfahren zur sicheren erkennung von objekten einer mindestgrösse
EP2095008B1 (de) Verfahren und vorrichtung zum überwachen eines dreidimensionalen raumbereichs
DE10224031B3 (de) Vorrichtung zur Überwachung eines Erfassungsbereiches an einem Arbeitsmittel
DE10251584B4 (de) Verfahren und Vorrichtung zur Überwachung eines Erfassungsbereiches
DE10000287B4 (de) Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE102013110615B3 (de) 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
EP1543270B2 (de) Verfahren und vorrichtung zum absichern eines gefahrenbereichs
DE102010002250A1 (de) Überwachungssystem
DE102018003762A1 (de) Überwachungsvorrichtung zum Überwachen eines durch Aufteilen eines Überwachungsbereichs festgelegten räumlichen Bereichs
DE102013114369B4 (de) Kameramodul für ein fahrzeug und damit versehenes überwachungssystem
DE102010036775A1 (de) Entfernungsmessender optoelektronischer Sensor zur Montage an einer Durchgangsöffnung
DE102016007719B4 (de) Einen Sichtsensor verwendendes Robotersystem
DE102005028490C5 (de) Kamerasystem
EP2233818A2 (de) Sicherheitssystem
DE10327388B4 (de) Schutzeinrichtung
DE102014117399B4 (de) Sensorsystem
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
EP3502614B1 (de) Optische messeinrichtung
AT15136U1 (de) Monitoring System
DE102006008805B4 (de) Optischer Sensor und Verfahren zur Überwachung einer Schutzzone mittels eines optischen Sensors
DE102010036852A1 (de) Stereokamera
DE202014105727U1 (de) Sensorsystem
DE102014211823A1 (de) Verfahren zur Personenidentifizierung
EP4131139A1 (de) Sensoranordnung und verfahren zum absichern eines überwachungsbereichs