ITBO20150018U1 - Sistema di monitoraggio. - Google Patents

Sistema di monitoraggio.

Info

Publication number
ITBO20150018U1
ITBO20150018U1 ITBO2015U000018U ITBO20150018U ITBO20150018U1 IT BO20150018 U1 ITBO20150018 U1 IT BO20150018U1 IT BO2015U000018 U ITBO2015U000018 U IT BO2015U000018U IT BO20150018 U ITBO20150018 U IT BO20150018U IT BO20150018 U1 ITBO20150018 U1 IT BO20150018U1
Authority
IT
Italy
Prior art keywords
area
cameras
images
led
head
Prior art date
Application number
ITBO2015U000018U
Other languages
English (en)
Original Assignee
Wide Automation S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wide Automation S R L filed Critical Wide Automation S R L
Priority to ITBO2015U000018U priority Critical patent/ITBO20150018U1/it
Priority to FR1651857A priority patent/FR3033419B3/fr
Priority to IES20160070A priority patent/IES86722B2/en
Priority to DE202016101172.8U priority patent/DE202016101172U1/de
Priority to ATGM50037/2016U priority patent/AT15136U1/de
Priority to ES201630283U priority patent/ES1163783Y/es
Publication of ITBO20150018U1 publication Critical patent/ITBO20150018U1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2433Detection of presence or absence
    • B23Q17/2438Detection of presence or absence of an operator or a part thereof
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B9/00Safety arrangements
    • G05B9/02Safety arrangements electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49141Detect near collision and slow, stop, inhibit movement tool

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Iron Core Of Rotating Electric Machines (AREA)

Description

DESCRIZIONE
“SISTEMA DI MONITORAGGIO”
Il presente trovato concerne un sistema di supervisione, in particolare di aree prossimali ad una macchina utensile.
Nel campo delle macchine utensili sono noti diversi sistemi per consentire il monitoraggio, ovvero la supervisione, di una area adiacente ad una macchina utensile (impegnabile da un operatore).
Tali sistemi di supervisione hanno la finalità di monitorare una prestabilita area operativa, in prossimità della macchina utensile, per individuare la presenza di una persona entro l’area operativa ed eventualmente arrestare, di conseguenza, la macchina utensile.
I suddetti sistemi di supervisione consentono, pertanto, di incrementare la sicurezza per gli operatori in quanto la macchina viene arrestata se un operatore si avvicina alla macchina stessa in condizioni di potenziale pericolo.
E’ tuttavia da lungo tempo sentita l’esigenza di disporre di un sistema di supervisione che sia particolarmente affidabile, vale a dire in cui sia ridotta la generazione di allarmi indesiderati ed in cui, d’altro canto, sia ridotto il rischio di mancata individuazione di un operatore all’interno dell’area sorvegliata.
Scopo della presente innovazione è pertanto quello di ovviare a questi inconvenienti attraverso la realizzazione di un sistema di supervisione e di un metodo di supervisione efficienti ed affidabili.
In accordo con l’innovazione, tale scopo viene raggiunto da un sistema di supervisione comprendente le caratteristiche tecniche esposte in una o più delle rivendicazioni annesse.
Le caratteristiche tecniche del trovato, secondo i suddetti scopi, sono chiaramente riscontrabili dal contenuto delle rivendicazioni sotto riportate, ed i vantaggi dello stesso risulteranno maggiormente evidenti nella descrizione dettagliata che segue, fatta con riferimento ai disegni allegati, che ne rappresentano una forma di realizzazione puramente esemplificativa e non limitativa, in cui:
- la figura 1 illustra una vista schematica di una applicazione del sistema di supervisione oggetto della presente innovazione;
- la figura 2 illustra un particolare del sistema di supervisione oggetto della presente innovazione.
Conformemente ai disegni allegati, è stato indicato con 1 un sistema di supervisione di un’area A prossima ad una macchina M di lavorazione. Con il termine macchina M di lavorazione si intende una qualsiasi macchina per eseguire lavorazioni o trattamenti su oggetti o prodotti, quali a titolo esemplificativo una macchina utensile.
Si osservi che tali macchine hanno generalmente almeno un elemento mobile 2, che solitamente porta l’utensile di lavorazione.
Tale elemento 2 mobile comprende una testa operativa 2 (nel prosieguo questi due termini verranno utilizzati indifferentemente).
Nell’esempio illustrato nella figura 1 è stato indicato con P un pezzo in lavorazione e con 2 un elemento mobile facente parte della macchina M stessa.
Si osservi che tale elemento 2 è mobile lungo una direzione X.
Il sistema 1 comprende una prima testa TV1 di visione, provvista di una prima telecamera T1, una seconda telecamera T2, ed una terza telecamera T3, fra loro disposte ad una prestabilita distanza così da acquisire immagini di detta area A.
Preferibilmente, le telecamere (T1,T2,T3) di detta prima testa TV1 di visione hanno un asse ottico parallelo.
Si osservi che tali telecamere (T1,T2,T3) sono disposte in modo che, a coppie, consentano l’acquisizione di immagini tridimensionali dell’area A. Preferibilmente, come illustrato nella figura 1, il sistema comprende anche una seconda testa TV2 di visione disposta, nell’uso, in una prestabilita posizione reciproca rispetto alla prima testa TV1 di visione per acquisire immagini di detta area A da una differente angolazione.
La seconda testa TV2 di visione ha le medesime caratteristiche tecnico funzionali della prima testa TV1 di visione, alla quale verrà quindi fatto riferimento nel seguito.
Le telecamere (T4,T5, T6) di tale seconda testa TV2 di visione sono angolarmente disposte rispetto alle telecamere (T1,T2,T3) della prima testa TV1 di visione: in altre parole tali telecamere delle due teste (TV1,TV2) di visione riprendono immagini di detta area A attraverso differenti percorsi ottici.
Preferibilmente, le telecamere (T4,T5, T6) della seconda testa TV2 di visione sono disposte di fronte (contraffacciate) alle telecamere (T1,T2) della prima testa TV1 di visione, come illustrato in figura 1.
Si osservi che la presenza di tale seconda testa di visione TV2 è opzionale ed i vantaggi di utilizzare detta seconda testa di visione TV2 verranno meglio descritti nel prosieguo.
Si osservi che tali telecamere (T1,T2,T3) della prima testa TV1 di visione sono disposte all’interno di un contenitore scatolare 5.
Preferibilmente il contenitore scatolare 5 comprende un supporto 6 configurato per l’appoggio a terra o per il collegamento ad uno o più degli elementi della macchina M.
Secondo l’innovazione, il sistema 1 comprende una unità 3 di elaborazione, collegata a dette telecamere (T1,T2,T3) per ricevere dette immagini e configurata per:
- a) analizzare, a coppie, le immagini di dette telecamere (T1,T2,T3) della prima testa TV1 di visione per individuare la presenza di un oggetto in detta area (A);
- b) acquisire una posizione di detta testa operativa 2 in detta area A;
- c) rendere disponibile un segnale SA di arresto di detta macchina M in funzione della posizione relativa di detta testa operativa 2 rispetto a detto oggetto rilevato in detta area A.
Preferibilmente, l’unità 3 di elaborazione è integrata nella prima testa TV1 di visione.
Si osservi che l’operazione b) di acquisizione della posizione di detto elemento mobile 2 in detta area A può prevedere una lettura di tale posizione direttamente dalla macchina M oppure può prevedere una analisi delle immagini acquisite dalle telecamere per derivare la posizione dell’elemento mobile 2 nell’area A.
Pertanto, la prima testa TV1 di visione può prevedere una interfaccia collegata all’unità di controllo della macchina, per acquisire la posizione dell’elemento mobile 2 nell’area A o, alternativamente, può prevedere un modulo (hardware o software) di elaborazione immagine configurato per derivare la posizione dell’elemento mobile 2 nell’area A, attraverso l’analisi di una o più coppie delle telecamere (T1,T2,T3) della prima testa TV1 di visione.
Secondo un altro aspetto, il sistema 1 comprende una centralina di interfacciamento con la macchina M connessa all’unità 3 di elaborazione ed alla macchina M, per ricevere detta segnalazione di arresto dall’unità 3 di elaborazione ed inviare un segnale di comando all’unità di controllo (ad esempio al PLC) della macchina M.
Alternativamente, l’unità 3 di elaborazione può integrare direttamente al proprio interno un modulo di comunicazione configurato per interfacciarsi con la macchina M, per inviare un segnale di comando all’unità di controllo (ad esempio al PLC) della macchina M.
In altre parole, l’unità 3 di elaborazione è dotata di una interfaccia di comunicazione (modulo di comunicazione) con detta macchina M.
Preferibilmente l’interfaccia di comunicazione è del tipo bidirezionale (per consentire l’invio di comandi alla macchina M e la ricezione di informazioni dalla macchina M, inerenti o meno detti comandi).
Secondo un altro aspetto, la prima testa TV1 di visione comprende almeno un sensore U1 ad ultrasuoni (che integra un emettitore ed un ricevitore di ultrasuoni).
Tale sensore U1 ad ultrasuoni è associato (fissato a) detta testa TV1 di visione.
Si osservi altresì che il sensore U1 ad ultrasuoni è collegato a detta unità 3 di elaborazione.
L’unità 3 di elaborazione è configurata per elaborare il segnale del sensore U1 ad ultrasuoni, per individuare la presenza di un oggetto in detta area A e per confrontare l’esito dell’elaborazione del segnale di detto sensore U1 ad ultrasuoni con l’esito dell’analisi, a coppie, delle immagini delle telecamere (T1,T2,T3).
Vantaggiosamente, tale sensore ad ultrasuoni consente quindi di incrementare l’affidabilità del sistema nel rilevamento di oggetti all’interno dell’area sorvegliata: vengono infatti a ridursi i falsi allarmi, così come i casi di intrusioni nell’area sorvegliata non rilevate.
Si osservi che, secondo una prima forma realizzativa, l’unità 3 di controllo è configurata per individuare la presenza di un oggetto in detta area A mediante l’analisi delle immagini di tutte le coppie di telecamere (T1,T2,T3) della prima testa di visione secondo una logica di elaborazione di tipo OR.
In altre parole, è sufficiente che sia rilevata la presenza di oggetto con una sola coppia di telecamere, affinché l’unità di elaborazione derivi una condizione di presenza di un oggetto nell’area A sorvegliata.
Si osservi che, secondo una seconda e differente forma realizzativa alternativa, l’unità 3 di controllo è configurata per individuare la presenza di un oggetto in detta area A mediante l’analisi delle immagini di tutte le coppie di telecamere (T1,T2,T3) della prima testa di visione secondo una logica di elaborazione del tipo AND.
In altre parole, è necessario che sia rilevata la presenza di oggetto con tutte le coppie di telecamere, affinché l’unità di elaborazione derivi una condizione di presenza di un oggetto nell’area A sorvegliata.
Si osservi che, indipendentemente dalla logica di elaborazione adottata (OR/AND) per l’analisi del segnale delle coppie di telecamere (T1,T2,T3), è possibile analizzare il segnale del sensore U1 ad ultrasuoni in combinazione con l’esito dell’analisi delle immagini secondo differenti logiche, come verrà meglio chiarito nel seguito.
In accordo con una prima forma realizzativa l’unità 3 di elaborazione è configurata per individuare la presenza di un oggetto in detta area A combinando, secondo una logica di elaborazione del tipo AND, l’esito dell’elaborazione delle coppie di telecamere (T1,T2,T3) con quello del sensore ad ultrasuoni.
In altre parole, affinché venga determinata la presenza di un oggetto nell’area A soggetta a sorveglianza, è necessario che sia individuata la presenza di un oggetto sia mediante le telecamere che mediante il sensore U1 ad ultrasuoni.
In accordo con una seconda forma realizzativa (indipendentemente dalla logica di elaborazione adottata OR o AND per l’analisi del segnale delle coppie di telecamere T1,T2,T3) l’unità 3 di elaborazione è configurata per individuare la presenza di un oggetto in detta area A combinando, secondo una logica di elaborazione del tipo OR, l’esito dell’elaborazione delle coppie di telecamere (T1,T2,T3) con quello del sensore ad ultrasuoni.
In altre parole, affinché venga determinata la presenza di un oggetto nell’area A soggetta a sorveglianza, è sufficiente che sia individuata la presenza di un oggetto mediante le telecamere (T1,T2,T3) oppure mediante il sensore U1 ad ultrasuoni.
Si osservi quindi che, vantaggiosamente, attraverso la presenza dei sensori ad ultrasuoni viene ulteriormente incrementata l’affidabilità del sistema, in quanto la condizione di presenza oggetto è basata su una elaborazione di due differenti tipologie di sensori (ottici / ultrasuoni).
Secondo un altro aspetto, il sistema 1 comprende ulteriormente almeno una sorgente di illuminazione, associata a (fissata a) detta prima testa TV1 di visione e configurata per illuminare detta area sorvegliata.
Preferibilmente detta almeno una sorgente di illuminazione comprende almeno un led (L1,L2,L3,L4).
Ancora più preferibilmente, la prima testa TV1 comprende una pluralità di led (L1,L2,L3,L4).
In questo modo, vantaggiosamente, viene illuminata (con un prestabilito pattern di luce) l’area A soggetta a sorveglianza.
Preferibilmente, detto led (L1,L2,L3,L4) è del tipo ad infrarossi.
Ancora, secondo un altro aspetto, detto led (L1,L2,L3,L4) è ad alta potenza luminosa.
Secondo questo aspetto, il sistema 1 comprende una unità di pilotaggio del led (L1,L2,L3,L4), configurata per alimentare ad impulsi detto led (L1,L2,L3,L4).
Preferibilmente, l’unità di pilotaggio è integrata nella testa TV1 di visione; ancora più preferibilmente l’unità di pilotaggio è integrata nella unità 3 di elaborazione.
Secondo un altro aspetto, detta unità di pilotaggio è configurata per attivare detto led (L1,L2,L3,L4) in modo sincrono all’acquisizione di immagini di una coppia di telecamere (T1,T2,T3).
In questo modo, vantaggiosamente, viene emessa una altissima quantità di luce per brevi istanti, cosicché l’illuminazione non crei disturbo e la classe del led possa rientrare quindi fra i dispositivi non pericolosi per la vista.
Si osservi quindi che tale aspetto consente di incrementare l’affidabilità complessiva del rilevamento.
Preferibilmente, nel caso in cui il sistema sia equipaggiato con due teste di misura, una prima ed una seconda, l’unità di controllo di ciascuna testa di misura è configurata per rilevare la radiazione luminosa emessa dai led dell’altra testa di visione.
Si osservi che, vantaggiosamente, l’unità di controllo di ciascuna testa di misura è configurata per rilevare e monitorare la posizione dei led dell’altra testa di visione (tramite l’analisi dell’immagine): ciò consente al sistema di controllare costantemente che la posizione reciproca delle teste sia corretta ovvero sia quella per cui è stata eseguita la calibrazione.
Infatti, se una delle due teste di misura fosse spostata accidentalmente (urto, manomissione ecc.), il sistema rileverebbe subito un cambio di posizione dei punti di illuminazione dei led dell’altra testa di visione.
Verrà descritta nel seguito in dettaglio una preferita forma di realizzazione del sistema 1 e delle operazioni di supervisione da esso attuato.
Si osservi che tale descrizione del sistema 1 e delle operazioni da esso attuato non è da intendersi come limitativa ma è da intendersi come puramente esemplificativa.
Verranno descritte nel seguito le fasi di supervisione attuate da una coppia di telecamere (T1,T2; T2,T3; T1,T3) della prima testa TV1 di visione: per quanto concerne un’altra qualsiasi coppia di telecamere valgono le medesime osservazioni.
La supervisione prevede di acquisire una coppia di immagini di detta area A mediante due telecamere della prima testa TV1 di visione.
Tali due immagini sono, preferibilmente, fra loro sincronizzate ovvero acquisite nel medesimo istante temporale.
Successivamente, su dette due immagini acquisite, viene eseguita una analisi per individuare la presenza di un oggetto in detta area A.
Tale analisi prevede la generazione di una mappa delle distanze.
La fase di generazione di una mappa delle distanze comprende una fase di generare una mappa ovvero matrice sulla base di un confronto fra le due immagini acquisite.
Tale mappa ovvero matrice comprende la posizione (nel mondo) di ciascun pixel (o più in generale porzione dell’immagine) rispetto ad un sistema di riferimento comune alle telecamere (T1,T2,T3).
La generazione di tale mappa avviene sulla base di una analisi di disparità.
Preferibilmente, è prevista la generazione di una mappa contenente le coordinate, nel mondo (ovvero rispetto ad un sistema di riferimento comune alle due telecamere), di ciascun pixel.
Preferibilmente la mappa contiene le coordinate di ciascun pixel in tre direzioni ortogonali:
- una direzione X sostanzialmente parallela all’asse ottico delle telecamere;
- una direzione Z sostanzialmente ortogonale al pavimento di detta area;
- una direzione Y ortogonale alle precedenti.
Successivamente è prevista una estrazione e classificazione degli ostacoli.
Pertanto, l’unità 3 di controllo è configurata per eseguire una estrazione e classificazione degli ostacoli.
Più precisamente, l’unità 3 di controllo è configurata per analizzare la mappa delle distanze per individuare un oggetto nell’area A sottoposta a supervisione.
Tale analisi della mappa delle distanze comprende una fase di ricerca, nella mappa delle distanze, di porzioni contigue aventi sostanzialmente il medesimo valore di distanza lungo la direzione X di allontanamento dalle telecamere, ovvero lungo la direzione che è sostanzialmente parallela all’asse ottico di dette telecamere (T1,T2; T2,T3; T1,T3).
Ulteriormente, la supervisione prevede che venga eseguita una analisi di più immagini, acquisite rispettivamente con differenti coppie di telecamere della prima testa di visione.
Più precisamente, essendo la testa di visione composta da tre telecamere (T1,T2,T3), è possibile eseguire l’analisi su tre differenti coppie (T1,T2; T2,T3; T1,T3) di telecamere.
Secondo questo aspetto, è prevista una fase di confronto dei risultati delle analisi eseguite su ciascuna coppia di telecamere per verificare la presenza di un oggetto in detta area A in coppie di telecamere differenti. Secondo una forma di attuazione del sistema 1, è previsto di suddividere detta area A in una pluralità di regioni (A1,A2,A3).
Ciascuna regione (A1,A2,A3) corrisponde ad una porzione dell’area A sottoposta a supervisione: nell’esempio illustrato in figura 1 sono illustrate ben tre differenti regioni (A1,A2,A3).
Secondo questa forma di attuazione, l’unità 3 di elaborazione è configurata per analizzare le immagini di dette telecamere (T1,T2) per individuare in quale regione (A1,A2,A3) risulta disposto l’oggetto individuato (tale oggetto è individuato mediante i criteri descritti in precedenza).
Inoltre, in tale fase di analisi, l’unità 3 di elaborazione è configurata per associare detto oggetto rilevato a detta regione (A1,A2,A3) individuata. Si osservi che, secondo questa forma di attuazione, il segnale di comando SA (arresto) della macchina M è reso disponibile dall’unità 3 di elaborazione in funzione della posizione relativa di detto elemento mobile 2 rispetto alla regione (A1,A2,A3) individuata.
In altre parole, secondo tale esempio applicativo, ciascuna regione può essere:
- “abilitata” se una persona e la testa operativa possono essere presenti contemporaneamente in tale regione senza che venga rilasciata la segnalazione di arreso;
- “interdetta” se una persona e la testa operativa non possono essere presenti contemporaneamente in tale regione (ciò corrisponde ad una situazione di potenziale pericolo) e la presenza contemporanea della testa e di una persona nella regione determina il rilascio della segnalazione di allarme.
Si osservi che il sistema 1, in particolare l’unità 3 di elaborazione, può essere configurato in modo che alcune regioni possano risultare permanentemente interdette o abilitate oppure ciascuna regione può essere abilitata o interdetta in funzione della posizione della testa operativa: secondo questa ultima possibilità la presenza della testa operativa in una regione determina l’interdizione della stessa mentre la sua assenza determina l’abilitazione della stessa.
L’esempio che segue, relativo alla figura 1, chiarirà quanto espresso in precedenza.
La figura 1 illustra l’elemento mobile 2 posizionato nella regione A1.
L’ingresso di una persona in tale regione, in cui è disposto l’elemento mobile 2 ovvero testa operativa, determina l’attivazione dell’arresto della macchina.
Tale regione A1 è infatti interdetta, in quanto la testa operativa 2 è ivi presente.
Invece, l’ingresso di una persona nella regione A3, non determina l’arresto della macchina in quanto tale condizione non è fonte di potenziali pericoli, essendo la persona nella regione A3 piuttosto distante dall’elemento mobile 2.
Si osservi che la regione A3, nell’esempio specifico, è abilitata in quanto la testa operativa 2 non è ivi presente.
In questo modo il sistema 1 rende attiva una segnalazione di arresto della macchina in funzione della posizione relativa dell’elemento mobile 2 e dell’oggetto (ovvero persona) rilevata.
Si osservi che, generalmente, l’unità 3 di elaborazione è configurata per emettere la segnalazione di arresto se, sulla base dell’analisi delle immagini, viene riscontrata una condizione di vicinanza dell’ elemento mobile 2 e della persona (oggetto) rilevata mediante l’analisi delle immagini delle telecamere, che corrisponde ad una situazione di potenziale pericolo.
Tale condizione di vicinanza, nel caso specifico, corrisponde alla presenza dell’elemento mobile 2 e della persona (oggetto) rilevata nella medesima regione (A1,A2,A3), o nella regione immediatamente adiacente (A1,A2,A3).
Vantaggiosamente, la presenza di due o più teste di visione rende il sistema particolarmente immune ai falsi allarmi ovvero più affidabile.
Tali teste (TV1,TV2) di visione sono, preferibilmente, disposte l’una rispetto all’altra in modo che le rispettive telecamere riprendano immagini da differenti angolazioni.
Si osservi che, come illustrato in figura 1, preferibilmente le due teste (TV1,TV2) di visione sono disposte fra loro affacciate.
Vantaggiosamente, l’utilizzo di una seconda testa TV2 di visione consente di evitare potenziali zone d’ombra nella zona immediatamente davanti alle telecamere della prima testa TV1 di visione.
Il trovato così concepito è suscettibile di evidente applicazione industriale; può essere altresì oggetto di numerose modifiche e varianti tutte rientranti nell'ambito del concetto inventivo; tutti i dettagli possono essere sostituiti, inoltre, da elementi tecnicamente equivalenti.

Claims (18)

  1. RIVENDICAZIONI 1. Sistema di supervisione di un’area (A) prossima ad una macchina (M) di lavorazione, con detta macchina (M) avente almeno una testa operativa mobile (2) in detta area (A) o in prossimità della stessa, caratterizzato dal fatto di comprendere, in combinazione: - una prima testa (TV1) di visione, provvista di una prima telecamera (T1), una seconda telecamera (T2), ed una terza telecamera (T3), fra loro disposte ad una prestabilita distanza così da acquisire immagini di detta area (A); - una unità (3) di elaborazione, collegata a dette telecamere (T1,T2,T3) per ricevere dette immagini e configurata per: - a) analizzare, a coppie, le immagini di dette telecamere (T1,T2,T3) per rilevare la presenza di un oggetto in detta area (A); - b) acquisire una posizione di detta testa operativa (2) in detta area (A); - c) rendere disponibile un segnale (SA) di arresto di detta macchina (M) in funzione della posizione relativa di detta testa operativa (2) rispetto a detto oggetto rilevato in detta area (A).
  2. 2. Sistema secondo la rivendicazione 1, in cui le telecamere (T1,T2,T3) di detta prima testa (TV1) di visione hanno un asse ottico parallelo.
  3. 3. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui l’unità (3) di controllo è configurata per rilevare una condizione di presenza di un oggetto in detta area (A) se è individuata la presenza di oggetto sulle immagini di tutte le combinazioni di coppie (T1,T2; T2,T3; T1,T3) di telecamere (T1,T2,T3).
  4. 4. Sistema secondo una qualsiasi delle precedenti rivendicazioni da 1 a 2, in cui l’unità (3) di controllo è configurata per rilevare una condizione di presenza di un oggetto in detta area (A) se è individuata la presenza di un oggetto sulle immagini di almeno una coppia delle combinazioni di coppie di telecamere (T1,T2,T3).
  5. 5. Sistema secondo una qualsiasi delle precedenti rivendicazioni, comprendente almeno un sensore (U1) ad ultrasuoni, associato a detta testa (TV1) di visione, e collegato a detta unità (3) di elaborazione, detta unità (3) di elaborazione essendo configurata per elaborare il segnale di detto almeno un sensore (U1) ad ultrasuoni, per rilevare una presenza di un oggetto in detta area (A) sulla base di detto segnale e per confrontare l’esito dell’elaborazione del segnale di detto sensore (U1) ad ultrasuoni con l’esito dell’analisi, a coppie, delle immagini delle telecamere (T1,T2,T3) per derivare una condizione di presenza di un oggetto in detta area (A).
  6. 6. Sistema secondo la rivendicazione precedente, in cui l’unità (3) di controllo è configurata per derivare una condizione di presenza di un oggetto in detta area (A) se è rilevata una presenza di un oggetto mediante l’analisi delle immagini delle coppie di telecamere (T1,T2,T3) o mediante l’analisi del segnale del sensore (U1) ad ultrasuoni.
  7. 7. Sistema secondo la rivendicazione 5, in cui l’unità (3) di controllo è configurata per derivare una condizione di presenza di un oggetto in detta area (A) se è rilevata una presenza di un oggetto sia mediante l’analisi delle immagini delle coppie di telecamere (T1,T2,T3) che mediante l’analisi del segnale del sensore (U1) ad ultrasuoni.
  8. 8. Sistema secondo una qualsiasi delle precedenti rivendicazioni, comprendente ulteriormente almeno una sorgente di illuminazione, associata a detta prima testa (TV1) di visione e configurata per illuminare detta area sorvegliata.
  9. 9. Sistema secondo la precedente rivendicazione, in cui detta almeno una sorgente di illuminazione comprende un led (L1; L2; L3; L4).
  10. 10. Sistema secondo la precedente rivendicazione, in cui detto led (L1; L2; L3; L4) è del tipo ad infrarossi.
  11. 11. Sistema secondo una qualsiasi delle rivendicazioni 9 o 10, in cui detto led (L1; L2; L3; L4) è ad alta potenza luminosa.
  12. 12. Sistema secondo la rivendicazione 11, comprendente una unità di pilotaggio del led (L1; L2; L3; L4), configurata per alimentare ad impulsi detto led (L1; L2; L3; L4).
  13. 13. Sistema secondo la rivendicazione 12, in cui detta unità di pilotaggio del led (L1; L2; L3; L4) è integrata nella prima testa (TV1) di visione.
  14. 14. Sistema secondo la rivendicazione 12, in cui detta unità di pilotaggio del led (L1; L2; L3; L4) è integrata nella unità (3) di elaborazione.
  15. 15. Sistema secondo una qualsiasi delle rivendicazioni da 9 a 14, in cui detta unità di pilotaggio è configurata per attivare detto led (L1; L2; L3; L4) in modo sincrono all’acquisizione di immagini di una coppia di telecamere (T1,T2,T3).
  16. 16. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui l’unità (3) di elaborazione è integrata nella prima testa (TV1) di visione.
  17. 17. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui l’unità (3) di elaborazione è dotata di una interfaccia di comunicazione con detta macchina (M).
  18. 18. Sistema secondo la rivendicazione precedente, in cui l’interfaccia di comunicazione con detta macchina (M) è del tipo bidirezionale.
ITBO2015U000018U 2015-03-05 2015-03-05 Sistema di monitoraggio. ITBO20150018U1 (it)

Priority Applications (6)

Application Number Priority Date Filing Date Title
ITBO2015U000018U ITBO20150018U1 (it) 2015-03-05 2015-03-05 Sistema di monitoraggio.
FR1651857A FR3033419B3 (fr) 2015-03-05 2016-03-04 Systeme de surveillance
IES20160070A IES86722B2 (en) 2015-03-05 2016-03-04 Monitoring system
DE202016101172.8U DE202016101172U1 (de) 2015-03-05 2016-03-04 Überwachungssystem
ATGM50037/2016U AT15136U1 (de) 2015-03-05 2016-03-04 Monitoring System
ES201630283U ES1163783Y (es) 2015-03-05 2016-03-04 Sistema de supervision de un area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITBO2015U000018U ITBO20150018U1 (it) 2015-03-05 2015-03-05 Sistema di monitoraggio.

Publications (1)

Publication Number Publication Date
ITBO20150018U1 true ITBO20150018U1 (it) 2016-09-05

Family

ID=55968046

Family Applications (1)

Application Number Title Priority Date Filing Date
ITBO2015U000018U ITBO20150018U1 (it) 2015-03-05 2015-03-05 Sistema di monitoraggio.

Country Status (6)

Country Link
AT (1) AT15136U1 (it)
DE (1) DE202016101172U1 (it)
ES (1) ES1163783Y (it)
FR (1) FR3033419B3 (it)
IE (1) IES86722B2 (it)
IT (1) ITBO20150018U1 (it)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107263196B (zh) * 2017-07-13 2020-03-24 台山市仁丰五金电器有限公司 新型数控机床防护装置及应用该装置的数控机床

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005028490C5 (de) * 2005-06-20 2016-07-14 Sick Ag Kamerasystem
DE102007014612A1 (de) * 2007-03-23 2008-09-25 TRüTZSCHLER GMBH & CO. KG Vorrichtung zur Überwachung und Sicherung von Gefahrenbereichen an kraftgetriebenen Textilmaschinen, insbesondere Spinnereivorbereitungsmaschinen
WO2012039277A1 (ja) * 2010-09-22 2012-03-29 新日本製鐵株式会社 立ち入り制限領域侵入者検出システム、侵入者検出装置、立ち入り制限領域侵入者検出方法、及びそのプログラム
US20120081537A1 (en) * 2010-10-04 2012-04-05 General Electric Company Camera protective system and method
ITRN20120036A1 (it) * 2012-07-09 2014-01-10 Wide Automation S R L Sistema e procedimento di supervisione
DE102013104265A1 (de) * 2013-04-26 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
US10597053B2 (en) * 2013-05-08 2020-03-24 International Electronic Machines Corp. Operations monitoring in an area

Also Published As

Publication number Publication date
IES86722B2 (en) 2016-11-02
FR3033419A3 (fr) 2016-09-09
DE202016101172U1 (de) 2016-04-26
FR3033419B3 (fr) 2017-06-09
IES20160070A2 (en) 2016-09-07
ES1163783U (es) 2016-08-30
ES1163783Y (es) 2016-11-21
AT15136U1 (de) 2017-01-15

Similar Documents

Publication Publication Date Title
US9503184B2 (en) Method for aligning a sensor device
US6737970B2 (en) Opto-electronic apparatus for monitoring and detection of intrusion of an object
CN106054276B (zh) 监视保护区域的飞行时间安全光电屏障和方法
CN105473927B (zh) 用于保障自动化工作的机器的设备和方法
US8139204B2 (en) Distance-measuring optoelectronic sensor
US8107058B2 (en) Sensor device and system having a conveyor and a sensor device
US10245728B2 (en) Monitoring system
US8872113B2 (en) System to test performance of pixels in a sensor array
US20170113813A1 (en) Indicating device for indicating an activation status of an escape slide in an aircraft
US9292924B2 (en) Method and device for monitoring a spatial region
WO2008091528A2 (en) Motion sensor with led alignment aid
US9782897B2 (en) Robot system using a vision sensor
JP2008096414A (ja) 移動目標の高速結像検査設備及び方法
CA2859116C (en) Light-based position control of a manual picking process
ES2611002T3 (es) Dispositivo de conformación y procedimiento para la operación de un dispositivo de conformación
CN107662871A (zh) 用于乘客运输装置的移动扶手监测***、乘客运输装置及其监测方法
US20170050744A1 (en) Indication device as well as door arrangement and aircraft with such an indication device
CN106501811A (zh) 一种集卡防吊起的装置
WO2020086698A1 (en) Methods and systems used to measure tire treads
ES2547691T5 (es) Sistema y procedimiento de monitorización
WO2019167012A1 (en) System for measuring gap and flush
ITBO20150018U1 (it) Sistema di monitoraggio.
ES2678844T3 (es) Dispositivo de protección optoelectrónico
US11496215B2 (en) VLC in factories
US9083946B2 (en) System to detect failed pixels in a sensor array