DE602004009077T2 - Einrichtung zur messung dreidimensionaler formen - Google Patents

Einrichtung zur messung dreidimensionaler formen Download PDF

Info

Publication number
DE602004009077T2
DE602004009077T2 DE602004009077T DE602004009077T DE602004009077T2 DE 602004009077 T2 DE602004009077 T2 DE 602004009077T2 DE 602004009077 T DE602004009077 T DE 602004009077T DE 602004009077 T DE602004009077 T DE 602004009077T DE 602004009077 T2 DE602004009077 T2 DE 602004009077T2
Authority
DE
Germany
Prior art keywords
information
image
pattern
change
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004009077T
Other languages
English (en)
Other versions
DE602004009077D1 (de
Inventor
Isao Yokohama-shi SATO
H. Aoki
M. Yokohama-shi NAKAJIMA
K. Mimura
Yasuhiro Takemura
Kei Katou
Toshiharu Takesue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Publication of DE602004009077D1 publication Critical patent/DE602004009077D1/de
Application granted granted Critical
Publication of DE602004009077T2 publication Critical patent/DE602004009077T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine 3-D-Gestalt-Vermessungsvorrichtung. Im Speziellen betrifft die vorliegende Erfindung eine 3-D-Gestalt-Vermessungsvorrichtung, die leicht und genau den Zustand eines Objekts erfassen kann.
  • Stand der Technik
  • Bewegungserfassungssensoren wurden bisher als Bewegungserfassungssensoren zum Erfassen der Bewegung eines Objekts, wie beispielsweise einer Person, in einem Raum, wie beispielsweise einem Bad, vorgeschlagen. Ein typisches Beispiel ist eine Aufzeichnungsvorrichtung zum Aufzeichnen des Atems einer schlafenden Person auf einem Bett mittels des Projizierens eines Musters auf die schlafende Person auf dem Bett, wobei fortlaufend ein Bild des projizierten Musters aufgenommen wird und die Verschiebungsgröße des Musters von dem Bild fortlaufend genommen wird (siehe EP-A-1 350 466 ).
  • Die JP-A-2002 122 416 beschreibt eine Vermessungseinrichtung einer dreidimensionalen Gestalt, die eine hohe Minimalauflösung und einen großen messbaren Maximalwert hat. Die Einrichtung ist zum Ermitteln mehrerer Bilder eines Ausleuchtungsmusters der äußeren Gestalt eines Objekts ausgerüstet.
  • Offenbarung der Erfindung
  • Gemäß den oben beschriebenen konventionellen Einrichtungen ist es jedoch schwierig, gleichzeitig die Zustände von verschiedenen Teilen des Objektes aufzunehmen, beispielsweise die Gestalt und den Zustand der Bewegung (was kleine Bewegungen wie das Atmen des Objektes beinhaltet). Darüber hinaus gibt es Fälle, in denen Fehler, wenn auch kleine, abhängig von den Teilen (Thorax, Abdomen, etc.) des Objekts (im Fall das das Objekt beispielsweise eine Person ist) auftreten.
  • Daher ist es ein Ziel der vorliegenden Erfindung eine 3D-Gestalt-Vermessungsvorrichtung bereitzustellen, die es ermöglich, den Zustand eines Objekts leicht und genau zu erfassen.
  • Eine 3D-Gestalt-Vermessungsvorrichtung, umfassend: Einen ersten dreidimensionalen Sensor, der eine Projektionseinrichtung zum Projizieren eines Lichtmusters auf eine Zielfläche und der eine Bildeinfangvorrichtung hat, die in einem ersten Abstand von der Projektionseinrichtung platziert ist, so dass sie ein Bild der Zielfläche einfängt, auf die das Lichtmuster projiziert wird; einen zweiten dreidimensionalen Sensor, der eine Projektionseinrichtung zum Projizieren eines Lichtmusters auf eine Zielfläche und der eine zweite Bildeinfangvorrichtung hat, die in einem zweiten Abstand, der größer als der erste Abstand ist, von der Projektionseinrichtung platziert ist, so dass sie ein Bild der Zielfläche einfängt, die auf das Lichtmuster projiziert wird; dreidimensionale Informations-Rechenmittel zum Erhalten von Informationen über die äußere Gestalt eines Objekts, welches im Zielbereich vorhanden ist, basierend auf einer ersten Veränderung an einem Bild, welches mit dem ersten dreidimensionalen Sensor erhalten wird, indem die erste Veränderung des Musters eine Veränderung von einem Basisbild ist, welches zu einem Zeitpunkt eingefangen wird, an dem das Objekt nicht in dem Zielbereich vorhanden ist, zu einem eingefangenen Bild, welches zu einem beliebigen Zeitpunkt eingefangen wird, an dem das Objekt in dem Zielbereich vorhanden ist; Veränderungsinformations-Rechenmittel zum Erhalten von Veränderungsinformationen des Objekts mit den Informationen über die äußere Gestalt, basierend auf einer zweiten Veränderung des Musters an dem Bild, welche mit dem zweiten dreidimensionalen Sensor erhalten wird, indem die zweite Veränderung des Musters eine Veränderung von einem Referenzbild ist, welches zu einem ersten beliebigen Zeitpunkt eingefangen wird, an dem das Objekt in dem Zielbereich vorhanden ist, zu einem eingefangenen Bild, welches zu einem beliebigen zweiten Zeitpunkt nach dem ersten beliebigen Zeitpunkt genügend Zeitabstand zum Erfassen einer Bewegung des Objekts eingefangen wird und zu dem das Objekt in dem Zielbereich vorhanden ist; und Informationszusammenstellmittel zum Zusammenstellen der Informationen über die äußere Gestalt und der Veränderungsinformationen.
  • In einem solchen Aufbau sind vorgesehen: Der erste 3-D-Sensor 10a, der die Projektionseinrichtung 11 zum Projizieren des Lichtmusters auf den Zielbereich hat, und die Bildeinfangvorrichtung 12a, die in einem ersten Abstand d1 von der Projektionseinrichtung 11 angeordnet ist, um ein Bild des Zielbereiches, auf den das Lichtmuster projiziert wird, einzufangen; und der zweite 3-D-Sensor 10b, der die Projektionseinrichtung 11 zum Projizieren des Lichtmusters auf den Zielbereich hat, und eine Bildeinfangvorrichtung 12b, die in einem zweiten Abstand d2, der größer als der Abstand d1 ist, von der Projektionseinrichtung 11 angeordnet ist, um ein Bild des Zielbereichs einzufangen, auf dem das Lichtmuster projiziert wird. Es ist daher beispielsweise möglich, die Verschiebung des Musters auf dem Bild mit jedem der 3-D-Sensoren herauszufinden. Es ist ebenso möglich, mit dem 3-D-Informations-Rechenmittel 22 Informationen über die äußere Gestalt des Objekts 2 zu erhalten, basierend auf der Verschiebung des Musters an dem Bild, welches mit dem ersten 3-D-Sensor 10a ermittelt wurde, und die Veränderungsinformation an dem Objekt 2 mit den Veränderungsinformations-Rechenmitteln 23 zu erhalten, basierend auf der Verschiebung des Musters an dem Bild, welches mit dem zweiten 3-D-Sensor 10b ermittelt wurde. Durch Zusammenstellen der Informationen über die äußere Gestalt und der Veränderungsinformationen durch Verwendung der Informationszusammenstellmittel 24 ist es ferner möglich, eine dreidimensionale-Gestalt-Vermessungsvorrichtung bereitzustellen, die fähig ist, den Zustand des Objekts leicht und genau zu erfassen.
  • In dem typischen Aufbau wird die Projektionseinrichtung 11 gemeinsam sowohl im ersten 3-D-Sensor 10a als auch im zweiten 3-D-Sensor 10b verwendet und die erste Bildeinfangvorrichtung 12a und die zweite Bildeinfangvorrichtung 12b, die von der ersten Bildeinfangvorrichtung 12a getrennt ist, sind vorgesehen. Alternativ können jedoch die erste Bildeinfangvorrichtung 12a und die zweite Bildeinfangvorrichtung 12b zusammen und die erste Projektionseinrichtung und die zweite Projektionseinrichtung, die getrennt von der ersten ist, vorgesehen sein.
  • In einer 3D-Gestalt-Vermessungsvorrichtung 1 ist es gemäß einem anderen Aspekt der Erfindung bevorzugt, dass die Informationszusammenstellmittel 24 die Veränderungsinformationen gemäß den Informationen über die äußere Gestalt korrigieren. Mit dem Aufbau können durch die Verwendung einer solchen Verbesserung genauere Veränderungsinformationen erhalten werden.
  • In einer 3D-Gestalt-Vermessungsvorrichtung gemäß einem weiteren anderen Aspekt der Erfindung ist diese bevorzugt dadurch gekennzeichnet, dass die Informationszusammenstellmittel 24 die Zusammenstellung zum Herausfinden der Bewegung jedes Punktes des Objekts 2 durchführen.
  • Die 3D-Gestalt-Vermessungsvorrichtung gemäß einem weiteren anderen Aspekt der Erfindung beinhaltet Informationsausgabemittel 40 zum Anzeigen der zusammengestellten Ergebnisse der Informationszusammenstellmittel 24.
  • Mit einem solchen Aufbau ist es möglich, beispielsweise die Bewegung jedes Punktes an dem Objekt 2 durch Anzeigen der zusammengestellten Ergebnisse der Informationszusammenstellmittel 24 durch Verwendung der Informationsausgabemittel 40 leicht zu begreifen.
  • Die 3D-Gestalt-Vermessungsvorrichtung 1 gemäß einem weiteren Aspekt der Erfindung ist vorzugsweise dadurch gekennzeichnet, dass das Lichtmuster, das von der Projektionseinrichtung 11 projiziert wird, eine Anordnung von hellen Punkten ist.
  • Die 3D-Gestalt-Vermessungsvorrichtung 1 gemäß einem weiteren Aspekt der Erfindung ist vorzugsweise dadurch gekennzeichnet, dass das 3D-Informations-Rechenmittel 22 für die Punkte eine Interpolation durchführt, an denen die Information über die äußere Gestalt fehlt.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine äußere schematische Sicht, die grob eine Überwachungsvorrichtung einer erfindungsgemäßen Ausführungsform zeigt.
  • 2 ist eine schematische perspektivische Sicht, die eine Projektionseinrichtung einer erfindungsgemäßen Ausführungsform darstellt.
  • 3 ist ein Blockdiagramm, das einen exemplarischen Aufbau einer Beobachtungsvorrichtung einer erfindungsgemäßen Ausführungsform zeigt.
  • 4 ist eine konzeptionelle perspektivische Sicht zum Erklären des Konzepts der Verschiebung der hellen Punkte in einer erfindungsgemäßen Ausführungsform.
  • 5 ist eine schematische Sicht, um die hellen Punkte zu erklären, die auf eine Bildebene im Fall der 4 abgebildet werden.
  • 6 ist eine Strichzeichnung, um die Umwandlung von Koordinaten zu erklären, wenn die hellen Punkte zwischen der ersten und der zweiten Bildeinfangvorrichtung in einer erfindungsgemäßen Ausführungsform korrelieren.
  • 7 ist eine Strichzeichnung zum Erklären der verwendeten Ähnlichkeit im Fall von 6.
  • 8 ist eine Strichzeichnung zum Erklären der Berechnung der Höhe des Objekts in einer erfindungsgemäßen Ausführungsform.
  • 9 ist eine schematische Sicht zum Erklären der 3-D-Gestalt, die mit einem 3-D-Gestalt-Erzeugungsbereich einer erfindungsgemäßen Ausführungsform erzeugt wird.
  • 10 ist eine schematische Sicht, die beispielhaft Ergebnisse zeigt, die mittels Zusammenstellen der 3-D-Gestalt mit den Veränderungsinformationen im Fall der 9 erhalten werden.
  • 10(a) ist eine schematische Sicht, wenn der Bauch eine Bewegung nach oben macht, und
  • 10(b) ist eine schematische Sicht, wenn die Brust eine Bewegung nach unten macht.
  • 11 ist eine Streichzeichnung, die ein Wellenformmuster des Atmens zeigt, welches in einer Ausführungsform der Erfindung verwendet wird.
  • 12 ist eine schematische äußere Sicht einer Berechnungsvorrichtung, im Fall, dass eine Vielzahl von hellen Linien verwendet werden, um ein Lichtmuster zu erstellen, welches von einer Projektionseinrichtung einer erfindungsgemäßen Ausführungsform projiziert wird.
  • 13 ist eine schematische Sicht zum Erklären von hellen Linien, die auf eine Bildebene im Falle von 12 abgebildet werden.
  • 14 ist eine schematische äußere Sicht einer Berechnungsvorrichtung, die mit einer Bildeinfangvorrichtung zum gemeinsamen Gebrauch als sowohl der ersten als auch der zweiten Bildeinfangvorrichtung versehen ist, und mit zwei Projektionseinrichtungen, in einer Ausführungsform der Erfindung.
  • Beschreibung bevorzugter Ausführungsformen
  • Nachfolgend wird eine Beschreibung einer Ausführungsform der vorliegenden Erfindung mit Bezugnahme auf die Zeichnungen gemacht. Denselben oder entsprechenden Komponenten sind in den Zeichnungen dieselben Bezugszeichen und Symbole gegeben worden und redundante Beschreibung wird nicht wiederholt.
  • 1 ist eine schematische äußere Ansicht einer Überwachungsvorrichtung 1 oder einer 3D-Gestalt- Vermessungsvorrichtung als eine erste Ausführungsform der vorliegenden Erfindung. Die Überwachungsvorrichtung 1 ist so aufgebaut, dass sie einen Zielbereich überwacht. Die Überwachungsvorrichtung 1 beinhaltet einen ersten FG-Sensor 10a als einen ersten 3-D-Sensor, der eine Projektionseinrichtung 11 zum Projizieren eines Lichtmusters auf einen Zielbereich hat, und eine erste Bildeinfangvorrichtung 12a, die in einem ersten Abstand der Projektionseinrichtung 11 angeordnet ist zum Einfangen eines Bildes des Zielbereichs, auf den das Lichtmuster projiziert wird. Die Übrwachungsvorrichtung 1 beinhaltet auch einen zweiten FG-Sensor 10a als einen zweiten 3-D-Sensor, die eine Projektionseinrichtung 11 zum Projizieren eines Lichtmusters auf einen Zielbereich hat, und eine zweite Bildeinfangvorrichtung 12b, die in einem größeren Abstand als der erste Abstand von der Projektionseinrichtung 11 zum Einfangen eines Bildes des Zielbereichs, auf den das Lichtmuster projiziert wird, angeordnet ist. Die Überwachungsvorrichtung 1 beinhaltet ferner eine Recheneinrichtung 20 zum Steuern des ersten FG-Sensors 10a und des zweiten FG-Sensors 10b. D.h., die Überwachungsvorrichtung 1 ist durch Beinhalten des ersten FG-Sensors 10a, des zweiten FG-Sensors 10b, und der Recheneinrichtung 20 aufgebaut. In der folgenden Beschreibung wird im Falle, dass keine Unterscheidung zwischen dem ersten FG-Sensor 10a und dem zweiten FG-Sensor 10b und zwischen der ersten Bildfangeinrichtung 12a und der zweiten Bildfangeinrichtung 12b gemacht wird, werden diese jeweils einfach als FG-Sensor 10 und als Bildeinfangvorrichtung 12 benannt. Darüber hinaus werden im ersten FG-Sensor 10a und im zweiten FG-Sensor 10b eine gemeinsame Projektionseinrichtung verwendet.
  • Der FG-Sensor 10 hat ferner eine Vermessungseinrichtung 14 zum Vermessen der Verschiebung des Musters auf dem Bild, welches mit der Bildeinfangvorrichtung 12 eingefangen wird. In dieser Ausführungsform wird im ersten FG-Sensor 10a und im zweiten FG-Sensor 10b eine gemeinsame Vermessungseinrichtung 14 verwendet. In anderen Worten misst die Vermessungseinrichtung 14 die Veränderung des Musters an dem Bild, welches jeweils mit der ersten Bildeinfangvorrichtung 12a und der zweiten Bildeinfangvorrichtung 12b eingefangen wird. Die Projektionseinrichtung 11 und die Bildeinfangvorrichtung 12 sind mit der Vermessungseinrichtung 14 elektrisch verbunden und werden zusammen mit ihr gesteuert. In dieser Ausführungsform ist die Vermessungseinrichtung 14 integral mit der Recheneinrichtung 20 aufgebaut.
  • Das Objekt ist im Zielbereich vorhanden. In dieser Ausführungsform ist der Zielbereich die Oberfläche eines Bettes 3. Das Objekt ist typischerweise eines, das atmet. D.h., das Objekt ist eine Person oder ein Lebewesen. Genauer gesagt ist in dieser Ausführungsform das Objekt eine Person 2.
  • Die Figur zeigt die Person 2 auf dem Bett 3 liegend. In anderen Worten wird das Lichtmuster auf die Person 2 projiziert. Wenn keine Person 2 auf dem Bett 3 vorhanden ist, wird das Lichtmuster direkt auf das Bett 3 projiziert. Zum Beispiel könnte auch Bettwäsche über die Person 2 geworfen sein. In diesem Fall wird das Lichtmuster auf die Bettwäsche projiziert.
  • Das Lichtmuster, das die Projektionseinrichtung 11 projiziert, ist typischerweise eine Anordnung von hellen Punkten. In anderen Worten ist das Lichtmuster, das projiziert wird, eine Mehrzahl von hellen Punkten. Hier ist das Lichtmuster ein Muster 11a, welches aus einer Mehrzahl von hellen Punkten 11b besteht, die in etwa in einer viereckigen Gittergestalt angeordnet sind, wie später in 2 beschrieben wird. Wie in der Zeichnung gezeigt, projiziert die Projektionseinrichtung 11 das Muster 11a auf das Bett 3. Die Vielzahl der hellen Punkte, die auf das Bett 3 projiziert werden, entsprechen jeweils einer Vielzahl von Messpunkten auf dem Bett 3. D.h., die Position jedes hellen Punktes ist die Position jedes Messpunktes. Ein Vermessungspunkt ist definiert als ein Punkt, der es erlaubt, die Bewegung und die Höhe der Person 2 in der Richtung der Höhe zu vermessen, wie später beschrieben wird. Hier ist die Höhe die Höhe der Oberfläche des Betts 3. Details des oberen Aufbaues werden nachfolgend erläutert.
  • Zuerst wird das Aufstellen des FG-Sensors 10 beschrieben. Die Projektionseinrichtung 11 und die Bildeinfangvorrichtung 12 sind über dem Bett 3 angeordnet. Wie gezeigt, sind die Projektionseinrichtung 11 und die erste Bildeinfangvorrichtung 12a annähernd über dem Zentrum des Betts 3 angeordnet. Die zweite Bildeinfangvorrichtung 12b ist in etwa über dem Kopf der Person 2 angeordnet. Die erste Bildeinfangvorrichtung 12a ist in einem ersten Abstand d1 von der Projektionseinrichtung 11 angeordnet, und die zweite Bildeinfangvorrichtung 12b in einem zweiten Abstand d2. Hier sind die Projektionseinrichtung 11, die erste Bildeinfangvorrichtung 12a und die zweite Bildeinfangvorrichtung 12b in einer geraden Linie platziert. D.h., die Basislinienrichtung des ersten FG-Sensors 10a und die Basislinienrichtung des zweiten FG-Sensors 10b sind parallel zueinander und darüber hinaus auf derselben Linie. Im Übrigen ist der zweite Abstand d2 beispielsweise ungefähr 2 bis 20 Mal der erste Abstand d1, vorzugsweise 5 bis 15 Mal. In dieser Ausführungsform sind 10 Mal ausgewählt. Beispielsweise ist der erste Abstand d1 60 mm, dann ist der zweite Abstand d2 600 mm. Der Sichtwinkel jeder Bildeinfangvorrichtung 12 ist hier so gesetzt, dass annähernd der zentrale Teil des Betts 3 abgedeckt werden kann. Die Entfernung zwischen der Projektionseinrichtung 11 und der Bildfangeinrichtung 12 wird Basislinienlänge genannt. Die Basislinienlänge ist die Entfernung in der Basislinienrichtung in der Triangulation zwischen der Projektionseinrichtung 11 und der Bildfangeinrichtung 12.
  • Während die Beschreibung hier annimmt, dass die Projektionseinrichtung 11, die erste Bildeinfangvorrichtung 12a und die zweite Bildeinfangvorrichtung 12b auf derselben geraden Linie platziert sind, ist die Platzierung nicht hierauf beschränkt. Im Fall, dass sie nicht auf derselben geraden Linie sind kann man damit beispielsweise durch eine Korrektur der Art des Erscheinens zur Zeit des Zusammenstellens zurechtkommen, wie später beschrieben wird.
  • Hier wird die Basislinienlänge erklärt. Der FG-Sensor 10, wie später unter Bezugnahme auf 4 beschrieben wird, misst die Verschiebung der Lichtpunkte, die ein Muster ausbilden. Beispielsweise wird die Verschiebungsgröße der Lichtpunkte größer, je größer die Höhe des Objekts (hier die Person 2) oder deren Bewegung in der Höhenrichtung ist. Gemäß dem mit 4 später erklärten Konzept kann daher ein Phänomen auftreten, in dem der Lichtpunkt einen anderen Lichtpunkt, der benachbart zu dem zu vergleichenden Lichtpunkt ist, überspringt, wenn die Bewegungsgröße eines Lichtpunktes groß ist. Hier ist festgelegt, dass der Lichtpunkt von dem benachbarten Lichtpunkt Verschoben wird, so dass die Verschiebungsgröße des vermessenen Lichtpunktes einen kleineren Wert ergibt. Daher kann die Verschiebungsgröße des Lichtpunktes nicht genau gemessen werden. Im Falle, dass die Basislinienlänge kurz ist (der erste Abstand d1), wie es im Falle des ersten FG-Sensors 10a ist, während die Verschiebungsgröße des Lichtpunktes klein ist und so das oben beschriebene Überspringen weniger wahrscheinlich auftritt, ist die Abgrenzung von Störung für kleine Bewegungsgrößen schwer. Ferner, im Fall, dass die Basislinienlänge lang ist (der zweite Abstand d2), wie es im Fall des zweiten FG-Sensors 10b ist, wird beispielsweise selbst eine kleine Bewegungsgröße des Objekts in der Verschiebungsgröße des Lichtpunktes groß widergespiegelt. Daher tritt, während es möglich ist, kleine Höhen oder kleine Bewegungen in der Höhenrichtung zu messen, in manchen Fällen das Überspringen auf, beispielsweise im Falle des Auftretens einer großen Bewegung.
  • Daher ist es bevorzugt, die Basislinienlänge zum Messen für beispielsweise die Gestalt einer Person 2 kürzer zu setzen und länger zum Messen von beispielsweise der Atembewegung. In anderen Worten ist es wie in dieser Ausführungsform vorzugsweise, die Gestalt der Person 2 basierend auf einer Musterverschiebung zu messen, die mit dem ersten FG-Sensor 10a erhalten wurde, und die Bewegung der Person 2 basierend auf einem Bewegungsmuster zu messen, das mit dem zweiten FG-Sensor 10b erhalten wurde.
  • Daher wird es empfohlen, die Projektionseinrichtung 11 und die zweite Bildeinfangvorrichtung 12b durch eine große Entfernung voneinander getrennt zu platzieren. Die Platzierung in einer solchen Art resultiert in einer längeren Basislinienlänge, so dass Änderungen sensibel gemessen werden können.
  • In diesem Fall ist die Projektionseinrichtung 11 wie gezeigt mit ihrer optischen Achse (die Strahlrichtung des Laserstrahls L1) annähernd parallel zur vertikalen Richtung der oberen Oberfläche des Betts 3 platziert. Während übrigens die Projektionseinrichtung 11, wie oben beschrieben, mit ihrer optischen Achse annähernd parallel zur Vertikalrichtung der oberen Oberfläche des Betts 3 platziert wird, kann sie ebenfalls in die Vertikale geneigt werden.
  • Hier wird ebenfalls die erste Bildeinfangvorrichtung 12a mit ihrer optischen Achse annähernd parallel zur Vertikalrichtung der oberen Oberfläche des Betts 3 platziert. D.h., die optische Achse der ersten Bildeinfangvorrichtung 12a wird parallel zur optischen Achse der Projektionseinrichtung 11 platziert. Die zweite Bildeinfangvorrichtung 12b wird mit ihrer optischen Achse relativ zur Vertikalrichtung der oberen Oberfläche des Betts 3 geneigt platziert. Das Platzieren in dieser Art macht es leicht, beispielsweise die zweite Bildeinfangvorrichtung 12b und die Projektionseinrichtung 11 durch eine große Entfernung getrennt voneinander zu platzieren. In anderen Worten ist es leicht, einen längeren Abstand d2 zu bewirken. Weiter ist es in anderen Worten leicht, eine lange Basislinienlänge in Triangulation zu verwenden. Es ist ebenfalls möglich, die Projektionseinrichtung 11, die erste Bildeinfangvorrichtung 12a und die zweite Bildeinfangvorrichtung 12b mit ihren optischen Achsen parallel zueinander ausgerichtet zu platzieren.
  • Während der FG-Sensor 10 und die Recheneinrichtung 20 getrennt voneinander gezeigt sind, können diese als eine Komponente integral ausgebildet sein. Dadurch kann die Überwachungsvorrichtung 1 kleiner ausgeführt werden.
  • Die Projektionseinrichtung 11, passend für die Überwachungsvorrichtung 1, wird mit Bezug auf die schematische perspektivische Sicht, 2, beschrieben. Hier wird ein Fall beschrieben, in dem der Zielbereich eine flache Oberfläche 102 ist und der Laserstrahl L1, der später beschrieben wird, vertikal auf die flache Oberfläche 102 geworfen wird. Die Projektionseinrichtung 11 beinhaltet einen Lichtstrahlerzeugungsabschnitt 105 als Lichtstrahlerzeugungsmittel zum Erzeugen eines kohärenten Lichtstrahls, und ein Fasergitter 120 (nachfolgend einfach das Gitter 120 genannt). Der kohärente Lichtstrahl, der von dem Lichtstrahlerzeugungsabschnitt 105 emittiert wird, ist typischerweise ein infraroter Laserstrahl. Der Lichtstrahlerzeugungsabschnitt 105 ist so aufgebaut, dass er parallele Strahlen erzeugt. Der Lichtstrahlerzeugungsabschnitt 105 ist typischerweise mit einem Halbleiterlaser und einer Kollimatorlinse (in den Zeichnungen nicht gezeigt) zum Erzeugen eines parallelen Strahls oder des Laserstrahls L1, umfasst. Der Laserstrahl L1 ist nahezu kreisförmig im Querschnitt. Wenn hier auf parallele Strahlen Bezug genommen wird, können dies im Wesentlichen parallele Strahlen sein und beinhalten nahezu parallele Lichtstrahlen.
  • Hier ist das Gitter 120 parallel zur flachen Oberfläche 102 (in rechten Winkeln zur Z-Achse) platziert. Der Laserstrahl L1 fällt in Richtung der Z-Achse auf das Gitter 120 ein. Der Laserstrahl L1 wird dann in einer Ebene jeder der individuellen optischen Fasern 121, die einen Linseneffekt haben, fokussiert und breitet sich in divergierenden Wellen aus. Die divergierenden Wellen interferieren miteinander und das Muster 11a der Anordnung von einer Vielzahl von hellen Punkten wird auf die flache Oberfläche 102 der Projektionsoberfläche projiziert. Das Platzieren des Gitters 120 parallel zur flachen Oberfläche 102 meint hier beispielsweise, dass die Ebene, die die Achsen der optischen Fasern 121 der das Gitter 120 aufbauenden FG Elemente 122 beinhaltet, parallel zur flachen Oberfläche 102 platziert wird.
  • Das Gitter 120 beinhaltet zwei FG Elemente 122 für dessen Aufbau. In dieser Ausführung sind die Ebenen der jeweiligen FG Elemente 122 parallel zueinander. Nachfolgend wird die Ebene jedes FG Elementes 122 die Elementebene genannt. In dieser Ausführung sind die Achsen der optischen Fasern 121 von einem FG Element 122 nahezu in rechten Winkeln zu denen des anderen FG Elements 122.
  • Das FG Element 122 ist beispielsweise mit mehreren Dutzend bis zu mehreren Hundert von optischen Fasern 121 von mehreren zehn Mikrometern im Durchmesser und etwa 10 mm in der Länge aufgebaut, die parallel in einer Blattgestalt platziert sind. Die zwei FG Elemente 122 können entweder in Kontakt miteinander oder entfernt voneinander in einem Abstand in Normalrichtung zur Elementenebene platziert werden. im letzteren Fall reicht der Abstand zwischen den beiden FG Elementen 122 bis auf ein Ausmaß, welches die Projektion des Musters 11a nicht beeinträchtigt. Der Laserstrahl L1 wird typischerweise vertikal auf die Elementenebene des Gitters 122 geworfen.
  • Da wie oben beschrieben in der Projektionseinrichtung 11 ein optisches System das Gitter 120 ist, welches die beiden FG Elemente 122 beinhaltet, wird kein kompliziertes optisches System benötigt, so dass das optische Gehäuse klein gebaut werden kann. Ferner macht die Projektionseinrichtung, die das Gitter 120 verwendet, es in einer einfachen Struktur möglich, das Muster 11a einer Vielzahl von hellen Punkten 11b auf den Zielbereich zu projizieren. Zufälligerweise ist das Muster 11a typischerweise aus einer Vielzahl von hellen Punkten 11b gemacht, die in einer viereckigen Gittergestalt angeordnet sind. Ferner ist die Gestalt der hellen Punkte nahezu kreisrund, was elliptisch beinhaltet.
  • Unter nochmaliger Bezugnahme auf 1 ist die Bildeinfangvorrichtung 12 typischerweise eine CCD Kamera. Die Bildeinfangvorrichtung 12 hat ein optisches Abbildungssystem 13a (siehe 4) und einen Bildsensor 15 (siehe 4). Der Bildsensor 15 ist typischerweise ein CCD. Zusätzlich zu dem CCD sind Elemente der CMOS Struktur als Bildsensoren 15 neuerdings häufig offenbart. Daher können diese selbstverständlich ebenfalls benutzt werden. Zwischen ihnen gibt es insbesondere welche mit Elementen, die selbst eine Bild-zu-Bild („frame-to-frame") Subtraktion und Binarisation haben. Es ist bevorzugt, solche Elemente zu verwenden.
  • Die Bildeinfangvorrichtung 12 wird vorzugsweise mit einem Filter 13b (siehe 4) zum Dimmen des Lichts mit anderen Wellenlängen versehen, als diejenigen, die um die Wellenlänge des Laserstrahls L1 herum sind, der mit dem beschriebenen Lichterstrahlerzeugungsbereich 105 erzeugt wird (siehe 2). Der Filter 13b ist typischerweise ein optischer Filter, wie ein Interferenzfilter, vorzugsweise an der optischen Achse des abbildenden optischen Systems 13a angeordnet. Mit einer solchen Konstruktion kann die Bildeinfangvorrichtung 12 die Intensität des Lichtmusters 11a relativ steigern, das durch die Projektionseinrichtung 11 projiziert wird, aus dem durch den Bildsensor 15 erhaltenen Licht, und kann demzufolge den Einfluss von Umgebungslicht verringern. Der Laserstrahl L1, der von dem Lichterzeugungsbereich 105 ausgesandt wird, ist typischerweise ein infraroter Laserstrahl. Der Laserstrahl L1 kann entweder kontinuierlich oder unterbrechend geworfen werden. Im Fall eines unterbrechenden Werfens sollte das Bildfangen mit der Bildeinfangvorrichtung 12 mit dem Zeitpunkt des Werfens synchronisiert werden.
  • Ein exemplarischer Aufbau der Überwachungsvorrichtung 1 wird mit Bezug auf 3, einem Blockdiagramm, beschrieben. Wie vorhergehend beschrieben, wird die Recheneinrichtung 20 integral mit der Messeinrichtung 14 ausgebildet. Die Messeinrichtung 14 wiederum wird integral mit einem Steuerbereich 21 ausgebildet, der später beschrieben wird. Die Projektionseinrichtung 11 und die zwei Bildeinfangvorrichtungen 12 sind elektrisch mit der Steuereinrichtung 14 verbunden und werden von dieser gesteuert. In dieser Ausführungsform ist die Recheneinrichtung 20 relativ zu der Projektionseinrichtung 11 und zu den zwei Bildeinfangvorrichtungen 12 entfernt angeordnet. Genauer gesagt ist sie beispielsweise seitlich des Betts 3 oder in einem zu dem Raum, in dem das Bett steht, unterschiedlichen Raum platziert, wie beispielsweise eine Schwesternstation oder ähnliches. Die Recheneinrichtung 20 ist typischerweise ein Computer, wie ein Personalcomputer.
  • Als erstes wird die Messeinrichtung 14 beschrieben. Die Messeinrichtung 14 misst die Verschiebung des Musters auf dem Bild, welches mit der Bildeinfangvorrichtung 12 eingefangen wurde. Die Messeinrichtung 14 ist so aufgebaut, dass sie das Bild erhält, welches mit der Bildeinfangvorrichtung 12 erhalten wurde. Die Messeinrichtung 14 ist ferner so aufgebaut, dass sie die Verschiebung von jedem Lichtpunkt auf dem Bild, welches mit der Bildeinfangvorrichtung 12 eingefangen wurde, misst. Im Übrigen werden hier der Einfachheit halber der projizierte helle Punkt und das helle Punktbild an dem eingefangenen Bild beide einfach der helle Punkt genannt. Hier meint das Messen der Verschiebung des hellen Punkts das Messen der Verschiebungsgröße des hellen Punkts. Ferner ist die gemessene Verschiebungsgröße des hellen Punkts das Konzept, das die Richtung der Verschiebung des hellen Punkts beinhaltet. D.h., die Verschiebungsgröße des hellen Punkts beinhaltet die Information der Verschiebungsrichtung.
  • Nun wird das Messen der Verschiebung des hellen Punkts bei der Verwendung der Messeinrichtung 14 detailliert beschrieben. Die Messeinrichtung 14 ist so aufgebaut, dass sie die Verschiebung des hellen Punkts, basierend auf den Bildern zu zwei verschiedenen Zeitpunkten, die jeweils mit den zwei verschiedenen Bildeinfangvorrichtungen 12 eingefangen wurden, misst. In dieser Ausführungsform sind die Bilder zu zwei verschiedenen Zeitpunkten ferner so aufgebaut, dass sie die Verschiebung des hellen Punktes messen, basierend auf den ersten Bildern zu den ersten zwei verschiedenen Zeitpunkten und den zweiten Bildern zu den zweiten zwei verschiedenen Zeitpunkten. Ferner ist sie so aufgebaut, dass die ersten Bilder zu den ersten zwei verschiedenen Zeitpunkten von der ersten Bildeinfangvorrichtung 12a erhalten werden und die zweiten Bilder zu den zweiten zwei verschiedenen Zeitpunkten werden von der zweiten Bildeinfangvorrichtung 12b erhalten.
  • Zuerst wird das Messen der Verschiebung des hellen Punkts basierend auf den ersten Bildern zu den zwei verschiedenen Zeitpunkten erklärt. Die ersten zwei verschiedenen Zeitpunkte sind ein willkürlicher Zeitpunkt (gegenwärtig) und ein Zeitpunkt, an dem die Person 2 nicht in dem Bett 3 vorhanden ist. In der folgenden Beschreibung wird ein Bild, das zu einem willkürlichen Zeitpunkt (gegenwärtig) eingefangen wurde, das eingefangene Bild genannt, und das Bild, das zu dem Zeitpunkt eingefangen wurde, an dem die Person 2 nicht in dem Bett 3 vorhanden war, wird das Basisbild genannt. Das Basisbild wird in einem Speicherbereich 31 gespeichert.
  • Während das eingefangene Bild und das Basisbild die zum Beispiel mit der Bildeinfangvorrichtung 12 (hier die erste Bildeinfangvorrichtung 12a) eingefangenen Bilder sind, beinhalten diese hier auch Informationen über die Position der hellen Punkte auf den jeweiligen Bildern. In anderen Worten sind das eingefangene Bild und das Basisbild die Bilder des Musters 11a, die durch die Projektion mit der Projektionseinrichtung 11 zu den jeweiligen Zeitpunkten ausgebildet sind. In dieser Ausführungsform ist das Basisbild in der Speichersektion 31 gespeichert, zum Beispiel nicht als ein so genanntes Bild, aber in der Form von Positionsinformationen, wie beispielsweise Koordinaten, die sich auf die jeweilige Position jedes hellen Punkts beziehen. In dieser Art wird der Prozess des Messens der Verschiebungsgröße der hellen Punkte, der später beschrieben wird, einfach, weil nur ein Vergleich der Koordinaten und der Richtungen der hellen Punkte für dessen Zweck ausreicht. Ferner wird die Position der hellen Punkte auf das Zentrum des Schwerpunkts der hellen Punkte gesetzt. In dieser Art ist es möglich, sogar sehr kleine Verschiebungen der hellen Punkte zu messen.
  • Die Verschiebungsgröße der hellen Punkte wird durch Vergleich der Informationen von jeder Position der hellen Punkte auf der Basis des Bildes, das in der Speichersektion 31 gespeichert ist, mit der Information jeder Position der hellen Punkte auf dem eingefangenen Bild gemessen. Jede Verschiebungsgröße kann beispielsweise durch Zählen der Anzahl von Pixel, um die sich ein heller Punkt verschoben hat (die Distanz für die Anzahl der Pixel der hellen Punkte hat sich verschoben) erhalten werden. In dieser Art wird der Prozess vereinfacht, weil kein Differentialbild erzeugt werden muss, wie später beschrieben ist.
  • Während die obige Beschreibung für den Fall gemacht wurde, dass die Informationen der Positionen der hellen Punkte verglichen werden, ist es ebenfalls möglich, ein Differentialbild von dem Basisbild und dem eingefangenen Bild zu erzeugen. In diesem Fall wird die Verschiebungsgröße der hellen Punkte von den entsprechenden Positionen der hellen Punkte auf dem Differentialbild gemessen. In dieser Art verbleiben nur die hellen Punkte auf dem Differentialbild, die sich bewegt haben, so dass der Aufwand des Prozesses reduziert wird.
  • Ferner kann die Verschiebungsgröße der hellen Punkte, die mit der Messeinrichtung 14 gemessen wird, der Verschiebungsdurchschnitt oder die Durchschnittsdauer der Bewegungsgröße der hellen Punkte sein, die in der Vergangenheit für eine gewisse Anzahl von Zeiten oder für eine gewisse Zeitdauer gemessen wurde. In dieser Art ist es möglich, die beiläufigen Störungen oder die zufälligen Störungen, die durch Flimmern von durch ein Fenster einfallenden Sonnenstrahlen verursacht werden, zu reduzieren, so dass die Zuverlässigkeit in der Messung der Verschiebungsgröße der hellen Punkte verbessert wird.
  • Die Vermessungsvorrichtung 14 ist wie oben beschrieben aufgebaut, so dass die Verschiebung der hellen Punkte für jeden der hellen Punkte, die das Muster 11a ausbilden, gemessen wird. In anderen Worten wird die Vielzahl von hellen Punkten als eine Vielzahl von Messpunkten verwendet. Die Vermessungsvorrichtung 14 gibt für jeden einzelnen hellen Punkt, die das Muster 11a aufbauen, die gemessene Verschiebung der hellen Punkte, oder die gemessene Verschiebung der hellen Punkte als ein Messergebnis an den Steuerbereich 21 aus. In anderen Worten ist das Messergebnis die gemessene Verschiebungsgröße der hellen Punkte, basierend auf den Bildern zu den ersten zwei verschiedenen Zeitpunkten. Ferner entspricht das Messergebnis der Höhe der Person 2. Nachfolgend wird das Messergebnis als Höheninformation bezeichnet. Die Messeinrichtung 14 gibt an jeden Messpunkt ein Messergebnis als ein Teil der Höheninformation aus.
  • Als nächstes wird das Messen der Verschiebung der hellen Punkte, basierend auf den zweiten Bildern zu den zweiten zwei verschiedenen Zeitpunkten beschrieben. Diese Messung wird wie die oben beschriebene Messung der Verschiebung der hellen Punkte, basierend auf den ersten Bildern zu den ersten zwei verschiedenen Zeitpunkten, durchgeführt. Die zweiten zwei verschiedenen Zeitpunkte sind jedoch an einem beliebigen Zeitpunkt und einem anderen Zeitpunkt etwas vor dem beliebigen Zeitpunkt angesetzt. „Etwas bevor" kann jedes Zeitintervall sein, das groß genug ist, um die Bewegung der Person 2 zu erkennen. Das Zeitintervall kann kurz ausgewählt werden, wenn eine kleine Bewegung der Person 2 entdeckt werden soll. Das Ausmaß der Zeit, wie etwa 0,1 Sekunde, kann ausgewählt werden, so dass beispielsweise die Bewegung der Person 2 nicht zu groß wird und die Bewegung kann im Wesentlichen als nahezu nicht vorhanden erachtet werden. Oder es kann ausgewählt werden, so dass es zwischen 1 bis 10 TV Perioden (1/30 bis 1/3 Sekunde) ist. Ferner, im Fall, dass überhaupt Bewegung der Person 2 entdeckt werden soll, kann das Intervall groß ausgewählt werden, wie zum Beispiel 10 Sekunden. Im Fall jedoch, dass die Atembewegung der Person 2 entdeckt werden soll, wie in dieser Ausführungsform, macht ein zu großes Intervall eine genaue Erfassung unmöglich. Daher ist das Auswählen eines zu großen Intervalls, beispielsweise 1 Minute, unangemessen.
  • In der folgenden Beschreibung wird angenommen, dass ein Bild (in der Vergangenheit), das etwas vor dem eingefangenen Bild eingefangen wurde, das Referenzbild ist. D.h., die zweiten Bilder zu den zweiten zwei unterschiedlichen Zeitpunkten sind das oben erwähnte eingefangene Bild und das Referenzbild. Das Referenzbild, wie das Basisbild, wird ebenfalls mit der Bildeinfangvorrichtung 12 aufgenommen (hier die zweite Bildeinfangvorrichtung 12b), was das Konzept der Positionsinformation der hellen Punkte in jedem Bild beinhaltet. In dieser Ausführungsform werden die Referenzbilder in einem Speicherbereich 31 in der Form von Positionsinformationen gespeichert, wie beispielsweise Koordinaten für jeden hellen Punkt. Es wird angenommen, dass die Position der hellen Punkte ebenfalls im Zentrum des Schwerpunkts des hellen Punkts ist.
  • Ferner wird in dieser Ausführungsform angenommen, dass die zweiten Bilder zu den zweiten zwei verschiedenen Zeitpunkten ein eingefangenes Bild (N-tes Bild) und ein Bild ((N-1)-tes Bild), welches vor dem eingefangenen Bild eingefangen wurde. In anderen Worten ist das Referenzbild das Bild, welches vor dem eingefangenen Bild eingefangen wird. Das Intervall der eingefangenen Bilder kann angemessen ausgewählt werden gemäß beispielsweise der Prozessgeschwindigkeit der Einrichtung und der Art der Bewegung, die erkannt werden soll; beispielsweise etwa 0,1 bis 3 Sekunden, vorzugsweise 0,1 bis 0,5 Sekunden. Das Einfangen der Bilder zu kürzeren Intervallen und das Weiterbehandeln durch Mittelwertbildung oder Filterung sind vorteilhaft, weil der Einfluss von beispielsweise zufälligen Störungen reduziert wird.
  • Die Wellenform, die durch das Messen der Verschiebung der hellen Punkte erhalten wird (beispielsweise die absolute Summe der Verschiebungsgröße der hellen Punkte), die auf den Bildern zu zwei verschiedenen Zeitpunkten basiert, zu einem beliebigen Zeitpunkt und einem Zeitpunkt etwas vor diesem, wird eine Differentialwellenform der Entfernung oder eine Wellenform, die die Veränderung in der Geschwindigkeit darstellt. Im Fall, dass eine Wellenform erhalten werden soll, die die Änderungen in der Höhe darstellt, kann eine Wellenform der Entfernung oder eine Wellenform, die die Höhenänderungen darstellt, durch Integrieren der oberen Wellenform erhalten werden.
  • Ferner ist die Messeinrichtung 14 derart aufgebaut, dass sie die Verschiebungsgröße der hellen Punkte misst, was die Richtung der Verschiebung der hellen Punkte beinhaltet, wie in dem Fall der ersten zwei verschiedenen Zeitpunkte, indem die Positionsinformationen an jedem hellen Punkt auf dem Referenzbild, welches in dem Speicherbereich 31 gespeichert ist, mit der Positionsinformation an jedem hellen Punkt an dem eingefangenen Bild verglichen werden. Ferner gibt die Messeinrichtung 14 ebenfalls die Verschiebungsgröße der hellen Punkte, die für jeden hellen Punkt gemessen wurden, als das Messergebnis an den Steuerbereich 21 aus. In anderen Worten ist das Messergebnis die auf den zweiten Bildern zu den zweiten zwei verschiedenen Zeitpunkten gemessene Verschiebungsgröße der hellen Punkte. Ferner entspricht das Messergebnis (wie später mit 4 beschrieben wird), der Bewegung in der Höhenrichtung jedes hellen Punkts (Messpunkt) an dem Objekt, in diesem Fall der Person 2. Nachfolgend wird ein Messergebnis die Bewegungsinformation genannt. Die Messeinrichtung 14 gibt das Messergebnis zu jedem Messpunkt als Bewegungsinformation aus. Die Bewegung in der Höhenrichtung der Person 2 ist beispielsweise die Bewegung, die durch das Atmen der Person 2 auftritt.
  • Nun wird das Konzept der Verschiebung der hellen Punkte in Bezugnahme auf 4, eine perspektivische Konzeptansicht, beschrieben. Um die Beschreibung leicht verständlich zu machen, wird hier angenommen, dass die Zielfläche eine flache Oberfläche 102 ist, und das Objekt ein Festkörper 103 ist. Wegen der Beschreibung wird ferner ein Fall angenommen, in dem die ersten Bilder zu den ersten zwei verschiedenen Zeitpunkten als Basisbild und als eingefangenes Bild verwendet werden. Ferner wird die Beschreibung auf der Annahme gemacht, dass das Basisbild das Bild des Musters 11a ist, wenn kein Festkörper 103 an der flachen Oberfläche 102 vorhanden ist, und das eingefangene Bild ist das Bild des Musters 11a, wenn der Festkörper 103 an der flachen Oberfläche 102 vorhanden ist. Ebenfalls wegen der Beschreibung wird der Fall angenommen, in welchem eine Bildeinfangvorrichtung 12 verwendet wird.
  • In der Figur ist der Festkörper 103 auf der flachen Oberfläche 102 platziert. Ein orthogonales X-Y-Z-Koordinatensystem wird mit der X- und der Y-Achse auf der flachen Oberfläche 102 festgelegt. Der Festkörper 103 wird in dem ersten Quadranten des X-Y-Z-Koordinatensystems platziert. Die Projektionseinrichtung 11 und die Bildeinfangvorrichtung 12 werden über der flachen Oberfläche 102 an der Z-Achse angeordnet. Die Bildeinfangvorrichtung 12 fängt ein Bild der flachen Oberfläche 102 ein, auf die die Projektionseinrichtung 11 das Muster 11a projiziert. In anderen Worten wird ein Bild des Festkörpers 103 eingefangen, der auf der flachen Oberfläche 102 platziert ist.
  • Eine Bildlinse 13a, hier ein optisches Bildsystem der Bildeinfangvorrichtung 12, ist so angeordnet, dass ihre mit seiner optischen Achse mit der Z-Achse zusammenfällt. Die Bildlinse 13a bildet das Bild des Musters 11a auf der flachen Oberfläche 102 oder dem Festkörper 103 auf eine Bildfläche 15' (Bildfläche) des Bildsensors 15 der Bildeinfangvorrichtung 12 aus. Die Bildfläche 15' ist typischerweise eine Ebene, die die Z-Achse im rechten Winkel schneidet. Ferner wird angenommen, dass ein X-Y-Koordinatensystem auf der Bildfläche 15' liegt mit der Z-Achse durch den Ursprung des X-Y-Koordinatensystems. Die Projektionseinrichtung 11 wird an einem von der flachen Oberfläche 102 entfernten Punkt in derselben Entfernung platziert, die zwischen der flachen Oberfläche 102 und der Bildlinse 13a vorhanden ist, und in einem Abstand d(Basislinienlänge d) in der negativen Richtung der Y-Achse von der Bildlinse 13a entfernt. Das Muster 11a der Vielzahl von hellen Punkten 11b wird auf den Festkörper 103 und die flache Oberfläche 102 projiziert. Zufälligerweise ist die Richtung der Y-Achse ebenfalls die Richtung der Basislinie für die Triangulation.
  • Das Muster 11a, das durch die Projektionseinrichtung 11 auf die flache Oberfläche 102 projiziert wird, reicht nicht dorthin, wo der Festkörper 103 vorhanden ist. Im Fall, dass der Festkörper 103 vorhanden ist, wird der helle Punkt 11b, der anderenfalls auf einen Punkt 102a auf der flachen Oberfläche 102 projiziert wird, auf einen Punkt 103a auf dem Festkörper 103 projiziert. Wenn der helle Punkt 11b vom Punkt 102a zum Punkt 103a sich verschoben hat, und die Bildlinse 13a entfernt von der Projektionseinrichtung 11 durch eine Distanz d (Basislinienlänge d) ist, wird der helle Punkt 11b auf einen Punkt 103a' (x, y + δ), der anderenfalls auf dem Punkt 102a' (x, y) abgebildet würde. In anderen Worten, verändert sich die Position des Bildes des hellen Punkts 11b durch einen Abstand δ in y-Richtung gemäß dem Vorhandensein oder dem Nichtvorhandensein des Festkörpers 103.
  • Demgemäß, wie beispielsweise in 5 gezeigt, verschiebt sich der helle Punkt, der auf die Bildfläche 15' des Bildsensors 15 abgebildet wird, in y-Richtung um den Abstand δ durch das Vorhandensein des Festkörpers 103, der eine Höhe hat.
  • In dieser Art kann die Position des Punktes 103a auf dem Festkörper 103 in den drei Dimensionen durch Messen der Verschiebungsgröße δ des hellen Punktes festgelegt werden. In anderen Worten kann beispielsweise die Höhe des Punktes 103a herausgefunden werden. In dieser Art ist es möglich, die Höhenverteilung zu messen, oder die Gestalt in drei Dimensionen, von dem Festkörper 103 durch Messen des Unterschieds zwischen einer Position auf der Bildebene 15', auf die ein Punkt abgebildet würde, wenn der Festkörper 103 nicht vorhanden wäre, und einer anderen Position auf der Bildebene 15', an der der Punkt aktuell abgebildet wird.
  • Oder, die Koordinaten in drei Dimensionen des Festkörpers 103 kann gemessen werden. Ferner wird es durch Reduzieren des Abstandes des Musters 11a oder des Intervalls der hellen Punkte 11b auf ein Ausmaß, das die Beziehung der hellen Punkte 11b nicht unklar werden lässt, möglich, die Höhenverteilung des Festkörpers 103 detaillierter gemäß diesem Ausmaß zu messen.
  • Auf der Basis des oben beschriebenen Konzepts kann die Messeinrichtung 14 die Höhe des Objekts durch Messen der Verschiebungsgröße der hellen Punkte messen. Im Fall, dass die Verschiebung der hellen Punkte gemäß den zweiten Bildern zu den zweiten zwei unterschiedlichen Zeitpunkten, wie oben beschrieben, gemessen wird, und zwar im Fall, dass die Verschiebung der hellen Punkte gemäß zu dem eingefangenen Bild und dem Referenzbild gemessen wird, muss die Veränderung in der Verschiebungsgröße der hellen Punkte herausgefunden werden. Daher, obwohl beispielsweise die absolute Höhe der Person 2 nicht gemessen werden kann, kann eine Höhenveränderung des Objekts gemessen werden. Daher ist das Verfahren vorteilhaft, die Bewegung in Höhenrichtung der Person 2 zu messen. Das obere Konzept ist sowohl auf den ersten FG Sensor 10a als auch auf den zweiten FG Sensor 10b anwendbar.
  • Die Messeinrichtung 14 ist ebenfalls so eingerichtet, dass sie das Muster 11a auf dem Bild, das mit der ersten Bildeinfangvorrichtung 12a aufgenommen wurde, und das Muster 11a auf dem Bild, das mit der zweiten Bildeinfangvorrichtung 12b aufgenommen wurde, in Beziehung setzt. In diesem Fall wird die Beziehung der hellen Punkte 11b, die das Muster 11a ausbilden, eingerichtet. In dieser Art kann die Beziehung für die Verschiebungsgröße der hellen Punkte an jeder Position der hellen Punkte oder an jeder Messpunktposition zwischen der Höheninformation und der Bewegungsinformation eingerichtet werden. Beispielsweise kann durch vorheriges Abklären der Ansichten des Zielvergleichs oder der Oberfläche des Bettes 3, wie sie von den beiden Bildeinfangvorrichtungen 12 gesehen werden, eine Beziehung eingerichtet werden.
  • Das Einrichten der oberen Beziehung wird unter Bezugnahme der 6 und 7 mittels eines konkreten Beispiels beschrieben. In der Vorbereitung werden die optischen Achsen der ersten Bildeinfangvorrichtung 12a und der zweiten Bildeinfangvorrichtung 12b abgeglichen oder eingestellt. Um es konkreter zu sagen werden die optischen Achsen beispielsweise so eingestellt, dass die Felder der jeweiligen Bildeinfangvorrichtungen 12 so viel wie möglich überlappen. Diese Beziehung wird gemäß dem folgenden Prozess gemacht.
  • Zuerst wird ein Bild des Musters mit der ersten Bildeinfangvorrichtung 12a genommen und 3-D-Koordinaten von jedem hellen Punkt des Musters berechnet. Dann wird die Konvertierung der Koordinaten durchgeführt, wie in 6 gezeigt, gemäß zu den 3-D-Koordinaten und der Anordnung der jeweiligen Bildeinfangvorrichtung 12. In diesem Fall werden die 3-D-Koordinaten zu jedem hellen Punkt, wie gezeigt, von einem Koordinatensystem (X1, Y1, Z1) auf ein anderes Koordinatensystem (X2, Y2, Z2) konvertiert. Ferner wird eine Bildlinse 13'' von der zweiten Bildeinfangvorrichtung 12b als der Ursprung des Koordinatensystems (X2, Y2, Z2) gesetzt. Ebenfalls wird in diesem Fall die Ähnlichkeit verwendet, um die Position auf der Bildebene 15b der zweiten Bildeinfangvorrichtung 12b zu berechnen, auf der ein Bild des Musters (heller Punkt) eingefangen wird (siehe 7).
  • Zur Zeit der Konvertierung wird angenommen, dass das Koordinatensystem (X1, Y1, Z1) ein 3-D-Koordinatensystem der ersten Bildeinfangvorrichtung 12a ist, und das Koordinatensystem (X2, Y2, Z2) eines der zweiten Bildeinfangvorrichtung 12b ist. Die Bildlinse 13a'' der zweiten Bildeinfangvorrichtung 12b wird als der Ursprung des Koordinatensystems (X2, Y2, Z2) festgelegt. Die Entfernung zwischen der ersten Bildeinfangvorrichtung 12a und der zweiten Bildeinfangvorrichtung 12b wird als dx angenommen. Ferner, in der Überlegung des optischen Aufbaus, werden folgende Gleichungen verwendet, um die Koordinatensysteme zu konvertieren.
  • [Gleichung 1]
    Figure 00270001
  • Der Winkel θ, der zwischen der optischen Achse der zweiten Bildeinfangvorrichtung 12b und der Bettoberfläche ausgebildet ist, wird mit der nachfolgenden Gleichung festgelegt. θ = arc tangent (dx/h) (2)
  • Als nächstes wird mit der zweiten Bildeinfangvorrichtung 12b ein anderes Bild des Musters genommen. Die wie vorgehend beschrieben berechnete Position wird mit dem Musterbild, welches mit der zweiten Bildeinfangvorrichtung 12b genommen wurde, verglichen. Von einem hellen Punkt in der nächsten Position wird angenommen, dass es derselbe helle Punkt ist und korreliert.
  • Während der obere Korrelationsprozess auf alle hellen Punkte auf dem Bild angewendet wird, kann in manchen Fällen die Korrelation an manchen hellen Punkten aufgrund des Unterschieds in den Bildfeldern zwischen der ersten Bildeinfangvorrichtung 12a und der zweiten Bildeinfangvorrichtung 12b nicht durchgeführt werden. Solche hellen Punkte werden als fehlende Punkte angesehen und nicht für Messungen verwendet.
  • Unter nochmaliger Bezugnahme auf 3 wird die Recheneinrichtung 20 beschrieben. Die Recheneinrichtung 20 hat den Steuerbereich 21 zum Steuern der Überwachungsvorrichtung 1. Der Steuerbereich 21 ist mit dem Speicherbereich 31 demgegenüber verbunden. Der Speicherbereich 31 ist vorzugsweise dafür gemacht, die von der Bildeinfangvorrichtung 12 erhaltenen Bilder im Zeitablauf zu speichern. Der Speicherbereich 31 kann Daten, wie Recheninformationen speichern.
  • Der Steuerbereich 21 ist mit einer Anzeige 40 als Informationsausgabemittel zum Anzeigen der zusammengestellten Ergebnisse aus den Ausgabezusammenstellmittel 24 als Informationszusammenstellmittel, die später beschrieben wird, verbunden. Die Anzeige 40 ist typischerweise eine LCD. Die Anzeige 40 erhält und zeigt an, beispielsweise, analysierte Informationen, die aus den Ausgabeinformationserzeugungsmitteln 24 ausgegeben werden. Im Fall, dass die Information nicht ausgegeben werden, muss in dem Moment (im Fall für beispielsweise einfaches Speichern der zusammengestellten Ergebnisse) die Anzeige 40 nicht vorgesehen werden.
  • Der Speicherbereich 21 ist ebenfalls mit einer Eingabeeinrichtung 35 zum Eingeben von Information für die Inbetriebnahme der Überwachungsvorrichtung 1 verbunden. Die Eingabeeinrichtung 35 ist beispielsweise ein Berührungseingabefeld, eine Tastatur oder eine Maus. Während die Eingabeeinrichtung 35 in der Zeichnung als eine gezeigt ist, die von außerhalb an die Recheneinrichtung 20 hinzugefügt wird, kann sie auch in die Recheneinrichtung 20 eingebaut sein. Während diese Ausführungsform beschrieben wird, als wäre sie mit einer Eingabeeinrichtung 35 versehen, muss diese dennoch nicht vorgesehen sein.
  • Ferner sind innerhalb des Steuerbereichs 21 vorgesehen: Ein 3-D-Gestalt-Erzeugungsbereich 22 als 3-D- Informationsrechenmittel zum Erhalten der Informationen der äußeren Gestalt der Person 2, die auf dem Bett 3 vorhanden ist, basierend auf der Verschiebung des Musters auf dem Bild, welches mit dem ersten FG Sensor 10a erhalten wurde; ein Veränderungsinformationsrechenbereich als Veränderungsinformationsrechenmittel zum Erhalten der Veränderungsinformationen der Person 2 basierend auf der Verschiebung des Musters auf dem Bild, welches durch den zweiten FG Sensor 10b erhalten wurde; und ein Ausgabeinformationserzeugungsbereich 24 als Ausgabeinformationszusammenstellmittel zum Zusammenstellen der äußeren Gestaltinformationen und der Veränderungsinformationen. Die äußeren Gestaltinformationen und die Veränderungsinformationen werden nachfolgend erklärt. Der obere Aufbau wird nachfolgend im Detail beschrieben:
    Mit dem 3-D-Gestalterzeugungsbereich 22, wie oben beschrieben, wird die äußere Gestaltinformation der Person 2, die auf dem Bett 3 vorhanden ist, erhalten. In dieser Ausführungsform ist die äußere Gestaltinformation ein Bild, welches eine 3-D-Gestalt zeigt (nachfolgend einfach die 3-D-Gestalt genannt). Der 3-D-Gestalterzeugungsbereich 22 erzeugt eine 3-D-Gestalt wie eine äußere Gestaltinformation basierend auf den gemessenen Ergebnissen, welches die Höheninformationen der Messeinrichtung 14 des ersten FG Sensors 10a sind.
  • Erzeugen der 3-D-Gestalt mit dem 3-D-Gestalterzeugungsbereich 22 wird nun beschrieben. Der 3-D-Gestalterzeugungsbereich 22 ist so aufgebaut, dass er eine 3-D-Gestalt, basierend auf den Messergebnissen oder den Höheninformationen a der Messeinrichtung 14 erzeugt.
  • Wie oben beschrieben, entsprechen die Höheninformationen oder die gemessenen Ergebnisse der Messeinrichtung 14 der Höhe der Person 2 an einer Vielzahl von Messpunkten. In diesem Fall wird die Höhe tatsächlich aus den Höheninformationen berechnet. In diesem Fall wird die Höhe der Person 2 an jedem Messpunkt durch Triangulation berechnet, basierend auf der Verschiebungsgröße der hellen Punkte an jedem Messpunkt, oder der Höheninformation. In anderen Worten wird die Höhe über dem Bett 3 berechnet. Das Berechnen der Höhe der Person 2 wird unter Bezugnahme auf 8 erklärt. Hier, um die Beschreibung leicht verständlich zu machen, wie im Fall von 2, wird der Zielbereich als flache Oberfläche 102 angenommen und das Objekt als ein Festkörper 103.
  • 8 ist eine in X-Achsen-Richtung gesehene Strichzeichnung (siehe 4), um den Zusammenhang zwischen der Projektionseinrichtung 11, der Bildeinfangvorrichtung 12, dem Festkörper 103 und der ebenen Oberfläche 102 zu zeigen. In der Beschreibung hier wird die Höhe des Festkörpers 103 als Z1 angenommen. Das Zentrum der Projektionseinrichtung (Zentrum des Lichtmusters) und das Zentrum der Bildlinse 13a sind durch einen zur ebenen Oberfläche 102 parallelen Abstand d entfernt. Der Abstand zwischen der Bildlinse 13a und der Bildebene 15' (Bildsensor 15) ist l (in etwa dieselbe wie der Fokusabstand der Bildlinse 13a). Der Abstand zwischen der Bildlinse 13a und der ebenen Oberfläche 102 ist h. Die Höhe des Festkörpers 103 von der Oberfläche 102 ist Z1. Es wird angenommen, dass der Punkt 102a' auf der Bildebene 15' als Ergebnis um eine Distanz δ zu einem Punkt 103a' verschoben wird, dass der Festkörper 103 auf der ebenen Oberfläche 102 angeordnet wird.
  • Angenommen, dass der Punkt 102a'', wo die Linie das Zentrum der Bildlinse 13a verbindet und der Punkt 103a die ebene Oberfläche 102 durchläuft, und unter Kenntnisnahme der Triangel 103a'-102a'-13a und der Triangel 102a''-102a-13a, ist die Entfernung D zwischen den Punkten 102a und 102a'' D = δ·h/l. Unter Kenntnisnahme der Triangel 13a-11-103a und 102a''-102a-103a, ist die Distanz D = (d·Z1)/(h – Z1). Aus diesen Gleichungen ist Z1 folgendermaßen festgelegt: Z1 = (h2·δ)/(d·l + h·δ) (3)
  • Wie oben beschrieben, kann die Höhe des Festkörpers 113 berechnet werden.
  • Der 3-D-Gestalterzeugungsbereich 22 ist ferner so aufgebaut, dass er für die Punkte interpoliert, an denen die äußere Gestaltinformation, das heißt die 3-D-Information, fehlt. Im Übrigen wird die Interpolation nicht in dem Fall benötigt, dass ausreichend notwendige äußere Gestaltinformationen erhalten wurden.
  • Hier wird nun die Interpolation erklärt. Wie oben beschrieben, berechnet der 3-D-Gestalterzeugungsbereich 22 die Höhe jedes Messpunkts von den Höheninformationen, welche die Messergebnisse der Messeinrichtung 14 sind, und erzeugt eine 3-D-Gestalt basierend auf der berechneten Höhe. Wie für die Höhe der Person 2, da die jeweiligen Messpunkte (hellen Punkte) in Intervallen angeordnet sind, ist die Höhe jedes Punkts zwischen den Messpunkten unbekannt. Daher ist die äußere Gestalt der Person 2 nicht leicht zu verstehen, wenn eine 3-D-Gestalt direkt von der Höhe der Person 2 an den jeweiligen Messpunkten erzeugt wird. Um für dieses einen Ansatz zu haben, führt der 3-D-Gestalterzeugungsbereich 22 eine Interpolation für zusätzliche Punkte aus, mit denen die äußere Gestalt leicht verstanden werden kann.
  • Genauer gesagt, werden vier Messpunkte gesucht, die in der Umgebung eines Punkts angeordnet sind, der mit einem Satz 3-D-Koordinaten (X, Y, Z) interpoliert werden soll.
  • Angenommen, dass die 3-D-Koordinaten der vier Messpunkte (xi, yi, zi) sein sollen, wird ein Abstand aus der folgenden Gleichung berechnet: δi = {(X – xi)2 + (Y – yi)2}1/2 (4)
  • Und SUM_A = Σδi (5)
  • Die Höhe von (X, Y) wird unter Verwendung der nachfolgenden Gleichung (6) berechnet: [Gleichung 2]
    Figure 00320001
    wobei zi die Höhe an jedem Messpunkt repräsentiert.
  • Die Höhe der Person 2 an jeder Koordinate zwischen den Messpunkten kann durch Durchführen der oberen Rechnung interpoliert werden für jeden Satz Koordinaten, der interpoliert werden soll. Der 3-D-Gestalterzeugungsbereich 22 erzeugt eine 3-D-Gestalt durch die Interpolation, wie oben beschrieben.
  • 9 zeigt ein Beispiel einer erzeugten 3-D-Gestalt, wie oben beschrieben. Im Übrigen ist die gezeigte 3-D-Gestalt das Bild, wenn es auf der Anzeige 40 angezeigt wird.
  • Die Interpolation ist nicht auf die oberen Beispiele beschränkt, aber verschiedene Interpolationsmethoden oder Rasterverfahren können angewendet werden. (Solche Verfahren beinhalten: Trigangulation; Interpolation radialer Basisfunktion; polynominale Regression; nächste Gitternachbarverfahren; natürliche Gitternachbarverfahren; modifiziertes Shepards Verfahren; Minimalkrümmung; Inversabstand zu einem Hochspannungsnetzverfahren; Kriging-Verfahren; und andere).
  • Mit dem Veränderungsberechnungsbereich 23 sollen die Veränderungsinformationen an der Person 2, wie oben beschrieben, erhalten werden. In dieser Ausführungsform sind die Veränderungsinformationen auf die Höhenbewegung der Person 2 bezogene Informationen, was die Phase der Bewegung in der Höhenrichtung der Person 2 an jedem Messpunkt beinhaltet. Es wird angenommen, dass hier die Höheninformation auch die Höhenveränderungsgröße, welche später beschrieben wird, beinhaltet.
  • Der Veränderungsinformationsrechenbereich 23 ist aufgebaut, um die Bewegungsphase von jedem Messpunkt von den Bewegungsinformationen zu erkennen, wobei die gemessenen Ergebnisse mit der Messeinrichtung 14 gemessen sind. Der Veränderungsinformationsrechenbereich 23 erhält die an jedem Messpunkt bekannte Bewegungsphase als Veränderungsinformation. In diesem Fall ist die Phase ein Begriff, der die Bewegungsrichtung beinhaltet. Ferner ist in diesem Fall das Erkennen der Bewegungsphase mit dem Veränderungsinformationsrechenbereich 23 das Erkennen, ob die gemessene Bewegung an jedem Messpunkt mit der Messeinrichtung 14 aufwärts oder abwärts gerichtet ist. In dieser Art ist es möglich beispielsweise herauszufinden, welcher Punkt am Körper der Person 2 eine Aufwärts- oder Abwärtsbewegung macht.
  • Der Veränderungsinformationsrechenbereich 23 ist ebenfalls aufgebaut, um die Größe der Höhenveränderung (nachfolgend die Höhenveränderungsgröße genannt) der Person 2 an jedem Messpunkt als Veränderungsinformation gemäß der Bewegungsinformation zu berechnen. Der Veränderungsinformationsrechenbereich 23 berechnet die Höhenveränderungsgröße, basierend auf der Bewegungsinformationen, wobei die Ergebnisse mit der Messeinrichtung 14 des zweiten FG Sensors 10b gemessen werden.
  • Hier ist die Berechnung der Höhenveränderungsgröße mit dem Veränderungsinformationsrechenbereich 23 beschrieben. Der Veränderungsinformationsrechenbereich 23 ist aufgebaut, um die Höhenveränderungsgröße, basierend auf der Bewegungsinformation zu berechnen. Wie vorhergehend beschrieben, während die Bewegungsinformation der Bewegung in Höhenrichtung der Person 2 an jedem Messpunkt entspricht, wird in diesem Fall die aktuelle Höhenveränderungsgröße auf der Bewegungsinformation berechnet. In diesem Fall, ähnlich der Höhenberechnung, die mit 8 vorher beschrieben wurde, wird die Höhenveränderungsgröße jeder Person 2 an jedem Messpunkt durch Triangulation berechnet, basierend auf der Verschiebungsgröße der hellen Punkte der Bewegungsinformation. Es ist auch möglich, die Interpolation für die Höhenveränderungsgröße ähnlich der für die 3-D-Gestalt durchzuführen.
  • Nachfolgend wird der Ausgabeinformationserzeugungsbereich 24 beschrieben. Der Ausgabeinformationserzeugungsbereich 24 soll die 3-D-Gestalt und die Veränderungsinformation zusammenstellen. Der Ausgabeinformationserzeugungsbereich 24 ist aufgebaut, um Analyseinformationen zu erzeugen, die durch Zusammenstellen der 3-D-Gestalt, die mit dem 3-D-Gestalterzeugungsbereich 22 erhalten werden, und die Veränderungsinformationen, die mit dem Veränderungsinformationsrechenbereich 23 erhalten werden, durch Zusammenstellen angezeigt werden. Die Analyseinformationen, die erzeugt werden, werden an die Anzeige 40 ausgegeben und auf ihr angezeigt. Im Übrigen meint der Ausdruck „Zusammenstellen" hier das Überlagern der Veränderungsinformationen mit der 3-D-Gestalt.
  • Die Zusammenstellungsergebnisse, die angezeigt werden, können ebenfalls solche Informationen, wie die Volumenänderung der Person 2 und deren Wellenform beinhalten, was später beschrieben wird.
  • Hier erzeugt der Ausgabeinformationserzeugungsbereich 24 ein Bild als Zusammenstellungsinformationen, in denen die 3-D-Gestalt mit den Veränderungsinformationen zusammengestellt ist, so dass die jeweiligen Messpunkte (hellen Punkte) einander entsprechen. Im Übrigen wird angenommen, dass die erzeugte Analyseinformation das Festlegungsergebnis beinhaltet, welches mit dem Abweichungsfestlegungsbereich 26, der später beschrieben wird, produziert wird.
  • Der Ausgabeinformationserzeugungsbereich 24 ist ebenfalls aufgebaut, um die obere Zusammenstellung durchzuführen, so dass die Bewegung jedes Punkts auf der Person 2 herausgefunden wird. Genauer gesagt, wird die Veränderungsinformation, d.h. die Phase der Bewegung, die an jedem Messpunkt erkannt wird, auf die 3-D-Gestalt überlagert, so dass jede Koordinate einander entspricht. In dieser Art ist es einfach herauszufinden, welcher Punkt auf dem Körper der Person 2 sich aufwärts oder abwärts bewegt.
  • Unter Bezugnahme auf 10, eine schematische Sicht, wird ein Beispiel des Zusammenstellens einer 3-D-Gestalt und Veränderungsinformationen, in anderen Worten ein Beispiel von erzeugten Analyseinformationen, beschrieben. Für die Beschreibung hier ist ein Beispiel von erzeugten Analyseinformationen als ein Bild, welches auf der Anzeige 40 angezeigt wird, gezeigt. Wie in der Figur gezeigt, werden die unter Bezugnahme auf 9 beschriebene 3-D-Gestalt und die Veränderungsinformationen zusammengestellt, so dass die jeweiligen Positionen einander entsprechen. Wenn die 3-D-Gestalt mit den Veränderungsinformationen in dieser Art zusammengestellt wird, wird die Bewegungsphase an jedem Messpunkt erkennbar gemacht.
  • Im Übrigen zeigt 10(a) einen Fall, in dem der Bauch der Person 2 aufwärts bewegt wird, genauer gesagt, das Einatmen beim Bauchatmen. 10(b) zeigt einen Fall, in dem die Brust der Person 2 sich abwärts bewegt, genauer gesagt, das Ausatmen beim Brustatmen.
  • Ferner sind die Messpunkte in diesem Fall für die Bewegungsphase in verschiedenem Rendering gezeigt, gemäß ob die Bewegungsphase aufwärts oder abwärts geht (in der Figur sind aufwärts bewegende Punkte mit weißen Punkten und abwärts bewegende Punkte mit schwarzen Punkten gezeigt). Verschiedenes Rendering kann durch Ändern der Farben der Punkte (wie blau für aufwärts bewegende und rot für abwärts bewegende Punkte) gemacht werden. Ferner können die Bewegungsphasen mit Pfeilen angezeigt werden (wie in der Figur durch unterbrochene Linien an manchen Messpunkten gezeigt). In dieser Art kann leicht festgestellt werden, welcher Punkt des Körpers der Person 2 sich aufwärts oder abwärts bewegt. Die Überwachungsvorrichtung 1 zeigt die Analyseinformation, die wie oben beschrieben erzeugt wurden, auf der Anzeige 40 an. Ebenfalls in diesem Fall kann die Bewegungsveränderung durch Ändern der Tiefe der Farbe, der Breite des Musters, der Dicke oder der Länge der Pfeillinien, gemäß der Stärke der Änderung in der Wellenformbewegung leichter verständlich gemacht werden. Ferner, ebenfalls in dem Fall der Höhenänderungsdaten die durch Integrieren der Bewegungsänderung erhalten werden, kann die Höhenänderung ähnlich leichter verständlich gemacht werden, beispielsweise durch Ändern der Farbe zu einer helleren oder durch Verlängern der Pfeillänge in Proportion zur Steigerung in der Höhe, die die Punkte sich hoch bewegt haben.
  • Der Ausgabeinformationserzeugungsbereich 24 ist ebenfalls aufgebaut, um die Volumenänderungsmenge der Person 2 zu berechnen. Die Volumenänderungsmenge kann von der Höhenänderungsgröße als Veränderungsinformation berechnet werden. In diesem Fall kann beispielsweise die absolute Summe der Höhenänderungsgröße als Volumenänderungsgröße angenommen werden. Das Berechnen der Volumenänderungsgröße in dieser Art macht es möglich, beispielsweise die Inhalationsmenge herauszufinden, wenn die Person 2 atmet. Die berechnete Volumenänderungsgröße wird berechnet, um sie in die Analyseinformation einzubringen und auf der Anzeige 40 anzuzeigen. Im Fall, dass keine Anzeige auf der Anzeige 40 gemacht wird, kann es so angeordnet werden, dass die Information in einem elektronischen Medium gespeichert wird (hier der Speicherbereich 31) oder ähnliches.
  • Wie für die Volumenänderungsgröße, im Fall, dass die Volumenänderungsgröße periodisch auftritt, ist es möglich, die absolute Summe der Bewegung für einen Zyklus durch Integrieren der Absolutwerte über eine Periode zu erhalten (da die Datenerhaltung in konstanten Intervallen ausgeführt wird, tatsächlich durch Aufsummieren der Daten). Im Fall der Atemerkennung entspricht die Hälfte dem Atemvolumen. Im Fall, dass die Daten für eine Periode oder eine halbe Periode aufsummiert werden, ist es bevorzugt, den Start und den Endpunkt der Periode wie folgt festzulegen: Ein Bewegungsdurchschnitt für einige Zeiten von erhaltenen Volumenänderungsgrößen wird berechnet. Ein Zeitpunkt, an dem die Wertänderung vom Negativen zum Positiven oder vom Positiven zum Negativen geht, wird als Startpunkt oder Endpunkt angenommen. In dieser Art werden Fehler im Timing des Starts und des Endpunkts verhindert der Zeitverschiebung des Übergangs zwischen positiven und negativen Werten, die durch Störungen auftritt, die in den Volumenänderungsgrößenwerten enthalten sind.
  • Der Ausgabeinformationserzeugungsbereich 24 ist ebenfalls aufgebaut, um die Veränderungsinformationen gemäß der externen Gestaltinformation, in diesem Fall der 3-D-Gestalt, zu korrigieren. Vorliegend muss die Höhenveränderungsgröße als Veränderungsinformation korrigiert werden.
  • Wieder unter Bezugnahme auf 4 wird die Korrektur beschrieben. Wie aus Gleichung (3) gesehen werden kann, die mit 8 beschrieben wurde, wird die Entfernung h zwischen der Bildlinse 13a und der ebenen Oberfläche 102 benötigt, um die Höhe des Objekts zu berechnen. Ebenso, auch in dem Fall, dass die Höhenänderungsgröße berechnet wird, ist ein angemessener Abstand h gesetzt und wird verwendet, um die Höhenänderungsgröße aus der Gleichung (3) zu berechnen. Während dies in den allermeisten Fällen kleine Probleme aufwirft, muss im Fall, dass detailliertere Messungen gemacht werden müssen, die genaue Entfernung zu dem Punkt, auf den der helle Punkt projiziert ist, bekannt sein. D.h., dass der Abstand h zwischen der Bildlinse 13a und dem Festkörper 103 an jedem Messpunkt bekannt sein muss.
  • Daher korrigiert der Ausgabeinformationserzeugungsbereich 24 die Höhenänderungsgröße unter Verwendung der mit dem 3-D-Gestalterzeugungsbereich 22 erhaltenen 3-D-Gestalt. Unter der Annahme, dass die Höhe der Person 2 an jedem Punkt, der die 3-D-Gestalt ausbildet, h' sein soll, wird die Höhenänderungsgröße entsprechend zu jedem Punkt korrigiert.
  • Ein spezielleres Beispiel wird beschrieben. Beispielsweise wird angenommen, dass: Die Basislänge des zweiten FG Sensors 10b 600 mm ist, der fokale Abstand der Bildlinse 13a der zweiten Bildeinfangvorrichtung 12b 12 mm ist und der Abstand h zwischen der Bildlinse 13a und der ebenen Oberfläche 102 2,3 m ist. Wenn ein heller Punkt auf die Bildebene 15' sich um 5 μm verschiebt, wird eine Höhenänderungsgröße um 3,67 mm berechnet. Wenn angenommen wird, dass der Abstand zwischen der Bildlinse 13a und dem Festkörper 103 2 m ist (oder die Höhe des Festkörpers 103 ist 0,3 m) und dieses wird als h verwendet, ist die Höhenänderungsgröße, die berechnet wird, 2,77 mm. Der Unterschied von 1,1 mm in der Höhenänderungsgröße ist der Messfehler.
  • Wie oben beschrieben, da der Ausgabeinformationserzeugungsbereich 24 die Höhenänderungsgröße durch die obere Korrektur durch Verwenden des genauen Abstands h berechnen kann, ist es möglich, eine genauere Höhenänderungsmenge herauszufinden. Ferner ist es möglich, die Volumenänderung der Person 2 durch Berechnen der Volumenänderung gemäß der Höhenänderungsgröße genauer zu messen, die wie oben beschrieben korrigiert wurde. Dies ist sehr effektiv beim Messen der Größe von kleinen Bewegungen, wie beispielsweise Atmen.
  • Unter nochmaliger Bezugnahme auf 3 ist ein Bewegungsunterscheidungsbereich 35 in dem Steuerbereich 21 zum Festlegen der Art der Bewegung der Person 2 vorgesehen, basierend auf den Bewegungsinformationen, die mit der Messeinrichtung 14 des zweiten FG Sensors 10b gemessen wurden. D.h., dass der Bewegungsunterscheidungsbereich 25 die Art der Bewegung der Person 2, basierend auf den Bewegungsinformationen unterscheidet, d.h., die Bewegung in Höhenrichtung der Person 2, gemessen an einer Vielzahl von Messpunkten mit der Messeinrichtung 14. Die Art der Bewegung der Person 2, die mit dem Bewegungsunterscheidungsbereich 25 festgelegt werden soll, sind typischerweise: Atmen, Körperbewegung, und Immobilität (ohne Bewegung). Der Bewegungsunterscheidungsbereich 25 ist ferner aufgebaut, so dass er das Atmen der Person 2, basierend auf den Bewegungsinformationen erkennt. Die Körperbewegung ist diejenige der Person 2, wobei das Konzept allgemein beispielsweise die Bewegung von Armen und Beinen sowie das Aufstehen und das Sitzen beinhaltet.
  • Es ist bevorzugt den Bewegungsunterscheidungsbereich 25 so aufzubauen, dass er das Atmen der Person 2, im Fall, dass das Atmen erkannt wird, erfasst. Die Atemerfassung mit dem Bewegungsunterscheidungsbereich 25 kann derart angeordnet sein, dass sie das Atmen durch Festlegen erfasst, ob oder ob nicht eine Bewegung ein Atmen ist mittels des Festlegens oberer und unterer Grenzwerte für die Amplitude und/oder der Periode (Frequenz) der periodischen Änderung in der Zeit in den oberen Durchschnittswerten, und Festlegen, ob oder ob nicht ein Atmen vorliegt durch Vergleichen mit den Grenzwerten. Die oberen und unteren Grenzwerte der Periode können festgelegt werden auf einen Bereich, der beispielsweise die Periode von menschlichem Atmen beinhaltet, wie beispielsweise fünf Zyklen pro Minute als einen unteren Grenzwert und 60 Zyklen pro Minute als einen oberen Grenzwert. Im Übrigen, während die Anzahl der Atmungen im bereich von etwa 5 bis 30 pro Minute für Erwachsene sind, neigt sie dazu, für Kinder größer zu sein. Die erfassten Atmungen der Person 2 bilden ein Wellenformmuster.
  • 11 zeigt ein Beispiel eines Atemwellenformmusters.
  • Ferner ist der Bewegungsunterscheidungsbereich 25 ausgebildet, um die Anzahl der Atmungen zu erfassen. Die Anzahl der Atmungen kann beispielsweise durch Durchführen von Datenprozessen, wie eine Fourier-Transformation der Änderung in der Zeit in der absoluten Summe der Verschiebungsgröße der hellen Punkte in dem Bereich, in dem die Bewegung als Atembewegung festgelegt wird, erfasst werden.
  • In dem Steuerbereich 21 ist ferner ein Abweichungsfestlegungsbereich 26 zum Festlegen der Abweichung der Person 2 basierend auf der Bewegung in Höhenrichtung der Person 2, gemessen mit der Messeinrichtung 14 des zweiten FG Sensors 10b, vorgesehen. Um es genauer zu sagen, legt der Abweichungsfestlegungsbereich 26 die Abweichung der Person 2 basierend auf den Ergebnissen des Atmens der Person 2 fest, der mit dem Bewegungsunterscheidungsbereich 25 erfasst wurde. Ferner ist der Abweichungsfestlegungsbereich 26 ebenfalls ein Bewegungsunterscheidungsmittel zum Festlegen der Abweichung der Person 2 basierend auf den Veränderungsinformationen, die mit dem Veränderungsinformationsrechenbereich 23 erhalten werden. Festlegen der Abweichung der Person 2 meint in diesem Fall, Festlegen ob die Person 2 oder ob die Person 2 nicht in einem kritischen Zustand ist.
  • Die Festlegungskriterien für den kritischen Zustand der Person 2 für den Abweichungsfestlegungsbereich 26 kann in Abwägung des Folgenden festgelegt werden. Beispielsweise, kann in einem Fall, dass die periodische Charakteristik des Atemmusters innerhalb einer kurzen Zeitperiode eine Fehlsteuerung zeigt oder abrupte Änderungen während des Atmens erfasst werden mit dem Bewegungsunterscheidungsbereich 25, wird das Auftreten von folgenden Fehlsteuerungen für möglich gehalten: Atemkrankheiten, wie eine Spontanpneumothorax und bronchiales Asthma; Herzkrankheiten, wie verstopfende Herzfehler; und cerebrovaskulare Krankheiten, wie Gehirnblutung. Daher sollte die Abstimmung so gemacht werden, dass die oberen Zustände als kritisch festgelegt werden. Im Fall des andauernden Verschwindens des Atemmusters wird ein Anhalten des Atmens der Person 2 angenommen. Daher sollte die Abstimmung so gemacht werden, dass dieser Zustand als kritisch festgelegt wird. Im Fall, dass die Körperbewegung häufiger als das Atemmuster innerhalb einer kurzen Zeitperiode auftritt, wird eine Situation angenommen, in der sich die Person 2 aufgrund irgendwelcher Gründe unter Schmerzen schüttelt. Daher sollte die Abstimmung so gemacht werden, dass sie diesen Zustand als kritisch festlegt.
  • Die oberen Festlegungsergebnisse mit dem Abweichungsfestlegungsbereich 26 werden gemacht, um auf der Anzeige 40 angezeigt zu werden. Der Abweichungsfestlegungsbereich 26 gibt die Festlegungsergebnisse an den Ausgabeinformationserzeugungsbereich 24 aus. In diesem Fall erzeugt der Ausgabeinformationserzeugungsbereich 24 Analyseinformationen, die die Festlegungsergebnisse beinhalten, und gibt diese an die Anzeige 40 aus. In dieser Art, wenn die Festlegungsergebnisse, die mit dem Abweichungsfestlegungsbereich 26 erzeugt wurden, auf der Anzeige 40 angezeigt werden, kann beispielsweise ein Messbediener einfach eine Anomalie an der Person 2 erkennen.
  • Während die obere Beschreibung unter der Annahme gemacht wurde, dass das Muster, das auf das Bett 3 projiziert wurde, aus einer Vielzahl von hellen Punkten gemacht ist, kann das Muster aus hellen Linien, wie in 12 gezeigt, gemacht werden. D.h., die Bewegung in Höhenrichtung der Person 2 kann gemessen werden durch Verwendung von optischer Tomographie. In diesem Fall wird eine Projizierungseinrichtung 111 verwendet, die so aufgebaut ist, dass sie ein Linienmuster von hellen Linien auf das Bett 3 projiziert. Während die Anzahl der hellen Linien, die projiziert werden, typischerweise mehrere sind, kann sie auch einzeln sein. Im Fall einer einzelnen hellen Linie kann ein Verfahren des Scannens mit einer einzelnen hellen Linie verwendet werden. Das Folgende ist eine Erklärung des Verwendens einer Vielzahl von hellen Linien. Die hellen Linien 111b werden in gleichen Intervallen projiziert. Die hellen Linien 111b bilden ein Muster 111a' aus. Die Richtung der hellen Linien 111b sind annähernd vertikal zur Basislinie der Triangulation.
  • Wenn die hellen Linien verwendet werden wie in 13 gezeigt, wie wenn die hellen Punkte wie in 5 erklärt, verwendet werden, aufgrund des Vorhandenseins eines Festkörpers mit einer Höhe, verschiebt sich das Bild einer hellen Linie, welches auf eine Bildebene 15' des Bildsensors 15 abgebildet wurde, durch eine Größe δ in Richtung der Y-Achse. Im Übrigen können ferner die Positionen auf dem Festkörper durch das Messen von δ in drei Dimensionen spezifiziert werden. Das Messen von δ wird auf der Zentrumslinie des Bildes der hellen Linien ausgeführt. Wenn die hellen Linien verwendet werden, entspricht der Messpunkt einem Pixel des Bildsensors 15, das auf dem Bild der hellen Linie angeordnet ist.
  • Wie oben beschrieben, macht es das Verwenden des Lichtmusters einer Vielzahl von hellen Linien und das Messen der Verschiebung der hellen Linien möglich, nicht wie bei der Verwendung des Lichtmusters einer Vielzahl von hellen Punkten, die Bewegung von irgendeinem Punkt auf der hellen Linie zu messen, so dass eine kontinuierliche Gestalt entlang der hellen Linie in Richtung erkannt werden kann. In anderen Worten wird die Messauflösung in Richtung der hellen Linie verbessert.
  • Während die Person 2 als ein Objekt in der oberen Erklärung verwendet wurde, kann das Objekt eine Maschine wie ein Elektromotor sein. In diesem Fall ist es möglich, relativ kleine Bewegungen des Motors, eine Vibration, zu messen.
  • Ferner verwenden in der oberen Erklärung der erste 3-D-Sensor und der zweite 3-D-Sensor eine gewöhnliche Projektionseinrichtung. Die Anordnung ist allerdings nicht auf das oben Genannte beschränkt, sondern kann eine gewöhnliche Bildeinfangvorrichtung verwenden, die sowohl als die erste und als die zweite Bildeinfangvorrichtung dient und dann zwei Projektionseinrichtungen verwenden. In anderen Worten, in 1 wie oben beschrieben, im ersten FG Sensor 10a und im zweiten FG Sensor 10b ist die Projektionseinrichtung 11 gewöhnlich. Jedoch kann sie angeordnet werden, wie in 14 gezeigt, dass der erste FG Sensor 10a eine erste Projektionseinrichtung 11-1, der zweite FG Sensor 10b eine zweite Projektionseinrichtung 11-2 hat, und die erste und die zweite Bildeinfangvorrichtung 12a und 12b werden mit einer gewöhnlichen Bildeinfangvorrichtung 12 ersetzt.
  • In diesem Fall werden der erste FG Sensor 10a und der zweite FG Sensor 12b so platziert, dass die erste Projektionseinrichtung 11-1 und die Bildeinfangvorrichtung 12 in etwa über dem Zentrum des Bettes 3 angeordnet sind, und die zweite Projektionseinrichtung 11-2 in etwa über dem Kopf der Person 2 angeordnet ist. Die erste Projektionseinrichtung 11-1 wird in einem Abstand d1 von der Bildeinfangvorrichtung 12 und die zweite Projektionseinrichtung 11-2 in einem zweiten Abstand d2 platziert.
  • Ferner sind in diesem Fall die projizierten Muster nicht gemeinsam. D.h., da das Muster 11a aus der ersten Projektionseinrichtung 11-1 projiziert wird und das Muster 11a' aus der zweiten Projektionsrichtung 11-2, ist der Prozess des Zusammenstellens der 3-D-Gestalt und der Veränderungsinformationen mit dem Ausgabeinformationserzeugungsbereich 24 etwas unterschiedlich. Und zwar wird die Zusammenstellung, die den Ausgabeinformationserzeugungsbereich 24 verwendet, gemacht, um die 3-D-Gestalt und die Veränderungsinformationen zusammenzusetzen, so dass sich die Koordinaten auf dem Bett 3 entsprechen, eher als die Messpunkte des FG Sensors 10 einander entsprechen. In dieser Art werden die 3-D-Gestalt und die Veränderungsinformationen genau zusammengesetzt, selbst wenn Unterschiede in der Position der projizierten Muster und in der Neigung der hellen Punkte zwischen den FG Sensoren 10 ist.
  • Ferner in diesem Fall, wenn ein Bild des Musters mit der Bildeinfangvorrichtung 12 eingefangen wird, ist es notwendig zu unterscheiden, ob die erste Projektionseinrichtung 11-1 oder die zweite Projektionseinrichtung 11-2 das Muster projiziert hat. Um dieses zu tun, kann sie beispielsweise so angeordnet sein, dass beide der Projektionseinrichtungen die Muster nicht gleichzeitig projizieren. Das eingefangene Bild, wenn das Muster 11a mit der ersten Projektionseinrichtung 11-1 projiziert wird, und das eingefangene Bild, wenn das Muster 11a' mit der zweiten Projektionseinrichtung 11-2 projiziert wird, sollten getrennt ausgeführt werden. In dieser Art ist es möglich, die Verschiebung der Muster 11a und des Musters 11a' zu messen und die 3-D-Gestalt und die Verschiebungsinformation zu erhalten.
  • Wie oben beschrieben, im Fall, dass die einzelne Bildeinfangvorrichtung als die erste und die zweite Bildeinfangvorrichtung dient und zwei Projektionseinrichtungen verwendet werden, reduziert die gewöhnliche Verwendung einer einzelnen Bildeinfangvorrichtung beispielsweise die Größe der Bildausführung.
  • Wie oben beschrieben, da die Überwachungsvorrichtung 1 versehen ist mit: Dem ersten FG Sensor 10a, dem zweiten FG Sensor 10b, den 3-D-Gestalterzeugungsbereich 22 und dem Verschiebungsinformationsrechenbereich 23, ist es möglich, die 3-D-Gestalt der Person 2 basierend auf der Höheninformation zu erhalten, die mit dem ersten FG Sensor 10a erhalten wird, der den 3-D-Gestalterzeugungsbereich 22 verwendet, und die Veränderungsinformation an der Person 2 basierend auf der Bewegungsinformation zu erhalten, die mit dem zweiten FG Sensor 10b erhalten wird, der den Veränderungsinformationsrechenbereich 23 verwendet. Ferner macht es das Vorsehen des Ausgabeinformationserzeugungsbereichs 24 zum Zusammensetzen der 3-D-Gestalt und der Veränderungsinformationen möglich, ein Bild zu erzeugen, welches es leicht erkennbar macht, welcher Punkt sich auf dem Körper der Person 2 beispielsweise aufwärts oder abwärts bewegt. Das ermöglicht das einfache und genaue Erkennen des Zustandes, genauer gesagt des Atemzustands der Person 2.
  • Da der erste FG Sensor 10a ein relativ kurzes Platzierungsintervall (Basislinienlänge) zwischen der Projektionseinrichtung und der Bildeinfangvorrichtung hat, tritt der Sprung des hellen Punkts, der vorher beschrieben wurde, weniger wahrscheinlich auf, so dass es passend zum Messen, beispielsweise, der externen Gestalt der Person 2 ist. Ferner, da der zweite FG Sensor 10b ein größeres Platzierungsintervall zwischen der Projektionseinrichtung und der Bildeinfangvorrichtung (Basislinienlänge) im Vergleich mit dem ersten FG Sensor 10a hat, ist es möglich, selbst eine kleine Bewegung, wie das Atmen der Person 2 genau zu messen.
  • Ferner, da der 3-D-Gestalterzeugungsbereich 22 die 3-D-Gestalt erzeugt, die das Erkennen der physischen Gestalt der Person 2 ermöglicht, ist der Zustand des Atmens leicht zu begreifen. Das Gebrauchen des FG Sensors 10 als den 3-D-Sensor, während es einfach ist, macht es möglich, die Bewegung in Höhenrichtung der Person 2 genau zu messen. Darüber hinaus, da der FG Sensor 10 Messungen ohne Kontakt machen kann, wird die Person, die vermessen wird, weniger gestresst.
  • Da der Ausgabeinformationserzeugungsbereich 24 die Veränderungsinformation gemäß der 3-D-Gestalt korrigiert, wird die Höhenveränderungsgröße der Person 2 genauer berechnet. Da die Volumenänderungsgröße gemäß zur Höhenveränderungsgröße berechnet wird, wird die Volumenänderungsgröße genauer berechnet.
  • Die Überwachungsvorrichtung 1 ist mit einer Anzeige zum Anzeigen der zusammengestellten Resultate des Ausgabeinformationserzeugungsbereich 24 versehen. Daher kann die Überwachungsvorrichtung 1 auf der Anzeige 40 die Ergebnisse anzeigen, die mit dem Ausgabeinformationserzeugungsbereich 24 zusammengestellt werden, anzeigen kann, die Analyseinformation, die durch Überlagern der Veränderungsinformationen, die die Körperbewegungen der Person 2 darstellen mit der 3-D-Gestalt erzeugt werden, und der äußeren Körpergestalt der Person 2. Daher kann die Bewegung von jedem Punkt auf dem menschlichen Körper (im Besonderen Atmungsbewegung) leicht erkannt werden. Dies kann nützlich als eine Referenz für die Diagnose von Ärzten sein.
  • Darüber hinaus, da der 3-D-Gestalterzeugungsbereich 22 für fehlende Punkte auf der 3-D-Gestalt interpoliert, wird eine durchgehende äußere Gestalt der Person 2 erhalten, selbst wenn Messpunkte in großen Intervallen angeordnet sind.

Claims (6)

  1. Dreidimensionale-Gestalt-Vermessungsvorrichtung, umfassend: einen ersten dreidimensionalen Sensor (10a), der eine Projektionseinrichtung (11) zum Projizieren eines Lichtmusters (11a) auf eine Zielfläche und der eine Bildeinfangvorrichtung (12a) hat, die in einem ersten Abstand von der Projektionseinrichtung (11) platziert ist, so dass sie ein Bild der Zielfläche einfängt, auf die das Lichtmuster projiziert wird; einen zweiten dreidimensionalen Sensor (10b), der eine Projektionseinrichtung (11) zum Projizieren eines Lichtmusters (11b) auf eine Zielfläche und der eine Bildeinfangvorrichtung (12b) hat, die in einem zweiten Abstand, der größer als der erste Abstand ist, von der Projektionseinrichtung (11) platziert ist, so dass sie ein Bild der Zielfläche einfängt, auf die das Lichtmuster (11b) projiziert wird; ein dreidimensionale-Informations-Rechenmittel (20, 22) zum Erhalten von Informationen über die äußere Gestalt eines Objekts (2), welches im Zielbereich vorhanden ist, basierend auf einer ersten Veränderung des Musters an einem Bild, welches mit dem ersten dreidimensionalen Sensor (10a) erhalten wird, in dem die erste Veränderung des Musters eine Veränderung von einem Basisbild ist, welches zu einem Zeitpunkt eingefangen wird, an dem das Objekt nicht in dem Zielbereich vorhanden ist, zu einem eingefangenen Bild, welches zu einem beliebigen Zeitpunkt eingefangen wird, an dem das Objekt in dem Zielbereich vorhanden ist; und Veränderungsinformatiosrechenmittel (20, 23) zum Erhalten von Veränderungsinformationen des Objekts mit den Informationen über die äußere Gestalt, basierend auf einer zweiten Veränderung des Musters an dem Bild, welches mit dem zweiten dreidimensionalen Sensor (12b) erhalten wird, in dem die zweite Veränderung des Musters eine Veränderung von einem Referenzbild ist, welches zu einem ersten beliebigen Zeitpunkt eingefangen wird, zu dem das Objekt in dem Zielbereich vorhanden ist, zu einem eingefangenen Bild, welches zu einem beliebigen zweiten Zeitpunkt nach dem ersten beliebigen Zeitpunkt mit genügend Zeitabstand zum Erfassen einer Bewegung des Objekts eingefangen wird und zu dem das Objekt in dem Zielbereich vorhanden ist; und Informationszusammenstellmittel (24) zum Zusammenstellen der Informationen über die äußere Gestalt und der Veränderungsinformationen.
  2. Dreidimensionale-Gestalt-Vermessungsvorrichtung nach Anspruch 1, in der die Informationszusammenstellmittel (24) die Veränderungsinformationen basierend auf den Informationen der äußeren Gestalt korrigieren.
  3. Dreidimensionale-Gestalt-Vermessungsvorrichtung nach Anspruch 1 oder 2, in der die Informationszusammenstellmittel (24) die Zusammenstellung durchführen, um die Bewegung jedes Punktes des Objekts herauszufinden.
  4. Dreidimensionale-Gestalt-Vermessungsvorrichtung nach einem der Ansprüche 1-3, ferner umfassend Informationsausgabemittel (40) zum Anzeigen der zusammengestellten Ergebnisse der Informationszusammenstellmittel.
  5. Dreidimensionale-Gestalt-Vermessungsvorrichtung nach einem der Ansprüche 1-4, in der das Lichtmuster (11a, 11b) eine Anordnung von hellen Punkten ist.
  6. Dreidimensionale-Gestalt-Vermessungsvorrichtung nach einem der Ansprüche 1-5, in der die dreidimensionale-Informations-Rechenmittel (22) eine Interpolation für die Punkte durchführt, an denen die Information über die äußere Gestalt fehlt.
DE602004009077T 2003-06-09 2004-06-03 Einrichtung zur messung dreidimensionaler formen Expired - Lifetime DE602004009077T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003163503A JP3738291B2 (ja) 2003-06-09 2003-06-09 三次元形状測定装置
JP2003163503 2003-06-09
PCT/JP2004/007717 WO2004109228A1 (ja) 2003-06-09 2004-06-03 三次元形状測定装置

Publications (2)

Publication Number Publication Date
DE602004009077D1 DE602004009077D1 (de) 2007-10-31
DE602004009077T2 true DE602004009077T2 (de) 2008-06-19

Family

ID=33508757

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004009077T Expired - Lifetime DE602004009077T2 (de) 2003-06-09 2004-06-03 Einrichtung zur messung dreidimensionaler formen

Country Status (7)

Country Link
US (1) US7630537B2 (de)
EP (1) EP1645841B8 (de)
JP (1) JP3738291B2 (de)
AU (1) AU2004245815B2 (de)
CA (1) CA2528824A1 (de)
DE (1) DE602004009077T2 (de)
WO (1) WO2004109228A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014218140B3 (de) * 2014-09-10 2016-03-10 Ait Austrian Institute Of Technology Gmbh Verfahren und Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe einer Person
AT522841A1 (de) * 2019-07-17 2021-02-15 Ait Austrian Inst Tech Gmbh Verfahren zur Detektion der Intensität und/oder des Ausmaßes der Körperbewegungen einer Person

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3782815B2 (ja) * 2004-02-04 2006-06-07 住友大阪セメント株式会社 呼吸解析装置
DE102005013042A1 (de) 2005-03-18 2006-09-28 Siemens Ag Einrichtung zur Erzeugung von 3D-Fluoreszenz-oder Lumineszenz-Scans
US8848035B2 (en) * 2005-10-04 2014-09-30 Motion Analysis Corporation Device for generating three dimensional surface models of moving objects
JP2008154655A (ja) * 2006-12-21 2008-07-10 Keio Gijuku 呼吸機能測定装置及びプログラム
DE102007006566A1 (de) * 2007-02-09 2008-08-14 Siemens Ag Verfahren zur zentralen Überwachung sowie Anordnung zur Aufnahme, Auswertung und selektiven Anzeige von Bildern ruhender Personen
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
GB0822605D0 (en) 2008-12-11 2009-01-21 Pneumacare Ltd Method and apparatus for monitoring an object
WO2010099593A1 (en) 2009-03-06 2010-09-10 Atreo Medical, Inc. Measurement of a compression parameter for cpr on a surface
WO2011011633A2 (en) * 2009-07-22 2011-01-27 Atreo Medical, Inc. Optical techniques for the measurement of chest compression depth and other parameters during cpr
JP2011033507A (ja) * 2009-08-03 2011-02-17 Renesas Electronics Corp 3次元計測装置
EP2533679B1 (de) * 2010-02-12 2017-01-11 Koninklijke Philips N.V. Laserverstärkte rekonstruktion von 3d-oberflächen
EP2380493A1 (de) * 2010-04-21 2011-10-26 Koninklijke Philips Electronics N.V. Vorrichtung zur Erkennung der Atembewegung
US8670029B2 (en) * 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
JP5187364B2 (ja) * 2010-08-24 2013-04-24 カシオ計算機株式会社 回折光学素子、並びに測距装置及び測距方法
JP5163713B2 (ja) 2010-08-24 2013-03-13 カシオ計算機株式会社 距離画像センサ及び距離画像生成装置並びに距離画像データ取得方法及び距離画像生成方法
WO2012040554A2 (en) 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system
JP5655021B2 (ja) 2011-03-29 2015-01-14 富士フイルム株式会社 光音響画像化方法および装置
CN102223553B (zh) * 2011-05-27 2013-03-20 山东大学 一种二维视频到三维视频的自动转换方法
CN103608854B (zh) * 2011-05-30 2016-12-28 皇家飞利浦有限公司 用于在睡眠时检测身体姿势的设备和方法
JP5984409B2 (ja) * 2012-02-03 2016-09-06 キヤノン株式会社 三次元計測システム及び方法
US9301710B2 (en) * 2012-06-01 2016-04-05 Xerox Corporation Processing a video for respiration rate estimation
JP6150231B2 (ja) * 2012-07-24 2017-06-28 公立大学法人広島市立大学 心拍計測方法および装置
WO2014059681A1 (zh) * 2012-10-20 2014-04-24 因美吉智能科技(济南)有限公司 非接触式儿科测量方法和测量设备
TR201811449T4 (tr) * 2012-11-07 2018-09-21 Artec Europe S A R L Üç boyutlu nesnelerin doğrusal boyutlarını gözetlemek için yöntem.
US9291877B2 (en) 2012-11-15 2016-03-22 Og Technologies, Inc. Method and apparatus for uniformly focused ring light
JP2014119427A (ja) * 2012-12-19 2014-06-30 Fujitsu Semiconductor Ltd スポット探索装置、スポット探索方法
WO2015104763A1 (ja) * 2014-01-07 2015-07-16 ソニー株式会社 分析システム、分析プログラム及び分析方法
GB2522452B (en) * 2014-01-24 2017-07-19 Chapelglade Ltd System for measuring body characteristics relevant for mattress selection
US9589359B2 (en) * 2014-04-24 2017-03-07 Intel Corporation Structured stereo
US9814410B2 (en) * 2014-05-06 2017-11-14 Stryker Corporation Person support apparatus with position monitoring
FR3026933A1 (fr) * 2014-10-09 2016-04-15 Inst Nat De La Sante Et De La Rech Medicale (Inserm) Dispositif et procede de caracterisation de l'activite respiratoire d'un mammifere
JP6248917B2 (ja) * 2014-12-11 2017-12-20 カシオ計算機株式会社 立体形成方法、立体形成装置、及び、プログラム
CN104596439A (zh) * 2015-01-07 2015-05-06 东南大学 一种基于相位信息辅助的散斑匹配三维测量方法
US10766761B2 (en) 2016-01-13 2020-09-08 Airweave Inc. Three-dimensional filaments-linked structure manufacturing apparatus, manufacturing method of three-dimensional filaments-linked structure, and mattress core material
JP6839799B2 (ja) * 2016-03-03 2021-03-10 パナソニックIpマネジメント株式会社 情報端末装置の制御方法、体動測定装置、及び、プログラム
FI127962B (en) * 2017-04-10 2019-06-14 Sorvi Consulting Oy DEVICE, METHOD AND COMPUTER SOFTWARE FOR MANAGING PHYSICAL TRAINING
JP6956899B2 (ja) * 2018-11-26 2021-11-02 三菱電機株式会社 表示データ生成装置、表示データ生成方法、および表示データ生成プログラム
JP2020094976A (ja) * 2018-12-14 2020-06-18 本田技研工業株式会社 凹凸検査方法及び凹凸検査装置
GB201914842D0 (en) * 2019-10-14 2019-11-27 Binatone Electronics Int Ltd Breathing detection apparatus and methods for detecting breathing
EP4403125A1 (de) * 2023-01-18 2024-07-24 Avatar Medical Computerimplementiertes verfahren zur medizinischen führung eines benutzers bei der validierung einer von einem behandlungsplanungssystem bereitgestellten behandlungsdosisverteilung

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4947152A (en) * 1986-02-10 1990-08-07 Mesa Vista Hospital Patient monitoring system
US4882566A (en) * 1988-08-03 1989-11-21 Hill-Rom Company, Inc. Safety control system for a hospital bed
DE69128225T2 (de) * 1990-03-09 1998-03-19 Matsushita Electric Ind Co Ltd Vorrichtung zur anzeige des schlafens
JP3051279B2 (ja) * 1993-05-13 2000-06-12 シャープ株式会社 バンプ外観検査方法およびバンプ外観検査装置
US5528339A (en) * 1994-08-26 1996-06-18 Eastman Kodak Company Color image reproduction of scenes with color enhancement and preferential tone mapping
US5471198A (en) * 1994-11-22 1995-11-28 Newham; Paul Device for monitoring the presence of a person using a reflective energy beam
DE19638727A1 (de) * 1996-09-12 1998-03-19 Ruedger Dipl Ing Rubbert Verfahren zur Erhöhung der Signifikanz der dreidimensionalen Vermessung von Objekten
US6075883A (en) * 1996-11-12 2000-06-13 Robotic Vision Systems, Inc. Method and system for imaging an object or pattern
US6011477A (en) * 1997-07-23 2000-01-04 Sensitive Technologies, Llc Respiration and movement monitoring system
US6011595A (en) * 1997-09-19 2000-01-04 Eastman Kodak Company Method for segmenting a digital image into a foreground region and a key color region
JP3263035B2 (ja) 1997-11-21 2002-03-04 東芝エンジニアリング株式会社 呼吸モニタリングの関心領域設定装置および呼吸モニタリングシステム
US5914660A (en) * 1998-03-26 1999-06-22 Waterview Llc Position monitor and alarm apparatus for reducing the possibility of sudden infant death syndrome (SIDS)
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual
JP3820811B2 (ja) * 1999-08-02 2006-09-13 株式会社デンソー 呼吸器系疾患のモニタ装置
US7167575B1 (en) * 2000-04-29 2007-01-23 Cognex Corporation Video safety detector with projected pattern
US7106885B2 (en) * 2000-09-08 2006-09-12 Carecord Technologies, Inc. Method and apparatus for subject physical position and security determination
JP3677444B2 (ja) * 2000-10-16 2005-08-03 住友大阪セメント株式会社 三次元形状測定装置
JP3689720B2 (ja) 2000-10-16 2005-08-31 住友大阪セメント株式会社 三次元形状測定装置
JP2002131017A (ja) * 2000-10-27 2002-05-09 Honda Motor Co Ltd 距離測定装置、及び距離測定方法
JP2002164066A (ja) * 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP3477166B2 (ja) * 2000-12-07 2003-12-10 学校法人慶應義塾 監視装置
WO2002102242A1 (en) 2001-06-15 2002-12-27 Sumitomo Osaka Cement Co., Ltd. Monitoring apparatus
JP3922694B2 (ja) 2001-06-15 2007-05-30 住友大阪セメント株式会社 監視装置
JP4703049B2 (ja) * 2001-07-17 2011-06-15 住友大阪セメント株式会社 監視装置
US7110596B2 (en) * 2002-04-25 2006-09-19 Microsoft Corporation System and method facilitating document image compression utilizing a mask
JP3979238B2 (ja) 2002-09-05 2007-09-19 住友大阪セメント株式会社 空間内監視装置
JP3764949B2 (ja) * 2003-06-09 2006-04-12 住友大阪セメント株式会社 状態解析装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014218140B3 (de) * 2014-09-10 2016-03-10 Ait Austrian Institute Of Technology Gmbh Verfahren und Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe einer Person
AT522841A1 (de) * 2019-07-17 2021-02-15 Ait Austrian Inst Tech Gmbh Verfahren zur Detektion der Intensität und/oder des Ausmaßes der Körperbewegungen einer Person

Also Published As

Publication number Publication date
EP1645841B1 (de) 2007-09-19
EP1645841A4 (de) 2006-09-06
JP2005003367A (ja) 2005-01-06
US20060239538A1 (en) 2006-10-26
DE602004009077D1 (de) 2007-10-31
EP1645841A1 (de) 2006-04-12
US7630537B2 (en) 2009-12-08
JP3738291B2 (ja) 2006-01-25
EP1645841B8 (de) 2007-11-07
AU2004245815B2 (en) 2010-08-19
WO2004109228A1 (ja) 2004-12-16
CA2528824A1 (en) 2004-12-16
AU2004245815A1 (en) 2004-12-16

Similar Documents

Publication Publication Date Title
DE602004009077T2 (de) Einrichtung zur messung dreidimensionaler formen
EP1078219B1 (de) Erfassung der räumlichen struktur einer dreidimensionalen oberfläche
DE102010000122B4 (de) Vorrichtung zum dreidimensionalen Messen
EP1290626B1 (de) Positioniereinheit
DE112007000009B4 (de) Musterdimensionsmessgerät und Musterflächenmessverfahren
DE10058244C2 (de) Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens
DE112013005794T5 (de) Dreidimensionaler Scanner und Betriebsverfahren
CH680187A5 (de)
DE10163351C1 (de) Verfahren und Anordnung zur verzerrungsarmen Aufnahme von an einer Kontaktfläche durch gestörte Totalreflexion entstehenden Intensitätsmustern
EP3233691A1 (de) Positionsermittlungssystem für einen aufzug
DE10257424B4 (de) Vorrichtung und Verfahren zum Erfassen einer Drehung
DE102009026248A1 (de) Generierung eines Gesamtdatensatzes
DE102009055626A1 (de) Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts
DE112017008125T5 (de) Bild-Synthesevorrichtung und Bild-Syntheseverfahren
DE19841682A1 (de) Vorrichtung und Verfahren zur Verbesserung der Scanqualität eines Scanners
WO2014121858A1 (de) Verfahren und vorrichtung zur verbesserung der saft-analyse bei unregelmässiger messung
WO2019197656A1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE69117617T2 (de) Entfernungsmessgerät
EP2504659B1 (de) Vorrichtung und verfahren zur messung und kompensation von bewegungseinflüssen bei phasenschiebe-profilometern und dessen anwendung auf mobile, freihandgeführte profilometrie
EP4049445A1 (de) Verfahren zur erzeugung eines ausgabesignals eines pdaf-bildpunkts
DE10248416B4 (de) Vorrichtung und Verfahren zur Bestimmung einer Relativbewegung eines Fahrzeugs
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
DE69513989T2 (de) Verfahren zur korrelation von-durch bilderfassungssystemen ausgefuhrten- dreidimensionalen messungen und anordnung zur durchfuhrung dieses verfahrens
DE10256725B3 (de) Sensor, Vorrichtung und Verfahren zur Geschwindigkeitsmessung
DE4422366C1 (de) Röntgendiagnostikeinrichtung

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: SATO, ISAO, YOKOHAMA-SHI, KANAGAWA

Inventor name: MIMURA, K., TOKYO

Inventor name: TAKEMURA, YASUHIRO, TOKYO

Inventor name: 1028465, JP

Inventor name: TAKESUE, TOSHIHARU, TOKYO

Inventor name: KATOU, KEI, TOKYO

Inventor name: 2230061, JP

Inventor name: AOKI, H., CHIBA 278-8510, JP

Inventor name: NAKAJIMA, M., YOKOHAMA-SHI, KANAGAWA

8364 No opposition during term of opposition