DE102011075877A1 - Evaluation method for a sequence of temporally successive depth images - Google Patents

Evaluation method for a sequence of temporally successive depth images Download PDF

Info

Publication number
DE102011075877A1
DE102011075877A1 DE102011075877A DE102011075877A DE102011075877A1 DE 102011075877 A1 DE102011075877 A1 DE 102011075877A1 DE 102011075877 A DE102011075877 A DE 102011075877A DE 102011075877 A DE102011075877 A DE 102011075877A DE 102011075877 A1 DE102011075877 A1 DE 102011075877A1
Authority
DE
Germany
Prior art keywords
person
area
evaluation method
determined
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011075877A
Other languages
German (de)
Inventor
Michael Fiegert
Georg von Wichert
Thomas Friese
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102011075877A priority Critical patent/DE102011075877A1/en
Priority to PCT/EP2012/056764 priority patent/WO2012156159A1/en
Publication of DE102011075877A1 publication Critical patent/DE102011075877A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

Eine Folge von Tiefenbildern (B’) zeigt jeweils mindestens eine Person (4) von vorne. In den Tiefenbildern (B’) wird jeweils mindestens ein Bereich (9) personenähnlicher Kontur ermittelt und der Person (4) zugeordnet. Es werden ein Basispunkt (10, 10’) des Bereichs (9) personenähnlicher Kontur im Raum ermittelt und ein Offsetvektor (11, 11’) bestimmt. Der vom Basispunkt (10, 10’) ausgehende Offsetvektor (11, 11’) weist eine in Bezug auf die Person (4) nach vorne zeigende Komponente auf. Eine Grenzfläche (14) des Raums trennt einen Teil des Bereichs (9) personenähnlicher Kontur (gemeinsamer Armbereich) vom Basispunkt (10, 10’). Die Grenzfläche (14) enthält den Offsetvektor (11, 11’) und verläuft spiegelsymmetrisch zu einer den Offsetvektor (11, 11’) enthaltenden Vertikalebene. Jeder Punkt der Grenzfläche (14) ist vom Basispunkt (10, 10’) mindestens um die Länge des Offsetvektors (11, 11’) beabstandet. Innerhalb des gemeinsamen Armbereichs werden Einzelarmbereiche (16, 17) ermittelt. Diese sind jeweils durch diejenigen Punkte (18) im dreidimensionalen Raum bestimmt ist, die zu mindestens einem anderen Punkt (19) desselben Einzelarmbereichs (16, 17) einen Abstand kleiner als ein Minimalabstand und zu allen anderen Punkten (20) des gemeinsamen Armbereichs einen Abstand größer als ein Maximalabstand aufweisen. Der Minimalabstand ist in etwa gleich einem Rastermaß des Raumes. Der Maximalabstand ist größer als das Rastermaß. Anhand der Einzelarmbereiche (16, 17) werden weitergehende Auswertungen der Tiefenbilder (B’) vorgenommen.A sequence of depth images (B ') shows at least one person (4) from the front. In the depth images (B ') at least one area (9) with a person-like contour is determined and assigned to the person (4). A base point (10, 10 ’) of the area (9) with a person-like contour in space is determined and an offset vector (11, 11’) is determined. The offset vector (11, 11 ’) starting from the base point (10, 10’) has a component that points forward in relation to the person (4). A boundary surface (14) of the room separates part of the area (9) with a person-like contour (common arm area) from the base point (10, 10 '). The interface (14) contains the offset vector (11, 11 ’) and runs mirror-symmetrically to a vertical plane containing the offset vector (11, 11’). Each point of the interface (14) is spaced from the base point (10, 10 ') at least by the length of the offset vector (11, 11'). Individual arm areas (16, 17) are determined within the common arm area. These are each determined by those points (18) in three-dimensional space that are less than a minimum distance from at least one other point (19) of the same individual arm area (16, 17) and a distance from all other points (20) of the common arm area greater than a maximum distance. The minimum distance is roughly equal to a grid dimension of the room. The maximum distance is larger than the grid dimension. Based on the individual arm areas (16, 17), further evaluations of the depth images (B ') are made.

Description

Die vorliegende Erfindung betrifft ein Auswertungsverfahren für eine Folge von zeitlich aufeinander folgenden Tiefenbildern, die jeweils mindestens eine Person von vorne zeigen. The present invention relates to an evaluation method for a sequence of temporally successive depth images, each showing at least one person from the front.

Die vorliegende Erfindung betrifft weiterhin ein Computerprogramm, das Maschinencode umfasst, der von einem Rechner unmittelbar abarbeitbar ist und dessen Abarbeitung durch den Rechner bewirkt, dass der Rechner ein derartiges Auswertungsverfahren ausführt. The present invention further relates to a computer program which comprises machine code which can be processed directly by a computer and whose execution by the computer causes the computer to carry out such an evaluation method.

Die vorliegende Erfindung betrifft weiterhin einen Rechner, der derart programmiert ist, dass er im Betrieb ein derartiges Auswertungsverfahren ausführt. The present invention further relates to a computer programmed to perform such an evaluation method during operation.

Die vorliegende Erfindung betrifft weiterhin eine Auswertungseinrichtung,

  • – wobei die Auswertungseinrichtung eine Kameraeinrichtung zur Erfassung einer Folge von zeitlich aufeinander folgenden Tiefenbildern aufweist,
  • – wobei die Auswertungseinrichtung einen Rechner aufweist, der mit der Kameraeinrichtung zur Entgegennahme und Auswertung der von der Kameraeinrichtung erfassten Bilder datentechnisch verbunden ist.
The present invention further relates to an evaluation device,
  • - wherein the evaluation device has a camera device for detecting a sequence of temporally successive depth images,
  • - wherein the evaluation device comprises a computer which is connected to the camera device for receiving and evaluating the captured images from the camera device data.

In unterschiedlichsten Anwendungsgebieten ist es oftmals sinnvoll, einen Rechner über Gesten zu steuern, d.h. berührungslos statt über Tastatur und Maus. Ein Beispiel eines derartigen Anwendungsgebiets ist die Medizin, bei der der Arzt beispielsweise im sterilen Operationssaal keine Tastatur verwenden kann. Ein weiteres Beispiel ist eine Gruppe von Ärzten, die bei einer Diagnose oder bei einer Operationsplanung gemeinsam vor einem großen Display stehen. Jeder Arzt bzw. allgemeiner jede Person soll effizient und ohne Ablenkung exakt markieren, die Darstellung anpassen oder Aktionen auslösen können. In a wide variety of application areas, it often makes sense to control a computer via gestures, i. contactless instead of keyboard and mouse. An example of such a field of application is medicine, where the physician can not use a keyboard, for example, in the sterile operating room. Another example is a group of physicians standing together in front of a large display during a diagnosis or surgical planning. Every doctor or, more generally, every person should be able to mark efficiently and without distraction exactly, to adapt the presentation or to trigger actions.

Ähnliche Probleme stellen sich für Arbeitsumgebungen, die entweder sehr sauber sein müssen (beispielsweise Reinräume) oder aber sehr schmutzig sind (beispielsweise Industriehallen). Similar problems arise for work environments that either have to be very clean (for example, clean rooms) or are very dirty (for example, industrial halls).

Gestensteuerung ist als Solche bekannt. Ein Überblick über den Stand der Technik findet sich in dem Fachaufsatz „Gesture Recognition: A Survey“ von Sushmita Mitra und Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 37, No. 3, May 2007, Seiten 311 bis 324 . Gesture control is known as such. An overview of the state of the art can be found in the technical article "Gesture Recognition: A Survey" by Sushmita Mitra and Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 3, May 2007, pages 311 to 324 ,

Im Stand der Technik erfolgt die Gestensteuerung alternativ berührungslos (meist durch Bildauswertung von Kamerabildern) oder mit der Notwendigkeit spezieller Kleidung oder Markierungen. In manchen Fällen müssen beispielsweise spezielle Handschuhe oder Controller in bzw. an der Hand getragen werden. In the prior art, the gesture control is alternatively non-contact (usually by image analysis of camera images) or with the need for special clothing or markings. In some cases, for example, special gloves or controllers must be worn in or on the hand.

Einem breiten Publikum ist das Konzept durch den Film „Minority Report“ aus dem Jahr 2002 bekannt geworden. In kommerziellen Produkten ist die Gestensteuerung im letzten Jahrzehnt in Form der WII Spielkonsole bekannt geworden. A broad audience is the concept through the film "Minority Report" from the year 2002 known. In commercial products, gesture control has become known in the last decade as the WII game console.

In jüngster Zeit ist auch das Produkt „Kinect“ der Firma Microsoft auf den Markt gekommen. Dieses Produkt stellt einen Sensor zuzüglich Auswertungssoftware zur Verfügung, welcher eine berührungslose Steuerung kostengünstig realisiert. Die dort verwendeten Auswertungsverfahren erfordern jedoch vom Bediener zu Beginn eine spezielle Kalibriergeste. Recently, the product "Kinect" Microsoft has come on the market. This product provides a sensor plus evaluation software, which realizes a non-contact control cost-effectively. However, the evaluation methods used there require the operator to start a special calibration gesture.

Die Aufgabe der vorliegenden Erfindung besteht darin, Möglichkeiten zu schaffen, mittels derer auf einfache und zuverlässige Weise eine berührungslose Steuerung durch geeignete Hand- und Armbewegungen möglich ist. Insbesondere soll ein vorheriges Kalibrieren nicht erforderlich sein. The object of the present invention is to provide opportunities by means of which a simple and reliable way a non-contact control by suitable hand and arm movements is possible. In particular, a previous calibration should not be required.

Die Aufgabe wird durch ein Auswertungsverfahren mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Auswertungsverfahrens sind Gegenstand der abhängigen Ansprüche 2 bis 18. The object is achieved by an evaluation method having the features of claim 1. Advantageous embodiments of the evaluation method according to the invention are the subject of the dependent claims 2 to 18.

Erfindungsgemäß ist bei einem Auswertungsverfahren der eingangs genannten Art vorgesehen,

  • – dass in den Tiefenbildern jeweils mindestens ein Bereich personenähnlicher Kontur ermittelt wird und der jeweilige Bereich personenähnlicher Kontur der Person zugeordnet wird,
  • – dass ein Basispunkt des Bereichs personenähnlicher Kontur im dreidimensionalen Raum ermittelt wird,
  • – dass ein Offsetvektor bestimmt wird,
  • – dass der vom Basispunkt ausgehende Offsetvektor eine Komponente aufweist, die in Bezug auf die Person nach vorne zeigt,
  • – dass derjenige Teil des Bereichs personenähnlicher Kontur, der durch eine Grenzfläche des dreidimensionalen Raums vom Basispunkt getrennt ist, als gemeinsamer Armbereich der Person definiert wird,
  • – dass die Grenzfläche den Offsetvektor enthält, spiegelsymmetrisch zu einer den Offsetvektor enthaltenden Vertikalebene verläuft und jeder Punkt der Grenzfläche vom Basispunkt mindestens um die Länge des Offsetvektors beabstandet ist,
  • – dass innerhalb des gemeinsamen Armbereichs Einzelarmbereiche ermittelt werden,
  • – dass jeder Einzelarmbereich durch diejenigen Punkte im dreidimensionalen Raum bestimmt ist, die zu mindestens einem anderen Punkt desselben Einzelarmbereichs einen Abstand aufweisen, der kleiner als ein Minimalabstand ist, und zu allen anderen Punkten des gemeinsamen Armbereichs einen Abstand aufweisen, der größer als ein Maximalabstand ist,
  • – dass der Minimalabstand in etwa gleich einem Rastermaß des dreidimensionalen Raumes ist und der Maximalabstand größer als das Rastermaß ist und
  • – dass anhand der Einzelarmbereiche weitergehende Auswertungen der Tiefenbilder vorgenommen werden.
According to the invention, in an evaluation method of the type mentioned in the introduction,
  • That at least one area of a person-like contour is determined in the depth images and the respective area of person-like contour is assigned to the person,
  • That a base point of the area of person-like contour is determined in three-dimensional space,
  • That an offset vector is determined
  • That the offset vector originating from the base point has a component pointing forward with respect to the person,
  • That the part of the area of person-like contour which is separated from the base point by an interface of the three-dimensional space is defined as the common arm area of the person,
  • In that the interface contains the offset vector, is mirror-symmetric to a vertical plane containing the offset vector, and each point of the interface is spaced from the base point by at least the length of the offset vector,
  • That individual arm areas are determined within the common arm area,
  • - that each single-arm area is determined by those points in three-dimensional space, have a distance that is smaller than a minimum distance to at least one other point of the same single arm area, and have a distance that is greater than a maximum distance to all other points of the common arm area,
  • - That the minimum distance is approximately equal to a grid dimension of the three-dimensional space and the maximum distance is greater than the grid and
  • - That on the basis of the Einzelarmbereiche further evaluations of the depth images are made.

Vorzugsweise ist vorgesehen, dass die weitergehenden Auswertungen der Einzelarmbereiche für den jeweiligen Einzelarmbereich eine auf statistischer Auswertung des jeweiligen Einzelarmbereichs basierende Ermittlung der Hauptachsen des jeweiligen Einzelarmbereichs umfassen. Dadurch kann auf besonders zuverlässige Weise die Hauptrichtung des Unterarms des jeweiligen Einzelarmbereichs ermittelt werden. Weiterhin kann dadurch auf einfache Weise – nämlich anhand der längsten der Hauptachsen des jeweiligen Einzelarmbereichs und des Offsetvektors – eine Handposition für den jeweiligen Einzelarmbereich ermittelt werden. It is preferably provided that the further evaluations of the individual arm areas for the respective individual arm area comprise a determination of the main axes of the respective individual arm area based on statistical evaluation of the respective individual arm area. As a result, the main direction of the forearm of the respective individual arm region can be determined in a particularly reliable manner. Furthermore, this makes it possible to determine a hand position for the respective individual arm area in a simple manner, namely on the basis of the longest of the main axes of the respective individual arm area and of the offset vector.

Zur weitergehenden Auswertung ist es möglich, dass eine Abmessung desjenigen Teils des jeweiligen Einzelarmbereichs, der innerhalb eines die jeweilige Handposition umgebenden Handbereichs liegt, ermittelt wird und dass eine Aktivierung einer Aktion erfolgt, wenn während einer vorbestimmten Anzahl aufeinander folgender Tiefenbilder die ermittelte Abmessung jeweils eine Mindestabmessung überschreitet. For further evaluation, it is possible for a dimension of that part of the respective individual arm region which lies within a hand region surrounding the respective hand position to be determined and for an action to be activated if the determined dimension has a minimum dimension during a predetermined number of successive depth images exceeds.

Eine Zuordnung der aufgefundenen Einzelarmbereiche zu den „richtigen“ Armen der Person ist dadurch einfach realisierbar, dass ein Schnittpunkt der längsten der Hauptachsen des jeweiligen Einzelarmbereichs mit einer den Basispunkt enthaltenden, orthogonal zum Offsetvektor verlaufenden Basisebene bestimmt wird und dass der jeweilige Einzelarmbereich je nachdem, ob der jeweilige Schnittpunkt in Bezug auf die Person links oder rechts des Basispunkts liegt, dem linken oder dem rechten Arm der Person zugeordnet wird. An association of the individual arm areas found to the "right" arms of the person can be realized simply by determining an intersection of the longest of the main axes of the respective single arm area with a base plane containing the base point orthogonal to the offset vector, and if the respective single arm area the point of intersection with respect to the person to the left or right of the base point is assigned to the left or right arm of the person.

Zur Ermittlung einer Position, auf welche die Person zeigt, kann in diesem Fall in der Basisebene anhand des Basispunkts und des Schnittpunkts ein Startpunkt ermittelt werden, der in Horizontalrichtung gesehen zwischen dem Basispunkt und dem Schnittpunkt liegt. Sodann kann ein Schnittpunkt einer durch den Startpunkt und die Handposition des jeweiligen Einzelarmbereichs bestimmten Verbindungslinie mit einer vorbestimmten, vor der Person verlaufenden Arbeitsebene ermittelt werden. Alternativ ist es möglich, dass ein Schnittpunkt der längsten der Hauptachsen des jeweiligen Einzelarmbereichs mit einer vorbestimmten, vor der Person verlaufenden Arbeitsebene ermittelt wird. In order to determine a position to which the person points, in this case a starting point can be determined in the base plane on the basis of the base point and the point of intersection, which lies in the horizontal direction between the base point and the point of intersection. Then, an intersection point of a connection line determined by the starting point and the hand position of the respective individual arm area can be determined with a predetermined working level extending in front of the person. Alternatively, it is possible for an intersection of the longest of the main axes of the respective individual arm region to be determined with a predetermined working plane extending in front of the person.

Die Bildauswertung liefert in der Regel bessere Ergebnisse, wenn die Tiefenbilder geeignet gefiltert werden. Zum Filtern bietet es sich insbesondere an, dass im Rahmen der Ermittlung des gemeinsamen Armbereichs und/oder im Rahmen der Ermittlung der Einzelarmbereiche störungsreduzierende morphologische Operationen durchgeführt werden. The image analysis usually gives better results when the depth images are filtered properly. For filtering, it is particularly appropriate for interference-reducing morphological operations to be carried out as part of the determination of the common arm area and / or within the scope of the determination of the individual arm areas.

Im Idealfall werden im Rahmen des erfindungsgemäßen Auswertungsverfahrens exakt zwei Einzelarmbereiche ermittelt. In der Praxis kann es aufgrund von Störungen jedoch geschehen, dass mehr oder weniger als zwei Einzelarmbereiche ermittelt werden. Zur weitergehenden Optimierung der Auswertung ist es möglich, dass für die Einzelarmbereiche eine jeweilige Anzahl an Punkten ermittelt wird, die im jeweiligen Einzelarmbereich enthalten sind, und dass im Rahmen der weiteren Auswertung nur diejenigen Einzelarmbereiche berücksichtigt werden, deren Anzahl an Punkten eine Mindestpunktzahl überschreitet. Alternativ ist es möglich, dass für die Einzelarmbereiche eine jeweilige Anzahl an Punkten ermittelt wird, die im jeweiligen Einzelarmbereich enthalten sind, und dass im Rahmen der weiteren Auswertung nur die Einzelarmbereiche mit der größten und der zweitgrößten Anzahl an Punkten berücksichtigt werden. Ideally, exactly two individual arm areas are determined within the scope of the evaluation method according to the invention. However, in practice, due to disturbances, more or less than two single-arm areas may be detected. For further optimization of the evaluation, it is possible for the individual arm areas to determine a respective number of points which are contained in the respective individual arm area and that in the further evaluation only those individual arm areas are considered whose number of points exceeds a minimum number of points. Alternatively, it is possible for the individual arm areas to determine a respective number of points which are contained in the respective individual arm area, and that in the further evaluation only the single arm areas with the largest and the second largest number of points are taken into account.

Die beiden letztgenannten Vorgehensweisen sind auch miteinander kombinierbar. Wenn – rein beispielhaft – vier Einzelarmbereiche ermittelt werden, bei denen die Anzahl an Punkten die Mindestpunktzahl überschreitet, werden nur die beiden Einzelarmbereiche mit der größten und der zweitgrößten Anzahl an Punkten berücksichtigt. Wenn – ebenfalls rein beispielhaft – nur ein einziger Einzelarmbereich die Mindestpunktzahl überschreitet, wird nur dieser eine Einzelarmbereich berücksichtigt. Falls exakt zwei Einzelarmbereiche die Mindestpunktzahl überschreiten, führen die beiden Vorgehensweisen unabhängig voneinander zu übereinstimmenden Ergebnissen. The latter two approaches can also be combined. If, purely by way of example, four individual arm ranges are determined in which the number of points exceeds the minimum number of points, only the two individual arm ranges with the largest and the second largest number of points are taken into account. If, purely by way of example, only a single single-arm range exceeds the minimum number of points, only this single-arm range is taken into account. If exactly two single-arm ranges exceed the minimum score, the two approaches will produce mutually consistent results.

Die Grenzfläche, die (im Ergebnis) den Rumpf der Person von deren Armen trennt, kann nach Bedarf bestimmt sein. Vorzugsweise ist die Grenzfläche wendepunktfrei. Insbesondere kann die Grenzfläche eine Ebene oder eine um den Basispunkt gekrümmte Fläche sein. The interface that (in effect) separates the person's torso from their arms may be determined as needed. Preferably, the interface is free of turning points. In particular, the interface may be a plane or a surface curved around the base point.

Es ist möglich, dass direkt eine Auswertung der Bildpunkte der Tiefenbilder (einschließlich der zugeordneten Tiefeninformation) erfolgt. Vorzugsweise ist jedoch vorgesehen, dass der Bereich personenähnlicher Kontur als dreidimensionale Punktwolke in den dreidimensionalen Raum abgebildet wird und dass die Auswertungen des Bereichs personenähnlicher Kontur zumindest teilweise im dreidimensionalen Raum erfolgen. It is possible that an evaluation of the pixels of the depth images (including the associated depth information) takes place directly. Preferably, however, it is provided that the area of person-like contour is three-dimensional Point cloud is displayed in the three-dimensional space and that the evaluations of the area person-like contour at least partially done in three-dimensional space.

In einer bevorzugten Ausgestaltung der vorliegenden Erfindung ist vorgesehen, dass anhand des Bereichs personenähnlicher Kontur eine Regressionsebene an die Brust der Person bestimmt wird und dass der Offsetvektor derart bestimmt wird, dass er orthogonal zu einer innerhalb der Regressionsebene verlaufenden Horizontallinie gerichtet ist. Durch diese Vorgehensweise werden besonders gute Ergebnisse erzielt. Alternativ ist es möglich, dass zumindest die Richtung des Offsetvektors fest vorgegeben ist. Diese Vorgehensweise ist einfacher realisierbar und führt in vielen Fällen zu hinreichend guten Ergebnissen. In a preferred embodiment of the present invention, it is provided that a regression plane to the person's chest is determined on the basis of the area of person-like contour and that the offset vector is determined such that it is oriented orthogonal to a horizontal line running within the regression plane. By doing so, particularly good results are achieved. Alternatively, it is possible that at least the direction of the offset vector is fixed. This procedure is easier to implement and leads in many cases to sufficiently good results.

Es ist möglich, dass die Höhenlage des Basispunkts fest vorgegeben ist. Alternativ ist es möglich, dass anhand des Bereichs personenähnlicher Kontur auf eine Größe der Person geschlossen wird und dass der Basispunkt derart bestimmt wird, dass er in Brusthöhe der Person liegt. Ebenfalls alternativ ist es möglich, dass der Basispunkt durch den Schwerpunkt des Bereichs personenähnlicher Kontur bestimmt ist. It is possible that the altitude of the base point is fixed. Alternatively, it is possible for a size of the person to be deduced based on the area of person-like contour, and for the base point to be determined such that it lies at the chest level of the person. Also alternatively, it is possible that the base point is determined by the center of gravity of the area of person-like contour.

In vielen Fällen kann das erfindungsgemäße Auswertungsverfahren dadurch optimiert werden, dass die Tiefenbilder und/oder die anhand der Tiefenbilder ermittelten Ergebnisse zeitlich tiefpassgefiltert werden. In many cases, the evaluation method according to the invention can be optimized in that the depth images and / or the results determined on the basis of the depth images are time-low-pass filtered.

Die Aufgabe wird weiterhin durch ein Computerprogramm mit den Merkmalen des Anspruchs 19 gelöst. Erfindungsgemäß bewirkt die Abarbeitung des Maschinencodes durch den Rechner, dass der Rechner ein erfindungsgemäßes Auswertungsverfahren ausführt. The object is further achieved by a computer program having the features of claim 19. According to the invention, the processing of the machine code by the computer causes the computer to carry out an evaluation method according to the invention.

Die Aufgabe wird weiterhin durch einen Rechner mit den Merkmalen des Anspruchs 20 gelöst. Erfindungsgemäß ist der Rechner derart programmiert, dass er im Betrieb ein erfindungsgemäßes Auswertungsverfahren ausführt. The object is further achieved by a computer having the features of claim 20. According to the invention, the computer is programmed such that it carries out an inventive evaluation method during operation.

Die Aufgabe wird weiterhin durch eine Auswertungseinrichtung mit den Merkmalen des Anspruchs 21 gelöst. Erfindungsgemäß ist eine Auswertungseinrichtung der eingangs genannten Art mit einem erfindungsgemäßen Rechner ausgestattet. The object is further achieved by an evaluation device having the features of claim 21. According to the invention, an evaluation device of the type mentioned above is equipped with a computer according to the invention.

Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen in Verbindung mit den Zeichnungen. Es zeigen in schematischer Prinzipdarstellung: Further advantages and details will become apparent from the following description of exemplary embodiments in conjunction with the drawings. In schematic schematic representation:

1 und 2 eine Aufnahme- und Auswertungsanordnung, 1 and 2 a recording and evaluation arrangement,

3 bis 6 Ablaufdiagramme, 3 to 6 Flowcharts,

7 eine Person und Offsetvektoren und 7 a person and offset vectors and

8 bis 10 Ablaufdiagramme. 8th to 10 Flowcharts.

Gemäß den 1 und 2 wird mittels einer Kameraeinrichtung 1 – beispielsweise einer CCD-Kamera – eine Folge von zeitlich aufeinander folgenden Bildern B erfasst. Während des Erfassens der Bilder B kann beispielsweise mittels einer Projektionseinrichtung 2 ein Muster – beispielsweise ein sinusförmig moduliertes Streifenmuster – in einen von der Kameraeinrichtung 1 erfassten Bildbereich 3 projiziert werden. According to the 1 and 2 is by means of a camera device 1 - For example, a CCD camera - a sequence of temporally successive images B detected. During the capture of the images B, for example by means of a projection device 2 a pattern - for example, a sinusoidally modulated fringe pattern - in one of the camera device 1 captured image area 3 be projected.

Im Bildbereich 3 der Kameraeinrichtung 1 befindet sich (mindestens) eine Person 4. Die mittels der Kameraeinrichtung 1 erfassten Bilder B zeigen daher – zweidimensional in der Bildebene der Kameraeinrichtung 1 ortsaufgelöst – die Person 4. Aufgrund des in den Bildbereich 3 und damit unter anderem auf die Person 4 projizierten Musters umfassen die Bilder B jedoch – zusätzlich zum „normalen“ Bild oder alternativ dazu – eine Tiefeninformation. Für jeden Bildpunkt kann daher ermittelt werden, welchen Abstand der korrespondierende Punkt des erfassten Objekts (beispielsweise der Person 4) von der Kameraeinrichtung 1 aufweist. Derartige Bilder B werden allgemein als Tiefenbilder bezeichnet. Sie werden im Stand der Technik vielfach zur Vermessung dreidimensionaler Objekte eingesetzt, beispielsweise bei der Materialprüfung. In the picture area 3 the camera device 1 there is (at least) one person 4 , The means of the camera device 1 captured images B therefore show - two-dimensionally in the image plane of the camera device 1 spatially resolved - the person 4 , Because of in the picture area 3 and thus, among other things, on the person 4 however, images B include depth information in addition to the "normal" image or alternatively. For each pixel, therefore, it can be determined which distance the corresponding point of the detected object (for example the person 4 ) from the camera device 1 having. Such images B are commonly referred to as depth images. They are often used in the prior art for the measurement of three-dimensional objects, for example in material testing.

Auch andere Vorgehensweisen sind möglich. Beispielsweise kann mittels eines Lasers der Bildbereich 3 abgetastet werden und für jeden Bildpunkt die Laufzeit des Laserstrahls ermittelt werden. Other approaches are possible. For example, by means of a laser, the image area 3 be scanned and for each pixel, the duration of the laser beam are determined.

Die Tiefenbilder werden einem Rechner 5 zugeführt, der zumindest mit der Kameraeinrichtung 1 – eventuell auch mit der Projektionseinrichtung 2 – datentechnisch verbunden ist. Der Rechner 5 nimmt die Tiefenbilder entgegen, bereitet sie auf und wertet sie aus. The depth images become a calculator 5 fed, at least with the camera device 1 - possibly also with the projection device 2 - connected by data technology. The computer 5 takes the depth images, prepares them and evaluates them.

Der Rechner 5 ist mit einem Computerprogramm 6 programmiert. Das Computerprogramm 6 kann dem Rechner 5 beispielsweise über einen Datenträger 7 zugeführt werden, auf dem das Computerprogramm 6 in maschinenlesbarer Form – in der Regel in ausschließlich maschinenlesbarer Form – gespeichert ist. Rein beispielhaft ist in den 1 und 2 als Datenträger 7 ein USB-Memorystick dargestellt. The computer 5 is with a computer program 6 programmed. The computer program 6 can the calculator 5 for example, via a data carrier 7 be fed on which the computer program 6 stored in machine-readable form - usually in machine-readable form only. Is purely exemplary in the 1 and 2 as a disk 7 a USB memory stick is shown.

Das Computerprogramm 6 umfasst Maschinencode 8, der von dem Rechner 5 unmittelbar abarbeitbar ist. Die Abarbeitung des Maschinencodes 8 durch den Rechner 5 bewirkt, dass der Rechner 5 ein Auswertungsverfahren ausführt, das nachfolgend in Verbindung mit 3 und den weiteren FIG näher erläutert wird. The computer program 6 includes machine code 8th that from the calculator 5 is directly workable. The processing of the machine code 8th through the computer 5 causes the calculator 5 performs an evaluation method, which is described below in connection with 3 and the further FIG is explained in more detail.

Gemäß 3 nimmt der Rechner 5 in einem Schritt S1 eine Folge von Bildern B entgegen. In einem Schritt S2 nimmt der Rechner 5, soweit erforderlich, eine Vorauswertung der Bilder B vor. Insbesondere kann der Rechner 5 im Schritt S2 ggf. in den Bildern B in an sich bekannter Weise die Tiefeninformation ermitteln und den Bildpunkten der Bilder B zuordnen. Die sich so ergebenden Bilder werden nachfolgend als Tiefenbilder bezeichnet und zur Unterscheidung von den ursprünglich erfassten Bildern B mit dem Bezugszeichen B’ versehen. According to 3 takes the calculator 5 in a step S1, a sequence of images B opposite. In a step S2, the computer takes 5 , if necessary, a pre-evaluation of the pictures B before. In particular, the calculator can 5 In step S2, if necessary, determine the depth information in the images B in a manner known per se and assign them to the pixels of the images B. The resulting images are hereinafter referred to as depth images and provided to distinguish them from the originally captured images B with the reference B '.

In einem Schritt S3 ermittelt der Rechner 5 in den Tiefenbildern B’ jeweils mindestens einen Bereich 9 personenähnlicher Kontur. Die zur Ermittlung des Bereichs 9 personenähnlicher Kontur erforderlichen Berechnungen sind Fachleuten bekannt. Beispielsweise kann der Bereich 9 personenähnlicher Kontur durch Bestimmen einer konsistenten Bewegung in mehreren Tiefenbildern B’ ermittelt werden. Insbesondere in diesem Fall erfolgt im Rahmen des Schrittes S3 ein Vergleich mehrerer zeitlich aufeinander folgender Tiefenbilder B’. Es sind jedoch auch andere Vorgehensweisen möglich. In einem Schritt S4 ordnet der Rechner 5 den jeweils ermittelten Bereich 9 personenähnlicher Kontur der Person 4 zu. In a step S3, the computer determines 5 in the depth images B 'in each case at least one area 9 person-like contour. The to determine the area 9 Person-like contour calculations are known to those skilled in the art. For example, the area 9 person-like contour by determining a consistent motion in multiple depth images B 'are determined. In particular, in this case takes place in the context of step S3, a comparison of several temporally successive depth images B '. However, other approaches are possible. In a step S4, the computer orders 5 the determined area 9 person-like contour of the person 4 to.

Es ist möglich, dass a priori bekannt ist (oder vorausgesetzt wird), dass sich im Bildbereich 3 der Kameraeinrichtung 1 nur eine einzige Person 4 aufhält. In diesem Fall wird pro Tiefenbild B’ ein einziger Bereich 9 personenähnlicher Kontur ermittelt. Alternativ ist es möglich, dass sich im Bildbereich 3 der Kameraeinrichtung 1 mehrere Personen 4 aufhalten können. In diesem Fall ermittelt der Rechner 5 – eine entsprechende Mächtigkeit des Computerprogramms 6 vorausgesetzt – mehrere Bereiche 9 personenähnlicher Kontur und ordnet sie jeweils einer der Personen 4 zu. It is possible that a priori is known (or is assumed) in the image area 3 the camera device 1 only one person 4 staying. In this case, per depth image B 'becomes a single area 9 person-like contour determined. Alternatively, it is possible that in the image area 3 the camera device 1 more people 4 can stop. In this case, the calculator determines 5 - a corresponding power of the computer program 6 provided - several areas 9 person-like contour and assigns them each one of the persons 4 to.

Nachfolgend wird der Einfachheit halber nur der Fall behandelt, dass in jedem Tiefenbild B’ jeweils ein einziger Bereich 9 personenähnlicher Kontur ermittelt wird und dieser Bereich 9 personenähnlicher Kontur der (einzigen) Person 4 zugeordnet wird. Die nachfolgenden Ausführungen sind jedoch ohne Weiteres auf den Fall erweiterbar, dass mehrere Personen 4 vorhanden sind und hiermit korrespondierend in den Tiefenbildern B’ jeweils mehrere Bereiche 9 personenähnlicher Kontur ermittelt werden. Hereinafter, for the sake of simplicity, only the case will be considered that in each depth image B ', a single area is treated 9 person-like contour is determined and this area 9 person-like contour of the (single) person 4 is assigned. However, the following statements are readily expandable to the case that several persons 4 are present and thus corresponding to the depth images B 'each multiple areas 9 person-like contour are determined.

Der Schritt S3 wird vom Rechner 5 in der Regel tiefenbildübergreifend ausgeführt. Um für ein bestimmtes Tiefenbild B’ den Bereich 9 personenähnlicher Kontur ermitteln zu können, wird also vom Rechner 5 nicht nur das jeweilige Tiefenbild B’ ausgewertet, sondern wird das jeweilige Tiefenbild B’ und mindestens das unmittelbar vorhergehende und/oder das unmittelbar nachfolgende Tiefenbild B’ betrachtet. Die weiteren Schritte S4 bis S9 von 3 hingegen sind jeweils auf eines der Tiefenbilder B’ bezogen. Im Rahmen der Schritte S4 bis S9 können also die Tiefenbilder B’ unabhängig voneinander betrachtet werden. Selbstverständlich können die Schritte S4 bis S9 jedoch für mehrere Tiefenbilder B’ ausgeführt werden, insbesondere für alle Tiefenbilder B’. Step S3 is from the computer 5 usually executed across depths. In order for a particular depth image B 'the range 9 Person-like contour to be determined, so is the computer 5 not only the respective depth image B 'evaluated, but the respective depth image B' and at least the immediately preceding and / or the immediately following depth image B 'is considered. The further steps S4 to S9 of 3 whereas, in each case, reference is made to one of the depth images B '. In the context of steps S4 to S9, therefore, the depth images B 'can be viewed independently of each other. Of course, however, the steps S4 to S9 can be carried out for several depth images B ', in particular for all depth images B'.

Im Schritt S5 ermittelt der Rechner 5 einen Basispunkt 10, 10’ des Bereichs 9 personenähnlicher Kontur im dreidimensionalen Raum. Beispielsweise kann der Rechner 5 – siehe 4 – in einem Schritt S21 den Mittelwert der Ortskoordinaten des Bereichs 9 personenähnlicher Kontur im dreidimensionalen Raum (d.h. den Schwerpunkt 10 des Bereichs 9 personenähnlicher Kontur) ermitteln und als Basispunkt definieren. Der entsprechende Basispunkt ist in 2 mit dem Bezugszeichen 10 versehen. Alternativ kann der Rechner 5 – siehe 5 – in einem Schritt S26 den Mittelwert der Ortskoordinaten des Bereichs 9 personenähnlicher Kontur nur in den Horizontalkoordinaten ermitteln und zusätzlich in einem Schritt S27 anhand des Bereichs 9 personenähnlicher Kontur auf eine Größe der Person 4 schließen. In diesem Fall kann der Rechner 5 in einem Schritt S28 den Basispunkt 10’ dadurch definieren, dass er als Horizontalkoordinaten die im Schritt S26 ermittelten Mittelwerte und als Vertikalkoordinate einen Wert heranzieht, der in etwa in Brusthöhe der Person 4 liegt. Beispielsweise kann der Rechner 5 im Schritt S27 die maximale Höhe des Bereichs 9 personenähnlicher Kontur ermitteln, d.h. die Scheitelhöhe der Person 4. In diesem Fall kann der Rechner 5 im Schritt S28 einen geeigneten Prozentsatz – beispielsweise 70 % bis 85 % – dieses Wertes als Vertikalkoordinate verwenden. Ein auf diese Weise ermittelter Basispunkt ist ebenfalls in 2 eingezeichnet und mit dem Bezugszeichen 10’ versehen. In step S5, the computer determines 5 a base point 10 . 10 ' of the area 9 person-like contour in three-dimensional space. For example, the calculator 5 - please refer 4 In a step S21, the mean value of the location coordinates of the area 9 person-like contour in three-dimensional space (ie the center of gravity 10 of the area 9 person-like contour) and define as the base point. The corresponding base point is in 2 with the reference number 10 Mistake. Alternatively, the calculator 5 - please refer 5 In a step S26, the average of the location coordinates of the area 9 Person-like contour determine only in the horizontal coordinates and additionally in a step S27 based on the area 9 person-like contour to a person's size 4 shut down. In this case, the calculator 5 in a step S28, the base point 10 ' in that, as horizontal coordinates, it uses the mean values determined in step S26 and, as a vertical coordinate, a value which is approximately at the chest level of the person 4 lies. For example, the calculator 5 in step S27, the maximum height of the area 9 Identify person-like contour, ie the peak height of the person 4 , In this case, the calculator 5 in step S28, use a suitable percentage - for example 70% to 85% - of this value as the vertical coordinate. A base point determined in this way is also in 2 marked and with the reference number 10 ' Mistake.

Im Schritt S6 bestimmt der Rechner 5 einen Offsetvektor 11, 11’. Der Offsetvektor 11, 11’ geht vom Basispunkt 10, 10’ aus. Er ist horizontal gerichtet und weist eine Komponente auf, die in Bezug auf die Person 4 nach vorne zeigt. Die Länge des Offsetvektors 11, 11’ ist derart bestimmt, dass der vom Basispunkt 10, 10’ ausgehende Offsetvektor 11, 11’ vor der Brust der Person 4, aber innerhalb der Armreichweite der Person 4 endet. In step S6, the computer determines 5 an offset vector 11 . 11 ' , The offset vector 11 . 11 ' goes from the base point 10 . 10 ' out. He is horizontally directed and has a component that is related to the person 4 pointing to the front. The length of the offset vector 11 . 11 ' is determined to be that of the base point 10 . 10 ' outgoing offset vector 11 . 11 ' in front of the person's chest 4 but within the arm reach of the person 4 ends.

Beispielsweise kann der Rechner 5 gemäß 6 in einem Schritt S31 anhand des Bereichs 9 personenähnlicher Kontur eine Regressionsebene 12 an die Brust der Person 4 bestimmen. 7 zeigt – rein beispielhaft – die Regressionsebene 12 und den korrespondierenden Offsetvektor, der dort mit dem Bezugszeichen 11 versehen ist. Die Bestimmung der Regressionsebene 12 ist Fachleuten als Solches bekannt. Im Falle der Bestimmung der Regressionsebene 12 bestimmt der Rechner 5 gemäß 6 weiterhin in einem Schritt S32 eine innerhalb der Regressionsebene 12 liegende Horizontallinie. In einem Schritt S33 bestimmt der Rechner 5 in diesem Fall den Offsetvektor 11 derart, dass er horizontal verläuft und orthogonal zu der genannten Horizontallinie gerichtet ist. Beispielsweise kann der Rechner 5 im Schritt S33 das Vektorprodukt von Horizontallinie und Vertikalrichtung bilden. For example, the calculator 5 according to 6 in a step S31 on the basis of the range 9 person-like contour one regression plane 12 to the person's chest 4 determine. 7 shows - purely by way of example - the regression level 12 and the corresponding offset vector, which there by the reference numeral 11 is provided. The determination of the regression plane 12 is known to those skilled in the art. In case of determining the regression level 12 the calculator determines 5 according to 6 further in step S32, one within the regression plane 12 lying horizontal line. In a step S33, the computer determines 5 in this case the offset vector 11 such that it is horizontal and directed orthogonal to said horizontal line. For example, the calculator 5 in step S33, form the vector product of horizontal line and vertical direction.

Alternativ ist es gemäß 7 möglich, dass die Richtung des Offsetvektors fest vorgegeben ist. Insbesondere kann die Richtung stets normal zu einer (vertikalen) Arbeitsebene 13 gerichtet sein, beispielsweise orthogonal zu einer die Arbeitsebene 13 definierenden vertikal aufgestellten Anzeigeeinrichtung. Dieser Offsetvektor ist in 7 mit dem Bezugszeichen 11’ versehen. Die Arbeitsebene 13 liegt vor der Person 4. Alternatively, it is according to 7 possible that the direction of the offset vector is fixed. In particular, the direction can always be normal to a (vertical) working plane 13 be directed, for example, orthogonal to the working plane 13 defining vertically erected display device. This offset vector is in 7 with the reference number 11 ' Mistake. The work plane 13 lies in front of the person 4 ,

Die Art und Weise, auf welche der Rechner 5 den Offsetvektor 11, 11’ bestimmt, ist unabhängig von der Art und Weise, auf welche der Rechner 5 den Basispunkt 10, 10’ bestimmt. The way in which the calculator 5 the offset vector 11 . 11 ' is determined, regardless of the way in which the calculator 5 the base point 10 . 10 ' certainly.

Im Schritt S7 bestimmt der Rechner 5 eine Grenzfläche 14 des dreidimensionalen Raumes. Die Grenzfläche 14 enthält gemäß den 1 und 2 den (vom Basispunkt 10, 10’ ausgehenden) Offsetvektor 11, 11’. Die Grenzfläche 14 verläuft spiegelsymmetrisch zu einer Vertikalebene, die den (vom Basispunkt 10, 10’ ausgehenden) Offsetvektor 11, 11’ enthält. In step S7, the computer determines 5 an interface 14 of the three-dimensional space. The interface 14 contains according to the 1 and 2 the (from the base point 10 . 10 ' outgoing) offset vector 11 . 11 ' , The interface 14 is mirror-symmetric to a vertical plane that is the (from the base point 10 . 10 ' outgoing) offset vector 11 . 11 ' contains.

Der Ort, auf den der Offsetvektor 11, 11’ zeigt, ist derjenige Ort der Grenzfläche 14, welcher den geringsten Abstand vom Basispunkt 10, 10’ aufweist. Alle anderen Orte der Grenzfläche 14 weisen einen Abstand vom Basispunkt 10, 10’ auf, der mindestens so groß wie – in der Regel sogar größer als – die Länge des Offsetvektors 11, 11’ ist. The place to which the offset vector 11 . 11 ' shows is that place of the interface 14 , which is the smallest distance from the base point 10 . 10 ' having. All other places of the interface 14 have a distance from the base point 10 . 10 ' at least as large as - usually even greater than - the length of the offset vector 11 . 11 ' is.

Vorzugsweise ist die Grenzfläche 14 wendepunktfrei. Insbesondere kann die Grenzfläche 14 eine Ebene oder eine um den Basispunkt 10, 10’ gekrümmte Fläche sein. Beispielsweise kann die Grenzfläche 14 gemäß den 1 und 2 als Kugel um einen Kugelmittelpunkt 15 definiert sein, wobei der Kugelmittelpunkt 15 in Bezug auf die Person 4 hinter der Person 4 liegt. Auch andere Ausgestaltungen sind möglich. Beispielsweise kann die Grenzfläche 14 als Zylindermantel um eine vertikal verlaufende Achse definiert sein. Auch ist es möglich, dass die Krümmung in Horizontalrichtung und die Krümmung in Vertikalrichtung voneinander verschieden sind. In diesem Fall ist in der Regel die Krümmung in Horizontalrichtung stärker als die Krümmung in Vertikalrichtung, der Krümmungsradius in Horizontalrichtung also kleiner als der Krümmungsradius in Vertikalrichtung. Preferably, the interface is 14 wendepunkt free. In particular, the interface 14 a plane or around the base point 10 . 10 ' be curved surface. For example, the interface 14 according to the 1 and 2 as a sphere around a sphere center 15 be defined, wherein the ball center 15 in relation to the person 4 behind the person 4 lies. Other embodiments are possible. For example, the interface 14 be defined as a cylinder jacket about a vertical axis. It is also possible that the curvature in the horizontal direction and the curvature in the vertical direction are different from each other. In this case, as a rule, the curvature in the horizontal direction is stronger than the curvature in the vertical direction, that is to say the curvature radius in the horizontal direction is smaller than the curvature radius in the vertical direction.

In den nachfolgenden Schritten S8 und S9 werden in den Tiefenbildern B’ nur noch diejenigen Teile der Bereiche 9 personenähnlicher Kontur betrachtet, die durch die Grenzfläche 14 vom Basispunkt 10, 10’ getrennt sind. Diese Bereiche enthalten bei geeigneter Festlegung des Offsetvektors 11, 11’ und der Grenzfläche 14 nicht mehr den Rumpf der Person 4, sondern nur noch deren Arme. Der entsprechende Teil des Bereichs 9 personenähnlicher Kontur definiert somit einen gemeinsamen Armbereich der Person 4. In the subsequent steps S8 and S9, only those parts of the areas are still in the depth images B ' 9 person-like contour viewed through the interface 14 from the base point 10 . 10 ' are separated. These areas contain, with suitable definition of the offset vector 11 . 11 ' and the interface 14 no longer the person's torso 4 but only their arms. The corresponding part of the area 9 person-like contour thus defines a common arm of the person 4 ,

Im Schritt S8 ermittelt der Rechner 5 innerhalb des gemeinsamen Armbereichs Einzelarmbereiche 16, 17. Jeder Einzelarmbereich 16, 17 ist durch diejenigen Punkte im dreidimensionalen Raum bestimmt, die folgende Bedingungen erfüllen:

  • – Sie sind Bestandteil des gemeinsamen Armbereichs.
  • – Jeder Punkt eines bestimmten Einzelarmbereichs 16, 17 (beispielsweise der Punkt 18 in 1) weist zumindest einem anderen Punkt desselben Einzelarmbereichs 16, 17 (beispielsweise zum Punkt 19) einen Abstand auf, der kleiner als ein Minimalabstand ist.
  • – Derselbe Punkt (gemäß Beispiel der Punkt 18) weist zu allen anderen Punkten des gemeinsamen Armbereichs (beispielsweise zum Punkt 20) einen Abstand auf, der größer als ein Maximalabstand ist.
In step S8, the computer determines 5 within the common arm area single arm areas 16 . 17 , Every single arm area 16 . 17 is determined by those points in three-dimensional space which satisfy the following conditions:
  • - They are part of the common arm area.
  • - Every point of a specific single arm area 16 . 17 (for example, the dot 18 in 1 ) has at least one other point of the same single arm area 16 . 17 (for example, to the point 19 ) a distance that is smaller than a minimum distance.
  • - The same point (according to example the point 18 ) points to all other points of the common arm area (for example to the point 20 ) has a distance greater than a maximum distance.

Die Ermittlung der Einzelarmbereiche 16, 17 ist Fachleuten als Solches bekannt. The determination of the individual arm areas 16 . 17 is known to those skilled in the art.

Der dreidimensionale Raum ist in der Regel in ein Rastermaß aufgeteilt. Der Minimalabstand ist in diesem Fall in etwa gleich dem Rastermaß. Insbesondere sollte der Minimalabstand maximal das ca. zweifache des Rastermaßes betragen. Der Maximalabstand hingegen ist größer als das Rastermaß und auch größer als der Minimalabstand. Insbesondere liegt das Verhältnis von Maximalabstand und Minimalabstand in der Regel zwischen 1,2 und 2,0, beispielsweise bei 1,4 bis 1,6. The three-dimensional space is usually divided into a grid. The minimum distance in this case is approximately equal to the grid dimension. In particular, the minimum distance should be at most about twice the grid size. The maximum distance, however, is greater than the pitch and also greater than the minimum distance. In particular, the ratio of maximum distance and minimum distance is usually between 1.2 and 2.0, for example 1.4 to 1.6.

Im Idealfall ergeben sich – entsprechend den realen Verhältnissen – im Rahmen des Schrittes S8 exakt zwei Einzelarmbereiche 16, 17. Es ist jedoch möglich, dass sich aufgrund des Schrittes S8 mehr als zwei Einzelarmbereiche 16, 17 ergeben. In diesem Fall ist es gemäß 8 möglich, dass dem Schritt S8 ein Schritt S36 sowie – einzeln oder in Kombination – Schritte S37 und S38 nachgeordnet sind. Im Schritt S36 wird für alle Einzelarmbereiche 16, 17 die jeweilige Anzahl an Punkten ermittelt, die im jeweiligen Einzelarmbereich 16, 17 enthalten ist. Im Schritt S37 werden nur diejenigen Einzelarmbereiche 16, 17, deren Anzahl an Punkten eine Mindestpunktzahl überschreitet, als gültige Einzelarmbereiche 16, 17 definiert. Alle anderen Einzelarmbereiche 16, 17 werden verworfen. Im Schritt S38 werden nur diejenigen Einzelarmbereiche 16, 17, welche die größte und die zweitgrößte Anzahl an Punkten aufweisen, als gültige Einzelarmbereiche 16, 17 definiert. Alle anderen Einzelarmbereiche 16, 17 werden verworfen. Ideally, according to the real conditions, within the scope of step S8 exactly two individual arm areas result 16 . 17 , However, it is possible that more than two Einzelarmbereiche due to the step S8 16 . 17 result. In this case it is according to 8th possible that the step S8 is followed by a step S36 and - individually or in combination - steps S37 and S38 are. In step S36, for all individual arm areas 16 . 17 determines the respective number of points which are in the respective single arm area 16 . 17 is included. In step S37, only those individual arm areas are used 16 . 17 whose number of points exceeds a minimum number of points, as valid Einzelarmbereiche 16 . 17 Are defined. All other single arm areas 16 . 17 are discarded. In step S38, only those individual arm areas are used 16 . 17 , which have the largest and the second largest number of points, as valid Einzelarmbereiche 16 . 17 Are defined. All other single arm areas 16 . 17 are discarded.

Im Schritt S9 nimmt der Rechner 5 anhand der Einzelarmbereiche 16, 17 weitergehende Auswertungen der Tiefenbilder B’ vor. Mögliche Auswertungen werden nachfolgend in Verbindung mit den 9 und 10 näher erläutert. In step S9, the calculator takes 5 based on the individual arm areas 16 . 17 further evaluations of the depth images B 'before. Possible evaluations are described below in connection with the 9 and 10 explained in more detail.

In einem Schritt S10 prüft der Rechner 5, ob er das erfindungsgemäße Auswertungsverfahren beenden soll. Wenn dies nicht der Fall ist, geht der Rechner 5 zu einem Schritt S11 über, in dem er von der Kameraeinrichtung 1 ein weiteres Bild B entgegennimmt. Sodann geht der Rechner 5 erneut zum Schritt S2 über. In a step S10, the computer checks 5 whether he should terminate the evaluation process according to the invention. If this is not the case, the calculator goes 5 to a step S11, in which he from the camera device 1 takes another picture B. Then the computer goes 5 again to step S2 via.

Im Rahmen einer möglichen Ausgestaltung des Schrittes S9 von 3 kann der Rechner 5 gemäß 9 beispielsweise in einem Schritt S41 – separat für jeden Einzelarmbereich 16, 17 – eine statistische Auswertung des jeweiligen Einzelarmbereichs 16, 17 (genauer: der im jeweiligen Einzelarmbereich 16, 17 enthaltenen Punkte des dreidimensionalen Raumes) durchführen und – basierend auf dieser Auswertung – den Schwerpunkt (= Mittelwert der Ortskoordinaten der Punkte) des jeweiligen Einzelarmbereichs 16, 17 und die Hauptachsen des jeweiligen Einzelarmbereichs 16, 17 ermitteln. Diese Art der Auswertung ist Fachleuten an sich bekannt. As part of a possible embodiment of step S9 of 3 can the calculator 5 according to 9 for example, in a step S41 - separately for each individual arm area 16 . 17 - a statistical evaluation of the respective single arm area 16 . 17 (more precisely, the one in each individual arm area 16 . 17 contained points of the three-dimensional space) and - based on this evaluation - the center of gravity (= average of the spatial coordinates of the points) of the respective single arm 16 . 17 and the main axes of the respective individual arm area 16 . 17 determine. This type of evaluation is known per se to experts.

In einem Schritt S42 selektiert der Rechner 5 die längste der ermittelten Hauptachsen, in der 7 für den Einzelarmbereich 17 mit dem Bezugszeichen 21 versehen. In a step S42, the computer selects 5 the longest of the determined main axes, in the 7 for the single arm area 17 with the reference number 21 Mistake.

In einem Schritt S43 kann der Rechner 5 anhand des Schwerpunkts des jeweiligen Einzelarmbereichs 16, 17 und der längsten Hauptachse 21 des jeweiligen Einzelarmbereichs 16, 17 eine Gerade ermitteln. In einem Schritt S44 kann der Rechner 5 einen Schnittpunkt 22 der genannten Geraden mit der Arbeitsebene 13 ermitteln. Der Schnittpunkt 22 entspricht einer Stelle der Arbeitsebene 13, auf welche die Person 4 (in etwa) deutet. In a step S43, the computer 5 based on the center of gravity of the individual arm area 16 . 17 and the longest major axis 21 of the respective single arm area 16 . 17 determine a straight line. In a step S44, the computer 5 an intersection 22 the said straight line with the working plane 13 determine. The point of intersection 22 corresponds to a position of the working level 13 to which the person 4 (roughly) indicates.

Alternativ oder zusätzlich zum Schritt S43 kann der Rechner 5 in einem Schritt S45 anhand des Schwerpunkts des jeweiligen Einzelarmbereichs 16, 17 und der längsten Hauptachse 21 des jeweiligen Einzelarmbereichs 16, 17 in Verbindung mit dem Offsetvektor 11, 11’ (dies ist für die Bestimmung der Richtung erforderlich, in die ausgehend vom Schwerpunkt des jeweiligen Einzelarmbereichs 16, 17 vorgegangen wird) eine Handposition 23 für den jeweiligen Einzelarmbereich 16, 17 ermitteln. Beispielsweise kann der Rechner 5, ausgehend vom Schwerpunkt des jeweiligen Einzelarmbereichs 16, 17, die längste Hauptachse 21 mit einem vorbestimmten Faktor skalieren und die sich so ergebende Position als Handposition 23 für den entsprechenden Einzelarmbereich 16, 17 definieren. Alternatively or in addition to step S43, the computer 5 in a step S45 based on the center of gravity of the respective individual arm area 16 . 17 and the longest major axis 21 of the respective single arm area 16 . 17 in conjunction with the offset vector 11 . 11 ' (This is necessary for determining the direction in which starting from the center of gravity of each individual arm 16 . 17 is proceeded) a hand position 23 for the respective single arm area 16 . 17 determine. For example, the calculator 5 , starting from the center of gravity of the respective single arm area 16 . 17 , the longest main axis 21 scale with a predetermined factor and the resulting position as a hand position 23 for the corresponding single arm area 16 . 17 define.

Ausgehend von der Ermittlung der Handposition 23 sind weitergehende Ermittlungen möglich. So ist es beispielsweise möglich, in einem Schritt S46 eine Verbindungslinie 24 zu bestimmen, die den Basispunkt 10, 10’ und die jeweilige Handposition 23 miteinander verbindet. Sodann kann – ebenfalls im Schritt S46 – der Schnittpunkt 25 der Verbindungslinie 24 mit der Arbeitsebene 13 ermittelt werden. Auch dieser Schnittpunkt 25 entspricht einer Stelle der Arbeitsebene 13, auf welche die Person 4 (in etwa) deutet. Um Zweideutigkeiten auszuschließen, ist von den Schritten S44 und S46 jedoch vorzugsweise nur einer vorhanden. Starting from the determination of the hand position 23 further investigations are possible. It is thus possible, for example, in a step S46 a connecting line 24 to determine the base point 10 . 10 ' and the respective hand position 23 connects with each other. Then - also in step S46 - the intersection 25 the connecting line 24 with the work plane 13 be determined. Also this intersection 25 corresponds to a position of the working level 13 to which the person 4 (roughly) indicates. However, to avoid ambiguity, preferably only one of steps S44 and S46 is present.

Weiterhin ist es gemäß 9 möglich, aufbauend auf dem Schritt S45 weitere Schritte S47 bis S54 vorzusehen. Furthermore, it is according to 9 possible, based on the step S45 provide further steps S47 to S54.

Im Schritt S47 ermittelt der Rechner 5 einen Handbereich 26, d.h. denjenigen Teil des entsprechenden Einzelarmbereichs 16, 17, der die Handposition 23 umgibt. Beispielsweise kann eine Kugel mit vorbestimmtem Radius um die ermittelte Handposition 23 definiert werden. In diesem Fall ist es möglich, dass nur diejenigen Punkte des jeweiligen Einzelarmbereichs 16, 17 weiter verwertet werden, die innerhalb des jeweiligen Handbereichs 26 liegen. Beispielsweise kann der Rechner 5 im Schritt S48 eine (maximale) Abmessung des Handbereichs 26 ermitteln. In step S47, the calculator determines 5 a hand area 26 ie that part of the corresponding single arm area 16 . 17 who is the hand position 23 surrounds. For example, a ball with a predetermined radius around the determined hand position 23 To be defined. In this case it is possible that only those points of the respective single arm area 16 . 17 be recycled within the respective hand area 26 lie. For example, the calculator 5 in step S48, a (maximum) dimension of the hand area 26 determine.

Es ist möglich, dass der Rechner 5 die entsprechende Ermittlung im dreidimensionalen Raum vornimmt. Alternativ kann der Rechner 5 die Punkte in einem Schritt S49 – insbesondere mittels einer Parallelprojektion, alternativ eventuell mittels einer perspektivischen Projektion – in eine Auswertungsebene 27 (siehe 7) projizieren und dort die entsprechende Auswertung vornehmen. Die Auswertungsebene 27 kann – beispielsweise – orthogonal zum Offsetvektor 11, 11’ verlaufen oder mit der Arbeitsebene 13 übereinstimmen. It is possible that the calculator 5 makes the appropriate determination in three-dimensional space. Alternatively, the calculator 5 the points in a step S49 - in particular by means of a parallel projection, alternatively possibly by means of a perspective projection - in an evaluation plane 27 (please refer 7 ) and carry out the corresponding evaluation there. The evaluation level 27 can - for example - orthogonal to the offset vector 11 . 11 ' run or with the work plane 13 to match.

Der Rechner 5 vergleicht die ermittelte Abmessung im Schritt S50 mit einer Mindestabmessung. Ist die ermittelte Abmessung kleiner als die vorbestimmte Mindestabmessung (Klartext: hat die Person 4 die Hand nicht gespreizt), setzt der Rechner 5 im Schritt S51 einen Zähler zurück. Anderenfalls inkrementiert der Rechner 5 im Schritt S52 den Zähler. The computer 5 compares the determined dimension in step S50 with a minimum dimension. Is the determined dimension smaller than the predetermined minimum dimension (plain text: has the person 4 the hand is not splayed), the calculator continues 5 in step S51, a counter back. Otherwise the calculator increments 5 in step S52, the counter.

Im Schritt S53 überprüft der Rechner 5 den Wert des Zählers. Übersteigt der Wert des Zählers eine vorbestimmte Schranke (beispielsweise den Wert 3, den Wert 5, den Wert 10 oder einen anderen geeigneten Wert), ist die ermittelte Abmessung also während einer durch die Schranke bestimmten Anzahl von aufeinander folgenden Tiefenbildern B’ stets größer als die Mindestabmessung (Klartext: hat die Person 4 die Hand gespreizt), erfolgt durch den Rechner 5 im Schritt S54 eine Aktivierung einer Aktion, d.h. er interpretiert das Überschreiten der Schranke als „Klickbefehl“ einer virtuellen Maus. In step S53, the computer checks 5 the value of the counter. If the value of the counter exceeds a predetermined limit (for example the value 3, the value 5, the value 10 or another suitable value), then the determined dimension is always greater than that during a number of successive depth images B 'determined by the barrier Minimum size (plain text: has the person 4 spread the hand), done by the calculator 5 in step S54 an activation of an action, ie it interprets the crossing of the barrier as a "click command" of a virtual mouse.

Für manche Auswertungen ist irrelevant, ob ein bestimmter Einzelarmbereich 16, 17 dem linken oder dem rechten Arm der Person 4 entspricht. Für andere Auswertungen kann dies hingegen von Bedeutung sein. Falls eine derartige Bedeutung gegeben ist, können gemäß 10 dem Schritt S43 Schritte S61 und S62 nachgeordnet sein. Im Schritt S61 wird, ausgehend vom Schwerpunkt des jeweiligen Einzelarmbereichs 16, 17, der Schnittpunkt 28 der längsten Hauptachse 21 mit einer Basisebene 29 bestimmt (siehe 7). Die Basisebene 29 enthält gemäß 7 den Basispunkt 10, 10’ und verläuft orthogonal zum Offsetvektor 11, 11’. Im Schritt S62 wird je nachdem, ob der Schnittpunkt 28 links oder rechts des Basispunkts 10, 10’ liegt, der jeweilige Einzelarmbereich 16, 17 dem linken oder dem rechten Arm der Person 4 zugeordnet. Auf diese Weise kann beispielsweise ein „Klicken“ mit der linken Hand im Rahmen des Schrittes S54 eine andere Aktion auslösen als ein „Klicken“ mit der rechten Hand. For some evaluations, it is irrelevant whether a particular single arm area 16 . 17 the left or right arm of the person 4 equivalent. For other evaluations, this may be important. If such a meaning is given, according to 10 the step S43 steps S61 and S62 be arranged downstream. In step S61, starting from the center of gravity of the respective individual arm area 16 . 17 , the point of intersection 28 the longest major axis 21 with a base level 29 determined (see 7 ). The base level 29 contains according to 7 the base point 10 . 10 ' and is orthogonal to the offset vector 11 . 11 ' , In step S62, depending on whether the intersection 28 left or right of the base point 10 . 10 ' lies, the respective single arm area 16 . 17 the left or right arm of the person 4 assigned. In this way, for example, a "left-hand click" in the context of step S54 can trigger a different action than a "right-hand" click.

Falls die entsprechende Zuordnung der Einzelarmbereiche 16, 17 zu den entsprechenden Armen der Person 4 erfolgt, können gemäß 10 – alternativ zu den Schritten S44 oder S46 von 9 – weiterhin Schritte S63 und S64 vorhanden sein. Im Schritt S63 ermittelt der Rechner 5 in der Basisebene 29 anhand des Basispunkts 10, 10’ und des Schnittpunkts 28 einen Startpunkt 30. Der Startpunkt 30 wird derart ermittelt, dass er in Horizontalrichtung gesehen innerhalb der Basisebene 29 zwischen dem Basispunkt 10, 10’ und dem Schnittpunkt 28 liegt. Ein Versatz des Startpunkts 30 relativ zum Basispunkt 10, 10’ ist vorzugsweise derart bestimmt, dass der Startpunkt 30 in etwa im Bereich des entsprechenden Schultergelenks der Person 4 liegt. Im Schritt S64 wird in diesem Fall – analog zum Schritt S46 von 9 – eine Verbindungslinie 31 bestimmt, die den Startpunkt 30 und die jeweilige Handposition 23 miteinander verbindet. Sodann kann – ebenfalls im Schritt S64 – der Schnittpunkt 32 der Verbindungslinie 31 mit der Arbeitsebene 13 ermittelt werden. Auch dieser Schnittpunkt 32 entspricht einer Stelle der Arbeitsebene 13, auf welche die Person 4 (in etwa) deutet. Um Zweideutigkeiten auszuschließen, sind im Falle des Vorhandenseins der Schritte S63 und S64 die Schritte S44 und S46 von 9 jedoch vorzugsweise nicht implementiert. If the corresponding assignment of the individual arm areas 16 . 17 to the corresponding arms of the person 4 can be done according to 10 As an alternative to steps S44 or S46 of FIG 9 - There continue to be steps S63 and S64. In step S63, the calculator determines 5 in the base level 29 based on the base point 10 . 10 ' and the point of intersection 28 a starting point 30 , The starting point 30 is determined such that it is seen in the horizontal direction within the base plane 29 between the base point 10 . 10 ' and the point of intersection 28 lies. An offset of the starting point 30 relative to the base point 10 . 10 ' is preferably determined such that the starting point 30 approximately in the area of the corresponding shoulder joint of the person 4 lies. In step S64, in this case, analogously to step S46 of FIG 9 - a connecting line 31 that determines the starting point 30 and the respective hand position 23 connects with each other. Then - also in step S64 - the intersection 32 the connecting line 31 with the work plane 13 be determined. Also this intersection 32 corresponds to a position of the working level 13 to which the person 4 (roughly) indicates. To avoid ambiguity, in the case of the presence of steps S63 and S64, steps S44 and S46 of FIG 9 however preferably not implemented.

Das oben stehend erläuterte Auswertungsverfahren und seine Ausgestaltungen können auf verschiedene Weise weiter verbessert werden. So sind insbesondere rauschmindernde Vorgehensweisen, welche die erfindungsgemäße Auswertung robuster gestalten, von Vorteil. Beispielsweise können die Tiefenbilder B’ und/oder – direkt oder indirekt – anhand der Tiefenbilder B’ ermittelten Ergebnisse (beispielsweise die Einzelarmbereiche 16, 17) zu diesem Zweck zeitlich tiefpassgefiltert werden. In analoger Weise können innerhalb der Tiefenbilder B’ im Rahmen der Ermittlung des gemeinsamen Armbereichs und/oder im Rahmen der Ermittlung der Einzelarmbereiche 16, 17 störungsreduzierende morphologische Operationen durchgeführt werden. Entsprechende morphologische Operationen sind Fachleuten allgemein bekannt. Beispielsweise kann in einem ersten Schritt jeder Punkt, der als Bestandteil des gemeinsamen Armbereichs identifiziert ist, aus dem gemeinsamen Armbereich entfernt werden, wenn ihm maximal n (n = 0, 1, 2, 3, ...) andere Punkte, die ebenfalls Bestandteil des gemeinsamen Armbereichs sind, unmittelbar benachbart sind. In einem zweiten Schritt kann in diesem Fall jedem Punkt, der nicht Bestandteil des nach Ausführung des ersten Schrittes resultierenden gemeinsamen Armbereiches ist, dem aus dem ersten Schritt resultierenden gemeinsamen Armbereich zugeschlagen werden, wenn der jeweilige Punkt an mindestens m (m = 1, 2, 3, ...) Punkte unmittelbar angrenzt, die Bestandteil des sich im ersten Schritt ergebenden gemeinsamen Armbereichs sind. Auch die inverse Vorgehensweise ist möglich. In diesem Fall wird zuerst, bezogen auf den sich ursprünglich ergebenden gemeinsamen Armbereich, der zweite Schritt ausgeführt. Sodann wird, bezogen auf den so ermittelten gemeinsamen Armbereich, der erste Schritt ausgeführt. Weiterhin sind die korrespondierenden Operationen auch auf die Einzelarmbereiche 16, 17 anwendbar. Auch andere morphologische Operationen sind möglich. Die entsprechenden Operationen sind dem Fachmann bekannt. The above-explained evaluation method and its embodiments can be further improved in various ways. Thus, noise-reducing procedures which make the evaluation according to the invention more robust are particularly advantageous. For example, the depth images B 'and / or - directly or indirectly - based on the depth images B' determined results (for example, the Einzelarmbereiche 16 . 17 ) are temporally low-pass filtered for this purpose. In an analogous manner within the depth images B 'in the context of determining the common arm area and / or in the context of determining the individual arm areas 16 . 17 interference-reducing morphological operations are performed. Corresponding morphological operations are well known to those skilled in the art. For example, in a first step, each point identified as part of the common arm region may be removed from the common arm region if it has no more than n (n = 0, 1, 2, 3, ...) other points that also form part of it of the common arm area are immediately adjacent. In this case, in a second step, any point which is not part of the common arm area resulting from the execution of the first step may be added to the joint arm area resulting from the first step, if the respective point is at least m (m = 1, 2, 3, ...) immediately adjoins points which are part of the joint arm area resulting in the first step. The inverse procedure is also possible. In this case, first, based on the originally resulting common arm area, the second step is executed. Then, based on the thus-determined common arm area, the first step is carried out. Furthermore, the corresponding operations are also on the Einzelarmbereiche 16 . 17 applicable. Other morphological operations are possible. The corresponding operations are known to the person skilled in the art.

Weiterhin ist es für manche Verfahrensschritte rechentechnisch von Vorteil, die Auswertung im dreidimensionalen Raum selbst vorzunehmen. Zu diesem Zweck werden die Tiefenbilder B’ in den dreidimensionalen Raum umgerechnet. Es erfolgt also – möglicherweise vor der Ermittlung des Bereichs 9 personenähnlicher Kontur, ggf. auch nach dessen Ermittlung – eine Abbildung des jeweiligen Tiefenbildes B’ bzw. des Bereichs 9 personenähnlicher Kontur als dreidimensionale Punktwolke in den dreidimensionalen Raum. Diese Abbildung ist bei bekannter Position und Orientierung der Kameraeinrichtung 1 und bekannten Abbildungsparametern der Kameraeinrichtung 1 ohne Weiteres möglich. Die nachfolgende Auswertung kann in diesem Fall nach Bedarf in den Tiefenbildern B’ oder direkt im dreidimensionalen Raum erfolgen. Furthermore, it is computationally advantageous for some method steps to carry out the evaluation in three-dimensional space itself. For this purpose, the depth images B 'are converted into three-dimensional space. So it happens - possibly before the area is determined 9 person-like contour, possibly also after its determination - an image of the respective depth image B 'or the area 9 person-like contour as a three-dimensional point cloud in the three-dimensional space. This picture is at known Position and orientation of the camera device 1 and known imaging parameters of the camera device 1 readily possible. The subsequent evaluation can in this case take place as required in the depth images B 'or directly in three-dimensional space.

Weiterhin ist es von Vorteil, dass zumindest das Aktivieren von Aktionen hysteresebehaftet ist. Furthermore, it is advantageous that at least the activation of actions is hysteresis.

Die vorliegende Erfindung weist viele Vorteile auf. So sind beispielsweise im Gegensatz zu bekannten Auswertungsverfahren keine speziellen Geräte oder Markierungen an der Person 4 erforderlich. Weiterhin ist keinerlei Einlernphase des Rechners 5 erforderlich. Das erfindungsgemäße Auswertungsverfahren ermöglicht daher eine einfache und dennoch sichere und genaue Auswertung des Bereichs 9 personenähnlicher Kontur. The present invention has many advantages. For example, in contrast to known evaluation methods, there are no special devices or markings on the person 4 required. Furthermore, there is no learning phase of the computer 5 required. The evaluation method according to the invention therefore enables a simple, yet reliable and accurate evaluation of the area 9 person-like contour.

Die obige Beschreibung dient ausschließlich der Erläuterung der vorliegenden Erfindung. Der Schutzumfang der vorliegenden Erfindung soll hingegen ausschließlich durch die beigefügten Ansprüche bestimmt sein. The above description is only for explanation of the present invention. The scope of the present invention, however, is intended to be determined solely by the appended claims.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • „Gesture Recognition: A Survey“ von Sushmita Mitra und Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 37, No. 3, May 2007, Seiten 311 bis 324 [0007] "Gesture Recognition: A Survey" by Sushmita Mitra and Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 3, May 2007, pages 311 to 324 [0007]
  • „Minority Report“ aus dem Jahr 2002 [0009] "Minority Report" from 2002 [0009]

Claims (21)

Auswertungsverfahren für eine Folge von zeitlich aufeinander folgenden Tiefenbildern (B’), die jeweils mindestens eine Person (4) von vorne zeigen, – wobei in den Tiefenbildern (B’) jeweils mindestens ein Bereich (9) personenähnlicher Kontur ermittelt wird und der jeweilige Bereich (9) personenähnlicher Kontur der Person (4) zugeordnet wird, – wobei ein Basispunkt (10, 10’) des Bereichs (9) personenähnlicher Kontur im dreidimensionalen Raum ermittelt wird, – wobei ein Offsetvektor (11, 11’) bestimmt wird, – wobei der vom Basispunkt (10, 10’) ausgehende Offsetvektor (11, 11’) eine Komponente aufweist, die in Bezug auf die Person (4) nach vorne zeigt, – wobei derjenige Teil des Bereichs (9) personenähnlicher Kontur, der durch eine Grenzfläche (14) des dreidimensionalen Raums vom Basispunkt (10, 10’) getrennt ist, als gemeinsamer Armbereich der Person (4) definiert wird, – wobei die Grenzfläche (14) den Offsetvektor (11, 11’) enthält, spiegelsymmetrisch zu einer den Offsetvektor (11, 11’) enthaltenden Vertikalebene verläuft und jeder Punkt der Grenzfläche (14) vom Basispunkt (10, 10’) mindestens um die Länge des Offsetvektors (11, 11’) beabstandet ist, – wobei innerhalb des gemeinsamen Armbereichs Einzelarmbereiche (16, 17) ermittelt werden, – wobei jeder Einzelarmbereich (16, 17) durch diejenigen Punkte (18) im dreidimensionalen Raum bestimmt ist, die zu mindestens einem anderen Punkt (19) desselben Einzelarmbereichs (16, 17) einen Abstand aufweisen, der kleiner als ein Minimalabstand ist, und zu allen anderen Punkten (20) des gemeinsamen Armbereichs einen Abstand aufweisen, der größer als ein Maximalabstand ist, – wobei der Minimalabstand in etwa gleich einem Rastermaß des dreidimensionalen Raumes ist und der Maximalabstand größer als das Rastermaß ist, – wobei anhand der Einzelarmbereiche (16, 17) weitergehende Auswertungen der Tiefenbilder (B’) vorgenommen werden. Evaluation method for a sequence of temporally successive depth images (B '), each comprising at least one person ( 4 ) from the front, - wherein in the depth images (B ') at least one area ( 9 ) person-like contour is determined and the respective area ( 9 ) person-like contour of the person ( 4 ), where a base point ( 10 . 10 ' ) of the area ( 9 ) person-like contour is determined in three-dimensional space, - wherein an offset vector ( 11 . 11 ' ), where - from the base point ( 10 . 10 ' ) outgoing offset vector ( 11 . 11 ' ) has a component which, in relation to the person ( 4 ), where the part of the area ( 9 ) person-like contour that passes through an interface ( 14 ) of the three-dimensional space from the base point ( 10 . 10 ' ), as the common arm area of the person ( 4 ), the interface ( 14 ) the offset vector ( 11 . 11 ' ) contains, mirror-symmetric to one the offset vector ( 11 . 11 ' ) and each point of the interface ( 14 ) from the base point ( 10 . 10 ' ) at least by the length of the offset vector ( 11 . 11 ' ), wherein within the common arm region individual arm regions ( 16 . 17 ), each individual arm area ( 16 . 17 ) through those points ( 18 ) in three-dimensional space that is at least one other point ( 19 ) of the same single arm area ( 16 . 17 ) have a distance which is smaller than a minimum distance, and to all other points ( 20 ) of the common arm region have a distance which is greater than a maximum distance, - wherein the minimum distance is approximately equal to a grid dimension of the three-dimensional space and the maximum distance is greater than the grid dimension, - based on the Einzelarmbereiche ( 16 . 17 ) further evaluations of the depth images (B ') are made. Auswertungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die weitergehenden Auswertungen der Einzelarmbereiche (16, 17) für den jeweiligen Einzelarmbereich (16, 17) eine auf statistischer Auswertung des jeweiligen Einzelarmbereichs (16, 17) basierende Ermittlung der Hauptachsen des jeweiligen Einzelarmbereichs (16, 17) umfassen. Evaluation method according to Claim 1, characterized in that the further evaluations of the individual-arm areas ( 16 . 17 ) for the respective individual arm area ( 16 . 17 ) a statistical evaluation of the respective individual arm area ( 16 . 17 ) based determination of the main axes of the respective individual arm area ( 16 . 17 ). Auswertungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass anhand der längsten (21) der Hauptachsen des jeweiligen Einzelarmbereichs (16, 17) und des Offsetvektors (11, 11’) eine Handposition (23) für den jeweiligen Einzelarmbereich (16, 17) ermittelt wird. Evaluation method according to claim 2, characterized in that by means of the longest ( 21 ) of the main axes of the respective individual arm region ( 16 . 17 ) and the offset vector ( 11 . 11 ' ) a hand position ( 23 ) for the respective individual arm area ( 16 . 17 ) is determined. Auswertungsverfahren nach Anspruch 3, dadurch gekennzeichnet, dass eine Abmessung desjenigen Teils des jeweiligen Einzelarmbereichs (16, 17), der innerhalb eines die jeweilige Handposition (23) umgebenden Handbereichs (26) liegt, ermittelt wird und dass eine Aktivierung einer Aktion erfolgt, wenn während einer vorbestimmten Anzahl aufeinander folgender Tiefenbilder (B’) die ermittelte Abmessung jeweils eine Mindestabmessung überschreitet. Evaluation method according to Claim 3, characterized in that a dimension of that part of the respective single-arm region ( 16 . 17 ) within a respective hand position ( 23 ) surrounding hand area ( 26 ) is determined, and that an activation of an action occurs when during a predetermined number of consecutive depth images (B ') the determined dimension exceeds a minimum dimension. Auswertungsverfahren nach Anspruch 2, 3 oder 4, dadurch gekennzeichnet, dass ein Schnittpunkt (28) der längsten (21) der Hauptachsen des jeweiligen Einzelarmbereichs (16, 17) mit einer den Basispunkt (10, 10’) enthaltenden, orthogonal zum Offsetvektor (11, 11’) verlaufenden Basisebene (29) bestimmt wird und dass der jeweilige Einzelarmbereich (16, 17) je nachdem, ob der jeweilige Schnittpunkt (28) in Bezug auf die Person (4) links oder rechts des Basispunkts (10, 10’) liegt, dem linken oder dem rechten Arm der Person (4) zugeordnet wird. Evaluation method according to claim 2, 3 or 4, characterized in that an intersection ( 28 ) the longest ( 21 ) of the main axes of the respective individual arm region ( 16 . 17 ) with a base point ( 10 . 10 ' ), orthogonal to the offset vector ( 11 . 11 ' ) running base level ( 29 ) and that the respective individual arm area ( 16 . 17 ) depending on whether the respective intersection ( 28 ) in relation to the person ( 4 ) left or right of the base point ( 10 . 10 ' ), the left or the right arm of the person ( 4 ). Auswertungsverfahren nach Anspruch 4 und 5, dadurch gekennzeichnet, dass in der Basisebene (29) anhand des Basispunkts (10, 10’) und des Schnittpunkts (28) ein Startpunkt (30) ermittelt wird, der in Horizontalrichtung gesehen zwischen dem Basispunkt (10, 10’) und dem Schnittpunkt (28) liegt, und dass ein Schnittpunkt (32) einer durch den Startpunkt (30) und die Handposition (23) des jeweiligen Einzelarmbereichs (16, 17) bestimmten Verbindungslinie (31) mit einer vorbestimmten, vor der Person (4) verlaufenden Arbeitsebene (13) ermittelt wird. Evaluation method according to claims 4 and 5, characterized in that at the base level ( 29 ) based on the base point ( 10 . 10 ' ) and the point of intersection ( 28 ) a starting point ( 30 ), viewed in the horizontal direction between the base point ( 10 . 10 ' ) and the intersection ( 28 ), and that an intersection ( 32 ) one through the starting point ( 30 ) and the hand position ( 23 ) of the respective individual arm area ( 16 . 17 ) certain connection line ( 31 ) with a predetermined, in front of the person ( 4 ) working level ( 13 ) is determined. Auswertungsverfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass ein Schnittpunkt (22) der längsten (21) der Hauptachsen des jeweiligen Einzelarmbereichs (16, 17) mit einer vorbestimmten, vor der Person (4) verlaufenden Arbeitsebene (13) ermittelt wird. Evaluation method according to one of claims 2 to 5, characterized in that an intersection point ( 22 ) the longest ( 21 ) of the main axes of the respective individual arm region ( 16 . 17 ) with a predetermined, in front of the person ( 4 ) working level ( 13 ) is determined. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass im Rahmen der Ermittlung des gemeinsamen Armbereichs und/oder im Rahmen der Ermittlung der Einzelarmbereiche (16, 17) störungsreduzierende morphologische Operationen durchgeführt werden. Evaluation method according to one of the preceding claims, characterized in that in the context of the determination of the common arm area and / or in the context of the determination of the individual arm areas ( 16 . 17 ) interference-reducing morphological operations are performed. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass für die Einzelarmbereiche (16, 17) eine jeweilige Anzahl an Punkten ermittelt wird, die im jeweiligen Einzelarmbereich (16, 17) enthalten sind, und dass im Rahmen der weiteren Auswertung nur diejenigen Einzelarmbereiche (16, 17) berücksichtigt werden, deren Anzahl an Punkten eine Mindestpunktzahl überschreitet. Evaluation method according to one of the above claims, characterized in that for the single arm areas ( 16 . 17 ) a respective number of points is determined, which in the respective single-arm area ( 16 . 17 ) and that in the further evaluation only those single-arm areas ( 16 . 17 ) whose number of points exceeds a minimum score. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass für die Einzelarmbereiche (16, 17) eine jeweilige Anzahl an Punkten ermittelt wird, die im jeweiligen Einzelarmbereich (16, 17) enthalten sind, und dass im Rahmen der weiteren Auswertung nur die Einzelarmbereiche (16, 17) mit der größten und der zweitgrößten Anzahl an Punkten berücksichtigt werden. Evaluation method according to one of the preceding claims, characterized in that for the individual-arm areas ( 16 . 17 ) a respective number of points is determined, which in the respective single-arm area ( 16 . 17 ) and that in the further evaluation only the single-arm areas ( 16 . 17 ) with the largest and the second largest number of points. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Grenzfläche (14) wendepunktfrei ist. Evaluation method according to one of the preceding claims, characterized in that the interface ( 14 ) is free of turning points. Auswertungsverfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Grenzfläche (14) eine Ebene oder eine um den Basispunkt (10, 10’) gekrümmte Fläche ist. Evaluation method according to claim 11, characterized in that the interface ( 14 ) one level or one around the base point ( 10 . 10 ' ) is curved surface. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass der Bereich (9) personenähnlicher Kontur als dreidimensionale Punktwolke in den dreidimensionalen Raum abgebildet wird und dass die Auswertungen des Bereichs (9) personenähnlicher Kontur zumindest teilweise im dreidimensionalen Raum erfolgen. Evaluation method according to one of the above claims, characterized in that the area ( 9 ) person-like contour is depicted as a three-dimensional point cloud in the three-dimensional space and that the evaluations of the area ( 9 ) person-like contour at least partially in three-dimensional space. Auswertungsverfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass anhand des Bereichs (9) personenähnlicher Kontur eine Regressionsebene (12) an die Brust der Person (4) bestimmt wird und dass der Offsetvektor (11) derart bestimmt wird, dass er orthogonal zu einer innerhalb der Regressionsebene (12) verlaufenden Horizontallinie gerichtet ist. Evaluation method according to one of Claims 1 to 13, characterized in that, based on the range ( 9 ) person-like contour a regression plane ( 12 ) to the person's chest ( 4 ) and that the offset vector ( 11 ) is determined to be orthogonal to one within the regression plane ( 12 ) extending horizontal line is directed. Auswertungsverfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass zumindest die Richtung des Offsetvektors (11’) fest vorgegeben ist. Evaluation method according to one of Claims 1 to 13, characterized in that at least the direction of the offset vector ( 11 ' ) is fixed. Auswertungsverfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass anhand des Bereichs (9) personenähnlicher Kontur auf eine Größe der Person (4) geschlossen wird und dass der Basispunkt (10’) derart bestimmt wird, dass er in Brusthöhe der Person (4) liegt. Evaluation method according to one of Claims 1 to 15, characterized in that, based on the range ( 9 ) person-like contour to a size of the person ( 4 ) and that the base point ( 10 ' ) is determined to be at chest height of the person ( 4 ) lies. Auswertungsverfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass der Basispunkt (10) durch den Schwerpunkt des Bereichs (9) personenähnlicher Kontur bestimmt ist. Evaluation method according to one of Claims 1 to 15, characterized in that the base point ( 10 ) by the center of gravity of the area ( 9 ) person-like contour is determined. Auswertungsverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Tiefenbilder (B’) und/oder die anhand der Tiefenbilder (B’) ermittelten Ergebnisse zeitlich tiefpassgefiltert werden. Evaluation method according to one of the above claims, characterized in that the depth images (B ') and / or the results determined on the basis of the depth images (B') are time-low-pass filtered. Computerprogramm, das Maschinencode (8) umfasst, der von einem Rechner (5) unmittelbar abarbeitbar ist und dessen Abarbeitung durch den Rechner (5) bewirkt, dass der Rechner (5) ein Auswertungsverfahren mit allen Schritten eines Auswertungsverfahrens nach einem der obigen Ansprüche ausführt. Computer program, the machine code ( 8th ) generated by a computer ( 5 ) is immediately executable and its execution by the computer ( 5 ) causes the computer ( 5 ) performs an evaluation method with all the steps of an evaluation method according to one of the above claims. Rechner, dadurch gekennzeichnet, dass der Rechner derart programmiert ist, dass er im Betrieb ein Auswertungsverfahren mit allen Schritten eines Auswertungsverfahrens nach einem der Ansprüche 1 bis 18 ausführt. Computer, characterized in that the computer is programmed such that it executes an evaluation method with all steps of an evaluation method according to one of claims 1 to 18 during operation. Auswertungseinrichtung, – wobei die Auswertungseinrichtung eine Kameraeinrichtung (1) zur Erfassung einer Folge von zeitlich aufeinander folgenden Tiefenbildern (B’) aufweist, – wobei die Auswertungseinrichtung einen Rechner (5) nach Anspruch 20 aufweist, der mit der Kameraeinrichtung (1) zur Entgegennahme und Auswertung der von der Kameraeinrichtung (1) erfassten Bilder (B) datentechnisch verbunden ist. Evaluation device, - wherein the evaluation device is a camera device ( 1 ) for acquiring a sequence of temporally successive depth images (B '), - wherein the evaluation device comprises a computer ( 5 ) according to claim 20, associated with the camera device ( 1 ) for receiving and evaluating the camera device ( 1 ) captured images (B) is connected by data technology.
DE102011075877A 2011-05-16 2011-05-16 Evaluation method for a sequence of temporally successive depth images Pending DE102011075877A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102011075877A DE102011075877A1 (en) 2011-05-16 2011-05-16 Evaluation method for a sequence of temporally successive depth images
PCT/EP2012/056764 WO2012156159A1 (en) 2011-05-16 2012-04-13 Evaluation method for a sequence of chronologically sequential depth images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011075877A DE102011075877A1 (en) 2011-05-16 2011-05-16 Evaluation method for a sequence of temporally successive depth images

Publications (1)

Publication Number Publication Date
DE102011075877A1 true DE102011075877A1 (en) 2012-11-22

Family

ID=45976392

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011075877A Pending DE102011075877A1 (en) 2011-05-16 2011-05-16 Evaluation method for a sequence of temporally successive depth images

Country Status (2)

Country Link
DE (1) DE102011075877A1 (en)
WO (1) WO2012156159A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013000080A1 (en) * 2013-01-08 2014-07-10 Audi Ag Method for activating function of e.g. clock in vehicle, involves generating signal for triggering function of device in vehicle, while determined distance at which control action signal is generated is smaller than threshold value
CN104765440A (en) * 2014-01-02 2015-07-08 株式会社理光 Hand detecting method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1916100A (en) * 1998-11-17 2000-06-05 Holoplex, Inc. Stereo-vision for gesture recognition
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
AU2008299883B2 (en) * 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Gesture Recognition: A Survey" von Sushmita Mitra und Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 37, No. 3, May 2007, Seiten 311 bis 324
"Minority Report" aus dem Jahr 2002

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013000080A1 (en) * 2013-01-08 2014-07-10 Audi Ag Method for activating function of e.g. clock in vehicle, involves generating signal for triggering function of device in vehicle, while determined distance at which control action signal is generated is smaller than threshold value
DE102013000080B4 (en) * 2013-01-08 2015-08-27 Audi Ag Activation of a motor vehicle function by means of an optical sensor
CN104765440A (en) * 2014-01-02 2015-07-08 株式会社理光 Hand detecting method and device
CN104765440B (en) * 2014-01-02 2017-08-11 株式会社理光 Hand detection method and equipment

Also Published As

Publication number Publication date
WO2012156159A1 (en) 2012-11-22

Similar Documents

Publication Publication Date Title
DE112014003563B4 (en) Device and method for gesture determination, gesture control device, program and recording medium
DE102017116952A1 (en) SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA
DE102015111080B4 (en) Robotic device with machine vision
DE102017222057B4 (en) robot system
EP3968288A2 (en) 3-d image analyzer for determining viewing direction
DE102016120775A1 (en) System and method for detecting lines in an image with a vision system
EP2672915A1 (en) Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera
EP3040818B1 (en) Program and system for detecting an object on a display screen
DE102014007909A1 (en) Surgical microscope
DE102016109891A1 (en) Data browsing device, data browsing method, program and storage medium
EP2819109B1 (en) Optoelectronic 3D-sensor and method for recognising objects
EP2860614A1 (en) Method and device for handling graphically displayed data
WO2020178198A1 (en) Estimating the movement of an image position
DE102011075877A1 (en) Evaluation method for a sequence of temporally successive depth images
EP3959497A1 (en) Method and device for measuring the local refractive power and/or refractive power distribution of a spectacle lens
DE112019006107T5 (en) Authoring device, authoring process and authoring program
DE102007041482A1 (en) Method for automatic recognition of at least the type and / or the position of a gesture formed with a limb, in particular a hand gesture
DE112021000595T5 (en) image processing system
DE102016214391B4 (en) Method for controlling an operation of a coordinate measuring machine and coordinate measuring machine with control
DE102020208080A1 (en) Detection of objects in images under equivariance or invariance with respect to the object size
WO2020043440A1 (en) Directional estimation of an open space gesture
DE102014201313A1 (en) Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method
EP3809094B1 (en) Method and arrangement for visualising sensor signals of an optical sensor of a coordinate measuring device, and method and arrangement for visualising a sensor of a coordinate measuring device
DE102019126903B3 (en) Method and robot system for entering a work area
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000