DE102011075877A1 - Evaluation method for a sequence of temporally successive depth images - Google Patents
Evaluation method for a sequence of temporally successive depth images Download PDFInfo
- Publication number
- DE102011075877A1 DE102011075877A1 DE102011075877A DE102011075877A DE102011075877A1 DE 102011075877 A1 DE102011075877 A1 DE 102011075877A1 DE 102011075877 A DE102011075877 A DE 102011075877A DE 102011075877 A DE102011075877 A DE 102011075877A DE 102011075877 A1 DE102011075877 A1 DE 102011075877A1
- Authority
- DE
- Germany
- Prior art keywords
- person
- area
- evaluation method
- determined
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
Eine Folge von Tiefenbildern (B’) zeigt jeweils mindestens eine Person (4) von vorne. In den Tiefenbildern (B’) wird jeweils mindestens ein Bereich (9) personenähnlicher Kontur ermittelt und der Person (4) zugeordnet. Es werden ein Basispunkt (10, 10’) des Bereichs (9) personenähnlicher Kontur im Raum ermittelt und ein Offsetvektor (11, 11’) bestimmt. Der vom Basispunkt (10, 10’) ausgehende Offsetvektor (11, 11’) weist eine in Bezug auf die Person (4) nach vorne zeigende Komponente auf. Eine Grenzfläche (14) des Raums trennt einen Teil des Bereichs (9) personenähnlicher Kontur (gemeinsamer Armbereich) vom Basispunkt (10, 10’). Die Grenzfläche (14) enthält den Offsetvektor (11, 11’) und verläuft spiegelsymmetrisch zu einer den Offsetvektor (11, 11’) enthaltenden Vertikalebene. Jeder Punkt der Grenzfläche (14) ist vom Basispunkt (10, 10’) mindestens um die Länge des Offsetvektors (11, 11’) beabstandet. Innerhalb des gemeinsamen Armbereichs werden Einzelarmbereiche (16, 17) ermittelt. Diese sind jeweils durch diejenigen Punkte (18) im dreidimensionalen Raum bestimmt ist, die zu mindestens einem anderen Punkt (19) desselben Einzelarmbereichs (16, 17) einen Abstand kleiner als ein Minimalabstand und zu allen anderen Punkten (20) des gemeinsamen Armbereichs einen Abstand größer als ein Maximalabstand aufweisen. Der Minimalabstand ist in etwa gleich einem Rastermaß des Raumes. Der Maximalabstand ist größer als das Rastermaß. Anhand der Einzelarmbereiche (16, 17) werden weitergehende Auswertungen der Tiefenbilder (B’) vorgenommen.A sequence of depth images (B ') shows at least one person (4) from the front. In the depth images (B ') at least one area (9) with a person-like contour is determined and assigned to the person (4). A base point (10, 10 ’) of the area (9) with a person-like contour in space is determined and an offset vector (11, 11’) is determined. The offset vector (11, 11 ’) starting from the base point (10, 10’) has a component that points forward in relation to the person (4). A boundary surface (14) of the room separates part of the area (9) with a person-like contour (common arm area) from the base point (10, 10 '). The interface (14) contains the offset vector (11, 11 ’) and runs mirror-symmetrically to a vertical plane containing the offset vector (11, 11’). Each point of the interface (14) is spaced from the base point (10, 10 ') at least by the length of the offset vector (11, 11'). Individual arm areas (16, 17) are determined within the common arm area. These are each determined by those points (18) in three-dimensional space that are less than a minimum distance from at least one other point (19) of the same individual arm area (16, 17) and a distance from all other points (20) of the common arm area greater than a maximum distance. The minimum distance is roughly equal to a grid dimension of the room. The maximum distance is larger than the grid dimension. Based on the individual arm areas (16, 17), further evaluations of the depth images (B ') are made.
Description
Die vorliegende Erfindung betrifft ein Auswertungsverfahren für eine Folge von zeitlich aufeinander folgenden Tiefenbildern, die jeweils mindestens eine Person von vorne zeigen. The present invention relates to an evaluation method for a sequence of temporally successive depth images, each showing at least one person from the front.
Die vorliegende Erfindung betrifft weiterhin ein Computerprogramm, das Maschinencode umfasst, der von einem Rechner unmittelbar abarbeitbar ist und dessen Abarbeitung durch den Rechner bewirkt, dass der Rechner ein derartiges Auswertungsverfahren ausführt. The present invention further relates to a computer program which comprises machine code which can be processed directly by a computer and whose execution by the computer causes the computer to carry out such an evaluation method.
Die vorliegende Erfindung betrifft weiterhin einen Rechner, der derart programmiert ist, dass er im Betrieb ein derartiges Auswertungsverfahren ausführt. The present invention further relates to a computer programmed to perform such an evaluation method during operation.
Die vorliegende Erfindung betrifft weiterhin eine Auswertungseinrichtung,
- – wobei die Auswertungseinrichtung eine Kameraeinrichtung zur Erfassung einer Folge von zeitlich aufeinander folgenden Tiefenbildern aufweist,
- – wobei die Auswertungseinrichtung einen Rechner aufweist, der mit der Kameraeinrichtung zur Entgegennahme und Auswertung der von der Kameraeinrichtung erfassten Bilder datentechnisch verbunden ist.
- - wherein the evaluation device has a camera device for detecting a sequence of temporally successive depth images,
- - wherein the evaluation device comprises a computer which is connected to the camera device for receiving and evaluating the captured images from the camera device data.
In unterschiedlichsten Anwendungsgebieten ist es oftmals sinnvoll, einen Rechner über Gesten zu steuern, d.h. berührungslos statt über Tastatur und Maus. Ein Beispiel eines derartigen Anwendungsgebiets ist die Medizin, bei der der Arzt beispielsweise im sterilen Operationssaal keine Tastatur verwenden kann. Ein weiteres Beispiel ist eine Gruppe von Ärzten, die bei einer Diagnose oder bei einer Operationsplanung gemeinsam vor einem großen Display stehen. Jeder Arzt bzw. allgemeiner jede Person soll effizient und ohne Ablenkung exakt markieren, die Darstellung anpassen oder Aktionen auslösen können. In a wide variety of application areas, it often makes sense to control a computer via gestures, i. contactless instead of keyboard and mouse. An example of such a field of application is medicine, where the physician can not use a keyboard, for example, in the sterile operating room. Another example is a group of physicians standing together in front of a large display during a diagnosis or surgical planning. Every doctor or, more generally, every person should be able to mark efficiently and without distraction exactly, to adapt the presentation or to trigger actions.
Ähnliche Probleme stellen sich für Arbeitsumgebungen, die entweder sehr sauber sein müssen (beispielsweise Reinräume) oder aber sehr schmutzig sind (beispielsweise Industriehallen). Similar problems arise for work environments that either have to be very clean (for example, clean rooms) or are very dirty (for example, industrial halls).
Gestensteuerung ist als Solche bekannt. Ein Überblick über den Stand der Technik findet sich in dem Fachaufsatz
Im Stand der Technik erfolgt die Gestensteuerung alternativ berührungslos (meist durch Bildauswertung von Kamerabildern) oder mit der Notwendigkeit spezieller Kleidung oder Markierungen. In manchen Fällen müssen beispielsweise spezielle Handschuhe oder Controller in bzw. an der Hand getragen werden. In the prior art, the gesture control is alternatively non-contact (usually by image analysis of camera images) or with the need for special clothing or markings. In some cases, for example, special gloves or controllers must be worn in or on the hand.
Einem breiten Publikum ist das Konzept durch den Film
In jüngster Zeit ist auch das Produkt „Kinect“ der Firma Microsoft auf den Markt gekommen. Dieses Produkt stellt einen Sensor zuzüglich Auswertungssoftware zur Verfügung, welcher eine berührungslose Steuerung kostengünstig realisiert. Die dort verwendeten Auswertungsverfahren erfordern jedoch vom Bediener zu Beginn eine spezielle Kalibriergeste. Recently, the product "Kinect" Microsoft has come on the market. This product provides a sensor plus evaluation software, which realizes a non-contact control cost-effectively. However, the evaluation methods used there require the operator to start a special calibration gesture.
Die Aufgabe der vorliegenden Erfindung besteht darin, Möglichkeiten zu schaffen, mittels derer auf einfache und zuverlässige Weise eine berührungslose Steuerung durch geeignete Hand- und Armbewegungen möglich ist. Insbesondere soll ein vorheriges Kalibrieren nicht erforderlich sein. The object of the present invention is to provide opportunities by means of which a simple and reliable way a non-contact control by suitable hand and arm movements is possible. In particular, a previous calibration should not be required.
Die Aufgabe wird durch ein Auswertungsverfahren mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Auswertungsverfahrens sind Gegenstand der abhängigen Ansprüche 2 bis 18. The object is achieved by an evaluation method having the features of
Erfindungsgemäß ist bei einem Auswertungsverfahren der eingangs genannten Art vorgesehen,
- – dass in den Tiefenbildern jeweils mindestens ein Bereich personenähnlicher Kontur ermittelt wird und der jeweilige Bereich personenähnlicher Kontur der Person zugeordnet wird,
- – dass ein Basispunkt des Bereichs personenähnlicher Kontur im dreidimensionalen Raum ermittelt wird,
- – dass ein Offsetvektor bestimmt wird,
- – dass der vom Basispunkt ausgehende Offsetvektor eine Komponente aufweist, die in Bezug auf die Person nach vorne zeigt,
- – dass derjenige Teil des Bereichs personenähnlicher Kontur, der durch eine Grenzfläche des dreidimensionalen Raums vom Basispunkt getrennt ist, als gemeinsamer Armbereich der Person definiert wird,
- – dass die Grenzfläche den Offsetvektor enthält, spiegelsymmetrisch zu einer den Offsetvektor enthaltenden Vertikalebene verläuft und jeder Punkt der Grenzfläche vom Basispunkt mindestens um die Länge des Offsetvektors beabstandet ist,
- – dass innerhalb des gemeinsamen Armbereichs Einzelarmbereiche ermittelt werden,
- – dass jeder Einzelarmbereich durch diejenigen Punkte im dreidimensionalen Raum bestimmt ist, die zu mindestens einem anderen Punkt desselben Einzelarmbereichs einen Abstand aufweisen, der kleiner als ein Minimalabstand ist, und zu allen anderen Punkten des gemeinsamen Armbereichs einen Abstand aufweisen, der größer als ein Maximalabstand ist,
- – dass der Minimalabstand in etwa gleich einem Rastermaß des dreidimensionalen Raumes ist und der Maximalabstand größer als das Rastermaß ist und
- – dass anhand der Einzelarmbereiche weitergehende Auswertungen der Tiefenbilder vorgenommen werden.
- That at least one area of a person-like contour is determined in the depth images and the respective area of person-like contour is assigned to the person,
- That a base point of the area of person-like contour is determined in three-dimensional space,
- That an offset vector is determined
- That the offset vector originating from the base point has a component pointing forward with respect to the person,
- That the part of the area of person-like contour which is separated from the base point by an interface of the three-dimensional space is defined as the common arm area of the person,
- In that the interface contains the offset vector, is mirror-symmetric to a vertical plane containing the offset vector, and each point of the interface is spaced from the base point by at least the length of the offset vector,
- That individual arm areas are determined within the common arm area,
- - that each single-arm area is determined by those points in three-dimensional space, have a distance that is smaller than a minimum distance to at least one other point of the same single arm area, and have a distance that is greater than a maximum distance to all other points of the common arm area,
- - That the minimum distance is approximately equal to a grid dimension of the three-dimensional space and the maximum distance is greater than the grid and
- - That on the basis of the Einzelarmbereiche further evaluations of the depth images are made.
Vorzugsweise ist vorgesehen, dass die weitergehenden Auswertungen der Einzelarmbereiche für den jeweiligen Einzelarmbereich eine auf statistischer Auswertung des jeweiligen Einzelarmbereichs basierende Ermittlung der Hauptachsen des jeweiligen Einzelarmbereichs umfassen. Dadurch kann auf besonders zuverlässige Weise die Hauptrichtung des Unterarms des jeweiligen Einzelarmbereichs ermittelt werden. Weiterhin kann dadurch auf einfache Weise – nämlich anhand der längsten der Hauptachsen des jeweiligen Einzelarmbereichs und des Offsetvektors – eine Handposition für den jeweiligen Einzelarmbereich ermittelt werden. It is preferably provided that the further evaluations of the individual arm areas for the respective individual arm area comprise a determination of the main axes of the respective individual arm area based on statistical evaluation of the respective individual arm area. As a result, the main direction of the forearm of the respective individual arm region can be determined in a particularly reliable manner. Furthermore, this makes it possible to determine a hand position for the respective individual arm area in a simple manner, namely on the basis of the longest of the main axes of the respective individual arm area and of the offset vector.
Zur weitergehenden Auswertung ist es möglich, dass eine Abmessung desjenigen Teils des jeweiligen Einzelarmbereichs, der innerhalb eines die jeweilige Handposition umgebenden Handbereichs liegt, ermittelt wird und dass eine Aktivierung einer Aktion erfolgt, wenn während einer vorbestimmten Anzahl aufeinander folgender Tiefenbilder die ermittelte Abmessung jeweils eine Mindestabmessung überschreitet. For further evaluation, it is possible for a dimension of that part of the respective individual arm region which lies within a hand region surrounding the respective hand position to be determined and for an action to be activated if the determined dimension has a minimum dimension during a predetermined number of successive depth images exceeds.
Eine Zuordnung der aufgefundenen Einzelarmbereiche zu den „richtigen“ Armen der Person ist dadurch einfach realisierbar, dass ein Schnittpunkt der längsten der Hauptachsen des jeweiligen Einzelarmbereichs mit einer den Basispunkt enthaltenden, orthogonal zum Offsetvektor verlaufenden Basisebene bestimmt wird und dass der jeweilige Einzelarmbereich je nachdem, ob der jeweilige Schnittpunkt in Bezug auf die Person links oder rechts des Basispunkts liegt, dem linken oder dem rechten Arm der Person zugeordnet wird. An association of the individual arm areas found to the "right" arms of the person can be realized simply by determining an intersection of the longest of the main axes of the respective single arm area with a base plane containing the base point orthogonal to the offset vector, and if the respective single arm area the point of intersection with respect to the person to the left or right of the base point is assigned to the left or right arm of the person.
Zur Ermittlung einer Position, auf welche die Person zeigt, kann in diesem Fall in der Basisebene anhand des Basispunkts und des Schnittpunkts ein Startpunkt ermittelt werden, der in Horizontalrichtung gesehen zwischen dem Basispunkt und dem Schnittpunkt liegt. Sodann kann ein Schnittpunkt einer durch den Startpunkt und die Handposition des jeweiligen Einzelarmbereichs bestimmten Verbindungslinie mit einer vorbestimmten, vor der Person verlaufenden Arbeitsebene ermittelt werden. Alternativ ist es möglich, dass ein Schnittpunkt der längsten der Hauptachsen des jeweiligen Einzelarmbereichs mit einer vorbestimmten, vor der Person verlaufenden Arbeitsebene ermittelt wird. In order to determine a position to which the person points, in this case a starting point can be determined in the base plane on the basis of the base point and the point of intersection, which lies in the horizontal direction between the base point and the point of intersection. Then, an intersection point of a connection line determined by the starting point and the hand position of the respective individual arm area can be determined with a predetermined working level extending in front of the person. Alternatively, it is possible for an intersection of the longest of the main axes of the respective individual arm region to be determined with a predetermined working plane extending in front of the person.
Die Bildauswertung liefert in der Regel bessere Ergebnisse, wenn die Tiefenbilder geeignet gefiltert werden. Zum Filtern bietet es sich insbesondere an, dass im Rahmen der Ermittlung des gemeinsamen Armbereichs und/oder im Rahmen der Ermittlung der Einzelarmbereiche störungsreduzierende morphologische Operationen durchgeführt werden. The image analysis usually gives better results when the depth images are filtered properly. For filtering, it is particularly appropriate for interference-reducing morphological operations to be carried out as part of the determination of the common arm area and / or within the scope of the determination of the individual arm areas.
Im Idealfall werden im Rahmen des erfindungsgemäßen Auswertungsverfahrens exakt zwei Einzelarmbereiche ermittelt. In der Praxis kann es aufgrund von Störungen jedoch geschehen, dass mehr oder weniger als zwei Einzelarmbereiche ermittelt werden. Zur weitergehenden Optimierung der Auswertung ist es möglich, dass für die Einzelarmbereiche eine jeweilige Anzahl an Punkten ermittelt wird, die im jeweiligen Einzelarmbereich enthalten sind, und dass im Rahmen der weiteren Auswertung nur diejenigen Einzelarmbereiche berücksichtigt werden, deren Anzahl an Punkten eine Mindestpunktzahl überschreitet. Alternativ ist es möglich, dass für die Einzelarmbereiche eine jeweilige Anzahl an Punkten ermittelt wird, die im jeweiligen Einzelarmbereich enthalten sind, und dass im Rahmen der weiteren Auswertung nur die Einzelarmbereiche mit der größten und der zweitgrößten Anzahl an Punkten berücksichtigt werden. Ideally, exactly two individual arm areas are determined within the scope of the evaluation method according to the invention. However, in practice, due to disturbances, more or less than two single-arm areas may be detected. For further optimization of the evaluation, it is possible for the individual arm areas to determine a respective number of points which are contained in the respective individual arm area and that in the further evaluation only those individual arm areas are considered whose number of points exceeds a minimum number of points. Alternatively, it is possible for the individual arm areas to determine a respective number of points which are contained in the respective individual arm area, and that in the further evaluation only the single arm areas with the largest and the second largest number of points are taken into account.
Die beiden letztgenannten Vorgehensweisen sind auch miteinander kombinierbar. Wenn – rein beispielhaft – vier Einzelarmbereiche ermittelt werden, bei denen die Anzahl an Punkten die Mindestpunktzahl überschreitet, werden nur die beiden Einzelarmbereiche mit der größten und der zweitgrößten Anzahl an Punkten berücksichtigt. Wenn – ebenfalls rein beispielhaft – nur ein einziger Einzelarmbereich die Mindestpunktzahl überschreitet, wird nur dieser eine Einzelarmbereich berücksichtigt. Falls exakt zwei Einzelarmbereiche die Mindestpunktzahl überschreiten, führen die beiden Vorgehensweisen unabhängig voneinander zu übereinstimmenden Ergebnissen. The latter two approaches can also be combined. If, purely by way of example, four individual arm ranges are determined in which the number of points exceeds the minimum number of points, only the two individual arm ranges with the largest and the second largest number of points are taken into account. If, purely by way of example, only a single single-arm range exceeds the minimum number of points, only this single-arm range is taken into account. If exactly two single-arm ranges exceed the minimum score, the two approaches will produce mutually consistent results.
Die Grenzfläche, die (im Ergebnis) den Rumpf der Person von deren Armen trennt, kann nach Bedarf bestimmt sein. Vorzugsweise ist die Grenzfläche wendepunktfrei. Insbesondere kann die Grenzfläche eine Ebene oder eine um den Basispunkt gekrümmte Fläche sein. The interface that (in effect) separates the person's torso from their arms may be determined as needed. Preferably, the interface is free of turning points. In particular, the interface may be a plane or a surface curved around the base point.
Es ist möglich, dass direkt eine Auswertung der Bildpunkte der Tiefenbilder (einschließlich der zugeordneten Tiefeninformation) erfolgt. Vorzugsweise ist jedoch vorgesehen, dass der Bereich personenähnlicher Kontur als dreidimensionale Punktwolke in den dreidimensionalen Raum abgebildet wird und dass die Auswertungen des Bereichs personenähnlicher Kontur zumindest teilweise im dreidimensionalen Raum erfolgen. It is possible that an evaluation of the pixels of the depth images (including the associated depth information) takes place directly. Preferably, however, it is provided that the area of person-like contour is three-dimensional Point cloud is displayed in the three-dimensional space and that the evaluations of the area person-like contour at least partially done in three-dimensional space.
In einer bevorzugten Ausgestaltung der vorliegenden Erfindung ist vorgesehen, dass anhand des Bereichs personenähnlicher Kontur eine Regressionsebene an die Brust der Person bestimmt wird und dass der Offsetvektor derart bestimmt wird, dass er orthogonal zu einer innerhalb der Regressionsebene verlaufenden Horizontallinie gerichtet ist. Durch diese Vorgehensweise werden besonders gute Ergebnisse erzielt. Alternativ ist es möglich, dass zumindest die Richtung des Offsetvektors fest vorgegeben ist. Diese Vorgehensweise ist einfacher realisierbar und führt in vielen Fällen zu hinreichend guten Ergebnissen. In a preferred embodiment of the present invention, it is provided that a regression plane to the person's chest is determined on the basis of the area of person-like contour and that the offset vector is determined such that it is oriented orthogonal to a horizontal line running within the regression plane. By doing so, particularly good results are achieved. Alternatively, it is possible that at least the direction of the offset vector is fixed. This procedure is easier to implement and leads in many cases to sufficiently good results.
Es ist möglich, dass die Höhenlage des Basispunkts fest vorgegeben ist. Alternativ ist es möglich, dass anhand des Bereichs personenähnlicher Kontur auf eine Größe der Person geschlossen wird und dass der Basispunkt derart bestimmt wird, dass er in Brusthöhe der Person liegt. Ebenfalls alternativ ist es möglich, dass der Basispunkt durch den Schwerpunkt des Bereichs personenähnlicher Kontur bestimmt ist. It is possible that the altitude of the base point is fixed. Alternatively, it is possible for a size of the person to be deduced based on the area of person-like contour, and for the base point to be determined such that it lies at the chest level of the person. Also alternatively, it is possible that the base point is determined by the center of gravity of the area of person-like contour.
In vielen Fällen kann das erfindungsgemäße Auswertungsverfahren dadurch optimiert werden, dass die Tiefenbilder und/oder die anhand der Tiefenbilder ermittelten Ergebnisse zeitlich tiefpassgefiltert werden. In many cases, the evaluation method according to the invention can be optimized in that the depth images and / or the results determined on the basis of the depth images are time-low-pass filtered.
Die Aufgabe wird weiterhin durch ein Computerprogramm mit den Merkmalen des Anspruchs 19 gelöst. Erfindungsgemäß bewirkt die Abarbeitung des Maschinencodes durch den Rechner, dass der Rechner ein erfindungsgemäßes Auswertungsverfahren ausführt. The object is further achieved by a computer program having the features of
Die Aufgabe wird weiterhin durch einen Rechner mit den Merkmalen des Anspruchs 20 gelöst. Erfindungsgemäß ist der Rechner derart programmiert, dass er im Betrieb ein erfindungsgemäßes Auswertungsverfahren ausführt. The object is further achieved by a computer having the features of
Die Aufgabe wird weiterhin durch eine Auswertungseinrichtung mit den Merkmalen des Anspruchs 21 gelöst. Erfindungsgemäß ist eine Auswertungseinrichtung der eingangs genannten Art mit einem erfindungsgemäßen Rechner ausgestattet. The object is further achieved by an evaluation device having the features of
Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen in Verbindung mit den Zeichnungen. Es zeigen in schematischer Prinzipdarstellung: Further advantages and details will become apparent from the following description of exemplary embodiments in conjunction with the drawings. In schematic schematic representation:
Gemäß den
Im Bildbereich
Auch andere Vorgehensweisen sind möglich. Beispielsweise kann mittels eines Lasers der Bildbereich
Die Tiefenbilder werden einem Rechner
Der Rechner
Das Computerprogramm
Gemäß
In einem Schritt S3 ermittelt der Rechner
Es ist möglich, dass a priori bekannt ist (oder vorausgesetzt wird), dass sich im Bildbereich
Nachfolgend wird der Einfachheit halber nur der Fall behandelt, dass in jedem Tiefenbild B’ jeweils ein einziger Bereich
Der Schritt S3 wird vom Rechner
Im Schritt S5 ermittelt der Rechner
Im Schritt S6 bestimmt der Rechner
Beispielsweise kann der Rechner
Alternativ ist es gemäß
Die Art und Weise, auf welche der Rechner
Im Schritt S7 bestimmt der Rechner
Der Ort, auf den der Offsetvektor
Vorzugsweise ist die Grenzfläche
In den nachfolgenden Schritten S8 und S9 werden in den Tiefenbildern B’ nur noch diejenigen Teile der Bereiche
Im Schritt S8 ermittelt der Rechner
- – Sie sind Bestandteil des gemeinsamen Armbereichs.
- – Jeder Punkt eines bestimmten Einzelarmbereichs
16 ,17 (beispielsweise der Punkt18 in1 ) weist zumindest einem anderen Punkt desselben Einzelarmbereichs16 ,17 (beispielsweise zum Punkt19 ) einen Abstand auf, der kleiner als ein Minimalabstand ist. - – Derselbe Punkt (gemäß Beispiel der Punkt
18 ) weist zu allen anderen Punkten des gemeinsamen Armbereichs (beispielsweise zum Punkt20 ) einen Abstand auf, der größer als ein Maximalabstand ist.
- - They are part of the common arm area.
- - Every point of a specific
single arm area 16 .17 (for example, thedot 18 in1 ) has at least one other point of the samesingle arm area 16 .17 (for example, to the point19 ) a distance that is smaller than a minimum distance. - - The same point (according to example the point
18 ) points to all other points of the common arm area (for example to the point20 ) has a distance greater than a maximum distance.
Die Ermittlung der Einzelarmbereiche
Der dreidimensionale Raum ist in der Regel in ein Rastermaß aufgeteilt. Der Minimalabstand ist in diesem Fall in etwa gleich dem Rastermaß. Insbesondere sollte der Minimalabstand maximal das ca. zweifache des Rastermaßes betragen. Der Maximalabstand hingegen ist größer als das Rastermaß und auch größer als der Minimalabstand. Insbesondere liegt das Verhältnis von Maximalabstand und Minimalabstand in der Regel zwischen 1,2 und 2,0, beispielsweise bei 1,4 bis 1,6. The three-dimensional space is usually divided into a grid. The minimum distance in this case is approximately equal to the grid dimension. In particular, the minimum distance should be at most about twice the grid size. The maximum distance, however, is greater than the pitch and also greater than the minimum distance. In particular, the ratio of maximum distance and minimum distance is usually between 1.2 and 2.0, for example 1.4 to 1.6.
Im Idealfall ergeben sich – entsprechend den realen Verhältnissen – im Rahmen des Schrittes S8 exakt zwei Einzelarmbereiche
Im Schritt S9 nimmt der Rechner
In einem Schritt S10 prüft der Rechner
Im Rahmen einer möglichen Ausgestaltung des Schrittes S9 von
In einem Schritt S42 selektiert der Rechner
In einem Schritt S43 kann der Rechner
Alternativ oder zusätzlich zum Schritt S43 kann der Rechner
Ausgehend von der Ermittlung der Handposition
Weiterhin ist es gemäß
Im Schritt S47 ermittelt der Rechner
Es ist möglich, dass der Rechner
Der Rechner
Im Schritt S53 überprüft der Rechner
Für manche Auswertungen ist irrelevant, ob ein bestimmter Einzelarmbereich
Falls die entsprechende Zuordnung der Einzelarmbereiche
Das oben stehend erläuterte Auswertungsverfahren und seine Ausgestaltungen können auf verschiedene Weise weiter verbessert werden. So sind insbesondere rauschmindernde Vorgehensweisen, welche die erfindungsgemäße Auswertung robuster gestalten, von Vorteil. Beispielsweise können die Tiefenbilder B’ und/oder – direkt oder indirekt – anhand der Tiefenbilder B’ ermittelten Ergebnisse (beispielsweise die Einzelarmbereiche
Weiterhin ist es für manche Verfahrensschritte rechentechnisch von Vorteil, die Auswertung im dreidimensionalen Raum selbst vorzunehmen. Zu diesem Zweck werden die Tiefenbilder B’ in den dreidimensionalen Raum umgerechnet. Es erfolgt also – möglicherweise vor der Ermittlung des Bereichs
Weiterhin ist es von Vorteil, dass zumindest das Aktivieren von Aktionen hysteresebehaftet ist. Furthermore, it is advantageous that at least the activation of actions is hysteresis.
Die vorliegende Erfindung weist viele Vorteile auf. So sind beispielsweise im Gegensatz zu bekannten Auswertungsverfahren keine speziellen Geräte oder Markierungen an der Person
Die obige Beschreibung dient ausschließlich der Erläuterung der vorliegenden Erfindung. Der Schutzumfang der vorliegenden Erfindung soll hingegen ausschließlich durch die beigefügten Ansprüche bestimmt sein. The above description is only for explanation of the present invention. The scope of the present invention, however, is intended to be determined solely by the appended claims.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturCited non-patent literature
- „Gesture Recognition: A Survey“ von Sushmita Mitra und Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 37, No. 3, May 2007, Seiten 311 bis 324 [0007] "Gesture Recognition: A Survey" by Sushmita Mitra and Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 3, May 2007, pages 311 to 324 [0007]
- „Minority Report“ aus dem Jahr 2002 [0009] "Minority Report" from 2002 [0009]
Claims (21)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011075877A DE102011075877A1 (en) | 2011-05-16 | 2011-05-16 | Evaluation method for a sequence of temporally successive depth images |
PCT/EP2012/056764 WO2012156159A1 (en) | 2011-05-16 | 2012-04-13 | Evaluation method for a sequence of chronologically sequential depth images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011075877A DE102011075877A1 (en) | 2011-05-16 | 2011-05-16 | Evaluation method for a sequence of temporally successive depth images |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011075877A1 true DE102011075877A1 (en) | 2012-11-22 |
Family
ID=45976392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011075877A Pending DE102011075877A1 (en) | 2011-05-16 | 2011-05-16 | Evaluation method for a sequence of temporally successive depth images |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102011075877A1 (en) |
WO (1) | WO2012156159A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013000080A1 (en) * | 2013-01-08 | 2014-07-10 | Audi Ag | Method for activating function of e.g. clock in vehicle, involves generating signal for triggering function of device in vehicle, while determined distance at which control action signal is generated is smaller than threshold value |
CN104765440A (en) * | 2014-01-02 | 2015-07-08 | 株式会社理光 | Hand detecting method and device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU1916100A (en) * | 1998-11-17 | 2000-06-05 | Holoplex, Inc. | Stereo-vision for gesture recognition |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
AU2008299883B2 (en) * | 2007-09-14 | 2012-03-15 | Facebook, Inc. | Processing of gesture-based user interactions |
-
2011
- 2011-05-16 DE DE102011075877A patent/DE102011075877A1/en active Pending
-
2012
- 2012-04-13 WO PCT/EP2012/056764 patent/WO2012156159A1/en active Application Filing
Non-Patent Citations (2)
Title |
---|
"Gesture Recognition: A Survey" von Sushmita Mitra und Tinku Acharya, IEEE Transactions on Systems, Man, and Cybernetics, Part C, Applications and Reviews, Vol. 37, No. 3, May 2007, Seiten 311 bis 324 |
"Minority Report" aus dem Jahr 2002 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013000080A1 (en) * | 2013-01-08 | 2014-07-10 | Audi Ag | Method for activating function of e.g. clock in vehicle, involves generating signal for triggering function of device in vehicle, while determined distance at which control action signal is generated is smaller than threshold value |
DE102013000080B4 (en) * | 2013-01-08 | 2015-08-27 | Audi Ag | Activation of a motor vehicle function by means of an optical sensor |
CN104765440A (en) * | 2014-01-02 | 2015-07-08 | 株式会社理光 | Hand detecting method and device |
CN104765440B (en) * | 2014-01-02 | 2017-08-11 | 株式会社理光 | Hand detection method and equipment |
Also Published As
Publication number | Publication date |
---|---|
WO2012156159A1 (en) | 2012-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112014003563B4 (en) | Device and method for gesture determination, gesture control device, program and recording medium | |
DE102017116952A1 (en) | SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA | |
DE102015111080B4 (en) | Robotic device with machine vision | |
DE102017222057B4 (en) | robot system | |
EP3968288A2 (en) | 3-d image analyzer for determining viewing direction | |
DE102016120775A1 (en) | System and method for detecting lines in an image with a vision system | |
EP2672915A1 (en) | Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera | |
EP3040818B1 (en) | Program and system for detecting an object on a display screen | |
DE102014007909A1 (en) | Surgical microscope | |
DE102016109891A1 (en) | Data browsing device, data browsing method, program and storage medium | |
EP2819109B1 (en) | Optoelectronic 3D-sensor and method for recognising objects | |
EP2860614A1 (en) | Method and device for handling graphically displayed data | |
WO2020178198A1 (en) | Estimating the movement of an image position | |
DE102011075877A1 (en) | Evaluation method for a sequence of temporally successive depth images | |
EP3959497A1 (en) | Method and device for measuring the local refractive power and/or refractive power distribution of a spectacle lens | |
DE112019006107T5 (en) | Authoring device, authoring process and authoring program | |
DE102007041482A1 (en) | Method for automatic recognition of at least the type and / or the position of a gesture formed with a limb, in particular a hand gesture | |
DE112021000595T5 (en) | image processing system | |
DE102016214391B4 (en) | Method for controlling an operation of a coordinate measuring machine and coordinate measuring machine with control | |
DE102020208080A1 (en) | Detection of objects in images under equivariance or invariance with respect to the object size | |
WO2020043440A1 (en) | Directional estimation of an open space gesture | |
DE102014201313A1 (en) | Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method | |
EP3809094B1 (en) | Method and arrangement for visualising sensor signals of an optical sensor of a coordinate measuring device, and method and arrangement for visualising a sensor of a coordinate measuring device | |
DE102019126903B3 (en) | Method and robot system for entering a work area | |
DE102012209664B4 (en) | DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |