WO2024038023A1 - COMPUTERIMPLEMENTIERTES VERFAHREN ZUR AUTOMATISCHEN BESTIMMUNG EINER GEEIGNETEN KLEIDUNGSGRÖßE FÜR EINE PERSON - Google Patents

COMPUTERIMPLEMENTIERTES VERFAHREN ZUR AUTOMATISCHEN BESTIMMUNG EINER GEEIGNETEN KLEIDUNGSGRÖßE FÜR EINE PERSON Download PDF

Info

Publication number
WO2024038023A1
WO2024038023A1 PCT/EP2023/072404 EP2023072404W WO2024038023A1 WO 2024038023 A1 WO2024038023 A1 WO 2024038023A1 EP 2023072404 W EP2023072404 W EP 2023072404W WO 2024038023 A1 WO2024038023 A1 WO 2024038023A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
body part
key point
frontal
view image
Prior art date
Application number
PCT/EP2023/072404
Other languages
English (en)
French (fr)
Inventor
Marcel RÜFFIN
Marian STAWSKI-HINKELMANN
Sk A S M Monirul ISLAM
Original Assignee
Mama Fusion Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mama Fusion Gmbh filed Critical Mama Fusion Gmbh
Publication of WO2024038023A1 publication Critical patent/WO2024038023A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Definitions

  • the invention relates to a computer-implemented method for automatically determining a suitable clothing size for a person by determining at least one body part dimension of at least one body part of the person of interest by evaluating several digital images of the person.
  • the aforementioned method is preferably used in so-called online trading, in which clothing is often purchased in an online shop based on a standardized clothing size, also known as clothing size. So there is no opportunity to try on selected clothing in a specific size.
  • the process could also be used in stationary retail, i.e. in a store with actual clothing items of different sizes.
  • the object of the present invention is to design and develop the aforementioned method in such a way that it is possible for practically every customer to select and order a garment with a precise fit using the means available to him or her, so that a large number of garments in varying sizes can be ordered and there is no need to return unsuitable items of clothing, at least in terms of their fit.
  • the method according to the invention in which the aforementioned object is achieved, is essentially initially characterized by the fact that a digital front view image and a digital side view image of the person are captured in an image capture step.
  • a digital front view image and a digital side view image of the person are captured in an image capture step.
  • the fact that the front view image and the side view image are digital simply means that the images are accessible for digital data processing and are not available as analog exposure material, for example in the form of exposed films.
  • predetermined body key points of the body part of interest are identified in the front view image and the side view image and the image coordinates of the body key points are determined.
  • the predetermined body key points of the body part or parts of interest are an overall view of the person's body in the front view image and the side view image simply around all body key points of interest.
  • Body key points relate to significant and characteristic areas of the human body that can be detected based on their external appearance.
  • These body key points can be, for example, the left eye, the right eye, the lower boundary of the nose, the center of the mouth, the boundary of the left shoulder, the right shoulder, the elbows, the wrists, the fingertips, the left and right boundary points the hips, the knees, the ankles, the heels, the tips of the toes, etc.
  • These body key points are detected in the front view image and the side view image and are therefore in the form of image coordinates.
  • the method further provides that in an image distance step at least one body key point distance of the body part of interest corresponding to the body part dimension is calculated in image coordinates from the image coordinates of the determined body key points of the body part of interest.
  • the method according to the invention provides that in a dimension determination step using a mathematical model of the relationship between at least one body key point distance and the body part dimension of the body part of interest, the body part dimension of the body part of interest is determined from the at least one body key point distance.
  • the assumption of an ellipse is assumed as a suitable mathematical model for the hip circumference, and the semi-axes of the ellipse are obtained from the two orthogonal hip widths from the front view image and the side view image.
  • image coordinates are also converted into actual physical dimension coordinates, for example in centimeters or meters.
  • This conversion of dimensions into image coordinates into physical distance dimensions can be done in various ways, for example by knowing the shooting situation (focal length the camera and the distance of the person from the camera) or by recording comparison objects of known size, or by specifying a specific body dimension in a physical distance measure (e.g. height of the recorded people in centimeters).
  • a clothing size determination step the suitable clothing size for the determined body part dimension is determined and output from at least one determined body part dimension and a given correspondence between body part dimension and suitable clothing size.
  • This final step makes it possible to accurately determine the appropriate clothing size based on the previously determined body part dimensions and the existing correspondence between these body part dimensions and a suitable clothing size, so that, for example, multiple orders of clothing items of different sizes are no longer necessary.
  • the required clothing size for a particular item of clothing can be determined quickly and precisely, so that the process of trying it on is optimized here too, and in particular less time is required to get dressed accurately.
  • the digital front view image and the digital side view image of the person are captured in the free and vertical state of the person with a digital camera at a recording angle, the deviation of the recording angle being recorded perpendicular to the effective direction of the earth's gravity field .
  • This can be accomplished, for example, with commercially available cell phones or tablets, which usually have acceleration sensors with which the orientation of the recording device (cell phone, tablet) can be determined during recording, in particular the inclination of the recording device and thus the camera with respect to certain axes of the recording device or the rotation of the recording device around certain axes, especially with regard to the orientation of the earth's gravity field.
  • the distortion of the digital front view caused by the deviation of the recording angle perpendicular to the effective direction of the earth's gravity field visual image and the digital side view image are compensated for by a mathematical mapping of the digital front view image and the digital side view image, in particular by applying a linear mapping rule to the digital front view image and / or the digital side view image.
  • a preferred development of the method according to the invention is characterized in that the identification of the body key points of the body part of interest is carried out in the key point step by analyzing the front view image by a neural network for frontal key point identification and/or by analyzing the side view image by a neural network for lateral key point identification .
  • both the front view image and the side view image are analyzed by a neural network for key point identification.
  • a further development of the aforementioned method is characterized in that the neural network for frontal key point identification is trained to identify at least two body key points from the group of the following body key points: top head, right head, right neck, right shoulder, top left upper arm, right, Upper arm top right, elbow right, wrist_top/middle/bottom_right, finger right, chest right, stomach right, belt right, hip right, crotch, head left, neck left, shoulder left, upper arm top left left, upper arm top right left, elbow left, wrist top/middle/bottom left, middle finger left, chest left, stomach left, belt left, hip left, ankle right, ankle left, toe right, toe left, sole right, sole left, inside/outside right thigh, inside/outside_thigh_left, inside/outside_knee_right, inside/outside_knee_left, inside/outside_knee_right, inside/outside_knee_left, and that the neural network for lateral key point identification is trained to identify
  • a prerequisite for successful identification of the body key points is that these body key points must also be recognizable in the front view image or in the side view image. It is therefore advisable to specify boundary conditions for the image capture step.
  • Such a boundary condition could be, for example, that the person captured in the image capture step must be wearing very tight-fitting clothing or is wearing little, for example only wearing underwear or a swimsuit.
  • At least two body key points must be identified in order to be able to draw conclusions about a body part dimension.
  • the positions of the body key points of the elbow and wrist must be known and therefore determined.
  • Another constraint could be that the person from whom the front view image and the side view image are captured must be in a certain pose.
  • the feet are aligned parallel to one another and shoulder-width apart and the arms are stretched to the side of the torso, but must be kept at a certain distance from the torso.
  • an algorithm for calculating the body key point distance and the body key points of the body part of interest required as input parameters are specified, in particular where the algorithm is based on geometric combinations. depend on, in particular Euclidean geometry and descriptive geometry based on multiple side views.
  • a preferred embodiment of the method is characterized in that at least one body key point distance from the following group is calculated in the image distance step: height_pixel_frontal, height_pixel_side, neck_pixel_frontal, neck_pixel_side, shoulder_left_pixel_frontal, shoulder_right_pixel_frontal, upper arm_pixel_frontal, upper arm_pixel_side, upper arm_circumference_pixel_frontal, upper arm_circumference_pixel_sei tally, forearm_pixel_frontal, forearm_pixel_side , chest_pixel_frontal, chest_pixel_side, stomach_pixel_frontal, stomach_pixel_side, beltline_pixel_frontal, waist_pixel_side, hip_pixel_frontal, hip_pixel_lateral, torso_pixel_frontal, torso_pixel_side, total_leg_pixel_frontal, total_leg_pixel_side, thigh_length_pixel_frontal, thigh_length_pixel_ lateral, thigh_circumference_pixel_
  • a further development of the method is characterized in that in the image distance step at least one combined body key point distance is also calculated from several body key point distances, in particular a closed polygon between body key points, preferably combined body key point distances that relate to circumferences.
  • the mathematical model of the relationship between the body key point distance and/or the combined body key point distance and the associated body part dimension of the body part of interest is a trained regression model, in particular a trained forest tree regression model.
  • the input parameter of the mathematical model of the relationship between A reference length in a physical unit of length is specified between the body key point distance and/or the combined body key point distance and the associated body part dimension of the body part of interest, wherein an object with the reference length is imaged on the digital front view image and/or on the digital side view image.
  • the object can be the person themselves, whose height is specified as a reference length.
  • the object can also be an object that is preferably at the same distance from the camera that records the front view image and the side view image, for example the vertical height of the object being specified as a reference length.
  • the method for automatically determining the appropriate clothing size for the person is preferably designed such that the mathematical model of the relationship between the body key point distance and/or the combined body key point distance and the associated body part dimension of the body part of interest relates to a body part dimension from the group of the following body part dimensions: head circumference, Neck circumference, shoulder width, upper arm length, upper arm circumference, forearm length, chest circumference, stomach circumference, torso length, waist circumference, hip circumference, leg length, thigh length, thigh circumference, calf circumference, short inseam, long inseam, crotch.
  • body part dimensions have been found to be particularly relevant for determining an appropriate clothing size for the person whose body part dimensions are being determined.
  • the method is preferably designed such that in the clothing size determination step the given correspondence between body part dimensions and suitable clothing size is specific for a specific item of clothing or for a specific group of items of clothing. This makes it possible to use correspondences between recorded body part dimensions and a resulting suitable clothing size that are specific to a particular item of clothing. If a clothing manufacturer repeatedly applies certain design principles when producing certain items of clothing, then it may also make sense to create correspondence not for each individual item of clothing, but for a group of items of clothing, for example polo shirts. Shirts, without compromising the quality of the process in determining the appropriate clothing size.
  • FIG. 1 shows schematically the method according to the invention for automatically determining a suitable clothing size for a person
  • Fig. 4 schematically shows a side view image of the person, also with certain body key points and
  • Fig. 5 shows schematically a person in various views with indicated positions of body key point distances and body part dimensions of body parts of the person.
  • a computer-implemented method 1 for automatically determining a suitable clothing size 2 for a person 3 by determining at least one body part dimension 4 of at least one body part 5 of interest of the person 3 by evaluating several digital images 6 of the person 3 is shown in its entirety or in excerpts.
  • Fig. 1 shows an overview, without going into every detail of method 1, of the complete method 1 with all method steps, which are at least basically shown.
  • the method 1 shown is about equipping a person 3 with clothing that actually has a suitable clothing size 2 in the simplest possible way.
  • the problem lies in different clothing items, even if they are the same size.
  • the deviations can exist between different manufacturers, but it is also possible that garments from the same manufacturer turn out significantly different even though they are marked with the same clothing size.
  • the method 1 shown here is image-based, as a result of which, in an image capture step 7, a digital front view image 6a and a digital side view image 6b of the person 3, who is to be equipped with clothing of a suitable size, are captured, as shown in FIGS. 1 and 2 .
  • a plurality of evaluation steps 8, 9, 10 are now carried out, which ultimately serve the goal of assigning the most accurate possible body part dimension 4 to a body part 5 of interest based on the image data, the body part dimension 4 preferably being specified in usual physical units, for example in centimeters, meters or inches.
  • the result of the image-based evaluation is an assignment of body parts 5.1, 5.2, 5.n of interest to corresponding body part dimensions 4.1, 4.2, 4.n.
  • the body part dimensions 4 can, for example, be the neck circumference (important for selecting suitable shirts), the arm length (are long-sleeved or short-sleeved versions needed for precisely fitting shirts?) as well as the waist circumference, hip circumference and inseam length (important for buying trousers). .
  • the basis of the clothing size determination step 12 is that a correspondence 13 between body part dimension 4 and suitable clothing size 2 is specified.
  • the correspondence list or correspondence 13 could, for example, be provided by the manufacturers of the clothing items, but the correspondence list 13 could also be created independently of the manufacturers in a calibration process, for example by putting the items of clothing on differently designed standard dolls with known body part dimensions 4.
  • Fig. 2 the clothing size determination step 12 is no longer explicitly shown, but the method steps 8, 9 and 10 are shown in more detail, which are only shown cursorily in Fig. 1.
  • the method 1 is characterized - as shown in Fig. 2 - in that in a key point step 8 in the front view image 6a and the side view image 6b predetermined body key points k of the body part 5 of interest are identified and the image coordinates k_xy of the body key points k are determined.
  • a key point step 8 in the front view image 6a and the side view image 6b predetermined body key points k of the body part 5 of interest are identified and the image coordinates k_xy of the body key points k are determined.
  • the body key points k, kl, ... ki, ..., kn are shown in sketch form, which denote concise body positions, such as shoulder, elbow, wrist.
  • the result is an assignment of body key points k, kl, kn to corresponding image coordinates k_xy, kl xy, kn xy.
  • the image distance step 9 is carried out, in which from the image coordinates k_xy of the determined body key points k of the body part 5 of interest at least one body key point distance d_k_pixel corresponding to the body part dimension 4 body part 5 of interest is calculated in image coordinates.
  • Fig. 2 it is indicated that the body key point distance d_k_pixell is determined for the upper arm length 5.1 and the body key point distance d_k_pixel2 is determined for the forearm length 5.2.
  • the body part dimension 4 of the body part 5 of interest is determined from the at least one body key point distance d_k_pixel.
  • the body part dimensions 4 are in physical length dimensions, as already mentioned above, for example in centimeters, meters or even inches. This data is then used to carry out the clothing size determination step 12, which is shown in FIG. 1 but is no longer shown in FIG. 2 for the sake of clarity.
  • the suitable clothing size 2.1 for the determined body part dimension 4 is determined and output from the at least one determined body part dimension 4 and at least one given correspondence 13 between the body part dimension 4 and suitable clothing size 2.
  • the method 1 shown here is carried out in such a way that in the image capture step 7, the digital front view image 6a and the digital side view image 6b of the person 3 in the free and vertical state of the person 3 are captured with a digital camera at a recording angle, the deviation of the recording angle being perpendicular to the Effective direction of the earth's gravity field is recorded.
  • a free and vertical position of the people 3 is shown as an example in FIGS. 3 and 4; other positions that the person 3 could adopt are also conceivable.
  • the distortion of the digital front view image 6a and the digital side view image 6b caused by the deviation of the recording angle perpendicular to the effective direction of the earth's gravity field is compensated for by a mathematical representation of the digital front view image 6a and the digital side view image 6b, in particular by applying a linear mapping rule to the digital front view image 6a and/or the digital side view image 6b.
  • These procedural steps are not explicitly shown here, but they are compensation calculations to compensate for perspective distortions.
  • the method 1 is further designed such that the identification of the body key points k of the body part 5 of interest is carried out in the key point step 8 by analyzing the front view image 6a by a neural network 14.1 for frontal key point identification and/or by analyzing the side view image 6b by a neural network technik 14.2 is analyzed for lateral key point identification.
  • a large number of different people 3 have been recorded in the image capture step 7, the people 3 have been measured with regard to the body part dimensions 4 of their body parts 5 and the front view images 6a and the side view images 6b are for training purposes with the corresponding predetermined ones Body key points k have been labeled.
  • To train the neural networks 14a, 14b several hundred training data sets were recorded and used for training.
  • the method 1 has been implemented here in such a way that the neural network 14.1 for frontal key point identification is trained to identify at least two body key points k from the group of subsequent body key points k (see Fig. 3): head up kOl, head right k02_r, neck right kO3_r, shoulder right k04_r, upper arm top left/right right k05_r, elbow right k06_r, wrist top/middle/bottom right k07_r, middle finger right k08_r, chest right k09_r, stomach right klo r, belt right kll r, Hip right kl2_r, step kl3, head left k02_l, neck left k03_l, shoulder left k04_l, upper arm top left/right left k05_l, elbow left k06_l, wrist top/middle/bottom left k07_l, middle finger left k08_l, chest left k09_l, belly left kl 0
  • lateral key point identification is trained to identify at least two body key points k from the group of subsequent key points k to identify (see Fig. 4): head top kOl, head right k02_r, head left k02_l, neck right k03_r, neck left k03_l, chest right k04_r, chest left k04_l, stomach right k05_r, stomach left k05_l, hip right k06_r, hip left k06_l, right thigh k07_r, left thigh k07_l, right knee k08_r, left knee k08_l, right calf k09_r, left calf k09_l, sole klO, toe kll, upper arm above kl2_t, upper arm below kl2_b, shoulder kl3, elbow kl4 , wrist kl5, finger kl6, belt line kl7, in particular where the neural network 14.1 for frontal key point
  • the method 1 shown is further characterized in that in order to carry out the image distance step 9 to the body key point distance d_k_pixel, an algorithm for calculating the body key point distance d_k_pixel and the body key points k of the body part of interest 5 required as input parameters are specified, in particular where the algorithm is based on geometric relationships, in particular Euclidean geometry and descriptive geometry based on multiple side views. If, for example, Fig. 4 is considered, then the forearm length 5.2 (Fig. 2) can be easily calculated from the image coordinates of the elbow kl4 and the wrist kl5, nothing other than the knowledge of calculating the hypotenuse of a triangle (trigonometry) is required. .
  • a person 3 is shown in different views, namely front view 6a and side view 6b. 5 is informative in various respects, as on the one hand it makes it clear as an example which body key point distances d_k_pixel are calculated and on the other hand which body part dimensions 4 are of interest.
  • body key point distances d_k_pixel in image coordinates or in the metric of the image coordinates have an exact correspondence in real physical distance information, i.e. in body part dimensions 4.
  • body part dimensions 4 i.e. in body part dimensions 4.
  • the length 4.1 of the upper arm 5.1 or the length 4.2 of the forearm 5.2 may apply here.
  • the corresponding body key point distances d_k_pixell, d_k_pixel2 for the upper arm 5.1 and the forearm 5.2 in the front view image 6a are also shown in FIG. 5, as well as the corresponding body key point distances d_k_pixel3, d_k_pixel4 for the upper arm 5.1 and the forearm 5.2 in the side view image 6b.
  • a mathematical model 11 can be used in the dimension determination step 10, which is used when calculating the length 4.1 of the upper arm 5.1 from the corresponding body key point distance d_k_pixel3 of the upper arm 5.1 For example, the angle by which the left upper arm 5.1 is inclined relative to the vertical extension direction is taken into account.
  • circumference sizes head circumference, neck circumference, chest circumference 4.3, thigh circumference
  • multiple body key point distances are used to calculate a single circumference size, for example.
  • At least one body key point distance d_k_pixel from the following group is calculated: height_pixel_frontal, height_pixel_side, neck_pixel frontal, neck_pixel_side, shoulder_left_pixel_frontal, shoulder_right_pixel_frontal, upper arm_pixel_frontal (referred to as d_k_pixell in FIG. 5) , upper arm_pixel_side (referred to as d_k_pixel3 in Fig. 5), upper arm_perimeter_pixel_frontal, upper arm_perimeter_pixel_lateral, forearm_pixel_frontal (referred to as d_k_pixel2 in Fig.
  • d_k_pixel4 forearm_pixel lateral
  • chest_pixel_frontal referred to as d_k_pixel4 in Fig. 5
  • d_k_pixel5 breast_pixel_side
  • breast_pixel_side referred to as d_k_pixel_in Fig.
  • the different body key point distances d_k_pixel have not been provided with different identifiers again, but the meaning of the identifiers becomes clear when looking at FIG. 5.
  • the method 1 shown in the figures is designed such that the mathematical model 11 of the relationship between the body key point distance d_k_pixel and/or the combined body key point distance and the associated body part dimension 4 of the body part of interest 5 is a trained regression model, in particular a trained forest tree regression model.
  • a formula is used to calculate the perimeter of an ellipse.
  • front view images 6a and side view images 6b which are preferably obtained from recording positions that are orthogonal to one another, and the body key point distances d_k_pixels measured with them for certain body parts 5 are a good estimate for the semi-axes of an ellipse, so that the peripheral sizes of interest can be calculated quite easily (Ramanujan -Formula).
  • a reference length h ref in a physical unit of length is specified as the input parameter of the mathematical model 11 of the relationship between the body key point distance d_k_pixel and/or the combined body key point distance and the associated body part dimension 4 of the body part 5 of interest, wherein an object with the reference length is imaged on the digital front view image and/or on the digital side view image.
  • the object is the person 3 depicted himself.
  • the methods 1 shown in the figures are characterized in that the mathematical model 11 of the relationship between the body key point distance d_k_pixel and/or the combined body key point distance and the associated body part dimension 4 of the body part 5 of interest relates to a body part dimension 4 from the group of the following body part dimensions: head circumference 4.4, neck circumference 4.5, shoulder width 4.6, upper arm length 4.1, upper arm circumference 4.7, forearm length 4.2, chest circumference 4.3, stomach circumference 4.8, torso length 4.9, waist circumference 4.1, hip circumference 4.11, leg length 4.12, thigh length 4.13, thigh circumference 4.14, calf circumference 4.15, short inseam 4.1 6, Inseam long 4.17, step 4.18.
  • This selection of body part dimensions 4 has proven to be extremely helpful in enabling a precise determination of a suitable clothing size 2 for the person 3.
  • the body part dimension chest circumference 4.3 is determined using the body key point distances d_k_pixel, namely from the body key point distance d_k_pixel5 Chest width from the front view image 6a and the body key point distance d_k_pixel6 of the chest width from the side view image 6b.
  • the body key point distance d_k_pixel6 of the chest width from the side view image 6b is known because the associated body key points k04_r and k04_l, as shown in Fig. 4, can be easily determined in the side view image 6b with arms stretched out.
  • the chest circumference 4.3 is determined using the body key point distances d_k_pixel5 and d_k_pixel6 as the axes of an ellipse, the circumference of which is calculated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Dargestellt und beschrieben ist ein computerimplementiertes Verfahren (1) zur automatischen Bestimmung einer geeigneten Kleidungsgröße (2) für eine Person (3) durch Bestimmung wenigstens einer Körperteilabmessung (4) wenigstens eines interessierenden Körperteils (5) der Person (3) durch Auswerten mehrerer digitaler Bilder (6) der Person. Das Verfahren (1) ermöglicht die passgenaue Auswahl eines Kleidungsstücks dadurch, dass in einem Bilderfassungsschritt (7) ein digitales Frontansichtbild (6a) und ein digitales Seitenansichtbild (6b) von der Person (3) erfasst werden, dass in einem Schlüsselpunktschritt (8) in dem Frontansichtbild (6a) und dem Seitenansichtbild (6b) vorgegebene Körperschlüsselpunkte (k) des interessierenden Körperteils (5) identifiziert und die Bildkoordinaten (k_xy) der Körperschlüsselpunkte (k) ermittelt werden, dass in einem Bilddistanzschritt (9) aus den Bildkoordinaten (k_xy) der ermittelten Körperschlüsselpunkte (k) des interessierenden Körperteils (5) wenigstens ein zu der Körperteilabmessung (4) korrespondierender Körperschlüsselpunktabstand (d_k_pixel) des interessierenden Körperteils (5) in Bildkoordinaten berechnet wird, dass in einem Abmessungsbestimmungsschritt (10) unter Verwendung eines mathematischen Modells (11) des Zusammenhangs zwischen wenigstens einem Körperschlüsselpunktabstand (d_k_pixel) und der Körperteilabmessung (4) des interessierenden Körperteils (5) die Körperteilabmessung (4) des interessierenden Körperteils (5) aus dem wenigstens einen Körperschlüsselpunktabstand (d_k_pixel) ermittelt wird und dass in einem Kleidungsgrößenbestimmungsschritt (12) aus der wenigstens einen ermittelten Körperteilabmessung (4) und wenigstens einer gegebenen Korrespondenz (13) zwischen Körperteilabmessung (4) und geeigneter Kleidungsgröße (2) die geeignete Kleidungsgröße (2.1) für die ermittelte Körperteilabmessung (4) bestimmt und ausgegeben wird.

Description

Computerimplementiertes Verfahren zur automatischen Bestimmung einer geeigneten Kleidungsgröße für eine Person
Die Erfindung betrifft ein computerimplementiertes Verfahren zur automatischen Bestimmung einer geeigneten Kleidungsgröße für eine Person durch Bestimmung wenigstens einer Körperteilabmessung wenigstens eines interessierenden Körperteils der Person durch Auswerten mehrer digitaler Bilder der Person.
Das vorgenannte Verfahren findet vorzugsweise Anwendung im sogenannten Online-Handel, bei dem Kleidung in einem Online-Shop oft anhand einer standardisierten Kleidungsgröße, auch Konfektionsgröße genannt, eingekauft wird. Hier besteht also nicht die Möglichkeit, eine ausgewählte Kleidung in einer bestimmten Größe anzuprobieren. Das Verfahren könnte allerdings auch Anwendung finden im stationären Handel, also in einem Geschäft mit tatsächlich vorhandenen Kleidungsstücken verschiedener Größe.
Auch wenn es seit Langem verschiedene Bestrebungen gibt, Kleidungsgrößen anhand von Körperabmessungen zu standardisieren, und auch entsprechende Standardisierungen bereits existieren, wie beispielsweise die europäische Norm EN 13402, so ist doch festzustellen, dass in der Praxis erhebliche Schwierigkeiten bestehen, anhand von bestimmten Konfektionsgrößen tatsächlich eine passende Kleidung auszuwählen. In einer Mehrzahl der Fälle ist die Auswahl einer bestimmten Kleidung anhand der reinen Konfektionsgröße ungeeignet und führt zu unbefriedigenden Kaufergebnissen. Dieser Umstand führt dazu, dass gerade im Online-Handel, bei dem prinzipbedingt keine Möglichkeit der individuellen Anprobe besteht, häufig eine Mehrzahl von Kleidungsstücken in einem Bereich um die vermutlich zutreffende Konfektionsgröße (zum Beispiel "52" oder "S") geordert wird, natürlich mit der Absicht, nur das am besten passende Kleidungsstück zu behalten und die anderen Kleidungsstücke anderer Größe, die eine unvorteilhaftere Passform haben, zu retournieren.
Es ist nicht nur so, dass die standardisierten Kleidungsgrößen in sich eine gewisse Schwankungsbreite in dem Erscheinungsbild und der Auslegung eines Kleidungsstücks in einer bestimmten Konfektionsgröße zulassen, bekanntermaßen ist es auch so, dass verschiedene Kleidungshersteller ihre Kleidung eher klein, andere eher groß Auslegen. Das kann bedeuten, dass ein Beklei- dungsstück der Marke X in der Größe S einem Kleidungsstück der Marke Y in der Größe M entspricht. Dies ist unbefriedigend und hat verschiedene Nachteile. Für den Käufer hat diese Vorgehensweise den Nachteil, dass schon vorab absehbar ist, dass der Kauf mit einem Zurückschicken eines Teils der Bestellung verbunden ist, was nicht nur zusätzlichen Aufwand, sondern auch zusätzliche Kosten bedeutet, je nach Gesetzeslage aufseiten des Käufers oder auch - wohl in den meisten Fällen - aufseiten des Verkäufers. Abgesehen von den Kosten von Retouren liegt in den Retouren auch ein erhebliches ökologisches Problem, weil, jedenfalls im Bereich des Online- Kleidungshandels, ein beträchtlicher Anteil des Frachtaufkommens vermeidbar wäre, wenn Kleidung zielgenau ausgewählt und geliefert werden könnte.
Aufgabe der vorliegenden Erfindung ist es, das vorgenannte Verfahren so auszugestalten und weiterzubilden, dass es praktisch jedem Kunden möglich ist, mit den ihm oder ihr zur Verfügung stehenden Mitteln, ein Kleidungsstück passgenau auszuwählen und zu bestellen, sodass die Bestellung einer Mehrzahl an Kleidungsstücken in Variationsgrößen und das Zurücksenden unpassender Kleidungsstücke, jedenfalls was ihre Passgenauigkeit angeht, entfällt.
Das erfindungsgemäße Verfahren, bei dem die vorgenannte Aufgabe gelöst ist, zeichnet sich im Wesentlichen zunächst dadurch aus, dass in einem Bilderfassungsschritt ein digitales Frontansichtbild und ein digitales Seitenansichtbild von der Person erfasst werden. Dadurch wird bewirkt, dass praktisch zwei - vorzugsweise orthogonale - Ansichten verschiedener Gliedmaßen der betreffenden Person erfasst werden und diese so auch dem Grunde nach räumlich beurteilt werden können. Dass das Frontansichtbild und das Seitenansichtbild digital sind, bedeutet lediglich, dass die Bilder einer digitalen Datenverarbeitung zugänglich sind, und nicht etwa als analoges Belichtung smaterial, beispielsweise in Form von belichteten Filmen, vorliegen.
Ferner ist bei dem erfindungsgemäßen Verfahren vorgesehen, dass in einem Schlüsselpunktschritt in dem Frontansichtbild und dem Seitenansichtbild vorgegebene Körperschlüsselpunkte des interessierenden Körperteils identifiziert und die Bildkoordinaten der Körperschlüsselpunkte ermittelt werden. Bei den vorgegebenen Körperschlüsselpunkten des interessierenden Körperteils oder der interessierenden Körperteile handelt es sich bei einer Gesamtansicht des Körpers der Person im Frontansichtbild und im Seitenansichtbild schlicht um alle interessierenden Körperschlüsselpunkte. Körperschlüssel- punkte betreffen signifikante und charakteristische Stellen des menschlichen Körpers, die anhand ihres äußeren Erscheinungsbildes detektierbar sind. Bei diesen Körperschlüsselpunkten kann es sich beispielsweise handeln um das linke Auge, das rechte Auge, die untere Nasenbegrenzung, den Mittelpunkt des Mundes, die Begrenzung der linken Schulter, der rechten Schulter, die Ellbogen, die Handgelenke, die Fingerspitzen, der linke und rechte Begrenzungspunkt der Hüfte, die Knie, die Fußgelenke, die Fersen, die Zehenspitzen usw. Diese Körperschlüsselpunkte werden im Frontansichtbild und im Seitenansichtbild detektiert und liegen also in Form von Bildkoordinaten vor.
Das Verfahren sieht weiterhin vor, dass in einem Bilddistanzschritt aus den Bildkoordinaten der ermittelten Körperschlüsselpunkte des interessierenden Körperteils wenigstens ein zu der Körperteilabmessung korrespondierender Körperschlüsselpunktabstand des interessierenden Körperteils in Bildkoordinaten berechnet wird. Praktisch bedeutet dies, dass beispielsweise aus der Bildkoordinate des linken Ellbogens, also der Bildkoordinate des Körperschlüsselpunktes "linker Ellbogen", und der Bildkoordinate des linken Handgelenks, also der Bildkoordinate des Körperschlüsselpunktes "linkes Handgelenk", der Körperschlüsselpunktabstand "linker Unterarm" berechnet wird, und zwar in Bildkoordinaten.
Weiterhin sieht das erfindungsgemäße Verfahren vor, dass in einem Abmessungsbestimmungsschritt unter Verwendung eines mathematischen Modells des Zusammenhangs zwischen wenigstens einem Körperschlüsselpunktabstand und der Körperteilabmessung des interessierenden Körperteils die Körperteilabmessung des interessierenden Körperteils aus dem wenigstens einen Körperschlüsselpunktabstand ermittelt wird. Das bedeutet, dass beispielsweise die Annahme einer Ellipse als geeignetes mathematisches Modell für den Hüftumfang vorausgesetzt wird, und die Halbachsen der Ellipse aus den beiden orthogonalen Hüftweiten aus dem Frontansichtbild und dem Seitenansichtbild gewonnen werden.
Bei der Berechnung werden also auch Bildkoordinaten in tatsächliche physikalische Abmessungskoordinaten umgesetzt, also beispielsweise in Zentimeter- oder Meterangaben. Diese Umsetzung von Abmessungen in Bildkoordinaten in physikalische Abstandsmaße kann auf verschiedene Weise geschehen, beispielsweise durch Kenntnisse der Aufnahme situation (Brennweite der Kamera und Abstand der Person von der Kamera) oder durch Aufnahme von Vergleichsobjekten bekannter Größe, oder durch Vorgabe einer bestimmten Körperabmessung in einem physikalischen Abstandsmaß (zum Beispiel Größe der aufgenommenen Personen in Zentimetern).
Schließlich ist erfindungsgemäß vorgesehen, dass in einem Kleidungsgrößenbestimmungsschritt aus wenigstens einer ermittelten Körperteilabmessung und einer gegebenen Korrespondenz zwischen Körperteilabmessung und geeigneter Kleidungsgröße die geeignete Kleidungsgröße für die ermittelte Körperteilabmessung bestimmt und ausgegeben wird. Durch diesen abschließenden Schritt ist es möglich, auf Grundlage der zuvor bestimmten Körperteilabmessung und der vorhandenen Korrespondenz zwischen diesen Körperteilabmessungen und einer geeigneten Kleidungsgröße zielgenau die geeignete Kleidungsgröße zu bestimmen, sodass beispielsweise die Mehrfachbestellung von Kleidungsstücken verschiedener Größe nicht mehr erforderlich ist. Bei einer Kaufsituation vor Ort, also im stationären Handel, lässt sich auch schnell und passgenau die erforderliche Kleidungsgröße für ein bestimmtes Kleidungsstück ermitteln, sodass auch hier der Vorgang des Anprobierens optimiert wird, insbesondere also auch ein geringerer Zeitaufwand erforderlich ist, um sich passgenau einzukleiden.
Gemäß einer bevorzugten Ausgestaltung des Verfahrens ist vorgesehen, dass im Bilderfassungsschritt das digitale Frontansichtbild und das digitale Seitenansichtbild der Person im frei und senkrecht stehenden Zustand der Person mit einer Digitalkamera unter einem Aufnahmewinkel erfasst wird, wobei die Abweichung des Aufnahmewinkels senkrecht zur Wirkrichtung des Erdschwerefeldes erfasst wird. Dies lässt sich beispielsweise mit handelsüblichen Handys oder Tablets bewerkstelligen, die üblicherweise über Beschleunigungssensoren verfügen, mit denen die Orientierung des Aufnahmegerätes (Handy, Tablet) während der Aufnahme bestimmt werden kann, insbesondere also die Neigung des Aufnahmegeräts und damit der Kamera hinsichtlich bestimmter Achsen des Aufnahmegeräts bzw. die Rotation des Aufnahmegeräts um bestimmte Achsen, insbesondere im Hinblick auf die Ausrichtung des Erdschwerefeldes.
Dadurch ist es in einer bevorzugten Ausgestaltung des Verfahrens möglich, dass die durch die Abweichung des Aufnahmewinkels senkrecht zur Wirkrichtung des Erdschwerefeldes bewirkte Verzerrung des digitalen Frontan- sichtbildes und des digitalen Seitenansichtbildes durch eine mathematische Abbildung des digitalen Frontansichtbildes und des digitalen Seitenansichtbildes kompensiert werden, insbesondere durch Anwendung einer linearen Abbildungsvorschrift auf das digitale Frontansichtbild und/oder das digitale Seitenansichtbild.
Eine bevorzugte Weiterbildung des erfindungsgemäßen Verfahrens ist dadurch gekennzeichnet, dass die Identifikation der Körperschlüsselpunkte des interessierenden Körperteils im Schlüsselpunktschritt durchgeführt wird, indem das Frontansichtbild durch ein neuronales Netzwerk zur frontalen Schlüsselpunktidentifizierung analysiert wird und/oder indem das Seitenansichtbild durch ein neuronales Netzwerk zur seitlichen Schlüsselpunktidentifizierung analysiert wird. Vorzugsweise wird sowohl das Frontansichtbild wie auch das Seitenansichtbild durch ein neuronales Netzwerk zur Schlüsselpunktidentifizierung analysiert.
Eine Weiterbildung des vorgenannten Verfahrens zeichnet sich dadurch aus, dass das neuronale Netzwerk zur frontalen Schlüsselpunktidentifizierung darauf trainiert ist, wenigstens zwei Körperschlüsselpunkte aus der Gruppe der nachfolgenden Körperschlüsselpunkte zu identifizieren: Kopf oben, Kopf rechts, Nacken rechts, Schulter rechts, Oberarm oben links rechts, Oberarm oben rechts rechts, Ellbogen rechts, Handgelenk_oben/mit- te/unten_rechts, Finger rechts, Brust rechts, Bauch rechts, Gürtel rechts, Hüfte rechts, Schritt, Kopf links, Nacken links, Schulter links, Ober- arm oben links links, Oberarm oben rechts links, Ellbogen links, Hand- gelenk oben/mitte/unten links, Mittelfinger links, Brust links, Bauch links, Gürtel links, Hüfte links, Knöchel rechts, Knöchel links, Zeh rechts, Zeh links, Sohle rechts, Sohle links, innen/außen Oberschen- kel rechts, innen/außen_Oberschenkel_links, innen/außen_Knie_rechts, in- nen/außen_Knie_links, innen/außen_Knie_rechts, innen/außen_Knie_links, und dass das neuronale Netzwerk zur seitlichen Schlüsselpunktidentifizierung darauf trainiert ist, wenigstens zwei Körperschlüsselpunkte aus der Gruppe der nachfolgenden Schlüsselpunkte zu identifizieren: Kopf oben, Kopf rechts, Kopf links, Hals rechts, Hals links, Brust rechts, Brust links, Bauch rechts, Bauch links, Hüfte rechts, Hüfte links, Oberschen- kel rechts, Oberschenkel links, Knie rechts, Knie links, Wade rechts, Wa- de Links, Sohle, Zehe, oberer Arm oben, oberer Arm unten, Schulter, Ellbogen, Handgelenk, Finger, Gürtel Linie, insbesondere wobei das neuronale Netzwerk zur frontalen Schlüsselpunktidentifizierung und das neuronales Netzwerk zur seitlichen Schlüsselpunktidentifizierung jeweils darauf trainiert sind, sämtliche der genannten Körperschlüsselpunkte aus der zugehörigen Gruppen der Körperschlüsselpunkte zu identifizieren. Die in der voranstehenden Liste aufgeführten Bezeichner für verschiedene Körperschlüsselpunkte sind so gewählt worden, dass sie für sich sprechen. Sollten hier Unklarheit bestehen, wird auf die Figurenbeschreibung verwiesen, anhand derer eindeutig erkennbar ist, welche Körperschlüsselpunkte mit den verschiedenen Bezeichnern gemeint sind und wo die Körperschlüsselpunkte bei den verschiedenen Ansichten einer Person lokalisiert sind.
Es versteht sich von selbst, dass Voraussetzung für eine erfolgreiche Identifizierung der Körperschlüsselpunkte ist, dass diese Körperschlüsselpunkte in dem Frontansichtbild oder in dem Seitenansichtsbild auch erkennbar sein müssen. Es bietet sich deshalb an, Randbedingungen für den Bilderfassungsschritt vorzugeben. Eine solche Randbedingung könnte beispielsweise sein, dass die im Bilderfassungsschritt erfasste Person sehr eng anliegende Kleidung anhaben muss oder wenig bekleidet ist, also beispielsweise nur Unterwäsche oder einen Badeanzug anhat.
Im Regelfall müssen zur Bestimmung einer interessierenden Körperteilabmessung wenigstens zwei Körperschlüsselpunkte identifiziert werden, um auf eine Körperteilabmessung rückschließen zu können. Beispielsweise müssen zur direkten Bestimmung der Länge des Unterarms die Positionen der Körperschlüsselpunkte Ellbogen und Handgelenk bekannt sein und daher bestimmt werden. Eine weitere Randbedingung könnte darin bestehen, dass die Person, von der das Frontansichtbild und das Seitenansichtbild erfasst werden, sich in eine bestimmte Pose begeben muss. Bei der Erfassung des Frontansichtsbildes könnte vorgegeben sein, dass die Füße parallel zueinander ausgerichtet und schulterbreit voneinander entfernt sind und die Arme gestreckt seitlich neben dem Rumpf verlaufen, aber in einem gewissen Abstand von dem Rumpf gehalten werden müssen.
Bei einer Weiterbildung des Verfahrens sind zur Durchführung des Bilddistanzschrittes zu dem Körperschlüsselpunktabstand ein Algorithmus zur Berechnung des Körperschlüsselpunktabstandes und die als Eingabeparameter erforderlichen Körperschlüsselpunkte des interessierenden Körperteils angegeben, insbesondere wobei der Algorithmus auf geometrischen Zusammen- hängen beruht, insbesondere der euklidischen Geometrie und der darstellenden Geometrie auf Basis mehrerer Seitenansichten.
Eine bevorzugte Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass im Bilddistanzschritt wenigstens ein Körperschlüsselpunktabstand aus der folgenden Gruppe berechnet wird: Höhe_pixel_frontal, Höhe_pixel_seit- lich, Hals_pixel_frontal, Hals_pixel_seitlich, Schulter_links_pixel_frontal, Schulter_rechts_pixel_frontal, Oberarm_pixel_frontal, Oberarm_pixel_seit- lich, Oberarm_Umfang_pixel_frontal, Oberarm_Umfang_pixel_seitlich, Unterarm_pixel_frontal, Unterarm_pixel_seitlich, Brust_pixel_frontal, Brust_pixel_seitlich, Bauch_pixel_frontal, Bauch_pixel_seitlich, Gürtelli- nie_pixel_frontal, Taille_pixel_seitlich, Hüfte_pixel_frontal, Hüfte_pi- xel seitlich, Rumpf_pixel_frontal, Rumpf_pixel_seitlich, total_Bein_pi- xel frontal, total_Bein_pixel_seitlich, Oberschenkel_Länge_pixel_frontal, Oberschenkel_Länge_pixel_seitlich, Oberschenkel_Umfang_pixel_frontal, Oberschenkel_Umfang_pixel_seitlich, Wade_pixel_frontal, Wade_pixel_seit- lich, Schritt_kurz_pixel_frontal, Schritt_lang_pixel_frontal, Schritt Gür- tel mitte bis S chritt_pixel_frontal, S chritt_Hüfte_pixel_seitlich, Kopf_pi- xel frontal, Kopf_pixel_seitlich. Um anzudeuten, dass es sich bei den Körperschlüsselpunktabständen um Abstände in Bildkoordinaten handelt, haben die Bezeichner in der oben angeführten Liste jeweils den Wortbestandteil "pixel".
Eine weitere Fortentwicklung des Verfahrens ist dadurch gekennzeichnet, dass im Bilddistanzschritt auch wenigstens ein kombinierter Körperschlüsselpunktabstand berechnet wird aus mehreren Körperschlüsselpunktabständen, insbesondere eines geschlossenen Polygonzuges zwischen Körperschlüsselpunkten, bevorzugt kombinierte Körperschlüsselpunktabstände, die Umfänge betreffen.
Bei einer Weiterbildung des Verfahrens ist hinsichtlich des Abmessungsbestimmungsschritts vorgesehen, dass das mathematische Modell des Zusammenhangs zwischen dem Körperschlüsselpunktabstand und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung des interessierenden Körperteils ein trainiertes Regressionsmodell ist, insbesondere ein trainiertes Forest Tree Regressionsmodell ist.
Bei einer bevorzugten Ausgestaltung des Verfahrens ist vorgesehen, dass als Eingabeparameter des mathematischen Modells des Zusammenhangs zwi- schen dem Körperschlüsselpunktabstand und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung des interessierenden Körperteils eine Referenzlänge in einer physikalischen Längeneinheit vorgegeben wird, wobei ein Objekt mit der Referenzlänge auf dem digitalen Frontansichtbild und/oder auf dem digitalen Seitenansichtbild abgebildet ist. Bei dem Objekt kann es sich um die Person selbst handeln, deren Körpergröße als Referenzlänge vorgegeben wird. Bei dem Objekt kann es sich aber auch um einen Gegenstand handeln, der sich vorzugsweise im gleichen Abstand zu der Kamera befindet, die das Frontansichtbild und das Seitenansichtsbild aufnimmt, wobei beispielsweise die vertikale Höhe des Objektes als Referenzlänge vorgegeben wird.
Das Verfahren zur automatischen Bestimmung der geeigneten Kleidungsgröße für die Person ist vorzugsweise so ausgestaltet, dass das mathematische Modell des Zusammenhangs zwischen dem Körperschlüsselpunktabstand und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung des interessierenden Körperteils eine Körperteilabmessung aus der Gruppe der folgenden Körperteilabmessungen betrifft: Kopfumfang, Halsumfang, Schulterbreite, Oberarmlänge, Umfang des Oberarms, Unterarmlänge, Brustumfang, Bauchumfang, Rumpflänge, Taillenumfang, Hüftumfang, Beinlänge, Oberschenkellänge, Oberschenkelumfang, Wadenumfang, Innennaht kurz, Innennaht lang, Schritt. Diese Körperteilabmessung haben sich als besonders relevant herausgestellt für die Bestimmung einer geeigneten Kleidungsgröße für die Person, deren Körperteilabmessung bestimmt werden.
Schließlich ist das Verfahren bevorzugt so ausgestaltet, dass in dem Kleidungsgrößenbestimmungsschritt die gegebene Korrespondenz zwischen Körperteilabmessung und geeigneter Kleidungsgröße spezifisch ist für ein spezifisches Kleidungsstück oder für eine spezifische Gruppe von Kleidungsstücken. damit ist es also möglich, spezifisch für ein bestimmtes Kleidungsstück entsprechende Korrespondenzen zwischen erfassten Körperteilabmessungen und einer sich daraus ergebenden geeigneten Kleidungsgröße zu nutzen. Wenn ein Bekleidungshersteller wiederholgenau bestimmte Designprinzipien bei der Fertigung bestimmter Kleidungsstücke anwendet, dann kann es auch sinnvoll sein, Korrespondenzen nicht für jedes individuelle Kleidungsstück, sondern für eine Gruppe von Kleidungsstücken, beispielsweise Polo- Hemden, anzugeben, ohne dass die Qualität des Verfahrens bei der Bestimmung der geeigneten Kleidungsgröße leidet.
Im Einzelnen gibt es nun eine Vielzahl von Möglichkeiten, das erfindungsgemäße Verfahren auszugestalten und weiterzubilden. Dazu wird verwiesen einerseits auf die dem unabhängigen Patentanspruch nachgeordneten Patentansprüche, andererseits auf die folgende Beschreibung von Ausführungsbeispielen in Verbindung mit der Zeichnung. In der Zeichnung zeigen
Fig. 1 schematisch das erfindungsgemäße Verfahren zur automatischen Bestimmung einer geeigneten Kleidungsgröße für eine Person,
Fig. 2 in einem größeren Detaillierungsgrad des bildbasierten Verfahren zur Ermittlung von Körperteilabmessungen anhand von digitalen Bildern der Person,
Fig. 3 schematisch ein Frontansichtbild der Person mit bestimmten Körperschlüsselpunkten,
Fig. 4 schematisch ein Seitenansichtsbild der Person ebenfalls mit bestimmten Körperschlüsselpunkten und
Fig. 5 schematisch eine Person in verschiedenen Ansichten mit angedeuteten Positionen von Körperschlüsselpunktabständen und Körperteilabmessungen von Körperteilen der Person.
In allen Figuren ist in Gänze oder in Ausschnitten ein computerimplementiertes Verfahren 1 zur automatischen Bestimmung einer geeigneten Kleidungsgröße 2 für eine Person 3 durch Bestimmung wenigstens einer Körperteilabmessung 4 wenigstens eines interessierenden Körperteils 5 der Person 3 durch Auswerten mehrerer digitaler Bilder 6 der Person 3 gezeigt.
Fig. 1 zeigt in einem Überblick, ohne auf jedes Detail des Verfahrens 1 einzugehen, das vollständige Verfahren 1 mit allen Verfahrensschritten, die jedenfalls im Grunde nach dargestellt sind. Wie eingangs bereits ausgeführt worden ist, geht es bei dem dargestellten Verfahren 1 darum, auf möglichst einfache Art und Weise eine Person 3 mit einer Kleidung auszustatten, die eine tatsächlich geeignete Kleidungsgröße 2 hat. Die Problematik liegt in unterschiedlich ausfallenden Kleidungsstücken, selbst wenn diese die gleiche Konfektionsgröße aufweisen. Die Abweichungen können zwischen verschiedenen Herstellern vorliegen, es ist jedoch auch möglich, dass Kleidungsstücke ein und desselben Herstellers signifikant unterschiedlich ausfallen, obwohl sie mit der gleichen Konfektionsgröße gekennzeichnet sind.
Das hier dargestellte Verfahren 1 arbeitet bildbasiert, demzufolge in einem Bilderfassungsschritt 7 ein digitales Frontansichtbild 6a und ein digitales Seitenansichtbild 6b von der Person 3, die mit Kleidungsstücken geeigneter Größe ausgestattet werden soll, erfasst werden, wie dies in den Fig. 1 und 2 dargestellt ist.
Auf Grundlage des Frontansichtsbildes 6a und des Seitenansichtsbildes 6b erfolgen nun eine Mehrzahl an Auswertungsschritten 8, 9, 10, die schlussendlich dem Ziel dienen, auf Grundlage der Bilddaten einem interessierenden Körperteil 5 eine möglichst genaue Körperteilabmessung 4 zuzuordnen, wobei die Körperteilabmessung 4 vorzugsweise angegeben wird in üblichen physikalischen Einheiten, also beispielsweise in Zentimetern, Metern oder auch Inches.
In Fig. 1 ist in dem Block Abmessungsbestimmungsschritt 10 zu erkennen, dass Ergebnis der bildbasierten Auswertung jedenfalls eine Zuordnung von interessierenden Körperteilen 5.1, 5.2, 5.n zu entsprechenden Körperteilabmessungen 4.1, 4.2, 4.n ist. Bei den Körperteilabmessungen 4 kann es sich beispielsweise handeln um den Halsumfang (wichtig für die Auswahl geeigneter Hemden), die Armlänge (werden für passgenaue Hemden lang- oder kurzärmlige Version gebraucht?) sowie Bauchumfang, Hüftumfang und Schrittlänge (wichtig für den Kauf von Hosen).
Grundlage des Kleidergrößenbestimmungsschritts 12 ist, dass eine Korrespondenz 13 zwischen Körperteilabmessung 4 und geeigneter Kleidungsgröße 2 vorgegeben ist. Die im konkreten Fall geeignete Kleidungsgröße 2.1, hier mit Kleidungsgröße "39" angegeben, für die ermittelte Körperteilabmessung 4 bzw. für die ermittelten Körperteilabmessungen 4.1, 4.2, werden durch Vergleich der ermittelten Körperteilabmessungen 4.1, 4.2 mit der Korrespondenzliste 13 bestimmt und ausgegeben. Die Korrespondenzliste bzw. Korrespondenz 13 könnte beispielsweise bereitgestellt werden von den Herstellern der Kleidungsstücke, die Korrespondenzliste 13 könnte aber auch unabhängig von den Herstellern in einem Kalibrierungsvorgang erstellt werden, beispielsweise indem die Kleidungsstücke verschieden ausgestalteten Normpuppen mit bekannten Körperteilabmessungen 4 übergezogen werden.
In Fig. 2 ist der Kleidungsgrößenbestimmungsschritt 12 nicht mehr ausdrücklich dargestellt, dafür sind die Verfahrensschritte 8, 9 und 10 ausführlicher dargestellt, die in Fig. 1 nur kursorisch dargestellt sind.
Das Verfahren 1 zeichnet sich - wie in Fig. 2 dargestellt - dadurch aus, dass in einem Schlüsselpunktschritt 8 in dem Frontansichtbild 6a und dem Seitenansichtbild 6b vorgegebene Körperschlüsselpunkte k des interessierenden Körperteils 5 identifiziert und die Bildkoordinaten k_xy der Körperschlüsselpunkte k ermittelt werden. In Fig. 1 ist dies nur kursorisch dargestellt, alle mit den Bilddaten verbundenen Verfahrensschritte, nämlich der Bilderfassungsschritt 7, der Schlüsselpunktschritt 8, der Bilddistanzschritt 9 und schließlich der Abmessungsbestimmungsschritt 10, sind in einem einzigen Block in Fig. 1 dargestellt. In Fig. 2 sind die Körperschlüsselpunkte k, kl, ... ki, ..., kn skizzenhaft dargestellt, die prägnante Körperpositionen bezeichnen, wie beispielsweise Schulter, Ellbogen, Handgelenk. Ergebnis ist eine Zuordnung von Körperschlüsselpunkten k, kl, kn zu entsprechenden Bildkoordinaten k_xy, kl xy, kn xy.
Sind die Körperschlüsselpunkte k in dem Frontansichtbild 6a und dem Seitenansichtsbild 6b einmal bestimmt und ihre Bildkoordinaten k_xy bekannt, wird der Bilddistanzschritt 9 ausgeführt, bei dem aus den Bildkoordinaten k_xy der ermittelten Körperschlüsselpunkte k des interessierenden Körperteils 5 wenigstens ein zu der Körperteilabmessung 4 korrespondierender Körperschlüsselpunktabstand d_k_pixel des interessierenden Körperteils 5 in Bildkoordinaten berechnet wird. In Fig. 2 ist angedeutet, dass für die Oberarmlänge 5.1 der Körperschlüsselpunktabstand d_k_pixell und für die Unterarmlänge 5.2 der Körperschlüsselpunktabstand d_k_pixel2 bestimmt wird.
Schließlich wird in einem Abmessungsbestimmungsschritt 10 unter Verwendung eines mathematischen Modells 11 des Zusammenhangs zwischen wenigstens einem Körperschlüsselpunktabstand d_k_pixel und der Körperteilabmessung 4 des interessierenden Körperteils 5 die Körperteilabmessung 4 des interessierenden Körperteils 5 aus dem wenigstens einen Körperschlüs- selpunktabstand d_k_pixel ermittelt. Nach diesem Schritt liegen also die Körperteilabmessungen 4 in physikalischen Längenmaßen vor, wie oben bereits erwähnt, beispielsweise in Zentimetern, Metern oder auch Inches. Mit diesen Daten wird dann der Kleidungsgrößenbestimmungsschritt 12 ausgeführt, der in Fig. 1 dargestellt ist, in Fig. 2 der Übersichtlichkeit halber jedoch nicht mehr dargestellt ist.
Wie schon ausgeführt, wird in dem Kleidungsgrößenbestimmungsschritt 12 aus der wenigstens einen ermittelten Körperteilabmessung 4 und wenigstens einer gegebenen Korrespondenz 13 zwischen Körperteilabmessung 4 und geeigneter Kleidungsgröße 2 die geeignete Kleidungsgröße 2.1 für die ermittelte Körperteilabmessung 4 bestimmt und ausgegeben.
Das hier dargestellte Verfahren 1 wird so ausgeführt, dass im Bilderfassungsschritt 7 das digitale Frontansichtbild 6a und das digitale Seitenansichtbild 6b der Person 3 im frei und senkrecht stehenden Zustand der Person 3 mit einer Digitalkamera unter einem Aufnahmewinkel erfasst wird, wobei die Abweichung des Aufnahmewinkels senkrecht zur Wirkrichtung des Erdschwerefeldes erfasst wird. Eine frei und senkrecht stehende Position der Personen 3 ist in den Fig. 3 und 4 exemplarisch dargestellt, denkbar sind auch andere Haltungen, die die Person 3 einnehmen könnte.
Bei dem in den Figuren dargestellten Verfahren 1 ist vorgesehen, dass die durch die Abweichung des Aufnahmewinkels senkrecht zur Wirkrichtung des Erdschwerefeldes bewirkte Verzerrung des digitalen Frontansichtbildes 6a und des digitalen Seitenansichtbildes 6b durch eine mathematische Abbildung des digitalen Frontansichtbildes 6a und des digitalen Seitenansichtbildes 6b kompensiert werden, insbesondere durch Anwendung einer linearen Abbildungsvorschrift auf das digitale Frontansichtbild 6a und/oder das digitale Seitenansichtbild 6b. Diese Verfahrensschritte sind hier nicht ausdrücklich dargestellt, es handelt sich jedoch um Ausgleichsrechnungen zur Kompensation perspektivischer Verzerrungen.
Das Verfahren 1 ist ferner so ausgestaltet, dass die Identifikation der Körperschlüsselpunkte k des interessierenden Körperteils 5 im Schlüsselpunktschritt 8 durchgeführt wird, indem das Frontansichtbild 6a durch ein neuronales Netzwerk 14.1 zur frontalen Schlüsselpunktidentifizierung analysiert wird und/oder indem das Seitenansichtbild 6b durch ein neuronales Netz- werk 14.2 zur seitlichen Schlüsselpunktidentifizierung analysiert wird. Zum Training der neuronalen Netzwerke 14.1, 14.2 sind eine Vielzahl von verschiedenen Personen 3 in dem Bilderfassungsschritt 7 aufgenommen worden, die Personen 3 sind hinsichtlich der Körperteilabmessungen 4 ihrer Körperteile 5 vermessen worden und die Frontansichtbilder 6a sowie die Seitenansichtbilder 6b sind zu Trainingszwecken mit den entsprechenden vorgegebenen Körperschlüsselpunkten k gelabelt worden. Zum Training der neuronalen Netzwerke 14a, 14b sind mehrere hundert Trainingsdatensätze aufgenommen und für das Training verwendet worden.
Das Verfahren 1 ist hier so umgesetzt worden, dass das neuronale Netzwerk 14.1 zur frontalen Schlüsselpunktidentifizierung darauf trainiert ist, wenigstens zwei Körperschlüsselpunkte k aus der Gruppe der nachfolgenden Körperschlüsselpunkte k zu identifizieren (siehe Fig. 3): Kopf oben kOl, Kopf rechts k02_r, Nacken rechts kO3_r, Schulter rechts k04_r, Ober- arm oben links/rechts rechts k05_r, Ellbogen rechts k06_r, Handge- lenk oben/mitte/unten rechts k07_r, Mittelfinger rechts k08_r, Brust rechts k09_r, Bauch rechts klO r, Gürtel rechts kll r, Hüfte rechts kl2_r, Schritt kl3, Kopf links k02_l, Nacken links k03_l, Schulter links k04_l, Ober- arm oben links/rechts links k05_l, Ellbogen links k06_l, Handge- lenk oben/mitte/unten links k07_l, Mittelfinger links k08_l, Brust links k09_l, Bauch links kl 0 1, Gürtel links kl 1 1, Hüfte links kl 2 1, Knö- chel rechts kl7_r, Knöchel links kl 7 1, Zeh rechts kl8_r, Zeh links kl 8 1, Sohle rechts kl9_r, Sohle links kl 9 1, innen/außen_Oberschenkel_rechts kl4_r, innen/außen_Oberschenkel_links kl 4 1, innen/außen_Knie_rechts kl5_r, innen/außen_Knie_links kl5_l, und dass das neuronale Netzwerk 14. 2 zur seitlichen Schlüsselpunktidentifizierung darauf trainiert ist, wenigstens zwei Körperschlüsselpunkte k aus der Gruppe der nachfolgenden Schlüsselpunkte k zu identifizieren (siehe Fig. 4): Kopf oben kOl, Kopf rechts k02_r, Kopf links k02_l, Hals rechts k03_r, Hals links k03_l, Brust rechts k04_r, Brust links k04_l, Bauch rechts k05_r, Bauch links k05_l, Hüfte rechts k06_r, Hüfte links k06_l, Oberschenkel rechts k07_r, Oberschenkel links k07_l, Knie rechts k08_r, Knie links k08_l, Wade rechts k09_r, Wade Links k09_l, Sohle klO, Zehe kll, oberer Arm oben kl2_t, obe- rer Arm unten kl2_b, Schulter kl3, Ellbogen kl4, Handgelenk kl5, Finger kl6, Gürtel Linie kl7, insbesondere wobei das neuronale Netzwerk 14.1 zur frontalen Schlüsselpunktidentifizierung und das neuronales Netzwerk 14.2 zur seitlichen Schlüsselpunktidentifizierung jeweils darauf trainiert sind, sämtliche der genannten Körperschlüsselpunkte k aus der zugehörigen Gruppe der Schlüsselpunkte k zu identifizieren.
Das dargestellte Verfahren 1 ist ferner dadurch gekennzeichnet, dass zur Durchführung des Bilddistanzschrittes 9 zu dem Körperschlüsselpunktabstand d_k_pixel ein Algorithmus zur Berechnung des Körperschlüsselpunktabstandes d_k_pixel und die als Eingabeparameter erforderlichen Körperschlüsselpunkte k des interessierenden Körperteils 5 angegeben sind, insbesondere wobei der Algorithmus auf geometrischen Zusammenhängen beruht, insbesondere der euklidischen Geometrie und der darstellenden Geometrie auf Basis mehrerer Seitenansichten. Wenn beispielsweise Fig. 4 betrachtet wird, dann lässt sich die Unterarmlänge 5.2 (Fig. 2) problemlos aus den Bildkoordinaten des Ellbogens kl4 und des Handgelenks kl5 berechnen, es wird nichts anderes benötigt, als die Kenntnis zur Berechnung der Hypotenuse eines Dreiecks (Trigonometrie).
In Fig. 5 ist eine Person 3 dargestellt in verschiedenen Ansichten, nämlich Frontansicht 6a und Seitenansicht 6b. Fig. 5 ist in verschiedener Hinsicht aufschlussreich, da sie zum einen exemplarisch deutlich macht, welche Körperschlüsselpunktabstände d_k_pixel berechnet werden, und zum anderen auch, welche Körperteilabmessungen 4 von Interesse sind. In vielen Fällen ist es so, dass Körperschlüsselpunkteabstände d_k_pixel in Bildkoordinaten bzw. in der Metrik der Bildkoordinaten eine exakte Entsprechung in echten physikalischen Ab Standsinformationen, also in Körperteilabmessungen 4, haben. Das ist einleuchtend beispielsweise bei der Länge vieler Gliedmaßen, bei der es sich um eine im Wesentlichen eindimensionale Größe und Erstreckung handelt. Als Beispiel mag hier wieder die Länge 4.1 des Oberarms 5.1 oder die Länge 4.2 des Unterarms 5.2 gelten. Um den Zusammenhang zu den entsprechenden Körperschlüsselpunktabständen zu verdeutlichen, sind in Fig. 5 auch die entsprechenden Körperschlüsselpunktabstände d_k_pixell, d_k_pixel2 für den Oberarm 5.1 und den Unterarm 5.2 in dem Frontansichtbild 6a dargestellt, sowie die entsprechenden Körperschlüsselpunktabstände d_k_pixel3, d_k_pixel4 für den Oberarm 5.1 und den Unterarm 5.2 in dem Seitenansichtbild 6b. Auch in diesem einfachen Fall kann in dem Abmessungsbestimmungsschritt 10 ein mathematisches Modell 11 herangezogen werden, das bei der Berechnung der Länge 4.1 des Oberarms 5.1 aus dem entsprechenden Körperschlüsselpunktabstand d_k_pixel3 des Oberarms 5.1 beispielsweise den Winkel berücksichtigt, um den der linke Oberarm 5.1 gegenüber der vertikalen Erstreckungsrichtung geneigt ist.
Bei anderen Körperteilabmessungen, wie beispielsweise bei Umfangsgrößen (Kopfumfang, Halsumfang, Brustumfang 4.3, Oberschenkelumfang) werden mehrere Körperschlüsselpunktabstände verwendet, um beispielsweise eine einzige Umfangsgröße zu berechnen.
Bei dem dargestellten Verfahren 1 ist realisiert, dass im Bilddistanzschritt 9 wenigstens ein Körperschlüsselpunktabstand d_k_pixel aus der folgenden Gruppe berechnet wird: Höhe_pixel_frontal, Höhe_pixel_seitlich, Hals_pi- xel frontal, Hals_pixel_seitlich, Schulter_links_pixel_frontal, Schul- ter_rechts_pixel_frontal, Oberarm_pixel_frontal (in Fig. 5 als d_k_pixell bezeichnet), Oberarm_pixel_seitlich (in Fig. 5 als d_k_pixel3 bezeichnet), Oberarm_Umfang_pixel_frontal, Oberarm_Umfang_pixel_seitlich, Unter- arm_pixel_frontal (in Fig. 5 als d_k_pixel2 bezeichnet), Unterarm_pi- xel seitlich (in Fig. 5 als d_k_pixel4 bezeichnet), Brust_pixel_frontal (in Fig. 5 als d_k_pixel5 bezeichnet), Brust_pixel_seitlich (in Fig. 5 als d_k_pi- xelö bezeichnet), Bauch_pixel_frontal, Bauch_pixel_seitlich, Gürtellinie_pi- xel frontal, Taille_pixel_seitlich, Hüfte_pixel_frontal, Hüfte_pixel_seitlich, Rumpf_pixel_frontal, Rumpf_pixel_seitlich, total_Bein_pixel_frontal, to- tal_Bein_pixel_seitlich, Oberschenkel_Länge_pixel_frontal, Oberschen- kel_Länge_pixel_seitlich, Oberschenkel_Umfang_pixel_frontal, Oberschen- kel_Umfang_pixel_seitlich, Wade_pixel_frontal, Wade_pixel_seitlich, S chritt_kurz_pixel_frontal, S chritt_lang_pixel_fr ontal, S chritt Gürtel mit- te bi s_S chritt_pixel_frontal, S chritt_Hüfte_pixel_seitlich, Kopf_pixel_fron- tal, Kopf_pixel_seitlich. Die verschiedenen Körperschlüsselpunktabstände d_k_pixel sind hier aus Gründen der Übersichtlichkeit nicht noch einmal mit verschiedenen Bezeichnern versehen worden, jedoch erschließt sich die Bedeutung der Bezeichner bei Betrachtung von Fig. 5 auch von alleine.
Das in den Figuren dargestellte Verfahren 1 ist so ausgelegt, dass das mathematische Modell 11 des Zusammenhangs zwischen dem Körperschlüsselpunktabstand d_k_pixel und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung 4 des interessierenden Körperteils 5 ein trainiertes Regressionsmodell ist, insbesondere ein trainiertes Forest Tree Regressionsmodell ist. Zur Berechnung verschiedener Umfangsgrößen und zur Übertragung von Abmessungen in Bildkoordinaten in Abmessungen in echte physikalische Koordinaten wird beispielsweise eine Formel verwendet zur Berechnung des Umfangs einer Ellipse. Dabei wird davon ausgegangen, dass die vorzugsweise aus orthogonal zueinander stehenden Aufnahmepositionen gewonnenen Frontansichtbilder 6a und Seitenansichtsbilder 6b und die damit vermessenen Körperschlüsselpunkteabstände d_k_pixel bei bestimmten Körperteilen 5 eine gute Schätzung für die Halbachsen einer Ellipse sind, sodass die interessierenden Umfangsgrößen recht einfach berechnet werden können (Ramanujan-Formel).
In Fig. 1 ist hinsichtlich des Verfahrens 1 angedeutet, dass als Eingabeparameter des mathematischen Modells 11 des Zusammenhangs zwischen dem Körperschlüsselpunktabstand d_k_pixel und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung 4 des interessierenden Körperteils 5 eine Referenzlänge h ref in einer physikalischen Längeneinheit vorgegeben wird, wobei ein Objekt mit der Referenzlänge auf dem digitalen Frontansichtbild und/oder auf dem digitalen Seitenansichtbild abgebildet ist. Das Objekt ist im Beispiel von Fig. 1 die abgebildete Person 3 selbst.
Die in den Figuren dargestellten Verfahren 1 zeichnen sich dadurch aus, dass das mathematische Modell 11 des Zusammenhangs zwischen dem Körperschlüsselpunktabstand d_k_pixel und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung 4 des interessierenden Körperteils 5 eine Körperteilabmessung 4 aus der Gruppe der folgenden Körperteilabmessungen betrifft: Kopfumfang 4.4, Halsumfang 4.5, Schulterbreite 4.6, Oberarmlänge 4.1, Umfang des Oberarms 4.7, Unterarmlänge 4.2, Brustumfang 4.3, Bauchumfang 4.8, Rumpflänge 4.9, Taillenumfang 4.1 , Hüftumfang 4.11, Beinlänge 4.12, Oberschenkellänge 4.13, Oberschenkelumfang 4.14, Wadenumfang 4.15, Innennaht kurz 4.16, Innennaht lang 4.17, Schritt 4.18. Diese Auswahl an Körperteilabmessungen 4 hat sich als ausgesprochen hilfreich erwiesen, um eine zielgenaue Bestimmung einer geeigneten Kleidungsgröße 2 für die Person 3 zu ermöglichen.
In Fig. 5 ist exemplarisch auch dargestellt die Körperteilabmessung Brustumfang 4.3 als Beispiel für eine Körperteilabmessung 4, die, jedenfalls im dargestellten Fall, mithilfe des mathematischen Modells 11 im Abmessungsbestimmungsschritt 10 aus zwei Körperschlüsselpunktabständen d_k_pixel berechnet wird, nämlich aus dem Körperschlüsselpunktabstand d_k_pixel5 der Brustweite aus dem Frontansichtbild 6a und dem Körperschlüsselpunktabstand d_k_pixel6 der Brustweite aus dem Seitenansichtbild 6b. Der Körperschlüsselpunktabstand d_k_pixel6 der Brustweite aus dem Seitenansichtbild 6b ist bekannt, weil die zugehörigen Körperschlüsselpunkte k04_r und k04_l, wie in Fig. 4 dargestellt, bei dem Seitenansichtbild 6b mit vorgestreckten Armen ohne Weiteres bestimmbar sind. In dem mathematischen Modell 11 wird der Brustumfang 4.3 ermittelt mit den Körperschlüsselpunktabständen d_k_pixel5 und d_k_pixel6 als Achsen einer Ellipse, deren Umfang berechnet wird.
Bezugszeichen
1 Verfahren
2 Kleidungsgröße
2.1 konkret bestimmte Kleidungsgröße
3 Person
4 Körperteilabmessung
5 interessierendes Körperteil
6 digitales Bild
6a Frontansichtbild
6b Seitenansichtbild
7 Bilderfassungsschritt
8 Schlüsselpunktschritt
9 Bilddistanzschritt
10 Abmessungsbestimmungsschritt
11 mathematisches Modell
12 Kleidung sgrößenb estimmung s schritt
13 Korrespondenz zwischen Körperteilabmessung und geeigneter Kleidungsgröße
14 neuronales Netzwerk zur Identifikation der
Körperschlüsselpunkte
14.1 neuronale s N etzwerk für das F rontansichtbild
14.2 neuronales Netzwerk für das Seitenansichtbild k Körperschlüsselpunkte k_xy Bildkoordinaten der Körperschlüsselpunkte d_k_pixel Körperschlüsselpunktabstand

Claims

Patentansprüche
1. Computerimplementiertes Verfahren (1) zur automatischen Bestimmung einer geeigneten Kleidungsgröße (2) für eine Person (3) durch Bestimmung wenigstens einer Körperteilabmessung (4) wenigstens eines interessierenden Körperteils (5) der Person (3) durch Auswerten mehrerer digitaler Bilder (6) der Person, dadurch gekennzeichnet, dass in einem Bilderfassungsschritt (7) ein digitales Frontansichtbild (6a) und ein digitales Seitenansichtbild (6b) von der Person (3) erfasst werden, dass in einem Schlüsselpunktschritt (8) in dem Frontansichtbild (6a) und dem Seitenansichtbild (6b) vorgegebene Körperschlüsselpunkte (k) des interessierenden Körperteils (5) identifiziert und die Bildkoordinaten (k_xy) der Körperschlüsselpunkte (k) ermittelt werden, dass in einem Bilddistanzschritt (9) aus den Bildkoordinaten (k_xy) der ermittelten Körperschlüsselpunkte (k) des interessierenden Körperteils (5) wenigstens ein zu der Körperteilabmessung (4) korrespondierender Körperschlüsselpunktabstand (d_k_pixel) des interessierenden Körperteils (5) in Bildkoordinaten berechnet wird, dass in einem Abmessungsbestimmungsschritt (10) unter Verwendung eines mathematischen Modells (11) des Zusammenhangs zwischen wenigstens einem Körperschlüsselpunktabstand (d_k_pixel) und der Körperteilabmessung (4) des interessierenden Körperteils (5) die Körperteilabmessung (4) des interessierenden Körperteils (5) aus dem wenigstens einen Körperschlüsselpunktabstand (d_k_pixel) ermittelt wird und dass in einem Kleidungsgrößenbestimmungsschritt (12) aus der wenigstens einen ermittelten Körperteilabmessung (4) und wenigstens einer gegebenen Korrespondenz (13) zwischen Körperteilabmessung (4) und geeigneter Kleidungsgröße (2) die geeignete Kleidungsgröße (2.1) für die ermittelte Körperteilabmessung (4) bestimmt und ausgegeben wird.
2. Verfahren (1) nach Anspruch 1, dadurch gekennzeichnet, dass im Bilderfassungsschritt (7) das digitale Frontansichtbild (6a) und das digitale Seitenansichtbild (6b) der Person (3) im frei und senkrecht stehenden Zustand der Person (3) mit einer Digitalkamera unter einem Aufnahmewinkel erfasst wird, wobei die Abweichung des Aufnahmewinkels senkrecht zur Wirkrichtung des Erdschwerefeldes erfasst wird.
3. Verfahren (1) nach Anspruch 2, dadurch gekennzeichnet, dass die durch die Abweichung des Aufnahmewinkels senkrecht zur Wirkrichtung des Erdschwerefeldes bewirkte Verzerrung des digitalen Frontansichtbildes (6a9) und des digitalen Seitenansichtbildes (6b) durch eine mathematische Abbildung des digitalen Frontansichtbildes (6a) und des digitalen Seitenansichtbildes (6b) kompensiert werden, insbesondere durch Anwendung einer linearen Abbildungsvorschrift auf das digitale Frontansichtbild (6a) und/oder das digitale Seitenansichtbild (6b).
4. Verfahren (1) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Identifikation der Körperschlüsselpunkte (k) des interessierenden Körperteils (5) im Schlüsselpunktschritt (8) durchgeführt wird, indem das Frontansichtbild (6a) durch ein neuronales Netzwerk (14.1) zur frontalen Schlüsselpunktidentifizierung analysiert wird und/oder indem das Seitenansichtbild (6b) durch ein neuronales Netzwerk (14.2) zur seitlichen Schlüsselpunktidentifizierung analysiert wird.
5. Verfahren (1) nach Anspruch 4, dadurch gekennzeichnet, dass das neuronale Netzwerk (14.1) zur frontalen Schlüsselpunktidentifizierung darauf trainiert ist, wenigstens zwei Körperschlüsselpunkte (k) aus der Gruppe der nachfolgenden Körperschlüsselpunkte (k) zu identifizieren: Kopf oben (kOl), Kopf rechts (k02_r), Nacken rechts (k03_r), Schulter rechts (k04_r), Oberarm oben links/rechts rechts (k05_r), Ellbogen rechts (k06_r), Hand- gelenk oben/mitte/unten rechts (k07_r), Mittelfinger rechts (k08_r), Brust rechts (k09_r), Bauch rechts (klO r), Gürtel rechts (kll r), Hüf- te rechts (kl2_r), Schritt (kl3), Kopf links (k02_l), Nacken links (k03_l), Schulter links (k04_l), Oberarm oben links/rechts links (k05_l), Ober- arm oben rechts links (k05_l), Ellbogen links (k06_l), Handge- lenk oben/mitte/unten links (k07_l), Mittelfinger links (k08_l), Brust links (k09_l), Bauch links (klO l), Gürtel links (kl 1 1), Hüfte links (kl2_l), Knöchel rechts (kl7_r), Knöchel links (kl 7 1), Zeh rechts (kl8_r), Zeh links (kl 8 1), Sohle rechts (kl9_r), Sohle links (kl 9 1), in- nen/außen_Oberschenkel_rechts (kl4_r), innen/außen_Oberschenkel_links (kl4_l), innen/außen_Knie_rechts (kl5_r), innen/außen_Knie_links (kl5_l), und dass das neuronale Netzwerk (14. 2) zur seitlichen Schlüsselpunktidentifizierung darauf trainiert ist, wenigstens zwei Körperschlüsselpunkte (k) aus der Gruppe der nachfolgenden Körperschlüsselpunkte (k) zu identifizieren: Kopf oben (kOl), Kopf rechts (k02_r), Kopf links (k02_l), Hals rechts (k03_r), Hals links (k03_l), Brust rechts (k04_r), Brust links (k04_l), Bauch rechts (k05_r), Bauch links (k05_l), Hüfte rechts (k06_r), Hüf- te links (k06_l), Oberschenkel rechts (k07_r), Oberschenkel links (k07_l), Knie rechts (k08_r), Knie links (k08_l), Wade rechts (k09_r), Wade Links (k09_l), Sohle (klO), Zehe (kll), oberer Arm oben (kl2_t), obe- rer Arm unten (kl2_b), Schulter (kl3), Ellbogen (kl4), Handgelenk (kl5), Finger (klö), Gürtel Linie (kl7), insbesondere wobei das neuronale Netzwerk (14.1) zur frontalen Schlüsselpunktidentifizierung und das neuronales Netzwerk (14.2) zur seitlichen Schlüsselpunktidentifizierung jeweils darauf trainiert sind, sämtliche der genannten Körperschlüsselpunkte (k) aus der zugehörigen Gruppe der Schlüsselpunkte (k) zu identifizieren.
6. Verfahren (1) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zur Durchführung des Bilddistanzschrittes (9) zu dem Körperschlüsselpunktabstand (d_k_pixel) ein Algorithmus zur Berechnung des Körperschlüsselpunktabstandes (d_k_pixel) und die als Eingabeparameter erforderlichen Körperschlüsselpunkte (k) des interessierenden Körperteils (5) angegeben sind, insbesondere wobei der Algorithmus auf geometrischen Zusammenhängen beruht, insbesondere der euklidischen Geometrie und der darstellenden Geometrie auf Basis mehrerer Seitenansichten.
7. Verfahren (1) nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass im Bilddistanzschritt (9) wenigstens ein Körperschlüsselpunktabstand (d_k_pixel) aus der folgenden Gruppe berechnet wird: Höhe_pi- xel frontal, Höhe_pixel_seitlich, Hals_pixel_frontal, Hals_pixel_seitlich, S chulter_links_pixel_frontal, S chulter_rechts_pixel_frontal, Oberarm_pi- xel frontal (d_k_pixell), Oberarm_pixel_seitlich (d_k_pixel3), Ober- arm_Umfang_pixel_frontal, Oberarm_Umfang_pixel_seitlich, Unterarm_pi- xel frontal (d_k_pixel2), Unterarm_pixel_seitlich (d_k_pixel4), Brust_pi- xel frontal (d_k_pixel5), Brust_pixel_seitlich (d_k_pixel6), Bauch_pi- xel frontal, Bauch_pixel_seitlich, Gürtellinie_pixel_frontal, Taille_pi- xel seitlich, Hüfte_pixel_frontal, Hüfte_pixel_seitlich, Rumpf_pixel_frontal, Rumpf_pixel_seitlich, total_Bein_pixel_frontal, total_Bein_pixel_seitlich, Oberschenkel_Länge_pixel_frontal, Oberschenkel_Länge_pixel_seitlich, Oberschenkel Umfang pixel frontal, Oberschenkel_Umfang_pixel_seitlich, Wade_pixel_frontal, Wade_pixel_seitlich, Schritt kurz pixel frontal, S chritt_lang_pixel_frontal, S chritt_Gürtel_mitte_bis_S chritt_pixel_frontal, Schritt_Hüfte_pixel_seitlich, Kopf_pixel_frontal, Kopf_pixel_seitlich.
8. Verfahren (1) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass im Bilddistanzschritt (9) auch wenigstens ein kombinierter Körperschlüsselpunktabstand berechnet wird aus mehreren Körperschlüsselpunktabständen (d_k_pixel), insbesondere eines geschlossenen Polygonzuges zwischen Körperschlüsselpunkten, bevorzugt kombinierte Körperschlüsselpunktabstände, die Umfänge betreffen.
9. Verfahren (1) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das mathematische Modell (11) des Zusammenhangs zwischen dem Körperschlüsselpunktabstand (d_k_pixel) und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung (4) des interessierenden Körperteils (5) ein trainiertes Regressionsmodell ist, insbesondere ein trainiertes Forest Tree Regressionsmodell ist.
10. Verfahren (1) nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass als Eingabeparameter des mathematischen Modells (11) des Zusammenhangs zwischen dem Körperschlüsselpunktabstand (d_k_pixel) und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung (4) des interessierenden Körperteils (5) eine Referenzlänge (h ref) in einer physikalischen Längeneinheit vorgegeben wird, wobei ein Objekt mit der Referenzlänge auf dem digitalen Frontansichtbild (6a) und/oder auf dem digitalen Seitenansichtbild (6b) abgebildet ist.
11. Verfahren (1) nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass das mathematische Modell (11) des Zusammenhangs zwischen dem Körperschlüsselpunktabstand (d_k_pixel) und/oder des kombinierten Körperschlüsselpunktabstandes und der zugehörigen Körperteilabmessung (4) des interessierenden Körperteils (5) eine Körperteilabmessung (4) aus der Gruppe der folgenden Körperteilabmessungen betrifft: Kopfumfang (4.4), Halsumfang (4.5), Schulterbreite (4.6), Oberarmlänge (4.1), Umfang des Oberarms (4.7), Unterarmlänge (4.2), Brustumfang (4.3), Bauchumfang (4.8), Rumpflänge (4.9), Taillenumfang (4.10), Hüftumfang (4.11), Beinlänge (4.12), Oberschenkellänge (4.13), Oberschenkelumfang (4.14), Wadenumfang (4.15), Innennaht kurz (4.16), Innennaht lang (4.17), Schritt (4.18).
12. Verfahren (1) nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass in dem Kleidungsgrößenbestimmungsschritt (12) die gegebene Korrespondenz (13) zwischen Körperteilabmessung und geeigneter Kleidungsgröße (2) spezifisch ist für ein spezifisches Kleidungsstück oder für eine spezifische Gruppe von Kleidungsstücken.
PCT/EP2023/072404 2022-08-14 2023-08-14 COMPUTERIMPLEMENTIERTES VERFAHREN ZUR AUTOMATISCHEN BESTIMMUNG EINER GEEIGNETEN KLEIDUNGSGRÖßE FÜR EINE PERSON WO2024038023A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022120498.7 2022-08-14
DE102022120498 2022-08-14

Publications (1)

Publication Number Publication Date
WO2024038023A1 true WO2024038023A1 (de) 2024-02-22

Family

ID=87580272

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/072404 WO2024038023A1 (de) 2022-08-14 2023-08-14 COMPUTERIMPLEMENTIERTES VERFAHREN ZUR AUTOMATISCHEN BESTIMMUNG EINER GEEIGNETEN KLEIDUNGSGRÖßE FÜR EINE PERSON

Country Status (1)

Country Link
WO (1) WO2024038023A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200319015A1 (en) * 2019-04-02 2020-10-08 Bodygram, Inc. Systems and methods for weight measurement from user photos using deep learning networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200319015A1 (en) * 2019-04-02 2020-10-08 Bodygram, Inc. Systems and methods for weight measurement from user photos using deep learning networks

Similar Documents

Publication Publication Date Title
DE102013203667B4 (de) Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke
DE60023447T2 (de) Verfahren zur berechnung der lage und ausrichtung eines objektes im dreidimensionalen raum
EP3304495B1 (de) Verfahren und vorrichtung zur bestimmung biometrischer eigenschaften von wirbeltieren, insbesondere des gewichtes von schweinen
DE102012204537A1 (de) Verfahren zum Bestimmen der Abmessungen eines Körperteils
EP4076078B1 (de) Verfahren und vorrichtung zum bereitstellen zumindest eines schnittmusters eines individuell für einen kunden anzufertigenden kleidungsstücks
DE102006033383A1 (de) Verfahren zum Bestimmen einer Eigenschaftskarte für einen Gegenstand, insbesondere für ein Lebewesen, basierend auf zumindest einem ersten Bild, insbesondere Kernspinresonanzbild
DE102017116558A1 (de) Verfahren zur Führung von Bewegungsabläufen sowie Trainingsvorrichtung zur Führung von Bewegungsabläufen
DE102012101428A1 (de) Verfahren zur Erstellung eines Bekleidungsschnitts
EP2091015B1 (de) Verfahren und computerimplementiertes System zur Bestimmung der Passqualität eines individuell gefertigten Kleidungsstücks
WO2024038023A1 (de) COMPUTERIMPLEMENTIERTES VERFAHREN ZUR AUTOMATISCHEN BESTIMMUNG EINER GEEIGNETEN KLEIDUNGSGRÖßE FÜR EINE PERSON
DE202018105003U1 (de) Systemintegration für das Design und die Herstellung von Bekleidung
DE102020207975A1 (de) Verfahren und Vorrichtung zur Verminderung der durch das Sitz- und Bewegungsverhalten eines Nutzers verursachten gesundheitlichen Belastung
DE19922150B4 (de) Verfahren und Vorrichtung zur Bestimmung von Körpermaßen und / oder entsprechender Kleidergrößen einer Person
DE102018119170A1 (de) Spielverfolgung
DE102020119338A1 (de) Verfahren zur konstruktionslosen Schnittgestaltung für Bekleidungsstücke
EP3226206A1 (de) Klassifizierung mittels aufnahmen
DE102020100366A1 (de) Verfahren zur 3D-Bewegungsanalyse und Sofortfeedback für Trainingsübungen
EP1051924B1 (de) Verfahren und Vorrichtung zur Bestimmung von Körpermassen und/oder entsprechender Kleidergrösse einer Person
DE102006046709B4 (de) Verfahren zur Herstellung maßgeschneideter Bekleidungsstücke
DE60116528T2 (de) Herstellung von masskleidung
DE602005005858T2 (de) Optimierte bildregistration durch verwendung von zusammengesetzten registrationsvektoren
DE102021005835B4 (de) Verfahren und System zum Erfassen und Bereitstellen von Daten für einen Kauf eines Bekleidungsartikels
DE602004010743T2 (de) Verfahren zur Abschätzung der Beinkraft eines Benutzers
DE102021103578B4 (de) Verfahren und System zum Erfassen und Bereitstellen von Daten für einen Kauf eines Bekleidungsartikels
DE102020101538A1 (de) Verfahren zum Vergleich von standardisierten körpergrößen- und/oder körperformabhängigen Produkten mit einem Körperteil eines Nutzers des Produkts

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23755404

Country of ref document: EP

Kind code of ref document: A1