WO2024132790A1 - Verfahren zur bestimmung von mindestens einer ersten abmessung und einer zweiten abmessung eines objekts, erfassungsvorrichtung, verfahren zum erfassen von multiplen objektdatensätzen zumindest eines objekts - Google Patents

Verfahren zur bestimmung von mindestens einer ersten abmessung und einer zweiten abmessung eines objekts, erfassungsvorrichtung, verfahren zum erfassen von multiplen objektdatensätzen zumindest eines objekts Download PDF

Info

Publication number
WO2024132790A1
WO2024132790A1 PCT/EP2023/085635 EP2023085635W WO2024132790A1 WO 2024132790 A1 WO2024132790 A1 WO 2024132790A1 EP 2023085635 W EP2023085635 W EP 2023085635W WO 2024132790 A1 WO2024132790 A1 WO 2024132790A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimension
object data
observation direction
dimensional representation
determining
Prior art date
Application number
PCT/EP2023/085635
Other languages
English (en)
French (fr)
Inventor
Peter WASZKEWITZ
Salma ABOUELNAGA
Sebastian Schmitt
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2024132790A1 publication Critical patent/WO2024132790A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/54Revolving an optical measuring instrument around a body

Definitions

  • Method for determining at least a first dimension and a second dimension of an object detection device, method for detecting multiple object data sets of at least one object
  • a structured light scanner (IDS Ensenso N35) can be used, for example.
  • the challenges with this method lie in particular in determining the dimensions of objects with reflective, transparent, white and/or black surfaces. Since the above method is based on emitting a structured light pattern onto the object, incorrect or no 3D measurement points are recorded for transparent objects because the light "shines through”. With reflective objects, there is a lot of "noise” around the object, which can lead to a large deviation between the measured dimensions and the actual dimensions. With white and black objects, it can also happen that high noise or no object data can be recorded.
  • These challenges arise in particular with objects with a low height, i.e. in particular with a height of less than or equal to 15 mm.
  • the invention relates to a method for determining at least a first dimension and a second dimension of an object, a detection device and a method for detecting multiple object data sets of at least one object.
  • An advantage of the invention with the features of the independent patent claims is that when determining dimensions of an object, no reference element with a known size is required that has to be recorded together with the object. Instead, stored reference imaging specifications are used, which are determined in a calibration process by relating the known dimensions of the reference element and the dimensions of the reference element determined in the calibration process. It is not necessary to output or arrange the reference element when the object itself is recorded. In other words, it is possible to separate the calibration and the execution of the method for determining the dimensions of the object, so that the method for determining the dimensions of the object can be carried out without using a reference element.
  • Providing a first reference mapping rule and a second reference mapping rule by a data storage unit in particular the provision of the first reference mapping rule and/or the second reference mapping rule can be carried out by retrieving the first reference mapping rule and/or the second reference mapping rule from the data storage unit,
  • Digitization is to be understood in particular as the recording of information about objects, preferably physical objects, in formats that are suitable for processing or storage in digital technology systems. Digitization creates the possibility of (further) processing using information technology.
  • the method can also be carried out for more than two observation directions, wherein preferably a respective reference imaging rule should be used for each observation direction, which can be at least partially identical.
  • the object should be understood in particular as a physical object.
  • a reference mapping rule can be understood in particular as a pixel/dimension ratio (pixels per metric ratio).
  • Reference mapping rules can, for example, assign a size in meters or decimal multiples of meters, such as millimeters (mm), centimeters (cm), etc., to each pixel, so that from the knowledge of a dimension of the object in pixels, this can be converted into a dimension in meters or decimal multiples of meters using the reference mapping rule.
  • the reference mapping rules are each Conversion rules that enable hardware-dependent conversion from pixels to meters.
  • the reference imaging rules depend in particular on a distance and on the direction of observation from which the object is captured, as well as on the hardware (for example focal length, angle of view, etc.) with which the object data of the object is captured.
  • conversion rules can be determined independently of the method for determining the dimensions of the object, for example in a calibration method, and stored in the data storage unit. This makes it possible to carry out the above method without having to capture object data of a reference element when determining the first and second dimensions of the object in order to deduce the actual size of the captured object. In contrast, the present method is faster and requires fewer storage and computing resources, since only object data of the object is required to determine at least the first dimension and second dimension in order to reliably determine these dimensions.
  • a pixel or picture element is a physical point of a raster graphic or the smallest addressable element in a screen display.
  • the address of each pixel corresponds to its physical coordinates on the screen.
  • the X coordinate is the horizontal address of a pixel or addressable point on a screen or image.
  • Object data can include, in particular, image data (preferably recorded with 2D cameras), i.e. an image of the object (for example a color or black-and-white photograph of the object), as well as further information suitable for characterizing the object, in particular to distinguish it from another object.
  • the further information preferably includes inherent characteristics of the object, such as appearance, shape, contour, color, symmetry, weight, material and/or another characteristic that appears useful to the person skilled in the art. It is also conceivable that situation-specific characteristics are recorded, for example a relative arrangement to another object, in particular a counterpart, a degree of soiling, differences between two supposedly identical objects and/or a temporary marking.
  • Capturing object data can include, in particular, optically capturing or recording image data and determining further information, in particular by evaluating the image data. In particular, the evaluation can be carried out by means of an evaluation unit of the capture device.
  • determining further information may include determining the first two-dimensional representation of the object from the first object data and/or determining the second two-dimensional representation from the second object data.
  • the following steps may be carried out for the respective object data:
  • the respective two-dimensional representation can, for example, comprise an enveloping body, such as a bounding box.
  • a bounding volume is a simple geometric body that encloses a complex three-dimensional object; in particular, it can also be a geometric two-dimensional shape, such as a rectangle, that encloses a two-dimensional object.
  • the object is captured from the respective observation direction and a two-dimensional enveloping body, in particular a two-dimensional bounding box, is generated on the respectively captured image, which encloses the object.
  • a two-dimensional bounding box is also referred to as a minimal surrounding rectangle.
  • the respective two-dimensional representation can comprise a minimal surrounding rectangle.
  • the latter can be characterized by at least a selection of the following parameters:
  • the object is captured from an observation direction and a three-dimensional envelope body that encloses the object, in particular a three-dimensional bounding box, is generated on the captured image.
  • this can be a cuboid, with the two-dimensional representation of the object comprising one of the six surfaces of the cuboid in which the edge of the object whose dimension is to be determined lies.
  • the three-dimensional enveloping body can be displayed to a user, whereby the user can select one of the surfaces based on which the at least one dimension is to be determined.
  • the two-dimensional representation can comprise the surface which includes the edge of the object whose dimension is to be determined and can be characterized by the following parameters:
  • a 2-tuple can be determined from the parameters mentioned above, in particular, where the first element of the tuple corresponds to the length of the first edge of the two-dimensional envelope body or the selected area of the three-dimensional envelope body, which represents, for example, a width of the object, in units of pixels, and analogously the second element of the tuple corresponds to the length of the second edge of the two-dimensional envelope body or the selected area of the three-dimensional envelope body, which represents, for example, a length of the object, in units of pixels.
  • the first element of the tuple then corresponds to the first dimension of the first two-dimensional representation and the second element of the tuple then corresponds to the second dimension of the first two-dimensional representation.
  • the width of the object in meters is then obtained in this example.
  • the first reference mapping rule to the second dimension of the first two-dimensional representation the length of the object in meters is obtained in this example. However, only the width or only the length of the object can be determined; it is not necessary to determine both dimensions.
  • a 2-tuple can be determined for the second two-dimensional representation. From the two dimensions of the tuple, at least one further dimension of the object can be determined analogously to the method described above, now using the second reference mapping rule.
  • the height of the object can be determined from the side view and the width and length from the top view.
  • the diameter here an example of the first dimension
  • the height of the object here an example of the second dimension
  • the two-dimensional representation can be understood as a tuple of numbers, where the first element of the tuple corresponds to the first dimension and the second element of the tuple corresponds to the second dimension of the two-dimensional representation.
  • the elements are each representations of the dimensions of the object, which can be determined, for example, by creating bounding boxes as described above.
  • a user can manually enter geometric shapes, such as rectangles, into the image data, where the length of the edges of the rectangle is stored in units of pixels in a tuple and is thus available as a two-dimensional representation.
  • the two-dimensional representation here is a tuple of numbers in which the two dimensions that can be seen on the image data from the respective direction of observation are represented by numbers in arbitrary units.
  • the dimensions in SI units e.g. meters
  • SI units are only obtained by applying the corresponding reference mapping rule to the individual dimensions of the tuple of numbers.
  • the method advantageously enables the dimensions of the object to be determined on the basis of the acquired object data of the object, which includes that at least an estimate of at least two dimensions of the object, for example diameter and height and/or width and length, can be determined.
  • an operator can advantageously be enabled to estimate and/or determine the size of the object, at least based on the object data of the object.
  • the dimensions of the object generally include the relevant, characteristic length dimensions of the object.
  • the dimensions can include, for example, the following sizes: length, width, height, diameter, radius, at least one diagonal of the object, etc.
  • boundary conditions for further processes can be derived from the dimensions.
  • knowledge of the dimensions of the object is very important in order to be able to plan the loading of railway wagons, containers, trucks and ships.
  • the invention enables automatic recording and visualization of the Object dimensions on the product images, which can preferably be given as output to the customers.
  • these images can be used directly in object recognition to distinguish very similar objects by their dimensions. This can simplify an object recognition method and enable more reliable recognition of the object.
  • the object recognition method can be carried out, for example, by means of image segmentation, blob analysis or machine learning or deep learning techniques.
  • it can comprise determining at least the first dimension and a second dimension of the object as described above and carrying out object recognition, wherein the dimensions of the object form an input variable of the object recognition.
  • first and second observation directions “deviate from each other by at least a predetermined amount” can be understood in particular to mean that the object data are recorded at different detection angles.
  • the object data acquisition element or another object data acquisition element for example a camera, images the object, has a second detection angle relative to the aforementioned plane of the object carrier unit
  • first and second observation directions “differ from one another to at least a predetermined extent” can be understood to mean that the object is recorded from different, differing perspectives, for example from the side and from above.
  • Object data acquisition elements can acquire object data from multiple perspectives, ie in particular from different observation directions, in particular the first and second observation directions.
  • a “perspective” is to be understood in particular as a specific relative arrangement, in particular position and/or orientation, of the object data acquisition element for acquiring the object data and the object, in particular the object carrier unit.
  • multiple perspectives comprise at least two different relative arrangements of the associated object data acquisition element and the object, in particular the object carrier unit.
  • the first and second two-dimensional representations can be transmitted to a cloud or to an external evaluation unit and evaluated there in order to determine the dimensions of the object.
  • the reference mapping rules are then made available to the cloud or the external evaluation unit or the data storage unit is already part of the cloud/external evaluation unit.
  • the first and second dimensions can be transmitted to a user and/or displayed to a user after they have been determined.
  • control signals can be generated after the dimensions have been determined to control further process steps in the digitization of objects.
  • cameras can be selected based on their optical properties, for example, so that the optical properties, such as focal length, angle of view of the camera, distance between the camera and the object carrier unit, etc., match the dimensions of the object, which are determined by the aforementioned method, in order to improve the quality of the object digitization.
  • the method can comprise a visualization of the determined dimensions on the image data (object images) and these can be used as input data for an object recognition method in order to, for example, distinguish very similar objects by their respective dimensions during object recognition.
  • the first observation direction or the second observation direction is orthogonal to the object carrier unit, and the other observation direction has a detection angle of 3°, 5° or a value between 3° and 5° to the object carrier unit.
  • an angle between the first (second) observation direction and a normal to the object carrier unit is 0° and the second (first) observation direction has an angle of 85°, 87° or a value between 85° and 87° to the aforementioned normal to the object carrier unit.
  • the object is recorded/captured in a top view and in a side view.
  • the above method does not require the arrangement or output of a reference element whose dimensions are known. Instead, the reference mapping rules are determined in a calibration method that is independent of the determination of the dimensions, where independent means in particular independent in time, since it does not have to be carried out as part of the method described above.
  • the first reference mapping rule may be determined by a calibration procedure, the calibration procedure comprising the following steps:
  • the first reference imaging instruction determined by the calibration method described above can be used for both the first reference imaging instruction and the second reference imaging instruction. This can save storage space.
  • This option is particularly suitable if the detection distance is the same for both observation directions and preferably the properties, in particular optical properties, of the component used to capture the image data are the same or at least similar for both observation directions.
  • the detection distance can be understood as a working distance, in particular a distance between the component used to capture the image data and the object.
  • the detection distance can be determined by the distance between an object reference point, for example a point on the object carrier unit, preferably a center point of an object data detection area on the object carrier unit, which is intended to capture the object for detection, and the front lens of a camera lens used for detection.
  • an object reference point for example a point on the object carrier unit, preferably a center point of an object data detection area on the object carrier unit, which is intended to capture the object for detection, and the front lens of a camera lens used for detection.
  • the calibration method described above can be carried out analogously for the second observation direction and thus a second reference imaging rule can be determined that differs from the first reference imaging rule and is made available to the method for determining at least the first dimension and the second dimension.
  • a second reference imaging rule can be determined that differs from the first reference imaging rule and is made available to the method for determining at least the first dimension and the second dimension.
  • Reference mapping rule includes in particular the following steps:
  • the same reference element or different reference elements can be used for the calibration procedure for determining the first reference imaging rule and the second reference imaging rule.
  • the acquisition of the respective calibration object data may comprise at least the following steps:
  • such a distance class comprises all detection distances that lie between a minimum and a maximum detection distance of the interval, wherein an amount of the difference between the minimum and maximum detection distance is preferably 10 cm or less than 10 cm.
  • the distance-dependent reference mapping rule for the distance class that includes detection distances in the interval from 112.5 cm to 125 cm is set to a constant value of 27 pixels/cm. This means that regardless of the exact value of the detection distance within the distance class, this reference mapping rule is always used when determining the dimensions.
  • different distance classes in particular different interval sizes
  • different reference imaging rules can be used for each of the observation directions.
  • dimension-dependent referencing is advantageous for larger object dimensions. This means that, for example, an adapted, distance-dependent pixel-dimension ratio can be used for objects 300 mm high.
  • the width (b), length (I) and height (h) of the object are determined using the static pixel dimension ratio specified for the direction of observation (preset reference imaging rule).
  • the distance from the object to the cameras is calculated from 5° or 3° (a1) and 90° (a5).
  • we recorded distance classes at intervals of 10 cm (alternatively possible at a smaller distance).
  • This two-stage method comprises in particular the following steps: • Determining a corrected first dimension if: o the second dimension (1091, 1092) is greater than or equal to a maximum second dimension, and/or o the second dimension is less than or equal to a minimum second dimension, by: o determining the detection distance taking into account the second dimension, o determining the corrected first dimension of the object by means of the distance-dependent first reference mapping rule associated with this specific detection distance, and/or
  • the data storage unit provides a preset, in particular non-distance-dependent, first reference imaging rule and a preset, in particular non-distance-dependent, second reference imaging rule, using which at least the first and the second dimension are determined in the first stage.
  • a particularly suitable preset, in particular non-distance-dependent, reference imaging rule is the reference imaging rule that results when the detection distance corresponds to a distance between the component for detecting the image data and a point, in particular a fixed point, such as a center point of an object data detection area on the object carrier unit in which the object to be detected is arranged.
  • the interval is in particular chosen such that the reference mapping rule is at least approximately constant over the interval.
  • a respective corrected dimension is determined: For this purpose, the detection distance by means of which the respective preset reference mapping rule was determined is corrected by the dimensions determined in the first stage.
  • the object is positioned at the center point. Due to the extent of the object, the actual distance from which the object is detected is equal to the detection distance between the center of the object carrier unit and the component for detection, reduced by the extent of the object in the observation direction starting from the center of the object carrier unit. In concrete terms, this means, for example, that in the top view, the width and length of the object can be determined in the first step, and in the side view, the height. The actual detection distance in the top view then corresponds to the difference between the detection distance between the center point and the component for detecting the object data and the height determined from the side view. Similarly, the actual detection distance in the side view results, for example, from the detection distance, which is corrected by the length or width of the object (depending on the orientation of the object relative to the observation direction).
  • the associated distance-dependent reference mapping rule can then be retrieved from the data storage unit based on the detection distances corrected by the dimensions determined in the first stage.
  • the distance class can be determined for the respective observation direction based on the corrected detection distances.
  • the associated distance-dependent reference mapping rule can be retrieved and used to map the respective dimension of the respective two-dimensional representation to the respective dimension.
  • the dimension determined in this way is then the corrected dimension.
  • a superimposed representation of the recorded object data and the associated two-dimensional representation is displayed.
  • this enables the two-dimensional representation to be adapted, in particular by marking boundary edges and/or corner points, with the dimensions being determined on the basis of this adapted two-dimensional representation.
  • the height in particular cannot always be reliably determined purely automatically, as contextual information about the object may be required.
  • the camera image is not 100% frontal and therefore the height of the object is not measured.
  • this result can be provided directly to the machine user.
  • a user can adjust the dimensions of a bounding box displayed on the photograph/image through user interaction by editing the bounding box, for example via drag and drop.
  • This selected image section is then used by means of the pixel dimension ratio to determine the actual dimensions.
  • This method can also be used for objects that are particularly difficult to isolate (for example transparent objects, white objects, etc.).
  • the method comprises a further step: determining at least one third dimension of the object from a dimension of the first and/or second two-dimensional representation of the object representing the third dimension, from the first and/or second two-dimensional representation of the object, by mapping this dimension of the respective two-dimensional representation to the third dimension by means of the associated reference mapping rule.
  • the reference element comprises at least one square marker, which in particular comprises a black border and a binary matrix which is at least partially delimited by the border, and wherein at least one of the dimensions of the square marker is known.
  • at least one Arllco markers can be used as a reference element. Arllco markers were developed by the Applications of Artificial Vision (AVA) group at the University of Cordoba.
  • a further subject of the present invention is a detection device, in particular for an at least partially automated detection of multiple object data sets of at least one object, for determining at least a first dimension and a second dimension of the object, comprising:
  • an object data acquisition unit for acquiring first object data of the object from a first observation direction and for acquiring second object data of the object from a second observation direction, o wherein the first object data comprise a first two-dimensional representation of the object which depends on the first observation direction, o wherein the second object data comprise a second two-dimensional representation of the object which depends on the second observation direction, o wherein the first observation direction and the second observation direction differ from one another,
  • a data storage unit for providing at least one reference mapping rule, in particular the first and second reference mapping rule, for determining at least the first dimension and the second dimension of the object
  • an evaluation unit o for determining at least the first dimension of the object from a dimension of the first two-dimensional representation of the object representing the first dimension, by mapping this dimension of the first two-dimensional representation to the first dimension by means of the first reference mapping rule and o for determining at least the second dimension of the object from a dimension of the second two-dimensional representation of the object representing the second dimension, by mapping this dimension of the second two-dimensional representation to the second dimension by means of the second reference mapping rule.
  • the more components used in the detection device the higher the technical complexity. Each component can be defective, may need to be calibrated, and/or lose connectivity.
  • the detection device becomes more complex and in the event that it fails, the entire detection device must be restarted, which reduces the technical availability of the detection device. Thanks to the clever method, it is not mandatory for the detection device to include a 3D camera. This reduces the technical complexity and increases the technical availability.
  • the detection device represents an implementation of the 2D-based optical measurement of objects described above, which enables faster and more accurate measurement of the object.
  • partially automated recording should be understood in particular to mean that at least one multiple object data set is recorded in at least one operating state without operator intervention, i.e. in particular without the intervention of an operator.
  • An "object data acquisition unit” is to be understood in particular as a unit that is intended to acquire at least one type of object data.
  • the object data acquisition unit is preferably an imaging acquisition unit that comprises in particular at least one still camera and/or a motion picture camera.
  • the object data acquisition unit preferably has a true color camera.
  • the object data acquisition unit can comprise, for example, an infrared camera, a TOF camera and/or the like.
  • An object data set preferably comprises at least two, particularly preferably at least ten, different images of the object data acquisition unit.
  • Object data set comprises in particular at least two different object data about the same object.
  • a multiple object data set preferably comprises more than ten different object data, particularly preferably more than one hundred different object data about the same object.
  • a multiple object data set comprises at least two different types of object data about the same object.
  • the object data acquisition unit can comprise at least one object data acquisition element, whereby an optical sensor, image sensor or a camera are suitable as an object data acquisition element.
  • the object data acquisition element is used to capture optical information electronically, the resolution of which is specified in megapixels in particular.
  • Typical areas of application are electronic cameras of all kinds, such as digital cameras, surveillance cameras or camera modules such as those installed in smartphones.
  • Image sensors record the image information, which is usually supplied by an optical device (lens), in the form of light-sensitive image points (pixels) that are arranged flatly in the form of a matrix on the image sensor.
  • Common sensor types in camera technology are CCD and CMOS image sensors.
  • An “evaluation unit” is to be understood in particular as a unit with an information input, information processing and information output.
  • the evaluation unit preferably has at least one processor and a memory element or a data storage unit.
  • the components of the evaluation unit are particularly preferably arranged on a common circuit board and/or very particularly preferably arranged in a common housing.
  • the object data acquisition unit can preferably be controlled by means of the evaluation unit.
  • the evaluation unit preferably controls at least the defined relative movement, in particular a movement of two object data acquisition elements relative to one another and/or along a guide unit and the further guide element relative to one another, and at least a selection of one of the object data acquisition elements, in particular depending on the dimensions of the object, which were determined by means of the method, for acquiring further object data, as well as a time of acquisition of at least one object data acquisition element.
  • Object data is recorded from objects to be digitized.
  • at least one object data recording unit for example comprising a camera, is arranged in such a way that object data can be recorded from different positions/perspectives/observation directions.
  • the object data recording unit can also comprise several object data recording elements which have lenses with different properties, in particular different optical properties. It is therefore advantageously possible to digitize both small objects, ie in particular objects whose length, width and height are each less than or equal to 1 cm, and large objects, ie in particular objects whose length, width and height are each greater than or equal to 40 cm.
  • One advantage of the detection device is that the speed of object measurement can be increased. Measuring an object using a 3D scanner (e.g. IDS Ensenso N35) currently takes around 12 seconds. In addition, the protective door must be closed during this process step. If the operator then has to measure manually, an additional effort of 45 seconds must be expected.
  • the automatic measurement based on 2D images which can be implemented using the detection device described above, takes place within the process of digitizing the object and therefore reduces the time by 12 seconds. If the operator still has to adjust the measured values, this results in an additional effort of around 10 seconds. Accordingly, the effort is reduced by an average of 28 seconds per product to be digitized (0.4*45 sec + 1*12 see - 0.2*10 see). With a previous cycle time of 2:30 minutes, the cycle time is now 2:02 minutes, which represents a saving of 19%. The capture device therefore enables objects to be digitized efficiently and quickly.
  • the implementation of the method for measuring the object using two 2D images in the detection device advantageously enables a reduction in the complexity of the detection device, since no separate hardware is required to determine the dimensions, but can be done with the existing hardware in the process. In particular, no 3D cameras are required to determine the dimensions. There is also no need for manual re-measurements and it is not necessary to arrange a reference element or known object during the measurement and to evaluate the associated recorded data. This enables a reduction in the effort required to determine the dimensions. In any case, the integrated process described above is faster than all known solutions on the market.
  • the object data acquisition unit comprises at least a first object data acquisition element for acquiring the first object data of the object from the first observation direction and a second object data acquisition element for acquiring the first object data of the object from the second observation direction.
  • the object data acquisition elements are each arranged at a fixed acquisition distance and/or at a fixed angle relative to the object carrier unit.
  • the first object data acquisition element is arranged orthogonally to the object carrier unit in order to acquire a top view of the object and in particular, the second object data acquisition element is arranged such that the observation direction of the object data acquisition element is 3° or 5° or a value between 3° and 5° relative to the object carrier unit, i.e. in other words, the second
  • Object data acquisition element can capture a side view of the object placed on the slide unit.
  • the length and width of the measuring object are determined using a 2D image taken at 90°.
  • the height of the measuring object is determined using a 2D image taken at 3° or 5°.
  • the object dimensions can therefore be determined for all three dimensions of the object using two 2D images.
  • the object data acquisition unit comprises at least one object data acquisition element which is designed to acquire object data from both the first observation direction and the second observation direction.
  • the acquisition device can comprise a guide unit, wherein the object data acquisition unit is arranged on the guide unit.
  • the object data acquisition unit comprises at least one object data acquisition element which is or can be connected to the guide unit in particular so as to be movable relative to the guide unit.
  • the object data acquisition element can be arranged at a first position and a second position or in other words at least moved back and forth between the two positions.
  • the observation direction in the first position is orthogonal to the object carrier unit and in the second position the observation direction of the object data acquisition element has 3° or 5° or a value between 3° and 5° relative to the object carrier unit.
  • the guide unit particularly preferably has at least one, in particular at least partially curved, guide element, wherein the object data acquisition element is movable in particular along the guide element, i.e. in other words, the guide element restricts the degrees of freedom of movement of the object data acquisition element and in particular sets a distance between a fixed point on the object carrier unit and the object data acquisition element, preferably sets it to a constant value.
  • the guide element restricts the degrees of freedom of movement of the object data acquisition element in such a way that the object data acquisition element is movable on a one-dimensional path, for example on a circular or arcuate path or a two-dimensional surface, for example a surface of a sphere segment.
  • At least two object data acquisition elements are arranged separately from one another on the guide unit.
  • at least one of the two object data acquisition elements is arranged movably on the guide unit.
  • the guide unit is in particular provided to guide at least one of the two object data acquisition elements arranged on the guide unit during a movement, wherein a defined movement path of at least one object data acquisition element is preferably predetermined by means of the guide unit.
  • the term "intended” is to be understood in particular as meaning specially set up, specially designed and/or specially equipped.
  • the fact that an object is intended for a specific function is to be understood in particular as meaning that the object fulfils and/or performs this specific function in at least one application and/or operating state.
  • the guide unit is in particular intended at least to follow a movement of an object data acquisition element of the two Object data acquisition elements along a direction that deviates from the defined movement path.
  • the guide unit can, for example, have at least one multi-axis robot arm, an articulated arm, a swivel arm and/or at least the guide element, particularly preferably a plurality of guide elements.
  • the at least one object detection element can be permanently installed in the detection device and consequently a fixed, known detection distance can be realized.
  • the distance between the object carrier unit and the detection element is known and fixed. A correction of the detection distance and application of the two-stage method described above is therefore only necessary for special boundary conditions, in particular for very large objects, in particular objects whose edge length exceeds 250 mm.
  • the one-step process also delivers very good and accurate results. Therefore, the reference element, in particular the Arllco marker, is not recorded together with the measurement object, but is only photographed separately once.
  • a reference imaging specification i.e. a pixel/dimension ratio (pixels per metric ratio)
  • this camera-lens combination fixed, known optical properties
  • this pixel/dimension ratio can be used to determine the length + width (for example from 90°) and to determine the height (for example from 5° or 3°).
  • One advantage is that this enables the object to be digitized and objects to be categorized according to their size within a common process. In particular, the dimensions of the object can be determined directly from the data recorded for digitization.
  • the detection device preferably comprises at least one main processing unit, which is at least intended to carry out an object learning process.
  • An "object learning process” is to be understood in particular as processing the multiple object data sets for further use.
  • an object learning process can include the creation of an all-round view of the object, the creation of a three-dimensional model of the object and/or the extraction of characteristic features, in particular to enable pattern recognition.
  • Fig. 1 shows a detection device in a plan view in a schematic representation
  • Fig. 2 a detection device in a side view
  • Fig. 3 an object whose dimensions are to be determined in a top view
  • Fig. 4 the object from Fig. 3 in a side view
  • Fig. 5 an object with complex geometry in a side view
  • Fig. 6 is a flow chart of a method for determining at least a first dimension and a second dimension of an object
  • Fig. 7 is a flow chart of a method for determining at least a first dimension and a second dimension of an object
  • Fig. 8 is a flow chart of a method for capturing multiple object data sets of at least one object
  • Fig. 9 shows an example of a reference element in the form of an A rll co-marker.
  • Fig. 1 shows a plan view of a schematically illustrated detection device 100, comprising a specimen carrier unit 102 for providing an object, in particular for digitizing the object, here in the form of a turntable, wherein the object can be arranged on the round table top, preferably at least partially in an object data detection area 1021, and an object data detection unit 103 for detecting first object data of the object from an observation direction 1040 and for detecting second object data of the object from a different observation direction 1040, wherein the observation directions can in particular have different detection angles relative to the specimen carrier unit 102 (not visible in the plan view shown in Fig. 1).
  • the object data acquisition unit 103 comprises a first object data acquisition element 1031, which detects a center point 1020 of the object carrier unit 102 from the observation direction 1040, and a second object data acquisition element 1032, which detects the center point 1020 of the object carrier unit 102 from the further observation direction 1040.
  • the first object data acquisition element 1031 is arranged at a first detection distance 1051 from the center point 1020 of the object carrier unit 102, wherein the first detection distance 1051 here designates a distance of a front lens of an objective of the first object data acquisition element 1031 from the center point 1020 and is 800 mm here.
  • the second object data acquisition element 1032 is arranged at a second acquisition distance 1052 from the center 1020 of the object carrier unit 102, wherein the second acquisition distance 1052 here designates a distance of a front lens of an objective of the second object data acquisition element 1032 to the center 1020 and is 1250mm here.
  • the first object data acquisition element 1031 is, for example, a camera with an EF (Electronic Focus) 100mm objective, wherein it is preferably an f/2.8L Macro IS USM lens.
  • the second object data acquisition element 1032 is, for example, a camera with an EF (Electronic Focus) 50mm lens, which is preferably an f/1.2L USM lens.
  • a lateral distance 1030 of the object data acquisition elements 1032, 1031 is 600mm in this embodiment.
  • a background device 101 which provides a background for the images taken of the object.
  • the background device 101 comprises a plate with a uniform color, for example a white plate, so that the object data acquisition elements 1031, 1032 can record the object against the single-colored background.
  • an object data acquisition element which can be moved between the two positions shown in Fig. 1 and which can differ in their distance from the center 1020 of the object carrier unit 102 and their respective observation direction.
  • a guide unit can bring the object data acquisition element 1031 into the two positions shown and/or other positions.
  • the optical properties would then be the same when acquiring the object data from all positions, whereas in the present embodiment of Fig. 1, different lenses are used.
  • Fig. 2 shows a side view of a detection device 100 in a schematic representation.
  • the object data detection unit 103 comprises a first object data detection element 1031, which detects a center point 1020 of the object carrier unit 102 at a detection angle 106 from a second observation direction 1042, and a second object data detection element 1032, which detects the center point 1020 of the object carrier unit 102 at the detection angle 106 from the second observation direction 1042.
  • the detection angle 106 designates the angle 106 that the respective observation direction encloses relative to the object carrier unit 102.
  • the detection angle 106 has a value of 3°, 5° or a value between 3° and 5° for the first and second object data detection elements 1031, 1032.
  • the object data acquisition unit 103 comprises a seventh object data acquisition element 1037, which detects the center point 1020 of the object carrier unit 102 at a detection angle 106 from the second observation direction 1042, which in this embodiment has a detection angle 106 of 90°.
  • the seventh object data acquisition element 1037 is also arranged so as to be displaceable along the guide unit 107 while maintaining the detection angle 106 of 90° relative to the plate of the object carrier unit 102, which is indicated in Fig. 2 by a double arrow and a dashed representation of the object data acquisition element 1037 at a further position.
  • the object data acquisition unit 103 comprises a third and a fourth object data acquisition element 1033, 1034, wherein the object data acquisition elements
  • the detection angle 106 that the respective observation direction has relative to the plate of the object carrier unit 102 on which the object can be arranged can be adjusted; in particular, the detection angle 106 can assume 10°, 40° or a value between 10° and 40°.
  • the object data acquisition unit 103 comprises a fifth and a sixth object data acquisition element 1035, 1036, wherein the fifth object data acquisition element 1035 has a fixed detection angle 106 of 50° and the sixth object data acquisition element 1036 has a fixed detection angle 106 of 70°, each relative to the plate of the object carrier unit 102.
  • the design of the object data acquisition unit 103 allows object data to be acquired from different perspectives, thus enabling, for example, digitization of the object.
  • the first object data acquisition element 1031 and the seventh object data acquisition element 1037 and/or the second object data acquisition element 1032 and the seventh object data acquisition element 1037 are particularly suitable for determining the at least two dimensions of the object.
  • 1034, 1035, 1036, 1037 have at least partially different detection distances 1051, 1052.
  • a calibration can be carried out to determine the reference imaging rules for different detection distances.
  • the respective detection distance 1051, 1052 can be adaptable for at least some of the object data detection elements 1031, 1032, 1033, 1034, 1035, 1036, 1037, and thus reference imaging rules for different detection distances can be determined using calibration methods. For example, for a specific observation direction, several fixed positions along the observation direction can be approached, and then the reference imaging rule associated with this detection distance 1051, 1052 can be determined.
  • Fig. 3 shows a top view of an object 108, here a cup, on the object carrier unit 102 from an observation direction of 90° relative to the plate of the object carrier unit 102.
  • a two-dimensional envelope body 109 is shown, here in the form of a minimal surrounding rectangle 109, wherein the center 1091, 1092, 1093, 1094 of each side of the rectangle is marked by a point.
  • Each point can be expressed, for example, by two Cartesian coordinates in units of pixels.
  • the amount of the difference between the respective opposite points 1091, 1093 then gives the length 10901
  • the amount of the difference between the remaining opposite points 1092, 1094 gives the width 10902 of the cup 108, each in units of pixels.
  • the length 10901 and width 10902 of the cup 108 are equal due to the round cross-section of the cup 108 and correspond to the diameter of the cup, so that the diameter of the cup can be determined from these object data.
  • a reference mapping rule is used, which is provided by a data storage unit, in order to determine the diameter in pixels into a diameter in decimal multiples of meters, for example mm.
  • Fig. 4 shows a side view of the cup 108, in particular wherein the detection angle of the observation direction has an angle of 3°, 5° or a value between 3° and 5°, wherein here too a two-dimensional enveloping body 109, here in the form of a minimally surrounding rectangle 109, is displayed, wherein the center 1091, 1092, 1093, 1094 of each side of the rectangle is marked by a point.
  • Each point can be expressed, for example, by two Cartesian coordinates in units of pixels.
  • the amount of the difference between the points 1092, 1094 opposite in the vertical direction relative to the object carrier unit 102 then gives the height 10903
  • the amount of the difference between the remaining horizontally opposite points 1091, 1093 gives the diameter 10902 of the cup 108, each in units of pixels.
  • the length and/or width have already been determined from the object data of the top view (see Fig. 1), so that only the height needs to be determined from the side view. This is obtained analogously by using the reference imaging rule associated with this observation direction, which is provided by a data storage unit, to determine the height 10903 in pixels into a height in decimal multiples of meters, for example mm.
  • Fig. 5 shows a side view of an object 110 with complex geometry and a two-dimensional envelope 109, which is displayed here in the form of a rectangle 109 that minimally surrounds the object 110, with the center 1091, 1092, 1093, 1094 of each side of the rectangle marked by a point. Due to the complex geometry, the upper edge of the envelope 109 is not aligned with the edge of the object where the height of the object ends. If the height were determined using this envelope, the resulting height would be greater, here 15mm, for example, than the actual height, which has a value of 14mm. For example, Fig.
  • the third dimension can also be determined by mapping both dimensions using the associated reference mapping rule, particularly in the case of one of the two-dimensional representations from one observation direction.
  • Fig. 6 shows a flow chart of a method 200 for determining at least one first dimension 10901, 10902, for example a length and/or width or a Diameter as in Fig. 3, and a second dimension 10903 of an object 108, 110, for example a height as in Fig. 4 or 5, which in particular comprises the following steps:
  • the object 108, 110 is arranged on the object carrier unit 102, in particular it is arranged in the object data acquisition area 1021. Then, a capture 202 of first object data of the object 108, 110 from the first observation direction 1041, in particular at a capture angle 106 of 90°, and a capture 203 of second object data of the object 108, 110 from the second observation direction 1042, in particular at a capture angle 106 of 3°, 5° or a capture angle 106 with a value between 3° and 5°, takes place.
  • the object data each comprise a two-dimensional representation of the object 108, 110.
  • the detection 202, 203 can also comprise an evaluation of the detected data, wherein the evaluation can take place, for example, in an evaluation unit of the detection device 100; in particular, edge detection can be carried out.
  • an enveloping body 109, 110 can be generated around the object 108, 110 in the image of the object 108, 110, which was recorded under the respective observation direction 1041, 1042, and dimensions in generic units, such as in units of pixels, can then be determined using this enveloping body 109.
  • the length and width of the object 108, 110 in units of pixels can be determined from the image data recorded from the first observation direction 1041.
  • the first two-dimensional representation is then a number tuple in which the first tuple element, i.e. the first dimension of the tuple, corresponds, for example, to the length of the object 108, 110 and in which the second tuple element, i.e. the second dimension of the tuple, corresponds to the width of the object 108, 110, each in units of pixels.
  • the first dimension of the first two-dimensional representation is converted 204 into the length in mm using the associated first reference mapping rule 1121 provided by a data storage unit 112.
  • the height and/or width of the object 108, 110 can be determined in units of pixels from the image data recorded from the second observation direction 1042.
  • the second two-dimensional representation is then a number tuple, in which the first tuple element, ie the first dimension of the tuple, corresponds to the height of the object 108, 110, for example, and in which the second tuple element, ie the second dimension of the tuple, corresponds to the width of the object 108, 110, each in units of pixels. If the height of the object 108, 110 is to be given in decimal multiples of meters, the first dimension of the second two-dimensional representation is converted into the length in mm by means of the associated second reference mapping rule 1122 provided by the data storage unit 112 205.
  • the first reference imaging rule 1121 and second reference imaging rule 1121, 1122 can each be determined in a separate calibration method 400.
  • the calibration method 400 is similar to the method 200 for determining the dimensions, except that a reference element 300, for example an Arllco marker as shown in Fig. 9, is arranged on the object carrier unit 102 as the object 108, 110 and during the determination 204, 205, not the dimensions 1091, 1092, 1093 are determined, but the respective reference mapping rule 1121, 1122.
  • a two-dimensional representation can be determined, for example analogously to the method 200 described above, and then the dimensions of the two-dimensional representation can be assigned to the known dimensions and the reference mapping rule 1121, 1122 can be determined in each case, which assigns the dimension of the two-dimensional representation to the associated dimension. This can be done for at least one dimension and/or one observation direction 1040, 1041, 1042, preferably the calibration method is carried out for both observation directions 1040, 1041, 1042.
  • the resulting reference imaging specifications 1121, 122 are then stored in the data storage unit 112 and can then be provided as required in the method for determining at least the first dimension 1091, 1092 and the second dimension 1093 of an object 108, 110, without the reference element 300 having to be arranged and detected together with the object.
  • the calibration method can be carried out for different detection distances 1051, 1052 in at least one of the observation directions 1040, 1041, 1042 and thus several distance-dependent reference imaging rules can be determined for each observation direction and stored in the data storage unit 112 (see Fig. 7).
  • a first distance-dependent reference imaging rule 112T, a second distance-dependent reference imaging rule 1121" and a third distance-dependent reference imaging rule 112T" are determined for the first observation direction 1041, wherein in this embodiment the distance-dependent reference imaging rules 1121', 1121", 112T" are also referred to as distance-dependent reference imaging rules 1121", 1121", 112T" of the second observation direction 1042 can be used.
  • Each distance-dependent reference mapping rule 112T, 1121", 112T" is assigned to one of three distance classes.
  • a preset reference mapping rule 1120' is determined and stored 208 in the data storage unit 112.
  • the preset reference mapping rule 1120' can match one of the distance-dependent reference mapping rules 1121', 1121", 112T".
  • the method 200 is two-stage here. In the first stage, at least the first dimension 1091, 1092 and the second dimension 1093 are determined using the preset reference mapping rule 1120'. Then a comparison 209 of the dimensions determined in this way is carried out with limit values, which can also be stored in the data storage unit 112 and provided by it, for example:
  • the first dimension is greater than or equal to a maximum first dimension
  • the first dimension is less than or equal to a minimum first dimension.
  • a corrected second dimension 1093' is determined by: o determining 210 the detection distance taking into account the first dimension 1091, 1092, o determining 211 the corrected second dimension 1093' of the object 108, 110 by means of the distance-dependent second reference mapping rule 1121 associated with this determined detection distance.”
  • the preset reference imaging rule 1120' is the same for both observation directions 1041, 1042 in this embodiment, but in a manner not shown here.
  • there can be two different reference imaging rules ie in particular a separate preset reference imaging rule for each observation direction.
  • distance-dependent reference imaging rules 112T, 1121", 1121 would then be determined for each observation direction 1040, 1041, 1042.
  • distance-dependent reference imaging rules 1121", 1121", 1121'" can also be used for one observation direction 1040, 1041, 1042 and the preset reference imaging rule always used for the other observation direction 1040, 1041, 1042, whereby in particular for the latter observation direction no adjustment 209 and determination of a corrected dimension takes place 1093'.
  • Fig. 8 shows a sequence of a method 400 for detecting multiple object data sets of at least one object 108, 110.
  • the dimensions are determined in accordance with the embodiment of Fig. 6 or Fig. 7. After determining the dimensions 1091, 1092, 1093 of the object, the following steps are carried out:
  • the hardware for capturing multiple object data sets can be selected based on the size of the object in order to improve the quality, for example the sharpness of the image data.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (200) zur Bestimmung von mindestens einer ersten Abmessung (10901, 10902) und einer zweiten Abmessung (1093) eines Objekts, umfassend die nachfolgenden Schritte: • Erfassen (202) erster Objektdaten des Objekts aus einer ersten Beobachtungsrichtung (1041), wobei die ersten Objektdaten eine erste zweidimensionale Repräsentation des Objekts, welche von der ersten Beobachtungsrichtung abhängt, umfassen, • Erfassen (203) zweiter Objektdaten des Objekts aus einer zweiten Beobachtungsrichtung (1042), wobei die zweiten Objektdaten eine zweite zweidimensionale Repräsentation des Objekts, welche von der zweiten Beobachtungsrichtung abhängt, umfassen, und wobei die erste Beobachtungsrichtung und die zweite Beobachtungsrichtung in wenigstens einem vorgegebenen Maß voneinander abweichen, • Ermitteln (204) zumindest der ersten Abmessung (10901, 10902) des Objekts aus einer die erste Abmessung (10901, 10902) repräsentierenden Dimension der ersten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der ersten zweidimensionalen Repräsentation auf die erste Abmessung (10901, 10902) mittels der ersten Referenzabbildungsvorschrift (1121), und • Ermitteln (205) zumindest der zweiten Abmessung (10903) des Objekts aus einer die zweite Abmessung (10903) repräsentierenden Dimension der zweiten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der zweiten zweidimensionalen Repräsentation auf die zweite Abmessung (10903) mittels der zweiten Referenzabbildungsvorschrift (1122). Des Weiteren betrifft die Erfindung eine Erfassungsvorrichtung.

Description

Beschreibung
Titel
Verfahren zur Bestimmung von mindestens einer ersten Abmessung und einer zweiten Abmessung eines Objekts, Erfassungsvorrichtung, Verfahren zum Erfassen von multiplen Objektdatensätzen zumindest eines Objekts
Stand der Technik
In “Measuring Size of an Object using Computer Vision” (T. Dhiki, A. N. (42019); International Journal of Innovative Technology and Exploring Engineering (IJITEE), S. 424-426) ist beschrieben, wie im Bereich der 2D Vermessung zwei der drei Dimensionen eines Objekts abgeschätzt werden können. Dies erfolgt durch ein Referenzobjekt (z.B. eine Münze), das im gleichen Abstand zum Aufnahmegerät liegt wie das Objekt, und anhand dessen die Dimensionen des Messobjekts bestimmt werden können. So erhält man durch eine Aufnahme zwei Dimensionen (z.B. Länge und Breite) eines Messobjekts.
Bei der 3D-Vermessung von Objekten, insbesondere physischen Objekten, werden verschiedene Verfahren eingesetzt. Diese Verfahren können in taktile und optische Verfahren gruppiert werden. Innerhalb der bekannten optischen Verfahren werden unterschiedliche Lösungen eingesetzt: Je nach Anwendung kommen Verfahren zum Einsatz wie Muster- und Streifenprojektion, Lichtschnitt, Photogrammmetrie, Lichtlaufzeit, Weißlichtinterferometrie, konfokale Messtechnik, Fokus-Variation u.ä. Auf Basis der so ermittelten Daten werden die Objektdimensionen Länge, Breite und Höhe bestimmt.
Kern und Vorteile der Erfindung Um die drei Dimensionen, Länge, Breite und Höhe, eines Objekts zu erfassen, kann beispielsweise ein Structured Light Scanner (IDS Ensenso N35) verwendet werden. Bei diesem Verfahren liegen die Herausforderungen insbesondere bei der Bestimmung der Abmessungen von Objekten mit spiegelnden, transparenten, weißen und/oder schwarzen Oberflächen. Da das vorstehende Verfahren auf der Emittierung eines strukturierten Lichtmusters auf das Objekt basiert, werden falsche oder keine 3D Messpunkte bei transparenten Objekten erfasst, da das Licht „durchscheint“. Bei spiegelnden Objekten ergibt sich ein großes „Rauschen“ um das Objekt herum, was zu einer großen Abweichung zwischen den gemessenen Abmessungen und den tatsächlichen Abmessungen führen kann. Bei weißen und schwarzen Objekten kann es dazu kommen, dass auch hohes Rauschen oder keine Objektdaten erfasst werden können. Insbesondere treten diese Herausforderungen bei Objekten mit einer geringen Höhe, d. h. insbesondere mit einer Höhe kleiner gleich 15 mm, auf.
Nachfolgend beschriebene Lösung ist ebenfalls insbesondere bei den optischen Verfahren zu verorten.
Die Erfindung betrifft ein Verfahren zur Bestimmung von mindestens einer ersten Abmessung und einer zweiten Abmessung eines Objekts, eine Erfassungsvorrichtung und ein Verfahren zum Erfassen von multiplen Objektdatensätzen zumindest eines Objekts.
Ein Vorteil der Erfindung mit den Merkmalen der unabhängigen Patentansprüche ist, dass bei der Bestimmung von Abmessungen eines Objekts kein Referenzelement mit bekannter Größe benötigt wird, das zusammen mit dem Objekt aufgenommen werden muss. Stattdessen werden gespeicherte Referenzabbildungsvorschriften verwendet, die in einem Kalibrierverfahren durch In-Bezug-setzen der bekannten Abmessungen des Referenzelements und der im Kalibrierverfahren bestimmten Abmessungen des Referenzelements bestimmt werden. Ein Ausgeben oder Anordnen des Referenzelements bei der Erfassung des Objekts selbst ist nicht erforderlich. In anderen Worten ist es möglich die Kalibration und die Ausführung des Verfahrens zur Bestimmung der Abmessungen des Objekts zu trennen, sodass das Verfahren zur Bestimmung der Abmessungen des Objekts ohne Verwendung eines Referenzelements ausgeführt werden kann. Weitere Vorteile der Erfindung mit den Merkmalen der unabhängigen Patentansprüche sind, dass gegenüber der Vermessung mittels eines 3D-Scanners oder 3D-Kameras sowohl die Zeit zur Bestimmung der Abmessung als auch der manuelle Aufwand, insbesondere durch manuelles Nachmessen, reduziert werden und des Weiteren auf 3D Kameras verzichtet werden kann, wodurch die technische Komplexität einer Erfassungsvorrichtung, die das Verfahren zur Bestimmung der Abmessungen ausführt, reduziert und somit die technische Verfügbarkeit erhöht werden kann.
Dies wird erreicht mit einem Verfahren zur Bestimmung von mindestens einer ersten Abmessung und einer zweiten Abmessung eines Objekts, insbesondere der ersten Abmessung, der zweiten Abmessung und der dritten Abmessung des Objekts, welches die nachfolgenden Schritte umfasst:
• Bereitstellen des Objekts auf einer Objektträgereinheit, insbesondere ist die Objektträgereinheit zu einer Positionierung des Objekts in einem Objektdatenerfassungsbereich einer Erfassungsvorrichtung vorgesehen,
• Bereitstellen einer ersten Referenzabbildungsvorschrift und einer zweiten Referenzabbildungsvorschrift durch eine Datenspeichereinheit, insbesondere kann das Bereitstellen der ersten Referenzabbildungsvorschrift und/oder der zweiten Referenzabbildungsvorschrift durch Abrufen der ersten Referenzabbildungsvorschrift und/oder der zweiten Referenzabbildungsvorschrift von der Datenspeichereinheit erfolgen,
• Erfassen erster Objektdaten des Objekts aus einer ersten Beobachtungsrichtung, wobei die ersten Objektdaten eine erste zweidimensionale Repräsentation des Objekts, welche von der ersten Beobachtungsrichtung abhängt, umfassen,
• Erfassen zweiter Objektdaten des Objekts aus einer zweiten Beobachtungsrichtung, wobei die zweiten Objektdaten eine zweite zweidimensionale Repräsentation des Objekts, welche von der zweiten Beobachtungsrichtung abhängt, umfassen, und wobei die erste Beobachtungsrichtung und die zweite Beobachtungsrichtung in wenigstens einem vorgegebenen Maß voneinander abweichen, • Ermitteln zumindest der ersten Abmessung des Objekts aus einer die erste Abmessung repräsentierenden Dimension der ersten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der ersten zweidimensionalen Repräsentation auf die erste Abmessung mittels der ersten Referenzabbildungsvorschrift, und
• Ermitteln zumindest der zweiten Abmessung des Objekts aus einer die zweite Abmessung repräsentierenden Dimension der zweiten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der zweiten zweidimensionalen Repräsentation auf die zweite Abmessung mittels der zweiten Referenzabbildungsvorschrift.
Insbesondere kann das vorstehend beschriebene Verfahren Teil eines Verfahrens zur Digitalisierung von Objekten sein. Unter „Digitalisierung“ soll insbesondere das Erfassen von Informationen über Objekte, vorzugsweise physische Objekte, in Formate, welche sich zu einer Verarbeitung oder Speicherung in digitaltechnischen Systemen eignen, verstanden werden. Durch das Digitalisieren wird die Möglichkeit der informationstechnischen (Weiter-)Verarbeitung geschaffen.
Insbesondere kann das Verfahren auch für mehr als zwei Beobachtungsrichtungen ausgeführt werden, wobei vorzugsweise für jede Beobachtungsrichtung eine jeweilige Referenzabbildungsvorschrift verwendet werden sollte, welche zumindest teilweise übereinstimmend sein können.
Unter dem Objekt soll insbesondere ein physisches Objekt verstanden werden.
Unter einer Referenzabbildungsvorschrift kann insbesondere ein Pixel/Dimensions- Verhältnis (pixels per metric ratio) verstanden werden.
Referenzabbildungsvorschriften können beispielsweise jedem Pixel eine Größe in Metern oder dezimalen Vielfachen des Meters, wie beispielsweise Millimeter (mm), Zentimeter (cm), etc., zuordnen, sodass aus der Kenntnis einer Abmessung des Objekts in Pixeln, diese mittels der Referenzabbildungsvorschrift in eine Abmessung in Metern bzw. dezimalen Vielfachen des Meters umgerechnet werden kann. In anderen Worten sind die Referenzabbildungsvorschriften jeweils Umrechnungsvorschriften, die eine hardwareabhängige Umrechnung von Pixel in Meter ermöglicht. Die Referenzabbildungsvorschriften hängen insbesondere von einem Abstand und von der Beobachtungsrichtung ab, aus denen das Objekt erfasst wird, sowie von der Hardware (beispielsweise Brennweite, Blickwinkel, etc.) mit der die Objektdaten des Objekts erfasst werden. Diese Umrechnungsvorschriften können unabhängig von dem Verfahren zur Bestimmung der Abmessungen des Objekts, beispielsweise in einem Kalibrierverfahren bestimmt werden und in der Datenspeichereinheit abgespeichert werden. Dadurch ist es möglich das vorstehende Verfahren durchzuführen, ohne dass bei der Bestimmung der ersten und der zweiten Abmessung des Objekts Objektdaten eines Referenzelements erfasst werden müssen, um daraus auf die tatsächliche Größe des erfassten Objekts zu schließen. Demgegenüber ist das vorliegende Verfahren schneller und benötigt weniger Speicher- und Rechenressourcen, da ausschließlich Objektdaten des Objekts zur Bestimmung zumindest der ersten Abmessung und zweiten Abmessung benötigt werden, um diese Abmessungen zuverlässig zu bestimmen.
In der Computertechnologie und digitalen Bildverarbeitung ist ein Pixel bzw. Picture Element ein physischer Punkt einer Rastergrafik oder das kleinste ansteuerbare Element bei einer Bildschirmanzeige. Die Adresse jedes Pixels entspricht seinen physischen Koordinaten auf dem Bildschirm. Die X-Koordinate ist die horizontale Adresse eines Pixels oder ansteuerbaren Punkts auf einem Bildschirm oder einer Abbildung.
„Objektdaten“ können insbesondere Bilddaten (vorzugsweise mit 2D-Kameras aufgenommen), d. h. eine Abbildung des Objekts (beispielsweise eine Färb- oder Schwarz-Weiß-Fotografie des Objekts), sowie weitere Informationen umfassen, die dazu geeignet sind, das Objekt zu charakterisieren, insbesondere um es von einem weiteren Objekt zu unterscheiden. Bevorzugt umfassen die weiteren Informationen inhärente Charakteristika des Objekts, wie beispielsweise Aussehen, Form, Kontur, Farbe, Symmetrie, Gewicht, Material und/oder ein anderes dem Fachmann als sinnvoll erscheinendes Charakteristikum. Es ist auch denkbar, dass situationsbedingte Charakteristika erfasst werden, beispielsweise eine relative Anordnung zu einem weiteren Objekt, insbesondere einem Gegenstück, ein Verschmutzungsgrad, Unterschiede zweier vermeintlich baugleicher Objekte und/oder eine temporäre Markierung. Unter „Erfassen von Objektdaten“ kann insbesondere ein optisches Erfassen oder Aufnehmen von Bilddaten sowie ein Bestimmen von weiteren Informationen, insbesondere durch Auswerten der Bilddaten, umfassen. Insbesondere kann das Auswerten mittels einer Auswerteeinheit der Erfassungsvorrichtung erfolgen.
Insbesondere kann das Bestimmen weiterer Informationen umfassen, dass aus den ersten Objektdaten die erste zweidimensionale Repräsentation des Objekts und/oder aus den zweiten Objektdaten die zweite zweidimensionale Repräsentation bestimmt wird. Insbesondere können hierzu für die jeweiligen Objektdaten folgende Schritte ausgeführt werden:
• Durchführen einer Kantendetektion für die jeweiligen Bilddaten des Objekts, beispielsweise mittels des Canny-Algorithmus;
• Bestimmen eines Umrisses oder einer Umrisskontur des Objekts aus den detektierten Kanten;
• Erzeugen eines Hüllkörpers, der den Umriss oder die Umrisskontur des Objekts umschließt.
Die jeweilige zweidimensionale Repräsentation kann beispielsweise einen Hüllkörper, beispielsweise eine bounding box, umfassen. Ein Hüllkörper (englisch bounding volume) ist in der algorithmischen Geometrie ein einfacher geometrischer Körper, der ein komplexes dreidimensionales Objekt umschließt, insbesondere kann es sich auch um eine geometrische zweidimensionale Form, wie beispielsweise ein Rechteck, handeln, welche ein zweidimensionales Objekt umschließt.
Insbesondere wird das Objekt aus der jeweiligen Beobachtungsrichtung erfasst und auf dem jeweils erfassten Bild ein zweidimensionaler Hüllkörper, insbesondere eine zweidimensionale Bounding Box, erzeugt, der das Objekt umschließt. Eine solche zweidimensionale Bounding Box wird auch als minimal umgebendes Rechteck bezeichnet. Insbesondere kann die jeweilige zweidimensionale Repräsentation ein minimal umgebendes Rechteck umfassen. Insbesondere kann letzteres durch zumindest eine Auswahl der nachfolgend genannten Parameter charakterisiert sein:
• Kontur des zweidimensionalen Begrenzungsrahmens, beispielsweise Rechteck, Quadrat • x- und y-Koordinaten der linken oberen Ecke des Rechtecks;
• x- und y-Koordinaten der rechten unteren Ecke des Rechtecks;
• x- und y-Koordinaten der rechten oberen Ecke des Rechtecks;
• x- und y-Koordinaten der linken unteren Ecke des Rechtecks;
• x- und y-Koordinaten der Mitte einer der Kanten des Begrenzungsrahmens, jeweils der Mitte zweier Kanten des Begrenzungsrahmens, jeweils der Mitte dreier Kanten des Begrenzungsrahmens oder jeweils die Mitte aller vier Kanten des Begrenzungsrahmens (Rechtecks).
Insbesondere wird das Objekt aus einer Beobachtungsrichtung erfasst und auf dem erfassten Bild ein dreidimensionaler Hüllkörper, der das Objekt umschließt, insbesondere eine dreidimensionale bounding box, erzeugt. Beispielsweise kann es sich hierbei um einen Quader handeln, wobei die zweidimensionale Repräsentation des Objekts eine der sechs Flächen des Quaders umfasst, in der die Kante des Objekts, deren Abmessung bestimmt werden soll, liegt.
Insbesondere kann der dreidimensionale Hüllkörper einem Nutzer angezeigt werden, wobei der Nutzer eine der Flächen auswählen kann, anhand derer, die mindestens eine Abmessung bestimmt werden soll. Insbesondere kann die zweidimensionale Repräsentation, die Fläche, welche die Kante des Objekts, deren Abmessung bestimmt werden soll, umfasst, umfassen und durch die nachfolgenden Parameter charakterisiert sein:
• Kontur des zweidimensionalen Begrenzungsrahmens, beispielsweise Rechteck, Quadrat
• x- und y-Koordinaten der linken oberen Ecke des Rechtecks;
• x- und y-Koordinaten der rechten unteren Ecke des Rechtecks;
• x- und y-Koordinaten der rechten oberen Ecke des Rechtecks;
• x- und y-Koordinaten der linken unteren Ecke des Rechtecks;
• x- und y-Koordinaten der Mitte einer der Kanten des Begrenzungsrahmens, jeweils der Mitte zweier Kanten des Begrenzungsrahmens, jeweils der Mitte dreier Kanten des Begrenzungsrahmens oder jeweils die Mitte aller vier Kanten des Begrenzungsrahmens (Rechtecks). Wenn so beispielsweise die erste zweidimensionale Repräsentation bestimmt wurde, so kann aus den vorstehend genannten Parametern insbesondere ein 2-Tupel bestimmt werden, wobei das erste Element des Tupels der Länge der ersten Kante des zweidimensionalen Hüllkörpers bzw. der ausgewählten Fläche des dreidimensionalen Hüllkörpers, welche beispielsweise eine Breite des Objekts repräsentiert, in Einheiten von Pixel entspricht und analog das zweite Element des Tupels der Länge der zweiten Kante des zweidimensionalen Hüllkörpers bzw. der ausgewählten Fläche des dreidimensionalen Hüllkörpers, welche beispielsweise eine Länge des Objekts repräsentiert, in Einheiten von Pixel entspricht. Das erste Element des Tupels entspricht dann der ersten Dimension der ersten zweidimensionalen Repräsentation und das zweite Element des Tupels entspricht dann der zweiten Dimension der ersten zweidimensionalen Repräsentation. Durch Anwenden der ersten Referenzabbildungsvorschrift auf die erste Dimension der ersten zweidimensionalen Repräsentation ergibt sich dann in diesem Beispiel die Breite des Objekts in Metern. Durch Anwenden der ersten Referenzabbildungsvorschrift auf die zweite Dimension der ersten zweidimensionalen Repräsentation ergibt sich dann in diesem Beispiel die Länge des Objekts in Metern. Es kann jedoch auch nur die Breite oder nur die Länge des Objekts bestimmt werden, es müssen nicht zwingend beide Abmessungen bestimmt werden.
Analog dazu kann ein 2-Tupel für die zweite zweidimensionale Repräsentation bestimmt werden. Aus den zwei Dimensionen des Tupels kann analog zu vorstehend beschriebenem Verfahren, nun unter Verwendung der zweiten Referenzabbildungsvorschrift, mindestens eine weitere Abmessung des Objekts bestimmt werden.
Wird das Objekt in einer Seitenansicht, beispielsweise unter einem Erfassungswinkel von 3° oder 5° und aus einer Aufsicht, beispielsweise unter einem Erfassungswinkel von 90° jeweils relativ zu einer Ebene, in der die Objektträgereinheit angeordnet ist, aufgenommen, können beispielsweise aus der Seitenansicht die Höhe und aus der Aufsicht die Breite und Länge des Objekts bestimmt werden. Handelt es sich um ein zylinderförmiges Objekt, können beispielsweise aus der Aufsicht der Durchmesser (hier ein Beispiel für die erste Abmessung) und aus der Seitenansicht die Höhe des Objekts (hier ein Beispiel für die zweite Abmessung) bestimmt werden. Im Allgemeinen kann unter der zweidimensionalen Repräsentation ein Zahlen-Tupel verstanden werden, wobei das erste Element des Tupels der ersten Dimension und das zweite Element des Tupels der zweiten Dimension der zweidimensionalen Repräsentation entspricht. Die Elemente sind jeweils Repräsentationen der Abmessungen des Objekts, welche beispielsweise wie vorstehend beschrieben durch das Erstellen von Bounding Boxes, bestimmt werden können. Alternativ kann ein Nutzer manuell geometrische Formen, wie beispielsweise Rechtecke, in die Bilddaten eintragen, wobei die Länge der Kanten des Rechtecks in Einheiten von Pixeln in einem Tupel abgespeichert werden und somit als zweidimensionale Repräsentation zur Verfügung stehen. In anderen Worten ist die zweidimensionale Repräsentation hier ein Zahlen-Tupel, in dem die beiden Abmessungen, die aus der jeweiligen Beobachtungsrichtung auf den Bilddaten erkennbar sind, durch Zahlen in beliebigen Einheiten repräsentiert werden. Erst durch Anwenden der zugehörigen Referenzabbildungsvorschrift auf die einzelnen Dimensionen des Zahlen-Tupels ergeben sich die Abmessungen in SI-Einheiten (z. B. Meter).
Insbesondere ermöglicht das Verfahren vorteilhafterweise ausgehend von den erfassten Objektdaten des Objekts, die Abmessungen des Objekts zu bestimmen, was umfasst, dass zumindest eine Abschätzung mindestens zweier Abmessungen des Objekts, beispielsweise Durchmesser und Höhe und/oder Breite und Länge, bestimmt werden können.
Zudem kann vorteilhafterweise einem Bediener ermöglicht werden, zumindest ausgehend von den Objektdaten des Objekts, die Größe des Objekts abzuschätzen und/oder zu bestimmen.
Die Abmessungen des Objekts umfassen im Allgemeinen die relevanten, kennzeichnenden Längenmaße des Objekts. Die Abmessungen können beispielsweise die nachfolgenden Größen umfassen: Länge, Breite, Höhe, Durchmesser, Radius, zumindest eine Diagonale des Objekts, etc.. Darüber hinaus können aus den Abmessungen Randbedingungen für weitere Prozesse abgeleitet werden. So ist beispielsweise in der Logistik und im Speditions-Gewerbe die Kenntnis der Abmessungen des Objekts sehr wichtig, um die Beladung von Eisenbahn- Waggons, Containern, LKW und Schiffen planen zu können. Insbesondere ermöglicht die Erfindung eine automatische Erfassung und Visualisierung der Objektabmessungen auf den Produktbildern, was vorzugsweises als Output an die Kunden gegeben werden kann. Insbesondere können diese Bilder direkt in der Objekterkennung genutzt werden, um sehr ähnliche Objekte durch ihre Abmessungen zu unterscheiden. Dadurch kann ein Verfahren zur Objekterkennung vereinfacht werden und eine zuverlässigere Erkennung des Objekts ermöglicht werden. Insbesondere kann das Verfahren zur Objekterkennung, beispielsweise mittels Bildsegmentierung, Blob Analyse oder Techniken des Machine Learning oder des Deep Learning, durchgeführt werden. Es kann insbesondere ein Bestimmen von mindestens der ersten Abmessung und einer zweiten Abmessung des Objekts wie vorstehend beschrieben und das Durchführen einer Objekterkennung, wobei die Abmessungen des Objekts eine Eingangsgröße der Objekterkennung bilden, umfassen.
Darunter, dass die erste und zweite Beobachtungsrichtung „in wenigstens einem vorgegebenen Maß voneinander abweichen“ kann insbesondere verstanden werden, dass die Objektsdaten unter voneinander abweichenden Erfassungswinkeln erfasst werden. Insbesondere weist
• die erste Beobachtungsrichtung aus der ein Objektdatenerfassungselement, beispielsweise eine Kamera, das Objekt abbildet, einen ersten Erfassungswinkel relativ zu einer Ebene, in der die Objektträgereinheit angeordnet ist und
• die zweite Beobachtungsrichtung aus der das Objektdatenerfassungselement oder ein weiteres Objektdatenerfassungselement, beispielsweise eine Kamera, das Objekt abbildet, einen zweiten Erfassungswinkel relativ zu der vorgenannten Ebene der Objektträgereinheit auf,
• wobei der erste Erfassungswinkel und der zweite Erfassungswinkel voneinander abweichen.
Insbesondere kann darunter, dass die erste und zweite Beobachtungsrichtung „in wenigstens einem vorgegebenen Maß voneinander abweichen“ verstanden werden, dass das Objekt aus verschiedenen, voneinander abweichenden Perspektiven aufgenommen wird, beispielsweise seitlich und von oben.
Insbesondere sind mittels mehrerer relativ zur Objektträgereinheit fest angeordneten Objekterfassungselemente und/oder relativ zur Objektträgereinheit bewegbarer Objektdatenerfassungselemente Objektdaten aus multiplen Perspektiven, d. h. insbesondere aus verschiedenen Beobachtungsrichtungen, insbesondere der ersten und der zweiten Beobachtungsrichtung, erfassbar. Unter einer „Perspektive“ soll insbesondere eine bestimmte relative Anordnung, insbesondere Position und/oder Ausrichtung, des Objektdatenerfassungselements zum Erfassen der Objektdaten und des Objekts, insbesondere der Objektträgereinheit, verstanden werden. Insbesondere umfassen multiple Perspektiven zumindest zwei verschiedene relative Anordnungen des zugehörigen Objektdatenerfassungselements und des Objekts, insbesondere der Objektträgereinheit.
Beim Ermitteln zumindest der ersten Abmessung und der zweiten Abmessung können die erste und zweite zweidimensionale Repräsentation an eine Cloud oder an eine externe Auswerteeinheit übertragen und dort ausgewertet werden, um die Abmessungen des Objekts zu bestimmten. Die Referenzabbildungsvorschriften werden dann der Cloud oder der externen Auswerteeinheit zur Verfügung gestellt oder die Datenspeichereinheit ist bereits Teil der Cloud/ der externen Auswerteeinheit.
Die erste und die zweite Abmessung können nach dem Ermitteln beispielsweise an einen Nutzer übertragen und/oder einem Nutzer angezeigt werden. Alternativ oder ergänzend können nach dem Ermitteln der Abmessungen ein Generieren von Steuersignalen zur Steuerung weiterer Verfahrensschritte bei der Digitalisierung von Objekten erfolgen. Insbesondere können in Abhängigkeit der zumindest zwei Abmessungen des Objekts beispielsweise Kameras anhand ihrer optischen Eigenschaften ausgewählt werden, sodass die optischen Eigenschaften, wie beispielsweise Brennweite, Blickwinkel der Kamera, Abstand zwischen Kamera und Objektträgereinheit, etc., zu den Abmessungen des Objekts, welche durch das vorgenannte Verfahren bestimmt werden, passen, um die Qualität der Objektdigitalisierung zu verbessern.
Insbesondere kann das Verfahren eine Visualisierung der ermittelten Abmessungen auf den Bilddaten (Objektbildern) umfassen und es können diese als Eingangsdaten für ein Objekterkennungsverfahren verwendet werden, um bei der Objekterkennung beispielsweise sehr ähnliche Objekte durch ihre jeweiligen Abmessungen auseinanderzuhalten. Gemäß einer Ausführungsform sind die erste Beobachtungsrichtung oder die zweite Beobachtungsrichtung orthogonal zur Objektträgereinheit, und wobei die jeweils andere Beobachtungsrichtung einen Erfassungswinkel von 3°, 5° oder einen Wert zwischen 3° und 5° zur Objektträgereinheit aufweist. Anders ausgedrückt, beträgt ein Winkel zwischen der ersten (zweiten) Beobachtungsrichtung und einer Normalen auf die Objektträgereinheit 0° und die zweite (erste) Beobachtungsrichtung weist einen Winkel von 85°, 87° oder einen Wert zwischen 85° und 87° zu der vorgenannten Normalen auf die Objektträgereinheit auf. In anderen Worten wird das Objekt in einer Aufsicht und in einer Seitenansicht aufgenommen/erfasst.
Wie vorstehend beschrieben kommt das vorstehende Verfahren ohne das Anordnen oder Ausgeben eines Referenzelements, dessen Abmessungen bekannt sind, aus. Stattdessen werden die Referenzabbildungsvorschriften in einem von der Bestimmung der Abmessungen unabhängigen Kalibrierverfahren bestimmt, wobei unabhängig insbesondere zeitlich unabhängig bedeutet, da es nicht im Rahmen des vorstehend beschriebenen Verfahrens durchgeführt werden muss.
Die erste Referenzabbildungsvorschrift kann durch ein Kalibrierverfahren festgelegt sein, wobei das Kalibrierverfahren die nachfolgenden Schritte umfasst:
• Bereitstellen eines Referenzelements, wobei zumindest die erste Abmessung des Referenzelements bekannt ist,
• Erfassen von ersten Kalibrier-Objektdaten des Referenzelements aus der ersten Beobachtungsrichtung, wobei die ersten Kalibrier- Objektdaten eine erste zweidimensionale Repräsentation des Referenzelements, welche von der ersten Beobachtungsrichtung abhängt, umfassen,
• Bestimmen der ersten Referenzabbildungsvorschrift, derart, dass diese eine, die erste Abmessung repräsentierende Dimension der ersten zweidimensionalen Repräsentation des Referenzelements auf die bekannte erste Abmessung des Referenzelements abbildet,
• Speichern der ersten Referenzabbildungsvorschrift in der Datenspeichereinheit. Gemäß einer Ausführungsform kann beim Bereitstellen der Referenzabbildungsvorschriften sowohl für die erste Referenzabbildungsvorschrift als auch für die zweite Referenzabbildungsvorschrift die durch das vorstehend beschriebene Kalibrierverfahren bestimmte erste Referenzabbildungsvorschrift verwendet wird. Dadurch kann Speicherplatz eingespart werden. Diese Möglichkeit eignet sich insbesondere, wenn der Erfassungsabstand für beide Beobachtungsrichtungen gleich groß ist und vorzugsweise auch die Eigenschaften, insbesondere optischen Eigenschaften des Bauteils, welches zum Erfassen der Bilddaten verwendet wird, für beide Beobachtungsrichtungen gleich oder zumindest ähnlich sind. Unter dem Erfassungsabstand kann ein Arbeitsabstand verstanden werden, insbesondere ein Abstand zwischen dem Bauteil, welches zum Erfassen der Bilddaten verwendet wird, und dem Objekt. Beispielsweise kann der Erfassungsabstand durch den Abstand zwischen einem Objekt-Referenzpunkt, beispielsweise einem Punkt auf der Objektträgereinheit, vorzugsweise einem Mittelpunkt eines Objektdatenerfassungsbereichs auf der Objektträgereinheit, der dazu vorgesehen ist, das Objekt zu einer Erfassung aufzunehmen, und der Frontlinse eines Kameraobjektivs, welches zum Erfassen verwendet wird, bestimmt sein.
Gemäß einer Ausführungsform kann das vorstehend beschriebene Kalibrierverfahren analog für die zweite Beobachtungsrichtung durchgeführt werden und somit eine von der ersten Referenzabbildungsvorschrift abweichende zweite Referenzabbildungsvorschrift ermittelt werden, die dem Verfahren zur Bestimmung zumindest der ersten Abmessung und der zweiten Abmessung zur Verfügung gestellt wird. Insbesondere, wenn der Erfassungsabstand für die beiden Beobachtungsrichtungen stark voneinander abweicht, insbesondere wenn die beiden Erfassungsabstände 12,5 cm oder mehr als 12,5 cm voneinander abweichen, und/oder auch die Eigenschaften, insbesondere optischen Eigenschaften des Bauteils, welches zum Erfassen der Bilddaten verwendet wird, voneinander abweichen, ist es im Hinblick auf die Genauigkeit bei der Bestimmung der Abmessungen vorteilhaft die erste Referenzabbildungsvorschrift und die zweite Referenzabbildungsvorschrift jeweils mittels eines eigenen Kalibrierverfahrens zu bestimmen. Ein solches Kalibrierverfahren zum Bestimmen der zweiten
Referenzabbildungsvorschrift umfasst insbesondere die nachfolgenden Schritte:
• Bereitstellen eines Referenzelements, wobei zumindest die zweite Abmessung des Referenzelements bekannt ist,
• Erfassen von zweiten Kalibrier-Objektdaten des Referenzelements aus der zweiten Beobachtungsrichtung, wobei die zweiten Kalibrier-Objektdaten eine zweite zweidimensionale Repräsentation des Referenzelements, welche von der zweiten Beobachtungsrichtung abhängt, umfassen,
• Bestimmen der zweiten Referenzabbildungsvorschrift, derart, dass diese eine die zweite Abmessung repräsentierende Dimension der zweiten zweidimensionalen Repräsentation des Referenzelements auf die bekannte zweite Abmessung des Referenzelements abbildet,
• Speichern der zweiten Referenzabbildungsvorschrift in der Datenspeichereinheit.
Es können für das Kalibrierverfahren zur Bestimmung der ersten Referenzabbildungsvorschrift und der zweiten Referenzabbildungsvorschrift jeweils das gleiche Referenzelement oder voneinander abweichende Referenzelemente verwendet werden.
Gemäß einer Ausführungsform kann das Erfassen der jeweiligen Kalibrier- Objektdaten zumindest folgende Schritte umfassen:
• ein Einstellen eines ersten Erfassungsabstands bei dem die jeweiligen Kalibrier-Objektdaten erfasst werden,
• ein Erfassen von ersten abstandsabhängigen Kalibrier-Objektdaten,
• ein Einstellen eines zweiten Erfassungsabstands bei dem die jeweiligen Kalibrier-Objektdaten erfasst werden,
• ein Erfassen von zweiten abstandsabhängigen Kalibrier-Objektdaten, wobei unter Verwendung der ersten abstandsabhängigen Kalibrier- Objektdaten und der zweiten abstandsabhängigen Kalibrier-Objektdaten jeweils eine abstandsabhängige Referenzabbildungsvorschrift bestimmt wird und beim Speichern zu der jeweiligen abstandsabhängigen Referenzabbildungsvorschrift in der Datenspeichereinheit der Erfassungsabstand oder eine zugehörige Abstandsklasse abgespeichert wird.
Insbesondere können weitere abstandsabhängige Kalibrier-Objektdaten erfasst werden, insbesondere beträgt der Abstand zweier Erfassungsabstände 10 cm oder kleiner gleich 10 cm. Somit können mehrere abstandsabhängige Referenzabbildungsvorschriften erzeugt werden.
In einer Ausführungsform können insbesondere Abstandsklassen erzeugt werden, wobei mehrere Erfassungsabstände zu einer Abstandsklasse zusammengefasst werden, wobei zumindest zu einem der Erfassungsabstände der Abstandsklasse, insbesondere gemäß einem der vorstehend beschriebenen Kalibrierverfahren, eine Referenzabbildungsvorschrift bestimmt wurde, welche dann der gesamten Abstandsklasse als konstante Referenzabbildungsvorschrift zugeordnet wird. In anderen Worten wird allen Erfassungsabständen, die zu einer Abstandsklasse zusammengefasst sind, dieselbe Referenzabbildungsvorschrift zugeordnet. Jeder Abstandsklasse wird folglich eine konstante abstandsabhängige Referenzabbildungsvorschrift zugeordnet, wobei die Referenzabbildungsvorschriften der verschiedenen Abstandsklassen voneinander abweichen können.
Insbesondere umfasst eine solche Abstandsklasse alle Erfassungsabstände, die zwischen einem minimalen und einem maximalen Erfassungsabstand des Intervalls liegen, wobei ein Betrag der Differenz von minimalem und maximalem Erfassungsabstand vorzugsweise 10 cm oder weniger als 10cm beträgt.
Beispielsweise ist die abstandsabhängige Referenzabbildungsvorschrift für die Abstandsklasse, die Erfassungsabstände im Intervall von 112,5 cm bis 125 cm umfasst, auf einen konstanten Wert von 27 Pixel/cm gesetzt. D.h. unabhängig vom genauen Wert der Erfassungsabstands innerhalb der Abstandsklasse wird immer diese Referenzabbildungsvorschrift bei der Bestimmung der Abmessungen verwendet.
Insbesondere können für jede der Beobachtungsrichtungen unterschiedliche Abstandsklassen (insbesondere unterschiedlich Intervallgrößen) und unterschiedliche Referenzabbildungsvorschriften verwendet werden. Das Verwenden des statischen (d.h. konstanten) Pixel/Dimensions-Verhältnis, welches unabhängig vom Erfassungsabstand als Referenzabbildungsvorschrift in der jeweiligen Beobachtungsrichtung verwendet wird, zeigt sehr gute Ergebnisse bis zu einer Kantenlänge des Objekts von ca. 250 mm (Durchschnittliche Abweichung bei 200 Testobjekten liegt bei 1 ,47 mm) bei Verwendung einer ersten Kamera zum Erfassen aus 90° und einer zweiten Kamera zum Erfassen aus 3° bzw. 5° bei einem Abstand zwischen dem Mittelpunkt der Objektträgereinheit zur Frontlinse des jeweiligen Kameraobjektivs. Es ist zu erwarten, dass bei größeren Objekt-dimensionen eine dimensionsabhängige Referenzierung vorteilhaft ist. Das bedeutet, dass beispielsweise für 300 mm hohe Objekte ein angepasstes, abstandsabhängiges Pixel-Dimensions- Verhältnis genutzt werden kann. Zunächst wird unter Verwendung des jeweils für die Beobachtungsrichtung vorgegebenen, statischen Pixel-Dimensions-Verhältnis (voreingestellte Referenzabbildungsvorschrift) die Breite (b), Länge (I) und Höhe (h) des Objekts ermittelt. Auf dieser Basis wird der Abstand vom Objekt zu den Kameras aus 5° bzw. 3° (a1) und 90° (a5) berechnet. Auf Basis des Abstands (a1 und a5) und der ausgewählten Aufnahme nutzen wir ein Pixel-Dimensions-Verhältnis (d1=f(a1) bzw. d5=f(a5)) für diesen Abstand, den wir zuvor durch einmalige Aufnahme in diesem Abstand ermittelt haben. Hierfür haben wir Abstandsklassen in Abständen von 10 cm aufgenommen (alternativ in geringerem Abstand möglich). Auf Basis dieses Verhältnisses berechnen wir danach die Objektdimensionen Länge, Breite und Höhe durch das variable, abstandsabhängige Pixel-Dimensions-Verhältnis (abstandsabhängige Referenzabbildungsvorschrift).
Ein Vorteil ist, dass durch das Verwenden der abstandsabhängigen Referenzabbildungsvorschriften die Genauigkeit bei der Bestimmung der Abmessungen erhöht werden kann. Insbesondere kann das Verfahren dahingehend optimiert werden, dass ein zweistufiges Verfahren zum Bestimmen der Abmessungen implementiert wird, das gegenüber dem vorgenannten einstufigen Verfahren, eine verbesserte Genauigkeit aufweisen kann, insbesondere für eine größere Bandbreite von Objekten, insbesondere Objekte deren Kantenlängen 250mm oder mehr als 250mm voneinander abweichen (in anderen Worten, Objekte deren Längen 250mm oder mehr als 250mm voneinander abweichen und/oder der Breiten 250mm oder mehr als 250mm voneinander abweichen und/oder deren Höhen 250mm oder mehr als 250mm voneinander abweichen). Dieses zweistufige Verfahren umfasst insbesondere die nachfolgenden Schritte: • Ermitteln einer korrigierten ersten Abmessung, wenn: o die zweite Abmessung (1091 , 1092) größer oder gleich einer maximalen zweiten Abmessung ist, und/oder o die zweite Abmessung kleiner oder gleich einer minimalen zweiten Abmessung ist, durch: o Bestimmen des Erfassungsabstands unter Berücksichtigung der zweiten Abmessung, o Ermitteln der korrigierten ersten Abmessung des Objekts mittels der zu diesem bestimmten Erfassungsabstand zugehörigen abstandsabhängigen ersten Referenzabbildungsvorschrift, und/oder
• Ermitteln einer korrigierten zweiten Abmessung, o wenn die erste Abmessung größer oder gleich einer maximalen ersten Abmessung ist, und/oder o wenn die erste Abmessung kleiner oder gleich einer minimalen ersten Abmessung ist, durch: o Bestimmen des Erfassungsabstands unter Berücksichtigung der ersten Abmessung, o Ermitteln der korrigierten zweiten Abmessung des Objekts mittels der zu diesem bestimmten Erfassungsabstand zugehörigen abstandsabhängigen zweiten Referenzabbildungsvorschrift.
Insbesondere stellt die Datenspeichereinheit eine voreingestellte, insbesondere nicht abstandsabhängige, erste Referenzabbildungsvorschrift und eine voreingestellte, insbesondere nicht abstandsabhängige, zweite Referenzabbildungsvorschrift bereit, unter Verwendung derer in der ersten Stufe zumindest die erste und die zweite Abmessung bestimmt werden. Als voreingestellte, insbesondere nicht abstandsabhängige, Referenzabbildungsvorschriften eignet sich insbesondere die Referenzabbildungsvorschrift, die sich ergibt, wenn der Erfassungsabstand einem Abstand zwischen dem Bauteil zum Erfassen der Bilddaten und einem Punkt, insbesondere einem Fixpunkt, wie beispielsweise einem Mittelpunkt eines Objektdatenerfassungsbereich auf der Objektträgereinheit, in dem das zu erfassende Objekt angeordnet wird, entspricht. In der zweiten Stufe wird dann ermittelt, ob die so ermittelten Werte innerhalb eines vorgegebenen Intervalls, insbesondere zwischen einer minimalen und einer maximalen jeweiligen Abmessung, liegen. Das Intervall ist insbesondere derart gewählt, dass die Referenzabbildungsvorschrift über das Intervall zumindest näherungsweise konstant ist.
Liegt die jeweilige Abmessung, die mit der vorangestellten Referenzabbildungsvorschrift bestimmt wurde, außerhalb des Intervalls, so wird eine jeweilige korrigierte Abmessung bestimmt: Hierzu wird der Erfassungsabstand, mittels dem die jeweilige voreingestellte Referenzabbildungsvorschrift bestimmt wurde, um die in der ersten Stufe ermittelten Abmessungen korrigiert.
Im vorstehend beschriebenen Beispiel wird das Objekt am Mittelpunkt angeordnet. Aufgrund der Ausdehnung des Objekts ist der tatsächliche Abstand, aus dem das Objekt erfasst wird, gleich dem Erfassungsabstand zwischen Mittelpunkt der Objektträgereinheit und Bauteil zum Erfassen reduziert um die Ausdehnung des Objekts in Beobachtungsrichtung ausgehend vom Mittelpunkt der Objektträgereinheit. Konkret bedeutet das beispielsweise, dass in der Aufsicht in der ersten Stufe Breite und Länge des Objekts bestimmt werden können und in der Seitenansicht die Höhe. Der tatsächliche Erfassungsabstand in der Aufsicht entspricht dann der Differenz zwischen dem Erfassungsabstand zwischen Mittelpunkt und Bauteil zum Erfassen der Objektdaten und der aus der Seitenansicht bestimmten Höhe. Analog ergibt sich der tatsächliche Erfassungsabstand in der Seitenansicht beispielsweise aus dem Erfassungsabstand, der um die Länge bzw. Breite des Objekts (je nach Ausrichtung des Objekts relativ zur Beobachtungsrichtung) korrigiert wird.
Anschließend kann anhand der um die in der ersten Stufe bestimmten Abmessungen korrigierten Erfassungsabstände jeweils die zugehörige abstandsabhängige Referenzabbildungsvorschrift aus der Datenspeichereinheit abgerufen werden. Insbesondere kann anhand der korrigierten Erfassungsabstände für die jeweilige Beobachtungsrichtung die Abstandsklasse bestimmt werden. Mittels dieser Information kann die zugehörige abstandsabhängige Referenzabbildungsvorschrift abgerufen werden und diese verwendet werden, um die jeweilige Dimension der jeweiligen zweidimensionalen Repräsentation auf die jeweilige Abmessung abzubilden. Die so bestimmte Abmessung ist dann die korrigierte Abmessung. Ein Vorteil ist, dass durch das zweistufige Auswerten derselben Daten ein genaueres Ergebnis erzielt werden kann. Es ist insbesondere nicht erforderlich mehrmals Objektdaten zu erfassen, da dieses zweistufige Verfahren dieselben Objektdaten zweimal auswertet und dadurch die Genauigkeit der Auswertung erhöht werden kann.
Gemäß einer Ausführungsform erfolgt ein Anzeigen einer überlagerten Darstellung der erfassten Objektdaten und der zugehörigen zweidimensionalen Repräsentation. Insbesondere wird hierbei ein Anpassen der zweidimensionalen Repräsentation, insbesondere durch Markierung von Begrenzungskanten und/oder Eckpunkten, ermöglicht, wobei anhand dieser angepassten zweidimensionalen Repräsentation das Ermitteln der Abmessungen erfolgt.
Je nach geometrischen Eigenschaften des Objekts ist gerade die Höhe rein automatisch nicht immer zuverlässig zu erfassen, da man ggf. Kontext-Informationen des Objekts benötigt. Gerade bei Objekten mit geringer Höhe (< 20 mm) ist die Aufnahme mit der Kamera nicht 100% frontal ausgerichtet und damit misst man nicht die Höhe des Objekts. Allerdings kann dem Nutzer der Maschine eben dieses Ergebnis direkt so bereitgestellt werden. Insbesondere kann ein Benutzer durch Nutzerinteraktion die Abmessungen einer auf der Fotografie/Abbildung eingeblendeten Bounding Box anpassen, indem er die Bounding Box, beispielsweise per „Drag and Drop“, editiert. Dieser ausgewählte Bildausschnitt wird dann mittels des Pixel-Dimensions-Verhältnisses genutzt, um die tatsächliche Abmessung zu bestimmen. Dieses Verfahren kann ebenfalls bei besonders schwierig freizustellenden Objekten (beispielsweise transparente Objekte, weiße Objekte, etc.) genutzt werden.
Gemäß einer Ausführungsform umfasst das Verfahren einen weiteren Schritt: Ermitteln zumindest einer dritten Abmessung des Objekts aus einer die dritte Abmessung repräsentierenden Dimension der ersten und/oder zweiten zweidimensionalen Repräsentation des Objekts, aus der ersten und/oder zweiten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der jeweiligen zweidimensionalen Repräsentation auf die dritte Abmessung mittels der zugehörigen Referenzabbildungsvorschrift.
Gemäß einer Ausführungsform umfasst das Referenzelement mindestens einen Quadratmarker, der insbesondere einen schwarzen Rand und eine Binärmatrix, die durch den Rand zumindest teilweise begrenzt wird, umfasst und wobei zumindest eine der Abmessungen des Quadratmarkers bekannt ist. Insbesondere kann zumindest ein Arllco-Marker als Referenzelement verwendet werden. Arllco-Marker wurden von der Fachgruppe "Applications of Artificial Vision" (A.V.A) der University of Cordoba entwickelt.
Ein weiterer Gegenstand der vorliegenden Erfindung ist eine Erfassungsvorrichtung, insbesondere zu einer zumindest teilautomatisierten Erfassung von multiplen Objektdatensätzen zumindest eines Objekts, zur Bestimmung von zumindest einer ersten Abmessung und einer zweiten Abmessung des Objekts, umfassend:
• eine Objektträgereinheit zum Bereitstellen des Objekts, insbesondere wird das Objekt zur Digitalisierung durch die Erfassungsvorrichtung bereitgestellt,
• eine Objektdatenerfassungseinheit zur Erfassung von ersten Objektdaten des Objekts aus einer ersten Beobachtungsrichtung und zur Erfassung von zweiten Objektdaten des Objekts aus einer zweiten Beobachtungsrichtung, o wobei die ersten Objektdaten eine erste zweidimensionale Repräsentation des Objekts, welche von der ersten Beobachtungsrichtung abhängt, umfassen, o wobei die zweiten Objektdaten eine zweite zweidimensionale Repräsentation des Objekts, welche von der zweiten Beobachtungsrichtung abhängt, umfassen, o wobei die erste Beobachtungsrichtung und die zweite Beobachtungsrichtung voneinander abweichen,
• eine Datenspeichereinheit zur Bereitstellung von zumindest einer Referenzabbildungsvorschrift. Insbesondere der ersten und zweiten Referenzabbildungsvorschrift, für eine Bestimmung von zumindest der ersten Abmessung und der zweiten Abmessung des Objekts,
• eine Auswerteeinheit o zum Ermitteln zumindest der ersten Abmessung des Objekts aus einer die erste Abmessung repräsentierenden Dimension der ersten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der ersten zweidimensionalen Repräsentation auf die erste Abmessung mittels der ersten Referenzabbildungsvorschrift und o zum Ermitteln zumindest der zweiten Abmessung des Objekts aus einer die zweite Abmessung repräsentierenden Dimension der zweiten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der zweiten zweidimensionalen Repräsentation auf die zweite Abmessung mittels der zweiten Referenzabbildungsvorschrift.
Je mehr Komponenten in der Erfassungsvorrichtung verwendet werden, desto höher ist die technische Komplexität. Jede Komponente kann defekt sein, muss ggf. kalibriert werden, und/oder verliert eine Konnektivität. Insbesondere bei der Verwendung von 3D-Kameras wird die Erfassungsvorrichtung komplexer und für den Fall, dass diese ausfällt, muss die gesamte Erfassungsvorrichtung neu gestartet werden, wodurch die technische Verfügbarkeit der Erfassungsvorrichtung sinkt. Durch das geschickte Verfahren ist es nicht zwingend erforderlich, dass die Erfassungsvorrichtung eine 3D- Kamera umfasst. Dadurch wird die technische Komplexität reduziert und die technische Verfügbarkeit erhöht.
Insbesondere stellt die Erfassungsvorrichtung eine Umsetzung der vorstehend beschriebenen 2D basierten optischen Vermessung von Objekten dar, welche eine schnellere und genaue Vermessung des Objekts ermöglicht.
Unter einer „teilautomatisierten Erfassung“ soll insbesondere verstanden werden, dass zumindest ein multipler Objektdatensatz in zumindest einem Betriebszustand bedienungsfrei, also insbesondere ohne Eingriff eines Bedieners, erfasst wird.
Unter einer „Objektdatenerfassungseinheit“ soll insbesondere eine Einheit verstanden werden, die zumindest zu einer Erfassung einer Art von Objektdaten vorgesehen ist. Bevorzugt handelt es sich bei der Objektdatenerfassungseinheit um eine bildgebende Erfassungseinheit, die insbesondere zumindest eine Stehbildkamera und/oder eine Laufbildkamera umfasst. Bevorzugt weist die Objektdatenerfassungseinheit eine Echtfarbkamera auf. Alternativ oder ergänzend kann die Objektdatenerfassungseinheit beispielsweise eine Infrarotkamera, eine TOF-Kamera und/oder dergleichen umfassen.
Ein Objektdatensatz umfasst vorzugsweise zumindest zwei, besonders bevorzugt zumindest zehn, unterschiedliche Aufnahmen der Objektdatenerfassungseinheit. Ein „Objektdatensatz“ umfasst insbesondere zumindest zwei unterschiedliche Objektdaten über dasselbe Objekt. Ein multipler Objektdatensatz umfasst vorzugsweise mehr als zehn unterschiedliche Objektdaten, besonders bevorzugt mehr als hundert unterschiedliche Objektdaten über dasselbe Objekt. Vorzugsweise umfasst ein multipler Objektdatensatz zumindest zwei unterschiedliche Arten von Objektdaten über dasselbe Objekt.
Die Objektdatenerfassungseinheit kann zumindest ein Objektdatenerfassungselement umfassen, wobei als Objektdatenerfassungselement beispielsweise ein optischer Sensor, Bildsensor oder eine Kamera geeignet sind. Das Objektdatenerfassungselement dient der Erfassung optischer Informationen auf elektronischem Wege deren Auflösung insbesondere in Megapixel angegeben wird. Typische Anwendungsbereiche sind elektronische Kameras aller Art wie z. B. Digitalkameras, Überwachungskameras oder auch Kameramodule, wie sie in Smartphones verbaut sind. Bildsensoren nehmen die Bildinformationen, die meist von einer optischen Einrichtung (Objektiv) zugeliefert werden, in Form von lichtempfindlichen Bildpunkten (Pixel) auf, die flächig in Form einer Matrix auf dem Bildsensor angeordnet sind. In der Kameratechnik gängige Sensortypen sind CCD- und CMOS-Bildsensoren.
Unter einer „Auswerteeinheit“ soll insbesondere eine Einheit mit einem Informationseingang, einer Informationsverarbeitung und einer Informationsausgabe verstanden werden. Vorzugsweise weist die Auswerteeinheit zumindest einen Prozessor und ein Speicherelement oder eine Datenspeichereinheit auf. Besonders bevorzugt sind die Bauteile der Auswerteeinheit auf einer gemeinsamen Platine angeordnet und/oder ganz besonders bevorzugt in einem gemeinsamen Gehäuse angeordnet. Bevorzugt ist die Objektdatenerfassungseinheit mittels der Auswerteeinheit ansteuerbar. Vorzugsweise steuert die Auswerteeinheit zumindest die definierte Relativbewegung, insbesondere eine Bewegung zweier Objektdatenerfassungselemente relativ zueinander und/oder entlang einer Führungseinheit und des weiteren Führungselements relativ zueinander, und zumindest eine Auswahl eines der Objektdatenerfassungselemente, insbesondere in Abhängigkeit der Abmessungen des Objekts, die mittels des Verfahrens bestimmt wurden, zum Erfassen weiterer Objektdaten, sowie einen Erfassungszeitpunkt zumindest eines Objektdatenerfassungselements. Es werden von zu digitalisierenden Objekten Objektdaten erfasst. Hierzu wird mindestens eine Objektdatenerfassungseinheit, beispielsweise eine Kamera umfassend, derart angeordnet, dass aus verschiedenen Positionen/Perspektiven/ Beobachtungsrichtungen Objektdaten aufgenommen werden können. Insbesondere kann die Objektdatenerfassungseinheit auch mehrere Objektdatenerfassungselemente umfassen, welche Linsen mit voneinander abweichen Eigenschaften, insbesondere voneinander abweichenden optischen Eigenschaften, aufweisen. Somit ist es vorteilhafterweise möglich sowohl kleine Objekte, d.h. insbesondere Objekte deren Länge, Breite und Höhe jeweils kleiner gleich 1cm betragen als auch große Objekte, d.h. insbesondere Objekte, deren Länge, Breite und Höhe jeweils größer gleich 40 cm beträgt, zu digitalisieren.
Ein Vorteil der Erfassungsvorrichtung ist, dass insbesondere die Geschwindigkeit bei der Vermessung des Objekts erhöht werden kann. Für die Vermessung eines Objekts mittels 3D Scanner (beispielsweise IDS Ensenso N35) werden aktuell ca. 12 Sekunden benötigt. Außerdem muss die Schutztür in diesem Prozessschritt geschlossen sein. Muss der Bediener danach manuell nachmessen, ist daher mit zusätzlichem Aufwand von 45 Sekunden zu rechnen. Die automatische Vermessung auf 2D-Bild-Basis, welche mit der vorstehend beschriebenen Erfassungsvorrichtung realisiert werden kann, erfolgt innerhalb des Prozesses der Digitalisierung des Objekts und sorgt daher für eine Reduzierung von 12 Sekunden. Muss der Bediener die Messwerte noch anpassen, sorgt dies für einen zusätzlichen Aufwand in Höhe von ca. 10 Sekunden. Dementsprechend reduziert sich der Aufwand im Schnitt um 28 Sekunden pro zu digitalisierendem Produkt (0,4*45 sec + 1*12 see - 0,2*10 see). Bei einer bisherigen Taktzeit von 2:30 min beträgt damit die Taktzeit 2:02 min und die Einsparung damit 19%. Daher ermöglicht die Erfassungsvorrichtung ein effizientes und schnelles Digitalisieren von Objekten.
Zudem ermöglicht die Implementierung des Verfahrens zur Vermessung des Objekts mittels zwei 2D-Aufnahmen in der Erfassungsvorrichtung vorteilhaftweise eine Reduzierung der Komplexität der Erfassungsvorrichtung, da zur Bestimmung der Abmessung keine separate Hardware erforderlich ist, sondern mit der vorhandenen Hardware im Prozess erfolgen kann. Insbesondere werden keine 3D-Kameras benötigt, um die Abmessungen zu bestimmen. Es entfällt zudem ein manuelles Nachmessen und es ist auch nicht erforderlich bei der Vermessung jeweils ein Referenzelement oder bekanntes Objekt anzuordnen und die zugehörigen erfassten Daten auszuwerten. Daher wird eine Reduzierung des Aufwands bei der Bestimmung der Abmessungen ermöglicht. In jedem Fall ist das vorstehend beschriebene integrierte Verfahren schneller als alle bekannten Lösungen im Markt.
Gemäß einer Ausführungsform umfasst die Objektdatenerfassungseinheit zumindest ein erstes Objektdatenerfassungselement zur Erfassung der ersten Objektdaten des Objekts aus der ersten Beobachtungsrichtung und ein zweites Objektdatenerfassungselement zur Erfassung der ersten Objektdaten des Objekts aus der zweiten Beobachtungsrichtung. Insbesondere sind die Objektdatenerfassungselemente jeweils in einem festen Erfassungsabstand und/oder unter einem festen Winkel relativ zur Objektträgereinheit angeordnet. Insbesondere ist das erste Objektdatenerfassungselement orthogonal zur Objektträgereinheit angeordnet, um eine Aufsicht des Objekts zu erfassen und insbesondere ist das zweite Objektdatenerfassungselement derart angeordnet, dass die Beobachtungsrichtung des Objektdatenerfassungselements 3° oder 5° oder einen Wert zwischen 3° und 5° relativ zur Objektträgereinheit aufweist, d. h. in anderen Worten das zweite
Objektdatenerfassungselement eine Seitenansicht des auf der Objektträgereinheit angeordneten Objekts erfassen kann.
Insbesondere werden die Länge und Breite des Messobjekts mit einer 2D Aufnahme aus 90° ermittelt. Die Höhe des Messobjekts wird insbesondere mit einer 2D Aufnahme aus 3° bzw. 5° ermittelt. Somit können die Objektdimensionen für alle drei Dimensionen des Objekts mittels zweier 2D Aufnahmen ermittelt werden.
Alternativ umfasst die Objektdatenerfassungseinheit zumindest ein Objektdatenerfassungselement, welches dazu eingerichtet ist, sowohl Objektdaten aus der ersten Beobachtungsrichtung als auch aus der zweiten Beobachtungsrichtung zu erfassen. Insbesondere kann die Erfassungsvorrichtung eine Führungseinheit umfassen, wobei die Objektdatenerfassungseinheit an der Führungseinheit angeordnet ist. Die Objektdatenerfassungseinheit umfasst zumindest ein Objektdatenerfassungselement, welches insbesondere relativ zur Führungseinheit bewegbar mit der Führungseinheit verbunden oder verbindbar ist. Insbesondere kann das Objektdatenerfassungselement an einer ersten Position und einer zweiten Position angeordnet werden oder in anderen Worten zumindest zwischen den zwei Positionen hin- und herbewegt werden. Insbesondere ist die Beobachtungsrichtung in der ersten Position orthogonal zur Objektträgereinheit und in der zweiten Position die Beobachtungsrichtung des Objektdatenerfassungselements 3° oder 5° oder einen Wert zwischen 3° und 5° relativ zur Objektträgereinheit aufweist.
Die Führungseinheit weist besonders bevorzugt zumindest ein, insbesondere zumindest teilweise gekrümmtes, Führungselement auf, wobei das Objektdatenerfassungselement insbesondere entlang des Führungselements bewegbar ist, d. h. in anderen Worten, dass das Führungselement die Bewegungsfreiheitsgrade des Objektdatenerfassungselements einschränkt und insbesondere einen Abstand zwischen einem festen Punkt auf der Objektträgereinheit und dem Objektdatenerfassungselement festlegt, vorzugsweise auf einen konstanten Wert festlegt. Insbesondere schränkt das Führungselement die Bewegungsfreiheitsgrade des Objektdatenerfassungselements derart ein, dass das Objektdatenerfassungselement auf einem eindimensionalen Pfad, beispielsweise auf einem kreis- oder bogenförmigen Pfad oder einer zweidimensionalen Fläche, beispielsweise einer Oberfläche eines Kugelsegments, bewegbar ist.
Bevorzugt sind zumindest zwei Objektdatenerfassungselemente getrennt voneinander an der Führungseinheit angeordnet. Insbesondere ist zumindest eine der zwei Objektdatenerfassungselemente bewegbar an der Führungseinheit angeordnet. Die Führungseinheit ist insbesondere dazu vorgesehen, zumindest eine der zwei Objektdatenerfassungselemente, die an der Führungseinheit angeordnet ist, bei einer Bewegung zu führen, wobei mittels der Führungseinheit vorzugsweise eine definierte Bewegungsbahn zumindest des einen Objektdatenerfassungselements vorgegeben ist.
Unter „vorgesehen“ soll insbesondere speziell eingerichtet, speziell ausgelegt und/oder speziell ausgestattet verstanden werden. Darunter, dass ein Objekt zu einer bestimmten Funktion vorgesehen ist, soll insbesondere verstanden werden, dass das Objekt diese bestimmte Funktion in zumindest einem Anwendungs- und/oder Betriebszustand erfüllt und/oder ausführt. Die Führungseinheit ist insbesondere zumindest dazu vorgesehen, einer Bewegung eines an der Führungseinheit angeordneten Objektdatenerfassungselements der zwei Objektdatenerfassungselemente entlang einer Richtung, die von der definierten Bewegungsbahn abweicht, entgegenzuwirken. Die Führungseinheit kann beispielsweise zumindest einen mehrachsigen Roboterarm, einen Gelenkarm, einen Schwenkarm und/oder zumindest das Führungselement, besonders bevorzugt mehrere Führungselemente, aufweisen.
Insbesondere kann das mindestens eine Objekterfassungselement fest in die Erfassungsvorrichtung eingebaut sein und folglich ein fester, bekannter Erfassungsabstand realisiert werden. Insbesondere ist der Abstand zwischen der Objektträgereinheit und dem Erfassungselement bekannt und fix. Eine Korrektur des Erfassungsabstands und Anwendung des vorstehend beschriebenen zweistufigen Verfahren ist daher nur für spezielle Randbedingungen erforderlich, insbesondere für sehr große Objekte, insbesondere Objekte deren Kantenlänge 250mm übersteigt.
Für kleinere Objekte liefert auch das einstufige Verfahren sehr gute und genaue Ergebnisse. Deshalb wird das Referenzelement, insbesondere der Arllco Marker nicht jeweils gemeinsam mit dem Messobjekt aufgenommen, sondern nur einmalig separat fotografiert. Dadurch kann eine Referenzabbildungsvorschrift, d. h. ein Pixel/Dimensions-Verhältnis (pixels per metric ratio), für diesen Messobjekt-Abstand (=Erfassungsabstand) und diese Kamera-Objektiv-Kombination (festgelegte, bekannte optische Eigenschaften), welche wir bei den Messobjekten dann nutzen können. Nach der Segmentierung des Messobjekts kann dieses Pixel/Dimensions-Verhältnis zur Bestimmung der Länge + Breite (beispielsweise aus 90°) und zur Bestimmung der Höhe (beispielsweise aus 5° bzw. 3°) erfolgen.
Ein Verfahren zum Erfassen von multiplen Objektdatensätzen zumindest eines Objekts, mit einer Erfassungsvorrichtung zu einer zumindest teilautomatisierten Erfassung von multiplen Objektdatensätzen zumindest eines Objekts, insbesondere nach einem der Ansprüche 12 bis 14, wobei die Erfassungsvorrichtung mehrere Objektdatenerfassungselemente, welche zumindest teilweise voneinander abweichende Erfassungseigenschaften aufweisen, zum Erfassen von Objektdaten umfasst, wobei das Verfahren die nachfolgenden Schritte umfasst:
• Bestimmen von mindestens einer ersten Abmessung und einer zweiten Abmessung des Objekts, • Auswahl zumindest eines der Objektdatenerfassungselemente aufgrund seiner Erfassungseigenschaften unter Berücksichtigung der ersten Abmessung und der zweiten Abmessung des Objekts, und
• Ansteuern der ausgewählten Objektdatenerfassungseinheit zum Erfassen weiterer Objektdaten, insbesondere zur Digitalisierung des Objekts.
Ein Vorteil ist, dass somit ein Digitalisieren des Objekts und ein Kategorisieren von Objekten nach ihrer Größe innerhalb eines gemeinsamen Prozesses ermöglicht wird. Insbesondere können die Abmessungen des Objekts bei der Digitalisierung direkt aus den für die Digitalisierung erfassten Daten ermittelt werden.
Bevorzugt umfasst die Erfassungsvorrichtung zumindest eine Hauptrecheneinheit, die zumindest dazu vorgesehen ist, einen Objekteinlernprozess durchzuführen. Unter einem „Objekteinlernprozess“ soll insbesondere eine Verarbeitung der multiplen Objektdatensätze zu einer weiteren Verwendung verstanden werden. Beispielsweise kann ein Objekteinlernprozess die Erstellung einer Rundumansicht des Objekts umfassen, die Erstellung eines dreidimensionalen Modells des Objekts und/oder die Extraktion charakteristischer Merkmale insbesondere zu einem Ermöglichen einer Mustererkennung.
Kurze Beschreibung der Zeichnungen
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Gleiche Bezugszeichen in den Figuren bezeichnen gleiche oder gleichwirkende Elemente.
Es zeigen
Fig. 1 eine Erfassungsvorrichtung in einer Aufsicht in einer schematischen Darstellung,
Fig. 2 eine Erfassungsvorrichtung in einer Seitenansicht,
Fig. 3 ein Objekt, dessen Abmessungen bestimmt werden sollen, in einer Aufsicht, Fig. 4 das Objekt aus Fig. 3 in einer Seitenansicht,
Fig. 5 ein Objekt mit komplexer Geometrie in einer Seitenansicht, Fig. 6 ein Ablaufdiagramm eines Verfahrens zur Bestimmung von mindestens einer ersten Abmessung und einer zweiten Abmessung eines Objekts,
Fig. 7 ein Ablaufdiagramm eines Verfahrens zur Bestimmung von mindestens einer ersten Abmessung und einer zweiten Abmessung eines Objekts,
Fig. 8 ein Ablaufdiagramm eines Verfahrens zum Erfassen von multiplen Objektdatensätzen zumindest eines Objekts, und
Fig. 9 zeigt ein Beispiel eines Referenzelements in Form eines A rll co- Markers.
Ausführungsbeispiele der Erfindung
Fig. 1 zeigt eine Aufsicht auf eine schematisch dargestellte Erfassungsvorrichtung 100, umfassend eine Objektträgereinheit 102 zum Bereitstellen eines Objekts, insbesondere zu einer Digitalisierung des Objekts, hier in Form eines Drehtisches, wobei das Objekt auf der hier runden Tischplatte, vorzugsweise zumindest teilweise in einem Objektdatenerfassungsbereich 1021 angeordnet werden kann, und eine Objektdatenerfassungseinheit 103 zur Erfassung von ersten Objektdaten des Objekts aus einer Beobachtungsrichtung 1040 und zur Erfassung von zweiten Objektdaten des Objekts aus einer davon abweichenden Beobachtungsrichtung 1040, wobei die Beobachtungsrichtungen insbesondere unterschiedliche Erfassungswinkel relativ zur Objektträgereinheit 102 aufweisen können (in der in Fig. 1 gezeigten Aufsicht nicht zu sehen). Die Objektdatenerfassungseinheit 103 umfasst in diesem Ausführungsbeispiel ein erstes Objektdatenerfassungselement 1031 , welches einen Mittelpunkt 1020 der Objektträgereinheit 102 aus der Beobachtungsrichtung 1040 erfasst und ein zweites Objektdatenerfassungselement 1032, welches den Mittelpunkt 1020 der Objektträgereinheit 102 aus der weiteren Beobachtungsrichtung 1040 erfasst. Das erste Objektdatenerfassungselement 1031 ist in einem ersten Erfassungsabstand 1051 vom Mittelpunkt 1020 der Objektträgereinheit 102 angeordnet, wobei der erste Erfassungsabstand 1051 hier einen Abstand einer Frontlinse eines Objektivs des ersten Objektdatenerfassungselements 1031 zum Mittelpunkt 1020 bezeichnet und hier 800mm beträgt. Das zweite Objektdatenerfassungselement 1032 ist in einem zweiten Erfassungsabstand 1052 vom Mittelpunkt 1020 der Objektträgereinheit 102 angeordnet, wobei der zweite Erfassungsabstand 1052 hier einen Abstand einer Frontlinse eines Objektivs des zweiten Objektdatenerfassungselements 1032 zum Mittelpunkt 1020 bezeichnet und hier 1250mm beträgt. Das erste Objektdatenerfassungselement 1031 ist beispielsweise eine Kamera mit einem EF (Electronic Focus) 100mm Objektiv, wobei es sich vorzugsweise um ein f/2.8L Macro IS USM Objektiv handelt. Das zweite Objektdatenerfassungselement 1032 ist beispielsweise eine Kamera mit einem EF (Electronic Focus) 50mm Objektiv, wobei es sich vorzugsweise um ein f/1.2L USM Objektiv handelt. Ein seitlicher Abstand 1030 der Objektdatenerfassungselemente 1032, 1031 beträgt in diesem Ausführungsbeispiel 600mm. In Verlängerung der Beobachtungsrichtungen 1040 der Objektdatenerfassungselemente 1031, 1032 ist eine Hintergrundvorrichtung 101 angeordnet, welche bei den Bildern, die von dem Objekt aufgenommen werden, einen Hintergrund bereitstellt. Insbesondere umfasst die Hintergrundvorrichtung 101 eine Platte mit einheitlicher Farbe, beispielsweise eine weiße Platte, sodass die Objektdatenerfassungselemente 1031 , 1032 das Objekt vor dem einfarbigen Hintergrund aufnehmen können.
Alternativ ist auch möglich, dass ein Objektdatenerfassungselement angeordnet ist, welches zwischen den beiden Positionen, die in Fig. 1 gezeigt sind und die sich in ihrem Abstand zum Mittelpunkt 1020 der Objektträgereinheit 102 und ihre jeweilige Beobachtungsrichtung unterscheiden können, verfahrbar ist. Insbesondere kann eine Führungseinheit das Objektdatenerfassungselement 1031 in die beiden gezeigten Positionen und/oder weitere Positionen bringen. Allerdings wären die optischen Eigenschaften dann bei der Erfassung der Objektdaten aus allen Positionen gleich, wohingegen im vorliegenden Ausführungsbeispiel der Fig. 1 unterschiedliche Objektive verwendet werden.
In Fig. 2 ist eine Seitenansicht einer Erfassungsvorrichtung 100, in einer schematischen Darstellung zu sehen. Hier umfasst die Objektdatenerfassungseinheit 103 ein erstes Objektdatenerfassungselement 1031 , welches einen Mittelpunkt 1020 der Objektträgereinheit 102 unter einem Erfassungswinkel 106 aus einer zweiten Beobachtungsrichtung 1042 erfasst und ein zweites Objektdatenerfassungselement 1032, welches den Mittelpunkt 1020 der Objektträgereinheit 102 unter dem Erfassungswinkel 106 aus der zweiten Beobachtungsrichtung 1042 erfasst. Der Erfassungswinkel 106 bezeichnet den Winkel 106 den die jeweilige Beobachtungsrichtung relativ zur Objektträgereinheit 102 einschließt. Der Erfassungswinkel 106 weist für das erste und zweite Objektdatenerfassungselement 1031, 1032 insbesondere einen Wert von 3°, 5° oder einen Wert zwischen 3° und 5° auf. Mit dem ersten und/oder zweiten Objektdatenerfassungselement 1031, 1032 kann somit eine Seitenansicht des Objekts, welches vorzugsweise am Mittelpunkt der Objektträgereinheit 102 anordenbar ist, aus zwei unterschiedlichen Erfassungsabständen erfasst werden. Des Weiteren umfasst die Objektdatenerfassungseinheit 103 ein siebtes Objektdatenerfassungselement 1037, welches den Mittelpunkt 1020 der Objektträgereinheit 102 unter einem Erfassungswinkel 106 aus der zweiten Beobachtungsrichtung 1042, welche in diesem Ausführungsbeispiel einen Erfassungswinkel 106 von 90° aufweist, erfasst. Das siebte Objektdatenerfassungselement 1037 ist zudem entlang der Führungseinheit 107 verschiebbar unter Beibehaltung des Erfassungswinkels 106 von 90° relativ zur Platte der Objektträgereinheit 102 angeordnet, was in der Fig. 2 durch einen Doppelpfeil und eine gestrichelte Darstellung des Objektdatenerfassungselements 1037 an einer weiteren Position angedeutet ist.
Des Weiteren umfasst die Objektdatenerfassungseinheit 103 ein drittes und ein viertes Objektdatenerfassungselemente 1033, 1034, wobei die Objektdatenerfassungselemente
1033, 1034 verschiebbar an einer Führungseinheit 107 angeordnet sind. Durch das Verschieben entlang der Führungseinheit (angedeutet durch die Doppelpfeile auf den Objektdatenerfassungselementen 1033, 1034) kann der Erfassungswinkel 106, den die jeweilige Beobachtungsrichtung relativ zur Platte der Objektträgereinheit 102, auf der das Objekt anordenbar ist, aufweist, eingestellt werden, insbesondere kann der Erfassungswinkel 106 10°, 40° oder einen Wert zwischen 10° und 40° annehmen.
Zudem umfasst die Objektdatenerfassungseinheit 103 ein fünftes und ein sechstes Objektdatenerfassungselement 1035, 1036, wobei das fünfte Objektdatenerfassungselement 1035 einen festen Erfassungswinkel 106 von 50° und das sechste Objektdatenerfassungselement 1036 einen festen Erfassungswinkel 106 von 70° jeweils relativ zur Platte der Objektträgereinheit 102 aufweisen.
Durch die Gestaltung der Objektdatenerfassungseinheit 103 können Objektdaten aus unterschiedlichen Perspektiven erfasst werden und somit beispielsweise eine Digitalisierung des Objekts ermöglicht werden. Zur Bestimmung der mindestens zwei Abmessungen des Objekts eignen sich insbesondere das erste Objektdatenerfassungselement 1031 und das siebte Objektdatenerfassungselement 1037 und /oder das zweite Objektdatenerfassungselement 1032 und das siebte Objektdatenerfassungselement 1037.
Wie Fig. 2 zu entnehmen ist, weisen die Objektdatenerfassungselemente 1031, 1032, 1033,
1034, 1035, 1036, 1037 zumindest teilweise voneinander abweichende Erfassungsabstände 1051, 1052 auf. Somit kann eine Kalibration zur Bestimmung der Referenzabbildungsvorschriften für unterschiedliche Erfassungsabstände durchgeführt werden. Insbesondere ist je nach Ausgestaltung der Führungseinheit, beispielsweise als Greifarm, auch möglich, dass der jeweilige Erfassungsabstand 1051 , 1052 für zumindest einen Teil der Objektdatenerfassungselemente 1031, 1032, 1033, 1034, 1035, 1036, 1037 anpassbar ist und somit mittels Kalibrierverfahren Referenzabbildungsvorschriften für verschiedene Erfassungsabstände ermittelt werden können. Beispielsweise können für eine bestimmte Beobachtungsrichtung jeweils mehrere feste Positionen entlang der Beobachtungsrichtung angefahren werden, und dann jeweils die zu diesem Erfassungsabstand 1051 , 1052 zugehörige Referenzabbildungsvorschrift bestimmt werden. Diese kann dann in einer Datenspeichereinheit als abstandsabhängige Referenzabbildungsvorschrift mit dem zugehörigen Erfassungsabstand 1051, 1052 abgespeichert werden und/oder die abstandsabhängige Referenzabbildungsvorschrift wird einem Intervall von Erfassungsabständen zugeordnet, d. h. es erfolgt ein Zuordnen der abstandsabhängigen Referenzabbildungsvorschrift zu einer Abstandsklasse, welche ein Intervall von Erfassungsabständen umfasst.
Fig. 3 zeigt eine Aufsicht eines Objekts 108, hier einem Becher, auf der Objektträgereinheit 102 aus einer Beobachtungsrichtung von 90° relativ zur Platte der Objektträgereinheit 102. Zudem ist ein zweidimensionaler Hüllkörper 109, hier in Form eines minimal umgebenden Rechtecks 109 eingeblendet, wobei die Mitte 1091, 1092, 1093, 1094 jeder Rechteckseite durch einen Punkt markiert ist. Jeder Punkt kann beispielsweise durch zwei kartesische Koordinaten in Einheiten von Pixel ausgedrückt werden. Der Betrag der Differenz der jeweils gegenüberliegenden Punkte 1091, 1093 ergibt dann die Länge 10901 , der Betrag der Differenz der jeweils verbleibenden gegenüberliegenden Punkte 1092, 1094 ergibt die Breite 10902 des Bechers 108, jeweils in Einheiten von Pixel. Länge 10901 und Breite 10902 des Bechers 108 sind hierbei aufgrund des runden Querschnitts des Bechers 108 gleich, und entsprechen dem Durchmesser des Bechers, sodass es aus diesen Objektdaten der Durchmesser des Bechers ermittelt werden kann. Hierzu wird eine Referenzabbildungsvorschrift verwendet, welche von einer Datenspeichereinheit bereitgestellt wird, um den Durchmesser in Pixel in einen Durchmesser in dezimalen Vielfachen von Meter, beispielsweise mm, zu bestimmen.
Fig. 4 zeigt eine Seitenansicht des Bechers 108, insbesondere wobei der Erfassungswinkel der Beobachtungsrichtung einen Winkel von 3°, 5° oder einen Wert zwischen 3° und 5° aufweist, wobei auch hier ein zweidimensionaler Hüllkörper 109, hier in Form eines minimal umgebenden Rechtecks 109 eingeblendet ist, wobei jeweils die Mitte 1091 , 1092, 1093, 1094 jeder Rechteckseite durch einen Punkt markiert ist. Jeder Punkt kann beispielsweise durch zwei kartesische Koordinaten in Einheiten von Pixel ausgedrückt werden. Der Betrag der Differenz der jeweils in relativ zur Objektträgereinheit 102 vertikaler Richtung gegenüberliegenden Punkte 1092, 1094 ergibt dann die Höhe 10903, der Betrag der Differenz der jeweils verbleibenden horizontal gegenüberliegenden Punkte 1091 , 1093 ergibt den Durchmesser 10902 des Bechers 108, jeweils in Einheiten von Pixel. Länge und/oder Breite wurden bereits aus den Objektdaten der Aufsicht bestimmt (siehe Fig. 1), sodass aus der Seitenansicht nur noch die Höhe bestimmt werden muss. Diese ergibt sich analog dadurch, dass die zu dieser Beobachtungsrichtung gehörigen Referenzabbildungsvorschrift, welche von einer Datenspeichereinheit bereitgestellt wird, verwendet wird um die Höhe 10903 in Pixel in eine Höhe in dezimalen Vielfachen von Meter, beispielsweise mm, zu bestimmen.
Fig. 5 zeigt eine Seitenansicht eines Objekts 110 mit komplexer Geometrie und einen zweidimensionaler Hüllkörper 109, welcher hier in Form eines das Objekt 110 minimal umgebenden Rechtecks 109 eingeblendet ist, wobei jeweils die Mitte 1091 , 1092, 1093, 1094 jeder Rechteckseite durch einen Punkt markiert ist. Aufgrund der komplexen Geometrie ist die obere Kante des Hüllkörpers 109 nicht an der Kante des Objekts angelegt, an der die Höhe des Objekts endet. Würde die Höhe mit diesem Hüllkörper ermittelt, so ergäbe sich eine Höhe größer, hier beispielsweise 15mm, als die tatsächliche Höhe, welche einen Wert von 14mm aufweist. Beispielsweise kann die Fig. 5 einem Nutzer angezeigt werden, der, beispielsweise per Drag-and-Drop, die obere Kante an die richtige Position ziehen kann und somit einen korrigierten Hüllkörper 111 erzeugen kann, unter Verwendung dessen dann die tatsächliche Höhe bestimmt wird. Somit können auch die Abmessung von schwierig freizustellenden Objekten (beispielsweise weiße, transparente oder spiegelnde Objekte) bestimmt werden.
In den folgenden Verfahren wird immer nur das Bestimmen zweier Abmessungen beschrieben, jedoch kann, beispielsweise wie vorstehend beschrieben auch die dritte Abmessung bestimmt werden, indem insbesondere bei einer der zweidimensionalen Repräsentationen aus einer Beobachtungsrichtung beide Dimensionen mittels der zugehörigen Referenzabbildungsvorschrift abgebildet werden.
Fig. 6 zeigt ein Ablaufdiagramm eines Verfahrens 200 zur Bestimmung von mindestens einer ersten Abmessung 10901 , 10902, beispielsweise einer Länge und/oder Breite oder einem Durchmesser wie in Fig. 3, und einer zweiten Abmessung 10903 eines Objekts 108, 110, beispielsweise einer Höhe wie in Fig. 4 oder 5, welches insbesondere die nachfolgenden Schritte umfasst:
Zunächst wird das Objekt 108, 110 auf der Objektträgereinheit 102 angeordnet, insbesondere wird es im Objektdatenerfassungsbereich 1021 angeordnet. Nun erfolgt ein Erfassen 202 erster Objektdaten des Objekts 108, 110 aus der ersten Beobachtungsrichtung 1041 , insbesondere unter einem Erfassungswinkel 106 von 90° und ein Erfassen 203 zweiter Objektdaten des Objekts 108, 110 aus der zweiten Beobachtungsrichtung 1042, insbesondere unter einem Erfassungswinkel 106 von 3°, 5° oder einem Erfassungswinkel 106 mit einem Wert zwischen 3° und 5°.
Die Objektdaten umfassen neben den Bilddaten jeweils eine zweidimensionale Repräsentation des Objekts 108, 110. In anderen Worten kann das Erfassen 202, 203 auch ein Auswerten der erfassten Daten umfassen, wobei das Auswerten beispielsweise in einer Auswerteeinheit der Erfassungsvorrichtung 100 erfolgen kann, insbesondere kann eine Kantendetektion durchgeführt werden. Des Weiteren kann insbesondere ein Hüllkörper 109, 110 im Bild des Objekts 108, 110, welches unter der jeweiligen Beobachtungsrichtung 1041 , 1042 aufgenommen wurde, um das Objekt 108, 110 herum erzeugt werden und anhand dieses Hüllkörpers 109 können dann Abmessungen in generischen Einheiten, wie beispielsweise in Einheiten von Pixel, ermittelt werden. Beispielsweise können aus dem aus der ersten Beobachtungsrichtung 1041 aufgenommenen Bilddaten Länge und Breite des Objekts 108, 110 in Einheiten von Pixel bestimmt werden. Die erste zweidimensionale Repräsentation ist hierbei dann ein Zahlen-Tupel, bei dem das erste Tupelelement, d. h. die erste Dimension des Tupels, beispielsweise der Länge des Objekts 108, 110 und bei dem das zweite Tupelelement, d. h. die zweite Dimension des Tupels, der Breite des Objekts 108, 110, jeweils in Einheiten von Pixel, entspricht. Soll nun die Länge in dezimalen Vielfachen von Metern bestimmt werden, so wird die erste Dimension der ersten zweidimensionalen Repräsentation mittels der zugehörigen, durch eine Datenspeichereinheit 112 bereitgestellten ersten Referenzabbildungsvorschrift 1121 in die Länge in mm umgerechnet 204. Beispielsweise können aus dem aus der zweiten Beobachtungsrichtung 1042 aufgenommenen Bilddaten die Höhe und/oder Breite des Objekts 108, 110 in Einheiten von Pixel bestimmt werden. Die zweite zweidimensionale Repräsentation ist hierbei dann ein Zahlen-Tupel, bei dem das erste Tupelelement, d. h. die erste Dimension des Tupels, beispielsweise der Höhe des Objekts 108, 110 und bei dem das zweite Tupelelement, d. h. die zweite Dimension des Tupels, der Breite des Objekts 108, 110, jeweils in Einheiten von Pixel, entspricht. Soll nun die Höhe des Objekts 108, 110 in dezimalen Vielfachen von Metern bestimmt werden, so wird die erste Dimension der zweiten zweidimensionalen Repräsentation mittels der zugehörigen, durch die Datenspeichereinheit 112 bereitgestellte zweite Referenzabbildungsvorschrift 1122 in die Länge in mm umgerechnet 205.
Die erste Referenzabbildungsvorschrift 1121 und zweite Referenzabbildungsvorschrift 1121, 1122 können jeweils in einem separaten Kalibrierverfahren 400 bestimmt werden. Das Kalbrierverfahren 400 läuft ähnlich wie das Verfahren 200 zur Bestimmung der Abmessungen ab, außer, dass als Objekt 108, 110 ein Referenzelement 300, beispielsweise ein Arllco-Marker, wie er in Fig. 9 dargestellt ist, auf der Objektträgereinheit 102 angeordnet wird und beim Ermitteln 204, 205 nicht die Abmessungen 1091, 1092, 1093 bestimmt werden, sondern die jeweilige Referenzabbildungsvorschrift 1121 , 1122. Da die Abmessungen des Referenzelements 300 bekannt sind, kann eine zweidimensionale Repräsentation ermittelt werden, beispielsweise analog zum vorstehend beschriebenen Verfahren 200 und anschließend können die Dimensionen der zweidimensionalen Repräsentation den bekannten Abmessungen zugeordnet werden und jeweils die Referenzabbildungsvorschrift 1121 , 1122 bestimmt werden, die die Dimension der zweidimensionalen Repräsentation der zugehörigen Abmessung zuordnet. Die kann für mindestens eine Abmessung und/oder eine Beobachtungsrichtung 1040, 1041, 1042 erfolgen, vorzugsweise wird das Kalibrierverfahren für beide Beobachtungsrichtungen 1040, 1041, 1042 durchgeführt. Dies sich so ergebenden Referenzabbildungsvorschriften 1121, 122 werden dann in der Datenspeichereinheit 112 gespeichert und können dann nach Bedarf beim Verfahren zur Bestimmung zumindest der ersten Abmessung 1091 , 1092 und der zweiten Abmessung 1093 eines Objekts 108, 110 bereitgestellt werden, ohne, dass das Referenzelement 300 zusammen mit dem Objekt angeordnet und erfasst werden muss. Insbesondere kann das Kalibrierverfahren für unterschiedliche Erfassungsabstände 1051 , 1052 in zumindest einer der Beobachtungsrichtungen 1040, 1041, 1042 durchgeführt werden und somit mehrere abstandsabhängige Referenzabbildungsvorschriften für jede Beobachtungsrichtung ermittelt und in der Datenspeichereinheit 112 abgespeichert werden (siehe Fig. 7).
In Fig. 7 werden so eine erste abstandsabhängige Referenzabbildungsvorschrift 112T, eine zweite abstandsabhängige Referenzabbildungsvorschrift 1121“ und eine dritte abstandsabhängige Referenzabbildungsvorschrift 112T“ für die erste Beobachtungsrichtung 1041 ermittelt, wobei in diesem Ausführungsbeispiel die abstandsabhängigen Referenzabbildungsvorschriften 1121 ‘, 1121“, 112T“ auch als abstandsabhängige Referenzabbildungsvorschriften 1121“, 1121“, 112T“ der zweiten Beobachtungsrichtung 1042 verwendet werden. Jede abstandsabhängige Referenzabbildungsvorschrift 112T, 1121“, 112T“ ist einer von drei Abstandsklassen zugeordnet. Zudem wird eine voreingestellte Referenzabbildungsvorschrift 1120' ermittelt und in der Datenspeichereinheit 112 gespeichert 208. Insbesondere kann die voreingestellte Referenzabbildungsvorschrift 1120' mit einer der abstandsabhängigen Referenzabbildungsvorschriften 1121‘, 1121“, 112T“ übereinstimmen. Das Verfahren 200 ist hier zweistufig. In der ersten Stufe werden zunächst mittels der voreingestellte Referenzabbildungsvorschrift 1120' zumindest die erste Abmessung 1091 , 1092, als auch die zweite Abmessung 1093 bestimmt. Dann erfolgt ein Abgleich 209 der so ermittelten Abmessungen mit Grenzwerten, welche beispielsweise ebenfalls in der Datenspeichereinheit 112 gespeichert und durch diese bereitgestellt werden können:
• wenn die zweite Abmessung (1091 , 1092) größer oder gleich einer maximalen zweiten Abmessung ist, und/oder
• wenn die zweite Abmessung kleiner oder gleich einer minimalen zweiten Abmessung ist, wird eine korrigierte erste Abmessung bestimmt.
Allerdings ist keine dieser Bedingungen in diesem Ausführungsbeispiel erfüllt, sodass die erste Abmessung nicht korrigiert werden muss.
In diesem Ausführungsbeispiel ergibt der Abgleich 209 jedoch, dass
• die erste Abmessung größer oder gleich einer maximalen ersten Abmessung ist, oder
• die erste Abmessung kleiner oder gleich einer minimalen ersten Abmessung ist.
Daher wird in diesem Fall eine korrigierte zweite Abmessung 1093' bestimmt durch: o Bestimmen 210 des Erfassungsabstands unter Berücksichtigung der ersten Abmessung 1091, 1092, o Ermitteln 211 der korrigierten zweiten Abmessung 1093' des Objekts 108, 110 mittels der zu diesem bestimmten Erfassungsabstand zugehörigen abstandsabhängigen zweiten Referenzabbildungsvorschrift 1121“.
Die voreingestellte Referenzabbildungsvorschrift 1120' ist in diesem Ausführungsbeispiel für beide Beobachtungsrichtungen 1041, 1042 gleich, jedoch in einem hier nicht gezeigten Ausführungsbeispiel kann es zwei verschiedene, d. h. insbesondere für jede Beobachtungsrichtung eine eigene voreingestellte Referenzabbildungsvorschrift, geben. In einem solchen Ausführungsbeispiel würden dann für jede Beobachtungsrichtung 1040, 1041, 1042 abstandsabhängige Referenzabbildungsvorschriften 112T, 1121“, 1121 bestimmt werden. Alternativ können auch für eine Beobachtungsrichtung 1040, 1041 , 1042 abstandsabhängige Referenzabbildungsvorschriften 1121“, 1121“, 1121‘“ verwendet werden und für die andere Beobachtungsrichtung 1040, 1041 , 1042 immer die voreingestellte Referenzabbildungsvorschrift, wobei insbesondere für letztere Beobachtungsrichtung kein Abgleichen 209 und Bestimmen einer korrigierten Abmessung erfolgt 1093‘.
Fig. 8 zeigt ein Ablauf eines Verfahrens 400 zur Erfassung multipler Objektdatensätze zumindest eines Objekts 108, 110. Das Bestimmen der Abmessungen erfolgt in diesem Ausführungsbeispiel gemäß dem Ausführungsbeispiel aus Fig. 6 oder Fig. 7. Nach dem Bestimmen des Abmessungen 1091 , 1092, 1093 des Objekts werden die nachfolgenden Schritte ausgeführt:
• Auswahl 206 zumindest eines der Objektdatenerfassungselemente 1031, 1032, 1033, 1034, 1035, 1036, 1037 aufgrund seiner Erfassungseigenschaften unter Berücksichtigung der ersten Abmessung 1091, 1092 und der zweiten Abmessung 1093 des Objekts 108, 110, und
• Ansteuern 207 des ausgewählten Objektdatenerfassungselements 1031, 1032, 1033, 1034, 1035, 1036, 1037 zum Erfassen weiterer Objektdaten.
Somit kann die Hardware zur Erfassung der multiplen Objektdatensätze, beispielsweise aus weiteren Beobachtungsrichtungen, weiteren Erfassungswinkeln, etc., anhand der Größe des Objekts ausgewählt werden, um somit die Qualität, beispielsweise Schärfe der Bilddaten, zu verbessern.

Claims

Ansprüche
1. Verfahren (200) zur Bestimmung von mindestens einer ersten Abmessung (10901, 10902) und einer zweiten Abmessung (10903) eines Objekts (108, 110), umfassend die nachfolgenden Schritte:
• Bereitstellen (201) des Objekts (108, 110) auf einer Objektträgereinheit (102),
• Bereitstellen einer ersten Referenzabbildungsvorschrift (1121) und einer zweiten Referenzabbildungsvorschrift (1122) durch eine Datenspeichereinheit (112),
• Erfassen (202) erster Objektdaten des Objekts (108, 110) aus einer ersten Beobachtungsrichtung (1041), wobei die ersten Objektdaten eine erste zweidimensionale Repräsentation des Objekts (108, 110), welche von der ersten Beobachtungsrichtung abhängt, umfassen,
• Erfassen (203) zweiter Objektdaten des Objekts (108, 110) aus einer zweiten Beobachtungsrichtung (1042), o wobei die zweiten Objektdaten eine zweite zweidimensionale Repräsentation des Objekts, welche von der zweiten Beobachtungsrichtung abhängt, umfassen, und o wobei die erste Beobachtungsrichtung und die zweite Beobachtungsrichtung in wenigstens einem vorgegebenen Maß voneinander abweichen,
• Ermitteln (204) zumindest der ersten Abmessung (10901, 10902) des Objekts (108, 110) aus einer die erste Abmessung (10901 , 10902) repräsentierenden Dimension der ersten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der ersten zweidimensionalen Repräsentation auf die erste Abmessung (10901, 10902) mittels der ersten Referenzabbildungsvorschrift (1121), und
• Ermitteln (205) zumindest der zweiten Abmessung (10903) des Objekts 108, 110) aus einer die zweite Abmessung (10903) repräsentierenden Dimension der zweiten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der zweiten zweidimensionalen Repräsentation auf die zweite Abmessung (10903) mittels der zweiten Referenzabbildungsvorschrift (1122).
2. Verfahren (200) nach Anspruch 1, wobei die erste Beobachtungsrichtung (1040, 1041) oder die zweite Beobachtungsrichtung (1040, 1042) orthogonal zur Objektträgereinheit (102) ist, und wobei die jeweils andere Beobachtungsrichtung (1040, 1041, 1042) einen Erfassungswinkel (106) von 3°, 5° oder einen Wert zwischen 3° und 5° zur Objektträgereinheit (102), insbesondere zu einer Ebene, in der die Objektträgereinheit (102) angeordnet ist, aufweist.
3. Verfahren (200), insbesondere nach einem der vorhergehenden Ansprüche, wobei die erste Referenzabbildungsvorschrift (1121) durch ein Kalibrierverfahren (400) festgelegt ist, wobei das Kalibrierverfahren (400) die nachfolgenden Schritte umfasst:
• Bereitstellen eines Referenzelements (300), wobei zumindest die erste Abmessung des Referenzelements (300) bekannt ist,
• Erfassen von ersten Kalibrier-Objektdaten des Referenzelements (300) aus der ersten Beobachtungsrichtung (1040, 1041), wobei die ersten Kalibrier-Objektdaten eine erste zweidimensionale Repräsentation des Referenzelements (300), welche von der ersten Beobachtungsrichtung (1040, 1041) abhängt, umfassen,
• Bestimmen der ersten Referenzabbildungsvorschrift (1121), derart, dass diese eine, die erste Abmessung (10901, 10902) repräsentierende Dimension der ersten zweidimensionalen Repräsentation des Referenzelements (300) auf die bekannte erste Abmessung (10901 , 10902) des Referenzelements (300) abbildet,
• Speichern der ersten Referenzabbildungsvorschrift (1121) in der Datenspeichereinheit (112).
4. Verfahren (200) nach Anspruch 3, wobei beim Bereitstellen der Referenzabbildungsvorschriften (1121, 1122) sowohl für die erste Referenzabbildungsvorschrift (1121) als auch für die zweite Referenzabbildungsvorschrift (1122) die durch das Kalibrierverfahren bestimmte erste Referenzabbildungsvorschrift (1122) verwendet wird.
5. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei die zweite Referenzabbildungsvorschrift durch ein Kalibrierverfahren (400) festgelegt ist, wobei das Kalibrierverfahren die nachfolgenden Schritte umfasst:
• Bereitstellen eines Referenzelements (300), wobei zumindest die zweite Abmessung (10903) des Referenzelements (300) bekannt ist,
• Erfassen von zweiten Kalibrier-Objektdaten des Referenzelements (300) aus der zweiten Beobachtungsrichtung (1040, 1042), wobei die zweiten Kalibrier-Objektdaten eine zweite zweidimensionale Repräsentation des Referenzelements (300), welche von der zweiten Beobachtungsrichtung (1040, 1042) abhängt, umfassen,
• Bestimmen der zweiten Referenzabbildungsvorschrift (1122), derart, dass diese eine die zweite Abmessung (10903) repräsentierende Dimension der zweiten zweidimensionalen Repräsentation des Referenzelements (3009 auf die bekannte zweite Abmessung (10903) des Referenzelements (300) abbildet,
• Speichern der zweiten Referenzabbildungsvorschrift (1122) in der Datenspeichereinheit (112).
6. Verfahren (200) nach einem der Ansprüche 3 oder 5, wobei das Erfassen der jeweiligen Kalibrier-Objektdaten zumindest folgende Schritte umfasst:
• ein Einstellen eines ersten Erfassungsabstands (1051 , 1052) bei dem die jeweiligen Kalibrier-Objektdaten erfasst werden,
• ein Erfassen von ersten abstandsabhängigen Kalibrier-Objektdaten,
• ein Einstellen eines zweiten Erfassungsabstands (1051 , 1052) bei dem die jeweiligen Kalibrier-Objektdaten erfasst werden,
• ein Erfassen von zweiten abstandsabhängigen Kalibrier-Objektdaten, wobei unter Verwendung der ersten abstandsabhängigen Kalibrier-Objektdaten und der zweiten abstandsabhängigen Kalibrier-Objektdaten jeweils eine abstandsabhängige Referenzabbildungsvorschrift (1121 ‘, 1121“, 1121 “‘) bestimmt wird und beim Speichern zu der jeweiligen abstandsabhängigen Referenzabbildungsvorschrift (112 T, 1121“, 1121‘“) in der Datenspeichereinheit der Erfassungsabstand (1051, 1052) und/oder eine Abstandsklasse abgespeichert wird.
7. Verfahren (200) nach Anspruch 6, wobei das Verfahren die nachfolgenden Schritte umfasst:
• Ermitteln einer korrigierten ersten Abmessung, wenn: o die zweite Abmessung (1091, 1092) größer oder gleich einer maximalen zweiten Abmessung ist, und/oder o die zweite Abmessung kleiner oder gleich einer minimalen zweiten Abmessung ist, durch: o Bestimmen des Erfassungsabstands unter Berücksichtigung der zweiten Abmessung, o Ermitteln der korrigierten ersten Abmessung des Objekts mittels der zu diesem bestimmten Erfassungsabstand zugehörigen abstandsabhängigen ersten Referenzabbildungsvorschrift, und/oder
• Ermitteln (211) einer korrigierten zweiten Abmessung (1093‘), o wenn die erste Abmessung (1091 , 1092) größer oder gleich einer maximalen ersten Abmessung ist, und/oder o wenn die erste Abmessung (1091 , 1092) kleiner oder gleich einer minimalen ersten Abmessung ist, durch: o Bestimmen (210) des Erfassungsabstands unter Berücksichtigung der ersten Abmessung (1091, 1092), o Ermitteln (211) der korrigierten zweiten Abmessung (1093‘) des Objekts (108, 110) mittels der zu diesem bestimmten Erfassungsabstand zugehörigen abstandsabhängigen zweiten Referenzabbildungsvorschrift (112 T, 1121“, 1121‘“).
8. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei ein Anzeigen einer überlagerten Darstellung der erfassten Objektdaten und der zugehörigen zweidimensionalen Repräsentation erfolgt und ein Anpassen (1011) der zweidimensionalen Repräsentation, insbesondere durch Verschieben und/oder Markierung von Begrenzungskanten und/oder Eckpunkten, erfolgt und anhand dieser angepassten zweidimensionalen Repräsentation das Ermitteln der Abmessungen (1091 , 1092, 1093) erfolgt.
9. Verfahren (200) nach einem der vorherigen Ansprüche, wobei das Verfahren (200) einen weiteren Schritt: Ermitteln zumindest einer dritten Abmessung (1091 , 1092, 1093) des Objekts (108, 110) aus einer die dritte Abmessung (1091 , 1092, 1093) repräsentierenden Dimension der ersten und/oder zweiten zweidimensionalen Repräsentation des Objekts (108, 110), aus der ersten und/oder zweiten zweidimensionalen Repräsentation des Objekts (108, 110), durch Abbildung dieser Dimension der jeweiligen zweidimensionalen Repräsentation auf die dritte Abmessung mittels der zugehörigen Referenzabbildungsvorschrift (1121 , 1122).
10. Verfahren (200) nach einem der vorherigen Ansprüche, wobei das Referenzelement (300) mindestens einen Quadratmarker, der insbesondere einen schwarzen Rand und eine Binärmatrix, die durch den Rand zumindest teilweise begrenzt wird, umfasst und wobei zumindest eine der Abmessungen des Quadratmarkers bekannt ist.
11 . Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei die jeweilige zweidimensionale Repräsentation des Objekts (108, 110) einen Hüllkörper (109) umfasst.
12. Erfassungsvorrichtung (100), insbesondere zu einer zumindest teilautomatisierten Erfassung von multiplen Objektdatensätzen zumindest eines Objekts (108, 110), zur Bestimmung von zumindest einer ersten Abmessung (1091 , 1092) und einer zweiten Abmessung (1093) des Objekts (108, 110), umfassend:
• eine Objektträgereinheit (102) zum Bereitstellen des Objekts (108, 110),
• eine Objektdatenerfassungseinheit (103) zur Erfassung von ersten Objektdaten des Objekts (108, 110) aus einer ersten Beobachtungsrichtung (1040, 1041) und zur Erfassung von zweiten Objektdaten des Objekts (108, 110) aus einer zweiten Beobachtungsrichtung (1040, 1042), o wobei die ersten Objektdaten eine erste zweidimensionale Repräsentation des Objekts (108, 110), welche von der ersten Beobachtungsrichtung (1040, 1041) abhängt, umfassen, o wobei die zweiten Objektdaten eine zweite zweidimensionale Repräsentation des Objekts, welche von der zweiten Beobachtungsrichtung (1040, 1042) abhängt, umfassen, o wobei die erste Beobachtungsrichtung (1040, 1041) und die zweite Beobachtungsrichtung (1040, 1042) voneinander abweichen,
• eine Datenspeichereinheit (112) zur Bereitstellung von zumindest einer Referenzabbildungsvorschrift (1121) für eine Bestimmung von zumindest der ersten Abmessung (1091, 1092) und der zweiten Abmessung (1093) des Objekts (108, 110),
• eine Auswerteeinheit o zum Ermitteln zumindest der ersten Abmessung (1091 , 1092) des Objekts (108, 110) aus einer die erste Abmessung (1091, 1092) repräsentierenden Dimension der ersten zweidimensionalen Repräsentation des Objekts (108, 110), durch Abbildung dieser Dimension der ersten zweidimensionalen Repräsentation auf die erste Abmessung (1091 , 1092) mittels der ersten Referenzabbildungsvorschrift (1121) und o zum Ermitteln zumindest der zweiten Abmessung (1093) des Objekts (108, 110) aus einer die zweite Abmessung (1093) repräsentierenden Dimension der zweiten zweidimensionalen Repräsentation des Objekts, durch Abbildung dieser Dimension der zweiten zweidimensionalen Repräsentation auf die zweite Abmessung (1093) mittels der zweiten Referenzabbildungsvorschrift (1122).
13. Erfassungsvorrichtung (100) nach Anspruch 12,
• wobei die Objektdatenerfassungseinheit (103) zumindest ein erstes Objektdatenerfassungselement (1031, 1032) zur Erfassung der ersten Objektdaten des Objekts (108, 110) aus der ersten Beobachtungsrichtung (1040, 1041) und ein zweites Objektdatenerfassungselement (1037) zur Erfassung der zweiten Objektdaten des Objekts aus der zweiten Beobachtungsrichtung (1040, 1042) umfasst, oder
• wobei die Objektdatenerfassungseinheit (103) zumindest ein Objektdatenerfassungselement umfasst, welches dazu eingerichtet ist, sowohl Objektdaten aus der ersten Beobachtungsrichtung (1040, 1041) als auch aus der zweiten Beobachtungsrichtung (1040, 1042) zu erfassen.
14. Erfassungsvorrichtung (100) nach einem der Ansprüche 12 oder 13, wobei die Auswerteeinheit
• zur Auswahl (206) zumindest eines der Objektdatenerfassungselemente (1031, 1032, 1033, 1034, 1035, 1036, 1037) aufgrund seiner Erfassungseigenschaften unter Berücksichtigung der ersten Abmessung (1091, 1092) und der zweiten Abmessung (1093) des Objekts (108, 110), und
• zum Ansteuern (207) des ausgewählten Objektdatenerfassungselements (1031, 1032, 1033, 1034, 1035, 1036, 1037) zum Erfassen weiterer Objektdaten, eingerichtet ist.
15. Verfahren (400) zum Erfassen von multiplen Objektdatensätzen zumindest eines Objekts, mit einer Erfassungsvorrichtung (100), insbesondere nach einem der Ansprüche 12 bis 14, zu einer zumindest teilautomatisierten Erfassung von multiplen Objektdatensätzen zumindest eines Objekts (108, 110), wobei die Erfassungsvorrichtung (100) mehrere Objektdatenerfassungselemente (1031, 1032, 1033, 1034, 1035, 1036, 1037), welche zumindest teilweise voneinander abweichende Erfassungseigenschaften aufweisen, zum Erfassen von Objektdaten umfasst, wobei das Verfahren (400) die nachfolgenden Schritte umfasst:
• Bestimmen von mindestens einer ersten Abmessung (1091 , 1092) und einer zweiten Abmessung (1093) des Objekts (108, 110), insbesondere gemäß einem der Verfahren (200) nach einem der Ansprüche 1 bis 11 , • Auswahl (206) zumindest eines der Objektdatenerfassungselemente (1031, 1032, 1033, 1034, 1035, 1036, 1037) aufgrund seiner Erfassungseigenschaften unter Berücksichtigung der ersten Abmessung (1091 , 1092) und der zweiten Abmessung (1093) des Objekts (108, 110), und
• Ansteuern (207) des ausgewählten Objektdatenerfassungselements (1031, 1032, 1033, 1034, 1035, 1036, 1037) zum Erfassen weiterer Objektdaten.
16. Steuergerät, das eingerichtet ist, um die Schritte des Verfahrens (200, 400) gemäß einem der Ansprüche 1 bis 11 oder 15 in entsprechenden Einheiten auszuführen und/oder anzusteuern.
17. Computerprogramm, das dazu eingerichtet ist, die Schritte des Verfahrens (200, 400) gemäß einem der Ansprüche 1 bis 11 oder 15 auszuführen und/oder anzusteuern.
18. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 17 gespeichert ist.
PCT/EP2023/085635 2022-12-23 2023-12-13 Verfahren zur bestimmung von mindestens einer ersten abmessung und einer zweiten abmessung eines objekts, erfassungsvorrichtung, verfahren zum erfassen von multiplen objektdatensätzen zumindest eines objekts WO2024132790A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022214390.6 2022-12-23
DE102022214390.6A DE102022214390A1 (de) 2022-12-23 2022-12-23 Verfahren zur Bestimmung von mindestens einer ersten Abmessung und einer zweiten Abmessung eines Objekts, Erfassungsvorrichtung, Verfahren zum Erfassen von multiplen Objektdatensätzen zumindest eines Objekts

Publications (1)

Publication Number Publication Date
WO2024132790A1 true WO2024132790A1 (de) 2024-06-27

Family

ID=89428632

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/085635 WO2024132790A1 (de) 2022-12-23 2023-12-13 Verfahren zur bestimmung von mindestens einer ersten abmessung und einer zweiten abmessung eines objekts, erfassungsvorrichtung, verfahren zum erfassen von multiplen objektdatensätzen zumindest eines objekts

Country Status (2)

Country Link
DE (1) DE102022214390A1 (de)
WO (1) WO2024132790A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277187B2 (en) * 2001-06-29 2007-10-02 Quantronix, Inc. Overhead dimensioning system and method
US20210197233A1 (en) * 2017-10-27 2021-07-01 Robert Bosch Gmbh Acquisition device and method for acquiring sets of multiple object data of at least one object
DE102020207661A1 (de) * 2020-06-22 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Erfassungsvorrichtung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277187B2 (en) * 2001-06-29 2007-10-02 Quantronix, Inc. Overhead dimensioning system and method
US20210197233A1 (en) * 2017-10-27 2021-07-01 Robert Bosch Gmbh Acquisition device and method for acquiring sets of multiple object data of at least one object
DE102020207661A1 (de) * 2020-06-22 2021-12-23 Robert Bosch Gesellschaft mit beschränkter Haftung Erfassungsvorrichtung

Also Published As

Publication number Publication date
DE102022214390A1 (de) 2024-07-04

Similar Documents

Publication Publication Date Title
DE69826753T2 (de) Optischer Profilsensor
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102009046295A1 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE102020101191B4 (de) Mikroskop und Verfahren zum Ermitteln eines Messortes eines Mikroskops
DE102014016069A1 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE602004001500T2 (de) Apparat für dreidimensionale Messungen
DE102008041523A1 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102009023896A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
DE69819027T2 (de) 3D Inspektion elektronischer Pins mit einem optischen Element, welches auf der Oberseite einer transparenten Markenplatte angeordnet ist
DE102012211462A1 (de) Verfahren zur Vorbereitung und Durchführung der Aufnahme von Bildstapeln einer Probe aus verschiedenen Orientierungswinkeln
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE102004047928A1 (de) Optisches 3D-Messverfahren
DE102016107900A1 (de) Verfahren und Vorrichtung zur Kantenermittlung eines Messobjekts in der optischen Messtechnik
DE102014006717A1 (de) Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens
EP1022541A2 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE102020131808A1 (de) Vorrichtung zur Unterstützung von Kalibrierungsvorgängen bei Industriekameras
DE102004058655B4 (de) Verfahren und Anordnung zum Messen von Geometrien eines Objektes mittels eines Koordinatenmessgerätes
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
WO2024132790A1 (de) Verfahren zur bestimmung von mindestens einer ersten abmessung und einer zweiten abmessung eines objekts, erfassungsvorrichtung, verfahren zum erfassen von multiplen objektdatensätzen zumindest eines objekts
DE112015006181T5 (de) Ladungsträgerstrahlvorrichtung, Ausrichtungsverfahren für die L.adungsträgerstrahlvorrichtung, Ausrichtungsprogramm und Speichermedium
EP4067809A2 (de) Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
EP3889890A1 (de) Verfahren zur messobjekterkennung auf basis von bilddaten