EP4232846A1 - Verfahren zur positionsbestimmung in der prozessautomatisierung - Google Patents

Verfahren zur positionsbestimmung in der prozessautomatisierung

Info

Publication number
EP4232846A1
EP4232846A1 EP20797726.5A EP20797726A EP4232846A1 EP 4232846 A1 EP4232846 A1 EP 4232846A1 EP 20797726 A EP20797726 A EP 20797726A EP 4232846 A1 EP4232846 A1 EP 4232846A1
Authority
EP
European Patent Office
Prior art keywords
sensor
coordinate system
inclination
axis
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20797726.5A
Other languages
English (en)
French (fr)
Inventor
Roland Welle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vega Grieshaber KG
Original Assignee
Vega Grieshaber KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vega Grieshaber KG filed Critical Vega Grieshaber KG
Publication of EP4232846A1 publication Critical patent/EP4232846A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications

Definitions

  • the invention relates to a method for determining a position of an object by a sensor, a computing unit, a sensor, a system having a computing unit and a sensor, and the use of the computing unit in a system of process automation, factory automation or in a multi-sensor environment with a plurality on location-variable sensors.
  • Two-dimensional or three-dimensional measuring radar systems Monitoring of areas in security or automation technology can be globalized with the help of two-dimensional or three-dimensional measuring radar systems.
  • line-scanning, two-dimensional radar systems for conveyor belts are known for detecting the quantities of bulk material transported on them.
  • the systems mentioned above have in common that the position of objects in the surveillance area is determined in relation to their distance and in relation to their angular position relative to the sensor itself, which is also sufficient for a large number of problems.
  • three-dimensional measuring systems are known, in particular for level measurement technology.
  • a layer of bulk material in a container or on an open stockpile of bulk material is subjected to radar signals, and a topology of the surface of the bulk material is calculated from the reflection of the same on the medium, from which the volume of the bulk material and, if the density is known, also the The mass of the bulk material can be determined with high accuracy.
  • Process automation or factory automation sensors determine distances and angular positions in relation to the respective position of the
  • CGS:OLB respective sensor For example, a radar sensor determines the distance to the product as the distance between a reference point (zero point) in the sensor and the surface of the product. In addition to the distance values, sensors for process and factory automation also determine angle values between the sensor and a respective reflector. These angle values are also specified in relation to an existing plane or marking on the sensor itself (“sensor reference plane”).
  • sensor reference plane A disadvantage of the previous methods is that a service employee does not know the position or location of the filling material or an object from the outside.
  • the described embodiments relate similarly to the method for determining a position of an object by a sensor, the computing unit, the sensor, the system having a computing unit and a sensor and the use of the computing unit in a system of process automation or factory automation or in a multi-sensor environment with a plurality of location-variable sensors.
  • a method for determining a position of an object by a sensor is provided.
  • the method comprises the following steps: determining a local sensor coordinate system, determining a global target coordinate system, determining transformation parameters for transforming coordinates in the local sensor coordinate system to coordinates in the global target coordinate system, capturing the position of the object in local coordinates, and transforming the position of the object to coordinates in the global target coordinate system.
  • a method is thus proposed in which, for example, a multi-dimensional measuring sensor such as a radar sensor detects the direction of and the distance from an object and the position in a global coordinate system is specified.
  • a service employee therefore does not need to have any knowledge of the orientation of the sensor in order to know where the object is located.
  • a sensor is known to those skilled in the art of process automation, for example.
  • a sensor can have, for example, an antenna, a detector for a measured variable, electronics for amplifying, processing and possibly digitizing a detected signal, a power supply unit, an external interface, and an energy store.
  • the listed components are only to be understood as examples.
  • the sensor is usually installed in a housing. Other units can also be integrated into the sensor, such as other sensors. To differentiate from these other sensors, e.g.
  • Accelerometer sensors mentioned in this disclosure will be referred to as “auxiliary sensors”.
  • An "object” is, for example, an unwanted accumulation of matter on the wall of a container or, for example, bulk material for which the distribution in a container is to be determined and observed. Since, from the point of view of a radar sensor, for example, the radar waves are reflected on the object, the term "reflection point" for an object, or more precisely the position of the object, is often used in the examples in this disclosure. Furthermore, an object is also to be understood as e.g.
  • position generally refers to complete coordinates, while the term “position” generally describes a direction or orientation, which can be an orientation of the object or a position in space with respect to the sensor orientation, depending on the context can.
  • a position of an object can be determined, for example, in a spherical coordinate system by adding a distance to the position information relating to this system.
  • the term “local” refers to the sensor.
  • a defining component of the global coordinate system is the gravitational direction. Therefore, if the origin of the coordinate system is not the intersection of different gravitational directions, for example a geocentric coordinate system, the geographical extent of the area should be limited to the extent that the gravitational direction can still be considered “same” to fulfill the object of the invention. Otherwise, for example, a globally valid geodetic coordinate system can be used as the global coordinate system.
  • the direction is initially related to a local sensor coordinate system, which is described in more detail in the following embodiments.
  • the local sensor coordinate system is not always known to a service technician, for example. For example, if the technician were to be informed of the position in the local coordinate system, it would also have to be ensured that this would not change, for example due to movement, until the technician arrived. Especially in a system with a large number of sensors, the technician would still have to reorient himself for each sensor.
  • the technician By remotely transmitting the coordinates of an object in the global target coordinate system, the technician can already see the position of the object in a graphic representation, e.g be given, as well as displayed on site. This makes the service much easier, faster and less error-prone and therefore more economical.
  • the evaluation of the transmitted coordinates in a uniform system is uncomplicated.
  • the target coordinate system is not necessarily the final coordinate system. Rather, the object coordinates can continue to be transformed into one or more other coordinate systems.
  • the local coordinate system is a spherical coordinate system or a Cartesian coordinate system
  • the step Establishing a local coordinate system involves defining a sensor plane as the equatorial or xy plane, a center point of the sensor plane as the origin of the coordinate system, and a reference point on the outside of the sensor plane as the reference direction or direction of one of the axes in the sensor plane from the origin towards the reference point.
  • the local sensor coordinate system is therefore, for example, a spherical coordinate system whose polar axis is the main direction, e.g. the central emission and reception direction of the antenna of the radar sensor.
  • the polar axis is perpendicular to the lower side or surface of the sensor.
  • the lower side or surface is, for example, parallel to the surface of a container on which the sensor is mounted.
  • This surface also referred to as the sensor plane in this disclosure, can serve as the equatorial plane.
  • the origin or center of the coordinate system is, for example, the center point of the sensor plane that is limited to the extent of the sensor.
  • a reference direction for the azimuth can be e.g. by a marking or by the exit point of a cable at or into the sensor plane.
  • the azimuth reference direction would correspond, for example, to the x-axis and the pole direction to the z-axis, and the y-direction results accordingly.
  • the basic sensor coordinate system is advantageously chosen according to the characteristics of the sensor. If the sensor is a radar sensor, for example, which measures distances and directions, a spherical coordinate system is preferably used. Since, from the point of view of a person skilled in the art, the transformation from the local spherical coordinate system into the corresponding Cartesian system is trivial and a distinction is not necessary for the further procedure, the specific naming of both coordinate systems is largely dispensed with in the following. In the case of information such as elevation, azimuth and distance, in the case of these corresponding local coordinate systems, the person skilled in the art also reads the Cartesian correspondences such as slope in the x and y direction and/or xyz coordinates.
  • the step of detecting the position of the object in local coordinates includes determining an elevation and an azimuth with respect to a reference direction of the local sensor coordinate system. Elevation is the tilt relative to the equatorial plane of the sensor's spherical coordinate system, while azimuth is the twist from the reference direction.
  • the distance is also necessary to determine the position. The distance is measured by the sensor itself, and is therefore readily determinable. If the local sensor coordinate system and the global target coordinate system have the same origin, the distance remains the same, so that no translation has to be carried out.
  • the spherical coordinates are advantageously first converted into Cartesian coordinates of a local Cartesian coordinate system.
  • the target global coordinate system is a Cartesian coordinate system having an orientation of one of its axes in a cardinal direction and an orientation of another of its axes in the direction of gravity, or a geodetic coordinate system.
  • a preferred direction is, for example, south or north. Choosing the direction of gravity as one of the axes allows the use of sensors whose measuring principle is based on gravity, as well as other methods described below.
  • a geodetic coordinate system such as WGS84 has the advantage that it is not locally constrained and that some satellite navigation systems use this system. However, the conversion is comparatively complex.
  • the plane determined by the direction of gravity as normal lies at a container-related height.
  • the gravitational direction defines a family of planes as a normal vector. From this, a plane is selected which is at a suitably selected height of the container, for example at or near the bottom of the container.
  • a transformation parameter is an inclination about a first axis of the local coordinate system, an inclination about a second axis of the local coordinate system and/or a twist angle, which indicates the twist in the sensor plane compared to a reference direction, and the inclination about the first axis, and/or tilt about a second axis is obtained by one or more of the following methods:
  • a first method involves detecting tilt about the first and/or second axis by a protractor or by measuring tilt about the first and/or second axis
  • a second method involves detecting inclination about the first and/or second axis by an inclination and/or acceleration sensor in the sensor.
  • a third method includes detecting a falling direction of bulk material during a filling process as the gravitational direction by the sensor and determining the inclination about the first and/or second axis based on the gravitational direction.
  • a fourth method involves acquiring a direction of planar surfaces of a container wall as the direction of gravity and determining the inclination about the first and/or second axis based on the direction of gravity.
  • a planar surface is meant here, for example, a vertical wall of a right-angled, for example, or else a cylindrical container. If the local coordinate system is a spherical coordinate system, as already described, the transformation can transform in an intermediate step into a local Cartesian coordinate system and from there into the Cartesian target coordinate system.
  • Tilt about the first and/or second axis of this embodiment relates to the relationship between the local sensor system and the global coordinate system to determine the value of two tilt transformation parameters, e.g. the tilt of the pole direction versus the gravitational direction.
  • a reference direction for the angle of rotation can also be here, for example, by a marking or by the exit point of a cable on or in the sensor plane.
  • the position of the sensor or the local coordinate system is related to the global coordinate system.
  • the position of the sensor can be determined by additional sensors in the sensor, which can detect the inclination to the direction of gravity, or by additional sensors that are located in an additional external device, such as a smartphone, if the additional external device is aligned according to the alignment or pole direction of the sensor or .Local sensor spherical coordinate system is tilted.
  • the inclination about the first and/or second axis can also be determined optically, for example by means of the direction of fall of a medium such as bulk material.
  • a further transformation parameter is a twist angle
  • at least one of the transformation parameters inclination about the first axis, inclination about the second axis or twist angle is obtained by one or more of the following methods:
  • a first method an image of the sensor and a Marking of the sensor is detected with a smartphone or a smartphone camera and based on this the reference direction of the local coordinate system is determined, as well as a compass direction is determined by measuring the earth's magnetic field with a smartphone compass, and finally the twist angle is determined based on the compass direction and the reference direction.
  • the smartphone has an additional sensor that can measure an inclination with respect to a gravitational direction, and an additional sensor that can measure a twisting angle.
  • this additional sensor e.g. a gyroscope
  • the smartphone does not have to be actively rotated here, but can contain functions that automatically determine, for example, the offset to the south pole direction compared to the current orientation.
  • Another method is to capture the shape of the container by scanning the container and determining the inclination about the first axis and the second axis, respectively, using a layout plan that shows the container orientation and shape.
  • the external, i.e. global reference is thus obtained through an investment plan.
  • the investment plan can be stored in a database or memory, for example, so that access and use can be automated.
  • either the twisting angle alone or both the twisting angle and the inclination about the first and/or second axis are determined.
  • a magnetic alignment for example, can be optically compared or measured using a compass needle, for example, with the line from the origin to a marking or a prominent point, i.e. the reference direction.
  • an additional sensor in the sensor is one or more of the following: a compass, a satellite navigation receiver, an acceleration sensor, a celestial observation unit having at least one optical, one date and one time acquisition unit.
  • a global orientation can also be determined by an antenna arrangement of a GPS receiver or by an acceleration sensor.
  • Another possible method is based on celestial observation units. For example, a position of the sun can be determined. For example, the position of the sun at sunset on a specific day and time can be calculated, from which a simple difference to the reference direction of the local spherical coordinate system results in the twist angle.
  • the coordinates in the target coordinate system are further transformed into a user-defined coordinate system by user-defined translation parameters.
  • the axes have the same orientation, but the origin is placed at a point such as the midpoint of the bottom plane of a container.
  • the user-defined coordinate system can thus be another sensor-specific coordinate system with the orientation of a global coordinate system.
  • a service employee can thus immediately identify the container with container information or a sensor ID, as well as the position of the container detect objects. In this case, he does not have to determine the container or the sensor using global coordinates, for example using a plan.
  • the origin of the user-defined coordinate system is on a floor, e.g., at the center of the floor plane, of a container.
  • the origin can also be defined at a corner point or a point at the top.
  • Another suitable point would be the origin of the local coordinate system. This would then correspond to a translation of 0 if the origin of the target coordinate system was not set at a different point in space.
  • the target coordinate system and the user-defined coordinate system are the same.
  • the method also has the step of transmitting the coordinates of the object in the target coordinate system or in the user-defined coordinate system to a data acquisition unit via an interface.
  • the coordinates can be stored locally and transmitted to a smartphone, tablet or service device on site, for example via NFC (Near Field Communication). However, they can also be transmitted to a server, an evaluation unit or to a cloud via a wired or wireless connection via a fieldbus, an Ethernet/Internet connection or a mobile radio connection.
  • NFC Near Field Communication
  • measured, determined and/or configured values, parameters and data such as transformation parameters, image data, GPS data, radar sensor measurement data, geometric data of the system, the containers, etc. can be sent to a server, an evaluation unit or to the cloud. so that the steps can be carried out partially or completely in the sensor, in the server, in an evaluation unit and/or a service in the cloud.
  • Corresponding wireless or wired transmission paths, in particular of process automation, and the corresponding interfaces are known to the person skilled in the art and are not explained further here.
  • a computing unit which has a program element which instructs the computing unit to carry out the steps of the method.
  • the processing unit can be arranged, for example, in a server, in an evaluation unit and/or as a service in the cloud. That is, the Arithmetic unit can also be a logical unit that is physically distributed over a number of units, eg different hardware units.
  • a sensor which has such a computing unit.
  • the sensor is, for example, a radar sensor, a laser sensor, an ultrasonic sensor, or a comparable sensor that can be used to measure distances and directions.
  • Sensor can also be understood here as an ensemble of sensors that interact with one another like such a sensor. In this case, for example, one of the ensemble sensors can serve as the sensor to which the local coordinate system is related.
  • a system which has a computing unit and a sensor for determining a position of an object in a local coordinate system.
  • the sensor can also be an ensemble of sensors.
  • the processing unit can be a processing unit as described, which transforms the determined position or coordinates in the local coordinate system into coordinates of a global or user-defined coordinate system.
  • a multi-dimensional measuring radar system which provides at least two spatial coordinates that characterize a reflection point.
  • the spatial coordinates are in a fixed relationship to fixed points that can be specified globally and/or by the user.
  • arithmetic unit in a system of process automation, factory automation or in a multi-sensor environment with a plurality of location-variable sensors is provided.
  • the system and method described thus makes it possible for a multi-dimensional radar system to provide the position of a large number of reflection points to the outside.
  • a data set describing several reflection points can be efficiently transmitted and applied to a remote device, for example a control room or a cloud, by wire or wirelessly. So that this transmitted data from a large number of measuring points can be displayed, evaluated and correctly interpreted in a uniform form, the position of the transmitted reflection points in relation to one of the mounting position of the sensors is provided to set an independent, globally determinable reference position and/or to refer to it.
  • FIG. 1 shows a sketch of a system with a container and a one-dimensional measuring sensor in a 2D coordinate system
  • FIG. 2 shows a sketch of a system with a container and a multi-dimensional measuring sensor in 3D coordinate systems according to an embodiment
  • FIG. 5 is a block diagram of a system according to an embodiment.
  • the sensor 101 uses a transit time method in particular to determine the distance d1 105 between its sensor reference surface 102 or its internal zero point 102 and the surface 103 of the medium 104 to be measured.
  • the determined measured value d1 105 is independent of any assembly 106 that may have been rotated of the sensor.
  • it can also be established that the measurement is independent of the mounting angle of rotation 106 of the sensor.
  • a user has the option of adapting the sensor reference point 102 in an application-specific manner by specifying constant correction terms.
  • the user has the option of Measuring device 101 output measured values in relation to a freely selected reference point 108, which often coincides with the height of the container bottom 109.
  • the sensor 101 can continuously provide the level I 111 or, to put it another way, the height of the surface 103 of the medium 104 in relation to the reference height B 108 as a derived value as a measured value.
  • a tilting of the sensor 101 and here in particular a tilting of the sensor reference plane 102 can be determined automatically by a position sensor integrated in the sensor, and using trigonometric functions the orthogonal distance between the surface 103 and the sensor 101 can be determined automatically from the determined oblique distance.
  • a twisting 106 of the sensor 101 along its axial direction has no effect on the measured value, even if it is installed at an angle, and is consequently also not evaluated.
  • Fig. 2 shows an example of a multi-dimensional measuring device or sensor 201, here a three-dimensional radar sensor 201 for detecting the topology of a bulk material surface 202.
  • the sensor is also designed in an example to provide the position of individual reflection points 203 in the container 204 to the outside .
  • the multi-dimensionally measuring radar sensor 201 has a sensor reference surface 205 or an internal zero point 205, from which the distance values d 206 to various reflectors 202, 203 in the detection range of the sensor 201 are determined.
  • the position of a reflection point 202, 203 is also characterized by the first angle deviation phi 207 in relation to the surface normal of a plane E, which is defined by the sensor reference surface 205, for example a fastening flange.
  • the 0° direction of the first angular position 207 is defined perpendicular to the reference surface 205 .
  • other directions of origin can also be selected.
  • the second angular offset theta which is perpendicular to the first offset angle phi 207, is usually determined parallel to the plane E 205 inclined by phi, and characterizes the position of a reflector 202, 203 in conjunction with the other coordinates by the Specification of the spherical coordinates, which have their origin in the center of the sensor reference plane 205.
  • the pole or spherical coordinates determined are converted into Cartesian sensor coordinates 210 in a standard processing step, as a result of which the position of individual reflectors 202, 203 in relation to the sensor 201 is clearly defined.
  • a next, progressive method step provision can be made for the position of individual reflectors 203 to be converted in relation to a coordinate system 213 that can be specified by the respective user.
  • the coordinate system 213 can be largely freely selected by the user.
  • the alignment of the axes XR, YR, ZR, 214, 215, 216 corresponds to the directions of our usual, global sensory perception, i.e. the plane spanned by the axes XR 214 and YR 215 corresponds to a horizontal plane, and the ZR Axis 216 runs as a surface normal to the horizontal plane along the direction of gravity.
  • a point defined in the vicinity of the container 204 or in the center of the container 204 is often used as the origin 217 of the coordinate system, the height of which corresponds to the height of the filling material surface of an almost completely emptied container (cf. also the analogy to FIG. 1).
  • the inclination of the reference plane 205 is measured using a measuring device, for example a protractor or a smartphone, after installation has taken place measured and made known to the sensor 201 via an interface.
  • a measuring device for example a protractor or a smartphone
  • Provision can also be made for detecting the perpendicular while the sensor 201 is being operated from the falling direction of bulk material during a filling process, or for interpreting a direction of planar surfaces, such as are often defined by container walls, as perpendicular.
  • the previous statements and disclosures are not sufficient to convert a reliable conversion of the sensor coordinates 210 of a reflector 203 into global, easily interpretable coordinates 213 .
  • the sensor coordinate system 210 and all coordinates of individual reflectors determined via it can be “set up”, ie it can be achieved that the converted coordinate axes Xs' and Ys' spanned plane is parallel to the planes XR 214 and YR 215 of the global coordinate system 213 to be ultimately reached.
  • this solution is that when the container 204 is transported, this rotation can be changed between individual measurement cycles, in particular in relation to a fixed reference direction outside of the container 204. Provision can therefore also be made for the rotation 218 to be detected by external measuring devices , and to transmit to the sensor 201 via known communication channels.
  • the sensor 218 is photographed with a smartphone, and with the aid of, for example, a compass integrated in the smartphone and correspondingly executed image processing for locating a marking or a cable outlet 209, the deviation of the O° direction 208 of the sensor 201 from a global available reference point, for example the South Pole.
  • the smartphone has a corresponding sensor 201 align the attached marking in such a way that it can determine both the inclination of the plane 205 and the rotation 218 and transmit it to the sensor 201.
  • the rotation 218 and/or inclination of the sensor 201 in relation to a globally available fixed point is automatically determined by fixed point determination devices integrated in the sensor 201, such as a compass, GPS, acceleration sensors, celestial observation units such as a camera with the time and date, e.g for capturing the sunrise, or by a container scan for capturing the container shape with the addition of a system plan from which the container orientation and shape can be determined and used to transform the coordinates of certain reflection points 202, 203 from the sensor coordinate system 210 into a global coordinate system 213 .
  • the global coordinate system 214 used by the user can always be oriented such that the XR axis 214 is oriented towards south.
  • other alignments that are more suitable for the respective application can also be selected.
  • the selection of a different orientation represents a static transformation from the global coordinate system 213 into a further user coordinate system Bx, which can be carried out by a one-off specification of fixed offsets in the translation and/or rotation direction using known methods.
  • FIG. 3 again illustrates the special advantage of the invention when operating a large number of sensors in a system.
  • the containers 301, 302 belonging to the plant and the open bulk material heap 303 are equipped with multi-dimensional radar sensors 304, 305, 306.
  • the sensors 304, 305, 306 differ significantly both with regard to their respective inclination of the sensor reference plane (e.g. the mounting flange) compared to a reference plane, for example a horizontal plane, and with regard to the respective rotation 218 at the respective measuring point 301, 302, 303 from each other. Consequently, the sensor's own coordinate systems 307, 308, 309 also differ greatly from one another.
  • the sensor reference plane e.g. the mounting flange
  • each of these sensors would only be able to determine the position of individual reflectors 203, 310 or the location of the topology of a bulk material surface 311 in relation to its own sensor electronics or its local sensor coordinate system. If these values are transmitted to a central evaluation and visualization device, without precise knowledge of the respective installation situation of the sensor, i.e.
  • the coordinates determined in relation to the sensor coordinate systems 307, 308, 309 of at least one reflection point are related to the installation situation, i.e.
  • the angle of inclination of the reference plane in relation to a reference plane, the angle of rotation and, if applicable, the installation height taking into account predeterminable and/or independently determined information converted to a sensor-independent, global coordinate system 312, 213.
  • it can be provided to align or define the axis XR of the coordinate system 312 in the direction of the south, and the axis ZR along the plumb direction, with these two directions being able to be determined at any point in the world independently of a mounting situation of a sensor.
  • the zero point of the coordinate system 312 directly in the center of one of the reference planes of the respective sensor 304, 305, 306, similar to the known procedure of the sensor 106 according to FIG use independent elevation information such as sea level for each application.
  • the determination of an absolute altitude of the sensor with respect to a uniform, globally available altitude can be globalized by user input or automated by sensors integrated in the sensor, referred to in this disclosure as auxiliary sensors, and/or auxiliary sensors externally in communication with the sensor.
  • a user-defined coordinate system B1, 313, B2, 314, B3, 315 is created for each of the containers 301, 302, 303, which in a large number of cases is defined in such a way that the origin of the respective system is in the center of the bottom of the respective container lies, and at the same time the X-axis is oriented, for example, in the direction of the south and the Z-axis along the perpendicular.
  • a service employee on site at the container can use a compass or a smartphone to do this very easily and clearly record the position of the respective reflection point.
  • the parallel display and joint evaluation of a large number of bulk material topologies in a plant with a large number of different containers and orientations can now be carried out easily and uniformly, especially when the plant plans show the orientation of existing containers in relation to the cardinal point.
  • a method 400 for determining a position of an object by a sensor In a first step 402, a local sensor coordinate system is defined. In a second step 404, which can also take place before or at the same time as step 402, a global target coordinate system is defined. In a further step 406, transformation parameters for the transformation of coordinates in the local sensor coordinate system to coordinates in the global target coordinate system are determined. In the next step 408 the position of the object is detected in local coordinates, and in step 410 the position of the object is transformed to coordinates in the target global coordinate system.
  • FIG. 5 shows a block diagram of a system 500 which has a sensor 201 described here and a computing unit 502 described here, in which the transformation is carried out.
  • the system 500 or, for example, the processing unit 502 has an interface to a cloud 504 .
  • the cloud 504 can have a server and/or a storage unit, for example, on which the coordinates are temporarily stored.
  • a data acquisition unit 506 can call up the data or coordinates from the server, process them further, for example graphically, and make them available to a service employee in a suitable form.
  • the coordinates of the object 203, 310, 311 are also used in the same for other sensors 20T in the system 500, for example Transmitted target coordinate system 217, 312, or for each sensor 201, 201' in the user-defined coordinate system (313, 314, 315).
  • the exemplary embodiments presented above relate to applications from the field of process automation.
  • the principles and configurations of the present invention can also be used for sensors in the field of factory automation or security technology for general monitoring of areas with a large number of sensors and a large number of assembly situations in a manner that is obvious to a person skilled in the art.
  • it can be of particular advantage not to provide the position of individual reflectors in relation to the installation situation of the sensor, but (at least partially) in relation to a globally ascertainable fixed point.
  • the coordinates determined by the sensor can be converted into global coordinates in the sensor itself, but also in an evaluation unit or in a cloud.
  • the sensor also outputs information with regard to its installation situation, e.g. inclination angle of the reference plane, angle of rotation and, if necessary, installation height. Provision can also be made for evaluation units or cloud systems to obtain this information from a database or from an assembly situation detection unit, for example an on-site camera.
  • Cartesian coordinate systems In the context of the invention, it is also possible, in a manner obvious to a person skilled in the art, to use other coordinate systems such as pole coordinate systems or spherical coordinate systems in order to implement the invention. In particular, systems with geographic longitude and latitude information can also be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (400) zur Bestimmung einer Position eines Objekts durch einen Sensor, aufweisend die Schritte: Festlegen (402) eines lokalen Sensor-Koordinatensystems; Festlegen (404) eines globalen Zielkoordinatensystems; Bestimmen (406) von Transformationsparametern zur Transformation von Koordinaten im lokalen Sensor-Koordinatensystem zu Koordinaten im globalen Zielkoordinatensystem; Erfassen (408) der Position des Objekts in lokalen Koordinaten; Transformieren (410) der Position des Objekts zu Koordinaten im globalen Zielkoordinatensystem.

Description

Verfahren zur Positionsbestimmung in der Prozessautomatisierung
Gebiet der Erfindung
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Position eines Objekts durch einen Sensor, eine Recheneinheit, einen Sensor, ein System aufweisend eine Recheneinheit und einen Sensor, und die Verwendung der Recheneinheit in einem System der Prozessautomatisierung, der Fabrikautomation oder in einer Multisensorumgebung mit einer Mehrzahl an ortsvariablen Sensoren.
Hintergrund der Erfindung
Mit Hilfe von zweidimensional oder dreidimensional messenden Radarsystemen kann eine Überwachung von Bereichen in der Sicherheit- oder Automatisierungstechnik globalisiert werden. Darüber hinaus sind linienförmig scannende, zweidimensionale Radarsysteme für Förderbänder zur Erfassung der darauf transportierten Schüttgutmengen bekannt. Den zuvor genannten Systemen ist gemein, dass die Lage von Objekten im Überwachungsbereich in Bezug auf deren Entfernung und in Bezug auf deren Winkellage relativ zum Sensor selbst bestimmt wird, was für eine Vielzahl an Problemstellungen auch hinreichend ist. Weiterhin sind dreidimensional messende Systeme insbesondere für die Füllstandmesstechnik bekannt. Bei diesen wird eine Schüttgutlage in einem Behälter oder auf einer offen gelagerten Schüttguthalde mit Radarsignalen beaufschlagt, und aus der Reflexion der selbigen am Medium eine Topologie der Oberfläche des Schüttgutes berechnet, aus welcher sich durch bekannte Umrechnungen das Volumen des Schüttgutes und bei bekannter Dichte auch die Masse des Schüttgutes mit hoher Genauigkeit ermitteln lässt.
Sensoren der Prozessautomatisierung oder auch der Fabrikautomatisierung bestimmen beispielsweise Abstände und Winkelpositionen in Bezug auf die jeweilige Position des
CGS:OLB jeweiligen Sensors. So bestimmt beispielsweise ein Radarsensor die Distanz zum Füllgut als Wegstrecke zwischen einer im Sensor befindlichen Referenzstelle (Nullpunkt) und der Oberfläche des Füllgutes. Sensoren zur Prozess- und Fabrikautomatisierung bestimmen neben den Abstandswerten auch Winkelwerte zwischen dem Sensor und einem jeweiligen Reflektor. Auch diese Winkelwerte werden in Bezug auf eine vorhandene Ebene oder Markierung am Sensor selbst angegeben („Sensorbezugsebene“). Nachteilig an den bisherigen Verfahren ist, dass einem Service-Mitarbeiter von außen die Position bzw. Lage des Füllguts oder eines Objekts nicht bekannt ist.
Zusammenfassung der Erfindung
Es ist eine Aufgabe der Erfindung, ein Verfahren und ein System bereitzustellen, welche diesen Mangel beseitigen.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind Gegenstand der abhängigen Ansprüche, der folgenden Beschreibung, sowie der Figuren.
Die beschriebenen Ausführungsformen betreffen in ähnlicher Weise das Verfahren zur Bestimmung einer Position eines Objekts durch einen Sensor, die Recheneinheit, den Sensor, das System aufweisend eine Recheneinheit und einen Sensor und die Verwendung der Recheneinheit in einem System der Prozessautomatisierung oder der Fabrikautomation oder in einer Multisensorumgebung mit einer Mehrzahl an ortsvariablen Sensoren.
Synergieeffekte können sich aus verschiedenen Kombinationen der Ausführungsformen ergeben, obwohl sie möglicherweise nicht im Detail beschrieben werden.
Andere Variationen der offenbarten Ausführungsformen können vom Fachmann bei der Durchführung der beanspruchten Erfindung durch das Studium der Zeichnungen, der Offenbarung und der beigefügten Ansprüche verstanden und ausgeführt werden. In den Ansprüchen schließt das Wort "umfassend" andere Elemente oder Schritte nicht aus, und der unbestimmte Artikel "ein" oder "eine" schließt eine Vielzahl nicht aus. Ein einzelner Prozessor oder eine andere Einheit kann die Funktionen mehrerer Gegenstände oder Schritte erfüllen, die in den Ansprüchen aufgeführt sind. Die bloße Tatsache, dass bestimmte Maßnahmen in voneinander abhängigen Ansprüchen angegeben sind, bedeutet nicht, dass eine Kombination dieser Maßnahmen nicht vorteilhaft genutzt werden kann. Gemäß einem ersten Aspekt wird ein Verfahren zur Bestimmung einer Position eines Objekts durch einen Sensor bereitgestellt. Das Verfahren weist folgende Schritte auf: Festlegen eines lokalen Sensor-Koordinatensystems, Festlegen eines globalen Zielkoordinatensystems, Bestimmen von Transformationsparametern zur Transformation von Koordinaten im lokalen Sensor-Koordinatensystem zu Koordinaten im globalen Zielkoordinatensystem, Erfassen der Position des Objekts in lokalen Koordinaten, und Transformieren der Position des Objekts zu Koordinaten im globalen Zielkoordinatensystem.
Somit wird ein Verfahren vorgeschlagen, bei dem z.B. ein mehrdimensional messender Sensor wie beispielsweise ein Radarsensor die Richtung von und die Entfernung zu einem Objekt erfasst und Position in einem globalen Koordinatensystem angegeben wird. Ein Service-Mitarbeiter braucht somit keine Kenntnisse über die Orientierung des Sensors haben, um zu wissen, wo sich das Objekt befindet.
Der Begriff „Sensor“ ist dem Fachmann z.B. der Prozessautomatisierung bekannt. Ein solcher Sensor kann je nach Art und Ausführungsform beispielsweise eine Antenne, einen Detektor einer Messgröße, eine Elektronik zur Verstärkung, Aufbereitung und eventuell Digitalisierung eines erfassten Signals, eine Stromversorgungseinheit, eine Schnittstelle nach außen, sowie einen Energiespeicher aufweisen. Die aufgezählten Komponenten sind lediglich als Beispiele zu verstehen. Der Sensor ist in der Regel in ein Gehäuse eingebaut. In den Sensor können somit auch weitere Einheiten integriert werden, wie z.B. weitere Sensoren. Zur Unterscheidung zu diesen weiteren Sensoren, wie z.B.
Beschleunigungssensoren, die in dieser Offenbarung Erwähnung finden, werden jene als „Zusatzsensoren“ bezeichnet.
Ein „Objekt“ ist zum Beispiel eine unerwünschte Materieansammlung an der Wand eines Behälters oder zum Beispiel Schüttgut, bei dem die Verteilung in einem Behälter ermittelt und beobachtet werden soll. Da aus Sicht z.B. eines Radarsensors die Radarwellen an dem Objekt reflektiert werden, wird in den Beispielen in dieser Offenbarung häufig der Begriff „Reflektionsstelle““ für ein Objekt, oder genauer gesagt die Position des Objekts, verwendet. Weiterhin ist unter Objekt auch z.B. Schüttgut zu verstehen, das durch den Einwurf in einen Behälter eine Topologie aufweist, die durch den Sensor erfasst wird.
Der Begriff „Position“ bezieht sich generell auf vollständige Koordinaten, während der Begriff „Lage“ generell eine Richtung bzw. Orientierung beschreibt, die je nach Kontext eine Orientierung des Objekts oder eine Lage im Raum bezüglich der Sensororientierung sein kann. Eine Position eines Objekts kann beispielsweise in einem Kugelkoordinatensystem bestimmt werden, indem die Lageinformation bezüglich dieses Systems mit einer Entfernung ergänzt wird.
Der Begriff „lokal“ bezieht sich auf den Sensor. Der Begriff „global“ hingegen bezieht sich auf ein möglicherweise großräumiges, aber dennoch begrenztes Gebiet, wie z.B. typischerweise einer Industrieanlage. In einigen Ausführungsformen ist eine Definitionskomponente des globalen Koordinatensystems die Gravitationsrichtung. Daher soll, falls der Ursprung des Koordinatensystems nicht der Schnittpunkt verschiedener Gravitationsrichtungen ist, beispielsweise ein geozentrisches Koordinatensystem, die geographische Ausdehnung des Gebiets insoweit begrenzt sein, als dass die Gravitationsrichtung zur Erfüllung der Aufgabe der Erfindung noch als „gleich“ angesehen werden kann. Andernfalls kann z.B. ein weltweit gültiges geodätisches Koordinatensystem als globales Koordinatensystem verwendet werden.
Die Richtung ist zunächst auf ein lokales Sensor-Koordinatensystem bezogen, das in den folgenden Ausführungsformen genauer beschrieben wird. Das lokale Sensor- Koordinatensystem ist z.B. einem Service-Techniker nicht immer bekannt. Würde dem Techniker zum Beispiel die Position im lokalen Koordinatensystem mitgeteilt werden, müsste auch sichergestellt sein, dass sich bis zu dessen Eintreffen dieses zum Beispiel durch Bewegen nicht ändert. Insbesondere bei einer Anlage mit einer Vielzahl an Sensoren müsste der Techniker weiterhin sich bei jedem Sensor neu orientieren. Durch eine Fern- Übertragung der Koordinaten eines Objekts im globalen Zielkoordinatensystem kann dem Techniker bereits in einer entfernten Dienst-Zentrale bzw. an einem entfernten Standort die Position des Objekts in zum Beispiel einer graphischen Darstellung z.B. auf einem Smartphone, Rechengerät oder einem Papierausdruck auf den Weg mitgegeben werden, sowie auch vor Ort angezeigt werden. Hierdurch wird der Service wesentlich einfacher, schneller und weniger fehleranfällig und somit auch ökonomischer. Die Auswertung der übertragenen Koordinaten in einem einheitlichen System ist dabei unkompliziert.
Das Zielkoordinatensystem ist nicht notwendigerweise das finale Koordinatensystem. Vielmehr können die Objektkoordinaten weiterhin in ein oder mehrere weitere Koordinatensysteme transformiert werden.
Gemäß einer Ausführungsform ist das lokale Koordinatensystem ein Kugelkoordinatensystem oder ein kartesisches Koordinatensystem, und der Schritt Festlegen eines lokalen Koordinatensystems beinhaltet das Definieren einer Sensorebene als Äquatorebene bzw. xy- Ebene, eines Mittelpunkts der Sensorebene als Ursprung des Koordinatensystems und eines Referenzpunkts auf der Außenseite der Sensorebene als Bezugsrichtung bzw. Richtung einer der Achsen in der Sensorebene von dem Ursprung in Richtung des Referenzpunkts.
Das lokale Sensorkoordinatensystem ist somit zum Beispiel ein Kugelkoordinatensystem, dessen Polachse die Hauptrichtung, z.B. die zentrale Abstrahl- und Empfangsrichtung der Antenne des Radarsensors, ist. Die Polachse steht z.B. senkrecht zur unteren Seite bzw. Fläche des Sensors. Die untere Seite bzw. Fläche ist dabei beispielsweise parallel zu der Oberfläche eines Behälters, auf der der Sensor montiert ist. Diese Fläche, in dieser Offenbarung auch als Sensorebene bezeichnet, kann als Äquatorebene dienen. Der Ursprung bzw. Zentrum des Koordinatensystems ist beispielsweise der Mittelpunkt der auf die Ausdehnung des Sensors begrenzte Sensorebene. Eine Bezugsrichtung für den Azimut kann z.B. durch eine Markierung oder durch die Austrittsstelle eines Kabels an der bzw. in die Sensorebene sein. Im Falle eines kartesischen Sensorkoordinatensystems würde bei gleichem Ursprung die Azimut-Bezugsrichtung beispielsweise der x-Achse und die Polrichtung der z-Achse entsprechen, und die y-Richtung ergibt sich entsprechend daraus. Das grundlegende Sensorkoordinatensystem wird vorteilhafterweise gemäß der Eigenschaften des Sensors gewählt. Ist der Sensor beispielsweise ein Radarsensor, der Entfernungen und Richtungen misst, wird vorzugsweise ein Kugelkoordinatensystem verwendet. Da aus Sicht eines Fachmanns die Transformation von dem lokalen Kugelkoordinatensystem in das entsprechende kartesische System trivial ist, und eine Unterscheidung für das weitere Verfahren nicht notwendig ist, wird im Folgenden auf die spezielle Nennung beider Koordinatensysteme weitestgehend verzichtet. Bei Angaben wie Elevation, Azimut und Entfernung liest der Fachmann im Falle dieser sich entsprechenden lokalen Koordinatensysteme somit die kartesischen Entsprechungen wie beispielsweise Steigung in x- und y-Richtung und/oder xyz-Koordinaten mit.
Gemäß einer Ausführungsform beinhaltet der Schritt Erfassen der Position des Objekts in lokalen Koordinaten das Bestimmen einer Elevation und eines Azimuts gegenüber einer Bezugsrichtung des lokalen Sensor-Koordinatensystems. Die Elevation gibt die Neigung bezüglich der Äquatorialebene des Sensor-Kugelkoordinatensystems an, während der Azimut die Verdrehung gegenüber der Bezugsrichtung ist. Zur Bestimmung der Position ist auch die Entfernung notwendig. Die Entfernung wird durch den Sensor selbst gemessen, und ist daher ohne Weiteres bestimmbar. Wenn das lokale Sensor-Koordinatensystem und das globale Ziel-Koordinatensystem den gleichen Ursprung haben, bleibt die Entfernung gleich, so dass keine Translation erfolgen muss. Die Kugelkoordinaten werden für die Transformation in das Zielkoordinatensystem günstiger Weise zunächst in kartesische Koordinaten eines lokalen kartesischen Koordinatensystems gewandelt.
Gemäß einerweiteren Ausführungsform ist das globale Zielkoordinatensystem ein kartesisches Koordinatensystem, das eine Ausrichtung einer seiner Achsen in einer Himmelsrichtung und eine Ausrichtung einer seiner weiteren Achsen in Gravitationsrichtung aufweist, oder ein geodätisches Koordinatensystem. Eine bevorzugte Himmelsrichtung ist beispielsweise Süden oder Norden. Die Wahl der Gravitationsrichtung als eine der Achsen lässt die Verwendung von Sensoren zu, deren Messprinzip auf Gravitation beruhen sowie weiteren nachfolgend beschriebenen Methoden. Ein geodätisches Koordinatensystem, wie z.B. WGS84, hat den Vorteil, dass es nicht lokal eingeschränkt ist und dass einige Satellitennavigationssysteme dieses System verwenden. Allerdings ist die Umrechnung vergleichsweise aufwändig.
Gemäß einerweiteren Ausführungsform liegt die durch die Gravitationsrichtung als Normale bestimmte Ebene in einer behälterbezogenen Höhe. In anderen Worten definiert die Gravitationsrichtung als Normalenvektor eine Ebenenschar. Aus dieser wird eine Ebene gewählt, die in einer zweckmäßig gewählten Höhe des Behälters liegt, beispielsweise am Boden oder Nahe am Boden des Behälters.
Gemäß einerweiteren Ausführungsform ist ein Transformationsparameter eine Neigung um eine erste Achse des lokalen Koordinatensystems, eine Neigung um eine zweite Achse des lokalen Koordinatensystems und/oder ein Verdrehwinkel, welcher die Verdrehung in der Sensorebene gegenüber einer Bezugsrichtung angibt, und die Neigung um die erste Achse, und/oder die Neigung um eine zweite Achse wird durch eine oder mehrere der folgenden Methoden bezogen: Eine erste Methode beinhaltet das Erfassen der Neigung um die erste und/oder zweite Achse durch einen Winkelmesser oder durch einen die Neigung um die erste und/oder zweite Achse messenden Sensor eines zusätzlichen externen Gerätes, beispielsweise eines Smartphones. Eine zweite Methode beinhaltet das Erfassen der Neigung um die erste und/oder zweite Achse durch einen Neigungs- und/oder Beschleunigungssensor im Sensor. Eine dritte Methode beinhaltet das Erfassen einer Fallrichtung von Schüttgut während eines Befüllvorgangs als Gravitationsrichtung durch den Sensor und Bestimmen der Neigung um die erste und/oder zweite Achse basierend auf der Gravitationsrichtung. Eine vierte Methode beinhaltet das Erfassen einer Richtung planarer Oberflächen einer Behälterwand als Gravitationsrichtung und Bestimmen der Neigung um die erste und/oder zweite Achse basierend auf der Gravitationsrichtung. Als planare Oberfläche ist hier zum Beispiel eine lotrechte Wand eines z.B. rechtwinkligen, oder aber auch zylindrischen Behälters gemeint. Ist das lokale Koordinatensystem ein Kugelkoordinatensystem, kann, wie bereits beschrieben, die Transformation in einem Zwischenschritt in ein lokales kartesisches Koordinatensystem transformieren und von dort in das kartesische Zielkoordinatensystem. Die in dieser Ausführungsform genannten Begriffe Neigung um die erste oder zweite Achse sind allerdings nicht zu verwechseln mit der Elevation oder dem Azimut des Objekts bezüglich des lokalen Sensor- Kugelkoordinatensystems. Die Neigung um die erste und/oder zweite Achse dieser Ausführungsform betrifft die Beziehung zwischen dem lokalen Sensorsystem und dem globalen Koordinatensystem, um den Wert der beiden Neigungs-Transformationsparameter zu bestimmen, zum Beispiel die Neigung der Polrichtung gegenüber der Gravitationsrichtung. Eine Bezugsrichtung für den Verdrehwinkel kann auch hier wieder z.B. durch eine Markierung oder durch die Austrittsstelle eines Kabels an der bzw. in die Sensorebene sein. Hier wird also die Lage des Sensors bzw. des lokalen Koordinatensystems in Bezug gesetzt zu dem globalen Koordinatensystem. Die Lage des Sensors kann durch Zusatzsensoren im Sensor bestimmt werden, die die Neigung zur Gravitationsrichtung erfassen können oder durch Zusatzsensoren, die sich in einem zusätzlichen externen Gerät, beispielsweise einem Smartphone befinden, wenn das zusätzliche externe Gerät entsprechend der Ausrichtung bzw. Polrichtung des Sensors bzw. lokalen Sensor-Kugelkoordinatensystems geneigt wird. Die Neigung um die erste und/oder zweite Achse kann auch optisch bestimmt werden, z.B. mittels der Fallrichtung eines Mediums wie z.B. das Schüttgut.
Gemäß einer Ausführungsform ist ein weiterer Transformationsparameter ein Verdrehwinkel, und mindestens einer der Transformationsparameter Neigung um die erste Achse, Neigung um die zweite Achse bzw. Verdrehwinkel wird durch eine oder mehrere der folgenden Methoden bezogen: In einer ersten Methode wird ein Bildes des Sensors und eine Markierung des Sensors mit einem Smartphone bzw. einer Smartphonekamera erfasst und darauf basierend die Bezugsrichtung des lokalen Koordinatensystems bestimmt, sowie eine Himmelsrichtung durch Messen des Erdmagnetfeldes mit einem Smartphone-Kompass bestimmt, und schließlich der Verdrehwinkel basierend auf der Himmelsrichtung und der Bezugsrichtung bestimmt. In einer zweiten Methode weist das Smartphone einen Zusatzsensor auf, der eine Neigung gegenüber einer Gravitationsrichtung messen kann, sowie einen Zusatzsensor, der einen Verdrehwinkel messen kann. Beispielsweise kann dieser Zusatzsensor, z.B. ein Gyroskop, erfassen, um wieviel Grad ein Smartphone gedreht wird, um von der Markierungsrichtung zu einer Südausrichtung zu gelangen. Das Smartphone muss hierbei nicht aktiv gedreht werden, sondern kann Funktionen enthalten, die z.B. die Ablage zur Südpolrichtung gegenüber der momentanen Ausrichtung automatisch bestimmen. Eine weitere Methode ist das Erfassen der Behälterform durch Scannen des Behälters und Bestimmen der Neigung um die erste Achse bzw. die zweite Achse unter Verwendung eines Anlageplans, aus dem die Behälterausrichtung und die Behälterform hervorgeht. Die externe, also globale Referenz wird hierbei somit durch eine Anlageplan gewonnen. Der Anlageplan kann z.B. in einer Datenbank oder einem Speicher abgelegt sein, so dass der Zugriff und die Verwendung automatisiert erfolgen kann.
In anderen Worten, wird gemäß dieser Ausführungsform entweder der Verdrehwinkel alleine oder sowohl der Verdrehwinkel als auch die Neigung um die erste und/oder zweite Achse bestimmt. Für den Verdrehwinkel kann eine z.B. eine magnetische Ausrichtung durch z.B. eine Kompassnadel, mit der Linie vom Ursprung zu einer Markierung oder einem markanten Punkt, also der Bezugsrichtung optisch verglichen bzw. vermessen werden.
Gemäß einer Ausführungsform ist ein Zusatzsensor im Sensor einer oder mehrere aus den Folgenden: ein Kompass, ein Satellitennavigationsempfänger, ein Beschleunigungssensor, eine Gestirnebeobachtungseinheit aufweisend zumindest eine optische, eine Datums- und eine Zeit-Erfassungseinheit. Auch durch eine Antennenanordnung eines GPS-Empfängers oder durch einen Beschleunigungssensor lässt sich eine globale Ausrichtung bestimmen. Eine weitere mögliche Methode basiert auf Gestirnebeobachtungseinheiten. Beispielsweise kann ein Sonnenstand bestimmt werden. Z.B. ist die Position der Sonne beim Sonnenuntergang zu einem bestimmten Tag und einer bestimmten Uhrzeit berechenbar, woraus eine einfache Differenz zu der Bezugsrichtung des lokalen Kugelkoordinatensystems den Verdrehwinkel ergibt.
Gemäß einer Ausführungsform werden die Koordinaten im Zielkoordinatensystem weiterhin durch benutzerdefinierte Translationsparameter in ein benutzerdefiniertes Koordinatensystem transformiert. Beispielsweise weisen die Achsen die gleiche Orientierung auf, aber der Ursprung wird z.B. an einen Punkt wie dem Mittelpunkt der Bodenebene eines Behälters gesetzt. Das benutzerdefinierte Koordinatensystem kann also ein weiteres sensorspezifisches Koordinatensystem mit der Orientierung eines globalen Koordinatensystems sein. Ein Service-Mitarbeiter kann somit mit einer Behälterinformation oder Sensor-ID sofort hierüber den Behälter identifizieren sowie auch die Position des Objekts erkennen. Den Behälter bzw. den Sensor muss er in diesem Fall nicht über globale Koordinaten z.B. anhand eines Plans ermitteln.
Gemäß einer Ausführungsform ist der Ursprung des benutzerdefinierten Koordinatensystems an einem Boden, z.B. im Zentrum der Bodenebene, eines Behälters. Der Ursprung kann aber auch an einem Eckpunkt oder einem Punkt an der Oberseite definiert sein. Ein weiterer geeigneter Punkt wäre der Ursprung des lokalen Koordinatensystems. Dies würde dann einer Translation von 0 entsprechen, wenn der Ursprung des Zielkoordinatensystems nicht an einen anderen Punkt im Raum gesetzt worden ist. In diesem Fall sind das Zielkoordinatensystem und das benutzerdefinierte Koordinatensystem identisch.
Gemäß einer Ausführungsform weist das Verfahren weiterhin den Schritt Übertragen der Koordinaten des Objekts im Zielkoordinatensystem oder im benutzerdefinierten Koordinatensystem über eine Schnittstelle an eine Datenerfassungseinheit auf.
Die Koordinaten können lokal gespeichert und zum Beispiel über NFC (Near Field Communication) vor Ort an ein Smartphone, ein Tablet, oder ein Servicegerät übertragen werden. Sie können aber auch über eine drahtgebundene oder eine drahtlose Verbindung über einen Feldbus, eine Ethernet / Internet-Verbindung oder eine Mobilfunkverbindung an einen Server, eine Auswerteeinheit oder in eine Cloud übertragen werden.
Weiterhin können gemessene, ermittelte und/oder konfigurierte Werte, Parameter und Daten wie Transformationsparameter, Bilddaten, GPS-Daten, Radarsensor-Messdaten, geometrische Daten der Anlage, der Behälter, etc. an einen Server, eine Auswerteinheit oder in die Cloud gesendet werden, so dass die Schritte teilweise oder komplett im Sensor, im Server, in einer Auswerteeinheit und/oder einem Dienst in der Cloud ausgeführt werden können. Entsprechende drahtlose oder drahtgebundene Übertragungswege, insbesondere der Prozessautomation sowie die entsprechenden Schnittstellen sind dem Fachmann bekannt und werden hier nicht weiter ausgeführt.
Gemäß einem weiteren Aspekt wird eine Recheneinheit bereitgestellt, die ein Programmelement aufweist, das die Recheneinheit anweist, die Schritte des Verfahrens durchzuführen. Die Recheneinheit kann beispielsweise in einem Server, in einer Auswerteeinheit und/oder als ein Dienst in der Cloud angeordnet sein. Das heißt, die Recheneinheit kann auch eine logische Einheit sein, die physikalisch auf mehrere Einheiten, z.B. unterschiedliche Hardware-Einheiten, verteilt ist.
Gemäß einem weiteren Aspekt wird ein Sensor bereitgestellt, der eine solche Recheneinheit aufweist. Der Sensor ist beispielsweise ein Radarsensor, ein Laser-Sensor, ein Ultraschallsensor, oder ein vergleichbarer Sensor, mit dem Entfernungen und Richtungen gemessen werden können. „Sensor“ kann hier auch als Ensemble an Sensoren verstanden werden, die miteinander wie ein solcher Sensor Zusammenwirken. In diesem Fall kann beispielsweise einer der Ensemble-Sensoren als Sensor dienen, auf den das lokale Koordinatensystem bezogen wird.
Gemäß einem weiteren Aspekt wird ein System bereitgestellt, das eine Recheneinheit und einen Sensor zur Ermittlung einer Position eines Objekts in einem lokalen Koordinatensystem aufweist. Der Sensor kann, wie beschrieben, auch ein Ensemble an Sensoren sein. Die Recheneinheit kann eine Recheneinheit wie beschrieben sein, die die ermittelte Position bzw. Koordinaten im lokalen Koordinatensystem in Koordinaten eines globalen oder benutzerdefinierten Koordinatensystems transformiert.
Somit wird ein mehrdimensional messendes Radarsystem vorgeschlagen, welches zumindest zwei Raumkoordinaten bereitstellt, die eine Reflexionsstelle charakterisieren. Die Raumkoordinaten stehen dabei in fester Abhängigkeit zu global und/oder benutzerseitig vorgebbaren Fixpunkten.
Gemäß einem weiteren Aspekt wird eine Verwendung der Recheneinheit in einem System der Prozessautomatisierung, der Fabrikautomation oder in einer Multisensorumgebung mit einer Mehrzahl an ortsvariablen Sensoren bereitgestellt.
Durch das beschriebene System bzw. Verfahren ist es somit möglich, dass ein mehrdimensional messendes Radarsystem die Lage einer Vielzahl an Reflexionsstellen nach außen hin bereitstellt. Somit kann ein mehrere Reflexionsstellen beschreibender Datensatz drahtgebunden oder drahtlos an eine entfernte Einrichtung, beispielsweise eine Schaltwarte oder eine Cloud, effizient übertragen und angewendet werden. Damit diese übermittelten Daten einer Vielzahl von Messstellen in einer einheitlichen Form dargestellt, ausgewertet und korrekt interpretiert werden können, ist es vorgesehen, die Position der übermittelten Reflexionsstellen in Bezug zu einer von der Montagelage der Sensoren unabhängigen, global ermittelbaren Referenzposition zu setzen, und/oder darauf zu beziehen.
Kurze Beschreibung der Figuren
Im Folgenden werden Ausführungsbeispiele der Erfindung mit Bezug auf die beiliegenden Figuren detailliert beschrieben. Weder die Beschreibung noch die Figuren sollen als die Erfindung einschränkend ausgelegt werden. Hierbei zeigt
Fig. 1 eine Skizze eines Systems mit einem Behälter und einem eindimensional messenden Sensor in einem 2D-Koordinatensystem,
Fig. 2 eine Skizze eines Systems mit einem Behälter und einem mehrdimensional messenden Sensor in 3D-Koordinatensystemen gemäß einer Ausführungsform,
Fig. 3 Skizze eines Systems mit mehreren Behältern und Sensoren in 3D- Koordinatensystemen gemäß einer Ausführungsform,
Fig. 4 ein Ablaufdiagramm eines Verfahrens gemäß einer Ausführungsform,
Fig. 5 ein Blockdiagramm eines Systems gemäß einer Ausführungsform.
Die Zeichnungen sind lediglich schematisch und nicht maßstabsgetreu. Grundsätzlich sind identische oder ähnliche Teile mit den gleichen Bezugszeichen versehen.
Detaillierte Beschreibung der Figuren
Fig. 1 zeigt zunächst einen eindimensional messenden Radarsensor 101 . Der Sensor 101 bestimmt insbesondere nach einem Laufzeitverfahren die Entfernung d1 105 zwischen seiner Sensorbezugsfläche 102 bzw. seinem internen Nullpunkt 102 und der Oberfläche 103 des zu vermessenden Mediums 104. Der ermittelte Messwert d1 105 ist in der gezeigten Anordnung unabhängig von einer möglicherweise verdreht erfolgten Montage 106 des Sensors. Mit anderen Worten kann auch festgestellt werden, dass die Messung unabhängig vom Montagedrehwinkel 106 des Sensors ist. Ein Anwender hat aber die Möglichkeit, den Sensorbezugspunkt 102 durch Vorgabe von konstanten Korrekturtermen applikationsspezifisch anzupassen. Insbesondere hat der Anwender die Möglichkeit, die vom Messgerät 101 ausgegebenen Messwerte in Relation zu einem frei gewählten Bezugspunkt 108 zu setzen, der oftmals mit der Höhenlage des Behälterbodens 109 übereinstimmt. Durch zusätzliche Vorgabe der Behälterhöhe h 110 kann der Sensor 101 den Füllstand 1 111 oder anders ausgedrückt die Höhenlage der Oberfläche 103 des Mediums 104 in Relation zur Bezugshöhe B 108 als abgeleiteten Wert fortlaufend als Messwert bereitstellen.
Ein Verkippen des Sensors 101 und hier insbesondere ein Verkippen der Sensorbezugsebene 102 kann durch einen im Sensor integrierten Lagesensor automatisch ermittelt werden, und unter Verwendung trigonometrischer Funktionen der orthogonale Abstand zwischen der Oberfläche 103 und dem Sensor 101 automatisiert aus der ermittelten schrägen Distanz bestimmt werden. Ein Verdrehen 106 des Sensors 101 entlang seiner axialen Richtung bleibt auch bei schräger Montage ohne Auswirkung auf den Messwert und wird folglich auch nicht ausgewertet.
Fig. 2 zeigt ein Beispiel eines mehrdimensional messenden Messgeräts bzw. Sensors 201 , hier eines dreidimensional messenden Radarsensors 201 zur Erfassung der Topologie einer Schüttgutoberfläche 202. Der Sensor sei in einem Beispiel weiterhin ausgeführt, die Position einzelner Reflexionsstellen 203 im Behälter 204 nach außen hin bereitzustellen. In Anlehnung an die Ausführungen der Fig. 1 weist der mehrdimensional messende Radarsensor 201 eine Sensorbezugsfläche 205 oder einen internen Nullpunkt 205 auf, von welchem aus die Entfernungswerte d 206 zu verschiedenen Reflektoren 202, 203 im Erfassungsbereich des Sensors 201 bestimmt werden. Die Lage einer Reflexionsstelle 202, 203 wird bei einem zweidimensional messenden Radarsensor darüber hinaus durch die erste Winkelablage phi 207 in Bezug zur Flächennormale einer Ebene E, welche von der Sensorbezugsfläche 205, beispielsweise einem Befestigungsflansch definiert wird, charakterisiert. Ohne Beschränkung der Allgemeinheit kann hierbei angenommen sein, dass die O°-Richtung der ersten Winkellage 207 senkrecht auf der Bezugsfläche 205 definiert sei. Es könne aber auch andere Ursprungsrichtungen gewählt werden.
Im vorliegenden Beispiel eines dreidimensional messenden Radarsensors wird darüber hinaus die auf den ersten Ablagewinkel phi 207 senkrecht stehende zweite Winkelablage theta üblicherweise parallel zur um phi geneigten Ebene E 205 ermittelt, und charakterisiert in Verbindung mit den anderen Koordinaten die Position eines Reflektors 202, 203 durch die Angabe der Kugelkoordinaten, welche ihren Ursprung im Mittelpunkt der Sensorbezugsebene 205 haben. Die Definition des zweiten Ablagewinkels theta 208 erfordert eine Festlegung einer O°-Richtung innerhalb des Sensors 201 , wobei an dieser Stelle beispielsweise die Richtung 208, an welcher das Anschlusskabel 209 das Sensorgehäuse verlässt, herangezogen werden kann. Es kann aber auch eine andere Festlegung der Richtung für theta = 0° getroffen werden und beispielsweise durch eine grafische Markierung am Sensorgehäuse nach außen hin sichtbar gemacht werden.
Die ermittelten Pol- oder Kugelkoordinaten werden in einem üblichen Verarbeitungsschritt in kartesische Sensorkoordinaten 210 umgerechnet, wodurch die Lage einzelner Reflektoren 202, 203 in Bezug auf den Sensor 201 eindeutig definiert ist. Besonders vorteilhaft, aber keinesfalls einschränkend, kann im Folgenden angenommen werden, dass die Umrechnung derart erfolgt, dass die von den Koordinatenachsen Xs 211 und Ys 212 aufgespannte Ebene parallel zu oder identisch der Sensorbezugsfläche 205 ist, und die Xs-Achse sich in Richtung theta = 0° ausdehnt.
In einem nächsten, aufbauenden Verfahrensschritt kann vorgesehen sein, die Position einzelner Reflektoren 203 in Bezug auf ein vom jeweiligen Anwender vorgebbares Koordinatensystem 213 umzurechnen. Das Koordinatensystem 213 kann dabei vom Anwender weitgehend frei gewählt werden. In einer Vielzahl an Anwendungsfällen entspricht die Ausrichtung der Achsen XR, YR, ZR, 214, 215, 216 den Richtungen unserer gewohnten, globalen Sinneswahrnehmung, d.h., die von den Achsen XR 214 und YR 215 aufgespannte Ebene entspricht einer Horizontalebene, und die ZR-Achse 216 läuft als Flächennormale der Horizontalebene entlang der Richtung der Schwerkraft. Als Ursprung 217 des Koordinatensystems wird oftmals ein in der Nähe des Behälters 204 oder im Zentrum des Behälters 204 definierter Punkt verwendet, dessen Höhenlage der Höhenlage der Füllgutoberfläche eines nahezu vollständig entleerten Behälters entspricht (vgl. auch die Analogie zur Fig. 1).
Wird das Koordinatensystem 213, hier als „globales Koordinatensystem“ bezeichnet, welches beispielsweise im Auslieferungszustand des Sensors 218 seinen Ursprung auch auf der Höhenlage und im Zentrum der Bezugsebene 205 des Sensors 201 haben kann, zur Ausgabe der Positionen einzelner Reflektoren 203 gewählt, so kann eine Umrechnung der Koordinaten dieses Punktes vom Koordinatensystem 210 des Sensors 201 weitgehend automatisiert erfolgen, wenn dem Sensor 201 seine aus der Montageposition resultierenden Neigungswinkel in beiden Richtungen zur Verfügung stehen. Es kann in einer Ausführungsform vorgesehen sein, die Neigung der Bezugsebene 205, beispielsweise in Bezug zu einer horizontalen Ebene oder in Bezug zur Lotrechten, nach erfolgter Montage mit einem Messgerät, beispielsweise einem Winkelmesser oder einem Smartphone, zu vermessen, und dem Sensor 201 über eine Schnittstelle bekannt zu machen. Es kann alternativ auch vorgesehen sein, zumindest einen der Neigungswinkel der Bezugsebene 205 (welche der Ebene Xs 211 , Ys 212 entspricht) in Bezug zu einer horizontalen Ebene oder in Bezug zur Lotrechten über im Sensor 201 integrierte Neigungs- oder Beschleunigungssensoren automatisiert zu erfassen. Es kann auch vorgesehen sein, die Lotrechte während dem Betreiben des Sensors 201 aus der Fallrichtung von Schüttgut während einem Befüllvorgang zu erfassen, oder eine Richtung planarer Oberflächen, wie sie oftmals von Behälterwänden definiert werden, als Lotrechte zu interpretieren.
Die bisherigen Ausführungen und Offenbarungen reichen allerdings nicht aus, eine zuverlässige Umrechnung der Sensorkoordinaten 210 eines Reflektors 203 in globale, einfach interpretierbare Koordinaten 213 umzuwandeln. Unter Zuhilfenahme der im Sensor 201 nach einem der obigen Ausführungsbeispiele bereitgestellten Neigungswinkel der Bezugsebene 205 kann das Sensorkoordinatensystem 210 und alle darüber ermittelten Koordinaten einzelner Reflektoren „aufgerichtet“ werden, d.h., es kann erreicht werden, dass die von den umgerechneten Koordinatenachsen Xs‘ und Ys‘ aufgespannte Ebene parallel zu der Ebene XR 214 und YR 215 des letztlich zu erreichenden, globalen Koordinatensystems 213 ist. Da durch die alleinige Einbeziehung der Neigungswinkel der Bezugsebene 205 eine Verdrehung 218 des Sensors 201 in Bezug auf den Behälter 204 und dadurch auch in Bezug zu einem globalen Koordinatensystem 213 nicht berücksichtigt werden kann, würde sich hier ein signifikanter Mangel ergeben. Daher kann hier insbesondere vorgesehen sein, neben der Neigung der Bezugsebene 205 auch eine Verdrehung 218 des Sensors 201 in Bezug zu einem außerhalb des Sensors 201 befindlichen, global ermittelbaren festen Punkt im Sensor 201 selbst bekannt und damit auswertbar zu machen. So kann in einer Ausführungsform im Rahmen einer Inbetriebnahme des Sensors 201 eine Bestimmung der Verdrehung 218 in Relation zu einem festen Koordinatensystem per Benutzereingabe eingeprägt werden. Nachteilig an dieser Lösung ist allerdings, dass bei einem Transport des Behälters 204 diese Verdrehung zwischen einzelnen Messzyklen verändert werden kann, insbesondere in Relation zu einer festen Bezugsrichtung außerhalb des Behälters 204. Es kann daher auch vorgesehen sein, die Verdrehung 218 durch externe Messgeräte zu erfassen, und dem Sensor 201 über bekannte Kommunikationskanäle zu übermitteln. Insbesondere kann vorgesehen sein, den Sensor 218 mit einem Smartphone zu fotografieren, und unter Zuhilfenahme beispielsweise eines im Smartphone integrierten Kompasses und einer entsprechend ausgeführten Bildverarbeitung zur Lokalisierung einer Markierung oder eines Kabelabgangs 209 die Abweichung der O°-Richtung 208 des Sensors 201 von einer global verfügbaren Referenzstelle, beispielsweise dem Südpol, zu ermitteln. Es kann auch vorgesehen sein, das Smartphone über eine entsprechend am Sensor 201 angebrachte Markierung so auszurichten, dass dieses sowohl die Neigung der Ebene 205 als auch die Verdrehung 218 bestimmen und an den Sensor 201 übermitteln kann. In einer besonders vorteilhaften Ausgestaltung kann insbesondere auch vorgesehen sein, die Verdrehung 218 und/oder Neigung des Sensors 201 gegenüber einem global verfügbaren Fixpunkt automatisiert durch im Sensor 201 integrierte Fixpunktbestimmungseinrichtungen wie Kompass, GPS, Beschleunigungssensoren, Gestirnebeobachtungseinheiten wie einer Kamera mit Uhrzeit und Datum, z.B. zur Erfassung des Sonnenaufgangs, oder durch einen Behälterscan zur Erfassung der Behälterform unter Hinzunahme eines Anlageplans, aus welchem die Behälterausrichtung und -form hervor geht, zu ermitteln und zur Transformation der Koordinaten bestimmter Reflexionsstellen 202, 203 vom Sensorkoordinatensystem 210 in ein globales Koordinatensystem 213 zu verwenden.
Das vom Anwender verwendete globale Koordinatensystem 214 kann beispielsweise immer so ausgerichtet werden, dass die XR-Achse 214 in Richtung Süden ausgerichtet ist. Es können aber auch andere, für die jeweilige Anwendung besser passende Ausrichtungen gewählt werden. Es sei an dieser Stelle aber darauf hingewiesen, dass die Wahl einer andere Ausrichtung einer statischen Transformation vom globalen Koordinatensystem 213 in ein weiteres Benutzerkoordinatensystem Bx darstellt, welche durch eine einmalige Vorgabe von festen Offsets in Translations- und/oder Rotationsrichtung nach bekannten Verfahren erfolgen kann.
Fig. 3 verdeutlicht nochmals den besonderen Vorteil der Erfindung beim Betrieb einer Vielzahl an Sensoren in einer Anlage. Die zur Anlage gehörenden Behälter 301 , 302 sowie die offene Schüttguthalde 303 sind mit mehrdimensional messenden Radarsensoren 304, 305, 306 ausgerüstet. Die Sensoren 304, 305, 306 unterscheiden sich sowohl in Bezug auf ihre jeweilige Neigung der Sensorbezugsebene (z.B. den Montageflansch) gegenüber einer Referenzebene, beispielsweise einer Horizontalebene, als auch in Bezug auf die jeweilige Verdrehung 218 auf der jeweiligen Messstelle 301 , 302, 303 signifikant voneinander. Demzufolge sind auch die sensoreigenen Koordinatensysteme 307, 308, 309 stark voneinander abweichend. Ohne die Anwendung der Grundgedanken der vorliegenden Erfindung würde jeder dieser Sensoren die Position einzelner Reflektoren 203, 310 oder die Lage der Topologie einer Schüttgutoberfläche 311 nur in Bezug auf seine eigene Sensorelektronik oder sein lokales Sensorkoordinatensystem bestimmen können. Werden diese Werte an eine zentrale Auswerte- und Visualisierungseinrichtung übermittelt, so kann ohne die genaue Kenntnis der jeweiligen Montagesituation des Sensors, d.h.
Neigungswinkel der Bezugsebene gegenüber einer Referenzebene, Verdrehwinkel und ggf. Montagehöhe, keine Aussage darüber gemacht werden, an welcher Behälterwand beispielsweise innerhalb der Behälter 301 , 302 eine Anbackung 203, 309 entstanden ist. Ein wesentlicher Effekt ist daher, dass eine einheitliche Aufbereitung der Koordinaten unabhängig von der jeweiligen Montageposition des Sensors 201 erreicht wird. Hierzu werden in einer beispielhaften Ausführungsform die in Relation zu den Sensorkoordinatensystemen 307, 308, 309 ermittelten Koordinaten zumindest einer Reflexionsstelle unter Berücksichtigung vorgebbarer und/oder selbständig ermittelter Informationen zur Montagesituation, also Neigungswinkel der Bezugsebene gegenüber einer Referenzebene, Verdrehwinkel und ggf. Montagehöhe, in Bezug zu einem sensorunabhängigen, globalen Koordinatensystem 312, 213 umgerechnet. Beispielhaft kann vorgesehen sein, die Achse XR des Koordinatensystems 312 in Richtung Süden auszurichten oder zu definieren, und die Achse ZR entlang der Lotrichtung, wobei diese beiden Richtungen auf jedem Punkt der Welt unabhängig von einer Montagesituation eines Sensors ermittelbar sind.
Es kann auch vorgesehen sein, den Nullpunkt, d.h. den Ursprung des Koordinatensystems 312, global eindeutig zu definieren. Beispielsweise wird vorgesehen, den Nullpunkt des Koordinatensystems 312 direkt im Zentrum einer der Bezugsebenen des jeweiligen Sensors 304, 305, 306 zu definieren, ähnlich der bekannten Vorgehensweise des Sensors 106 gemäß Fig. 1. Es kann aber auch vorgesehen sein, eine einheitliche, von der jeweiligen Anwendung unabhängige Höhenangabe wie den Meeresspiegel zu verwenden. Die Bestimmung einer absoluten Höhenlage des Sensors in Bezug auf eine einheitliche, global verfügbare Höhenlage kann durch Benutzereingabe oder automatisiert durch im Sensor integrierte Sensoren, in dieser Offenbarung als Zusatzsensoren bezeichnet, und/oder extern in Kommunikationsverbindung mit dem Sensor stehende Zusatzsensoren globalisiert werden.
Wichtigstes Element der Umrechnung von Sensorkoordinaten 218, 307, 308, 309 auf globale Koordinaten 213, 312 ist, dass Verdrehungen und / oder Verkippungen der Sensoren 304, 305, 306 durch diese erste Umrechnung eliminiert werden können, so dass von den Sensoren gelieferte Werte in Bezug auf die Ausrichtung der Koordinatenachsen XR, YR, ZR eindeutig und von der jeweiligen Montagesituation unabhängig sind.
In einem optionalen weiteren oder kombinierten Verfahrensschritt, ähnlich der Vorgehensweise der Fig. 1 , kann ein Anwender den Ursprung des vom Sensor zur Ausgabe von Werten genutzten, globalen Koordinatensystems 312 für jeden Sensor gemäß seinen Bedürfnissen verändern, beispielsweise durch Eingabe der Behälterhöhe und / oder Vorgabe von Offsets für die X und Y Achsen. Auf diese Weise wird für jeden der Behälter 301 , 302, 303 ein benutzerdefiniertes Koordinatensystem B1 , 313, B2, 314, B3, 315 geschaffen, das in einer Vielzahl an Fällen derart festgelegt wird, dass der Ursprung des jeweiligen Systems im Zentrum des Bodens des jeweiligen Behälters liegt, und gleichzeitig die X-Achse beispielsweise in Richtung Süden und die Z-Achse entlang der Lotrechten ausgerichtet ist. Wird nun eine Anbackung an einem Punkt P mit definierten Xp, Yp und Zp Koordinaten vom jeweiligen Sensor als Messwert in Bezug auf das benutzerseitig vorgegebene Koordinatensystem ausgegeben, so kann ein Service - Mitarbeiter vor Ort am Behälter unter Zuhilfenahme eines Kompass oder eines Smartphones sehr einfach und eindeutig die Position der jeweiligen Reflexionsstelle erfassen. Auch das parallele Darstellen und gemeinsame Auswerten einer Vielzahl an Schüttguttopologien in einer Anlage mit einer großen Anzahl unterschiedlicher Behälter und Ausrichtungen kann nun einfach und einheitlich vorgenommen werden, insbesondere auch dann, wenn aus Anlageplänen die Ausrichtung bestehender Behälter in Bezug auf die Himmelsrichtung hervorgeht.
Fig. 4 zeigt ein Verfahren 400 zur Bestimmung einer Position eines Objekts durch einen Sensor. In einem ersten Schritt 402 wird ein lokales Sensor-Koordinatensystem festgelegt. In einem zweiten Schritt 404, der auch vor oder gleichzeitig mit Schritt 402 erfolgen kann, wird ein globales Zielkoordinatensystem festgelegt. In einem weiteren Schritt 406 werden Transformationsparameter zur Transformation von Koordinaten im lokalen Sensor- Koordinatensystem zu Koordinaten im globalen Zielkoordinatensystem bestimmt. Im nächsten Schritt 408 wird die Position des Objekts in lokalen Koordinaten erfasst, und im Schritt 410 die Position des Objekts zu Koordinaten im globalen Zielkoordinatensystem transformiert.
Fig. 5 zeigt ein Blockdiagramm eines Systems 500, das einen hier beschriebenen Sensor 201 und eine hier beschriebene Recheneinheit 502 aufweist, in der die Transformation durchgeführt wird. Das System 500, bzw. beispielsweise die Recheneinheit 502, weist eine Schnittstelle zu einer Cloud 504 auf. Die Cloud 504 kann z.B. einen Server und/oder eine Speichereinheit aufweisen, auf dem die Koordinaten zwischengespeichert werden. Eine Datenerfassungseinheit 506 kann die Daten bzw. Koordinaten in diesem Beispiel von dem Server abrufen, weiter z.B. grafisch aufbereiten und einem Service-Mitarbeiter in geeigneter Form zur Verfügung stellen. Die Koordinaten des Objekts 203, 310, 311 werden dabei beispielsweise auch für weitere Sensoren 20T in dem System 500 in demselben Zielkoordinatensystem 217, 312 übertragen, oder fürjeden Sensor 201 , 201 ‘ im benutzerdefinierten Koordinatensystem (313, 314, 315).
Die zuvor aufgezeigten Ausführungsbeispiele betreffen Anwendungen aus dem Bereich der Prozessautomation. Die Prinzipien und Ausgestaltungen der vorliegenden Erfindung lassen sich in einer dem Fachmann naheliegenden Weise aber auch für Sensoren im Bereich der Fabrikautomation oder der Sicherheitstechnik zur allgemeinen Überwachung von Bereichen mit einer Vielzahl an Sensoren und einer Vielzahl an Montagesituationen anwenden. Auch hier kann es von besonderem Vorteil sein, die Lage einzelner Reflektoren nicht in Bezug auf die Montagesituation des Sensors, sondern (zumindest partiell) in Bezug auf einen global ermittelbaren Fixpunkt bereitzustellen.
Es sei im Kontext der vorliegenden Erfindung auch berücksichtigt, dass die Umrechnung der vom Sensor ermittelten Koordinaten in globale Koordinaten im Sensor selbst, aber auch in einer Auswerteeinheit oder einer Cloud erfolgen kann. Es kann vorgesehen sein, dass der Sensor neben den Messdaten Informationen im Hinblick auf seine Montagesituation, z.B. Neigungswinkel der Bezugsebene, Verdrehwinkel und ggf. Montagehöhe, mit ausgibt. Es kann auch vorgesehen sein, dass Auswerteeinheiten oder Cloud Systeme diese Information aus einer Datenbank oder von einer Montagesituationserkennungseinheit, beispielsweise einer Kamera vor Ort, beziehen.
Die oben gezeigten Ausführungsbeispiele verwenden überwiegend kartesische Koordinatensysteme. Es sei im Kontext der Erfindung in einer dem Fachmann naheliegenden Art und Weise auch möglich, andere Koordinatensysteme wie Polkoordinatensysteme oder Kugelkoordinatensysteme zu verwenden, um die Erfindung umzusetzen. Es können insbesondere auch Systeme mit geografischen Längen- und Breitenangaben verwendet werden.

Claims

Ansprüche
1. Verfahren (400) zur Bestimmung einer Position eines Objekts (203, 310, 311) durch einen Sensor (201 , 304, 305, 306), aufweisend die Schritte:
Festlegen (402) eines lokalen Sensor-Koordinatensystems (210, 307, 308, 309);
Festlegen (404) eines globalen Zielkoordinatensystems (217, 312);
Bestimmen (406) von Transformationsparametern zur Transformation von Koordinaten im lokalen Sensor-Koordinatensystem (210, 307, 308, 309) zu Koordinaten im globalen Zielkoordinatensystem (217, 312);
Erfassen (408) der Position des Objekts (203, 310, 311) in lokalen Koordinaten;
Transformieren (410) der Position des Objekts (203, 310, 311) zu Koordinaten im globalen Zielkoordinatensystem (217, 312).
2. Verfahren (400) nach Anspruch 1 , wobei das lokale Koordinatensystem (210, 307, 308, 309) ein Kugelkoordinatensystem oder ein kartesisches Koordinatensystem ist, und wobei der Schritt Festlegen (402) eines lokalen Koordinatensystems (210, 307, 308, 309) das Definieren einer Sensorebene (205) als Äquatorebene bzw. xy- Ebene, eines Mittelpunkts der Sensorebene (205) als Ursprung des lokalen Koordinatensystems (210, 307, 308, 309) und eines Referenzpunkts auf der Außenseite der Sensorebene (205) als Bezugsrichtung bzw. Richtung einer der Achsen in der Sensorebene (205) von dem Ursprung in Richtung des Referenzpunkts beinhaltet.
3. Verfahren (400) nach Anspruch 1 oder 2, wobei der Schritt Erfassen (408) der Position des Objekts in lokalen Sensor-Koordinaten das Bestimmen einer Elevation und eines Azimuts gegenüber einer Bezugsrichtung des lokalen Sensor-Koordinatensystems (210, 307, 308, 309) beinhaltet.
4. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei das globale Zielkoordinatensystem (217, 312) ein kartesisches Koordinatensystem ist, das eine Ausrichtung einer seiner Achsen in einer Himmelsrichtung und eine Ausrichtung einer seiner weiteren Achsen in Gravitationsrichtung aufweist, oder ein geodätisches Koordinatensystem ist.
5. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei die durch die Gravitationsrichtung als Normale bestimmte Ebene in einer behälterbezogenen Höhe liegt.
6. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei ein Transformationsparameter eine Neigung um eine erste Achse des lokalen Koordinatensystems, eine Neigung um eine zweite Achse des lokalen Koordinatensystems und/oder ein Verdrehwinkel, welcher die Verdrehung in der Sensorebene (205) gegenüber einer Bezugsrichtung angibt, und die Neigung um die erste Achse und/oder die Neigung um die zweite Achse durch eine oder mehrere der folgenden Methoden bezogen wird:
Erfassen der Neigung um die erste und/oder zweite Achse durch einen Winkelmesser oder durch einen die Neigung um die erste und/oder zweite Achse messenden Zusatzsensor eines Smartphones;
Erfassen der Neigung um die erste und/oder zweite Achse durch einen Neigungs- und/oder Beschleunigungssensor im Sensor;
Erfassen einer Fallrichtung von Schüttgut während eines Befüllvorgangs als Gravitationsrichtung durch einen Zusatzsensor und Bestimmen der Neigung um die erste und/oder zweite Achse basierend auf der Gravitationsrichtung;
Erfassen einer Richtung einer Oberfläche einer Behälterwand als Gravitationsrichtung und Bestimmen der Neigung um die erste und/oder zweite Achse basierend auf der Gravitationsrichtung.
7. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei ein weiterer Transformationsparameter ein Verdrehwinkel (218) ist, und wobei mindestens einer der Transformationsparameter Neigung um die erste Achse, die zweite Achse und/oder Verdrehwinkel durch eine oder mehrere der folgenden Methoden bezogen wird:
Erfassen eines Bildes des Sensors (201 , 304, 305, 306) und einer Markierung des Sensors mit einem Smartphone und darauf basierend Bestimmen der Bezugsrichtung, Bestimmen einer Himmelsrichtung durch Messen des Erdmagnetfeldes mit einem Smartphone-Kompass, und Bestimmen des Verdrehwinkels basierend auf der Himmelsrichtung und der Bezugsrichtung;
Ausrichten des Smartphones über eine entsprechend am Sensor angebrachte Markierung und Erfassen der Neigung um die erste Achse, die zweite Achse, und/oder des Verdrehwinkels durch Zusatzsensoren des Smartphones;
Erfassen der Behälterform durch Scannen des Behälters und Bestimmen der Neigung um die erste und/oder die zweite Achse unter Verwendung eines Anlageplans, aus dem die Behälterausrichtung und Behälterform hervorgeht.
8. Verfahren (400) nach Anspruch 7, wobei die Zusatzsensoren im Sensor (201 , 304, 305, 306) einer oder mehreren aus den Folgenden ist: ein Kompass, ein GPS- Empfangsgerät, ein Beschleunigungssensor, eine Gestirnebeobachtungseinheit aufweisend zumindest eine optische, eine Datums- und eine Zeit-Erfassungseinheit.
9. Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei die Koordinaten im Zielkoordinatensystem (217, 312) weiterhin durch benutzerdefinierte Translationsparameter in ein benutzerdefiniertes Koordinatensystem (313, 314, 315) transformiert werden.
10. Verfahren (400) nach Anspruch 9, wobei der Ursprung des benutzerdefinierten Koordinatensystems (313, 314, 315) an einem Boden eines Behälters (301 , 302, 303) ist.
11 . Verfahren (400) nach einem der vorhergehenden Ansprüche, wobei das Verfahren (400) weiterhin den Schritt
Übertragen der Koordinaten des Objekts (203, 310, 311) im Zielkoordinatensystem (217, 312) oder im benutzerdefinierten Koordinatensystem (313, 314, 315) über eine Schnittstelle an eine Datenerfassungseinheit (506) aufweist.
12. Recheneinheit (502), aufweisend ein Programmelement, das die Recheneinheit (502) anweist, die Schritte des Verfahrens (400) nach einem der Ansprüche 1 bis 11 durchzuführen.
13. Sensor (201 , 304, 305, 306), aufweisend eine Recheneinheit (502) nach Anspruch 12.
14. System (500) aufweisend eine Recheneinheit (502) nach Anspruch 12 und einen Sensor (201 , 304, 305, 306) zur Ermittlung einer Position eines Objekts (203, 310, 311) in einem lokalen Koordinatensystem (210, 307, 308, 309).
15. Verwendung der Recheneinheit (502) in einem System (500) der Prozessautomatisierung, der Fabrikautomation oder in einer Multisensorumgebung mit einer Mehrzahl an ortsvariablen Sensoren.
EP20797726.5A 2020-10-26 2020-10-26 Verfahren zur positionsbestimmung in der prozessautomatisierung Pending EP4232846A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2020/080080 WO2022089722A1 (de) 2020-10-26 2020-10-26 Verfahren zur positionsbestimmung in der prozessautomatisierung

Publications (1)

Publication Number Publication Date
EP4232846A1 true EP4232846A1 (de) 2023-08-30

Family

ID=73030111

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20797726.5A Pending EP4232846A1 (de) 2020-10-26 2020-10-26 Verfahren zur positionsbestimmung in der prozessautomatisierung

Country Status (4)

Country Link
US (1) US20230408673A1 (de)
EP (1) EP4232846A1 (de)
CN (1) CN116235074A (de)
WO (1) WO2022089722A1 (de)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006008275A1 (de) * 2006-02-22 2007-08-23 Siemens Ag Verfahren zur Detektion von Objekten mit einer schwenkbaren Sensoreinrichtung
EP2208019B1 (de) * 2007-11-01 2013-06-26 Pius Kuster Verfahren und vorrichtung zur bestimmung eines objektes aus hybriden messungen
DE102014218351A1 (de) * 2014-09-12 2016-03-17 Robert Bosch Gmbh Verfahren und System zur Positionsbestimmung
GB201810711D0 (en) * 2018-06-29 2018-08-15 King S College London Ultrasound Method and Apparatus

Also Published As

Publication number Publication date
US20230408673A1 (en) 2023-12-21
WO2022089722A1 (de) 2022-05-05
CN116235074A (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
EP1664674B1 (de) Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum
DE69012278T2 (de) Navigationssysteme.
DE102013110581B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung und Vorrichtung hierzu
DE102020206759A1 (de) Verfahren und Verarbeitungssystem zur Aktualisierung eines ersten Bildes, das von einer ersten Kamera erzeugt wird, basierend auf einem zweiten Bild, das von einer zweiten Kamera erzeugt wird
EP2201326B1 (de) Verfahren zur abstandsbestimmung
WO2004083779A1 (de) Verfahren und vorrichtung zur bildverarbeitung in einem geodätischen messgerät
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
EP3410064B1 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
EP2446298A1 (de) Verfahren zur bestimmung der geographischen koordinaten von bildpunkten in sar bildern
DE102014205640B4 (de) Vermessung mittels mobilem Gerät
DE10234730A1 (de) Verfahren zur Positionsbestimmung eines Transportfahrzeuges
DE102020113154A1 (de) Virtueller sensor und kompasskalibrierung
EP0970392A1 (de) Messverfahren unter einbeziehung der lasertechnik für dreidimensionale objekte
EP3584536B1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
DE102018104056B3 (de) Verfahren zur optimierten Anordnung und Ausrichtung eines Feldgerätes
EP2749982B1 (de) Bezugsmodellerzeugung und Aktualisierung
EP4232846A1 (de) Verfahren zur positionsbestimmung in der prozessautomatisierung
EP4136414A1 (de) Radarsensor mit kugelförmigem sensorgehäuse
DE102013201769A1 (de) Vermessungsanordnung und Verfahren zur Vermessung
EP3534297B1 (de) Verfahren zur positionsermittlung eines beweglichen objekts, verfahren zur wegplanung für ein bewegliches objekt, vorrichtung hierfür, datenträger
DE102017204297A1 (de) Verfahren zur Positionsbestimmung und Radarsystem
DE102007061384A1 (de) Entfernungsmessvorrichtung sowie System
EP3764057A1 (de) Verfahren zum ermitteln der eignung einer position als vermessungsstationierung
Gura et al. Overview of the DJI ZENMUSE L1 Laser Scanner for Spatial Planning Purposes

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230510

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)