WO2020119912A1 - Vermessungsverfahren, messsysteme und messhilfsinstrumente - Google Patents

Vermessungsverfahren, messsysteme und messhilfsinstrumente Download PDF

Info

Publication number
WO2020119912A1
WO2020119912A1 PCT/EP2018/084846 EP2018084846W WO2020119912A1 WO 2020119912 A1 WO2020119912 A1 WO 2020119912A1 EP 2018084846 W EP2018084846 W EP 2018084846W WO 2020119912 A1 WO2020119912 A1 WO 2020119912A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
measuring
image
measurement
point
Prior art date
Application number
PCT/EP2018/084846
Other languages
English (en)
French (fr)
Inventor
Josef Mueller
Oliver Faix
Jochen Scheja
Stefan Petkov
Josef Lais
Tim Mayer
Bernhard Metzler
Original Assignee
Leica Geosystems Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems Ag filed Critical Leica Geosystems Ag
Priority to CN201880100194.9A priority Critical patent/CN113167581A/zh
Priority to US17/413,328 priority patent/US20220283327A1/en
Priority to EP18825948.5A priority patent/EP3894785A1/de
Priority to PCT/EP2018/084846 priority patent/WO2020119912A1/de
Publication of WO2020119912A1 publication Critical patent/WO2020119912A1/de
Priority to US17/550,357 priority patent/US12008679B2/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/003Seismic data acquisition in general, e.g. survey design
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Definitions

  • Total station or a laser tracker and a measuring aid instrument marking a point to be measured or marked, e.g. a pole.
  • Systems are also known from a stationary laser emitter, which generates a position reference by means of a laser beam. This is done by the interplay of a stationary, known location device and thus providing a position reference with a receiving or marking or targetable measuring aid
  • the object of the present invention is to provide an improved measuring system or improved system device and improved measuring method.
  • the invention in a first aspect, relates to a method for displaying target positions in a live image of a construction site.
  • the method includes recording at least one position-referenced image of the construction site, linking at least one target position to the position-referenced image and storing the position-referenced image together with the target position link in an electronic memory.
  • Position reference means that the construction site image and / or at least one element of the construction site depicted therein is clearly assigned a position or at least can be assigned.
  • a planned position for example a borehole to be executed, can be visualized exactly where it should actually be, which means a very simple and clear transfer or "translation" of a construction plan into the enables (virtual) reality on site.
  • the linking of the at least one target position in the form of an image layer superimposed on the position-referenced image with graphic markings of the target position and the position-accurate display of the at least one target position in the live image are carried out by superimposing the image layer in the live image.
  • Image In the live image, therefore, the target position is recorded in an image layer, which is displayed in the live image in the correct position.
  • the images are fitted by means of template matching, preferably using marking objects attached for this purpose in the construction site and depicted in the position-referenced image as well as in the live image.
  • areas that are not matched are marked graphically in the live image can, so that the user is made aware of such areas.
  • the position-referenced image and the live image are three-dimensional images (which, for example, also mean point clouds), in particular the live image using a range image camera or photogrammetry camera, e.g. according to the time-of-flight principle, using Wafeform Digitizing (WFD) or stereophotogrammetry.
  • WFD Wafeform Digitizing
  • this aspect of the invention relates to a computer program product with program code, which is stored on a machine-readable carrier, for executing this method, in particular by means of a mobile computer terminal.
  • the auxiliary measuring instrument preferably has a body, in particular a spherical or polyhedral shape, with an optical element distributed on the body surface a unique code, with image processing of an image of the body taken by a second camera arranged on the measuring device decoding such that the orientation and distance of the carrier relative to the measuring device are uniquely determined, the direction of the target axis aligned with the measuring aid is determined, and the position of the measuring aid is determined based on the orientation, distance and direction of the target axis.
  • the carrier preferably has a gimbal for stabilizing the position.
  • This is preferably active, i.e. can be moved in an automated manner, this being used to selectively set an orientation of the computer terminal.
  • the computer terminal can optionally be automatically aligned to a measuring point to be staked out or measured, e.g. to mark or measure it as described above.
  • a measurement point to be measured is optionally selected by the user on the screen in the measurement environment image (e.g. tapped) and the computer terminal automatically aligns its target axis using the active gimbal and measures the selected measurement point.
  • the position stabilization is optionally e.g. used for targeted alignment to the earth or otherwise a locally known point vector.
  • this aspect of the invention relates to a method for the measuring system described.
  • the method comprises an absolute positioning of the measuring device, an alignment of the measuring device with the auxiliary measuring instrument, a determination of the alignment, a determination of the position of the auxiliary measuring instrument relative to the measuring device based on the means for determining and / or determining the position, and a position-accurate display of at least one measuring point in superimposition of a measurement environment image recorded by the computer terminal on the screen.
  • this aspect of the invention relates to a hand-held measuring instrument preparation with a carrier, preferably with a position-stabilizing gimbal suspension, a hand-held one-hand grip, the carrier being designed for position-specific recording of an electronic, mobile display device having a screen and a camera, for example a smartphone and / or tablet .
  • the carrier also has means for Determining and / or determinable by making a position of the auxiliary measuring tool Preparation on.
  • the user is automatically supported by automatically defining an area around the point of contact in the overview image when the target area is selected manually by touching the screen, the size of the area being automatically determined as a function of measurement data, in particular a distance to the target area is and / or by repeated touching, eg 2-finger zoom, the point of contact the area can be varied in steps; and / or by activating a zone around the point of contact in the target area image and automatically recognizing and selecting the target within this zone, and thus the target selection is thus automatically supported.
  • a zoom function in particular a screen magnifier, is automatically activated to define the target area and / or to select the target.
  • this aspect of the invention relates to a computer program product with program code, which is stored on a machine-readable carrier, for executing this method, in particular by means of a measuring device with a distance and direction measuring functionality.
  • the control system has a target acquisition function, the execution of which records an overview image of the measurement environment, in particular a 360 ° panoramic image, from the location of the measuring device, in particular by means of the camera aligned in the direction of the target axis, and displays the overview image on the Screen. Furthermore, as part of the target acquisition function, a user manually selects a target area containing the target based on the displayed overview image, an automatic alignment of the target axis in the direction of the target area by means of the drive using the registered manual definition as a rough alignment to the target and then a Image of the target area recorded, which corresponds to an enlarged section of the overview image, by means of the camera oriented in the direction of the target axis.
  • This (second) image is used to register a manual selection of the target, an automatic (fine) alignment of the target axis in the direction of the selected target (i.e. towards the target) by means of the drive based on the registered manual target selection, so that the target is measured using the distance - and directional measurement functionality is measurable.
  • the measuring device has a range finder, a range finder which defines the target axis and can be pivoted relative to the base about at least one axis, in particular two mutually orthogonal axes, in particular a telescopic sight, at least one protractor and an angle measurement functionality for measuring the alignment of the target axis Measurement of a distance to the target along the target axis, and a controller with single point determination functionality, the control of which determines a spatial position of the target based on the measured alignment of the target axis and the distance between the target and the measuring device.
  • the screen is optionally designed to operate the measurement device and to display and manipulate measurement data, the screen and the measurement device being separate units or the screen being designed to be separable from the measurement device.
  • the measuring system can include a measuring aid for physically marking the target, in particular a measuring rod with a retroreflector.
  • the housing preferably has a drive and the locking device is designed as an automated locking device, so that the height can be adjusted in an automated manner, wherein the drive is optionally also designed to automatically change the horizontal orientation.
  • the height and, if necessary, also the change in orientation are carried out automatically by means of a drive in that the construction laser has a control which is designed for automatic adjustment of the height and for automatic fixing of the housing at a target height, if necessary with a target orientation.
  • a remote control receiver can also be provided and configured in such a way that the height, and in particular also the orientation of the housing in the horizontal plane, can be adjusted by remote control.
  • the construction laser has a communication module, so that the height measured in each case can be transmitted to an external device, in particular a remote control.
  • the holder has an active part of the position encoder and the construction laser one complementary passive part, for example a magnet as a position-indicating target.
  • the position value is determined or read out on the holder side.
  • the construction laser can be kept simple, has no or hardly any additional weight and no or hardly any additional energy requirement.
  • the holder is passive and has, for example, an optical position code provided for the height measurement.
  • the system has a drive and the locking device is designed as an automated locking device, so that the housing can be automatically adjusted and fixed in height, in particular wherein the drive is designed such that, in addition to the height, an orientation of the housing relative to the holder can also be adjusted automatically.
  • the drive is, for example, such that the holder is active with respect to the drive and the construction laser is passive, the drive being designed, for example, as a magnetic linear drive. In the case of such a passive construction laser, its energy requirement could thus advantageously be kept comparatively small.
  • the invention relates to a portable or handheld geodetic Auxiliary measuring instrument designed to form a measuring system for measuring and / or setting out a terrain point with a geodetic measuring device, in particular a stationary, distance and direction measuring functionality, in particular a total station.
  • the auxiliary measuring instrument has a hand-held rod with a bottom contact end.
  • the instrument has a tripod.
  • the measuring aid instrument can be positioned or set up at the terrain point by means of the rod and / or the tripod.
  • the measuring aid has a target that can be targeted by the measuring device, e.g. a retroreflector, the target having a position reference point located along a longitudinal axis.
  • the assembly is mounted in a motor-driven and actively controlled gimbal suspension with two gimbal axes, whereby the gimbal suspension enables the vertical axis of the target and the target axis of the target unit to be automatically or automatically aligned vertically or horizontally when positioned at the terrain point.
  • the assembly is attached to or in a two-axis gimbal suspension which has a drive, for example a direct drive, for active movement of the suspension about the two axes and thus again movement of the assembly.
  • the auxiliary measuring instrument is designed in such a way that the active gimbal can be controlled in such a way that the target vertical axis and the target axis are automatically aligned vertically or horizontally when the instrument is at the desired terrain point by moving in / approaching a corresponding position of the assembly.
  • the active gimbal can be used to raise or lower.
  • Target axis can be specifically set to further desired or specified orientations, for example in order to provide specific alignment specifications with the target unit.
  • the active gimbal preferably has adaptive damping.
  • the damping provided by the suspension can thus be actively and preferably automatically adapted to measurement conditions. This means, for example, that a movement of the assembly, for example depending on the strength or frequency, can be optimally compensated for.
  • the damping can also be adapted to the weight of the target, for example, which is particularly advantageous in the case of auxiliary measuring instruments which can accommodate different heavy target bodies.
  • the target is optionally arranged such that the position reference point is located at the intersection of the two axes of the gimbal.
  • the assembly is arranged with an offset to the rod and / or the center of the tripod, so that the perpendicularly aligned target axis of the rod or tripod aims unobstructed at a ground point on the ground.
  • the suspension has at least one inclination sensor. Thanks to the active two-axis cardanic suspension, such an inclination sensor can be approached and leveled with high accuracy and a small measuring range.
  • the aiming unit is preferably designed to mark the sighted terrain point and / or measure the distance between the position reference point and the sighted terrain point. That is, the aiming unit serves to display a target point in the terrain (stakeout) and / or to measure the position of a point in the terrain.
  • the aiming unit optionally has a laser for emitting a laser beam in the direction of the target axis, the laser beam being used to mark the terrain point and / or to measure the distance to the terrain point.
  • the targeting unit optionally has an electronic distance meter, for example a triangulation scanner or a time-of-flight camera.
  • the aiming unit can be designed to emit a second laser beam, e.g. by means of a second laser or by splitting off a partial beam of the first laser beam.
  • the direction of emission of the second laser beam is optionally perpendicular to the target axis.
  • the aiming unit has optics by means of which the first and / or second laser beam can be emitted in a point or line shape (i.e. as a line laser, for example).
  • the aiming unit is designed to use the first and / or second laser beam or an additional light source to project two-dimensional images onto a surface of the surroundings.
  • the aiming unit has a camera aligned in the direction of the target axis, so that an image of the terrain point can thus be recorded.
  • the camera is optionally used to record an image of the terrain point (or an image of the measurement environment that contains the terrain point) as part of a visualization functionality
  • To generate an augmented reality image by superimposing a graphic that accurately marks the terrain point on the recorded image and to display the augmented reality image on a display, in particular an external display, for example augmented reality glasses.
  • the assembly has a target tracking unit, designed to continuously track a target device moving relative to the measuring aid instrument, e.g. a conventional pole.
  • the tracking unit can e.g. ATR-based (Automated Target Recognition; see also description of FIG. 14) for tracking retroreflective target devices, as is known in principle from the prior art, and / or camera-based for other devices.
  • This fifth aspect of the invention also relates to a surveying system with a geodetic surveying device, in particular a stationary, distance and directional measuring functionality, in particular a total station, and a measuring aid instrument described above, the system preferably having means for determining the orientation of the cardanic suspension of the measuring aid instrument relative to the surveying device.
  • orientation determining means are e.g. designed as optical markings / patterns / codes on the measuring instrument, e.g. LED arrays or a 3D body such as a ball with optical code on the surface, which can be detected and evaluated by a camera on the measuring device (see also description of the second aspect of the invention).
  • a sixth aspect of the invention relates to a measuring device, in particular designed as a total station or laser tracker, for coordinating position determination of a target, in particular a retroreflector.
  • the measuring device has a distance measuring module with a beam source for generating measuring radiation, a detector for detecting measuring radiation reflected from the target, in order to determine the distance to the target based on detected measuring radiation.
  • the measuring device has a direction measuring module with a light-sensitive position-sensitive sensor and a receiving optics for receiving optical radiation and their guidance on the sensor.
  • the sensor is sensitive in a certain infrared wavelength range in order to detect infrared radiation emanating from the target from this wavelength range, wherein a point of incidence of the detected infrared radiation on the sensor can be determined and a direction to the target can be determined on the basis of the point of impact.
  • the target infrared radiation emanating from the target is either emitted by the target itself or infrared radiation emanating from the target from the measuring device is reflected, for example by means of a retroreflector.
  • the receiving optics and the sensor are designed such that visible radiation with a spectral distribution sufficient to generate a color image can also be received and detected by means of the sensor at the same time for detecting the infrared radiation.
  • the measuring device is preferably designed in such a way that an image, in particular an RGB image, of the target can be generated in parallel with the determination of the direction to the target (using infrared radiation) using the detected visible radiation.
  • the measuring device has a base and a beam steering unit which can be pivoted about at least one axis relative to the base and which has the distance measuring module and the direction measuring module and furthermore an angle measurement functionality for determining an orientation of the beam steering unit relative to the base.
  • the beam steering unit has an infrared beam source for illuminating the target with the infrared radiation and / or a pointer beam source for emitting a visible (and thus recognizable in an image generated by the sensor) pointer light beam coaxial with the measuring radiation.
  • the detection of the infrared radiation and the detection of the visible radiation take place in separate, successive sensor exposure processes.
  • the exposure processes take place alternately as part of a video stream and / or the exposure is adapted to the respective radiation, so that e.g. Due to the different exposure times, the sensor is optimally used for each radiation.
  • the image sharpness of the image is evaluated as part of the method and based on the Evaluation result the focus is set for a subsequent detection of the infrared position.
  • the invention relates to a platform for the sale and purchase of geodetic data via an open computer network, preferably via the Internet.
  • the platform has means for receiving geodetic data sent from an external device, in particular a geodetic surveying system, via the computer network, the data including geodetically measured, absolute coordinates of at least one terrain point.
  • the platform then has means for storing the received geodesy data in association with the coordinates, i.e. the data are arranged / filed according to their coordinates.
  • the platform has means for providing at least a part of the stored geodesy data in the case of coordinate-related querying by an external geodetic surveying system connected via a computer network.
  • This data part comprises at least the coordinates themselves and the provision is based on the coordinate assignment of the stored data.
  • the platform also has means for sending the provided geodetic data to the querying geodetic surveying system via the computer network.
  • the platform is optionally designed in such a way that the geodesy data can contain, in addition to the absolute coordinates of the terrain point, at least one of the following metadata on the coordinates (or the terrain point or the underlying measurement): measurement accuracy, measurement time, measurement technology and / or type of surveying device, author / source , Point and / or object coding (eg marking as path boundary or hydrant) or coordinate history.
  • the geodesy data can contain, in addition to the absolute coordinates of the terrain point, at least one of the following metadata on the coordinates (or the terrain point or the underlying measurement): measurement accuracy, measurement time, measurement technology and / or type of surveying device, author / source , Point and / or object coding (eg marking as path boundary or hydrant) or coordinate history.
  • the platform is designed to process these two data in the presence of first geodesy data of a site point and at least second geodesy data of the same site point, in particular originating from different data sources, in order to obtain statistics on the course of the site point coordinates to generate and / or to calculate an average value from the at least two terrain point coordinates and to save this coordinate average value as retrievable coordinates and / or to provide a comparative assessment of the reliability and / or quality of the first and second geodesy data, in particular wherein the assessment is automatic and / or by Platform user is generated.
  • This aspect of the invention also relates to a system comprising such a data platform and a geodetic surveying system, in particular a total station, the system being designed such that geodetic data is uploaded and / or downloaded to and from the platform a single measurement system user input can be carried out, in particular by a single push of a button or button on the measurement device.
  • this seventh aspect of the invention relates to a method for the sale and purchase of geodesy data via a computer network platform.
  • the coordinate reference of the query is established automatically by determining the location of the querying buyer, in particular using a global navigation system, and providing / offering the stored geodesy data of those terrain points for query that are located at the location.
  • coordinator-related queries also mean that a designation or a name of a measurement environment / location is given, for example in the form of an address (e.g. city, street). That is, the geodesy data can also be stored in such a way as a function of or assignment to the coordinates that they can be found or queried on the basis of an entry of the place name.
  • a proposal for a suitable or optimal surveying location that is suitable for the quantity of terrain points is made based on the geodetic data.
  • this aspect of the invention relates to a computer program product with program code, which is stored on a machine-readable medium, for performing this method.
  • Measurement functionality which is a
  • FIG. 5 shows a modification of the system according to FIG. 4,
  • FIG. 8 shows a first embodiment of a construction laser system according to the invention
  • Fig. 9 shows a second example of an inventive
  • Measuring system with a measuring instrument and a measuring device with a gimbal
  • Fig.l3a-c an example of a method for
  • FIG. 14 shows an example of a measuring device with parallel provision of a direction to a target to be measured and an image of the target
  • 15 schematically shows the sequence of parallel detection of infrared radiation and visible radiation
  • 16 shows a further development of the embodiment of a
  • Fig. 18 shows an embodiment for a hybrid
  • Fig. 20 an example of geodesy data
  • FIG. 1 schematically shows the sequence of the method according to the invention for representing target positions in a live image of a construction site.
  • a position-referenced image of the construction site is recorded, for example the photograph of one or more building surfaces.
  • a position-referenced 3D image of the construction site is created, for example a 3D point cloud is generated.
  • a 2D or 3D image is created, for example, by a site surveyor or by means of a surveying device such as a total station or laser scanner.
  • target positions or stake-out points are linked to the position-referenced image. For example, these positions are retrieved from a blueprint and superimposed on the position-referenced image in a second image layer.
  • the target positions are thus linked to the image of the construction site in such a way that any desired or planned position, for example the positions of boreholes in walls, can be called up in the image in the correct position.
  • step 20c the position-referenced image is stored in an electronic memory together with the link between the target positions or stake-out points, e.g. a data cloud.
  • step 21c The position-referenced image stored in step 20c is then called up from the memory in step 21b.
  • step 21c the live image and the referenced image are fitted, which is done, for example, using template matching. Especially in construction site areas with a very small structure, matching is optionally supported by attaching and depicting on the construction site, for example a wall, targets or markings.
  • the target positions linked to the referenced image can then be displayed in the live image using graphic markings, which is done in step 21d. For example, the image layer with the stake-out points is superimposed on the live image in the correct position.
  • the method thus allows target positions stored in a position-referenced manner to be displayed in a positionally accurate image of the construction site.
  • a user can e.g. recognize at which points on a wall construction work has to be carried out, which allows him to do so very easily, e.g. Drilling a hole exactly where it is planned without having to laboriously measure a target position.
  • FIG. 2 shows an example of a live image 22 of a construction site 25 with positional display of target positions 24, 24a.
  • the live image 22 is recorded, for example, with the camera of a tablet and shown on the display 23 of the tablet. Due to the fit with a position-referenced image of the construction site 25 retrieved from the tablet, the target positions 24, 24a are superimposed as graphic markings on the live image, for example in the form of an additional image layer, so that the user can immediately see where on the live image the desired positions 24, 24a are on the construction site 25.
  • the graphic markings follow positionally, for example, a change in position of the tablet, ie a change in the orientation and / or the distance to the construction site or wall 25, so that the markings at the desired position can be seen continuously on the screen 23.
  • a marking 26 of an area in the live image 22 which the system could not fit with the stored reference image. This image area is hidden by the marking 26.
  • a graphic marking 28 for example in the form of a coloring, a construction site element which is present in the live image 22 but not in the position-referenced image.
  • FIG. 3a schematically represents a further development of the method.
  • a step 29a an image of the actual state of the construction site is recorded, as it is after the execution of construction activities carried out on the basis of the target positions.
  • the current status picture documents the construction progress, for example at the end of each working day, and forms it through the construction work newly added construction site elements, such as new lines or other installations.
  • This actual status image is then position-referenced in a step 29b, the position-referenced image already stored (cf. step 20c in FIG. 1) serving as the basis.
  • the position reference of the current image is carried out by means of (image) features which are present both in the current image and in the original position-referenced image. In other words, elements that are present in both images are recognized and matched.
  • FIG. 3b schematically shows a further development of the method according to FIG. 3a.
  • FIG. 3b shows steps 29a and 29b at the top corresponding to FIG. 3a.
  • the precision of the position reference of the actual state image created in step 29b is now automatically estimated. This estimate is made, for example, on the basis of feature quality and depicted changes in the image.
  • step 29c is continued and the actual state image is stored. If, on the other hand, insufficient accuracy is found, the system issues a message to the user in a step 29e. Due to this warning, the user can react and e.g. a re-referencing of the position by a construction site surveyor or by means of a surveying device, as described for step 20a (see FIG. 1). This automatic control of the position reference precision ensures that even with many successive actual state images, which e.g.
  • FIG. 4 shows an example of a measuring system 30 with measuring functionality, which has a measuring device 31 and a hand-held measuring aid instrument 32.
  • the measuring device 31 has a base 31b and a base relative to the base 31b by means of a structure 31a two-axis pivotable camera 31c (hereinafter also referred to as the second camera).
  • the auxiliary measuring instrument 32 has a carrier 37 which is held by a user 40 by means of a handle 38.
  • the carrier 37 (exaggeratedly large in the figure) is such that the measuring auxiliary instrument 32 can be carried with one hand, so that the other hand of the user 40 is free to hold a computer terminal 35, for example a smartphone, held by the carrier 37. to use.
  • the computer terminal 35 has a screen 36 and a camera (not shown). Using this terminal camera (first camera), an image of the measurement environment 41 can be recorded and displayed on the screen 36.
  • the carrier 37 has a cardan suspension, so that the computer terminal 35 is stabilized.
  • the cardan suspension e.g. wobbling of the user's hand or vibrations caused by the user 40 walking around in the room 41 can be effectively compensated for.
  • the gimbal is actively controlled so that an orientation of the computer terminal 35 can be set automatically, whereby e.g. a target axis of the terminal device 35 can be automatically aligned with an environmental point to be staked out or measured.
  • the user 40 taps on the screen 35 in the measurement environment image a location of the construction site 41 which he would like to measure and the smartphone 35 or his measurement beam 39 (see below) is automatically aligned to the desired measurement point.
  • the computer terminal 35 is either inserted or inserted in the carrier 37 in a predetermined and thus known defined position, or the carrier 37 has a joint, so that the position of the terminal 35 relative to the carrier 37 can be changed in a defined manner.
  • the relative position is determined, for example, by the user of the system
  • a spherical body 33 Arranged on the carrier 37 as a means for determining the position is a spherical body 33, which in the example is also stabilized in the example by means of the cardan suspension and, optionally, can also be varied in position by means of the optional joint.
  • the body 33 is designed as a regular polyhedron.
  • the body 33 can also be arranged at another exposed location on the carrier 37.
  • the body 33 has an optical code 34 on its surface, the code being distributed such that code 34 is visible from as many angles as possible or relative positions of an external observer.
  • the body 33 or the code 34 is designed in such a way that one of the second camera 31c of the measuring device
  • the orientation and distance of the auxiliary measuring instrument 32 relative to the measuring device 31 can be determined unambiguously.
  • the code 34 thus encodes the orientation or rotational position of the ball 33.
  • the distance to the body 33 from the measuring device 31 can be determined on the basis of the camera image of the measuring device 31, which, together with the measured target direction 31d of the camera 31 (pivoted position), the position of the Instruments 32 is determined relative to the measuring device 31.
  • the target direction 31d is determined, for example, by means of an angle encoder for a respective swivel axis.
  • the measurement device camera 31c takes an image of the body 33 with code 34 and the image is evaluated using stored decoding information in such a way that both the distance to the body 33 and its orientation are determined, so that together with the measured one Camera position (sighting direction 31d) a total of all six degrees of freedom of the ball 33 and thus of the carrier 37 and the smartphone 35 relative to the measuring device 31 are determined.
  • the position of the measuring auxiliary instrument 32 relative to the measuring device 31 is determined with the aid of the body 33.
  • the carrier 37 together with the body 33 thus represents a hand-held measurement aid preparation which is used to hold a computer terminal 35, e.g. a smartphone or tablet and can be determined by an external measuring device 31, so that a measuring system 30 can be composed.
  • the measuring device 31 itself, in turn, is located absolutely, e.g. by measuring by means of absolutely known markings in the measuring environment 41, so that finally the absolute position of the instrument 32 can be determined.
  • the computer terminal 35 has an inertial measuring unit (IMU).
  • IMU inertial measuring unit
  • the measurement data of the IMU are taken into account in this training when determining the position of the measuring aid.
  • the data are used in a measurement with movement of the instrument 32 to bridge times or spatial areas by means of dead-reckoning, in which it is not possible to determine the position by means of the body 33, for example because the line of sight between the first camera 31c and body 33 through an object of the measurement environment 41 is interrupted.
  • the position determined by means of dead reckoning navigation is continuously transmitted to the measuring device 31, which continuously pivots / tracks the camera 31c on the basis of the data, so that the position determination on the basis of the body 33 can be resumed without delay as soon as the auxiliary instrument 32 leaves the shaded area and the line of sight is no longer broken.
  • the means of the measuring auxiliary instrument 32 for determining or determining the position in cooperation with the measuring device are designed in a manner known per se as IMU and gyro with determination of the yaw angle, as IMU with tracking functionality for tracking a movement trajectory, as a visual, previously known marking / pattern on one of the parts of the measuring aid, e.g. Barcode or as a defined illuminant (e.g. LED).
  • a position determination can also be carried out by means of a RIM camera of the measuring device 31 using SLAM algorithms (simultaneous localization and mapping).
  • the measuring system 30 is designed such that a position scan can be carried out by means of the computer terminal 35, that is to say a large number of measuring environment points 42 can be measured very quickly in succession or a 3D point cloud can be generated.
  • this is done with a rigid measuring beam 39 e.g. by manually pivoting the measuring aid 37 and / or moving the user 40 around in the room 41 during the measurement.
  • the measured position of the point 42 is marked in a live image of the measurement environment 41 for the user 40 on the screen 36 true to position. Further information or data links relating to the surrounding point 42 can also be displayed or offered.
  • a live image optionally also serves to enable the user 40 to select an environmental point 42 to be measured.
  • the screen 36 is touch-sensitive and the user 40 taps the point in the image corresponding to the point 42, whereby a measurement of the corresponding point in the room 41 is triggered as part of the measurement functionality.
  • a photogrammetric position is determined.
  • the smartphone 35 has, for example, a camera designed with a double lens or at least two images of two different locations of the user 40 are taken.
  • FIG. 5 shows a modification or alternative or additional use of the measuring system 30 from FIG. 4.
  • the relative position determined within the scope of the measuring functionality and the absolute position of the measuring aid instrument determined or determinable on the basis of the absolute location of the measuring device 31 are used 32 for the position-accurate display of at least one target position (stake-out point). This point to be staked out is stored in a memory of the system, for example as part of a building plan.
  • the absolute position of the computer terminal 35 inserted in the carrier 37 is determined and the desired position is retrieved from the memory.
  • the computer terminal 35 also has a marker (not shown), in the example a laser pointer, which can emit a visible laser beam 39s in a defined direction.
  • the laser beam 39s is then by automatically setting the emission direction, e.g. by means of an above-mentioned active gimbal (gimbal) specifically emitted in one direction in such a way that it marks the target position in the measurement environment in the correct position - in the example on the room wall 44 - as a visible laser point 43s.
  • the emission direction of the marker is rigid and the user receives instructions on the screen 36 by means of which he changes the position of the measuring aid instrument 32 until the marker targets the location 43s.
  • Such user guidance is of course also possible in the case of a marker with a variable marking direction, for example around To instruct the user 40 to pivot the instrument 32 at least until the point 43s reaches the (maximum) marking area of the marker if the position of the instrument 32 is very unfavorable.
  • a laser line or laser surface for marking one or more target positions is generated using the laser pointer. Any user-related wobbling of the auxiliary measuring instrument 37 can be compensated for by the gimbal mounting, so that there is no blurring of the marking point 43s.
  • the measuring system 30 or the measuring method advantageously serves, for example, to mark a target position exactly on a construction site, for example, where construction work is to take place, for example drilling a hole according to the construction plan.
  • the user can then, for example, approach the marked point 43s and either immediately carry out the required construction work with the free hand or, for example, apply a permanent marking to the surface 44 with a pen.
  • the carrier 37 has a locking device, with the aid of which the carrier 37 can be fixed in the space 41 without tools.
  • a stand is provided so that the user 40 can place the instrument 32 on the floor, roughly aligned with the wall 44, so that the laser pointer marks the location 43s.
  • a locking device is a clamp with which the carrier 37 can be detachably fastened, for example on a wall.
  • An advantage of using an auxiliary measuring instrument 32 is that it can be used to work close to the wall 44 and easily one large measuring environment 41 can be completely measured or staked out without having to change the measuring device 31 (that is, without the need for complex station changes). It is also possible to achieve 31 measuring points 43s from a stationing of the measuring device, which are beyond direct access from this stationing, for example due to obstacles in the direct air line.
  • the measuring auxiliary instrument 32 has a marker with which physical marking of target positions is made possible. With the help of a printer or a spraying device is then directed e.g. a color marking 43s is applied to the wall 44.
  • FIG. 5 symbolizes a position-accurate display of the stake-out point in a live image of the construction site 41 recorded by the smartphone 35 as a further option.
  • a graphic marking 43 is superimposed on the live image (video image) recorded by the smartphone camera, so that the user 40 can see the wall 44 on the screen 36 and at the same time the target position in a positionally correct manner, that is there is an augmented reality view.
  • further information relating to the target position is displayed on the screen, e.g. the type of tool to be used at the site or a virtual view of the construction site as it should look at the target site after the construction work has been carried out.
  • FIGS. 6a-e show, purely schematically, the method according to the invention for measuring a target using a measuring device with target delivery function.
  • FIG. 6a shows a measuring environment 17, for example a building room as shown, in which a measuring device 10 with direction and distance measuring functionality is set up by the user 16 at one location, for example a total station.
  • the user 16 himself marks a position to be measured in the room in a manner known per se with a plumb or measuring rod with a target 3, for example a retroreflective prism, and holds a display device 6 in his hand which is wirelessly connected to the measuring device 10, so that data can be transmitted between the two devices 6, 10.
  • the measuring device 10 and / or the mobile device 6 has a control with evaluation functionality.
  • the user can preferably control the measuring device 10 by means of the control and input on the screen 6.
  • the screen 6 can also be a fixed or removable part of the measuring device 10.
  • the measuring device 10 and the screen 6 form a measuring system 18.
  • the measuring device 10 has a base 13, relative to which a structure 14 is arranged so that it can rotate about two axes.
  • the structure 14 defines a target axis 12, which is thus also pivotable about two axes.
  • the structure 14 has a beam source and a measurement radiation detector, for example a range finder 15 in the form of a laser distance meter, so that within the scope of a single-point determination functionality, knowledge of the distance measured therewith to a target lying in the target axis 12 and the direction measured, for example by means of an angle encoder Target or alignment of the target axis 12, the position of the target relative to the surveying device 10 and on the basis thereof Known location, the position in the room can be determined.
  • the measuring device 10 has a camera 11, which is aligned in the direction of the target axis 12. In a departure from the illustration, this camera 11 can be designed, for example, as an on-axis camera.
  • the measurement system 18 has a target preparation or target acquisition function, in the framework of which a wide-ranging image of the measurement environment 17 is recorded in a first step, e.g. a full dome picture. In the example, this is done by pivoting the camera 11 (symbolized by arrow 11a) by rotating the structure 14 while the image is being recorded continuously.
  • the overview image is recorded by means of a second camera, which has the measuring device 10.
  • This additional camera can e.g. has such a wide field of view that the measurement environment 17 is motionless e.g. can be imaged over a horizontal angle of 200 ° or more.
  • Such a camera is e.g. a so-called overview camera, which is additionally arranged on the structure 14.
  • a second camera e.g. a camera of the display device 6 is also used, in that the user 16 takes a picture of the space 17 from or near the location of the measurement device 10, so that the image essentially corresponds to the view of the measurement device.
  • FIG. 6b shows how the recorded overview image 1 is subsequently displayed on the screen 6, for example after it has been transmitted from the measuring device to the mobile screen via Bluetooth or Wi-Fi.
  • the user now selects a target area 4, for example in the case of a touch screen by hand as symbolized by the hand 5, in which the target 3 to be measured is located.
  • the selection 5 is made For example, by defining or automatically supporting a rectangular frame of a certain size in image 1 by tapping on a point in the image (or on the screen) and automatically defining a predefined frame around the point of contact as the target area.
  • the predefined size of the target area 4 can be changed by tapping several times, for example in three stages.
  • the size of the target area 4 is automatically set as a function of existing measurement data, for example by determining a (rough) distance to the target area 4, for example by image evaluation. For example, the farther the targeted area 4 is in the room from the measuring device, the smaller the target area 4 is automatically set, so that regardless of the distance, an at least approximately equal measuring area is always selected as the target area 4.
  • the width of the field of view of the camera 11 is also optionally taken into account when determining the target area size. In any case, there is therefore a manual definition of a target area 4, which is optionally supported automatically by the measurement system 18, so that a rough selection or determination of the direction with respect to the target 3 to be measured takes place.
  • FIG. 6c shows how, based on the manually defined target area registered by the control, a first, rough alignment of the measuring device 10 with the target 3 takes place.
  • the controller uses the target area selection to ensure that the body 14 is pivoted in such a way that the target axis 12 comes to lie in the direction of the target area.
  • the pivoting ensures that the target is in the field of view of the camera 11 aligned in the direction of the target axis 12.
  • the measuring device 10 is aligned such that a second image can be recorded by the camera 11, which represents a section of the overview image or the measurement environment 17 containing the target 3.
  • FIG. 6d shows an example of such an image 2 of the camera 11.
  • image 2 the target 3 is shown comparatively large. This enables the user to manually, e.g. by touching the screen 6, can precisely mark the target 3 (represented by the hand 7), whereby the controller is "informed” about the exact direction to the target 3.
  • the proposed method therefore aligns the measuring device 10 to the target 3 in two stages by the user 16, by first defining an approximate direction to the target 3 in an overview image 1 by means of the target area 4, which is based on the further, in this rough direction captured image is refined by a second manual selection in such a way that target 3 can be targeted and thus measured.
  • an automatic suggestion of a target area 4 is also made depending on the potential targets 19a-19c.
  • a target area 4 is defined by the controller in such a way that it encompasses the three targets 19a-c lying close to one another. The user can then select this target area 4 simply by touching the screen 6 as the target area 4 to be used or, if necessary, change the size of the target area 4 manually or mark or select another target area 4.
  • FIG. 7b which is analogous to FIG. 6d, shows the target area image 2 recorded on the basis of the target area 4 of FIG. 7a.
  • the potential targets 19a-19c can now be seen very clearly by the user. This means that he can easily mark and ultimately select a target that is ultimately to be measured.
  • the user selects the target 19b for the measurement, the selection 7 being automatically supported by touching around the touch point 7a within a zone 7b the target 19b is automatically set as the target to be selected.
  • the system automatically determines the target in the vicinity of the touch point 7a, so that the user does not have to hit the displayed target 19b exactly on the screen 6.
  • Zone 7b can be defined in a fixed manner or, if necessary, be variable and - within certain limits - expanded until a target is located therein.
  • the user not only marks a target 19b in Figure 2, but e.g. also the other two targets 19a and 19c, so that the measuring device measures all three targets 19a-19c.
  • the present line laser has an integrated optoelectronic distance meter 59a, with which the present height h is measured automatically. It is therefore measured using radiation in a manner known per se, e.g. based on triangulation, phase and / or transit time evaluation, the distance of the housing 54 to the floor 52 or the distance of the laser light 56b forming the position reference to the floor 52 is measured. This eliminates the need for a purely manual measurement of the height h of the position reference as in devices of the State of the art necessary.
  • the laser source 55 is advantageously used dual, ie the laser radiation 56 serves both to provide the reference line 56a and as measuring radiation 56b for height measurement.
  • the radiation emanating from the diode 55 is split by a beam splitter 53a, so that a part 56b of the radiation is directed in the direction of a second optic 57a on the underside of the housing 54 or in the direction of the base 52.
  • Radiation reflected from the ground is directed onto a detector 53c of the distance meter 59a by means of the second optics 57a and an optical deflection element 53b.
  • the sought height h is then determined from the detector signal.
  • the line laser 53 has an additional radiation source for height measurement.
  • the automated measurement of the height h by means of a height measuring unit such as that of the distance meter 59a shown is either triggered manually — for example by pressing a trigger button attached to the housing 54 or by remote control; or it takes place automatically continuously, for example at certain measuring intervals.
  • an automatic height measurement takes place, for example after locking, which is determined by means of appropriate sensors and / or after a specific time in which no movement of the housing 54 (for example by means of acceleration sensors) has been detected.
  • FIG. 9 shows a second example of a line laser system according to the invention.
  • the line laser 53 and the holder 51 are shown enlarged in comparison to FIG. 8, the holder 51 is only partially shown and the reference floor is omitted.
  • further components of the line laser 53 or the housing 54 are not shown, apart from the transmission optics 57.
  • the height h is determined automatically by the holder 51 having an optically readable position code 51a along the height axis h, for example a light-dark coding or a color coding.
  • the position code 51a absolutely codes the position along the height axis h.
  • the present height h can be measured with an opto-electronic reading head 59 of a position encoder 60, which in the example is integrated in the locking device 58, and can be displayed, for example, as shown on a display 59d attached to the housing 54.
  • An alternative to the illustrated optical position encoder 60 is a capacitive or magnetic position encoder.
  • the holder 51 does not have the passive part of the position encoder 60, but the line laser 53.
  • a target is integrated into the catch 58, which target can be detected along the height h by the holder 51 designed for this purpose, and thus the position of the line laser 53 relative to the holder 51 is indicated.
  • the evaluation of the measurement signal generated on the holder side can also be carried out completely on the holder side and the height value can be shown, for example, on a display of the holder 51.
  • the position encoder 60 or the coding 51a is also designed such that, in addition to the height h, the horizontal alignment or the alignment relative to the holder 51 of the housing 54 (or the line laser 53) can also be measured.
  • the coding 51a not only codes the position along the height axis h, but also perpendicularly to it, so that the rotation R around the height axis h is read out by means of the reading head 59 and e.g. can be shown on a display 59d.
  • Such optical surface or 2D coding are known in principle from the prior art.
  • the system 50 has a separate distance and / or position meter and a separate alignment meter.
  • Figure 10 shows a training of the previous embodiments.
  • the line laser system 50 has a drive 61 in addition to an altimeter, for example the position encoder 60.
  • the height h of the line laser 53 can be adjusted automatically by means of the drive 61.
  • the drive 61 is designed as a toothed wheel 61a, which is driven by a motor 61b, in order to be able to move the housing 54 up or down along a guide rail 62 of the holder 51.
  • An alternative to this exemplary drive 61 is, for example, a magnetic linear drive, which is integrated in the holder 51 and pulls the catch 58 upwards or allows it to sag downwards in a defined manner.
  • the active element of the drive 61 is integrated in the holder and the line laser 53 is passive.
  • a targeted distribution of the drive components can offer advantages, for example, with an active holder 51, a battery of the drive can be placed in the holder foot, the weight of which increases the stability on the one hand and on the other hand does not avoid additional weight in the line laser 53 .
  • the system 50 also has a remote control receiver or, more generally, a communication module 63, which in the example is integrated in the housing 54.
  • This receiver 63 is used on the one hand for remote control operation of the drive 61 and / or for communicating a desired height h to the control 62 from a remote user, so that the Controller 62 then automatically adjusts height h as described.
  • FIG. 21 shows an example of a measurement network that is made possible by means of the data exchange platform 100.
  • three measurement devices 101a / 106a-101c / 106c are connected in a measurement environment, which function both as device 101a-101c that provides geodetic data and as device 106a-106c that relates geodetic data.
  • the surveying device 101c measures a terrain point 110c and loads its data D (110c) immediately via the Internet to the platform 100.
  • the devices 101a and 101b measure terrain points 110a, 110b and transfer the corresponding geodesy data D (110a), D (110b) ) directly to platform 100.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Remote Sensing (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Ecology (AREA)
  • Acoustics & Sound (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Geology (AREA)
  • Environmental Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Die Erfindung betrifft ein Vermessungssystem, z.B. mit einer Totalstation und einem als Lotstab ausgebildeten Messhilfsinstrument, und/oder ein Messhilfsinstrument, z.B: ein Lotstab, und/oder ein Verfahren zum Bestimmen von Positionen im Geodäsiebereich oder Baustellenbereich, z.B: mittels eines Baulasers.

Description

Vermessungsverfahren, Messsysteme und
Messhilfsinstrumente
Die Erfindung betrifft Vermessungsverfahren nach Anspruch 1, 27, 29, 57, 72, 80 und 95 sowie Messsysteme bzw.
Messgeräte oder -hilfsinstrumente nach Anspruch 13, 28, 36,
41, 50, 58, 70, 73, 87 und 94.
Vermessungssysteme zum Bestimmen von Positionen im Geodäsiebereich, in der Industrie oder Baustellen- bzw.
Konstruktionsbereich sind vielfältig bekannt. Beispiel hierfür sind Systeme aus einem stationären Vermessungsgerät mit Richtungs- und Entfernungsmesser wie z.B. eine
Totalstation oder ein Lasertracker, und einem einen zu vermessenden oder zu kennzeichnenden Punkt markierenden Messhilfsinstrument wie z.B. ein Lotstab. Auch sind Systeme bekannt aus einem stationären Laseremitter, welches mittels Laserstrahl eine Positionsreferenz erzeugt. Es erfolgen also durch das Zusammenspiel eines stationären, bekannt verorteten und damit eine Positionsreferenz bietenden Geräts mit einem empfangenden oder markierenden bzw. anzielbaren Messhilfsmittel Vermessungs- oder
Markiertätigkeiten, wodurch präzise die Position einzelner Geländepunkte wie Landvermessungspunkte oder Punkte an Baustellenobjekten, z.B. im Innen- oder Aussenbereich von
Gebäuden oder im Strassenbau, im Hinblick auf Positionsmessung oder Abstecken bestimmt werden kann.
Aufgabe der vorliegenden Erfindung ist die Bereitstellung eines verbesserten Vermessungssystems oder verbesserten Systemgeräts und verbesserten Vermessungsverfahrens.
Diese Aufgabe wird durch die Verwirklichung der kennzeichnenden Merkmale der unabhängigen Ansprüche gelöst. Merkmale, die die Erfindung in alternativer oder vorteilhafter Weise weiterbilden, sind den abhängigen Patentansprüchen sowie der Beschreibung einschliesslich der Figurenbeschreibungen zu entnehmen. Alle dargestellten oder in dieser Schrift anderweitig offenbarten Ausführungsformen der Erfindung sind miteinander kombinierbar, wenn nicht ausdrücklich anders festgestellt.
In einem ersten Aspekt betrifft die Erfindung ein Verfahren zur Darstellung von Soll-Positionen in einem Livebild einer Baustelle. Das Verfahren beinhaltet ein Aufnehmen wenigstens eines positionsreferenzierten Bilds der Baustelle, ein Verknüpfen wenigstens einer Soll-Position mit dem positionsreferenzierten Bild und ein Ablegen des positionsreferenzierten Bilds samt Soll-Positions- Verknüpfung in einem elektronischen Speicher. Positionsreferenz bedeutet, dass dem Baustellenabbild und/oder wenigstens einem darin abgebildeten Element der Baustelle eindeutig eine Position zugeordnet oder zumindest zuordenbar ist.
In weiteren Verfahrensschritten erfolgt ein Aufnehmen eines Livebilds der Baustelle, insbesondere in Form eines Videos, wobei das Live-Bild und das positionsreferenzierte Bild zumindest teilweise einen gleichen Ausschnitt der Baustelle darstellen, ein Abrufen des abgelegten positionsreferenzierten Bilds aus dem Speicher, ein Fitten des positionsreferenzierten Bilds mit dem Live-Bild, so dass die mit dem positionsreferenzierten Bild verknüpfte Soll-Position positionsgetreu dem Live-Bild überlagert werden kann und ein positionsgetreues Anzeigen der Soll- Position als graphische Markierung im Live-Bild. Mit der Positionsreferenzierung wird vom positionsreferenzierten Bild zumindest eine bekannte und im bzw. mittels des Live- Bilds erkennbare "Ortsmarke" oder ein "Ankerpunkt" bereitgestellt, der eine Verortung des Live-Bilds bzw. im Live-Bild ermöglicht. Somit kann also beispielsweise in einem mittels einem Smartphone aufgenommenen Live-Bild der Baustelle eine geplante Position, z.B. ein auszuführendes Bohrloch, exakt dort visualisiert werden, wo sie tatsächlich liegen soll, was eine sehr einfache und anschauliche Übertragung oder "Übersetzung" eines Bauplans in die (virtuelle) Realität vor Ort ermöglicht.
Optional erfolgen im Rahmen des Verfahrens das Verknüpfen der wenigstens einen Soll-Position in Form eines dem positionsreferenzierten Bild überlagerten Bildlayers mit graphischen Markierungen der Soll-Position und das positionsgetreue Anzeigen der wenigstens einen Soll- Position im Live-Bild durch Überlagern des Bildlayers im Live-Bild. Im Live-Bild wird also eine die Soll-Position in einem Bildlayer festgehalten, welche im Live-Bild positionsecht angezeigt wird.
Als weitere Option erfolgt das Aufnehmen des wenigstens eines positionsreferenzierten Bilds mittels eines Vermessungsgeräts, welches über eine Entfernungs- und Richtungsmessfunktionalität verfügt und/oder das Aufnehmen und Anzeigen des Livebilds der Baustelle mittels eines handhaltbaren Mobilgeräts, insbesondere eines Smartphones.
Optional erfolgt das Fitten der Bilder mittels Template- Matching, vorzugsweise unter Verwendung von dafür in der Baustelle angebrachten und sowohl im positionsreferen zierten Bild als auch im Live-Bild abgebildeten Markierobjekten. Als weitere Option werden im Live-Bild Bereiche graphisch markiert, welche nicht gematcht werden können, so dass der Benutzer auf solche Bereiche aufmerksam gemacht wird.
Insbesondere dient die Soll-Position zur Ausführung einer Bautätigkeit, wobei ein Ist-Zustands-Bild der Baustelle nach erfolgter Bautätigkeit aufgenommen wird, eine Positionsreferenzierung des Ist-Zustands-Bild anhand des positionsreferenzierten Bilds erfolgt und das positionsreferenzierte Ist-Zustands-Bild im Speicher abgelegt wird, wobei das positionsreferenzierte Ist- Zustands-Bild optional für eine etwaige erneute bzw. zukünftige Durchführung des Verfahrens dann selbst als positionsreferenziertes Bild dient, und z.B. das ursprüngliche oder "alte" positionsreferenzierte ersetzt. Auch kann ein Abschätzen der Genauigkeit der Positionsreferenz des Ist-Zustands-Bilds erfolgen, insbesondere anhand von darin abgebildeten markanten Baustellenelementen, und bei Vorliegen einer Genauigkeit unterhalb einer definierten Schwelle automatisch eine Warnung, z.B. ein Hinweis im Live-Bild, an einen Benutzer ausgegeben werden. Z.B. kann damit ein mühsames hündisches Abmessen/-stecken von Soll-Positionen entfallen.
In einer Fortbildung des Verfahrens handelt es sich beim positionsreferenzierten Bild und beim Live-Bild um drei dimensionale Bilder (worunter z.B. auch Punktwolken ver standen werden) , insbesondere wobei das Live-Bild mit einer Range-Image-Kamera oder Photogrammetrie-Kamera, z.B. nach dem Time-of-Flight-Prinzip, mittels Wafeform-Digitizing (WFD) oder Stereophotogrammetrie, aufgenommen wird.
Ausserdem sind optional zusätzlich zur Soll-Position weitere die Soll-Position betreffende Daten, insbesondere eine Bauzeichnung und/oder ein Link zu einer Datenbank, mit dem positionsreferenzierten Bild verknüpft, im Speicher abgelegt und im Live-Bild anzeigbar, so dass ein Benutzer zusätzliche Informationen zur Soll-Position im Live-Bild abrufen kann.
Optional erfolgt ein Vergleichen des Live-Bilds mit dem positionsreferenzierten Bild derart, dass im Live-Bild Baustellenelemente erkannt werden, welche im positions referenzierten Bild nicht oder an einer falschen Stelle im Live-Bild abgebildet sind, wobei im Live-Bild solche erkannte Baustellenelemente graphisch markiert werden.
Als weitere Option ist das Verfahren spezifisch für flächige Strukturen ausgelegt, so dass das positionsreferenzierten Bild und das Live-Bild im Wesentlichen eine Fläche der Baustelle darstellen, insbesondere eine Gebäudefläche.
Zudem betrifft dieser Erfindungsaspekt ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Ausführung dieses Verfahrens, insbesondere mittels eines mobilen Computerendgeräts .
In einem zweiten Aspekt betrifft die Erfindung ein Messsystem mit Vermessungsfunktionalität. Das Messsystem weist hierbei ein, z.B. mittels GPS oder Anmessen von Positionsreferenzpunkten, absolut verortbares raumgestütztes, insbesondere stationäres, Vermessungsgerät auf, welches raumgestützt ist, z.B. bodengestützt oder an einer Wand oder Decke befestigt. Weiter beinhaltet das Messsystem ein handhaltbares Messhilfsinstrument, wobei das Messhilfsinstrument einen handhaltbaren Träger und ein vom Träger getragenes mobiles, einen Bildschirm und eine Kamera aufweisendes Computerendgerät aufweist, insbesondere einem Smartphone und/oder Tablet.
Zudem sind Messhilfsinstrument und Vermessungsfunktionali tät derart ausgestaltet, dass bei Ausführung der Vermessungsfunktionalität eine Lage (Position und Ausrichtung, 6-DoF) des Messhilfsinstruments und damit des Computerendgeräts relativ zum Vermessungsgerät eindeutig bestimmbar ist.
Bei Ausführung der Vermessungsfunktionalität wird die Lage des Messhilfsinstruments und damit des Computerendgeräts relativ zum Vermessungsgerät eindeutig bestimmt, wobei zumindest ein lageabhängiger Freiheitsgrad (also ein Freiheitsgrad, der von der Lage des Messhilfsinstruments relativ zum Vermessungsgerät abhängig ist) , insbesondere die Entfernung zwischen Messhilfsinstrument und Vermessungsgerät, vom Vermessungsgerät bestimmt wird. Weiter wird ein Messumgebungsbild mittels der Kamera des Computerendgeräts aufgenommen und das Messumgebungsbild auf dessen Bildschirm angezeigt, wobei wenigstens ein Messpunkt dem Messumgebungsbild unter Heranziehung der bestimmten Lage des Computerendgeräts positionsgetreu überlagernd angezeigt wird.
Vorzugsweise weist das Messhilfsinstrument als Mittel zum Bestimmen bzw. Bestimmbarmachen seiner Lagen am Träger einen, insbesondere kugel- oder polyederförmiger, Körper mit auf der Körperoberfläche verteiltem optischen eineindeutigen Code auf, wobei mittels Bildverarbeitung eines von einer zweiten, am Vermessungsgerät angeordneten Kamera aufgenommenen Bilds des Körpers eine Decodierung derart erfolgt, dass die Orientierung und Entfernung des Trägers relativ zum Vermessungsgerät eineindeutig bestimmt sind, die Richtung der auf das Messhilfsinstrument ausgerichteten Zielachse bestimmt wird und die Lage des Messhilfsinstruments anhand der Orientierung, Entfernung und Zielachsenrichtung bestimmt wird.
In einer Fortbildung ist die Vermessungsfunktionalität derart ausgestaltet, dass mittels des Computerendgeräts die Position wenigstens eines Umgebungsmesspunkts relativ zum Computerendgerät gemessen wird und anhand dieser Position des Messpunkts und der ermittelten Lage des Messhilfsinstruments die absolute Position des Umgebungspunkts ermittelt wird. Das Messhilfsinstrument dient also als "verlängerter" Arm des absolut verorteten Vermessungsgeräts, wobei das Hilfsgerät mobil ist, so dass z.B. vom Vermessungsgerät aus nicht vermessbare Punkte im Raum präzise absolut und dank der Bildschirmunterstützung einfach und bequem vermessen werden können.
Als weitere Option ist die Vermessungsfunktionalität derart ausgestaltet, dass in einem mittels der Kamera aufgenommenen und im Bildschirm angezeigten (Live-) Bild der Messumgebung die Auswahl des zu vermessenden Umgebungs punkts händisch durch einen Benutzer erfolgt, und/oder eine einen Messpunkt betreffende Zusatzinformation (z.B. Messgenauigkeit) und/oder Datenverlinkung angezeigt wird.
Auch kann die Vermessungsfunktionalität derart ausgestaltet ist, dass eine scannende Positionsbestimmung einer Vielzahl von Umgebungspunkten erfolgt, z.B. indem das Computerendgerät bei fortlaufender Punktvermessung verschwenkt wird. Damit kann beispielsweise eine 3D- Punktwolke erzeugt werden.
Vorzugsweise erfolgt eine Messung der Umgebungspunktposition durch das Computerendgerät messstrahlbasiert, insbesondere mittels eines elektronischen Laserdistanzmessers, und/oder photogrammetrisch, insbesondere mittels einer als Doppelkamera ausgebildeten Kamera des Computerendgeräts oder mittels photogrammetrischer Bildaufnahme anhand einer Kamera in zwei Positionen/Perspektiven.
Als weitere Option weist das Messhilfsinstrument wenigstens einen Markierer zum gerichteten Markieren auf und die Vermessungsfunktionalität ist derart ausgestaltet, dass anhand der absoluten Verortung des Vermessungsgeräts und der ermittelten Relativlage des Messhilfsinstruments wenigstens ein abzusteckender Messpunkt positionsgetreu auf einer Oberfläche der Messumgebung mittels des Markierers markiert wird, z.B. indem der Markierer als eine, insbesondere als Teil des Computerendgeräts ausgebildete, Lichtquelle zur gerichteten Emission von sichtbarem Licht ausgebildet ist und der Messpunkt mittels Lichtprojektion auf der Messumgebungsoberfläche markiert wird. Der Markierer ist z.B. als Punkt- und/oder Linien laser ausgebildet, so dass z.B. auf einer Wand eine Soll- Position als Laserlichtfleck oder -linie positionsecht sichtbar gemacht werden kann. Alternativ oder zusätzlich kann der Markierer als ein Drucker oder eine Sprühvor richtung ausgebildet sein und eine Soll-Position wird mittels Aufbringen erner physischen Markierung, insbesondere einer Farbmarkierung, auf der Messumgebungsoberfläche markiert .
Vorzugsweise weist der Träger zur Lagestabilisierung eine Kardanaufhängung auf. Diese ist bevorzugt aktiv, d.h. automatisiert bewegbar, wobei dies genutzt wird, eine Ausrichtung des Computerendgeräts gezielt einzustellen. Damit lässt sich optional automatisch das Computerendgerät auf einen abzusteckenden oder zu vermessenden Messpunkt ausrichten, z.B. um wie oben beschrieben diesen dann zu markieren oder zu vermessen. Ein zu vermessender Messpunkt wird dabei optional auf dem Bildschirm im Messumgebungsbild vom Benutzer ausgewählt (z.B. angetippt) und das Computerendgerät richtet automatisch mittels der aktiven Kardanaufhängung seine Zielachse entsprechend aus und vermisst den ausgewählten Messpunkt. Die Lagestabilisierung wird optional z.B. zur gezielten Ausrichtung auf die Erde oder sonst einen ortbekannten Punktvektor genutzt.
Als weitere Option weist das Messhilfsinstrument eine Inertiale Messeinheit (IMU) auf und die Vermessungs funktionalität ist derart ausgestaltet, dass die Messdaten der Inertialen Messeinheit bei der Bestimmung der Relativlage des Messhilfsinstruments herangezogen werden. Die IMU kann insbesondere zur Überbrückung von Zeiten dienen, in denen keine Orientierung und/oder Entfernung des Messhilfsinstruments mittels des Vermessungsgeräts ermittelbar ist, z.B. durch Unterbrechung der Sichtlinie zwischen Vermessungsgerät und Codekörper.
Optional weist der Träger eine Arretierung, insbesondere einen Standfuss und/oder Klemme, auf, mit Hilfe derer das Messhilfsinstrument in der Messumgebung werkzeuglos fixierbar und wiederablösbar ist, z.B. an einer Wand. Als weitere Option weist der Träger ein Gelenk auf, so dass mittels des Gelenks die Anordnung des Computerendgeräts, und insbesondere im gleichen Zug auch des Körpers, relativ zum Träger verstellbar ist. Dies kann in manchen Lagen z.B. das Anzielen eines Umgebungspunkts zur Vermessung erleichtern oder überhaupt erst ermöglichen.
Daneben betrifft dieser Aspekt der Erfindung ein Verfahren für das beschriebene Messsystem. Das Verfahren umfasst ein absolutes Verorten des Vermessungsgeräts, ein Ausrichten des Vermessungsgeräts auf das Messhilfsinstrument, ein Bestimmen der Ausrichtung, ein Bestimmen der Lage des Messhilfsinstruments relativ zum Vermessungsgerät anhand der Mittel zum Bestimmen und/oder Bestimmbarmachen der Lage, und ein positionsgetreues Anzeigen wenigstens eines Messpunkts in Überlagerung eines vom Computerendgerät aufgenommenen Messumgebungsbilds auf dem Bildschirm.
Zudem betrifft dieser Erfindungsaspekt ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Ausführung dieses Verfahrens, insbesondere durch ein oben beschriebenes Messsystem.
Weiter betrifft dieser Aspekt der Erfindung eine handhaltbare Messhilfsinstrumentvorbereitung mit einem Träger, vorzugsweise mit lagestabilisierender Kardanaufhängung, einem handhaltbaren Einhandgriff, wobei der Träger ausgebildet ist zur lagedefinierten Aufnahme eines elektronischen, mobilen, einen Bildschirm und eine Kamera aufweisenden Anzeigegeräts, z.B. eines Smartphones und/oder Tablets. Weiter weist der Träger Mittel zum Bestimmen und/oder Bestimmbarmachen einer Lage der MesshilfsinstrumentVorbereitung auf .
Die Messhilfsinstrumentvorbereitung ist vorgesehen, mittels des Computerendgeräts und mit einem absolut verortbaren und bodengestützten Vermessungsgerät ein Messsystem zu bilden, wobei die Lage der Messhilfsvorbereitung relativ zum Vermessungsgerät anhand der Mittel ermittelbar sind.
Ein dritter Aspekt der Erfindung betrifft ein Verfahren zum Vermessen eines sich in einer Messumgebung befindlichen Ziels mit einem sich an einem Standort in der Messumgebung befindlichen oder positionierten und eine Entfernungs- und Richtungsmessfunktionalität sowie eine Zielachse auf weisenden Vermessungsgerät, insbesondere einer Totalsta tion. Das Verfahren weist folgende Schritte auf: Aufnehmen eines Überblicksbilds der Messumgebung, insbesondere eines 360 ° -Panoramabildes , vom Standort des Vermessungsgeräts aus, Anzeigen des Überblicksbilds auf einem Bildschirm, manuelles Auswählen eines das Ziel beinhaltenden Zielbereichs anhand des Überblicksbilds und automatisches Ausrichten der Zielachse in Richtung des Zielbereichs.
Weiter erfolgt im Rahmen des Verfahrens ein Aufnehmen eines Bildes des Zielbereichs, welches einem vergrösserter Ausschnitt aus dem Überblicksbild entspricht, mittels einer in Richtung der Zielachse ausgerichteten Kamera des Vermessungsgeräts (z.B. mittels einer On-Axis-Kamera) , ein manuelles Auswählen des Ziels anhand des Zielbereichsbildes, ein automatisches Ausrichten der Zielachse in Richtung des ausgewählten Ziels und ein Vermessen des Ziels durch das somit auf das Ziel ausgerichtete Vermessungsgerät mittels der Entfernungs- und Richtungsmessfunktionalität . Es erfolgt also anhand eines "globalen" grossräumigen Überblickbilds -welches vorzugsweise mittels der in Richtung der Zielachse ausgerichteten Kamera selbst aufgenommen wird - zuerst eine manuelle Definition eines Zielbereichs (z.B. durch Aufspannen eines Fensters mit zwei Fingern in einem Touch-Screen) , wonach ein erstes, grobes Ausrichten des Vermessungsgeräts auf das Ziel erfolgt. In der groben, ungefähren Ausrichtung wird dann ein zweites, gezielteres Bild aufgenommen, indem wiederum manuell durch den Benutzer das Ziel ausgewählt wird (z.B. durch punktuelles Drücken mittels Touch-Screen) , so dass anhand dieser manuellen Zielauswahl die Zielachse fein/genau auf das Ziel ausgerichtet wird, so dass es vermessen werden kann. Bei einem berührungssensitiven Bildschirm kann dieser zur Manipulation von Messdaten mittels Gestensteuerung ausgebildet sein.
In einer vorteilhaften Fortbildung wird der Benutzer automatisch unterstützt, indem beim manuellen Auswählen des Zielbereichs durch das Berühren des Bildschirms ein Bereich um die Berührungsstelle im Überblicksbild automatisch definiert wird, wobei die Grösse des Bereichs in Abhängigkeit von Messdaten, insbesondere einer Entfernung zum Zielbereich, automatisch festgelegt wird und/oder durch mehrmaliges Berühren, z.B. 2-Finger-Zoom, der Berührungsstelle der Bereich in Stufen variierbar ist; und/oder indem durch das Berühren eine Zone um die Berührungsstelle im Zielbereichsbild aktiviert wird, und innerhalb dieser Zone das Ziel automatisch erkannt und ausgewählt wird, und damit die also die Zielauswahl automatisch unterstützt wird. Optional wird zum Definieren des Zielbereichs und/oder Auswahlen des Ziels automatisch eine Zoomfunktion, insbesondere eine Bildschirmlupe, aktiviert.
Zudem betrifft dieser Erfindungsaspekt ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Ausführung dieses Verfahrens, insbesondere durch ein Vermessungsgerät mit einer Entfernungs- und Richtungsmessfunktionalität.
Des Weiteren betrifft dieser Aspekt der Erfindung ein Vermessungssystem, welches raumgestützt ist, also z.B. bodengestützt oder an einer Wand oder Decke stationiert. Das Vermessungssystem weist ein, insbesondere stationäres, Vermessungsgerät, insbesondere einer Totalstation, auf mit einer Entfernungs- und Richtungsmessfunktionalität, wodurch in Richtung einer Zielachse des Vermessungsgeräts eine Entfernung und Richtung zu einem zu vermessenden Ziel in einer Messumgebung des Vermessungsgeräts bestimmbar ist. Weiter weist das Vermessungsgerät wenigstens einen Antrieb zum automatisierten Verschwenken der Zielachse, und wenigstens eine in Richtung der Zielachse ausgerichtete Kamera auf, insbesondere eine on-axis-Kamera, mittels derer ein Bild eines Ausschnitts der Messumgebung aufnehmbar ist. Das Vermessungssystem weist darüber hinaus einen Bildschirm und eine Steuerung mit Auswertefunktionalität auf.
Die Steuerung weist eine Zielerfassungsfunktion auf, bei deren Ausführung eine Aufnahme eines Überblicksbilds der Messumgebung, insbesondere eines 360 ° -Panoramabildes , vom Standort des Vermessungsgeräts aus, insbesondere mittels der in Richtung der Zielachse ausgerichteten Kamera, erfolgt sowie eine Anzeige des Überblicksbilds auf dem Bildschirm. Weiter wird im Rahmen der Zielerfassungsfunktion ein manuelles Auswahlen eines das Ziel beinhaltenden Zielbereichs anhand des angezeigten Überblicksbilds durch einen Benutzer registriert, eine automatische Ausrichtung der Zielachse in Richtung des Zielbereichs mittels des Antriebs anhand der registrierten manuellen Definition als grobe Ausrichtung auf das Ziel durchgeführt und dann ein Bild des Zielbereichs aufgenommen, welches einem vergrösserter Ausschnitt aus dem Überblicksbild entspricht, mittels der in Richtung der Zielachse ausgerichteten Kamera.
Mittels diesem (zweiten) Bild erfolgt ein Registrieren eines manuellen Auswählens des Ziels, eine automatische (feine) Ausrichtung der Zielachse in Richtung des ausgewählten Ziels (also auf das Ziel) mittels des Antriebs anhand der registrieren manuellen Zielauswahl, so dass das Ziel mittels der Entfernungs- und Richtungsmess funktionalität vermessbar ist.
Optional weist das Vermessungsgerät auf eine Basis, eine die Zielachse definierende und gegenüber der Basis um wenigstens eine Achse, insbesondere zwei zueinander orthogonale Achsen, schwenkbare Anzieleinheit, insbesondere ein Zielfernrohr, wenigstens einen Winkelmesser sowie eine Winkelmessfunktionalität zur Messung der Ausrichtung der Zielachse, einen Entfernungsmesser zur Messung einer Entfernung zum Ziel entlang der Zielachse, und eine Steuerung mit Einzelpunktbestimmungsfunktionalität, bei deren Ausführung gesteuert durch die Steuerung basierend auf der gemessenen Ausrichtung der Zielachse und der Entfernung zwischen Ziel und Vermessungsgerät eine räumliche Position des Ziels bestimmt wird. Vorzugsweise weist die Anzieleinheit eine Strahlquelle zur Erzeugung einer Messstrahlung sowie eine Optik zur Emission der Messstrahlung als Freistrahl in Richtung der Zielachse auf sowie einen elektro-optischen Detektor zum Detektieren von vom Ziel reflektierter Messstrahlung, woraus die Entfernung zum Ziel bestimmbar ist.
Optional ist der Bildschirm zur Bedienung des Vermessungsgeräts sowie zur Darstellung und Manipulation von Messdaten ausgebildet, wobei der Bildschirm und das Vermessungsgerät separate Einheiten sind oder der Bildschirm als vom Vermessungsgerät separierbar ausgebildet ist. Weiter kann das Vermessungssystem ein Messhilfs instrument zur physischen Markierung des Ziels umfassen, insbesondere einen Vermessungsstab mit Retroreflektor .
Ein vierter Aspekt der Erfindung betrifft einen Baulaser, z.B. einen Linienlaser, mit einem eine Laserquelle und eine Sendeoptik aufweisenden -z.B. mittels einer kardanischen Aufhängung oder einem Kugelgelenk- selbstnivellierenden Lasermodul, wobei die Sendeoptik ausgebildet ist zum punkt- oder linienförmigen Aussenden von Laserstrahlung der Laserquelle, z.B. als Linie mittels Verbreiterns/Aufweitens des Laserstrahls oder dessen raschen Verschwenkens/ Rotierens (in einer Ebene) . Weiter weist der Baulaser ein Gehäuse mit einer Arretierung (Fixierung) auf, welche vorgesehen ist zum wiederablösbaren Fixieren des Gehäuses in einer Höhe über einer Referenzfläche, z.B. dem Boden eines Raums.
Erfindungsgemäss weist der Baulaser einen Distanz- und/oder Positionsmesser auf, welcher ausgebildet ist zur automatisierten Messung der Höhe über der Referenzfläche. Optional ist der Distanz- und/oder Positionsmesser ausgebildet als Laserdistanzmesser, wobei vorzugsweise die Laserquelle auch zur Bereitstellung von Laserstrahlung für den Laserdistanzmesser dient. Alternativ oder zusätzlich ist der Distanz- und/oder Positionsmesser ausgebildet als Lesekopf, vorgesehen zum Lesen einer, insbesondere absoluten, Positionscodierung. D.h. die Höhe wird als Ent fernung zum Boden z.B. mittels Laserlaufzeit- oder Phasen messung gemessen und/oder die Höhe wird von einer die Höhe codierenden Massverkörperung durch einen Lesekopf abgelesen .
Bei Ausbildung als Lesekopf ist dieser optional in die Arretierung integriert und/oder als opto-elektronischer oder kapazitiver Lesekopf ausgebildet. Als weitere Option ist mittels des Distanz- und/oder Positionsmessers oder eines zusätzlichen Ausrichtungsmessers des Baulasers auch die Ausrichtung des Gehäuses in der horizontalen Ebene messbar, so dass also auch eine Rotationsstellung um die Höhenachse messbar ist.
Vorzugsweise weist das Gehäuse einen Antrieb auf und die Arretierung ist als automatisierte Arretierung ausgebildet, so dass die Höhe automatisiert verstellbar ist, wobei optional der Antrieb auch zur automatisierten Änderung der horizontalen Ausrichtung ausgebildet ist.
Optional erfolgt die Höhen- und ggf· auch Ausrichtungsänderung mittels Antrieb automatisch, indem der Baulaser eine Steuerung aufweist, welche ausgebildet ist zur automatischen Verstellung der Höhe und zur automatischen Fixierung des Gehäuses in einer Sollhöhe, ggf. mit einer Sollausrichtung.
Auch kann in Ausführungsformen mit Antrieb der Baulaser ein Fernsteuerungsempfänger aufweisen und derart ausgebildet sein, dass die Höhe, und insbesondere auch die Ausrichtung des Gehäuses in der horizontalen Ebene, per Fernsteuerung verstellbar ist.
Als weitere Option weist der Baulaser ein Kommunikationsmodul auf, so dass die jeweils gemessene Höhe an ein externes Gerät, insbesondere eine Fernsteuerung, übermittelbar ist.
Der vorliegende Aspekt der Erfindung betrifft zudem ein Baulasersystem mit einem Baulaser und einer, insbesondere stabförmigen, Halterung, wobei der Baulaser ein eine Laserquelle und eine Sendeoptik aufweisendes , insbesondere mittels einer kardanischen Aufhängung oder einem Ku gelgelenk, selbstnivellierendes Lasermodul aufweist, wobei die Sendeoptik ausgebildet ist zum punkt- oder linienförmi gen Aussenden von Laserstrahlung. Weiter umfasst der Baulaser ein Gehäuse mit einer Arretierung, welche vorgesehen ist zum lösbaren Fixieren des Gehäuses an der Halterung, so dass das Gehäuse an der Halterung flexibel in verschiedenen Höhen über einer Referenzfläche fixierbar ist .
Erfindungsgemäss weist das System einen, insbesondere absoluten, Positionsencoder auf zur automatisierten Messung der jeweiligen Höhe des Gehäuses über der Referenzfläche.
Optional weist die Halterung einen aktiven Teil des Positionsencoders auf und der Baulaser einen dazu komplementären passiven Teil, z.B. ein Magnet als posi tionsindizierendes Target. D.h. das Bestimmen oder Auslesen eines Positionswerts erfolgt auf Seiten der Halterung. Dies hat den Vorteil, dass der Baulaser einfach gehalten werden kann, kein oder kaum zusätzliches Gewicht und keinen oder kaum zusätzlichen Energiebedarf aufweist. Alternativ ist die Halterung passiv und weist z.B. einen für die Höhenmessung vorgesehenen optischen Positionscode auf.
In einer Fortbildung des Systems ist der Positionsencoder derart ausgebildet, dass neben der Höhe auch eine Ausrichtung des Gehäuses relativ zur Halterung messbar ist, insbesondere wofür die Halterung hierfür einen optischen Flächencode aufweist, der neben der Höhenachse eine weitere Achse codiert.
Optional weist das System einen Antrieb auf und die Arretierung ist als automatisierte Arretierung ausgebildet, so dass das Gehäuse automatisiert höhenverstellbar und fixierbar ist, insbesondere wobei der Antrieb derart ausgebildet ist, dass automatisiert zusätzlich zur Höhe auch eine Ausrichtung des Gehäuses relativ zur Halterung verstellbar ist. Der Antrieb ist beispielsweise dergestalt, dass hinsichtlich des Antriebs die Halterung aktiv und der Baulaser passiv ist, wobei der Antrieb zum Beispiel als magnetischer Linearantrieb ausgebildet ist. Bei einem derart passiven Baulaser könnte somit vorteilhaft dessen Energiebedarf vergleichsweise klein gehalten werden.
Bei derartigen Ausführungsformen mit einem Antrieb weist das System zudem vorzugsweise eine elektronische Steuerung auf, welche derart ausgebildet ist, dass mittels des Antriebs und der Arretierung und anhand der jeweils gemessenen Höhe automatisch das Gehäuse in einer vorgegebenen Sollhöhe fixierbar ist. Bei Ausführungsformen, die wie oben beschrieben weiter einen Zweiachsenantrieb und eine Zweiachsencodierung/Zweiachsenencoder aufweisen, ist dann vorzugsweise die Steuerung auch zur automatischen Verstellung der zweiten Achse ausgebildet. Alternativ oder zusätzlich weist das System einen Fernsteuerungsempfänger auf und ist derart ausgebildet, dass die Höhe, und insbesondere auch eine Ausrichtung des Gehäuses, per Fernsteuerung verstellbar ist.
Der vorliegende Erfindungsaspekt betrifft zudem ein Verfahren zum Einstellen einer Sollhöhe eines Baulasersystems nach obiger Beschreibung, wobei anhand der vom Positionsencoder gemessenen jeweiligen Höhe die Sollhöhe automatisch vom System und/oder von einem Benutzer mittels Fernbedienung eingestellt wird.
Als zusätzliche Option erfolgt im Rahmen des Verfahrens zusätzlich ein Ausrichten des Baulasers dergestalt, dass in Kenntnis einer Distanz zu einer senkrechten Wand der Baulaserumgebung ein gezieltes Einstellen der Aussenderichtung des Laserfächers derart erfolgt, dass eine von vom Laserfächer an der senkrechten Wand gebildete Referenzlinie sowohl in horizontaler als auch in vertikaler Richtung gezielt platziert wird.
Dieser Erfindungsaspekt betrifft zudem ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Ausführung des Verfahrens nach einem der Ansprüche, insbesondere durch ein Baulasersystem.
In einem fünften Aspekt betrifft die Erfindung ein portables oder handtragbares geodätisches Messhilfsinstrument, ausgebildet um mit einem, insbesondere stationären, Entfernungs- und Richtungsmessfunktionalität aufweisenden geodätischen Vermessungsgerät, insbesondere einer Totalstation, ein Vermessungssystem zum Vermessen und/oder Abstecken eines Geländepunkts zu bilden.
Das Messhilfsinstrument weist dabei eine handhaltbare Stange auf mit einem Bodenkontaktende. Alternativ oder zusätzlich weist das Instrument ein Stativ auf. Mittels der Stange und/oder dem Stativ ist das Messhilfsinstrument beim Geländepunkt positionierbar oder aufstellbar. Weiter weist das Messhilfsinstrument ein vom Vermessungsgerät anzielbares Ziel auf, z.B. einen Retroreflektor, wobei das Ziel einen entlang einer Längsachse gelegenen Positionsreferenzpunkt aufweist.
Darüber hinaus weist das Instrument eine Anzieleinheit mit einer Zielachse zum Anzielen des Geländepunkts, wobei die Zielachse der Längsachse des Ziels entspricht oder zu dieser senkrecht ist, und wobei das Ziel und die Anzieleinheit in einer von der Stange und/oder dem Stativ getragenen Baugruppe angeordnet sind.
Die Baugruppe ist in einer motorisiert angetriebenen und aktiv gesteuerten kardanischen Aufhängung mit zwei kardanischen Achsen gelagert, wobei mittels der kardanischen Aufhängung die Hochachse des Ziels und die Zielachse der Anzieleinheit bei Positionierung beim Geländepunkt von selbst bzw. automatisch lotrecht oder waagrecht ausrichtbar sind.
D.h. die Baugruppe ist an bzw. in einer zweiachsig gelagerten kardanischen Aufhängung befestigt, welche einen Antrieb, z.B. einen Direktantrieb, aufweist zur aktiven Bewegung der Aufhängung um die beiden Achsen und damit wiederum Bewegung der Baugruppe. Das Messhilfsinstrument ist dabei derart ausgebildet, dass die aktive kardanische Aufhängung so steuerbar ist, dass mittels Ein-/Anfahren einer entsprechenden Stellung der Baugruppe die Zielhochachse und die Zielachse automatisch lotrecht bzw. waagrecht ausgerichtet werden, wenn das Instrument am gewünschten Geländepunkt ist. Daneben kann mittels der aktiven kardanischen Aufhängung bei Bedarf die Hoch-/bzw. Zielachse gezielt auf weitere gewünschte oder vorgegebene Ausrichtungen eingestellt werden, z.B. um mit der Anzieleinheit bestimmte Fluchtungsvorgaben bereitzustellen.
Vorzugsweise weist die aktive kardanische Aufhängung eine adaptive Dämpfung auf. Damit lässt sich die durch die Aufhängung bereitgestellte Dämpfung aktiv und vorzugsweise automatisch an Messbedingungen anpassen. D.h. das beispielsweise eine Bewegung der Baugruppe, z.B. je nach Stärke oder Frequenz, optimiert ausgeglichen werden kann. Auch ist damit beispielsweise die Dämpfung an das Gewicht des Ziels anpassbar, was besonders bei Messhilfsinstrumenten, welche unterschiedliche schwere Zielkörper aufnehmen können, vorteilhaft ist. Optional ist das Ziel derart angeordnet, dass sich der Positionsreferenzpunkt im Schnittpunkt der beiden Achsen der kardanischen Aufhängung befindet. Als weitere Option ist die Baugruppe mit einem Versatz zur Stange und/oder der Stativmitte angeordnet ist, so dass die lotrecht ausgerichtete Zielachse von Stange oder Stativ ungehindert auf einen Geländepunkt am Boden zielt. Als weitere Option weist die Aufhängung wenigstens einen Neigungssensor auf. Dank der aktiven zweiachsigen kardanischen Aufhängung ist ein solcher Neigungssensor mit hoher Genauigkeit und kleinem Messbereich anfahrbar und einnivellierbar . Vorzugsweise ist die Anzieleinheit zur Markierung des angezielten Geländepunkts und/oder Messung der Entfernung zwischen dem Positionsreferenzpunkt und dem angezielten Geländepunkt ausgebildet ist. D.h. die Anzieleinheit dient zum Anzeigen eines Sollpunkts im Gelände (Abstecken) und/oder zur Messung der Position eines im Gelände vorhandenen Punkts. Hierfür weist die Anzieleinheit optional einen Laser auf zur Emission eines Laserstrahls in Richtung der Zielachse, wobei der Laserstrahl zur Markierung des Geländepunkts und/oder zur Messung der Distanz zum Geländepunkt dient. Zur Entfernungsmesser weist die Anzieleinheit optional einen, z.B. als Triangulationsscanner oder eine Time-of-Flight-Kamera ausgebildeten, elektronischen Distanzmesser auf.
Weiter kann die Anzieleinheit ausgebildet sein zur Emission eines zweiten Laserstrahls, z.B. mittels einer zweiten Lasers oder durch Abspalten eines Teilstrahls des ersten Laserstrahls. Die Emissionsrichtung des zweiten Laserstrahls ist optional senkrecht zur Zielachse. Als weitere Option weist die Anzieleinheit eine Optik auf, mittels derer der erste und/oder zweite Laserstrahl punkt- oder linienförmig aussendbar ist (also als z.B. Linien laser) . Als weitere Option ist die Anzieleinheit ausgebil det, um mittels des ersten und/oder zweiten Laserstrahls oder einer zusätzlichen Lichtquelle zweidimensionale Bilder auf eine Fläche der Umgebung zu projizieren.
Optional weist die Anzieleinheit eine in Richtung der Zielachse ausgerichtete Kamera auf, so dass damit ein Bild des Geländepunkts aufnehmbar ist. Die Kamera wird optional genutzt, um im Rahmen einer Visualisierungsfunktionalität ein Bild des Geländepunkts (bzw. ein Bild der Messumgebung, dass den Geländepunkt beinhaltet) aufzunehmen, ein augmented-reality-Bild zu erzeugen, indem dem aufgenommenen Bild eine den Geländepunkt positionsgetreu markierende Grafik überlagert wird und das augmented-reality-Bild auf einem, insbesondere externen, Display anzuzeigen, z.B. einer augmented-reality-Brille .
In einer Fortbildung weist die Baugruppe eine Zielverfolgungseinheit auf, ausgebildet zur fortlaufenden Verfolgung eines sich relativ zum Messhilfsinstrument bewegenden Zielgeräts, z.B. einem herkömmlichen Lotstab. Die Zielverfolgungseinheit kann z.B. ATR-basiert (Automated Target Recognition; siehe auch Beschreibung zu Figur 14) sein zur Verfolgung retroreflektierender Zielgeräte, wie prinzipiell aus dem Stand der Technik bekannt, und/der kamerabasiert für andere Geräte.
Dieser fünfte Erfindungsaspekt betrifft zudem ein Vermessungssystem mit einem, insbesondere stationären, Entfernungs- und Richtungsmessfunktionalität aufweisenden geodätischen Vermessungsgerät, insbesondere einer Totalstation, und einem oben beschriebenen Messhilfsinstrument, wobei vorzugsweise das System Mittel aufweist zur Bestimmung der Orientierung der kardanischen Aufhängung des Messhilfsinstruments relativ zum Vermessungsgerät. Diese Orientierungsbestimmungsmittel sind z.B. ausgebildet als optische Markierungen/Muster/Codes am Messhilfsinstrument, z.B. LED-Anordnungen oder einen 3D- Körper wie z.B. eine Kugel mit optischem Code auf der Oberfläche, welche von einer vermessungsgerätseitigen Kamera erfassbar und auswertbar sind (siehe auch Beschreibung zum zweiten Erfindungsaspekt) .
Weiter betrifft dieser Aspekt ein Verfahren zum Überprüfen der Fluchtung eines handgehaltenen Werkzeugs, welches eine Arbeitsachse und an einer Rückseite einen auf der Arbeitsachse liegenden Laserdetektor oder eine Mattscheibe aufweist, mit Hilfe eines solchen Messhilfsinstruments, welches einen Laser zur Laserstrahlemission in Zielachsenrichtung aufweist. Im Rahmen des Verfahrens erfolgt ein Positionieren des Messhilfsinstruments bei einem Geländepunkt, so dass der Laserstrahl auf den Geländepunkt trifft und Anlegen des Werkzeugs, z.B. einer Bohrmaschine, am Geländepunkt. Dann erfolgt ein Überprüfen der Fluchtung des Werkzeugs, indem die Arbeitsachse des Werkzeugs so ausgerichtet wird, dass der Laserstrahl innerhalb einer definierten zentralen Zone auf den Detektor oder die Mattscheibe des Werkzeugs trifft.
Dieser Erfindungsaspekt betrifft zudem ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, insbesondere eines handhaltbaren Werkzeugs oder eines Baulasersystems, zur Ausführung des Verfahrens nach einem der Ansprüche.
Ein sechster Erfindungsaspekt betrifft ein Vermessungs gerät, insbesondere ausgebildet als Totalstation oder Lasertracker, zur koordinativen Positionsbestimmung eines Ziels, insbesondere eines Retroreflektors .
Das Vermessungsgerät weist ein Entfernungsmessmodul auf mit einer Strahlquelle zur Erzeugung von Messstrahlung, einem Detektor zur Detektion von vom Ziel reflektierter Messstrahlung, um basierend auf detektierter Messstrahlung die Entfernung zum Ziel zu bestimmen.
Weiter weist das Vermessungsgerät ein Richtungsmessmodul auf mit einem lichtempfindlichen positionssensitiven Sensor und einer Empfangsoptik zum Empfang von optischer Strahlung und deren Führung auf den Sensor. Der Sensor ist in einem bestimmten infraroten Wellenlängenbereich empfindlich, um vom Ziel ausgehende Infrarotstrahlung aus diesem Wellenlängenbereich zu erfassen, wobei ein Auftreffpunkt der erfassten Infrarotstrahlung auf dem Sensor bestimmbar ist und anhand des Auftreffpunkts eine Richtung zum Ziel ermittelbar ist. Die vom Ziel ausgehende Zielinfrarotstrahlung wird wie im Stand der Technik bekannt entweder vom Ziel selbst emittiert oder es wird vom Ziel vom Vermessungsgerät ausgehende Infrarotstrahlung z.B. mittels eines Retroreflektors reflektiert.
Erfindungsgemäss sind die Empfangsoptik und der Sensor derart ausgebildet, dass gleichzeitig zum Erfassen der Infrarotstrahlung auch sichtbare Strahlung mit einer zur Erzeugung eines Farbbildes ausreichenden Spektralverteilung empfangbar und mittels des Sensors erfassbar ist.
Vorzugsweise ist das Vermessungsgerät derart ausgebildet, dass parallel zur Bestimmung der Richtung zum Ziel (anhand der Infrarotstrahlung) ein Bild, insbesondere ein RGB-Bild, des Ziels anhand der erfassten sichtbaren Strahlung erzeugbar ist.
Der Sensor ist optional als hybrider RGB-IR-Sensor ausgebildet. Als weitere Option weist die die Empfangsoptik wenigstens eine Korrekturlinse auf, mittels derer die Fokuslänge der Empfangsoptik im Infrarotbereich und die Fokuslänge im sichtbaren Bereich einander angeglichen sind, so dass gleichzeitig für beide Wellenlängenbereiche ein (zumindest weitgehend) scharfes Bild auf dem Sensor vorliegen kann. Alternativ oder auch zusätzlich weist das Vermessungsgerät eine teilautomatisierte oder automatisierte Steuerung des Fokus der Empfangsoptik auf, welche derart ausgebildet ist, dass basierend auf einer Auswertung erfasster sichtbarer Strahlung der Fokus für die Infrarotstrahlung eingestellt wird.
Optional weist das Vermessungsgerät eine Basis auf und eine um wenigstens eine Achse relativ zur Basis motorisiert verschwenkbare Strahllenkeinheit, welche das Entfernungsmessmodul und das Richtungsmessmodul aufweist und weiter eine Winkelmessfunktionalität zur Bestimmung einer Ausrichtung der Strahllenkeinheit relativ zur Basis. Als weitere Option weist die Strahllenkeinheit eine Infrarotstrahlquelle auf zur Beleuchtung des Ziels mit der Infrarotstrahlung und/oder eine Pointer-Strahlquelle zum Emittieren eines sichtbaren (und damit in einem mittels des Sensors erzeugten Bild erkennbaren) Pointer-Lichtstrahls koaxial zur Messstrahlung.
Als weitere Option weist das Vermessungsgerät eine Feinanziel- und/oder Zielverfolgungsfunktionalität auf, bei deren Ausführung anhand der (mittels des Auftreffpunkts ) bestimmten Richtung zum Ziel eine Ausrichtung des Vermessungsgeräts zum Ziel automatisch geregelt wird, so dass das Ziel feinanzielbar und/oder verfolgbar (sog. Tracking) ist.
Dieser sechste Erfindungsaspekt betrifft zudem ein Verfahren mit einem oben vorgestellten Vermessungsgerät, wobei im Rahmen des Verfahrens in einer Ausrichtung der Empfangsoptik zum Ziel in einem Arbeitsgang anhand von mittels der Empfangsoptik empfangener und vom Sensor erfasster Zielinfrarotstrahlung (also vom Ziel ausgehender Infrarotstrahlung) eine Richtung zum Ziel bestimmt wird (sog. ATR-Messung) . Zudem wird im Rahmen des Verfahrens anhand von mittels der Empfangsoptik empfangener und vom Sensor erfasster sichtbarer Strahlung ein Bild, insbesondere ein RGB-Bild, vom Ziel erzeugt wird.
Hierbei ist für die Durchführung beider Prozesse keine Veränderung der Wellenlängendurchlässigkeit der Empfangsoptik/des optischen Strahlengangs erforderlich, so dass z.B. das Erfassen der Infrarotstrahlung und das Erfassen der sichtbaren Strahlung im selben Sensorbelichtungsvorgang erfolgen können bzw. Bilderzeugung und ATR-Messung gleichzeitig ablaufen können.
Alternativ zu einem solchen gleichzeitigen Vorgang erfolgen das Erfassen der Infrarotstrahlung und das Erfassen der sichtbaren Strahlung in jeweils getrennten, nacheinander erfolgenden Sensorbelichtungsvorgängen. Optional erfolgen die Belichtungsvorgänge alternierend im Rahmen eines Videostreams und/oder die Belichtung wird jeweils an die die jeweilige Strahlung angepasst, so dass z.B. aufgrund der unterschiedlichen Belichtungszeiten für jede Strahlung der Sensor optimal ausgenutzt wird.
Optional wird im Bild des Ziels die bestimmte Richtung zum Ziel überlagernd dargestellt, wobei das Bild zum Beispiel Teil eines Live-Video-Streams ist. Als weitere Option erfolgt anhand der bestimmten Richtung zum Ziel eine Zielfeinanzielung und/oder Zielverfolgung durch das Vermessungsgerät .
Als weitere Option wird im Rahmen des Verfahrens die Bildschärfe des Bilds ausgewertet und anhand des Auswertungsergebnisses der Fokus für ein danach erfolgendes Erfassen der Infrarotstellung eingestellt wird.
Dieser Erfindungsaspekt betrifft zudem ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Ausführung des Verfahrens nach einem der Ansprüche, insbesondere durch ein Vermessungsgerät mit Richtungs- und Entfernungsmessfunktionalität .
In einem siebten Aspekt betrifft die Erfindung eine Plattform zum Verkauf und Kauf von Geodäsiedaten über ein offenes Computernetzwerk, vorzugsweise über das Internet.
Die Plattform weist dabei Mittel zum Empfang von von einem externen Gerät, insbesondere einem geodätischen Vermessungssystem, über das Computernetzwerk gesendeten Geodäsiedaten auf, wobei die Daten geodätisch vermessene, absolute Koordinaten wenigstens eines Geländepunkts beinhalten. Dann verfügt die Plattform über Mittel zum Speichern der empfangenen Geodäsiedaten in Zuordnung zu den Koordinaten, d.h. die Daten werden gemäss ihrer Koordinaten eingeordnet/abgelegt .
Weiter weist die Plattform Mittel zum Bereitstellen wenigstens eines Teils der gespeicherten Geodäsiedaten bei koordinatenbezogener Abfrage durch ein externes und per Computernetzwerk verbundenes geodätisches Vermessungssystem auf. Dieser Datenteil umfasst zumindest die Koordinaten selbst umfasst und das Bereitstellen basiert auf der Koordinatenzuordnung der gespeicherten Daten. Ausserdem verfügt die Plattform über Mittel zum Senden der bereitgestellten Geodäsiedaten an das abfragende geodätischeVermessungssystem über das Computernetzwerk.
Optional ist die Plattform derart ausgebildet, dass die Geodäsiedaten neben den absoluten Koordinaten des Geländepunkts wenigstens eine der folgenden Metadaten zu den Koordinaten (bzw. dem Geländepunkt oder der zugrundeliegenden Vermessung) beinhalten können: Messgenauigkeit, Messzeitpunkt, Messtechnologie und/oder Vermessungsgerättyp, Urheber/Quelle, Punkt- und/oder Objektcodierung (z.B. Kennzeichnung als Wegberandung oder Hydrant) oder Koordinatenhistorie.
Als weitere Option sind die Mittel zur Datenbereitstellung derart ausgebildet, dass bei Abfrage im Rahmen der Bereitstellung eine Vorauswahl aus den gespeicherten Geodäsiedaten und/oder eine Adaption der gespeicherten Geodäsiedaten erfolgt in Abhängigkeit des hierzu an die Plattform übermittelten Gerätetyps und/oder Standorts des ersten Vermessungssystems.
Optional ist die Plattform ausgebildet, mehrere Vermessungsgeräte als Vermessungsverbund derart zu verknüpfen, dass von einem der Vermessungssysteme empfangene Geodäsiedaten in Echtzeit im Verbund, insbesondere automatisch, verteilbar sind.
In einer Fortbildung ist die Plattform ausgebildet, bei Vorhandensein von ersten Geodäsiedaten eines Geländepunktes und zumindest zweiten Geodäsiedaten des gleichen Geländepunktes, insbesondere aus unterschiedlichen Datenquellen stammend, diese beiden Daten zu verarbeiten, um eine Statistik des Verlaufs der Geländepunktkoordinaten zu erzeugen und/oder einen Mittelwert aus den zumindest zwei Geländepunktkoordinaten zu berechnen und diesen Koordinatenmittelwert als abfragbare Koordinaten zu speichern und/oder eine vergleichende Beurteilung der Zuverlässigkeit und/oder Qualität der ersten und zweiten Geodäsiedaten bereitzustellen, insbesondere wobei die Beurteilung automatisch und/oder durch Benutzer der Plattform erzeugt ist.
Optional ist die Plattform ausgebildet, im Falle einer Aktualisierung gespeicherter Geodäsiedaten automatisch eine Aktualisierungsmitteilung zu generieren und über das Computernetzwerk an ein Vermessungssystem zu senden, welches diese Daten bereits heruntergeladen hat. Als weitere Option ist die Plattform über das Internet mit einem meteorologischen und/oder seismologischen Datenprovider verbunden und dergestalt ausgebildet, dass eine Warnungsmitteilung mit den Geodäsiedaten des Geländepunkts verknüpft wird, welche auf eine aufgrund meteorologischer und/oder seismologischer Ereignisse mögliche Abweichung der gespeicherten Koordinaten von den realen Koordinaten des Geländepunkts hinweist. D.h. falls aufgrund der empfangenden meteorologischen und/oder seismologischen Daten anzunehmen ist, dass sich der Geländepunkt "bewegt" hat oder haben könnte und somit die bezogenen Koordinaten veraltet sein könnten, wird dies automatisch an Benutzer mitgeteilt.
Dieser Erfindungsaspekt betrifft zudem ein System aus einer derartigen Datenplattform und einem geodätischen Vermessungssystem, insbesondere einer Totalstation, wobei das System derart ausgebildet ist, dass Upload und/oder Download von Geodäsiedaten an bzw. von der Plattform durch eine einzige Vermessungssystembenutzereingabe durchführbar ist, insbesondere durch einen einzigen Tasten- oder Knopfdruck am Vermessungsgerät.
Weiter betrifft dieser siebte Aspekt der Erfindung ein Verfahren zum Verkauf und Kauf von Geodäsiedaten über eine Computernetzwerkplattform.
Das Verfahren umfasst die Schritte: geodätisches Vermessen von Geländepunkten, so dass Geodäsiedaten erzeugt werden, welche zumindest die absoluten Koordinaten der Geländepunkte aufweisen, Uploaden der Geodäsiedaten an eine öffentlich zugängliche Computernetzwerk-Geodäsiedaten handelsplattform über das Computernetzwerk als Verkauf der Geodäsiedaten, Speichern der Geodäsiedaten in der Plattform, so dass die Geodäsiedaten in Abhängigkeit der Koordinaten abfragbar sind. Weiter beinhaltet das Verfahren ein Bereitsstellen von gespeicherten Geodäsiedaten bei koordinatenbezogener Abfrage der Geodäsiedaten über das Computernetzwerk und Downloaden zumindest eines ausgewählten Teils der bereitgestellten Geodäsiedaten über das Computernetzwerk als Kauf der Geodäsiedaten, insbesondere wobei das Downloaden auf/durch ein geodätisches Vermessungssystem erfolgt.
Optional wird der Koordinatenbezug der Abfrage automatisch hergestellt wird, indem der Standort des abfragenden Käufers, insbesondere unter Verwendung eines Globalen Navigationssystems, bestimmt und die gespeicherten Geodäsiedaten derjenigen Geländepunkte zur Abfrage bereitgestellt/angeboten werden, welche sich am Standort befinden. D.h. ein Benutzer bzw. Käufer muss nicht händisch eingeben, zu welchen Koordinaten bzw. zu welchem Vermessungsstandort er bereits vermessende Geländepunkte (Geodäsiedaten) er beziehen möchte, sondern es wird im Rahmen des Verfahrens automatisch seinen Aufenthaltsort ermittelt und der Plattform mitgeteilt, welche dann von selbst anhand der empfangenen Standortkoordinaten am Standort gelegene vermessene Punkte aus dem Speicher heraussucht. Generell meint koordiantenbezogenes Abfragen auch, dass eine Bezeichnung oder ein Name einer Messumgebung/eines Standorts angegeben wird, z.B. in Form einer Adressangabe (z.B. Ort, Strasse). D.h. die Geodäsiedaten können auch derartig in Abhängigkeit der bzw. Zuordnung zu den Koordinaten abgespeichert werden, dass sie aufgrund einer Ortsbezeichnungseingabe auffindbar bzw. abfragbar sind.
Optional erfolgt im Rahmen des Verfahrens bei Abfrage von Geodäsiedaten einer bestimmten Menge von Geländepunkten automatisch -basierend auf den Geodäsiedaten- ein Vorschlag für einen zur Menge der Geländepunkte passenden bzw. optimaler Vermessungsstandort.
Als weitere Option erfolgt bei der Abfrage das Übermitteln eines Gerätetyps eines abfragenden Vermessungssystems an die Plattform und das Bereitstellen von Geodäsiedaten angepasst an den Gerätetyp. Als weitere Option werden im Rahmen des Bereitstellens von Geodäsiedaten eines Geländepunkts mögliche weitere an den Geländepunkt anschliessende Geländepunkte vorgeschlagen.
In einer Fortbildung des Verfahrens wird automatisch eine Mitteilung an einen Käufer gesendet, sobald eine Aktualisierung bereits heruntergeladener Geodäsiedaten vorliegt und/oder als Hinweis darauf, dass bereits heruntergeladene Geodäsiedaten inzwischen veraltet oder wahrscheinlich veraltet sind, insbesondere aufgrund von Umwelteinflüssen auf den Geländepunkt.
Zudem betrifft dieser Erfindungsaspekt ein Computerpro grammprodukt mit Programmcode, der auf einem maschinen lesbaren Träger gespeichert ist, zur Ausführung dieses Verfahrens .
Die vorliegende Erfindung wird nachfolgend anhand von den in den Zeichnungen schematisch dargestellten Ausführungen und Anwendungsvorgängen näher beschrieben.
Im Einzelnen zeigen
Fig.1 schematisch den Ablauf des erfindungsgemässen
Verfahrens zur Darstellung von Soll-Positionen in einem Livebild einer Baustelle,
Fig.2 ein Beispiel für ein Live-Bild einer Baustelle mit Anzeige von Soll-Positionen,
Fig.3a,b je eine Fortbildung des Verfahrens,
Fig.4 ein Beispiel für ein Vermessungssystem mit
Vermessungsfunktonalität, welches ein
Vermessungsgerät und ein handhaltbares
Messhilfsinstrument aufweist,
Fig .5 eine Abwandlung des Systems nach Figur 4,
Fig .6a-e schematisch das erfindungsgemässe Verfahren zum
Vermessen eines Ziels mittels ernes Vermessungsgeräts mit Zielbereitstellungs- funktion,
Fig.7a,b Fortbildungen des Zielbereitstellungsverfahrens ,
Fig. 8 eine erste Ausführungsform eines erfindungsgemässen BaulaserSystems ,
Fig. 9 ein zweites Beispiel eines erfindungsgemässen
BaulaserSystems ,
Fig. 10 eine Fortbildung der vorigen Baulaserausführungs formen,
Fig.lla-c Ausführungsformen eines erfindungsgemässen
Vermessungssystems mit einem Messhilfsinstruments und einem Vermessungsgerät mit einer kardanischen Aufhängung,
Fig. 12 eine alternative Ausführungsform eines
Messhilfsinstruments ,
Fig.l3a-c ein Beispiel für ein Verfahren zum
Fluchtungsprüfen unter Verwendung eines
Messhilfsinstruments ,
Fig. 14 ein Beispiel eines Vermessungsgeräts mit parallelem Bereitstellen einer Richtung zu einem zu vermessenden Ziel und eines Bilds vom Ziel,
Fig. 15 schematisch den Ablauf von parallelem Erfassen von Infrarotstrahlung und sichtbarer Strahlung, Fig. 16 eine Fortbildung der Ausführungsform eines
Vermessungsgeräts nach Fig. 14,
Fig. 17 einen Ablauf dar, mit dem in einem Arbeitsgang ein Kamerabild anhand der sichtbaren Wellenlängen als auch eine IR-Messung erfolgt,
Fig. 18 ein Ausführungsbeispiel für einen hybriden
Sensor,
Fig. 19 ein Beispiel für ein Verfahren zum Kauf und
Verkauf von Geodäsiedaten über eine
Computernetzwerkplattform,
Fig . 20 ein Beispiel für Geodäsiedaten und
Fig. 21 für einen mittels der Plattform bereitgestellten
Vermessungsverbünd .
Die Figur 1 zeigt schematisch den Ablauf des erfindungsgemässen Verfahrens zur Darstellung von Soll- Positionen in einem Livebild einer Baustelle. In einem Schritt 20a wird ein positionsreferenziertes Bild der Baustelle aufgenommen, z.B. die Fotografie einer oder mehrerer Gebäudeflächen. Alternativ oder zusätzlich zu einem 2D-Abbild wird ein positionsreferenziertes 3D-Abbild der Baustelle erstellt, z.B. wird eine 3D-Punktwolke erzeugt. Das Erstellen eines 2D- oder 3D-Abbilds erfolgt beispielsweise von einem Baustellenvermesser oder mittels eines Vermessungsgeräts wie einer Totalstation oder Laserscanners. Mittels der Positionsreferenz ist dem Baustellenabbild bzw. den darin abgebildeten Elementen der Baustelle eindeutig eine Position zugeordnet oder zumindest zuordenbar . Im Schritt 20b werden mit dem positionsreferenzierten Bild Soll-Positionen oder Stake-out-Punkte verknüpft. Z.B. werden diese Positionen aus einem Bauplan abgerufen und dem positionsreferenzierten Bild positionsgetreu in einem zweiten Bildlayer überlagert. Die Soll-Positionen sind somit mit dem Abbild der Baustelle derart verbunden, dass eine jede gewünschte oder geplante Position, z.B. die Positionen von Bohrlöchern in Wänden, positionsecht im Bild abrufbar sind.
Im Schritt 20c wird das positionsreferenzierte Bild zusammen mit der Verknüpfung der Soll-Positionen oder Stake-out-Punkten in einem elektronischen Speicher ablegt, z.B. einer Daten-Cloud.
Im Schritt 21a wird später eine Live-Bild der Baustelle aufgenommen. Beispielsweise nimmt ein Bauarbeiter, welcher an der Baustelle beruhend auf einer Soll-Position oder einem Stake-out-Punkt tätig werden möchte, mittels eines mobilen Geräts wie ein Smartphone oder Tablet eine Fotografie oder ein Videobild der Baustelle vor Ort auf. Bei dem Live-Bild kann es sich entsprechend dem positionsreferenzierten Bild um ein 2D-Bild oder 3D-Bild (z.B. eine 3D-Punktwolke) handeln. Ein 3D-Bild wird z.B. mittels einer Range-Image-Kamera des mobilen handgehaltenen Geräts aufgenommen.
Das im Schritt 20c hinterlegte positionsreferenzierte Bild wird nun im Schritt 21b aus dem Speicher abgerufen. Im Schritt 21c werden Live-Bild und das referenzierte Bild gefittet, welches z.B. mittels Template Matching erfolgt. Vor allem bei Baustellenbereichen mit sehr geringer Struktur wird optional das Matching unterstützt, indem an der Baustelle, z.B. einer Wand, Targets oder Markierungen angebracht und mit abgebildet werden. Durch das Fitten der beiden Bilder können dann auch die mit dem referenzierten Bild verknüpften Soll-Positionen im Live-Bild positionsgetreu mittels graphischer Markierungen angezeigt werden, was im Schritt 21d erfolgt. Beispielsweise wird das Bild-Layer mit den Stake-out-Punkten dem Live-Bild positionsecht überlagert.
Das Verfahren erlaubt also, mittels einem Bild positionsreferenziert hinterlegte Soll-Positionen in einem vor Ort aufgenommenen Bild der Baustelle positionsgereu anzuzeigen. Damit kann ein Benutzer im Live-Bild z.B. erkennen, an welchen Stellen an einer Wand Bautätigkeiten vorzunehmen sind, was ihm somit auf sehr einfache Weise erlaubt, z.B. ein Loch exakt dort zu bohren, wo dieses geplant ist, ohne umständlich eine Soll-Position abmessen zu müssen.
Die Figur 2 zeigt ein Beispiel für ein Live-Bild 22 einer Baustelle 25 mit positionsgetreuer Anzeige von Soll- Positionen 24, 24a. Das Live-Bild 22 wird z.B. mit der Kamera eines Tablet aufgenommen und auf dem Display 23 des Tablets angezeigt. Aufgrund des Fits mit einem vom Tablet abgerufenen positionsreferenzierten Bild der Baustelle 25 werden die Soll-Positionen 24, 24a als graphische Markierungen dem Live-Bild z.B. in Form eines zusätzlichen Bildlayers überlagert, so dass der Benutzer unmittelbar auf dem Live-Bild erkennen kann, wo auf der Baustelle 25 die Soll-Positionen 24, 24a liegen. Durch das positionsgetreue Überlagern folgen die graphischen Markierungen positionsgetreu z.B. auch einer Positionsänderung des Tablets d.h. einer Änderung der Ausrichtung und/oder des Abstands zur Baustelle bzw. Wand 25, so dass fortlaufend die Markierungen an der Soll-Position im Bildschirm 23 zu sehen sind. Im Beispiel erfolgt daneben eine Markierung 26 eines Bereichs im Live-Bild 22, welcher vom System nicht mit dem hinterlegten Referenzbild gefittet werden konnte. Durch die Markierung 26 wird dieser Bildbereich ausgeblendet. Als weitere Option erfolgt im Beispiel eine grafische Markierung 28 z.B. in Form einer Farbgebung, eines Baustellenelements, welches im Live-Bild 22 vorhanden ist, aber nicht im positionsreferenzierten Bild. Diese Veränderung der Baustelle seit dem Erstellen des positionsreferenzierten Bilds wird also automatisch erkannt und dem Benutzer mittels der grafischen Markierung 28 angezeigt, so dass der Benutzer derartige Veränderungen sofort erkennen kann. Auch erfolgt optional eine optische Markierung von Baustellenelementen, welche sich im Live- Bild 22 nicht dort befinden, wo sie erwartet würden oder sich befinden sollten. Beispielsweise kann so der Benutzer im Bild 22 auf Montagefehler aufmerksam gemacht werden.
Des weiteren erfolgt im Beispiel zusätzlich ein Anzeigen von hinterlegten Daten, welche die Soll-Positionen 24a betreffen. In Figur 2 ist dies durch das Textfeld 27 symbolisiert, welche eine Kennnummer der Soll-Position 24a anzeigt. Weitere derartige Zusatzdaten wie z.B. das zur Bautätigkeit an der Soll-Position zu verwendende Werkzeug oder ein Link zum Bauplan der Baustelle 25 werden optional angezeigt .
Figur 3a stellt schematisch eine Fortbildung des Verfahrens dar. Dabei wird in einem Schritt 29a ein Bild des Ist- Zustands der Baustelle aufgenommmen, wie er nach Ausführung von anhand der der Soll-Positionen vorgenommenen Bautätigkeiten vorliegt. D.h. das Ist-Zustands-Bild dokumentiert den Baufortschritt, z.B. am Ende eines jeweiligen Arbeitstages, und bildet durch die Bauarbeiten neu hinzugekommene Baustellenelemente, wie z.B. neu gelegte Leitungen oder sonstige Installationen, ab.
Dieses Ist-Zustandsbild wird dann in einem Schritt 29b positionsreferenziert, wobei das bereits gespeicherte posi- tionsreferenzierte Bild (vgl. Schritt 20c in Figur 1) als Grundlage dient. Beispielsweise erfolgt die Positionsrefe- renzierung des aktuellen Bildes mittels (Bild- ) Merkmalen, welche sowohl im aktuellen Bild als auch im ursprünglichen positionsreferenzierten Bild vorliegen. Mit anderen Worten werden Elemente erkannt und gematcht, welche in beiden Bildern vorliegen.
Im Schritt 29c wird das nun positionsreferenzierte Ist- Zustands-Bild im Speicher abgelegt, wobei es das „alte", nicht mehr dem tatsächlichen Zustand der Baustelle entsprechende positionsreferenzierte Bild ersetzt. Bei einer anschliessenden, erneuten Durchführung des Verfahrens wie zu Figur 1 beschrieben wird dann also das positionsreferenzierte Ist-Zustands-Bild aus dem Speicher abgerufen (entspricht Schritt 21b) und das Live-Bild der Baustelle mit dem positionsreferenzierten Ist-Zustands-Bild gefittet (entspricht Schritt 21c) . Alternativ ersetzt das „neue" positionsreferenzierte Bild das „alte" zur Anzeige von Soll-Positionen in einem Live-Bild nicht komplett, sondern beide werden für diese Verfahrensschritte herangezogen, z.B. für unveränderte Bild- bzw. Baustellen bereiche das ursprüngliche positionsreferenzierte Bild und für neu bebaute Bereiche das aktuelle positionsrefe- renzierte Bild. Als weitere Option dient das ursprüngliche (oder ein jeweils älteres) positionsreferenzierte Bild als Back-Up, falls Probleme mit dem positionsreferenzierten aktuellen (oder aktuellsten) Bild auftreten. Figur 3b zeigt schematisch eine Fortbildung des Verfahrens nach Figur 3a. Die Figur 3b zeigt oben die Schritte 29a und 29b entsprechend der Figur 3a. In einem zusätzlichen Schritt 29d wird nun die Präzision der in Schritt 29b erstellten Positionsreferenz des Ist-Zustands-Bild automatisch abgeschätzt. Diese Abschätzung erfolgt z.B. anhand von feature-Qualität und abgebildeten Veränderungen im Bild.
Wird die Genauigkeit der Positionsreferenz als ausreichend eingeschätzt, dann wird mit dem Schritt 29c fortgefahren und das Ist-Zustands-Bild abgespeichert. Wird hingegen eine unzureichende Genauigkeit festgestellt, gibt das System in einem Schritt 29e eine Mitteilung an den Benutzer aus. Aufgrund dieser Warnung kann der Benutzer reagieren und z.B. eine Nachreferenzierung der Position von einem Baustellenvermesser bzw. mittels eines Vermessungsgeräts, wie zu Schritt 20a beschrieben (s. Figur 1) . Durch diese automatische Kontrolle der Positionsreferenzpräzision wird sichergestellt, dass auch bei vielen aufeinanderfolgenden Ist-Zustands-Bildern, welche z.B. an vielen aufeinander folgenden Arbeitstagen aufgenommen werden, Qualitätsein bussen der Positionsreferenz aufgrund der aufeinanderbauen den Referenzierung jeweils anhand des vorhergehenden positionsreferenzierten Bildes ein Mindestqualitätsmass nicht unterschritten wird oder bei Unterschreiten eines Genauigkeitsschwellwerts durch „Auffrischen" der Positionsreferenz gegengesteuert werden kann.
Die Figur 4 zeigt ein Beispiel für ein Messsystem 30 mit Vermessungsfunktionalität, welches ein Vermessungsgerät 31 und ein handhaltbares Messhilfsinstrument 32 aufweist. Das Vermessungsgerät 31 weist im Beispiel eine Basis 31b auf und eine relativ zur Basis 31b mittels eines Aufbaus 31a um zwei Achsen schwenkbare Kamera 31c (im Folgenden auch als zweite Kamera bezeichnet) . Das Messhilfsinstrument 32 weist einen Träger 37 auf, welcher mittels eines Griffs 38 von einem Benutzer 40 handgehalten wird. Das (im Bild übertrieben gross gezeichnete) Träger 37 ist dabei dergestalt, dass das Messhilfsinstrument 32 mit einer Hand getragen werden kann, so dass die andere Hand des Benutzers 40 frei ist, um ein vom Träger 37 gehaltenes Computer endgerät 35, z.B. ein Smartphone, zu bedienen. Das Compu terendgerät 35 weist einen Bildschirm 36 und eine Kamera auf (nicht dargestellt) . Mittels dieser Endgerätekamera (erste Kamera) ist ein Bild der Messumgebung 41 aufnehmbar und auf dem Bildschirm 36 anzeigbar.
Der Träger 37 weist eine Kardanaufhängung auf, so dass das Computerendgerät 35 lagestabilisiert ist. Somit können mittels der Kardanaufhängung z.B. ein Wackeln der Benutzerhand oder auch Erschütterungen hervorgerufen durch ein Umhergehen des Benutzers 40 im Raum 41 effektiv kompensiert werden. Vorzugsweise ist die Kardanaufhängung aktiv geregelt, so dass eine Ausrichtung des Computerendgeräts 35 automatisiert eingestellt werden kann, wodurch z.B. automatisch eine Zielachse des Endgeräts 35 auf einen abzusteckenden oder zu vermessenden Umgebungspunkt ausgerichtet werden kann. Z.B. tippt der Benutzer 40 auf dem Bildschirm 35 im Messumgebungsbild eine dort dargestellte Stelle der Baustelle 41 an, welche er vermessen möchte und das Smartphone 35 bzw. sein Messstrahl 39 (s.u.) wird automatisch auf den gewünschten Messpunkt ausgerichtet .
Das Computerendgerät 35 ist entsprechend entweder einfach in vorgegebener und damit bekannt definierter Stellung im Träger 37 eingebracht bzw. einbringbar oder der Träger 37 weist ein Gelenk auf, so dass die Stellung des Endgeräts 35 relativ zum Träger 37 definiert veränderbar ist. Die Relativstellung wird z.B. jeweils vom Benutzer dem System
30 durch Eingabe am Bildschirm 36 mitgeteilt oder mittels Positionsencoder automatisch vom System 30 bzw. Träger 37 ermittelt .
Am Träger 37 ist weiter als Mittel zur Lagebestimmung ein im Beispiel kugelförmiger Körper 33 angeordnet, welcher im Beispiel mittels der Kardanaufhängung ebenfalls lagestabilisiert ist und optional ebenfalls mittels des optionalen Gelenks stellungsvariierbar ist. Alternativ zur einer Kugelform ist der Körper 33 als ein regulärer Polyeder ausgebildet. Alternativ zur Darstellung kann der Körper 33 auch an anderer exponierter Stelle des Trägers 37 angeordnet sein.
Der Körper 33 weist auf seiner Oberfläche einen optischen Code 34 auf, wobei der Code derart verteilt ist, dass Code 34 von möglichst allen Blickwinkeln oder relativen Stellungen eines externen Beobachters aus sichtbar ist. Der Körper 33 bzw. der Code 34 ist dergestalt ausgebildet, dass in einem von der zweiten Kamera 31c des Vermessungsgeräts
31 aufgenommenen Bild des Messhilfsinstruments 32 bzw. des Körpers 34 die Orientierung und Entfernung des Messhilfsinstruments 32 relativ zum Vermessungsgerät 31 eineindeutig ermittelbar ist. Der Code 34 codiert also zum einen die Ausrichtung oder rotatorische Stellung der Kugel 33. Zum anderen ist die Distanz zum Körper 33 vom Vermessungsgerät 31 anhand des Kamerabilds des Vermessungsgeräts 31 ermittelbar, wodurch zusammen mit gemessener Zielrichtung 31d der Kamera 31 (Verschwenkstellung) die Position des Instruments 32 relativ zum Messgerät 31 bestimmt ist. Die Zielrichtung 31d wird z.B. mittels je einem Winkelencoder für eine jeweilige Schwenkachse bestimmt. Im Rahmen der Vermessungsfunktionaliät nimmt also die Vermessungsgerät kamera 31c ein Bild des Körpers 33 mit Code 34 auf und es erfolgt mittels hinterlegter Decodierinformation eine Auswertung des Bilds derart, dass sowohl Entfernung zum Körper 33 als auch dessen Orientierung ermittelt wird, so dass zusammen mit der gemessenen Kamerastellung (Anvisierrichtung 31d) insgesamt alle sechs Freiheitsgrade der Kugel 33 und damit des Trägers 37 und des Smartphones 35 relativ zum Vermessungsgerät 31 bestimmt sind.
Mit Hilfe des Körpers 33 wird mit anderen Worten die Lage des Messhilfsinstruments 32 relativ zum Vermessungsgerät 31 bestimmt. Der Träger 37 mitsamt Körper 33 stellt also ein handhaltbare Messhilfsvorbereitung dar, welche zur Aufnahme eine Computerendgeräts 35, z.B. eines Smartphones oder Tablets dient und von einem externen Vermessungsgerät 31 lagebestimmbar ist, so dass damit insgesamt ein Messsystem 30 komponierbar ist. Das Vermessungsgerät 31 selbst wiederum ist absolut verortet, z.B. durch eine Einmessung mittels absolut bekannter Markierungen in der Messumgebung 41, so dass schliesslich die absolute Lage des Instruments 32 bestimmbar ist.
In einer Fortbildung verfügt das Computerendgerät 35 über eine Inertiale Messeinheit (IMU) . Die Messdaten der IMU werden in dieser Fortbildung bei der Bestimmung der Lage des Messhilfsinstruments berücksichtigt. Vor allem dienen die Daten dazu, bei einer Messung mit Bewegung des Instruments 32 Zeiten bzw. Raumbereiche mittels Dead- Reckoning zu überbrücken, in welchen eine Lagebestimmung mittels des Körpers 33 nicht möglich ist, z.B. weil die Sichtlinie zwischen erster Kamera 31c und Körper 33 durch ein Objekt der Messumgebung 41 unterbrochen ist. Vorteilhaft wird dabei die mittels Koppelnavigation ermittelte Lage fortwährend an das Vermessungsgerät 31 übertragen, welches anhand der Daten fortlaufend ein Verschwenken/Nachführen der Kamera 31c vornimmt, so dass verzögerungsfrei die Lagebestimmung anhand des Körpers 33 wiederaufgenommen werden kann, sobald das Hilfsinstrument 32 den abgeschatteten Umgebungsbereich verlassen hat und die Sichtlinie nicht mehr unterbrochen ist.
Als weitere Alternative oder weiterer Zusatz sind die Mittel des Messhilfsinstruments 32 zur Bestimmung oder Bestimmbarmachen der Lage in Zusammenwirkung mit dem Vermessungsgerät in an sich bekannter Weise ausgebildet als IMU und Gyro mit Bestimmung des yaw-Winkels, als IMU mit Trackingfunktionalität zum Tracken einer Bewegungstraj ektorie, als visuelle, vorbekannte Markierung/Muster auf einem der Teile des Messhilfsinstruments, z.B. Strichcode oder als definiert angeordnete Leuchtmittel (z.B. LED). Auch kann optional eine Lagebestimmung mittels einer RIM-Kamera des Vermessungsgerät 31 unter Verwendung von SLAM-Algorithmen erfolgen ( Simultaneous Localization and Mapping) .
Genutzt wird die absolut ermittelbare und im Beispiel mittels einer Kardanaufhängung stabilisierte Lage des Messhilfsinstruments 32 im Beispiel nun, um die Position wenigstens eines Messumgebungspunkts 42 absolut zu vermessen. Hierzu weist das Computerendgerät 35 eine Distanzmessfunktionalität auf. Im Beispiel verfügt das Endgerät 35 über einen Laserdistanzmesser, der gerichtet einen Messstrahl 39 auf den Punkt 42 sendet und aus reflektierter Messstrahlung und bekannter Emissionsrichtung die Position des Punkt 42 relativ zum Endgerät 32 bestimmt. Das Messsystem 30 ermittelt dann anhand der absoluten Position des Vermessungsgeräts 30, der relativen Lage des Messhilfsinstruments 32 und der relativen Position des Punkts 42 die absolute Punktposition.
Als Option ist das Messsystem 30 derart ausgebildet, dass ein Positionsscan mittels des Computerendgeräts 35 ausführbar ist, also sehr rasch aufeinanderfolgend eine Vielzahl von Messumgebungspunkten 42 messbar ist bzw. eine 3D-Punktwolke erzeugbar ist. In einer einfachen Variante erfolgt dies mit starrem Messstrahl 39 z.B. durch händisches Verschwenken des Messhilfsinstruments 37 und/oder Umherlaufen des Benutzers 40 im Raum 41 während der Messung.
Als weitere Option wird die gemessene Position des Punkts 42 in einem Live-Bild der Messumgebung 41 dem Benutzer 40 auf dem Bildschirm 36 positionsgetreu markiert. Weitere Informationen oder Datenverlinkungen, die den Umgebungspunkt 42 betreffen, können dabei ebenfalls angezeigt bzw. angeboten werden. Auch dient optional ein Live-Bild dazu, dass der Benutzer 40 einen zu vermessenden Umgebungspunkt 42 auswählt. Z.B. ist der Bildschirm 36 berührungssensitiv und der Benutzer 40 tippt die dem Punkt 42 entsprechende Stelle im Bild an, wodurch im Rahmen der Vermessungsfunktionalität eine Vermessung der entsprechenden Stelle im Raum 41 ausgelöst wird.
Alternativ oder zusätzlich zu einer messstrahlbasierten Vermessung der Messumgebung 41 durch das Computerendgerät 35 erfolgt eine photogrammetrische Positionsbestimmung. Hierzu verfügt das Smartphone 35 z.B. über eine mit Doppelobjektiv ausgebildete Kamera oder es werden mindestens zwei Bilder von zwei unterschiedlichen Standorten des Benutzers 40 aufgenommen. Die Figur 5 stellt eine Abwandlung bzw. alternative oder zusätzliche Verwendung des Messsystems 30 aus Figur 4 dar. Im Unterschied zum vorherigen Beispiel dient die im Rahmen der Vermessungsfunktionalität bestimmte Relativlage und die anhand der absoluten Verortung des Vermessungsgeräts 31 bestimmte bzw. bestimmbare absolute Lage des Messhilfsinstruments 32 zur positionsgetreuen Anzeige wenigstens einer Soll-Position (Stake-out-point) . Dieser abzusteckende Punkt ist in einem Speicher des Systems hinterlegt, beispielsweise als Teil eines Gebäudebauplans.
Im Beispiel wird wie oben beschrieben die absolute Lage des im Träger 37 eingelegten Computerendgeräts 35 bestimmt und die Soll-Position aus dem Speicher abgerufen. Das Computerendgerät 35 weist weiter einen Markierer auf (nicht dargestellt) , im Beispiel einen Laserpointer, welcher einen sichtbaren Laserstrahl 39s definiert gerichtet emittieren kann. Basierend auf der bekannten absoluten Position und Ausrichtung des Computerendgeräts 35 und der absoluten Soll-Position wird dann der Laserstrahl 39s durch automatisches Einstellen der Emissionsrichtung, z.B. mittels einer oben genannten aktiven Kardanaufhängung (Gimbal) gezielt in eine Richtung derart emittiert, dass er die Soll-Position positionsgetreu in der Messumgebung - im Beispiel auf der Raumwand 44- als sichtbaren Laserpunkt 43s markiert .
Alternativ oder zusätzlich ist die Emissionsrichtung des Markierers starr und der Benutzer erhält auf dem Bildschirm 36 eine Anleitung, anhand derer er die Lage des Messhilfsinstruments 32 solange verändert, bis der Markierer die Stelle 43s anzielt. Eine solche Benutzerführung ist natürlich auch für den Fall eines Markierers mit variabler Markierrichtung möglich, z.B. um den Benutzer 40 anzuleiten, bei sehr ungünstiger Lage des Instruments 32 dieses zumindest soweit zu verschwenken, bis die Stelle 43s in den (maximalen) Markierbereich des Markierers gelangt. Als weitere Option wird mittels des Laserpointers eine Laserlinie oder Laserfläche zum Markieren einer oder mehrerer Soll-Positionen erzeugt. Ein etwaiges benutzerbedingtes Wackeln des Messhilfsinstruments 37 kann durch die Kardanaufhängung kompensiert werden, so dass es zu keinem Verwackeln des Markierpunkts 43s kommt.
D.h. das Messsystem 30 bzw. das Messverfahren dient vorteilhaft z.B. dazu, eine Soll-Position exakt dort z.B. auf einer Baustelle zu markieren, wo eine Bautätigkeit erfolgen soll, beispielsweise ein Loch gemäss Bauplan zu bohren ist. Durch ein fortwährendes Bestimmen der Messhilfsinstrumentlage und entsprechendem Nachführen des Markierstrahls 39s kann dann beispielsweise der Benutzer an die markierte Stelle 43s herantreten und mit der freien Hand entweder sofort die erforderliche Bautätigkeit ausführen oder z.B. mit einem Stift eine dauerhafte Markierung an der Oberfläche 44 aufbringen. Optional weist der Träger 37 eine Arretierung, mit deren Hilfe der Träger 37 im Raum 41 werkzeuglos fixierbar ist. Z.B. ist ein Standfuss vorhanden, so dass der Benutzer 40 das Instrument 32 auf den Boden stellen kann, grob ausgerichtet auf die Wand 44, so dass der Laserpointer die Stelle 43s markiert. Damit kann der Benutzer 40 ohne das Instrument 32 weiterhin halten zu müssen entweder die Stelle 43s einfacher dauerhaft markieren oder die Bautätigkeit ausführen. Ein weiteres Beispiel für eine solche Arretierung ist eine Klemme, mit der der Träger 37 wiederablösbar z.B. an einer Wand fixierbar ist. Ein Vorteil der Verwendung eines vorgestellten Messhilfsinstruments 32 ist, dass damit nah an der Wand 44 gearbeitet werden kann und leicht eine grosse Messumgebung 41 vollständig vermessen oder abgesteckt werden kann, ohne das Vermessungsgerät 31 umstellen zu müssen (also ohne aufwändigen Stationierungswechsel) . Auch lassen sich damit von einer Stationierung des Vermessungsgeräts 31 Messpunkte 43s erreichen, die dem direkten Zugang von dieser Stationierung aus entzogen sind, z.B. durch Sichthindernisse in der direkten Luftlinie.
Alternativ oder zusätzlich zu einem lichtbasierten, flüchtigen Markieren weist das Messhilfsinstrument 32 einen Markierer auf, mit welchem ein physisches Markieren von Soll-Positionen ermöglicht ist. Mit Hilfe eines Druckers oder einer Sprühvorrichtung wird dann gerichtet z.B. eine Farbmarkierung 43s an der Wand 44 aufgebracht.
In der Figur 5 ist als eine weitere Option ein positionsgetreues Anzeigen des Stake-out-Punkts in einem vom Smartphone 35 aufgenommenen Live-Bild der Baustelle 41 symbolisiert. In Kenntnis der Lage des Smartphones 35 wird dem von der Smartphonekamera aufgenommenen Live-Bild (Video-Bild) eine graphische Markierung 43 überlagert, so dass der Benutzer 40 auf dem Bildschirm 36 die Wand 44 und gleichzeitig positionsecht die Soll-Position sehen kann, also eine augmented reality-Ansicht vorliegt. Als nicht dargestellte weitere Option werden neben der reinen Positionsmarkierung auf dem Bildschirm weitere Informationen die Soll-Position betreffend angezeigt, z.B. die Art des an der Stelle zu verwendenden Werkzeugs oder eine virtuelle Ansicht der Baustelle, wie sie nach Ausführung der Bautätigkeit an der Soll-Stelle aussehen soll .
Die Figuren 6a-e zeigen rein schematisch das erfindungsgemässe Verfahren zum Vermessen eines Ziels mittels eines Vermessungsgeräts mit ZielbereitStellungs funktion. In Figur 6a sind dargestellt eine Messumgebung 17, z.B. wie gezeigt ein Gebäuderaum, in dem an einem Standort ein Vermessungsgerät 10 mit Richtungs- und Entfernungsmessfunktionalität vom Benutzer 16 aufgestellt ist, z.B. eine Totalstation. Der Benutzer 16 selbst markiert im Raum eine zu vermessende Position in an sich bekannter Weise mit einem Lot- oder Vermessungsstab mit einem Ziel 3, z.B. einem retroreflektierenden Prisma und hält ein Bildschirmgerät 6 in der Hand, welches drahtlos mit dem Vermessungsgerät 10 in Verbindung steht, so dass Daten zwischen den beiden Geräten 6, 10 übertragen werden können. Zudem weist das Vermessungsgerät 10 und/oder das mobile Gerät 6 eine Steuerung mit Auswertefunktionalität auf. Vorzugsweise kann der Benutzer das Vermessungsgerät 10 mittels der Steuerung und Eingabe am Bildschirm 6 steuern. Alternativ zur Darstellung mit Bildschirm 6 und Vermessungsgerät 10 als separate Einheiten kann der Bildschirm 6 auch fixer oder abnehmbarer Teil des Vermessungsgeräts 10 sein. Das Vermessungsgerät 10 und der Bildschirm 6 bilden ein Vermessungssystem 18.
Das Vermessungsgerät 10 weist eine Basis 13 auf, relativ zu welcher ein Aufbau 14 um zwei Achsen motorisiert drehbar angeordnet ist. Der Aufbau 14 definiert eine Zielachse 12, welche somit ebenfalls um zwei Achsen verschwenkbar ist. Der Aufbau 14 weist im Beispiel eine Strahlquelle und einen Messstrahlungsdetektor auf, z.B. einen Entfernungsmesser 15 in Form eines Laserdistanzmessers, so dass im Rahmen einer Einzelpunktbestimmungsfunktionalität aus Kenntnis der damit gemessenen Entfernung zu einem in Zielachse 12 liegenden Ziel und, z.B. mittels Winkelencoder, gemessener Richtung zum Ziel bzw. Ausrichtung der Zielachse 12, die Position des Ziels relativ zum Vermessungsgerät 10 und anhand dessen bekanntem Standort die Position im Raum bestimmt werden kann. Weiter weist das Vermessungsgerät 10 eine Kamera 11 auf, welche in Richtung der Zielachse 12 ausgerichtet ist. Diese Kamera 11 kann abweichend von der Darstellung z.B. als on-axis-Kamera ausgebildet sein.
Das Vermessungssystem 18 weist eine Zielbereitstellungs- oder Zielerfassungsfunktion auf, in deren Rahmen in einem ersten Schritt ein weiträumiges Bild der Messumgebung 17 aufgenommen wird, z.B. ein Full-Dome-Bild. Im Beispiel erfolgt dies durch Verschwenken der Kamera 11 (symbolisiert durch Pfeil 11a) durch Drehen des Aufbaus 14 bei fortlaufender Bildaufnahme. Alternativ erfolgt die Aufnahme des Überblicksbilds mittels einer zweiten Kamera, welche das Vermessungsgerät 10 aufweist. Diese weitere Kamera kann z.B. über ein so weites Blickfeld verfügt, dass damit die Messumgebung 17 bewegungslos z.B. über einen horizontalen Winkel von 200° oder mehr abgebildet werden kann. Eine solche Kamera ist z.B. eine sog. Overview-Kamera, welche zusätzlich auf dem Aufbau 14 angeordnet ist. Als zweite Kamera kann z.B. auch eine Kamera des Bildschirmgeräts 6 dienen, indem der Benutzer 16 vom bzw. nahe am Standort des Vermessungsgeräts 10 eine Aufnahme des Raums 17 durchführt, so dass das Bild der Sicht des Vermessungsgeräts im Wesentlichen entspricht.
Figur 6b zeigt, wie das aufgenommene Überblicksbild 1 anschliessend auf dem Bildschirm 6 angezeigt wird, z.B. nachdem es per Bluetooth oder Wi-Fi vom Vermessungsgerät an den mobilen Bildschirm übertragen wurde. Anhand des Überblicksbilds 1 wählt der Benutzer nun, z.B. im Falle eines Touchscreens durch händische Berührung wie durch die Hand 5 symbolisiert, einen Zielbereich 4 aus, in dem das zu vermessende Ziel 3 befindlich ist. Die Auswahl 5 erfolgt z.B. indem der Benutzer einen rechteckigen Rahmen bestimmter Grösse im Bild 1 definiert oder automatisch unterstützt indem er auf eine Stelle im Bild (bzw. auf dem Bildschirm) tippt und automatisch ein vordefinierter Rahmen um die Berührungsstelle herum als Zielbereich definiert wird. Als weitere Option kann die vordefinierte Grösse des Zielbereichs 4 durch mehrmaliges Tippen z.B. in drei Stufen verändert werden. Alternativ wird die Grösse des Zielbereichs 4 automatisch in Abhängigkeit vorhandener Messdaten eingestellt, beispielsweise indem eine (grobe) Entfernung zum Zielbereich 4 ermittelt wird, z.B. durch Bildauswertung. Z.B. wird, je weiter der anvisierte Bereich 4 im Raum vom Vermessungsgerät entfernt ist, desto kleiner dann der Zielbereich 4 automatisch eingestellt, so dass unabhängig von der Entfernung immer eine zumindest ungefähr gleich grosse Messumgebungsfläche als Zielbereich 4 ausgewählt wird. Auch wird optional die Weite des Blickfelds der Kamera 11 bei der Zielbereichsgrössenfestlegung berücksichtigt. Jedenfalls erfolgt also eine manuelle Definition eines Zielbereichs 4, welche optional vom Vermessungssystem 18 automatisch unterstützt wird, so dass eine grobe Auswahl oder Bestimmung der Richtung in Bezug auf das zu vermessende Ziel 3 erfolgt.
Figur 6c zeigt, wie anhand des manuell definierten und von der Steuerung registrierten Zielbereichs ein erstes, grobes Ausrichten des Vermessungsgeräts 10 auf das Ziel 3 erfolgt. Die Steuerung sorgt anhand der Zielbereichsauswahl dafür, dass der Aufbau 14 derart verschwenkt wird, dass die Zielachse 12 in Richtung zum Zielbereich zu liegen kommt. Durch das Verschwenken wird dafür gesorgt, dass sich das Ziel im Blickfeld der in Richtung der Zielachse 12 ausgerichteten Kamera 11 befindet. Somit ist durch die vorherige Zielbereichsauswahl das Vermessungsgerät 10 derart ausgerichtet, dass durch die Kamera 11 ein zweites Bild aufgenommen werden kann, welches einen das Ziel 3 enthaltenden Ausschnitt aus dem Überblicksbild bzw. der Messumgebung 17 darstellt.
Figur 6d stellt ein Beispiel für ein solches Bild 2 der Kamera 11 dar. Im Bild 2 ist das Ziel 3 vergleichsweise gross abgebildet. Damit ist ermöglicht, dass der Benutzer manuell, z.B. durch Berühren des Bildschirms 6, präzise das Ziel 3 markieren kann (dargestellt durch die Hand 7), wodurch die Steuerung über die genaue Richtung zum Ziel 3 "informiert" wird.
Wie in Figur 6e gezeigt, wird dann anhand der zuvor manuell getroffenen Zielauswahl von der Steuerung die Zielachse 12 derart verschwenkt, dass diese auf das Ziel 3 ausgerichtet ist. Somit kann das Ziel 3 mittels der Richtungs- und Entfernungsmessfunktionalität koordinativ vermessen werden.
Durch das vorgeschlagene Verfahren erfolgt also eine Ausrichtung des Vermessungsgeräts 10 auf das Ziel 3 in zwei Stufen durch den Benutzer 16, indem dieser zuerst in einem Überblicksbild 1 mittels des Zielbereichs 4 eine ungefähre Richtung zum Ziel 3 definiert, welche anhand des weiteren, in dieser Grobrichtung aufgenommene Bilds durch eine zweite manuelle Auswahl derart verfeinert wird, dass das Ziel 3 anzielbar und damit vermessbar ist.
Die Figuren 7a und 7b zeigen Fortbildungen des Zielbereitstellungsverfahrens . In Figur 7a, welche analog zur Figur 6b das auf dem Display 6 dargestellte Überblicksbild 1 anzeigt, ist dargestellt, dass bekannte und ermittelte potentielle Ziele 19a, 19b und 19c mittels grafischer Markierungen angezeigt werden. Im Beispiel handelt es sich bei dem Ziel 19a um ein in einem elektronischen Speicher hinterlegtes Ziel, welches z.B. aus einer vorhergehenden Vermessung in der Messumgebung bekannt ist oder anhand eines Bauplans mit Soll-Positionen, mit welchem das Bild 2 verglichen worden ist, ermittelt wurde. Bei den potentiellen Zielen 19b und 19c hingegen handelt es sich um solche, welche mittels Bildverarbeitung im Überblicksbild 1 als markante Umgebungspunkte automatisch erkannt wurden. Z.B. erfolgt eine Kantenextraktion im Bild 1, anhand derer Eckpunkte von Wänden 19b, 19c wie dargestellt ermittelt werden und als Ziele dem Benutzer vorgeschlagen werden.
Im Beispiel erfolgt zusätzlich ein automatisches Vorschlägen eines Zielbereichs 4 in Abhängigkeit der potentiellen Ziele 19a-19c. Beispielsweise wird ein Zielbereich 4 so von der Steuerung definiert, dass er die drei nahe beieinander liegenden Ziele 19a-c umfasst. Der Benutzer kann dann diesen Zielbereich 4 einfach durch Berühren des Bildschirms 6 als zu verwendenden Zielbereich 4 auswählen oder ggf. die Grösse des Zielbereichs 4 manuell verändern oder einen anderen Zielbereich 4 markieren oder auswählen .
In der zur Figur 6d analogen Figur 7b ist das anhand des Zielbereichs 4 der Figur 7a aufgenommene Zielbereichsbild 2 dargestellt. In dieser Nahaufnahme eines Ausschnitts der Messumgebung sind nun die potentiellen Ziele 19a-19c sehr übersichtlich für den Benutzer ersichtlich. Somit kann er ohne Schwierigkeiten ein letztlich zu vermessendes Ziel hündisch markieren und damit auswählen. Im Beispiel wählt der Benutzer das Ziel 19b zur Vermessung aus, wobei die Auswahl 7 automatisch unterstützt wird, indem durch das Berühren um den Berührpunkt 7a innerhalb einer Zone 7b automatisch das Ziel 19b als auszuwählendes Ziel festgelegt wird. Mit anderen Worten ermittelt das System in der Umgebung des Berührpunktes 7a das Ziel automatisch, so dass der Benutzer nicht genau das angezeigte Ziel 19b auf dem Bildschirm 6 treffen muss. Die Zone 7b kann dabei fix definiert sein oder ggf. variabel sein und -innerhalb gewisser Grenzen- soweit ausgeweitet werden, bis sich ein Ziel darin befindet.
Alternativ zur Darstellung mit einem bereits ermittelten und nur noch auszuwählenden Ziel 19b wird optional z.B. durch die in Bezug auf Figur 7a genannte Bildverarbeitung innerhalb der Zone 7b ein Ziel z.B. durch Kantenextraktion erst ermittelt. Als weitere Option markiert der Benutzer im Bild 2 nicht nur ein Ziel 19b, sondern z.B. auch die beiden anderen Ziele 19a und 19c, so dass das Vermessungsgerät alle drei Ziele 19a-19c vermisst.
Figur 8 zeigt eine erste Ausführungsform eines Baulasersystems 50. Das Baulasersystem 50 weist ein selbstnivellierendes Lasermodul auf mit einem Baulaser 53 mit einer in einem Gehäuse 54 integrierten Laserquelle wie beispielsweise die Laserdiode 55. Die Strahlung 56 der Laserquelle wird im Beispiel mittels einer Optik 57 des Lasermoduls aufgeweitet und so als Laserfächer 56a in den Raum abgestrahlt, wo sie z.B. für Bautätigkeiten im Innen oder Aussenbereich als linienförmige Positionsreferenz dient. Die Selbstnivellierung wird z.B. mittels einer kardanischen Aufhängung oder einem Kugelgelenk erreicht.
Das im Beispiels als Linienlasersystem 50 ausgebildete Baulasersystem 50 weist weiter eine, im Beispiel stabförmige, Halterung 51 auf, welche auf einem Referenzboden 52, z.B. einem Geschossboden, platziert ist. An dieser Halterung 51 ist mittels einer Arretierung 58 ein Linienlaser 53 wieder lösbar fixiert. Die Halterung 51 dient also dazu, den Linienlaser 53 mittels der Fixierung 58 flexibel in einer für die Positionsreferenz gewünschten Höhe h über dem Boden zu fixieren. Bei Systemen des Stands der Technik muss die Höhe h nachteilig manuell gemessen werden .
Dem gegenüber weist der vorliegende Linienlaser einen integrierten opto-elektronischen Distanzmesser 59a auf, mit welchem automatisiert die jeweils vorliegende Höhe h gemessen wird. Es wird also mittels Messstrahlung in an sich bekannter Weise z.B. basierend auf Triangulation, Phasen- und/oder Laufzeitauswertung der Abstand des Gehäuses 54 zum Boden 52 gemessen bzw. die Distanz des die Positionsreferenz bildenden Laserlichts 56b zum Boden 52. Somit erübrigt sich also eine rein manuelle Messung der Höhe h der Positionsreferenz wie bei Geräten des Stands der Technik notwendig.
Im Beispiel wird hierzu vorteilhaft die Laserquelle 55 dual verwendet, d.h. die Laserstrahlung 56 dient sowohl zur Bereitstellung der Referenzlinie 56a als auch als Messstrahlung 56b zur Höhenmessung. Hierzu wird die von der Diode 55 ausgehende Strahlung von einem Strahlteiler 53a aufgeteilt, so dass ein Teil 56b der Strahlung in Richtung einer zweiten Optik 57a auf der Unterseite des Gehäuses 54 bzw. in Richtung des Bodens 52 gelenkt wird. Vom Boden reflektierte Strahlung wird mittels der zweiten Optik 57a und einem optischen Ablenkelement 53b auf einen Detektor 53c des Distanzmessers 59a gelenkt. Aus dem Detektorsignal wird dann die gesuchte Höhe h ermittelt. Alternativ weist der Linienlaser 53 zur Höhenmessung eine zusätzliche Strahlungsquelle auf. Die automatisierte Messung der Höhe h mittels einer Höhenmesseinheit wie die des dargestellten Distanzmessers 59a wird dabei entweder manuell ausgelöst -z.B. durch Drücken eines am Gehäuse 54 angebrachten Auslöseknopfs- oder per Fernbedienung; oder sie erfolgt automatisch fortwährend, z.B. in bestimmten Messintervallen. Als weitere Alternative erfolgt eine automatische Höhenmessung z.B. nach erfolgter Arretierung, welche mittels entsprechender Sensoren festgestellt wird und/oder nach einer bestimmten Zeit, in der keine Bewegung des Gehäuses 54 (z.B. mittels Beschleunigungssensoren) detektiert wurde.
Figur 9 zeigt ein zweites Beispiel eines erfindungsgemässen Linienlasersystems. In der Figur sind zu Darstellungszwecken der Linienlaser 53 und die Halterung 51 im Vergleich zur Figur 8 vergrössert dargestellt, die Halterung 51 nur teilweise dargestellt und der Referenzboden weggelassen. Zur weiteren graphischen Vereinfachung sind zudem bis auf die Sendeoptik 57 weitere Bestandteile des Linienlasers 53 bzw. des Gehäuses 54 nicht dargestellt .
Im Beispiel wird die Höhe h automatisiert bestimmt, indem die Halterung 51 entlang der Höhenachse h einen optisch auslesbaren Positionscode 51a aufweist, z.B. eine hell- dunkel-Codierung oder eine Farbcodierung . Der Positionscode 51a codiert absolut die Position entlang der Höhenachse h. Somit kann mit einem opto-elektronischen Lesekopf 59 eines Positionsencoders 60, welcher im Beispiel in die Arretierung 58 integriert ist, die jeweils vorliegende Höhe h gemessen werden und z.B. wie dargestellt auf einem am Gehäuse 54 angebrachten Display 59d angezeigt werden. Eine Alternative zum dargestellten optischen Positionsencoder 60 ist ein kapazitiver oder magnetischer Positionsencoder. Als weitere Alternative weist im Gegensatz zur Darstellung nicht die Halterung 51 den passiven Teil des Positionsencoders 60 auf, sondern der Linienlaser 53. Z.B. ist in die Arretierung 58 ein Target integriert, welches von der dazu ausgebildeten Halterung 51 entlang der Höhe h detektierbar ist und damit die Stellung des Linienlasers 53 relativ zur Halterung 51 indiziert. Die Auswertung des halterungsseitig genierten Messsignals kann dabei ebenfalls vollständig halterungsseitig erfolgen und der Höhenwert z.B. auf einem Display der Halterung 51 angezeigt werden.
Im Beispiel nach Figur 9 ist der Positionsencoder 60 bzw. die Codierung 51a zudem derart ausgebildet, dass zusätzlich zur Höhe h auch die horizontale Ausrichtung bzw. die Ausrichtung relativ zu Halterung 51 des Gehäuses 54 (bzw. des Linienlasers 53) gemessen werden kann. D.h. die Codierung 51a codiert nicht nur die Position entlang der Höhenachse h, sondern auch senkrecht dazu, so dass die Rotation R um die Höhenachse h mittels des Lesekopfs 59 ausgelesen und z.B. auf einem Display 59d angezeigt werden kann. Derartige optische Flächen- oder 2D-Codierungen sind prinzipiell aus dem Stand der Technik bekannt.
Alternativ zur Intergration der Ausrichtungsmessung in den Distanz- und/oder Positionsmesser, also eines 2D-Encoders wie dargestellt, verfügt das System 50 über einen separaten Distanz- und/oder Positionsmesser und einen separaten Ausrichtungsmesser .
Figur 10 zeigt eine Fortbildung der vorigen Ausführungsformen. Im Beispiel weist das Linienlasersystem 50 neben einem Höhenmesser, z.B. dem Positionsencoder 60, einen Antrieb 61 auf. Mittels des Antriebs 61 ist die Höhe h des Linienlasers 53 automatisiert verstellbar. Im Beispiel ist der Antrieb 61 ausgebildet als ein Zahnrad 61a, welches von einem Motor 61b angetrieben wird, um entlang einer Führungsschiene 62 der Halterung 51 das Gehäuse 54 nach oben oder unten verfahren zu können. Eine Alternative zu diesem beispielhaften Antrieb 61 ist z.B. ein magnetischer Linearantrieb, welcher in die Halterung 51 integriert ist und die Arretierung 58 nach oben zieht bzw. definiert nach unten absacken lässt. D.h. bei dieser Alternative ist im Gegensatz zum dargestellten Antrieb das aktive Element des Antriebs 61 in die Halterung integriert und der Linienlaser 53 ist passiv. Je nach konkreter Ausgestaltung des Systems 50 kann eine gezielte Verteilung der Antriebskomponenten Vorteile bieten, z.B. kann bei einer aktiven Halterung 51 eine Batterie des Antriebs in den Halterungsfuss platziert werden, deren Gewicht zum einen die Standfestigkeit erhöht und zum anderen kein zusätzliches Gewicht im Linienlaser 53 vermeidet.
Weiter weist das System 50 eine Steuerung 62 mit entsprechender Steuerungssoftware auf, welche den Antrieb 61 derart regelt, dass eine Sollhöhe h anhand der fortlaufend mit dem Höhenmesser 59 gemessenen Höhe automatisch eingestellt wird. D.h. das Gehäuse 54 wird solange von der Steuerung 62 gesteuert mittels des Antriebs 61 verfahren bis die gewünschte Höhe h erreicht ist, dann wird mittels der Arretierung 58 automatisiert die Position automatisch von der Steuerung 62 fixiert.
Im Beispiel weist das System 50 ferner ein Fernsteuerungsempfänger oder allgemeiner ein Kommunikationsmodul 63 auf, welches im Beispiel im Gehäuse 54 integriert ist. Dieser Empfänger 63 dient zum einen zum fernsteuernden Bedienen des Antriebs 61 und/oder zum Kommunizieren einer gewünschte Höhe h an die Steuerung 62 von einem entfernt positionierten Benutzer, so dass die Steuerung 62 die Höhe h dann wie beschrieben automatisch einstellt .
Als weitere (nicht dargestellte) Option sind Halterung 51 bzw. Linienlaser 53 mit einem zweiachsigen Antrieb ausgestattet, so dass neben der Höhe h auch die horizontale Ausrichtung des Lasers automatisiert -und optional mittels der Steuerung 62 auch automatisch- verändert werden kann. Somit lässt sich in derartigen Ausführungsformen nicht nur eine Sollhöhe, sondern auch eine Sollorientierung automatisiert bzw. automatisch einstellen.
Figur 11a zeigt eine erste Ausführungsform eines erfindungsgemässen Vermessungssystems 77 mit einem Messhilfsinstruments 70 und einem Vermessungsgerät 71 mit einer aktiven kardanischen Aufhängung 76. Das Vermessungsgerät 71 ist z.B. ausgebildet als eine Totalstation mit einem um eine Basis 71b in zwei Achsen verschwenkbaren Aufbau 71a mit einer Laserquelle zur Aussendung eines Messstrahls M, so dass z.B. basierend auf einer Laufzeitmessung des Messstrahls M eine Distanz zu einem reflektierenden Ziel 74, das einen Referenzpunkt 74r bereitstellt, gemessen werden kann und anhand der gemessenen Ausrichtung des Messstrahl M somit die Position bzw. die Koordinaten des Ziels 74 bzw. genauer des Referenzpunkts 74r messbar sind.
Das das Ziel 74 bereitstellende Messhilfsinstrument 70 weist im Beispiel eine handhaltbare Stange 72 auf, die bei einem zu vermessenden Geländepunkt 78 auf dem Boden 52 vom Benutzer 40 hingestellt ist. Im Beispiel ist der Geländepunkt 78 in einem Loch gelegen, wo er mit herkömmlichen Lotstäben nur schwer kontaktierbar und damit vermessbar ist. Mit dem erfindungsgemässen Messhilfsinstrument 70 ist es nun nicht erforderlich, den Geländepunkt 78 mit der Stange 72 zu kontaktieren und die Stange exakt lotrecht auszurichten. An der dafür mit einem gewinkelten Ende ausgestatteten Stange 72 ist eine Baugruppe 73 angebracht, die also aufgrund des Winkels mit einem Versatz zur Stange 72 angeordnet ist. Die Anbringung an der Stange 72 erfolgt mittels einer kardanischen Aufhängung 76 mit zwei Drehachsen al und a2. Die kardanische Aufhängung 76 ist bzw. genauer die kardanischen Achsen al und a2 sind mittels Motorisierung (nicht gesondert dargestellt) aktiv angetrieben, so dass die Baugruppe 73 -bzw. genauer ihre Hochachse A- von selbst oder automatisch -also ohne gesondertes benutzerseitiges Zutun- durch Regelung der Achsen al und a2 exakt lotrecht ausgerichtet werden kann.
Die Baugruppe 73 weist zum einen am oberen Ende das Ziel 74 auf, welches aufgrund der aktiv geregelten Gimbalanordnung 76 somit automatisch lotrecht ausgerichtet ist.
Zum anderen weist die Baugruppe 73 am unteren Ende eine im Beispiel als Laser ausgebildete Anzieleinheit 75 auf. Die Anzieleinheit 75 dient zum Anzielen des zu vermessenden Geländepunkts 78 und hat dazu eine Zielachse A, die im Beispiel mit der Hochachse A zusammenfällt. Im Beispiel wird entlang der Zielachse A vom Laser ein Laserstrahl L ausgesandt. Mittels des Laserstrahls L wird zum einen der Geländepunkt 78 für den Benutzer 40 optisch sichtbar markiert, so dass der Benutzer 40 also die Ausrichtung der Zielachse A verifizieren kann, also erkennen kann, ob er tatsächlich den Punkt 78 anzielt.
Zum anderen ist der Laser im Beispiel Teil eines Laserdistanzmessers, anhand welchem die Entfernung vom Ziel 74 bzw. vom Referenzpunkt 74r zum Geländepunkt 78 gemessen wird. Somit sind aufgrund der durch die kardanische Aufhängung 76 bereitgestellten lotrechten Ausrichtung der Achse A aus der Entfernung zwischen Referenzpunkt 74r und Geländepunkt 78 und den mittels des Vermessungsgeräts 71 anhand des Ziels 74 gemessenen Koordinaten des Referenzpunkts 74r die Koordinaten des Geländepunkts 78 eindeutig bestimmbar.
Alternativ zur dargestellten Anordnung ist das Ziel 74 derart angeordnet, dass sich der Referenzpunkt 74r am Schnittpunkt der beiden Gimbalachsen al und a2 befindet. Als weitere Alternative zur Darstellung ist die Anordnung von Ziel 74 und Anzieleinheit 75 vertauscht, so dass also die Anzieleinheit lotrecht nach oben zielt, wodurch z.B. Punkte einer Decke vermessbar sind. Auch kann die die Anzieleinheit 75 oder auch die gesamte Baugruppe 73 derart angeordnet sein, dass die Zielachse Anzieleinheit 75 bzw. die Anzielachse waagrecht ist. Alternativ zu einem z.B. nach dem Phasenprinzip arbeitenden Laserdistanzmesser kann der elektronische Distanzmesser der Anzieleinheit z.B. einen Linienarray aufweisen, um die Distanz zum Geländepunkt 78 nach dem Triangulationsprinzip zu bestimmen, einen Flächenarray nach Art einer Time-of- Flight- (ToF) Kamera oder die Entfernung mittels Wafeform- Digitizing (WFD) messen. Die Aufhängung 76 kann einen oder mehrere Neigungssensoren aufweisen. Mittels der vorgestellten aktiven Regelung der Aufhängung 76 lassen sich Neigungssensoren hochgenau und mit kleinem Messbereich anfahren und einnivellieren.
Mittels einer aktiven Aufhängung 76 ist z.B. eine gezielte Ausrichtung nicht nur in der lotrechten und/oder waagrechten, beispielsweise zur automatischen Anzielung eines Geländepunkts 78, automatisch und/oder ferngesteuert durchführbar. Die aktive kardanische Aufhängung 76 ermöglicht also vorteilhaft, dass nicht nur eine lotrechte oder waagrechte Ausrichtung des Ziels 74 und/oder der Zielachse A automatisch erzielbar ist, sondern aufgrund der Motorisierung die Baugruppe 73 auch auf jeden beliebigen anderen Winkel automatisch oder automatisiert eingestellt werden kann. Die kardanische Aufhängung 76 ermöglicht also nicht nur eine automatische, hochgenaue und schnelle senkrechte oder waagrechte Ausrichtung der Baugruppe 73, sondern bei Bedarf auch eine definierte andere Anordnung der Baugruppe 73, ohne dass der Benutzer 40 die Stange 72 in einer bestimmten Position bzw. Haltung fixieren oder ausrichten müsste. Somit kann also gezielt Winkel angefahren und mittels des Pointer-Laserstrahls L markiert werden, z.B. um Fluchtungsvorgaben anzuzeigen.
Mittels der aktiven Aufhängung 76 lassen sich zudem Bewegungen des Messhilfsinstruments 70 bzw. der Baugruppe 73 adaptiv dämpfen, so dass z.B. selbst bei unruhigem Positionieren des Instruments 70 exakte Messungen ermöglicht sind. Auch lässt sich durch die Regelung der Dämpfung z.B. eine Verfolgung des Ziels 74 durch das Vermessungsgerät 71 bei Herumtragen des Instruments 70 durch den Benutzer 40 wesentlich vereinfachen, da das Schaukeln durch den Benutzer 40 durch die an das Schaukeln angepasste Dämpfung optimal ausgeglichen werden kann.
Zum Beispiel kann eine Fernsteuerung vom Vermessungsgerät 71 aus erfolgen, so dass vom dortigen Standort aus ein oder mehrere Vermessungspunkte 78 automatisch oder von einem dortigen Benutzer angefahren werden können, auch Vermessungspunkte, die sich abweichend von der Darstellung in Figur 11a vom Standpunkt des Messhilfsinstruments 70 aus gesehen nicht im Lot bzw. der Waagrechten befinden. Zudem können damit beispielsweise hinterlegte abzusteckende Punkte oder Lay-out-Punkte aus einem elektronischen Speicher abgerufen werden und sobald sich das Instrument 70 in geeigneter Nähe des oder der Punkte befindet, diese automatisch auf den Boden oder an eine Wand z.B. mittels Laserstrahl L markiert/angezeigt werden, indem die Ausrichtung des Laserstrahls L mittels der aktiven kardanischen Aufhängung 76 entsprechend eingestellt wird.
Auch kann das Vermessungssystem 77 über Mittel verfügen, mit welchem die Orientierung der kardanischen Aufhängung 76 relativ zum Vermessungsgerät 71 bestimmbar ist, z.B. einen optischen Kugelcode am Ziel 74 oder anderweitige optische Markierungen an der Baugruppe 73, der bzw. die mittels einer Kamera des Vermessungsgeräts 71 erfasst und ausgelesen wird. Alternativ oder zusätzlich zu derartigen passiven, vom Vermessungsgerät 71 auslesbaren oder auswertbaren Mitteln verfügt das Messinstrument über aktive Mittel zur Orientierungsbestimmung, z.B. eine IMU und/oder Neigungssensoren. Somit ist zusätzlich zur Positionsbestimmung (3-DoF) eine 6-DoF-Vermessung des Messhilfsinstruments 70 durch das Vermessungsgerät 71 ermöglicht, welche beispielsweise genutzt werden kann, um das Messhilfsinstrument 70, insbesondere für kurze Messdistanzen zu einem Geländepunkt 78, als 3D- Distanzmesser einzusetzen.
Als weitere nicht dargestellte Option verfügt die Baugruppe 73 mit aktivem Gimbal 76 über eine Zielverfolgungseinheit (tracking unit) , mit der z.B. kamerabasiert oder mittels positionssensitivem Detektor ein sich in der Nähe befindliches sich bewegendes Gerät oder Fahrzeug getrackt werden kann. Derartige Zielverfolgungseinheiten sind bei industriellen Lasertrackern bekannt, z.B. unter dem Stichwort „ATR" (automated target recogniction) und näher mit Bezug zum sechsten Erfindungsaspekt, z.B. zu Figur 14 beschrieben .
Figur 11b zeigt eine alternative Ausführungsform eines Messhilfsinstruments 70. In diesem Beispiel ist die Baugruppe 73 mit Ziel 74 und Anzieleinheit 75 mittels einer aktiven kardanischen Aufhängung 76 mit den zwei kardanischen Achsen al und a2 an einem Stativ 72' angebracht. Mittels des Stativs 72' kann die Baugruppe 73 wie dargestellt bei einem Geländepunkt 78 positioniert werden, um diesen Punkt 78 wie oben beschrieben zu vermessen oder abzustecken.
Figur 11c zeigt einen Teil des Messhilfsinstruments 70 einer weiteren Ausführungsform und zwar wird die kardanischer Aufhängung 76 mit den zwei Achsen al und a2 sowie miteiner damit aufgehängten Baugruppe 73' dargestellt. Die Baugruppe 73' verfügt im Beispiel neben der Anzieleinheit 75 über eine weitere Anzieleinheit 75a, deren Zielachse senkrecht zur Zielachse der ersten Anzieleinheit 75 steht und im Beispiel somit waagrecht ausgerichtet ist. Im Beispiel weist die zweite Anzieleinheit 75a ebenfalls einen Laser auf, so dass auch Punkte in der Waagrechten bzw. in einem zur Achse A senkrechten Winkel mittels des zweiten Laserstrahls L' vermessen oder markiert werden können. Beispielsweise kann das zweite Laserlicht L' auch fächerförmig ausgesandt werden, so dass z.B. Höhenlinien an einer Wand aufgenommen oder markiert werden können, von einem definierten Standpunkt aus, welcher mittels des ersten Laserstrahls L eingehalten und/oder vermessen wird. Senkrechte und waagrechte Anzielung und Distanzmessung können also vorteilhaft kombiniert werden, um damit Höhenlinien präzise zu markieren.
Figur 12 zeigt eine alternative Ausführungsform eines Messhilfsinstruments 70. Im Unterschied zur Ausführungsform nach Figur 11 weist die kardanische aufgehängte Baugruppe 73 ein Anzieleinheit 75' auf, welche eine entlang der Zielachse A ausgerichtete Kamera aufweist. Die Kamera nimmt somit ein Bild des lotrecht unter ihr liegenden Teil des Bodens 52 auf. Dieses Bild wird z.B. kabellos an ein externes Benutzerdisplay übertragen, z.B. ein Tablet 6 wie dargestellt oder auch eine augmented-reality-Brille oder ein AR-Helm. Im Bild, das den Geländepunkt 78 zeigt, wird der (virtuelle) Schnittpunkt Pa der Anzielachse A mit dem Boden 52 als überlagernde Grafik dargestellt. Mittels dieser Darstellung auf dem Display 6 kann nun der Benutzer 40 die Position und/oder Haltung des Messhilfsinstruments 70 derart verändern, dass sich der dargestellte Schnittpunkt Pa mit der Darstellung des Geländepunkts 78 überdeckt, also die Anzielachse A auf den Geländepunkt 78 ausgerichtet ist. Die Distanz vom Positionsreferenzpunkt 74r zum Geländepunkt 78 wird wie oben beschrieben entweder kamerabasiert unter Verwendung der Anzielkamera gemessen oder mittels eines zusätzlichen elektronischen Distanzmessers .
Alternativ zu einer benutzerseitigen Veränderung der Position und Haltung des Instruments 70 erfolgt mittels des Antriebs der kardanischen Aufhängung 76 eine Ausrichtung der Baugruppe 73 automatisch derart, dass der Schnittpunkt Pa mit dem Bodenpunkt 78 übereinstimmt, d.h. die Anzielachse A ist dann nicht unbedingt senkrecht ausgerichtet, sondern die Ausrichtungswinkel werden nach erfolgter Ausrichtung gemessen. Die Figuren 13a-13c zeigen ein Beispiel für ein Verfahren unter Verwendung eines Messhilfsinstruments 70 wie oben beschrieben. Das Messhilfsinstrument 70 mit an der Gimbalvorrichtung 76 angeordneter Baugruppe 73 ist bei einem Geländepunkt 78 positioniert. Am Geländepunkt 78 soll mittels eines Werkzeugs 79, im Beispiel eine Bohrmaschine, einer Arbeit durchgeführt werden. Das handgehaltene Werk zeug 79 weist eine Arbeitsachse 79a auf, welche zum optima len Arbeiten in einer bestimmten Richtung auszurichten ist, im Beispiel senkrecht (zum Boden) . Um diese optimale Ausrichtung nun zu gewährleisten oder anders gesagt die Fluchtung zu überprüfen, wird das zum Geländepunkt 78 zielende Laserlicht L der Anzieleinheit 75 genutzt.
Das Werkzeug 79 verfügt auf seiner Rückseite über einen Laserdetektor oder eine Mattscheibe 79b, zentral um die Arbeitsachse 79a angebracht. Ist nun das Werkzeug 79 so ausgerichtet, dass der Laserstrahl L auf eine zentrale Zone der Mattscheibe / des Detektors 79b trifft, so erkennt der Benutzer, dass die Ausrichtung optimal ist. Die zentrale Zone kann dabei den gesamten Mattscheiben-/Detektorbereich umfassen, wobei eine grossflächigere Ausführung der lichtempfindlichen Fläche vorteilhaft sein kann, um den Laserstrahl vor der optimalen Ausrichtung überhaupt erst aufzufinden/ zu detektieren. Die Genauigkeit der Fluchtung kann optional mittels mehrerer Zonen erfolgen, die verschieden hohe Toleranzbereiche repräsentieren, z.B. eine Toleranz von 1°, 2° und 3°. Bei Vorliegen eines Detektors kann das Überprüfen der Fluchtung z.B. mittels optischer und/oder akustischer Signale erfolgen.
Figur 14 zeigt ein Beispiel eines Vermessungsgeräts 80 mit parallelem Bereitstellen einer Richtung zu einem zu vermessenden Ziel 82 und eines Bilds vom Ziel 82. Das Vermessungsgerät 80, z.B. eine Totalstation oder ein Lasertracker, weist als Bestandteil eines Richtungsmessmoduls 84 eine Infrarotstrahlungsquelle 85 auf, welche Beleuchtungsstrahlung 86 erzeugt, welche u.a. mittels Strahlteilern 89 auf das Ziel 82, im Beispiel ausgebildet als Retroreflektor beleuchtet. Vom Ziel 82 reflektierte Infrarotstrahlung 86 wird von einer Empfangsoptik 83 empfangen und auf einen Sensor 90 geführt (der Sensor 90 ist abweichend vom Rest der Darstellung in einer Schrägansicht dargestellt) . Der zweidimensionale Bildsensor 90 ist für die Wellenlänge der Infrarotstrahlung 86 empfindlich und positionssensitiv, so dass die Lage des Auftreffpunkts 88 der empfangenen Strahlung 86 auf dem Sensor 90, z.B. in an sich bekannter Weise durch Ermittlung des Schwerpunkts, ermittelbar ist. Anhand der Lage des Auftreffpunkts 88 kann auf eine Richtung zum Ziel 82 geschlossen werden. Zum Beispiel wird anhand einer Abweichung der Lage von einem definierten Zentrum, welches einer hochgenauen zentralen Ausrichtung auf das Ziel 82 entspricht, auf eine Abweichung einer Zielachse des Vermessungsgeräts 80 von einer Sollausrichtung geschlossen, was auch unter dem Begriff Automated-Target-Recognition (ATR) bekannt ist. Anders formuliert wird auf dem Sensor 90 eine Ablage des empfangenen Infrarotstrahls 86 von einer Nullposition ermittelt. Mittels dieser messbaren Ablage kann eine Positionsdifferenz zwischen dem Zentrum des Retroreflektors 82 und dem Auftreffpunkt des Infrarotstrahls 86 auf dem Reflektor 82 bestimmt und die Ausrichtung des Vermessungsgeräts 80 in Abhängigkeit dieser Abweichung derart korrigiert bzw. nachgeführt werden, dass die Ablage auf dem Sensor 84 verringert wird, insbesondere „Null" ist, und damit der Strahl bzw. eine Zielachse in Richtung des Reflektorzentrums ausgerichtet ist. Damit ist auch mittels eines Entfernungsmessmoduls 81 mit einer Strahlquelle 81a, welche (nicht dargestellte) Messstrahlung (z.B. Laserstrahlung) entlang der Zielachse auf das Ziel 82 sendet, so dass rückgestrahlte Messstrahlung mit einem Detektor 81b detektiert wird, eine hochgenaue, feinangezielte Entfernungsmessung zum Ziel 82 ermöglicht. Aus der Ablage und damit Richtung zum Ziel kann zudem in Verbindung mit der Entfernungsmessung eine 3D-Position des Ziels 82 ermittelt werden.
Durch das Nachführen der Ausrichtung kann zudem eine fort laufende Zielverfolgung (Tracking) des Ziels 82 erfolgen und die Position des Ziels 82 (Richtung und Entfernung) fortlaufend relativ zum Messgerät 80 bestimmt werden. Das Nachführen kann dabei mittels einer Ausrichtungsänderung eines motorisiert bewegbaren, zur Ablenkung des Lichtstrahls vorgesehenen Ablenkspiegels und/oder durch ein Schwenken einer Anziel- oder Strahllenkeinheit relativ zu einer festen Basis realisiert werden.
Alternativ zur Darstellung erfolgt eine parallele Beleuch tung mit Infrarotstrahlung 86, z.B. indem eine IR-Strahl- quelle direkt an der Optik 83 angeordnet ist, z.B. als Ring von IR-LEDs um die Optik 83 herum. Die Raumrichtung zum Ziel 82 wird dann z.B. mit einer Kamera bestimmt, welche reflektierte Beleuchtungsstrahlung 86 empfängt.
Im Unterschied zum Stand der Technik sind nun Empfangsoptik 83 und Sensor 90 derart ausgebildet, dass gleichzeitig zum Empfang und Erfassen der vom Ziel 82 ausgehenden Infrarotstrahlung 86 auch mittels der Empfangsoptik 83 sichtbare Strahlung 87 empfangbar (d.h. auf den Sensor 90 führbar) ist und die empfangene sichtbare Strahlung 87 vom Sensor 90 gleichzeitig mit der Infrarotstrahlung 86 erfassbar ist. Das sichtbare Licht ist dabei mit einer Spektralverteilung empfang- und erfassbar, dass daraus ein Farbbild erzeugbar ist.
Somit ist also parallel zum Ermitteln des Ablagepunkts 88 bzw. der auf dem Punkt 88 basierenden Bestimmung der Richtung zum Ziel 82 ein Kamera- oder RGB-Bild 91 des Ziels
82 anhand des vom Ziel 82 ausgehenden Lichts 87 erzeugbar. Im Unterschied zu bekannten Vermessungsgeräten wird also in einem Zug, insbesondere gleichzeitig, sowohl Infrarotmess strahlung erfasst als auch "normales" Umgebungslicht, so dass in einem Arbeitsgang einerseits eine Zielrichtungs bestimmung als auch ein Kamerabild 91 des Ziels 82 mittels des gleichen Sensors 90 bereitgestellt werden kann, ohne dass hierzu für eine der beiden Aufgaben die Empfangsoptik
83 bzw. der optische Empfangspfad verändert werden müsste. Es muss also z.B. keine Veränderung der Wellenlängendurch lässigkeit mittels Einschalten eines optischen Wellenlängenfilters, beispielsweise eine IR-Filters, erfolgen, um ATR-Messung und Farbbild bereitzustellen.
Figur 15 stellt rein schematisch den Ablauf von parallelem Erfassen von Infrarotstrahlung und sichtbarer Strahlung mit einem weiten Farbspektrum sowie jeweils darauf basierender Richtungsbestimmung und Bilderzeugung dar. Mittels der Empfangsoptik 83 wird beiderlei Strahlung auf den für beide Wellenlängenbereiche empfindlichen Sensor 90 geführt, wobei mittels eines Filters 83a die sichtbare Strahlung als Bandpass durchgelassen wird sowie einen im Hinblick an den IR-Bereich der IR-Beleuchtungsstrahlung (86 in voriger Figur 14) bzw. des Sensors ausgewählter IR-Bereich.
Die unterschiedlichen Strahlungsanteile (im Beispiel IR und RGB) werden verarbeitet (Block 92), so dass zwei Sensorausgangssignale oder Sensorsignalanteile erzeugt werden. Mit dem ersten Ausgangssignal 93 wird das optische Bild 91 des Ziels (bzw. der Zielumgebung) erstellt. Mit dem zweiten Ausgangssignal 94 wird parallel dazu die Richtung zum Ziel ermittelt (symbolisiert durch den Ablagepunkt 88) . Es wird also mit dem gleichen optischen System und in einer Prozedur einerseits mittels IR-Strahlung vermessen als auch ein Farbbild 91 erzeugt. Optional wird im Bild 91 des Ziels die bestimmte Richtung zum Ziel überlagernd dargestellt, wobei das Bild 91 Teil eines Live-Video-Streams sein kann.
Figur 16 zeigt eine Fortbildung der Ausführungsform eines Vermessungsgeräts 80. Der einfacheren Darstellung wegen wurden im Vergleich zur Figur 14 bis auf Empfangsoptik 83 und Sensor 90 alle weiteren Elemente weggelassen. Im Unterschied zur Ausführungsform nach Figur 14 weist die Empfangsoptik 83 eine Korrekturlinse 95 auf. Diese dient dazu, den Fokus der Empfangsoptik 83 für das sichtbare Licht 87 und den Fokus für die IR-Strahlung 86 aneinander anzugleichen, um die Wellenlängenabhängigkeit der Fokussierung also auszugleichen. Somit sind gleichzeitig beide Strahlungen 86, 87 bzw. alle Spektralbereiche auf dem Sensor 90 scharf abbildbar. Somit sind also simultan sowohl fokussierte IR-Strahlung 86 als auch fokussiertes Umgebungslicht 87 bereitgestellt, so dass in einem Belichtungsvorgang der IR-Auftreffpunkt bestimmt und ein Farbbild erzeugt werden kann. Eine Gleichzeitigkeit der beiden Vorgänge ist vor allem bei einem sich bewegenden Ziel vorteilhaft. Eine Alternative zu einer vereinheitlichenden Fokuskorrektur bzw. einem gleichzeitigen Aufnehmen beider Strahlungen 86, 87 wird in nachfolgender Figur 17 beschrieben.
Figur 17 stellt schematisch einen Ablauf dar, mit dem in einem Arbeitsgang ein Kamerabild anhand der sichtbaren Wellenlängen als auch eine IR-Messung erfolgt. Zuerst wird das Vermessungsgerät auf das Erstellen des Farbbildes eingestellt, indem die Belichtungszeit und der optische Fokus für den sichtbaren Wellenlängenbereich passen oder optimiert eingestellt werden (96a). Mit diesen Parameterwerten der Empfangsoptik bzw. des Sensors wird dann ein Kamerabild aufgenommen (96b) . Dieses Bild wird anschliessend ausgewertet (96c), um Aufnahmeparameter für das Erfassen der IR-Strahlung optimiert einzustellen. Im Beispiel wird der optische Fokus anhand des ermittelten Bildkontrasts des Farbbildes eingestellt (96d). Dies kann vollautomatisiert erfolgen oder teilautomatisiert unter Benutzereingriff und ist dahingehend vorteilhaft, da ein derartiges Farbbild in der Regel einen guten Kontrastwert aufweist bzw. der Kontrast wesentlich deutlicher ist als im Fall der IR-Strahlung. Somit kann die Bildschärfe mit guter Sicherheit festgestellt und zur Regelung verwendet werden.
Anschliessend wird die Belichtungszeit passend für eine IR- Erfassung eingestellt (96e) . Dies kann ebenfalls auf einer Auswertung des Farbbildes basieren. Jedenfalls sind ge trennte Belichtungsvorgängen dahingehend vorteilhaft, dass die Belichtungsdauer für die jeweilige Strahlungsart opti mal einstellbar sind. Mit den derart eingestellten Auf nahmeparametern wird dann die IR-Strahlung erfasst (96f).
Mit einem solchen direkt nacheinander ablaufenden Erfassen von sichtbarer Strahlung und IR-Strahlung ist also ein für den jeweiligen Teilvorgang optimiertes Einstellen von Erfassungsparametern realisiert. Die Abfolge kann insbe sondere Teil eines Videostreams sein, in dem jeweils ab wechselnd eine Farbaufnahme und eine IR-Aufnähme erfolgen.
Figur 18 zeigt ein Ausführungsbeispiel für einen hybriden Sensor 90, mit dem gleichzeitig Infrarotstrahlung zur Ablagepunktbestimmung und farbiges Licht zur Farbbildbe- reitstellung erfassbar ist. Im Beispiel ist der Sensor 90 als hybrider RGB-IR-Sensor 90 mit einem Pixel-Array 90a ausgeführt, welcher über die drei Kanäle 90b Rot, Grün und Blau und zudem über einen IR-Kanal 90c verfügt. Diese werden beispielsweise durch entsprechende Pixelfilter erhalten, welche nur die Wellenlängen oder Wellenlängenbereich des gewünschten Spektralanteils R, G, B oder IR passieren lassen, wobei der IR-Pixelfilter z.B. Strahlung im Wellenlängenbereich von 800-950nm oder spezifischer bei Wellenlängen von 780nm oder 850nm durchlässt und das gesamte Licht im sichtbaren Spektrum absorbiert. Vorzugsweise erfolgt bei der Bilderzeugung ein Kompensieren der jeweils fehlenden Farbkanäle eines Pixels durch Korrelieren der fehlenden Farbanteile durch die benachbarten Pixel, welche die entsprechenden Farben erfassen. Für die ATR-Messung ist ein solches Kompensieren nicht notwendig, da der Auftreffpunkt wie beschrieben z.B. durch Schwerpunktbildung ermittelbar ist.
Figur 19 zeigt ein Beispiel für ein Verfahren zum Kauf und Verkauf von Geodäsiedaten über eine Computernetzwerkplatt form 100. Im linken Teil der Figur 19 ist schematisch dargestellt, wie Geländepunkte 107 mittels der Vermessungsgeräte 101a und 101b vermessen werden. Damit werden Geodäsiedaten erzeugt, welche die absoluten Koordinaten der Geländepunkte 107 beinhalten, z.B. bezogen auf das WGS84- oder ETRS89-Referenzsystem. Die Geodäsieda ten beinhalten optional weitere Daten. Beispiele für solche Metadaten sind der Zeitpunkt oder das Datum der Vermessung, die verwendete Vermessungsgeräteart oder -typ, also z.B. Tachymeter oder Laserscanner, reflektorlos oder mit Reflek tor usw. Auch können die Genauigkeit oder Unsicherheit der Koordinaten oder der Urheber/die Quelle der Geodäsiedaten deren Bestandteil sein (siehe auch Figur 20) . Die so erzeugten Geodäsiedaten werden im Beispiel mittels Internet an eine Datenaustauschplattform 100 übertragen. Dieser Upload stellt dabei der Verkauf der Geodäsiedaten dar bzw. deren Angebot zum Verkauf. Die Plattform 100 speichert die Geodäsiedaten der Geländepunkte 107 in Abhängigkeit der jeweiligen Punktkoordinaten ab, d.h. die Zuordnung der Geodäsiedaten erfolgt über die darin enthal tenen Koordinaten. Somit sind die Geodäsiedaten anhand der Koordinaten abrufbar. Neben den genannten Metadaten können durch die Plattform 100 weitere Metadaten zu den Geodäsiedaten hinzugefügt werden, z.B. eine Koordinaten historie, also der Verlauf der Koordinaten eines Gelände punktes, falls mehrere Messungen verschiedenen Datums zum gleichen Punkt in der gespeicherten Datenbank vorliegen.
Zum Abruf von Geodäsiedaten meldet sich ein (potentieller) Käufer per Netzwerk an der Plattform 100 an und teilt mit, zu welchem Standort bzw. zu welchem Geländepunkt er Daten wünscht, z.B. indem er direkt seine Standortkoordinaten angibt oder eine anderweitige Standortbezeichnung (z.B. Adresse, Grundstücksnummer etc.), welche seinen Standort und damit Koordinaten seines Aufenthaltsorts eindeutig identifizierbar machen, mitteilt. Anhand einer solchen koordinatenbezogenen Abfrage stellt die Plattform 100 die entsprechenden Geodäsiedaten bereit, also diejenigen Daten, welche aufgrund ihrer Koordinaten zu den Standortkoordinaten passen bzw. als zugehörig eingeordnet sind. Im Beispiel erfolgt die Bereitstellung in Form einer Liste 103a und auch grafisch als Markierungen 103b, die in einer Landkartenansicht des Standorts bzw. der Koordinaten eingebettet sind.
Der Benutzer wählt dann die Geodäsiedaten aus, der er kaufen möchte und lädt die gekauften Daten anschliessend auf sein Vermessungsgerät 106 herunter, wo sie z.B. grafisch auf einem Display 106b des Geräts 106 angezeigt werden. Anzeige von Daten, Download oder Upload können dabei auch nicht durch das eigentliche Vermessungsgerät 106, also z.B. eine Totalstation, erfolgen, sondern durch ein damit verbundenes bzw. konnektierbares Anzeige- und Steuergerät, wie z.B. ein Smartphone oder Tablet. D.d. ein geodätisches Vermessungssystem weist in solchen Fällen z.B. ein Tachymeter auf und ein Smartphone, wobei beide Geräte miteinander kommunizieren und die Kommunikation zur Plattform mittels des Smartphones erfolgt.
Als vorteilhafte Option erfolgt der Download bzw. Kauf 105 einfach durch eine einzige Benutzereingabe, z.B. durch einfaches Drücken eines Bedienknopfs 106a des Vermessungsgeräts 106 oder eines damit verbundenen Smartphones oder Tablets. Ebenso kann der Upload bzw. Verkauf 102 von im Vermessungsgerät 101a oder 101b gespeicherten Geodäsiedaten durch einen einzigen Tastendruck auslösbar sein. Somit dient die Plattform 100 also als Handelsmarkt, mit dem auf einfache und direkte Weise Geodäsiedaten gehandelt werden können.
Der Kauf von Geodäsiedaten kann weiter automatisiert werden, indem der Standort des Käufers bzw. des Vermessungssystems 106 z.B. mittels GPS automatisch ermittelt und an die Marktplattform 100 übermittelt wird (dargestellt in der Figur 19 durch Symbol 108), so dass automatisch die zum Standort passenden Geodäsiedaten bei Knopfdruck heruntergeladen werden, z.B. Daten aller Geländepunkte im Umkreis von 50m, wobei zusätzliche, vorab eingestellte Filter berücksichtigt werden können (so, dass beispielsweise nur Koordinaten gekauft werden, die bestimmte Qualitätskriterien/Messgenauigkeiten erfüllen oder zum Vermessungsgerätetyp kompatibel sind) .
Eine derartige Übermittlung und Berücksichtigung von Standort 108 oder Geräteart/-typ erfolgt optional alternativ oder zusätzlich bereits bei der Bereitstellung 103a/b der Geodäsiedaten, so dass nur solche Daten angeboten werden, welche zum Standort und/oder spezifischen Vermessungsgerät 106 passen. Eine Vorauswahl oder auch Adaption der Geodäsiedaten erleichtert dem Benutzer die endgültige Auswahl. Eine Adaption kann dabei z.B. die Art der Präsentation der Daten betreffen, welche dann spezifisch auf das abfragende Gerät zugeschnitten ist.
Als weitere (nicht dargestellte) Option ermittelt oder berechnet die Plattform 100 für die vom Käufer abgefragten Geländepunkte 104 einen für diese Punktmenge 104 optimalen Vermessungsstandort und schlägt diesen Vermessungsstandort dem Benutzer vor. Auch kann das System optional an einen oder mehrere abgefragte bzw. gekaufte Geländepunkte anschliessende Geländepunkte vorschlagen. Somit erhält der Käufer optional weitere Hilfestellungen aufgrund der vom ihm erworbenen Geodäsiedaten, welche eine auf den heruntergeladenen bereits vermessenen Geländepunkten aufbauende Vermessungsaufgabe erleichtern können.
In einer weiteren (nicht dargestellten) Fortbildung des Verfahrens bzw. der Plattform 100 erhält der Käufer automatisch eine Mitteilung, sobald eine Aktualisierung von ihm bereits erworbener Geodäsiedaten verfügbar ist, z.B. also neuere Koordinaten zu heruntergeladenen Punkten vorhanden sind. Z.B. können Stationierungsmessungen auf Basis mehrerer bekannter Punkte zum Update der Punktinformationen genutzt werden. Auch wird optional automatisch eine Warnung an den Benutzer ausgegeben, falls z.B. durch Unwetter oder Erdbewegungen anzunehmen ist, dass die bereits erworbenen Daten nicht mehr mit der Realität übereinstimmen. Zum Beispiel ist die Plattform 100 mit einem meteorologischen oder seismologischen Datenprovider verbunden, so dass schwerwiegende Umwelteinflüsse in einer bestimmten Geländeregion notiert werden, welche Einfluss auf Geländepunkte haben oder haben könnten. Entsprechend erfolgt dann eine Notiz an den Benutzer der Plattform 100, dass seine Daten veraltet sind oder sein könnten, also die gespeicherten und heruntergeladenen Koordinaten von den realen Koordinaten (potentiell) abweichen.
Figur 20 zeigt ein Beispiel für Geodäsiedaten 113-115, welche über die Datenhandelsplattform abfragbar sind. Im Beispiel ist ein Display 109 z.B. einer Totalstation zu sehen, in welchem eine 3D-Ansicht oder ein Live-Kamerabild 111 der Vermessungsumgebung am Standort des Vermessungs geräts zu sehen ist. Dem Bild 111 überlagert sind im Bei spiel drei grafische Markierungen 110 von Geländepunkten, deren Koordinaten von der Plattform heruntergeladen worden sind. Zusätzlich zu den Koordinaten sind weitere Geodäsiedaten 113-115 mittels der Plattform bereitgestellt bzw. erworben, die mit den Geländepunkten 110 verknüpft sind und z.B. durch Anklicken der jeweiligen Markierung anzeigbar. Im Beispiel sind die zusätzlichen Daten zu einem Punkt in einem Ansichtsfenster 112 angezeigt.
Das Ansichtsfenster 112 enthält zum einen eine Tabelle 113, welche neben den Koordinaten des Punkts Angaben zur deren Genauigkeit, Messzeitpunkt, Quelle, Messverfahren und Qualität enthält. Die Qualitätsangabe beruht z.B. darauf, dass der betroffene Geländepunkt von mehreren Vermessern vermessen wurde, also eine Vielzahl von Koordinatenangaben zum gleichen Punkt in der Plattform hinterlegt sind. Neben dieser Datentabelle 113 ist im Fenster durch die Grafik 114 eine räumliche Verteilung der Vielzahl der Koordinatenangaben dargestellt. Darüber hinaus ist in einem Diagramm 115 der zeitliche Verlauf der Koordinaten illustriert, also die jeweiligen Messergebnisse in Abhängigkeit des jeweiligen Messdatums.
Somit erhält der Benutzer bzw. Käufer neben den eigentlichen Vermessungswerten der Punkte viele weitere Informationen zu diesen. Es wird also nicht nur auf einfache Weise mit der vorliegenden Erfindung einem Vermesser ermöglicht, unmittelbar und vor Ort bereits früher vermessene Punkte direkt auf sein Vermessungsgerät zu laden, ohne diese z.B. zeitaufwändig per Hand eingeben zu müssen. Als zusätzlicher Vorteil werden weitere Geodäsiedaten zu den Punkten bereitgestellt, welche z.B. eine gezielte und für die erforderliche Vermessungsaufgabe optimale Auswahl der zu erwerbenden Punkte ermöglicht und darüber hinaus eine weitere Beurteilung oder gezieltere/optimierte Verwendung der erworbenen Punkte 110 durch die mitgelieferten Metadaten.
Figur 21 zeigt ein Beispiel für einen Vermessungsverbund, der mittels der Datenaustauschplattform 100 ermöglicht ist. Im Beispiel sind in einer Messumgebung drei Vermessungsgeräte 101a/106a-101c/106c verbunden, die sowohl als geodäsiedatenanbietendes Gerät 101a-101c fungieren als auch als geodäsiedatenbeziehendes Gerät 106a-106c. Beispielsweise vermisst das Vermessungsgerät 101c einen Geländepunkt 110c und lädt dessen Daten D(110c) sofort über das Internet an die Plattform 100. Ebenso vermessen die Geräte 101a und 101b jeweils Geländepunkte 110a, 110b und transferieren die entsprechenden Geodäsiedaten D(110a), D(110b) unmittelbar an die Plattform 100. Die an der Plattform 100 angelangten Daten D(llOa-llOc) werden dann in Echtzeit für die drei in der Plattform 100 eingeloggten und als Verbund oder Kaufer-Verkäufer- Zusammenschluss registrierten bereitgestellt und an die jeweils anderen Geräte weitergeleitet. So erfolgt automatisch ein Transfer der soeben vom Vermessungsgerät 101a hochgeladenen Daten D(110a) an die beiden anderen Geräte 106b, 106c und ein Transfer der Daten D(110b) an die Geräte 106a, 106c usw.
Es erfolgt also in Echtzeit und vor Ort ein Austausch der Vermessungsdaten D(110a-c), so dass an allen Standorten alle im Verbund erzeugten Daten D(110a-c) bzw. Punkte 110a- 110c sofort vorliegen. Somit ist ein sychronisiertes , paralleles Arbeiten mehrerer Vermesser ermöglicht, wobei bereits vermessene Punkte 110a-c zur weiteren Referenzierung genutzt werden können. Ein derartiger Datenaustausch ist auch ein Beispiel dafür, dass eine Kauf- Verkauf-Transaktion von Gedäsiedaten D(110a-c) entgeltlos bzw. als Tauschhandel bzw. Bartergeschäft mit Geodäsiedaten als "Währung" ablaufen kann.
Es versteht sich, dass diese dargestellten Figuren nur mögliche Ausführungsbeispiele schematisch darstellen. Die verschiedenen Ansätze können erfindungsgemäss ebenso miteinander sowie mit Vermessungsgeräten und Vermessungs verfahren des Stands der Technik kombiniert werden.

Claims

Ansprüche
1. Verfahren zur Darstellung von Soll-Positionen in einem
Livebild (22) einer Baustelle (25), mit
• Aufnehmen (20a) wenigstens eines
positionsreferenzierten Bilds der Baustelle (25) ,
• Verknüpfen (20b) wenigstens einer Soll-Position (24, 24a) mit dem positionsreferenzierten Bild,
• Ablegen (20c) des positionsreferenzierten Bilds samt Soll-Positions-Verknüpfung in einem elektronischen Speicher,
• Aufnehmen (21a) eines Livebilds (22) der Baustelle (25) , insbesondere in Form eines Videos, wobei das Live-Bild (22) und das positionsreferenzierte Bild zumindest teilweise einen gleichen Ausschnitt der Baustelle (25) darstellen,
• Abrufen (21b) des abgelegten positionsreferenzierten Bilds aus dem Speicher,
• Fitten (21c) des positionsreferenzierten Bilds mit dem Live-Bild (22), so dass die mit dem
positionsreferenzierten Bild verknüpfte Soll-Position (24, 24a) positionsgetreu dem Live-Bild (22)
überlagert werden kann,
• positionsgetreues Anzeigen (21d) der Soll-Position (24, 24a) als graphische Markierung im Live-Bild (22) .
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, dass
das Verknüpfen (20b) der wenigstens einen Soll-Position (24, 24a) in Form eines dem positionsreferenzierten
Bild überlagerten Bildlayers mit graphischen
Markierungen der Soll-Position (24, 24a) erfolgt und das positionsgetreue Anzeigen (21d) der wenigstens einen Soll-Position (24, 24a) im Live-Bild (22) durch Überlagern des Bildlayers im Live-Bild (22) erfolgt.
3. Verfahren nach einem der Ansprüche 1 oder 2,
dadurch gekennzeichnet, dass
das Aufnehmen (20a) des wenigstens eines
positionsreferenzierten Bilds mittels eines
Vermessungsgeräts, welches über eine Entfernungs- und Richtungsmessfunktionalität verfügt, erfolgt.
4. Verfahren nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, dass
das Aufnehmen (21a) und Anzeigen (21d) des Livebilds (22) der Baustelle (25) mittels eines handhaltbaren Mobilgeräts, insbesondere eines Smartphones oder Tablets, erfolgt.
5. Verfahren nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, dass
das Fitten (21c) mittels Template-Matching erfolgt, insbesondere
• unter Verwendung von dafür in der Baustelle (25) angebrachten und sowohl im positionsreferenzierten Bild als auch im Live-Bild (22) abgebildeten
Markierobjekten und/oder
• wobei Bereiche im Live-Bild (22) graphisch markiert werden, welche nicht gematcht werden können.
6. Verfahren nach einem der Ansprüche 1 bis 5,
dadurch gekennzeichnet, dass
• die Soll-Position (24, 24a) zur Ausführung einer Bautätigkeit dient,
• ein Ist-Zustands-Bild der Baustelle (25) nach
erfolgter Bautätigkeit aufgenommen wird (29a), • eine Positionsreferenzierung des Ist-Zustands-Bild anhand des positionsreferenzierten Bilds erfolgt (29b) ,
• das positionsreferenzierte Ist-Zustands-Bild im
Speicher abgelegt wird (29c) .
7. Verfahren nach Anspruch 6,
dadurch gekennzeichnet, dass
das positionsreferenzierte Ist-Zustands-Bild derart im Speicher abgelegt wird (29c), dass das
positionsreferenzierte Ist-Zustands-Bild für eine erneute Durchführung des Verfahrens als
positionsreferenziertes Bild dient.
8. Verfahren nach Anspruch 6 oder 7,
dadurch gekennzeichnet,
ein Abschätzen (29d) der Genauigkeit der
Positionsreferenz des Ist-Zustands-Bilds erfolgt, insbesondere anhand von darin abgebildeten markanten Baustellenelementen, und bei Vorliegen einer
Genauigkeit unterhalb einer definierten Schwelle automatisch eine Warnung an einen Benutzer ausgegeben wird (29e) .
9. Verfahren nach einem der Ansprüche 1 bis 8,
dadurch gekennzeichnet, dass
das positionsreferenzierte Bild und das Live-Bild (22) dreidimensionale Bilder sind, insbesondere wobei das Live-Bild (22) mit einer Range-Image-Kamera oder
Photogrammetrie-Kamera aufgenommen wird.
10. Verfahren nach einem der Ansprüche 1 bis 9,
dadurch gekennzeichnet, dass
zusätzlich zur Soll-Position (24, 24a) weitere die Soll-Position (24, 24a) betreffende Daten (27), insbesondere eine Bauzeichnung und/oder ein Link zu einer Datenbank, mit dem positionsreferenzierten Bild verknüpft, im Speicher abgelegt und im Live-Bild (22) anzeigbar sind.
11. Verfahren nach einem der Ansprüche 1 bis 10,
dadurch gekennzeichnet, dass
• ein Vergleichen des Live-Bilds (22) mit dem
positionsreferenzierten Bild derart erfolgt, dass im Live-Bild (22) Baustellenelemente erkannt werden, welche im positionsreferenzierten Bild nicht oder im Live-Bild (22) an falscher Stelle abgebildet sind, und
• im Live-Bild (22) diese Baustellenelemente graphisch markiert werden.
12. Verfahren nach einem der Ansprüche 1 bis 11,
dadurch gekennzeichnet, dass
das positionsreferenzierte Bild und das Live-Bild (22) im Wesentlichen eine Fläche der Baustelle (25)
anzeigen, insbesondere eine Gebäudefläche.
13. Messsystem (30) zum Vermessen und/oder Abstecken von Messpunkten (42, 43s) mit Vermessungsfunktionalität, wobei das Messsystem aufweist
• einen absolut verortbares raumgestütztes,
insbesondere stationäres, Vermessungsgerät (31),
• einen handhaltbares Messhilfsinstrument (32), wobei das Messhilfsinstrument (32) aufweist
° einen handhaltbaren Träger (37),
° ein vom Träger (37) getragenes mobiles, einen
Bildschirm (36) und eine erste Kamera aufweisendes Computerendgerät (35) , insbesondere einem
Smartphone und/oder Tablet, ° Mittel (33, 31c) zum Bestimmen und/oder Bestimmbarmachen einer Lage des
Messhilfsinstruments (32),
• wobei bei Ausführung der Vermessungsfunktionalität ° die Lage des Messhilfsinstruments (32) und damit des Computerendgeräts (35) relativ zum
Vermessungsgerät (31) eindeutig bestimmt wird, wobei zumindest ein lageabhängiger Freiheitsgrad, insbesondere die Entfernung zwischen
Messhilfsinstrument (32) und Vermessungsgerät (31), vom Vermessungsgerät (31) bestimmt wird,
° ein Messumgebungsbild mittels der ersten Kamera aufgenommen wird und
° das Messumgebungsbild auf dem Bildschirm (36)
angezeigt wird, wobei wenigstens ein Messpunkt (42, 43s) dem Messumgebungsbild unter Heranziehung der bestimmten Lage des Computerendgeräts (35) positionsgetreu überlagernd angezeigt wird.
14. Messsystem (30) nach Anspruch 13,
dadurch gekennzeichnet, dass
der Träger (37) eine Kardanaufhängung aufweist zur
Lagestabilisierung des Computerendgeräts (35) .
15. Messsystem (30) nach Anspruch 14,
dadurch gekennzeichnet, dass
die Kardanaufhängung als aktive Kardanaufhängung ausgebildet ist und dazu dient, eine Ausrichtung des
Computerendgeräts (35) gezielt einzustellen.
16. Messsystem (30) nach Anspruch 15,
dadurch gekennzeichnet, dass
bei Ausführung der Vermessungsfunktionalität mittels der aktiven Kardanaufhängung • ein abzusteckender Messpunkt (43s) vom
Computerendgerät (35) automatisch angezielt wird und/oder
• im Messumgebungsbild ein zu vermessender Messpunkt (42, 43s) händisch durch einen Benutzer (40) im Messumgebungsbild markiert wird und das
Computerendgerät (35) automatisch basierend auf der Bildmarkierung auf den zu vermessenden Messpunkt (43s) ausgerichtet wird.
17. Messsystem (30) nach einem der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass
die Vermessungsfunktionalität derart ausgestaltet ist, dass mittels des Computerendgeräts (35) die Position wenigstens eines zu vermessenden Messpunkts (42, 43s) der Messumgebung (41) relativ zum Computerendgerät (35) gemessen wird und anhand dieser Position und der ermittelten Lage des Messhilfsinstruments (32) die absolute Position des Messpunkts (42, 43s) ermittelt wird, insbesondere wobei
• die Punktpositionsmessung durch das Computerendgerät (35) messstrahlbasiert, insbesondere mittels eines elektronischen Laserdistanzmessers, und/oder
photogrammetrisch, insbesondere mittels einer als Doppelkamera ausgebildeten ersten Kamera, erfolgt, und/oder
• die Vermessungsfunktionalität derart ausgestaltet ist, dass eine scannende Vermessung einer Vielzahl von Messpunkten (42, 43s) erfolgt.
18. Messsystem (30) nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass
das Messhilfsinstrument (32) wenigstens einen Markierer zum gerichteten Markieren (39s) aufweist und die Vermessungsfunktionalität derart ausgestaltet ist, dass anhand der absoluten Verortung des Vermessungsgeräts und der ermittelten Relativlage des
Messhilfsinstruments (32) wenigstens ein abzusteckender Messpunkt (43s) positionsgetreu auf einer Oberfläche (44) der Messumgebung (41) mittels des Markierers markiert wird.
19. Messsystem (30) nach Anspruch 18,
dadurch gekennzeichnet, dass
der Markierer als eine, insbesondere als Teil des
Computerendgeräts (35) ausgebildete, Lichtquelle zur gerichteten Emission von sichtbarem Licht (39s) ausgebildet ist, insbesondere einen Punkt- und/oder Linienlaser, und der Messpunkt (43s) mittels
Lichtprojektion auf der Messumgebungsoberfläche (44) markiert wird.
20. Messsystem (30) nach Anspruch 18 oder 19,
dadurch gekennzeichnet, dass
der Markierer als ein Drucker oder eine
Sprühvorrichtung ausgebildet ist und der Messpunkt (43s) mittels Aufbringen einer physischen Markierung, insbesondere einer Farbmarkierung, auf der
Messumgebungsoberfläche (44) markiert wird.
21. Messsystem (30) nach einem der Ansprüche 13 bis 20, dadurch gekennzeichnet, dass
die Vermessungsfunktionalität derart ausgestaltet ist, dass basierend auf der absoluten Verortung des
Vermessungsgeräts (31) und der ermittelten Relativlage des Messhilfsinstruments (32) wenigstens eine aus einem Speicher abgerufene Soll-Position als abzusteckender Messpunkt (43s) dem Messumgebungsbild überlagert wird.
22. Messsystem (30) nach einem der Ansprüche 13 bis 21, dadurch gekennzeichnet, dass
im Rahmen der Vermessungsfunktionalität
zusätzlich zum Messpunkt (42, 43s) eine den Messpunkt (42, 43s) betreffende Zusatzinformation und/oder
Datenverlinkung angezeigt wird.
23. Messsystem (30) nach einem der Ansprüche 13 bis 22, dadurch gekennzeichnet, dass
° am Träger (37) ein, insbesondere kugel- oder
polyederförmiger, Körper (33) mit auf der
Körperoberfläche verteiltem optischen
eineindeutigen Code (34) angeordnet ist,
° und im Rahmen der Vermessungsfunktionalität mittels Bildverarbeitung eines von einer zweiten, am Vermessungsgerät (31) angeordneten Kamera (31c) aufgenommenen Bilds des Körpers (33) eine
Decodierung derart erfolgt, dass die Orientierung und Entfernung des Trägers (37) relativ zum Vermessungsgerät (31) eineindeutig bestimmt sind,
° die Richtung (31d) der auf das Messhilfsinstrument (32) ausgerichteten Zielachse bestimmt wird,
° die Lage des Messhilfsinstruments (32) anhand der Orientierung, Entfernung und Richtung (31d) bestimmt wird.
24. Messsystem (30) nach einem der Ansprüche 13 bis 23, dadurch gekennzeichnet, dass
das Messhilfsinstrument (32) eine Inertiale Messeinheit aufweist und die Vermessungsfunktionalität derart ausgestaltet ist, dass die Messdaten der Inertialen Messeinheit zur Bestimmung der Relativlage des
Messhilfsinstruments herangezogen werden, insbesondere zur Überbrückung von Zeiten dient, in denen eine Lagebestimmung mittels des Vermessungsgeräts (31) unterbrochen ist.
25. Messsystem (30) nach einem der Ansprüche 13 bis 24,
dadurch gekennzeichnet, dass
der Träger (37) eine Arretierung, insbesondere einen Standfuss und/oder Klemme, aufweist, mit Hilfe derer das Messhilfsinstrument (32) in der Messumgebung (41) werkzeuglos fixierbar und wiederablösbar ist.
26. Messsystem (30) nach einem der Ansprüche 13 bis 25,
dadurch gekennzeichnet, dass
der Träger (37) ein Gelenk aufweist, so dass mittels des Gelenks die Anordnung des Computerendgeräts (35) relativ zum Träger (37) verstellbar ist.
27. Verfahren für ein Messsystem (30) nach Anspruch 13 mit
• Absolutes Verorten des Vermessungsgeräts (31),
• Ausrichten des Vermessungsgeräts (31) auf das
Messhilfsinstrument (32),
• Bestimmen der Ausrichtung (31d) ,
• Bestimmen der Lage des Messhilfsinstruments (32)
relativ zum Vermessungsgerät (31) anhand der Mittel zum Bestimmen und/oder Bestimmbarmachen der Lage,
• positionsgetreues Anzeigen wenigstens eines
Messpunkts (32, 43s) in Überlagerung eines vom
Computerendgerät (35) aufgenommenen
Messumgebungsbilds auf dem Bildschirm (36) .
28. Handhaltbare Messhilfsinstrumentvorbereitung mit
• einem Träger (37), insbesondere mit Kardanaufhängung,
• einem handhaltbaren Einhandgriff,
• wobei der Träger (37) ausgebildet ist zur
lagedefinierten Aufnahme eines elektronischen, mobilen, einen Bildschirm (36) und eine erste Kamera aufweisenden Computerendgerät (35) , insbesondere eines Smartphones und/oder Tablets,
• Mittel zum Bestimmen und/oder Bestimmbarmachen einer Lage des Messhilfsinstrumentvorbereitung,
• wobei die Messhilfsinstrumentvorbereitung vorgesehen ist, mittels des Computerendgeräts (35) und mit einem absolut verortbaren raumgestützten Vermessungsgerät ein Messsystem (30) zu bilden, wobei die Lage der Messhilfsinstrumentvorbereitung relativ zum
Vermessungsgerät (31) anhand der Mittel zum Bestimmen und/oder Bestimmbarmachen ermittelbar sind.
29. Verfahren zum Vermessen eines sich in einer
Messumgebung (17) befindlichen Ziels (3, 19a-c) mit einem sich an einem Standort in der Messumgebung befindlichen und eine Entfernungs- und
Richtungsmessfunktionalität sowie eine Zielachse (12) aufweisenden Vermessungsgerät (10), insbesondere einer Totalstation, mit den Schritten
• Aufnehmen eines Überblicksbilds (1) der Messumgebung (17), insbesondere eines 360 ° -Panoramabildes , vom Standort des Vermessungsgeräts (10) aus,
• Anzeigen des Überblicksbilds (1) auf einem Bildschirm
(6) ,
• manuelles Auswählen (5) eines das Ziel (3, 19a-c) beinhaltenden Zielbereichs (4) anhand des
Überblicksbilds (1),
• automatisches Ausrichten der Zielachse (12) in
Richtung des Zielbereichs (4),
• Aufnehmen eines Bildes (2) des Zielbereichs (4),
welches einem vergrösserten Ausschnitt aus dem
Überblicksbild (1) entspricht, mittels einer in Richtung der Zielachse ausgerichteten Kamera (11) des Vermessungsgeräts (10), insbesondere mittels einer On-Axis-Kamera,
• manuelles Auswahlen (7) des Ziels (3, 19a-c) anhand des Zielbereichsbildes (2),
• automatisches Ausrichten der Zielachse (12) auf das Ziel (3) , und
• Vermessen des Ziels durch das somit auf das Ziel (3, 19a-c) ausgerichtete Vermessungsgerät (10) mittels der Entfernungs- und Richtungsmessfunktionalität.
30. Verfahren nach Anspruch 29,
dadurch gekennzeichnet, dass
zur Unterstützung des manuellen Zielbereichsdefinierens (5) und/oder der manuellen Zielauswahl (7) ein Anzeigen potentieller Ziele (19a-c) im angezeigten
Überblicksbild (1) und/oder Zielbereichsbild (2), insbesondere mittels überlagerter grafischer
Markierungen, erfolgt, wobei die potentiellen Ziele (19a-c) bereitgestellt werden durch
• Abrufen von bekannten und in einem elektronischen
Speicher hinterlegten Zielen der Messumgebung (17) und/oder
• ein automatisches Erkennen von retroreflektierenden Zielen (3) anhand des Überblicksbilds (1) und/oder Zielbereichsbilds (2), insbesondere wobei für das automatische Erkennen die Messumgebung vom
Vermessungsgerät (10) beim Aufnehmen des
Überblicksbilds (1) und/oder Zielbereichsbilds (2) mit Beleuchtungsstrahlung beleuchtet wird, und/oder
• ein automatisches Erkennen von anzielbaren markanten Messumgebungspunkten (19b, 19c) im Überblicksbild (1) und/oder Zielbereichsbild (2), insbesondere mittels Kantenextraktion .
31. Verfahren nach Anspruch 29 oder 30,
dadurch gekennzeichnet, dass
das Aufnehmen des Überblicksbilds (1) mittels der in Richtung der Zielachse (12) ausgerichteten Kamera (11) erfolgt .
32. Verfahren nach einem der Ansprüche 29 bis 31,
dadurch gekennzeichnet, dass
der Bildschirm (6) berührungssensitiv ist und das
Auswahlen (5) des Zielbereichs (4) und Auswahlen (7) des Ziels (3, 19a-c) durch Berühren des das
Überblicksbild (1) oder das Zielbereichsbild (2) anzeigenden Bildschirms (6) erfolgt, insbesondere wobei der Bildschirm (6) zur Manipulation von Messdaten mittels Gestensteuerung ausgebildet ist.
33. Verfahren nach Anspruch 32,
dadurch gekennzeichnet, dass
das manuelle Auswahlen (5) des Zielbereichs (4) automatisch unterstützt wird, indem durch das Berühren ein Bereich um die Berührungsstelle im Überblicksbild (1) automatisch definiert wird, wobei die Grösse des Bereichs
• in Abhängigkeit von Messdaten, insbesondere einer Entfernung zum Zielbereich (4), automatisch
festgelegt wird und/oder
• durch mehrfaches Berühren der Berührungsstelle in Stufen variierbar ist.
34. Verfahren nach Anspruch 32 oder 33,
dadurch gekennzeichnet, dass die manuelle Auswahl (7) des Ziels (3, 19a-c)
automatisch unterstützt wird, indem durch das Berühren eine Zone um die Berührungsstelle im Zielbereichsbild (2) aktiviert wird, und innerhalb dieser Zone das Ziel (3, 19a-c) automatisch erkannt und ausgewählt wird.
35. Verfahren nach einem der Ansprüche 29 bis 34,
dadurch gekennzeichnet, dass
zum Definieren des Zielbereichs (4) und/oder Auswahlen des Ziels (3, 19a-c) automatisch eine Zoomfunktion, insbesondere eine Bildschirmlupe, aktiviert wird.
36. Raumgestütztes Vermessungssystem (18) mit
• einem, insbesondere stationären, Vermessungsgerät (10), insbesondere einer Totalstation, wobei das Vermessungsgerät (10) aufweist
° eine Entfernungs- und Richtungsmessfunktionalität, wodurch in Richtung einer Zielachse (12) des Vermessungsgeräts (10) eine Entfernung und Richtung zu einem zu vermessenden Ziel (3, 19a-c) in einer Messumgebung (17) des Vermessungsgeräts (10) bestimmbar ist,
° wenigstens ein Antrieb zum automatisierten
Verschwenken der Zielachse (12), und
° wenigstens eine in Richtung der Zielachse (12) ausgerichtete Kamera (11) aufweist, insbesondere eine on-axis-Kamera, mittels derer ein Bild (2) eines Ausschnitts der Messumgebung (17) aufnehmbar ist,
• einem Bildschirm (6),
• einer Steuerung mit Auswertefunktionalität,
dadurch gekennzeichnet, dass
die Steuerung eine Zielerfassungsfunktion aufweist, bei deren Ausführung erfolgen • eine Aufnahme eines Überblicksbilds (1) der
Messumgebung (17), insbesondere eines 360°- Panoramabildes , vom Standort des Vermessungsgeräts (10) aus,
• eine Anzeige des Überblicksbilds (1) auf dem
Bildschirm ( 6) ,
• ein Registrieren eines manuellen Auswählens (5) eines das Ziel (3, 19a-c) beinhaltenden Zielbereichs (4) anhand des angezeigten Überblicksbilds (1) durch einen Benutzer (16),
• eine automatische Ausrichtung der Zielachse (12) in Richtung des Zielbereichs (4) mittels des Antriebs anhand der registrierten manuellen Definition als grobe Ausrichtung auf das Ziel (3, 19a-c),
• eine Aufnahme eines Bildes (2) des Zielbereichs (4), welches einem vergrösserten Ausschnitt aus dem
Überblicksbild (1) entspricht, mittels der in
Richtung der Zielachse ausgerichteten Kamera (11),
• ein Registrieren eines manuellen Auswählens (7) des Ziels (3, 19a-c) anhand des angezeigten
Zielbereichsbildes (2),
• eine automatische Ausrichtung der Zielachse (12) auf das Ziel (3, 19a-c) mittels des Antriebs anhand der registrierten manuellen Zielauswahl (7), so dass das Ziel (3, 19a-c) mittels der Entfernungs- und
Richtungsmessfunktionalität vermessbar ist.
37. Vermessungssystem (18) nach Anspruch 36,
dadurch gekennzeichnet, dass
das Vermessungsgerät (10) aufweist
• eine Basis (13) ,
• eine die Zielachse definierende und gegenüber der
Basis (13) um wenigstens eine Achse, insbesondere zwei zueinander orthogonale Achsen, schwenkbare
Anzieleinheit, insbesondere ein Zielfernrohr,
• wenigstens einen Winkelmesser sowie eine
Winkelmessfunktionalität zur Messung der Ausrichtung der Zielachse (12),
• einen Entfernungsmesser (15) zur Messung einer
Entfernung zum Ziel (3, 19a-c) entlang der Zielachse ( 12 ) , und
• eine Steuerung mit Einzelpunktbestimmungs
funktionalität, bei deren Ausführung gesteuert durch die Steuerung basierend auf der gemessenen
Ausrichtung der Zielachse (12) und der Entfernung zwischen Ziel (3, 19a-c) und Vermessungsgerät (10) eine räumliche Position des Ziels (3, 19a-c) bestimmt wird .
38. Vermessungssystem (18) nach Anspruch 37,
dadurch gekennzeichnet, dass
die Anzieleinheit aufweist
• eine Strahlquelle zur Erzeugung einer Messstrahlung sowie eine Optik zur Emission der Messstrahlung als Freistrahl in Richtung der Zielachse (12) und
• einen elektro-optischen Detektor zum Detektieren von vom Ziel (3, 19a-c) reflektierter Messstrahlung, woraus die Entfernung zum Ziel (3, 19a-c) bestimmbar ist .
39. Vermessungssystem (18) nach einem der Ansprüche 36 bis
38,
dadurch gekennzeichnet, dass
der Bildschirm (6) zur Bedienung des Vermessungsgeräts (10) sowie zur Darstellung und Manipulation von
Messdaten ausgebildet ist, wobei der Bildschirm (6) und das Vermessungsgerät (10) separate Einheiten sind oder der Bildschirm (6) als vom Vermessungsgerät (10) separierbar ausgebildet ist.
40. Vermessungssystem (18) nach einem der Ansprüche 36 bis 39,
dadurch gekennzeichnet, dass
das Vermessungssystem (18) ein Messhilfsinstrument zur physischen Markierung des Ziels (3, 19a-c) umfasst, insbesondere einen Vermessungsstab mit Retroreflektor .
41. Baulaser (53) zur Bereitstellung einer sichtbaren
punkt- oder linienförmigen Positionsreferenz mit
• einem eine Laserquelle (55) und eine Sendeoptik (57) aufweisenden selbstnivellierenden Lasermodul, wobei die Sendeoptik (57) ausgebildet ist zum Aussenden sichtbaren punkt- oder linienförmigen Laserlichts (56) ,
• einem Gehäuse (54) mit einer Arretierung (58), welche vorgesehen ist zum wiederablösbaren Fixieren des Gehäuses (54) in einer Höhe (h) über einer
Referenzfläche (52),
dadurch gekennzeichnet, dass
der Baulaser (53) einen Distanz- und/oder
Positionsmesser (59, 59a) aufweist, ausgebildet zur automatisierten Messung der Höhe (h) über der
Referenzfläche (52).
42. Baulaser (53) nach Anspruch 41,
dadurch gekennzeichnet, dass
der Distanz- und/oder Positionsmesser (59, 59a)
ausgebildet ist als Laserdistanzmesser (59a) ,
insbesondere wobei die Laserquelle (55) auch zur
Bereitstellung von Laserstrahlung (56b) für den
Laserdistanzmesser (59a) dient.
43. Baulaser (53) nach Anspruch 41 oder 42,
dadurch gekennzeichnet, dass
der Distanz- und/oder Positionsmesser (59, 59a) ausgebildet ist als Lesekopf (59) , vorgesehen zum Lesen einer, insbesondere absoluten, Positionscodierung
(51a) .
44. Baulaser (53) nach Anspruch 43,
dadurch gekennzeichnet, dass
der Lesekopf (59)
• in die Arretierung (58) integriert ist und/oder
• als opto-elektronischer, magnetischer oder
kapazitiver Lesekopf (59) ausgebildet ist.
45. Baulaser (53) nach einem der Ansprüche 41 bis 44,
dadurch gekennzeichnet, dass
mittels des Distanz- und/oder Positionsmessers (59,
59a) oder eines zusätzlichen Ausrichtungsmessers des Baulasers (53) auch die Ausrichtung (R) des Gehäuses (54) in der horizontalen Ebene messbar ist.
46. Baulaser (53) nach einem der Ansprüche 41 bis 45,
dadurch gekennzeichnet, dass
das Gehäuse (54) einen Antrieb (61) aufweist und die Arretierung (58) als automatisierte Arretierung (58) ausgebildet ist, so dass die Höhe (h) , und insbesondere die Ausrichtung (R) des Gehäuses (54) in der
horizontalen Ebene, automatisiert verstellbar ist.
47. Baulaser (53) nach Anspruch 46,
dadurch gekennzeichnet, dass
der Baulaser (53) eine Steuerung (62) aufweist, welche ausgebildet ist zur automatischen Verstellung der Höhe (h) , und insbesondere der Ausrichtung (R) des Gehäuses (54) in der horizontalen Ebene, und automatischen Fixierung des Gehäuses (54) in einer Sollhöhe,
insbesondere mit einer Sollausrichtung.
48. Baulaser (53) nach einem der Ansprüche 46 oder 47,
dadurch gekennzeichnet, dass
der Baulaser (53) ein Fernsteuerungsempfänger (63) aufweist und derart ausgebildet ist, dass die Höhe (h) , und insbesondere auch die Ausrichtung des Gehäuses (54) in der horizontalen Ebene, per Fernsteuerung
verstellbar ist.
49. Baulaser (53) nach einem der Ansprüche 41 bis 48,
dadurch gekennzeichnet, dass
der Baulaser (53) ein Kommunikationsmodul (63)
aufweist, so dass die jeweils gemessene Höhe (h) an ein externes Gerät, insbesondere eine Fernsteuerung, übermittelbar ist.
50. Baulasersystem (50) mit einem Baulaser (53) und einer, insbesondere stabförmigen, Halterung (51), wobei der Baulaser (53) aufweist
• ein eine Laserquelle (55) und eine Sendeoptik (57) aufweisendes , insbesondere mittels einer kardanischen Aufhängung oder einem Kugelgelenk,
selbstnivellierendes Lasermodul, wobei die Sendeoptik ausgebildet ist zum Aussenden sichtbarer punkt- oder linienförmiger Laserstrahlung,
• ein Gehäuse (54) mit einer Arretierung, welche
vorgesehen ist zum lösbaren Fixieren des Gehäuses an der Halterung (51),
• so dass das Gehäuse (54) an der Halterung (51)
flexibel in verschiedenen Höhen (h) über einer
Referenzfläche (52) fixierbar ist, dadurch gekennzeichnet, dass
das System (50) einen, insbesondere absoluten,
Positionsencoder (60) aufweist zur automatisierten Messung der jeweiligen Höhe (h) des Gehäuses (54) über der Referenzfläche (52) .
51. Baulasersystem (50) nach Anspruch 50,
dadurch gekennzeichnet, dass
die Halterung (51) einen aktiven Teil des
Positionsencoders (60) aufweist und der Baulaser (53) einen dazu komplementären passiven Teil.
52. Baulasersystem (50) nach Anspruch 50 oder 51,
dadurch gekennzeichnet, dass
der Positionsencoder (59) derart ausgebildet ist, dass neben der Höhe (h) auch eine Ausrichtung (R) des
Gehäuses (54) relativ zur Halterung (51) messbar ist, insbesondere wofür die Halterung einen optischen, kapazitiven oder magnetischen Flächencode (51a)
aufweist .
53. Baulasersystem (50) nach einem der Ansprüche 50 bis 52, dadurch gekennzeichnet, dass
das System (50) einen Antrieb (61) aufweist und die Arretierung (58) als automatisierte Arretierung (58) ausgebildet ist, so dass das Gehäuse (54) automatisiert höhenverstellbar und fixierbar ist, insbesondere wobei der Antrieb (61) derart ausgebildet ist, dass
automatisiert zusätzlich zur Höhe (h) auch eine
Ausrichtung (R) des Gehäuses (54) verstellbar ist.
54. Baulasersystem (50) nach Anspruch 53,
dadurch gekennzeichnet, dass
das System (50) eine elektronische Steuerung (62) aufweist, welche derart ausgebildet ist, dass mittels des Antriebs (61) und der Arretierung (58) und anhand der jeweils gemessenen Höhe (h) automatisch das Gehäuse (54) in einer vorgegebenen Sollhöhe, und insbesondere mit einer vorgegebenen Ausrichtung des Gehäuses (54), fixierbar ist.
55. Baulasersystem (50) nach Anspruch 53 oder 54,
dadurch gekennzeichnet, dass
das System (50) einen Fernsteuerungsempfänger (63) aufweist und derart ausgebildet ist, dass die Höhe (h) , und insbesondere auch eine Ausrichtung (R) des Gehäuses (54), per Fernsteuerung verstellbar ist.
56. Baulasersystem (50) nach einem der Ansprüche 53 bis 55, dadurch gekennzeichnet, dass
der Antrieb (61) dergestalt ist, dass hinsichtlich des Antriebs (61) die Halterung (51) aktiv und der Baulaser (53) passiv ist, insbesondere wobei der Antrieb (61) als magnetischer Linearantrieb ausgebildet ist.
57. Verfahren zum Einstellen einer Sollhöhe bei einem
Baulasersystem (50) nach Anspruch 50,
wobei anhand der vom Positionsencoder (59) gemessenen jeweiligen Höhe die Sollhöhe automatisch vom System (50) und/oder von einem Benutzer mittels Fernbedienung eingestellt wird, insbesondere wobei zusätzlich eine Ausrichtung (R) des Baulasers (53) dergestalt
eingestellt wird, dass in Kenntnis einer Distanz zu einer senkrechten Wand ein gezieltes Einstellen der Aussenderichtung der Laserstrahlung (56a) derart erfolgt, dass eine von der Laserstrahlung (56a) an einer senkrechten Wand gebildete Referenzlinie sowohl in horizontaler als auch in vertikaler Richtung gezielt platziert wird.
58. Portables geodätisches Messhilfsinstrument (70), ausgebildet um mit einem, insbesondere stationären, Entfernungs- und Richtungsmessfunktionalität
aufweisenden geodätischen Vermessungsgerät (71), insbesondere einer Totalstation, ein Vermessungssystem (77) zum Vermessen und/oder Abstecken eines
Geländepunkts (78) zu bilden, wobei das
Messhilfsinstrument (70) aufweist
• eine handhaltbare Stange (72), wobei die Stange (72) ein Bodenkontaktende aufweist, und/oder ein Stativ, so dass das Messhilfsinstrument (70) mittels der Stange (72) und/oder dem Stativ (72') beim
Geländepunkt (78) positionierbar ist,
• ein vom Vermessungsgerät (71) anzielbares Ziel (74), insbesondere ein Retroreflektor, wobei das Ziel (74) einen entlang einer Längsachse gelegenen
Positionsreferenzpunkt (74r) aufweist,
• einer Anzieleinheit (75, 75') mit einer Zielachse (A) zum Anzielen des Geländepunkts (78), wobei die
Zielachse (A) der Längsachse des Ziels (74)
entspricht oder zu dieser senkrecht ist,
• wobei das Ziel (74) und die Anzieleinheit (75, 75') in einer von der Stange (72) und/oder dem Stativ (72') getragenen Baugruppe (73) angeordnet sind und
• die Baugruppe (73) in einer motorisiert angetriebenen und aktiv steuerbaren kardanischen Aufhängung (76) mit zwei kardanischen Achsen gelagert ist, wobei mittels der kardanischen Aufhängung (76) die
Hochachse des Ziels (74) und die Zielachse (A) der Anzieleinheit (75, 75') bei Positionierung beim
Geländepunkt (78) automatisch lotrecht oder waagrecht ausrichtbar sind.
59. Messhilfsinstrument (70) nach Anspruch 58, dadurch gekennzeichnet, dass
die Anzieleinheit (75, 75') zur Markierung des
angezielten Geländepunkts (78) ausgebildet ist.
60. Messhilfsinstrument (70) nach Anspruch 58 oder 59,
dadurch gekennzeichnet, dass
die Anzieleinheit (75, 75') zur Messung der Entfernung zwischen dem Positionsreferenzpunkt (74r) und dem angezielten Geländepunkt (78) ausgebildet ist.
61. Messhilfsinstrument (70) nach Anspruch 60,
dadurch gekennzeichnet, dass
die Anzieleinheit (75, 75') einen, insbesondere als Triangulationsscanner oder Time-of-Flight-Kamera, ausgebildeten elektronischen Entfernungsmesser
aufweist .
62. Messhilfsinstrument (70) nach einem der Ansprüche 58 bis 61,
dadurch gekennzeichnet, dass
das Ziel (74) derart angeordnet ist, dass sich der Positionsreferenzpunkt (74r) im Schnittpunkt der beiden Achsen der kardanischen Aufhängung (76) befindet.
63. Messhilfsinstrument (70) nach einem der Ansprüche 58 bis 62,
dadurch gekennzeichnet, dass
die Anzieleinheit (75, 75') einen Laser aufweist zur Emission eines ersten Laserstrahls (L) in Richtung der Zielachse (A) , wobei der erste Laserstrahl (L) zur Markierung des Geländepunkts (78) und/oder zur Messung der Distanz zum Geländepunkt (78) dient.
64. Messhilfsinstrument (70) nach Anspruch 63,
dadurch gekennzeichnet, dass die Anzieleinheit (75, 75')
• ausgebildet ist zur Emission eines zweiten
Laserstrahls (L'), insbesondere wobei die
Emissionsrichtung des zweiten Laserstrahls senkrecht zur Zielachse ist, und/oder
• eine Optik aufweist, mittels derer der erste und/oder zweite Laserstrahl (L, L') punkt- oder linienförmig aussendbar ist.
65. Messhilfsinstrument (70) nach einem der Ansprüche 58 bis 64,
dadurch gekennzeichnet, dass
die Anzieleinheit (75, 75') ausgebildet ist zur
Projektion zweidimensionaler Bilder, insbesondere mittels des ersten und/oder zweiten Laserstrahls (L, L'), auf eine Oberfläche.
66. Messhilfsinstrument (70) nach einem der Ansprüche 58 bis 65,
dadurch gekennzeichnet, dass
die Anzieleinheit (75') eine in Richtung der Zielachse (A) ausgerichtete Kamera aufweist, so dass damit ein Bild des Geländepunkts (78) aufnehmbar ist,
insbesondere wobei das Messhilfsinstrument (70) eine Visualisierungsfunktionalität aufweist, in deren Rahmen
• ein Bild des Geländepunkts (78) aufgenommen wird,
• ein augmented-reality-Bild erzeugt wird, indem dem aufgenommenen Bild eine den Geländepunkt (78) positionsgetreu markierende Grafik überlagert wird,
• das augmented-reality-Bild auf einem, insbesondere externen, Display angezeigt wird, insbesondere einer augmented-reality-Brille .
67. Messhilfsinstrument (70) nach einem der Ansprüche 58 bis 66,
dadurch gekennzeichnet, dass
die Baugruppe (73) mit einem Versatz zur Stange (72) und/oder der der Mitte des Stativs (72') angeordnet ist .
68. Messhilfsinstrument (70) nach einem der Ansprüche 58 bis 67,
dadurch gekennzeichnet, dass
die kardanische Aufhängung (76) eine adaptive Dämpfung aufweist, so dass die Dämpfung an eine Bewegung der Baugruppe und/oder an das Gewicht des Ziels (74) anpassbar ist, und/oder wenigstens einen Neigungssensor aufweist .
69. Messhilfsinstrument (70) nach Anspruch 68,
dadurch gekennzeichnet, dass
die Baugruppe (73) eine Zielverfolgungseinheit
aufweist, ausgebildet zur fortlaufenden Verfolgung eines sich relativ zum Messhilfsinstrument (70)
bewegenden Zielgeräts.
70. Vermessungssystem (77) mit einem, insbesondere
stationären, Entfernungs- und
Richtungsmessfunktionalität aufweisenden geodätischen Vermessungsgerät (71), insbesondere einer Totalstation, und einem Messhilfsinstrument (70) nach Anspruch 58.
71. Vermessungssystem (77) nach Anspruch 70,
dadurch gekennzeichnet, dass
das System (77) Mittel aufweist zur Bestimmung der Orientierung der kardanischen Aufhängung (76) relativ zum Vermessungsgerät (71), insbesondere wobei die
Mittel eine vermessungsgerätseitige Kamera umfassen.
72. Verfahren zum Überprüfen der Fluchtung eines
handgehaltenen Werkzeugs (79), welches eine
Arbeitsachse (79a) und an einer Rückseite einen auf der Arbeitsachse liegenden Laserdetektor oder eine
Mattscheibe (79b) aufweist, mit Hilfe eines
Messhilfsinstrument (70) nach Anspruch 63 oder 64 mit den Schritten
• Positionieren des Messhilfsinstruments (70) bei einem Geländepunkt (78), so dass der erste oder zweite Laserstrahl auf den Geländepunkt (78) trifft,
• Anlegen des Werkzeugs (79) am Geländepunkt (78),
• Überprüfen der Fluchtung, indem die Arbeitsachse
(79a) des Werkzeugs (79) so ausgerichtet wird, dass der erste oder zweite Laserstrahl innerhalb einer definierten zentralen Zone auf den Detektor oder die Mattscheibe (79b) trifft.
73. Vermessungsgerät (80), insbesondere ausgebildet als Totalstation oder Lasertracker, zur koordinativen
Positionsbestimmung eines Ziels (82), insbesondere eines Retroreflektors (82), wobei das Vermessungsgerät (80) aufweist
• ein Entfernungsmessmodul (81) mit
° einer Strahlquelle (81a) zur Erzeugung von
Messstrahlung,
° einem Detektor (81b) zur Detektion von vom Ziel
(82) reflektierter Messstrahlung,
° um basierend auf detektierter Messstrahlung die
Entfernung zum Ziel (82) zu bestimmen,
• ein Richtungsmessmodul (84) mit
° einem lichtempfindlichen positionssensitiven Sensor (90) und ° einer Empfangsoptik (83) zum Empfang von optischer Strahlung (86, 87) und deren Führung auf den Sensor
(90), wobei der Sensor (90) in einem bestimmten infraroten Wellenlängenbereich empfindlich ist, um vom Ziel (82) ausgehende Infrarotstrahlung (86) aus diesem Wellenlängenbereich zu erfassen,
° wobei ein Auftreffpunkt (88) der erfassten
Infrarotstrahlung (86) auf dem Sensor (90) bestimmbar ist und anhand des Auftreffpunkts (88) eine Richtung zum Ziel (82) ermittelbar ist, dadurch gekennzeichnet, dass
die Empfangsoptik (83) und der Sensor (90) derart ausgebildet sind, dass gleichzeitig zum Erfassen der Infrarotstrahlung (86) auch sichtbare Strahlung (87) mit einer zur Erzeugung eines Farbbildes (91)
ausreichenden Spektralverteilung empfangbar und mittels des Sensors (90) erfassbar ist.
74. Vermessungsgerät (80) nach Anspruch 73,
dadurch gekennzeichnet, dass
parallel zur Bestimmung der Richtung zum Ziel (82) ein Bild (91), insbesondere ein RGB-Bild, des Ziels (82) anhand der erfassten sichtbaren Strahlung (87)
erzeugbar ist.
75. Vermessungsgerät (80) nach Anspruch 73 oder 74,
dadurch gekennzeichnet, dass
der Sensor (90) als hybrider RGB-IR-Sensor (90) ausgebildet ist.
76. Vermessungsgerät (80) nach einem der Ansprüche 73 bis 75,
dadurch gekennzeichnet, dass
die Empfangsoptik (83) wenigstens eine Korrekturlinse (95) aufweist, mittels derer die Fokuslänge der Empfangsoptik (83) im Infrarotbereich und die
Fokuslänge im sichtbaren Bereich einander angeglichen sind .
77. Vermessungsgerät (80) nach einem der Ansprüche 73 bis
76,
dadurch gekennzeichnet, dass
das Vermessungsgerät (80) eine teilautomatisierte oder automatisierte Steuerung des Fokus der Empfangsoptik (83) aufweist, welche derart ausgebildet ist, dass basierend auf einer Auswertung erfasster sichtbarer Strahlung (87) der Fokus für die Infrarotstrahlung (86) eingestellt wird.
78. Vermessungsgerät (80) nach einem der Ansprüche 73 bis
77,
dadurch gekennzeichnet, dass
das Vermessungsgerät (80) aufweist
• eine Basis,
• eine um wenigstens eine Achse relativ zur Basis
motorisiert verschwenkbare Strahllenkeinheit, welche das Entfernungsmessmodul und das Richtungsmessmodul aufweist, und
• eine Winkelmessfunktionalität zur Bestimmung einer Ausrichtung der Strahllenkeinheit relativ zur Basis, insbesondere wobei die Strahllenkeinheit
• eine Infrarotstrahlquelle (85) aufweist zur
Beleuchtung des Ziels (82) mit der Infrarotstrahlung (86) und/oder
• eine Pointer-Strahlquelle aufweist zum Emittieren eines sichtbaren Pointer-Lichtstrahls koaxial zur Messstrahlung .
79. Vermessungsgerät (80) nach einem der Ansprüche 73 bis 78,
dadurch gekennzeichnet, dass
das Vermessungsgerät (80) eine Feinanziel- und/oder Zielverfolgungsfunktionalität aufweist, bei deren
Ausführung anhand der bestimmten Richtung zum Ziel (82) eine Ausrichtung des Vermessungsgeräts (80) zum Ziel (82) automatisch geregelt wird, so dass das Ziel (82) feinanzielbar und/oder verfolgbar ist.
80. Verfahren mit einem Vermessungsgerät (80) nach Anspruch 73,
dadurch gekennzeichnet, dass
in einer Ausrichtung der Empfangsoptik (83) zum Ziel (82) in einem Arbeitsgang anhand von mittels der
Empfangsoptik (83) empfangener und vom Sensor (90) erfasster Zielinfrarotstrahlung (86) eine Richtung zum Ziel (82) bestimmt wird und anhand von mittels der Empfangsoptik (83) empfangener und vom Sensor (90) erfasster sichtbarer Strahlung (87) ein Bild (91), insbesondere ein RGB-Bild, vom Ziel (82) erzeugt wird.
81. Verfahren nach Anspruch 80,
dadurch gekennzeichnet, dass
das Erfassen der Infrarotstrahlung (86) und das
Erfassen der sichtbaren Strahlung (87) im selben
Sensorbelichtungsvorgang erfolgen .
82. Verfahren nach Anspruch 80,
dadurch gekennzeichnet, dass
das Erfassen der Infrarotstrahlung (86) und das
Erfassen der sichtbaren Strahlung (87) in jeweils getrennten, nacheinander erfolgenden
Sensorbelichtungsvorgängen erfolgen, insbesondere wobei • die Belichtungsvorgänge alternierend im Rahmen eines Videostreams erfolgen und/oder
• die Belichtung jeweils für die jeweilige Strahlung angepasst wird (96a, 96e) , insbesondere mittels
Variation von Sensorempfindlichkeit und/oder
Belichtungszeit .
83. Verfahren nach einem der Ansprüche 80 bis 82,
gekennzeichnet, dass
die vom Ziel (82) ausgehende Infrarotstrahlung (86) gepulst ist und das Erfassen der Infrarotstrahlung (86) synchronisiert zur Pulstaktung der Infrarotstrahlung (86) erfolgt.
84. Verfahren nach einem der Ansprüche 80 bis 83,
gekennzeichnet, dass
im Bild (91) des Ziels (82) die bestimmte Richtung zum Ziel (82) überlagernd dargestellt wird, insbesondere wobei das Bild (91) Teil eines Live-Video-Streams ist.
85. Verfahren nach einem der Ansprüche 80 bis 84,
gekennzeichnet, dass
die Bildschärfe des Bilds (91) ausgewertet wird (96c) und anhand des Auswertungsergebnisses der Fokus für ein danach erfolgendes Erfassen der Infrarotstrahlung (86) eingestellt wird (96d).
86. Verfahren nach einem der Ansprüche 80 bis 85,
gekennzeichnet, dass
anhand der bestimmten Richtung zum Ziel (82) eine
Zielfeinanzielung und/oder Zielverfolgung durch das Vermessungsgerät (80) erfolgt.
87. Plattform (100) zum Verkauf und Kauf von Geodäsiedaten
(104, 113-115, D(110a-c)) über ein offenes
Computernetzwerk, insbesondere das Internet, wobei die
Plattform aufweist
• Mittel zum Empfang von von einem externen Gerät
(101a-c, 106a-c), insbesondere einem zweiten
geodätischen Vermessungssystem (101a-c, 106a-c), über das Computernetzwerk gesendeten Geodäsiedaten (104, 113-115, D(110a-c)), welche geodätisch vermessene, absolute Koordinaten wenigstens eines Geländepunkts (107, 110, 110a-c) beinhalten,
• Mittel zum Speichern der empfangenen Geodäsiedaten (104, 113-115, D(110a-c)) in Zuordnung zu den
Koordinaten,
• Mittel zum Bereitstellen (103a, b) wenigstens eines Teils der gespeicherten Geodäsiedaten (104, 113-115, D(110a-c)), welcher zumindest die Koordinaten selbst umfasst, bei koordinatenbezogener Abfrage durch ein erstes externes und per Computernetzwerk verbundenes erstes geodätisches Vermessungssystem (106, 101a-c, 106a-c), wobei das Bereitstellen (103a, b) auf der Koordinatenzuordnung der gespeicherten Geodäsiedaten (104, 113-115, D(110a-c)) basiert,
• Mittel zum Senden (105) der bereitgestellten
Geodäsiedaten (104, 113-115, D(110a-c)) an das erste geodätische Vermessungssystem (106, 101a-c, 106a-c) über das Computernetzwerk.
88. Plattform (100) nach Anspruch 87,
dadurch gekennzeichnet, dass
die Geodäsiedaten (104, 113-115, D(110a-c)) neben den absoluten Koordinaten des Geländepunkts (107, 110, 110a-c) wenigstens eine der folgenden Metadaten zu den Koordinaten beinhalten
• Messgenauigkeit,
• Messzeitpunkt,
• Messtechnologie und/oder Vermessungsgerättyp,
• Urheber,
• Koordinatenhistorie
• Punkt- und/oder Objektcodierung.
89. Plattform (100) nach einem der Ansprüche 87 oder 88, dadurch gekennzeichnet, dass
die Bereitstellungsmittel derart ausgebildet sind, dass eine Vorauswahl aus den gespeicherten Geodäsiedaten (104, 113-115, D(110a-c)) und/oder eine Adaption der gespeicherten Geodäsiedaten (104, 113-115, D(110a-c)) erfolgt in Abhängigkeit des Gerätetyps und/oder
Standorts des ersten Vermessungssystems (106, 101a-c,
106a-c) .
90. Plattform (100) nach einem der Ansprüche 87 bis 89, dadurch gekennzeichnet, dass
die Plattform (100) ausgebildet ist, mehrere
Vermessungssysteme (106, 101a-c, 106a-c) als
Vermessungsverbund derart zu verknüpfen, dass von einem der Vermessungssysteme (106, 101a-c, 106a-c) empfangene Geodäsiedaten (104, 113-115, D(110a-c)) in Echtzeit im Verbund, insbesondere automatisch, verteilbar sind.
91. Plattform (100) nach einem der Ansprüche 87 bis 90, dadurch gekennzeichnet, dass
die Plattform (100) ausgebildet ist, bei Vorhandensein von ersten Geodäsiedaten (104, 113-115, D(110a-c)) eines Geländepunktes (107, 110, 110a-c) und zumindest zweiten Geodäsiedaten (104, 113-115, D(110a-c)) des gleichen Geländepunktes (107, 110, 110a-c) ,
insbesondere aus unterschiedlichen Datenquellen,
• eine Statistik des Verlaufs der
Geländepunktkoordinaten zu erzeugen und/oder
• einen Mittelwert aus den zumindest zwei
Geländepunktkoordinaten zu berechnen und diesen
Koordinatenmittelwert als abfragbare Koordinaten zu speichern und/oder
• eine vergleichende Beurteilung der Zuverlässigkeit und/oder Qualität der ersten und zweiten
Geodäsiedaten (104, 113-115, D(110a-c))
bereitzustellen, insbesondere wobei die Beurteilung automatisch und/oder durch Benutzer der Plattform (100) erzeugt ist.
92. Plattform (100) nach einem der Ansprüche 87 bis 91, dadurch gekennzeichnet, dass
die Plattform (100) ausgebildet ist, im Falle einer Aktualisierung gespeicherter Geodäsiedaten (104, 113- 115, D(110a-c)) automatisch eine
Aktualisierungsmitteilung zu generieren und über das Computernetzwerk zu senden.
93. Plattform (100) nach einem der Ansprüche 87 bis 92, dadurch gekennzeichnet, dass
die Plattform (100) über das Internet mit einem
meteorologischen und/oder seismologischen Datenprovider verbunden und dergestalt ausgebildet ist, dass eine Warnungsmitteilung mit den Geodäsiedaten (104, 113-115, D(110a-c)) des Geländepunkts (107, 110, 110a-c)
verknüpft wird, welche auf eine aufgrund
meteorologischer und/oder seismologischer Ereignisse mögliche Abweichung der gespeicherten Koordinaten von den realen Koordinaten des Geländepunkts (107, 110, 110a-c) hinweist.
94. System aus einer Plattform (100) nach Anspruch 87 und einem geodätischen Vermessungssystem (106, 101a-c,
106a-c), insbesondere einer Totalstation, wobei das System derart ausgebildet ist, dass Upload und/oder Download von Geodäsiedaten (104, 113-115, D(110a-c)) an bzw. von der Plattform (100) durch eine einzige
Vermessungsgerätbenutzereingabe durchführbar ist, insbesondere durch einen einzigen Tasten- oder
Knopfdruck am Vermessungssystem (106, 101a-c, 106a-c).
95. Verfahren zum Verkauf und Kauf von Geodäsiedaten (104, 113-115, D(110a-c)) über eine Computernetzwerkplattform (100) mit den Schritten
• geodätisches Vermessen von Geländepunkten (107, 110, 110a-c) , so dass Geodäsiedaten (104, 113-115, D(110a- c) ) erzeugt werden, welche zumindest die absoluten Koordinaten der Geländepunkte (107, 110, 110a-c) aufweisen,
• Uploaden (102) der Geodäsiedaten (104, 113-115,
D(110a-c)) an eine Computernetzwerk- Geodäsiedatenhandelsplattform (100) als Verkauf der Geodäsiedaten (104, 113-115, D(110a-c)),
• Speichern der Geodäsiedaten (104, 113-115, D(110a-c)) in der Plattform (100), so dass die Geodäsiedaten (104, 113-115, D(110a-c)) in Abhängigkeit der
Koordinaten abfragbar sind,
• Bereitsstellen (108) von gespeicherten Geodäsiedaten (104, 113-115, D(110a-c)) bei koordinatenbezogener Abfrage der Geodäsiedaten (104, 113-115, D(110a-c)) über das Computernetzwerk und
• Downloaden (105) zumindest eines ausgewählten Teils der bereitgestellten Geodäsiedaten (104, 113-115, D(110a-c)) über das Computernetzwerk als Kauf der Geodäsiedaten (104, 113-115, D(110a-c)), insbesondere wobei das Downloaden auf ein geodätisches
Vermessungssystem (106, 101a-c, 106a-c) erfolgt.
96. Verfahren nach Anspruch 95,
dadurch gekennzeichnet, dass
der Koordinatenbezug der Abfrage automatisch
hergestellt wird indem der Standort des abfragenden Käufers, insbesondere unter Verwendung eines Globalen Navigationssystems, bestimmt und die gespeicherten Geodäsiedaten (104, 113-115, D(110a-c)) derjenigen Geländepunkte (107, 110, 110a-c) zur Abfrage
bereitgestellt werden, welche sich am Standort
befinden .
97. Verfahren nach Anspruch 95 oder 96,
dadurch gekennzeichnet, dass
bei Abfrage von Geodäsiedaten (104, 113-115, D(110a-c)) einer bestimmten Menge von Geländepunkten (107, 110, 110a-c) automatisch -basierend auf den Geodäsiedaten ein Vorschlag für einen zur Menge der Geländepunkte (107, 110, 110a-c) passenden Vermessungsstandort berechnet und bereitgestellt wird.
98. Verfahren nach einem der Ansprüche 95 bis 97,
dadurch gekennzeichnet, dass
bei der Abfrage ein Gerätetyp eines abfragenden
Vermessungssystems (106, 101a-c, 106a-c) an die
Plattform (100) übermittelt wird und das Bereitstellen von Geodäsiedaten (104, 113-115, D(110a-c)) angepasst an den Gerätetyp erfolgt.
99. Verfahren nach einem der Ansprüche 95 bis 98,
dadurch gekennzeichnet, dass
im Rahmen des Bereitstellens von Geodäsiedaten (104, 113-115, D(110a-c)) eines Geländepunkts (107, 110, 110a-c) mögliche weitere an den Geländepunkt (107, 110, 110a-c) anschliessende Geländepunkte (107, 110, 110a-c) vorgeschlagen werden.
100. Verfahren nach einem der Ansprüche 95 bis 99,
dadurch gekennzeichnet, dass
automatisch eine Mitteilung an einen Käufer gesendet wird,
• sobald eine Aktualisierung bereits heruntergeladener Geodäsiedaten (104, 113-115, D(110a-c)) vorliegt und/oder
• als Hinweis darauf, dass bereits heruntergeladene
Geodäsiedaten (104, 113-115, D(110a-c)) inzwischen veraltet oder wahrscheinlich veraltet sind,
insbesondere aufgrund von Umwelteinflüssen auf den Geländepunkt (107, 110, 110a-c) .
101. Computerprogrammprodukt mit Programmcode, der auf
einem maschinenlesbaren Träger gespeichert ist, zur Ausführung des Verfahrens nach einem der Ansprüche 1, 27, 29, 57, 72, 80 oder 95.
PCT/EP2018/084846 2018-12-13 2018-12-13 Vermessungsverfahren, messsysteme und messhilfsinstrumente WO2020119912A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201880100194.9A CN113167581A (zh) 2018-12-13 2018-12-13 测量方法、测量***和辅助测量仪器
US17/413,328 US20220283327A1 (en) 2018-12-13 2018-12-13 Measurement method, measurement systems and auxiliary measurement instruments
EP18825948.5A EP3894785A1 (de) 2018-12-13 2018-12-13 Vermessungsverfahren, messsysteme und messhilfsinstrumente
PCT/EP2018/084846 WO2020119912A1 (de) 2018-12-13 2018-12-13 Vermessungsverfahren, messsysteme und messhilfsinstrumente
US17/550,357 US12008679B2 (en) 2018-12-13 2021-12-14 Measurement method, measurement systems and auxiliary measurement instruments for displaying desired positions in a live image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2018/084846 WO2020119912A1 (de) 2018-12-13 2018-12-13 Vermessungsverfahren, messsysteme und messhilfsinstrumente

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/413,328 A-371-Of-International US20220283327A1 (en) 2018-12-13 2018-12-13 Measurement method, measurement systems and auxiliary measurement instruments
US17/550,357 Continuation US12008679B2 (en) 2018-12-13 2021-12-14 Measurement method, measurement systems and auxiliary measurement instruments for displaying desired positions in a live image

Publications (1)

Publication Number Publication Date
WO2020119912A1 true WO2020119912A1 (de) 2020-06-18

Family

ID=64870452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/084846 WO2020119912A1 (de) 2018-12-13 2018-12-13 Vermessungsverfahren, messsysteme und messhilfsinstrumente

Country Status (4)

Country Link
US (1) US20220283327A1 (de)
EP (1) EP3894785A1 (de)
CN (1) CN113167581A (de)
WO (1) WO2020119912A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113238240A (zh) * 2021-05-15 2021-08-10 李学刚 一种房产测绘用手持测距仪
CN113381186A (zh) * 2021-06-24 2021-09-10 中国电子科技集团公司第十四研究所 一种用于大跨距分体式自动调姿设备的同轴度调节方法
CN114187536A (zh) * 2021-12-13 2022-03-15 苏州方兴信息技术有限公司 一种施工进度的确定方法、装置、电子设备和可读介质
EP4160143A1 (de) * 2021-09-24 2023-04-05 Topcon Corporation Vermessungssystem
TWI822096B (zh) * 2022-06-08 2023-11-11 和碩聯合科技股份有限公司 用於控制電動助行裝置的控制系統以及控制方法
EP4174254A4 (de) * 2020-07-14 2023-12-06 Topcon Corporation Batterieplatteninstallationsverfahren, batterieplatteninstallationsprogramm und vermessungssystem
EP4174253A4 (de) * 2020-07-14 2023-12-13 Topcon Corporation Verfahren zur platzierung einer batterieplatte, programm zur platzierung einer batterieplatte und vermessungssystem
US11966508B2 (en) 2021-09-24 2024-04-23 Topcon Corporation Survey system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11199485B1 (en) * 2018-08-03 2021-12-14 National Technology & Engineering Solutions Of Sandia, Llc Friction testing and torque sensing systems
JP7289239B2 (ja) * 2019-07-26 2023-06-09 株式会社トプコン 測量システム
EP4394319A1 (de) * 2022-12-31 2024-07-03 Hilti Aktiengesellschaft Verfahren und system zur bestimmung einer pose für ein laserinstrument
CN117848421B (zh) * 2024-03-04 2024-05-17 江苏三工钢桥股份有限公司 基于大数据的桥梁工程测量方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170109931A1 (en) * 2014-03-25 2017-04-20 Metaio Gmbh Method and sytem for representing a virtual object in a view of a real environment
US20170256097A1 (en) * 2016-03-07 2017-09-07 F3 & Associates Local positioning system for augmented reality applications
US20180143756A1 (en) * 2012-06-22 2018-05-24 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560565B2 (en) * 1999-04-30 2003-05-06 Veritas Dgc Inc. Satellite-based seismic mobile information and control system
JP4627855B2 (ja) * 2000-09-25 2011-02-09 有限会社サーベイテック 測量図面作成装置の動作方法
US7171389B2 (en) * 2001-06-01 2007-01-30 Landnet Corporation Identification, storage and display of land data on a website
EP1460377A3 (de) * 2003-03-21 2004-09-29 Leica Geosystems AG Verfahren und Vorrichtung zur Bildverarbeitung in einem geodätischen Messgerät
CN101365204A (zh) * 2007-08-10 2009-02-11 中兴通讯股份有限公司 基于远程服务器的分布式无线数据测量***及其测量方法
US20100128565A1 (en) * 2008-11-23 2010-05-27 Daniel Golparian Wireless communication using customized wifi in a survey data acquisition system
BR112013021073B1 (pt) * 2011-02-28 2021-05-04 Leica Geosystems Ag sistema e método integrado para modelagem de terreno.
US10102546B2 (en) * 2011-09-15 2018-10-16 Stephan HEATH System and method for tracking, utilizing predicting, and implementing online consumer browsing behavior, buying patterns, social networking communications, advertisements and communications, for online coupons, products, goods and services, auctions, and service providers using geospatial mapping technology, and social networking
EP2696167A1 (de) * 2012-08-08 2014-02-12 Hexagon Technology Center GmbH Neigungssensor
CN202906983U (zh) * 2012-11-05 2013-04-24 北京博飞仪器股份有限公司 一种通过网络远程控制的网络全站仪
EP2787322B1 (de) * 2013-04-05 2017-10-04 Leica Geosystems AG Geodätisches Referenzieren von Punktwolken
EP2916104B1 (de) * 2014-03-07 2018-06-27 Hexagon Technology Center GmbH Reflektoranordnung mit Retroreflektor sowie mit Sensoranordnung zur Neigungsbestimmung und Kalibrierung
EP3064898B1 (de) * 2015-03-04 2019-12-18 Leica Geosystems AG Vermessungsgerät mit Feinanzielungs- bzw. Zielverfolgungsfunktionalität
CN206321246U (zh) * 2016-11-01 2017-07-11 许凯华 分布交互通用测绘仪

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180143756A1 (en) * 2012-06-22 2018-05-24 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US20170109931A1 (en) * 2014-03-25 2017-04-20 Metaio Gmbh Method and sytem for representing a virtual object in a view of a real environment
US20170256097A1 (en) * 2016-03-07 2017-09-07 F3 & Associates Local positioning system for augmented reality applications

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4174254A4 (de) * 2020-07-14 2023-12-06 Topcon Corporation Batterieplatteninstallationsverfahren, batterieplatteninstallationsprogramm und vermessungssystem
EP4174253A4 (de) * 2020-07-14 2023-12-13 Topcon Corporation Verfahren zur platzierung einer batterieplatte, programm zur platzierung einer batterieplatte und vermessungssystem
JP7424585B2 (ja) 2020-07-14 2024-01-30 株式会社トプコン 遣り方設置方法、遣り方設置プログラム及び測量システム
JP7424584B2 (ja) 2020-07-14 2024-01-30 株式会社トプコン 遣り方設置方法、遣り方設置プログラム及び測量システム
CN113238240A (zh) * 2021-05-15 2021-08-10 李学刚 一种房产测绘用手持测距仪
CN113381186A (zh) * 2021-06-24 2021-09-10 中国电子科技集团公司第十四研究所 一种用于大跨距分体式自动调姿设备的同轴度调节方法
CN113381186B (zh) * 2021-06-24 2022-10-14 中国电子科技集团公司第十四研究所 一种用于大跨距分体式自动调姿设备的同轴度调节方法
EP4160143A1 (de) * 2021-09-24 2023-04-05 Topcon Corporation Vermessungssystem
US11966508B2 (en) 2021-09-24 2024-04-23 Topcon Corporation Survey system
CN114187536A (zh) * 2021-12-13 2022-03-15 苏州方兴信息技术有限公司 一种施工进度的确定方法、装置、电子设备和可读介质
TWI822096B (zh) * 2022-06-08 2023-11-11 和碩聯合科技股份有限公司 用於控制電動助行裝置的控制系統以及控制方法

Also Published As

Publication number Publication date
US20220283327A1 (en) 2022-09-08
EP3894785A1 (de) 2021-10-20
CN113167581A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
WO2020119912A1 (de) Vermessungsverfahren, messsysteme und messhilfsinstrumente
EP3660451B1 (de) Intelligentes stationierungs-modul
EP2697606B1 (de) Geodätisches markiersystem zur markierung von zielpunkten
EP2616770B1 (de) Geodätisches vermessungssystem mit in einer fernbedieneinheit integrierter kamera
EP2765388B1 (de) Mobiler Feld-Controller zur Messung und Fernsteuerung
EP2638358B1 (de) Gerät zum vermessen und markieren von raumpunkten entlang horizontal verlaufender höhenlinien
EP2810019B1 (de) Vermessungssystem mit einem vermessungsgerät und einem scanmodul
EP1859298B1 (de) Verfahren und system zur bestimmung von position und orientierung eines objekts
EP1606581B1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T
EP2742323B1 (de) Vermessungsgerät und verfahren mit einer auf der ausrichtung einer fernbedieneinheit basierenden und skalierbaren anzielfunktionalität
DE102011077080B4 (de) System für zweidimensionale Grundriss- und Punktübertragung
EP2458328B1 (de) Konstruktionsvermessungsgerät mit einer automatischen Lotpunktfindungs-Funktionalität
DE102016105858A1 (de) Mobiles dreidimensionales Messinstrument
EP3874229A1 (de) Vermessungssystem und messhilfsinstrument
DE102013205633B4 (de) Automatisiertes Grundriss- und Punktübertragungssystem
EP2663836B1 (de) Vermessungsgerät mit einer dynamischen anzielfunktionalität und zugehöriges verfahren
DE102014205640B4 (de) Vermessung mittels mobilem Gerät
US12008679B2 (en) Measurement method, measurement systems and auxiliary measurement instruments for displaying desired positions in a live image
EP3978874B1 (de) Vermessungssystem und messhilfsinstrument
EP3978873B1 (de) Verfahren und stationäres vermessungsgerät zum vermessen und/oder optischen markieren von punkten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18825948

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018825948

Country of ref document: EP

Effective date: 20210713