WO2020026480A1 - 位置検出システム及び位置検出方法 - Google Patents

位置検出システム及び位置検出方法 Download PDF

Info

Publication number
WO2020026480A1
WO2020026480A1 PCT/JP2019/006040 JP2019006040W WO2020026480A1 WO 2020026480 A1 WO2020026480 A1 WO 2020026480A1 JP 2019006040 W JP2019006040 W JP 2019006040W WO 2020026480 A1 WO2020026480 A1 WO 2020026480A1
Authority
WO
WIPO (PCT)
Prior art keywords
target object
identification information
shape
information
estimated
Prior art date
Application number
PCT/JP2019/006040
Other languages
English (en)
French (fr)
Inventor
松本 隆史
Original Assignee
清水建設株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 清水建設株式会社 filed Critical 清水建設株式会社
Priority to US17/262,822 priority Critical patent/US11898847B2/en
Priority to SG11202100748PA priority patent/SG11202100748PA/en
Publication of WO2020026480A1 publication Critical patent/WO2020026480A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location

Definitions

  • the present invention relates to a position detection system and a position detection method for detecting the position of a target object indoors.
  • Priority is claimed on Japanese Patent Application No. 2018-144086 filed on July 31, 2018, the content of which is incorporated herein by reference.
  • a position estimation technology using a communication terminal such as a beacon, a wireless tag, WiFi (Wi-Fi) radio wave, terrestrial magnetism, IMES (Indoor MEssaging System), and PHS (Personal Handy-phone System), and many configurations using a combination of these.
  • a communication terminal such as a beacon, a wireless tag, WiFi (Wi-Fi) radio wave, terrestrial magnetism, IMES (Indoor MEssaging System), and PHS (Personal Handy-phone System)
  • the above-described detection technique is a technique for estimating a position using a radio wave intensity or the like received by a communication terminal provided on a target object, and since the position is obtained by the estimation, an accurate position of the target object is obtained. Cannot be detected.
  • the above-described detection technique can estimate the position of a target object that moves with the communication terminal, but cannot grasp the exact size of the target object. Furthermore, since it is only possible to estimate the position of the target object, the size of the target object, such as whether the worker carrying the communication terminal is moving by himself or the worker is carrying large luggage with a trolley, It cannot be detected at all.
  • position detection there is a detection technology that responds to the automatic driving technology of a car and detects the position of a target object existing around the own vehicle with high accuracy in units of mm using a camera or a three-dimensional measuring device. is there.
  • this position detection method the position of the target object existing around the vehicle can be detected, and also the three-dimensional shape of the target object can be acquired, which can be applied to navigation of a robot moving in a building.
  • the mobile terminal notifies the system of information for estimating the position (for example, received radio wave intensity of a beacon) and its own identification information.
  • the position estimation result has been obtained. Therefore, the system can easily acquire the correspondence between the position of the target object and the identification information of the target object.
  • a position detection technique using a camera or a three-dimensional measuring device obtains a position and a three-dimensional shape of a target object in a three-dimensional space from captured images, measurement information, and the like. For this reason, the position detection technology does not acquire the identification information of the target object because the information for obtaining the position of the target object is obtained without receiving any notification from the target object. .
  • the identification information cannot be obtained, so that the target object cannot be identified. That is, since the identification information of the target object cannot be obtained, even if the position where the three-dimensional object moves is accurately obtained, the attribute information of what the target object is cannot be obtained.
  • the destination of notification of the estimated position in navigation or the like is not known.
  • the present invention has been made in view of such circumstances, and it is possible to obtain an accurate position and a three-dimensional shape of a target object and easily associate identification information for identifying the three-dimensional shape as a target object. It is an object of the present invention to provide a position detection system and a position detection method that can be performed.
  • the present invention has been made to solve the above-described problem, and a position detection system of the present invention extracts a target object as a target object shape from an indoor three-dimensional shape and obtains a position of the target object shape.
  • the position detection method of the present invention extracts a target object as a target object shape from an indoor three-dimensional shape and obtains a position of the target object shape, and a target object shape extraction process, and data notified from the target object.
  • a position detection system and a position detection method capable of obtaining an accurate position and a three-dimensional shape of a target object and easily associating identification information for identifying the three-dimensional shape as the target object. can do.
  • FIG. 1 is a schematic block diagram illustrating a configuration example of a position detection system according to an embodiment of the present invention. It is a figure explaining extraction of a target object shape and target object identification information of a target object. It is a figure explaining extraction of a target object shape and target object identification information of a target object.
  • FIG. 3 is a diagram showing a configuration example of a table stored in an association database 136.
  • FIG. 3 is a diagram showing a configuration example of a table stored in an association database 136.
  • FIG. 3 is a diagram showing a configuration example of a table stored in an association database 136. It is a conceptual diagram which shows the process of associating a target object shape and target object identification information.
  • FIG. 5 is a flowchart illustrating an operation example of a process of associating target object identification information with a target object shape in the position detection system according to the embodiment of the present invention.
  • FIG. 1 is a schematic block diagram illustrating a configuration example of a position detection system according to an embodiment of the present invention.
  • the position detecting system 1 includes a three-dimensional measuring device 11, a transmitting device 12, and a position detecting server 13.
  • a plurality of three-dimensional measuring devices 11 and a plurality of transmitting devices 12 are provided for each measurement range in an indoor facility.
  • Each of the three-dimensional measuring device 11 and the position detection server 13 transmits and receives data via a network 100 such as a LAN (Local Area Network) in a building.
  • the transmitting device 12 may be connected to the network 100.
  • an explanation will be given using an LRS (LaserRange Scanner) as the three-dimensional measuring device 11 and using a beacon transmitter as the transmitting device 12.
  • LRS LaserRange Scanner
  • a configuration may be adopted in which the position of the target object is estimated without using the beacon transmitter.
  • the interior of the building will be described as an example, but a semi-outdoor space in the site where the building is built, for example, an outer corridor, a crossing corridor, an open corridor, a car sidewalk, a deck, a terrace, a balcony, a veranda, It is good also as a structure utilized in an outer corridor, a car sidewalk, a deck, etc.
  • the three-dimensional measurement device 11 scans a laser, measures a three-dimensional shape of a space in a measurement range (a range where laser light can reach), and uses the measurement result as point cloud data to the position detection server 13 via the network 100.
  • the transmitting device 12 is disposed on an indoor wall or ceiling or the like, and transmits a beacon signal including transmitting device identification information, which is its own identification information, at a predetermined period of time at a predetermined radio wave intensity. send.
  • the position detection server 13 includes a data input / output unit 131, a target object shape extraction unit 132, an identification information acquisition unit 133, a target object position estimation unit 134, an identification information shape correspondence unit 135, a correspondence database 136, and a three-dimensional space data storage unit. 137 and an identification information database 138.
  • the data input / output unit 131 extracts measurement range information indicating a measurement range in which the three-dimensional measurement device 11 is arranged, from measurement three-dimensional shape data sequentially supplied from the three-dimensional measurement device 11 at predetermined time intervals.
  • the data input / output unit 131 associates the measured three-dimensional shape data, the time stamp indicating the time at which the measured three-dimensional shape data was acquired, and the range information of the measured three-dimensional shape measurement data with the three-dimensional space.
  • the data is written and stored in the data storage unit 137.
  • the data input / output unit 131 is provided with position estimation information for estimating the position of the wireless device as an estimated position, which is supplied (notified) from a wireless device carried by the target object or mounted on the target object. Is associated with a time stamp indicating the time at which the data was acquired, and is written and stored in the three-dimensional space data storage unit 137.
  • the data input / output unit 131 inputs position estimation information in synchronization with the measured three-dimensional shape data.
  • the position estimation information includes the identification information of the wireless device, the radio wave intensity when the wireless device receives the beacon signal transmitted by the transmitting device 12, and the transmitting device that identifies the transmitting device 12 that transmitted the beacon signal. And identification information.
  • the target object shape extraction unit 132 extracts a target object shape that is a three-dimensional shape of the target object within the measurement range from the measured three-dimensional shape data.
  • the target object shape extraction unit 132 selects and reads the background three-dimensional shape data of the measurement range selected from the combination of the three-dimensional measurement devices, which is stored in the three-dimensional space data storage unit 137, and performs measurement 3
  • the background difference processing is performed on the three-dimensional shape data using the background three-dimensional shape data to extract the target object shape.
  • the background three-dimensional shape data measured three-dimensional shape data is acquired in a state where the target object does not exist, and the measured three-dimensional shape data is converted into 3D-CAD (three dimensions-computer assisted design) in building design.
  • the background three-dimensional shape data is set for each closed space of a three-dimensional space such as a room or a corridor in the measurement range.
  • the measurement range may include not only an indoor closed space but also a semi-closed space (the semi-outdoor space) described above.
  • the target object shape extracting unit 132 compares the measured three-dimensional shape data with the background three-dimensional shape data, extracts a three-dimensional shape similar to the three-dimensional shape in the background three-dimensional shape data, and extracts the similar three-dimensional shape.
  • the three-dimensional shape is removed from the measured three-dimensional shape data.
  • the target object shape extraction unit 132 extracts the three-dimensional shape of the target object indoors within the measurement range as the target object shape, and extracts the position as the target object shape position.
  • the target object shape extraction unit 132 assigns identification information (target object shape identification information) to the extracted target object shape, a time stamp of the measured three-dimensional shape data from which the target object shape is extracted, and a target object shape.
  • the identification information acquisition unit 133 extracts identification information of the wireless device carried (or provided) by the target object from the position estimation information notified by the wireless device, and corresponds to a time stamp when the position estimation information is input. And target object identification information.
  • the target object position estimating unit 134 estimates the position of the wireless device indoors from the transmitting device identification information from the position estimation information and the radio wave intensity corresponding to the transmitting device identification information, and sets the estimated position as the target object estimated position information.
  • the target object position estimating unit 134 determines the position associated with each of the transmitting device identification information stored in the three-dimensional spatial data storage unit 137 and the radio wave intensity of the beacon signal transmitted from each transmitting device.
  • the position estimation table indicating the information By referring to the position estimation table indicating the information, and extracting the position information corresponding to the transmitting device identification information of the position estimation information and its radio field intensity, the position of the wireless device carried by the target object, that is, the position of the target object estimated position Make an estimate.
  • the target object position estimating unit 134 writes and stores the time stamp and the target object estimated position in the association database 136 in association with the target object identification information extracted by the identification information acquiring unit 133.
  • FIGS. 2A and 2B are diagrams illustrating extraction of the target object shape and the target object identification information of the target object.
  • FIG. 2A is a conceptual diagram illustrating acquisition of measured three-dimensional shape data and position estimation information.
  • each of three-dimensional measuring devices 11_1 to 11_3 and each of beacon transmitting devices 12_1 to 12_4 are arranged inside room 500 which is a predetermined measurement range indoors.
  • a wireless device 543 is provided in the target object shape 553 of the table (desk) which is the target object.
  • Each of the three-dimensional measuring devices 11_1 to 11_3 acquires a three-dimensional shape inside the room 500 as measured three-dimensional shape data, and outputs the acquired measured three-dimensional shape data to the position detection server 13.
  • Each of the wireless devices 540, 541, and 543 transmits the radio wave intensity of the beacon signal received from each of the transmission devices 12_1 to 12_4 and the transmission device identification information together with its own identification information (target object identification information) to the position detection server 13. Output.
  • FIG. 2B is a diagram illustrating a process of extracting a target object shape from the measured three-dimensional shape data.
  • the target object shape extraction unit 132 extracts identification information for identifying the three-dimensional measurement device given to the measured three-dimensional shape data, and outputs background three-dimensional shape data corresponding to the identification information from the three-dimensional space data storage unit 137. Read (process F1). Then, the target object shape extraction unit 132 combines the measured three-dimensional shape data from each of the three-dimensional measuring devices 11_1 to 11_3, and generates the measured three-dimensional shape data for extracting the target object shape (process F2).
  • the target object shape extraction unit 132 performs a background difference process of removing the three-dimensional shape in the background three-dimensional shape data from the three-dimensional shape in the measured three-dimensional shape data (process F3).
  • the target object shape extraction unit 132 sets the difference three-dimensional shapes 601 and 602 as the target object shape extracted from the measured three-dimensional shape data as a result of the removal in the process F3 (process F4).
  • FIG. 3A to FIG. 3C are diagrams showing a configuration example of a table stored in the association database 136.
  • FIG. 3A shows a configuration example of the target object shape table, and is provided for each target object shape identification information.
  • the target object shape table is provided with columns of a time stamp, a target object shape position, and dimension information for each record.
  • the time stamp indicates the time at which the measured three-dimensional shape data for obtaining the target object shape position was input.
  • the target object shape position indicates a coordinate position where the target object shape exists in the indoor coordinate system.
  • the dimension information indicates the size of the target object, for example, the height, width, and depth of the smallest cube surrounding the target object shape.
  • the target object shape position is, for example, the position of the center (or the center of gravity) of a cube surrounding the target object shape.
  • FIG. 3B shows a configuration example of the target object estimation position table, which is provided for each target object identification information.
  • the target object estimated position table has columns for time stamp and target object estimated position information for each record.
  • the time stamp is synchronized with the target object shape table in FIG. 3A, and indicates the time at which the position estimation information for obtaining the target object estimated position information is input.
  • the target object estimated position information indicates the position of the target object estimated from the radio wave intensity of the beacon signal received by the wireless device.
  • FIG. 3C shows a configuration example of the identification information shape correspondence table, which is provided for each target object shape identification information.
  • the identification information shape correspondence table is provided with columns of a time stamp, a target object shape position, dimension information, and target object identification information for each record.
  • the time stamp is the time at which the measured three-dimensional shape data for obtaining the target object shape position is input.
  • the target object shape position indicates a coordinate position where the target object shape exists in the indoor coordinate system.
  • the dimension information indicates the size of the target object, for example, the height, width and depth of the smallest cube surrounding the target object shape.
  • the target object shape position is, for example, the position of the center of the cube surrounding the target object shape.
  • the identification information shape correspondence unit 135 performs a process of associating the target object shape with the target object identification information.
  • an associating range for performing the associating process is set in advance, and identification information is determined based on whether one or more target object shapes exist in the associating range centered on the position indicated by the target object estimated position information.
  • the association process performed by the shape association unit 135 is different. That is, when there is one target object shape within the correspondence range centered on the target object estimated position information, the identification information shape corresponding unit 135 outputs the target object shape and the target object identification information corresponding to the target object estimated position information. Is associated with
  • the identification information shape correspondence unit 135 refers to the target object shape table in the correspondence database 136, and (Moving direction) and moving speed (velocity vector) are determined. Similarly, the identification information shape correspondence unit 135 obtains each of the moving direction and the moving speed of the wireless device indicated by the target object identification information with reference to the target object estimated position table in the association database 136. Then, for each target object shape, the identification information shape correspondence unit 135 correlates the moving direction and the moving speed of the target object shape with the moving direction and the moving speed of each wireless device, and the target object shape having a high correlation is obtained. It is assumed that the wireless device and the wireless device are the same target object, and the target object shape is associated with target object identification information of the wireless device.
  • FIGS. 4A and 4B are conceptual diagrams showing a process of associating a target object shape with target object identification information.
  • FIG. 4A is a diagram showing a process of associating by the identification information shape associating unit 135 when a plurality of target object shapes exist in the associating range.
  • the pedestrians 550 and 551 are moving with the wireless devices 540 and 541, respectively.
  • the target object estimated position information of the wireless device 540 indicates the position 310, and pedestrians 550 and 551 are included as target object shapes in the associated range 310A around the position 310.
  • the target object estimated position information of the wireless device 541 indicates the position 311, and pedestrians 550 and 551 are included as target object shapes in an associated range 311 ⁇ / b> A around the position 311.
  • the estimated target object estimated position information is the actual position of each of the wireless devices 540 and 541. Will be very different.
  • the identification information shape correspondence unit 135 detects that there are a plurality of target object shapes within the association range centered on the estimated position information (Process F10).
  • the identification information shape corresponding unit 135 obtains the correlation between the shape of the target object of the pedestrian 550 and the moving direction and speed of each of the positions 310 and 311. Further, the identification information shape correspondence unit 135 obtains the correlation between the shape of the target object of the pedestrian 551 and the moving direction and the moving speed of each of the positions 310 and 311. Thereby, the identification information shape correspondence unit 135 associates the target object shape information of the pedestrian 550 with a high correlation value with the target object identification information corresponding to the position 310, and associates the target object shape of the pedestrian 551 with the position 311. Corresponding target object identification information is associated (process F11).
  • FIG. 4B is a conceptual diagram illustrating a process of associating the target object shape with the target object identification information when the target object shape is divided and integrated.
  • the case where the target object shape extraction unit 132 detects each of the target object shapes 561 and 562 will be described.
  • (Case # 1) A case where the target object indicated by the target object shape 561 includes a wireless device, and the target object indicated by the target object shape 562 does not include a wireless device.
  • the target object shape extraction unit 132 adds and manages the target object shape identification information to each of the target object shapes 561 and 562.
  • the identification information shape correspondence unit 135 associates target object identification information with the target object shape 561, but does not associate target object shape 561 with target object identification information.
  • the target object shape extraction unit 132 manages the target object shape using the target object shape identification information of the target object shape 561 to which the target object identification information is added. Then, the target object shape extraction unit 132 changes the dimension information in the target object shape table of the association database 136 from the size of the target object shape 561 to the size of the target object shape in which the target object shapes 561 and 562 are united.
  • the identification information shape correspondence unit 135 sets the three-dimensional shape in which the target object shapes 561 and 562 are integrated as the target object shape 561. At this time, the identification information shape correspondence unit 135 stores the history that the three-dimensional shape combined with the target object shape 561 is the target object shape 562 as a history and stores the history in the association database 136. Then, after the above-described predetermined time has elapsed, the target object shape extraction unit 132 does not update the data of the target object shape 562 in the target object shape table after the time stamp at this time.
  • the target object shape extraction unit 132 detects that the target object shape 561 has been separated from the target object shape 562 by referring to the history. Then, the target object shape extraction unit 132 restarts updating the data of the target object shape 562 in the target object shape table after the time stamp at this time.
  • the identification information shape correspondence unit 135 stores the history that the three-dimensional shape separated from the target object shape 561 is the target object shape 562 in the association database 136 and retains the history.
  • the target object shape extraction unit 132 adds and manages the target object shape identification information to each of the target object shapes 561 and 562.
  • the identification information shape correspondence unit 135 associates each of the target object shapes 561 and 562 with the target object identification information.
  • the target object shape extraction unit 132 When the target object shape extraction unit 132 detects that the target object shapes 561 and 562 are integrated, the target object shape extraction unit 132 manages one of the three-dimensional shape identification information. For example, the target object shape extraction unit 132 manages the target object shape using the target object shape identification information of the target object shape having the larger dimension (that is, the larger volume). Then, the target object shape extraction unit 132 converts the dimension information in the target object shape table of the association database 136 from the dimensions of the target object shape 561 to the dimensions of the three-dimensional shape obtained by integrating the target object shapes 561 and 562. Change to
  • the identification information shape correspondence unit 135 sets the three-dimensional shape in which the target object shapes 561 and 562 are integrated as the target object shape 561. Further, the identification information shape correspondence unit 135 writes the respective target object identification information in the column of the target object identification information in the identification information shape correspondence table. At this time, the identification information shape correspondence unit 135 stores the history that the three-dimensional shape combined with the target object shape 561 is the target object shape 562 as a history and stores the history in the association database 136. Then, after the above-described predetermined time has elapsed, the target object shape extraction unit 132 does not update the data of the target object shape 562 in the target object shape table after the time stamp at this time.
  • the target object shape extraction unit 132 When detecting that the target object shape 561 is separated into two three-dimensional shapes, the target object shape extraction unit 132 refers to the history and detects that the target object shape 561 is separated from the target object shape 562. Then, the target object shape extraction unit 132 restarts updating the data of the target object shape 562 in the target object shape table after the time stamp at this time.
  • the identification information shape correspondence unit 135 stores a history indicating that the three-dimensional shape separated from the target object shape 561 is the target object shape 562 in the association database 136 and retains the history.
  • step F21 when carrying in the luggage, in step F21, when the worker mounts and carries the luggage on the trolley, the worker who operates the trolley has the target object shape 561 and the luggage to be loaded on the trolley
  • the object shape 562 is used.
  • the target object shape extraction unit 132 detects each of the worker operating the trolley and the load carried on the trolley as a three-dimensional shape, and manages the three-dimensional objects by assigning target object shape identification information to each of them.
  • process F22 the worker mounts the luggage on the trolley, so that the worker operating the trolley and the luggage mounted on the trolley are detected as one three-dimensional shape by the target object shape extraction unit 132.
  • the worker unloads the luggage from the trolley, and the target object shape extraction unit 132 detects the worker operating the trolley and the luggage mounted on the trolley as two three-dimensional shapes.
  • the target object shape extraction unit 132 combines the target object shape 553 with the background three-dimensional shape data when the target object shape position does not move for more than a predetermined time. Is performed. Then, the target object shape extraction unit 132 writes and stores the new background three-dimensional shape data obtained by combining the target object shape 553 in the three-dimensional space data storage unit 137. This eliminates the need to extract the target object shape 553, so that the load on the target object shape extraction unit 132 can be reduced. Further, when the target object shape 553 is carried out of the room, the movement of the target object shape 553 can be detected from the difference between the measured three-dimensional shape data and the background three-dimensional shape data.
  • FIG. 5 is a flowchart illustrating an operation example of a process of associating the target object identification information with the target object shape in the position detection system according to the embodiment of the present invention.
  • the data input / output unit 131 inputs measurement three-dimensional shape data and position estimation information sequentially supplied from the three-dimensional measurement device 11 at predetermined time intervals as measurement information.
  • the target object shape extraction unit 132 detects the target object shape in the measured three-dimensional shape data by background subtraction processing using the background three-dimensional shape data.
  • Step S13 When the target object shape is extracted from the measured three-dimensional shape data or when the position estimation information is input, the target object shape extraction unit 132 advances the process to step S14, while the target object shape is not extracted, If the position estimation information has not been input, the process returns to step S11.
  • the target object shape extraction unit 132 performs a process of identifying the extracted target object shape and a target object shape already described in the target object shape table.
  • the target object shape extraction unit 132 determines whether or not the extracted target object shape is included in the target object shape table in the identification processing, that is, whether or not the target object shape identification information is added to the extracted target object shape. It is determined whether or not it is.
  • the target object position estimating unit 134 obtains target object estimated position information and target object identification information of the wireless device based on the position estimation information notified from the wireless device of the target object.
  • the target object shape extraction unit 132 assigns the target object shape identification information to the target object shapes to which the target object shape identification information has not been assigned among the extracted target object shapes.
  • the target object shape extraction unit 132 performs tracking processing of each of the target object shapes (identification processing by obtaining a correlation such as a velocity vector and a dimension of a three-dimensional shape), and determines whether the newly extracted target object shape has already been extracted. It is determined whether or not the target object shape is determined.
  • the identification information shape correspondence unit 135 determines whether or not the extracted target object shape is associated with the target object identification information (there is a correspondence) with reference to the identification information shape correspondence table. At this time, the identification information shape correspondence unit 135 advances the processing to step S19 when the information is associated, and advances the processing to step S21 when the information is not associated.
  • the identification information shape correspondence unit 135 determines whether the same target object identification information is associated with a plurality of target object shapes or whether the dimensions of the target object shape have changed. It is determined whether or not each correlation between the moving direction and the moving speed of the shape and the moving direction and the moving speed of the wireless device (target object) is equal to or greater than a predetermined correlation value. That is, the identification information shape correspondence unit 135 determines that the dimensions of the target object shape, the target object shape identification information, the combination of the target object identification information, and the like are the same as before, and the movement between the target object shape and the wireless device (target object). It is determined whether or not the direction and the moving speed have a predetermined correlation or more (correct correspondence).
  • the identification information shape correspondence unit 135 determines that there is no change in the target object shape, that there is no change in the combination of the target object shape and the target object identification information, and that the target object shape and the wireless device (target Since the moving direction and the moving speed with the object have a predetermined correlation or more, the process proceeds to step S20.
  • the identification information shape correspondence unit 135 determines whether there is integration or separation by merging of the target object shapes, movement of the target object identification information between the target object shapes, Or the combination of the target object shape and the wireless device (target object) is not correct, the process proceeds to step S21.
  • the identification information shape correspondence unit 135 updates the target object shape position in the identification information shape correspondence table with reference to the target object shape table of the association database 136 in accordance with the time stamp, and returns the processing to step S11.
  • Step S21 Since the processing described in FIGS. 4A and 4B is performed by the target object shape extraction unit 132, the identification information shape correspondence unit 135 refers to the target object shape table in the association database 136, and Each of the shape position, the dimension information, and the target object identification information is changed.
  • the target object obtains the accurate position and the dimensions of the three-dimensional shape of the target object, and carries the target object identification information for identifying the three-dimensional shape as the target object. Since the target object identification information is associated with the target object shape, which is a three-dimensional shape, the accurate position and size of the target object and the target object identification information can be easily obtained. Further, according to the present embodiment, since the identification information database 138 is provided with the attribute information table in which the target object identification information is associated with the attribute information of the target object, the attribute of the target object is obtained, If the target object is a human, information such as affiliation and the like can be obtained when the object is a luggage, and can be used for a luggage transport process, security management, and the like.
  • the LRS has been described as an example of the three-dimensional measurement device.
  • an indoor image is captured by a plurality of calibrated imaging devices, and a plurality of image data captured at different imaging positions and imaging angles is used.
  • the three-dimensional shape may be restored and used as measured three-dimensional shape data.
  • the target object identification information is extracted from the position estimation information from the wireless device, but the target object identification information is indicated at a position where the target object can be visually recognized, for example, when the target object is luggage.
  • a configuration in which the attached object is added and the target object identification information is read by the imaging device may be used.
  • the position and size of the target object shape are measured by the LRS, the target object identification information of the target object is read by the imaging device, and the target object shape is associated with the target object identification information.
  • the target object identification information is read and extracted from the imaging data, and the target object identification information is added to the target object shape. It is good also as a structure which associates.
  • the position of the target object is estimated based on the radio wave intensity of the beacon received by the wireless device.
  • a magnetic sensor is provided on the target object, and three-dimensional space is obtained by geomagnetic data acquired by the magnetic sensor.
  • the position of the target object may be estimated from a correspondence table between the geomagnetism and the position (coordinate position) in the building stored in the data storage unit 137.
  • the position of the target object is estimated based on the radio wave intensity of the beacon received by the wireless device.
  • a motion sensor is mounted on the target object, and the motion sensor detects the movement of the target object.
  • the wireless device transmits the result to the position detection server 13 together with its own identification information, and the target object position estimating unit 134 calculates, based on each of the moving distance and moving direction of the target object detected by the motion sensor, and the indoor map, A configuration for estimating the position after the movement of the target object may be adopted.
  • a program for realizing the function of the position detection server 13 in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read by a computer system and executed.
  • a process of associating the target object identification information with the object shape may be performed.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” also includes a homepage providing environment (or a display environment) if a WWW system is used.
  • the “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system.
  • a "computer-readable recording medium” refers to a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short time.
  • a program that holds a program for a certain period of time such as a volatile memory in a computer system serving as a server or a client in that case, is included.
  • the above-mentioned program may be for realizing a part of the above-mentioned functions, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system.
  • the present invention can be widely applied to a position detection system and a position detection method, can obtain an accurate position and a three-dimensional shape of a target object, and can easily associate identification information for identifying the three-dimensional shape as a target object. it can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

位置検出システムは、屋内の3次元形状から対象物体を対象物体形状として抽出し、対象物体形状の位置を取得する対象物体形状抽出部と、対象物体から通知されるデータに基づき、対象物体を識別する対象物体識別情報を取得する識別情報取得部と、対象物体形状と対象物体識別情報とを対応付ける識別情報対応付部とを備える。

Description

位置検出システム及び位置検出方法
 本発明は、屋内における対象物体の位置検出を行う位置検出システム及び位置検出方法に関する。
 本願は、2018年07月31日に、日本に出願された特願2018-144086号に基づき優先権を主張し、その内容をここに援用する。
 従来より、建物内などにおいて、対象物体の位置を検出する方法は、各種検討されている。例えば、ビーコン、無線タグ、WiFi(ワイファイ)電波、地磁気、IMES(Indoor MEssaging System)、PHS(Personal Handy-phone System)等の通信端末を用いた位置推定技術や、この組合わせでの構成が多い(例えば、特許文献1参照)。
 しかし、上述した検出技術は、対象物体に設けられた通信端末が受信する電波強度などを用いた位置の推定を行なう技術であり、推定で求めた位置であるが故に、正確な対象物体の位置を検出することはできない。
 また、上述した検出技術は、通信端末とともに移動する対象物体の位置の推定を行えるが、その対象物体の正確な大きさを把握することはできない。
 さらに、対象物体の位置の推定しか行えないため、通信端末を携帯した作業員が自身のみで移動しているか、あるいは作業員が大きな荷物を台車で運搬しているかなど、対象物体の大きさを検出することが全くできない。
 このため、例えば、上述した対象物体の検出技術を建物内のナビゲーションに用いる場合、移動する対象物体の大きさが全く判らないため、通過できる大きさに制限がある箇所をナビゲーションの経路から外す処理ができない。
 この結果、ナビゲーションを行うことができる対象物体の大きさが制限され、建物内における荷物の搬入に用いることができない。
 一方、位置検出としては、自動車の自動運転技術に対応し、カメラや3次元計測装置を用いて、mm単位の高い精度で、自車両の周囲に存在する対象物体の位置検出を行なう検出技術がある。この位置検出方法によれば、車両の周囲に存在する対象物体の位置の検出とともに、対象物体の3次元形状も取得することができ、建物内を移動するロボットのナビゲーションなどにも適用できる。
特開2011-214834号公報
 しかしながら、上述したカメラや3次元計測装置を用いた位置検出技術では、対象物体の属性を示す識別情報を、特許文献1の技術のように検出することはできない。
 特許文献1の位置検出技術では、携帯端末が位置を推定するための情報(例えば、ビーコンの受信電波強度など)と自身の識別情報とをシステム側に通知することにより、この識別情報に基づき自身の位置の推定結果を得ている。
 したがって、システム側としては、対象物体の位置と、この対象物体の識別情報との対応を容易に取得することができる。
 一方、カメラや3次元計測装置を用いた位置検出技術は、撮像画像や計測情報などから対象物体の3次元空間における位置及び3次元形状を求める。
 このため、上記位置検出技術は、対象物体の位置を求めるための情報を、対象物体から何ら通知を受けることなく対象物体の位置を求めているため、対象物体の識別情報を取得するものではない。
 したがって、位置の検出及び3次元形状を求めることができても、識別情報が取得できないので、対象物体の識別を行なうことはできない。
 すなわち、対象物体の識別情報が取得できないため、3次元形状の対象物が移動している位置を正確に求めても、その対象物体が何であるかの属性情報を得ることができず、また、ナビゲーション等において推定した位置を通知する通知先も判らない。
 本発明は、このような事情に鑑みてなされたもので、対象物体の正確な位置及び3次元形状を得て、この3次元形状を対象物体として識別するための識別情報を容易に対応付けることができる位置検出システム及び位置検出方法を提供することを目的とする。
 この発明は上述した課題を解決するためになされたもので、本発明の位置検出システムは、屋内の3次元形状から対象物体を対象物体形状として抽出し、当該対象物体形状の位置を取得する対象物体形状抽出部と、前記対象物体から通知されるデータに基づき、当該対象物体を識別する対象物体識別情報を取得する識別情報取得部と、前記対象物体形状と対象物体識別情報とを対応付ける識別情報対応付部とを備えることを特徴とする。
 また、本発明の位置検出方法は、屋内の3次元形状から対象物体を対象物体形状として抽出し、当該対象物体形状の位置を取得する対象物体形状抽出過程と、前記対象物体から通知されるデータに基づき、当該対象物体を識別する対象物体識別情報を取得する識別情報取得過程と、前記対象物体形状と前記対象物体識別情報とを対応付ける識別情報対応付過程とを含むことを特徴とする。
 この発明によれば、対象物体の正確な位置及び3次元形状を得て、この3次元形状を対象物体として識別するための識別情報を容易に対応付けることができる位置検出システム及び位置検出方法を提供することができる。
本発明の一実施形態による位置検出システムの構成例を示す概略ブロック図である。 対象物体の対象物体形状及び対象物体識別情報の抽出を説明する図である。 対象物体の対象物体形状及び対象物体識別情報の抽出を説明する図である。 対応付データベース136に記憶されているテーブルの構成例を示す図である。 対応付データベース136に記憶されているテーブルの構成例を示す図である。 対応付データベース136に記憶されているテーブルの構成例を示す図である。 対象物体形状と対象物体識別情報との対応付けの処理を示す概念図である。 対象物体形状と対象物体識別情報との対応付けの処理を示す概念図である。 本発明の一実施形態による位置検出システムの対象物体形状に対する対象物体識別情報の対応付処理の動作例を示すフローチャートである。
 以下、図面を参照して、本発明の一実施形態による位置検出システムを説明する。図1は、本発明の一実施形態による位置検出システムの構成例を示す概略ブロック図である。
 位置検出システム1は、3次元計測装置11、発信装置12及び位置検出サーバ13の各々を備えている。本実施形態においては、屋内施設における計測範囲毎に、3次元計測装置11及び発信装置12の各々が複数台備えられている。3次元計測装置11及び位置検出サーバ13の各々は、例えば、建物内のLAN(Local Area Network)などのネットワーク100を介してデータの送受信を行なう。また、発信装置12は、ネットワーク100に接続されてもよい。
 本実施形態の以下の説明において、例えば、3次元計測装置11としてLRS(LaserRange Scanner)を用い、発信装置12としてビーコン発信機を用いた説明を行なう。しかしながら、後述するように、ビーコン発信機を用いずに対象物体の位置を推定する構成としてもよい。また、本実施形態においては、建物の屋内を例として説明するが、建物の建っている敷地内の半屋外空間、例えば、外廊下、渡り廊下、開放廊下、車寄せ、デッキ、テラス、バルコニー、縁側、外廊下、車寄せ及びデッキなどにおいて利用する構成としてもよい。
 3次元計測装置11は、レーザをスキャンし、計測範囲(レーザ光の届く範囲)における空間の3次元形状を計測し、計測結果を点群データとして位置検出サーバ13に対し、ネットワーク100を介して出力する。
 発信装置12は、屋内の壁や天井などに配置されており、自身の識別情報である発信装置識別情報を含むビーコン信号を、予め設定された所定の時間間隔の周期において、所定の電波強度により発信する。
 位置検出サーバ13は、データ入出力部131、対象物体形状抽出部132、識別情報取得部133、対象物***置推定部134、識別情報形状対応部135、対応付データベース136、3次元空間データ記憶部137及び識別情報データベース138の各々を備えている。
 データ入出力部131は、3次元計測装置11から所定時間毎に順次供給される計測3次元形状データから、この3次元計測装置11が配置されている計測範囲を示す計測範囲情報を抽出する。そして、データ入出力部131は、計測3次元形状データと、この計測3次元形状データを取得した時間を示すタイムスタンプと、計測3次元形状計測データの範囲情報とを対応付けて、3次元空間データ記憶部137に書き込んで記憶させる。
 また、データ入出力部131は、対象物体が携帯する、或いは対象物体に搭載された無線装置から供給される(通知される)、この無線装置の位置を推定位置として推定するための位置推定情報を、データを取得した時間を示すタイムスタンプと対応付け、3次元空間データ記憶部137に書き込んで記憶させる。データ入出力部131は、計測3次元形状データに同期して位置推定情報を入力する。ここで、位置推定情報は、無線装置の識別情報と、発信装置12が発信したビーコン信号を上記無線装置が受信した際の電波強度と、このビーコン信号を発信した発信装置12を識別する発信装置識別情報とである。
 対象物体形状抽出部132は、計測3次元形状データから、計測範囲内における対象物体の3次元形状である対象物体形状を抽出する。ここで、対象物体形状抽出部132は、3次元空間データ記憶部137に記憶されている、3次元計測装置の組合せから選択される測定範囲の背景3次元形状データを選択して読み出し、計測3次元形状データに対して、背景3次元形状データによる背景差分処理を行ない、対象物体形状を抽出する。ここで、背景3次元形状データは、対象物体が存在していない状態において、計測3次元形状データを取得し、この計測3次元形状データを建物の設計における3D-CAD(three dimensions-computer assisted design)のデータによりキャリブレーションした測定範囲毎の屋内の3次元形状である。また、背景3次元形状データは、計測範囲における、例えば室内あるいは廊下などの3次元空間の閉空間毎に設定されている。また、計測範囲としては、屋内の閉空間のみではなく、すでに述べた半閉空間(上記半屋外空間)も対象としてもよい。
 すなわち、対象物体形状抽出部132は、計測3次元形状データと、背景3次元形状データとを比較し、背景3次元形状データにおける3次元形状と類似する3次元形状を抽出し、この類似した3次元形状を計測3次元形状データから除去する。これにより、対象物体形状抽出部132は、計測範囲内の屋内における対象物体の3次元形状を対象物体形状として、位置を対象物体形状位置として抽出する。そして、対象物体形状抽出部132は、抽出した対象物体形状に対して識別情報(対象物体形状識別情報)を付与し、この対象物体形状を抽出した計測3次元形状データのタイムスタンプ、対象物体形状位置及び寸法情報の各々を対応付データベース136に対して書き込んで記憶させる。
 識別情報取得部133は、無線装置が通知する位置推定情報から、対象物体が携帯(あるいは備えられた)する無線装置の識別情報を抽出し、この位置推定情報を入力した際のタイムスタンプに対応付けて、対象物体識別情報とする。
 対象物***置推定部134は、位置推定情報から発信装置識別情報と、この発信装置識別情報に対応した電波強度とから、屋内における無線装置の位置を推定し、対象物体推定位置情報とする。ここで、対象物***置推定部134は、3次元空間データ記憶部137に記憶されている発信装置識別情報の各々と、それぞれの発信装置の発信するビーコン信号の電波強度とに対応付けられた位置情報を示す位置推定テーブルを参照し、位置推定情報の発信装置識別情報とその電波強度とに対応する位置情報を抽出することで、対象物体が携帯する無線装置の位置、すなわち対象物体推定位置の推定を行なう。そして、対象物***置推定部134は、識別情報取得部133が抽出した対象物体識別情報に対応付けて、タイムスタンプとともに、対象物体推定位置を対応付データベース136に対して書き込んで記憶させる。
 図2Aおよび図2Bは、対象物体の対象物体形状及び対象物体識別情報の抽出を説明する図である。図2Aは、計測3次元形状データ及び位置推定情報の取得を説明する概念図である。図2Aにおいては、屋内における所定の計測範囲である部屋500内部に、3次元計測装置11_1から11_3の各々と、ビーコンの発信装置12_1から12_4の各々とが配置されている。対象物体である歩行者550及び551の各々は、それぞれ無線装置540、541それぞれを携帯している。また、対象物体であるテーブル(机)の対象物体形状553には、無線装置543が備えられている。3次元計測装置11_1から11_3の各々は、部屋500内部の3次元形状をそれぞれ計測3次元形状データとして取得し、取得した計測3次元形状データを位置検出サーバ13に対して出力する。無線装置540、541及び543の各々は、発信装置12_1から12_4それぞれから受信したビーコン信号の電波強度及び発信装置識別情報を、自身の識別情報(対象物体識別情報)とともに位置検出サーバ13に対して出力する。
 図2Bは、計測3次元形状データから対象物体形状を抽出する処理を説明する図である。対象物体形状抽出部132は、計測3次元形状データに付与された3次元計測装置を識別する識別情報を抽出し、この識別情報に対応する背景3次元形状データを3次元空間データ記憶部137から読み出す(処理F1)。
 そして、対象物体形状抽出部132は、3次元計測装置11_1から11_3の各々からの計測3次元形状データを合成し、対象物体形状を抽出する計測3次元形状データを生成する(処理F2)。
 対象物体形状抽出部132は、計測3次元形状データにおける3次元形状から、背景3次元形状データにおける3次元形状を除去する背景差分処理を行なう(処理F3)。
 対象物体形状抽出部132は、処理F3における除去の結果、差分の3次元形状601、602を、計測3次元形状データから抽出された対象物体形状とする(処理F4)。
 図3A~図3Cは、対応付データベース136に記憶されているテーブルの構成例を示す図である。図3Aは対象物体形状テーブルの構成例を示し、対象物体形状識別情報毎に設けられている。図3Aにおいて、対象物体形状テーブルには、レコード毎に、タイムスタンプ、対象物体形状位置及び寸法情報の各々の欄が設けられている。タイムスタンプは、対象物体形状位置を求めた計測3次元形状データが入力された時刻を示している。対象物体形状位置は、屋内における座標系での対象物体形状の存在する座標位置を示している。
寸法情報は、対象物体の大きさ、例えば、対象物体形状を囲む最小の立方体の高さ、幅及び奥行の各々の寸法を示す。また、対象物体形状位置は、例えば、対象物体形状を囲む立方体の中心(あるいは重心)の位置である。
 図3Bは対象物体推定位置テーブルの構成例を示し、対象物体識別情報毎に設けられている。図3Bにおいて、対象物体推定位置テーブルには、レコード毎に、タイムスタンプ及び対象物体推定位置情報の各々の欄が設けられている。タイムスタンプは、図3Aの対象物体形状テーブルに同期しており、対象物体推定位置情報を求めた位置推定情報が入力された時刻を示している。対象物体推定位置情報は、無線装置が受信したビーコン信号の電波強度から推定した対象物体の位置を示している。
 図3Cは識別情報形状対応テーブルの構成例を示し、対象物体形状識別情報毎に設けられている。図3Aにおいて、識別情報形状対応テーブルには、レコード毎に、タイムスタンプ、対象物体形状位置、寸法情報及び対象物体識別情報の各々の欄が設けられている。タイムスタンプは、対象物体形状位置を求めた計測3次元形状データが入力された時刻である。対象物体形状位置は、屋内における座標系での対象物体形状の存在する座標位置を示している。寸法情報は、対象物体の大きさ、例えば、対象物体形状を囲む最小の立方体の高さ、幅及び奥行の各々の寸法を示している。また、対象物体形状位置は、例えば、対象物体形状を囲む上記立方体の中心の位置である。
 図1に戻り、識別情報形状対応部135は、対象物体形状と対象物体識別情報との対応付けの処理を行なう。ここで、対応付けの処理を行なう対応付範囲が予め設定されており、対象物体推定位置情報の示す位置を中心とした対応付範囲内に対象物体形状が一つあるいは複数あるかにより、識別情報形状対応部135による対応付処理は異なる。すなわち、識別情報形状対応部135は、対象物体推定位置情報を中心とした対応付範囲内に対象物体形状が一つの場合、この対象物体形状と、対象物体推定位置情報に対応する対象物体識別情報とを対応付ける。
 一方、推定位置情報の示す位置を中心とした対応付範囲内に対象物体形状が複数存在する場合、識別情報形状対応部135は、対応付データベース136における対象物体形状テーブルを参照し、対象物体形状の移動方向及び移動速度の各々(速度ベクトル)を求める。また、同様に、識別情報形状対応部135は、対応付データベース136における対象物体推定位置テーブルを参照し、対象物体識別情報の示す無線装置の移動方向及び移動速度の各々を求める。そして、識別情報形状対応部135は、対象物体形状毎に、この対象物体形状の移動方向及び移動速度と、無線装置それぞれの移動方向及び移動速度との相関を取り、高い相関を有する対象物体形状と無線装置とが同一の対象物体であるとし、この対象物体形状に対して、無線装置の対象物体識別情報とを対応付ける。
 図4Aおよび図4Bは、対象物体形状と対象物体識別情報との対応付けの処理を示す概念図である。図4Aは、対応付範囲内に対象物体形状が複数存在する場合における識別情報形状対応部135の対応付の処理を示す図である。ここで、歩行者550及び551の各々は、それぞれ無線装置540、541を携帯して移動している。無線装置540の対象物体推定位置情報は位置310を示しており、位置310を中心とした対応付範囲内310Aに対象物体形状として歩行者550、551が含まれている。同様に、無線装置541の対象物体推定位置情報は位置311を示しており、位置311を中心とした対応付範囲内311Aに対象物体形状として歩行者550、551が含まれている。ここで示す様に、無線装置540及び541の各々のビーコン信号の受信電波の強度により位置の推定を行った場合、推定される対象物体推定位置情報は、無線装置540、541それぞれの実際の位置とは大きく異なってしまう。この場合、識別情報形状対応部135は、推定位置情報を中心とした対応付範囲内に対象物体形状が複数存在することを検出する(処理F10)。
 このため、識別情報形状対応部135は、歩行者550の対象物体形状と、位置310及び311の各々との移動方向、移動速度それぞれの相関を求める。また、識別情報形状対応部135は、歩行者551の対象物体形状と、位置310及び311の各々との移動方向、移動速度それぞれの相関を求める。これにより、識別情報形状対応部135は、上述した相関の値が高い歩行者550の対象物体形状に位置310に対応する対象物体識別情報を対応付け、歩行者551の対象物体形状に位置311に対応する対象物体識別情報を対応付ける(処理F11)。
 図4Bは、対象物体形状を分割及び統合した際における対象物体形状と対象物体識別情報との対応付処理を説明する概念図である。
 対象物体形状抽出部132が対象物体形状561及び562の各々を検出した場合を説明する。
 (ケース#1)
 対象物体形状561の示す対象物体が無線装置を備えており、対象物体形状562の示す対象物体が無線装置を備えていない場合。
 (処理F21)
 対象物体形状抽出部132は、対象物体形状561及び562の各々を検出した場合、対象物体形状561、562それぞれに対して対象物体形状識別情報を付与して管理する。識別情報形状対応部135は、対象物体形状561に対して対象物体識別情報を対応付けるが、一方、対象物体形状561には対象物体識別情報を対応付けない。
 (処理F22)
 対象物体形状抽出部132は、対象物体形状561及び562の各々が一体となったことを検出した場合、対象物体識別情報が付与されている対象物体形状561の対象物体形状識別情報により管理する。そして、対象物体形状抽出部132は、対応付データベース136の対象物体形状テーブルにおける寸法情報を、対象物体形状561の寸法から、対象物体形状561及び562が合体した対象物体形状の寸法に変更する。
 (処理F23)
 識別情報形状対応部135は、所定の時間が経過すると、対象物体形状561及び562の各々が一体された3次元形状を、対象物体形状561とする。このとき、識別情報形状対応部135は、対象物体形状561と合体した3次元形状が対象物体形状562であることを履歴として、対応付データベース136に記憶して残す。そして、対象物体形状抽出部132は、上述した所定の時間が経過した後、この時点のタイムスタンプ以降、対象物体形状テーブルにおける対象物体形状562のデータの更新を行なわない。
 (処理F24)
 対象物体形状抽出部132は、対象物体形状561が2つの3次元形状に分離したことを検出した場合、履歴を参照することにより対象物体形状561が対象物体形状562と分離したことを検出する。そして、対象物体形状抽出部132は、この時点のタイムスタンプ以降、対象物体形状テーブルにおける対象物体形状562のデータの更新を再開する。識別情報形状対応部135は、対象物体形状561から分離した3次元形状が対象物体形状562であることを履歴として、対応付データベース136に記憶して残す。
 (ケース#2)
 対象物体形状561及び562の各々の示す対象物体が無線装置を備えている場合。
 (処理F21)
 対象物体形状抽出部132は、対象物体形状561及び562の各々を検出した場合、対象物体形状561、562それぞれに対して対象物体形状識別情報を付与して管理する。識別情報形状対応部135は、対象物体形状561及び562の各々に対して対象物体識別情報の対応付けを行なう。
 (処理F22)
 対象物体形状抽出部132は、対象物体形状561及び562の各々が一体となったことを検出した場合、いずれか一方の3次元形状識別情報により管理する。例えば、対象物体形状抽出部132は、寸法が大きい方(すなわち体積が大きい方)の対象物体形状の対象物体形状識別情報により管理する。そして、対象物体形状抽出部132は、対応付データベース136の対象物体形状テーブルにおける寸法情報を、対象物体形状561の寸法から、対象物体形状561及び562が合体して一体化した3次元形状の寸法に変更する。
 (処理F23)
 識別情報形状対応部135は、所定の時間が経過すると、対象物体形状561及び562の各々が一体された3次元形状を、対象物体形状561とする。また、識別情報形状対応部135は、識別情報形状対応テーブルにおける対象物体識別情報の欄に、それぞれの対象物体識別情報を書き込む。このとき、識別情報形状対応部135は、対象物体形状561と合体した3次元形状が対象物体形状562であることを履歴として、対応付データベース136に記憶して残す。そして、対象物体形状抽出部132は、上述した所定の時間が経過した後、この時点のタイムスタンプ以降、対象物体形状テーブルにおける対象物体形状562のデータの更新を行なわない。
 (処理F24)
 対象物体形状抽出部132は、対象物体形状561が2つの3次元形状に分離したことを検出した場合、履歴を参照して、対象物体形状561が対象物体形状562と分離したことを検出する。そして、対象物体形状抽出部132は、この時点のタイムスタンプ以降、対象物体形状テーブルの対象物体形状562のデータの更新を再開する。
 識別情報形状対応部135は、対象物体形状561から分離した3次元形状が対象物体形状562であることを示す履歴を、対応付データベース136に記憶して残す。
 上述した処理については、例えば、荷物の搬入を行なう際、処理F21において、作業者が台車に荷物を搭載して運ぶとき、台車を操る作業者が対象物体形状561で、台車に乗せる荷物が対象物体形状562とした場合が考えられる。この場合、対象物体形状抽出部132は、台車を操る作業者と、台車に乗せる荷物との各々を3次元形状として検出し、それぞれに対象物体形状識別情報を付与して管理する。
 そして、処理F22において、作業者が、台車に荷物を搭載することで、台車を操る作業者と、台車に搭載された荷物とが対象物体形状抽出部132より1つの3次元形状として検出される。また、処理F24において、作業者が、台車から荷物を下ろすことで、台車を操る作業者と、台車に搭載された荷物とが対象物体形状抽出部132より2つの3次元形状として検出される。
 また、図2Aに示す対象物体形状553の場合、テーブル(什器)であるため、搬入して配置した後、移動させることは当分の間ない。このため、対象物体形状抽出部132は、対応付データベース136の対象物体形状テーブルにおいて、所定の時間を超えて、対象物体形状位置が移動しない場合、対象物体形状553を背景3次元形状データに合成させる処理を行なう。そして、対象物体形状抽出部132は、対象物体形状553を合成した新たな背景3次元形状データとして、3次元空間データ記憶部137に対して書き込んで記憶させる。これにより、対象物体形状553の抽出を行なう必要が無いため、対象物体形状抽出部132の負荷を低減させることができる。また、対象物体形状553を部屋から搬出した場合、計測3次元形状データと背景3次元形状データとの差分により、対象物体形状553が移動したことを検出することができる。
 図5は、本発明の一実施形態による位置検出システムの対象物体形状に対する対象物体識別情報の対応付処理の動作例を示すフローチャートである。
 (ステップS11)
 データ入出力部131は、3次元計測装置11から所定時間毎に順次供給される計測3次元形状データ及び位置推定情報の各々を計測情報として入力する。
 (ステップS12)
 対象物体形状抽出部132は、背景3次元形状データを用いた背景差分処理により、計測3次元形状データにおける対象物体形状の検出を行なう。
 (ステップS13)
 対象物体形状抽出部132は、計測3次元形状データから対象物体形状が抽出された場合、あるいは位置推定情報が入力された場合、処理をステップS14へ進め、一方、対象物体形状が抽出されず、かつ位置推定情報が入力されない場合、処理をステップS11へ戻す。
 (ステップS14)
 対象物体形状抽出部132は、抽出された対象物体形状と、すでに対象物体形状テーブルに記載されている対象物体形状との同定の処理を行なう。
 (ステップS15)
 対象物体形状抽出部132は、同定の処理において、抽出された対象物体形状が対象物体形状テーブルに含まれているか否か、すなわち抽出された対象物体形状に対象物体形状識別情報が付与されているか否かの判定を行なう。
 (ステップS16)
 対象物***置推定部134は、対象物体の無線装置から通知される位置推定情報により、無線装置の対象物体推定位置情報及び対象物体識別情報を求める。
 (ステップS17)
 対象物体形状抽出部132は、抽出された対象物体形状のなかで、対象物体形状識別情報が付与されていない対象物体形状に対して、対象物体形状識別情報を付与する。対象物体形状抽出部132は、対象物体形状の各々の追跡処理(速度ベクトル及び3次元形状の寸法などの相関を求めることによる同定処理)を行ない、新たに抽出された対象物体形状か、すでに抽出された対象物体形状であるかの判定を行なっている。
 (ステップS18)
 識別情報形状対応部135は、識別情報形状対応テーブルを参照して、抽出された対象物体形状に対象物体識別情報が対応付けられているか(対応付けが有るか)否かの判定を行なう。このとき、識別情報形状対応部135は、対応付けられている場合に処理をステップS19へ進め、一方、対応付けられていない場合に処理をステップS21へ進める。
 (ステップS19)
 識別情報形状対応部135は、複数の対象物体形状に同一の対象物体識別情報が対応付けられているか否か、あるいは対象物体形状の寸法が変化したか否かの判定を行なうとともに、また対象物体形状の移動方向及び移動速度の各々と、無線装置(対象物体)の移動方向及び移動速の各々の相関がそれぞれ予め設定した相関値以上であるか否かの判定を行なう。すなわち、識別情報形状対応部135は、対象物体形状の寸法、対象物体形状識別情報、対象物体識別情報の組合せなどが直前と同様であり、かつ対象物体形状と無線装置(対象物体)との移動方向及び移動速度に所定以上の相関があるか(正しい対応であるか)否かの判定を行なう。このとき、識別情報形状対応部135は、正しい対応である場合、対象物体形状に変化が無く、対象物体形状と対象物体識別情報との組合せに変化がなく、かつ対象物体形状と無線装置(対象物体)との移動方向及び移動速度に所定以上の相関があるため、処理をステップS20へ進める。一方、識別情報形状対応部135は、正しい対応でない場合、対象物体形状の合体による一体化あるいは分離、対象物体識別情報の対象物体形状間における移動があるか、対象物体形状と対象物体識別情報との組合せに変化があるか、対象物体形状と無線装置(対象物体)との組合せ自体が正しくないため、処理をステップS21へ進める。
 (ステップS20)
 識別情報形状対応部135は、タイムスタンプに対応して、対応付データベース136の対象物体形状テーブルを参照し、識別情報形状対応テーブルにおける対象物体形状位置の更新を行ない、処理をステップS11に戻す。
 (ステップS21)
 図4Aおよび図4Bにおいて説明した処理が対象物体形状抽出部132により行なわれるため、識別情報形状対応部135は、対応付データベース136における対象物体形状テーブルを参照し、識別情報形状対応テーブルにおける対象物体形状位置、寸法情報及び対象物体識別情報の各々の変更を行なう。
 上述したように、本実施形態によれば、対象物体の正確な位置及び3次元形状の寸法を得て、かつこの3次元形状を対象物体として識別するための対象物体識別情報を対象物体が携帯する無線装置から得て、この対象物体識別情報を3次元形状である対象物体形状に対応付けるため、対象物体の正確な位置、寸法及び対象物体識別情報を容易に求めることができる。また、本実施形態によれば、識別情報データベース138に対象物体識別情報と対象物体の属性情報とが対応付けられた属性情報テーブルが設けられているため、対象物体の属性を得て、対象物体が荷物である場合に何であるか、対象物体が人間である場合に所属などの情報を得ることができ、荷物の搬送処理やセキュリティの管理などに用いることができる。
 また、本実施形態においては、3次元計測装置としてLRSを例として説明したが、キャリブレーションされた複数の撮像装置により屋内を撮像し、異なる撮像位置及び撮像角度で撮像された複数の撮像データから3次元形状を復元し、計測3次元形状データとして用いてもよい。
 また、本実施形態においては、無線装置からの位置推定情報から対象物体識別情報を抽出しているが、例えば対象物体が荷物の場合など、対象物体の視認できる位置に対象物体識別情報が示された添付物を付加し、撮像装置によって対象物体識別情報を読み取る構成を用いてもよい。この場合、LRSにより対象物体形状の位置及び寸法を計測し、撮像装置により対象物体の対象物体識別情報を読取り、対象物体形状に対象物体識別情報を対応付ける。他の構成として、異なる撮像位置及び撮像角度で撮像された複数の撮像データから3次元形状を復元した際、撮像データから対象物体識別情報を読み取って抽出し、対象物体形状に対象物体識別情報を対応付ける構成としてもよい。
 また、本実施形態においては、無線装置が受信するビーコンの電波強度により対象物体の位置推定を行なったが、対象物体に磁気センサを設け、この磁気センサが取得する地磁気のデータにより、3次元空間データ記憶部137に記憶された地磁気と建物における位置(座標位置)との対応テーブルから、対象物体の位置を推定する構成としてもよい。
 また、本実施形態においては、無線装置が受信するビーコンの電波強度により対象物体の位置推定を行なったが、対象物体にモーションセンサを搭載させ、モーションセンサが対象物体の動きを検出し、この検出結果を無線装置が自身の識別情報とともに位置検出サーバ13へ送信し、対象物***置推定部134が、モーションセンサの検出結果である対象物体の移動距離及び移動方向の各々と、屋内地図とから、対象物体の移動した後の位置を推定する構成としてもよい。
 また、図1における位置検出サーバ13の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、対象物体形状に対して対象物体識別情報を対応付ける処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
 以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 本発明は、位置検出システムおよび位置検出方法に広く適用でき、対象物体の正確な位置及び3次元形状を得て、この3次元形状を対象物体として識別するための識別情報を容易に対応付けることができる。
 11…3次元計測装置
 12…発信装置
 13…位置検出サーバ
 100…ネットワーク
 131…データ入出力部
 132…対象物体形状抽出部
 133…識別情報取得部
 134…対象物***置推定部
 135…識別情報形状対応部
 136…対応付データベース
 137…3次元空間データ記憶部
 138…識別情報データベース

Claims (14)

  1.  屋内の3次元形状から対象物体を対象物体形状として抽出し、当該対象物体形状の位置を取得する対象物体形状抽出部と、
     前記対象物体から通知されるデータに基づき、当該対象物体を識別する対象物体識別情報を取得する識別情報取得部と、
     前記対象物体形状と対象物体識別情報とを対応付ける識別情報対応付部と、
     を備えることを特徴とする位置検出システム。
  2.  前記対象物体に備えられた無線装置から、前記屋内における当該対象物体の位置を推定するための位置推定情報を受信し、当該位置推定情報により、計測範囲における前記対象物体の位置を推定位置として推定する対象物***置推定部をさらに備え、
     前記対象物***置推定部が、
     当該位置推定情報とともに送信される前記対象物体識別情報を取得する
     ことを特徴とする請求項1に記載の位置検出システム。
  3.  前記位置推定情報が、
     前記屋内に配置された発信機の各々から発信される電波の受信強度により推定される
     ことを特徴とする請求項2に記載の位置検出システム。
  4.  前記位置推定情報が、
     前記無線装置に設けられた磁気センサによる地磁気の測定値から推定される
     ことを特徴とする請求項2に記載の位置検出システム。
  5.  前記対象物体に搭載されたモーションセンサが設けられ、
     前記位置推定情報が、
     前記モーションセンサが検出した前記対象物体の移動距離及び移動方向の各々と、前記屋内の地図とから推定される
     ことを特徴とする請求項2に記載の位置検出システム。
  6.  前記識別情報対応付部が、
     前記対象物体の推定位置が移動した際の速度ベクトルと、前記対象物体の位置が移動した際の速度ベクトルとの相関に基づき、前記対象物体形状と前記対象物体識別情報とを対応付ける
     ことを特徴とする請求項2から請求項5のいずれか一項に記載の位置検出システム。
  7.  前記識別情報対応付部が、
     前記対象物体識別情報が同一の対象物体から異なる他の対象物体に対応付けられた際、当該対象物体に対応付けられた前記対象物体識別情報の履歴を記憶する
     ことを特徴とする請求項1から請求項6いずれか一項に記載の位置検出システム。
  8.  屋内の3次元形状から対象物体を対象物体形状として抽出し、当該対象物体形状の位置を取得する対象物体形状抽出過程と、
     前記対象物体から通知されるデータに基づき、当該対象物体を識別する対象物体識別情報を取得する識別情報取得過程と、
     前記対象物体形状と前記対象物体識別情報とを対応付ける識別情報対応付過程と、
     を含むことを特徴とする位置検出方法。
  9.  前記対象物体に備えられた無線装置から、前記屋内における当該対象物体の位置を推定するための位置推定情報を受信し、当該位置推定情報により、計測範囲における前記対象物体の位置を推定位置として推定する対象物***置推定過程をさらに含み、
     前記対象物***置推定過程は、
     当該位置推定情報とともに送信される前記対象物体識別情報を取得するステップ
     を含むことを特徴とする請求項8に記載の位置検出方法。
  10.  前記位置推定情報が、
     前記屋内に配置された発信機の各々から発信される電波の受信強度により推定される
     ことを特徴とする請求項9に記載の位置検出方法。
  11.  前記位置推定情報が、
     前記無線装置に設けられた磁気センサによる地磁気の測定値から推定される
     ことを特徴とする請求項9に記載の位置検出方法。
  12.  前記位置推定情報が、
     前記対象物体に搭載されたモーションセンサが検出した前記対象物体の移動距離及び移動方向の各々と、前記屋内の地図とから推定される
     ことを特徴とする請求項9に記載の位置検出方法。
  13.  前記識別情報対応付過程は、
     前記対象物体の推定位置が移動した際の速度ベクトルと、前記対象物体の位置が移動した際の速度ベクトルとの相関に基づき、前記対象物体形状と前記対象物体識別情報とを対応付けるステップ
     を含むことを特徴とする請求項9から請求項12のいずれか一項に記載の位置検出方法。
  14.  前記識別情報対応付過程は、
     前記対象物体識別情報が同一の対象物体から異なる他の対象物体に対応付けられた際、当該対象物体に対応付けられた前記対象物体識別情報の履歴を記憶するステップ
     を含むことを特徴とする請求項8から請求項13いずれか一項に記載の位置検出方法。
PCT/JP2019/006040 2018-07-31 2019-02-19 位置検出システム及び位置検出方法 WO2020026480A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/262,822 US11898847B2 (en) 2018-07-31 2019-02-19 Position detecting system and position detecting method
SG11202100748PA SG11202100748PA (en) 2018-07-31 2019-02-19 Position detecting system and position detecting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018144086A JP7257752B2 (ja) 2018-07-31 2018-07-31 位置検出システム
JP2018-144086 2018-07-31

Publications (1)

Publication Number Publication Date
WO2020026480A1 true WO2020026480A1 (ja) 2020-02-06

Family

ID=69231524

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/006040 WO2020026480A1 (ja) 2018-07-31 2019-02-19 位置検出システム及び位置検出方法

Country Status (4)

Country Link
US (1) US11898847B2 (ja)
JP (1) JP7257752B2 (ja)
SG (1) SG11202100748PA (ja)
WO (1) WO2020026480A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023032507A1 (ja) * 2021-08-31 2023-03-09
US20240134842A1 (en) * 2022-10-25 2024-04-25 Sap Se Fine-grained decision on propagation of revalidation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007058302A1 (ja) * 2005-11-21 2007-05-24 Nec Corporation 位置推定システム、位置推定方法および位置推定用プログラム
JP2008186375A (ja) * 2007-01-31 2008-08-14 Univ Of Tokyo 物体測定システム
WO2009113265A1 (ja) * 2008-03-11 2009-09-17 パナソニック株式会社 タグセンサシステムおよびセンサ装置、ならびに、物***置推定装置および物***置推定方法
WO2011027557A1 (ja) * 2009-09-04 2011-03-10 パナソニック株式会社 位置校正情報収集装置、位置校正情報収集方法、及び位置校正情報収集プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4859205B2 (ja) * 2005-02-04 2012-01-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP4914039B2 (ja) * 2005-07-27 2012-04-11 キヤノン株式会社 情報処理方法および装置
JP5132138B2 (ja) * 2006-11-28 2013-01-30 キヤノン株式会社 位置姿勢計測方法、位置姿勢計測装置
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
US8885879B2 (en) * 2009-04-28 2014-11-11 Nec Corporation Object position estimation device, object position estimation method and program
JP5685828B2 (ja) 2010-03-31 2015-03-18 富士通株式会社 可搬型携帯端末、可搬型携帯端末の測位プログラム及び測位システム
JP5615055B2 (ja) * 2010-06-18 2014-10-29 キヤノン株式会社 情報処理装置及びその処理方法
JP6184237B2 (ja) * 2013-08-07 2017-08-23 株式会社東芝 3次元データの処理装置、その処理方法及びその処理プログラム
JP6415066B2 (ja) * 2014-03-20 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP6427972B2 (ja) * 2014-06-12 2018-11-28 セイコーエプソン株式会社 ロボット、ロボットシステム及び制御装置
JP6736257B2 (ja) * 2015-04-02 2020-08-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007058302A1 (ja) * 2005-11-21 2007-05-24 Nec Corporation 位置推定システム、位置推定方法および位置推定用プログラム
JP2008186375A (ja) * 2007-01-31 2008-08-14 Univ Of Tokyo 物体測定システム
WO2009113265A1 (ja) * 2008-03-11 2009-09-17 パナソニック株式会社 タグセンサシステムおよびセンサ装置、ならびに、物***置推定装置および物***置推定方法
WO2011027557A1 (ja) * 2009-09-04 2011-03-10 パナソニック株式会社 位置校正情報収集装置、位置校正情報収集方法、及び位置校正情報収集プログラム

Also Published As

Publication number Publication date
US11898847B2 (en) 2024-02-13
US20210247192A1 (en) 2021-08-12
JP7257752B2 (ja) 2023-04-14
SG11202100748PA (en) 2021-03-30
JP2020020645A (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
EP3213031B1 (en) Simultaneous localization and mapping by using earth's magnetic fields
KR101608421B1 (ko) 이미지―기반 실내 포지션 결정
CN105683708A (zh) 用于确定移动装置的海拔高度的方法及设备
EP3152586B1 (en) Mobile device position uncertainty based on a measure of potential hindrance of an estimated trajectory
RU2696603C1 (ru) Способ, устройство и система для определения внутреннего местоположения
KR20130047386A (ko) 무선 통신 단말의 위치 측정 장치, 위치 측정 방법 및 핑거프린트 정보 수집 방법, 핑거프린트 서버 및 그의 위치 제공 방법
CN110998352A (zh) 用于确定静止物体的位置的方法和装置
WO2020026480A1 (ja) 位置検出システム及び位置検出方法
Low et al. SunMap+: An intelligent location-based virtual indoor navigation system using augmented reality
CN107003385B (zh) 以无线信号信息标记视觉数据
KR20210117177A (ko) 라디오 핑거프린트의 시퀀스에 기반한 라디오 맵의 업데이트
JP2019075037A (ja) 情報処理装置、情報処理方法、およびプログラム
Raja et al. High accuracy indoor localization for robot-based fine-grain inspection of smart buildings
Ghantous et al. Augmented reality indoor navigation based on Wi-Fi trilateration
CN109612455A (zh) 一种室内定位方法及***
Falleri et al. Designing an indoor real-time location system for healthcare facilities
Sonnessa et al. Indoor Positioning Methods–A Short Review and First Tests Using a Robotic Platform for Tunnel Monitoring
Yim A review of indoor positioning techniques
WO2018042906A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP7307139B2 (ja) 追跡装置により捕捉される少なくとも1つの無線信号観測結果セットに基づく、追跡装置が対象エリア内にいるかどうかの判定
GB2503207A (en) Apparatus for determining position and distance to objects
Pal et al. Indoor maps: Simulation in a virtual environment
Shewail et al. Augmented Reality indoor tracking using Placenote
Seo et al. Indoor Location Based Systems
Amin et al. Localization and Mapping for Indoor Navigation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19844002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19844002

Country of ref document: EP

Kind code of ref document: A1