WO2020230325A1 - 情報処理装置、情報処理方法、及び、情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び、情報処理プログラム Download PDF

Info

Publication number
WO2020230325A1
WO2020230325A1 PCT/JP2019/019550 JP2019019550W WO2020230325A1 WO 2020230325 A1 WO2020230325 A1 WO 2020230325A1 JP 2019019550 W JP2019019550 W JP 2019019550W WO 2020230325 A1 WO2020230325 A1 WO 2020230325A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
position information
sensor
moving body
moving
Prior art date
Application number
PCT/JP2019/019550
Other languages
English (en)
French (fr)
Inventor
佳明 安達
雄治 五十嵐
弘純 山口
輝夫 東野
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021519235A priority Critical patent/JP7062138B2/ja
Priority to CN201980096290.5A priority patent/CN113841068A/zh
Priority to US17/439,416 priority patent/US20220155448A1/en
Priority to PCT/JP2019/019550 priority patent/WO2020230325A1/ja
Publication of WO2020230325A1 publication Critical patent/WO2020230325A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present invention relates to an information processing device for estimating the position information of a mobile device, an information processing method, and an information processing program.
  • Patent Document 1 describes the time series of the position information of the mobile device estimated based on the sensor mounted on the mobile device and the time of the position information of the mobile device estimated based on the sensor installed in the environment.
  • a technique has been proposed in which the position of a mobile device is estimated in real time by collating the trajectory of the mobile device with the sequence.
  • the present invention has been made in view of the above problems, and provides a technique capable of estimating the position information of a mobile device even if the sensor installed in the environment cannot observe the mobile device. With the goal.
  • the information processing device is an information processing device that estimates the position information of the mobile device, and the mobile device and the first sensor are based on the observation information generated by the first sensor mounted on the mobile device.
  • a first moving body acquisition means for acquiring first position information, which is relative position information with one or more first moving bodies existing around one sensor, and a second sensor provided outside the moving device.
  • a second moving body acquisition means for acquiring the second position information which is the position information of one or more second moving bodies existing around the second sensor based on the observation information generated by the second moving body, and the first moving body.
  • the positions of the first moving body and the second moving body based on the first position information acquired by the body acquiring means and the second position information acquired by the second moving body acquiring means. It is provided with a position estimation means for comparing relationships and estimating the position information of the mobile device.
  • the first moving body and the second moving body are based on the first position information acquired by the first moving body acquiring means and the second position information acquired by the second moving body acquiring means.
  • the position information of the mobile device is estimated by comparing the positional relationship with the body. According to such a configuration, the position information of the mobile device can be estimated even if the sensor installed in the environment cannot observe the mobile device.
  • FIG. It is a conceptual diagram which shows an example of the system configuration which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the structure and function of the mobile device which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the structure and function of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a conceptual diagram which shows an example of the system configuration which concerns on Embodiment 2.
  • FIG. It is a block diagram which shows the structure and function of the mobile device which concerns on Embodiment 2.
  • FIG. 1 is a conceptual diagram showing an example of a system configuration according to the first embodiment.
  • the system acquires observation information from a mobile device 1 for which position information is estimated, an infrastructure sensor 2 for observing a moving body including the mobile device 1, a mobile device 1, and an infrastructure sensor 2.
  • the information processing device 3 for estimating the position information of the mobile device 1 is provided.
  • FIG. 1 shows a moving body 4 other than the moving device 1 and a space 5 in which the moving device 1 and the moving body 4 move, such as a person's head and shoulders, which are examples of the moving body 4. Is illustrated.
  • the position information is information indicating a place where a feature such as a mobile device 1, an infrastructure sensor 2, or a moving body 4 exists.
  • the position information may be absolute information that uniquely represents a place in space 5, or may be, for example, relative position information that represents a positional relationship between features.
  • the expression format of the position information may be expressed by a point such as a mass point, or may be expressed by an area having a range.
  • the representation format of the position information may be, for example, a latitude / longitude format, an orthogonal coordinate format having a certain point as the origin, or a polar coordinate format having a certain point as the origin.
  • the position information may include information indicating a direction.
  • the information indicating the direction may be, for example, an azimuth angle based on the north direction.
  • the observation information is information generated by sensors such as the autonomous sensor 11 (FIG. 2) mounted on the mobile device 1 and the infrastructure sensor 2 for estimating the position information of the moving body existing around the sensor. ..
  • the moving body referred to here may include only the moving body 4, or may include the moving device 1 and the moving body 4.
  • the observation information may be, for example, two parallax images if the sensor is a stereo camera, or may be a set of points having distance and orientation information if the sensor is an LRF (Laser Range Finder). Alternatively, if the sensor is a ToF (Time of Flight) camera, it may be a set of pixels having a distance. Further, the observation information may include information that can estimate the distance between the sensor and the moving body existing around the sensor, and may include other information. Further, the observation information may be a raw value acquired by the sensor, or may be a processed value after some processing is performed on the raw value.
  • FIG. 2 is a block diagram showing the configuration and function of the mobile device 1.
  • the mobile device 1 is a device that moves in the space 5, and the position information of the mobile device 1 is estimated by the information processing device 3.
  • the mobile device 1 is, for example, a robot, mobility, an electric wheelchair, an electric trolley, an autonomous driving vehicle, or the like.
  • the number of the moving devices 1 may be one or a plurality.
  • the mobile device 1 of FIG. 2 includes a mobile communication means 10 for communicating with the information processing device 3, and an autonomous sensor 11 that generates observation information by observing the vicinity of the mobile device 1.
  • the self-position estimation means 12, the route planning means 13, and the movement control means 14 may be provided so that the moving device 1 can perform autonomous movement. Details of these will be described later, and an outline of these will be described here.
  • the self-position estimation means 12 estimates the position of the mobile device 1 using the autonomous sensor 11 and generates position information representing the position.
  • the route planning means 13 calculates a route to a destination and generates route information representing the route.
  • the movement control means 14 performs movement control to move the movement device 1 to the destination based on the position information and the route information.
  • the mobile communication means 10 is a communication unit for communicating the observation information generated by the autonomous sensor 11 and the position information estimated by the information processing device 3 with the information processing device 3.
  • the mobile communication means 10 periodically transmits the observation information generated by the autonomous sensor 11 to the information processing device 3, and receives the position information estimated by the information processing device 3 from the information processing device 3.
  • the mobile communication means 10 may send and receive information other than the above information.
  • the mobile communication means 10 may transmit the position information estimated by the self-position estimation means 12 to the information processing device 3, or transmit the route information planned by the route planning means 13 to the information processing device 3. You may.
  • the communication method of the mobile communication means 10 may be any communication method capable of exchanging information with the information processing device 3 while the mobile device 1 is moving.
  • the communication method may be narrow-range radio communication such as wireless LAN (Local Area Network) or Bluetooth (registered trademark), LTE (Long Term Evolution), WiMAX (World Interoperability For Communication). ), It may be a wide area radio communication, an optical communication such as a visible light communication standard method, or a sound wave communication.
  • the autonomous sensor 11 is a sensor mounted on the mobile device 1 that observes a moving body around the mobile device 1 and thus around the autonomous sensor 11 and outputs the result as observation information.
  • the autonomous sensor 11 corresponds to the first sensor in the information processing device 3.
  • the moving body observed by the autonomous sensor 11 is, for example, one or more moving bodies 4 in FIG.
  • the autonomous sensor 11 may be, for example, a stereo camera, an LRF (Laser Range Finder), or a ToF (Time of Flight) camera. Further, only one autonomous sensor 11 may be mounted on the mobile device 1, or a plurality of autonomous sensors 11 may be mounted on the mobile device 1.
  • the autonomous sensor 11 may include not only a sensor used for estimating the position of a moving body around the mobile device 1 but also a sensor used for the self-position estimation means 12 and the movement control means 14.
  • the sensor used for the self-position estimation means 12 and the movement control means 14 may be, for example, a wheel encoder, a gyro sensor, an obstacle sonar, or the like.
  • the self-position estimation means 12 uses the observation information generated by the autonomous sensor 11 or the map information of the area in which the mobile device 1 travels when the mobile communication means 10 cannot receive the position information from the information processing device 3. This is a processing unit that estimates the current position and orientation of the mobile device 1 in real time by the mobile device 1 alone.
  • the position estimation method of the self-position estimation means 12 may be, for example, dead reckoning using a wheel encoder or a gyro, SLAM (Self Localization And Mapping) using LRF or map information, or the like.
  • the route planning means 13 calculates the route from the current position represented by the position information to the destination based on the position information estimated by the self-position estimation means 12 and the map information of the area where the moving device 1 travels. It is a processing unit that generates route information representing the route.
  • the moving device 1 In order to move the moving device 1 from the current position to the destination while avoiding the moving device 1 from an obstacle based on the position information and the route information representing the current position of the moving device 1, for example, the moving device 1 It is a drive control unit that controls a battery, a motor, wheels, and the like provided in the vehicle.
  • the movement control means 14 calculates the movement amount and the movement direction to be moved by the movement device 1 based on the position information and the route information so that the movement device 1 avoids the obstacle detected by the autonomous sensor 11. Then, the movement control means 14 controls the rotation of the motor of the movement device 1 based on the calculated movement amount and the movement direction, thereby avoiding the movement device 1 from the obstacle.
  • the infrastructure sensor 2 is provided outside the mobile device 1.
  • the infrastructure sensor 2 is a sensor that is fixed as an infrastructure such as a building or equipment outside the mobile device 1, observes a moving body existing around the infrastructure sensor 2, and outputs the result as observation information. ..
  • the infrastructure sensor 2 corresponds to the second sensor in the information processing device 3.
  • the mobile body observed by the infrastructure sensor 2 is, for example, at least one of the mobile device 1 and one or more mobile bodies 4 in FIG.
  • the infrastructure sensor 2 periodically transmits observation information to the information processing device 3.
  • the components of the infrastructure sensor 2 may be the same as those of the autonomous sensor 11, for example. Further, only one infrastructure sensor 2 may be installed in the space 5, or a plurality of infrastructure sensors 2 may be installed. In addition, the infrastructure sensor 2 may be connected to the information processing device 3 by wire or wirelessly.
  • the infrastructure sensor 2 may be installed at a position where a moving object can be observed, and may be installed on, for example, a ceiling, a wall, or a pillar. Further, the infrastructure sensor 2 is installed so that the sensing range of the infrastructure sensor 2 is the entire range of the space 5, or the range of the space 5 where the position information of the mobile device 1 is to be estimated. May be good.
  • FIG. 3 is a block diagram showing the configuration and functions of the information processing device 3.
  • the information processing device 3 includes a mobile communication means 30, a first mobile body acquisition means 31, a second mobile body acquisition means 32, and a position estimation means 33. Details of these will be described later, and an outline of these will be described here.
  • the mobile communication means 30 communicates with the mobile device 1 and receives observation information generated by the autonomous sensor 11 mounted on the mobile device 1.
  • the first mobile body acquisition means 31 is located around the mobile device 1 and the autonomous sensor 11 based on the observation information received by the mobile communication means 30, that is, the observation information generated by the autonomous sensor 11 mounted on the mobile device 1.
  • the first position information which is the position information relative to one or more existing first moving bodies, is estimated and acquired.
  • the first moving body referred to here is, for example, one or more moving bodies 4 in FIG.
  • the second mobile body acquisition means 32 is based on the observation information generated by the infrastructure sensor 2 provided outside the mobile device 1, and is based on the position information of one or more second mobile bodies existing around the infrastructure sensor 2. A certain second position information is estimated and acquired.
  • the second moving body referred to here is, for example, at least one of the moving device 1 and the moving body 4 in FIG.
  • the second position information may be the absolute position information of the second moving body, or may be the relative position information of the infrastructure sensor 2 and the second moving body.
  • the position estimating means 33 is based on the first position information estimated by the first moving body acquiring means 31 and the second position information estimated by the second moving body acquiring means 32, and the first moving body and the first moving body 33. 2
  • the position information of the moving device 1 is estimated by comparing with the positional relationship with the moving body.
  • the information processing device 3 temporarily stores a storage device that stores each means as a program, a CPU (Central Processing Unit) for executing each means, a result calculated by the CPU, and a program executed by the CPU. It is a computer provided with a memory to be held and an interface for communicating with the mobile device 1 and the infrastructure sensor 2.
  • the program stored in the memory includes a program that causes the information processing apparatus 3 to execute functions such as the first mobile body acquisition means 31, the second mobile body acquisition means 32, and the position estimation means 33.
  • the information processing device 3 grasps the position information of the infrastructure sensor 2.
  • the information processing device 3 may grasp the known position information of the infrastructure sensor 2 by holding the installation position file in which the position information of the infrastructure sensor 2 is described.
  • the information processing device 3 holds a known position of the infrastructure sensor 2 by holding information about its installation inside the infrastructure sensor 2 and transmitting the position information together with the observation information to the information processing device 3. You may grasp the information.
  • the mobile communication means 30 is a communication unit for communicating observation information and position information with the mobile device 1.
  • the mobile communication means 30 periodically receives the observation information generated by the autonomous sensor 11 from the mobile device 1, and transmits the position information estimated by the information processing device 3 to the mobile device 1.
  • the mobile communication means 30 may also send and receive information other than the above information. Further, the communication method of the mobile communication means 30 may be the same as that of the mobile communication means 10, for example.
  • the first mobile body acquisition means 31 is one or more first mobile bodies existing around the autonomous sensor 11 and thus around the mobile device 1 based on the observation information generated by the autonomous sensor 11 and received by the mobile communication means 30. Is a processing unit that detects the above and estimates the position of the first moving body relative to the moving device 1. Then, the first mobile body acquisition means 31 is a processing unit that generates position information representing the estimation result, that is, first position information regarding the positions of one or more first mobile bodies existing around the mobile device 1. ..
  • the first position information generated by the first moving body acquisition means 31 represents the relative positional relationship between the moving device 1 and the first moving body around the moving device 1.
  • the first position information may be expressed by, for example, a distance and a direction having the moving device 1 as the origin, or may be expressed by two-dimensional coordinates such that the moving device 1 is the origin.
  • a two-dimensional LRF is assumed as the autonomous sensor 11, and a set of observation points having information on the distance and angle with the moving device 1 as the origin is assumed as the observation information generated by the autonomous sensor 11.
  • the observation points are clustered based on the distance and angle of the observation points, and one or more clusters are generated.
  • the first moving body acquisition means 31 filters one or more clusters based on the number of observation points, the distance between the observation points, the distance from the two-dimensional LRF, and the like.
  • the clusters that are likely to accurately estimate the position of the first moving object are extracted from the clusters.
  • the first mobile acquisition means 31 calculates the position of each cluster based on the included observation points for each extracted cluster.
  • the calculated position may be the central position of the cluster or the region where the first moving body is presumed to exist.
  • the first mobile acquisition means 31 generates the first position information of the first mobile by setting the calculated position of one cluster as the position of one first mobile.
  • the second mobile body acquisition means 32 detects one or more second mobile bodies existing around the infrastructure sensor 2 based on the observation information generated by the infrastructure sensor 2, and the absolute of the second mobile body. It is a processing unit that estimates the position. Then, the second mobile body acquisition means 32 is a processing unit that generates second position information representing the estimation result, that is, second position information regarding the position of one or more second mobile bodies around the infrastructure sensor 2. ..
  • the second position information generated by the second mobile acquisition means 32 does not necessarily have to be absolute position information.
  • the second position information is converted into the absolute position information of the second mobile body by using the position information of the infrastructure sensor 2 such as the position information relative to the infrastructure sensor 2 of the second mobile body. Any location information that can be used is sufficient.
  • the method of estimating the second position information in the second mobile body acquisition means 32 may be the same as, for example, the first mobile body acquisition means 31.
  • the position estimating means 33 is based on the first position information estimated by the first moving body acquiring means 31 and the second position information estimated by the second moving body acquiring means 32, and the position of the first moving body. It is a processing unit that estimates and generates position information representing at least one of the position and orientation of the moving device 1 by superimposing the relationship and the positional relationship of the second moving body and performing a shielding determination. .. In the shielding determination referred to here, whether or not the first moving body is shielded by the second moving body with respect to the autonomous sensor 11, or the second moving body is shielded by the first moving body with respect to the infrastructure sensor 2. It is determined whether or not.
  • the position estimation means 33 shown in FIG. 3 includes a position candidate search unit 331 and a position collation identification unit 332. Further, the position estimation means 33 may include an estimation position calibration unit 333. Details of these will be described later, and an outline of these will be described here.
  • the position candidate search unit 331 is the position of the moving device 1 based on the first position information estimated by the first moving body acquiring means 31 and the second position information estimated by the second moving body acquiring means 32. Search for one or more candidates for information.
  • the position collation identification unit 332 When one or more candidates are searched by the position candidate search unit 331, the position collation identification unit 332 performs the shielding determination for each candidate searched by the position candidate search unit 331, and based on the result of the shielding determination. To identify a candidate from one or more candidates.
  • the estimation position calibration unit 333 when the position of any one of the second moving bodies represented by the second position information and the position represented by the position information of the moving device 1 specified by the position matching identification unit 332 correspond to each other. , The position information of the moving device 1 is calibrated using the position of the one second moving body.
  • the position candidate search unit 331 of the first moving body based on the first position information and the second position information, keeps the relative positional relationship between the first moving body and the second moving body as much as possible. By superimposing the positional relationship and the positional relationship of the second moving body, one or more candidates are searched for with respect to the position information of the moving device 1.
  • each position of the moving body group A is represented by a relative coordinate system with the moving device 1 as the origin, and each position of the moving body group X is represented by an absolute coordinate system. Is assumed.
  • the position candidate search unit 331 selects two or more first moving bodies and two or more second moving bodies from the moving body group A and the moving body group X, respectively, and each of them is one first moving body and one. Generates two or more pairs of one second mobile body.
  • the position candidate search unit 331 selects two first moving bodies A1 and A2 and two second moving bodies X1 and X2 from the moving body group A and the moving body group X, respectively. Then, the position candidate search unit 331 sets the set consisting of the first moving body A1 and the second moving body X1 as the set AX1, and the set consisting of the first moving body A2 and the second moving body X2 as the set AX2.
  • the position candidate search unit 331 rotates the moving body group A so that the distance DAX1 between the moving bodies of the set AX1, the distance DAX2 between the moving bodies of the set AX2, or the sum of these is minimized. And parallel movement operation.
  • the position candidate search unit 331 may determine the rotation operation amount and the translation operation amount by using the error least squares method or the like.
  • the number of candidates for position information of the moving device 1 may be two.
  • the position candidate search unit 331 calculates at least one of the position and the orientation of the moving device 1 in the absolute coordinate system based on the rotation operation amount and the translation operation amount with respect to the moving body group A.
  • the position candidate search unit 331 determines whether or not the distance DAX1, the distance DAX2, or the sum of these calculated above is within a preset threshold value. Then, when the position candidate search unit 331 determines that the distance DAX1, the distance DAX2, or the sum of these is within the threshold value, at least one of the above positions and directions is determined as a candidate for the position information of the moving device 1.
  • the position candidate search unit 331 obtains one or more candidates for the position information of the moving device 1 by performing the above processing a plurality of times by selecting the moving body or changing the set of the moving bodies. It is not necessary that a set is generated for all the first moving body and the second moving body, and there may be a first moving body and a second moving body for which a set is not generated.
  • the position candidate search unit 331 states that the mobile device 1 does not exist in the observation range of the infrastructure sensor 2 or cannot recognize the mobile device 1 when no candidate for the position information of the mobile device 1 is generated. You may judge.
  • the position candidate search unit 331 may store the position information of the mobile device 1 estimated last time, and use the position information estimated last time to generate a candidate for the position information estimated this time. .. Alternatively, the position candidate search unit 331 may use the position information generated by the moving device 1 to generate the candidate for the position information when the moving device 1 includes the self-position estimation means 12. In these cases, for example, a limit may be provided on the amount of movement of the rotation operation and the parallel movement operation.
  • the position candidate search unit 331 may store map information including the shape of a structure such as a building, and use the map information to generate a candidate for position information. For example, the position candidate search unit 331 determines the position information representing the position of the moving device 1 as the candidate when the position of the moving device 1 after the moving operation is not consistent with the position of the structure in the map information. It does not have to be.
  • the position matching identification unit 332 estimates the observation area of the autonomous sensor 11 in consideration of observation occlusion and the observation area of the infrastructure sensor 2 in consideration of observation occlusion, and determines the presence or absence of moving objects to be observed by each other's sensors. This is a processing unit that makes the above-mentioned shielding determination and identifies a candidate from one or more candidates based on the result of the shielding determination.
  • observation shielding means that a moving body close to one of the autonomous sensor 11 and the infrastructure sensor 2 shields a moving body far from one sensor, so that one sensor is far from one sensor. This is a phenomenon in which an object cannot be observed.
  • the observation area of the autonomous sensor 11 in consideration of observation shielding is an area of the observation range of the autonomous sensor 11 without observation shielding
  • the observation area of the infrastructure sensor 2 in consideration of observation shielding is the observation area of the infrastructure sensor 2. This is the area of the observation range where there is no observation obstruction.
  • the observation area in consideration of observation obstruction is a moving body whose position information has been acquired by one of the autonomous sensor 11 and the infrastructure sensor 2. This is an area that is not blocked by another moving object whose position information has been acquired by the sensor of.
  • the position collation identification unit 332 estimates the space from the position of one sensor to the position separated by the distance indicated by the observed value as an observation area in consideration of observation occlusion, based on the observation information of one sensor. May be good. Further, for example, the position collation identification unit 332 estimates the space from the position of one sensor to the position of the moving body detected by one sensor as an observation area in consideration of observation occlusion, based on the detection result of the moving body. You may.
  • the position matching identification unit 332 moves the position information acquired by the other sensor of the autonomous sensor 11 and the infrastructure sensor 2 to the observation area in consideration of the observation shielding of one of the autonomous sensor 11 and the infrastructure sensor 2. Determine if the body is present. For example, the position matching identification unit 332 determines whether the second moving body exists in the observation region of the autonomous sensor 11 in consideration of observation shielding based on the position of the moving body represented by the position information of a certain candidate, or the observation shielding is performed. It is determined whether or not the first mobile body exists in the observation area of the considered infrastructure sensor 2. The above-mentioned shielding determination is performed by the above determination.
  • the position matching identification unit 332 determines that the second mobile body exists in the observation area of the autonomous sensor 11 in the shielding determination for the position information of a certain candidate, or the observation area of the infrastructure sensor 2.
  • the candidate is specified from one or more candidates by excluding the candidate.
  • the position collation identification unit 332 can specify the position information of the mobile device 1 when two or more candidates remain as a result of such a candidate identification process or when no candidate remains. It may be determined that there was no such thing, that is, at least one of the position and the orientation could not be specified.
  • the shielding determination and the identification of the candidate in the position collation identification unit 332 will be described in detail later.
  • the second moving body is, for example, at least one of the moving device 1 and the moving body 4 in FIG. 1, and may be the moving device 1 itself.
  • the estimation position calibration unit 333 is a processing unit provided in view of this, and the position of any one of the second mobile bodies represented by the second position information corresponding to the observation result of the infrastructure sensor 2 is the position matching identification unit. It is a processing unit that calibrates the position information of the moving device 1 by using the position of the one second moving body when it is determined that it corresponds to the position represented by the position information of the moving device 1 specified in 332.
  • the estimation position calibration unit 333 is, for example, the distance between the position represented by the position information of the moving device 1 specified by the position matching identification unit 332 and the position of any one of the second moving bodies represented by the second position information. It may be determined that these positions correspond to each other when is equal to or less than a predetermined threshold value. Alternatively, the estimated position calibration unit 333 may, for example, acquire shape information from the mobile device 1 and make a determination by matching with the observation information generated by the infrastructure sensor 2.
  • FIG. 4 is a diagram showing a first moving object observed by the autonomous sensor 11 in the situation of FIG. 1, such as the first moving object 4A observed by the autonomous sensor 11, observation shielding, and out of the observation range of the sensor. Shows the first mobile body 4B, which is not observed by the autonomous sensor 11.
  • FIG. 5 is a diagram showing a second moving object observed by the infrastructure sensor 2 in the situation of FIG. 1, such as the second moving object 4X observed by the infrastructure sensor 2, observation shielding, and out of the observation range of the sensor. Shows the second moving body 4Y, which is not observed by the infrastructure sensor 2.
  • the first mobile acquisition means 31 estimates the first position information of one or more first mobiles based on the observation information generated by the autonomous sensor 11.
  • FIG. 6 shows the positions 4A1, 4A2, 4A3, 4A4 of the first moving body represented by the first position information estimated by the first moving body acquiring means 31 in the situation of FIG.
  • the second mobile acquisition means 32 estimates the second position information of one or more second mobiles based on the observation information generated by the infrastructure sensor 2.
  • FIG. 7 shows the positions 4X1, 4X2, 4X3, 4X4 of the second moving body represented by the second position information estimated by the second moving body acquiring means 32 in the situation of FIG.
  • the position candidate search unit 331 superimposes the positional relationship of FIG. 6 and the positional relationship of FIG. 7 to obtain one or more of the positional information of the moving device 1. Generate candidates.
  • FIGS. 8 and 9 are diagrams showing candidates for position information of the mobile device 1 generated by the position candidate search unit 331 in the situations of FIGS. 6 and 7.
  • Candidates for the position information of the two mobile devices 1 are generated for the situations of FIGS. 6 and 7.
  • the positions 4A1, 4A2, 4A3 of the first moving body correspond to the positions 4X2, 4X4, 4X3 of the second moving body, respectively.
  • the positions 4A1 and 4A3 of the first moving body correspond to the positions 4X1 and 4X2 of the second moving body, respectively, and the position of the moving device 1 corresponds to the position 4X4 of the second moving body. There is.
  • the position collation identification unit 332 estimates and generates the observation area of the autonomous sensor 11 in consideration of observation occlusion and the observation area of the infrastructure sensor 2 in consideration of observation occlusion. Identify the candidates from the candidates.
  • FIG. 10 shows the observation area 2Z of the infrastructure sensor 2 in consideration of observation occlusion, the position 4A4 of the unpaired first mobile body, the position 4X1 of the unpaired second mobile body, and the like for the candidates shown in FIG. It is a figure.
  • FIG. 11 shows the observation area 2Z of the infrastructure sensor 2 in consideration of observation occlusion, the position 4A2 of the unpaired first mobile body, the position 4X3 of the unpaired second mobile body, and the like for the candidates shown in FIG. It is a figure.
  • the position matching identification unit 332 includes the position of the infrastructure sensor 2, the distance indicated by the observed value of the infrastructure sensor 2, and the position 4X1, 4X2 of the second moving body detected by the infrastructure sensor 2. , 4X3, 4X4, and the observation area 2Z of the infrastructure sensor 2 in consideration of observation obstruction is estimated.
  • the observation area of the autonomous sensor 11 in consideration of observation occlusion is omitted in FIGS. 10 and 11 for simplification.
  • the first moving body having the uncorresponding position 4A4 in FIG. 10 is a moving body detected by the autonomous sensor 11 but not detected by the infrastructure sensor 2.
  • the first moving body having the uncorresponding position 4A2 in FIG. 11 is a moving body detected by the autonomous sensor 11 but not detected by the infrastructure sensor 2.
  • the position 4A4 of the first mobile body, which was not detected as the second mobile body by the infrastructure sensor 2 exists outside the observation area 2Z of the infrastructure sensor 2 in which the observation occlusion does not occur. Is compatible.
  • the position 4A2 of the first mobile body, which was not detected as the second mobile body by the infrastructure sensor 2 exists inside the observation area 2Z of the infrastructure sensor 2 in which the observation occlusion does not occur. Is incompatible and non-conforming.
  • the position collation identification unit 332 determines for each candidate whether or not the position of the first moving body exists outside the observation area 2Z of the infrastructure sensor 2 in consideration of observation occlusion. Similarly, although not shown, the position collation identification unit 332 determines for each candidate whether or not the position of the second moving body is outside the observation area of the autonomous sensor 11 in consideration of observation occlusion.
  • the position matching identification unit 332 determines that the position of the first moving body is outside the observation area 2Z of the infrastructure sensor 2 in consideration of observation shielding for a certain candidate, and the position of the second moving body is If it is determined that the candidate exists outside the observation area of the autonomous sensor 11 in consideration of observation obstruction, the candidate is regarded as conforming and the candidate is maintained. When the position matching identification unit 332 determines that the position of the first moving body exists inside the observation area 2Z of the infrastructure sensor 2 in consideration of observation shielding for a certain candidate, or the position of the second moving body. However, when it is determined that the candidate exists inside the observation area of the autonomous sensor 11 in consideration of observation obstruction, the candidate is considered to be incompatible and the candidate is excluded.
  • the position collation identification unit 332 maintains the candidate of FIG. 10 and excludes the candidate of FIG. As a result, since it is specified as one candidate, the position collation identification unit 332 outputs the candidate of FIG. 10 as the position information of the moving device 1.
  • FIG. 12 is an example of a flowchart showing the operation of each means of the information processing device 3.
  • step S1 the mobile communication means 30 is in a standby state for receiving observation information from the mobile device 1.
  • the mobile communication means 30 receives the observation information from the mobile device 1
  • the first mobile body acquisition means 31 estimates the first position information of the first mobile body based on the observation information.
  • the process shifts to step S2.
  • step S2 the second mobile body acquisition means 32 estimates the second position information of the second mobile body based on the observation information after receiving the observation information from the infrastructure sensor 2.
  • the process shifts to step S3.
  • the processes of steps S1 and S2 may be performed in the reverse order or may be performed in parallel.
  • step S3 the position candidate search unit 331 searches for one or more candidates regarding the position information of the mobile device 1 based on the first position information and the second position information estimated in steps S1 and S2, respectively.
  • the process shifts to step S4.
  • step S4 the position collation identification unit 332 determines whether or not one or more candidates have been searched by the position candidate search unit 331. If it is determined that one or more candidates have been searched, the process shifts to step S5, and if it is determined that no candidate has been searched, the process shifts to step S1.
  • step S5 the position collation identification unit 332 performs a shielding determination on one or more candidates searched in step S3, excludes candidates in which inconsistency has occurred, and identifies the candidates.
  • the process proceeds to step S6.
  • step S6 the position collation identification unit 332 determines whether or not one or more candidates are specified as one candidate in step S5. When it is determined that one or more candidates have been identified as one candidate, the process proceeds to step S7. On the other hand, if it is determined that two or more candidates remain, or if it is determined that no candidate remains, the process proceeds to step S1.
  • step S7 in the estimated position calibration unit 333, the position of any one of the second moving bodies represented by the second position information estimated in step S2 is the position represented by the position information of the moving device 1 specified in step S5.
  • the position information of the moving device 1 is calibrated using the position of the one second moving body.
  • the process shifts to step S8.
  • step S8 the mobile communication means 30 transmits the position information of the mobile device 1 after step S7 to the mobile device 1. When the transmission is completed, the process shifts to step S1.
  • the position information of the mobile device 1 is estimated by comparing the positional relationship between the first mobile body around the mobile device 1 and the second mobile body around the infrastructure sensor 2. .. According to such a configuration, the position information of the mobile device 1 can be estimated even when the infrastructure sensor 2 cannot directly observe the mobile device 1. This is particularly effective when the mobile device 1 travels in an environment where there are many moving objects such as people.
  • the position information of the mobile device 1 can be estimated as described above. Therefore, even if the mobile device 1 does not exist within the observation range of the infrastructure sensor 2, the position information of the mobile device 1 can be estimated if the mobile device 1 is close to the observation range of the infrastructure sensor 2 to some extent. Therefore, it is expected that the distance that the mobile device 1 can be observed by the infrastructure sensor 2 will be improved.
  • each mobile device 1 It is possible to distinguish and estimate the position information of.
  • each function or each component of the information processing device 3 described above may be distributed and installed in the mobile device 1 and the infrastructure sensor 2 for constructing the above system.
  • the first mobile acquisition means 31 and the second mobile acquisition means 32 provided in the information processing device 3 may be provided in the mobile device 1 and the infrastructure sensor 2, respectively.
  • the information processing device 3 may be configured to receive the first position information estimated by the mobile device 1 and the second position information estimated by the infrastructure sensor 2.
  • the infrastructure sensor 2 may include a mobile communication means for transmitting the position information and the observation information of the infrastructure sensor 2 to the information processing device 3 provided in the mobile device 1.
  • FIG. 13 is a conceptual diagram showing an example of the system configuration according to the second embodiment.
  • the components that are the same as or similar to the above components will be designated by the same or similar reference numerals, and different components will be mainly described.
  • a mobile device 1b and information different from the mobile device 1 are used.
  • a processing device 3b is provided.
  • FIG. 14 is a block diagram showing the configuration and function of the mobile device 1.
  • the target to which the mobile device 1b is applied is a robot or the like as in the mobile device 1 according to the first embodiment.
  • the number of moving devices 1b may be one or a plurality.
  • the mobile device 1b of FIG. 14 includes a mobile communication means 10b, an autonomous sensor 11b, and a self-position estimation means 12b.
  • the other configuration of the mobile device 1b may be the same as that of the mobile device 1, only a part of the means of the mobile device 1 may be mounted, or a means different from the mobile device 1 may be added. ..
  • the mobile communication means 10b is a communication unit for transmitting the observation information generated by the autonomous sensor 11b and the position information estimated by the self-position estimation means 12b to the information processing device 3.
  • the mobile communication means 10b may also transmit information other than the above information to the information processing device 3b, or may receive some information from the information processing device 3b. Further, the communication method of the mobile communication means 10b may be the same as that of the mobile communication means 10 of FIG. 2, for example.
  • the autonomous sensor 11b is a sensor similar to the autonomous sensor 11 in FIG. 2, and is mounted on the mobile device 1b. By observing a moving body around the mobile device 1b and thus around the autonomous sensor 11b, the result is output as observation information. It is a sensor that does.
  • the autonomous sensor 11b corresponds to a second sensor in the information processing device 3b.
  • the mobile body observed by the autonomous sensor 11b is, for example, at least one of the mobile device 1 and one or more mobile bodies 4 in FIG.
  • the autonomous sensor 11b includes a sensor used for self-position estimation of the self-position estimation means 12b, and such a sensor includes the sensor exemplified in the autonomous sensor 11 of the first embodiment.
  • the self-position estimation means 12b is the same processing unit as the self-position estimation means 12 of FIG.
  • the self-position estimation means 12b generates the position information of the mobile device 1b by estimating the self-position of the mobile device 1b based on the observation information generated by the autonomous sensor 11b.
  • the position information generated by the self-position estimation means 12b may include accuracy information related to the estimation of the position information.
  • the accuracy information is an index showing the accuracy of estimation of position information, and may be, for example, a quantitative value obtained by calculating an estimation error such as an error range or an error direction, or an estimation method such as dead reckoning or SLAM. It may be a qualitative value due to the above, or both may be included.
  • the accuracy of the position information indicated by the accuracy information may be referred to as position accuracy.
  • FIG. 15 is a block diagram showing the configuration and functions of the information processing device 3b.
  • the mobile communication means 30b and the second mobile body acquisition means 32b are provided in place of the mobile communication means 30 and the second mobile body acquisition means 32 of the information processing device 3 of FIG. , Reference position utilization determination means 34 has been added.
  • the reference position utilization determining means 34 is the second position information estimated by the second moving body acquisition means 32b based on the position information of the moving device 1b, that is, one or more around the moving device 1b. It is determined whether or not the position information of the second moving body is used by the position estimation means 33b.
  • the second moving body is, for example, at least one of the moving device 1 and the moving body 4 in FIG.
  • the mobile communication means 30b is a communication unit that receives observation information from the mobile device 1 and transmits position information to the mobile device 1, similarly to the mobile communication means 30 of FIG. Further, the mobile communication means 30b is a communication unit that receives observation information and position information from the mobile device 1b. The mobile communication means 30b may also send and receive information other than the above information. Further, the communication method of the mobile communication means 30b may be the same as that of the mobile communication means 30 of FIG. 3, for example.
  • the second mobile body acquisition means 32b is one or more existing around the autonomous sensor 11b and thus around the mobile device 1b based on the position information estimated by the mobile device 1b and the observation information observed by the mobile device 1b.
  • This is a processing unit that detects the second moving body of the above and estimates the absolute position of the second moving body.
  • the second moving body acquisition means 32 is a processing unit that generates second position information representing the estimation result, that is, second position information regarding the position of one or more second moving bodies around the moving device 1b. ..
  • the second position information generated by the second mobile body acquisition means 32b does not necessarily have to be absolute position information as in the second mobile body acquisition means 32 of FIG. 3, and the position of the mobile device 1b. Any position information that can be converted into absolute position information of the second moving body by using the information is sufficient. Further, the method of estimating the second position information in the second mobile body acquisition means 32b may be the same as, for example, the first mobile body acquisition means 31.
  • the reference position utilization determining means 34 uses the position estimating means 33 to obtain the second position information of the second moving body acquisition means 32b based on the position information of the moving device 1b estimated by the self-position estimating means 12b of the moving device 1b. This is a processing unit that determines whether or not to use it for estimating the position information of the mobile device 1.
  • the reference position utilization determination means 34 determines the position of the mobile device 1b as the reference of the position information of the mobile device 1 based on the accuracy information. It may be determined whether or not it is a point. As a second example, when the reference position utilization determination means 34 can acquire the rough position information of the moving device 1, the position of the moving device 1b is set to the reference point of the position information of the moving device 1 based on the position information. It may be determined whether or not.
  • the reference position utilization determining means 34 determines the amount of position error based on the accuracy information, or determines the position error amount based on the accuracy information, in order to limit the position information of the moving device 1b used for the position estimation to the highly accurate position information. Judgment of the estimation method based on the accuracy information, etc.
  • the reference position utilization determination means 34 uses the second position estimated by the second moving body acquisition means 32b only when the position accuracy of the moving device 1b obtained in the determination result satisfies the preset position accuracy. It is determined that the information will be used by the position estimation means 33.
  • the reference position utilization determining means 34 is estimated by the second moving body acquiring means 32b when the position accuracy of the moving device 1b obtained in the above determination result does not satisfy the preset position accuracy. 2 It is determined that the position information is not used by the position estimation means 33.
  • the position estimation means 33 follows the determination result of the reference position utilization determination means 34.
  • the reference position utilization determination means 34 performs a distance determination based on the position information in order to limit the position information of the moving device 1b used for the position estimation to the position information indicating the vicinity of the moving device 1. ..
  • the reference position utilization determining means 34 obtains the second position information estimated by the second moving body acquisition means 32b only when it is determined that the moving device 1b and the moving device 1 exist within the preset range. It is determined that the position estimation means 33 will be used. On the other hand, when the reference position utilization determining means 34 determines that the moving device 1b and the moving device 1 do not exist within the preset range, the second position information estimated by the second moving body acquisition means 32b. Is determined not to be used by the position estimation means 33. The position estimation means 33 follows the determination result of the reference position utilization determination means 34.
  • the reference position utilization determining means 34 uses the second moving body acquisition means 32b when the position information of the moving device 1b does not include the accuracy information or when the rough position information of the moving device 1 cannot be acquired. It may always be determined that the estimated second position information is used by the position estimation means 33.
  • the position information of the mobile device 1 is estimated with reference to the mobile device 1b whose position information is known. Therefore, even in the area where the infrastructure sensor 2 according to the first embodiment is not installed or the area where the infrastructure sensor 2 cannot be observed, the position information of the mobile device 1 is obtained based on the position information of the other mobile device 1b. Can be estimated.
  • the position estimation means 33 uses the second position information estimated based on the observation information of the autonomous sensor 11b of the moving device 1b when the position accuracy of the moving device 1b is poor, for example, by the reference position utilization determining means 34. Therefore, the information processing device 3b can estimate the accurate position information of the mobile device 1.
  • the first mobile body acquisition means 31 and the second mobile body in the information processing device 3 of FIG. 3 or the information processing device 3b of FIG. 15 The acquisition means 32 or the second mobile body acquisition means 32b may be shared by one processing unit.
  • each means of the information processing device 3 or the information processing device 3b described in the embodiment may be a calculation process of the information processing method for estimating the position information of the mobile device 1.
  • each means of the information processing device 3 or the information processing device 3b described in the embodiment is realized as a function on the computer for estimating the position information of the mobile device 1 by executing the program by the computer. May be good.
  • the configuration of the information processing device 3 or the information processing device 3b described in the embodiment may be changed as long as the gist of the present invention is not deviated.
  • the information processing device 3 or the information processing device 3b may be included in the mobile device 1, or may be realized by a plurality of other devices.
  • each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted.
  • 1,1b mobile device 2 infrastructure sensor, 3 information processing device, 4A, 4B first mobile body, 4X, 4Y second mobile body, 11 autonomous sensor, 31 first mobile body acquisition means, 32 second mobile body acquisition means , 33 Position estimation means, 34 Reference position utilization determination means, 331 Position candidate search unit, 332 Position matching identification unit, 333 Estimated position calibration unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本発明は、環境に設置されたセンサが移動装置を観測できなくても移動装置の位置情報を推定可能な技術を提供することを目的とする。本発明の情報処理装置(3)は、第1移動体取得手段(31)によって取得される、第1センサ(自律センサ11)周辺に存在する1つ以上の第1移動体の位置情報である第1位置情報と、第2移動体取得手段(32)によって取得される、第2センサ(インフラセンサ2)周辺に存在する1つ以上の第2移動体の位置情報である第2位置情報と、に基づいて、第1移動体と第2移動体との位置関係を比較して移動装置(1)の位置情報を推定する。

Description

情報処理装置、情報処理方法、及び、情報処理プログラム
 本発明は、移動装置の位置情報を推定するための情報処理装置、情報処理方法、及び、情報処理プログラムに関する。
 ロボットやモビリティなどの移動装置をある地点から別の地点に移動させるためには、移動装置の現在位置をリアルタイムに推定する必要がある。そこで、移動装置の現在位置を推定する技術が提案されている。例えば、特許文献1には、移動装置に搭載されたセンサに基づいて推定される移動装置の位置情報の時系列と、環境に設置されたセンサに基づいて推定される移動装置の位置情報の時系列とから、移動装置の軌跡を照合することで、移動装置の位置をリアルタイムに推定する技術が提案されている。
特開2012-115918号公報
 しかしながら、特許文献1に記載の技術では、移動装置以外の移動体や障害物が多い場合のように、環境に設置されたセンサから移動装置を観測できなくなる場合には、移動装置の位置を正しく推定できなくなるという問題がある。
 そこで、本発明は、上記のような問題点を鑑みてなされたものであり、環境に設置されたセンサが移動装置を観測できなくても移動装置の位置情報を推定可能な技術を提供することを目的とする。
 本発明に係る情報処理装置は、移動装置の位置情報を推定する情報処理装置であって、前記移動装置に搭載された第1センサによって生成される観測情報に基づいて、前記移動装置と前記第1センサ周辺に存在する1つ以上の第1移動体との相対的な位置情報である第1位置情報を取得する第1移動体取得手段と、前記移動装置の外部に設けられた第2センサによって生成される観測情報に基づいて、前記第2センサ周辺に存在する1つ以上の第2移動体の位置情報である第2位置情報を取得する第2移動体取得手段と、前記第1移動体取得手段によって取得される前記第1位置情報と、前記第2移動体取得手段によって取得される前記第2位置情報と、に基づいて、前記第1移動体と前記第2移動体との位置関係を比較して前記移動装置の位置情報を推定する位置推定手段とを備える。
 本発明によれば、第1移動体取得手段によって取得される第1位置情報と、第2移動体取得手段によって取得される第2位置情報と、に基づいて、第1移動体と第2移動体との位置関係を比較して移動装置の位置情報を推定する。このような構成によれば、環境に設置されたセンサが移動装置を観測できなくても移動装置の位置情報を推定することができる。
 本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係るシステム構成の一例を示す概念図である。 実施の形態1に係る移動装置の構成及び機能を示すブロック図である。 実施の形態1に係る情報処理装置の構成及び機能を示すブロック図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作例を説明するための図である。 実施の形態1に係る情報処理装置の動作を示すフローチャートである。 実施の形態2に係るシステム構成の一例を示す概念図である。 実施の形態2に係る移動装置の構成及び機能を示すブロック図である。 実施の形態2に係る情報処理装置の構成及び機能を示すブロック図である。
 <実施の形態1>
 以下に、本発明の実施の形態1について、図を用いて説明する。図1は本実施の形態1に係るシステム構成の一例を示す概念図である。
 本実施の形態1に係るシステムは、位置情報が推定される対象である移動装置1、移動装置1を含む移動体を観測するインフラセンサ2、移動装置1及びインフラセンサ2から観測情報を取得して移動装置1の位置情報を推定する情報処理装置3、を備える。また、図1には、移動装置1以外の移動体4と、移動装置1及び移動体4が移動する空間5とが図示されており、移動体4の一例である人の頭部及び肩などが図示されている。
 ここで、位置情報は、移動装置1、インフラセンサ2、移動体4などの地物が存在する場所を表す情報である。位置情報は、空間5内の場所を一意に表す絶対的な情報であってもよいし、例えば地物間の位置関係を表す相対的な位置情報であってもよい。
 また、位置情報の表現形式は、質点のような地点で表現してもよいし、範囲を持った領域で表現してもよい。加えて、位置情報の表現形式は、例えば、緯度経度形式でもよいし、ある地点を原点とした直交座標形式でもよいし、ある地点を原点とした極座標形式でもよい。さらに、位置情報は、方向を表す情報を含んでもよい。方向を表す情報は、例えば、北向きを基準とした方位角でもよい。
 観測情報は、移動装置1に搭載された自律センサ11(図2)、及び、インフラセンサ2、などのセンサによって生成され、センサ周辺に存在する移動体の位置情報を推定するための情報である。ここでいう移動体には、移動体4だけが含まれる場合もあれば、移動装置1及び移動体4が含まれる場合もある。
 観測情報は、例えば、センサがステレオカメラであれば2枚の視差画像であってもよいし、センサがLRF(Laser Range Finder)であれば距離及び方位の情報を持つ点の集合であってもよいし、センサがToF(Time of Flight)カメラであれば距離を持つ画素の集合であってもよい。また、観測情報は、センサと、センサ周辺に存在する移動体との間の距離が推定できる情報を含んでいればよく、それ以外の情報を含んでいてもよい。さらに、観測情報は、センサによって取得される生値でもよいし、生値に対して何らかの処理を行った後の処理値でもよい。
 <移動装置1>
 本実施の形態1に係る移動装置1の構成について、図2を用いて説明する。図2は、移動装置1の構成及び機能を示すブロック図である。
 移動装置1は、空間5を移動する装置であり、移動装置1の位置情報は情報処理装置3によって推定される。移動装置1は、例えば、ロボット、モビリティ、電動車椅子、電動台車、自動運転車両、などである。なお、移動装置1の数は、1つでもよいし、複数でもよい。
 図2の移動装置1は、情報処理装置3と通信を行うための移動通信手段10、移動装置1周辺を観測することで、観測情報を生成する自律センサ11、を備える。
 また、移動装置1が自律的な移動を行うことができるように、上記に加えて、自己位置推定手段12、経路計画手段13、移動制御手段14、を備えてもよい。これらの詳細は後述し、ここではこれらの概要について説明する。自己位置推定手段12は、自律センサ11を用いて移動装置1の位置を推定し、当該位置を表す位置情報を生成する。経路計画手段13は、目的地への経路を計算し、当該経路を表す経路情報を生成する。移動制御手段14は、位置情報と経路情報とに基づいて目的地まで移動装置1を移動させる移動制御を行う。
 次に、移動装置1の構成要素について詳細に説明する。
 移動通信手段10は、自律センサ11によって生成される観測情報と、情報処理装置3によって推定される位置情報とを、情報処理装置3と通信するための通信部である。移動通信手段10は、自律センサ11によって生成される観測情報を、定期的に情報処理装置3に送信し、かつ、情報処理装置3によって推定される位置情報を、情報処理装置3から受信する。
 また、移動通信手段10は、上記情報以外の情報も送受信してもよい。例えば、移動通信手段10は、自己位置推定手段12によって推定される位置情報を情報処理装置3に送信してもよいし、経路計画手段13によって計画される経路情報を情報処理装置3に送信してもよい。
 また、移動通信手段10の通信方法は、移動装置1が移動中に情報処理装置3と情報の交換ができる通信方法であればよい。例えば、当該通信方法は、無線LAN(Local Area Network)やBluetooth(登録商標)のような狭域的な電波通信であってもよいし、LTE(Long Term Evolution)やWiMAX(World Interoperability For Microwave Access)のような広域的な電波通信であってもよいし、可視光通信標準方式のような光通信であってもよいし、音波による通信であってもよい。
 自律センサ11は、移動装置1に搭載され、移動装置1周辺ひいては自律センサ11周辺の移動体を観測することで、その結果を観測情報として出力するセンサである。この自律センサ11は、情報処理装置3における第1センサに相当する。自律センサ11で観測される移動体は、例えば図1の1つ以上の移動体4である。自律センサ11は、例えば、ステレオカメラであってもよいし、LRF(Laser Range Finder)であってもよいし、ToF(Time of Flight)カメラであってもよい。また、自律センサ11は、移動装置1に対して、1つだけ搭載されてもよいし、複数搭載されてもよい。
 さらに、自律センサ11は、移動装置1周辺の移動体の位置推定に用いるセンサだけでなく、自己位置推定手段12や移動制御手段14に用いるセンサを含んでもよい。自己位置推定手段12や移動制御手段14に用いるセンサは、例えば、ホイールエンコーダ、ジャイロセンサ、障害物ソナー、などであってもよい。
 自己位置推定手段12は、移動通信手段10によって情報処理装置3から位置情報を受信できない場合に、自律センサ11によって生成される観測情報、または、移動装置1が走行する領域の地図情報などを用いて、移動装置1単独で移動装置1の現在位置や方位をリアルタイムに推定する処理部である。自己位置推定手段12の位置推定方法は、例えば、ホイールエンコーダやジャイロを用いたデッドレコニング、LRFや地図情報を用いたSLAM(Self Localization And Mapping)などであってもよい。
 経路計画手段13は、自己位置推定手段12によって推定される位置情報と、移動装置1が走行する領域の地図情報とに基づいて、位置情報が表す現在位置から目的地までの経路を計算し、当該経路を表す経路情報を生成する処理部である。
 移動制御手段14は、移動装置1の現在位置を表す位置情報と経路情報とに基づいて、移動装置1を障害物から回避させながら現在位置から目的地まで移動させるために、例えば、移動装置1が備えるバッテリー、モータ及び車輪などを制御する駆動制御部である。例えば、移動制御手段14は、自律センサ11で検出した障害物を移動装置1が回避するように、位置情報及び経路情報に基づいて移動装置1が移動すべき移動量及び移動方向を計算する。そして、移動制御手段14は、計算された移動量及び移動方向に基づいて、移動装置1のモータの回転を制御することによって、移動装置1を障害物から回避させる。
 <インフラセンサ2>
 本実施の形態1に係るインフラセンサ2について、図1を用いて説明する。
 インフラセンサ2は、移動装置1の外部に設けられる。インフラセンサ2は、例えば、移動装置1の外部の建物、設備などのインフラストラクチャーとして固定され、インフラセンサ2周辺に存在する移動体を観測することで、その結果を観測情報として出力するセンサである。このインフラセンサ2は、情報処理装置3における第2センサに相当する。インフラセンサ2で観測される移動体は、例えば図1の移動装置1及び1つ以上の移動体4の少なくともいずれかである。
 インフラセンサ2は、定期的に観測情報を情報処理装置3に送信する。インフラセンサ2の構成要素は、例えば、自律センサ11と同様でもよい。また、インフラセンサ2は、空間5に対して、1つだけ設置されてもよいし、複数設置されてもよい。加えて、インフラセンサ2は、情報処理装置3と有線で接続されていてもよいし、無線で接続されていてもよい。
 さらに、インフラセンサ2は、移動体を観測できる位置に設置されればよく、例えば、天井、壁、もしくは、柱、などに設置されてもよい。また、インフラセンサ2のセンシング範囲が、空間5の全範囲となるように、または、空間5のうち移動装置1の位置情報を推定したい部分の範囲となるように、インフラセンサ2は設置されてもよい。
 <情報処理装置3>
 本実施の形態1に係る情報処理装置3の構成について、図3を用いて説明する。図3は、情報処理装置3の構成及び機能を示すブロック図である。
 情報処理装置3は、移動通信手段30、第1移動体取得手段31、第2移動体取得手段32、位置推定手段33、を備える。これらの詳細は後述し、ここではこれらの概要について説明する。
 移動通信手段30は、移動装置1と通信を行い、移動装置1に搭載された自律センサ11によって生成される観測情報を受信する。
 第1移動体取得手段31は、移動通信手段30で受信された観測情報、つまり移動装置1に搭載された自律センサ11によって生成される観測情報に基づいて、移動装置1と自律センサ11周辺に存在する1つ以上の第1移動体との相対的な位置情報である第1位置情報を推定して取得する。ここでいう第1移動体は、例えば図1の1つ以上の移動体4である。
 第2移動体取得手段32は、移動装置1の外部に設けられたインフラセンサ2によって生成される観測情報に基づいて、インフラセンサ2周辺に存在する1つ以上の第2移動体の位置情報である第2位置情報を推定して取得する。ここでいう第2移動体は、例えば図1の移動装置1及び移動体4の少なくともいずれかである。第2位置情報は、第2移動体の絶対的な位置情報であってもよいし、インフラセンサ2と第2移動体との相対的な位置情報であってもよい。
 位置推定手段33は、第1移動体取得手段31によって推定される第1位置情報と、第2移動体取得手段32によって推定される第2位置情報と、に基づいて、第1移動体と第2移動体との位置関係とを比較して移動装置1の位置情報を推定する。
 なお、情報処理装置3は、各手段をプログラムとして記憶する記憶装置、各手段を実行するためのCPU(Central Processing Unit)、CPUによって計算される結果や、CPUによって実行されるプログラムを一時的に保持するメモリ、移動装置1やインフラセンサ2と通信を行うためのインタフェース、を備える計算機である。メモリに保持されるプログラムには、第1移動体取得手段31、第2移動体取得手段32及び位置推定手段33などの機能を情報処理装置3に実行させるプログラムが含まれる。
 また、情報処理装置3は、インフラセンサ2の位置情報を把握する。例えば、情報処理装置3がインフラセンサ2の位置情報を記した設置位置ファイルを保持することによって、情報処理装置3はインフラセンサ2の既知の位置情報を把握してもよい。または、インフラセンサ2の内部にその設置に関する情報を保持しておき、インフラセンサ2が観測情報と共に位置情報を情報処理装置3に送信することによって、情報処理装置3はインフラセンサ2の既知の位置情報を把握してもよい。
 次に、情報処理装置3の構成要素について詳細に説明する。
 移動通信手段30は、観測情報、位置情報を移動装置1と通信するための通信部である。移動通信手段30は、自律センサ11によって生成される観測情報を、移動装置1から定期的に受信し、かつ、情報処理装置3によって推定される位置情報を、移動装置1に送信する。なお、移動通信手段30は、上記情報以外の情報も送受信してもよい。さらに、移動通信手段30の通信方法は、例えば、移動通信手段10と同様でもよい。
 第1移動体取得手段31は、自律センサ11によって生成され、移動通信手段30によって受信される観測情報に基づいて、自律センサ11周辺ひいては移動装置1周辺に存在する1つ以上の第1移動体を検出し、当該第1移動体の移動装置1に対する相対的な位置を推定する処理部である。そして、第1移動体取得手段31は、その推定結果を表す位置情報、つまり、移動装置1周辺に存在する1つ以上の第1移動体の位置に関する第1位置情報を生成する処理部である。
 第1移動体取得手段31によって生成される第1位置情報は、移動装置1と移動装置1周辺の第1移動体との相対的な位置関係を表す。第1位置情報は、例えば、移動装置1を原点とするような距離と方位で表現してもよいし、移動装置1を原点とするような二次元座標で表現してもよい。
 次に、第1移動体取得手段31における第1位置情報の生成方法の一例について説明する。本例では、自律センサ11として、2次元LRFを想定し、自律センサ11によって生成される観測情報として、移動装置1を原点とする距離及び角度の情報を持つ観測点の集合を想定する。
 まず、第1移動体取得手段31は、自律センサ11によって観測される観測情報を受信すると、観測点の距離及び角度に基づいて観測点のクラスタリングを行い、1つ以上のクラスタを生成する。
 次に、第1移動体取得手段31は、各クラスタについて、観測点の数、観測点の連なりの距離、2次元LRFからの距離などに基づいて、クラスタのフィルタリングを行うことで、1つ以上のクラスタの中から、第1移動体の位置を正確に推定できそうなクラスタを抽出する。
 次に、第1移動体取得手段31は、抽出した各クラスタについて、含まれる観測点に基づいて、各クラスタの位置を計算する。計算される位置は、クラスタの中心位置でもよいし、第1移動体が存在すると推定される領域でもよい。
 最後に、第1移動体取得手段31は、計算された1つのクラスタの位置を、1つの第1移動体の位置として設定することにより、第1移動体の第1位置情報を生成する。
 第2移動体取得手段32は、インフラセンサ2によって生成される観測情報に基づいて、インフラセンサ2周辺に存在する1つ以上の第2移動体を検出し、当該第2移動体の絶対的な位置を推定する処理部である。そして、第2移動体取得手段32は、その推定結果を表す第2位置情報、つまり、インフラセンサ2周辺の1つ以上の第2移動体の位置に関する第2位置情報を生成する処理部である。
 なお、第2移動体取得手段32によって生成される第2位置情報は、必ずしも絶対的な位置情報である必要はない。例えば、第2位置情報は、第2移動体のインフラセンサ2に対する相対的な位置情報などのように、インフラセンサ2の位置情報を用いることで、第2移動体の絶対的な位置情報に変換できる位置情報であればよい。また、第2移動体取得手段32における第2位置情報の推定方法は、例えば、第1移動体取得手段31と同じでもよい。
 位置推定手段33は、第1移動体取得手段31によって推定される第1位置情報と、第2移動体取得手段32によって推定される第2位置情報と、に基づいて、第1移動体の位置関係と第2移動体の位置関係との重ね合わせを行い、かつ、遮蔽判定を行うことによって、移動装置1の位置及び方位の少なくともいずれかを表す位置情報を推定して生成する処理部である。ここでいう遮蔽判定では、自律センサ11に対して第1移動体が第2移動体によって遮蔽されるか否か、または、インフラセンサ2に対して第2移動体が第1移動体によって遮蔽されるか否かが判定される。
 図3に示される位置推定手段33は、位置候補探索部331、位置照合特定部332、を備える。また、位置推定手段33は、推定位置校正部333を備えてもよい。これらの詳細は後述し、ここではこれらの概要について説明する。
 位置候補探索部331は、第1移動体取得手段31によって推定される第1位置情報と、第2移動体取得手段32によって推定される第2位置情報と、に基づいて、移動装置1の位置情報に関して1つ以上の候補を探索する。
 位置照合特定部332は、位置候補探索部331で1つ以上の候補が探索された場合に、上記遮蔽判定を、位置候補探索部331で探索された候補ごとに行い、遮蔽判定の結果に基づいて、1つ以上の候補の中から候補を特定する。
 推定位置校正部333は、第2位置情報が表すいずれか1つの第2移動体の位置と、位置照合特定部332で特定される移動装置1の位置情報が表す位置とが互いに対応する場合に、当該1つの第2移動体の位置を用いて移動装置1の位置情報を校正する。
 次に、位置推定手段33の構成要素について詳細に説明する。
 位置候補探索部331は、第1位置情報及び第2位置情報に基づいて、第1移動体及び第2移動体のそれぞれの相対的な位置関係を可及的に保ちつつ、第1移動体の位置関係及び第2移動体の位置関係の重ね合わせを行うことによって、移動装置1の位置情報に関して1つ以上の候補を探索する。
 以下、位置候補探索部331における候補の探索処理の一例について説明する。本例では、1つ以上の第1移動体を移動体群Aとし、1つ以上の第2移動体を移動体群Xとする。さらに、本例では、移動体群Aのそれぞれの位置は移動装置1を原点とする相対的な座標系で表現され、移動体群Xのそれぞれの位置は絶対的な座標系で表現される場合を想定する。
 まず、位置候補探索部331は、移動体群A及び移動体群Xからそれぞれ2つ以上の第1移動体及び2つ以上の第2移動体を選択し、それぞれが1つの第1移動体及び1つの第2移動体からなる、2つ以上の組を生成する。本例では、位置候補探索部331は、移動体群A及び移動体群Xから、2つの第1移動体A1,A2及び2つの第2移動体X1,X2をそれぞれ選択するものとする。そして、位置候補探索部331は、第1移動体A1と第2移動体X1とからなる組を組AX1、第1移動体A2と第2移動体X2とからなる組を組AX2とする。
 次に、位置候補探索部331は、組AX1の移動体間の距離DAX1、組AX2の移動体間の距離DAX2、またはこれらの和が最小となるように、移動体群Aに対して回転操作及び並行移動操作を行う。例えば、位置候補探索部331は、誤差最小二乗法などを用いて、回転操作量及び並行移動操作量を決定してもよい。なお、2つの移動体の組を用いる場合、移動装置1の位置情報の候補の数は2つであってもよい。
 この時、位置候補探索部331は、移動体群Aに対する回転操作量及び平行移動操作量に基づいて、移動装置1の絶対座標系における位置及び方位の少なくともいずれかを計算する。
 次に、位置候補探索部331は、上記で計算した距離DAX1、距離DAX2、またはこれらの和が、予め設定される閾値以内であるか否かを判定する。そして、位置候補探索部331は、距離DAX1、距離DAX2、またはこれらの和が閾値以内と判定した場合に、上記位置及び方位の少なくともいずれかを移動装置1の位置情報の候補として決定する。
 最終的に、位置候補探索部331は、移動体の選択や移動体の組を変えて、上記処理を複数回実施することで、移動装置1の位置情報に関して1つ以上の候補を得る。なお、すべての第1移動体及び第2移動体について組が生成される必要はなく、組が生成されない第1移動体及び第2移動体が存在してもよい。
 なお、位置候補探索部331は、移動装置1の位置情報の候補が1つも生成されない場合には、インフラセンサ2の観測範囲に移動装置1が存在しない、または、移動装置1を認識できなかったと判定してもよい。
 また、位置候補探索部331は、前回推定された移動装置1の位置情報を記憶しておき、当該前回推定された位置情報を、今回推定される位置情報の候補の生成に利用してもよい。または、位置候補探索部331は、移動装置1が自己位置推定手段12を備える場合は移動装置1によって生成される位置情報を、位置情報の候補の生成に利用してもよい。これらの場合において、例えば、回転操作及び並行移動操作の移動量に対して制限が設けられてもよい。
 さらに、位置候補探索部331は、建物等の構造物の形状を含む地図情報を記憶しておき、当該地図情報を、位置情報の候補の生成に利用してもよい。例えば、位置候補探索部331は、移動装置1の移動操作後の位置が地図情報の構造物の位置と整合がとれない場合に、当該移動装置1の位置を表す位置情報を上記候補として決定しなくてもよい。
 位置照合特定部332は、観測遮蔽を考慮した自律センサ11の観測領域、及び、観測遮蔽を考慮したインフラセンサ2の観測領域を推定し、互いのセンサで観測されるべき移動体の有無を判定することによって上記遮蔽判定を行い、その遮蔽判定の結果に基づいて1つ以上の候補の中から候補を特定する処理部である。
 ここで、観測遮蔽とは、自律センサ11及びインフラセンサ2のうちの一方のセンサに近い移動体が、一方のセンサから遠い移動体を遮蔽することで、一方のセンサが、一方のセンサから遠い物体を観測できなくなる現象である。また、観測遮蔽を考慮した自律センサ11の観測領域とは、自律センサ11の観測範囲のうち観測遮蔽がない領域であり、観測遮蔽を考慮したインフラセンサ2の観測領域とは、インフラセンサ2の観測範囲のうち観測遮蔽がない領域である。
 以上のことを換言すれば、観測遮蔽を考慮した観測領域とは、自律センサ11及びインフラセンサ2のうちの一方のセンサに対して、一方のセンサで位置情報が取得された移動体が、一方のセンサで位置情報が取得された別の移動体によって遮蔽されない領域である。例えば、位置照合特定部332は、一方のセンサの観測情報に基づいて、一方のセンサの位置から観測値が示す距離だけ離れた位置までの空間を、観測遮蔽を考慮した観測領域として推定してもよい。また例えば、位置照合特定部332は、移動体の検出結果に基づいて、一方のセンサの位置から一方のセンサで検出された移動体の位置までの空間を、観測遮蔽を考慮した観測領域として推定してもよい。
 位置照合特定部332は、自律センサ11及びインフラセンサ2のうち一方のセンサの観測遮蔽を考慮した観測領域に、自律センサ11及びインフラセンサ2のうちの他方のセンサで位置情報が取得された移動体が存在するか否かを判定する。例えば、位置照合特定部332は、ある候補の位置情報が表す移動体の位置に基づいて、観測遮蔽を考慮した自律センサ11の観測領域に第2移動体が存在するか、または、観測遮蔽を考慮したインフラセンサ2の観測領域に第1移動体が存在するかを判定する。以上のような判定によって上述した遮蔽判定が行われる。
 本実施の形態1では、位置照合特定部332は、ある候補の位置情報に対する遮蔽判定において、自律センサ11の観測領域に第2移動体が存在すると判定した場合、または、インフラセンサ2の観測領域に第1移動体が存在すると判定した場合に、当該候補を排除することによって、1つ以上の候補の中から候補を特定する。なお、位置照合特定部332は、このような候補特定処理の結果として、2つ以上の候補が残った場合、または、1つも候補が残らなかった場合に、移動装置1の位置情報を特定できなかった、つまり、位置及び方位の少なくともいずれかを特定できなかったと判定してもよい。位置照合特定部332における遮蔽判定及び候補の特定については後で詳細に説明する。
 ところで上述したように、第2移動体は、例えば図1の移動装置1及び移動体4の少なくともいずれかであり、移動装置1そのものである場合がある。推定位置校正部333は、このことに鑑みて設けられる処理部であり、インフラセンサ2の観測結果に対応する第2位置情報が表すいずれか1つの第2移動体の位置が、位置照合特定部332で特定された移動装置1の位置情報が表す位置と対応すると判定した場合に、当該1つの第2移動体の位置を用いて移動装置1の位置情報を校正する処理部である。
 推定位置校正部333は、例えば、位置照合特定部332で特定された移動装置1の位置情報が表す位置と、第2位置情報が表すいずれか1つの第2移動体の位置との間の距離が予め定められる閾値以下である場合に、これらの位置が対応すると判定してもよい。または、推定位置校正部333は、例えば、移動装置1から形状情報を取得して、インフラセンサ2によって生成される観測情報とマッチングで判定してもよい。
 次に、位置候補探索部331及び位置照合特定部332の動作例について、図1及び図4~図9を用いて説明する。
 図4は、図1の状況において、自律センサ11によって観測される第1移動体を示した図であり、自律センサ11によって観測される第1移動体4A、観測遮蔽やセンサの観測範囲外などで自律センサ11によって観測されない第1移動体4B、を示している。
 図5は、図1の状況において、インフラセンサ2によって観測される第2移動体を示した図であり、インフラセンサ2によって観測される第2移動体4X、観測遮蔽やセンサの観測範囲外などでインフラセンサ2によって観測されない第2移動体4Y、を示している。
 まず、第1移動体取得手段31は、自律センサ11によって生成される観測情報に基づいて1つ以上の第1移動体の第1位置情報を推定する。図6は、図4の状況において、第1移動体取得手段31によって推定される第1位置情報が表す第1移動体の位置4A1,4A2,4A3,4A4を示している。
 同様に、第2移動体取得手段32は、インフラセンサ2によって生成される観測情報に基づいて1つ以上の第2移動体の第2位置情報を推定する。図7は、図5の状況において、第2移動体取得手段32によって推定される第2位置情報が表す第2移動体の位置4X1,4X2,4X3,4X4を示している。
 次に、位置候補探索部331は、図6及び図7の状況において、図6の位置関係と図7の位置関係との重ね合わせを行うことによって、移動装置1の位置情報に関して1つ以上の候補を生成する。
 図8及び図9のそれぞれは、図6及び図7の状況において、位置候補探索部331によって生成される移動装置1の位置情報の候補を示した図である。図6及び図7の状況に対して、2つの移動装置1の位置情報の候補が生成されている。
 図8に示される候補では、第1移動体の位置4A1,4A2,4A3がそれぞれ、第2移動体の位置4X2,4X4,4X3に対応している。図9に示される候補では、第1移動体の位置4A1,4A3がそれぞれ、第2移動体の位置4X1、4X2に対応し、移動装置1の位置が第2移動体の位置4X4に対応している。
 位置候補探索部331によって候補が生成された後、位置照合特定部332は、観測遮蔽を考慮した自律センサ11の観測領域と、観測遮蔽を考慮したインフラセンサ2の観測領域とを推定し、生成された候補の中から候補を特定する。
 図10は、図8に示した候補について、観測遮蔽を考慮したインフラセンサ2の観測領域2Z、対応のない第1移動体の位置4A4、対応のない第2移動体の位置4X1などを示した図である。図11は、図9に示した候補について、観測遮蔽を考慮したインフラセンサ2の観測領域2Z、対応のない第1移動体の位置4A2、対応のない第2移動体の位置4X3などを示した図である。
 図10及び図11の例では、位置照合特定部332は、インフラセンサ2の位置と、インフラセンサ2の観測値が示す距離と、インフラセンサ2で検出された第2移動体の位置4X1,4X2,4X3,4X4とに基づいて、観測遮蔽を考慮したインフラセンサ2の観測領域2Zを推定している。なお、観測遮蔽を考慮した自律センサ11の観測領域は、簡略化のため、図10及び図11では省略されている。
 以下、図10及び図11の候補に対する位置照合特定部332の遮蔽判定について説明する。図10において対応のない位置4A4を有する第1移動体は、自律センサ11によって検出されたが、インフラセンサ2によって検出されなかった移動体である。同様に、図11において対応のない位置4A2を有する第1移動体は、自律センサ11によって検出されたが、インフラセンサ2によって検出されなかった移動体である。
 さて、図10のように、インフラセンサ2で第2移動体として検出されなかった第1移動体の位置4A4が、観測遮蔽が生じていないインフラセンサ2の観測領域2Zの外側に存在することには適合性がある。しかしながら、図11のように、インフラセンサ2で第2移動体として検出されなかった第1移動体の位置4A2が、観測遮蔽が生じていないインフラセンサ2の観測領域2Zの内側に存在することには適合性がなく、不適合である。
 以上のことに鑑みて、位置照合特定部332は、第1移動体の位置が、観測遮蔽を考慮したインフラセンサ2の観測領域2Zの外側に存在するか否かを候補ごとに判定する。図示しないが同様に、位置照合特定部332は、第2移動体の位置が、観測遮蔽を考慮した自律センサ11の観測領域の外側に存在するか否かを候補ごとに判定する。
 位置照合特定部332は、ある候補に対して、第1移動体の位置が、観測遮蔽を考慮したインフラセンサ2の観測領域2Zの外側に存在すると判定し、かつ、第2移動体の位置が、観測遮蔽を考慮した自律センサ11の観測領域の外側に存在すると判定した場合には、当該候補は適合であるとして当該候補を維持する。位置照合特定部332は、ある候補に対して、第1移動体の位置が、観測遮蔽を考慮したインフラセンサ2の観測領域2Zの内側に存在すると判定した場合、または、第2移動体の位置が、観測遮蔽を考慮した自律センサ11の観測領域の内側に存在すると判定した場合には、当該候補は不適合であるとして当該候補を排除する。
 図10及び図11の候補の例の場合、位置照合特定部332は、図10の候補を維持し、図11の候補を排除する。この結果、1つの候補に特定されるので、位置照合特定部332は、図10の候補を移動装置1の位置情報として出力する。
 <動作>
 本実施の形態1に係る情報処理装置3の動作について、図12を用いて説明する。図12は、情報処理装置3の各手段の動作を示したフローチャートの一例である。
 まず、ステップS1において、移動通信手段30は、移動装置1からの観測情報を受信する待機状態となっている。移動通信手段30が移動装置1から観測情報を受信した後、第1移動体取得手段31は、当該観測情報に基づいて第1移動体の第1位置情報を推定する。推定を終えると、ステップS2に処理が移行する。
 ステップS2において、第2移動体取得手段32は、インフラセンサ2から観測情報を受信した後、当該観測情報に基づいて第2移動体の第2位置情報を推定する。推定を終えると、ステップS3に処理が移行する。なお、ステップS1及びステップS2の処理は、逆の順序で実施されてもよいし、並行して実施されてもよい。
 ステップS3において、位置候補探索部331は、ステップS1及びステップS2でそれぞれ推定された第1位置情報及び第2位置情報に基づいて、移動装置1の位置情報に関して1つ以上の候補を探索する。探索を終えると、ステップS4に処理が移行する。
 ステップS4において、位置照合特定部332は、位置候補探索部331で1つ以上の候補が探索されたか否かを判定する。1つ以上の候補が探索されたと判定された場合にはステップS5に処理が移行し、1つ候補も探索されなかったと判定された場合にはステップS1に処理が移行する。
 ステップS5において、位置照合特定部332は、ステップS3で探索された1つ以上の候補について遮蔽判定を行い、不整合が生じている候補を排除して候補を特定する。特定を終えると、ステップS6に処理が移行する。
 ステップS6において、位置照合特定部332は、ステップS5で1つ以上の候補が1つの候補に特定されたか否かを判定する。1つ以上の候補が1つの候補に特定されたと判定された場合にはステップS7に処理が移行する。一方、2つ以上の候補が残ったと判定された場合、または、1つも候補が残らなかったと判定された場合には、ステップS1に処理が移行する。
 ステップS7において、推定位置校正部333は、ステップS2で推定された第2位置情報が表すいずれか1つの第2移動体の位置が、ステップS5で特定された移動装置1の位置情報が表す位置と対応すると判定した場合に、当該1つの第2移動体の位置を用いて移動装置1の位置情報を校正する。校正を終えると、ステップS8に処理が移行する。
 ステップS8において、移動通信手段30は、ステップS7後の移動装置1の位置情報を移動装置1に送信する。送信を終えると、ステップS1に処理が移行する。
 <実施の形態1のまとめ>
 以上のように、本実施の形態1によれば、移動装置1周辺の第1移動体とインフラセンサ2周辺の第2移動体との位置関係を比較して移動装置1の位置情報を推定する。このような構成によれば、インフラセンサ2が移動装置1を直接観測できない場合でも、移動装置1の位置情報を推定することができる。このことは、特に、人などの移動体が多い環境を移動装置1が走行する場合に有効である。
 また、インフラセンサ2が移動装置1を直接観測できない場合でも、以上のように移動装置1の位置情報を推定できる。このため、インフラセンサ2の観測範囲内に移動装置1が存在しない場合でも、移動装置1がインフラセンサ2の観測範囲にある程度近ければ、移動装置1の位置情報を推定することが可能である。このため、インフラセンサ2によって移動装置1を観測できる距離の向上化が期待できる。
 さらに、複数の移動装置1が、移動装置1の自律センサ11で生成される観測情報に基づいて推定される移動体の位置を用いて同様の動作を行っている場合でも、各々の移動装置1の位置情報を区別して推定することが可能である。
 なお、以上で説明した情報処理装置3の各機能あるいは各構成要素は、上記システムを構築する移動装置1及びインフラセンサ2に分散して設置されてもよい。例えば、以上の説明において情報処理装置3に備えられた第1移動体取得手段31及び第2移動体取得手段32は、移動装置1及びインフラセンサ2にそれぞれ備えられてもよい。そしてこの場合に、情報処理装置3は、移動装置1で推定される第1位置情報及びインフラセンサ2で推定される第2位置情報を受信するように構成されてもよい。
 また、インフラセンサ2が移動装置1の外部に設けられているのであれば、情報処理装置3は、必ずしも移動装置1の外部に設置する必要はなく、移動装置1に備えられてもよい。この場合、インフラセンサ2は、インフラセンサ2の位置情報及び観測情報を、移動装置1に備えられた情報処理装置3に送信する移動通信手段を備えてもよい。
 <実施の形態2>
 以下に、本発明の実施の形態2について、図を用いて説明する。図13は本実施の形態2に係るシステム構成の一例を示す概念図である。以下、本実施の形態2に係る構成要素のうち、上記構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。
 本実施の形態2に係る図13のシステム構成では、実施の形態1に係る図1のシステム構成のインフラセンサ2及び情報処理装置3に代えて、移動装置1とは別の移動装置1b及び情報処理装置3bが設けられている。
 <移動装置1b>
 本実施の形態2に係る移動装置1bの構成について、図14を用いて説明する。図14は、移動装置1の構成及び機能を示すブロック図である。
 移動装置1bが適用される対象は、実施の形態1に係る移動装置1と同様にロボットなどである。移動装置1bの数は1つでもよいし、複数でもよい。
 図14の移動装置1bは、移動通信手段10b、自律センサ11b、自己位置推定手段12b、を備える。なお、移動装置1bのその他の構成は、移動装置1と同じでもよいし、移動装置1の一部の手段だけを搭載してもよいし、移動装置1と別の手段を追加してもよい。
 移動通信手段10bは、自律センサ11bによって生成される観測情報と、自己位置推定手段12bによって推定される位置情報とを、情報処理装置3に送信するための通信部である。なお、移動通信手段10bは、上記情報以外の情報も情報処理装置3bに送信してもよいし、情報処理装置3bから何らかの情報を受信してもよい。また、移動通信手段10bの通信方法は、例えば、図2の移動通信手段10と同様でもよい。
 自律センサ11bは、図2の自律センサ11と同様のセンサであり、移動装置1bに搭載され、移動装置1b周辺ひいては自律センサ11b周辺の移動体を観測することで、その結果を観測情報として出力するセンサである。この自律センサ11bは、情報処理装置3bにおける第2センサに相当する。自律センサ11bで観測される移動体は、例えば図13の移動装置1及び1つ以上の移動体4の少なくともいずれかである。なお、自律センサ11bは、自己位置推定手段12bの自己位置推定に利用されるセンサを含み、そのようなセンサは、実施の形態1の自律センサ11で例示したセンサなどを含む。
 自己位置推定手段12bは、図2の自己位置推定手段12と同様の処理部である。自己位置推定手段12bは、自律センサ11bによって生成される観測情報に基づいて、移動装置1bの自己位置を推定することで、移動装置1bの位置情報を生成する。
 なお、自己位置推定手段12bによって生成される位置情報は、当該位置情報の推定に関する精度情報を含んでいてもよい。精度情報は、位置情報の推定の正確性を表す指標であり、例えば、誤差範囲、誤差方向などの推定誤差を計算した定量的な値であってもよいし、デッドレコニング、SLAMなどの推定方法に起因した定性的な値であってもよいし、その両方を含んでいてもよい。なお、以下の説明では、精度情報が示す位置情報の精度を位置精度と記すこともある。
 <情報処理装置3b>
 本実施の形態2に係る情報処理装置3bの構成について、図15を用いて説明する。図15は、情報処理装置3bの構成及び機能を示すブロック図である。
 図15の情報処理装置3bでは、図3の情報処理装置3の移動通信手段30及び第2移動体取得手段32に代えて、移動通信手段30b及び第2移動体取得手段32bが設けられ、かつ、基準位置利用判定手段34を追加されている。詳細は後述するが、基準位置利用判定手段34は、移動装置1bの位置情報に基づいて、第2移動体取得手段32bで推定される第2位置情報、つまり移動装置1b周辺の1つ以上の第2移動体の位置情報を、位置推定手段33bで利用するか否かを判定する。第2移動体は、例えば図13の移動装置1及び移動体4の少なくともいずれかである。
 次に、情報処理装置3bの構成要素について詳細に説明する。
 移動通信手段30bは、図3の移動通信手段30と同様に、移動装置1から観測情報を受信し、移動装置1に位置情報を送信する通信部である。また、移動通信手段30bは、移動装置1bから観測情報と位置情報を受信する通信部である。なお、移動通信手段30bは、上記情報以外の情報も送受信してもよい。さらに、移動通信手段30bの通信方法は、例えば、図3の移動通信手段30と同様でもよい。
 第2移動体取得手段32bは、移動装置1bによって推定される位置情報と、移動装置1bによって観測される観測情報と、に基づいて、自律センサ11b周辺ひいては移動装置1b周辺に存在する1つ以上の第2移動体を検出し、当該第2移動体の絶対的な位置を推定する処理部である。そして、第2移動体取得手段32は、その推定結果を表す第2位置情報、つまり、移動装置1b周辺の1つ以上の第2移動体の位置に関する第2位置情報を生成する処理部である。
 なお、第2移動体取得手段32bによって生成される第2位置情報は、図3の第2移動体取得手段32と同様に、必ずしも絶対的な位置情報である必要はなく、移動装置1bの位置情報を用いることで、第2移動体の絶対的な位置情報に変換できる位置情報であればよい。さらに、第2移動体取得手段32bにおける第2位置情報の推定方法は、例えば、第1移動体取得手段31と同じでもよい。
 基準位置利用判定手段34は、移動装置1bの自己位置推定手段12bによって推定される移動装置1bの位置情報に基づいて、第2移動体取得手段32bの第2位置情報を、位置推定手段33による移動装置1の位置情報の推定に利用するか否かを判定する処理部である。
 第1例として、移動装置1bの位置情報に精度情報が含まれる場合は、基準位置利用判定手段34は、当該精度情報に基づいて、移動装置1bの位置を、移動装置1の位置情報の基準点とするか否かを判定してもよい。第2例として、基準位置利用判定手段34は、移動装置1の大まかな位置情報を取得できる場合は、当該位置情報に基づいて、移動装置1bの位置を、移動装置1の位置情報の基準点とするか否かを判定してもよい。
 以下、移動装置1bの位置情報に精度情報が含まれる第1例について説明する。この第1例では、基準位置利用判定手段34は、位置推定に利用する移動装置1bの位置情報を、精度が高い位置情報に限定するために、精度情報に基づく位置誤差量の判定、または、精度情報に基づく推定方法の判定、などを行う。
 そして、基準位置利用判定手段34は、当該判定結果で得られた移動装置1bの位置精度が、予め設定された位置精度を満たす場合のみ、第2移動体取得手段32bによって推定される第2位置情報を、位置推定手段33で利用すると判定する。一方、基準位置利用判定手段34は、上記判定結果で得られた移動装置1bの位置精度が、予め設定された位置精度を満たさない場合には、第2移動体取得手段32bによって推定される第2位置情報を、位置推定手段33で利用しないと判定する。位置推定手段33は、基準位置利用判定手段34の判定結果に従う。
 次に、基準位置利用判定手段34が、移動装置1の大まかな位置情報を取得できる第2例について説明する。第2例では、基準位置利用判定手段34は、位置推定に利用する移動装置1bの位置情報を、移動装置1の付近を示す位置情報に限定するために、位置情報に基づく距離判定などを行う。
 そして、基準位置利用判定手段34は、移動装置1b及び移動装置1が、予め設定された範囲内に存在すると判定した場合のみ、第2移動体取得手段32bによって推定される第2位置情報を、位置推定手段33で利用すると判定する。一方、基準位置利用判定手段34は、移動装置1b及び移動装置1が、予め設定された範囲内に存在しないと判定した場合には、第2移動体取得手段32bによって推定される第2位置情報を、位置推定手段33で利用しないと判定する。位置推定手段33は、基準位置利用判定手段34の判定結果に従う。
 なお、基準位置利用判定手段34は、移動装置1bの位置情報に精度情報が含まれない場合、及び、移動装置1の大まかな位置情報を取得できない場合には、第2移動体取得手段32bによって推定される第2位置情報を、位置推定手段33で利用すると常に判定してもよい。
 <実施の形態2のまとめ>
 以上のように、本実施の形態2によれば、位置情報が既知である移動装置1bを基準として、移動装置1の位置情報を推定する。このため、実施の形態1に係るインフラセンサ2が設置されていない領域、または、インフラセンサ2が観測できない領域においても、他の移動装置1bの位置情報に基づいて、移動装置1の位置情報を推定できる。
 また、基準位置利用判定手段34によって、例えば移動装置1bの位置精度が悪い場合に、移動装置1bの自律センサ11bの観測情報に基づいて推定される第2位置情報が位置推定手段33で利用されなくなるため、情報処理装置3bは、移動装置1の正確な位置情報を推定できる。
 なお、第1センサと第2センサとが同一のセンサである場合には、図3の情報処理装置3または図15の情報処理装置3bにおける、第1移動体取得手段31と、第2移動体取得手段32または第2移動体取得手段32bとを、一つの処理部に共通化させてもよい。
 また、実施の形態で説明した情報処理装置3または情報処理装置3bの各手段は、移動装置1の位置情報を推定するための、情報処理方法の計算過程であってもよい。
 また、実施の形態で説明した情報処理装置3または情報処理装置3bの各手段は、計算機がプログラムを実行することによって、移動装置1の位置情報を推定するための計算機上の機能として実現されてもよい。
 また、実施の形態で説明した情報処理装置3または情報処理装置3bは、本発明の要旨を逸脱しない範囲において、構成を変更してもよい。例えば、情報処理装置3または情報処理装置3bが移動装置1に内包されていてもよいし、複数の別の装置で実現されてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
 1,1b 移動装置、 2 インフラセンサ、 3 情報処理装置、4A,4B 第1移動体、4X,4Y 第2移動体、11 自律センサ、31 第1移動体取得手段、32 第2移動体取得手段、33 位置推定手段、34 基準位置利用判定手段、331 位置候補探索部、332 位置照合特定部、333 推定位置校正部。

Claims (9)

  1.  移動装置の位置情報を推定する情報処理装置であって、
     前記移動装置に搭載された第1センサによって生成される観測情報に基づいて、前記移動装置と前記第1センサ周辺に存在する1つ以上の第1移動体との相対的な位置情報である第1位置情報を取得する第1移動体取得手段と、
     前記移動装置の外部に設けられた第2センサによって生成される観測情報に基づいて、前記第2センサ周辺に存在する1つ以上の第2移動体の位置情報である第2位置情報を取得する第2移動体取得手段と、
     前記第1移動体取得手段によって取得される前記第1位置情報と、前記第2移動体取得手段によって取得される前記第2位置情報と、に基づいて、前記第1移動体と前記第2移動体との位置関係を比較して前記移動装置の位置情報を推定する位置推定手段と
    を備える、情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記位置推定手段は、
     前記第1移動体取得手段によって取得される前記第1位置情報と、前記第2移動体取得手段によって取得される前記第2位置情報と、に基づいて、前記第1移動体の位置関係と前記第2移動体の位置関係との重ね合わせを行い、かつ、前記第1センサに対して前記第1移動体が前記第2移動体によって遮蔽されるか否か、または、前記第2センサに対して前記第2移動体が前記第1移動体によって遮蔽されるか否かを判定する遮蔽判定を行うことによって、前記移動装置の位置情報を推定する、情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記位置推定手段は、
     前記第1移動体取得手段によって取得される前記第1位置情報と、前記第2移動体取得手段によって取得される前記第2位置情報と、に基づいて、前記移動装置の位置情報に関して1つ以上の候補を探索する位置候補探索部と、
     前記位置候補探索部で1つ以上の候補が探索された場合に、前記第1センサに対して前記第1移動体が前記第2移動体によって遮蔽されるか否か、または、前記第2センサに対して前記第2移動体が前記第1移動体によって遮蔽されるか否かを判定する遮蔽判定を、前記位置候補探索部で探索された候補ごとに行い、前記遮蔽判定の結果に基づいて前記1つ以上の候補の中から候補を特定する位置照合特定部と
    を含む、情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記位置候補探索部は、
     前記第1移動体の位置関係と前記第2移動体の位置関係との重ね合わせを行うことによって、前記移動装置の位置情報に関して1つ以上の候補を探索する、情報処理装置。
  5.  請求項3または請求項4に記載の情報処理装置であって、
     前記位置照合特定部は、
     前記第1センサ及び前記第2センサのうちの一方のセンサに対して、前記一方のセンサで位置情報が取得された移動体が、前記一方のセンサで位置情報が取得された別の移動体によって遮蔽されない領域に、前記第1センサ及び前記第2センサのうちの他方のセンサで位置情報が取得された移動体が存在するか否かを判定することによって前記遮蔽判定を行う、情報処理装置。
  6.  請求項3から請求項5のうちのいずれか1項に記載の情報処理装置であって、
     前記位置推定手段は、
     前記第2位置情報が表すいずれか1つの前記第2移動体の位置と、前記位置照合特定部で特定される前記移動装置の位置情報が表す位置とが互いに対応する場合に、当該1つの第2移動体の位置を用いて前記移動装置の位置情報を校正する推定位置校正部をさらに含む、情報処理装置。
  7.  請求項1から請求項6のうちのいずれか1項に記載の情報処理装置であって、
     前記第2センサは別の移動装置に搭載され、
     前記別の移動装置の位置情報に基づいて、前記第2移動体取得手段で取得される前記第2位置情報を前記位置推定手段で利用するか否かを判定する基準位置利用判定手段をさらに備える、情報処理装置。
  8.  移動装置の位置情報を推定する情報処理方法であって、
     前記移動装置に搭載された第1センサによって生成される観測情報に基づいて、前記移動装置と前記第1センサ周辺に存在する1つ以上の第1移動体との相対的な位置情報である第1位置情報を取得し、
     前記移動装置の外部に設けられた第2センサによって生成される観測情報に基づいて、前記第2センサ周辺に存在する1つ以上の第2移動体の位置情報である第2位置情報を取得し、
     取得される前記第1位置情報と、取得される前記第2位置情報と、に基づいて、前記第1移動体と前記第2移動体との位置関係を比較して前記移動装置の位置情報を推定する、情報処理方法。
  9.  移動装置の位置情報を推定するための情報処理プログラムであって、
     前記移動装置に搭載された第1センサによって生成される観測情報に基づいて、前記移動装置と前記第1センサ周辺に存在する1つ以上の第1移動体との相対的な位置情報である第1位置情報を取得すること、
     前記移動装置の外部に設けられた第2センサによって生成される観測情報に基づいて、前記第2センサ周辺に存在する1つ以上の第2移動体の位置情報である第2位置情報を取得すること、
     取得される前記第1位置情報と、取得される前記第2位置情報と、に基づいて、前記第1移動体と前記第2移動体との位置関係を比較して前記移動装置の位置情報を推定すること
    を情報処理装置に実行させる、情報処理プログラム。
PCT/JP2019/019550 2019-05-16 2019-05-16 情報処理装置、情報処理方法、及び、情報処理プログラム WO2020230325A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021519235A JP7062138B2 (ja) 2019-05-16 2019-05-16 情報処理装置、情報処理方法、及び、情報処理プログラム
CN201980096290.5A CN113841068A (zh) 2019-05-16 2019-05-16 信息处理装置、信息处理方法及信息处理程序
US17/439,416 US20220155448A1 (en) 2019-05-16 2019-05-16 Information processing device, information processing method, and storage medium
PCT/JP2019/019550 WO2020230325A1 (ja) 2019-05-16 2019-05-16 情報処理装置、情報処理方法、及び、情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/019550 WO2020230325A1 (ja) 2019-05-16 2019-05-16 情報処理装置、情報処理方法、及び、情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2020230325A1 true WO2020230325A1 (ja) 2020-11-19

Family

ID=73290284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/019550 WO2020230325A1 (ja) 2019-05-16 2019-05-16 情報処理装置、情報処理方法、及び、情報処理プログラム

Country Status (4)

Country Link
US (1) US20220155448A1 (ja)
JP (1) JP7062138B2 (ja)
CN (1) CN113841068A (ja)
WO (1) WO2020230325A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7347373B2 (ja) * 2020-08-27 2023-09-20 トヨタ自動車株式会社 インフラセンサ装置の位置較正方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675518A (en) * 1995-05-11 1997-10-07 Hitachi, Ltd. Inter-vehicle distance measuring apparatus and method for automotive
JP2001216596A (ja) * 2000-01-31 2001-08-10 Mitsubishi Electric Corp 路上検出装置及び自動車両
JP2012037980A (ja) * 2010-08-04 2012-02-23 Toyota Central R&D Labs Inc 移動物予測装置及びプログラム
JP2016109650A (ja) * 2014-12-10 2016-06-20 株式会社デンソー 位置推定装置、位置推定方法、位置推定プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4798168B2 (ja) * 2008-04-23 2011-10-19 トヨタ自動車株式会社 相対位置検知装置、及び相対位置検知システム
JP5276931B2 (ja) * 2008-09-05 2013-08-28 株式会社日立産機システム 移動体および移動体の位置推定誤り状態からの復帰方法
JPWO2011068184A1 (ja) * 2009-12-03 2013-04-18 独立行政法人産業技術総合研究所 移動体の測位装置
JP2011209203A (ja) * 2010-03-30 2011-10-20 Sony Corp 自己位置推定装置および自己位置推定方法
JP6136435B2 (ja) * 2013-03-25 2017-05-31 村田機械株式会社 自律移動装置
JP5897517B2 (ja) * 2013-08-21 2016-03-30 シャープ株式会社 自律移動体
JP2016080460A (ja) * 2014-10-15 2016-05-16 シャープ株式会社 移動体
JP6619927B2 (ja) * 2014-10-24 2019-12-11 株式会社日立製作所 キャリブレーション装置
JP6667065B2 (ja) * 2015-03-04 2020-03-18 パナソニックIpマネジメント株式会社 位置推定装置および位置推定方法
JP6692129B2 (ja) 2015-07-10 2020-05-13 ルネサスエレクトロニクス株式会社 半導体装置
WO2017057041A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
CN108474653B (zh) * 2016-01-20 2020-03-20 三菱电机株式会社 三维计测装置及其计测辅助处理方法
JP6799444B2 (ja) * 2016-04-01 2020-12-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自律移動体システム
JP6194520B1 (ja) * 2016-06-24 2017-09-13 三菱電機株式会社 物体認識装置、物体認識方法および自動運転システム
JP6642368B2 (ja) * 2016-10-06 2020-02-05 株式会社デンソー 位置推定システム、および位置補正装置
KR102149502B1 (ko) * 2016-12-23 2020-09-01 한국전자기술연구원 발광 장치의 전원을 이용한 복수의 지상 이동체의 위치 인식 시스템
WO2018143242A1 (ja) * 2017-01-31 2018-08-09 パイオニア株式会社 情報出力装置、情報処理装置、経路探索装置、情報出力方法、情報処理方法、経路探索方法及びプログラム
JP6882664B2 (ja) * 2017-02-07 2021-06-02 富士通株式会社 移動***置推定システム、移動***置推定端末装置、情報格納装置、及び移動***置推定方法
US10569768B2 (en) * 2017-02-22 2020-02-25 Panasonic Intellectual Property Corporation Of America Information processing apparatus, information processing method, and non-transitory recording medium
JP7074438B2 (ja) * 2017-09-05 2022-05-24 トヨタ自動車株式会社 自車位置推定装置
CN109643127B (zh) * 2018-11-19 2022-05-03 深圳阿科伯特机器人有限公司 构建地图、定位、导航、控制方法及***、移动机器人
US20220206103A1 (en) * 2019-05-13 2022-06-30 Nec Corporation Location estimation system, location estimation method, program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675518A (en) * 1995-05-11 1997-10-07 Hitachi, Ltd. Inter-vehicle distance measuring apparatus and method for automotive
JP2001216596A (ja) * 2000-01-31 2001-08-10 Mitsubishi Electric Corp 路上検出装置及び自動車両
JP2012037980A (ja) * 2010-08-04 2012-02-23 Toyota Central R&D Labs Inc 移動物予測装置及びプログラム
JP2016109650A (ja) * 2014-12-10 2016-06-20 株式会社デンソー 位置推定装置、位置推定方法、位置推定プログラム

Also Published As

Publication number Publication date
CN113841068A (zh) 2021-12-24
JP7062138B2 (ja) 2022-05-02
JPWO2020230325A1 (ja) 2021-11-18
US20220155448A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
US10203695B2 (en) Autonomous vehicle re-tasking during performance of a programmed task based on detection of a task interruption scenario
CN106339001B (zh) 地图生成方法、移动机器人以及地图生成***
JP6462146B2 (ja) 移動体移動システム及び移動経路選択方法
JP5927735B2 (ja) 地図データ作成装置、自律移動システムおよび自律移動制御装置
KR101663650B1 (ko) 거리 신호를 이용하여 위치를 인식하는 장치 및 방법
KR100779510B1 (ko) 정찰 로봇 및 정찰 로봇 운행 제어시스템
US11163308B2 (en) Method for creating a digital map for an automated vehicle
KR20140003987A (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
JP6891753B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
Wang et al. Master-followed multiple robots cooperation SLAM adapted to search and rescue environment
JP6541026B2 (ja) 状態データ更新装置と方法
JP7062138B2 (ja) 情報処理装置、情報処理方法、及び、情報処理プログラム
JP2018109611A (ja) ナビゲーションシステム及びその使用方法
US20230175860A1 (en) Multi-agent map generation
WO2021049227A1 (ja) 情報処理システム、情報処理装置及び情報処理プログラム
WO2021177887A1 (en) Machine learning based system, methods, and control arrangement for positioning of an agent
Won et al. A three-dimensional localisation algorithm for underwater acoustic sensor networks
JP7147406B2 (ja) 位置測定システムおよびプログラム
Nasir et al. Aerial robot localization using ground robot tracking–towards cooperative slam
Arturo et al. Cooperative simultaneous localisation and mapping using independent rao–blackwellised filters
Neto et al. A Dual Antenna Approach for Range-only SLAM
Wicaksono et al. GO-SLAM: GPS-aided Visual SLAM for Adaptive UAV Navigation in Outdoor-Indoor Environments
JP2021136577A (ja) 通信ポイント決定装置、通信ポイント決定方法およびプログラム、並びに点検システム
Zou et al. Indoor Vehicle Navigation by Cricket Location System with Position Estimation
JP2024015640A (ja) 複数移動ロボットの制御方法、プログラム、および複数移動ロボット制御システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19928480

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021519235

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19928480

Country of ref document: EP

Kind code of ref document: A1