JP2022049335A - Position estimating system, position estimating device, position estimating method, and position estimating program - Google Patents

Position estimating system, position estimating device, position estimating method, and position estimating program Download PDF

Info

Publication number
JP2022049335A
JP2022049335A JP2020155486A JP2020155486A JP2022049335A JP 2022049335 A JP2022049335 A JP 2022049335A JP 2020155486 A JP2020155486 A JP 2020155486A JP 2020155486 A JP2020155486 A JP 2020155486A JP 2022049335 A JP2022049335 A JP 2022049335A
Authority
JP
Japan
Prior art keywords
movable
bird
moving
eye view
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020155486A
Other languages
Japanese (ja)
Other versions
JP7406210B2 (en
Inventor
章志 望月
Shoji Mochizuki
昌幸 津田
Masayuki Tsuda
雅人 水上
Masahito Mizukami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Muroran Institute of Technology NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Muroran Institute of Technology NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Muroran Institute of Technology NUC, Nippon Telegraph and Telephone Corp filed Critical Muroran Institute of Technology NUC
Priority to JP2020155486A priority Critical patent/JP7406210B2/en
Publication of JP2022049335A publication Critical patent/JP2022049335A/en
Application granted granted Critical
Publication of JP7406210B2 publication Critical patent/JP7406210B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a position estimating system capable of highly accurately estimating a position of a mobile body in a simple method, a position estimating device, a position estimating method, and a position estimating program.SOLUTION: A position estimating system comprises: fixed markers 4a to 4d installed in four positions near a movable region R1 set on a two-dimensional plane; a movable marker 3 installed in a movable carriage D1 moving in the movable region R1; and a camera 2 installed outside the movable region R1 and for capturing a bird's-eye view image viewing the movable region R1 obliquely from above. In addition, the position estimating system comprises a position estimating unit which estimates a position of the movable carriage D1 in the movable region R1 on the basis of positions of the fixed markers 4a to 4d in the bird's-eye view image, a position of the movable marker 3, and positions of the fixed markers 4a to 4d in the movable region R1.SELECTED DRAWING: Figure 2

Description

本発明は、位置推定システム、位置推定装置、位置推定方法、及び位置推定プログラムに関する。 The present invention relates to a position estimation system, a position estimation device, a position estimation method, and a position estimation program.

インフラ構造物を点検するために、自走式の台車に計測機器を搭載し、遠隔操作で台車を移動させて各種の点検を実施することが行われている。自走式の台車を移動させて点検を行う際において、点検箇所が狭隘な空間である場合にはその場で大きく旋回することができないといった制約がある。そこで、任意の方向に移動可能な全方向移動台車が開発されている。 In order to inspect infrastructure structures, measuring devices are mounted on self-propelled trolleys, and the trolleys are moved by remote control to carry out various inspections. When performing inspections by moving a self-propelled trolley, there is a restriction that if the inspection location is a narrow space, it is not possible to make a large turn on the spot. Therefore, an omnidirectional moving trolley that can move in any direction has been developed.

全方位移動台車に搭載された計測機器による測定データは、測定地点の位置情報に対応させて分析し管理する。このため、全方位移動台車の位置情報を高精度に求める必要がある。このような移動体の位置を推定する方法として、非特許文献1、2に開示されたものが知られている。 The measurement data from the measuring equipment mounted on the omnidirectional mobile trolley is analyzed and managed according to the position information of the measurement point. Therefore, it is necessary to obtain the position information of the omnidirectional moving trolley with high accuracy. As a method for estimating the position of such a moving body, those disclosed in Non-Patent Documents 1 and 2 are known.

非特許文献1には、屋内を移動する移動ロボットの位置を推定する方法について開示されており、天井部に設置したカメラを用いて移動ロボットが移動する領域を撮像し、撮像した画像を解析して移動ロボットの位置を推定している。 Non-Patent Document 1 discloses a method of estimating the position of a mobile robot moving indoors. A camera installed on the ceiling is used to image an area in which the mobile robot moves, and the captured image is analyzed. The position of the mobile robot is estimated.

非特許文献2には、送信機より送信されるWi-Fi電波を利用して、送信機から移動体までの距離を算出することにより、移動ロボットの位置を推定することが開示されている。 Non-Patent Document 2 discloses that the position of a mobile robot is estimated by calculating the distance from the transmitter to the moving body by using the Wi-Fi radio wave transmitted from the transmitter.

Jae Hong Shim and Young Im Cho, ”A Mobile Robot Localization via Indoor Fixed Remote Surveillance Cameras” Sensors. 16. 195. 2016.Jae Hong Shim and Young Im Cho, “A Mobile Robot Localization via Indoor Fixed Remote Surveillance Cameras” Sensors. 16. 195. 2016. Joydeep Biswas and Manuela Veloso ”WiFi localization and navigation for autonomous indoor mobile robots”, Proc. of 2010 IEEE International Conference on Robotics and Automation.Joydeep Biswas and Manuela Veloso "WiFi localization and navigation for autonomous indoor mobile robots", Proc. Of 2010 IEEE International Conference on Robotics and Automation.

しかし、非特許文献1に記載された方法では、屋内の天井部にカメラを設置して移動ロボット、及び該移動ロボットの移動領域を撮像するので、屋外で採用することは難しい。例えば、移動領域を上空から撮像するためにクレーン車などを用いる必要があり、装置構成が大がかりとなり実用性に乏しい。 However, in the method described in Non-Patent Document 1, a camera is installed on the ceiling indoors to capture an image of the mobile robot and the moving area of the mobile robot, so that it is difficult to adopt the method outdoors. For example, it is necessary to use a crane vehicle or the like to image a moving area from the sky, which makes the device configuration large and impractical.

一方、非特許文献2に記載されているように、送信機より送信されるWi-Fi電波を利用する方法では、屋外に電磁遮蔽物が存在する場合には、移動ロボットの位置の検出精度が低下し、高精度な位置推定ができないという問題がある。 On the other hand, as described in Non-Patent Document 2, in the method using Wi-Fi radio waves transmitted from the transmitter, when an electromagnetic shield exists outdoors, the detection accuracy of the position of the mobile robot is improved. There is a problem that the position is lowered and the position cannot be estimated with high accuracy.

本発明は、上記課題に鑑みてなされたものであり、その目的とするところは、簡易な方法で高精度に移動体の位置を推定することが可能な位置推定システム、位置推定装置、位置推定方法、及び位置推定プログラムを提供することにある。 The present invention has been made in view of the above problems, and an object thereof is a position estimation system, a position estimation device, and a position estimation capable of estimating the position of a moving body with high accuracy by a simple method. The method is to provide a position estimation program.

本発明の一態様の位置推定システムは、二次元平面に設定された移動可能領域内または前記移動可能領域近傍の少なくとも4か所に設置された固定マーカと、前記移動可能領域内を移動する移動体に設置された移動マーカと、前記移動可能領域の外部に設置され、前記移動可能領域を斜め上方から見た鳥瞰画像を撮像する撮像部と、前記鳥瞰画像における前記各固定マーカ及び移動マーカの位置、及び、前記移動可能領域内における前記各固定マーカの位置に基づいて、前記移動可能領域内における前記移動体の位置を推定する位置推定部と、を備えたことを特徴とする。 The position estimation system of one aspect of the present invention includes fixed markers installed at least four places in the movable area set in the two-dimensional plane or in the vicinity of the movable area, and movement moving in the movable area. A movement marker installed on the body, an imaging unit installed outside the movable area to capture a bird's-eye view image of the movable area viewed from diagonally above, and the fixed markers and movement markers in the bird's-eye view image. It is characterized by including a position estimation unit for estimating the position of the moving body in the movable area based on the position and the position of each fixed marker in the movable area.

本発明の一態様の位置推定装置は、二次元平面に設定された移動可能領域の外部に設置され、前記移動可能領域を斜め上方から見た鳥瞰画像を撮像する撮像部を有し、前記鳥瞰画像は、前記移動可能領域内または移動可能領域近傍の少なくとも4箇所に設置された固定マーカ、及び、前記移動可能領域内を移動する移動体に設置された移動マーカを含み、前記鳥瞰画像に含まれる各固定マーカ、及び移動マーカの位置に基づいて、前記移動可能領域内における前記移動体の位置を推定する位置推定部、を備えたことを特徴とする。 The position estimation device of one aspect of the present invention is installed outside the movable area set in the two-dimensional plane, and has an imaging unit that captures a bird's-eye view image of the movable area viewed from diagonally above, and has the bird's-eye view. The image includes fixed markers installed at at least four locations in or near the movable area, and movement markers installed on a moving body moving in the movable area, and is included in the bird's-eye view image. It is characterized by comprising a position estimation unit for estimating the position of the moving body in the movable region based on the positions of the fixed markers and the moving markers.

本発明の一態様の位置推定方法は、二次元平面に設定された移動可能領域の外部に設置され、前記移動可能領域を斜め上方から見た鳥瞰画像を取得する鳥瞰画像取得工程を備え、前記鳥瞰画像は、前記移動可能領域内または移動可能領域近傍の少なくとも4箇所に設置された固定マーカ、及び、前記移動可能領域内を移動する移動体に設置された移動マーカを含み、前記鳥瞰画像に含まれる各固定マーカ、及び移動マーカの位置に基づいて、前記移動可能領域内における前記移動体の位置を推定する位置推定工程、を備えたことを特徴とする。 The position estimation method of one aspect of the present invention includes a bird's-eye view image acquisition step of being installed outside a movable region set in a two-dimensional plane and acquiring a bird's-eye view image of the movable region viewed from diagonally above. The bird's-eye view image includes fixed markers installed at at least four locations in or near the movable area, and movement markers installed on a moving body moving in the movable area, and is included in the bird's-eye view image. It is characterized by comprising a position estimation step of estimating the position of the moving body in the movable region based on the positions of the fixed markers included and the moving markers.

本発明の一態様は、上記位置推定装置としてコンピュータを機能させるための位置推定プログラムである。 One aspect of the present invention is a position estimation program for operating a computer as the position estimation device.

本発明によれば、簡易な方法で高精度に移動体の位置を推定することが可能となる。 According to the present invention, it is possible to estimate the position of a moving body with high accuracy by a simple method.

図1は、本発明の実施形態に係る位置推定システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a position estimation system according to an embodiment of the present invention. 図2は、本発明の実施形態に係る位置推定システムの全体構成を模式的に示す平面図である。FIG. 2 is a plan view schematically showing the overall configuration of the position estimation system according to the embodiment of the present invention. 図3は、本発明の実施形態に係る位置推定システムの全体構成を模式的に示す側面図である。FIG. 3 is a side view schematically showing the overall configuration of the position estimation system according to the embodiment of the present invention. 図4は、全方位移動台車の概略構成を示す斜視図である。FIG. 4 is a perspective view showing a schematic configuration of an omnidirectional moving carriage. 図5は、全方位移動台車に搭載されるオムニホイールの構成を示す斜視図である。FIG. 5 is a perspective view showing the configuration of an omni wheel mounted on an omnidirectional moving carriage. 図6は、カメラで撮像される移動可能領域、及び4つの固定マーカの鳥瞰画像を示す説明図である。FIG. 6 is an explanatory diagram showing a movable area captured by a camera and a bird's-eye view image of four fixed markers. 図7は、図6に示した鳥瞰画像を平面画像に変換した図である。FIG. 7 is a diagram obtained by converting the bird's-eye view image shown in FIG. 6 into a plane image. 図8は、本発明の実施形態に係る位置推定システムにより実行される位置推定処理の、処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of the position estimation process executed by the position estimation system according to the embodiment of the present invention. 図9は、動画より時系列的に得られる鳥瞰画像を示す説明図である。FIG. 9 is an explanatory diagram showing a bird's-eye view image obtained in time series from a moving image. 図10は、図9に示した各鳥瞰画像を平面画像に変換した図である。FIG. 10 is a diagram obtained by converting each bird's-eye view image shown in FIG. 9 into a plane image. 図11は、ハードウェア構成例である。FIG. 11 is an example of hardware configuration.

以下、本発明の実施形態について説明する。図1は、本発明の実施形態に係る位置推定システム100の構成を示すブロック図である。図1に示すように、本実施形態に係る位置推定システム100は、制御部1及びカメラ2(撮像部)からなる位置推定装置51と、移動マーカ3と、4つの固定マーカ4a、4b、4c、4dと、を備えている。 Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram showing a configuration of a position estimation system 100 according to an embodiment of the present invention. As shown in FIG. 1, the position estimation system 100 according to the present embodiment includes a position estimation device 51 including a control unit 1 and a camera 2 (imaging unit), a movement marker 3, and four fixed markers 4a, 4b, and 4c. It is equipped with 4d.

図2は本発明の実施形態に係る位置推定システムの全体構成を模式的に示す平面図、図3は同側面図である。図2、図3に示すように、二次元平面上に、全方位移動台車D1(移動体)が移動する領域として長方形の移動可能領域R1が設定されている。 FIG. 2 is a plan view schematically showing the overall configuration of the position estimation system according to the embodiment of the present invention, and FIG. 3 is a side view of the same. As shown in FIGS. 2 and 3, a rectangular movable area R1 is set as an area in which the omnidirectional moving vehicle D1 (moving body) moves on a two-dimensional plane.

例えば、計測機器を搭載した全方位移動台車D1(以下、「移動台車D1」と略す)が移動して点検する領域を、移動可能領域R1として設定する。移動台車D1は3個以上のオムニホイールを備えた移動体である。図4は、移動台車D1の構成を示す斜視図である。図4では、一例として3個のオムニホイール22を備えた移動台車D1を示している。図4に示すように移動台車D1は、六角柱形状をなしており、上面には矩形状の移動マーカ3が設置されている。また、側面には3個のオムニホイール22が搭載されている。 For example, an area where the omnidirectional moving trolley D1 (hereinafter, abbreviated as “moving trolley D1”) equipped with the measuring device moves and inspects is set as the movable area R1. The mobile trolley D1 is a mobile body equipped with three or more omni wheels. FIG. 4 is a perspective view showing the configuration of the mobile carriage D1. FIG. 4 shows a mobile trolley D1 provided with three omni wheels 22 as an example. As shown in FIG. 4, the moving carriage D1 has a hexagonal column shape, and a rectangular moving marker 3 is installed on the upper surface thereof. In addition, three omni wheels 22 are mounted on the side surface.

オムニホイール22は図5に示すように、主車輪22Aの周囲に複数の副車輪22Bが設けられている。オムニホイール22は、副車輪22Bが回転することにより、主車輪22Aの車軸方向(主車輪22Aに直交する方向)に移動可能である。 As shown in FIG. 5, the omni wheel 22 is provided with a plurality of auxiliary wheels 22B around the main wheel 22A. The omni wheel 22 can move in the axial direction of the main wheel 22A (direction orthogonal to the main wheel 22A) by rotating the sub wheel 22B.

移動マーカ3は、画像処理により認識可能な図形を記載した平面パネルである。移動マーカ3は、その法線がほぼ鉛直方向を向くように設置されている。移動マーカ3は、移動台車D1の移動に伴って移動可能領域R1内を移動する。移動マーカ3は、後述する各固定マーカ4a~4dと識別するために、各固定マーカ4a~4dと異なる図形とするのが良い。 The movement marker 3 is a flat panel on which a figure recognizable by image processing is described. The movement marker 3 is installed so that its normal direction faces substantially the vertical direction. The movement marker 3 moves in the movable area R1 with the movement of the moving carriage D1. In order to distinguish the movement marker 3 from the fixed markers 4a to 4d described later, it is preferable that the movement marker 3 has a different figure from the fixed markers 4a to 4d.

図2、図3に示すように、移動可能領域R1の4つの隅部にそれぞれ固定マーカ4a~4dが設置されている。各固定マーカ4a~4dは、前述した移動マーカ3と同様に、画像処理により認識可能な図形を記載した平面パネルである。各固定マーカ4に記載される図形は同一の図形であっても、異なる図形であってもよい。各固定マーカ4a~4dは、その法線がほぼ鉛直方向を向くように設置されている。また、各固定マーカ4a~4d、及び移動マーカ3は同一平面上(高さが同一となる平面上)に設置すると良い。固定マーカ4a~4d及び移動マーカ3として、QRコード(登録商標)やARマーカを用いることも可能である。 As shown in FIGS. 2 and 3, fixed markers 4a to 4d are installed at each of the four corners of the movable region R1. Each of the fixed markers 4a to 4d is a flat panel on which a figure recognizable by image processing is described, similarly to the movement marker 3 described above. The figure described in each fixed marker 4 may be the same figure or a different figure. The fixed markers 4a to 4d are installed so that their normals face substantially the vertical direction. Further, the fixed markers 4a to 4d and the moving markers 3 may be installed on the same plane (on a plane having the same height). QR codes (registered trademarks) and AR markers can also be used as the fixed markers 4a to 4d and the moving markers 3.

また、本実施形態では4個の固定マーカ4a~4dを設置する例について説明するが、本発明はこれに限定されるものではなく、5個以上の固定マーカを設置する構成とすることも可能である。更に、本実施形態では4個の固定マーカ4a~4dを移動可能領域R1の外側の隅部に設置する例について示すが、移動可能領域R1内に設置してもよい。移動可能領域R1内、或いは移動可能領域R1の近傍の少なくとも4箇所に固定マーカが設置されていればよい。 Further, in the present embodiment, an example in which four fixed markers 4a to 4d are installed will be described, but the present invention is not limited to this, and a configuration in which five or more fixed markers are installed is also possible. Is. Further, although the present embodiment shows an example in which the four fixed markers 4a to 4d are installed in the outer corners of the movable region R1, they may be installed in the movable region R1. It suffices that fixed markers are installed at least four places in the movable area R1 or in the vicinity of the movable area R1.

例えば、移動可能領域は長方形であるとは限らず、五角形以上の多角形、凸型形状、凹型形状などの多様な形状が想定される。本発明は多角形状をなす移動可能領域の各頂点に固定マーカを設置することにより、各頂点間の相対的な位置を把握する。このため、固定マーカを各頂点の近傍となる位置に設置する。より好ましくは、各頂点に接する位置に設置する。或いは、移動可能領域内において各頂点に接する位置に設置する。 For example, the movable area is not limited to a rectangle, and various shapes such as a polygon having a pentagon or more, a convex shape, and a concave shape are assumed. The present invention grasps the relative position between each vertex by installing a fixed marker at each vertex of the movable region forming a polygonal shape. Therefore, a fixed marker is installed at a position near each vertex. More preferably, it is installed at a position in contact with each vertex. Alternatively, it is installed at a position in contact with each vertex in the movable area.

図2、図3に示すように、カメラ2は、移動可能領域R1の外部に立設された取付台21の上部に、移動可能領域R1の斜め上方から該移動可能領域R1の全体を撮像可能な位置に設置されている。従って、カメラ2により、移動可能領域R1を斜め上方から見た画像(以下、「鳥瞰画像」という)を撮像することができる。カメラ2は、鳥瞰画像の水平線が、2つの固定マーカ4a、4bを結ぶ直線に対して平行となるように設置すると良い。 As shown in FIGS. 2 and 3, the camera 2 can image the entire movable region R1 from diagonally above the movable region R1 on the upper portion of the mounting base 21 erected outside the movable region R1. It is installed in a suitable position. Therefore, the camera 2 can capture an image of the movable region R1 viewed from diagonally above (hereinafter referred to as a “bird's-eye view image”). The camera 2 may be installed so that the horizontal line of the bird's-eye view image is parallel to the straight line connecting the two fixed markers 4a and 4b.

図1に戻って、制御部1は、カメラ駆動部11と、画像変換部12と、換算距離算出部13と、位置推定部14と、を備えている。 Returning to FIG. 1, the control unit 1 includes a camera drive unit 11, an image conversion unit 12, a conversion distance calculation unit 13, and a position estimation unit 14.

カメラ駆動部11は、カメラ2を駆動させ、該カメラ2で撮像された移動可能領域R1の鳥瞰画像を取得する。鳥瞰画像には、移動可能領域R1全体の画像、各固定マーカ4a~4dの画像、及び移動台車D1が存在する場合には該移動台車D1に搭載された移動マーカ3の画像が含まれる。カメラ駆動部11は、取得した鳥瞰画像を画像変換部12に出力する。 The camera driving unit 11 drives the camera 2 and acquires a bird's-eye view image of the movable region R1 captured by the camera 2. The bird's-eye view image includes an image of the entire movable region R1, an image of each of the fixed markers 4a to 4d, and an image of the moving marker 3 mounted on the moving carriage D1 if the moving carriage D1 is present. The camera drive unit 11 outputs the acquired bird's-eye view image to the image conversion unit 12.

画像変換部12は、カメラ2で撮像された鳥瞰画像を、移動可能領域R1を上方から見た画像である平面画像に変換する処理を実施する。以下、図6、図7を参照して画像変換処理について詳細に説明する。図6は、移動可能領域R1内に物体が存在しないときの、カメラ2で撮像される鳥瞰画像を示す説明図である。図7は、図6に示した鳥瞰画像を平面画像に変換した図である。 The image conversion unit 12 performs a process of converting the bird's-eye view image captured by the camera 2 into a flat image which is an image of the movable region R1 viewed from above. Hereinafter, the image conversion process will be described in detail with reference to FIGS. 6 and 7. FIG. 6 is an explanatory diagram showing a bird's-eye view image captured by the camera 2 when no object exists in the movable region R1. FIG. 7 is a diagram obtained by converting the bird's-eye view image shown in FIG. 6 into a plane image.

図6に示すように、カメラ2により移動可能領域R1を斜め上方から撮像しているので、カメラ2から遠い位置に設置されている固定マーカ4aと4bを結ぶ直線M1は、カメラ2に近い位置に設置されている固定マーカ4cと4dを結ぶ直線M2よりも短くなっている。即ち、平面視で長方形状をなす移動可能領域R1は、鳥瞰画像中において台形状を成している。なお、以下では図6に示す矢印のように、前後左右方向を決める。 As shown in FIG. 6, since the movable area R1 is imaged from diagonally above by the camera 2, the straight line M1 connecting the fixed markers 4a and 4b installed at a position far from the camera 2 is located near the camera 2. It is shorter than the straight line M2 connecting the fixed markers 4c and 4d installed in. That is, the movable region R1 having a rectangular shape in a plan view has a trapezoidal shape in the bird's-eye view image. In the following, the front-back and left-right directions are determined as shown by the arrows shown in FIG.

図6に示すように、カメラ2で撮像された鳥瞰画像において、左前方の固定マーカ4aの右後方の隅部の座標を(x1,y1)とする。右前方の固定マーカ4bの左後方の隅部の座標を(x2,y2)とする。左後方の固定マーカ4cの右前方の隅部の座標を(x3,y3)とする。右後方の固定マーカ4dの左前方の隅部の座標を(x4,y4)とする。 As shown in FIG. 6, in the bird's-eye view image captured by the camera 2, the coordinates of the right rear corner of the left front fixed marker 4a are set to (x1, y1). Let (x2, y2) be the coordinates of the left rear corner of the right front fixed marker 4b. Let (x3, y3) be the coordinates of the right front corner of the left rear fixed marker 4c. Let the coordinates of the left front corner of the right rear fixed marker 4d be (x4, y4).

画像変換部12は、上述した各座標と、各固定マーカ4a~4dの設置位置とに基づいて射影変換し、鳥瞰画像上の座標を平面画像上の座標に変換する。即ち、上記した各座標(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)を、図7に示す(x1´,y1´)、(x2´,y2´)、(x3´,y3´)、(x4´,y4´)に変換する。「射影変換」とは、任意の四角形の座標を、他の四角形の座標に変換する処理である。 The image conversion unit 12 performs projective conversion based on the above-mentioned coordinates and the installation positions of the fixed markers 4a to 4d, and converts the coordinates on the bird's-eye view image into the coordinates on the plane image. That is, the coordinates (x1, y1), (x2, y2), (x3, y3), (x4, y4) described above are shown in FIG. 7 (x1', y1'), (x2', y2'). , (X3', y3'), (x4', y4'). "Homography" is a process of converting the coordinates of an arbitrary quadrangle to the coordinates of another quadrangle.

鳥瞰画像中の任意の点(x,y)を平面座標の点(x´、y´)に変換する際に、下記(1)、(2)式を用いる。 When converting an arbitrary point (x, y) in the bird's-eye view image into a point (x', y') in plane coordinates, the following equations (1) and (2) are used.

x´=(ax+by+c)/(gx+hy+1) …(1)
y´=(dx+ey+f)/(gx+hy+1) …(2)
そして、上述した(1)、(2)式の「x」、「y」に上述した4つの固定マーカ4により規定された座標(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)を代入する。更に、(1)、(2)式の「x´」、「y´」に、図7に示した画像の各座標(x1´,y1´)、(x2´,y2´)、(x3´,y3´)、(x4´,y4´)に対応する実空間の座標を代入する。「実空間の座標」とは、図2に示す移動可能領域R1内に設定される二次元の座標を意味する。その結果、8次元連立方程式が得られ、この8次元連立方程式を解くことで、8個のパラメータ「a、b、c、d、e、f、g、h」を算出することができる。
x'= (ax + by + c) / (gx + hy + 1) ... (1)
y'= (dx + ey + f) / (gx + hy + 1) ... (2)
Then, the coordinates (x1, y1), (x2, y2), (x3, y3) defined by the four fixed markers 4 described above in the "x" and "y" of the above-mentioned equations (1) and (2). , (X4, y4) are substituted. Further, the coordinates (x1', y1'), (x2', y2'), (x3') of the image shown in FIG. 7 are added to the "x'" and "y'" of the equations (1) and (2). , Y3'), (x4', y4') are substituted with the coordinates in the real space. The "real space coordinates" mean the two-dimensional coordinates set in the movable area R1 shown in FIG. As a result, an eight-dimensional simultaneous equation is obtained, and by solving this eight-dimensional simultaneous equation, eight parameters "a, b, c, d, e, f, g, h" can be calculated.

算出した8個のパラメータa~hを上記(1)、(2)式に代入し、代入後の(1)、(2)式に基づいて、鳥瞰画像上の座標を平面空間上の座標に変換することができる。画像変換部12は、(1)、(2)式を用いて座標変換処理を実施する。 The calculated eight parameters a to h are substituted into the above equations (1) and (2), and the coordinates on the bird's-eye view image are converted into the coordinates on the plane space based on the substituted equations (1) and (2). Can be converted. The image conversion unit 12 performs the coordinate conversion process using the equations (1) and (2).

上述した射影変換を用いることにより、斜め上方から撮像した鳥瞰画像を、上方から見た平面画像に変換することができる。その結果、図6に示した鳥瞰画像を、図7に示した平面画像に変換することができる。 By using the above-mentioned projective transformation, a bird's-eye view image captured from diagonally above can be converted into a planar image viewed from above. As a result, the bird's-eye view image shown in FIG. 6 can be converted into the plane image shown in FIG. 7.

図1に戻って、換算距離算出部13は、画像変換部12で射影変換された平面画像に含まれる各固定マーカ4a~4dの位置と、移動可能領域R1内における固定マーカ4a~4dの設置位置に基づいて、平面画像の1ピクセル当たりの、移動可能領域R1内における実距離(以下「分解能p」とする)を算出する。 Returning to FIG. 1, the conversion distance calculation unit 13 installs the positions of the fixed markers 4a to 4d included in the plane image projected by the image conversion unit 12 and the fixed markers 4a to 4d in the movable region R1. Based on the position, the actual distance (hereinafter referred to as "resolution p") in the movable region R1 per pixel of the plane image is calculated.

具体的に、図2に示すように長方形状をなす移動可能領域R1の長辺の長さがWであり、図7に示す平面画像上の長辺のピクセル数がPである場合には、分解能pは、「p=W/P」で算出することができる。なお、上記では平面画像を用いて分解能pを算出する例について説明したが、鳥瞰画像を用いて分解能pを算出してもよい。 Specifically, when the length of the long side of the movable region R1 having a rectangular shape is W and the number of pixels of the long side on the plane image shown in FIG. 7 is P as shown in FIG. The resolution p can be calculated by "p = W / P". Although the example of calculating the resolution p using a plane image has been described above, the resolution p may be calculated using a bird's-eye view image.

位置推定部14は、換算距離算出部13で換算された分解能p(1ピクセル当たりの実距離)と、平面画像内における移動マーカ3の位置に基づいて、該移動マーカ3を搭載した移動台車D1の位置を検出する。 The position estimation unit 14 is a mobile trolley D1 equipped with the movement marker 3 based on the resolution p (actual distance per pixel) converted by the conversion distance calculation unit 13 and the position of the movement marker 3 in the plane image. Detects the position of.

具体的に、位置推定部14は、移動可能領域R1内にて移動台車D1が移動する際に、該移動台車D1の、平面画像内における初期位置(所定の初期位置)の座標を取得し、この座標を記憶する。その後、移動可能領域R1内を移動台車D1が移動する場合には、カメラ2で撮像された動画の各フレームにおける鳥瞰画像より取得される各平面画像に含まれる移動マーカ3の位置を検出する。更に、検出した移動マーカ3の位置、及び前述した分解能pに基づいて、初期位置を基準とした移動台車D1の位置、即ち、移動可能領域R1内における移動台車D1の実際の位置を検出する。位置推定部14は、検出した移動台車D1の位置の情報を外部機器に出力する。 Specifically, the position estimation unit 14 acquires the coordinates of the initial position (predetermined initial position) of the moving trolley D1 in the plane image when the moving trolley D1 moves in the movable region R1. Memorize this coordinate. After that, when the moving carriage D1 moves in the movable area R1, the position of the moving marker 3 included in each plane image acquired from the bird's-eye view image in each frame of the moving image captured by the camera 2 is detected. Further, based on the detected position of the moving marker 3 and the resolution p described above, the position of the moving trolley D1 with respect to the initial position, that is, the actual position of the moving trolley D1 in the movable region R1 is detected. The position estimation unit 14 outputs the detected position information of the mobile trolley D1 to an external device.

[本実施形態の動作]
次に、上述のように構成された本実施形態に係る位置推定システム100の動作を、図8に示すフローチャートを参照して説明する。図8に示す処理は、図1に示した制御部1により実行される。
[Operation of this embodiment]
Next, the operation of the position estimation system 100 according to the present embodiment configured as described above will be described with reference to the flowchart shown in FIG. The process shown in FIG. 8 is executed by the control unit 1 shown in FIG.

初めに図8に示すステップS11において、カメラ駆動部11はカメラ2を作動させ、該カメラ2で撮像された移動可能領域R1内の鳥瞰画像を取得する。鳥瞰画像には、4つの固定マーカ4a~4dの画像が含まれている。 First, in step S11 shown in FIG. 8, the camera driving unit 11 operates the camera 2 and acquires a bird's-eye view image in the movable region R1 captured by the camera 2. The bird's-eye view image includes images of four fixed markers 4a to 4d.

ステップS12において、画像変換部12は鳥瞰画像を平面画像に変換する。図6に示したように、移動可能領域R1を斜め上方から見た画像である鳥瞰画像を、図7に示した平面画像に変換する。 In step S12, the image conversion unit 12 converts the bird's-eye view image into a flat image. As shown in FIG. 6, the bird's-eye view image, which is an image of the movable region R1 viewed from diagonally above, is converted into the planar image shown in FIG. 7.

ステップS13において、換算距離算出部13は、平面画像中に含まれる4つの固定マーカ4a~4dの画像の位置、及び移動可能領域R1の近傍に設置された4つの固定マーカ4a~4dの設置位置に基づいて、分解能pを算出する。 In step S13, the conversion distance calculation unit 13 determines the positions of the images of the four fixed markers 4a to 4d included in the plane image and the installation positions of the four fixed markers 4a to 4d installed in the vicinity of the movable region R1. The resolution p is calculated based on.

ステップS14において、カメラ駆動部11は、カメラ2を作動させて移動台車D1が移動する移動可能領域R1内の動画を撮像する。その結果、例えば図9(a)~(d)に示すように時系列的な鳥瞰画像が取得される。鳥瞰画像には、移動マーカ3、及び4つの固定マーカ4a~4dの画像が含まれている。 In step S14, the camera drive unit 11 operates the camera 2 to capture a moving image in the movable region R1 in which the moving carriage D1 moves. As a result, for example, as shown in FIGS. 9A to 9D, a time-series bird's-eye view image is acquired. The bird's-eye view image includes images of the moving marker 3 and the four fixed markers 4a to 4d.

ステップS15において、位置推定部14は、ステップS14の処理で取得した動画に含まれる時系列的な鳥瞰画像を、前述した射影変換を用いて平面画像に変換する。その結果、図10(a)~(d)に示すように、時系列的な平面画像が得られる。位置推定部14は、変換された平面画像に含まれる移動マーカ3の位置を検出する。 In step S15, the position estimation unit 14 converts the time-series bird's-eye view image included in the moving image acquired in the process of step S14 into a plane image by using the above-mentioned projective transformation. As a result, as shown in FIGS. 10A to 10D, a time-series planar image is obtained. The position estimation unit 14 detects the position of the movement marker 3 included in the converted planar image.

ステップS16において、位置推定部14は、時系列的に得られる各平面画像における移動マーカ3が検出された位置に基づいて、平面画像中の移動マーカ3が移動したピクセル数を算出する。 In step S16, the position estimation unit 14 calculates the number of pixels moved by the movement marker 3 in the plane image based on the position where the movement marker 3 is detected in each plane image obtained in time series.

ステップS17において、位置推定部14は、移動したピクセル数と分解能pに基づいて、移動可能領域R1内における移動台車D1の2次元的な移動距離を算出し、且つ移動台車D1の現在位置を推定する。また、時系列的に得られる各平面画像上での移動マーカ3の現在位置を記録する。 In step S17, the position estimation unit 14 calculates the two-dimensional movement distance of the moving trolley D1 in the movable region R1 based on the number of moved pixels and the resolution p, and estimates the current position of the moving trolley D1. do. In addition, the current position of the movement marker 3 on each plane image obtained in time series is recorded.

こうして、移動可能領域R1内における移動台車D1の初期位置に対する移動距離を算出し、移動台車D1の現在位置を推定することができ、更に、移動可能領域R1内での移動台車D1の移動軌跡を記録することが可能となる。 In this way, the moving distance of the moving trolley D1 in the movable area R1 can be calculated, the current position of the moving trolley D1 can be estimated, and the moving locus of the moving trolley D1 in the movable area R1 can be estimated. It becomes possible to record.

[本実施形態の効果]
このようにして、本実施形態に係る位置推定システム100は、二次元平面に設定された移動可能領域R1内または移動可能領域R1の近傍の少なくとも4か所に設置された固定マーカ4a~4dと、移動可能領域R1内を移動する移動台車D1(移動体)に設置された移動マーカ3と、移動可能領域R1の外部に設置され、移動可能領域R1を斜め上方から見た鳥瞰画像を撮像するカメラ2(撮像部)と、鳥瞰画像における各固定マーカ4a~4d及び移動マーカ3の位置、及び、移動可能領域R1内における各固定マーカ4a~4dの位置に基づいて、移動可能領域R1内における移動台車D1の位置を推定する位置推定部14と、を備えている。
[Effect of this embodiment]
In this way, the position estimation system 100 according to the present embodiment has fixed markers 4a to 4d installed at least four places in the movable region R1 set in the two-dimensional plane or in the vicinity of the movable region R1. , The movement marker 3 installed on the moving vehicle D1 (moving body) moving in the movable area R1 and the bird's-eye view image of the movable area R1 installed outside the movable area R1 are captured from diagonally above. In the movable area R1 based on the positions of the camera 2 (imaging unit) and the fixed markers 4a to 4d and the moving marker 3 in the bird's-eye view image, and the positions of the fixed markers 4a to 4d in the movable area R1. It includes a position estimation unit 14 that estimates the position of the mobile vehicle D1.

上記のように構成された位置推定システム100では、各固定マーカ4a~4d、及び移動マーカ3をカメラ2で撮像して移動可能領域R1内を移動する移動台車D1の位置を推定することができる。その結果、移動台車D1を屋外に設定した移動可能領域R1内を移動させる場合であっても、大規模な構成を必要とせず且つ高精度に移動台車D1の位置を推定することが可能となる。 In the position estimation system 100 configured as described above, the positions of the moving trolley D1 moving in the movable area R1 can be estimated by capturing the images of the fixed markers 4a to 4d and the moving marker 3 with the camera 2. .. As a result, even when the mobile trolley D1 is moved in the movable area R1 set outdoors, the position of the mobile trolley D1 can be estimated with high accuracy without requiring a large-scale configuration. ..

また、従来における車輪エンコーダを用いて移動台車D1の位置を推定する方法と比較すると、路面の状態により車輪がスリップするなどの原因により位置の推定精度が低下するといった問題は発生しない。即ち、移動台車D1を屋外環境で使用する場合には、走行路面が平坦であることは稀であり、凹凸を有する走行路面を走行することで車輪にすべりが生じることが多々発生する。車軸エンコーダを用いて位置推定を行う場合には、車輪にすべりが生じることにより、推定誤差が生じてしまう。本実施形態では、車輪にすべりが発生した場合でも、この影響を受けることなく高精度な位置推定が可能となる。 Further, as compared with the conventional method of estimating the position of the moving carriage D1 using the wheel encoder, there is no problem that the position estimation accuracy is lowered due to the wheel slipping due to the condition of the road surface. That is, when the mobile carriage D1 is used in an outdoor environment, it is rare that the traveling road surface is flat, and traveling on a traveling road surface having irregularities often causes slippage of the wheels. When the position is estimated using the axle encoder, the wheel slips, which causes an estimation error. In the present embodiment, even if the wheel slips, highly accurate position estimation is possible without being affected by the slip.

また、移動可能領域R1を斜め上方から撮像した鳥瞰画像を、真上から見た平面画像に変換し、該平面画像の単位ピクセル(例えば、1ピクセル)分の距離を、移動可能領域R1内での距離に換算した距離である分解能pを算出する。そして、平面画像中にて移動した移動マーカ3のピクセル数、及び分解能pに基づいて移動可能領域R1内における移動台車D1の位置を推定する。従って、移動可能領域R1の真上にカメラ2を設置することなく移動台車D1の位置を推定することができ、装置規模を縮小することが可能となる。また、移動可能領域R1内における移動台車D1の位置を高精度に推定することが可能となる。 Further, the bird's-eye view image obtained by capturing the movable region R1 from diagonally above is converted into a planar image viewed from directly above, and the distance for a unit pixel (for example, 1 pixel) of the planar image is set in the movable region R1. The resolution p, which is the distance converted into the distance of, is calculated. Then, the position of the moving carriage D1 in the movable region R1 is estimated based on the number of pixels of the moving marker 3 moved in the plane image and the resolution p. Therefore, the position of the mobile carriage D1 can be estimated without installing the camera 2 directly above the movable region R1, and the scale of the device can be reduced. In addition, the position of the moving trolley D1 in the movable region R1 can be estimated with high accuracy.

また、カメラ2で撮像される鳥瞰画像の水平線と、鳥瞰画像に含まれる固定マーカ4aと4bを結ぶ直線が平行になるように、カメラ2が設置されるので、分解能pを容易に算出することが可能になる。このため、演算負荷を著しく軽減することが可能となる。 Further, since the camera 2 is installed so that the horizontal line of the bird's-eye view image captured by the camera 2 and the straight line connecting the fixed markers 4a and 4b included in the bird's-eye view image are parallel, the resolution p can be easily calculated. Will be possible. Therefore, it is possible to remarkably reduce the calculation load.

更に、4個の固定マーカ4a~4dを配置して矩形状の移動可能領域R1を設定し、該移動可能領域R1の鳥瞰画像を平面画像に変換するので、簡単な演算処理で画像変換することができ、演算負荷を軽減することが可能となる。 Further, four fixed markers 4a to 4d are arranged to set a rectangular movable region R1 and the bird's-eye view image of the movable region R1 is converted into a flat image, so that the image can be converted by a simple arithmetic process. It is possible to reduce the calculation load.

上記説明した本実施形態の位置推定装置51には、図11に示すように例えば、CPU(Central Processing Unit、プロセッサ)901と、メモリ902と、ストレージ903(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置904と、入力装置905と、出力装置906とを備える汎用的なコンピュータシステムを用いることができる。メモリ902およびストレージ903は、記憶装置である。このコンピュータシステムにおいて、CPU901がメモリ902上にロードされた所定のプログラムを実行することにより、位置推定装置51の各機能が実現される。 As shown in FIG. 11, the position estimation device 51 of the present embodiment described above includes, for example, a CPU (Central Processing Unit, processor) 901, a memory 902, and a storage 903 (HDD: Hard Disk Drive, SSD: Solid State). A general-purpose computer system including a Drive), a communication device 904, an input device 905, and an output device 906 can be used. The memory 902 and the storage 903 are storage devices. In this computer system, each function of the position estimation device 51 is realized by the CPU 901 executing a predetermined program loaded on the memory 902.

なお、位置推定装置51は、1つのコンピュータで実装されてもよく、あるいは複数のコンピュータで実装されても良い。また、位置推定装置は、コンピュータに実装される仮想マシンであっても良い。 The position estimation device 51 may be mounted on one computer or may be mounted on a plurality of computers. Further, the position estimation device may be a virtual machine mounted on a computer.

なお、位置推定装置51用のプログラムは、HDD、SSD、USB(Universal Serial Bus)メモリ、CD (Compact Disc)、DVD (Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。 The program for the position estimation device 51 can be stored in a computer-readable recording medium such as an HDD, SSD, USB (Universal Serial Bus) memory, CD (Compact Disc), or DVD (Digital Versatile Disc). It can also be delivered via.

なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。 The present invention is not limited to the above embodiment, and many modifications can be made within the scope of the gist thereof.

例えば、本実施形態では移動体として、六角柱形状をなし3つのオムニホイール22を有する全方位移動台車D1を例に挙げて説明したが、本発明はこれに限定されるものではなく、移動可能領域R1内で移動可能な他の移動体であってもよい。 For example, in the present embodiment, as a moving body, an omnidirectional moving trolley D1 having a hexagonal column shape and having three omni wheels 22 has been described as an example, but the present invention is not limited thereto and is movable. It may be another moving body that can move within the region R1.

また、カメラ2による動画の撮影時において各マーカに生じる反射を防止するために、マーカ表面に無反射コーティングを塗布した構造や、無反射フィルム、無反射ガラスをマーカ表面に設置しても良い。更に、マーカ自体を無反射素材の布地で形成してもよい。 Further, in order to prevent reflection generated on each marker when the camera 2 shoots a moving image, a structure in which a non-reflective coating is applied to the marker surface, a non-reflective film, or a non-reflective glass may be installed on the marker surface. Further, the marker itself may be formed of a non-reflective material.

また、上述した実施形態では、移動可能領域R1が長方形であり、各隅部に固定マーカ4a~4dを設置する例について説明したが、移動可能領域R1が五角形以上の多角形の場合などには、各頂点、即ち、5箇所以上の位置に固定マーカを設置することにより移動体の位置を推定することが可能となる。 Further, in the above-described embodiment, the example in which the movable region R1 is rectangular and the fixed markers 4a to 4d are installed at each corner has been described, but when the movable region R1 is a polygon of a pentagon or more, etc. By installing fixed markers at each vertex, that is, at five or more positions, it is possible to estimate the position of the moving body.

1 制御部
2 カメラ(撮像部)
3 移動マーカ
4a~4d 固定マーカ
11 カメラ駆動部
12 画像変換部
13 換算距離算出部
14 位置推定部
21 取付台
22 オムニホイール
22A 主車輪
22B 副車輪
51 位置推定装置
100 位置推定システム
D1 移動台車(全方位移動台車)
R1 移動可能領域
1 Control unit 2 Camera (imaging unit)
3 Moving markers 4a-4d Fixed markers 11 Camera drive unit 12 Image conversion unit 13 Conversion distance calculation unit 14 Position estimation unit 21 Mounting base 22 Omni wheel 22A Main wheel 22B Secondary wheel 51 Position estimation device 100 Position estimation system D1 Moving trolley (all) Directional movement trolley)
R1 movable area

Claims (7)

二次元平面に設定された移動可能領域内または前記移動可能領域近傍の少なくとも4か所に設置された固定マーカと、
前記移動可能領域内を移動する移動体に設置された移動マーカと、
前記移動可能領域の外部に設置され、前記移動可能領域を斜め上方から見た鳥瞰画像を撮像する撮像部と、
前記鳥瞰画像における前記各固定マーカ及び移動マーカの位置、及び、前記移動可能領域内における前記各固定マーカの位置に基づいて、前記移動可能領域内における前記移動体の位置を推定する位置推定部と、
を備えたことを特徴とする位置推定システム。
Fixed markers installed in at least four places in the movable area set in the two-dimensional plane or in the vicinity of the movable area, and
A movement marker installed on a moving body that moves within the movable area, and
An imaging unit that is installed outside the movable area and captures a bird's-eye view image of the movable area viewed from diagonally above.
A position estimation unit that estimates the position of the moving body in the movable region based on the positions of the fixed markers and the moving markers in the bird's-eye view image and the positions of the fixed markers in the movable region. ,
A position estimation system characterized by being equipped with.
前記移動可能領域は多角形状をなしており、前記固定マーカは、前記移動可能領域における各頂点に接して設置されること
を特徴とする請求項1に記載の位置推定システム。
The position estimation system according to claim 1, wherein the movable region has a polygonal shape, and the fixed marker is installed in contact with each vertex in the movable region.
二次元平面に設定された移動可能領域の外部に設置され、前記移動可能領域を斜め上方から見た鳥瞰画像を撮像する撮像部を有し、
前記鳥瞰画像は、前記移動可能領域内または移動可能領域近傍の少なくとも4箇所に設置された固定マーカ、及び、前記移動可能領域内を移動する移動体に設置された移動マーカを含み、
前記鳥瞰画像に含まれる各固定マーカ、及び移動マーカの位置に基づいて、前記移動可能領域内における前記移動体の位置を推定する位置推定部、
を備えたことを特徴とする位置推定装置。
It is installed outside the movable area set in the two-dimensional plane, and has an imaging unit that captures a bird's-eye view image of the movable area viewed from diagonally above.
The bird's-eye view image includes fixed markers installed at at least four locations in or near the movable area, and movement markers installed on a moving body moving in the movable area.
A position estimation unit that estimates the position of the moving body in the movable region based on the positions of the fixed markers and the moving markers included in the bird's-eye view image.
A position estimation device characterized by being equipped with.
二次元平面に設定された移動可能領域の外部に設置され、前記移動可能領域を斜め上方から見た鳥瞰画像を取得する鳥瞰画像取得工程を備え、
前記鳥瞰画像は、前記移動可能領域内または移動可能領域近傍の少なくとも4箇所に設置された固定マーカ、及び、前記移動可能領域内を移動する移動体に設置された移動マーカを含み、
前記鳥瞰画像に含まれる各固定マーカ、及び移動マーカの位置に基づいて、前記移動可能領域内における前記移動体の位置を推定する位置推定工程、
を備えたことを特徴とする位置推定方法。
It is installed outside the movable area set in the two-dimensional plane, and is equipped with a bird's-eye view image acquisition process for acquiring a bird's-eye view image of the movable area viewed from diagonally above.
The bird's-eye view image includes fixed markers installed at at least four locations in or near the movable area, and movement markers installed on a moving body moving in the movable area.
A position estimation step of estimating the position of the moving body in the movable region based on the positions of the fixed markers and the moving markers included in the bird's-eye view image.
A position estimation method characterized by being equipped with.
前記鳥瞰画像を、前記移動可能領域の上方から見た平面画像に変換する画像変換工程と、
前記平面画像における前記固定マーカの位置と、前記移動可能領域内における前記固定マーカの設置位置に基づいて、前記平面画像の単位ピクセル当たりの前記移動可能領域内での実距離を算出する換算距離算出工程と、を更に備え、
前記位置推定工程は、
前記移動可能領域内に初期位置を設定し、前記撮像部で撮像された動画の各フレームにおける鳥瞰画像を前記平面画像に変換し、該平面画像上での前記移動体の位置を検出し、前記平面画像上での前記初期位置と前記検出した移動体の位置との間のピクセル数、及び前記単位ピクセル当たりの実距離に基づいて、前記移動可能領域内の前記初期位置を基準とした前記移動マーカの移動距離を算出することにより、前記移動マーカの前記移動可能領域内における現在位置を推定すること
を特徴とする請求項4に記載の位置推定方法。
An image conversion step of converting the bird's-eye view image into a plane image viewed from above the movable area, and
Converted distance calculation to calculate the actual distance in the movable area per unit pixel of the plane image based on the position of the fixed marker in the plane image and the installation position of the fixed marker in the movable area. With more processes,
The position estimation step is
The initial position is set in the movable region, the bird's-eye view image in each frame of the moving image captured by the imaging unit is converted into the plane image, the position of the moving body on the plane image is detected, and the above-mentioned The movement relative to the initial position in the movable region based on the number of pixels between the initial position on the planar image and the position of the detected moving object, and the actual distance per unit pixel. The position estimation method according to claim 4, wherein the current position of the moving marker in the movable area is estimated by calculating the moving distance of the marker.
4つの固定マーカで規定される四角形の領域を、前記移動可能領域として設定すること
を特徴とする請求項4または5に記載の位置推定方法。
The position estimation method according to claim 4 or 5, wherein a quadrangular region defined by four fixed markers is set as the movable region.
請求項3に記載した位置推定装置としてコンピュータを機能させるための位置推定プログラム。 A position estimation program for operating a computer as the position estimation device according to claim 3.
JP2020155486A 2020-09-16 2020-09-16 Position estimation system, position estimation device, position estimation method, and position estimation program Active JP7406210B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020155486A JP7406210B2 (en) 2020-09-16 2020-09-16 Position estimation system, position estimation device, position estimation method, and position estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020155486A JP7406210B2 (en) 2020-09-16 2020-09-16 Position estimation system, position estimation device, position estimation method, and position estimation program

Publications (2)

Publication Number Publication Date
JP2022049335A true JP2022049335A (en) 2022-03-29
JP7406210B2 JP7406210B2 (en) 2023-12-27

Family

ID=80853835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020155486A Active JP7406210B2 (en) 2020-09-16 2020-09-16 Position estimation system, position estimation device, position estimation method, and position estimation program

Country Status (1)

Country Link
JP (1) JP7406210B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011069796A (en) * 2009-09-28 2011-04-07 Saxa Inc Method of calibrating camera and image processing apparatus
US20170359573A1 (en) * 2016-06-08 2017-12-14 SAMSUNG SDS CO., LTD., Seoul, KOREA, REPUBLIC OF; Method and apparatus for camera calibration using light source
JP2021096566A (en) * 2019-12-16 2021-06-24 日本信号株式会社 Traveling position verification system, traveling position measurement system, and traveling position correction system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011069796A (en) * 2009-09-28 2011-04-07 Saxa Inc Method of calibrating camera and image processing apparatus
US20170359573A1 (en) * 2016-06-08 2017-12-14 SAMSUNG SDS CO., LTD., Seoul, KOREA, REPUBLIC OF; Method and apparatus for camera calibration using light source
JP2021096566A (en) * 2019-12-16 2021-06-24 日本信号株式会社 Traveling position verification system, traveling position measurement system, and traveling position correction system

Also Published As

Publication number Publication date
JP7406210B2 (en) 2023-12-27

Similar Documents

Publication Publication Date Title
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
WO2021026850A1 (en) Qr code-based navigation attitude determining and positioning method and system
US8508527B2 (en) Apparatus and method of building map for mobile robot
US9939529B2 (en) Robot positioning system
WO2020215172A1 (en) Obstacle detection method and device, mobile platform, and storage medium
US11420335B2 (en) Information processing apparatus, information processing method, and information processing system
US20170307354A1 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
US20150125035A1 (en) Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object
US20070267570A1 (en) Method of detecting object using structured light and robot using the same
TW202013251A (en) Systems and methods for vslam scale estimation using optical flow sensor on a robotic device
US11488354B2 (en) Information processing apparatus and information processing method
KR20150144727A (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR20150144730A (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
JP2019128175A (en) Tunnel wall inspection device and tunnel wall inspection program
KR20210049581A (en) Apparatus for acquisition distance for all directions of vehicle
EP2924612A1 (en) Object detection device, object detection method, and computer readable storage medium comprising object detection program
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
Shim et al. A mobile robot localization using external surveillance cameras at indoor
JP5019478B2 (en) Marker automatic registration method and system
JP7138856B2 (en) Bird's eye view presentation system
JP7406210B2 (en) Position estimation system, position estimation device, position estimation method, and position estimation program
WO2024001596A1 (en) Robot motion control method and apparatus
JP2011203148A (en) Estimation device, estimation method and estimation program
CN108564626A (en) Method and apparatus for determining the relative attitude angle being installed between the camera of acquisition entity

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231207

R150 Certificate of patent or registration of utility model

Ref document number: 7406210

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150