JP2010085196A - Object behavior estimation method and object behavior estimating device - Google Patents
Object behavior estimation method and object behavior estimating device Download PDFInfo
- Publication number
- JP2010085196A JP2010085196A JP2008253513A JP2008253513A JP2010085196A JP 2010085196 A JP2010085196 A JP 2010085196A JP 2008253513 A JP2008253513 A JP 2008253513A JP 2008253513 A JP2008253513 A JP 2008253513A JP 2010085196 A JP2010085196 A JP 2010085196A
- Authority
- JP
- Japan
- Prior art keywords
- acceleration
- vector
- acceleration sensor
- equation
- behavior estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、物体挙動推定技術に関し、特に、物体の角速度ベクトルおよび角加速度ベクトルを推定する物体挙動推定技術に関する。 The present invention relates to an object behavior estimation technique, and more particularly to an object behavior estimation technique for estimating an angular velocity vector and an angular acceleration vector of an object.
例えば車両走行中に車両がどのような挙動を示すかを予め把握することは、車両の制動力制御や姿勢制御を適切に実施するために極めて重要である。このため、例えば、重力の方向を基準とする車両の傾斜角度を連続的に検出し、車両の角速度を積分して該車両の傾斜角度の変化量を連続的に検出し、これらの検出出力を加算して車両の傾斜角度を算出する車両の傾斜角度検出装置が提案されている(例えば、特許文献1参照)。また、例えば、自動車などの物体の表面に、特定の位置関係および検出方向をもって配置した複数の加速度センサーの検出値から物体の回転角速度、姿勢角、および位置標定用加速度情報を推定する姿勢検出装置が提案されている(例えば、特許文献2参照)。
例えば車両などの挙動を推定すべき物体も、実際には移動中に微小に変形する。しかし、例えば特許文献1に示す技術ではロール角を検出するセンサを用いているため、検出個所におけるロール角を検出することはできるが、変形による影響も含む物体の特定領域全体の挙動を把握することは困難である。また、加速度センサなどによる検出には通常誤差を伴う。しかし、例えば特許文献2に示す技術ではこのような誤差を充分に考慮していないため、物体の姿勢を正確に求めることができないおそれがある。
For example, an object such as a vehicle whose behavior is to be estimated actually deforms slightly during movement. However, for example, the technique shown in
そこで、本発明は上述した課題を解決するためになされたものであり、その目的は、変形による影響も含む物体の特定領域全体の挙動を正確に把握することにある。 Therefore, the present invention has been made to solve the above-described problems, and an object thereof is to accurately grasp the behavior of the entire specific region of the object including the influence of deformation.
上記課題を解決するために、本発明のある態様の物体挙動推定方法は、挙動を推定すべき物体において直線上にない3以上の個所に配置された並進3軸の加速度センサの各々の検出値を取得するステップと、取得した検出値に最小二乗法を用いた演算を施して物体の角速度ベクトルおよび角加速度ベクトルを推定するステップと、を備える。 In order to solve the above-described problems, an object behavior estimation method according to an aspect of the present invention is a detection value of each of translational triaxial acceleration sensors arranged at three or more locations that are not on a straight line in an object whose behavior is to be estimated And obtaining an angular velocity vector and an angular acceleration vector of the object by performing an operation using the least square method on the acquired detection value.
この態様によれば、3以上の個所に配置された加速度センサの検出値を用いることにより、変形による影響も含む物体の特定領域全体の挙動を把握することが可能となる。また、最小二乗法を用いることで検出誤差の影響を抑制することが可能となり、物体の挙動を正確に把握することができる。 According to this aspect, by using the detection values of the acceleration sensors arranged at three or more locations, it is possible to grasp the behavior of the entire specific region of the object including the influence of deformation. Further, by using the least square method, it is possible to suppress the influence of detection error, and it is possible to accurately grasp the behavior of the object.
角速度ベクトルおよび角加速度ベクトルを推定するステップは、
この態様によれば、誤差εiの二乗和を最小にすることにより、少ない誤差で角速度ベクトルおよび角加速度ベクトルを推定することができる。 According to this aspect, the angular velocity vector and the angular acceleration vector can be estimated with a small error by minimizing the sum of squares of the error ε i .
本発明の別の態様は、物体挙動推定装置である。この装置は、挙動を推定すべき物体において直線上にない3以上の個所に配置された並進3軸の加速度センサの各々の検出値を取得する並進加速度取得部と、物体の角速度ベクトルおよび角加速度ベクトルを推定する挙動推定部と、を備える。挙動推定部は、取得した検出値に最小二乗法を用いた演算を施して物体の角速度ベクトルおよび角加速度ベクトルを推定する。 Another aspect of the present invention is an object behavior estimation apparatus. This apparatus includes a translational acceleration acquisition unit that acquires detection values of translational triaxial acceleration sensors arranged at three or more points that are not on a straight line in an object whose behavior is to be estimated, and an angular velocity vector and an angular acceleration of the object. A behavior estimation unit for estimating a vector. The behavior estimation unit estimates the angular velocity vector and the angular acceleration vector of the object by performing an operation using the least square method on the acquired detection value.
この態様によれば、3以上の個所に配置された加速度センサの検出値を用いることにより、変形による影響も含む物体の特定領域全体の挙動を把握することが可能となる。また、最小二乗法を用いることで検出誤差の影響を抑制することが可能となり、物体の挙動を正確に把握することができる。 According to this aspect, it is possible to grasp the behavior of the entire specific region of the object including the influence of deformation by using the detection values of the acceleration sensors arranged at three or more locations. Further, by using the least square method, it is possible to suppress the influence of detection error, and it is possible to accurately grasp the behavior of the object.
挙動推定部は、
この態様によれば、誤差εiの二乗和を最小にすることにより、少ない誤差で角速度ベクトルおよび角加速度ベクトルを推定することができる。 According to this aspect, the angular velocity vector and the angular acceleration vector can be estimated with a small error by minimizing the sum of squares of the error ε i .
本発明によれば、変形による影響も含む物体の特定領域全体の挙動を正確に把握することができる。 According to the present invention, it is possible to accurately grasp the behavior of the entire specific region of the object including the influence of deformation.
以下、図面を参照して本発明の実施の形態(以下、「実施形態」という。)について詳細に説明する。 Hereinafter, embodiments of the present invention (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings.
図1は、本実施形態に係る物体挙動推定装置10と、物体挙動推定装置10による挙動推定の対象となる車両12とを模式的に示す図である。なお、図1において物体挙動推定装置10は車両12内に設けられているように記載されているが、物体挙動推定装置10は車両12外に設けられていてもよい。
FIG. 1 is a diagram schematically illustrating an object
車両12は、車両本体14および4つの車輪によって構成される。以下、左前輪16FL、右前輪16FR、左後輪16RL、および右後輪16RRを必要に応じて車輪16と総称する。
The
車両12には、第1加速度センサ18A〜第7加速度センサ18Gが設けられている。以下、これらを必要に応じて加速度センサ18と総称する。加速度センサ18の各々は、互いに直交する3軸の各々の並進加速度を検出するよう設けられている。加速度センサ18の各々は、車両12の前後方向、左右方向、および上下方向の3軸の各々の並進加速度を検出することができるよう車両12に配置される。なお、車両12に配置される加速度センサ18の数が7つに限られないことは勿論であり、3以上のいずれかの数であってもよい。
The
第1加速度センサ18Aは、車両12の先端部における左右方向中央に配置される。第2加速度センサ18Bは左前輪16FLの後方近傍に配置され、第3加速度センサ18Cは右前輪16FRの後方近傍に配置される。このように、第1加速度センサ18A〜第3加速度センサ18Cは、車両12の前方側に分散して配置される。
The
第4加速度センサ18Dは左後輪16RLの前方近傍に配置され、第5加速度センサ18Eは右後輪16RRの前方近傍に配置される。第6加速度センサ18Fは左後輪16RLの後方近傍に配置され、第7加速度センサ18Gは右後輪16RRの後方近傍に配置される。このように、第4加速度センサ18D〜第7加速度センサ18Gは、車両12の後方側に分散して配置される。なお、加速度センサ18の各々は、3つ以上が一直線上に位置しないよう配置される。
The fourth acceleration sensor 18D is disposed near the front of the left rear wheel 16RL, and the
図2は、本実施形態に係る物体挙動推定装置10の構成を示す図である。なお、図2において物体挙動推定装置10は、各種演算処理を実行するCPU、各種制御プログラムを格納するROM、データ格納やプログラム実行のためのワークエリアとして利用されるRAMなどのハードウェア、およびソフトウェアの連携によって実現される機能ブロックが描かれている。したがって、これらの機能ブロックはハードウェアおよびソフトウェアの組合せによって様々な形で実現することができる。
FIG. 2 is a diagram illustrating a configuration of the object
物体挙動推定装置10は、並進加速度取得部30、挙動推定部32、および表示制御部34を有する。物体挙動推定装置10は加速度センサ18の各々に接続されており、並進加速度取得部30は、加速度センサ18の各々の検出値を取得する。挙動推定部32は、取得された加速度センサ18の各々の検出値を利用して、車両12の全体または一部の領域の角速度ベクトル、角加速度ベクトルなどの挙動を推定する。物体挙動推定装置10はディスプレイ40に接続されており、表示制御部34は、挙動推定部32による挙動推定結果をディスプレイ40に表示させるよう表示データを生成する。
The object
以下、車両12の全体または一部の領域の角速度ベクトル、角加速度ベクトルなどの挙動を推定するときの方法について詳細に説明する。
Hereinafter, a method for estimating the behavior of the entire region of the
この数式1において、角速度ベクトル、角加速度ベクトル、および基準位置の加速度が未知数となる。求めたいのは角速度ベクトルおよび角加速度ベクトルであることから、この数式1からまず基準位置の加速度を消去する。この式を加速度センサの設置位置(以下、「計測点」という)全点で総和を取ると、
ここで、全計測点の平均加速度amは、
ここで、基準位置の加速度に対するi番目の加速度センサ設置個所の相対加速度αiは、
この数式10に対して、最小二乗法を用いて、
しかし、数式13は非線形微分方程式となっており、そのまま最小二乗法を用いるのは困難である。このため、数式11をまず線形方程式に近似する。数式13をテイラー展開すると、
上述の数式12は、
ここで、逐次線形近似最小二乗式は、
一方、時間積分法より、
数式21および数式29により、
ここで、
なお、数式34において、反復行列Aおよび残差ベクトルγ、定数行列Jは、それぞれ、
図3は、本実施形態に係る物体挙動推定装置10による挙動推定手順を示すフローチャートである。本フローチャートにおける処理は、ユーザにより挙動推定を開始させるためのスタートボタンがディスプレイ40の画面上で計測作業者にクリックされるなどによって開始する。
FIG. 3 is a flowchart showing a behavior estimation procedure by the object
なお、計測作業者は、挙動推定開始のためのスタートボタンを押す前に、加速度センサ18の各々の設置位置piを物体挙動推定装置10に入力する。また、計測作業者は、時間積分パラメータであるβも物体挙動推定装置10に入力する。なお、角速度の初期値はω0に設定されており、角加速度の初期値はゼロに設定されている。
The measurement operator inputs each installation position p i of the
挙動推定部32は、時間tにおいて加速度センサ18から取得した検出値aiを利用して、数式4に示す平均加速度am、および数式8に示す相対加速度αiを算出する。挙動推定部32は、こうして算出した値を用い、時間積分法により数式25を利用して角速度近似を行う。挙動推定部32は、こうして求めた角速度を利用して反復行列Aを算出し(S10)、また、残差ベクトルγを算出する(S12)。
The
残差ベクトルγが算出されると、挙動推定部32は、数式37に示すように、角加速度修正量が誤差より以下か否かを判定する(S14)。角加速度修正量が誤差より大きい場合(S14のN)、挙動推定部32は、数式35を用いて近似解を更新し(S16)、S10に戻って再び反復行列Aおよび残差ベクトルγを算出する。
When the residual vector γ is calculated, the
角加速度修正量が誤差より以下と判定された場合(S14のY)、挙動推定部32は、その時間における角速度および角加速度を決定する(S18)。このとき、表示制御部34は、決定した角速度および角加速度を示す図や数値をディスプレイ40に表示してもよい。その時間における角速度および角加速度が決定されると、挙動推定部32は、時間tが計測完了時間Tに達したか否かを判定する(S20)。時間tが計測完了時間Tに達していない場合(S20のN)、挙動推定部32は、時間tをt+Δtに更新して(S22)、S10に再び移行する。時間tが計測完了時間Tに達した場合(S20のY)、本フローチャートにおける挙動推定処理を終了する。
When it is determined that the angular acceleration correction amount is less than the error (Y in S14), the
図4は、挙動推定に用いる加速度センサ18の取付位置とその平均位置pmの一例を示す図である。図4に示す例では、第2加速度センサ18B〜第5加速度センサ18Eの4つによる計測値を用いて、車両12の略中央のpmにおける角速度ベクトルおよび角加速度ベクトルを推定する。
Figure 4 is a diagram showing an example of the mounting position and the average position p m of the
図5(a)は、第2加速度センサ18Bの検出値を示す図であり、図5(b)は、第3加速度センサ18Cの検出値を示す図である。また、図5(c)は、第4加速度センサ18Dの検出値を示す図であり、図5(d)は、第5加速度センサ18Eの検出値を示す図である。以下、車両前後方向に伸びる軸をx軸、車両左右方向に伸びる軸をy軸、車両上下方向に伸びる軸をz軸として説明する。図5(a)〜図5(d)において、Axはx軸方向の並進加速度を示し、Ayはy軸方向の並進加速度示し、Azはz軸方向の並進加速度を示す。
FIG. 5A is a diagram showing the detection value of the second acceleration sensor 18B, and FIG. 5B is a diagram showing the detection value of the third acceleration sensor 18C. FIG. 5C is a diagram showing the detection value of the fourth acceleration sensor 18D, and FIG. 5D is a diagram showing the detection value of the
図6は、図5(a)〜図5(d)に示す検出を利用して推定した平均位置pmにおける角加速度を示す図である。図6において、dωxはx軸回りの角加速度を示し、dωyはy軸回りの角加速度を示し、dωzはz軸回りの角加速度を示す。このように、本実施形態に係る挙動推定方法によれば、並進加速度の検出値を利用して、車両12における角加速度ベクトルおよび角加速度ベクトルを精度良く算出することができる。
Figure 6 is a diagram showing the angular acceleration in the mean position p m estimated based on the detection shown in FIG. 5 (a) ~ FIG 5 (d). In FIG. 6, dωx represents angular acceleration about the x axis, dωy represents angular acceleration about the y axis, and dωz represents angular acceleration about the z axis. As described above, according to the behavior estimation method according to the present embodiment, the angular acceleration vector and the angular acceleration vector in the
なお、本実施形態に係る挙動推定方法では、例えば第1加速度センサ18A〜第3加速度センサ18Cの検出値を利用することにより、車両12の前方側を中心とした角速度ベクトルおよび角加速度ベクトルを算出することができる。また、第4加速度センサ18D〜第7加速度センサ18Gの検出値を利用することにより、車両12の後方側を中心とした角速度ベクトルおよび角加速度ベクトルを算出することができる。このため、例えば車両前方と後方との間で車両12の筐体に変形が生じた場合においても、その影響を含む車両12の挙動を精度良く推定することが可能となる。
In the behavior estimation method according to the present embodiment, for example, the angular velocity vector and the angular acceleration vector centered on the front side of the
本発明は上述の実施形態に限定されるものではなく、本実施形態の各要素を適宜組み合わせたものも、本発明の実施形態として有効である。また、当業者の知識に基づいて各種の設計変更等の変形を本実施形態に対して加えることも可能であり、そのような変形が加えられた実施形態も本発明の範囲に含まれうる。 The present invention is not limited to the above-described embodiment, and an appropriate combination of the elements of this embodiment is also effective as an embodiment of the present invention. Various modifications such as various design changes can be added to the present embodiment based on the knowledge of those skilled in the art, and the embodiments with such modifications can be included in the scope of the present invention.
10 物体挙動推定装置、 12 車両、 14 車両本体、 16 車輪、 16FL 左前輪、 16FR 右前輪、 16RL 左後輪、 16RR 右後輪、 18 加速度センサ、 18A 第1加速度センサ、 18B 第2加速度センサ、 18C 第3加速度センサ、 18D 第4加速度センサ、 18E 第5加速度センサ、 18F 第6加速度センサ、 18G 第7加速度センサ、 30 並進加速度取得部、 32 挙動推定部、 34 表示制御部、 40 ディスプレイ。
DESCRIPTION OF
Claims (4)
取得した検出値に最小二乗法を用いた演算を施して前記物体の角速度ベクトルおよび角加速度ベクトルを推定するステップと、
を備えることを特徴とする物体挙動推定方法。 Obtaining each detection value of a translational triaxial acceleration sensor arranged at three or more locations that are not on a straight line in the object whose behavior is to be estimated;
Performing an operation using a least-squares method on the obtained detection value to estimate an angular velocity vector and an angular acceleration vector of the object;
An object behavior estimation method comprising:
前記物体の角速度ベクトルおよび角加速度ベクトルを推定する挙動推定部と、
を備え、
前記挙動推定部は、取得した検出値に最小二乗法を用いた演算を施して前記物体の角速度ベクトルおよび角加速度ベクトルを推定することを特徴とする物体挙動推定装置。 A translational acceleration acquisition unit that acquires detection values of the translational triaxial acceleration sensors arranged at three or more locations that are not on a straight line in the object whose behavior is to be estimated;
A behavior estimation unit for estimating an angular velocity vector and an angular acceleration vector of the object;
With
The object behavior estimation apparatus, wherein the behavior estimation unit estimates an angular velocity vector and an angular acceleration vector of the object by performing an operation using a least square method on the acquired detection value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008253513A JP2010085196A (en) | 2008-09-30 | 2008-09-30 | Object behavior estimation method and object behavior estimating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008253513A JP2010085196A (en) | 2008-09-30 | 2008-09-30 | Object behavior estimation method and object behavior estimating device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010085196A true JP2010085196A (en) | 2010-04-15 |
Family
ID=42249302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008253513A Pending JP2010085196A (en) | 2008-09-30 | 2008-09-30 | Object behavior estimation method and object behavior estimating device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010085196A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017009347A (en) * | 2015-06-18 | 2017-01-12 | 株式会社豊田中央研究所 | Steering state estimation device and program |
CN112304312A (en) * | 2020-09-17 | 2021-02-02 | 合肥赛为智能有限公司 | Unmanned aerial vehicle attitude calculation method and system based on least square method and EKF |
WO2022037370A1 (en) * | 2020-08-18 | 2022-02-24 | 华为技术有限公司 | Motion estimation method and apparatus |
-
2008
- 2008-09-30 JP JP2008253513A patent/JP2010085196A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017009347A (en) * | 2015-06-18 | 2017-01-12 | 株式会社豊田中央研究所 | Steering state estimation device and program |
WO2022037370A1 (en) * | 2020-08-18 | 2022-02-24 | 华为技术有限公司 | Motion estimation method and apparatus |
CN112304312A (en) * | 2020-09-17 | 2021-02-02 | 合肥赛为智能有限公司 | Unmanned aerial vehicle attitude calculation method and system based on least square method and EKF |
CN112304312B (en) * | 2020-09-17 | 2022-09-13 | 合肥赛为智能有限公司 | Unmanned aerial vehicle attitude calculation method and system based on least square method and EKF |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6576578B2 (en) | Method, system and non-transitory computer readable memory for controlling a vehicle | |
EP2841874B1 (en) | Estimation of the relative attitude and position between a vehicle body and an implement operably coupled to the vehicle body | |
JP6922641B2 (en) | Angular velocity derivation device and angular velocity derivation method | |
JP5736106B2 (en) | Moving state detection device | |
Du et al. | Online robot calibration based on hybrid sensors using Kalman Filters | |
JP5618066B2 (en) | Force control robot calibration apparatus and method | |
KR20090008924A (en) | Method for measuring pose of a mobile robot and method and apparatus for measuring position of the mobile robot using the method | |
KR20090009172A (en) | Method and apparatus for measuring position of the mobile robot | |
US9802619B2 (en) | Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method | |
JP5570902B2 (en) | Vehicle pitch angle estimation device | |
JP6795540B2 (en) | Devices, methods and programs for estimating load weight and center of gravity position using a robot | |
CN106990836B (en) | Method for measuring spatial position and attitude of head-mounted human input device | |
JP5419268B2 (en) | 3D attitude estimation device, 3D attitude estimation method, and 3D attitude estimation program | |
JP2010085196A (en) | Object behavior estimation method and object behavior estimating device | |
CN104819717B (en) | A kind of multi-rotor aerocraft attitude detecting method based on MEMS inertial sensor group | |
JP2010143238A (en) | Control device for underwater moving body | |
JP5849477B2 (en) | Robot, robot control apparatus, robot control method, and program | |
EP2249123B1 (en) | Surface texture measuring device, surface texture measuring method, and program | |
KR20180085916A (en) | Method for estimating position of wearable devices and apparatus using the same | |
JP7406390B2 (en) | Calibration device and its control method | |
JP2006329758A (en) | Magnetic search system | |
CN109674480B (en) | Human motion attitude calculation method based on improved complementary filtering | |
JP2017188743A (en) | Camera calibration device and camera calibration method | |
JP2015215179A (en) | System and method for magnetic detection | |
JP7186571B2 (en) | Apparatus and method for determining operation completion time of robot |