JP2019168394A - 身体向推定装置および身体向推定プログラム - Google Patents

身体向推定装置および身体向推定プログラム Download PDF

Info

Publication number
JP2019168394A
JP2019168394A JP2018057835A JP2018057835A JP2019168394A JP 2019168394 A JP2019168394 A JP 2019168394A JP 2018057835 A JP2018057835 A JP 2018057835A JP 2018057835 A JP2018057835 A JP 2018057835A JP 2019168394 A JP2019168394 A JP 2019168394A
Authority
JP
Japan
Prior art keywords
quadratic function
user
distance measurement
orientation
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018057835A
Other languages
English (en)
Inventor
豊 渡邊
Yutaka Watanabe
豊 渡邊
真規 岡田
Masanori Okada
真規 岡田
和宏 久野
Kazuhiro Kuno
和宏 久野
▲高▼橋 正樹
正樹 ▲高▼橋
Masaki Takahashi
礼応 萬
Ayanori Yorozu
礼応 萬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Keio University
Original Assignee
Equos Research Co Ltd
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd, Keio University filed Critical Equos Research Co Ltd
Priority to JP2018057835A priority Critical patent/JP2019168394A/ja
Priority to PCT/JP2019/012299 priority patent/WO2019188865A1/ja
Priority to CN201980004746.0A priority patent/CN111164376A/zh
Priority to US16/652,206 priority patent/US20200242344A1/en
Priority to EP19775154.8A priority patent/EP3779356A4/en
Publication of JP2019168394A publication Critical patent/JP2019168394A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】センサと対象者との位置関係が様々に変化する環境下においても、対象者の向きを検出できる身体向推定装置および身体向推定プログラムを提供すること。【解決手段】移動体1は、測距センサ16で測距された測距データMPから、近似楕円Cと、xy軸,yx軸による二次関数Qxy,Qyxとが算出される。ユーザHの肩幅W1及び厚みW2とに近い近似楕円Cが選択され、測距データMPとの近似誤差が最も小さい二次関数Qxy,Qyxが選択される。そして、選択された近似曲線からユーザHの位置および向きが推定される。即ち、1の形状または座標系に基づいた近似曲線がユーザHに適合しない場合は、他の形状または座標系に基づいた近似曲線からユーザHの位置および向きが推定される。よって、測距センサ16とユーザHとの位置関係が様々に変化してもユーザHの位置および向きを検出できる。【選択図】図3

Description

本発明は、センサと対象者との位置関係が様々に変化する環境下においても、対象者の向きを検出できる身体向推定装置および身体向推定プログラムに関するものである。
特許文献1の顔向き検知装置によれば、ヘッドレスト3に水平方向に設けられた複数の距離センサ11a〜11eによって頭部4までの距離をそれぞれ検知し、この頭部距離に基づいて近似曲線5を作成する。作成された近似曲線5の一部を楕円6により近似し、その楕円6の長軸に基づいて頭部4のヨー角を推定している。
また特許文献2の人体向き推定装置によれば、距離センサ50を備え、距離センサ50の測定結果に応じて対象者を楕円で近似し、その重心位置を算出する。この重心位置の変化をトラッキングして、対象者の移動方向を算出し、これを対象者の向きと推定している。同様に特許文献3の位置検出装置も、複数の距離センサ11〜14により対象者を測定し、その測距点群から対象者の輪郭を楕円で近似し、その重心位置の変化をトラッキングして、対象者の移動方向を算出し、これを対象者の向きと推定している。
特開2016−175509号公報 特開2011−081634号公報 特開2010−169521号公報
特許文献1のように、ヘッドレスト3に寄りかかる頭部4の向きであれば、各センサ11a〜11eと頭部4との位置関係は大凡決まっている。よって、頭部4までの距離に基づいて算出された楕円により頭部4のヨー角を推定することは可能である。
しかしながら、特許文献2,3のように、センサと対象者(身体)との位置関係が様々に変化する環境下においては、センサと対象者との位置関係によっては、測距データの取れ方が変わり、近似曲線を対象者に上手く適合できない場合があった。かかる場合には、対象者の向きを検出できなかった。
本発明は、上述した問題点を解決するためになされたものであり、センサと対象者との位置関係が様々に変化する環境下においても、対象者の向きを検出できる身体向推定装置および身体向推定プログラムを提供することを目的としている。
この目的を達成するために本発明の身体向推定装置は、対象者を測距する測距手段と、その測距手段により測距された複数の測距データを基にして近似される二次関数を、複数の座標系に基づいてそれぞれ算出する二次関数算出手段と、その二次関数算出手段により算出された複数の二次関数うち、複数の前記測距データとの近似誤差が最も小さい二次関数を選択する二次関数選択手段と、その二次関数選択手段により選択された二次関数に基づいて前記対象者の向きを推定する向き推定手段と、を備えている。
また本発明の身体向推定プログラムは、対象者を測距した測距データを取得する測距取得機能と、その測距取得機能により取得された複数の測距データを基にして近似される二次関数を、複数の座標系に基づいてそれぞれ算出する二次関数算出機能と、その二次関数算出機能により算出された複数の二次関数うち、複数の前記測距データとの近似誤差が最も小さい二次関数を選択する二次関数選択機能と、その二次関数選択機能により選択された二次関数に基づいて前記対象者の向きを推定する向き推定機能と、をコンピュータに実現させるものである。
本発明の身体向推定装置および身体向推定プログラムによれば、対象者を測距した複数の測距データを基にして近似される二次関数を、複数の座標系に基づいてそれぞれ算出する。この算出された複数の二次関数うち、複数の測距データとの近似誤差が最も小さい二次関数を選択し、その選択された二次関数に基づいて、対象者の向きを推定する。即ち、1の座標系に基づいて算出された二次関数が対象者に上手く適合できない場合には、他の座標系に基づいて算出された二次関数に基づいて対象者の向きを推定する。よって、測距手段(センサ)と対象者との位置関係が様々に変化する環境下においても、対象者の向きを検出できるという効果がある。
移動体の外観図である。 移動体の電気的構成を示すブロック図である。 移動体のフローチャートである。 ユーザの近似楕円の算出を示す図である。 (a)は、測距データの瞬間的なバラツキによって、サイズの異なる近似楕円が算出される場合を示す図であり、(b)は、ユーザの身体の肩幅および厚さと、近似楕円の長軸および短軸とを示す図である。 (a)は、2種類の二次関数の算出を示す図であり、(b)は、両端の測距データ間に二次関数の頂点が存在しない場合を示す図である。 (a)は、クラスタエッジ間に二次関数の頂点が存在し、1のクラスタエッジが二次関数の頂点より外側かつ頂点から離れている場合を示す図であり、(b)は、クラスタエッジ間に二次関数の頂点が存在し、1のクラスタエッジが二次関数の頂点より外側かつ頂点Tに近い場合を示す図である。
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。まず、図1を参照して、本実施形態における移動体1の構成を説明する。図1は、移動体1の外観図である。移動体1は、ユーザHの前方にて、ユーザ(対象者)Hに対し適切な位置に移動して、ユーザHに随行できる装置として機能する。
図1に示す通り、移動体1は、主に略円柱状の外装2と、その外装2の内部に配設され移動体1の各部を制御する制御部10と、測距センサ16と、車輪17とを有する。測距センサ16は、外装2の上部に配置され、レーザ光を全方位(360度)に対して照射することで、測距センサ16と物体との距離を検知(測距)する装置である。測距センサ16は、任意の角度毎に検出された対象物との距離を、その角度に対応付けて制御部10へ送信する。また、測距センサ16は上下方向に移動可能に構成され、予め測距センサ16からのレーザ光がユーザHの肩周辺に照射されるよう、測距センサ16の上下方向の位置が適宜設定される。以下、測距センサ16から検知される距離および角度のことを「測距データ」と称す。
車輪17は、外装2の下部における左右両端にそれぞれ設けられる車輪である。左右の車輪17にはモータ(図示せず)が接続され、後述する駆動部18(図2参照)からの制御信号に基づいてモータを駆動させることで、移動体1が移動される。左右のモータを、同じ出力で正転および逆転させることで移動体1の前方移動および後方移動を行い、また、モータを差動させることで、移動体1の移動方向の変更を行う。即ち、移動体1は、かかる車輪17が配設される直交方向である前後方向には移動可能である一方で、左右方向には直接移動できないので、移動体1は、非ホロノミックな拘束条件を有する車輪17及び駆動部18によって移動するものである。
次に、図2を参照して、移動体1の電気的構成について説明する。図2は、移動体1の電気的構成を示すブロック図である。移動体1は制御部10を有し、その制御部10はCPU11と、フラッシュROM12と、RAM13とを有し、これらはバスライン14を介して入出力ポート15にそれぞれ接続されている。入出力ポート15には、更に、測距センサ16と、駆動部18とが接続されている。
CPU11は、バスライン14により接続された各部を制御する演算装置である。フラッシュROM12は、CPU11により実行されるプログラムや固定値データ等を格納した書き換え可能な不揮発性の記憶装置であり、制御プログラム12aが記憶される。CPU11によって制御プログラム12aが実行されると、図3のメイン処理が実行される。
RAM13は、CPU11が制御プログラム12aの実行時に各種のワークデータやフラグ等を書き換え可能に記憶するためのメモリであり、測距センサ16から測距された測距データMPが記憶される測距データメモリ13aと、楕円位置向メモリ13bと、二次関数位置向メモリ13cと、カルマンフィルタ予測位置向メモリ13d(以下「KF予測位置向メモリ13d」と略す)と、相関結果位置向メモリ13eと、推定現在位置向メモリ13fと、前回値メモリ13gとがそれぞれ設けられる。
楕円位置向メモリ13bは、測距データメモリ13aの測距データMPから近似された近似楕円C(図4参照)から推定された、ユーザHの位置および向きを記憶するメモリである。二次関数位置向メモリ13cは、測距データメモリ13aの測距データMPから近似された二次関数Qxy又はQyx(図6参照)から推定されたユーザHの位置および向きを記憶するメモリである。
KF予測位置向メモリ13dは、後述の前回値メモリ13gの値から、カルマンフィルタ予測ステップ(数式9)に基づいて推定されたユーザHの現在の位置および向きを記憶するメモリである。相関結果位置向メモリ13eは、楕円位置向メモリ13b及び二次関数位置向メモリ13cに記憶された複数のユーザHの位置および向きのうち、最もユーザHらしいと推定されるユーザHの位置および向きが記憶されるメモリである。
推定現在位置向メモリ13fは、相関結果位置向メモリ13eの値に基づいてカルマンフィルタによって推定されたユーザHの位置および向きが記憶されるメモリであり、前回値メモリ13gは、前回の推定現在位置向メモリ13fの値と、推定されたユーザHの速度および角速度とが記憶されるメモリである。
駆動部18は、移動体1を移動動作させるための装置であり、車輪17(図1参照)および車輪17の駆動源となるモータ(図示せず)等から構成される。制御部10から制御信号が駆動部18に入力されると、入力された制御信号に基づいてモータが回転し、該モータの回転が動力となって車輪17が駆動し、移動体1を動作させる。
次に、図3〜7を参照して、移動体1のCPU11で実行されるメイン処理を説明する。図3は、移動体1のメイン処理のフローチャートである。メイン処理は移動体1の電源投入直後に実行される。メイン処理はまず、測距センサ16から取得した測距データMPを測距データメモリ13aに保存する(S1)。S1の処理の後、測距データメモリ13aに記憶される測距データMPに基づいて、ユーザHの近似楕円Cを算出する(S2)。ここで図2を参照して、測距データMPに基づく、ユーザHの近似楕円Cの算出について説明する。
図4は、ユーザHの近似楕円Cの算出を示す図である。図4において、測距センサ16から取得されたユーザHの測距データMPを、白抜きの四角形で表す。測距データMPに基づいた最小二乗法等によって、1の近似楕円Cが算出される。本実施形態では、近似楕円Cの中心CPが「ユーザHの位置」とされ、近似楕円Cにおける短軸の向きDC1,DC2が「ユーザHの向き」とされる。向きDC1,DC2の2つがユーザHの向きとして算出されるのは、近似楕円CからはユーザHがどの方向を向いているか(前面または背面)が区別できないからである。なお、向きDC1,DC2のうち、いずれをユーザHの最終的な向きとするかは、後述のS7の処理で判定される。
図3に戻る。S2の処理の後、算出された近似楕円CがユーザHの体のサイズに近いものである場合は、その近似楕円CにおけるユーザHの位置および向きを楕円位置向メモリ13bに保存する(S3)。S2の処理では、測距データMPの瞬間的なバラツキや、測距データMPの測距誤差による揺らぎ等によって、算出される近似楕円CがユーザHの体のサイズにフィットしたものや、ユーザHの体のサイズから離れたもの等、様々となる場合がある。そこで、S3の処理では、算出された近似楕円CがユーザHの体のサイズに近いかどうかが判断され、近似楕円CがユーザHの体のサイズに近い場合は、該近似楕円CからユーザHの位置および向きが算出される。かかるS3の処理における近似楕円Cの選択について、図5を参照して説明する。
図5(a)は、測距データMPの瞬間的なバラツキによって、サイズの異なる近似楕円Cが算出される場合を示す図であり、図5(b)は、ユーザHの身体の肩幅W1および厚さW2と、近似楕円Cの長軸a及び短軸bとを示す図である。図3のS2の処理によって、測距データMPから1の近似楕円Cが算出されるが、測距データMPの瞬間的なバラツキによって、図5(a)に示すように、ユーザHの体のサイズに近い近似楕円C1が算出される場合と、近似楕円C1とはサイズの異なる近似楕円C2が算出される場合とが存在する。特に、近似楕円C2は、ユーザHの肩周辺の身体の外周よりも大きな円周で近似されている。このような近似楕円C2では、ユーザHの位置および向きを正確に算出できない。
そこで、図3のS3の処理では、図5(b)に示す通り、近似楕円Cの長軸a及び短軸bと、ユーザHの肩周辺における標準的な肩幅W1及び厚みW2とに基づき、算出された近似楕円Cが、ユーザHの肩周辺の外周に近いかどうかを判断する。具体的には、以下の数式1の条件を満たす近似楕円Cが、ユーザHの体のサイズに近いものと判断される。
Figure 2019168394
本実施形態では、肩幅W1として「0.6m」が例示され、厚さW2として「0.3m」が例示される。即ち、近似楕円Cの長軸aの2倍の長さがユーザHの肩幅W1の±10%以内かつ、短軸bの2倍の長さがユーザHの厚さW2の±10%以内である場合に、近似楕円Cは、ユーザHのサイズに近いと判断される。このようにして、近似楕円CがユーザHの体のサイズに近いと判断された場合は、その近似楕円Cの中心CPおよび向きDC1,DC2が、楕円位置向メモリ13bに保存される。
図3に戻る。S3の処理の後、測距データメモリに記憶される測距データMPに基づいて、xy座標系に基づく二次関数Qxyと、yx座標系に基づく二次関数Qyxとをそれぞれ算出する(S4)。ここで、図6(a)を参照して、二次関数Qxy,Qyxの算出について説明する。
図6(a)は、2種類の二次関数Qxy,Qyxの算出を模式的に示した図である。図6(a)に示す通り、測距データMPに基づいて、xy座標系において二次関数で近似された二次関数Qxyと、yz座標系において二次関数で近似された二次関数Qxyとが算出される。二次関数Qxyは以下の数式2に基づいて、二次関数Qyxは数式3に基づいてそれぞれ算出される。
Figure 2019168394
ここで、数式2におけるa,b,cは係数であり、これら係数は、数式2と測距データMPとの最小二乗法に基づいて決定される。また、数式3におけるa,b,cも係数であり、これら係数は、数式3と測距データMPとの最小二乗法に基づいて決定される。即ち、本実施形態の二次関数Qxyのx軸に沿って直立する形状とされ、二次関数Qyxの軸線はy軸に沿って直立する形状と平行とされる。
ところで、測距センサ16は、レーザ光を全方位に対して照射することでユーザHとの距離が取得されるので、ユーザHの身体の一部分が、ユーザHの測距データMPとして取得される。即ち、測距センサ16から取得される測距データMPは、その分布に偏りが生じる。また、図6(a)に示す通り、xy座標系による二次関数Qxyは、上(または下)に凸の形状であり、yx座標系による二次関数Qyxは、左(または右)に凸の形状である。
即ち、二次関数Qxyと二次関数Qyxとでは形状が異なるので、測距データMPの分布によって、二次関数Qxyに適合する測距データMPの分布や、二次関数Qyxに適合する測距データMPの分布が存在し得る。そこで本実施形態では、測距データMPから形状の異なる2つの二次関数Qxy,Qyxを算出することで、測距データMPの分布により適合し得る二次関数Qの候補を挙げることができる。
図3に戻る。S4の処理の後、二次関数Qxy,Qyxから、測距データメモリ13aの値との近似誤差が最も小さいものを選択し、その二次関数Qxy又はQyxの位置および向きを二次関数位置向メモリ13cに保存する(S5)。具体的には、まず、S4の処理で算出された、二次関数Qxy,Qyxのそれぞれについて、測距データメモリ13aに記憶される測距データMPとの近似誤差が算出される。これら二次関数Qxy,Qyxの近似誤差が小さい方が、ユーザHの位置および向きを算出する二次関数Qとして選択される。
選択された二次関数Qから、ユーザHの位置および向きが算出される。本実施形態においては、二次関数Qの頂点Tと測距データMPとの位置関係に応じて、ユーザHの位置および向きを算出する。ここで、二次関数QにおけるユーザHの位置および向きの算出方法を、図6(b),図7を参照して説明する。
図6(b)は、両端の測距データMP間に二次関数Qの頂点Tが存在しない場合を示す図である。ここで、図6(b),図7において、測距データMPのうち、二次関数Qの一端側に該当する測距データを「クラスタエッジE1」と称し、二次関数Qの他端側に該当する測距データMPを「クラスタエッジE2」と称する。
図6(b)において、二次関数Qの頂点Tは、クラスタエッジE1とクラスタエッジE2との外側に位置する。即ち、測距データMPは、ユーザHの身体の一部分、具体的には、身体の前面(胸側)または背面(背中側)を測距できたが、両肩を上手く測距できなかったと判断される。
そこで、本実施形態では、二次関数Qの頂点TがクラスタエッジE1とクラスタエッジE2との外側に位置する場合に、確実に測距できたクラスタエッジE1及びクラスタエッジE2に基づいて、ユーザHの位置および向きが算出される。具体的には、クラスタエッジE1とクラスタエッジE2との中点EcがユーザHの位置とされ、クラスタエッジE1とクラスタエッジE2とを結ぶ直線に直交する向きDQ1,DQ2がユーザHの向きとされる。具体的には、クラスタエッジE1のx軸方向の座標をXE1,y軸方向の座標をYE1とし、クラスタエッジE2のx軸方向の座標をXE2,y軸方向の座標をYE2とすると、ユーザHの向きDQ1は数式4で算出され、ユーザHの向きDQ2は数式5で算出される。
Figure 2019168394
これにより、測距データMPとしてユーザHの身体の一部分(前面または背面)のみが測距された場合であっても、確実に測距されたクラスタエッジE1とクラスタエッジE2とに基づいてユーザHの位置および向きが算出されるので、かかるユーザHの位置および向きの誤差を最小限に抑えることができる。なお、ユーザHの向きとして向きDQ1,DQ2の2つが算出されるのは、上記した近似楕円Cと同様に、二次関数QからユーザHがどの方向を向いているか(前面または背面)を区別できないからである。なお、向きDQ1,DQ2のうち、いずれをユーザHの最終的な向きとするかは後述のS7の処理で判定される。
次に、二次関数Qの頂点TがクラスタエッジE1とクラスタエッジE2との間に存在する場合について、図7を参照して説明する。二次関数Qの頂点TがクラスタエッジE1とクラスタエッジE2との間に存在する場合は、更に、クラスタエッジE1及びクラスタエッジE2が共に頂点Tから離れている場合(図7(a))と、クラスタエッジE1又はクラスタエッジE2のいずれか一方が頂点Tに近い場合と(図7(b))で、ユーザHの位置および向きの算出方法が異なる。
図7(a)は、クラスタエッジE1,E2間に二次関数Qの頂点Tが存在し、クラスタエッジE2が二次関数Qの頂点Tより外側かつ頂点Tから離れている場合を示す図であり、図7(b)は、クラスタエッジE1,E2間に二次関数Qの頂点Tが存在し、クラスタエッジE2が二次関数Qの頂点Tより外側かつ頂点Tに近い場合を示す図である。以下では、クラスタエッジE1が頂点Tから十分に離れていて、クラスタエッジE2が頂点Tから離れている場合と、頂点Tに近づいている場合とを説明するが、クラスタエッジE2が頂点Tから十分に離れていて、クラスタエッジE1が頂点Tから離れている場合もしくは頂点Tに近い場合も、同様であることは言うまでもない。
クラスタエッジE1とクラスタエッジE2との間に頂点Tが位置する場合は、まず、クラスタエッジE2と頂点Tとの距離関係が判断される。具体的には、図7(a),図7(b)に示す、中点Ecと頂点Tとの距離と、中点EcとクラスタエッジE2との距離に基づいて、クラスタエッジE2と頂点Tとの位置関係が判断される。ここで、中点Ecと頂点Tとのx軸方向の距離をΔX,y軸方向の距離をΔYとし、中点EcとクラスタエッジE2とのx軸方向の距離をΔX,y軸方向の距離をΔYとして、以下の数式6を満たす場合は、クラスタエッジE2と頂点Tとが離れていると判断される。
Figure 2019168394
即ち、本実施形態では、中点EcとクラスタエッジE2との距離が、中点Ecと頂点Tとの距離の0.9倍より大きい場合は、クラスタエッジE2と頂点Tとが離れていると判断される。
まず、図7(a)を参照して、クラスタエッジE2と頂点Tとが離れている場合の、ユーザHの位置および向きの算出方法を説明する。図7(a)に示す通り、クラスタエッジE2と頂点Tとが離れているので、クラスタエッジE1と頂点Tとの間のみならず、頂点TとクラスタエッジE2との間にも多くの測距データMPが測距される。従って、測距データMPによって、両肩を含めたユーザHの身体の前面または背面を幅広く測距されたと判断できる。この場合、頂点T付近がユーザHの胸部もしくは背中の中心位置と推定され、クラスタエッジE1とクラスタエッジE2とは、両肩付近の位置と推定される。
そこで本実施形態では、クラスタエッジE2と頂点Tとが離れている場合は、両肩の位置と推定されるクラスタエッジE1,E2とに基づいて、ユーザHの位置および向きが算出される。具体的には、中点EcがユーザHの位置とされ、クラスタエッジE1とクラスタエッジE2とを結ぶ直線に直交する向きDQ1,DQ2が、ユーザHの向きとされる。即ち、ユーザHの向きは、上述した数式4と数式5とにより算出される。これにより、両肩の位置と推定されるクラスタエッジE1,E2に基づいて、ユーザHの位置および向きが算出されるので、かかるユーザHの位置および向きを、より精度の高いものとできる。
次に、クラスタエッジE2と頂点Tとが近い場合、即ち、上述した数式6を満たさない場合のユーザHの位置および向きの算出方法を図7(b)を参照して説明する。図7(b)に示す通り、クラスタエッジE2は、頂点Tよりも外側かつ頂点Tとが近い位置に存在している。かかる場合は、頂点T付近の位置がユーザHの左肩または右肩付近の位置と推定される。
ところで、クラスタエッジE2は頂点Tよりも外側に隣接するので、測距センサ16(移動体1)から見た場合、クラスタエッジE2は頂点Tの「裏側」に位置する。即ち、頂点Tが、測距センサ16からのレーザ光の障害(邪魔)となって、クラスタエッジE2まで届かず、クラスタエッジE2は測距できない状態となっている。これによって、該当する左肩または右肩の全体が測距できないことで、クラスタエッジE2が正確に測距されなかった虞がある。
そこで本実施形態では、クラスタエッジE1,E2に加え、測距データMPが正確に取得された範囲に位置する頂点T、即ち左肩または右肩とされる位置とに基づいてユーザHの向きDQ1,DQ2が算出される。具体的には、中点Ecのx軸方向の座標をX,y軸方向の座標Yとし、頂点Tのx軸方向の座標をX,y軸方向の座標をYとすると、ユーザHの向きDQ1は以下の数式7で算出され、向きDQ2は数式8で算出される。
Figure 2019168394
即ち、クラスタエッジE2と頂点Tとが近い場合は、中点Ecと頂点Tとを結ぶ直線に直交する直線の角度から向きDQ1,DQ2が算出される。即ち、正確に測距データMPが取得された範囲に位置するが、近似された二次関数Q上の左肩または右肩の位置とされる頂点Tと、実際に測距センサ16によって測距されたが、頂点T付近の影響によって正確に測距されなかった虞のあるクラスタエッジE2との両方が考慮されて向きDQ1,DQ2が算出されるので、かかる向きDQ1,DQ2の誤差を抑制できる。以上のように算出された、向きDQ1,DQ2をユーザHの向きとして、また、中点Ecをユーザの位置として、それぞれ二次関数位置向メモリ13cに保存される。
図3に戻る。S5の処理の後、前回値メモリ13gの値から、カルマンフィルタ予測ステップに基づいてユーザHの現在の位置および向きを予測し、KF予測位置向メモリ13dに保存する(S6)。前回値メモリ13gには、後述する前回のS9又はS11の処理で推定された、最終的なユーザHの現在位置や向き、速度や角速度が記憶される。かかる前回状態が継続した場合に、予測されるユーザHの位置および向きが算出される。
ここで、前回値メモリ13gに記憶されるユーザHのx軸方向の位置をPx,k−1,y軸方向の位置をPy,k−1,ユーザHの向きをPθ,k−1,ユーザHのx軸方向の速度をVx,k−1,y軸方向の速度をVy,k−1,ユーザHの角速度をVθ,k−1とし、前回のS9又はS11の処理からの経過時間をΔt,加速度外乱等によるユーザHのシステム雑音成分をnxs,nys,nθsとすると、予測されるユーザHのx軸方向の位置Pxp,k,y軸方向の位置Pyp,k,ユーザHの向きPθp,k,ユーザHのx軸方向の速度Vxp,k,y軸方向の速度Vyp,k,ユーザHの角速度Vθp,kは、公知のカルマンフィルタ予測ステップである数式9によって算出される。
Figure 2019168394
かかる数式9で予測されたユーザHのx軸方向の位置Pxp,k,y軸方向の位置Pyp,k,ユーザHの向きPθp,k,ユーザHのx軸方向の速度Vxp,k,y軸方向の速度Vyp,k,ユーザHの角速度Vθp,kがKF予測位置向メモリ13dに記憶される。
S6の処理の後、楕円位置向メモリ13b,二次関数位置向メモリ13c及びKF予測位置向メモリ13dに記憶されるユーザHの位置および向きに基づき相関処理を行い、該当するユーザHの位置および向きを相関結果位置向メモリ13eに保存する(S7)。
具体的には、まず、楕円位置向メモリ13b及び二次関数位置向メモリ13cに記憶されるユーザHの位置および向きを、KF予測位置向メモリ13dに記憶される前回値を基準とした「ゲート」で絞り込みを行う。これによって、前回値に基づくユーザHの位置および向きから大きく異なる、楕円位置向メモリ13b及び二次関数位置向メモリ13cのユーザHの位置および向きが排除される。
そして、ゲートによって絞り込まれたユーザHの位置および向きの中から、更に最近傍法によって最もユーザHの位置および向きらしいと推定されるものが選択され、相関結果位置向メモリ13eに記憶される。この際、ゲートによる絞り込み及び最近傍法によって、1つもユーザHの位置および向きが選択されなかった場合は、相関結果位置向メモリ13eには、ユーザHの位置および向きが選択されなかった旨を示す値が記憶される。なお、ゲートおよび最近傍法は公知の技術なので、これらの詳細な説明は省略する。
かかるゲートによる絞り込み及び最近傍法によって、近似楕円Cおよび二次関数Qから算出されたユーザHの位置および向きのうち、最もユーザHらしいと推定されるユーザHの位置および向きが選択される。
S7の処理の後、相関結果位置向メモリ13eにユーザHの位置および向きが記憶されているかを確認する(S8)。ユーザHの位置および向きが記憶されている場合(S8:Yes)、相関結果位置向メモリ13eの値から、公知のカルマンフィルタによってユーザの現在の位置および向きを推定し、推定現在位置向メモリ13fに保存する(S9)。具体的には、相関結果位置向メモリ13eに記憶されるユーザHのx軸方向の位置をPxc,y軸方向の位置をPyc,ユーザHの向きをPθc,ユーザHのx軸方向の速度をVxc,y軸方向の速度をVyc,ユーザHの角速度をVθcとし、測距センサ16の検知誤差やユーザHの動きによる尤度関数等による観測誤差成分をnxp,nyp,nθpとすると、ユーザHのx軸方向の位置Px,k,y軸方向の位置Py,k,ユーザHの向きPθ,kは、数式10によって算出される。
Figure 2019168394
なお、ユーザHのx軸方向の速度Vxcは、前回値メモリ13gに記憶されるユーザHのx軸方向の位置と、相関結果位置向メモリ13eに記憶されるユーザHのx軸方向の位置とに基づいて算出され、同様にユーザHのy軸方向の速度Vycは、前回値メモリ13gのユーザHのy軸方向の位置と相関結果位置向メモリ13eのy軸方向の位置とに基づいて算出され、ユーザHの角速度Vθcは、前回値メモリ13gのユーザHの向きと相関結果位置向メモリ13eのユーザHの向きとに基づいて算出される。
これにより、S7の処理で相関結果位置向メモリ13eに記憶された、最もユーザHらしいと推定されるユーザHの位置および向きに、観測誤差成分、即ち測距センサ16の検知誤差やユーザHの動き等、現実的に発生し得る誤差が含まれるので、実際に観測されるユーザHの位置および向きとの誤差が小さいユーザHの位置および向きを推定することができる。
一方、相関結果位置向メモリ13eに、ユーザHの位置および向きが記憶されていない場合(S8:No)、即ち、S7の処理において、相関結果位置向メモリ13eにユーザHの位置および向きが選択されなかった旨を示す値が記憶された場合は、推定現在位置向メモリ13fにKF予測位置向メモリ13dの値を保存する(S10)。即ち、S7の処理において、S2〜S5の処理で算出されたユーザHの位置および向きが、いずれもユーザHらしくないと判断された場合でも、予測値ではあるものの、前回値メモリ13gの値に基づく現在のユーザHの位置および向きが推定現在位置向メモリ13fに記憶される。これにより、該ユーザHの位置および向きが更新されない事態を抑制できる。
S9,S10の処理の後、推定現在位置向メモリ13fのユーザHの位置および向きに基づく制御信号を駆動部18に出力して(S11)、駆動部18を動作させる。これにより、移動体1は推定されたユーザHの位置および向きに基づいて移動動作される。
S12の処理の後、推定現在位置向メモリ13fに記憶されるユーザHの位置および向きと、ユーザHの速度および角速度とを前回値メモリ13gへ保存する(S12)。具体的には、まず、推定現在位置向メモリ13fのユーザHの位置および向きと、前回値メモリ13gに記憶されるユーザHの位置および向きとにより、ユーザHの速度および角速度を算出し、かかるユーザHの速度および角速度を前回値メモリ13gに保存した後に、推定現在位置向メモリ13fのユーザHの位置および向きに保存する。そして、S12の処理の後は、S1以下の処理を繰り返す。
以上説明した通り、本実施形態の移動体1は、測距センサ16によって測距された測距データMPに基づいて、近似楕円Cと、xy軸およびyx軸による二次関数Qxy,Qyxとが算出され、それぞれのユーザHの位置および向きが算出される。算出された複数のユーザHの位置および向きから、ゲート及び最近傍法によって、最もユーザHらしいと推定されるユーザHの位置および向きが選択され、該ユーザHの位置および向きから、現在のユーザHの位置および向きが推定される。
ここで、移動体1とユーザHとの位置関係は、時々刻々と、様々に変化する。そこで、測距データMPから近似楕円C,二次関数Qxy,Qyxといった複数の形状および、複数の座標系による近似曲線を算出し、1の形状または座標系に基づいた近似曲線がユーザHに上手く適合しない場合は、より適合する他の形状あるいは座標系に基づいた近似曲線に基づいて、ユーザHの位置および向きが推定される。これにより、測距センサ16とユーザHとの位置関係が様々に変化しても、ユーザHの位置および向きを検出できる。
以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。
上記実施形態では、測距データMPから算出される二次関数Qとして、xy座標系による二次関数Qxyと、yx座標系による二次関数Qyxとの2種類とする構成とした。しかし、必ずしもこれに限られるものではなく、xz座標系やyz座標系による二次関数を算出しても良いし、他の座標系による二次関数Qを算出しても良い。
上記実施形態では、測距データMPを二次関数で近似する構成とした。しかし、必ずしもこれに限られるものではなく、三次関数や四次関数等、次数が3以上の多項式関数によって近似する構成としても良い。
上記実施形態では、二次関数Qxyはx軸に沿って直立する形状とし、二次関数Qyxの軸線はy軸に沿って直立する構成とした。しかし、必ずしもこれに限られるものではなく、二次関数Qxy,Qyxをx軸またはy軸側に傾ける形状とする構成としても良い。
上記実施形態では、測距センサ16によって肩周辺の胴体が測距される構成とした。しかし、これに限られるものではなく、腹部周辺や腰周辺等、ユーザHの胴体が測距される部位であれば、他の部位でも良い。
上記実施形態では、近似楕円Cと二次関数Qとに基づいて、ユーザHの位置および向きを推定する構成とした。しかし、必ずしもこれに限られるものではなく、二次関数Qのみに基づいて、ユーザHの位置および向きを推定しても良いし、近似楕円Cのみに基づいて、ユーザHの位置および向きを推定しても良い。
上記実施形態では、近似楕円Cの長軸a及び短軸bがユーザHの肩幅W1及び厚さW2に近似する場合、近似楕円Cの中心CPおよび向きDC1,DC2を楕円位置向メモリ13bへ記憶する構成とした。しかし、必ずしもこれに限られるものではなく、近似楕円Cの円周がユーザHの肩周辺の外周の長さと近似する場合に、近似楕円Cの中心CPおよび向きDC1,DC2を楕円位置向メモリ13bに記憶する構成としても良いし、近似楕円Cの面積がユーザHの肩周辺の断面積と近似する場合に、近似楕円Cの中心CPおよび向きDC1,DC2を楕円位置向メモリ13bに記憶する構成としても良い。
上記実施形態では、二次関数QにおけるクラスタエッジE1,E2を、測距データMPのうち両端の測距データMPとした。しかし、必ずしもこれに限られるものではなく、二次関数Q上の点であって、測距データMPのうち一方の端の測距データMPに近似する点をクラスタエッジE1とし、他方の端の測距データMPに近似する点をクラスタエッジE2とする構成としても良い。
上記実施形態では、近似楕円CにおけるユーザHの位置を近似楕円Cの中心CPとし、二次関数Qxy,QyxにおけるユーザHの位置をクラスタエッジE1,E2の中点Ecとする構成とした。しかし、必ずしもこれに限られるものではなく、近似楕円C及び二次関数QにおけるユーザHの位置をいずれも近似楕円Cの中心CPとしても良いし、クラスタエッジE1,E2の中点Ecとしても良い。また、測距データMPに基づく最小二乗法等、他の手法によって算出されたユーザHの位置を用いても良い。
上記実施形態では、クラスタエッジE1とクラスタエッジE2との間に頂点Tが存在し、かつクラスタエッジE2と頂点Tとが近い場合は、中点Ecと頂点Tとを結ぶ直線に直交する直線の角度から向きDQ1,DQ2を算出する構成とした。しかし、必ずしもこれに限られるものではなく、かかる場合に、クラスタエッジE2と頂点Tとが離れている場合と同様に、クラスタエッジE1とクラスタエッジE2とを結ぶ直線に直交する直線の角度から向きDQ1,DQ2を算出する構成としても良い。
上記実施形態に挙げた数値は一例であり、他の数値を採用することは当然可能である。
10 制御部(身体向推定装置)
12a 制御プログラム(身体向推定プログラム)
H ユーザ(対象者)
16 測距センサ(測距手段、測距取得機能)
MP 測距データ
Q,Qxy,Qyx 二次関数
C,C1,C2 近似楕円
E1,E2 クラスタエッジ
S2 楕円算出手段
S3 向き推定手段、向き推定機能
S4 二次関数算出手段、二次関数算出機能
S5 二次関数選択手段、二次関数選択機能、
向き推定手段、向き推定機能
第1向き推定手段、第2向き推定手段
S7〜S10 向き推定手段、向き推定機能
T 頂点

Claims (11)

  1. 対象者を測距する測距手段と、
    その測距手段により測距された複数の測距データを基にして近似される二次関数を、複数の座標系に基づいてそれぞれ算出する二次関数算出手段と、
    その二次関数算出手段により算出された複数の二次関数うち、複数の前記測距データとの近似誤差が最も小さい二次関数を選択する二次関数選択手段と、
    その二次関数選択手段により選択された二次関数に基づいて前記対象者の向きを推定する向き推定手段と、
    を備えていることを特徴とする身体向推定装置。
  2. 前記二次関数選択手段により選択された二次関数の算出に用いられた測距データのうち、その二次関数上の一方の端に該当する測距データと、他方の端に該当する測距データとの2点をクラスタエッジと称し、或いは、前記二次関数選択手段により選択された二次関数上の点であって、複数の前記測距データのうち、一方の端の測距データに近似される点と、他方の端の測距データに近似される点との2点をクラスタエッジと称し、
    前記向き推定手段は、前記クラスタエッジを結ぶ直線に直交する方向を、前記対象者の向きとして推定する第1向き推定手段を備えていることを特徴とする請求項1記載の身体向推定装置。
  3. 前記向き推定手段は、前記二次関数選択手段により選択された二次関数の頂点が前記クラスタエッジの間に存在しない場合に、前記第1向き推定手段によって前記対象者の向きを推定するものであることを特徴とする請求項2記載の身体向推定装置。
  4. 前記向き推定手段は、前記二次関数選択手段により選択された二次関数の頂点が前記クラスタエッジの間に存在し且つ第1所定条件を満たす場合に、前記第1向き推定手段によって前記対象者の向きを推定するものであることを特徴とする請求項2又は3に記載の身体向推定装置。
  5. 前記二次関数選択手段により選択された二次関数の算出に用いられた測距データのうち、その二次関数上の一方の端に該当する測距データと、他方の端に該当する測距データとの2点をクラスタエッジと称し、或いは、前記二次関数選択手段により選択された二次関数上の点であって、複数の前記測距データのうち、一方の端の測距データに近似される点と、他方の端の測距データに近似される点との2点をクラスタエッジと称し、
    前記向き推定手段は、前記クラスタエッジの中点と前記二次関数選択手段により選択された二次関数の頂点とを結ぶ直線に直交する方向を、前記対象者の向きとして推定する第2向き推定手段を備えていることを特徴とする請求項1から4のいずれかに記載の身体向推定装置。
  6. 前記向き推定手段は、前記二次関数選択手段により選択された二次関数の頂点が前記クラスタエッジの間に存在し且つ第2所定条件を満たす場合に、前記第2向き推定手段によって前記対象者の向きを推定するものであることを特徴とする請求項5記載の身体向推定装置。
  7. 前記二次関数算出手段は、複数の前記測距データを基にして近似される二次関数を、xy座標系とyx座標系との少なくとも2つの座標系に基づいて、それぞれ算出するものであることを特徴とする請求項1から6のいずれかに記載の身体向推定装置。
  8. 前記測距手段により測距された複数の測距データに基づいて近似楕円を算出する楕円算出手段を備え、
    前記向き推定手段は、その楕円算出手段により算出された楕円または前記二次関数選択手段により選択された二次関数に基づいて前記対象者の向きを推定するものであることを特徴とする請求項1から7のいずれかに記載の身体向推定装置。
  9. 前記向き推定手段は、前記楕円算出手段により算出された楕円に基づいて推定された前記対象者の向きと、前記二次関数選択手段により選択された二次関数に基づいて推定された前記対象者の向きと、前記対象者の前回推定された向きに基づいて予測された前記対象者の今回予測向きとのうち、いずれかの向きを前記対象者の今回予測向きに基づく相関処理により前記対象者の向きとして推定するものであることを特徴とする請求項8記載の身体向推定装置。
  10. 前記向き推定手段は、前記対象者の前記推定された向きを、更にカルマンフィルタによって更新し、その更新後の向きを前記対象者の向きとして推定するものであることを特徴とする請求項1から9のいずれかに記載の身体向推定装置。
  11. 対象者を測距した測距データを取得する測距取得機能と、
    その測距取得機能により取得された複数の測距データを基にして近似される二次関数を、複数の座標系に基づいてそれぞれ算出する二次関数算出機能と、
    その二次関数算出機能により算出された複数の二次関数うち、複数の前記測距データとの近似誤差が最も小さい二次関数を選択する二次関数選択機能と、
    その二次関数選択機能により選択された二次関数に基づいて前記対象者の向きを推定する向き推定機能と、
    をコンピュータに実現させることを特徴とする身体向推定プログラム。
JP2018057835A 2018-03-26 2018-03-26 身体向推定装置および身体向推定プログラム Ceased JP2019168394A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018057835A JP2019168394A (ja) 2018-03-26 2018-03-26 身体向推定装置および身体向推定プログラム
PCT/JP2019/012299 WO2019188865A1 (ja) 2018-03-26 2019-03-25 身体向推定装置および身体向推定プログラム
CN201980004746.0A CN111164376A (zh) 2018-03-26 2019-03-25 身体朝向推断装置以及身体朝向推断程序
US16/652,206 US20200242344A1 (en) 2018-03-26 2019-03-25 Body orientation estimation device and body orientation estimation program
EP19775154.8A EP3779356A4 (en) 2018-03-26 2019-03-25 Body orientation estimation device and body orientation estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057835A JP2019168394A (ja) 2018-03-26 2018-03-26 身体向推定装置および身体向推定プログラム

Publications (1)

Publication Number Publication Date
JP2019168394A true JP2019168394A (ja) 2019-10-03

Family

ID=68061872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057835A Ceased JP2019168394A (ja) 2018-03-26 2018-03-26 身体向推定装置および身体向推定プログラム

Country Status (5)

Country Link
US (1) US20200242344A1 (ja)
EP (1) EP3779356A4 (ja)
JP (1) JP2019168394A (ja)
CN (1) CN111164376A (ja)
WO (1) WO2019188865A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322050A (ja) * 1996-05-29 1997-12-12 Sony Corp 被写体認識装置および方法
JP2008257575A (ja) * 2007-04-06 2008-10-23 Fujitsu Ltd 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム
JP2009116871A (ja) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc 鏡上の内容及び動作に関連した情報を用いて鏡の機能を拡張する方法及び装置
JP2010169521A (ja) * 2009-01-22 2010-08-05 Nec Corp 位置検出装置、位置検出方法及びプログラム
JP2011081634A (ja) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd 人体向き推定装置及び人体向き推定方法
WO2013011644A1 (ja) * 2011-07-15 2013-01-24 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
WO2018180503A1 (ja) * 2017-03-30 2018-10-04 株式会社エクォス・リサーチ 身体向推定装置および身体向推定プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3751517A1 (en) * 2011-05-16 2020-12-16 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Fast articulated motion tracking
JP5550124B2 (ja) * 2012-08-17 2014-07-16 Necシステムテクノロジー株式会社 入力装置、機器、入力方法およびプログラム
JP2016175509A (ja) 2015-03-19 2016-10-06 カルソニックカンセイ株式会社 顔向き検知装置及び顔向き検知方法
US9672428B2 (en) * 2015-09-11 2017-06-06 Disney Enterprises, Inc. Systems and methods for detecting free-standing groups of individuals
CN107341179B (zh) * 2017-05-26 2020-09-18 深圳奥比中光科技有限公司 标准运动数据库的生成方法、装置及存储装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322050A (ja) * 1996-05-29 1997-12-12 Sony Corp 被写体認識装置および方法
JP2008257575A (ja) * 2007-04-06 2008-10-23 Fujitsu Ltd 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム
JP2009116871A (ja) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc 鏡上の内容及び動作に関連した情報を用いて鏡の機能を拡張する方法及び装置
JP2010169521A (ja) * 2009-01-22 2010-08-05 Nec Corp 位置検出装置、位置検出方法及びプログラム
JP2011081634A (ja) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd 人体向き推定装置及び人体向き推定方法
WO2013011644A1 (ja) * 2011-07-15 2013-01-24 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
WO2018180503A1 (ja) * 2017-03-30 2018-10-04 株式会社エクォス・リサーチ 身体向推定装置および身体向推定プログラム

Also Published As

Publication number Publication date
US20200242344A1 (en) 2020-07-30
CN111164376A (zh) 2020-05-15
WO2019188865A1 (ja) 2019-10-03
EP3779356A4 (en) 2021-12-29
EP3779356A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
KR100772912B1 (ko) 절대 방위각을 이용한 로봇 및 이를 이용한 맵 작성 방법
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
WO2017104164A1 (ja) 駐車支援方法および装置
CN107787497B (zh) 用于在基于用户的空间坐标系中检测手势的方法和装置
JP6711138B2 (ja) 自己位置推定装置、及び、自己位置推定方法
US9802619B2 (en) Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
US9126338B2 (en) Robot system and method for driving the same
JP2008087726A (ja) 車両の走行制御システム
KR20100052383A (ko) 이동 로봇의 안전경로 생성 방법 및 장치
JP7487388B2 (ja) 測定装置、測定方法、及び、プログラム
US11488319B2 (en) Three-dimensional position estimation device and three-dimensional position estimation method
JP2008195293A (ja) 衝突予測装置
JP2008134743A (ja) 自己位置認識方法
JP2020004342A (ja) 移動体制御装置
JPWO2018179960A1 (ja) 移動体および自己位置推定装置
KR102545582B1 (ko) 교차로 충돌 회피 시스템 및 그 제어 방법
JP7204612B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
WO2019188865A1 (ja) 身体向推定装置および身体向推定プログラム
JP5439552B2 (ja) ロボットシステム
JP2018169333A (ja) 身体向推定装置および身体向推定プログラム
TWI700614B (zh) 追蹤系統的操作方法、控制器、追蹤系統及非揮發性電腦可讀取記錄媒體
JP2014200882A (ja) 把持対象物の把持パターン検出方法およびロボット
JP2020008461A (ja) 自律移動体の位置推定装置
US10794696B2 (en) Method for identifying noise data of laser ranging device
JP2021149229A (ja) 移動体、及び、位置推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220830