JP2022032103A - 歩行推定システム、歩行推定方法、及びプログラム - Google Patents
歩行推定システム、歩行推定方法、及びプログラム Download PDFInfo
- Publication number
- JP2022032103A JP2022032103A JP2020135600A JP2020135600A JP2022032103A JP 2022032103 A JP2022032103 A JP 2022032103A JP 2020135600 A JP2020135600 A JP 2020135600A JP 2020135600 A JP2020135600 A JP 2020135600A JP 2022032103 A JP2022032103 A JP 2022032103A
- Authority
- JP
- Japan
- Prior art keywords
- target pedestrian
- unit
- stride
- estimation
- estimation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 43
- 230000001133 acceleration Effects 0.000 claims description 27
- 230000005021 gait Effects 0.000 claims description 16
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
- G01C22/006—Pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Distances Traversed On The Ground (AREA)
Abstract
【課題】歩行者の歩幅の推定精度が低下することを抑制すること。【解決手段】本発明に係る歩行推定システムは、画像を取得するインフラセンサと、インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する解析部と、解析部が解析した、対象歩行者を含む画像の解析結果に基づいて、対象歩行者の歩幅を推定する歩幅推定部と、を備える。【選択図】図13
Description
本発明は、歩行推定システム、歩行推定方法、及びプログラムに関する。
特許文献1には、歩行者に装着された端末が、端末に内蔵された加速度センサで検出された加速度の大きさを用いて、歩行者の歩幅を推定する技術が開示されている。
より詳細には、特許文献1に開示された技術は、加速度と歩幅との相関関係を表すモデル式に従って、加速度の大きさを用いて、歩行者の歩幅を推定する。
より詳細には、特許文献1に開示された技術は、加速度と歩幅との相関関係を表すモデル式に従って、加速度の大きさを用いて、歩行者の歩幅を推定する。
上述したように、特許文献1に開示された技術は、加速度センサで検出された加速度の大きさのみを用いて、歩行者の歩幅を推定する。
しかし、同じ歩幅の歩行者同士でも、歩行者の状況の違いによって、加速度の大きさは異なると考えられる。例えば、歩行者の歩き方、体格、加速度センサの位置(例えば、手で加速度センサを持っているか、又は、ポケットに加速度センサを入れているか等の違い)等の状況の違いによって、加速度の大きさは異なると考えられる。
そのため、特許文献1に開示された技術のように、加速度の大きさのみを用いて、歩行者の歩幅を推定すると、歩幅の推定精度が低下してしまうという課題がある。
しかし、同じ歩幅の歩行者同士でも、歩行者の状況の違いによって、加速度の大きさは異なると考えられる。例えば、歩行者の歩き方、体格、加速度センサの位置(例えば、手で加速度センサを持っているか、又は、ポケットに加速度センサを入れているか等の違い)等の状況の違いによって、加速度の大きさは異なると考えられる。
そのため、特許文献1に開示された技術のように、加速度の大きさのみを用いて、歩行者の歩幅を推定すると、歩幅の推定精度が低下してしまうという課題がある。
本発明は、上記課題に鑑みなされたものであって、歩行者の歩幅の推定精度が低下することを抑制することができる歩行推定システム、歩行推定方法、及びプログラムを提供するものである。
本発明の一態様に係る歩行推定システムは、
画像を取得するインフラセンサと、
前記インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する解析部と、
前記解析部が解析した、前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定する歩幅推定部と、
を備える。
画像を取得するインフラセンサと、
前記インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する解析部と、
前記解析部が解析した、前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定する歩幅推定部と、
を備える。
本発明の一態様に係る歩行推定方法は、
インフラセンサにより画像を取得するステップと、
前記インフラセンサが取得した画像であって、対象歩行者を含む画像を解析するステップと、
前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定するステップと、
を含む。
インフラセンサにより画像を取得するステップと、
前記インフラセンサが取得した画像であって、対象歩行者を含む画像を解析するステップと、
前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定するステップと、
を含む。
本発明の一態様に係るプログラムは、
コンピュータに、
インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する手順と、
前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定する手順と、
を実行させる。
コンピュータに、
インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する手順と、
前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定する手順と、
を実行させる。
上述した本発明の態様によれば、歩行者の歩幅の推定精度が低下することを抑制することが可能な歩行推定システム、歩行推定方法、及びプログラムを提供することができる。
以下、図面を参照して本発明の実施の形態について説明する。なお、以下で説明する各図面において、同一又は対応する要素には同一の符号が付されており、必要に応じて重複説明は省略される。
<実施の形態1>
まず、図1を参照して、本実施の形態1に係る歩行推定システムの構成例について説明する。
図1に示されるように、本実施の形態1に係る歩行推定システムは、カメラ10、加速度センサ20、ジャイロセンサ30、及び、歩行推定装置40を備えている。また、歩行推定装置40は、歩数カウント部41、解析部42、歩幅推定部43、移動量推定部44、進行方向推定部45、及び、位置推定部46を備えている。
まず、図1を参照して、本実施の形態1に係る歩行推定システムの構成例について説明する。
図1に示されるように、本実施の形態1に係る歩行推定システムは、カメラ10、加速度センサ20、ジャイロセンサ30、及び、歩行推定装置40を備えている。また、歩行推定装置40は、歩数カウント部41、解析部42、歩幅推定部43、移動量推定部44、進行方向推定部45、及び、位置推定部46を備えている。
カメラ10は、撮影を行い、カメラ画像を取得するもので、インフラセンサの一例である。本実施の形態1においては、対象歩行者の位置を検出するために、カメラ10を利用する。カメラ10は、例えば、図2に示されるように、街中に設置される。なお、カメラ10の設置位置は、街中の電柱、建物等の任意の位置で良い。また、図1では、複数のカメラ10を図示しているが、カメラ10は、1つ以上設置されていれば良い。
加速度センサ20及びジャイロセンサ30は、対象歩行者が携帯する端末に内蔵されている。対象歩行者が携帯する端末は、スマートフォン、携帯電話、タブレット端末、携帯型ゲーム機器等の対象歩行者が携帯可能な端末でも良いし、対象歩行者が手首、腕、頭等に装着可能なウェアラブル端末でも良い。
加速度センサ20は、直交3軸の加速度を検出するセンサである。ジャイロセンサ30は、直交3軸の角速度を検出するセンサである。なお、図1では、加速度センサ20及びジャイロセンサ30を互いに独立したセンサとして図示しているが、加速度センサ20及びジャイロセンサ30は一体型のセンサとしても良い。
なお、カメラ10が取得したカメラ画像は、カメラ10又は別の任意の通信装置が、歩行推定装置40に無線送信する。同様に、加速度センサ20が取得した加速度の情報は、加速度センサ20又は別の任意の通信装置が歩行推定装置40に無線送信し、ジャイロセンサ30が取得した角速度の情報は、ジャイロセンサ30又は別の任意の通信装置が歩行推定装置40に無線送信する。また、無線送信を行う場合の通信方式は、任意の周知の通信方式で良く、特に限定されない。
歩数カウント部41は、加速度センサ20が検出した加速度に基づいて、対象歩行者の歩数をカウントする。なお、歩数カウント部41において、加速度から歩数を検出する方法としては、例えば、特許文献1にも開示されているような、任意の周知の方法を利用すれば良く、特に、限定されない。
解析部42は、カメラ10が取得したカメラ画像であって、対象歩行者を含むカメラ画像を解析する。詳細には、解析部42は、対象歩行者を含むカメラ画像を解析することによって、対象歩行者の位置を検出する。なお、解析部42において、カメラ画像から対象歩行者の位置を検出する方法としては、任意の周知の画像認識技術を利用すれば良く、特に、限定されない。
歩幅推定部43は、解析部42が解析した、対象歩行者を含むカメラ画像の解析結果に基づいて、対象歩行者の歩幅を推定する。詳細には、歩幅推定部43は、解析部42がカメラ画像の解析によって検出した対象歩行者の位置に基づいて、対象歩行者の歩幅を推定する。なお、歩幅推定部43において、対象歩行者の歩幅を推定する具体的な方法は後述する。
なお、解析部42及び歩幅推定部43は、対象歩行者がカメラ10の画角内に入ってから、上記の動作を開始し、対象歩行者の歩幅の推定及び更新を行うことになる。対象歩行者がカメラ10の画角内に入る前は、対象歩行者の歩幅は、例えば、予め決められた一定の歩幅とすれば良い。
移動量推定部44は、歩数カウント部41がカウントした対象歩行者の歩数と、歩幅推定部43が推定した対象歩行者の歩幅と、に基づいて、対象歩行者の移動量を推定する。詳細には、移動量推定部44は、対象歩行者の歩数と対象歩行者の歩幅との積を、対象歩行者の移動量と推定する。
進行方向推定部45は、ジャイロセンサ30が検出した角速度に基づいて、対象歩行者の進行方向を推定する。なお、進行方向推定部45において、角速度から進行方向を推定する方法としては、例えば、特許文献1にも開示されているような、任意の周知の方法を利用すれば良く、特に、限定されない。
なお、対象歩行者がカメラ10の画角内に入っている場合には、解析部42は、カメラ画像から対象歩行者の位置を検出することができる。そのため、この場合には、進行方向推定部45は、対象歩行者の進行方向の推定において、解析部42が検出した対象歩行者の位置の情報を用いても良い。例えば、進行方向推定部45は、解析部42が検出した対象歩行者の位置に基づいて、上記で推定した対象歩行者の進行方向を補正しても良い。
位置推定部46は、移動量推定部44が推定した対象歩行者の移動量と、進行方向推定部45が推定した対象歩行者の進行方向と、に基づいて、対象歩行者の位置を推定する。例えば、位置推定部46は、地図データを保持し、対象歩行者の移動量及び進行方向を地図データと照合することとすれば、対象歩行者の地図上の位置を推定することができる。
なお、対象歩行者がカメラ10の画角内に入っている場合には、解析部42は、カメラ画像から対象歩行者の位置を検出することができる。そのため、この場合には、位置推定部46は、対象歩行者の位置の推定において、解析部42が検出した対象歩行者の位置の情報を用いても良い。例えば、位置推定部46は、解析部42が検出した対象歩行者の位置に基づいて、上記で推定した対象歩行者の位置を補正しても良い。又は、位置推定部46は、対象歩行者の位置を、解析部42が検出した位置と推定しても良い。
続いて、図3及び図4を参照して、歩幅推定部43の構成及び歩幅推定部43が対象歩行者の歩幅を推定する具体的な方法について説明する。ここでは、歩幅推定部43は、周期的に、対象歩行者の歩幅を推定するものとする。また、ここでは、歩幅推定部43は、解析部42が検出した対象歩行者の位置と、移動量推定部44が推定した対象歩行者の移動量と、に基づいて、対象歩行者の歩幅を推定するものとする。
まず、図3を参照して、図1に示される歩幅推定部43の構成例について説明する。
図3に示されるように、歩幅推定部43は、第1歩行速度推定部431、第2歩行速度推定部432、減算器433、乗算器434、加算器435、及び、バッファ436を備えている。
図3に示されるように、歩幅推定部43は、第1歩行速度推定部431、第2歩行速度推定部432、減算器433、乗算器434、加算器435、及び、バッファ436を備えている。
第1歩行速度推定部431は、解析部42が検出した対象歩行者の位置に基づいて、対象歩行者の歩行速度を推定する。以降、第1歩行速度推定部431が推定した歩行速度を歩行速度Xと称す。
第2歩行速度推定部432は、移動量推定部44が推定した対象歩行者の移動量に基づいて、対象歩行者の歩行速度を推定する。以降、第2歩行速度推定部432が推定した歩行速度を歩行速度Yと称す。なお、このときの対象歩行者の移動量は、歩幅推定部43が1周期前に推定した対象歩行者の歩幅に基づいて、移動量推定部44が推定した移動量となる。
減算器433は、第1歩行速度推定部431が推定した歩行速度Xから、第2歩行速度推定部432が推定した歩行速度Yを減算することで、(X-Y)を算出する。
乗算器434は、減算器433が算出した(X-Y)に対し、所定の係数αを乗算することで、α(X-Y)を算出する。
乗算器434は、減算器433が算出した(X-Y)に対し、所定の係数αを乗算することで、α(X-Y)を算出する。
このとき、バッファ436には、歩幅推定部43が1周期前に推定した対象歩行者の歩幅の情報が格納されている。加算器435は、乗算器434が算出したα(X-Y)と、バッファ436に格納されている、1周期前に推定された対象歩行者の歩幅と、を加算する。
バッファ436は、加算器435が加算した加算結果を、歩幅推定部43が今回の周期で新たに推定した対象歩行者の歩幅とみなす。そして、バッファ436は、新たに推定された対象歩行者の歩幅の情報を格納すると共に、移動量推定部44に出力する。
バッファ436は、加算器435が加算した加算結果を、歩幅推定部43が今回の周期で新たに推定した対象歩行者の歩幅とみなす。そして、バッファ436は、新たに推定された対象歩行者の歩幅の情報を格納すると共に、移動量推定部44に出力する。
続いて、図4を参照して、図3に示される歩幅推定部43において、対象歩行者の歩幅を推定する方法の流れの例について説明する。なお、図4のフローは、周期的に行われるものとする。
図4に示されるように、まず、第1歩行速度推定部431は、解析部42が検出した対象歩行者の位置に基づいて、対象歩行者の歩行速度Xを推定する(ステップS11)。続いて、第2歩行速度推定部432は、移動量推定部44が推定した対象歩行者の移動量に基づいて、対象歩行者の歩行速度Yを推定する(ステップS12)。
続いて、減算器433は、第1歩行速度推定部431が推定した歩行速度Xから、第2歩行速度推定部432が推定した歩行速度Yを減算することで、(X-Y)を算出する(ステップS13)。続いて、乗算器434は、減算器433が算出した(X-Y)に対し、所定の係数αを乗算することで、α(X-Y)を算出する(ステップS14)。
続いて、減算器433は、第1歩行速度推定部431が推定した歩行速度Xから、第2歩行速度推定部432が推定した歩行速度Yを減算することで、(X-Y)を算出する(ステップS13)。続いて、乗算器434は、減算器433が算出した(X-Y)に対し、所定の係数αを乗算することで、α(X-Y)を算出する(ステップS14)。
その後、加算器435は、乗算器434が算出したα(X-Y)と、バッファ436に格納されている、1周期前に推定された対象歩行者の歩幅と、を加算する(ステップS15)。この加算結果は、歩幅推定部43で今回の周期で新たに推定された対象歩行者の歩幅の情報として、バッファ436に格納されると共に、移動量推定部44に出力される。
続いて、図5を参照して、図1に示される本実施の形態1に係る歩行推定システムの全体的な処理の流れの例について説明する。ここでは、対象歩行者がカメラ10の画角内に入っているものと仮定する。
図5に示されるように、加速度センサ20は、対象歩行者に生じた加速度を検出する(ステップS101)。続いて、歩数カウント部41は、加速度センサ20が検出した加速度に基づいて、対象歩行者の歩数をカウントする(ステップS102)。
また、カメラ10は、対象歩行者を含むカメラ画像を取得する(ステップS103)。続いて、解析部42は、カメラ10が取得した、対象歩行者を含むカメラ画像を解析する(ステップS104)。続いて、歩幅推定部43は、解析部42が解析した、対象歩行者を含むカメラ画像の解析結果に基づいて、対象歩行者の歩幅を推定する(ステップS105)。詳細には、解析部42は、対象歩行者を含むカメラ画像を解析することによって、対象歩行者の位置を検出し、歩幅推定部43は、解析部42がカメラ画像の解析によって検出した対象歩行者の位置に基づいて、対象歩行者の歩幅を推定する。続いて、移動量推定部44は、歩数カウント部41がカウントした対象歩行者の歩数と、歩幅推定部43が推定した対象歩行者の歩幅と、に基づいて、対象歩行者の移動量を推定する(ステップS106)。
また、ジャイロセンサ30は、対象歩行者に生じた角速度を検出する(ステップS107)。続いて、進行方向推定部45は、ジャイロセンサ30が検出した角速度に基づいて、対象歩行者の進行方向を推定する(ステップS108)。このとき、進行方向推定部45は、対象歩行者の進行方向の推定において、解析部42が検出した対象歩行者の位置の情報を用いても良い。
続いて、位置推定部46は、移動量推定部44が推定した対象歩行者の移動量と、進行方向推定部45が推定した対象歩行者の進行方向と、に基づいて、対象歩行者の位置を推定する(ステップS109)。このとき、位置推定部46は、対象歩行者の位置の推定において、解析部42が検出した対象歩行者の位置の情報を用いても良い。
上述したように、本実施の形態1に係る歩行推定システムによれば、解析部42は、カメラ10が取得したカメラ画像であって、対象歩行者を含むカメラ画像を解析する。そして、歩幅推定部43は、解析部42が解析したカメラ画像の解析結果に基づいて、対象歩行者の歩幅を推定する。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
<実施の形態2>
続いて、図6を参照して、本実施の形態2に係る歩行推定システムの構成例について説明する。
図6に示されるように、本実施の形態2に係る歩行推定システムは、上述した実施の形態1の図1と比較して、インフラセンサとして、カメラ10の代わりに、LiDAR(Light Detection and Ranging)11を設けた点が異なる。
続いて、図6を参照して、本実施の形態2に係る歩行推定システムの構成例について説明する。
図6に示されるように、本実施の形態2に係る歩行推定システムは、上述した実施の形態1の図1と比較して、インフラセンサとして、カメラ10の代わりに、LiDAR(Light Detection and Ranging)11を設けた点が異なる。
LiDAR11は、レーザー光を対象物に照射して、対象物をセンシングするもので、LiDAR11のセンシング結果から対象物の位置を検出可能である。本実施の形態2においては、対象歩行者の位置を検出するために、LiDAR11を利用する。LiDAR11は、カメラ10と同様に、街中の任意の位置に設置すれば良い。また、LiDAR11は、カメラ10と同様に、1つ以上設けられていれば良い。
LiDAR11は、LiDAR11の周囲の対象物をセンシングし、そのセンシング結果を画像化することによって、センシング画像を取得する。
なお、LiDAR11が取得したセンシング画像は、LiDAR11又は別の任意の通信装置が、歩行推定装置40に無線送信する。また、無線送信を行う場合の通信方式は、任意の周知の通信方式で良く、特に限定されない。
なお、LiDAR11が取得したセンシング画像は、LiDAR11又は別の任意の通信装置が、歩行推定装置40に無線送信する。また、無線送信を行う場合の通信方式は、任意の周知の通信方式で良く、特に限定されない。
解析部42は、LiDAR11が取得したセンシング画像であって、対象歩行者のセンシング画像を含むセンシング画像を解析する。詳細には、解析部42は、対象歩行者のセンシング画像を解析することによって、対象歩行者の位置を検出する。なお、解析部42において、センシング画像から対象歩行者の位置を検出する方法としては、任意の周知の方法を利用すれば良く、特に、限定されない。
歩幅推定部43は、解析部42が解析した、対象歩行者のセンシング画像の解析結果に基づいて、対象歩行者の歩幅を推定する。詳細には、歩幅推定部43は、解析部42がセンシング画像の解析によって検出した対象歩行者の位置に基づいて、対象歩行者の歩幅を推定する。例えば、歩幅推定部43は、図3に示される構成とし、図4に示される方法により、対象歩行者の歩幅を推定すれば良い。
なお、解析部42及び歩幅推定部43は、対象歩行者がLiDAR11でセンシング可能な範囲内に入ってから、上記の動作を開始し、対象歩行者の歩幅の推定及び更新を行うことになる。対象歩行者がLiDAR11でセンシング可能な範囲内に入る前は、対象歩行者の歩幅は、例えば、予め決められた一定の歩幅とすれば良い。
また、LiDAR11は、対象歩行者のセンシング結果を画像化しなくても良い。この場合、解析部42は、LiDAR11がセンシングした対象歩行者のセンシング結果を解析することによって、対象歩行者の位置を検出しても良い。また、歩幅推定部43は、解析部42がセンシング結果の解析によって検出した対象歩行者の位置に基づいて、対象歩行者の歩幅を推定しても良い。
本実施の形態2に係る歩行推定システムは、上記以外の構成は、上述した実施の形態1と同様である。
続いて、図7を参照して、図6に示される本実施の形態2に係る歩行推定システムの全体的な処理の流れの例について説明する。ここでは、対象歩行者がLiDAR11でセンシング可能な範囲内に入っているものと仮定する。
図7に示されるように、本実施の形態2に係る歩行推定システムの全体的な処理は、上述した実施の形態1の図5と比較して、図5のステップS103~S105の代わりに、ステップS201~S203を行う点が異なる。そこで、以下では、図5とは異なるステップS201~S203についてのみ、説明を行う。
LiDAR11は、対象歩行者をセンシングし、そのセンシング結果を画像化することによって、センシング画像を取得する(ステップS201)。続いて、解析部42は、LiDAR11が取得した対象歩行者のセンシング画像を解析する(ステップS202)。続いて、歩幅推定部43は、解析部42が解析した、対象歩行者のセンシング画像の解析結果に基づいて、対象歩行者の歩幅を推定する(ステップS203)。詳細には、解析部42は、対象歩行者のセンシング画像を解析することによって、対象歩行者の位置を検出し、歩幅推定部43は、解析部42がセンシング画像の解析によって検出した対象歩行者の位置に基づいて、対象歩行者の歩幅を推定する。
上述したように、本実施の形態2に係る歩行推定システムによれば、解析部42は、LiDAR11が取得したセンシング画像であって、対象歩行者を含むセンシング画像を解析する。そして、歩幅推定部43は、解析部42が解析したセンシング画像の解析結果に基づいて、対象歩行者の歩幅を推定する。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
<実施の形態3>
続いて、図8を参照して、本実施の形態3に係る歩行推定システムの構成例について説明する。
図8に示されるように、本実施の形態3に係る歩行推定システムは、上述した実施の形態1の図1と比較して、インフラセンサとして、カメラ10の代わりに、ミリ波レーダー12を設けた点が異なる。
続いて、図8を参照して、本実施の形態3に係る歩行推定システムの構成例について説明する。
図8に示されるように、本実施の形態3に係る歩行推定システムは、上述した実施の形態1の図1と比較して、インフラセンサとして、カメラ10の代わりに、ミリ波レーダー12を設けた点が異なる。
ミリ波レーダー12は、ミリ波を対象物に照射して、対象物をセンシングするもので、ミリ波レーダー12のセンシング結果から対象物の位置及び速度を検出可能である。本実施の形態3においては、対象歩行者の歩行速度を検出するために、ミリ波レーダー12を利用する。ミリ波レーダー12は、カメラ10と同様に、街中の任意の位置に設置すれば良い。また、ミリ波レーダー12は、カメラ10と同様に、1つ以上設けられていれば良い。
ミリ波レーダー12は、ミリ波レーダー12の周囲の対象物をセンシングし、そのセンシング結果を画像化することによって、センシング画像を取得する。
なお、ミリ波レーダー12が取得したセンシング画像は、ミリ波レーダー12又は別の任意の通信装置が、歩行推定装置40に無線送信する。また、無線送信を行う場合の通信方式は、任意の周知の通信方式で良く、特に限定されない。
なお、ミリ波レーダー12が取得したセンシング画像は、ミリ波レーダー12又は別の任意の通信装置が、歩行推定装置40に無線送信する。また、無線送信を行う場合の通信方式は、任意の周知の通信方式で良く、特に限定されない。
解析部42は、ミリ波レーダー12が取得したセンシング画像であって、対象歩行者のセンシング画像を含むセンシング画像を解析する。詳細には、解析部42は、対象歩行者のセンシング画像を解析することによって、対象歩行者の歩行速度を検出する。なお、解析部42において、センシング画像から対象歩行者の歩行速度を検出する方法としては、任意の周知の方法を利用すれば良く、特に、限定されない。
歩幅推定部43は、解析部42が解析した、対象歩行者のセンシング画像の解析結果に基づいて、対象歩行者の歩幅を推定する。詳細には、歩幅推定部43は、解析部42がセンシング画像の解析によって検出した対象歩行者の歩行速度に基づいて、対象歩行者の歩幅を推定する。例えば、歩幅推定部43は、図3から第1歩行速度推定部431を除去し、解析部42が検出した対象歩行者の歩行速度を、歩行速度Xとして入力する構成であれば良い。また、歩幅推定部43は、図4のステップS12以下の方法により、対象歩行者の歩幅を推定すれば良い。
なお、解析部42及び歩幅推定部43は、対象歩行者がミリ波レーダー12でセンシング可能な範囲内に入ってから、上記の動作を開始し、対象歩行者の歩幅の推定及び更新を行うことになる。対象歩行者がミリ波レーダー12でセンシング可能な範囲内に入る前は、対象歩行者の歩幅は、例えば、予め決められた一定の歩幅とすれば良い。
また、ミリ波レーダー12は、対象歩行者のセンシング結果を画像化しなくても良い。この場合、解析部42は、ミリ波レーダー12がセンシングした対象歩行者のセンシング結果を解析することによって、対象歩行者の歩行速度を検出しても良い。また、歩幅推定部43は、解析部42がセンシング結果の解析によって検出した対象歩行者の歩行速度に基づいて、対象歩行者の歩幅を推定しても良い。
本実施の形態3に係る歩行推定システムは、上記以外の構成は、上述した実施の形態1と同様である。
続いて、図9を参照して、図8に示される本実施の形態3に係る歩行推定システムの全体的な処理の流れの例について説明する。ここでは、対象歩行者がミリ波レーダー12でセンシング可能な範囲内に入っているものと仮定する。
図9に示されるように、本実施の形態3に係る歩行推定システムの全体的な処理は、上述した実施の形態1の図5と比較して、図5のステップS103~S105の代わりに、ステップS301~S303を行う点が異なる。そこで、以下では、図5とは異なるステップS301~S303についてのみ、説明を行う。
ミリ波レーダー12は、対象歩行者をセンシングし、そのセンシング結果を画像化することによって、センシング画像を取得する(ステップS301)。続いて、解析部42は、ミリ波レーダー12が取得した対象歩行者のセンシング画像を解析する(ステップS302)。続いて、歩幅推定部43は、解析部42が解析した、対象歩行者のセンシング画像の解析結果に基づいて、対象歩行者の歩幅を推定する(ステップS303)。詳細には、解析部42は、対象歩行者のセンシング画像を解析することによって、対象歩行者の歩行速度を検出し、歩幅推定部43は、解析部42がセンシング画像の解析によって検出した対象歩行者の歩行速度に基づいて、対象歩行者の歩幅を推定する。
上述したように、本実施の形態3に係る歩行推定システムによれば、解析部42は、ミリ波レーダー12が取得したセンシング画像であって、対象歩行者を含むセンシング画像を解析する。そして、歩幅推定部43は、解析部42が解析したセンシング画像の解析結果に基づいて、対象歩行者の歩幅を推定する。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
<実施の形態4>
続いて、図10を参照して、本実施の形態4に係る歩行推定システムの構成例について説明する。
図10に示されるように、本実施の形態4に係る歩行推定システムは、上述した実施の形態1と比較して、歩行推定装置40の内部に配信部47が追加されている点が異なる。
続いて、図10を参照して、本実施の形態4に係る歩行推定システムの構成例について説明する。
図10に示されるように、本実施の形態4に係る歩行推定システムは、上述した実施の形態1と比較して、歩行推定装置40の内部に配信部47が追加されている点が異なる。
配信部47は、対象歩行者のID(Identification)等の識別情報に紐づけられた特定の端末に対し、以下の情報のうちの少なくとも1つを配信する。
・歩幅推定部43が推定した対象歩行者の歩幅の情報
・移動量推定部44が推定した対象歩行者の移動量の情報
・進行方向推定部45が推定した対象歩行者の進行方向の情報
・位置推定部46が推定した対象歩行者の位置の情報
・歩幅推定部43が推定した対象歩行者の歩幅の情報
・移動量推定部44が推定した対象歩行者の移動量の情報
・進行方向推定部45が推定した対象歩行者の進行方向の情報
・位置推定部46が推定した対象歩行者の位置の情報
配信部47は、例えば、図11に示されるように、対象歩行者のIDと、特定の端末を識別する情報(図11の例では、特定の端末のメールアドレス)と、を紐づける対応テーブルを保持しておき、対応テーブルを参照して、対象歩行者のIDに紐づけられている特定の端末を特定する。
もし、対象歩行者が1人のみである場合には、対応テーブルには1人の対象歩行者のエントリのみが存在する。そのため、配信部47は、対象歩行者のIDに紐づけられている特定の端末を一意に特定することができる。
一方、対象歩行者が複数人である場合には、対応テーブルには複数人の対象歩行者のエントリが存在する。従って、配信部47は、歩幅等を推定した対象歩行者に対し、上述した情報を配信するためには、その対象歩行者のIDを特定する必要がある。
そこで、配信部47は、以下のようにして、歩幅等を推定した対象歩行者のIDを特定することが考えられる。
例えば、カメラ10による撮影が可能な撮影可能領域内に、その撮影可能領域内を移動する端末の検出が可能で、且つ、検出した端末との通信が可能な検出用通信装置を1つ以上設置しておく。歩幅推定部43が、カメラ10によるカメラ画像を用いて、対象歩行者の歩幅を推定した場合は、そのカメラ10の撮影可能領域内に設置された検出用通信装置が、端末の検出を試みる。検出用通信装置は、端末を検出できた場合は、検出した端末と通信を行って、検出した端末を携帯する者のIDを取得する。配信部47は、検出用通信装置が検出した端末を、対象歩行者が携帯する端末とみなし、また、検出用通信装置が取得したIDを、対象歩行者のIDとして特定する。ただし、対象歩行者のIDを特定する方法は、これには限定されず、その他の任意の方法を利用できる。
例えば、カメラ10による撮影が可能な撮影可能領域内に、その撮影可能領域内を移動する端末の検出が可能で、且つ、検出した端末との通信が可能な検出用通信装置を1つ以上設置しておく。歩幅推定部43が、カメラ10によるカメラ画像を用いて、対象歩行者の歩幅を推定した場合は、そのカメラ10の撮影可能領域内に設置された検出用通信装置が、端末の検出を試みる。検出用通信装置は、端末を検出できた場合は、検出した端末と通信を行って、検出した端末を携帯する者のIDを取得する。配信部47は、検出用通信装置が検出した端末を、対象歩行者が携帯する端末とみなし、また、検出用通信装置が取得したIDを、対象歩行者のIDとして特定する。ただし、対象歩行者のIDを特定する方法は、これには限定されず、その他の任意の方法を利用できる。
なお、対象歩行者のIDに紐づけられた特定の端末は、対象歩行者が携帯する端末でも良いし、対象歩行者の自宅等にある端末でも良い。
また、配信部47において、上述した情報のうち、どの情報を配信するかは、予め設定されていても良いし、対象歩行者が選択可能としても良い。
また、配信部47において、上述した情報を特定の端末へ配信する場合の通信方式は、任意の周知の無線又は有線の通信方式で良く、特に限定されない。
また、配信部47において、上述した情報のうち、どの情報を配信するかは、予め設定されていても良いし、対象歩行者が選択可能としても良い。
また、配信部47において、上述した情報を特定の端末へ配信する場合の通信方式は、任意の周知の無線又は有線の通信方式で良く、特に限定されない。
続いて、図12を参照して、図10に示される本実施の形態4に係る歩行推定システムの全体的な処理の流れの例について説明する。ここでは、対象歩行者がカメラ10の画角内に入っているものと仮定する。
図12に示されるように、本実施の形態4に係る歩行推定システムの全体的な処理は、上述した実施の形態1の図5と比較して、ステップS401を追加した点が異なる。
まず、上述した実施の形態1の図5と同様に、ステップS101~S109の処理が行われる。
続いて、配信部47は、対象歩行者のIDに紐づけられた特定の端末に対し、以下の情報のうちの少なくとも1つを配信する(ステップS401)。
・歩幅推定部43が推定した対象歩行者の歩幅の情報
・移動量推定部44が推定した対象歩行者の移動量の情報
・進行方向推定部45が推定した対象歩行者の進行方向の情報
・位置推定部46が推定した対象歩行者の位置の情報
まず、上述した実施の形態1の図5と同様に、ステップS101~S109の処理が行われる。
続いて、配信部47は、対象歩行者のIDに紐づけられた特定の端末に対し、以下の情報のうちの少なくとも1つを配信する(ステップS401)。
・歩幅推定部43が推定した対象歩行者の歩幅の情報
・移動量推定部44が推定した対象歩行者の移動量の情報
・進行方向推定部45が推定した対象歩行者の進行方向の情報
・位置推定部46が推定した対象歩行者の位置の情報
上述したように、本実施の形態4に係る歩行推定システムによれば、配信部47は、対象歩行者のIDに紐づけられた特定の端末に対し、推定した対象歩行者の歩幅の情報等を配信する。
これにより、対象歩行者や対象歩行者の関係者等が、対象歩行者の歩幅等を知ることができる。その他の効果は、上述した実施の形態1と同様である。
これにより、対象歩行者や対象歩行者の関係者等が、対象歩行者の歩幅等を知ることができる。その他の効果は、上述した実施の形態1と同様である。
なお、本実施の形態4は、上述した実施の形態1の構成に配信部47を追加した構成であったが、これには限定されない。本実施の形態4は、上述した実施の形態2又は3の構成に配信部47を追加した構成であっても良い。
<実施の形態の概念>
続いて、図13を参照して、上述した実施の形態1~4に係る歩行推定システムを概念的に示した歩行推定システムの構成例について説明する。
図13に示される歩行推定システムは、インフラセンサ100及び歩行推定装置400を備えている。また、歩行推定装置400は、解析部410及び歩幅推定部420を備えている。
続いて、図13を参照して、上述した実施の形態1~4に係る歩行推定システムを概念的に示した歩行推定システムの構成例について説明する。
図13に示される歩行推定システムは、インフラセンサ100及び歩行推定装置400を備えている。また、歩行推定装置400は、解析部410及び歩幅推定部420を備えている。
インフラセンサ100は、図1若しくは図10に示されるカメラ10、図6に示されるLiDAR11、又は、図8に示されるミリ波レーダー12のいずれかに対応する。インフラセンサ100は、画像を取得する。例えば、インフラセンサ100は、カメラ10である場合には、カメラ画像を取得し、LiDAR11又はミリ波レーダー12である場合には、センシング画像を取得する。
解析部410は、図1、図6、図8、又は図10に示される解析部42に対応する。解析部410は、インフラセンサ100が取得した画像であって、対象歩行者を含む画像を解析する。詳細には、解析部410は、対象歩行者を含む画像を解析することによって、対象歩行者の位置又は歩行速度を検出する。
歩幅推定部420は、図1、図6、図8、又は図10に示される歩幅推定部43に対応する。歩幅推定部420は、解析部410が解析した、対象歩行者を含む画像の解析結果に基づいて、対象歩行者の歩幅を推定する。詳細には、歩幅推定部420は、解析部410が画像の解析によって検出した対象歩行者の位置又は歩行速度に基づいて、対象歩行者の歩幅を推定する。なお、歩幅推定部420の詳細構成は、例えば、図3の構成とすれば良い。また、歩幅推定部420が対象歩行者の歩幅を推定する具体的な方法は、例えば、図4の方法とすれば良い。
続いて、図14を参照して、図13に示される歩行推定システムの全体的な処理の流れの例について説明する。ここでは、対象歩行者がインフラセンサ100でセンシング可能な範囲内(インフラセンサ100がカメラの場合はカメラの画角内)に入っているものと仮定する。
図14に示されるように、まず、インフラセンサ100は、対象歩行者を含む画像を取得する(ステップS501)。続いて、解析部410は、インフラセンサ100が取得した、対象歩行者を含む画像を解析する(ステップS502)。その後、歩幅推定部420は、解析部410が解析した、対象歩行者を含む画像の解析結果に基づいて、対象歩行者の歩幅を推定する(ステップS503)。詳細には、解析部410は、対象歩行者を含む画像を解析することによって、対象歩行者の位置又は歩行速度を検出し、歩幅推定部420は、解析部410が画像の解析によって検出した対象歩行者の位置又は歩行速度に基づいて、対象歩行者の歩幅を推定する。
上述したように、図13に示される歩行推定システムによれば、解析部410は、インフラセンサ100が取得した画像であって、対象歩行者を含む画像を解析する。そして、歩幅推定部420は、解析部410が解析した画像の解析結果に基づいて、対象歩行者の歩幅を推定する。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
これにより、対象歩行者の歩き方等の状況の違いによって、対象歩行者の歩幅の推定精度が低下することを抑制することができる。
ここで、図13に示される歩行推定システムは、歩行推定装置40の内部に、図10に示される配信部47に対応する配信部を追加しても良い。この配信部は、対象歩行者に紐づけられた特定の端末に対し、歩幅推定部420が推定した対象歩行者の歩幅の情報を配信すれば良い。
なお、本発明は、上述した実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、本発明は、歩行推定装置が、CPU(Central Processing Unit)等のプロセッサや、メモリ等を備えたコンピュータであり、プロセッサがメモリに格納されたコンピュータプログラムを読み出し実行することにより、歩行推定装置の任意の処理を実現することも可能である。
例えば、本発明は、歩行推定装置が、CPU(Central Processing Unit)等のプロセッサや、メモリ等を備えたコンピュータであり、プロセッサがメモリに格納されたコンピュータプログラムを読み出し実行することにより、歩行推定装置の任意の処理を実現することも可能である。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Compact Disc-Read Only Memory)、CD-R(CD-Recordable)、CD-R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
10:カメラ、11:LiDAR、12:ミリ波レーダー、20:加速度センサ、30:ジャイロセンサ、40,400:歩行推定装置、41:歩数カウント部、42,410:解析部、43,420:歩幅推定部、431:第1歩行速度推定部、432:第2歩行速度推定部、433:減算器、434:乗算器、435:加算器、436:バッファ、44:移動量推定部、45:進行方向推定部、46:位置推定部、47:配信部、100:インフラセンサ
Claims (6)
- 画像を取得するインフラセンサと、
前記インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する解析部と、
前記解析部が解析した、前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定する歩幅推定部と、
を備える、歩行推定システム。 - 前記解析部は、前記対象歩行者を含む画像を解析することによって、前記対象歩行者の位置又は歩行速度を検出し、
前記歩幅推定部は、前記解析部が検出した前記対象歩行者の位置又は歩行速度に基づいて、前記対象歩行者の歩幅を推定する、
請求項1に記載の歩行推定システム。 - 前記対象歩行者が携帯する端末に内蔵された加速度センサ及びジャイロセンサと、
前記加速度センサが検出した加速度に基づいて、前記対象歩行者の歩数をカウントする歩数カウント部と、
前記歩数カウント部がカウントした前記対象歩行者の歩数と、前記歩幅推定部が推定した前記対象歩行者の歩幅と、に基づいて、前記対象歩行者の移動量を推定する移動量推定部と、
前記ジャイロセンサが検出した角速度に基づいて、前記対象歩行者の進行方向を推定する進行方向推定部と、
前記移動量推定部が推定した前記対象歩行者の移動量と、前記進行方向推定部が推定した前記対象歩行者の進行方向と、に基づいて、前記対象歩行者の位置を推定する位置推定部と、
をさらに備える、請求項1又は2に記載の歩行推定システム。 - 前記歩幅推定部が推定した前記対象歩行者の歩幅の情報を、前記対象歩行者の識別情報に紐づけられた特定の端末に配信する配信部、
をさらに備える、請求項1から3のいずれか1項に記載の歩行推定システム。 - 歩行推定システムが行う歩行推定方法であって、
インフラセンサにより画像を取得するステップと、
前記インフラセンサが取得した画像であって、対象歩行者を含む画像を解析するステップと、
前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定するステップと、
を含む、歩行推定方法。 - コンピュータに、
インフラセンサが取得した画像であって、対象歩行者を含む画像を解析する手順と、
前記対象歩行者を含む画像の解析結果に基づいて、前記対象歩行者の歩幅を推定する手順と、
を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135600A JP2022032103A (ja) | 2020-08-11 | 2020-08-11 | 歩行推定システム、歩行推定方法、及びプログラム |
CN202110895518.6A CN114076597A (zh) | 2020-08-11 | 2021-08-05 | 步行推定***、步行推定方法及计算机可读介质 |
US17/396,019 US20220051005A1 (en) | 2020-08-11 | 2021-08-06 | Walking estimation system, walking estimation method, and computer readable-medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135600A JP2022032103A (ja) | 2020-08-11 | 2020-08-11 | 歩行推定システム、歩行推定方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022032103A true JP2022032103A (ja) | 2022-02-25 |
Family
ID=80224317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020135600A Pending JP2022032103A (ja) | 2020-08-11 | 2020-08-11 | 歩行推定システム、歩行推定方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220051005A1 (ja) |
JP (1) | JP2022032103A (ja) |
CN (1) | CN114076597A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7477033B1 (ja) | 2023-09-04 | 2024-05-01 | 克彦 西澤 | 歩容解析システムおよびその学習手法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012230503A (ja) * | 2011-04-25 | 2012-11-22 | Nippon Telegr & Teleph Corp <Ntt> | 健康管理支援システムとその利用者端末装置及び支援サーバ装置 |
JP2016131827A (ja) * | 2015-01-22 | 2016-07-25 | 株式会社デジタル・スタンダード | 通信装置、プログラムおよびシステム |
JP2016161313A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社日立アドバンストシステムズ | 測位システム |
JP2018073110A (ja) * | 2016-10-28 | 2018-05-10 | 株式会社日立ハイテクノロジーズ | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2018102855A (ja) * | 2016-12-28 | 2018-07-05 | 株式会社リコー | 動作計測システム、動作計測装置及び動作計測方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0989584A (ja) * | 1995-09-26 | 1997-04-04 | Honda Motor Co Ltd | 携帯用ナビゲーション装置 |
JP4062306B2 (ja) * | 2004-12-15 | 2008-03-19 | 日産自動車株式会社 | 画像処理装置、および方法 |
JP5117123B2 (ja) * | 2007-06-23 | 2013-01-09 | 株式会社タニタ | 歩行評価システム、歩行計、歩行評価プログラムおよび記録媒体 |
JP5202613B2 (ja) * | 2010-12-02 | 2013-06-05 | 株式会社エヌ・ティ・ティ・ドコモ | 移動端末、システム及び方法 |
JP2012189467A (ja) * | 2011-03-11 | 2012-10-04 | Casio Comput Co Ltd | 測位装置、歩幅データ補正方法およびプログラム |
DE102011079187A1 (de) * | 2011-07-14 | 2013-01-17 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Schritterkennung eines Fußgängers für ein tragbares Endgerät |
WO2014112632A1 (ja) * | 2013-01-18 | 2014-07-24 | 株式会社東芝 | 動作情報処理装置及び方法 |
JP2020053792A (ja) * | 2018-09-26 | 2020-04-02 | ソニー株式会社 | 情報処理装置、および情報処理方法、プログラム、情報処理システム |
JP7083800B2 (ja) * | 2019-11-25 | 2022-06-13 | Kddi株式会社 | マッチング装置、マッチング方法及びコンピュータプログラム |
WO2021240889A1 (ja) * | 2020-05-28 | 2021-12-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
2020
- 2020-08-11 JP JP2020135600A patent/JP2022032103A/ja active Pending
-
2021
- 2021-08-05 CN CN202110895518.6A patent/CN114076597A/zh active Pending
- 2021-08-06 US US17/396,019 patent/US20220051005A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012230503A (ja) * | 2011-04-25 | 2012-11-22 | Nippon Telegr & Teleph Corp <Ntt> | 健康管理支援システムとその利用者端末装置及び支援サーバ装置 |
JP2016131827A (ja) * | 2015-01-22 | 2016-07-25 | 株式会社デジタル・スタンダード | 通信装置、プログラムおよびシステム |
JP2016161313A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社日立アドバンストシステムズ | 測位システム |
JP2018073110A (ja) * | 2016-10-28 | 2018-05-10 | 株式会社日立ハイテクノロジーズ | 情報処理装置、情報処理方法及び情報処理プログラム |
JP2018102855A (ja) * | 2016-12-28 | 2018-07-05 | 株式会社リコー | 動作計測システム、動作計測装置及び動作計測方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7477033B1 (ja) | 2023-09-04 | 2024-05-01 | 克彦 西澤 | 歩容解析システムおよびその学習手法 |
Also Published As
Publication number | Publication date |
---|---|
US20220051005A1 (en) | 2022-02-17 |
CN114076597A (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230392944A1 (en) | Navigation methods and apparatus for the visually impaired | |
JP6626954B2 (ja) | 撮像装置及びフォーカス制御方法 | |
US10732643B2 (en) | Control system, moving object, and control apparatus | |
JP6141079B2 (ja) | 画像処理システム、画像処理装置、それらの制御方法、及びプログラム | |
CN105283775B (zh) | 移动机器人以及音源位置推定*** | |
JP5824936B2 (ja) | 携帯型電子機器、危険報知方法及びプログラム | |
EP3168571B1 (en) | Utilizing camera to assist with indoor pedestrian navigation | |
US10545031B2 (en) | Portable terminal device, recording medium, and correction method | |
WO2013132947A1 (ja) | 距離算出装置及び距離算出方法 | |
EP3014476A1 (en) | Using movement patterns to anticipate user expectations | |
WO2015004739A1 (ja) | 監視システム、自動巡回ロボット、および監視方法 | |
US9886761B2 (en) | Information processing to display existing position of object on map | |
JPWO2016088368A1 (ja) | 方向制御装置、方向制御方法および方向制御プログラム | |
JP2022032103A (ja) | 歩行推定システム、歩行推定方法、及びプログラム | |
JP2023010769A (ja) | 情報処理装置、制御方法、及びプログラム | |
WO2021199234A1 (ja) | 認証制御装置、認証システム、認証制御方法及び記録媒体 | |
JPWO2019021973A1 (ja) | 端末装置、危険予測方法、プログラム | |
JP6720010B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5262148B2 (ja) | ランドマーク検出装置および方法ならびにプログラム | |
CN106454066B (zh) | 图像处理设备及其控制方法 | |
CN112291701B (zh) | 定位验证方法、装置、机器人、外部设备和存储介质 | |
JP2019134389A (ja) | 撮影制御装置、撮影制御方法および撮影制御システム | |
US10735902B1 (en) | Method and computer program for taking action based on determined movement path of mobile devices | |
EP3644093A1 (en) | Method and controller for tracking moving objects | |
JP2019125833A (ja) | 撮影システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230517 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231107 |