JP2021064025A - 位置推定装置、位置学習装置及びプログラム - Google Patents

位置推定装置、位置学習装置及びプログラム Download PDF

Info

Publication number
JP2021064025A
JP2021064025A JP2019186619A JP2019186619A JP2021064025A JP 2021064025 A JP2021064025 A JP 2021064025A JP 2019186619 A JP2019186619 A JP 2019186619A JP 2019186619 A JP2019186619 A JP 2019186619A JP 2021064025 A JP2021064025 A JP 2021064025A
Authority
JP
Japan
Prior art keywords
person
neural network
unit
density map
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019186619A
Other languages
English (en)
Other versions
JP7373352B2 (ja
Inventor
俊枝 三須
Toshie Misu
俊枝 三須
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019186619A priority Critical patent/JP7373352B2/ja
Publication of JP2021064025A publication Critical patent/JP2021064025A/ja
Application granted granted Critical
Publication of JP7373352B2 publication Critical patent/JP7373352B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像内の物体等の位置を推定する際に、物体等が完全に隠蔽された場合であっても、その位置を推定する。【解決手段】位置推定装置1−1の人物位置計測部10は、画像から人物毎の位置を計測し、人物密度マップ演算部11は、人物毎の位置から人物密度マップを演算する。人物姿勢計測部12は、画像から人物毎の姿勢を計測し、注視度演算部13は、人物毎の位置及び人物毎の姿勢から、所定の座標系における位置(座標)毎の人物の注視度を演算する。ニューラルネットワーク部14−1は、領域毎の人物密度である人物密度マップ及び位置毎の注視度を入力データとして、学習済み係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める。【選択図】図1

Description

本発明は、入力画像内の物体等の位置を推定する位置推定装置、位置学習装置及びプログラムに関する。
従来、物体の位置を推定する技術として、ビーコン、RFID(Radio Frequency IDentifier)等のタグまたはリフレクタ(再帰性反射素材等)を物体に装着し、当該物体からの電波、赤外線、可視光線等を受動的または能動的にセンシングするものが知られている(例えば、特許文献1を参照)。
特許文献1には、非可視画像から被写体に付された非可視光マーカを検出する処理と、可視画像から被写体を検出する処理とを併用することで、被写体を追跡する技術が開示されている。
また、入力画像から画像特徴を抽出し、当該画像特徴が所定の条件に符合するか否かを判別することで、物体の位置を推定する技術がある。この技術は、例えば入力画像からHaar-Like特徴なる画像特徴を抽出し、当該画像特徴をブースティング法によって判別することで、人物の顔領域を抽出するものである(例えば、非特許文献1を参照)。この技術は、デジタルカメラの露出、焦点位置の調整等に活用されている。
特開2017−204757号公報
P.Viola and M.Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001, Kauai, HI, USA, 2001, pp.I-I
前述の非特許文献1のような画像特徴に基づく物体検出技術では、物体が他の物体に隠蔽された場合、または照明の当たらない影領域に物体が存在する場合に、物体の位置の検出が困難となる。
また、前述の特許文献1の技術は、非可視光による能動的なセンシング及び可視光による受動的なセンシング、さらに、能動的なセンシングの正常動作時のオンライン学習を行うものである。これらの相乗効果により、物体の隠蔽状態の変化及び照明状態の変化に対し、頑健な物体の位置の検出が可能となる。
しかしながら、物体が完全に隠れてしまい、非可視画像から非可視光マーカを観測することができず、また、可視画像から被写体の画像特徴も抽出できない場合には、物体の位置の検出が困難となる。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、画像内の物体等の位置を推定する際に、物体等が完全に隠蔽された場合であっても、その位置を推定可能な位置推定装置、位置学習装置及びプログラムを提供することにある。
前記課題を解決するために、請求項1の位置推定装置は、入力画像内の所定物の位置を推定する位置推定装置において、前記入力画像の画像特徴に基づいて人物を検出し、所定の座標系における前記人物毎の位置を計測する人物位置計測部と、前記人物位置計測部により計測された前記人物毎の位置から、前記所定の座標系における領域毎に人物密度を演算し、前記領域毎の人物密度を人物密度マップとして生成する人物密度マップ演算部と、前記人物密度マップ演算部により生成された前記人物密度マップを入力データとして、予め設定された学習済み係数を用いたニューラルネットワークの演算を行い、前記所定物の位置の推定値を示す位置推定値を出力データとして求めるニューラルネットワーク部と、を備えたことを特徴とする。
請求項1の位置推定装置によれば、入力画像内の人物との干渉等により所定物が明確に見えていない場合であっても、人物の空間的な分布に基づいて、所定物の存在する場所を精度高く推定することができる。
また、請求項2の位置推定装置は、請求項1に記載の位置推定装置において、さらに、前記入力画像の画像特徴に基づいて前記人物を検出し、前記人物毎の姿勢を計測する人物姿勢計測部と、前記人物姿勢計測部により計測された前記人物毎の姿勢から、前記所定の座標系におけるそれぞれの座標位置に対して全ての前記人物が注視する度合いを、位置毎の注視度として演算する注視度演算部と、を備え、前記ニューラルネットワーク部が、前記人物密度マップ演算部により生成された前記人物密度マップ、及び前記注視度演算部により演算された前記位置毎の注視度を前記入力データとして、前記学習済み係数を用いた前記ニューラルネットワークの演算を行い、前記位置推定値を前記出力データとして求める、ことを特徴とする。
請求項2の位置推定装置によれば、入力画像内の人物との干渉等により所定物が明確に見えていない場合であっても、人物の空間的な分布と、各人物の姿勢から得られた人物が注目する領域とに基づいて、所定物の存在する場所を精度高く推定することができる。
また、請求項3の位置学習装置は、入力画像と、当該入力画像に対応する所定物の位置の真値を示す位置真値とを学習データとして入力し、当該学習データに基づいてニューラルネットワークの係数を求める位置学習装置において、前記入力画像の画像特徴に基づいて人物を検出し、所定の座標系における前記人物毎の位置を計測する人物位置計測部と、前記人物位置計測部により計測された前記人物毎の位置から、前記所定の座標系における領域毎に人物密度を演算し、前記領域毎の人物密度を人物密度マップとして生成する人物密度マップ演算部と、前記人物密度マップ演算部により生成された前記人物密度マップを入力データとして、前記係数を用いた前記ニューラルネットワークの演算を行い、前記所定物の位置の推定値を示す位置推定値を出力データとして求めるニューラルネットワーク部と、前記入力画像に対応する前記位置真値と、前記ニューラルネットワーク部により求めた前記位置推定値との間の誤差を演算する誤差演算部と、前記誤差演算部により演算された前記誤差に基づいて、前記ニューラルネットワークの前記係数を更新する係数更新部と、を備えたことを特徴とする。
請求項3の位置学習装置によれば、画像及び当該画像に対応する所定物の位置真値を学習データとして、請求項1の位置推定装置にて用いる学習済み係数を求めることができる。
また、請求項4の位置学習装置は、請求項3に記載の位置学習装置において、さらに、前記入力画像の画像特徴に基づいて前記人物を検出し、前記人物毎の姿勢を計測する人物姿勢計測部と、前記人物姿勢計測部により計測された前記人物毎の姿勢から、前記所定の座標系におけるそれぞれの座標位置に対して全ての前記人物が注視する度合いを、位置毎の注視度として演算する注視度演算部と、を備え、前記ニューラルネットワーク部が、前記人物密度マップ演算部により生成された前記人物密度マップ、及び前記注視度演算部により演算された前記位置毎の注視度を入力データとして、前記係数を用いた前記ニューラルネットワークの演算を行い、前記位置推定値を出力データとして求める、ことを特徴とする。
請求項4の位置学習装置によれば、画像及び当該画像に対応する所定物の位置真値を学習データとして、請求項2の位置推定装置にて用いる学習済み係数を求めることができる。
さらに、請求項5のプログラムは、コンピュータを、請求項1または2に記載の位置推定装置として機能させることを特徴とする。
さらに、請求項6のプログラムは、コンピュータを、請求項3または4に記載の位置学習装置として機能させることを特徴とする。
以上のように、本発明によれば、画像内の物体等の位置を推定する際に、物体等が完全に隠蔽された場合であっても、その位置を推定することが可能となる。
実施例1の位置推定装置の構成を示すブロック図である。 実施例1の位置推定装置の処理を示すフローチャートである。 実施例1のニューラルネットワーク部を説明する図である。 実施例1の位置学習装置の構成を示すブロック図である。 実施例1の位置学習装置の処理を示すフローチャートである。 実施例2の位置推定装置の構成を示すブロック図である。 実施例2の位置推定装置の処理を示すフローチャートである。 実施例2のニューラルネットワーク部を説明する図である。 実施例2の位置学習装置の構成を示すブロック図である。 実施例2の位置学習装置の処理を示すフローチャートである。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。以下に説明する実施例1の位置推定装置は、画像内の競技等に用いる遊具(サッカーボール、テニスボール、アイスホッケーのパック、バドミントンのシャトル、カーリングのストーン等を含む)の位置を推定する際に、画像内の人物毎の位置を計測し、領域毎の人物密度を演算し、画像内の人物毎の姿勢を計測し、位置毎の(当該位置に対する全人物による)注視度を演算し、領域毎の人物密度及び位置毎の注視度を入力データとしてニューラルネットワークの演算を行い、遊具の位置の推定値(遊具の位置推定値)を出力データとして求める。
実施例2の位置推定装置は、画像内の人物毎の位置を計測し、領域毎の人物密度を演算し、領域毎の人物密度を入力データとしてニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める。
実施例1,2の位置学習装置は、画像及び当該画像に対応する遊具の位置の真値(遊具の位置真値)を学習データとして、対応する位置推定装置に備えたニューラルネットワークにて使用する最適な係数(結合重み及びバイアス値)を求める。
これにより、遊具が人物に隠れている、または照明の当たらない影領域に遊具が存在する等、遊具が完全に隠蔽された場合であっても、遊具の位置を推定することが可能となる。
〔実施例1〕
まず、実施例1について説明する。前述のとおり、実施例1は、画像から、領域毎の人物密度及び位置毎の注視度を演算し、これらのデータを入力データとし、遊具の位置推定値を出力データとしたニューラルネットワークを用いて、遊具の位置を推定するものである。
(位置推定装置/実施例1)
図1は、実施例1の位置推定装置の構成を示すブロック図であり、図2は、その処理を示すフローチャートである。この位置推定装置1−1は、人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12、注視度演算部13、ニューラルネットワーク部14−1及びメモリ15−1を備えている。
位置推定装置1−1は、画像を入力し、この入力画像を処理してニューラルネットワークの演算を行い、遊具の位置推定値を出力する。画像は、例えば、地面上に設定されるコート内において、選手である人物がボール、パック、シャトル、ストーン等の遊具を用いて行うサッカー、ホッケー、バドミントン、カーリング等の球技の画像である。
人物位置計測部10は、画像を入力し(ステップS201)、この入力画像の画像特徴に基づいて人物を抽出し、人物毎の位置(座標)を計測する(ステップS202)。そして、人物位置計測部10は、人物毎の位置を人物密度マップ演算部11及び注視度演算部13に出力する。
人物の数は1人であってもよいし、複数人であってもよい。また、人物の位置は、入力した画像の座標系(以下、「画像座標系」という。)における人物が存在する座標であってもよいし、人物が存在する空間に設定された座標系(以下、「世界座標系」という。)における座標であってもよい。
人物位置計測部10は、例えば、全球測位衛星システム(GNNS:Global Navigation Satellite System、例えばGPS(Global Positioning System))の受信機であってもよい。また、人物位置計測部10は、顔画像認識等の技術を用いて画像から被写体の人物を抽出し、当該画像を撮影したカメラの位置及び姿勢情報に基づいて、人物の位置を推定する方式(ステレオ画像による測位であってもよいし、単眼画像及び拘束条件(例えば、被写体である人物の足元が所定の面に接している等)から測位するものであってもよい)を用いるようにしてもよい。また、無線タグ(RFID等)を人物に装着して測位するものであってもよい。
人物密度マップ演算部11は、人物位置計測部10から人物毎の位置を入力し、人物毎の位置に基づいて、画像座標系または世界座標系における局所的な領域毎に人口密度(人物密度)を演算し、人物密度マップを生成する(ステップS203)。そして、人物密度マップ演算部11は、人物密度マップ(領域毎の人物密度)をニューラルネットワーク部14−1に出力する。
人物密度マップ演算部11は、例えば、人物の存在し得る領域(例えば、サッカー場、テニスコート等の競技場)を縦横の格子状に分割し、人物毎の位置から各格子に存在する人物の数を求めることで、領域毎の人物密度を演算するようにしてもよい。格子の総数がL個の場合、人物密度マップ演算部11は、各格子に対する人物密度を要素とするL次元のベクトルを生成し、これを人物密度マップとしてもよい。
尚、格子は、互いに重ならないように配置してもよいし、例えば1m四方の部分領域を0.5m四方の間隔で設定した格子を配置する等、隣接格子が互いに重なり合うよう配置してもよい。
人物姿勢計測部12は、画像を入力し、この入力画像の画像特徴に基づいて人物頭部を抽出し、人物頭部から人物毎の姿勢(顔の向き)を計測する(ステップS204)。そして、人物姿勢計測部12は、人物毎の姿勢を注視度演算部13に出力する。人物の姿勢は、画像座標系において計測してもよいし、世界座標系において計測してもよい。
人物姿勢計測部12は、例えば、画像の色ヒストグラムに基づく識別結果と、色ヒストグラム以外の特徴量(例えば、勾配ヒストグラム)に基づく識別結果とを統合化し、顔の向きを推定する技術を用いるようにしてもよい。この顔の向きを推定する技術は既知であり、例えば特開2018−22416号公報を参照されたい。
尚、人物姿勢計測部12は、姿勢を計測すべき人物の位置を特定するために、人物位置計測部10から人物毎の位置を入力するようにしてもよい。
注視度演算部13は、人物位置計測部10から人物毎の位置を入力すると共に、人物姿勢計測部12から人物毎の姿勢を入力する。そして、注視度演算部13は、人物毎の位置及び人物毎の姿勢に基づいて、画像座標系または世界座標系における予め設定されたそれぞれの座標位置に対して全人物が注視する度合い(注視度)、すなわち位置(座標)毎の注視度を演算する(ステップS205)。注視度演算部13は、位置毎の注視度をニューラルネットワーク部14−1に出力する。位置毎の注視度は、画像座標系または世界座標系における位置毎に、当該位置に対する各人物による注視度の合計値である。
人物毎の位置をXkとし、人物毎の姿勢をPkとし、画像座標系または世界座標系における位置をYとし、位置Yの注視度をG(Y)とする。kは、人物を区別するためのインデックスであり、1以上K以下の整数とする。Kのkの最大値とする。
ここでは、人物毎の位置Xkは、世界座標における3次元の位置べクトルとする。また、人物毎の姿勢Pkは、人物の特定箇所に固定した方向べクトル(例えば、顔面に固定した顔の向きのべクトル、眼球に固定した視線べクトル)とし、単位ベクトルとする。位置Yは、世界座標における位置べクトルとする。
この場合、注視度演算部13は、例えば関数fを用いた以下の式にて、位置Y毎の注視度G(Y)を演算する。
Figure 2021064025
関数fは、引数である(Y−Xk)のベクトル及び人物毎の姿勢Pkについて、これらの2つのベクトルが同じ方向を向くほど、大きい(または小さくない)スカラー値をとるものとするのが望ましい。また、関数fは、(Y−Xk)のベクトルが短いほど、大きい(または小さくない)スカラー値をとるものとするのが望ましい。
例えば、関数fは、以下の式のように、ベクトルの内積(2つのベクトルのなす角θの余弦値(cosθ))を演算するものであってもよい。ベクトルQk=Y−Xkとする。
Figure 2021064025
また、関数fは、以下の式のように演算するものであってもよい。
Figure 2021064025
ニューラルネットワーク部14−1は、メモリ15−1から学習済み係数(結合重み及びバイアス値)を読み出す。また、ニューラルネットワーク部14−1は、人物密度マップ演算部11から人物密度マップ(領域毎の人物密度)を入力すると共に、注視度演算部13から位置毎の注視度を入力する。
ニューラルネットワーク部14−1は、人物密度マップ及び位置毎の注視度を入力データとして、学習済み係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値(遊具の位置を示すベクトル)を出力データとして求める(ステップS206)。そして、ニューラルネットワーク部14−1は、遊具の位置推定値を出力する(ステップS207)。
ニューラルネットワーク部14−1としては、例えば、多層パーセプトロン、畳み込みニューラルネットワーク、リカレントニューラルネットワーク、ポップフィールドネットワーク、それらの組み合わせ等、任意のものを使用することができる。
人物位置計測部10が出力する人物毎の位置の座標系が画像座標系である場合、ニューラルネットワーク部14−1が出力する遊具の位置推定値の座標系も、画像座標系とすることが典型的であるが、世界座標系等の他の座標系とするようにしてもよい。逆に、人物位置計測部10が出力する人物毎の位置の座標系が世界座標系である場合、ニューラルネットワーク部14−1が出力する遊具の位置推定値の座標系も、世界座標系とすることが典型的であるが、画像座標系等の他の座標系とするようにしてもよい。
領域毎の人物密度である人物密度マップにおける領域の数をL(Lは2以上の整数)とし、位置毎の注視度における位置の数をM(Mは0以上の整数)とする。尚、M=0は、後述する実施例2の場合に相当するため、ここでは、Mは1以上の整数とする。
例えば、ニューラルネットワーク部14−1が多層パーセプトロンを用いる場合、ニューラルネットワーク部14−1は、L個の領域毎の人物密度及びM個の位置毎の注視度を入力データとして、多層パーセプトロンの入力層におけるN個(N=L+M)の素子に入力する。
図3は、実施例1において、多層パーセプトロンを用いたニューラルネットワーク部14−1を説明する図であり、L=4,M=4,N=8の場合を示している。このニューラルネットワーク部14−1は、3層パーセプトロンを用いて構成され、入力層の素子数は8、中間層の素子数は3、出力層の素子数は2である。
ニューラルネットワーク部14−1は、4つの領域のそれぞれについて、人物密度(変数)x1〜x4を入力層の4個の素子(1〜4番目の素子)に入力する。また、ニューラルネットワーク部14−1は、4つの位置のそれぞれについて、注視度(変数)x5〜x8を入力層の4個の素子(5〜8番目の素子)に入力する。
ニューラルネットワーク部14−1は、入力層の1〜8番目の素子から変数x1〜x8をそのまま出力し、中間層の9〜11番目の素子(q番目の素子)において、以下の式にて、変数x1〜x8等を用いて出力値である変数x9〜x11(xq)を演算する。
Figure 2021064025
ここで、Cqは、q番目の素子の入力に接続される素子の番号の集合を示し、wp,qは、p番目の素子の出力とq番目の素子の入力との間の結合重みを示す。また、bqは、q番目の素子の入力として与えるバイアス値を示し、φqは、q番目の素子の活性化関数を示す。
ニューラルネットワーク部14−1は、中間層の9〜11番目の素子から変数x9〜x11を出力し、出力層の12,13番目の素子(q番目の素子)において、前記式(4)にて、変数x9〜x11等を用いて出力値である遊具の位置推定値(X座標、Y座標)(xq)を演算する。ニューラルネットワーク部14−1は、出力層の12,13番目の素子から、遊具の位置推定値(X座標、Y座標)を出力する。
図3の例では、C9=C10=C11={1,2,3,4,5,6,7,8},C12=C13={9,10,11}であり、活性化関数φqは、任意のものを使用することができる。例えば、活性化関数φqとして、ReLU関数(Rectified Linear Unit:半波整流関数:φq(x)=max{0,x})、シグモイド関数、双曲線正接関数(φq(x)=tanhx)を用いることができる。活性化関数φqは、素子毎に異なる関数を混在させてもよいし、全ての素子に同じ関数を用いてもよい。
図1に戻って、メモリ15−1には、例えば、後述する位置学習装置2−1によりニューラルネットワーク部14−1を学習することにより求めた最適な学習済み係数(結合重みwp,q及びバイアス値bq)が格納されている。
メモリ15−1に格納された学習済み係数は、ニューラルネットワーク部14−1により読み出され、ニューラルネットワークの入力層の素子から中間層の素子を介して出力層の素子への演算に用いられる。
学習済み係数は、必要に応じて外部からメモリ15−1に書き込まれるようにしてもよいし、読み取り専用のメモリ15−1に予め求めておいたデータとして設定しておくようにしてもよい。
以上のように、実施例1の位置推定装置1−1によれば、人物位置計測部10は、画像から人物毎の位置を計測し、人物密度マップ演算部11は、人物毎の位置から人物密度マップを演算する。また、人物姿勢計測部12は、画像から人物毎の姿勢を計測し、注視度演算部13は、人物毎の位置及び人物毎の姿勢から、所定の座標系における位置毎の注視度を演算する。
ニューラルネットワーク部14−1は、領域毎の人物密度である人物密度マップ及び位置毎の注視度を入力データとして、学習済み係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める。
これにより、人物の空間的な分布と、各人物の姿勢から得られた位置毎の注視度とを用いて、遊具の存在する場所を、ニューラルネットワークの演算により精度高く推定することができる。つまり、人物との干渉等により遊具が完全に隠蔽され、明確に見えていない場合であっても、その位置を推定することが可能となる。
(位置学習装置/実施例1)
図4は、実施例1の位置学習装置の構成を示すブロック図であり、図5は、その処理を示すフローチャートである。この位置学習装置2−1は、人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12、注視度演算部13、ニューラルネットワーク部14−1、メモリ20−1、誤差演算部21及び係数更新部22−1を備えている。
位置学習装置2−1は、画像、及び当該画像に対応する真の遊具の位置である遊具の位置真値を対にして学習データとして1回以上入力する(ステップS501)。そして、位置学習装置2−1は、例えば誤差逆伝播法によりニューラルネットワークを学習し、最適な学習済み係数(結合重みwp,q及びバイアス値bq)を求める。
人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12、注視度演算部13及びニューラルネットワーク部14−1は、図1に示した構成部と同様であるため、説明を省略する。また、図5に示すステップS502〜S506は、図2に示したステップS202〜S206と同様であるから、説明を省略する。
ここで、ニューラルネットワーク部14−1は、メモリ20−1から係数更新部22−1により更新され格納された係数(結合重みwp,q及びバイアス値bq)を読み出し、係数を用いて、入力層の素子から中間層の素子を介して出力層の素子へと、ニューラルネットワークの演算を実行する。そして、ニューラルネットワーク部14−1は、遊具の位置推定値を誤差演算部21に出力する。
メモリ20−1は、書き換え可能なメモリ(例えばRAM(Random Access Memory))であり、ニューラルネットワーク部14−1にて用いる係数が一時的に格納される。
メモリ20−1に格納された係数は、ニューラルネットワーク部14−1により読み出され、ニューラルネットワークの入力層の素子から中間層の素子を介して出力層の素子への演算に用いられる。
位置学習装置2−1の動作開始時点において、メモリ20−1には、係数の初期値が格納されている。初期値は、予め設定された数値列であってもよいし、乱数(疑似乱数を含む)であってもよい。
誤差演算部21は、当該位置学習装置2−1が入力する画像と対をなす遊具の位置真値を入力すると共に、ニューラルネットワーク部14−1から遊具の位置推定値を入力する。そして、誤差演算部21は、遊具の位置真値と位置推定値との間の誤差を演算し(ステップS507)、誤差を係数更新部22−1に出力する。誤差は、例えば、遊具の位置推定値のベクトルと遊具の位置真値のベクトルとの間の差分べクトルである。
係数更新部22−1は、メモリ20−1から係数を読み出すと共に、誤差演算部21から誤差を入力する。そして、係数更新部22−1は、誤差に基づいて、ニューラルネットワーク部14−1が使用する係数を更新し(ステップS508)、更新後の係数を、次時点にニューラルネットワーク部14−1が使用する係数としてメモリ20−1に格納する。係数更新部22−1は、例えば誤差伝播法により、誤差に基づいて係数を変更する。
係数更新部22−1は、当該位置学習装置2−1が画像及び遊具の位置真値の学習データを入力する毎に、係数を更新することで最適化し、更新した係数をメモリ20−1に格納する。
位置学習装置2−1は、学習が完了していない場合(ステップS509:N)、ステップS501へ移行して、新たな画像及び遊具の位置真値の学習データを入力し、ステップS502〜S508の処理を繰り返す。
一方、位置学習装置2−1は、学習が完了した場合(ステップS509:Y)、メモリ20−1から係数を読み出し、学習済み係数として外部へ出力する(ステップS510)。位置学習装置2−1から出力された学習済み係数は、図1に示した位置推定装置1−1のメモリ15−1に格納される。
以上のように、実施例1の位置学習装置2−1によれば、画像及びこれに対応する遊具の位置真値を学習データとして入力し、位置推定装置1−1と同様に、人物位置計測部10は人物毎の位置を計測し、人物密度マップ演算部11は人物密度マップを演算する。また、人物姿勢計測部12は人物毎の姿勢を計測し、注視度演算部13は位置毎の注視度を演算する。
ニューラルネットワーク部14−1は、領域毎の人物密度である人物密度マップ及び位置毎の注視度を入力データとして、メモリ20−1に格納された係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める。
誤差演算部21は、遊具の位置真値と位置推定値との間の誤差を演算する。係数更新部22−1は、例えば誤差伝播法により、誤差に基づいて、ニューラルネットワーク部14−1が使用する係数を更新し、更新後の係数を、次時点にニューラルネットワーク部14−1が使用する係数としてメモリ20−1に格納する。
位置学習装置2−1は、係数を更新する学習処理を繰り返して学習が完了した場合、メモリ20−1から係数を読み出し、学習済み係数として外部へ出力する。
このようにして得られた学習済み係数は、図1に示した位置推定装置1−1のメモリ15−1に格納され、ニューラルネットワーク部14−1が遊具の位置推定値を求める際に用いられる。
これにより、位置推定装置1−1が画像内の遊具の位置を推定する際に、人物との干渉等により遊具が完全に隠蔽され、明確に見えていない場合であっても、その位置を推定することが可能となる。
〔実施例2〕
次に、実施例2について説明する。前述のとおり、実施例2は、画像から領域毎の人物密度を演算し、領域毎の人物密度を入力データとし、遊具の位置推定値を出力データとしたニューラルネットワークを用いて、遊具の位置を推定するものである。
(位置推定装置/実施例2)
図6は、実施例2の位置推定装置の構成を示すブロック図であり、図7は、その処理を示すフローチャートである。この位置推定装置1−2は、人物位置計測部10、人物密度マップ演算部11、ニューラルネットワーク部14−2及びメモリ15−2を備えている。
図1に示した実施例1の位置推定装置1−1とこの位置推定装置1−2とを比較すると、両位置推定装置1−1,1−2は、人物位置計測部10及び人物密度マップ演算部11を備えている点で共通する。
一方、位置推定装置1−2は、位置推定装置1−1の人物姿勢計測部12及び注視度演算部13を備えておらず、位置推定装置1−1のニューラルネットワーク部14−1及びメモリ15−1とは異なるニューラルネットワーク部14−2及びメモリ15−2を備えている点で、位置推定装置1−1と相違する。
人物位置計測部10及び人物密度マップ演算部11は、図1に示した構成部と同様であるため、説明を省略する。また、図7に示すステップS701〜S703は、図2に示したステップS201〜S203と同様であるため、説明を省略する。ここで、人物密度マップ演算部11は、人物密度マップ(領域毎の人物密度)をニューラルネットワーク部14−2に出力する。
ニューラルネットワーク部14−2は、メモリ15−2から学習済み係数を読み出す。また、ニューラルネットワーク部14−2は、人物密度マップ演算部11から人物密度マップを入力する。
ニューラルネットワーク部14−2は、領域毎の人物密度である人物密度マップを入力データとして、学習済み係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める(ステップS704)。そして、ニューラルネットワーク部14−2は、遊具の位置推定値を出力する(ステップS705)。
ニューラルネットワーク部14−2としては、図1に示したニューラルネットワーク部14−1と同様に、例えば多層パーセプトロン等を使用することができる。
人物位置計測部10が出力する人物毎の位置の座標系が画像座標系である場合、ニューラルネットワーク部14−2が出力する遊具の位置推定値の座標系も、画像座標系とすることが典型的であるが、世界座標系等の他の座標系とするようにしてもよい。逆に、人物位置計測部10が出力する人物毎の位置の座標系が世界座標系である場合、ニューラルネットワーク部14−2が出力する遊具の位置推定値の座標系も、世界座標系とすることが典型的であるが、画像座標系等の他の座標系とするようにしてもよい。
図8は、実施例2において、多層パーセプトロンを用いたニューラルネットワーク部14−2を説明する図である。このニューラルネットワーク部14−2は、3層パーセプトロンを用いて構成され、入力層の素子数は4、中間層の素子数は3、出力層の素子数は2である。
ニューラルネットワーク部14−2は、4つの領域のそれぞれについて、人物密度(変数)x1〜x4を入力層の4個の素子(1〜4番目の素子)に入力する。
ニューラルネットワーク部14−2は、入力層の1〜4番目の素子から変数x1〜x4をそのまま出力し、中間層の5〜7番目の素子(q番目の素子)において、前記式(4)にて、変数x1〜x4等を用いて出力値である変数x5〜x7(xq)を演算する。
ニューラルネットワーク部14−2は、中間層の5〜7番目の素子から変数x5〜x7を出力し、出力層の8,9番目の素子(q番目の素子)において、前記式(4)にて、変数x5〜x7等を用いて出力値である遊具の位置推定値(X座標、Y座標)(xq)を演算する。ニューラルネットワーク部14−2は、出力層の8,9番目の素子から、遊具の位置推定値(X座標、Y座標)を出力する。図8の例では、C5=C6=C7={1,2,3,4},C8=C9={5,6,7}である。
図6に戻って、メモリ15−2には、例えば、後述する位置学習装置2−2によりニューラルネットワーク部14−2を学習することにより求めた最適な学習済み係数が格納されている。
メモリ15−2に格納された学習済み係数は、ニューラルネットワーク部14−2により読み出され、ニューラルネットワークの入力層の素子から中間層の素子を介して出力層の素子への演算に用いられる。
学習済み係数は、必要に応じて外部からメモリ15−2に書き込まれるようにしてもよいし、読み取り専用のメモリ15−2に予め求めておいたデータとして設定しておくようにしてもよい。
以上のように、実施例2の位置推定装置1−2によれば、人物位置計測部10は、画像から人物毎の位置を計測し、人物密度マップ演算部11は、人物毎の位置から人物密度マップを演算する。
ニューラルネットワーク部14−2は、領域毎の人物密度である人物密度マップを入力データとして、学習済み係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める。
これにより、人物の空間的な分布を用いて、遊具の存在する場所をニューラルネットワークの演算により精度高く推定することができる。つまり、人物との干渉等により遊具が完全に隠蔽され、明確に見えていない場合であっても、その位置を推定することが可能となる。
(位置学習装置/実施例2)
図9は、実施例2の位置学習装置の構成を示すブロック図であり、図10は、その処理を示すフローチャートである。この位置学習装置2−2は、人物位置計測部10、人物密度マップ演算部11、ニューラルネットワーク部14−2、メモリ20−2、誤差演算部21及び係数更新部22−2を備えている。
図4に示した実施例1の位置学習装置2−1とこの位置学習装置2−2とを比較すると、両位置学習装置2−1,2−2は、人物位置計測部10、人物密度マップ演算部11及び誤差演算部21を備えている点で共通する。
一方、位置学習装置2−2は、位置学習装置2−1の人物姿勢計測部12及び注視度演算部13を備えておらず、位置学習装置2−1のニューラルネットワーク部14−1、メモリ20−1及び係数更新部22−1とは異なるニューラルネットワーク部14−2、メモリ20−2及び係数更新部22−2を備えている点で、位置学習装置2−1と相違する。
人物位置計測部10、人物密度マップ演算部11及び誤差演算部21は、図4に示した構成部と同様であるため、説明を省略する。また、図10に示すステップS1001〜S1005は、図5に示したステップS501〜S503、図7に示したステップS704及び図5に示したステップS507と同様であるため、説明を省略する。ここで、人物密度マップ演算部11は、人物密度マップをニューラルネットワーク部14−2に出力し、誤差演算部21は、誤差を係数更新部22−2に出力する。
ここで、ニューラルネットワーク部14−2は、メモリ20−2から係数更新部22−2により更新され格納された係数を読み出し、係数を用いて、入力層の素子から中間層の素子を介して出力層の素子へと、ニューラルネットワークの演算を実行する。そして、ニューラルネットワーク部14−2は、遊具の位置推定値を誤差演算部21に出力する。
メモリ20−2は、図4に示したメモリ20−1と同様に、書き換え可能なメモリであり、ニューラルネットワーク部14−2にて用いる係数が一時的に格納される。
メモリ20−2に格納された係数は、ニューラルネットワーク部14−2により読み出され、ニューラルネットワークの入力層の素子から中間層の素子を介して出力層の素子への演算に用いられる。
位置学習装置2−2の動作開始時点において、メモリ20−2には、係数の初期値が格納されている。初期値は、予め設定された数値列であってもよいし、乱数(疑似乱数を含む)であってもよい。
係数更新部22−2は、メモリ20−2から係数を読み出すと共に、誤差演算部21から誤差を入力する。そして、係数更新部22−2は、誤差に基づいて、ニューラルネットワーク部14−2が使用する係数を更新し(ステップS1006)、更新後の係数を、次時点にニューラルネットワーク部14−2が使用する係数としてメモリ20−2に格納する。係数更新部22−2は、例えば誤差伝播法により、誤差に基づいて係数を変更する。
係数更新部22−2は、当該位置学習装置2−2が画像及び遊具の位置真値の学習データを入力する毎に、係数を更新することで最適化し、更新した係数をメモリ20−2に格納する。
位置学習装置2−2は、学習が完了していない場合(ステップS1007:N)、ステップS1001へ移行して、新たな画像及び遊具の位置真値の学習データを入力し、ステップS1002〜S1006の処理を繰り返す。
一方、位置学習装置2−2は、学習が完了した場合(ステップS1007:Y)、メモリ20−2から係数を読み出し、学習済み係数として外部へ出力する(ステップS1008)。位置学習装置2−2から出力された学習済み係数は、図6に示した位置推定装置1−2のメモリ15−2に格納される。
以上のように、実施例2の位置学習装置2−2によれば、画像及びこれに対応する遊具の位置真値を学習データとして入力し、位置推定装置1−2と同様に、人物位置計測部10は人物毎の位置を計測し、人物密度マップ演算部11は人物密度マップを演算する。
ニューラルネットワーク部14−2は、領域毎の人物密度である人物密度マップを入力データとして、メモリ20−2に格納された係数を用いたニューラルネットワークの演算を行い、遊具の位置推定値を出力データとして求める。
誤差演算部21は、遊具の位置真値と位置推定値との間の誤差を演算する。係数更新部22−2は、例えば誤差伝播法により、誤差に基づいて、ニューラルネットワーク部14−2が使用する係数を更新し、更新後の係数を、次時点にニューラルネットワーク部14−2が使用する係数としてメモリ20−2に格納する。
位置学習装置2−2は、係数を更新する学習処理を繰り返して学習が完了した場合、メモリ20−2から係数を読み出し、学習済み係数として外部へ出力する。
このようにして得られた学習済み係数は、図6に示した位置推定装置1−2のメモリ15−2に格納され、ニューラルネットワーク部14−2が遊具の位置推定値を求める際に用いられる。
これにより、位置推定装置1−2が画像内の遊具の位置を推定する際に、人物との干渉等により遊具が完全に隠蔽され、明確に見えていない場合であっても、その位置を推定することが可能となる。
以上、実施例1,2を挙げて本発明を説明したが、本発明は前記実施例1,2に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施例1,2では、位置推定装置1−1,1−2は画像内の遊具の位置を推定し、位置学習装置2−1,2−2は画像及び遊具の位置を学習データとして学習処理を行うようにした。
これに対し、本発明は、遊具の位置を推定し、遊具の位置を学習データとすることに限定されるものではなく、遊具以外の物体の位置を推定し、物体の位置を学習データとするようにしてもよい。また、本発明は、物体以外の物、例えば人物の位置を推定し、人物の位置を学習データとするようにしてもよい。
また、前記実施例1の人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12及び注視度演算部13、並びに前記実施例2の人物位置計測部10及び人物密度マップ演算部11は、球技に参加している全ての人物を対象として、人物毎の位置等を求めるようにした。
これに対し、人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12及び注視度演算部13は、球技に参加しているチーム毎の人物を対象として、チーム毎に、人物毎の位置等を求めるようにしてもよい。この場合、ニューラルネットワーク部14−1は、チーム毎の人物密度マップ、及びチーム毎かつ位置毎の注視度を入力データとして、学習済み係数を用いたニューラルネットワークの演算を行う。また、ニューラルネットワーク部14−2は、チーム毎の人物密度マップを入力データとして、学習済み係数を用いたニューラルネットワークの演算を行う。
また、前記実施例1のニューラルネットワーク部14−1は、人物密度マップ及び位置毎の注視度を入力データとして処理を行うようにし、実施例2のニューラルネットワーク部14−2は、人物密度マップを入力データとして処理を行うようにした。
これに対し、ニューラルネットワーク部14−1,14−2は、人物位置計測部10により計測された人物の位置、または他の構成部により計測された人物の移動速度、人物の移動方向等を入力データとして処理を行うようにしてもよい。この場合、人物速度計測部は、時系列の画像から人物を検出し、人物毎の移動速度を計測し、人物方向計測部は、時系列の画像から人物を検出し、人物毎の移動方向を計測する。
尚、実施例1,2による位置推定装置1−1,1−2及び位置学習装置2−1,2−2のハードウェア構成としては、通常のコンピュータを使用することができる。位置推定装置1−1,1−2及び位置学習装置2−1,2−2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
位置推定装置1−1に備えた人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12、注視度演算部13、ニューラルネットワーク部14−1及びメモリ15−1の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
また、位置推定装置1−2に備えた人物位置計測部10、人物密度マップ演算部11、ニューラルネットワーク部14−2及びメモリ15−2の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
また、位置学習装置2−1に備えた人物位置計測部10、人物密度マップ演算部11、人物姿勢計測部12、注視度演算部13、ニューラルネットワーク部14−1、メモリ20−1、誤差演算部21及び係数更新部22−1の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
また、位置学習装置2−2に備えた人物位置計測部10、人物密度マップ演算部11、ニューラルネットワーク部14−2、メモリ20−2、誤差演算部21及び係数更新部22−2の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
1−1,1−2 位置推定装置
2−1,2−2 位置学習装置
10 人物位置計測部
11 人物密度マップ演算部
12 人物姿勢計測部
13 注視度演算部
14−1,14−2 ニューラルネットワーク部
15−1,15−2,20−1,20−2 メモリ
21 誤差演算部
22−1,22−2 係数更新部

Claims (6)

  1. 入力画像内の所定物の位置を推定する位置推定装置において、
    前記入力画像の画像特徴に基づいて人物を検出し、所定の座標系における前記人物毎の位置を計測する人物位置計測部と、
    前記人物位置計測部により計測された前記人物毎の位置から、前記所定の座標系における領域毎に人物密度を演算し、前記領域毎の人物密度を人物密度マップとして生成する人物密度マップ演算部と、
    前記人物密度マップ演算部により生成された前記人物密度マップを入力データとして、予め設定された学習済み係数を用いたニューラルネットワークの演算を行い、前記所定物の位置の推定値を示す位置推定値を出力データとして求めるニューラルネットワーク部と、
    を備えたことを特徴とする位置推定装置。
  2. 請求項1に記載の位置推定装置において、
    さらに、前記入力画像の画像特徴に基づいて前記人物を検出し、前記人物毎の姿勢を計測する人物姿勢計測部と、
    前記人物姿勢計測部により計測された前記人物毎の姿勢から、前記所定の座標系におけるそれぞれの座標位置に対して全ての前記人物が注視する度合いを、位置毎の注視度として演算する注視度演算部と、を備え、
    前記ニューラルネットワーク部は、
    前記人物密度マップ演算部により生成された前記人物密度マップ、及び前記注視度演算部により演算された前記位置毎の注視度を前記入力データとして、前記学習済み係数を用いた前記ニューラルネットワークの演算を行い、前記位置推定値を前記出力データとして求める、ことを特徴とする位置推定装置。
  3. 入力画像と、当該入力画像に対応する所定物の位置の真値を示す位置真値とを学習データとして入力し、当該学習データに基づいてニューラルネットワークの係数を求める位置学習装置において、
    前記入力画像の画像特徴に基づいて人物を検出し、所定の座標系における前記人物毎の位置を計測する人物位置計測部と、
    前記人物位置計測部により計測された前記人物毎の位置から、前記所定の座標系における領域毎に人物密度を演算し、前記領域毎の人物密度を人物密度マップとして生成する人物密度マップ演算部と、
    前記人物密度マップ演算部により生成された前記人物密度マップを入力データとして、前記係数を用いた前記ニューラルネットワークの演算を行い、前記所定物の位置の推定値を示す位置推定値を出力データとして求めるニューラルネットワーク部と、
    前記入力画像に対応する前記位置真値と、前記ニューラルネットワーク部により求めた前記位置推定値との間の誤差を演算する誤差演算部と、
    前記誤差演算部により演算された前記誤差に基づいて、前記ニューラルネットワークの前記係数を更新する係数更新部と、
    を備えたことを特徴とする位置学習装置。
  4. 請求項3に記載の位置学習装置において、
    さらに、前記入力画像の画像特徴に基づいて前記人物を検出し、前記人物毎の姿勢を計測する人物姿勢計測部と、
    前記人物姿勢計測部により計測された前記人物毎の姿勢から、前記所定の座標系におけるそれぞれの座標位置に対して全ての前記人物が注視する度合いを、位置毎の注視度として演算する注視度演算部と、を備え、
    前記ニューラルネットワーク部は、
    前記人物密度マップ演算部により生成された前記人物密度マップ、及び前記注視度演算部により演算された前記位置毎の注視度を入力データとして、前記係数を用いた前記ニューラルネットワークの演算を行い、前記位置推定値を出力データとして求める、ことを特徴とする位置学習装置。
  5. コンピュータを、請求項1または2に記載の位置推定装置として機能させるためのプログラム。
  6. コンピュータを、請求項3または4に記載の位置学習装置として機能させるためのプログラム。
JP2019186619A 2019-10-10 2019-10-10 位置推定装置、位置学習装置及びプログラム Active JP7373352B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019186619A JP7373352B2 (ja) 2019-10-10 2019-10-10 位置推定装置、位置学習装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019186619A JP7373352B2 (ja) 2019-10-10 2019-10-10 位置推定装置、位置学習装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2021064025A true JP2021064025A (ja) 2021-04-22
JP7373352B2 JP7373352B2 (ja) 2023-11-02

Family

ID=75487996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019186619A Active JP7373352B2 (ja) 2019-10-10 2019-10-10 位置推定装置、位置学習装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7373352B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116434125A (zh) * 2023-06-13 2023-07-14 南昌航空大学 一种基于一维卷积神经网络的羽毛球落地点检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
JP2017055175A (ja) * 2015-09-07 2017-03-16 キヤノン株式会社 画像処理装置
WO2019188714A1 (ja) * 2018-03-30 2019-10-03 株式会社 Preferred Networks 推定処理装置、推定モデル生成装置、推定モデル、推定方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
JP2017055175A (ja) * 2015-09-07 2017-03-16 キヤノン株式会社 画像処理装置
WO2019188714A1 (ja) * 2018-03-30 2019-10-03 株式会社 Preferred Networks 推定処理装置、推定モデル生成装置、推定モデル、推定方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
青木義満他: "ラグビー映像解析システムの開発", 電子情報通信学会論文誌B VOLUMEJ100−B NO.12 [ONLINE], vol. 第100-B巻 第12号, JPN6023030628, 1 December 2017 (2017-12-01), JP, pages 941 - 951, ISSN: 0005116952 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116434125A (zh) * 2023-06-13 2023-07-14 南昌航空大学 一种基于一维卷积神经网络的羽毛球落地点检测方法
CN116434125B (zh) * 2023-06-13 2023-08-29 南昌航空大学 一种基于一维卷积神经网络的羽毛球落地点检测方法

Also Published As

Publication number Publication date
JP7373352B2 (ja) 2023-11-02

Similar Documents

Publication Publication Date Title
Van der Kruk et al. Accuracy of human motion capture systems for sport applications; state-of-the-art review
Kumar et al. Multimodal gait recognition with inertial sensor data and video using evolutionary algorithm
Soo Park et al. Social saliency prediction
CN105636201B (zh) 基于稀疏信号指纹数据库的室内定位方法
JP6704606B2 (ja) 判定システム、及び判定方法
US20090298588A1 (en) Method of automatically detecting offside in Soccer using fixed and wireless sensors and central server
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
CN112199983B (zh) 一种多层次筛选的长时间大范围行人再识别方法
Zheng et al. Measuring human-induced vibrations of civil engineering structures via vision-based motion tracking
Meghji et al. An algorithm for the automatic detection and quantification of athletes’ change of direction incidents using IMU sensor data
JP2004096501A (ja) 移動体の位置検出システム、移動体の位置検出方法、及びプログラム
KR102369945B1 (ko) 압력을 이용한 운동 자세 구분 방법 및 장치
JP2021135619A (ja) 状況識別装置、状況学習装置及びプログラム
JP7373352B2 (ja) 位置推定装置、位置学習装置及びプログラム
Brzostowski et al. Data fusion in ubiquitous sports training: methodology and application
Pham et al. Histogram feature-based approach for walking distance estimation using a waist-mounted IMU
Bačić Echo state network for 3D motion pattern indexing: A case study on tennis forehands
Flores-Barranco et al. Accidental fall detection based on skeleton joint correlation and activity boundary
Zhang et al. Motion trajectory tracking of athletes with improved depth information-based KCF tracking method
Kautz Acquisition, filtering and analysis of positional and inertial data in sports
Neskorodieva et al. Real-time Classification, Localization and Tracking System (Based on Rhythmic Gymnastics)
Hassan et al. Recognizing football game events: Handball based on Computer Vision
Jiang Application of motion trajectory recognition based on remote sensing image optical processing in optimizing swimming training schemes
Fan et al. [Retracted] Automatic Capture Processing Method of Basketball Shooting Trajectory Based on Background Elimination Technology
Amouzandeh et al. Statistical analysis of sport movement observations: The case of orienteering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7373352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150