JP6862875B2 - Exercise evaluation device, exercise evaluation method and exercise evaluation program - Google Patents
Exercise evaluation device, exercise evaluation method and exercise evaluation program Download PDFInfo
- Publication number
- JP6862875B2 JP6862875B2 JP2017018198A JP2017018198A JP6862875B2 JP 6862875 B2 JP6862875 B2 JP 6862875B2 JP 2017018198 A JP2017018198 A JP 2017018198A JP 2017018198 A JP2017018198 A JP 2017018198A JP 6862875 B2 JP6862875 B2 JP 6862875B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- time
- composite image
- unit
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、運動評価装置、運動評価方法及び運動評価プログラムに関する。 The present invention relates to an exercise evaluation device, an exercise evaluation method, and an exercise evaluation program.
従来、人体に加速度センサを取り付けた状態で歩行したときの、加速度センサの進行方向に対する出力結果と、鉛直方向に対する出力結果とから、例えば歩行時における着地タイミングや離地タイミング、接地時間等に関するデータを測定することのできる測定装置が開示されている(例えば特許文献1参照)。 Conventionally, when walking with an acceleration sensor attached to a human body, data on landing timing, takeoff timing, ground contact time, etc. during walking are obtained from the output result in the traveling direction of the acceleration sensor and the output result in the vertical direction. Is disclosed (see, for example, Patent Document 1).
しかしながら、上記特許文献1に開示されている測定装置では、被測定者の実際の歩行動作と直感的に結び付けるような結果表示が行われないため、測定されたデータを理解し難いという問題があった。
そこで、本発明の課題は、被測定者の動作について測定されたデータを理解し易くすることである。
However, the measuring device disclosed in
Therefore, an object of the present invention is to make it easier to understand the measured data regarding the movement of the person to be measured.
上記課題を解決するため、本発明に係る運動評価装置は、
動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成部と、
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部と、
前記モーションデータ取得部に取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成部に生成された前記合成画像とを表示部に表示させる表示制御部と、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得部と、を備え、
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする。
In order to solve the above problems, the motion evaluation device according to the present invention is used.
A generator that extracts the subject portion from each of a plurality of images that continuously capture a moving subject and generates a composite image in which each of the plurality of extracted images that are the extracted images is superimposed.
The output from the motion sensor mounted on the object, and motion data obtaining unit for obtaining motion data corresponding to the operation of the subject,
A display unit displays a time series of the motion data acquired by the motion data acquisition unit and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated by the generation unit. Display control unit to be displayed on
A designated time acquisition unit for acquiring a time specified by the user in the time series of the motion data displayed on the display unit is provided.
The display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
It is characterized by that.
本発明によれば、被測定者の動作について測定されたデータを理解し易くすることができる。 According to the present invention, it is possible to make it easier to understand the measured data regarding the movement of the person to be measured.
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated examples.
[実施形態1]
図1〜図3を参照して、本実施の形態の装置構成を説明する。先ず、図1を参照して、本実施の形態の運動評価システム1を説明する。図1は、本実施の形態の運動評価システム1を示すブロック図である。
[Embodiment 1]
The apparatus configuration of the present embodiment will be described with reference to FIGS. 1 to 3. First, the
運動評価システム1は、運動評価装置10と、測定装置20と、撮像装置30と、を備える。
The
運動評価装置10は、被測定者に装着された測定装置20からモーションデータを取得して運動解析を行うとともに、撮像装置30からこの被測定者のランニング動作に係る画像データを取得して、時間経過毎の被測定者の複数の画像を経過時間に沿って並べた、多重露光状の合成画像を生成する。そして、運動評価装置10は、ユーザの指示に応じて、上記解析結果と上記合成画像とを対応付けて表示する。
The
測定装置20は、図2に示すように、例えば被測定者の腰の位置に装着され、この被測定者がランニングを行ったときの3軸方向の加速度及び角速度を測定する。ここで、左右方向をX軸とし、前後方向をY軸とし、上下方向をZ軸とする。X軸においては左手方向を正、右手方向を負とする。Y軸においては進行方向逆向きを正とし、進行方向を負とする。Z軸においては上方向を正、下方向を負とする。
As shown in FIG. 2, the
撮像装置30は、測定装置20を装着した被測定者のランニング動作を撮影するためのデジタルカメラである。
The
次いで、図3(a)を参照して、運動評価装置10の内部の機能構成を説明する。図3(a)は、運動評価装置10の機能構成を示すブロック図である。
Next, with reference to FIG. 3A, the internal functional configuration of the
図3(a)に示すように、運動評価装置10は、生成部、運動解析部、表示制御部、第1の指定部、第2の指定部としてのCPU(Central Processing Unit)11と、操作部
12と、RAM(Random Access Memory)13と、表示部14と、記憶部15と、通信部16と、を備える。運動評価装置10の各部は、バス17を介して接続されている。
As shown in FIG. 3A, the
CPU11は、運動評価装置10の各部を制御する。CPU11は、記憶部15に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出してRAM13に展開し、当該プログラムとの協働で、各種処理を実行する。
The
操作部12は、キーボード等のキー入力部と、マウス等のポインティングデバイスとを有し、キー入力及び位置入力を受け付け、その操作情報をCPU11に出力する。
The
RAM13は、揮発性のメモリであり、各種のデータやプログラムを一時的に格納するワークエリアを形成する。表示部14は、LCD(Liquid Crystal Display)、EL(ElectroLuminescence)ディスプレイ等で構成され、CPU11から指示された表示情報に
従い各種表示を行う。
The
記憶部15は、HDD(Hard Disk Drive)等により構成され、データ及びプログラム
を書き込み及び読み出し可能な記憶部である。特に、記憶部15は、運動評価プログラム151を記憶している。
The
通信部16は、被測定者に装着された測定装置20からモーションデータを受信するとともに、撮像装置30からこの被測定者のランニング動作に係る画像データを受信するものであり、例えば、USB端子などの有線式の通信部や、WiFiなどの無線LAN規格を採用した通信部である。
The
次いで、図3(b)を参照して、測定装置20の機能構成を説明する。図3(b)は、測定装置20の機能構成を示すブロック図である。
Next, the functional configuration of the measuring
測定装置20は、CPU21と、操作部22と、RAM23と、加速度センサ24と、ジャイロセンサ25と、記憶部26と、通信部27と、を備える。測定装置20の各部は、バス28を介して接続されている。
The measuring
CPU21及びRAM23は、運動評価装置10のCPU11、RAM13と同様であるため、重複する説明を省略し、異なる部分を主として説明する。
Since the
CPU21は、測定装置20の各部を制御する。また、CPU21は、加速度センサ24から出力される各軸の加速度の検出データ(モーションデータ)を記憶部26に記憶する。また、CPU21は、ジャイロセンサ25から出力される各軸を中心とする角速度の検出データ(モーションデータ)を記憶部26に記憶する。
The
操作部22は、電源のON/OFFを切り替える電源ボタン(図示省略)、データ取得の開始/停止を指示する開始/停止ボタン(図示省略)等を備えており、この操作部22からの指示に基づいてCPU21は各部を制御するようになっている。
The
加速度センサ24は、互いに直交する3軸方向の加速度データを検出する。そして、加速度センサ24は、検出された各軸の加速度データをCPU21に出力する。
ジャイロセンサ25は、互いに直交する3軸方向を中心とする角速度データを検出する。そして、ジャイロセンサ25は、検出された各軸を中心とする角速度データをCPU21に出力する。各軸の加速度データ及び各軸を中心とする角速度データは、所定のサンプリング周期(例えば、200Hz)でサンプリングされているものとする。
The
The
記憶部26は、フラッシュメモリ、EEPROM(Electrically Erasable Programmable ROM)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
The
通信部27は、記憶部26に記憶した各軸の加速度データ及び各軸を中心とする角速度データをCPU21による制御に基づいて運動評価装置10に出力するものであり、例えば、USB端子などの有線式の通信部や、WiFiなどの無線LAN規格を採用した通信部である。
The
次いで、図3(c)を参照して、撮像装置30の機能構成を説明する。図3(c)は、撮像装置30の機能構成を示すブロック図である。
Next, the functional configuration of the
撮像装置30は、CPU31と、操作部32と、RAM33と、撮像部34と、表示部35と、記憶部36と、通信部37と、を備える。撮像装置30の各部は、バス38を介して接続されている。
The
CPU31及びRAM33は、運動評価装置10のCPU11、RAM13と同様であるため、重複する説明を省略し、異なる部分を主として説明する。
Since the
CPU31は、撮像装置30の各部を制御する。また、CPU31は、撮像部34により撮影された被写体(測定装置20を装着した被測定者)の画像データを記憶部36に記憶する。
The
操作部32は、例えば、シャッタキー、動作モードや機能等の選択指示に係る上下左右のカーソルボタン、決定ボタン等を備えている。CPU31は、操作部32からの指示に基づいて撮像装置30の各部を制御する。なお、操作部32は、表示部35と一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
The
撮像部34は、所定のフレームレート(例えば、200fps)で動画像を撮影する機能を有しており、例えば、測定装置20を装着した被測定者の一連のランニング動作(少なくとも、一方の足が接地した状態から再度この一方の足が接地した状態となるまでの期間のランニング動作)を撮影する。
The
表示部35は、記憶部36から読み出され復号された所定サイズの画像を表示領域内に表示する。表示部35は、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The
記憶部36は、フラッシュメモリ、EEPROM(Electrically Erasable Programmable ROM)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。 The storage unit 36 is composed of a flash memory, an EEPROM (Electrically Erasable Programmable ROM), or the like, and is a storage unit capable of writing and reading data and programs.
通信部37は、記憶部36に記憶した画像データをCPU31による制御に基づいて運動評価装置10に出力するものであり、例えば、USB端子などの有線式の通信部や、WiFiなどの無線LAN規格を採用した通信部である。
The
次に、図4を参照して、運動評価装置10で実行される運動評価処理を説明する。運動評価装置10において、操作部12を介して、ユーザから運動評価処理の実行指示が入力されたことをトリガとして、CPU11は、記憶部15から読み出して適宜RAM13に展開した運動評価プログラム151との協働で、運動評価処理を実行する。
なお、この運動評価処理では、処理の実行前に、モーションデータと画像データが記憶部15に既に記憶されている場合を例示して説明する。
Next, the motion evaluation process executed by the
In this motion evaluation process, a case where motion data and image data are already stored in the
先ず、CPU11は、ユーザによる操作部12の操作によって指定された所望のモーションデータ(各軸の加速度データ、及び、各軸を中心とする角速度データ)を記憶部15から読み出す(ステップS1)。
First, the
次いで、CPU11は、各軸の加速度データ、及び、各軸を中心とする角速度データについて、軸補正処理を行う(ステップS2)。つまり、CPU11は、これらのモーションデータを、ランニング動作に対して不変なワールド座標軸を基準とするデータに変換し、当該データ(以下、補正データという)をRAM13に記憶する。ここで、ワールド座標軸とは、図6(a)に示すように、Z軸(Zw)が重力方向と一致し、Y軸(Yw)がランニングの進行方向と逆の方向と一致し、X軸(Xw)がZ軸とY軸に垂直な方向と一致する座標軸である。上記のように、モーションデータを、ワールド座標軸を基準とするデータに変換する理由は、測定装置20が被測定者の腰の位置に装着された状態では、図6(b),(c)に示すように、ランニング中の姿勢変化によって、Y軸(Ys)やZ軸(Zs)の方向が変化してしまうことにある。具体的な変換方法としては、例えば、カルマンフィルタを用いて地軸方向を推定し、推定された地軸方向とZ軸方向とが一致するように各軸を回転させることにより、モーションデータを、ワールド座標軸を基準とするデータに変換する方法や、Z軸の加速度データに基づき当該加速度を平均した方向を地軸方向と推定し、推定された地軸方向とZ軸方向とが一致するように各軸を回転させることにより、モーションデータを、ワールド座標軸を基準とするデータに変換する方法が挙げられる。
Next, the
次いで、CPU11は、RAM13に記憶された補正データに基づき、足が地面に接地した接地位置を推定する(ステップS3)。具体的には、先ず、CPU11は、補正データのうち、Z軸の加速度データを用いて、接地位置の検索開始位置を特定する。図6(d)の上段は、Z軸の加速度データ(AccZ)の波形を示すグラフである。個人差により、また、ランニングの速度により、AccZの波形はさまざまな形状を示すが、接地後にその接地の衝撃で鉛直上向き(プラス方向)に値が大きく振れるため、1歩ごとに山なりの波形となる。CPU11は、Z軸の加速度データ(AccZ)に対して移動平均等の平滑化フィルタをかけることにより、図6(d)の下段に示すように、平滑化処理後のZ軸の加速度データ(FAccZ)の波形を導出し、当該波形の極大値を示す位置(接地位置から一定時間が経過した位置)を接地位置推定の検索開始位置とする。
Next, the
続けて、CPU11は、図6(e)に示すように、上記検索開始位置から時間軸を遡る方向に、Y軸の加速度データ(AccY)の波形を一定時間分だけ走査し、極大値を検出する。足が接地した場合、進行方向後ろ向き(Y軸プラス方向)にブレーキがかかり、AccYの値が大きく振れるため、検出された極大値の位置を接地基準位置とする。接地基準位置は、ブレーキのピーク位置であり、実際の接地から数ミリ秒経過後に発生するため、CPU11は、接地基準位置から数ミリ秒手前の位置を接地位置として推定する。
Subsequently, as shown in FIG. 6E, the
次いで、CPU11は、ランニング周期の始まりを決定する(ステップS4)。具体的には、CPU11は、補正データのうち、Y軸を中心とする角速度データを用いて、ステップS3で推定された接地位置が左右どちらの足による接地であるかを判定する。図7は、ランニング中の各軸を中心とする角速度データの波形を示す図であり、ステップS3で推定された接地位置が一点鎖線で示されている。CPU11は、図7に示すように、接地位置から一定時間(100ミリ秒以下)の範囲において、Y軸を中心とする角速度データ(GyrY)の波形を走査し、極値を検出する。そして、検出された極値E1の符号がプラスの場合、CPU11は、当該検出の基準となった接地位置は右足によるものと判定する。一方、検出された極値E2の符号がマイナスの場合、CPU11は、当該検出の基準となった接地位置は左足によるものと判定する。上記の判定方法は、接地した衝撃を和らげるために、骨盤が接地足の逆足側に一瞬下がって元に戻るような動きをするという現象を利用したものである。そして、CPU11は、右足による接地位置であると判定された位置をランニング周期の始まりとして決定する。なお、CPU11は、左足による接地位置であると判定された位置をランニング周期の始まりとして決定してもよい。
The
次いで、CPU11は、測定装置20の上下方向の位置の変化、すなわち被測定者の腰の高さの変化を算出する(ステップS5)。具体的には、CPU11は、補正データのうち、Z軸の加速度データを用いて、当該Z軸の加速度データを2回積分することにより、測定装置20の上下方向の位置の変化を算出する。
なお、ここでは、測定装置20の上下方向の位置の絶対値は必要ではなく、相対的な位置がわかればいいので、積分する際に積分定数は気にしなくてもよいが、積分することで誤差が蓄積することがある。そこで、ランニングの周期特性を利用して計算を行うことが望ましい。最初にZ軸の加速度であるが、接地している間は加速度センサ24により上方向の加速度が検出されるので、単純に積分すると上方向の速度が増すことになる。ここで、ランニングは周期運動であることから、周期のはじめと終わりの上下方向の速度は、本来、同じはずである。このことから、ランニング1周期分の全データの平均を求め、サンプリングされたZ軸の加速度データそれぞれから平均値を引くことで、重力加速度及びノイズの成分を除去することができる。すなわち、ランニング1周期分のZ軸の加速度データの積分値は、重力加速度がない仮想状態では、ゼロになるはずであり、重力加速度及びノイズが存在しているときには、当該積分値は、重力加速度の値とノイズによる値とを示すと考えることが出来ることから、上述のように重力加速度及びノイズの成分を除去する処理を行っている。そして、このZ軸の加速度データを積分することで、Z軸の速度データを算出する。そして、さらにZ軸の速度データを積分することで、測定装置20の上下方向の位置の変化を算出する。
Next, the
Here, the absolute value of the vertical position of the measuring
次いで、CPU11は、RAM13に記憶された補正データに基づき、足が地面から離れた離地位置を推定する(ステップS6)。足が地面から離れた場合、地面を蹴って得た加速度成分が無くなり減速するため、Y軸の加速度データ(AccY)のピーク値が発生する。CPU11は、このピーク値の位置を離地位置として推定する。具体的には、先ず、CPU11は、一の接地位置を特定し、この接地位置から1歩前の接地位置までの間における測定装置20の上下方向の位置の変化を示すZ軸の変位データを取得する。そして、CPU11は、このZ軸の変位データの最大値を検出し、この最大値の位置を高さ変動最大位置とする(図8参照)。続けて、CPU11は、図8に示すように、上記一の接地位置の一歩前で求めた高さ変動最大位置から、当該一の接地位置を基準として求めた高さ変動最大位置までの間の60〜95%の範囲を離地位置の検索範囲とする。そして、CPU11は、この検索範囲内でY軸の加速度データ(AccY)の波形を走査し、最初に検出された極大値の位置を離地位置として推定する。
Next, the
次いで、CPU11は、ステップS3で行われた接地位置の推定処理、ステップS4で行われたランニング周期の始まりの決定処理、ステップS5で行われた測定装置20の上下方向の位置の算出処理、及び、ステップS6で行われた離地位置の推定処理に基づき、ランニング周期の各局面を推定する(ステップS7)。ここで、ランニング周期の局面とは、図9に示すように、右足が地面に触れた接地時、この足の接地中に測定装置20、すなわち腰が最も低い位置を通過した最下時、この足が地面から離れた離地時、及び、この足が地面から離れた後、測定装置20が最も高い位置を通過した最高時、並びに、逆の足(左足)が地面に触れた逆足接地時、この足の接地中に測定装置20が最も低い位置を通過した逆足最下時、この足が地面から離れた逆足離地時、及び、この足が地面から離れた後、測定装置20が最も高い位置を通過した逆足最高時を指す。
Next, the
次いで、CPU11は、ランニングの進行方向を推定する(ステップS8)。具体的には、CPU11は、Z軸を中心とする角速度データを積分し、その平均値を体の正面方向、すなわちランニングの進行方向として推定する。ここで、上記角速度データには時間的に変化するオフセットが存在する。そこで、このオフセットを解消するため、上記角速度データを積分する前に、ランニング1周期分のサンプリングされた上記角速度データの平均を求め、元のデータから平均値を引いた後に積分することが望ましい。なお、上記角速度データの平均は、ランニング1周期分に限らず、その前後の数周期分のデータを対象としてもよい。
Next, the
次いで、CPU11は、補正データ(3軸の加速度データ)のノイズ低減のため、平均化処理を行う(ステップS9)。具体的には、先ず、CPU11は、各軸の加速度データを対象とし、ランニング1周期の時間を400ポイントに変換(正規化)する。つまり、各周期の始まりを0ポイントとし、各周期の終わりを399ポイントとする。続けて、CPU11は、各周期の加速度データを平均した波形(平均波形)を生成し、各周期の波形とこの平均波形との差を0から399ポイントにわたって求める。そして、CPU11は、2乗平均を求め、0から399ポイントの2乗平均を足し合わせることでその周期の平均との差分を求める。そして、CPU11は、各周期の順番を上記差分の小さい順にソートして、平均化処理に用いる数の波形を選択する。例えば、10個の波形の平均を求めるとした場合、上記のソートされた波形の先頭から10波形を選択することとなる。そして、CPU11は、選択された波形の周期を求め、平均したポイント数(cyc)を算出する。また、CPU11は、左足接地から右足接地までの時間を求め、平均したポイント数(cyc_L)を算出するとともに、右足接地から左足接地までの時間を求め、平均した
ポイント数(cyc_R)を算出する。
そして、CPU11は、左足ポイント数(round_L)=400*cyc_L/cycを算出するとともに、右足ポイント数(round_R)=400*cyc_R/cycを算出する。そして、CPU11は、算出された左足ポイント数(round_L)と右
足ポイント数(round_R)とをつなぎ、ランニング1周期分の平均化された加速度
データを導出する。
Next, the
Then, the
なお、上述のような平均化処理を行う際に、正規化する前の周期(実周期時間)の平均を求め、この平均から一定以上周期がずれている周期はこの平均に加えない、また、一方の足の接地から逆足接地までの時間の平均を求め、この平均から一定以上周期がずれている周期は平均に加えない、といった処理を行うようにしてもよい。 When performing the averaging process as described above, the average of the cycles (actual cycle time) before normalization is obtained, and cycles that deviate from this average by a certain amount or more are not added to this average. The average of the time from the contact of one foot to the contact of the reverse foot may be obtained, and the period whose period deviates from this average by a certain amount or more may not be added to the average.
そして、CPU11は、平均化処理が施された各軸の加速度データを、正規化されたサンプル間隔Δtで積分することにより、各軸の速度データを算出する。なお、ここでは、1周期分の全データの平均を求め、サンプリングされた加速度それぞれから平均値を引いた上で、上記の積分を行う。また、CPU11は、上記積分で導出された各軸の速度データを積分することで、各軸の変位データを導出する。
Then, the
また、CPU11は、ステップS9において、ステップS7で推定されたランニングの各局面の時間についても、0〜399ポイントに正規化した時間に変換する。
Further, in step S9, the
次いで、CPU11は、ステップS9で平均化処理が施された各データ、及び、正規化されたランニングの各局面の時間の情報に基づき、図10(a)に示すような運動解析データを生成する(ステップS10)。
図10(a)に示す運動解析データは、横軸に時間をとり、各サンプリングポイントの時間を原点に、Z軸の加速度ベクトル(縦方向)とY軸の加速度ベクトル(横方向)との合成ベクトルを描いたデータとなっている。すなわち、経過時間毎の合成ベクトルの変化を示しており、合成ベクトルを示す線分の長さが加速度の大きさを示している。なお、図10(a)に示す運動解析データは、あるタイミングにおける右足の接地局面から離地局面までのデータのみを示している。
Next, the
The motion analysis data shown in FIG. 10A is a combination of the Z-axis acceleration vector (vertical direction) and the Y-axis acceleration vector (horizontal direction) with the time on the horizontal axis as the origin and the time at each sampling point as the origin. The data is a vector. That is, it shows the change of the composite vector for each elapsed time, and the length of the line segment showing the composite vector indicates the magnitude of acceleration. The motion analysis data shown in FIG. 10A shows only the data from the ground contact phase to the takeoff phase of the right foot at a certain timing.
運動解析データは、図10(a)に示すように、最大加速度、最大加速度角、最大加速度発生時間T1を指標として示している。
これらの指標は、以下のようにして求められる。すなわち、接地局面から離地局面までの区間であり、且つ、Y軸の加速度データの値がマイナスである、すなわち進行方向に加速している区間のサンプリングデータを抜き出し、各サンプリングデータに対してY軸の加速度データの値の二乗とZ軸の加速度データの値の二乗とを足し合わせ、平方根を求めることで、YZ平面上での加速度の大きさを求める。そして、このなかで加速度の大きさが最大となる時間が最大加速度の発生時間となる。また、このときの加速度の大きさが最大加速度となる。さらに、このときの合成ベクトルとY軸とのなす角度が最大加速度角となる。なお、上記の例では、YZ平面上での最大加速度を求めたが、X軸の加速度データも加味し、3次元での最大加速度を求めるようにしてもよい。
As shown in FIG. 10A, the motion analysis data shows the maximum acceleration, the maximum acceleration angle, and the maximum acceleration generation time T1 as indexes.
These indicators are obtained as follows. That is, the sampling data of the section from the ground contact phase to the takeoff phase and the value of the acceleration data on the Y axis is negative, that is, the section accelerating in the traveling direction is extracted, and Y is applied to each sampling data. By adding the square of the value of the acceleration data of the axis and the square of the value of the acceleration data of the Z axis and obtaining the square root, the magnitude of the acceleration on the YZ plane is obtained. The time when the magnitude of the acceleration is maximized is the time when the maximum acceleration is generated. Further, the magnitude of the acceleration at this time is the maximum acceleration. Further, the angle formed by the composite vector and the Y-axis at this time is the maximum acceleration angle. In the above example, the maximum acceleration on the YZ plane is obtained, but the maximum acceleration in three dimensions may be obtained in consideration of the acceleration data of the X-axis.
また、運動解析データは、更に、図10(a)に示すように、最大加速度発生時間T1と最下時T2との時間差ΔTを指標として示している。この指標は、最下時の時間から最大加速度発生時間を引いたもので、運動解析を行うにあたり重要な指標となる。 Further, as shown in FIG. 10A, the motion analysis data further shows the time difference ΔT between the maximum acceleration generation time T1 and the lowest time T2 as an index. This index is obtained by subtracting the maximum acceleration generation time from the time at the lowest time, and is an important index for performing motion analysis.
また、運動解析データは、更に、図10(a)に示すように、最大ブレーキ、最大ブレーキ角、及び、最大ブレーキ発生時間T0を指標として示している。
これらの指標は、接地局面から離地局面までの区間であり、且つ、Y軸の加速度データの値がプラスである、すなわち進行方向と逆方向に加速している区間のサンプリングデータを抜き出し、各サンプリングデータに対してY軸の加速度データの値の二乗とZ軸の加速度データの値の二乗とを足し合わせ、平方根を求めることで、YZ平面上での加速度の大きさを求める。そして、このなかで加速度の大きさが最大となる時間が最大ブレーキの発生時間となる。また、このときの加速度の大きさが最大ブレーキとなる。さらに、このときの合成ベクトルとY軸とがなす角度が最大ブレーキ角となる。なお、上記の例では、YZ平面上での最大ブレーキを求めたが、X軸の加速度データも加味し、3次元での最大ブレーキを求めるようにしてもよい。また、更に、接地局面から離地局面までの区間における進行方向と逆方向に加速している区間のY軸の加速度を時間積分した値をトータルブレーキとして求めて、指標に加えてもよい。
Further, as shown in FIG. 10A, the motion analysis data further shows the maximum brake, the maximum brake angle, and the maximum brake occurrence time T0 as indexes.
These indicators are the section from the ground contact phase to the takeoff phase, and the sampling data of the section where the value of the acceleration data on the Y axis is positive, that is, the section accelerating in the direction opposite to the traveling direction is extracted, and each of them The magnitude of acceleration on the YZ plane is obtained by adding the square of the value of the acceleration data on the Y-axis and the square of the value of the acceleration data on the Z-axis to the sampled data and obtaining the square root. The time at which the magnitude of acceleration is maximized is the time at which the maximum brake is generated. Further, the magnitude of the acceleration at this time is the maximum brake. Further, the angle formed by the composite vector and the Y-axis at this time is the maximum braking angle. In the above example, the maximum brake on the YZ plane is obtained, but the maximum brake in three dimensions may be obtained in consideration of the acceleration data of the X axis. Further, a value obtained by time-integrating the acceleration of the Y-axis in the section accelerating in the direction opposite to the traveling direction in the section from the ground contact phase to the takeoff phase may be obtained as a total brake and added to the index.
また、運動解析データは、更に、図10(a)に示すように、最大前傾加速度、最大前傾加速度角、最大前傾加速度発生時間T3を指標として示している。
これらの指標は、接地局面から離地局面までの区間であり、且つ、Y軸の加速度データの値がマイナスである、すなわち進行方向に加速している区間のサンプリングデータを抜き出し、各サンプリングデータに対して合成ベクトルとY軸とのなす角度を求める。そして、このなかで合成ベクトルとY軸とのなす角度が最小である(最も前傾している)時間が最大前傾加速度の発生時間となる。また、このときの加速度の大きさが最大前傾加速度となる。さらに、このときの合成ベクトルとY軸とのなす角度が最大前傾加速度角となる。
Further, as shown in FIG. 10A, the motion analysis data further shows the maximum forward tilt acceleration, the maximum forward tilt acceleration angle, and the maximum forward tilt acceleration generation time T3 as indexes.
These indexes are the section from the ground contact phase to the takeoff phase, and the sampling data of the section where the value of the acceleration data of the Y axis is negative, that is, the section accelerating in the traveling direction is extracted, and each sampling data is used. On the other hand, the angle between the composite vector and the Y axis is obtained. Then, the time at which the angle formed by the composite vector and the Y-axis is the smallest (most forward tilted) is the generation time of the maximum forward tilt acceleration. Further, the magnitude of the acceleration at this time is the maximum forward tilt acceleration. Further, the angle formed by the composite vector and the Y-axis at this time is the maximum forward tilt acceleration angle.
次いで、CPU11は、図11に示すように、ステップS10で生成された運動解析データのうち、ユーザ所望の時間帯の運動解析結果D2と、その時間帯に対応する合成画像D1と、を表示部14に表示させる表示制御処理を行い(ステップS11)、運動評価処理を終了する。なお、表示制御処理の詳細については後述する。
Next, as shown in FIG. 11, the
次に、図5を参照して、運動評価装置10で実行される表示制御処理を説明する。
先ず、CPU11は、ユーザによる操作部12の操作によって指定された画像データを記憶部15から読み出す(ステップS111)。なお、この画像データは、ステップS1で読み出されたモーションデータを採取している間に撮影された一連のランニング動作に係る動画像の画像データであるものとする。
Next, the display control process executed by the
First, the
次いで、CPU11は、ユーザによる操作部12の操作によって、上記画像データを構成する各フレーム画像のうちのどのフレーム画像が接地位置に対応するかを指定する指定操作がなされたか否かを判定する(ステップS112)。
ステップS112において、接地位置に対応する指定操作がなされていないと判定された場合(ステップS112;NO)は、当該指定操作がなされるまでの間、ステップS112の判定処理が行われる。
そして、接地位置に対応する指定操作がなされたと判定された場合(ステップS112;YES)、CPU11は、指定されたフレーム画像を基準として、各フレーム画像に対して正規化された時間の情報を付与する(ステップS113)。
Next, the
If it is determined in step S112 that the designated operation corresponding to the ground contact position has not been performed (step S112; NO), the determination process of step S112 is performed until the designated operation is performed.
Then, when it is determined that the designated operation corresponding to the grounding position has been performed (step S112; YES), the
ここで、正規化された時間の情報のうち、0から400ポイントの期間において、各フレーム画像に対して正規化された時間の情報を付与する方法を説明する。なお、ステップS9の平均化処理において、この期間における左足の接地位置が0ポイント、右足の接地位置が193ポイント、次の左足の接地位置が400ポイントに変換されているものとする。
例えば、左足の接地位置が100フレーム目であり、右足の接地位置が145フレーム目であり、次の左足の接地位置が200フレーム目であるとする指定操作がなされた場合、100フレーム目から145フレーム目までの各フレーム画像間の間隔は、193ポイントを45(=145−100)で除した値となる。従って、例えば、120フレーム目の正規化された時間の情報は、86(≒(120−100)*193/45)ポイントとなる。
また、145フレーム目から200フレーム目までの各フレーム画像間の間隔は、207(=400−193)ポイントを55(=200−145)で除した値となる。従って、例えば、180フレーム目の正規化された時間の情報は、325ポイント(≒((180−145)*207/55)+193)ポイントとなる。
Here, a method of giving the normalized time information to each frame image in the period of 0 to 400 points among the normalized time information will be described. In the averaging process of step S9, it is assumed that the ground contact position of the left foot is converted to 0 points, the ground contact position of the right foot is converted to 193 points, and the ground contact position of the next left foot is converted to 400 points during this period.
For example, if a designated operation is performed such that the ground contact position of the left foot is the 100th frame, the ground contact position of the right foot is the 145th frame, and the ground contact position of the next left foot is the 200th frame, the 100th to 145th frames are performed. The interval between each frame image up to the frame is a value obtained by dividing 193 points by 45 (= 145-100). Therefore, for example, the information of the normalized time in the 120th frame is 86 (≈ (120-100) * 193/45) points.
The interval between each frame image from the 145th frame to the 200th frame is a value obtained by dividing 207 (= 400-193) points by 55 (= 200-145). Therefore, for example, the information of the normalized time in the 180th frame is 325 points (≈((180-145) * 207/55) +193) points.
次いで、CPU11は、図11に示すように、ステップS10で生成された運動解析結果D2を表示部14の下段に表示させる(ステップS114)。ここで、運動解析結果D2の0ポイント位置は、左足接地位置を示している。また、27ポイントの位置は、減速から加速に切り替わる加速度切り替わり位置を示している。また、55ポイントの位置は、最下点位置を示している。また、107ポイントの位置は、左足離地位置を示している。また、193ポイントの位置は、右足接地位置を示している。また、219ポイントの位置は、減速から加速に切り替わる加速度切り替わり位置を示している。また、249ポイントの位置は、最下点位置を示している。また、304ポイントの位置は、右足離地位置を示している。また、400ポイントの位置は、再び左足接地位置を示している。つまり、0ポイントの位置から399ポイントの位置の間をランニング1周期としている。また、運動解析結果D2において、速度の値は解析した区間の平均速度を示し、周期の値は解析した区間のランニング1周期の時間、つまり0ポイントから399ポイントの間の実際の時間を示し、図中の56.1m/s2 49等の表記は、最大加速度の大きさとそれが発生したタイミング(ポイントの位置)を示している。また、運動解析結果D2は、上述のように、経過時間毎の加速度ベクトルの向きと大きさを示しており、その線分の長さが加速度の大きさを示している。そして、図における縦軸の数値は、合成ベクトルの向きが垂直方向である場合の加速度の大きさを示している。
Next, as shown in FIG. 11, the
そして、CPU11は、運動解析結果D2における時間(経過時間)の指定操作がなされたか否かを判定する(ステップS115)。ここで、運動解析結果D2における時間(経過時間)の指定操作について説明する。先ず、ユーザによる操作部12の操作により、運動解析結果D2の表示範囲を指定する。この指定操作により、運動解析結果D2を左方向又は右方向にスライド表示させることが可能となる。そして、表示部14の中段には、図11に示すように、一定の位置に固定カーソルCが表示されており、所望の時間(経過時間)の位置が固定カーソルCの位置と合わさるように、運動解析結果D2をスライド表示させることにより、所望の時間(経過時間)の指定操作を行う。図11の表示例では、右足接地位置(経過時間;193ポイント)と固定カーソルCの位置とが合わさった状態を示している。
Then, the
ステップS115において、運動解析結果D2における時間(経過時間)の指定操作がなされていないと判定された場合(ステップS115;NO)は、当該指定操作がなされるまでの間、ステップS115の判定処理が行われる。
そして、運動解析結果D2における時間(経過時間)の指定操作がなされたと判定された場合(ステップS115;YES)、CPU11は、指定操作がなされた時間に対応するフレーム画像を中心画像とし、この中心画像を基準として所定間隔で複数(例えば、12枚)のフレーム画像を抽出し、これらの複数のフレーム画像を合成した合成画像D1を生成する。そして、CPU11は、図11に示すように、生成された合成画像D1を表示部14の上段に表示させる(ステップS116)。
If it is determined in step S115 that the time (elapsed time) designation operation in the motion analysis result D2 has not been performed (step S115; NO), the determination process in step S115 is performed until the designation operation is performed. Will be done.
Then, when it is determined that the time (elapsed time) designation operation in the motion analysis result D2 has been performed (step S115; YES), the
次いで、CPU11は、ユーザによる操作部12の操作により、表示制御処理の終了操作がなされたか否かを判定する(ステップS117)。
ステップS117において、表示制御処理の終了操作がなされていないと判定された場合(ステップS117;NO)、ステップS115に移行する。
一方、ステップS117において、表示制御処理の終了操作がなされたと判定された場合(ステップS117;YES)、表示制御処理を終了する。
Next, the
If it is determined in step S117 that the end operation of the display control process has not been performed (step S117; NO), the process proceeds to step S115.
On the other hand, in step S117, when it is determined that the end operation of the display control process has been performed (step S117; YES), the display control process is ended.
以上のように、本実施形態によれば、運動評価装置10は、被写体(被測定者)のランニング動作を連続的に撮像した複数の画像を取得し、当該複数の画像に基づき合成画像D1を生成する。また、運動評価装置10は、被写体のランニング動作がなされた際に当該被写体に装着された測定装置20から出力されたモーションデータを取得し、当該モーションデータに基づき運動解析を行う。そして、運動評価装置10は、合成画像D1のもととなる複数の画像の時系列と、解析された運動解析結果D2の時系列とを対応付けて、当該合成画像D1と当該運動解析結果D2とを表示部14に表示させる。
As described above, according to the present embodiment, the
このため、ユーザは、一連のランニング動作を示す合成画像D1と、当該一連のランニング動作の運動解析結果D2と、を見比べることができるようになるので、運動評価装置10による解析結果の持つ意味を理解し易くなる。
Therefore, the user can compare the composite image D1 showing a series of running motions with the motion analysis result D2 of the series of running motions, so that the meaning of the analysis result by the
また、運動評価装置10は、表示部14に表示された運動解析結果D2から所望のタイミングを指定し、当該タイミングに対応する画像を中心とする複数の画像に基づき合成画像D1を生成する。このため、ユーザ所望のタイミングにおける動作を撮影した画像を中心として合成画像を生成することができる。従って、一連のランニング動作のうちの所望の動作を中心に含む合成画像D1と、当該動作に関する運動解析結果D2と、を表示部14に表示させることができるので、運動評価装置10による解析結果を効率よく確認することができる。
Further, the
なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。 Although the embodiments of the present invention have been described above, it goes without saying that the present invention is not limited to such embodiments and can be variously modified without departing from the gist thereof.
例えば、上記実施形態では、最初の接地(左足接地)位置を0ポイントの位置とし、次の左足接地位置が400ポイントの位置となるように時間の情報を正規化したが、正規化する際の時間の情報の値は一例であり、これに限定されるものではない。 For example, in the above embodiment, the time information is normalized so that the first ground contact (left foot ground contact) position is the position of 0 point and the next left foot ground contact position is the position of 400 points. The value of the time information is an example, and is not limited to this.
また、上記実施形態において、合成画像D1は、画像中、中心の被写体の透過性を低くし、中心から離れていくほど被写体の透過性を高くするようにしてもよい。 Further, in the above embodiment, the composite image D1 may have a lower transparency of the subject in the center of the image and a higher transparency of the subject as the distance from the center increases.
また、上記実施形態では、表示制御処理(図5参照)のステップS112に記載されているように、接地位置に対応するフレーム画像の指定を、ユーザによる操作部12の操作により行うようにしたが、画像処理により接地位置を自動検出することにより、当該接地位置に対応するフレーム画像を指定するようにしてもよい。
Further, in the above embodiment, as described in step S112 of the display control process (see FIG. 5), the frame image corresponding to the ground contact position is specified by the operation of the
また、上記実施形態では、運動解析結果D2の所望の時間(経過時間)の指定操作を行うことにより、合成画像D1を生成するようにしたが、これに限定されるものではない。例えば、図12に示すように、運動解析結果D2の所望の時間(経過時間)の指定操作がなされた時間(例えば、193ポイント)を中心とするズーム範囲の指定操作を行うことができるようにする。そして、このズーム範囲にあるフレーム画像を一定間隔で選択し、これらのフレーム画像をそれぞれズームしたズーム画像に基づき合成画像D3を生成するようにしてもよい。なお、上記ズーム範囲から選択されるフレーム画像の枚数はズーム範囲の広さに応じて変更するようにしてもよいし、ズーム範囲の広さにかかわらず、選択されるフレーム画像の枚数を予め設定しておき、当該ズーム範囲内で等間隔となるように設定された枚数のフレーム画像を選択するようにしてもよい。 Further, in the above embodiment, the composite image D1 is generated by performing the operation of designating the desired time (elapsed time) of the motion analysis result D2, but the present invention is not limited to this. For example, as shown in FIG. 12, the zoom range can be specified around the time (for example, 193 points) at which the desired time (elapsed time) of the motion analysis result D2 is specified. To do. Then, the frame images in this zoom range may be selected at regular intervals, and the composite image D3 may be generated based on the zoom image obtained by zooming each of these frame images. The number of frame images selected from the above zoom range may be changed according to the width of the zoom range, or the number of frame images to be selected may be set in advance regardless of the width of the zoom range. However, the number of frame images set so as to be evenly spaced within the zoom range may be selected.
また、上記実施形態では、運動解析結果D2は、横軸に時間をとり、各サンプリングポイントの時間を原点に、Z軸の加速度ベクトル(縦方向)とY軸の加速度ベクトル(横方向)との合成ベクトルを描いた図としたが、接地角(図10(b)参照)、及び、離地角(図10(c)参照)を更に表示させるようにしてもよい。接地角は、接地位置における平均速度を加味したY軸の速度とZ軸の速度とで求められる。また、離地角は、離地位置における平均速度を加味したY軸の速度とZ軸の速度とで求められる。 Further, in the above embodiment, the motion analysis result D2 has time on the horizontal axis, and the acceleration vector on the Z axis (vertical direction) and the acceleration vector on the Y axis (horizontal direction) are set with the time at each sampling point as the origin. Although the figure depicts the composite vector, the ground contact angle (see FIG. 10 (b)) and the takeoff angle (see FIG. 10 (c)) may be further displayed. The ground contact angle is obtained by the Y-axis speed and the Z-axis speed in consideration of the average speed at the ground contact position. Further, the takeoff angle is obtained by the Y-axis speed and the Z-axis speed in consideration of the average speed at the takeoff position.
また、上記実施形態では、例えば、図13に示すように、上記合成ベクトルを描いた運動解析結果D2aに加えて、X軸(左右方向)の変位グラフD2b、Y軸(前後方向)の変位グラフD2c、Z軸(上下方向)の変位グラフD2dの全部又は一部を表示部14に表示させるようにしてもよい。これにより、測定装置20が装着された腰の位置の変位を確認することができるようになる。
また、図14に示すように、上記合成ベクトルを描いた運動解析結果D2aに加えて、X軸を中心とする回動角度(ピッチ角)グラフD2e、Y軸を中心とする回動角度(ロー角)グラフD2f、Z軸を中心とする回動角度(ヨー角)グラフD2gの全部又は一部を表示部14に表示させるようにしてもよい。これにより、測定装置20が装着された腰の回転量を確認することができるようになる。
Further, in the above embodiment, for example, as shown in FIG. 13, in addition to the motion analysis result D2a on which the composite vector is drawn, the displacement graphs D2b on the X-axis (left-right direction) and the displacement graphs on the Y-axis (front-back direction). The
Further, as shown in FIG. 14, in addition to the motion analysis result D2a in which the composite vector is drawn, the rotation angle (pitch angle) graph D2e centered on the X axis and the rotation angle (low) centered on the Y axis. Angle) The
また、上記のZ軸を中心とする回動角度(ヨー角)グラフD2gを加工することにより、図15に示すように、ランニング中の腰の位置を俯瞰した状態を表す運動解析結果D2hを表示部14に表示させるようにしてもよい。運動解析結果D2hでは、上側に示されている各線分Laが左足を、下側に示されている各線分Lbが右足を表しており、図中、左から右へランニングを行っていることを表している。さらに、この運動解析結果D2hと、上述したX軸(左右方向)の変位グラフD2bと、を組み合わせて表示部14に表示させるようにしてもよい。具体的には、X軸の変位グラフD2bが示すグラフの線上が、上記運動解析結果D2hの中心(線分Laと線分Lbとの中間点)となるようにして、両者を表示させるようにする。
Further, by processing the rotation angle (yaw angle) graph D2g about the Z axis, as shown in FIG. 15, the motion analysis result D2h showing a state in which the position of the waist during running is overlooked is displayed. It may be displayed on the
また、上記実施形態では、一の被測定者を対象として、合成画像D1と運動解析結果D2とを表示部14に表示させるようにしたが、これに限定されるものではない。例えば、図16に示すように、二人の被測定者(A氏とB氏)をそれぞれ対象として、A氏の合成画像D1aとB氏の合成画像D1b、並びに、A氏の運動解析結果D2iとB氏の運動解析結果D2jをそれぞれ表示部14に表示させるようにしてもよい。この場合、他人の合成画像と自分の合成画像を見比べることができるとともに、他人の運動解析結果と自分の運動解析結果を見比べることができるようになるので、他人のランニング動作と比べて、どこが良くてどこが悪いのかを理解し易くなる。
Further, in the above embodiment, the composite image D1 and the motion analysis result D2 are displayed on the
また、上記実施形態では、上記合成ベクトルを描いた運動解析結果D2aに加えて、例えば、図17に示すように、横軸を速度とし、縦軸を最大加速度発生時間と最下時との時間差とするグラフを表示部14に表示させるようにしてもよい。なお、横軸及び縦軸に設定される指標は、これらに限定されるものではなく、当該運動解析結果D2aに関する各指標(最大加速度、最大加速度角、最大加速度発生時間等;図10(a)参照)を任意に設定することができる。
Further, in the above embodiment, in addition to the motion analysis result D2a on which the composite vector is drawn, for example, as shown in FIG. 17, the horizontal axis is the velocity and the vertical axis is the time difference between the maximum acceleration generation time and the lowest time. The graph to be used may be displayed on the
また、上記実施形態では、動画像を構成する複数のフレーム画像に基づき合成画像を生成するようにしたが、これに限定されるものではない。例えば、一定時間の間隔で高速連写された複数の画像に基づき合成画像を生成するようにしてもよい。 Further, in the above embodiment, the composite image is generated based on a plurality of frame images constituting the moving image, but the present invention is not limited to this. For example, a composite image may be generated based on a plurality of images continuously shot at high speed at regular time intervals.
また、上記実施形態では、表示部14の上段に表示される合成画像D1は、下段に表示される運動解析結果D2の一部を切り出した期間、即ち、合成画像D1の横幅に対応する時間は、運動解析結果D2の横幅に対応する時間の一部を切り出した時間であるが、合成画像D1の横幅に対応する時間と、下段に表示される運動解析結果D2の横幅に対応する時間を一致させて表示部14に表示させるようにしてもよい。この場合、運動解析結果D2における指定された時間(経過時間)を示す固定カーソルCの位置に対応する合成画像D1の位置がそのまま指定された時間(経過時間)における被写体の位置となり、上記実施形態のように、合成画像D1の横軸の中心位置に指定された時間(経過時間)に対応する被写体を配置する処理を省くことができる。
Further, in the above embodiment, the composite image D1 displayed in the upper part of the
[実施形態2]
続いて、実施形態2について説明する。なお、上記実施形態1と同様の構成要素には同一の符号を付し、その説明を省略する。
実施形態2の運動評価装置10は、測定装置20から取得したモーションデータそのものを表示する点、及び、被測定者の移動を伴わない運動動作を対象とし、当該運動動作に係る画像データを合成して表示する点で、上記実施形態1と異なっている。
[Embodiment 2]
Subsequently, the second embodiment will be described. The same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
The
以下、実施形態2の運動評価装置10について、図18及び図19を用いて説明する。図18は、実施形態2の運動評価装置10で実行される運動評価処理を示すフローチャートである。図19は、一連のゴルフスイング動作を対象として運動評価処理を実行した際の運動評価装置10の表示部14に表示される表示画面の一例を示す図である。
Hereinafter, the
先ず、CPU11は、ユーザによる操作部12の操作によって指定された所望のモーションデータ(Z軸を中心とする角速度データ)を記憶部15から読み出すとともに、当該モーションデータを採取している間に撮影された一連のゴルフスイング動作に係る動画像の画像データを記憶部15から読み出す(ステップS201)。
First, the
次いで、CPU11は、図19に示すように、読み出されたモーションデータD21を表示部14の下段に表示させる(ステップS202)。そして、CPU11は、モーションデータD21における時間(経過時間)の指定操作がなされたか否かを判定する(ステップS203)。ここで、モーションデータD21における時間の指定操作については、図19(a),(b)に示すように、表示部14の中段に表示されているカーソルCの位置が所望の時間(経過時間)の位置と合わさるように、ユーザによる操作部12の操作によってスライド表示させることによって、当該所望の時間の指定操作を行う。
Next, as shown in FIG. 19, the
ステップS203において、モーションデータD21における時間(経過時間)の指定操作がなされたと判定された場合(ステップS203;YES)、CPU11は、指定操作がなされた時間に対応するフレーム画像以外のフレーム画像の被写体の透過度を上げた状態で生成した合成画像(多重露光状の合成画像)D11を、表示部14の上段に表示させる(ステップS204)。具体的には、例えば、一連のゴルフスイング動作のうちのアドレス時に対応する時間の指定操作がなされた場合、図19(a)に示すように、表示部14の上段には、アドレス時の被写体の透過度を「0」とし、それ以外の被写体の透過度を上げた状態で生成した合成画像D11を表示部14の上段に表示させる。なお、図中では、アドレス時の被写体を実線で表すとともに、それ以外の被写体を破線で表している。また、例えば、一連のゴルフスイング動作のうちのトップ時に対応する時間の指定操作がなされた場合、図19(b)に示すように、表示部14の上段には、トップ時の被写体の透過度を「0」とし、それ以外の被写体の透過度を上げた状態で生成した合成画像D11を表示部14の上段に表示させる。なお、図中では、トップ時の被写体を実線で表すとともに、それ以外の被写体を破線で表している。
また、ステップS203において、モーションデータD21における時間(経過時間)の指定操作がなされていないと判定された場合(ステップS203;NO)、ステップS204をスキップして、ステップS205へ移行する。この場合、時間(経過時間)はデフォルト値、例えば、0.0[s]を設定し、0.0[s]に対応するフレーム画像の被写体の透過度を「0」とし、それ以外の被写体の透過度を上げた状態で生成した合成画像D11を表示部14の上段に表示させればよい。
In step S203, when it is determined that the time (elapsed time) designation operation in the motion data D21 has been performed (step S203; YES), the
If it is determined in step S203 that the time (elapsed time) designation operation in the motion data D21 has not been performed (step S203; NO), step S204 is skipped and the process proceeds to step S205. In this case, the time (elapsed time) is set to a default value, for example, 0.0 [s], the transparency of the subject of the frame image corresponding to 0.0 [s] is set to "0", and other subjects. The composite image D11 generated in a state where the transparency of the above is increased may be displayed on the upper stage of the
次いで、CPU11は、ユーザによる操作部12の操作により、運動評価処理の終了操作がなされたか否かを判定する(ステップS205)。
ステップS205において、運動評価処理の終了操作がなされていないと判定された場合(ステップS205;NO)、ステップS203へ移行する。
一方、ステップS205において、運動評価処理の終了操作がなされたと判定された場合(ステップS205;YES)、運動評価処理を終了する。
Next, the
If it is determined in step S205 that the operation to end the exercise evaluation process has not been performed (step S205; NO), the process proceeds to step S203.
On the other hand, in step S205, when it is determined that the operation to end the exercise evaluation process has been performed (step S205; YES), the exercise evaluation process is terminated.
以上のように、本実施形態によれば、運動評価装置10は、一連のゴルフスイング動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて被写体の動作の変化が識別可能な合成画像を生成したこととなる。また、運動評価装置10は、被写体に装着されたモーションセンサから出力される、一連のゴルフスイング動作に対応するモーションデータを取得したこととなる。また、運動評価装置10は、合成画像の生成に用いられている複数の画像の時系列とモーションデータの時系列とを対応付けた状態で、合成画像とモーションデータとを表示部14に表示させたこととなる。
As described above, according to the present embodiment, the
このため、ユーザは、一連のゴルフスイング動作を示す合成画像D11と、当該一連のゴルフスイング動作に対応するモーションデータD21と、を見比べることができるようになるので、モーションデータD21の持つ意味を理解し易くなる。 Therefore, the user can compare the composite image D11 showing a series of golf swing motions with the motion data D21 corresponding to the series of golf swing motions, and thus understands the meaning of the motion data D21. It becomes easier to do.
また、運動評価装置10は、所定期間(アドレス時からフィニッシュ時)の間のモーションデータD21を表示部14に表示させる際に、当該所定期間の間に撮像された合成画像D11の生成に用いられる複数の画像の時系列と、当該モーションデータD21の時系列とを対応付けた状態で、合成画像D11とモーションデータD21とを表示部14に表示させたこととなる。このため、ユーザ所望の所定期間の間の合成画像D11とモーションデータD21とを逐一一致させた状態で表示部14に表示させることができる。この結果、一連のゴルフスイング動作を示す合成画像D11と、当該一連のゴルフスイング動作に対応するモーションデータD21と、を見比べ易くすることができるので、モーションデータD21の持つ意味をより理解し易くなる。
Further, the
また、運動評価装置10は、表示部14に表示されたモーションデータD21の時系列における所望の時点を指定する第1の指定部(CPU11、操作部12)を備えたこととなる。また、運動評価装置10は、合成画像D11において、当該合成画像D11の生成に用いられている複数の画像のうち、第1の指定部(CPU11、操作部12)で指定された時点に対応する画像の被写体を、当該指定された時点以外の画像の被写体と区別した合成画像を生成したこととなる。このため、合成画像D11に用いられた複数の画像の各被写体が重なり合ってしまうような場合でも、第1の指定部(CPU11、操作部12)で指定された時点に対応する画像の被写体を目立たせることができる。この結果、一連のゴルフスイング動作を示す合成画像D11と、当該一連のゴルフスイング動作に対応するモーションデータD21と、を第1の指定部(CPU11、操作部12)で指定された時点において見比べることができるようになる。
Further, the
以上、本発明の実施形態2について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。
例えば、本実施形態の運動評価処理に伴い表示部14の上段に表示させる合成画像は、図20に示すように、一連のゴルフスイング動作において、各フレーム画像の被写体を経時時間に沿って並べた合成画像12としてもよい。
Although the second embodiment of the present invention has been described above, it goes without saying that the present invention is not limited to such an embodiment and can be variously modified without departing from the gist thereof.
For example, in the composite image displayed on the upper stage of the
また、実施形態2では、運動評価処理の対象として一連のゴルフスイング動作を一例に挙げたが、例えば、トレッドミルを用いたランニング動作や野球のバッティング動作など被写体の移動を伴わない運動動作を対象とすることができる。 Further, in the second embodiment, a series of golf swing motions is given as an example as a target of the motion evaluation process, but for example, a motion motion that does not involve movement of the subject such as a running motion using a treadmill or a baseball batting motion is targeted. Can be.
また、本実施形態の運動評価処理に伴い表示部14の上段に合成画像D11を表示させるとともに、下段にモーションデータD21を表示させるようにしたが、このモーションデータD21の代わりに又はこのモーションデータD21と一緒に、モーションデータD21に基づき解析がなされた運動解析の結果を表示させるようにしてもよい。
一方、上記実施形態1では、表示部14の上段に合成画像D1を表示させるとともに、下段に運動解析の結果D2を表示させるようにしたが、この運動解析の結果D2の代わりに又はこの運動解析の結果D2と一緒に、この運動解析の基となったモーションデータそのものを表示させるようにしてもよい。
Further, in accordance with the motion evaluation process of the present embodiment, the composite image D11 is displayed in the upper part of the
On the other hand, in the first embodiment, the composite image D1 is displayed in the upper part of the
また、上記実施形態1及び2では、ユーザによる操作部2により固定カーソルCの位置を操作したが、開始時間から終了時間まで自動的に固定カーソルCの位置が動くようにしてもよい。
Further, in the above-described first and second embodiments, the position of the fixed cursor C is operated by the
以上、本発明の実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲をその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, and the scope of the invention described in the claims includes the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.
〔付記〕
<請求項1>
動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて前記被写体の動作の変化が識別可能な合成画像を生成する生成部と、
当該被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部と、
表示部と、
前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる表示制御部と、
を備えることを特徴とする運動評価装置。
<請求項2>
前記表示制御部は、所定期間の間の前記モーションデータを前記表示部に表示させる際に、当該所定期間の間に撮像された前記合成画像の生成に用いられる前記複数の画像の時系列と、当該モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させることを特徴とする請求項1に記載の運動評価装置。
<請求項3>
前記生成部は、動作中の被写体を連続的に撮像した複数の画像から、前記複数の画像を経過時間に沿って並べた合成画像を生成し、
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる、
ことを特徴とする請求項1又は2に記載の運動評価装置。
<請求項4>
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを一致させて、前記合成画像と前記モーションデータとを前記表示部に表示させる、
ことを特徴とする請求項3に記載の運動評価装置。
<請求項5>
前記生成部は、動作中の被写体を連続的に撮像した複数の画像から、前記複数の画像を重ねた合成画像を生成し、
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる、
ことを特徴とする請求項1又は2に記載の運動評価装置。
<請求項6>
前記表示部に表示された前記モーションデータの時系列における所望の時点を指定する第1の指定部を備え、
前記生成部は、前記第1の指定部により前記時点が指定された場合に、前記合成画像を、前記複数の画像における前記時点に対応する特定の画像を中心に配置した画像とすることを特徴とする請求項3に記載の運動評価装置。
<請求項7>
前記表示部に表示された前記モーションデータの時系列における所望の期間を指定する第2の指定部を備え、
前記生成部は、前記第2の指定部により前記期間が指定された場合に、前記複数の画像における前記期間に含まれる複数の前記画像に基づいて前記合成画像を生成することを特徴とする請求項3〜5のいずれか一項に記載の運動評価装置。
<請求項8>
前記表示部に表示された前記モーションデータの時系列における所望の時点を指定する第1の指定部を備え、
前記生成部は、前記合成画像において、当該合成画像の生成に用いられている前記複数の画像のうち、前記第1の指定部で指定された時点に対応する画像の被写体を、当該指定された時点以外の画像の被写体と区別した合成画像を生成することを特徴とする請求項1〜5、7のいずれか一項に記載の運動評価装置。
<請求項9>
前記生成部は、前記合成画像において、当該合成画像の生成に用いられている前記複数の画像のうち、前記第1の指定部で指定された時点に対応する画像の被写体を、当該指定された時点以外の画像の被写体と区別した合成画像を生成することを特徴とする請求項6に記載の運動評価装置。
<請求項10>
前記表示制御部は、複数の被写体の各々に対応する複数の前記合成画像と複数の前記モーションデータとを前記表示部に表示させることを特徴とする請求項1〜9のいずれか一項に記載の運動評価装置。
<請求項11>
前記モーションデータに基づく運動解析を行う運動解析部を備え、
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記運動解析部による前記運動解析の結果の時系列とを対応付けた状態で、前記合成画像と前記運動解析の結果とを前記表示部に表示させることを特徴とする請求項1〜10のいずれか一項に記載の運動評価装置。
<請求項12>
前記モーションデータは複数の軸方向の加速度データを含み、
前記運動解析の結果は、前記複数の軸方向の加速度データに基づく前記複数の軸の加速度ベクトルの和である合成ベクトルを、前記モーションデータのサンプル周期ごとに示した図が含まれていることを特徴とする請求項11に記載の運動評価装置。
<請求項13>
前記モーションデータは複数の軸方向の加速度データを含み、
前記運動解析情報には、前記被写体の前記複数の軸の少なくとも何れかにおける変位を前記モーションデータのサンプル周期ごとに示した図が含まれていることを特徴とする請求項11又は12に記載の運動評価装置。
<請求項14>
前記モーションデータは複数の軸方向を中心とする角速度データを含み、
前記運動解析情報には、前記被写体の前記複数の軸の少なくとも何れかにおける回動角度を前記モーションデータのサンプル周期ごとに示した図が含まれていることを特徴とする請求項11〜13のいずれか一項に記載の運動評価装置。
<請求項15>
表示部を備えた運動評価装置の運動評価方法であって、
動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて前記被写体の動作の変化が識別可能な合成画像を生成し、
当該被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得し、
前記合成画像の生成に用いられている前記複数の画像の時系列と、前記モーションデータの時系列と、を対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させることを特徴とする運動評価方法。
<請求項16>
表示部を備えた運動評価装置のコンピュータに、
動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて前記被写体の動作の変化が識別可能な合成画像生成処理、
当該被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得処理、
前記合成画像の生成に用いられている前記複数の画像の時系列と、前記モーションデータの時系列と、を対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる表示処理、
を実行させる運動評価プログラム。
[Additional Notes]
<Claim 1>
A generation unit that generates a composite image in which changes in the movement of the subject can be identified according to a time series from a plurality of images in which a moving subject is continuously captured.
A motion data acquisition unit that acquires motion data corresponding to the movement of the subject, which is output from a motion sensor mounted on the subject, and a motion data acquisition unit.
Display and
The composite image and the motion data are combined with each other in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data acquired by the motion data acquisition unit are associated with each other. A display control unit to be displayed on the display unit and
An exercise evaluation device characterized by being equipped with.
<Claim 2>
When displaying the motion data during a predetermined period on the display unit, the display control unit includes a time series of the plurality of images used for generating the composite image captured during the predetermined period. The motion evaluation device according to
<Claim 3>
The generation unit generates a composite image in which the plurality of images are arranged according to the elapsed time from a plurality of images in which a moving subject is continuously captured.
The display control unit is in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data acquired by the motion data acquisition unit are associated with each other, and the composite image is displayed. And the motion data are displayed on the display unit.
The exercise evaluation device according to
<Claim 4>
The display control unit matches the time series of the plurality of images used for generating the composite image with the time series of the motion data acquired by the motion data acquisition unit, and the composite image and the said Displaying motion data on the display unit,
The exercise evaluation device according to claim 3, wherein the motion evaluation device is characterized in that.
<Claim 5>
The generation unit generates a composite image in which the plurality of images are superimposed from a plurality of images in which a moving subject is continuously captured.
The display control unit is in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data acquired by the motion data acquisition unit are associated with each other, and the composite image is displayed. And the motion data are displayed on the display unit.
The exercise evaluation device according to
<Claim 6>
A first designation unit for designating a desired time point in the time series of the motion data displayed on the display unit is provided.
The generation unit is characterized in that, when the time point is designated by the first designated part, the composite image is an image in which a specific image corresponding to the time point in the plurality of images is arranged at the center. The exercise evaluation device according to claim 3.
<Claim 7>
A second designation unit for designating a desired period in the time series of the motion data displayed on the display unit is provided.
The claim is characterized in that, when the period is designated by the second designated unit, the generation unit generates the composite image based on the plurality of images included in the period in the plurality of images. Item 6. The exercise evaluation device according to any one of Items 3 to 5.
<Claim 8>
A first designation unit for designating a desired time point in the time series of the motion data displayed on the display unit is provided.
In the composite image, the generation unit designated the subject of the image corresponding to the time point designated by the first designation unit among the plurality of images used for generating the composite image. The motion evaluation device according to any one of
<Claim 9>
In the composite image, the generation unit designated the subject of the image corresponding to the time point designated by the first designation unit among the plurality of images used for generating the composite image. The motion evaluation device according to claim 6, wherein a composite image is generated that distinguishes the subject from an image other than the time point.
<Claim 10>
The invention according to any one of
<Claim 11>
It is equipped with a motion analysis unit that performs motion analysis based on the motion data.
The display control unit correlates the time series of the plurality of images used for generating the composite image with the time series of the result of the motion analysis by the motion analysis unit, and the composite image and the said. The motion evaluation device according to any one of
<Claim 12>
The motion data includes a plurality of axial acceleration data.
The result of the motion analysis includes a diagram showing a composite vector which is a sum of acceleration vectors of the plurality of axes based on the acceleration data in the plurality of axial directions for each sample period of the motion data. The exercise evaluation device according to
<Claim 13>
The motion data includes a plurality of axial acceleration data.
The 11 or 12 claim, wherein the motion analysis information includes a diagram showing the displacement of the subject in at least one of the plurality of axes for each sample period of the motion data. Exercise evaluation device.
<Claim 14>
The motion data includes angular velocity data centered on a plurality of axial directions.
The motion analysis information according to claim 11 to 13, wherein the motion analysis information includes a diagram showing the rotation angle of the subject in at least one of the plurality of axes for each sample period of the motion data. The exercise evaluation device according to any one item.
<Claim 15>
It is a motion evaluation method of a motion evaluation device equipped with a display unit.
From a plurality of images in which a moving subject is continuously captured, a composite image in which changes in the movement of the subject can be identified according to a time series is generated.
The motion data corresponding to the movement of the subject, which is output from the motion sensor attached to the subject, is acquired, and the motion data is acquired.
Displaying the composite image and the motion data on the display unit in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data are associated with each other. An exercise evaluation method characterized by.
<Claim 16>
On the computer of the exercise evaluation device equipped with a display unit,
A composite image generation process that can identify changes in the movement of the subject in chronological order from a plurality of images in which a moving subject is continuously captured.
Motion data acquisition processing that acquires motion data corresponding to the movement of the subject, which is output from the motion sensor attached to the subject.
A display in which the composite image and the motion data are displayed on the display unit in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data are associated with each other. processing,
Exercise evaluation program to execute.
1 運動評価システム
10 運動評価装置
11 CPU
12 操作部
13 RAM
14 表示部
15 記憶部
16 通信部
20 測定装置
30 撮像装置
1
12
14
Claims (7)
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部と、
前記モーションデータ取得部に取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成部に生成された前記合成画像とを表示部に表示させる表示制御部と、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得部と、を備え、
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする運動評価装置。 A generator that extracts the subject portion from each of a plurality of images that continuously capture a moving subject and generates a composite image in which each of the plurality of extracted images that are the extracted images is superimposed.
The output from the motion sensor mounted on the object, and motion data obtaining unit for obtaining motion data corresponding to the operation of the subject,
A display unit displays a time series of the motion data acquired by the motion data acquisition unit and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated by the generation unit. Display control unit to be displayed on
A designated time acquisition unit for acquiring a time specified by the user in the time series of the motion data displayed on the display unit is provided.
The display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
An exercise evaluation device characterized by this.
ことを特徴とする請求項1又は2に記載の運動評価装置。 In the composite image displayed on the display unit, the display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image. The transparency of the extracted image and the transparency of the extracted image corresponding to a time other than the specified time are displayed separately.
The exercise evaluation device according to claim 1 or 2.
前記モーションデータ及び前記複数の画像は、前記被写体の動作における一連の動作を対象としたものである、The motion data and the plurality of images are intended for a series of movements in the movement of the subject.
ことを特徴とする請求項1から3のいずれか一項に記載の運動評価装置。The motion evaluation device according to any one of claims 1 to 3, wherein the motion evaluation device is characterized by the above.
ことを特徴とする請求項1から4のいずれか一項に記載の運動評価装置。The motion evaluation device according to any one of claims 1 to 4, wherein the motion evaluation device is characterized by the above.
動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成ステップと、
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得ステップと、
前記モーションデータ取得ステップに取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成ステップに生成された前記合成画像とを表示部に表示させる表示制御ステップと、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得ステップと、を含み、
前記表示制御ステップは、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得ステップに取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする運動評価方法。 It is a motion evaluation method of the motion evaluation device.
A generation step of extracting the subject portion from each of a plurality of images in which a moving subject is continuously captured and generating a composite image by superimposing each of the plurality of extracted images which are the extracted images .
The output from the motion sensor mounted on the object, and motion data obtaining step of obtaining motion data corresponding to the operation of the subject,
The display unit displays the time series of the motion data acquired in the motion data acquisition step and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated in the generation step. Display control steps to be displayed on
Including a designated time acquisition step of acquiring a time specified by the user in the time series of the motion data displayed on the display unit.
The display control step corresponds to the designated time acquired in the designated time acquisition step among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
An exercise evaluation method characterized by this.
動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成部、
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部、
前記モーションデータ取得部に取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成部に生成された前記合成画像とを表示部に表示させる表示制御部、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得部、として機能させ、
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする運動評価プログラム。 On the computer of the exercise evaluation device,
Subject in operation to a plurality of images captured continuously, extracts the object portion, and generates a composite image by superimposing the plurality of extracted images are the extracted image generating unit,
Motion data obtaining unit for obtaining motion data corresponding to the output from the motion sensor attached to an object, the operation of the subject,
A display unit displays a time series of the motion data acquired by the motion data acquisition unit and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated by the generation unit. Display control unit to display on
It functions as a designated time acquisition unit that acquires a time specified by the user in the time series of the motion data displayed on the display unit.
The display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
An exercise evaluation program characterized by this.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710285187.8A CN107545229A (en) | 2016-06-29 | 2017-04-26 | Motion evaluation device, Motion evaluation method and recording medium |
US15/499,329 US20180007277A1 (en) | 2016-06-29 | 2017-04-27 | Exercise evaluating apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016128342 | 2016-06-29 | ||
JP2016128342 | 2016-06-29 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018008015A JP2018008015A (en) | 2018-01-18 |
JP2018008015A5 JP2018008015A5 (en) | 2020-02-06 |
JP6862875B2 true JP6862875B2 (en) | 2021-04-21 |
Family
ID=60994578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017018198A Active JP6862875B2 (en) | 2016-06-29 | 2017-02-03 | Exercise evaluation device, exercise evaluation method and exercise evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6862875B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7056249B2 (en) * | 2018-03-09 | 2022-04-19 | カシオ計算機株式会社 | Exercise data processing device, exercise data processing method and exercise data processing program |
JP6919670B2 (en) * | 2019-03-25 | 2021-08-18 | カシオ計算機株式会社 | Running analysis device, running analysis method and running analysis program |
JP7143872B2 (en) * | 2020-08-14 | 2022-09-29 | カシオ計算機株式会社 | Information processing device, running index derivation method and program |
JPWO2022049700A1 (en) * | 2020-09-03 | 2022-03-10 | ||
WO2023158155A1 (en) * | 2022-02-15 | 2023-08-24 | 삼성전자 주식회사 | Electronic device for detecting designated movement and method therefor |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006081395A2 (en) * | 2005-01-26 | 2006-08-03 | Bentley Kinetics, Inc. | Method and system for athletic motion analysis and instruction |
JP4863365B2 (en) * | 2006-05-31 | 2012-01-25 | アニマ株式会社 | Motion analysis system, motion analysis device, and program |
JP5309655B2 (en) * | 2008-03-31 | 2013-10-09 | ヤマハ株式会社 | Signal processing device |
JP5407658B2 (en) * | 2008-09-02 | 2014-02-05 | 横浜ゴム株式会社 | Golf club selection method and golf club selection system |
JP2011125417A (en) * | 2009-12-16 | 2011-06-30 | Sony Corp | Image processor, image processing method, and program |
US8460001B1 (en) * | 2011-04-14 | 2013-06-11 | Thomas C. Chuang | Athletic performance monitoring with overstride detection |
JP6074970B2 (en) * | 2012-09-20 | 2017-02-08 | カシオ計算機株式会社 | REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM |
JP2015116288A (en) * | 2013-12-18 | 2015-06-25 | カシオ計算機株式会社 | Exercise information display system, exercise information display method, and exercise information display program |
JP6332830B2 (en) * | 2013-12-24 | 2018-05-30 | カシオ計算機株式会社 | Exercise support system, exercise support method, and exercise support program |
-
2017
- 2017-02-03 JP JP2017018198A patent/JP6862875B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018008015A (en) | 2018-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6862875B2 (en) | Exercise evaluation device, exercise evaluation method and exercise evaluation program | |
US20180007277A1 (en) | Exercise evaluating apparatus | |
JP6598617B2 (en) | Information processing apparatus, information processing method, and program | |
JP5761506B2 (en) | Swing analysis apparatus, swing analysis system, swing analysis method, swing analysis program, and recording medium | |
KR101514169B1 (en) | Information processing device, information processing method, and recording medium | |
CN105849673A (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
KR101872907B1 (en) | Motion analysis appratus and method using dual smart band | |
KR20140002007A (en) | Information processing device, information processing method, and recording medium | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
KR20160046495A (en) | Method and device to display screen in response to event related to external obejct | |
JP5977808B2 (en) | Provide clues to the last known browsing location using biometric data about movement | |
JP5915112B2 (en) | Status detection device, electronic device, and program | |
US20160131905A1 (en) | Electronic apparatus, method and storage medium | |
JP2011008601A (en) | Information processor and information processing method | |
CN105242888B (en) | A kind of system control method and electronic equipment | |
US10783376B2 (en) | Information processing apparatus | |
JP6197702B2 (en) | Input method, program, and input device | |
JP2021107016A (en) | Analysis device, analysis method, and program | |
CN110520822B (en) | Control device, information processing system, control method, and program | |
CN111402287A (en) | System and method for standardized assessment of activity sequences | |
JP2017191426A (en) | Input device, input control method, computer program, and storage medium | |
JP5876121B2 (en) | Image processing apparatus, method, and program | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
JP2006059147A (en) | Computer input method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6862875 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |