JP6862875B2 - Exercise evaluation device, exercise evaluation method and exercise evaluation program - Google Patents

Exercise evaluation device, exercise evaluation method and exercise evaluation program Download PDF

Info

Publication number
JP6862875B2
JP6862875B2 JP2017018198A JP2017018198A JP6862875B2 JP 6862875 B2 JP6862875 B2 JP 6862875B2 JP 2017018198 A JP2017018198 A JP 2017018198A JP 2017018198 A JP2017018198 A JP 2017018198A JP 6862875 B2 JP6862875 B2 JP 6862875B2
Authority
JP
Japan
Prior art keywords
motion
time
composite image
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017018198A
Other languages
Japanese (ja)
Other versions
JP2018008015A5 (en
JP2018008015A (en
Inventor
岳浩 相原
岳浩 相原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to CN201710285187.8A priority Critical patent/CN107545229A/en
Priority to US15/499,329 priority patent/US20180007277A1/en
Publication of JP2018008015A publication Critical patent/JP2018008015A/en
Publication of JP2018008015A5 publication Critical patent/JP2018008015A5/ja
Application granted granted Critical
Publication of JP6862875B2 publication Critical patent/JP6862875B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、運動評価装置、運動評価方法及び運動評価プログラムに関する。 The present invention relates to an exercise evaluation device, an exercise evaluation method, and an exercise evaluation program.

従来、人体に加速度センサを取り付けた状態で歩行したときの、加速度センサの進行方向に対する出力結果と、鉛直方向に対する出力結果とから、例えば歩行時における着地タイミングや離地タイミング、接地時間等に関するデータを測定することのできる測定装置が開示されている(例えば特許文献1参照)。 Conventionally, when walking with an acceleration sensor attached to a human body, data on landing timing, takeoff timing, ground contact time, etc. during walking are obtained from the output result in the traveling direction of the acceleration sensor and the output result in the vertical direction. Is disclosed (see, for example, Patent Document 1).

特開2012−179114号公報Japanese Unexamined Patent Publication No. 2012-179114

しかしながら、上記特許文献1に開示されている測定装置では、被測定者の実際の歩行動作と直感的に結び付けるような結果表示が行われないため、測定されたデータを理解し難いという問題があった。
そこで、本発明の課題は、被測定者の動作について測定されたデータを理解し易くすることである。
However, the measuring device disclosed in Patent Document 1 does not display the result intuitively linked to the actual walking motion of the person to be measured, so that there is a problem that it is difficult to understand the measured data. It was.
Therefore, an object of the present invention is to make it easier to understand the measured data regarding the movement of the person to be measured.

上記課題を解決するため、本発明に係る運動評価装置は、
動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成部と、
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部と、
前記モーションデータ取得部に取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成部に生成された前記合成画像とを表示部に表示させる表示制御部と、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得部と、を備え、
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする。
In order to solve the above problems, the motion evaluation device according to the present invention is used.
A generator that extracts the subject portion from each of a plurality of images that continuously capture a moving subject and generates a composite image in which each of the plurality of extracted images that are the extracted images is superimposed.
The output from the motion sensor mounted on the object, and motion data obtaining unit for obtaining motion data corresponding to the operation of the subject,
A display unit displays a time series of the motion data acquired by the motion data acquisition unit and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated by the generation unit. Display control unit to be displayed on
A designated time acquisition unit for acquiring a time specified by the user in the time series of the motion data displayed on the display unit is provided.
The display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
It is characterized by that.

本発明によれば、被測定者の動作について測定されたデータを理解し易くすることができる。 According to the present invention, it is possible to make it easier to understand the measured data regarding the movement of the person to be measured.

本発明の実施の形態の運動評価システムを示すブロック図である。It is a block diagram which shows the motion evaluation system of embodiment of this invention. 本実施形態に係る測定装置をユーザが装着した状態を示す図である。It is a figure which shows the state which the user wears the measuring apparatus which concerns on this embodiment. (a)は運動評価装置の機能構成を示すブロック図であり、(b)は測定装置の機能構成を示すブロック図であり、(c)は撮像装置の機能構成を示すブロック図である。(A) is a block diagram showing a functional configuration of a motion evaluation device, (b) is a block diagram showing a functional configuration of a measuring device, and (c) is a block diagram showing a functional configuration of an imaging device. 実施形態1の運動評価処理を示すフローチャートである。It is a flowchart which shows the exercise evaluation process of Embodiment 1. 表示制御処理を示すフローチャートである。It is a flowchart which shows the display control processing. (a)はワールド座標軸を示す図であり、(b)、(c)は測定装置を装着したユーザの姿勢変化を示す図であり、(d)はZ軸の加速度データの波形、及び、平滑化処理後のZ軸の加速度データの波形を示す図であり、(e)は接地位置の推定手順を示す図である。(A) is a diagram showing the world coordinate axes, (b) and (c) are diagrams showing a posture change of a user wearing a measuring device, and (d) is a waveform of Z-axis acceleration data and smoothing. It is a figure which shows the waveform of the acceleration data of the Z axis after the conversion process, and (e) is the figure which shows the estimation procedure of the ground contact position. ランニング中の各軸を中心とする角速度データの波形を示す図である。It is a figure which shows the waveform of the angular velocity data about each axis during running. 離地位置の推定手順を示す図である。It is a figure which shows the estimation procedure of a takeoff position. ランニング周期の各局面を示す図である。It is a figure which shows each aspect of a running cycle. 運動解析データの一例を示す図である。It is a figure which shows an example of the motion analysis data. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed. 運動解析データの一例を示す図である。It is a figure which shows an example of the motion analysis data. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed. 運動解析データの一例を示す図である。It is a figure which shows an example of the motion analysis data. 実施形態2の運動評価処理を示すフローチャートである。It is a flowchart which shows the exercise evaluation process of Embodiment 2. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed. 運動評価処理を実行した際の運動評価装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the exercise evaluation apparatus when the exercise evaluation process is executed.

以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated examples.

[実施形態1]
図1〜図3を参照して、本実施の形態の装置構成を説明する。先ず、図1を参照して、本実施の形態の運動評価システム1を説明する。図1は、本実施の形態の運動評価システム1を示すブロック図である。
[Embodiment 1]
The apparatus configuration of the present embodiment will be described with reference to FIGS. 1 to 3. First, the motion evaluation system 1 of the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing the motion evaluation system 1 of the present embodiment.

運動評価システム1は、運動評価装置10と、測定装置20と、撮像装置30と、を備える。 The motion evaluation system 1 includes a motion evaluation device 10, a measuring device 20, and an imaging device 30.

運動評価装置10は、被測定者に装着された測定装置20からモーションデータを取得して運動解析を行うとともに、撮像装置30からこの被測定者のランニング動作に係る画像データを取得して、時間経過毎の被測定者の複数の画像を経過時間に沿って並べた、多重露光状の合成画像を生成する。そして、運動評価装置10は、ユーザの指示に応じて、上記解析結果と上記合成画像とを対応付けて表示する。 The motion evaluation device 10 acquires motion data from the measuring device 20 attached to the person to be measured to perform motion analysis, and also acquires image data related to the running motion of the person to be measured from the image pickup device 30 to obtain time. A multiple-exposure composite image is generated in which a plurality of images of the subject to be measured for each passage are arranged according to the elapsed time. Then, the motion evaluation device 10 displays the analysis result and the composite image in association with each other according to the instruction of the user.

測定装置20は、図2に示すように、例えば被測定者の腰の位置に装着され、この被測定者がランニングを行ったときの3軸方向の加速度及び角速度を測定する。ここで、左右方向をX軸とし、前後方向をY軸とし、上下方向をZ軸とする。X軸においては左手方向を正、右手方向を負とする。Y軸においては進行方向逆向きを正とし、進行方向を負とする。Z軸においては上方向を正、下方向を負とする。 As shown in FIG. 2, the measuring device 20 is attached to, for example, the position of the waist of the person to be measured, and measures the acceleration and the angular velocity in the three axial directions when the person to be measured runs. Here, the left-right direction is the X-axis, the front-back direction is the Y-axis, and the up-down direction is the Z-axis. On the X-axis, the left-hand direction is positive and the right-hand direction is negative. On the Y-axis, the opposite direction of travel is positive and the direction of travel is negative. On the Z axis, the upward direction is positive and the downward direction is negative.

撮像装置30は、測定装置20を装着した被測定者のランニング動作を撮影するためのデジタルカメラである。 The image pickup device 30 is a digital camera for photographing the running motion of the person to be measured wearing the measurement device 20.

次いで、図3(a)を参照して、運動評価装置10の内部の機能構成を説明する。図3(a)は、運動評価装置10の機能構成を示すブロック図である。 Next, with reference to FIG. 3A, the internal functional configuration of the motion evaluation device 10 will be described. FIG. 3A is a block diagram showing a functional configuration of the motion evaluation device 10.

図3(a)に示すように、運動評価装置10は、生成部、運動解析部、表示制御部、第1の指定部、第2の指定部としてのCPU(Central Processing Unit)11と、操作部
12と、RAM(Random Access Memory)13と、表示部14と、記憶部15と、通信部16と、を備える。運動評価装置10の各部は、バス17を介して接続されている。
As shown in FIG. 3A, the motion evaluation device 10 operates with a generation unit, a motion analysis unit, a display control unit, a first designated unit, and a CPU (Central Processing Unit) 11 as a second designated unit. A unit 12, a RAM (Random Access Memory) 13, a display unit 14, a storage unit 15, and a communication unit 16 are provided. Each part of the motion evaluation device 10 is connected via a bus 17.

CPU11は、運動評価装置10の各部を制御する。CPU11は、記憶部15に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出してRAM13に展開し、当該プログラムとの協働で、各種処理を実行する。 The CPU 11 controls each part of the motion evaluation device 10. The CPU 11 reads a designated program among the system programs and application programs stored in the storage unit 15 and expands them in the RAM 13, and executes various processes in cooperation with the program.

操作部12は、キーボード等のキー入力部と、マウス等のポインティングデバイスとを有し、キー入力及び位置入力を受け付け、その操作情報をCPU11に出力する。 The operation unit 12 has a key input unit such as a keyboard and a pointing device such as a mouse, receives key input and position input, and outputs the operation information to the CPU 11.

RAM13は、揮発性のメモリであり、各種のデータやプログラムを一時的に格納するワークエリアを形成する。表示部14は、LCD(Liquid Crystal Display)、EL(ElectroLuminescence)ディスプレイ等で構成され、CPU11から指示された表示情報に
従い各種表示を行う。
The RAM 13 is a volatile memory and forms a work area for temporarily storing various data and programs. The display unit 14 is composed of an LCD (Liquid Crystal Display), an EL (ElectroLuminescence) display, and the like, and performs various displays according to display information instructed by the CPU 11.

記憶部15は、HDD(Hard Disk Drive)等により構成され、データ及びプログラム
を書き込み及び読み出し可能な記憶部である。特に、記憶部15は、運動評価プログラム151を記憶している。
The storage unit 15 is composed of an HDD (Hard Disk Drive) or the like, and is a storage unit capable of writing and reading data and programs. In particular, the storage unit 15 stores the exercise evaluation program 151.

通信部16は、被測定者に装着された測定装置20からモーションデータを受信するとともに、撮像装置30からこの被測定者のランニング動作に係る画像データを受信するものであり、例えば、USB端子などの有線式の通信部や、WiFiなどの無線LAN規格を採用した通信部である。 The communication unit 16 receives motion data from the measuring device 20 attached to the person to be measured, and also receives image data related to the running operation of the person to be measured from the image pickup device 30, for example, a USB terminal or the like. It is a wired communication unit and a communication unit that adopts a wireless LAN standard such as WiFi.

次いで、図3(b)を参照して、測定装置20の機能構成を説明する。図3(b)は、測定装置20の機能構成を示すブロック図である。 Next, the functional configuration of the measuring device 20 will be described with reference to FIG. 3 (b). FIG. 3B is a block diagram showing a functional configuration of the measuring device 20.

測定装置20は、CPU21と、操作部22と、RAM23と、加速度センサ24と、ジャイロセンサ25と、記憶部26と、通信部27と、を備える。測定装置20の各部は、バス28を介して接続されている。 The measuring device 20 includes a CPU 21, an operation unit 22, a RAM 23, an acceleration sensor 24, a gyro sensor 25, a storage unit 26, and a communication unit 27. Each part of the measuring device 20 is connected via a bus 28.

CPU21及びRAM23は、運動評価装置10のCPU11、RAM13と同様であるため、重複する説明を省略し、異なる部分を主として説明する。 Since the CPU 21 and the RAM 23 are the same as the CPU 11 and the RAM 13 of the motion evaluation device 10, overlapping description will be omitted, and different parts will be mainly described.

CPU21は、測定装置20の各部を制御する。また、CPU21は、加速度センサ24から出力される各軸の加速度の検出データ(モーションデータ)を記憶部26に記憶する。また、CPU21は、ジャイロセンサ25から出力される各軸を中心とする角速度の検出データ(モーションデータ)を記憶部26に記憶する。 The CPU 21 controls each part of the measuring device 20. Further, the CPU 21 stores the acceleration detection data (motion data) of each axis output from the acceleration sensor 24 in the storage unit 26. Further, the CPU 21 stores the detection data (motion data) of the angular velocity centered on each axis output from the gyro sensor 25 in the storage unit 26.

操作部22は、電源のON/OFFを切り替える電源ボタン(図示省略)、データ取得の開始/停止を指示する開始/停止ボタン(図示省略)等を備えており、この操作部22からの指示に基づいてCPU21は各部を制御するようになっている。 The operation unit 22 includes a power button (not shown) for switching the power ON / OFF, a start / stop button (not shown) for instructing start / stop of data acquisition, and the like. Based on this, the CPU 21 controls each part.

加速度センサ24は、互いに直交する3軸方向の加速度データを検出する。そして、加速度センサ24は、検出された各軸の加速度データをCPU21に出力する。
ジャイロセンサ25は、互いに直交する3軸方向を中心とする角速度データを検出する。そして、ジャイロセンサ25は、検出された各軸を中心とする角速度データをCPU21に出力する。各軸の加速度データ及び各軸を中心とする角速度データは、所定のサンプリング周期(例えば、200Hz)でサンプリングされているものとする。
The acceleration sensor 24 detects acceleration data in three axial directions orthogonal to each other. Then, the acceleration sensor 24 outputs the detected acceleration data of each axis to the CPU 21.
The gyro sensor 25 detects angular velocity data centered on three axial directions orthogonal to each other. Then, the gyro sensor 25 outputs the angular velocity data centered on each of the detected axes to the CPU 21. It is assumed that the acceleration data of each axis and the angular velocity data centered on each axis are sampled in a predetermined sampling period (for example, 200 Hz).

記憶部26は、フラッシュメモリ、EEPROM(Electrically Erasable Programmable ROM)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。 The storage unit 26 is composed of a flash memory, an EEPROM (Electrically Erasable Programmable ROM), and the like, and is a storage unit capable of writing and reading data and programs.

通信部27は、記憶部26に記憶した各軸の加速度データ及び各軸を中心とする角速度データをCPU21による制御に基づいて運動評価装置10に出力するものであり、例えば、USB端子などの有線式の通信部や、WiFiなどの無線LAN規格を採用した通信部である。 The communication unit 27 outputs the acceleration data of each axis and the angular velocity data centered on each axis stored in the storage unit 26 to the motion evaluation device 10 based on the control by the CPU 21, for example, a wired terminal such as a USB terminal. It is a communication unit of the type and a communication unit that adopts a wireless LAN standard such as WiFi.

次いで、図3(c)を参照して、撮像装置30の機能構成を説明する。図3(c)は、撮像装置30の機能構成を示すブロック図である。 Next, the functional configuration of the image pickup apparatus 30 will be described with reference to FIG. 3 (c). FIG. 3C is a block diagram showing a functional configuration of the image pickup apparatus 30.

撮像装置30は、CPU31と、操作部32と、RAM33と、撮像部34と、表示部35と、記憶部36と、通信部37と、を備える。撮像装置30の各部は、バス38を介して接続されている。 The image pickup apparatus 30 includes a CPU 31, an operation unit 32, a RAM 33, an image pickup unit 34, a display unit 35, a storage unit 36, and a communication unit 37. Each part of the image pickup apparatus 30 is connected via a bus 38.

CPU31及びRAM33は、運動評価装置10のCPU11、RAM13と同様であるため、重複する説明を省略し、異なる部分を主として説明する。 Since the CPU 31 and the RAM 33 are the same as the CPU 11 and the RAM 13 of the motion evaluation device 10, overlapping description will be omitted, and different parts will be mainly described.

CPU31は、撮像装置30の各部を制御する。また、CPU31は、撮像部34により撮影された被写体(測定装置20を装着した被測定者)の画像データを記憶部36に記憶する。 The CPU 31 controls each part of the image pickup apparatus 30. Further, the CPU 31 stores the image data of the subject (the person to be measured wearing the measuring device 20) photographed by the imaging unit 34 in the storage unit 36.

操作部32は、例えば、シャッタキー、動作モードや機能等の選択指示に係る上下左右のカーソルボタン、決定ボタン等を備えている。CPU31は、操作部32からの指示に基づいて撮像装置30の各部を制御する。なお、操作部32は、表示部35と一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。 The operation unit 32 includes, for example, a shutter key, up / down / left / right cursor buttons related to selection instructions such as an operation mode and a function, a decision button, and the like. The CPU 31 controls each part of the image pickup apparatus 30 based on an instruction from the operation unit 32. The operation unit 32 may be configured to have a touch panel (not shown) provided integrally with the display unit 35.

撮像部34は、所定のフレームレート(例えば、200fps)で動画像を撮影する機能を有しており、例えば、測定装置20を装着した被測定者の一連のランニング動作(少なくとも、一方の足が接地した状態から再度この一方の足が接地した状態となるまでの期間のランニング動作)を撮影する。 The imaging unit 34 has a function of capturing a moving image at a predetermined frame rate (for example, 200 fps). For example, a series of running operations (at least one foot) of a person to be measured wearing the measuring device 20 The running operation during the period from the state of touchdown to the state of one foot touching the ground again) is photographed.

表示部35は、記憶部36から読み出され復号された所定サイズの画像を表示領域内に表示する。表示部35は、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。 The display unit 35 displays an image of a predetermined size read from the storage unit 36 and decoded in the display area. Examples of the display unit 35 include, but are not limited to, a liquid crystal display panel and an organic EL display panel.

記憶部36は、フラッシュメモリ、EEPROM(Electrically Erasable Programmable ROM)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。 The storage unit 36 is composed of a flash memory, an EEPROM (Electrically Erasable Programmable ROM), or the like, and is a storage unit capable of writing and reading data and programs.

通信部37は、記憶部36に記憶した画像データをCPU31による制御に基づいて運動評価装置10に出力するものであり、例えば、USB端子などの有線式の通信部や、WiFiなどの無線LAN規格を採用した通信部である。 The communication unit 37 outputs the image data stored in the storage unit 36 to the motion evaluation device 10 based on the control by the CPU 31, and for example, a wired communication unit such as a USB terminal or a wireless LAN standard such as WiFi. It is a communication unit that adopted.

次に、図4を参照して、運動評価装置10で実行される運動評価処理を説明する。運動評価装置10において、操作部12を介して、ユーザから運動評価処理の実行指示が入力されたことをトリガとして、CPU11は、記憶部15から読み出して適宜RAM13に展開した運動評価プログラム151との協働で、運動評価処理を実行する。
なお、この運動評価処理では、処理の実行前に、モーションデータと画像データが記憶部15に既に記憶されている場合を例示して説明する。
Next, the motion evaluation process executed by the motion evaluation device 10 will be described with reference to FIG. In the motion evaluation device 10, the CPU 11 reads from the storage unit 15 and appropriately expands into the RAM 13 with the motion evaluation program 151, triggered by the input of the execution instruction of the motion evaluation process from the user via the operation unit 12. Collaborate to perform exercise evaluation processing.
In this motion evaluation process, a case where motion data and image data are already stored in the storage unit 15 before the execution of the process will be described as an example.

先ず、CPU11は、ユーザによる操作部12の操作によって指定された所望のモーションデータ(各軸の加速度データ、及び、各軸を中心とする角速度データ)を記憶部15から読み出す(ステップS1)。 First, the CPU 11 reads out desired motion data (acceleration data of each axis and angular velocity data centered on each axis) designated by the operation of the operation unit 12 by the user from the storage unit 15 (step S1).

次いで、CPU11は、各軸の加速度データ、及び、各軸を中心とする角速度データについて、軸補正処理を行う(ステップS2)。つまり、CPU11は、これらのモーションデータを、ランニング動作に対して不変なワールド座標軸を基準とするデータに変換し、当該データ(以下、補正データという)をRAM13に記憶する。ここで、ワールド座標軸とは、図6(a)に示すように、Z軸(Zw)が重力方向と一致し、Y軸(Yw)がランニングの進行方向と逆の方向と一致し、X軸(Xw)がZ軸とY軸に垂直な方向と一致する座標軸である。上記のように、モーションデータを、ワールド座標軸を基準とするデータに変換する理由は、測定装置20が被測定者の腰の位置に装着された状態では、図6(b),(c)に示すように、ランニング中の姿勢変化によって、Y軸(Ys)やZ軸(Zs)の方向が変化してしまうことにある。具体的な変換方法としては、例えば、カルマンフィルタを用いて地軸方向を推定し、推定された地軸方向とZ軸方向とが一致するように各軸を回転させることにより、モーションデータを、ワールド座標軸を基準とするデータに変換する方法や、Z軸の加速度データに基づき当該加速度を平均した方向を地軸方向と推定し、推定された地軸方向とZ軸方向とが一致するように各軸を回転させることにより、モーションデータを、ワールド座標軸を基準とするデータに変換する方法が挙げられる。 Next, the CPU 11 performs axis correction processing on the acceleration data of each axis and the angular velocity data centered on each axis (step S2). That is, the CPU 11 converts these motion data into data based on the world coordinate axes that are invariant to the running operation, and stores the data (hereinafter, referred to as correction data) in the RAM 13. Here, as shown in FIG. 6A, the world coordinate axes are such that the Z axis (Zw) coincides with the direction of gravity, the Y axis (Yw) coincides with the direction opposite to the traveling direction of running, and the X axis. (Xw) is a coordinate axis that coincides with the direction perpendicular to the Z axis and the Y axis. As described above, the reason for converting the motion data into the data based on the world coordinate axes is shown in FIGS. 6 (b) and 6 (c) when the measuring device 20 is mounted at the waist position of the person to be measured. As shown, the direction of the Y-axis (Ys) and the Z-axis (Zs) changes due to the change in posture during running. As a specific conversion method, for example, the ground axis direction is estimated using a Kalman filter, and each axis is rotated so that the estimated ground axis direction and the Z axis direction coincide with each other, so that motion data can be obtained by converting the world coordinate axes. Based on the method of converting to reference data and the Z-axis acceleration data, the direction in which the acceleration is averaged is estimated as the ground axis direction, and each axis is rotated so that the estimated ground axis direction and the Z-axis direction coincide with each other. As a result, there is a method of converting motion data into data based on the world coordinate axes.

次いで、CPU11は、RAM13に記憶された補正データに基づき、足が地面に接地した接地位置を推定する(ステップS3)。具体的には、先ず、CPU11は、補正データのうち、Z軸の加速度データを用いて、接地位置の検索開始位置を特定する。図6(d)の上段は、Z軸の加速度データ(AccZ)の波形を示すグラフである。個人差により、また、ランニングの速度により、AccZの波形はさまざまな形状を示すが、接地後にその接地の衝撃で鉛直上向き(プラス方向)に値が大きく振れるため、1歩ごとに山なりの波形となる。CPU11は、Z軸の加速度データ(AccZ)に対して移動平均等の平滑化フィルタをかけることにより、図6(d)の下段に示すように、平滑化処理後のZ軸の加速度データ(FAccZ)の波形を導出し、当該波形の極大値を示す位置(接地位置から一定時間が経過した位置)を接地位置推定の検索開始位置とする。 Next, the CPU 11 estimates the ground contact position where the foot touches the ground based on the correction data stored in the RAM 13 (step S3). Specifically, first, the CPU 11 specifies the search start position of the ground contact position by using the acceleration data of the Z axis among the correction data. The upper part of FIG. 6D is a graph showing the waveform of the Z-axis acceleration data (AccZ). The waveform of AccZ shows various shapes depending on individual differences and running speed, but after touchdown, the value fluctuates vertically upward (plus direction) due to the impact of the touchdown, so the waveform is mountainous for each step. It becomes. The CPU 11 applies a smoothing filter such as a moving average to the Z-axis acceleration data (AccZ), and as shown in the lower part of FIG. 6D, the Z-axis acceleration data (FAccZ) after the smoothing process. ) Is derived, and the position showing the maximum value of the waveform (the position where a certain time has passed from the grounding position) is set as the search start position of the grounding position estimation.

続けて、CPU11は、図6(e)に示すように、上記検索開始位置から時間軸を遡る方向に、Y軸の加速度データ(AccY)の波形を一定時間分だけ走査し、極大値を検出する。足が接地した場合、進行方向後ろ向き(Y軸プラス方向)にブレーキがかかり、AccYの値が大きく振れるため、検出された極大値の位置を接地基準位置とする。接地基準位置は、ブレーキのピーク位置であり、実際の接地から数ミリ秒経過後に発生するため、CPU11は、接地基準位置から数ミリ秒手前の位置を接地位置として推定する。 Subsequently, as shown in FIG. 6E, the CPU 11 scans the waveform of the acceleration data (AccY) on the Y-axis for a certain period of time in the direction retroactively from the search start position on the time axis, and detects the maximum value. To do. When the foot touches the ground, the brake is applied in the backward direction (Y-axis plus direction) in the traveling direction, and the AccY value fluctuates greatly. Therefore, the position of the detected maximum value is set as the ground contact reference position. Since the ground contact reference position is the peak position of the brake and occurs several milliseconds after the actual ground contact, the CPU 11 estimates the position several milliseconds before the ground contact reference position as the ground contact position.

次いで、CPU11は、ランニング周期の始まりを決定する(ステップS4)。具体的には、CPU11は、補正データのうち、Y軸を中心とする角速度データを用いて、ステップS3で推定された接地位置が左右どちらの足による接地であるかを判定する。図7は、ランニング中の各軸を中心とする角速度データの波形を示す図であり、ステップS3で推定された接地位置が一点鎖線で示されている。CPU11は、図7に示すように、接地位置から一定時間(100ミリ秒以下)の範囲において、Y軸を中心とする角速度データ(GyrY)の波形を走査し、極値を検出する。そして、検出された極値E1の符号がプラスの場合、CPU11は、当該検出の基準となった接地位置は右足によるものと判定する。一方、検出された極値E2の符号がマイナスの場合、CPU11は、当該検出の基準となった接地位置は左足によるものと判定する。上記の判定方法は、接地した衝撃を和らげるために、骨盤が接地足の逆足側に一瞬下がって元に戻るような動きをするという現象を利用したものである。そして、CPU11は、右足による接地位置であると判定された位置をランニング周期の始まりとして決定する。なお、CPU11は、左足による接地位置であると判定された位置をランニング周期の始まりとして決定してもよい。 The CPU 11 then determines the start of the running cycle (step S4). Specifically, the CPU 11 uses the angular velocity data centered on the Y-axis of the correction data to determine which foot is the ground contact position estimated in step S3. FIG. 7 is a diagram showing a waveform of angular velocity data centered on each axis during running, and the ground contact position estimated in step S3 is indicated by a chain line. As shown in FIG. 7, the CPU 11 scans the waveform of the angular velocity data (GyrY) centered on the Y axis within a certain time (100 milliseconds or less) from the ground contact position, and detects the extreme value. Then, when the sign of the detected extreme value E1 is positive, the CPU 11 determines that the ground contact position that is the reference for the detection is due to the right foot. On the other hand, when the sign of the detected extreme value E2 is negative, the CPU 11 determines that the ground contact position, which is the reference for the detection, is due to the left foot. The above-mentioned determination method utilizes a phenomenon in which the pelvis momentarily lowers to the opposite foot side of the grounded foot and returns to the original position in order to soften the impact of touching the ground. Then, the CPU 11 determines the position determined to be the ground contact position by the right foot as the start of the running cycle. The CPU 11 may determine the position determined to be the ground contact position by the left foot as the start of the running cycle.

次いで、CPU11は、測定装置20の上下方向の位置の変化、すなわち被測定者の腰の高さの変化を算出する(ステップS5)。具体的には、CPU11は、補正データのうち、Z軸の加速度データを用いて、当該Z軸の加速度データを2回積分することにより、測定装置20の上下方向の位置の変化を算出する。
なお、ここでは、測定装置20の上下方向の位置の絶対値は必要ではなく、相対的な位置がわかればいいので、積分する際に積分定数は気にしなくてもよいが、積分することで誤差が蓄積することがある。そこで、ランニングの周期特性を利用して計算を行うことが望ましい。最初にZ軸の加速度であるが、接地している間は加速度センサ24により上方向の加速度が検出されるので、単純に積分すると上方向の速度が増すことになる。ここで、ランニングは周期運動であることから、周期のはじめと終わりの上下方向の速度は、本来、同じはずである。このことから、ランニング1周期分の全データの平均を求め、サンプリングされたZ軸の加速度データそれぞれから平均値を引くことで、重力加速度及びノイズの成分を除去することができる。すなわち、ランニング1周期分のZ軸の加速度データの積分値は、重力加速度がない仮想状態では、ゼロになるはずであり、重力加速度及びノイズが存在しているときには、当該積分値は、重力加速度の値とノイズによる値とを示すと考えることが出来ることから、上述のように重力加速度及びノイズの成分を除去する処理を行っている。そして、このZ軸の加速度データを積分することで、Z軸の速度データを算出する。そして、さらにZ軸の速度データを積分することで、測定装置20の上下方向の位置の変化を算出する。
Next, the CPU 11 calculates a change in the vertical position of the measuring device 20, that is, a change in the waist height of the person to be measured (step S5). Specifically, the CPU 11 calculates the change in the vertical position of the measuring device 20 by integrating the Z-axis acceleration data twice using the Z-axis acceleration data among the correction data.
Here, the absolute value of the vertical position of the measuring device 20 is not necessary, and it is sufficient to know the relative position. Therefore, it is not necessary to worry about the integration constant when integrating, but by integrating, Errors may accumulate. Therefore, it is desirable to perform calculations using the periodic characteristics of running. First, the acceleration is on the Z-axis, but since the acceleration sensor 24 detects the acceleration in the upward direction while the ground is in contact with the ground, the speed in the upward direction increases when simply integrated. Here, since running is a periodic motion, the vertical velocities at the beginning and end of the cycle should be the same. From this, the gravitational acceleration and noise components can be removed by finding the average of all the data for one running cycle and subtracting the average value from each of the sampled Z-axis acceleration data. That is, the integrated value of the Z-axis acceleration data for one running cycle should be zero in the virtual state without gravitational acceleration, and when gravitational acceleration and noise are present, the integrated value is gravitational acceleration. Since it can be considered that the value of and the value due to noise are shown, the processing for removing the gravitational acceleration and noise components is performed as described above. Then, the Z-axis velocity data is calculated by integrating the Z-axis acceleration data. Then, by further integrating the Z-axis velocity data, the change in the vertical position of the measuring device 20 is calculated.

次いで、CPU11は、RAM13に記憶された補正データに基づき、足が地面から離れた離地位置を推定する(ステップS6)。足が地面から離れた場合、地面を蹴って得た加速度成分が無くなり減速するため、Y軸の加速度データ(AccY)のピーク値が発生する。CPU11は、このピーク値の位置を離地位置として推定する。具体的には、先ず、CPU11は、一の接地位置を特定し、この接地位置から1歩前の接地位置までの間における測定装置20の上下方向の位置の変化を示すZ軸の変位データを取得する。そして、CPU11は、このZ軸の変位データの最大値を検出し、この最大値の位置を高さ変動最大位置とする(図8参照)。続けて、CPU11は、図8に示すように、上記一の接地位置の一歩前で求めた高さ変動最大位置から、当該一の接地位置を基準として求めた高さ変動最大位置までの間の60〜95%の範囲を離地位置の検索範囲とする。そして、CPU11は、この検索範囲内でY軸の加速度データ(AccY)の波形を走査し、最初に検出された極大値の位置を離地位置として推定する。 Next, the CPU 11 estimates the takeoff position where the foot is away from the ground based on the correction data stored in the RAM 13 (step S6). When the foot is off the ground, the acceleration component obtained by kicking the ground disappears and the vehicle decelerates, so that a peak value of acceleration data (AccY) on the Y axis is generated. The CPU 11 estimates the position of this peak value as the takeoff position. Specifically, first, the CPU 11 identifies one grounding position, and displays Z-axis displacement data indicating a change in the vertical position of the measuring device 20 from this grounding position to the grounding position one step before. get. Then, the CPU 11 detects the maximum value of the displacement data of the Z axis, and sets the position of this maximum value as the maximum height fluctuation position (see FIG. 8). Subsequently, as shown in FIG. 8, the CPU 11 is between the maximum height fluctuation position obtained one step before the one ground contact position and the maximum height fluctuation position obtained with reference to the one ground contact position. The range of 60 to 95% is set as the search range of the takeoff position. Then, the CPU 11 scans the waveform of the acceleration data (AccY) on the Y axis within this search range, and estimates the position of the first detected maximum value as the takeoff position.

次いで、CPU11は、ステップS3で行われた接地位置の推定処理、ステップS4で行われたランニング周期の始まりの決定処理、ステップS5で行われた測定装置20の上下方向の位置の算出処理、及び、ステップS6で行われた離地位置の推定処理に基づき、ランニング周期の各局面を推定する(ステップS7)。ここで、ランニング周期の局面とは、図9に示すように、右足が地面に触れた接地時、この足の接地中に測定装置20、すなわち腰が最も低い位置を通過した最下時、この足が地面から離れた離地時、及び、この足が地面から離れた後、測定装置20が最も高い位置を通過した最高時、並びに、逆の足(左足)が地面に触れた逆足接地時、この足の接地中に測定装置20が最も低い位置を通過した逆足最下時、この足が地面から離れた逆足離地時、及び、この足が地面から離れた後、測定装置20が最も高い位置を通過した逆足最高時を指す。 Next, the CPU 11 performs an estimation process of the ground contact position performed in step S3, a process of determining the start of the running cycle performed in step S4, a process of calculating the vertical position of the measuring device 20 performed in step S5, and a process of calculating the vertical position of the measuring device 20 performed in step S5. , Each phase of the running cycle is estimated based on the takeoff position estimation process performed in step S6 (step S7). Here, the phase of the running cycle is, as shown in FIG. 9, when the right foot touches the ground and touches the ground, and when the foot passes the measuring device 20, that is, the lowest position of the waist while the foot touches the ground. When the foot is off the ground, and when the measuring device 20 passes the highest position after the foot is off the ground, and when the reverse foot (left foot) touches the ground, the reverse foot touches the ground. At the bottom of the reverse foot when the measuring device 20 passed the lowest position while the foot was in contact with the ground, when the foot was taken off the ground, and after the foot was separated from the ground, the measuring device was used. 20 refers to the highest time of the reverse foot that has passed the highest position.

次いで、CPU11は、ランニングの進行方向を推定する(ステップS8)。具体的には、CPU11は、Z軸を中心とする角速度データを積分し、その平均値を体の正面方向、すなわちランニングの進行方向として推定する。ここで、上記角速度データには時間的に変化するオフセットが存在する。そこで、このオフセットを解消するため、上記角速度データを積分する前に、ランニング1周期分のサンプリングされた上記角速度データの平均を求め、元のデータから平均値を引いた後に積分することが望ましい。なお、上記角速度データの平均は、ランニング1周期分に限らず、その前後の数周期分のデータを対象としてもよい。 Next, the CPU 11 estimates the running direction (step S8). Specifically, the CPU 11 integrates the angular velocity data centered on the Z axis, and estimates the average value as the front direction of the body, that is, the traveling direction of running. Here, the angular velocity data has an offset that changes with time. Therefore, in order to eliminate this offset, it is desirable to obtain the average of the sampled angular velocity data for one running cycle before integrating the angular velocity data, subtract the average value from the original data, and then integrate the data. The average of the angular velocity data is not limited to one running cycle, and may be data for several cycles before and after the running cycle.

次いで、CPU11は、補正データ(3軸の加速度データ)のノイズ低減のため、平均化処理を行う(ステップS9)。具体的には、先ず、CPU11は、各軸の加速度データを対象とし、ランニング1周期の時間を400ポイントに変換(正規化)する。つまり、各周期の始まりを0ポイントとし、各周期の終わりを399ポイントとする。続けて、CPU11は、各周期の加速度データを平均した波形(平均波形)を生成し、各周期の波形とこの平均波形との差を0から399ポイントにわたって求める。そして、CPU11は、2乗平均を求め、0から399ポイントの2乗平均を足し合わせることでその周期の平均との差分を求める。そして、CPU11は、各周期の順番を上記差分の小さい順にソートして、平均化処理に用いる数の波形を選択する。例えば、10個の波形の平均を求めるとした場合、上記のソートされた波形の先頭から10波形を選択することとなる。そして、CPU11は、選択された波形の周期を求め、平均したポイント数(cyc)を算出する。また、CPU11は、左足接地から右足接地までの時間を求め、平均したポイント数(cyc_L)を算出するとともに、右足接地から左足接地までの時間を求め、平均した
ポイント数(cyc_R)を算出する。
そして、CPU11は、左足ポイント数(round_L)=400*cyc_L/cycを算出するとともに、右足ポイント数(round_R)=400*cyc_R/cycを算出する。そして、CPU11は、算出された左足ポイント数(round_L)と右
足ポイント数(round_R)とをつなぎ、ランニング1周期分の平均化された加速度
データを導出する。
Next, the CPU 11 performs an averaging process in order to reduce noise in the correction data (three-axis acceleration data) (step S9). Specifically, first, the CPU 11 targets the acceleration data of each axis and converts (normalizes) the time of one running cycle into 400 points. That is, the beginning of each cycle is set to 0 points, and the end of each cycle is set to 399 points. Subsequently, the CPU 11 generates a waveform (average waveform) obtained by averaging the acceleration data of each cycle, and obtains the difference between the waveform of each cycle and this average waveform from 0 to 399 points. Then, the CPU 11 obtains the squared average, and adds the squared averages of 0 to 399 points to obtain the difference from the average of the period. Then, the CPU 11 sorts the order of each cycle in ascending order of the difference, and selects the number of waveforms to be used in the averaging process. For example, if the average of 10 waveforms is to be calculated, 10 waveforms are selected from the beginning of the sorted waveforms. Then, the CPU 11 obtains the period of the selected waveform and calculates the average number of points (cyc). Further, the CPU 11 obtains the time from the left foot touchdown to the right foot touchdown, calculates the average number of points (cyc_L), obtains the time from the right foot touchdown to the left foot touchdown, and calculates the average number of points (cyc_R).
Then, the CPU 11 calculates the number of left foot points (round_L) = 400 * cyc_L / cyc and the number of right foot points (round_R) = 400 * cyc_R / cyc. Then, the CPU 11 connects the calculated number of left foot points (round_L) and the number of right foot points (round_R), and derives averaged acceleration data for one running cycle.

なお、上述のような平均化処理を行う際に、正規化する前の周期(実周期時間)の平均を求め、この平均から一定以上周期がずれている周期はこの平均に加えない、また、一方の足の接地から逆足接地までの時間の平均を求め、この平均から一定以上周期がずれている周期は平均に加えない、といった処理を行うようにしてもよい。 When performing the averaging process as described above, the average of the cycles (actual cycle time) before normalization is obtained, and cycles that deviate from this average by a certain amount or more are not added to this average. The average of the time from the contact of one foot to the contact of the reverse foot may be obtained, and the period whose period deviates from this average by a certain amount or more may not be added to the average.

そして、CPU11は、平均化処理が施された各軸の加速度データを、正規化されたサンプル間隔Δtで積分することにより、各軸の速度データを算出する。なお、ここでは、1周期分の全データの平均を求め、サンプリングされた加速度それぞれから平均値を引いた上で、上記の積分を行う。また、CPU11は、上記積分で導出された各軸の速度データを積分することで、各軸の変位データを導出する。 Then, the CPU 11 calculates the velocity data of each axis by integrating the acceleration data of each axis subjected to the averaging process at the normalized sample interval Δt. Here, the average of all the data for one cycle is obtained, the average value is subtracted from each of the sampled accelerations, and then the above integration is performed. Further, the CPU 11 derives the displacement data of each axis by integrating the velocity data of each axis derived by the above integration.

また、CPU11は、ステップS9において、ステップS7で推定されたランニングの各局面の時間についても、0〜399ポイントに正規化した時間に変換する。 Further, in step S9, the CPU 11 also converts the time of each phase of running estimated in step S7 into a time normalized to 0 to 399 points.

次いで、CPU11は、ステップS9で平均化処理が施された各データ、及び、正規化されたランニングの各局面の時間の情報に基づき、図10(a)に示すような運動解析データを生成する(ステップS10)。
図10(a)に示す運動解析データは、横軸に時間をとり、各サンプリングポイントの時間を原点に、Z軸の加速度ベクトル(縦方向)とY軸の加速度ベクトル(横方向)との合成ベクトルを描いたデータとなっている。すなわち、経過時間毎の合成ベクトルの変化を示しており、合成ベクトルを示す線分の長さが加速度の大きさを示している。なお、図10(a)に示す運動解析データは、あるタイミングにおける右足の接地局面から離地局面までのデータのみを示している。
Next, the CPU 11 generates motion analysis data as shown in FIG. 10A based on the data subjected to the averaging process in step S9 and the time information of each phase of the normalized running. (Step S10).
The motion analysis data shown in FIG. 10A is a combination of the Z-axis acceleration vector (vertical direction) and the Y-axis acceleration vector (horizontal direction) with the time on the horizontal axis as the origin and the time at each sampling point as the origin. The data is a vector. That is, it shows the change of the composite vector for each elapsed time, and the length of the line segment showing the composite vector indicates the magnitude of acceleration. The motion analysis data shown in FIG. 10A shows only the data from the ground contact phase to the takeoff phase of the right foot at a certain timing.

運動解析データは、図10(a)に示すように、最大加速度、最大加速度角、最大加速度発生時間T1を指標として示している。
これらの指標は、以下のようにして求められる。すなわち、接地局面から離地局面までの区間であり、且つ、Y軸の加速度データの値がマイナスである、すなわち進行方向に加速している区間のサンプリングデータを抜き出し、各サンプリングデータに対してY軸の加速度データの値の二乗とZ軸の加速度データの値の二乗とを足し合わせ、平方根を求めることで、YZ平面上での加速度の大きさを求める。そして、このなかで加速度の大きさが最大となる時間が最大加速度の発生時間となる。また、このときの加速度の大きさが最大加速度となる。さらに、このときの合成ベクトルとY軸とのなす角度が最大加速度角となる。なお、上記の例では、YZ平面上での最大加速度を求めたが、X軸の加速度データも加味し、3次元での最大加速度を求めるようにしてもよい。
As shown in FIG. 10A, the motion analysis data shows the maximum acceleration, the maximum acceleration angle, and the maximum acceleration generation time T1 as indexes.
These indicators are obtained as follows. That is, the sampling data of the section from the ground contact phase to the takeoff phase and the value of the acceleration data on the Y axis is negative, that is, the section accelerating in the traveling direction is extracted, and Y is applied to each sampling data. By adding the square of the value of the acceleration data of the axis and the square of the value of the acceleration data of the Z axis and obtaining the square root, the magnitude of the acceleration on the YZ plane is obtained. The time when the magnitude of the acceleration is maximized is the time when the maximum acceleration is generated. Further, the magnitude of the acceleration at this time is the maximum acceleration. Further, the angle formed by the composite vector and the Y-axis at this time is the maximum acceleration angle. In the above example, the maximum acceleration on the YZ plane is obtained, but the maximum acceleration in three dimensions may be obtained in consideration of the acceleration data of the X-axis.

また、運動解析データは、更に、図10(a)に示すように、最大加速度発生時間T1と最下時T2との時間差ΔTを指標として示している。この指標は、最下時の時間から最大加速度発生時間を引いたもので、運動解析を行うにあたり重要な指標となる。 Further, as shown in FIG. 10A, the motion analysis data further shows the time difference ΔT between the maximum acceleration generation time T1 and the lowest time T2 as an index. This index is obtained by subtracting the maximum acceleration generation time from the time at the lowest time, and is an important index for performing motion analysis.

また、運動解析データは、更に、図10(a)に示すように、最大ブレーキ、最大ブレーキ角、及び、最大ブレーキ発生時間T0を指標として示している。
これらの指標は、接地局面から離地局面までの区間であり、且つ、Y軸の加速度データの値がプラスである、すなわち進行方向と逆方向に加速している区間のサンプリングデータを抜き出し、各サンプリングデータに対してY軸の加速度データの値の二乗とZ軸の加速度データの値の二乗とを足し合わせ、平方根を求めることで、YZ平面上での加速度の大きさを求める。そして、このなかで加速度の大きさが最大となる時間が最大ブレーキの発生時間となる。また、このときの加速度の大きさが最大ブレーキとなる。さらに、このときの合成ベクトルとY軸とがなす角度が最大ブレーキ角となる。なお、上記の例では、YZ平面上での最大ブレーキを求めたが、X軸の加速度データも加味し、3次元での最大ブレーキを求めるようにしてもよい。また、更に、接地局面から離地局面までの区間における進行方向と逆方向に加速している区間のY軸の加速度を時間積分した値をトータルブレーキとして求めて、指標に加えてもよい。
Further, as shown in FIG. 10A, the motion analysis data further shows the maximum brake, the maximum brake angle, and the maximum brake occurrence time T0 as indexes.
These indicators are the section from the ground contact phase to the takeoff phase, and the sampling data of the section where the value of the acceleration data on the Y axis is positive, that is, the section accelerating in the direction opposite to the traveling direction is extracted, and each of them The magnitude of acceleration on the YZ plane is obtained by adding the square of the value of the acceleration data on the Y-axis and the square of the value of the acceleration data on the Z-axis to the sampled data and obtaining the square root. The time at which the magnitude of acceleration is maximized is the time at which the maximum brake is generated. Further, the magnitude of the acceleration at this time is the maximum brake. Further, the angle formed by the composite vector and the Y-axis at this time is the maximum braking angle. In the above example, the maximum brake on the YZ plane is obtained, but the maximum brake in three dimensions may be obtained in consideration of the acceleration data of the X axis. Further, a value obtained by time-integrating the acceleration of the Y-axis in the section accelerating in the direction opposite to the traveling direction in the section from the ground contact phase to the takeoff phase may be obtained as a total brake and added to the index.

また、運動解析データは、更に、図10(a)に示すように、最大前傾加速度、最大前傾加速度角、最大前傾加速度発生時間T3を指標として示している。
これらの指標は、接地局面から離地局面までの区間であり、且つ、Y軸の加速度データの値がマイナスである、すなわち進行方向に加速している区間のサンプリングデータを抜き出し、各サンプリングデータに対して合成ベクトルとY軸とのなす角度を求める。そして、このなかで合成ベクトルとY軸とのなす角度が最小である(最も前傾している)時間が最大前傾加速度の発生時間となる。また、このときの加速度の大きさが最大前傾加速度となる。さらに、このときの合成ベクトルとY軸とのなす角度が最大前傾加速度角となる。
Further, as shown in FIG. 10A, the motion analysis data further shows the maximum forward tilt acceleration, the maximum forward tilt acceleration angle, and the maximum forward tilt acceleration generation time T3 as indexes.
These indexes are the section from the ground contact phase to the takeoff phase, and the sampling data of the section where the value of the acceleration data of the Y axis is negative, that is, the section accelerating in the traveling direction is extracted, and each sampling data is used. On the other hand, the angle between the composite vector and the Y axis is obtained. Then, the time at which the angle formed by the composite vector and the Y-axis is the smallest (most forward tilted) is the generation time of the maximum forward tilt acceleration. Further, the magnitude of the acceleration at this time is the maximum forward tilt acceleration. Further, the angle formed by the composite vector and the Y-axis at this time is the maximum forward tilt acceleration angle.

次いで、CPU11は、図11に示すように、ステップS10で生成された運動解析データのうち、ユーザ所望の時間帯の運動解析結果D2と、その時間帯に対応する合成画像D1と、を表示部14に表示させる表示制御処理を行い(ステップS11)、運動評価処理を終了する。なお、表示制御処理の詳細については後述する。 Next, as shown in FIG. 11, the CPU 11 displays the motion analysis result D2 in the time zone desired by the user and the composite image D1 corresponding to the time zone among the motion analysis data generated in step S10. The display control process to be displayed on 14 is performed (step S11), and the motion evaluation process is completed. The details of the display control process will be described later.

次に、図5を参照して、運動評価装置10で実行される表示制御処理を説明する。
先ず、CPU11は、ユーザによる操作部12の操作によって指定された画像データを記憶部15から読み出す(ステップS111)。なお、この画像データは、ステップS1で読み出されたモーションデータを採取している間に撮影された一連のランニング動作に係る動画像の画像データであるものとする。
Next, the display control process executed by the motion evaluation device 10 will be described with reference to FIG.
First, the CPU 11 reads out the image data designated by the operation of the operation unit 12 by the user from the storage unit 15 (step S111). It is assumed that this image data is image data of a moving image related to a series of running operations taken while collecting the motion data read in step S1.

次いで、CPU11は、ユーザによる操作部12の操作によって、上記画像データを構成する各フレーム画像のうちのどのフレーム画像が接地位置に対応するかを指定する指定操作がなされたか否かを判定する(ステップS112)。
ステップS112において、接地位置に対応する指定操作がなされていないと判定された場合(ステップS112;NO)は、当該指定操作がなされるまでの間、ステップS112の判定処理が行われる。
そして、接地位置に対応する指定操作がなされたと判定された場合(ステップS112;YES)、CPU11は、指定されたフレーム画像を基準として、各フレーム画像に対して正規化された時間の情報を付与する(ステップS113)。
Next, the CPU 11 determines whether or not a designation operation for designating which frame image of each frame image constituting the image data corresponds to the grounding position has been performed by the operation of the operation unit 12 by the user ( Step S112).
If it is determined in step S112 that the designated operation corresponding to the ground contact position has not been performed (step S112; NO), the determination process of step S112 is performed until the designated operation is performed.
Then, when it is determined that the designated operation corresponding to the grounding position has been performed (step S112; YES), the CPU 11 imparts normalized time information to each frame image with reference to the designated frame image. (Step S113).

ここで、正規化された時間の情報のうち、0から400ポイントの期間において、各フレーム画像に対して正規化された時間の情報を付与する方法を説明する。なお、ステップS9の平均化処理において、この期間における左足の接地位置が0ポイント、右足の接地位置が193ポイント、次の左足の接地位置が400ポイントに変換されているものとする。
例えば、左足の接地位置が100フレーム目であり、右足の接地位置が145フレーム目であり、次の左足の接地位置が200フレーム目であるとする指定操作がなされた場合、100フレーム目から145フレーム目までの各フレーム画像間の間隔は、193ポイントを45(=145−100)で除した値となる。従って、例えば、120フレーム目の正規化された時間の情報は、86(≒(120−100)*193/45)ポイントとなる。
また、145フレーム目から200フレーム目までの各フレーム画像間の間隔は、207(=400−193)ポイントを55(=200−145)で除した値となる。従って、例えば、180フレーム目の正規化された時間の情報は、325ポイント(≒((180−145)*207/55)+193)ポイントとなる。
Here, a method of giving the normalized time information to each frame image in the period of 0 to 400 points among the normalized time information will be described. In the averaging process of step S9, it is assumed that the ground contact position of the left foot is converted to 0 points, the ground contact position of the right foot is converted to 193 points, and the ground contact position of the next left foot is converted to 400 points during this period.
For example, if a designated operation is performed such that the ground contact position of the left foot is the 100th frame, the ground contact position of the right foot is the 145th frame, and the ground contact position of the next left foot is the 200th frame, the 100th to 145th frames are performed. The interval between each frame image up to the frame is a value obtained by dividing 193 points by 45 (= 145-100). Therefore, for example, the information of the normalized time in the 120th frame is 86 (≈ (120-100) * 193/45) points.
The interval between each frame image from the 145th frame to the 200th frame is a value obtained by dividing 207 (= 400-193) points by 55 (= 200-145). Therefore, for example, the information of the normalized time in the 180th frame is 325 points (≈((180-145) * 207/55) +193) points.

次いで、CPU11は、図11に示すように、ステップS10で生成された運動解析結果D2を表示部14の下段に表示させる(ステップS114)。ここで、運動解析結果D2の0ポイント位置は、左足接地位置を示している。また、27ポイントの位置は、減速から加速に切り替わる加速度切り替わり位置を示している。また、55ポイントの位置は、最下点位置を示している。また、107ポイントの位置は、左足離地位置を示している。また、193ポイントの位置は、右足接地位置を示している。また、219ポイントの位置は、減速から加速に切り替わる加速度切り替わり位置を示している。また、249ポイントの位置は、最下点位置を示している。また、304ポイントの位置は、右足離地位置を示している。また、400ポイントの位置は、再び左足接地位置を示している。つまり、0ポイントの位置から399ポイントの位置の間をランニング1周期としている。また、運動解析結果D2において、速度の値は解析した区間の平均速度を示し、周期の値は解析した区間のランニング1周期の時間、つまり0ポイントから399ポイントの間の実際の時間を示し、図中の56.1m/s 49等の表記は、最大加速度の大きさとそれが発生したタイミング(ポイントの位置)を示している。また、運動解析結果D2は、上述のように、経過時間毎の加速度ベクトルの向きと大きさを示しており、その線分の長さが加速度の大きさを示している。そして、図における縦軸の数値は、合成ベクトルの向きが垂直方向である場合の加速度の大きさを示している。 Next, as shown in FIG. 11, the CPU 11 displays the motion analysis result D2 generated in step S10 in the lower part of the display unit 14 (step S114). Here, the 0 point position of the motion analysis result D2 indicates the left foot ground contact position. Further, the position of 27 points indicates an acceleration switching position in which deceleration is switched to acceleration. The position of 55 points indicates the lowest point position. The position of 107 points indicates the left foot takeoff position. The position of the 193 point indicates the right foot ground contact position. Further, the position of the 219 point indicates an acceleration switching position for switching from deceleration to acceleration. The position of 249 points indicates the lowest point position. The position of 304 points indicates the right foot takeoff position. The position of 400 points indicates the left foot ground contact position again. That is, one running cycle is defined as a period between the 0 point position and the 399 point position. Further, in the motion analysis result D2, the velocity value indicates the average velocity of the analyzed section, and the cycle value indicates the time of one running cycle of the analyzed section, that is, the actual time between 0 point and 399 points. notation such 56.1m / s 2 49 in the drawing indicates the magnitude of the maximum acceleration and when it occurs (point positions). Further, as described above, the motion analysis result D2 indicates the direction and magnitude of the acceleration vector for each elapsed time, and the length of the line segment indicates the magnitude of acceleration. The numerical values on the vertical axis in the figure indicate the magnitude of acceleration when the direction of the composite vector is the vertical direction.

そして、CPU11は、運動解析結果D2における時間(経過時間)の指定操作がなされたか否かを判定する(ステップS115)。ここで、運動解析結果D2における時間(経過時間)の指定操作について説明する。先ず、ユーザによる操作部12の操作により、運動解析結果D2の表示範囲を指定する。この指定操作により、運動解析結果D2を左方向又は右方向にスライド表示させることが可能となる。そして、表示部14の中段には、図11に示すように、一定の位置に固定カーソルCが表示されており、所望の時間(経過時間)の位置が固定カーソルCの位置と合わさるように、運動解析結果D2をスライド表示させることにより、所望の時間(経過時間)の指定操作を行う。図11の表示例では、右足接地位置(経過時間;193ポイント)と固定カーソルCの位置とが合わさった状態を示している。 Then, the CPU 11 determines whether or not the time (elapsed time) designation operation in the motion analysis result D2 has been performed (step S115). Here, the operation of designating the time (elapsed time) in the motion analysis result D2 will be described. First, the display range of the motion analysis result D2 is specified by the operation of the operation unit 12 by the user. By this designated operation, the motion analysis result D2 can be slid to the left or right. Then, as shown in FIG. 11, the fixed cursor C is displayed at a fixed position in the middle of the display unit 14, so that the position of the desired time (elapsed time) matches the position of the fixed cursor C. By displaying the motion analysis result D2 on a slide, a desired time (elapsed time) is specified. In the display example of FIG. 11, the state where the right foot touchdown position (elapsed time; 193 points) and the position of the fixed cursor C are combined is shown.

ステップS115において、運動解析結果D2における時間(経過時間)の指定操作がなされていないと判定された場合(ステップS115;NO)は、当該指定操作がなされるまでの間、ステップS115の判定処理が行われる。
そして、運動解析結果D2における時間(経過時間)の指定操作がなされたと判定された場合(ステップS115;YES)、CPU11は、指定操作がなされた時間に対応するフレーム画像を中心画像とし、この中心画像を基準として所定間隔で複数(例えば、12枚)のフレーム画像を抽出し、これらの複数のフレーム画像を合成した合成画像D1を生成する。そして、CPU11は、図11に示すように、生成された合成画像D1を表示部14の上段に表示させる(ステップS116)。
If it is determined in step S115 that the time (elapsed time) designation operation in the motion analysis result D2 has not been performed (step S115; NO), the determination process in step S115 is performed until the designation operation is performed. Will be done.
Then, when it is determined that the time (elapsed time) designation operation in the motion analysis result D2 has been performed (step S115; YES), the CPU 11 uses the frame image corresponding to the time when the designation operation is performed as the center image, and this center. A plurality of (for example, 12) frame images are extracted at predetermined intervals based on the image, and a composite image D1 is generated by synthesizing the plurality of frame images. Then, as shown in FIG. 11, the CPU 11 displays the generated composite image D1 on the upper stage of the display unit 14 (step S116).

次いで、CPU11は、ユーザによる操作部12の操作により、表示制御処理の終了操作がなされたか否かを判定する(ステップS117)。
ステップS117において、表示制御処理の終了操作がなされていないと判定された場合(ステップS117;NO)、ステップS115に移行する。
一方、ステップS117において、表示制御処理の終了操作がなされたと判定された場合(ステップS117;YES)、表示制御処理を終了する。
Next, the CPU 11 determines whether or not the end operation of the display control process has been performed by the operation of the operation unit 12 by the user (step S117).
If it is determined in step S117 that the end operation of the display control process has not been performed (step S117; NO), the process proceeds to step S115.
On the other hand, in step S117, when it is determined that the end operation of the display control process has been performed (step S117; YES), the display control process is ended.

以上のように、本実施形態によれば、運動評価装置10は、被写体(被測定者)のランニング動作を連続的に撮像した複数の画像を取得し、当該複数の画像に基づき合成画像D1を生成する。また、運動評価装置10は、被写体のランニング動作がなされた際に当該被写体に装着された測定装置20から出力されたモーションデータを取得し、当該モーションデータに基づき運動解析を行う。そして、運動評価装置10は、合成画像D1のもととなる複数の画像の時系列と、解析された運動解析結果D2の時系列とを対応付けて、当該合成画像D1と当該運動解析結果D2とを表示部14に表示させる。 As described above, according to the present embodiment, the motion evaluation device 10 acquires a plurality of images in which the running motion of the subject (measured person) is continuously captured, and obtains a composite image D1 based on the plurality of images. Generate. Further, the motion evaluation device 10 acquires motion data output from the measuring device 20 mounted on the subject when the subject is running, and performs motion analysis based on the motion data. Then, the motion evaluation device 10 associates the time series of the plurality of images that are the basis of the composite image D1 with the time series of the analyzed motion analysis result D2, and associates the composite image D1 with the motion analysis result D2. Is displayed on the display unit 14.

このため、ユーザは、一連のランニング動作を示す合成画像D1と、当該一連のランニング動作の運動解析結果D2と、を見比べることができるようになるので、運動評価装置10による解析結果の持つ意味を理解し易くなる。 Therefore, the user can compare the composite image D1 showing a series of running motions with the motion analysis result D2 of the series of running motions, so that the meaning of the analysis result by the motion evaluation device 10 can be understood. It will be easier to understand.

また、運動評価装置10は、表示部14に表示された運動解析結果D2から所望のタイミングを指定し、当該タイミングに対応する画像を中心とする複数の画像に基づき合成画像D1を生成する。このため、ユーザ所望のタイミングにおける動作を撮影した画像を中心として合成画像を生成することができる。従って、一連のランニング動作のうちの所望の動作を中心に含む合成画像D1と、当該動作に関する運動解析結果D2と、を表示部14に表示させることができるので、運動評価装置10による解析結果を効率よく確認することができる。 Further, the motion evaluation device 10 specifies a desired timing from the motion analysis result D2 displayed on the display unit 14, and generates a composite image D1 based on a plurality of images centered on the image corresponding to the timing. Therefore, it is possible to generate a composite image centering on an image obtained by capturing an operation at a timing desired by the user. Therefore, the composite image D1 including the desired motion in the series of running motions and the motion analysis result D2 related to the motion can be displayed on the display unit 14, so that the analysis result by the motion evaluation device 10 can be displayed. It can be confirmed efficiently.

なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。 Although the embodiments of the present invention have been described above, it goes without saying that the present invention is not limited to such embodiments and can be variously modified without departing from the gist thereof.

例えば、上記実施形態では、最初の接地(左足接地)位置を0ポイントの位置とし、次の左足接地位置が400ポイントの位置となるように時間の情報を正規化したが、正規化する際の時間の情報の値は一例であり、これに限定されるものではない。 For example, in the above embodiment, the time information is normalized so that the first ground contact (left foot ground contact) position is the position of 0 point and the next left foot ground contact position is the position of 400 points. The value of the time information is an example, and is not limited to this.

また、上記実施形態において、合成画像D1は、画像中、中心の被写体の透過性を低くし、中心から離れていくほど被写体の透過性を高くするようにしてもよい。 Further, in the above embodiment, the composite image D1 may have a lower transparency of the subject in the center of the image and a higher transparency of the subject as the distance from the center increases.

また、上記実施形態では、表示制御処理(図5参照)のステップS112に記載されているように、接地位置に対応するフレーム画像の指定を、ユーザによる操作部12の操作により行うようにしたが、画像処理により接地位置を自動検出することにより、当該接地位置に対応するフレーム画像を指定するようにしてもよい。 Further, in the above embodiment, as described in step S112 of the display control process (see FIG. 5), the frame image corresponding to the ground contact position is specified by the operation of the operation unit 12 by the user. , The frame image corresponding to the grounding position may be specified by automatically detecting the grounding position by image processing.

また、上記実施形態では、運動解析結果D2の所望の時間(経過時間)の指定操作を行うことにより、合成画像D1を生成するようにしたが、これに限定されるものではない。例えば、図12に示すように、運動解析結果D2の所望の時間(経過時間)の指定操作がなされた時間(例えば、193ポイント)を中心とするズーム範囲の指定操作を行うことができるようにする。そして、このズーム範囲にあるフレーム画像を一定間隔で選択し、これらのフレーム画像をそれぞれズームしたズーム画像に基づき合成画像D3を生成するようにしてもよい。なお、上記ズーム範囲から選択されるフレーム画像の枚数はズーム範囲の広さに応じて変更するようにしてもよいし、ズーム範囲の広さにかかわらず、選択されるフレーム画像の枚数を予め設定しておき、当該ズーム範囲内で等間隔となるように設定された枚数のフレーム画像を選択するようにしてもよい。 Further, in the above embodiment, the composite image D1 is generated by performing the operation of designating the desired time (elapsed time) of the motion analysis result D2, but the present invention is not limited to this. For example, as shown in FIG. 12, the zoom range can be specified around the time (for example, 193 points) at which the desired time (elapsed time) of the motion analysis result D2 is specified. To do. Then, the frame images in this zoom range may be selected at regular intervals, and the composite image D3 may be generated based on the zoom image obtained by zooming each of these frame images. The number of frame images selected from the above zoom range may be changed according to the width of the zoom range, or the number of frame images to be selected may be set in advance regardless of the width of the zoom range. However, the number of frame images set so as to be evenly spaced within the zoom range may be selected.

また、上記実施形態では、運動解析結果D2は、横軸に時間をとり、各サンプリングポイントの時間を原点に、Z軸の加速度ベクトル(縦方向)とY軸の加速度ベクトル(横方向)との合成ベクトルを描いた図としたが、接地角(図10(b)参照)、及び、離地角(図10(c)参照)を更に表示させるようにしてもよい。接地角は、接地位置における平均速度を加味したY軸の速度とZ軸の速度とで求められる。また、離地角は、離地位置における平均速度を加味したY軸の速度とZ軸の速度とで求められる。 Further, in the above embodiment, the motion analysis result D2 has time on the horizontal axis, and the acceleration vector on the Z axis (vertical direction) and the acceleration vector on the Y axis (horizontal direction) are set with the time at each sampling point as the origin. Although the figure depicts the composite vector, the ground contact angle (see FIG. 10 (b)) and the takeoff angle (see FIG. 10 (c)) may be further displayed. The ground contact angle is obtained by the Y-axis speed and the Z-axis speed in consideration of the average speed at the ground contact position. Further, the takeoff angle is obtained by the Y-axis speed and the Z-axis speed in consideration of the average speed at the takeoff position.

また、上記実施形態では、例えば、図13に示すように、上記合成ベクトルを描いた運動解析結果D2aに加えて、X軸(左右方向)の変位グラフD2b、Y軸(前後方向)の変位グラフD2c、Z軸(上下方向)の変位グラフD2dの全部又は一部を表示部14に表示させるようにしてもよい。これにより、測定装置20が装着された腰の位置の変位を確認することができるようになる。
また、図14に示すように、上記合成ベクトルを描いた運動解析結果D2aに加えて、X軸を中心とする回動角度(ピッチ角)グラフD2e、Y軸を中心とする回動角度(ロー角)グラフD2f、Z軸を中心とする回動角度(ヨー角)グラフD2gの全部又は一部を表示部14に表示させるようにしてもよい。これにより、測定装置20が装着された腰の回転量を確認することができるようになる。
Further, in the above embodiment, for example, as shown in FIG. 13, in addition to the motion analysis result D2a on which the composite vector is drawn, the displacement graphs D2b on the X-axis (left-right direction) and the displacement graphs on the Y-axis (front-back direction). The display unit 14 may display all or part of the displacement graph D2d on the D2c and Z-axis (vertical direction). This makes it possible to confirm the displacement of the position of the waist on which the measuring device 20 is mounted.
Further, as shown in FIG. 14, in addition to the motion analysis result D2a in which the composite vector is drawn, the rotation angle (pitch angle) graph D2e centered on the X axis and the rotation angle (low) centered on the Y axis. Angle) The display unit 14 may display all or part of the rotation angle (yaw angle) graph D2g about the graph D2f and the Z axis. This makes it possible to check the amount of rotation of the waist on which the measuring device 20 is attached.

また、上記のZ軸を中心とする回動角度(ヨー角)グラフD2gを加工することにより、図15に示すように、ランニング中の腰の位置を俯瞰した状態を表す運動解析結果D2hを表示部14に表示させるようにしてもよい。運動解析結果D2hでは、上側に示されている各線分Laが左足を、下側に示されている各線分Lbが右足を表しており、図中、左から右へランニングを行っていることを表している。さらに、この運動解析結果D2hと、上述したX軸(左右方向)の変位グラフD2bと、を組み合わせて表示部14に表示させるようにしてもよい。具体的には、X軸の変位グラフD2bが示すグラフの線上が、上記運動解析結果D2hの中心(線分Laと線分Lbとの中間点)となるようにして、両者を表示させるようにする。 Further, by processing the rotation angle (yaw angle) graph D2g about the Z axis, as shown in FIG. 15, the motion analysis result D2h showing a state in which the position of the waist during running is overlooked is displayed. It may be displayed on the unit 14. In the exercise analysis result D2h, each line segment La shown on the upper side represents the left foot, and each line segment Lb shown on the lower side represents the right foot, indicating that running is performed from left to right in the figure. Represents. Further, the motion analysis result D2h and the displacement graph D2b on the X-axis (left-right direction) described above may be combined and displayed on the display unit 14. Specifically, the line of the graph shown by the displacement graph D2b of the X-axis is set to be the center of the motion analysis result D2h (the intermediate point between the line segment La and the line segment Lb) so that both are displayed. To do.

また、上記実施形態では、一の被測定者を対象として、合成画像D1と運動解析結果D2とを表示部14に表示させるようにしたが、これに限定されるものではない。例えば、図16に示すように、二人の被測定者(A氏とB氏)をそれぞれ対象として、A氏の合成画像D1aとB氏の合成画像D1b、並びに、A氏の運動解析結果D2iとB氏の運動解析結果D2jをそれぞれ表示部14に表示させるようにしてもよい。この場合、他人の合成画像と自分の合成画像を見比べることができるとともに、他人の運動解析結果と自分の運動解析結果を見比べることができるようになるので、他人のランニング動作と比べて、どこが良くてどこが悪いのかを理解し易くなる。 Further, in the above embodiment, the composite image D1 and the motion analysis result D2 are displayed on the display unit 14 for one person to be measured, but the present invention is not limited to this. For example, as shown in FIG. 16, for two subjects (Mr. A and Mr. B), a composite image D1a of Mr. A, a composite image D1b of Mr. B, and a motion analysis result D2i of Mr. A, respectively. And Mr. B's motion analysis result D2j may be displayed on the display unit 14, respectively. In this case, you can compare the composite image of another person with your own composite image, and you can also compare the exercise analysis result of another person with your own exercise analysis result. It makes it easier to understand what is wrong.

また、上記実施形態では、上記合成ベクトルを描いた運動解析結果D2aに加えて、例えば、図17に示すように、横軸を速度とし、縦軸を最大加速度発生時間と最下時との時間差とするグラフを表示部14に表示させるようにしてもよい。なお、横軸及び縦軸に設定される指標は、これらに限定されるものではなく、当該運動解析結果D2aに関する各指標(最大加速度、最大加速度角、最大加速度発生時間等;図10(a)参照)を任意に設定することができる。 Further, in the above embodiment, in addition to the motion analysis result D2a on which the composite vector is drawn, for example, as shown in FIG. 17, the horizontal axis is the velocity and the vertical axis is the time difference between the maximum acceleration generation time and the lowest time. The graph to be used may be displayed on the display unit 14. The indexes set on the horizontal axis and the vertical axis are not limited to these, and each index related to the motion analysis result D2a (maximum acceleration, maximum acceleration angle, maximum acceleration generation time, etc.; FIG. 10A). (See) can be set arbitrarily.

また、上記実施形態では、動画像を構成する複数のフレーム画像に基づき合成画像を生成するようにしたが、これに限定されるものではない。例えば、一定時間の間隔で高速連写された複数の画像に基づき合成画像を生成するようにしてもよい。 Further, in the above embodiment, the composite image is generated based on a plurality of frame images constituting the moving image, but the present invention is not limited to this. For example, a composite image may be generated based on a plurality of images continuously shot at high speed at regular time intervals.

また、上記実施形態では、表示部14の上段に表示される合成画像D1は、下段に表示される運動解析結果D2の一部を切り出した期間、即ち、合成画像D1の横幅に対応する時間は、運動解析結果D2の横幅に対応する時間の一部を切り出した時間であるが、合成画像D1の横幅に対応する時間と、下段に表示される運動解析結果D2の横幅に対応する時間を一致させて表示部14に表示させるようにしてもよい。この場合、運動解析結果D2における指定された時間(経過時間)を示す固定カーソルCの位置に対応する合成画像D1の位置がそのまま指定された時間(経過時間)における被写体の位置となり、上記実施形態のように、合成画像D1の横軸の中心位置に指定された時間(経過時間)に対応する被写体を配置する処理を省くことができる。 Further, in the above embodiment, the composite image D1 displayed in the upper part of the display unit 14 has a period in which a part of the motion analysis result D2 displayed in the lower part is cut out, that is, a time corresponding to the width of the composite image D1. , It is the time obtained by cutting out a part of the time corresponding to the width of the motion analysis result D2, but the time corresponding to the width of the composite image D1 and the time corresponding to the width of the motion analysis result D2 displayed in the lower row match. It may be displayed on the display unit 14. In this case, the position of the composite image D1 corresponding to the position of the fixed cursor C indicating the designated time (elapsed time) in the motion analysis result D2 becomes the position of the subject in the designated time (elapsed time) as it is, and the above-described embodiment. As described above, it is possible to omit the process of arranging the subject corresponding to the designated time (elapsed time) at the center position of the horizontal axis of the composite image D1.

[実施形態2]
続いて、実施形態2について説明する。なお、上記実施形態1と同様の構成要素には同一の符号を付し、その説明を省略する。
実施形態2の運動評価装置10は、測定装置20から取得したモーションデータそのものを表示する点、及び、被測定者の移動を伴わない運動動作を対象とし、当該運動動作に係る画像データを合成して表示する点で、上記実施形態1と異なっている。
[Embodiment 2]
Subsequently, the second embodiment will be described. The same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
The motion evaluation device 10 of the second embodiment targets a point of displaying the motion data itself acquired from the measuring device 20 and a motion motion that does not involve the movement of the person to be measured, and synthesizes image data related to the motion motion. It is different from the above-described first embodiment in that it is displayed.

以下、実施形態2の運動評価装置10について、図18及び図19を用いて説明する。図18は、実施形態2の運動評価装置10で実行される運動評価処理を示すフローチャートである。図19は、一連のゴルフスイング動作を対象として運動評価処理を実行した際の運動評価装置10の表示部14に表示される表示画面の一例を示す図である。 Hereinafter, the motion evaluation device 10 of the second embodiment will be described with reference to FIGS. 18 and 19. FIG. 18 is a flowchart showing the motion evaluation process executed by the motion evaluation device 10 of the second embodiment. FIG. 19 is a diagram showing an example of a display screen displayed on the display unit 14 of the motion evaluation device 10 when the motion evaluation process is executed for a series of golf swing motions.

先ず、CPU11は、ユーザによる操作部12の操作によって指定された所望のモーションデータ(Z軸を中心とする角速度データ)を記憶部15から読み出すとともに、当該モーションデータを採取している間に撮影された一連のゴルフスイング動作に係る動画像の画像データを記憶部15から読み出す(ステップS201)。 First, the CPU 11 reads out desired motion data (angular velocity data centered on the Z axis) specified by the operation of the operation unit 12 by the user from the storage unit 15, and is photographed while collecting the motion data. The image data of the moving image related to the series of golf swing operations is read from the storage unit 15 (step S201).

次いで、CPU11は、図19に示すように、読み出されたモーションデータD21を表示部14の下段に表示させる(ステップS202)。そして、CPU11は、モーションデータD21における時間(経過時間)の指定操作がなされたか否かを判定する(ステップS203)。ここで、モーションデータD21における時間の指定操作については、図19(a),(b)に示すように、表示部14の中段に表示されているカーソルCの位置が所望の時間(経過時間)の位置と合わさるように、ユーザによる操作部12の操作によってスライド表示させることによって、当該所望の時間の指定操作を行う。 Next, as shown in FIG. 19, the CPU 11 displays the read motion data D21 in the lower part of the display unit 14 (step S202). Then, the CPU 11 determines whether or not the time (elapsed time) designation operation in the motion data D21 has been performed (step S203). Here, regarding the time designation operation in the motion data D21, as shown in FIGS. 19A and 19B, the position of the cursor C displayed in the middle of the display unit 14 is the desired time (elapsed time). By operating the operation unit 12 by the user to display a slide so as to match the position of, the operation of designating the desired time is performed.

ステップS203において、モーションデータD21における時間(経過時間)の指定操作がなされたと判定された場合(ステップS203;YES)、CPU11は、指定操作がなされた時間に対応するフレーム画像以外のフレーム画像の被写体の透過度を上げた状態で生成した合成画像(多重露光状の合成画像)D11を、表示部14の上段に表示させる(ステップS204)。具体的には、例えば、一連のゴルフスイング動作のうちのアドレス時に対応する時間の指定操作がなされた場合、図19(a)に示すように、表示部14の上段には、アドレス時の被写体の透過度を「0」とし、それ以外の被写体の透過度を上げた状態で生成した合成画像D11を表示部14の上段に表示させる。なお、図中では、アドレス時の被写体を実線で表すとともに、それ以外の被写体を破線で表している。また、例えば、一連のゴルフスイング動作のうちのトップ時に対応する時間の指定操作がなされた場合、図19(b)に示すように、表示部14の上段には、トップ時の被写体の透過度を「0」とし、それ以外の被写体の透過度を上げた状態で生成した合成画像D11を表示部14の上段に表示させる。なお、図中では、トップ時の被写体を実線で表すとともに、それ以外の被写体を破線で表している。
また、ステップS203において、モーションデータD21における時間(経過時間)の指定操作がなされていないと判定された場合(ステップS203;NO)、ステップS204をスキップして、ステップS205へ移行する。この場合、時間(経過時間)はデフォルト値、例えば、0.0[s]を設定し、0.0[s]に対応するフレーム画像の被写体の透過度を「0」とし、それ以外の被写体の透過度を上げた状態で生成した合成画像D11を表示部14の上段に表示させればよい。
In step S203, when it is determined that the time (elapsed time) designation operation in the motion data D21 has been performed (step S203; YES), the CPU 11 is the subject of the frame image other than the frame image corresponding to the time in which the designation operation is performed. The composite image (multiple-exposure-like composite image) D11 generated in a state where the transmittance of the above is increased is displayed on the upper stage of the display unit 14 (step S204). Specifically, for example, when a time designation operation corresponding to an address is performed in a series of golf swing operations, as shown in FIG. 19A, the subject at the time of address is displayed on the upper part of the display unit 14. The transmittance of the composite image D11 is set to "0", and the composite image D11 generated in a state where the transmittance of other subjects is increased is displayed on the upper stage of the display unit 14. In the figure, the subject at the time of address is represented by a solid line, and the other subjects are represented by a broken line. Further, for example, when a time designation operation corresponding to the top time is performed in a series of golf swing movements, as shown in FIG. 19B, the transparency of the subject at the top time is displayed on the upper part of the display unit 14. Is set to “0”, and the composite image D11 generated in a state where the transparency of other subjects is increased is displayed on the upper stage of the display unit 14. In the figure, the subject at the top is represented by a solid line, and the other subjects are represented by a broken line.
If it is determined in step S203 that the time (elapsed time) designation operation in the motion data D21 has not been performed (step S203; NO), step S204 is skipped and the process proceeds to step S205. In this case, the time (elapsed time) is set to a default value, for example, 0.0 [s], the transparency of the subject of the frame image corresponding to 0.0 [s] is set to "0", and other subjects. The composite image D11 generated in a state where the transparency of the above is increased may be displayed on the upper stage of the display unit 14.

次いで、CPU11は、ユーザによる操作部12の操作により、運動評価処理の終了操作がなされたか否かを判定する(ステップS205)。
ステップS205において、運動評価処理の終了操作がなされていないと判定された場合(ステップS205;NO)、ステップS203へ移行する。
一方、ステップS205において、運動評価処理の終了操作がなされたと判定された場合(ステップS205;YES)、運動評価処理を終了する。
Next, the CPU 11 determines whether or not the end operation of the motion evaluation process has been performed by the operation of the operation unit 12 by the user (step S205).
If it is determined in step S205 that the operation to end the exercise evaluation process has not been performed (step S205; NO), the process proceeds to step S203.
On the other hand, in step S205, when it is determined that the operation to end the exercise evaluation process has been performed (step S205; YES), the exercise evaluation process is terminated.

以上のように、本実施形態によれば、運動評価装置10は、一連のゴルフスイング動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて被写体の動作の変化が識別可能な合成画像を生成したこととなる。また、運動評価装置10は、被写体に装着されたモーションセンサから出力される、一連のゴルフスイング動作に対応するモーションデータを取得したこととなる。また、運動評価装置10は、合成画像の生成に用いられている複数の画像の時系列とモーションデータの時系列とを対応付けた状態で、合成画像とモーションデータとを表示部14に表示させたこととなる。 As described above, according to the present embodiment, the motion evaluation device 10 can identify a change in the motion of the subject according to a time series from a plurality of images in which the subject during a series of golf swing motions is continuously captured. This means that a composite image has been generated. In addition, the motion evaluation device 10 has acquired motion data corresponding to a series of golf swing motions output from a motion sensor mounted on the subject. Further, the motion evaluation device 10 causes the display unit 14 to display the composite image and the motion data in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data are associated with each other. It means that.

このため、ユーザは、一連のゴルフスイング動作を示す合成画像D11と、当該一連のゴルフスイング動作に対応するモーションデータD21と、を見比べることができるようになるので、モーションデータD21の持つ意味を理解し易くなる。 Therefore, the user can compare the composite image D11 showing a series of golf swing motions with the motion data D21 corresponding to the series of golf swing motions, and thus understands the meaning of the motion data D21. It becomes easier to do.

また、運動評価装置10は、所定期間(アドレス時からフィニッシュ時)の間のモーションデータD21を表示部14に表示させる際に、当該所定期間の間に撮像された合成画像D11の生成に用いられる複数の画像の時系列と、当該モーションデータD21の時系列とを対応付けた状態で、合成画像D11とモーションデータD21とを表示部14に表示させたこととなる。このため、ユーザ所望の所定期間の間の合成画像D11とモーションデータD21とを逐一一致させた状態で表示部14に表示させることができる。この結果、一連のゴルフスイング動作を示す合成画像D11と、当該一連のゴルフスイング動作に対応するモーションデータD21と、を見比べ易くすることができるので、モーションデータD21の持つ意味をより理解し易くなる。 Further, the motion evaluation device 10 is used to generate a composite image D11 captured during the predetermined period when displaying the motion data D21 during the predetermined period (from the address time to the finish time) on the display unit 14. The composite image D11 and the motion data D21 are displayed on the display unit 14 in a state where the time series of the plurality of images and the time series of the motion data D21 are associated with each other. Therefore, the composite image D11 and the motion data D21 for a predetermined period desired by the user can be displayed on the display unit 14 in a state of being matched one by one. As a result, the composite image D11 showing a series of golf swing motions and the motion data D21 corresponding to the series of golf swing motions can be easily compared, so that the meaning of the motion data D21 can be more easily understood. ..

また、運動評価装置10は、表示部14に表示されたモーションデータD21の時系列における所望の時点を指定する第1の指定部(CPU11、操作部12)を備えたこととなる。また、運動評価装置10は、合成画像D11において、当該合成画像D11の生成に用いられている複数の画像のうち、第1の指定部(CPU11、操作部12)で指定された時点に対応する画像の被写体を、当該指定された時点以外の画像の被写体と区別した合成画像を生成したこととなる。このため、合成画像D11に用いられた複数の画像の各被写体が重なり合ってしまうような場合でも、第1の指定部(CPU11、操作部12)で指定された時点に対応する画像の被写体を目立たせることができる。この結果、一連のゴルフスイング動作を示す合成画像D11と、当該一連のゴルフスイング動作に対応するモーションデータD21と、を第1の指定部(CPU11、操作部12)で指定された時点において見比べることができるようになる。 Further, the motion evaluation device 10 includes a first designated unit (CPU 11, operation unit 12) for designating a desired time point in the time series of the motion data D21 displayed on the display unit 14. Further, the motion evaluation device 10 corresponds to a time point designated by the first designated unit (CPU 11, operation unit 12) among the plurality of images used in the generation of the composite image D11 in the composite image D11. This means that a composite image is generated that distinguishes the subject of the image from the subject of the image other than the specified time point. Therefore, even when the subjects of the plurality of images used for the composite image D11 overlap each other, the subject of the image corresponding to the time specified by the first designated unit (CPU 11, operation unit 12) is conspicuous. Can be made. As a result, the composite image D11 showing a series of golf swing motions and the motion data D21 corresponding to the series of golf swing motions are compared at the time designated by the first designated unit (CPU 11, operation unit 12). Will be able to.

以上、本発明の実施形態2について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。
例えば、本実施形態の運動評価処理に伴い表示部14の上段に表示させる合成画像は、図20に示すように、一連のゴルフスイング動作において、各フレーム画像の被写体を経時時間に沿って並べた合成画像12としてもよい。
Although the second embodiment of the present invention has been described above, it goes without saying that the present invention is not limited to such an embodiment and can be variously modified without departing from the gist thereof.
For example, in the composite image displayed on the upper stage of the display unit 14 in accordance with the motion evaluation process of the present embodiment, as shown in FIG. 20, the subjects of each frame image are arranged along the time in a series of golf swing operations. It may be a composite image 12.

また、実施形態2では、運動評価処理の対象として一連のゴルフスイング動作を一例に挙げたが、例えば、トレッドミルを用いたランニング動作や野球のバッティング動作など被写体の移動を伴わない運動動作を対象とすることができる。 Further, in the second embodiment, a series of golf swing motions is given as an example as a target of the motion evaluation process, but for example, a motion motion that does not involve movement of the subject such as a running motion using a treadmill or a baseball batting motion is targeted. Can be.

また、本実施形態の運動評価処理に伴い表示部14の上段に合成画像D11を表示させるとともに、下段にモーションデータD21を表示させるようにしたが、このモーションデータD21の代わりに又はこのモーションデータD21と一緒に、モーションデータD21に基づき解析がなされた運動解析の結果を表示させるようにしてもよい。
一方、上記実施形態1では、表示部14の上段に合成画像D1を表示させるとともに、下段に運動解析の結果D2を表示させるようにしたが、この運動解析の結果D2の代わりに又はこの運動解析の結果D2と一緒に、この運動解析の基となったモーションデータそのものを表示させるようにしてもよい。
Further, in accordance with the motion evaluation process of the present embodiment, the composite image D11 is displayed in the upper part of the display unit 14 and the motion data D21 is displayed in the lower part, but instead of the motion data D21 or this motion data D21. At the same time, the result of the motion analysis performed based on the motion data D21 may be displayed.
On the other hand, in the first embodiment, the composite image D1 is displayed in the upper part of the display unit 14, and the result D2 of the motion analysis is displayed in the lower part, but instead of the result D2 of this motion analysis or this motion analysis. As a result, the motion data itself, which is the basis of this motion analysis, may be displayed together with D2.

また、上記実施形態1及び2では、ユーザによる操作部2により固定カーソルCの位置を操作したが、開始時間から終了時間まで自動的に固定カーソルCの位置が動くようにしてもよい。 Further, in the above-described first and second embodiments, the position of the fixed cursor C is operated by the operation unit 2 by the user, but the position of the fixed cursor C may be automatically moved from the start time to the end time.

以上、本発明の実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲をその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, and the scope of the invention described in the claims includes the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.

〔付記〕
<請求項1>
動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて前記被写体の動作の変化が識別可能な合成画像を生成する生成部と、
当該被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部と、
表示部と、
前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる表示制御部と、
を備えることを特徴とする運動評価装置。
<請求項2>
前記表示制御部は、所定期間の間の前記モーションデータを前記表示部に表示させる際に、当該所定期間の間に撮像された前記合成画像の生成に用いられる前記複数の画像の時系列と、当該モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させることを特徴とする請求項1に記載の運動評価装置。
<請求項3>
前記生成部は、動作中の被写体を連続的に撮像した複数の画像から、前記複数の画像を経過時間に沿って並べた合成画像を生成し、
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる、
ことを特徴とする請求項1又は2に記載の運動評価装置。
<請求項4>
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを一致させて、前記合成画像と前記モーションデータとを前記表示部に表示させる、
ことを特徴とする請求項3に記載の運動評価装置。
<請求項5>
前記生成部は、動作中の被写体を連続的に撮像した複数の画像から、前記複数の画像を重ねた合成画像を生成し、
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記モーションデータ取得部により取得された前記モーションデータの時系列とを対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる、
ことを特徴とする請求項1又は2に記載の運動評価装置。
<請求項6>
前記表示部に表示された前記モーションデータの時系列における所望の時点を指定する第1の指定部を備え、
前記生成部は、前記第1の指定部により前記時点が指定された場合に、前記合成画像を、前記複数の画像における前記時点に対応する特定の画像を中心に配置した画像とすることを特徴とする請求項3に記載の運動評価装置。
<請求項7>
前記表示部に表示された前記モーションデータの時系列における所望の期間を指定する第2の指定部を備え、
前記生成部は、前記第2の指定部により前記期間が指定された場合に、前記複数の画像における前記期間に含まれる複数の前記画像に基づいて前記合成画像を生成することを特徴とする請求項3〜5のいずれか一項に記載の運動評価装置。
<請求項8>
前記表示部に表示された前記モーションデータの時系列における所望の時点を指定する第1の指定部を備え、
前記生成部は、前記合成画像において、当該合成画像の生成に用いられている前記複数の画像のうち、前記第1の指定部で指定された時点に対応する画像の被写体を、当該指定された時点以外の画像の被写体と区別した合成画像を生成することを特徴とする請求項1〜5、7のいずれか一項に記載の運動評価装置。
<請求項9>
前記生成部は、前記合成画像において、当該合成画像の生成に用いられている前記複数の画像のうち、前記第1の指定部で指定された時点に対応する画像の被写体を、当該指定された時点以外の画像の被写体と区別した合成画像を生成することを特徴とする請求項6に記載の運動評価装置。
<請求項10>
前記表示制御部は、複数の被写体の各々に対応する複数の前記合成画像と複数の前記モーションデータとを前記表示部に表示させることを特徴とする請求項1〜9のいずれか一項に記載の運動評価装置。
<請求項11>
前記モーションデータに基づく運動解析を行う運動解析部を備え、
前記表示制御部は、前記合成画像の生成に用いられている前記複数の画像の時系列と前記運動解析部による前記運動解析の結果の時系列とを対応付けた状態で、前記合成画像と前記運動解析の結果とを前記表示部に表示させることを特徴とする請求項1〜10のいずれか一項に記載の運動評価装置。
<請求項12>
前記モーションデータは複数の軸方向の加速度データを含み、
前記運動解析の結果は、前記複数の軸方向の加速度データに基づく前記複数の軸の加速度ベクトルの和である合成ベクトルを、前記モーションデータのサンプル周期ごとに示した図が含まれていることを特徴とする請求項11に記載の運動評価装置。
<請求項13>
前記モーションデータは複数の軸方向の加速度データを含み、
前記運動解析情報には、前記被写体の前記複数の軸の少なくとも何れかにおける変位を前記モーションデータのサンプル周期ごとに示した図が含まれていることを特徴とする請求項11又は12に記載の運動評価装置。
<請求項14>
前記モーションデータは複数の軸方向を中心とする角速度データを含み、
前記運動解析情報には、前記被写体の前記複数の軸の少なくとも何れかにおける回動角度を前記モーションデータのサンプル周期ごとに示した図が含まれていることを特徴とする請求項11〜13のいずれか一項に記載の運動評価装置。
<請求項15>
表示部を備えた運動評価装置の運動評価方法であって、
動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて前記被写体の動作の変化が識別可能な合成画像を生成し、
当該被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得し、
前記合成画像の生成に用いられている前記複数の画像の時系列と、前記モーションデータの時系列と、を対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させることを特徴とする運動評価方法。
<請求項16>
表示部を備えた運動評価装置のコンピュータに、
動作中の被写体を連続的に撮像した複数の画像から、時系列に応じて前記被写体の動作の変化が識別可能な合成画像生成処理、
当該被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得処理、
前記合成画像の生成に用いられている前記複数の画像の時系列と、前記モーションデータの時系列と、を対応付けた状態で、前記合成画像と前記モーションデータとを前記表示部に表示させる表示処理、
を実行させる運動評価プログラム。
[Additional Notes]
<Claim 1>
A generation unit that generates a composite image in which changes in the movement of the subject can be identified according to a time series from a plurality of images in which a moving subject is continuously captured.
A motion data acquisition unit that acquires motion data corresponding to the movement of the subject, which is output from a motion sensor mounted on the subject, and a motion data acquisition unit.
Display and
The composite image and the motion data are combined with each other in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data acquired by the motion data acquisition unit are associated with each other. A display control unit to be displayed on the display unit and
An exercise evaluation device characterized by being equipped with.
<Claim 2>
When displaying the motion data during a predetermined period on the display unit, the display control unit includes a time series of the plurality of images used for generating the composite image captured during the predetermined period. The motion evaluation device according to claim 1, wherein the composite image and the motion data are displayed on the display unit in a state in which the time series of the motion data is associated with each other.
<Claim 3>
The generation unit generates a composite image in which the plurality of images are arranged according to the elapsed time from a plurality of images in which a moving subject is continuously captured.
The display control unit is in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data acquired by the motion data acquisition unit are associated with each other, and the composite image is displayed. And the motion data are displayed on the display unit.
The exercise evaluation device according to claim 1 or 2.
<Claim 4>
The display control unit matches the time series of the plurality of images used for generating the composite image with the time series of the motion data acquired by the motion data acquisition unit, and the composite image and the said Displaying motion data on the display unit,
The exercise evaluation device according to claim 3, wherein the motion evaluation device is characterized in that.
<Claim 5>
The generation unit generates a composite image in which the plurality of images are superimposed from a plurality of images in which a moving subject is continuously captured.
The display control unit is in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data acquired by the motion data acquisition unit are associated with each other, and the composite image is displayed. And the motion data are displayed on the display unit.
The exercise evaluation device according to claim 1 or 2.
<Claim 6>
A first designation unit for designating a desired time point in the time series of the motion data displayed on the display unit is provided.
The generation unit is characterized in that, when the time point is designated by the first designated part, the composite image is an image in which a specific image corresponding to the time point in the plurality of images is arranged at the center. The exercise evaluation device according to claim 3.
<Claim 7>
A second designation unit for designating a desired period in the time series of the motion data displayed on the display unit is provided.
The claim is characterized in that, when the period is designated by the second designated unit, the generation unit generates the composite image based on the plurality of images included in the period in the plurality of images. Item 6. The exercise evaluation device according to any one of Items 3 to 5.
<Claim 8>
A first designation unit for designating a desired time point in the time series of the motion data displayed on the display unit is provided.
In the composite image, the generation unit designated the subject of the image corresponding to the time point designated by the first designation unit among the plurality of images used for generating the composite image. The motion evaluation device according to any one of claims 1 to 5, 7, wherein a composite image is generated that distinguishes the subject from an image other than the time point.
<Claim 9>
In the composite image, the generation unit designated the subject of the image corresponding to the time point designated by the first designation unit among the plurality of images used for generating the composite image. The motion evaluation device according to claim 6, wherein a composite image is generated that distinguishes the subject from an image other than the time point.
<Claim 10>
The invention according to any one of claims 1 to 9, wherein the display control unit displays a plurality of the composite images and a plurality of the motion data corresponding to each of the plurality of subjects on the display unit. Exercise evaluation device.
<Claim 11>
It is equipped with a motion analysis unit that performs motion analysis based on the motion data.
The display control unit correlates the time series of the plurality of images used for generating the composite image with the time series of the result of the motion analysis by the motion analysis unit, and the composite image and the said. The motion evaluation device according to any one of claims 1 to 10, wherein the result of motion analysis is displayed on the display unit.
<Claim 12>
The motion data includes a plurality of axial acceleration data.
The result of the motion analysis includes a diagram showing a composite vector which is a sum of acceleration vectors of the plurality of axes based on the acceleration data in the plurality of axial directions for each sample period of the motion data. The exercise evaluation device according to claim 11, wherein the motion evaluation device is characterized.
<Claim 13>
The motion data includes a plurality of axial acceleration data.
The 11 or 12 claim, wherein the motion analysis information includes a diagram showing the displacement of the subject in at least one of the plurality of axes for each sample period of the motion data. Exercise evaluation device.
<Claim 14>
The motion data includes angular velocity data centered on a plurality of axial directions.
The motion analysis information according to claim 11 to 13, wherein the motion analysis information includes a diagram showing the rotation angle of the subject in at least one of the plurality of axes for each sample period of the motion data. The exercise evaluation device according to any one item.
<Claim 15>
It is a motion evaluation method of a motion evaluation device equipped with a display unit.
From a plurality of images in which a moving subject is continuously captured, a composite image in which changes in the movement of the subject can be identified according to a time series is generated.
The motion data corresponding to the movement of the subject, which is output from the motion sensor attached to the subject, is acquired, and the motion data is acquired.
Displaying the composite image and the motion data on the display unit in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data are associated with each other. An exercise evaluation method characterized by.
<Claim 16>
On the computer of the exercise evaluation device equipped with a display unit,
A composite image generation process that can identify changes in the movement of the subject in chronological order from a plurality of images in which a moving subject is continuously captured.
Motion data acquisition processing that acquires motion data corresponding to the movement of the subject, which is output from the motion sensor attached to the subject.
A display in which the composite image and the motion data are displayed on the display unit in a state in which the time series of the plurality of images used for generating the composite image and the time series of the motion data are associated with each other. processing,
Exercise evaluation program to execute.

1 運動評価システム
10 運動評価装置
11 CPU
12 操作部
13 RAM
14 表示部
15 記憶部
16 通信部
20 測定装置
30 撮像装置
1 Motion evaluation system 10 Motion evaluation device 11 CPU
12 Operation unit 13 RAM
14 Display unit 15 Storage unit 16 Communication unit 20 Measuring device 30 Imaging device

Claims (7)

動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成部と、
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得部と、
前記モーションデータ取得部に取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成部に生成された前記合成画像とを表示部に表示させる表示制御部と、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得部と、を備え、
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする運動評価装置。
A generator that extracts the subject portion from each of a plurality of images that continuously capture a moving subject and generates a composite image in which each of the plurality of extracted images that are the extracted images is superimposed.
The output from the motion sensor mounted on the object, and motion data obtaining unit for obtaining motion data corresponding to the operation of the subject,
A display unit displays a time series of the motion data acquired by the motion data acquisition unit and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated by the generation unit. Display control unit to be displayed on
A designated time acquisition unit for acquiring a time specified by the user in the time series of the motion data displayed on the display unit is provided.
The display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
An exercise evaluation device characterized by this.
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像の表示態様と、前記指定された時間以外に対応する前記抽出画像の表示態様を区別して表示させる、ことを特徴とする請求項1に記載の運動評価装置。 In the composite image displayed on the display unit, the display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image. The motion evaluation device according to claim 1, wherein the display mode of the extracted image and the display mode of the extracted image corresponding to a time other than the specified time are displayed separately. 前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像の透過度と、前記指定された時間以外に対応する前記抽出画像の透過度を区別して表示させる、
ことを特徴とする請求項1又は2に記載の運動評価装置。
In the composite image displayed on the display unit, the display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image. The transparency of the extracted image and the transparency of the extracted image corresponding to a time other than the specified time are displayed separately.
The exercise evaluation device according to claim 1 or 2.
前記モーションデータは複数の軸方向を中心とする角速度データを含み、The motion data includes angular velocity data centered on a plurality of axial directions.
前記モーションデータ及び前記複数の画像は、前記被写体の動作における一連の動作を対象としたものである、The motion data and the plurality of images are intended for a series of movements in the movement of the subject.
ことを特徴とする請求項1から3のいずれか一項に記載の運動評価装置。The motion evaluation device according to any one of claims 1 to 3, wherein the motion evaluation device is characterized by the above.
前記生成部は、前記複数の抽出画像に含まれる前記被写体の位置を揃えて前記合成画像を生成する、The generation unit aligns the positions of the subjects included in the plurality of extracted images to generate the composite image.
ことを特徴とする請求項1から4のいずれか一項に記載の運動評価装置。The motion evaluation device according to any one of claims 1 to 4, wherein the motion evaluation device is characterized by the above.
運動評価装置の運動評価方法であって、
動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成ステップと
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得ステップと
前記モーションデータ取得ステップに取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成ステップに生成された前記合成画像とを表示部に表示させる表示制御ステップと、
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得ステップと、を含み、
前記表示制御ステップは、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得ステップに取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする運動評価方法。
It is a motion evaluation method of the motion evaluation device.
A generation step of extracting the subject portion from each of a plurality of images in which a moving subject is continuously captured and generating a composite image by superimposing each of the plurality of extracted images which are the extracted images .
The output from the motion sensor mounted on the object, and motion data obtaining step of obtaining motion data corresponding to the operation of the subject,
The display unit displays the time series of the motion data acquired in the motion data acquisition step and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated in the generation step. Display control steps to be displayed on
Including a designated time acquisition step of acquiring a time specified by the user in the time series of the motion data displayed on the display unit.
The display control step corresponds to the designated time acquired in the designated time acquisition step among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
An exercise evaluation method characterized by this.
運動評価装置のコンピュータに、
動作中の被写体を連続的に撮像した複数の画像それぞれから、前記被写体部分を抽出し、前記抽出された画像である複数の抽出画像それぞれを重ね合わせた合成画像を生成する生成
前記被写体に装着されたモーションセンサから出力される、前記被写体の動作に対応するモーションデータを取得するモーションデータ取得
前記モーションデータ取得部に取得され、前記合成画像の基となる前記複数の画像が撮像されたタイミングに対応する前記モーションデータの時系列と、前記生成部に生成された前記合成画像とを表示部に表示させる表示制御
前記表示部に表示された前記モーションデータの時系列における、ユーザによって指定された時間を取得する指定時間取得部、として機能させ、
前記表示制御部は、前記表示部に表示された前記合成画像において、前記合成画像を構成する前記複数の抽出画像のうち、前記指定時間取得部に取得された前記指定された時間に対応する前記抽出画像と、前記指定された時間以外に対応する前記抽出画像を区別して表示させる、
ことを特徴とする運動評価プログラム。
On the computer of the exercise evaluation device,
Subject in operation to a plurality of images captured continuously, extracts the object portion, and generates a composite image by superimposing the plurality of extracted images are the extracted image generating unit,
Motion data obtaining unit for obtaining motion data corresponding to the output from the motion sensor attached to an object, the operation of the subject,
A display unit displays a time series of the motion data acquired by the motion data acquisition unit and corresponding to the timing at which the plurality of images on which the composite image is based are captured, and the composite image generated by the generation unit. Display control unit to display on
It functions as a designated time acquisition unit that acquires a time specified by the user in the time series of the motion data displayed on the display unit.
The display control unit corresponds to the designated time acquired by the designated time acquisition unit among the plurality of extracted images constituting the composite image in the composite image displayed on the display unit. The extracted image and the extracted image corresponding to a time other than the specified time are displayed separately.
An exercise evaluation program characterized by this.
JP2017018198A 2016-06-29 2017-02-03 Exercise evaluation device, exercise evaluation method and exercise evaluation program Active JP6862875B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710285187.8A CN107545229A (en) 2016-06-29 2017-04-26 Motion evaluation device, Motion evaluation method and recording medium
US15/499,329 US20180007277A1 (en) 2016-06-29 2017-04-27 Exercise evaluating apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016128342 2016-06-29
JP2016128342 2016-06-29

Publications (3)

Publication Number Publication Date
JP2018008015A JP2018008015A (en) 2018-01-18
JP2018008015A5 JP2018008015A5 (en) 2020-02-06
JP6862875B2 true JP6862875B2 (en) 2021-04-21

Family

ID=60994578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017018198A Active JP6862875B2 (en) 2016-06-29 2017-02-03 Exercise evaluation device, exercise evaluation method and exercise evaluation program

Country Status (1)

Country Link
JP (1) JP6862875B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7056249B2 (en) * 2018-03-09 2022-04-19 カシオ計算機株式会社 Exercise data processing device, exercise data processing method and exercise data processing program
JP6919670B2 (en) * 2019-03-25 2021-08-18 カシオ計算機株式会社 Running analysis device, running analysis method and running analysis program
JP7143872B2 (en) * 2020-08-14 2022-09-29 カシオ計算機株式会社 Information processing device, running index derivation method and program
JPWO2022049700A1 (en) * 2020-09-03 2022-03-10
WO2023158155A1 (en) * 2022-02-15 2023-08-24 삼성전자 주식회사 Electronic device for detecting designated movement and method therefor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006081395A2 (en) * 2005-01-26 2006-08-03 Bentley Kinetics, Inc. Method and system for athletic motion analysis and instruction
JP4863365B2 (en) * 2006-05-31 2012-01-25 アニマ株式会社 Motion analysis system, motion analysis device, and program
JP5309655B2 (en) * 2008-03-31 2013-10-09 ヤマハ株式会社 Signal processing device
JP5407658B2 (en) * 2008-09-02 2014-02-05 横浜ゴム株式会社 Golf club selection method and golf club selection system
JP2011125417A (en) * 2009-12-16 2011-06-30 Sony Corp Image processor, image processing method, and program
US8460001B1 (en) * 2011-04-14 2013-06-11 Thomas C. Chuang Athletic performance monitoring with overstride detection
JP6074970B2 (en) * 2012-09-20 2017-02-08 カシオ計算機株式会社 REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
JP2015116288A (en) * 2013-12-18 2015-06-25 カシオ計算機株式会社 Exercise information display system, exercise information display method, and exercise information display program
JP6332830B2 (en) * 2013-12-24 2018-05-30 カシオ計算機株式会社 Exercise support system, exercise support method, and exercise support program

Also Published As

Publication number Publication date
JP2018008015A (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6862875B2 (en) Exercise evaluation device, exercise evaluation method and exercise evaluation program
US20180007277A1 (en) Exercise evaluating apparatus
JP6598617B2 (en) Information processing apparatus, information processing method, and program
JP5761506B2 (en) Swing analysis apparatus, swing analysis system, swing analysis method, swing analysis program, and recording medium
KR101514169B1 (en) Information processing device, information processing method, and recording medium
CN105849673A (en) Human-to-computer natural three-dimensional hand gesture based navigation method
KR101872907B1 (en) Motion analysis appratus and method using dual smart band
KR20140002007A (en) Information processing device, information processing method, and recording medium
JP5613741B2 (en) Image processing apparatus, method, and program
US9836130B2 (en) Operation input device, operation input method, and program
KR20160046495A (en) Method and device to display screen in response to event related to external obejct
JP5977808B2 (en) Provide clues to the last known browsing location using biometric data about movement
JP5915112B2 (en) Status detection device, electronic device, and program
US20160131905A1 (en) Electronic apparatus, method and storage medium
JP2011008601A (en) Information processor and information processing method
CN105242888B (en) A kind of system control method and electronic equipment
US10783376B2 (en) Information processing apparatus
JP6197702B2 (en) Input method, program, and input device
JP2021107016A (en) Analysis device, analysis method, and program
CN110520822B (en) Control device, information processing system, control method, and program
CN111402287A (en) System and method for standardized assessment of activity sequences
JP2017191426A (en) Input device, input control method, computer program, and storage medium
JP5876121B2 (en) Image processing apparatus, method, and program
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP2006059147A (en) Computer input method and device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6862875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150