JP7482471B2 - 学習モデルの生成方法 - Google Patents
学習モデルの生成方法 Download PDFInfo
- Publication number
- JP7482471B2 JP7482471B2 JP2019231158A JP2019231158A JP7482471B2 JP 7482471 B2 JP7482471 B2 JP 7482471B2 JP 2019231158 A JP2019231158 A JP 2019231158A JP 2019231158 A JP2019231158 A JP 2019231158A JP 7482471 B2 JP7482471 B2 JP 7482471B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- data
- depth
- neural network
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 183
- 238000000034 method Methods 0.000 claims description 65
- 238000013528 artificial neural network Methods 0.000 claims description 64
- 238000004458 analytical method Methods 0.000 claims description 56
- 210000000988 bone and bone Anatomy 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 19
- 238000009795 derivation Methods 0.000 claims description 11
- 230000037237 body shape Effects 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 claims 7
- 210000001624 hip Anatomy 0.000 description 37
- 238000004891 communication Methods 0.000 description 14
- 230000005484 gravity Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 210000001503 joint Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
(1)前記物体の骨格を表すボーンデータを取得すること
(2)前記ボーンデータに基づいて、前記物体の体型を表す三次元コンピュータ・グラフィックス(CG)データを作成すること
(3)前記三次元CGデータに基づいて、前記物体の多数の深度画像を作成すること
(4)前記多数の深度画像にそれぞれ対応する、前記物体における1又は複数の所定の部位の動作を表す多数の動作値を取得すること
(5)前記三次元CGデータに基づく前記深度画像及びこれに対応する前記動作値の多数のデータセットを教師データとして、距離画像センサにより撮影される前記物体の深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習させること
(6)前記距離画像センサにより撮影された前記物体の多数の深度画像を取得すること
(7)前記距離画像センサにより撮影された前記多数の深度画像にそれぞれ対応する、多数の前記動作値を取得すること
(8)前記三次元CGデータに基づく前記深度画像及びこれに対応する前記動作値の前記多数のデータセットを教師データとして、前記ニューラルネットワークを学習させた後に、前記距離画像センサにより撮影された前記深度画像及びこれに対応する前記動作値の多数のデータセットを教師データとして、前記ニューラルネットワークを学習させること
(2-1)前記物体の動作を距離画像センサにより撮影した深度画像を取得すること
(2-2)前記取得された深度画像を、第1観点から第7観点のいずれかに係る生成方法を用いて生成された前記ニューラルネットワークに入力することにより、前記動作値を導出すること
図1及び図2に、本実施形態に係る動作解析装置であるコンピュータ1を含む動作解析システム100の全体構成図を示す。動作解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作を深度画像として撮影し、当該深度画像に基づいてスイング動作を解析するためのシステムである。以上の撮影は、距離画像センサ2により行われる。コンピュータ1は、距離画像センサ2とともに動作解析システム100を構成し、距離画像センサ2により取得される深度画像を解析することにより、スイング動作を解析する。コンピュータ1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
<2-1.距離画像センサ>
距離画像センサ2は、測距機能を有するカメラであり、ゴルフクラブ5を試打するゴルファー7までの距離を測定する。従って、距離画像センサ2は、深度画像を出力することができる。深度画像とは、カメラの光軸方向の被写体の奥行きのデータ(深度データ)を、カメラの光軸に直交する撮像範囲内の画素に割り当てた画像である。
図2を参照しつつ、コンピュータ1の構成について説明する。コンピュータ1は、ハードウェアとしては汎用のコンピュータであり、例えば、デスクトップ型コンピュータ、ラップトップ型コンピュータ、タブレットコンピュータ、スマートフォンとして実現される。コンピュータ1は、CD-ROM、USBメモリ等のコンピュータで読み取り可能な記録媒体から、或いはインターネット等のネットワークを介して、プログラム6を汎用のコンピュータにインストールすることにより製造される。プログラム6は、距離画像センサ2から送られてくる画像データに基づいてゴルフスイングを解析するためのソフトウェアであり、コンピュータ1に後述する動作を実行させる。また、プログラム6には、コンピュータ1に後述する学習処理を実行させるためのプログラムモジュールも含まれる。
本実施形態では、学習過程で使用される教師データを作成するために、モーションキャプチャシステム3が使用される。モーションキャプチャシステム3は、学習過程でのみ使用される。モーションキャプチャシステム3は、複数台のカメラ31,31,・・・を備える。複数台のカメラ31,31,・・・は、ゴルファー7によるスイング動作の三次元計測が可能なように、ゴルファー7がゴルフクラブ5をスイングする様子を様々な方向から撮影することができる位置に配置される。モーションキャプチャシステム3としては、例えば、VICON社製の三次元動作分析システムを好ましく使用することができる。
本実施形態では、学習過程で使用される教師データを作成するために、モーションキャプチャシステム3の他、角速度センサ4も使用される。角速度センサ4も、学習過程でのみ使用される。詳細は後述するが、本実施形態では、動作解析処理において、スイング動作中のゴルファー7の腰の回転動作が解析される。そのため、角速度センサ4は、ゴルファー7の腰に取り付けられ、腰の回転角度の真値を表す教師信号として、角速度データを計測する。角速度センサ4は、三軸角速度センサであり、ここでの角速度データには、三次元直交座標系における角速度の値が含まれる。
図4は、ニューラルネットワーク8のモデル構成を示す。ニューラルネットワーク8は、上述したとおり、深度画像を入力とし、スイング動作を表す動作値W1を出力とするネットワークである。本実施形態では、ニューラルネットワーク8により、スイング動作中のゴルファー7の腰の回転動作が解析され、より具体的には、腰の回転角度が動作値W1として定量的に導出される。
以下、図5を参照しつつ、ゴルフスイングの動作解析処理について説明する。既に述べたとおり、本実施形態では、ニューラルネットワーク8に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W1が導出される。なお、解析の対象となる深度画像は、動画として時系列に取得される。従って、以下、深度画像を、深度フレームということがあり、単にフレームということもある。
次に、図8を参照しつつ、ニューラルネットワーク8の学習処理について説明する。この学習処理では、教師データの作成と、これに基づく学習とが行われる。本実施形態では、転移学習のため、教師データとして、2種類の学習用データセットが作成され、それぞれに基づく学習が行われる。以下、区別のため、ステップS11~S14で取得される学習用データセットを、第1学習用データセットと呼び、これとは別にステップS16及びS17で取得される学習用データセットを、第2学習用データセットと呼ぶことがある。すなわち、本実施形態では、転移学習が行われ、まず、第1学習用データセットに基づきニューラルネットワーク8のパラメータが学習され(ステップS15)、その後、ここで学習されたパラメータを初期値として、第2学習用データセットに基づくさらなる学習(ステップS18)が行われる。
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例の要旨は、適宜組み合わせることができる。
上記実施形態では、ゴルフスイングが解析されたが、解析の対象はこれに限られず、同様の方法で、テニスや野球等の打具のスイング動作を解析することもできる。また、スイング動作に含まれる人体の動作に代えて又は加えて、スイング動作に含まれる打具の動作を解析の対象とすることができる。また、解析の対象は、スポーツの動作でなくても、人体の動作でなくてもよく、任意の物体の任意の動作を解析の対象とすることができる。
ニューラルネットワーク8から出力される動作値W1は、注目部位の回転角度に限られず、注目部位の位置(座標)、回転速度、回転加速度、速度及び加速度等であってもよい。また、注目部位も、ゴルファー7の腰に限られず、ゴルファー7の肩、腕、頭、重心等であってもよい。また、ニューラルネットワーク8の出力として、複数の部位の動作値W1が導出されてもよい。例えば、身体の多数の所定の部位の位置情報(座標)のセットが導出されてもよいし、身体における多数の関節の位置情報(座標)を含むボーンデータが導出されてもよい。
上記実施形態では、ボーンデータは、モーションキャプチャシステム3により取得された位置情報から取得されたが、例えば、距離画像センサの1つであるKinect(登録商標)は、深度フレームからスケルトンデータを導出し、これを深度フレームとともに出力する機能を有している。よって、このようなスケルトンデータを、上記のボーンデータとして使用することもできる。
上記実施形態では、ニューラルネットワーク8に入力される画像は、1枚の深度画像であった。しかしながら、時系列の複数枚の深度画像をセットとしてニューラルネットワーク8に入力するようにしてもよい。例えば、連続的に撮影された3枚の深度画像を、RGBのように1つのセットにすることができる。この場合、動作値W1の時間変化も考慮に入れて、ニューラルネットワーク8を学習させることができ、動作値W1の予測精度が向上する。
14a 第1取得部
14b 第2取得部
14c 第3取得部
14d 第4取得部
14e CG作成部
14f 画像作成部
14g 学習部
14h 第5取得部(取得部)
14i 導出部
14j 表示制御部
2 距離画像センサ
3 モーションキャプチャシステム
4 角速度センサ
5 ゴルフクラブ
6 プログラム(動作解析プログラム)
7 ゴルファー(物体)
8 ニューラルネットワーク
100 動作解析システム
D1 ボーンデータ
D2 三次元CGデータ
Claims (9)
- 物体の動作を解析するための学習モデルの生成方法であって、
前記物体の骨格を表すボーンデータを取得することと、
前記ボーンデータに基づいて、前記物体の体型を表す三次元コンピュータ・グラフィックス(CG)データを作成することと、
前記三次元CGデータに基づいて、前記物体の多数の深度画像を作成することと、
前記多数の深度画像にそれぞれ対応する、前記物体における1又は複数の所定の部位の動作を表す多数の動作値を取得することと、
前記三次元CGデータに基づく前記深度画像及びこれに対応する前記動作値の多数のデータセットを教師データとして、距離画像センサにより撮影される前記物体の深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習させることと
を含み、
前記多数の深度画像を作成することは、同じ1つのシーンにおける前記三次元CGデータに基づいて、視点の異なる複数の深度画像を作成することを含む、
学習モデルの生成方法。 - 前記多数の動作値を取得することは、前記ボーンデータ及び前記三次元CGデータの少なくとも一方に基づいて、前記多数の動作値を導出することを含む、
請求項1に記載の学習モデルの生成方法。 - 前記三次元CGデータを作成することは、同じ1つの骨格に対し異なる態様で肉付けし、異なる体型を表す前記三次元CGデータを作成することを含む、
請求項1又は2に記載の学習モデルの生成方法。 - 前記距離画像センサにより撮影された前記物体の多数の深度画像を取得することと、
前記距離画像センサにより撮影された前記多数の深度画像にそれぞれ対応する、多数の前記動作値を取得することと、
前記三次元CGデータに基づく前記深度画像及びこれに対応する前記動作値の前記多数のデータセットを教師データとして、前記ニューラルネットワークを学習させた後に、前記距離画像センサにより撮影された前記深度画像及びこれに対応する前記動作値の多数のデータセットを教師データとして、前記ニューラルネットワークを学習させることと
をさらに含む、
請求項1から3のいずれかに記載の学習モデルの生成方法。 - 前記ボーンデータは、ゴルフスイング中のゴルファーの骨格を表すデータである、
請求項1から4のいずれかに記載の学習モデルの生成方法。 - 物体の動作を解析するための学習モデルの生成装置であって、
前記物体の骨格を表すボーンデータを取得する第1取得部と、
前記ボーンデータに基づいて、前記物体の体型を表す三次元コンピュータ・グラフィックス(CG)データを作成するCG作成部と、
前記三次元CGデータに基づいて、前記物体の多数の深度画像を作成する画像作成部と、
前記多数の深度画像にそれぞれ対応する、前記物体における1又は複数の所定の部位の動作を表す多数の動作値を取得する第2取得部と、
前記三次元CGデータに基づく前記深度画像及びこれに対応する前記動作値の多数のデータセットを教師データとして、距離画像センサにより撮影される前記物体の深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習させる学習部と
を備え、
前記画像作成部は、同じ1つのシーンにおける前記三次元CGデータに基づいて、視点の異なる複数の深度画像を作成する、
学習モデルの生成装置。 - 物体の動作を解析する動作解析装置であって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記取得された深度画像を、請求項1から5のいずれかに記載の生成方法を用いて生成された前記ニューラルネットワークに入力することにより、前記動作値を導出する導出部と
を備える、
動作解析装置。 - 物体の動作を解析する動作解析方法であって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得することと、
前記取得された深度画像を、請求項1から5のいずれかに記載の生成方法を用いて生成された前記ニューラルネットワークに入力することにより、前記動作値を導出することと
を含む、
動作解析方法。 - 物体の動作を解析する動作解析プログラムであって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得することと、
前記取得された深度画像を、請求項1から5のいずれかに記載の生成方法を用いて生成された前記ニューラルネットワークに入力することにより、前記動作値を導出することと
をコンピュータに実行させる、
動作解析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019231158A JP7482471B2 (ja) | 2019-12-23 | 2019-12-23 | 学習モデルの生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019231158A JP7482471B2 (ja) | 2019-12-23 | 2019-12-23 | 学習モデルの生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099666A JP2021099666A (ja) | 2021-07-01 |
JP7482471B2 true JP7482471B2 (ja) | 2024-05-14 |
Family
ID=76541212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019231158A Active JP7482471B2 (ja) | 2019-12-23 | 2019-12-23 | 学習モデルの生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7482471B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114534224A (zh) * | 2022-01-13 | 2022-05-27 | 上海凯视力成科技有限公司 | 高尔夫挥杆智能镜 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078753A (ja) | 2009-09-14 | 2011-04-21 | Univ Of Tokyo | 運動学習支援装置及び方法 |
JP2015116308A (ja) | 2013-12-18 | 2015-06-25 | 三菱電機株式会社 | ジェスチャ登録装置 |
JP2018026131A (ja) | 2016-08-09 | 2018-02-15 | ダンロップスポーツ株式会社 | 動作解析装置 |
JP2018067294A (ja) | 2016-10-14 | 2018-04-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 学習データ作成支援方法、学習データ作成支援装置、およびプログラム |
WO2018207351A1 (ja) | 2017-05-12 | 2018-11-15 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
-
2019
- 2019-12-23 JP JP2019231158A patent/JP7482471B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011078753A (ja) | 2009-09-14 | 2011-04-21 | Univ Of Tokyo | 運動学習支援装置及び方法 |
JP2015116308A (ja) | 2013-12-18 | 2015-06-25 | 三菱電機株式会社 | ジェスチャ登録装置 |
JP2018026131A (ja) | 2016-08-09 | 2018-02-15 | ダンロップスポーツ株式会社 | 動作解析装置 |
JP2018067294A (ja) | 2016-10-14 | 2018-04-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 学習データ作成支援方法、学習データ作成支援装置、およびプログラム |
WO2018207351A1 (ja) | 2017-05-12 | 2018-11-15 | 富士通株式会社 | 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム |
Non-Patent Citations (1)
Title |
---|
上原 和加貴,深層学習を用いた3次元CG歩行モデルにおける運動モーション識別の研究 A Study on Motion Recognition by Using 3D-CG Pedestrian Model and Alternative Learning,電気学会研究会資料 The Papers of Technical Meeting on "Innovative Industrial System",IEE Japan,日本,電気学会,2018年09月03日,P25-28 |
Also Published As
Publication number | Publication date |
---|---|
JP2021099666A (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468612B2 (en) | Controlling display of a model based on captured images and determined information | |
JP7057959B2 (ja) | 動作解析装置 | |
US8175326B2 (en) | Automated scoring system for athletics | |
JP6973388B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7367764B2 (ja) | 骨格認識方法、骨格認識プログラムおよび情報処理装置 | |
KR102377561B1 (ko) | 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법 | |
CN107930048B (zh) | 一种太空体感识别运动分析***及运动分析方法 | |
JP7008342B2 (ja) | 運動評価システム | |
CN110751100A (zh) | 一种体育场馆辅助训练方法与*** | |
JPWO2019069358A1 (ja) | 認識プログラム、認識方法および認識装置 | |
WO2020147796A1 (zh) | 图像处理方法及装置、图像设备及存储介质 | |
US20130069939A1 (en) | Character image processing apparatus and method for footskate cleanup in real time animation | |
KR101636171B1 (ko) | 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템 | |
WO2020147791A1 (zh) | 图像处理方法及装置、图像设备及存储介质 | |
US20210286983A1 (en) | Estimation method, and computer-readable recording medium recording estimation program | |
JP7482471B2 (ja) | 学習モデルの生成方法 | |
WO2020147797A1 (zh) | 图像处理方法及装置、图像设备及存储介质 | |
Hwang et al. | Motion data acquisition method for motion analysis in golf | |
KR20220067965A (ko) | 실감 인터랙션 기반의 가상 훈련 방법 및 장치 | |
CN106327484A (zh) | 一种用于牙医操作姿势评估的方法 | |
Penelle et al. | Human motion tracking for rehabilitation using depth images and particle filter optimization | |
WO2023162223A1 (ja) | 学習プログラム、生成プログラム、学習方法および生成方法 | |
Sreeni et al. | Multi-Modal Posture Recognition System for Healthcare Applications | |
WO2024111430A1 (ja) | 処理装置、処理システム、学習済みモデルの構築方法及びプログラム | |
EP4303824A1 (en) | System and method for monitoring a body pose of a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7482471 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |