JP7289342B2 - コグニサイズ訓練システムの作動方法 - Google Patents

コグニサイズ訓練システムの作動方法 Download PDF

Info

Publication number
JP7289342B2
JP7289342B2 JP2021170332A JP2021170332A JP7289342B2 JP 7289342 B2 JP7289342 B2 JP 7289342B2 JP 2021170332 A JP2021170332 A JP 2021170332A JP 2021170332 A JP2021170332 A JP 2021170332A JP 7289342 B2 JP7289342 B2 JP 7289342B2
Authority
JP
Japan
Prior art keywords
action
behavior
command
group
rule command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021170332A
Other languages
English (en)
Other versions
JP2022105469A (ja
Inventor
チュンフン リェン,
チャンシュアン ヤン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2022105469A publication Critical patent/JP2022105469A/ja
Application granted granted Critical
Publication of JP7289342B2 publication Critical patent/JP7289342B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Description

本開示は、運動訓練方法に関し、特に知的コグニサイズ訓練方法に関するものである。
近年、認知症は多くの専門家や学者にとって重要な研究テーマとなっている。認知症の治療には、薬のほかに認知運動(コグニサイズ)がある。コグニサイズは、脳の認知と身体の動きを組み合わせた複合的な運動訓練であり、患者の状態を効果的に改善するためには、患者の身体と脳に適度な負荷をかける必要がある。そのため、コグニサイズの頻度や強度が重要になっている。
しかし、現在、介護施設で実施されているコグニサイズの多くは、プロの運動指導者やコーチが、介護施設内の複数の入居者を引率して実施されている。具体的には、インストラクターが入居者全員に同じパスワードを伝え、身体的な動作を行い、各入居者がパスワードと身体的な動作に応じて正しく回答しなければならない。しかし、現在、介護施設で実施されているコグニサイズでは、認知症の段階が異なる入居者一人ひとりに合わせたコグニサイズ訓練ができないため、訓練効果の最適化が図れない。
上記の問題を解決するために、改良されたコグニサイズの訓練方法が必要とされている。
本開示では、認知症の段階が異なる患者に対してカスタマイズされたコグニサイズ訓練を提供する知的コグニサイズ訓練方法を提供する。
本開示の一実施形態では、知的コグニサイズ訓練方法は、表示装置、カメラ、ホストを少なくとも備えたコグニサイズ訓練システムに適用される。知的コグニサイズ訓練方法は、前記表示装置により、参照行動グループ、および前記参照行動グループに対応する第1行動ルールコマンドを含む第1映像を表示し、前記カメラにより、ユーザの応答行動グループを取得し、前記ホストにより、前記第1行動ルールコマンドと前記参照行動グループに対応する第1目標行動グループを取得することと、前記ホストによって、前記応答行動グループと前記第1目標行動グループとを比較して行動精度を計算するステップであって、第1割合の閾値および第2割合の閾値が前記ホストに設定され、前記第1割合の閾値が前記第2割合の閾値よりも大きく、前記行動精度が前記第1割合の閾値以上である場合に、前記ホストにより、前記第1行動ルールコマンドを前記第2行動ルールコマンドに置き換え、前記第2行動ルールコマンドの複雑さは、前記第1行動ルールコマンドの複雑さよりも高い。
本開示の別の実施形態では、知的コグニサイズ訓練方法が、表示装置、カメラ、ホスト、およびマイクを少なくとも備えたコグニサイズ訓練システムに適用される。知的コグニサイズ訓練方法は、表示装置、カメラ、ホスト、およびマイクを少なくとも備えたコグニサイズ訓練システムに適用される知的コグニサイズ訓練方法であって、前記表示装置により、参照行動グループ、前記参照行動グループに対応する第1行動ルールコマンド、および音声コマンドを含む第1映像を表示し、前記カメラにより、ユーザの応答行動グループを取得し、前記マイクを使って、前記ユーザの音声応答を取得し、前記ホストにより、前記第1行動ルールコマンドおよび前記参照行動グループに対応する第1目標行動グループを取得し、前記ホストにより、前記応答行動グループと前記第1目標行動グループとを比較して行動精度を算出するステップと、前記行動精度が割合閾値より低くない場合に、前記ホストにより、前記音声応答の意味が前記音声コマンドの意味と同じであるかどうかを判断し、前記音声応答の意味が前記音声応答の意味と同じである場合に、前記ホストにより、前記第1行動ルールコマンドを第2行動ルールコマンドに置き換えることを含み、前記第2行動ルールコマンドの複雑さが前記第1行動ルールコマンドの複雑さよりも高い。
本開示に開示された知的コグニサイズ訓練方法により、コグニサイズ訓練システムは、ユーザの認知能力が所定の基準に適合していると判断すると、コグニサイズの複雑さを増加させ、逆に、コグニサイズ訓練システムは、ユーザの認知能力が所定の基準よりも低いと判断すると、コグニサイズの複雑さを減少させることができる。そのため、ユーザごとにカスタマイズされたコグニサイズ訓練を提供し、訓練効果を最適化することができる。
本開示は、以下の詳細な説明および添付の図面から、より完全に理解される。これらの図面は、説明のために提供されているものであり、本開示を限定するものではない。
知的コグニサイズ訓練方法の一実施形態のフローチャートである。 知的コグニサイズ訓練方法の一実施形態のフローチャートである。 図1A~1Bに示した訓練方法を実行する、コグニサイズ訓練システムの一実施形態の概略図である。 図1AのステップS101を模式的に示す図である。 図1AのステップS102を模式的に示す図である。 図1AのステップS103を模式的に示す図である。 図1AのステップS107を模式的に示す図である。 図1BのステップS111を模式的に示す図である。 知的コグニサイズ訓練方法の別の実施形態のフローチャートを示す。 知的コグニサイズ訓練方法の別の実施形態のフローチャートを示す。 図8A~図8Bに示した訓練方法を実行するコグニサイズ訓練システムの一実施形態を示す模式図である。 図8AのステップS201を示す模式図である。 図8AのステップS202を模式的に示す図である。
以下の詳細な説明では、説明のために、開示された実施形態の完全な理解を提供するために、多数の具体的な詳細が記載されている。しかし、これらの具体的な詳細がなくても、1つまたは複数の実施形態を実施することができることは明らかであろう。また、他の例では、図面を簡略化するために、周知の構造や装置を模式的に示している。
図1A、図1B、および図2を合わせて参照のこと。図1Aおよび図1Bは、ステップS101~S114を含む知的コグニサイズ訓練方法の一実施形態のフローチャートを示し、図2は、図に示す訓練方法を実行するコグニサイズ訓練システムの一実施形態の概略図である。図2において、コグニサイズ訓練システム1は、コンピュータホスト11と、カメラ12と、表示装置13とを含む。カメラ12および表示装置13は、それぞれコンピュータホスト11に電気的に接続されており、カメラ12は、表示装置13の上端に設置されていてもよい。コンピュータホスト11は、プロセッサ111と記憶装置112とを備えており、記憶装置112は、プロセッサ111に電気的に接続され、コグニサイズ姿勢認識アルゴリズムを記憶している。例えば、コグニサイズ姿勢認識アルゴリズムは、特徴抽出(例えば、エッジ検出、軌跡生成など)および分類(例えば、SVM、HMMなど)を含む。プロセッサ111がコグニサイズ姿勢認識アルゴリズムを実行すると、プロセッサ111は、ユーザの応答行動が正しいか否かを判断してもよい。また、上記実施形態以外にも、コグニサイズ訓練システム1は、スマートフォンなどの移動体通信機器であってもよく、カメラ12および表示装置13は、それぞれ、スマートフォンに内蔵されたカメラおよび表示画面である。スマートフォンには、コグニサイズ訓練方法に関するモバイルアプリケーション(APP)が搭載されている。
図1Aと図3を合わせて参照のこと。図3は、ステップS101:表示装置13によって、参照行動グループと、参照行動グループに対応する第1行動ルールコマンドとを含む第1映像を表示することを示す模式図であり、参照行動グループは、複数の参照行動を含んでいる。図3では、ユーザが表示装置13の前に立ち、表示装置13が映像を再生しているが、映像中の第1行動ルールコマンドC1は、音声コマンド、テキストコマンド、静止ガイド画像、または、動的ガイド画像であってもよい。例えば、映像の中のコーチが第1行動ルールコマンドC1を言っており、第1行動ルールコマンドC1内容は、「コーチの行動とは逆の行動をしてください。」である。
図1Aと図4を合わせて参照のこと。図4は、ステップS102:カメラ12によって、ユーザの応答行動グループを取得する様子を示す模式図である。図4では、表示装置13で再生される映像の中のコーチの行動は「左腕を上げる」であり、ユーザは映像の中のコーチの行動に合わせて左腕を上げ、カメラ12はユーザが左腕を上げている様子を撮影している。
図1Aと図5を合わせて参照のこと。図5は、ステップS103:プロセッサ111によって、第1行動ルールコマンドC1に対応する第1目標行動グループと、参照行動グループとを、記憶装置112から取得することの模式図である。図5において、記憶装置112は、第1行動ルールコマンドC1に準拠した第1ルックアップテーブルT1を記憶しており、第1ルックアップテーブルT1は、参照行動グループと、参照行動グループに対応する第1目標行動グループとを含む。参照行動グループは、第1~第4参照行動R1~R4を含み、第1目標行動グループは、第1~第4目標行動D1~D4を含む。より具体的には、第1参照行動R1は、右腕を上げるイメージについてのものであり、第2参照行動R2は、左腕を上げるイメージについてのものであり、第3参照行動R3は、左脚を上げるイメージについてのものであり、第4参照行動R4は、右脚を上げるイメージについてのものである。また、第1目標行動D1は、左腕を上げるイメージについてである。第2目標行動D2は、右腕を上げるイメージについてである。第3目標行動D3は、右脚を上げるイメージについてである。第4目標行動D4は、左脚を上げるイメージについてである。要するに、表示装置13が第1参照行動R1~第4参照行動R4を順に表示するのに合わせて、ユーザが第1目標行動D1~第4目標行動D4に適合した応答行動を行うと、プロセッサ111は、ユーザが正しい応答行動を行ったと判断するのである。
ステップS104において、プロセッサ111は、行動精度を算出するために、応答行動グループと第1目標行動グループとを比較する。例えば、応答行動グループは、第1応答行動から第4応答行動までを含み、第1目標行動グループは、第1目標行動から第4目標行動までを含む。プロセッサ111は、第1~第4応答行動と第1~第4目標行動とをそれぞれ比較するように、記憶装置112に記憶されたコグニサイズ姿勢認識アルゴリズムを実行する。プロセッサ111は、第1応答行動から第3応答行動がそれぞれ第1目標行動から第3目標行動に適合しているが、第4目標行動が第4目標行動に適合していないと判断した場合、プロセッサ111が算出するユーザの行動精度は75%となる。例えば、記憶装置112に記憶されている目標行動が右腕を上げることである場合、プロセッサ111は、カメラ12からの画像に応じてユーザの右腕が上げられているか否かを判断する。プロセッサ111は、ユーザの右腕と体幹との間の角度が角度下限値(例えば、30度)よりも大きいことを確認すると、ユーザの右腕が上げられていると判定する。反対に、ユーザの右腕と体幹との間の角度が角度下限値以下の場合、プロセッサ111は、ユーザの右腕が上がっていないと判断する。プロセッサ111は、ユーザの右腕が上がっていることを確認すると、ユーザの応答行動が目標行動に適合していると判定する。なお、上記のユーザの応答行動が目標行動に適合するか否かの判定方法は、単なる一実施形態であり、本開示を限定するものではない。
第1割合の閾値と第2割合の閾値は、プロセッサ111に設定され、第1割合の閾値は、第2割合の閾値よりも大きい。ステップS105において、プロセッサ111は、行動精度が第1割合の閾値よりも大きいか、または等しいかを判断する。プロセッサ111が、行動精度が第1割合の閾値よりも大きいか等しいと判断すると、続いてステップS106が実行される。ステップS106において、プロセッサ111は、第1行動ルールコマンドC1を第2行動ルールコマンドに置き換え、第2行動ルールコマンドは、サウンドコマンド、テキストコマンド、静的ガイド画像または動的ガイド画像であってもよく、第2行動ルールコマンドの複雑さは、第1行動ルールコマンドC1の複雑さよりも高い。
図1Aと図6を合わせて参照のこと。図6は、ステップS107:プロセッサ111によって、第2行動ルールコマンドに対応する第2目標行動グループおよび参照行動グループを記憶装置112から取得するステップの概略図である。第2目標行動グループの複雑さは、第1目標行動グループの複雑さよりも高い。図6において、記憶装置112は、第2行動ルールコマンドに準拠した第2ルックアップテーブルT2を記憶し、第2ルックアップテーブルT2は、参照行動グループと、参照行動グループに対応する第2目標行動グループとを含む。参照行動グループは、第1~第4参照行動R1~R4を含み、第2目標行動グループは、第5~第8の目標行動D5~D8を含む。より具体的には、第1参照行動R1は、右腕を上げるイメージであり、第2参照行動R2は、左腕を上げるイメージであり、第3参照行動R3は、左脚を上げるイメージであり、第4参照行動R4は、右脚を上げるイメージである。また、第5目標行動D5は右脚を上げるイメージであり、第6目標行動D6は左脚を上げるイメージであり、第7目標行動D7は左腕を上げるイメージであり、第8目標行動D8は右腕を上げるイメージである。また、第2行動ルールコマンドに準拠した条件では、第1~第4参照動作R1~R4は、第5~第8目標動作D5~D8に対応する。つまり、表示装置13が第1参照行動R1~第4参照行動R4を順に表示しているときに、ユーザが第5目標行動D5~第8目標行動D8に順に適合する応答行動を行った場合、プロセッサ111は、ユーザの応答行動が正しいと判断する。このように、第2行動ルールコマンドの複雑さが第1行動ルールコマンドC1複雑さよりも高い場合には、ユーザの脳の動作負荷が増大する可能性があり、それによって、認知症の予防や認知症の症状の緩和という目的が達成される可能性があることがわかる。
プロセッサ111が、行動精度が第1割合の閾値よりも小さいと判断すると、続いてステップS108が実行される。図1Bに示すように、ステップS108では、プロセッサ111は、行動精度が第2割合の閾値以上であるか否かを判断する。行動精度が第2割合の閾値以上であり、かつ、第1割合の閾値未満である場合、ステップS109が実行される。ステップS109は、プロセッサ111によって、第1行動ルールコマンドC1を残存させる。行動精度が第2割合のしきい値よりも小さい場合、ステップS110が実行される。ステップS110は、プロセッサ111によって、第1行動ルールコマンドを第3行動ルールコマンドに置き換え、第3行動ルールコマンドは、サウンドコマンド、テキストコマンド、静的ガイド画像または動的ガイド画像であってもよく、第3行動ルールコマンドの複雑さは、第1行動ルールコマンドC1複雑さよりも低い。プロセッサ131が第1行動ルールコマンドC1を第3行動ルールコマンドに置き換えた後、続いてステップS111が実行される。
図1Bと図7を参照のこと。図7は、ステップS111:プロセッサ111によって、第3行動ルールコマンドに対応する第3目標行動グループおよび参照行動グループを記憶装置112から取得することの概略図であり、第3目標行動グループの複雑さは、第1目標行動グループの複雑さよりも低い。図7において、記憶装置112は、第3行動ルールコマンドに準拠した第3ルックアップテーブルT3を記憶し、第3ルックアップテーブルは、参照行動グループと、参照行動グループに対応する第3目標行動グループとを含む。参照行動グループは、第1~第4参照行動R1~R4を含み、第3目標行動グループは、第9~第12目標行動D9~D12を含む。より具体的には、第1~第4参照行動R1~R4は、それぞれ第9~第12目標行動D9~D12と同じである。要するに、プロセッサ111は、ユーザの応答行動の行動精度が低すぎることを確認すると、ユーザの現在の知的認知能力に合わせて、行動ルールコマンドの複雑さを自動的に減少させるのである。
ステップS112は、ステップS107の後に実行される。ステップS112では、表示装置13は、参照行動グループと、参照行動グループに対応する第2行動ルールコマンドとを含む第2映像を表示する。ステップS113は、ステップS109の後に実行される。ステップS113では、表示装置13は、参照行動グループ、および参照行動グループに対応する第1行動ルールコマンドを含む第1映像を表示する。ステップS114は、ステップS111後に実行される。ステップS114では、表示装置13は、参照行動グループ、および参照行動グループに対応する第3行動ルールコマンドを含む第3映像を表示する。
図8Aおよび図8Bは、知的コグニサイズ訓練方法の別の実施形態のフローチャートを示す。図8Aおよび図8Bに示す知的コグニサイズ訓練方法は、ステップS201~S212を含む。図8Aおよび図8Bは、ステップS201~S212を含み、図9は、図8A~図8Bに示す訓練方法を実行するコグニサイズ訓練システムの一実施形態の概略図である。図9において、コグニサイズ訓練システム2は、コンピュータホスト21、カメラ22、表示装置23、およびマイクロフォン24を含む。カメラ22、表示装置23およびマイクロフォン24は、それぞれコンピュータホスト21に電気的に接続されており、カメラ22およびマイクロフォン24は、表示装置23上端に設置されていてもよい。コンピュータホスト21は、プロセッサ211と、記憶装置212とを備え、記憶装置212はプロセッサ211に電気的に接続されている。記憶装置212は、上述したコグニサイズの姿勢認識アルゴリズムを記憶している。プロセッサ211がコグニサイズ姿勢認識アルゴリズムを実行すると、ユーザの応答行動が正しいかどうかを判断することができる。また、上記実施形態以外にも、コグニサイズ訓練システム2は、スマートフォンなどの移動体通信機器であってもよく、カメラ22、表示装置23およびマイクロフォン24は、それぞれ、スマートフォンに内蔵されたカメラ、表示画面およびマイクである。スマートフォンには、コグニサイズ訓練方法に関するモバイルアプリケーション(APP)が搭載されている。
図8Aと図10を合わせて参照のこと。図10は、ステップS201:表示装置23によって、参照行動グループ、参照行動グループに対応する第1行動ルールコマンドC1、および音声コマンドV1を含む第4映像を表示する様子を示す模式図である。図10では、ユーザが表示装置23の前に立ち、表示装置23が第4映像を再生している。第4映像には、第1行動ルールコマンドC1と、音声コマンドV1とが含まれており、第1行動ルールコマンドC1は、音声コマンドまたはテキストコマンドであってもよく、音声コマンドV1は、特定のタイミングで、指定されたパスワードを返信することを指示する。例えば、映像の中でコーチが「コーチの行動と反対の行動をとってください」という内容の第1行動ルールコマンドC1を言い、音声コマンドV1がユーザに「どうぞ」と答えるように指示する。
図8Aと図11を合わせて参照のこと。図11は、ステップS202;カメラとマイクロフォンそれぞれによって、応答行動グループとユーザの音声応答を取得するの模式図である。図11では、表示装置23で再生される映像におけるコーチの行動は「左腕を上げる」であり、ユーザは映像に従って左腕を上げ、音声返答Kを行い、カメラ22とマイクロフォン24は、ユーザの身体動作画像と音声返答Kをそれぞれ撮影する。
ステップS203では、プロセッサ211は、記憶装置212から第1行動ルールコマンドC1に対応する第1目標行動グループと、参照行動グループとを取得する。ステップS204において、プロセッサ211は、応答行動グループと第1目標行動グループとを比較して、行動精度を算出する。ステップS205において、プロセッサ211は、行動精度が割合閾値よりも小さいか否かを判定する。行動精度が割合閾値よりも小さくない場合、続いてステップS206が実行される。ステップS206では、プロセッサ211は、音声応答Kの意味が、音声コマンドV1の意味と同じであるか否かを判定する。例えば、音声コマンドV1の意味は、上述したように、指定されたパスワードの意味である。音声応答Kの意味が、音声コマンドV1意味と同じである場合、続いてステップS207が実行される。ステップS207では、プロセッサ211は、第1行動ルールコマンドC1を第2行動ルールコマンドに置き換え、第2行動ルールコマンドの複雑さは、第1行動ルールコマンドC1の複雑さよりも高い。
プロセッサ211が、第1行動ルールコマンドC1を第2行動ルールコマンドに置き換えた後、続いてステップS208が実行される。ステップS208では、プロセッサ211は、第2行動ルールコマンドに対応する第2目標行動グループと、参照行動グループとを記憶装置212から取得し、第2目標行動グループの複雑さは、第1目標行動グループの複雑さよりも高いものである。
行動精度が割合の閾値よりも小さい場合、または、音声応答Kの意味が音声コマンドV1意味と異なる場合、続いてステップS209が実行される。ステップS209では、プロセッサ211は、第1行動ルールコマンドC1を第3行動ルールコマンドに置き換え、第3行動ルールコマンドの複雑さは、第1行動ルールコマンドC1複雑さよりも小さい。
プロセッサ211が、第1行動ルールコマンドC1を第3行動ルールコマンドに置き換えた後、続いてステップS210が実行される。ステップS210では、プロセッサ211は、記憶装置212から第3行動ルールコマンドに対応する第3目標行動グループと、参照行動グループとを取得し、第3目標行動グループの複雑さは、第1目標行動グループの複雑さよりも小さい。
ステップS211は、ステップS208の後に実行される。ステップS211では、表示装置23は、参照行動グループと、参照行動グループに対応する第2行動ルールコマンドと、音声コマンドV1とを含む第5映像を表示する。ステップS212は、ステップS210の後に実行される。ステップS212では、表示装置23は、参照行動グループ、参照行動グループに対応する第3行動ルールコマンド、および音声コマンドV1を含む第6映像を表示する。
他の実施形態では、目標行動とリアルタイム応答行動を比較してユーザの認知能力を評価する以外に、ユーザの健康状態モデルを用いてユーザの認知能力を評価してもよい。ユーザの健康状態モデルには、年齢、体力、過去の実績、精神状態、病歴、薬の使用状況、生活環境などが含まれていてもよい。例えば、ユーザの呼吸回数がウェアラブルデバイスで検出されてもよい。呼吸回数が安全臨界値を超えた場合、つまり、ユーザの身体の負荷が重すぎる場合には、対象となる行動の複雑さを減少させる。さらに、上記の実施形態で述べた第1割合の閾値と第2割合の閾値は、ユーザの健康状態モデルに応じて調整されてもよい。例えば、ユーザの年齢に応じて、第1割合の閾値および第2割合の閾値が調整されてもよい。年齢や処理能力が異なるユーザは、異なる動作を行うことができるため、年長者や患者の不満を増大させないためにも、同じ基準で判定することはできない。
本開示に開示された知的コグニサイズ訓練方法により、コグニサイズ訓練システムは、ユーザの認知能力が所定の基準に適合していると判断すると、コグニサイズの複雑さを増加させる。逆に、コグニサイズ訓練システムは、ユーザの認知能力が所定の基準よりも低いと判断すると、コグニサイズの複雑さを減少させる。そのため、ユーザごとにカスタマイズされたコグニサイズ訓練を提供し、訓練効果を最適化することができる。
本出願は、2021年1月4日に台湾(R.O.C.)で出願された特許出願番号110100054優先権を主張するものであり、その全内容は参照によりここに組み込まれる。

Claims (9)

  1. 表示装置、カメラ、コンピュータホストを少なくとも備えたコグニサイズ訓練システムの作動方法であって、
    前記コンピュータホストが、
    前記表示装置、参照行動グループ、および前記参照行動グループに対応する第1行動ルールコマンドを含む第1映像を表示させ
    前記カメラ、ユーザの応答行動グループを取得させ
    記第1行動ルールコマンドと前記参照行動グループに対応する第1目標行動グループを取得し、
    記応答行動グループと前記第1目標行動グループとを比較して行動精度を計算し、第1割合の閾値および第2割合の閾値設定、前記第1割合の閾値が前記第2割合の閾値よりも大きく、
    前記行動精度が前記第1割合の閾値以上である場合に、前記第1行動ルールコマンドを第2行動ルールコマンドに置き換え前記第2行動ルールコマンドの複雑さは、前記第1行動ルールコマンドの複雑さよりも高く、
    前記行動精度が前記第1割合の閾値よりも小さく、前記第2割合の閾値以上である場合に、前記第1行動ルールコマンドを残存させ、
    前記行動精度が前記第2割合の閾値よりも小さい場合に、前記第1行動ルールコマンドを第3行動ルールコマンドに置き換えることを含み、
    前記第3行動ルールコマンドの複雑さが、前記第1行動ルールコマンドの複雑さよりも低いことを特徴とする、
    コグニサイズ訓練システムの作動方法
  2. 記第1行動ルールコマンドを前記第2行動ルールコマンドに置き換えた後、前記第2行動ルールコマンドおよび前記参照行動グループに対応する第2目標行動グループを取得することをさらに含み、
    第2目標行動グループの複雑さは、前記第1目標行動グループの複雑さよりも高い、
    請求項1に記載のコグニサイズ訓練システムの作動方法
  3. 記第2行動ルールコマンドおよび前記参照行動グループに対応する前記第2目標行動グループを取得した後、前記表示装置によって第2映像を表示することをさらに含み、
    前記第2映像は、前記参照行動グループ、および前記参照行動グループに対応する第2行動ルールコマンドを含む、
    請求項2に記載のコグニサイズ訓練システムの作動方法
  4. 記第1行動ルールコマンドを前記第3行動ルールコマンドに置き換えた後、前記第3行動ルールコマンドおよび前記参照行動グループに対応する第3目標行動グループを取得すること、をさらに含み、
    前記第3目標行動グループの複雑さが、前記第1目標行動グループの複雑さよりも低い、
    請求項に記載のコグニサイズ訓練システムの作動方法
  5. 記第3行動ルールコマンドおよび前記参照行動グループに対応する前記第3目標行動グループを取得した後、前記表示装置により第3映像を表示すること
    をさらに含み、
    前記第3映像は、前記参照行動グループ、および前記参照行動グループに対応する前記第3行動ルールコマンドを含む、
    請求項に記載のコグニサイズ訓練システムの作動方法
  6. 前記第1行動ルールコマンドは、サウンドコマンド、テキストコマンド、静的ガイド画像または動的ガイド画像であり、前記第2行動ルールコマンドは、サウンドコマンド、テキストコマンド、静的ガイド画像または動的ガイド画像であり、前記第3行動ルールコマンドは、サウンドコマンド、テキストコマンド、静的ガイド画像または動的ガイド画像である、
    請求項に記載のコグニサイズ訓練システムの作動方法
  7. 表示装置、カメラ、コンピュータホスト、およびマイクを少なくとも備えたコグニサイズ訓練システムの作動方法であって、
    前記コンピュータホストが、
    前記表示装置に、参照行動グループ、前記参照行動グループに対応する第1行動ルールコマンド、および音声コマンドを含む第1映像を表示させ
    前記カメラ、ユーザの応答行動グループを取得させ
    前記マイクを使って、前記ユーザの音声応答を取得し、
    記第1行動ルールコマンドおよび前記参照行動グループに対応する第1目標行動グループを取得し、
    記応答行動グループと前記第1目標行動グループとを比較して行動精度を算出し、
    前記行動精度が割合閾値より低くない場合に、記音声応答の意味が前記音声コマンドの意味と同じであるかどうかを判断し、
    前記音声応答の意味が前記音声応答の意味と同じである場合に、記第1行動ルールコマンドを第2行動ルールコマンドに置き換え、前記第2行動ルールコマンドの複雑さが前記第1行動ルールコマンドの複雑さよりも高く、
    前記行動精度が前記割合閾値よりも低い場合に、前記コンピュータホストによって、前記第1行動ルールコマンドを第3行動ルールコマンドに置き換え、前記第3行動ルールコマンドの複雑さが、前記第1行動ルールコマンドの複雑さよりも小さく、
    前記音声応答の意味が前記音声コマンドの意味と異なる場合に、前記コンピュータホストによって、前記第1行動ルールコマンドを第3行動ルールコマンドに置き換えること、を含み、
    前記第3行動ルールコマンドの複雑さが、前記第1行動ルールコマンドの複雑さよりも小さいことを特徴とする、
    コグニサイズ訓練システムの作動方法
  8. 前記第1行動ルールコマンドを前記第2行動ルールコマンドに置き換えた後、記第2行動ルールコマンドおよび前記参照行動グループに対応する第2目標行動グループを取得することをさらに含み、
    前記第2目標行動グループの複雑さは、前記第1目標行動グループの複雑さよりも高い、
    請求項に記載のコグニサイズ訓練システムの作動方法
  9. 前記第1行動ルールコマンドを前記第3行動ルールコマンドに置き換えた後、3行動ルールコマンドおよび参照行動グループに対応する第3目標行動グループを取得することをさらに含み、
    前記第3目標行動グループの複雑さが、前記第1目標行動グループの複雑さよりも低い、
    請求項に記載のコグニサイズ訓練システムの作動方法
JP2021170332A 2021-01-04 2021-10-18 コグニサイズ訓練システムの作動方法 Active JP7289342B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW110100054 2021-01-04
TW110100054A TWI760044B (zh) 2021-01-04 2021-01-04 智能認知運動訓練方法

Publications (2)

Publication Number Publication Date
JP2022105469A JP2022105469A (ja) 2022-07-14
JP7289342B2 true JP7289342B2 (ja) 2023-06-09

Family

ID=82198962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021170332A Active JP7289342B2 (ja) 2021-01-04 2021-10-18 コグニサイズ訓練システムの作動方法

Country Status (2)

Country Link
JP (1) JP7289342B2 (ja)
TW (1) TWI760044B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI827134B (zh) * 2022-07-12 2023-12-21 紐因科技股份有限公司 具延展實境、語音及動作辨識之團隊視野訓練系統及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536566A (ja) 2014-10-23 2017-12-07 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 認知を増強する方法及びそれを実施するためのシステム
JP2020151522A (ja) 2020-06-15 2020-09-24 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106137181A (zh) * 2015-04-13 2016-11-23 上海帝仪科技有限公司 用于获取用户的疲劳特征的***、方法和设备
TW201827009A (zh) * 2017-01-18 2018-08-01 莊郁仁 認知與腦波檢測記錄方法
CN108062878A (zh) * 2018-01-16 2018-05-22 北京怡养科技有限公司 一种老年人认知能力测试装置及其测试方法
TWI680408B (zh) * 2018-05-26 2019-12-21 南開科技大學 可偵測銀髮族情緒之遊戲機結構
US11557215B2 (en) * 2018-08-07 2023-01-17 Physera, Inc. Classification of musculoskeletal form using machine learning model
TWI729337B (zh) * 2018-12-19 2021-06-01 國立中山大學 基於穿戴式裝置的運動教學輔助系統

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536566A (ja) 2014-10-23 2017-12-07 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 認知を増強する方法及びそれを実施するためのシステム
JP2020151522A (ja) 2020-06-15 2020-09-24 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム

Also Published As

Publication number Publication date
TWI760044B (zh) 2022-04-01
JP2022105469A (ja) 2022-07-14
TW202228093A (zh) 2022-07-16

Similar Documents

Publication Publication Date Title
US20220392371A1 (en) Real-time language learning within a smart space
US9195304B2 (en) Image processing device, image processing method, and program
TWI603213B (zh) 基於臉部辨識的音樂選取方法、音樂選取系統及電子裝置
EP3131027A1 (en) Method for detecting activity information of user and electronic device thereof
US20150205359A1 (en) Interactive user gesture inputs
CN110430802B (zh) 利用虚拟现实的神经疾病诊断装置及方法
WO2011076243A1 (en) Affective well-being supervision system and method
JP7289342B2 (ja) コグニサイズ訓練システムの作動方法
CN111145871A (zh) 情绪干预方法、装置和***,以及计算机可读存储介质
US11127181B2 (en) Avatar facial expression generating system and method of avatar facial expression generation
US12046353B2 (en) Administering exposure treatments of a cognitive behavioral therapy using a smartphone app
US20200089623A1 (en) Data sharing system and data sharing method therefor
JP6407521B2 (ja) 診療支援装置
WO2021036954A1 (zh) 一种智能语音播放方法及设备
Pogorelc et al. Detecting gait-related health problems of the elderly using multidimensional dynamic time warping approach with semantic attributes
WO2023108842A1 (zh) 基于健身教学训练的动作评价方法及***
CN109986553B (zh) 一种主动交互的机器人、***、方法及存储装置
JP2021135995A (ja) アバター表情生成システム及びアバター表情生成方法
CN112541382A (zh) 一种辅助运动的方法、***以及识别终端设备
CN109820523A (zh) 心理测试仪控制方法、装置及计算机可读存储介质
CN113633870B (zh) 情绪状态调节***及方法
JP7450239B2 (ja) 脳卒中検査システム、脳卒中検査方法、及び、プログラム
KR101752223B1 (ko) 인터랙션의 복원을 지원하는 사용자 인터페이스를 제공하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN113705435A (zh) 一种用于症状评估的行为采集方法、装置、终端及存储介质
WO2021233051A1 (zh) 干扰提示方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230530

R150 Certificate of patent or registration of utility model

Ref document number: 7289342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150