JP7064787B2 - 情報処理装置、プログラム、及び、情報処理方法 - Google Patents
情報処理装置、プログラム、及び、情報処理方法 Download PDFInfo
- Publication number
- JP7064787B2 JP7064787B2 JP2020121797A JP2020121797A JP7064787B2 JP 7064787 B2 JP7064787 B2 JP 7064787B2 JP 2020121797 A JP2020121797 A JP 2020121797A JP 2020121797 A JP2020121797 A JP 2020121797A JP 7064787 B2 JP7064787 B2 JP 7064787B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- subject
- field
- objective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Description
ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する直接客観情報を取得する手段を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置である。
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
図1を参照して、クライアント装置10の構成について説明する。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
図1を参照して、サーバ30の構成について説明する。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理の実行結果
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。
主観検査は、被験者の主観的感情に関連する被験者主観情報を測定するための検査である。主観検査は、例えば、Q&A形式のテストによって実施される。主観情報は、被験者の主観によって決まる情報である。
間接客観検査は、被験者の客観的感情に関連する間接客観情報を測定するための検査である。間接客観検査は、例えば、サブリミナルテスト又はウェアラブルデバイスによる検査である。被験者間接客観情報は、被験者の感情を司る脳の反応が直接的に反映されるものではないが、間接的には反映されるものである。被験者間接客観情報は、例えば、脈拍、瞳孔サイズ、及び、汗腺の少なくとも1つのから類推される被験者の感情を司る脳の反応を示す情報である。
直接客観検査は、被験者の客観的感情に関連する直接客観情報を測定するための検査である。直接客観検査は、例えば、脳画像処理機器(一例として、MRI機器又はfMRI(functional Magnetic Resonance Imaging)機器)を用いて実施される検査である。直接客観情報は、被験者の感情を司る脳、及び、感情と関連する脳機能(例えば、感情の抑制)の反応が直接的に反映されるものである。換言すると、直接客観情報は、検査情報の中で、被験者の感情を最も客観的に表す情報である。
ユーザは、被験者とは異なり、直接客観検査を受けていない。したがって、ユーザの直接客観感情情報は存在しない。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた2種類の検査情報(主観情報及び間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
本実施形態の概要の一態様について説明する。図3、本実施形態の概要の一態様の説明図である。
固着主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、過去に起きた自己に関する出来事及び経験を振り返らせ、且つ、その出来事及び経験のパターンから自己認識を検査するための文脈を含んでいる。従って、このテストの回答から得られる情報は、固着主観情報である。
流動主観検査は、例えば、Q&A形式のテストである。このテストの質問は、被験者に対して、直近の1つの自己の出来事及び経験を振り返らせるための文脈を含んでいる。従って、このテストの回答から得られる情報は、流動主観情報である。複数の流動主観情報と固着主観情報との差は、個人の自己をみる能力、及び、メタ認知能力の差になる。この差は、感情観察力において有用な指標の一つである。
固着間接客観検査は、例えば、被験者に対して実施されるサブリミナルテストである。サブリミナルテストでは、被験者に対してサブリミナル効果を与えるコンテンツ(画像、音声、又は、それらの組合せ)を提示し、且つ、当該コンテンツに対する被験者の反応が計測される。一般的に、サブリミナル効果を与えられた脳は、個人の感情に依存する特定の反応を示す。つまり、計測された反応には、被験者の脳に固着した感情が反映される。したがって、被験者の反応は、固着間接客観情報である。
流動間接客観検査は、例えば、被験者が装着したウェアラブルデバイスを用いたテストである。ウェアラブルデバイスによって取得されたデータは、計測のタイミングによって変動する。従って、このデータは、流動間接客観情報である。
固着直接客観検査は、例えば、被験者に対して実施されるMRI検査である。MRI機器によって取得された画像は、被験者の脳に固着した感情が直接的に反映される。したがって、MRI機器によって取得された画像は、固着間接客観情報である。
流動直接客観検査は、例えば、被験者に対して実施されるEEG(Electroencephalogram)検査又はfMRI検査である。EEG検査又はfMRI検査の結果は、検査のタイミングによって変動する。従って、EEG検査及びfMRI検査の結果は、流動直接客観情報である。
また、被験者に関連付けられた主観情報及び間接客観情報の組合せと、直接客観情報との相関性を参照して、ユーザに関連付けられた4種類の検査情報(固着主観情報、流動主観情報、固着間接客観情報、及び、流動間接客観情報)からユーザの感情情報(例えば、ユーザの感情コンディション、感情傾向、及び、感情に影響を与える感情因子)を推測する。
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
本実施形態の被験者情報データベースについて説明する。図4は、本実施形態の被験者情報データベースのデータ構造を示す図である。
被験者情報データベースは、「被験者ID」フィールドと、「被験者名」フィールドと、「被験者属性」フィールドと、「固着主観」フィールドと、「直接客観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
「被験者属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
「直接客観」フィールドは、「MRI」フィールドと、「fMRI」フィールドと、を含む。
・サブリミナルコンテンツを提示したときの反応の内容
・サブリミナルコンテンツを提示したときの反応速度
本実施形態の被験者流動主観情報データベースについて説明する。図5は、本実施形態の被験者流動主観情報データベースのデータ構造を示す図である。
被験者流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
被験者流動主観情報データベースは、被験者IDに関連付けられる。
本実施形態の被験者流動間接客観情報データベースについて説明する。図6は、本実施形態の被験者流動間接客観情報データベースのデータ構造を示す図である。
被験者流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
被験者流動間接客観情報データベースは、被験者IDに関連付けられる。
・歩数
・脈拍
・心拍数
・消費カロリー
本実施形態のユーザ情報データベースについて説明する。図7は、本実施形態のユーザ情報データベースのデータ構造を示す図である。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、「固着主観」フィールドと、「固着間接客観」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。
本実施形態のユーザ流動主観情報データベースについて説明する。図8は、本実施形態のユーザ流動主観情報データベースのデータ構造を示す図である。
ユーザ流動主観情報データベースは、「データID」フィールドと、「チェックイン日時」フィールドと、「チェックイン回答」フィールドと、「チェックアウト日時」フィールドと、「チェックアウト回答」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
ユーザ流動主観情報データベースは、ユーザIDに関連付けられる。
本実施形態のユーザ流動間接客観情報データベースについて説明する。図9は、本実施形態のユーザ流動間接客観情報データベースのデータ構造を示す図である。
ユーザ流動間接客観情報データベースは、「データID」フィールドと、「測定日時」フィールドと、「ウェアラブル」フィールドと、を含む。
ユーザ流動間接客観情報データベースは、ユーザIDに関連付けられる。
本実施形態の情報処理について説明する。図10は、本実施形態の情報処理の全体フローを示す図である。
被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)は、被験者情報データベース(図4)、被験者流動主観情報データベース(図5)、及び、被験者流動間接客観情報データベース(図6)へのデータの登録を行うための処理である。被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって、サーバ30に、被験者検査情報と感情の推論モデルが構築される。
ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)は、ユーザ情報データベース(図7)、ユーザ流動主観情報データベース(図8)、及び、ユーザ流動間接客観情報データベース(図9)へのデータの登録を行うための処理である。ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)によって、感情の可視化(OP5)に必要な入力情報がサーバ30に与えられる。
感情の可視化(OP5)は、被験者情報の登録(OP1)及び被験者流動情報の登録(OP2)によって生成された推論モデルと、ユーザ情報の登録(OP3)及びユーザ流動情報の登録(OP4)において与えられた入力情報とを用いて、ユーザの感情を可視化するための処理である。
本実施形態の被験者情報の登録(OP1)の処理について説明する。図11は、図10の被験者情報の登録の処理のシーケンス図である。図12~図13は、図11の情報処理において表示される画面例を示す図である。
具体的には、クライアント装置10のプロセッサ12は、画面P100(図12)をディスプレイに表示する。
フィールドオブジェクトF100は、被験者情報(例えば、被験者名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB100は、フィールドオブジェクトF100に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
新規レコードの各フィールドには、以下の情報が格納される。
・「被験者ID」フィールドには、新規の被験者IDが格納される。
・「被験者名」フィールド及び「被験者属性」フィールドには、被験者情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF100に入力された情報)が格納される。
具体的には、クライアント装置10のプロセッサ12は、画面P101(図12)をディスプレイに表示する。
フィールドオブジェクトF101には、質問と、当該質問に対する回答の選択肢と、が表示される。操作者が選択肢の少なくとも1つを指定すると、フィールドオブジェクトF101は、操作者によって指定された選択肢を操作者の回答として受け付ける。
操作オブジェクトB101は、フィールドオブジェクトF101が受け付けた回答を確定させるための指示を受け付けるオブジェクトである。
プロセッサ32は、記憶装置31に記憶されたマッチングテーブルを参照して、更新リクエストデータに含まれる情報に対応する性格タイプを決定する。
プロセッサ32は、ステップS100で追加した新規レコードの「固着主観」フィールドに、決定した性格タイプに関する情報を格納する。
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。更新レスポンスデータは、性格タイプに関する情報を含む。
画面P102には、サーバ30によって決定された性格タイプが表示される。
具体的には、クライアント装置10のプロセッサ12は、画面P103(図13)をディスプレイに表示する。
表示オブジェクトA103には、被験者に対して、操作を促すメッセージ(例えば、「表示された三角形をクリックしてください」というテキストメッセージ)が表示される。
表示オブジェクトA104は、表示領域A104a~表示領域A104bを含む。
表示領域A104a~A104bには、それぞれ、画像オブジェクトIMG104a~IMG104bが表示される。画像オブジェクトIMG104a~IMG104bは、所定方向に並んで表示される。画像オブジェクトIMG104a~IMG104bは、例えば、四角形の画像である。
表示オブジェクトA104の表示領域A104aには、画像オブジェクトIMG105aが表示される。画像オブジェクトIMG105aは、例えば、三角形の画像である。画像オブジェクトIMG105aは、操作者による操作が可能なオブジェクトである。
表示オブジェクトA104の表示領域A104bには、画像オブジェクトIMG105bが表示される。画像オブジェクトIMG105bは、例えば、三角形の画像である。画像オブジェクトIMG105bは、操作者による操作が可能なオブジェクトである。
例えば、被験者が画面P104の画像オブジェクトIMG104aに注目していた場合には、画像オブジェクトIMG104aと同じ表示領域A104aに表示された画像オブジェクトIMG105aの操作に対する反応時間は、画像オブジェクトIMG104aと異なる表示領域A104bに表示された画像オブジェクトIMG105bの操作に対する反応時間より短くなる。
所定回数のサブリミナルテストが終了すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・画像オブジェクトIMG105aに対する反応時間に関する情報
・画像オブジェクトIMG105bに対する反応時間に関する情報
プロセッサ32は、更新レスポンスデータをクライアント装置10に送信する。
具体的には、磁気共鳴装置に接続されたコンピュータが、磁気共鳴装置によって得られた信号に基づいて、被験者の脳活動パラメータと、血流動態反応パラメータと、を生成する。
当該コンピュータは、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・脳活動パラメータ
・血流動態反応パラメータ
・「MRI」フィールドに、更新リクエストデータに含まれる脳活動パラメータが格納される。
・「fMRI」フィールドに、更新リクエストデータに含まれる血流動態反応パラメータが格納される。
本実施形態の被験者流動情報の登録(OP2)の処理について説明する。図14は、図10の被験者流動情報の登録の処理のシーケンス図である。図15~図17は、図14の情報処理において表示される画面例を示す図である。
クライアント装置10のプロセッサ12は、被験者が装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着した被験者の被験者ID
・ウェアラブル情報
・ステップS200の実行日時に関する情報
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
具体的には、クライアント装置10のプロセッサ12は、画面P200(図15)をディスプレイに表示する。
フィールドオブジェクトF200aには、「タスクの内容は?」という質問が提示される。フィールドオブジェクトF200aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、タスクの内容に関する情報として取得する。
フィールドオブジェクトF200bには、「タスクの種類は?」という質問が提示される。フィールドオブジェクトF200bの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクの種類に関する情報として取得する。
フィールドオブジェクトF200cには、「誰と一緒?」という質問が提示される。フィールドオブジェクトF200cの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、タスクを一緒に行う人物に関する情報として取得する。
フィールドオブジェクトF200dには、「タスクの頻度は?」という質問が提示される。フィールドオブジェクトF200dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの頻度に関する情報として取得する。
フィールドオブジェクトF200eには、「タスクの難易度は?」という質問が提示される。フィールドオブジェクトF200eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの難易度に関する情報として取得する。
フィールドオブジェクトF201aには、「直前30分は何をしていた?」という質問が提示される。フィールドオブジェクトF201aの複数の選択肢の中から任意の選択肢が選択されると、プロセッサ12は、選択された選択肢を、チェックインの直前30分間に行っていた行動に関する情報として取得する。
フィールドオブジェクトF201bには、「直前30分はどうだった?」という質問が提示される。フィールドオブジェクトF201bのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの直前30分間に行った行動に対する自己評価に関する情報として取得する。
フィールドオブジェクトF202aには、「空腹度は?」という質問が表示される。フィールドオブジェクトF202aのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、空腹度に関する情報として取得する。
フィールドオブジェクトF202bには、「眠気は?」という質問が表示される。フィールドオブジェクトF202bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、眠気に関する情報として取得する。
フィールドオブジェクトF202cには、「ストレスは?」という質問が表示される。フィールドオブジェクトF202cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、ストレスに関する情報として取得する。
フィールドオブジェクトF202dには、「前回のタスクは?」という質問が表示される。フィールドオブジェクトF202dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、チェックインの前に行ったタスクに対する自己評価に関する情報として取得する。
フィールドオブジェクトF202eには、「モチベーションは?」という質問が表示される。フィールドオブジェクトF202eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモチベーションに関する情報として取得する。
フィールドオブジェクトF202fには、「不安感は?」という質問が表示される。フィールドオブジェクトF202fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する不安感に関する情報として取得する。
フィールドオブジェクトF202gには、「明確度は?」という質問が表示される。フィールドオブジェクトF202gのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する明確度に関する情報として取得する。
フィールドオブジェクトF203aには、「タスクの後の行動は?」という質問が提示される。フィールドオブジェクトF203aの複数の選択肢の中から任意の選択肢が選択されると、選択された選択肢を、タスクを行った後の予定行動に関する情報として取得する。
フィールドオブジェクトF203bには、「タスクの後の行動の楽しみ度は?」という質問が提示される。フィールドオブジェクトF203bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの後の行動に対する期待感に関する情報として取得する。
チェックイン完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS201の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a~F200e、F201a~F201b、F202a~F202g、及び、F203a~F203bに入力された情報
・「データID」フィールドには、新規のデータIDが格納される。
・「チェックイン日時」フィールドには、チェックイン完了リクエストデータに含まれるチェックイン時間情報が格納される。
・「チェックイン回答」フィールドには、チェックイン完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
具体的には、クライアント装置10のプロセッサ12は、画面P204(図17)をディスプレイに表示する。
フィールドオブジェクトF204aには、「何をした?」という質問が表示される。フィールドオブジェクトF204aに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、完了したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204bには、「完了度は?」という質問が表示される。フィールドオブジェクトF204bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの完了度に関する情報として取得する。
フィールドオブジェクトF204cには、「何をやり残した?」という質問が表示される。フィールドオブジェクトF204cに任意のテキストが入力されると、プロセッサ12は、入力されたテキストを、やり残したタスクの内容に関する情報として取得する。
フィールドオブジェクトF204dには、「タスクの性質は?」という質問が表示される。フィールドオブジェクトF204dのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクの性質(例えば、作業性と指向性の割合)に関する情報として取得する。
フィールドオブジェクトF204eには、「インプット量は?」という質問が表示される。フィールドオブジェクトF204eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのインプット量に関する情報として取得する。
フィールドオブジェクトF204fには、「アウトプット量は?」という質問が表示される。フィールドオブジェクトF204fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクのアウトプット量に関する情報として取得する。
フィールドオブジェクトF205bには、「モヤモヤ感は?」という質問が表示される。フィールドオブジェクトF205bのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対するモヤモヤ感に関する情報として取得する。
フィールドオブジェクトF205cには、「達成感は?」という質問が表示される。フィールドオブジェクトF205cのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する達成感に関する情報として取得する。
フィールドオブジェクトF205dには、「集中度は?」という質問が表示される。フィールドオブジェクトF205dのスライダを移動させると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する集中度に関する情報として取得する。
フィールドオブジェクトF205eには、「満足度は?」という質問が表示される。フィールドオブジェクトF205eのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する満足度に関する情報として取得する。
フィールドオブジェクトF205fには、「疲労感は?」という質問が表示される。フィールドオブジェクトF205fのスライダが移動されると、プロセッサ12は、スライダの位置に応じた数値を、タスクに対する疲労感に関する情報として取得する。
チェックアウト完了リクエストデータは、以下の情報を含む。
・回答を行った被験者の被験者ID
・ステップS202の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a~F204f、及び、F205a~F205fに入力された情報
プロセッサ32は、特定した被験者流動主観情報データベースにおいて、「チェックイン日時」フィールドの情報が最も新しい日時を示す最新レコード(つまり、ステップS201で追加された新規レコード)を特定する。
・「チェックアウト日時」フィールドには、チェックアウト完了リクエストデータに含まれるチェックアウト時間情報が格納される。
・「チェックアウト回答」フィールドには、チェックアウト完了リクエストデータに含まれる回答情報が質問事項毎に格納される。
本実施形態のユーザ情報の登録の処理について説明する。図18は、図10のユーザ情報の登録の処理(OP3)の処理のシーケンス図である。図19は、図18の情報処理において表示される画面例を示す図である。
具体的には、クライアント装置10のプロセッサ12は、画面P300(図19)をディスプレイに表示する。
フィールドオブジェクトF300は、ユーザ情報(例えば、ユーザ名、性別、年齢、及び、職業)の入力を受け付けるオブジェクトである。
操作オブジェクトB300は、フィールドオブジェクトF300に入力された情報をサーバ30に送信させるための指示を受け付けるオブジェクトである。
新規レコードの各フィールドには、以下の情報が格納される。
・「ユーザID」フィールドには、新規のユーザIDが格納される。
・「ユーザ名」フィールド及び「ユーザ属性」フィールドには、ユーザ情報登録リクエストデータに含まれる情報(つまり、フィールドオブジェクトF300に入力された情報)が格納される。
ステップS301は、以下の点において、図11のステップS101とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着主観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの性格タイプに関する情報)を格納する。
ステップS302は、以下の点において、図11のステップS102とは異なる。
・サーバ30のプロセッサ32は、ステップS300で追加した新規レコードの「固着間接客観」フィールドに、更新リクエストデータに含まれる情報(つまり、ユーザの画像オブジェクトIMG105a~IMG105bに対する反応時間に関する情報)を格納する。
本実施形態のユーザ流動情報の登録(OP4)の処理について説明する。図20は、図10のユーザ流動情報の登録の処理のシーケンス図である。
クライアント装置10のプロセッサ12は、ユーザが装着したウェアラブルデバイスから、ウェアラブル情報(例えば、歩数、脈拍、及び、心拍数の少なくとも1つ)を取得する。
プロセッサ12は、更新リクエストデータをサーバ30に送信する。更新リクエストデータは、以下の情報を含む。
・ウェアラブルデバイスを装着したユーザのユーザID
・ウェアラブル情報
・ステップS400の実行日時に関する情報
新規レコードの各フィールドには、以下の情報が格納される。
・「データID」フィールドには、新規データIDが格納される。
・「測定日時」フィールドには、更新リクエストデータに含まれる実行日時に関する情報が格納される。
・「ウェアラブル」フィールドには、更新リクエストデータに含まれるウェアラブル情報が格納される。
ステップS401は、チェックイン完了リクエストデータが以下の情報を含む点において、図14のステップS201と異なる。
・回答を行ったユーザのユーザID
・ステップS401の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF200a~F200e、F201a~F201b、F202a~F202g、及び、F203a~F203bに入力された情報
ステップS402は、チェックアウト完了リクエストデータが以下の情報を含む点において、図14のステップS202と異なる。
・回答を行ったユーザのユーザID
・ステップS402の実行日時を示すチェックイン時間情報
・フィールドオブジェクトF204a~F204f、及び、F205a~F205fに入力された情報
本実施形態の感情の可視化(OP5)の処理について説明する。図21は、図11の感情の可視化の処理のフローチャートである。図22は、図21の情報処理において表示される画面例を示す図である。
具体的には、クライアント装置10のプロセッサ12は、可視化する感情の対象となる対象ユーザのユーザID(以下「対象ユーザID」という)を取得する。
プロセッサ12は、参照リクエストデータをサーバ30に送信する。参照リエクストデータは、対象ユーザIDを含む。
ステップS501では、以下の方法により、少なくとも1つの基準被験者IDが特定される。
・対象ユーザIDに関連付けられた性別と同一の性別に関連付けられた被験者ID
・対象ユーザIDに関連付けられた年齢との差が所定範囲内である年齢に関連付けられた被験者ID
・対象ユーザIDに関連付けられた職業と同一の職業に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と同一の被験者固着主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報との差が所定範囲内である被験者固着主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一の被験者固着間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報との差が所定範囲内である被験者固着間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が最も新しいレコードの「チェックイン回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が最も新しいレコードの「チェックアウト回答」フィールドの情報と同一又は近似の被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックイン日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックイン回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられたユーザ流動主観情報データベースの情報のうち、「チェックアウト日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「チェックアウト回答」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動主観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が最も新しいレコードの「ウェアラブル」フィールドの情報と同一又は近似の被験者流動間接客観情報に関連付けられた被験者ID
・対象ユーザIDに関連付けられた「測定日時」フィールドの情報が所定期間(例えば、過去1ヶ月)に該当する複数のレコードの「ウェアラブル」フィールドの情報の傾向と同一又は近似の傾向を有する被験者流動間接客観情報に関連付けられた被験者ID
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動主観情報(図8)の「チェックイン回答」フィールド、及び、「チェックアウト回答」フィールドの情報(つまり、対象ユーザの流動主観情報)を特定する。
プロセッサ43は、対象ユーザIDに関連付けられたユーザ流動間接客観情報(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報と、感情コンディションとの推論モデルが構築されている。感情コンディションとは、脳の解剖学的な位置、伝達物質、受容体の発現、及び、時間を含む様々な要素に基づいて決定される神経科学上の感情の種類毎のレベルである。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの脳活動パラメータ、血流動態反応パラメータ、流動主観情報、及び、流動間接客観情報から、対象ユーザの感情コンディションを決定する。
感情の種類は、例えば、以下の少なくとも1つである。
・楽しみ
・不安
・緊張
プロセッサ32は、対象ユーザIDに関連付けられたユーザ流動間接客観情報データベース(図9)の「ウェアラブル」フィールドの情報(つまり、対象ユーザの流動間接客観情報)を特定する。
記憶装置31には、固着主観情報、固着間接客観情報、及び、流動間接客観情報と、感情傾向との相関正に関する推論モデルが構築されている。
プロセッサ32は、記憶装置31に記憶された推論モデルを用いて、対象ユーザの固着主観情報、固着間接客観情報、及び、流動間接客観情報から、対象ユーザの感情傾向を決定する。
感情傾向は、例えば、以下の少なくとも1つを含む。
・副交感神経に対する交感神経の優位度
・交感神経に対する副交感神経の優位度
・ストレス反応度
・ストレス耐性度
・扁桃体の活性度
・サリエンスネットワークの活用度
感情因子は、例えば、以下の少なくとも1つを含む。
・ユーザの行動(一例として、運動、仕事、勉強、又は、読書)
・ユーザの外的要因(一例として、天候、又は、温湿度)
・ユーザの対人要因(一例として、自他、親近感、関係性、好き嫌いのレベル、又は、接触頻度)
・ユーザの対物要因(一例として、親近感、関係性、好き嫌い度合い、接触頻度など)
・ユーザの環境要因(一例として、場所、天気、湿度、二酸化炭素濃度、気圧、又は、雨量)
・ユーザのコンディション要因(一例として、睡眠状態、又は、食事状態)
具体的には、サーバ30のプロセッサ32は、ステップS502で推定されたユーザ感情情報をクライアント装置10に送信する。
クライアント装置10のプロセッサ12は、ユーザ感情情報に基づいて、画面P500(図22)をディスプレイに表示する。
表示オブジェクトA500aには、感情コンディションが表示される。感情コンディションは、例えば、感情の種類(例えば、楽しみ、不安、及び、緊張)毎のレベルである。
表示オブジェクトA500bには、感情傾向が表示される。
表示オブジェクトA500cには、感情因子が表示される。
本実施形態の変形例について説明する。
変形例のユーザ感情情報データベースについて説明する。図23は、変形例のユーザ感情情報データベースのデータ構造を示す図である。
ユーザ感情情報データベースは、「データID」フィールドと、「判定日時」フィールドと、「感情」フィールドと、を含む。
ユーザ感情情報データベースは、ユーザIDに関連付けられる。
「感情」フィールドは、「感情コンディション」フィールドと、「感情傾向」フィールドと、「感情因子」フィールドと、を含む。
変形例の感情の可視化の処理(OP5)について説明する。図24は、変形例の感情の可視化の処理のフローチャートである。
具体的には、サーバ30のプロセッサ32は、ステップS500で決定した対象ユーザ情報に基づいて、基準ユーザの基準ユーザIDを決定する。
プロセッサ32は、ユーザ情報データベースを参照して、対象ユーザ以外のユーザの非対象ユーザIDに関連付けられた「ユーザ属性」フィールドを参照して、対象ユーザIDに関連付けられた「ユーザ属性」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着主観」フィールドを参照して、対象ユーザIDに関連付けられた「固着主観」フィールドの情報と所定関係にある情報を含むレコードを特定する。
所定関係とは、以下の何れかの関係である。
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報と、非対象ユーザIDに関連付けられた「固着主観」フィールドの情報とが同一である関係
・対象ユーザIDに関連付けられた「固着主観」フィールドの情報、及び、非対象ユーザIDに関連付けられた「固着主観」フィールドの情報が、予め定められた組合せ(例えば、相性が良い組合せ、又は、相性が悪い組合せ)である関係
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
プロセッサ32は、ユーザ情報データベースを参照して、非対象ユーザIDに関連付けられた「固着間接客観」フィールドを参照して、対象ユーザIDに関連付けられた「固着間接客観」フィールドの情報と同一又は近似の情報を含むレコードを特定する。
プロセッサ32は、特定したレコードのユーザIDを、基準ユーザIDとして決定する。
具体的には、記憶装置31には、更に、以下の少なくとも1つの推論モデルが構築されている。
・ユーザ属性情報とユーザ感情情報の推論モデル
・ユーザ固着主観情報とユーザ感情情報の推論モデル
・ユーザ固着間接客観情報とユーザ感情情報の推論モデル
・ユーザ流動主観情報とユーザ感情情報のユーザ推論モデル
・ユーザ流動間接客観情報とユーザ感情情報のユーザ推論モデル
本実施形態について小括する。
ユーザの感情を推定する情報処理装置(例えば、サーバ30)であって、
被験者の客観的感情に直接的に関連する直接客観情報(例えば、MRI又はfMRIによって得られ得る情報)を取得する手段(例えば、ステップS103を実行するプロセッサ32)を備え、
被験者の主観的感情に関連する被験者主観情報、及び、被験者の客観的感情に間接的に関連する被験間接客観情報の少なくとも1つを取得する手段(例えば、ステップS101~S102、及び、S200~S202の少なくとも1つを実行するプロセッサ32)を備え、
ユーザの主観的感情に関連するユーザ主観情報、及び、ユーザの客観的感情に間接的に関連するユーザ間接客観情報の少なくとも1つを取得する手段(例えば、ステップS300~S202、及び、S400~S402の少なくとも1つを実行するプロセッサ32)を備え、
直接客観情報と、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、を参照して、ユーザの感情に関連するユーザ感情情報を推定する手段(例えば、ステップS502を実行するプロセッサ32)を備える、
情報処理装置である。
推定されたユーザ感情情報を提示する手段(例えば、ステップS503を実行するプロセッサ32)を備える、
情報処理装置である。
主観情報は、被験者又はユーザに固着した主観的感情に関連する固着主観情報と、被験者又はユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
情報処理装置である。
間接客観情報は、被験者又はユーザに固着した客観的感情に関連する固着客観情報と、被験者又はユーザにとって流動的な客観的感情に関連する流動客観情報と、を含む、
情報処理装置である。
直接客観情報は、被験者に対する、MRI(Magnetic Resonance Imaging)検査、PET(Positron Emission Tomography)検査、fNIRS(functional Near Infrared Spectroscopy) 検査、EEG(Electroencephalogram)検査、及び、MEG(Magnetoencephalography)検査の少なくとも1つによって得られる情報である、
情報処理装置である。
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、直接客観情報と、により構成される推論モデルを用いて、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つからユーザ感情情報を推定する、
情報処理装置である。
感情を推定すべき対象ユーザとは異なる非対象ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つを参照して、複数の非対象ユーザの中から基準ユーザを決定する手段を備え、
推定する手段は、被験者主観情報及び被験者間接客観情報の少なくとも1つと、ユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ主観情報及びユーザ間接客観情報の少なくとも1つと、基準ユーザのユーザ感情情報と、を参照して、対象ユーザのユーザ感情情報を推定する、
情報処理装置である。
コンピュータ(例えば、プロセッサ32)を、上記各手段として機能させるためのプログラムである。
その他の変形例について説明する。
ステップS102及びS302は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS200及びS400は、省略可能である。この場合、感情の可視化(OP5)が実行される。
ステップS201及びS202、並びに、S401及びS402は、省略可能である。この場合、感情の可視化(OP5)が実行される。
・日記
・ブログ
・PET(Positron Emission Tomography)検査
・fNIRS(functional Near Infrared Spectroscopy) 検査
・EEG(Electroencephalogram)検査
・MEG(Magnetoencephalography)検査
選択肢オブジェクトは、例えば、以下の少なくとも1つを含む。
・感情の種類毎のアイコン
・感情を表す色の画像オブジェクト
例えば、クライアント装置10は、ステレオスピーカ(一例として、操作者に対して左右に配置された左スピーカ及び右スピーカ)を備える。
プロセッサ12は、左スピーカ及び右スピーカのそれぞれから、サブリミナル音を再生する。
操作者は、左スピーカ及び右スピーカのそれぞれから再生されたサブリミナル音を聞いて、何れのスピーカから再生されたサブリミナル音が聞きやすかったかを示すユーザ指示をクライアント装置10に与える。
プロセッサ12は、当該ユーザ指示(つまり、サブリミナル音が聞きやすいスピーカを示す指示)を含む更新リクエストデータをサーバ30に送信する。
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
Claims (10)
- ユーザの感情を推定する情報処理装置であって、
被験者の客観的感情に直接的に関連する被験者直接客観情報及び前記被験者の客観的感情に間接的に関連する被験者間接客観情報を記憶する手段を備え、
前記ユーザの主観的感情に関連するユーザ主観情報、及び、前記ユーザの客観的感情に間接的に関連するユーザ間接客観情報を取得する手段を備え、
前記ユーザと同一又は近似の基準被験者の被験者直接客観情報及び前記被験者間接客観情報と、前記ユーザ主観情報及び前記ユーザ間接客観情報と、を参照して、前記ユーザの感情に関連するユーザ感情情報を推定する手段を備える、
情報処理装置。 - 前記取得する手段は、タスクを実行する前に前記ユーザに提示した質問に対する前記ユーザの回答に応じて、前記ユーザ主観情報を取得する、
請求項1に記載の情報処理装置。 - 前記質問は、前記タスクに関する質問、前記タスクを実行する前の行動に関する質問、及び、前記タスクを実行する前の前記ユーザの状態に関する質問の少なくとも1つを含む、
請求項2に記載の情報処理装置。 - 前記取得する手段は、タスクを完了した後に前記ユーザに提示した質問に対する前記ユーザの回答に応じて、前記ユーザ主観情報を取得する、
請求項2又は請求項3に記載の情報処理装置。 - 前記質問は、前記タスクに関する質問、前記タスクを完了した後の行動に関する質問、及び、前記タスクを完了した後の前記ユーザの状態に関する質問の少なくとも1つを含む、
請求項4に記載の情報処理装置。 - 前記推定されたユーザ感情情報を提示する手段を備える、
請求項1~請求項5の何れかに記載の情報処理装置。 - 前記ユーザ感情情報は、感情コンディション、感情傾向、及び、感情因子の少なくとも1つを含む、
請求項6に記載の情報処理装置。 - 前記ユーザ主観情報は、前記ユーザに固着した主観的感情に関連する固着主観情報と、前記ユーザにとって流動的な主観的感情に関連する流動主観情報と、を含む、
請求項1~請求項7の何れかに記載の情報処理装置。 - コンピュータを、請求項1~請求項8の何れかに記載の各手段として機能させるためのプログラム。
- ユーザの感情を推定する情報処理方法であって、
被験者の客観的感情に直接的に関連する被験者直接客観情報及び前記被験者の客観的感情に間接的に関連する被験者直接客観情報を記憶するステップを備え、
前記ユーザの主観的感情に関連するユーザ主観情報、及び、前記ユーザの客観的感情に間接的に関連するユーザ間接客観情報を取得するステップを備え、
前記ユーザと同一又は近似の基準被験者の被験者直接客観情報及び前記被験者直接客観情報と、前記ユーザ主観情報及び前記ユーザ間接客観情報と、を参照して、前記ユーザの感情に関連するユーザ感情情報を推定するステップを備える、
情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020121797A JP7064787B2 (ja) | 2020-07-16 | 2020-07-16 | 情報処理装置、プログラム、及び、情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020121797A JP7064787B2 (ja) | 2020-07-16 | 2020-07-16 | 情報処理装置、プログラム、及び、情報処理方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018181377A Division JP6739805B2 (ja) | 2018-09-27 | 2018-09-27 | 情報処理装置、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020168537A JP2020168537A (ja) | 2020-10-15 |
JP2020168537A5 JP2020168537A5 (ja) | 2021-11-04 |
JP7064787B2 true JP7064787B2 (ja) | 2022-05-11 |
Family
ID=72746490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020121797A Active JP7064787B2 (ja) | 2020-07-16 | 2020-07-16 | 情報処理装置、プログラム、及び、情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7064787B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023105790A1 (ja) * | 2021-12-10 | 2023-06-15 | 日本電気株式会社 | ストレス推定方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011065237A1 (ja) | 2009-11-27 | 2011-06-03 | 株式会社日立製作所 | 生体光計測装置 |
JP2011238215A (ja) | 2010-04-17 | 2011-11-24 | Udo Toshihiro | 心身健康状況管理システム |
JP2016221056A (ja) | 2015-06-01 | 2016-12-28 | 株式会社日立製作所 | 生体光計測結果解析装置、それを用いた問診システム、及び、生体光計測装置 |
JP2017074356A (ja) | 2015-10-16 | 2017-04-20 | 国立大学法人広島大学 | 感性評価方法 |
JP2017176762A (ja) | 2016-03-31 | 2017-10-05 | 有限会社Triart | ストレス評価方法およびストレス評価システム |
-
2020
- 2020-07-16 JP JP2020121797A patent/JP7064787B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011065237A1 (ja) | 2009-11-27 | 2011-06-03 | 株式会社日立製作所 | 生体光計測装置 |
JP2011238215A (ja) | 2010-04-17 | 2011-11-24 | Udo Toshihiro | 心身健康状況管理システム |
JP2016221056A (ja) | 2015-06-01 | 2016-12-28 | 株式会社日立製作所 | 生体光計測結果解析装置、それを用いた問診システム、及び、生体光計測装置 |
JP2017074356A (ja) | 2015-10-16 | 2017-04-20 | 国立大学法人広島大学 | 感性評価方法 |
JP2017176762A (ja) | 2016-03-31 | 2017-10-05 | 有限会社Triart | ストレス評価方法およびストレス評価システム |
Also Published As
Publication number | Publication date |
---|---|
JP2020168537A (ja) | 2020-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Arguel et al. | Inside out: detecting learners’ confusion to improve interactive digital learning environments | |
Marinescu et al. | Physiological parameter response to variation of mental workload | |
US20230058925A1 (en) | System and method for providing and aggregating biosignals and action data | |
Harley et al. | Emotion regulation tendencies, achievement emotions, and physiological arousal in a medical diagnostic reasoning simulation | |
US11301775B2 (en) | Data annotation method and apparatus for enhanced machine learning | |
Weibel et al. | Virtual reality experiments with physiological measures | |
Harrison | The Emotiv mind: Investigating the accuracy of the Emotiv EPOC in identifying emotions and its use in an Intelligent Tutoring System | |
Carey et al. | Toward measuring empathy in virtual reality | |
Bergstrom et al. | Physiological response measurements | |
RU2319444C1 (ru) | Способ психологического анализа и устройство для его реализации (варианты) | |
Falkowska et al. | Eye tracking usability testing enhanced with EEG analysis | |
Trupp et al. | Who benefits from online art viewing, and how: The role of pleasure, meaningfulness, and trait aesthetic responsiveness in computer-based art interventions for well-being | |
Bonnstetter et al. | Brain activation imaging in emotional decision making and mental health: A review—Part 1 | |
Weiß et al. | Effects of image realism on the stress response in virtual reality | |
JP7064787B2 (ja) | 情報処理装置、プログラム、及び、情報処理方法 | |
Verwulgen et al. | Determining comfortable pressure ranges for wearable EEG headsets | |
JP6739805B2 (ja) | 情報処理装置、プログラム | |
Taherysayah et al. | Virtual reality and electroencephalography in architectural design: A systematic review of empirical studies | |
WO2022176865A1 (ja) | サーバ装置、システム、およびプログラム | |
Liapis et al. | Don’t leave me alone: Retrospective think aloud supported by real-time monitoring of participant’s physiology | |
Biswas et al. | Investigation of an EEG-based indicator of skill acquisition as novice participants practice a lifeboat maneuvering task in a simulator | |
US20220012286A1 (en) | Classification device and classification program | |
Brunzini et al. | An integrated methodology for the assessment of stress and mental workload applied on virtual training | |
Gralha et al. | Are there gender differences when interacting with social goal models? A quasi-experiment | |
US20160148530A1 (en) | Method and system for facilitating overcoming of addictive behavior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210922 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7064787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |