JP7036046B2 - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP7036046B2 JP7036046B2 JP2019005363A JP2019005363A JP7036046B2 JP 7036046 B2 JP7036046 B2 JP 7036046B2 JP 2019005363 A JP2019005363 A JP 2019005363A JP 2019005363 A JP2019005363 A JP 2019005363A JP 7036046 B2 JP7036046 B2 JP 7036046B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- participant
- utterance
- relationship
- facial expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 70
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000008921 facial expression Effects 0.000 claims description 260
- 230000008859 change Effects 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 12
- 230000001815 facial effect Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 17
- 230000008451 emotion Effects 0.000 description 13
- 239000013604 expression vector Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000036544 posture Effects 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000002996 emotional effect Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 229910002092 carbon dioxide Inorganic materials 0.000 description 2
- 239000001569 carbon dioxide Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000009223 counseling Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000001568 sexual effect Effects 0.000 description 2
- 241000287531 Psittacidae Species 0.000 description 1
- 241000287530 Psittaciformes Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
以下、本発明の一実施形態について、詳細に説明する。図1は、本実施形態の情報処理装置10を含む情報処理システム100の概要を示す図である。図1に示すように、情報処理システム100は、情報処理装置10、第1の端末装置20、及び第2の端末装置30を備えている。なお端末装置の数は、本実施形態を限定するものではなく、3以上であってもよい。
・上司と部下との面談
・医師による患者への問診
・カウンセラーによる対象者へのカウンセリング
・客に対する店員の接客や窓口相談
・Web Meeting等の遠隔でのコミュニケーション
・e-Learning等の対ビデオ画像に対するコミュニケーション
等が含まれる。
図1に示すように、第1の端末装置20は、カメラ21、マイク22、表示部23、制御部24、スピーカ25、及び通信部26を備えている。
カメラ21は、第1の参加者を撮像し、撮像画像を制御部24に供給する。ここで、カメラ21による撮像画像は、動画像であることが好ましく、当該構成の場合、図3に示すように、カメラ21は、制御部24に対して、動画ファイル、及び動画ファイルに含まれる各画像のリストである動画ファイルリストの少なくとも何れかを供給する。カメラ21は、当該動画ファイルに含まれる各画像の撮像時刻を示すタイムスタンプを制御部24に供給する。
制御部24は、カメラ21から供給される動画ファイル、動画ファイルリスト、及びタイムスタンプを参照して、画像認識処理を行う。
マイク22は、主として、第1の参加者の発話する音声を集音し、集音した音声を示す音声ファイル、及び、当該音声ファイルにおける発話の時点を特定するためのタイムスタンプを制御部24に供給する。
制御部24は、マイク22から供給される音声ファイル及びタイムスタンプを参照して、発話認識処理を行う。
また、第2の端末装置30は、カメラ31、マイク32、表示部33、制御部34、スピーカ35、及び通信部36を備えている。
カメラ31は、第2の参加者を撮像し、撮像画像を制御部34に供給する。ここで、カメラ31による撮像画像は、動画像であることが好ましく、当該構成の場合、図3に示すように、カメラ31は、制御部34に対して、動画ファイル、及び動画ファイルに含まれる各画像のリストである動画ファイルリストの少なくとも何れかを供給する。カメラ31は、当該動画ファイルに含まれる各画像の撮像時刻を示すタイムスタンプを制御部34に供給する。
制御部34は、カメラ31から供給される動画ファイル、動画ファイルリスト、及びタイムスタンプを参照して、画像認識処理を行う。
マイク32は、主として、第2の参加者の発話する音声を集音し、集音した音声を示す音声ファイル、及び、当該音声ファイルにおける発話の時点を特定するためのタイムスタンプを制御部34に供給する。
制御部34は、マイク32から供給される音声ファイル及びタイムスタンプを参照して、発話認識処理を行う。
情報処理装置10は、表情情報取得部13、音声情報取得部14、表情関係性情報生成部15、発話関係性情報生成部16、及び関係性情報生成部17を備えている。情報処理装置10は、さらに、通信部11を備えている。表情情報取得部13、音声情報取得部14、表情関係性情報生成部15、発話関係性情報生成部16、関係性情報生成部17は、演算部12が備えている。
表情情報取得部13は、通信部11を介して複数の会議参加者のうち第1の参加者の表情に関する第1の表情情報と、複数の会議参加者のうち第2の参加者の表情に関する第2の表情情報とを取得する。
表情情報取得部13は、一例として、通信部11を介して、第1の参加者に関する表情情報に含まれる時系列数値データである時系列表情値、時系列顔パーツ座標、及び時系列視線座標を参照し、当該時系列数値データに対して、一例として以下の処理を行うことによって、数値データ洗浄処理を行う。
・無効データ区間を削除する
・有効データ区間におけるデータを平均する
・分散及び項数に変換する
表情情報取得部13は、上述の数値データ洗浄処理を行うことによって、第1の参加者に関する区間時系列数値データを生成する。当該区間時系列数値データは、有効区間における時系列表情値、時系列顔パーツ座標、及び時系列視線座標を含んでいる。
表情情報取得部13は、第1の参加者に関する区間時系列数値データを参照して、第1の参加者の表情を表現する複数の第1の指標を算出する。また、表情情報取得部13は、第2の参加者に関する区間時系列数値データを参照して、第2の参加者の表情を表現する複数の第2の指標を算出する。
・怒り(anger)
・侮辱(contempt)
・嫌悪(disgust)
・恐怖(fear)
・喜び(happiness)
・中立(neutral)
・悲しみ(sadness)
・驚き(surprise)
したがって、表情を表現する指標とは、当該表情が示す感情を表現する指標ということもできる。
また、表情情報取得部13は、通信部11を介して、第1の端末装置20及び第2の端末装置30から、第1の参加者及び第2の参加者の視線方向に関する情報を取得する。具体的には、一例として、表情情報取得部13は、第1の参加者の視線方向に関する情報として、上述した第1の参加者に関する区間時系列数値データに含まれる時系列視線座標を取得する。同様に、表情情報取得部13は、第2の参加者の視線方向に関する情報として、上述した第2の参加者に関する区間時系列数値データに含まれる時系列視線座標を取得する。
また、表情情報取得部13は、当該区間時系列数値データに含まれる第1の参加者の時系列顔パーツ座標を取得し、第1の参加者と撮像手段(カメラ21)との間の距離を算出してもよい。また、表情情報取得部13は、当該区間時系列数値データに含まれる第2の参加者の時系列顔パーツ座標を取得し、第2の参加者と撮像手段(カメラ31)との間の距離を算出してもよい。参加者と撮像手段との間の距離は、例えば、顔パーツ座標から得られる撮像画像中の顔の目尻距離を顔角度補正したものを目尻距離とし、この目尻距離の逆数として算出することができる。
音声情報取得部14は、第1の参加者の発話に関する第1の発話情報と、複数の会議参加者のうち第2の参加者の発話に関する第2の発話情報とを取得する。すなわち、音声情報取得部14は、通信部11を介して、第1の端末装置20及び第2の端末装置30から第1の参加者及び第2の参加者の発話に関する情報を取得する。
表情関係性情報生成部15は、第1の表情情報と第2の表情情報とを参照して、第1の参加者と第2の参加者との表情に関する関係性を示す表情関係性情報を生成する。
上述のように、第1の表情情報には、第1の参加者の表情を表現する複数の第1の指標が含まれており、第2の表情情報には、第2の参加者の表情を表現する複数の第2の指標が含まれている。
また、第1の表情情報が、第1の参加者の視線方向に関する第1の視線情報を含む構成とし、第2の表情情報が、第2の参加者の視線方向に関する第2の視線情報を含む構成としてもよい。表情関係性情報生成部15は、第1の視線情報と第2の視線情報とを参照して視線関係性情報を生成し、生成した視線関係性情報を、表情関係性情報に含めてもよい。
また、表情関係性情報生成部15は、第1の参加者と第2の参加者との前のめり率を算出し、算出した前のめり率を表情関係性情報に含めてもよい。算出された前のめり率は、会議中に他の参加者の発話に興味を示している状態を表す指標とも言える。一例として、表情関係性情報生成部15は、第1の参加者及び第2の参加者の、それぞれの撮像手段からの距離が、予め設定された一定時間内においてしきい値よりも下回った場合に、第1の参加者及び第2の参加者が前のめり状態であると判定する。
例えば、第1の参加者の属性を示す参加者情報が、当該第1の参加者が内気であることを示している場合、表情関係性情報生成部15は、「中立(neutral)」の指標に対して重み0.8を乗算し、残り0.2の重みを他の指標に比例配分する等の処理を行うことによって、当該第1の参加者の表情ベクトルを補正し、補正後の表情ベクトルを用いて表情関係性情報を生成する構成としてもよい。
表情関係性情報生成部15は、一例として、通信部11を介して、第1の参加者及び第2の参加者それぞれのユーザIDと、当該ユーザIDが表す参加者が会議開始した時刻及び終了した時刻を表すタイムスタンプとを参照し、対話管理処理を行う。表情関係性情報生成部15は、一の参加者に関する区間時系列数値データのある時点のデータについて、その時点に対話している他の参加者のユーザIDを抽出し、どの参加者と対話中に得られたデータであるかを判定して、結果を表情関係性情報に含めてもよい。
発話関係性情報生成部16は、第1の発話情報と第2の発話情報とを参照して、第1の参加者と第2の参加者との発話に関する関係性を示す発話関係性情報を生成する。発話関係性情報生成部16は、音声情報取得部14から第1の発話情報及び第2の発話情報を取得し、これらの発話情報を元に、会議中の参加者間の感情の一致度を参加者双方の発話から評価することで、参加者間のコミュニケーション状態を評価する。
発話関係性情報生成部16は、第1の発話情報が示す第1の参加者の発話時間と、第2の発話情報が示す第2の参加者の発話時間との関係を示す発話時間関係性情報を生成し、生成した発話時間関係性情報を、発話関係性情報に含めてもよい。
また、発話関係性情報生成部16は、第1の発話情報及び第2の発話情報の少なくとも何れかに、特定のカテゴリーに含まれる発話内容が含まれているか否かを判定し、判定した結果に応じた情報を前記発話関係性情報に含めてもよい。
同様に、発話関係性情報生成部16は、第2の参加者の区間時系列テキストデータから、促し質問率を算出する。そして、発話関係性情報生成部16は、第1の参加者の促し質問率と第2の参加者の促し質問率とを比較して、促し質問比率を算出し、発話関係性情報に含める。算出された促し質問比率は、参加者間の関係の対等性を表す指標とも言える。また、発話関係性情報生成部16は、第1の参加者の促し質問率及び第2の参加者の促し質問率を、発話関係性情報に含めてもよい。
また、発話関係性情報生成部16は、第1の発話情報及び第2の発話情報の少なくとも何れかから、所定時間内において相対的に出現頻度の高い単語を抽出し、抽出した単語を発話関係性情報に含めてもよい。
発話関係性情報生成部16は、一例として、通信部11を介して、第1の参加者及び第2の参加者それぞれのユーザIDと、当該ユーザIDが表す参加者が会議開始した時刻及び終了した時刻を表すタイムスタンプとを参照し、対話管理処理を行う。発話関係性情報生成部16は、一の参加者に関する区間時系列テキストデータのある時点のデータについて、その時点に対話している他の参加者のユーザIDを抽出し、どの参加者と対話中に得られたデータであるかを判定して、結果を発話関係性情報に含めてもよい。
関係性情報生成部17は、表情関係性情報と前記発話関係性情報とを参照して前記第1の参加者と前記第2の参加者との関係を示すリアルタイム又は経時的な情報である関係性情報を生成する。会議中の参加者双方の表情及び発話の両方を評価することで、参加者間のコミュニケーション状態をより詳細に評価することができる。また、関係性情報生成部17は、参加者間のリアルタイム又は経時的な表情情報及び発話情報を元に関係性情報を生成するので、参加者間のリアルタイム又は経時的なコミュニケーション状態を評価することができる。
端末装置の制御部における処理の一部又は全部を、情報処理装置10の備える演算部12において行う構成としてもよい。例えば、演算部12が、通信部11を介して、カメラ21の撮像画像を取得し、表情情報取得部13において、第1の参加者の表情に関する第1の表情情報、及び、第2の参加者の表情に関する第2の表情情報を生成する構成としてもよい。
また、上記の例では、第1の参加者及び第2の参加者の2名による会議を例にしたが、本実施形態はこれに限定されるものではない。当然、N名(Nは3以上)による会議に対しても本明細書に記載の発明を適用することができる。その場合、N名中の任意の2人のペアに対して、本明細書に記載の構成を個別に適用することができる。例えば、3名(A、B、C)による会議に対しては、(A、B)(A、C)(B、C)の3組に対して本明細書に記載の発明を個別に適用することができる。
このように、本実施形態に記載の発明は、N人の状態を表すデータ,N人の状態の履歴データおよびN人の環境情報を用いて、当該N人の内の一部又は全部の参加者間の関係を示す「関係性情報」を生成するものであると表現することもできる。
<付記事項3>
また、上記の例では、第1の参加者及び第2の参加者が共に人間である場合を例に挙げたが、これは本実施形態を限定するものではない。
例えば、第2の参加者は、人間ではなく、予め設定されたアバターやBOTのようにコンピュータによって表現される疑似的な人間であってもよい。このような構成の場合、第2の端末装置は、必須ではなく、表情情報取得部13及び音声情報取得部14は、予め作成された当該BOTが表す表情及び発話内容を、第2の参加者の表情情報及び音声情報として取得する構成とすればよい。
なお、BOTが表す表情及び発話内容は、会議前に事前に作成されたデータを用いてもよいし、会議中の第1の参加者の表情や発話に応じて適応的に変更される構成としてもよい。
情報処理装置1の制御ブロック(特に演算部12)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
10 情報処理装置
20 第1の端末装置
30 第2の端末装置
13 表情情報取得部
14 音声情報取得部
15 表情関係性情報生成部
16 発話関係性情報生成部
17 関係性情報生成部
Claims (12)
- 複数の参加者のうち第1の参加者の表情に関する第1の表情情報と、前記複数の参加者のうち第2の参加者の表情に関する第2の表情情報とを取得する表情情報取得部と、
当該第1の参加者の発話に関する第1の発話情報と、前記複数の参加者のうち第2の参加者の発話に関する第2の発話情報とを取得する音声情報取得部と、
前記第1の表情情報と前記第2の表情情報とを参照して、前記第1の参加者と前記第2の参加者との表情に関する関係性を示す表情関係性情報を生成する表情関係性情報生成部と、
前記第1の発話情報と前記第2の発話情報とを参照して、前記第1の参加者と前記第2の参加者との発話に関する関係性を示す発話関係性情報を生成する発話関係性情報生成部と、
前記表情関係性情報と前記発話関係性情報とを参照して前記第1の参加者と前記第2の参加者との関係を示す情報である関係性情報を生成する関係性情報生成部と、
を備えていることを特徴とする情報処理装置。 - 前記関係性情報は、前記第1の参加者と前記第2の参加者との関係を示すリアルタイム又は経時的な情報である
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1の表情情報には、前記第1の参加者の表情を表現する複数の第1の指標が含まれており、
前記第2の表情情報には、前記第2の参加者の表情を表現する複数の第2の指標が含まれており、
前記表情関係性情報生成部は、前記第1の指標と前記第2の指標との差に関する表情差分情報を生成し、生成した表情差分情報を、前記表情関係性情報に含める
ことを特徴とする請求項1又は2に記載の情報処理装置。 - 前記第1の表情情報には、前記第1の参加者の視線方向に関する第1の視線情報が含まれており、
前記第2の表情情報には、前記第2の参加者の視線方向に関する第2の視線情報が含まれており、
前記表情関係性情報生成部は、前記第1の視線情報と前記第2の視線情報とを参照して視線関係性情報を生成し、生成した視線関係性情報を、前記表情関係性情報に含める
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。 - 前記発話関係性情報生成部は、
前記第1の発話情報が示す前記第1の参加者の発話時間と、前記第2の発話情報が示す前記第2の参加者の発話時間との関係を示す発話時間関係性情報を生成し、生成した発話時間関係性情報を、前記発話関係性情報に含める
ことを特徴とする請求項1から4の何れか1項に記載の情報処理装置。 - 前記発話関係性情報生成部は、
前記第1の発話情報及び前記第2の発話情報の少なくとも何れかに、特定のカテゴリーに含まれる発話内容が含まれているか否かを判定し、判定した結果に応じた情報を前記発話関係性情報に含める
ことを特徴とする請求項1から5の何れか1項に記載の情報処理装置。 - 前記発話関係性情報生成部は、
前記第1の発話情報及び前記第2の発話情報の少なくとも何れかから、所定時間内において相対的に出現頻度の高い単語を抽出し、抽出した単語を前記発話関係性情報に含めることを特徴とする請求項1から6の何れか1項に記載の情報処理装置。 - 前記関係性情報生成部は、前記関係性情報を参照して、前記第1の参加者及び前記第2の参加者の少なくとも何れかに提示する提示情報を生成する
ことを特徴とする請求項1から7の何れか1項に記載の情報処理装置。 - 前記提示情報には、
前記第1の参加者の発話時間と、前記第2の参加者の発話時間との割合を示す情報、
及び、
前記第1の参加者の視線方向と、前記第2の参加者の視線方向との合致率の経時変化に関する情報
が含まれている
ことを特徴とする請求項8に記載の情報処理装置。 - 前記表情関係性情報生成部、及び前記発話関係性情報生成部は、前記第1及び第2の参加者の属性を示す参加者情報を更に参照して、前記表情関係性情報及び前記発話関係性情報を生成する
ことを特徴とする請求項1から9の何れか1項に記載の情報処理装置。 - ソフトウェアの制御によってコンピュータが行う情報処理方法であって、
複数の参加者のうち第1の参加者の表情に関する第1の表情情報と、前記複数の参加者のうち第2の参加者の表情に関する第2の表情情報とを取得する表情情報取得ステップと、
当該第1の参加者の発話に関する第1の発話情報と、前記複数の参加者のうち第2の参加者の発話に関する第2の発話情報とを取得する音声情報取得ステップと、
前記第1の表情情報と前記第2の表情情報とを参照して、前記第1の参加者と前記第2の参加者との表情に関する関係性を示す表情関係性情報を生成する表情関係性情報生成ステップと、
前記第1の発話情報と前記第2の発話情報とを参照して、前記第1の参加者と前記第2の参加者との発話に関する関係性を示す発話関係性情報を生成する発話関係性情報生成ステップと、
前記表情関係性情報と前記発話関係性情報とを参照して前記第1の参加者と前記第2の参加者との関係を示すリアルタイム又は経時的な情報である関係性情報を生成する関係性情報生成ステップと、
を前記コンピュータが行うことを特徴とする情報処理方法。 - 請求項1~10の何れか1項に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、前記表情情報取得部、前記音声情報取得部、前記表情関係性情報生成部、前記発話関係性情報生成部、及び前記関係性情報生成部としてコンピュータを機能させるための情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019005363A JP7036046B2 (ja) | 2019-01-16 | 2019-01-16 | 情報処理装置、情報処理方法、及び情報処理プログラム |
PCT/JP2019/009523 WO2020148920A1 (ja) | 2019-01-16 | 2019-03-08 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019005363A JP7036046B2 (ja) | 2019-01-16 | 2019-01-16 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113197A JP2020113197A (ja) | 2020-07-27 |
JP7036046B2 true JP7036046B2 (ja) | 2022-03-15 |
Family
ID=71614064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019005363A Active JP7036046B2 (ja) | 2019-01-16 | 2019-01-16 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7036046B2 (ja) |
WO (1) | WO2020148920A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022264222A1 (ja) * | 2021-06-14 | 2022-12-22 | 株式会社I’mbesideyou | 動画像分析システム |
JP7440844B2 (ja) * | 2021-09-30 | 2024-02-29 | 株式会社調和技研 | 情報処理装置及びプログラム |
WO2023074129A1 (ja) * | 2021-11-01 | 2023-05-04 | ソニーグループ株式会社 | 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム |
WO2023084715A1 (ja) * | 2021-11-11 | 2023-05-19 | 日本電信電話株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2023132597A (ja) | 2022-03-11 | 2023-09-22 | 株式会社リコー | 情報処理システム、組織構成支援システム、情報処理方法及びプログラム |
WO2023243009A1 (ja) * | 2022-06-15 | 2023-12-21 | 日本電信電話株式会社 | 情報提示装置、情報提示方法、およびプログラム |
JP2024006627A (ja) * | 2022-07-04 | 2024-01-17 | パナソニックIpマネジメント株式会社 | 評価システム、評価装置および評価方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005284822A (ja) | 2004-03-30 | 2005-10-13 | Seiko Epson Corp | 感情マッチング装置、感情マッチング方法、及びプログラム |
JP2016103081A (ja) | 2014-11-27 | 2016-06-02 | Kddi株式会社 | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム |
JP2016177483A (ja) | 2015-03-19 | 2016-10-06 | キヤノン株式会社 | コミュニケーション支援装置、コミュニケーション支援方法及びプログラム |
-
2019
- 2019-01-16 JP JP2019005363A patent/JP7036046B2/ja active Active
- 2019-03-08 WO PCT/JP2019/009523 patent/WO2020148920A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005284822A (ja) | 2004-03-30 | 2005-10-13 | Seiko Epson Corp | 感情マッチング装置、感情マッチング方法、及びプログラム |
JP2016103081A (ja) | 2014-11-27 | 2016-06-02 | Kddi株式会社 | 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム |
JP2016177483A (ja) | 2015-03-19 | 2016-10-06 | キヤノン株式会社 | コミュニケーション支援装置、コミュニケーション支援方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020113197A (ja) | 2020-07-27 |
WO2020148920A1 (ja) | 2020-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7036046B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
US10706873B2 (en) | Real-time speaker state analytics platform | |
US20220392625A1 (en) | Method and system for an interface to provide activity recommendations | |
Gratch et al. | Can virtual humans be more engaging than real ones? | |
EP3897388B1 (en) | System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence | |
US11417045B2 (en) | Dialog-based testing using avatar virtual assistant | |
Sun et al. | Towards visual and vocal mimicry recognition in human-human interactions | |
Lucas et al. | Towards an affective interface for assessment of psychological distress | |
US20210271864A1 (en) | Applying multi-channel communication metrics and semantic analysis to human interaction data extraction | |
US11699043B2 (en) | Determination of transcription accuracy | |
Chollet et al. | A multimodal corpus for the assessment of public speaking ability and anxiety | |
JP6715410B2 (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
US11163965B2 (en) | Internet of things group discussion coach | |
Byun et al. | Honest signals in video conferencing | |
US20220383896A1 (en) | System and method for collecting behavioural data to assist interpersonal interaction | |
Kim et al. | Perceiving emotion from a talker: How face and voice work together | |
RU2293518C1 (ru) | Способ оценки искренности-неискренности говорящего | |
WO2022065446A1 (ja) | 感情判定装置、感情判定方法及び感情判定プログラム | |
US20220198293A1 (en) | Systems and methods for evaluation of interpersonal interactions to predict real world performance | |
Torre et al. | Exploring the effects of virtual agents’ smiles on human-agent interaction: A mixed-methods study | |
CN111886565B (zh) | 处理装置、处理方法、数据处理装置、数据处理***、数据处理方法和程序 | |
Ochs et al. | From emotions to interpersonal stances: Multi-level analysis of smiling virtual characters | |
Grůber et al. | Czech Senior COMPANION: Wizard of Oz data collection and expressive speech corpus recording and annotation | |
Vatikiotis-Bateson et al. | 23 Time-Varying Coordination in Multisensory Speech Processing | |
WO2023135939A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7036046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |