JP7003883B2 - 聴衆間の心理状態の類似度合を評定するシステム - Google Patents
聴衆間の心理状態の類似度合を評定するシステム Download PDFInfo
- Publication number
- JP7003883B2 JP7003883B2 JP2018171403A JP2018171403A JP7003883B2 JP 7003883 B2 JP7003883 B2 JP 7003883B2 JP 2018171403 A JP2018171403 A JP 2018171403A JP 2018171403 A JP2018171403 A JP 2018171403A JP 7003883 B2 JP7003883 B2 JP 7003883B2
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- empathy
- listeners
- degree
- listener
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、コミュニケーションに於ける人間の心理状態を分析するためのシステムに係り、より詳細には、講演、演説、会議、映像視聴などの一方向又は単方向のコミュニケーションに於ける聴衆の動作やコミュニケーションに対する共感の度合に基づいて聴衆の心理状態の分析を行うシステムに係る。
種々の形態のコミュニケーションに関わる人間の共感或いは反感といった人間の心理状態に関わる情報は、市場に於ける広告宣伝の方針など、マーケティング戦略を考える際に有用である。そこで、コミュニケーションに於ける人間の心理状態を把握するための人間の心理状態の計測又は分析をする技術が種々提案されている。例えば、特許文献1では、複数の対話者の映像から検出された対話者の行動に対して各対話者が共感している否かを(映像を観た)外部観察者がラベル付けしたデータを学習データとして対話者の行動と心理状態(共感している/していない)との相関関係を表すモデルパラメタを学習し、そのモデルパラメタを用いて任意の映像から検出される対話者の行動に基づいて対話者の心理状態を推定する装置が提案されている。また、特許文献2では、複数の観察者が或る映像中の少なくとも一人の人物の共感/反感/どちらでもないといった心理状態を解釈してラベル付けして作成されたデータと複数の観察者のそれぞれの個人特性を表すデータとを学習データとして観察者の各々が人物の心理状態を如何に解釈するかを推定する装置が提案されている。
ところで、講演、演説、会議、映像視聴など、特定の者(話者)が発する情報を聴衆(聴取者の群)が聴取する形式のコミュニケーション(以下、「一方向コミュニケーション」と称する。)に於いて、話者の発した情報により生ずる聴取者の個々の心理状態、即ち、話者の発した情報に共感したか否かといった状態についての情報は、聴取者の個々人の趣味趣向を反映していると考えられるので、商品やサービスの提供、その勧誘、広告、宣伝に於ける方針又は戦略(マーケティング戦略等)を決定する場合に有用である。そのような一方向コミュニケーションに於ける聴衆の心理状態の情報を利用する場合、聴取者個々人の心理状態の情報が個別に参照できるだけでなく、聴取者間に於ける心理状態の類似の度合が参照できると、その心理状態の類似の度合に基づいて聴衆をグループ分けするなどの分析が可能となり、上記の如きマーケティング戦略等の決定に際して有用な情報が得られることが期待される。また、聴取者個々人に於いても、聴取者間に於ける心理状態の類似の度合は、聴衆のうちで誰が自身と似通った趣味趣向を有しているかを把握することが可能になるなど、有用な情報となる(例えば、個々人の紹介サービス等に於いて有用な情報となる。)。かくして、一方向コミュニケーションに於ける聴取者間の心理状態の類似の度合を参照できるシステムがあると有用となろう。その際、心理状態の類似の度合が、客観的に或いは主観的に過ぎないように、そして、把握しやすい態様にて提示され、その信頼性がより高いほどが好ましい。
かくして、本発明の一つの課題は、一方向コミュニケーションに於ける聴取者間の心理状態の類似の度合を提示できるシステムを提供することである。
本発明によれば、上記の課題は、話者の提供する情報を複数の聴取者が聴取する一方向コミュニケーションに於ける前記複数の聴取者間の心理状態の類似度合を評定し提示するシステムであって、
前記複数の聴取者の各々の心理状態に相関を有する前記聴取者の各々の身体動作の大きさを数値で表現した身体動作量を計測する身体動作量計測手段と、
前記聴取者の各々について前記計測された身体動作量から前記心理状態に相関を有する身体動作特徴量を抽出する身体動作特徴量抽出手段と、
前記聴取者間の各々に於ける身体動作特徴量の類似の程度を数値にて表現した身体動作類似度を算出する身体動作類似度算出手段と、
前記複数の聴取者の各々によって判定される前記話者の提供する情報に対する前記複数の聴取者の各々の共感の程度を数値で表現した共感度を取得する共感度取得手段と、
前記聴取者間の各々に於ける前記共感度の類似の程度を数値で表現した共感類似度を算出する共感類似度算出手段と、
前記身体動作類似度と前記共感類似度とに基づいて前記複数の聴取者間の各々に於ける心理状態の類似度合を評定する心理状態類似度合評定手段と
前記複数の聴取者間の各々に於ける前記心理状態の類似度合を表示する表示手段と
を含むシステムによって達成される。
前記複数の聴取者の各々の心理状態に相関を有する前記聴取者の各々の身体動作の大きさを数値で表現した身体動作量を計測する身体動作量計測手段と、
前記聴取者の各々について前記計測された身体動作量から前記心理状態に相関を有する身体動作特徴量を抽出する身体動作特徴量抽出手段と、
前記聴取者間の各々に於ける身体動作特徴量の類似の程度を数値にて表現した身体動作類似度を算出する身体動作類似度算出手段と、
前記複数の聴取者の各々によって判定される前記話者の提供する情報に対する前記複数の聴取者の各々の共感の程度を数値で表現した共感度を取得する共感度取得手段と、
前記聴取者間の各々に於ける前記共感度の類似の程度を数値で表現した共感類似度を算出する共感類似度算出手段と、
前記身体動作類似度と前記共感類似度とに基づいて前記複数の聴取者間の各々に於ける心理状態の類似度合を評定する心理状態類似度合評定手段と
前記複数の聴取者間の各々に於ける前記心理状態の類似度合を表示する表示手段と
を含むシステムによって達成される。
上記の本発明の構成に於いて、「一方向コミュニケーション」とは、既に述べた如く、講演、演説、会議、映像視聴など、特定の者(「話者」)が発する情報を聴衆、即ち、聴取者(聞き手)の群が聴取する形式のコミュニケーションである。なお、「話者」は、聴取者の視聴覚にて認識できる情報(例えば、音声による話、音楽、画像、映像、動画など)を、形態によらず、提供する者であり、必ずしも聴衆の目前に登場していなくてもよいことは理解されるべきである。本システムに於いて、聴取者の「心理状態」とは、話者の提供する情報に応じて生ずる心理的な状態、より具体的には、話者の提供する情報に対して、共感した状態、反感をもった状態又は無関心の状態(共感も反感もない状態)などを言うものとする。「聴取者間の心理状態の類似度合」とは、聴衆のうちの任意の少なくとも二人の心理状態がどの程度にて類似しているか、即ち、近い状態にあるかの指標であり、後に説明される如く、種々の形式にて表現されることとなる。
また、上記の構成に於いて、聴取者の心理状態に相関を有する「身体動作」とは、頷き、首ふりなどの頭部又はその他の身体部位に於ける動きなどであり、身体動作の「大きさ」とは、かかる身体部位の変位量をいう。実施の形態に於いて、「身体動作の大きさを数値で表現した身体動作量」とは、個々の聴取者の頭部の変位加速度、変位量などであってよく、「身体動作量計測手段」とは、例えば、個々の聴取者の頭部に装着され、頭部の変位の加速度を計測する加速度センサ、ビデオカメラにより個々の聴取者の頭部を撮影したビデオ映像に於いてかかる頭部の変位量を計測する画像処理手段などであってよい。「身体動作特徴量」は、聴取者の各々に於いて計測された身体動作量から抽出される心理状態に相関を有する任意の数値量であってよく、例えば、単位時間当たりの頷きの回数、単位時間に於ける頭部の変位加速度の標準偏差などが「身体動作特徴量」として利用可能である。「身体動作類似度」は、上記の如く、聴取者間の各々に於ける身体動作特徴量の類似の程度を数値にて表現した値であり、聴衆のうちの二人の聴取者の全ての組み合わせのそれぞれについて算出されてよい(聴衆に於ける二人の組み合わせの数だけ「身体動作類似度」が算出されてよい。)。身体動作類似度は、具体的には、二人の聴取者の身体動作の類似の程度を表せる値であれば、任意の数値であってよく、具体的には、身体動作特徴量の時系列データから算出されるコサイン類似度、相関係数、相互相関関数値、ハミング距離などであってよい。かかる身体動作類似度は、客観的な身体動作の計測に基づいて算出される指標であり、身体動作類似度にて表される二人の聴取者の身体動作特徴量の類似の程度が高いほど、客観的な方法にて計られた二人の心理状態が類似した状態或いは近い状態にあるということが推定できることとなる。
更に、上記の構成に於いて、聴取者の「共感の程度」とは、話者の提供する情報に対して非常に共感した状態から全く共感していない状態(又は反感を覚えた状態)までの間のいずれかの段階であり、「共感度」とは、かかる「共感の程度」を数値化して表したものである。個々の聴取者の「共感の程度」或いは「共感度」は、聴取者自身それぞれが判定し、個々の聴取者によって「共感度取得手段」へ与えられる。具体的には、「共感の程度」は、VAS(Visual Analog Scale)法やリッカート尺度法などにより「共感度」として数値化されてよい。「共感度取得手段」は、具体的には、聴取者それぞれが自身の「共感の程度」又は「共感度」を入力できる任意の機器(コンピュータ端末、タブレット端末、スマートフォン、携帯端末など)の入力を収集して、聴取者それぞれの共感度を確定する機器、或いは、聴取者それぞれがアンケート用紙やインターネットに於けるサイト(例えば、SNSのコメント欄など)等に記載した各人の「共感の程度」又は「共感度」を収集して、聴取者それぞれの共感度を確定する機器などであってよい。聴取者が共感度取得手段へ与える情報は、「共感の程度」を言葉で表現したものであっても(この場合、共感度取得手段に於いて機械的に或いは人的に「共感の程度」を数値化して「共感度」を確定する。)、聴取者それぞれが、自身で、自分の「共感の程度」を数値化した「共感度」であってもよい。また、上記の構成に於いて、「共感類似度」は、上記の如く、聴取者間の各々に於ける共感度の類似の程度を数値にて表現した値であり、聴衆のうちの二人の聴取者の全ての組み合わせのそれぞれについて算出されてよい(聴衆に於ける二人の組み合わせの数だけ「共感類似度」が算出されてよい。)。共感類似度は、具体的には、二人の聴取者の共感度の類似の程度を表せる値であれば、任意の数値であってよく、実施の形態に於いては、共感類似度は、二人の聴取者の共感度の差分の大きさ、或いは、かかる差分の大きさが小さいほど、大きくなる値であってよい。かかる共感類似度は、聴取者の主観的な判定に基づいて算出される指標であり、共感類似度により表される二人の聴取者の共感度の類似の程度が高いほど、主観的な方法にて判定された二人の心理状態が類似した状態或いは近い状態にあるということが推定できることとなる。
そして、上記のシステムに於いて、「心理状態類似度合評定手段」は、上記の如く、聴取者間の各々に於ける身体動作類似度と共感類似度とを参照して、聴取者間の各々に於ける心理状態の類似度合の評定を行う。心理状態の類似度合は、聴取者間の心理状態の類似の程度が把握できれば任意の形式にて表現されてよい。後の実施形態の欄にて説明されている如く、心理状態の類似度合は、例えば、身体動作類似度と共感類似度によって、高、低、潜在的高、潜在的低などの複数の段階に分類されるようになっていてよく、或いは、身体動作類似度と共感類似度に応じて変化する数値によって表現されてもよい。なお、実施の形態に於いて、聴取者間の心理状態の類似度合は、「聴取者間の関係性」と表現される。
上記の本発明のシステムに於いて、心理状態の類似度合の評定結果は、任意の表示手段、例えば、コンピュータ端末、タブレット端末、スマートフォン、携帯端末のディスプレイに表示され、或いは、プリンタによって紙に印刷されるなどして表示される。
上記の本発明によるシステムの作動に於いては、一方向コミュニケーションの実施に際して、聴取者の各々の身体動作が検出できるように、聴取者の各々に身体動作検出のためのセンサを装着するか、聴取者の各々の身体動作が観察できるようにビデオカメラが配置される。なお、聴取者は、一つの会場に集合している必要はなく、別々の場所に居てもよい(各聴取者は、別々の時間に別々の場所で話者からの情報の提供を受けてもよい。)。聴衆が聴取する情報は、任意の形式にて提供されてよい。(舞台上からの講演、演説、上演の形式でもよいし、映像や音声による提供、配信による提供であってもよい。)。また、聴取者の各々には、共感の程度又は共感度を共感度取得手段へ入力するための入力手段が配布される。そして、一方向コミュニケーションによる情報の提供中に於いて、聴取者の各々の身体動作の検出と共感の程度又は共感度の収集とが実行され、検出された身体動作と収集された共感の程度又は共感度とから、それぞれ、上記の如く身体動作類似度と共感類似度とが算出され、これらの値に基づき、話者の提供する情報に対する聴取者の心理状態が聴取者同士でどの程度類似しているかが個々の聴取者間について評定されることとなる。なお、共感の程度又は共感度の収集、身体動作類似度と共感類似度の算出、聴取者間の心理状態の類似度合の評定、評定結果の表示は、一方向コミュニケーションが行われている間に実行されてもよく、一方向コミュニケーションの終了後に実行されてもよい。かかる構成によれば、聴衆に於いて、趣味趣向がいずれの聴取者は互いに似通っており、いずれの聴取者は相反しているといったことを推定し把握できるようになり、また、一方向コミュニケーションに於ける聴衆の一人々々に於いても、(聴取者同士で個別に意見交換等のコミュニケーションを行わなくても)自身と趣味趣向の似たタイプの人物が誰であるかを推定し把握することも可能となる。
なお、上記のシステムに於いて、聴取者の身体動作について及び/又は聴取者の自己判定による共感の程度について、複数の手法で身体動作量及び/又は共感の程度を計測し、それぞれの類似度を算出し、聴取者間の心理状態の類似の度合の評定は、3つ以上の類似度を参照して実行されてもよく、そのような場合も本発明の範囲に属することは理解されるべきである。
かくして、上記の本発明の聴衆間の心理状態の類似の度合を評定するシステム(聴衆間心理状態類似度合評定システム)の構成によれば、既に述べた如く、一方向コミュニケーションに於ける聴取者間の心理状態の類似の度合が聴取者間で直接にコミュニケーションを取らなくても把握しやすい態様にて提示されることとなる。実施の形態に於いては、聴取者間の心理状態の類似の度合は、各聴取者から身体動作及び共感の程度を収集した後、自動的にコンピュータ処理によって評定されることとなるので、簡便に聴取者間の心理状態の類似の度合が把握できることとなる。また、特に、本発明のシステムに於いては、聴取者の身体動作に基づいた身体動作類似度という客観的な計測に基づき決定される値と、聴取者の自己判定による共感の程度に基づいた共感類似度という個々の聴取者により主観的な判定に基づき決定される値との異なる性質の数値に用いて、統合的に聴取者間の心理状態の類似の度合、即ち、聴取者間の関係性を評定するようになっているので、単独の類似度にて心理状態の類似の度合を評定する場合よりも精度良く或いはより精密な評定が為され、また、客観的過ぎず且つ主観的過ぎずに、聴取者間の心理状態の類似の度合が決定できることが期待される。本発明のシステムにより得られる一方向コミュニケーションに於ける聴取者間の心理状態の類似の度合の評定結果は、既に述べた如きマーケティング戦略等の決定、個々人の紹介サービス等に於いて有用な情報となることが期待される。
本発明のその他の目的及び利点は、以下の本発明の好ましい実施形態の説明により明らかになるであろう。
1…聴衆間関係性評定システム
10…データ処理装置
12…ディスプレイ
14…携帯端末(スマートフォン等)
16…記憶装置
S…加速度センサ
T…共感度入力装置
A1、A2、A3、A4…聴取者
P…話者
10…データ処理装置
12…ディスプレイ
14…携帯端末(スマートフォン等)
16…記憶装置
S…加速度センサ
T…共感度入力装置
A1、A2、A3、A4…聴取者
P…話者
以下に添付の図を参照しつつ、本発明を好ましい実施形態について詳細に説明する。図中、同一の符号は、同一の部位を示す。
システムの構成
図1を参照して、本発明の好ましい実施形態の一つによる聴衆間の心理状態の類似度合を評定する「聴衆間関係性評定システム1」は、一方向コミュニケーション、即ち、話者Pが発する情報を聴衆(聴取者の群)A1、A2、…が聴取する形式のコミュニケーションに於いて、話者Pが発する情報に対して共感したか否かといった話者Pが発する情報に応じて生ずる心理状態についての聴取者間の類似の度合(聴取者間の関係性)を把握するために利用される。
図1を参照して、本発明の好ましい実施形態の一つによる聴衆間の心理状態の類似度合を評定する「聴衆間関係性評定システム1」は、一方向コミュニケーション、即ち、話者Pが発する情報を聴衆(聴取者の群)A1、A2、…が聴取する形式のコミュニケーションに於いて、話者Pが発する情報に対して共感したか否かといった話者Pが発する情報に応じて生ずる心理状態についての聴取者間の類似の度合(聴取者間の関係性)を把握するために利用される。
本実施形態に於いて、一方向コミュニケーションは、具体的には、講演、演説、会議、上映、上演(コンサート、演劇等)、ネット配信など、聴取者の視聴覚にて認識できる情報(例えば、音声による話、音楽、画像、映像、動画など)が話者Pより発せられる形式のコミュニケーションであってよい。話者Pは、上記の如き情報を提供する者の総称であり、話者P自身が聴衆A1、A2、…の面前に登場する場合であっても、登場しない場合であってもよい。また、本実施形態に於いて、一方向コミュニケーションは、聴衆A1、A2、…が一つの会場に集合して同時に情報の提供を受ける場合であっても、聴取者A1、A2、…が個別に別々の場所又は別々の時間帯に情報の提供を受ける場合であってもよい。例えば、一方向コミュニケーションは、パソコン端末、タブレット端末、スマートフォン等を用いたネット配信を通じて各聴取者A1、A2、…が情報の提供を受ける形態であってもよい。なお、図示の例では、聴取者は4名であるが、本実施形態に於いて、聴取者数は、複数であれば、何名であってもよい。
システム1の構成に於いて、具体的には、話者Pから情報の提供を受ける聴取者A1、A2、…のそれぞれに於ける心理状態に相関を有する身体動作、例えば、話者Pの頭部の動作(しぐさ)を数値的に計測する身体動作量計測手段が設けられる。身体動作量計測手段としては、例えば、図示の如く、聴取者A1、A2、…のそれぞれの頭部に装着され頭部動作の加速度を検出する加速度センサSであってよく、又は、その他の頭部動作を検出できるものであれば、任意の形式のセンサ(ジャイロセンサ、地磁気センサなど)であってよい。或いは、別の態様として、身体動作量計測手段は、聴取者A1、A2、…のそれぞれの頭部をビデオカメラ(図示せず)にて撮影した動画から聴取者A1、A2、…のそれぞれの頭部の変位量を計測する画像処理装置(図示せず)であってもよい。かかる聴取者A1、A2、…のそれぞれの身体動作量計測手段(センサS又は画像処理装置)からの出力は、後に説明されるデータ処理装置10の受容器Rsにてそれぞれ受容されて、データ処理装置に於ける処理に利用されることとなる。身体動作量計測手段から受容器Rsへの身体動作量又は頭部動作量の送信は、任意の形式の有線通信方式又は無線通信方式にて実行されてよい。なお、以下の説明に於いては、「身体動作」が「頭部動作」である場合について説明されるが、その他の身体部位の動作(手足、肩の動作など)の場合も同様に適用可能であり、本発明の範囲に属することは理解されるべきである。
また、システム1の構成に於いて、聴取者A1、A2、…には、一方向コミュニケーションにより提供された情報に対する聴取者それぞれが自身で判定する心理状態、より具体的には、聴取者自身が判定する、提供された情報に対する「共感の程度」を取得するための手段が準備される。「発明の概要」の欄に於いて既に述べられている如く、聴取者の「共感の程度」は、話者の提供する情報に対して非常に共感した状態から全く共感していない状態(又は反感を覚えた状態)までの間の心理状態の段階であり、それを数値化して、共感度が表される。「共感の程度」を取得するための手段としては、具体的には、一つの形態として、図示の如く、聴取者A1、A2、…に、コンピュータ端末、タブレット端末、スマートフォン、携帯端末などの、聴取者自身が「共感の程度」又は「共感度」を入力できる任意の形態の端末機器Tが提供され、かかる端末機器Tへの入力は後に説明されるデータ処理装置10の受容器Rtにてそれぞれ受容されて、データ処理装置10に於ける処理に利用されることとなる。端末機器Tから受容器Rtへの共感の程度又は共感度の送信は、任意の形式の有線通信方式又は無線通信方式にて実行されてよい。或いは、「共感の程度」を取得する手段の別の態様として、聴取者に「共感の程度」又は「共感度」を記入する用紙(アンケート用紙)を配布して、一方向コミュニケーションの実施中又は実施後に用紙を回収して、各聴取者の用紙の記入事項を収集して、各聴取者の「共感の程度」又は「共感度」をデータ処理装置10の受容器Rtに入力するようになっていてもよい。また、更に、各聴取者の「共感の程度」又は「共感度」がインターネットに於けるサイト(例えば、SNSのコメント欄など)等の書き込みを参照して(機械的に又は人的に)各聴取者の「共感の程度」又は「共感度」を決定し、それらの結果をデータ処理装置10の受容器Rtに入力するようになっていてもよい。
そして、図1に示されている如く、本実施形態のシステムに於いては、データ処理装置10が、受容器Rs、Rtへの入力を用いて、話者Pが発する情報に対する心理状態に於ける聴取者間の関係性(聴取者間の類似の度合)の評定を実行する。データ処理装置10は、具体的には、各聴取者の身体動作量、典型的には、頭部動作量を受容する受容器Rs、各聴取者の共感の程度又は共感度を受容する受容器Rt、受容器Rsにて取得した頭部動作量から各聴取者の心理状態に相関を有する頭部動作特徴量(身体動作特徴量)を抽出又は算出する頭部動作特徴量算出部、受容器Rtにて取得した各聴取者の共感の程度から各聴取者の共感度を算出する共感度算出部(受容器Rtにて各聴取者からの共感度が得られる場合には、その値がそのまま確定される。)、各聴取者の頭部動作特徴量から聴取者間の頭部動作類似度を算出する頭部動作類似度算出部、各聴取者の共感度から聴取者間の共感度類似度を算出する共感度類似度算出部、頭部動作類似度と共感度類似度とから聴取者間の心理状態の類似度合、即ち、聴取者間の関係性の評定を行う聴衆間関係性評定部、及び、聴衆間関係性の評定結果を出力する結果出力部を含む。データ処理装置10は、典型的には、コンピュータ装置であってよく、通常の態様にて、図示していない双方向コモン・バスにより相互に連結されたCPU、記憶装置、入出力装置(I/O)が装備され、装置の各部の作動は、CPUに於いてプログラムを実行することにより達成されることとなる。なお、装置内各部の作動は、以下の「システムの作動」の説明に於いて説明される。そして、データ処理装置10の聴衆間関係性の評定結果は、結果出力部から任意の端末機器のディスプレイ12や携帯端末14へ送信されて、表示され、或いは、用紙に印刷されてよく、又、評定結果は、任意の記憶装置16に送信されて記録されてよい。
システムの作動
一方向コミュニケーションに於いて、一般に、聴取者に於いて、提供される情報に対して同調した頷きや相槌などの頭部動作又はその他の同調した身体動作をする傾向が強いほど、提供される情報に対する満足度が高いことが報告されている。しかしながら、人の内面も千差万別であり、強い頷きを示すにも関わらず全く共感していない場合やその逆となる場合も多々ある。一方、聴取者が自身の共感の程度を自己判定して申告する場合、実際には、共感していないのに、共感しているとの申告をしたり、その逆となる場合もある。本システムでは、聴衆間の心理状態の類似度合を把握するに際して、客観的な計測に基づく頭部動作特徴量から聴衆間の心理状態の類似の程度(頭部動作類似度)を算出し、主観的な申告に基づく共感度から聴衆間の心理状態の類似の程度(共感類似度)を算出し、頭部動作類似度と共感類似度とを参照して、統合的に、より精密に、聴衆間の心理状態の類似度合を評定することが試みられる。本実施形態のシステムの処理に於いては、図2(A)に示されている如く、具体的には、(a)一方向コミュニケーションに於ける各聴取者の頭部動作の計測値からの心理状態に相関のある頭部動作特徴量の抽出(ステップ1、2)、(b)聴取者間の頭部動作類似度の算出(ステップ3、4)、(c)各聴取者の自己判定による共感の程度を表す共感度の収集(ステップ5)、(d)聴取者間の共感類似度の算出(ステップ6、7)、(e)聴取者間の関係性の評定(ステップ8)、(f)評定結果の提示、表示又は出力(ステップ9)が実行される。以下、図面を参照しながら、各処理作動について説明する。
一方向コミュニケーションに於いて、一般に、聴取者に於いて、提供される情報に対して同調した頷きや相槌などの頭部動作又はその他の同調した身体動作をする傾向が強いほど、提供される情報に対する満足度が高いことが報告されている。しかしながら、人の内面も千差万別であり、強い頷きを示すにも関わらず全く共感していない場合やその逆となる場合も多々ある。一方、聴取者が自身の共感の程度を自己判定して申告する場合、実際には、共感していないのに、共感しているとの申告をしたり、その逆となる場合もある。本システムでは、聴衆間の心理状態の類似度合を把握するに際して、客観的な計測に基づく頭部動作特徴量から聴衆間の心理状態の類似の程度(頭部動作類似度)を算出し、主観的な申告に基づく共感度から聴衆間の心理状態の類似の程度(共感類似度)を算出し、頭部動作類似度と共感類似度とを参照して、統合的に、より精密に、聴衆間の心理状態の類似度合を評定することが試みられる。本実施形態のシステムの処理に於いては、図2(A)に示されている如く、具体的には、(a)一方向コミュニケーションに於ける各聴取者の頭部動作の計測値からの心理状態に相関のある頭部動作特徴量の抽出(ステップ1、2)、(b)聴取者間の頭部動作類似度の算出(ステップ3、4)、(c)各聴取者の自己判定による共感の程度を表す共感度の収集(ステップ5)、(d)聴取者間の共感類似度の算出(ステップ6、7)、(e)聴取者間の関係性の評定(ステップ8)、(f)評定結果の提示、表示又は出力(ステップ9)が実行される。以下、図面を参照しながら、各処理作動について説明する。
(a)各聴取者の頭部動作の計測と頭部動作特徴量の抽出(ステップ1、2)
既に述べた如く、各聴取者の頭部動作の計測は、各聴取者の頭部に装着された加速度センサSによる頭部変位に於ける加速度の計測或いはビデオカメラの映像に於ける各聴取者の頭部の像の変位量の計測により、各聴取者について実行される(ステップ1)。例えば、加速度センサSにより計測される各聴取者の頭部変位加速度は、図3(A)に例示されている如く、時系列に計測される。なお、その他のセンサを用いた場合、ビデオカメラ映像内の各聴取者の頭部の変位量を計測した場合も計測値の単位は異なるが同様に時系列に計測値が得られる。かくして、各聴取者の頭部動作量の時系列データが得られると、頭部動作特徴量算出部に於いて、聴取者の各々の心理状態に相関を有する頭部動作特徴量が時系列データとして算出される(ステップ2)。頭部動作特徴量としては、具体的には、単位時間当たりの頷きの回数(図3(B))、単位時間に於ける頭部の変位加速度の標準偏差(図3(C))などであってよい(単位時間は、例えば、1秒間など、適合により設定されてよい。)。
既に述べた如く、各聴取者の頭部動作の計測は、各聴取者の頭部に装着された加速度センサSによる頭部変位に於ける加速度の計測或いはビデオカメラの映像に於ける各聴取者の頭部の像の変位量の計測により、各聴取者について実行される(ステップ1)。例えば、加速度センサSにより計測される各聴取者の頭部変位加速度は、図3(A)に例示されている如く、時系列に計測される。なお、その他のセンサを用いた場合、ビデオカメラ映像内の各聴取者の頭部の変位量を計測した場合も計測値の単位は異なるが同様に時系列に計測値が得られる。かくして、各聴取者の頭部動作量の時系列データが得られると、頭部動作特徴量算出部に於いて、聴取者の各々の心理状態に相関を有する頭部動作特徴量が時系列データとして算出される(ステップ2)。頭部動作特徴量としては、具体的には、単位時間当たりの頷きの回数(図3(B))、単位時間に於ける頭部の変位加速度の標準偏差(図3(C))などであってよい(単位時間は、例えば、1秒間など、適合により設定されてよい。)。
(b)聴取者間の頭部動作類似度の算出(ステップ3、4)
各聴取者の頭部動作特徴量が算出されると、聴取者間の頭部動作の類似の程度を表す頭部動作類似度が算出される(頭部動作類似度算出部)。頭部動作類似度は、聴衆のうちの、二人の聴衆者の組み合わせの全てについて、二人の聴衆者の頭部動作特徴量を用いて算出される(ステップ4)。既に触れた如く、聴取者に於いて、提供される情報に対して頭部動作又はその他の身体動作が同調しているほど、提供される情報に対する満足感、共感の程度が大きいと推定されるところ、任意の二人の聴取者に於いて、かかる頷きや相槌などの頭部動作又は身体動作のタイミングが類似又は一致しているほど、両者の心理状態は類似しているものと推定される。かくして、頭部動作類似度としては、そのような頭部動作又は身体動作のタイミングの類似の程度を計ることのできる任意の数値が採用されてよい。具体的には、頭部動作類似度は、二人の聴取者の頭部動作特徴量の時系列データのコサイン類似度、相関係数、相互相関関数値、ハミング距離などであってよい。なお、頭部動作類似度は、通常、聴取者間の頭部動作の類似の程度が高いほど、大きな値となるよう算出されるが、これに限定されない。そして、図3(D)に例示されている如く、聴衆に於ける二人の聴衆者の組み合わせの各々に対して、頭部動作類似度が算出される。図示の例は、二者の頭部加速度の標準偏差値の時系列データのコサイン類似度である(60秒間に亙る1秒間毎の頭部加速度の標準偏差値を60次元ベクトルの成分とした。)。
各聴取者の頭部動作特徴量が算出されると、聴取者間の頭部動作の類似の程度を表す頭部動作類似度が算出される(頭部動作類似度算出部)。頭部動作類似度は、聴衆のうちの、二人の聴衆者の組み合わせの全てについて、二人の聴衆者の頭部動作特徴量を用いて算出される(ステップ4)。既に触れた如く、聴取者に於いて、提供される情報に対して頭部動作又はその他の身体動作が同調しているほど、提供される情報に対する満足感、共感の程度が大きいと推定されるところ、任意の二人の聴取者に於いて、かかる頷きや相槌などの頭部動作又は身体動作のタイミングが類似又は一致しているほど、両者の心理状態は類似しているものと推定される。かくして、頭部動作類似度としては、そのような頭部動作又は身体動作のタイミングの類似の程度を計ることのできる任意の数値が採用されてよい。具体的には、頭部動作類似度は、二人の聴取者の頭部動作特徴量の時系列データのコサイン類似度、相関係数、相互相関関数値、ハミング距離などであってよい。なお、頭部動作類似度は、通常、聴取者間の頭部動作の類似の程度が高いほど、大きな値となるよう算出されるが、これに限定されない。そして、図3(D)に例示されている如く、聴衆に於ける二人の聴衆者の組み合わせの各々に対して、頭部動作類似度が算出される。図示の例は、二者の頭部加速度の標準偏差値の時系列データのコサイン類似度である(60秒間に亙る1秒間毎の頭部加速度の標準偏差値を60次元ベクトルの成分とした。)。
(c)各聴取者の自己判定による共感の程度を表す共感度の収集(ステップ5)
上記のステップ1~4の処理とは別に、各聴取者の共感の程度を表す共感度の収集が実行される。既に述べた如く、各聴取者の自己判定による共感の程度又は共感度は、各聴取者の配布される端末機器Tへの入力又は用紙等の記載を通じて収集される。各聴取者の共感の程度は、具体的には、図4(A)に模式的に描かれている如く、話者Pの提供した情報に対して共感しない状態から共感した状態まででいずれの段階にあるかを各聴取者が自身で判断して決定して入力するか、文言に記載する。そして、その入力又は記載の共感の程度が、図4(B)に模式的に描かれている如く、共感度として数値化される。典型的には、共感度は、共感の程度が強いほど高くなるように、共感しない状態を0に設定し、共感した状態を100に設定するなどして決定されてよい(共感度は、共感するほど低い値に設定されてもよい。)。かかる共感の程度から共感度への数値化は、VAS(Visual Analog Scale)法やリッカート尺度法などにより為されてよい。各聴取者が共感の程度を文言で表現したり、図4(A)に例示されている如きスケールバー上の位置にて入力する場合には、共感度算出部にて、共感の程度が機械的に共感度として数値化される。また、各聴取者が共感度を端末機器等へ入力する場合には、共感度算出部は、その数値を確認する処理を実行するか、或いは、共感度算出部が省略されてもよい。
上記のステップ1~4の処理とは別に、各聴取者の共感の程度を表す共感度の収集が実行される。既に述べた如く、各聴取者の自己判定による共感の程度又は共感度は、各聴取者の配布される端末機器Tへの入力又は用紙等の記載を通じて収集される。各聴取者の共感の程度は、具体的には、図4(A)に模式的に描かれている如く、話者Pの提供した情報に対して共感しない状態から共感した状態まででいずれの段階にあるかを各聴取者が自身で判断して決定して入力するか、文言に記載する。そして、その入力又は記載の共感の程度が、図4(B)に模式的に描かれている如く、共感度として数値化される。典型的には、共感度は、共感の程度が強いほど高くなるように、共感しない状態を0に設定し、共感した状態を100に設定するなどして決定されてよい(共感度は、共感するほど低い値に設定されてもよい。)。かかる共感の程度から共感度への数値化は、VAS(Visual Analog Scale)法やリッカート尺度法などにより為されてよい。各聴取者が共感の程度を文言で表現したり、図4(A)に例示されている如きスケールバー上の位置にて入力する場合には、共感度算出部にて、共感の程度が機械的に共感度として数値化される。また、各聴取者が共感度を端末機器等へ入力する場合には、共感度算出部は、その数値を確認する処理を実行するか、或いは、共感度算出部が省略されてもよい。
(d)聴取者間の共感類似度の算出(ステップ6、7)
各聴取者の共感度が収集されると、聴取者間の共感度の類似の程度を表す共感類似度が算出される(共感類似度算出部)。共感類似度は、聴衆のうちの、二人の聴衆者の組み合わせの全てについて、二人の聴衆者の共感度を用いて算出される(ステップ7)。共感類似度は、通常、聴取者間の共感度の類似の程度が高いほど、大きな値となるよう算出されるが、これに限定されない。例として、例えば、共感類似度は、
共感類似度=100-[二人の聴取者の共感度の差分]
にて算出されてよい(この場合、共感度の類似の程度が高いほど、共感類似度が高くなる。)。そして、図4(C)に例示されている如く、聴衆に於ける二人の聴衆者の組み合わせの各々に対して、共感類似度が算出される。
各聴取者の共感度が収集されると、聴取者間の共感度の類似の程度を表す共感類似度が算出される(共感類似度算出部)。共感類似度は、聴衆のうちの、二人の聴衆者の組み合わせの全てについて、二人の聴衆者の共感度を用いて算出される(ステップ7)。共感類似度は、通常、聴取者間の共感度の類似の程度が高いほど、大きな値となるよう算出されるが、これに限定されない。例として、例えば、共感類似度は、
共感類似度=100-[二人の聴取者の共感度の差分]
にて算出されてよい(この場合、共感度の類似の程度が高いほど、共感類似度が高くなる。)。そして、図4(C)に例示されている如く、聴衆に於ける二人の聴衆者の組み合わせの各々に対して、共感類似度が算出される。
(e)聴取者間の関係性の評定(ステップ8)
聴取者間の頭部動作類似度と共感類似度とが算出されると、それらの値を参照して、聴取者間関係性評定部にて、聴取者間の関係性、即ち、聴取者間の心理状態の類似の度合、の評定が実行される。かかる評定に於いては、頭部動作類似度と共感類似度とのそれぞれが表す心理状態の類似の程度の組み合わせによって、種々の評定が為されてよい。具体的には、例えば、頭部動作類似度と共感類似度が共に、類似の程度が大きいほど、大きな値となるように算出されている場合に、或る聴取者Ai、Ajとの関係性の評定をする際には、図2(B)に例示されている如く、聴取者Ai、Aj間の頭部動作類似度Vsijが閾値Thsよりも大きいか否か、及び、聴取者Ai、Aj間の共感類似度Vtijが閾値Thtよりも大きいか否かに応じて、聴取者Ai、Aj間の関係性が別々に評定されてよい。図示の例では、下記のように評定される。
(i)Vsij>Ths且つVtij>Thtの場合
1:高関係性-客観的及び主観的な判定の両方で心理状態が類似
動作パターンや心情の表明の仕方が共に似ていることを表し、高い関係性を持つ。そのペア間で円滑にコミュニケーションが取れる可能性が高い。
(ii)Vsij≦Ths且つVtij≦Thtの場合
2:低関係性-客観的及び主観的な判定の両方で心理状態が非類似
動作パターンや心情の表明の仕方が共に似ていないため、関係性が低いと推定される。
(iii)Vsij≦Ths且つVtij>Thtの場合
3:潜在的高関係性-主観的な判定でのみ心理状態が類似
同じような心情の表明の仕方をするが、動作パターンには出ていない状態。そのペア間で円滑にコミュニケーションが取れる可能性がある。
(iv)Vsij>Ths且つVtij≦Thtの場合
4:潜在的低関係性-主観的な判定でのみ心理状態が非類似
同じような動作パターンをするが、心情の表明の仕方が異なる状態。
上記の評定は、聴衆のうちの二人の聴取者の組み合わせの全てについて実行されてよい。かくして、頭部動作類似度と共感類似度との複数のプロセスを通じて取得された聴取者間の心理状態の類似の程度を参照することにより、より綿密に聴取者間の心理状態の類似度合を評定することが可能となる。
聴取者間の頭部動作類似度と共感類似度とが算出されると、それらの値を参照して、聴取者間関係性評定部にて、聴取者間の関係性、即ち、聴取者間の心理状態の類似の度合、の評定が実行される。かかる評定に於いては、頭部動作類似度と共感類似度とのそれぞれが表す心理状態の類似の程度の組み合わせによって、種々の評定が為されてよい。具体的には、例えば、頭部動作類似度と共感類似度が共に、類似の程度が大きいほど、大きな値となるように算出されている場合に、或る聴取者Ai、Ajとの関係性の評定をする際には、図2(B)に例示されている如く、聴取者Ai、Aj間の頭部動作類似度Vsijが閾値Thsよりも大きいか否か、及び、聴取者Ai、Aj間の共感類似度Vtijが閾値Thtよりも大きいか否かに応じて、聴取者Ai、Aj間の関係性が別々に評定されてよい。図示の例では、下記のように評定される。
(i)Vsij>Ths且つVtij>Thtの場合
1:高関係性-客観的及び主観的な判定の両方で心理状態が類似
動作パターンや心情の表明の仕方が共に似ていることを表し、高い関係性を持つ。そのペア間で円滑にコミュニケーションが取れる可能性が高い。
(ii)Vsij≦Ths且つVtij≦Thtの場合
2:低関係性-客観的及び主観的な判定の両方で心理状態が非類似
動作パターンや心情の表明の仕方が共に似ていないため、関係性が低いと推定される。
(iii)Vsij≦Ths且つVtij>Thtの場合
3:潜在的高関係性-主観的な判定でのみ心理状態が類似
同じような心情の表明の仕方をするが、動作パターンには出ていない状態。そのペア間で円滑にコミュニケーションが取れる可能性がある。
(iv)Vsij>Ths且つVtij≦Thtの場合
4:潜在的低関係性-主観的な判定でのみ心理状態が非類似
同じような動作パターンをするが、心情の表明の仕方が異なる状態。
上記の評定は、聴衆のうちの二人の聴取者の組み合わせの全てについて実行されてよい。かくして、頭部動作類似度と共感類似度との複数のプロセスを通じて取得された聴取者間の心理状態の類似の程度を参照することにより、より綿密に聴取者間の心理状態の類似度合を評定することが可能となる。
(f)評定結果の提示、表示又は出力(ステップ9)
かくして、上記の如く、聴衆間の関係性の評定がなされると、その結果が種々の形式にて任意の端末機器のディスプレイ12、携帯端末14、紙媒体(図示せず)等に表示され、或いは、記憶装置16に保存される。結果表示の一つの形式に於いては、図5(A)に例示されている如く、表形式にて、聴衆間の関係性が可視化されてよい。或いは、図5(B)に模式的に描かれている如く、聴取者間を関係性の種別が把握できる態様にてネットワーク図の形式にて聴衆間の関係性が可視化されてもよい。
かくして、上記の如く、聴衆間の関係性の評定がなされると、その結果が種々の形式にて任意の端末機器のディスプレイ12、携帯端末14、紙媒体(図示せず)等に表示され、或いは、記憶装置16に保存される。結果表示の一つの形式に於いては、図5(A)に例示されている如く、表形式にて、聴衆間の関係性が可視化されてよい。或いは、図5(B)に模式的に描かれている如く、聴取者間を関係性の種別が把握できる態様にてネットワーク図の形式にて聴衆間の関係性が可視化されてもよい。
上記の処理に於いて、頭部動作量の計測(ステップ1)は、一方向コミュニケーションの実施中に実行されるが、その他の処理は、一方向コミュニケーションの実施中及び実施後のいずれに於いて実行されてもよく、いずれの場合の本発明の範囲に属することは理解されるべきである。
図6は、本システムにより、或る一方向コミュニケーションの実施中の聴取者が4人の場合に頭部動作類似度及び共感類似度の算出並びに聴取者間関係性の評定を実施した場合の結果を示している。図中、数値は、それぞれ、聴取者間の頭部動作類似度及び共感類似度を示している。図示の如く、本システムによれば、一方向コミュニケーションに於ける客観的及び主観的な手法の双方による聴取者の心理状態の判定結果に基づき、聴取者間の関係性がより細かく評定できることとなる。
以上の説明は、本発明の実施の形態に関連してなされているが、当業者にとつて多くの修正及び変更が容易に可能であり、本発明は、上記に例示された実施形態のみに限定されるものではなく、本発明の概念から逸脱することなく種々の装置に適用されることは明らかであろう。
Claims (1)
- 話者の提供する情報を複数の聴取者が聴取する一方向コミュニケーションに於ける前記複数の聴取者間の心理状態の類似度合を評定し提示するシステムであって、
前記複数の聴取者の各々の心理状態に相関を有する前記聴取者の各々の身体動作の大きさを数値で表現した身体動作量を計測する身体動作量計測手段と、
前記聴取者の各々について前記計測された身体動作量から前記心理状態に相関を有する身体動作特徴量を抽出する身体動作特徴量抽出手段と、
前記聴取者間の各々に於ける身体動作特徴量の類似の程度を数値にて表現した身体動作類似度を算出する身体動作類似度算出手段と、
前記複数の聴取者の各々によって判定される前記話者の提供する情報に対する前記複数の聴取者の各々の共感の程度を数値で表現した共感度を取得する共感度取得手段と、
前記聴取者間の各々に於ける前記共感度の類似の程度を数値で表現した共感類似度を算出する共感類似度算出手段と、
前記身体動作類似度と前記共感類似度とに基づいて前記複数の聴取者間の各々に於ける心理状態の類似度合を評定する心理状態類似度合評定手段と
前記複数の聴取者間の各々に於ける前記心理状態の類似度合を表示する表示手段と
を含むシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018171403A JP7003883B2 (ja) | 2018-09-13 | 2018-09-13 | 聴衆間の心理状態の類似度合を評定するシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018171403A JP7003883B2 (ja) | 2018-09-13 | 2018-09-13 | 聴衆間の心理状態の類似度合を評定するシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042709A JP2020042709A (ja) | 2020-03-19 |
JP7003883B2 true JP7003883B2 (ja) | 2022-01-21 |
Family
ID=69798431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018171403A Active JP7003883B2 (ja) | 2018-09-13 | 2018-09-13 | 聴衆間の心理状態の類似度合を評定するシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7003883B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023145350A1 (ja) * | 2022-01-25 | 2023-08-03 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理システムおよびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102481A (ja) | 2005-10-04 | 2007-04-19 | Hitachi Ltd | マーケティングシステム |
JP2009230363A (ja) | 2008-03-21 | 2009-10-08 | Sony Corp | 表示装置およびその表示方法 |
JP2015152957A (ja) | 2014-02-10 | 2015-08-24 | 大日本印刷株式会社 | サーバ装置、プログラム及び情報提供方法 |
-
2018
- 2018-09-13 JP JP2018171403A patent/JP7003883B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102481A (ja) | 2005-10-04 | 2007-04-19 | Hitachi Ltd | マーケティングシステム |
JP2009230363A (ja) | 2008-03-21 | 2009-10-08 | Sony Corp | 表示装置およびその表示方法 |
JP2015152957A (ja) | 2014-02-10 | 2015-08-24 | 大日本印刷株式会社 | サーバ装置、プログラム及び情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020042709A (ja) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cerekovic et al. | Rapport with virtual agents: What do human social cues and personality explain? | |
US8903176B2 (en) | Systems and methods using observed emotional data | |
US10111611B2 (en) | Personal emotional profile generation | |
JP7427611B2 (ja) | ユーザの注意力を決定するコンピュータ実装システム及び方法 | |
US20180060757A1 (en) | Data annotation method and apparatus for enhanced machine learning | |
CN110942055A (zh) | 展示区域的状态识别方法、装置、设备及存储介质 | |
KR20180137490A (ko) | 기억과 의사 결정력 향상을 위한 개인 감정-기반의 컴퓨터 판독 가능한 인지 메모리 및 인지 통찰 | |
JP2007286995A (ja) | 注目度計測装置及び注目度計測システム | |
EP1520242A1 (en) | Measurement of content ratings through vision and speech recognition | |
JP2007006427A (ja) | 映像監視装置 | |
US20130102854A1 (en) | Mental state evaluation learning for advertising | |
JP6715410B2 (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
WO2019086856A1 (en) | Systems and methods for combining and analysing human states | |
KR101988334B1 (ko) | 이동 전화기 및 이동전화기에서 재생되는 미디어 컨텐츠의 효율성 분석 방법 | |
US20220383896A1 (en) | System and method for collecting behavioural data to assist interpersonal interaction | |
CN109659009A (zh) | 情绪管理方法、装置及电子设备 | |
JP7003883B2 (ja) | 聴衆間の心理状態の類似度合を評定するシステム | |
WO2022168185A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2022168180A1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
US11935140B2 (en) | Initiating communication between first and second users | |
JP2022037575A (ja) | 画像評価予測装置および方法 | |
Afshari et al. | QoE assessment of interactive applications in computer networks | |
JP7465013B2 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム | |
JP7471683B2 (ja) | 反応通知システム | |
JP7465012B2 (ja) | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211213 |