JP7427405B2 - 発想支援システム及びその制御方法 - Google Patents

発想支援システム及びその制御方法 Download PDF

Info

Publication number
JP7427405B2
JP7427405B2 JP2019180025A JP2019180025A JP7427405B2 JP 7427405 B2 JP7427405 B2 JP 7427405B2 JP 2019180025 A JP2019180025 A JP 2019180025A JP 2019180025 A JP2019180025 A JP 2019180025A JP 7427405 B2 JP7427405 B2 JP 7427405B2
Authority
JP
Japan
Prior art keywords
support
words
information
idea
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019180025A
Other languages
English (en)
Other versions
JP2021056829A (ja
Inventor
賢一郎 小林
明雄 織田村
健太郎 園田
功一 八幡
昌平 栗田
健人 新倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TIS Inc
Original Assignee
TIS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TIS Inc filed Critical TIS Inc
Priority to JP2019180025A priority Critical patent/JP7427405B2/ja
Publication of JP2021056829A publication Critical patent/JP2021056829A/ja
Application granted granted Critical
Publication of JP7427405B2 publication Critical patent/JP7427405B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、発想支援システム及びその制御方法に関する。
与えられたテーマに関して複数人でブレーンストーミングを行い、新たなアイディアを創出したり、問題点を整理したりすることが行われる。この種の会議では、さまざまな観点からの意見やアイディアを大量に出し合うこと、そして、出された意見やアイディアを適切に整理し記録すること、が肝要となる。一般的には、各参加者の発言内容を個別にカード(付箋など)に記録していき、集められたカードを壁やテーブルなどの広いスペースの上に広げ、並べ替えやグルーピングなどを行ってアイディアをまとめていく、というアナログなプロセスが採られることが多い。
非特許文献1には、この種の会議における議論や進行をロボットによって支援する方法が提案されている。同文献の議論支援ロボットは、複数のキーワードを体系化しその説明文や動画とともに記憶するオントロジーを備えており、会議の参加者の発言にキーワードが含まれていた時にオントロジーから説明文や動画を読み出して出力することで参加者の発言を補足する機能や、参加者からの発言が一定時間無い場合に、未出のキーワードをオントロジーから選んで出力することで議論を誘発する機能などを有している。また、同文献の議論支援ロボットは、一度も発言をしていない参加者に対し、「~さんはどう思うかな?」と尋ねることで発言を促進する機能ももつ。
小野宙生,小池開人,森田武史,山口高平,「教育現場における議論支援ロボット」,人工知能学会全国大会論文集,2019,JSAI2019巻,p.1O4J1201
非特許文献1のロボットは、議論の活性化に一定の効果が期待できるものの、次に述べるような課題がある。第一は、会議のテーマに適合したオントロジーをあらかじめ準備する必要があるという点である。一般にオントロジーの構築には多大な労力とコストがかかるため、想定されるテーマごとにオントロジーを準備することは実用的とはいいがたい。言い換えると、非特許文献1のロボットは、オントロジーが準備されているテーマにしか利用できないシステムといえ、汎用性に欠ける。第二に、ロボットから出力される支援情報がオントロジーに依存するという点である。例えば、オントロジーが小規模であったり偏っていたりすると、適切な支援情報を出力できなかったり、議論の広がりに限界が生じることが予想される。また、オントロジーのような固定的な知識を参照するだけでは、時事ネタやバズワードなどの最新情報に対応することもできない。
本発明は、上記実情に鑑みなされたものであって、従来よりも汎用性・有用性に優れた発想支援システムを提供することを目的とする。
上記目的を達成するために、本発明は、会議での発想を支援するための発想支援システムであって、マイクと、スピーカーと、情報処理部と、を有し、前記情報処理部は、会議中に前記マイクによって収音される音声を逐次解析し、前記会議の参加者の発言から1以上の語句を抽出する音声認識手段と、前記音声認識手段により抽出された語句を記憶部に記録する発言記録手段と、前記記憶部に記録された語句に関連する情報をインターネットから動的に収集することにより、知識を獲得する知識獲得手段と、前記知識獲得手段により獲得された知識を用いて、前記参加者の発想及び/又は前記会議の進行を支援するための支援情報を生成する支援処理手段と、前記支援情報を合成音声により前記スピーカーから出力する音声合成手段と、を有し、前記支援処理手段は、前記記憶部に記録された語句群のうちから選択された選択語句を用い、前記選択語句に関係する言葉の連想を促す問いかけを前記支援情報として生成することを特徴とする発想支援システムを提供する。
なお、本発明は、上述した機能の少なくとも一部を含む発想支援システムとして捉えてもよいし、上述した処理の少なくとも一部を含む発想支援システムの制御方法もしくは発想支援方法、又は、かかる方法の各ステップをコンピュータに実行させるためのプログラム、又は、当該プログラムを非一時的に記憶した記憶媒体などとして捉えることもできる。
本発明によれば、従来よりも汎用性・有用性に優れた発想支援システムを提供することができる。
図1は、発想支援システムの概要を示す図である。 図2は、発想支援システムの構成を模式的に示すブロック図である。 図3A~図3Dは、発想支援システムの機器構成の具体例である。 図4は、会議の開始から終了までの発想支援システムの処理を示すフローチャートである。 図5は、会議情報設定画面の一例を示す図である。 図6は、アイディア記憶部に記録された発言内容の例を示す図である。 図7は、知識獲得処理の一例を示すフローチャートである。 図8A~図8Cは、知識獲得処理の一例を示す図である。 図9は、支援処理の一例を示すフローチャートである。 図10は、キーグラフの表示例を示す図である。 図11は、メモ画面の表示例を示す図である。
図1は、本発明の実施形態に係る発想支援システム1の概要を示している。発想支援システム1は、ブレーンストーミングのような複数人での会議における議論及び進行を支援するためのシステムである。主な機能として、(1)会議の参加者の発言内容を自動で記録する機能、(2)参加者の発言内容に関連する情報をインターネットから動的に収集し、知識を獲得する機能、(3)獲得した知識やあらかじめ保有している知識(辞書、データベースなど)を用いて支援情報を生成し出力する機能、などを提供する。発想支援システム1は、ファシリテーターモードとバーチャルメンバーモードの2つのモードをもち、ファシリテーターモードで動作している場合は、支援情報として、各参加者の発言や連想を促す情報、会議を進行させるための情報などを出力する。他方、バーチャルメンバーモードで動作している場合は、システム自身が参加者の一人となり、例えば、他の参加者の意見を発展・拡張するような新たな意見を支援情報として出力する。
この発想支援システム1は、支援情報を生成する際の基礎となる知識を、参加者の発言内容に合わせてインターネットから動的に獲得できる点に特徴の1つを有する。したがって、議論のテーマや目的を選ばず、あらゆる種類の会議に本システム1を汎用的に利用することができる。
<発想支援システムの構成>
図2は、発想支援システム1の構成を模式的に示すブロック図である。
発想支援システム1は、主な構成として、マイク10と、スピーカー11と、モニター12と、情報処理部13とを備える。マイク10は、音声入力装置であり、会議中の音声の収音や音声コマンドの入力などに利用される。スピーカー11は、音声出力装置であり、支援情報の音声出力などに用いられる。モニター12は、支援情報の表示や発想支援システム1で記録された発言内容の表示などに用いられる表示装置である。なお、支援情報の提供を音声出力でのみ行う場合には、モニター12は省略しても構わない。情報処理部13は、発想支援に関わる各種機能を提供するユニットである。
情報処理部13は、音声認識部20、発言記録部21、知識獲得部22、支援処理部23、音声合成部24、表示制御部25、モード設定部26、会議情報設定部27を有する。また、情報処理部13は、アイディア記憶部30、辞書記憶部31、知識記憶部32を有している。
音声認識部20は、マイク10によって収音される音声を解析し、発話者の識別、発言内容の抽出などの処理を行う機能である。発言記録部21は、参加者の発言内容をアイディア記憶部30に自動記録する機能である。知識獲得部22は、参加者の発言内容に合わせて、支援情報を生成する際の基礎になる知識を動的に獲得する機能である。知識獲得部22によって獲得された知識は知識記憶部32に格納される。支援処理部23は、支援情報の提供をはじめとする各種支援処理を行う機能である。音声合成部24は、支援情報の合成音声を生成し、スピーカー11に出力する機能である。表示制御部25は、モニター12に表示する情報の生成・更新などを行う機能である。モード設定部26は、発想支援システム1の動作モード(ファシリテーターモード/バーチャルメンバーモード)をユーザに選択させる機能である。会議情報設定部27は、会議の開始に先立ち、会議のテーマ、会議時間、シナリオ、参加者などの情報をユーザに設定させる機能である。辞書記憶部31は、各種辞書(例えば、類語辞書、反意語辞書、語源辞書、シソーラス、専門用語辞書など)を記憶する。これらの機能の詳細については後述する。
情報処理部13は、例えば、CPU(プロセッサ)、主記憶装置(メモリ)、補助記憶装置(HDD、SSDなどのストレージ)、通信装置、入出力IFなどを有するコンピュータにより構成可能である。なお、図2に示す情報処理部13の構成はあくまで論理的な構成であり、物理的な装置構成は問わない。例えば、1台の装置により構成してもよいし、複数の装置の協働により実現しても構わない。
<機器構成例>
図3A~図3Dは、発想支援システム1の機器構成の具体例である。
図3Aは、スマートスピーカー100と情報処理サーバ101により発想支援システム1を構成した例である。スマートスピーカー100は、マイク、コンピュータ、及び通信機能を内蔵するスピーカーであり、単体でインターネットへの接続や各種の情報処理が可能なデバイスである。この構成では、スマートスピーカー100と情報処理サーバ101とが協働して、図2の情報処理部13が実現される。WiFi環境が整っている会議室であれば、机上にスマートスピーカー100を設置するだけで発想支援システム1の機能を享受できるため、利便性が高い。
図3Bは、スマートスピーカー100にモニター102を接続した例である。この構成によれば、支援情報や発想支援システム1に記録された情報などをモニター102に出力することが可能である。
図3Cは、スピーカー及びマイクを内蔵するコンピュータ103によって発想支援システム1を構成した例である。コンピュータ103としては、パーソナルコンピュータの他、タブレット端末、スマートフォン、ゲーム機器などを用いてもよい。また、図3Aのように、コンピュータ103と情報処理サーバ101の連携により発想支援システム1を構成してもよい。
図3Dは、電子ホワイトボード104を発想支援システム1に接続した構成例である。電子ホワイトボード104は、電子黒板などとも呼ばれるデバイスであり、タッチパネルを搭載した大型のディスプレイからなる。例えば、アイディア記憶部30に蓄積された発言を電子ホワイトボード104に一覧表示し、画面上で書き込みや並べ替えをできるようにすることで、アイディアの整理やまとめを効率的に行うことができる。電子ホワイトボード104としては、例えば、リコー社のインタラクティブ・ホワイトボードなどを利用することができる。
なお、図3A~図3Dはあくまで一例であり、発想支援システム1の機器構成はこれらに限定されない。例えば、スマートスピーカー100のCPUパワーやリソースが十分であれば、スマートスピーカー単体で発想支援システム1を構成してもよい。また、複数の拠点に分かれてテレビ会議を実施する場合には、拠点ごとに設置したコンピュータを連携させて発想支援システム1を構成してもよい。
<発想支援システムの動作>
続いて、発想支援システム1の動作を説明する。以下では、商品のコンセプトやキャッチコピーを検討するための会議に本システム1を利用する場面を例に挙げつつ、具体的な説明を行う。なお、システム1の機器構成は図3Bのもの(スマートスピーカーとモニターの組み合わせ)を想定する。
(全体フロー)
図4は、会議の開始から終了までの発想支援システム1の処理フローを示している。例えば、スマートスピーカー100とモニター102を参加者の中央に設置し、スマートスピーカー100の所定のボタンを押下すると、図4の処理が起動する。
ステップS400において、まず、発想支援システム1が、会議情報の設定処理を実行する。例えば、会議情報設定部27がモニター102に会議情報設定画面を表示し、ユーザに会議情報の入力を促す。図5に、会議情報設定画面の一例を示す。この例では、会議情報として、「参加者名」、「テーマ」、「会議時間」、及び、「シナリオ」の4つの情報を設定させる。
「参加者名」は、アイディア記憶部30に発言内容を記録する際に、発話者を示す識別情報として付されるものである。参加者の本名を登録してもよいが、(発話者の区別ができれば必要十分なため)ニックネームやID番号などでも構わない。また、発話者を示す識別情報として、アイコン、写真(画像)、アバターなどを登録させてもよい。また、参加者名を登録する際に、当該参加者の声の特徴量、スピーカーとの相対位置(方位など)、顔画像などを登録してもよい。会議中に収音した音声の発話者特定に利用するためである。
「テーマ」には、会議の議題を設定する。テーマ設定は自由であるが、テーマが漠然としすぎていると有益な議論にならない可能性があるため、ある程度具体的なテーマを設定することが好ましい。例えば、腕時計の新商品開発の場合であれば、「真夏のドライブに似合う時計は?」とか「女性がビジネスでもプライベートでも身に着けたくなる時計は?」のようにテーマが設定される。
「会議時間」は、会議を行う時間である。任意の時間を設定可能である。発想支援システム1がファシリテーターモードで動作する場合、設定された会議時間内に終了するように会議をファシリテートする。
「シナリオ」は、会議の構成を定義する設計図的役割を担う情報である。ブレーンストーミングのようなアイディア出しの会議は、例えば、最初はさまざまな意見を出し合って議論を発散させ、その後、出されたアイディアを発展・拡張・深堀していき、最後は、アイディアを収束させる、というように複数のフェーズから構成されることが一般的である。このようなフェーズの構成(組み合わせ)と各フェーズの時間配分を定義したものが、会議のシナリオとなる。本実施形態の会議情報設定部27は、図5に示すように、会議のタイムテーブルを表す画面上にフェーズの並びと各々の時間配分を設定可能なGUIを提供することで、シナリオの設定を簡易化している。また、あらかじめ用意されたテンプレートの中から希望のものを選択するという操作で、簡易にシナリオを設定できるようにしてもよい。あるいは、会議情報設定部27は、音声コマンドによってシナリオを設定する機能を提供してもよい。例えば、会議情報設定部27が「1番目のフェーズは?」「時間配分は?」「2番目のフェーズは?」・・・のように順に質問を音声出力し、ユーザに回答させることにより、シナリオの構成及び時間配分を設定させてもよい。本実施形態では、シナリオに設定可能なフェーズとして、「ワード発散」、「コンセプト生成」、「掘り下げ」、「発想転換・ヒント」、「逆に考える」、「選択・絞り込み」、「まとめ・収束」が用意されている。各フェーズの詳細については後述する。
会議情報の設定が完了したら、ステップS401において、動作モードの設定が行われる。例えば、モード設定部26が、動作モードの選択画面をモニター102に表示し、ファシリテーターモードかバーチャルメンバーモードのいずれかをユーザに選択させてもよい。あるいは、画面入力ではなく、音声コマンドによって動作モードの指定を行ってもよい。
以上の設定が完了したら、会議の開始準備が整う。そしてステップS402において、発想支援システム1がスマートスピーカー100あるいはモニター102から「会議を始めます。テーマは『真夏のドライブに似合う時計は?』、会議時間は1時間です。まずは自由にアイディアを出してください。」という開始メッセージを出力し、会議の開始を宣言する。合わせて、発想支援システム1は、会議の経過時間の計時と、発話の無い状態の継続時間の計時をそれぞれ開始する。
ステップS403において、発想支援システム1は、会議の参加者から発言があったか否かを判定する。例えば、スマートスピーカー100のマイクで所定の音量以上の音声を検出した場合に「発言あり」と判定し、ステップS404に進む。一方、音声が検出できなかった場合は「発言なし」と判定し、ステップS407に進む。
「発言あり」と判定された場合、ステップS404において、音声認識部20が、マイクで収音された発話に対し音声認識処理を施し、発話者の識別(誰が発言したかの判別)を行うとともに、発言内容として、発話中に含まれている「意見やアイディアに相当する語句」の抽出を行う。
音声認識処理には公知の技術を含めどのような手法を用いてもよい。例えば、発話者の識別については、声の特徴量を基に発話者を同定する方法を用いてもよいし、スマートスピーカー100と発話者の相対位置(方位)を基に発話者を推定する方法を用いてもよい。また、スマートスピーカー100がカメラと画像認識機能を有している場合には、カメラで撮影された画像から発話者を特定する方法を用いてもよい。画像認識には、顔認識や
人体認識など公知の技術を含めどのような手法を用いてもよい。また、「意見やアイディアに相当する語句」については、例えば、音声認識部20が、音声認識エンジンによって音声をテキストへと変換した後、テキストに対して自然言語処理を施し自立語や固有表現などを抽出してもよい。あるいは、ワードスポッティング型の音声認識エンジンを用いて、発話中に含まれている所定の語句を認識・抽出する操作を行ってもよい。なお、音声認識エンジンとしては、Apple社のSiri、アドバンスト・メディア社のAmiVoiceなどの公知の技術を利用可能であり、自然言語処理についても公知の技術を利用可能である。このような処理により、例えば、「軽量で防水機能がある方がよい」という発話から「軽量」「防水機能」などの語句が抽出される。以後、発言内容として抽出された「意見やアイディアに相当する語句」を「アイディアワード」又は「発言語句」と呼ぶ。
発話者の識別とアイディアワードの抽出に成功した場合、ステップS405において、発言記録部21が、アイディア記憶部30に発言内容の記録を行う。また発言記録部21は、発話の無い状態を計時するタイマをリセットする。図6に、アイディア記憶部30に記録された発言内容の例を示す。この例では、発言内容(アイディアワード)が、発話者の参加者名、会議のテーマ、フェーズ、発話時刻、音声データとともに記録されている。このように発想支援システム1により各参加者の発言内容を自動で記録できるため、従来のようにカード(付箋)に発言内容を記述したり、書記(記録係)を置いたりする必要がなく、効率的な会議運営が可能となる。
続いて、ステップS406において、知識獲得部22が、ステップS405で記録したアイディアワードに関連する知識をインターネットから収集し、獲得した知識を知識記憶部32に格納する。知識獲得処理の詳細は後述する。なお、図4のフローでは、新たなアイディアワードが記録されるたびに知識獲得処理を実行しているが、アイディアワードの記録と関係のないタイミングで知識獲得処理を実行しても構わない(例えば、所定の時間ごと、フェーズの切り替わりのタイミング、支援情報の生成のタイミングなど、いかなるタイミングでもよい)。
ステップS403で「発言なし」と判定された場合には、ステップS407において、発想支援システム1による支援の要否が判断される。支援の要否判断の条件は任意に設定することができる。例えば、発話の無い状態が一定時間続いた場合、発言が無い又は少ない参加者が存在する場合、議論が膠着している場合、記録されたアイディアワードの数が期待する数に満たない場合、フェーズの終了が近づいている場合、新しいフェーズに入った場合などに、「支援が必要」と判定してもよい。
「支援が必要」と判定された場合には、ステップS408において、支援処理部23が支援処理を実行する。このとき支援処理部23は、動作モードと会議のフェーズに応じて支援処理の内容を変える。詳細は後述する。
ステップS409において、発想支援システム1は、会議の経過時間を確認し、あらかじめ設定した会議時間が経過していた場合には、ステップS410において「会議を終了します。おつかれさまでした。」という終了メッセージを出力する。なお、会議時間が残っている場合には、ステップS403に戻る。
(知識獲得処理)
知識獲得処理(図4のステップS406)について詳しく説明する。
知識獲得部22は、参加者の発言から抽出されたアイディアワードに関連するさまざまな情報をインターネットから収集し、適宜加工することによって、支援情報の生成の基礎となる知識を生成する。図7に、アイディアワードに関連するワードをWeb検索により
収集し、収集した関連ワード群を関連度を基準にグラフ化する処理の一例を示す。
ステップS700において、まず、知識獲得部22は、アイディア記憶部30に記録された複数のアイディアワードの中から、処理対象とするアイディアワードを1つ選択する。このとき、知識獲得部22は、発話時刻が最も遅い(つまり新しく記録された)アイディアワードを選んでもよいし、ランダムに選んでもよい。ステップS700で選択されたアイディアワードを以後「対象ワード」と呼ぶ。
ステップS701において、知識獲得部22は、対象ワードを検索ワードとするWeb検索を実行する。Web検索には、一般的なWeb検索エンジンを用いることができ、例えば、Google社が提供する検索エンジンであるGoogle検索を用いることができる。知識獲得部22は、Web検索によって取得されるWebページ(HTMLファイル)、および当該Webページのリンク先に存在する複数のWebページ(HTMLファイル)を取得する。なお、知識獲得部22は、Web検索によって取得したHTMLファイルを知識記憶部32に記憶してもよい。
ステップS702において、知識獲得部22は、ステップS701にて取得したHTMLファイルに対して、パース処理を行って、テキストを抽出する。ここで、パース処理には、公知のHTMLパーサを用いることができる。また、知識獲得部22は、抽出したテキストの中の不要な記述部分(つまり関連ワードの抽出対象とはならない記述部分)にマスクをかけるマスキング処理を行うとよい。例えば、知識獲得部22は、URLの記述、コピーライトの記述、住所や電話番号などの個人情報の記述などに対し、マスキングを行う。
ステップS703において、知識獲得部22は、テキストから、対象ワードに関連する複数の関連ワードを抽出する。例えば、知識獲得部22は、テキストを形態素解析した後、テキストに含まれる単語を関連ワードとして選ぶ。このとき、所定の品詞(例えば名詞など)を優先的に関連ワードとして選んだり、登場回数の多い文字列を優先的に関連ワードとして選んでもよい。また、知識獲得部22は、形態素解析に加え、チャンキング処理を含む構文解析などを利用し、意味的にまとまりのある複合語や句を関連ワードとして抽出してもよい。さらに、知識獲得部22は、NER(固有表現抽出)を行うことによって、テキスト中のNE(固有表現)を関連ワードとして抽出してもよい。知識獲得部22は、対象ワードに対して、抽出された複数の関連ワードを関連付けて知識記憶部32に格納する。図8Bは知識記憶部32に格納された関連ワードの一例を示す。この例では、対象ワード「腕時計」の関連ワードとして「電池交換の相場」、「アナログ」、「メンテナンス」などの語句が抽出されている。なお、「関連度」及び「関連順」は次のステップS704で算出・格納される情報であるため、ステップS703の段階では関連度及び関連順の情報は空(NULL)となっているものとする。また、このとき、知識獲得部22は、関連ワードに対して品詞判定と原形の取得を行い、当該品詞および原形を関連ワードに対応付けて知識記憶部32に格納してもよい。本実施形態における関連ワードは、文章(文)において対象ワードとともに使用される語句(対象ワードと共起する語句)であるといえる。なお、共起とは、任意の文章や文において、ある語句とある語句が同時に出現することである。
ステップS704において、知識獲得部22は、抽出された複数の関連ワードのそれぞれについて、対象ワードに対する関連度を算出(決定)する。本実施形態の知識獲得部22は、テキストにおける対象ワードが含まれる文およびその文の前後のn個の文に、関連ワードが含まれていれば、その含まれている数の分だけ、当該関連ワードの関連度を加算する。なお、n個は、任意に指定可能な数字である。知識獲得部22は、この加算を、テキストにおける対象ワードが含まれている文の数だけ繰り返して行う。つまり、本実施形
態では、関連度の値が大きいほど、関連ワードと対象ワードとの関連が強いことを表す。知識獲得部22は、算出した関連度と関連ワードを対応付けて、関連度順に並び替えて、図8Bが示すような形式で、関連ワードおよび関連度を知識記憶部32に格納する。
例えば、知識獲得部22が、図8Aのようなテキストに対して、対象ワードを「腕時計」として、複数の関連ワードを「時計」、「目覚まし時計」、「掛け時計」、「時刻」として、それぞれの関連ワードの関連度を算出する場合を仮定する。図8Aが示すテキストでは、対象ワードである「腕時計」という文字列が3回登場している。そこで、知識獲得部22は、「腕時計」が含まれる文とその前後の文に対して、関連ワードのそれぞれが何回登場するかをカウントする。つまり、知識獲得部22は、破線によって囲まれた3つの文章801~803に対して、関連ワードの登場回数をカウントする。関連ワード「時計」は、文章801に1回登場し、文章803に2回登場しているため、関連度は3である。一方、関連ワード「時刻」は、文章802に2回登場するのみであるため、関連度は2である。
ステップS705において、知識獲得部22は、複数の関連ワードを用いたキーグラフを生成する。キーグラフは、各ワードの関連度に基づき、ワード(「ノード」と呼ばれる)間をリンクで接続したグラフである。1つのノードには所定数の子ノードが接続され、さらに子ノードのそれぞれにも所定数の孫ノードが接続される、というような階層構造を有している。接続ノードの最大数(エッジ数)及び階層の深さは任意に設定可能である。以下、対象ワード(アイディアワード)をルートノードとし、エッジ数を5、深さを3に設定したキーグラフを作成する例を説明する。
知識獲得部22は、知識記憶部32から、関連ワードと関連度のリスト(図8B)を取得する。そして、知識獲得部22は、関連度が最も高いものから5つの関連ワードを抽出し、それらを対象ワード「腕時計」(ルートノード)の子ノードとする。図8Cは、キーグラフのノードの配置順を示している。関連度が高いものから(1)(2)・・・の順に配置される。具体的には、図8Bの例であれば、関連度が一番高い関連ワード「電池交換の相場」が図8Cの(1)のノードに配置される。そして、関連ワード「アナログ」が(2)のノード、関連ワード「メンテナンス」が(3)のノードに配置されていく。ルートノードの子ノード(1)~(5)が埋まった後は、リストから6番目から9番目に関連度が高い関連ワードが抽出され、それらがノード(1)の子ノードとして配置される。また、10番目から13番目に関連度が高い関連ワードがノード(2)の子ノードとして配置される。同様のルールで4つずつ子ノードを配置していき、この操作をノードの階層が3になるまで続ける。これにより、対象ワード「腕時計」のまわりに約100個の関連ワードが階層的に配置されたキーグラフが生成される。このようなキーグラフでは、対象ワードとの関連度が高い関連ワードほど対象ワードに近い位置に配置される。よって、キーグラフ上のノード配置をみれば、対象ワードに関連の強い語句を直感的に把握することができる。なお、ステップS705で生成されたキーグラフのデータも知識記憶部32に格納される。以上述べたステップS700~S705の処理がアイディア記憶部30に記録された複数のアイディアワードのそれぞれに対して実行されることにより、知識記憶部32には、複数のアイディアワードのそれぞれに関する知識(関連ワード及び関連度、キーグラフなど)が蓄積されていく。
(支援処理)
支援処理(ステップS408)について詳しく説明する。
図9は、発想支援システム1の支援処理部23によって実行される支援処理のフローチャートである。支援処理部23は、会議のフェーズに応じて、支援情報の生成方法ならびに出力する支援情報の内容を変化させる。それぞれのフェーズに応じた適切なファシリテ
ートもしくは発言を行うことにより、有効な議論が行われるように仕向けつつ、決められた時間どおりに会議が進行するよう操作する。なお、ファシリテーターモードとバーチャルメンバーモードでは出力される支援情報が異なるものの、支援処理部23の基本的な処理は共通であるため、以下ではファシリテーターモードにおける処理をメインで説明し、バーチャルメンバーモードにおける処理については補足的に説明を加えるものとする。
具体的には、支援処理部23は、「ワード発散」フェーズの場合はワード発散支援処理を実行し(ステップS900、S901)、「コンセプト生成」フェーズの場合はコンセプト生成支援処理を実行し(ステップS902、S903)、「掘り下げ」フェーズの場合は掘り下げ支援処理を実行し(ステップS904、S905)、「発想転換・ヒント」フェーズの場合は他者視点支援処理を実行し(ステップS906、S907)、「逆に考える」フェーズの場合は視点変更支援処理を実行し(ステップS908、S909)、「選択・絞り込み」フェーズの場合は選択・絞り込み支援処理を実行し(ステップS910、S911)、「まとめ・収束」フェーズの場合はまとめ・収束支援処理を実行する(ステップS912、S913)。以下、それぞれのフェーズにおいて実行される支援処理の具体例をいくつか例示する。支援処理部23に対しては、以下に述べる複数種類の支援処理のすべてを実装してもよいし、一部のみを実装してもよい。なお、あるフェーズに対する支援処理として2種類以上の支援処理が実装されている場合、支援処理部23は、支援が必要と判断されたタイミング(例えば、参加者の発話が一定時間無い場合など)に、2種類以上の支援処理の中からいずれかの支援処理を選択し実行すればよい。実行する支援処理はランダムに選択されてもよいし、所定のルール(例えば一定の順番)に従って選択されてもよい。
(1)ワード発散支援処理
ワード発散フェーズは、各参加者からテーマに関するさまざまな発言を引き出し、できるだけ数多くのアイディアワードを挙げさせるフェーズである。
例えば、支援処理部23は、アイディア記憶部30に記録されたアイディアワード群のうちから任意のアイディアワードを選択し(選択されたアイディアワードを以後「選択語句」と呼ぶ)、知識記憶部32に格納されている知識を参照して、当該選択語句に関連する関連ワードを抽出する(抽出された関連ワードを以後「関連語句」と呼ぶ)。例えば、「腕時計」というアイディアワードが選択語句として選ばれたと仮定すると、支援処理部23は、知識記憶部32から「腕時計」という対象ワードに紐づけられた関連ワード群を取得し(図8B参照)、それらの関連ワード群の中から少なくとも1つ以上の関連ワードを関連語句として抽出する。このとき、選択語句との関連度が最も高い関連ワードを関連語句として抽出してもよいし、逆に、選択語句との関連度があまり高くない関連ワードを関連語句として抽出してもよいし、選択語句の関連ワード群の中からランダムに関連語句を抽出してもよい。なお、アイディア記憶部30に既にアイディアワードとして登録されている関連ワードについては、関連語句として選ばれないようにする。既に誰かが発言した内容だからである。
関連語句を抽出したら、支援処理部23は、関連語句の採否を問うような内容の文章を生成し、音声合成部24で合成した音声を用いてスピーカーから支援情報を音声出力する。例えば、関連語句が「ペアウォッチ」の場合、「『ペアウォッチ』ってどうかな?」のような問いかけが出力される。もし、この問いかけに対し、参加者のうちの誰かが「『ペアウォッチ』いいね!」というような賛同を示した場合には、発言記録部21によって「ペアウォッチ」がアイディアワードとしてアイディア記憶部30に記録される。賛同の有無については、例えば、問いかけを出力した直後(または、出力してから所定の時間内)に収音された音声を解析し、いずれかの参加者の発話の中から「いいね」「ありだね」「賛成」などの賛同を示す所定のフレーズが検出されたら「賛同あり」、いずれの発話から
も所定のフレーズが検出されなかったら「賛同なし」と判断すればよい。なお、支援情報として出力する文章については、例えば、「<A>ってどうかな?」、「<A>についてはどう思いますか?」のように、文字列挿入用のタグ(この例では「<A>」の部分)が埋め込まれたテンプレートがあらかじめ用意されており、テンプレートのタグ部分を関連語句で置き換えるだけで文章が完成するようになっている。
また、支援処理部23は、選択語句をルートノードとするキーグラフを知識記憶部32から取得し、表示制御部25によってキーグラフの表示画面をモニターに表示しつつ、音声合成部24より「この中に面白い言葉はあるかな?」という問いかけをスピーカーから出力してもよい。図10はキーグラフの表示例である。参加者のうちの誰かが、キーグラフに表示されたワードの中から気になるワードを指定すると、発言記録部21によって当該ワードがアイディアワードとしてアイディア記憶部30に記録される。ワードの指定は発話(音声)により行うこともできる。例えば、キーグラフの表示中に収音された音声を解析し、いずれかの参加者の発話の中から、キーグラフ上のワードと一致する言葉が検出された場合に、当該ワードが指定されたと判断すればよい。あるいは、本システム1がマウスやキーボードやタッチパネルなどの入力装置を備えている場合には、キーグラフが表示されている画面上で気になるワードをユーザに選択させてもよい。なお、表示したキーグラフに対する参加者の反応が無い状態が所定の時間続いた場合や、参加者の発話の中から「ない」「いまいち」「他の言葉」などの所定のフレーズが検出された場合などには、支援処理部23は、アイディア記憶部30から別のアイディアワードを選択しなおし(すなわち、選択語句を別のワードに変更し)、変更後の選択語句に対応するキーグラフを知識記憶部32から取得し、モニターの表示を別の選択語句のキーグラフに切り替えるなどしてもよい。
また、支援処理部23は、選択語句そのものを用いた問いかけ文を支援情報として出力してもよい。例えば、選択語句が「スマートウォッチ」である場合に、「『スマートウォッチ』という意見が出たけど、これに関係する言葉は?」というような問いかけを出力し、選択語句からの連想を促すとよい。
また、支援処理部23は、参加者ごとにアイディア記憶部30に記録されたアイディアワードの数(すなわち発言数)をチェックし、発言数に応じて各参加者への問いかけを出力してもよい。例えば、発言数が所定の数に満たない人(すなわち発言が少ない人)が存在する場合に、「〇〇さん、何かアイディアありますか?」とか「〇〇さん、『ペアウォッチ』ってどう思いますか?」のように、該当者へ直接呼びかける表現を含む問いかけを出力し、発言を促してもよい。これらの問いかけ文も、テンプレートを用いて生成可能である。
なお、アイディア記憶部30に記録されたアイディアワードの数が目標数に達した場合には、発想支援システム1は、ワード発散フェーズを途中で終了させ、次のフェーズに進めてもよい。
動作モードがバーチャルメンバーモードである場合には、支援処理部23は、知識記憶部32から取得した関連語句を、自身の意見やアイディアとして発表するとよい。例えば、「ペアウォッチ」という関連語句を用いて「私は『ペアウォッチ』がいいと思うな!」というような発言を生成し、これを支援情報として出力することで、議論の活性化を図る効果が期待できる。
(2)コンセプト生成支援処理
コンセプト生成フェーズは、挙げられたアイディアワードを基礎にして、ユニークなコンセプトを生み出すためのフェーズである。コンセプトとは、キャッチコピーやネーミン
グの素材となる表現であり、本実施形態では、ショートフレーズや、複数の語句から生成される複合語などをコンセプト例として生成する。
例えば、支援処理部23は、ワード発散支援処理の場合と同様、アイディア記憶部30から選択語句を選択するとともに、知識記憶部32から当該選択語句に関する関連語句を取得する。次に、支援処理部23は、あらかじめ用意されている複数のテンプレートのなかから使用するテンプレートを選択する。前述のとおり、本実施形態のテンプレートは、「<B>世界の<A>」や「<A>風<B>」のように、<A>や<B>などの文字列挿入用のタグが埋め込まれた文字列であり、<A>や<B>のタグ部分を選択語句や関連語句に置き換えることによって、ショートフレーズや複合語を作成することができる。
例えば、1つ目のテンプレートの<A>に選択語句「スマートウォッチ」を挿入し、<B>に関連語句「異次元」を挿入すると、その結果、「異次元世界のスマートウォッチ」というショートフレーズが生成できる。また、2つ目のテンプレートの<A>に選択語句「ダイバーズウォッチ」を挿入し、<B>に関連語句「海の家」を挿入すると、「ダイバーズウォッチ風海の家」という複合語が生成できる。なお、選択語句や関連語句をテンプレートにそのまま挿入するのではなく、例えば、辞書記憶部31に格納されている各種辞書を用いて、選択語句や関連語句を類義語や対義語などの異なる語句に変換して、テンプレートに挿入してもよい。また、本実施形態では、選択語句と関連語句を用いてコンセプトを生成したが、選択語句のみ又は関連語句のみを用いてコンセプト生成を行ってもよい。
支援処理部23は、作成したショートフレーズや複合語を、支援情報として、スピーカーから出力したり、モニターに表示する。この場合に、支援処理部23は、「『ダイバーズウォッチ』という言葉はどんな言葉とつなげると面白いかな?例えば・・・『ダイバーズウォッチ風海の家』なんてどう?」というようにコンセプトの生成例を挙げつつ、参加者自身にもコンセプトの検討を促すとよい。なお、支援情報として出力する問いかけについては、予め用意されたテンプレートを用いて生成すればよい。上記の例であれば、「<A>という言葉はどんな言葉とつなげると面白いかな?例えば・・・<X>なんてどう?」のようなテンプレートを用い、<A>に選択語句「ダイバーズウォッチ」を、<X>に生成したコンセプト「ダイバーズウォッチ風海の家」をそれぞれ挿入することで、問いかけ文を生成することができる。なお、複数種類のテンプレートを用意しておき、その中から使用するテンプレートをランダムに選択するようにすれば、問いかけのバリエーションを増すことができる。
動作モードがバーチャルメンバーモードである場合には、支援処理部23は、作成したショートフレーズや複合語を、自身の意見やアイディアとして発表すればよい。例えば、同じ「ダイバーズウォッチ風海の家」という複合語を用いて、「『ダイバーズウォッチ風海の家』って言葉がいいと思う!」というような出力を行えば、参加者としての発言となる。バーチャルメンバーモードの場合に出力する支援情報についても、ファシリテーターモードの場合の問いかけと同様、予め用意されたテンプレートを用いて生成すればよい。
(3)掘り下げ支援処理
掘り下げフェーズは、挙げられたアイディアワードの掘り下げを行うフェーズである。
例えば、支援処理部23は、アイディア記憶部30から選択語句を選び、当該選択語句を見出し語として各種の辞書検索を行うことによって、当該選択語句に関連する情報を取得する。このとき、辞書記憶部31に格納されているすべての辞書を用いてもよいし、一部の辞書のみを用いてもよい。支援処理部23は、このようにして得た関連情報(例えば、同義語、類義語、関連語、対義語、語源など)を用いて支援情報の出力を行う。例えば
、選択語句「リューズ」の同義語として「龍頭」及び「クラウン」が、語源として「姿が龍に似た中国神話の怪物」といった情報が得られた場合、支援情報として「『リューズ』の同義語には『龍頭』『クラウン』などがあるよ。『リューズ』の語源は『姿が龍に似た中国神話の怪物』らしい。」というように、元のアイディアワードから掘り下げた情報を提供し、新たな発想を促すとよい。なお、バーチャルメンバーモードの場合には、支援処理部23は、辞書から抽出した関連情報を、自身の意見やアイディアとして発表すればよい。掘り下げフェーズで出力する支援情報についても、他のフェーズの場合と同様、予め用意されたテンプレートを用いて生成すればよい。上記の例であれば、「<A>の同義語には<P><Q>などがあるよ。<A>の語源は<R>らしい。」のようなテンプレートを用い、<A>に選択語句「リューズ」を、<P>と<Q>に同義語を、<R>に語源をそれぞれ挿入することで、出力文を生成することができる。
また、支援処理部23は、アイディア記憶部30に蓄積されたアイディアワード群を複数のグループに分類して、ワード数が最も多いグループを選び、当該グループに属するアイディアワードに関する情報を支援情報として出力してもよい。例えば、支援処理部23は、語彙の概念構造を定義するシソーラス辞書(例えばWordNetや分類語彙表など)を用いて、アイディア記憶部30に蓄積された各アイディアワードを概念構造にマッピングし、どの概念にアイディアワード(すなわち参加者の意見)が集中しているかをみることで、最も活発に議論されている概念を判定してもよい。例えば、分類語彙表の「体-生産物-機械-機械・装置」に分類される単語にアイディアワードが集中している場合には、「時計の『機械や装置』に関しての意見が多いけど、皆さんどうですか?」などと当該概念に関する議論をさらに掘り下げる誘導を行ってもよい。また、概念構造に分類するのではなく、クラスタ分析によりアイディアワード群のグループ化を行ってもよい。例えばword2vecなどを用いて各ワードの特徴量を求め、k-means法などのクラスタ分析アルゴリズムにより特徴量の近いワードをグループ化すればよい。この場合には、ワード数が最も多いグループから所定数のワードを代表ワードとして抽出し、その代表ワードを用いて支援情報を出力するとよい。例えば、代表ワードとして「電波時計」「時刻補正」が抽出された場合に、「『電波時計』や『時刻補正』といった意見が多いけど、皆さんどうですか?」というような問いかけを出力することで、これらのワードに関連する議論をさらに掘り下げる誘導を行うことができる。なお、これらの問いかけについても、予め用意されたテンプレートを用いて生成すればよい。
また、支援処理部23は、複数のグループのうちからワード数が最も少ないグループを選び、当該グループに属するアイディアワードに関する情報を支援情報として出力してもよい。例えば、ワード数が最も少ないグループに属するアイディアワードが、分類語彙表の「体-生産物-機械-機械・装置」に分類される単語であった場合には、「時計の『機械や装置』に関しての意見が少ないけど、皆さんどうですか?」などと当該概念に関する議論のきっかけを与えてもよい。また、ワード数が最も少ないグループから抽出した代表ワードを用いて支援情報を出力してもよい。例えば、代表ワードとして「電波時計」が抽出された場合に、「『電波時計』に関しての意見が少ないけど、皆さんどうですか?」というような問いかけを出力することで、これらのワードに関連する意見を誘発してもよい。なお、これらの問いかけについても、予め用意されたテンプレートを用いて生成すればよい。
(4)他者視点支援処理
発想転換・ヒントフェーズは、参加者に対し、他者の視点での思考を促すフェーズである。
例えば、支援処理部23は、アイディア記憶部30から選択語句を選び、他者の視点(例えば、主婦、学者、偉人などの第三者の視点)から当該選択語句について考察すること
を促す問いかけ文を生成し、支援情報として出力してもよい。例えば、選択語句として「自動巻きの時計」が選ばれた場合に、「学者だったら『自動巻きの時計』をどう考えるかな?」のように、発想の転換を促したり、考え方のヒントを与えるとよい。
また、前述した知識獲得処理において、主婦関連の情報を扱うWebサイトのみを検索対象としたり、学術論文のデータベースのみを検索対象とするなど、ドメインの偏った情報源のみから関連ワードを収集することによって、ある特定のドメインに偏った知識のみを意図的に獲得してもよい。例えば、主婦関連のWebサイトから獲得した関連ワードを用いて、「主婦だったら〇〇〇と考えるかもしれないよ。」のように、他者の視点で考えたアイディアを発話することができる。なお、バーチャルメンバーモードの場合には、支援処理部23は、そのような関連ワードを、自分の視点による意見やアイディアとして発表すればよい。発想転換・ヒントフェーズで出力する支援情報についても、他のフェーズの場合と同様、予め用意されたテンプレートを用いて生成すればよい。上記の例であれば、「学者だったら<A>をどう考えるかな?」「主婦だったら<B>と考えるかもしれないよ。」のようなテンプレートを用い、<A>や<B>の部分に選択語句や関連ワードを挿入することで、出力文を生成することができる。
(5)視点変更支援処理
逆に考えるフェーズは、参加者に対し、今までとは異なる視点で検討することを促すフェーズである。
例えば、支援処理部23は、アイディア記憶部30から選択語句を選び、当該選択語句を視点を変えて考察することを促す問いかけ文を作成し、支援情報として出力してもよい。例えば、選択語句として「自動巻きの時計」が選ばれた場合に、「『自動巻きの時計』を逆に考えてみたらどうなる?」のような発話をし、発想の転換を促してもよい。
また、支援処理部23は、選択語句(又は選択語句の一部)の逆表現を用いて問いかけ文を生成し、支援情報として出力してもよい。例えば、選択語句「自動巻きの時計」の「自動」という単語をその対義語である「手動」に置き換え、「手動巻きの時計」という逆表現の語句を生成し、当該語句を利用して「『自動巻きの時計』を『手動巻きの時計』で考えたらどうなる?」のような問いかけを行ってもよい。また、「走る⇔走らない」のように肯定と否定を置き換えたり、「明るい⇔暗い」のように極性を入れ替えたりすることでも、逆表現を生成することができる。例えば、支援処理部23は、極性辞書を用いて極性解析を行い、選択語句に極性表現が含まれるか否かを判断する。極性表現とは、肯定/否定、大/小、高/低のように対となる方向性をもつ表現のことである。極性表現が含まれていた場合には、その方向性を反転させることにより、逆表現を生成すればよい。なお、逆に考えるフェーズで出力する支援情報についても、他のフェーズの場合と同様、予め用意されたテンプレートを用いて生成すればよい。
(6)選択・絞り込み支援処理
選択・絞り込みフェーズは、ワード発散フェーズやコンセプト生成フェーズで出されたアイディアワードの選択及び絞り込みを行うフェーズである。
例えば、支援処理部23は、アイディア記憶部30に記録されているアイディアワードを一つずつ順に選び、「〇〇〇という意見は残しますか?」などのように、必要な語句か不要な語句であるかを選別するための問いかけを出力する。問いかけを出力してから所定時間のうちに参加者から「不要」の意思表示があった場合は、支援処理部23は、そのアイディアワードをアイディア記憶部30から削除する。例えば、問いかけ出力後の所定時間内に収音された音声を解析し、いずれかの参加者の発話の中から「不要」「残さない」「いらない」などの所定のフレーズが検出されたら、「不要」の意思表示があったと判断
すればよい。このような支援処理によって、会議の途中段階でのアイディアワードの整理を容易に行うことができる。なお、問いかけを出力したときにいずれかの参加者からアイディアワードの掘り下げを希望する発言があった場合には、前述した掘り下げフェーズへ移行してもよい。例えば、問いかけ出力後の所定時間内に収音された音声を解析し、いずれかの参加者の発話の中から「掘り下げ」「深堀り」「もっと」などの所定のフレーズが検出されたら、掘り下げ希望があったと判断すればよい。
(7)まとめ・収束支援処理
まとめ・収束フェーズは、会議の最後のフェーズであり、出されたアイディアワードの整理及び収束を行うフェーズである。
例えば、支援処理部23は、会議の残り時間が所定値(例えば残り10分など)になった場合に、「そろそろ、出された意見の中から良いものを選択しよう」というような定型のアナウンスを出力してもよい。
また、支援処理部23は、アイディア記憶部30に蓄積されたアイディアワード群の自動分類を行うことも可能である。例えば、支援処理部23は、「出された意見をk個のグループに分けてみるね」と宣言した上で、クラスタリングを用いてアイディアワード群をk個のクラスに分類してもよい。あるいは、支援処理部23は、「何についてまとめる?」のように分類基準(分類の方向性)を参加者に問いかけ、参加者から分類基準を受け付けたら、「〇〇についてまとめるね」と確認した後、アイディアワード群の分類処理を実行してもよい。例えば、分類基準として「時計の機能」というトピックが与えられた場合、このトピックと各アイディアワードの分散距離の近さによってワードのグルーピングを行えばよい。
また、支援処理部23は、発話者ごとにアイディアワードをまとめてもよいし、同義語や類義語を一つにまとめてもよい。
(刺激処理)
支援処理部23は、参加者から発話の無い状態が所定時間続いた場合に、刺激処理を実行してもよい。刺激処理は、参加者に対し刺激や気づきを与えるための処理であり、例えば、注意を惹くような表示方法でモニターにワードやフレーズを表示する処理や、音声でワードやフレーズを読み上げる処理などがある。
例えば、支援処理部23は、発話の無い状態が2分続いた場合に、刺激モードに移行する。そして、支援処理部23は、モニターの表示を暗転又はスクリーンセーバーに切り替え、アイディア記憶部30からランダムに読み込んだアイディアワードや、知識記憶部32からランダムに読み込んだ関連ワードや、前述したショートフレーズなどを、モニター画面上に表示する。このとき、大きな文字サイズや目立つ色で表示したり、画面上の移動や点滅といったアニメーション効果をつけて表示したりすることで、参加者の注意を惹くとよい。
刺激処理は、ワード発散フェーズ、コンセプト生成フェーズ、掘り下げフェーズ、発想転換・ヒントフェーズ、逆に考えるフェーズなどにおいて、参加者から発話の無い状態が所定時間続いた場合など必要に応じて自動的に実行されるとよい。刺激処理で出力される内容はフェーズに応じた内容でもよいし、フェーズにかかわらずランダムに選択されてもよい。ただし、ランダムの場合であっても、後段のフェーズで出力されるべき支援情報に相当する内容は出力すべきではない。例えば、まだワード発散フェーズである場合には、コンセプト生成フェーズで出力されるべきショートフレーズ等は出力しない方がよい。ショートフレーズのようなコンセプトを参加者に与えることで、意見の自由な発散が阻害さ
れる可能性があるからである。
(メモ機能)
発想支援システム1が提供するメモ機能について詳しく説明する。
前述のように、参加者の発話からアイディアワードが抽出されると、発言記録部21が、アイディアワードを、発話者、会議のテーマ、フェーズ、発話時刻などの情報とともに、アイディア記憶部30に記録する。このとき、発想支援システム1がモニターを備える構成であれば、発言記録部21は、モニターに表示されたメモ画面上にアイディアワードを描画する。図11はメモ画面の一例である。メモ画面には、アイディア記憶部30に記録されている全てのアイディアワードが表示される。メモ画面は、表示されている文字列を自由に変更・削除するためのUIをユーザに提供する。例えば、メモ画面において、ユーザは、ワードの配置を変更したり、ワードを並べ替えたりすることができる。また、メモ画面において、ユーザは、複数のワードをグルーピングしたり、ワードとワードを線で結んだり、ワード、グループ、線などにコメントを付加したりすることができる。また、メモ画面において、ユーザは、文字の属性(サイズ、フォント、色など)を自由に変更することができる。また、メモ画面において、ユーザは、不要なワードを削除することができる。メモ画面から削除されたワードは、アイディア記憶部30からも削除される。
発想支援システム1は、フェーズごとに別々のメモ画面を生成・表示してもよい。例えば、フェーズごとにメモ画面のページを分けてもよいし、メモ画面をフェーズごとに複数の領域に分割してもよい。この場合には、各フェーズで記録されたアイディアワードが、対応するページ又は領域に表示されることとなる。これにより、各フェーズでの議論の様子や結果を記録として残したり、会議の途中で議論を振り返ったりする操作が容易になる。なお、メモ画面において、アイディアワードとともに発話者を示す識別情報(参加者名、ニックネーム、ID番号、アイコン、写真(画像)、アバターなど)を描画することで、誰が発言した意見かを識別できるようにしてもよい。
なお、上述したまとめ・収束支援処理において、アイディアワード群の自動分類を行った場合には、支援処理部23は、その分類結果に従って、メモ画面上のワードの配置(表示位置)を制御してもよい。例えば、グループごとにワードがまとまるようにメモ画面の表示を更新することで、まとめ・収束作業を支援することができる。
このようなメモ画面を利用することによって、参加者は、今まで出された意見を確認したり、意見の全体を俯瞰したりすることが容易になる。また、メモ画面上で、意見の選択・絞り込みやまとめ作業を行うことで、効率的な作業が可能である。また、メモ画面上で意見のまとめ作業を行った後、このメモ画面のスクリーンショットを生成しPDFデータなどで保存してもよい。また発想支援システム1がプリンタに接続されている場合には、メモ画面を印刷してもよい。メモ画面のスクリーンショットや印刷は、会議の記録資料としてそのまま利用することができる。
以上述べた本実施形態の発想支援システム1では、支援情報を生成する際の基礎となる知識を、参加者の発言内容に合わせてインターネットから動的に獲得することができる。したがって、従来システムのように議論のテーマや目的に合わせてオントロジーを構築するなどの事前準備が不要となり、運用が簡単である。また、あらゆる種類の会議に本システム1を利用でき、汎用性・実用性の点でメリットが大きい。さらに、時事ネタやバズワードなどの最新の情報にも対応可能であるという利点もある。
なお、上述した実施形態は、本発明の具体的な構成の一つを例示的に示したものにすぎず、本発明の範囲は上記実施形態の構成には限られない。例えば、上記実施形態では、シ
ナリオに設定可能なフェーズとして、「ワード発散」、「コンセプト生成」、「掘り下げ」、「発想転換・ヒント」、「逆に考える」、「選択・絞り込み」、「まとめ・収束」の7つのフェーズを用意したが、シナリオにはすべてのフェーズを設定する必要はなく、これらのうちから選んだ任意のフェーズを設定すればよい。また、一つの会議の中で、同じフェーズを複数回設定してもよい。また、フェーズの種類は上記の7つに限られず、他のフェーズを追加してもよい。また、上記実施形態では、インターネットから収集した関連ワードをキーグラフの形式で整理したが、キーグラフ以外のグラフを利用して関連ワード同士の関係を整理してもよい。
1:発想支援システム

Claims (25)

  1. 会議での発想を支援するための発想支援システムであって、
    マイクと、
    スピーカーと、
    情報処理部と、を有し、
    前記情報処理部は、
    会議中に前記マイクによって収音される音声を逐次解析し、前記会議の参加者の発言から1以上の語句を抽出する音声認識手段と、
    前記音声認識手段により抽出された語句を記憶部に記録する発言記録手段と、
    前記記憶部に記録された語句に関連する情報をインターネットから動的に収集することにより、知識を獲得する知識獲得手段と、
    前記知識獲得手段により獲得された知識を用いて、前記参加者の発想及び/又は前記会議の進行を支援するための支援情報を生成する支援処理手段と、
    前記支援情報を合成音声により前記スピーカーから出力する音声合成手段と、
    を有し、
    前記支援処理手段は、前記記憶部に記録された語句群のうちから選択された選択語句を用い、前記選択語句に関係する言葉の連想を促す問いかけを前記支援情報として生成することを特徴とする発想支援システム。
  2. 前記会議は、複数のフェーズから構成されたシナリオに従って進行されるものであり、
    前記支援処理手段は、フェーズに応じて、支援情報の生成方法を変える
    ことを特徴とする請求項1に記載の発想支援システム。
  3. 前記情報処理部は、会議の開始前に当該会議のシナリオをユーザに設定させる会議情報設定手段をさらに有し、
    前記会議情報設定手段は、シナリオを構成する複数のフェーズの組み合わせと、各フェーズの時間配分とを少なくともユーザに設定させる
    ことを特徴とする請求項2に記載の発想支援システム。
  4. 前記支援処理手段は、前記知識獲得手段により獲得された知識のうちから抽出された語句であって且つ前記記憶部に記録された語句群には含まれていない語句である関連語句を用いて、前記支援情報を生成する
    ことを特徴とする請求項1~3のうちいずれか1項に記載の発想支援システム。
  5. 前記支援処理手段は、前記関連語句の採否の問いかけを前記支援情報として生成する
    ことを特徴とする請求項4に記載の発想支援システム。
  6. 前記支援処理手段は、前記関連語句を用いてフレーズもしくは複合語を生成し、生成された前記フレーズもしくは前記複合語を例示する問いかけを前記支援情報として生成することを特徴とする請求項4又は5に記載の発想支援システム。
  7. 前記支援処理手段は、前記選択語句を用いてフレーズもしくは複合語を生成し、生成された前記フレーもしくは前記複合語を例示する問いかけを前記支援情報として生成することを特徴とする請求項~6のうちいずれか1項に記載の発想支援システム。
  8. 前記支援処理手段は、前記記憶部に記録されている語句が必要な語句であるか不要な語句であるかを選別するための問いかけを前記支援情報として生成する
    ことを特徴とする請求項~7のうちいずれか1項に記載の発想支援システム。
  9. 前記支援処理手段は、前記選択語句を見出し語として辞書検索を行うことによって前記選択語句の関連情報を取得し、前記関連情報を用いて前記支援情報を生成する
    ことを特徴とする請求項~8のうちいずれか1項に記載の発想支援システム。
  10. 前記支援処理手段は、前記記憶部に記録された語句群を複数のグループに分類し、前記複数のグループのうち語句数が最も多いグループに関する情報、又は、語句数が最も少ないグループに関する情報を前記支援情報として生成する
    ことを特徴とする請求項1~9のうちいずれか1項に記載の発想支援システム。
  11. 前記知識獲得手段は、前記記憶部に記録された語句に関連する情報を、ドメインの偏った情報源から収集することにより、特定のドメインに偏った知識を獲得する
    ことを特徴とする請求項1~10のうちいずれか1項に記載の発想支援システム。
  12. 前記音声認識手段は、前記音声を発話した者を認識し、
    前記発言記録手段は、前記音声から抽出された語句を当該音声を発話した者を示す情報とともに前記記憶部に記録する
    ことを特徴とする請求項1~11のうちいずれか1項に記載の発想支援システム。
  13. 前記発言記録手段は、前記音声から抽出された語句を、当該音声を発話した者を示す情報、前記会議のテーマ、及び、発話時刻とともに前記記憶部に記録する
    ことを特徴とする請求項1~12のうちいずれか1項に記載の発想支援システム。
  14. 前記支援処理手段は、前記記憶部に記録された語句の数が所定の条件に該当する該当者が存在する場合に、当該該当者へ呼びかける表現を含む前記支援情報を生成する
    ことを特徴とする請求項1~13のうちいずれか1項に記載の発想支援システム。
  15. 前記支援情報を表示装置に表示する表示制御手段をさらに有する
    ことを特徴とする請求項1~14のうちいずれか1項に記載の発想支援システム。
  16. 前記表示制御手段は、前記記憶部に記録された語句群が表示されたメモ画面を、前記支
    援情報として前記表示装置に表示する
    ことを特徴とする請求項15に記載の発想支援システム。
  17. 前記表示制御手段は、前記知識獲得手段により獲得された知識から抽出された複数の語句の間の関連性を表すグラフを、前記支援情報として前記表示装置に表示する
    ことを特徴とする請求項15又は16に記載の発想支援システム。
  18. 前記表示制御手段は、前記表示装置に表示した支援情報に対する参加者の反応が無い状態が所定の時間続いた場合に、前記表示装置に表示する支援情報を変更する
    ことを特徴とする請求項15~17のうちいずれか1項に記載の発想支援システム。
  19. 前記表示制御手段は、前記会議の参加者の発話がない状態が所定の時間続いた場合に、前記支援情報の表示を実行する
    ことを特徴とする請求項15~18のうちいずれか1項に記載の発想支援システム。
  20. 前記支援処理手段は、前記記憶部に記録された語句群を複数のグループに分類し、前記メモ画面上でグループごとに語句がまとまるように、各語句の表示位置を制御する
    ことを特徴とする請求項16に記載の発想支援システム。
  21. 前記支援処理手段は、ユーザより受け付けた分類基準にしたがって、前記記憶部に記憶された語句群を複数のグループに分類する
    ことを特徴とする請求項20に記載の発想支援システム。
  22. 前記支援処理手段は、前記記憶部に記憶された語句群をクラスタリングすることによって、前記語句群を複数のグループに分類する
    ことを特徴とする請求項20に記載の発想支援システム。
  23. 前記表示制御手段は、ユーザより受け付けた指示にしたがって、前記メモ画面における語句の表示属性を変更可能である
    ことを特徴とする請求項16に記載の発想支援システム。
  24. 前記発言記録手段は、前記支援情報として表示された語句に対し前記会議の参加者の反応があった場合に、当該語句を前記記憶部に記憶された語句群に追加する
    ことを特徴とする請求項15~23のうちいずれか1項に記載の発想支援システム。
  25. 会議での発想を支援するための発想支援システムの制御方法であって、
    会議中にマイクによって収音される音声を逐次解析し、前記会議の参加者の発言から1以上の語句を抽出するステップと、
    前記抽出された語句を記憶部に記録するステップと、
    前記記憶部に記録された語句に関連する情報をインターネットから動的に収集することにより、知識を獲得するステップと、
    前記獲得された知識を用いて、前記参加者の発想及び/又は前記会議の進行を支援するための支援情報を生成するステップと、
    前記支援情報を合成音声によりスピーカーから出力するステップと、
    を有し、
    前記支援情報を生成するステップでは、前記記憶部に記録された語句群のうちから選択された選択語句を用い、前記選択語句に関係する言葉の連想を促す問いかけを前記支援情報として生成することを特徴とする発想支援システムの制御方法。
JP2019180025A 2019-09-30 2019-09-30 発想支援システム及びその制御方法 Active JP7427405B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019180025A JP7427405B2 (ja) 2019-09-30 2019-09-30 発想支援システム及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180025A JP7427405B2 (ja) 2019-09-30 2019-09-30 発想支援システム及びその制御方法

Publications (2)

Publication Number Publication Date
JP2021056829A JP2021056829A (ja) 2021-04-08
JP7427405B2 true JP7427405B2 (ja) 2024-02-05

Family

ID=75272591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180025A Active JP7427405B2 (ja) 2019-09-30 2019-09-30 発想支援システム及びその制御方法

Country Status (1)

Country Link
JP (1) JP7427405B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153137A1 (ja) * 2022-02-09 2023-08-17 ベルフェイス株式会社 情報処理装置、情報処理方法、記録媒体、サーバ装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026108A (ja) 2007-07-20 2009-02-05 Uchida Yoko Co Ltd 発想支援装置、発想支援システム、発想支援プログラム及び発想支援方法
JP2012018412A (ja) 2004-01-20 2012-01-26 Koninkl Philips Electronics Nv 会話の話題を決定して関連するコンテンツを取得して提示する方法及びシステム
JP2012208630A (ja) 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム
JP2014085916A (ja) 2012-10-25 2014-05-12 Ricoh Co Ltd 情報提示システム、情報提示装置およびプログラム
JP2015088913A (ja) 2013-10-30 2015-05-07 株式会社リコー 会議支援装置、会議支援システム及び会議支援方法
JP2018186326A (ja) 2017-04-24 2018-11-22 富士ゼロックス株式会社 ロボット装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018412A (ja) 2004-01-20 2012-01-26 Koninkl Philips Electronics Nv 会話の話題を決定して関連するコンテンツを取得して提示する方法及びシステム
JP2009026108A (ja) 2007-07-20 2009-02-05 Uchida Yoko Co Ltd 発想支援装置、発想支援システム、発想支援プログラム及び発想支援方法
JP2012208630A (ja) 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム
JP2014085916A (ja) 2012-10-25 2014-05-12 Ricoh Co Ltd 情報提示システム、情報提示装置およびプログラム
JP2015088913A (ja) 2013-10-30 2015-05-07 株式会社リコー 会議支援装置、会議支援システム及び会議支援方法
JP2018186326A (ja) 2017-04-24 2018-11-22 富士ゼロックス株式会社 ロボット装置及びプログラム

Also Published As

Publication number Publication date
JP2021056829A (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
US11823074B2 (en) Intelligent communication manager and summarizer
Underberg et al. Digital ethnography: Anthropology, narrative, and new media
US8521512B2 (en) Systems and methods for natural language communication with a computer
US7555713B2 (en) Writing and reading aid system
Hjorland Fundamentals of knowledge organization
CN104461525B (zh) 一种可自定义的智能咨询平台生成***
CN101004737A (zh) 基于关键词的个性化文档处理***
US20190295199A1 (en) Intelligent legal simulator
CN110941960A (zh) 一种基于关键词的儿童绘本故事生成方法、***及设备
Meghini et al. Introducing narratives in Europeana: A case study
Posthumus et al. Reading environment (s): digital humanities meets ecocriticism
JP7427405B2 (ja) 発想支援システム及びその制御方法
JP6895037B2 (ja) 音声認識方法、コンピュータプログラム及び装置
CN110297965B (zh) 课件页面的显示及页面集的构造方法、装置、设备和介质
Tang Producing informative text alternatives for images
Bhati et al. BookMate: Leveraging Deep Learning to Empower Caregivers of People with ASD in Generation of Social Stories
Hargraves Lexicography in the Post-Dictionary World
Johnson Connotation in computational creativity
Plhák Dialogue-based Exploration of Graphics for Users with a Visual Disability
Strineholm Exploring human-robot interaction through explainable AI poetry generation
Gasós et al. Intelligent E-commerce with guiding agents based on Personalized Interaction Tools
Jin et al. Question generation for language café interaction between robot and human: NLP applied in a robot
De Palma The pre-modern self in post-modern times: The rhetoric of privacy in the work of Walter J. Ong, SJ
Dasu et al. VisActs: Describing Intent in Communicative Visualization
CN114722184A (zh) 绘本推荐方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240124

R150 Certificate of patent or registration of utility model

Ref document number: 7427405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150