JP7471979B2 - 会議支援システム - Google Patents

会議支援システム Download PDF

Info

Publication number
JP7471979B2
JP7471979B2 JP2020164423A JP2020164423A JP7471979B2 JP 7471979 B2 JP7471979 B2 JP 7471979B2 JP 2020164423 A JP2020164423 A JP 2020164423A JP 2020164423 A JP2020164423 A JP 2020164423A JP 7471979 B2 JP7471979 B2 JP 7471979B2
Authority
JP
Japan
Prior art keywords
unit
text
terminal
display device
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020164423A
Other languages
English (en)
Other versions
JP2022056593A (ja
Inventor
崇資 山内
直亮 住田
雅樹 中塚
雄一 吉田
一博 中臺
一也 眞浦
恭佑 日根野
昇三 横尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Honda Sun Co Ltd
Original Assignee
Honda Motor Co Ltd
Honda Sun Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Honda Sun Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020164423A priority Critical patent/JP7471979B2/ja
Publication of JP2022056593A publication Critical patent/JP2022056593A/ja
Application granted granted Critical
Publication of JP7471979B2 publication Critical patent/JP7471979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、会議支援システム、会議支援方法およびプログラムに関する。
健聴者と聴覚障がい者とが一緒に会議に参加する会議において、各発表者の発話内容と聴覚障がい者が端末を操作して入力したテキスト化して、テキストを表示装置と各利用者が所有する端末に表示することが提案されている(例えば特許文献1参照)。特許文献1に記載の技術では、聴覚障がい者がテキストによって会話に参加した場合に、他の会議参加者の発話を待機させるように親機を制御し、発言を待機させる情報を聴覚障がい者が使用する子機に送信するようにしている。
特開2019-179480号公報
しかしながら、従来技術では、健聴者が発表者として聴衆の方を向いて発言しているときには、表示装置の画面を確認することなく話してしまうことがあった。
本発明は、上記の問題点に鑑みてなされたものであって、発表者および聴衆に対して分かりやすくテキスト入力が行われていることを気づかせることができる会議支援システム、会議支援方法およびプログラムを提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係る会議支援システムは、テキスト入力部を備えた端末と、画像を表示する表示装置と、前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声信号をテキスト化した情報を前記表示装置に表示させる会議支援装置と、を備え、前記会議支援装置は、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を所定時間変更する。
(2)また、本発明の一態様に係る会議支援システムにおいて、前記会議支援装置は、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示の輝度を変更する、表示色を変更する、彩度を変更する、およびコントラストを変更するうちのすくなくとも1つによって、前記表示装置の全体の表示を所定時間変更する、ようにしてもよい。
(3)また、本発明の一態様に係る会議支援システムにおいて、前記会議支援装置は、前記音声信号に対して発話区間を検出し、前記表示装置の全体の表示を所定時間変更した後も発話が継続している場合、再度、前記表示装置の全体の表示を、所定時間変更する、ようにしてもよい。
(4)上記目的を達成するため、本発明の一態様に係る会議支援方法は、テキスト入力部を備えた端末と、画像を表示する表示装置と、前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声をテキスト化した情報を前記表示装置に表示させる会議支援装置と、を有する会議支援システムにおける会議支援方法であって、前記会議支援装置が、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を所定時間変更する。
(5)上記目的を達成するため、本発明の一態様に係るプログラムは、テキスト入力部を備えた端末と、画像を表示する表示装置と、前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声をテキスト化した情報を前記表示装置に表示させる会議支援装置と、を有する会議支援システムにおける会議支援装置のコンピュータに、前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を所定時間変更させる。
(1)~(5)によれば、発表者および聴衆に対して分かりやすくテキスト入力が行われていることを気づかせることができる。
実施形態に係る発話が不自由な人が端末に入力を行っていない場合を示す図である。 実施形態に係る発話が不自由な人が端末に入力を行った場合を示す図である。 実施形態に係る会議支援システムの構成例を示すブロック図である。 実施形態に係る端末に表示させる画像例を示す図である。 実施形態に係る第1表示装置に表示される画像例を示す図である。 実施形態に係るテキスト入力が開始された際の第1表示装置に表示される画像の変更例を示す図である。 実施形態に係る第1表示装置の表示変更期間の例を示す図である。 実施形態に係る会議支援装置の処理手順のフローチャートである。 会議支援システムの変形例の構成例を示すブロック図である。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
[会議支援システムの概要、本実施形態の概要]
まず、会議支援システムの概要、本実施形態の概要を説明する。
図1は、本実施形態に係る発話が不自由な人が端末に入力を行っていない場合を示す図である。
本実施形態の会議支援システムは、例えば2人以上が参加して行われる会議で用いられる。参加者US1~US3のうち、発話が不自由な人(例えば聴覚障がい者)US2が会議に参加していてもよい。なお、参加者は、全員が同じ会議室にいなくてもよく、例えばネットワークNWを介して、別の会議室や自宅等から参加してもよい。
発話可能な参加者US1、US3は、参加者毎に収音部11を装着する。また、発話が不自由な人US2は、端末(スマートフォン、タブレット端末、パーソナルコンピュータ等)20を所持している。会議支援装置30は、参加者の発話した音声信号に対して音声認識を行いテキスト化して、第1表示装置60(表示装置)と端末20にテキストを表示させる。また、第2表示装置70には、説明用の資料を表示させるPC(パーソナルコンピュータ等)80が接続されている。参加者US2は、例えばテーブルTbに置いて端末2を利用する。
図2は、本実施形態に係る発話が不自由な人が端末に入力を行った場合を示す図である。
図2のように、発話が不自由な人US2が、端末20を使ってテキスト入力を開始すると、第1表示装置60の画面の輝度または色が第1所定時間(所定時間)変化する。
これにより、本実施形態よれば、発話している参加者US1に、端末20によって入力が行われていることを気づかせることができる。参加者US1は、例えば、現在発話しているフレーズの発話が完了した時点で、端末20によって入力が終了するまで発話を中断する。これにより、本実施形態によれば、端末20による入力を待機することができる。
[会議支援システムの構成例]
次に、会議支援システムの構成例を説明する。
図3は、本実施形態に係る会議支援システム1の構成例を示すブロック図である。図3に示すように、会議支援システム1は、収音装置10、端末20、会議支援装置30、音響モデル・辞書DB40、議事録・音声ログ記憶部50、第1表示装置60、第2表示装置70、およびPC80を備える。また、端末20は、端末20-1、端末20-2、・・・を備える。以下、端末20-1、端末20-2のうち1つを特定しない場合は、「端末20」という。
収音装置10は、収音部11-1、収音部11-2、収音部11-3、・・・を備える。以下、収音部11-1、収音部11-2、収音部11-3、・・・のうち1つを特定しない場合は、「収音部11」という。
端末20は、入力部201、処理部202、表示部203、および通信部204を備える。
会議支援装置30は、取得部301、音声認識部302、テキスト変換部303(音声認識部)、係り受け解析部304、議事録作成部306、通信部307、認証部308、操作部309、および処理部310を備える。
収音装置10と会議支援装置30とは、有線または無線によって接続されている。端末20と会議支援装置30とは、有線または無線のネットワークNWによって接続されている。
[収音装置]
収音装置10は、利用者が発話した音声信号を収音し、収音した音声信号を会議支援装置30に出力する。なお、収音装置10は、1つのマイクロフォンアレイであってもよい。この場合、収音装置10は、それぞれ異なる位置に配置されたP個のマイクロフォンを有する。そして、収音装置10は、収音した音からPチャネル(Pは、2以上の整数)の音声信号を生成し、生成したPチャネルの音声信号を会議支援装置30に出力する。
収音部11は、マイクロフォンである。収音部11は、利用者の音声信号を収音し、収音した音声信号をアナログ信号からデジタル信号に変換して、デジタル信号に変換した音声信号を会議支援装置30に出力する。なお、収音部11は、アナログ信号の音声信号を会議支援装置30に出力するようにしてもよい。
[端末]
端末20は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ等である。端末20は、音声出力部、モーションセンサー、GPS(Global Positioning System;全地球測位システム)等を備えていてもよい。
入力部201は、例えば表示部203上に設けられたタッチパネル式のセンサー(含むタッチパネル用のペンシル)、またはキーボードである。入力部201は、利用者が入力した入力を検出し、検出した結果を処理部202に出力する。なお、端末20の利用者は、テキストを、例えばタッチパネル用のペンシル等で手書きで入力するか、表示部203に表示されるソフトウェアキーボードを操作して入力するか、機械式のキーボードを操作して入力する。
処理部202は、入力部201が出力した結果に基づいて、テキスト入力が開始されたことを検出し、テキストが入力開始されたことを示すテキスト入力開始情報を生成し、生成したテキスト入力開始情報を通信部204に出力する。処理部202は、テキストが入力開始されたことを、例えば、文字が例えば1文字手書きされたことを検出したとき、またはキーボードで文字が一文字入力されたときに検出するようにしてもよい。なお、処理部202は、手書きでテキスト入力された場合、手書き文字を周知の手法で認識してテキスト化する。
処理部202は、入力部201が出力した出力した結果に応じて送信情報を生成し、生成した送信情報を通信部204に出力する。送信情報には、入力されたテキスト情報と端末20を識別するための識別情報が含まれている。
処理部202は、通信部204が出力するテキスト情報を取得し、取得したテキスト情報を画像データに変換し、変換した画像データを表示部203に出力する。なお、表示部203上に表示される画像については、図4を用いて後述する。
表示部203は、処理部202が出力した画像データを表示する。表示部203は、例えば、液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。
通信部204は、テキスト情報または議事録の情報を会議支援装置30から受信し、受信した受信情報を処理部202に出力する。通信部204は、処理部202が出力したテキスト入力開始情報、送信情報を会議支援装置30に送信する。
[音響モデル・辞書DB、議事録・音声ログ記憶部]
音響モデル・辞書DB40には、例えば音響モデル、言語モデル、単語辞書等が格納されている。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。なお、会議支援装置30は、音声認識辞書13に格納されていない単語等を、音響モデル・辞書DB40に格納して更新するようにしてもよい。
議事録・音声ログ記憶部50は、議事録(含む音声信号)を記憶する。
第1表示装置60は、会議支援装置30が出力した画像データを表示する。第1表示装置60は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、第1表示装置60は、会議支援装置30が備えていてもよい。
第2表示装置70は、PC80が出力する画像データを表示する。第2表示装置70は、例えば液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等である。なお、第2表示装置70は、PC80が備えていてもよい。
PC80は、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末等のうちのいずれか1つである。
[会議支援装置]
会議支援装置30は、例えばパーソナルコンピュータ、サーバ、スマートフォン、タブレット端末等のうちのいずれかである。なお、会議支援装置30は、収音装置10がマイクロフォンアレイの場合、音源定位部、音源分離部、および音源同定部をさらに備える。会議支援装置30は、参加者によって発話された音声信号を、例えば所定の期間毎に音声認識してテキスト化する。そして、会議支援装置30は、テキスト化した発話内容のテキスト情報を、参加者の端末20それぞれに送信する。
取得部301は、収音部11が出力する音声信号を取得し、取得した音声信号を音声認識部302に出力する。なお、取得した音声信号がアナログ信号の場合、取得部301は、アナログ信号をデジタル信号に変換し、デジタル信号に変換した音声信号を音声認識部302に出力する。
音声認識部302は、収音部11が複数の場合、収音部11を使用する話者毎に音声認識を行う。
音声認識部302は、取得部301が出力する音声信号を取得する。音声認識部302は、取得部301が出力した音声信号から発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出してもよく、収音部11のオン状態とオフ状態を検出してもよい。なお、音声認識部302は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部302は、検出した発話区間の音声信号に対して、音響モデル・辞書DB40を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部302は、例えば特開2015-64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部302は、認識した認識結果と音声信号をテキスト変換部303に出力する。なお、音声認識部302は、認識結果と音声信号とを、例えば1文毎、または発話句間毎、または話者毎に対応つけて出力する。
テキスト変換部303は、音声認識部302が出力した認識結果に基づいて、テキストに変換する。テキスト変換部303は、変換したテキスト情報と音声信号を係り受け解析部304に出力する。なお、テキスト変換部303は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除してテキストに変換するようにしてもよい。
係り受け解析部304は、テキスト変換部303が出力したテキスト情報に対して形態素解析と係り受け解析を行う。係り受け解析には、例えば、Shift-reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。係り受け解析部304は、解析した結果に基づいて、修正が必要な場合は、音声認識したテキスト情報を音響モデル・辞書DB40を参照して修正して議事録・音声ログ記憶部50に記憶させる。係り受け解析部304は、係り受け解析した結果のテキスト情報と音声信号を議事録作成部306に出力する。
議事録作成部306は、係り受け解析部304が出力したテキスト情報と音声信号に基づいて、発表者等である発話者毎に分けて、議事録を作成する。議事録作成部306は、作成した議事録と対応する音声信号を議事録・音声ログ記憶部50に記憶させる。なお、議事録作成部306は、「あー」、「えーと」、「えー」、「まあ」等の間投詞を削除して議事録を作成するようにしてもよい。
通信部307は、端末20と情報の送受信を行う。端末20から受信する情報には、例えば、会議への参加要請、テキスト入力開始情報、テキスト送信情報、過去の議事録の送信を要請する指示情報等が含まれている。通信部307は、端末20から受信した参加要請から、例えば、端末20を識別するための識別情報を抽出し、抽出した識別情報を認証部308に出力する。識別情報は、例えば、端末20のシリアル番号、MACアドレス(Media Access Control address)、IP(Internet Protocol)アドレス等である。通信部307は、認証部308が通信参加を許可する指示を出力した場合、会議に参加要請した端末20との通信を行う。通信部307は、認証部308が通信参加を許可しない指示を出力した場合、会議に参加要請した端末20との通信を行わない。通信部307は、受信した情報を処理部310に出力する。通信部307は、処理部310が出力したテキスト情報または過去の議事録情報等を、参加要請のあった端末20に送信する。
認証部308は、通信部307が出力した識別情報を受け取り、通信を許可するか否か判別する。なお、会議支援装置30は、例えば、会議への参加者が使用する端末20の登録を受け付け、認証部308に登録しておく。認証部308は、判別結果に応じて、通信参加を許可する指示か、通信参加を許可しない指示を通信部307に出力する。
操作部309は、例えばキーボード、マウス、第1表示装置60上に設けられているタッチパネルセンサー等である。操作部309は、利用者の操作結果を検出して、検出した操作結果を処理部310に出力する。
処理部310は、端末20からテキスト入力開始情報を受信したとき、第1表示装置60に表示させる画像を変更する。処理部310は、表示の変更を、例えばバックライトを暗くする(輝度を落とす)か、背景を黒等に変更して画面を暗くするか明るくするか、彩度を高くするか低くするか、コントラストを変更して暗くするか明るくする等によって行う。処理部310は、第1表示装置60に表示させる画像を変更した後、例えば第1所定時間の経過後に、第1表示装置60の画像変更を終了する。
処理部310は、過去の議事録の送信を要請する指示情報に応じて議事録・音声ログ記憶部50から議事録を読み出し、読み出した議事録の情報を通信部307に出力する。なお、議事録の情報には、話者を示す情報、係り受け解析した結果を示す情報等が含まれていてもよい。
なお、収音装置10がマイクロフォンアレイの場合、会議支援装置30は、音源定位部、音源分離部、および音源同定部をさらに備える。この場合、会議支援装置30は、取得部301が取得した音声信号に対して予め生成した伝達関数を用いて音源定位部が音源定位を行う。そして、会議支援装置30は、音源定位部が定位して結果を用いて話者同定を行う。会議支援装置30は、音源定位部が定位して結果を用いて、取得部301が取得した音声信号に対して音源分離を行う。そして、会議支援装置30の音声認識部302は、分離された音声信号に対して発話区間の検出と音声認識を行う(例えば特開2017-9657号公報参照)。また、会議支援装置30は、残響音抑圧処理を行うようにしてもよい。
[端末に表示される画像例]
図4は、本実施形態に係る端末20に表示させる画像例を示す図である。
テキスト表示欄g11~g13は、既に発話された発話を音声認識したテキスト、または入力されたテキストの画像である。
テキスト入力欄g14は、端末20の利用者がテキスト入力を行う領域である。
送信ボタン画像g15は、端末20の利用者が、テキスト入力を終了し、入力したテキストを送信する際に選択するボタン画像である。
なお、図4のように、表示画像には、発話者に対応するアイコンg16、発話者の名前画像g17、発話時刻画像g18、テキスト入力を開始する際に利用者が選択するテキスト入力開始ボタン画像g19等が含まれていてもよい。なお、テキスト入力開始ボタン画像g19と送信ボタン画像g15とは、切り替えて表示するようにしてもよい。
[第1表示装置に表示される画像例]
図5は、本実施形態に係る第1表示装置60に表示される画像例を示す図である。
領域g100の画像は、参加者情報編集を行う領域である。
領域g101は、参加者情報の領域である。アイコン画像g102は、参加者に対応した画像である。名前画像g103は、参加者の名前の画像である。マイクロフォン番号画像g105は、参加者が使用する収音部11の番号(または識別情報)の画像である。端末番号画像g106は、参加者が使用する端末20の番号(または識別情報)の画像である。
領域g200の画像は、発話されたたテキストまたは入力されたテキストを表示、または議事録を表示する領域である。なお、図5では、ログイン中の状態を示している。
ボタン画像g201は、ログイン/ログアウトの画像である。
ボタン画像g202は、会議支援システム1の開始/終了のボタンである。表示画像g203は、会議支援システム1の使用中に点灯する画像である。
ボタン画像g204は、議事録・音声ログ記憶部50が記憶する議事録の表示や音声信号の再生を行う画像である。
アイコン画像g211は、参加者のうち、発話した人に対応する画像である。
符号g212、g221、g231は、参加者が発話した内容を音声認識したテキスト情報である。
発話時刻画像g214は、参加者が発話またはテキスト入力した時刻を示す情報である。
名前画像g215は、第1の参加者の名前の画像である。
なお、図5に示した画像は一例であり、第1表示装置60上に表示される画像は、これに限らない。例えば、会議中には、領域g200の画像のみを表示するようにしてもよい。
[第1表示装置の画像例]
次に、テキスト入力が開始された際の第1表示装置60に表示される画像の変更例を説明する。
図6は、本実施形態に係るテキスト入力が開始された際の第1表示装置60に表示される画像の変更例を示す図である。なお、図6では、表示されている画像のうち、1つのテキスト画像を示し、アイコン画像やボタン画像等を省略している。
テキスト入力が開始される前の画像g501では、例えば白地に黒色でテキスト画像が表示される。
これに対して、テキスト入力が開始されたときの第1の画像g502では、第1表示装置60の画面全体が変更されて表示される。
または、テキスト入力が開始されたときの第2の画像g503では、第1表示装置60の画面全体を暗くされ、さらにテキスト画像を黒から白に変更されて表示される。
なお、図6に示した変更例は一例であり、これに限らない。例えば、画面の2/3に対して、画面を暗くするなど、画面の一部を変更するようにしてもよい。
このように、画面を変更することで、発話している司会者等に、テキスト入力が開始されたことを気づかせることができる。
[第1表示装置の表示変更期間]
次に、第1表示装置の表示変更期間の例を説明する。
図7は、本実施形態に係る第1表示装置60の表示変更期間の例を示す図である。
図7において横軸は時刻(秒)である。
第1の表示変更期間は、テキスト入力開始が検出された時刻t1から、第1所定時間経過の時刻t2までの期間である。第1所定時間は、例えば数秒である。
また、第2の表示変更期間は、テキスト入力開始が検出された時刻t1から、送信ボタンのアイコン画像が端末20によって送信され、すなわちテキスト入力が終了した時刻t3までの期間(第2所定時間)である。
なお、図7に示した表示変更期間は一例であり、これに限らない。例えば、第1の表示変更期間が経過して、表示変更を例えば図6の画像g502からg501に戻した後も発話が終了しない場合、発話者が表示変更に気づかなかった可能性がある。このような場合は、再度、第1の表示変更期間の表示変更を行うようにしてもよく、この場合、第1所定時より長い時間、表示変更を行うようにしてもよい。なお処理部310は、発話終了の確認を、変更を終了した後、第2所定時間経過後に行うようにしてもよい。
または、第1の表示変更期間が経過して、表示変更を戻した後も発話が終了しない場合は、第2の表示変更期間を行うようにしてもよい。
[処理手順例]
次に、会議支援装置30の処理手順例を説明する。図8は、本実施形態に係る会議支援装置30の処理手順のフローチャートである。なお、以下の処理例は、テキスト入力開始の際、所定時間、第1表示装置60の画面表示を変更する例である。
(ステップS1)会議支援装置30の処理部310は、利用者が操作部309を操作した操作結果等に基づいて、会議で使用する収音部11や端末20を登録する。
(ステップS2)処理部310は、利用者が操作部309を操作した操作結果等に基づいて、会議開始を検出する。
(ステップS3)処理部310は、発話を検出する。
(ステップS4)会議支援装置30の音声認識部302、テキスト変換部303等は、収音部11によって収音された音声信号に対して、音声認識処理、テキスト変換等の処理を行う。
(ステップS5)処理部310は、発話区間検出等の結果に基づいて、発話が終了したか否かを判別する。処理部310は、発話が終了したと判別した場合(ステップS5;YES)。ステップS3の処理に戻す。処理部310は、発話が終了していないと判別した場合(ステップS5;NO)。ステップS6の処理に進める。
(ステップS6)処理部310は、端末20によってテキスト入力が開始されたか否かを判別する。処理部310は、テキスト入力が開始されたと判別した場合(ステップS6;YES)、ステップS7の処理に進める。処理部310は、テキスト入力が開始されていないと判別した場合(ステップS6;NO)、ステップS5の処理に戻す。
(ステップS7)処理部310は、例えば、画面全体を暗くするように第1表示装置60に表示させる画像変更を開始する。
(ステップS8)処理部310は、画像変更を開始した後、所定時間が経過したか否かを判別する。処理部310は、所定時間が経過したと判別した場合(ステップS8;YES)、ステップS9の処理に進める。処理部310は、所定時間が経過していないと判別した場合(ステップS8;NO)、ステップS8の処理を繰り返す。
(ステップS9)処理部310は、第1表示装置60の画面変更を終了し、元の表示に戻す。
(ステップS10)処理部310は、端末20によるテキスト入力が終了したか否かを判別する。処理部310は、テキスト入力が終了したと判別した場合(ステップS10;YES)、ステップS3の処理に戻す。処理部310は、テキスト入力が終了していないと判別した場合(ステップS10;NO)、ステップS11の処理に進める。
(ステップS11)処理部310は、発話が終了したか否かを判別する。処理部310は、発話が終了したと判別した場合(ステップS11;YES)、ステップS3の処理に戻す。処理部310は、発話が終了していないと判別した場合(ステップS11;NO)。ステップS7の処理に戻す。
ステップS10とS11の処理によって、テキスト入力をしていることを第1表示装置60の表示を変更して提示しても、話者が気づいていなかった場合であっても、本実施形態によれば、再度、第1表示装置60の表示を変更して提示することができる。
なお、上述した処理手順は一例であり、これに限らない。例えば、テキスト入力開始の検出は、割り込み処理によって行うようにしてもよい。
また、上述した例では、発話されている際にテキスト入力が開始された場合に画面表示を変更する例を説明したが、これに限らない。処理部310は、発話が行われていない場合にも、第1表示装置60の画面全体の表示を変更して、テキスト入力が開始されたことを報知するようにしてもよい。さらに、処理部310は、発話開始前に画面変更を行わずに、発話開始された後に、画面の変更を開始するようにしてもよい。
以上のように、本実施形態では、端末20によってテキスト入力が開始されたとき、第1表示装置60の画面の変更するようにした。
また、本実施形態では、1回目の画面変更を見逃しても、発話が継続されかつテキスト入力が継続されている場合に、さらに第1表示装置60の画面の変更を行うようにした。
これにより、本実施形態によれば、発表者および聴衆に対して分かりやすくテキスト入力が行われていることを気づかせることができる。また、本実施形態によれば、テキスト入力が行われていることに気づき、発表者が発話を区切って、テキスト入力の終了を待つことができる。この結果、本実施形態によれば、聴覚障がい者等は、端末20を使用して、発話を気にせずに、落ち着いてテキスト入力を行うことができる。
さらに、本実施形態によれば、1回目の画面変更を見逃しても、再度、第1表示装置60の画面の変更が行われるので、テキスト入力が開始されたことを気づくことができる。
[変形例]
次に、変形例を説明する。
図9は、会議支援システムの変形例の構成例を示すブロック図である。図9に示すように、会議支援システム1Aは、収音装置10A、端末20、会議支援装置30A、音響モデル・辞書DB40、議事録・音声ログ記憶部50、第1表示装置60、第2表示装置70、およびPC80を備える。
収音装置10Aは、収音部11A-1、収音部11A-2、収音部11A-3、・・・を備える。以下、収音部11A-1、収音部11A-2、収音部11A-3、・・・のうち1つを特定しない場合は、「収音部11A」という。
会議支援装置30Aは、取得部301、音声認識部302、テキスト変換部303(音声認識部)、係り受け解析部304、議事録作成部306、通信部307、認証部308、操作部309、および処理部310Aを備える。
収音部11Aは、報知部111A(111A-1、、・・・)を備える。報知部111Aは、例えば、振動装置または発光装置のうちの少なくとも1つである。報知部111Aは、会議支援装置30Aの処理部310Aの制御に応じて、例えば所定の時間、報知する。この報知は、端末20によって、テキスト入力が開始されていることを表している。
処理部310Aは、端末20からテキスト入力開始情報を受信したとき、収音部11Aの報知部111Aに報知する。処理部310Aは、報知後、例えば第1所定時間の経過後に、報知部111Aへの報知を終了する。
なお、処理部310Aは、報知後、第1所定時間経過しても発話が終了せず、かつテキスト入力が継続されている場合、再度、報知させるようにしてもよい。
また、処理部310Aは、全ての参加者が所持する収音部11Aに報知してもよく、発話されている参加者の収音部11Aのみに報知してもよい。
なお、本実施形態においても、第1表示装置60の画面を変更する。
以上のように、変形例では、少なくとも発話している参加者が使用している収音部11Aに、振動等によって報知するようにした。
これにより、変形例によれば、第1表示装置60による報知に気づかなくても、収音部11Aへの報知によって、テキスト入力が開始されたことを気づくことができる。
なお、本発明における会議支援装置30(30A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより会議支援装置30(30A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1,1A…会議支援システム、10,10A…収音装置、11…収音部、20…端末、30,30A…会議支援装置、40…音響モデル・辞書DB40、50…議事録・音声ログ記憶部、60…第1表示装置、70…第2表示装置、80…PC、111A…報知部

Claims (2)

  1. テキスト入力部を備えた端末と、
    画像を表示する表示装置と、
    前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声信号をテキスト化した情報を前記表示装置に表示させる会議支援装置と、
    を備え、
    前記会議支援装置は、
    前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を第1の所定時間変更し、
    前記第1の所定時間は、前記テキスト入力の開始時から所定時間、および前記テキスト入力の開始時から前記テキスト入力の終了時までのうちのいずれかであり、
    前記テキストを入力している第1の人とは別の第2の人の前記音声信号に対して発話区間を検出し、前記所定時間変更後も前記第2の人の発話が継続している場合、前記表示装置の全体の表示を、前記第1の所定時間より長い第2の所定時間変更する、
    会議支援システム。
  2. テキスト入力部を備えた端末と、
    画像を表示する表示装置と、
    前記端末と接続し、前記端末から入力されたテキスト情報および収音部から入力された音声信号をテキスト化した情報を前記表示装置に表示させる会議支援装置と、
    を備え、
    前記会議支援装置は、
    前記端末によってテキスト入力が開始された際、前記表示装置の全体の表示を第1の所定時間変更し、
    前記テキストを入力している第1の人とは別の第2の人の前記音声信号に対して発話区間を検出し、前記第1の所定時間経過後も前記第2の人の発話が継続している場合、前記表示装置の全体の表示を、前記第1の所定時間より長い第2の所定時間変更する、
    会議支援システム。
JP2020164423A 2020-09-30 2020-09-30 会議支援システム Active JP7471979B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020164423A JP7471979B2 (ja) 2020-09-30 2020-09-30 会議支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020164423A JP7471979B2 (ja) 2020-09-30 2020-09-30 会議支援システム

Publications (2)

Publication Number Publication Date
JP2022056593A JP2022056593A (ja) 2022-04-11
JP7471979B2 true JP7471979B2 (ja) 2024-04-22

Family

ID=81111233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020164423A Active JP7471979B2 (ja) 2020-09-30 2020-09-30 会議支援システム

Country Status (1)

Country Link
JP (1) JP7471979B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020103649A1 (en) 2001-01-31 2002-08-01 International Business Machines Corporation Wearable display system with indicators of speakers
JP2018174442A (ja) 2017-03-31 2018-11-08 本田技研工業株式会社 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
JP2019179314A (ja) 2018-03-30 2019-10-17 本田技研工業株式会社 会議システム、会議システム制御方法およびプログラム
JP2019179480A (ja) 2018-03-30 2019-10-17 本田技研工業株式会社 会議システム、会議システム制御方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3567596B2 (ja) * 1996-04-09 2004-09-22 株式会社日立製作所 手話アニメーション生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020103649A1 (en) 2001-01-31 2002-08-01 International Business Machines Corporation Wearable display system with indicators of speakers
JP2018174442A (ja) 2017-03-31 2018-11-08 本田技研工業株式会社 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
JP2019179314A (ja) 2018-03-30 2019-10-17 本田技研工業株式会社 会議システム、会議システム制御方法およびプログラム
JP2019179480A (ja) 2018-03-30 2019-10-17 本田技研工業株式会社 会議システム、会議システム制御方法およびプログラム

Also Published As

Publication number Publication date
JP2022056593A (ja) 2022-04-11

Similar Documents

Publication Publication Date Title
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6548045B2 (ja) 会議システム、会議システム制御方法、およびプログラム
JP2018106148A (ja) 多重話者音声認識修正システム
JP6725006B2 (ja) 制御装置および機器制御システム
JP7194507B2 (ja) 会議システム、会議システム制御方法およびプログラム
JP2018174439A (ja) 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
JP2018174442A (ja) 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
JP7042141B2 (ja) 会議システム、会議システム制御方法およびプログラム
WO2021153101A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7119615B2 (ja) サーバ、音データ評価方法、プログラム、通信システム
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
WO2019142418A1 (ja) 情報処理装置および情報処理方法
WO2016157993A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7471979B2 (ja) 会議支援システム
JP6172770B2 (ja) 要約筆記支援システム、情報配信装置、要約筆記支援方法、及びプログラム
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP6962849B2 (ja) 会議支援装置、会議支援制御方法およびプログラム
JP7316971B2 (ja) 会議支援システム、会議支援方法、およびプログラム
JP7384730B2 (ja) 会議支援システム、会議支援方法、およびプログラム
JP2023148706A (ja) 音声認識結果表示システム、音声認識結果表示装置、音声認識結果表示方法およびプログラム
JP7152454B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
Hughes et al. Voice Interaction for Accessible Immersive Video Players.
JP7070402B2 (ja) 情報処理装置
JP2000184077A (ja) ドアホンシステム
JP2023133782A (ja) 音声認識テキスト表示システム、音声認識テキスト表示装置、音声認識テキスト表示方法およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7471979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150