JP6950708B2 - 情報処理装置、情報処理方法、および情報処理システム - Google Patents

情報処理装置、情報処理方法、および情報処理システム Download PDF

Info

Publication number
JP6950708B2
JP6950708B2 JP2018554906A JP2018554906A JP6950708B2 JP 6950708 B2 JP6950708 B2 JP 6950708B2 JP 2018554906 A JP2018554906 A JP 2018554906A JP 2018554906 A JP2018554906 A JP 2018554906A JP 6950708 B2 JP6950708 B2 JP 6950708B2
Authority
JP
Japan
Prior art keywords
user
display
information
text information
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018554906A
Other languages
English (en)
Other versions
JPWO2018105373A1 (ja
Inventor
祐平 滝
祐平 滝
真一 河野
真一 河野
邦世 大石
邦世 大石
徹哉 浅山
徹哉 浅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority claimed from PCT/JP2017/041758 external-priority patent/WO2018105373A1/ja
Publication of JPWO2018105373A1 publication Critical patent/JPWO2018105373A1/ja
Application granted granted Critical
Publication of JP6950708B2 publication Critical patent/JP6950708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本技術は、情報処理装置、情報処理方法、および情報処理システムに関し、特に、音声認識を利用した自然な会話を支援できるようにした情報処理装置、情報処理方法、および情報処理システムに関する。
スマートフォン等を利用した音声認識アプリケーションプログラムとして、ユーザの発話をテキスト化して画面に表示する技術が知られている。さらに、音声認識結果のテキストを要約する技術も存在する(例えば、特許文献1参照)。
WO2014−061388
ただし、スマートフォン等を利用した音声認識アプリケーションプログラムの場合、テキスト化された文章の表示量に限界がある。このため、音声認識を利用したコミュニケーションの提供に関して改善が求められている。
本技術はこのような状況に鑑みてなされたものであり、音声認識を利用した自然な会話を支援する技術である。
本技術の一側面である情報処理装置は、音声入力装置に入力された第1のユーザの音声情報を取得する音声取得部と、第2のユーザのための表示装置における、取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御部とを備え、前記表示制御部は、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行い、前記テキスト情報の表示量が所定の量以上となった場合、前記第1のユーザまたは前記第2のユーザによる所定の操作に基づいて、前記テキスト情報の表示量を抑制し、前記テキスト情報の表示量を抑制した後、前記第1のユーザまたは前記第2のユーザによる第1の操作に基づいて、前記テキスト情報の表示を消去させる
本技術の一側面においては、入力された第1のユーザの音声情報が取得され、第2のユーザのための表示装置における、取得された前記音声情報に対応するテキスト情報の表示が制御される。この表示制御では、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御が行われる。そして、前記テキスト情報の表示量が所定の量以上となった場合、前記第1のユーザまたは前記第2のユーザによる所定の操作に基づいて、前記テキスト情報の表示量が抑制され、前記テキスト情報の表示量を抑制した後、前記第1のユーザまたは前記第2のユーザによる第1の操作に基づいて、前記テキスト情報の表示が消去される。
本技術の一側面によれば、音声認識を利用した自然な会話を行うことができる。
本技術を適用した会話支援装置の第1の構成例を示す図である。 本技術を適用した会話支援装置の内部構成例を示すブロック図である。 情報処理部の機能ブロック図である。 本技術を適用した会話支援装置の第2の構成例を示す図である。 会話支援装置の構成要素を第2の構成例に対応して区分したブロック図である。 本技術を適用した会話支援装置の第3の構成例を示す図である。 会話支援装置の構成要素を第3の構成例に対応して区分したブロック図である。 本技術を適用した会話支援装置の第4の構成例を示す図である。 会話支援装置の構成要素を第4の構成例に対応して区分したブロック図である。 表示待ちリスト生成処理を説明するフローチャートである。 発話テキスト表示処理を説明するフローチャートである。 既読判定の例を示す図である。 テキスト量抑制処理の具体例を説明するための図である。 テキスト量抑制処理の具体例を説明するための図である。 テキスト量抑制処理の具体例を説明するための図である。 テキスト量抑制処理の具体例を説明するための図である。 テキスト量抑制処理の具体例を説明するための図である。 編集処理(消去)の具体例を説明するための図である。 編集処理(再発話)の具体例を説明するための図である。 編集処理(NGワード登録)の具体例を説明するための図である。 編集処理(追記)の具体例を説明するための図である。 会話支援装置の応用例を説明するための図である。 会話支援装置の応用例を説明するための図である。 会話支援装置の応用例を説明するための図である。 発話者に対するフィードバックの例を説明するための図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
<本技術の実施の形態である会話支援装置の第1の構成例>
図1は、本技術の実施の形態である会話支援装置の第1の構成例を示しており、会話支援装置10を1つの筐体として形成した場合を示している。
会話支援装置10は、聴力に不安を持たない人(以下、ユーザAと称する)と、聴力に不安を持つ人(以下、ユーザBと称する)との間の会話を支援するためのものである。なお、本技術の一側面における第1のユーザが、本構成例のユーザAに対応し、本技術の一側面における第2のユーザが、本構成例のユーザ2に対応するものと見做してもよい。ただし、本技術の一側面における第1のユーザは、音声を入力するユーザであればよい。すなわち、第1のユーザ(音声を入力するユーザ)は、単一の主体(ユーザ)に限定されず、複数の主体(ユーザ)であり得る。同様に、本技術の一側面における第2のユーザは、表示された発話テキストを視認するユーザであればよく、単一の主体に限定されず、複数の主体であり得る。
具体的には、ユーザAの発話を音声認識処理によってテキスト(以下、発話テキストと称する)に変換し、その発話テキストをユーザB用の表示部43に表示する。この表示をユーザBが読むことにより、ユーザBは、ユーザAの発話(音声情報)に対応する発話テキスト(文字情報)を理解することができる。
表示部43に表示された発話テキストは、ユーザBが読み終わるか、または、所定に時間が経過するまで表示される。
表示された発話テキストがユーザBによって読み終わったか否かの判定には、例えば、撮像部41によって撮像された画像からユーザBの画像や、集音部42によって集音されたユーザBの発話が用いられる。
なお、ユーザB用の表示部43に裏面側には、ユーザA用の表示部22(図2)が設けられており、表示部22には、表示部43と同様の表示、すなわち、ユーザAの発話に対応する発話テキストが表示される。これにより、ユーザAは、自身の発話が正しく音声認識されたか否かを確認することができる。
<本技術の実施の形態である会話支援装置の構成例>
図2は、本技術の実施の形態である会話支援装置の内部の構成例を示すブロック図である。
会話支援装置10は、集音部21、表示部22、操作入力部23、情報処理部30、撮像部41、集音部42、表示部43、および操作入力部44を有する。
集音部21、表示部22、および操作入力部23は、主にユーザAに対応するために設けられている。
集音部21は、ユーザAが話す音声(発話)を集音し、それに対応する発話信号を情報処理部30に供給する。表示部22は、情報処理部30から供給される画像信号(例えば、ユーザAの発話に対応する発話テキストを画面上に表示するための画像信号)に対応する画面を表示する。操作入力部23は、ユーザAからの各種の操作を受け付けて、それに対応する操作信号を情報処理部30に通知する。
情報処理部30は、集音部21から供給される発話信号を音声認識処理によって発話テキストに変換する。また、情報処理部30は、発話テキストを画面上に表示するための画像信号を表示部43に供給する。なお、情報処理部30の詳細については後述する。
撮像部41、集音部42、表示部43、および操作入力部44は、主にユーザBに対応するために設けられている。
撮像部41は、ユーザB等を撮像し、その結果得られる動画像信号を情報処理部30に供給する。集音部42は、ユーザBが話す音声(発話)を集音し、それに対応する発話信号を情報処理部30に供給する。表示部43は、情報処理部30から供給される、ユーザAの発話に対応する発話テキストを画面上に表示するための画像信号に対応する画面を表示する。操作入力部44は、ユーザBからの各種の操作を受け付けて、それに対応する操作信号を情報処理部30に通知する。
<情報処理部30が有する機能ブロックの構成例>
図3は、情報処理部30が有する機能ブロックの構成例を示している。
情報処理部30は、音声認識部31、画像認識部32、誤認識学習部33、解析部35、編集部36、追記学習部37、表示待ちリスト保持部38、表示制御部39、およびフィードバック部40を有する。
音声認識部31は、集音部21から供給されるユーザAの発話に対応する発話信号を音声認識処理によって発話テキストに変換することにより発話テキストを生成し、解析部35に供給する。
また、音声認識部31は、集音部42から供給されるユーザBの発話に対応する発話信号を音声認識処理によって発話テキストに変換し、該発話テキストがユーザBの既読を表す特定のキーワード(予め登録されている、例えば「はい」、「うん」、「わかった」、「了解」、「次」等)を検出し、検出結果を表示制御部39に供給する。
画像認識部32は、撮像部41から供給される動画像信号に基づき、ユーザBの既読を表す特定の動作(例えば、うなずき、画面を注視していた後に画面以外の方向を見る等)を検出し、検出結果を表示制御部39に供給する。また、画像認識部32は、撮像部41から供給される動画像信号に基づき、ユーザBと表示部43との距離を測定し、測定結果を表示制御部39に通知する。ユーザBと表示部43との距離は、表示部43に表示する発話テキストの文字サイズを設定するために用いられる。例えば、ユーザBと表示部43との距離が長いほど、大きな文字サイズに設定される。
なお、後述するヘッドマウントディスプレイ等のウェアラブル機器を用いる場合、ウェアラブル機器の向き、すなわちユーザBの頭の向きや体の向きに基づいて視線方向が判定されてもよい。ウェアラブル機器の向きは、ウェアラブル機器に設けられたカメラ、加速度センサ、ジャイロセンサ等から取得される位置情報に基づいて判定され得る。また、赤外線カメラと赤外線LEDを利用して、ユーザBの眼球のプルキニエ像と瞳孔中心を判定し、これらに基づいてユーザBの視線方向を判定してもよい。
誤認識学習部33は、音声認識処理の結果であるユーザAの発話に対応する発話テキストに対し、ユーザAまたはユーザBから入力される編集操作(例えば、消去指示操作、再発話指示操作、NGワード登録指示操作)に対応し、その発話テキストに含まれる誤認識されている単語を誤認識リスト34に登録する。また、誤認識学習部33は、音声認識処理の結果であるユーザAの発話に対応する発話テキストに、誤認識リスト34に登録された単語が含まれている場合、音声認識部31に対して、誤認識されている単語(認識結果の第1候補)以外の認識結果(第2候補等)を要求する。
解析部35は、音声認識部31によって生成されたユーザAの発話に対応する発話テキストを、例えば、品詞に分解したり、キーワードを抽出したりする等の解析を行う。
編集部36は、解析部35による解析結果に基づき、発話テキストに対して、適宜、改行や改頁を加えたり、消去しても発話テキストが有する意味を損なわない助詞等を特定するテキスト量抑制処理を行ったりする編集処理を行い、表示待ちリスト保持部38に供給する。なお、編集処理では、改行、改頁またはテキスト量抑制処理のうち少なくとも一つが行われるものと見做されてよく、改行、改頁またはテキスト量抑制処理のうち少なくとも一つが省略されてもよい。
また、編集部36は、関連している複数の発話テキストをスレッドにまとめて表示待ちリスト保持部38に供給するようにすることができる。この場合、現在のスレッドを表示しつつ、表示待ちのスレッドに対応するアイコンを表示するようにしてもよい。表示待ちのスレッドを示す表示オブジェクトはアイコンに限定されず、適宜設定がなされてよい。このような構成によれば、ユーザBが、どの程度相手の発話テキストを読み終えたのかを容易に把握することができる。また、このような構成によれば、発話テキストの進捗状況に基づいて、ユーザBがユーザAの入力量を抑制するよう働き掛けることができる。
さらに、編集部36は、表示部22に表示されている、ユーザAの発話に対応する発話テキストに対し、操作入力部23を用いてユーザAが入力する編集操作に基づき、発話テキストの一文を消去したり、再発話に対応する発話テキストを挿入したり、NGワードを登録したりする処理を制御する。また、編集部36は、表示部22に表示されている、ユーザAの発話に対応する発話テキストに対し、操作入力部23を用いてユーザAが入力する追記操作(具体的には、「?(クエスチョンマーク)」等の記号を追加する操作)に基づき、発話テキストに「?」等の記号を追加する処理を制御する。なお、「?」以外の記号、絵文字、顔文字等を追記できるようにしてもよい。
なお、編集部36は、表示部43に表示されている、ユーザAの発話に対応する発話テキストに対し、操作入力部44を用いてユーザBが入力する編集操作や追記操作にも基づいて、編集処理を行うことができる。換言すれば、表示されている、ユーザAの発話に対応する発話テキストに対しては、ユーザAとユーザBの双方が、編集操作や追記操作を行うことができる。
追記学習部37はユーザAまたはユーザBが入力する追記操作を学習し、学習結果に基づき、ユーザAまたはユーザBからの追記操作が無くても、同様の発話テキストに対して同様の記号等を追記するように編集部36を制御する。
例えば、ユーザAの発話に対応する発話テキスト「薬は飲んだの」に対して「?」の追加を指示する追記操作が学習された場合、発話テキスト「薬は飲んだの」に対し、ユーザAまたはユーザBからの追記操作が無くても「?」を追加して「薬は飲んだの?」と編集するように編集部36を制御する。
表示待ちリスト保持部38は、改行、改頁、またはテキスト量抑制処理のうちの少なくとも一つを含む編集処理済の発話テキスト(文字数によってはテキスト量抑制処理が行われない場合もある)を時系列順、すなわち、ユーザAが発話した順に表示待ちリストに登録する。表示待ちリストに登録された発話テキストは、表示制御部39から読み出された場合、表示待ちリストから消去される。
表示制御部39は、表示待ちリストから時系列順に発話テキストを読み出し、読み出した発話テキストを画面上に表示するための画像信号を生成して表示部22および表示部43に供給する。また、表示制御部39は、表示部22および表示部43に現在表示されている発話テキストの表示量、音声認識部31から供給される、ユーザBの既読を表す特定のキーワードの検出結果、画像認識部32から供給されるユーザBの既読を表す特定の動作の検出結果等に基づき、表示部22および表示部43における発話テキストの表示量を制御する。さらに、表示制御部39は、ユーザBと表示部43との距離に応じて発話テキストを表示する際の文字サイズを設定する。
フィードバック制御部40は、ユーザAの発話速度、ユーザAの発話の長さ、単位時間当たりの音声認識文字量、表示部43に表示されている発話テキストの量、表示待ちリストに登録されている発話テキストの量、ユーザBの既読の有無、ユーザBの読み取り速度等に対応して、発話者であるユーザAに対し、文字表示や音声出力を用いて、発話速度を早く(または遅く)するように通知したり、発話を区切るように通知したり、次の発声を促したりするフィードバックを制御する。また、フィードバック制御部40は、表示部43に表示されている発話テキストの量、表示待ちリストに登録されている発話テキストの量、ユーザBの既読の有無、ユーザBの読み取り速度等に対応して、ユーザBに対し、文字表示等を用いて、発話テキストを読むように促すフィードバックを制御する。
なお、情報処理部30が有する上述した機能ブロックは、全てが同一の筐体に収められている必要はなく、分散して配置されていてもよい。また、これらの機能ブロックの一部または全てがインターネット上のサーバ、いわゆる、クラウドネットワーク上に配置されていてもよい。
<本技術の実施の形態である会話支援装置の第2の構成例>
図4は、本技術の実施の形態である会話支援装置の第2の構成例を示している。該第2の構成例では、会話支援装置10が異なる複数の電子装置から成るシステムとして構成される。この場合、会話支援装置10を構成する複数の電子装置間の接続は、有線接続でもよいし、所定の無線通信(例えば、Bluetooth(登録商標)、Wi-Fi(商標)等)を用いてもよい。
該第2の構成例は、会話支援装置10が、ユーザAが用いるスマートフォン50と、ユーザBが用いるタブレット型PC(以下、タブレットと称する)60から構成される。
図5は、図2に示された会話支援装置10の構成要素を、スマートフォン50とタブレット型PC60とに区分した状態を示している。
すなわち、会話支援装置10の構成要素のうち、集音部21、表示部22、操作入力部23、および情報処理部30は、スマートフォン50によって実現される。この場合、スマートフォン50が備えるマイクロフォン、ディスプレイ、およびタッチパネル等がそれぞれ、集音部21、および操作入力部23に相当する。また、スマートフォン50が実行するアプリケーションプログラムが情報処理部30に相当する。
また、会話支援装置10の構成要素のうち、撮像部41、集音部42、表示部43、および操作入力部44は、タブレット60によって実現される。この場合、タブレット60が備えるカメラ、マイクロフォン、ディスプレイ、およびタッチパネル等がそれぞれ撮像部41、集音部42、表示部43、および操作入力部44に相当する。
ただし、図5の場合、情報処理部30が有する機能ブロックのうちの音声認識部31が、インターネット71を介して接続可能なサーバ72に配置されている。
<本技術の実施の形態である会話支援装置の第3の構成例>
図6は、本技術の実施の形態である会話支援装置の第3の構成例を示している。該第3の構成例は、会話支援装置10が異なる複数の電子装置から成るシステムとして構成される。
すなわち、該第3の構成例は、ユーザAが用いるスマートフォン50と、ベッドに横たわるユーザBが見ることができる位置、例えば、部屋の壁や天井に、発話テキストを表示する映像を投影するプロジェクタ80と、天井などに配置されているカメラ110とから構成される。
図7は、図2に示された会話支援装置10の構成要素を、スマートフォン50と、プロジェクタ80と、カメラ110とに区分した状態を示している。
すなわち、会話支援装置10の構成要素のうち、集音部21、表示部22、操作入力部23、および情報処理部30は、スマートフォン50によって実現される。
また、会話支援装置10の構成要素のうち、撮像部41、および集音部42は、カメラ110によって実現される。この場合、カメラ110が備えるイメージセンサ、およびマイクロフォンがそれぞれ撮像部41、および集音部42に相当する。
会話支援装置10の構成要素のうち、表示部43、および操作入力部44は、プロジェクタ80によって実現される。この場合、プロジェクタ80が備える投影部、およびリモートコントローラがそれぞれ表示部43、および操作入力部44に相当する。
図7の場合も、情報処理部30が有する機能ブロックのうちの音声認識部31が、インターネット71を介して接続可能なサーバ72に配置されている。
<本技術の実施の形態である会話支援装置の第4の構成例>
図8は、本技術の実施の形態である会話支援装置の第4の構成例を示している。該第4の構成例は、会話支援装置10が異なる複数の電子装置から成るシステムとして構成される。
すなわち、該第4の構成例は、ユーザAが用いる首掛けマイク100と、ユーザAおよびユーザBが見ることができる位置に配置されているテレビジョン受像機(以下、TVと称する)90と、TV90に載置されているカメラ110とから構成される。
図9は、図2に示された会話支援装置10の構成要素を、首掛けマイク100と、TV90と、カメラ110とに区分した状態を示している。
すなわち、会話支援装置10の構成要素のうち、集音部21は、首掛けマイク100によって実現される。なお、首掛けマイク100には、集音部21の他、音声を出力するスピーカが設けられていてもよい。
会話支援装置10の構成要素のうち、撮像部41、および集音部42は、カメラ110によって実現される。
会話支援装置10の構成要素のうち、表示部43、および操作入力部44は、TV90によって実現される。この場合、TV90が備えるディスプレイ、およびリモートコントローラがそれぞれ表示部43および操作入力部44に相当する。なお、TV90が備えるディスプレイ、およびリモートコントローラは、ユーザA用の表示部22および操作入力部23を兼ねているものとする。
図9の場合も、情報処理部30が有する機能ブロックのうちの音声認識部31が、インターネット71を介して接続可能なサーバ72に配置されている。
上述した第1乃至第4の構成例のように、会話支援装置10は、1つの電子装置として構成することができるし、複数の電子装置を組み合わせたシステムとして構成することもできる。なお、上述した第1乃至第4の構成例は、適宜組み合わせることが可能である。
また、会話支援装置10をシステムとして構成する電子装置としては、上述した例の他、時計型端末やヘッドマウントディスプレイ等のウェアラブル機器、PC(パーソナルコンピュータ)用のモニタ等を採用することができる。
<会話支援装置10の動作>
次に、会話支援装置10の動作について説明する。
図10は、会話支援装置10による表示待ちリスト生成処理を説明するフローチャートである。この表示待ちリスト生成処理は、会話支援装置10が起動された後、電源がオフとされるまで、繰り返して実行される。
ステップS1において、ユーザAが発話すると、その音声が集音部21によって取得される。集音部21は、ユーザAの音声を発話信号に変換して情報処理部30に供給する。ステップS2において、情報処理部30では音声認識部31が音声認識処理を行うことにより、ユーザAの発話に対応する発話信号を発話テキストに変換する。
ステップS3において、解析部35は、音声認識部31によって生成されたユーザAの発話に対応する発話テキストを解析する。ステップS4において、編集部36は、解析結果に基づき、ユーザAの発話に対応する発話テキストに対し、改行、改頁、またはテキスト量抑制処理のうちの少なくとも一つを含む編集処理を行い、編集処理済の発話テキストを表示待ちリスト保持部38に供給する。
ステップS5において、表示待ちリスト保持部38は、編集部36から供給された編集処理済の発話テキストを時系列順に保持する。この後、処理はステップS1に戻されて、それ以降が繰り返される。
図11は、会話支援装置10による発話テキスト表示処理を説明するフローチャートである。この発話テキスト表示処理は、上述した表示待ちリスト生成処理と並行し、会話支援装置10が起動された後、電源がオフとされるまで、繰り返して実行される。
ステップS11において、表示制御部39は、現在、表示部22および43の画面に発話テキストが表示されているか否かを判定する。表示されていると判定した場合、処理はステップS12に進められる。ステップS12において、表示制御部39は、現在表示されている発話テキストの表示が開始されてから、予め定められている最短表示時間が経過しているか否かを判定し、最短表示時間が経過するまで待機する。最短表示時間が経過した場合、処理はステップS13に進められる。
ステップS13において、表示制御部39は、音声認識部31から供給される、ユーザBの既読を表す特定のキーワードの検出結果、および画像認識部32から供給される、ユーザBの既読を表す特定の動作の検出結果に基づき、表示されている発話テキストに対するユーザBの既読を検知できたか否かを判定する。
図12は、ステップS13におけるユーザBの既読検知の判定の例を示している。
例えば、ユーザBによる発話の音声認識結果から「うん」等の既読を表す特定のキーワードが検出された場合、それが検知できた時点でユーザBが理解したと推定し、ユーザBの既読を検知できたと判定する。
また例えば、ユーザBを撮像した動画像の画像認識結果から、うなずき等の既読を表す特定の動作が検出された場合、それが所定回数(例えば、2回)検知できた時点でユーザBが理解したと推定し、ユーザBの既読を検知できたと判定する。
また例えば、ユーザBを撮像した動画像の画像認識結果から、ユーザBが画面(表示部43)を注視していた後に画面以外の方向を見る状態が検出された場合、それが所定時間継続した時点でユーザBが理解したと推定し、ユーザBの既読を検知できたと判定する。
また例えば、ユーザAによる発話の音声認識結果から、ユーザAが新たに発話したことが検出された場合、それが検知できた時点でユーザAとユーザBの間で会話が進行しており、ユーザBが理解したと推定し、ユーザBの既読を検知できたと判定する。
なお、ユーザBの既読判定は、上述した例に限られるものではない。例えば、既読を表す特定のキーワードや、既読を表す特定の動作については、ユーザが任意に追加できるようにしてもよい。
図12に戻り、ステップS13において、ユーザBの既読を検知できなかった場合、処理はステップS14に進められる。ステップS14において、表示制御部39は、現在表示されている発話テキストの表示が開始されてから、予め定められている最長表示時間が経過しているか否かを判定し、最長表示時間が経過するまで処理をステップS13に戻してステップS13およびS14を繰り返す。そして、ユーザBの既読を検知するか、または、最長表示時間が経過した場合、処理はステップS15に進められる。
ステップS15において、表示制御部39は、表示待ちリストから時系列順に発話テキストを読み出し、読み出した発話テキストを画面上に表示するための画像信号を生成して表示部22および表示部43に供給する。このとき、表示部22および表示部43の画面が既に発話テキストで一杯である場合、画面がスクロールされて、最も先に表示されていた発話テキストが画面上から消え、新たに表示待ちリストから読み出された発話テキストが画面上に表示される。
なお、ステップS11において、現在、表示部22および43の画面に発話テキストが表示されていないと判定された場合、ステップS12乃至S14はスキップされて、処理はステップS15に進められる。
この後、処理はステップS11に戻されて、それ以降が繰り返される。
以上説明したように、表示待ちリスト生成処理と発話テキスト表示処理が平行して実行されることにより、ユーザAの発話が発話テキストとしてユーザBに提示され、ユーザBの既読を待って、順次、発話テキストの表示が進められる。
<改行、改頁、またはテキスト量抑制処理のうちの少なくとも一つを含む編集処理の具体例>
次に、編集部36による改行、改頁、またはテキスト量抑制処理のうちの少なくとも一つを含む編集処理の具体例について説明する。
図13は、例えば、小学生であるユーザAと、その母親であるユーザBとが、会話支援装置10を用いて会話を行う場合の様子である。同図においては、ユーザAが「昨日ね学校に行ったら修学旅行のお金を集めるから10000円持ってきてくれって言われた」と一気に区切ることなく発声しているものとする。
図14は、図13に示された状況における表示部43の表示例を示している。ただし、図14のAは編集処理が反映されていない状態を示し、図14のBは、編集処理のうち、改行、および改頁が反映された状態を示し、図14のCは改行、改頁、およびテキスト量抑制処理の全てが反映されている状態を示している。
図13に示されるように、ユーザAが発声を区切ることなく一気に発生した場合、表示部43には、当初、図14のAに示されるように、編集処理が反映されていない発話テキストが表示される。この状態は、意味や文脈に拘わりなく改行、改頁されるので、読みづらく、また、数値(同図の場合、10000円)が途中で分断されるため、数値を誤って理解されてしまう可能性が有る。
図14のAの表示に対し、ユーザBが第1の操作(例えば、画面をタップする操作)を行うと、編集処理のうちの改行、および改頁が反映されて、図14のBに示されるように、発話テキストの意味や文脈に応じた改行や改頁が行われるので、読み易くなり、数値などの誤理解を抑止できる効果が期待できる。
図14のBの表示に対し、ユーザBが第2の操作(例えば、画面をダブルタップする操作)を行うと、さらに、テキスト量抑制処理が反映されて、図14のCに示されるように、発話テキストのテキスト量が、意味や文脈が損なわれることなく抑制される。よって、上述した効果に加えて、ユーザBの既読に要する時間を短縮できる効果を期待できる。
なお、図14のCの表示に対し、ユーザBが第3の操作(例えば、画面をスワイプする操作)を行うと、表示されている発話テキストが画面から消去されるようにしてもよい。
また、図14のBの表示に対し、ユーザBが第1の操作を行った場合、図14のAの表示に戻るようにしてもよい。同様に、図14のCの表示に対し、ユーザBが第2の操作を行った場合、図14のBの表示に戻るようにしてもよい。
あるいは、図14のAの表示に対し、ユーザBが第1の操作を行うと図14のBの表示となり、さらに、ユーザBが第1の操作を行うと図14のCの表示となり、さらに、ユーザBが第1の操作を行うと、表示されている発話テキストが画面から消去されるようにしてもよい。この後、再びユーザBが第1の操作を行う毎に、図14のC、図14のB、または図14のAの表示に戻るようにしてもよい。
なお、上述した説明では、ユーザBによる操作に対応して、表示されている発話テキストに編集処理を反映するようにしたが、ユーザAによる操作に応じて、表示されている発話テキストに編集処理を反映することも可能である。また、第1の操作、第2の操作、または第3の操作の少なくとも一つが、本技術の一側面における所定の操作として見做されてもよい。
<テキスト量抑制処理を含む編集処理の他の具体例>
次に、テキスト量抑制処理を含む編集処理の他の具体例について説明する。
図15は、ユーザAとユーザBが会話支援装置10を用いて会話を行う場合の様子である。ただし、ユーザBの図示は省略されている。同図の場合、ユーザAが「おはようございます」、「明日は10時に品川駅に集合ね」等と比較的短い文を区切って発声しているものとする。
図16は、図15に示されたユーザAの発話に対応する発話テキストの表示部43における表示例を示している。ユーザAに発話が比較的短い文を区切って発声している場合、それに対応する発話テキストも、同図に示されるように、短分毎に区切って表示される。なお、同図の場合、「おはようございます」以外の発話テキストは、名詞や動詞を残して助詞等を消去するテキスト量抑制処理が反映された状態が表示されている。すなわち、本具体例のテキスト量抑制処理において、発話テキストの意味や文脈の理解のための重要性が低い品詞が適宜省略される。なお、省略する文言は品詞に限られず、ユーザによって適宜設定されてもよい。
なお、消去しても発話テキストの意味や文脈が損なわれない助詞等を消去する代わりに、助詞等を、発話テキストの意味や文脈に関わる名詞や動詞等よりも目立たないように表示してもよい。換言すれば、名詞や動詞等が助詞等よりも目立つように発話テキストを表示するようにしてもよい。
図17は、助詞等の文字サイズを、発話テキストの意味や文脈に関わる名詞や動詞等よりも小さくして、名詞や動詞等を目立たせるようにした表示例を示している。
また図示は省略するが、助詞等の文字の色を薄く、名詞や動詞等の文字の色を濃く表示するようにしたり、助詞等の文字の輝度を低く、名詞や動詞等の文字の輝度を高く表示するようにしたり、助詞等の文字の線を細く、名詞や動詞等の文字の線を太く表示するようにしたりしてもよい。
上述したように、発話テキストの意味に影響を及ぼさない助詞等を目立たせず、発話テキストの意味に影響を及ぼす名詞や動詞等を目立つように表示すれば、ユーザBは、目立たない助詞等を読まず、目立つ名詞や動詞等を読むことになる。よって、発話テキストが有する意味を損なうことなく、ユーザBが既読するまでに要する時間を短縮することができる。
<編集部36による編集処理の具体例>
次に、画面上に表示された発話テキストに対するユーザによるボタン操作に対応した編集処理について説明する。
図18は、ユーザA用の表示部22に表示される各発話テキストに対応して消去ボタン111を設けた場合の表示例を示している。なお、図18に示される各発話テキストは、図15に示されたユーザAに発話に対応するものである。
例えば、ユーザAが自身の発話の音声認識結果である発話テキストに誤認識を発見した場合、消去ボタン111を操作することにより、当該発話テキストを消去させることができる。
図18の表示例の場合、本来であれば「品川」に認識されるべき単語が「自奈川」に誤認識されているので、この誤認識を発見したユーザAが消去ボタン111を操作すると、「自奈川」を含む発話テキストが消去される。そして、「自奈川」を含む発話テキストが消去されたことが誤認識学習部33に学習される(誤認識リスト34に登録される)。
すなわち、ユーザAは、消去ボタン111を操作することにより、誤認識された発話テキストや言い間違えた発話に対応する発話テキストを消去することができる。
なお、ユーザB用の表示部43にも消去ボタン111を設けることができる。その場合、ユーザBは、消去ボタン111を操作することにより、例えば、読み終わった発話テキストを消去することができる。
ユーザBによる消去ボタン111の操作によって発話テキストを消去した場合、その旨をユーザA側に通知するようにする。これにより、ユーザAは、消去された発話テキストに対するユーザBの既読を確認することができる。反対に、ユーザAによる消去ボタン111の操作によって発話テキストを消去した場合、その旨をユーザB側に通知するようにしてもよい。この通知の方法は、画面表示を用いてもよいし、音声出力を用いてもよい。
図19は、ユーザA用の表示部22に表示される各発話テキストに対応して再発話ボタン112を設けた場合の表示例を示している。なお、図19に示される各発話テキストは、図15に示されたユーザAに発話に対応するものである。
例えば、ユーザAが自身の発話の音声認識結果である発話テキストに誤認識を発見した場合、再発話ボタン112を操作することにより、当該発話テキストを言い直す(再度発話する)ことができる。
図19の表示例の場合、本来であれば「品川」に認識されるべき単語が「自奈川」に誤認識されているので、この誤認識を発見したユーザAが再発話ボタン112を操作し、改めて「明日は10時に品川に集合ね」等と発声すると、現在表示されている「明日は10時に自奈川に集合ね」が、再発話の音声認識結果である発話テキスト(正しく認識された場合「明日は10時に品川に集合ね」)によって置換される。また、「自奈川」を含む発話テキストが置換されたことが誤認識学習部33に学習される(誤認識リスト34に登録される)。
すなわち、ユーザAは、再発話ボタン112を操作することにより、誤認識された発話テキストや言い間違えた発話に対応する発話テキストの表示を、その位置に再発話に対応する発話テキストによって置換させることができる。
なお、発話テキスト全体(いまの場合、「明日は・・・集合ね」)を再発話するのではなく、単語(例えば、自奈川)を選択し、その単語だけを再発話できるようにしてもよい。
また、ユーザB用の表示部43にも再発話ボタン112を設けることができる。その場合、ユーザBが再発話ボタン112を操作したことに対応して、ユーザA側に再発話を促すように通知するようにする。この通知の方法は、画面表示を用いてもよいし、音声出力を用いてもよい。
図20は、ユーザA用の表示部22に表示される各発話テキストに対応してNGワード登録ボタン113を設けた場合の表示例を示している。なお、図20に示される各発話テキストは、図15に示されたユーザAに発話に対応するものである。
例えば、ユーザAが自身の発話の音声認識結果である発話テキストに誤認識を発見し、その誤認識結果を再度出現させたくない場合、NGワード登録ボタン113を操作することにより、NGワードとして登録することができる。
図20の表示例の場合、ユーザAの何らかの発話が「エロ漫画」と誤認識されて表示されており、この単語を2度と表示させたくないと思ったユーザAがNGワード登録ボタン113を操作すると、表示されている発話テキスト「エロ漫画」が消去され、「エロ漫画」がNGワードとして誤認識学習部33に登録される(誤認識リスト34に登録される)。
すなわち、ユーザAは、NGワード登録ボタン113を操作することにより、誤認識され、再表示させたくない単語をNGワードとして登録することができる。
なお、ユーザB用の表示部43にもNGワード登録ボタン113を設けることができる。その場合、ユーザBもNGワード登録ボタン113を操作することにより、再表示させたくない単語をNGワードとして登録することができる。
図21は、ユーザA用の表示部22に表示される各発話テキストに対応して追記ボタン114を設けた場合の表示例を示している。なお、図21に示される各発話テキストは、図15に示されたユーザAに発話に対応するものである。
例えば、ユーザAが自身の質問等の発話の音声認識結果である発話テキストに対して「?」を追記した方がユーザBの理解が高まると考えた場合、追記ボタン114を操作することにより、当該発話テキストに「?」を追記することができる。
図21の表示例は、既に追記ボタン114が操作された結果を示しており、ユーザAの発話に対応する発話テキスト「今日のお昼はもう薬飲んだ」に対して「?」が追記されている。この場合、「今日のお昼はもう薬飲んだ」に対して「?」が追記されたことが、追記学習部37に登録される。
すなわち、ユーザAは、追記ボタン114を操作することにより、発話テキストに対して「?」を追記することができる。
また、ユーザB用の表示部43にも追記ボタン114を設けることができる。その場合、ユーザBは、表示されている発話テキストの意味が分からなかったり、より詳細な内容を知りたかったりした場合などにおいて、表示されている発話テキストに含まれる単語等を選択した後、追記ボタン114を操作することにより、ユーザA側に単語等の意味を問い合わせることができる。
なお、「?」以外の記号や絵文字、顔文字などを追記できるように、追記ボタン114が操作された場合、追記する記号等をユーザに選択させるようにしてもよい。
上述した説明では、消去ボタン111、再発話ボタン112、NGワード登録ボタン113、および追記ボタン114を、それぞれ個別に表示するようにしているが、これらが同時に表示されるようにしてもよい。
また、各ボタンを表示する代わりに、消去指示、再発話指示、NGワード登録、および追記指示に対して、所定のタッチ操作(例えば、操作入力部23がタッチパネルである場合、タップ操作、ダブルタップ操作、ロングタップ操作、フリック操作等)を割り当てるようにしてもよい。さらに、各ボタンを表示する代わりに、消去指示、再発話指示、NGワード登録、および追記指示に対して、ユーザAまたはユーザBが行う三次元的なジェスチャ操作を割り当てるようにしてもよい。ここで、タッチ操作は二次元的なジェスチャ操作として見做されてもよい。また、三次元的なジェスチャ操作は、加速度センサやジャイロセンサが有するコントローラを利用して行われてもよく、ユーザの動作に関する画像認識結果を利用して行われてもよい。本明細書中において、これらのタッチ操作および三次元的なジェスチャ操作を、単に“ジェスチャ操作”という場合がある。
なお、ウェアラブル機器、特にヘッドマウントディスプレイが用いられる場合、ジェスチャ操作としてユーザBのうなずく動作や首を振る動作などがジェスチャ操作として割り当てられ得る。ウェアラブル機器に視線検出の機能が採用される場合、表示された発話テキストに対するユーザBの視線の移動に応じた身体的動作をジェスチャ操作として学習してもよい。このような構成によれば、ジェスチャ操作に応じた既読判定の精度を高めることが可能になる。
またさらに、各ボタンを表示する代わりに、消去指示、再発話指示、NGワード登録、および追記指示に対して、ユーザAまたはユーザBが発声する所定のマジックワードを割り当てるようにしてもよい。
さらに、ユーザAが発話の直後に、消去指示に割り当てられている所定のジェスチャを行うか、または所定のマジックワードを発声した場合、その発話に対応する発話テキストの表示を中止できるようにしてもよい。
ここで、発話テキストの表示の中止は、解析途中のテキストの表示の中止、すなわち、未表示のテキストの表示処理の中止を含み得る。また、発話テキストの表示を中止する場合、テキスト情報の解析により、消去指示が行われる直前の一文をまとめて消去してもよい。これにより、ユーザAが意図せず音声入力を行ってしまったテキスト情報(独り言やフィラー後など)をキャンセルすることが可能になる。また、発話の前に、ユーザAが音声入力を行わないことを示す所定のジェスチャ、または所定のマジックワードを発声した場合、情報処理部30は、当該所定のジェスチャ、または所定のマジックワードの直後に入力される音声入力の表示を禁止してもよい。これにより、ユーザAは、発話を伝えない状態を任意に選択することができるため、意図しない発話の表示を抑制することができる。
<会話支援装置10の応用例>
次に、会話支援装置10の応用例について説明する。
図22は、会話支援装置10を3人以上で使用できるようにした場合の使用状況の一例を示している。同図の場合、聴力に不安を持たないユーザA1,A2,A3と、聴力に不安を持つユーザBとの間の会話を支援するために会話支援装置10が使用されている。
ユーザA1乃至A3は、それぞれユーザA用のスマートフォン50を有しており、所定の距離範囲に存在するスマートフォン50がグループ化されて、それぞれが集音した発声に対応する発話テキストが、ユーザB用の表示部43に一括して表示される。
なお、所定の距離範囲に存在するスマートフォン50を検知する方法としては、例えば、各スマートフォン50が相互に所定の音波を出力し、自己以外が出力した該音波を集音、解析することで実現できる。また、例えば、天井に設置しているカメラ110によって得られる画像からスマートフォン50を検知し、各スマートフォン50の位置を特定するようにしてもよい。
ユーザB用の表示部43には、ユーザA1乃至A3の発話に対応する発話テキストが時系列順に表示されるが、表示されている発話テキストが、ユーザA1乃至A3の誰から発声されたものであるのかをユーザBが判別できるように、各発話テキストに対応付けて発話者を表す発話者マーク121を表示するようにする。
図23は、表示されている発話テキストが、ユーザA1乃至A3の誰から発声されたものであるのかを表す他の方法として、ユーザBが表示部43を見た状態において、発話者がどの方向に居るのかを表す発話方向指示マーク131を画面上に表示している。
図23の場合、ユーザBが表示部43を見た状態において右側に居るユーザA3の発話に対応する発話テキストが画面上に表示されているので、表示部43の画面の右側に発話方向指示マーク131が表示される。
なお、ユーザBが表示部43を見た状態におけるユーザA1,A2,A3の相対的な方向は、例えば、天井に設置しているカメラ110によって得られる画像から検知することができる。
図24は、テーブルをはさんで向かい合うユーザAとユーザBが会話支援装置10を使用している状況である。この場合、プロジェクタ80により、ユーザA用の表示部22の画面とユーザB用の表示部43の画面を一括して当該テーブルに投影するようにしてもよい。このとき、ユーザA用の表示部22の画面はユーザAが読み易い向きに、ユーザB用の表示部43の画面はユーザBが読み易い向きに表示するようにする。
<発話者であるユーザAに対するフィードバック>
図25は、会話支援装置10を使用しているユーザのうち、発話者であるユーザAに対するフィードバックの一例を示している。
例えば、表示部43における発話テキストの表示が一杯になった場合、フィードバック制御部40に制御により、発話者であるユーザAに対して、例えば「Slow down」、「画面が一杯になりました」、「ゆっくり話してください」、「待ってください」、「一度区切ってください」、「未読があります」等の発話速度を緩めるように通知するフィードバックが、スマートフォン50等を用いた文字表示や音声出力によって行われる。
なお、ユーザAの発話速度や発話の区切りの長短に応じたインジケータを画面に表示したり、アラーム音等を出力したりするようにしてもよい。
そして、ユーザAが、音声認識や画面表示に対して最適な速度や区切りで発話している場合には、ユーザAに対してポイントを付与し、付与されたポイントに応じてユーザAが何らかのサービス特典やランキングを得られるようにしてもよい。
<他の応用例>
本実施の形態においては、会話支援装置10を、聴力に不安を持たないユーザAと、聴力に不安を持つユーザBとの間の会話を支援する用途で用いるようにしたが、本技術は、例えば、使用する言語が異なる人どうしの会話を支援する用途に応用することができる。その場合、音声認識処理の後、翻訳処理を行うようにすればよい。
また、会話支援装置10により、ユーザAが発話するときの口元を動画像として撮像しておき、発話テキストを表示するとともに、ユーザAの口元の動画像を表示するようにしてもよい。この場合、発話テキストの表示と、ユーザAの口元の動画像の動きを同期させて表示するようにしてもよい。このようにした場合、会話支援装置10を、例えば、読唇術の学習の用いることができる。
また、会話支援装置10により、ユーザAの発話を録音するとともに、その音声認識結果である発話テキストを対応付けて保存するようにし、この保存結果を後程改めて再生、表示できるようにしてもよい。
さらに、会話支援装置10に対して、ユーザAによるリアルタイムの発話を入力するだけでなく、録音されている音声を入力できるようにしてもよい。
<情報処理部30の他の構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。上記した第2の構成例におけるスマートフォン50は、該コンピュータに相当する。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
このコンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205およびバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
本技術は以下のような構成も取ることができる。
(1)
音声入力装置に入力された第1のユーザの音声情報を取得する音声取得部と、
第2のユーザのための表示装置における、取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御部と
を備え、
前記表示制御部は、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行う
情報処理装置。
(2)
前記表示制御部は、前記テキスト情報の表示量が所定の量以上となった場合、前記テキスト情報の表示量を抑制する
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記テキスト情報に含まれる所定の品詞の表示量を抑制することによって、前記テキスト情報の表示量を抑制する
前記(1)または(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記第1のユーザまたは前記第2のユーザによる所定の操作に基づいて、前記テキスト情報の表示量を抑制する
前記(1)から(3)のいずれかに記載の情報処理装置。
(5)
前記所定の操作は、前記第1のユーザまたは前記第2のユーザによる第1の操作を含み、
前記表示制御部は、前記テキスト情報の表示量を抑制した後、前記第1の操作に基づいて、前記テキスト情報の表示を消去させる
前記(4)に記載の情報処理装置。
(6)
前記所定の操作は、前記第1のユーザまたは前記第2のユーザによる第2の操作を含み、
前記表示制御部は、前記テキスト情報の表示を消去させた後、前記第2の操作に基づいて、前記表示装置において消去させた前記テキスト情報を再び表示させる
前記(5)に記載の情報処理装置。
(7)
前記表示制御部は、前記テキスト情報の解析結果に従い、前記テキスト情報の表示の改行または改頁の少なくとも一方を制御する
前記(1)から(6)のいずれかに記載の情報処理装置。
(8)
前記第1のユーザまたは前記第2のユーザの一方が前記テキスト情報に関する操作を行った場合、前記テキスト情報に関する操作が行われたことを示す情報を、前記第1のユーザまたは前記第2のユーザの他方に対して通知する通知部をさらに備える
前記(1)から(7)のいずれかに記載の情報処理装置。
(9)
前記通知部は、前記第1のユーザまたは前記第2のユーザの一方が、前記テキスト情報の表示量を抑制させる操作を行った場合、前記第1のユーザまたは前記第2のユーザの他方に、前記テキスト情報の表示量が抑制されたことを通知する
前記(8)に記載の情報処理装置。
(10)
前記通知部は、前記第1のユーザまたは前記第2のユーザの一方が、前記テキスト情報の表示を消去する操作を行った場合、前記第1のユーザまたは前記第2のユーザの他方に、前記テキスト情報の表示が消去されたことを通知する
前記(8)または(9)に記載の情報処理装置。
(11)
前記通知部は、前記第2のユーザが、前記表示装置に表示された前記テキスト情報の再発話を要求する操作を行った場合、前記第1のユーザに再発話を促す通知を行う
前記(8)から(10)のいずれかに記載の情報処理装置。
(12)
前記通知部は、前記第2のユーザが、前記表示装置に表示された前記テキスト情報に関する問い合わせを要求するための操作を行った場合、前記第1のユーザに前記テキスト情報に関する問い合わせがあったことを通知する
前記(8)から(11)のいずれかに記載の情報処理装置。
(13)
前記表示制御部は、前記第2のユーザの発声または動作の少なくとも一方に基づく前記第2のユーザの既読検知の結果に基づいて、前記表示装置における前記テキスト情報の表示量を抑制する
前記(1)から(12)のいずれかに記載の情報処理装置。
(14)
前記表示制御部は、前記第1のユーザの発声または動作の少なくとも一方に基づき、前記表示装置における前記テキスト情報の表示を中止する
前記(1)から(13)のいずれかに記載の情報処理装置。
(15)
前記表示装置における前記テキスト情報の表示量または前記音声情報の入力量の少なくとも一方に基づき、前記第1のユーザまたは前記第2のユーザの少なくとも一方に対するフィードバック情報の通知を制御するフィードバック制御部をさらに備える
前記(1)から(14)のいずれかに記載の情報処理装置。
(16)
フィードバック情報は、前記第1のユーザに対して、発話速度、または発話区切りの少なくとも一方を変更するように促す情報である
前記(15)に記載の情報処理装置。
(17)
フィードバック情報は、前記第2のユーザに対して、前記表示装置に表示された前記テキスト情報の読み取りを促す情報である
前記(15)または(16)に記載の情報処理装置。
(18)
前記第1のユーザの前記音声情報を前記テキスト情報に変換する音声認識部をさらに備え、
前記音声認識部は、前記情報処理装置の内部、または、インターネットを介して接続するサーバ上に設けられている
前記(1)から(17)のいずれかに記載の情報処理装置。
(19)
情報処理装置の情報処理方法において、
前記情報処理装置による、
音声入力装置に入力された第1のユーザの音声情報を取得する音声取得ステップと、
第2のユーザのための表示装置における、取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御ステップと
を含み、
前記表示制御ステップは、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行う
情報処理方法。
(20)
第1のユーザの音声情報を取得する音声入力装置と、
取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御装置と、
前記表示制御装置からの制御に従い、前記テキスト情報を第2のユーザのために表示する表示装置と
を備え、
前記表示制御装置は、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行う
情報処理システム。
10 会話支援装置, 21 集音部, 22 表示部, 23 操作入力部, 30 情報処理部, 31 音声認識部, 32 画像認識部, 33 誤認識学習部, 34 誤認識リスト, 35 解析部, 36 編集部, 37 追記学習部, 38 表示待ちリスト保持部, 39 表示制御部, 40 フィードバック制御部, 41 撮像部, 42 集音部, 43 表示部, 44 操作入力部, 50 スマートフォン, 60 タブレット型PC, 80 プロジェクタ, 90 TV, 100 首掛けマイク, 110 カメラ, 111 消去ボタン, 112 再発話ボタン, 113 NGワード登録ボタン, 114 追記ボタン, 200 コンピュータ, 201 CPU

Claims (17)

  1. 音声入力装置に入力された第1のユーザの音声情報を取得する音声取得部と、
    第2のユーザのための表示装置における、取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御部と
    を備え、
    前記表示制御部は、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行い、
    前記テキスト情報の表示量が所定の量以上となった場合、前記第1のユーザまたは前記第2のユーザによる所定の操作に基づいて、前記テキスト情報の表示量を抑制し、前記テキスト情報の表示量を抑制した後、前記第1のユーザまたは前記第2のユーザによる第1の操作に基づいて、前記テキスト情報の表示を消去させる
    情報処理装置。
  2. 前記表示制御部は、前記テキスト情報に含まれる所定の品詞の表示量を抑制することによって、前記テキスト情報の表示量を抑制する
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記テキスト情報の表示を消去させた後、前記第1のユーザまたは前記第2のユーザによる第2の操作に基づいて、前記表示装置において消去させた前記テキスト情報を再び表示させる
    請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記テキスト情報の解析結果に従い、前記テキスト情報の表示の改行または改頁の少なくとも一方を制御する
    請求項1に記載の情報処理装置。
  5. 前記第1のユーザまたは前記第2のユーザの一方が前記テキスト情報に関する操作を行った場合、前記テキスト情報に関する操作が行われたことを示す情報を、前記第1のユーザまたは前記第2のユーザの他方に対して通知する通知部をさらに備える
    請求項1に記載の情報処理装置。
  6. 前記通知部は、前記第1のユーザまたは前記第2のユーザの一方が、前記テキスト情報の表示量を抑制させる操作を行った場合、前記第1のユーザまたは前記第2のユーザの他方に、前記テキスト情報の表示量が抑制されたことを通知する
    請求項5に記載の情報処理装置。
  7. 前記通知部は、前記第1のユーザまたは前記第2のユーザの一方が、前記テキスト情報の表示を消去する操作を行った場合、前記第1のユーザまたは前記第2のユーザの他方に、前記テキスト情報の表示が消去されたことを通知する
    請求項5に記載の情報処理装置。
  8. 前記通知部は、前記第2のユーザが、前記表示装置に表示された前記テキスト情報の再発話を要求する操作を行った場合、前記第1のユーザに前記再発話を促す通知を行う
    請求項5に記載の情報処理装置。
  9. 前記通知部は、前記第2のユーザが、前記表示装置に表示された前記テキスト情報に関する問い合わせを要求するための操作を行った場合、前記第1のユーザに前記テキスト情報に関する前記問い合わせがあったことを通知する
    請求項5に記載の情報処理装置。
  10. 前記表示制御部は、前記第2のユーザの発声または動作の少なくとも一方に基づく前記第2のユーザの既読検知の結果に基づいて、前記表示装置における前記テキスト情報の表示量を抑制する
    請求項1に記載の情報処理装置。
  11. 前記表示制御部は、前記第1のユーザの発声または動作の少なくとも一方に基づき、前記表示装置における前記テキスト情報の表示を中止する
    請求項1に記載の情報処理装置。
  12. 前記表示装置における前記テキスト情報の表示量または前記音声情報の入力量の少なくとも一方に基づき、前記第1のユーザまたは前記第2のユーザの少なくとも一方に対するフィードバック情報の通知を制御するフィードバック制御部をさらに備える
    請求項1に記載の情報処理装置。
  13. フィードバック情報は、前記第1のユーザに対して、発話速度、または発話区切りの少なくとも一方を変更するように促す情報である
    請求項12に記載の情報処理装置。
  14. フィードバック情報は、前記第2のユーザに対して、前記表示装置に表示された前記テキスト情報の読み取りを促す情報である
    請求項12に記載の情報処理装置。
  15. 前記第1のユーザの前記音声情報を前記テキスト情報に変換する音声認識部をさらに備え、
    前記音声認識部は、前記情報処理装置の内部、または、インターネットを介して接続するサーバ上に設けられている
    請求項1に記載の情報処理装置。
  16. 情報処理装置の情報処理方法において、
    前記情報処理装置による、
    音声入力装置に入力された第1のユーザの音声情報を取得する音声取得ステップと、
    第2のユーザのための表示装置における、取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御ステップと
    を含み、
    前記表示制御ステップは、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行い、
    前記テキスト情報の表示量が所定の量以上となった場合、前記第1のユーザまたは前記第2のユーザによる所定の操作に基づいて、前記テキスト情報の表示量を抑制し、前記テキスト情報の表示量を抑制した後、前記第1のユーザまたは前記第2のユーザによる第1の操作に基づいて、前記テキスト情報の表示を消去させる
    情報処理方法。
  17. 第1のユーザの音声情報を取得する音声入力装置と、
    取得された前記音声情報に対応するテキスト情報の表示を制御する表示制御装置と、
    前記表示制御装置からの制御に従い、前記テキスト情報を第2のユーザのために表示する表示装置と
    を備え、
    前記表示制御装置は、前記表示装置における前記テキスト情報の表示量、または前記音声入力装置から入力された前記音声情報の入力量の少なくとも一方に基づいて、前記テキスト情報の表示量に関する制御を行い、
    前記テキスト情報の表示量が所定の量以上となった場合、前記第1のユーザまたは前記第2のユーザによる所定の操作に基づいて、前記テキスト情報の表示量を抑制し、前記テキスト情報の表示量を抑制した後、前記第1のユーザまたは前記第2のユーザによる第1の操作に基づいて、前記テキスト情報の表示を消去させる
    情報処理システム。
JP2018554906A 2016-12-05 2017-11-21 情報処理装置、情報処理方法、および情報処理システム Active JP6950708B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662430000P 2016-12-05 2016-12-05
US62/430,000 2016-12-05
JP2017074369 2017-04-04
JP2017074369 2017-04-04
PCT/JP2017/041758 WO2018105373A1 (ja) 2016-12-05 2017-11-21 情報処理装置、情報処理方法、および情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2018105373A1 JPWO2018105373A1 (ja) 2019-10-24
JP6950708B2 true JP6950708B2 (ja) 2021-10-13

Family

ID=67481763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554906A Active JP6950708B2 (ja) 2016-12-05 2017-11-21 情報処理装置、情報処理方法、および情報処理システム

Country Status (4)

Country Link
US (1) US11189289B2 (ja)
JP (1) JP6950708B2 (ja)
KR (1) KR20190091265A (ja)
DE (1) DE112017006145T5 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10756788B1 (en) 2017-09-22 2020-08-25 Apple Inc. Relay dock and base station with position information based directional wave forming
USD1012095S1 (en) * 2020-10-26 2024-01-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09127459A (ja) * 1995-11-02 1997-05-16 Canon Inc 視線検出系を有した表示装置
US6172685B1 (en) 1997-11-24 2001-01-09 Intel Corporation Method and apparatus for increasing the amount and utility of displayed information
JP4128916B2 (ja) * 2003-08-15 2008-07-30 株式会社東芝 字幕制御装置および方法ならびにプログラム
US8954844B2 (en) * 2004-01-13 2015-02-10 Nuance Communications, Inc. Differential dynamic content delivery with text display in dependence upon sound level
US7567908B2 (en) * 2004-01-13 2009-07-28 International Business Machines Corporation Differential dynamic content delivery with text display in dependence upon simultaneous speech
JP4757599B2 (ja) * 2005-10-13 2011-08-24 日本電気株式会社 音声認識システムと音声認識方法およびプログラム
JP4704993B2 (ja) 2006-10-06 2011-06-22 シャープ株式会社 メッセージ情報交換装置及びその動作方法
US9013399B2 (en) * 2010-02-18 2015-04-21 Nikon Corporation Information processing device, portable device and information processing system
US8797380B2 (en) * 2010-04-30 2014-08-05 Microsoft Corporation Accelerated instant replay for co-present and distributed meetings
US8886169B2 (en) * 2011-10-25 2014-11-11 At&T Intellectual Property I, Lp Apparatus and method for providing enhanced telephonic communications
KR101977072B1 (ko) 2012-05-07 2019-05-10 엘지전자 주식회사 음성 파일과 관련된 텍스트의 표시 방법 및 이를 구현한 전자기기
CN109495613B (zh) 2012-10-17 2022-01-14 索尼公司 信息处理装置、信息处理方法和计算机可读记录介质
KR102023008B1 (ko) * 2012-12-10 2019-09-19 엘지전자 주식회사 음성-텍스트 변환 디스플레이 장치 및 그 방법
JP5715172B2 (ja) 2013-02-27 2015-05-07 ヤフー株式会社 文書表示装置、文書表示方法及び文書表示プログラム
KR101952179B1 (ko) * 2013-03-05 2019-05-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP6178198B2 (ja) 2013-09-30 2017-08-09 株式会社東芝 音声翻訳システム、方法およびプログラム
WO2016103415A1 (ja) 2014-12-25 2016-06-30 日立マクセル株式会社 ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法
KR102308645B1 (ko) * 2014-12-29 2021-10-05 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
JPWO2017130486A1 (ja) * 2016-01-28 2018-11-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10522053B2 (en) * 2016-03-30 2019-12-31 Intel Corporation Speech clarity systems and techniques
EP3454332A4 (en) * 2016-05-02 2019-05-01 Sony Corporation CONTROL DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM
US10915234B2 (en) * 2016-06-01 2021-02-09 Motorola Mobility Llc Responsive, visual presentation of informational briefs on user requested topics
US11019162B2 (en) * 2016-11-16 2021-05-25 Dell Products L.P. System and method for provisioning a user interface for sharing
US10346014B2 (en) * 2016-11-16 2019-07-09 Dell Products L.P. System and method for provisioning a user interface for scaling and tracking
JP6318292B1 (ja) * 2017-06-16 2018-04-25 株式会社シアンス・アール 信号処理装置、通信システム、信号処理装置で実施される方法、信号処理装置で実行されるプログラム、通信端末で実施される方法、及び通信端末で実行されるプログラム
US10474417B2 (en) * 2017-07-20 2019-11-12 Apple Inc. Electronic device with sensors and display devices
JP2019057047A (ja) * 2017-09-20 2019-04-11 株式会社東芝 表示制御システム、表示制御方法及びプログラム
GB201715753D0 (en) * 2017-09-28 2017-11-15 Royal Nat Theatre Caption delivery system
US11989976B2 (en) * 2018-02-16 2024-05-21 Nippon Telegraph And Telephone Corporation Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs
JP7205697B2 (ja) * 2019-02-21 2023-01-17 株式会社リコー 通信端末、共用システム、表示制御方法およびプログラム
US11211073B2 (en) * 2019-04-22 2021-12-28 Sony Corporation Display control of different verbatim text of vocal deliverance of performer-of-interest in a live event
US11211074B2 (en) * 2019-06-06 2021-12-28 Sony Corporation Presentation of audio and visual content at live events based on user accessibility

Also Published As

Publication number Publication date
KR20190091265A (ko) 2019-08-05
DE112017006145T5 (de) 2019-08-22
JPWO2018105373A1 (ja) 2019-10-24
US11189289B2 (en) 2021-11-30
US20200075015A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
KR101726945B1 (ko) 수동 시작/종료 포인팅 및 트리거 구문들에 대한 필요성의 저감
US11462213B2 (en) Information processing apparatus, information processing method, and program
JP7203865B2 (ja) ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話
JP2023103313A (ja) 検出されたジェスチャおよび凝視に基づく自動化アシスタントの機能の呼び出し
US20120260176A1 (en) Gesture-activated input using audio recognition
US20160077794A1 (en) Dynamic thresholds for always listening speech trigger
KR20210008521A (ko) 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트-특정 핫 워드
US10741172B2 (en) Conference system, conference system control method, and program
JP2023015054A (ja) 自動化アシスタントを呼び出すための動的および/またはコンテキスト固有のホットワード
WO2019107145A1 (ja) 情報処理装置、及び情報処理方法
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
WO2016152200A1 (ja) 情報処理システムおよび情報処理方法
WO2019026617A1 (ja) 情報処理装置、及び情報処理方法
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP2023017791A (ja) アシスタントデバイスのディスプレイにレンダリングするコンテンツの選択
JP6973380B2 (ja) 情報処理装置、および情報処理方法
CN110543290B (zh) 多模态响应
US11756545B2 (en) Method and device for controlling operation mode of terminal device, and medium
US11430429B2 (en) Information processing apparatus and information processing method
US11935449B2 (en) Information processing apparatus and information processing method
JP5613102B2 (ja) 会議装置、会議方法および会議プログラム
US9122312B2 (en) System and method for interacting with a computing device
JP2019179081A (ja) 会議支援装置、会議支援制御方法およびプログラム
JP2024044920A (ja) 情報処理装置、情報処理システム、プログラム、及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R151 Written notification of patent or utility model registration

Ref document number: 6950708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151