JP2007232829A - 音声対話装置とその方法及びプログラム - Google Patents

音声対話装置とその方法及びプログラム Download PDF

Info

Publication number
JP2007232829A
JP2007232829A JP2006051771A JP2006051771A JP2007232829A JP 2007232829 A JP2007232829 A JP 2007232829A JP 2006051771 A JP2006051771 A JP 2006051771A JP 2006051771 A JP2006051771 A JP 2006051771A JP 2007232829 A JP2007232829 A JP 2007232829A
Authority
JP
Japan
Prior art keywords
voice
keywords
scenario
keyword
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006051771A
Other languages
English (en)
Inventor
Yasutaka Shinto
安孝 新堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP2006051771A priority Critical patent/JP2007232829A/ja
Priority to US11/527,503 priority patent/US20070203709A1/en
Publication of JP2007232829A publication Critical patent/JP2007232829A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

【課題】 音声対話装置が多数のキーワードを提示すると、人は個々のキーワードを聞き逃し易いし、また最適キーワードを選択するのが難しい。
【解決手段】 対話装置からキーワードを一旦列挙し、ポーズの後再度キーワードを提示して、選択を求める。有効な選択が有れば、選択肢に従ってシナリオを進め、選択がなければ再度キーワードを提示する。またどのキーワードも否定された場合、シナリオの他の場面へ分岐する。
【選択図】 図4

Description

この発明は情報処理装置と人との音声による対話に関し、特にガイダンスなどのために装置側で予め記憶しているシナリオでの質問に人が答え易くすることに関する。
音声対話装置が、人に多数のキーワードを列挙して選択を求める場面がある。このような場面で単純にキーワードを列挙されると、人は個々のキーワードを聞き逃し易い。そこでキーワード毎にポーズを入れると人に理解し易くなるが、各々のポーズ長の設定をどのようにするかなどで、シナリオの作成は複雑になる。
特開平11−288292号公報
この発明の課題は、多数のキーワードを音声で人に提示する際に、聞き取り易くかつ最適な選択をし易くすることにある。
請求項2の発明での追加の課題は、キーワードを繰り返すことにより対話が平板になり、その結果冗長に感じられないように、しかも人が回答し易くすることにある。
請求項3,5の発明での追加の課題は、第2回目の列挙が終わるのを待たずに、人が回答できるようにすることにある。
この発明は、人が音声入力するためのマイクロフォンと、マイクロフォンへの入力音声を音声認識するための音声認識装置と、スピーカを備えた音声出力装置と、シナリオの記憶部と、前記音声認識装置と音声出力装置とをシナリオに沿って制御する処理システム、とを備えた音声対話装置において、複数のキーワードを列挙するようにスピーカから音声出力する際に、該複数のキーワードを最初に列挙した後に、音声出力をポーズし、次いで前記複数のキーワードを再度列挙して、人の入力音声を受け付けるように、前記記憶部に記憶するシナリオを構成することを特徴とする。
好ましくは、再度の列挙では、最初に列挙したキーワードを、同順で、かつ少なくとも一部のキーワードを同義語に変換して音声出力するように、前記シナリオを構成する。
また好ましくは、列挙されたキーワードに対する人からの入力音声を、遅くとも前記再度の列挙から処理するように、前記音声認識装置を構成する。
この発明は、マイクロフォンで人の入力音声を受け付けて音声認識装置で音声認識し、予め記憶したシナリオに沿って、処理システムで音声認識装置と音声出力装置とを制御する音声対話方法において、スピーカから複数のキーワードを列挙し、次いで音声出力をポーズし、さらに前記複数のキーワードを再度列挙して、人の入力音声を音声認識装置で認識する、ことを特徴とする。
人の入力音声の認識は例えば2回目の列挙から開始し、好ましくは1回目の列挙中、または列挙後のポーズから開始する。
この発明は、マイクロフォンで人の入力音声を受け付けて音声認識装置で音声認識し、予め記憶したシナリオに沿って、処理システムで音声認識装置と音声出力装置とを制御する音声対話プログラムにおいて、スピーカから複数のキーワードを列挙する命令と、次いで音声出力をポーズする命令と、さらに前記複数のキーワードを再度列挙する命令と、少なくとも前記複数のキーワードを再度列挙する際に、人の入力音声を音声認識装置で認識する命令とを設けたことを特徴とする。
この明細書において、音声対話装置に関する記載は音声対話方法や音声対話プログラムにもそのまま当てはまり、逆に音声対話方法に関する記載は音声対話装置や音声対話プログラムにもそのまま当てはまる。
キーワードの列挙に対する人の回答は例えばその選択である。
この発明では複数のキーワードを列挙して回答を求める際に、最初にキーワードを列挙し、一旦音声出力を停止して間を置き、次いでキーワードを再列挙する。このため最初の列挙でキーワードを聞き逃しても、次の列挙で正しく聞いて応答できる。最初の列挙と次の列挙の間にポーズが有るので、次の列挙が始まったときに、同じキーワードを繰り返していると直ちに分かる。さらに最初の列挙でキーワードの集合の概要を理解してから、キーワードが再度出力された時に回答すれば良く、回答が容易である。シナリオ作成の面では、ポーズ長を使い分ける必要が無く、ポーズの設定が簡単である。
2回目の列挙でキーワードを同義語に変換して出力すると、対話が平板になり難い。そしてキーワードの語順を1回目と同じにすると、1回目で人が聞いた順序でキーワードが繰り返されるので、回答し易い。
2回目にキーワードを列挙する際には、人はほぼ回答できる状態にあるので、ここでキーワードを出力しながら回答を音声認識すると、人がキーワードを聞いて直ちに回答することに対応できる。
以下に本発明を実施するための最適実施例を示す。
図1〜図6に、実施例を示す。各図において、2は音声対話装置で、4は音声入力用のマイクロフォンで、6はアンプで省略可能である。8は音声認識装置で、10は音声認識に用いる辞書で、複数の辞書が対話装置2に記憶されている。12は音声の認識結果を出力するためのレジスタで、14は処理システムであり、16は音声対話用のシナリオ記憶部である。なおシナリオの個々のシーンを場面と呼び、各場面の記憶位置を番地と呼ぶ。
シナリオ記憶部16に記憶するシナリオの構成を図2に示す。一般的シナリオ18はキーワードの列挙以外の部分のシナリオであり、キーワード列挙シナリオ20がキーワードの列挙に関する部分のシナリオである。なおキーワードの列挙とは2個以上のキーワードを列挙することで、好ましくは3個以上のキーワードを列挙することである。第1回キーワード列挙場面21で最初にキーワードを列挙し、ポーズ場面22で一旦ポーズし、第2回キーワード列挙場面23で再度キーワードを列挙する。ポーズ場面24で2回目のキーワードの列挙後にポーズし、入力促し場面25で2回目のポーズの後に入力を人に促す。シナリオには音声出力側のシナリオと音声入力側のシナリオとが同期して進行し、場面21〜25は出力側のシナリオである。音声入力側のシナリオでは、入力受け付け場面26で列挙されたキーワードに対する人の選択を受け付けて音声認識する。そして列挙されたキーワードに対する音声認識は、例えば第1回キーワード列挙場面21、もしくはポーズ場面22、あるいは第2回キーワード列挙場面23から開始し、これに応じて図1の辞書10を列挙したキーワードに対応したものに切り替え、認識開始前にレジスタ12をゼロクリアする。
図3にレジスタ12の構造を示す。ここではA〜Gの7つのキーワードが列挙され、人に対してキーワードの選択を求めているものとする。有効な回答は、1以上のキーワードを選択することと、「全て要らない」、「要りません」などの全ての選択肢の否定である。レジスタ12には質問IDが記載され、これは入力側シナリオでの場面を示している。次の1ビットは回答が肯定か否定かを示し、肯定で0,否定でFである。各キーワードには同義語があり、例えば大学の学部案内の場合、「工学部」と「工」並びに「工学」は同義語である。そこで同義語をまとめて抽象化したものをサブジェクトと呼ぶと、人の回答はサブジェクトの選択と言い換えることができる。図3のレジスタ12では、A〜Gの7個のサブジェクトに対し各1ビットを割り当てる。サブジェクトの個数は質問毎に変化するので、肯定/否定のビットの後のビットから、各サブジェクト毎に1ビット割り当てることとし、レジスタ12には充分大きな記憶容量を持たせる。
「Aは要らないが、Bは要る」などのように肯定と否定が組み合わさった回答に備え、レジスタ12を複数段設け、「Aは要らない」を初段のレジスタで処理し、「Bは要る」を次段のレジスタで処理しても良い。また肯定/否定やサブジェクトの選択を各1ビットのデータで記憶する必要はなく、よりビット長の長いデータで記憶しても良い。
辞書10には列挙する各キーワードとその同義語、並びにキーワードの範囲や組み合わせを示す単語、及び肯定/否定を表す語が記憶されている。キーワードの範囲や組み合わせを示す単語として「全部」,「全て」などがあり、大学の学部案内での理学と工学の組み合わせを示す単語として「理工学」、文学部と経済学部及び商学部の組み合わせを示すものとして「文化系」などがある。これらのキーワードや同義語等は、入力側シナリオの場面毎に辞書を変更して切り替える。肯定を表す語として「はい」や「お願い」、接尾辞の「たい」「です」「ます」などがある。否定を表す語として「いいえ」や接尾辞の「ない」などがある。肯定を表す語も否定を表す語も入力されない場合、肯定/否定のビットは初期値の肯定のままである。
音声認識装置8は入力音声中に辞書10に記述された語があると、レジスタ12のこれに対応するビットへの書き込みを行う。単語が肯定あるいは否定を表す場合、肯定/否定のビットに対して0もしくはFを出力し、サブジェクト毎のビットでは該当ビットをFにする。またサブジェクトの集合に対応するキーワードを発見すると、その集合に含まれるサブジェクトのビットをFにセットする。そして音声認識装置8はキーワードを発見する都度、レジスタ12へOR加算により書き込みする。例えば大学の学部案内で「文学をお願い」との回答が入力された場合、「文学」をキーワードとして検出し、これに対するサブジェクトのビットをFにセットし、他のビットは0のままである。次に「お願い」が肯定に対応するので、先頭の肯定ビットを0に保ち、他のビットの値を変えない。この場合のレジスタ12の出力は、肯定ビットが0で肯定であり、「文学」のビットがセットされ、他はセットされていないので、文学についてのみ案内を依頼したことになる。「文学と経済をお願い」の場合、「文学」のビットと「経済」のビットがセットされ、肯定/否定のビットは肯定の0ビットに保たれる。
列挙されたキーワードに対する選択を認識する際の特別のルールとして、「はい」「それ」などのキーワードを特定しない入力には、その直前に出力されたキーワードが肯定で選択されたものとする。これは2回目の列挙の途中で「はい」などが入力されることに備えたものであるが、このルールは設けなくても良い。また「文学は要らないが、経済学を知りたい」などの肯定/否定の述語が2語以上ある入力に対し、レジスタ12を複数段設けると、1段目のレジスタで「文学は要らない」に対し肯定/否定のビットを否定のFにセットし、「文学」のビットをFにセットする。次の段のレジスタで「経済学を知りたい」を処理し、肯定/否定のビットを肯定の0にセットし、「経済学」のビットをFにセットする。この場合の認識結果は、「経済学部について知りたい」というものと同じである。
図1に戻り、音声データ生成部30はシナリオに基づいて音声を生成し、アンプ32を介してスピーカ34から音声出力する。なおアンプ32は設けなくても良い。実施例では音声対話装置2をガイダンス用のロボットに組み込み、処理システム14からのジェスチャー信号でロボット本体36を動作させる。
図4に、実施例の音声対話方法を示す。シナリオ中のキーワードを列挙し選択する部分で、出力側のシナリオではステップ1でキーワードを列挙する。次いでステップ2でポーズし、ステップ3でキーワードを再列挙する。そしてステップ4でポーズした後、ステップ5で入力を促す。ただしステップ4のポーズは省略しても良い。実施例の場合、ステップ2あるいはステップ4で、ロボット本体36に身振りをさせても良い。またステップ3でキーワードを再列挙する場合、ステップ1で列挙したキーワードの一部を同義語に変換し、特によりシンプルな単語に変更して同じ順で列挙すると、1回目と2回目とで表現を変えてしかも同じ順なので、人が答え易くでき、しかも冗長さを弱めることができる。
入力側シナリオでは、ステップ1のキーワードの列挙から、入力を受け付け、入力音声を音声認識する。ただしステップ2のポーズから、もしくはステップ3のキーワードの再列挙から、入力音声を音声認識しても良い。そしてステップ7で入力結果を判別し、有効な入力がなかった場合、ステップ2のポーズまでもしくはステップ3のキーワードの再列挙まで戻って、あるいはキーワードの再列挙に準じた処理を行って、入力を再度受け付ける。全ての選択肢が否定された場合他の処理へ移り、いずれかのキーワードが選択されると、選択されたキーワードやその組み合わせについてガイダンスする。
図5に音声対話プログラム40の構造を示すと、一般シナリオ命令41はキーワードの列挙以外のシナリオを処理し、キーワード列挙命令42は1回目のキーワードの列挙を処理し、キーワード再列挙命令43は2回目のキーワードの列挙を処理する。ポーズ命令44は、1回目のキーワードの列挙と2回目のキーワードの列挙の間、並びに2回目のキーワードの列挙後の、ポーズやジェスチャーを処理する。音声認識命令45は例えば1回目のキーワード列挙中から音声認識を開始し、図1の辞書10を列挙されたキーワードに合わせて切り替える。音声認識命令45は入力音声の認識結果に基づき、シナリオでのそれ以前の処理へ戻る、他の処理へ移る、選択されたキーワードについてガイダンスする、ようにシナリオを分岐させる。促し命令46は、2回目のキーワードの列挙後と2回目のポーズの後に、入力を促す文を出力する。
図6に、大学の学部案内を例に音声ガイダンスの具体例を示す。なおこの具体例は実施例の音声対話装置、音声対話方法、音声対話プログラムのいずれにも該当する。ステップ11で、大学の学部としてどのようなものがあるかを列挙する。ステップ12で、ロボット本体のジェスチャーを交えてポーズし、ステップ13でキーワードを再列挙する。ここで文学を「文」、経済学を「経済」としているように、キーワードをより短いキーワードで同義語のものに変換して同じ順序で列挙する。ステップ14で再度ポーズし、ステップ15で回答を促す文を出力する。
入力側シナリオでは、ステップ11の段階で「経済学」などの回答がされることに備えて、ステップ11のキーワードの列挙から入力音声を認識する。ただしステップ12のポーズから、もしくはステップ13の再列挙から、入力音声の認識を開始しても良い。そしてステップ17で、入力結果に基づき分岐する。
実施例では以下の効果がある。
(1) キーワードが2回以上列挙されるので、人にとって聞き逃しにくい。
(2) 1回目のキーワードの列挙でキーワードの全体をおおよそ理解し、2回目のキーワードの列挙で正確に聞き取って回答すればよいので、正確な回答が容易である。
(3) 1回目と2回目とでキーワードの列挙の仕方を変えるので、対話が平板になりにくい。
(4) サブジェクト毎のビット和を用いるので、「文学」,「経済学」などの個別の回答から、「文化系」,「全部」などの範囲を示す回答まで対応できる。なお「A,B,Cは要らない」などの入力に対し、これ以外のキーワードが選択されたものとして解釈すると、入力を認識できる範囲をさらに広げることができる。
実施例の音声対話装置のブロック図 実施例で用いるシナリオのブロック図 実施例で用いる音声認識用のレジスタを示す図 実施例の音声対話方法を示すフローチャート 実施例の音声対話プログラムのブロック図 実施例を大学の学部案内に応用した例を示す図
符号の説明
2 音声対話装置
4 マイクロフォン
6,32 アンプ
8 音声認識装置
10 辞書
12 レジスタ
14 処理システム
16 シナリオ記憶部
18 一般的シナリオ
20 キーワード列挙シナリオ
21 第1回キーワード列挙場面
22 ポーズ場面
23 第2回キーワード列挙場面
24 ポーズ場面
25 入力促し場面
26 入力受け付け場面
30 音声データ生成部
34 スピーカ
36 ロボット本体
40 音声対話プログラム
41 一般シナリオ命令
42 キーワード列挙命令
43 キーワード再列挙命令
44 ポーズ命令
45 音声認識命令
46 促し命令

Claims (5)

  1. 人が音声入力するためのマイクロフォンと、マイクロフォンへの入力音声を音声認識するための音声認識装置と、スピーカを備えた音声出力装置と、シナリオの記憶部と、前記音声認識装置と音声出力装置とをシナリオに沿って制御する処理システム、とを備えた音声対話装置において、
    複数のキーワードを列挙するようにスピーカから音声出力する際に、該複数のキーワードを最初に列挙した後に、音声出力をポーズし、次いで前記複数のキーワードを再度列挙して、人の入力音声を受け付けるように、前記記憶部に記憶するシナリオを構成することを特徴とする、音声対話装置。
  2. 再度の列挙では、最初に列挙したキーワードを、同順で、かつ少なくとも一部のキーワードを同義語に変換して音声出力するように、前記シナリオを構成することを特徴とする、請求項1の音声対話装値。
  3. 列挙されたキーワードに対する人からの入力音声を、遅くとも前記再度の列挙から処理するように、前記音声認識装置を構成することを特徴とする、請求項1の音声対話装置。
  4. マイクロフォンで人の入力音声を受け付けて音声認識装置で音声認識し、予め記憶したシナリオに沿って、処理システムで音声認識装置と音声出力装置とを制御する音声対話方法において、
    スピーカから複数のキーワードを列挙し、次いで音声出力をポーズし、さらに前記複数のキーワードを再度列挙して、人の入力音声を音声認識装置で認識する、ことを特徴とする、音声対話方法。
  5. マイクロフォンで人の入力音声を受け付けて音声認識装置で音声認識し、予め記憶したシナリオに沿って、処理システムで音声認識装置と音声出力装置とを制御する音声対話用のプログラムにおいて、
    スピーカから複数のキーワードを列挙する命令と、次いで音声出力をポーズする命令と、さらに前記複数のキーワードを再度列挙する命令と、少なくとも前記複数のキーワードを再度列挙する際に、人の入力音声を音声認識装置で認識する命令とを設けたことを特徴とする、音声対話プログラム。
JP2006051771A 2006-02-28 2006-02-28 音声対話装置とその方法及びプログラム Pending JP2007232829A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006051771A JP2007232829A (ja) 2006-02-28 2006-02-28 音声対話装置とその方法及びプログラム
US11/527,503 US20070203709A1 (en) 2006-02-28 2006-09-27 Voice dialogue apparatus, voice dialogue method, and voice dialogue program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006051771A JP2007232829A (ja) 2006-02-28 2006-02-28 音声対話装置とその方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2007232829A true JP2007232829A (ja) 2007-09-13

Family

ID=38445104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006051771A Pending JP2007232829A (ja) 2006-02-28 2006-02-28 音声対話装置とその方法及びプログラム

Country Status (2)

Country Link
US (1) US20070203709A1 (ja)
JP (1) JP2007232829A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007683A (ja) * 2013-06-25 2015-01-15 日本電気株式会社 音声処理器具、音声処理方法
JP2019197487A (ja) * 2018-05-11 2019-11-14 株式会社Nttドコモ 情報処理装置及びプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4827721B2 (ja) * 2006-12-26 2011-11-30 ニュアンス コミュニケーションズ,インコーポレイテッド 発話分割方法、装置およびプログラム
US8321429B2 (en) * 2006-12-28 2012-11-27 Sybase, Inc. Accelerating queries using secondary semantic column enumeration
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
JP5867410B2 (ja) * 2010-11-22 2016-02-24 日本電気株式会社 対話テキスト解析装置、方法およびプログラム
US10642833B2 (en) 2015-08-11 2020-05-05 Sybase, Inc. Accelerating database queries using composite union enumeration
US10467228B2 (en) 2015-08-11 2019-11-05 Sybase, Inc. Accelerating database queries using equivalence union enumeration
US20180090141A1 (en) * 2016-09-29 2018-03-29 Microsoft Technology Licensing, Llc Conversational interactions using superbots
US10599771B2 (en) 2017-04-10 2020-03-24 International Business Machines Corporation Negation scope analysis for negation detection
CN109727597A (zh) * 2019-01-08 2019-05-07 未来电视有限公司 语音信息的交互辅助方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435344A (ja) * 1990-05-28 1992-02-06 Matsushita Electric Works Ltd 留守番電話機
JPH0477160A (ja) * 1990-07-17 1992-03-11 Nec Corp 自動応答録音方式
JPH04196858A (ja) * 1990-11-28 1992-07-16 Hitachi Ltd 音声認識制御装置
JPH04306947A (ja) * 1991-04-04 1992-10-29 Matsushita Electric Ind Co Ltd 音声蓄積装置
JPH0851486A (ja) * 1994-08-05 1996-02-20 Kokusai Denshin Denwa Co Ltd <Kdd> 国際電話着信規制装置
JPH09200323A (ja) * 1996-01-24 1997-07-31 Brother Ind Ltd データ蓄積装置
JP2004258233A (ja) * 2003-02-25 2004-09-16 Fujitsu Ltd 適応型音声対話システム及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4687936B2 (ja) * 2001-03-22 2011-05-25 ソニー株式会社 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
US6941268B2 (en) * 2001-06-21 2005-09-06 Tellme Networks, Inc. Handling of speech recognition in a declarative markup language

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435344A (ja) * 1990-05-28 1992-02-06 Matsushita Electric Works Ltd 留守番電話機
JPH0477160A (ja) * 1990-07-17 1992-03-11 Nec Corp 自動応答録音方式
JPH04196858A (ja) * 1990-11-28 1992-07-16 Hitachi Ltd 音声認識制御装置
JPH04306947A (ja) * 1991-04-04 1992-10-29 Matsushita Electric Ind Co Ltd 音声蓄積装置
JPH0851486A (ja) * 1994-08-05 1996-02-20 Kokusai Denshin Denwa Co Ltd <Kdd> 国際電話着信規制装置
JPH09200323A (ja) * 1996-01-24 1997-07-31 Brother Ind Ltd データ蓄積装置
JP2004258233A (ja) * 2003-02-25 2004-09-16 Fujitsu Ltd 適応型音声対話システム及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007683A (ja) * 2013-06-25 2015-01-15 日本電気株式会社 音声処理器具、音声処理方法
JP2019197487A (ja) * 2018-05-11 2019-11-14 株式会社Nttドコモ 情報処理装置及びプログラム
JP7084775B2 (ja) 2018-05-11 2022-06-15 株式会社Nttドコモ 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US20070203709A1 (en) 2007-08-30

Similar Documents

Publication Publication Date Title
JP2007232829A (ja) 音声対話装置とその方法及びプログラム
JP6570651B2 (ja) 音声対話装置および音声対話方法
JP7248751B2 (ja) ホットワード認識音声合成
JP7204690B2 (ja) 作成者が提供したコンテンツに基づいて対話型ダイアログアプリケーションを調整すること
JP4481972B2 (ja) 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
US20170103757A1 (en) Speech interaction apparatus and method
JP4729902B2 (ja) 音声対話システム
JP2001034293A (ja) 音声を転写するための方法及び装置
JP2006146887A (ja) キャラクタの制御された操作
JP6019604B2 (ja) 音声認識装置、音声認識方法、及びプログラム
KR20140089863A (ko) 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
JP2007226642A (ja) 音声認識機器制御装置
JP2010152119A (ja) 応答生成装置及びプログラム
JP2007219190A (ja) 音声認識装置と認識方法及びそのプログラム
JP2019090942A (ja) 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
JP2011504624A (ja) 自動同時通訳システム
JP2018197924A (ja) 情報処理装置、対話処理方法、及び対話処理プログラム
JPWO2020036195A1 (ja) 話し終わり判定装置、話し終わり判定方法およびプログラム
JP5818753B2 (ja) 音声対話システム及び音声対話方法
KR102637337B1 (ko) 자동 통역 방법 및 장치, 및 기계 번역 방법
JP6746886B2 (ja) 学習支援装置及びその学習支援装置用のプログラム
JP2012008375A (ja) 音声記録装置、そのデータ処理方法、およびプログラム
KR20200058612A (ko) 인공지능 스피커 및 이를 이용한 대화 진행 방법
JP2006162782A (ja) 音声認識装置
JP7524296B2 (ja) 作成者が提供したコンテンツに基づいて対話型ダイアログアプリケーションを調整すること

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101202