JP2010175708A - 音声認識検索システム及び音声認識検索方法 - Google Patents

音声認識検索システム及び音声認識検索方法 Download PDF

Info

Publication number
JP2010175708A
JP2010175708A JP2009016641A JP2009016641A JP2010175708A JP 2010175708 A JP2010175708 A JP 2010175708A JP 2009016641 A JP2009016641 A JP 2009016641A JP 2009016641 A JP2009016641 A JP 2009016641A JP 2010175708 A JP2010175708 A JP 2010175708A
Authority
JP
Japan
Prior art keywords
speech recognition
utterance
search
unit
tendency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009016641A
Other languages
English (en)
Inventor
Kazunari Ouchi
一成 大内
Miwako Doi
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009016641A priority Critical patent/JP2010175708A/ja
Publication of JP2010175708A publication Critical patent/JP2010175708A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】語彙数を実用に耐える認識精度を担保する範囲におさえ、発話に対するカバー率を向上させる音声認識検索システムを提供する。
【解決手段】放送番組の番組情報のデータを蓄積するEPG DB29と、音声入力部11と、入力された音声を認識してテキスト化する音声認識部21と、音声認識部21で参照される音声認識辞書22と、音声認識部21が認識したテキストを検索キーワードとしてEPG DB29内の検索対象範囲を検索する検索部28と、音声認識結果、検索結果などを表示する表示部27と、表示される音声認識候補の選択、表示の切り替えなどを行う操作部12と、音声認識部21が認識したテキストから、ユーザの発話傾向を抽出する発話傾向抽出部23と、発話傾向をデータとして蓄積する発話傾向DB24と、検索対象範囲のデータと発話傾向DB24の内容に基づいて、音声認識辞書22を生成する音声認識辞書生成部25を具備する。
【選択図】図1

Description

本発明は、音声認識入力により所望の情報を対象検索範囲より検索する音声認識検索システム及び音声認識検索方法に関する。
カーナビゲーションシステムなど、手による操作ができない状況下で音声認識入力によって所望の情報の検索、操作を行う取り組みがなされている。或る一定時間中において音声の始端と終端とをそれぞれ一回のみ検出する孤立単語音声認識の場合、語彙数と認識率は二律背反の関係にある。そこで、入力される音声の属性(例えば、ジャンル等)によって適切に音声認識辞書を切り替えることにより、音声認識精度を確保する方法が考えられ、例えば、入力属性を先に指示し、適切な音声認識辞書を選択してから音声入力する方法が提案されている(例えば、特許文献1参照。)。
また、全語彙を対象とした音声認識を実施し、音声検索キー候補が多い場合に、検索キー確定関連質問を提示し関連情報を発話させ、検索キー認識尤度と関連情報認識尤度から音声検索キー候補を同定する方法が提案されている(例えば、特許文献2参照。)。
しかしながら、手による操作が可能な用途(例えば、テレビの番組(コンテンツ)予約など)において、リモコン装置等の操作の負担を軽減させるべく音声認識入力を用いる場合、入力の全てを音声認識入力で行うよりも、キー操作と適切に組み合わせることによって、全体としての使い勝手が向上すると考えられる。このような観点から、EPG(Electronic Program Guide)を利用して音声認識により番組予約を行う取り組みが提案されている(例えば、特許文献3参照。)。
特開2007−264198号公報 特許第3420965号公報 特開2000−316128号公報
手による操作が可能な用途で音声認識入力を用いる場合、従来技術では、予め用意した音声認識用の辞書を固定的に使用している。ところが、番組情報、インターネット上の情報など、日々変化する情報の検索においては、検索対象範囲の内容に応じて音声認識用の辞書を更新することが、音声認識精度の維持には必要である。また、音声認識用の辞書の語彙数と認識精度の関係は、発話に対するカバー率を上げるために語彙数を増やすと認識精度が低下し、語彙数を少なくすると認識精度は向上するものの発話に対するカバー率が低下する。
そこで、本発明は、上記した問題に鑑みてなされたもので、語彙数を実用に耐える認識精度を担保する範囲におさえ、その中で発話に対するカバー率を向上させる音声認識検索システム及び音声認識検索方法を提供することを目的とする。
本発明の一態様によれば、コンテンツ情報のデータを蓄積するコンテンツ情報データベースと、音声を入力するための音声入力部と、前記音声入力部から入力された音声を認識してテキスト化する音声認識部と、認識処理のため前記音声認識部で参照される音声認識辞書と、前記音声認識部が認識したテキストを検索キーワードとして前記コンテンツ情報データベース内の検索対象範囲を検索する検索部と、検索結果を表示する表示部と、前記表示部に表示される音声認識候補の選択を行う操作部と、前記音声認識部が認識したテキストから、ユーザの発話傾向を抽出する発話傾向抽出部と、前記発話傾向抽出部が抽出した発話傾向を蓄積する発話傾向データベースと、前記検索対象範囲のデータと前記発話傾向データベースの内容に基づいて、前記音声認識辞書を生成する音声認識辞書生成部を具備することを特徴とする音声認識検索システムが提供される。
また、本発明の別の一態様によれば、ユーザから音声を用いて入力される検索対象となる音声検索キーを音声認識する音声認識検索システムにおける音声認識検索方法であって、検索キーワードを音声入力し、入力された音声信号に対して音声認識を行ってテキスト化し、音声認識候補を尤度の高い順に複数個提示し、提示された候補中から選択した該文字列を検索キーワードとしてコンテンツ情報データベースを検索し、コンテンツ候補リスト中からコンテンツを選択し、コンテンツを選択した際に、発話傾向を抽出し、選択したコンテンツの正式名と発話した内容とを比較し、該発話の特徴を抽出し、発話傾向データベースに格納する、ことを特徴とする音声認識検索方法が提供される。
本発明によれば、語彙数を実用に耐える認識精度を担保する範囲におさえ、その中で発話に対するカバー率を向上させることができる。
本発明の実施の形態に係る音声認識検索システムの一例を示すブロック図である。 本発明の実施の形態に係る音声認識検索システムのリモコン装置の実装例を示す概略図である。 本発明の実施の形態に係る音声認識検索システムにおいて無線通信機能を搭載した一例を示すブロック図である。 本発明の実施の形態に係る音声認識検索システムの処理動作を示すフローチャートである。 音声認識候補の提示例を説明する図である。 検索結果の表示例を説明する図である。 番組名の読みの付与例を説明する図である。 EPGデータの例を説明する図である。 音声認識辞書生成部が音声認識辞書を生成する際の処理動作を示すフローチャートである。
以下、本発明の実施の形態について図面を参照しながら説明する。各図において同一箇所については同一の符号を付すとともに、重複した説明は省略する。
図1は、本発明の実施の形態に係る音声認識検索システム100の構成例を示すブロック図であり、図2は、リモコン装置10の実装例を示す概略図である。
図1に示すように、音声認識検索システム100は、リモコン装置10および録画機器20を備えている。リモコン装置10は、図2に示すように、音声入力部11および操作部12を備えている。音声入力部11は、リモコン装置10の任意の位置に内蔵あるいは外付けで備えることができ、例えばマイクロフォンである。図2は、音声入力部11を内蔵させた場合の例である。操作部12は、操作者の操作を受け付ける部位である。図2に示す例では、リモコン装置10の任意の位置に、認識した音声の候補の移動等を行う十字キーと押しボタンを2個備えている。操作部12の構成はこれに限られず、ポインティングデバイスでポインタを操作できるように構成することもできる。
録画機器20は、音声認識部21、音声認識辞書22、発話傾向抽出部23、発話傾向データベース(以下、発話傾向DBという)24、音声認識辞書生成部25、音声認識候補表示部26、表示部27、検索部28、EPGデータベース(以下、EPG DBという)29を備えるとともに、図示しない録画・制御部をも備えている。録画・制御部は、ビデオハードディスクレコーダ、録画機能付のテレビ、パソコンなど録画機能を備えた機器である。尚、録画・制御部を録画機能付パソコンで構成する場合には、音声入力部11をパソコンに接続し、操作部12はマウス等パソコンの操作機器を使用しても構わない。
音声認識部21は、リモコン装置10の音声入力部11を介して取得した音声を認識するものである。音声認識部21には、例えば、形態素解析等を含む音声認識エンジンが搭載される。
音声認識辞書22には、音声認識のためのデータが多数蓄積されており、音声認識部21からのアクセスを受け付ける。音声認識辞書22は、例えば、HDDやEEPROMで構築することができる。
発話傾向抽出部23は、音声入力部11を介して取り込まれた発話者の発話傾向(後述する)を抽出するものである。この発話傾向抽出部23は、例えばソフトウェアで構築することができる。
発話傾向DB24は、発話傾向抽出部23で抽出された発話傾向のデータを蓄積するものである。発話傾向DB24は、例えば、揮発性メモリで構築することができる。
音声認識辞書生成部25は、発話傾向DB24およびEPG DB29からデータを取り込んで音声認識辞書を生成するものである。音声認識辞書生成部25で生成された音声認識辞書は、音声認識辞書22に送られる。
音声認識候補表示部26は、音声認識部21での音声認識の結果、尤度にしたがって音声認識候補をリストアップするものである。音声認識候補表示部26は、例えば、揮発性メモリで構築することができる。
表示部27は、音声認識および検索作業における各種表示を司るものである。表示部27は、LCD等のディスプレイが好適である。
検索部28は、音声認識候補から選択された文字列を検索キーワードとしてEPG DB29を検索するものである。この検索部28は、例えばソフトウェアで構築することができる。
EPG DB29は、EPG(Electric Program Guide)データを蓄積するもので、例えば、HDDやEEPROMで構築することができる。EPGデータは、テレビ番組表をデジタルデータとして提供し、画面に表示したり、録画予約を簡単に行なったりするためのシステムである。EPGデータの提供方法には、地上波に乗せる「ADAMS-EPG」やBSデジタルに乗せるARIB(Association of Radio Industries and Businesses of Japan:電波産業会)規格の「EPG」、インターネットを通じて提供される「ADAMS-EPG+」や「iEPG」がある。図8は、EPGデータの一例を示している。図8に示すように、<TITLE>で番組名が、<TEXT>で出演者の情報がXML(Extensible Markup Language)ベースで盛り込まれている。
図1に示すように、リモコン装置10と録画機器20との間は、有線で接続することができるが、これに限られない。図3に示すように、リモコン装置10に通信部13、録画機器20に通信部30を備えることにより、無線通信可能な構成としても良い。尚、無線通信に係る構成以外は同じ構成で実施可能であるため、以下、図1に示す構成にしたがって説明する。
次に、以上のように構成した音声認識検索システムにおける音声認識および検索の処理動作について、図4のフローチャートを参照しながら説明する。
まず、音声認識検索システムは、ユーザからの音声認識開始指示を待つ(ステップS10)。音声認識開始指示は、リモコン装置10の操作部12のうち、音声認識開始指示機能に割り当てたボタンを押下する。あるいは、録画機器20の表示部27上に配置された表示上のボタンを、操作部12を使って押下することでもよい。音声認識開始指示が有るまで指示を待ち(ステップS11)、音声認識開始指示が有った後、ユーザは所望の検索キーワードを音声入力部11に音声入力する(ステップS12)。また、音声認識開始の指示を行い、音声認識部21が音声入力後の無音区間を検出して自動的に音声認識終了とする(ステップS13)。音声認識開始後、いつ音声認識終了するかについては、ボタンを押下している間に音声認識を実施するようにしてもよい。
次に、音声認識部21は、音声入力部11に入力された音声信号に対して、音声認識辞書22を用いて音声認識を行い、音声認識候補を尤度の高い順に複数個提示する(ステップS14)。
図5は、音声認識候補の提示例を説明する図である。図5に示す例においては、「えーびーしーこうこうこうざ」という入力された音声に対して、音声認識の結果、音声認識候補として3つの候補がリストアップされている。この候補は、音声認識候補表示部26に提示される。尚、音声認識候補は、出来るだけ絞ってリストアップするのが、ユーザにとっても使いやすいものである。そこで、例えば音声認識のスコアが80点以上となる候補をリストアップするように設定することができる。カッコで括られた部分が各候補の「読み」であって、カッコの前の部分が、各文字列である。このように、候補とその読みを両方表示するようにしておくと、ユーザはその候補がどのような理由でリストアップされたか確認でき、わかりやすい。提示される音声認識候補の数と順番は、もっぱら、音声認識エンジンの認識性能等に依存する。
ユーザは、提示された候補の中に所望の文字列、例えば番組名(部分語)あるいは出演者名がある場合は、操作部12を操作して所望の候補を選択し、所望の候補がない場合は、再度音声認識入力を行う(ステップS15)。
所望の文字列が選択されると、検索部28は、その文字列を第一の検索キーワードとして、EPG DB29を検索する(ステップS16)。ここで、その文字列が出演者名である場合は、図8にその一例を示すEPGデータのうち、<ITEM>出演者</ITEM>の後の<TEXT>タグを検索する。その文字列が番組名(またはその一部)である場合は、<TITLE>タグを検索する。検索の結果、ヒットする番組のEPGデータから、番組放送日時、チャンネル、番組名などを抽出し、表示部27にリストアップする(ステップS17)。
検索結果の表示例を図6に示す。この例では、図5に示す音声認識候補リストで提示された文字列のうち、ユーザが「ABC高校講座」を選択したことを受けて、EPG DB29を検索し、「ABC高校講座」に該当する番組候補として10個の番組のリストを一覧にして表示している。
上述したように、図5に示した音声認識候補について、例えば音声認識のスコアが80点以上である候補をリストアップするように設定することができるが、第一候補の尤度が第二候補以下の候補よりも明らかに高い場合には、直接検索を実施し、図5に示した音声認識候補のリストアップを提示することなく、図6に示す番組候補をリストアップするようにしても良い。
検索の結果、図6に示す番組候補リスト中にある所望の番組を選択する(ステップS18)。番組を選択すると、図8のようなEPGデータの詳細を参照できる(ステップS19)。
さらに、所望の番組を選択した後に、発話傾向の抽出も実施する。後述するが、番組名の読みは、音声認識辞書22の生成時に、正式な番組名だけでなく、所定のルールに基づいて分割された部分的な番組名が生成されている。所定のルールとしては、例えば図7において、番組名のカッコの前後で分割、スペースの有無で分割、カッコ内を分割、“の”の前後で分割することができる。但し、闇雲に分割することは、検索のキーワードが必要以上に増えるので、適当ではない。
発話傾向抽出部23は、選択した番組の正式名と実際にユーザが発話した内容とを比較し、その発話の特徴を例えば以下に示す二つの例のいずれか、あるいは両方の組み合わせで抽出し(ステップS20)、発話傾向DB24に格納する(ステップS21)。
<発話の長さによる発話の特徴抽出>
図7は、番組名の読みの付与例を説明する図である。図7の例では、正式な番組名の読みは「えーびーしーこうこうこうざりかそうごうらっかぶったいのぶつり」で、30文字である。これに対して、実際に発話された読みの長さを評価する。「えーびーしーこうこうこうざりかそうごう」と発話した場合は19文字、「らっかぶったいのぶつり」と発話した場合は11文字、「ぶつり」と発話した場合は3文字となる。これら実際に発話された読みの長さを、正式な番組名の読みの長さで正規化して、それぞれ19/30、11/30、3/30という値を発話傾向DB24に格納する。あるいは、予め正式な番組名の読みの長さに対して、1/3未満、1/3以上2/3未満、2/3以上と閾値をいくつか設定しておき、それぞれの範囲の度数をカウントするようにしても良い。
<発話の位置による発話の特徴抽出>
図7の例では、正式な番組名の読みは「えーびーしーこうこうこうざりかそうごうらっかぶったいのぶつり」で、30文字である。これに対して、実際に発話された読みの位置、すなわち正式な番組名のどの部分が読まれたのかを評価する。「えーびーしーこうこうこうざ」のように正式番組名の最初から発話した場合は「前半」、「りかそうごう」のように正式番組名の最初からでもなく最後まででもなく発話した場合は「中間」、「ぶつり」のように正式番組名の最後まで発話した場合は後半とし、それらを発話傾向DB24に格納する。
次に、音声認識辞書22の生成方法について説明する。地上波デジタル放送などで配信されるEPGデータは、放送信号と共に送信されており、周知の方法でEPG DB29に格納されている。音声認識辞書生成部25は、EPG DB29のEPGデータを、例えば一日一回の頻度で分析し、発話傾向DB24内の発話傾向データの内容に応じて、音声認識辞書22を生成していく。以下、生成方法の例を図9のフローチャートを参照しながら説明する。図9は、音声認識辞書生成部25が音声認識辞書22を生成する際の処理動作を示すフローチャートである。
図8は1番組分のEPGデータの例である。この例では、XML形式のデータとなっていることがわかるが、iEPGなどのようにXML形式でないデータでも良い。これらのEPGデータをEPG DB29に蓄積する。EPG DB29は、XML形式のデータの場合はXMLデータベースで構築することが望ましいが、他のデータベース(RDBなど)で構築しても構わない。EPG DB29に格納されたEPGデータのうち、<TITLE>タグで括られた番組名、<ITEM>出演者</ITEM>の次の<TEXT>タグで括られた出演者名を抽出する(ステップS30)。
次に、番組名については、そのままではかなり長いものやサブタイトルが含まれるものがあるため、例えば、番組名に含まれるスペース、括弧、形態素解析で抽出した助詞(例えば「の」など)を手がかりに文字列を分割する。この際に、発話傾向DB24に格納された過去の発話傾向を読み出して反映させ、番組名を分割し、音声認識辞書22を生成して登録する読みを変更する(ステップS31、S32)。例えば、発話の長さが短い傾向があれば、正式な番組名から長さの短い読みを優先的に辞書に登録することとし、逆に発話の長さが長い傾向があれば、正式な番組名から長さの長い読みを優先的に辞書に登録する。または、正式な番組名の前半を多く発話する傾向があれば、正式な番組名の前半の読みを優先的に辞書に登録することとし、逆に正式な番組名の中間あるいは後半を多く発話する傾向があれば、正式な番組名の中間あるいは後半の読みを優先的に辞書に登録する。
こうすることによって、同一番組名に対して、発話に対するカバー率を向上させるために複数の読みを付与する。闇雲に部分語を増やしたのでは音声認識辞書22に格納する語彙数が多くなってしまうが、このように過去のユーザの発話傾向に応じて発話される可能性が高いものを優先的に音声認識辞書22に格納させることで、音声認識精度を確保しつつカバー率を向上させることが出来る。
読みの付与には、汎用の仮名漢字変換辞書を使用しても良いし、愛称など、別の読み方をインターネット上の情報をもとに生成しても良く、その手段は問わない(ステップS33)。また、それぞれの読みが番組名に関するものであるか、出演者名に関するものであるか、識別子を用意しておくと検索の際に都合がよい。
上記、音声認識辞書22の更新処理は、例えば、一日一回、深夜などに定期的に実施すると好適である。
本実施形態によれば、番組情報、インターネット上の情報など日々変化する情報の検索を音声認識入力により行う際に、検索対象範囲にとって適切な音声認識辞書を動的に生成し、かつユーザの発話傾向に応じて適切に生成語彙を変更できるため、語彙数を実用に耐える認識精度を担保する範囲におさえ、その中で発話に対するカバー率を向上させることができる。
なお、本発明は上記の実施形態のそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
100・・・音声認識検索システム、10・・・リモコン装置、11・・・音声入力部、12・・・操作部、20・・・録画機器、21・・・音声認識部、22・・・音声認識辞書、23・・・発話傾向抽出部、24・・・発話傾向DB、25・・・音声認識辞書生成部、26・・・音声認識候補表示部、27・・・表示部、28・・・検索部、29・・・EPG DB。

Claims (7)

  1. コンテンツ情報のデータを蓄積するコンテンツ情報データベースと、
    音声を入力するための音声入力部と、
    前記音声入力部から入力された音声を認識してテキスト化する音声認識部と、
    認識処理のため前記音声認識部で参照される音声認識辞書と、
    前記音声認識部が認識したテキストを検索キーワードとして前記コンテンツ情報データベース内の検索対象範囲を検索する検索部と、
    検索結果を表示する表示部と、
    前記表示部に表示される音声認識候補の選択を行う操作部と、
    前記音声認識部が認識したテキストから、ユーザの発話傾向を抽出する発話傾向抽出部と、
    前記発話傾向抽出部が抽出した発話傾向を蓄積する発話傾向データベースと、
    前記検索対象範囲のデータと前記発話傾向データベースの内容に基づいて、前記音声認識辞書を生成する音声認識辞書生成部を具備することを特徴とする音声認識検索システム。
  2. 前記発話傾向抽出部は、前記認識したテキストの文字数で表わされる発話長を抽出する発話長抽出手段を具備し、
    前記発話傾向データベースには前記発話長を蓄積するとともに、
    前記音声認識辞書生成部は、前記発話長の傾向に基づいて生成する音声認識辞書を変更することを特徴とする請求項1に記載の音声認識検索システム。
  3. 前記発話傾向抽出部は、同一キーワードに対する複数の部分語のうち、正式コンテンツ名に対する部分語の位置の特徴を抽出する部分語位置抽出手段を具備し、
    前記発話傾向データベースには前記部分語位置の特徴を蓄積するとともに、
    前記音声認識辞書生成部は、前記部分語位置の傾向に基づいて生成する音声認識辞書を変更することを特徴とする請求項1または請求項2に記載の音声認識検索システム。
  4. 前記発話長の傾向は、前記発話長を正式なコンテンツ名の読みの長さで正規化して判定することを特徴とする請求項2に記載の音声認識検索システム。
  5. 前記部分語位置の特徴は、正式なコンテンツ名を最初から発話した場合、正式なコンテンツ名を途中まで発話した場合、正式なコンテンツ名を最後まで発話した場合のいずれかで判定することを特徴とする請求項3に記載の音声認識検索システム。
  6. 前記音声認識結果あるいは検索結果は、候補を尤度の高い順に前記表示部に表示されることを特徴とする請求項1記載の音声認識検索システム。
  7. ユーザから音声を用いて入力される検索対象となる音声検索キーを音声認識する音声認識検索システムにおける音声認識検索方法であって、
    検索キーワードを音声入力し、
    入力された音声信号に対して音声認識を行ってテキスト化し、音声認識候補を尤度の高い順に複数個提示し、
    提示された候補中から選択した該文字列を検索キーワードとしてコンテンツ情報データベースを検索し、
    コンテンツ候補リスト中からコンテンツを選択し、
    コンテンツを選択した際に、発話傾向を抽出し、
    選択したコンテンツの正式名と発話した内容とを比較し、該発話の特徴を抽出し、発話傾向データベースに格納する、
    ことを特徴とする音声認識検索方法。
JP2009016641A 2009-01-28 2009-01-28 音声認識検索システム及び音声認識検索方法 Pending JP2010175708A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009016641A JP2010175708A (ja) 2009-01-28 2009-01-28 音声認識検索システム及び音声認識検索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009016641A JP2010175708A (ja) 2009-01-28 2009-01-28 音声認識検索システム及び音声認識検索方法

Publications (1)

Publication Number Publication Date
JP2010175708A true JP2010175708A (ja) 2010-08-12

Family

ID=42706767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009016641A Pending JP2010175708A (ja) 2009-01-28 2009-01-28 音声認識検索システム及び音声認識検索方法

Country Status (1)

Country Link
JP (1) JP2010175708A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015038710A (ja) * 2013-08-19 2015-02-26 株式会社東芝 方法、電子機器およびプログラム
CN112243524A (zh) * 2019-03-20 2021-01-19 海信视像科技股份有限公司 节目名检索辅助装置以及节目名检索辅助方法
WO2024019186A1 (ko) * 2022-07-19 2024-01-25 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015038710A (ja) * 2013-08-19 2015-02-26 株式会社東芝 方法、電子機器およびプログラム
CN112243524A (zh) * 2019-03-20 2021-01-19 海信视像科技股份有限公司 节目名检索辅助装置以及节目名检索辅助方法
CN112243524B (zh) * 2019-03-20 2023-08-04 海信视像科技股份有限公司 节目名检索辅助装置以及节目名检索辅助方法
WO2024019186A1 (ko) * 2022-07-19 2024-01-25 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Similar Documents

Publication Publication Date Title
US11853536B2 (en) Intelligent automated assistant in a media environment
JP4459267B2 (ja) 辞書データ生成装置及び電子機器
JP6603754B2 (ja) 情報処理装置
JP3724649B2 (ja) 音声認識用辞書作成装置および音声認識装置
JP5178109B2 (ja) 検索装置、方法及びプログラム
JP2010072507A (ja) 音声認識検索装置及び音声認識検索方法
US6553345B1 (en) Universal remote control allowing natural language modality for television and multimedia searches and requests
CN108063969B (zh) 显示设备、控制显示设备的方法、服务器以及控制服务器的方法
JP6375521B2 (ja) 音声検索装置、音声検索方法、および表示装置
US20070255565A1 (en) Clickable snippets in audio/video search results
JP6244560B2 (ja) 音声認識処理装置、音声認識処理方法、および表示装置
KR20140089862A (ko) 디스플레이 장치 및 그의 제어 방법
JP5296598B2 (ja) 音声情報抽出装置
JP2007148976A (ja) 関連情報検索装置
JP3639776B2 (ja) 音声認識用辞書作成装置および音声認識用辞書作成方法、音声認識装置、携帯端末器、並びに、プログラム記録媒体
JP4601306B2 (ja) 情報検索装置、情報検索方法、およびプログラム
JP2004295102A5 (ja)
JP2010175708A (ja) 音声認識検索システム及び音声認識検索方法
JP2004334409A (ja) データ閲覧支援装置、データ閲覧方法及びデータ閲覧プログラム
JP2006311462A (ja) コンテンツ検索装置及びその方法
JP4175141B2 (ja) 音声認識機能を有する番組情報表示装置
JP2007140194A (ja) 番組検索装置および形態素辞書管理サーバ
JP2007257134A (ja) 音声検索装置、音声検索方法および音声検索プログラム
JP2006106451A (ja) テレビ放送受信機における音声入力方法
JP2021182068A (ja) 映像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121030