JP2005295375A - 情報取得支援システム - Google Patents
情報取得支援システム Download PDFInfo
- Publication number
- JP2005295375A JP2005295375A JP2004109943A JP2004109943A JP2005295375A JP 2005295375 A JP2005295375 A JP 2005295375A JP 2004109943 A JP2004109943 A JP 2004109943A JP 2004109943 A JP2004109943 A JP 2004109943A JP 2005295375 A JP2005295375 A JP 2005295375A
- Authority
- JP
- Japan
- Prior art keywords
- information
- data
- keyword
- voice
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
【課題】情報の取捨選択の容易化および効率化を図るための技術を提供する。
【解決手段】 音声出力部が音声を出力しつつ、情報入力部1がユーザからの入力を待ち受ける。関心情報生成部が、ユーザ入力があった時に出力していた音声からキーワードを抽出する。また、この音声やキーワードに関連する番組が、録画部で自動的に録画され、録画データDBに格納される。マーキング部が録画データ中のキーワード登場箇所にマーキングを施し、再生制御部2はそのキーワード登場箇所を選んで部分的に再生を行う。
【選択図】図1
【解決手段】 音声出力部が音声を出力しつつ、情報入力部1がユーザからの入力を待ち受ける。関心情報生成部が、ユーザ入力があった時に出力していた音声からキーワードを抽出する。また、この音声やキーワードに関連する番組が、録画部で自動的に録画され、録画データDBに格納される。マーキング部が録画データ中のキーワード登場箇所にマーキングを施し、再生制御部2はそのキーワード登場箇所を選んで部分的に再生を行う。
【選択図】図1
Description
本発明は、膨大な情報の中から所望の情報を取得するための技術に関する。
ネットワーク通信技術や映像技術の進化、インターネットの普及、デジタル放送による多チャンネル化などにともなって、配信される情報量が爆発的に増加し、我々はいつでも膨大な情報や数多くのテレビ・ラジオ番組に接する環境の中にいる。そのさまは情報の洪水と言ってもよい。このような情報氾濫社会の中では、情報の受け手側にその取捨選択が求められる。しかし、膨大な情報の中から所望する情報に的確に辿りつくことは容易ではない。
インターネット上に公開されているテキスト情報(ページ情報)の場合は、検索サイトや検索ツールを効果的に使いこなせるだけのスキルがあれば、所望の情報を見つけ出すことも可能かもしれない。ところが、映像情報や音声情報、特にそれらの情報が放送またはネットワークを通じてブロードキャストされる番組の場合には、容易に検索することができない。それゆえ、番組表を見ながら自分の興味がありそうな番組をピックアップし、それらを全て録画または録音しておいて、後ほど有益な情報(映像や音声)が含まれているかどうか調べる、といった作業を行うしかない。
番組録画を支援する技術としては、端末に受信した電子番組表(EPG)を利用するものが知られている(特許文献1参照)。ユーザが通信端末に表示されたテレビ番組情報を見ながら所望する番組を指定すると、その番組を録画するための番組予約情報がビデオデッキに送信され、その番組予約情報に基づいて番組録画が実行されるものである。また最近では、キーワードを登録しておくと、EPGからキーワードを含む番組を自動的にピックアップし、ハードディスクやDVDなどの大容量記憶媒体に録画していく製品も登場している。
しかしながら、テレビチャンネル(番組供給源)が急増している現在では、番組表を見て所望の番組を選び出す操作自体がすでに煩雑といえる。つまり、番組表に含まれる情報が膨大になり過ぎており、どれを録画もしくは録音してよいのかユーザ側で取捨選択することが難しいのである(問題点1)。しかも、1つの番組には単一のコンテンツでなく複数のコンテンツが盛り込まれているのが一般的である(1情報1コンテンツでなく、1情報複数コンテンツ)。よって、所望のコンテンツと不要なコンテンツとの切り分けのために、ユーザは録画した番組をいちいちチェックしなくてはならず、時間と労力を浪費する結果となる(問題点2)。
また、音声案内を利用して記事情報の取得を支援する技術も知られている(特許文献2参照)。「概要」と「詳細な内容」の2パート構成になっている記事情報のうち概要部分のみを音声で案内し、ユーザが音声出力中に取得希望ボタンを押すと、対応する詳細な記事内容が送信される仕組みである。
しかしながら、この仕組みは、概要情報と詳細情報が予めセットで用意されている状態を前提としており、限られたサービスの範囲内でしか情報を取得することができない。つまり、取得対象となり得る情報の母集団が極めて小さく、インターネット、テレビ、ラジオなどの広範なメディアから情報収集を行うことができないという不利がある。またこの仕組みでも、ユーザ自身が詳細情報の中から所望のコンテンツを探し出さなくてはならない点は同じであり、上述した問題点2は解決されない。
また、映像情報のダイジェストを生成することで、映像の内容確認の支援を意図したシステムも知られている(特許文献3参照)。このシステムでは、番組の録画中にその代表画面を一覧表示したダイジェスト情報を作成する。
しかしながら、無作為に選んだ代表画面をダイジェスト表示したとしても、それが番組の内容を的確に捉える代表画面でない限り、予約録画した番組を後から見るに値するか否かを判断するための判断材料にはなり得ない。それゆえ、情報の見落としなどが起きる可能性があり、上記問題点2を解決する手段としてはさほど有効ではないといえる。
以上述べたように、膨大な情報の中から所望の情報を取得することは煩雑かつ困難であり、それを改善する有効な技術は存在しないのが実情である。
特開平8−19063号公報
特開平9−282278号公報
特許第3367268号明細書
本発明は上記実情に鑑みてなされたものであって、その目的とするところは、情報の取捨選択の容易化および効率化を図るための技術を提供することにある。
上記目的を達成するために本発明では、以下の手段または処理によってユーザによる電子情報の取得を支援する。ここで、電子情報とは、映像、音声もしくはテキスト、または、これらのうち2つ以上の組み合わせからなる情報をいい、典型的には、放送または電気通信回線を通じて提供されるテレビ番組やラジオ番組、あるいは、ページ情報に代表されるインターネット上の情報資源をさす。なお、以下に述べる手段および処理は、情報処理装置(コンピュータシステム)によって実現し実行されるものである。
まず、入力受付手段が、音声を出力しつつユーザからの入力を待ち受ける。そして、ユーザからの入力を受けると、キーワード抽出手段が、ユーザ入力があった時に出力されていた音声からキーワードを抽出する。
ここで音声出力する情報は、ユーザの関心事を探るために用意されたものであり、情報取得の「きっかけ」をユーザに与えるものである。例えば、テレビ番組やラジオ番組の内容を紹介する番組情報、商品やサービスを紹介する広告宣伝情報などでもよいし、あるいは、ニュースや番組そのものであってもよい。ユーザが何に関心を示すかは予想することが困難であるため、できるだけ種々雑多な情報を出力することが好ましい。
音声を利用すれば、ユーザは、車の運転や家事などの「必ずしなければならないこと」をしながら、さながらBGMでも聴くような感覚で(つまり情報に正対することなく)、広く浅く情報を受け取ることができる。そして、ユーザは、気になる番組、商品、時事、話題などの関心事を耳にした時にシステムに対して入力を行えばよい。それだけで、ユーザが耳にしていた音声の中から、ユーザの関心事が、コンピュータ処理に適したキーワードの形式で自動的に抽出される。
ユーザからの入力受付はどのような手段を採用してもよい。例えば、ユーザのボタン操作により受け付けてもよいし、音声入力により受け付けてもよい。音声入力の場合は、他の事をしながらの入力が容易になり、利便性が増す。
好ましくは、入力受付手段が、出力用の音声に対応するテキスト情報を保持しており、キーワード抽出手段が、ユーザ入力があった時に出力されていた音声に対応するテキスト情報を解析してキーワードを抽出するとよい。典型的には、テキストデータ(文字列)を形態素解析して、名詞や複合名詞を抽出すればよい。これによりキーワード抽出が容易になる。
音声出力に用いる情報としては、本システム用に予め作成された専用の情報を用いてもよいが、放送や電気通信回線を通じて配信されている汎用の情報を利用することも好ましい。専用の情報の場合は、対応関係にある音声情報とテキスト情報を予め用意しておくことが好ましい。汎用の情報としては、電子番組表(EPG)における番組データ、ポータルサイトやニュースサイトのテキスト情報、テレビ放送、ラジオ放送、データ放送などが想定される。このような汎用の情報を利用する場合には、入力受付手段が、テキスト情報から出力用の音声を生成する音声合成手段、または/および、出力用の音声をテキスト情報に変換する音声認識手段を有しているとよい。これにより、汎用の情報に音声またはテキストのいずれか一方しか含まれていない場合であっても、音声出力およびテキスト情報によるキーワード抽出を実行することができる。
以上のようにして1つまたは複数のキーワードが抽出されると、情報取得手段が、抽出されたキーワードを含む電子情報を取得し、記憶装置に格納する。ここでいうところの「取得」は、放送の受信、電気通信回線を通じた受信(ダウンロード)、上記記憶装置に既に格納されている電子情報の選択、他の記憶装置や記録媒体からの読み込み、を含む。また、電子情報が「キーワードを含む」とは、電子情報を構成する映像、音声もしくはテキストの中に、画像、音声、テキストのいずれかの形式でキーワードが含まれていることをいう。
好ましくは、入力受付手段が、電子情報の取得先もしくは取得方法を特定する識別子とその電子情報の内容紹介とを含む紹介情報に基づいて、電子情報の内容紹介を音声出力するものであり、情報取得手段が、ユーザ入力があった時に出力されていた内容紹介に対応する識別子に基づき電子情報を取得するものであるとよい。つまり、キーワード抽出のために用いる音声情報と、取得対象となる電子情報と、の間に予め対応関係がある場合である。例えば、電子情報が放送番組のときは、入力受付手段がEPGの番組データに含まれる番組紹介を音声出力し、情報取得手段が当該番組データに含まれる番組コード(識別子)に基づき放送番組を受信し記録すればよい。他にも、識別子としては、放送番組のチャンネルおよび時間、情報資源のURI(Uniform Resource Identifiers)などが想定される。この態様によれば、ユーザが内容紹介を聴き関心をもった番組や情報資源そのものが自動的に取得されることになる。
あるいは、情報取得手段が、抽出されたキーワードを検索キーとして検索を行い、索出された電子情報を記憶装置に格納することも好ましい。この態様によれば、音声情報と電子情報との間に対応関係がなくてもよく、検索対象となり得る広い範囲の中から該当する電子情報を自由に収集することができる。例えば、インターネット全体やデータベースを検索してキーワードを含む複数の情報資源をダウンロードしたり、EPGを検索してキーワードを含む複数の番組を受信したり、といった態様が想定される。
記憶装置に格納された1つまたは複数の電子情報については、ユーザの要求に応じて自由に再生可能であるが、加えて、本発明では、次のような部分的な再生処理を行うことができる。なお、ここでいうところの「再生」は、映像の表示、音声の出力、テキストの表示を含む。
すなわち、前記記憶装置から電子情報を読み出して再生する際に、部分再生手段が、前
記キーワードの登場箇所を選んで部分的に再生を行う。「部分的」とは、電子情報全体を再生するのでなく、その一部のみを再生するという意味である。登場箇所が複数ある場合には、ユーザ入力により、または、自動的に、再生箇所を順次切り替えるようにするとよい。
記キーワードの登場箇所を選んで部分的に再生を行う。「部分的」とは、電子情報全体を再生するのでなく、その一部のみを再生するという意味である。登場箇所が複数ある場合には、ユーザ入力により、または、自動的に、再生箇所を順次切り替えるようにするとよい。
このように部分的に再生された情報(部分情報)は、ユーザが関心を示したキーワードを必ず含むため、電子情報の他の部分に比べて、ユーザの希望に合致する可能性が極めて高い。よって、ユーザは、電子情報全体を視聴するまでもなく、部分情報のみを視聴するだけで、その電子情報が自分に有益かどうかの判断(情報の取捨選択)を簡単かつ効率的に行うことができる。また、この方法であれば、従来のような情報の見落としが生じる可能性も小さい。
好ましくは、部分再生手段が、電子情報の中から前記キーワードの登場箇所を探索する探索手段と、探索結果に基づいてキーワードの登場箇所を表すマーカ情報を生成するマーキング手段と、を有しており、前記マーカ情報を参照することにより該当部分の再生を行うとよい。予めマーカ情報を生成しておけば、部分再生すべき箇所への移動(スキップ)を高速に行うことができる。
さらに好ましくは、探索手段が、電子情報に画像が含まれる場合に、画像認識処理によって画像中のテキストを認識し、そのテキスト情報の中から前記キーワードを探索したり、電子情報に音声が含まれる場合に、音声認識処理によって音声をテキスト情報に変換し、そのテキスト情報の中から前記キーワードを探索したりするとよい。これにより、電子情報の形式(映像、音声、テキスト)によらず部分再生が可能となり、従来困難であった映像情報や音声情報の取捨選択が容易になる。
なお、本発明は、上記手段の少なくとも一部を有する情報取得支援システムとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含む情報取得支援方法、または、かかる方法を実現するためのプログラムとして捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、情報の取捨選択の容易化および効率化を図ることができる。
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。
<第1の実施形態>
[利用シーン]
本発明の第1の実施形態で想定している利用シーンは次のようなものである。
[利用シーン]
本発明の第1の実施形態で想定している利用シーンは次のようなものである。
(1)ユーザは帰宅途中の車、電車あるいはバスの中にいる。ユーザ端末からは、今晩放送される様々な番組のタイトルと番組の概要が音声にて出力されている。ユーザは聞くでもなし聞かぬでもなしの「ながら」状態で音声情報を聞き流している。
最近、体重が気になっていたので、「ダイエット特集2004」という番組の紹介に非常に興味をひかれた。そこですかさず「それ!」と発声し、ユーザ端末への音声入力を行う。また、手軽な運動に興味があったので、「テレビショッピング2004」のルームランナーの紹介にも興味をひかれた。そこですかさずユーザ端末のボタンを押し、ユーザ端末への入力を行う。
(2)ユーザ端末では、ユーザ入力があった時に出力されていた音声から「ダイエット」、「ルームランナー」などのキーワードが自動抽出される。また、番組の録画予約情報が生成される。これらの情報はセルラ通信や無線LAN通信により自宅のホームサーバに送信される。
(3)ホームサーバでは、ユーザ端末から受信した録画予約情報に従って、「ダイエット特集2004」および「テレビショッピング2004」が自動録画される。さらに、録画されたデータ中の「ダイエット」、「ルームランナー」などのキーワード登場箇所にマーキングが施される。
(4)帰宅後、ユーザがホームサーバの再生開始ボタンを押すと、「ダイエット特集2004」のうち「ダイエット」というキーワードが登場する部分の映像が再生され、つづけて、「テレビショッピング2004」のうち「ルームランナー」というキーワードが現れる部分の映像が再生される。
このように、ユーザが「ながら」状態で指示するだけで、システムが自動的に番組を録画し重要な部分を選び出しておいてくれる。よって、ユーザは所望の情報を容易かつ効率的に見つけることができる。
[構成]
図1は、第1の実施形態に係る情報取得支援システムの機能ブロック図である。同図を参照して、情報取得支援システムの構成について説明する。
図1は、第1の実施形態に係る情報取得支援システムの機能ブロック図である。同図を参照して、情報取得支援システムの構成について説明する。
情報取得支援システムは、1台または複数台の情報処理装置(コンピュータ)により構成可能である。本実施形態では、携帯可能なユーザ端末(モバイルPC、PDA、携帯電話など)と自宅に設置されるホームサーバとで構成されており、ユーザ端末側に、音声情報DB、再生制御部1、音声出力部、情報入力部1、関心情報生成部、関心情報DB、予約情報生成部が設けられ、ホームサーバ側に、放送受信部、録画部、録画データDB、マーキング部、マーカ情報DB、情報入力部2、再生制御部2、映像・音声出力部が設けられる。これらの諸機能は、情報取得支援プログラムがユーザ端末およびホームサーバのそれぞれのCPUにて実行されることで実現されるものである。
本実施形態では、音声情報DB、再生制御部1、音声出力部および情報入力部1が本発明の入力受付手段として機能し、関心情報生成部および関心情報DBが本発明のキーワード抽出手段として機能し、放送受信部、録画部および予約情報生成部が本発明の情報取得手段として機能し、録画データDBが本発明の記憶装置として機能し、マーキング部、マーカ情報DB、再生制御部2および映像・音声出力部が本発明の部分再生手段として機能する。
音声情報DBは、音声データと、該音声データに対応するテキストデータとが格納されるデータベースである。このデータは、少なくとも、番組のタイトルや番組の内容紹介など、番組内容がわかる情報を含む。また、このデータに、番組に対応する番組IDやコンテンツIDが含まれることが好ましい。番組IDやコンテンツIDは、番組や番組を構成する各コンテンツの取得先もしくは取得方法を特定する識別子であればよく、その形式は問わない。代表例としてGコードがある。また、放送形式(地上波アナログ、地上波デジタル、CS、BSデジタルなど)、チャンネル、番組開始の日時、番組の時間長などのデータが含まれていてもよい。
再生制御部1は、音声情報DBに格納されている音声データを順番に読み込み、音声出力部を使って再生する。音声出力部は、音声を出力する装置であって、例えばスピーカや
ヘッドホンが該当する。
ヘッドホンが該当する。
情報入力部1は、ユーザの入力を受け付ける機能である。ユーザ入力の方法には、ボタン操作による入力と音声入力の2通りが想定される。情報入力部1は両者を備えてもよいし、いずれか一方だけを備えてもよい。前者の方法では、情報入力部1にボタンやタッチパネルなどの入力装置を設ける。後者の方法では、マイクなどの音声入力装置と音声認識機能を設け、ユーザの特定の発話キーワード(例えば「それ!」、「そこ!」、「詳しく!」、「開始」、「終了」などの特定の言葉をユーザの声で予め登録しておく。)を検出して、特定の入力があった旨を判断する。情報入力部1では「関心あり」の入力を受け付け可能である。また、これ以外に、「音声出力開始」、「音声出力終了」の入力を受け付けられることが好ましい。図2に、情報入力部1の入力ボタンの一例を示す。
関心情報生成部は、ユーザ入力があった時に出力されていた音声からキーワードを抽出する機能である。詳しくは、ユーザ入力を検知すると、そのとき再生中の音声データに対応するテキストデータを音声情報DBから取得し、そのテキストデータに含まれる名詞または複合名詞をキーワードとして抽出する。さらに、音声情報DBから当該音声データに付随する番組ID(コンテンツID)を取得し、キーワードおよび番組ID(コンテンツID)からなる関心情報を生成する。この関心情報は、関心情報DBに格納される。このとき関心情報が作成された日時も格納されるとよい。
放送受信部は、放送を受信する装置である。例えば、放送電波を受信するアンテナ装置などが、これにあたる。
予約情報生成部は、関心情報生成部から受け取った番組ID(コンテンツID)に基づいて録画予約情報を生成し、録画部へ送信する。例えば、Gコードのような識別コードを録画予約情報として、録画部へ送信する。録画部が識別コードに非対応の場合は、予め用意された電子番組表(EPG)データから、番組ID(コンテンツID)に対応する、放送形式(地上波アナログ、地上波デジタル、CS、BSデジタルなど)、チャンネル番号、番組開始の日時、番組の時間長を抽出して、録画予約情報を生成し、録画部へ送る。EPGデータは、放送電波やインターネットなどを通じて、常時更新されていることが好ましい。
録画部は、タイマー機能とチューナ機能と番組データ保存機能を有する。録画部は、録画予約情報に従って、指定された日時に、指定された放送形式とチャンネルで放送される番組をデジタル録画する。録画されたデータは、番組ID(コンテンツID)とともに、録画データDBに保存される。録画部および録画データDBは、例えば、DVDレコーダ、HDレコーダなどで構成される。録画部に複数のチューナ(同調装置)を設ければ、放送時間が重複する複数の番組を並行して録画することも可能である。
なお、本実施形態では、取り扱う電子情報としてテレビ番組を想定して説明をしているが、例えばラジオ番組など音声のみの電子情報の場合も同様である。
マーキング部は、主に、録画データの中から上記キーワードの登場箇所を探索する機能(探索手段)と、探索結果に基づいてキーワードの登場箇所を表すマーカ情報を生成する機能(マーキング手段)とを有する。詳しくは、マーキング部は、録画データの音声部分を音声認識処理によってテキストデータに変換し、そのテキストデータに対して、関心情報のキーワードと一致する個所を特定し、その録画データ上での登場時間を取得する。そして、マーキング部は、取得した時間情報に基づき、番組ID(コンテンツID)、キーワードおよび時間マーカ(録画データの開始位置からの時間を示す。複数可。)の組からなるマーカ情報を生成する。マーカ情報はマーカ情報DBに保存される。
録画データから字幕データが抽出できる場合は、音声認識結果の代わりに、字幕データを使って同様にマーカ情報を生成してもよい。録画データの画像の部分を画像認識処理することで、画面中のテキストを取得できる場合は、その認識結果を使って同様にマーカ情報を生成してもよい。上記以外に、録画データに対して、その詳細内容と時間情報の関連が特定できるテキスト情報が付与されている場合には、そのテキスト情報を使って同様にマーカ情報を生成してもよい。
情報入力部2は、録画データの「再生開始」、「再生停止」、「スキップ」などの操作を受け付ける機能であり、ボタンやタッチパネルなどの入力装置を備える。また、マイクなどの音声入力装置と音声認識機能を設けて、特定の発話キーワードを検出して、特定の入力があった旨を判断するようにしてもよい。
再生制御部2は、情報入力部2で受け付けたユーザ入力に従って、録画データの再生を行う機能である。「再生開始」が入力されると、録画データの再生を開始する。再生中に「再生停止」が入力されると、再生を停止する。また、再生中に「スキップ」が入力されると、次の時間マーカの位置までスキップする。
映像・音声出力部は、映像と音声を出力する装置であり、例えば、CRT、LCD、PDPなどの映像出力装置と、スピーカなどの音声出力装置とから構成される。なお、電子情報としてラジオ番組のような音声のみの情報を扱う場合には、音声出力装置だけで構成してもよい。また、電子情報として動画または静止画のみの情報を扱う場合には、映像出力装置だけで構成してもよい。
図3に、情報入力部2の操作パネルと映像・音声出力部の外観の一例を示す。この例では、タッチパネル式モニタを用いて、動画や静止画などの録画データや収集データを表示する領域と、「スキップボタン」、「再生開始ボタン」、「再生停止ボタン」からなる操作パネルとが表示され、モニタの脇に音声出力用のスピーカが設置されている。
<変形例>
図4に、本実施形態の情報取得支援システムの変形例を示す。この変形例は、電子番組表(EPG)から音声合成により自動的に音声データを生成する構成を備える。この場合の構成は、図1で説明した構成に、番組表取得部と音声合成部を追加したものとなる。
図4に、本実施形態の情報取得支援システムの変形例を示す。この変形例は、電子番組表(EPG)から音声合成により自動的に音声データを生成する構成を備える。この場合の構成は、図1で説明した構成に、番組表取得部と音声合成部を追加したものとなる。
番組表取得部は、放送される番組に関する情報(電子番組表)を取得する。代表的な手段として、放送電波から電子番組表のデータを取得する方法がある。電子番組表は、各番組の、番組ID、放送形式(地上波アナログ、地上波デジタル、BSデジタル、CSデジタルなど)、チャンネル、番組開始日時、番組の時間長、番組タイトル、番組概要、番組の詳細な内容などから構成されるのが一般的である。番組を構成するコンテンツの単位で、上記の情報を取得できる場合もある。また、放送電波以外に、インターネットなどネットワーク上の情報サーバから番組表に関するデータを取得したり、CDなどの記録媒体から番組表に関するデータを取得するようにしてもよい。
音声合成部は、テキスト情報から出力用の音声を生成する音声合成手段である。音声合成部は、電子番組表に含まれる番組タイトル、番組概要、番組の詳細な内容などのテキストデータを音声データに変換し、テキストデータと音声データを関連づけて音声情報DBに格納する。
他の変形例として、音声情報取得部と音声認識部を追加する構成も好ましい。音声情報取得部は放送電波やインターネットを通じて音声による番組案内を取得する。そして音声
認識部が、その音声による番組案内を音声認識処理によりテキストデータに変換し、番組案内(音声データ)とテキストデータを関連づけて音声情報DBに格納する。
認識部が、その音声による番組案内を音声認識処理によりテキストデータに変換し、番組案内(音声データ)とテキストデータを関連づけて音声情報DBに格納する。
[処理手順]
図5および図6のフローチャートを参照して、情報取得支援システムにおける処理を説明する。なお、以下の処理は、情報取得支援システム(ユーザ端末もしくはホームサーバ)が実行するものである。
図5および図6のフローチャートを参照して、情報取得支援システムにおける処理を説明する。なお、以下の処理は、情報取得支援システム(ユーザ端末もしくはホームサーバ)が実行するものである。
(番組表を音声出力するフロー;図5左)
情報入力部1より「音声出力開始」が入力されると処理が開始される。
情報入力部1より「音声出力開始」が入力されると処理が開始される。
1.番組表受信
放送電波をアンテナで受信して、電子番組表に関するデータを取得する。
放送電波をアンテナで受信して、電子番組表に関するデータを取得する。
2.番組データ抽出
電子番組表データから番組データを抽出する(通常、電子番組表データは複数の番組データから構成される)。図7,図8に、番組データの例を示す。
電子番組表データから番組データを抽出する(通常、電子番組表データは複数の番組データから構成される)。図7,図8に、番組データの例を示す。
3.音声合成
番組データのタイトルと概要に関するテキスト情報を音声合成部により音声データに変換する。
番組データのタイトルと概要に関するテキスト情報を音声合成部により音声データに変換する。
4.音声再生
音声データをタイトル、概要の順番で再生して、スピーカにより音声を出力する。
音声データをタイトル、概要の順番で再生して、スピーカにより音声を出力する。
上記3,4の処理は全ての番組データに対して実行される。例えば、図7,図8の2つの番組データがある場合には、最初に「ダイエット2004 中国式ダイエットなどを紹介します。」という音声が出力され、つづけて「テレビショッピング2004 ダイエットのためのルームランナーを紹介します。」と出力される。すべての番組データについて処理が完了した場合、もしくは、情報入力部1より「音声出力終了」が入力された場合、本フローは終了する。
(関心情報生成のフロー;図5中央)
情報入力部1より「音声出力開始」が入力されると処理が開始される。本フローは、上述した「番組表を音声出力するフロー」と並列に実行される。
情報入力部1より「音声出力開始」が入力されると処理が開始される。本フローは、上述した「番組表を音声出力するフロー」と並列に実行される。
音声が出力されている間、情報入力部1はユーザからの入力を待ち受けている。「音声出力終了」が入力されるか、番組表の音声出力が終了したら、本フローは終了する。音声出力中にボタン操作または音声入力により「関心あり」が入力されると、以下の1〜4の処理を実行する。
1.再生中番組データの取得
関心情報生成部はまず、音声情報DBから、「関心あり」のユーザ入力があった時に出力されていた音声に対応する番組IDを取得する。例えば、図7の番組データの音声再生中に入力があったならば、「1-50-200410101700」が、図8の番組データの音声再生中に
入力があったならば、「1-60-200410101200」が取得される。
関心情報生成部はまず、音声情報DBから、「関心あり」のユーザ入力があった時に出力されていた音声に対応する番組IDを取得する。例えば、図7の番組データの音声再生中に入力があったならば、「1-50-200410101700」が、図8の番組データの音声再生中に
入力があったならば、「1-60-200410101200」が取得される。
2.関心情報作成
関心情報生成部が、音声情報DBから番組IDに対応する番組データの「タイトル」、「概要」のテキストデータを取得する。テキストデータを形態素解析し、名詞または複合名詞をキーワードとして抽出する。抽出したキーワードと番組IDを合せて関心情報とす
る。関心情報は関心情報DBに保存する。
関心情報生成部が、音声情報DBから番組IDに対応する番組データの「タイトル」、「概要」のテキストデータを取得する。テキストデータを形態素解析し、名詞または複合名詞をキーワードとして抽出する。抽出したキーワードと番組IDを合せて関心情報とす
る。関心情報は関心情報DBに保存する。
図9,図10に関心情報の例を示す。この例では、番組ごとに関心情報が生成されている。図9の関心情報には、キーワードとして「ダイエット」、「中国式ダイエット」という単語が登録されており、図10の関心情報には、「テレビショッピング」、「ダイエット」、「ルームランナー」という単語が登録されている。
ここでキーワードを抽出する方法としては、上記手法に限らず、情報検索の分野で知られている各種手法を利用してもよい。例えば、単純に名詞や複合名詞を抽出するのではなく、不要語リストなどを用意しておき、不要語がキーワードに含まれないようにしてもよい。また、名詞や複合名詞以外の品詞をキーワードとして扱ってもよい。また、形態素解析した結果の単語の出現頻度などを考慮してキーワードを決定してもよい。
3.予約情報生成
予約情報生成部が、番組IDに対応する番組データに基づいて録画予約に必要なデータ(録画予約情報)を作成する。録画予約情報は、図11の例に示すように、番組データから抽出した、番組ID、放送形式、チャンネル、番組開始の日時、番組の時間長を含む。
予約情報生成部が、番組IDに対応する番組データに基づいて録画予約に必要なデータ(録画予約情報)を作成する。録画予約情報は、図11の例に示すように、番組データから抽出した、番組ID、放送形式、チャンネル、番組開始の日時、番組の時間長を含む。
4.録画予約設定
録画部に対して、前記予約情報を何らかの通信手段を用いて送信して、録画予約設定を行う。例えば、録画部(ホームサーバ)が遠距離にある場合には、セルラ通信網やインターネットなどを利用して録画予約情報を送信するとよい。近距離にある場合には、有線通信、あるいは、赤外線通信や無線LANやBluetoothなどを利用して録画予約情報を送信してもよい。
録画部に対して、前記予約情報を何らかの通信手段を用いて送信して、録画予約設定を行う。例えば、録画部(ホームサーバ)が遠距離にある場合には、セルラ通信網やインターネットなどを利用して録画予約情報を送信するとよい。近距離にある場合には、有線通信、あるいは、赤外線通信や無線LANやBluetoothなどを利用して録画予約情報を送信してもよい。
録画部は、指定された録画予約情報に従い該当する番組を録画する。録画されたデータは、MPEGなどの形式で録画データDBに格納される。
(録画データに対するマーキングのフロー;図5右)
録画部による番組録画が終了するたびに、未マーキングの録画データ1つ1つに対して、以下1〜4の処理が実行される。
録画部による番組録画が終了するたびに、未マーキングの録画データ1つ1つに対して、以下1〜4の処理が実行される。
1.対応する関心情報(キーワード)を取得
マーキング部が、ある録画データに対応する関心情報を関心情報DBから取得する。このとき番組IDを参照して関心情報と録画データの対応関係をとる。関心情報の送受信についても、録画予約情報と同じ通信手段を用いればよい。
マーキング部が、ある録画データに対応する関心情報を関心情報DBから取得する。このとき番組IDを参照して関心情報と録画データの対応関係をとる。関心情報の送受信についても、録画予約情報と同じ通信手段を用いればよい。
2.音声認識
マーキング部が、1で着目した録画データの音声部分に対して、音声認識処理を行い、録画データと音声認識結果を対応させた「録画テキストデータ」を作成する。「録画テキストデータ」は、音声認識結果のテキスト情報と、該テキスト情報が対応する録画データ上の時間情報から構成される。図9の番組IDに対応する録画テキストデータは、例えば図12のようになる。
マーキング部が、1で着目した録画データの音声部分に対して、音声認識処理を行い、録画データと音声認識結果を対応させた「録画テキストデータ」を作成する。「録画テキストデータ」は、音声認識結果のテキスト情報と、該テキスト情報が対応する録画データ上の時間情報から構成される。図9の番組IDに対応する録画テキストデータは、例えば図12のようになる。
3.時間マーカを生成
マーキング部が、関心情報からキーワードを取得し、2で生成した録画テキストデータの中からキーワードの登場箇所を探索する。キーワードが見つかるたびに、録画データ上の登場時間(時間マーカ)を記憶していく。図12の録画テキストデータの場合、「ダイエット」というキーワードについては、0分43秒、0分50秒、1分30秒、・・・となる。同様に、「中国式ダイエット」というキーワードについては、0分43秒、1分3
0秒、・・・となる。
マーキング部が、関心情報からキーワードを取得し、2で生成した録画テキストデータの中からキーワードの登場箇所を探索する。キーワードが見つかるたびに、録画データ上の登場時間(時間マーカ)を記憶していく。図12の録画テキストデータの場合、「ダイエット」というキーワードについては、0分43秒、0分50秒、1分30秒、・・・となる。同様に、「中国式ダイエット」というキーワードについては、0分43秒、1分3
0秒、・・・となる。
4.マーカ情報保存
マーキング部が、録画データの番組ID、該当する関心情報のキーワード、および、時間マーカからマーカ情報を生成し、マーカ情報DBに格納する。番組IDが同一で、キーワードが複数ある場合は、キーワードごとにマーカ情報を作るとよい。例えば、3で述べたように「ダイエット」と「中国式ダイエット」の2つのキーワードでマーキング処理を行った場合には、図13および図14に示すように、マーカ情報は2つ作成され保存される。
マーキング部が、録画データの番組ID、該当する関心情報のキーワード、および、時間マーカからマーカ情報を生成し、マーカ情報DBに格納する。番組IDが同一で、キーワードが複数ある場合は、キーワードごとにマーカ情報を作るとよい。例えば、3で述べたように「ダイエット」と「中国式ダイエット」の2つのキーワードでマーキング処理を行った場合には、図13および図14に示すように、マーカ情報は2つ作成され保存される。
(再生フロー;図6)
情報入力部2より「再生開始」が入力されると処理が開始される。
情報入力部2より「再生開始」が入力されると処理が開始される。
1.マーカ情報を同一キーワードでグループ化
再生制御部2が、マーカ情報DB内のマーカ情報を同じキーワードでグループ化し、グループ単位で2以降の処理を行う。例えば、図13,図15,図16の3つのマーカ情報がマーカ情報DB内にあった場合は、図13と図16の2つのマーカ情報は、異なる番組ではあるがキーワードが「ダイエット」で同一であるため、1つのグループとして以下の処理を行うことになる。
再生制御部2が、マーカ情報DB内のマーカ情報を同じキーワードでグループ化し、グループ単位で2以降の処理を行う。例えば、図13,図15,図16の3つのマーカ情報がマーカ情報DB内にあった場合は、図13と図16の2つのマーカ情報は、異なる番組ではあるがキーワードが「ダイエット」で同一であるため、1つのグループとして以下の処理を行うことになる。
2.あるグループのマーカ情報に対して処理
再生制御部2が、グループ内の各マーカ情報に対して、3以降の処理を行う。例えば、図13と図16の2つのマーカ情報が同一グループであるから、図13のマーカ情報、図16のマーカ情報の順で、3以降の処理を行う。なお、一つのグループに対する処理が終了すると、次のグループである図15のマーカ情報に関する処理が行われる。
再生制御部2が、グループ内の各マーカ情報に対して、3以降の処理を行う。例えば、図13と図16の2つのマーカ情報が同一グループであるから、図13のマーカ情報、図16のマーカ情報の順で、3以降の処理を行う。なお、一つのグループに対する処理が終了すると、次のグループである図15のマーカ情報に関する処理が行われる。
3.マーカ情報取得
再生制御部2が、該当するマーカ情報を取得する。例えば、図13のマーカ情報を取得する。
再生制御部2が、該当するマーカ情報を取得する。例えば、図13のマーカ情報を取得する。
4.録画データ取得
再生制御部2が、マーカ情報の番組IDに一致する録画データを録画データDBから取得する。例えば、図13のマーカ情報の場合は、番組IDが「1-50-2004101017」である
から、該番組IDの録画データを録画データDBから取得する。
再生制御部2が、マーカ情報の番組IDに一致する録画データを録画データDBから取得する。例えば、図13のマーカ情報の場合は、番組IDが「1-50-2004101017」である
から、該番組IDの録画データを録画データDBから取得する。
5.最初の時間マーカの位置から再生
再生制御部2が、マーカ情報に記述されている時間マーカの最も早い位置から再生を開始する。ただし、時間マーカがない場合は、録画データの最初から再生を開始する。再生された映像・音声は、モニタとスピーカから構成される映像・音声出力部からそれぞれ出力される。例えば、図13のマーカ情報の場合は、最初の時間マーカは0分43秒であるから、該番組IDの録画データを0分43秒の位置から再生する。
再生制御部2が、マーカ情報に記述されている時間マーカの最も早い位置から再生を開始する。ただし、時間マーカがない場合は、録画データの最初から再生を開始する。再生された映像・音声は、モニタとスピーカから構成される映像・音声出力部からそれぞれ出力される。例えば、図13のマーカ情報の場合は、最初の時間マーカは0分43秒であるから、該番組IDの録画データを0分43秒の位置から再生する。
以降の処理、「番組の終了位置またはコンテンツの終了位置まで再生?」「スキップ操作あり?」「次の時間マーカあり?」「次の時間マーカの位置から再生」に関しては、以下のように、場合わけして説明する。
(1)録画データの再生が、録画データの番組の終了位置もしくは番組を構成するコンテンツの終了位置まできた場合
着目しているマーカ情報に終了位置以降の時間マーカがあれば、その時間マーカ位置ま
でスキップして再生を継続する。該マーカ情報に終了位置以降の時間マーカがなければ、次のマーカ情報に対して、3から処理を行う。なお、本実施形態では、番組の終了位置は、録画データの終了位置としている。
でスキップして再生を継続する。該マーカ情報に終了位置以降の時間マーカがなければ、次のマーカ情報に対して、3から処理を行う。なお、本実施形態では、番組の終了位置は、録画データの終了位置としている。
例えば、図13のマーカ情報については、番組ID「1-50-2004101017」の録画データ
が0分43秒から再生されるが、該録画データの最後まで再生された場合には、次のマーカ情報(図16)に従い、番組ID「1-60-200410101200」の録画データが5分10秒の
位置から再生される。
が0分43秒から再生されるが、該録画データの最後まで再生された場合には、次のマーカ情報(図16)に従い、番組ID「1-60-200410101200」の録画データが5分10秒の
位置から再生される。
ここで、番組データにコンテンツが複数含まれ、それらコンテンツの終了位置が特定できる場合は、再生の終了位置として利用するとよい。コンテンツの終了位置の情報は、録画データ自身に埋め込まれていても良いし、電子番組表の番組データから取得して利用するようにしてもよい。
例えば、図13のマーカ情報について処理を行う際に、図17に示すように番組IDのコンテンツ終了位置がわかっていた場合には、録画データの0分43秒の位置から再生が開始され、1分00秒で再生がいったん終了する。そして、マーカ情報から次の時間マーカが取得され、その位置(1分30秒)へスキップして再生されることになる。
(2)再生中に情報入力部2に「スキップ」の入力があった場合
着目しているマーカ情報に、現在の再生位置以降の時間マーカがあれば、その時間マーカ位置までスキップして再生を継続する。着目しているマーカ情報に、現在の再生位置以降の時間マーカがなければ、次のマーカ情報に対して、3以降の処理を行う。
例えば、図13のマーカ情報に基づき番組ID「1-50-2004101017」の録画データを再
生している際、0分58秒の時点で「スキップ」入力があった場合には、番組ID「1-50-2004101017」の録画データの1分30秒の位置へスキップして再生される。
生している際、0分58秒の時点で「スキップ」入力があった場合には、番組ID「1-50-2004101017」の録画データの1分30秒の位置へスキップして再生される。
また、例えば、図13のマーカ情報に基づき番組ID「1-50-2004101017」の録画デー
タを再生している際、1分45秒の時点で「スキップ」入力があった場合には、次のマーカ情報(図16)に従い、番組ID「1-60-200410101200」の録画データが5分10秒の
位置から再生される。
タを再生している際、1分45秒の時点で「スキップ」入力があった場合には、次のマーカ情報(図16)に従い、番組ID「1-60-200410101200」の録画データが5分10秒の
位置から再生される。
また、フローチャートには記述していないが、情報入力部2に「再生停止」の入力があった場合には、再生中であっても再生を中断して、本フローを終了する。
以上述べた本実施形態によれば、ユーザが流れている音声情報に関心を示すだけで、自動的にテレビ番組やラジオ番組が記録され、さらに、それらのデータを再生する際には、ユーザが関心を示したキーワードの登場部分が部分的に再生される。よって、特別な操作をすることなく、ユーザは、簡単かつ効率的に所望の電子情報を取得することができる。
<第2の実施形態>
次に、本発明の第2の実施形態に係る情報取得支援システムを説明する。第1の実施形態では、ユーザが関心を示した番組を予約録画する構成を採用したが、第2の実施形態では、関心情報とは無関係に番組を録画・蓄積しておいて、後ほど、キーワードを含む録画データだけを選び出す構成を採用する。
次に、本発明の第2の実施形態に係る情報取得支援システムを説明する。第1の実施形態では、ユーザが関心を示した番組を予約録画する構成を採用したが、第2の実施形態では、関心情報とは無関係に番組を録画・蓄積しておいて、後ほど、キーワードを含む録画データだけを選び出す構成を採用する。
なお、以下では、第2の実施形態に特徴的な部分を中心に説明し、第1の実施形態と共通する部分については説明を省略する。
[構成]
図18は、第2の実施形態に係る情報取得支援システムの機能ブロック図である。
図18は、第2の実施形態に係る情報取得支援システムの機能ブロック図である。
本実施形態では、音声情報DB、再生制御部1、音声出力部および情報入力部1が本発明の入力受付手段として機能し、関心情報生成部および関心情報DBが本発明のキーワード抽出手段として機能し、検索・マーキング部が本発明の情報取得手段として機能し、録画データDB2が本発明の記憶装置として機能し、検索・マーキング部、マーカ情報DB、再生制御部2および映像・音声出力部が本発明の部分再生手段として機能する。
録画部は、番組を録画し、録画データを番組IDとともに録画データDB1に保存する。番組IDは録画データを特定できるものであればどのような情報であってもよい。録画部では放送されるすべての番組を録画してもよいし、無作為に選んだ番組を録画してもよい。また、予め登録されている条件(例えば、チャンネル、時間帯、ジャンル、出演者など)に合致する番組を自動的に選んで録画することも好ましい。
検索・マーキング部は、録画データDB1に格納された全ての録画データについて、その音声部分を音声認識処理によってテキスト情報に変換する。そして、そのテキスト情報に対して、関心情報のキーワードと一致する個所を特定し、その録画データ上での登場時間を取得する。そして、検索・マーキング部は、取得した時間情報に基づき、番組ID、キーワードおよび時間マーカ(録画データの開始位置からの時間を示す。複数可。)の組からなるマーカ情報を生成する。マーカ情報はマーカ情報DBに保存される。
また、検索・マーキング部は、マーカ情報がある録画データ(つまり、関心情報のキーワードが含まれる録画データ)を録画データDB2にコピーし、録画データDB1内の録画データを削除する。また、マーカ情報がない録画データ(つまり、関心情報のキーワードが含まれない録画データ)は、録画データDB1から削除する。すなわち、録画データDB1は録画データが一時的に格納される1次記憶部であり、録画データDB2は検索・マーキング部で必要と判断された番組ID付き録画データが保存される2次記憶部である。
録画データから字幕データが抽出できる場合は、音声認識結果の代わりに、該字幕データを使って同様に処理してもよい。録画データの画像の部分を画像認識処理することで、画面中のテキストを取得できる場合は、その認識結果を使って同様の処理をしてもよい。録画データに上記以外の番組の詳細内容を特定できるテキスト情報が付与されている場合には、そのテキスト情報を使って同様の処理をしてもよい。
音声情報DBは、音声データとテキストデータの対が1つの情報として(複数)保存されるデータベースである。第1の実施形態と異なり、番組を特定するための識別子(例えば、第1実施形態で説明したGコードのような番組IDやコンテンツID)を含まなくてもよい。
[処理手順]
図19のフローチャートを参照して、情報取得支援システムにおける処理を説明する。なお、以下の処理は、情報取得支援システム(ユーザ端末もしくはホームサーバ)が実行するものである。
図19のフローチャートを参照して、情報取得支援システムにおける処理を説明する。なお、以下の処理は、情報取得支援システム(ユーザ端末もしくはホームサーバ)が実行するものである。
(音声出力するフロー;図19左)
情報入力部1より「音声出力開始」が入力されると処理が開始される。
情報入力部1より「音声出力開始」が入力されると処理が開始される。
1.音声再生
音声情報DBに蓄積されている音声データを順番に再生して、スピーカにより音声を出力する。
音声情報DBに蓄積されている音声データを順番に再生して、スピーカにより音声を出力する。
音声情報DBに格納されたすべての音声データについて上記1の処理が完了した場合、もしくは、「音声出力終了」が入力された場合、本フローは終了する。
(関心情報生成のフロー;図19中央)
情報入力部1より「音声出力開始」が入力されると処理が開始される。本フローは、上述した「音声出力するフロー」と並列に実行される。
情報入力部1より「音声出力開始」が入力されると処理が開始される。本フローは、上述した「音声出力するフロー」と並列に実行される。
音声が出力されている間、情報入力部1はユーザからの入力を待ち受けている。「音声出力終了」が入力されるか、「音声出力するフロー」が終了したら、本フローは終了する。音声出力中に「関心あり」が入力されると、以下の1,2の処理を実行する。
1.再生中音声データのテキスト情報の取得
関心情報生成部が、音声情報DBから、ユーザ入力があった時に出力されていた音声データに対応するテキストデータを取得する。
関心情報生成部が、音声情報DBから、ユーザ入力があった時に出力されていた音声データに対応するテキストデータを取得する。
2.関心情報作成
関心情報生成部が、テキストデータを形態素解析し、名詞または複合名詞をキーワードとして抽出する。本実施形態では、キーワードを関心情報とする。関心情報は関心情報DBに保存される。
関心情報生成部が、テキストデータを形態素解析し、名詞または複合名詞をキーワードとして抽出する。本実施形態では、キーワードを関心情報とする。関心情報は関心情報DBに保存される。
第1の実施形態の「関心情報作成」の処理との違いは、番組IDを含まない点である。それ以外の処理内容は、第1の実施形態と同一のため説明は割愛する。
例えば、テキストデータが「ダイエットの最新情報です。中国式ダイエットなどを紹介します。」の場合には、関心情報は図20のようになる。また「テレビショッピング。手軽にできるルームランナーを紹介します。」の場合には、関心情報は図21のようになる。
(録画データに対するマーキングのフロー;図19右)
録画部による番組録画が終了するたびに、未マーキングの録画データ1つ1つに対して、以下1〜4の処理が実行される。
録画部による番組録画が終了するたびに、未マーキングの録画データ1つ1つに対して、以下1〜4の処理が実行される。
1.全ての関心情報(キーワード)を取得
検索・マーキング部が、関心情報DBから、全ての関心情報のキーワードを取得する。複数の関心情報に同一のキーワードが含まれている場合は、そのうち1つだけを取得するようにする。
検索・マーキング部が、関心情報DBから、全ての関心情報のキーワードを取得する。複数の関心情報に同一のキーワードが含まれている場合は、そのうち1つだけを取得するようにする。
例えば、関心情報が、図20と図21に示す2つしかない場合には、キーワードは、「ダイエット」、「最新情報」、「中国式ダイエット」、「テレビショッピング」、「ルームランナー」の5つが抽出される。
なお、キーワードの数が多すぎる場合には、関心情報のタイムスタンプを参照し、直前の一定期間内の情報だけを用いるようにしてもよい。あるいは、登場回数の多いキーワードほど優先して用いるようにしてもよい。
2.音声認識
検索・マーキング部が、ある録画データの音声部分に対して、音声認識処理を行い、録画データと音声認識結果を対応させた「録画テキストデータ」を作成する(この処理は、第1の実施形態の「音声認識」に関する処理と同一である)。例えば、番組ID「1-50-2004101017」の録画データに対しては、図12のような録画テキストデータが作成される
。
検索・マーキング部が、ある録画データの音声部分に対して、音声認識処理を行い、録画データと音声認識結果を対応させた「録画テキストデータ」を作成する(この処理は、第1の実施形態の「音声認識」に関する処理と同一である)。例えば、番組ID「1-50-2004101017」の録画データに対しては、図12のような録画テキストデータが作成される
。
3.時間マーカを生成
検索・マーキング部が、2で生成した録画テキストデータの中から各キーワードの登場箇所を探索し、その登場時間(時間マーカ)を取得する。キーワードが、「ダイエット」、「最新情報」、「中国式ダイエット」、「テレビショッピング」、「ルームランナー」の5つであるならば、5つのキーワードそれぞれについて登場時間を調べる。例えば、「ダイエット」というキーワードが0分43秒、0分50秒、1分30秒、・・・に登場し、「中国式ダイエット」というキーワードが、0分43秒、1分30秒、・・・に登場し、その他のキーワードは登場しなかったとする。
検索・マーキング部が、2で生成した録画テキストデータの中から各キーワードの登場箇所を探索し、その登場時間(時間マーカ)を取得する。キーワードが、「ダイエット」、「最新情報」、「中国式ダイエット」、「テレビショッピング」、「ルームランナー」の5つであるならば、5つのキーワードそれぞれについて登場時間を調べる。例えば、「ダイエット」というキーワードが0分43秒、0分50秒、1分30秒、・・・に登場し、「中国式ダイエット」というキーワードが、0分43秒、1分30秒、・・・に登場し、その他のキーワードは登場しなかったとする。
4.時間マーカあり?
2で注目した録画データに対して、時間マーカが生成された場合には、5以降の処理を行う。生成されなかった場合には、7以降の処理を行う。
2で注目した録画データに対して、時間マーカが生成された場合には、5以降の処理を行う。生成されなかった場合には、7以降の処理を行う。
5.マーカ情報保存
時間マーカがあるキーワードに対して、以下の処理を行う。
時間マーカがあるキーワードに対して、以下の処理を行う。
検索・マーキング部が、録画データの番組ID、該当する関心情報のキーワード、および、時間マーカからマーカ情報を生成し、マーカ情報DBに格納する。番組IDが同一で、キーワードが複数ある場合は、キーワードごとにマーカ情報を作るとよい。例えば、ある番組IDに対してキーワードが2つある場合には、第1の実施形態における図13、図14のように、マーカ情報は2つ作成され保存される。
6.録画データ2として保存
2で注目した録画データを録画データDB2へコピーする。
2で注目した録画データを録画データDB2へコピーする。
7.録画データ1を削除
2で注目した録画データを録画データDB1から削除する。つまり、時間マーカがある録画データは録画データDB2に残るが、それ以外の録画データは消去される。
2で注目した録画データを録画データDB1から削除する。つまり、時間マーカがある録画データは録画データDB2に残るが、それ以外の録画データは消去される。
以上の処理により、第1の実施形態と同様、録画データDB2には録画データが用意され、マーカ情報DBには録画データに対応したマーカ情報が用意される。従って、第1の実施形態と同じ再生フローにより、録画データのキーワード登場箇所を選んで部分的に再生することができる。
<第3の実施形態>
次に、本発明の第3の実施形態に係る情報取得支援システムを説明する。本実施形態は、ユーザが関心を示したキーワードを検索キーとして電子情報を検索し取得する構成を採用している。また、上記実施形態では放送番組を取得対象としたのに対し、本実施形態では、インターネットなどで公開されているページ情報、映像情報、音声情報などの情報資源も取得対象に加えている。
次に、本発明の第3の実施形態に係る情報取得支援システムを説明する。本実施形態は、ユーザが関心を示したキーワードを検索キーとして電子情報を検索し取得する構成を採用している。また、上記実施形態では放送番組を取得対象としたのに対し、本実施形態では、インターネットなどで公開されているページ情報、映像情報、音声情報などの情報資源も取得対象に加えている。
なお、以下では、第3の実施形態に特徴的な部分を中心に説明し、上記実施形態と共通する部分については説明を省略する。
[利用シーン]
本発明の第3の実施形態で想定している利用シーンは次のようなものである。
本発明の第3の実施形態で想定している利用シーンは次のようなものである。
(1)ユーザは帰宅途中の車、電車あるいはバスの中にいる。ユーザ端末からは、ニュースが音声にて出力されている。ユーザは聞くでもなし聞かぬでもなしの「ながら」状態で音声情報を聞き流している。
そこへ気になるニュースが流れる。「ついさきほど、突然の首相辞任で、衆議院も解散。与野党の思惑が入り乱れ、政局混乱。衆院選でついに政界再編へと大きく政治が動き出した・・・。」
そこですかさずユーザ端末に「関心あり」の入力を行う。
そこですかさずユーザ端末に「関心あり」の入力を行う。
(2)ユーザ端末では、ユーザ入力があった時に出力されていた音声から「首相辞任」、「解散」などのキーワードが自動抽出される。抽出されたキーワードは自宅のホームサーバに送信される。
(3)ホームサーバでは、キーワードを検索キーとして、情報の検索および収集が行われる。このとき、テレビの報道番組だけでなく、インターネット上の新聞社サイトやポータルサイトやデータベースの記事情報など広範な範囲から情報が集められる。索出された情報は、キーワード登場箇所にマーキングが施され、記憶装置に次々と蓄積される。
(4)帰宅後、ユーザがホームサーバの再生開始ボタンを押すと、収集された電子情報のうちキーワードが登場する部分の内容が順に再生される。ユーザはゆっくりと気になる情報のみを視聴できる。
ニュースの場合には一般に多くの番組やサイトで取り上げられるので、ユーザは、取材方針や表現の違いを見比べることができ、自らが気になる情報のみについて多面的に比較検討することが出来る。そして、十分堪能したら、再生終了の指示を入力して視聴を中止すればよい。
[構成]
図22は、第3の実施形態に係る情報取得支援システムの機能ブロック図である。
図22は、第3の実施形態に係る情報取得支援システムの機能ブロック図である。
本実施形態では、音声情報DB、再生制御部1、音声出力部および情報入力部1が本発明の入力受付手段として機能し、関心情報生成部および関心情報DBが本発明のキーワード抽出手段として機能し、放送受信部、録画部、予約情報生成部および情報収集部が本発明の情報取得手段として機能し、録画データDBおよび収集データDBが本発明の記憶装置として機能し、マーキング部、マーカ情報DB、再生制御部2および映像・音声出力部が本発明の部分再生手段として機能する。
情報収集部は、関心情報のキーワードを検索キーとして用いて、データベースやウェブサイトにある情報の検索を行い、キーワードにヒットする情報を収集する。代表的な例は、インターネットの情報を検索する検索エンジンである。
収集データDBは、情報収集部で収集した情報が蓄積されるデータベースである。テキストや画像や動画などのマルチメディアデータ、HTML、XMLなどのハイパーテキストデータ、ワープロや表計算などのアプリケーションで使用するデータなどの情報資源が対象となる。
マーキング部は、第1の実施形態で示したマーキング処理に加えて、収集データに関し
てもマーキングをしてもよい。収集データが動画の場合は、録画データと同様の処理をすればよい。また、収集データがテキストデータやハイパーテキストデータの場合は、対応するキーワードを保持するとよい。マーキング部では、収集データの種別に応じて次のようなマーカ情報が生成される。録画データ用のマーカ情報は、種別(録画データ)、番組ID、キーワード、時間マーカ(録画データの開始位置からの時間を示す。複数可。)を含む。動画データ用のマーカ情報は、種別(動画データ)、ファイル名もしくはID、キーワード、時間マーカ(動画データの開始位置からの時間を示す。複数可。)を含む。それ以外のデータ用のマーカ情報は、種別(収集データ(テキストorHTMLor画像or・・・)、ファイル名もしくはID、キーワード(複数可)を含む。マーカ情報はマーカ情報DBに保存される。
てもマーキングをしてもよい。収集データが動画の場合は、録画データと同様の処理をすればよい。また、収集データがテキストデータやハイパーテキストデータの場合は、対応するキーワードを保持するとよい。マーキング部では、収集データの種別に応じて次のようなマーカ情報が生成される。録画データ用のマーカ情報は、種別(録画データ)、番組ID、キーワード、時間マーカ(録画データの開始位置からの時間を示す。複数可。)を含む。動画データ用のマーカ情報は、種別(動画データ)、ファイル名もしくはID、キーワード、時間マーカ(動画データの開始位置からの時間を示す。複数可。)を含む。それ以外のデータ用のマーカ情報は、種別(収集データ(テキストorHTMLor画像or・・・)、ファイル名もしくはID、キーワード(複数可)を含む。マーカ情報はマーカ情報DBに保存される。
情報入力部2は、録画データや収集データの「再生開始」、「再生停止」、「スキップ」などの操作を受け付ける機能であり、ボタンやタッチパネルやマウスなどの入力装置を備える。また、マイクなどの音声入力装置と音声認識機能を設けて、特定の発話キーワードを検出して、特定の入力があった旨を判断するようにしてもよい。また、ハイパーテキストを取り扱う場合には、ハイパーテキスト上のリンク個所を指定するための入力ができることが好ましい。また、映像・音声出力部において、スライダーを表示する場合には、スライダーを操作するための入力ができることが好ましい。
再生制御部2は、情報入力部2で受け付けたユーザ入力に従って、録画データや収集データの再生を行う機能である。「再生開始」が入力されると、録画データや収集データを順次再生する。なお、「再生」には「画像やテキストの表示」や「音声の出力」も含まれる。(テキスト情報やHTMLを表示する場合は、必要に応じて、上下、左右のスライダーを用意してもよい。また、HMTLのリンク個所は、マウス等を用いてポインタでクリックしてリンク先が表示できるようにするとよい。リンク先の表示は、例えば、別途ブラウザで表示するようにしてもよい。)
録画データおよび動画データの再生開始位置は、対応するマーカ情報の時間マーカの位置とする。また、テキスト情報やHTMLなどを表示する場合には、例えば、キーワードの現れる個所が表示領域に表示されるように上下、左右に予めスライドさせて表示させたり、キーワードに対応する個所の文字色を変えたり、下線を引いたり、点滅させたりするなどするとよい。
再生中に「再生停止」が入力されると、再生を終了する。
また、再生中に「スキップ」が入力されると、再生中の録画データや動画データに次の時間マーカがある場合は、その位置までスキップして再生を行う。次の時間マーカがない場合は、当該データの再生は中止し、次の録画データや収集データを再生する。テキストや静止画やハイパーテキストなどを表示している時に、「スキップ」が入力されると、データ中の次のキーワード登場箇所に表示を切り替えたり、次の録画データや収集データを再生したりする。
[処理手順]
図23および図24のフローチャートを参照して、情報取得支援システムにおける処理を説明する。なお、以下の処理は、情報取得支援システム(ユーザ端末もしくはホームサーバ)が実行するものである。
図23および図24のフローチャートを参照して、情報取得支援システムにおける処理を説明する。なお、以下の処理は、情報取得支援システム(ユーザ端末もしくはホームサーバ)が実行するものである。
放送番組に関する処理、すなわち「番組表を音声出力するフロー」、「関心情報生成のフロー」、「録画データに対するマーキングのフロー」に関しては、第1の実施形態で説明した内容(図5)と同一のため、説明を割愛する。
以下では、「ついさきほど、突然の首相辞任で、衆議院も解散。与野党の思惑が入り乱れ、政局混乱。」という音声情報が出力されている時に、ユーザから「関心あり」が入力され、図25に示す関心情報が作成されたとして、説明をする。
(情報収集と収集データに対するマーキングのフロー;図23)
本フローは、1時間おきなど、一定時間ごとに実行される。また、下記1〜7の処理は、直前の一定時間の間に作成された全ての関心情報のそれぞれに対して、順に実行される。例えば、直前1時間の間に、図20、図21、図25に示す3つの関心情報が作成されていた場合には、1〜7の処理が3回繰り返されることになる。以下、図25の関心情報を例に挙げて説明を行う。
本フローは、1時間おきなど、一定時間ごとに実行される。また、下記1〜7の処理は、直前の一定時間の間に作成された全ての関心情報のそれぞれに対して、順に実行される。例えば、直前1時間の間に、図20、図21、図25に示す3つの関心情報が作成されていた場合には、1〜7の処理が3回繰り返されることになる。以下、図25の関心情報を例に挙げて説明を行う。
1.DBや情報サーバから情報検索
情報収集部が、インターネット検索エンジンを使用して、関心情報のキーワードで検索を行う。検索式は、関心情報に含まれる全キーワードをANDにして作成する。この検索式で検索した結果の件数が0件であった場合は、件数が1件以上になるように、再度、検索式を作成しなおす。例えば、キーワードを1つ少なくしてANDにした検索式を作成するようにしてもよい。検索結果の件数が1件以上になるまで、キーワードを減らすようにようにするとよい。また、減らすキーワードは、重要でないキーワードを削除するようにするとよい。例えば、キーワードの重要性を示す辞書を用意して、重要でないキーワードから削除するとよい。
情報収集部が、インターネット検索エンジンを使用して、関心情報のキーワードで検索を行う。検索式は、関心情報に含まれる全キーワードをANDにして作成する。この検索式で検索した結果の件数が0件であった場合は、件数が1件以上になるように、再度、検索式を作成しなおす。例えば、キーワードを1つ少なくしてANDにした検索式を作成するようにしてもよい。検索結果の件数が1件以上になるまで、キーワードを減らすようにようにするとよい。また、減らすキーワードは、重要でないキーワードを削除するようにするとよい。例えば、キーワードの重要性を示す辞書を用意して、重要でないキーワードから削除するとよい。
図25の例では、検索式は「首相辞任AND衆議院AND解散AND与野党AND思惑AND政局混乱」となる。この場合に1件以上の情報が索出されたものとして説明を続ける。
2.収集したデータの保存
情報収集部が、索出されたデータを収集データDBに保存する。このとき、情報検索結果の上位数件のデータを保存するとよい。例えば、上位2つを保存するようにする。以下では、上記検索式において、HTMLデータA,動画データBの2つが得られたとして説明する。
情報収集部が、索出されたデータを収集データDBに保存する。このとき、情報検索結果の上位数件のデータを保存するとよい。例えば、上位2つを保存するようにする。以下では、上記検索式において、HTMLデータA,動画データBの2つが得られたとして説明する。
3.全ての収集データに対して処理
次に、マーキング部が、収集されたデータ1つ1つに対して以下の4〜7の処理を行う。例えば、HTMLデータA,動画データBの2つがある場合には、それぞれについて4〜7の処理を行う。
次に、マーキング部が、収集されたデータ1つ1つに対して以下の4〜7の処理を行う。例えば、HTMLデータA,動画データBの2つがある場合には、それぞれについて4〜7の処理を行う。
4.動画?
マーキング部はまず収集データの種別を調べる。収集データが動画である場合は、5以降の処理を行う。動画でない場合は、7以降の処理を行う。
マーキング部はまず収集データの種別を調べる。収集データが動画である場合は、5以降の処理を行う。動画でない場合は、7以降の処理を行う。
5.音声認識
マーキング部が、動画データの音声部分に対して、音声認識処理を行い、動画データと音声認識結果を対応させた「録画テキストデータ」を作成する。(この処理は、第1の実施形態の「音声認識」に関する処理と同一である。)例えば、動画データBに対応する録画テキストデータとして、図26に示すようなデータが作成される。
マーキング部が、動画データの音声部分に対して、音声認識処理を行い、動画データと音声認識結果を対応させた「録画テキストデータ」を作成する。(この処理は、第1の実施形態の「音声認識」に関する処理と同一である。)例えば、動画データBに対応する録画テキストデータとして、図26に示すようなデータが作成される。
6.時間マーカを生成
マーキング部が、5で生成した録画テキストデータの中から、現在着目しているキーワードの登場箇所を探索する。そのキーワードが見つかるたびに、動画データ上の登場時間
(時間マーカ)を記憶していく。図26の録画テキストデータに対して、図25の各キーワード「首相辞任」、「衆議院」、「解散」、「与野党」、「思惑」、「政局混乱」のそれぞれの登場時間を調べると、例えば、「首相辞任」というキーワードについては、0分30秒となり、また、「政局混乱」というキーワードについては、0分45秒となる。
マーキング部が、5で生成した録画テキストデータの中から、現在着目しているキーワードの登場箇所を探索する。そのキーワードが見つかるたびに、動画データ上の登場時間
(時間マーカ)を記憶していく。図26の録画テキストデータに対して、図25の各キーワード「首相辞任」、「衆議院」、「解散」、「与野党」、「思惑」、「政局混乱」のそれぞれの登場時間を調べると、例えば、「首相辞任」というキーワードについては、0分30秒となり、また、「政局混乱」というキーワードについては、0分45秒となる。
7.マーカ情報保存
収集データが動画の場合、マーキング部は、収集データのファイル名(もしくはID)、キーワード、時間マーカをマーカ情報としてマーカ情報DBに保存する。一方、動画でない場合、マーキング部は、収集データのファイル名(もしくはID)、キーワードをマーカ情報としてマーカ情報DBに保存する。
収集データが動画の場合、マーキング部は、収集データのファイル名(もしくはID)、キーワード、時間マーカをマーカ情報としてマーカ情報DBに保存する。一方、動画でない場合、マーキング部は、収集データのファイル名(もしくはID)、キーワードをマーカ情報としてマーカ情報DBに保存する。
例えば、動画データBの場合には、キーワード別に図27や図28に示すようなマーカ情報が生成され、HTMLデータAの場合には、図29に示すようなマーカ情報が生成される。
なお、動画以外のデータの場合にも、時間マーカに相当する情報(マーカ)を作成してもよい。例えば、HTMLデータなどのテキスト情報の場合はキーワードの現れる行番号やバイト数を、画像情報の場合は画像上の座標やピクセル値を、音声情報の場合は時間マーカをそれぞれマーカ情報に含めておけば、再生処理の際にキーワード登場箇所を選んで再生することが容易になる。
(再生フロー;図24)
情報入力部2より「再生開始」が入力されると処理が開始される。
情報入力部2より「再生開始」が入力されると処理が開始される。
1.マーカ情報を同一キーワードでグループ化
再生制御部2が、マーカ情報DB内のマーカ情報を同じキーワードでグループ化し、グループ単位で2以降の処理を行う。例えば、図27,図28,図29,図30の4つのマーカ情報がマーカ情報DB内にあった場合は、図27と図29の2つのマーカ情報は、それぞれ動画データ、HTMLデータと種別が異なるが、キーワードが「首相辞任」で同一であるため、1つのグループとして以下の処理を行う。図28と図30のマーカ情報は、それぞれ別グループとして処理する。
再生制御部2が、マーカ情報DB内のマーカ情報を同じキーワードでグループ化し、グループ単位で2以降の処理を行う。例えば、図27,図28,図29,図30の4つのマーカ情報がマーカ情報DB内にあった場合は、図27と図29の2つのマーカ情報は、それぞれ動画データ、HTMLデータと種別が異なるが、キーワードが「首相辞任」で同一であるため、1つのグループとして以下の処理を行う。図28と図30のマーカ情報は、それぞれ別グループとして処理する。
2.あるグループ内のマーカ情報に対して処理
再生制御部2が、グループの各マーカ情報に対して、3以降の処理を行う。例えば、図27と図29の2つが同一グループであるから、図27のマーカ情報、図29のマーカ情報の順で、3以降の処理を行う。なお、これらの処理が終了すると、次のグループである図28のマーカ情報に関する処理が実行され、それが終了すると、さらに次のグループである図30のマーカ情報に関する処理が実行される。
再生制御部2が、グループの各マーカ情報に対して、3以降の処理を行う。例えば、図27と図29の2つが同一グループであるから、図27のマーカ情報、図29のマーカ情報の順で、3以降の処理を行う。なお、これらの処理が終了すると、次のグループである図28のマーカ情報に関する処理が実行され、それが終了すると、さらに次のグループである図30のマーカ情報に関する処理が実行される。
3.マーカ情報取得
再生制御部2が、該当するマーカ情報を取得する。例えば、図27のマーカ情報を取得する。
再生制御部2が、該当するマーカ情報を取得する。例えば、図27のマーカ情報を取得する。
4.種別?
再生制御部2が、マーカ情報を参照してデータの種別を調べる。種別により処理が分岐し、録画データや動画データの場合は、6の処理へ、それ以外のテキスト、HTML、画像の場合は、5の処理へ移行する。
再生制御部2が、マーカ情報を参照してデータの種別を調べる。種別により処理が分岐し、録画データや動画データの場合は、6の処理へ、それ以外のテキスト、HTML、画像の場合は、5の処理へ移行する。
5.画面に表示
テキスト、HTML、または、画像の場合は、再生制御部2が、収集データを映像・音
声出力部(モニタ)の表示領域(図3参照)に表示する。このとき、キーワード登場箇所が、表示領域の左上や中央などの目立つ位置に表示されるようにするとよい。また上述したように、キーワードの表示色や表示態様を変えることも好ましい。
テキスト、HTML、または、画像の場合は、再生制御部2が、収集データを映像・音
声出力部(モニタ)の表示領域(図3参照)に表示する。このとき、キーワード登場箇所が、表示領域の左上や中央などの目立つ位置に表示されるようにするとよい。また上述したように、キーワードの表示色や表示態様を変えることも好ましい。
情報入力部2に「スキップ」の入力があった場合には、次のマーカ情報について、3以降の処理を行う。ただし、注目しているグループ内の次のマーカ情報がない場合は、次のグループに関して2以降の処理を行う。次のグループがない場合は、本フローを終了する。「スキップ」の入力がない場合は、そのまま待機する。
6.録画(動画)データ取得
録画データの場合は、再生制御部2が、マーカ情報の番組IDに一致する録画データを録画データDBから取得する。動画データの場合は、再生制御部2が、マーカ情報のファイル名に一致する動画データを収集データDBから取得する。例えば、図27のマーカ情報の場合は、ファイル名が「movie100.mpg」のデータを、収集データDBから取得する。
録画データの場合は、再生制御部2が、マーカ情報の番組IDに一致する録画データを録画データDBから取得する。動画データの場合は、再生制御部2が、マーカ情報のファイル名に一致する動画データを収集データDBから取得する。例えば、図27のマーカ情報の場合は、ファイル名が「movie100.mpg」のデータを、収集データDBから取得する。
7.最初の時間マーカの位置から再生
再生制御部2が、マーカ情報に記述されている時間マーカの最も早い位置から再生を開始する。ただし、時間マーカがない場合は、録画(動画)データの最初から再生を開始する。再生された映像・音声は、モニタとスピーカから構成される映像・音声出力部からそれぞれ出力される。例えば、図27のマーカ情報の場合は、最初の時間マーカは0分30秒であるから、当該ファイル(movie100.mpg)の動画データを0分30秒の位置から再生する。
再生制御部2が、マーカ情報に記述されている時間マーカの最も早い位置から再生を開始する。ただし、時間マーカがない場合は、録画(動画)データの最初から再生を開始する。再生された映像・音声は、モニタとスピーカから構成される映像・音声出力部からそれぞれ出力される。例えば、図27のマーカ情報の場合は、最初の時間マーカは0分30秒であるから、当該ファイル(movie100.mpg)の動画データを0分30秒の位置から再生する。
以降の処理、「番組の終了位置またはコンテンツの終了位置まで再生?」「スキップ操作あり?」「次の時間マーカあり?」「次の時間マーカの位置から再生」に関しては、以下のように、場合わけして説明する。
(1)録画(動画)データの再生が、録画(動画)データの番組の終了位置もしくは番組を構成するコンテンツの終了位置まできた場合
着目しているマーカ情報に終了位置以降の時間マーカがあれば、その時間マーカ位置までスキップして再生を継続する。該マーカ情報に終了位置以降の時間マーカがなければ、次のマーカ情報に対して、3から処理を行う。
例えば、図27のマーカ情報については、最初の時間マーカは0分30秒であるから、該ファイル(movie100.mpg)の動画データは0分30秒から再生される。その録画データの最後まで再生された場合には、次のマーカ情報(図29)に従い、HTMLデータ(news010203.html)が表示される。
ここで、録画(動画)データにコンテンツが複数含まれ、それらコンテンツの終了位置が特定できる場合は、再生の終了位置として利用するとよい。コンテンツの終了位置の情報は、録画(動画)データ自身に埋め込まれていても良いし、電子番組表の番組データから取得して利用するようにしてもよい。
例えば、図30のマーカ情報について処理を行う際に、図31に示すようにコンテンツ終了位置がわかっていた場合には、録画(動画)データの0分30秒の位置から再生が開始され、1分10秒で再生がいったん終了する。そして、マーカ情報から次の時間マーカが取得され、その位置(1分30秒)へスキップして再生されることになる。
(2)録画(動画)データの再生中に情報入力部2に「スキップ」の入力があった場合
着目しているマーカ情報に、現在の再生位置以降の時間マーカがあれば、その時間マーカ位置までスキップして再生を継続する。着目しているマーカ情報に、現在の再生位置以降の時間マーカがなければ、次のマーカ情報に対して、3以降の処理を行う。
例えば、図27のマーカ情報に基づき動画データ(movie100.mpg)を再生している際、1分00秒の時点で「スキップ」入力があった場合には、動画データ(movie100.mpg)の1分30秒の位置へスキップして再生される。
また、例えば、図27のマーカ情報に基づき動画データ(movie100.mpg)を再生している際、1分45秒の時点で「スキップ」入力があった場合には、次のマーカ情報(図29)に従い、HTMLデータ(news010203.html)が表示される。
以上述べた第3の実施形態によれば、電子情報をインターネットや放送などの広範な範囲から取得することができる。また、テレビ番組やラジオ番組のみならず、種々の情報資源を取得対象とすることができる。
なお、上記実施形態は本発明の一具体例を例示したものにすぎない。本発明の範囲は上記実施形態に限られるものではなく、その技術思想の範囲内で種々の変形が可能である。
例えば、上記実施形態では、マーカ情報ごとキーワードごとに順番に再生を行っているが、キーワードの類似度に基づいて電子情報をカテゴライズし、カテゴリ順に再生するようにしてもよい。
また、上記実施形態では、ユーザ端末とホームサーバとで情報取得支援システムを構成したが、機器構成はこれに限るものではない。1台の情報処理装置で情報取得支援システムを構成してもよいし、3台以上の情報処理装置を組み合わせた構成にしてもよい。
Claims (11)
- 音声を出力しつつユーザからの入力を待ち受ける入力受付手段と、
ユーザ入力があった時に出力されていた音声からキーワードを抽出するキーワード抽出手段と、
抽出されたキーワードを含む電子情報を取得し、記憶装置に格納する情報取得手段と、
前記記憶装置から電子情報を読み出して再生する際に、前記キーワードの登場箇所を選んで部分的に再生する部分再生手段と、
を備えた情報取得支援システム。 - 入力受付手段は、音声入力によりユーザからの入力を受け付ける
請求項1記載の情報取得支援システム。 - 入力受付手段は、出力用の音声に対応するテキスト情報を保持しており、
キーワード抽出手段は、ユーザ入力があった時に出力されていた音声に対応するテキスト情報を解析してキーワードを抽出する
請求項1または2記載の情報取得支援システム。 - 入力受付手段は、テキスト情報から出力用の音声を生成する音声合成手段、または/および、出力用の音声をテキスト情報に変換する音声認識手段を有する
請求項3記載の情報取得支援システム。 - 入力受付手段は、電子情報の取得先もしくは取得方法を特定する識別子とその電子情報の内容紹介とを含む紹介情報に基づいて、電子情報の内容紹介を音声出力するものであり、
情報取得手段は、ユーザ入力があった時に出力されていた内容紹介に対応する識別子に基づき電子情報を取得する
請求項1〜4のうちいずれか1項記載の情報取得支援システム。 - 前記電子情報は、放送または電気通信回線を通じて提供される番組であり、
前記紹介情報は、電子番組表(EPG)における番組データである
請求項5記載の情報取得支援システム。 - 情報取得手段は、抽出されたキーワードを検索キーとして検索を行い、索出された電子情報を記憶装置に格納する
請求項1〜4のうちいずれか1項記載の情報取得支援システム。 - 部分再生手段は、
電子情報の中から前記キーワードの登場箇所を探索する探索手段と、
探索結果に基づいてキーワードの登場箇所を表すマーカ情報を生成するマーキング手段と、を有し、
前記マーカ情報を参照することにより該当部分の再生を行う
請求項1〜7のうちいずれか1項記載の情報取得支援システム。 - 探索手段は、電子情報に画像が含まれる場合に、画像認識処理によって画像中のテキストを認識し、そのテキスト情報の中から前記キーワードを探索する
請求項8記載の情報取得支援システム。 - 探索手段は、電子情報に音声が含まれる場合に、音声認識処理によって音声をテキスト情報に変換し、そのテキスト情報の中から前記キーワードを探索する
請求項8または9記載の情報取得支援システム。 - 情報処理装置が、
音声を出力しつつ、ユーザからの入力を待ち受け、
ユーザ入力があった時に出力していた音声からキーワードを抽出し、
抽出したキーワードを含む電子情報を取得し、
取得した電子情報を記憶装置に格納し、
前記記憶装置から電子情報を読み出して再生する際に、前記キーワードの登場箇所を選んで部分的に再生する
情報処理装置による情報取得支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004109943A JP2005295375A (ja) | 2004-04-02 | 2004-04-02 | 情報取得支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004109943A JP2005295375A (ja) | 2004-04-02 | 2004-04-02 | 情報取得支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005295375A true JP2005295375A (ja) | 2005-10-20 |
Family
ID=35327792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004109943A Pending JP2005295375A (ja) | 2004-04-02 | 2004-04-02 | 情報取得支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005295375A (ja) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007046171A1 (ja) * | 2005-10-21 | 2007-04-26 | Matsushita Electric Industrial Co., Ltd. | 記録再生装置 |
JP2007171810A (ja) * | 2005-12-26 | 2007-07-05 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2008035338A (ja) * | 2006-07-31 | 2008-02-14 | Sharp Corp | Av装置、及びav装置における放送録画方法 |
JP2008219342A (ja) * | 2007-03-02 | 2008-09-18 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2015511840A (ja) * | 2012-02-09 | 2015-04-23 | マシモ コーポレーションMasimo Corporation | ワイヤレス患者監視デバイス |
CN105027194A (zh) * | 2012-12-20 | 2015-11-04 | 亚马逊技术有限公司 | 话语主题的识别 |
US9436645B2 (en) | 2011-10-13 | 2016-09-06 | Masimo Corporation | Medical monitoring hub |
US9788735B2 (en) | 2002-03-25 | 2017-10-17 | Masimo Corporation | Body worn mobile medical patient monitor |
US9847002B2 (en) | 2009-12-21 | 2017-12-19 | Masimo Corporation | Modular patient monitor |
US9943269B2 (en) | 2011-10-13 | 2018-04-17 | Masimo Corporation | System for displaying medical monitoring data |
US10226187B2 (en) | 2015-08-31 | 2019-03-12 | Masimo Corporation | Patient-worn wireless physiological sensor |
US10307111B2 (en) | 2012-02-09 | 2019-06-04 | Masimo Corporation | Patient position detection system |
US10617302B2 (en) | 2016-07-07 | 2020-04-14 | Masimo Corporation | Wearable pulse oximeter and respiration monitor |
JP2020150550A (ja) * | 2011-12-14 | 2020-09-17 | エイディシーテクノロジー株式会社 | 音声再生装置、及び車両 |
US10825568B2 (en) | 2013-10-11 | 2020-11-03 | Masimo Corporation | Alarm notification system |
US10833983B2 (en) | 2012-09-20 | 2020-11-10 | Masimo Corporation | Intelligent medical escalation process |
US10912524B2 (en) | 2006-09-22 | 2021-02-09 | Masimo Corporation | Modular patient monitor |
US11076777B2 (en) | 2016-10-13 | 2021-08-03 | Masimo Corporation | Systems and methods for monitoring orientation to reduce pressure ulcer formation |
US11109818B2 (en) | 2018-04-19 | 2021-09-07 | Masimo Corporation | Mobile patient alarm display |
CN113516997A (zh) * | 2021-04-26 | 2021-10-19 | 常州分音塔科技有限公司 | 一种语音事件识别装置和方法 |
USD974193S1 (en) | 2020-07-27 | 2023-01-03 | Masimo Corporation | Wearable temperature measurement device |
USD980091S1 (en) | 2020-07-27 | 2023-03-07 | Masimo Corporation | Wearable temperature measurement device |
USD1000975S1 (en) | 2021-09-22 | 2023-10-10 | Masimo Corporation | Wearable temperature measurement device |
US11963736B2 (en) | 2009-07-20 | 2024-04-23 | Masimo Corporation | Wireless patient monitoring system |
US11974833B2 (en) | 2020-03-20 | 2024-05-07 | Masimo Corporation | Wearable device for noninvasive body temperature measurement |
-
2004
- 2004-04-02 JP JP2004109943A patent/JP2005295375A/ja active Pending
Cited By (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11484205B2 (en) | 2002-03-25 | 2022-11-01 | Masimo Corporation | Physiological measurement device |
US10219706B2 (en) | 2002-03-25 | 2019-03-05 | Masimo Corporation | Physiological measurement device |
US10335033B2 (en) | 2002-03-25 | 2019-07-02 | Masimo Corporation | Physiological measurement device |
US10869602B2 (en) | 2002-03-25 | 2020-12-22 | Masimo Corporation | Physiological measurement communications adapter |
US9872623B2 (en) | 2002-03-25 | 2018-01-23 | Masimo Corporation | Arm mountable portable patient monitor |
US10213108B2 (en) | 2002-03-25 | 2019-02-26 | Masimo Corporation | Arm mountable portable patient monitor |
US9795300B2 (en) | 2002-03-25 | 2017-10-24 | Masimo Corporation | Wearable portable patient monitor |
US9788735B2 (en) | 2002-03-25 | 2017-10-17 | Masimo Corporation | Body worn mobile medical patient monitor |
JP4712812B2 (ja) * | 2005-10-21 | 2011-06-29 | パナソニック株式会社 | 記録再生装置 |
WO2007046171A1 (ja) * | 2005-10-21 | 2007-04-26 | Matsushita Electric Industrial Co., Ltd. | 記録再生装置 |
JP2007171810A (ja) * | 2005-12-26 | 2007-07-05 | Canon Inc | 情報処理装置及び情報処理方法 |
JP4600891B2 (ja) * | 2006-07-31 | 2010-12-22 | シャープ株式会社 | Av装置、及びav装置における放送録画方法 |
JP2008035338A (ja) * | 2006-07-31 | 2008-02-14 | Sharp Corp | Av装置、及びav装置における放送録画方法 |
US10912524B2 (en) | 2006-09-22 | 2021-02-09 | Masimo Corporation | Modular patient monitor |
US8209348B2 (en) | 2007-03-02 | 2012-06-26 | Sony Corporation | Information processing apparatus, information processing method, and information processing program |
JP2008219342A (ja) * | 2007-03-02 | 2008-09-18 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US11963736B2 (en) | 2009-07-20 | 2024-04-23 | Masimo Corporation | Wireless patient monitoring system |
US11900775B2 (en) | 2009-12-21 | 2024-02-13 | Masimo Corporation | Modular patient monitor |
US10943450B2 (en) | 2009-12-21 | 2021-03-09 | Masimo Corporation | Modular patient monitor |
US9847002B2 (en) | 2009-12-21 | 2017-12-19 | Masimo Corporation | Modular patient monitor |
US10354504B2 (en) | 2009-12-21 | 2019-07-16 | Masimo Corporation | Modular patient monitor |
US11241199B2 (en) | 2011-10-13 | 2022-02-08 | Masimo Corporation | System for displaying medical monitoring data |
US11786183B2 (en) | 2011-10-13 | 2023-10-17 | Masimo Corporation | Medical monitoring hub |
US9436645B2 (en) | 2011-10-13 | 2016-09-06 | Masimo Corporation | Medical monitoring hub |
US11179114B2 (en) | 2011-10-13 | 2021-11-23 | Masimo Corporation | Medical monitoring hub |
US9993207B2 (en) | 2011-10-13 | 2018-06-12 | Masimo Corporation | Medical monitoring hub |
US10925550B2 (en) | 2011-10-13 | 2021-02-23 | Masimo Corporation | Medical monitoring hub |
US9913617B2 (en) | 2011-10-13 | 2018-03-13 | Masimo Corporation | Medical monitoring hub |
US10512436B2 (en) | 2011-10-13 | 2019-12-24 | Masimo Corporation | System for displaying medical monitoring data |
US9943269B2 (en) | 2011-10-13 | 2018-04-17 | Masimo Corporation | System for displaying medical monitoring data |
JP2020150550A (ja) * | 2011-12-14 | 2020-09-17 | エイディシーテクノロジー株式会社 | 音声再生装置、及び車両 |
US11083397B2 (en) | 2012-02-09 | 2021-08-10 | Masimo Corporation | Wireless patient monitoring device |
US10307111B2 (en) | 2012-02-09 | 2019-06-04 | Masimo Corporation | Patient position detection system |
JP2015511840A (ja) * | 2012-02-09 | 2015-04-23 | マシモ コーポレーションMasimo Corporation | ワイヤレス患者監視デバイス |
US11918353B2 (en) | 2012-02-09 | 2024-03-05 | Masimo Corporation | Wireless patient monitoring device |
US10149616B2 (en) | 2012-02-09 | 2018-12-11 | Masimo Corporation | Wireless patient monitoring device |
US10188296B2 (en) | 2012-02-09 | 2019-01-29 | Masimo Corporation | Wireless patient monitoring device |
USD788312S1 (en) | 2012-02-09 | 2017-05-30 | Masimo Corporation | Wireless patient monitoring device |
US11887728B2 (en) | 2012-09-20 | 2024-01-30 | Masimo Corporation | Intelligent medical escalation process |
US10833983B2 (en) | 2012-09-20 | 2020-11-10 | Masimo Corporation | Intelligent medical escalation process |
JP2016501391A (ja) * | 2012-12-20 | 2016-01-18 | アマゾン テクノロジーズ インコーポレーテッド | 発話対象の識別 |
CN105027194B (zh) * | 2012-12-20 | 2020-10-02 | 亚马逊技术有限公司 | 话语主题的识别 |
CN105027194A (zh) * | 2012-12-20 | 2015-11-04 | 亚马逊技术有限公司 | 话语主题的识别 |
US12009098B2 (en) | 2013-10-11 | 2024-06-11 | Masimo Corporation | Alarm notification system |
US10825568B2 (en) | 2013-10-11 | 2020-11-03 | Masimo Corporation | Alarm notification system |
US10832818B2 (en) | 2013-10-11 | 2020-11-10 | Masimo Corporation | Alarm notification system |
US11699526B2 (en) | 2013-10-11 | 2023-07-11 | Masimo Corporation | Alarm notification system |
US11488711B2 (en) | 2013-10-11 | 2022-11-01 | Masimo Corporation | Alarm notification system |
US10226187B2 (en) | 2015-08-31 | 2019-03-12 | Masimo Corporation | Patient-worn wireless physiological sensor |
US10383527B2 (en) | 2015-08-31 | 2019-08-20 | Masimo Corporation | Wireless patient monitoring systems and methods |
US11576582B2 (en) | 2015-08-31 | 2023-02-14 | Masimo Corporation | Patient-worn wireless physiological sensor |
US10736518B2 (en) | 2015-08-31 | 2020-08-11 | Masimo Corporation | Systems and methods to monitor repositioning of a patient |
US10448844B2 (en) | 2015-08-31 | 2019-10-22 | Masimo Corporation | Systems and methods for patient fall detection |
US11089963B2 (en) | 2015-08-31 | 2021-08-17 | Masimo Corporation | Systems and methods for patient fall detection |
US11202571B2 (en) | 2016-07-07 | 2021-12-21 | Masimo Corporation | Wearable pulse oximeter and respiration monitor |
US10617302B2 (en) | 2016-07-07 | 2020-04-14 | Masimo Corporation | Wearable pulse oximeter and respiration monitor |
US11076777B2 (en) | 2016-10-13 | 2021-08-03 | Masimo Corporation | Systems and methods for monitoring orientation to reduce pressure ulcer formation |
US11844634B2 (en) | 2018-04-19 | 2023-12-19 | Masimo Corporation | Mobile patient alarm display |
US11109818B2 (en) | 2018-04-19 | 2021-09-07 | Masimo Corporation | Mobile patient alarm display |
US11974833B2 (en) | 2020-03-20 | 2024-05-07 | Masimo Corporation | Wearable device for noninvasive body temperature measurement |
USD980091S1 (en) | 2020-07-27 | 2023-03-07 | Masimo Corporation | Wearable temperature measurement device |
USD1022729S1 (en) | 2020-07-27 | 2024-04-16 | Masimo Corporation | Wearable temperature measurement device |
USD974193S1 (en) | 2020-07-27 | 2023-01-03 | Masimo Corporation | Wearable temperature measurement device |
CN113516997A (zh) * | 2021-04-26 | 2021-10-19 | 常州分音塔科技有限公司 | 一种语音事件识别装置和方法 |
USD1000975S1 (en) | 2021-09-22 | 2023-10-10 | Masimo Corporation | Wearable temperature measurement device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005295375A (ja) | 情報取得支援システム | |
EP1762947B1 (en) | Apparatus, method, and computer program for television program selection | |
US8965916B2 (en) | Method and apparatus for providing media content | |
CN101365134B (zh) | 帧指定方法 | |
JP2008148077A (ja) | 動画再生装置 | |
KR101246917B1 (ko) | 미디어 재생 시스템의 사용자 간에 정보를 공유하는 방법및 시스템 | |
US20180012599A1 (en) | Metatagging of captions | |
JP2003099453A (ja) | 情報提供システムおよびプログラム | |
JP2006345376A (ja) | 表示方法 | |
JP4305080B2 (ja) | 映像再生方法およびシステム | |
JP4476786B2 (ja) | 検索装置 | |
JPWO2004079593A1 (ja) | 情報閲覧方法及び情報閲覧装置 | |
JP2008227909A (ja) | 映像検索装置 | |
JP2006340136A (ja) | 映像再生方法、インデックス情報提供方法、映像再生端末、及び映像用インデックス作成検索システム | |
CN106713973A (zh) | 搜索节目的方法及装置 | |
KR20090024016A (ko) | 음악 인식 기능을 이용한 음악 방송 모니터링 장치 및 방법 | |
JPH1139343A (ja) | 映像検索装置 | |
JP4575786B2 (ja) | コンテンツ視聴システム、コンテンツ情報の処理方法、およびプログラム | |
JP5447654B2 (ja) | 情報処理プログラム、装置、及び方法 | |
JP2006048657A (ja) | 検索キーワード入力端末、検索キーワード統計処理サーバ装置及び検索キーワード利用端末 | |
JP2012084966A (ja) | 動画情報視聴装置及び動画情報視聴方法 | |
KR101424625B1 (ko) | 챕터 작성 장치, 챕터 작성 방법 및, 챕터 작성 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체 | |
JP2002262225A (ja) | コンテンツ仲介装置およびコンテンツ仲介処理方法 | |
CN100518260C (zh) | 一种提供录制节目内容信息的方法 | |
JP2006054517A (ja) | 情報提示装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070306 |