JP5568953B2 - 情報処理装置、シーン検索方法及びプログラム - Google Patents

情報処理装置、シーン検索方法及びプログラム Download PDF

Info

Publication number
JP5568953B2
JP5568953B2 JP2009248590A JP2009248590A JP5568953B2 JP 5568953 B2 JP5568953 B2 JP 5568953B2 JP 2009248590 A JP2009248590 A JP 2009248590A JP 2009248590 A JP2009248590 A JP 2009248590A JP 5568953 B2 JP5568953 B2 JP 5568953B2
Authority
JP
Japan
Prior art keywords
information
scene
unit
content
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009248590A
Other languages
English (en)
Other versions
JP2011095958A (ja
Inventor
敏弘 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009248590A priority Critical patent/JP5568953B2/ja
Priority to US12/909,258 priority patent/US8781301B2/en
Priority to CN2010105304344A priority patent/CN102054019A/zh
Publication of JP2011095958A publication Critical patent/JP2011095958A/ja
Application granted granted Critical
Publication of JP5568953B2 publication Critical patent/JP5568953B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、音情報をもとに所望のシーンを含むコンテンツを検索する情報処理装置、シーン検索方法及びプログラムに関する。
テレビジョンの放送番組、ネットワークによる配信番組など、音声と映像を含むコンテンツのデータを蓄積し、蓄積された1以上のコンテンツの中から利用者が希望する属性のシーンを、音情報を検索の条件として検索する仕組みが提案されている(例えば、特許文献1参照。)。この種の仕組みにおいては、シーン検索のための条件として、キーボードから入力されたテキストや、マイクから入力された音声信号などが用いられる。
特開2008−276340号公報(段落[0037]、[0046]、図3)
キーボードからのテキストやマイクからの音声をシーン検索の条件として入力する場合、利用者は所望の属性のシーンを象徴する的確なキーワードを決めて入力する必要がある。すなわち、その所望の属性のシーンを最もよく象徴するものとして各々の利用者が直感的に考え出すキーワードにはバラツキがあるので、利用者はそのことを念頭に置いてキーワードを指定しなければ良好な検索結果が得られない。また、例えば登場人物が何かに驚いたシーンを検索しようとして、利用者は"びっくり"というキーワードを検索の条件として入力したとする。しかし、実際の番組中での驚いたシーンにおいて登場人物が"びっくり"という言葉を発するとは限らず、"おー"、"きゃー"といった感嘆詞が発せられる場合も少なくない。したがって、検索漏れを少なくするためには、できるだけ多くの種類のキーワードを入力する必要があり、利用者の負担が増すという問題がある。さらに、これら多くの種類のキーワードをテキストや音声で入力することも利用者にとって負担増となるという問題もある。また、キーワードをむやみに増やすと検索の処理に時間がかかるという弊害も生まれる。
以上のような事情に鑑み、本発明の目的は、コンテンツ中の所望の属性のシーンを、利用者にとって簡単に、且つ精度良く検索することのできる情報処理装置、シーン検索方法及びプログラムを提供することにある。
上記目的を達成するため、本発明の一形態に係る情報処理装置は、取得部と、指定部と、検索処理部と、出力部とを有する。
上記取得部は、音声を含む1以上のコンテンツを取得する。
上記指定部は、シーン内容を象徴するアイコンに関連付けられ且つ上記シーン内容を表現する音情報をシーン検索の条件とする指定を受け付ける。
上記検索処理部は、上記シーン検索の条件としての指定を受け付けた音情報と、上記コンテンツに含まれる上記音声とを比較して、上記音情報を上記音声に含むコンテンツを検索する。
上記出力部は、上記検索処理部により検索されたコンテンツに関する情報を出力する。
この情報処理装置によれば、シーン内容を象徴するアイコンに関連付けられ且つシーン内容を表現する音情報をシーン検索の条件とする利用者からの指定を受け付けてシーン検索が行われるので、利用者が検索の条件となる音情報を決定する際のバラツキがなくなり、所望する属性のシーンを精度良く検索することができる。
上記情報処理装置において、上記指定部は、アイコンを表示し、このアイコンに対する利用者からの所定の操作を上記検索処理部に対する検索の指示及び上記検索処理部による上記音声に対する検索の条件とすべき音情報の指示として受け付けるアイコン選択部であってもよい。
この情報処理装置によれば、利用者は、表示されたアイコンを通して検索の条件とすべき音情報を選択することができる。これにより利用者は、より直感的に音情報の選択を行うことができる。
上記アイコン選択部はそれぞれ異なるシーン内容を象徴する複数のアイコンを表示してもよい。
この情報処理装置によれば、複数のアイコンによりそれぞれ象徴される複数のシーン内容のうちから所望のシーンを検索することができる。
上記情報処理装置は、上記アイコン選択部により指示された上記音情報を第1の音情報として、この第1の音情報に対して同意の第2の音情報を生成する音情報生成部をさらに有してもよい。
上記検索処理部は、上記アイコン選択部により指示された上記第1の音情報及び上記1以上の第2の音情報の少なくとも1つの音情報を上記音声に含むコンテンツを検索してもよい。
この情報処理装置によれば、利用者による入力の負担増を招くことなく、複数の種類の音情報によるシーン検索を行うことが可能になる。
上記検索処理部は、上記コンテンツにおいて上記少なくとも1つの音情報に対応する上記音声の時間位置を判定してもよい。
上記出力部は、上記コンテンツに関する情報とともに、上記時間位置の情報を出力してもよい。
この情報処理装置によれば、検索されたシーンの時間位置を検索結果に含めて利用者に提供することができる。時間位置が分かることによって、コンテンツの再生を指示する際に時間位置を指示することができ、所望のシーンを即座に再生するようなことも可能になる。
上記情報処理装置において、上記指定部は、上記シーン検索の条件としての音情報をあらかじめ設定する設定部であってもよい。
この情報処理装置によれば、上記シーン検索の条件としての音情報を利用者が予め設定できるので、コンテンツの取得後、直ちにシーン検索の実行にかかることができ、さらにシーン検索結果を蓄積しておくことで、利用者が検索結果を参照したいときに即座に参照することができる。
上記情報処理装置は、上記設定部により設定された上記音情報を第1の音情報として、この第1の音情報に対して同意の第2の音情報を生成する音情報生成部をさらに有してもよい。
上記検索処理部は、上記設定部により指示された上記第1の音情報及び上記1以上の第2の音情報の少なくとも1つの音情報を上記音声に含むコンテンツを検索してもよい。
この情報処理装置によれば、利用者による設定の負担増を招くことなく、複数の種類の音情報によるシーン検索を行うことが可能になる。
上記出力部は、上記1以上のコンテンツに関する情報と、上記コンテンツの上記音声に含まれる上記音情報により表現される上記シーン内容を象徴する上記アイコンの画像情報とを用いて第1の表示情報を作成して出力してもよい。
この情報処理装置によれば、コンテンツの情報とこのシーン内容を象徴するアイコンの画像とを組み合わせた表示を行うことができるので、どのコンテンツにどのようなシーン内容が含まれるのかを表示するにあたり、利用者の直感に訴える表示を行うことができる。
上記検索処理部は、上記コンテンツにおいて上記音情報に対応する上記音声の時間位置を判定してもよい。
上記出力部は、上記コンテンツに関する情報と、上記時間位置の情報と、上記音情報により表現される上記シーン内容を象徴する上記アイコンの画像情報とを用いて第2の表示情報を作成して出力してもよい。
この情報処理装置によれば、コンテンツの情報、シーンの時間の情報及びこのシーン内容を象徴するアイコンの画像を組み合わせた表示を行うことができるので、コンテンツ内のどの時間位置にどのようなシーン内容があるのかを表示するにあたり、利用者の直感に訴える表示を行うことができる。
上記出力部は、上記1以上のコンテンツに関する情報と、上記コンテンツの上記音声に含まれる上記音情報により表現される上記シーン内容を象徴する上記アイコンを識別する情報を出力することとしてもよい。
この情報処理装置によれば、情報処理装置から出力を受ける端末装置がアイコンの画像情報を保持している場合に有効である。すなわち、情報処理装置から端末装置にアイコンの識別情報を送るようにしたことで、アイコンの画像情報を送信する場合に比べ、全体的なデータ転送量を低減することができる。
上記検索処理部は、上記コンテンツにおいて上記音情報に対応する上記音声の時間位置を判定してもよい。
上記出力部は、上記コンテンツに関する情報と、上記時間位置の情報と、上記音情報により表現される上記シーン内容を象徴する上記アイコンを識別する情報を出力してもよい。
この情報処理装置によれば、コンテンツの情報、シーンの時間の情報及びこのシーン内容を象徴するアイコンの画像を組み合わせた表示情報を作成することができるので、コンテンツ内のどの時間位置にどのようなシーン内容があるのかを表示するにあたり、利用者の直感に訴える表示を行うことができる。
上記目的を達成するため、本発明の一形態に係るシーン検索方法は、取得部にて、音声を含む1以上のコンテンツを取得する。
次に、指定部にて、シーン内容を象徴するアイコンに関連付けられ且つ上記シーン内容を表現する音情報をシーン検索の条件とする指定を受け付ける。
次に、検索処理部にて、上記シーン検索の条件としての指定を受け付けた音情報と上記コンテンツに含まれる上記音声とを比較して、上記音情報を上記音声に含むコンテンツを検索する。
そして、出力部にて、上記検索処理部により検索されたコンテンツに関する情報を出力する。
上記目的を達成するため、本発明の一形態に係るプログラムは、取得部と、指定部と、検索処理部と、出力部としてコンピュータを機能させる。
上記取得部は、音声を含む1以上のコンテンツを取得する。
上記指定部は、シーン内容を象徴するアイコンに関連付けられ且つ上記シーン内容を表現する音情報をシーン検索の条件とする指定を受け付ける。
上記検索処理部は、上記シーン検索の条件としての指定を受け付けた音情報と、上記コンテンツに含まれる上記音声とを比較して、上記音情報を上記音声に含むコンテンツを検索する。
上記出力部は、上記検索処理部により検索されたコンテンツに関する情報を出力する。
本発明の情報処理装置、シーン検索方法及びプログラムによれば、コンテンツ中の所望の属性のシーンを、利用者にとって簡単に、且つ精度良く検索することができる。
本発明の第1の実施形態に係る情報端末のハードウェア構成を示すブロック図である。 図1の情報端末のソフトウェア構成を示すブロック図である。 音声単位要素表の構成を示す図である。 検索インデックスの構成を示す図である。 シーン検索画面を示す図である。 シソーラス辞書の構成を示す図である。 シーン検索結果画面を示す図である。 検索インデックス作成の動作を示すフローチャートである。 シーンの検索の動作を示すフローチャートである。 本発明の第2の実施形態に係る情報端末のソフトウェア構成を示すブロック図である。 メタデータの構成を示す図である。 番組表画面を示す図である。 詳細情報表示画面を示す図である。 別の詳細情報表示画面を示す図である。 自動検索処理の動作を示すフローチャートである。 コンテンツ情報処理の動作を示すフローチャートである。 本発明の第3の実施形態に係るサーバ装置及び情報端末のソフトウェア構成を示すブロック図である。 図17の情報端末の動作を示すフローチャートである。 本発明の第4の実施形態に係るサーバ装置及び情報端末のソフトウェア構成を示すブロック図である。 図19の情報端末の動作を示すフローチャートである。
以下、図面を参照しながら、本発明の実施形態を説明する。
<第1の実施形態>
[情報端末1のハードウェア構成]
図1は、本発明の一実施形態に係る情報端末1のハードウェア構成を示すブロック図である。
本実施形態において、情報処理装置としての情報端末1は、地上デジタルテレビジョン放送、CSデジタル放送、BSデジタル放送など、放送局から時々刻々と放映される放送番組などのコンテンツデータを録画及び再生可能である。あるいは、情報端末1は、IPマルチキャストで配信されるコンテンツデータを取得し、録画及び再生可能である。このような情報端末1としては、テレビジョン用情報処理装置や映像再生用アプリケーションを駆動するパーソナルコンピュータ等が挙げられる。
情報端末1において、CPU(Central Processing Unit)601には、システムバス602を介して、ROM(Read Only Memory)603と、RAM(Random Access Memory)604と、入力操作部605と、音声出力部606と、表示部607と、デコード部609と、光通信部610と、放送受信部611と、記憶部613と、メディアインターフェース部614と、ネットワーク接続部616とが接続されている。
入力操作部605は、各種のキーなどを備える。利用者は、入力操作部605を用いて各種の命令やデータの入力を処理する。利用者により入力操作部605より入力された各種の命令は、図示しないインターフェース部によってシステムバス602を通じてCPU601に供給される。
放送受信部611は、例えば、地上デジタルテレビジョン放送、CSデジタル放送、BSデジタル放送等、各放送局608から配信されてくるトランスポートストリームを受信する。
ネットワーク接続部616は、ネットワーク617との接続を処理する。ネットワーク接続部616は、この情報端末1にネットワーク617を介して接続されたコンテンツ配信サーバ618から配信されてくるトランスポートストリームを受信する。また、ネットワーク接続部616は、この情報端末1にネットワーク617を介して接続された番組情報配信サーバ619から番組情報を受信する。
記憶部613は、HDD(Hard Disk Drive)等よりなる。記憶部613には、放送受信部611にて受信された放送番組などのコンテンツデータ等が記録される。
デコード部609は、記憶部613から読み出されたコンテンツのデータをデコードして、デジタルビデオデータ及びデジタルオーディオデータを復元する。復元されたデジタルビデオデータは、システムバス602を通じて表示部607に供給される。復元されたデジタルオーディオデータは、システムバス602を通じて音声出力部606に供給される。
表示部607は、例えば、LCD(Liquid Crystal Display)などの表示画面を供える表示器と、表示器を駆動する表示制御回路等よりなる。表示部607は、デコード部609により復元され供給されたデジタルビデオデータを表示画面に表示する。表示部607は、さらに、利用者から入力された指令やデータの確認、各種のステータス等を表示したりする。
音声出力部606は、デジタルの音声信号をアナログの音声信号に変換する回路と、スピーカ等よりなる。音声出力部606は、デコード部609により復元され供給されたデジタルオーディオデータをスピーカより音声として出力する。なお、本明細書において「音声」とは、環境音等の音、人間等の声及びこれらの結合を含むものとする。
メディアインターフェース部614には、光ディスクなどのリムーバブルメディア615の装着が可能とされ、このリムーバブルメディア615に放送番組などのコンテンツデータなどを記録することが可能となっている。リムーバブルメディア615としては、例えば、追記型、書換型のDVD(Digital Versatile Disc)、ブルーレイディスクなどがある。
光通信部610は、リモコン612等の外部機器との間での双方向通信を処理するためのインターフェースであり、具体的には、赤外線などの光を無線媒体として外部機器との通信を行うものである。また、光の他に、電波、音波、電磁波などの他の無線媒体を用いてもよい。
ROM603には、情報端末1が実行すべきソフトウェア処理のためのプログラムやデータなどが恒久的に格納された読み出し専用メモリである。なお、プログラムは記憶部613に格納されていてもよい。
RAM604は、CPU601によって実行されるプログラム・コードをロードしたり、プログラムの作業データを書き込むために使用される、書き込み可能な揮発性メモリである。
CPU601は、情報端末1の各部の制御を総括的に行うとともに各部の間でのデータのやりとりを制御する。CPU601は、上記の各部の制御を総括的に行うとともに各部の間でのデータのやりとりを制御する。CPU601は、情報端末1が実行すべきソフトウェア処理を実行するために、必要なプログラムをROM603からRAM604へロードし、解釈して実行する。
[情報端末1のソフトウェア構成]
次に、情報端末1のソフトウェア構成を説明する。
図2は、情報端末1をのソフトウェア構成を示すブロック図である。
情報端末1は、アイコン選択部110(指定部)と、検索処理部120と、検索結果出力部130と、検索インデックス生成部140と、データ取得部150とを有する。なお、情報端末1の各保存部は、記憶部613又はメディアインターフェース部614に装着されたリムーバブルメディア615等に設定される。
[データ取得部150の構成]
データ取得部150は、トランスポートストリーム取得部151と、トランスポートストリーム保存部152とを有する。
トランスポートストリーム取得部151は、コンテンツ配信サーバ618よりネットワークを通じて、放送局608より放送を通じて、又はリムーバルメディア615に記録された番組コンテンツ等のトランスポートストリームを選択的に取得し、トランスポートストリーム保存部152に保存する。ここで、トランスポートストリームは、映像のストリーム、映像に係る音声のストリームなどが多重化されてなるものである。トランスポートストリーム取得部151は、保存したトランスポートストリームに係る番組名、コンテンツ配信サーバ618又は放送局608の名称及び配信日時等の番組情報、メディア615内のコンテンツタイトル等からコンテンツリストを作成し、トランスポートストリーム保存部152に保存する。トランスポートストリーム取得部151は、保存したトランスポートストリームに対してこれを一意に識別可能なコンテンツIDを作成し、コンテンツリストに記録された該当するコンテンツ情報と関連付けて、トランスポートストリーム保存部152に追加保存する。
[検索インデックス生成部140の構成]
検索インデックス生成部140は、音声ストリーム分離部141と、音声波形パターン抽出部142と、検索インデックス生成部143と、音声単位要素表保存部144と、音声ストリーム保存部145と、検索インデックス保存部146とを有する。
音声ストリーム分離部141は、トランスポートストリーム保存部152に保存されたトランスポートストリームから音声ストリームを分離し、この音声ストリームと、コンテンツリストに記録された当該トランスポートストリームのコンテンツIDとを関連付けて音声ストリーム保存部145に保存する。
音声波形パターン抽出部142は、音声ストリーム保存部145に保存された音声ストリームを音声波形パターンに変換する。音声波形パターンとは、時間に対して周波数及びレベルが変化する音の列が波形で表現されたものである。なお、以下の説明において音声波形パターン抽出部142により変換された音声波形パターンを「変換音声波形パターン」と記述する。音声波形パターン抽出部142は、変換音声波形パターンとともに、変換元の音声ストリームに関連付けられたコンテンツIDを検索インデックス生成部143に供給する。
音声単位要素表保存部144には、音声単位要素表が保存されている。音声単位要素表は、音声の単位要素を識別する情報である音声単位要素情報と音声波形パターンとの対応表である。「音声の単位要素」とは1以上の音素の組み合わせからなる音の列である。
図3は、音声単位要素表144aの構成を示す図である。
同図に示すように、音声単位要素情報144bのそれぞれに、各音声の単位要素を表現する音声波形パターン144cが関連付けられて、音声単位要素表144aが構成される。なお、同図に示す例では言語の音声単位要素毎の音声波形パターン144cが登録されているが、これに限定されず、環境音等の音声波形パターン144cを登録してもよい。
検索インデックス生成部143は、音声波形パターン抽出部142より供給された変換音声波形パターンと音声単位要素表144aに登録された各音声波形パターンとのマッチングにより、変換音声波形パターンに対する音声単位要素を判定する。また、検索インデックス生成部143は、判定された音声単位要素に対応する変換音声波形パターンの音声ストリームにおける時間軸上での開始時間位置と終了時間位置を判定する。さらには、検索インデックス生成部143は、変換音声波形パターンに対する音声単位要素の判定結果の確からしさの値であるスコアを算出する。そして、検索インデックス生成部143は、判定した音声単位要素、開始時間位置、終了時間位置及びスコアを互いに関連付けた情報を検索インデックス143aとして検索インデックス保存部146に保存する。この検索インデックス143aは音声ストリーム毎に作成される。さらに、検索インデックス生成部143は、作成された音声ストリーム毎の検索インデックス143aと、その音声ストリームのコンテンツIDとの関係を検索インデックス保存部146に保存する。なお、以下の説明において時間位置を単に「位置」と呼ぶものとする。
図4は、検索インデックス143aの構成を示す図である。
検索インデックス143aは、開始位置の情報143bと、終了位置の情報143cと、音声単位要素の情報143dと、スコア143eとの対応表である。同図の例では、検索インデックス143aにおいて、音声単位要素情報「ni」の音声ストリームにおける時間軸上での開始位置は0ミリ秒であり、終了位置は270ミリ秒であり、スコアは−70.000である。このようにして、検索インデックス143aには、「にほんの」の音声の単位要素の列に対応を識別する音声単位要素情報143d「ni」、「ho」、「N」及び「no」が開始位置の順に並べられて登録される。なお、音声単位要素表に登録された音声波形パターンのスコアを0とし、スコアの絶対値が大きくなるほど音声単位要素表に登録された音声波形パターンから相違するものとすればよい。
[アイコン選択部110の構成]
アイコン選択部110は、シーンアイコン選択部111と、シソーラス辞書保存部112と、検索音生成部113(音情報生成部)とを有する。
シーンアイコン選択部111は、表示部607の表示画面にそれぞれ異なるシーン内容を象徴する複数の絵記号(以下「シーンアイコン」と呼ぶ。)及び見出し語を含む選択画面を表示して利用者に提示し、その中から利用者に所望のシーン内容に対応するシーンアイコンを選択させ、その結果を受け付ける。見出し語は、それぞれ異なるシーン内容を象徴するシーンアイコンの象徴するシーン内容が文字列として表現されたものである。
図5は、シーン検索画面101aを示す図である。
同図において、シーン検索画面101aには、例えば、「美味しいシーン」を象徴するシーンアイコン101bと、これに関連付けられた文字列「美味しい」が見出し語101cとして表示されている。利用者は、入力操作部605を用いて所望のシーン内容を象徴するシーンアイコン101bを選択する。シーンアイコン選択部111は、利用者によるシーンアイコン101bの選択を受け付けると、その選択されたシーンアイコンに予め対応付けられたシーンIDを判定し、検索音生成部113に供給する。
シソーラス辞書保存部112には、シソーラス辞書112aが保存されている。
シソーラス辞書112aは、シーンアイコンの情報と、見出し語の情報(第1の音情報)と、1以上の同意音の情報(第2の音情報)とが互いに関連付けられて登録されて構成される。シーンアイコンの情報は、シーンアイコンを識別する情報である。見出し語の情報は、対応するシーンアイコンにより象徴されるシーン内容を文字列で表現した見出し語を、音声単位要素の情報で表現した音情報である。同意音の情報は、見出し語により表現されるシーン内容を表現する別の文字列を、音声単位要素の情報で表現した音情報である。例えば、同意音の情報は、見出し語と同様の意味内容を表す文字列を音声単位要素の情報で表現した音情報を含む。
図6は、シソーラス辞書112aの構成を示す図である。
同図において、シーンアイコンには、個々のシーンアイコンを一意に識別可能なシーンID112bが予め対応付けられている。さらに、例えば、「美味しいシーン」を象徴するシーンアイコンを一意に識別可能なシーンID112bには、このシーンアイコンにより象徴されるシーン内容を文字列で表現する見出し語「美味しい」を、音声単位要素の情報で表現する見出し語の情報112cが関連付けられて登録されている。「美味しいシーン」を象徴するシーンアイコンを一意に識別可能なシーンID112bには、さらに、関連付けられて登録された見出し語の情報112cで表現される見出し語「美味しい」により表現されるシーン内容を表現する1以上の別の文字列「うまい」及び「おいしー」等を音声単位要素の情報で表現する1以上の同意音情報112dが関連付けられて登録されている。なお、見出し語及び同意音の情報は音声単位要素の情報で表現したものに限定されず、テキスト形式で表現してもよい。また、同意音情報112dは、「うまい」及び「おいしー」等の言語的な音情報に限定されない。例えば、調理時に生じる環境音等を見出し語「美味しい」により表現されるシーン内容を表現する同意音情報112dとして登録してもよい。
検索音生成部113は、シーンアイコン選択部111にて利用者からの選択を受け付けたシーンアイコンに予め対応付けられたシーンIDに対応する見出し語の情報及び1以上の同意音の情報をシソーラス辞書112aから抽出し、シーンIDとともに検索処理部120へ供給する。
[検索処理部120の構成]
検索処理部120は、検索音生成部113より供給された見出し語の情報(第1の音情報)及び1以上の同意音の情報(第2の音情報)と、検索インデックス保存部146に保存された音声ストリーム毎の検索インデックス143aとを比較して、これらの音情報を含む音声ストリームを検索する。より具体的には、検索処理部120は、見出し語を構成する音声単位要素の列と、検索インデックス143a中の音声単位要素の欄における音声単位要素の時間順の並びとを比較し、所定の一致度を満たす検索インデックス143a中の音声単位要素の並びを検索する。検索処理部120は、検索インデックス143a中から検索した音声単位要素の並びにおける先頭の音声単位要素に対応する開始位置の情報を検索インデックス143aから抽出する。検索処理部120は、さらに、検索インデックス143a中から検索した音声単位要素の、変換音声波形パターンに対する音声単位要素の判定結果の確からしさの値であるスコアを計算する。このスコアとは、例えば、検索インデックス143a中から検索した各音声単位要素のスコアの絶対値の合計を、音声単位要素の並びの数で割った値である。検索処理部120は、検索インデックス143aから抽出した開始位置の情報及び計算により得られたスコアとともに、変換元の音声ストリームに関連付けられたコンテンツIDを検索結果出力部130に供給する。
同様に、検索処理部120は、1以上の同意音のうちの1つの同意音を構成する音声単位要素の列と、検索インデックス143a中の音声単位要素の欄における音声単位要素の時間順の並びとを比較し、所定の一致度を満たす検索インデックス143a中の音声単位要素の並びを検索する。検索処理部120は、検索インデックス143a中から検索した音声単位要素の並びにおける先頭の音声単位要素に対応する開始位置の情報を検索インデックス143aから抽出する。検索処理部120は、さらに、検索インデックス143a中から検索した音声単位要素の判定結果の確からしさの値であるスコアを計算する。検索処理部120は、検索インデックス143aから抽出した開始位置の情報及び計算により得られたスコアとともに、変換元の音声ストリームに関連付けられたコンテンツIDを検索結果出力部130に供給する。
検索処理部120は、検索音生成部113より供給された1以上の同意音の情報全てについて上記処理を繰り返す。検索処理部120は、検索音生成部113より供給された見出し語の情報及び1以上の同意音の情報全てについて上記処理を終えると、次に、異なるコンテンツIDが関連付けられた音声ストリームの検索インデックス143aについて一連の処理を行う。検索処理部120は、異なるコンテンツIDが関連付けられた音声ストリームの検索インデックス143a全てについて一連の処理を行う。
[検索結果出力部130の構成]
検索結果出力部130は、検索処理部120から供給されたコンテンツIDをもとに、トランスポートストリーム保存部152に当該コンテンツIDに関連付けられて保存された番組名、リムーバブルメディア615内のコンテンツタイトル、コンテンツ配信サーバ618又は放送局608の名称及び配信日時等の番組情報を抽出する。検索結果出力部130は、コンテンツIDとともに検索処理部120から供給された音声単位要素の判定結果の確からしさの値であるスコアに基き、例えば1以上のシーンの開始位置の情報を抽出する。検索結果出力部130は、検索処理部120から供給されたコンテンツIDと、トランスポートストリーム保存部152に当該コンテンツIDに関連付けられて保存されたコンテンツ情報と、1以上のシーンの開始位置の情報とを出力する。
表示部607は、検索結果出力部130から出力された情報に基き、シーン検索結果画面130aを表示部607の表示画面に表示する。シーン検索結果画面130aは、例えば、1以上のシーンにそれぞれ関連付けられたアイコンと、スコアが最小のシーンの開始位置と、番組情報とが互いに関連付けて表示された画面である。
図7は、シーン検索結果画面130aを示す図である。
同図において、シーン検索結果画面130aには、所定のコンテンツIDに関連付けられた、番組情報である番組名「A料理番組」、コンテンツ配信サーバ618又は放送局608の名称「Aテレビ」及び配信日時「2009.4.6 22:32」と、スコアが最小のシーンの開始位置「12:20」と、1以上のシーンに関連付けられたアイコンとが表示される。
さらに、利用者によりシーン検索結果画面130aに表示されたアイコンの1つが選択されたとき、検索結果出力部130は、例えば、当該アイコンに関連付けられたシーンの開始位置の情報をもとに所定長さのトランスポートストリームをトランスポートストリーム保存部152から検索し、これをサムネイル130bとして表示部607の表示画面に表示するよう出力を行ってもよい。
[情報端末1の動作]
次に、情報端末1の動作を説明する。動作の説明は以下の順で行うものとする。
(1)検索インデックス作成の動作
(2)シーンの検索の動作
[検索インデックス作成の動作]
(1)検索インデックス作成の動作について説明する。
図8は、検索インデックス作成の動作を示すフローチャートである。
まず、音声ストリーム分離部141は、トランスポートストリーム保存部152に保存されたトランスポートストリームから音声ストリームを分離し、この音声ストリームと、コンテンツリストに記録された当該トランスポートストリームのコンテンツIDとを関連付けて音声ストリーム保存部145に保存する(ステップS101)。音声ストリーム分離部141は、トランスポートストリーム保存部152に保存されたトランスポートストリーム毎にこの処理を繰り返す(ステップS102でYES)。音声ストリーム分離部141は、トランスポートストリーム保存部152に保存された全てのトランスポートストリームにこの処理を行う(ステップS102でNO)。
続いて、音声波形パターン抽出部142は、音声ストリーム保存部145に保存された音声ストリームを変換音声波形パターンに変換する。音声波形パターン抽出部142は、変換音声波形パターンとともに、変換元の音声ストリームに関連付けられたコンテンツIDを検索インデックス生成部143に供給する(ステップS103)。音声波形パターン抽出部142は、音声ストリーム保存部145に保存された音声ストリーム毎にこの処理を繰り返す(ステップS104でYES)。音声波形パターン抽出部142は、音声ストリーム保存部145に保存された全ての音声ストリームにこの処理を行う(ステップS104でNO)。
続いて、検索インデックス生成部143は、音声波形パターン抽出部142より供給された変換音声波形パターンと音声単位要素表144aに登録された各音声波形パターンとのマッチングにより、変換音声波形パターンに対する音声単位要素を判定する。また、検索インデックス生成部143は、判定された音声単位要素に対応する変換音声波形パターンの音声ストリームにおける時間軸上での開始位置と終了位置を判定する。さらには、検索インデックス生成部143は、変換音声波形パターンに対する音声単位要素の判定結果の確からしさの値であるスコアを算出する。そして、検索インデックス生成部143は、判定した音声単位要素、開始位置、終了位置及びスコアを互いに関連付けた情報を検索インデックス143aとして検索インデックス保存部146に保存する。この検索インデックス143aは音声ストリーム毎に作成される。さらに、検索インデックス生成部143は、作成された音声ストリーム毎の検索インデックス143aと、その音声ストリームのコンテンツIDとの関係を検索インデックス保存部146に保存する(ステップS105)。検索インデックス生成部143は、音声ストリーム毎にこの処理をする(ステップS106でYES)。検索インデックス生成部143は、音声波形パターン抽出部142より供給された全ての変換音声波形パターンにこの処理を行う(ステップS106でNO)。
このようにして、検索インデックス保存部146に、音声ストリーム毎の検索インデックス143aと、その音声ストリームのコンテンツIDとの関係とが保存される。ステップS101〜ステップS106の一連の動作は、トランスポートストリーム保存部152にトランスポートストリームが保存される度に行ってもよい。あるいは、予め決定されたスケジューリングに従って、情報端末1の情報処理の量が少ないときにまとめて行ってもよい。例えば、複数のトランスポートストリームをトランスポートストリーム保存部152に順次保存しておいて、放送の休止期間にこれらのトランスポートストリームから検索インデックス143aを作成して検索インデックス保存部146に保存するようにしてもよい。あるいは、音声ストリーム保存部145に音声ストリームを所定量保存しておき(ステップS101〜ステップS112)、所定量の音声ストリーム毎にステップS103〜ステップS106の動作を行ってもよい。
[シーン検索の動作]
(2)シーンの検索の動作について説明する。
図9は、シーンの検索の動作を示すフローチャートである。
まず、シーンアイコン選択部111は、表示部607の表示画面に1以上のシーンアイコン及び見出し語を含む選択画面を表示して利用者に提示する(ステップS201)。利用者は、シーンアイコン選択部111を用いて、表示部607の表示画面に表示された1以上のシーンアイコンの中から所望のシーン内容に対応するシーンアイコンを選択する(ステップS202)。シーンアイコン選択部111は、利用者によるシーンアイコン101bの選択の結果を受け付けると、この選択結果を検索音生成部113に供給する(ステップS203)。
続いて、検索音生成部113は、シーンアイコン選択部111にて利用者からの選択を受け付けたシーンアイコンに対応する見出し語の情報及び1以上の同意音の情報をシソーラス辞書112aから抽出し、検索処理部120へ供給する(ステップS204)。
続いて、検索処理部120は、検索音生成部113より供給された見出し語の情報及び1以上の同意音の情報と、検索インデックス保存部146に保存された音声ストリーム毎の検索インデックス143aとを比較する。より具体的には、検索処理部120は、見出し語を構成する音声単位要素の列と、検索インデックス143a中の音声単位要素の欄における音声単位要素の時間順の並びとを比較し、所定の一致度を満たす検索インデックス143a中の音声単位要素の並びを検索する。検索処理部120は、検索インデックス143a中から検索した音声単位要素の並びにおける先頭の音声単位要素に対応する開始位置の情報を検索インデックス143aから抽出する。検索処理部120は、さらに、検索インデックス143a中から検索した音声単位要素のスコアを計算する。検索処理部120は、検索インデックス143aから抽出した開始位置の情報及び計算により得られたスコアとともに、変換元の音声ストリームに関連付けられたコンテンツIDを検索結果出力部130に供給する(ステップS205)。
検索処理部120は、検索音生成部113より供給された1以上の同意音の情報ごとにこの処理をする。検索処理部120は、検索音生成部113より供給された見出し語の情報及び1以上の同意音の情報全てについて上記処理を終えると、次に、異なるコンテンツIDが関連付けられた音声ストリームの検索インデックス143aについて一連の処理を行う(ステップS206でYES)。検索処理部120は、異なるコンテンツIDが関連付けられた音声ストリームの検索インデックス143a全てについて一連の処理を行う(ステップS206でNO)。
続いて、検索結果出力部130は、検索処理部120から供給されたコンテンツIDをもとに、トランスポートストリーム保存部152に当該コンテンツIDに関連付けられて保存された番組名、リムーバブルメディア615内のコンテンツタイトル、コンテンツ配信サーバ618又は放送局608の名称及び配信日時等の番組情報を抽出する(ステップS207)。検索結果出力部130は、コンテンツIDとともに検索処理部120から供給された音声単位要素のスコアに基き、例えば1以上のシーンの開始位置の情報を抽出する。検索結果出力部130は、検索処理部120から供給されたコンテンツIDと、トランスポートストリーム保存部152に当該コンテンツIDに関連付けられて保存されたコンテンツ情報と、1以上のシーンの開始位置の情報とを出力する(ステップS208)。
本実施形態において、検索インデックス生成部143は、音声単位要素を判定し、音声単位要素の判定結果の確からしさの値であるスコアを算出し、音声単位要素を検索インデックス保存部146に保存した。しかしながら、これに限定されない。検索インデックス生成部143は、音声波形パターンを判定し、音声波形パターンの判定結果の確からしさの値であるスコアを算出し、音声波形パターンを検索インデックス保存部146に保存してもよい。
本実施形態によれば、シーン内容を象徴するシーンアイコンに関連付けられ且つシーン内容を表現する音情報をシーン検索の条件とする利用者からの指定を受け付けてシーン検索が行われるので、利用者が検索の条件となる音情報を決定する際のバラツキがなくなり、所望する属性のシーンを精度良く検索することができる。利用者は、表示されたシーンアイコンを通して検索の条件とすべき音情報を選択することができる。これにより利用者は、より直感的に音情報の選択を行うことができる。また、シソーラス辞書にシーンアイコンに対応した見出し語及び1以上の同意音が登録されているので、利用者による入力の負担増を招くことなく、複数の種類の音情報によるシーン検索を行うことが可能になる。また、表示画面に表示されたシーンアイコンを選択すればシーン検索の動作が行われるので、複数のシーンアイコンによりそれぞれ象徴される複数のシーン内容のうちから所望のシーンを検索することができる。
<第2の実施形態>
次に、本発明の第2の実施形態に係る、情報処理装置としての情報端末2について説明する。
以下の説明において、第1の実施形態と同様の構成及び機能等については説明を省略又は簡略し、異なる点を中心に説明する。本実施形態において、情報端末1の各ユニットと同様の構成をもつ情報端末2の各ユニットについては対応する符号(200番台)を付し、重複する説明は省略する。
[情報端末2のソフトウェア構成]
情報端末2のソフトウェア構成を説明する。
図10は、情報端末2のソフトウェア構成を示すブロック図である。
情報端末2は、検索インデックス生成部240と、データ取得部250と、自動検索処理部270と、コンテンツ情報処理部280とを有する。
[データ取得部250の構成]
データ取得部250は、第1の実施形態のデータ取得部150と同様のトランスポートストリーム取得部251及びトランスポートストリーム保存部252と、番組情報取得部253と、番組情報保存部254とを有する。
番組情報取得部253は、ネットワーク617を通じて番組情報配信サーバ619より配信される番組情報を取得して番組情報保存部254に保存する。番組情報とは、互いに関連付けられた番組名、番組の解説、放送局及び配信日時等の情報であり、番組表の作成に必要な情報が含まれる。番組表とは、コンテンツ配信サーバ618又は放送局608が提供する番組の視聴を案内するための情報が掲載された電子番組表である。番組情報取得部253は、過去の所定日数分の番組表の情報を番組情報保存部254に保存し、これを管理する。番組情報保存部254に番組表を保存する日数は、利用者により適宜設定可能とすればよい。
トランスポートストリーム取得部251は、番組情報保存部254に保存された番組表の情報中の対応するコンテンツの番組情報に、当該コンテンツIDを関連付けて追加保存する。
[自動検索処理部270の構成]
自動検索処理部270は、第1の実施形態の情報端末1と同様の検索音生成部272(音情報生成部)、シソーラス辞書保存部212及び検索処理部273と、シーン設定部271(指定部)と、メタデータ保存部274とを有する。
シーン設定部271は、表示部607の表示画面にそれぞれ異なるシーン内容を象徴する複数のシーンアイコンを含むシーン選択画面を利用者に提示し、その中から利用者に所望の(検索の対象となる)シーン内容に対応する1以上のシーンアイコンを選択させ、その結果を受け付ける。シーン設定部271は、利用者により選択されたシーンアイコンに対応付けられたシーンIDを判定し、検索音生成部272に供給する。なお、利用者がシーン内容を選択するためのインタフェースはシーンアイコンに限定されず、シーン内容が文字列として表現された見出し語等でもよい。
検索音生成部272は、シーン設定部271より供給されたシーンIDに対応する見出し語を構成する音声単位要素の列としての音情報及び1以上の同意音を構成する音声単位要素の列としての音情報をシソーラス辞書112aから抽出し、供給されたシーンIDとともに検索処理部273へ供給する。
検索処理部273は、検索音生成部272から供給されたシーンID毎に、当該シーンIDに関連付けられた見出し語を構成する音声単位要素の列としての音情報及び1以上の同意音を構成する音声単位要素の列としての音情報と、検索インデックス保存部246に保存された音声ストリーム毎の検索インデックス143aとを比較し、所定の一致度を満たす検索インデックス143a中の音声単位要素の並びを検索する。検索処理部273は、検索インデックス143a中から検索した音声単位要素の並びにおける先頭の音声単位要素に対応する開始位置の情報を検索インデックス143aから抽出する。検索処理部273は、さらに、検索インデックス143a中から検索した音声単位要素のスコアを計算する。検索処理部273は、当該シーンIDに関連付けられた見出し語の情報及び1以上の同意音の情報全てについて上記処理を行う。そして、検索処理部273は、得られた開始位置及びスコアを互いに関連付けた情報を、シーンID毎のメタデータとして、当該シーンIDを関連付けてメタデータ保存部274に保存する。検索処理部273は、検索音生成部272から供給されたシーンID全てについてこの処理を行う。これにより、図11に示すように、音声ストリーム毎のメタデータが得られ、メタデータ保存部274において当該音声ストリームのコンテンツIDと関連付けて保存される。
図11は、メタデータの構成を示す図である。
シーンID273b、シーンID毎のメタデータ273c及びシーンID毎のシーン数273d等でシーンID273b毎のメタデータ273aを構成する。ここで、シーンID毎のシーン数273dはシーンID毎のメタデータ273cに含まれる開始位置の情報273gとスコア273eとのペアの数を示す。この開始位置の情報の利用方法については後で説明する。シーン設定部271にて設定された1以上のシーンID毎のメタデータ273aで、音声ストリーム毎のメタデータ273fを構成する。
[コンテンツ情報処理部280の構成]
コンテンツ情報処理部280は、表示指示部281と、コンテンツ情報出力部282と、シーンアイコン画像保存部283とを有する。
表示指示部281は、表示部607の表示画面への番組表の表示の指示と、表示する番組表の過去の日時の指示とを利用者より受け付ける。表示指示部281は、例えば、表示部607の表示画面に所定の指示画面を表示する。利用者は、入力操作部605を用いて、表示部607の表示画面への番組表の表示の指示と、表示する番組表の過去の日時の指示とをすることができる。表示指示部281は、利用者による番組表の表示の指示と、表示する番組表の過去の日時の指示とを受け付け、この指示をコンテンツ情報出力部282に通知する。また、表示指示部281は、特定のコンテンツに係る詳細情報表示(後述する。)の指示を利用者から受け付けたり、異なる詳細情報表示への表示変換の指示を利用者から受け付ける。
コンテンツ情報出力部282は、表示指示部281より番組表の表示の指示及び表示する番組表の過去の日時の指示を受けると、指示された日時をもとに、番組情報保存部254に保存された番組表の情報から、該当する日時のコンテンツの番組情報と、その番組情報に関連付けられたコンテンツIDとを抽出する。コンテンツ情報出力部282は、抽出したコンテンツIDをもとに、メタデータ保存部274から、該当する音声ストリーム毎のメタデータを抽出する。コンテンツ情報出力部282は、メタデータ保存部274から抽出した音声ストリーム毎のメタデータより、シーンIDを所定のルールに基き抽出する。所定のルールとしては、例えば、シーンID毎のシーンの数が閾値以上の当該シーンIDを抽出したり、スコアの平均値が閾値以上の当該シーンIDを抽出したりすればよい。
シーンアイコン画像保存部283には、それぞれ異なるシーン内容を象徴する1以上のシーンアイコン画像がシーンIDと対応付けて保存されている。コンテンツ情報出力部282は、メタデータ273aより所定のルールに基き抽出したシーンIDが関連付けられたシーンアイコン画像をシーンアイコン画像保存部283から抽出する。
そして、コンテンツ情報出力部282は、コンテンツIDに対応する番組情報にそのシーンIDに対応するシーンアイコン画像を配置する等して番組表情報を作成し、その結果を出力する。表示部607は、コンテンツ情報出力部282から出力された情報に基き、番組表画面282aを表示部607の表示画面に表示する。番組表画面282aには、例えば、番組名、番組の解説、放送局及び配信日時等の番組情報を含む番組表において、コンテンツ毎の番組情報にシーンアイコンが配置される。上記所定のルールによっては、1の番組情報に1以上のシーンアイコンが関連付けて表示されることもあるし、シーンアイコンが1つも表示されない場合もある。番組表画面282aにおいて、コンテンツの情報とこのシーン内容を象徴するシーンアイコンの画像とを組み合わせた表示を行うことができるので、どのコンテンツにどのようなシーン内容が含まれるのかを表示するにあたり、利用者の直感に訴える表示を行うことができる。
図12は、番組表画面282aを示す図である。
同図において、番組表画面282aには、例えば、所定のコンテンツに関し、番組名「バラエティ番組H」、チャンネル「7ch」、放送局「Gテレビ」及び放送開始時刻「17:00」等の番組情報が表示され、「大笑いのシーン」を象徴するシーンアイコン及び「不思議なシーン」を象徴するシーンアイコンが配置される。
さらに、コンテンツ情報出力部282は、例えば、当該シーンアイコンに関連付けられたシーンの開始位置から所定長さのトランスポートストリームをトランスポートストリーム保存部252から検索し、これをサムネイル282bとして表示部607の表示画面に表示するよう出力を行ってもよい。なお、同図ではサムネイル282bとして矩形の欄を示し詳細な表示は省略している。
なお、同図においては番組表としてEPG(Electronic Program Guide)を例示しているがこれに限定されない。IPマルチキャストを通じて取得可能なコンテンツに関するECG(Electronic Contents Guide)であってもよい。
番組表画面282a内に各コンテンツ毎に表示された各シーンアイコンには、当該シーンアイコンが配置された番組表の欄に対応するコンテンツのコンテンツIDが関連付けられている。利用者は、入力操作部605を用いて表示部607の表示画面に表示された所定のシーンアイコンにクリック等の所定の操作をすることで、番組表の表示から、当該操作されたシーンアイコンに関連付けられたコンテンツIDのコンテンツに係る詳細情報表示へと、表示を変換するための指示をすることができる。表示指示部281は、利用者による表示変換の指示を受け付け、この指示をコンテンツ情報出力部282に通知する。コンテンツ情報出力部282は、表示指示部281より表示変換の指示を受けると、指示されたコンテンツに関連付けられたコンテンツIDをもとに、そのコンテンツIDに係る詳細情報を含む詳細情報表示画面282cを表示するための第1の表示情報を作成して出力する。この詳細情報表示画面282cには、例えば、放送局、番組名、放送時間帯、キャスト及び詳細情報等の、番組表画面282aに表示された番組情報より詳細な情報及びサムネイル282bが表示される。詳細情報表示画面282cには、さらに、シーン詳細情報表示欄282dが含まれる。シーン詳細情報表示欄282dは、コンテンツ内の所定の時間帯(例えば、番組開始時刻から番組終了時刻まで)におけるどの位置に所定のシーン内容が含まれているかを、当該シーン内容を象徴するシーンアイコンを用いて表示するための欄である。
コンテンツ情報出力部282は、次のようにしてシーン詳細情報表示欄282dを表示する。コンテンツ情報出力部282は、詳細情報表示画面282cによりその詳細情報が表示されるコンテンツのコンテンツIDをもとに、当該コンテンツIDが関連付けられて保存されたメタデータ273aを抽出する。コンテンツ情報出力部282は、メタデータ保存部274から抽出したメタデータ273aより、1以上の開始位置の情報273gと、この開始位置の情報273gが含まれるメタデータ273cのシーンIDとを互いに関連付けて所定のルールに基き抽出する。所定のルールとしては、例えば、閾値以上のスコア273eとペアをなす開始位置の情報273gと、この開始位置の情報273gが含まれるメタデータ273cのシーンIDとを互いに関連付けて抽出すればよい。コンテンツ情報出力部282は、メタデータ273aから抽出した開始位置の情報273g及びシーンIDに基き、詳細情報表示欄282dの時間帯における当該開始位置の情報273gに対応する位置に、当該シーンIDが関連付けられたシーンアイコンを表示するための第1の表示情報を作成し、その結果を出力する。
図13は、詳細情報表示画面282cを示す図である。
同図において、詳細情報表示画面282cには、例えば、放送局「Gテレビ」、番組名「バラエティ番組H」、放送時間帯「2009/08/05 17:00〜2009/08/05 17:30」、キャスト及び詳細情報等の番組情報と、詳細情報表示欄282dと、サムネイル282bとが表示される。詳細情報表示欄282dには、シーン内容の開始位置に基き、それぞれ1以上の「不思議なシーン」を象徴するシーンアイコン、「大笑いのシーン」を象徴するシーンアイコン、「美味しいシーン」を象徴するシーンアイコン、及び「びっくりのシーン」を象徴するシーンアイコンが配置される。詳細情報表示画面282cにおいて、コンテンツの情報、シーンの時間の情報及びこのシーン内容を象徴するシーンアイコンの画像を組み合わせた表示を行うことができるので、コンテンツ内のどの時間位置にどのようなシーン内容があるのかを表示するにあたり、利用者の直感に訴える表示を行うことができる。
詳細情報表示欄282d内に表示された各シーンアイコンには、当該シーンアイコンが象徴するシーン内容の開始位置の情報が関連付けられている。利用者は、入力操作部605を用いて詳細情報表示欄282d内に表示された所定のシーンアイコンにクリック等の所定の操作をすることができる。表示指示部281は利用者よりサムネイル表示の指示を受け付け、この指示をコンテンツ情報出力部282に通知する。コンテンツ情報出力部282は、表示指示部281より通知を受けると、当該操作されたシーンアイコンに関連付けられた開始位置の情報をもとに所定長さのトランスポートストリームをトランスポートストリーム保存部252から検索し、これをサムネイル282eとして表示部607の表示画面に表示するよう出力を行う。
あるいは、利用者が入力操作部605を用いて番組表画面282a内に表示された所定のシーンアイコンにクリック等の所定の操作をすることで、番組表の表示から、詳細情報表示画面282cとは異なるデザインの詳細情報表示画面282fの表示へと表示を変換してもよい。表示指示部281は、利用者による表示変換の指示を受け付け、この指示をコンテンツ情報出力部282に通知する。コンテンツ情報出力部282は、表示指示部281より表示変換の指示を受けると、指示されたコンテンツIDをもとに、そのコンテンツIDに係る詳細情報を含む詳細情報表示画面282fを表示するための第2の表示情報を出力する。この詳細情報表示画面282fには、例えば、放送局、番組名、放送時間帯、キャスト及び詳細情報等の詳細な情報及びサムネイル282bが表示される。詳細情報表示画面282fには、さらに、シーン分析表示欄282gが含まれる。シーン分析表示欄282gは、コンテンツ内に所定のシーン内容が含まれる回数等を、当該シーン内容を象徴するシーンアイコンを用いて表示するための欄である。
コンテンツ情報出力部282は、次のようにしてシーン分析表示欄282gを表示する。コンテンツ情報出力部282は、詳細情報表示画面282fによりその詳細情報が表示されるコンテンツのコンテンツIDをもとに、当該コンテンツIDが関連付けられて保存されたメタデータ273aを抽出する。コンテンツ情報出力部282は、メタデータ保存部274から抽出したメタデータ273aより、各シーンIDに対応するシーン数を所定のルールに基き計算して抽出する。所定のルールとしては、例えば、各シーンIDに関連付けられて登録されたスコア273eのうち閾値以上のスコア273eの数を当該シーンIDと関連付けて抽出すればよい。コンテンツ情報出力部282は、メタデータ273aから抽出した閾値以上のスコア273eの数及びこれに関連付けられたシーンIDに基き、当該シーンIDに関連付けられたシーンアイコンを当該抽出した閾値以上のスコア273eの数だけ表示するための第2の表示情報を作成し、その結果を出力する。
図14は、詳細情報表示画面282fを示す図である。
同図において、詳細情報表示画面282fには、例えば、放送局「Gテレビ」、番組名「バラエティ番組H」、放送時間帯「2009/08/05 17:00〜2009/08/05 17:30」、キャスト及び詳細情報等の番組情報と、シーン分析表示欄282gと、サムネイル282bとが表示される。シーン分析表示欄282gには、それぞれコンテンツ情報出力部282より出力された数の「大笑いのシーン」を象徴するシーンアイコン、「びっくりのシーン」を象徴するシーンアイコン、「不思議なシーン」を象徴するシーンアイコン及び「美味しいシーン」を象徴するシーンアイコンが配置される。詳細情報表示画面282fにおいて、コンテンツの情報とこのシーン内容を象徴するシーンアイコンの画像とを組み合わせた表示を行うことができるので、どのコンテンツにどのようなシーン内容が含まれるのかを表示するにあたり、利用者の直感に訴える表示を行うことができる。
[情報端末2の動作]
次に、情報端末2の動作を説明する。動作の説明は以下の順で行うものとする。
(1)自動検索処理の動作
(2)コンテンツ情報処理の動作
なお、(1)自動検索処理の動作の前に検索インデックス生成部140により検索インデックス作成の動作が行われるが、この動作はステップS101〜ステップS106で説明した検索インデックス作成の動作と同様なので説明を省略する。
[自動検索処理の動作]
(1)自動検索処理の動作について説明する。
図15は、自動検索処理の動作を示すフローチャートである。
まず、シーン設定部271は、表示部607の表示画面に選択画面を表示する等して、利用者に検索の対象となるシーン内容を選択させる(ステップS301)。利用者は、シーン設定部271を用いて検索の対象となるシーン内容を選択する(ステップS302)。シーン設定部271は、利用者により選択されたシーン内容に対してこれらをそれぞれ一意に識別可能なシーンIDを作成し、該当するシーンアイコンと関連付けて検索音生成部272に供給する(ステップS303)。
続いて、検索音生成部272は、シーン設定部271にて利用者から選択を受けたシーンアイコンに対応する見出し語を構成する音声単位要素の列及び1以上の同意音を構成する音声単位要素の列をシソーラス辞書112aから抽出し、供給されたシーンIDと関連付けて検索処理部273へ供給する(ステップS304)。
続いて、検索処理部273は、検索音生成部272から供給されたシーンID毎に、当該シーンIDに関連付けられた見出し語を構成する音声単位要素の列及び1以上の同意音を構成する音声単位要素の列と、検索インデックス保存部246に保存された音声ストリーム毎の検索インデックス143aとを比較し、所定の一致度を満たす検索インデックス143a中の音声単位要素の並びを検索する。検索処理部273は、検索インデックス143a中から検索した音声単位要素の並びにおける先頭の音声単位要素に対応する開始位置の情報を検索インデックス143aから抽出する。検索処理部273は、さらに、検索インデックス143a中から検索した音声単位要素のスコアを計算する。検索処理部273は、当該シーンIDに関連付けられた見出し語の情報及び1以上の同意音の情報全てについて上記処理を行う。そして、検索処理部273は、判定した開始位置及びスコアを互いに関連付けた情報を、シーンID毎のメタデータ273aとして、当該シーンIDを関連付けてメタデータ保存部274に保存する。検索処理部273は、検索音生成部272から供給されたシーンID全てについてこの処理を行う。これにより、音声ストリーム毎のメタデータが得られ、メタデータ保存部274において当該音声ストリームのコンテンツIDと関連付けて保存される(ステップS305)。検索処理部273は、異なるコンテンツIDが関連付けられた音声ストリーム毎にこの処理を繰り返す(ステップS306でYES)。検索処理部273は、異なるコンテンツIDが関連付けられた音声ストリーム全てにこの処理を行う(ステップS306でNO)。
なお、本実施形態において、検索音生成部272は、シーン設定部271にて利用者から選択を受けたシーンアイコンについて処理を行ったがこれに限定されない。自動検索処理部270に、シーン設定部271を設けなくてもよい。この場合、検索音生成部272は、シソーラス辞書112aに登録されたシーンIDの全てについて見出し語を構成する音声単位要素の列及び1以上の同意音を構成する音声単位要素の列をシソーラス辞書112aから抽出し、供給されたシーンIDと関連付けて検索処理部273へ供給してもよい。
[コンテンツ情報処理の動作]
(2)コンテンツ情報処理の動作について説明する。
図16は、コンテンツ情報処理の動作を示すフローチャートである。
トランスポートストリーム取得部251は、トランスポートストリームを一意に識別可能なコンテンツIDを作成し、番組情報取得部253により取得され番組情報保存部254に保存された番組表の情報中の対応する番組情報に当該コンテンツIDを関連付けて追加保存する(ステップS401)。
一方、表示指示部281は、例えば、表示部607の表示画面に所定の指示画面を表示する(ステップS402)。利用者は、入力操作部605を用いて、表示部607の表示画面への番組表の表示の指示と、表示する番組表の過去の日時の指示とを行う(ステップS403)。表示指示部281は、利用者による番組表の表示の指示と、表示する番組表の過去の日時の指示とを受け付け、この指示をコンテンツ情報出力部282に通知する(ステップS404)。
表示指示部281より番組表の表示の指示及び表示する番組表の過去の日時の指示を受けると、コンテンツ情報出力部282は、指示された日時をもとに、番組情報保存部254に保存された番組表の情報から、該当する日時のコンテンツの番組情報と、その番組情報に関連付けられたコンテンツIDを抽出する。コンテンツ情報出力部282は、抽出したコンテンツIDをもとに、メタデータ保存部274から、該当する音声ストリーム毎のメタデータを抽出する。コンテンツ情報出力部282は、メタデータ保存部274から抽出した当該音声ストリーム毎のメタデータより、シーンIDを所定のルールに基き抽出する(ステップS405)。
続いて、コンテンツ情報出力部282は、メタデータ273aより抽出したシーンIDが関連付けられたシーンアイコン画像を、シーンアイコン画像保存部283から抽出する(ステップS406)。
そして、コンテンツ情報出力部282は、コンテンツIDに対応する番組情報にそのシーンIDに対応するシーンアイコン画像を配置する等した番組表情報を作成し、その結果を出力する(ステップS407)。
本実施形態によれば、検索されたシーンの時間位置を検索結果に含めて利用者に提供することができる。時間位置が分かることによって、コンテンツの再生を指示する際に時間位置を指示することができ、所望のシーンを即座に再生するようなことも可能になる。上記シーン検索の条件としての音情報を利用者が予め設定できるので、コンテンツの取得後、直ちにシーン検索の実行にかかることができ、さらにシーン検索結果を蓄積しておくことで、利用者が検索結果を参照したいときに即座に参照することができる。
<第3の実施形態>
次に、本発明の第3の実施形態に係る、情報処理装置としての構成を有するサーバ・クライアントシステム8について説明する。サーバ・クライアントシステム8は、サーバとしてのサーバ装置3と、クライアントとしての情報端末4とを含む。サーバ装置3と情報端末4とは、インターネットやホームネットワーク等のネットワーク617を通じて接続されている。なお、同図では1の情報端末4を示すが、これに限定されず、情報端末4は複数であってもよい。
図17は、サーバ装置3及び情報端末4のソフトウェア構成を示すブロック図である。
[サーバ装置3のソフトウェア構成]
まず、サーバ装置3のソフトウェア構成を説明する。
サーバ装置3は、第2の実施形態の情報端末2のコンテンツ情報処理部280から表示指示部281を除いた各ユニットを備え、その他の構成は情報端末2と同様である。情報端末2の各ユニットと同様の構成をもつサーバ装置3の各ユニットについては対応する符号(300番台)を付し、重複する説明は省略する。
コンテンツ情報出力部382は、ネットワーク617を通じて情報端末4の番組情報要求部401(後述する。)から利用者による種々の表示の指示の通知を受けると、シーンアイコン画像の情報を含む表示のための情報を作成し、ネットワーク617を通じて情報端末4の番組情報要求受信部402へ出力する。
[情報端末4のソフトウェア構成]
次に、情報端末4のソフトウェア構成を説明する。
情報端末4は、番組情報要求部401と、番組情報要求受信部402と、表示部403とを有する。
表示部403は、例えば、LCDなどの表示画面を供える表示器と、表示器を駆動する表示制御回路等よりなる。表示部403は、サーバ装置3より供給された番組表情報をもとに番組表を表示画面に表示する。表示部403は、さらに、利用者から入力された指令やデータの確認、各種のステータス等を表示したりする。
番組情報要求部401は、表示部403の表示画面への種々の表示の指示を利用者より受け付けると、この指示をネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382に通知する。
番組情報要求受信部402は、サーバ装置3のコンテンツ情報出力部382より、ネットワーク617を通じて表示部403の表示画面へ種々の表示を行うための情報を取得する。番組情報要求受信部402は、サーバ装置3のコンテンツ情報出力部382から出力された情報に基き、表示部403の表示画面に表示を行う。
[情報端末4の動作]
次に、情報端末4の動作を説明する。
図18は、情報端末4の動作を示すフローチャートである。
まず、番組情報要求部401は、例えば、表示部403の表示画面に所定の指示画面を表示する(ステップS501)。利用者は、入力操作部を用いて、表示部403の表示画面への番組表の表示の指示と、表示する番組表の過去の日時の指示とを行う(ステップS502)。番組情報要求部401は、利用者による番組表の表示の指示と、表示する番組表の過去の日時の指示とを受け付け、ネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382に通知する(ステップS503)。
続いて、番組情報要求受信部402は、コンテンツIDに対応する番組情報にそのシーンIDに対応するシーンアイコン画像が配置等された番組表情報を、ネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382より取得し、表示部403へ出力する(ステップS504)。番組情報要求受信部402からの番組表情報に基き、表示部403は、表示画面に番組表画面282aを表示する(ステップS505)。番組表画面282aは、例えば、図12に示したものと同様である。番組表画面282aには、コンテンツ毎の番組情報にシーンアイコンが配置され、各シーンアイコンには当該シーンアイコンが配置された番組表の欄に対応するコンテンツのコンテンツIDが関連付けられている。
利用者は、入力操作部を用いて表示部403の表示画面に表示された番組表画面282a内の所望のシーンアイコンにクリック等の所定の操作をすることにより、番組表の表示から、当該操作されたシーンアイコンに関連付けられたコンテンツIDのコンテンツに係る詳細情報表示へと、表示を変換するための指示を行う(ステップS506)。番組情報要求部401は、利用者による番組表の表示から所望のコンテンツに係る詳細情報表示へと表示を変換するための指示を受け付け、当該コンテンツに関連付けられたコンテンツIDを含む指示をネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382へ通知する(ステップS507)。
続いて、番組情報要求受信部402は、指示されたコンテンツIDに係る詳細情報を含む詳細情報表示画面の情報を、ネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382より取得し、表示部403へ出力する(ステップS508)。番組情報要求受信部402からの詳細情報表示画面の情報に基き、表示部403は、表示画面に詳細情報表示画面282cを表示する(ステップS509)。詳細情報表示画面282cには、シーン詳細情報表示欄282d等が含まれる。詳細情報表示画面282c、シーン詳細情報表示欄282d及びサムネイル282e(後述する。)は、例えば、図13に示したものと同様である。詳細情報表示欄282d内に表示された各シーンアイコンには、当該シーンアイコンが象徴するシーン内容の開始位置の情報が関連付けられている。
利用者は、入力操作部を用いて詳細情報表示欄282d内に表示された所定のシーンアイコンにクリック等の所定の操作をすることにより、当該シーンアイコンに開始位置の情報が関連付けられたシーン内容のサムネイル表示の指示を行う(ステップS510)。番組情報要求部401は、利用者よりシーンアイコンに開始位置の情報が関連付けられたシーン内容のサムネイル表示の指示を受け付け、ネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382へ通知する(ステップS511)。
続いて、番組情報要求受信部402は、当該シーンアイコンにクリック等の所定の操作をに関連付けられた開始位置の情報をもとにトランスポートストリーム保存部352から検索された所定長さのトランスポートストリームをサムネイル282eとして表示するための情報をネットワーク617を通じてサーバ装置3のコンテンツ情報出力部382より取得し、表示部403へ出力する(ステップS512)。番組情報要求受信部402からの情報に基き、表示部403は、表示画面にサムネイル282eを表示する(ステップS513)。
なお、番組表の表示から、詳細情報表示画面282cとは異なるデザインの詳細情報表示画面282fの表示へと表示を変換する場合も、上記ステップS501〜S509の動作を行えばよい。
本実施形態によれば、サーバ装置3がシソーラス辞書保存部312をもつので、新規なシーンID、見出し語及び同意音の追加登録をサーバ管理者が簡単に行い、それを各複数の情報端末4に反映させることができる。また、サーバ装置3がシーンアイコン画像保存部383をもつので、新規なシーンアイコン画像の追加登録をサーバ管理者が簡単に行い、それを各複数の情報端末4に反映させることができる。
<第4の実施形態>
次に、本発明の第4の実施形態に係る、情報処理装置としての構成を有するサーバ・クライアントシステム9について説明する。サーバ・クライアントシステム9は、サーバとしてのサーバ装置5と、クライアントとしての情報端末7とを含む。サーバ装置5と情報端末7とは、インターネットやホームネットワーク等のネットワーク617を通じて接続されている。
図19は、サーバ装置5及び情報端末7のソフトウェア構成を示すブロック図である。
[サーバ装置5のソフトウェア構成]
まず、サーバ装置5のソフトウェア構成を説明する。
サーバ装置5は、第3の実施形態のサーバ装置3のコンテンツ情報処理部380からシーンアイコン画像保存部383を除いた各ユニットを備え、その他の構成はサーバ装置3と同様である。サーバ装置3の各ユニットと同様の構成をもつサーバ装置5の各ユニットについては対応する符号(500番台)を付し、重複する説明は省略する。
コンテンツ情報出力部580は、ネットワーク617を通じて情報端末7の番組情報要求部701(後述する。)から利用者による種々の表示の指示の通知を受けると、表示のための情報を作成し、ネットワーク617を通じて情報端末7の番組情報受信部702へ出力する。第3の実施形態のコンテンツ情報出力部382はシーンIDに関連付けられたシーンアイコン画像を含む情報を出力するのに対し、コンテンツ情報出力部580は、シーンアイコン画像に代えて、シーンアイコンの識別情報であるシーンIDを含む情報を出力する点において異なる。
[情報端末7のソフトウェア構成]
次に、情報端末7のソフトウェア構成を説明する。
情報端末7は、第3の実施形態の情報端末4がもつ各ユニットを備え、表示情報出力部704と、シーンアイコン画像保存部705とが付加されたものである。情報端末4の各ユニットと同様の構成をもつ情報端末7の各ユニットについては対応する符号(700番台)を付し、重複する説明は省略する。
番組情報受信部702は、ネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580より、表示部703の表示画面へ表示を行うための情報を作成するための、シーンIDを含む情報を取得する。番組情報受信部702は、サーバ装置5のコンテンツ情報出力部580から取得したシーンIDを含む情報を、表示情報出力部704へ出力する。
シーンアイコン画像保存部705には、第3の実施形態のシーンアイコン画像保存部383と同様に、それぞれ異なるシーン内容を象徴する1以上のシーンアイコン画像がシーンIDと対応付けてメタデータ273aとして保存されている。
表示情報出力部704は、番組情報受信部702からのシーンIDを含む情報に基き、メタデータ273aより所定のルールに基き抽出したシーンIDが関連付けられたシーンアイコン画像を、シーンアイコン画像保存部705から抽出する。表示情報出力部704は、番組情報要求部701より取得したシーンIDを含む情報をもとに、この情報に含まれるシーンIDに上記抽出したシーンアイコン画像を関連付ける等して、表示部703の表示画面へ表示を行うための情報を作成し、その情報に基き表示部403の表示画面に表示を行う。
[情報端末7の動作]
次に、情報端末7の動作を説明する。
図20は、情報端末7の動作を示すフローチャートである。
まず、番組情報要求部701は、例えば、表示部703の表示画面に所定の指示画面を表示する(ステップS601)。利用者は、入力操作部を用いて、表示部703の表示画面への番組表の表示の指示と、表示する番組表の過去の日時の指示とを行う(ステップS602)。番組情報要求部701は、利用者による番組表の表示の指示と、表示する番組表の過去の日時の指示とを受け付け、ネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580に通知する(ステップS603)。
続いて、番組情報受信部702は、コンテンツIDに対応する番組情報を含む番組表情報と、当該コンテンツIDに関連付けられたシーンIDを、ネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580より取得し、表示情報出力部704へ出力する(ステップS604)。
シーンアイコン画像保存部705には、それぞれ異なるシーン内容を象徴する1以上のシーンアイコン画像がシーンIDと対応付けてメタデータ273aが保存されている。表示情報出力部704は、番組情報受信部702から取得したシーンIDが関連付けられたシーンアイコン画像をシーンアイコン画像保存部705から抽出する(ステップS605)。続いて、表示情報出力部704は、番組情報受信部702からの番組表情報に基き、コンテンツIDに対応する番組情報に、当該コンテンツIDに関連付けられたシーンIDに対応するシーンアイコン画像を配置する等して番組表情報を作成し、その結果を表示部703へ出力する(ステップS606)。
表示部703は、表示画面に番組表画面282aを表示する(ステップS607)。番組表画面282aは、例えば、図12に示したものと同様である。番組表画面282aには、例えば、番組名、番組の解説、放送局及び配信日時等の番組情報を含む番組表において、コンテンツ毎の番組情報にシーンアイコンが配置される。各シーンアイコンには、当該シーンアイコンが配置された番組表の欄に対応するコンテンツのコンテンツIDが関連付けられている。
利用者は、入力操作部を用いて表示部703の表示画面に表示された番組表画面282a内の所望のシーンアイコンにクリック等の所定の操作をすることにより、番組表の表示から、当該操作されたシーンアイコンに関連付けられたコンテンツIDのコンテンツに係る詳細情報表示へと、表示を変換するための指示を行う(ステップS608)。番組情報要求部701は、利用者による番組表の表示から所望のコンテンツに係る詳細情報表示へと表示を変換するための指示を受け付け、当該コンテンツに関連付けられたコンテンツIDを含む通知をネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580へ通知する(ステップS609)。
続いて、番組情報受信部702は、指示されたコンテンツIDに係る詳細情報を含む詳細情報表示画面の情報を、ネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580より取得し、表示情報出力部704へ出力する(ステップS610)。この詳細情報には、シーン詳細情報表示欄282dを含む詳細情報表示画面282cを作成するための情報が含まれる。ここで、シーン詳細情報表示欄282dを表示するための情報には、メタデータ保存部574から抽出されたメタデータ273aより所定の情報に基き抽出された、1以上の開始位置の情報273gと、この開始位置の情報273gが含まれるメタデータ273cのシーンIDとが含まれる。
表示情報出力部704は、番組情報受信部702から取得したシーンIDが関連付けられたシーンアイコン画像をシーンアイコン画像保存部705から抽出する(ステップS611)。続いて、表示情報出力部704は、詳細情報表示画面282cを作成するための情報に基き、詳細情報表示欄282dの時間帯における当該開始位置の情報273gに対応する位置に、当該シーンIDが関連付けられたシーンアイコンを表示するための詳細情報表示情報を作成し、その結果を表示部703へ出力する(ステップS612)。
表示部703は、表示画面に詳細情報表示画面282cを表示する(ステップS613)。詳細情報表示画面282cは、例えば、図13に示したものと同様である。詳細情報表示画面282cには、番組情報と、詳細情報表示欄282dとが表示される。詳細情報表示欄282dには、シーン内容の開始位置に基き、それぞれ1以上の異なるシーン内容を象徴するシーンアイコンが配置される。詳細情報表示欄282d内に表示された各シーンアイコンには、当該シーンアイコンが象徴するシーン内容の開始位置の情報が関連付けられている。
利用者は、入力操作部を用いて表示部703の表示画面に表示された詳細情報表示欄282d内の所望のシーンアイコンにクリック等の所定の操作をすることにより、当該操作されたシーンアイコンに関連付けられたシーンIDに関連付けられた開始位置の情報273gをもとにサムネイル表示の指示を行う(ステップS614)。番組情報要求部701は、利用者よりサムネイル表示の指示を受け付け、この開始位置の情報273gを含む指示をネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580へ通知する(ステップS615)。
続いて、番組情報受信部702は、開始位置の情報273gをもとにトランスポートストリーム保存部552から検索された所定長さのトランスポートストリームをサムネイル282eとして表示するための情報を、ネットワーク617を通じてサーバ装置5のコンテンツ情報出力部580より取得し、表示情報出力部704へ出力する(ステップS616)。
表示情報出力部704は、番組情報受信部702から取得したトランスポートストリームをサムネイル282eとして表示するための情報に基き、サムネイル282eを表示するための情報を作成し、その結果を表示部703へ出力する(ステップS617)。
表示部703は、表示画面にサムネイル282eを表示する(ステップS618)。サムネイル282eは、例えば、図13に示したものと同様である。
本実施形態によれば、サーバ装置5から端末装置7にシーンアイコンの識別情報を送るようにしたことで、アイコンの画像情報を送信する場合に比べ、全体的なデータ転送量を低減することができる。また、端末装置7がシーンアイコン画像保存部283を持つので、個々の利用者が所望のシーンアイコン画像を追加登録することができる。
本発明に係る実施形態は、以上説明した実施形態に限定されず、他の種々の実施形態が考えられる。
1、2、4、7…情報端末
3、5…サーバ装置
8、9…サーバ・クライアントシステム
110…アイコン選択部(指定部)
111…シーンアイコン選択部
112、212、312、512…シソーラス辞書保存部
113、272、372、572…検索音生成部(音情報生成部)
120、273、373、573…検索処理部
130…検索結果出力部(出力部)
140、240、340、540…検索インデックス生成部
141、241、341、541…音声ストリーム分離部
142、242、342、542…音声波形パターン抽出部
143、243、343、543…検索インデックス生成部
144、244、344、544…音声単位要素表保存部
145、245、345、545…音声ストリーム保存部
146、246、346、546…検索インデックス保存部
150、250…データ取得部(取得部)
151、251…トランスポートストリーム取得部
152、252、352、552…トランスポートストリーム保存部
253…番組情報取得部
254、354、554…番組情報保存部
270、370、570…自動検索処理部
271、371、571…シーン設定部(指定部)
274、574…メタデータ保存部
280、380…コンテンツ情報処理部
282、382、580…コンテンツ情報出力部(出力部)
283、383、705…シーンアイコン画像保存部
350、550…データ保存部
401、701…番組情報要求部
402、702…番組情報受信部
704…表示情報出力部

Claims (4)

  1. 音声を含む1以上のコンテンツを取得する取得部と、
    シーン内容を象徴するアイコンに関連付けられ、かつ前記シーン内容を表現する音情報をシーン検索の条件とする指定を、ユーザによる前記アイコンの選択により受け付ける指定部と、
    前記シーン検索の条件としての指定を受け付けた音情報と前記取得した1以上のコンテンツに含まれる前記音声と比較して、前記音情報を前記音声に含む1以上のコンテンツおよび各々のコンテンツにおける前記音情報に対応する前記音声の時間位置を検索する検索処理部と、
    前記検索された1以上のコンテンツにおいて詳細情報の表示に切り替えるように指定されたコンテンツに関する情報とともに、このコンテンツ内の前記検索された前記時間位置を示すために、前記指定されたシーン内容に関連付けられた前記アイコンを配置した表示情報を作成して出力する出力部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記指定部は、1以上のシーン内容を表現する1以上の音情報をシーン検索の条件とする指定を、ユーザによる前記アイコンの選択により受け付け、
    前記検索処理部は、前記シーン検索の条件としての指定を受け付けた1以上の音情報と前記取得した1以上のコンテンツに含まれる前記音声と比較して、前記音情報を前記音声に含む1以上のコンテンツおよび各々のコンテンツにおける前記音情報に各々対応する前記音声の1以上の時間位置を検索し、
    前記出力部は、前記検索された1以上のコンテンツにおいて詳細情報の表示に切り替えるように指定されたコンテンツに関する情報とともに、このコンテンツ内の前記検索された前記時間位置を示すために、前記指定された1以上のシーン内容に関連付けられた1以上の前記アイコンを配置した表示情報を作成して出力する
    情報処理装置。
  3. 取得部が、音声を含む1以上のコンテンツを取得し、
    指定部が、シーン内容を象徴するアイコンに関連付けられ、かつ前記シーン内容を表現する音情報をシーン検索の条件とする指定を、ユーザによる前記アイコンの選択により受け付け、
    検索処理部が、前記シーン検索の条件としての指定を受け付けた音情報と前記取得した1以上のコンテンツに含まれる前記音声と比較して、前記音情報を前記音声に含む1以上のコンテンツおよび各々のコンテンツにおける前記音情報に対応する前記音声の時間位置を検索し、
    出力部が、前記検索された1以上のコンテンツにおいて詳細情報の表示に切り替えるように指定されたコンテンツに関する情報とともに、このコンテンツ内の前記検索された前記時間位置を示すために、前記指定されたシーン内容に関連付けられた前記アイコンを配置した表示情報を作成して出力する
    シーン検索方法。
  4. 音声を含む1以上のコンテンツを取得する取得部と、
    シーン内容を象徴するアイコンに関連付けられ、かつ前記シーン内容を表現する音情報をシーン検索の条件とする指定を、ユーザによる前記アイコンの選択により受け付ける指定部と、
    前記シーン検索の条件としての指定を受け付けた音情報と前記取得した1以上のコンテンツに含まれる前記音声と比較して、前記音情報を前記音声に含む1以上のコンテンツおよび各々のコンテンツにおける前記音情報に対応する前記音声の時間位置を検索する検索処理部と、
    前記検索された1以上のコンテンツにおいて詳細情報の表示に切り替えるように指定されたコンテンツに関する情報とともに、このコンテンツ内の前記検索された前記時間位置を示すために、前記指定されたシーン内容に関連付けられた前記アイコンを配置した表示情報を作成して出力する出力部と
    としてコンピュータを機能させるプログラム。
JP2009248590A 2009-10-29 2009-10-29 情報処理装置、シーン検索方法及びプログラム Expired - Fee Related JP5568953B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009248590A JP5568953B2 (ja) 2009-10-29 2009-10-29 情報処理装置、シーン検索方法及びプログラム
US12/909,258 US8781301B2 (en) 2009-10-29 2010-10-21 Information processing apparatus, scene search method, and program
CN2010105304344A CN102054019A (zh) 2009-10-29 2010-10-22 信息处理装置、场景搜索方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009248590A JP5568953B2 (ja) 2009-10-29 2009-10-29 情報処理装置、シーン検索方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011095958A JP2011095958A (ja) 2011-05-12
JP5568953B2 true JP5568953B2 (ja) 2014-08-13

Family

ID=43925540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009248590A Expired - Fee Related JP5568953B2 (ja) 2009-10-29 2009-10-29 情報処理装置、シーン検索方法及びプログラム

Country Status (3)

Country Link
US (1) US8781301B2 (ja)
JP (1) JP5568953B2 (ja)
CN (1) CN102054019A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047620B2 (en) 2012-03-21 2015-06-02 Google Inc. Expected activity of a user
US20140214863A1 (en) * 2013-01-31 2014-07-31 Hewlett-Packard Development Company, L.P. Selecting data items for display that are associated with entities that have representations placed in a selected state
KR101537665B1 (ko) * 2013-02-26 2015-07-20 주식회사 알티캐스트 콘텐츠 재생 방법 및 장치
JP2015115874A (ja) * 2013-12-13 2015-06-22 株式会社東芝 電子機器、方法及びプログラム
WO2015120184A1 (en) 2014-02-06 2015-08-13 Otosense Inc. Instant real time neuro-compatible imaging of signals
JP6520361B2 (ja) * 2015-05-01 2019-05-29 富士通株式会社 コンテンツ活用支援方法、コンテンツ活用支援プログラム、及びコンテンツ活用支援装置
US20180302680A1 (en) * 2016-12-16 2018-10-18 Google Inc. On-Demand Video Surfing

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3767763B2 (ja) * 1997-07-25 2006-04-19 株式会社ジャストシステム 情報検索装置およびその装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US7260226B1 (en) * 1999-08-26 2007-08-21 Sony Corporation Information retrieving method, information retrieving device, information storing method and information storage device
JP4325071B2 (ja) * 2000-04-07 2009-09-02 ソニー株式会社 デジタルビデオ再生方法及びデジタルビデオ再生装置
KR100657267B1 (ko) * 2003-10-30 2006-12-14 삼성전자주식회사 검색을 위한 메타 정보가 포함된 저장 매체, 재생 장치 및그 재생 방법
JP2003271630A (ja) * 2002-03-15 2003-09-26 Yamaha Corp 情報検索方法、プログラム及び装置
JP2005267053A (ja) * 2004-03-17 2005-09-29 Nec Corp 音声検索装置、音声検索サーバ、音声検索方法及び音声検索プログラム
US20060075346A1 (en) * 2004-09-27 2006-04-06 Tom Lanning Video presentation using compositional structures
CN1889172A (zh) * 2005-06-28 2007-01-03 松下电器产业株式会社 可增加和修正声音类别的声音分类***及方法
WO2007066662A1 (ja) * 2005-12-05 2007-06-14 Pioneer Corporation コンテンツ検索装置、コンテンツ検索システム、コンテンツ検索システム用サーバ装置、コンテンツ検索方法及びコンピュータプログラム並びに検索機能付きコンテンツ出力装置
JPWO2007066663A1 (ja) * 2005-12-05 2009-05-21 パイオニア株式会社 コンテンツ検索装置、コンテンツ検索システム、コンテンツ検索システム用サーバ装置、コンテンツ検索方法及びコンピュータプログラム並びに検索機能付きコンテンツ出力装置
US8032370B2 (en) * 2006-05-09 2011-10-04 Nokia Corporation Method, apparatus, system and software product for adaptation of voice activity detection parameters based on the quality of the coding modes
KR100765793B1 (ko) * 2006-08-11 2007-10-12 삼성전자주식회사 음향 변환기 어레이를 사용하는 오디오 시스템에서 룸파라미터를 보정하는 장치 및 방법
EP1975938A1 (en) * 2007-03-31 2008-10-01 Sony Deutschland Gmbh Method for determining a point in time within an audio signal
JP2008276340A (ja) * 2007-04-26 2008-11-13 Hitachi Ltd 検索装置
JP2009130849A (ja) * 2007-11-27 2009-06-11 Toshiba Corp シーン認識装置及び映像処理装置
US20100011388A1 (en) * 2008-07-10 2010-01-14 William Bull System and method for creating playlists based on mood
CN101359339A (zh) * 2008-09-23 2009-02-04 无敌科技(西安)有限公司 一种关键词自动扩展查询方法及其装置
WO2010075634A1 (en) * 2008-12-30 2010-07-08 Karen Collins Method and system for visual representation of sound

Also Published As

Publication number Publication date
CN102054019A (zh) 2011-05-11
US8781301B2 (en) 2014-07-15
US20110103768A1 (en) 2011-05-05
JP2011095958A (ja) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5178109B2 (ja) 検索装置、方法及びプログラム
JP5568953B2 (ja) 情報処理装置、シーン検索方法及びプログラム
US8155969B2 (en) Subtitle generation and retrieval combining document processing with voice processing
CN107577385B (zh) 媒体环境中的智能自动化助理
US7966184B2 (en) System and method for audible web site navigation
JP4550725B2 (ja) 映像視聴支援システム
CN101422041A (zh) 基于因特网搜索的电视
US20150098018A1 (en) Techniques for live-writing and editing closed captions
JP2007148976A (ja) 関連情報検索装置
JP4251634B2 (ja) マルチメディアデータ再生装置およびマルチメディアデータ再生方法
JP6865701B2 (ja) 音声認識誤り修正支援装置およびそのプログラム
JP2010245853A (ja) 動画インデクシング方法及び動画再生装置
JP6949075B2 (ja) 音声認識誤り修正支援装置およびそのプログラム
EP1463059A2 (en) Recording and reproduction apparatus
JP4865469B2 (ja) コンテンツ制作サーバ、コンテンツ提示装置、コンテンツ制作プログラム、及びコンテンツ提示プログラム
JP2007199315A (ja) コンテンツ提供装置
JP2013092912A (ja) 情報処理装置、情報処理方法、並びにプログラム
JP5342509B2 (ja) コンテンツ再生装置、コンテンツ再生装置の制御方法、制御プログラム、及び記録媒体
JP2015050729A (ja) 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2006195900A (ja) マルチメディアコンテンツ生成装置及び方法
JP5152857B2 (ja) 電子機器、表示制御方法、およびプログラム
JP2004215094A (ja) 電子機器装置及びキーワード生成装置
JP2002304420A (ja) 視聴覚コンテンツ配信システム
JP2010009355A (ja) 電子機器、形態素複合方法及びそのプログラム
CN109977239B (zh) 一种信息处理方法和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140609

R151 Written notification of patent or utility model registration

Ref document number: 5568953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees