JP2013172381A - コンテンツ蓄積装置及びコンテンツ蓄積方法 - Google Patents

コンテンツ蓄積装置及びコンテンツ蓄積方法 Download PDF

Info

Publication number
JP2013172381A
JP2013172381A JP2012036129A JP2012036129A JP2013172381A JP 2013172381 A JP2013172381 A JP 2013172381A JP 2012036129 A JP2012036129 A JP 2012036129A JP 2012036129 A JP2012036129 A JP 2012036129A JP 2013172381 A JP2013172381 A JP 2013172381A
Authority
JP
Japan
Prior art keywords
unit
word
content
chapter
program information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012036129A
Other languages
English (en)
Other versions
JP5840026B2 (ja
Inventor
香 ▲高▼階
Kaori Takashina
Masaaki Shimada
昌明 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012036129A priority Critical patent/JP5840026B2/ja
Publication of JP2013172381A publication Critical patent/JP2013172381A/ja
Application granted granted Critical
Publication of JP5840026B2 publication Critical patent/JP5840026B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

【課題】不特定の人が興味を示すシーンのチャプターを自動的に生成できるようにすること。
【解決手段】コンテンツ蓄積装置100は、コンテンツを蓄積するデータ蓄積部104と、コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部103と、ネットワーク160との間で通信を行う通信部113と、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150より、キーワードに関連する関連ワードを取得する関連ワード取得部105と、関連ワードを含む字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部108と、を備える。
【選択図】図1

Description

本発明は、コンテンツ蓄積装置及びコンテンツ蓄積方法に関する。
光ディスクレコーダー及びハードディスクレコーダーの普及によって、テレビ放送等の映像コンテンツを長時間録画することが一般的になっている。しかし、ユーザのテレビ視聴時間は限られているため、録画した映像コンテンツから所望のシーンを容易に見つけられることが望まれている。
そこで、コンテンツの映像又は音声の切り替わりによるシーンチェンジを抽出し、チャプターに区切ることによって、ユーザに任意のシーンを探しやすくする技術が広く知られている。映像コンテンツにおけるシーンの切り替わり時間をチャプター情報として登録することにより、見たいシーンの開始点に容易にスキップすることができる。
また、ユーザが作成したメタデータ(チャプター情報及びシーンに対するコメント等のテキスト情報を決まった様式で記述したもの)をネットワークにアップロードし、他の多くのユーザと共有する技術がある(例えば特許文献1参照)。この技術により、ユーザは誰かが作成したメタデータを用いて、チャプターを生成できる。また、ユーザは、各シーンに対応したコメントを参照することによってシーンの内容を理解でき、容易に所望のシーンを見つけることができる。
特開2007−110697号公報
特許文献1に記載の技術では、ユーザが視聴しようとする映像コンテンツに対して、別のユーザが、メタデータを作成し、かつ、そのメタデータをネットワークにアップロードしている必要がある。そのため、ユーザが人気のない(メタデータのない)映像コンテンツを視聴する場合、及び、そのサービス自体のユーザが少なく、メタデータが作成されていない場合には、メタデータを取得することはできない。
そこで、本発明は、不特定の人が興味を示すシーンのチャプターを自動的に生成できるようにすることを目的とする。
本発明の一態様に係るコンテンツ蓄積装置は、コンテンツを蓄積するデータ蓄積部と、前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部と、ネットワークとの間で通信を行う通信部と、前記通信部を介して、前記ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得部と、前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部と、を備えることを特徴とする。
本発明の一態様によれば、不特定の人が興味を示すシーンのチャプターを自動的に生成することができる。
実施の形態1に係るコンテンツ蓄積装置の構成を概略的に示すブロック図である。 実施の形態1におけるコンテンツの取得からチャプターの生成までの流れを示すフローチャートである。 実施の形態1におけるMPEG−2TSとAVデータ及び字幕データの関係を示す概略図である。 実施の形態1における字幕管理情報を示す概略図である。 実施の形態1において、テレビ放送における番組情報の一例を示す概略図である。 実施の形態1における関連ワード情報のフォーマットの一例を示す概略図である。 実施の形態1において、関連ワードからチャプターを生成する流れを示すフローチャートである。 実施の形態1において、チャプターを生成する際の処理を説明するための概略図である。 (A)及び(B)は、実施の形態1において、関連ワードの時間による推移の様子を示す概略図である。 実施の形態1において、生成されたチャプター情報に基づくシーン検索の様子を示す概略図である。 実施の形態2に係るコンテンツ蓄積装置の構成を概略的に示すブロック図である。 実施の形態2におけるコンテンツの取得からチャプター生成までの流れを示すフローチャートである。
実施の形態1.
図1は、実施の形態1に係るコンテンツ蓄積装置100の構成を概略的に示すブロック図である。コンテンツ蓄積装置100は、ネットワーク160に接続されており、このネットワークには、少なくとも一つの関連ワード蓄積部150が接続されている。ネットワーク160は、例えばインターネットである。関連ワード蓄積部150は、例えば検索サイトに蓄積された、不特定のユーザによる検索履歴を集計してデータベース化されたものである。
コンテンツ蓄積装置100は、チューナ部101と、録画再生制御部102と、字幕解析部103と、データ蓄積部104と、関連ワード取得部105と、チャプター生成部108と、一時記憶部109と、チャプター情報蓄積部110と、リモコン受信部111と、リモコン112と、通信部113とを備える。また、コンテンツ蓄積装置100には、アンテナ130及びモニタ131が接続されている。アンテナ130は、図示しないが例えば複数の放送局から送信されるテレビ放送の放送波を受信する。モニタ131は、映像を表示する表示部である。
チューナ部101は、アンテナ130を介して、ユーザ操作等により選局された放送波に対する放送信号を受信し、その放送信号に対して復調処理及び圧縮符号処理等を適宜施して、コンテンツ及び番組情報を含む受信信号を生成する。
録画再生制御部102は、チューナ部101が生成した受信信号からAVデータを分離し、データ蓄積部104に蓄積する。また、録画再生制御部102は、データ蓄積部104に蓄積されたコンテンツを再生する処理を制御する。
字幕解析部103は、チューナ部101が生成した受信信号から字幕データを抽出し、データ蓄積部104に蓄積する。このとき、字幕データは、一画面に表示される字幕毎の表示時間を示すタイムスタンプとともに蓄積される。
データ蓄積部104は、コンテンツを蓄積する。コンテンツには、AVデータ及び字幕データが含まれる。
関連ワード取得部105は、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150より、キーワードに関連する関連ワードを取得する。ここで、関連ワード取得部105は、番組情報管理部106と、番組情報蓄積部107とを備える。
番組情報管理部106は、チューナ部101が生成した受信信号に含まれる番組情報のうち、データ蓄積部104に蓄積されたコンテンツに関するものを番組情報蓄積部107に蓄積する。「番組情報」は、テレビ放送のEPG情報に含まれる、コンテンツのタイトル、サブタイトル、出演者情報及び番組概要等を含む。
また、番組情報管理部106は、番組情報蓄積部107に蓄積された番組情報から、特定の情報をキーワードとして抽出する。そして、番組情報管理部106は、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150から、抽出されたキーワードに関連する関連ワードを取得する。番組情報管理部106は、取得された関連ワードをチャプター生成部108に与える。「関連ワード」は、キーワードに関連するワードである。詳細については後述する。
番組情報蓄積部107は、番組情報管理部106から与えられた番組情報を記憶する。
チャプター生成部108は、データ蓄積部104に蓄積された字幕データに、番組情報管理部106によって取得された関連ワードが含まれる箇所を抽出する。抽出した箇所のタイムスタンプをもとにチャプターを生成し、生成されたチャプターを示すチャプター情報をチャプター情報蓄積部110に蓄積する。
リモコン受信部111は、リモコン112からの無線信号を受信して、受信された無線信号で示される内容を録画再生制御部102に与える。
リモコン112は、ユーザからの指示の入力を受けて、指示の内容を示す無線信号を発信する。
ここで、リモコン受信部111及びリモコン112により、ユーザからの指示の入力を受け付ける入力部が構成される。
通信部113は、ネットワーク160との間で通信を行う。
次に、コンテンツの再生方法について説明する。
録画再生制御部102は、データ蓄積部104に蓄積されたコンテンツをモニタ131に出力し再生を行う。このとき、録画再生制御部102は、チャプター情報蓄積部110に蓄積されたチャプター情報を用いて、ユーザからのシーン検索に対応する。シーン検索は、チャプター情報に基づいて、各チャプターのシーンの内容をサムネイル等によってユーザに提示し、ユーザが選択したチャプターの開始点からシーンを再生する機能である。
なお、データ蓄積部104に蓄積されるコンテンツは、テレビ放送から得られるものでなくてもよい。例えば、コンテンツは、USBやIEEE1394等のバスを経由して、あるいはDVD/BD、メモリーカード等のリムーバルメディアを経由して取得されたものであってもよい。または、コンテンツは、通信部113を介して、ネットワーク160からダウンロードされたものであってもよい。ここで、本実施の形態においては、コンテンツのデータとして、テレビ放送に用いられるMPEG−2トランスポートストリーム(TS)が想定されているが、字幕等の文字情報が付随したデータであれば、MPEG−2プログラムストリーム及びアナログAV信号等であってもよい。
図2は、コンテンツの取得からチャプターの生成までの流れを示すフローチャートである。
まず、録画再生制御部102は、外部からの放送信号に基づいてチューナ部101で生成された受信信号に含まれるAVデータを取得し、また、番組情報管理部106は、この受信信号に含まれる番組情報を取得する(S10)。番組情報については後述する。
次に、字幕解析部103は、チューナ部101で生成された受信信号に含まれる字幕データを抽出し、データ蓄積部104に蓄積する(S11)。
ここで、受信信号にAVデータと字幕データとがどのように含まれるかを示すために、図3を用いて、受信信号がMPEG−2TSの場合におけるコンテンツのデータ構造について説明する。図3は、MPEG−2TSとAVデータ及び字幕データの関係を示す概略図である。MPEG−2TSは、映像、音声及び字幕のPES(Packetized Elementary Stream)が多重化されて構成されている。各PESには、映像、音声及び字幕のそれぞれの実データと、それらを表示するタイムスタンプとが含まれている。
字幕データは、一画面で表示するページ単位で区切られている。タイムスタンプを用いて、ページ毎に表示開始時刻及び表示終了時刻を管理することができる。字幕解析部103は、受信信号から分離された字幕PESを解析し、文字情報とタイムスタンプとを紐付けて、図4に示されているような字幕管理情報140を作成し、データ蓄積部104に蓄積する。
図4は、字幕管理情報140を示す概略図である。字幕管理情報140は、タイムスタンプ欄140aと、字幕データ欄140dとを有するテーブル形式の情報である。
タイムスタンプ欄140aは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示時間を格納する。ここで、タイムスタンプ欄140aは、表示開始時刻欄140bと、表示終了時刻欄140cとを有する。
表示開始時刻欄140bは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示開始時刻を格納する。
表示終了時刻140cは、字幕データ欄140dに格納されている一ページあたりの字幕データの字幕を表示する表示終了時刻を格納する。
字幕データ欄140dは、タイムスタンプ欄140aで特定される期間に表示される一ページあたりの字幕データ(ここでは、テキストデータ)を格納する。
なお、字幕解析部103は、字幕データ以外にも番組で表示されるテロップ等の文字情報から文字認識して、認識された文字の文字データを字幕データとして字幕管理情報140に蓄積してもよい。
図2の説明に戻り、ステップS12において、番組情報管理部106は、番組情報蓄積部107に蓄積された番組情報から、特定の情報として、ゲスト出演者名を抽出する。
ここで、図5は、テレビ放送における番組情報141の一例を示す概略図である。図5に示されている番組情報141は、タイトル行141aと、日時行141bと、放送局行141cと、ジャンル行141dと、番組概要行141eと、番組詳細行141fとを有する。
タイトル行141aは、番組のタイトルを格納する。
日時行141bは、番組が放送される日時を格納する。
放送局行141cは、番組が放送される放送局を示す放送局情報を格納する。
ジャンル行141dは、番組のジャンルを格納する。
番組概要行141eは、番組内容の概要を格納する。
番組詳細行141fは、番組内容の詳細を格納する。
図5に示されている番組情報141では、番組詳細行141fに、番組の出演者を示す出演者情報が“[出演者]”又は“[ゲスト]”の後に記されている。本実施の形態では、番組情報管理部106は、出演者のうち番組内で特に話題が掘り下げられる、ゲスト出演者の名前を抽出する。そのため、番組情報管理部106は、“[ゲスト]”の文字列に続く文字列を抽出する。テレビ放送の番組情報では、図5の例の他に“ゲスト:”や“今回のゲストは”の文字列の後ろに出演者名が記される場合がある。また、シリーズ番組を毎週及び毎日等のように定期的に放送される番組の場合は、出演者名から放送回毎に共通する人名を除外し、各回の放送のみに出演する名前を抽出すれば、ゲスト出演者名を抽出することができる。
図2の説明に戻り、ステップS13において、番組情報管理部106は、ステップS12で抽出されたゲスト出演者名をキーワードとして、通信部113を介して、ネットワーク160に接続された関連ワード蓄積部150から関連ワードを取得する。
ここで、図6は、関連ワード蓄積部150に蓄積されている関連ワード情報142のフォーマットの一例を示す概略図である。関連ワード情報142は、順位欄142aと、関連ワード欄142bとを有するテーブル形式の情報である。
順位欄142aは、関連ワード欄142bに格納された関連ワードが、キーワードと共に検索された回数の多いものから順に高くなる順位を格納する。ここでの順位は、数字が大きいほど低い順位になるように、「1」から順に自然数が割り当てられる。
関連ワード欄142bは、キーワードと共に検索サイトで検索されたワードである関連ワードを格納する。
ここで、関連ワード情報142は、例えば、インターネット160の検索サイトでキーワードとともに検索されたワードを集計したものである。言い換えると、インターネット160の検索サイトでキーワードと一緒に検索される回数が多いワードから順に、関連ワードとして関連ワード情報142に格納される。
また、他の例として、Webページ上でキーワードと一緒に出現する回数が多いワードから順に、関連ワードとして関連ワード情報142に格納されてもよい。
検索サイト等では、利用者がキーワードを入力すると関連ワードを複数表示し、その中から利用者に選択させ、より絞り込んだ検索を可能にするサービスが提供されている。よって、番組情報管理部106は、通信部113及びインターネット160を介して検索サイトに接続し、キーワードから関連ワードを取得することができる。また、関連ワードは、インターネット160上で不特定の利用者が利用したデータを基に、随時更新される。
このように、キーワードと一緒に検索される回数が多いワード、又は、Webページ上でキーワードと一緒に出現する回数が多いワードを関連ワードとすることにより、関連ワードは、不特定の利用者が興味を示すワードであると考えることができる。そして、関連ワード情報142の順位は、不特定の利用者が興味を示す順であると考えることができる。
なお、関連ワードの取得に用いるキーワードは、ゲスト出演者の名前以外にも、番組情報141に含まれている情報であればどのような情報であってもよい。例えば、キーワードは、番組のサブタイトル又は概要等でもよい。また、複数のキーワードに基づいて、関連ワードが取得されてもよい。
図2の説明に戻り、ステップS14では、チャプター生成部108は、ステップS13で番組情報管理部106により取得された関連ワードがデータ蓄積部104に蓄積された字幕データの中に登場するか検索する。そして、登場する場合は、チャプター生成部108は、その字幕部分に相当する表示開始時刻を、図4に示されている字幕管理情報140から取得し、この表示開始時刻をチャプターの区切りとしたチャプター情報を生成して、チャプター情報蓄積部110に蓄積する。ステップS14での処理については、図7を用いて、詳細に説明する。
図7は、図2のステップS14における、関連ワードからチャプターを生成する流れを示すフローチャートである。また、図8は、チャプターを生成する際の処理を説明するための概略図である。
まず、チャプター生成部108は、インデックスnを「1」に、インデックスkを「0」に設定する(S20)。インデックスnは、検索ワードの順位を示すインデックスである。取得された関連ワードは、図6に示すように順位付けされており、第1番目から順に検索に用いられる。インデックスkは、各々の時点において、字幕データ内でインデックスnの関連ワードが検出された数を示すインデックスである。
次に、チャプター生成部108は、チャプター数が閾値x以上であるか否かを判定する(S21)。チャプター生成部108は、チャプター数が閾値x以上となるまで、後述するステップS22〜S30の処理を繰り返す。閾値xは、最終的な総チャプター数の最小値である。閾値xは、コンテンツの長さに応じて決定されるものとする。長時間のコンテンツではより多くのシーンが存在すると考えられ、所望のシーンを見つけるためには、多くのチャプター数を必要とする。例えば、30分のコンテンツならば、閾値xは「5」、2時間のコンテンツならば、閾値xは「20」というように、コンテンツが長いほど閾値xが大きくなるように、コンテンツの時間に比例させて閾値xが決定されることが望ましい。なお、図8に示されている例では、閾値xの値は「5」とする。また、閾値xの値は、処理を軽減するために定数にしたり、好みに応じてユーザが設定したりしてもよい。
次に、チャプター生成部108は、第n番目の関連ワードがコンテンツの字幕データに登場するか検出する(S22)。検出は、時間順に字幕データの先頭から行われる。第n番目の関連ワードが字幕データ内に見つかった場合(S22:Yes)には、チャプター生成部108は、ステップS23の処理に進み、それが見つからなかった場合(S22:No)には、チャプター生成部108は、ステップS28の処理に進む。
ステップS23では、チャプター生成部108は、インデックスkが「0」であるか否かを判断する。そして、チャプター生成部108は、インデックスkが「0」ではない場合(S23:No)、即ち、既に第n番目の関連ワードが検出されている場合には、ステップS24の処理に進み、インデックスkが「0」である場合(S23:Yes)、即ち、初めて第n番目の関連ワードが検出された場合には、ステップS25の処理に進む。
ステップS24では、チャプター生成部108は、今回検出された第n番目の関連ワードが含まれている字幕データの放送開始時刻と、直前に登場した第n番目の関連ワードが含まれている字幕データの放送開始時刻との間の時間が、予め定められた時間y以内であるか否かを判定する。そして、チャプター生成部108は、その時間が時間yよりも長い場合(S24:No)には、ステップS25の処理に進み、その時間が時間y以内である場合(S24:Yes)には、ステップS27の処理に進む。
ステップS25では、チャプター生成部108は、ステップS22で見つかった第n番目の関連ワードの表示開始時刻を、一時記憶部109に記憶させる。
そして、チャプター生成部108は、インデックスkに「1」を足して、ステップS27の処理に進む。
ステップS27では、チャプター生成部108は、検索位置を更新して、第n番目の関連ワードの検索を続行して、ステップS22の処理に戻る。
ここで、図8を用いて、ステップS24〜S27での処理について説明する。
符号143aに示されているように、ある検索ワードが短い時間内に複数登場する場合は、その区間でその事柄について話し続けられていると考えられる。従って、連続した話題であるにもかかわらず、チャプターを区切るのは不適切となるため、チャプター生成部108は、短い時間内において検出された関連ワードに基づいてチャプターを区切らない。なお、図8に示す例では、時間yの値は2分とした。時間yの値は、一つの事柄について話す時間を考え、定数を設定すればよいが、この値をユーザが設定してもよい。
図7の説明に戻り、ステップS22において、第n番目の関連ワードが残りの字幕データから検出されなかった場合(S22:No)には、チャプター生成部108は、ステップS28の処理に進む。ステップS28では、チャプター生成部108は、インデックスkの値が、関連ワードの最大検出数を定める閾値zよりも小さいか否かを判断する。そして、チャプター生成部108は、その値が閾値zよりも小さい場合(S28:Yes)には、ステップS29の処理に進み、その値が閾値z以上の場合(S28:No)には、ステップS30の処理に進む。
ステップS29においては、チャプター生成部108は、インデックスkの値が「0」ではない場合には、一時記憶部109に記憶させた放送開始時刻を区切りとするチャプターをチャプター情報に設定する。
そして、チャプター生成部108は、インデックスnに「1」を加え、インデックスkを初期値「0」に戻して、ステップS21に戻る。このとき、チャプター生成部108は、一時記憶部109に記憶されている放送開始時刻を削除する。
ここで、図8を用いて、ステップS28及びS29での処理について説明する。
例えば、図8の符号143bに示されているように、インデックスkの値が閾値z以上の場合は、番組全体を通して何回も出現する関連ワードとなる。例えば、その関連ワードは、“山ちゃん”のように出演者のニックネーム等、番組の話題には関係がないと判断できる。このため、チャプター生成部108は、インデックスkの値が閾値z以上の場合は、このような関連ワードに基づくチャプターの区切りは行わない。なお、閾値zの値は、番組の長さに応じて決定される。例えば、番組の放送時間が長いほど、閾値zの値を大きくすることが望ましい。なお、図8に示されている例では、閾値zの値は「5」とする。
なお、図8の符号143cに示されているように、累積チャプター数が、閾値x(ここでは、「5」)以上となった場合には、チャプター生成部108は、図7のフローを終了する。
以上、説明した流れでチャプターが生成される。
図7に示されているフローでチャプターが生成されるタイミングは、コンテンツを録画し終わったときに行うのが望ましい。また、ユーザが指定したときに行われてもよく、さらに、放送終了後一定時間経過したときに行われてもよい。
放送終了後一定時間経過してからチャプター生成を行う場合の利点について説明する。番組情報管理部106がキーワードを用いて取得する関連ワードは、前述のとおり、不特定の利用者の利用履歴によって随時更新される。コンテンツを先に視聴した人が、興味を持ち、番組内で触れられた話題を、検索サイトで検索したり、ブログ等のWebサイトに投稿したりすることによって、ある関連ワードが一定時間後上位にくる可能性がある。その関連ワードは、コンテンツの中で話題にされた事柄である可能性が高く、かつ、多くの人にとって重要であると判断できる。そのため、一定時間経過してから関連ワードを取得することによって、よりコンテンツに即したチャプターを生成することができる。
図9(A)及び(B)は、関連ワードの時間による推移の様子を示す概略図である。図9(A)は、放送直後の関連ワード情報142#1を示し、図9(B)は、放送から一定時間経過後の関連ワード情報142#2を示す。
放送から一定時間経過後の関連ワード情報142#2には、放送直後の関連ワード情報142#1に含まれていなかった「○○美」というワードが新たに含まれている。また、放送から一定時間経過後の関連ワード情報142#2では、放送直後の関連ワード情報142#1において順位が低かった「舞台」のワードが、上位に含まれている。このように、放送から一定時間後の関連ワード情報142#2を用いることにより、放送直後の関連ワード情報142#1には含まれない、一定時間で上位に含まれた関連ワードに関するチャプターも生成できる。
なお、放送直後の関連ワード情報142#1もコンテンツ蓄積装置100内に蓄積しておくことで、チャプター生成部108は、放送から一定時間経過後の関連ワード情報142#2と比較して、特に急上昇したワードを優先的に字幕データと照合してもよい。例えば、チャプター生成部108は、放送直後の順位から、放送から一定時間経過後の順位を減算した値が、予め定められた閾値よりも大きいワードを、このワードの順位で定まる順番よりも早く、字幕データと照合することができる。
図10は、生成されたチャプター情報に基づくシーン検索の様子を示す概略図である。録画再生制御部102は、コンテンツの再生をしているとき、ユーザからの要求に応じてシーン検索画面144をモニタ131に表示させる。このとき、各シーンのサムネイル144aだけではなく、関連ワードが含まれている字幕データの一部分を表示する文字情報画面144bを表示させることで、ユーザは容易にシーンの内容を把握できる。
また、チャプター生成に用いた関連ワードをユーザが選択し、興味のあるシーンのみ再生することもできる。
以上の処理によって、多くの人が興味をもつ事柄を話題にしているシーンを、事前に別のユーザがチャプター生成していなくとも、自動で抽出することができる。
また、トーク番組のような画像の切り替わりが少ない番組では、映像や音声の切り替わりを自動で認識しチャプターを区切る方法ではシーンチェンジが検出しにくい。しかし、本発明では関連ワードと字幕データとによる文字情報によってチャプターを生成するため、出演者が話す内容によって、適切にチャプターを区切ることができる。
また、サムネイルのみではシーンの内容を把握しづらい場合でも、文字情報によってシーンの内容を容易に把握することができる。
実施の形態2.
図11は、実施の形態2に係るコンテンツ蓄積装置200の構成を概略的に示すブロック図である。コンテンツ蓄積装置200は、チューナ部101と、録画再生制御部202と、字幕解析部103と、データ蓄積部104と、関連ワード取得部205と、チャプター生成部108と、一時記憶部109と、チャプター情報蓄積部110と、リモコン受信部211と、リモコン212と、通信部113とを備える。実施の形態2に係るコンテンツ蓄積装置200は、録画再生制御部202、リモコン受信部211、リモコン212及び関連ワード取得部205において、実施の形態1に係るコンテンツ蓄積装置100と異なっている。
録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードに関するコンテンツを含む受信信号を、アンテナ130を介してチューナ部101より取得し、この受信信号からAVデータを分離し、データ蓄積部104に蓄積する。例えば、録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードが、タイトル、番組概要及び番組詳細等の少なくとも何れか1つに含まれるコンテンツの受信信号を取得する。
リモコン212は、実施の形態1と同様の処理を行う他、ユーザから興味のある事柄をフリーワードとして入力を受け付ける。リモコン212は、入力されたフリーワードを示す無線信号を発信する。
リモコン受信部211は、実施の形態1と同様の処理を行う他、リモコン212から発信された無線信号を受信し、この無線信号から入力されたフリーワードを特定し、特定されたフリーワードをフリーワード管理部214に与える。
関連ワード取得部205は、通信部113及びネットワーク160を介して、関連ワード蓄積部150に接続して、キーワードに関連する関連ワードを取得する。ここで、関連ワード取得部205は、フリーワード管理部214と、フリーワード蓄積部215とを備える。
フリーワード管理部214は、リモコン212を介してユーザが入力したフリーワードをフリーワード蓄積部215に蓄積する。
また、フリーワード管理部214は、フリーワード蓄積部215に蓄積されたフリーワードをキーワードとして抽出する。そして、フリーワード管理部214は、通信部113を介して、ネットワーク160に接続されている関連ワード蓄積部150から、抽出されたキーワードに関連する関連ワードを取得する。フリーワード管理部214は、取得された関連ワードをチャプター生成部108に与える。
フリーワード蓄積部215は、フリーワード管理部214から与えられたフリーワードを記憶する。
図12は、実施の形態2におけるコンテンツの取得からチャプター生成までの流れを示すフローチャートである。
まず、リモコン212は、ユーザから興味のある事柄をフリーワードとして入力を受け付ける(S40)。そして、リモコン212は、入力された内容を示す無線信号を発信する。リモコン受信部211は、リモコン212から発信された無線信号を受信し、受信信号から入力されたフリーワードを特定して、特定された内容をフリーワード管理部214に与える。フリーワード管理部214は、リモコン受信部211を介して取得したフリーワードをフリーワード蓄積部215に蓄積する。
次に、録画再生制御部202は、フリーワード蓄積部215に蓄積されたフリーワードに関するコンテンツを含む受信信号を、アンテナ130を介してチューナ部101より取得し、この受信信号からAVデータを分離し、データ蓄積部104に蓄積する(S41)。
次に、字幕解析部103は、チューナ部101から取得した受信信号に含まれる字幕データを抽出し、データ蓄積部104に蓄積する(S42)。
次に、フリーワード管理部214は、ステップS40で入力されたフリーワードをキーワードとして、通信部113を介して、ネットワーク160に接続されている関連ワード蓄積部150から関連ワードを取得する(S43)。
チャプター生成部108は、ステップS43でフリーワード管理部214により取得された関連ワードがデータ蓄積部104に蓄積された字幕データの中に登場するか検索する。そして、登場する場合は、チャプター生成部108は、その字幕部分に相当する表示開始時刻を、図4に示されている字幕管理情報140から取得し、この表示開始時刻をチャプターの区切りとしたチャプター情報を生成して、チャプター情報蓄積部110に蓄積する(S44)。ステップS44での処理については、図7のフローチャートで示されている処理と同様である。
ここで、ステップS41〜ステップS44までの処理は、ステップS40において入力されたフリーワードに関するコンテンツが複数あれば、コンテンツの数だけ繰り返される。
また、実施の形態2に係るコンテンツ蓄積装置200は、特定のコンテンツに対して、ユーザが入力したフリーワードをキーワードに設定して、チャプターを生成してもよい。その場合は、あらかじめ蓄積されたコンテンツに対して、図12のステップS41を除外して、図12に示されている処理を実行すればよい。
番組情報から複数のキーワードが抽出されたとき、その中からユーザが興味を持つキーワードを選択することは難しい。また、ユーザが興味を持つ事柄が、番組情報に含まれない場合は適切なキーワードを抽出することはできない。実施の形態2では、このような場合においても、ユーザの所望するシーンのチャプターを生成することができる。
以上に記載された実施の形態1及び2に係るコンテンツ蓄積装置100、200は、デジタル放送受信装置として構成されていてもよく、デジタル放送受信録画再生装置として構成されていてもよい。また、実施の形態1及び2に係るコンテンツ蓄積装置100、200は、パーソナルコンピュータ又は携帯端末として構成されていてもよい。
100,200:コンテンツ蓄積装置、 101:チューナ部、 102,202:録画再生制御部、 103:字幕解析部、 104:データ蓄積部、 105,205:関連ワード取得部、 106:番組情報管理部、 107:番組情報蓄積部、 108:チャプター生成部、 109:一時記憶部、 110:チャプター情報蓄積部、 111,211:リモコン受信部、 112、212:リモコン、 113:通信部、 214:フリーワード管理部、 215:フリーワード蓄積部。

Claims (12)

  1. コンテンツを蓄積するデータ蓄積部と、
    前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析部と、
    ネットワークとの間で通信を行う通信部と、
    前記通信部を介して、前記ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得部と、
    前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成部と、を備えること
    を特徴とするコンテンツ蓄積装置。
  2. 前記関連ワード取得部は、
    前記コンテンツに付随する番組情報を取得する番組情報管理部と、
    前記番組情報管理部で取得された番組情報を蓄積する番組情報蓄積部と、を備え、
    前記番組情報管理部は、前記番組情報に含まれている特定の情報を前記キーワードとして、前記関連ワードを取得すること
    を特徴とする請求項1に記載のコンテンツ蓄積装置。
  3. アンテナを介して受信した放送信号から、前記コンテンツ及び前記番組情報を含む受信信号を生成するチューナ部をさらに備え、
    前記番組情報管理部は、前記チューナ部が放送信号を受信してから予め定められた時間が経過した後に、前記関連ワードを取得すること
    を特徴とする請求項2に記載のコンテンツ蓄積装置。
  4. 指示の入力を受け付ける入力部と、
    前記チャプター情報に基づいて、前記入力部が入力を受け付けた指示で指定されたチャプターに対応するシーンの再生を行う録画再生制御部と、をさらに備えること
    を特徴とする請求項1から3の何れか一項に記載のコンテンツ蓄積装置。
  5. 前記録画再生制御部は、前記関連ワードを含む前記字幕の少なくとも一部を表示するチャプター選択画面を生成し、当該チャプター選択画面において、前記入力部で指示の入力を受け付けること
    を特徴とする請求項4に記載のコンテンツ蓄積装置。
  6. 指示の入力を受け付ける入力部をさらに備え、
    前記関連ワード取得部は、
    前記入力部が入力を受け付けた指示で示されるフリーワードを取得するフリーワード管理部と、
    前記フリーワード管理部で取得されたフリーワードを蓄積するフリーワード蓄積部と、を備え、
    前記フリーワード管理部は、前記フリーワードをキーワードとして、前記関連ワードを取得すること
    を特徴とする請求項1に記載のコンテンツ蓄積装置。
  7. コンテンツを蓄積するデータ蓄積過程と、
    前記コンテンツに含まれる字幕データを解析して、一画面に表示される字幕毎の表示時間を特定する字幕解析過程と、
    ネットワークに接続された関連ワード蓄積部より、キーワードに関連する関連ワードを取得する関連ワード取得過程と、
    前記関連ワードを含む前記字幕の表示時間で区切られたチャプターを示すチャプター情報を生成するチャプター生成過程と、を有すること
    を特徴とするコンテンツ蓄積方法。
  8. 前記関連ワード取得過程は、
    前記コンテンツに付随する番組情報を取得する番組情報管理過程と、
    前記番組情報管理過程で取得された番組情報を蓄積する番組情報蓄積過程と、
    前記番組情報蓄積過程で蓄積された番組情報に含まれている特定の情報を前記キーワードとして、前記関連ワードを取得する取得過程と、を有すること
    を特徴とする請求項7に記載のコンテンツ蓄積方法。
  9. アンテナを介して受信した放送信号から、前記コンテンツ及び前記番組情報を含む受信信号を生成する受信過程をさらに有し、
    前記取得過程は、前記受信過程で放送信号が受信されてから予め定められた時間が経過した後に、前記関連ワードを取得すること
    を特徴とする請求項8に記載のコンテンツ蓄積方法。
  10. 指示の入力を受け付ける入力過程と、
    前記チャプター情報に基づいて、前記入力過程で入力を受け付けた指示で指定されたチャプターに対応するシーンの再生を行う録画再生制御過程と、をさらに有すること
    を特徴とする請求項7から9の何れか一項に記載のコンテンツ蓄積方法。
  11. 前記録画再生制御過程は、前記関連ワードを含む前記字幕の少なくとも一部を表示するチャプター選択画面を生成し、当該チャプター選択画面において、前記入力過程で指示の入力を受け付けること
    を特徴とする請求項10に記載のコンテンツ蓄積方法。
  12. 指示の入力を受け付ける入力過程をさらに有し、
    前記関連ワード取得過程は、
    前記入力過程で入力を受け付けた指示で示されるフリーワードを取得するフリーワード管理過程と、
    前記フリーワード管理過程で取得されたフリーワードを蓄積するフリーワード蓄積過程と、
    前記フリーワード蓄積過程で蓄積されたフリーワードをキーワードとして、前記関連ワードを取得する取得過程と、を有すること
    を特徴とする請求項7に記載のコンテンツ蓄積方法。
JP2012036129A 2012-02-22 2012-02-22 コンテンツ蓄積装置及びコンテンツ蓄積方法 Expired - Fee Related JP5840026B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012036129A JP5840026B2 (ja) 2012-02-22 2012-02-22 コンテンツ蓄積装置及びコンテンツ蓄積方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012036129A JP5840026B2 (ja) 2012-02-22 2012-02-22 コンテンツ蓄積装置及びコンテンツ蓄積方法

Publications (2)

Publication Number Publication Date
JP2013172381A true JP2013172381A (ja) 2013-09-02
JP5840026B2 JP5840026B2 (ja) 2016-01-06

Family

ID=49266038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036129A Expired - Fee Related JP5840026B2 (ja) 2012-02-22 2012-02-22 コンテンツ蓄積装置及びコンテンツ蓄積方法

Country Status (1)

Country Link
JP (1) JP5840026B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303741A (ja) * 2004-04-13 2005-10-27 Daikin Ind Ltd 情報処理装置および情報処理方法、プログラム、並びに、情報処理システム
JP2006129122A (ja) * 2004-10-29 2006-05-18 Sharp Corp 放送受信装置、放送受信方法、放送受信プログラム及びプログラム記録媒体
JP2006332765A (ja) * 2005-05-23 2006-12-07 Sharp Corp コンテンツ検索・再生方法、コンテンツ検索・再生装置、並びにプログラムおよび記録媒体
JP2011209873A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、コンテンツ表示方法及びコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303741A (ja) * 2004-04-13 2005-10-27 Daikin Ind Ltd 情報処理装置および情報処理方法、プログラム、並びに、情報処理システム
JP2006129122A (ja) * 2004-10-29 2006-05-18 Sharp Corp 放送受信装置、放送受信方法、放送受信プログラム及びプログラム記録媒体
JP2006332765A (ja) * 2005-05-23 2006-12-07 Sharp Corp コンテンツ検索・再生方法、コンテンツ検索・再生装置、並びにプログラムおよび記録媒体
JP2011209873A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、コンテンツ表示方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP5840026B2 (ja) 2016-01-06

Similar Documents

Publication Publication Date Title
CA2924065C (en) Content based video content segmentation
JP4905103B2 (ja) 動画再生装置
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
JP4388128B1 (ja) 情報提供サーバ、情報提供方法及び情報提供システム
JP5106455B2 (ja) コンテンツ推薦装置及びコンテンツ推薦方法
JP2007124465A (ja) データ処理装置、システム、及び方法
JP4476786B2 (ja) 検索装置
JP2009048348A (ja) 情報処理装置、文字情報の候補の検索方法および文字情報の候補の検索プログラム
JP2009118168A (ja) 番組録画再生装置、および、番組録画再生方法
JP2008227909A (ja) 映像検索装置
JP5148325B2 (ja) コンテンツ処理装置、コンテンツ処理方法、コンテンツ再生装置、プログラム、および記録媒体
JP6150780B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5209129B1 (ja) 情報処理装置、放送受信装置及び情報処理方法
JP4331706B2 (ja) 編集装置及び編集方法
WO2014103374A1 (ja) 情報管理装置、サーバ及び制御方法
JP5343658B2 (ja) 録画再生装置及びコンテンツ検索プログラム
JP6028505B2 (ja) 録画再生装置および番組検索方法
JP6029530B2 (ja) 情報処理装置及び情報処理方法
JP5703321B2 (ja) 情報処理装置及び情報処理方法
JP5840026B2 (ja) コンテンツ蓄積装置及びコンテンツ蓄積方法
JP2012203773A (ja) 動画推薦装置及び動画推薦方法
JP2014207619A (ja) 録画再生装置、及び録画再生装置の制御方法
WO2009107708A1 (ja) コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生プログラム、および、記録媒体
JP2011239085A (ja) 録画再生装置及び方法
JP2010062758A (ja) 電子機器、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151110

R150 Certificate of patent or registration of utility model

Ref document number: 5840026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees