JP4039873B2 - Video information recording / playback device - Google Patents

Video information recording / playback device Download PDF

Info

Publication number
JP4039873B2
JP4039873B2 JP2002088452A JP2002088452A JP4039873B2 JP 4039873 B2 JP4039873 B2 JP 4039873B2 JP 2002088452 A JP2002088452 A JP 2002088452A JP 2002088452 A JP2002088452 A JP 2002088452A JP 4039873 B2 JP4039873 B2 JP 4039873B2
Authority
JP
Japan
Prior art keywords
video information
scenario
data
scene
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002088452A
Other languages
Japanese (ja)
Other versions
JP2003283993A (en
Inventor
敦志 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002088452A priority Critical patent/JP4039873B2/en
Publication of JP2003283993A publication Critical patent/JP2003283993A/en
Application granted granted Critical
Publication of JP4039873B2 publication Critical patent/JP4039873B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、映像データの再生装置に関するものであり、特に、映像データのダイジェスト版を生成して再生する装置に関するものである。
【0002】
【従来の技術】
従来より、映像情報のダイジェスト版を作成して再生する装置が存在する。つまり、プロフェッショナル用途と一般の消費者用途とを問わず、大量の映像データの中から視聴したいものを見つけるには、多大な時間と労力を必要とする。例えば、VTRの早送り再生により見たい番組を見つけることも可能ではあるが、時間と労力を要することになる。これに対処するため、要約映像を作成することにより、該要約映像を通じて大まかに映像の内容を把握する装置や方法が提案されている(特開平10−32773号、特開平11−239322号、特開平11−176038号)。
【0003】
また、特開2000−350124号では、テレビジョン番組を録画する際に、番組の映像や音声を解析し、番組の中で特徴的と思われるシーンを抽出し、該シーンを縮小静止画像として生成、保存しておき、映像をブラウジングする際には、該縮小静止画像を再生データに用いている。例えば、特徴シーンを抽出する際には、シーンの変わり目、カメラの動き、色の変化、テロップの有無や内容等の点を抽出している。
【0004】
【発明が解決しようとする課題】
しかし、上記従来の場合では、1つの基準に基づいて特徴シーンを抽出しているので、番組によっては必ずしも重要なシーンを抜き出しているとはいえない場合がある。例えば、通常、ニュースでは、各ニュース項目が開始される先頭シーンが重要であるのに対して、ドラマや歌番組では、出演者のアップシーン等が重要であるといえ、番組のジャンル(種類としてもよい)によって重要なシーンも異なるにも拘わらず、1つの基準によって特徴シーンを抽出すると、番組によっては、重要でないシーンを抽出してしまうおそれがある。
【0005】
そこで、本発明は、番組のジャンルが異なっても、特徴シーン、すなわち、その番組にとって重要なシーンを適切に抽出して要約映像を作成してダイジェスト再生することができる映像情報記録再生装置を提供するとともに、ユーザーにとってより適切な要約映像を作成してダイジェスト再生をすることができる映像情報記録再生装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明は上記問題点を解決するために創作されたものであって、第1には、映像情報の記録・再生を行う映像情報記録再生装置であって、映像情報を記憶する映像情報記憶手段と、映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、映像情報のジャンルごとに定められた基準で、該特徴量を評価するための基準に従い、検出された特徴量を評価する評価手段と、上記評価手段が、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が、複数種類のジャンルについてそれぞれ設けられた重み係数記憶部と、該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を記憶することにより、該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、該シナリオ記憶手段に記憶されたシナリオデータに基づいて、該映像情報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、上記評価手段は、映像情報のジャンルに対応する重み係数群を用いて特徴量を評価することを特徴とする。
【0007】
この第1の構成の映像情報記録再生装置においては、上記映像情報記憶手段に映像情報が記憶される。また、上記特徴量検出手段は、映像情報における各シーンごとに複数種類の特徴量を検出する。そして、上記評価手段は、映像情報のジャンルごとに定められた基準で、該特徴量を評価するための基準に従い、検出された特徴量を評価する。さらに、シナリオ記憶手段は、該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を記憶することにより、該特定情報からなるシナリオデータを記憶する。このようにして、ダイジェスト再生をする際のシナリオが各基準ごとにシナリオ記憶手段に記憶されるので、上記シナリオ再生手段は、映像情報記憶手段に記憶された映像データから、所定の基準に基づくシナリオデータに基づいて、所定のシーン又は該シーンの一部を読み出して再生を行う。よって、映像情報のジャンルごとに定められた基準に従ってシナリオが作成されて、該シナリオに基づきダイジェスト再生されるので、番組のジャンルが異なっても、番組のジャンルごとに最適なダイジェスト再生を行うことが可能となる。
【0008】
また、第2には、映像情報の記録・再生を行う映像情報記録再生装置であって、映像情報を記憶する映像情報記憶手段と、映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、該特徴量検出手段により検出された特徴量を複数種類の基準に従いそれぞれ評価する評価手段と、上記評価手段が、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が優先順位に従い複数設けられた重み係数記憶部と、該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、該シナリオ記憶手段に記憶されたシナリオデータのうちの所定の基準に基づくシナリオデータに基づいて、該映像報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、上記評価手段は、各重み係数群を用いてそれぞれ特徴量を評価することにより、該特徴量を複数種類の基準に従い評価することを特徴とする。
【0009】
この第2の構成の映像情報記録再生装置においては、上記映像情報記憶手段に映像情報が記憶される。また、上記特徴量検出手段は、映像情報における各シーンごとに複数種類の特徴量を検出する。そして、上記評価手段は、該特徴量検出手段により検出された特徴量を複数種類の基準に従いそれぞれ評価する。さらに、シナリオ記憶手段は、該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶する。このようにして、ダイジェスト再生をする際のシナリオが各基準ごとにシナリオ記憶手段に記憶されるので、上記シナリオ再生手段は、映像情報記憶手段に記憶された映像データから、所定の基準に基づくシナリオデータに基づいて、所定のシーン又は該シーンの一部を読み出して再生を行う。よって、複数の基準に基づいてダイジェスト再生のシナリオが複数作成されるので、ユーザーは、異なる基準に基づいたシナリオによるダイジェスト再生を見ることができ、映像情報を概観しやすくなるとともに、重要シーンを見つけやすくなる。よって、ユーザーにとってより適切なダイジェスト再生が可能となる。例えば、登場人物を把握したい場合には、顔領域が存在するシーンに重きをおいた基準に従ったシナリオを再生すればよい。
【0010】
また、第3には、映像情報の記録・再生を行う映像情報記録再生装置であって、映像情報を記憶する映像情報記憶手段と、映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、該特徴量検出手段により検出された複数種類の特徴量を、映像情報のジャンルごとに定められた基準に従いそれぞれ評価する評価手段と、上記評価手段が、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が、複数種類のジャンルについてそれぞれ設けられた重み係数記憶部と、該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、該シナリオ記憶手段に記憶されたシナリオデータのうちの所定の基準に基づくシナリオデータに基づいて、該映像報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、上記評価手段は、映像情報のジャンルに対応する重み係数群を用いてそれぞれ特徴量を評価することにより、該特徴量を複数種類の基準に従い評価することを特徴とする。よって、映像情報のジャンルごとに定められた基準に従ってシナリオが作成されて、該シナリオに基づきダイジェスト再生されるので、番組のジャンルが異なっても、番組のジャンルごとに最適なダイジェスト再生を行うことが可能となる。さらに、ある番組について、複数の基準に基づいてダイジェスト再生のシナリオが複数作成されるので、ユーザーは、異なる基準に基づいたシナリオによるダイジェスト再生を見ることができ、映像情報を概観しやすくなるとともに、重要シーンを見つけやすくなる。
【0013】
また、第4には、映像情報の記録・再生を行う映像情報記録再生装置であって、映像情報を記憶する映像情報記憶手段と、映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、該特徴量検出手段により検出された複数種類の特徴量を、映像情報のジャンルごとに定められた基準に従いそれぞれ評価する評価手段と、上記評価手段が、重み係数群集合であって、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が優先順位に従い複数設けられた重み係数群集合を複数のジャンルについてそれぞれ有する重み係数記憶部と、該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、該シナリオ記憶手段に記憶されたシナリオデータのうちの所定の基準に基づくシナリオデータに基づいて、該映像報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、上記評価手段は、映像情報のジャンルに対応する重み係数群集合における複数の重み係数群を用いてそれぞれ特徴量を評価することにより、該特徴量を複数種類の基準に従い評価することを特徴とする。
【0014】
また、第5には、上記第1あるいは第3の構成において、上記評価手段は、各特徴量と対応する重み係数とを乗算した値を積算した値を、所定のしきい値と比較し、該積算した値が該所定のしきい値よりも大きいか否かを判定することを特徴とする。
【0015】
また、第6には、上記第2あるいは第4の構成において、上記評価手段は、各特徴量と対応する重み係数とを乗算した値を積算した値を、所定のしきい値と比較し、該積算した値が該所定のしきい値よりも大きいか否かを判定することを特徴とする。このようにして、検出された特徴量を評価する。
【0016】
また、第7には、上記第5あるいは第6の構成において、上記シナリオ記憶手段は、上記積算した値が上記所定のしきい値よりも大きい場合に、そのシーン又は該シーンの一部を特定する情報である特定情報を記憶していくことを特徴とする。
【0017】
また、第8には、上記第5から第7までのいずれかの構成において、上記評価手段は、評価に用いる複数種類のしきい値を有し、各しきい値に基づいて評価を行い、また、上記シナリオ記憶手段は、各しきい値に基づく評価結果に基づき、各しきい値ごとにシナリオデータを記憶することを特徴とする。
【0036】
【発明の実施の形態】
本発明の実施の形態としての実施例を図面を利用して説明する。本発明に基づく映像情報記録再生装置Aは、データ分離部(分離手段)10と、A/D変換部11と、番組付加情報抽出部12と、EPGデータ保持部14と、A/D変換部15と、エンコーダ16と、インデキシング部18と、データ保持部19と、重み係数テーブル(重み係数記憶部)20と、AVデータ保持部(映像情報記憶手段)22と、シナリオ保持部(シナリオ記憶手段)24と、再生データ選択部(シナリオ選択手段)26と、ナビゲーション制御部28と、AVデータ読出し部30と、デコーダ32と、D/A変換部34と、モニタ36と、を有している。
【0037】
ここで、上記データ分離部10は、EPG(電子番組ガイド)データとAVデータとが含まれたデジタルAVデータ(映像情報)が入力されると、これをEPGデータとAVデータとに分離する。ここで、図1に示す構成は、映像情報記録再生装置Aに、現行テレビジョンのアナログ放送波のデータのようなアナログAVデータ(映像情報)が入力される場合の例であり、実際には、データ分離部10の前段に受信部と復調処理部が設けられ、受信部から入力されたアナログAVデータが該復調部で復調処理された後にこのデータ分離部10に入力されることになる。具体的には、このデータ分離部10は、VBI(垂直帰線消去区間)に多重化されたEPGデータを分離する機能を有している。また、データ分離部10は、EPGデータを上記番組付加情報抽出部12に送り、一方、AVデータをエンコーダ16に送る。
【0038】
なお、この映像情報記録再生装置Aに入力されるデータが、デジタルAVデータの場合には、図1の構成からA/D変換部11と、A/D変換部15と、エンコーダ16が省略されることになる。また、上記のような復調部も省略される。つまり、受信されたデジタルAVデータが直接データ分離部10に入力され、このデータ分離部10においてEPGデータとAVデータとに分離され、EPGデータは番組付加情報抽出部12に入力され、また、AVデータは、AVデータ保持部22に入力されるとともに、インデキシング部18に入力される。なお、デジタルAVデータが映像情報記録再生装置Aに入力される場合には、エンコードされたデータが入力されることになるので、図1のようなエンコーダ16は必要ない。
【0039】
次に、A/D変換部11は、アナログデータとしてのEPGデータをデジタルデータに変換する。
【0040】
また、番組付加情報抽出部12は、EPGデータから必要なデータを抽出する。例えば、ジャンルや番組タイトルのデータを抽出するものである。番組付加情報抽出部12は、抽出したデータをEPGデータ保持部14に送る機能も有している。また、EPGデータ保持部14は、抽出されたデータを保持するものである。
【0041】
また、A/D変換部15は、アナログデータとしてのAVデータをデジタルデータに変換する。
【0042】
また、エンコーダ16は、MPEGエンコーダであり、送られたAVデータをMPEGの規格に従い圧縮符号化する。そして、エンコーダ16は、符号化されたAVデータをMPEGストリームとしてAVデータ保持部22とインデキシング部18に送る機能を有している。
【0043】
インデキシング部18は、エンコーダ16から送られたAVデータを解析処理するものであり、無音検出や、カット点検出や、顔領域の検出等を行うことにより、所定の評価関数を演算するために使用する特徴量の基礎を検出するとともに、各ショットの評価、特に、該特徴量について評価関数を演算してシナリオデータを作成する。
【0044】
つまり、インデキシング部18は、AVデータに対して無音検出を行うことにより無音区間の最後のフレーム位置(これが「コーナー先頭フレーム」となる)を検出したり、画像の連続性がない位置のフレーム位置(これが「カット点」となる)を検出したり、該カット点を基準とした代表フレームに顔領域が存在するか否かの検出を行う。コーナー先頭フレームが存在することや、カット点が存在することや、代表フレームに顔領域が存在することが、特徴量の基礎となる。
【0045】
また、上記評価関数の演算に関しては、インデキシング部18は、カット点のフレームから次のカット点の前までのフレームで構成されるショットにおいて、特徴量の基礎に基づいて特徴量を算出し、算出された特徴量について所定の評価関数に従い演算を行って、評価値を算出する。評価関数の演算に際しては、EPGデータ保持部14からのデータと、重み係数テーブル20の情報を参照する。ここで、特徴量としては、ショット長(例えば、該ショットのフレームの数)の値や、コーナー先頭フレームの場合に与えられる値や、代表フレームに顔領域が存在する場合に与えられる値が挙げられる。なお、ショットは、特許請求の範囲における「シーン」に当たる。
【0046】
また、上記シナリオデータの作成に際しては、インデキシング部18は、算出した評価値を評価し、所定の基準を満たす場合にそのショットを特定するための情報を抽出していく。なお、シナリオデータは、複数種類作成される。
【0047】
なお、インデキシング部18における処理の詳しい内容については、追って説明する。
【0048】
また、データ保持部19は、インデキシング部18により検出されたデータ等を保持するものであり、具体的には、インデキシング部18により検出された検出結果を記憶しておくための検出結果記憶テーブル(図2参照)や、該検出結果記憶テーブルに記憶されたデータに基づいて所定のデータを記憶するための特徴量記憶テーブル(図3参照)が設けられている。
【0049】
また、重み係数テーブル20は、上記評価関数を演算する際に使用される重み係数のデータを保持するものであり、具体的には、図4に示すような重み係数テーブルが記憶されている。この重み係数テーブルは、ショット長、コーナー先頭か否か、顔領域があるかについて重み係数が記憶されていて、ジャンルごとに優先度に応じて複数の組み合わせが記憶されている。つまり、優先度が最も高い場合には、そのジャンルにとって最も適切な重み係数の組み合わせとなっている。
【0050】
ここで、ショット長、コーナー先頭か否か、顔領域についての重み係数の1つの組み合わせが、上記「重み係数群」に当たる。例えば、図4の例で、ニュースにおける優先度1の重み係数0.1、0.7、0.2が重み係数群を構成する。また、あるジャンルにおいて、優先順位に従い設けられた複数の重み係数群が上記重み係数群集合に当たる。つまり、図4の例で、ニュースにおける優先度1〜3の各重み係数の組み合わせが重み係数群集合を構成する。
【0051】
また、AVデータ保持部22は、エンコーダ16から送られたAVデータを保持するためのものである。また、シナリオ保持部24は、上記シナリオデータを保持するものである。シナリオデータは複数種類作成されるので、作成された複数種類のシナリオデータが保持されることになる。つまり、シナリオ保持部24は、複数のシナリオデータを記憶するシナリオデータテーブル(図5参照)を有している。
【0052】
また、再生データ選択部26は、ユーザーが操作を行うための操作部であり、例えば、リモコンにより構成される。この操作部は、特に、ユーザーがダイジェスト再生を行う場合に用いるものである。つまり、見たい番組を選択したり、再生するシナリオを選択したりするのに用いる。
【0053】
また、ナビゲーション制御部28は、再生データ選択部26からのデータに基づき、所定のシナリオデータをシナリオ保持部24から読み出し、AVデータ読出し部30に送る。
【0054】
また、AVデータ読出し部30は、ナビゲーション制御部28から送られたデータに基づきAVデータ保持部22に保持されたAVデータから所定のデータを読み出して、デコーダ32に送るものである。
【0055】
また、デコーダ32は、MPEGデコーダであり、送られたAVデータを復号するものである。
【0056】
なお、上記ナビゲーション制御部28と、AVデータ読出し部30と、デコーダ32と、D/A変換部34と、モニタ36等は、上記シナリオ再生手段として機能する。
【0057】
なお、映像情報記録再生装置Aを構成する上記各部については、それぞれを各機能を有する装置として構成してもよいし、一部の構成を所定の処理を実行するためのプログラムと、該プログラムに基づき処理を実行するCPUにより構成してもよい。
【0058】
つまり、各部を装置により構成する場合には、例えば、上記データ分離部10は、EPGデータとAVデータとに分離する機能を有する装置として構成し、エンコーダ16についても、符号化装置により構成する。また、EPGデータ保持部14,重み係数テーブル20、AVデータ保持部22、シナリオ保持部24は、記憶装置により構成されることになる。
【0059】
また、一部の構成を所定の処理を実行するためのプログラムと、該プログラムに基づき動作するCPUにより構成する場合には、各種プログラムが格納された記憶装置と、該プログラムに基づき処理を実行するCPUにより構成し、該各種プログラムとしては、データ分離部10が行なう処理を実行するためのプログラムや、番組付加情報抽出部12が行なう処理を実行するためのプログラムや、エンコーダ16が行なう処理を実行するためのプログラムや、インデキシング部18が行なう処理を実行するためのプログラムや、ナビゲーション制御部28が行なう処理を実行するためのプログラムや、AVデータ読出し部30が行なう処理を実行するためのプログラムや、デコーダ32が行なう処理を実行するためのプログラム等が挙げられる。
【0060】
上記構成の映像情報記録再生装置Aの動作について説明する。まず。EPGデータとAVデータとが含まれたアナログAVデータが受信部(図示せず)を介して映像情報記録再生装置Aに入力されると、図示しない復調部において復調された後に、データ分離部10に入力される。そして、該AVデータは、データ分離部10において、該EPGデータとAVデータとに分離される。EPGデータは、A/D変換部11においてA/D変換された後に番組付加情報抽出部12に送られ、また、AVデータは、A/D変換部15においてA/D変換された後にエンコーダ16に送られる。
【0061】
番組付加情報抽出部12は、EPGデータから必要なデータ、例えば、ジャンルや番組タイトルのデータを抽出し、該抽出したデータをEPGデータ保持部14に送る。送られたデータは、EPGデータ保持部14に保持される。
【0062】
一方、エンコーダ16は、送られたAVデータをMPEGの規格に従い圧縮符号化し、符号化されたAVデータをMPEGストリームとしてAVデータ保持部22とインデキシング部18に送る。AVデータ保持部22では、AVデータが記憶される。このAVデータ保持部22への記憶が、上記映像情報記憶工程に当たる。
【0063】
なお、上記デジタルAVデータの場合の構成では、デジタルAVデータが直接分離部10に入力され、EPGデータは番組付加情報抽出部12に送られ、また、AVデータは、インデキシング部18とAVデータ保持部22に送られる。
【0064】
また、インデキシング部18では、図6に示すフローチャートの処理や図7のフローチャートの処理が行われる。
【0065】
つまり、エンコーダ16からAVデータが送られているか否かを判定すること等により、録画中の番組が終了したか否かが判定され(S10)、番組が終了したら処理は終了する。一方、番組が終了していない場合には、ステップS11に移行して、処理の対象となる対象フレームを特定する(S11)。これは最初のフレームから順次対象フレームとして特定されることになる。
【0066】
次に、そのフレームの位置(時間的な位置)において無音検出を行うか否かが判定される(S12)。これは、無音検出はフレーム間隔よりも長い時間間隔ごとに行なうために、このような判定が設けられているもので、このステップS12においては、複数回に1度の割合で無音検出を行う旨の判定がなされる。
【0067】
そして、無音検出を行う場合には、そのフレームの位置が無音となっているか否かが判定される(S13)。つまり、音声レベルが予め設定したしきい値を越えているか否かを判定することにより、無音が否かが判定される。
【0068】
そして、無音である場合には、対応するフレーム番号を記憶しておく(S14、S15)。これは、インデキシング部18自身において保持しておいてもよいし、データ保持部19に記憶させておいてもよい。一方、無音でない場合には、ステップS16に移行する。
【0069】
ステップS16では、最後の無音から所定時間が経過したか否かが判定される(S16)。つまり、ステップS15において、無音と検出された位置のフレームのフレーム番号が記憶されていくので、この記憶されたデータに従って、最後に無音と判定された位置から所定時間経過しているか否かが判定される。これは、最後に無音になってから所定時間無音が検出されない場合に初めて該最後の無音の位置をコーナー先頭とすることから、このような判定を設けるのである。そして、最後の無音から所定時間が経過している場合には、その最後の無音の位置のフレーム番号をコーナー先頭である旨のデータとともに検出結果記憶テーブル(図2参照)に記憶する。なお、コーナー先頭のデータを記憶した後にも有音区間が続いている場合に、さらに、コーナー先頭のデータを記憶する必要はないので、上記ステップS16では、最後の無音の位置のフレーム番号がコーナー先頭として記憶されていないことも判定され、記憶されていない場合に、ステップS17に移行することになる。つまり、ステップS16では、最後の無音から所定時間が経過したか否かが判定されるとともに、最後の無音の位置のフレーム番号がコーナー先頭として記憶されていないことも判定され、最後の無音から所定時間が経過し、かつ、最後の無音の位置のフレーム番号がコーナー先頭として記憶されていない場合に、ステップS17で、その最後の無音の位置のフレーム番号をコーナー先頭として記憶することになる。
【0070】
例えば、図2、図9に示す例において、フレーム番号l+2のフレームの位置において無音と検出され、その後所定時間無音が検出されなかったことにより、該フレーム番号l+2のデータとコーナー先頭である旨のデータが検出結果記憶テーブルに記憶されたものである。フレーム番号n+2のフレームについても同様である。
【0071】
次に、カット検出を行う(S18)。これは、前のフレームと連続性があるか否かを判定することにより行われ、AVデータにおいてカメラが切り替わる等物理的にフレーム間で連続性がなくなった場合に、連続性がないものと判定される。前のフレームと連続性がないと判定された場合に、対象フレームがカット点となる。このようなカット検出の方法については、すでに種々の手法が提案されており、例えば、J.Mengらによる「“Scene Change Detection in a MPEG Compressed Video Sequence”,SPIE Proceeding Vol.2419 February 1995」が提案する方法を用いることでMPEG−1やMPEG−2の映像ストリームから効率的にカット検出を実行することが可能となる。ステップS18におけるカット検出によりカット点が検出されたら、対象フレームのフレーム番号をカット点である旨のデータとともに検出結果記憶テーブルに記憶する(S19、S20)。一方、カット点でないと検出された場合には、ステップS21に移行する(S19)。
【0072】
例えば、図2、図9に示す例において、フレーム番号m+1のフレームにおける判定においては、前フレームであるフレーム番号mのフレームとの連続性がないと判定されたことにより、フレーム番号m+1のデータがカット点である旨のデータとともに検出結果記憶テーブルに記憶されたものである。フレーム番号n+1のフレームについても同様である。
【0073】
次に、対象フレームが代表フレームか否かが判定される(S21)。この代表フレームとは、カット点に当たるフレームから所定フレーム目のフレームをいい、例えば、カット点に当たるフレームから3番目のフレームを代表フレームと規定した場合には、対象フレームが、カット点に当たるフレームから3番目のフレームであるか否かが判定される。
【0074】
そして、代表フレームであると判定された場合には、フレーム中に顔領域が存在するか否かが判定される(S22)。つまり、フレーム中に顔の画像が存在するか否かを判定する。この顔領域検出もすでに種々の手法が提案されており、例えば、H.Wangらによる「“A Highly Efficient System for Automatic Face Region Detection in MPEG Video”,IEEE TCSVT」が提案する方法を用いることが可能である。ステップS22における顔領域検出により対象フレームにおいて顔領域が検出された場合には、そのフレームのフレーム番号を顔領域を含むフレームである旨のデータとともに検出結果記憶テーブルに記憶する(S23、S24)。一方、顔領域を含まない場合には、その対象フレームについての処理を終了し、ステップS10に戻る。
【0075】
なお、ステップS21の判定において対象フレームが代表フレームでない場合には、その対象フレームについての処理を終了し、ステップS10に戻る。
【0076】
例えば、図2、図9に示す例において、フレーム番号n+4のフレームにおける判定においては、該フレームが代表フレームであり、かつ、顔領域が検出されたとして、フレーム番号n+1のデータが顔領域が存在する旨のデータとともに検出結果記憶テーブルに記憶されたものである。なお、図9において、フレーム番号m+4のフレームも代表フレームであるが、顔領域が存在しないとして、フレーム番号m+4についてのデータは検出結果記憶テーブルには記憶されていない。
【0077】
ある対象フレームについて、ステップS12〜S24までの処理が終了したら、ステップS25に移行して、ショットの評価を行う。このショットの評価の詳細については後述する。その後は、ステップS11において、その次のフレームを対象フレームに特定して同じようにステップS12〜S24までの処理を繰り返していく。このようにして、最後のフレームまで処理を行っていき、検出結果記憶テーブルに検出結果を記憶していく。
【0078】
なお、各フレームごとに順次処理を行っていくに従い、検出結果記憶テーブルにデータが記憶されていくわけであるが、インデキシング部18においては、検出結果記憶テーブルへ順次記憶されるデータに基づいて図3に示す特徴量記憶テーブルにも記憶を行っていく。この特徴量記憶テーブルは、各ショット番号ごとに、先頭フレームと、最終フレームと、ショット長と、ショット長判定値と、コーナー先頭である場合の特徴量と、顔領域が存在する場合の特徴量と、評価の処理が完了しているか否かが記憶されるようになっている。
【0079】
つまり、1つのショットは、カット点のフレームから次のカット点の手前のフレームにより構成されるので(先頭のショットについては、先頭のフレームから最初のカット点の手前のフレームまで)、各ショットごとに各データを記憶していく。つまり、先頭フレームについては、そのショットの先頭フレームのフレーム番号を記憶し、最終フレームはそのショットの最終フレームのフレーム番号を記憶し、ショット長は、そのショットにおけるフレーム数を記憶する。ショット長判定値は、ショット長があるしきい値よりも大きい場合には1とし、該しきい値以下の場合には0とする。このように、ショット長があるしきい値よりも大きい場合に与えられる値が、上記シーン長さ特徴量に当たる。また、コーナー先頭である場合の特徴量については、そのショット内にコーナー先頭である旨のデータが記憶されているフレームがある場合には1とし、一方、そのショット内にコーナー先頭である旨のデータが記憶されているフレームが1つもない場合には0とする。このように、そのショット内にコーナー先頭である旨のデータが記憶されているフレームがある場合に与えられる値が、上記音声レベル特徴量に当たる。同じように、顔領域が存在する場合の特徴量についても、そのショット内に顔領域が存在する旨のデータが記憶されているフレームがある場合には1とし、一方、そのショット内に顔領域が存在する旨のデータが記憶されているフレームが1つもない場合には0とする。このように、そのショット内に顔領域が存在する旨のデータが記憶されているフレームがある場合に与えられる値が、上記顔領域特徴量に当たる。つまり、ショット長判定値と、コーナー先頭と、顔領域については、2値とする。
【0080】
なお、上記シーン長さ特徴量や、音声レベル特徴量や、顔領域特徴量は、インデキシング部18により検出されるわけであるが、この場合のインデキシング部18は、上記シーン長さ特徴量検出手段や、音声レベル特徴量検出手段や、顔領域特徴量検出手段として機能するといえる。また、上記のように、各特徴量が検出される工程が上記特徴量検出工程に当たる。
【0081】
なお、評価の処理が完了しているか否かに関しては、そのショットについてステップS25における評価が完了した場合には、その旨のデータ(例えば、1)を記憶する。このようにして、検出結果記憶テーブルにデータを順次記憶していくに伴い、特徴量記憶テーブルにも順次データが記憶されていく。
【0082】
この特徴量記憶テーブルへの記憶のタイミングは、特徴量記憶テーブルへの記憶が可能になったタイミングで任意に行えばよいが、例えば、上記ステップS17、S20、S24における検出結果記憶テーブルへの記憶のタイミングにおいて同時に行えばよい。例えば、あるカット点が検出された場合には、そのカット点の手前にあるショットの最終フレームと、次のショットの先頭フレームの番号が分かるので、ステップS20において検出結果記憶テーブルにカット点のデータを書き込むのと同時に、特徴量記憶テーブルにも書込みを行なう。ショット長やショット長判定値についても、最終フレームのデータが分かれば算出可能であるので、書込み可能である。また、顔領域が存在する場合の特徴量についても、あるカット点が検出された場合には、その手前のショット内に顔領域の存在するフレームがある場合には、ステップS20において検出結果記憶テーブルにカット点のデータを書き込むのと同時にその旨のデータを書き込む。なお、コーナー先頭である場合の特徴量については、最後の無音から所定時間経過しないとコーナー先頭であることが分からないので、ステップS17において検出結果記憶テーブルに書き込みを行なうのと同時に行なう。また、評価の処理が完了しているか否かについては、あるショットについてステップS25の処理が完了した場合に、その旨のデータを書き込む。
【0083】
以上のようにインデキシング部18が特徴量の検出を行うわけであるが、その際のインデキシング部18は、上記特徴量検出手段として機能する。
【0084】
次に、ステップS25におけるショットの評価について、図7等を使用して説明する。
【0085】
まず、未処理のショットがあるか否かが判定される(S30)。つまり、ステップS25における評価を行っていないショットがあるか否かが判定され、ある場合には、ステップS31に移行し、ない場合にはステップS25の処理を一旦終了して、ステップS10(図6参照)に戻る。ここで、ステップS25における評価を行っていないショットがあるか否かについては、特徴量記憶テーブルにおける評価の処理が完了しているか否かのデータに基づいて判定すればよい。
【0086】
また、ステップS31では、未処理のショットの直後のフレーム、つまり、未処理のショットの直後のカット点から所定時間が経過したか否かが判定される(S31)。これは、あるフレームがコーナー先頭であるか否かは、最後の無音から所定時間が経過しないと判明しないので、直後のカット点から所定時間が経過するまでは、該未処理のショットにコーナー先頭のデータが含まれる可能性があるからである。ステップS31において、所定時間が経過している場合には、S32に移行し、経過していない場合にはステップS25の処理を一旦終了して、ステップS10に戻る。
【0087】
ステップS32においては、EPGデータ保持部14に保持されているデータから処理対象のAVデータのジャンルについてのデータを読み出して取得する(S32)。
【0088】
次に、対象ショットについての特徴量を取得する(S33)。つまり、未処理ショットについての特徴量を特徴量記憶テーブルから読み出す。なお、未処理ショットが複数ある場合には、最初の未処理ショットについての特徴量を読み出す。
【0089】
次に、シナリオ番号を初期値にセットする(S34)。例えば、シナリオ番号を1とする。そして、各特徴量についての重み係数を重み係数テーブルから取得する(S35)。なお、重み係数はS32で取得したジャンルと、シナリオ番号に応じて選択して取得される。例えば、ステップS32で取得したAVデータのジャンルがニュースで、シナリオ番号が1の場合には、図4に示す重み係数テーブルに従い、ショット長については、0.1、コーナー先頭については0.7、顔領域については0.2の各重み係数を取得する。つまり、シナリオ番号1〜3は、重み係数テーブルにおける優先度1〜3に対応している。
【0090】
そして、所定の評価関数に従い評価値を算出する。つまり、各特徴量に重み付けを行って計算し評価値を算出する(S36)。評価関数の具体例としては、以下の評価関数を用いる。
【0091】
F=w1*v1+w2*v2+w3*v3
上記の評価関数において、w1、w2、w3は各重み係数を示し、v1、v2、v3は各特徴量を示す。つまり、各特徴量について、対応する重み係数を乗算した値の和を求める。例えば、ジャンルがニュースであるAVデータの場合に、図3に示すショット番号1のショットにおいては、F=0.1*1+0.7*1+0.2*0となり、Fの値が評価値となる。
【0092】
そして、算出された評価値と所定のしきい値とを比較し、評価値が該しきい値よりも大きい場合には、該ショットを特定するためのデータをシナリオデータテーブルに記憶する。具体的には、シナリオデータテーブルにおける所定のシナリオ番号に対応させて該ショットを特定するためのデータを書き込む。なお、該ショットを特定するためのデータとしては、該ショットにおける代表フレームのアドレスデータとする。これは、ダイジェスト再生する際には、該ショット内の所定の範囲のみを再生するものとするためである。なお、該所定の範囲を代表フレームから所定数のフレーム分(又は所定時間分)とし、この範囲を該ショットにおけるセグメントと呼ぶこととする。なお、このセグメントは、特許請求の範囲における「シーンの一部」に当たる。また、シナリオデータテーブルに書き込まれる代表フレームのアドレスデータは、上記「シーン又はシーンの一部を特定する情報である特定情報」に当たる。
【0093】
次に、全てのシナリオについて評価が完了したか否かが判定されて(S39)、完了してない場合には、シナリオ番号をインクリメントして次のシナリオについて評価を行なう。例えば、ニュースの場合に、シナリオ番号2について評価する場合には、図4に示す重み係数テーブルに従い、ショット長については、0.1、コーナー先頭については0.5、顔領域については0.4の各重み係数を取得して(S35)、その後同じように評価値を計算し(S36)、しきい値との比較を行って(S37)、しきい値を越えている場合に、シナリオデータテーブルへの書込みを行う。シナリオ番号3についても同様である。
【0094】
以上のようにして、全てのシナリオについて評価が完了したら、ステップS25の処理を完了して、ステップS10に戻る。このステップS25の処理も各ショットについて処理が行われて、逐次シナリオデータテーブルにデータが書き込まれていくことになる。このようにして、シナリオデータが記憶されていく。あるAVデータの最後まで処理が完了した際には、シナリオデータテーブルには、各シナリオ番号ごとに、評価値がしきい値を越えたショットの代表フレームのアドレスデータが記憶されていることになる。
【0095】
例えば、図5、図10の例においては、例えば、ショット番号11のショットでは、シナリオ番号1〜3の全てのシナリオについて評価値がしきい値を越えたことから、該ショットの代表フレームのアドレスデータが書き込まれている。また、ショット番号12のショットでは、シナリオ番号3の場合のみ評価値がしきい値を越えたことから、シナリオ番号3についてのみショット番号12のショットの代表フレームのアドレスデータが書き込まれている。
【0096】
なお、複数の番組について上記の処理が行われた場合には、各番組ごとにシナリオデータテーブルが記憶されることになる。
【0097】
なお、上記の説明では、ステップS25の処理は、図6に示す一連の処理の流れの中に存在するものとして説明したが、図6のフローチャートからステップS25を削除するとともに、図7のフローチャートを図6のフローチャートとは別に並行して行うようにしてもよい。
【0098】
以上のように、上記ステップS25の処理は、インデキシング部18により行われるが、この場合のインデキシング部18は上記評価手段として機能する。また、上記ステップS25は、上記評価工程に当たる。また、上記のようなシナリオテーブルへの書込みが、上記シナリオ記憶工程に当たる。
【0099】
次に、AVデータをダイジェスト再生する場合の動作について説明する。ユーザーが再生データ選択部26により、ダイジェスト再生したい番組を選択する。例えば、選択可能な番組がモニタ36に表示されるので、これらから番組を選択する。
【0100】
そして、ダイジェスト再生の操作を行うと、図8に示す処理に従い再生が行われる。つまり、ユーザーがダイジェスト再生の操作を行うと、その情報がナビゲーション制御部28に送られる。すると、ナビゲーション制御部28は、シナリオ保持部24から最も優先度の高いシナリオデータを読み出す(S50)。つまり、シナリオ番号1のシナリオにおけるアドレスデータを読み出してAVデータ読出し部30に送る。そして、AVデータ読出し部30では、最初のアドレスデータに基づいて、該アドレスデータを先頭フレームとするセグメントをAVデータ保持部22から読み出して、デコーダ32に転送する(S51)。すると、デコーダ32で該セグメントのデコードが行われて、D/A変換部34でD/A変換された後にモニタ36に再生される。そして、再生データ制御部26によりシナリオ変更の指示がない限り(S53)、AVデータ読出し部30は、順次送られたアドレスデータに基づいて対応するセグメントをAVデータ保持部22から読み出してデコーダ32に送ることにより、以後同様に再生される。つまり、シナリオ番号1として記憶されたアドレスデータに応じたセグメントのみが順次再生されるのである。
【0101】
一方、再生データ選択部26において、シナリオ変更の指示があった場合(S53)、つまり、次に優先度の高いシナリオ、つまり、シナリオ番号2のシナリオのシナリオデータがシナリオ保持部24から読み出される(S54)。つまり、選択されたシナリオについて記憶されたアドレスデータが読み出されて、AVデータ読出し部30に送られる。AVデータ読出し部30は、送られたアドレスデータに従って所定のセグメントを読み出し、デコーダ32に送り、デコーダ32でデコードされた後に再生されることになる。この場合に、変更されたシナリオに基づき最初から再生が行われる。さらに、シナリオ変更の指示があった場合には、次に優先度の高いシナリオ、つまり、シナリオ番号3のシナリオのシナリオデータが読み出されて再生される。なお、さらに下位の優先度のシナリオがない場合には、最も優先度の高いシナリオに戻って再生を行う。つまり、シナリオ番号が1〜3までの場合には、シナリオ番号3の再生中にシナリオ変更の指示があった場合には、シナリオ番号1に戻る。
【0102】
つまり、ダイジェスト再生の操作を行うと、最初は最も優先度の高いシナリオに基づき再生を行うが、途中でシナリオ変更が行われると、順次優先度が下位のシナリオに基づき再生が行われ、最下位のシナリオ再生中にシナリオ変更の指示があった場合には、最上位のシナリオに戻るのである。なお、上記ステップS53においては、シナリオをユーザが選択できるようにして、ステップS54において、選択されたシナリオに基づいて再生するようにしてもよい。
【0103】
なお、上記及び以下の説明におけるシナリオデータに従ったダイジェスト再生が上記シナリオ再生工程に当たる。
【0104】
なお、以下のように「通常モード」と「シナリオ選択モード」を設けて各モードを選択できるようにしてもよい。
【0105】
つまり、「通常モード」と「シナリオ選択モード」を選択する画面が表示されるので、ここで「通常モード」を選択したとする。
【0106】
すると、再生データ選択部26は、番組を特定するためのデータと、通常モードである旨のデータをナビゲーション制御部28に送る。すると、ナビゲーション制御部28は、番組を特定するためのデータに従い該番組についてのシナリオデータテーブルを選択する。そして、通常モードである旨のデータに基づいて、シナリオ番号1のシナリオを選択し、記憶されている代表フレームのアドレスデータをAVデータ読出し部30に送る。
【0107】
AVデータ読出し部30は、送られたアドレスデータに従って、AVデータ保持部22から所定のデータを読み出して、デコーダ32に送る。つまり、該アドレスデータが示すフレームから1セグメント分のデータを読み出して、デコーダ32に送る。
【0108】
すると、デコーダ32では、AVデータ読出し部30から送られたデータがデコードされて、D/A変換部34に送られてD/A変換された後にモニタ36に送られて再生される。
【0109】
つまり、シナリオ番号1として記憶されたアドレスデータに応じたセグメントのみが順次再生されるのである。例えば、図5の例では、ショット番号11におけるセグメントの次には、ショット番号15におけるセグメントが再生される。
【0110】
一方、上記シナリオ選択モードを選択した場合には、シナリオ選択画面が表示されるので、このシナリオ選択画面においてシナリオを選択することにより、選択されたシナリオに応じて再生が行われる。例えば、シナリオ番号2を選択した場合には、シナリオ番号2に記憶されたアドレスデータがシナリオ保持部24からナビゲーション制御部28を介してAVデータ読出し部30に送られるので、AVデータ読出し部30は、シナリオ番号2に記憶されたアドレスデータに従ってAVデータを読み出して再生されるのである。
【0111】
以上のように、本実施例の映像情報記録再生装置によれば、映像情報のジャンルごとに定められた基準に従ってシナリオデータが作成されて、該シナリオデータに基づきダイジェスト再生されるので、番組のジャンルが異なっても、番組のジャンルごとに最適なダイジェスト再生を行うことが可能となる。また、複数の基準に基づいてダイジェスト再生のシナリオが複数作成されるので、ユーザーは、異なる基準に基づいたシナリオデータによるダイジェスト再生を見ることができ、映像情報を概観しやすくなるとともに、重要シーンを見つけやすくなる。つまり、ある映像情報について、複数のシナリオデータが作成されるので、ダイジェスト再生に用いるシナリオデータを切り替えていくことにより、種々の基準に基づくダイジェスト再生を見ることができ、映像情報を概観しやすくなる。
【0112】
なお、ダイジェスト再生に際して、複数の番組を同時に再生するようにしてもよい。つまり、デコーダ32に動画サムネイル表示機能を設けることにより、図11も示すように、複数の番組のダイジェスト再生を同時にサムネイル再生するようにしてもよい。図11に示す例は、モニタ36の表示画面において、上段においては、ニュース***の番組がダイジェスト再生され、中段においては、ドラマAAAの番組がダイジェスト再生され、下段においては、ドラマ○○○の番組がダイジェスト再生される例である。
【0113】
つまり、再生データ選択部26により、複数の番組の同時ダイジェスト再生を指示することにより、各番組についてのシナリオデータがシナリオ保持部24から読み出されて、AVデータ読出し部30に送られて、AVデータ読出し部30では、AVデータ保持部22に記憶された各番組のAVデータからシナリオデータに従ってセグメントが読み出されて、デコーダ32に送られることになる。
【0114】
また、図12に示すように、あるシナリオデータに記憶されたアドレスデータに対応するセグメントをそれぞれ一列に表示する表示領域M1〜M3等を表示画面Mに設け、各表示領域にセグメントを繰り返し表示するようにしてもよい。例えば、図5の例で、ショット番号11に対応するセグメントを表示領域M1に繰り返し表示し、ショット番号15に対応するセグメントを表示領域M2に繰り返し表示する。また、表示領域M3には、ショット番号15の次にシナリオデータに記憶されているショット番号に対応するセグメントが表示されることになる。つまり、各セグメントを時間的に前から後ろに行くに従い、表示画面Mの左から右に配置し、そのうちの複数個(例えば、図12に示すように3つ)のみを表示するようにし、他のセグメントはユーザーが入力装置を左又は右に操作することにより1画面ずつずれて表示できるようにする。
【0115】
このようにすることにより、ある番組の重要シーンを一度に見ることができ、その番組の概要を即座に知ることが可能となる。
【0116】
なお、同じシナリオに基づきながらもダイジェスト再生時間が異なるシナリオを用意することにより、再生時間の長いシナリオを選択した場合には、より詳細に各シーンを見ることができるようにしてもよい。
【0117】
これは、同じ重み係数の組み合わせを用いながらステップS37で用いるしきい値を異ならせることにより可能である。例えば、図4の例で、ニュースにおいて優先度1の重み係数(ショット長については、0.1、コーナー先頭については0.7、顔領域については0.2)を用いて評価値を算出し、しきい値と比較するが、この際、複数のしきい値を用意して判定を行う。例えば、しきい値aとしきい値b(しきい値a>しきい値b)とを用意し、評価値としきい値aとの比較結果に基づいたシナリオデータをシナリオ番号1−1とし、評価値としきい値bとの比較結果に基づいたシナリオデータをシナリオ番号1−2としてそれぞれをシナリオデータテーブルに書き込む。この場合、しきい値bの方がしきい値aよりも小さいので、シナリオデータとして書き込まれるアドレスデータの数もしきい値bの方が多くなる可能性が高くなる。
【0118】
そして、ダイジェスト再生に際して、シナリオ番号1−1とシナリオ番号1−2のいずれかを選択できるようにすることにより、同じ重み係数の組み合わせにより作成されたシナリオであるにも拘わらず、再生時間の異なるように構成することが可能となる。
【0119】
なお、ダイジェスト再生をする場合に、どのようなシナリオに基づいて再生をしているのかが分かるようにしておくことが好ましい。つまり、シナリオの内容が分かるように、再生画面中に表示を行う。例えば、図4の例では、ニュースにおいて、シナリオ番号1のシナリオ(つまり、優先度1のシナリオ)では、コーナー先頭をかなり評価するので、例えば、「コーナー先頭多いモード」と再生画面の端位置等に表示し、シナリオ番号2のシナリオでは、コーナー先頭を評価するもののシナリオ番号1ほどではないので、例えば、「コーナー先頭やや多いモード」と表示し、シナリオ番号3のシナリオでは、コーナー先頭と顔領域とを等分に評価しているので、例えば、「コーナー先頭、顔領域やや多いモード」等と表示する。
【0120】
なお、上記の説明では、特徴量の基礎として、ショット長や、コーナー先頭であることや、顔領域があることを例に挙げたが、これだけには限られず、例えば、テロップがあること等他の特徴量の基礎を併用してもよい。
【0121】
【発明の効果】
本発明に基づく映像情報記録再生装置及び映像情報記録再生方法によれば、映像情報のジャンルごとに定められた基準に従ってシナリオが作成されて、該シナリオに基づきダイジェスト再生されるので、番組のジャンルが異なっても、番組のジャンルごとに最適なダイジェスト再生を行うことが可能となる。
【0122】
また、本発明に基づく映像情報記録再生装置及び映像情報記録再生方法によれば、複数の基準に基づいてダイジェスト再生のシナリオが複数作成されるので、ユーザーは、異なる基準に基づいたシナリオによるダイジェスト再生を見ることができ、映像情報を概観しやすくなるとともに、重要シーンを見つけやすくなる。例えば、登場人物を把握したい場合には、顔領域が存在するシーンに重きをおいた基準に従ったシナリオを再生すればよい。
【図面の簡単な説明】
【図1】本発明の実施例に基づく映像情報記録再生装置の構成を示すブロック図である。
【図2】検出結果記憶テーブルの構成を示す説明図である。
【図3】特徴量記憶テーブルの構成を示す説明図である。
【図4】重み係数テーブルの構成を示す説明図である。
【図5】シナリオデータテーブルの構成を示す説明図である。
【図6】本発明の実施例に基づく映像情報記録再生装置の動作を説明するためのフローチャートである。
【図7】本発明の実施例に基づく映像情報記録再生装置の動作を説明するためのフローチャートである。
【図8】本発明の実施例に基づく映像情報記録再生装置の動作を説明するためのフローチャートである。
【図9】本発明の実施例に基づく映像情報記録再生装置の動作を説明するための説明図である。
【図10】本発明の実施例に基づく映像情報記録再生装置の動作を説明するための説明図である。
【図11】再生における表示の一例を示す説明図である。
【図12】再生における表示の一例を示す説明図である。
【符号の説明】
A 映像情報記録再生装置
10 データ分離部
11、15 A/D変換部
12 番組付加情報抽出部
14 EPGデータ保持部
16 エンコーダ
18 インデキシング部
19 データ保持部
20 重み係数テーブル
22 AVデータ保持部
24 シナリオ保持部
26 再生データ選択部
28 ナビゲーション制御部
30 AVデータ読出し部
32 デコーダ
34 D/A変換部
36 モニタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for reproducing video data, and more particularly to an apparatus for generating and reproducing a digest version of video data.
[0002]
[Prior art]
Conventionally, there exists an apparatus that creates and reproduces a digest version of video information. In other words, it takes a lot of time and effort to find what to watch from a large amount of video data, regardless of whether it is for professional use or general consumer use. For example, although it is possible to find a program to be viewed by fast-forward playback of a VTR, it takes time and effort. In order to cope with this, an apparatus and a method have been proposed in which a summary video is created to roughly grasp the content of the video through the summary video (Japanese Patent Laid-Open Nos. 10-32773 and 11-239322, in particular). (Kaihei 11-176038).
[0003]
In Japanese Patent Laid-Open No. 2000-350124, when a television program is recorded, the video and audio of the program are analyzed, a scene that seems to be characteristic in the program is extracted, and the scene is generated as a reduced still image. When the image is stored and browsed, the reduced still image is used as reproduction data. For example, when extracting a feature scene, points such as scene transitions, camera movements, color changes, presence / absence of telop, and contents are extracted.
[0004]
[Problems to be solved by the invention]
However, in the above conventional case, since characteristic scenes are extracted based on one criterion, it may not be said that important scenes are necessarily extracted depending on programs. For example, in the news, the first scene where each news item is started is usually important, whereas in a drama or song program, the upscene of the performer is important. However, if a feature scene is extracted based on one criterion, an unimportant scene may be extracted depending on a program.
[0005]
Therefore, the present invention provides a video information recording / reproducing apparatus capable of appropriately extracting characteristic scenes, that is, scenes important for the program, creating a summary video and performing digest playback even if the program genres are different. In addition, an object of the present invention is to provide a video information recording / reproducing apparatus capable of generating digest video more appropriate for a user and performing digest playback.
[0006]
[Means for Solving the Problems]
The present invention was created to solve the above problems, and firstly, a video information recording / reproducing apparatus for recording / reproducing video information, Video information storage means for storing video information, feature quantity detection means for detecting a plurality of types of feature quantities for each scene in the video information, and evaluation of the feature quantities based on criteria determined for each genre of video information The evaluation means for evaluating the detected feature quantity according to the criteria for the above, and the evaluation means includes a plurality of types of weight coefficient groups in which weight coefficients for weighting each feature quantity are provided for each feature quantity. Scenario data comprising the specific information by storing specific information, which is information for specifying the scene or a part of the scene, based on the evaluation result of the weighting coefficient storage unit provided for each genre and the evaluation means From the video data stored in the video information storage means based on the scenario data stored in the scenario storage means, Reading a portion of the constant of the scene or the scene and a scenario reproducing means for reproducing, the evaluation means evaluates the characteristic amount using the weighting coefficient group corresponding to the genre of the video information It is characterized by that.
[0007]
In the video information recording / reproducing apparatus having the first configuration, the video information is stored in the video information storage means. The feature amount detection means detects a plurality of types of feature amounts for each scene in the video information. The evaluation means evaluates the detected feature amount according to a criterion for evaluating the feature amount, based on a criterion determined for each genre of video information. Further, the scenario storage unit stores scenario data including the specific information by storing specific information that is information for specifying the scene or a part of the scene based on the evaluation result by the evaluation unit. In this way, the scenario for digest playback is stored in the scenario storage means for each criterion, so that the scenario playback means can execute a scenario based on a predetermined criterion from the video data stored in the video information storage means. Based on the data, a predetermined scene or a part of the scene is read and reproduced. Therefore, a scenario is created according to a standard defined for each genre of video information, and digest playback is performed based on the scenario. Therefore, even if the program genre differs, optimal digest playback can be performed for each program genre. It becomes possible.
[0008]
The second is a video information recording / reproducing apparatus for recording / reproducing video information, Video information storage means for storing video information, feature quantity detection means for detecting a plurality of types of feature quantities for each scene in the video information, and feature quantities detected by the feature quantity detection means according to a plurality of types of criteria, respectively An evaluation unit that evaluates, a weighting factor storage unit in which a plurality of weighting factor groups in which weighting factors for weighting each feature amount are provided for each feature amount are provided according to priority, and the evaluation unit Scenario storage means for storing scenario data composed of the specific information for each reference by storing specific information that is information for specifying the scene or a part of the scene for each reference based on the evaluation result by the means And stored in the video information storage means based on scenario data based on a predetermined criterion among the scenario data stored in the scenario storage means Scenario reproduction means for reading out and reproducing a predetermined scene or a part of the scene from the image data, and the evaluation means evaluates the feature amount using each weight coefficient group, thereby Evaluate quantity according to multiple criteria It is characterized by that.
[0009]
In the video information recording / reproducing apparatus having the second configuration, the video information is stored in the video information storage means. The feature amount detection means detects a plurality of types of feature amounts for each scene in the video information. The evaluation means evaluates the feature quantities detected by the feature quantity detection means according to a plurality of types of criteria. Further, the scenario storage means stores specific information, which is information for specifying the scene or a part of the scene, for each criterion based on the evaluation result by the evaluation means, so that the specific information is determined for each criterion. The scenario data is stored. In this way, the scenario for digest playback is stored in the scenario storage means for each criterion, so that the scenario playback means can execute a scenario based on a predetermined criterion from the video data stored in the video information storage means. Based on the data, a predetermined scene or a part of the scene is read and reproduced. Therefore, multiple digest playback scenarios are created based on multiple criteria, allowing users to view digest playback based on scenarios based on different criteria, making it easier to view video information and finding important scenes. It becomes easy. Therefore, digest playback more appropriate for the user is possible. For example, when it is desired to grasp the characters, a scenario according to a standard that places importance on the scene where the face area exists may be reproduced.
[0010]
The third is a video information recording / reproducing apparatus for recording / reproducing video information, Video information storage means for storing video information, feature quantity detection means for detecting a plurality of types of feature quantities for each scene in the video information, and a plurality of types of feature quantities detected by the feature quantity detection means The evaluation means for evaluating each according to the criteria defined for each genre, and the weighting coefficient group provided for each feature quantity by the evaluation means for weighting each feature quantity includes a plurality of types of genres. For each criterion, by storing for each criterion specific information that is information for identifying the scene or a part of the scene based on the evaluation result by the evaluation means and the weight coefficient storage unit provided for each Scenario storage means for storing scenario data comprising the specific information, and based on a predetermined criterion among the scenario data stored in the scenario storage means Scenario reproduction means for reading out and reproducing a predetermined scene or a part of the scene from the video data stored in the video information storage means based on the Nario data, and the evaluation means Evaluate each feature value using a group of weighting factors corresponding to the genre, and evaluate the feature value according to multiple types of criteria It is characterized by that. Therefore, a scenario is created according to a standard defined for each genre of video information, and digest playback is performed based on the scenario. Therefore, even if the program genre differs, optimal digest playback can be performed for each program genre. It becomes possible. In addition, for a given program, multiple digest playback scenarios are created based on multiple criteria, allowing users to view digest playback based on scenarios based on different criteria, making it easier to view video information, Easier to find important scenes.
[0013]
Also, Fourth, A video information recording / reproducing apparatus for recording / reproducing video information, Video information storage means for storing video information, feature quantity detection means for detecting a plurality of types of feature quantities for each scene in the video information, and a plurality of types of feature quantities detected by the feature quantity detection means The evaluation means for evaluating each according to the criteria defined for each genre, and the evaluation means is a set of weight coefficient groups, and weights for weighting each feature quantity are provided for each feature quantity. A weighting coefficient storage unit having a plurality of weighting coefficient group sets each having a plurality of coefficient groups according to priority order, and information for specifying the scene or a part of the scene based on the evaluation result by the evaluation unit By storing specific information for each criterion, scenario storage means for storing scenario data composed of the specific information for each criterion, and the scenario storage A scenario in which a predetermined scene or a part of the scene is read out from the video data stored in the video information storage means and reproduced based on scenario data based on a predetermined standard among scenario data stored in the means Reproducing means, and the evaluation means evaluates the feature quantities using a plurality of weight coefficient groups in the weight coefficient group set corresponding to the genre of the video information, respectively, so that the feature quantities are determined according to a plurality of types of criteria. evaluate It is characterized by that.
[0014]
Also, Fifth, in the first or third configuration, The evaluation means compares a value obtained by multiplying each feature amount by a corresponding weighting factor with a predetermined threshold value, and determines whether the accumulated value is greater than the predetermined threshold value. It is characterized by determining.
[0015]
Also, Sixth, in the second or fourth configuration, The evaluation means compares a value obtained by multiplying each feature amount by a corresponding weighting factor with a predetermined threshold value, and determines whether the accumulated value is greater than the predetermined threshold value. It is characterized by determining. In this way, the detected feature amount is evaluated.
[0016]
Also, Seventh, in the fifth or sixth configuration, The scenario storage means stores specific information that is information for specifying the scene or a part of the scene when the integrated value is larger than the predetermined threshold value.
[0017]
Also, Eighth, in any of the fifth to seventh configurations, The evaluation means has a plurality of types of threshold values used for evaluation, and performs evaluation based on each threshold value. The scenario storage means performs each evaluation based on the evaluation result based on each threshold value. The scenario data is stored for each threshold.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to the drawings. A video information recording / reproducing apparatus A according to the present invention includes a data separation unit (separation unit) 10, an A / D conversion unit 11, a program additional information extraction unit 12, an EPG data holding unit 14, and an A / D conversion unit. 15, an encoder 16, an indexing unit 18, a data holding unit 19, a weighting factor table (weighting factor storage unit) 20, an AV data holding unit (video information storage unit) 22, and a scenario holding unit (scenario storage unit) ) 24, a reproduction data selection unit (scenario selection unit) 26, a navigation control unit 28, an AV data reading unit 30, a decoder 32, a D / A conversion unit 34, and a monitor 36. .
[0037]
Here, when the digital AV data (video information) including EPG (electronic program guide) data and AV data is input, the data separation unit 10 separates the data into EPG data and AV data. Here, the configuration shown in FIG. 1 is an example when analog AV data (video information) such as analog broadcast wave data of the current television is input to the video information recording / reproducing apparatus A. A receiving unit and a demodulation processing unit are provided before the data separation unit 10, and analog AV data input from the reception unit is demodulated by the demodulation unit and then input to the data separation unit 10. Specifically, the data separation unit 10 has a function of separating EPG data multiplexed in VBI (vertical blanking interval). The data separation unit 10 sends EPG data to the program additional information extraction unit 12, while sending AV data to the encoder 16.
[0038]
If the data input to the video information recording / reproducing apparatus A is digital AV data, the A / D conversion unit 11, the A / D conversion unit 15, and the encoder 16 are omitted from the configuration of FIG. Will be. Further, the demodulator as described above is also omitted. That is, the received digital AV data is directly input to the data separation unit 10 and is separated into EPG data and AV data by the data separation unit 10, and the EPG data is input to the program additional information extraction unit 12. The data is input to the AV data holding unit 22 and also input to the indexing unit 18. Note that when digital AV data is input to the video information recording / reproducing apparatus A, encoded data is input, so that the encoder 16 as shown in FIG. 1 is not necessary.
[0039]
Next, the A / D converter 11 converts EPG data as analog data into digital data.
[0040]
Further, the program additional information extraction unit 12 extracts necessary data from the EPG data. For example, genre and program title data are extracted. The program additional information extraction unit 12 also has a function of sending the extracted data to the EPG data holding unit 14. The EPG data holding unit 14 holds the extracted data.
[0041]
The A / D converter 15 converts AV data as analog data into digital data.
[0042]
The encoder 16 is an MPEG encoder, and compresses and encodes the sent AV data according to the MPEG standard. The encoder 16 has a function of sending the encoded AV data as an MPEG stream to the AV data holding unit 22 and the indexing unit 18.
[0043]
The indexing unit 18 analyzes AV data sent from the encoder 16 and is used to calculate a predetermined evaluation function by performing silence detection, cut point detection, face area detection, and the like. The basis of the feature quantity to be detected is detected, and each shot is evaluated, and in particular, an evaluation function is calculated for the feature quantity to create scenario data.
[0044]
That is, the indexing unit 18 detects the last frame position of the silent section (this is the “corner top frame”) by performing silence detection on the AV data, or the frame position at a position where there is no image continuity. (This becomes a “cut point”) or whether or not a face area exists in the representative frame based on the cut point is detected. The presence of a corner head frame, the presence of a cut point, and the presence of a face region in a representative frame are the basis of the feature amount.
[0045]
In addition, regarding the calculation of the evaluation function, the indexing unit 18 calculates a feature amount based on the basis of the feature amount in a shot composed of frames from a cut point frame to a frame before the next cut point. An evaluation value is calculated by performing an operation on the obtained feature amount according to a predetermined evaluation function. When calculating the evaluation function, the data from the EPG data holding unit 14 and the information in the weighting coefficient table 20 are referred to. Here, examples of the feature amount include a value of a shot length (for example, the number of frames of the shot), a value given in the case of a corner top frame, and a value given when a face area exists in a representative frame. It is done. The shot corresponds to a “scene” in the claims.
[0046]
In creating the scenario data, the indexing unit 18 evaluates the calculated evaluation value, and extracts information for specifying the shot when a predetermined criterion is satisfied. A plurality of types of scenario data are created.
[0047]
The detailed contents of the processing in the indexing unit 18 will be described later.
[0048]
The data holding unit 19 holds the data detected by the indexing unit 18, and specifically, a detection result storage table (for storing the detection results detected by the indexing unit 18). 2) and a feature amount storage table (see FIG. 3) for storing predetermined data based on the data stored in the detection result storage table.
[0049]
The weighting factor table 20 holds weighting factor data used when calculating the evaluation function, and specifically stores a weighting factor table as shown in FIG. This weighting coefficient table stores weighting coefficients for shot length, whether or not a corner head is present, and whether there is a face area, and stores a plurality of combinations according to priority for each genre. That is, when the priority is the highest, the combination of weighting factors most appropriate for the genre is obtained.
[0050]
Here, one combination of the shot length, the corner head, and the weighting factor for the face area corresponds to the “weighting factor group”. For example, in the example of FIG. 4, weighting factors 0.1, 0.7, and 0.2 with priority 1 in news constitute a weighting factor group. In a certain genre, a plurality of weight coefficient groups provided in accordance with the priority order correspond to the weight coefficient group set. That is, in the example of FIG. 4, combinations of weighting factors of priorities 1 to 3 in news constitute a weighting factor group set.
[0051]
The AV data holding unit 22 is for holding AV data sent from the encoder 16. The scenario holding unit 24 holds the scenario data. Since plural types of scenario data are created, the created plural types of scenario data are held. That is, the scenario holding unit 24 has a scenario data table (see FIG. 5) that stores a plurality of scenario data.
[0052]
Further, the reproduction data selection unit 26 is an operation unit for a user to perform an operation, and is configured by a remote controller, for example. This operation unit is used particularly when the user performs digest reproduction. That is, it is used to select a program to be viewed or to select a scenario to be reproduced.
[0053]
Further, the navigation control unit 28 reads predetermined scenario data from the scenario holding unit 24 based on the data from the reproduction data selection unit 26, and sends it to the AV data reading unit 30.
[0054]
The AV data reading unit 30 reads predetermined data from the AV data held in the AV data holding unit 22 based on the data sent from the navigation control unit 28 and sends it to the decoder 32.
[0055]
The decoder 32 is an MPEG decoder and decodes the sent AV data.
[0056]
The navigation control unit 28, the AV data reading unit 30, the decoder 32, the D / A conversion unit 34, the monitor 36, and the like function as the scenario reproducing unit.
[0057]
Note that each of the above-described units constituting the video information recording / reproducing apparatus A may be configured as a device having each function, or a part of the configuration may include a program for executing a predetermined process, and the program. You may comprise by CPU which performs a process based on it.
[0058]
That is, when each unit is configured by a device, for example, the data separation unit 10 is configured as a device having a function of separating EPG data and AV data, and the encoder 16 is also configured by an encoding device. Further, the EPG data holding unit 14, the weight coefficient table 20, the AV data holding unit 22, and the scenario holding unit 24 are configured by a storage device.
[0059]
Further, when a part of the configuration is configured by a program for executing a predetermined process and a CPU that operates based on the program, the storage device that stores various programs and the process is executed based on the program As the various programs, which are constituted by a CPU, a program for executing processing performed by the data separation unit 10, a program for executing processing performed by the program additional information extraction unit 12, and a processing performed by the encoder 16 are executed. A program for executing the processing performed by the indexing unit 18, a program for executing the processing performed by the navigation control unit 28, a program for executing the processing performed by the AV data reading unit 30, And a program for executing processing performed by the decoder 32 .
[0060]
The operation of the video information recording / reproducing apparatus A having the above configuration will be described. First. When analog AV data including EPG data and AV data is input to the video information recording / reproducing apparatus A via a receiving unit (not shown), the data is demodulated by a demodulating unit (not shown) and then the data separating unit 10 Is input. Then, the AV data is separated into the EPG data and the AV data by the data separation unit 10. The EPG data is A / D converted by the A / D converter 11 and then sent to the program additional information extracting unit 12. The AV data is A / D converted by the A / D converter 15 and then the encoder 16. Sent to.
[0061]
The program additional information extraction unit 12 extracts necessary data such as genre and program title data from the EPG data, and sends the extracted data to the EPG data holding unit 14. The sent data is held in the EPG data holding unit 14.
[0062]
On the other hand, the encoder 16 compresses and encodes the sent AV data according to the MPEG standard, and sends the encoded AV data to the AV data holding unit 22 and the indexing unit 18 as an MPEG stream. The AV data holding unit 22 stores AV data. The storage in the AV data holding unit 22 corresponds to the video information storage step.
[0063]
In the configuration in the case of the digital AV data, the digital AV data is directly input to the separation unit 10, the EPG data is sent to the program additional information extraction unit 12, and the AV data is stored in the indexing unit 18 and the AV data. Sent to the unit 22.
[0064]
Further, the indexing unit 18 performs the process of the flowchart shown in FIG. 6 and the process of the flowchart of FIG.
[0065]
That is, it is determined whether or not the program being recorded has ended by determining whether or not AV data is being sent from the encoder 16 (S10), and the process ends when the program ends. On the other hand, if the program has not ended, the process proceeds to step S11, and the target frame to be processed is specified (S11). This is sequentially identified as the target frame from the first frame.
[0066]
Next, it is determined whether or not silence detection is performed at the position of the frame (temporal position) (S12). This is because the silence detection is performed every time interval longer than the frame interval, and such a determination is provided. In this step S12, the silence detection is performed at a rate of once every plural times. Is made.
[0067]
When silence detection is performed, it is determined whether or not the frame position is silence (S13). That is, it is determined whether or not there is silence by determining whether or not the sound level exceeds a preset threshold value.
[0068]
If there is no sound, the corresponding frame number is stored (S14, S15). This may be held in the indexing unit 18 itself or may be stored in the data holding unit 19. On the other hand, if it is not silent, the process proceeds to step S16.
[0069]
In step S16, it is determined whether a predetermined time has elapsed since the last silence (S16). That is, in step S15, the frame number of the frame at the position detected as silence is stored, so it is determined whether or not a predetermined time has elapsed from the position where the sound was finally determined according to the stored data. Is done. This is because the last silent position is set as the head of the corner only when no silence is detected for a predetermined time since the last silence. When a predetermined time has passed since the last silence, the frame number at the position of the last silence is stored in the detection result storage table (see FIG. 2) together with data indicating that the corner is the head. If the voiced section continues after the corner head data is stored, it is not necessary to store the corner head data. Therefore, in step S16, the frame number of the last silent position is the corner number. It is also determined that it is not stored as the head, and if it is not stored, the process proceeds to step S17. That is, in step S16, it is determined whether or not a predetermined time has passed since the last silence, and it is also determined that the frame number at the position of the last silence is not stored as the head of the corner. If time has passed and the frame number of the last silent position is not stored as the corner head, the frame number of the last silent position is stored as the corner head in step S17.
[0070]
For example, in the example shown in FIGS. 2 and 9, since silence is detected at the frame position of frame number l + 2, and no silence is detected for a predetermined time, the data of frame number l + 2 and the start of the corner are indicated. The data is stored in the detection result storage table. The same applies to the frame with frame number n + 2.
[0071]
Next, cut detection is performed (S18). This is performed by determining whether or not there is continuity with the previous frame, and when there is no continuity between frames physically, such as when the camera is switched in AV data, it is determined that there is no continuity. Is done. If it is determined that there is no continuity with the previous frame, the target frame becomes a cut point. Various methods have already been proposed for such a cut detection method. Efficient cut detection from MPEG-1 and MPEG-2 video streams using the method proposed by Meng et al. It becomes possible to do. When the cut point is detected by the cut detection in step S18, the frame number of the target frame is stored in the detection result storage table together with the data indicating the cut point (S19, S20). On the other hand, if it is detected that it is not a cut point, the process proceeds to step S21 (S19).
[0072]
For example, in the example shown in FIG. 2 and FIG. 9, in the determination of the frame with the frame number m + 1, it is determined that there is no continuity with the frame with the frame number m, which is the previous frame. It is stored in the detection result storage table together with the data indicating the cut point. The same applies to the frame with frame number n + 1.
[0073]
Next, it is determined whether or not the target frame is a representative frame (S21). The representative frame refers to a frame that is a predetermined frame from the frame that corresponds to the cut point. For example, when the third frame from the frame that corresponds to the cut point is defined as the representative frame, the target frame is 3 frames from the frame that corresponds to the cut point. It is determined whether or not it is the th frame.
[0074]
If it is determined that the frame is a representative frame, it is determined whether or not a face area exists in the frame (S22). That is, it is determined whether or not a face image exists in the frame. Various methods have already been proposed for this face area detection. It is possible to use the method proposed by Wang et al., “A High Efficient System for Automatic Face Region Detection in MPEG Video”, IEEE TCSVT. When the face area is detected in the target frame by the face area detection in step S22, the frame number of the frame is stored in the detection result storage table together with the data indicating that the frame includes the face area (S23, S24). On the other hand, if the face area is not included, the process for the target frame is terminated, and the process returns to step S10.
[0075]
If it is determined in step S21 that the target frame is not a representative frame, the process for the target frame is terminated, and the process returns to step S10.
[0076]
For example, in the examples shown in FIGS. 2 and 9, in the determination for the frame with the frame number n + 4, the frame is the representative frame and the face area is detected, and the data with the frame number n + 1 exists. This is stored in the detection result storage table together with the data indicating that the operation is to be performed. In FIG. 9, the frame with the frame number m + 4 is also a representative frame, but the data for the frame number m + 4 is not stored in the detection result storage table, assuming that no face area exists.
[0077]
When the processing of steps S12 to S24 is completed for a certain target frame, the process proceeds to step S25 to perform shot evaluation. Details of this shot evaluation will be described later. Thereafter, in step S11, the next frame is specified as the target frame, and the processing from steps S12 to S24 is repeated in the same manner. In this way, processing is performed up to the last frame, and the detection result is stored in the detection result storage table.
[0078]
As the processing is sequentially performed for each frame, data is stored in the detection result storage table. In the indexing unit 18, the data is sequentially stored in the detection result storage table. The feature amount storage table shown in FIG. For each shot number, this feature amount storage table includes a first frame, a last frame, a shot length, a shot length determination value, a feature amount at the corner head, and a feature amount when a face area exists. Whether or not the evaluation process has been completed is stored.
[0079]
In other words, one shot is composed of the frame from the cut point to the frame before the next cut point (for the first shot, from the first frame to the frame before the first cut point). Each data is memorized. That is, for the first frame, the frame number of the first frame of the shot is stored, the last frame stores the frame number of the last frame of the shot, and the shot length stores the number of frames in the shot. The shot length determination value is 1 when the shot length is greater than a certain threshold value, and is 0 when the shot length is less than the threshold value. Thus, the value given when the shot length is larger than a certain threshold corresponds to the scene length feature amount. The feature amount at the corner head is set to 1 when there is a frame in which data indicating the corner head is stored in the shot, and on the other hand, the feature amount is indicated as the corner head in the shot. When there is no frame in which data is stored, 0 is set. Thus, the value given when there is a frame in which data indicating the beginning of a corner is stored in the shot corresponds to the audio level feature amount. Similarly, the feature amount when a face area exists is also set to 1 when there is a frame storing data indicating the presence of the face area in the shot, while the feature area is included in the shot. If there is no frame that stores data indicating the presence of “0”, it is set to “0”. As described above, the value given when there is a frame in which data indicating that a face area exists in the shot is stored corresponds to the face area feature amount. That is, the shot length determination value, the corner head, and the face area are binary.
[0080]
The scene length feature value, the sound level feature value, and the face area feature value are detected by the indexing unit 18. In this case, the indexing unit 18 uses the scene length feature value detecting unit. It can also be said that it functions as a voice level feature quantity detection means or a face area feature quantity detection means. Further, as described above, the step of detecting each feature amount corresponds to the feature amount detection step.
[0081]
As to whether or not the evaluation process is completed, when the evaluation in step S25 is completed for the shot, data to that effect (for example, 1) is stored. In this way, as data is sequentially stored in the detection result storage table, data is also stored sequentially in the feature amount storage table.
[0082]
The timing of storage in the feature quantity storage table may be arbitrarily set at the timing when storage in the feature quantity storage table becomes possible. For example, the storage in the detection result storage table in steps S17, S20, and S24 is performed. At the same time. For example, when a certain cut point is detected, the number of the last frame of the shot before the cut point and the number of the first frame of the next shot can be known, so in step S20 the cut point data is stored in the detection result storage table. At the same time, the feature quantity storage table is also written. The shot length and shot length determination value can also be written because they can be calculated if the data of the last frame is known. Also, regarding a feature amount in the case where a face area exists, if a certain cut point is detected, and there is a frame in which the face area exists in the previous shot, a detection result storage table in step S20. At the same time that the cut point data is written, the data to that effect is written. Note that the feature amount in the case of the corner head is determined at the same time as writing in the detection result storage table in step S17 because it is not known that the corner head is reached after a predetermined period of time has passed since the last silence. Whether or not the evaluation process has been completed is written when the process of step S25 is completed for a certain shot.
[0083]
As described above, the indexing unit 18 detects the feature quantity, and the indexing unit 18 at that time functions as the feature quantity detection unit.
[0084]
Next, the shot evaluation in step S25 will be described with reference to FIG.
[0085]
First, it is determined whether there is an unprocessed shot (S30). That is, it is determined whether or not there is a shot that has not been evaluated in step S25. If there is a shot, the process proceeds to step S31. If not, the process in step S25 is temporarily terminated, and step S10 (FIG. 6) is performed. Return to Browse. Here, whether or not there is a shot that has not been evaluated in step S25 may be determined based on data indicating whether or not the evaluation processing in the feature amount storage table has been completed.
[0086]
In step S31, it is determined whether or not a predetermined time has elapsed from the frame immediately after the unprocessed shot, that is, the cut point immediately after the unprocessed shot (S31). This is because whether or not a certain frame is at the beginning of a corner cannot be determined that the predetermined time has not elapsed since the last silence, so that the unprocessed shot has no head at the beginning of the corner until the predetermined time has elapsed since the next cut point. This is because there is a possibility of including the data. In step S31, if the predetermined time has elapsed, the process proceeds to S32. If not, the process of step S25 is temporarily terminated and the process returns to step S10.
[0087]
In step S32, data about the genre of the AV data to be processed is read out from the data held in the EPG data holding unit 14 (S32).
[0088]
Next, the feature amount for the target shot is acquired (S33). That is, the feature amount for the unprocessed shot is read from the feature amount storage table. If there are a plurality of unprocessed shots, the feature amount for the first unprocessed shot is read out.
[0089]
Next, the scenario number is set to an initial value (S34). For example, the scenario number is 1. Then, the weighting coefficient for each feature amount is acquired from the weighting coefficient table (S35). The weighting coefficient is selected and acquired according to the genre acquired in S32 and the scenario number. For example, when the genre of the AV data acquired in step S32 is news and the scenario number is 1, according to the weighting coefficient table shown in FIG. 4, the shot length is 0.1, the corner head is 0.7, For the face area, each weight coefficient of 0.2 is acquired. That is, scenario numbers 1 to 3 correspond to priorities 1 to 3 in the weighting coefficient table.
[0090]
Then, an evaluation value is calculated according to a predetermined evaluation function. In other words, each feature value is weighted and calculated to calculate an evaluation value (S36). As a specific example of the evaluation function, the following evaluation function is used.
[0091]
F = w1 * v1 + w2 * v2 + w3 * v3
In the evaluation function, w1, w2, and w3 indicate weighting factors, and v1, v2, and v3 indicate feature amounts. That is, for each feature amount, a sum of values obtained by multiplying the corresponding weight coefficients is obtained. For example, in the case of AV data whose genre is news, in the shot of shot number 1 shown in FIG. 3, F = 0.1 * 1 + 0.7 * 1 + 0.2 * 0, and the value of F becomes the evaluation value. .
[0092]
Then, the calculated evaluation value is compared with a predetermined threshold value. If the evaluation value is larger than the threshold value, data for specifying the shot is stored in the scenario data table. Specifically, data for specifying the shot is written in correspondence with a predetermined scenario number in the scenario data table. The data for specifying the shot is representative frame address data in the shot. This is because only a predetermined range in the shot is reproduced when digest reproduction is performed. Note that the predetermined range is a predetermined number of frames (or a predetermined time) from the representative frame, and this range is called a segment in the shot. This segment corresponds to “a part of the scene” in the claims. The address data of the representative frame written in the scenario data table corresponds to the “specific information that is information for specifying a scene or a part of the scene”.
[0093]
Next, it is determined whether or not the evaluation has been completed for all scenarios (S39). If the evaluation has not been completed, the scenario number is incremented and the next scenario is evaluated. For example, in the case of news, when scenario number 2 is evaluated, according to the weight coefficient table shown in FIG. 4, the shot length is 0.1, the corner head is 0.5, and the face area is 0.4. (S35), the evaluation value is calculated in the same manner (S36), and compared with the threshold value (S37). If the threshold value is exceeded, scenario data is obtained. Write to the table. The same applies to scenario number 3.
[0094]
As described above, when the evaluation is completed for all scenarios, the process of step S25 is completed, and the process returns to step S10. The process of step S25 is also performed for each shot, and data is sequentially written into the scenario data table. In this way, scenario data is stored. When the processing is completed to the end of a certain AV data, the scenario data table stores the address data of the representative frame of the shot whose evaluation value exceeds the threshold value for each scenario number. .
[0095]
For example, in the example of FIGS. 5 and 10, for example, in the shot with shot number 11, the evaluation value exceeds the threshold value for all scenarios with scenario numbers 1 to 3, so the address of the representative frame of the shot Data is being written. In the shot of shot number 12, the evaluation value exceeds the threshold only in the case of scenario number 3, and therefore, the address data of the representative frame of the shot of shot number 12 is written only for scenario number 3.
[0096]
When the above processing is performed for a plurality of programs, a scenario data table is stored for each program.
[0097]
In the above description, the process in step S25 has been described as existing in the flow of a series of processes shown in FIG. 6, but step S25 is deleted from the flowchart in FIG. 6 and the flowchart in FIG. It may be performed in parallel with the flowchart of FIG.
[0098]
As described above, the processing in step S25 is performed by the indexing unit 18. In this case, the indexing unit 18 functions as the evaluation unit. Step S25 corresponds to the evaluation step. Further, writing to the scenario table as described above corresponds to the scenario storing step.
[0099]
Next, an operation for digest reproduction of AV data will be described. The user uses the playback data selection unit 26 to select a program to be digest played back. For example, selectable programs are displayed on the monitor 36, and a program is selected from these.
[0100]
When the digest playback operation is performed, playback is performed according to the processing shown in FIG. That is, when the user performs a digest playback operation, the information is sent to the navigation control unit 28. Then, the navigation control unit 28 reads scenario data with the highest priority from the scenario holding unit 24 (S50). That is, the address data in the scenario of scenario number 1 is read and sent to the AV data reading unit 30. Based on the first address data, the AV data reading unit 30 reads a segment having the address data as the first frame from the AV data holding unit 22 and transfers it to the decoder 32 (S51). Then, the segment is decoded by the decoder 32, is D / A converted by the D / A converter 34, and is then reproduced on the monitor 36. Unless the reproduction data control unit 26 instructs to change the scenario (S53), the AV data reading unit 30 reads the corresponding segment from the AV data holding unit 22 based on the sequentially sent address data, and sends it to the decoder 32. By sending, it is reproduced in the same manner thereafter. That is, only the segments corresponding to the address data stored as scenario number 1 are sequentially reproduced.
[0101]
On the other hand, when the reproduction data selection unit 26 is instructed to change the scenario (S53), that is, the scenario data of the scenario with the next highest priority, that is, the scenario with the scenario number 2 is read from the scenario holding unit 24 (see FIG. S54). That is, the address data stored for the selected scenario is read and sent to the AV data reading unit 30. The AV data reading unit 30 reads a predetermined segment according to the sent address data, sends it to the decoder 32, and is reproduced after being decoded by the decoder 32. In this case, playback is performed from the beginning based on the changed scenario. Further, when there is an instruction to change the scenario, the scenario data of the scenario with the next highest priority, that is, the scenario with the scenario number 3, is read and reproduced. If there is no lower priority scenario, playback is performed after returning to the scenario with the highest priority. That is, when the scenario number is from 1 to 3, if a scenario change instruction is given during playback of the scenario number 3, the process returns to the scenario number 1.
[0102]
In other words, when a digest playback operation is performed, playback is performed based on the scenario with the highest priority at first, but if a scenario change is made in the middle, playback is performed based on the scenario with the lower priority in order, and the lowest If a scenario change instruction is given during the scenario playback, the top scenario is returned. In step S53, the scenario may be selected by the user, and playback may be performed based on the selected scenario in step S54.
[0103]
Note that digest playback according to the scenario data described above and below corresponds to the scenario playback step.
[0104]
It should be noted that “normal mode” and “scenario selection mode” may be provided as follows to select each mode.
[0105]
That is, since a screen for selecting “normal mode” and “scenario selection mode” is displayed, it is assumed that “normal mode” is selected here.
[0106]
Then, the reproduction data selection unit 26 sends data for specifying a program and data indicating the normal mode to the navigation control unit 28. Then, the navigation control unit 28 selects a scenario data table for the program according to the data for specifying the program. Then, based on the data indicating the normal mode, the scenario of scenario number 1 is selected, and the stored address data of the representative frame is sent to the AV data reading unit 30.
[0107]
The AV data reading unit 30 reads predetermined data from the AV data holding unit 22 according to the sent address data, and sends it to the decoder 32. That is, one segment of data is read from the frame indicated by the address data and sent to the decoder 32.
[0108]
Then, in the decoder 32, the data sent from the AV data reading unit 30 is decoded, sent to the D / A conversion unit 34, subjected to D / A conversion, and then sent to the monitor 36 for reproduction.
[0109]
That is, only the segments corresponding to the address data stored as scenario number 1 are sequentially reproduced. For example, in the example of FIG. 5, the segment at shot number 15 is played after the segment at shot number 11.
[0110]
On the other hand, when the scenario selection mode is selected, a scenario selection screen is displayed. By selecting a scenario on the scenario selection screen, reproduction is performed according to the selected scenario. For example, when the scenario number 2 is selected, the address data stored in the scenario number 2 is sent from the scenario holding unit 24 to the AV data reading unit 30 via the navigation control unit 28. Therefore, the AV data reading unit 30 The AV data is read and reproduced according to the address data stored in scenario number 2.
[0111]
As described above, according to the video information recording / reproducing apparatus of the present embodiment, scenario data is created in accordance with a standard defined for each genre of video information, and digest playback is performed based on the scenario data. Even if they are different, it is possible to perform the optimum digest reproduction for each program genre. In addition, since multiple digest playback scenarios are created based on multiple criteria, the user can view digest playback based on scenario data based on different criteria, making it easier to view video information and creating important scenes. It will be easier to find. In other words, since a plurality of scenario data is created for a certain video information, by switching the scenario data used for the digest playback, it is possible to see the digest playback based on various standards, and to easily view the video information. .
[0112]
It should be noted that a plurality of programs may be played back simultaneously during digest playback. That is, by providing a moving image thumbnail display function in the decoder 32, digest playback of a plurality of programs may be performed simultaneously as thumbnail playback as shown in FIG. In the example shown in FIG. 11, on the display screen of the monitor 36, the program of news *** is digest-reproduced in the upper part, the program of drama AAA is digest-reproduced in the middle part, and the drama XXX is presented in the lower part. This is an example in which the program is digest-reproduced.
[0113]
That is, when the playback data selection unit 26 instructs simultaneous digest playback of a plurality of programs, the scenario data for each program is read from the scenario holding unit 24, sent to the AV data reading unit 30, and AV In the data reading unit 30, the segment is read from the AV data of each program stored in the AV data holding unit 22 according to the scenario data and is sent to the decoder 32.
[0114]
Further, as shown in FIG. 12, display areas M1 to M3 and the like for displaying segments corresponding to address data stored in certain scenario data in a line are provided on the display screen M, and the segments are repeatedly displayed in each display area. You may do it. For example, in the example of FIG. 5, the segment corresponding to the shot number 11 is repeatedly displayed in the display area M1, and the segment corresponding to the shot number 15 is repeatedly displayed in the display area M2. In the display area M3, the segment corresponding to the shot number stored in the scenario data after the shot number 15 is displayed. That is, as each segment moves from the front to the back in time, the display screen M is arranged from the left to the right, and only a plurality of them (for example, three as shown in FIG. 12) are displayed. These segments are displayed so that the user can shift the screen by one screen by operating the input device left or right.
[0115]
In this way, it is possible to view important scenes of a certain program at once, and to immediately know the outline of the program.
[0116]
Note that by preparing a scenario based on the same scenario but having a different digest playback time, when a scenario with a long playback time is selected, each scene may be viewed in more detail.
[0117]
This is possible by using different combinations of the weighting factors and different thresholds used in step S37. For example, in the example of FIG. 4, the evaluation value is calculated using a weighting factor of priority 1 in news (0.1 for shot length, 0.7 for corner head, 0.2 for face area). In this case, a plurality of threshold values are prepared for determination. For example, threshold value a and threshold value b (threshold value a> threshold value b) are prepared, scenario data based on the comparison result between the evaluation value and threshold value a is set as scenario number 1-1, and evaluation is performed. Scenario data based on the comparison result between the value and the threshold value b is written as scenario number 1-2 in the scenario data table. In this case, since the threshold value b is smaller than the threshold value a, there is a high possibility that the number of address data to be written as scenario data also increases with the threshold value b.
[0118]
When the digest is reproduced, the scenario number 1-1 and the scenario number 1-2 can be selected, so that the reproduction time differs even though the scenarios are created by combining the same weighting factors. It becomes possible to comprise.
[0119]
It should be noted that when performing digest playback, it is preferable to know what scenario is being used for playback. That is, display is performed on the playback screen so that the contents of the scenario can be understood. For example, in the example of FIG. 4, in the scenario with scenario number 1 (that is, the scenario with priority 1) in the news, the corner head is considerably evaluated. For example, “mode with many corner heads” and the end position of the playback screen, etc. In the scenario with scenario number 2, the corner start is evaluated, but not as high as scenario number 1. For example, “slightly more corner start” is displayed. Therefore, for example, “Corner head, mode with slightly more face area” is displayed.
[0120]
In the above description, as examples of the feature amount, the shot length, the corner head, and the face area are given as examples. However, the present invention is not limited to this. For example, there is a telop, etc. You may use together the basis of the feature-value of.
[0121]
【The invention's effect】
According to the video information recording / playback apparatus and video information recording / playback method according to the present invention, a scenario is created according to a standard defined for each genre of video information, and digest playback is performed based on the scenario. Even if they are different, it is possible to perform the optimum digest reproduction for each genre of the program.
[0122]
Further, according to the video information recording / playback apparatus and video information recording / playback method according to the present invention, a plurality of digest playback scenarios are created based on a plurality of criteria, so that the user can perform digest playback based on scenarios based on different criteria. This makes it easier to view video information and to find important scenes. For example, when it is desired to grasp the characters, a scenario according to a standard that places importance on the scene where the face area exists may be reproduced.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a video information recording / reproducing apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a configuration of a detection result storage table.
FIG. 3 is an explanatory diagram showing a configuration of a feature amount storage table.
FIG. 4 is an explanatory diagram showing a configuration of a weighting coefficient table.
FIG. 5 is an explanatory diagram showing a configuration of a scenario data table.
FIG. 6 is a flowchart for explaining the operation of the video information recording / reproducing apparatus according to the embodiment of the present invention.
FIG. 7 is a flowchart for explaining the operation of the video information recording / reproducing apparatus according to the embodiment of the present invention.
FIG. 8 is a flowchart for explaining the operation of the video information recording / reproducing apparatus according to the embodiment of the present invention.
FIG. 9 is an explanatory diagram for explaining the operation of the video information recording / reproducing apparatus according to the embodiment of the present invention.
FIG. 10 is an explanatory diagram for explaining the operation of the video information recording / reproducing apparatus according to the embodiment of the present invention.
FIG. 11 is an explanatory diagram illustrating an example of display during reproduction.
FIG. 12 is an explanatory diagram illustrating an example of display during reproduction.
[Explanation of symbols]
A Video information recording and playback device
10 Data separator
11, 15 A / D converter
12 Program additional information extraction unit
14 EPG data holding unit
16 Encoder
18 Indexing section
19 Data holding part
20 Weight coefficient table
22 AV data holding unit
24 Scenario holding part
26 Playback data selection section
28 Navigation control unit
30 AV data reading section
32 decoder
34 D / A converter
36 monitors

Claims (8)

映像情報の記録・再生を行う映像情報記録再生装置であって、
映像情報を記憶する映像情報記憶手段と、
映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、
映像情報のジャンルごとに定められた基準で、該特徴量を評価するための基準に従い、検出された特徴量を評価する評価手段と、
上記評価手段が、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が、複数種類のジャンルについてそれぞれ設けられた重み係数記憶部と、
該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を記憶することにより、該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、
該シナリオ記憶手段に記憶されたシナリオデータに基づいて、該映像情報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、
上記評価手段は、映像情報のジャンルに対応する重み係数群を用いて特徴量を評価することを特徴とする映像情報記録再生装置。
A video information recording / reproducing apparatus for recording / reproducing video information,
Video information storage means for storing video information;
Feature amount detection means for detecting a plurality of types of feature amounts for each scene in the video information;
An evaluation means for evaluating the detected feature value according to a criterion for evaluating the feature value, based on a standard determined for each genre of video information;
A weighting coefficient storage unit in which a weighting coefficient group in which a weighting coefficient for weighting each feature quantity is provided for each feature quantity is provided for each of a plurality of types of genres;
Scenario storage means for storing scenario data composed of the specific information by storing specific information that is information for specifying the scene or a part of the scene based on the evaluation result by the evaluation means;
Based on the scenario data stored in the scenario storage means, the scenario reproduction means for reading out and reproducing a predetermined scene or a part of the scene from the video data stored in the video information storage means,
The video information recording / reproducing apparatus characterized in that the evaluation means evaluates a feature amount using a weighting coefficient group corresponding to a genre of video information.
映像情報の記録・再生を行う映像情報記録再生装置であって、
映像情報を記憶する映像情報記憶手段と、
映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、
該特徴量検出手段により検出された特徴量を複数種類の基準に従いそれぞれ評価する評価手段と、
上記評価手段が、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が優先順位に従い複数設けられた重み係数記憶部と、
該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、
該シナリオ記憶手段に記憶されたシナリオデータのうちの所定の基準に基づくシナリオデータに基づいて、該映像報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、
上記評価手段は、各重み係数群を用いてそれぞれ特徴量を評価することにより、該特徴量を複数種類の基準に従い評価することを特徴とする映像情報記録再生装置。
A video information recording / reproducing apparatus for recording / reproducing video information,
Video information storage means for storing video information;
Feature amount detection means for detecting a plurality of types of feature amounts for each scene in the video information;
Evaluation means for evaluating each of the feature quantities detected by the feature quantity detection means according to a plurality of types of criteria;
A weight coefficient storage unit in which a plurality of weight coefficient groups each having a weight coefficient for weighting each feature quantity provided for each feature quantity are provided in accordance with the priority order;
A scenario for storing scenario data composed of the specific information for each criterion by storing specific information that is information for identifying the scene or a part of the scene for each criterion based on the evaluation result by the evaluation means Storage means;
Based on scenario data based on a predetermined criterion among scenario data stored in the scenario storage means, a predetermined scene or a part of the scene is read out from the video data stored in the video information storage means and reproduced. Scenario reproduction means for performing
The video information recording / reproducing apparatus characterized in that the evaluation means evaluates the feature quantity using each weight coefficient group to evaluate the feature quantity according to a plurality of types of criteria.
映像情報の記録・再生を行う映像情報記録再生装置であって、
映像情報を記憶する映像情報記憶手段と、
映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、
該特徴量検出手段により検出された複数種類の特徴量を、映像情報のジャンルごとに定められた基準に従いそれぞれ評価する評価手段と、
上記評価手段が、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が、複数種類のジャンルについてそれぞれ設けられた重み係数記憶部と、
該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、
該シナリオ記憶手段に記憶されたシナリオデータのうちの所定の基準に基づくシナリオデータに基づいて、該映像報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、
上記評価手段は、映像情報のジャンルに対応する重み係数群を用いてそれぞれ特徴量を評価することにより、該特徴量を複数種類の基準に従い評価することを特徴とする映像情報記録再生装置。
A video information recording / reproducing apparatus for recording / reproducing video information,
Video information storage means for storing video information;
Feature amount detection means for detecting a plurality of types of feature amounts for each scene in the video information;
An evaluation unit that evaluates the plurality of types of feature amounts detected by the feature amount detection unit according to a criterion defined for each genre of video information;
A weighting coefficient storage unit in which a weighting coefficient group in which a weighting coefficient for weighting each feature quantity is provided for each feature quantity is provided for each of a plurality of types of genres;
A scenario for storing scenario data composed of the specific information for each criterion by storing specific information that is information for identifying the scene or a part of the scene for each criterion based on the evaluation result by the evaluation means Storage means;
Based on scenario data based on a predetermined criterion among scenario data stored in the scenario storage means, a predetermined scene or a part of the scene is read out from the video data stored in the video information storage means and reproduced. Scenario reproduction means for performing
The video information recording / reproducing apparatus characterized in that the evaluation means evaluates the feature quantity according to a plurality of types of criteria by evaluating each feature quantity using a weighting coefficient group corresponding to the genre of the video information.
映像情報の記録・再生を行う映像情報記録再生装置であって、
映像情報を記憶する映像情報記憶手段と、
映像情報における各シーンごとに複数種類の特徴量を検出する特徴量検出手段と、
該特徴量検出手段により検出された複数種類の特徴量を、映像情報のジャンルごとに定められた基準に従いそれぞれ評価する評価手段と、
上記評価手段が、重み係数群集合であって、各特徴量について重み付けを行なうための重み係数が各特徴量ごとに設けられた重み係数群が優先順位に従い複数設けられた重み係数群集合を複数のジャンルについてそれぞれ有する重み係数記憶部と、
該評価手段による評価結果に基づき、該シーン又は該シーンの一部を特定する情報である特定情報を各基準ごとに記憶することにより、各基準ごとに該特定情報からなるシナリオデータを記憶するシナリオ記憶手段と、
該シナリオ記憶手段に記憶されたシナリオデータのうちの所定の基準に基づくシナリオデータに基づいて、該映像報記憶手段に記憶された映像データから、所定のシーン又は該シーンの一部を読み出して再生を行うシナリオ再生手段とを有し、
上記評価手段は、映像情報のジャンルに対応する重み係数群集合における複数の重み係数群を用いてそれぞれ特徴量を評価することにより、該特徴量を複数種類の基準に従い評価することを特徴とする映像情報記録再生装置。
A video information recording / reproducing apparatus for recording / reproducing video information,
Video information storage means for storing video information;
Feature amount detection means for detecting a plurality of types of feature amounts for each scene in the video information;
An evaluation unit that evaluates the plurality of types of feature amounts detected by the feature amount detection unit according to a criterion defined for each genre of video information;
The evaluation means is a weighting coefficient group set, and a plurality of weighting coefficient group sets in which a plurality of weighting coefficient groups are provided for each feature quantity in accordance with the priority order. A weighting coefficient storage unit for each genre,
A scenario for storing scenario data composed of the specific information for each criterion by storing specific information that is information for identifying the scene or a part of the scene for each criterion based on the evaluation result by the evaluation means Storage means;
Based on scenario data based on a predetermined criterion among scenario data stored in the scenario storage means, a predetermined scene or a part of the scene is read out from the video data stored in the video information storage means and reproduced. Scenario reproduction means for performing
The evaluation means evaluates the feature amount according to a plurality of types of criteria by evaluating each feature amount using a plurality of weight coefficient groups in a set of weight coefficient groups corresponding to the genre of video information. Video information recording and playback device.
上記評価手段は、各特徴量と対応する重み係数とを乗算した値を積算した値を、所定のしきい値と比較し、該積算した値が該所定のしきい値よりも大きいか否かを判定することを特徴とする請求項1あるいは3に記載の映像情報記録再生装置。  The evaluation means compares a value obtained by multiplying each feature amount by a corresponding weighting factor with a predetermined threshold value, and determines whether the accumulated value is greater than the predetermined threshold value. The video information recording / reproducing apparatus according to claim 1, wherein the video information recording / reproducing apparatus is determined. 上記評価手段は、各特徴量と対応する重み係数とを乗算した値を積算した値を、所定のしきい値と比較し、該積算した値が該所定のしきい値よりも大きいか否かを判定することを特徴とする請求項2あるいは4に記載の映像情報記録再生装置。  The evaluation means compares a value obtained by multiplying each feature amount by a corresponding weighting factor with a predetermined threshold value, and determines whether the accumulated value is greater than the predetermined threshold value. The video information recording / reproducing apparatus according to claim 2, wherein the video information recording / reproducing apparatus is determined. 上記シナリオ記憶手段は、上記積算した値が上記所定のしきい値よりも大きい場合に、そのシーン又は該シーンの一部を特定する情報である特定情報を記憶していくことを特徴とする請求項5あるいは6に記載の映像情報記録再生装置。  The scenario storage means, when the integrated value is larger than the predetermined threshold, stores specific information that is information for specifying the scene or a part of the scene. Item 7. The video information recording / reproducing apparatus according to Item 5 or 6. 上記評価手段は、評価に用いる複数種類のしきい値を有し、各しきい値に基づいて評価を行い、また、上記シナリオ記憶手段は、各しきい値に基づく評価結果に基づき、各しきい値ごとにシナリオデータを記憶することを特徴とする請求項5ないし7の何れかに記載の映像情報記録再生装置。  The evaluation means has a plurality of types of threshold values used for evaluation, and performs evaluation based on each threshold value. The scenario storage means performs each evaluation based on the evaluation result based on each threshold value. 8. The video information recording / reproducing apparatus according to claim 5, wherein scenario data is stored for each threshold value.
JP2002088452A 2002-03-27 2002-03-27 Video information recording / playback device Expired - Fee Related JP4039873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002088452A JP4039873B2 (en) 2002-03-27 2002-03-27 Video information recording / playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002088452A JP4039873B2 (en) 2002-03-27 2002-03-27 Video information recording / playback device

Publications (2)

Publication Number Publication Date
JP2003283993A JP2003283993A (en) 2003-10-03
JP4039873B2 true JP4039873B2 (en) 2008-01-30

Family

ID=29234310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002088452A Expired - Fee Related JP4039873B2 (en) 2002-03-27 2002-03-27 Video information recording / playback device

Country Status (1)

Country Link
JP (1) JP4039873B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554057B2 (en) 2004-08-10 2013-10-08 Sony Corporation Information signal processing method and apparatus, and computer program product
EP1784011A4 (en) * 2004-08-10 2011-09-28 Sony Corp Information signal processing method, information signal processing device, and computer program recording medium
KR20120068050A (en) * 2004-08-10 2012-06-26 소니 주식회사 Information signal processing method and information signal processing device
JP4349277B2 (en) 2004-12-24 2009-10-21 株式会社日立製作所 Movie playback device
JP2006180306A (en) 2004-12-24 2006-07-06 Hitachi Ltd Moving picture recording and reproducing apparatus
DE102005019153A1 (en) * 2005-04-25 2007-06-06 Robert Bosch Gmbh Method and system for processing data
JP4373961B2 (en) 2005-05-17 2009-11-25 株式会社東芝 Video recording / reproducing apparatus and video recording / reproducing method
JP2007049575A (en) * 2005-08-11 2007-02-22 Nippon Hoso Kyokai <Nhk> Transmission apparatus, reception apparatus, and contents reconfiguration program
WO2007039994A1 (en) 2005-09-30 2007-04-12 Pioneer Corporation Digest generating device, and program therefor
WO2007039995A1 (en) 2005-09-30 2007-04-12 Pioneer Corporation Digest creating device and its program
JP4712812B2 (en) * 2005-10-21 2011-06-29 パナソニック株式会社 Recording / playback device
JP4793929B2 (en) * 2006-10-06 2011-10-12 シャープ株式会社 AV apparatus having progress bar configuration information generation function with feature information
BRPI0622048B1 (en) * 2006-10-20 2018-09-18 Thomson Licensing method, device, and system for generating regions of interest in video content
JP4775322B2 (en) 2007-05-29 2011-09-21 ソニー株式会社 Data processing device, data processing method and data processing program, and recording device, recording method and recording program
JP4360425B2 (en) 2007-06-15 2009-11-11 ソニー株式会社 Image processing apparatus, processing method thereof, and program
JP4992592B2 (en) 2007-07-26 2012-08-08 ソニー株式会社 Information processing apparatus, information processing method, and program
JP4433027B2 (en) 2007-09-21 2010-03-17 ソニー株式会社 Signal processing apparatus, signal processing method, and program
KR101435834B1 (en) 2008-03-20 2014-08-29 엘지전자 주식회사 IPTV receiver, method for reproducing contents in the IPTV receiver and recording contents in IPTV environment
CN101588450B (en) 2008-05-19 2013-08-14 株式会社日立制作所 Recording and reproducing apparatus and method thereof
JP4760893B2 (en) * 2008-11-04 2011-08-31 株式会社日立製作所 Movie recording / playback device
JP5393237B2 (en) * 2009-04-24 2014-01-22 キヤノン株式会社 Image display apparatus, control method therefor, program, and storage medium
JP5560744B2 (en) * 2010-02-03 2014-07-30 カシオ計算機株式会社 Imaging apparatus, moving image imaging method, and program
JP5600557B2 (en) * 2010-11-11 2014-10-01 日本放送協会 Content introduction video creation device and program thereof
JP2011101393A (en) * 2010-12-13 2011-05-19 Hitachi Ltd Moving picture recording and reproducing apparatus
JP7272096B2 (en) * 2019-04-25 2023-05-12 住友電気工業株式会社 Viewing and recording device, viewing and recording method and viewing and recording program

Also Published As

Publication number Publication date
JP2003283993A (en) 2003-10-03

Similar Documents

Publication Publication Date Title
JP4039873B2 (en) Video information recording / playback device
JP4448273B2 (en) Broadcast program content control
EP1708101B1 (en) Summarizing reproduction device and summarizing reproduction method
KR101454025B1 (en) Method and device for playing the picture using the recording information
JP3667262B2 (en) Video skimming method and apparatus
JP3903912B2 (en) Recording apparatus and recording method
WO2005074275A1 (en) Content reproduction device
US20070071406A1 (en) Video recording and reproducing apparatus and video reproducing apparatus
JP4387408B2 (en) AV content processing apparatus, AV content processing method, AV content processing program, and integrated circuit used for AV content processing apparatus
US7149365B2 (en) Image information summary apparatus, image information summary method and image information summary processing program
JP4435130B2 (en) Video playback device, playback device
US7764862B2 (en) Method of and apparatus for setting video signal delimiter information judged from audio and video signals
JP2008306311A (en) Digest generating device, method and program
JP2005065185A (en) Information signal processing apparatus, information signal processing method, information signal processing system, information signal processing method, information signal reproducing apparatus and information signal reproducing method
JP4735413B2 (en) Content playback apparatus and content playback method
US7801420B2 (en) Video image recording and reproducing apparatus and video image recording and reproducing method
JP4932493B2 (en) Data processing device
JP4080568B2 (en) Television broadcast system and receiver for television broadcast system
CN1167263C (en) Method and apparatus for controlling digital video data display
US20020006268A1 (en) Video-signal recording &amp; playback apparatus, video-signal recording &amp; playback method and recording medium
KR100991619B1 (en) System and Method for broadcasting service for trick play based on contents
US20070223880A1 (en) Video playback apparatus
KR20020023063A (en) A method and apparatus for video skimming using structural information of video contents
US7756390B2 (en) Video signal separation information setting method and apparatus using audio modes
KR100370249B1 (en) A system for video skimming using shot segmentation information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees