JP4066454B2 - オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法 - Google Patents

オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法 Download PDF

Info

Publication number
JP4066454B2
JP4066454B2 JP2003058996A JP2003058996A JP4066454B2 JP 4066454 B2 JP4066454 B2 JP 4066454B2 JP 2003058996 A JP2003058996 A JP 2003058996A JP 2003058996 A JP2003058996 A JP 2003058996A JP 4066454 B2 JP4066454 B2 JP 4066454B2
Authority
JP
Japan
Prior art keywords
data
chapter
video
moving image
chapters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003058996A
Other languages
English (en)
Other versions
JP2004274171A (ja
Inventor
哲矢 鰺坂
考司 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003058996A priority Critical patent/JP4066454B2/ja
Publication of JP2004274171A publication Critical patent/JP2004274171A/ja
Application granted granted Critical
Publication of JP4066454B2 publication Critical patent/JP4066454B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法に関し、特にオーディオビデオデータを記憶媒体に記録する際に用いるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法に関する。
【0002】
【従来の技術】
デジタルビデオ(DV)テープやアナログビデオテープレコーダ(VTR)からのオーディオビデオデータ(音声データ、画像(動画を含む)データ及び記録日時を示す日時データを含む、本明細書中で同じ)を、DVD(DigitalVersatile Disc)のような容量の大きい記憶媒体に記録する場合、複数のビデオ映像を含むオーディオビデオデータを一枚のDVDにまとめて記録する場合がある。その場合、一枚のDVDの中にどのような内容のオーディオビデオデータが記録されているかは、別途記録していないときには、内容を一通り見なければならなくなる。
【0003】
そのような面倒を避けるための技術が知られている。例えば、以下のような技術である。
まず、例えば、特徴のあるシーンごと、又は、まとめて見たいシーンごとなどで頭出しを行えるように、一枚のDVDに格納されたオーディオビデオデータを複数のチャプタに区切る。次に、各チャプタごとの先頭画面のサムネイル(静止画)を、そのチャプタの代表画像として抽出する。そして、ディスプレイの表示画面中に、抽出した全てのサムネイルを同時に表示する(又は一部のサムネイルを表示し、残りはスクロールで表示可能とする)。このようにすると、一つの表示画面で、複数のビデオ映像の代表画像一覧を見られるので、DVD中のオーディオビデオデータの内容を短時間で把握することができる。そして、各サムネイルごとの頭出しを容易に行うことが出来る。
【0004】
ここで、オーディオビデオデータを複数のチャプタに自動的に区切る方法としては、所定の条件を満たすオーディオビデオデータ(画像データ及び音声データ)の変化を検出し、その場所で区切る方法や、オーディオビデオデータ上に記録されたマーカを検出してその場所で区切る方法などが知られている。自動的に代表画像を抽出してサムネイル(静止画)とする方法としては、区切られたチャプタの先頭画面を代表画像とする方法などが知られている。
【0005】
ただし、オーディオビデオデータの変化やオーディオビデオデータ上のマーカだけでは、適切な位置でオーディオビデオデータを区切れず、所望のチャプタを構成できない場合がある。また、サムネイルが静止画の場合、代表画像を適切に選択しないと、そのチャプタの内容を的確に把握することが困難となる場合がある。
複数のビデオ映像を有するオーディオビデオデータの区切りを自動的に、より適切に見出し、所望のチャプタを構成可能な技術が望まれている。的確にチャプタの内容を把握可能なサムネイルを生成することが可能な技術が望まれている。
【0006】
関連する技術として、特開2002−152636号公報(特許文献1)に自動チャプタ作成機能付き記録再生装置の技術が開示されている(関連:特開2002−152665(特許文献2)、特開2002−152666(特許文献3))。
この技術の自動チャプタ作成機能付き記録再生装置は、記録再生用媒体と、記録処理・再生処理手段と、表示信号導出手段と、システム制御手段と、一時停止手段とを有する装置である。ここで、記録再生用媒体は、プログラムを含むビデオ情報が記録されるビデオ情報記録領域と、ビデオ情報を記録・再生するための管理情報が記録されるビデオ管理情報記録領域と、プログラムの各チャプタを管理するためのチャプタ管理情報の記録領域とを少なくとも有する。記録処理・再生処理手段は、記録再生用媒体に、情報を記録・また記録情報を再生する。表示信号導出手段は、再生処理手段からの再生信号をディスプレイに供給する。システム制御手段は、記録処理・再生処理手段および表示信号導出手段を制御する。一時停止手段は、システム制御手段を介して全気記録処理手段に対して記録処理の一時停止を行わせる。そして、この装置は、一時停止手段が一時停止を実行したときと、録画が再開されたときの録画情報の切れ目をチャプタの境界として、チャプタ管理情報に登録する手段を有したことを特徴とする。
この技術の目的は、多数のプログラム(オーディオビデオデータ)が連続して記録されるような記憶媒体に対してチャプタ及びサムネイルを自動的に作成する自動チャプタ作成機能付き記録再生装置を提供することにある。
【0007】
この技術では、オーディオビデオデータを記録中にオーディオビデオデータが一時停止した場合、それをチャプタの区切りとして複数のチャプタを決定する。そして、各チャプタの先頭画面をサムネイル(静止画)として取り出し、代表画面一覧を生成する。チャプタの編集は、手動で行うことも可能である。
【0008】
【特許文献1】
特開2002−152636号公報
【特許文献2】
特開2002−152665号公報
【特許文献3】
特開2002−152666号公報
【0009】
【発明が解決しようとする課題】
従って、本発明の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、格納されたオーディオビデオデータの内容を迅速且つ的確に把握できるように格納可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0010】
また、本発明の他の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、オーディオビデオデータの区切りを自動的に、より適切に見出し、的確にチャプタを構成可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0011】
本発明の更に他の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に生成することが可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0012】
本発明の別の目的は、複数の映像を有するオーディオビデオデータを一つの記憶媒体に格納する場合に、その内容を容易に把握できるメニュー画面を自動的に作成可能なオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法を提供することにある。
【0013】
【課題を解決するための手段】
以下に、[発明の実施の形態]で使用される番号・符号を用いて、課題を解決するための手段を説明する。これらの番号・符号は、[特許請求の範囲]の記載と[発明の実施の形態]との対応関係を明らかにするために括弧付きで付加されたものである。ただし、それらの番号・符号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。
【0014】
従って、上記課題を解決するために、本発明のオーサリング機能付き信号処理装置は、データ処理部(2−1)と、書き込み制御部(16)とを具備する。
データ処理部(2−1)は、オーディオビデオデータ(A)をチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイル(F1、J)を作成し、前記動画サムネイル(F1、J)を含むメニュー画面データ(H1、H2)を作成する。書き込み制御部(16)は、メニュー画面データ(H1、H2)を記憶媒体に記録する制御を行う。
ここで、オーディオビデオデータ(A)は、複数の画像データと、その画像データの記録日時を示す日時データ(T0)と、オーディオビデオデータ(A)におけるその画像データの位置を示す位置データ(t0)とを含む。メニュー画面データ(H1、H2)は、その複数のチャプタのうちの一部又は全部の動画サムネイル(F1、J)を同時に表示するメニュー画面(50)を示す。
本発明により、記憶媒体に格納されたオーディオビデオデータの内容は、チャプタごとの動画サムネイルが纏まって表示されるメニュー画面で把握される。すなわち、記憶媒体に格納されたオーディオビデオデータの内容を迅速且つ的確に把握できるように格納可能となる。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。データ処理部(2−1)は、メニュー画面を作成するための条件(B、C)を参照して、上記処理を行っても良い。その場合、ユーザの考えを反映できる。
【0015】
上記のオーサリング機能付き信号処理装置において、データ処理部(2−1)は、データ作成部(2−2)と、メニュー画面作成部(15)とを備える。
データ作成部(2−2)は、オーディオビデオデータ(A)を分割してその複数のチャプタを生成し、その複数のチャプタの各々ごとに動画サムネイル(F1)を作成し、動画サムネイル(F1)に関するデータを示す動画サムネイルデータ(L)と、その複数のチャプタに関する制御情報を示す制御情報データ(G1)とを作成する。メニュー画面作成部(15)は、動画サムネイルデータ(L)と制御情報データ(G1)とに基づいて、メニュー画面データ(H1)を作成する。
ここで、動画サムネイルデータ(L)としては、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)が例示される。また、オーディオビデオデータ(A)をチャプタに分割する方法は、オーディオビデオデータ(A)に含まれる日時データ(T0)や画像データ、音声データを用いて行う方法に例示される。
【0016】
上記のオーサリング機能付き信号処理装置において、データ処理部(2−1)は、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割してその複数のチャプタを生成する。
日時データ(T0:画像データの記録日時を示す)を用いてチャプタの分割を行うので、オーディオビデオデータ(A)における内容の関連するシーンを集めることが出来、自動でチャプタを適切に区切ることができる。すなわち、オーディオビデオデータの区切りを自動的に、より適切に見出し、的確にチャプタを構成可能となる。
【0017】
上記のオーサリング機能付き信号処理装置において、データ作成部(2−2)は、データ前処理部(2−3)と、動画サムネイル作成部(13)と、制御情報データ作成部(14)とを備える。
データ前処理部(2−3)は、オーディオビデオデータ(A)を分割してその複数のチャプタを生成し、その複数のチャプタに関するデータを示すチャプタデータ(E)と、オーディオビデオデータ(A)を符号化した映像符号化データ(D)とを作成する。動画サムネイル作成部(13)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、動画サムネイルデータ(L)を作成する。制御情報データ作成部(14)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、制御情報データ(G1)を作成する。
ここで、チャプタデータ(E)としては、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)が例示される。ただし、チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。また、チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。
【0018】
上記のオーサリング機能付き信号処理装置において、データ前処理部(2−3)は、MPEG(Moving Picture Experts Group)規格に基づいて、映像符号化データ(D)を作成する。
【0019】
上記のオーサリング機能付き信号処理装置において、動画サムネイル作成部(13)は、ハイライトシーン検出部(26)と、作成手法選択部(27)と、作成手法選択部(28)と、テーブル作成部(29)とを備える。
ハイライトシーン検出部(26)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、ハイライトシーンの有無を判定する。ここで、そのハイライトシーンは、画素差分値(Δ)が基準値以上となる映像符号化データ(D)である。その基準値は、可変である。作成手法選択部(27)は、そのハイライトシーンの有無に基づいて、そのチャプタごとに、動画サムネイル(F1)の作成方法を、予め設定された作成方法から選択する。作成手法実行部(28)は、その選択された作成方法に基づいて、そのチャプタごとに、動画サムネイル(F1)を作成する。テーブル作成部(29)は、作成された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を生成する。
ただし、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
ここで、その作成方法としては、そのハイライトシーンが無い場合、映像符号化データ(D)からフレームを間引いて動画サムネイル(F1)とし、そのハイライトシーンが有る場合、そのハイライトシーンを動画サムネイル(F1)とする方法が例示される。
本発明により、ハイライトシーンを用いることで、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に作成することが可能となる。
【0020】
上記のオーサリング機能付き信号処理装置において、動画サムネイル作成部(13a)は、データ検出部(56)と、データ解析部(57)と、データ抽出部(58)と、テーブル作成部(59)とを備える。
データ検出部(56)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOP(Group Of Picture)の位置を検出する。データ解析部(57)は、検出されたそのGOPに基づいて、そのチャプタごとに、そのGOP単位の符号量(R)と位置データ(t0)とを関連付けた符号量テーブルを作成する。データ抽出部(58)は、その符号量テーブルに基づいて、そのチャプタごとに、符号量(R)が最大となるそのGOPを含む連続した所定の時間(2×Δt1)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。テーブル作成部(59)は、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を生成する。
ただし、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
本発明により、符号量(R)が最大となるそのGOPを含むシーンを用いることで、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に作成することが可能となる。
【0021】
上記のオーサリング機能付き信号処理装置において、動画サムネイル作成部(13b)は、データ検出部(76)と、データ解析部(77)と、データ抽出部(78)と、テーブル作成部(79)とを備える。
データ検出部(76)は、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出し、検出されたそのGOPごとに、所定の色を示す画素データに対して、所定のポイントを付加する。データ解析部(77)は、そのポイントに基づいて、そのチャプタごとに、そのGOPごとのポイントの合計(S)と位置データ(t0)とを関連付けたポイントテーブルを作成する。データ抽出部(78)は、そのポイントテーブルに基づいて、そのチャプタごとに、ポイントの合計(S)が最大となるそのGOPを含む連続した所定の時間(2×Δt2)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。テーブル作成部(79)は、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を生成する。
ただし、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
本発明により、所定の色を示す画素データを多く含むシーンを用いるので、区切られたチャプタごとの内容を的確に把握できるサムネイルを自動的に生成することが可能となる。例えば、所定の色を人間の肌の色にすれば、人間が多く出てくる画面を取り出すことが出来る。
【0022】
上記のオーサリング機能付き信号処理装置において、データ処理部(2a−1)は、データ前処理部(2a−2)と、メニュー画面作成部(15a)とを備える。
データ前処理部(2a−2)は、オーディオビデオデータ(A)を分割してその複数のチャプタを生成し、その複数のチャプタに関するデータを示すチャプタデータ(E)を作成し、オーディオビデオデータ(A)を圧縮した動画データ(J)を作成して動画データ(J)に関するデータを示す動画サムネイルデータ(K)を作成する。メニュー画面作成部(15a)は、動画サムネイルデータ(K)とチャプタデータ(E)とに基づいて、メニュー画面データ(H2)を作成する。
ここで、チャプタデータ(E)としては、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)が例示される。ただし、チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。また、チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。
また、動画サムネイルデータ(K)としては、オーディオビデオデータ(A)を圧縮した動画データ(J)と映像符号化データ(D)とを関連付けた動画データテーブル(K)に例示される。動画データ(J)は、オーディオビデオデータ(A)を符号化する過程で算出される符号化データに基づいて生成される。
【0023】
上記のオーサリング機能付き信号処理装置において、データ前処理部(2a−2)は、オーディオビデオデータ(A)を符号化した映像符号化データ(D)を更に作成し、その符号化の際にDCT(Discrete Cosine Transform)演算で算出されるDC係数に基づいて、動画データ(J)を作成する。
【0024】
上記のオーサリング機能付き信号処理装置において、データ前処理部(2a−2)は、エンコード部(11、11a)と、記録日時解析部(12)とを含む。
エンコード部(11、11a)は、オーディオビデオデータ(A)に基づいて、映像符号化データ(D)を作成する。記録日時解析部(12)は、日時データ(T0)に基づいて、オーディオビデオデータ(A)を複数のチャプタに分割し、チャプタデータ(E)を作成する。
【0025】
上記のオーサリング機能付き信号処理装置において、記録日時解析部(12)は、チャプタ分割部(21)と、テーブル生成部(23)とを備える。
チャプタ分割部(21)は、日時データ(T0)の連続性が無い箇所をディオビデオデータ(A)の区切りとして、その複数のチャプタに分割する。テーブル生成部(23)は、チャプタテーブル(E)を含むチャプタデータ(E)を作成する。
ここで、チャプタテーブル(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けている。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。
【0026】
上記のオーサリング機能付き信号処理装置において、記録日時解析部(12)は、その複数のチャプタの数を予め設定された最大チャプタ数(N)に制限するチャプタ制限部(22)を更に備える。
【0027】
上記課題を解決するために、本発明のDVD装置は、オーディオビデオデータ(A)の入力に基づいて、メニュー画面データ(H1、H2)を出力する上記の各項のいずれか一項に記載のオーサリング機能付き信号処理装置と、その記憶媒体にメニュー画面データ(H1、H2)を書き込む駆動部(3)とを具備する。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。
【0028】
従って、上記課題を解決するために、本発明のオーサリングを含む信号処理方法は、(a)〜(b)ステップを具備する。
(a)ステップは、オーディオビデオデータ(A)をチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイル(F1、J)を作成し、動画サムネイル(F1、J)を含むメニュー画面データ(H1、H2)を作成する。ここで、オーディオビデオデータ(A)は、複数の画像データと、その画像データの記録日時を示す日時データ(T0)と、オーディオビデオデータ(A)におけるその画像データの位置を示す位置データ(t0)を含む。メニュー画面データ(H1、H2)は、その複数のチャプタのうちの一部又は全部の動画サムネイル(F1、J)を同時に表示するメニュー画面(50)を示す。(b)ステップは、メニュー画面データ(H1、H2)を記憶媒体に記録する。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。
【0029】
上記のオーサリングを含む信号処理方法において、(a)ステップは、(a1)から(a5)ステップを備える。
(a1)ステップは、オーディオビデオデータ(A)に基づいて、オーディオビデオデータ(A)を符号化した映像符号化データ(D)を作成する。(a2)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、そのチャプタに関するデータを示すチャプタデータ(E)を作成する。(a3)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、その複数のチャプタの各々ごとに動画サムネイル(F1)を作成し、複数の動画サムネイル(F1)に関するデータを示す動画サムネイルデータ(L)を作成する。(a4)ステップは、映像符号化データ(D)とチャプタテーブル(E)とに基づいて、その複数のチャプタに関する制御情報を示す制御情報データ(G1)を作成する。(a5)ステップは、動画サムネイルデータ(L)と制御情報データ(G1)とに基づいて、メニュー画面データ(H1)を作成する。
【0030】
上記のオーサリングを含む信号処理方法において、(a3)ステップは、(aa1)から(aa5)ステップを備える。
(aa1)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、映像符号化データ(D)のうちの画素差分値(Δ)が基準値以上となるハイライトシーンを検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(aa2)ステップは、そのハイライトシーンの長さが指定の再生時間と等しくなるようにその基準値を変化させ、等しくできればそのハイライトシーン有りと判定してそのハイライトシーンと位置データ(t0)とを関連付けた差分値テーブルを生成する。等しくできなければそのハイライトシーン無しと判定する。(aa3)ステップは、そのハイライトシーンの有無、及び、そのハイライトシーンの状況に基づいて、そのチャプタごとに、動画サムネイル(F1)の作成方法を、予め設定された作成方法から選択する。(aa4)ステップは、その選択された作成方法に基づいて、そのチャプタごとに、動画サムネイル(F1)を作成する。(aa5)ステップは、作成された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
ただし、その作成方法は、そのハイライトシーンが無い場合、映像符号化データ(D)からフレームを間引いて動画サムネイル(F1)とする。そのハイライトシーンが複数有る場合、複数のそのハイライトシーンを連結させて動画サムネイル(F1)とする。そのハイライトシーンが一つしかない場合、そのハイライトシーンをそのまま動画サムネイル(F1)とする。
【0031】
上記のオーサリングを含む信号処理方法において、(a3)ステップは、(aa6)から(aa9)ステップを備える。
(a3)ステップは、
(aa6)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(aa7)ステップは、検出されたそのGOPに基づいて、そのチャプタごとに、そのGOP単位の符号量(R)と位置データ(t0)とを関連付けた符号量テーブルを作成する。(aa8)ステップは、その符号量テーブルに基づいて、そのチャプタごとに、符号量(R)が最大となるそのGOPを含む連続した所定の時間(2×Δt1)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(aa9)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0032】
上記のオーサリングを含む信号処理方法において、(a3)ステップは、(aa10)から(aa14)ステップを備える。
(aa10)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(aa11)ステップは、検出されたそのGOPごとに、所定の色を示す画素データに対して、所定のポイントを付加する。(aa12)ステップは、そのポイントに基づいて、そのチャプタごとに、そのGOPごとのポイントの合計(S)と位置データ(t0)とを関連付けたポイントテーブルを作成する。(aa13)ステップは、そのポイントテーブルに基づいて、そのチャプタごとに、ポイントの合計(S)が最大となるそのGOPを含む連続した所定の時間(2×Δt2)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(aa14)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0033】
上記のオーサリングを含む信号処理方法において、(a)ステップは、(a6)〜(a8)ステップを具備する。
(a6)ステップは、オーディオビデオデータ(A)に基づいて、オーディオビデオデータ(A)を符号化した映像符号化データ(D)と、オーディオビデオデータ(A)を圧縮した動画データ(J)を作成して動画データ(J)に関するデータを示す動画サムネイルデータ(K)とを作成する。ここで、動画サムネイルデータ(K)は、動画データ(J)と映像符号化データ(D)とを関連付けた動画データテーブル(K)を含む。動画データ(J)は、その符号化の過程で算出される符号化データに基づいて作成される。(a7)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、チャプタに関するデータを示すチャプタデータ(E)を作成する。ここで、チャプタデータ(E)は、複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(a8)ステップは、動画サムネイルデータ(K)とチャプタデータ(E)とに基づいて、メニュー画面データ(H2)を作成する。
【0034】
上記のオーサリングを含む信号処理方法において、(a6)ステップは、(ab1)〜(ab3)ステップを具備する。
(ab1)ステップは、オーディオビデオデータ(A)に対してDCT演算を行う。(ab2)ステップは、そのDCT演算に伴い生成するDC係数に基づいて、動画データ(J)を作成する。(ab3)ステップは、動画データ(J)と映像符号化データ(D)とに基づいて、動画サムネイルデータ(K)を作成する。
【0035】
従って、上記課題を解決するために、本発明に関するコンピュータプログラムは、(c)〜(d)ステップを備える方法をコンピュータに実行させる。
(c)ステップは、オーディオビデオデータ(A)をチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイル(F1、J)を作成し、動画サムネイル(F1、J)を含むメニュー画面データ(H1、H2)を作成する。ここで、オーディオビデオデータ(A)は、複数の画像データと、その画像データの記録日時を示す日時データ(T0)と、オーディオビデオデータ(A)におけるその画像データの位置を示す位置データ(t0)を含む。メニュー画面データ(H1、H2)は、その複数のチャプタのうちの一部又は全部の動画サムネイル(F1、J)を同時に表示するメニュー画面(50)を示す。(d)ステップは、メニュー画面データ(H1、H2)を記憶媒体に記録する。
ここで、記録媒体としては、DVDやROM、RAM、HD、CD、FDが例示される。
【0036】
また、上記のコンピュータプログラムにおいて、(c)ステップは、(c1)から(c5)ステップを備える。
(c1)ステップは、オーディオビデオデータ(A)を符号化した映像符号化データ(D)を作成する。(c2)ステップは、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、そのチャプタに関するデータを示すチャプタデータ(E)を作成する。(c3)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、その複数のチャプタの各々ごとに動画サムネイル(F1)を作成し、複数の動画サムネイル(F1)に関するデータを示す動画サムネイルデータ(L)を作成する。(c4)ステップは、映像符号化データ(D)とチャプタテーブル(E)とに基づいて、その複数のチャプタに関する制御情報を示す制御情報データ(G1)を作成する。(c5)ステップは、動画サムネイルデータ(L)と制御情報データ(G1)とに基づいて、メニュー画面データ(H1)を作成する。
【0037】
上記のプログラムにおいて、(c2)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成する。
【0038】
また、上記のコンピュータプログラムにおいて、(c3)ステップは、(ca1)から(ca5)ステップを備える。
(ca1)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、映像符号化データ(D)のうちの画素差分値(Δ)が基準値以上となるハイライトシーンを検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(ca2)ステップは、そのハイライトシーンの長さが指定の再生時間と等しくなるようにその基準値を変化させ、等しくできればそのハイライトシーン有りと判定してそのハイライトシーンと位置データ(t0)とを関連付けた差分値テーブルを生成する。等しくできなければそのハイライトシーン無しと判定する。(ca3)ステップは、そのハイライトシーンの有無、及び、そのハイライトシーンの状況に基づいて、そのチャプタごとに、動画サムネイル(F1)の作成方法を、予め設定された作成方法から選択する。(ca4)ステップは、その選択された作成方法に基づいて、そのチャプタごとに、動画サムネイル(F1)を作成する。(ca5)ステップは、作成された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
ただし、その作成方法は、そのハイライトシーンが無い場合、映像符号化データ(D)からフレームを間引いて動画サムネイル(F1)とする。そのハイライトシーンが複数有る場合、複数のそのハイライトシーンを連結させて動画サムネイル(F1)とする。そのハイライトシーンが一つしかない場合、そのハイライトシーンをそのまま動画サムネイル(F1)とする。
【0039】
また、上記のコンピュータプログラムにおいて、(c3)ステップは、(ca6)から(ca9)ステップを備える。
(ca6)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(ca7)ステップは、検出されたそのGOPに基づいて、そのチャプタごとに、そのGOP単位の符号量(R)と位置データ(t0)とを関連付けた符号量テーブルを作成する。(ca8)ステップは、その符号量テーブルに基づいて、そのチャプタごとに、符号量(R)が最大となるそのGOPを含む連続した所定の時間(2×Δt1)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(ca9)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0040】
更に、上記のコンピュータプログラムにおいて、(c3)ステップは、(ca10)から(ca14)ステップを備える。
(ca10)ステップは、映像符号化データ(D)とチャプタデータ(E)とに基づいて、そのチャプタごとに、GOPの位置を検出する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(ca11)ステップは、検出されたそのGOPごとに、所定の色を示す画素データに対して、所定のポイントを付加する。(ca12)ステップは、そのポイントに基づいて、そのチャプタごとに、そのGOPごとのそのポイントの合計(S)と位置データ(t0)とを関連付けたポイントテーブルを作成する。(ca13)ステップは、そのポイントテーブルに基づいて、そのチャプタごとに、そのポイントの合計(S)が最大となるそのGOPを含む連続した所定の時間(2×Δt2)の映像符号化データ(D)を動画サムネイル(F1)として抽出する。(ca14)ステップは、抽出された動画サムネイル(F1)に基づいて、動画サムネイルデータ(L)を作成する。ここで、動画サムネイルデータ(L)は、複数の動画サムネイル(F1)と、位置データ(t0)とを関連付けた動画サムネイルテーブル(L)を含む。
【0041】
更に、上記のコンピュータプログラムにおいて、(c)ステップは、(c6)〜(c8)ステップを具備する。
(c6)ステップは、オーディオビデオデータ(A)を符号化した映像符号化データ(D)と、オーディオビデオデータ(A)を圧縮した動画データ(J)を作成して動画データ(J)に関するデータを示す動画サムネイルデータ(K)とを作成する。ここで、動画サムネイルデータ(K)は、動画データ(J)と映像符号化データ(D)とを関連付けた動画データテーブル(K)を含む。動画データ(J)は、その符号化の過程で算出される符号化データに基づいて作成される。(c7)ステップは、オーディオビデオデータ(A)を分割して複数のチャプタを生成し、そのチャプタに関するデータを示すチャプタデータ(E)を作成する。ここで、チャプタデータ(E)は、その複数のチャプタの各々に対応したチャプタ日時データ(33)とチャプタ位置データ(32)とを関連付けているチャプタテーブル(E)を含む。チャプタ日時データ(33)は、その複数のチャプタの各々における日時データ(T0)に基づくデータである。チャプタ位置データ(32)は、その複数のチャプタの各々における位置データ(t0)に基づくデータである。(c8)ステップは、動画サムネイルデータ(K)とチャプタデータ(E)とに基づいて、メニュー画面データ(H2)を作成する。
【0042】
上記のプログラムにおいて、(c7)ステップは、日時データ(T0)に基づいて、オーディオビデオデータ(A)を分割して複数のチャプタを生成する。
【0043】
更に、上記のコンピュータプログラムにおいて、(c6)ステップは、(cb1)〜(cb3)ステップを具備する。
(cb1)ステップは、オーディオビデオデータ(A)に対してDCT演算を行う。(cb2)ステップは、そのDCT演算に伴い生成するDC係数に基づいて、動画データ(J)を作成する。(cb3)ステップは、動画データ(J)と映像符号化データ(D)とに基づいて、動画サムネイルデータ(K)を作成する。
【0044】
【発明の実施の形態】
以下、本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の実施の形態に関して、添付図面を参照して説明する。本実施の形態では、本発明であるオーサリング機能付き信号処理装置をDVD装置(MPEG装置)に適用した例について説明しているが、その他の映像記録装置に対しても適用が可能である。
【0045】
(第1の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第1の実施の形態について、添付図面を参照して説明する。
【0046】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の構成について説明する。
図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の構成を示すブロック図である。DVD装置1は、オーディオビデオデータA及び諸条件(B及びC、後述)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データD及びその他のデータを記録、格納する。DVD装置1は、オーサリング機能付き信号処理装置2、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0047】
オーサリング機能付き信号処理装置2は、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データD(後述)とメニュー画面データH1(後述)と制御情報データG1(後述)とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3は、システムマイコン4の制御により、オーサリング機能付き信号処理装置2から出力される映像符号化データDとメニュー画面データH1と制御情報データG1とを、内部にセットされた記憶媒体に記録(格納)する。ここでは、記録媒体として、DVDを用いる。ただし、他の記録媒体(例示:ROM、RAM、CD、HD、FD)を用いることも可能である。
システムマイコン4は、オーサリング機能付き信号処理装置2及びDVD駆動部3を具備するDVD装置1を制御する。システムマイコン4は、MPU(マイクロプロセッサユニット)に例示される。
【0048】
オーサリング機能付き信号処理装置2は、エンコード部11と、記録日時解析部12と、動画サムネイル作成部13と、制御情報データ作成部14と、メニュー画面作成部15と、書き込み制御部16とを具備する。ここで、エンコード部11と記録日時解析部12とをデータ前処理部2−3ともいう。データ前処理部2−3と動画サムネイル作成部13と制御情報データ作成部14とをデータ作成部2−2ともいう。データ作成部2−2とメニュー画面作成部15とをデータ処理部2−1ともいう。
【0049】
エンコード部11は、外部から入力されるオーディオビデオデータAに基づいて、オーディオビデオデータを符号化した映像符号化データDを生成する。
【0050】
ここで、オーディオビデオデータAは、デジタルビデオテープレコーダやアナログビデオテープレコーダのような機器から出力された複数のビデオ映像を有するデータであり、音声データと画像(動画を含む、本明細書中で同じ)データとを含む。画像データは、オーディオビデオデータAにおけるその画像データを記録した日時(例示:西暦年:月:日:時:分:秒)としての日時データと、テープ(オーディオビデオデータA)の先頭からの位置(例示:時間 時:分:秒)を示す位置データとを含む。オーディオビデオデータAの符号化は、MPEG(Moving Picture Experts Group、本明細書中で同じ)の規格に基づいて行うエンコードを含む。映像符号化データDは、MPEG2データ(VOB(Video Object)データ)に例示される。
【0051】
図3は、日時データ及び位置データを示す図である。オーディオビデオデータAには、図中、一つの四角の枠で示される一つのフレームごとに、日時データとしてのオーディオビデオデータAを記録した記録日時T0(図中、各フレームの下部に記載)と、位置データとしてのオーディオビデオデータAを記録したテープの先頭からの時間t0(図中、各フレームの上部に記載)とが共に記録されている。
【0052】
図1を参照して、記録日時解析部12は、外部から入力されるオーディオビデオデータAの日時データに基づいて、オーディオビデオデータAを複数のチャプタに分割する。すなわち、日時データが不連続な箇所を検出し、そこをチャプタの区切りとしてオーディオビデオデータAを分割する。そして、複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けるチャプタテーブルE(後述)を生成する。ただし、オーディオビデオデータAを分割するチャプタの最大数を示す最大チャプタ数データB(N)を外部から入力された場合、その最大数を越えないように、チャプタを調整する。
【0053】
ここで、チャプタは、オーディオビデオデータAを分割して得られるオーディオビデオデータAの一部分のデータである。一つのチャプタは、オーディオビデオデータAの内の連続した部分(連続したシーンを含む)でも良いし、連続していない部分を併せたもの(連続したシーンを複数含む)でも良い。
【0054】
ここで、チャプタ日時データは、複数のチャプタの各々における日時データに基づくデータであり、チャプタの最初及び最後を示す日時データや、前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データの差に例示される。チャプタ位置データは、複数のチャプタの各々における位置データに基づくデータであり、チャプタの最初又は最後を示す位置データに例示される。
【0055】
図2は、記録日時解析部12の構成を示すブロック図である。記録日時解析部12は、チャプタ分割部21と、チャプタ制限部22と、テーブル生成部23とを備える。
【0056】
チャプタ分割部21は、日時データの連続性が無い箇所をディオビデオデータAの区切りと判断する。そして、その区切り基づいて、オーディオビデオデータAを複数のチャプタに分割する。
チャプタ制限部22は、複数のチャプタの数が最大チャプタ数データBで示される最大数Nを越える場合、複数のチャプタのうち、予め設定された条件を満たす隣り合う2つのチャプタを結合することにより、チャプタの数を最大数N以下に抑える。ただし、予め設定された条件は、前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データの差が最小となる2つのチャプタに例示される。
テーブル生成部23は、複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとの関係を示すチャプタテーブルEを生成する。
【0057】
図4は、チャプタテーブルEを示す表である。チャプタテーブルEは、複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けている。
ここで、チャプタ番号31は、チャプタの通し番号である。チャプタ位置データとしてのチャプタ終了位置32は、チャプタの最後を示す位置データである。時:分:秒で表示される。チャプタ日時データとしてのチャプタ記録日時間隔33は、前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データの差を示す時間間隔である。日:時:分:秒で表示される。そして、チャプタは、チャプタ終了位置32の小さい順位に並べられる。
【0058】
図1を参照して、動画サムネイル作成部13は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、動画サムネイルF1の作成条件を示す動画条件データC(外部から入力、デフォルト値を有していても良い)を参照し、その条件に適合するように各動画サムネイルF1を生成する。ここで、動画条件データCは、動画サムネイルの画像サイズや動画サムネイルの再生時間に例示される。
ここで、動画サムネイルは、動画形式のサムネイル(プレビュー)である。基となるデータを圧縮(符号化などの画像処理)して生成される。
【0059】
動画サムネイル作成部13は、更に、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。すなわち、動画サムネイルF1の各フレームを示す動画用画像データと、映像符号化データDの位置データとを関連付けた動画サムネイルテーブルLを作成する。
【0060】
図5は、動画サムネイルテーブルLを示す表である。フレームの通し番号であるフレーム番号41、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)としての時刻42及び動画用画像データとしてのフレーム画像データ44がフレームごとに関連付けられている。動画サムネイルテーブルLは、動画サムネイルF1ごとに設けても良いし、一つの動画サムネイルテーブルLを適当に区切り、複数の動画サムネイルF1を含ませても良い。
【0061】
図6は、動画サムネイル作成部13の構成を示すブロック図である。動画サムネイル作成部13は、ハイライトシーン検出部26、作成手法選択部27、作成手法実行部28及びテーブル作成部29を備える。
【0062】
ハイライトシーン検出部26は、映像符号化データDとチャプタテーブルEとに基づいて、各チャプタごとに、フレーム間の画素の差分としての画素差分値Δを検出する。フレーム単位の画素差分値Δは、チャプタごとに、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)t0と関連付けられて、差分値テーブルとして記憶部(図示されず)に格納される。
【0063】
ここで、差分値テーブルについて説明する。
図7は、差分値テーブルをグラフの形で表現した図である。縦軸は画素差分値Δ、横軸は位置データt0(ここでは「時間」)である。グラフ中の曲線Wは、画素差分値Δを示す。半直線α0及びα2は、それぞれ画素差分値Δ0及びΔ2を示す。時間t1から時間t2までが1チャプタとする。
ハイライトシーン検出部26は、差分値テーブル(図7)からハイライトシーンを抽出する。ここで、ハイライトシーンは、画素差分値Δが所定の閾値よりも大きくなる状態が、予め設定された時間以上続く箇所である。図7において、閾値をΔ0とすれば、ハイライトシーンは曲線WのP1の箇所に相当する。この場合、閾値を所定の最大値Δ0から小さくしていくことで、ハイライトシーンを長くしていくことが出来る。例えば、図7において、閾値をΔ0からΔ1(半直線α1で表示)に小さくすることで、ハイライトシーンは、P1からP2+P3に長くすることが出来る。この操作により、ハイライトシーンの時間(ハイライトシーンが複数ある場合には、その合計時間)を、指定された再生時間に合わせることが出来る。ここで、閾値が所定の最小値Δ2まで下げても、ハイライトシーンが指定された再生時間に達しない場合には、ハイライトシーンは無いとする。
ただし、瞬間的に画素差分値Δが、所定の閾値よりも大きくなるような箇所Q(例示:カメラがパンするような場面)は、そのPxの時間が予め設定された時間未満なので、ハイライトと検出しない。
【0064】
図6を参照して、作成手法選択部27は、検出されたハイライトシーンの状況に応じて、下記の3種類の方法から動画サムネイルの作成方法を選択する。
(A)ハイライトシーンが複数箇所あるチャプタは、ハイライトシーンを連結させ、動画サムネイルとする。
(B)ハイライトシーンが一箇所しかないチャプタは、その部分をそのまま動画サムネイルとする。
(C)ハイライトシーンが無いチャプタは、チャプタからフレームを間引いて圧縮し、動画サムネイルとする。例えば、10分間のチャプタを短縮して再生時間1分間の動画サムネイルにするには、1フレーム表示−9フレームスキップ、又は、1秒表示−9秒スキップを繰り返すことで実現できる。
【0065】
作成手法実行部28は、作成手法選択部27で選択された方法を用いて、動画サムネイルを作成する。
テーブル作成部29は、作成された動画サムネイルを動画サムネイルテーブルLに格納する。
を備える。
【0066】
図1を参照して、制御情報データ作成部14は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG1を作成する。すなわち、映像符号化データDとチャプタテーブルEとに基づいて、DVDの制御情報データG1(ビデオタイトルセット67のVTSI、後述)を作成し、その制御情報データG1のPTT(Part of Title、後述)に、各プログラム(PG、後述)がどのチャプタに含まれるかを示すチャプタデータ(例示:チャプタ番号31)を格納する。
なお、DVD以外の記憶媒体を用いる場合には、その記憶媒体に対応した制御情報データG1を作成する。
【0067】
図8は、DVDに格納されるデータの構造を示す図である。DVDに格納されるデータ61は、ビデオマネージャ(VMG)63と、ビデオタイトルセット(VTS)67とを備える。
ビデオマネージャ(VMG)63は、制御情報としてのVMGIと、メニュー画面データH1(後述)としてのVMGM_VOBSと、VMGIのバックアップとしてのVMGI(BUP)とを備える。
ビデオタイトルセット67は、ビデオタイトルセット(ムービー(ビデオ映像)の集合)の制御情報としてのVTSIと、動画ファイルとしてのVTSM_VOBS〜VTSTT_VOBSと、VTSIのバックアップとしてのVTSI(BUP)とを備える。
VTSIには、ビデオタイトルセットの内部構造が記述されている。ビデオタイトルセットの内部構造は、タイトル(個々のムービー)−プログラムチェーン(PGC:プログラムの集合)−PTT(チャプタ:ビデオストリーム内のセル境界線上に設定されるアクセスポイント)−プログラム(PG:セルの集合)−セル(ビデオオブジェクトユニットの集合)−ビデオオブジェクトユニット(VOBU:GOP(Group Of Picuturesに対応)の階層構造を有する。そして、VTSIには、各階層がVTSM_VOBS〜VTSTT_VOBSのどの部分に相当するかを記述している。
【0068】
図1を参照して、メニュー画面作成部15は、動画サムネイルテーブルLと制御情報データG1とに基づいて、動画のメニュー画面を示すメニュー画面データH1を作成する。ただし、メニュー画面データH1は、制御情報データG1で示される各チャプタに対応させて、動画サムネイルテーブルLから動画画像データ(フレーム画像データ44)の該当部分を取り出して生成される。
ここで、動画のメニュー画面は、複数のチャプタに対応した複数の動画サムネイルF1を、一つの画面で一度に表示したものである。例えば、4つのチャプタが有る場合のメニュー画面では、一つの画面で4つの動画サムネイルF1を観ることが出来る。
そして、ポインティングデバイス(例示:マウス)により、画面上で動画サムネイルF1を選択できる。その場合、メニュー画面データH1において、各動画サムネイルF1は、制御情報データG1のPTTと関連付けられているので、画面上で選択された動画サムネイルF1に対応するチャプタを再生することが出来る。
【0069】
書き込み制御部16は、映像符号化データDとメニュー画面データH1と制御情報データG1とを受信し、それぞれのデータをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。
このとき、メニュー画面データH1は、VMG63のVMGM_VOBSに、制御情報データG1は、VTS67のVTSIに、映像符号化データDは、VTSM_VOBS〜VTSTT_VOBSにそれぞれ格納される。
なお、DVD以外の記憶媒体を用いる場合には、書き込み制御部16は、その記憶媒体に対応したフォーマットに基づいて記録媒体に対する書き込みを制御する。
【0070】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
図9は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第1の実施の形態の動作(オーサリングを含む信号処理方法)を示すフロー図である。
【0071】
(1)ステップS01
エンコード部11は、外部から入力されたオーディオビデオデータAに基づいて、オーディオビデオデータAを符号化した映像符号化データDを生成する。
(2)ステップS02
記録日時解析部12は、外部から入力されたオーディオビデオデータAの日時データに基づいて、オーディオビデオデータAを複数のチャプタに分割する。ただし、オーディオビデオデータAを分割するチャプタの数を、外部から入力される最大チャプタ数データBで示される最大チャプタ数Nを越えないようにチャプタを調整する。そして、チャプタテーブルEを生成する。
(3)ステップS03
動画サムネイル作成部13は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、各動画サムネイルF1の画像サイズ及び再生時間を、外部から入力される動画条件データCで示される画像サイズ及び再生時間となるように各動画サムネイルF1を生成する。そして、動画サムネイル作成部13は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(4)ステップS04
制御情報データ作成部14は、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG1を作成する。このとき、その制御情報データG1に、各プログラム38がどのチャプタに含まれるかを示すチャプタデータが格納される。
(5)ステップS05
メニュー画面作成部15は、動画サムネイルテーブルLと制御情報データG1とに基づいて、メニュー画面データH1を作成する。
(6)ステップS06
書き込み制御部16は、メニュー画面データH1と映像符号化データDと制御情報データG1とをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。DVD駆動部3は、それらのデータをDVDに書き込む。
【0072】
ここで、ステップS02のチャプタテーブルを作成する動作について更に説明する。
図10は、ステップS02のチャプタテーブルを作成する動作を示すフロー図である。
【0073】
(1)ステップS21
記録日時解析部12のチャプタ分割部21は、外部から入力されるオーディオビデオデータAの日時データを検出している。
(2)ステップS22
チャプタ分割部21は、日時データに連続性があるか否かを判断する。連続性がある場合には、ステップS21へ戻る。連続性が無い場合には、ステップS23へ進む。ここで、日時データの連続性は、オーディオビデオデータAに記録された映像に基づいて、秒単位、分単位、時間単位など予め設定しておく。ここでは、秒単位とする。
(3)ステップS23
チャプタ分割部21は、日時データの連続性無い箇所をディオビデオデータAの区切りと判断する。そして、その区切りの位置の位置データ(先頭からの時間)を取得する。また、その区切りの位置における手前側のチャプタでの最後の日時データと、その次のチャプタでの最初の日時データとを取得する。ただし、この区切りの位置は、チャプタ候補の位置であり、確定ではない。
(4)ステップS24
チャプタ制限部22は、チャプタの数が一つ増えた場合、チャプタテーブルEのチャプタの数(総チャプタ数)が、最大チャプタ数データBで示される最大チャプタ数Nを越えるか否かを判断する。越える場合には、ステップS26へ進む。越えない場合には、ステップS25へ進む。
(5)ステップS25
テーブル生成部23は、チャプタテーブルEを生成(更新)する。すなわち、チャプタ候補の位置における位置データを、チャプタテーブルEのチャプタ終了位置32とする。また、チャプタ候補の位置における手前側のチャプタでの最後の日時データと、その次のチャプタでの最初の日時データとの差を算出し、チャプタテーブルEのチャプタ記録日時間隔33とする。
(6)ステップS26
チャプタ制限部22は、チャプタテーブルEの総チャプタ数が最大チャプタ数Nを越えるので、チャプタテーブルEのチャプタを一つ削減する。削減する方法としては、チャプタテーブルE内の複数のチャプタのうち、チャプタ記録日時間隔33(前のチャプタの最後を示す日時データと次のチャプタの最初を示す日時データとの差)が最小となる隣り合う2つのチャプタを選択し、結合することにより行う。
それと共に、チャプタテーブルEを生成(更新)する。すなわち、チャプタ候補の位置における位置データをチャプタ終了位置32とし、チャプタ候補の位置における手前側のチャプタでの最後の日時データと、その次のチャプタでの最初の日時データとの差をチャプタ記録日時間隔33とする。
(7)ステップS27
オーディオビデオデータAが継続している場合には、ステップS21に戻り、ステップS21〜ステップS26を繰り返す。
【0074】
図11は、ステップS02における図4のチャプタテーブルEを生成する過程を示す図である。ここでは、最大チャプタ数データBの値が“5”(最大チャプタ数N=5)の場合を例として説明する。
【0075】
図11(a)は、ステップS02において生成されつつある図4のチャプタテーブルEを示している。ここでは、5つのチャプタが見出された状態を示している。
この状態において、ステップS23で、図11(b)に示すように、新たなチャプタが検出された場合を考える。この場合、ステップS24で、最大チャプタ数N(=5)<総チャプタ数(=6)と判断される。ここで、図11(a)のチャプタ番号31=3のチャプタ(「チャプタ3」とする、他のチャプタも同様)が、チャプタテーブルEの中でチャプタ記録日時間隔33が最小(5分)となっている。従って、ステップS26で、チャプタ3をチャプタ2へ結合することにより、チャプタ3を削除する。それと共に、チャプタ4及びチャプタ5は、繰り上がってチャプタ3及びチャプタ4となる。しかる後、新たに見出されたチャプタをチャプタ6として、チャプタテーブルEを更新する。図11(c)が更新されたチャプタテーブルEである。
【0076】
このようにすることで、複数のビデオ映像を有するオーディオビデオデータを、自動的に複数のチャプタに区切り、且つ、チャプタの数を最大チャプタ数N以下に抑えることが出来る。
【0077】
ここで、ステップS03の動画サムネイルを作成する動作について更に説明する。
図12は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【0078】
(1)ステップS31
動画サムネイル作成部13のハイライトシーン検出部26は、映像符号化データDとチャプタテーブルEとに基づいて、一つのチャプタを選択し、そのチャプタの映像符号化データDを取得する。
(2)ステップS32
ハイライトシーン検出部26は、チャプタ全体の映像符号化データDから、フレーム間の画素差分値Δを検出する。そして、画素差分値Δと位置データt0とを関連付けた差分値テーブル(図7)に格納する。
(3)ステップS33
ハイライトシーン検出部26は、差分値テーブル(図7)と動画条件データCの再生時間とに基づいて、ハイライトシーンの時間が指定された再生時間と等しくなるように、閾値をΔ0から変化させる。そして、閾値がΔ2に達するまでに、ハイライトシーンの時間が指定された再生時間と等しくなる場合、ハイライトシーンがあると判定する(Yes)。閾値がΔ2に達しても、ハイライトシーンの時間が指定された再生時間未満である場合、ハイライトシーンが無いと判定する(No)。無い場合、ステップS37へ進む。
(4)ステップS34
作成手法選択部27は、ハイライトシーンのある箇所を数える。そして、それが複数箇所ある場合(No)、ステップ35へ進み、それが一箇所のみの場合(Yes)、ステップS36へ進む。
(5)ステップS35
作成方法実行部38は、既述の(A)の方法で、動画サムネイルを作成する。すなわち、ハイライトシーンが複数箇所あるので、ハイライトシーンを連結させ、動画サムネイルF1とする。ステップS38へ進む。
(6)ステップS36
作成方法実行部38は、既述の(B)の方法で、動画サムネイルを作成する。すなわち、ハイライトシーンが一箇所しかないので、その部分をそのまま動画サムネイルF1とする。ステップS38へ進む。
(7)ステップS37
作成方法実行部38は、既述の(C)の方法で、動画サムネイルを作成する。すなわち、ハイライトシーンが無いので、チャプタからフレームを間引いて圧縮し、動画サムネイルF1とする。ステップS38へ進む。
(8)ステップS38
テーブル作成部29は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(11)ステップS39
テーブル作成部29は、全てのチャプタについて動画サムネイルを作成している場合(Yes)、プロセスを終了する。動画サムネイルを作成していないチャプタが有る場合(No)、ステップS31へもどる。
【0079】
このようなプロセスにより、全てのチャプタについて、再生時間の揃った動画サムネイルを自動的に最適な方法で作成することが可能となる。
【0080】
ここで、ステップS05のメニュー画面データを作成する動作について更に説明する。
図13は、ステップS05のメニュー画面データを作成する動作を示すフロー図である。ここでは、チャプタの数が4個の場合について説明する。
【0081】
(1)ステップS41
メニュー画面作成部15は、動画のメニュー画面(メニュー画面データH1)の第1フレームを作成するために、フレーム番号m=1を設定する。
(2)ステップS42
メニュー画面作成部15は、第1フレームのチャプタ1について処理を行うために、チャプタ番号k=1を設定する。
(3)ステップS43
メニュー画面作成部15は、動画サムネイルテーブルLと制御情報データG1とに基づいて、チャプタ番号k=1のチャプタにおけるm=1番目のフレームに相当するフレーム画像データ44を動画サムネイルテーブルLから取得する。そして、メニュー画面のm=1番目のフレームの右上に貼り付ける。
(4)ステップS44、ステップS45
メニュー画面作成部15は、チャプタ番号kが、最大チャプタ数N(ここでは、N=4)以上となるまで、ステップS43〜ステップS45を繰り返す。
これにより、メニュー画面データH1のm=1番目の1フレーム分が完成する。ただし、k=2の場合、フレームの左上、k=3の場合、フレームの右下、k=4の場合、フレームの左下に、フレーム画像データ44をそれぞれ貼り付ける。
(5)ステップS46、ステップS47
メニュー画面作成部15は、フレーム番号mが、指定フレーム数M(指定された再生時間に相当)以上となるまで、ステップS42〜ステップS47を繰り返す。
これにより、指定フレーム数M(指定された再生時間分)のメニュー画面(静止画)が生成される。
(6)ステップS48
メニュー画面作成部15は、得られた複数のメニュー画面(静止画)をMPEG2規格により圧縮して、VOBファイルとし、メニュー画面データH1を完成させる。それには、上記プロセスにより4つのチャプタの動画サムネイルが含まれている。
【0082】
図14は、上記(1)ステップS41〜(6)ステップS48で作成されたメニュー画面データH1を用いた動画のメニュー画面を示す図である。メニュー画面50は、チャプタ1の動画サムネイル51−1、チャプタ2の動画サムネイル51−2、チャプタ3の動画サムネイル51−3、チャプタ4の動画サムネイル51−4、メニューボタン52を備える。
動画のメニュー画面50の再生時、このメニュー画面全体が一つの動画として表示される。そして、ユーザーがチャプタ1〜チャプタ4の部分を選択すると、それぞれのチャプタのところへジャンプし、通常の映像が再生される。チャプタ数が多く、チャプタ5〜が存在する場合、メニューボタン52を選択すると、チャプタ5〜チャプタ8のメニュー画面に切り替わる。動画メニューの選択や画面切り替えについては、従来知られた方法を使用することが出来る。
【0083】
このようにして、各チャプタの動画サムネイルを含むメニュー画面データを、自動的に作成することが出来る。
【0084】
本発明は、複数のビデオ映像を有するオーディオビデオデータをDVDのような一つの記憶媒体に格納する場合に、日時データに基づいて、オーディオビデオデータの区切りを自動的に、より適切に見出し、所望のチャプタを構成することが出来る。
【0085】
また、本発明は、区切られたチャプタごとに動画サムネイルを生成することができるので、各チャプタの内容を的確に把握することが可能となる。そして、それらの動画サムネイルを全て含んだメニュー画面を自動的に作成できるので、DVDに含まれる全てのオーディオビデオデータの内容を容易に把握することができる。
【0086】
(第2の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第2の実施の形態について、添付図面を参照して説明する。
【0087】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第2の実施の形態の構成について説明する。
図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第2の実施の形態の構成を示すブロック図である。DVD装置1は、オーディオビデオデータA及び諸条件(B及びC)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データD及びその他のデータを記録、格納する。DVD装置1は、オーサリング機能付き信号処理装置2、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0088】
第2の実施の形態では、動画サムネイル作成部13aによる動画サムネイルの作成方法が異なる。
通常、MPEGで圧縮されたビデオデータ(ここでは、映像符号化データDに対応)において、色の変化の激しい部分や動きの速い部分のような複雑な映像では、多くの符号が発生する。そのため、符号量が多くなる。逆に、映像の変化の少ない平坦な部分や動きの遅い部分では、符号があまり発生しない。そのため、符号量が少なくなる。第2の実施の形態では、この符号量に基づいて、ハイライトシーンを検出する。
【0089】
図1を参照して、オーサリング機能付き信号処理装置2は、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データDとメニュー画面データH1と制御情報データG1とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3及びシステムマイコン4は、第1の実施の形態と同様であるのでその説明を省略する。
【0090】
オーサリング機能付き信号処理装置2は、エンコード部11と、記録日時解析部12と、動画サムネイル作成部13aと、制御情報データ作成部14と、メニュー画面作成部15と、書き込み制御部16とを具備する。
【0091】
動画サムネイル作成部13aは、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、動画サムネイルF1の作成条件を示す動画条件データCを参照し、その条件に適合するように各動画サムネイルF1を生成する。動画条件データCは、動画サムネイルの画像サイズや動画サムネイルの再生時間に例示される。
【0092】
動画サムネイル作成部13aは、更に、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。すなわち、動画サムネイルF1の各フレームを示す動画用画像データと、映像符号化データDの位置データとを関連付けた動画サムネイルテーブルLを作成する。図5に示す動画サムネイルテーブルLについては、第1の実施の形態での説明の通りである。
【0093】
図15は、動画サムネイル作成部13aの構成を示すブロック図である。動画サムネイル作成部13aは、データ検出部56、データ解析部57、データ抽出部58及びテーブル作成部59を備える。
【0094】
データ検出部56は、映像符号化データDとチャプタテーブルEとに基づいて、各チャプタごとに、映像符号化データDの符号を解析し、GOP(GroupOf Picture)の位置を検出する。
【0095】
データ解析部57は、検出されたGOPごとに、その符号量(Byte数)を検出する。そして、GOP単位の符号量は、チャプタごとに、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)t0と関連付けられて、符号量テーブルとして記憶部(図示されず)に格納される。
【0096】
ここで、符号量テーブルについて説明する。
図16は、符号量テーブルをグラフの形で表現した図である。縦軸はGOPごとの符号量R、横軸は位置データt0(ここでは「時間」)である。グラフ中の曲線Vは、符号量を示す。時間t1から時間t2までが1チャプタとする。点A1は、チャプタにおける符号量が最大の点である。そのときの時間はtA1である。
【0097】
データ抽出部58は、符号量テーブル(図16)を解析して、符号量R最大の点A1を検出する。そして、時間tA1を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。すなわち、図16において、ハイライトシーンは、時間tC1から時間tB1までの映像符号化データDとなる。このとき、時間tC1−tB1=再生時間、ただし、tC1−tA1=Δt1=tA1−tB1である。このハイライトシーンを動画サムネイルとする。
【0098】
テーブル作成部59は、作成された動画サムネイルを動画サムネイルテーブルLに格納する。
【0099】
エンコード部11、記録日時解析部12、制御情報データ作成部14、メニュー画面作成部15書き込み制御部16(本実施の形態に関わる図2〜図4、図8の説明を含む)は、第1の実施の形態と同様であるので、その説明を省略する。
【0100】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第2の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
本実施の形態に関わる図9〜図11、図13、図14については、第1の実施の形態と同様であるのでその説明を省略する。
【0101】
次に、ステップS03の動画サムネイルを作成する動作について更に説明する。
図17は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【0102】
(1)ステップS51
動画サムネイル作成部13aのデータ検出部56は、映像符号化データDとチャプタテーブルEとに基づいて、一つのチャプタを選択し、そのチャプタの映像符号化データDを取得する。
(2)ステップS52
データ検出部56は、チャプタ全体の映像符号化データDの符号を解析し、GOPの位置を検出する。
(3)ステップS53
データ解析部57は、検出されたGOPごとに、その符号量を検出する。そして、データ解析部57は、GOP単位の符号量と、映像符号化データDの位置データt0とを関連付けて、符号量テーブル(図16)として記憶部(図示されず)に格納される。
(4)ステップS54
データ抽出部58は、符号量テーブル(図16)を解析して、符号量最大の点A1を検出する。そして、時間tA1を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。そして、それを動画サムネイルF1とする。
(5)ステップS55
テーブル作成部59は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(6)ステップS56
テーブル作成部59は、全てのチャプタについて動画サムネイルを作成している場合(Yes)、プロセスを終了する。動画サムネイルを作成していないチャプタが有る場合(No)、ステップS51へもどる。
【0103】
このようなプロセスにより、全てのチャプタについて、再生時間の揃った動画サムネイルを自動的に最適な方法で作成することが可能となる。
この方法の場合、圧縮された映像符号化データDをそのまま利用し、画像解析をせずにハイライトシーンを検出することが出来る。したがって、動画サムネイルを作成する際の処理にかかる資源を削減できるので、コストを軽減することが出来る。そして、短時間で実行することが出来る。
【0104】
本実施の形態においても、第1の実施の形態と同様の効果を得ることが出来る。
【0105】
(第3の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第3の実施の形態について、添付図面を参照して説明する。
【0106】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第3の実施の形態の構成について説明する。
図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第3の実施の形態の構成を示すブロック図である。DVD装置1は、オーディオビデオデータA及び諸条件(B及びC)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データD及びその他のデータを記録、格納する。DVD装置1は、オーサリング機能付き信号処理装置2、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0107】
第3の実施の形態では、動画サムネイル作成部13bによる動画サムネイルの作成方法が異なる。
第3の実施の形態では、映像内のデータの内、特に人の顔を検出し、ハイライトシーンとして抽出する。
【0108】
図1を参照して、オーサリング機能付き信号処理装置2は、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データDとメニュー画面データH1と制御情報データG1とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3及びシステムマイコン4は、第1の実施の形態と同様であるのでその説明を省略する。
【0109】
オーサリング機能付き信号処理装置2は、エンコード部11と、記録日時解析部12と、動画サムネイル作成部13bと、制御情報データ作成部14と、メニュー画面作成部15と、書き込み制御部16とを具備する。
【0110】
動画サムネイル作成部13bは、映像符号化データDとチャプタテーブルEとに基づいて、複数のチャプタの各々に対応する複数の動画サムネイルF1を作成する。このとき、動画サムネイルF1の作成条件を示す動画条件データCを参照し、その条件に適合するように各動画サムネイルF1を生成する。動画条件データCは、動画サムネイルの画像サイズや動画サムネイルの再生時間に例示される。
【0111】
動画サムネイル作成部13aは、更に、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。すなわち、動画サムネイルF1の各フレームを示す動画用画像データと、映像符号化データDの位置データとを関連付けた動画サムネイルテーブルLを作成する。図5に示す動画サムネイルテーブルLについては、第1の実施の形態での説明の通りである。
【0112】
図18は、動画サムネイル作成部13bの構成を示すブロック図である。動画サムネイル作成部13bは、データ検出部76、データ解析部77、データ抽出部78及びテーブル作成部79を備える。
【0113】
データ検出部76は、映像符号化データDとチャプタテーブルEとに基づいて、各チャプタごとに、映像符号化データDの符号を解析し、GOP(GroupOf Picture)の位置を検出する。次に、各GOPごとに、映像符号化データDの符号を1フレームづつ解析する。そして、人の顔を検出し、ポイント化する。
【0114】
ポイント化により人の顔を検出するには、以下のようにして行う。
図19は、人の顔を検出する方法を説明する図である。図19(a)は、解析する画像(1フレーム)を示す。図19(b)は、マスク画像を示す。人の顔を検出するには、まず、解析する画像(a)で、肌色(所定の色の範囲)を示す画素を検出する。次に、マスク画像(b)と解析する画像(a)とを比較して、マスク画像(b)の白部分に肌色画素が検出されたときは、その画素をポイント+1とし、黒部分に肌色画素が検出されたときは、その画素をポイント−1とする。
【0115】
データ解析部77は、画像解析で得られたポイント数をGOPごとに加える。そして、ポイントのGOP単位(ごと)の合計は、チャプタごとに、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)t0と関連付けられて、ポイントテーブルとして記憶部(図示されず)に格納される。
【0116】
ここで、ポイントテーブルについて説明する。
図20は、ポイントテーブルをグラフの形で表現した図である。縦軸はGOPごとのポイントの合計S、横軸は位置データt0(ここでは「時間」)である。グラフ中の曲線Uは、GOPごとのポイントの合計を示す。時間t1から時間t2までが1チャプタとする。点A2は、チャプタにおけるポイントの合計が最大の点である。そのときの時間はtA2である。
【0117】
データ抽出部78は、ポイントテーブル(図20)を解析して、GOPごとのポイントの合計Sの最大の点A2を検出する。そして、時間tA2を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。すなわち、図20において、ハイライトシーンは、時間tC2から時間tB2までの映像符号化データDとなる。このとき、時間tC2−tB2=再生時間、ただし、tC2−tA2=Δt2=tA2−tB2である。このハイライトシーンを動画サムネイルとする。
【0118】
テーブル作成部79は、作成された動画サムネイルを動画サムネイルテーブルLに格納する。
【0119】
エンコード部11、記録日時解析部12、制御情報データ作成部14、メニュー画面作成部15書き込み制御部16(本実施の形態に関わる図2〜図4、図8の説明を含む)は、第1の実施の形態と同様であるので、その説明を省略する。
【0120】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第3の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
本実施の形態に関わる図9〜図11、図13、図14については、第1の実施の形態と同様であるのでその説明を省略する。
【0121】
次に、ステップS03の動画サムネイルを作成する動作について更に説明する。
図21は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【0122】
(1)ステップS61
動画サムネイル作成部13bのデータ検出部76は、映像符号化データDとチャプタテーブルEとに基づいて、一つのチャプタを選択し、そのチャプタの映像符号化データDを取得する。
(2)ステップS62
データ検出部76は、チャプタ全体の映像符号化データDの符号を1フレームづつ解析する。そして、所定の領域(マスク画像で指定)の肌色(所定の色の範囲)を示す画素を顔として検出し、ポイント化する。
(3)ステップS63
データ解析部77は、画像解析で得られたポイント数をGOPごとに加える。そして、GOP単位のポイントと、映像符号化データDの位置データt0とを関連付けて、ポイントテーブル(図20)として記憶部(図示されず)に格納される。
(4)ステップS64
データ抽出部78は、ポイントテーブル(図20)を解析して、ポイント最大の点A2を検出する。そして、時間tA2を中心にして、前後の映像符号化データDを指定された再生時間になるように、ハイライトシーンとして抽出する。そして、それを動画サムネイルF1とする。
(5)ステップS65
テーブル作成部79は、動画サムネイルF1の各フレームと、映像符号化データDとを関連付けた動画サムネイルテーブルLを作成する。
(6)ステップS66
テーブル作成部79は、全てのチャプタについて動画サムネイルを作成している場合(Yes)、プロセスを終了する。動画サムネイルを作成していないチャプタが有る場合(No)、ステップS61へもどる。
【0123】
このようなプロセスにより、全てのチャプタについて、再生時間の揃った動画サムネイルを自動的に最適な方法で作成することが可能となる。
この方法の場合、一般的な顔検出に比較して、色の比較を行うだけなので、処理を高速で行うことが出来る。
【0124】
本実施の形態では、人の顔を検出しているが、例えば、特定の動物の色を設定すれば、その特定の動物を検出して動画サムネイルを生成することが出来る。同様に、例えば、植物の緑、空のスカイブルーのような色を設定すれば、自然の風景を検出して動画サムネイルを作成することが出来る。色の設定は、例えば、動画条件データCから入力するようにする。
【0125】
本実施の形態においても、第1の実施の形態と同様の効果を得ることが出来る。
【0126】
(第4の実施の形態)
本発明であるオーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法の第4の実施の形態について、添付図面を参照して説明する。
【0127】
まず、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の構成について説明する。
図22は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の構成を示すブロック図である。DVD装置1aは、オーディオビデオデータA、及び諸条件(B及びC、後述)の入力に基づいて、DVDに、オーディオビデオデータを符号化した映像符号化データ及びその他のデータを記録、格納する。DVD装置1aは、オーサリング機能付き信号処理装置2a、DVD駆動部3及びシステムマイコン4を具備する。ここでは、DVDのデータを読み出す構成を省略している。
【0128】
オーサリング機能付き信号処理装置2aは、システムマイコン4の制御により、オーディオビデオデータAの入力に基づいて、映像符号化データD(後述)とメニュー画面データH2(後述)と制御情報データG2(後述)とを生成する。そして、それらを所定の記憶媒体に記録する制御を行う。記憶媒体は、DVDに例示される。
DVD駆動部3は、システムマイコン4の制御により、オーサリング機能付き信号処理装置2aから出力される映像符号化データDとメニュー画面データH2と制御情報データG2とを、内部にセットされた記憶媒体に記録(格納)する。
システムマイコン4は、オーサリング機能付き信号処理装置2a及びDVD駆動部3を具備するDVD装置1を制御する。システムマイコン4は、MPU(マイクロプロセッサユニット)に例示される。
【0129】
オーサリング機能付き信号処理装置2aは、エンコード部11aと、記録日時解析部12と、制御情報データ作成部14aと、メニュー画面作成部15aと、書き込み制御部16aとを具備する。ここで、エンコード部11aと記録日時解析部12とをデータ前処理部2a−2ともいう。データ前処理部2a−2と制御情報データ作成部14aとメニュー画面作成部15aとをデータ処理部2a−1ともいう。
【0130】
エンコード部11aは、外部から入力されるオーディオビデオデータAに基づいて、オーディオビデオデータを符号化した映像符号化データDを生成する。それと共に、オーディオビデオデータAを符号化する過程で算出される符号化データに基づいて、動画データJを生成する。
【0131】
ここで、符号化データは、オーディオビデオデータの符号化の際に用いられる離散コサイン変換(Discrete Cosine Transform、本明細書中「DCT」とも記す)の演算の結果として得られるDC係数(直流成分)のみを抽出したデータである。そして、動画データJは、オーディオビデオデータAのDC係数で構成される画像(サイズ=元のフレームの縦1/8×横1/8)を連続的に並べて生成される。オーディオビデオデータA、画像データ、オーディオビデオデータAの符号化及び映像符号化データDは、第1の実施の形態と同様である。
【0132】
動画データJは、オーディオビデオデータAを圧縮したものである。これを、各チャプタごとに分割することで、チャプタごとの動画サムネイルF2となる。すなわち、動画データJは、動画サムネイルF2の集合である。
【0133】
エンコード部11aは、更に、動画データJの各フレームと、映像符号化データDとを関連付けた動画データテーブルKを作成する。すなわち、動画データJの各フレームを示す動画用画像データと、映像符号化データDの位置データ及びVOBファイルのアドレスとを関連付けた動画データテーブルKを作成する。VOBアドレスは、各フレームに対する圧縮(MPEG)後のデータ位置(先頭からのアドレス)である。
【0134】
映像符号化データDを生成する際に、同時に僅かな処理の追加だけで、動画サムネイルF2(後述)用の動画データJを得ることが出来る。この動画データJは、DCT演算を行う1ブロック(8画素×8画素)のデータを一つのDC係数で代表させるので、縦1/8×横1/8=1/64にデータを圧縮することが出来る。この場合、データが大胆に省略されているが、メニュー画面の動画サムネイルの用途としては、充分な解像度を得られる。
【0135】
図23は、動画データテーブルKを示す表である。フレームの通し番号であるフレーム番号41、映像符号化データDの位置データ(オーディオビデオデータの先頭からの時間)としての時刻42、及び映像符号化データD内のフレームに対するアドレスとしてのVOBファイルのアドレス43、動画用画像データとしてのフレーム画像データ44がフレームごとに関連付けられている。
【0136】
記録日時解析部12及びチャプタテーブルEは、第1の実施の形態と同様であるので、その説明を省略する。
【0137】
図22を参照して、メニュー画面作成部15aは、動画データテーブルKとチャプタテーブルEとに基づいて、動画のメニュー画面を示すメニュー画面データH2を作成する。ただし、動画サムネイルF2は、チャプタテーブルEで定義されるチャプタに対応させて、動画データテーブルKから動画データJの該当部分を取り出して生成する。
ここで、動画のメニュー画面は、複数のチャプタに対応した複数の動画サムネイルF2(図示されず)を、一つの画面で一度に表示したものである。例えば、4つのチャプタが有る場合のメニュー画面では、一つの画面で4つの動画サムネイルF2を観ることが出来る。このとき、動画サムネイルF2の条件を示す動画条件データC(例示:画面サイズ、再生時間)を参照し、条件に適合するように各動画サムネイルF2を生成する。
【0138】
そして、ポインティングデバイス(例示:マウス)により、画面上で動画サムネイルF2を選択できる。その場合、メニュー画面データH2において、各動画サムネイルF2は、動画データテーブルKのVOBファイルのアドレス43と関連付けられているので、画面上で選択された動画サムネイルF2に対応するチャプタを再生することが出来る。
【0139】
制御情報データ作成部14aは、動画データテーブルKとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG2(後述)を作成する。すなわち、動画データテーブルK(の動画データJ)に基づいてDVDの制御情報データG2を作成し、その制御情報データG2のPTT37に、各プログラムがどのチャプタに含まれるかを示すチャプタデータ(例示:チャプタ番号31)を格納する。ただし、制御情報データG2は、第1の実施の形態と同様である。
【0140】
書き込み制御部16aは、映像符号化データDとメニュー画面データH2と制御情報データG2とを受信し、それぞれのデータをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。
このとき、メニュー画面データH2は、VMG63のVMGM_VOBSに、制御情報データG2は、VTS67のVTSIに、映像符号化データDは、VTSM_VOBS〜VTSTT_VOBSにそれぞれ格納される。
【0141】
次に、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の動作(オーサリングを含む信号処理方法)について説明する。
図24は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置(MPEG装置)の第4の実施の形態の動作(オーサリングを含む信号処理方法)を示すフロー図である。
【0142】
(1)ステップS11
エンコード部11aは、外部から入力されたオーディオビデオデータAに基づいて、オーディオビデオデータAを符号化した映像符号化データDを生成する。それと共に、オーディオビデオデータAを符号化する過程で算出される符号化データに基づいて、動画データJを生成し、動画データJの各フレームと、映像符号化データDとを関連付けた動画データテーブルKを作成する。
【0143】
(2)ステップS12
記録日時解析部12は、外部から入力されたオーディオビデオデータAの日時データに基づいて、オーディオビデオデータAを複数のチャプタに分割する。ただし、オーディオビデオデータAを分割するチャプタの数を、外部から入力される最大チャプタ数データBで示される最大チャプタ数Nを越えないようにチャプタを調整する。そして、チャプタテーブルEを生成する。
【0144】
(3)ステップS13
メニュー画面作成部15aは、動画データテーブルKとチャプタテーブルEとに基づいて、動画のメニュー画面を示すメニュー画面データH2を作成する。
【0145】
(4)ステップS14
制御情報データ作成部14aは、動画データテーブルKとチャプタテーブルEとに基づいて、複数のチャプタに関するデータを含む制御情報データG2を作成する。このとき、その制御情報データG2のPTTに、各プログラムがどのチャプタに含まれるかを示すチャプタデータ(例示:チャプタ番号31)が格納される。
【0146】
(5)ステップS15
書き込み制御部16は、メニュー画面データH2と映像符号化データDと制御情報データG2とをDVDの所定の領域に記録するように、DVD駆動部3へのデータの出力の制御を行う。DVD駆動部3は、それらのデータをDVDに書き込む。
【0147】
ここで、ステップS11の動作の内、における動画データテーブルKを作成する動作について更に説明する。
図25は、ステップS11における動画データテーブルKを作成する動作を示すフロー図である。これらのステップは、Iピクチャのみに対して行う。
【0148】
(1)ステップS71
MPEGの符号化の際に行うDCT演算で得られるDC係数を抽出する。
(2)ステップS72
オーディオビデオデータAの1フレーム分のDC係数を再配置して、1フレーム分の動画用の画像(サイズ=元のフレームの縦1/8×横1/8)を生成する。
(3)ステップS73
生成された動画用の画像を連続的に並べることにより動画データJを生成する。
(4)ステップS74
動画用の画像の各フレームごとに、動画データJと、映像符号化データDとを関連付けた動画データテーブルKを作成する。すなわち、動画用の画像の各フレームを示す動画用画像データと、映像符号化データDの位置データ及びVOBファイルのアドレスとを関連付けた動画データテーブルKを作成する。
【0149】
動画データJは、オーディオビデオデータAの1GOP(1VOBU=通常0.5秒)分を、1枚の画像で表すことになる。すなわち、大幅に短縮された動画データを得ることが出来る。
【0150】
ただし、ステップS12のチャプタテーブルを作成する動作については、図8に示すステップS02と同様であるのでその説明を省略する。
【0151】
ここで、ステップS13のメニュー画面データを作成する動作について更に説明する。
図26は、ステップS13のメニュー画面データを作成する動作を示すフロー図である。ここでは、チャプタの数が4個の場合について説明する。
【0152】
(1)ステップS81
メニュー画面作成部15aは、各チャプタの開始時刻(位置データ:オーディオビデオデータでの時刻)を特定するために、チャプタ番号k=1を設定する。
(2)ステップS82
メニュー画面作成部15aは、チャプタ番号kの開始時刻について、チャプタテーブルEのチャプタ番号41=kの欄の1つ前の欄の時刻42(前のチャプタの終了時刻)から、チャプタ番号kの開始時刻を求める。(開始時刻)=(1つ前の欄の時刻42)+(1フレーム分の時間)、で求める。
例えば、チャプタ番号k=2の場合、チャプタ番号41=k=2の欄の1つ前の欄は、チャプタ番号41=1の欄である。したがって、(チャプタ番号k=2の開始時刻)=(チャプタ番号k=1の欄の時刻42(チャプタ1の終了時刻))+(1フレーム分の時間)、で求まる。ただし、チャプタ番号k=1は、最初のチャプタであり、1つ前の欄は存在しないので、その場合、開始時刻=0とする。
(3)ステップS83、ステップS84
メニュー画面作成部15aは、チャプタ番号kが、最大チャプタ数N(ここでは、N=4)以上となるまで、ステップS82〜ステップS84を繰り返す。
これにより、各チャプタの開始時刻を特定することが出来る。
(4)ステップS85
メニュー画面作成部15aは、動画のメニュー画面(メニュー画面データH2)の第1フレームを作成するために、フレーム番号m=1を設定する。
(5)ステップS86
メニュー画面作成部15aは、第1フレームのチャプタ1について処理を行うために、チャプタ番号k=1を設定する。
(6)ステップS87
メニュー画面作成部15aは、動画データテーブルKに基づいて、チャプタ番号k=1のチャプタにおけるm=1番目のフレームに相当するフレーム画像データ44を動画データテーブルKから取得する。そして、メニュー画面のm=1番目のフレームの右上に貼り付ける。
(7)ステップS88、ステップS89
メニュー画面作成部15aは、チャプタ番号kが、最大チャプタ数N(ここでは、N=4)以上となるまで、ステップS87〜ステップS89を繰り返す。
これにより、メニュー画面データH2のm=1番目の1フレーム分が完成する。ただし、k=2の場合、フレームの左上、k=3の場合、フレームの右下、k=4の場合、フレームの左下に、フレーム画像データ44をそれぞれ貼り付ける。
(8)ステップS90、ステップS91
メニュー画面作成部15aは、フレーム番号mが、指定フレーム数M(指定された再生時間に相当)以上となるまで、ステップS86〜ステップS91を繰り返す。
これにより、指定フレーム数M(指定された再生時間分)のメニュー画面(静止画)が生成される。
(9)ステップS92
メニュー画面作成部15aは、得られた複数のメニュー画面(静止画)をMPEG2規格により圧縮して、VOBファイルとし、メニュー画面データH2を完成させる。それには、上記プロセスにより4つのチャプタの動画サムネイルが含まれている。
【0153】
上記(1)ステップS81〜(9)ステップS92で作成されたメニュー画面データH2は、図14と同様であるので、その説明を省略する。
【0154】
このようにして、各チャプタの動画サムネイルを含むメニュー画面データを、自動的に作成することが出来る。
【0155】
以上のように本発明は、第1の実施の形態と同様の効果を得ることが出来る。
【0156】
【発明の効果】
本発明により、複数のオーディオビデオデータを一つの記憶媒体に格納する場合に、オーディオビデオデータを自動的に区切り、チャプタを自動生成し、動画サムネイルを用いたメニュー画面を自動的に生成することが可能になる。そして、記憶媒体内の内容を迅速且つ的確に把握することが可能になる。
【図面の簡単な説明】
【図1】図1は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第1〜3の実施の形態の構成を示すブロック図である。
【図2】図2は、記録日時解析部の構成を示す図である。
【図3】図3は、日時データ及び位置データを示す図である。
【図4】図4は、チャプタテーブルを示す表である。
【図5】図5は、動画サムネイルテーブルを示す表である。
【図6】図6は、動画サムネイル作成部13の構成を示すブロック図である。
【図7】図7は、差分値テーブルをグラフの形で表現した図である。
【図8】図8は、DVDに格納されるデータの構造を示す図である。
【図9】図9は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第1〜3の実施の形態の動作を示すフロー図である。
【図10】図10は、ステップS02のチャプタテーブルを作成する動作を示すフロー図である。
【図11】図11(a)〜(c)は、図4のチャプタテーブルを生成する過程を示す図である。
【図12】図12は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【図13】図13は、ステップS05のメニュー画面データを作成する動作を示すフロー図である。
【図14】図14は、動画のメニュー画面を示す図である。
【図15】図15は、動画サムネイル作成部13aの構成を示すブロック図である。
【図16】図16は、符号量テーブルをグラフの形で表現した図である。
【図17】図17は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【図18】図18は、動画サムネイル作成部13bの構成を示すブロック図である。
【図19】図19(a)(b)は、人の顔を検出する方法を説明する図である。
【図20】図20は、ポイントテーブルをグラフの形で表現した図である。
【図21】図21は、ステップS03の動画サムネイルを作成する動作を示すフロー図である。
【図22】図22は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第4の実施の形態の構成を示すブロック図である。
【図23】図23は、動画データテーブルを示す表である。
【図24】図24は、本発明であるオーサリング機能付き信号処理装置を適用したDVD装置の第4の実施の形態の動作を示すフロー図である。
【図25】図25は、ステップS11における動画データテーブルを作成する動作を示すフロー図である。
【図26】図26は、ステップS13のメニュー画面データを作成する動作を示すフロー図である。
【符号の説明】
1(a) DVD装置
2(a) オーサリング機能付き信号処理装置
2−1、2a−1 データ処理部
2−2 データ作成部
2a−2 データ前処理部
2−3 データ前処理部
3 DVD駆動部
4 システムマイコン
11(a) エンコード部
12 記録日時解析部
13(a、b) 動画サムネイル作成部
14(a) 制御情報データ作成部
15(a) メニュー画面作成部
16(a) 書き込み制御部
21 チャプタ分割部
22 チャプタ制限部
23 テーブル生成部
25、55、75 動画サムネイル作成実行部
26 ハイライトシーン検出部
27 作成手法選択部
28 作成手法実行部
29 テーブル作成部
31 チャプタ番号
32 チャプタ終了位置
33 チャプタ記録日時間隔
34 ビデオタイトルセット
35 タイトル
36 プログラムチェーン(PGC)
37 PTT(チャプタ)
38 プログラム(PG)
38−1 セル
38−2 ビデオオブジェクトユニット(VOBU)
38−3 パック
50 メニュー画面
51−1 チャプタ1の動画サムネイル
51−2 チャプタ2の動画サムネイル
51−3 チャプタ3の動画サムネイル
51−4 チャプタ4の動画サムネイル
52 メニューボタン
56、76 データ検出部
57、77 データ解析部
58、78 データ抽出部
59、79 テーブル作成部
61 DVDに格納されるデータ
63 ビデオマネージャ(VMG)
67 ビデオタイトルセット(VTS)
A オーディオビデオデータ
B 最大チャプタ数データ
C 動画条件データ
D 映像符号化データ
E チャプタテーブル
F(1、2) 動画サムネイル
G(1、2) 制御情報データ
H(1、2) メニュー画面データ
I(1、2) 動画サムネイル+制御情報データ+メニュー画面データ
J 動画データ
K 動画データテーブル
L 動画サムネイルテーブル

Claims (6)

  1. オーディオビデオデータをチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルを含むメニュー画面データを作成するデータ処理部と、
    前記メニュー画面データを記憶媒体に記録する制御を行う書き込み制御部と、
    を具備し、
    前記オーディオビデオデータは、複数の画像データと、前記画像データの記録日時を示す日時データと、前記オーディオビデオデータにおける前記画像データの位置を示す位置データとを含み、
    前記メニュー画面データは、前記複数のチャプタのうちの一部又は全部の前記動画サムネイルを同時に表示するメニュー画面を示し、
    前記データ処理部は、
    前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記複数のチャプタの各々ごとに前記動画サムネイルを作成し、前記動画サムネイルに関するデータを示す動画サムネイルデータと、前記複数のチャプタに関する制御情報を示す制御情報データとを作成するデータ作成部と、
    前記動画サムネイルデータと前記制御情報データとに基づいて、メニュー画面データを作成するメニュー画面作成部と
    を備え、
    前記データ作成部は、
    前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記複数のチャプタに関するデータを示すチャプタデータと、前記オーディオビデオデータを符号化した映像符号化データとを作成するデータ前処理部と、
    前記映像符号化データと前記チャプタデータとに基づいて、前記動画サムネイルデータを作成する動画サムネイル作成部と、
    前記映像符号化データと前記チャプタデータとに基づいて、前記制御情報データを作成する制御情報データ作成部と
    を含み、
    前記動画サムネイル作成部は、
    前記映像符号化データと前記チャプタデータとに基づいて、前記チャプタごとに、GOP(Group Of Picture)の位置を検出するデータ検出部と、
    検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記位置データとを関連付けた符号量テーブルを作成するデータ解析部と、
    前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記映像符号化データを前記動画サムネイルとして抽出するデータ抽出部と、
    抽出された前記動画サムネイルに基づいて、前記動画サムネイルデータを生成するテーブル作成部と
    を備え、
    前記動画サムネイルデータは、前記チャプタごとの前記動画サムネイルと、前記位置データとを関連付けた動画サムネイルテーブルを含む
    オーサリング機能付き信号処理装置。
  2. チャプタに分割されたオーディオビデオデータから、前記チャプタごとにGOPの位置を検出するデータ検出部と、
    前記データ検出部で検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記GOPの位置データとを関連づけた符号量テーブルを作成するデータ解析部と、
    前記データ解析部で作成された前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記オーディオビデオデータを前記動画サムネイルとして抽出するデータ抽出部と
    を備えることを特徴とする信号処理装置。
  3. (a)オーディオビデオデータをチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルを含むメニュー画面データを作成するステップと、
    ここで、
    前記オーディオビデオデータは、複数の画像データと、前記画像データの記録日時を示す日時データと、前記オーディオビデオデータにおける前記画像データの位置を示す位置データを含み、
    前記メニュー画面データは、前記複数のチャプタのうちの一部又は全部の前記動画サムネイルを同時に表示するメニュー画面を示し、
    (b)前記メニュー画面データを記憶媒体に記録するステップと、
    を具備し、
    前記(a)ステップは、
    (a1)前記オーディオビデオデータに基づいて、前記オーディオビデオデータを符号化した映像符号化データを作成するステップと、
    (a2)前記日時データに基づいて、前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記チャプタに関するデータを示すチャプタデータを作成するステップと、
    (a3)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルに関するデータを示す動画サムネイルデータを作成するステップと、
    (a4)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタに関する制御情報を示す制御情報データを作成するステップと、
    (a5)前記動画サムネイルデータと前記制御情報データとに基づいて、メニュー画面データを作成するステップと
    を備え、
    前記(a3)ステップは、
    (aa6)前記映像符号化データと前記チャプタデータとに基づいて、前記チャプタごとに、GOPの位置を検出するステップと、
    ここで、
    前記チャプタデータは、前記複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けているチャプタテーブルを含み、
    前記チャプタ日時データは、前記複数のチャプタの各々における前記日時データに基づくデータであり、
    前記チャプタ位置データは、前記複数のチャプタの各々における前記位置データに基づくデータであり、
    (aa7)検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記位置データとを関連付けた符号量テーブルを作成するステップと、
    (aa8)前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記映像符号化データを前記動画サムネイルとして抽出するステップと、
    (aa9)抽出された前記動画サムネイルに基づいて、動画サムネイルデータを作成するステップと
    ここで、
    前記動画サムネイルデータは、前記チャプタごとの前記動画サムネイルと、前記位置データとを関連付けた動画サムネイルテーブルを含み
    を備える
    オーサリングを含む信号処理方法。
  4. チャプタに分割されたオーディオビデオデータから、前記チャプタごとにGOPの位置を検出する第1のステップと、
    前記第1ステップで検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記GOPの位置データとを関連づけた符号量テーブルを作成する第2のステップと、
    前記第2のステップで作成された前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記オーディオビデオデータを前記動画サムネイルとして抽出する第3のステップと
    を備える動画サムネイル作成実行方法。
  5. (c)オーディオビデオデータをチャプタごとに分割して生成される複数のチャプタの各々ごとに動画サムネイルを作成し、前記動画サムネイルを含むメニュー画面データを作成するステップと、
    ここで、
    前記オーディオビデオデータは、複数の画像データと、前記画像データの記録日時を示す日時データと、前記オーディオビデオデータにおける前記画像データの位置を示す位置データを含み、
    前記メニュー画面データは、前記複数のチャプタのうちの一部又は全部の前記動画サムネイルを同時に表示するメニュー画面を示し、
    (d)前記メニュー画面データを記憶媒体に記録するステップと、
    を具備し、
    前記(c)ステップは、
    (c1)前記オーディオビデオデータを符号化した映像符号化データを作成するステップと、
    (c2)前記オーディオビデオデータを分割して前記複数のチャプタを生成し、前記チャプタに関するデータを示すチャプタデータを作成するステップと、
    (c3)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタの各々ごとに動画サムネイルを作成し、前記複数の動画サムネイルに関するデータを示す動画サムネイルデータを作成するステップと、
    (c4)前記映像符号化データと前記チャプタデータとに基づいて、前記複数のチャプタに関する制御情報を示す制御情報データを作成するステップと、
    (c5)前記動画サムネイルデータと前記制御情報データとに基づいて、メニュー画面データを作成するステップと
    を備え、
    前記(c3)ステップは、
    (ca6)前記映像符号化データと前記チャプタデータとに基づいて、前記チャプタごとに、GOPの位置を検出するステップと、
    ここで、
    前記チャプタデータは、前記複数のチャプタの各々に対応したチャプタ日時データとチャプタ位置データとを関連付けているチャプタテーブルを含み、
    前記チャプタ日時データは、前記複数のチャプタの各々における前記日時データに基づくデータであり、
    前記チャプタ位置データは、前記複数のチャプタの各々における前記位置データに基づくデータであり、
    (ca7)検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記位置データとを関連付けた符号量テーブルを作成するステップと、
    (ca8)前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記映像符号化データを前記動画サムネイルとして抽出するステップと、
    (ca9)抽出された前記動画サムネイルに基づいて、動画サムネイルデータを作成するステップと
    ここで、
    前記動画サムネイルデータは、前記チャプタごとの前記動画サムネイルと、前記位置データとを関連付けた動画サムネイルテーブルを含み
    を備える方法をコンピュータに実行させるためのプログラム。
  6. チャプタに分割されたオーディオビデオデータから、前記チャプタごとにGOPの位置を検出する第1のステップと、
    前記第1ステップで検出された前記GOPに基づいて、前記チャプタごとに、前記GOPにおけるGOP単位の符号量と前記GOPの位置データとを関連づけた符号量テーブルを作成する第2のステップと、
    前記第2のステップで作成された前記符号量テーブルに基づいて、前記チャプタごとに、前記符号量が最大となる前記GOPを含む連続した所定の時間の前記オーディオビデオデータを前記動画サムネイルとして抽出する第3のステップと
    を具備する方法をコンピュータに実行させるプログラム。
JP2003058996A 2003-03-05 2003-03-05 オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法 Expired - Fee Related JP4066454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003058996A JP4066454B2 (ja) 2003-03-05 2003-03-05 オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003058996A JP4066454B2 (ja) 2003-03-05 2003-03-05 オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法

Publications (2)

Publication Number Publication Date
JP2004274171A JP2004274171A (ja) 2004-09-30
JP4066454B2 true JP4066454B2 (ja) 2008-03-26

Family

ID=33121967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003058996A Expired - Fee Related JP4066454B2 (ja) 2003-03-05 2003-03-05 オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法

Country Status (1)

Country Link
JP (1) JP4066454B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184945B2 (en) 2008-12-24 2012-05-22 Kabushiki Kaisha Toshiba Authoring device and authoring method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1995961A4 (en) 2006-03-14 2012-08-15 Sony Corp IMAGE PROCESSING DEVICE AND METHOD
JP2007250048A (ja) * 2006-03-14 2007-09-27 Sony Corp 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP4744345B2 (ja) * 2006-04-18 2011-08-10 シャープ株式会社 サムネイル作成方法および動画データ再生装置
JP5527511B2 (ja) * 2009-09-15 2014-06-18 株式会社リコー 動画サムネイル作成装置、方法及びプログラム
JP5515890B2 (ja) * 2010-03-15 2014-06-11 オムロン株式会社 画像処理装置、画像処理方法、画像処理システム、制御プログラムおよび記録媒体
KR101945830B1 (ko) * 2012-05-24 2019-06-11 삼성전자 주식회사 다중 동영상 재생 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315766B2 (ja) * 1992-09-07 2002-08-19 富士通株式会社 画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置、シーン変化記録装置、及び画像データのシーン変化記録・再生装置
JP3131560B2 (ja) * 1996-02-26 2001-02-05 沖電気工業株式会社 動画像処理システムにおける動画像情報検出装置
JP2000350156A (ja) * 1999-06-09 2000-12-15 Hitachi Ltd 動画像情報の記憶方法及びこれを記録した記録媒体
JP3580200B2 (ja) * 1999-10-28 2004-10-20 ブラザー工業株式会社 記録情報処理装置および記録情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4051841B2 (ja) * 1999-12-01 2008-02-27 ソニー株式会社 画像記録装置および方法
JP2001238175A (ja) * 2000-02-25 2001-08-31 Victor Co Of Japan Ltd 情報記録再生装置
JP2001298711A (ja) * 2000-04-17 2001-10-26 Sony Corp 画像記録再生装置および方法、並びに記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184945B2 (en) 2008-12-24 2012-05-22 Kabushiki Kaisha Toshiba Authoring device and authoring method

Also Published As

Publication number Publication date
JP2004274171A (ja) 2004-09-30

Similar Documents

Publication Publication Date Title
JP3677205B2 (ja) 複数記録面対応の情報記録装置及び複数記録面対応の情報記録方法
JP2000152182A (ja) 光ディスク再生装置及びその方法
US8050540B2 (en) Reproduction apparatus and computer reproduction method
US20060147183A1 (en) Recording apparatus and method, program, and recording medium
JP4066454B2 (ja) オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法
WO2009139302A1 (ja) 録画再生装置
USRE45271E1 (en) Digital versatile disc recording apparatus and cell-by-cell edition method using the same
US20050213945A1 (en) Audio-visual recording/playback apparatus and digital video camera
US20040109673A1 (en) Recording and reproducing apparatus and method
US8437390B2 (en) Imaging apparatus
US7830421B2 (en) Reproducing apparatus
JP2010263374A (ja) 記録再生装置及び記録再生方法
US8160430B2 (en) Recording apparatus and recording method
JP2002262240A (ja) 録画シーン検索方法および記録再生装置
JP4446311B2 (ja) 記録再生装置
JP2004040518A (ja) 撮像記録装置と再生装置
US20080069541A1 (en) Data recording apparatus, data recording method, and data recording program
JP2007295070A (ja) 記録装置及び方法、並びにプログラム及び記録媒体
JP4309312B2 (ja) コンテンツ記録再生装置及びコンテンツ管理方法。
JP2002064781A (ja) Dvd記録再生装置
KR101202694B1 (ko) 디브이디기록기기 및 디브이디기록기기의 셀단위 편집방법
KR101308374B1 (ko) 디브이디기록기기 및 디브이디기록기기의 셀단위 편집방법
JP4654161B2 (ja) 記録装置及び記録方法
JP2008028440A (ja) 映像記録装置
JP2002093125A (ja) 光ディスク、ビデオデータ編集装置、編集プログラムを記録したコンピュータ読み取り可能な記録媒体、光ディスクの再生装置、再生プログラムを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071230

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4066454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140118

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees