JP4821751B2 - 記録再生装置 - Google Patents
記録再生装置 Download PDFInfo
- Publication number
- JP4821751B2 JP4821751B2 JP2007251925A JP2007251925A JP4821751B2 JP 4821751 B2 JP4821751 B2 JP 4821751B2 JP 2007251925 A JP2007251925 A JP 2007251925A JP 2007251925 A JP2007251925 A JP 2007251925A JP 4821751 B2 JP4821751 B2 JP 4821751B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- content data
- audio
- unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
しかしながら、登場人物名や、シリーズ形式の番組におけるその放送回のタイトル等、録画コンテンツのタイトル名に含まれない情報を知るためには、録画されたコンテンツを実際に再生して確認しなければならず、不便であるという問題があった。
また、上記特許文献1及び特許文献2は、デジタル放送のように、番組データに付加情報が付加されていることを前提としている。したがって、アナログ放送の番組を録画する場合には、必要な情報を取得することができず、タイトルを作成することができないという問題があった。
前記受信手段により受信された前記コンテンツデータを記録する記録手段と、
前記記録手段により記録された前記コンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記コンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記コンテンツデータのタイトル情報を作成する作成手段と、
を備えることを特徴とする。
前記取得手段は、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする。
前記取得手段は、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータから、前記記憶手段により記憶された前記音声データが再生される再生位置を検出し、検出された再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする。
前記受信手段により受信された前記第1のコンテンツデータ及び前記第2のコンテンツデータを記録する記録手段と、
前記記録手段により記録された前記第1のコンテンツデータ及び前記第2のコンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記第1のコンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得するとともに、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記第1のコンテンツデータのタイトル情報及び前記第2のコンテンツデータのタイトル情報を作成する作成手段と、
を備え、
前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成又は前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする。
即ち、コンテンツデータの再生時に、再生される音声をマーキングすると、その音声の音声データ又は当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データに基づいてタイトル情報が作成されることとなる。したがって、記録再生装置において、コンテンツデータに含まれる音声データ又は映像データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる。
以下、本発明の実施形態1を、図面を参照しながら詳細に説明する。
本実施形態1の記録再生装置は、例えば、DVDレコーダであるものとして説明を行う。
なお、記録再生装置は、DVDレコーダに限られることなく、BD(Blue-ray Disc)レコーダ、D−VHSレコーダ等であっても良い。
DVDレコーダ100は、テレビジョン放送局から伝送される放送信号を受信して、受信した放送信号に含まれるコンテンツデータの記録及び再生を行う。DVDレコーダ100には、テレビジョン受像機300等の外部装置が接続されており、DVD61に記録されたコンテンツデータは、このテレビジョン受像機300に出力されて視聴者に提供される。
また、キー入力部1には、第1のコンテンツデータの再生時に、所望の音声をマーキングしてタイトルの作成を指示するためのタイトル作成キー1aが備わる。当該タイトル作成キー1aが操作されると、後述するマーキングプログラム125d、記憶プログラム125e、取得プログラム125f、作成プログラム125gが実行され、マーキングされた音声又はマーキングされた音声に基づく所定の再生位置の音声又は映像に基づく第1のコンテンツデータのタイトル情報が作成されることとなる。
特に、本実施形態1では、第1のコンテンツデータにおいてマーキングされた音声の再生位置が記憶され、第2のコンテンツデータにおける当該再生位置の音声データ若しくは当該再生位置に基づく所定の再生位置の音声データ又は映像データに基づいて、第2のコンテンツデータのタイトル情報が作成される。
タイトル作成キー1aに基づく第1のコンテンツデータのタイトル情報及び第2のコンテンツデータのタイトル情報の作成方法については、作成プログラム125gの説明において詳述する。
一方、第2のコンテンツデータとは、同一のシリーズに属するコンテンツデータであって既にタイトル情報が作成されているコンテンツデータ(第1のコンテンツデータ)が存在する場合に、二番目以降にタイトル情報が作成される番組を指す。
また、例えば、第2話の再生時に、タイトル作成キー1aを操作して第2話のタイトル情報を一番初めに作成すると、第2話が「第1のコンテンツデータ」とされ、第1話及び第3話以降が「第2のコンテンツデータ」とされる。
解析部4は、チューナ2から入力される第2のコンテンツデータとしてのTSを解析して、第1のコンテンツデータにおいてマーキングされた音声データの再生位置の音声データ、若しくは、第1のコンテンツデータにおいてマーキングされた音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する。
例えば、記録処理では、エンコーダ部3から入力されたコンテンツデータに対して、誤り訂正符号化、8−16変調等を行い、一旦バッファメモリ51に貯めた後に、CPU121からの制御出力に応じてDVDドライブ部6に出力する。また、再生時に必要な管理情報を、コンテンツデータとともに、DVDドライブ部6に出力して記録させる。
一方、再生処理では、DVDドライブ部6から読み込んだコンテンツデータに対して、波形等価、A/D変換、8−16復調、誤り訂正復号等を行い、一旦バッファメモリ51に貯めた後に、CPU121からの制御出力に応じてデコーダ部7に出力する。
DVD61は、例えば、書き換え可能なDVD−RAM(Random Access Memory)である。DVDドライブ部6では、記録処理において、光ピックアップ62により、DVD61の反射層にレーザ光を照射して、照射光による加熱により記録層の結晶状態を変化させて結晶部・非晶質部を形成することにより、DVD61に対するデータの書き込みを行う。一方、再生処理において、光ピックアップ62によりDVD61の反射層にレーザ光を照射し、光電変換及び電流電圧変換によって反射光に応じた電圧信号を生成することにより、DVD61に記録されたデータの読み出しを行う。
分離部71は、DVDドライブ部6からデータプロセッサ5を介して出力されたデータストリームを、ビデオストリーム、オーディオストリーム、サブピクチャストリーム等の複数のストリームに分離する。
ビデオデコーダ72は、分離部71から入力されるビデオストリームをデコードする。具体的には、ビデオデコーダ72は、ビデオストリームに、可変長復号化、逆量子化、逆DCT、動き補正等の各種処理を行うことでデコードする。
オーディオデコーダ73は、分離部71から入力されるオーディオストリームを伸張する。
データデコーダ74は、分離部71から入力されたサブピクチャストリームをデコードする。
ミキシング部11は、ビデオデコーダ72においてデコードされたビデオストリームに対して、データデコーダ74から入力されるOSDデータ等を合成する。
デコードされたビデオデータは、図示しないメモリに一旦格納された後に、各コマの表示時間情報に応じた所定の再生タイミングで、DVDレコーダ100に接続されたテレビジョン受像機300の表示部300aに出力されることとなる。また、デコードされた音声データは、テレビジョン受像機300の音声出力部300bに出力されることとなる。
文字認識処理では、映像データに含まれる文字列を取り込んでデジタル化し、デジタル化された文字列に対して文字認識を行う。そして、文字認識された文字の文字コードが、タイトル情報作成部10に入力される。
音声認識処理では、所定の音声認識モデル(例えば、隠れマルコフモデル等)に基づいて、音声認識を行う。そして、音声認識処理によりテキスト変換された文字の文字コードがタイトル情報作成部10に入力される。
タイトル情報作成部10から入力されるタイトル情報は、DVDドライブ部6において、番組と対応付けてDVD61に記憶される。
ここで、本発明において、タイトル情報とは、取得された映像データから抽出される文字、取得された音声がテキスト変換されることにより得られる文字、コンテンツデータの付加情報(番組配列情報)に含まれるシリーズ名(オリジナルタイトル)等のうち、少なくとも一つを含む情報である。
再生位置記憶部124は、EPROM(Erasable Programmable ROM)等により構成され、後述する記憶プログラム125eの実行において、タイトル作成キー1aの操作によりマーキングされた音声の所定の再生位置を、番組(シリーズ)毎に記憶する。
具体的には、CPU121は、キー入力部1において、番組の録画を指示する旨の操作が行われると、チューナ2を特定周波数帯に同調させ、放送信号を受信する。また、シリーズ形式の番組の録画が予約されると、予約された番組の放送開始時刻から放送受信時刻まで、当該番組の放送信号を受信する。さらに、受信したTSから、録画番組のTSパケット(コンテンツデータ、第1のコンテンツデータ、第2のコンテンツデータ)を取得してエンコーダ部3に出力する。
CPU121は、かかる受信プログラム125aを実行することにより、チューナ2とともに受信手段として機能する。
具体的には、CPU121は、チューナ2において取り出した第1のコンテンツデータ又は第2のコンテンツデータを、エンコーダ部3においてDVD61に記録可能なファイル形式にエンコードし、データプロセッサ5において、誤り訂正符号化、8−16変調等を行って、DVDドライブ部6においてDVD61に記録させる。CPU121は、同一シリーズに属する番組を、互いに対応づけて記録させる。
CPU121は、かかる記録プログラム125bを実行することにより、DVDドライブ部6とともに記録手段として機能する。
具体的には、CPU121は、キー入力部1において、DVD61に記録された番組の再生を指示する旨の操作が行われると、DVDドライブ部6において、DVD61に記録されたコンテンツデータ(第1のコンテンツデータ又は第2のコンテンツデータ)を読出し、8−16復調、誤り訂正復号等を行って、デコーダ部7に送る。さらに、分離部71において、ビデオストリーム、オーディオストリーム、データストリームに分離した後に、各ストリームを、ビデオデコーダ72、オーディオデコーダ73、データデコーダ74において、それぞれデコードし、機器本体に接続されたテレビジョン受像機300の音声出力部300bから音声を出力させるとともに、表示部300aに映像を表示させる。
CPU121は、かかる再生プログラム125cを実行することにより、再生手段として機能する。
具体的には、ユーザは、タイトルに含めたい情報(放送回のタイトルや登場人物等)が音声や映像で提供される際に、毎回決まったタイミング(例えば、同時又は直前等)に、毎回決まって使われるメロディ・決まり文句等を、タイトル作成キー1aによりマーキングする。より具体的には、ユーザは、第1のコンテンツデータの再生時に、テレビジョン受像機300の音声出力部300bから出力される音声又は表示部300aに表示される映像を視聴し、タイトル情報に含めたい音声や映像が出力されている間に、キー入力部1のタイトル作成キー1aを押下する。または、ユーザは、第1のコンテンツデータの再生時に、テレビジョン受像機300の音声出力部300bから出力される音声又は表示部300aに表示される映像を視聴し、タイトル情報に含めたい音声や映像が出力される所定時間前(例えば、1秒間前)に、キー入力部1のタイトル作成キー1aを押下する。
すると、CPU121は、タイトル作成キー1aの押下に基づいて、キーが押下されている間に音声出力部300bから出力されていた音声を、マーキング音声として決定する。
CPU121は、かかるマーキングプログラム125dを実行することにより、タイトル作成キー1aとともに、マーキング手段として機能する。
具体的には、CPU121は、マーキングプログラム125dの実行により、タイトル作成キー1aが押下されている間に音声出力部300bから出力されている音声がマーキング音声として決定されると、当該マーキング音声の所定の再生位置を決定する。
所定の再生位置は、例えば、番組の放送開始からの経過時間で示される。また、当該所定の再生位置は、キーの押下時間の情報も含む。再生位置が決定されると、CPU121は、その再生位置に関する情報(例えば、番組の放送開始からの経過時間データ)を、当該番組・シリーズの識別情報とともに、再生位置記憶部124に記憶させる。
CPU121は、かかる記憶プログラム125eを実行することにより、再生位置記憶部124とともに、記憶手段として機能する。
CPU121は、かかる取得プログラム125fを実行することにより、DVDドライブ部6、解析部4とともに、取得手段として機能する。
CPU121は、かかる作成プログラム125gを実行することにより、タイトル情報作成部10とともに、作成手段として機能する。
例えば、第1に、タイトル作成キー1aによりマーキングした音声をテキスト変換してタイトル情報を作成する方法である。
第2に、タイトル作成キー1aによりマーキングした音声の再生中に、表示部300aに表示される映像内の文字をテキスト変換してタイトル情報を作成する方法である。
第3に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜10秒後)に再生される音声をテキスト変換して、タイトル情報を作成する方法である。
第4に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像内の文字をテキスト変換して、タイトル情報を作成する方法である。
なお、図2のメニュー画面では、タイトル作成キー1aによりマーキングした音声の何秒後の音声データ/映像データを取得するか、又、その時間幅等を、ユーザが自在に設定することができる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声データ(例えば、「トー○スとゴー○ン」)をDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の音声データ(例えば、「あかはなのジェー○ス」)を取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声は、第1のコンテンツデータの再生時にマーキングした音声と同種類の音声(例えば、サブタイトルのアナウンス等)である可能性が高く、第1のコンテンツデータの再生中にマーキングした音声と同じように、タイトル情報に含めたいユーザの意向に沿った音声である可能性が高いと考えられる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声データの再生中に表示部300aに表示される映像(例えば、図3)の映像データをDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の音声データの再生中に、表示部300aに表示されている映像(例えば、図4)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声とともに出力される映像は、第1のコンテンツデータの再生時にマーキングした音声とともに出力された映像と同じように、タイトル情報に含めたいテキスト(例えば、サブタイトル等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:トー○ス、ゴー○ン」)の音声データをDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:ジェー○ス、ダッ○、ビ○、ベ○、ボ○、トレ○ー」)の音声データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声に基づく所定の再生位置(所定時間後)の音声は、第1のコンテンツデータの再生時にマーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声と同種類の音声(例えば、登場人物のアナウンス等)である可能性が高く、第1のコンテンツデータの再生時に取得した音声と同じように、タイトル情報に含めたいユーザの意向に沿った音声である可能性が高いと考えられる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図5)をDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図6)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声の所定時間後に表示部300aに表示される映像は、第1のコンテンツデータの再生時に取得した映像と同じように、タイトル情報に含めたいテキスト(例えば、登場人物名等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
CPU121は、第1のコンテンツデータ又は第2のコンテンツデータから、音声データを取得すると、取り込んだ音声データを音声認識部9に出力し、音声データをテキストデータ(例えば、「トー○スとゴー○ン」、「登場人物名:トー○スとゴー○ン」)に変換する。そして、変換したテキストデータをタイトル情報作成部10に出力し、このテキストデータに基づいてタイトル情報を作成する。
タイトル情報作成部10では、例えば、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名(例えば、「トー○スとなかまたち」等)と、音声データを変換したテキストデータ(例えば、「トー○スとゴー○ン」・「登場人物名:トー○スとゴー○ン」等)と、を合成してタイトル情報(例えば、『トー○スとなかまたち トー○スとゴー○ン』、『トー○スとなかまたち 登場人物名:トー○スとゴー○ン』等)とする。
また、例えば、コンテンツデータとともに伝送される付加情報に含まれているシリーズ名をタイトル情報に含めず、音声データを変換したテキストデータを、そのままタイトル情報(例えば、『トー○スとゴー○ン』、『登場人物名:トー○ス、ゴー○ン』等)としても良い。
CPU121は、タイトル情報作成部10においてタイトル情報が作成されると、データプロセッサ5を介してDVDドライブ部6に出力し、第1のコンテンツデータ又は第2のコンテンツデータと対応づけてDVD61に記録させる。
CPU121は、第1のコンテンツデータ又は第2のコンテンツデータから、映像データを取得すると、取り込んだ映像データを文字認識部8に出力し、映像データに含まれる文字をテキストデータ(例えば、「トー○スとゴー○ン」、「登場人物名:トー○スとゴー○ン」等)に変換する。そして、変換したテキストデータをタイトル情報作成部10に出力し、このテキストデータに基づいてタイトル情報を作成する。
タイトル情報作成部10では、例えば、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名(例えば、「トー○スとなかまたち」等)と、映像データから抽出したテキストデータ(例えば、「トー○スとゴー○ン」、「登場人物名:トー○スとゴー○ン」等)と、を合成してタイトル情報(例えば、『トー○スとなかまたち トー○スとゴー○ン』、『トー○スとなかまたち 登場人物名:トー○スとゴー○ン』等)とする。
また、例えば、コンテンツデータとともに伝送される付加情報に含まれているシリーズ名をタイトル情報に含めず、映像データから抽出したテキストデータを、そのままタイトル情報(例えば、『トー○スとゴー○ン』、『登場人物名:トー○ス、ゴー○ン』等)としても良い。
CPU121は、タイトル情報作成部10においてタイトル情報が作成されると、データプロセッサ5を介してDVDドライブ部6に出力し、第1のコンテンツデータ又は第2のコンテンツデータと対応づけてDVD61に記録させる。
図7では、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名(例えば、「トー○スとなかまたち」)と、音声データ又は映像データから抽出したテキストデータの一部(例えば、「トー○スとゴー○ン」、「あかはなのジェー○ス」)とが合成されてタイトル情報とされている。
また、図8では、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名はタイトル情報に含まれず、音声データ又は映像データから抽出したテキストデータ(例えば、「トー○スとゴー○ン 登場人物名:トー○ス、ゴー○ン」、「あかはなのジェー○ス 登場人物名:ジェー○ス、○ック、○ル、○ン、○コ、トレ○ー」)が、そのままタイトル情報とされている。
したがって、コンテンツデータの再生時に音声をマーキングすると、その音声に基づく音声データ又は映像データに基づいて、タイトル情報が作成されることとなる。したがって、コンテンツデータに含まれる音声データ又は映像データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる。
また、ユーザ自身がタイトル情報を入力しなくても、所望の音声をマーキングするだけで、ユーザが望むタイトル情報を作成することができるため、ユーザにとって非常に利便的である。
さらに、付加情報に含まれない情報であってもタイトル情報に含めることができるため、ユーザにとってより望ましいタイトル情報を作成することができる。
即ち、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータの各々についてマーキング作業を行わなくても、第1のコンテンツデータの再生時に音声のマーキングを行えば、同一のシリーズに属する第2のコンテンツデータ各々の音声又は映像に応じたタイトル情報が自動的に作成されることとなる。したがって、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータのそれぞれについて、タイトル情報を作成する必要が無いばかりか、第2のコンテンツデータの音声をマーキングしなくても、第2のコンテンツデータのそれぞれに応じた適切なタイトル情報が作成されることとなり、ユーザにとって更に利便的となる。
次に、本発明の実施形態2を、図面を参照しながら詳細に説明する。
本実施形態2の記録再生装置は、例えば、実施形態1と同様に、DVDレコーダであるものとして説明を行う。
なお、実施形態1と同様の構成に関しては、同じ符号を付してその説明を省略することとする。
DVDレコーダ200は、例えば、キー入力部1、放送局から送信された放送信号を受信して、当該放送信号のうちから所定の放送チャンネルの放送信号を選局して、コンテンツデータ(第1のコンテンツデータ、第2のコンテンツデータ)を抽出するチューナ2、チューナ2から入力されたコンテンツデータに対して所定の圧縮処理を行うエンコーダ部3、チューナ2から入力されたコンテンツデータを解析して音声データ又は映像データを取得する解析部13、コンテンツデータの入出力を制御して、エンコーダ部3から入力されたコンテンツデータをDVDドライブ部6に供給するとともに、DVDドライブ部6から取り込んだコンテンツデータをデコーダ部7に供給するデータプロセッサ5、DVD61に対して放送番組データの記録及び再生を行うDVDドライブ部6、DVDドライブ部6から出力された放送番組データに所定の伸張処理を行うデコーダ部7、映像データに含まれる文字を認識する文字認識部8、音声データを音声認識してテキストデータに変換する音声認識部9、文字認識部8から入力されるテキストデータ・音声認識部9から入力されるテキストデータ・ビデオデコーダ72から入力される付加情報(番組配列情報(SI: Service Information))に基づいてタイトル情報を作成するタイトル情報作成部10、OSDデータ等を映像信号に合成するミキシング部11、DVDレコーダ200全体を統括制御する制御部14等を備えて構成されている。
キー入力部1には、第1のコンテンツデータの再生時に、所望の再生音声をマーキングしてタイトルの作成を指示するためのタイトル作成キー1aが備わる。当該タイトル作成キー1aが操作されると、後述するマーキングプログラム125d、記憶プログラム143a、取得プログラム143b、作成プログラム143cが実行され、マーキングされた音声若しくは当該マーキングされた音声の再生位置に基づく所定の再生位置の音声又は映像に基づく第1のコンテンツデータのタイトル情報が作成されることとなる。
特に、本実施形態2では、実施形態1のように第1のコンテンツデータにおけるマーキングされた音声の再生位置が記憶されるのではなく、第1のコンテンツデータにおけるマーキングされた音声の音声データそのものが記憶される。そして、当該記憶された音声データとの類似度が所定の閾値以上の音声データが、第2のコンテンツデータから検出され、検出された音声データの再生位置が検出されて、当該再生位置の音声データ若しくは検出された再生位置に基づく所定の再生位置の音声データ又は映像データに基づいて、第2のコンテンツデータのタイトル情報が作成される。
マーキング音声記憶部142は、EPROM(Erasable Programmable ROM)等により構成され、後述する記憶プログラム143aの実行において、タイトル作成キー1aの操作によりマーキングされた音声を、番組(シリーズ)毎に記憶する。
具体的には、CPU141は、マーキングプログラム125dの実行により、タイトル作成キー1aが押下された時点で音声出力部300bから出力される音声がマーキング音声として決定されると、当該マーキング音声を、当該番組・シリーズの識別情報とともに、マーキング音声記憶部142に記憶させる。
CPU141は、かかる記憶プログラム143aを実行することにより、マーキング音声記憶部142とともに、記憶手段として機能する。
CPU141は、かかる取得プログラム143bを実行することにより、DVDドライブ部6、解析部13とともに、取得手段として機能する。
CPU141は、かかる作成プログラム143cを実行することにより、タイトル情報作成部10とともに作成手段として機能する。
例えば、第1に、タイトル作成キー1aによりマーキングした音声の再生中に、表示部300aに表示される映像内の文字をテキスト変換してタイトル情報を作成する方法である。
第2に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜10秒後)に再生される音声をテキスト変換して、タイトル情報を作成する方法である。
第3に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像内の文字をテキスト変換して、タイトル情報を作成する方法である。
なお、図2のメニュー画面では、タイトル作成キー1aによりマーキングした音声の何秒後の音声データ/映像データを取得するか、又、その時間幅等を、ユーザが自在に設定することができる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU141は、タイトル作成キー1aが押下されている間に再生された音声をマーキング音声記憶部142に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声データの再生中に表示部300aに表示される映像(例えば、図3)の映像データをDVD61から取得する。
また、CPU141は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部13において、第2のコンテンツデータから、マーキング音声記憶部142に記憶された音声データと類似度が所定の閾値以上の音声データを検出し、当該音声データの再生中に、表示部300aに表示されている映像(例えば、図4)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、マーキング音声記憶部142に記憶された音声とともに出力される映像は、第1のコンテンツデータの再生時にマーキングした音声とともに出力された映像と同じように、タイトル情報に含めたいテキスト(例えば、サブタイトル等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU141は、タイトル作成キー1aが押下されている間に再生された音声をマーキング音声記憶部142に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:トー○ス、ゴー○ン」)の音声データをDVD61から取得する。
また、CPU141は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部13において、第2のコンテンツデータから、マーキング音声記憶部142に記憶された音声データを検出し、検出された音声データの所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:ジェー○ス、ダッ○、ビ○、ベ○、ボ○、トレ○ー」)の音声データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、マーキング音声記憶部142に記憶された音声に基づく所定の再生位置(所定時間後)の音声は、第1のコンテンツデータの再生時にマーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声と同種類の音声(例えば、登場人物のアナウンス等)である可能性が高く、第1のコンテンツデータの再生時に取得した音声と同じように、タイトル情報に含めたいユーザの意向に沿った音声である可能性が高いと考えられる。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU141は、タイトル作成キー1aが押下されている間に再生された音声をマーキング音声記憶部142に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図5)をDVD61から取得する。
また、CPU141は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部13において、第2のコンテンツデータから、マーキング音声記憶部142に記憶された音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図6)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、マーキング音声記憶部142に記憶された音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像は、第1のコンテンツデータの再生時に取得した映像と同じように、タイトル情報に含めたいテキスト(例えば、登場人物名等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
即ち、コンテンツデータの再生時に、再生される音声をマーキングすると、その音声の音声データ又は当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データに基づいてタイトル情報が作成されることとなる。したがって、DVDレコーダ200(記録再生装置)において、コンテンツデータに含まれる音声データ又は音声データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる。
また、ユーザ自身がタイトル情報を入力しなくても、所望の音声をマーキングするだけで、ユーザが望むタイトル情報を作成することができるため、ユーザにとって非常に利便的である。
さらに、付加情報に含まれない情報であってもタイトル情報に含めることができるため、ユーザにとってより望ましいタイトル情報を作成することができる。
即ち、同一のシリーズに属するコンテンツデータの各々についてマーキング作業を行わなくても、第1のコンテンツデータの再生時に再生される音声のマーキングを行えば、同一のシリーズに属する第2のコンテンツデータの各々の音声データ又は映像データに応じたタイトル情報が自動的に作成されることとなる。したがって、第2のコンテンツデータのタイトル情報を作成する必要が無いばかりか、第2のコンテンツデータの音声をマーキングしなくても、第2のコンテンツデータの各々に応じた適切なタイトル情報が作成されることとなり、ユーザにとって更に利便的となる。
また、第1のコンテンツデータにおいてマーキングされた音声が、第2のコンテンツデータにおいて異なる再生位置で再生される場合でも、第1のコンテンツデータにおいてマーキングされた音声に基づいて、第2のコンテンツデータから音声データ又は映像データが検出されてタイトル情報が作成されることとなるため、より確実に、ユーザにとって望ましいタイトル情報を作成することができる。
例えば、作成手段により作成されるタイトル情報は、上記実施形態において例示したものに限られない。例えば、『トー○スとゴー○ン』ように、その放送回のタイトルのみをタイトル情報としても良い。また、その放送回のタイトルや登場人物名の他、簡単なあらすじ等、音声データや、映像データ、付加情報に含まれる情報であれば、タイトル情報に含めることができる。
また、第1のコンテンツデータ又は第2のコンテンツデータから取得した映像データのサムネイル画像を含むタイトル情報を作成しても良い。
また、音声データ又は映像データから抽出したテキストデータのうち、タイトルや登場人物名等、必要なテキストのみを判別する判別手段を設け、作成手段は、判別手段により必要であると判別されたテキストのみをタイトル情報に含めても良い。
また、一つのコンテンツデータにつき、複数の音声をマーキングできるように構成しても良い。そして、例えば、一度目にマーキングされた音声を、サブタイトルが含まれる音声データであると決定し、二度目にマーキングされた音声を、登場人物名が含まれる音声であると決定する。そして、サブタイトルと登場人物名等の音声の種類を区別してタイトル情報を作成しても良い。
また、第1のコンテンツデータの音声をマーキングする際に、マーキングした音声の種類(例えば、タイトル、サブタイトル、登場人物名)等を、ユーザが指定できる手段が備わっていても良い。
また、第1のコンテンツデータの音声をマーキングする際に、マーキングした音声のうち、タイトル情報に含める音声区間(例えば、マーキングした音声の後半部分等)を指定できる手段が備わっていても良い。
また、第2のコンテンツデータから取得する音声データ又は映像データは、第2のコンテンツデータの受信時に、解析部13において取得するのではなく、一旦DVD61に記録した後に、DVD61から取得しても良い。
また、上記実施形態では、タイトル情報に含める音声・映像の出力中に再生される音声をマーキングするタイトル作成方法と、タイトル情報に含める音声・映像が出力される所定時間前に再生される音声をマーキングするタイトル作成方法のみについて説明したが、タイトル情報に含める音声・映像が出力された所定時間後の音声をマーキングして、タイトルを作成する方法が備わっていても良い。また、タイトル作成キー1aによりマーキングした音声の何秒前の音声データ/映像データを取得するか、又、その時間幅等を、ユーザが自在に設定することができる手段が備わっていても良い。
1a タイトル作成キー(マーキング手段)
2 チューナ(受信手段)
4 解析部(取得手段)
6 DVDドライブ部(記録手段、再生手段、取得手段)
8 文字認識部(作成手段)
9 音声認識部(作成手段)
10 タイトル情報作成部(作成手段)
121 CPU(受信手段、記録手段、再生手段、マーキング手段、記憶手段、取得手段、作成手段)
124 再生位置記憶部(記憶手段)
125a 受信プログラム(受信手段)
125b 記録プログラム(記録手段)
125c 再生プログラム(再生手段)
125d マーキングプログラム(マーキング手段)
125e 記憶プログラム(記憶手段)
125f 取得プログラム(取得手段)
125g 作成プログラム(作成手段)
200 DVDレコーダ
13 解析部(取得手段)
141 CPU(受信手段、記録手段、再生手段、マーキング手段、記憶手段、取得手段、作成手段)
142 マーキング音声記憶部(記憶手段)
143a 記憶プログラム(記憶手段)
143b 取得プログラム(取得手段)
143c 作成プログラム(作成手段)
Claims (6)
- 音声データ及び映像データを含むコンテンツデータを受信する受信手段と、
前記受信手段により受信された前記コンテンツデータを記録する記録手段と、
前記記録手段により記録された前記コンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記コンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記コンテンツデータのタイトル情報を作成する作成手段と、
を備えることを特徴とする記録再生装置。 - 前記コンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段を備え、
前記取得手段は、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする請求項1に記載の記録再生装置。 - 前記コンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声データを記憶する記憶手段を備え、
前記取得手段は、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータから、前記記憶手段により記憶された前記音声データが再生される再生位置を検出し、検出された再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする請求項1に記載の記録再生装置。 - 前記取得手段は、音声データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする請求項1〜3の何れか一項に記載の記録再生装置。 - 前記取得手段は、映像データを取得し、
前記作成手段は、前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする請求項1〜3の何れか一項に記載の記録再生装置。 - 音声データ及び映像データを含む第1のコンテンツデータ及び当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータを受信する受信手段と、
前記受信手段により受信された前記第1のコンテンツデータ及び前記第2のコンテンツデータを記録する記録手段と、
前記記録手段により記録された前記第1のコンテンツデータ及び前記第2のコンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記第1のコンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得するとともに、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記第1のコンテンツデータのタイトル情報及び前記第2のコンテンツデータのタイトル情報を作成する作成手段と、
を備え、
前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成又は前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする記録再生装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007251925A JP4821751B2 (ja) | 2007-09-27 | 2007-09-27 | 記録再生装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007251925A JP4821751B2 (ja) | 2007-09-27 | 2007-09-27 | 記録再生装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009088644A JP2009088644A (ja) | 2009-04-23 |
JP4821751B2 true JP4821751B2 (ja) | 2011-11-24 |
Family
ID=40661541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007251925A Expired - Fee Related JP4821751B2 (ja) | 2007-09-27 | 2007-09-27 | 記録再生装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4821751B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5564919B2 (ja) * | 2009-12-07 | 2014-08-06 | ソニー株式会社 | 情報処理装置、予測変換方法およびプログラム |
JP6362317B2 (ja) * | 2013-10-17 | 2018-07-25 | キヤノン株式会社 | 映像処理装置、映像処理装置の制御方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09130736A (ja) * | 1995-11-02 | 1997-05-16 | Sony Corp | 撮像装置及び編集装置 |
JPH11308529A (ja) * | 1998-04-21 | 1999-11-05 | Sony Corp | 映像のタイトル付与方法及びビデオカメラ |
JP2005065191A (ja) * | 2003-08-20 | 2005-03-10 | Ntt Comware Corp | 動画メタデータ自動作成装置及び動画メタデータ自動作成プログラム |
-
2007
- 2007-09-27 JP JP2007251925A patent/JP4821751B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009088644A (ja) | 2009-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8078034B2 (en) | Method and apparatus for navigating through subtitles of an audio video data stream | |
US8583443B2 (en) | Recording and reproducing apparatus | |
KR20070028535A (ko) | 화상 음성 스트림 처리 장치 및 화상 음성 스트림 처리방법 | |
JP4758776B2 (ja) | リモコン操作情報生成装置及びデジタル放送受信機 | |
JP2005217816A (ja) | 映像再生装置および記録媒体 | |
JP4821751B2 (ja) | 記録再生装置 | |
KR101285906B1 (ko) | 자막 탐색이 가능한 방송 녹화 재생 방법 및 장치 | |
JP5033653B2 (ja) | 映像記録再生装置及び映像再生装置 | |
JP2009087394A (ja) | 記録再生装置 | |
KR100785988B1 (ko) | 피브이알 시스템의 방송 녹화 장치 및 그 방법 | |
JP2007288687A (ja) | 放送記録装置及び放送記録方法 | |
JP2012034235A (ja) | 映像再生装置及び映像再生方法 | |
JP2000324439A (ja) | デジタルビットストリーム記録再生装置およびプログラム記録媒体 | |
JP2004112207A (ja) | 光ディスク再生装置 | |
JP2008269460A (ja) | 動画シーン種別判定装置及び方法 | |
JP2006270793A (ja) | ダイジェスト録画システム | |
JP4730253B2 (ja) | 動画再生装置及び動画再生方法 | |
KR20050073011A (ko) | 디지털 방송 수신기 및 디지털 방송 수신기에서 섬네일탐색 방법 | |
KR100349820B1 (ko) | 전자사전기능을 갖춘 디브이디 재생장치 및 재생방법 | |
JP4257546B2 (ja) | 記録再生装置、およびhdd内蔵型ディジタルテレビジョン | |
JP2006024297A (ja) | 言語選択方法、再生装置及び記録媒体 | |
JP2007122559A (ja) | 文字認識印刷システム、印刷装置、印刷方法、印刷プログラム、テレビジョン装置および画像再生装置 | |
JP2004248056A (ja) | コンテンツ記録装置およびコンテンツ再生装置ならびにコンテンツ記録プログラムおよびコンテンツ再生プログラム | |
JP2006079712A (ja) | 記録媒体、再生装置及び記録装置 | |
JP5018519B2 (ja) | 記録装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110809 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110822 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |