JP4821751B2 - Recording / playback device - Google Patents

Recording / playback device Download PDF

Info

Publication number
JP4821751B2
JP4821751B2 JP2007251925A JP2007251925A JP4821751B2 JP 4821751 B2 JP4821751 B2 JP 4821751B2 JP 2007251925 A JP2007251925 A JP 2007251925A JP 2007251925 A JP2007251925 A JP 2007251925A JP 4821751 B2 JP4821751 B2 JP 4821751B2
Authority
JP
Japan
Prior art keywords
data
content data
audio
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007251925A
Other languages
Japanese (ja)
Other versions
JP2009088644A (en
Inventor
雅央 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2007251925A priority Critical patent/JP4821751B2/en
Publication of JP2009088644A publication Critical patent/JP2009088644A/en
Application granted granted Critical
Publication of JP4821751B2 publication Critical patent/JP4821751B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、コンテンツデータを記録して再生する記録再生装置に関する。   The present invention relates to a recording / reproducing apparatus that records and reproduces content data.

通常、記録再生装置において、テレビジョン番組を録画すると、放送信号とともに送信される番組情報に含まれるタイトル情報に基づいて、番組のタイトルが作成されて記録される(特許文献1参照)。
しかしながら、登場人物名や、シリーズ形式の番組におけるその放送回のタイトル等、録画コンテンツのタイトル名に含まれない情報を知るためには、録画されたコンテンツを実際に再生して確認しなければならず、不便であるという問題があった。
Usually, when a television program is recorded in a recording / reproducing apparatus, a program title is created and recorded based on title information included in program information transmitted together with a broadcast signal (see Patent Document 1).
However, in order to know information that is not included in the title name of the recorded content, such as the name of the character and the title of the broadcast in a series format program, the recorded content must be actually played back and confirmed. There was a problem that it was inconvenient.

そこで、例えば、ユーザが、表示部に表示された付加情報を選択する操作を行うと、選択された付加情報に含まれるタイトル名や、アーティスト名等が取得されて記録媒体に記録されるデジタル放送記録再生装置が提案されている(特許文献2参照)。
特開2003−230080号公報 特開2003−59246号公報
Therefore, for example, when the user performs an operation of selecting additional information displayed on the display unit, a title that is included in the selected additional information, an artist name, and the like are acquired and recorded on a recording medium. A recording / reproducing apparatus has been proposed (see Patent Document 2).
Japanese Patent Laid-Open No. 2003-230080 JP 2003-59246 A

しかしながら、上記特許文献2では、付加情報に含まれていない情報はタイトルに含めることができないため、使い勝手が悪い。
また、上記特許文献1及び特許文献2は、デジタル放送のように、番組データに付加情報が付加されていることを前提としている。したがって、アナログ放送の番組を録画する場合には、必要な情報を取得することができず、タイトルを作成することができないという問題があった。
However, in the above-mentioned Patent Document 2, information that is not included in the additional information cannot be included in the title.
In addition, Patent Document 1 and Patent Document 2 are based on the premise that additional information is added to program data as in digital broadcasting. Therefore, when recording an analog broadcast program, there is a problem that necessary information cannot be acquired and a title cannot be created.

本発明の課題は、コンテンツデータに含まれる音声データ又は映像データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる記録再生装置を提供することである。   An object of the present invention is to provide a recording / reproducing apparatus capable of creating a title of recorded content more in line with the user's intention by an easy operation using audio data or video data included in the content data. .

上記課題を解決するため、請求項1に記載の発明は、記録再生装置において、音声データ及び映像データを含むコンテンツデータを受信する受信手段と、
前記受信手段により受信された前記コンテンツデータを記録する記録手段と、
前記記録手段により記録された前記コンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記コンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記コンテンツデータのタイトル情報を作成する作成手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention described in claim 1 is a recording / reproducing apparatus, wherein receiving means for receiving content data including audio data and video data;
Recording means for recording the content data received by the receiving means;
Reproducing means for reproducing the content data recorded by the recording means, outputting audio based on the audio data from an audio output unit, and displaying video based on the video data on a display unit;
Marking means for marking the audio output from the audio output unit when the content data is reproduced by the reproduction means;
Acquisition means for acquiring audio data or video data at a predetermined reproduction position based on the audio data of the audio marked by the marking means or the reproduction position of the audio data;
Creating means for creating title information of the content data recorded by the recording means based on the audio data or the video data obtained by the obtaining means;
It is characterized by providing.

請求項2に記載の発明は、請求項1に記載の記録再生装置において、前記コンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段を備え、
前記取得手段は、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする。
The invention described in claim 2 is the recording / reproducing apparatus according to claim 1, further comprising storage means for storing a predetermined reproduction position in the content data where the audio marked by the marking means is reproduced,
The acquisition unit acquires audio data or video data included in second content data belonging to the same series as the content data based on the predetermined reproduction position stored by the storage unit;
The creation means creates title information of the second content data based on the audio data or the video data acquired by the acquisition means.

請求項3に記載の発明は、請求項1に記載の記録再生装置において、前記コンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声データを記憶する記憶手段を備え、
前記取得手段は、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータから、前記記憶手段により記憶された前記音声データが再生される再生位置を検出し、検出された再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする。
Invention of Claim 3 is provided with the memory | storage means to memorize | store the said audio | voice data marked by the said marking means in the said content data in the recording / reproducing apparatus of Claim 1.
The acquisition unit detects a reproduction position where the audio data stored in the storage unit is reproduced from second content data belonging to the same series as the content data, and based on the detected reproduction position, Obtaining audio data or video data included in the second content data;
The creation means creates title information of the second content data based on the audio data or the video data acquired by the acquisition means.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の記録再生装置において、前記取得手段は、音声データを取得し、前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする。   According to a fourth aspect of the present invention, in the recording / reproducing apparatus according to any one of the first to third aspects, the acquisition unit acquires audio data, and the creation unit is acquired by the acquisition unit. The voice data is converted into character data, and title information including at least a part of characters based on the character data is created.

請求項5に記載の発明は、請求項1〜3の何れか一項に記載の記録再生装置において、前記取得手段は、映像データを取得し、前記作成手段は、前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする。   According to a fifth aspect of the present invention, in the recording / reproducing apparatus according to any one of the first to third aspects, the acquisition unit acquires video data, and the generation unit is acquired by the acquisition unit. Character data included in the video data is acquired, and title information including at least a part of characters based on the character data is created.

請求項6に記載の発明は、記録再生装置において、音声データ及び映像データを含む第1のコンテンツデータ及び当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータを受信する受信手段と、
前記受信手段により受信された前記第1のコンテンツデータ及び前記第2のコンテンツデータを記録する記録手段と、
前記記録手段により記録された前記第1のコンテンツデータ及び前記第2のコンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記第1のコンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得するとともに、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記第1のコンテンツデータのタイトル情報及び前記第2のコンテンツデータのタイトル情報を作成する作成手段と、
を備え、
前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成又は前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする。
According to a sixth aspect of the present invention, in the recording / reproducing apparatus, receiving means for receiving first content data including audio data and video data and second content data belonging to the same series as the first content data; ,
Recording means for recording the first content data and the second content data received by the receiving means;
The first content data and the second content data recorded by the recording unit are reproduced to output audio based on the audio data from an audio output unit, and an image based on the video data is displayed on the display unit. Playback means to display;
Marking means for marking the audio output from the audio output unit when the reproduction means reproduces the first content data;
Storage means for storing a predetermined reproduction position at which the sound marked by the marking means is reproduced in the first content data;
In the first content data, the audio data marked by the marking means or the audio data or video data at a predetermined reproduction position based on the reproduction position of the audio data is acquired and stored by the storage means. Acquisition means for acquiring audio data or video data included in the second content data based on the predetermined reproduction position;
Creation means for creating title information of the first content data and title information of the second content data recorded by the recording means based on the audio data or the video data obtained by the obtaining means; ,
With
The creation means converts the audio data acquired by the acquisition means into character data, creates title information including at least a part of characters based on the character data, or adds the video data acquired by the acquisition means Character data included is obtained, and title information including at least a part of characters based on the character data is created.

本発明によれば、受信手段により、音声データ及び映像データを含むコンテンツデータが受信され、記録手段により、受信手段により受信されたコンテンツデータが記録され、再生手段により、記録手段により記録されたコンテンツデータが再生されて、音声データに基づく音声が音声出力部から出力されるとともに、映像データに基づく映像が表示部に表示され、マーキング手段により、再生手段によるコンテンツデータの再生時に、音声出力部から出力される音声がマーキングされ、取得手段により、マーキング手段によりマーキングされた音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データが取得され、作成手段により、取得手段により取得された音声データ又は映像データに基づいて、記録手段により記録されたコンテンツデータのタイトル情報が作成される。
即ち、コンテンツデータの再生時に、再生される音声をマーキングすると、その音声の音声データ又は当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データに基づいてタイトル情報が作成されることとなる。したがって、記録再生装置において、コンテンツデータに含まれる音声データ又は映像データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる。
According to the present invention, the content data including audio data and video data is received by the receiving means, the content data received by the receiving means is recorded by the recording means, and the content recorded by the recording means by the reproducing means The data is reproduced, and the audio based on the audio data is output from the audio output unit, and the video based on the video data is displayed on the display unit. When the content data is reproduced by the reproducing unit by the marking unit, the audio output unit The output audio is marked, and the acquisition means acquires the audio data of the audio marked by the marking means or the audio data or video data at a predetermined reproduction position based on the reproduction position of the audio data, and acquires it by the creation means Based on audio data or video data acquired by There are, title information of the recorded content data is generated by the recording means.
That is, when the audio to be reproduced is marked during the reproduction of the content data, title information is created based on the audio data of the audio or the audio data or video data at a predetermined reproduction position based on the reproduction position of the audio data. It becomes. Therefore, in the recording / playback apparatus, it is possible to create the title of the recorded content more in line with the user's intention by an easy operation using audio data or video data included in the content data.

(実施形態1)
以下、本発明の実施形態1を、図面を参照しながら詳細に説明する。
本実施形態1の記録再生装置は、例えば、DVDレコーダであるものとして説明を行う。
なお、記録再生装置は、DVDレコーダに限られることなく、BD(Blue-ray Disc)レコーダ、D−VHSレコーダ等であっても良い。
(Embodiment 1)
Hereinafter, Embodiment 1 of the present invention will be described in detail with reference to the drawings.
The recording / reproducing apparatus of the first embodiment will be described as being a DVD recorder, for example.
The recording / reproducing apparatus is not limited to the DVD recorder, but may be a BD (Blue-ray Disc) recorder, a D-VHS recorder, or the like.

まず、図1を参照しながら、実施形態1のDVDレコーダ100の要部構成について説明する。
DVDレコーダ100は、テレビジョン放送局から伝送される放送信号を受信して、受信した放送信号に含まれるコンテンツデータの記録及び再生を行う。DVDレコーダ100には、テレビジョン受像機300等の外部装置が接続されており、DVD61に記録されたコンテンツデータは、このテレビジョン受像機300に出力されて視聴者に提供される。
First, the main configuration of the DVD recorder 100 according to the first embodiment will be described with reference to FIG.
The DVD recorder 100 receives a broadcast signal transmitted from a television broadcast station, and records and reproduces content data included in the received broadcast signal. The DVD recorder 100 is connected to an external device such as a television receiver 300, and the content data recorded on the DVD 61 is output to the television receiver 300 and provided to the viewer.

DVDレコーダ100は、例えば、キー入力部1、放送局から送信された放送信号を受信して、当該放送信号のうちから所定の放送チャンネルの放送信号を選局して、コンテンツデータ(第1のコンテンツデータ、第2のコンテンツデータ)を抽出するチューナ2、チューナ2から入力されたコンテンツデータに対して所定の圧縮処理を行うエンコーダ部3、チューナ2から入力されたコンテンツデータを解析して映像データを取得する解析部4、コンテンツデータの入出力を制御して、エンコーダ部3から入力されたコンテンツデータをDVDドライブ部6に供給するとともに、DVDドライブ部6から取り込んだコンテンツデータをデコーダ部7に供給するデータプロセッサ5、DVD61に対して放送番組データの記録及び再生を行うDVDドライブ部6、DVDドライブ部6から出力された放送番組データに所定の伸張処理を行うデコーダ部7、映像データに含まれる文字を認識する文字認識部8、音声データを音声認識してテキストデータに変換する音声認識部9、文字認識部8から入力されるテキストデータ・音声認識部9から入力されるテキストデータ・ビデオデコーダ72から入力される付加情報(番組配列情報(SI: Service Information))に基づいてタイトル情報を作成するタイトル情報作成部10、OSDデータ等を映像信号に合成するミキシング部11、DVDレコーダ100全体を統括制御する制御部12等を備えて構成されている。   For example, the DVD recorder 100 receives a broadcast signal transmitted from the key input unit 1 and the broadcast station, selects a broadcast signal of a predetermined broadcast channel from the broadcast signal, and selects content data (first data Tuner 2 for extracting content data, second content data), encoder unit 3 for performing predetermined compression processing on content data input from tuner 2, and content data input from tuner 2 to analyze video data The content data input from the encoder unit 3 is supplied to the DVD drive unit 6 and the content data fetched from the DVD drive unit 6 is supplied to the decoder unit 7. Broadcast program data is recorded and reproduced on the supplied data processor 5 and DVD 61. VD drive unit 6, decoder unit 7 for performing predetermined decompression processing on broadcast program data output from DVD drive unit 6, character recognition unit 8 for recognizing characters included in video data, text data by voice recognition of voice data Additional information (program sequence information (SI: Service Information)) input from the speech recognition unit 9 to be converted into text data, text data input from the character recognition unit 8, text data input from the speech recognition unit 9, and video decoder 72 1 includes a title information creating unit 10 that creates title information, a mixing unit 11 that synthesizes OSD data and the like into a video signal, a control unit 12 that controls the entire DVD recorder 100, and the like.

キー入力部1は、例えば、機器本体を遠隔操作するリモートコントローラ等であり、各種キーの押下に基づいてリモコン信号を生成し、機器本体の制御部12に対して出力する。具体的には、キー入力部1には、図示は省略するが、電源キー、テンキー、メニューキー、EPG(電子番組ガイド)表示キー、上キー・下キー・左キー・右キーから成るカーソルキー、決定キー、クリアキー、音声切替キー、リターンキー、チャンネルアップ/ダウンキー、ボリュームアップ/ダウンキー等の各種キーが備わる。
また、キー入力部1には、第1のコンテンツデータの再生時に、所望の音声をマーキングしてタイトルの作成を指示するためのタイトル作成キー1aが備わる。当該タイトル作成キー1aが操作されると、後述するマーキングプログラム125d、記憶プログラム125e、取得プログラム125f、作成プログラム125gが実行され、マーキングされた音声又はマーキングされた音声に基づく所定の再生位置の音声又は映像に基づく第1のコンテンツデータのタイトル情報が作成されることとなる。
The key input unit 1 is, for example, a remote controller that remotely operates the device main body, and generates a remote control signal based on pressing of various keys and outputs the remote control signal to the control unit 12 of the device main body. Specifically, although not shown, the key input unit 1 includes a power key, a numeric keypad, a menu key, an EPG (electronic program guide) display key, a cursor key including an up key, a down key, a left key, and a right key. Various keys such as a determination key, a clear key, a voice switching key, a return key, a channel up / down key, and a volume up / down key are provided.
The key input unit 1 is provided with a title creation key 1a for marking a desired voice and instructing creation of a title when the first content data is reproduced. When the title creation key 1a is operated, a marking program 125d, a storage program 125e, an acquisition program 125f, and a creation program 125g, which will be described later, are executed, and the marked voice or the voice at a predetermined reproduction position based on the marked voice or The title information of the first content data based on the video is created.

また、タイトル作成キー1aの操作により、第1のコンテンツデータのタイトル情報が作成されると、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータのタイトル情報が作成される。
特に、本実施形態1では、第1のコンテンツデータにおいてマーキングされた音声の再生位置が記憶され、第2のコンテンツデータにおける当該再生位置の音声データ若しくは当該再生位置に基づく所定の再生位置の音声データ又は映像データに基づいて、第2のコンテンツデータのタイトル情報が作成される。
タイトル作成キー1aに基づく第1のコンテンツデータのタイトル情報及び第2のコンテンツデータのタイトル情報の作成方法については、作成プログラム125gの説明において詳述する。
When title information of the first content data is created by operating the title creation key 1a, title information of the second content data belonging to the same series as the first content data is created.
In particular, in the first embodiment, the reproduction position of the audio marked in the first content data is stored, and the audio data at the reproduction position in the second content data or the audio data at a predetermined reproduction position based on the reproduction position. Alternatively, the title information of the second content data is created based on the video data.
A method for creating the title information of the first content data and the title information of the second content data based on the title creation key 1a will be described in detail in the description of the creation program 125g.

ここで、第1のコンテンツデータとは、当該コンテンツデータがシリーズ形式の番組である場合に、タイトル情報が作成される最初の番組を指す。また、コンテンツデータがシリーズ形式の番組でなく単発の番組である場合であっても、タイトル情報が作成される番組は第1のコンテンツデータとされる。
一方、第2のコンテンツデータとは、同一のシリーズに属するコンテンツデータであって既にタイトル情報が作成されているコンテンツデータ(第1のコンテンツデータ)が存在する場合に、二番目以降にタイトル情報が作成される番組を指す。
Here, the first content data refers to the first program for which title information is created when the content data is a series program. Even if the content data is not a series program but a single program, the program for which the title information is created is the first content data.
On the other hand, the second content data is content data that belongs to the same series and content data (first content data) for which title information has already been created exists. Refers to the program to be created.

即ち、例えば、『きかんしゃトー○ス』(シリーズ名)というシリーズものの番組を、第1話から順に録画する場合、例えば、第1話の再生時に、タイトル作成キー1aを操作して第1話のタイトル情報を一番初めに作成すると、当該第1話が「第1のコンテンツデータ」とされ、第2話以降が「第2のコンテンツデータ」とされる。
また、例えば、第2話の再生時に、タイトル作成キー1aを操作して第2話のタイトル情報を一番初めに作成すると、第2話が「第1のコンテンツデータ」とされ、第1話及び第3話以降が「第2のコンテンツデータ」とされる。
That is, for example, when recording a program of a series “Kikansha Tous” (series name) in order from the first episode, for example, when the first episode is played, the title creation key 1a is operated to operate the first episode. When title information is created first, the first episode is set as “first content data”, and the second and subsequent episodes are set as “second content data”.
Also, for example, when the title information of the second episode is created first by operating the title creation key 1a during the reproduction of the second episode, the second episode is designated as “first content data”, and the first episode The third and subsequent episodes are referred to as “second content data”.

チューナ2は、例えば、高周波増幅回路と、局部発振回路及び混合回路から成る周波数変換回路と、を備えて構成されており、アンテナ等により入力されたデジタルテレビジョン放送信号(RF信号)と、局部発振回路から出力される局部発振信号とを混合回路により混合し、当該放送信号の周波数を選局するための制御部12からの制御出力に応じて、特定周波数帯のデジタルテレビジョン放送信号を受信する。そして当該受信したデジタル放送信号に所定の処理を行うことによりTSに変換し、必要なTSパケットを取り出してエンコーダ部3に出力する。   The tuner 2 is configured to include, for example, a high-frequency amplifier circuit and a frequency conversion circuit including a local oscillation circuit and a mixing circuit, and a digital television broadcast signal (RF signal) input by an antenna or the like, A local oscillation signal output from the oscillation circuit is mixed by a mixing circuit, and a digital television broadcast signal in a specific frequency band is received according to a control output from the control unit 12 for selecting the frequency of the broadcast signal. To do. The received digital broadcast signal is converted into a TS by performing a predetermined process, and a necessary TS packet is taken out and output to the encoder unit 3.

エンコーダ部3は、例えば、入力されるコンテンツデータ(第1のコンテンツデータ、第2のコンテンツデータ)をDVDドライブ部6においてDVD61に書き込み可能なファイル形式にエンコードし、データプロセッサ5に供給する。
解析部4は、チューナ2から入力される第2のコンテンツデータとしてのTSを解析して、第1のコンテンツデータにおいてマーキングされた音声データの再生位置の音声データ、若しくは、第1のコンテンツデータにおいてマーキングされた音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する。
For example, the encoder unit 3 encodes input content data (first content data and second content data) into a file format that can be written to the DVD 61 in the DVD drive unit 6 and supplies the encoded data to the data processor 5.
The analysis unit 4 analyzes the TS as the second content data input from the tuner 2, and the audio data at the reproduction position of the audio data marked in the first content data or the first content data Audio data or video data at a predetermined reproduction position based on the reproduction position of the marked audio data is acquired.

データプロセッサ5は、例えば、CPU121からの制御出力に基づいて、データの入出力経路を設定して、データの入力及び出力を制御する。
例えば、記録処理では、エンコーダ部3から入力されたコンテンツデータに対して、誤り訂正符号化、8−16変調等を行い、一旦バッファメモリ51に貯めた後に、CPU121からの制御出力に応じてDVDドライブ部6に出力する。また、再生時に必要な管理情報を、コンテンツデータとともに、DVDドライブ部6に出力して記録させる。
一方、再生処理では、DVDドライブ部6から読み込んだコンテンツデータに対して、波形等価、A/D変換、8−16復調、誤り訂正復号等を行い、一旦バッファメモリ51に貯めた後に、CPU121からの制御出力に応じてデコーダ部7に出力する。
For example, the data processor 5 sets a data input / output path based on a control output from the CPU 121 and controls data input and output.
For example, in the recording process, the content data input from the encoder unit 3 is subjected to error correction coding, 8-16 modulation, and the like, temporarily stored in the buffer memory 51, and then stored in the DVD according to the control output from the CPU 121. Output to the drive unit 6. Also, management information necessary for reproduction is output to the DVD drive unit 6 and recorded together with the content data.
On the other hand, in the reproduction process, the waveform data, A / D conversion, 8-16 demodulation, error correction decoding, and the like are performed on the content data read from the DVD drive unit 6, and once stored in the buffer memory 51, Is output to the decoder unit 7 in accordance with the control output.

DVDドライブ部6は、例えば、DVDドライブ部6に対して着脱自在なDVD61、DVD61に対する放送番組データの記録及びDVD61に記録された放送番組データの読み出しを行う光ピックアップ62、装填されたDVD61を回転させるスピンドルモータ63、光ピックアップ62をDVD61の半径方向に移動させる送りモータ64等を備えている。
DVD61は、例えば、書き換え可能なDVD−RAM(Random Access Memory)である。DVDドライブ部6では、記録処理において、光ピックアップ62により、DVD61の反射層にレーザ光を照射して、照射光による加熱により記録層の結晶状態を変化させて結晶部・非晶質部を形成することにより、DVD61に対するデータの書き込みを行う。一方、再生処理において、光ピックアップ62によりDVD61の反射層にレーザ光を照射し、光電変換及び電流電圧変換によって反射光に応じた電圧信号を生成することにより、DVD61に記録されたデータの読み出しを行う。
The DVD drive unit 6 is, for example, a DVD 61 that is detachable from the DVD drive unit 6, an optical pickup 62 that records broadcast program data on the DVD 61, and reads out broadcast program data recorded on the DVD 61, and rotates the loaded DVD 61. A spindle motor 63 for moving the optical pickup 62 and a feed motor 64 for moving the optical pickup 62 in the radial direction of the DVD 61 are provided.
The DVD 61 is, for example, a rewritable DVD-RAM (Random Access Memory). In the DVD drive unit 6, in the recording process, the optical pickup 62 irradiates the reflective layer of the DVD 61 with laser light, and changes the crystal state of the recording layer by heating with the irradiation light, thereby forming a crystal part / amorphous part. As a result, data is written to the DVD 61. On the other hand, in the reproduction process, the optical pickup 62 irradiates the reflective layer of the DVD 61 with laser light, and generates a voltage signal corresponding to the reflected light by photoelectric conversion and current-voltage conversion, thereby reading the data recorded on the DVD 61. Do.

デコーダ部7は、例えば、分離部71、ビデオデコーダ72、オーディオデコーダ73、データデコーダ74等を備えて構成されている。
分離部71は、DVDドライブ部6からデータプロセッサ5を介して出力されたデータストリームを、ビデオストリーム、オーディオストリーム、サブピクチャストリーム等の複数のストリームに分離する。
ビデオデコーダ72は、分離部71から入力されるビデオストリームをデコードする。具体的には、ビデオデコーダ72は、ビデオストリームに、可変長復号化、逆量子化、逆DCT、動き補正等の各種処理を行うことでデコードする。
オーディオデコーダ73は、分離部71から入力されるオーディオストリームを伸張する。
データデコーダ74は、分離部71から入力されたサブピクチャストリームをデコードする。
ミキシング部11は、ビデオデコーダ72においてデコードされたビデオストリームに対して、データデコーダ74から入力されるOSDデータ等を合成する。
デコードされたビデオデータは、図示しないメモリに一旦格納された後に、各コマの表示時間情報に応じた所定の再生タイミングで、DVDレコーダ100に接続されたテレビジョン受像機300の表示部300aに出力されることとなる。また、デコードされた音声データは、テレビジョン受像機300の音声出力部300bに出力されることとなる。
The decoder unit 7 includes, for example, a separation unit 71, a video decoder 72, an audio decoder 73, a data decoder 74, and the like.
The separation unit 71 separates the data stream output from the DVD drive unit 6 via the data processor 5 into a plurality of streams such as a video stream, an audio stream, and a sub-picture stream.
The video decoder 72 decodes the video stream input from the separation unit 71. Specifically, the video decoder 72 decodes the video stream by performing various processes such as variable length decoding, inverse quantization, inverse DCT, and motion correction.
The audio decoder 73 decompresses the audio stream input from the separation unit 71.
The data decoder 74 decodes the sub picture stream input from the separation unit 71.
The mixing unit 11 synthesizes the OSD data input from the data decoder 74 with the video stream decoded by the video decoder 72.
The decoded video data is temporarily stored in a memory (not shown) and then output to the display unit 300a of the television receiver 300 connected to the DVD recorder 100 at a predetermined reproduction timing corresponding to the display time information of each frame. Will be. The decoded audio data is output to the audio output unit 300b of the television receiver 300.

文字認識部8は、例えば、単語辞書81を備え、制御部12の制御に従い、第1のコンテンツデータのタイトル作成処理に際して、ビデオデコーダ72から入力される映像データに対して文字認識処理を行って、映像データに含まれるテキストデータを抽出する。また、第2のコンテンツデータのタイトル作成処理に際して、解析部4から入力される映像データに対して文字認識処理を行って、映像データに含まれるテキストデータを抽出する。
文字認識処理では、映像データに含まれる文字列を取り込んでデジタル化し、デジタル化された文字列に対して文字認識を行う。そして、文字認識された文字の文字コードが、タイトル情報作成部10に入力される。
For example, the character recognition unit 8 includes a word dictionary 81, and performs character recognition processing on video data input from the video decoder 72 during the title creation processing of the first content data in accordance with the control of the control unit 12. The text data included in the video data is extracted. In addition, in the title creation processing of the second content data, character recognition processing is performed on the video data input from the analysis unit 4 to extract text data included in the video data.
In the character recognition process, a character string included in video data is captured and digitized, and character recognition is performed on the digitized character string. Then, the character code of the recognized character is input to the title information creation unit 10.

音声認識部9は、例えば、音声認識辞書91を備え、制御部12の制御に従い、第1のコンテンツデータのタイトル作成処理に際して、オーディオデコーダ73から入力される音声データに対して音声認識処理を行って、音声データをテキストデータに変換する。また、第2のコンテンツデータのタイトル作成処理に際して、解析部4から入力される音声データに際して音声認識処理を行って、音声データテキストデータに変換する。
音声認識処理では、所定の音声認識モデル(例えば、隠れマルコフモデル等)に基づいて、音声認識を行う。そして、音声認識処理によりテキスト変換された文字の文字コードがタイトル情報作成部10に入力される。
The voice recognition unit 9 includes, for example, a voice recognition dictionary 91, and performs voice recognition processing on the voice data input from the audio decoder 73 during the title creation processing of the first content data in accordance with the control of the control unit 12. The voice data is converted to text data. In addition, in the title creation processing of the second content data, speech recognition processing is performed on the speech data input from the analysis unit 4 to convert it into speech data text data.
In the speech recognition process, speech recognition is performed based on a predetermined speech recognition model (for example, a hidden Markov model). Then, the character code of the character converted into the text by the voice recognition process is input to the title information creation unit 10.

タイトル情報作成部10は、文字認識部8から入力されるテキストデータ、音声認識部9から入力されるテキストデータ、データデコーダ74から入力される付加情報(番組配列情報)等に基づいて、タイトル情報を作成する。さらに、作成したタイトル情報を、データプロセッサ5を介してDVDドライブ部6に出力する。
タイトル情報作成部10から入力されるタイトル情報は、DVDドライブ部6において、番組と対応付けてDVD61に記憶される。
ここで、本発明において、タイトル情報とは、取得された映像データから抽出される文字、取得された音声がテキスト変換されることにより得られる文字、コンテンツデータの付加情報(番組配列情報)に含まれるシリーズ名(オリジナルタイトル)等のうち、少なくとも一つを含む情報である。
The title information creation unit 10 performs title information based on text data input from the character recognition unit 8, text data input from the speech recognition unit 9, additional information (program sequence information) input from the data decoder 74, and the like. Create Further, the created title information is output to the DVD drive unit 6 via the data processor 5.
The title information input from the title information creation unit 10 is stored in the DVD 61 in association with the program in the DVD drive unit 6.
Here, in the present invention, the title information includes characters extracted from the acquired video data, characters obtained by converting the acquired audio into text, and additional information (program arrangement information) of content data. Information including at least one of a series name (original title) and the like.

制御部12は、CPU(Central Processing Unit)121、現在時刻を計時する計時部122、RAM(Random Access Memory)123、再生位置記憶部124、ROM(Read Only Memory)125等を備えて構成されている。   The control unit 12 includes a CPU (Central Processing Unit) 121, a time measuring unit 122 that measures the current time, a RAM (Random Access Memory) 123, a reproduction position storage unit 124, a ROM (Read Only Memory) 125, and the like. Yes.

CPU121は、各部から入力された入力信号に応じて、ROM125に格納された各種プログラムを実行するとともに、実行にかかるプログラムに基づいて各部に出力信号を出力することにより、DVDレコーダ100の動作全般を統括制御する。   The CPU 121 executes various programs stored in the ROM 125 in accordance with input signals input from the respective units, and outputs output signals to the respective units based on the execution programs, so that the overall operation of the DVD recorder 100 is performed. Take overall control.

RAM123は、例えば、CPU121によって各種プログラムが実行される際に生じる処理結果や、入力されたデータ等を記憶する。
再生位置記憶部124は、EPROM(Erasable Programmable ROM)等により構成され、後述する記憶プログラム125eの実行において、タイトル作成キー1aの操作によりマーキングされた音声の所定の再生位置を、番組(シリーズ)毎に記憶する。
The RAM 123 stores, for example, processing results generated when various programs are executed by the CPU 121, input data, and the like.
The reproduction position storage unit 124 is configured by an EPROM (Erasable Programmable ROM) or the like, and a predetermined reproduction position of the voice marked by the operation of the title creation key 1a in the execution of the storage program 125e described later is displayed for each program (series). To remember.

ROM125は、不揮発性メモリから成るプログラム格納エリアを有しており、具体的には、受信プログラム125a、記録プログラム125b、再生プログラム125c、マーキングプログラム125d、記憶プログラム125e、取得プログラム125f、作成プログラム125g等を記憶している。   The ROM 125 has a program storage area composed of a non-volatile memory. Specifically, the reception program 125a, the recording program 125b, the reproduction program 125c, the marking program 125d, the storage program 125e, the acquisition program 125f, the creation program 125g, etc. Is remembered.

受信プログラム125aは、例えば、CPU121に、音声データ及び映像データを含む第1のコンテンツデータ及び当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータを受信する機能を実現させるためのプログラムである。
具体的には、CPU121は、キー入力部1において、番組の録画を指示する旨の操作が行われると、チューナ2を特定周波数帯に同調させ、放送信号を受信する。また、シリーズ形式の番組の録画が予約されると、予約された番組の放送開始時刻から放送受信時刻まで、当該番組の放送信号を受信する。さらに、受信したTSから、録画番組のTSパケット(コンテンツデータ、第1のコンテンツデータ、第2のコンテンツデータ)を取得してエンコーダ部3に出力する。
CPU121は、かかる受信プログラム125aを実行することにより、チューナ2とともに受信手段として機能する。
The reception program 125a is, for example, a program for causing the CPU 121 to realize a function of receiving first content data including audio data and video data and second content data belonging to the same series as the first content data. It is.
Specifically, when the key input unit 1 performs an operation to instruct recording of a program, the CPU 121 tunes the tuner 2 to a specific frequency band and receives a broadcast signal. Further, when recording of a series-type program is reserved, the broadcast signal of the program is received from the broadcast start time of the reserved program to the broadcast reception time. Furthermore, TS packets (content data, first content data, and second content data) of the recorded program are acquired from the received TS and output to the encoder unit 3.
The CPU 121 functions as a receiving unit together with the tuner 2 by executing the receiving program 125a.

記録プログラム125bは、受信プログラム125aの実行により受信された第1のコンテンツデータ及び第2のコンテンツデータを記録する機能を実現させるためのプログラムである。
具体的には、CPU121は、チューナ2において取り出した第1のコンテンツデータ又は第2のコンテンツデータを、エンコーダ部3においてDVD61に記録可能なファイル形式にエンコードし、データプロセッサ5において、誤り訂正符号化、8−16変調等を行って、DVDドライブ部6においてDVD61に記録させる。CPU121は、同一シリーズに属する番組を、互いに対応づけて記録させる。
CPU121は、かかる記録プログラム125bを実行することにより、DVDドライブ部6とともに記録手段として機能する。
The recording program 125b is a program for realizing a function of recording the first content data and the second content data received by the execution of the reception program 125a.
Specifically, the CPU 121 encodes the first content data or the second content data extracted by the tuner 2 into a file format that can be recorded on the DVD 61 by the encoder unit 3, and the data processor 5 performs error correction coding. , 8-16 modulation or the like is performed, and the DVD drive unit 6 records the data on the DVD 61. The CPU 121 records programs belonging to the same series in association with each other.
The CPU 121 functions as a recording unit together with the DVD drive unit 6 by executing the recording program 125b.

再生プログラム125cは、例えば、CPU121に、記録プログラム125bの実行により記録された第1のコンテンツデータ及び第2のコンテンツデータを再生して、音声データに基づく音声を音声出力部300bから出力させるとともに、映像データに基づく映像を表示部300aに表示させる機能を実現させるためのプログラムである。
具体的には、CPU121は、キー入力部1において、DVD61に記録された番組の再生を指示する旨の操作が行われると、DVDドライブ部6において、DVD61に記録されたコンテンツデータ(第1のコンテンツデータ又は第2のコンテンツデータ)を読出し、8−16復調、誤り訂正復号等を行って、デコーダ部7に送る。さらに、分離部71において、ビデオストリーム、オーディオストリーム、データストリームに分離した後に、各ストリームを、ビデオデコーダ72、オーディオデコーダ73、データデコーダ74において、それぞれデコードし、機器本体に接続されたテレビジョン受像機300の音声出力部300bから音声を出力させるとともに、表示部300aに映像を表示させる。
CPU121は、かかる再生プログラム125cを実行することにより、再生手段として機能する。
The reproduction program 125c, for example, causes the CPU 121 to reproduce the first content data and the second content data recorded by the execution of the recording program 125b, and to output audio based on the audio data from the audio output unit 300b. This is a program for realizing a function of displaying video based on video data on the display unit 300a.
Specifically, when the key input unit 1 performs an operation for instructing reproduction of a program recorded on the DVD 61, the CPU 121 causes the DVD drive unit 6 to execute content data (first data) recorded on the DVD 61. Content data or second content data) is read out, subjected to 8-16 demodulation, error correction decoding, and the like, and sent to the decoder unit 7. Further, after the separation unit 71 separates the video stream, the audio stream, and the data stream, the video decoder 72, the audio decoder 73, and the data decoder 74 decode the streams, respectively, and the television receiver connected to the apparatus main body. The audio is output from the audio output unit 300b of the machine 300 and the video is displayed on the display unit 300a.
The CPU 121 functions as a playback unit by executing the playback program 125c.

マーキングプログラム125dは、例えば、CPU121に、再生プログラム125cの実行による第1のコンテンツデータの再生時に、音声出力部300bから出力される音声をマーキングする機能を実現させるためのプログラムである。
具体的には、ユーザは、タイトルに含めたい情報(放送回のタイトルや登場人物等)が音声や映像で提供される際に、毎回決まったタイミング(例えば、同時又は直前等)に、毎回決まって使われるメロディ・決まり文句等を、タイトル作成キー1aによりマーキングする。より具体的には、ユーザは、第1のコンテンツデータの再生時に、テレビジョン受像機300の音声出力部300bから出力される音声又は表示部300aに表示される映像を視聴し、タイトル情報に含めたい音声や映像が出力されている間に、キー入力部1のタイトル作成キー1aを押下する。または、ユーザは、第1のコンテンツデータの再生時に、テレビジョン受像機300の音声出力部300bから出力される音声又は表示部300aに表示される映像を視聴し、タイトル情報に含めたい音声や映像が出力される所定時間前(例えば、1秒間前)に、キー入力部1のタイトル作成キー1aを押下する。
すると、CPU121は、タイトル作成キー1aの押下に基づいて、キーが押下されている間に音声出力部300bから出力されていた音声を、マーキング音声として決定する。
CPU121は、かかるマーキングプログラム125dを実行することにより、タイトル作成キー1aとともに、マーキング手段として機能する。
For example, the marking program 125d is a program for causing the CPU 121 to realize a function of marking the sound output from the sound output unit 300b when the first content data is played back by executing the playback program 125c.
Specifically, the user decides every time at a predetermined timing (for example, at the same time or immediately before) when information (titles or characters of broadcast times) desired to be included in the title is provided by audio or video. Mark the melody and phrases used by the title creation key 1a. More specifically, when playing back the first content data, the user views the audio output from the audio output unit 300b of the television receiver 300 or the video displayed on the display unit 300a, and includes it in the title information. While the desired audio or video is being output, the title creation key 1a of the key input unit 1 is pressed. Alternatively, when the user reproduces the first content data, the user views the audio output from the audio output unit 300b of the television receiver 300 or the video displayed on the display unit 300a, and the audio or video that the user wants to include in the title information. The title creation key 1a of the key input unit 1 is pressed before a predetermined time (for example, one second before) is output.
Then, based on the pressing of the title creation key 1a, the CPU 121 determines the voice output from the audio output unit 300b while the key is pressed as the marking voice.
The CPU 121 functions as a marking unit together with the title creation key 1a by executing the marking program 125d.

記憶プログラム125eは、例えば、CPU121に、第1のコンテンツデータにおける、マーキングプログラム125dの実行によりマーキングされ、再生位置記憶部124に記憶された音声が再生される所定の再生位置を記憶する機能を実現させるためのプログラムである。
具体的には、CPU121は、マーキングプログラム125dの実行により、タイトル作成キー1aが押下されている間に音声出力部300bから出力されている音声がマーキング音声として決定されると、当該マーキング音声の所定の再生位置を決定する。
所定の再生位置は、例えば、番組の放送開始からの経過時間で示される。また、当該所定の再生位置は、キーの押下時間の情報も含む。再生位置が決定されると、CPU121は、その再生位置に関する情報(例えば、番組の放送開始からの経過時間データ)を、当該番組・シリーズの識別情報とともに、再生位置記憶部124に記憶させる。
CPU121は、かかる記憶プログラム125eを実行することにより、再生位置記憶部124とともに、記憶手段として機能する。
The storage program 125e, for example, realizes a function of storing a predetermined reproduction position at which the sound stored in the reproduction position storage unit 124 is reproduced in the CPU 121 by executing the marking program 125d in the first content data. It is a program to make it.
Specifically, when the voice output from the voice output unit 300b is determined as the marking voice while the title creation key 1a is pressed by executing the marking program 125d, the CPU 121 determines the predetermined marking voice. Determine the playback position.
The predetermined reproduction position is indicated by, for example, an elapsed time from the start of program broadcasting. In addition, the predetermined reproduction position includes information on a key pressing time. When the playback position is determined, the CPU 121 causes the playback position storage unit 124 to store information related to the playback position (for example, elapsed time data from the start of broadcast of the program) together with identification information of the program / series.
The CPU 121 functions as a storage unit together with the reproduction position storage unit 124 by executing the storage program 125e.

取得プログラム125fは、例えば、CPU121に、第1のコンテンツデータにおける、マーキングプログラム125dの実行によりマーキングされた音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得するとともに、記憶プログラム125eの実行により記憶された所定の再生位置に基づいて、第2のコンテンツデータに含まれる音声データ又は映像データを取得する機能を実現させるためのプログラムである。
CPU121は、かかる取得プログラム125fを実行することにより、DVDドライブ部6、解析部4とともに、取得手段として機能する。
The acquisition program 125f, for example, gives the CPU 121 the audio data or audio data of a predetermined reproduction position based on the audio data marked by execution of the marking program 125d in the first content data or the reproduction position of the audio data. It is a program for realizing the function of acquiring audio data or video data included in the second content data based on a predetermined reproduction position stored by execution of the storage program 125e.
The CPU 121 functions as an acquisition unit together with the DVD drive unit 6 and the analysis unit 4 by executing the acquisition program 125f.

作成プログラム125gは、例えば、CPU121に、取得プログラム125fの実行により取得された音声データ又は映像データに基づいて、記録プログラム125bの実行により記録された第1のコンテンツデータのタイトル情報及び第2のコンテンツデータのタイトル情報を作成する機能を実現させるためのプログラムである。当該作成プログラム125gは、取得プログラム125fの実行により取得された音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成、又は、取得プログラム125fの実行により取得された映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成する。
CPU121は、かかる作成プログラム125gを実行することにより、タイトル情報作成部10とともに、作成手段として機能する。
The creation program 125g is, for example, the title information and the second content of the first content data recorded by the execution of the recording program 125b based on the audio data or the video data acquired by the CPU 121 by the execution of the acquisition program 125f. This is a program for realizing the function of creating data title information. The creation program 125g converts voice data acquired by the execution of the acquisition program 125f into character data, and creates title information including at least a part of characters based on the character data, or is acquired by execution of the acquisition program 125f. Character data included in the video data is acquired, and title information including at least a part of characters based on the character data is created.
The CPU 121 functions as a creation unit together with the title information creation unit 10 by executing the creation program 125g.

タイトル情報の作成方法は、図2に例示するメニュー画面において予めユーザにより選択されている。図2のメニュー画面では、例えば、4つのタイトル作成方法を選択できるようになっている。
例えば、第1に、タイトル作成キー1aによりマーキングした音声をテキスト変換してタイトル情報を作成する方法である。
第2に、タイトル作成キー1aによりマーキングした音声の再生中に、表示部300aに表示される映像内の文字をテキスト変換してタイトル情報を作成する方法である。
第3に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜10秒後)に再生される音声をテキスト変換して、タイトル情報を作成する方法である。
第4に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像内の文字をテキスト変換して、タイトル情報を作成する方法である。
なお、図2のメニュー画面では、タイトル作成キー1aによりマーキングした音声の何秒後の音声データ/映像データを取得するか、又、その時間幅等を、ユーザが自在に設定することができる。
The title information creation method is selected in advance by the user on the menu screen illustrated in FIG. In the menu screen of FIG. 2, for example, four title creation methods can be selected.
For example, a first method is to create title information by converting text marked with the title creation key 1a into text.
The second method is to create title information by text-converting characters in the video displayed on the display unit 300a during playback of audio marked with the title creation key 1a.
A third method is to create title information by converting text to be played back after a predetermined time (for example, after 1 to 10 seconds) of the voice marked with the title creation key 1a.
Fourth, a method of creating title information by converting text in video displayed on the display unit 300a after a predetermined time (for example, 1 to 3 seconds later) of the voice marked with the title creation key 1a. is there.
In the menu screen of FIG. 2, the user can freely set the number of seconds after the voice marked with the title creation key 1a to obtain the audio data / video data, the time width, and the like.

CPU121は、取得プログラム125fの実行において、図2に例示するメニュー画面において、予めユーザにより選択されたタイトル情報の作成方法に基づいて、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル情報を作成する。   In the execution of the acquisition program 125f, the CPU 121 obtains title information from the first content data and the second content data on the menu screen illustrated in FIG. 2 based on the title information creation method selected in advance by the user. create.

第1に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声をテキスト変換してタイトル情報を作成する方法について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声データ(例えば、「トー○スとゴー○ン」)をDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の音声データ(例えば、「あかはなのジェー○ス」)を取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声は、第1のコンテンツデータの再生時にマーキングした音声と同種類の音声(例えば、サブタイトルのアナウンス等)である可能性が高く、第1のコンテンツデータの再生中にマーキングした音声と同じように、タイトル情報に含めたいユーザの意向に沿った音声である可能性が高いと考えられる。
First, a method for creating title information by converting text marked with the title creation key 1a into text from the first content data and the second content data will be described.
For example, when the user presses the title creation key 1 a during playback of the first content data, the CPU 121 stores the playback position of the audio played back while the title creation key 1 a is pressed in the playback position storage unit 124. Let Then, the marked audio data in the first content data (for example, “Tous and Goon”) is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 121 stores the second content data from the second content data in the reproduction position storage unit 124. Audio data at the playback position (for example, “Akahana no J * s”) is acquired.
Since the second content data is a program belonging to the same series as the first content data, the audio at the reproduction position stored in the reproduction position storage unit 124 acquired from the second content data is the first content data. There is a high possibility that it is the same type of audio (for example, an announcement of a subtitle) as the audio marked during playback of the content data, and it is desired to be included in the title information in the same way as the audio marked during the playback of the first content data It is highly likely that the voice is in line with the user's intention.

第2に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声の再生中に、表示部300aに表示された映像内の文字をテキスト変換してタイトル情報を作成する場合について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声データの再生中に表示部300aに表示される映像(例えば、図3)の映像データをDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の音声データの再生中に、表示部300aに表示されている映像(例えば、図4)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声とともに出力される映像は、第1のコンテンツデータの再生時にマーキングした音声とともに出力された映像と同じように、タイトル情報に含めたいテキスト(例えば、サブタイトル等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
Secondly, from the first content data and the second content data, during playback of the audio marked with the title creation key 1a, the text in the video displayed on the display unit 300a is converted to text and title information is created. The case where it does is demonstrated.
For example, when the user presses the title creation key 1 a during playback of the first content data, the CPU 121 stores the playback position of the audio played back while the title creation key 1 a is pressed in the playback position storage unit 124. Let Then, the video data of the video (for example, FIG. 3) displayed on the display unit 300a during the reproduction of the marked audio data in the first content data is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 121 stores the second content data from the second content data in the reproduction position storage unit 124. During the reproduction of the audio data at the reproduction position, the image data of the image (for example, FIG. 4) displayed on the display unit 300a is acquired.
Since the second content data is a program belonging to the same series as the first content data, the video output from the second content data and output together with the audio at the reproduction position stored in the reproduction position storage unit 124 Is likely to be a video in line with the user's intention including the text (eg, subtitle) to be included in the title information, similar to the video output together with the audio marked at the time of reproduction of the first content data. it is conceivable that.

第3に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声の所定時間後に再生される音声をテキスト変換して、タイトル情報を作成する場合について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:トー○ス、ゴー○ン」)の音声データをDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:ジェー○ス、ダッ○、ビ○、ベ○、ボ○、トレ○ー」)の音声データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声に基づく所定の再生位置(所定時間後)の音声は、第1のコンテンツデータの再生時にマーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声と同種類の音声(例えば、登場人物のアナウンス等)である可能性が高く、第1のコンテンツデータの再生時に取得した音声と同じように、タイトル情報に含めたいユーザの意向に沿った音声である可能性が高いと考えられる。
Third, a case will be described in which title information is created by text-converting audio reproduced after a predetermined time of audio marked with the title creation key 1a from the first content data and the second content data.
For example, when the user presses the title creation key 1 a during playback of the first content data, the CPU 121 stores the playback position of the audio played back while the title creation key 1 a is pressed in the playback position storage unit 124. Let Then, a sound (for example, “appearing friends: To * s, Go * n”) that is reproduced after a predetermined time (for example, 1 to 10 seconds) after the marked voice in the first content data. Audio data is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 121 stores the second content data from the second content data in the reproduction position storage unit 124. Voices that are played after a predetermined time (for example, 1 to 10 seconds) after the playback position (for example, “Appearing friends: J * S, D *, B *, B *, B *, T ) Audio data.
Since the second content data is a program belonging to the same series as the first content data, the predetermined reproduction based on the sound at the reproduction position stored in the reproduction position storage unit 124 acquired from the second content data. The sound at the position (after a predetermined time) is the same type of sound (for example, a character) that is reproduced after a predetermined time (for example, after 1 to 10 seconds) of the sound marked when the first content data is reproduced. It is considered that there is a high possibility that the sound is in line with the user's intention to be included in the title information in the same manner as the sound acquired at the time of reproducing the first content data.

第4に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声の所定時間後に表示部300aに表示される映像内の文字をテキスト変換して、タイトル情報を作成する方法について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU121は、タイトル作成キー1aが押下されている間に再生された音声の再生位置を再生位置記憶部124に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図5)をDVD61から取得する。
また、CPU121は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部4において、第2のコンテンツデータから、再生位置記憶部124に記憶された再生位置の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図6)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、再生位置記憶部124に記憶された再生位置の音声の所定時間後に表示部300aに表示される映像は、第1のコンテンツデータの再生時に取得した映像と同じように、タイトル情報に含めたいテキスト(例えば、登場人物名等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
Fourth, from the first content data and the second content data, the title information is created by converting text in the video displayed on the display unit 300a after a predetermined time of the voice marked by the title creation key 1a to text. How to do will be described.
For example, when the user presses the title creation key 1 a during playback of the first content data, the CPU 121 stores the playback position of the audio played back while the title creation key 1 a is pressed in the playback position storage unit 124. Let Then, a video (for example, FIG. 5) displayed on the display unit 300a after a predetermined time (for example, after 1 to 3 seconds) of the marked audio in the first content data is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 121 stores the second content data from the second content data in the reproduction position storage unit 124. Video data of a video (for example, FIG. 6) displayed on the display unit 300a after a predetermined time (for example, 1 to 3 seconds) after the playback position is acquired.
Since the second content data is a program belonging to the same series as the first content data, the second content data is displayed after a predetermined time of the audio at the reproduction position stored in the reproduction position storage unit 124 acquired from the second content data. The video displayed on the unit 300a is a video in line with the user's intention including the text (for example, the name of a character) to be included in the title information, like the video acquired when the first content data is reproduced. The possibility is considered high.

次に、作成プログラム125gの実行において、取得した音声をテキストに変換して、変換したテキストを含むタイトル情報を作成する場合について具体的に説明する。
CPU121は、第1のコンテンツデータ又は第2のコンテンツデータから、音声データを取得すると、取り込んだ音声データを音声認識部9に出力し、音声データをテキストデータ(例えば、「トー○スとゴー○ン」、「登場人物名:トー○スとゴー○ン」)に変換する。そして、変換したテキストデータをタイトル情報作成部10に出力し、このテキストデータに基づいてタイトル情報を作成する。
タイトル情報作成部10では、例えば、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名(例えば、「トー○スとなかまたち」等)と、音声データを変換したテキストデータ(例えば、「トー○スとゴー○ン」・「登場人物名:トー○スとゴー○ン」等)と、を合成してタイトル情報(例えば、『トー○スとなかまたち トー○スとゴー○ン』、『トー○スとなかまたち 登場人物名:トー○スとゴー○ン』等)とする。
また、例えば、コンテンツデータとともに伝送される付加情報に含まれているシリーズ名をタイトル情報に含めず、音声データを変換したテキストデータを、そのままタイトル情報(例えば、『トー○スとゴー○ン』、『登場人物名:トー○ス、ゴー○ン』等)としても良い。
CPU121は、タイトル情報作成部10においてタイトル情報が作成されると、データプロセッサ5を介してDVDドライブ部6に出力し、第1のコンテンツデータ又は第2のコンテンツデータと対応づけてDVD61に記録させる。
Next, in the execution of the creation program 125g, a case where the acquired voice is converted into text and title information including the converted text is created will be specifically described.
When the CPU 121 acquires audio data from the first content data or the second content data, the CPU 121 outputs the acquired audio data to the audio recognizing unit 9, and the audio data is converted into text data (for example, “To * s and Go *”). And “Character names: To * s and Go * n”). Then, the converted text data is output to the title information creation unit 10, and title information is created based on the text data.
In the title information creation unit 10, for example, a series name (for example, “Tous and Tokamachi” etc.) included in the additional information (program arrangement information) transmitted together with the content data, and text converted from the audio data Data (for example, “To * s and Go * n”, “Character name: To * s and Go * n”, etc.) and the title information (for example, “To * s and Goto Toss * And “Go * n”, “To * s and friends” (Character name: To * s and Go * n ”, etc.).
Also, for example, text data obtained by converting audio data without including the series name included in the additional information transmitted together with the content data in the title information is used as it is in the title information (for example, “Toss and Goon”). , “Character names: To * s, Go * n”, etc.).
When the title information is created by the title information creation unit 10, the CPU 121 outputs the title information to the DVD drive unit 6 through the data processor 5, and records it on the DVD 61 in association with the first content data or the second content data. .

また、作成プログラム125gの実行において、取得した映像データに含まれる文字をテキストに変換して、変換したテキストを含むタイトル情報を作成する場合について具体的に説明する。
CPU121は、第1のコンテンツデータ又は第2のコンテンツデータから、映像データを取得すると、取り込んだ映像データを文字認識部8に出力し、映像データに含まれる文字をテキストデータ(例えば、「トー○スとゴー○ン」、「登場人物名:トー○スとゴー○ン」等)に変換する。そして、変換したテキストデータをタイトル情報作成部10に出力し、このテキストデータに基づいてタイトル情報を作成する。
タイトル情報作成部10では、例えば、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名(例えば、「トー○スとなかまたち」等)と、映像データから抽出したテキストデータ(例えば、「トー○スとゴー○ン」、「登場人物名:トー○スとゴー○ン」等)と、を合成してタイトル情報(例えば、『トー○スとなかまたち トー○スとゴー○ン』、『トー○スとなかまたち 登場人物名:トー○スとゴー○ン』等)とする。
また、例えば、コンテンツデータとともに伝送される付加情報に含まれているシリーズ名をタイトル情報に含めず、映像データから抽出したテキストデータを、そのままタイトル情報(例えば、『トー○スとゴー○ン』、『登場人物名:トー○ス、ゴー○ン』等)としても良い。
CPU121は、タイトル情報作成部10においてタイトル情報が作成されると、データプロセッサ5を介してDVDドライブ部6に出力し、第1のコンテンツデータ又は第2のコンテンツデータと対応づけてDVD61に記録させる。
Further, a case will be specifically described in which, in the execution of the creation program 125g, characters included in the acquired video data are converted into text, and title information including the converted text is created.
When the CPU 121 acquires the video data from the first content data or the second content data, the CPU 121 outputs the captured video data to the character recognition unit 8 and converts the characters included in the video data into text data (for example, “ ”And“ Go * n ”,“ Character name: To * s and Go * n ”, etc.). Then, the converted text data is output to the title information creation unit 10, and title information is created based on the text data.
In the title information creation unit 10, for example, a series name (for example, “Tous and Tokamachi” etc.) included in the additional information (program arrangement information) transmitted together with the content data, and the text extracted from the video data Data (for example, “To * s and Go * on”, “Character name: To * s and Go * n”, etc.) and the title information (for example, “To * s and Goto Tos * And “Go * n”, “To * s and friends” (Character name: To * s and Go * n ”, etc.).
In addition, for example, the title name (for example, “To * s and Go * n” is used as it is, without including the series name included in the additional information transmitted together with the content data in the title information, and the text data extracted from the video data. , “Character names: To * s, Go * n”, etc.).
When the title information is created by the title information creation unit 10, the CPU 121 outputs the title information to the DVD drive unit 6 through the data processor 5, and records it on the DVD 61 in association with the first content data or the second content data. .

なお、付加情報から抽出したシリーズ名、音声データ又は映像データから得られたサブタイトル・登場人物名等の種類を、それぞれ表示形式(表示位置・表示色・テキスト)等により区別してタイトル情報を作成しても良い(例えば、『シリーズ名:トー○スとなかまたち サブタイトル:あかはなのジェー○ス 登場人物名:ジェー○ス、○ック、○ル、○ン、○コ、トレ○ー』)。   Note that the title information is created by distinguishing the types of subtitles, characters, etc. obtained from the series name, audio data or video data extracted from the additional information, depending on the display format (display position, display color, text), etc. (For example, “Series name: To * s and Tokasato subtitles: Akahana's J * s Characters: J * S, ○ Cook, ○ Lu, ○ Non, ○ Co, Tore *)”) .

図7及び図8は、マーキングした音声に基づいて取得された音声データ又は映像データ含まれる文字を含むタイトル情報が作成された場合に、テレビジョン受像機300の表示部300aに表示されるタイトル情報の一覧を例示する図である。
図7では、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名(例えば、「トー○スとなかまたち」)と、音声データ又は映像データから抽出したテキストデータの一部(例えば、「トー○スとゴー○ン」、「あかはなのジェー○ス」)とが合成されてタイトル情報とされている。
また、図8では、コンテンツデータとともに伝送される付加情報(番組配列情報)に含まれているシリーズ名はタイトル情報に含まれず、音声データ又は映像データから抽出したテキストデータ(例えば、「トー○スとゴー○ン 登場人物名:トー○ス、ゴー○ン」、「あかはなのジェー○ス 登場人物名:ジェー○ス、○ック、○ル、○ン、○コ、トレ○ー」)が、そのままタイトル情報とされている。
7 and 8 show title information displayed on the display unit 300a of the television receiver 300 when title information including characters included in audio data or video data acquired based on the marked audio is created. It is a figure which illustrates the list of.
In FIG. 7, a series name (for example, “Toss and Tokamachi”) included in additional information (program arrangement information) transmitted together with content data, and text data extracted from audio data or video data are shown. The parts (for example, “To * s and Go * n”, “Akahana no J * s”) are combined into the title information.
Further, in FIG. 8, the series name included in the additional information (program arrangement information) transmitted together with the content data is not included in the title information, and text data extracted from audio data or video data (for example, “TO And Go * n Characters: To * s, Go * n "," Akahana no J * s Characters: J * s, * Cook, * Le, * N, * Ko, Tore * ") However, the title information is used as it is.

以上説明した実施形態1におけるDVDレコーダ100によれば、受信プログラム125aの実行により、音声データ及び映像データを含む第1のコンテンツデータ及び当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータが受信され、記録プログラム125bの実行により、受信プログラム125aの実行により受信された第1のコンテンツデータ及び第2のコンテンツデータが記録され、再生プログラム125cの実行により、記録プログラム125bの実行により記録された第1のコンテンツデータ及び第2のコンテンツデータが再生されて、音声データに基づく音声が音声出力部300bから出力されるとともに、映像データに基づく映像が表示部300aに表示され、マーキングプログラム125dの実行により、再生プログラム125cの実行による第1のコンテンツデータの再生時に、音声出力部300bから出力される音声がマーキングされ、記憶プログラム125eの実行により、第1のコンテンツデータにおける、マーキングプログラム125dによりマーキングされた音声が再生される所定の再生位置が記憶され、取得プログラム125fの実行により、第1のコンテンツデータにおける、マーキングプログラム125dによりマーキングされた音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データが取得されるとともに、記憶プログラム125eの実行により記憶された所定の再生位置に基づいて、第1のコンテンツデータ(コンテンツデータ)と同一のシリーズに属する第2のコンテンツデータに含まれる音声データ又は映像データが取得され、作成プログラム125gの実行により、取得プログラム125fの実行により取得された音声データ又は映像データに基づいて、記録プログラム125bにより記録された第1のコンテンツデータのタイトル情報及び第2のコンテンツデータのタイトル情報が作成される。また、作成プログラム125gの実行により、取得プログラム125fの実行により取得された音声データが文字データに変換され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成又は取得プログラム125fの実行により取得された映像データに含まれる文字データが取得され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成される。
したがって、コンテンツデータの再生時に音声をマーキングすると、その音声に基づく音声データ又は映像データに基づいて、タイトル情報が作成されることとなる。したがって、コンテンツデータに含まれる音声データ又は映像データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる。
また、ユーザ自身がタイトル情報を入力しなくても、所望の音声をマーキングするだけで、ユーザが望むタイトル情報を作成することができるため、ユーザにとって非常に利便的である。
さらに、付加情報に含まれない情報であってもタイトル情報に含めることができるため、ユーザにとってより望ましいタイトル情報を作成することができる。
According to the DVD recorder 100 in the first embodiment described above, the first content data including the audio data and the video data and the second content belonging to the same series as the first content data are executed by executing the reception program 125a. When the data is received, the first content data and the second content data received by executing the receiving program 125a are recorded by executing the recording program 125b, and recorded by executing the recording program 125b by executing the reproducing program 125c. The reproduced first content data and second content data are reproduced, audio based on the audio data is output from the audio output unit 300b, and video based on the video data is displayed on the display unit 300a, and the marking program 125d The fruit Thus, when the first content data is reproduced by executing the reproduction program 125c, the sound output from the audio output unit 300b is marked, and by executing the storage program 125e, the marking is performed by the marking program 125d in the first content data. A predetermined reproduction position at which the reproduced audio is reproduced is stored, and by executing the acquisition program 125f, the audio data of the audio marked by the marking program 125d or the reproduction position of the audio data in the first content data is determined. The audio data or video data at the reproduction position is acquired, and the first data belonging to the same series as the first content data (content data) based on the predetermined reproduction position stored by the execution of the storage program 125e. Audio data or video data included in the content data is acquired, and the first program recorded by the recording program 125b based on the audio data or video data acquired by executing the acquisition program 125f by executing the creation program 125g. Title information of content data and title information of second content data are created. Also, by executing the creation program 125g, the audio data acquired by executing the acquisition program 125f is converted into character data, and title information including at least a part of characters based on the character data is generated or executed by the execution of the acquisition program 125f. Character data included in the acquired video data is acquired, and title information including at least a part of characters based on the character data is created.
Therefore, if audio is marked during reproduction of content data, title information is created based on audio data or video data based on the audio. Therefore, it is possible to create a title of the recorded content more in line with the user's intention by an easy operation using audio data or video data included in the content data.
In addition, even if the user himself / herself does not input the title information, the title information desired by the user can be created only by marking the desired voice, which is very convenient for the user.
Furthermore, even information that is not included in the additional information can be included in the title information, so that title information that is more desirable for the user can be created.

また、第1のコンテンツデータの再生時に音声をマーキングすることによりタイトル情報が作成されると、当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータについて、第1のコンテンツデータにおいてマーキングされた音声と同一の再生位置の映像に基づいてタイトル情報が作成される。
即ち、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータの各々についてマーキング作業を行わなくても、第1のコンテンツデータの再生時に音声のマーキングを行えば、同一のシリーズに属する第2のコンテンツデータ各々の音声又は映像に応じたタイトル情報が自動的に作成されることとなる。したがって、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータのそれぞれについて、タイトル情報を作成する必要が無いばかりか、第2のコンテンツデータの音声をマーキングしなくても、第2のコンテンツデータのそれぞれに応じた適切なタイトル情報が作成されることとなり、ユーザにとって更に利便的となる。
Further, when the title information is created by marking the sound during reproduction of the first content data, the second content data belonging to the same series as the first content data is marked in the first content data. Title information is created based on the video at the same playback position as the reproduced audio.
That is, even if the marking operation is not performed for each of the second content data belonging to the same series as the first content data, if the audio is marked during reproduction of the first content data, the second content data belonging to the same series The title information corresponding to the audio or video of each of the two content data is automatically created. Therefore, it is not necessary to create title information for each of the second content data belonging to the same series as the first content data, and the second content data does not need to be marked with the audio of the second content data. Appropriate title information corresponding to each content data is created, which is more convenient for the user.

また、作成プログラム125gの実行により、取得プログラム125fの実行により取得された音声データが文字データに変換され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成されるため、タイトル情報に含めたい音声を含む音声をマーキングするか、或いは、タイトル情報に含めたい音声を含む所定時間前後の音声をマーキングすれば、所望の文字情報をタイトル情報に含めて、ユーザにとってより望ましいタイトル情報を作成することができる。   Also, by executing the creation program 125g, the audio data acquired by executing the acquisition program 125f is converted into character data, and title information including at least a part of characters based on the character data is generated. Mark the voice that contains the voice you want to include, or mark the voice around the specified time including the voice you want to include in the title information, create the title information that is more desirable for the user, including the desired character information in the title information can do.

また、作成プログラム125gの実行により、取得プログラム125fの実行により取得された映像データに含まれる文字データが取得され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成されるため、タイトル情報に含めたい文字を含む映像が表示されている間に再生される音声をマーキングするか、或いは、タイトル情報に含めたい文字を含む映像の所定時間前後に再生される音声をマーキングすれば、所望の文字情報をタイトル情報に含めて、ユーザにとってより望ましいタイトル情報を作成することができる。   Further, by executing the creation program 125g, character data included in the video data acquired by executing the acquisition program 125f is acquired, and title information including at least a part of characters based on the character data is generated. Mark the audio to be played while the video containing the characters you want to include in the information is displayed, or mark the audio to be played before or after the predetermined time of the video containing the characters you want to include in the title information It is possible to create more desirable title information for the user by including the character information in the title information.

(実施形態2)
次に、本発明の実施形態2を、図面を参照しながら詳細に説明する。
本実施形態2の記録再生装置は、例えば、実施形態1と同様に、DVDレコーダであるものとして説明を行う。
なお、実施形態1と同様の構成に関しては、同じ符号を付してその説明を省略することとする。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described in detail with reference to the drawings.
The recording / reproducing apparatus of the second embodiment will be described as being a DVD recorder, for example, as in the first embodiment.
In addition, about the structure similar to Embodiment 1, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

まず、図9を参照しながら、実施形態2のDVDレコーダ200の要部構成について説明する。
DVDレコーダ200は、例えば、キー入力部1、放送局から送信された放送信号を受信して、当該放送信号のうちから所定の放送チャンネルの放送信号を選局して、コンテンツデータ(第1のコンテンツデータ、第2のコンテンツデータ)を抽出するチューナ2、チューナ2から入力されたコンテンツデータに対して所定の圧縮処理を行うエンコーダ部3、チューナ2から入力されたコンテンツデータを解析して音声データ又は映像データを取得する解析部13、コンテンツデータの入出力を制御して、エンコーダ部3から入力されたコンテンツデータをDVDドライブ部6に供給するとともに、DVDドライブ部6から取り込んだコンテンツデータをデコーダ部7に供給するデータプロセッサ5、DVD61に対して放送番組データの記録及び再生を行うDVDドライブ部6、DVDドライブ部6から出力された放送番組データに所定の伸張処理を行うデコーダ部7、映像データに含まれる文字を認識する文字認識部8、音声データを音声認識してテキストデータに変換する音声認識部9、文字認識部8から入力されるテキストデータ・音声認識部9から入力されるテキストデータ・ビデオデコーダ72から入力される付加情報(番組配列情報(SI: Service Information))に基づいてタイトル情報を作成するタイトル情報作成部10、OSDデータ等を映像信号に合成するミキシング部11、DVDレコーダ200全体を統括制御する制御部14等を備えて構成されている。
First, the main configuration of the DVD recorder 200 according to the second embodiment will be described with reference to FIG.
For example, the DVD recorder 200 receives a broadcast signal transmitted from the key input unit 1 and the broadcast station, selects a broadcast signal of a predetermined broadcast channel from the broadcast signal, and selects content data (first The content data and the second content data), the encoder 2 that performs a predetermined compression process on the content data input from the tuner 2, and the content data input from the tuner 2 to analyze the audio data Alternatively, the analysis unit 13 that acquires the video data controls the input / output of content data, supplies the content data input from the encoder unit 3 to the DVD drive unit 6, and decodes the content data captured from the DVD drive unit 6 Recording of broadcast program data to the data processor 5 and DVD 61 supplied to the unit 7 And a DVD drive unit 6 that performs reproduction, a decoder unit 7 that performs predetermined expansion processing on broadcast program data output from the DVD drive unit 6, a character recognition unit 8 that recognizes characters included in video data, and voice recognition Then, the speech recognition unit 9 converts the text data into text data, the text data input from the character recognition unit 8, the text data input from the speech recognition unit 9, and the additional information input from the video decoder 72 (program sequence information (SI: Service information)), a title information creation unit 10 that creates title information, a mixing unit 11 that synthesizes OSD data and the like into a video signal, a control unit 14 that controls the entire DVD recorder 200, and the like. .

キー入力部1は、例えば、機器本体を遠隔操作するリモートコントローラ等であり、各種キーの押下に基づいてリモコン信号を生成して、機器本体の制御部14に対して出力する。
キー入力部1には、第1のコンテンツデータの再生時に、所望の再生音声をマーキングしてタイトルの作成を指示するためのタイトル作成キー1aが備わる。当該タイトル作成キー1aが操作されると、後述するマーキングプログラム125d、記憶プログラム143a、取得プログラム143b、作成プログラム143cが実行され、マーキングされた音声若しくは当該マーキングされた音声の再生位置に基づく所定の再生位置の音声又は映像に基づく第1のコンテンツデータのタイトル情報が作成されることとなる。
The key input unit 1 is, for example, a remote controller that remotely operates the device main body, and generates a remote control signal based on pressing of various keys and outputs the remote control signal to the control unit 14 of the device main body.
The key input unit 1 is provided with a title creation key 1a for marking a desired reproduction sound and instructing creation of a title when reproducing the first content data. When the title creation key 1a is operated, a marking program 125d, a storage program 143a, an acquisition program 143b, and a creation program 143c, which will be described later, are executed, and predetermined reproduction based on the marked sound or the reproduction position of the marked sound is performed. The title information of the first content data based on the audio or video at the position is created.

また、タイトル作成キー1aの操作により、第1のコンテンツデータのタイトル情報が作成されると、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータのタイトル情報が作成される。
特に、本実施形態2では、実施形態1のように第1のコンテンツデータにおけるマーキングされた音声の再生位置が記憶されるのではなく、第1のコンテンツデータにおけるマーキングされた音声の音声データそのものが記憶される。そして、当該記憶された音声データとの類似度が所定の閾値以上の音声データが、第2のコンテンツデータから検出され、検出された音声データの再生位置が検出されて、当該再生位置の音声データ若しくは検出された再生位置に基づく所定の再生位置の音声データ又は映像データに基づいて、第2のコンテンツデータのタイトル情報が作成される。
When title information of the first content data is created by operating the title creation key 1a, title information of the second content data belonging to the same series as the first content data is created.
In particular, in the second embodiment, the reproduction position of the marked audio in the first content data is not stored as in the first embodiment, but the marked audio data itself in the first content data is stored. Remembered. Then, audio data whose similarity to the stored audio data is greater than or equal to a predetermined threshold is detected from the second content data, the reproduction position of the detected audio data is detected, and the audio data at the reproduction position is detected. Alternatively, the title information of the second content data is created based on audio data or video data at a predetermined reproduction position based on the detected reproduction position.

解析部13は、チューナ2から入力される第2のコンテンツデータとしてのTSを解析して、第1のコンテンツデータにおいてマーキングされた音声データ、若しくは、第1のコンテンツデータにおいてマーキングされた音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する。   The analysis unit 13 analyzes the TS as the second content data input from the tuner 2, and the audio data marked in the first content data or the audio data marked in the first content data Audio data or video data at a predetermined reproduction position based on the reproduction position is acquired.

制御部14は、CPU(Central Processing Unit)141、現在時刻を計時する計時部122、RAM(Random Access Memory)123、マーキング音声記憶部142、ROM(Read Only Memory)143等を備えて構成されている。   The control unit 14 includes a CPU (Central Processing Unit) 141, a time measuring unit 122 that measures the current time, a RAM (Random Access Memory) 123, a marking voice storage unit 142, a ROM (Read Only Memory) 143, and the like. Yes.

CPU141は、各部から入力された入力信号に応じて、ROM143に格納された各種プログラムを実行するとともに、実行にかかるプログラムに基づいて各部に出力信号を出力することにより、DVDレコーダ200の動作全般を統括制御する。   The CPU 141 executes various programs stored in the ROM 143 in accordance with input signals input from the respective units, and outputs output signals to the respective units based on the execution programs, so that the entire operation of the DVD recorder 200 is performed. Take overall control.

RAM123は、例えば、CPU141によって各種プログラムが実行される際に生じる処理結果や、入力されたデータ等を記憶する。
マーキング音声記憶部142は、EPROM(Erasable Programmable ROM)等により構成され、後述する記憶プログラム143aの実行において、タイトル作成キー1aの操作によりマーキングされた音声を、番組(シリーズ)毎に記憶する。
The RAM 123 stores, for example, processing results generated when various programs are executed by the CPU 141, input data, and the like.
The marking voice storage unit 142 is configured by an EPROM (Erasable Programmable ROM) or the like, and stores the voice marked by the operation of the title creation key 1a in the execution of the storage program 143a described later for each program (series).

ROM143は、不揮発性メモリから成るプログラム格納エリアを有しており、具体的には、受信プログラム125a、記録プログラム125b、再生プログラム125c、マーキングプログラム125d、記憶プログラム143a、取得プログラム143b、作成プログラム143c等を記憶している。   The ROM 143 has a program storage area composed of a non-volatile memory. Specifically, the reception program 125a, recording program 125b, reproduction program 125c, marking program 125d, storage program 143a, acquisition program 143b, creation program 143c, etc. Is remembered.

記憶プログラム143aは、例えば、CPU141に、第1のコンテンツデータ(コンテンツデータ)における、マーキングプログラム125dの実行によりマーキングされた音声データを記憶する機能を実現させるためのプログラムである。
具体的には、CPU141は、マーキングプログラム125dの実行により、タイトル作成キー1aが押下された時点で音声出力部300bから出力される音声がマーキング音声として決定されると、当該マーキング音声を、当該番組・シリーズの識別情報とともに、マーキング音声記憶部142に記憶させる。
CPU141は、かかる記憶プログラム143aを実行することにより、マーキング音声記憶部142とともに、記憶手段として機能する。
The storage program 143a is, for example, a program for causing the CPU 141 to realize a function of storing audio data marked by executing the marking program 125d in the first content data (content data).
Specifically, when the sound output from the audio output unit 300b is determined as the marking sound when the title creation key 1a is pressed by the execution of the marking program 125d, the CPU 141 determines the marking sound as the program. The information is stored in the marking voice storage unit 142 together with the series identification information.
The CPU 141 functions as a storage unit together with the marking voice storage unit 142 by executing the storage program 143a.

取得プログラム143bは、例えば、CPU141に、第1のコンテンツデータにおける、マーキングプログラム125dの実行によりマーキングされ、マーキング音声記憶部142に記憶された音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得するととともに、第1のコンテンツデータ(コンテンツデータ)と同一のシリーズに属する第2のコンテンツデータから、記憶プログラム143aの実行により記憶された音声データが再生される再生位置を検出し、検出された再生位置に基づいて、第2のコンテンツデータに含まれる音声データ又は音声データを取得する機能を実現させるためのプログラムである。
CPU141は、かかる取得プログラム143bを実行することにより、DVDドライブ部6、解析部13とともに、取得手段として機能する。
The acquisition program 143b is, for example, a predetermined content based on the voice data stored in the marking voice storage unit 142 or the reproduction position of the voice data marked by the CPU 141 by the execution of the marking program 125d in the first content data. The audio data or the video data at the reproduction position is acquired, and the audio data stored by executing the storage program 143a is reproduced from the second content data belonging to the same series as the first content data (content data). It is a program for realizing a function of detecting a playback position and acquiring audio data or audio data included in the second content data based on the detected playback position.
The CPU 141 functions as an acquisition unit together with the DVD drive unit 6 and the analysis unit 13 by executing the acquisition program 143b.

作成プログラム143cは、例えば、CPU141に、取得プログラム143bの実行により取得された音声データ又は映像データに基づいて、記録プログラム125bの実行により記録された第1のコンテンツデータ(コンテンツデータ)のタイトル情報を作成するとともに、取得プログラム143bの実行により取得された音声データ又は映像データに基づいて、第2のコンテンツデータのタイトル情報を作成する機能を実現させるためのプログラムである。
CPU141は、かかる作成プログラム143cを実行することにより、タイトル情報作成部10とともに作成手段として機能する。
The creation program 143c, for example, sends the title information of the first content data (content data) recorded by the execution of the recording program 125b to the CPU 141 based on the audio data or the video data acquired by the execution of the acquisition program 143b. This is a program for realizing the function of creating the title information of the second content data based on the audio data or the video data acquired by executing the acquisition program 143b.
The CPU 141 functions as a creation unit together with the title information creation unit 10 by executing the creation program 143c.

タイトル情報の作成方法は、図10に例示するメニュー画面において予めユーザにより選択されている。図10のメニュー画面では、例えば、3つのタイトル作成方法を選択できるようになっている。
例えば、第1に、タイトル作成キー1aによりマーキングした音声の再生中に、表示部300aに表示される映像内の文字をテキスト変換してタイトル情報を作成する方法である。
第2に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜10秒後)に再生される音声をテキスト変換して、タイトル情報を作成する方法である。
第3に、タイトル作成キー1aによりマーキングした音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像内の文字をテキスト変換して、タイトル情報を作成する方法である。
なお、図2のメニュー画面では、タイトル作成キー1aによりマーキングした音声の何秒後の音声データ/映像データを取得するか、又、その時間幅等を、ユーザが自在に設定することができる。
The method for creating the title information is selected in advance by the user on the menu screen illustrated in FIG. In the menu screen of FIG. 10, for example, three title creation methods can be selected.
For example, a first method is to create title information by converting text in a video displayed on the display unit 300a into text during playback of audio marked with the title creation key 1a.
Secondly, the title information is created by converting text to be played back after a predetermined time (for example, after 1 to 10 seconds) of the voice marked with the title creation key 1a.
Third, a method of creating title information by converting text in a video displayed on the display unit 300a after a predetermined time (for example, 1 to 3 seconds later) of the voice marked with the title creation key 1a. is there.
In the menu screen of FIG. 2, the user can freely set the number of seconds after the voice marked with the title creation key 1a to obtain the audio data / video data, the time width, and the like.

第1に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声の再生中に、表示部300aに表示された映像内の文字をテキスト変換してタイトル情報を作成する場合について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU141は、タイトル作成キー1aが押下されている間に再生された音声をマーキング音声記憶部142に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声データの再生中に表示部300aに表示される映像(例えば、図3)の映像データをDVD61から取得する。
また、CPU141は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部13において、第2のコンテンツデータから、マーキング音声記憶部142に記憶された音声データと類似度が所定の閾値以上の音声データを検出し、当該音声データの再生中に、表示部300aに表示されている映像(例えば、図4)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、マーキング音声記憶部142に記憶された音声とともに出力される映像は、第1のコンテンツデータの再生時にマーキングした音声とともに出力された映像と同じように、タイトル情報に含めたいテキスト(例えば、サブタイトル等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
First, from the first content data and the second content data, the title information is created by converting text in the video displayed on the display unit 300a into text during playback of the audio marked with the title creation key 1a. The case where it does is demonstrated.
For example, when the user depresses the title creation key 1a during reproduction of the first content data, the CPU 141 stores the audio reproduced while the title creation key 1a is depressed in the marking audio storage unit 142. Then, the video data of the video (for example, FIG. 3) displayed on the display unit 300a during the reproduction of the marked audio data in the first content data is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 141 stores the second content data from the second content data in the marking sound storage unit 142. Audio data whose similarity to the audio data is equal to or greater than a predetermined threshold is detected, and video data of the video (for example, FIG. 4) displayed on the display unit 300a is acquired during the reproduction of the audio data.
Since the second content data is a program belonging to the same series as the first content data, the video output together with the audio stored in the marking audio storage unit 142 acquired from the second content data is the first content data. Like the video output together with the audio marked when reproducing the content data of 1, the video is likely to be in accordance with the user's intention including the text (eg, subtitle) to be included in the title information. .

第2に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声の所定時間後に再生される音声をテキスト変換して、タイトル情報を作成する場合について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU141は、タイトル作成キー1aが押下されている間に再生された音声をマーキング音声記憶部142に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:トー○ス、ゴー○ン」)の音声データをDVD61から取得する。
また、CPU141は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部13において、第2のコンテンツデータから、マーキング音声記憶部142に記憶された音声データを検出し、検出された音声データの所定時間後(例えば、1〜10秒後)に再生される音声(例えば、「登場するなかまたち:ジェー○ス、ダッ○、ビ○、ベ○、ボ○、トレ○ー」)の音声データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、マーキング音声記憶部142に記憶された音声に基づく所定の再生位置(所定時間後)の音声は、第1のコンテンツデータの再生時にマーキングされた音声の所定時間後(例えば、1〜10秒後)に再生される音声と同種類の音声(例えば、登場人物のアナウンス等)である可能性が高く、第1のコンテンツデータの再生時に取得した音声と同じように、タイトル情報に含めたいユーザの意向に沿った音声である可能性が高いと考えられる。
Secondly, a case will be described in which title information is created by text-converting audio reproduced after a predetermined time of audio marked by the title creation key 1a from the first content data and the second content data.
For example, when the user depresses the title creation key 1a during reproduction of the first content data, the CPU 141 stores the audio reproduced while the title creation key 1a is depressed in the marking audio storage unit 142. Then, a sound (for example, “appearing friends: To * s, Go * n”) that is reproduced after a predetermined time (for example, 1 to 10 seconds) after the marked voice in the first content data. Audio data is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 141 stores the second content data from the second content data in the marking sound storage unit 142. Voice data is detected and played back after a predetermined time (for example, 1 to 10 seconds) after the detected voice data (for example, “Appearing friends: J * S, D *, B *, V ○, Bo ○, Train ○-”).
Since the second content data is a program that belongs to the same series as the first content data, a predetermined reproduction position (predetermined based on the sound acquired from the second content data and stored in the marking sound storage unit 142). The audio after the time is the same type of audio (for example, an announcement of a character, etc.) that is reproduced after a predetermined time (for example, 1 to 10 seconds) after the audio marked at the time of reproduction of the first content data. ), And it is highly likely that the sound is in line with the user's intention to be included in the title information, similar to the sound acquired when the first content data is reproduced.

第3に、第1のコンテンツデータ及び第2のコンテンツデータから、タイトル作成キー1aによりマーキングした音声の所定時間後に表示部300aに表示される映像内の文字をテキスト変換して、タイトル情報を作成する方法について説明する。
例えば、ユーザが、第1のコンテンツデータの再生時にタイトル作成キー1aを押下すると、CPU141は、タイトル作成キー1aが押下されている間に再生された音声をマーキング音声記憶部142に記憶させる。そして、第1のコンテンツデータにおける当該マーキングされた音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図5)をDVD61から取得する。
また、CPU141は、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータがチューナ2において受信されると、解析部13において、第2のコンテンツデータから、マーキング音声記憶部142に記憶された音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像(例えば、図6)の映像データを取得する。
第2のコンテンツデータは、第1のコンテンツデータと同じシリーズに属する番組であるため、第2のコンテンツデータから取得された、マーキング音声記憶部142に記憶された音声の所定時間後(例えば、1〜3秒後)に表示部300aに表示される映像は、第1のコンテンツデータの再生時に取得した映像と同じように、タイトル情報に含めたいテキスト(例えば、登場人物名等)を含むユーザの意向に沿った映像である可能性が高いと考えられる。
Third, from the first content data and the second content data, the title information is created by converting text in the video displayed on the display unit 300a after a predetermined time of the voice marked by the title creation key 1a to text. How to do will be described.
For example, when the user depresses the title creation key 1a during reproduction of the first content data, the CPU 141 stores the audio reproduced while the title creation key 1a is depressed in the marking audio storage unit 142. Then, a video (for example, FIG. 5) displayed on the display unit 300a after a predetermined time (for example, after 1 to 3 seconds) of the marked audio in the first content data is acquired from the DVD 61.
When the second content data belonging to the same series as the first content data is received by the tuner 2, the CPU 141 stores the second content data from the second content data in the marking sound storage unit 142. Video data of a video (for example, FIG. 6) displayed on the display unit 300a after a predetermined time (for example, 1 to 3 seconds) after the voice is acquired.
Since the second content data is a program belonging to the same series as the first content data, after a predetermined time (for example, 1) of the audio stored in the marking audio storage unit 142 acquired from the second content data The video displayed on the display unit 300a after 3 seconds) is similar to the video acquired when the first content data is reproduced, and includes the text (for example, the name of a character) to be included in the title information. It is likely that the video is in line with the intention.

以上説明した実施形態2におけるDVDレコーダ200によれば、受信プログラム125aの実行により、音声データ及び映像データを含む第1のコンテンツデータ及び当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータが受信され、記録プログラム125bの実行により、受信プログラム125aの実行により受信された第1のコンテンツデータ及び第2のコンテンツデータが記録され、再生プログラム125cの実行により、記録プログラム125bの実行により記録された第1のコンテンツデータ及び第2のコンテンツデータが再生されて、音声データに基づく音声が音声出力部300bから出力されるとともに、映像データに基づく映像が表示部300aに表示され、マーキングプログラム125dの実行により、再生プログラム125cの実行による第1のコンテンツデータの再生時に、音声出力部300bから出力される音声がマーキングされ、記憶プログラム143aの実行により、第1のコンテンツデータにおける、マーキングプログラム125dによりマーキングされた音声が記憶され、取得プログラム143bの実行により、第1のコンテンツデータにおける、マーキングプログラム125dによりマーキングされた音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データが取得されるとともに、第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータから、記憶プログラム143aの実行により記憶された音声データが再生される再生位置が検出され、検出された再生位置に基づいて、第2のコンテンツデータに含まれる音声データ又は映像データが取得され、作成プログラム143cの実行により、取得プログラム143bの実行により取得された音声データ又は映像データに基づいて、記録プログラム125bにより記録された第1のコンテンツデータのタイトル情報及び第2のコンテンツデータのタイトル情報が作成される。また、作成プログラム143cの実行により、取得プログラム143bの実行により取得された音声データが文字データに変換され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成又は取得プログラム143bの実行により取得された映像データに含まれる文字データが取得され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成される。
即ち、コンテンツデータの再生時に、再生される音声をマーキングすると、その音声の音声データ又は当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データに基づいてタイトル情報が作成されることとなる。したがって、DVDレコーダ200(記録再生装置)において、コンテンツデータに含まれる音声データ又は音声データを用いた容易な操作で、よりユーザの意向に沿った録画コンテンツのタイトルを作成することができる。
また、ユーザ自身がタイトル情報を入力しなくても、所望の音声をマーキングするだけで、ユーザが望むタイトル情報を作成することができるため、ユーザにとって非常に利便的である。
さらに、付加情報に含まれない情報であってもタイトル情報に含めることができるため、ユーザにとってより望ましいタイトル情報を作成することができる。
According to the DVD recorder 200 in the second embodiment described above, the first content data including the audio data and the video data and the second content belonging to the same series as the first content data are executed by executing the reception program 125a. When the data is received, the first content data and the second content data received by executing the receiving program 125a are recorded by executing the recording program 125b, and recorded by executing the recording program 125b by executing the reproducing program 125c. The reproduced first content data and second content data are reproduced, audio based on the audio data is output from the audio output unit 300b, and video based on the video data is displayed on the display unit 300a, and the marking program 125d The fruit Thus, when the first content data is reproduced by executing the reproduction program 125c, the audio output from the audio output unit 300b is marked, and by executing the storage program 143a, the first content data is marked by the marking program 125d. Recorded in the first content data by the execution of the acquisition program 143b, or audio data or video data at a predetermined reproduction position based on the reproduction position of the audio data in the first content data Is acquired, and the reproduction position where the audio data stored by the execution of the storage program 143a is reproduced is detected from the second content data belonging to the same series as the first content data, and is detected. Based on the reproduced position, audio data or video data included in the second content data is acquired, and by executing the creation program 143c, based on the audio data or video data acquired by executing the acquisition program 143b, Title information of the first content data and title information of the second content data recorded by the recording program 125b are created. Also, by executing the creation program 143c, the audio data acquired by executing the acquisition program 143b is converted into character data, and title information including at least a part of characters based on the character data is generated or executed by the execution of the acquisition program 143b. Character data included in the acquired video data is acquired, and title information including at least a part of characters based on the character data is created.
That is, when the audio to be reproduced is marked during the reproduction of the content data, title information is created based on the audio data of the audio or the audio data or video data at a predetermined reproduction position based on the reproduction position of the audio data. It becomes. Therefore, in the DVD recorder 200 (recording / playback apparatus), it is possible to create a title of the recorded content more in line with the user's intention by an easy operation using audio data or audio data included in the content data.
In addition, even if the user himself / herself does not input the title information, the title information desired by the user can be created only by marking the desired voice, which is very convenient for the user.
Furthermore, even information that is not included in the additional information can be included in the title information, so that title information that is more desirable for the user can be created.

また、第1のコンテンツデータの再生時に再生される音声をマーキングすることによりタイトル情報が作成されると、当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータについて、第1のコンテンツデータにおいてマーキングされた音声が再生される再生位置が検出されて、検出された再生位置の音声に基づいてタイトル情報が作成される。
即ち、同一のシリーズに属するコンテンツデータの各々についてマーキング作業を行わなくても、第1のコンテンツデータの再生時に再生される音声のマーキングを行えば、同一のシリーズに属する第2のコンテンツデータの各々の音声データ又は映像データに応じたタイトル情報が自動的に作成されることとなる。したがって、第2のコンテンツデータのタイトル情報を作成する必要が無いばかりか、第2のコンテンツデータの音声をマーキングしなくても、第2のコンテンツデータの各々に応じた適切なタイトル情報が作成されることとなり、ユーザにとって更に利便的となる。
また、第1のコンテンツデータにおいてマーキングされた音声が、第2のコンテンツデータにおいて異なる再生位置で再生される場合でも、第1のコンテンツデータにおいてマーキングされた音声に基づいて、第2のコンテンツデータから音声データ又は映像データが検出されてタイトル情報が作成されることとなるため、より確実に、ユーザにとって望ましいタイトル情報を作成することができる。
Further, when the title information is created by marking the sound that is played back when the first content data is played back, the second content data belonging to the same series as the first content data is the first content data. A reproduction position where the voice marked in the data is reproduced is detected, and title information is created based on the voice of the detected reproduction position.
In other words, each of the second content data belonging to the same series can be marked by marking the audio reproduced during the reproduction of the first content data without performing the marking operation for each of the content data belonging to the same series. Title information corresponding to the audio data or video data is automatically created. Therefore, it is not necessary to create the title information of the second content data, and appropriate title information corresponding to each of the second content data is created without marking the voice of the second content data. This is more convenient for the user.
In addition, even when the audio marked in the first content data is reproduced at a different reproduction position in the second content data, the second content data is used based on the audio marked in the first content data. Since audio data or video data is detected and title information is created, title information desirable for the user can be created more reliably.

また、作成プログラム143cの実行により、取得プログラム143bの実行により取得された音声データが文字データに変換され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成されるため、タイトル情報に含めたい音声を含む音声をマーキングするか、或いは、タイトル情報に含めたい音声を含む所定時間前後の音声をマーキングすれば、所望の文字情報をタイトル情報に含めて、ユーザにとってより望ましいタイトル情報を作成することができる。   Also, by executing the creation program 143c, the audio data acquired by executing the acquisition program 143b is converted into character data, and title information including at least a part of characters based on the character data is generated. Mark the voice that contains the voice you want to include, or mark the voice around the specified time including the voice you want to include in the title information, create the title information that is more desirable for the user, including the desired character information in the title information can do.

また、作成プログラム143cの実行により、取得プログラム143bの実行により取得された映像データに含まれる文字データが取得され、当該文字データに基づく文字の少なくとも一部を含むタイトル情報が作成されるため、タイトル情報に含めたい文字を含む映像が表示されている間に再生される音声をマーキングするか、或いは、タイトル情報に含めたい文字を含む映像の所定時間前後に再生される音声をマーキングすれば、所望の文字情報をタイトル情報に含めて、ユーザにとってより望ましいタイトル情報を作成することができる。   Further, by executing the creation program 143c, character data included in the video data acquired by executing the acquisition program 143b is acquired, and title information including at least a part of characters based on the character data is generated. Mark the audio to be played while the video containing the characters you want to include in the information is displayed, or mark the audio to be played before or after the predetermined time of the video containing the characters you want to include in the title information It is possible to create more desirable title information for the user by including the character information in the title information.

なお、本発明は、上記実施の形態に限られることなく、本発明の趣旨を逸脱しない範囲において種々の改良並びに設計の変更をおこなっても良い。
例えば、作成手段により作成されるタイトル情報は、上記実施形態において例示したものに限られない。例えば、『トー○スとゴー○ン』ように、その放送回のタイトルのみをタイトル情報としても良い。また、その放送回のタイトルや登場人物名の他、簡単なあらすじ等、音声データや、映像データ、付加情報に含まれる情報であれば、タイトル情報に含めることができる。
また、第1のコンテンツデータ又は第2のコンテンツデータから取得した映像データのサムネイル画像を含むタイトル情報を作成しても良い。
また、音声データ又は映像データから抽出したテキストデータのうち、タイトルや登場人物名等、必要なテキストのみを判別する判別手段を設け、作成手段は、判別手段により必要であると判別されたテキストのみをタイトル情報に含めても良い。
また、一つのコンテンツデータにつき、複数の音声をマーキングできるように構成しても良い。そして、例えば、一度目にマーキングされた音声を、サブタイトルが含まれる音声データであると決定し、二度目にマーキングされた音声を、登場人物名が含まれる音声であると決定する。そして、サブタイトルと登場人物名等の音声の種類を区別してタイトル情報を作成しても良い。
また、第1のコンテンツデータの音声をマーキングする際に、マーキングした音声の種類(例えば、タイトル、サブタイトル、登場人物名)等を、ユーザが指定できる手段が備わっていても良い。
また、第1のコンテンツデータの音声をマーキングする際に、マーキングした音声のうち、タイトル情報に含める音声区間(例えば、マーキングした音声の後半部分等)を指定できる手段が備わっていても良い。
また、第2のコンテンツデータから取得する音声データ又は映像データは、第2のコンテンツデータの受信時に、解析部13において取得するのではなく、一旦DVD61に記録した後に、DVD61から取得しても良い。
また、上記実施形態では、タイトル情報に含める音声・映像の出力中に再生される音声をマーキングするタイトル作成方法と、タイトル情報に含める音声・映像が出力される所定時間前に再生される音声をマーキングするタイトル作成方法のみについて説明したが、タイトル情報に含める音声・映像が出力された所定時間後の音声をマーキングして、タイトルを作成する方法が備わっていても良い。また、タイトル作成キー1aによりマーキングした音声の何秒前の音声データ/映像データを取得するか、又、その時間幅等を、ユーザが自在に設定することができる手段が備わっていても良い。
The present invention is not limited to the above embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the title information created by the creating unit is not limited to that exemplified in the above embodiment. For example, only the title of the broadcast time may be used as title information, such as “To * s and Go * n”. Further, in addition to the title of the broadcast and the name of the character, information included in audio data, video data, and additional information, such as a simple synopsis, can be included in the title information.
Further, title information including a thumbnail image of video data acquired from the first content data or the second content data may be created.
In addition, there is provided a discriminating means for discriminating only necessary text such as a title and a character name from text data extracted from audio data or video data, and the creating means is only text determined to be necessary by the discriminating means. May be included in the title information.
Moreover, you may comprise so that several audio | voices can be marked per content data. Then, for example, the voice marked for the first time is determined to be the voice data including the subtitle, and the voice marked for the second time is determined to be the voice including the character name. Then, the title information may be created by distinguishing the type of sound such as the subtitle and the character name.
In addition, when marking the audio of the first content data, there may be provided means for allowing the user to specify the type of the marked audio (for example, title, subtitle, character name) and the like.
Further, when marking the voice of the first content data, there may be provided means capable of designating a voice section (for example, the second half part of the marked voice) included in the title information among the marked voice.
Further, the audio data or video data acquired from the second content data may be acquired from the DVD 61 after being once recorded on the DVD 61 instead of being acquired by the analysis unit 13 when the second content data is received. .
In the above-described embodiment, the title creation method for marking the audio reproduced during the output of the audio / video to be included in the title information, and the audio reproduced for a predetermined time before the audio / video included in the title information is output. Although only the method for creating a title to be marked has been described, a method for creating a title by marking audio after a predetermined time from which audio / video included in title information is output may be provided. Further, there may be provided means for allowing the user to freely set the number of seconds before the voice marked with the title creation key 1a to obtain the audio data / video data, and the time width thereof.

実施形態1におけるDVDレコーダの要部構成を例示するブロック図である。2 is a block diagram illustrating the main configuration of a DVD recorder according to Embodiment 1. FIG. 実施形態1におけるタイトル情報の作成方法を選択するためのメニュー画面を例示する図である。5 is a diagram illustrating a menu screen for selecting a method for creating title information in Embodiment 1. FIG. 第1のコンテンツデータから取得される映像を例示する図である。It is a figure which illustrates the image | video acquired from 1st content data. 第2のコンテンツデータから取得される映像を例示する図である。It is a figure which illustrates the image | video acquired from 2nd content data. 第1のコンテンツデータから取得される映像を例示する図である。It is a figure which illustrates the image | video acquired from 1st content data. 第1のコンテンツデータから取得される映像を例示する図である。It is a figure which illustrates the image | video acquired from 1st content data. テレビジョン受像機の表示部300aに表示されるタイトル情報の一覧を例示する図である。It is a figure which illustrates the list of the title information displayed on the display part 300a of a television receiver. テレビジョン受像機の表示部に表示されるタイトル情報の一覧を例示する図である。It is a figure which illustrates the list of title information displayed on the display part of a television receiver. 実施形態2におけるDVDレコーダの要部構成を例示するブロック図である。FIG. 6 is a block diagram illustrating the main configuration of a DVD recorder according to a second embodiment. 実施形態2におけるタイトル情報の作成方法を選択するためのメニュー画面を例示する図である。FIG. 10 is a diagram illustrating a menu screen for selecting a method for creating title information in the second embodiment.

符号の説明Explanation of symbols

100 DVDレコーダ(記録再生装置)
1a タイトル作成キー(マーキング手段)
2 チューナ(受信手段)
4 解析部(取得手段)
6 DVDドライブ部(記録手段、再生手段、取得手段)
8 文字認識部(作成手段)
9 音声認識部(作成手段)
10 タイトル情報作成部(作成手段)
121 CPU(受信手段、記録手段、再生手段、マーキング手段、記憶手段、取得手段、作成手段)
124 再生位置記憶部(記憶手段)
125a 受信プログラム(受信手段)
125b 記録プログラム(記録手段)
125c 再生プログラム(再生手段)
125d マーキングプログラム(マーキング手段)
125e 記憶プログラム(記憶手段)
125f 取得プログラム(取得手段)
125g 作成プログラム(作成手段)
200 DVDレコーダ
13 解析部(取得手段)
141 CPU(受信手段、記録手段、再生手段、マーキング手段、記憶手段、取得手段、作成手段)
142 マーキング音声記憶部(記憶手段)
143a 記憶プログラム(記憶手段)
143b 取得プログラム(取得手段)
143c 作成プログラム(作成手段)
100 DVD recorder (recording and playback device)
1a Title creation key (marking means)
2 Tuner (Receiving means)
4 analysis unit (acquisition means)
6 DVD drive unit (recording means, playback means, acquisition means)
8 Character recognition part (creating means)
9 Voice recognition unit (creating means)
10 Title information creation section (creation means)
121 CPU (receiving means, recording means, reproduction means, marking means, storage means, acquisition means, creation means)
124 Playback position storage unit (storage means)
125a receiving program (receiving means)
125b Recording program (recording means)
125c Reproduction program (reproduction means)
125d Marking program (marking means)
125e storage program (storage means)
125f acquisition program (acquisition means)
125g creation program (creating means)
200 DVD recorder 13 analysis unit (acquisition means)
141 CPU (receiving means, recording means, reproduction means, marking means, storage means, acquisition means, creation means)
142 Marking voice storage unit (storage means)
143a Storage program (storage means)
143b Acquisition program (acquisition means)
143c Creation program (creation means)

Claims (6)

音声データ及び映像データを含むコンテンツデータを受信する受信手段と、
前記受信手段により受信された前記コンテンツデータを記録する記録手段と、
前記記録手段により記録された前記コンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記コンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記コンテンツデータのタイトル情報を作成する作成手段と、
を備えることを特徴とする記録再生装置。
Receiving means for receiving content data including audio data and video data;
Recording means for recording the content data received by the receiving means;
Reproducing means for reproducing the content data recorded by the recording means, outputting audio based on the audio data from an audio output unit, and displaying video based on the video data on a display unit;
Marking means for marking the audio output from the audio output unit when the content data is reproduced by the reproduction means;
Acquisition means for acquiring audio data or video data at a predetermined reproduction position based on the audio data of the audio marked by the marking means or the reproduction position of the audio data;
Creating means for creating title information of the content data recorded by the recording means based on the audio data or the video data obtained by the obtaining means;
A recording / reproducing apparatus comprising:
前記コンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段を備え、
前記取得手段は、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする請求項1に記載の記録再生装置。
A storage means for storing a predetermined reproduction position at which the audio marked by the marking means is reproduced in the content data;
The acquisition unit acquires audio data or video data included in second content data belonging to the same series as the content data based on the predetermined reproduction position stored by the storage unit;
The recording / reproducing apparatus according to claim 1, wherein the creating unit creates the title information of the second content data based on the audio data or the video data acquired by the acquiring unit.
前記コンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声データを記憶する記憶手段を備え、
前記取得手段は、前記コンテンツデータと同一のシリーズに属する第2のコンテンツデータから、前記記憶手段により記憶された前記音声データが再生される再生位置を検出し、検出された再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記第2のコンテンツデータのタイトル情報を作成することを特徴とする請求項1に記載の記録再生装置。
Storage means for storing the audio data marked by the marking means in the content data;
The acquisition unit detects a reproduction position where the audio data stored in the storage unit is reproduced from second content data belonging to the same series as the content data, and based on the detected reproduction position, Obtaining audio data or video data included in the second content data;
The recording / reproducing apparatus according to claim 1, wherein the creating unit creates the title information of the second content data based on the audio data or the video data acquired by the acquiring unit.
前記取得手段は、音声データを取得し、
前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする請求項1〜3の何れか一項に記載の記録再生装置。
The acquisition means acquires audio data,
The said creation means converts the said audio | voice data acquired by the said acquisition means into character data, and produces the title information containing at least one part of the character based on the said character data, The recording / reproducing apparatus as described in any one of Claims.
前記取得手段は、映像データを取得し、
前記作成手段は、前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする請求項1〜3の何れか一項に記載の記録再生装置。
The acquisition means acquires video data,
2. The creation means obtains character data included in the video data obtained by the obtaining means, and creates title information including at least a part of characters based on the character data. The recording / reproducing apparatus as described in any one of -3.
音声データ及び映像データを含む第1のコンテンツデータ及び当該第1のコンテンツデータと同一のシリーズに属する第2のコンテンツデータを受信する受信手段と、
前記受信手段により受信された前記第1のコンテンツデータ及び前記第2のコンテンツデータを記録する記録手段と、
前記記録手段により記録された前記第1のコンテンツデータ及び前記第2のコンテンツデータを再生して、前記音声データに基づく音声を音声出力部から出力させるとともに、前記映像データに基づく映像を表示部に表示させる再生手段と、
前記再生手段による前記第1のコンテンツデータの再生時に、前記音声出力部から出力される前記音声をマーキングするマーキング手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声が再生される所定の再生位置を記憶する記憶手段と、
前記第1のコンテンツデータにおける、前記マーキング手段によりマーキングされた前記音声の音声データ若しくは当該音声データの再生位置に基づく所定の再生位置の音声データ又は映像データを取得するとともに、前記記憶手段により記憶された前記所定の再生位置に基づいて、前記第2のコンテンツデータに含まれる音声データ又は映像データを取得する取得手段と、
前記取得手段により取得された前記音声データ又は前記映像データに基づいて、前記記録手段により記録された前記第1のコンテンツデータのタイトル情報及び前記第2のコンテンツデータのタイトル情報を作成する作成手段と、
を備え、
前記作成手段は、前記取得手段により取得された前記音声データを文字データに変換し、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成又は前記取得手段により取得された前記映像データに含まれる文字データを取得して、当該文字データに基づく文字の少なくとも一部を含むタイトル情報を作成することを特徴とする記録再生装置。
Receiving means for receiving first content data including audio data and video data and second content data belonging to the same series as the first content data;
Recording means for recording the first content data and the second content data received by the receiving means;
The first content data and the second content data recorded by the recording unit are reproduced to output audio based on the audio data from an audio output unit, and an image based on the video data is displayed on the display unit. Playback means to display;
Marking means for marking the audio output from the audio output unit when the reproduction means reproduces the first content data;
Storage means for storing a predetermined reproduction position at which the sound marked by the marking means is reproduced in the first content data;
In the first content data, the audio data marked by the marking means or the audio data or video data at a predetermined reproduction position based on the reproduction position of the audio data is acquired and stored by the storage means. Acquisition means for acquiring audio data or video data included in the second content data based on the predetermined reproduction position;
Creation means for creating title information of the first content data and title information of the second content data recorded by the recording means based on the audio data or the video data obtained by the obtaining means; ,
With
The creation means converts the audio data acquired by the acquisition means into character data, creates title information including at least a part of characters based on the character data, or adds the video data acquired by the acquisition means A recording / reproducing apparatus characterized by acquiring character data contained therein and creating title information including at least a part of characters based on the character data.
JP2007251925A 2007-09-27 2007-09-27 Recording / playback device Expired - Fee Related JP4821751B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007251925A JP4821751B2 (en) 2007-09-27 2007-09-27 Recording / playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007251925A JP4821751B2 (en) 2007-09-27 2007-09-27 Recording / playback device

Publications (2)

Publication Number Publication Date
JP2009088644A JP2009088644A (en) 2009-04-23
JP4821751B2 true JP4821751B2 (en) 2011-11-24

Family

ID=40661541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007251925A Expired - Fee Related JP4821751B2 (en) 2007-09-27 2007-09-27 Recording / playback device

Country Status (1)

Country Link
JP (1) JP4821751B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5564919B2 (en) * 2009-12-07 2014-08-06 ソニー株式会社 Information processing apparatus, prediction conversion method, and program
JP6362317B2 (en) * 2013-10-17 2018-07-25 キヤノン株式会社 Video processing apparatus and video processing apparatus control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130736A (en) * 1995-11-02 1997-05-16 Sony Corp Image pickup device and edit device
JPH11308529A (en) * 1998-04-21 1999-11-05 Sony Corp Method for applying title of video and video camera
JP2005065191A (en) * 2003-08-20 2005-03-10 Ntt Comware Corp Moving image meta-data automatic creating apparatus and moving image meta-data automatic creation program

Also Published As

Publication number Publication date
JP2009088644A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
US8078034B2 (en) Method and apparatus for navigating through subtitles of an audio video data stream
US8583443B2 (en) Recording and reproducing apparatus
KR20070028535A (en) Video/audio stream processing device and video/audio stream processing method
JP4758776B2 (en) Remote control operation information generation device and digital broadcast receiver
JP2005217816A (en) Video-reproducing unit and recording medium
JP4821751B2 (en) Recording / playback device
KR101285906B1 (en) Method and Apparatus for Recording and Reproducing of Broadcasting Signal capable of Searching Caption Data
JP5033653B2 (en) Video recording / reproducing apparatus and video reproducing apparatus
JP2009087394A (en) Recording and reproducing device
KR100785988B1 (en) Apparatus and method for recording broadcasting of pve system
JP2007288687A (en) Broadcast recording apparatus and method
JP2012034235A (en) Video reproduction apparatus and video reproduction method
JP2000324439A (en) Digital bit stream recording and reproducing device and medium for recording program
JP2004112207A (en) Optical disk reproducer
JP2008269460A (en) Moving image scene type determination device and method
KR100349820B1 (en) The system for replaying dvd including the electronic dictionary function and the method thereof
JP2006270793A (en) Digest video recording system
JP4730253B2 (en) Movie playback apparatus and movie playback method
KR20050073011A (en) Digital broadcasting receiver and method for searching thumbnail in digital broadcasting receiver
JP4257546B2 (en) Recording / reproducing device and HDD built-in digital television
JP2006024297A (en) Language selection method, reproducing device and recording medium
JP2007122559A (en) Character recognition print system, printer, print method, print program, television system and image reproduction device
JP2004248056A (en) Contents recorder, contents reproducing device, contents recording program, and contents reproducing program
JP2006079712A (en) Recording medium, reproducing device, and recording device
JP5018519B2 (en) Recording device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees