JP4342529B2 - Authoring support device, authoring support method and program, and authoring information sharing system - Google Patents
Authoring support device, authoring support method and program, and authoring information sharing system Download PDFInfo
- Publication number
- JP4342529B2 JP4342529B2 JP2006095943A JP2006095943A JP4342529B2 JP 4342529 B2 JP4342529 B2 JP 4342529B2 JP 2006095943 A JP2006095943 A JP 2006095943A JP 2006095943 A JP2006095943 A JP 2006095943A JP 4342529 B2 JP4342529 B2 JP 4342529B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- scene
- comment
- authoring
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
本発明は、コンテンツに対してユーザがコメントを付与する作業を支援するオーサリング支援装置、オーサリング支援方法及びプログラム、並びにオーサリング情報共有システムに関する。 The present invention relates to an authoring support apparatus, an authoring support method and program, and an authoring information sharing system that support an operation in which a user gives a comment to content.
近年、コンテンツ(例えば映像コンテンツ)に対してユーザがコメントを付与するオーサリング技術が良く利用されるようになって来ている。 In recent years, an authoring technique in which a user gives a comment to content (for example, video content) has been frequently used.
しかし、コンテンツに対してコメントを付与する場合、コメント付与の対象とするコンテンツ中の一点(時間的に幅のない点)、あるいは、開始点及び終了点(開始時刻及び終了時刻)を、ユーザが手動により指定して、コメントを付与するしかなかった。 However, when a comment is given to content, the user selects one point (a point having no time width) in the content to be commented, or a start point and an end point (start time and end time). There was no choice but to specify it manually and add a comment.
例えば特許文献1には、ユーザが指定したシーンのある時刻に対してコメントを書く方法が開示されている。しかしながら、この方法では、ユーザは、ある時間的な範囲を持ったシーンについてコメントしたくても、そのシーン中のある時間的な1点にしかコメントを付与することができなかった。
For example,
また、例えば一般的なビデオオーサリングツールでは、シーンの開始点と終了点を指定して、シーンを区切ることにより時間的な幅を持つシーンに対してコメントを付与することもできるが、この場合は、ユーザはシーンの開始点と終了点を指定しなければならなかった。 In addition, for example, in a general video authoring tool, it is possible to specify a scene start point and end point, and to add a comment to a scene having a temporal width by dividing the scene. In this case, The user had to specify the start and end points of the scene.
また、例えば非特許文献1には、映像に関して視聴者間でコミュニケーションをとる手法について開示されている。しかしながら、この方法では、ユーザが映像についてコメントを入力する範囲は、予め区切られた時間範囲であり、ユーザの任意の範囲を指定することはできなかった。
従来のオーサリング支援技術においては、ユーザがコンテンツにコメントを付与する場合、ユーザがコメントを付与する対象とする範囲の開始点及び終了点を指定する必要があった。また、他の従来技術として、ユーザがコンテンツ中の1点のみを指定するものがあるが、これはコンテンツ中の1つの時間的な点に対してコメントを付与し、時間的に幅を持った領域にコメントを付与することはできなかったり、開始点だけを指定し、領域の幅がシーンによらずに予め決められてしまっていたりするものであった。 In the conventional authoring support technology, when a user gives a comment to content, it is necessary to specify a start point and an end point of a range to which the user gives a comment. In addition, as another conventional technique, there is one in which the user designates only one point in the content, but this gives a comment to one temporal point in the content and has a time range. A comment cannot be given to the area, or only the start point is specified, and the width of the area is determined in advance regardless of the scene.
本発明は、上記事情を考慮してなされたもので、ユーザがコンテンツ中の時間的に幅を持った領域にコメントを付与する場合に、ユーザの負担を軽減することの可能なオーサリング支援装置、オーサリング支援方法及びプログラム、並びにオーサリング情報共有システムを提供することを目的とする。 The present invention has been made in consideration of the above circumstances, and an authoring support apparatus that can reduce the burden on the user when the user gives a comment to an area having a temporal width in the content, It is an object to provide an authoring support method and program, and an authoring information sharing system.
本発明に係るオーサリング支援装置は、少なくとも映像を含むコンテンツを記憶する記憶手段と、前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、入力された前記コメントの内容と、個々のシーン種別ごとに対応付けて予め1又は複数個ずつ規定された文字情報の各々とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、前記抽出の結果を表示する表示手段とを備えたことを特徴とする。
また、本発明に係るオーサリング支援装置は、少なくとも映像を含むコンテンツを記憶する記憶手段と、前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、入力された前記コメントの内容と、シーン種別に対応付けて予め規定された方法に従って前記コンテンツに含まれる画像データ、音声データ又はテキストデータから得られた文字情報とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、前記抽出の結果を表示する表示手段とを備えたことを特徴とする。
The authoring support apparatus according to the present invention receives storage means for storing content including at least video, and input of a comment to be given to a predetermined scene in the content in association with a representative time indicating a specific location in the content. input means for attaching only, by comparing the contents of the comments entered, and each character information defined by advance one or a plurality in association with each individual scene type, imparts the comment discriminating means for discriminating the scene type of the predetermined scene, according to the judgment the scene type, the near point the region into a neighboring region or the representative time including representatives time in Tsu, the predetermined Sea as information indicating the down interval, the time information enabling specifying the start and end points of the section according to the scene type in the content An extraction means for extracting, and a display means for displaying the extraction result are provided .
Further, the authoring support apparatus according to the present invention associates storage means for storing content including at least video and input of a comment to be given to a predetermined scene in the content with a representative time indicating a specific location in the content. And comparing the input comment content and the character information obtained from the image data, audio data, or text data included in the content according to a method defined in advance in association with the scene type. And determining means for determining the scene type of the predetermined scene to which the comment is added, and an area including the representative time in the content or an area in the vicinity of the representative time according to the determined scene type. From the content in the content as information indicating the section of the predetermined scene. Characterized by comprising extracting means for extracting the time information as the start point of the section of the chromatography emission type enables identifying and end point, and display means for displaying the results of said extraction.
また、本発明は、サーバ装置と、複数のクライアント装置とを含むオーサリング情報共有システムにおいて、前記クライアント装置は、少なくとも映像を含むコンテンツを記憶する記憶手段と、前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、入力された前記コメントの内容と、個々のシーン種別ごとに対応付けて予め1又は複数個ずつ規定された文字情報の各々とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、前記抽出の結果を表示する表示手段と、前記サーバ装置へ、前記コメントと前記シーン種別と前記所定のシーンの区間を示す情報とを含むオーサリング情報を送信する送信手段とを備え、前記サーバ装置は、前記クライアント装置から前記オーサリング情報を受信する受信手段と、受信された前記オーサリング情報を記憶するオーサリング情報記憶手段とを備えたことを特徴とする。
また、本発明は、サーバ装置と、複数のクライアント装置とを含むオーサリング情報共有システムにおいて、前記クライアント装置は、少なくとも映像を含むコンテンツを記憶する記憶手段と、前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、入力された前記コメントの内容と、シーン種別に対応付けて予め規定された方法に従って前記コンテンツに含まれる画像データ、音声データ又はテキストデータから得られた文字情報とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、前記抽出の結果を表示する表示手段と、前記サーバ装置へ、前記コメントと前記シーン種別と前記所定のシーンの区間を示す情報とを含むオーサリング情報を送信する送信手段とを備え、前記サーバ装置は、前記クライアント装置から前記オーサリング情報を受信する受信手段と、受信された前記オーサリング情報を記憶するオーサリング情報記憶手段とを備えたことを特徴とする。
According to the present invention, in an authoring information sharing system including a server device and a plurality of client devices, the client device provides storage means for storing content including at least video, and a predetermined scene in the content. the input of the comment, and input means for attaching accept connection with specific indicate where representative time of the content, and content of the comments entered, by preliminarily 1 or more in association with each individual scene type by comparing the respective defined character information, and determination means for determining a scene type of the predetermined scene which imparts the comment, in accordance with the discriminated said scene type, the representative in the content area or these areas or near the representative time including time, as information indicating a section of the predetermined scene, before In the content, the extraction means for extracting the time information that can specify the start point and the end point of the section relating to the scene type, the display means for displaying the extraction result, the server device, the comment and the and transmitting means for transmitting an authoring information including information indicating a scene type a section of the predetermined scene, the server apparatus includes receiving means for receiving the authoring information from the client device, it received the And authoring information storage means for storing authoring information .
According to the present invention, in an authoring information sharing system including a server device and a plurality of client devices, the client device provides storage means for storing content including at least video, and a predetermined scene in the content. An image included in the content in accordance with a method defined in advance in association with an input unit that accepts an input of a comment in association with a representative time indicating a specific location in the content, the content of the input comment, and a scene type By comparing the character information obtained from the data, audio data or text data, the determining means for determining the scene type of the predetermined scene to which the comment is attached, and according to the determined scene type, The area including the representative time in the content or the representative time Extraction means for extracting time information enabling identification of a start point and an end point of the section relating to the scene type in the content as information indicating a section of the predetermined scene from a nearby area, and a result of the extraction Display means for displaying information, and transmission means for transmitting authoring information including information indicating the comment, the scene type, and the section of the predetermined scene to the server apparatus, and the server apparatus includes the client apparatus Receiving means for receiving the authoring information, and authoring information storage means for storing the received authoring information.
なお、装置に係る本発明は方法に係る発明としても成立し、方法に係る本発明は装置に係る発明としても成立する。
また、装置または方法に係る本発明は、コンピュータに当該発明に相当する手順を実行させるための(あるいはコンピュータを当該発明に相当する手段として機能させるための、あるいはコンピュータに当該発明に相当する機能を実現させるための)プログラムとしても成立し、該プログラムを記録したコンピュータ読み取り可能な記録媒体としても成立する。
The present invention relating to the apparatus is also established as an invention relating to a method, and the present invention relating to a method is also established as an invention relating to an apparatus.
Further, the present invention relating to an apparatus or a method has a function for causing a computer to execute a procedure corresponding to the invention (or for causing a computer to function as a means corresponding to the invention, or for a computer to have a function corresponding to the invention. It can also be realized as a program (for realizing the program), and can also be realized as a computer-readable recording medium on which the program is recorded.
本発明によれば、ユーザがコンテンツ中の時間的に幅を持った領域にコメントを付与する場合に、ユーザの負担を軽減することが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, when a user gives a comment to the area | region which has time width in content, it becomes possible to reduce a user's burden.
以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
以下では、コメントを付与する対象となるコンテンツとして、映像コンテンツを例にとって説明する。また、以下では、映像コンテンツの映像部分を中心に説明するが、映像コンテンツは、映像部分に音声部分を伴うものであっても、映像部分に音声部分を伴わないものであってもよい。
(First embodiment)
Hereinafter, video content will be described as an example of content to be commented. In the following description, the video portion of the video content will be mainly described. However, the video content may be accompanied by an audio portion in the video portion or may not be accompanied by an audio portion in the video portion.
図1に、本発明の第1の実施形態に係るオーサリング支援装置の構成例を示す。 FIG. 1 shows a configuration example of an authoring support apparatus according to the first embodiment of the present invention.
図1に示されるように、本実施形態のオーサリング支援装置1は、ユーザからのコメントの入力やコメント入力のための所定の指示等を受け付けるコメント入力部11、シーン種別に応じてコンテンツからシーンを抽出するシーン抽出部12、コンテンツの表示やコメント入力のための表示等を行う表示部13、ユーザにより入力されたコメントに基づいて、コメント付与の対象となるシーンのシーン種別を判別するシーン種別判別部14、シーン種別の判別のためのルールを蓄積したシーン種別判別ルール記憶部15、ユーザがコメントを付与する対象であるコンテンツを蓄積したコンテンツ蓄積部16、コンテンツの再生等を制御するコンテンツ制御部17を備えている。
As shown in FIG. 1, the
なお、図1のオーサリング支援装置は、1つの装置として構成してもよい。また、図1のオーサリング支援装置の各要素がネットワークを介して複数の装置上に分散して存在する形態も可能である(例えば、サーバクライアントモデルで構築することも可能である)。 Note that the authoring support apparatus of FIG. 1 may be configured as one apparatus. In addition, a form in which each element of the authoring support apparatus of FIG. 1 is distributed and present on a plurality of apparatuses via a network is also possible (for example, it is possible to construct with a server client model).
以下、本実施形態のオーサリング支援装置の動作について説明する。 The operation of the authoring support apparatus according to this embodiment will be described below.
図2に、本実施形態に係るオーサリング支援装置における処理手順の一例を示す。 FIG. 2 shows an example of a processing procedure in the authoring support apparatus according to the present embodiment.
ユーザは、まず、所望のコンテンツの閲覧を行うために、再生・巻き戻し・早送りなどの指示を(図示しない指示受付部から)与える。 First, the user gives an instruction (from an instruction receiving unit (not shown)) such as reproduction, rewinding, and fast-forwarding in order to browse a desired content.
オーサリング支援装置のコンテンツ制御部17は、(図示しない指示受付部により)ユーザから受け付けた指示に応じて、コンテンツの再生・巻き戻し・早送りなどのコンテンツ再生制御を行う(ステップS10)。その際、コンテンツは、表示部13に表示されるようにしてもよい。なお、コンテンツが音声を伴うものである場合には、音声が(図示しないスピーカ等から)出力される。
The
次に、ユーザは、コンテンツの閲覧中に、コメントを記入するシーンになった場合、コメント入力部11を操作することにより、コメントを書き込む。
Next, the user writes a comment by operating the
ここでは、最初に、コメント書込指示を入力するものとする。 Here, first, a comment writing instruction is input.
オーサリング支援装置のコメント入力部11は、ユーザからのコメント書込指示が入力された場合(ステップS11)、ユーザからのコメントの書き込みを受け付ける(ステップS12)。
The
ここでは、一例として、コンテンツの再生中又は一時停止中に、ユーザからのコメント書込指示が(コメント入力部11から)入力された場合に、コメント入力インターフェースを表示させる(なお、ここでは、表示部13に表示させるものとする)。 Here, as an example, a comment input interface is displayed when a comment writing instruction is input from the user (from the comment input unit 11) during playback or pause of the content (in this case, display It is assumed to be displayed on the part 13).
コンテンツの再生中にコメント書込指示が入力された場合には、再生中のコンテンツを、コメントを書き込むシーン(例えば、ユーザからのコメント書込指示が入力されたときに再生中であったコンテンツの箇所)で一時停止してから、コメント入力インターフェースを表示させるようにしてもよいし、上記コンテンツを再生させたまま、コメント入力インターフェースを表示させるようにしてもよい。いずれの方法を取るかについては、予め定める(例えば、予めユーザがいずれかを選択して設定しておく)ようにしてもよいし、その都度ユーザが指示する(例えば、ユーザがコメント書込指示をするときに併せて指示する(具体的には、例えば、コメント書込指示ボタンを2種類用意し、所望のボタンをクリックして指示する、あるいは、コメント書込指示ボタンをクリックしたかダブルクリックしたかによって指示する、など))ようにしてもよい。 When a comment writing instruction is input during playback of the content, the content being played back is changed to the scene in which the comment is written (for example, the content being played back when the comment writing instruction from the user is input). The comment input interface may be displayed after pausing at a point), or the comment input interface may be displayed while the content is being reproduced. Which method is used may be determined in advance (for example, the user selects and sets in advance), or the user instructs each time (for example, the user instructs to write a comment). (Specifically, for example, two types of comment writing instruction buttons are prepared and the user clicks the desired button to instruct, or the comment writing instruction button is clicked or double-clicked. It may be instructed according to whether or not, etc.)).
コンテンツの一時停止中にコメント書込指示が入力された場合には、コンテンツが一時停止されたまま、コメント入力インターフェースを表示させるものとする。 When a comment writing instruction is input while the content is paused, the comment input interface is displayed while the content is paused.
このとき、コメント入力部11は、ユーザがコメントを書き込もうとした場所(例えば、ユーザからのコメント書込指示が入力されたときに再生中又は一時停止中であったコンテンツの箇所)を示す情報として、当該場所をコンテンツ中で特定する時間(例えば、コンテンツの先頭からの時間)を保持する。この時間のことを「代表時間」と呼ぶものとする。例えば、ユーザがコンテンツの再生中にコメント書込指示を入力した場合は、コメント書込指示を入力したときのコンテンツの再生時間を保持し、ユーザが一時停止してコメント入力部11を操作した場合は、この一時停止したときのコンテンツの再生時間を保持する。
At this time, the
図3に、上記のコメント入力インターフェースの一例を示す。 FIG. 3 shows an example of the comment input interface.
図3に例示するように、このコメント入力インターフェースには、コメントを書き込むコメント記入部301と、そのコメントに応じたシーンを抽出するためのシーン抽出ボタン302と、再生場所を表示するタイムバー303と、コンテンツを表示する表示部304とが設けられている。
As illustrated in FIG. 3, the comment input interface includes a
なお、図3の例には、コメント入力インターフェースとしてコンテンツ表示もあるが、コンテンツ表示は表示部13にあってもよい。図3の例では、コンテンツ表示に代表時間でのコンテンツが表示されている。
In the example of FIG. 3, there is content display as a comment input interface, but the content display may be on the
ここで、ユーザは、コメント記入部301にコメントを書き込む。図3の例では、「このセリフかっこいい!」と書き込まれた場合を例示している。コメントの書き込みには、どのような方法を利用しても構わない。例えば、コメント入力部11が書き込みインターフェースを持っており、キーボードにより文字を入力するようにしてもよいし、リモコンにより文字を入力するようにしてもよいし、他の方法によっても構わない。
Here, the user writes a comment in the
図3の例では、コメントの入力が終ると、ユーザがシーン抽出ボタン302を押すことにより、ステップS13のシーン種別判定へ進むことになる。 In the example of FIG. 3, when the input of the comment is completed, the user presses the scene extraction button 302, and the process proceeds to the scene type determination in step S13.
なお、上記例では、ステップS13のシーン種別判定へ進む方法として、ユーザがシーン抽出ボタン302を押す方法をとったが、ユーザが明示的な指示を行う他の方法も可能である。また、ユーザからの明示的な指示がなくても、一定時間以上、ユーザからのコメントの入力がなかった場合に、コメントの入力が完了したものとみなして、ステップS13のシーン種別判定へ進むようにする方法も可能である。 In the above example, as a method of proceeding to the scene type determination in step S13, the method in which the user presses the scene extraction button 302 is used. However, other methods in which the user gives an explicit instruction are also possible. Even if there is no explicit instruction from the user, if there is no input from the user for a certain time or longer, it is considered that the input of the comment has been completed, and the process proceeds to the scene type determination in step S13. It is also possible to make it.
ステップS13のシーン種別判定は、シーン種別判定部14により行われる。シーン種別判定部14は、シーン種別判定にあたって、その判定のためのルールであるシーン種別判定ルールを用いる。 The scene type determination in step S13 is performed by the scene type determination unit 14. The scene type determination unit 14 uses a scene type determination rule that is a rule for the determination of the scene type.
図4に、シーン種別判別ルール記憶部15に蓄積されているシーン種別判定ルールの一例を示す。
FIG. 4 shows an example of the scene type determination rules stored in the scene type determination
図4に例示するように、このシーン種別判定ルールは、ルールID、種別、ウェイト、表記を持っている。ここで、「ルールID」(ルール識別子)は、各ルールを管理(識別)するためのID、「種別」は、当該ルールにより判定されるシーン種別、「ウェイト」は、シーン種別を判定するときのスコアを計算するための荷重、「表記」は、ユーザが記入したコメントに対してマッチさせる表記である。 As illustrated in FIG. 4, this scene type determination rule has a rule ID, a type, a weight, and a notation. Here, “rule ID” (rule identifier) is an ID for managing (identifying) each rule, “type” is a scene type determined by the rule, and “weight” is a scene type. The load for calculating the score, “notation”, is a notation that matches a comment entered by the user.
シーン種別判定部14は、ユーザが入力したコメントに対して、そのシーン種別毎のスコアを計算する。 The scene type determination unit 14 calculates a score for each scene type with respect to the comment input by the user.
この計算方法は、例えば、Score_i=SUM(Weight_i)である。ここで、Score_iは、i番目のシーン種別のスコア、Weight_iは、i番目のシーン種別を持つルールのうち、表記がマッチしたルールのウェイトである。 This calculation method is, for example, Score_i = SUM (Weight_i). Here, Score_i is a score of the i-th scene type, and Weight_i is a weight of a rule whose notation matches among the rules having the i-th scene type.
ここで、このときのシーン種別判定方法について具体例を用いて説明する。 Here, the scene type determination method at this time will be described using a specific example.
例えば、ユーザが「このセリフは無いよね。ヒドイこと言うなぁ」というコメントの書き込みをした場合についてスコアを計算するものとする。 For example, it is assumed that a score is calculated when a user writes a comment “There is no such line.
この場合、図4のルールのうち、ルールID=1,2,3のルールにおいて表記がマッチする。この場合、1番目のシーン種別として「セリフ」のスコア、2番目のシーン種別として「カット」のスコア、3番目のシーン種別として「CM」のスコア、4番目のシーン種別として「テロップ」のスコアを計算すると、
Score_1=SUM(2,1,1)=4
Score_2=SUM()=0
Score_3=SUM()=0
Score_4=SUM()=0
となり、セリフのスコアは4点、それ以外のスコアは0点となる。
In this case, the notation matches in the rules of rule ID = 1, 2, 3 among the rules of FIG. In this case, the first scene type is “Serif” score, the second scene type is “Cut” score, the third scene type is “CM” score, and the fourth scene type is “Telop” score. When calculating
Score_1 = SUM (2,1,1) = 4
Score_2 = SUM () = 0
Score_3 = SUM () = 0
Score_4 = SUM () = 0
Thus, the score of the dialogue is 4 points, and the other scores are 0 points.
このようにして、ユーザが入力したコメントに対して、各シーン種別毎にスコアが計算される。 In this way, the score is calculated for each scene type with respect to the comment input by the user.
図4のシーン種別判定ルールは、ユーザの入力したコメントから、シーン種別がより正しく判定されるように変更して用いると好ましい。 The scene type determination rule in FIG. 4 is preferably used by changing the comment so that the scene type is determined more correctly based on the comment input by the user.
ところで、シーン種別毎のスコアを計算する別の手法として、ルールに記述されている表記とユーザが入力したコメントとの類似度を利用することもできる。 By the way, as another method for calculating the score for each scene type, the similarity between the notation described in the rule and the comment input by the user can be used.
この類似度を計算する方法としては、公知の自然言語処理技術を用いることができる。 As a method for calculating the similarity, a known natural language processing technique can be used.
例えば、ルールに記述されている表記とユーザが入力したコメントとに共通に現れる語の数をスコアとしてもよい。 For example, the score may be the number of words that appear in common in the notation described in the rule and the comment entered by the user.
また、例えば、類似度を計算する方法として、文献“東京大学出版会、徳永健伸著、言語と計算−5 情報検索と言語処理、第2章「情報検索の基礎」”にある、検索質問に対する文書の適合度を計算するベクトル空間モデルを利用して、ルールの表記とユーザのコメントとの類似度を定義してもよい。
Also, for example, as a method of calculating similarity, for the search question in the document “The University of Tokyo Press, Takenobu Tokunaga, Language and Calculation-5 Information Search and Language Processing,
これらは、ルールに記述されている表記とユーザが入力したコメントとに共通に現れる語とを利用してスコアを計算するため、必ずしもルールのウェイトは必要ではない。 Since the score is calculated using the words that appear in the notation described in the rule and the comment input by the user, the weight of the rule is not necessarily required.
また、図示していないが、類義語辞書や同義語辞書を用いることにより、表記上異なる表現であってもその内容の類似性から、類似度を求めることもできる。 Further, although not shown, by using a synonym dictionary or a synonym dictionary, the similarity can be obtained from the similarity of the contents even if the expressions are different in notation.
これらにより、表記として、例えば図5のように、コンテンツのセリフやテロップの内容を、そのまま、ユーザが入力したコメントと比較することも、できるようになる。図5において、(セリフ)には、代表時間でのセリフがそのまま入力される。また、(テロップ)には、代表時間でのテロップがそのまま入力される。 Thus, as a notation, for example, as shown in FIG. 5, it is possible to compare the contents of words and telops with the comments input by the user as they are. In FIG. 5, the words in the representative time are input as they are in (Serif). In (telop), the telop at the representative time is input as it is.
これにより、例えば、コンテンツ内のセリフとして、「特許明細書を書くのは難しい」というような発言があった場合、このルールは、図6のようになる。 Thus, for example, when there is a statement such as “It is difficult to write a patent specification” as a dialogue in the content, this rule becomes as shown in FIG.
ユーザがコメントとして、「特許明細書を書くのって、そんなに難しいんですか?」と入力した場合、例えば、共通に現れる語をスコアとする場合、「特許明細書」「書く」「難しい」が共通として現れるため、このルールIDの表記とユーザのコメントとの類似度は、3となる。 For example, when the user inputs “is it so difficult to write a patent specification?” As a comment, for example, when a word that appears in common is used as a score, “patent specification” “writing” “difficult” Since they appear as common, the similarity between the rule ID notation and the user's comment is 3.
これにより、シーン種別が「セリフ」のスコアを、シーン種別が「セリフ」であるルールにおいて計算された類似度の最大値としてもよいし、類似度の合計としてもよい。最大値とする場合は、これらのルールの中で「セリフ」のルールでは、ルールID=9のルールが類似度最大となるため、シーン種別がセリフのスコアは3となる。 Thereby, the score of the scene type “Serif” may be the maximum value of the similarity calculated in the rule whose scene type is “Serif”, or may be the sum of the similarities. In the case of the maximum value, among the rules of “Serif” among these rules, the rule with the rule ID = 9 has the highest similarity, so the score of the scene type is “3”.
次に、シーン種別判定部14で計算されたスコアをもとに、ステップS14では、シーン抽出部12により対応するシーンが抽出される。
Next, based on the score calculated by the scene type determination unit 14, a corresponding scene is extracted by the
ここで、シーン種別が「セリフ」と判定された場合を例にとって、シーン抽出部12の動作について説明する。
Here, the operation of the
シーン抽出部12は、コンテンツから、「代表時間」付近のセリフの開始時間から終了時間までを抽出する。
The
ここでは、シーン抽出部12は、字幕認識部(図示せず)を持つ。この字幕認識部は、コンテンツの字幕が表示されたときの先頭からの時間と、字幕の表示が消えたときの先頭からの時間を抽出する。
Here, the
字幕を認識する方法としては、例えば、コンテンツが放送波の場合は、字幕放送として受信した字幕を使うことができる。また、例えば、コンテンツがDVDの場合も、字幕を認識することができる。また、例えば、画面に表示された文字から、テロップ認識技術により、字幕を認識することもできる。 As a method for recognizing subtitles, for example, when the content is broadcast waves, subtitles received as subtitle broadcasts can be used. For example, even when the content is a DVD, it is possible to recognize subtitles. Further, for example, subtitles can be recognized from characters displayed on the screen by using a telop recognition technique.
図7に、字幕が表示されたときのコンテンツの先頭からの経過時間である開始時間と、字幕が消えたときのコンテンツの先頭からの経過時間である終了時間の例を示す。図7では、開始時間と終了時間とがミリ秒で記述されている。コンテンツが放送番組の場合は、コンテンツの先頭は、番組の開始時刻として計算することができる。なお、ユーザがシーン抽出ボタン302を押したときに、そのときの代表時間の付近のみについて、字幕の開始時間と終了時間を抽出してもよいし、予めコンテンツの全ての字幕の開始時間と終了時間を求めて、図7のようなテーブルを作成しておいてもよい。 FIG. 7 shows an example of the start time that is the elapsed time from the beginning of the content when the subtitle is displayed and the end time that is the elapsed time from the top of the content when the subtitle disappears. In FIG. 7, the start time and the end time are described in milliseconds. If the content is a broadcast program, the beginning of the content can be calculated as the start time of the program. When the user presses the scene extraction button 302, the subtitle start time and end time may be extracted only in the vicinity of the representative time at that time, or the start time and end time of all subtitles of the content in advance. A table as shown in FIG. 7 may be created for the time.
この開始時間から終了時間までの間で、代表時間を含む時間間隔を、ユーザが入力したコメントに対応するシーンとして抽出する。例えば、代表時間がコンテンツの先頭から97秒のときは、図7を参照して、96891ミリ秒から98066ミリ秒までを対応するシーンとして抽出する。 Between the start time and the end time, a time interval including the representative time is extracted as a scene corresponding to the comment input by the user. For example, when the representative time is 97 seconds from the beginning of the content, referring to FIG. 7, 96891 milliseconds to 98066 milliseconds are extracted as corresponding scenes.
もし代表時間を含む時間間隔が図7のいずれの開始時間から終了時間にもあたらない場合は、最も近い時間間隔を対応するシーンとして抽出してもよい。 If the time interval including the representative time does not correspond to any start time to end time in FIG. 7, the nearest time interval may be extracted as the corresponding scene.
上記では、シーン種別が「セリフ」と判定された場合に、字幕情報を利用して図7の時間間隔を抽出する例について説明したが、音声認識技術を用いて字幕を抽出することも可能である。この場合、シーン抽出部12は、音声認識部(図示せず)を持つ。この音声認識部により、セリフの開始時間と終了時間とを決定することができる。例えば、代表時間の付近について、コンテンツの音声部分の音声認識を行い、音声認識結果に応じてコンテンツからセリフの区間を抽出する(例えば、コンテンツ中でセリフが開始されたときの先頭からの時間と、セリフが終了したときの先頭からの時間を抽出する)。
In the above, the example in which the time interval of FIG. 7 is extracted using the caption information when the scene type is determined to be “serif” has been described. However, it is also possible to extract the caption using the voice recognition technology. is there. In this case, the
また、シーン抽出部12において、字幕認識結果と音声認識結果との両方を用いることもできる。これは、例えば実際の音声と表示される字幕とがずれている場合に、そのずれを補正することにより、正確にセリフのシーンを抽出することができるので、有効である。この場合、シーン抽出部12は、字幕認識部と音声認識部との両方を持つ。まず、字幕認識部により、字幕の時間間隔を抽出するとともに、字幕の発話内容を文字情報として抽出する。次に、その時間間隔の付近で、発話内容の文字情報を発話している時間間隔を音声認識部により探索する。これは、発話内容を文字情報として音声認識部に与えることにより、何も情報がない場合に比較して、セリフ区間の抽出精度を向上することができるためである。このようにして、字幕認識部により抽出されたセリフの時間間隔に対して、そのずれを音声認識部により補正することにより、セリフのシーンをより正確に抽出することができる。
The
以上のことから、シーン種別が「セリフ」の場合のシーンを抽出することができるようになる。 From the above, it is possible to extract a scene when the scene type is “Serif”.
次に、シーン種別が「カット」と判定された場合を例にとって、シーン抽出部12の動作について説明する。
Next, taking the case where the scene type is determined to be “cut” as an example, the operation of the
この場合、シーン抽出部12は、カット検出部(図示せず)を持つ。カット検出部は、コンテンツにおけるカメラ切り替えのタイミングを抽出する。これは、例えば、コンテンツにおいて、前後のフレームでの画像を比較し、その類似度を計算することで抽出することができる。この類似度は、前後のフレームでの画像の同じ座標の画素値を比較し、その差の合計として求めることができる。この差がある閾値以上の場合、前後のフレームでの画像が大きく変化していることを意味するので、この点をカット点とすることができる。
In this case, the
また、カット検出のための他の手法として、文献2“「ゆう度比検定を用いたMPEGビットストリームからの動画像カット検出手法」、「電子情報通信学会論文誌 Vol.J82−D2 No.3」、(1999年3月)、金子敏充、堀修著、社団法人電子情報通信学会発行、361頁〜370頁”や文献3“「動きベクトル符号量を用いたMPEG動画像からの高速カット検出」,電子情報通信学会 パターン認識・メディア理解研究会(PRMU),(1996年11月),金子敏充,堀修,社団法人電子情報通信学会発行”のような手法を用いることもできる。
Further, as other methods for cut detection,
図8に、このようにして検出したカット点でのコンテンツの先頭からの時間の例を示す。カット点はコンテンツから順に検出されるため、先行するカットの終了時間と、これに後続するカットの開始時間とが一致している(この点が、図7に示したセリフの時間間隔とは異なっている)。 FIG. 8 shows an example of the time from the beginning of the content at the cut point thus detected. Since the cut points are detected in order from the contents, the end time of the preceding cut is coincident with the start time of the subsequent cut (this is different from the time interval of the lines shown in FIG. 7). ing).
このようにして検出したカットの時間間隔(図8)は、シーン種別が「セリフ」の場合における図7の使い方と同様に用いる。 The cut time interval detected in this way (FIG. 8) is used in the same manner as in FIG. 7 when the scene type is “Serif”.
ユーザにより入力されたコメントのシーン種別が「カット」の場合、代表時間を含むカットの時間間隔を対応するシーンとして抽出する。このとき、字幕の場合との相違点は、必ずどこかのカット間隔が対応することである。例えば、全くカメラ切り替えのないコンテンツの場合は、コンテンツ全体が1つのカット間隔となり、どこを代表時間としてもコンテンツ全体が対応するシーンとして抽出することができる。 When the scene type of the comment input by the user is “cut”, the cut time interval including the representative time is extracted as the corresponding scene. At this time, the difference from the case of subtitles is that some cut interval always corresponds. For example, in the case of content with no camera switching, the entire content has one cut interval, and it can be extracted as a scene corresponding to the entire content regardless of where the representative time is.
次に、シーン種別が「CM」(コマーシャルメッセージ)と判定された場合を例にとって、シーン抽出部12の動作について説明する。
Next, the operation of the
この場合、シーン抽出部12は、CM検出部(図示せず)を持つ。CM検出部は、コンテンツにおけるCMを抽出する。
In this case, the
CMを検出する方法としては、例えば、以下に示すようなものがある。
(1)(例えば前述した方法により)カット検出を行い、その検出時間が15秒(または30秒)ごとに検出される部分をCM部分と判定する。
(2)CMの前後で無音区間があることを利用して、無音区間が15秒(または30秒)毎に検出された場合、その無音区間をCM部分と判定する。
(3)音声がモノラルの番組コンテンツのときにステレオ放送の部分をCMと判定する。
(4)CMの画像パターンを記憶しておき、その画像パターンとマッチする部分をCM部分と判定する。
(5)例えば特開2003−257160号公報に開示されているような、TV信号の音声モード、TV信号における映像信号レベル、音声信号レベルパターンを利用してCM区間を検出する。これは、例えば、番組コンテンツが二カ国放送の場合に、そうでない部分をCM部分と判定する。
As a method for detecting the CM, for example, there is the following method.
(1) Cut detection is performed (for example, by the method described above), and a portion where the detection time is detected every 15 seconds (or 30 seconds) is determined as a CM portion.
(2) Utilizing the fact that there is a silent section before and after the CM, if a silent section is detected every 15 seconds (or 30 seconds), the silent section is determined as the CM portion.
(3) When the sound is monophonic program content, the part of the stereo broadcast is determined as CM.
(4) A CM image pattern is stored, and a portion matching the image pattern is determined as a CM portion.
(5) The CM section is detected using the audio mode of the TV signal, the video signal level in the TV signal, and the audio signal level pattern as disclosed in, for example, Japanese Patent Laid-Open No. 2003-257160. For example, in the case where the program content is broadcast in two countries, the part that is not so is determined as the CM part.
CM検出部では、上記のうちのいずれかの方法を用いて、または、上記方法のいくつか組み合わせて用いることにより、入力されたコンテンツからCM部分を検出する。 The CM detection unit detects a CM portion from the input content by using any one of the above methods or by using some combination of the above methods.
このようにして検出したCMでのコンテンツの先頭からの時間の例を図9に示す。これも、シーン種別がセリフの場合における図7の使い方と同様に用いる。 An example of the time from the beginning of the content in the CM detected in this way is shown in FIG. This is also used in the same manner as in FIG. 7 when the scene type is a line.
次に、シーン種別が「テロップ」と判定された場合を例にとって、シーン抽出部12の動作について説明する。
Next, the operation of the
この場合、シーン抽出部12は、テロップ認識部を持つ。テロップ認識部は、コンテンツにおけるテロップが表示されたときの先頭からの時間と、テロップの表示が消えたときの先頭からの時間を抽出する。
In this case, the
テロップを認識する方法としては、例えば、映像認識技術を用いることができる。画面からOCRによって文字を認識することにより、テロップを認識することができる。 As a method for recognizing a telop, for example, a video recognition technique can be used. A telop can be recognized by recognizing characters from the screen by OCR.
テロップ認識結果は、シーン種別が「セリフ」のときと同様に図7のような時間間隔が得られる。この結果は、シーン種別が「セリフ」の場合と同様に用いられる。 As the telop recognition result, a time interval as shown in FIG. 7 is obtained as in the case where the scene type is “Serif”. This result is used in the same manner as when the scene type is “Serif”.
以上のようにして、シーン種別が「セリフ」、「カット」、「CM」、「テロップ」について説明したが、これら全てをシーン抽出部12が持ってもよいし、どれか一部を持ってもよい。
As described above, the scene types “serif”, “cut”, “CM”, and “telop” have been described. However, all of these may be included in the
また、シーン種別判定部14が他のシーン種別を認識する場合は、それに対応した時間間隔を抽出する機能を持つことにより、対応することができる。例えば、曲のシーンを抽出する機能をシーン抽出部12が持つことにより、ユーザが例えば「このBGM」という記入を行ったときに、シーン種別判定部14は「曲」というシーン種別を出力し、シーン抽出部12がそれに対応するシーンを抽出することにより、対応するシーンを抽出することも可能である。
Further, when the scene type determination unit 14 recognizes another scene type, it can be handled by having a function of extracting a time interval corresponding to the scene type. For example, since the
また、シーン区間の時間間隔を、図示しない通信手段を用いて、時間間隔を配信するサーバと通信し、対応する時間間隔を受信することも可能である。また、コンテンツ蓄積部16にコンテンツを蓄積する場合は、放送波を受信したり、ネットワークから受信したりすることにより蓄積するが、このとき、シーン区間の時間間隔を同時に受信することも可能である。これらの場合、シーン区間の時間間隔を配信するサーバが必要となるが、これは、例えば、これまでシーン抽出部12を用いた抽出方法により作成してもよいし、例えば、手動で抽出したシーン区間をサーバが保持し、配信してもよい。手動でシーン区間を作成する場合には、これまで記述したシーン区間だけでなく、俳優に対応するシーン区間や、車や服などのシーン区間を作成することも可能である。
It is also possible to communicate the time interval of the scene section with a server that distributes the time interval using a communication means (not shown) and receive the corresponding time interval. When content is stored in the
次に、ステップS15では、コメントに対応するシーン抽出結果に関する表示を行う。この表示は、表示部13で行われるようにしてもよい。
Next, in step S15, a display relating to the scene extraction result corresponding to the comment is performed. This display may be performed on the
図10に、表示画面の一例を示す。 FIG. 10 shows an example of the display screen.
図10に例示するように、この表示画面には、コメントを書き込むコメント入力部401と、コンテンツの時間を示すタイムバー403と、コメントに対応するシーン抽出結果を示す時間間隔ポインタ402と、コンテンツを表示する表示部404と、シーン種別を表示するシーン種別表示部405とが設けられている。
As illustrated in FIG. 10, the display screen includes a
表示部404では、例えば、コンテンツ中で、ユーザが入力したコメントに対応するシーンを優先的に表示するようにしてもよい(例えば、ユーザがコメントを入力した代表時間で停止した画像を表示してもよい)。また、例えば、抽出されたシーン区間を強調した表示をしてもよい(例えば、抽出されたシーン区間だけをループ再生するようにしてもよい)。また、これら以外の表示情報も可能である。
In the
時間間隔ポインタ402では、抽出されたシーン区間が幅をもって表示されている。
In the
シーン種別表示部405では、抽出されたシーン区間がプルダウンメニューとして表示されている。ここでは、シーン種別判定部14がスコアを付けた順に表示される(図10では、シーン種別の第1候補として「セリフ」が表示されている場合を例示している)。このとき、シーン抽出部12が抽出できなかったシーン種別は表示されなくてもよい。ユーザは別のシーン種別も選択することができる。ユーザが別のシーン種別を選択すると、ユーザに選択されたシーン種別の時間間隔が適用される。
In the scene
また、シーン抽出部12で抽出したシーン区間以外にも、代表時間の付近から一定区間をシーン区間として抽出して表示してもよい。図10のシーン種別表示部405では、代表時間から前後3秒の区間を抽出した場合と、代表時間から前10秒の区間を抽出した場合と、代表時間から後ろ10秒の区間を抽出した場合がシーン種別として選択できるようにシーン種別表示部405に表示されている。
In addition to the scene section extracted by the
シーン種別表示部405でユーザが別のシーン種別を選択すると、表示部404と時間間隔ポインタ402は、そのシーン区間が強調して表示される。
When the user selects another scene type on the scene
ところで、図2の手順例では、ユーザによるコメント入力が完了してから(又はユーザによるコメント入力が完了したものとみなされてから)、ステップS13のシーン種別判定へ進む方法をとっているが、ユーザによるコメント入力の途中であっても、随時、ステップS13へ進むようにすることも可能である。 By the way, in the procedure example of FIG. 2, after the comment input by the user is completed (or after it is considered that the comment input by the user is completed), the process proceeds to the scene type determination in step S13. Even during comment input by the user, it is possible to proceed to step S13 at any time.
図11に、この場合の処理手順の一例を示す。図2の処理手順と相違する点は、ステップS15の表示の後に、コメントが追加されたかどうかの判断(ステップS16)があることである。 FIG. 11 shows an example of the processing procedure in this case. The difference from the processing procedure of FIG. 2 is that there is a determination (step S16) whether or not a comment has been added after the display in step S15.
例えば、ユーザが「このセリフは無いよね。ヒドイこと言うなぁ」というコメントを入力しようとする場合、「このセリフ」まで入力した時点で、本オーサリング支援装置はシーン種別を判定することができる。よって、ユーザがコメント入力部11を操作して、コメントの入力を始めるとき、文字を入力する毎にステップS13へ進んで処理を行う。ここで、文字を入力する毎にとは、例えば、ユーザが1文字入力する毎でもよいし、かな漢変換を確定する毎でもよいし、ある一定時間(例えば3秒)入力が無かったときにステップS13へ進んでもよい。さらに文字が追加されると、入力中のコメント全体についてステップS13以降の処理を行う。この場合、シーン抽出ボタン302は不要となる。このように、ユーザのコメント入力に応じて、随時、対応シーンを抽出することにより、よりユーザの負担を軽減することができる。
For example, when the user intends to input a comment “There is no such line. Don't say that,” the authoring support apparatus can determine the scene type at the time of inputting “This line”. Therefore, when the user operates the
以上のことから、本実施形態により、ユーザは入力したコメントに対応するシーン区間を容易に抽出することができるようになり、オーサリングの作業の負担を軽減することができる。 As described above, according to the present embodiment, the user can easily extract a scene section corresponding to the input comment, and the burden of authoring work can be reduced.
(第2の実施形態)
以下では、第1の実施形態と相違する点を中心に説明する。
(Second Embodiment)
Below, it demonstrates centering on the point which is different from 1st Embodiment.
図12に、本発明の第2の実施形態に係るオーサリング情報共有システムの構成例を示す。 FIG. 12 shows a configuration example of an authoring information sharing system according to the second embodiment of the present invention.
図12に示されるように、本実施形態のオーサリング情報共有システムには、ネットワーク5に接続されたサーバ3とクライアント2とが含まれている。なお、クライアント2は、図12では1台のみ示しているが、複数台存在して構わない。
As shown in FIG. 12, the authoring information sharing system of this embodiment includes a
クライアント2は、ユーザからのコメントの入力やコメント入力のための所定の指示等を受け付けるコメント入力部11、シーン種別に応じてコンテンツからシーンを抽出するシーン抽出部12、コンテンツの表示やコメント入力のための表示等を行う表示部13、ユーザにより入力されたコメントに基づいて、コメント付与の対象となるシーンのシーン種別を判別するシーン種別判別部14、シーン種別の判別のためのルールを蓄積したシーン種別判別ルール記憶部15、ユーザがコメントを付与する対象であるコンテンツを蓄積したコンテンツ蓄積部16、コンテンツの再生等を制御するコンテンツ制御部17、サーバ3との通信を行う通信部18を備えている。すなわち、図12のクライアント2は、図12のオーサリング支援装置1に、通信部18を追加したものである。
The
サーバ3は、クライアント2との通信を行う通信部33、投稿されたオーサリング情報を蓄積するオーサリング情報蓄積部32、コメントを要約するコメント要約部31を備えている。
The
なお、図12の構成例では、コメント要約部31は、サーバ3側に設けられているが、各々のクライアント2側に設けるようにしてもよい。また、サーバ3側にコメント要約部を設けるとともに、クライアント2の全部又は一部にコメント要約部31を設けるようにしても構わない。
In the configuration example of FIG. 12, the
ユーザは、第1の実施形態で説明した方法を用いて、対象コンテンツに付与すべきコメントを入力し、クライアント2は、第1の実施形態のオーサリング支援装置1と同様にして、そのコメントに対応するシーンを抽出する。本実施形態では、一人のユーザにより付与されたコメントを、複数のユーザ間で共有するために、そのクライアント2からサーバ3への投稿を行う。
The user inputs a comment to be given to the target content by using the method described in the first embodiment, and the
ユーザがクライアント2においてコメントを記入し、そのコメントに対応するシーンがクライアント2により抽出された後、例えばクライアント2に設けられた投稿ボタン(図示せず)をユーザが押すことにより、これに応答してクライアント2は、コメントと、これに対応するシーン区間の時間情報と、シーン種別とを含むオーサリング情報を、通信部18を用いて、サーバ3へ送信する。
After the user enters a comment in the
サーバ3は、クライアント2から投稿されたオーサリング情報を、通信部33を用いて受信し、オーサリング情報蓄積部32に蓄積する。
The
共有されたオーサリング情報は、個々のクライアント2で表示することができる。
The shared authoring information can be displayed by each
図13に、このときのコメント表示画面の一例を示す。 FIG. 13 shows an example of the comment display screen at this time.
図10に例示するように、このコメント表示画面には、コメント表示部601、コンテンツ表示画面602が設けられている。クライアント2においては、オーサリング情報に含まれる「シーン区間の時間情報」をもとに、オーサリング情報に含まれる「コメント」に対応するシーンを再生するときに同期して、当該「コメント」を表示することができる。また、「コメント」と同時に、オーサリング情報に含まれる「シーン種別」を表示することができる。
As illustrated in FIG. 10, a comment display unit 601 and a
サーバ3は、クライアント2からオーサリング情報の送信要求を受けると、対応するオーサリング情報をクライアント2へ送信する。
When the
また、ユーザが選択したオーサリング情報に含まれる「シーン種別」も表示することにより、簡単なコメントであっても、それが「カット」についてのコメントなのか、「セリフ」についてのコメントなのか、「CM」についてのコメントなのかなどを、ユーザは理解することが可能となる。 In addition, by displaying the “scene type” included in the authoring information selected by the user, even if it is a simple comment, whether it is a comment about “cut” or “comment”, The user can understand whether the comment is about “CM”.
これにより、ユーザ間でシーンに対応するコメントを共有することができる。 Thereby, the comment corresponding to a scene can be shared between users.
ところで、あるシーンに対応する共有されているオーサリング情報が多すぎると、クライアント2で表示できない場合がある。この場合、コメントが表示できるようにコメント要約部31によりコメントを要約するようにしてもよい。
By the way, if there is too much shared authoring information corresponding to a certain scene, the
コメント要約部31は、言語処理技術を用いて、似ているコメントを要約する。これには言語処理技術の複数文書の要約技術を用いることができる。
The
例えば、各コメントから形態素解析技術により単語を抽出する。同じシーン区間に対応する複数のコメントから、重複する単語が多いコメントを類似したコメントとして、要約する。2つのコメントを要約する方法は、例えば、片方のコメントのみを選択することで可能である。 For example, words are extracted from each comment by a morphological analysis technique. From a plurality of comments corresponding to the same scene section, comments with many overlapping words are summarized as similar comments. A method of summarizing two comments is possible, for example, by selecting only one comment.
同じシーンであるか否かの判断方法については、例えば、オーサリング情報が持つシーン区間の時間情報が一致する場合にのみ同じシーンと判断する方法や、オーサリング情報が持つシーン区間の時間情報が一致するか又は一致しなくても類似している場合に同じシーンと判断する方法などが考えられる。 As for a method for determining whether or not the scenes are the same, for example, a method of determining that the scenes are the same only when the time information of the scene sections included in the authoring information matches, or the time information of the scene sections included in the authoring information matches. Or a method of determining that the scenes are the same if they are similar even if they do not match.
また、ユーザがシーン種別を選択してオーサリング情報を作成した場合、あるユーザはセリフに関するコメントとして作成し、また別のユーザは同じ区間で同じ単語を使ってコメントを作成しても、カットに関するコメントを作成した場合には、別のコメント種別を選択することになる。この場合、コメントの表示は類似していてもユーザの意図は異なるため、要約しないことが望ましい。 In addition, when the user selects the scene type and creates the authoring information, one user creates a comment about the dialogue, and another user creates a comment using the same word in the same section, but the comment about the cut When a comment is created, another comment type is selected. In this case, since the display of the comment is similar, the intention of the user is different, so it is desirable not to summarize.
よって、同じシーンに対応するコメントで要約するのではなく、同じシーンでかつ同じシーン種別を持つコメントで要約処理を行うことにより、例えば、同じシーンでかつコメントに含まれる単語が似ている場合でも、シーン種別が異なる場合には要約しない処理が可能となり、ユーザの意図に沿った表示と要約が可能となる。 Therefore, instead of summarizing with comments corresponding to the same scene, for example, even if the words included in the comment are similar in the same scene by performing the summarization process with the same scene and the same scene type. When the scene types are different, processing without summarization is possible, and display and summarization according to the user's intention are possible.
以上のことから、ユーザは容易にシーンに対するコメントを作成することができ、また容易にコメント情報を共有・表示することが可能となる。 From the above, the user can easily create a comment for a scene, and can easily share and display comment information.
なお、以上の各機能は、ソフトウェアとして記述し適当な機構をもったコンピュータに処理させても実現可能である。
また、本実施形態は、コンピュータに所定の手順を実行させるための、あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるためのプログラムとして実施することもできる。加えて該プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。
Each of the above functions can be realized even if it is described as software and processed by a computer having an appropriate mechanism.
The present embodiment can also be implemented as a program for causing a computer to execute a predetermined procedure, causing a computer to function as a predetermined means, or causing a computer to realize a predetermined function. In addition, the present invention can be implemented as a computer-readable recording medium on which the program is recorded.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1…オーサリング支援装置、2…クライアント装置、11…コメント入力部、12…シーン抽出部、13…表示部、14…シーン種別判別部、15…シーン種別判別ルール記憶部、16…コンテンツ蓄積部、17…コンテンツ制御部、18…通信部、5…ネットワーク、3…サーバ装置、31…コメント要約部、32…オーサリング情報蓄積部、33…通信部
DESCRIPTION OF
Claims (20)
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、
入力された前記コメントの内容と、個々のシーン種別ごとに対応付けて予め1又は複数個ずつ規定された文字情報の各々とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、
前記抽出の結果を表示する表示手段とを備えたことを特徴とするオーサリング支援装置。 Storage means for storing content including at least video;
The input of the comment to be added to a predetermined scene in the content, an input unit attaching accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the respective character information defined by advance one or a plurality in association with each individual scene type, the predetermined scene scene imparting the comment A discriminating means for discriminating the type;
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content Extraction means for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
An authoring support apparatus comprising display means for displaying the extraction result.
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、
入力された前記コメントの内容と、シーン種別に対応付けて予め規定された方法に従って前記コンテンツに含まれる画像データ、音声データ又はテキストデータから得られた文字情報とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、
前記抽出の結果を表示する表示手段とを備えたことを特徴とするオーサリング支援装置。 Storage means for storing content including at least video;
The input of the comment to be added to a predetermined scene in the content, an input unit attaching accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the image data included in the content according to a method defined in advance in association with the scene type, a character information obtained from the audio data or text data, the comment Discriminating means for discriminating the scene type of the predetermined scene to which
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content Extraction means for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
An authoring support apparatus comprising display means for displaying the extraction result.
前記抽出手段は、選択された前記シーン種別がセリフである場合に、前記所定のシーンの区間を示す情報として、前記音声認識手段による音声認識結果に応じて、前記コンテンツからセリフの区間を示す情報を抽出するものであることを特徴とする請求項1または2に記載のオーサリング支援装置。 Before Ki抽 detecting means, the content is one having a voice recognition means for recognizing a voice of the content if it is intended to include speech,
Before Ki抽 out means, if the selected the scene type is a speech, wherein the information indicating a section of a predetermined scene, in response to said speech recognition result by the speech recognition means, the section of speech from the content authoring support device according to claim 1 or 2, characterized in that to extract information indicating a.
前記抽出手段は、選択された前記シーン種別がCMである場合に、前記所定のシーンの区間を示す情報として、前記CM区間認識手段によるCM区間認識結果に応じて、前記コンテンツからCMの区間を示す情報を抽出するものであることを特徴とする請求項1または2に記載のオーサリング支援装置。 Before Ki抽 detecting means are those having the CM segment recognizing means for recognizing a CM section of the content,
Before Ki抽 out means, if the selected the scene type is a CM, as information indicating a section of the predetermined scene, according to the CM section recognition result obtained by the CM interval recognizing means, CM from the content The authoring support apparatus according to claim 1 or 2, wherein information indicating a section is extracted.
前記抽出手段は、選択された前記シーン種別がカットである場合に、前記所定のシーンの区間を示す情報として、前記カット認識手段によるカット認識結果に応じて、前記コンテンツからカットの区間を示す情報を抽出するものであることを特徴とする請求項1または2に記載のオーサリング支援装置。 Before Ki抽 detecting means is one having a cut-recognizing means for recognizing the cut content,
Before Ki抽 out means, if the selected the scene type is a cut, the as information indicating a section of a predetermined scene, in response to said cut recognition result obtained by cutting recognition means section cut from the content authoring support device according to claim 1 or 2, characterized in that to extract information indicating a.
前記抽出手段は、選択された前記シーン種別がテロップである場合に、前記所定のシーンの区間を示す情報として、前記テロップ認識手段によるテロップ認識結果に応じて、前記コンテンツからテロップの区間を示す情報を抽出するものであることを特徴とする請求項1または2に記載のオーサリング支援装置。 Before Ki抽 detecting means is one having a telop recognition means for recognizing the telop of the content,
Before Ki抽 detecting means, when the scene type selected is telop, as information indicating a section of the predetermined scene, according to telop recognition result by the telop recognition unit, the section of the telop from the content authoring support device according to claim 1 or 2, characterized in that to extract information indicating a.
前記抽出手段は、選択された前記シーン種別が字幕である場合に、前記所定のシーンの区間を示す情報として、前記字幕認識手段による字幕認識結果に応じて、前記コンテンツから字幕の区間を示す情報を抽出するものであることを特徴とする請求項1または2に記載のオーサリング支援装置。 Before Ki抽 detecting means is one having a caption recognizing means for recognizing the caption of the content,
Before Ki抽 detecting means, when the scene type selected is a subtitle, as information indicating a section of the predetermined scene, according to the caption recognition result by the caption recognition means, the interval of the subtitle from the content authoring support device according to claim 1 or 2, characterized in that to extract information indicating a.
前記抽出手段は、選択された前記シーン種別が字幕である場合に、前記所定のシーンの区間を示す情報として、前記字幕認識手段により前記コンテンツの字幕から、対応する音声の内容を抽出し、次いで、前記音声認識手段により、前記コンテンツから、該抽出された内容の音声が発話された区間を示す情報を抽出することによって、前記コンテンツから字幕の区間を示す情報を抽出するものであることを特徴とする請求項1または2に記載のオーサリング支援装置。 Before Ki抽 detecting means includes recognizing caption recognition means subtitles of the content, the content is one having a speech recognition means for recognizing a voice of the content if it is intended to include speech,
Before Ki抽 detecting means is extracted when the scene type selected is a subtitle, as information indicating a section of the predetermined scene, the subtitle of the content by the caption recognition means, the contents of the corresponding audio Then, the information indicating the subtitle section is extracted from the content by extracting the information indicating the section in which the extracted speech is uttered from the content by the voice recognition means. The authoring support apparatus according to claim 1 or 2, characterized in that
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける受付ステップと、
入力された前記コメントの内容と、個々のシーン種別ごとに対応付けて予め1又は複数個ずつ規定された文字情報の各々とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別ステップと、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出ステップと、
前記抽出の結果を表示する表示ステップとを有することを特徴とするオーサリング支援方法。 In an authoring support method for an authoring support device comprising a storage means for storing content including at least video,
The input of the comment to be added to a predetermined scene in the content, and accepting step of applying accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the respective character information defined by advance one or a plurality in association with each individual scene type, the predetermined scene scene imparting the comment A discriminating step for discriminating the type;
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content An extraction step for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
An authoring support method comprising: a display step of displaying the extraction result.
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける受付ステップと、
入力された前記コメントの内容と、シーン種別に対応付けて予め規定された方法に従って前記コンテンツに含まれる画像データ、音声データ又はテキストデータから得られた文字情報とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別ステップと、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出ステップと、
前記抽出の結果を表示する表示ステップとを有することを特徴とするオーサリング支援方法。 In an authoring support method for an authoring support device comprising a storage means for storing content including at least video,
The input of the comment to be added to a predetermined scene in the content, and accepting step of applying accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the image data contained in the content according to a method defined in advance in association with the scene type, a character information obtained from the audio data or text data, the comment Determining step for determining the scene type of the predetermined scene to which
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content An extraction step for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
An authoring support method comprising: a display step of displaying the extraction result.
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける受付ステップと、
入力された前記コメントの内容と、個々のシーン種別ごとに対応付けて予め1又は複数個ずつ規定された文字情報の各々とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別ステップと、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出ステップと、
前記抽出の結果を表示する表示ステップとをコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to function as an authoring support apparatus including a storage unit that stores content including at least a video,
The input of the comment to be added to a predetermined scene in the content, and accepting step of applying accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the respective character information defined by advance one or a plurality in association with each individual scene type, the predetermined scene scene imparting the comment A discriminating step for discriminating the type;
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content An extraction step for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
A program causing a computer to execute a display step of displaying the extraction result.
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける受付ステップと、
入力された前記コメントの内容と、シーン種別に対応付けて予め規定された方法に従って前記コンテンツに含まれる画像データ、音声データ又はテキストデータから得られた文字情報とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別ステップと、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出ステップと、
前記抽出の結果を表示する表示ステップとをコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to function as an authoring support apparatus including a storage unit that stores content including at least a video,
The input of the comment to be added to a predetermined scene in the content, and accepting step of applying accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the image data included in the content according to a method defined in advance in association with the scene type, a character information obtained from the audio data or text data, the comment Determining step for determining the scene type of the predetermined scene to which
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content An extraction step for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
A program causing a computer to execute a display step of displaying the extraction result.
前記クライアント装置は、
少なくとも映像を含むコンテンツを記憶する記憶手段と、
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、
入力された前記コメントの内容と、個々のシーン種別ごとに対応付けて予め1又は複数個ずつ規定された文字情報の各々とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、
前記抽出の結果を表示する表示手段と、
前記サーバ装置へ、前記コメントと前記シーン種別と前記所定のシーンの区間を示す情報とを含むオーサリング情報を送信する送信手段とを備え、
前記サーバ装置は、
前記クライアント装置から前記オーサリング情報を受信する受信手段と、
受信された前記オーサリング情報を記憶するオーサリング情報記憶手段とを備えたことを特徴とするオーサリング情報共有システム。 In an authoring information sharing system including a server device and a plurality of client devices,
The client device is
Storage means for storing content including at least video;
The input of the comment to be added to a predetermined scene in the content, an input unit attaching accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the respective character information defined by advance one or a plurality in association with each individual scene type, the predetermined scene scene imparting the comment A discriminating means for discriminating the type;
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content Extraction means for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
Display means for displaying the result of the extraction;
Wherein the server apparatus, and transmission means for transmitting the authoring information including the information indicating the comments and the scene type and interval of the predetermined scene,
The server device
Receiving means for receiving the authoring information from the client device;
An authoring information sharing system comprising: authoring information storage means for storing the received authoring information.
前記クライアント装置は、
少なくとも映像を含むコンテンツを記憶する記憶手段と、
前記コンテンツ中の所定のシーンに付与するコメントの入力を、前記コンテンツにおける特定の箇所を示す代表時間と関連付けて受け付ける入力手段と、
入力された前記コメントの内容と、シーン種別に対応付けて予め規定された方法に従って前記コンテンツに含まれる画像データ、音声データ又はテキストデータから得られた文字情報とを比較することによって、前記コメントを付与する前記所定のシーンのシーン種別を判別する判別手段と、
判別された前記シーン種別に応じて、前記コンテンツ中の前記代表時間を含む領域又は前記代表時間の近傍の領域から、前記所定のシーンの区間を示す情報として、前記コンテンツにおける該シーン種別に係る区間の開始点と終了点とを特定可能とする時間情報を抽出する抽出手段と、
前記抽出の結果を表示する表示手段と、
前記サーバ装置へ、前記コメントと前記シーン種別と前記所定のシーンの区間を示す情報とを含むオーサリング情報を送信する送信手段とを備え、
前記サーバ装置は、
前記クライアント装置から前記オーサリング情報を受信する受信手段と、
受信された前記オーサリング情報を記憶するオーサリング情報記憶手段とを備えたことを特徴とするオーサリング情報共有システム。 In an authoring information sharing system including a server device and a plurality of client devices,
The client device is
Storage means for storing content including at least video;
The input of the comment to be added to a predetermined scene in the content, an input unit attaching accepted in association with the representative time indicating a specific location in the content,
And the contents of the inputted comment, by comparing the image data included in the content according to a method defined in advance in association with the scene type, a character information obtained from the audio data or text data, the comment Discriminating means for discriminating the scene type of the predetermined scene to which
Depending on the determined the scene type, the content the region into a neighboring region or the representative time including representatives time during, as information indicating a section of the predetermined scene, the scene in the content Extraction means for extracting time information that makes it possible to specify the start point and end point of the section related to the type ;
Display means for displaying the result of the extraction;
Wherein the server apparatus, and transmission means for transmitting the authoring information including the information indicating the comments and the scene type and interval of the predetermined scene,
The server device
Receiving means for receiving the authoring information from the client device;
An authoring information sharing system comprising: authoring information storage means for storing the received authoring information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095943A JP4342529B2 (en) | 2006-03-30 | 2006-03-30 | Authoring support device, authoring support method and program, and authoring information sharing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095943A JP4342529B2 (en) | 2006-03-30 | 2006-03-30 | Authoring support device, authoring support method and program, and authoring information sharing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007272975A JP2007272975A (en) | 2007-10-18 |
JP4342529B2 true JP4342529B2 (en) | 2009-10-14 |
Family
ID=38675631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006095943A Expired - Fee Related JP4342529B2 (en) | 2006-03-30 | 2006-03-30 | Authoring support device, authoring support method and program, and authoring information sharing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4342529B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101512890B1 (en) * | 2012-09-21 | 2015-04-16 | 인스티튜트 포 인포메이션 인더스트리 | Media scene playing system, method and recording medium thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5033653B2 (en) * | 2008-01-21 | 2012-09-26 | 株式会社日立製作所 | Video recording / reproducing apparatus and video reproducing apparatus |
JP4737213B2 (en) * | 2008-03-18 | 2011-07-27 | 日本電気株式会社 | Information processing device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08339379A (en) * | 1995-06-12 | 1996-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for analyzing video |
JPH09161455A (en) * | 1995-12-07 | 1997-06-20 | Matsushita Electric Ind Co Ltd | Automatic index generator |
JP3648130B2 (en) * | 2000-05-15 | 2005-05-18 | 日本電信電話株式会社 | Computer-readable recording medium having recorded video listing method and video listing processing program |
JP4036328B2 (en) * | 2002-09-30 | 2008-01-23 | 株式会社Kddi研究所 | Scene classification apparatus for moving image data |
JP4079095B2 (en) * | 2004-02-18 | 2008-04-23 | 日本電信電話株式会社 | Baseball image association support method, apparatus, and program |
JP2005309907A (en) * | 2004-04-23 | 2005-11-04 | Hewlett-Packard Development Co Lp | Method, device, and program for creating digest of user comment |
JP2006050045A (en) * | 2004-08-02 | 2006-02-16 | Hitachi Ltd | Moving picture data edit apparatus and moving picture edit method |
JP4123209B2 (en) * | 2004-09-07 | 2008-07-23 | ソニー株式会社 | Video material management apparatus and method, recording medium, and program |
-
2006
- 2006-03-30 JP JP2006095943A patent/JP4342529B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101512890B1 (en) * | 2012-09-21 | 2015-04-16 | 인스티튜트 포 인포메이션 인더스트리 | Media scene playing system, method and recording medium thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2007272975A (en) | 2007-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6044553B2 (en) | Information processing apparatus, information processing method, and program | |
US9696881B2 (en) | System and method for captioning media | |
KR102085908B1 (en) | Content providing server, content providing terminal and content providing method | |
JP4905103B2 (en) | Movie playback device | |
US20100299131A1 (en) | Transcript alignment | |
JP5135024B2 (en) | Apparatus, method, and program for notifying content scene appearance | |
CN108292314B (en) | Information processing apparatus, information processing method, and program | |
JP2008205745A (en) | Image reproducing device and method | |
JP2004343488A (en) | Method, system, and program for inserting caption | |
KR20060089922A (en) | Data abstraction apparatus by using speech recognition and method thereof | |
JP4342529B2 (en) | Authoring support device, authoring support method and program, and authoring information sharing system | |
JP6443205B2 (en) | CONTENT REPRODUCTION SYSTEM, CONTENT REPRODUCTION DEVICE, CONTENT RELATED INFORMATION DISTRIBUTION DEVICE, CONTENT REPRODUCTION METHOD, AND CONTENT REPRODUCTION PROGRAM | |
JP2002344805A (en) | Method for controlling subtitles display for open caption | |
JP5912729B2 (en) | Speech recognition apparatus, speech recognition program, and speech recognition method | |
JP5033653B2 (en) | Video recording / reproducing apparatus and video reproducing apparatus | |
JP4080965B2 (en) | Information presenting apparatus and information presenting method | |
JP3838775B2 (en) | Multimedia processing apparatus and recording medium | |
JP2005167456A (en) | Method and device for extracting interesting features of av content | |
JP4276638B2 (en) | Video editing apparatus, video editing method, video editing program, and program recording medium | |
JP2006332765A (en) | Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium | |
JP2003230094A (en) | Chapter creating apparatus, data reproducing apparatus and method, and program | |
CN109977239B (en) | Information processing method and electronic equipment | |
JP2020034823A (en) | Facilitation support program, facilitation support device, and facilitation support method | |
JP2006140707A (en) | Method, device and program for processing image and computer-readable recording medium recording program | |
JP4854030B2 (en) | Video classification device and receiving device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090324 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090609 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090707 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120717 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120717 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130717 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |