WO2014002728A1 - 録画装置、テレビジョン受信機及び録画方法 - Google Patents

録画装置、テレビジョン受信機及び録画方法 Download PDF

Info

Publication number
WO2014002728A1
WO2014002728A1 PCT/JP2013/065774 JP2013065774W WO2014002728A1 WO 2014002728 A1 WO2014002728 A1 WO 2014002728A1 JP 2013065774 W JP2013065774 W JP 2013065774W WO 2014002728 A1 WO2014002728 A1 WO 2014002728A1
Authority
WO
WIPO (PCT)
Prior art keywords
program
unit
chapter
term
recording apparatus
Prior art date
Application number
PCT/JP2013/065774
Other languages
English (en)
French (fr)
Inventor
亜惟 高野
打木 寛
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2014002728A1 publication Critical patent/WO2014002728A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Definitions

  • the present invention relates to a recording apparatus that acquires a program signal including subtitle data and program information and records the program, a television receiver including the recording apparatus, and a recording method.
  • content including audio and video recorded by a recording / playback apparatus has been divided into a plurality of chapters by providing breaks called chapters at arbitrary locations (scenes, scenes).
  • a chapter is a content divided into groups in the time axis direction.
  • the transmission device can append the data describing the information specifying the chapter division position to the broadcast content and analyze the data by the reception device, so that the content can be divided into chapters at the position intended by the broadcasting station,
  • a digital broadcasting system that can give a natural chapter without a sense of incongruity according to the scene and content of broadcast content (see Patent Document 1).
  • the present invention has been made in view of such circumstances, and a recording apparatus capable of automatically setting chapters at appropriate timing according to the contents of a program, a television receiver including the recording apparatus, and a recording It aims to provide a method.
  • a recording apparatus includes an acquisition unit that acquires a program signal including video data, audio data, caption data, and program information, and a recording unit that records a program based on the program signal acquired by the acquisition unit.
  • a storage unit that stores a plurality of related terms related to program content
  • an extraction unit that extracts character data including words from the caption data acquired by the acquisition unit, and character data extracted by the extraction unit
  • a determination unit that determines whether or not a part or all of them match the related terms stored in the storage unit, and when recording a program in the recording unit, character data determined to match by the determination unit is displayed.
  • a setting unit for setting chapter breaks in the program scene.
  • the recording apparatus is characterized in that the setting unit sets character data determined to be matched by the determination unit to the chapter as a chapter name.
  • the part of the character data is displayed differently from the other part.
  • the character data is set in the chapter.
  • the recording apparatus is characterized in that the setting unit sets time information of a scene where the chapter is set in the chapter.
  • the recording apparatus includes a generation unit that generates an image of a scene in which the chapter is set, and the setting unit sets the image generated by the generation unit in the chapter. To do.
  • the setting unit sets the character data as the chapter name in the chapter. It is characterized by the above.
  • the recording apparatus includes a determination unit that determines a chapter name candidate term including at least one of program genre, program name, performer, and program content information from the program information acquired by the acquisition unit,
  • the storage unit stores the chapter name candidate terms determined by the determination unit as the related terms.
  • the recording apparatus includes an associative term storage unit that stores in advance an associative term associated with program information and associates a program scene, and an association that determines presence or absence of an associative term associated with program information acquired by the acquisition unit.
  • a term determining unit wherein the storage unit stores associative terms determined by the associative term determining unit as the related terms.
  • the recording apparatus includes, based on the program information acquired by the acquisition unit, a specifying unit that specifies a network service that publicizes an evaluation related to a program, and an evaluation related to the program in the network service specified by the specifying unit.
  • a term extraction unit for extracting frequent terms and the storage unit stores the frequent terms extracted by the term extraction unit as the related terms.
  • the recording apparatus includes, based on the program information acquired by the acquisition unit, a specifying unit that specifies a network service that publishes an evaluation related to a program recorded by the recording unit, and a network service specified by the specifying unit
  • a specifying unit that specifies a network service that publishes an evaluation related to a program recorded by the recording unit
  • a network service specified by the specifying unit A time zone specifying unit that specifies a time zone in the program in which the evaluation number of the program is equal to or greater than a predetermined threshold, and the setting unit uses the time zone specified by the time zone specifying unit to It is characterized by being set.
  • the recording apparatus includes a term extraction unit that extracts a frequent term from an evaluation in a time zone specified by the time zone specifying unit, and the setting unit extracts the frequent term extracted by the term extraction unit as the chapter. It is characterized by being set to.
  • the recording apparatus is characterized in that the setting unit sets service information related to the network service specified by the specifying unit in the chapter.
  • the recording apparatus includes a display unit that displays a chapter set by the setting unit together with a program recorded by the recording unit.
  • the television receiver according to the present invention is characterized by displaying a chapter set together with a program recorded by the recording apparatus according to any one of the above-described inventions.
  • a recording method includes an acquisition unit that acquires a program signal including video data, audio data, caption data, and program information, and a recording unit that records a program based on the program signal acquired by the acquisition unit.
  • a recording method by a recording apparatus a step of storing a plurality of related terms related to program contents, a step of extracting character data including words from the caption data acquired by the acquisition unit, and a part of the extracted character data Or determining whether or not all match the related terms stored in the storage unit, and when recording the program in the recording unit, the chapter in the scene of the program where the character data determined to match is displayed. And a step of setting a delimiter.
  • a plurality of related terms related to program contents are stored in the storage unit.
  • the related terms include, for example, a program genre, a program name (title), a performer, a role name, a song name, a sports name, a story (synopsis), a word representing a program content, and the like.
  • Related terms represent program-specific content, and can be used to infer scene changes and story development.
  • the extraction unit extracts character data including words from the caption data.
  • the character data is a character string, for example, a word or a character string composed of a modifier and a word that modifies the word.
  • the determination unit determines whether a part or all of the extracted character data matches the related term stored in the storage unit.
  • the setting unit sets a chapter delimiter in a scene where the character data determined to be matched by the determination unit is displayed.
  • a chapter refers to the entire divided scene when the scene of the program is divided at an appropriate place. In addition, it can also be called a break when dividing a scene of a program.
  • the setting unit sets the character data determined to be matched by the determination unit as the chapter name in the chapter. This makes it possible to set chapter titles according to program-specific content, scene changes and story development, so users can easily see what scenes each chapter represents in the program. can do.
  • the setting unit determines that the character data is displayed in a different display mode from the character data.
  • the character string extracted from the subtitles is “Home Life” and the related term is “Home Run”
  • the matching word “Home Run” and the word “Heart Regeneration” that does not match are different in color, different font, and different patterns. As shown in Thereby, even when the character string extracted from the caption data is relatively long, the user can easily confirm what kind of scene is represented.
  • the setting unit sets the time information of the scene where the chapter is set in the chapter.
  • the time information may be an elapsed time from the beginning of the program, or a time when the scene is projected. Thereby, the user can grasp the progress of the program.
  • the generation unit generates an image of a scene where chapters are set.
  • the screen to be generated is, for example, a thumbnail.
  • the setting unit sets the image generated by the generation unit as a chapter. Thereby, since the image of the scene at the time when the chapter is set can be displayed, the user can easily grasp the program contents and the development of the scene.
  • the setting unit sets character data in a chapter as a chapter name when the character data determined to be matched by the determination unit is different from the most recent character data determined to match most recently. For example, if a character string extracted from subtitle data matches a related term, and the character string is the same as the character string determined to match most recently, the character string is not set as a chapter name and the character string is When it is different from the character string determined to match, it is set as the chapter name. Thereby, it is possible to prevent a plurality of chapters from being set in the same scene.
  • the specifying unit determines a chapter name candidate term including at least one of the program genre, program name, performer, and program content from the acquired program information.
  • the storage unit stores the determined chapter name candidate terms as related terms.
  • the associative term storage unit stores in advance associative terms associated with program information and reminiscent of program scenes.
  • Associative terms are, for example, words that are output (subtitled) when the program is “baseball”, when a scene such as “strike out”, “home run”, “strike”, or when the scene changes. is there.
  • the associative term determination unit determines the presence or absence of an associative term related to the acquired program information, and stores the associative term determined to be present in the storage unit as a related term. Thereby, it is possible to select only the associative terms related to the acquired program information from among the many associative terms related to various programs and store them as the related terms.
  • associative terms can be added to the related terms, so chapters can be set at the time when the scene swells or when the scene changes.
  • the specifying unit specifies a network service that publishes evaluations related to programs based on the acquired program information.
  • the network service is, for example, a social networking service, and is, for example, a Twitter (registered trademark), Facebook (registered trademark), or a bulletin board in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service.
  • the evaluation regarding the program is, for example, a viewer's writing or comment regarding the program, and includes, for example, an impression or an opinion on the program.
  • the term extraction unit extracts frequently used terms from the evaluation related to the program in the specified network service.
  • the term extraction unit searches the document such as the viewer's writing or comment, counts the number of appearances of the same or consent terms, and extracts the terms having the appearance count equal to or more than a predetermined threshold number as frequent terms. .
  • the storage unit stores the extracted frequent terms as related terms. Thereby, the viewer's interest is high, and the related term which can express a viewer's impression and opinion can be preset.
  • the specifying unit specifies a network service that publishes an evaluation regarding a program to be recorded based on the acquired program information.
  • the network service is, for example, a social networking service, and is, for example, a Twitter (registered trademark), Facebook (registered trademark), or a bulletin board in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service.
  • the evaluation regarding the program is, for example, a viewer's writing or comment regarding the program, and includes, for example, an impression or an opinion on the program.
  • the time zone specifying unit specifies a time zone in a program in which the evaluation number related to the program in the specified network service is equal to or greater than a predetermined threshold.
  • the time zone can be any time interval. For example, it is possible to specify a time zone having a relatively large number of evaluations in a program.
  • the setting unit sets a chapter using the specified time zone. For example, when the number of evaluations is relatively large in a certain time zone, chapter breaks (chapters) can be set at scenes at arbitrary points in the time zone. Thereby, a chapter can be set in a scene where the viewer is highly interested.
  • the term extraction unit extracts frequent terms from the evaluation in the specified time zone. That is, the term extraction unit searches the document such as the viewer's writing or comment in the specified time zone, counts the number of appearances of the same or consent terms, and finds terms whose appearance count is equal to or greater than a predetermined threshold number of times. Identify as frequent terms.
  • the setting unit sets the extracted frequent terms as chapters. Thereby, the user can grasp
  • the setting unit sets service information related to the specified network service in a chapter.
  • the service information is, for example, a homepage address (URL) such as Twitter (registered trademark), Facebook (registered trademark), bulletin board or the like in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service, an advertisement or a promotion is there.
  • a homepage address such as Twitter (registered trademark), Facebook (registered trademark), bulletin board or the like in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service, an advertisement or a promotion is there.
  • chapters can be automatically set at an appropriate timing according to the contents of the program.
  • FIG. 10 is a flowchart illustrating a first example of a processing procedure of a DB update method of the recording apparatus according to the second embodiment.
  • 12 is a flowchart illustrating a second example of the processing procedure of the DB update method of the recording apparatus according to the second embodiment.
  • FIG. 12 is a flowchart illustrating a third example of the processing procedure of the DB update method of the recording apparatus according to the second embodiment. 12 is a flowchart illustrating a fourth example of the processing procedure of the DB update method of the recording apparatus according to the second embodiment.
  • 10 is an explanatory diagram illustrating a setting example of chapters according to the second embodiment.
  • FIG. 10 is an explanatory diagram illustrating a setting example of chapters according to the second embodiment.
  • FIG. 10 is an explanatory diagram illustrating a setting example of chapters according to the second embodiment.
  • FIG. 10 is an explanatory diagram illustrating a setting example of chapters according to the second embodiment.
  • FIG. 10 is an explanatory diagram illustrating a setting example of chapters according to the second embodiment.
  • FIG. 10 is an explanatory diagram illustrating a first example of chapter display of one program according to the second embodiment.
  • FIG. 12 is an explanatory diagram illustrating a second example of chapter display of one program according to the second embodiment.
  • 10 is
  • FIG. 1 is a block diagram showing an example of the configuration of the recording apparatus 100 according to the present embodiment.
  • a recording apparatus 100 includes a CPU 10 that controls the entire apparatus, a RAM 11, a nonvolatile memory 12, a communication unit 13, a remote control light receiving unit 14, a tuner / demodulation / separation unit 15, a USB terminal 16, and a video signal process.
  • the unit 25 is provided.
  • the recording apparatus 100 is configured to receive a digital broadcast and record a program.
  • the program is not limited to the digital broadcast, for example, a server on the Internet or a telephone network.
  • the program may be acquired from the on-demand format.
  • the tuner / demodulation / separation unit 15 has a function as an acquisition unit that acquires a program signal.
  • the tuner / demodulation / separation unit 15 tunes a digital broadcast reception signal received by an antenna, demodulates the tuned digital signal, and (1) video signal (video data), (2) audio from the demodulated signal. Signal (audio data), (3) Caption data and program information are separated.
  • the program information is described, for example, in a table (for example, EIT: Event ⁇ ⁇ Information Table) such as program arrangement information used in digital broadcasting.
  • the tuner / demodulation / separation unit 15 outputs the separated video signal to the video signal processing unit 17. Further, the tuner / demodulation / separation unit 15 outputs the separated audio signal to the audio signal processing unit 19. The tuner / demodulation / separation unit 15 outputs the separated caption data and program information to the CPU 10 and the EPG / OSD / BML processing unit 18.
  • the video signal processing unit 17 encodes the separated video signal based on the MPEG2 system. Further, the video signal processing unit 17 has a function as a generation unit, and generates a still image such as a thumbnail representing a scene of a program.
  • the audio signal processing unit 19 encodes the separated audio signal based on a method such as MPEG2AAC, MPEG1, Dolby Digital (Dolby is a registered trademark of Dolby Laboratories).
  • the stream control circuit 23 has a function as a recording unit, and synthesizes the digital signals encoded by the video signal processing unit 17 and the audio signal processing unit 19 to form a digital video / audio stream.
  • the stream control circuit 23 stores the digital video / audio stream in the HDD 20, a BD / DVD disc loaded in the BD / DVD drive 21, a memory card installed in the memory card slot 22, and a USB-attached in the USB terminal 16. Output to HDD.
  • the EPG / OSD / BML processing unit 18 performs EPG (electronic program guide) processing included in program information, OSD (On Screen Display) such as menus, data broadcast display processing, and subtitle display processing.
  • EPG electronic program guide
  • OSD On Screen Display
  • the video output conversion unit 24 combines the information processed by the EPG / OSD / BML processing unit 18 with the digital signal encoded by the video signal processing unit 17 and converts the information into a video output signal.
  • the audio output conversion unit 25 converts the digital signal encoded by the audio signal processing unit 19 into a signal for audio output.
  • the remote control light receiving unit 14 receives a signal from a remote operation terminal (not shown) operated by the user. By remote control operation, program recording, playback, chapter display, movement between chapters, and the like can be performed.
  • the communication unit 13 has a function of communicating with other devices via a network such as a LAN, and can transmit and receive data to and from other television receivers, for example.
  • the nonvolatile memory 12 stores various databases such as a genre information DB 52, a sports list DB 53, a sports associative term DB 54, a title associative term DB 55, and a dictionary DB 50, which will be described later, a program executed by the CPU 10, and the like.
  • RAM 11 stores programs executed by CPU 10, program information including subtitle data and EPG data separated by tuner / demodulation / separation unit 15, chapter name candidate term DB 51 described later, and the like.
  • CPU10 sets the extraction part which extracts character data (character string) from subtitle data, the determination part which determines whether character data corresponds to a related term (chapter name candidate term), and a chapter (chapter division). It has functions such as a setting unit, a determination unit that determines chapter name candidate terms, and an associative term determination unit that determines the presence or absence of associative terms.
  • a database (DB) used by the recording apparatus 100 of the present embodiment will be described.
  • a dictionary DB 50 for word search a chapter name candidate term DB 51 storing a plurality of related terms related to program contents, a genre information DB 52 storing various genres of programs, and a list of sports names are stored.
  • Sports list DB 53 Words that may be output (subtitle display) when a scene is excited or a scene changes in various sports programs
  • a sports association term DB 54 that stores words
  • drama / movie Words that may be output as audio (subtitle display) when a scene is excited or changes at various programs
  • a title-associated term DB 55 that stores words, program information of a program that the user is viewing
  • the related terms stored in the chapter name candidate term DB 51 represent contents specific to the program, and can infer changes in scenes and development of stories.
  • the database described above is an example, and the present invention is not limited to these.
  • FIG. 2 is an explanatory diagram showing an example of the genre information DB 52.
  • the genre information DB 52 stores a list of genres of programs. For example, music, drama, movies, sports, variety, hobbies / education, anime / special effects, news / report, information / wide show, theater / performance, documentary / It is classified into culture and welfare.
  • FIG. 3 is an explanatory diagram showing an example of the sports list DB 53.
  • the sports list DB 53 stores a list of sports names, and is classified into, for example, baseball, soccer, golf, volleyball, basketball, swimming, sumo, judo, marathon, horse racing, and so on.
  • the configuration of the sport list DB 53 is an example, and is not limited to the example of FIG.
  • FIG. 4 is an explanatory diagram showing an example of the sports association term DB 54.
  • the sports associative term DB 54 stores associative terms that are associated with program information and are associated with program scenes.
  • the sport name is “baseball”. “Strike”, “Home Run”, “Fine Play”, “Reverse”, “Strike”, “Full”, “Double Play”, “Highlight”, “End of Game”, “Hit”, “Error”, etc. It stores words or words that are output as audio (subtitle display) when a program-specific scene rises or when the scene changes.
  • sport name is “soccer”, “goal”, “free kick”, “corner kick”, “fine save”, “shoot”, “offside”, “side attack”, “dribble”, “ It stores words or words that are output as audio (caption display) when a scene peculiar to a program such as “penalty” or “competition end” rises or when the scene changes.
  • FIG. 5 is an explanatory diagram showing an example of the title-associated term DB 55.
  • the title associative term DB 55 stores associative terms associated with program information and pronounced of program scenes.
  • the title associative term DB 55 associates program names, that is, title names and associative terms. Examples of title names include criminal or suspense titles, historical drama titles, love titles, action titles, mystery titles, and the like. Note that the actual program name can be used as the title name.
  • the voice will be heard when the program-specific scenes such as “Meeting”, “Farewell”, “Tears”, “Present”, “Smile” etc.
  • the words or words to be output are stored.
  • title name is “Mystery”
  • the words that are output (subtitled) as audio when the program-specific scenes such as “secret”, “hidden treasure”, “darkness” rise or when the scene changes Or remember words.
  • other title names store words or words that are output as audio (caption display) when a program-specific scene rises or when the scene changes.
  • FIG. 6 is an explanatory diagram showing an example of the flow of information between databases according to the present embodiment.
  • the CPU 10 acquires program information 40.
  • the CPU 10 uses the dictionary DB 50 (see symbol S1) to record from the program information 40, information such as genre, program name (title name), performer, role name, song name, program content, story (synopsis), etc.
  • Information (words and the like) included in the program information of the program to be extracted is extracted and stored in the chapter name candidate term DB 51 (see S2).
  • the CPU 10 determines the presence / absence of an associative term corresponding to the program content using the program information 40, and if there is an associative term related to the program content, the CPU 10 may store the associated term in the chapter name candidate term DB 51. it can.
  • the determination of the presence / absence of associative terms and the storage of associative terms in the chapter name candidate term DB 51 are not essential and can be omitted.
  • the CPU 10 determines the genre of the program to be recorded from the program information 40 using the genre information DB 52.
  • the determined genre is, for example, “sports”
  • an associative term resemble of a program scene is selected and stored in the chapter name candidate term DB 51 using the sports list DB 53 and the sports associative term DB 54.
  • the determined genre is, for example, “drama” or “movie”
  • the title associated word DB 55 is used to select an associated term that is associated with the scene of the program and to select a chapter name candidate. It memorize
  • a user-preferred word or word is extracted from the program information or subtitle data of the program that the user is viewing and stored in the user registration term DB 56 and stored in the user registration term DB 56.
  • the stored word or word can also be stored in the chapter name candidate term DB 51.
  • FIG. 7 is a flowchart showing an example of a processing procedure for creating the chapter name candidate term DB 51 by the recording apparatus 100 according to the present embodiment.
  • the CPU 10 acquires program information of the program (S11), specifies the genre of the program from the acquired program information (S12), specifies the program name (title name) (S13), and appears.
  • a person, a role name, and a song name are specified (S14), and program contents (description contents of a program such as a story and a synopsis) are specified (S15).
  • the CPU 10 determines the chapter name candidate terms based on the identified information (S16), and registers the determined chapter name candidate terms in the chapter name candidate term DB 51 (S17). Thus, related terms related to the contents of the program to be recorded are stored in the chapter name candidate term DB 51.
  • the CPU 10 determines the presence or absence of an associative term associated with a program scene (S18). If there is an associative term (YES in S18), the associative term is determined as a chapter name candidate term. Register in the DB 51 (S19), and terminate the process. As a result, the words or words that are output as audio (caption display) are stored in the chapter name candidate term DB 51 when the scene peculiar to the program to be recorded rises, the important scene, or the scene changes.
  • the CPU 10 determines a chapter name candidate term including at least one of program genre, program name, performer, and program content from the acquired program information.
  • the chapter name candidate term DB 51 stores the determined chapter name candidate terms as related terms. Thus, it is possible to set in advance related terms that can represent content unique to the program and can infer scene changes and story development.
  • FIG. 8 and FIG. 9 are flowcharts showing an example of the processing procedure of the association term registration method by the recording apparatus 100 of the present embodiment.
  • the processes shown in FIGS. 8 and 9 more specifically show the processes in steps S16 to S19 in FIG.
  • the processing illustrated in FIGS. 7 to 9 is performed before the chapter setting processing illustrated in FIG. 14 to be described later when recording a program.
  • the CPU 10 determines the genre of the program based on the program information (S31). The CPU 10 determines whether or not the genre of the program is music (S32). When the genre is music (YES in S32), the performer and the song title are specified from the program information (S33), and the specified term ( Performers, song names) are registered in the chapter name candidate term DB 51 (S34), and the process is terminated. When the genre is music, performers may include singers, group names, performers, presenters, and the like. In this case, the CPU 10 determines that there is no associative term.
  • the CPU 10 determines whether the genre is a drama or a movie (S35). When the genre is a drama or a movie (YES in S35), the CPU 10 identifies a performer, a role name, and a title (program name) (S36), and uses the identified term (performer, role name, title, etc.) as a candidate chapter name. Register in the term DB 51 (S37).
  • the CPU 10 searches the title associative term DB 55, identifies the associative term corresponding to the title identified in step S36 (S38), registers the identified associative term in the chapter name candidate term DB 51 (S39), and ends the processing. To do.
  • the CPU 10 determines whether or not the genre is a sport (S40). When the genre is sports (YES in S40), the CPU 10 specifies the sports name from the title (program name) using the sports list DB 53 (S41).
  • the CPU 10 searches the sport associative term DB 54, identifies the associative term corresponding to the sport name identified in step S41 (S42), registers the identified associative term in the chapter name candidate term DB 51 (S43), and ends the processing. To do.
  • the CPU 10 specifies a term (word) from the performer and the program content (S44), The identified term is registered in the chapter name candidate term DB 51 (S45), and the process is terminated. In this case, the CPU 10 determines that there is no associative term.
  • the CPU 10 determines the presence or absence of an associated term related to the acquired program information, and stores the associated term determined to be present in the chapter name candidate term DB 51 as a related term. Thereby, it is possible to select only the associative terms related to the acquired program information from among the many associative terms related to various programs and store them as the related terms. In addition, associative terms can be added to related terms, so that chapters can be set as described later at the time when a scene rises, an important scene, or when a scene changes.
  • a chapter means the whole divided
  • it can also be called a break when dividing a scene of a program.
  • the CPU 10 extracts character data including words from the caption data included in the program information of the program to be recorded.
  • the character data is a character string, for example, a word or a character string composed of a modifier and a word that modifies the word.
  • CPU 10 determines whether a part or all of the extracted character data matches the related term stored in the chapter name candidate term DB 51.
  • the CPU 10 sets chapters (chapter breaks) in scenes where character data (character strings) determined to match the related terms are displayed.
  • chapters can be set according to the subtitle display timing. For example, a chapter is set at a timing when a character string extracted from subtitle data is displayed on the screen using a control parameter for controlling the subtitle display timing.
  • Chapters can be set according to program-specific content, scene changes and story development without manual operation by the user, and automatically set at appropriate timing according to the content of the program Can do.
  • FIG. 10 is an explanatory diagram showing an example of setting chapters.
  • FIG. 10 shows a display example of chapters set by the recording apparatus 100 (CPU 10).
  • the program is baseball.
  • FIG. 10A shows an example in which chapter names are displayed. That is, the CPU 10 sets the character data (character string) determined to match the related term stored in the chapter name candidate term DB 51 as the chapter name in the chapter.
  • a character example “home run” in the subtitles displayed on the screen is a chapter name. This makes it possible to set chapter titles according to program-specific content, scene changes and story development, so users can easily see what scenes each chapter represents in the program. can do.
  • FIG. 10B is an example in which the chapter name and time (time) are displayed. That is, CPU10 sets the time information of the scene which set the chapter to a chapter.
  • the time information may be the elapsed time from the beginning of the program (8 minutes in the example of FIG. 10B), or the time when the scene is projected (7: 8 in the example of FIG. 10B). Thereby, the user can grasp the progress of the program.
  • FIG. 10C is an example in which the chapter name and time (time) are displayed.
  • the chapter name is not a single word, but two words “inversion full” and “home run” are displayed.
  • FIG. 10D is an example in which the chapter name and time (time) are displayed.
  • “home run” matches the related term stored in the chapter name candidate term DB 51 out of the subtitle character string “dead regeneration home run”. That is, if the CPU 10 determines that a part of the subtitle character data matches the related term, the CPU 10 sets the character data to the character in a different display mode from the part of the character data. For example, if the character string extracted from the subtitles is “Home Life” and the related term is “Home Run”, the matching word “Home Run” and the word “Heart Regeneration” that does not match are different in color, different font, and different patterns. As shown in Thereby, even when the character string extracted from the caption data is relatively long, the user can easily confirm what kind of scene is represented.
  • FIG. 10E shows an example in which the chapter name, time (time), and thumbnail are displayed. That is, the CPU 10 can simultaneously display thumbnails by setting a still image (an image of a scene where a chapter is set) generated by the video signal processing unit 17 as a chapter. Thereby, since the image of the scene at the time when the chapter is set can be displayed, the user can easily grasp the program contents and the development of the scene.
  • a still image an image of a scene where a chapter is set
  • Fig. 10F shows an example of displaying thumbnails that are also captured with subtitles.
  • the character data determined by the CPU 10 to match the latest character data determined to match most recently can be set as the chapter name. For example, if a character string extracted from subtitle data matches a related term, and the character string is the same as the character string determined to match most recently, the character string is not set as a chapter name and the character string is When it is different from the character string determined to match, it is set as the chapter name. Thereby, it is possible to prevent a plurality of chapters from being set in the same scene.
  • FIG. 11 is an explanatory view showing a first example of chapter display of one program.
  • a baseball program of about 1 hour and 50 minutes is schematically displayed along the broadcast time axis. 8 minutes, 20 minutes, 35 minutes, 50 minutes and 1 hour from the start of the program.
  • a chapter is set when 15 minutes, 1 hour 32 minutes, and 1 hour 45 minutes have passed.
  • words that match the related terms in the caption are displayed along with the elapsed time. It is also displayed that the playback is progressing from the beginning of the program to about 15 minutes.
  • FIG. 11 is an example in which all set chapters are displayed.
  • the broadcast time axis, the chapter names of the set chapters (character strings extracted from subtitles), and the time (the elapsed time from the beginning of the program) are displayed. From the correlation, we can understand the program flow and story. It is also possible to understand the development of a program to some extent from a chapter name and time information, and to jump to a desired chapter and reproduce only a highlight scene and a characteristic scene as a digest version. .
  • FIG. 12 is an explanatory diagram showing a second example of chapter display of one program.
  • only the keyword (character string) “home run” is displayed among the set chapters.
  • the baseball broadcast it is possible to continuously reproduce only the scene of the home run, except for the scene other than the scene (scene) where the home run has occurred.
  • the time of the home run scene is displayed, it is easy to see which side of the game the home run occurred, so there is no need to see a scene that is not of interest to the user, and the entire program (game) can be shortened. It can be grasped by time.
  • FIG. 13 is an explanatory diagram showing a third example of chapter display of one program.
  • only the chapter of the scene where the score was entered in the baseball game is displayed.
  • This is the optimal display method when the user wants to see only the scoring scene.
  • FIG. 14 is a flowchart showing a chapter setting processing procedure by the recording apparatus 100 according to the present embodiment.
  • the CPU 10 starts recording the program (S61) and determines the presence / absence of caption data (S62).
  • the determination of the presence / absence of caption data is performed by, for example, determining whether or not captions are displayed (whether or not they exist) at the current time when a program is recorded in actual broadcasting.
  • step S62 If there is no caption data (NO in S62), the CPU continues the process of step S62.
  • the CPU 10 extracts character data from the subtitle data (S63), and whether or not a part or all of the extracted character data matches the chapter name candidate term (related term). Is determined (S64).
  • the CPU 10 determines whether or not the chapter name candidate term is the same as the most recently matched chapter name candidate term (S65).
  • step S65 If the chapter name candidate term is the same as the most recently matched chapter name candidate term (YES in S65), the CPU 10 sets chapters to prevent the chapters with the same chapter name from being set continuously. Without performing this, the processing from step S62 is continued.
  • the CPU 10 sets a chapter (chapter break) in the scene where the matched character data is displayed (scene) ( S66).
  • the CPU 10 sets the matched character data (character string) as a chapter name in the chapter (S67), and adds time information to the chapter (S68).
  • the time information may be an elapsed time from the beginning of the program, or a time when the scene is projected.
  • the CPU 10 determines whether or not the recording is finished (S69). If the recording is not finished (NO in S69), the process after step S62 is performed, and if the recording is finished (YES in S69), the process is performed. Exit.
  • chapters can be automatically set when a program is recorded. Further, by determining whether the character string extracted from the subtitles matches with the related terms related to the program, chapters corresponding to the contents of the program can be set in appropriate scenes. In addition, by determining whether a character string extracted from subtitles matches an associative term associated with a scene of a program, a chapter is set when the scene rises, an important scene, or when the scene changes Can do.
  • the recording apparatus 100 of the present embodiment is not limited to a digital broadcast program, and may be an Internet or telephone line.
  • the present invention can also be applied to a program in which a user downloads a required program in an on-demand format from a server provided on the network.
  • chapters can be automatically set at an appropriate timing according to the contents of the program.
  • a word (character string) included in subtitle data displayed in a scene near a scene where the user has set a chapter, a chapter name (chapter title) set by the user It is also possible to extract a related term from program information or subtitle data of a program that is present and create a user registered term DB of user preference. And the related term memorize
  • a plurality of words may be displayed when setting a chapter. .
  • the user can grasp
  • FIG. 15 is a schematic diagram showing an example of the configuration of the recording system of the second embodiment.
  • the recording system of the second embodiment includes the recording device 100, the database server 200, the network service server 300, and the like of the first embodiment.
  • the recording apparatus 100, the database server 200, and the network service server 300 are connected via the Internet 1 including a wired LAN or a wireless LAN.
  • the database server 200 and the network service server 300 may be integrated into a single server, or may be configured by a plurality of servers.
  • the configuration of the recording apparatus 100 according to the second embodiment is the same as the configuration illustrated in FIG.
  • the recording apparatus 100 more specifically, the CPU 10 can exchange predetermined data or information with the database server 200 and the network service server 300 via the communication unit 13.
  • a communication unit (not shown) separate from the communication unit 13 may be provided, and predetermined data or information may be exchanged between the database server 200 and the network service server 300 via the communication unit. .
  • the database server 200 includes various DBs included in the recording device 100, such as a dictionary DB 50, a chapter name candidate term DB 51, a genre information DB 52, a sports list DB 53, a sports associative term DB 54, a title associative term DB 55, and the like. . Further, when the database server 200 updates the DB included in the database server 200, the database server 200 can record the updated DB, the update date and time, the update content, and the like.
  • the recording apparatus 100 acquires related terms from the database server 200, and the dictionary DB 50, chapter name candidate terms DB 51, genre information DB 52, sports list DB 53, sports association terms DB 54, title association terms DB 55, user Various DBs such as a registered term DB are updated. Hereinafter, updating of various DBs will be described.
  • FIG. 16 is a flowchart showing a first example of the processing procedure of the DB update method of the recording apparatus 100 according to the second embodiment.
  • the CPU 10 accesses the database server 200 (S101), and determines whether various DBs in the database server 200 have been updated (S102).
  • the CPU 10 acquires the update data (S103), updates the corresponding various DBs (S104), and ends the processing. To do. Note that one or more DBs may be updated.
  • CPU10 complete finishes a process, without performing the process of step S103 and S104, when various DB in the database server 200 has not been updated (it is NO at S102).
  • FIG. 17 is a flowchart showing a second example of the processing procedure of the DB update method of the recording apparatus 100 according to the second embodiment.
  • the CPU 10 accesses the database server 200 (S111), and determines whether various DBs in the database server 200 have been updated (S112).
  • the CPU 10 acquires the update data (S113) and updates the corresponding various DBs (S114).
  • CPU10 deletes the unused term in DB to update (S115), and complete
  • deleting an unused term for example, a term that has passed a predetermined time since the last use or a term that has been used for a predetermined time or less can be deleted.
  • FIG. 18 is a flowchart illustrating a third example of the processing procedure of the DB update method of the recording apparatus 100 according to the second embodiment.
  • the CPU 10 accesses the database server 200 (S121), and determines whether or not there is data that matches (completely matches or partially matches) a user preference word in various DBs in the database server 200 (S122). In this case, the CPU 10 can determine the match / mismatch by notifying the database server 200 of words of user preference that are not registered in the user registration term DB 56.
  • the CPU 10 acquires the matching data (S123), updates the DB (user registration term DB 56) (S124), and ends the process.
  • CPU10 complete finishes a process, without performing the process of step S123, S124, when there is no data which correspond with a user preference word (it is NO at S122).
  • the network service server 300 is a server provided with a social networking service that publishes evaluations related to programs.
  • the social network service (also referred to as social networking service) is, for example, a homepage of a broadcasting station, a homepage of a program, or a program distribution service. Twitter (registered trademark), Facebook (registered trademark), bulletin board, etc. in the homepage.
  • the recording apparatus 100 accesses the network service server 300 and uses the evaluation (including opinions, impressions, etc.) on the program written by the viewer using the social network service, and uses the dictionary DB 50.
  • the chapter name candidate term DB 51, the genre information DB 52, the sports list DB 53, the sports associative term DB 54, the title associative term DB 55, and the user registration term DB are updated.
  • updating of various DBs will be described.
  • FIG. 19 is a flowchart showing a fourth example of the processing procedure of the DB update method of the recording apparatus 100 according to the second embodiment.
  • the CPU 10 acquires program information (S131), and specifies network service information based on the acquired program information (S132).
  • the network service is a social networking service that publishes evaluations related to programs, such as Twitter (registered trademark), Facebook (registered trademark), and bulletin board in the homepage of a broadcasting station, the homepage of a program, or the homepage of a program distribution service. is there.
  • the evaluation regarding the program is, for example, a viewer's writing or comment regarding the program, and includes, for example, an impression or an opinion on the program.
  • the CPU 10 accesses the network service of the network service server 300 (S133), extracts terms related to the program from writing or comments in the network service (S134), and extracts frequently used terms from the extracted terms (S135).
  • the CPU 10 extracts frequently used terms from the evaluation regarding the program in the specified network service. That is, the CPU 10 searches the document such as the viewer's writing or comment, counts the number of appearances of the same or consent terms, and extracts the terms having the appearance count equal to or more than a predetermined threshold number as frequent terms.
  • the CPU 10 determines whether or not there are terms that match the extracted frequent terms (all matches or partial matches) in the various DBs in the recording apparatus 100 (S136), and if there are no matching terms (NO in S136).
  • the update data is acquired (S137), various DBs are updated (S138), and the process is terminated. If there is a matching term (YES in S136), the CPU 10 ends the process without performing the processes in steps S137 and S138.
  • FIG. 20 is an explanatory diagram of a chapter setting example according to the second embodiment.
  • FIG. 20 shows a display example of chapters set by the recording apparatus 100 (CPU 10). In FIG. 20, it is assumed that the program is baseball.
  • FIG. 20A is an example in which a chapter name, a time (time), a thumbnail, and an information source quoting the chapter name (a Facebook mark in the example of FIG. 20A) are displayed.
  • time 7:08 is a time included in a time zone in which the number of writings or comments (number of evaluations) in the Facebook about the program (baseball) is relatively large.
  • the CPU 10 specifies a network service that publishes an evaluation regarding a program to be recorded based on the acquired program information.
  • the network service is, for example, a social networking service, and is, for example, a Twitter (registered trademark), Facebook (registered trademark), or a bulletin board in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service.
  • the evaluation regarding the program is, for example, a viewer's writing or comment regarding the program, and includes, for example, an impression or an opinion on the program.
  • the CPU 10 specifies a time zone in the program in which the evaluation number related to the program in the specified network service is equal to or greater than a predetermined threshold.
  • a time zone including time 7:08.
  • the time zone can be any time interval. For example, it is possible to specify a time zone having a relatively large number of evaluations in a program.
  • CPU10 sets a chapter using the specified time slot
  • the CPU 10 extracts frequently used terms from the evaluation in the specified time zone. That is, the CPU 10 searches the document such as the viewer's writing or comment in the specified time period, counts the number of appearances of the same or consent terms, and selects a term that appears more than a predetermined threshold number of times as a frequent term. As specified.
  • CPU10 sets the extracted frequent term to a chapter as a chapter name.
  • a frequent term “that home run was amazing ...” is used as the chapter name.
  • the user can grasp
  • the CPU 10 sets service information related to the specified network service in a chapter.
  • the service information is, for example, a homepage address (URL) such as Twitter (registered trademark), Facebook (registered trademark), bulletin board or the like in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service, an advertisement or a promotion is there.
  • a homepage address such as Twitter (registered trademark), Facebook (registered trademark), bulletin board or the like in a homepage of a broadcasting station, a homepage of a program, or a homepage of a program distribution service, an advertisement or a promotion is there.
  • a Facebook mark is set (displayed) as a chapter. Thereby, the user can easily acquire an advertisement or a promotion related to the set chapter, and can realize service cooperation.
  • FIG. 20B is an example in which “professional baseball broadcast OOO official facebook” is displayed as an information source quoting a chapter name
  • FIG. 20C is a homepage address (URL) “HP: http: /: /abcde.co.jp "is displayed
  • FIG. 20D is an example in which an advertisement (or advertisement)" program information is information for 356 days by OOO ... "is displayed.
  • a plurality of information sources shown in FIGS. 20B to 20D can be displayed simultaneously.
  • FIG. 21 is an explanatory view showing a first example of chapter display of one program in the second embodiment.
  • a baseball program of about 1 hour and 50 minutes is schematically displayed along the broadcast time axis. From the start of the program, 8 minutes, 20 minutes, 35 minutes, 50 minutes, 1 hour. Chapters (chapter breaks) are set when 15 minutes, 1 hour 32 minutes, and 1 hour 45 minutes have passed. For chapters when 1 hour and 15 minutes have elapsed, the elapsed time specified based on the evaluation of baseball in Facebook (a time zone including the time when 1 hour and 15 minutes have elapsed) and the frequent term “triple play” are used as chapter names. It is set and the Facebook mark that is the information source is displayed together.
  • the chapter when 1 hour and 32 minutes have passed includes the elapsed time specified based on the evaluation of baseball in Facebook (a time zone including the time when 1 hour and 32 minutes have passed) and the frequent term “reverse home run”. It is set as a name and the Facebook mark that is the information source is displayed together.
  • FIG. 22 is an explanatory diagram showing a second example of chapter display of one program according to the second embodiment.
  • chapters are set when 8 minutes, 20 minutes, 35 minutes, 50 minutes, 1 hour 15 minutes, 1 hour 32 minutes, and 1 hour 45 minutes have elapsed since the start of the program.
  • the chapter when 1 hour and 15 minutes have passed includes the elapsed time specified based on the evaluation of baseball in the program data distribution service (a time zone including the time when 1 hour and 15 minutes have passed) and the frequent term “triple play”. It is set as a name, and a mark of the program data distribution service as an information source is displayed together.
  • the chapter when 1 hour and 32 minutes have passed includes the elapsed time specified based on the evaluation of baseball in Facebook (a time zone including the time when 1 hour and 32 minutes have passed) and the frequent term “reverse home run”. It is set as a name and the Facebook mark that is the information source is displayed together.
  • FIG. 23 is a flowchart showing a chapter setting processing procedure by the recording apparatus 100 according to the second embodiment.
  • the CPU 10 acquires program information of the recorded program (S141), and starts recording the program (S142).
  • the CPU 10 specifies network service information based on the acquired program information (S143).
  • the network service information is information for accessing the network service.
  • the CPU 10 accesses the network service (S144), and identifies the time zone in the program (program that has started recording) with a large number of writings or comments in the network service for the program that has started recording (S145). .
  • CPU 10 extracts frequently used terms from writing or comments (S146), and sets chapters in scenes displayed in the specified time zone (S147). For example, in FIG. 22, the time is 1 hour and 15 minutes have passed, or 1 hour and 32 minutes have passed.
  • the CPU 10 adds frequent terms to the set chapter (S148). It is an agreement to add frequent terms and set frequent terms. For example, in FIG. 22, the frequent term “triple play” at the time when 1 hour and 15 minutes have elapsed is set, and the frequent term “reverse home run” at the time when 1 hour and 32 minutes have elapsed is set.
  • CPU 10 ends the recording (S149) and ends the process.
  • the related term can be constantly updated to the one that matches the times and trends.
  • a scene (scene) in which a viewer is highly interested in a certain program can be set as a chapter.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 番組の内容に応じて適切なタイミングで自動的にチャプタを設定することができる録画装置、テレビジョン受信機及び録画方法を提供する。 CPU10は、録画する番組の番組情報に含まれる字幕データから単語を含む文字データを抽出する。CPU10は、抽出した文字データの一部又は全部がチャプタ名候補用語DBに記憶した関連用語に一致するか否かを判定する。CPU10は、番組を録画する場合に、関連用語に一致すると判定した文字データが表示される場面でチャプタを設定する。

Description

録画装置、テレビジョン受信機及び録画方法
 本発明は、字幕データ及び番組情報を含む番組信号を取得して、番組を録画する録画装置、該録画装置を備えるテレビジョン受信機及び録画方法に関する。
 近年、録画再生装置で録画した音声及び映像を含むコンテンツに対して、任意の場所(シーン、場面)にチャプタと称する区切りを設けて、コンテンツを複数のチャプタで分割することが行われている。チャプタとは、コンテンツを時間軸方向にあるまとまり毎に区切ったものである。チャプタを設けることで、コマーシャルをカットすること、途中のシーン(場面)を飛ばして所望のシーンに移ること、あるいは、チャプタで区切られたシーン毎にサムネイルを表示することができ、視聴者が見たいシーンへより速く、確実に到達できる。
 例えば、送信装置が放送コンテンツにチャプタ分割位置を指定する情報を記述したデータを付随させ、受信装置で当該データを解析することにより、放送局側が意図した位置でコンテンツをチャプタ分割することができ、放送コンテンツの場面や内容に応じた違和感のない自然なチャプタを付与することができるデジタル放送システムが開示されている(特許文献1参照)。
 また、使用者が一度視聴したコンテンツに含まれる所定の部分に対して使用者の評価を受け付け、評価を示す評価情報をコンテンツに関連付けて記録することにより、コンテンツに含まれる特定の部分を容易に検索して再生することができるコンテンツ再生装置が開示されている(特許文献2参照)。
 また、放送番組に関する属性情報を含む電子番組案内情報を取得し、取得した属性情報に対応して解析アルゴリズムを選択的に切り替えて映像データの区切り点を生成することにより、番組の属性に応じてチャプタの分割処理を安定して行うことができる映像録画再生装置が開示されている(特許文献3参照)。
 また、コンテンツに含まれる色信号強度、音量、字幕の文字などの複数種類の特徴量を抽出し、抽出した特徴量を合成して得られた合成特徴量に基づいてコンテンツをチャプタに分割するコンテンツ処理装置が開示されている(特許文献4参照)。
特開2006-148839号公報 特開2007-323779号公報 特開2006-324770号公報 特開2009-55528号公報
 しかしながら、特許文献1のシステムにあっては、放送局側で予めチャプタの場所が定められているので、ユーザは所望のシーン(場面)でチャプタを設けることができない。また、特許文献2の装置にあっては、ユーザの所望のシーンでチャプタを設けることができるものの、ユーザは1回コンテンツを視聴しなければならず、自動的にチャプタを設けることができない。また、特許文献3の装置にあっては、放送番組に関する属性情報(例えば、放送モード、放送局コード、ジャンルコード)に基づいてチャプタ分割を行うので、各種ジャンルの番組に対してチャプタ分割を切り替えることができたとしても、コンテンツの内容に応じた時点でチャプタを設けることができない。また、特許文献4の装置にあっては、色信号強度、音声及び字幕の有無を組み合わせた合成特徴量に基づいてチャプタを分割するので、例えば、土俵の色や歓声などを組み合わせた相撲の取り組みシーンを含むチャプタ分割はできるものの、それ以外のコンテンツについては、どのようにチャプタを分割するかの開示はなく、種々の番組特有のコンテンツに応じてチャプタを設定することが困難であった。
 本発明は、斯かる事情に鑑みてなされたものであり、番組の内容に応じて適切なタイミングで自動的にチャプタを設定することができる録画装置、該録画装置を備えるテレビジョン受信機及び録画方法を提供することを目的とする。
 本発明に係る録画装置は、映像データ、音声データ、字幕データ及び番組情報を含む番組信号を取得する取得部と、該取得部で取得した番組信号に基づいて番組を録画する録画部とを備える録画装置において、番組内容に関連する複数の関連用語を記憶する記憶部と、前記取得部で取得した字幕データから単語を含む文字データを抽出する抽出部と、該抽出部で抽出した文字データの一部又は全部が前記記憶部に記憶した関連用語に一致するか否かを判定する判定部と、前記録画部で番組を録画する場合に、前記判定部で一致すると判定した文字データが表示される前記番組の場面でチャプタの区切りを設定する設定部とを備えることを特徴とする。
 本発明に係る録画装置は、前記設定部は、前記判定部で一致すると判定した文字データをチャプタ名として前記チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記設定部は、前記判定部で文字データの一部が前記関連用語に一致すると判定した場合、該文字データの一部と他の部分とを異なる表示態様にして前記文字データを前記チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記設定部は、前記チャプタを設定した場面の時間情報を該チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記チャプタを設定した場面の画像を生成する生成部を備え、前記設定部は、前記生成部が生成した画像を前記チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記設定部は、前記判定部で一致すると判定した文字データが、直近に一致すると判定した直近文字データと異なる場合、前記文字データをチャプタ名として前記チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記取得部で取得した番組情報から番組のジャンル、番組名、出演者及び番組内容に関する情報の少なくとも1つを含むチャプタ名候補用語を決定する決定部を備え、前記記憶部は、前記決定部が決定したチャプタ名候補用語を前記関連用語として記憶するようにしてあることを特徴とする。
 本発明に係る録画装置は、番組情報と関連付けて番組の場面を連想させる連想用語を予め記憶する連想用語記憶部と、前記取得部で取得した番組情報に関連する連想用語の有無を判定する連想用語判定部とを備え、前記記憶部は、前記連想用語判定部が有と判定した連想用語を前記関連用語として記憶するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記取得部で取得した番組情報に基づいて、番組に関する評価を公開するネットワークサービスを特定する特定部と、該特定部で特定したネットワークサービス内の前記番組に関する評価から頻出用語を抽出する用語抽出部とを備え、前記記憶部は、前記用語抽出部で抽出した頻出用語を前記関連用語として記憶するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記取得部で取得した番組情報に基づいて、前記録画部で録画する番組に関する評価を公開するネットワークサービスを特定する特定部と、該特定部で特定したネットワークサービス内の前記番組に関する評価数が所定の閾値以上となる該番組中の時間帯を特定する時間帯特定部とを備え、前記設定部は、前記時間帯特定部で特定した時間帯を用いてチャプタを設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記時間帯特定部で特定した時間帯での評価から頻出用語を抽出する用語抽出部を備え、前記設定部は、前記用語抽出部で抽出した頻出用語を前記チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記設定部は、前記特定部で特定したネットワークサービスに関するサービス情報を前記チャプタに設定するようにしてあることを特徴とする。
 本発明に係る録画装置は、前記録画部で録画した番組とともに前記設定部で設定したチャプタを表示する表示部を備えることを特徴とする。
 本発明に係るテレビジョン受信機は、前述の発明のいずれか1つに係る録画装置で録画した番組とともに設定したチャプタを表示するようにしてあることを特徴とする。
 本発明に係る録画方法は、映像データ、音声データ、字幕データ及び番組情報を含む番組信号を取得する取得部と、該取得部で取得した番組信号に基づいて番組を録画する録画部とを備える録画装置による録画方法において、番組内容に関連する複数の関連用語を記憶するステップと、前記取得部で取得した字幕データから単語を含む文字データを抽出するステップと、抽出された文字データの一部又は全部が記憶部に記憶した関連用語に一致するか否かを判定するステップと、前記録画部で番組を録画する場合に、一致すると判定された文字データが表示される前記番組の場面でチャプタの区切りを設定するステップとを含むことを特徴とする。
 本発明にあっては、記憶部に番組内容に関連する複数の関連用語を記憶しておく。関連用語は、例えば、番組のジャンル、番組名(タイトル)、出演者、役名、曲名、スポーツの名称、ストーリー(あらすじ)、番組内容を表す文言などを含む。関連用語は、番組特有のコンテンツを表すとともに、場面の変化やストーリーの展開を推測することができるものである。抽出部は、字幕データから単語を含む文字データを抽出する。文字データは、文字列であり、例えば、単語、あるいは単語を修飾する修飾語と当該単語からなる文字列である。判定部は、抽出した文字データの一部又は全部が記憶部に記憶した関連用語に一致するか否かを判定する。設定部は、録画部で番組を録画する場合に、判定部で一致すると判定した文字データが表示される場面(シーン)でチャプタの区切りを設定する。チャプタは、番組の場面を適当な箇所で区切った場合、区切られた場面全体をいう。なお、番組の場面を区切る際の区切りということもできる。
 番組のあらすじの展開、場面(シーン)の変化は、字幕にも同様に表れる。種々のジャンルの番組について、番組内容に関連する関連用語を予め記憶しておき、番組内容に関連する関連用語と字幕に現れる文字列が一致(部分一致も含む)するときにチャプタを設定するので、ユーザが手動操作することなく、番組特有のコンテンツ、場面の変化やストーリーの展開に応じてチャプタを設定することができ、番組の内容に応じて適切なタイミングで自動的にチャプタ(チャプタの区切り)を設定することができる。
 本発明にあっては、設定部は、判定部で一致すると判定した文字データをチャプタ名としてチャプタに設定する。これにより、番組特有のコンテンツ、場面の変化やストーリーの展開に応じたチャプタタイトルを設定することができるので、ユーザは、それぞれのチャプタが番組内でどのような場面を表しているかを容易に確認することができる。
 本発明にあっては、設定部は、判定部で文字データの一部が関連用語に一致すると判定した場合、当該文字データの一部と他の部分とを異なる表示態様にして文字データをチャプタに設定する。例えば、字幕から抽出した文字列が、「起死回生ホームラン」であり、関連用語が「ホームラン」である場合、一致する文言「ホームラン」と一致しない文言「起死回生」とが異なる色、異なる字体、異なる模様で表されるようにする。これにより、字幕データから抽出した文字列が比較的長い場合でも、ユーザは、どのような場面を表しているかを容易に確認することができる。
 本発明にあっては、設定部は、チャプタを設定した場面の時間情報をチャプタに設定する。時間情報は、番組の冒頭からの経過時間でもよく、あるいは当該場面が映し出されている時点の時刻でもよい。これにより、ユーザは番組の進行状況を把握することができる。
 本発明にあっては、生成部は、チャプタを設定した場面の画像を生成する。生成する画面は、例えば、サムネイルである。設定部は、生成部が生成した画像をチャプタに設定する。これにより、チャプタが設定された時点での場面の画像も表示させることができるので、ユーザは、さらに番組内容、場面の展開を容易に把握することができる。
 本発明にあっては、設定部は、判定部で一致すると判定した文字データが、直近に一致すると判定した直近文字データと異なる場合、文字データをチャプタ名としてチャプタに設定する。例えば、字幕データから抽出した文字列が関連用語と一致した場合に、当該文字列が直近に一致すると判定した文字列と同じときには、当該文字列をチャプタ名として設定せず、当該文字列が直近に一致すると判定した文字列と異なるときに、チャプタ名として設定する。これにより、同じような場面で複数のチャプタが設定されることを防止することができる。
 本発明にあっては、特定部は、取得した番組情報から番組のジャンル、番組名、出演者及び番組内容に関する情報の少なくとも1つを含むチャプタ名候補用語を決定する。記憶部は、決定したチャプタ名候補用語を関連用語として記憶する。これにより、番組特有のコンテンツを表すとともに、場面の変化やストーリーの展開を推測することができる関連用語を予め設定しておくことができる。
 本発明にあっては、連想用語記憶部は、番組情報と関連付けて番組の場面を連想させる連想用語を予め記憶する。連想用語は、例えば、番組が「野球」である場合、「三振」、「ホームラン」、「ストライク」などの場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される言葉である。連想用語判定部は、取得した番組情報に関連する連想用語の有無を判定し、有と判定した連想用語を関連用語として記憶部に記憶する。これにより、種々の番組に関する多くの連想用語の中から、取得した番組情報に関連する連想用語だけを選択して関連用語として記憶することができる。また、関連用語に連想用語を付け加えることができるので、場面が盛り上がる時点、あるいは場面が変化する時点などにチャプタを設定することができる。
 本発明にあっては、特定部は、取得した番組情報に基づいて、番組に関する評価を公開するネットワークサービスを特定する。ネットワークサービスとは、例えば、ソーシャルネットワーキングサービスであり、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などである。番組に関する評価は、例えば、番組に関する視聴者の書込み又はコメントなどであり、例えば、番組に対する感想又は意見などを含む。用語抽出部は、特定したネットワークサービス内の番組に関する評価から頻出用語を抽出する。すなわち、用語抽出部は、視聴者の書込み又はコメントなどの文書内を検索して同一の又は同意の用語の出現回数を計数し、出現回数が所定の閾値回数以上の用語を頻出用語として抽出する。記憶部は、抽出した頻出用語を関連用語として記憶する。これにより、視聴者の関心が高く、また視聴者の感想や意見を表現することができる関連用語を予め設定しておくことができる。
 本発明にあっては、特定部は、取得した番組情報に基づいて、録画する番組に関する評価を公開するネットワークサービスを特定する。ネットワークサービスとは、例えば、ソーシャルネットワーキングサービスであり、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などである。番組に関する評価は、例えば、番組に関する視聴者の書込み又はコメントなどであり、例えば、番組に対する感想又は意見などを含む。時間帯特定部は、特定したネットワークサービス内の番組に関する評価数が所定の閾値以上となる番組中の時間帯を特定する。評価の計数は、例えば、視聴者の書込み又はコメントが1つのまとまりとして書込まれた場合、当該書込み又はコメントを1つの評価として計数する。時間帯は、任意の時間間隔とすることができる。例えば、番組中において、評価数が比較的多い時間帯を特定することができる。設定部は、特定した時間帯を用いてチャプタを設定する。例えば、ある時間帯で評価数が比較的多い場合、当該時間帯の任意の時点の場面でチャプタの区切り(チャプタ)を設定することができる。これにより、視聴者の関心が高い場面でチャプタを設定することができる。
 本発明にあっては、用語抽出部は、特定した時間帯での評価から頻出用語を抽出する。すなわち、用語抽出部は、特定した時間帯における視聴者の書込み又はコメントなどの文書内を検索して同一の又は同意の用語の出現回数を計数し、出現回数が所定の閾値回数以上の用語を頻出用語として特定する。設定部は、抽出した頻出用語をチャプタに設定する。これにより、ユーザは、番組の中で視聴者の関心が高い場面を把握することができる。
 本発明にあっては、設定部は、特定したネットワークサービスに関するサービス情報をチャプタに設定する。サービス情報とは、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などのホームページアドレス(URL)、広告又は宣伝などである。これにより、ユーザは、設定されたチャプタに関連する広告又は宣伝などを容易に取得することができ、サービス連携を実現することができる。
 本発明にあっては、チャプタを表示することにより、番組の内容に応じた適切な場面への速やかな移動、あるいは番組の内容に応じた適切な場面の再生をすることができる。
 本発明によれば、番組の内容に応じて適切なタイミングで自動的にチャプタを設定することができる。
本実施の形態の録画装置の構成の一例を示すブロック図である。 ジャンル情報DBの一例を示す説明図である。 スポーツ一覧DBの一例を示す説明図である。 スポーツ連想用語DBの一例を示す説明図である。 タイトル連想用語DBの一例を示す説明図である。 本実施の形態のデータベース間の情報の流れの一例を示す説明図である。 本実施の形態の録画装置によるチャプタ名候補用語DBの作成の処理手順の一例を示すフローチャートである。 本実施の形態の録画装置による連想用語の登録方法の処理手順の一例を示すフローチャートである。 本実施の形態の録画装置による連想用語の登録方法の処理手順の一例を示すフローチャートである。 チャプタの設定例を示す説明図である。 チャプタの設定例を示す説明図である。 チャプタの設定例を示す説明図である。 チャプタの設定例を示す説明図である。 チャプタの設定例を示す説明図である。 チャプタの設定例を示す説明図である。 1番組のチャプタの表示の第1例を示す説明図である。 1番組のチャプタの表示の第2例を示す説明図である。 1番組のチャプタの表示の第3例を示す説明図である。 本実施の形態の録画装置によるチャプタ設定の処理手順を示すフローチャートである。 実施の形態2の録画システムの構成の一例を示す模式図である。 実施の形態2の録画装置のDBの更新方法の処理手順の第1例を示すフローチャートである。 実施の形態2の録画装置のDBの更新方法の処理手順の第2例を示すフローチャートである。 実施の形態2の録画装置のDBの更新方法の処理手順の第3例を示すフローチャートである。 実施の形態2の録画装置のDBの更新方法の処理手順の第4例を示すフローチャートである。 実施の形態2のチャプタの設定例を示す説明図である。 実施の形態2のチャプタの設定例を示す説明図である。 実施の形態2のチャプタの設定例を示す説明図である。 実施の形態2のチャプタの設定例を示す説明図である。 実施の形態2の1番組のチャプタの表示の第1例を示す説明図である。 実施の形態2の1番組のチャプタの表示の第2例を示す説明図である。 実施の形態2の録画装置によるチャプタ設定の処理手順を示すフローチャートである。
(実施の形態1)
 以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本実施の形態の録画装置100の構成の一例を示すブロック図である。図1に示すように、録画装置100は、装置全体を制御するCPU10、RAM11、不揮発性メモリ12、通信部13、リモコン受光部14、チューナ/復調/分離部15、USB端子16、映像信号処理部17、EPG/OSD/BML処理部18、音声信号処理部19、HDD(ハードディスクドライブ)20、BD/DVDドライブ21、メモリカードスロット22、ストリーム制御回路23、映像出力変換部24、音声出力変換部25などを備える。なお、以下の説明では、録画装置100は、デジタル放送を受信して番組を録画する構成であるが、番組はデジタル放送に限定されるものではなく、例えば、インターネット又は電話回線網にあるサーバ等からオンデマンド形式で番組を取得する構成であってもよい。
 チューナ/復調/分離部15は、番組信号を取得する取得部としての機能を有する。チューナ/復調/分離部15は、アンテナで受信したデジタル放送の受信信号をチューニングし、チューニングされたデジタル信号を復調し、復調した信号から、(1)映像信号(映像データ)、(2)音声信号(音声データ)、(3)字幕データ及び番組情報を分離する。番組情報は、例えば、デジタル放送で使用される番組配列情報などのテーブル(例えば、EIT:Event Information Tableなど)に記載されている。
 チューナ/復調/分離部15は、分離した映像信号を映像信号処理部17へ出力する。また、チューナ/復調/分離部15は、分離した音声信号を音声信号処理部19へ出力する。また、チューナ/復調/分離部15は、分離した字幕データ及び番組情報をCPU10、及びEPG/OSD/BML処理部18へ出力する。
 映像信号処理部17は、分離された映像信号をMPEG2方式に基づいて符号化する。また、映像信号処理部17は、生成部としての機能を有し、番組の場面(シーン)を表すサムネイルなどの静止画像を生成する。
 音声信号処理部19は、分離された音声信号をMPEG2AAC、MPEG1、ドルビーデジタル(ドルビーは、ドルビーラボラトリーズの登録商標)などの方式に基づいて符号化する。
 ストリーム制御回路23は、録画部としての機能を有し、映像信号処理部17及び音声信号処理部19で符号化されたデジタル信号を合成してデジタル映像音声ストリームを形成する。ストリーム制御回路23は、番組を録画する場合、デジタル映像音声ストリームをHDD20、BD/DVDドライブ21に装填したBD/DVDディスク、メモリカードスロット22に装着したメモリカード、USB端子16に装着したUSB-HDDなどへ出力する。
 EPG/OSD/BML処理部18は、番組情報に含まれるEPG(電子番組表)の処理、メニューなどのOSD(On Screen Display)、データ放送の表示処理、字幕の表示処理を行う。
 映像出力変換部24は、映像信号処理部17で符号化されたデジタル信号にEPG/OSD/BML処理部18で処理された情報を合成して映像出力する信号に変換する。
 音声出力変換部25は、音声信号処理部19で符号化されたデジタル信号を音声出力する信号に変換する。
 リモコン受光部14は、ユーザが操作する遠隔操作端末(不図示)からの信号を受信する。リモコン操作により、番組の録画、再生、チャプタの表示、チャプタ間の移動などを行うことができる。
 通信部13は、LAN等のネットワークを経由して他の機器との通信機能を有し、例えば、他のテレビジョン受信機との間でデータの送受信を行うことができる。
 不揮発性メモリ12は、後述のジャンル情報DB52、スポーツ一覧DB53、スポーツ連想用語DB54、タイトル連想用語DB55、辞書DB50などの各種データベース、及びCPU10が実行するプログラムなどを記憶している。
 RAM11は、CPU10が実行するプログラム、チューナ/復調/分離部15で分離した字幕データ及びEPGデータを含む番組情報、後述のチャプタ名候補用語DB51などを記憶する。
 CPU10は、字幕データから文字データ(文字列)を抽出する抽出部、文字データが関連用語(チャプタ名候補用語)に一致するか否かを判定する判定部、チャプタ(チャプタの区切り)を設定する設定部、チャプタ名候補用語を決定する決定部、連想用語の有無を判定する連想用語判定部などの機能を有する。
 次に、本実施の形態の録画装置100が使用するデータベース(DB)について説明する。本実施の形態では、単語検索のための辞書DB50、番組内容に関連する複数の関連用語を記憶したチャプタ名候補用語DB51、番組の種々のジャンルを記憶したジャンル情報DB52、スポーツ名の一覧を記憶したスポーツ一覧DB53、種々のスポーツに関する番組で場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される可能性がある単語、言葉を記憶したスポーツ連想用語DB54、ドラマ・映画に関する種々の番組で場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される可能性がある単語、言葉を記憶したタイトル連想用語DB55、ユーザが視聴している番組の番組情報又は字幕データからユーザ嗜好の単語を抽出して登録したユーザ登録用語DB56などを使用する。
 チャプタ名候補用語DB51に記憶する関連用語は、番組特有のコンテンツを表すとともに、場面の変化やストーリーの展開を推測することができるものである。なお、前述のデータベースは一例であって、これらに限定されるものではない。
 図2はジャンル情報DB52の一例を示す説明図である。ジャンル情報DB52は、番組のジャンルの一覧を記憶してあり、例えば、音楽、ドラマ、映画、スポーツ、バラエティ、趣味/教育、アニメ/特撮、ニュース/報道、情報/ワイドショー、劇場/公演、ドキュメンタリー/教養、福祉などに分類されている。
 図3はスポーツ一覧DB53の一例を示す説明図である。スポーツ一覧DB53は、スポーツの名称の一覧を記憶してあり、例えば、野球、サッカー、ゴルフ、バレーボール、バスケットボール、水泳、相撲、柔道、マラソン、競馬、…などに分類されている。なお、スポーツ一覧DB53の構成は一例であって、図3の例に限定されるものではない。
 図4はスポーツ連想用語DB54の一例を示す説明図である。スポーツ連想用語DB54は、番組情報と関連付けて番組の場面を連想させる連想用語を記憶している。図4に示すように、番組としては、例えば、野球、サッカー、ゴルフ、…のように、スポーツ一覧DB53に記憶されたスポーツ名それぞれについて、連想用語として、例えば、スポーツ名が「野球」である場合、「三振」、「ホームラン」、「ファインプレー」、「逆転」、「ストライク」、「満塁」、「ダブルプレー」、「ハイライト」、「試合終了」、「ヒット」、「エラー」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 また、スポーツ名が「サッカー」である場合には、「ゴール」、「フリーキック」、「コーナーキック」、「ファインセーブ」、「シュート」、「オフサイド」、「サイドアタック」、「ドリブル」、「ペナルティ」、「試合終了」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 また、同様に、スポーツ名が「ゴルフ」である場合には、「フォールインワン」、「バーディー」、「イーグル」、「アルバトロス」、「池」、「バンカー」、「ショット」、「パット」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。他のスポーツ名についても同様に、番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 図5はタイトル連想用語DB55の一例を示す説明図である。タイトル連想用語DB55は、番組情報と関連付けて番組の場面を連想させる連想用語を記憶している。図5に示すように、タイトル連想用語DB55は、番組名、すなわちタイトル名と連想用語を対応付けている。タイトル名としては、例えば、刑事もの又はサスペンス系のタイトル、時代劇のタイトル、恋愛もののタイトル、アクションもののタイトル、ミステリー系のタイトルなどである。なお、タイトル名としては、実際の番組名を使用することもできる。
 図5に示すように、例えば、タイトル名が「刑事もの又はサスペンス系」である場合、「犯人」、「謎」、「手がかり」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 また、タイトル名が「時代劇」である場合、「太刀」、「侍」、「待ち伏せ」、「切腹」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 また、タイトル名が「恋愛もの」である場合、「出会い」、「別れ」、「涙」、「プレゼント」、「笑顔」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 また、タイトル名が「アクションもの」である場合、「サイレン」、「車」、「刃物」、「拳銃」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 また、タイトル名が「ミステリー系」である場合、「秘密」、「秘宝」、「暗闇」などの番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。なお、他のタイトル名についても同様に、番組特有の場面が盛り上がる時点、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉を記憶している。
 次に、CPU10がそれぞれのデータベースをどのように使用するかについて説明する。図6は本実施の形態のデータベース間の情報の流れの一例を示す説明図である。番組を録画する際に、CPU10は番組情報40を取得する。CPU10は、辞書DB50を使用して(符号S1参照)、番組情報40から、ジャンル、番組名(タイトル名)、出演者、役名、曲名、番組内容、ストーリー(あらすじ)などの情報のうち、録画する番組の番組情報に含まれる情報(単語など)を抜き出して、チャプタ名候補用語DB51に記憶する(符号S2参照)。
 また、CPU10は、番組情報40を用いて、番組内容に応じた連想用語の有無を判定し、番組内容に関連する連想用語が有る場合、当該連想用語をチャプタ名候補用語DB51に記憶することもできる。なお、連想用語の有無の判定及び連想用語のチャプタ名候補用語DB51への記憶は必須ではなく、省略することもできる。
 図6に示すように、CPU10は、ジャンル情報DB52を使用して、番組情報40から録画する番組のジャンルを決定する。決定したジャンルが、例えば、「スポーツ」である場合には、スポーツ一覧DB53、スポーツ連想用語DB54を用いて、番組の場面を連想させるような連想用語を選択してチャプタ名候補用語DB51に記憶する。また、同様に、決定したジャンルが、例えば、「ドラマ」、「映画」である場合には、タイトル連想用語DB55を用いて、番組の場面を連想させるような連想用語を選択してチャプタ名候補用語DB51に記憶する(符号S3参照)。
 また、番組を録画するか否かに関わらず、ユーザが視聴している番組の番組情報又は字幕データからユーザ嗜好の単語又は言葉を抽出してユーザ登録用語DB56に記憶し、ユーザ登録用語DB56に記憶した単語又は言葉をチャプタ名候補用語DB51に記憶することもできる。
 次に、本実施の形態の録画装置100によるチャプタ名候補用語DB51の作成方法について説明する。図7は本実施の形態の録画装置100によるチャプタ名候補用語DB51の作成の処理手順の一例を示すフローチャートである。CPU10は、番組を録画する際に、番組の番組情報を取得し(S11)、取得した番組情報から番組のジャンルを特定し(S12)、番組名(タイトル名)を特定し(S13)、出演者、役名、曲名を特定し(S14)、番組内容(ストーリー、あらすじなど番組の記述内容)を特定する(S15)。
 CPU10は、特定した情報に基づいて、チャプタ名候補用語を決定し(S16)、決定したチャプタ名候補用語をチャプタ名候補用語DB51に登録する(S17)。これにより、チャプタ名候補用語DB51には、録画しようとしている番組内容に関連する関連用語が記憶される。
 CPU10は、ステップS12~S15で特定した情報に基づいて、番組の場面を連想させる連想用語の有無を判定し(S18)、連想用語がある場合(S18でYES)、連想用語をチャプタ名候補用語DB51に登録し(S19)、処理を終了する。これにより、チャプタ名候補用語DB51には、録画しようとしている番組特有の場面が盛り上がる時点、重要な場面、あるいは場面が変化する時点で音声出力(字幕表示)される単語又は言葉が記憶される。
 連想用語がない場合(S18でNO)、CPU10は、ステップS19の処理を行うことなく処理を終了する。
 上述のように、CPU10は、取得した番組情報から番組のジャンル、番組名、出演者及び番組内容に関する情報の少なくとも1つを含むチャプタ名候補用語を決定する。チャプタ名候補用語DB51は、決定されたチャプタ名候補用語を関連用語として記憶する。これにより、番組特有のコンテンツを表すとともに、場面の変化やストーリーの展開を推測することができる関連用語を予め設定しておくことができる。
 次に連想用語の登録方法の詳細について説明する。図8及び図9は本実施の形態の録画装置100による連想用語の登録方法の処理手順の一例を示すフローチャートである。図8及び図9に示す処理は、図7のステップS16~S19の処理をさらに具体的に示すものである。なお、図7乃至図9に例示の処理は、番組の録画を開始する際に、後述の図14で例示するチャプタの設定処理の前に行われる。
 CPU10は、番組情報に基づいて、番組のジャンルを判定する(S31)。CPU10は、番組のジャンルが音楽であるか否かを判定し(S32)、ジャンルが音楽である場合(S32でYES)、番組情報から出演者、曲名を特定し(S33)、特定した用語(出演者、曲名)をチャプタ名候補用語DB51に登録し(S34)、処理を終了する。なお、ジャンルが音楽の場合、出演者に、歌手、グループ名、演奏者、司会者などを含めてもよい。この場合、CPU10は、連想用語がないと判定している。
 ジャンルが音楽でない場合(S32でNO)、CPU10は、ジャンルがドラマ又は映画であるか否かを判定する(S35)。ジャンルがドラマ又は映画である場合(S35でYES)、CPU10は、出演者、役名、タイトル(番組名)を特定し(S36)、特定した用語(出演者、役名、タイトルなど)をチャプタ名候補用語DB51に登録する(S37)。
 CPU10は、タイトル連想用語DB55を探索して、ステップS36で特定したタイトルに対応する連想用語を特定し(S38)、特定した連想用語をチャプタ名候補用語DB51に登録し(S39)、処理を終了する。
 ジャンルがドラマ又は映画でない場合(S35でNO)、CPU10は、ジャンルがスポーツであるか否かを判定する(S40)。ジャンルがスポーツである場合(S40でYES)、CPU10は、スポーツ一覧DB53を用いて、タイトル(番組名)からスポーツ名を特定する(S41)。
 CPU10は、スポーツ連想用語DB54を探索し、ステップS41で特定したスポーツ名に対応する連想用語を特定し(S42)、特定した連想用語をチャプタ名候補用語DB51に登録し(S43)、処理を終了する。
 ジャンルがスポーツでない場合(S40でNO)、すなわち、番組のジャンルが音楽、ドラマ、映画及びスポーツのいずれでもない場合、CPU10は、出演者、番組内容から用語(単語)を特定し(S44)、特定した用語をチャプタ名候補用語DB51に登録し(S45)、処理を終了する。この場合、CPU10は、連想用語がないと判定している。
 上述のように、CPU10は、取得した番組情報に関連する連想用語の有無を判定し、有と判定した連想用語を関連用語としてチャプタ名候補用語DB51に記憶する。これにより、種々の番組に関する多くの連想用語の中から、取得した番組情報に関連する連想用語だけを選択して関連用語として記憶することができる。また、関連用語に連想用語を付け加えることができるので、場面が盛り上がる時点、重要な場面、あるいは場面が変化する時点などに後述のようにチャプタを設定することができる。
 次に、本実施の形態の録画装置100によるチャプタの設定方法について説明する。なお、チャプタは、番組の場面を適当な箇所で区切った場合、区切られた場面全体をいう。なお、番組の場面を区切る際の区切りということもできる。
 CPU10は、録画する番組の番組情報に含まれる字幕データから単語を含む文字データを抽出する。文字データは、文字列であり、例えば、単語、あるいは単語を修飾する修飾語と当該単語からなる文字列である。
 CPU10は、抽出した文字データの一部又は全部がチャプタ名候補用語DB51に記憶した関連用語に一致するか否かを判定する。CPU10は、番組を録画する場合に、関連用語に一致すると判定した文字データ(文字列)が表示される場面(シーン)でチャプタ(チャプタの区切り)を設定する。
 録画中の番組の映像に同期して字幕が表示されている場合、字幕の表示タイミングに合わせてチャプタを設定することができる。例えば、字幕の表示タイミングを制御する制御パラメータを利用して、字幕データから抽出した文字列が画面上で表示されるタイミングでチャプタを設定する。
 番組のあらすじの展開、場面(シーン)の変化は、字幕にも同様に表れる。種々のジャンルの番組について、番組内容に関連する関連用語を予め記憶しておき、番組内容に関連する関連用語と字幕に現れる文字列が一致(部分一致も含む)するときにチャプタを設定するので、ユーザが手動操作することなく、番組特有のコンテンツ、場面の変化やストーリーの展開に応じてチャプタを設定することができ、番組の内容に応じて適切なタイミングで自動的にチャプタを設定することができる。
 図10はチャプタの設定例を示す説明図である。図10は録画装置100(CPU10)で設定したチャプタの表示例を示すものである。図10では、番組は野球であるとする。図10Aはチャプタ名を表示した例である。すなわち、CPU10は、チャプタ名候補用語DB51に記憶した関連用語に一致すると判定した文字データ(文字列)をチャプタ名としてチャプタに設定する。図10Aでは、画面に表示された字幕の中で「ホームラン」という文字例をチャプタ名としている。これにより、番組特有のコンテンツ、場面の変化やストーリーの展開に応じたチャプタタイトルを設定することができるので、ユーザは、それぞれのチャプタが番組内でどのような場面を表しているかを容易に確認することができる。
 図10Bはチャプタ名及び時刻(時間)を表示した例である。すなわち、CPU10は、チャプタを設定した場面の時間情報をチャプタに設定する。時間情報は、番組の冒頭からの経過時間(図10Bの例では、8分)でもよく、あるいは当該場面が映し出されている時点の時刻(図10Bの例では、7時8分)でもよい。これにより、ユーザは番組の進行状況を把握することができる。
 図10Cはチャプタ名及び時刻(時間)を表示した例である。図10Cの例では、チャプタ名が1つの単語ではなく、「逆転満塁」という単語と「ホームラン」という2つの単語を表示する例である。なお、単語を修飾する修飾語を同時に表示してもよい。例えば、「特大のホームラン」の如くである。
 図10Dはチャプタ名及び時刻(時間)を表示した例である。図10Dの例では、字幕の文字列「起死回生 ホームラン」のうち、「ホームラン」がチャプタ名候補用語DB51に記憶した関連用語に一致したとする。すなわち、CPU10は、字幕の文字データの一部が関連用語に一致すると判定した場合、当該文字データの一部と他の部分とを異なる表示態様にして文字データをチャクタに設定する。例えば、字幕から抽出した文字列が、「起死回生ホームラン」であり、関連用語が「ホームラン」である場合、一致する文言「ホームラン」と一致しない文言「起死回生」とが異なる色、異なる字体、異なる模様で表されるようにする。これにより、字幕データから抽出した文字列が比較的長い場合でも、ユーザは、どのような場面を表しているかを容易に確認することができる。
 図10Eはチャプタ名、時刻(時間)及びサムネイルを表示した例である。すなわち、CPU10は、映像信号処理部17が生成した静止画像(チャプタを設定した場面の画像)をチャプタに設定することにより、サムネイルも同時に表示することができる。これにより、チャプタが設定された時点での場面の画像も表示させることができるので、ユーザは、さらに番組内容、場面の展開を容易に把握することができる。
 図10Fは字幕も同時にキャプチャしたサムネイルを表示した例である。これにより、チャプタが設定された時点での場面の画像も表示させることができるので、ユーザは、さらに番組内容、場面の展開を容易に把握することができる。
 チャプタを設定する場合に、CPU10が一致すると判定した文字データが、直近に一致すると判定した直近文字データと異なる場合、文字データをチャプタ名として設定することができる。例えば、字幕データから抽出した文字列が関連用語と一致した場合に、当該文字列が直近に一致すると判定した文字列と同じときには、当該文字列をチャプタ名として設定せず、当該文字列が直近に一致すると判定した文字列と異なるときに、チャプタ名として設定する。これにより、同じような場面で複数のチャプタが設定されることを防止することができる。
 図11は1番組のチャプタの表示の第1例を示す説明図である。図11の例は、約1時間50分の野球の番組を放送時間軸に沿って模式的に表示したものであり、番組の開始から、8分、20分、35分、50分、1時間15分、1時間32分、1時間45分だけ経過した時点でチャプタが設定されている。チャプタには、字幕の中で関連用語と一致した単語が経過時間と共に表示されている。また、番組の最初から約15分の時点まで再生が進んでいることも表示されている。
 図11の例では、設定されたチャプタをすべて表示する例であり、放送時間軸と設定されたチャプタのチャプタ名(字幕から抽出した文字列)及び時刻(番組の最初からの経過時間)との相関から、番組の流れ、ストーリーが判る。また、チャプタ名と時間情報とから、1つの番組において、ある程度番組の展開が判り、さらに所望のチャプタにジャンプしてハイライトシーン、特徴的な場面だけをダイジェスト版として再生することも可能である。
 図12は1番組のチャプタの表示の第2例を示す説明図である。図12の例では、設定したチャプタのうち、「ホームラン」というキーワード(文字列)のみを表示したものである。野球放送の中で、ホームランが出た場面(シーン)以外の場面を除いて、ホームランの場面だけを連続して再生することが可能となる。また、ホームランの場面の時間も表示されているので、試合のどの辺でホームランが出たのかも良くわかるので、ユーザにとってあまり関心がない場面を見る必要がなく、番組(試合)の全体を短時間で把握することができる。
 図13は1番組のチャプタの表示の第3例を示す説明図である。図13の例では、野球の試合で得点が入った場面のチャプタだけを表示したものである。これにより、得点経過と試合の展開が判り、得点シーンだけを再生することも可能となる。ユーザが得点シーンだけを見たいと希望する場合に最適な表示方法となる。
 図11乃至図13のように、チャプタを表示することにより、番組の内容に応じた適切な場面への速やかな移動、あるいは番組の内容に応じた適切な場面の再生をすることができる。また、所望の場面へのジャンプの際の操作性も向上する。
 図14は本実施の形態の録画装置100によるチャプタ設定の処理手順を示すフローチャートである。CPU10は、番組の録画を開始し(S61)、字幕データの有無を判定する(S62)。字幕データの有無の判定は、例えば、実際の放送において番組を録画するときの現在の時刻で字幕が表示されるか否か(存在するか否か)を判定する。
 字幕データがない場合(S62でNO)、CPUはステップS62の処理を続ける。字幕データがある場合(S62でYES)、CPU10は、字幕データから文字データを抽出し(S63)、抽出した文字データの一部又は全部がチャプタ名候補用語(関連用語)と一致するか否かを判定する(S64)。
 抽出した文字データがチャプタ名候補用語と一致しない場合(S64でNO)、CPU10は、ステップS62以降の処理を続ける。抽出した文字データがチャプタ名候補用語と一致した場合(S64でYES)、CPU10は、当該チャプタ名候補用語が直近に一致したチャプタ名候補用語と同一か否かを判定する(S65)。
 当該チャプタ名候補用語が直近に一致したチャプタ名候補用語と同一である場合(S65でYES)、CPU10は、同一チャプタ名のチャプタが連続して設定されるのを防止すべく、チャプタの設定を行うことなく、ステップS62以降の処理を続ける。
 当該チャプタ名候補用語が直近に一致したチャプタ名候補用語と同一でない場合(S65でNO)、CPU10は、一致した文字データが表示される場面(シーン)でチャプタ(チャプタの区切り)を設定する(S66)。
 CPU10は、一致した文字データ(文字列)をチャプタ名としてチャプタに設定し(S67)、チャプタに時間情報を付加する(S68)。時間情報は、番組の冒頭からの経過時間でもよく、あるいは当該場面が映し出されている時点の時刻でもよい。
 CPU10は、録画を終了したか否かを判定し(S69)、録画を終了していない場合(S69でNO)、ステップS62以降の処理を行い、録画を終了した場合(S69でYES)、処理を終了する。
 上述のように、本実施の形態によれば、番組の録画時に自動的にチャプタ(チャプタの区切り)を設定することができる。また、字幕から抽出した文字列と番組に関連する関連用語との一致・不一致を判定することにより、番組の内容に応じたチャプタを適切な場面(シーン)で設定することができる。また、字幕から抽出した文字列と番組の場面を連想させる連想用語との一致・不一致を判定することにより、場面が盛り上がる時点、重要な場面、あるいは場面が変化する時点などにチャプタを設定することができる。
 上述の実施の形態では、デジタル放送信号を受信して番組を録画する場合について説明したが、本実施の形態の録画装置100は、デジタル放送番組だけに限定されるものではなく、インターネット又は電話回線網上に設けられたサーバからユーザが所要の番組をオンデマンド形式でダウンロードする番組に対しても適用することができる。
 また、本実施の形態の録画装置100を組み込んだテレビジョン受信機においても、番組の内容に応じて適切なタイミングで自動的にチャプタを設定することができる。
 本実施の形態において、ユーザが自分でチャプタを設定した場面の近くの場面で表示される字幕データに含まれる単語(文字列)、ユーザが自分で設定したチャプタ名(チャプタタイトル)、視聴している番組の番組情報又は字幕データなどから、関連用語を取り出して、ユーザ嗜好のユーザ登録用語DBを作成することもできる。そして、チャプタを設定する際にユーザ登録用語DBに記憶した関連用語を使用することもできる。
 上述の実施の形態において、字幕データから抽出した文字データの中に、関連用語と一致するものが複数存在する場合には、チャプタを設定するときに、複数の単語を表示させるようにしてもよい。これにより、ユーザが複数の単語を関連付けることで一層場面の特徴を把握することができる。
(実施の形態2)
 図15は実施の形態2の録画システムの構成の一例を示す模式図である。図15に示すように、実施の形態2の録画システムは、前述の実施の形態1の録画装置100、データベースサーバ200、ネットワークサービスサーバ300などを備える。録画装置100、データベースサーバ200及びネットワークサービスサーバ300は、有線LAN又は無線LANを含むインターネット1を介して接続してある。なお、データベースサーバ200及びネットワークサービスサーバ300は、1つのサーバに統合してもよく、あるいは、複数のサーバで構成するようにしてもよい。なお、実施の形態2の録画装置100の構成は、図1に例示した構成と同様であるので、詳細な説明は省略する。
 録画装置100、より具体的には、CPU10は、通信部13を介してデータベースサーバ200及びネットワークサービスサーバ300との間で所定のデータ又は情報の授受を行うことができる。なお、通信部13とは別個の通信部(不図示)を備え、当該通信部を介してデータベースサーバ200及びネットワークサービスサーバ300との間で所定のデータ又は情報の授受を行うようにしてもよい。
 データベースサーバ200は、録画装置100が具備する各種DB、例えば、辞書DB50、チャプタ名候補用語DB51、ジャンル情報DB52、スポーツ一覧DB53、スポーツ連想用語DB54、タイトル連想用語DB55などと同様のDBを具備する。また、データベースサーバ200は、自身が具備するDBを更新した場合、更新したDB、更新日時、更新内容などを記録することができる。
 実施の形態2では、録画装置100は、データベースサーバ200から関連用語を取得して、辞書DB50、チャプタ名候補用語DB51、ジャンル情報DB52、スポーツ一覧DB53、スポーツ連想用語DB54、タイトル連想用語DB55、ユーザ登録用語DBなどの各種DBを更新する。以下、各種DBの更新について説明する。
 図16は実施の形態2の録画装置100のDBの更新方法の処理手順の第1例を示すフローチャートである。CPU10は、データベースサーバ200にアクセスし(S101)、データベースサーバ200内の各種DBの更新の有無を判定する(S102)。
 CPU10は、データベースサーバ200内の各種DBに更新があった場合(S102でYES)、CPU10は、更新データを取得し(S103)、対応する自身の各種DBを更新し(S104)、処理を終了する。なお、更新するDBは1つでもよく複数でもよい。CPU10は、データベースサーバ200内の各種DBに更新がなかった場合(S102でNO)、ステップS103、S104の処理を行うことなく処理を終了する。
 データベースサーバ200を用いて関連用語を更新することができるので、新規の用語、流行語、新しいキャラクタの名称、役名、人気が出始めたものを表現した用語などをタイムリーに補充することができる。なお、インターネットの検索サイトにおける検索上位の用語を取得するようにしてもよい。
 図17は実施の形態2の録画装置100のDBの更新方法の処理手順の第2例を示すフローチャートである。CPU10は、データベースサーバ200にアクセスし(S111)、データベースサーバ200内の各種DBの更新の有無を判定する(S112)。
 CPU10は、データベースサーバ200内の各種DBに更新があった場合(S112でYES)、CPU10は、更新データを取得し(S113)、対応する自身の各種DBを更新する(S114)。
 CPU10は、更新するDB内の未使用の用語を削除し(S115)、処理を終了する。未使用の用語を削除する場合には、例えば、最後に使用された時点から所定時間以上経過している用語、あるいは所定時間における使用回数が所定回数以下の用語などを削除することができる。
 CPU10は、データベースサーバ200内の各種DBに更新がなかった場合(S112でNO)、ステップS113~S115の処理を行うことなく処理を終了する。未使用の用語を削除することにより、録画装置100内のDBのデータ量が増加することを抑制することができる。
 図18は実施の形態2の録画装置100のDBの更新方法の処理手順の第3例を示すフローチャートである。CPU10は、データベースサーバ200にアクセスし(S121)、データベースサーバ200内の各種DB内にユーザ嗜好の単語と一致(全部一致又は部分一致)するデータの有無を判定する(S122)。なお、この場合、CPU10は、ユーザ登録用語DB56に登録されていない単語であって、ユーザ嗜好の単語をデータベースサーバ200へ通知するようにして、一致・不一致を判定することができる。
 ユーザ嗜好の単語と一致するデータがある場合(S122でYES)、CPU10は、一致するデータを取得し(S123)、DB(ユーザ登録用語DB56)を更新し(S124)、処理を終了する。CPU10は、ユーザ嗜好の単語と一致するデータがなかった場合(S122でNO)、ステップS123、S124の処理を行うことなく処理を終了する。
 ネットワークサービスサーバ300は、番組に関する評価を公開するソーシャルネットワーキングサービスが提供されるサーバであり、ソーシャルネットワークサービス(ソーシャルネットワーキングサービスとも称する)は、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などである。
 実施の形態2では、録画装置100は、ネットワークサービスサーバ300にアクセスして、視聴者がソーシャルネットワークサービスを利用して書込んだ番組に対する評価(意見、感想などを含む)を用いて、辞書DB50、チャプタ名候補用語DB51、ジャンル情報DB52、スポーツ一覧DB53、スポーツ連想用語DB54、タイトル連想用語DB55、ユーザ登録用語DBなどの各種DBを更新する。以下、各種DBの更新について説明する。
 図19は実施の形態2の録画装置100のDBの更新方法の処理手順の第4例を示すフローチャートである。CPU10は、番組情報を取得し(S131)、取得した番組情報に基づいてネットワークサービスの情報を特定する(S132)。
 ネットワークサービスは、番組に関する評価を公開するソーシャルネットワーキングサービスであり、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などである。番組に関する評価は、例えば、番組に関する視聴者の書込み又はコメントなどであり、例えば、番組に対する感想又は意見などを含む。
 CPU10は、ネットワークサービスサーバ300のネットワークサービスにアクセスし(S133)、ネットワークサービス内の書込み又はコメントから番組に関する用語を抽出し(S134)、抽出した用語の中から頻出用語を抽出する(S135)。
 すなわち、CPU10は、特定したネットワークサービス内の番組に関する評価から頻出用語を抽出する。すなわち、CPU10は、視聴者の書込み又はコメントなどの文書内を検索して同一の又は同意の用語の出現回数を計数し、出現回数が所定の閾値回数以上の用語を頻出用語として抽出する。
 CPU10は、録画装置100内の各種DBに、抽出した頻出用語と一致する(全部一致又は部分一致)用語があるか否かを判定し(S136)、一致する用語がない場合(S136でNO)、更新データを取得し(S137)、各種DBを更新し(S138)、処理を終了する。一致する用語がある場合(S136でYES)、CPU10は、ステップS137、S138の処理を行うことなく処理を終了する。
 ネットワークサービス内の番組に関する評価から頻出用語を抽出して、各種DBを更新するので、視聴者の関心が高く、また視聴者の感想や意見を表現することができる関連用語を予め設定しておくことができる。
 次に、実施の形態2におけるチャプタ(チャプタの区切り)の設定について説明する。図20は実施の形態2のチャプタの設定例を示す説明図である。図20は録画装置100(CPU10)で設定したチャプタの表示例を示すものである。図20では、番組は野球であるとする。
 図20Aはチャプタ名、時刻(時間)、サムネイル及びチャプタ名を引用した情報元(図20Aの例ではフェースブックのマーク)を表示した例である。図20Aの例では、例えば、時刻7:08が、番組(野球)についてのフェースブック内の書込み又はコメントの数(評価数)が比較的多い時間帯に含まれる時刻である。
 また、チャプタ名として、時刻7:08を含む前述の時間帯において、「あのホームランは凄かった…」という頻出用語を用いている。
 すなわち、CPU10は、取得した番組情報に基づいて、録画する番組に関する評価を公開するネットワークサービスを特定する。ネットワークサービスとは、例えば、ソーシャルネットワーキングサービスであり、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などである。番組に関する評価は、例えば、番組に関する視聴者の書込み又はコメントなどであり、例えば、番組に対する感想又は意見などを含む。
 そして、CPU10は、特定したネットワークサービス内の番組に関する評価数が所定の閾値以上となる番組中の時間帯を特定する。図20Aの例では、時刻7:08を含む時間帯である。評価の計数は、例えば、視聴者の書込み又はコメントが1つのまとまりとして書込まれた場合、当該書込み又はコメントを1つの評価として計数する。また、時間帯は、任意の時間間隔とすることができる。例えば、番組中において、評価数が比較的多い時間帯を特定することができる。
 CPU10は、特定した時間帯を用いてチャプタを設定する。例えば、ある時間帯で評価数が比較的多い場合、当該時間帯の任意の時点の場面でチャプタの区切り(チャプタ)を設定することができる。図20Aの例では、時刻7:08の場面でチャプタの区切り(チャプタ)を設定している。これにより、視聴者の関心が高い場面でチャプタを設定することができる。
 また、CPU10は、特定した時間帯での評価から頻出用語を抽出する。すなわち、CPU10は、特定した時間帯における視聴者の書込み又はコメントなどの文書内を検索して同一の又は同意の用語の出現回数を計数し、出現回数が所定の閾値回数以上の用語を頻出用語として特定する。
 CPU10は、抽出した頻出用語をチャプタ名としてチャプタに設定する。図20Aの例では、「あのホームランは凄かった…」という頻出用語をチャプタ名にしている。これにより、ユーザは、番組の中で視聴者の関心が高い場面を把握することができる。
 また、CPU10は、特定したネットワークサービスに関するサービス情報をチャプタに設定する。サービス情報とは、例えば、放送局のホームページ、番組のホームページ又は番組配信サービスのホームページ内のツイッター(登録商標)、フェースブック(登録商標)、掲示板などのホームページアドレス(URL)、広告又は宣伝などである。図20Aの例では、フェースブックのマークをチャプタに設定(表示)している。これにより、ユーザは、設定されたチャプタに関連する広告又は宣伝などを容易に取得することができ、サービス連携を実現することができる。
 図20Bは、チャプタ名を引用した情報元として「プロ野球中継OOO公式facebook」を表示した例であり、図20Cは、チャプタ名を引用した情報元としてホームページアドレス(URL)「HP:http://abcde.co.jp」を表示した例であり、図20Dは、広告(又は宣伝)「番組情報は、OOOで356日分の情報が…」を表示した例である。なお、図20B~図20Dの情報元のうち複数を同時に表示することもできる。
 図21は実施の形態2の1番組のチャプタの表示の第1例を示す説明図である。図21の例は、約1時間50分の野球の番組を放送時間軸に沿って模式的に表示したものであり、番組の開始から、8分、20分、35分、50分、1時間15分、1時間32分、1時間45分だけ経過した時点でチャプタ(チャプタの区切り)が設定されている。1時間15分経過したときのチャプタには、フェースブック内の野球の評価に基づいて特定した経過時間(1時間15分経過時点を含む時間帯)及び「トリプルプレー」という頻出用語がチャプタ名として設定され、情報元であるフェースブックのマークが共に表示されている。また、1時間32分経過したときのチャプタには、フェースブック内の野球の評価に基づいて特定した経過時間(1時間32分経過時点を含む時間帯)及び「逆転ホームラン」という頻出用語がチャプタ名として設定され、情報元であるフェースブックのマークが共に表示されている。
 図22は実施の形態2の1番組のチャプタの表示の第2例を示す説明図である。図22の例では、番組の開始から、8分、20分、35分、50分、1時間15分、1時間32分、1時間45分だけ経過した時点でチャプタが設定されている。1時間15分経過したときのチャプタには、番組データ配信サービス内の野球の評価に基づいて特定した経過時間(1時間15分経過時点を含む時間帯)及び「トリプルプレー」という頻出用語がチャプタ名として設定され、情報元である番組データ配信サービスのマークが共に表示されている。また、1時間32分経過したときのチャプタには、フェースブック内の野球の評価に基づいて特定した経過時間(1時間32分経過時点を含む時間帯)及び「逆転ホームラン」という頻出用語がチャプタ名として設定され、情報元であるフェースブックのマークが共に表示されている。
 図23は実施の形態2の録画装置100によるチャプタ設定の処理手順を示すフローチャートである。CPU10は、録画番組の番組情報を取得し(S141)、番組の録画を開始する(S142)。CPU10は、取得した番組情報に基づいて、ネットワークサービスの情報を特定する(S143)。なお、ネットワークサービスの情報とは、ネットワークサービスにアクセスするための情報である。
 CPU10は、ネットワークサービスにアクセスし(S144)、録画を開始した番組の対してのネットワークサービス内の書込み又はコメントの数が多い番組(録画を開始した番組)中の時間帯を特定する(S145)。
 CPU10は、書込み又はコメントの中から頻出用語を抽出し(S146)、特定した時間帯に表示される場面(シーン)でチャプタを設定する(S147)。例えば、図22において、1時間15分経過時点、あるいは1時間32分経過時点などの如くである。CPU10は、設定したチャプタに頻出用語を付加する(S148)。頻出用語を付加することと頻出用語を設定することは同意である。例えば、図22において、1時間15分経過時点の「トリプルプレー」という頻出用語が設定され、1時間32分経過時点の「逆転ホームラン」という頻出用語が設定されている。
 CPU10は、録画を終了し(S149)、処理を終了する。
 上述のように、実施の形態2においては、新規用語の追加、キャラクタ又は役名などの補充を行うことにより、関連用語などを常に時代や風潮に即したものにアップデートすることができる。また、視聴者の関心が高い用語又は言葉を使ったチャプタの設定を行うことができる。また、ある番組の中で視聴者の関心が高い場面(シーン)をチャプタに設定することもできる。
 10 CPU
 11 RAM
 12 不揮発性メモリ
 13 通信部
 14 リモコン受光部
 15 チューナ/復調/分離部
 17 映像信号処理部
 18 EPG/OSD/BML処理部
 19 音声信号処理部
 20 HDD
 21 BD/DVDドライブ
 22 メモリカードスロット
 23 ストリーム制御回路
 24 映像出力変換部
 25 音声出力変換部
 200 データベースサーバ
 300 ネットワークサービスサーバ

Claims (15)

  1.  映像データ、音声データ、字幕データ及び番組情報を含む番組信号を取得する取得部と、該取得部で取得した番組信号に基づいて番組を録画する録画部とを備える録画装置において、
     番組内容に関連する複数の関連用語を記憶する記憶部と、
     前記取得部で取得した字幕データから単語を含む文字データを抽出する抽出部と、
     該抽出部で抽出した文字データの一部又は全部が前記記憶部に記憶した関連用語に一致するか否かを判定する判定部と、
     前記録画部で番組を録画する場合に、前記判定部で一致すると判定した文字データが表示される前記番組の場面でチャプタの区切りを設定する設定部と
     を備えることを特徴とする録画装置。
  2.  前記設定部は、
     前記判定部で一致すると判定した文字データをチャプタ名として前記チャプタに設定するようにしてあることを特徴とする請求項1に記載の録画装置。
  3.  前記設定部は、
     前記判定部で文字データの一部が前記関連用語に一致すると判定した場合、該文字データの一部と他の部分とを異なる表示態様にして前記文字データを前記チャプタに設定するようにしてあることを特徴とする請求項2に記載の録画装置。
  4.  前記設定部は、
     前記チャプタを設定した場面の時間情報を該チャプタに設定するようにしてあることを特徴とする請求項1から請求項3までのいずれか1項に記載の録画装置。
  5.  前記チャプタを設定した場面の画像を生成する生成部を備え、
     前記設定部は、
     前記生成部が生成した画像を前記チャプタに設定するようにしてあることを特徴とする請求項1から請求項4までのいずれか1項に記載の録画装置。
  6.  前記設定部は、
     前記判定部で一致すると判定した文字データが、直近に一致すると判定した直近文字データと異なる場合、前記文字データをチャプタ名として前記チャプタに設定するようにしてあることを特徴とする請求項1から請求項5までのいずれか1項に記載の録画装置。
  7.  前記取得部で取得した番組情報から番組のジャンル、番組名、出演者及び番組内容に関する情報の少なくとも1つを含むチャプタ名候補用語を決定する決定部を備え、
     前記記憶部は、
     前記決定部が決定したチャプタ名候補用語を前記関連用語として記憶するようにしてあることを特徴とする請求項1から請求項6までのいずれか1項に記載の録画装置。
  8.  番組情報と関連付けて番組の場面を連想させる連想用語を予め記憶する連想用語記憶部と、
     前記取得部で取得した番組情報に関連する連想用語の有無を判定する連想用語判定部と
     を備え、
     前記記憶部は、
     前記連想用語判定部が有と判定した連想用語を前記関連用語として記憶するようにしてあることを特徴とする請求項1から請求項7までのいずれか1項に記載の録画装置。
  9.  前記取得部で取得した番組情報に基づいて、番組に関する評価を公開するネットワークサービスを特定する特定部と、
     該特定部で特定したネットワークサービス内の前記番組に関する評価から頻出用語を抽出する用語抽出部と
     を備え、
     前記記憶部は、
     前記用語抽出部で抽出した頻出用語を前記関連用語として記憶するようにしてあることを特徴とする請求項1から請求項8までのいずれか1項に記載の録画装置。
  10.  前記取得部で取得した番組情報に基づいて、前記録画部で録画する番組に関する評価を公開するネットワークサービスを特定する特定部と、
     該特定部で特定したネットワークサービス内の前記番組に関する評価数が所定の閾値以上となる該番組中の時間帯を特定する時間帯特定部と
     を備え、
     前記設定部は、
     前記時間帯特定部で特定した時間帯を用いてチャプタを設定するようにしてあることを特徴とする請求項1から請求項8までのいずれか1項に記載の録画装置。
  11.  前記時間帯特定部で特定した時間帯での評価から頻出用語を抽出する用語抽出部を備え、
     前記設定部は、
     前記用語抽出部で抽出した頻出用語を前記チャプタに設定するようにしてあることを特徴とする請求項10に記載の録画装置。
  12.  前記設定部は、
     前記特定部で特定したネットワークサービスに関するサービス情報を前記チャプタに設定するようにしてあることを特徴とする請求項10又は請求項11に記載の録画装置。
  13.  前記録画部で録画した番組とともに前記設定部で設定したチャプタを表示する表示部を備えることを特徴とする請求項1から請求項12までのいずれか1項に記載の録画装置。
  14.  請求項1から請求項12までのいずれか1項に記載の録画装置で録画した番組とともに設定したチャプタを表示するようにしてあることを特徴とするテレビジョン受信機。
  15.  映像データ、音声データ、字幕データ及び番組情報を含む番組信号を取得する取得部と、該取得部で取得した番組信号に基づいて番組を録画する録画部とを備える録画装置による録画方法において、
     番組内容に関連する複数の関連用語を記憶するステップと、
     前記取得部で取得した字幕データから単語を含む文字データを抽出するステップと、
     抽出された文字データの一部又は全部が記憶部に記憶した関連用語に一致するか否かを判定するステップと、
     前記録画部で番組を録画する場合に、一致すると判定された文字データが表示される前記番組の場面でチャプタの区切りを設定するステップと
     を含むことを特徴とする録画方法。
PCT/JP2013/065774 2012-06-27 2013-06-07 録画装置、テレビジョン受信機及び録画方法 WO2014002728A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-144510 2012-06-27
JP2012144510 2012-06-27
JP2013-117014 2013-06-03
JP2013117014A JP2014030180A (ja) 2012-06-27 2013-06-03 録画装置、テレビジョン受信機及び録画方法

Publications (1)

Publication Number Publication Date
WO2014002728A1 true WO2014002728A1 (ja) 2014-01-03

Family

ID=49782894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065774 WO2014002728A1 (ja) 2012-06-27 2013-06-07 録画装置、テレビジョン受信機及び録画方法

Country Status (2)

Country Link
JP (1) JP2014030180A (ja)
WO (1) WO2014002728A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052630A (zh) * 2017-12-19 2018-05-18 中山大学 一种基于中文教育视频提取拓展词的方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7272096B2 (ja) * 2019-04-25 2023-05-12 住友電気工業株式会社 視聴録画装置、視聴録画方法および視聴録画プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157688A (ja) * 2004-11-30 2006-06-15 Nippon Telegr & Teleph Corp <Ntt> 映像シーンに対する意味ラベル付与方法及び装置及びプログラム
JP2006190019A (ja) * 2005-01-05 2006-07-20 Hitachi Ltd コンテンツ視聴システム
JP2006279290A (ja) * 2005-03-28 2006-10-12 Nec Personal Products Co Ltd 番組録画装置、番組録画方法および番組録画プログラム
JP2007060305A (ja) * 2005-08-24 2007-03-08 Sharp Corp コンテンツ情報提供装置、通信システム、解析サーバ装置、コンテンツ情報提供プログラムおよびコンテンツ情報提供方法
JP2009027260A (ja) * 2007-07-17 2009-02-05 Panasonic Corp デジタルコンテンツ処理装置
JP2009118168A (ja) * 2007-11-06 2009-05-28 Hitachi Ltd 番組録画再生装置、および、番組録画再生方法
JP2009118206A (ja) * 2007-11-07 2009-05-28 Hitachi Ltd 録画再生装置
JP2009206993A (ja) * 2008-02-28 2009-09-10 Sharp Corp コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生プログラム、および、記録媒体
JP2010245853A (ja) * 2009-04-07 2010-10-28 Hitachi Ltd 動画インデクシング方法及び動画再生装置
JP2012034152A (ja) * 2010-07-30 2012-02-16 Sanyo Electric Co Ltd 記録再生装置
WO2012070179A1 (ja) * 2010-11-24 2012-05-31 株式会社Jvcケンウッド 区間作成装置、区間作成方法、及び区間作成プログラム
WO2012070180A1 (ja) * 2010-11-24 2012-05-31 株式会社Jvcケンウッド チャプター作成装置、チャプター作成方法、及びチャプター作成プログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157688A (ja) * 2004-11-30 2006-06-15 Nippon Telegr & Teleph Corp <Ntt> 映像シーンに対する意味ラベル付与方法及び装置及びプログラム
JP2006190019A (ja) * 2005-01-05 2006-07-20 Hitachi Ltd コンテンツ視聴システム
JP2006279290A (ja) * 2005-03-28 2006-10-12 Nec Personal Products Co Ltd 番組録画装置、番組録画方法および番組録画プログラム
JP2007060305A (ja) * 2005-08-24 2007-03-08 Sharp Corp コンテンツ情報提供装置、通信システム、解析サーバ装置、コンテンツ情報提供プログラムおよびコンテンツ情報提供方法
JP2009027260A (ja) * 2007-07-17 2009-02-05 Panasonic Corp デジタルコンテンツ処理装置
JP2009118168A (ja) * 2007-11-06 2009-05-28 Hitachi Ltd 番組録画再生装置、および、番組録画再生方法
JP2009118206A (ja) * 2007-11-07 2009-05-28 Hitachi Ltd 録画再生装置
JP2009206993A (ja) * 2008-02-28 2009-09-10 Sharp Corp コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生プログラム、および、記録媒体
JP2010245853A (ja) * 2009-04-07 2010-10-28 Hitachi Ltd 動画インデクシング方法及び動画再生装置
JP2012034152A (ja) * 2010-07-30 2012-02-16 Sanyo Electric Co Ltd 記録再生装置
WO2012070179A1 (ja) * 2010-11-24 2012-05-31 株式会社Jvcケンウッド 区間作成装置、区間作成方法、及び区間作成プログラム
WO2012070180A1 (ja) * 2010-11-24 2012-05-31 株式会社Jvcケンウッド チャプター作成装置、チャプター作成方法、及びチャプター作成プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HISASHI MIYAMORI ET AL.: "Method of Automatically Extracting Metadata of TV Programs Using Its Live Chat on the Web", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 46, no. SIG18(, 15 December 2005 (2005-12-15), pages 59 - 71 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052630A (zh) * 2017-12-19 2018-05-18 中山大学 一种基于中文教育视频提取拓展词的方法
CN108052630B (zh) * 2017-12-19 2020-12-08 中山大学 一种基于中文教育视频提取拓展词的方法

Also Published As

Publication number Publication date
JP2014030180A (ja) 2014-02-13

Similar Documents

Publication Publication Date Title
US11582536B2 (en) Customized generation of highlight show with narrative component
KR101413353B1 (ko) 정보 처리 장치, 정보 처리 방법 및 정보 처리 프로그램
TWI474200B (zh) Scene clip playback system, method and recording medium thereof
CN103765910B (zh) 用于视频流和其他内容的基于关键字的非线性导航的方法和设备
JP2000253325A (ja) 電子番組ガイド受信システム
CN102265609A (zh) 节目数据处理装置、方法和程序
JP2008084115A (ja) 情報処理装置、情報処理プログラムおよび情報処理システム
US20210044859A1 (en) Systems and methods for recording media assets
JP2009118168A (ja) 番組録画再生装置、および、番組録画再生方法
JP4925938B2 (ja) ダイジェスト映像情報作成方法、ダイジェスト映像情報作成プログラム、および、映像装置
JP4668875B2 (ja) 番組録画再生装置、番組再生位置制御方法及び番組情報提供装置
JP2006139408A (ja) 特徴ベクトル生成装置、検索装置、特徴ベクトル生成方法、検索方法及びプログラム
WO2007073053A1 (en) Method for searching situation of moving picture and system using the same
JP5225418B2 (ja) 情報処理装置及び方法
WO2014002728A1 (ja) 録画装置、テレビジョン受信機及び録画方法
JP4929128B2 (ja) 録画再生装置
JP6029530B2 (ja) 情報処理装置及び情報処理方法
JP2008099012A (ja) コンテンツ再生システム及びコンテンツ蓄積システム
JP2007184674A (ja) ダイジェスト作成装置
JP6290046B2 (ja) 映像装置および映像装置の制御方法
JP2007288391A (ja) ハードディスク装置
JP2008252916A (ja) 要約映像生成装置、要約映像生成方法及びプログラム
JP2005293212A (ja) 要約映像生成装置、要約映像生成方法及びプログラム
JP5160659B2 (ja) 評価装置および評価方法
JP2013198110A (ja) コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13809196

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13809196

Country of ref document: EP

Kind code of ref document: A1