WO2010041457A1 - 映像出力装置及び映像出力方法 - Google Patents

映像出力装置及び映像出力方法 Download PDF

Info

Publication number
WO2010041457A1
WO2010041457A1 PCT/JP2009/005255 JP2009005255W WO2010041457A1 WO 2010041457 A1 WO2010041457 A1 WO 2010041457A1 JP 2009005255 W JP2009005255 W JP 2009005255W WO 2010041457 A1 WO2010041457 A1 WO 2010041457A1
Authority
WO
WIPO (PCT)
Prior art keywords
supplementary information
area
video
screen
determination unit
Prior art date
Application number
PCT/JP2009/005255
Other languages
English (en)
French (fr)
Inventor
幸裕弘
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP09818997A priority Critical patent/EP2334063A1/en
Priority to CN200980101324.1A priority patent/CN101897178B/zh
Priority to US12/747,019 priority patent/US8482672B2/en
Priority to JP2010511414A priority patent/JP5372916B2/ja
Publication of WO2010041457A1 publication Critical patent/WO2010041457A1/ja
Priority to US13/902,214 priority patent/US8724027B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0414Vertical resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0421Horizontal resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0471Vertical positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0478Horizontal positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position

Definitions

  • the present invention relates to a video output device and a video output method that change the display mode of supplemental information according to the scaling factor of the display size of an input video.
  • a device that receives a signal of a broadcast program provided by a television broadcast station or a cable television station processes the received signal and outputs an image.
  • the device is referred to as “video output device”.
  • the output destination of the video is a display equipped in the video output device, or an external display connected to the video output device via communication means such as a cable.
  • a "two-screen mode" in which a screen is divided into two and displayed for two input videos is widely known.
  • FIGS. 1 (a) to 1 (c) are diagrams showing display patterns in a general two-screen mode.
  • FIG. 1A shows an example in which the input video A and the input video B are displayed in parallel at the same ratio.
  • FIG. 1 (b) shows an example in which the input video A and the input video B are displayed with a difference in size.
  • FIG. 1C shows an example in which an input video B of a small screen is superimposed and displayed on an input video A displayed on a full screen.
  • FIGS. 2 (a) to 2 (c) show display examples in the case where an image is assigned to each display pattern of the two-screen mode shown in FIGS. 1 (a) to 1 (c).
  • Patent Document 1 discloses one method for solving this problem. According to the method of this document, when the program accompanied by the data broadcast is reduced and displayed by screen division, the menu screen of the data broadcast designated on the program transmission side is reduced based on the layout information by the remote control operation by the user. Display superimposed on the outside of.
  • this method is premised on that a predetermined character string and image data are attached to a program as data broadcasting together with layout information. Also, the user must operate the remote control continuously to display the information that he / she wants to confirm. Further, since information is superimposed and displayed on another divided screen, the other divided screen is hidden by the superimposed screen, and information is lost.
  • Patent Document 2 discloses another method for solving the above problems. According to the method of this document, the first input video is displayed on the full screen for two or more input videos, the subtitle region including the character string is extracted from the second input video, and the extracted character string is It is superimposed and displayed on an arbitrary position of one input video.
  • FIGS. 3 to 5 show an outline of processing according to the method disclosed in Patent Document 2.
  • FIG. In the method of Patent Document 2, a character string area B 'is extracted from the input video B as shown in (b) of FIG. 3 out of the two input video A and B shown in (a) of FIG. As shown in (c) of FIG. 3, the character string area B ′ is superimposed and displayed on the input video A.
  • FIG. 4 shows an example of display when an image is assigned to each screen shown in FIG. In the example shown in FIG. 4, in the baseball relay corresponding to the input video B, the score display portion corresponding to the character string area B ′ is displayed superimposed on the input video A.
  • the information in the input video that the user wants to know needs to be a character string. Therefore, information that is not a character string (for example, a logo of a professional baseball team or the like) is not included in the character string area B '. Therefore, when the information that the user wants to know contains information that is not a string, there is a problem that the information is missing (can not be seen). For example, as shown in (a) of FIG. 5, when an unextractable symbol or mark is used in the score display portion of the input video B shown in FIG. 4, characters as shown in (b) of FIG. Only column parts are extracted. For this reason, as shown in (c) of FIG. 5, the symbols and marks are not displayed superimposed on the input video A.
  • the character string area B ' can be superimposed and displayed at an arbitrary position of the input video A, but as long as the input video A is full screen display, the character string area B' is superimposed at any location of the input video A . For this reason, a part of information of the input video A is missing. For example, as shown in (c) of FIG. 4 and (c) of FIG. 5, since the character string area B ′ is superimposed on a part of the telop of the input video A, the telop information of the overlapped part Will be lacking.
  • An object of the present invention is to provide a video output apparatus and a video output method that change the display mode of the supplementary information according to the scaling factor of the display size of the input video.
  • the present invention relates to a screen configuration management unit for managing arrangement or scale of a screen for displaying at least one video, an area determination unit for determining a character area from an input video, and at least one character area determined by the area determination unit.
  • the supplemental information storage unit configured to cut out the image of the supplemental information area including A supplementary information display determination unit that determines whether to perform the process and an output unit that outputs the input video and the supplementary information according to instructions from the screen configuration management unit and the supplementary information display determination unit, and the supplementary information display
  • the determination unit displays the supplementary information based on the size of characters included in the character area in the input video, which changes according to the scale managed by the screen configuration management unit.
  • the present invention relates to a screen configuration management unit for managing arrangement or scale of a screen for displaying at least one video, an area determination unit for determining a character area from an input video, and at least one character area determined by the area determination unit. It determines whether the supplementary information acquired by the communication unit is to be displayed, in addition to the input image based on the screen configuration managed by the screen configuration management unit and the communication unit acquiring the character string included in the information from the external server as the supplementary information A supplementary information display determination unit; and an output unit for outputting the input video and the supplementary information according to instructions from the screen configuration management unit and the supplementary information display determination unit, the supplementary information display determination unit
  • the image output apparatus displays the supplementary information when the size of characters included in at least one character area determined by the area determination unit is smaller than a threshold.
  • the present invention determines a character area from an input image, cuts out an image of a supplementary information area including at least one character area, holds it as supplementary information, and defines a screen layout or scale for displaying at least one image. It is a video output method for determining whether or not to display the supplementary information in addition to the input video based on the configuration, and outputting the input video and the supplementary information according to the screen configuration and the determination result, in the input video There is provided a video output method of determining to display the supplementary information based on the size of characters included in the character area.
  • the present invention determines a character area from an input video, acquires a character string included in at least one character area as supplementary information from an external server, and defines a screen layout or scale for displaying at least one video.
  • the video output apparatus and the video output method according to the present invention it is possible to change the display mode of the supplementary information according to the scaling factor of the display size of the input video. Therefore, even in the case of dividing a plurality of input videos into a screen, it is possible to complement as a supplementary information a portion where a character or symbol collapse occurs in the input video, and to prevent the absence of information that the user wants to know Can.
  • FIG. 1 A diagram showing a display example when an image is assigned to each screen shown in FIG. 3
  • Block diagram showing a video output device of the first embodiment and its related device (A)-(f) is a figure which shows the pattern of the full screen display which concerns on 1st Embodiment, and a two-screen display.
  • a diagram showing an example of a screen configuration management table held by the screen configuration management unit 103 (A)-(f) is a figure which shows the example of a data structure of the screen configuration management table which the screen configuration management part 103 hold
  • maintains A diagram showing a display example of the supplementary information screen in the two-screen display state C shown in FIG. 7 (e)
  • a flowchart showing processing performed by the video output device 100 when displaying the supplementary information screen in response to the screen division request Flow chart showing supplementary information extraction processing Diagram showing character area and object area in input video 2 A diagram showing a character area table held by the supplementary information holding unit 113 A diagram showing an object area table held by the supplementary information holding unit 113 A flowchart showing the character area group definition process shown in step S213 in the flowchart of FIG.
  • FIG. 7 Block diagram showing a video output apparatus of the second embodiment and its related apparatus Diagram showing screen configuration data provided by the supplemental information provision device A diagram showing a display example of supplementary information based on screen configuration data
  • the video output apparatus is an apparatus for receiving contents such as a program or a commercial transmitted by a broadcasting station via a transmission station and displaying the contents on a display inside or outside the apparatus.
  • FIG. 6 is a block diagram showing a video output apparatus and its related apparatus of the first embodiment. First, an outline of processing until the video output device displays the input video on the display will be described.
  • the video output apparatus 100 includes an input unit 101, a terminal control unit 102, a screen configuration management unit 103, a video input unit 104, an application processing unit 105, a screen generation unit 106, and a composition.
  • a section 107, an output section 108, an area determination section 112, a supplementary information storage section 113, and a supplementary information display determination section 115 are provided.
  • the input unit 101 receives a control command signal from a remote control device (hereinafter referred to as “remote control”) attached to the video output device 100 or an externally connected device or the like, and transfers it to the terminal control unit 102.
  • the terminal control unit 102 inquires of the screen configuration management unit 103 a screen configuration corresponding to the control command signal transferred from the input unit 101.
  • the screen configuration is, for example, a configuration in which the channel viewed last is displayed on the full screen in accordance with the power on command of the video output device 100 or a program guide is displayed on the entire screen And so on.
  • the screen configuration management unit 103 manages the configuration of the screen displayed on the display according to the control command.
  • the screen configuration management unit 103 stores a screen configuration management table described later.
  • the terminal control unit 102 transfers the program guide display instruction to the application processing unit 105.
  • the application processing unit 105 can execute an application for realizing various functions in addition to the program guide display function. Further, the application processing unit 105 responds to the terminal control unit 102 with necessary processing (for example, displaying the current channel in a reduced size, etc.) according to the command input from the terminal control unit 102. Also, the application processing unit 105 provides the screen generation unit 106 with information necessary to generate a screen necessary for setting according to an instruction from the terminal control unit 102.
  • the functions realized by the application that can be executed by the application processing unit 105 are, for example, a broadcast reception setting function, an image quality adjustment function, an alarm setting function, a calendar display function, a network connection setting function, etc. is there.
  • the screen generation unit 106 performs a drawing process of basic parts (character strings, images, background colors, and the like) to be combined on the screen based on the information provided from the application processing unit 105.
  • the video input unit 104 manages at least one video source to which the video output apparatus 100 can input, and transfers an input video obtained according to an instruction from the terminal control unit 102 to the synthesizing unit 107.
  • the video input unit 104 includes, for example, a first tuner 109a, a second tuner 109b, an external input unit 109c, a communication unit 109d, decoders 110a to 110d, and processing units 111a to 111d. .
  • the first tuner 109 a and the second tuner 109 b receive, via the antenna 200, contents such as programs and commercials that the broadcasting station 300 has sent via the sending station 400.
  • the external input unit 109 c acquires the content output from the video providing device 500 such as a recorder having a recording medium or other video equipment.
  • the communication unit 109 d receives the content transmitted from the video providing device 700 via the network 600.
  • the decoders 110a to 110d decode signals from the corresponding first tuner 109a, second tuner 109b, external input unit 109c, or communication unit 109d, respectively.
  • the processing units 111a to 111d use the image data from the corresponding decoders 110a to 110d, respectively, to change the color tone or scale of the image according to the instruction from the terminal control unit 102, and transfer the processed image to the synthesizing unit 107. Do.
  • the synthesizing unit 107 synthesizes the video transferred from the video input unit 104 based on the setting of the screen configuration management unit 103, and outputs the synthesized video (hereinafter, simply referred to as “synthetic video”) to the output unit 108. . Specifically, the synthesizing unit 107 arranges each input image reduced by the processing units 111 a to 111 d to the scale requested by the terminal control unit 102 in the layout instructed by the application processing unit 105 to the screen configuration management unit 103. Compose based on the screen configuration.
  • the output unit 108 displays the composite video on the display when the video output device 100 includes the display, and transfers the composite video to an external display when the video output device 100 does not include the display.
  • FIGS. 7A to 7F are diagrams showing patterns of full screen display and two screen display according to the first embodiment.
  • FIG. 8 is a diagram showing an example of the screen configuration management table held by the screen configuration management unit 103.
  • FIG. 7A shows a state in which the input video 1 received by the first tuner 109a is displayed on the full screen of the display as an initial state (drama program only full screen display state).
  • FIG. 7B when the user instructs a channel change using the remote control, the input video 1 received by the channel change of the first tuner 109a is displayed on the entire screen of the display by the channel change (base relay) Only show the full screen display state).
  • FIG. 7C shows the channel (drama) previously selected as the input video 1 and the channel currently selected as the input video 2 (baseball relay) when the user instructs the two-screen display using the remote control. Shows a state in which the screen ratio is displayed as 1: 3 (two-screen display state A).
  • FIG. 7D when the user operates the left and right buttons of the remote control to arbitrarily change the left and right screen ratios, the left screen ratio is increased and the left screen and right screen screen ratios are set to be the same.
  • An example of display is shown. In the display example, it is determined that the user can not read the batter score (character string and symbol displayed at the upper left of the screen) of the baseball relay on the right screen (input video 2). For this reason, in the display example, the screen of the area indicating the batter score of the right screen (input video 2) is displayed in full size in the vicinity of the right screen (input video 2) as the supplementary information (two-screen display State B).
  • FIG. 7E shows a display example in which the ratio of the left screen is set large.
  • the display example it is determined that the user can not read the progress information (character strings and symbols displayed on the lower right of the screen) of the baseball relay on the right screen (input video 2) on the divided screen. Therefore, in the display example, in addition to the screen of the area indicating the batter score, the screen of the area indicating the progress information of the right screen (input video 2) is also included in the vicinity of the right screen (input video 2) as supplementary information. It is displayed in full size (two-screen display state C).
  • FIG. 7F shows a display example in which the ratio of the left screen is maximized.
  • the baseball relay on the right screen (input image 2) is minimized to a level at which it is possible to determine the general condition such as the batter hit.
  • the screen of each area showing the batter score and the progress information is superimposed on a part of the left screen (input video 1) as supplementary information and displayed in full size (two-screen display state D).
  • the previously selected channel is the input video 1
  • the currently selected channel is the input video 2.
  • the selection of the input video for the channel may be made by using the currently selected channel as the input video 1 received by the first tuner 109a and the channel last selected by the user in the second tuner 109b as the input video 2 .
  • the user may select and change either left or right.
  • the screen ratio at the time of instructing the two-screen display is not limited to one to three, and an arbitrary ratio may be set.
  • the left and right screen ratios can be arbitrarily changed by operating the left and right buttons of the remote control, but any other input means such as a touch sensor or an acceleration sensor mounted on other buttons or remote control may be used.
  • FIG. 7F shows an example in which the screen of each area showing batter scores and progress information which is supplementary information is superimposed on a part of the left screen (input video 1).
  • the enlargement of the left screen may be controlled so that the screen showing the supplementary information is not superimposed on the left screen.
  • the transparency of the screen showing the supplementary information may be lowered.
  • the user can also check the input video 1 of the portion where the screens showing the supplementary information overlap.
  • FIG. 8 shows a data configuration example of the screen configuration management table held by the screen configuration management unit 103 in the state shown in FIG. 7A.
  • an input source an output flag, a width (W) indicating a screen drawing area, a height (H), and a horizontal axis drawing position (X) for each input video.
  • the degree of transparency ( ⁇ ) is closer to transparency as it approaches 0.
  • the state shown in FIG. 7A is a state in which only the input video 1 received by the first tuner 109a is displayed. Therefore, in the screen configuration management table at this time, only the output flag of the input video 1 is “true”, and the output flags of the other input videos are “false”.
  • the width (W) is 1920
  • the height (H) is 1080
  • the drawing position (X) on the horizontal axis is 0,
  • the drawing position (Y) on the vertical axis is 0.
  • the parameters indicating the overlap between the input video 1 and the other video are 0 for depth (Z), 255 for transparency ( ⁇ ) of the input video 1, and 100% for the scale (R). In the case of such parameters, the input video 1 is displayed on the full screen on the display.
  • FIGS. 9A to 9F show data configuration examples of the screen configuration management table corresponding to the display forms of FIGS. 7A to 7F. As shown in FIGS. 9A to 9F, when the screen configuration is different, the parameters of the screen configuration management table are different from each other in the output flag, the change of the screen composition ratio, and the scale.
  • FIG. 10 is a view showing a display example of the supplementary information screen in the two-screen display state C shown in FIG. 7 (e).
  • FIG. 11 is a diagram for explaining the screen elements shown in FIG.
  • the display screen (1000/1100) is composed of two input video images.
  • the left screen (1001) is screen 1 (1101) for displaying the input video 1
  • the right screen (1002) is screen 2 (1102) for displaying the input video 2.
  • the area (1003) indicating the batter score of the input video 2 (baseball relay) is reduced on the input video 2 and displayed on the screen 2 (1102), so that it is judged that the user can not read. I assume.
  • the portion where the supplementary information object area SA1 is cut out and displayed is taken as the supplementary information screen 1 (1005/1105), and the part where the supplementary information object area SA2 is cut out and displayed is the supplementary information screen 2 (1006). / 1106). Furthermore, in the “emphasis expression section” (1007/1107) indicating that it is the supplementary information screen, the shadow (drop shadow) displayed in the outer frame of the supplementary information screen 2 (1006) or the supplementary information screen 2 (1006) Display symbols such as stars displayed on the left side of). In FIGS. 10 and 11, dotted lines are displayed from the supplementary information object area SA1 to the supplementary information screen 1 and from the supplementary information object area SA2 to the supplementary information screen 2.
  • This dotted line is shown as a guideline for indicating to the user "which area information is enlarged and displayed."
  • the dotted line as a guideline shows an example, and as long as it can be determined which area is shown, it may be an arrow, solid line, color or shade.
  • FIG. 12 is a flowchart showing processing performed by the video output device 100 when displaying the supplementary information screen in response to the screen division request.
  • the input unit 101 receives an instruction signal of "screen division mode request" from the remote control, and the screen configuration management unit 103 is received via the terminal control unit 102. Transfer the instruction.
  • the screen configuration management unit 103 sets the screen division number (N) to “2” as initialization processing of the screen division mode processing, and determines the screen ratio at the time of display (for example, fixed magnification 1: 3 as an initial value). .
  • the screen configuration management unit 103 instructs the video input unit 104 via the terminal control unit 102 to output the input video 1 and the input video 2 to the first tuner 109 a and the second tuner 109 b. Further, the screen configuration management unit 103 instructs the processing unit 111a and the processing unit 111b to reduce each input video so as to have a fixed magnification (1: 3) via the terminal control unit 102 (step S101).
  • the initial value of the screen ratio of screen division is set to the fixed magnification (1: 3), but the user may optionally designate the desired magnification in advance as the fixed magnification (1: 1). .
  • the screen division number (N) is “2” in the above description, the screen division number may be two or more, and the screen ratio may also be set freely.
  • the screen configuration management unit 103 ends the screen division mode process (Y in step S102). On the other hand, if the screen division mode is continued, the screen configuration management unit 103 continues the process (N in step S102).
  • a signal received by the second tuner 109b of the video input unit 101 via the antenna 200 is decoded by the decoder 110b.
  • the decoder 110 b transfers the input video obtained by the decoding to the area determination unit 112.
  • the area determination unit 112 executes supplemental information extraction processing on the input video transferred from the decoder 110 b (step S 103). Details of this process will be described later.
  • the region determination unit 112 stores the extracted supplemental information in the supplemental information storage unit 113 when there is a character region to be supplemental information and the supplemental information is extracted. Then, if there is supplemental information in the input video (Y at step S104) and the predetermined determination condition is satisfied (Y at step S105), the supplemental information display determination unit 115 sets supplemental information on the input video (maximum The screen configuration management unit 103 is instructed to superimpose display on the designated position of the upper layer (step S106). By the instruction, the supplementary information screen 1 (1005) and the supplementary information screen 2 (1006) shown in FIG. 10 are displayed on the display.
  • the determination condition used in step S105 is that “the appearance frequency of supplemental information is equal to or higher than a predetermined appearance frequency threshold (for example, 50%)” and “character size of extracted supplemental information ⁇ current input video”
  • the scaling factor is equal to or less than a predetermined character size threshold (for example, 12 points).
  • the supplementary information display determination unit 115 Change the change flag to "true” status. Then, when the change flag is “true” (Y in step S107), the supplemental information display determination unit 115 additionally displays a highlighted expression with respect to the displayed supplemental information (step S108). That is, in the highlighting by the supplementary information display determination unit 115, a symbol (1007) such as a shadow or an asterisk of the outer frame of the supplementary information screen 2 (1006) shown in FIG. 10 is displayed. On the other hand, when the change flag is "false", the supplementary information display determination unit 115 proceeds to the next process without displaying the emphasizing expression (N in step S107).
  • the supplemental information display determination unit 115 manages the “guideline display mode” as the setting that can be changed by the user.
  • the supplementary information display determination unit 115 displays a guideline connecting the supplementary information target area of the input video and the supplementary information screen by dotted lines (step S110).
  • the guideline display mode is not set, the supplementary information display determination unit 115 proceeds to the next process without displaying the guideline (N in step S109).
  • the extraction process of the supplementary information 1 and the supplementary information 2 for the input video 2, the emphasizing expression attached to the supplementary information screen 2, and the process of determining the components of the guideline display have been described.
  • the display determination processing of the supplementary information 1 and the supplementary information 2 has been described at the same time to simplify the description, the display determination processing for the supplementary information 1 and the supplementary information 2 is performed as shown in steps S111 and S112 of the flowchart shown in FIG. Is performed sequentially.
  • the display determination process of the input video 1 is performed after the display determination process of the input video 2. Note that the order of the display determination processing does not matter here because it depends on the implementation.
  • step S114 when the display determination process on the input video 1 has not been executed (N in step S114), the process returns to the process of step S103 on the input video 1.
  • the input video 1 shown in FIG. 10 since there is no character area suitable as supplementary information, no supplementary information is extracted even if the processing in step S103 is performed, so it is determined in step S104 that there is no supplementary information N in step S104).
  • the video output device 100 repeats the processes in steps S103 to S115 in order to update the supplementary information.
  • the screen configuration management unit 103 displays the entire input video (for example, the input video 1) of any one. Therefore, the screen configuration management unit 103 instructs the processing unit 111 a of the video input unit 104 to change the scale via the terminal control unit 102 and instructs the combining unit 107 to change the screen configuration. As a result, the screen shown in FIG. 7A is displayed on the display (step S116).
  • FIG. 13 is a flowchart showing the supplementary information extraction process.
  • FIG. 14 is a diagram showing a character area and an object area in the input video 2.
  • FIG. 15 is a diagram showing a character area table held by the supplementary information holding unit 113.
  • FIG. 16 is a diagram showing an object area table held by the supplementary information holding unit 113.
  • FIG. 18 is a view showing the superimposed state of the character area and the object area in the input video 2.
  • the decoder 110b decodes the signal received by the second tuner 109b of the video input unit 104, and detects the presence or absence of the character area in the obtained input video 2 (step S201).
  • a widely known existing technology such as a method of extracting a text portion using a difference in luminance is used.
  • step S202 When the area determination unit 112 detects a character area (Y in step S202), the area determination unit 112 determines that “a character area is present”, and internally holds the state (step S203). On the other hand, when the character area is not detected (N in step S202), the area determination unit 112 determines “no character area” and ends the process (step S204).
  • the area determination unit 112 inquires of the supplementary information storage unit 113 whether there is a character area table for the input video (step S205). If the response from the supplementary information storage unit 113 is “no character area table exists” (N in step S205), the area determination unit 112 requests the supplementary information storage unit 113 to create a new character area table (step S206). ). On the other hand, if the response from the supplementary information storage unit 113 is "character area table exists" (Y in step S205), the area determination unit 112 compares the extracted character string with the previous character string, and retains the supplementary information The character area table of the unit 113 is updated (step S207).
  • the area determination unit 112 determines and extracts the following part as a character area.
  • the extracted character area is, for example, “S2 (1401)” “B3 (1402)” and “O2 (1403)” shown at the upper left of the screen (1400), “9th shown at the lower right of the screen (1400) And “2-3 (1405)” and a portion of “142 Km / h” shown in the upper right of the screen (1400).
  • the area determination unit 112 stores information on the character area in the character area table of the supplementary information storage unit 113 (step S208).
  • the character area table contains information such as extracted character strings in each character area, character size (point), width (W), height (H), horizontal axis (X) and vertical axis (Y) indicating the position on the screen. Is recorded.
  • the area determination unit 112 detects an object that is not a character such as a symbol or a mark displayed on the screen (1400) of FIG. 14 and the screen (1800) of FIG. 18 as an object area.
  • the object area to be detected is the symbol (1407/1807) indicating the baseball diamond on the upper left of the screen (1400/1800), the logo (1408/1808) indicating the baseball team on the lower right of the screen (1400/1800) And 1409/1809), pitcher (1410/1810) standing on the mound on the lower left of the screen (1400/1800), and referee and batter (1411/1811 and 1412/1812) on the upper right of the screen (1400/1800), etc. is there.
  • the area determination unit 112 When the area determination unit 112 detects an object area (Y in step S209), the area determination unit 112 inquires the supplemental information storage unit 113 whether an object area table for the input video exists (step S209). If the response from the supplementary information holding unit 113 is “the object area table does not exist” (N in step S209), the area determination unit 112 requests the supplementary information holding unit 113 to create a new object area table (step S210). ). On the other hand, if the response from the supplementary information storage unit 113 is “the object area table exists” (Y in step S 209), the area determination unit 112 compares the extracted object with the previous object, and the supplementary information storage unit 113 The object area table of is updated (step S211).
  • the area determination unit 112 records, for example, an object area table as shown in FIG. 16 in the supplementary information storage unit 113 (step S212).
  • the object area table records information such as object ID, width (W) of each object area, height (H), horizontal axis (X) indicating position on the screen, and vertical axis (Y).
  • FIG. 17 is a flowchart showing the character area group definition process shown in step S213 in the flowchart of FIG. FIG. 18 corresponds to the character area table and the object area of the screen shown in FIG. 14 by the character area table held by the supplementary information holding unit 113 and the IDs (T. * and Oj. *) Managed by the object area table.
  • FIG. FIG. 19 shows a character area group table held by the supplementary information holding unit 113.
  • FIG. 20 is a diagram showing a superimposed state detection pattern.
  • FIG. 21 is a diagram showing an example of the margin width used for internal processing.
  • character area group means a group for treating, among a plurality of extracted character areas, overlapping ones as one information unit. In the first embodiment, it is determined that "T.1 / T.2 / T.3" and “T.4 / T.5" overlap each other, and “T.6” is another character area. It is determined that there is no overlap with. The definition of three character area groups in this manner will be described below.
  • the area determination unit 112 inquires the supplementary information storage unit 113 whether a character area group table for the input video exists. If the response from the supplementary information storage unit 113 is “no character area group table exists” (N in step S301), the area determination unit 112 requests the supplementary information storage unit 113 to create a new character area group table ( Step S302). On the other hand, when the response from the supplementary information holding unit 113 is “character area group table exists” (Y in step S301), the area determination unit 112 holds the character area group table held by the supplementary information holding unit 113 (FIG. 19). Refer to).
  • the area determination unit 112 refers to the character area table shown in FIG. 15 held by the supplementary information holding unit 113 and adds a superposition detection margin to all the character areas (T. *) in order to detect the superposition state Step S303).
  • a margin width pixel unit which changes in accordance with the scale of the input video as shown in FIG. 21 is set in advance. For example, assuming that the margin width when the scale factor of the input image is 25% is 10 pixels, the margin for overlap detection is calculated from the following formula.
  • FIG. 20 is a diagram showing a pattern when detecting the overlapping state of the area n and the area n + 1.
  • there are four sides of “a” to “d” in the area n and it is necessary to confirm the overlapping state with the area n + 1 to be investigated on all the four sides.
  • S2 (1401)” and “B3 (1402)” extracted from the input image 2 shown in FIG. 14, that is, the screen (1800) in FIG. Of “T.1 (1801)” and “T.2 (1802)”, “the overlap between the lower side of T.1 (1801) and the upper side of T.2 (1802)” will be described. Note that, in FIG. Vertex T.1 (area n).
  • the algorithm for detecting the overlap of the objects dispersed in the two-dimensional plane is not limited to that shown in the first embodiment, and other methods may be used.
  • the area determination unit 112 determines whether the current survey target T.1. 1 and T.1. For the character area after adding a margin to each of the upper side of 2, the overlap is detected using the following formula.
  • T. n (Xc) T. n (X) + T. n (W)
  • m n + 1, T. n is T. 1, T.I. m is T. 2 shall be shown.
  • Xc is T.I. Horizontal axis (X) at vertex c of 1; The horizontal axis (X) at the vertex d of 1 and “T.m (Y)” is T.1. The numerical value of the vertical axis (Y) at the vertex a (or b) of 2 is substituted (step S304).
  • the area determination unit 112 determines whether T.I. 1 and T.1. In order to determine the overlap of the upper side of 2, the following determination formula is used. ⁇ T. m (X) ⁇ T. n (Xc) ⁇ T. m (X) + T. m (W) or T.I. m (X) ⁇ T. n (Xd) ⁇ T. m (X) + T. m (W) ⁇ And 0 ⁇ ⁇ T. n (Y) ⁇ margin width threshold (10)
  • the area determination unit 112 refers to the character area group table of the supplementary information storage unit 113. If the area determination unit 112 determines that “the character area ID (T. n) exists in the previous superposition ID” or “the character area ID (T. n) exists in the latest superposition ID” (Y in step S 306) And the character area ID (T. n and T. m) are recorded in the latest superposition ID with reference to the existing character area group (step S 307). If it is determined in step S306 that “a character area ID (T.
  • the area determination unit 112 newly defines a character area group, Character area IDs (T. n and T. m) are recorded in the latest superposition ID (step S 308).
  • the region determination unit 112 determines that the T.I. 1 and T.1. It is determined that the upper side of 2 is not in the overlapping state, and the character area group table held by the supplementary information holding unit 113 is referred to. If the area determination unit 112 determines that "the character area ID (T. n) is recorded in the previous superposition ID" (Y in step S309), the existing character area group is referred to, and the character is used for the latest superposition ID. Only the area ID (T. n) is recorded (step S310). On the other hand, when it is determined in step S309 that "the character area ID (T. n) is not recorded in the previous superposition ID" (N in step S309), the area determination unit 112 newly defines a character area group. Only the character area ID (T. n) is recorded in the latest superposition ID (step S311).
  • the area determination unit 112 determines the smallest character size (pt) of the latest superposition IDs (T. *) to which each character area group (Tx. *) Of the character area group table held by the supplementary information holding unit 113 refers. : Calculate and record point unit) (step S316). Furthermore, the area determination unit 112 calculates a rectangle including each character area in the latest superposition ID (T. *) to which each character area group (Tx. *) Refers, and records the rectangle in the character area group table (step S317). Thus, the character area group table as shown in FIG. 19 is completed.
  • FIG. 22 is a flowchart showing the supplementary information definition process shown in step S214 in the flowchart of FIG.
  • FIG. 23 shows the definition of the character area group area and the supplementary information area in the input video 2. Also, FIG. 23 shows IDs (the character area group table and the object area table held by the supplementary information holding unit 113) of the character area group, the object area, and the supplementary information of the screen shown in FIG. 14 and FIG. It is the figure which matched by Tx. *, Oj. *, SA- *).
  • FIG. 24 is a diagram showing a supplementary information table which the supplementary information holding unit 113 holds.
  • the supplementary information definition process shown in step S214 of FIG. 13 will be described.
  • the "supplemental information” is a unit of information based on the extracted character area group, and among them, those which overlap with the object area can be treated collectively as one information unit.
  • “Tx. 1 (2301)” of the screen (2300) is supplementary information 1 (SA-1: 2310) having an overlap with “Oj. 1 (2304)”
  • “Tx. 2 (2302) is determined as supplemental information 2 (SA-2: 2311) overlapping with "Oj. 5 (2308)” and "Oj. 6 (2309)”.
  • “Tx. 3 (2303)” is determined to be supplementary information 3 (SA-3: 2312) having no overlap with other object areas. It is explained below that three supplementary information are defined in this way.
  • the area determination unit 112 inquires the supplementary information storage unit 113 whether there is a supplementary information table for the input video. If the response from the supplementary information storage unit 113 is “No supplementary information table exists” (N in step S401), the area determination unit 112 requests the supplementary information storage unit 113 to create a new supplementary information table (step S402). ). On the other hand, when the response from the supplementary information holding unit 113 is "character area group table exists" (Y in step S401), the area judging unit 112 holds the supplementary information table held by the supplementary information holding unit 113 (FIG. 24). Refer to
  • the area judgment unit 112 refers to the character area group table and the object area table held by the supplementary information holding unit 113, and has a margin for superposition detection in all object area groups (Oj. *) In order to detect the superposition state.
  • Add step S403.
  • a margin width pixel unit which changes in accordance with the scale of the input video as shown in FIG. 21 is set in advance. For example, assuming that the margin width when the scale factor of the input image is 25% is 10 pixels, the margin for overlap detection is calculated from the following formula.
  • Tx. 1 (2301)” and “Oj. 1 (2304)” shown in FIG. The explanation will be focused on the overlap between the right side of 1 and the left side of Oj.1. That is, in FIG. 1 (area n) on the right side Tx. 1b and Tx. 1c, Oj. 1 (area n + 1) on the left side Oj. 1a and Oj. Only the portion overlapping with 1 d will be described, and the description of the other overlapping portions will be omitted.
  • the area determination unit 112 uses the Tx. 1 and the Oj. For the object area after adding a margin to each of the left side of 1, the overlap is detected using the following formula.
  • m 1 and Tx.
  • n Tx. 1
  • Oj. m Oj.
  • Yb Tx.
  • the vertical axis (Y) at the vertex b of 1 and “Yc” are Tx.
  • the vertical axis (Y) at the vertex c of 1 and “Oj.m (X)” is Oj. It is assumed that the numerical value of the horizontal axis (X) at the vertex a (or d) of 1 is substituted (step S404).
  • the area determination unit 112 determines whether Tx. 1 and the Oj. In order to determine the overlap of the left side of 1, the following determination formula is used. ⁇ Oj. m (Y) ⁇ Tx. n (Yb) ⁇ Oj. m (Y) + Oj. m (H) or Oj. m (Y) ⁇ Tx. n (Yc) ⁇ Oj. m (Y) + Oj. m (H) ⁇ And 0 ⁇ ⁇ Tx. n (X) ⁇ margin width threshold (10)
  • the area determination unit 112 refers to the supplementary information table held by the supplementary information holding unit 113. If the area determination unit 112 determines that “the character area group (Tx. N) is recorded in the parent ID” (Y in step S406), the area area determination unit 112 refers to the existing supplementary information, and the object area ID (Oj. m) is recorded, and the superposition flag is set to "true” (step S407). If it is determined in step S406 that “the character area group (Tx. N) is not recorded in the parent ID” (N in step S406), the area determination unit 112 newly defines supplemental information, The object area ID (Oj.m) is recorded, and the superimposition flag is set to "true” (step S408).
  • the area determination unit 112 determines that Tx. 1 and the Oj. It is determined that the left side of 1 is not in the overlapping state, and the supplementary information table held by the supplementary information holding unit 113 is referred to. If the area determination unit 112 determines that “the character area group (Tx. N) is recorded in the parent ID” (Y in step S 409), the area area determination unit 112 refers to the existing supplementary information, and the object area ID (Oj. m) is recorded, and the superposition flag is set to "false” (step S410). On the other hand, when it is determined in step S409 that "the character area group (Tx. N) is not recorded in the parent ID" (N in step S409), the area determination unit 112 newly defines supplemental information, The object area ID (Oj.m) is recorded, and the superimposition flag is set to "false” (step S411).
  • the area determination unit 112 sequentially confirms the superimposed state with respect to the character area group (Tx. N + 1) to be examined next (N in steps S 415 and S 416). Finally, the area determination unit 112 confirms the superimposed state of all the character area groups on the input video (Y in step S416). After that, the area determination unit 112 calculates a rectangle that includes the overlap between each character area group (Tx. *) Held by the supplementary information holding unit 113 and the object area (Oj. *) To be superimposed, and the supplementary information table (Step S417). Thus, the character area group table as shown in FIG. 24 is completed.
  • the area determination unit 112 performs the processing according to the flowcharts shown in FIGS. 12, 13, 17 and 22 to create or update the supplementary information table shown in FIG. It is held by the holding unit 113. Since the area determination unit 112 repeats the process for each waiting time (Tw seconds), the content of the supplementary information is updated following the change of the input video, and the screen as shown in FIG. 10 continues on the display. Is displayed.
  • FIG. 25 is a diagram showing the supplementary information display determination criteria according to the scale of the input video and the state of the screen division mode.
  • the supplementary information is displayed only when the predetermined determination condition is satisfied in step S105 illustrated in the flowchart of FIG.
  • the predetermined determination condition is, as described above, that the “frequency of occurrence (%)” recorded in the supplementary information table held by the supplementary information holding unit 113 is “the threshold of appearance frequency (for example, 50%)” or more and
  • the “character size” ⁇ “the current input video scale factor” recorded in the character area group table is equal to or less than the “character threshold (for example, 12 points)”.
  • the former condition in the supplementary information display determination criteria is for judging that the character string displayed for a certain period of time with respect to the input video is supplementary information intended by a program provider company such as a broadcasting station.
  • a program provider company such as a broadcasting station.
  • the condition for example, information that is not necessarily required when the screen is divided, such as a character string displayed suddenly and in a single shot, such as a television commercial, or notification information introduced in a baseball game. It can be prevented from displaying as supplementary information.
  • SA-3 ball speed of pitcher for baseball relay
  • the supplementary information display determination unit 115 uses the supplementary information 3 as the supplementary information. It is determined that the condition of is not satisfied.
  • the latter condition in the supplementary information display determination criteria is determined to be displayed as supplementary information only when the displayed character string is determined to be unreadable by the user when the input video is displayed in a reduced size. It is for.
  • the display of the supplementary information is displayed with 100% of the input video as the initial state as shown in FIG. 25 with respect to the “two-screen display states A to D” shown in FIGS.
  • the character size of the place where it is done is as follows.
  • the character size of character area group 1 (Tx. 1) is “18 points”
  • the character size of character area group 2 (Tx. 2) is “26 points”.
  • the scale factor of the input image 2 is "75%”
  • the character size of the character area group 1 (Tx. 1) is “around 14 points”
  • the character size of 2) is “around 19 points” and exceeds the threshold (12 points), so it is determined that the user is readable and the supplementary information is not displayed (FIG. 7C).
  • the supplemental information display determination unit 115 starts displaying the supplemental information Do.
  • the character size of the character area group 2 (Tx. 2) slightly exceeds the threshold (12 points) (see FIG. 7 (d)
  • the character size of the character area group 2 (Tx. 2) is set to a threshold value (12 points) before reaching the “two-screen display state C”. Since it is less than this, in the "two-screen display state C", the supplementary information 2 is also displayed (Fig. 7 (e). Thereafter, after the "two-screen display state D", the character area group 1 is reached). Since the character sizes of and 2 are both below the threshold (12 points), the supplemental information 1 and 2 will continue to be displayed (FIG. 7 (f)).
  • “display supplemental information with an appearance frequency of“ 50% ”or more” is displayed, but the user may freely change this determination criterion.
  • “12 points” is taken as an example of the threshold of the character size to be determined, there is individual difference in the character size that the user can not read, so the user may be able to change it freely.
  • display character strings such as font size settings such as menu screens managed by the terminal system, font size settings of the browser installed on the terminal, and font size settings (the size set at the end) of the EPG installed on the terminal.
  • a threshold value of the character size for determining the display may be determined.
  • FIG. 26 is a diagram showing an example of the factors for determining the display place of the supplementary information.
  • FIG. 27 is a diagram showing an example of the layout configuration of the display screen.
  • supplemental information 1 SA-1: 2601
  • supplemental information 2 SA-2: 2602
  • supplemental information 3 SA-3: 2603
  • the area from the first quadrant to the fourth quadrant obtained by dividing the screen into four is defined, and the supplementary information display determination unit 115 determines which quadrant each supplementary information belongs to, Determine the approximate display position of supplementary information.
  • supplementary information 1 SA-1 belongs to the second quadrant
  • supplementary information 2 SA-2
  • supplementary information 3 SA-3 belongs to the first quadrant. It will belong.
  • FIG. 27 shows the screen layout configuration of the "two-screen display state C" shown in FIG. 7 (e).
  • the supplementary information display determination unit 115 determines the display position of the supplementary information in step S106 shown in the flowchart of FIG. 12 and transfers the supplementary information to the screen configuration management unit 103 as a screen layout configuration.
  • supplemental information 1 (SA-1) included in the input video 2 displayed on the screen 2 is located in the second quadrant as shown in FIG.
  • SA-1 Supplemental information 1
  • FIG. 27 shows a predetermined display margin from the boundary between the screen 1 and the screen 2 and the original size is displayed on the upper side of the screen 2 with left alignment.
  • FIG. 27 shows the screen layout configuration of the "two-screen display state C" shown in FIG. 7 (e).
  • the supplemental information 2 (SA-2) included in the input video 2 displayed on the screen 2 is located in the fourth quadrant. Therefore, in FIG. 27, the display margin is subtracted from the right end of the display frame instead of the boundary between the screen 1 and the screen 2, and the original is displayed right-justified below the screen 2.
  • the composition ratio of screen division is 3: 1, and the border line between screen 1 and screen 2 is centered at the boundary, but the display method is not limited to this.
  • a display margin may be prepared between screens, or a frame may be added to each screen.
  • the supplementary information is displayed in full size (that is, a form in which a part is cut out from 100% display of the input video), but enlargement or reduction may be freely selected by the user. Further, the supplementary information may be automatically changed in scale in conjunction with the layout configuration of the screen.
  • the screen configuration management unit 103 mutually refers to the area of the supplementary information held in association with the input video and displays the supplementary information in the input video 2, the screen configuration management section 103 places the character area group in the input video 1. You may perform the process which considered. Specifically, the processing that changes the position or the display size of the supplementary information so as not to superimpose the supplementary information of the input video 2 on the character area group of the input video 1, or does not display the supplementary information It is.
  • a program for example, drama or baseball relay
  • the input channel and format are not limited to broadcast programs, but include stored programs that other devices accumulate by recording etc., videos taken by individuals, video clips created by third parties, and videos delivered via a network. It doesn't matter.
  • the supplementary information held by the supplementary information holding unit 113 is an example in which the supplementary information display determination unit 115 determines the presence / absence of display in the condition determination (step S105) illustrated in FIG.
  • the supplemental information display determination unit 115 may compare with text data such as a program summary accompanying the broadcast, and may add condition determination such as displaying supplemental information only when the content matches.
  • the video output apparatus 100 dynamically manages the drawing position and drawing size of at least one input video, and it is determined that the character string is crushed in the reduced input video. To automatically zoom in on the selected area as supplementary information.
  • the number of operations by the user necessary for the enlarged display can be reduced, and the user can easily prevent the opportunity loss of information recognition by presenting easy-to-understand information with readable character size.
  • the supplemental information is displayed in an unused area (for example, a portion that becomes a black band at the time of split into two screens) other than the reduced displayed screen.
  • the free space of the screen can be effectively used without disturbing the video to be watched in the main.
  • the supplemental information is displayed at a position close to the character area that is the reference source of the supplemental information in the reduced displayed screen.
  • the area serving as a reference source of the supplemental information and the supplemental information area displayed in an enlarged manner are visually associated with a guideline.
  • the user can intuitively determine which information is enlarged and displayed, and can provide easy-to-understand information.
  • the display position of the supplemental information is determined in consideration of which position of the video the character area is located. As a result, it is possible to prevent the display of the character area on the video from being hidden in advance without superimposing supplementary information or another video on the character area on the video.
  • the supplemental information of the character area determined to be the smallest in the character area group including the plurality of character areas is automatically displayed with priority. Accordingly, in the present embodiment, it is possible to provide, as supplementary information, character string information that is the most difficult to see among character information that has been smashed by image reduction, without requiring an extra operation for the user.
  • supplemental information display is prevented in advance by a character string that is displayed suddenly and in a single shot in a caption supermarket displayed momentarily, a signboard accidentally caught in a video, a commercial, etc. It is possible to suppress the occurrence of screen flicker that may occur.
  • the change of the extracted character string is determined, and the change of the supplementary information is notified on the screen as a highlighted expression.
  • the present embodiment can intuitively recognize the state change in the reduced screen by the visual highlighting provided automatically, without the user having to always pay attention to the change of the supplementary information. .
  • the present embodiment among the supplemental information extracted from the video, the supplemental information that matches the incidental information attached to the video is preferentially displayed. In this way, the present embodiment can prevent in advance the display of a character area that does not directly follow the content of the video, such as a character string of a signboard or the like that is accidentally shown in the video.
  • the text area and the object area are extracted from the input video, and when each text area overlaps the object area, the area is cut out as one supplementary information, and the screen configuration is made according to the scale of the input video
  • the case has been shown in which the supplementary information is superimposed and displayed on an empty area of the screen layout configuration managed by the management unit 103.
  • the supplemental information extracted by the area determination unit 112 of the video output device 100 but also the supplemental information acquired from an external server via the network 600 and displayed Will be explained.
  • FIG. 28 is a block diagram showing a video output apparatus and its related apparatus of the second embodiment.
  • the internal configuration of the video input unit 104 of the video output apparatus 100 is not shown.
  • FIG. 29 is a diagram showing screen configuration data provided by the supplementary information provision device.
  • FIG. 30 is a diagram showing a display example of supplementary information based on screen configuration data.
  • the video output device 100 of this embodiment has the same configuration as the video output device 100 of the first embodiment shown in FIG. In FIG. 28, the main difference from the first embodiment shown in FIG. 6 is that the communication unit 109 d connected to the network 600 is connected to the screen configuration management unit 103, and as an external server connected to the network 600 The point is that the supplementary information provision device 800 is added. Since the configuration other than the above is the same as that of FIG. 6, the same parts as those in FIG.
  • the screen configuration management unit 103 performs screen configuration via the communication unit 109 d as needed for the supplementary information providing device 800 associated with the input video displayed by the output unit 108 via the combining unit 107. Request to get data.
  • the supplemental information provision device 800 has a screen configuration as shown in FIG. 29 in which the display position of the supplemental information in the screen configuration of the input video being viewed by the video output device 100 is described according to the request from the video output device 100. Reply the data.
  • the screen configuration management unit 103 analyzes the screen configuration data acquired via the communication unit 109d, and determines in which region the supplementary information is displayed for the input video.
  • supplementary information 1 to 3 For example, in the case of the input video 2 (baseball relay) used in the description of the first embodiment, three pieces of supplementary information 1 to 3 are defined as shown in FIG.
  • a batter score (RP-1), progress information (RP-2), and a ball speed (RP-3) exist, and each has a width (a position where the supplementary information is displayed). W), height (H), horizontal axis (X), vertical axis (Y) information is described.
  • supplementary information URL Uniform Resource Locator
  • the supplementary information URL can be acquired through the network 600 by preparing supplementary information in advance by the supplementary information providing device 800 in addition to the information on the position where the supplementary information is displayed.
  • the case where the language setting is selected as Japanese as one of the profiles that can be arbitrarily selected by the user operating the video output device 100 will be described.
  • the profile including the language setting is recorded in the screen configuration management unit 103 or a recording medium (not shown) included in the video output apparatus of the present embodiment. It is assumed that the progress information (RP-2) and the ball speed (RP-3) in the baseball relay of the input video 2 are in English, for example.
  • the screen configuration management unit 103 acquires the “Japanese version of the supplementary information” provided by the supplementary information providing apparatus 800 according to the above language setting using the supplementary information URL, and displays the superimposed information on the input video as the supplementary information. . For example, as shown in FIG.
  • the display area of supplemental information 1 to 3 (3001 to 3003) intended by the broadcast station on the screen (3000) can be determined by the screen configuration data. Also, the screen configuration management unit 103 displays the portion displayed as "9th" in the original input video 2 as “9 times” and "142 Km / h" by the image acquired using the supplementary information URL. The part is displayed as "142 km / h”.
  • the image is acquired by the supplemental information URL, it may be a method of acquiring a text or a moving image distributed by streaming.
  • the screen configuration data acquired from the supplementary information providing apparatus 800 via the network 600 is an outline of supplementary information intended by a program provider such as a broadcasting station, position information of a display area, and supplementary information.
  • a program provider such as a broadcasting station
  • position information of a display area and supplementary information.
  • An example including the supplementary information URL to the supplementary information provided by the information providing apparatus 800 has been shown.
  • the information to be included is not limited to this, and may include related information and a URL for accessing the related information, a secondary voice that can be acquired via the network 600, and the like.
  • the user can change the setting of the supplemental information provision device 800 by one of the application processing units 105 of the video output device 100 or the browser of a personal computer. When changing this setting, the display position of the supplementary information for the input video, or the relative display position of the supplementary information for the screen (3000) when the input screen is reduced (or the input video is divided), It may be changed as a display designation area.
  • the supplemental information is selected and displayed according to the profile of the user from among the plurality of types of supplemental information. Therefore, in the video output apparatus in which Japanese is set as the language setting, the Japanese version of the supplementary information is displayed.
  • the screen configuration management unit 103 may translate the supplementary information into different languages. For example, the screen configuration management unit 103 translates the text extracted as English into Japanese according to the English-Japanese dictionary and displays it. As described above, in the present embodiment, supplemental display according to the language setting selected by the user is possible.
  • the video output device may extract and display a video as supplemental information using the supplemental information area included in the supplemental information area pattern data acquired from the outside of the video output device.
  • the supplementary information area pattern data is data indicating the position of the supplementary information area in the input video. In this case, the processing load of the video output device necessary for calculation of the supplemental information area is reduced, and the video output device can reliably specify the supplemental information area intended by the video producer.
  • the video output device may display the supplemental information in accordance with the supplemental information display designation area included in the screen configuration data acquired from the outside of the video output device. In this case, the processing load of the video output device necessary for calculating the display position and size of the supplemental information is reduced, and the video output device can reliably display the supplemental information in the designated area intended by the user.
  • the present invention is not limited to the first and second embodiments described above. The following cases are also included in the present invention.
  • Each of the above-described devices is specifically a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • Each device achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions to the computer in order to achieve a predetermined function.
  • the system LSI is a super-multifunctional LSI manufactured by integrating a plurality of components on one chip, and more specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions as the microprocessor operates in accordance with the computer program.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program.
  • the present invention may be the method shown above. Also, these methods may be computer programs implemented by a computer.
  • the computer program or the digital signal may be recorded in a computer readable recording medium, such as a flexible disk, a hard disk, an optical disk, a semiconductor memory, or the like.
  • the computer program may be transmitted via a telecommunication line, a wireless or wired communication line, a network typified by the Internet, data broadcasting, and the like.
  • the present invention may be a computer system comprising a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.
  • the video output apparatus can be applied to a digital television receiver, a digital video disc recorder, a set top box, a projector, an external monitor, a personal computer for outputting video to the outside, a mobile device having a video display output function, etc. .
  • video output device 101 input unit 102 terminal control unit 103 screen configuration management unit 104 video input unit 105 application processing unit 106 screen generation unit 107 synthesis unit 108 output unit 109 a first tuner 109 b second tuner 109 c external input unit 109 d communication unit 110 Decoder 111 Processing Unit 112 Area Determination Unit 113 Supplemental Information Holding Unit 115 Supplemental Information Display Determination Unit 200 Antenna 300 Broadcast Station 400 Transmission Station 500 Video Providing Device A 600 Network 700 Image Providing Device B 800 Supplemental Information Providing Device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 映像出力装置は、少なくとも1つの映像を表示する画面の配置又は縮尺を管理する画面構成管理部と、入力映像から文字領域を判定する領域判定部と、領域判定部が判定した少なくとも1つの文字領域を含む補足情報領域の映像を切り出して補足情報として保持する補足情報保持部と、画面構成管理部が管理する画面構成に基づく入力映像に加え、補足情報保持部が保持する補足情報を表示するかを判定する補足情報表示判定部と、画面構成管理部及び補足情報表示判定部からの指示に従い、入力映像及び補足情報を出力する出力部とを備える。補足情報表示判定部は、画面構成管理部が管理する縮尺に応じて変化する入力映像中の文字領域に含まれる文字のサイズに基づいて、補足情報を表示すると判定する。したがって、入力映像の表示サイズの縮尺率に応じて補足情報の表示形態を変えることができる。

Description

映像出力装置及び映像出力方法
 本発明は、入力映像の表示サイズの縮尺率に応じて補足情報の表示形態を変える映像出力装置及び映像出力方法に関する。
 一般的に、テレビ放送局やケーブルテレビ局などが提供する放送番組の信号を受信する装置は、受信信号を処理して映像を出力する。以下、当該装置を「映像出力装置」という。映像の出力先は、映像出力装置に装備されたディスプレイ、又はケーブルなどの通信手段を介して映像出力装置に接続された外部ディスプレイである。この際、複数の番組を同時に視聴したいというユーザの要望に応えるため、例えば、2つ入力映像に対し、画面を2分割して表示する「二画面モード」が広く知られている。
 図1(a)~(c)は、一般的な二画面モードの表示パターンを示す図である。図1(a)は、入力映像Aと入力映像Bを同じ比率で並列に表示した例を示す。図1(b)は、入力映像Aと入力映像Bの大きさに差をつけて表示した例を示す。図1(c)は、全画面表示した入力映像Aに小さい画面の入力映像Bを重畳表示した例を示す。図2(a)~(c)は、図1(a)~(c)に示した二画面モードの各表示パターンに対し、映像を割り当てた場合の表示例を示す。
 二画面モードでディスプレイに映像を表示する際には、ユーザが所定の操作を行うことにより、固定の比率で画面の分割パターンを切り替えるものが一般的であった。しかし、最近では、ユーザが指定する任意の比率で画面を分割する映像出力装置も登場した。
 一方、昨今の映像出力装置は、大画面化が進むと共に、高機能化が進んでいる。例えば、複数のチューナを搭載する機種や、ゲーム機などを接続可能な外部入力端子を複数搭載する機種、インターネットを介して受信した動画を再生する機種、記録媒体に受信番組を録画して保持する機種などがある。その結果、例えば、リビングの1つの大画面を3分割して家族がそれぞれ3つの入力映像を視聴するケースがある。例えば、母と娘は録画したドラマを第一分割画面で楽しみ、父親は第二分割画面で野球中継を楽しみ、息子は第三分割画面でゲームを楽しむような使われ方が想定されている。
 上記説明した画面分割機能を有する映像出力装置のディスプレイに、複数の映像を固定又は任意の比率で縮小して表示すると、図2(a)~(c)に示したように、縮小された映像中の文字列や記号が潰れてしまう場合がある。このとき、表示された情報はユーザにとって読みづらく、また、ユーザが情報を認識することができないという課題がある。
 この課題を解決するひとつの方法が特許文献1に開示されている。この文献の方法によれば、データ放送が付随する番組が画面分割により縮小表示された際、ユーザによるリモコン操作により、番組送出側で指定されたデータ放送のメニュー画面をレイアウト情報に基づいて縮小画面の外側に重畳表示する。
 しかし、この方法は、予め決められた文字列と画像データがレイアウト情報と共にデータ放送として番組に付随することが前提である。また、ユーザは、確認したい情報を表示するためにリモコンを継続的に操作しなければならない。また、他の分割画面の上に情報を重畳表示するため、他の分割画面が重畳画面によって隠されてしまい情報が欠如してしまう。
 また、上記課題を解決する他の方法が特許文献2に開示されている。この文献の方法は、2つ以上の入力映像に対し、第一の入力映像を全画面で表示し、第二の入力映像から文字列を含む字幕領域を抽出し、抽出された文字列を第一の入力映像の任意の位置に重畳して表示する。
 図3~図5は、特許文献2に開示された方法による処理の概要を示す図である。特許文献2の方法では、図3の(a)に示された2つの入力映像A,Bのうち、図3の(b)に示すように、入力映像Bから文字列領域B’を抽出し、図3の(c)に示すように、入力映像Aに文字列領域B’を重畳表示する。図4は、図3に示した各画面に映像を割り当てた場合の表示例を示す。図4に示す例では、入力映像Bに該当する野球中継のうち、文字列領域B’に該当するスコア表示部分が入力映像Aに重畳表示される。
日本国特開2002-171457号公報 日本国特開平8-317301号公報
 上記説明した特許文献2に開示された方法では、入力映像中のユーザが知りたい情報は文字列である必要がある。このため、文字列ではない情報(例えば、プロ野球球団のロゴマーク等)は、文字列領域B’に含まれない。したがって、ユーザが知りたい情報に文字列ではない情報が含まれていると、情報が欠如する(見切れる)という課題があった。例えば、図5の(a)に示すように、図4に示した入力映像Bのスコア表示部分に抽出不可能な記号やマークが使用された場合、図5の(b)に示すように文字列部分だけが抽出される。このため、図5の(c)に示すように、記号やマークは入力映像Aに重畳表示されない。
 なお、入力映像Aの任意の位置に文字列領域B’を重畳表示できるが、入力映像Aが全画面表示である以上、文字列領域B’は入力映像Aのいずれかの場所に重畳される。このため、入力映像Aの一部の情報が欠如する。例えば、図4の(c)や図5の(c)に示したように、入力映像Aのテロップの一部に文字列領域B’が重畳されるため、当該重畳された部分のテロップの情報が欠如してしまう。
 本発明の目的は、入力映像の表示サイズの縮尺率に応じて補足情報の表示形態を変える映像出力装置及び映像出力方法を提供することである。
 本発明は、少なくとも1つの映像を表示する画面の配置又は縮尺を管理する画面構成管理部と、入力映像から文字領域を判定する領域判定部と、前記領域判定部が判定した少なくとも1つの文字領域を含む補足情報領域の映像を切り出して補足情報として保持する補足情報保持部と、前記画面構成管理部が管理する画面構成に基づく入力映像に加え、前記補足情報保持部が保持する補足情報を表示するかを判定する補足情報表示判定部と、前記画面構成管理部及び前記補足情報表示判定部からの指示に従い、前記入力映像及び前記補足情報を出力する出力部と、を備え、前記補足情報表示判定部は、前記画面構成管理部が管理する縮尺に応じて変化する入力映像中の文字領域に含まれる文字のサイズに基づいて、前記補足情報を表示すると判定する映像出力装置を提供する。
 本発明は、少なくとも1つの映像を表示する画面の配置又は縮尺を管理する画面構成管理部と、入力映像から文字領域を判定する領域判定部と、前記領域判定部が判定した少なくとも1つの文字領域に含まれる文字列を補足情報として外部サーバから取得する通信部と、前記画面構成管理部が管理する画面構成に基づく入力映像に加え、前記通信部が取得した補足情報を表示するかを判定する補足情報表示判定部と、前記画面構成管理部及び前記補足情報表示判定部からの指示に従い、前記入力映像及び前記補足情報を出力する出力部と、を備え、前記補足情報表示判定部は、前記領域判定部が判定した少なくとも1つの文字領域に含まれる文字のサイズが閾値よりも小さい場合、前記補足情報を表示する映像出力装置を提供する。
 本発明は、入力映像から文字領域を判定し、少なくとも1つの文字領域を含む補足情報領域の映像を切り出して補足情報として保持し、少なくとも1つの映像を表示する画面の配置又は縮尺を規定する画面構成に基づく入力映像に加え、前記補足情報を表示するかを判定し、前記画面構成及び前記判定結果に従い、前記入力映像及び前記補足情報を出力する映像出力方法であって、前記入力映像中の文字領域に含まれる文字のサイズに基づいて、前記補足情報を表示すると判定する映像出力方法を提供する。
 本発明は、入力映像から文字領域を判定し、少なくとも1つの文字領域に含まれる文字列を補足情報として外部サーバから取得し、少なくとも1つの映像を表示する画面の配置又は縮尺を規定する画面構成に基づく入力映像に加え、前記外部サーバから取得した補足情報を表示するかを判定し、前記画面構成及び前記判定結果に従い、前記入力映像及び前記補足情報を出力する映像出力方法であって、少なくとも1つの文字領域に含まれる文字のサイズが閾値よりも小さい場合、前記補足情報を表示すると判定する映像出力方法を提供する。
 本発明に係る映像出力装置及び映像出力方法によれば、入力映像の表示サイズの縮尺率に応じて補足情報の表示形態を変えることができる。このため、複数の入力映像を画面分割する場合であっても、入力映像中の文字や記号の潰れが発生した部分を補足情報として補完でき、ユーザが知りたい情報の欠如を未然に防止することができる。
(a)~(c)は一般的な二画面モードの表示パターンを示す図 (a)~(c)は図1(a)~(c)に示した二画面モードの各表示パターンに対し、映像を割り当てた場合の表示例を示す図 特許文献2に開示された方法によって入力映像Bの一部を切り出して重畳させた表示例を示す図 図3に示した各画面に映像を割り当てた場合の表示例を示す図 入力映像Bに文字列と記号が含まれていた場合の表示例を示す図 第1の実施形態の映像出力装置及びその関連装置を示すブロック図 (a)~(f)は第1の実施形態に係る全画面表示及び二画面表示のパターンを示す図 画面構成管理部103が保持する画面構成管理テーブルの例を示す図 (a)~(f)は画面構成管理部103が保持する画面構成管理テーブルのデータ構成の例を示す図 図7(e)に示した二画面表示状態Cにおける補足情報画面の表示例を示す図 図10に示した画面要素を説明する図 画面分割要求に応じて補足情報画面を表示する際の映像出力装置100が行う処理を示すフローチャート 補足情報抽出処理を示すフローチャート 入力映像2中の文字領域及びオブジェクト領域を示す図 補足情報保持部113が保持する文字領域テーブルを示す図 補足情報保持部113が保持するオブジェクト領域テーブルを示す図 図13のフローチャート中のステップS213に示した文字領域群定義処理を示すフローチャート 入力映像2中の文字領域及びオブジェクト領域の重畳状態を示す図 補足情報保持部113が保持する文字領域群テーブルを示す図 重畳状態検出パターンを示す図 内部処理に用いるマージン幅の例を示す図 図13のフローチャート中のステップS214に示した補足情報定義処理を示すフローチャート 入力映像2における文字領域群領域及び補足情報領域の定義を示す図 補足情報保持部113が保持する補足情報テーブルを示す図 入力映像の縮尺率及び画面分割モードの状態に応じた補足情報表示判定基準を示す図 補足情報の表示場所を決定する要因の一例を示す図 図7(e)に示した“二画面表示状態C”の画面レイアウト構成を示す図 第2の実施形態の映像出力装置及びその関連装置を示すブロック図 補足情報提供装置が提供する画面構成データを示す図 画面構成データに基づく補足情報の表示例を示す図
 以下、本発明に係る映像出力装置及び映像出力方法の実施形態について、図面を参照して説明する。なお、以下説明する実施形態の映像出力装置は、放送局が送出局を介して送出した番組やコマーシャル等のコンテンツを受信し、装置内外のディスプレイに表示する装置である。
(第1の実施形態)
 図6は、第1の実施形態の映像出力装置及びその関連装置を示すブロック図である。まず、当該映像出力装置が入力映像をディスプレイに表示するまでの処理概要を説明する。
 図6に示すように、映像出力装置100は、入力部101と、端末制御部102と、画面構成管理部103と、映像入力部104と、アプリケーション処理部105と、画面生成部106と、合成部107と、出力部108と、領域判定部112と、補足情報保持部113と、補足情報表示判定部115とを備える。
 入力部101は、映像出力装置100に付属するリモートコントロール機器(以下「リモコン」という)、あるいは外部接続機器等からの制御命令信号を受信して端末制御部102に転送する。端末制御部102は、入力部101から転送された制御命令信号に応じた画面構成を画面構成管理部103に問い合わせる。画面構成とは、例えば、映像出力装置100の電源オンの命令に従い、最後に視聴したチャンネルを全画面で表示する構成や、番組表表示命令に従い現在の放送を縮小表示して番組表を全画面で表示する構成等である。画面構成管理部103は、ディスプレイに表示する画面の構成を制御命令に応じて管理する。なお、画面構成管理部103は、後述する画面構成管理テーブルを記憶する。
 また、端末制御部102は、入力部101に番組表表示命令信号が入力された場合、アプリケーション処理部105に番組表表示命令を転送する。アプリケーション処理部105は、番組表表示機能の他、多様な機能を実現するためのアプリケーションを実行可能である。また、アプリケーション処理部105は、端末制御部102から入力された命令に応じて端末制御部102に必要な処理(例えば、現在のチャンネルを縮小表示する、など)を返答する。また、アプリケーション処理部105は、端末制御部102からの命令に応じた設定に必要な画面を生成するために必要な情報を画面生成部106に提供する。なお、アプリケーション処理部105が実行可能なアプリケーションによって実現される機能は、番組表表示機能の他、例えば、放送受信設定機能や画質調整機能、アラーム設定機能、カレンダ表示機能、ネットワーク接続設定機能等である。
 画面生成部106は、アプリケーション処理部105から提供された情報に基づいて、画面に合成する基本パーツ(文字列、画像、背景色、など)の描画処理を行う。
 映像入力部104は、映像出力装置100が入力可能な映像ソースを少なくとも1つを管理し、端末制御部102からの指示に応じて得た入力映像を合成部107に転送する。本実施形態では、映像入力部104は、例えば、第一チューナ109aと、第二チューナ109bと、外部入力部109cと、通信部109dと、デコーダ110a~110dと、加工部111a~111dとを有する。
 第一チューナ109a及び第二チューナ109bは、放送局300が送出局400を介して送出した番組やコマーシャル等のコンテンツをアンテナ200を介してそれぞれ受信する。また、外部入力部109cは、記録媒体を有するレコーダあるいは他の映像機器等の映像提供装置500から出力されたコンテンツを取得する。さらに、通信部109dは、ネットワーク600を介して映像提供装置700から送信されたコンテンツを受信する。デコーダ110a~110dは、それぞれ対応する第一チューナ109a、第二チューナ109b、外部入力部109c又は通信部109dからの信号を復号する。加工部111a~111dは、それぞれ対応するデコーダ110a~110dからの映像データを用いて、端末制御部102からの指示に応じて映像の色合いや縮尺率等を変更する加工して合成部107に転送する。
 合成部107は、映像入力部104から転送された映像を画面構成管理部103の設定に基づいて合成し、当該合成された映像(以下、単に「合成映像」という)を出力部108に出力する。具体的には、合成部107は、加工部111a~111dが端末制御部102から要求された縮尺率に縮小した各入力映像を、アプリケーション処理部105から画面構成管理部103に指示されたレイアウトに基づいて画面構成で合成する。
 出力部108は、映像出力装置100がディスプレイを備える場合はそのディスプレイに合成映像を表示し、映像出力装置100がディスプレイを備えない場合は外部のディスプレイに合成映像を転送する。
 映像出力装置100が備える領域判定部112、補足情報保持部113及び補足情報表示判定部115については、補足情報の抽出処理及び表示処理の具体例に基づいて詳しく説明する。図7(a)~(f)は、第1の実施形態に係る全画面及び二画面表示のパターンを示す図である。また、図8は、画面構成管理部103が保持する画面構成管理テーブルの例を示す図である。
 図7(a)は、第一チューナ109aが受信する入力映像1が、初期状態としてディスプレイの全画面に表示された状態(ドラマ番組のみ全画面表示状態)を示す。図7(b)は、ユーザがリモコンを用いてチャンネル変更を指示した際、第一チューナ109aのチャンネル変更により受信した入力映像1が、チャンネル変更によりディスプレイの全画面に表示された状態(野球中継のみ全画面表示状態)を示す。
 図7(c)は、ユーザがリモコンを用いて二画面表示を指示した際、入力映像1として先に選ばれたチャンネル(ドラマ)と、入力映像2として現在選択しているチャンネル(野球中継)とが、1対3の画面比率で表示された状態を示す(二画面表示状態A)。
 図7(d)は、ユーザがリモコンの左右ボタンを操作して左右の画面比率を任意に変更できる場合において、左画面の比率を大きくし、左画面と右画面の画面比率を同一に設定した表示例を示す。当該表示例では、右画面(入力映像2)の野球中継のバッタースコア(画面左上に表示された文字列と記号)を分割画面では、ユーザが判読不可能と判断される。このため、当該表示例では、右画面(入力映像2)のバッタースコアを示す領域の画面が、右画面(入力映像2)の近傍に補足情報として、原寸大で表示されている(二画面表示状態B)。
 図7(e)は、左画面の比率を大きく設定した表示例を示す。当該表示例では、右画面(入力映像2)の野球中継の途中経過情報(画面右下に表示された文字列と記号)を分割画面では、ユーザが判読不可能と判断される。このため、当該表示例では、バッタースコアを示す領域の画面に加え、右画面(入力映像2)の途中経過情報を示す領域の画面も、右画面(入力映像2)の近傍に補足情報として、原寸大で表示されている(二画面表示状態C)。
 図7(f)は、左画面の比率を極大化した表示例を示す。当該表示例では、右画面(入力映像2)の野球中継は、バッターが打った等の概況程度の様子が判断できるレベルにまで極小化されている。しかし、バッタースコア及び途中経過情報を示す各領域の画面は、補足情報として左画面(入力映像1)の一部に重畳して原寸大で表示されている(二画面表示状態D)。
 なお、上記説明では、先に選ばれたチャンネルを入力映像1、現在選ばれているチャンネルを入力映像2とした。しかし、チャンネルに対する入力映像の選択は、現在選ばれているチャンネルを第一チューナ109aが受信する入力映像1とし、ユーザが第二チューナ109bにおいて最後に選んでいたチャンネルを入力映像2にしても良い。また、ユーザが左右のいずれかを選択して変更しても良い。
 また、二画面表示を指示した際の画面比率は、1対3に限らず、任意の比率を設定しても良い。また、上記説明では、リモコンの左右ボタンを操作して左右の画面比率を任意に変更できると説明したが、他のボタンやリモコンに搭載されたタッチセンサーや加速度センサーなど入力の手段は問わない。さらに、図7(f)には、補足情報であるバッタースコア及び途中経過情報を示す各領域の画面が左画面(入力映像1)の一部に重畳した例を示した。しかし、補足情報を示す画面が、左画面に重畳しないように、左画面の拡大化を制御しても良い。また、補足情報を示す画面が左画面に重畳する際には、補足情報を示す画面の透過度を下げても良い。このとき、ユーザは、補足情報を示す画面が重なった部分の入力映像1も確認できる。
 図8は、図7(a)に示した状態のとき画面構成管理部103が保持する画面構成管理テーブルのデータ構成例を示す。図8に示すように、画面構成管理テーブルには、入力映像毎に、入力ソース、出力フラグ、画面の描画領域を示す幅(W)、高さ(H)、横軸の描画位置(X)及び縦軸の描画位置(Y)、映像間の重なりを示す重畳レイヤを示す奥行(Z)、並びに、0~255の範囲で示される画面の透過度(α)及び原寸に対する縮尺率(R)が設定される。なお、透過度(α)は、0に近いほど透明に近いとする。
 図7(a)に示した状態は、第一チューナ109aが受信する入力映像1のみが表示された状態である。したがって、このときの画面構成管理テーブルでは、入力映像1の出力フラグのみが「true」であり、他の入力映像の出力フラグは「false」である。また、入力映像1の描画領域は、幅(W)が1920、高さ(H)が1080、横軸の描画位置(X)が0、縦軸の描画位置(Y)が0である。さらに、入力映像1と他の映像との重なりを示すパラメータは、奥行(Z)が0、入力映像1の透過度(α)が255、縮尺率(R)が100%である。このようなパラメータのとき、入力映像1は、ディスプレイに全画面表示される。
 図9(a)~図9(f)は、図7(a)~図7(f)の各表示形態に対応した画面構成管理テーブルのデータ構成例を示す。図9(a)~(f)に示すように、画面構成管理テーブルのパラメータは、画面構成が異なると出力フラグ、画面の構成比率及び縮尺の変化がそれぞれ異なる。
 次に、図10~図12を参照して、補足情報を示す画面をディスプレイに表示する際の手順について説明する。図10は、図7(e)に示した二画面表示状態Cにおける補足情報画面の表示例を示す図である。また、図11は、図10に示した画面要素を説明する図である。
 表示画面(1000/1100)は、二系統の入力映像から構成されている。左画面(1001)は、入力映像1を表示する画面1(1101)であり、右画面(1002)は入力映像2を表示する画面2(1102)である。また、入力映像2(野球中継)のバッタースコアを示す領域(1003)は、入力映像2を縮小して画面2(1102)に表示したためにユーザが判読不可能と判断され、補足情報対象領域SA1とする。また、同様に、入力映像2(野球中継)の途中経過情報を示す領域(1004)は、ユーザが判読不可能と判断され、補足情報対象領域SA2とする。
 また、図10及び図11では、補足情報対象領域SA1を切り出して表示した部分を補足情報画面1(1005/1105)とし、補足情報対象領域SA2を切り出して表示した部分を補足情報画面2(1006/1106)とする。さらに、補足情報画面であることを示す「強調表現部」(1007/1107)には、補足情報画面2(1006)の外枠に表示された陰影(ドロップシャドウ)あるいは、補足情報画面2(1006)の左側に表示された星印などの記号を表示する。なお、図10及び図11において、補足情報対象領域SA1から補足情報画面1と、補足情報対象領域SA2から補足情報画面2とに点線を表示する。この点線は、ユーザに「どの領域の情報を拡大表示しているか」を示すためのガイドラインとして示されている。なお、ガイドラインとしての点線は、一例を示すもので、どの領域を示しているかが判別できるものであれば、矢印、実線、色または濃淡等であっても良い。
 次に、図10の及び図11の画面がディスプレイに表示されるに至る映像出力装置100が行う処理について、「画面分割モード処理」、「補足情報抽出処理」、「文字領域群定義処理」及び「補足情報定義処理」に分けて詳しく説明する。
 図12は、画面分割要求に応じて補足情報画面を表示する際の映像出力装置100が行う処理を示すフローチャートである。まず、リモコンの「画面分割モードボタン」をユーザが押下した場合、入力部101は、リモコンから「画面分割モード要求」の命令信号を受信し、端末制御部102を介して画面構成管理部103に当該命令を転送する。画面構成管理部103は、画面分割モード処理の初期化処理として、画面分割数(N)を「2」とし、その表示時の画面比率を決定する(例えば、初期値として固定倍率1:3)。さらに、画面構成管理部103は、端末制御部102を介して映像入力部104に対して、第一チューナ109a及び第二チューナ109bには入力映像1及び入力映像2を出力するよう指示する。また、画面構成管理部103は、端末制御部102を介して加工部111a及び加工部111bに、固定倍率(1:3)となるよう各入力映像を縮小するよう指示する(ステップS101)。
 なお、上記説明では、画面分割の画面比率の初期値を固定倍率(1:3)としたが、固定倍率(1:1)としても、ユーザが好みの倍率を予め任意で指定しても良い。さらに、上記説明では画面分割数(N)を「2」としたが、画面分割数は2以上としても良く、その画面比率も自由に設定され得る。
 ステップS101の処理中にユーザが表示を待たずして「画面分割モードボタン」を再度押した場合、画面構成管理部103は、画面分割モード処理を終了する(ステップS102のY)。一方、画面分割モードが継続であれば、画面構成管理部103は処理を続行する(ステップS102のN)。
 次に、「補足情報抽出処理」に至るまでの流れを説明する。ステップS101では、画面分割数(N)を「2」としたため、補足情報抽出処理をN=2で示される入力映像2から開始するものとする。まず、映像入力部101の第二チューナ109bがアンテナ200を介して受信した信号は、デコーダ110bでデコードされる。その後、デコーダ110bは、デコードによって得られた入力映像を領域判定部112に転送する。領域判定部112は、デコーダ110bから転送された入力映像に対して補足情報抽出処理を実行する(ステップS103)。この処理の詳細については後述する。
 領域判定部112は、補足情報抽出処理の結果、補足情報とすべき文字領域が存在し、補足情報が抽出された場合、抽出した補足情報を補足情報保持部113に蓄積する。そして、補足情報表示判定部115は、入力映像中に補足情報があり(ステップS104のY)、かつ、所定の判定条件を満たす場合(ステップS105のY)、補足情報を入力映像の上(最上位レイヤ)の指定位置に重畳表示するよう画面構成管理部103に指示する(ステップS106)。当該指示によって、図10に示した補足情報画面1(1005)及び補足情報画面2(1006)がディスプレイに表示される。なお、ステップS105で用いられる判定条件は、「補足情報の出現頻度が予め決められた出現頻度閾値(例えば、50%)以上」、かつ「抽出された補足情報の文字サイズ×現在の入力映像の縮尺率が予め決められた文字サイズ閾値(例えば、12ポイント)以下」等である。
 次に、補足情報保持部113に蓄積される補足情報の履歴に基づいて、前回保持していた補足情報と今回抽出した補足情報の内容に変化が生じた場合、補足情報表示判定部115は、変更フラグを「true」のステータスに変更する。そして、補足情報表示判定部115は、この変更フラグが「true」の場合(ステップS107のY)、表示した補足情報に対して強調表現を追加的に表示する(ステップS108)。即ち、補足情報表示判定部115による強調表現は、図10に示した補足情報画面2(1006)の外枠の陰影や星印などの記号(1007)が表示される。一方、変更フラグが「false」の場合、補足情報表示判定部115は、強調表現を表示せずに次の処理に進む(ステップS107のN)。
 さらに、補足情報表示判定部115は、ユーザが変更可能な設定として「ガイドライン表示モード」を管理する。補足情報表示判定部115は、ガイドライン表示モードに設定されていれば(ステップS109のY)、入力映像の補足情報対象領域と補足情報画面を点線で結ぶガイドラインを表示する(ステップS110)。一方、ガイドライン表示モードに設定されていない場合、補足情報表示判定部115は、ガイドラインを表示せずに次の処理に進む(ステップS109のN)。
 以上、本実施形態は、入力映像2に対し、補足情報1及び補足情報2の抽出、補足情報画面2に付随する強調表現、及びガイドライン表示の構成要素の判定処理まで説明した。説明を簡単にするため、補足情報1と補足情報2の表示判定処理を同時に説明したが、図12に示すフローチャートのステップS111及びS112に示すように、補足情報1及び補足情報2に対する表示判定処理は逐次的に行われる。さらに、表示判定処理は、ステップS113及びS114に示すように、入力映像2の表示判定処理の次に入力映像1の表示判定処理を行う。なお、当該表示判定処理の順番は、実装に依存するためここでは問わない。例えば、ステップS114において、入力映像1に対する表示判定処理が未実行の場合は(ステップS114のN)、入力映像1に対するステップS103の処理に戻る。図10に示した入力映像1には、補足情報として適当な文字領域が存在しないため、ステップS103の処理を行っても補足情報が抽出されないので、ステップS104では補足情報がないと判定される(ステップS104のN)。そして、入力映像1及び入力映像2に対する表示判定処理が終了した場合は(ステップS114のY)、予め決められた待機時間(Tw秒)の間、図10に示した補足情報画面を含む画面1000がディスプレイに表示される(ステップS115)。
 なお、ステップS115の待機処理が終了した後、画面分割モードが継続の場合(ステップS102のN)、映像出力装置100は、補足情報の更新を行うためにステップS103~S115の処理を繰り返す。一方、画面分割モードが終了の場合(ステップS102のY)、画面構成管理部103は、いずれかの入力映像(例えば、入力映像1)を全画面表示する。このため、画面構成管理部103は、端末制御部102を介して映像入力部104の加工部111aに縮尺率の変更を指示し、かつ、合成部107に画面構成の変更を指示する。その結果、ディスプレイには、図7(a)に示す画面が表示される(ステップS116)。
 次に、図12のステップS103に示した領域判定部112の「補足情報抽出処理」について、図13~図15及び図18を参照して詳しく説明する。図13は、補足情報抽出処理を示すフローチャートである。図14は、入力映像2中の文字領域及びオブジェクト領域を示す図である。図15は、補足情報保持部113が保持する文字領域テーブルを示す図である。図16は、補足情報保持部113が保持するオブジェクト領域テーブルを示す図である。図18は、入力映像2中の文字領域及びオブジェクト領域の重畳状態を示す図である。
 図12のステップS103に示した補足情報抽出処理の前処理については、図13のフローチャートを参照して説明する。領域判定部112は、映像入力部104の第二チューナ109bが受信した信号をデコーダ110bがデコードし、得られた入力映像2中の文字領域の有無を検出する(ステップS201)。なお、領域判定部112による文字領域の検出には、輝度の差分を利用して文字部分を抽出する方法など、広く知られている既存技術が用いられる。
 領域判定部112は、文字領域を検出した場合(ステップS202のY)、「文字領域あり」と判定し、その状態を内部に保持する(ステップS203)。一方、文字領域を検出しなかった場合(ステップS202のN)、領域判定部112は「文字領域なし」と判定し、処理を終了する(ステップS204)。
 ステップS202のYの続きとして、領域判定部112は、入力映像に対する文字領域テーブルが存在するかを補足情報保持部113に問い合わせる(ステップS205)。補足情報保持部113からの応答が「文字領域テーブルは存在しない」の場合(ステップS205のN)、領域判定部112は、補足情報保持部113に文字領域テーブルの新規作成を要求する(ステップS206)。一方、補足情報保持部113からの応答が「文字領域テーブルが存在する」の場合(ステップS205のY)、領域判定部112は、抽出した文字列と前回の文字列と比較し、補足情報保持部113の文字領域テーブルを更新する(ステップS207)。
 図14に示す入力映像2の場合、領域判定部112は、以下の部分を文字領域として判定し抽出する。抽出された文字領域は、例えば、画面(1400)の左上に示される「S2(1401)」「B3(1402)」及び「O2(1403)」、画面(1400)の右下に示される「9th(1404)」及び「2-3(1405)」、並びに、画面(1400)の右上に示される「142Km/h」の部分である。そして、図15に示すように、領域判定部112は、文字領域に関する情報を補足情報保持部113の文字領域テーブルに記憶する(ステップS208)。文字領域テーブルには、各文字領域内の抽出文字列、文字サイズ(ポイント)、幅(W)、高さ(H)、画面における位置を示す横軸(X)及び縦軸(Y)といった情報が記録される。
 さらに、領域判定部112は、図14の画面(1400)及び図18の画面(1800)に表示された記号やマークといった文字ではない物体(オブジェクト)を、オブジェクト領域して検出する。例えば、検出されるオブジェクト領域は、画面(1400/1800)の左上の野球のダイヤモンドを示す記号(1407/1807)、画面(1400/1800)の右下の野球のチームを示すロゴ(1408/1808及び1409/1809)、画面(1400/1800)の左下のマウンドに立つピッチャー(1410/1810)、及び、画面(1400/1800)の右上の審判及びバッター(1411/1811及び1412/1812)などである。
 領域判定部112は、オブジェクト領域を検出した場合(ステップS209のY)、入力映像に対するオブジェクト領域テーブルが存在するかを補足情報保持部113に問い合わせる(ステップS209)。補足情報保持部113からの応答が「オブジェクト領域テーブルは存在しない」の場合(ステップS209のN)、領域判定部112は、補足情報保持部113にオブジェクト領域テーブルの新規作成を要求する(ステップS210)。一方、補足情報保持部113からの応答が「オブジェクト領域テーブルは存在する」の場合(ステップS209のY)、領域判定部112は、抽出したオブジェクトを前回のオブジェクトと比較し、補足情報保持部113のオブジェクト領域テーブルを更新する(ステップS211)。
 そして、領域判定部112は、例えば、図16に示すようなオブジェクト領域テーブルを、補足情報保持部113に記録する(ステップS212)。オブジェクト領域テーブルは、オブジェクトID、各オブジェクト領域の幅(W)、高さ(H)、画面における位置を示す横軸(X)及び縦軸(Y)といった情報が記録される。
 図13のステップS213に示した「文字領域群定義処理」、及びステップS214に示した「補足情報定義処理(ステップS214)」の詳細な説明については、図17~図21を参照して後述する。図17は、図13のフローチャート中のステップS213に示した文字領域群定義処理を示すフローチャートである。図18は、図14に示した画面の文字領域及びオブジェクト領域を、補足情報保持部113が保持する文字領域テーブル、及びオブジェクト領域テーブルで管理されるID(T.*及びOj.*)で対応付けた図である。図19は、補足情報保持部113が保持する文字領域群テーブルを示す図である。図20は、重畳状態検出パターンを示す図である。図21は、内部処理に用いるマージン幅の例を示す図である。
 なお、「文字領域群」とは、抽出された複数の文字領域のうち、重なりがあるものをひとつの情報単位として扱うためのグループを意味している。第1の実施形態では、「T.1/T.2/T.3」及び「T.4/T.5」が互いに重なりがあるものと判定され、「T.6」は他の文字領域との重なりがないものと判定される。このように、3つの文字領域群が定義されることを、以下に説明する。
 まず、領域判定部112は、入力映像に対する文字領域群テーブルが存在するかを補足情報保持部113に問い合わせる。補足情報保持部113からの応答が「文字領域群テーブルは存在しない」の場合(ステップS301のN)、領域判定部112は、補足情報保持部113に文字領域群テーブルの新規作成を要求する(ステップS302)。一方、補足情報保持部113からの応答が「文字領域群テーブルが存在する」の場合(ステップS301のY)、領域判定部112は、補足情報保持部113が保持する文字領域群テーブル(図19)を参照する。
 領域判定部112は、補足情報保持部113が保持する図15に示す文字領域テーブルを参照し、重畳状態を検出するために、全ての文字領域(T.*)に重畳検出用マージンを加える(ステップS303)。本実施形態では、例えば、図21に示すような入力映像の縮尺率に応じて変化するマージン幅(ピクセル単位)が予め設定されている。例えば、入力映像の縮尺率が25%のときのマージン幅を10ピクセルとすると、下記の計算式より重畳検出用のマージンが算出される。
幅(W)=幅(W)+左マージン(10)+右マージン(10)
高さ(H)=高さ(H)+上マージン(10)+下マージン(10)
横軸(X)=横軸(X)-左マージン(10)
縦軸(Y)=縦軸(Y)-上マージン(10)
 図20は、領域nと領域n+1の重畳状態を検出する際のパターンを示す図である。ここで、領域nには、“a”~“d”の四辺が存在しており、その四辺全てに対し調査対象となる領域n+1との重畳状態を確認する必要がある。ただし、以下の説明では、説明を簡単にするため、図14に示す入力画像2から抽出された「S2(1401)」及び「B3(1402)」、即ち、図18の画面(1800)に示す「T.1(1801)」及び「T.2(1802)」のうち、“T.1(1801)の下辺とT.2(1802)の上辺との重なり”に絞って説明する。なお、図20におけるT.1(領域n)の頂点T.1c及び頂点T.1dが、T.2(領域n+1)の頂点T.2a及び頂点T.2bと重なる部分についてのみ説明し、その他の重なり部分については説明を省略する。また、二次元平面において分散するオブジェクトの重なりを検出するアルゴリズムは、第1の実施形態に示す限りではなく、他の方法を用いても良い。
 領域判定部112は、現在の調査対象であるT.1の下辺とT.2の上辺のそれぞれにマージンを加えた後の文字領域に対して、下記の計算式を用いて重畳を検出する。
T.n(Xc)=T.n(X)+T.n(W)
T.n(Xd)=T.n(X)
ΔT.n(Y)={T.n(Y)+T.n(H)}-T.m(Y)
 上式では、m=n+1とし、T.nがT.1を、T.mがT.2を示すものとする。また、「Xc」は、T.1の頂点cにおける横軸(X)、「Xd」はT.1の頂点dにおける横軸(X)、「T.m(Y)」はT.2の頂点a(又はb)における縦軸(Y)の数値を代入するものとする(ステップS304)。
 次に、領域判定部112は、T.1の下辺とT.2の上辺の重なりを判定するため、下記の判定式を用いる。
{T.m(X)≦T.n(Xc)≦T.m(X)+T.m(W)、またはT.m(X)≦T.n(Xd)≦T.m(X)+T.m(W)}
かつ
0≦ΔT.n(Y)≦マージン幅閾値(10)
 上式は、「T.1の頂点cが、T.2の頂点aと頂点bの間にある」及び「T.1の頂点dが、T.2の頂点aと頂点bの間にある」のいずれか、かつ「ΔT.n(Y)で示されるT.1の下辺とT.2の上辺の位置の差分が0以上又は予め決められたマージン幅の閾値以下である」ということを意味する。領域判定部112は、上式を満たす場合、T.1の下辺とT.2の上辺が重畳状態にあると判定する(ステップS305)。
 調査対象の文字が重畳状態にあると判定された場合(ステップS305のY)、領域判定部112は、補足情報保持部113の文字領域群テーブルを参照する。領域判定部112は、「前回重畳IDに文字領域ID(T.n)が存在する」又は「最新重畳IDに文字領域ID(T.n)が存在する」と判定した場合(ステップS306のY)、既存の文字領域群を参照し、最新重畳IDに文字領域ID(T.n及びT.m)を記録する(ステップS307)。また、ステップS306で「どちらの重畳IDにも文字領域ID(T.n)が存在しない」と判定した場合(ステップS306のN)、領域判定部112は、新規に文字領域群を定義し、最新重畳IDに文字領域ID(T.n及びT.m)を記録する(ステップS308)。
 また、領域判定部112は、ステップS305で上記判定式を満たさないと判定した場合(ステップS305のN)、T.1の下辺とT.2の上辺が重畳状態にないと判定し、補足情報保持部113が保持する文字領域群テーブルを参照する。領域判定部112は、「前回重畳IDに文字領域ID(T.n)が記録されている」と判定した場合(ステップS309のY)、既存の文字領域群を参照し、最新重畳IDに文字領域ID(T.n)のみを記録する(ステップS310)。一方、ステップS309で「前回重畳IDに文字領域ID(T.n)が記録されていない」と判定された場合(ステップS309のN)、領域判定部112は、新規に文字領域群を定義し、最新重畳IDに文字領域ID(T.n)のみを記録する(ステップS311)。
 このように、領域判定部112は、調査対象の文字領域(T.n)に対し、重畳状態の計算対象である文字領域(T.m)を(m=m+1)等の計算式により変化させる(ステップS312)。また、計算対象が残っている場合には、ステップS304の処理に戻る(ステップS313のN)。そして、全ての計算対象(T.m)に対し重畳状態が確認された後(ステップS313のY)、領域判定部112は、次の調査対象の文字領域(T.n+1)に対し重畳状態を確認する(ステップS314及びS315のN)。最後に、領域判定部112は、入力映像に対し全ての文字領域の重畳状態が確認する(ステップS315のY)。その後、領域判定部112は、補足情報保持部113が保持する文字領域群テーブルの各文字領域群(Tx.*)が参照する最新重畳ID(T.*)のうち、最も小さい文字サイズ(pt:ポイント単位)を算出し記録する(ステップS316)。さらに、領域判定部112は、各文字領域群(Tx.*)が参照する最新重畳ID(T.*)において、各文字領域を包含する矩形を計算し、文字領域群テーブルに記録する(ステップS317)。このようにして、図19に示すような文字領域群テーブルが完成する。
 次に、図13のステップS214に示した「補足情報定義処理」について、図22~図24を参照して詳しく説明する。図22は、図13のフローチャート中のステップS214に示した補足情報定義処理を示すフローチャートである。図23は、入力映像2における文字領域群領域及び補足情報領域の定義を示す。また、図23は、図14及び図18に示した画面の文字領域群、オブジェクト領域、及び補足情報を、補足情報保持部113が保持する文字領域群テーブル及びオブジェクト領域テーブルで管理されるID(Tx.*、Oj.*、SA-*)で対応付けた図である。図24は、補足情報保持部113が保持する補足情報テーブルを示す図である。
 図13のステップS214に示した補足情報定義処理について説明する。なお、「補足情報」とは、抽出された文字領域群をベースとした情報の単位であり、そのうちオブジェクト領域と重なりがあるものは、ひとつの情報単位としてまとめて扱うことができるものとする。図23に示した例では、画面(2300)の「Tx.1(2301)」は、「Oj.1(2304)」との重なりがある補足情報1(SA-1:2310)、「Tx.2(2302)」は「Oj.5(2308)」及び「Oj.6(2309)」と重なりがある補足情報2(SA-2:2311)と判定される。また、「Tx.3(2303)」は、他のオブジェクト領域との重なりがない補足情報3(SA-3:2312)と判定される。このように、3つの補足情報が定義されることを、以下に説明する。
 まず、領域判定部112は、入力映像に対する補足情報テーブルが存在するかを補足情報保持部113に問い合わせる。補足情報保持部113からの応答が「補足情報テーブルは存在しない」の場合(ステップS401のN)、領域判定部112は、補足情報保持部113に補足情報テーブルの新規作成を要求する(ステップS402)。一方、補足情報保持部113からの応答が「文字領域群テーブルが存在する」の場合(ステップS401のY)、領域判定部112は、補足情報保持部113が保持する補足情報テーブル(図24)を参照する。
 領域判定部112は、補足情報保持部113が保持する文字領域群テーブル及びオブジェクト領域テーブルを参照し、重畳状態を検出するために全てのオブジェクト領域群(Oj.*)に重畳検出用のマージンを加える(ステップS403)。重畳検出用マージンには、例えば、図21に示すような入力映像の縮尺率に応じて変化するマージン幅(ピクセル単位)が予め設定されている。例えば、入力映像の縮尺率が25%のときのマージン幅を10ピクセルとすると、下記の計算式より重畳検出用のマージンが算出される。
幅(W)=幅(W)+左マージン(10)+右マージン(10)
高さ(H)=高さ(H)+上マージン(10)+下マージン(10)
横軸(X)=横軸(X)-左マージン(10)
縦軸(Y)=縦軸(Y)-上マージン(10)
 以下の説明では、上述した文字領域群の抽出処理と同様、説明を簡単にするため、図23に示す「Tx.1(2301)」と「Oj.1(2304)」のうち、“Tx.1の右辺とOj.1の左辺との重なり”に絞って説明する。即ち、図20における、Tx.1(領域n)の右辺Tx.1b及びTx.1cが、Oj.1(領域n+1)の左辺Oj.1a及びOj.1dと重なる部分についてのみ説明し、その他の重なり部分については説明を省略する。
 領域判定部112は、現在の調査対象であるTx.1の右辺とOj.1の左辺のそれぞれにマージンを加えた後のオブジェクト領域に対して、下記の計算式を用いて重畳を検出する。
Tx.n(Yb)=Tx.n(Y)
Tx.n(Yc)=Tx.n(Y)+Tx.n(H)
ΔTx.n(X)={Tx.n(X)+Tx.n(W)}-Oj.m(X)
 上式では、m=1とし、Tx.nがTx.1を、Oj.mがOj.1を示すものとする。また、「Yb」は、Tx.1の頂点bにおける縦軸(Y)、「Yc」はTx.1の頂点cにおける縦軸(Y)、「Oj.m(X)」はOj.1の頂点a(又はd)における横軸(X)の数値を代入するものとする(ステップS404)。
 次に、領域判定部112は、Tx.1の右辺とOj.1の左辺の重なりを判定するため、下記の判定式を用いる。
{Oj.m(Y)≦ Tx.n(Yb)≦ Oj.m(Y)+Oj.m(H)、またはOj.m(Y)≦Tx.n(Yc)≦Oj.m(Y)+Oj.m(H)}
かつ
0≦ΔTx.n(X)≦ マージン幅閾値(10)
 上式は、「Tx.1の頂点bが、Oj.1の頂点aと頂点dの間にある」及び「Tx.1の頂点cが、Oj.1の頂点aと頂点dの間にある」のいずれか、かつ「ΔTx.n(X)で示されるTx.1の右辺とOj.1の左辺の位置の差分が0以上又は予め決められたマージン幅の閾値以下である」ということを意味する。領域判定部112は、上式を満たす場合、Tx.1の右辺とOj.1の左辺が重畳状態にあると判定する(ステップS405)。
 調査対象の文字領域群とオブジェクト領域が重畳状態にあると判定された場合(ステップS405のY)、領域判定部112は、補足情報保持部113が保持する補足情報テーブルを参照する。領域判定部112は、「親IDに当該文字領域群(Tx.n)が記録されている」と判定した場合(ステップS406のY)、既存の補足情報を参照し、オブジェクト領域ID(Oj.m)を記録し、重畳フラグを「true」に設定する(ステップS407)。また、ステップS406で「親IDに当該文字領域群(Tx.n)が記録されていない」と判定された場合(ステップS406のN)、領域判定部112は、新規に補足情報を定義し、オブジェクト領域ID(Oj.m)を記録し、重畳フラグを「true」に設定する(ステップS408)。
 また、領域判定部112は、ステップS405で上記判定式を満たさないと判定した場合(ステップS405のN)、Tx.1の右辺とOj.1の左辺が重畳状態にないと判定し、補足情報保持部113が保持する補足情報テーブルを参照する。領域判定部112は、「親IDに当該文字領域群(Tx.n)が記録されている」と判定した場合(ステップS409のY)、既存の補足情報を参照し、オブジェクト領域ID(Oj.m)を記録し、重畳フラグを「false」に設定する(ステップS410)。一方、ステップS409で「親IDに当該文字領域群(Tx.n)が記録されていない」と判定された場合(ステップS409のN)、領域判定部112は、新規に補足情報を定義し、オブジェクト領域ID(Oj.m)を記録し、重畳フラグを「false」に設定する(ステップS411)。
 このように、領域判定部112は、調査対象の文字領域群(Tx.n)に対し、重畳状態の計算対象であるオブジェクト領域(Oj.m)を(m=m+1)等の計算式により変化させる(ステップS412)。また、計算対象が残っている場合には、ステップS404の処理に戻る(ステップS413のN)。そして、全ての計算対象(Oj.m)に対し重畳状態が確認された後(ステップS413のY)、領域判定部112は、補足情報テーブル初回作成時からの出現累計を基に、補足情報(SA-n)に対する出現頻度(%)を算出し、補足情報テーブルに記録する(ステップS414)。その後、領域判定部112は、次の調査対象の文字領域群(Tx.n+1)に対し、逐次的に重畳状態を確認する(ステップS415及びS416のN)。最後に、領域判定部112は、入力映像に対し全ての文字領域群の重畳状態が確認する(ステップS416のY)。その後、領域判定部112は、補足情報保持部113が保持する各文字領域群(Tx.*)、と重畳するオブジェクト領域(Oj.*)との重なりを包含する矩形を計算し、補足情報テーブルに記録する(ステップS417)。このようにして、図24に示すような文字領域群テーブルが完成する。
 以上説明したように、領域判定部112は、図12、図13、図17及び図22に示した各フローチャートによる処理を行うことによって、図24に示す補足情報テーブルが作成又は更新され、補足情報保持部113に保持される。領域判定部112が当該処理を待機時間(Tw秒)毎に繰り返すことで、入力映像の変化に追従して補足情報の内容が更新されるため、ディスプレイには図10に示すような画面が継続的に表示される。
 以下、補足情報の描画タイミングについて、図25を参照して詳細に説明する。図25は、入力映像の縮尺率及び画面分割モードの状態に応じた補足情報表示判定基準を示す図である。当該補足情報表示判定基準では、図12のフローチャートに示したステップS105において、所定の判定条件を満たす場合のみ補足情報を表示するものとする。所定の判定条件とは、上述したように、補足情報保持部113が保持する補足情報テーブルに記録される「出現頻度(%)」が「出現頻度の閾値(例えば、50%)」以上、かつ、文字領域群テーブルに記録される「文字サイズ」×「現在の入力映像の縮尺率」が「文字閾値(例えば、12ポイント)」以下等である。
 上記補足情報表示判定基準における前者の条件は、入力映像に対し、ある一定期間表示される文字列が、放送局などの番組提供会社が意図する補足情報であると判断するためのものである。当該条件を設けることによって、例えば、テレビコマーシャルなど、突発的かつ単発的に表示される文字列あるいは、野球中継の中で紹介される告知情報など、画面分割をした際に必ずしも必要としない情報を補足情報として表示することを防ぐことができる。第1の実施形態においては、補足情報3(SA-3:野球中継のピッチャーの球速)が出現頻度「12%」でああるため、補足情報表示判定部115は、補足情報3は補足情報としての条件を満たさないと判定する。
 また、上記補足情報表示判定基準における後者の条件は、入力映像が縮小して表示される際、表示された文字列がユーザに不可読と判断された場合にのみ、補足情報として表示すると判断するためのものである。例えば、補足情報の表示は、図7(c)~図7(f)に示す“二画面表示状態A~D”に対し、図25に示すように、初期状態として入力映像が100%で表示される場の文字サイズは以下の通りである。文字領域群1(Tx.1)の文字サイズは「18ポイント」、文字領域群2(Tx.2)の文字サイズは「26ポイント」である。なお、“二画面表示状態A”においては、入力映像2の縮尺率は「75%」、文字領域群1(Tx.1)の文字サイズは「14ポイント前後」、文字領域群2(Tx.2)の文字サイズは「19ポイント前後」であり、閾値(12ポイント)を上回っているため、ユーザが可読であると判断し、補足情報を表示しない(図7(c)。
 次に、“二画面表示状態B”に至る前に、文字領域群1(Tx.1)の文字サイズが閾値(12ポイント)下回ったため、補足情報表示判定部115は、補足情報の表示を開始する。また、“二画面表示状態B”では、わずかながら文字領域群2(Tx.2)の文字サイズが閾値(12ポイント)を上回っているため、補足情報1のみが表示されることとなる(図7(d)。さらに、“二画面表示状態B”を通過した直後、“二画面表示状態C”に至る前に、文字領域群2(Tx.2)の文字サイズが閾値(12ポイント)を下回ったため、“二画面表示状態C”においては、補足情報2も表示されることとなる(図7(e)。以降、“二画面表示状態D”のその先に至っては、文字領域群1及び2の文字サイズが共に閾値(12ポイント)を下回るため、補足情報1及び2が表示され続けることになる(図7(f)。
 なお、上記説明では、“出現頻度が「50%」以上の補足情報を表示する”としたが、この判定基準をユーザが自由に変更できるようにしても良い。また、上記説明では、表示の判定を行う文字サイズの閾値として「12ポイント」を例に挙げたが、ユーザが不可読となる文字サイズには個人差があるため、ユーザが自由に変更できるようにしても良い。また、端末システムが管理するメニュー画面等のフォントサイズ設定、端末に搭載されたブラウザのフォントサイズ設定、端末に搭載されたEPGのフォントサイズ設定(最後に設定したサイズ)など、文字列を表示するアプリケーションで設定したサイズと連動して、表示の判定を行う文字サイズの閾値を決定しても良い。
 以下、補足情報の描画位置について、図26及び図27を参照して詳細に説明する。図26は、補足情報の表示場所を決定する要因の一例を示す図である。図27は、表示画面のレイアウト構成の一例を示す図である。
 図26に示すように、入力映像の画面(2600)に対し、補足情報1(SA-1:2601)、補足情報2(SA-2:2602)、及び補足情報3(SA-3:2603)が定義される。第1の実施形態においては、画面を四分割した第一象限~第四象限までの領域が定義され、補足情報表示判定部115は、各補足情報がどの象限に属するかを判定することにより、おおよその補足情報の表示位置を決定する。例えば、補足情報1(SA-1)は、第二象限に属しており、補足情報2(SA-2)は第四象限に属しており、補足情報3(SA-3)は第一象限に属していることになる。
 図27は、図7(e)に示した“二画面表示状態C”の画面レイアウト構成を示す。補足情報表示判定部115は、図12のフローチャートに示したステップS106にて、補足情報の表示位置を決定し、画面構成管理部103に画面レイアウト構成として転送する。ここで、例えば、画面2に表示される入力映像2に含まれる補足情報1(SA-1)は、図26に示す通り、第二象限に位置している。このため、図27においては、画面1と画面2の境界線に対して予め決められた表示マージンを減算し、画面2の上方に左寄せで原寸表示している。さらに、画面2に表示される入力映像2に含まれる補足情報2(SA-2)は、図26に示す通り、第四象限に位置している。このため、図27においては、画面1と画面2の境界線ではなく表示枠の右端に対して表示マージンを減算し、画面2の下方に右寄せで原寸表示している。
 なお、上記の例では、画面分割の構成比率を3:1とし、画面1と画面2の境界線を境目にセンタリングする方式としたが、表示方法はこれに限らない。例えば、表示方法は、画面間に表示マージンを用意しても良いし、各画面にフレーム枠を付与しても良い。また、本実施形態では、補足情報を原寸表示(即ち、入力映像の100%表示から一部を切り出した形式)するとしたが、拡大や縮小はユーザが自由に選択しても良い。また、補足情報は、画面のレイアウト構成に連動して自動で縮尺が変更される構成としても良い。また、画面構成管理部103は、入力映像に対応付けられて保持される補足情報の領域を相互に参照し、入力映像2における補足情報を表示する際、入力映像1における文字領域群の位置に配慮した処理を行っても良い。配慮した処理とは、具体的には、入力映像2の補足情報が入力映像1の文字領域群に重畳しないように位置、あるいは補足情報の表示サイズを変更する、又は補足情報を表示しないといった処理である。
 なお、本実施形態では、入力映像に放送局から放送される番組(例えば、ドラマや野球中継)を例に挙げた。しかし、放送番組に限らず、他の機器が録画等により蓄積する蓄積番組や個人が撮影した映像、第三者が作成したビデオクリップやネットワークを介して配信される動画など、入力チャネル及びフォーマットを問わない。
 なお、本実施形態の補足情報保持部113が保持する補足情報は、補足情報表示判定部115が図12に示す条件判定(ステップS105)で表示の有無を判定する例を示した。しかし、補足情報表示判定部115は、放送に付随する番組概要等のテキストデータとの比較を行い、内容に合致する場合のみ補足情報を表示する等の条件判定を付加しても良い。
 以上説明したように、本実施形態の映像出力装置100は、少なくとも1つの入力映像の描画位置及び描画サイズを動的に管理し、縮小された入力映像において文字列の潰れが発生したと判定された領域を補足情報として自動的に拡大表示するよう処理する。これにより、本実施形態では、拡大表示に必要なユーザによる操作回数が軽減し、可読な文字サイズによる判りやすい情報提示により、ユーザによる情報認識の機会損失を未然に防止できる。
 また、縮小された入力映像においては、文字列の潰れが発生したと判定された領域に加え、文字列ではない近傍のロゴマーク等の記号も補足情報として自動的に拡大表示される。これにより、本実施形態では、単純なテキスト拡大によるロゴマーク等の記号の情報欠如を防止し、正確な補足情報をユーザに提供できる。
 また、少なくとも1つの入力映像が縮小表示された際は、縮小表示された画面以外の未使用領域(例えば、二画面分割時の黒帯となる部分)に補足情報が表示される。これにより、本実施形態では、メインで視聴する映像を邪魔することがなく、画面の空き領域を有効活用できる。
 また、少なくとも1つの入力映像が縮小表示された際は、縮小表示された画面において補足情報の参照元となる文字領域に近い位置に補足情報が表示される。これにより、本実施形態では、縮小された画面においても、どこの情報が拡大表示されているかをユーザが直感的に判断でき、判りやすい情報提供ができる。
 また、少なくとも1つの入力映像が縮小表示された際は、縮小表示された画面において、補足情報の参照元となる領域と拡大表示した補足情報領域とをガイドラインにより視覚的に関連付けて表示される。これにより、縮小された画面においても、どこの情報が拡大表示されているかをユーザが直感的に判断でき、判りやすい情報提供ができる。
 また、映像に重畳する形式で補足情報を表示する場合には、映像のどの位置に文字領域があるかに配慮して補足情報の表示位置が決定される。これにより、映像上の文字領域に補足情報や他の映像を重畳することがなく、映像上の文字領域表示を隠すことを未然に防止できる。
 また、入力映像において複数の文字領域がある場合は、複数の文字領域を包含する文字領域群において最も小さいと判定された文字領域の補足情報を優先して自動表示される。これにより、本実施形態では、ユーザにとって余計な操作を必要とせず、映像の縮小により潰れた文字情報のうち、最も見難い文字列情報を補足情報として提供できる。
 また、本実施形態では、抽出された文字領域のうち、一定時間表示されたものだけを補足情報として表示される。これにより、本実施形態では、瞬間的に表示される字幕スーパーや映像に偶然映った看板、コマーシャル等で突発的かつ単発的に表示される文字列による過剰な補足情報表示を未然に防止し、起こり得る画面のちらつき発生を抑止できる。
 また、本実施形態は、抽出された文字列の変化を判定し、補足情報の変化を画面上で強調表現として通知する。これにより、本実施形態は、ユーザ自らが常に補足情報の変化に気を配る必要がなく、自動的に提供される視覚的な強調表示により、縮小された画面における状態変化を直感的に認識できる。
 また、本実施形態は、映像から抽出した補足情報のうち、映像に付随する付帯情報に合致する補足情報が優先的に表示される。これにより、本実施形態は、映像に偶然映った看板等の文字列など、映像の内容に直接沿わない文字領域の表示を未然に防止できる。
(第2の実施形態)
 第1の実施形態では、入力映像から文字領域及びオブジェクト領域を抽出し、各文字領域がオブジェクト領域と重なる場合には、ひとつの補足情報として領域を切り出し、入力映像の縮尺率に応じて画面構成管理部103が管理する画面レイアウト構成の空き領域に、前記補足情報を重畳して表示するケースを示した。第2の実施形態では、映像出力装置100の領域判定部112が抽出した補足情報に限らず、映像出力装置100がネットワーク600を介して、外部にあるサーバから補足情報を取得して表示する場合について説明する。
 本実施形態では、図28~図30を参照して、外部にあるサーバから補足情報を取得して表示する処理について説明する。図28は、第2の実施形態の映像出力装置及びその関連装置を示すブロック図である。なお、図28では、映像出力装置100の映像入力部104の内部構成については図示を省略している。図29は、補足情報提供装置が提供する画面構成データを示す図である。図30は、画面構成データに基づく補足情報の表示例を示す図である。
 本実施形態の映像出力装置100は、図6に示す第1の実施形態の映像出力装置100と同様な構成である。図28において、図6に示す第1の実施形態との主な相違は、ネットワーク600に接続される通信部109dが画面構成管理部103に接続される点、ネットワーク600に接続される外部サーバとして補足情報提供装置800が追加された点である。上記以外の構成は、図6と同様であるため、それらの同様な部位については同じ符号を付して説明を省略する。
 本実施形態の画面構成管理部103は、合成部107を介して出力部108で表示する入力映像に関連付けられた補足情報提供装置800に対し、必要に応じて、通信部109dを介して画面構成データの取得を要求する。補足情報提供装置800は、映像出力装置100からの要求に応じて、映像出力装置100で視聴中の入力映像の画面構成における補足情報の表示位置などを記述した、図29に示すような画面構成データを返信する。画面構成管理部103は、通信部109dを介して取得した画面構成データを解析し、入力映像に対しどの領域に補足情報が表示されるかを判断する。
 例えば、第1の実施形態の説明で用いた入力映像2(野球中継)の場合、図29に示す通り、3つの補足情報1~3が定義される。第2の実施形態における補足情報1~3は、バッタースコア(RP-1)、経過情報(RP-2)、球速(RP-3)が存在し、各々補足情報を表示する位置として、幅(W)、高さ(H)、横軸(X)、縦軸(Y)の情報が記載される。さらに、一実施例として、日本語版及び英語版の補足情報URL(Uniform Resource Locator)が付加されている。この補足情報URLは、補足情報を表示する位置に関する情報の他に、補足情報提供装置800が予め補足情報を用意し、ネットワーク600を通じて取得可能とする。
 映像出力装置100を操作するユーザが任意に選択可能なプロファイルのひとつとして、言語設定が日本語に選択されている場合について説明する。なお、当該言語設定を含むプロファイルは、画面構成管理部103又は本実施形態の映像出力装置が有する図示しない記録媒体に記録されている。入力映像2の野球中継で経過情報(RP-2)及び球速(RP-3)が、例えば英語表記となっていたとする。画面構成管理部103は、上記言語設定に従い、補足情報提供装置800が提供する「日本語版の補足情報」を、補足情報URLを用いて取得し、補足情報として入力映像に重畳して表示する。例えば、図30に示すように、画面構成データにより、画面(3000)において放送局が意図する補足情報1~3(3001~3003)の表示領域を判定できる。また、画面構成管理部103は、補足情報URLを用いて取得した画像により、本来の入力映像2では「9th」と表示される部分を「9回」とし、「142Km/h」と表示される部分を「時速142Km」として表示する。
 なお、第2の実施形態においては、補足情報URLで画像を取得するものとしたが、テキストやストリーミングで配信される動画を取得する方式としてもよい。
 なお、第2の実施形態においては、ネットワーク600を介して補足情報提供装置800から取得する画面構成データは、放送局などの番組提供者が意図する補足情報の概要、表示領域の位置情報、補足情報提供装置800が提供する補足情報への補足情報URLを含む例を示した。しかし、包含される情報は、これに限らず、関連情報及び関連情報にアクセスするためのURL、ネットワーク600を介して取得できる副音声等を含むようにしても良い。また、ユーザは、映像出力装置100のアプリケーション処理部105のひとつ、又はパーソナルコンピュータのブラウザ等により、補足情報提供装置800の設定を変更できる。この設定を変更する場合は、入力映像に対する補足情報の表示位置、又は入力画面を縮小(又は入力映像を画面分割)した際の画面(3000)に対する補足情報の相対的な表示位置を、補足情報表示指定領域として変更しても良い。
 以上説明したように、本実施形態では、複数種類の補足情報の中からユーザのプロファイルに従って補足情報を選択して表示する。このため、言語設定として日本語が設定されている映像出力装置においては、日本語版の補足情報を表示する。なお、画面構成管理部103は、補足情報を異なる言語に翻訳しても良い。例えば、画面構成管理部103は、英語として抽出されたテキストを英和辞書に従って日本語に翻訳して表示する。このように、本実施形態では、ユーザが選択した言語設定に応じた補足表示が可能である。
 また、映像出力装置は、当該映像出力装置の外部から取得した補足情報領域パターンデータに含まれる補足情報領域を用いて、補足情報となる映像を抽出して表示しても良い。補足情報領域パターンデータは、入力映像中の補足情報領域の位置を示すデータである。この場合、補足情報領域の算出に必要な映像出力装置の処理負荷が軽減され、かつ、映像出力装置は、映像製作者が意図する補足情報領域を確実に特定できる。
 また、映像出力装置は、当該映像出力装置の外部から取得した画面構成データに含まれる補足情報表示指定領域に従って補足情報を表示しても良い。この場合、補足情報の表示位置やサイズの算出に必要な映像出力装置の処理負荷が軽減され、かつ、映像出力装置は、ユーザが意図する指定領域に確実に補足情報を表示できる。
 本発明は、上記説明した第1及び第2の実施形態に限定されない。以下のような場合も本発明に含まれる。
(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法は、コンピュータにより実現するコンピュータプログラムであるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、光ディスク、半導体メモリなどに記録したものとしてもよい。
 また、本発明は、前記コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2008年10月10日出願の日本特許出願(特願2008-264004)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明に係る映像出力装置は、デジタルテレビ受像機、デジタルビデオディスクレコーダ、セットトップボックス、プロジェクタ、外付モニター、外部に映像を出力するパーソナルコンピュータまたは映像表示出力機能を有するモバイル機器等に適用できる。
100 映像出力装置
101 入力部
102 端末制御部
103 画面構成管理部
104 映像入力部
105 アプリケーション処理部
106 画面生成部
107 合成部
108 出力部
109a 第一チューナ
109b 第二チューナ
109c 外部入力部
109d 通信部
110 デコーダ
111 加工部
112 領域判定部
113 補足情報保持部
115 補足情報表示判定部
200 アンテナ
300 放送局
400 送出局
500 映像提供装置A
600 ネットワーク
700 映像提供装置B
800 補足情報提供装置

Claims (17)

  1.  少なくとも1つの映像を表示する画面の配置又は縮尺を管理する画面構成管理部と、
     入力映像から文字領域を判定する領域判定部と、
     前記領域判定部が判定した少なくとも1つの文字領域を含む補足情報領域の映像を切り出して補足情報として保持する補足情報保持部と、
     前記画面構成管理部が管理する画面構成に基づく入力映像に加え、前記補足情報保持部が保持する補足情報を表示するかを判定する補足情報表示判定部と、
     前記画面構成管理部及び前記補足情報表示判定部からの指示に従い、前記入力映像及び前記補足情報を出力する出力部と、を備え、
     前記補足情報表示判定部は、前記画面構成管理部が管理する縮尺に応じて変化する入力映像中の文字領域に含まれる文字のサイズに基づいて、前記補足情報を表示すると判定する映像出力装置。
  2.  請求項1に記載の映像出力装置であって、
     前記領域判定部は、前記入力映像から前記文字領域の存在を判定した場合、当該文字領域の近傍にオブジェクト領域が存在するかを判定し、
     前記補足情報領域には、前記領域判定部が判定した少なくとも1つの文字領域及びオブジェクト領域が含まれる映像出力装置。
  3.  請求項1に記載の映像出力装置であって、
     前記補足情報表示判定部は、少なくとも1つの映像を表示する領域以外の領域を、前記補足情報の表示位置として決定する映像出力装置。
  4.  請求項1に記載の映像出力装置であって、
     前記補足情報表示判定部は、前記補足情報の表示位置及び表示サイズを、当該補足情報を含む入力映像中の補足情報領域の位置、他の画面との相対位置、及び所定の余白幅に従って決定する映像出力装置。
  5.  請求項1に記載の映像出力装置であって、
     前記補足情報表示判定部は、前記補足情報を表示する際、当該補足情報を含む入力映像中の補足情報領域を示すフレーム枠を前記入力映像に表示して、前記補足情報と前記フレーム枠との関係を示すガイドを表示するよう処理する映像出力装置。
  6.  請求項1に記載の映像出力装置であって、
     前記補足情報表示判定部は、前記補足情報の表示位置及び表示サイズを、前記領域判定部が抽出した他の文字領域を含む補足情報領域の映像を切り出した他の補足情報と重ならないよう決定する映像出力装置。
  7.  請求項1に記載の映像出力装置であって、
     前記補足情報表示判定部は、前記領域判定部が抽出した少なくとも1つの文字領域のうち、文字のサイズが最も小さいと判定された文字領域を含む補足情報領域の映像を切り出した補足情報を優先的に表示する映像出力装置。
  8.  請求項1に記載の映像出力装置であって、
     前記補足情報表示判定部は、前記領域判定部による判定結果を前記補足情報保持部に記録し、前記領域判定部によって抽出された少なくとも1つの文字領域又はオブジェクト領域を含む補足情報領域のうち、入力映像中に所定時間以上存在している補足情報領域を優先的に表示すると判定する映像出力装置。
  9.  請求項1に記載の映像出力装置であって、
     前記補足情報保持部は、前記補足情報中の文字領域から抽出された文字列を保持し、
     前記補足情報表示判定部は、前記補足情報保持部が保持する文字列が、同じ文字領域から直近に抽出された文字列と異なる場合に、前記補足情報を強調して表示するよう処理する映像出力装置。
  10.  請求項1に記載の映像出力装置であって、
     前記補足情報保持部は、前記補足情報に加え、当該補足情報中の文字領域から抽出された文字列を保持し、
     前記補足情報表示判定部は、当該映像出力装置のユーザのプロファイルに従って前記文字列を変換して表示するよう処理する映像出力装置。
  11.  請求項1に記載の映像出力装置であって、
     少なくとも1つの映像を表示する画面の配置及び大きさを示す画面構成データを外部サーバから受信する通信部を備え、
     前記画面構成管理部は、前記通信部が前記外部サーバから取得した前記画面構成データに従って画面構成を管理し、
     前記補足情報表示判定部は、前記画面構成データによって指定された領域に前記補足情報を表示するよう処理する映像出力装置。
  12.  請求項11に記載の映像出力装置であって、
     前記補足情報表示判定部は、前記画面構成管理部が管理する縮尺に応じて変化する入力映像中の文字領域に含まれる文字のサイズに基づいて、前記画面構成データによって指定された領域に前記補足情報を表示するよう処理する映像出力装置。
  13.  請求項1に記載の映像出力装置であって、
     入力映像中の補足情報領域の位置を示す情報を外部サーバから受信する通信部を備え、
     前記通信部が前記外部サーバから取得した情報に含まれる補足情報領域を用いて、補足情報となる映像を抽出して表示する映像出力装置。
  14.  少なくとも1つの映像を表示する画面の配置又は縮尺を管理する画面構成管理部と、
     入力映像から文字領域を判定する領域判定部と、
     前記領域判定部が判定した少なくとも1つの文字領域に含まれる文字列を補足情報として外部サーバから取得する通信部と、
     前記画面構成管理部が管理する画面構成に基づく入力映像に加え、前記通信部が取得した補足情報を表示するかを判定する補足情報表示判定部と、
     前記画面構成管理部及び前記補足情報表示判定部からの指示に従い、前記入力映像及び前記補足情報を出力する出力部と、を備え、
     前記補足情報表示判定部は、前記領域判定部が判定した少なくとも1つの文字領域に含まれる文字のサイズが閾値よりも小さい場合、前記補足情報を表示する映像出力装置。
  15.  請求項14に記載の映像出力装置であって、
     前記通信部は、少なくとも1つの映像を表示する画面の配置及び大きさを示す画面構成データを前記外部サーバから受信し、
     前記画面構成管理部は、前記通信部が前記外部サーバから取得した前記画面構成データに従って画面構成を管理し、
     前記補足情報表示判定部は、前記画面構成データによって指定された領域に前記補足情報を表示するよう処理する映像出力装置。
  16.  入力映像から文字領域を判定し、
     少なくとも1つの文字領域を含む補足情報領域の映像を切り出して補足情報として保持し、
     少なくとも1つの映像を表示する画面の配置又は縮尺を規定する画面構成に基づく入力映像に加え、前記補足情報を表示するかを判定し、
     前記画面構成及び前記判定結果に従い、前記入力映像及び前記補足情報を出力する映像出力方法であって、
     前記入力映像中の文字領域に含まれる文字のサイズに基づいて、前記補足情報を表示すると判定する映像出力方法。
  17.  入力映像から文字領域を判定し、
     少なくとも1つの文字領域に含まれる文字列を補足情報として外部サーバから取得し、
     少なくとも1つの映像を表示する画面の配置又は縮尺を規定する画面構成に基づく入力映像に加え、前記外部サーバから取得した補足情報を表示するかを判定し、
     前記画面構成及び前記判定結果に従い、前記入力映像及び前記補足情報を出力する映像出力方法であって、
     少なくとも1つの文字領域に含まれる文字のサイズが閾値よりも小さい場合、前記補足情報を表示すると判定する映像出力方法。
PCT/JP2009/005255 2008-10-10 2009-10-08 映像出力装置及び映像出力方法 WO2010041457A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP09818997A EP2334063A1 (en) 2008-10-10 2009-10-08 Picture output device and picture output method
CN200980101324.1A CN101897178B (zh) 2008-10-10 2009-10-08 视频输出设备和视频输出方法
US12/747,019 US8482672B2 (en) 2008-10-10 2009-10-08 Video output device and video output method
JP2010511414A JP5372916B2 (ja) 2008-10-10 2009-10-08 映像出力装置及び映像出力方法
US13/902,214 US8724027B2 (en) 2008-10-10 2013-05-24 Video output device and video output method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008264004 2008-10-10
JP2008-264004 2008-10-10

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/747,019 A-371-Of-International US8482672B2 (en) 2008-10-10 2009-10-08 Video output device and video output method
US13/902,214 Division US8724027B2 (en) 2008-10-10 2013-05-24 Video output device and video output method

Publications (1)

Publication Number Publication Date
WO2010041457A1 true WO2010041457A1 (ja) 2010-04-15

Family

ID=42100418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/005255 WO2010041457A1 (ja) 2008-10-10 2009-10-08 映像出力装置及び映像出力方法

Country Status (5)

Country Link
US (2) US8482672B2 (ja)
EP (1) EP2334063A1 (ja)
JP (1) JP5372916B2 (ja)
CN (1) CN101897178B (ja)
WO (1) WO2010041457A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034037A (ja) * 2010-07-28 2012-02-16 Toshiba Corp 映像信号処理装置及び映像信号処理方法
JP2012070378A (ja) * 2010-09-22 2012-04-05 Thomson Licensing パノラマシーン内でのナビゲーション方法
JP2012098621A (ja) * 2010-11-04 2012-05-24 Canon Inc 表示装置及びその制御方法、情報処理装置及びその制御方法、画像表示システム、プログラム、並びに記憶媒体
JP2013166400A (ja) * 2012-02-14 2013-08-29 Calsonic Kansei Corp 車両用表示制御装置
JP2013542649A (ja) * 2010-09-20 2013-11-21 クゥアルコム・インコーポレイテッド 仮想ビデオ・キャプチャ・デバイス
JP2016001787A (ja) * 2014-06-11 2016-01-07 日立マクセル株式会社 情報表示装置および情報表示方法
JP2018056946A (ja) * 2016-09-30 2018-04-05 株式会社東芝 デコーダ装置、リモコン端末および画面操作方法
JPWO2017057196A1 (ja) * 2015-09-29 2018-07-05 シャープ株式会社 表示装置、テレビジョン受像機、プログラム及び記録媒体
JP2018102898A (ja) * 2016-07-22 2018-07-05 ジョセフ プローグマンJoseph Ploegman 野球のバッターカウントを表示するためのシステムおよび方法
WO2020203428A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 医療用画像伝送システム、医療用画像処理装置及び医療用画像伝送方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011035443A1 (en) 2009-09-26 2011-03-31 Sharif-Ahmadi Seyed M System and method for micro-cloud computing
JP5285781B2 (ja) * 2009-09-29 2013-09-11 シャープ株式会社 周辺機器情報表示システム、表示装置、及び周辺機器
WO2011077550A1 (ja) * 2009-12-25 2011-06-30 株式会社 東芝 画面中継装置
KR20120073892A (ko) * 2010-12-27 2012-07-05 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 메뉴 표시방법
US8966530B2 (en) * 2011-12-29 2015-02-24 Rovi Guides, Inc. Systems and methods for presenting multiple assets in an interactive media guidance application
CN102708841B (zh) * 2012-04-16 2015-04-29 广东威创视讯科技股份有限公司 信号开窗方法与装置
EP2670130B1 (en) * 2012-06-01 2019-03-27 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal
US9360997B2 (en) 2012-08-29 2016-06-07 Apple Inc. Content presentation and interaction across multiple displays
JP6157094B2 (ja) * 2012-11-21 2017-07-05 キヤノン株式会社 通信装置、設定装置、通信方法、設定方法、及び、プログラム
CN103873940B (zh) * 2012-12-17 2017-12-26 联想(北京)有限公司 一种信息处理方法及电子设备
US9621336B1 (en) * 2013-03-13 2017-04-11 Avnera Corporation SPDIF clock and data recovery with sample rate converter
KR20140133363A (ko) 2013-05-10 2014-11-19 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
TWI520610B (zh) * 2013-08-01 2016-02-01 晨星半導體股份有限公司 電視控制裝置與相關方法
JP2015102567A (ja) * 2013-11-21 2015-06-04 三菱電機株式会社 マルチビジョン用表示制御装置およびマルチビジョンシステム
CN103763624B (zh) * 2014-01-27 2017-02-15 北京宽广融合传媒科技有限公司 一种电视频道节目互动的方法与装置
KR102202576B1 (ko) * 2014-12-12 2021-01-13 삼성전자주식회사 음향 출력을 제어하는 디바이스 및 그 방법
GB201509008D0 (en) * 2015-05-26 2015-07-08 Giroux Verreault Mathieu And Tourigny Gilles Jr Interactive clothing incorporating electronic components
CN113597640A (zh) * 2019-03-25 2021-11-02 索尼集团公司 图像处理设备、图像处理方法和显示设备
US11367466B2 (en) 2019-10-04 2022-06-21 Udo, LLC Non-intrusive digital content editing and analytics system
US11778135B2 (en) * 2019-12-12 2023-10-03 Texas Instruments Incorporated Multi-channel display systems
CN113220209A (zh) * 2021-05-07 2021-08-06 深圳市艾酷通信软件有限公司 分屏显示方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07222072A (ja) * 1994-02-07 1995-08-18 Toshiba Corp 映像表示装置
JPH07236100A (ja) * 1994-02-22 1995-09-05 Victor Co Of Japan Ltd ディスプレイ装置
JPH08317301A (ja) 1995-05-22 1996-11-29 Hitachi Ltd 映像出力装置
JPH10234016A (ja) * 1997-02-21 1998-09-02 Hitachi Ltd 映像信号処理装置及びそれを備えた映像表示装置及び記録再生装置
JP2002171457A (ja) 2000-12-01 2002-06-14 Canon Inc マルチ画面表示装置、データ放送受信装置、マルチ画面表示方法、記憶媒体およびプログラム
JP2006014004A (ja) * 2004-06-28 2006-01-12 Matsushita Electric Ind Co Ltd 2画面テレビ制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174007A (ja) * 1996-10-11 1998-06-26 Toshiba Corp マルチ機能テレビジョン装置
US5990972A (en) * 1996-10-22 1999-11-23 Lucent Technologies, Inc. System and method for displaying a video menu
KR100237646B1 (ko) * 1997-04-14 2000-01-15 구자홍 인터넷 기능 티브이의 두화면 동시 표시 방법
US6766528B1 (en) * 1999-01-27 2004-07-20 Lg Electronics Inc. Apparatus and method for displaying additional information
US6938270B2 (en) * 1999-04-07 2005-08-30 Microsoft Corporation Communicating scripts in a data service channel of a video signal
JP2001169199A (ja) 1999-12-08 2001-06-22 Nec Corp 字幕補正回路及びその字幕補正方法
JP4287621B2 (ja) * 2001-06-11 2009-07-01 パナソニック株式会社 テレビジョン受信機およびこれに対する情報提供方法
JP2006279592A (ja) * 2005-03-29 2006-10-12 Toshiba Corp 放送受信機
US20090109337A1 (en) * 2006-03-27 2009-04-30 Pioneer Corporation Video display apparatus and video display method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07222072A (ja) * 1994-02-07 1995-08-18 Toshiba Corp 映像表示装置
JPH07236100A (ja) * 1994-02-22 1995-09-05 Victor Co Of Japan Ltd ディスプレイ装置
JPH08317301A (ja) 1995-05-22 1996-11-29 Hitachi Ltd 映像出力装置
JPH10234016A (ja) * 1997-02-21 1998-09-02 Hitachi Ltd 映像信号処理装置及びそれを備えた映像表示装置及び記録再生装置
JP2002171457A (ja) 2000-12-01 2002-06-14 Canon Inc マルチ画面表示装置、データ放送受信装置、マルチ画面表示方法、記憶媒体およびプログラム
JP2006014004A (ja) * 2004-06-28 2006-01-12 Matsushita Electric Ind Co Ltd 2画面テレビ制御方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034037A (ja) * 2010-07-28 2012-02-16 Toshiba Corp 映像信号処理装置及び映像信号処理方法
JP2013542649A (ja) * 2010-09-20 2013-11-21 クゥアルコム・インコーポレイテッド 仮想ビデオ・キャプチャ・デバイス
JP2012070378A (ja) * 2010-09-22 2012-04-05 Thomson Licensing パノラマシーン内でのナビゲーション方法
US9232257B2 (en) 2010-09-22 2016-01-05 Thomson Licensing Method for navigation in a panoramic scene
JP2012098621A (ja) * 2010-11-04 2012-05-24 Canon Inc 表示装置及びその制御方法、情報処理装置及びその制御方法、画像表示システム、プログラム、並びに記憶媒体
JP2013166400A (ja) * 2012-02-14 2013-08-29 Calsonic Kansei Corp 車両用表示制御装置
JP2016001787A (ja) * 2014-06-11 2016-01-07 日立マクセル株式会社 情報表示装置および情報表示方法
JPWO2017057196A1 (ja) * 2015-09-29 2018-07-05 シャープ株式会社 表示装置、テレビジョン受像機、プログラム及び記録媒体
JP2018102898A (ja) * 2016-07-22 2018-07-05 ジョセフ プローグマンJoseph Ploegman 野球のバッターカウントを表示するためのシステムおよび方法
JP2018056946A (ja) * 2016-09-30 2018-04-05 株式会社東芝 デコーダ装置、リモコン端末および画面操作方法
WO2020203428A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 医療用画像伝送システム、医療用画像処理装置及び医療用画像伝送方法
US11818464B2 (en) 2019-03-29 2023-11-14 Sony Group Corporation Medical image transmission system, medical image processing apparatus, and medical image transmission method

Also Published As

Publication number Publication date
US20100265401A1 (en) 2010-10-21
JP5372916B2 (ja) 2013-12-18
US8724027B2 (en) 2014-05-13
EP2334063A1 (en) 2011-06-15
CN101897178A (zh) 2010-11-24
CN101897178B (zh) 2014-09-24
US8482672B2 (en) 2013-07-09
US20130321703A1 (en) 2013-12-05
JPWO2010041457A1 (ja) 2012-03-08

Similar Documents

Publication Publication Date Title
WO2010041457A1 (ja) 映像出力装置及び映像出力方法
KR100519144B1 (ko) 한쪽방향으로방송되는방대한수의영상정보중,조작자가시청을희망한것을캐시를이용하여보다고속으로표시시킬수있는단말장치,당해단말장치에서이용되는재생방법,기록매체
US8756631B2 (en) Method and apparatus for display of a digital video signal having minor channels
JP4672856B2 (ja) マルチ画面表示装置及びマルチ画面表示方法
JP4956216B2 (ja) デジタル放送番組表示装置およびデジタル放送番組表示プログラム
US20020196367A1 (en) Display control apparatus and method, and recording medium and program therefor
US20150036050A1 (en) Television control apparatus and associated method
US20060170824A1 (en) User interface feature for modifying a display area
EP1359750B1 (en) Television receiver and method for providing information to the same
JP2000152112A (ja) 番組情報表示装置及び番組情報表示方法
JP4192476B2 (ja) 映像変換装置及び映像変換方法
US20100251294A1 (en) Moving image processor and moving image processing method
CN100414976C (zh) 字幕处理装置
KR20100059639A (ko) 위젯 디스플레이 방법 및 이를 적용한 방송수신장치
JP2005080020A (ja) 携帯型情報機器
US20120124626A1 (en) Program information display device, display method, and program
JP5341820B2 (ja) 受信装置及び表示方法
JP2002300492A (ja) 放送受信装置及び番組表示方法
JP2005084157A (ja) 文字認識装置及び方法、文字強調方法、表示装置及び携帯機器
JP4208033B2 (ja) 受信装置
JP2006050507A (ja) ディジタル放送内容表示装置およびその表示方法
JP2006033253A (ja) デジタルtv受信装置、デジタルtv受信方法、及びデジタルtv受信プログラム
JP2004221751A (ja) 画像信号処理装置
JP2006293153A (ja) 映像表示装置
JP3758172B2 (ja) チューナ装置、テレビ受信機及びテレビ受信システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980101324.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2010511414

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09818997

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12747019

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2009818997

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE