WO2014102990A1 - 表示装置、及び表示方法 - Google Patents

表示装置、及び表示方法 Download PDF

Info

Publication number
WO2014102990A1
WO2014102990A1 PCT/JP2012/083995 JP2012083995W WO2014102990A1 WO 2014102990 A1 WO2014102990 A1 WO 2014102990A1 JP 2012083995 W JP2012083995 W JP 2012083995W WO 2014102990 A1 WO2014102990 A1 WO 2014102990A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
input
resolution
display
Prior art date
Application number
PCT/JP2012/083995
Other languages
English (en)
French (fr)
Inventor
勇 釼持
智久 請川
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to PCT/JP2012/083995 priority Critical patent/WO2014102990A1/ja
Priority to JP2014525821A priority patent/JP6025222B2/ja
Priority to PCT/JP2013/069282 priority patent/WO2014013979A1/ja
Priority to US14/414,665 priority patent/US9497405B2/en
Priority to CN201380037653.0A priority patent/CN104471950B/zh
Publication of WO2014102990A1 publication Critical patent/WO2014102990A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440254Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering signal-to-noise parameters, e.g. requantization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0485Centering horizontally or vertically

Definitions

  • the present invention relates to a display device and a display method.
  • a display device that displays two images.
  • the two input images are displayed in a superimposed manner or displayed side by side without being superimposed.
  • a personal computer screen image and a reduced television screen image are displayed side by side in the longitudinal direction of the screen.
  • display devices having an aspect ratio larger than 16: 9 have been used.
  • Such a display device can display horizontally long movie content on the entire screen and is suitable for applications in which two images are displayed side by side.
  • Patent Document 1 when two screens are displayed side by side in the longitudinal direction, there is a problem in that the amount of image information is lost or the image quality deteriorates because the input image is displayed in a reduced size. .
  • One embodiment of the present invention has been made in view of the above-described problems, and a display device that displays a plurality of images side by side while reducing a lack of information amount of an image in a display region or deterioration in image quality, and a display It aims to provide a method.
  • a display device includes a plurality of input units to which each video signal is input, a selection unit, and a processing unit, and the selection unit includes the plurality of units. And selecting one of the plurality of selected input units as a priority input unit, and the processing unit is a video signal input to the priority input unit. Display the first image included in the display unit without changing the resolution, change the resolution of the second image included in the video signal input to the other input unit selected by the selection unit, The image after the change is displayed in the remaining area where the first image is displayed on the display unit.
  • a display method can be achieved without changing the resolution of the first image included in the video signal input to the one input unit specified based on the detection value.
  • a procedure for displaying on the display unit, a procedure for changing the resolution of the second image included in the video signal input to the other input unit, and the remaining area for displaying the first image on the display unit And a processing procedure for displaying the image after the change.
  • a display method includes a selection procedure for selecting at least one input unit from among a plurality of input units to which each video signal is input, and the selection procedure.
  • the present invention it is possible to display a plurality of images side by side with a reduced amount of information in an image in the display area or a reduction in image quality.
  • FIG. 1 is a block diagram of a schematic configuration of a display device according to a first embodiment. It is a figure explaining an example of the input image and display image which concern on 1st Embodiment. It is a block diagram of schematic structure of the display device concerning a 2nd embodiment. It is a figure explaining the other example of the display image which concerns on 2nd Embodiment. It is a flowchart of the process which the display apparatus which concerns on 2nd Embodiment performs. It is a block diagram of schematic structure of a display device concerning this embodiment concerning a 3rd embodiment. It is a figure explaining the effective area
  • FIG. 1 is a block diagram of a schematic configuration of a display device 1 according to the present embodiment.
  • the display device 1 includes n (n is an integer of 2 or more) first input units 11-1 to 11-n, a selection unit 12, and a processing unit 13.
  • a detection unit 14 is connected to the selection unit 12.
  • a display unit 15 is connected to the processing unit 13.
  • the first input unit 11-1 outputs the input first video signal s1 to the selection unit 12.
  • the nth input unit 11-n outputs the input nth video signal sn to the selection unit 12.
  • the first input unit 11-1 to the nth input unit 11-n include, for example, a video input terminal.
  • the first input unit 11-1 to the nth input unit 11-n convert the analog signal into a digital signal when the input video signal is an analog signal, and output the converted video signal to the selection unit 12. It may be.
  • the selection unit 12 selects at least one input unit from the first input unit 11-1 to the nth input unit 11-n based on the detection signal detected by the detection unit 14.
  • the detection unit 14 detects the selection of the input unit desired by the user or the designation of the priority input unit by operating a button switch or a remote control of the display device main body and displaying an OSD (On Screen Display).
  • OSD On Screen Display
  • the selection unit 12 gives priority to the video signal input to the priority input unit designated by the user based on the detection result of the detection unit 14, and the video signal input to the other input unit
  • the change information indicating that the resolution of the image included in is changed is generated.
  • the selection unit 12 outputs the generated change information and the input video signals s1 to sn to the processing unit 13.
  • the processing unit 13 Based on the change information input from the selection unit 12, the processing unit 13 does not change the resolution of the first image included in the video signal input to the priority input unit among the video signals s1 to sn.
  • the processing unit 13 displays the first image at a predetermined position on the display unit 15.
  • the predetermined position is a position where the left side of the first image is moved to the left side of the display unit 15 or the right side of the first image is moved to the right side of the display unit 15. It is the position.
  • the predetermined position refers to a position where the upper side of the first image is moved to the upper side of the display unit 15 or the lower side of the first image is moved to the lower side of the display unit 15 when the display unit 15 has a vertically long shape.
  • the processing unit 13 changes the resolution of the second image included in the video signal input to other than the priority input unit among the video signals s1 to sn based on the change information input from the selection unit 12. The changed image is displayed in the remaining area of the display unit 15.
  • changing the resolution of the image means, for example, enlarging the image, reducing the image, or extracting a part of the image.
  • FIG. 2 is a diagram illustrating an example of the input images p1 and p2 and the display image p3 according to the present embodiment.
  • the input image is an image included in the video signal s1 input to the first input unit 11-1 and an image included in the video signal s2 input to the second input unit 11-2.
  • the display image is an image included in the video signal output from the processing unit 13.
  • the user designates the first input unit 11-1 as the priority input unit.
  • the input image p1 is displayed at a position on the left side of the display image p3 on the display unit 15, and the input image p2 is displayed at a position on the right side of the display image p3 on the display unit 15.
  • the display image p3 shown in the lower part of FIG. 2 has r3 pixels in the horizontal direction and r2 pixels in the vertical direction.
  • the display image p3 includes an input image p1 and an image p2 'in which the resolution of the input image p2 is changed.
  • the selection unit 12 sets the first input unit 11-1 as a priority input unit based on the detection value detected by the detection unit 14.
  • the selection unit 12 generates change information indicating that the resolution of the input image p2 is changed without changing the resolution of the input image p1.
  • the selection unit 12 outputs the generated change information and the input video signals s1 and s2 to the processing unit 13.
  • the processing unit 13 does not change the resolution of the input image p1 based on the change information input from the selection unit 12, but displays it at the left position on the display unit 15 as shown in the lower part of FIG.
  • the processing unit 13 changes the resolution of the input image p2 based on the change information input from the selection unit 12, and displays it in the remaining area on the display unit 15 as shown in the lower part of FIG. To do.
  • the processing unit 13 reduces the horizontal direction of the input image p2 from r1 pixels to r4 pixels, and reduces the vertical direction from r2 pixels to r5 pixels. Note that r4 is a value smaller than r1, and r5 is a value smaller than r2.
  • the priority input unit can be replaced by an instruction from the detection unit 14 by a user operation.
  • the first input unit 11-1 is designated as the priority input unit.
  • the second input unit 11-2 can be switched to the priority input unit according to the user's request.
  • the signal input to the priority input unit is the video signal s2
  • the input image p2 is displayed on the right side of the display unit without changing the resolution
  • the input image p1 based on the video signal s1 from the other input unit. Reduces the resolution and displays it on the left.
  • the display device includes a plurality of input units to which each video signal is input, a selection unit, and a processing unit, and the selection unit includes a plurality of selection units among the plurality of input units. And selecting one of the selected input units as a priority input unit, and the processing unit determines the resolution of the first image included in the video signal input to the priority input unit. Displayed on the display unit without change, changed the resolution of the second image included in the video signal input to the other input unit selected by the selection unit, and displayed the first image on the display unit The image after changing to the remaining area is displayed.
  • the display device 1 according to the present embodiment has one of the selected input units among the plurality of first input units 11-1 to 11-n designated as the priority input unit. Priority is given to the video signal input to the input unit.
  • the display device 1 according to the present embodiment displays the image on the display unit 15 without changing the resolution of the image included in the video signal input to the priority input unit.
  • the display device 1 according to the present embodiment changes and displays the image included in the video signal input to the other input unit in the remaining display area of the display unit 15.
  • the display device 1 according to the present embodiment changes the image based on the video signal input to the other input unit without changing the resolution of the image included in the video signal input to the priority input unit. To do.
  • the display device 1 according to the present embodiment can display a plurality of images side by side by reducing the lack of information amount of the image in the display area.
  • the processing unit 13 enlarges the input image p2 and displays the enlarged image in the remaining area. Also good.
  • FIG. 3 is a block diagram of a schematic configuration of the display device 1A according to the present embodiment.
  • the display device 1A includes a first input unit 11-1, a second input unit 11-2, a selection unit 12A, a processing unit 13A, a detection unit 14, a display unit 15, and a storage unit 16.
  • the selection unit 12A includes a first pixel number detection unit 121, a second pixel number detection unit 122, and a switching unit 123.
  • the processing unit 13A includes a control unit 131, an adjustment unit 132, and an image composition unit 133. Note that functional units having the same functions as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the selection unit 12A will be described.
  • the first pixel number detection unit 121 detects the number of pixels of the image included in the first video signal s1 input from the first input unit 11-1, and processes information indicating the detected number of pixels as video information s3.
  • the second pixel number detection unit 122 detects the number of pixels of the image included in the second video signal s2 input from the second input unit 11-2, and controls information indicating the detected pixel number as video information s4. To the unit 131.
  • the switching unit 123 includes a first video signal s1 output from the first input unit 11-1, a second video signal s2 output from the second input unit 11-2, and a selection signal s5 output from the control unit 131.
  • the selection signal s5 is a signal based on the priority with respect to the first input unit 11-1 or the second input unit 11-2 inputted based on the user operation detected by the detection unit.
  • the switching unit 123 selects the first input unit 11-1 or the second input unit 11-2 according to the selection signal s5.
  • the switching unit 123 outputs the video signal (referred to as video signal s6) input to the selected input unit to the image synthesis unit 133 of the processing unit 13A.
  • the switching unit 123 outputs the video signal (referred to as the video signal s7) input to the unselected input unit to the adjustment unit 132 of the processing unit 13A.
  • the control unit 131 generates the selection signal s5 in accordance with the user operation detected by the detection unit 14, and outputs the generated selection signal s5 to the switching unit 123.
  • the control unit 131 converts the first video signal s1 input to the first input unit 11-1 into the image synthesis unit 133.
  • a selection signal s5 indicating that the second video signal s2 input to the other second input unit 11-2 is output to the adjustment unit 132 is generated.
  • the control unit 131 performs image synthesis on the second video signal s2 input to the second input unit 11-2.
  • a selection signal s5 indicating that the first video signal s1 output to the unit 133 and the first video signal s1 input to the other first input unit 11-1 is output to the adjustment unit 132 is generated.
  • the control unit 131 generates the change information s8 for the video signal based on the video information s3 input from the selection unit 12A, the video information s4, and the user operation detected by the detection unit 14, and adjusts the generated change information s8. Output to the unit 132.
  • the change information s8 is information indicating a reduction ratio for reducing the resolution of an image included in the video signal s7 input to the adjustment unit 132, or information indicating an enlargement ratio for enlargement.
  • the control unit 131 includes each of the first video signal s1 and the second video signal s2 based on the video information s3 input from the selection unit 12A, the video information s4, and the user operation detected by the detection unit 14.
  • the arrangement information s10 for each image to be generated is generated.
  • the control unit 131 outputs the generated arrangement information s10 to the image composition unit 133.
  • the control unit 131 causes the storage unit 16 to store the video information s3, the video information s4, the change information s8, and the position information s10.
  • the storage unit 16 stores video information s3, video information s4, change information s8, and position information s10.
  • the adjustment unit 132 Based on the change information s8 input from the control unit 131, the adjustment unit 132 changes the resolution of the image included in the video signal s7 input from the selection unit 12A, and outputs the video signal s9 including the image whose resolution has been changed.
  • the image is output to the image composition unit 133.
  • the image composition unit 133 displays the image included in the video signal s6 input from the selection unit 12A and the image included in the video signal s9 input from the adjustment unit 132 according to the arrangement information s10 input from the control unit 131. To synthesize.
  • the image composition unit 133 displays the synthesized image on the display unit 15.
  • the resolutions of the input images p1 and p2 are equal.
  • the resolution (horizontal direction r1 pixel ⁇ vertical direction r2 pixel) of the input images p1 and p2 is, for example, 1920 pixels ⁇ 1080 pixels.
  • the resolution (horizontal direction r3 pixels ⁇ vertical direction r2 pixels) of the display image p3 displayed on the display unit 15 is, for example, 2560 pixels ⁇ 1080 pixels.
  • the processing unit 13A arranges the resolution (1920 pixels ⁇ 1080 pixels) of the input image p1 at a position on the left side of the image p3 and displays the resolution on the display unit 15.
  • the processing unit 13A reduces the resolution of the input image p2 to, for example, 640 pixels ⁇ 360 pixels (lateral r4 pixels ⁇ vertical r5 pixels).
  • the processing unit 13A arranges the reduced image p2 'in the remaining area of the image p3 and displays it on the display unit 15.
  • FIG. 4 is a diagram illustrating another example of the display image p3 according to the present embodiment.
  • the example shown in FIG. 4 is a case where priority is given to the display image p2 included in the video signal s2 input to the second input unit 11-2 by the user.
  • the resolutions of the two input images p1 and p2 are the same as those of the input images p1 and p2 shown in the upper part of FIG. Further, the resolution (horizontal direction r3 pixels ⁇ vertical direction r2 pixels) of the display image p3 displayed on the display unit 15 is the same resolution as the lower part of FIG. 2, for example, 2560 pixels ⁇ 1080 pixels.
  • the processing unit 13A when giving priority to the input image p2 included in the video signal s2 input to the second input unit 11-2, the processing unit 13A displays the display image without changing the resolution of the input image p2. It arrange
  • FIG. 5 is a flowchart of processing performed by the display device 1A according to the present embodiment.
  • the control unit 131 detects whether the first input unit 11-1 is prioritized or the second input unit 11-2 is prioritized based on the detection value detected by the detection unit 14. After step S1, the control unit 131 advances the process to step S2.
  • Step S2 The first pixel number detection unit 121 detects the number of pixels of the image included in the video signal s1 input from the first input unit 11-1, and controls the video information s3 indicating the detected number of pixels. It outputs to 131.
  • the second pixel number detection unit 122 detects the number of pixels of the image included in the video signal s2 input from the second input unit 11-2, and uses the video information s4 indicating the detected number of pixels as the control unit 131. Output to.
  • the control unit 131 advances the process to step S3.
  • Step S ⁇ b> 3 The switching unit 123 selects the video signal input to the input unit having priority according to the selection signal s ⁇ b> 5 input from the control unit 131, and outputs the selected video signal to the image composition unit 133. Next, the switching unit 123 outputs the video signal input to the other input unit to the adjustment unit 132 in accordance with the selection signal s5 input from the control unit 131.
  • step S4 ends, the control unit 131 advances the process to step S4.
  • Step S ⁇ b> 4 The control unit 131 generates change information s ⁇ b> 8 for the video signal based on the video information s ⁇ b> 3, the video information s ⁇ b> 4, and the user operation detected by the detection unit 14. Output. The process of step S4 will be described later. After step S4 ends, the control unit 131 advances the process to step S5.
  • Step S5 The adjustment unit 132 changes the resolution of the image included in the video signal s7 input from the switching unit 123 based on the change information s8 input from the control unit 131.
  • the adjustment unit 132 outputs the video signal s9 including the changed image to the image composition unit 133.
  • Step S6 The image composition unit 133 arranges the image included in the video signal s6 at a predetermined position on the display unit 15 in accordance with the arrangement information s10 input from the control unit 131.
  • the image composition unit 133 arranges the image included in the video signal s9 after the resolution change in the remaining area of the display image p3 according to the arrangement information s10 input from the control unit 131.
  • the predetermined position is, for example, when the shape of the display unit 15 is horizontally long and priority is given to the first input unit 11-1, as shown in the lower part of FIG. This is the position where the left side of the image is aligned with the left side of the display unit 15.
  • the predetermined position is, for example, when the shape of the display unit 15 is horizontally long and priority is given to the second input unit 11-2, as shown in FIG. Is a position aligned with the right side of the display unit 15. Above, the process in an image display is complete
  • the priority input unit is the first input unit 11-1.
  • the resolution of the display unit 15 is assumed to be 2560 pixels in the horizontal direction and 1080 pixels in the vertical direction. Further, it is assumed that the resolution of the input image p1 included in the first video signal s1 and the input image p2 included in the second video signal s2 is 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction.
  • the processing unit calculates the resolution of the second image based on the resolution of the first image and the resolution of the display unit, and according to the calculated resolution.
  • the resolution of the second image is changed, and the changed image is displayed in the remaining area.
  • the processing unit changes the resolution of the second image without changing the aspect ratio.
  • the display device 1A according to the present embodiment gives priority to the input unit selected by the user.
  • the display device 1A according to the present embodiment displays the image on the display unit 15 without changing the resolution of the image included in the video signal input to the priority input unit.
  • the display device 1A according to the present embodiment reduces or enlarges the image without changing the aspect ratio of the image included in the video signal input to the other unselected input unit.
  • the display device 1A according to the present embodiment displays the reduced or enlarged image in the remaining display area of the display unit 15. Accordingly, the display device 1A according to the present embodiment does not change the resolution of the image included in the video signal input to the selected input unit. Can be displayed side by side.
  • the priority input unit may be determined in advance, for example, so as to give priority to the first input unit 11-1.
  • the display device 1A includes the first input unit 11-1 and the second input unit 11-2 has been described.
  • the present invention is not limited to this.
  • the control unit 131 does not change the resolution of the image included in the video signal input from the selected priority input unit. Then, the control unit 131 may change the resolution of an image included in the video signal input from another input unit that is not selected.
  • the control unit 131 When there are three or more input units, the user may select two priority input units. In this case, the control unit 131 does not change the resolution of each image included in the two video signals input from the selected two priority input units. Then, the control unit 131 may change the resolution of the image included in the video signal input from the remaining input units. Further, a case will be described in which there are three input units, and for example, the second input unit 11-2 is selected as an input unit that has priority over only one. The control unit 131 may arrange the image included in the second video signal s2 input from the second input unit 11-2 at the middle position of the display unit 15. Then, the control unit 131 performs control so as to change and display the resolution of the image included in the video signal input from the remaining input unit in the left and right areas where the image included in the second video signal s2 is arranged. May be.
  • the processing unit 13A prioritizes the selected input unit, changes the resolution of the image included in the video signal input to the priority input unit, and is included in the video signal input to the other unselected input unit.
  • the resolution of the image may not be changed.
  • the processing unit 13A displays the resolution of the image included in the video signal input to the selected input unit in the remaining area where the image included in the video signal input to the other input unit not selected is displayed. May be changed and displayed.
  • the resolution of an image included in a video signal input from an unselected input unit is not changed without changing the resolution of the image included in the video signal input to the input unit selected by the user.
  • An example of changing is described.
  • an effective area of an image included in a video signal input from another input unit that is not selected is extracted.
  • the extracted image of the effective area is displayed on the display unit side by side with the image included in the video signal input to the input unit selected by the user.
  • the effective area is an area having effective information as an example.
  • the effective area is an area other than a predetermined color area.
  • an area that does not have an effective area is referred to as an invalid area.
  • FIG. 6 is a block diagram of a schematic configuration of the display device 1B according to the present embodiment.
  • the display device 1B includes a first input unit 11-1, a second input unit 11-2, a selection unit 12B, a processing unit 13B, a detection unit 14, a display unit 15, and a storage unit 16.
  • the selection unit 12B includes a first pixel number detection unit 121, a second pixel number detection unit 122, and a switching unit 123B.
  • the processing unit 13B includes a control unit 131B, an adjustment unit 132B, an image composition unit 133, and an image start point detection unit 134.
  • the switching unit 123B of the selection unit 12B selects the first input unit 11-1 or the second input unit 11-2 according to the selection signal s5.
  • the switching unit 123B outputs the video signal (referred to as video signal s6) input to the selected input unit to the image synthesis unit 133 of the processing unit 13B.
  • the switching unit 123 outputs the video signal (referred to as the video signal s7) input to the unselected input unit to the image start point detection unit 134 of the processing unit 13B.
  • the control unit 131B of the processing unit 13B generates the selection signal s5 according to the user operation detected by the detection unit 14, and outputs the generated selection signal s5 to the switching unit 123B.
  • the control unit 131B sets the change information s8B based on the vertical video start point, horizontal video end point, vertical video start point, and horizontal video end point of the image included in the video information input from the image start point detection unit 134. Generate. The generation of the change information s8B will be described later.
  • the control unit 131B Based on the resolution information s13 indicating the resolution of the effective region input from the adjustment unit 132B, the control unit 131B can display the effective region image extracted by the adjustment unit 132B in the remaining region where the priority image is displayed. It is determined whether or not there is.
  • the control unit 131B calculates the display magnification according to the determined result, includes the calculated display magnification in the change information s8B, and outputs it to the adjustment unit 132B.
  • the control unit 131B Based on the video information s3, the video information s4, the effective area information s12, and the user operation detected by the detection unit 14, the control unit 131B extracts the image included in the video signal input to the priority input unit and the extracted image. Arrangement information s10B is generated for an image obtained by enlarging or reducing the image of the effective area. The control unit 131B outputs the generated arrangement information s10B to the image composition unit 133.
  • the control unit 131B causes the storage unit 16 to store the video information s3, the video information s4, the change information s8B, the effective area information s12, the resolution information s13, and the position information s10B.
  • the storage unit 16 stores video information s3, video information s4, change information s8B, effective area information s12, resolution information s13, and position information s10B.
  • the image start point detection unit 134 detects each start point of the effective area of the image included in the video signal s7 input from the switching unit 123B, and uses the information indicating each detected start point as the effective area information s12 as a control unit 131B. Output to.
  • each start point of the effective area included in the video signal s7 is, for example, four points of a horizontal video start point, a horizontal video end point, a vertical video start point, and a horizontal video end point.
  • the image start point detector 134 detects each start point of the effective area of the image using a known image recognition technique.
  • the image start point detection unit 134 outputs the video signal s7 input from the switching unit 123B to the adjustment unit 132B.
  • the adjustment unit 132B extracts an effective area from the image included in the video signal s7 input from the image start point detection unit 134 based on the change information s8B input from the control unit 131B. The extraction of the effective area will be described later.
  • the adjustment unit 132B performs an enlargement process or a reduction process on the image in the effective area of the image included in the extracted video signal according to the display magnification included in the change information s8B input from the control unit 131B.
  • the adjustment unit 132B outputs the video signal s9B including the image after the enlargement process or the reduction process to the image composition unit 133.
  • FIG. 7 is a diagram for explaining the effective area and the starting point of the effective information portion according to the present embodiment.
  • the image p11 illustrated in FIG. 7 is an example of an image included in a video signal output from a video reproduction device (not illustrated), for example.
  • this video reproduction device arranges the image p12 at the center of the image p11, for example.
  • the video recording / reproducing device generates an image p11 in which a black image region is added around the image p12 in accordance with the number of pixels that can be displayed on the display device 1B without changing the number of pixels of the image p12.
  • the video recording / reproducing device outputs a video signal including the generated image p11 to the display device 1B.
  • the effective area in the present embodiment is, for example, an image area other than a black image area in the image p11.
  • an image p12 is an image of an effective area in the image p11.
  • the invalid area is, for example, the image p13 of the black image area other than the image p12 in the image p11.
  • the video signal of the black image area may include a video signal having a signal level lower than a predetermined signal level.
  • the resolution (horizontal direction ⁇ vertical direction) of the image p11 is r11 pixels ⁇ r12 pixels.
  • the resolution (horizontal direction ⁇ vertical direction) of the image p12 is r13 pixels ⁇ r14 pixels.
  • Point a1 indicates a horizontal video start point
  • point a2 indicates a horizontal video end point
  • point a3 indicates a vertical video start point
  • point a4 indicates a horizontal video end point.
  • FIG. 8 is a flowchart of processing in image display according to the present embodiment.
  • FIG. 9 is a diagram illustrating an example of processing in image display according to the present embodiment.
  • the first input unit 11-1 is an example when the user has selected the input unit as a priority.
  • an image p101 is a combined image displayed on the display unit 15
  • an image p102 is an image included in the first video signal s1
  • an image p103 is converted to the second video signal s2. It is an included image.
  • the image p104 is an image of an effective area included in the second video signal s2
  • the image p105 is an image of an invalid area included in the second video signal s2.
  • the second video signal s2 is an image in which the area other than the image p104 is a black image area, as in FIG.
  • the resolution (horizontal direction ⁇ vertical direction) of the image p102 is r101 pixels ⁇ r102 pixels
  • the resolution of the image p103 is r111 pixels ⁇ r112 pixels
  • the resolution of the image p104 is r121 pixels ⁇ r122 pixels.
  • the resolution (horizontal direction ⁇ vertical direction) of the image p101 is w1 pixels ⁇ h pixels.
  • Step S101 The first pixel number detection unit 121 detects the number of pixels of the image p102 included in the first video signal s1.
  • the second pixel number detection unit 122 detects the number of pixels of the image p103 included in the second video signal s2.
  • the image start point detector 134 searches for the vertical video start point a3 in the image p103. For example, the image start point detection unit 134 searches for a vertical position where an image area that is not a black image area starts from the top to the bottom in the vertical direction.
  • the image start point detection unit 134 proceeds with the process to step S102 after step S101 ends.
  • Step S102 The image start point detector 134 searches for the vertical video end point a4 in the image p103. For example, the image start point detection unit 134 searches for a vertical position where an image region that is not a black image region starts from the bottom to the top in the vertical direction. The image start point detection unit 134 proceeds with the process to step S103 after step S102 ends.
  • Step S103 The control unit 131B determines the display range in the vertical direction between the vertical video start point a3 and the vertical video end point a4 found in steps S101 and S102. After step S103 ends, control unit 131B advances the process to step S104.
  • Step S104 The image start point detector 134 searches for the horizontal video start point a1 in the image p103. For example, the image start point detector 134 searches for a horizontal position where an image area that is not a black image area starts from the left to the right in the horizontal direction. The image start point detector 134 advances the process to step S105 after step S104 is completed.
  • Step S105 The image start point detector 134 searches for the horizontal video end point a2 in the image p103. For example, the image start point detection unit 134 searches for a horizontal position where an image area that is not a black image area starts from the right to the left in the horizontal direction. The image start point detector 134 advances the process to step S106 after step S105 is completed.
  • Step S106 The controller 131B determines a horizontal display range between the horizontal video start point a1 and the horizontal video end point a2 found in steps S104 and S105. After step S106 ends, control unit 131B advances the process to step S107.
  • Step S107 The control unit 131B generates information indicating each position and display range obtained in steps S101 to S106, and calculates the number of pixels of the image p104 based on the generated display range. Next, the control unit 131B generates change information s8B based on the calculated number of pixels, and outputs the generated change information s8B to the adjustment unit 132B. After step S107 ends, control unit 131B advances the process to step S108.
  • Step S108 The adjustment unit 132B extracts the image p104 from the image p103 based on the change information s8B input from the control unit 131B. Next, the adjustment unit 132B detects the resolution of the extracted image p104, and outputs resolution information s13 indicating the detected resolution to the control unit 131B.
  • the control unit 131B determines whether or not the number of pixels in the horizontal direction of the image p104 extracted by the adjustment unit 132B is within (w1-r101) pixels based on the resolution information s13 input from the adjustment unit 132B. To determine. If the control unit 131B determines that the number of pixels in the horizontal direction of the extracted image p104 is within (w1-r101) pixels, the display magnification (w1-r101) / r121 for enlarging the horizontal direction of the image p104 is determined. Is calculated. In this case, the control unit 131B determines the enlargement ratio in the horizontal direction and the vertical direction to be the same value in order to maintain the aspect ratio.
  • control unit 131B includes the calculated display magnification in the change information s8B and outputs it to the adjustment unit 132B. Note that when the r121 pixel is equal to the (w1-r101) pixel, the display magnification is 1.
  • control unit 131B determines that the number of pixels in the horizontal direction of the extracted image p104 is not less than (w1-r101) pixels, the display magnification r121 / (w1-r101) for reducing the horizontal direction of the image p104 Is calculated.
  • the control unit 131B includes the calculated display magnification in the change information s8B and outputs it to the adjustment unit 132B.
  • the adjustment unit 132B performs an enlargement process or a reduction process on the extracted image of the effective area according to the display magnification included in the change information s8B input from the control unit 131B. After step S108 ends, adjustment unit 132B advances the process to step S109.
  • the resolution (horizontal direction ⁇ vertical direction) of the image p101 is 2560 pixels ⁇ 1080 pixels
  • the resolution of the image p102 is 1920 pixels ⁇ 1080 pixels
  • the resolution of the image p103 is 1280 pixels ⁇ 720 pixels
  • the resolution of the image p104 in the effective area is 640 pixels ⁇ 480 pixels.
  • the first pixel number detection unit 121 detects the number of pixels 1920 ⁇ 1080 of the image p102.
  • the second pixel number detection unit 122 detects the number of pixels 1280 ⁇ 720 of the image p103.
  • the adjustment unit 132B extracts the image p104 from the image p103 based on the change information s8B input from the control unit 131B (step S107).
  • the adjustment unit 132B determines whether or not the 640 pixels in the horizontal direction of the image p104 is within 640 (2560-1920) pixels in the remaining area based on the resolution information s13 output from the control unit 131B. Since the 640 pixels in the horizontal direction of the image p104 are equal to the 640 pixels (2560-1920) in the remaining area, the adjustment unit 132B determines the display magnification for the image p104 to be 1, and does not perform the enlargement process or the reduction process. (Step S108).
  • the image composition unit 133 arranges the left end in the horizontal direction in the image p104 at the position of 1920 pixels that is the right end of the image p102, and arranges the center in the vertical direction at a position of 540 pixels that is half of the vertical direction in the image p101. (Step S109).
  • the display device 1B of the present embodiment uses the image p102 included in the video signal input to the selected input unit and the image p103 included in the video signal input to the unselected input unit.
  • the extracted effective area image p104 is displayed side by side in the longitudinal direction of the display unit 15.
  • step S108 before extracting the image p104 from the image p103, the control unit 131B determines whether the image p102 and the image p103 can be displayed side by side without overlapping the display unit 15. May be. In this case, for example, the control unit 131B arranges the image p102 and the image p103 so as not to overlap the display unit 15 based on the number of pixels detected by the first pixel number detection unit 121 and the second pixel number detection unit 122. It is determined whether or not display is possible. If it is determined that the images cannot be displayed side by side so as not to overlap, the control unit 131B may control the adjustment unit 132B to extract the image p104 in the effective area from the image p103.
  • the image p104 is reduced and displayed in the remaining area (w1-r101) ⁇ h of the display unit 15 in FIG. 9 to display all the images, the number of pixels of the image p104 ′ displayed on the display unit 15 is reduced. Is 640 ⁇ 360. For this reason, the image p104 ′ displayed on the display unit 15 lacks 75% of information because the image p103 is reduced to 25%.
  • the image p104 obtained by extracting the effective area from the image p103 is displayed in the remaining area (w1-r101) ⁇ h of the display unit 15. As a result, the image p104 displayed on the display unit 15 can reduce the lack of information compared to the case where the image p103 is simply reduced and displayed.
  • a user observes an image on the display unit 15 by extracting an image having the number of pixels that can be displayed in the remaining area (w1-r101) ⁇ h of the display unit 15 from the image p103. It is very time-consuming to do while.
  • the effective area is automatically extracted from the image p103, and the extracted image p104 is displayed on the display unit 15. As a result, the user's work efficiency is improved.
  • the example in which the image p102 is arranged at the left position of the display unit 15 and the image p104 is arranged in the remaining area on the right side of the display unit 15 has been described.
  • Such an arrangement may include, for example, information indicating a position to be arranged in the control signal s3 output from the control unit 131B according to a result of the user operating the detection unit 14.
  • the display unit 15 has a vertically long shape in which the vertical direction is the longitudinal direction and the horizontal direction is the short direction, for example, the image p102 is arranged on the upper side and the image p104 is displayed in the remaining area. May be.
  • the example in which the first input unit 11-1 is prioritized has been described.
  • the second input unit 11-2 is prioritized as in the first and second embodiments. It may be.
  • the display device 1 ⁇ / b> B may determine two images to be displayed on the display unit 15 based on a user operation result detected by the detection unit 14.
  • the display device 1B may display the images included in all input video signals side by side.
  • the display device 1 ⁇ / b> B may determine the priority order to be displayed on the display unit 15 based on the operation result of the user detected by the detection unit 14, for example.
  • the display device 1B displays an image included in the two video signals with high priority, and displays an image of the effective area extracted from the image included in the unselected video signal in the remaining area. May be.
  • the display device 1B may extract an image of an effective area from images included in two or more video signals from among the input video signals, and display the extracted images side by side.
  • the adjustment unit 132B is not limited to the enlargement / reduction process, and may perform, for example, a process of thinning out pixels, or may further extract a part of the image in the effective area according to the application.
  • control unit 131B calculates the number of pixels of the image p104 to be extracted
  • image start point detection unit 134 may calculate the number of pixels, for example.
  • the selection unit 12B and the processing unit 13B are separated
  • the selection unit 12B may include the processing unit 13B.
  • the invalid area may be an area of another color.
  • the image start point detection unit 134 determines the position of the signal level outside the range including the signal level corresponding to the predetermined blue as the image start point. Alternatively, it may be detected as an image end point. Alternatively, the image start point detector 134 may detect a position within a signal level range corresponding to a color other than a predetermined blue as an image start point or an image end point.
  • the image start point detection unit 134 detects a black image region or an image region of another color based on, for example, each value of RBG (red blue green). It may be. In such a case, each value of RBG (red blue green) corresponds to a signal level.
  • the area other than the effective area is not limited to a predetermined color area, and may be a predetermined pattern image such as a hash or a mesh.
  • the image start point detection unit 134 may extract an effective area from an image included in the video signal, and detect the position of each end of the extracted effective area as an image start point or an image end point. .
  • the center position in the vertical direction in the images p102 and p104 may be other than the center position in the vertical direction of the display unit 15.
  • the display device 1B may arrange the center position of the image p102 and the center position of the image p140 in the vertical direction at different positions.
  • the processing unit detects an effective area from the second image, extracts the effective area detected from the second image, and extracts the remaining area.
  • the effective area image obtained in this way is displayed.
  • the display device of one embodiment of the present embodiment can display a plurality of images side by side by reducing a lack of information amount of an image in the display area.
  • the processing unit detects an area in a range where the signal level of the image is determined in advance as an effective area.
  • the processing unit detects the start point and the end point of the effective area in the vertical direction of the second image, and starts the effective area in the horizontal direction of the second image. An effective area is detected by detecting a point and an end point.
  • the display device includes a pixel number detection unit that detects the number of pixels of the input image, and the processing unit uses the second number based on the number of pixels detected by the pixel number detection unit.
  • the display device can automatically detect the effective area. As a result, convenience for the user is improved.
  • the processing of each unit may be performed by recording on a recording medium, reading the program recorded on the recording medium into a computer system, and executing the program.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” is a portable medium such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD-ROM, or a USB (Universal Serial Bus) I / F (interface).
  • a storage device such as a USB memory or a hard disk built in a computer system.
  • the “computer-readable recording medium” includes a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or a client.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

表示装置は、各映像信号がそれぞれ入力される複数の入力部と、選択部と、処理部とを備え、選択部は、複数の入力部のうち、複数の入力部を選択するとともに、選択した複数の入力部のうち、1つの入力部を優先入力部とし、処理部は、優先入力部に入力された映像信号に含まれる第1の画像の解像度を変更せず表示部上に表示し、選択部により選択された他の入力部に入力された映像信号に含まれる第2の画像の解像度を変更し、表示部上の第1の画像を表示した残りの領域に変更した後の画像を表示する。

Description

表示装置、及び表示方法
 本発明は、表示装置、及び表示方法に関する。
 2つの画像を表示する表示装置がある。このような表示装置では、入力された2つの画像を重ねて表示、または重ねずに並べて表示する。
 例えば、特許文献1では、パソコン画面の画像と縮小したテレビ画面の画像を、画面の長手方向に並べて表示する。
 また近年では、アスペクト比が16:9よりも大きい表示装置が使用されている。このような表示装置では、横長の映画コンテンツを全画面に表示することができるほか、2つの画像を並べて表示する用途に適している。
特開2000-41201号公報
 しかしながら、特許文献1に記載の技術では、2画面を長手方向に並べて表示する場合、入力された画像を縮小して表示するため画像の情報量が欠落、または画質が劣化するという問題があった。
 本発明の一態様は、上記の問題点に鑑みてなされたものであって、表示領域の画像の情報量の欠落または画質の劣化を低減して複数の画像を並べて表示する表示装置、及び表示方法を提供することを目的としている。
 上記目的を達成するため、本発明の一態様に係る表示装置は、各映像信号がそれぞれ入力される複数の入力部と、選択部と、処理部と、を備え、前記選択部は、前記複数の入力部のうち、複数の入力部を選択するとともに、前記選択した複数の入力部のうち、1つの入力部を優先入力部とし、前記処理部は、前記優先入力部に入力された映像信号に含まれる第1の画像の解像度を変更せず表示部上に表示し、前記選択部により選択された他の入力部に入力された映像信号に含まれる第2の画像の解像度を変更し、前記表示部上の前記第1の画像を表示した残りの領域に前記変更した後の画像を表示する。
 上記目的を達成するため、本発明の一態様に係る表示方法は、検出値に基づいて指定される一の入力部に入力された映像信号に含まれる第1の画像の解像度を変更せずに表示部上に表示する手順と、他の入力部に入力された映像信号に含まれる第2の画像の解像度を変更する手順と、前記表示部上の前記第1の画像を表示した残りの領域に前記変更した後の画像を表示する処理手順と、を含む。
 上記目的を達成するため、本発明の一態様に係る表示方法は、各映像信号がそれぞれ入力される複数の入力部のうち、少なくとも1つの入力部を選択する選択手順と、前記選択手順により選択された入力部のうち、1つの入力部を優先入力部とする手順と、前記優先入力部に入力された映像信号に含まれる第1の画像の解像度を変更せず表示部上に表示する手順と、前記選択手順により選択され、前記優先入力部と異なる入力部に入力された映像信号に含まれる第2の画像の解像度を変更する手順と、前記表示部上の前記第1の画像を表示した残りの領域に前記変更した後の画像を表示する処理手順と、を含む。
 本発明の一態様によれば、表示領域の画像の情報量の欠落または画質の劣化を低減して複数の画像を並べて表示できる。
第1実施形態に係る表示装置の概略構成のブロック図である。 第1実施形態に係る入力画像と表示画像の一例を説明する図である。 第2実施形態に係る表示装置の概略構成のブロック図である。 第2実施形態に係る表示画像の他の例を説明する図である。 第2実施形態に係る表示装置が行う処理のフローチャートである。 第3実施形態に係る本実施形態に係る表示装置の概略構成のブロック図である。 第3実施形態に係る有効領域、及び有効な情報部分の開始点を説明する図である。 第3実施形態に係る画像表示における処理のフローチャートである。 第3実施形態に係る画像表示における処理の一例を説明する図である。
[第1実施形態]
 図1は、本実施形態に係る表示装置1の概略構成のブロック図である。図1に示すように表示装置1は、n(nは2以上の整数)個の第1入力部11-1~第n入力部11-n、選択部12、処理部13を備えている。選択部12には検出部14が接続されている。処理部13には、表示部15が接続されている。
 第1入力部11-1は、入力された第1の映像信号s1を選択部12に出力する。第n入力部11-nは、入力された第nの映像信号snを選択部12に出力する。第1入力部11-1~第n入力部11-nは、例えば映像入力端子を含む。また第1入力部11-1~第n入力部11-nは、入力された映像信号がアナログ信号の場合、アナログ信号をデジタル信号に変換し、変換した映像信号を選択部12に出力するようにしてもよい。
 選択部12は、検出部14が検出した検出信号に基づいて第1入力部11-1から第n入力部11-nのうち少なくとも1つの入力部を選択する。検出部14は、表示装置本体のボタンスイッチやリモコンを操作して、OSD(On Screen Display)表示等により、ユーザの希望する入力部の選択や優先入力部の指定を検出する。選択部12は、選択された入力部が1つのときは、当該選択された入力部の映像信号を処理部13に出力し、処理部13は、必要に応じて適宜映像信号を処理し、表示部15に出力する。選択部12は、選択された入力部が2つのとき、検出部14の検出結果により、ユーザが指定した優先入力部に入力された映像信号を優先し、他方の入力部に入力された映像信号に含まれる画像の解像度を変更することを示す変更情報を生成する。選択部12は、生成した変更情報、入力された映像信号s1~snを処理部13に出力する。
 処理部13は、選択部12から入力された変更情報に基づいて、映像信号s1~snのうち、優先入力部に入力される映像信号に含まれる第1の画像の解像度を変更しない。処理部13は、第1の画像を表示部15上の所定の位置に表示する。ここで所定の位置とは、表示部15が横長の形状の場合、第1の画像の左辺を表示部15の左辺に寄せた位置、または第1の画像の右辺を表示部15の右辺に寄せた位置である。あるいは所定の位置とは、表示部15が縦長の形状の場合、第1の画像の上辺を表示部15の上辺に寄せた位置、または第1の画像の下辺を表示部15の下辺に寄せた位置である。
 また、処理部13は、選択部12から入力された変更情報に基づいて、映像信号s1~snのうち、優先入力部以外に入力された映像信号に含まれる第2の画像の解像度を変更して、変更した後の画像を表示部15の残りの領域に表示する。ここで、画像の解像度の変更とは、例えば画像を拡大する、画像を縮小する、または画像の一部を抽出することである。
 例として、2つの映像信号s1、s2が入力された場合について説明する。
 図2は、本実施形態に係る入力画像p1、p2と表示画像p3の一例を説明する図である。ここで、入力画像とは、第1入力部11-1に入力される映像信号s1に含まれる画像、第2入力部11-2に入力される映像信号s2に含まれる画像である。表示画像とは、処理部13から出力される映像信号に含まれる画像である。図2に示した例では、ユーザにより第1入力部11-1を優先入力部とすることが指定されている場合である。また、入力画像p1は表示部15における表示画像p3の左側の位置に表示され、入力画像p2は表示部15における表示画像p3の右側の位置に表示されるとして説明する。
 図2の上段に示す入力画像p1およびp2は、横がr1画素、縦がr2画素である。図2の下段に示す表示画像p3は、横がr3画素、縦がr2画素である。表示画像p3には、入力画像p1と、入力画像p2の解像度を変更した画像p2’が含まれる。
 次に、入力画像p1を含む映像信号s1、およびp2を含む映像信号s2が入力されたときに表示装置1が行う処理の一例を説明する。
 まず、選択部12は、検出部14が検出した検出値に基づいて、第1入力部11-1を優先入力部とする。次に、選択部12は、入力画像p1の解像度を変更せず入力画像p2の解像度を変更することを示す変更情報を生成する。次に、選択部12は、生成した変更情報、入力された映像信号s1およびs2を処理部13に出力する。
 処理部13は、選択部12から入力された変更情報に基づいて、入力画像p1の解像度を変更せず、図2の下段に示したように表示部15上の左側の位置に表示する。次に、処理部13は、選択部12から入力された変更情報に基づいて、入力画像p2の解像度を変更して、図2の下段に示したように表示部15上の残りの領域に表示する。図2の下段に示した例では、処理部13は、入力画像p2の横方向をr1画素からr4画素に縮小し、縦方向をr2画素からr5画素に縮小する。なお、r4はr1より小さい値であり、r5はr2より小さい値である。
 なお、図2において、ユーザの操作による検出部14からの指示により、優先入力部を入れ替えることができる。図2の状態では、第1入力部11-1が優先入力部に指定されていたが、ユーザの希望により、第2入力部11-2を優先入力部に切り替えることができる。この場合、優先入力部に入力される信号は、映像信号s2となり、入力画像p2を表示部の右側に解像度を変更せずに表示し、他の入力部からの映像信号s1に基づく入力画像p1は、解像度を縮小して左側に表示する。
 以上のように、本実施形態に係る表示装置は、各映像信号がそれぞれ入力される複数の入力部と、選択部と、処理部とを備え、選択部は、複数の入力部のうち、複数の入力部を選択するとともに、選択した複数の入力部のうち、1つの入力部を優先入力部とし、処理部は、優先入力部に入力された映像信号に含まれる第1の画像の解像度を変更せず表示部上に表示し、選択部により選択された他の入力部に入力された映像信号に含まれる第2の画像の解像度を変更し、表示部上の第1の画像を表示した残りの領域に変更した後の画像を表示する。
 これにより、本実施形態に係る表示装置1は、複数の第1入力部11-1~第n入力部11-nのうちの選択された入力部のうち、優先入力部に指定された1つの入力部に入力された映像信号を優先する。そして、本実施形態に係る表示装置1は、優先入力部に入力された映像信号に含まれる画像の解像度を変更せずに表示部15に表示する。さらに、本実施形態に係る表示装置1は、他の入力部に入力された映像信号に含まれる画像を、表示部15の残った表示領域に変更して表示する。このように、本実施形態に係る表示装置1は、優先入力部に入力された映像信号に含まれる画像の解像度を変更せずに、他の入力部に入力された映像信号に基づく画像を変更する。
 この結果、本実施形態に係る表示装置1は、表示領域の画像の情報量の欠落を低減して複数の画像を並べて表示することができる。
 なお、図2に示した例では、入力画像p2を縮小して表示画像p3に表示する例を説明したが、これに限られない。入力画像p2の横方向のr1画素が残りの領域の横方向のr4画素より小さい場合、処理部13は入力画像p2を拡大して、拡大した後の画像を残りの領域に表示するようにしてもよい。
[第2実施形態]
 図3は、本実施形態に係る表示装置1Aの概略構成のブロック図である。図3に示すように、表示装置1Aは、第1入力部11-1、第2入力部11-2、選択部12A、処理部13A、検出部14、表示部15、および記憶部16を備えている。また、選択部12Aは、第1画素数検出部121、第2画素数検出部122、切替部123を備えている。処理部13Aは、制御部131、調整部132、画像合成部133を備えている。なお、第1実施形態と同じ機能を有する機能部は、同じ符号を用いて説明を省略する。
 まず、選択部12Aについて説明する。
 第1画素数検出部121は、第1入力部11-1から入力された第1の映像信号s1に含まれる画像の画素数を検出し、検出した画素数を示す情報を映像情報s3として処理部13Aの制御部131に出力する。
 第2画素数検出部122は、第2入力部11-2から入力された第2の映像信号s2に含まれる画像の画素数を検出し、検出した画素数を示す情報を映像情報s4として制御部131に出力する。
 切替部123には、第1入力部11-1が出力した第1の映像信号s1、第2入力部11-2が出力した第2の映像信号s2、制御部131が出力した選択信号s5が入力される。ここで、選択信号s5は、検出部14により検出されたユーザの操作に基づく入力された第1入力部11-1または第2入力部11-2に対する優先度に基づく信号である。
 切替部123は、選択信号s5に応じて、第1入力部11-1または第2入力部11-2を選択する。切替部123は、選択した入力部に入力された映像信号(映像信号s6という)を処理部13Aの画像合成部133に出力する。切替部123は、選択信号s5に応じて、選択されていない入力部に入力された映像信号(映像信号s7という)を処理部13Aの調整部132に出力する。
 次に、処理部13Aについて説明する。
 制御部131は、検出部14により検出されたユーザの操作に応じて選択信号s5を生成し、生成した選択信号s5を切替部123に出力する。
 ユーザが第1入力部11-1を優先することを選択したことが検出された場合、制御部131は、第1入力部11-1に入力された第1の映像信号s1を画像合成部133に出力し、他方の第2入力部11-2に入力された第2の映像信号s2を調整部132に出力することを示す選択信号s5を生成する。あるいは、ユーザが第2入力部11-2を優先することを選択したことが検出された場合、制御部131は、第2入力部11-2に入力された第2の映像信号s2を画像合成部133に出力し、他方の第1入力部11-1に入力された第1の映像信号s1を調整部132に出力することを示す選択信号s5を生成する。
 制御部131は、選択部12Aから入力された映像情報s3、映像情報s4および検出部14により検出されたユーザの操作に基づいて映像信号に対する変更情報s8を生成し、生成した変更情報s8を調整部132に出力する。ここで、変更情報s8とは、調整部132に入力された映像信号s7に含まれる画像の解像度を縮小する縮小率を示す情報、または拡大する拡大率を示す情報である。
 制御部131は、選択部12Aから入力された映像情報s3、映像情報s4および検出部14により検出されたユーザの操作に基づいて、第1の映像信号s1と第2の映像信号s2おのおのに含まれる各画像に対する配置情報s10を生成する。制御部131は、生成した配置情報s10を画像合成部133に出力する。
 制御部131は、映像情報s3、映像情報s4、変更情報s8、位置情報s10を記憶部16に記憶させる。
 記憶部16には、映像情報s3、映像情報s4、変更情報s8、位置情報s10が記憶されている。
 調整部132は、制御部131から入力された変更情報s8に基づいて、選択部12Aから入力された映像信号s7に含まれる画像の解像度を変更し、解像度を変更した画像を含む映像信号s9を画像合成部133に出力する。
 画像合成部133は、選択部12Aから入力された映像信号s6に含まれる画像と調整部132から入力された映像信号s9に含まれる画像とを、制御部131から入力された配置情報s10に応じて合成する。画像合成部133は、合成した画像を表示部15に表示する。
 例として、2つの映像信号s1、s2が入力された場合について図2~図5を用いて以下に説明する。
 図2に示した例において、入力画像p1およびp2の解像度は等しい。入力画像p1およびp2の解像度(横方向r1画素×縦方向r2画素)は、例えば1920画素×1080画素である。表示部15に表示される表示画像p3の解像度(横方向r3画素×縦方向r2画素)は、例えば2560画素×1080画素である。
 図2に示した例では、第1入力部11-1に入力された映像信号s1に含まれる入力画像p1を優先する。このため、処理部13Aは、入力画像p1の解像度(1920画素×1080画素)を変更されずに画像p3の左側の位置に配置して表示部15上に表示する。画像p3において、入力画像p1を表示した残りの領域は、横方向r4画素が640画素である。このため、処理部13Aは、入力画像p2の解像度を、例えば640画素×360画素(横方向r4画素×縦方向r5画素)に縮小する。処理部13Aは、縮小した画像p2’を画像p3の残りの領域に配置して表示部15上に表示する。
 図4は、本実施形態に係る表示画像p3の他の例を説明する図である。図4に示した例は、ユーザにより第2入力部11-2に入力される映像信号s2に含まれる表示画像p2を優先することが選択されている場合である。
 2つの入力画像p1およびp2の解像度は、図2の上段に示した入力画像p1およびp2と同じ解像度である。また、表示部15に表示される表示画像p3の解像度(横方向r3画素×縦方向r2画素)は、図2の下段と同じ解像度であり、例えば2560画素×1080画素である。
 図4に示したように、第2入力部11-2に入力される映像信号s2に含まれる入力画像p2を優先する場合、処理部13Aは、入力画像p2の解像度を変更せずに表示画像p3の右側の位置に配置する。画像p3において、入力画像p1を表示した残りの領域は、横方向r4画素が640画素である。このため、処理部13Aは、入力画像p1の解像度を、例えば640画素×360画素(横方向r4画素×縦方向r5画素)に縮小する。処理部13Aは、縮小した画像p1’を画像p3の残りの領域に配置して表示部15上に表示する。
 次に、入力画像p1およびp2に対応する映像信号s1およびs2が入力されたときに表示装置1Aが行う処理手順の一例を説明する。
 図5は、本実施形態に係る表示装置1Aが行う処理のフローチャートである。
(ステップS1)制御部131は、検出部14が検出した検出値に基づいて、第1入力部11-1を優先するのか、第2入力部11-2を優先するのかを検出する。ステップS1終了後、制御部131は処理をステップS2に進める。
(ステップS2)第1画素数検出部121は、第1入力部11-1から入力された映像信号s1に含まれる画像の画素数を検出し、検出した画素数を示す映像情報s3を制御部131に出力する。次に、第2画素数検出部122は、第2入力部11-2から入力された映像信号s2に含まれる画像の画素数を検出し、検出した画素数を示す映像情報s4を制御部131に出力する。ステップS2終了後、制御部131は処理をステップS3に進める。
(ステップS3)切替部123は、制御部131から入力された選択信号s5に応じて優先する入力部に入力された映像信号を選択し、選択した映像信号を画像合成部133に出力する。次に、切替部123は、制御部131から入力された選択信号s5に応じて、他の入力部に入力された映像信号を調整部132に出力する。ステップS3終了後、制御部131は処理をステップS4に進める。
(ステップS4)制御部131は、映像情報s3、映像情報s4および検出部14により検出されたユーザの操作に基づいて映像信号に対する変更情報s8を生成し、生成した変更情報s8を調整部132に出力する。ステップS4の処理については、後述する。ステップS4終了後、制御部131は処理をステップS5に進める。
(ステップS5)調整部132は、制御部131から入力された変更情報s8に基づいて、切替部123から入力された映像信号s7に含まれる画像の解像度を変更する。調整部132は、変更後の画像を含む映像信号s9を画像合成部133に出力する。
(ステップS6)画像合成部133は、制御部131から入力された配置情報s10に応じて、映像信号s6に含まれる画像を表示部15上の予め定められている位置に配置する。次に、画像合成部133は、制御部131から入力された配置情報s10に応じて、解像度変更後の映像信号s9に含まれる画像を表示画像p3の残りの領域に配置する。ここで、予め定められている位置とは、例えば表示部15の形状が横長であり、第1入力部11-1を優先することが選択されている場合、図2の下段に示したように画像の左辺が表示部15の左辺に合わされた位置である。あるいは、予め定められている位置とは、例えば表示部15の形状が横長であり、第2入力部11-2を優先することが選択されている場合、図4に示したように画像の右辺が表示部15の右辺に合わされた位置である。
 以上で、画像表示における処理を終了する。
 次に、制御部131が行う図5に示したステップS4の処理の一例を、図2、図3を用いて説明する。
 図2に示した例では、優先する入力部は、第1入力部11-1である。表示部15の解像度は、横が2560画素であり、縦が1080画素であるとする。また、第1の映像信号s1に含まれる入力画像p1および第2の映像信号s2に含まれる入力画像p2の解像度は、各々、横が1920画素であり、縦が1080画素であるとする。
 制御部131は、表示部15の横方向の解像度2560画素から、優先する第1入力部11-1に入力された入力画像p1の横方向の解像度1920画素を減算する。次に、制御部131は、減算して得られた画素数の差640画素を、画像p2’に対する横方向の画素数に決定する。次に、制御部131は、入力画像p2のアスペクト比を維持するために、横方向の縮小率に応じた縦の画素数360(=1080×(640/1920))を算出する。次に、制御部131は、算出した画素数360画素を、画像p2’に対する縦方向の画素数に決定する。制御部131は、このように横方向と縦方向の各画素数を変更情報s8として生成する。あるいは、制御部131は、縮小率(640/1920)を変更情報s8として生成するようにしてもよい。
 以上のように、本実施形態に係る表示装置において、処理部は、第1の画像の解像度と表示部の解像度とに基づいて、第2の画像の解像度を算出し、算出した解像度に応じて第2の画像の解像度を変更し、残りの領域に変更した後の画像を表示する。
 また、本実施形態に係る表示装置において、処理部は、アスペクト比を変えずに第2の画像の解像度を変更する。
 これにより、本実施形態に係る表示装置1Aは、ユーザにより選択された入力部を優先する。そして、本実施形態に係る表示装置1Aは、優先する入力部に入力された映像信号に含まれる画像の解像度を変更せずに表示部15に表示する。そして、本実施形態に係る表示装置1Aは、選択されていない他の入力部に入力された映像信号に含まれる画像のアスペクト比を変更せずに縮小または拡大する。そして、本実施形態に係る表示装置1Aは、縮小または拡大後の画像を表示部15の残った表示領域に表示する。
 従って、本実施形態に係る表示装置1Aは、選択された入力部に入力された映像信号に含まれる画像の解像度を変更しないため、表示領域の画像の情報量の欠落を低減して複数の画像を並べて表示することができる。
 なお、本実施形態では、優先する入力部をユーザが選択する例を説明したが、これに限られない。優先する入力部は、例えば第1入力部11-1を優先するように予め定められていてもよい。
 なお、本実施形態では、表示装置1Aが第1入力部11-1と第2入力部11-2の2つを備えている例を説明したが、これに限られない。入力部は、3つ以上であってもよい。例えば、表示装置1Aが3つの入力部を備えている場合、制御部131は、選択された優先する入力部から入力された映像信号に含まれる画像の解像度を変更しない。そして、制御部131は、選択されていない他の入力部から入力された映像信号に含まれる画像の解像度を変更するようにしてもよい。
 入力部が3つ以上ある場合、ユーザは優先する入力部を2つ選択するようにしてもよい。この場合、制御部131は、選択された優先する2つの入力部から入力された2つの映像信号に含まれる各画像の解像度を変更しない。そして、制御部131は、残りの入力部から入力された映像信号に含まれる画像の解像度を変更するようにしてもよい。
 また、3つの入力部があり、1つのみ優先する入力部として例えば第2入力部11-2が選択されている場合を説明する。制御部131は、第2入力部11-2から入力された第2の映像信号s2に含まれる画像を表示部15の真ん中の位置に配置するようにしてもよい。そして、制御部131は、第2の映像信号s2に含まれる画像を配置した左右の領域に、残りの入力部から入力された映像信号に含まれる画像の解像度を変更して表示するように制御してもよい。
 なお、本実施形態において、ユーザにより選択された入力部に入力された映像信号に含まれる画像の解像度を変更せず、選択されていない他の入力部入力された映像信号に含まれる画像の解像度を変更する例を説明したが、これに限られない。処理部13Aは、選択された入力部を優先し、優先する入力部に入力された映像信号に含まれる画像の解像度を変更し、選択されていない他の入力部入力された映像信号に含まれる画像の解像度を変更しないようにしてもよい。この場合、処理部13Aは、選択されていない他の入力部入力された映像信号に含まれる画像を表示した残りの領域に、選択された入力部に入力された映像信号に含まれる画像の解像度を変更して表示するようにしてもよい。
[第3実施形態]
 第2実施形態では、ユーザにより選択された入力部に入力された映像信号に含まれる画像の解像度を変更せず、選択されていない他の入力部から入力された映像信号に含まれる画像の解像度を変更する例を説明した。本実施形態では、選択されていない他の入力部から入力された映像信号に含まれる画像の有効領域を抽出する。そして、本実施形態では、抽出した有効領域の画像をユーザにより選択された入力部に入力された映像信号に含まれる画像と並べて表示部上に表示する。ここで、有効領域は、一例として、有効な情報を有する領域である。例えば、有効領域は、予め定められている色の領域以外の領域である。また、本実施形態では、有効領域を有していない領域を無効領域という。
 図6は、本実施形態に係る本実施形態に係る表示装置1Bの概略構成のブロック図である。第2実施形態と同じ機能を有する機能部には同じ符号を用いて、説明を省略する。
 図6に示すように、表示装置1Bは、第1入力部11-1、第2入力部11-2、選択部12B、処理部13B、検出部14、表示部15、および記憶部16を備えている。また、選択部12Bは、第1画素数検出部121、第2画素数検出部122、切替部123Bを備えている。処理部13Bは、制御部131B、調整部132B、画像合成部133、画像開始点検出部134を備えている。
 選択部12Bの切替部123Bは、選択信号s5に応じて、第1入力部11-1または第2入力部11-2を選択する。切替部123Bは、選択した入力部に入力された映像信号(映像信号s6という)を処理部13Bの画像合成部133に出力する。切替部123は、選択信号s5に応じて、選択されていない入力部に入力された映像信号(映像信号s7という)を処理部13Bの画像開始点検出部134に出力する。
 処理部13Bの制御部131Bは、検出部14により検出されたユーザの操作に応じて選択信号s5を生成し、生成した選択信号s5を切替部123Bに出力する。
 制御部131Bは、画像開始点検出部134から入力された映像情報に含まれる画像の垂直映像開始点、水平映像終了点、垂直映像開始点、及び水平映像終了点に基づいて、変更情報s8Bを生成する。なお、変更情報s8Bの生成については後述する。制御部131Bは、調整部132Bから入力された有効領域の解像度を示す解像度情報s13に基づいて、調整部132Bが抽出した有効領域の画像を、優先する画像を表示した残りの領域に表示可能であるか否かを判別する。制御部131Bは、判別した結果に応じて表示倍率を算出し、算出した表示倍率を変更情報s8Bに含めて調整部132Bに出力する。
 制御部131Bは、映像情報s3、映像情報s4、有効領域情報s12および検出部14により検出されたユーザの操作に基づいて、優先する入力部に入力された映像信号に含まれる画像と、抽出した有効領域の画像を拡大または縮小した画像とに対する配置情報s10Bを生成する。制御部131Bは、生成した配置情報s10Bを画像合成部133に出力する。
 制御部131Bは、映像情報s3、映像情報s4、変更情報s8B、有効領域情報s12、解像度情報s13、位置情報s10Bを記憶部16に記憶させる。
 記憶部16には、映像情報s3、映像情報s4、変更情報s8B、有効領域情報s12、解像度情報s13、位置情報s10Bが記憶されている。
 画像開始点検出部134は、切替部123Bから入力された映像信号s7に含まれる画像の有効領域の各開始点を検出し、検出した各開始点を示す情報を有効領域情報s12として制御部131Bに出力する。ここで、映像信号s7に含まれる有効領域の各開始点とは、例えば、水平映像開始点、水平映像終了点、垂直映像開始点、及び水平映像終了点の4点である。画像開始点検出部134は、画像の有効領域の各開始点を、公知の画像認識技術を用いて検出する。画像開始点検出部134は、切替部123Bから入力された映像信号s7を調整部132Bに出力する。
 調整部132Bは、制御部131Bから入力された変更情報s8Bに基づいて、画像開始点検出部134から入力された映像信号s7に含まれる画像から有効領域を抽出する。なお、有効領域の抽出については後述する。調整部132Bは、制御部131Bから入力された変更情報s8Bに含まれる表示倍率に応じて、抽出した映像信号に含まれる画像の有効領域の画像を拡大処理または縮小処理する。調整部132Bは、拡大処理後または縮小処理後の画像を含む映像信号s9Bを画像合成部133に出力する。
 図7は、本実施形態に係る有効領域、及び有効な情報部分の開始点を説明する図である。
 図7に示した画像p11は、例えば、不図示の映像再生装置が出力した映像信号に含まれる画像の例である。この映像再生装置は、画像p12を表示装置1Bに出力する際、例えば画像p12を画像p11の中心に配置する。次に、映像記録再生装置は、画像p12の画素数を変更せず、表示装置1Bの表示可能な画素数に合わせて、画像p12の周辺に黒色の画像領域を追加した画像p11を生成する。次に、映像記録再生装置は、生成した画像p11を含む映像信号を表示装置1Bに出力する。
 ここで、本実施形態における有効領域とは、例えば画像p11において黒色の画像領域以外の画像領域である。例えば図7において、画像p12は、画像p11における有効領域の画像である。また、本実施形態において、無効領域とは、例えば画像p11において、画像p12以外の黒色の画像領域の部分の画像p13である。なお、黒色の画像領域の映像信号は、映像信号が予め定められている信号レベルより低い信号レベルの映像信号を含むようにしてもよい。
 図7において、画像p11の解像度(横方向×縦方向)は、r11画素×r12画素である。また、画像p12の解像度(横方向×縦方向)は、r13画素×r14画素である。また、点a1は水平映像開始点を示し、点a2は水平映像終了点を示し、点a3は垂直映像開始点を示し、点a4は水平映像終了点を示す。
 次に、選択部12Bと処理部13Bとが行う画像表示における処理の一例を、図8と図9を用いて説明する。図8は、本実施形態に係る画像表示における処理のフローチャートである。図9は、本実施形態に係る画像表示における処理の一例を説明する図である。なお、図8、図9に示した例では、第1入力部11-1が、ユーザにより優先する入力部として選択された場合の例である。
 図9において、画像p101は、表示部15に表示される合成後の画像であり、画像p102は、第1の映像信号s1に含まれる画像であり、画像p103は、第2の映像信号s2に含まれる画像である。また、画像p104は、第2の映像信号s2に含まれる有効領域の画像であり、画像p105は、第2の映像信号s2に含まれる無効領域の画像である。
 また、点a1~点a4は、図7で説明した点と同様である。また、第2の映像信号s2は、図7と同様に、画像p104以外の領域が黒色の画像領域である画像である。また、図9において、画像p102の解像度(横方向×縦方向)は、r101画素×r102画素であり、画像p103の解像度は、r111画素×r112画素であり、画像p104の解像度は、r121画素×r122画素である。また、画像p101の解像度(横方向×縦方向)は、w1画素×h画素である。
(ステップS101)第1画素数検出部121は、第1の映像信号s1に含まれる画像p102の画素数を検出する。第2画素数検出部122は、第2の映像信号s2に含まれる画像p103の画素数を検出する。次に、画像開始点検出部134は、画像p103における垂直映像開始点a3を探す。例えば、画像開始点検出部134は、垂直方向に上から下の方向に向かって黒色の画像領域ではない画像領域が始まる垂直方向の位置を探す。画像開始点検出部134は、ステップS101が終了後、処理をステップS102に進める。
(ステップS102)画像開始点検出部134は、画像p103における垂直映像終了点a4を探す。例えば、画像開始点検出部134は、垂直方向に下から上の方向に向かって黒色の画像領域ではない画像領域が始まる垂直方向の位置を探す。画像開始点検出部134は、ステップS102が終了後、処理をステップS103に進める。
(ステップS103)制御部131Bは、ステップS101およびS102で探した垂直映像開始点a3から垂直映像終了点a4の間を、垂直方向の表示範囲に決定する。制御部131Bは、ステップS103が終了後、処理をステップS104に進める。
(ステップS104)画像開始点検出部134は、画像p103における水平映像開始点a1を探す。例えば、画像開始点検出部134は、水平方向に左から右の方向に向かって黒色の画像領域ではない画像領域が始まる水平方向の位置を探す。画像開始点検出部134は、ステップS104が終了後、処理をステップS105に進める。
(ステップS105)画像開始点検出部134は、画像p103における水平映像終了点a2を探す。例えば、画像開始点検出部134は、水平方向に右から左の方向に向かって黒色の画像領域ではない画像領域が始まる水平方向の位置を探す。画像開始点検出部134は、ステップS105が終了後、処理をステップS106に進める。
(ステップS106)制御部131Bは、ステップS104およびS105で探した水平映像開始点a1から水平映像終了点a2の間を、水平方向の表示範囲に決定する。制御部131Bは、ステップS106が終了後、処理をステップS107に進める。
(ステップS107)制御部131Bは、ステップS101~S106で求めた各位置と表示範囲を示す情報を生成し、生成した表示範囲に基づいて、画像p104の画素数を算出する。次に、制御部131Bは、算出した画素数に基づいて変更情報s8Bを生成し、生成した変更情報s8Bを調整部132Bに出力する。制御部131Bは、ステップS107が終了後、処理をステップS108に進める。
(ステップS108)調整部132Bは、制御部131Bから入力された変更情報s8Bに基づいて、画像p103から画像p104を抽出する。次に、調整部132Bは、抽出した画像p104の解像度を検出し、検出した解像度を示す解像度情報s13を制御部131Bに出力する。
 次に、制御部131Bは、調整部132Bが抽出した画像p104の横方向の画素数が、(w1-r101)画素以内であるか否かを、調整部132Bから入力された解像度情報s13に基づいて判別する。制御部131Bは、抽出した画像p104の横方向の画素数が、(w1-r101)画素以内であると判別した場合、画像p104の横方向を拡大する際の表示倍率(w1-r101)/r121を算出する。この場合、制御部131Bは、アスペクト比を保つため、横方向と縦方向の拡大率を同じ値に決定する。次に、制御部131Bは、算出した表示倍率を変更情報s8Bに含めて調整部132Bに出力する。なお、r121画素と(w1-r101)画素が等しい場合、表示倍率は1倍である。
 制御部131Bは、抽出した画像p104の横方向の画素数が、(w1-r101)画素以内ではないと判別した場合、画像p104の横方向を縮小する際の表示倍率r121/(w1-r101)を算出する。次に、制御部131Bは、算出した表示倍率を変更情報s8Bに含めて調整部132Bに出力する。
 次に、調整部132Bは、制御部131Bから入力された変更情報s8Bに含まれる表示倍率に応じて、抽出した有効領域の画像を拡大処理または縮小処理する。調整部132Bは、ステップS108が終了後、処理をステップS109に進める。
(ステップS109)画像合成部133は、制御部131Bから入力された配置信号s10Bに基づいて、画像p102を、画像p101における水平方向の左端w=0の位置に配置し、垂直方向の中心を画像p101における垂直方向の画素hの半分の位置に配置する。次に、画像合成部133は、制御部131Bからの配置信号s10Bに基づいて、画像p104を拡大または縮小した画像p104’における水平方向の左端をw=r101画素の位置に配置し、垂直方向の中心を画像p101における垂直方向の解像度h画素の半分の位置に配置する。
 以上で、画像表示における処理を終了する。
 以下に、ステップS101~S109における処理の一例を図8および図9を用いて説明する。以下の例において、画像p101の解像度(横方向×縦方向)は、2560画素×1080画素であり、画像p102の解像度は、1920画素×1080画素である。画像p103の解像度は、1280画素×720画素であり、有効領域の画像p104の解像度は、640画素×480画素である。
 第1画素数検出部121は、画像p102の画素数1920×1080を検出する。第2画素数検出部122は、画像p103の画素数1280×720を検出する。次に、画像開始点検出部134は、画像p103における垂直映像開始点a3(=120画素)を探す(ステップS101)。
 画像開始点検出部134は、画像p103における垂直映像終了点a4(=600画素)を探す(ステップS102)。
 制御部131Bは、垂直映像開始点a3(=120画素)から垂直映像終了点a4(=600画素)の間を、垂直方向の表示範囲とする(ステップS103)。
 画像開始点検出部134は、画像p103における水平映像開始点a1(=320画素)を探す(ステップS104)。
 画像開始点検出部134は、画像p103における水平映像終了点a2(=960画素)を探す(ステップS105)。
 制御部131Bは、水平映像開始点a1(=320画素)から水平映像終了点a2(=960画素)の間を、垂直方向の表示範囲とする(ステップS106)。
 制御部131Bは、画像p104の横方向の解像度を640(=960-320)画素×480(=600-120)画素を算出する。次に、調整部132Bは、制御部131Bから入力された変更情報s8Bに基づいて、画像p103から画像p104を抽出する(ステップS107)。
 調整部132Bは、画像p104の水平方向の640画素が、残りの領域の640画素(2560-1920)画素以内であるか否かを、制御部131Bが出力した解像度情報s13に基づいて判別する。画像p104の水平方向の640画素が、残りの領域の640画素(2560-1920)画素と等しいため、調整部132Bは、画像p104に対する表示倍率を1に決定し、拡大処理も縮小処理も行わない(ステップS108)。
 画像合成部133は、画像p102を、画像p101における水平方向の左端w=0の位置に配置し、垂直方向の中心を画像p101における垂直方向の画素1080の半分の540画素の位置に配置する。次に、画像合成部133は、画像p104における水平方向の左端を画像p102の右端である1920画素の位置に配置し、垂直方向の中心を画像p101における垂直方向の半分の540画素の位置に配置する(ステップS109)。
 以上の処理により、本実施形態の表示装置1Bは、選択された入力部に入力される映像信号に含まれる画像p102と、選択されていない入力部に入力される映像信号に含まれる画像p103から抽出した有効領域の画像p104とを、表示部15の長手方向に並べて表示する。
 なお、ステップS108において、制御部131Bは、画像p103から画像p104を抽出する前に、画像p102と画像p103とを表示部15に重ならないように並べて表示可能であるか否かを判別するようにしてもよい。この場合、制御部131Bは、例えば、第1画素数検出部121と第2画素数検出部122が検出した画素数に基づいて、画像p102と画像p103とを表示部15に重ならないように並べて表示可能であるか否かを判別する。そして、画像が重ならないように並べて表示可能ではないと判別した場合、制御部131Bは、調整部132Bを制御して、画像p103から有効領域の画像p104を抽出するようにしてもよい。
 仮に、図9において、表示部15の残りの領域(w1-r101)×hに画像p103を縮小処理して全て表示する場合、表示部15に表示される画像p104’の画素数は、縮小処理が行われるため640×360である。このため、表示部15に表示される画像p104’は、画像p103が25%に縮小されるため75%の情報が欠落する。
 一方、本実施形態の表示装置1Bでは、画像p103の中から有効領域を抽出した画像p104を、表示部15の残りの領域(w1-r101)×hに表示する。この結果、表示部15上に表示される画像p104は、単純に画像p103を縮小して表示する場合と比較して、情報量の欠落を低減することができる。
 また仮に、図9において、画像p103から、表示部15の残りの領域(w1-r101)×hに表示可能な画素数の画像を抽出する作業を、例えば利用者が表示部15の画像を観察しながら行うことは非常に手間がかかる。
 一方、本実施形態の表示装置1Bでは、画像p103から有効領域を自動的に抽出して、抽出した画像p104を表示部15に表示する。この結果、利用者の作業効率が向上する効果がある。
 なお、本実施形態では、画像p102を表示部15の左側の位置に配置し、画像p104を表示部15の右側の残りの領域に配置する例を説明した。このような配置は、例えば、利用者が検出部14を操作した結果に応じて、制御部131Bが出力する制御信号s3に配置する位置を示す情報を含めるようにしてもよい。
 また、表示部15の垂直方向が長手方向であり、水平方向が短手方向である縦長の形状である場合、例えば、画像p102を上側に配置し、残りの領域に画像p104を表示するようにしてもよい。
 また、図8および図9に示した例では、第1入力部11-1を優先する例を説明したが、第1、第2実施形態と同様に第2入力部11-2を優先するようにしてもよい。
 また、本実施形態では、入力される映像信号が2つの場合を説明したが、入力される映像信号は3つ以上であってもよい。この場合、例えば、表示装置1Bは、検出部14が検出した利用者の操作結果に基づいて、表示部15に表示する2つの画像を決定するようにしてもよい。あるいは、表示装置1Bは、入力された全ての映像信号に含まれる画像を並べて表示するようにしてもよい。このような場合、表示装置1Bは、例えば、表示部15に表示する優先順位を検出部14が検出した利用者の操作結果に基づいて決定するようにしてもよい。そして、表示装置1Bは、優先順位の高い2つの映像信号に含まれる画像を表示し、残りの領域に、選択されていない映像信号に含まれる画像から抽出した有効領域の画像を表示するようにしてもよい。あるいは、表示装置1Bは、入力された映像信号の内、2つ以上の映像信号に含まれる画像から有効領域の画像を抽出して、抽出した画像を並べて表示するようにしてもよい。
 また、本実施形態では、有効領域の画像を他の画像と並べて表示部15に表示すると画像が重なる場合、有効領域の画像を縮小する例を説明したが、これに限られない。調整部132Bは、拡大縮小処理に限らず、例えば画素を間引く処理を行ってもよく、用途に応じて有効領域の画像の一部を更に抽出するようにしてもよい。
 また、本実施形態では、制御部131Bが、抽出する画像p104の画素数を算出する例を説明したが、例えば画像開始点検出部134が画素数の算出を行うようにしてもよい。また、本実施形態では、選択部12Bと処理部13Bとが分かれている構成の例を説明したが、例えば、選択部12Bが処理部13Bを含む構成であってもよい。
 また、本実施形態では、無効領域として、黒色の画像領域の例を説明したがこれに限られない。無効領域は、他の色の領域であってもよい。例えば、図7において、無効領域p13が青色の領域である場合、画像開始点検出部134は、予め定められている青色に対応する信号レベルを含む範囲以外の信号レベルの位置を、画像開始点または画像終了点として検出するようにしてもよい。あるいは、画像開始点検出部134は、予め定められている青以外に対応する信号レベルの範囲内である位置を、画像開始点または画像終了点として検出するようにしてもよい。なお、画像開始点検出部134は、入力された信号がデジタル信号の場合、例えばRBG(赤青緑)の各値に基づいて、黒色の画像領域、または他の色の画像領域を検出するようにしてもよい。このような場合、RBG(赤青緑)の各値は、信号レベルに対応する。
 また、有効領域以外の領域は、予め定められている色の領域に限られず、例えば、ハッシュ、メッシュ等の予め定められているパターン画像であってもよい。
 また、本実施形態では、有効領域の映像開始点または映像終了点を検出する例を説明したが、これに限られない。画像開始点検出部134は、例えば、映像信号に含まれる画像から有効領域を抽出し、抽出した有効領域の各端部の位置を、画像開始点または画像終了点として検出するようにしてもよい。
 また、本実施形態では、図5に示した例では、画像p102と画像p104における垂直方向の中心の位置を、表示部15の垂直方向の中心の位置に配置する例を説明したが、これに限られない。画像p102と画像p104における垂直方向の中心の位置は、表示部15の垂直方向の中心の位置以外であってもよい。また、表示装置1Bは、画像p102の中心の位置と画像p140における垂直方向の中心の位置とを異なる位置に配置するようにしてもよい。
 以上のように、本実施形態の一態様の表示装置は、処理部が、第2の画像から有効領域を検出し、第2の画像から検出した有効領域を抽出し、残りの領域に抽出して得た有効領域画像を表示する。
 このような構成により、本実施形態の一態様の表示装置は、表示領域の画像の情報量の欠落を低減して複数の画像を並べて表示できる。
 また、本実施形態の一態様の表示装置は、処理部が、画像の信号レベルが予め定められている範囲の領域を有効領域として検出する。
 また、本実施形態の一態様の表示装置は、処理部が、第2の画像の垂直方向における有効領域の開始点と終了点とを検出し、第2の画像の水平方向における有効領域の開始点と終了点とを検出することで有効領域を検出する。
 また、本実施形態の一態様の表示装置は、入力された画像の画素数を検出する画素数検出部を備え、処理部が、画素数検出部が検出した画素数に基づいて、第2の画像を残りの領域に表示可能であるか否かを判別し、第2の画像を残りの領域に表示可能ではないと判別した場合、第2の画像から検出した有効領域を抽出する。
 このような構成により、本実施形態の一態様の表示装置は、有効領域を自動的に検出することができる。この結果、利用者に対する利便性が向上する。
 なお、実施形態の図1の選択部12または処理部13、図3の選択部12Aまたは処理部13A、図6の選択部12Bまたは処理部13Bの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD-ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリ、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1、1A、1B…表示装置、11-1~11-n…第1入力部~第n入力部、12、12A、12B…選択部、13、13A、13B…処理部、14…検出部、15…表示部、16…記憶部、121…第1画素数検出部、122…第2画素数検出部、123、123B…切替部、131、131B…制御部、132、132B…調整部、133…画像合成部、134…画像開始点検出部

Claims (10)

  1.  各映像信号がそれぞれ入力される複数の入力部と、
     選択部と、
     処理部と、を備え、
     前記選択部は、
     前記複数の入力部のうち、複数の入力部を選択するとともに、前記選択した複数の入力部のうち、1つの入力部を優先入力部とし、
     前記処理部は、
     前記優先入力部に入力された映像信号に含まれる第1の画像の解像度を変更せず表示部上に表示し、前記選択部により選択された他の入力部に入力された映像信号に含まれる第2の画像の解像度を変更し、前記表示部上の前記第1の画像を表示した残りの領域に前記変更した後の画像を表示する
     ことを特徴とする表示装置。
  2.  前記処理部は、
     前記第1の画像の解像度と前記表示部の解像度とに基づいて、前記第2の画像の解像度を算出し、前記算出した解像度に応じて前記第2の画像の解像度を変更し、前記残りの領域に前記変更した後の画像を表示する
     ことを特徴とする請求項1に記載の表示装置。
  3.  前記処理部は、
     アスペクト比を変えずに前記第2の画像の解像度を変更する
     ことを特徴とする請求項2に記載の表示装置。
  4.  前記処理部は、
     前記第2の画像から有効領域を検出し、前記第2の画像から前記検出した前記有効領域を抽出し、前記残りの領域に前記抽出して得た有効領域画像を表示する
     ことを特徴とする請求項1に記載の表示装置。
  5.  前記処理部は、
     前記画像の信号レベルが予め定められている範囲の領域を前記有効領域として検出する
     ことを特徴とする請求項4に記載の表示装置。
  6.  前記処理部は、
     前記第2の画像の垂直方向における前記有効領域の開始点と終了点とを検出し、前記第2の画像の水平方向における前記有効領域の開始点と終了点とを検出することで前記有効領域を検出する
     ことを特徴とする請求項4または請求項5に記載の表示装置。
  7.  前記入力された画像の画素数を検出する画素数検出部を備え、
     前記処理部は、
     前記画素数検出部が検出した画素数に基づいて、前記第2の画像を前記残りの領域に表示可能であるか否かを判別し、前記第2の画像を前記残りの領域に表示可能ではないと判別した場合、前記第2の画像から前記検出した前記有効領域を抽出する
     ことを特徴とする請求項4から請求項6のいずれか1項に記載の表示装置。
  8.  前記選択部は、
     ユーザにより選択された入力部を選択し、そのうちの1つの入力部をユーザの指示により優先入力部と指定する
     ことを特徴とする請求項1から請求項7のいずれか1項に記載の表示装置。
  9.  検出値に基づいて指定される一の入力部に入力された映像信号に含まれる第1の画像の解像度を変更せずに表示部上に表示する手順と、
     他の入力部に入力された映像信号に含まれる第2の画像の解像度を変更する手順と、
     前記表示部上の前記第1の画像を表示した残りの領域に前記変更した後の画像を表示する処理手順と、
     を含むことを特徴とする画像表示方法。
  10.  各映像信号がそれぞれ入力される複数の入力部のうち、少なくとも1つの入力部を選択する選択手順と、
     前記選択手順により選択された入力部のうち、1つの入力部を優先入力部とする手順と、
     前記優先入力部に入力された映像信号に含まれる第1の画像の解像度を変更せず表示部上に表示する手順と、
     前記選択手順により選択され、前記優先入力部と異なる入力部に入力された映像信号に含まれる第2の画像の解像度を変更する手順と、
     前記表示部上の前記第1の画像を表示した残りの領域に前記変更した後の画像を表示する処理手順と、
     を含むことを特徴とする画像表示方法。
PCT/JP2012/083995 2012-07-17 2012-12-27 表示装置、及び表示方法 WO2014102990A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2012/083995 WO2014102990A1 (ja) 2012-12-27 2012-12-27 表示装置、及び表示方法
JP2014525821A JP6025222B2 (ja) 2012-07-17 2013-07-16 表示装置、及び表示方法
PCT/JP2013/069282 WO2014013979A1 (ja) 2012-07-17 2013-07-16 表示装置、及び表示方法
US14/414,665 US9497405B2 (en) 2012-07-17 2013-07-16 Display device for displaying videos side by side without overlapping each other and method for the same
CN201380037653.0A CN104471950B (zh) 2012-07-17 2013-07-16 显示设备和显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/083995 WO2014102990A1 (ja) 2012-12-27 2012-12-27 表示装置、及び表示方法

Publications (1)

Publication Number Publication Date
WO2014102990A1 true WO2014102990A1 (ja) 2014-07-03

Family

ID=51020141

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/083995 WO2014102990A1 (ja) 2012-07-17 2012-12-27 表示装置、及び表示方法

Country Status (1)

Country Link
WO (1) WO2014102990A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109413344A (zh) * 2018-10-26 2019-03-01 北京计算机技术及应用研究所 基于视频采集及编码技术的多分辨率屏幕操作状态监视装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000221952A (ja) * 1999-02-01 2000-08-11 Canon Inc 画像表示装置
JP2002077767A (ja) * 2000-08-25 2002-03-15 Sony Corp 画像表示装置及び方法
JP2004334058A (ja) * 2003-05-12 2004-11-25 Hitachi Ltd 表示装置および表示制御方法
JP2005020743A (ja) * 2003-06-26 2005-01-20 Samsung Electronics Co Ltd 同時画面をディスプレイする装置及び方法
JP2008079077A (ja) * 2006-09-22 2008-04-03 Sharp Corp 映像表示装置及び多画面表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000221952A (ja) * 1999-02-01 2000-08-11 Canon Inc 画像表示装置
JP2002077767A (ja) * 2000-08-25 2002-03-15 Sony Corp 画像表示装置及び方法
JP2004334058A (ja) * 2003-05-12 2004-11-25 Hitachi Ltd 表示装置および表示制御方法
JP2005020743A (ja) * 2003-06-26 2005-01-20 Samsung Electronics Co Ltd 同時画面をディスプレイする装置及び方法
JP2008079077A (ja) * 2006-09-22 2008-04-03 Sharp Corp 映像表示装置及び多画面表示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109413344A (zh) * 2018-10-26 2019-03-01 北京计算机技术及应用研究所 基于视频采集及编码技术的多分辨率屏幕操作状态监视装置
CN109413344B (zh) * 2018-10-26 2022-04-19 北京计算机技术及应用研究所 基于视频采集及编码技术的多分辨率屏幕操作状态监视装置

Similar Documents

Publication Publication Date Title
JP6025222B2 (ja) 表示装置、及び表示方法
US8717385B2 (en) Image display control apparatus
US8305464B2 (en) Imaging apparatus, image processing apparatus, zoom control method, and zoom control program
US9703867B2 (en) Apparatus and method for displaying thumbnails
JP2008244981A (ja) 映像合成装置および映像出力装置
WO2005006772A1 (ja) 画像表示装置及び画像表示方法
JP2004343200A (ja) 画像処理装置
JP2017156365A (ja) 液晶表示装置
JP5950755B2 (ja) 画像処理装置、制御方法、プログラム及び記憶媒体
WO2014102990A1 (ja) 表示装置、及び表示方法
JP5261568B2 (ja) 表示装置、テレビジョン受信装置、表示方法、コンピュータプログラム及び記録媒体
WO2006118228A1 (ja) フレームシンクロナイザ、フレームシンクロナイザの同期方法、画像処理装置およびフレーム同期プログラム
JP2017192123A (ja) 画像記録装置およびその制御方法
JPH10243363A (ja) 映像再生装置
EP3232653B1 (en) Image recording apparatus and method for controlling the same
US20240040072A1 (en) Image capture apparatus and control method therefor
JP2014048499A (ja) 表示制御装置及びその制御方法
JP2014032369A (ja) 表示装置およびその制御方法
JP2005045769A (ja) 画像表示装置及び画像表示方法
JP2002112137A (ja) オンスクリーンディスプレイ装置
JP6103855B2 (ja) 投影装置及びその制御方法、プログラム、並びに記憶媒体
JP2011142410A (ja) 画像処理装置
JP2010124309A (ja) 画像表示装置及び画像調整方法
JP2007094391A (ja) 動画像表示装置
JP5319851B2 (ja) 表示装置、テレビジョン受信装置、表示方法、コンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12890963

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12890963

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP