WO2017022853A1 - 受信装置 - Google Patents

受信装置 Download PDF

Info

Publication number
WO2017022853A1
WO2017022853A1 PCT/JP2016/073110 JP2016073110W WO2017022853A1 WO 2017022853 A1 WO2017022853 A1 WO 2017022853A1 JP 2016073110 W JP2016073110 W JP 2016073110W WO 2017022853 A1 WO2017022853 A1 WO 2017022853A1
Authority
WO
WIPO (PCT)
Prior art keywords
color gamut
unit
video signal
color
eotf
Prior art date
Application number
PCT/JP2016/073110
Other languages
English (en)
French (fr)
Inventor
冨沢 一成
吉山 和良
鈴木 秀樹
涼二 櫻井
智夫 西垣
藤根 俊之
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2017022853A1 publication Critical patent/WO2017022853A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level

Definitions

  • the present invention relates to a receiving apparatus.
  • This application claims priority based on Japanese Patent Application Nos. 2015-154768, 2015-154767, and 2015-154768 filed in Japan on August 5, 2015, the contents of which are incorporated herein by reference. Incorporate.
  • Hybridcast registered trademark
  • a broadcasting / communication cooperation service that combines broadcasting and communication is provided.
  • various contents are provided in addition to broadcasting programs.
  • the receiving apparatus image receiving apparatus
  • a process for matching the color space of each monomedia data is required prior to the synthesis of the monomedia data.
  • Non-Patent Document 1 describes the flow of matching processing for matching color spaces.
  • FIG. 14 is a diagram illustrating an outline of color space matching processing performed by a receiving apparatus according to the related art.
  • ITU-R International Telecommunication Union-Radiocommunication Sector, International Telecommunication Union Radiocommunication Division
  • BT. 709 (hereinafter simply referred to as BT.709)
  • BT.2020 A case where the color space is converted to 2020 (hereinafter simply referred to as BT.2020) is shown.
  • the reception apparatus performs inverse quantization (N bits) from D ′ Y D ′ CB D ′ CR (BT.709) to E ′ Y E ′ CB E ′ CR (BT. 709).
  • the process P1 is a process for inverse quantization of the digital signal of the color space YC B C R. Specifically, in the process P1, the calculation shown in the following formula (1) is performed on each component of the video signal.
  • the receiving apparatus performs conversion from E ′ Y E ′ CB E ′ CR (BT.709) to E ′ R E ′ G E ′ B (BT.709). Specifically, in the process P2, the process shown in the following formula (2) is performed.
  • the process P1, P2 is the conversion between 'R'G'B the' YC 'B' C R.
  • the receiving apparatus E 'R E' G E 'EOTF ( electro-optical transfer function, Electro-Optical Transfer Function) to B (BT.709) from E R E G E B (BT.709 ) a Apply.
  • the process shown in the following formula (3) is performed.
  • the receiving device performs the conversion of E R E G E B (BT.709 ) to E R E G E B (BT.2020 ). Specifically, in the process P4, the process shown in the following formula (4) is performed.
  • the receiving apparatus applies a OETF) Optical-Electro Transfer Function) from E R E G E B (BT.2020 ) to E 'R E' G E ' B (BT.2020). That is, the receiving apparatus performs gamma correction. Specifically, in process P5, the process shown in the following equation (5) is performed.
  • process P6 the receiving apparatus performs conversion 'to B (BT.2020) E' E ' R E' G E to Y E 'CB E' CR ( BT.2020).
  • the process P6 is the process of converting the color space from the RGB to YC B C R.
  • the process shown in the following equation (6) is performed.
  • the receiving apparatus performs E 'Y E' CB E quantization 'from CR (BT.2020) D' Y D 'CB D' to CR (BT.2020) the (N bits). Specifically, in process P7, the process shown in the following equation (7) is performed.
  • HDR High Dynamic Range
  • HDR is a range of brightness (brightness) that exceeds the performance of conventional displays.
  • the content distribution source can provide more attractive content.
  • a broadcast service HDR broadcast service
  • a receiving device in the HDR broadcast service may be referred to as an HDR receiving device.
  • HDR broadcast service when the HDR broadcast service is started, for example, in addition to a broadcast program configured by HDR video, communication content configured by SDR (Standard Dynamic Range) video, graphics (for example, subtitles), and the like is assumed to be provided. Even when these contents are combined and displayed on the display at the same time, it is desirable that each content is displayed with appropriate brightness.
  • SDR Standard Dynamic Range
  • graphics for example, subtitles
  • OETF OETF
  • the conversion rate r is a parameter representing the relationship between the dynamic range of a conventional display and HDR.
  • the SDR signal level range 0 ⁇ E ⁇ 1 is expressed in the range of 0 ⁇ E ′ ⁇ 0.5 in the HDR display. That is, in HDR, a luminance range equal to or higher than the dynamic range of the conventional display (1 ⁇ E) is newly expressed with a signal level of 0.5 ⁇ E ′ ⁇ 1.
  • Rec. ITU-R BT Rec. ITU-R BT.
  • the following formula (9) considering the conversion rate r in 1886 can be considered.
  • the gamma EOTF of the HDR display is not defined, and the OOTF may be defined as the entire system. However, if OOTF and OETF are determined, EOTF can be determined.
  • An example of OOTF is shown in the following formula (10).
  • the EOTF to be obtained is calculated by the following formula (13) from the formula (11) and the formula (12). Can be derived.
  • This equation (13) can be handled as an EOTF of an HDR-compatible display in the range of 0 ⁇ E ′ ⁇ 0.5.
  • the screen luminance for reference level (Screen luminance for reference level) ⁇ is, for example, 1.
  • the above-described processing is not performed for graphics or the like.
  • E ′ 1 which is the maximum value of HDR.
  • the receiving apparatus performs processing for adjusting the luminance even for mono media video signals such as graphics.
  • the BT. 709 to BT It is conceivable to include processing capable of adjusting the luminance of graphics or the like in accordance with the HDR signal in the color space matching processing to 2020. Specifically, it is conceivable to perform color space matching processing by replacing OETF with the above-described equation (8) for graphics.
  • a table T91 shown in FIG. 15 shows a single color white (W), red (R), yellow (Y), and green (G) in the high gradation region in the matching process when OETF is replaced with the above-described equation (8). , Cyan (C), blue (B), and magenta (M), the input value and the output value of each color.
  • table T91 before and after the alignment process, that is, BT. 709, the input value of chromaticity u′v ′ in the color gamut of 709, and BT.
  • the chromaticity difference ⁇ u′v ′ between the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” only for white, and deviated from “0.0000” for the other colors. It is a value. That is, in the high gradation region matching processing performed by the receiving apparatus, only white color chromaticity is maintained, and chromaticity is shifted in other colors and converted to a different color. This is because the intermediate gradation is used even in monochrome input by the process P4, and the gamma of the OETF is different from the gamma of the display, so that the level of the intermediate gradation is shifted.
  • a table T92 shown in FIG. 16 shows a single color white (W), red (R), yellow (Y), green (G) in the intermediate gradation region in the matching process when OETF is replaced by the above-described equation (8). ), Cyan (C), blue (B), magenta (M), and the input value and output value of each color.
  • BT. 709 the input value of luminance Y in the color gamut of 709, and BT.
  • the luminance difference ⁇ Y between the output value of the luminance Y in the 2020 color gamut is a value deviating from “0.0000” in any color.
  • the luminance is shifted and converted to a color having a different luminance.
  • the luminance and color of the graphics may be shifted before and after the matching processing.
  • Some aspects of the present invention have an object to provide a receiving apparatus capable of appropriately converting graphics luminance and color in an HDR receiving apparatus.
  • Another object of another aspect of the present invention is to provide a receiving apparatus that can achieve the effects described in the embodiments described later.
  • an EOTF processing unit that converts a video signal of a first color gamut using EOTF
  • a receiving device comprising: a color gamut conversion unit that converts a color gamut to a second color gamut; an OETF processing unit that converts a conversion result by the color gamut conversion unit using an OETF that is an inverse function of a gamma of a reference display in broadcasting; is there.
  • FIG. 3 is a diagram illustrating a schematic functional configuration of a receiving apparatus according to the embodiment. It is a figure which shows the flow of the matching process by the receiver which concerns on the same embodiment. It is a figure which shows the example of the result of the matching process which concerns on the same embodiment. It is a figure which shows the flow of the matching process by the receiver which concerns on 2nd Embodiment of this invention. It is a figure which shows the example of the result of the matching process which concerns on the same embodiment.
  • FIG. 1 shows the example of the result of the color gamut change process by the receiver which is a comparison object.
  • FIG. 2 shows the example of the result of the color gamut change process by the receiver of comparison object.
  • FIG. 9 is a third diagram illustrating an example of a result of color gamut change processing by a receiving device to be compared.
  • FIG. 4 is a fourth diagram illustrating an example of a result of color gamut change processing by a receiving device to be compared.
  • FIG. 5 is a fifth diagram illustrating an example of a result of color gamut change processing by a receiving device to be compared.
  • FIG. 6 is a diagram illustrating an example of a result of color gamut change processing by a receiving device to be compared.
  • the broadcast system 1 (FIG. 2) according to the present embodiment is a system that broadcasts and displays a broadcast program.
  • the broadcast program according to this embodiment is a broadcast program composed of HDR mono-media data.
  • HDR includes SDR. Therefore, in this embodiment, the broadcast program is created assuming that it is displayed in HDR or SDR.
  • the HDR luminance range may be determined for each broadcast system 1 in the operation of the broadcast system 1, for example.
  • the receiving device 10 (FIG. 2) can display a broadcast program, graphics (for example, characters such as subtitles, a browser, and a television menu) on the HDR display.
  • the HDR display is a display that can display HDR video in HDR.
  • FIG. 1 is a diagram illustrating an outline of processing by the receiving device 10 according to the present embodiment.
  • Data transmitted to the receiving apparatus 10 is subjected to transmission data decoding processing by transport processing.
  • transport processing stream data (UHDTV and HDTV video, audio, subtitles, etc.) and file data (still images, characters, graphics, etc.) are separated from the received signals and delivered to a decoder that decodes them. It is.
  • what is transmitted by communication mainly pull type, which the receiving device 10 starts to acquire, including streams such as UHDTV and HDTV video and audio
  • the transmission data is decoded.
  • Monomedia data representing content such as video, audio, and still images is transferred to the respective monomedia decoders through transport processing and decoded.
  • the monomedia decoder that outputs to the multimedia plane performs color gamut conversion as necessary when outputting to the plane, and matches the color space of each monomedia.
  • the mono-media decoded data output to each plane is synthesized under the control of the size and position of each. Prior to the synthesis, it is necessary to match the color space of the presented element, but the color space of the data output to the multimedia plane is matched at the output stage to the plane. On the other hand, since the same color space is used for both the caption and the character super, color gamut conversion is performed after synthesizing the caption plane and the character super plane to match the multimedia plane and the color space.
  • the receiving apparatus 10 performs color gamut conversion on mono-media data having different color gamuts to match the color gamuts.
  • the receiving device 10 adjusts the luminance signal level of the mono media data in this matching process.
  • three processes of an EOTF process, a color gamut conversion process, and an OETF process are executed in order.
  • the EOTF process is a process for applying EOTF to mono media data.
  • the color gamut conversion processing is processing for converting monomedia data after EOTF processing into a specific color gamut.
  • the OETF process is a process for applying OETF to monomedia data after the color gamut conversion process.
  • the reception apparatus 10 can adjust the luminance of the monomedia data by applying an equation including the conversion rate r in this OETF.
  • the receiving apparatus 10 applies the inverse function of the reference display gamma as the OETF in the OETF processing.
  • the reference display is, for example, a standard display that satisfies the standard defined by the standard.
  • This standard is a standard defined for products, materials, processes, etc. mainly in the fields of industry and technology, and includes, for example, broadcasting standards related to HDR, recommendations of organizations related to HDR, and the like.
  • the reference display is BT.
  • the display conforms to the standards defined in 1886 and the display conforms to the ITU-R recommendation for HDR television broadcasting.
  • the receiving device 10 converts the color gamut of the HDR mono media data, if the output destination HDR display satisfies the requirements of the reference display, the receiving device 10 can input and output the mono media data. In this case, the color can be prevented from shifting.
  • the above is an outline of the processing performed by the receiving apparatus 10 for data reproduction.
  • FIG. 2 is a block diagram showing an example of the configuration of the broadcast system 1 according to the present embodiment.
  • the broadcast system 1 is a system that provides both a broadcast service and a communication service.
  • MMT MPEG Media Transport
  • the broadcast system 1 includes a reception device 10, a display device 11, a broadcast side transmission device 30, and a communication side transmission device 50.
  • the receiving device 10 is an electronic device that can receive a broadcast service and a communication service.
  • the receiving device 10 is, for example, a set top box, a television, a personal computer, a mobile phone, a tablet, a smartphone, a PHS (Personal Handy-phone System) terminal device, or a PDA (Personal Digital Assistant).
  • a set top box a television, a personal computer, a mobile phone, a tablet, a smartphone, a PHS (Personal Handy-phone System) terminal device, or a PDA (Personal Digital Assistant).
  • PHS Personal Handy-phone System
  • PDA Personal Digital Assistant
  • the display device 11 is a device provided with a display.
  • the display device 11 and the receiving device 10 are connected so as to be able to transmit HDR video signals.
  • the display device 11 and the receiving device 10 are connected to be communicable with each other by a cable conforming to HDMI (registered trademark) 2.0a.
  • the broadcast-side transmission device 30 is a device that transmits a broadcast wave in which broadcast content i1 and program information i2 are multiplexed.
  • the program information i2 is information indicating details of the program.
  • the program information i2 is specifically MMT-SI (service information, service information) information in the MMT system.
  • the MMT-SI information includes, for example, an MH-EIT (MH-Event Information Table, MH-Event Information Table) that is a table for transmitting information on the program such as the program name, broadcast date and time, and description of the broadcast content. .
  • the broadcast wave transmitted by the broadcast side transmission device 30 is transmitted to the reception device 10 via the broadcast satellite BS.
  • the communication-side transmission device 50 is, for example, a server device, and a device that transmits the communication content i3 to the reception device 10.
  • the communication-side transmitting device 50 and the receiving device 10 can be connected to the network NW and communicate with each other.
  • the network NW is an information communication network configured by a WAN (Wide Area Network), a LAN (Local Area Network), and the like.
  • the WAN includes, for example, a mobile phone network, a PHS (Personal Handy-phone System) network, a PSTN (Public Switched Telephone Network), a dedicated communication network, and a VPN (Virtual). Private Network) and the like.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of the receiving device 10 according to the present embodiment.
  • the receiving device 10 includes a CPU 100, a ROM 1001, a RAM 1002, a nonvolatile memory 1003, a tuner 101, a network interface (Network I / F) 102, a demodulation module (Decrypt) 103, a separation module (Demux) 104, a voice decoding module (Audio).
  • the CPU 100, storage medium 1001, tuner 101, network interface 102, demodulation module 103, separation module 104, audio decoding module 105, video decoding module 107, drawing module 108, and video memory 1081 are They are connected to each other via a bus (bus).
  • the display interface 109 is connected to the speech decoding module 105 and the drawing module 108.
  • the CPU100 reads a program and various data, and controls the own apparatus provided with the said CPU100. Further, the CPU 100 generates video signals such as various graphics.
  • the ROM 1001 is a storage medium that stores a program, for example.
  • the RAM 1002 is a storage medium that temporarily stores various data and programs, for example.
  • the nonvolatile memory 1003 is a storage medium such as an HDD or a flash memory, and stores various data, for example.
  • the program read by the CPU 100 is an example stored in the ROM 1001, but may be stored in another storage medium or downloaded from the network NW.
  • the various data read by the CPU 100 is an example stored in the nonvolatile memory, but may be stored in the ROM 1001 or may be various data downloaded from the network NW.
  • the tuner 101 receives a broadcast wave.
  • the network interface 102 has a communication interface and is connected to the network NW by wire or wireless.
  • the demodulation module 103 demodulates the broadcast signal.
  • the separation module 104 separates various data from the broadcast signal.
  • the audio decoding module 105 decodes the encoded audio signal.
  • the video decoding module 107 decodes the encoded video signal.
  • the drawing module 108 controls synthesis of various video signals, writing of video signals to the video memory 1081, and output of video signals to the display device 11.
  • the video memory 1081 stores a video signal of a video displayed on the display device 11.
  • the display interface 109 transmits the video signal synthesized by the drawing module 108 and the audio signal decoded by the audio decoding module 105 to the display device 11.
  • the display interface 109 receives various types of information about the display from the display device 11.
  • FIG. 4 is a block diagram illustrating an example of a functional configuration of the receiving device 10 and the display device 11 according to the present embodiment.
  • the receiving apparatus 10 includes a tuner unit 110, a demodulation unit 120, a communication unit 130, a separation unit 140, a decoder unit 150, a graphic processing unit 160, a display information storage unit 170, a determination unit 180, and a conversion unit. 190, a combining unit 200, and a display-side communication unit 210.
  • the tuner unit 110 includes a tuner 101 and receives broadcast waves.
  • the tuner unit 110 outputs the received broadcast signal to the demodulation unit 120.
  • the demodulation unit 120 includes a demodulation module 103 and demodulates the broadcast signal acquired from the tuner unit 110.
  • Demodulation section 120 outputs the demodulated broadcast signal to separation section 140.
  • the communication unit 130 includes the network interface 102, communicates with the communication-side transmission device 50, and acquires data distributed from the communication-side transmission device 50.
  • the communication-side transmission device 50 outputs the acquired data to the separation unit 140.
  • the separation unit 140 includes a separation module 104 and separates a broadcast program video signal, a broadcast program audio signal, and program information from the broadcast signal acquired from the demodulation unit 120. Further, the separation unit 140 separates communication content data from the data acquired from the communication unit 130. In addition, the separation unit 140 separates the caption data of the broadcast program from the broadcast signal acquired from the demodulation unit 120 or the data acquired from the communication unit 130. Separating section 140 outputs the separated broadcast program video signal, audio signal, and caption data to decoder section 150. Further, the separation unit 140 outputs the separated communication content data and program information to the graphic processing unit 160.
  • the decoder unit 150 includes an audio decoding module 105 and a video decoding module 107, and decodes (decodes) various signals.
  • An audio decoder unit 151, a video decoder unit 152, and a caption decoder unit 153 are provided.
  • the audio decoder unit 151 decodes the audio signal of the broadcast program acquired from the separation unit 140.
  • the audio decoder unit 151 outputs the decoded audio signal to the display-side communication unit 210.
  • the video decoder unit 152 decodes the video signal of the broadcast program acquired from the separation unit 140.
  • the video decoder unit 152 outputs the decoded video signal to the conversion unit 190.
  • the caption decoder unit 153 decodes the caption data acquired from the separation unit 140, and generates a caption display video signal.
  • the caption decoder unit 153 outputs the generated caption video signal to the conversion unit 190.
  • the graphic processing unit 160 functions, for example, when the CPU 100 executes a program stored in the ROM 1001 to generate a graphics video signal. For example, assuming that the graphics video signal is expressed in SDR, the color space is generated as 8-bit data of RGB.
  • the graphic processing unit 160 includes a browser execution unit 161 and an SI processing unit 162.
  • the browser execution unit 161 executes a browser application.
  • the browser execution unit 161 generates, for example, a video signal of a browser application or a video signal of communication content presented on the browser application.
  • the browser execution unit 161 outputs the generated video signal to the conversion unit 190.
  • the SI processing unit 162 processes program information.
  • the SI processing unit 162 analyzes the program information acquired from the separation unit 140 and generates a video signal of information that can be presented, such as an electronic program guide (EPG, Electronic Program Guide) extracted from the program information.
  • the SI processing unit 162 outputs the generated video signal to the SI conversion unit 194.
  • the SI processing unit 162 extracts, for example, reference value information for video signal conversion from the program information.
  • This reference value information includes, for example, information on the video level (Video level for reference white level) for the white reference level.
  • the video level for the white reference level is information corresponding to the conversion rate r.
  • the display information storage unit 170 stores display attribute information and the like of the display device 11 connected to the receiving device 10.
  • the information stored in the display information storage unit 170 is referred to as needed in the processing of the conversion unit 190.
  • the conversion unit 190 converts the various video signals output from the decoder unit 150 into a specific color space and the number of quantization bits.
  • the conversion unit 190, various video signals output from the decoder unit 150, a color space is RGB, or a YC B C R, 10 bits are the number of quantization bits, or, in 12-bit A case of converting to a certain video signal will be described.
  • the conversion unit 190 includes a video conversion unit 191, a subtitle conversion unit 192, a browser conversion unit 193, and an SI conversion unit 194.
  • the video conversion unit 191 acquires the video signal of the broadcast program from the video decoder unit 152.
  • the video conversion unit 191 converts the acquired video signal of the broadcast program into a conversion destination format.
  • the video conversion unit 191 outputs the converted video signal to the synthesis unit 200.
  • the caption conversion unit 192 acquires a caption video signal from the caption decoder unit 153.
  • the caption conversion unit 192 converts the acquired video signal of the broadcast program into a conversion destination format.
  • the caption conversion unit 192 outputs the converted video signal to the synthesis unit 200.
  • the browser conversion unit 193 acquires the video signal of the communication content from the browser execution unit 161.
  • the browser conversion unit 193 converts the acquired video signal of the broadcast program into a conversion destination format.
  • the browser conversion unit 193 outputs the converted video signal to the synthesis unit 200.
  • the SI conversion unit 194 acquires a video signal such as an electronic program guide from the SI processing unit 162, for example.
  • the SI conversion unit 194 converts the acquired video signal of the broadcast program into a conversion destination format.
  • the SI conversion unit 194 outputs the converted video signal to the synthesis unit 200.
  • the synthesizing unit 200 acquires various video signals from the video converting unit 191, the subtitle converting unit 192, the browser converting unit 193, and the SI converting unit 194.
  • the synthesizing unit 200 synthesizes the various video signals so that the mono media indicated by the acquired various video signals are arranged in a predetermined screen layout.
  • the combining unit 200 outputs the combined video signal to the display-side communication unit 210.
  • the display-side communication unit 210 includes, for example, a communication IC compliant with the HDMI (registered trademark) 2.0a standard, and communicates with the display device 11.
  • the display-side communication unit 210 transmits the video signal output from the synthesis unit 200 and the audio signal output from the audio decoder unit 151 to the display device 11.
  • the display apparatus 11 can reproduce
  • the display side communication unit 210 when the display side communication unit 210 is first connected to the display device 11, the display side communication unit 210 receives display information from the display device 11 and stores the received display information in the display information storage unit 170.
  • the receiving device 10 can refer to the attribute information of the display device 11 connected to the own device and execute processing according to the characteristics of each display device 11.
  • the display device 11 includes a display device communication unit 111, a display information storage unit 112, a display unit 113, and an audio output unit 114.
  • the display device communication unit 111 includes, for example, a communication IC conforming to the HDMI (registered trademark) 2.0a standard, and communicates with the reception device 10.
  • the display device communication unit 111 receives the video signal from the reception device 10 and outputs the video signal to the display unit 113.
  • the display information storage unit 112 receives an audio signal from the receiving device 10 and outputs the audio signal to the audio output unit 114.
  • the display device communication unit 111 when the display device communication unit 111 is first connected to the receiving device 10, the display device communication unit 111 reads display information from the display information storage unit 112 and transmits the read display information to the receiving device 10.
  • the display information may be transmitted at an arbitrary timing in response to a request from the receiving device 10, for example.
  • the display information storage unit 112 stores display information regarding the display unit 113 of the device itself.
  • the display unit 113 includes an HDR reference display.
  • the reference display is, for example, a liquid crystal display, a plasma display, an organic EL-Organic Electro-Luminescence (EL) display, or the like.
  • the display unit 113 displays a video based on the video signal acquired from the display device communication unit 111.
  • the audio output unit 114 includes, for example, a speaker and an amplifier. The audio output unit 114 reproduces audio based on the audio signal acquired from the display device communication unit 111.
  • FIG. 5 is a diagram showing a flow of video signal matching processing by the receiving apparatus 10 according to the present embodiment.
  • the receiving apparatus according to the related art described above performs the process P5
  • the conversion unit 190 of the receiving apparatus 10 executes the process P52.
  • the inverse function of the reference display gamma described above is applied as the OETF.
  • the receiving apparatus 10 applies the above equation (11) as the OETF.
  • the receiving apparatus 10 applies the following formula (14), which is an inverse function thereof, as the OETF.
  • formula (14) which is an inverse function thereof, as the OETF.
  • the receiving device 10 can display the monochromatic color gamuts in alignment by appropriately executing the processes P1, P2, P3, P4, P52, P6, and P7 according to the type of monomedia. it can.
  • the monomedia A is, for example, an HDR video
  • the monomedia B to D are, for example, an SDR video, graphics, and the like.
  • Mono-media A is a color space YC B C R or RGB
  • the data number of quantization bits is 10 or 12 bits.
  • the monomedia A has already processed the OETF shown in the above formula (8).
  • the data of 2020 color gamut is a color space YC B C R or RGB.
  • the conversion unit 190 synthesizes the monomedia A as it is without executing the processes P1 to P7 described above.
  • the mono media B is data having a color space of RGB and a quantization bit number of 10 or 12 bits.
  • Monomedia B is BT. 709 or BT.
  • the conversion unit 190 executes processes P3, P4, P52, P6, and P7 in order. However, BT. In the case of 2020, the process P4 is not executed, and the process P52 is executed next to the process P3.
  • Mono-media C is a color space YC B C R, the number of quantization bits is 10 or 12-bit data.
  • Monomedia C is a BT. 709 or BT.
  • the conversion unit 190 executes processes P2, P3, P4, P52, P6, and P7 in order for the monomedia C. However, BT. In the case of 2020, the process P4 is not executed, and the process P52 is executed next to the process P3.
  • the mono media D is data having a color space of RGB and a quantization bit number of 8 bits.
  • Monomedia D is a BT. 709 color gamut data.
  • the conversion unit 190 performs processes P3, P4, P52, P6, and P7 in order. This completes the description of the matching process according to the type of mono media.
  • FIG. 6 is a diagram illustrating an example of a result of the matching process according to the present embodiment.
  • the table T11 illustrated in FIG. 6 is a single color white (W), red (R), yellow (Y), green (G), and cyan (C) in the high gradation region in the matching process performed by the conversion unit 190 of the receiving device 10. , Blue (B), and magenta (M), the input value and output value of each color are represented.
  • the input value of each color shown in the table T11 is the same as the example shown in the table T91.
  • table T11 before and after the alignment process, that is, BT.
  • the chromaticity difference ⁇ u′v ′ with the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” or “0.0001” for any color. That is, in the high gradation region matching process performed by the receiving device 10, chromaticity is maintained before and after the matching process.
  • the luminance difference ⁇ Y from the output value of the luminance Y in the 2020 color gamut is “0.0000” or “0.0001” for any color. That is, in the high gradation region matching process performed by the receiving device 10, the luminance is maintained before and after the matching process. In this way, by applying the inverse function of the reference display gamma to the OETF, the luminance and chromaticity can be maintained before and after the alignment process.
  • the receiving apparatus 10 converts the video signal of the first color gamut by EOTF (for example, processing P3), and converts the first color gamut to the second color gamut (
  • the processing unit P4) includes a conversion unit 190 that performs conversion (for example, processing P52) using OETF that is an inverse function of gamma of a reference display in broadcasting.
  • the receiving apparatus 10 can adjust the luminance while suppressing color misregistration, for example, in a high gradation region of graphics.
  • the broadcast system 1 is a system that broadcasts and displays a broadcast program as in the first embodiment. However, in the present embodiment, some processes in the matching process are different from those in the first embodiment.
  • FIG. 7 is a diagram showing a flow of video signal matching processing by the receiving apparatus 10 according to the present embodiment.
  • the receiving apparatus according to the related art described above performs the process P3
  • the conversion unit 190 of the receiving apparatus 10 executes the process P32.
  • the inverse function of the OETF shown in the above equation (8) is applied as the EOTF.
  • the receiving apparatus 10 can display the monochromatic color gamuts in alignment by appropriately executing the processes P1, P2, P32, P4, P5, P6, and P7 according to the type of monomedia. it can.
  • the conversion unit 190 executes processes P32, P4, P5, P6, and P7 in order for the monomedia B. However, BT. In the case of 2020, the process P4 is not executed, and the process P5 is executed after the process P3.
  • the conversion unit 190 sequentially performs the processes P1, P2, P32, P4, P5, P6, and P7. However, BT. In the case of 2020, the process P4 is not executed, and the process P5 is executed after the process P32. The conversion unit 190 sequentially performs the processes P32, P4, P5, P6, and P7 for the monomedia D. This completes the description of the matching process according to the type of mono media.
  • FIG. 8 is a diagram illustrating an example of a result of the matching process according to the present embodiment.
  • a table T12 illustrated in FIG. 8 is obtained by performing a single process of matching white (W), red (R), yellow (Y), green (G), and cyan (C ), Blue (B), and magenta (M), the input value and the output value.
  • the input value of each color shown in the table T12 is the same as the example shown in the table T91.
  • BT. 709 the input value of chromaticity u′v ′ in the gamut of 709, and BT.
  • the chromaticity difference ⁇ u′v ′ with respect to the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” only for white, and a value out of “0.0000” for the other colors. It has become.
  • BT. 709 the input value of luminance Y in the color gamut of 709, and BT.
  • the luminance difference ⁇ Y with respect to the output value of the luminance Y in the 2020 color gamut is “0.0000” twice that of white.
  • both chromaticity and luminance are maintained for white before and after the matching process.
  • the receiving apparatus 10 can maintain the white luminance and chromaticity of graphics before and after the matching process by applying EOTF and OETF which are in an inverse function relationship to each other.
  • FIG. 9 is a diagram illustrating a second example of the result of the matching process according to the present embodiment.
  • a table T13 illustrated in FIG. 9 is a single color white (W), red (R), yellow (Y), green (G), and cyan (C) in the high gradation region in the matching process performed by the conversion unit 190 of the receiving device 10. , Blue (B), and magenta (M), the input value and output value of each color are represented.
  • Blue (B) and magenta
  • M magenta
  • the receiving apparatus 10 converts the video signal in the first color gamut (for example, BT.709) by EOTF (for example, processing P32), and performs the first color gamut from the first color gamut.
  • a conversion unit 190 that converts (for example, processing P4) into two color gamuts (for example, BT.2020) and converts the data by OETF (for example, processing P5), and EOTF and OETF are inversely related to each other. It is in.
  • the receiving device 10 can suppress a white luminance shift of graphics in, for example, an intermediate gradation region.
  • the broadcast system 1 is a system that broadcasts and displays a broadcast program as in the first embodiment. However, in the present embodiment, some processes in the matching process are different from those in the first embodiment.
  • FIG. 10 is a diagram illustrating an overview of matching processing by the receiving apparatus 10 according to the present embodiment.
  • the reception device 10 performs a process P33.
  • the process P33 will be described.
  • gamma of the reference display is applied as EOTF.
  • the above formula (14) that is an inverse function thereof is applied as the OETF of the process P52.
  • ⁇ ⁇ ⁇ it is assumed that ⁇ ⁇ ⁇ .
  • the receiving apparatus 10 suppresses not only the high gradation region but also the intermediate gradation region and the low gradation region. be able to.
  • FIG. 17 is a fourth diagram illustrating an example of the result of the color gamut changing process performed by the comparison target receiving device.
  • the comparison target receiving device is different from the receiving device 10 in that the processing P3 is executed instead of the processing P33. That is, the comparison target receiving device is the receiving device 10 according to the first embodiment.
  • a table T93 shown in FIG. 17 shows monochrome white (W), red (R), yellow (Y), green (G), cyan (C), blue in the intermediate gradation region in the matching process by the comparison target receiving device.
  • (B) represents the input value and output value of each color of magenta (M).
  • table T93 before and after the alignment process, that is, BT.
  • the chromaticity difference ⁇ u′v ′ between the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” or “0.0001” for any color. That is, in the matching process of the intermediate gradation area performed by the comparison target receiving device, the chromaticity is maintained before and after the matching process.
  • the luminance difference ⁇ Y between the output value of the luminance Y in the 2020 color gamut is a value deviating from “0.0000” in any color. That is, in the matching process of the intermediate gradation region performed by the comparison target receiving device, the luminance is shifted and converted to a color having a different luminance. This phenomenon is similarly observed for the color in the low gradation region.
  • a function different from the inverse function of OETF is applied to EOTF, a luminance shift occurs particularly before and after the matching process particularly in the intermediate gradation and low gradation areas.
  • FIG. 11 is a diagram illustrating an example of a result of the matching process according to the present embodiment.
  • a table T13 illustrated in FIG. 11 is obtained by performing a matching process performed by the conversion unit 190 of the receiving apparatus 10 and includes white (W), red (R), yellow (Y), green (G), and cyan (C ), Blue (B), and magenta (M), the input value and the output value.
  • the input value of each color shown in the table T13 is the same as the example of each color shown in the table T93.
  • table T13 before and after the alignment process, that is, BT.
  • the chromaticity difference ⁇ u′v ′ with the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” or “0.0001” for any color. That is, the chromaticity is maintained before and after the matching process in the matching process of the intermediate gradation area performed by the receiving device 10.
  • the luminance difference ⁇ Y from the output value of the luminance Y in the 2020 color gamut is “0.0000” or “0.0001” for any color. That is, in the halftone area matching process performed by the receiving apparatus 10, the luminance is maintained before and after the matching process. In this way, by applying the inverse function of OETF to EOTF, it is possible to maintain both luminance and chromaticity even before and after the matching processing, even in the intermediate gradation and low gradation areas.
  • the conversion unit 190 converts the video signal in the first color gamut (for example, the color gamut of BT.709) by EOTF that is an inverse function of OETF.
  • This is an inverse function of the gamma of the reference display in the broadcast (for example, process P33), converted from the first color gamut to the second color gamut (for example, the color gamut of BT.2020) (for example, process P4).
  • Conversion (for example, process P52) is performed by OETF.
  • the receiving device 10 can adjust the luminance of the graphics while suppressing the color shift.
  • the receiving device 10 can also suppress deviations in monochromatic luminance and chromaticity even in cases other than white.
  • the broadcast system 1 is a system that broadcasts and displays a broadcast program as in the first to third embodiments. However, in the present embodiment, a part of the matching process is different from the first to third embodiments. Below, the case where the difference of this embodiment is applied to 3rd Embodiment is demonstrated as an example.
  • FIG. 12 is a diagram showing an overview of matching processing by the receiving apparatus 10 according to the present embodiment.
  • Mono- media E shown in 12 a color space YC B C R, the data of the number of quantization bits 10 or 12 bits.
  • Monomedia E is a BT. This data is converted into the 2020 color gamut.
  • the conversion unit 190 executes processes P1, P2, P33, and P52 in order. Further, the conversion unit 190 sequentially performs the processes P33, P4, and P52 for the monomedia D.
  • the combining unit 200 of the receiving device 10 acquires RGB signals of a plurality of mono media, combines the acquired RGB signals, and outputs the combined RGB signals to the display device 11.
  • a color shift may occur due to the matching process.
  • the color shift the bit precision is deteriorated by 0.5 video level r for white reference level as described above, the loss of information in the conversion of YC B C R is due to occur.
  • This deterioration in bit accuracy is the BT. 709 to BT.
  • the mono media subjected to the conversion at the video level r is mapped with high definition in a narrow range of the color gamut, whereas the BT.
  • there is relatively little bit accuracy in the area where each color of mono media is mapped which means that information loss occurs. This deterioration in bit accuracy is particularly noticeable in low gradation areas.
  • each color represented by the RGB is not a one-to-one correspondence with each color represented by the YC B C R.
  • the receiving apparatus 10 synthesizes mono media with RGB signals. The receiving apparatus 10 can suppress the occurrence of color misregistration before and after the matching process even in the low gradation region.
  • FIG. 18 is a fourth diagram illustrating an example of the result of the color gamut changing process performed by the comparison target receiving device.
  • the comparison target receiving apparatus outputs the mono-media color space YC B C R. That is, compared receiving device outputs the mono-media color space YC B C R, a receiving apparatus 10 according to the third embodiment in the synthesis.
  • a table T94 shown in FIG. 18 represents the input value and output value of each color when the floating point calculation is applied in the matching process by the comparison target receiving apparatus.
  • the input values of the single colors white (W), red (R), yellow (Y), green (G), cyan (C), blue (B), and magenta (M) in the low gradation region Represents the output value.
  • table T94 before and after the alignment process, that is, BT. 709, the input value of chromaticity u′v ′ in the color gamut of 709, and BT.
  • the chromaticity difference ⁇ u′v ′ between the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” for any color.
  • FIG. 19 is a fifth diagram illustrating an example of the result of the color gamut changing process performed by the comparison target receiving device.
  • the matching process by comparing the target receiving apparatus, the color space and YC B C R, represents an input value and the output value in the case of outputting the quantization bit number as 12 bits.
  • the input value of each color is the same as the example shown in the table T94.
  • table T95 before and after the alignment process, that is, BT. 709, the input value of chromaticity u′v ′ in the color gamut of 709, and BT.
  • the chromaticity difference ⁇ u′v ′ between the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” only in the case of white, and “0.0000” in the other cases. The value is out of the range.
  • BT. 709 the input value of luminance Y in the color gamut of 709, and BT.
  • the luminance difference ⁇ Y between the output value of the luminance Y in the 2020 color gamut is “0.0000” in any color.
  • FIG. 20 is a sixth diagram illustrating an example of the result of the color gamut changing process performed by the comparison target receiving device.
  • the matching process by comparing the target receiving apparatus, the color space and YC B C R, represents an input value and the output value in the case of outputting the quantization bit number as 10 bits.
  • the input value of each color is the same as the example shown in the table T94.
  • table T96 before and after the alignment process, that is, BT. 709, the input value of chromaticity u′v ′ in the color gamut of 709, and BT.
  • the chromaticity difference ⁇ u′v ′ between the output value of the chromaticity u′v ′ in the 2020 color gamut is “0.0000” only in the case of white, and “0.0000” in the other cases.
  • the value is out of the range.
  • the color is shifted to another color.
  • red at the time of input is yellow at the time of output
  • blue at the time of input and magenta is white at the time of output.
  • BT. 709 the input value of luminance Y in the color gamut of 709, and BT.
  • the luminance difference ⁇ Y between the output value of the luminance Y in the 2020 color gamut is “0.0000” in any color.
  • FIG. 13 is a diagram illustrating an example of a result of the matching process according to the present embodiment.
  • a table T14 illustrated in FIG. 13 is obtained by performing single-color white (W), red (R), yellow (Y), green (G), and cyan (C ), Blue (B), and magenta (M), the input value and the output value.
  • the input value of each color shown in the table T14 is the same as the example shown in the table T94.
  • the level of each component of RGB at the time of inputting each color is stored at the time of output (“Q” in FIG. 13).
  • the receiving apparatus 10 uses the RGB signal for image synthesis, it can suppress the deterioration of bit accuracy, the loss of information due to the conversion of the color space, and the color shift due to the matching process.
  • the conversion unit 190 outputs a video signal in RGB format
  • the synthesis unit 200 synthesizes the video signal output from the conversion unit 190.
  • the receiving device 10 can convert the color gamut while suppressing the chromaticity shift.
  • the receiving apparatus 10 can accurately express the color of 8-bit low gradation graphics.
  • the mathematical formula applied in each process of the matching process is an example, and the present invention is not limited to this.
  • an expression applied in each process may be modified or replaced in accordance with addition or omission of an arbitrary process.
  • changing the mathematical formula so that the process of each process can be applied according to the format of the input signal is included in the category of the above-described embodiment.
  • a program for realizing the functions of the above-described receiving apparatus 10 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed as the receiving apparatus 10. You may perform the process of.
  • “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system.
  • the “computer system” here includes an OS and hardware such as peripheral devices.
  • the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.
  • the recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program.
  • the code of the program stored in the recording medium of the distribution server may be different from the code of the program that can be executed by the terminal device. That is, the format stored in the distribution server is not limited as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device.
  • the program may be divided into a plurality of parts, downloaded at different timings, and combined in the terminal device, or the distribution server that distributes each of the divided programs may be different.
  • the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network.
  • the program may be for realizing a part of the functions described above.
  • achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Of Color Television Signals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

受信装置は、第1の色域の映像信号をEOTFにより変換するEOTF処理部と、EOTF処理部が変換した映像信号の色域を、第1の色域から第2の色域に変換する色域変換部と、色域変換部による変換結果を、放送における基準ディスプレイのガンマの逆関数であるOETFにより変換するOETF処理部と、備える。また、例えば、EOTFとは、OETFの逆関数である。

Description

受信装置
 本発明は、受信装置に関する。
 本願は、2015年8月5日に、日本に出願された特願2015-154764号、特願2015-154767号、及び特願2015-154768号に基づき優先権を主張し、その内容をここに援用する。
 Hybridcast(登録商標)のように、放送と通信とを融合させた放送通信連携サービスが提供されている。このような放送通信連携サービスでは、放送番組に限らず多様なコンテンツが提供される。これら多様なコンテンツを表示する場合、受信装置(受像装置)は、各種コンテンツを表すモノメディアデータを合成して、ディスプレイ(パネル)に出力する。
 ここで、モノメディアデータの合成に先立って、各モノメディアデータの色空間を整合させる処理が必要になる。例えば、非特許文献1には、色空間を整合させる整合処理の流れについて記載されている。
 非特許文献1に記載の色空間を整合処理の流れについて説明する。
 図14は、従来技術に係る受信装置が行う色空間の整合処理の概要を示す図である。
 図14に示す例は、Rec.ITU-R(International Telecommunication Union - Radiocommunication Sector、国際電気通信連合無線通信部門)BT.709(以下、単にBT.709と称する。)からRec.ITU-R BT.2020(以下、単にBT.2020と称する。)へと色空間を変換する場合を示す。
 処理P1では、受信装置は、D’D’CBD’CR(BT.709)からE’E’CBE’CR(BT.709)への逆量子化(Nビット)を行う。つまり、処理P1は、YCの色空間のデジタル信号を逆量子化する処理である。具体的には、処理P1では、映像信号の各成分に対して、下記の式(1)に示す演算を行う。
Figure JPOXMLDOC01-appb-M000001
 処理P2では、受信装置は、E’E’CBE’CR(BT.709)からE’E’E’(BT.709)への変換を行う。具体的には、処理P2では、下記の式(2)に示す処理を行う。
Figure JPOXMLDOC01-appb-M000002
 つまり、処理P1、P2は、YC’’C’とR’G’B’間の変換である。
 処理P3では、受信装置は、E’E’E’(BT.709)からE(BT.709)へのEOTF(電気光伝達関数、Electro-Optical Transfer Function)を適用する。具体的には、処理P3では、下記の式(3)に示す処理を行う。
Figure JPOXMLDOC01-appb-M000003
 処理P4では、受信装置は、E(BT.709)からE(BT.2020)への変換を行う。具体的には、処理P4では、下記の式(4)に示す処理を行う。
Figure JPOXMLDOC01-appb-M000004
 処理P5では、受信装置は、E(BT.2020)からE’E’E’(BT.2020)へのOETF)Optical-Electro Transfer Function)を適用する。つまり、受信装置は、ガンマ補正を行う。具体的には、処理P5では、下記の式(5)に示す処理を行う。
Figure JPOXMLDOC01-appb-M000005
 処理P6では、受信装置は、E’E’E’(BT.2020)からE’E’CBE’CR(BT.2020)への変換を行う。つまり、処理P6は、色空間をRGBからYCに変換する処理である。具体的には、処理P6では、下記の式(6)に示す処理を行う。
Figure JPOXMLDOC01-appb-M000006
 処理P7では、受信装置は、E’E’CBE’CR(BT.2020)からD’D’CBD’CR(BT.2020)への量子化(Nビット)を行う。具体的には、処理P7では、下記の式(7)に示す処理を行う。
Figure JPOXMLDOC01-appb-M000007
「デジタル放送におけるマルチメディア符号化方式(第2世代) ARIB STD-B62 1.1版」,平成27年(2015年)3月17日,一般社団法人電波産業会
 ところで、近年、HDR(High Dynamic Range)に対応したディスプレイの開発が進められている。HDRとは、従来のディスプレイの性能を超える輝度(明るさ)の範囲である。HDRでは、高階調領域、低階調領域を詳細に表現するため、コンテンツの配信元は、より魅力的なコンテンツを提供することができる。将来的には、HDRのモノメディアデータを伝送する放送サービス(HDR放送サービス)が提供されることが想定される。以下では、HDR放送サービスにおける受信装置をHDR受信装置と称することがある。
 ここで、HDR放送サービスが開始された場合には、例えば、HDRの映像により構成される放送番組の他、SDR(Standard Dynamic Range)の映像により構成される通信コンテンツ、グラフィックス(例えば字幕)等が提供されることが想定される。これらのコンテンツが合成され、同時にディスプレイに表示される場合であっても各コンテンツは、それぞれに適切な輝度で表示されることが望ましい。
 HDRの映像信号の場合、OETFとしては、式(5)ではなく、下記の式(8)が適用され、送信されることが想定される。
Figure JPOXMLDOC01-appb-M000008
 ここで、変換率rとは、従来のディスプレイのダイナミックレンジと、HDRとの関係を表すパラメータである。変換率r=0.5の場合、SDRの信号レベルの範囲0≦E≦1は、HDRディスプレイにおいて0≦E’≦0.5の範囲で表現される。つまり、HDRのうち、従来のディスプレイのダイナミックレンジ以上(1<E)の輝度の範囲が、新たに0.5≦E’≦1の信号レベルで表現される。このHDRの映像信号のコンテンツをディスプレイに出力する場合、ディスプレイのガンマ(Gamma)としては、Rec.ITU-R BT.1886に変換率rを考慮した下記の式(9)が考えられる。
Figure JPOXMLDOC01-appb-M000009
 また、HDRディスプレイのガンマのEOTFが定義されず、システム全体としてOOTFが定義される場合がある。しかしながら、OOTFとOETFが決まっていれば、EOTFは決めることができる。OOTFの一例を下記の式(10)に示す。
Figure JPOXMLDOC01-appb-M000010
 ここで、システムガンマは1.2であることから、L=Eとして対応させると式(10)は、下記の式(11)のように展開することができる。
Figure JPOXMLDOC01-appb-M000011
 また、OETFは、0≦E≦1の範囲で下記の式(12)と決まっていれば、求めるEOTFは、式(11)と式(12)から、下記の式(13)のように導き出すことができる。
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
 この式(13)を、0≦E’≦0.5の範囲において、HDR対応ディスプレイのEOTFとして扱うことができる。また、参照レベル用スクリーン輝度(Screen luminance for reference level)αは、例えば、1である。また、黒用スクリーン輝度(Screen luminance for black)βは、例えば、約0である。すなわち、α=1、β≒0(β≪α)として想定する。
 しかしながら、通常は、グラフィックス等に対しては、上述した処理は行われない。この場合、グラフィックスの信号レベルは、0<E’<1のまま、HDRの映像信号と合成され、グラフィックスの映像信号は、HDRの最大値であるE’=1になってしまう。これをHDRディスプレイに表示すると、グラフィックスは、HDRディスプレイの最大輝度で表示され、過剰に明るくなってしまう。
 そこで、受信装置は、グラフィックス等のモノメディアの映像信号に対しても輝度を調節する処理を施すことが望ましい。例えば、上述した非特許文献1に記載のBT.709からBT.2020への色空間の整合処理に、HDR信号に対応してグラフィックス等の輝度を調節することのできる処理を盛り込むことが考えられる。具体的には、グラフィックスに対して、OETFを上述した式(8)に置き換えて色空間の整合処理を実行することが考えられる。
 図15に示すテーブルT91は、OETFを上述した式(8)に置き換えた場合の整合処理において、高階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表すテーブルである。
 テーブルT91において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との間における色度差Δu’v’は、白色でのみ「0.0000」であり、その他の色では「0.0000」から外れた値となっている。つまり、この受信装置が行う高階調領域の整合処理では、白色のみ色度が維持され、その他の色では色度がずれ、異なる色に変換されてしまう。これは、処理P4により単色の入力においても中間階調が使われて、OETFのガンマが、ディスプレイのガンマと異なっているため、中間階調のレベルがずれてしまうからである。
 図16に示すテーブルT92は、OETFを上述した式(8)に置き換えた場合の整合処理において、中間階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表すテーブルである。
 テーブルT92において、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との間における輝度差ΔYは、いずれの色でも「0.0000」から外れた値となっている。つまり、比較対象受信装置が行う中間階調領域の整合処理では、輝度がずれて、異なる輝度の色に変換されてしまう。
 このように、色空間の整合処理を行った場合には、整合処理の前後でグラフィックスの輝度や色がずれてしまうことがあった。
 本発明のいくつかの態様は、HDR受信装置においてグラフィックスの輝度と色とを適切に変換することができる受信装置を提供することを目的の一つとする。
 また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にする受信装置を提供することを目的の一つとする。
 上述した課題を解決するために、本発明の一態様は、第1の色域の映像信号をEOTFにより変換するEOTF処理部と、EOTF処理部が変換した映像信号の色域を、第1の色域から第2の色域に変換する色域変換部と、色域変換部による変換結果を、放送における基準ディスプレイのガンマの逆関数であるOETFにより変換するOETF処理部と、備える受信装置である。
 本発明によれば、HDR受信装置においてグラフィックスの輝度と色とを適切に変換することができる。
本発明の第1の実施形態に係る受信装置による処理の概要を示す図である。 同実施形態に係る放送システムの全体構成を示す図である。 同実施形態に係る受信装置のハードウェア構成を示す図である。 同実施形態に係る受信装置の概略機能構成を示す図である。 同実施形態に係る受信装置による整合処理の流れを示す図である。 同実施形態に係る整合処理の結果の例を示す図である。 本発明の第2実施形態に係る受信装置による整合処理の流れを示す図である。 同実施形態に係る整合処理の結果の例を示す図である。 同実施形態に係る整合処理の結果の例を示す図である。 本発明の第3の実施形態に係る受信装置による整合処理の概要を示す図である。 同実施形態に係る整合処理の結果の例を示す図である。 本発明の第4の実施形態に係る受信装置による整合処理の概要を示す図である。 同実施形態に係る整合処理の結果の例を示す図である。 従来技術の実施形態に係る受信装置による整合処理の流れを示す図である。 比較対象の受信装置による色域変更処理の結果の例を示す第1図である。 比較対象の受信装置による色域変更処理の結果の例を示す第2図である。 比較対象の受信装置による色域変更処理の結果の例を示す第3図である。 比較対象の受信装置による色域変更処理の結果の例を示す第4図である。 比較対象の受信装置による色域変更処理の結果の例を示す第5図である。 比較対象の受信装置による色域変更処理の結果の例を示す第6図である。
 以下、本発明の一実施形態について、図面を参照して説明する。
 [第1の実施形態]
 <放送システムの概要>
 本発明の第1の実施形態について説明する。
 本実施形態に係る放送システム1(図2)は、放送番組を放送し、表示するシステムである。
 本実施形態位に係る放送番組とは、HDRのモノメディアデータにより構成される放送番組である。本実施形態では、一例として、HDRにSDRが包含される。従って、本実施形態において、放送番組は、HDR、又はで、SDRで表示されることを想定して作成されている。
 HDRの輝度の範囲は、例えば、放送システム1の運用において、放送システム1ごとに定められてよい。
 放送システム1において、受信装置10(図2)は、放送番組、グラフィックス(例えば、字幕等の文字、ブラウザ、テレビメニュー)等を、HDRディスプレイに表示することができる。HDRディスプレイとは、HDRの映像を、HDRで表示することができるディスプレイである。
 ここで、図1を参照して、受信装置10がデータの再生のために行う処理の概要を説明する。
 図1は、本実施形態に係る受信装置10による処理の概要を示す図である。
 受信装置10へ伝送されてきたデータは、トランスポート処理によって伝送データ復号処理が行われる。
 トランスポート処理では、ストリーム系データ(UHDTVやHDTVの映像、音声、字幕等)やファイル系データ(静止画や文字、図形等)が、受信された信号より分離され、それぞれを復号するデコーダーに引き渡される。放送を介して伝送されるもの、通信で伝送されるもの(主としてプル型で受信装置10が取得を始めるもので、UHDTVやHDTVの映像、音声などのストリームも含む)それぞれのプロトコルスタックに応じた伝送データの復号処理が行われる。
 映像、音声、静止画等のコンテンツを表すモノメディアデータはトランスポート処理よりそれぞれのモノメディアデコーダへ引き渡され復号される。マルチメディアプレーンへ出力するモノメディアデコーダは、プレーンへの出力の際に必要に応じて色域変換を行い、各々のモノメディアの色空間を整合させる。
 各プレーンに出力されたモノメディア復号データは、それぞれの大きさ、位置などの制御を受け、合成される。合成に先立って、提示される要素の色空間を整合させる必要があるが、マルチメディアプレーンへ出力されるデータの色空間はプレーンへの出力段階で整合されている。一方、字幕、文字スーパーの両者は同一の色空間を用いるので、字幕プレーン、文字スーパープレーンを合成後に色域変換を行い、マルチメディアプレーンと色空間を整合させる。
 このように、受信装置10は、互いに色域の異なるモノメディアのデータについて、色域の変換を行い、色域を整合させる。また、受信装置10は、この整合処理において、モノメディアデータの輝度の信号レベルの調整を行う。整合処理では、EOTF処理、色域変換処理、及びOETF処理の3つの処理が順に実行される。
 EOTF処理とは、モノメディアデータに対して、EOTFを適用する処理である。
 色域変換処理とは、EOTF処理後のモノメディアデータを特定の色域に変換する処理である。
 OETF処理とは、色域変換処理後のモノメディアデータに対して、OETFを適用する処理である。上述したように、このOETFにおいて、変換率rを含む式を適用することにより、受信装置10は、モノメディアデータの輝度を調整することができる。
 ここで、EOTF、OETFに適用する式としては、種々の態様が想定される。しかしながら、上述したようにEOTF、OETFの選択によっては、モノメディアデータの輝度を調整することはできても、整合処理の前後で色ずれが発生する場合がある。そこで、本実施形態に係る受信装置10は、OETF処理において、OETFとして基準ディスプレイのガンマの逆関数を適用する。ここで、基準ディスプレイとは、例えば、規格により定められた基準を満たす標準的なディスプレイである。この規格とは、主に産業や技術の分野において、製品や材料、あるいは工程などに関して定義された基準のことであり、例えば、HDRに関する放送規格、HDRに関する団体の勧告等を含む。具体的には、例えば、基準ディスプレイとは、BT.1886に規定された基準に適合するディスプレイや、HDRテレビジョン放送についてのITU-R勧告に適合するディスプレイである。これにより、受信装置10は、HDRのモノメディアデータの色域を変換する場合であっても、出力先のHDRディスプレイが基準ディスプレイの要件を満たしていれば、モノメディアデータの入力時と出力時とにおいて、色がずれてしまうことを防ぐことができる。
 以上が、受信装置10がデータの再生のために行う処理の概要についての説明である。
 <放送システムの構成>
 次に、本実施形態に係る放送システム1の構成について説明する。
 図2は、本実施形態に係る放送システム1の構成の一例を示すブロック図である。
 放送システム1は、放送サービスと、通信サービスとの両方を提供するシステムである。ここでは、一例として、放送システム1がメディアトランスポート方式としてMMT(MPEG Media Transport)方式を用いる場合について説明する。
 放送システム1は、受信装置10と、表示装置11と、放送側送信装置30と、通信側送信装置50と、を備える。
 受信装置10は、放送サービスと通信サービスとを受けることができる電子機器である。具体的には、受信装置10は、例えば、セットトップボックス、テレビ、パーソナルコンピュータ、携帯電話、タブレット、スマートフォン、PHS(Personal Handy-phone System)端末装置、又はPDA(Personal Digital Assistant)等である。ここでは、一例として、受信装置10がセットトップボックスである場合について説明する。
 表示装置11は、ディスプレイを備えた装置である。表示装置11と、受信装置10とは、HDRの映像信号を伝送可能に接続されている。具体的には、例えば、表示装置11と、受信装置10とは、HDMI(登録商標)2.0aに準拠したケーブルにより互いに通信可能に接続される。
 放送側送信装置30は、放送コンテンツi1と、番組情報i2とが多重された放送波を送信する装置である。ここで、番組情報i2とは、番組の詳細を示す情報である。また、番組情報i2とは、具体的には、MMT方式におけるMMT-SI(サービス情報、Service Information)情報である。MMT-SI情報には、例えば、番組の名称、放送日時、放送内容の説明など、番組に関する情報を伝送するテーブルであるMH-EIT(MH-イベント情報テーブル、MH-Event Information Table)が含まれる。放送側送信装置30が送信した放送波は、放送衛星BSを介して、受信装置10に伝送される。
 通信側送信装置50は、例えば、サーバ装置であり、通信コンテンツi3を受信装置10に送信する装置である。通信側送信装置50と、受信装置10とは、それぞれ、ネットワークNWに接続し、互いに通信することができる。
 ネットワークNWは、WAN(Wide Area Network)及びLAN(Local Area Network)等によって構成される情報通信ネットワークである。WANは、例えば、携帯電話網、PHS(Personal Handy-phone System)網、PSTN(Public Switched Telephone Network;公衆交換電話網)、専用通信回線網、及びVPN(Virtual
 Private Network)等によって構成される。
 <受信装置のハードウェア構成>
 次に、受信装置10のハードウェア構成について説明する。
 図3は、本実施形態に係る受信装置10のハードウェア構成の一例を示すブロック図である。
 受信装置10は、CPU100、ROM1001、RAM1002、不揮発メモリ1003、チューナー(Tuner)101、ネットワークインターフェース(Network I/F)102、復調モジュール(Decrypt)103、分離モジュール(Demux)104、音声復号モジュール(Audio Decoder)105、映像復号モジュール(Video Decoder)107、描画モジュール108、ビデオメモリ1081、及びディスプレイインターフェース109を含んで構成される。
 CPU100と、記憶媒体1001と、チューナー101と、ネットワークインターフェース102と、復調モジュール103と、分離モジュール104と、音声復号モジュール105と、映像復号モジュール107と、描画モジュール108と、ビデオメモリ1081とは、バス(母線)を介して相互に接続される。また、ディスプレイインターフェース109は、音声復号モジュール105及び描画モジュール108と接続される。
 CPU100は、プログラム、各種データを読み出して、当該CPU100を備える自装置を制御する。また、CPU100は、各種グラフィックス等の映像信号を生成する。
ROM1001は、例えば、プログラムを記憶する記憶媒体である。RAM1002は、例えば、各種データ、プログラムを一時的に記憶する記憶媒体である。不揮発メモリ1003は、HDD、フラッシュメモリなどの記憶媒体であり、例えば、各種データを記憶する。
 なお、CPU100が読み出すプログラムは、ROM1001に記憶されている一例を示したが、他の記憶媒体に記憶されていてもよいし、ネットワークNWからダウンロードされたものであってもよい。CPU100が読み出す各種データは、不揮発メモリに記憶されている一例を示したが、ROM1001に記憶されていてもよいし、ネットワークNWからダウンロードした各種データであってもよい。
 チューナー101は、放送波を受信する。ネットワークインターフェース102は、通信用インターフェースを有し、有線又は無線によりネットワークNWに接続される。復調モジュール103は、放送信号を復調する。分離モジュール104は、放送信号から各種データを分離する。音声復号モジュール105は、符号化された音声信号を復号化する。
映像復号モジュール107は、符号化された映像信号を復号化する。描画モジュール108は、各種映像信号の合成と、ビデオメモリ1081への映像信号の書き込みと、表示装置11への映像信号の出力とを制御する。ビデオメモリ1081は、表示装置11に表示される映像の映像信号を記憶する。ディスプレイインターフェース109は、描画モジュール108が合成した映像信号と、音声復号モジュール105が復号化した音声信号を表示装置11に送信する。また、ディスプレイインターフェース109は、表示装置11からディスプレイについての各種の情報を受信する。
 <受信装置と表示装置の機能的構成>
 次に、受信装置10と、表示装置11との機能的構成について説明する。
 図4は、本実施形態に係る受信装置10と、表示装置11との機能的構成の一例を示すブロック図である。
 受信装置10は、チューナー部110と、復調部120と、通信部130と、分離部140と、デコーダー部150と、グラフィック処理部160と、ディスプレイ情報記憶部170と、判断部180と、変換部190と、合成部200と、ディスプレイ側通信部210と、を備える。
 チューナー部110は、チューナー101を備え、放送波を受信する。チューナー部110は、受信した放送信号を復調部120に出力する。
 復調部120は、復調モジュール103を備え、チューナー部110から取得した放送信号を復調する。復調部120は、復調した放送信号を分離部140に出力する。
 通信部130は、ネットワークインターフェース102を備え、通信側送信装置50と通信を行い、通信側送信装置50から配信されたデータを取得する。通信側送信装置50は、取得したデータを分離部140に出力する。
 分離部140は、分離モジュール104を備え、復調部120から取得した放送信号から放送番組の映像信号と、放送番組の音声信号と、番組情報と、を分離する。また、分離部140は、通信部130から取得したデータから通信コンテンツのデータを分離する。
また、分離部140は、復調部120から取得した放送信号、又は、通信部130から取得したデータから放送番組の字幕データを分離する。分離部140は、分離した放送番組の映像信号と、音声信号と、字幕データと、をデコーダー部150に出力する。また、分離部140は、分離した通信コンテンツのデータと、番組情報と、をグラフィック処理部160に出力する。
 デコーダー部150は、音声復号モジュール105と、映像復号モジュール107と、を備え、各種信号を復号化(デコード)する。音声デコーダー部151と、ビデオデコーダー部152と、字幕デコーダー部153と、を備える。
 音声デコーダー部151は、分離部140から取得した放送番組の音声信号を復号化する。音声デコーダー部151は、復号化後の音声信号をディスプレイ側通信部210に出力する。
 ビデオデコーダー部152は、分離部140から取得した放送番組の映像信号を復号化する。ビデオデコーダー部152は、復号化後の映像信号を変換部190に出力する。放送番組の映像信号は、SDR、又は、HDRで表現されることを想定し、色空間がRGB、又はYCの10、又は、12ビットのデータとして伝送される。
 字幕デコーダー部153は、分離部140から取得した字幕データを復号化し、字幕表示用の映像信号を生成する。字幕デコーダー部153は、生成した字幕の映像信号を変換部190に出力する。
 グラフィック処理部160は、例えば、CPU100がROM1001に記憶されているプログラムを実行することにより機能し、グラフィックスの映像信号を生成する。グラフィックスの映像信号は、例えば、SDRで表現されることを想定し、色空間がRGBの8ビットのデータとして生成される。グラフィック処理部160は、ブラウザ実行部161と、SI処理部162とを備える。
 ブラウザ実行部161は、ブラウザアプリケーションを実行する。ブラウザ実行部161は、例えば、ブラウザアプリケーションの映像信号や、ブラウザアプリケーション上で提示される通信コンテンツの映像信号を生成する。ブラウザ実行部161は、生成した映像信号を変換部190に出力する。
 SI処理部162は、番組情報を処理する。SI処理部162は、分離部140から取得した番組情報を解析し、番組情報から抽出される電子番組表(EPG、Electronic Program Guide)等の提示可能な情報の映像信号を生成する。SI処理部162は、生成した映像信号をSI変換部194に出力する。また、SI処理部162は、番組情報から、例えば、映像信号の変換のための基準値の情報を抽出する。この基準値の情報には、例えば、ホワイト参照レベルのための映像レベル(Video level for reference white level)の情報が含まれる。このホワイト参照レベルのための映像レベルとは、変換率rに対応する情報である。
 ディスプレイ情報記憶部170は、受信装置10に接続された表示装置11のディスプレイの属性情報等を記憶する。ディスプレイ情報記憶部170に記憶された情報は、例えば、変換部190の処理において、必要に応じて随時参照される。
 変換部190は、デコーダー部150から出力された各種映像信号を、特定の色空間、量子化ビット数に変換する。ここでは一例として、変換部190が、デコーダー部150から出力された各種映像信号を、色空間がRGB、又は、YCであって、量子化ビット数が10ビット、又は、12ビットである映像信号に変換する場合について説明する。以下では、色空間がRGB、又は、YCであって、量子化ビット数が10ビット、又は、12ビットである映像信号のフォーマットを変換先フォーマットと称する。
 変換部190は、ビデオ変換部191と、字幕変換部192と、ブラウザ変換部193と、SI変換部194と、を備える。
 ビデオ変換部191は、ビデオデコーダー部152から放送番組の映像信号を取得する。ビデオ変換部191は、取得した放送番組の映像信号を、変換先フォーマットに変換する。ビデオ変換部191は、変換後の映像信号を、合成部200に出力する。
 字幕変換部192は、字幕デコーダー部153から字幕の映像信号を取得する。字幕変換部192は、取得した放送番組の映像信号を、変換先フォーマットに変換する。字幕変換部192は、変換後の映像信号を、合成部200に出力する。
 ブラウザ変換部193は、ブラウザ実行部161から通信コンテンツの映像信号を取得する。ブラウザ変換部193は、取得した放送番組の映像信号を、変換先フォーマットに変換する。ブラウザ変換部193は、変換後の映像信号を、合成部200に出力する。
 SI変換部194は、SI処理部162から、例えば、電子番組表等の映像信号を取得する。SI変換部194は、取得した放送番組の映像信号を、変換先フォーマットに変換する。SI変換部194は、変換後の映像信号を、合成部200に出力する。
 合成部200は、ビデオ変換部191、字幕変換部192、ブラウザ変換部193、SI変換部194から各種映像信号を取得する。合成部200は、取得した各種映像信号が示すモノメディアが、所定の画面レイアウトに配置されるように、各種映像信号を合成する。合成部200は、合成した映像信号をディスプレイ側通信部210に出力する。
 ディスプレイ側通信部210は、例えば、HDMI(登録商標)2.0a規格に準拠した通信用ICを備え、表示装置11と通信する。ディスプレイ側通信部210は、合成部200が出力した映像信号と、音声デコーダー部151が出力した音声信号とを、表示装置11に送信する。これにより、表示装置11は、映像と音声とを再生することができる。また、ディスプレイ側通信部210は、例えば、表示装置11と最初に接続されたときに、ディスプレイ情報を表示装置11から受信し、受信したディスプレイ情報をディスプレイ情報記憶部170に記憶させる。これにより、受信装置10は、自装置に接続された表示装置11の属性情報を参照し、表示装置11ごとの特性に合わせた処理を実行することができる。
 次に、表示装置11の機能的構成について説明する。
 表示装置11は、表示装置通信部111と、ディスプレイ情報記憶部112と、表示部113と、音声出力部114と、を備える。
 表示装置通信部111は、例えば、HDMI(登録商標)2.0a規格に準拠した通信用ICを備え、受信装置10と通信する。表示装置通信部111は、受信装置10から映像信号を受信して、表示部113に出力する。また、ディスプレイ情報記憶部112は、受信装置10から音声信号を受信して、音声出力部114に出力する。また、表示装置通信部111は、例えば、受信装置10と最初に接続されたときに、ディスプレイ情報記憶部112からディスプレイ情報を読み出して、読み出したディスプレイ情報を受信装置10に送信する。なお、ディスプレイ情報の送信は、例えば、受信装置10からの要求に応じて、任意のタイミングで行われてよい。
 ディスプレイ情報記憶部112は、自装置の表示部113に関するディスプレイ情報を記憶する。
 表示部113は、HDRの基準ディスプレイを備える。この基準ディスプレイは、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Organic Electro-Luminescence)ディスプレイ等である。表示部113は、表示装置通信部111から取得した映像信号に基づいて、映像を表示する。
 音声出力部114は、例えば、スピーカー、アンプ等を備える。音声出力部114は、表示装置通信部111から取得した音声信号に基づいて音声を再生する。
 次に、変換部190による整合処理について具体的に説明する。
 図5は、本実施形態に係る受信装置10による映像信号の整合処理の流れを示す図である。
 ここで、上述した従来技術に係る受信装置が処理P5を行ったのに対して、受信装置10の変換部190は、処理P52を実行する。処理P52では、OETFとして、上述した基準ディスプレイのガンマの逆関数を適用する。具体的には、基準ディスプレイのガンマが上記の式(12)により表される場合、受信装置10は、上記の式(11)をOETFとして適用する。また、基準ディスプレイのガンマが上記の式(9)や式(13)により表される場合、受信装置10は、それらの逆関数である下記の式(14)をOETFとして適用する。ただし、β≪αと想定する。
Figure JPOXMLDOC01-appb-M000014
 受信装置10は、処理P1、P2、P3、P4、P52、P6、P7の処理を、モノメディアの種類に応じて適宜実行することにより、各モノメディアの色域を整合させて表示させることができる。
 ここでは一例として、4種類のモノメディアA~Dに対する整合処理について説明する。このうち、モノメディアAは、例えば、HDRの映像であり、モノメディアB~Dは、例えば、SDRの映像、グラフィックス等である。
 モノメディアAは、色空間がYC又はRGBであり、量子化ビット数が10又は12ビットであるデータである。また、モノメディアAは、上述した式(8)に示すOETFを処理済みであり、BT.2020の色域のデータである。変換部190は、モノメディアAについては、上述したP1~P7の処理を実行せず、そのまま合成する。
 モノメディアBは、色空間がRGBであり、量子化ビット数が10又は12ビットであるデータである。また、モノメディアBは、BT.709又はBT.2020の色域のデータである。変換部190は、モノメディアBについては、処理P3、P4、P52、P6、P7を順に実行する。ただし、BT.2020の場合には、処理P4を実行せず、処理P3の次に処理P52を実行する。
 モノメディアCは、色空間がYCであり、量子化ビット数が10又は12ビットデータである。また、モノメディアCは、BT.709又はBT.2020の色域のデータである。変換部190は、モノメディアCについては、処理P2、P3、P4、P52、P6、P7を順に実行する。ただし、BT.2020の場合には、処理P4を実行せず、処理P3の次に処理P52を実行する。
 モノメディアDは、色空間がRGBであり、量子化ビット数が8ビットのデータである。また、モノメディアDは、BT.709の色域のデータである。変換部190は、モノメディアDについては、処理P3、P4、P52、P6、P7を順に実行する。
 以上が、モノメディアの種類に応じた整合処理の説明である。
 <変換結果>
 次に、処理P52のOETFにおいて、基準ディスプレイのEOTFの逆関数を適用することによる効果について説明する。
 図6は、本実施形態に係る整合処理の結果の例を示す図である。
 図6に示すテーブルT11は、受信装置10の変換部190による整合処理において、高階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。テーブルT11に示す各色の入力値は、テーブルT91に示す例と同様である。
 テーブルT11において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との色度差Δu’v’は、いずれの色でも「0.0000」、又は、「0.0001」である。つまり、受信装置10が行う高階調領域の整合処理では、整合処理の前後で色度が保たれている。
 また、テーブルT11において、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との輝度差ΔYは、いずれの色でも「0.0000」、又は、「0.0001」である。つまり、受信装置10が行う高階調領域の整合処理では、整合処理の前後で輝度が保たれている。このように、OETFに基準ディスプレイのガンマの逆関数を適用することにより、整合処理の前後において、輝度も色度も保つことができる。
 <第1の実施形態のまとめ>
 以上説明したように、本実施形態に係る受信装置10は、第1の色域の映像信号をEOTFにより変換(例えば、処理P3)し、第1の色域から第2の色域に変換(例えば、処理P4)し、放送における基準ディスプレイのガンマの逆関数であるOETFにより変換(例えば、処理P52)する変換部190を備える。
 これにより、受信装置10は、例えば、グラフィックスの高階調領域において、色ずれを抑制しつつ、輝度を調整することができる。
 [第2の実施形態]
 <放送システムの概要>
 本発明の第2の実施形態について説明する。ここでは、上述した第1の実施形態と同様の構成については、同一の符号を付し、説明を援用する。
 本実施形態に係る放送システム1は、第1の実施形態と同様に放送番組を放送し、表示するシステムである。ただし、本実施形態では、整合処理における一部の処理が、第1の実施形態とは異なる。
 本実施形態に係る変換部190による整合処理について具体的に説明する。
 図7は、本実施形態に係る受信装置10による映像信号の整合処理の流れを示す図である。
 ここで、上述した従来技術に係る受信装置が処理P3を行ったのに対して、受信装置10の変換部190は、処理P32を実行する。処理P32では、EOTFとして、上述した式(8)に示すOETFの逆関数を適用する。
 受信装置10は、処理P1、P2、P32、P4、P5、P6、P7の処理を、モノメディアの種類に応じて適宜実行することにより、各モノメディアの色域を整合させて表示させることができる。
 変換部190は、モノメディアBについては、処理P32、P4、P5、P6、P7を順に実行する。ただし、BT.2020の場合には、処理P4を実行せず、処理P3の次に処理P5を実行する。
 変換部190は、モノメディアCについては、処理P1、P2、P32、P4、P5、P6、P7を順に実行する。ただし、BT.2020の場合には、処理P4を実行せず、処理P32の次に処理P5を実行する。
 変換部190は、モノメディアDについては、処理P32、P4、P5、P6、P7を順に実行する。
 以上が、モノメディアの種類に応じた整合処理の説明である。
 <変換結果>
 次に、処理P32のEOTFにおいて、OETFの逆関数を適用することによる効果について説明する。
 図8は、本実施形態に係る整合処理の結果の例を示す図である。
 図8に示すテーブルT12は、受信装置10の変換部190による整合処理において、中間階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。テーブルT12に示す各色の入力値は、テーブルT91に示す例と同様である。
 テーブルT12において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との色度差Δu’v’は、白色でのみ「0.0000」であり、その他の色では「0.0000」から外れた値となっている。他方、テーブルT12において、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との輝度差ΔYは、白色の倍に「0.0000」となっている。つまり、整合処理の前後において、白色については、色度と輝度との両方が保たれている。このように、受信装置10は、互いに逆関数の関係にあるEOTFとOETFとを適用することにより、整合処理の前後において、グラフィックスの白色の輝度、色度を保つことができる。
 図9は、本実施形態に係る整合処理の結果の第2例を示す図である。
 図9に示すテーブルT13は、受信装置10の変換部190による整合処理において、高階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。
 テーブルT13を確認すると、高階調領域においても、整合処理の前後において、白色については、色度と輝度との両方が保たれていることが確認できる。
 <第2の実施形態のまとめ>
 以上説明したように、本実施形態に係る受信装置10は、第1の色域(例えば、BT.709)の映像信号をEOTFにより変換(例えば、処理P32)し、第1の色域から第2の色域(例えば、BT.2020)に変換(例えば、処理P4)し、OETFにより変換(例えば、処理P5)する変換部190、を備え、EOTFと、OETFとは、互いに逆関数の関係にある。
 これにより、受信装置10は、例えば、中間階調領域等において、グラフィックスの白色の輝度ずれを抑制することができる。
 [第3の実施形態]
 <放送システムの概要>
 本発明の第3の実施形態について説明する。ここでは、上述した第1、第2の実施形態と同様の構成については、同一の符号を付し、説明を援用する。
 本実施形態に係る放送システム1は、第1の実施形態と同様に放送番組を放送し、表示するシステムである。ただし、本実施形態では、整合処理における一部の処理が、第1の実施形態とは異なる。
 図10は、本実施形態に係る受信装置10による整合処理の概要を示す図である。
 図10に示すように、受信装置10は、処理P33を実行する。
 ここで、処理P33について説明する。処理P33では、EOTFとして基準ディスプレイのガンマを適用する。基準ディスプレイのガンマが上記の式(9)や式(13)により表される場合、それらの逆関数である上記の式(14)を、処理P52のOETFとして適用する。ただし、β≪αと想定する。
 このように、EOTF処理において、OETF処理に用いる式の逆関数を適用することにより、受信装置10は、高階調領域だけでなく、中間階調領域や、低階調領域における色ずれを抑制することができる。
 <変換結果>
 次に、処理P33のEOTFにおいて、処理P52のOETFの逆関数を適用することによる効果について説明する。ここでは、処理P33を実行した場合(すなわち、式(11)を適用した場合)と、処理P3を実行した場合(すなわち、式(3)を適用した場合)とについて、整合処理の前後において、色の比較を行う。
 図17は、比較対象受信装置による色域変更処理の結果の例を示す第4図である。
 ここでは、比較対象受信装置は、処理P33に代えて処理P3を実行する点が受信装置10とは異なる。つまり、比較対象受信装置は、第1の実施形態に係る受信装置10である。
 図17に示すテーブルT93は、比較対象受信装置による整合処理において、中間階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。
 テーブルT93において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との間における色度差Δu’v’は、いずれの色でも「0.0000」、又は、「0.0001」である。つまり、比較対象受信装置が行う中間階調領域の整合処理では、整合処理の前後で色度が保たれている。
 また、テーブルT93において、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との間における輝度差ΔYは、いずれの色でも「0.0000」から外れた値となっている。つまり、比較対象受信装置が行う中間階調領域の整合処理では、輝度がずれて、異なる輝度の色に変換されてしまう。この現象は、低階調領域の色についても同様に観察される。このように、EOTFに、OETFの逆関数とは異なる関数を適用すると、中間階調、低階調領域において、特に顕著に、整合処理の前後において輝度にずれが生じる。
 次に、本実施形態に係る受信装置10による変換結果について説明する。
 図11は、本実施形態に係る整合処理の結果の例を示す図である。
 図11に示すテーブルT13は、受信装置10の変換部190による整合処理において、中間階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。テーブルT13に示す各色の入力値は、テーブルT93に示す各色の例と同様である。
 テーブルT13において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との色度差Δu’v’は、いずれの色でも「0.0000」、又は、「0.0001」である。つまり、受信装置10が行う中間階調領域の整合処理では、整合処理の前後で色度が保たれている。
 また、テーブルT13において、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との輝度差ΔYは、いずれの色でも「0.0000」、又は、「0.0001」である。つまり、受信装置10が行う中間階調領域の整合処理では、整合処理の前後で輝度が保たれている。このように、EOTFに、OETFの逆関数を適用することにより、整合処理の前後において、中間階調、低階調領域であっても、輝度も色度も保つことができる。
 <第3の実施形態のまとめ>
 以上説明したように、本実施形態に係る受信装置10において、変換部190は、第1の色域(例えば、BT.709の色域)の映像信号を、OETFの逆関数であるEOTFにより変換(例えば、処理P33)し、第1の色域から第2の色域(例えば、BT.2020の色域)に変換(例えば、処理P4)し、放送における基準ディスプレイのガンマの逆関数であるOETFにより変換(例えば、処理P52)する。
 これにより、受信装置10は、グラフィックスについて、色ずれを抑制しつつ、輝度を調整することができる。
 また、受信装置10は、白色以外についても、単色の輝度、色度のずれを抑制することができる。
 [第4の実施形態]
 本発明の第4の実施形態について説明する。ここでは、上述した第1-第3の実施形態と同様の構成については、同一の符号を付し、説明を援用する。
 本実施形態に係る放送システム1は、第1-第3の実施形態と同様に放送番組を放送し、表示するシステムである。ただし、本実施形態では、整合処理における一部の処理が、第1-第3の実施形態とは異なる。以下では、一例として、第3の実施形態に、本実施形態の差異点を適用する場合について説明する。
 図12は、本実施形態に係る受信装置10による整合処理の概要を示す図である。
 図12に示すモノメディアEとは、色空間がYCであり、量子化ビット数が10又は12ビットのデータである。また、モノメディアEは、BT.2020の色域に変換されるデータである。変換部190は、モノメディアEについては、処理P1、P2、P33、P52を順に実行する。また、変換部190は、モノメディアDについては、処理P33、P4、P52を順に実行する。これにより、受信装置10の合成部200は、複数のモノメディアのRGB信号を取得し、取得したRGB信号を合成して表示装置11に出力する。
 ここで、特に低い階調領域では、整合処理により、色のずれを生じることがある。この色ずれは、上述したホワイト参照レベルのための映像レベルrを0.5とすることによりビット精度が劣化してしまうこと、YCの変換において情報の損失が発生ことに起因する。
 このビット精度の劣化とは、BT.709からBT.2020への変換において、映像レベルrによる変換を受けるモノメディアが色域の狭い範囲に高精細にマッピングされるのに対して、より広い色域を有するBT.2020では、モノメディアの各色がマッピングされた領域において相対的に少ないビット精度しか有さないために、情報の損失が発生することを意味する。このビット精度の劣化は、特に低階調の領域で顕著に現れる。
 また、RGBとYCとは異なる色空間であるため、RGBで表現される各色が、YCで表現される各色に1対1で対応するわけではない。つまり、RGBとYCとの間の変換を行うことにより、不可逆的な情報の損失が発生する。
 しかしながら、上述したように、受信装置10は、RGB信号でモノメディアを合成する。受信装置10は、低階調領域であっても、整合処理の前後で色ずれの発生を抑制することができる。
 <変換結果>
 次に、RGB信号を映像の合成に用いることによる効果について説明する。
 図18は、比較対象受信装置による色域変更処理の結果の例を示す第4図である。
 ここでは、比較対象受信装置は、YCの色空間でモノメディアを出力する。つまり、比較対象受信装置は、YCの色空間でモノメディアを出力し、合成する場合の第3の実施形態に係る受信装置10である。
 図18に示すテーブルT94は、比較対象受信装置による整合処理において、浮遊小数点演算を適用した場合の各色の入力値と出力値とを表す。ここでは、低階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。
 テーブルT94において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との間における色度差Δu’v’は、いずれの色でも「0.0000」である。
 また、テーブルT94において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との間における色度差Δu’v’は、いずれの色でも「0.0000」である。つまり、比較対象受信装置において、浮遊小数点演算を適用した場合には、色のずれは発生していない。
 図19は、比較対象受信装置による色域変更処理の結果の例を示す第5図である。
 ここでは、比較対象受信装置による整合処理において、色空間をYCとし、量子化ビット数を12ビットとして出力する場合の入力値と出力値とを表す。各色の入力値は、テーブルT94に示す例と同様である。
 テーブルT95において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との間における色度差Δu’v’は、白色の場合のみ「0.0000」であり、それ以外の場合は、「0.0000」から外れた値となっている。他方、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との間における輝度差ΔYは、いずれの色においても「0.0000」である。このように、12ビットのYCの形式で出力する場合には、輝度のずれは発生しないものの、ビット精度の劣化、色空間の変換による情報の損失により、色度のずれが発生する。
 図20は、比較対象受信装置による色域変更処理の結果の例を示す第6図である。
 ここでは、比較対象受信装置による整合処理において、色空間をYCとし、量子化ビット数を10ビットとして出力する場合の入力値と出力値とを表す。各色の入力値は、テーブルT94に示す例と同様である。
 テーブルT96において、整合処理の前後、すなわちBT.709の色域における色度u’v’の入力値と、BT.2020の色域における色度u’v’の出力値との間における色度差Δu’v’は、白色の場合のみ「0.0000」であり、それ以外の場合は、「0.0000」から外れた値となっている。また、この場合は、色が他の色にずれてしまっている。具体的には、例えば、入力時の赤色が出力時には黄色になり、入力時の青色、マゼンダが出力時には白色になってしまっている。他方、BT.709の色域における輝度Yの入力値と、BT.2020の色域における輝度Yの出力値との間における輝度差ΔYは、いずれの色においても「0.0000」である。このように、10ビットのYCの形式で出力する場合には、輝度のずれは発生しないものの、ビット精度の劣化、色空間の変換による情報の損失により、色度のずれが発生する。
 次に、本実施形態に係る受信装置10による変換結果について説明する。
 図13は、本実施形態に係る整合処理の結果の例を示す図である。
 図13に示すテーブルT14は、受信装置10の変換部190による整合処理において、低階調領域における単色の白(W)、赤(R)、黄(Y)、緑(G)、シアン(C)、青(B)、マゼンダ(M)の各色の入力値と、出力値とを表す。テーブルT14に示す各色の入力値は、テーブルT94に示す例と同様である。
 テーブルT14において、各色の入力時におけるRGBの各成分の高低は、いずれも出力時(図13の「Q」)において保存されている。このように、受信装置10は、RGB信号を映像の合成に用いるため、ビット精度の劣化、色空間の変換による情報の損失を抑制し、整合処理による色のずれを抑制することができる。
 <第4の実施形態のまとめ>
 以上説明したように、本実施形態に係る受信装置10において、変換部190は、RGB形式の映像信号を出力し、合成部200は、変換部190が出力した映像信号を合成する。
 これにより、受信装置10は、色度のずれを抑制しつつ色域を変換することができる。
受信装置10は、特に8ビットの低階調のグラフィックスの色を正確に表現することができる。
 [変形例]
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1~3の実施形態において説明した各構成は、任意に組み合わせることができる。
 なお、上述した各実施形態において、整合処理の各処理において適用した数式は例示であり、これに限定されるものではない。例えば、整合処理の各過程において、任意の処理を追加、省略すること等に応じ、各過程において適用した式を変形、置換してもよい。例えば、入力される信号の形式に応じて、各過程の処理を適用できるように数式を改変することなどは、上述した実施形態の範疇に含まれる。
 また、上述の受信装置10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより受信装置10としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…放送システム、10…受信装置、11…表示装置、30…放送側送信装置、50…通信側送信装置、110…チューナー部、120…復調部、130…通信部、140…分離部、150…デコーダー部、151…音声デコーダー部、152…ビデオデコーダー部、153…字幕デコーダー部、160…グラフィック処理部、161…ブラウザ実行部、162…SI処理部、170…ディスプレイ情報記憶部、190…変換部、191…ビデオ変換部、192…字幕変換部、193…ブラウザ変換部、194…SI変換部、200…合成部、210…ディスプレイ側通信部、111…表示装置通信部、112…ディスプレイ情報記憶部、113…表示部、114…音声出力部

Claims (8)

  1.  第1の色域の映像信号をEOTF(電気光伝達関数)により変換するEOTF処理部と、
     前記EOTF処理部が変換した映像信号の色域を、前記第1の色域から第2の色域に変換する色域変換部と、
     前記色域変換部による変換結果を、HDR(High Dynamic Range)放送における基準ディスプレイのガンマの逆関数であるOETF(光電気伝達関数)により変換するOETF処理部と、
     備える受信装置。
  2.  RGB形式である、第1の色域の第1の映像信号を、EOTF(電気光伝達関数)により変換するEOTF処理部と、
     前記EOTF処理部が変換した第1の映像信号の色域を、前記第1の色域から第2の色域に変換する色域変換部と、
     前記色域変換部による変換結果を、基準ディスプレイのガンマの逆関数であるOETF(光電気伝達関数)により変換するOETF処理部と、
     前記第2の色域の第2の映像信号と、前記色域変換部による変換後の前記第1の映像信号とを、RGB形式で合成する合成部と、
     備える受信装置。
  3.  第1の色域の映像信号をEOTF(電気光伝達関数)により変換するEOTF処理部と、
     前記EOTF処理部が変換した映像信号の色域を、前記第1の色域から第2の色域に変換する色域変換部と、
     前記色域変換部による変換結果を、OETF(光電気伝達関数)により変換するOETF処理部と、
     備え、
     前記EOTFと、前記OETFとは、互いに逆関数の関係にある
     受信装置。
  4.  前記EOTFとは、放送における基準ディスプレイのガンマである
     請求項1から請求項3のいずれか一項に記載の受信装置。
  5.  前記EOTFとは、前記OETFの逆関数である
     請求項1から請求項4のいずれか一項に記載の受信装置。
  6.  前記OETF処理部が変換した映像信号と、前記第2の色域の映像信号と、を合成する合成部と、
     前記合成部が合成した映像信号を、表示部へ出力する出力部と、
     を備える請求項1から請求項5のいずれか一項に記載の受信装置。
  7.  前記第1の色域の映像信号は、前記第2の色域の映像信号よりもビット数が少ない
     請求項6に記載の受信装置。
  8.  前記第1の色域の映像信号は、字幕を表す映像信号である
     請求項6に記載の受信装置。
PCT/JP2016/073110 2015-08-05 2016-08-05 受信装置 WO2017022853A1 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2015-154764 2015-08-05
JP2015154767 2015-08-05
JP2015-154767 2015-08-05
JP2015154768 2015-08-05
JP2015154764 2015-08-05
JP2015-154768 2015-08-05

Publications (1)

Publication Number Publication Date
WO2017022853A1 true WO2017022853A1 (ja) 2017-02-09

Family

ID=57943488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/073110 WO2017022853A1 (ja) 2015-08-05 2016-08-05 受信装置

Country Status (1)

Country Link
WO (1) WO2017022853A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116072059A (zh) * 2023-02-27 2023-05-05 卡莱特云科技股份有限公司 一种图像显示方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04291591A (ja) * 1991-03-19 1992-10-15 Sony Corp カラーディスプレイ装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04291591A (ja) * 1991-03-19 1992-10-15 Sony Corp カラーディスプレイ装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Multimedia Coding Specification for Digital Broadcasting", vol. 1, no. 1.2nd edition, 3 July 2015 (2015-07-03), pages 11 - 19, Retrieved from the Internet <URL:http://www.arib.or.jp/english/ html/overview/doc/2-STD-B62v1 2-1p2.pdf> [retrieved on 20160926] *
YUKIHIRO NISHIDA: "Video Parameters and International Standardization of Super Hi- Vision", NHK SCIENCE AND TECHNICAL RESEARCH LABORATORIES R&D REPORT, January 2013 (2013-01-01), pages 10 - 19, Retrieved from the Internet <URL:http://www.nhk.or.jp/strl/publica/rd/rd137/PDF/ P 10-19 .pdf> [retrieved on 20160926] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116072059A (zh) * 2023-02-27 2023-05-05 卡莱特云科技股份有限公司 一种图像显示方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US11871053B2 (en) Method and device for transmitting and receiving broadcast signal on basis of color gamut resampling
JP7065376B2 (ja) 表示装置、変換装置、表示方法、および、コンピュータプログラム
JP7174924B2 (ja) 受信方法および受信装置
JP6573237B2 (ja) 表示装置、変換装置、表示方法、および、コンピュータプログラム
KR101978222B1 (ko) 방송 신호 송수신 방법 및 장치
KR102567633B1 (ko) 오버레이 지시를 사용하는 적응적 하이 다이나믹 레인지 톤 매핑
AU2004297844B2 (en) Display device and method of driving the same
JP2022095692A (ja) 受信方法および受信装置
KR20170007764A (ko) 방송 신호 송수신 방법 및 장치
JP7113746B2 (ja) 送信装置、送信方法、受信装置および受信方法
KR20170007333A (ko) 방송 신호 송수신 방법 및 장치
WO2017159123A1 (ja) 受信装置、表示制御方法、及びプログラム
WO2017022853A1 (ja) 受信装置
WO2017169209A1 (ja) コンテンツ処理装置、テレビジョン受信装置、コンテンツ処理装置における情報処理方法、プログラム
US10205967B2 (en) Extended YCC format for backward-compatible P3 camera video
CN111466117B (zh) 处理图像
JP2015170905A (ja) 画像処理装置及び画像処理方法、並びに画像表示装置
JP2018129700A (ja) 信号処理システム、信号生成装置、出力装置、信号生成方法、出力方法、信号生成プログラム、及び出力プログラム
JP2010074671A (ja) 映像表示システム、送信機、受信機、及び映像表示装置
WO2017018333A1 (ja) 受信装置、表示制御方法、及びプログラム
JP6628400B2 (ja) 映像処理装置、映像処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16833132

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16833132

Country of ref document: EP

Kind code of ref document: A1