JP6982990B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP6982990B2
JP6982990B2 JP2017120026A JP2017120026A JP6982990B2 JP 6982990 B2 JP6982990 B2 JP 6982990B2 JP 2017120026 A JP2017120026 A JP 2017120026A JP 2017120026 A JP2017120026 A JP 2017120026A JP 6982990 B2 JP6982990 B2 JP 6982990B2
Authority
JP
Japan
Prior art keywords
image data
frame
moving image
mixing
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017120026A
Other languages
English (en)
Other versions
JP2019004430A5 (ja
JP2019004430A (ja
Inventor
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2017120026A priority Critical patent/JP6982990B2/ja
Priority to US16/621,437 priority patent/US11350115B2/en
Priority to EP18734646.5A priority patent/EP3643071A1/en
Priority to PCT/JP2018/022288 priority patent/WO2018235666A1/en
Publication of JP2019004430A publication Critical patent/JP2019004430A/ja
Publication of JP2019004430A5 publication Critical patent/JP2019004430A5/ja
Application granted granted Critical
Publication of JP6982990B2 publication Critical patent/JP6982990B2/ja
Priority to US17/729,095 priority patent/US11895309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、詳しくは、ハイフレームレート(High Frame Rate)の動画像データを送信する送信装置等に関する。
近年、高速フレームシャッターでハイフレームレート撮影を行うカメラが知られている。例えば、ノーマルフレームレートが60Hz、50Hzなどであるのに対して、ハイフレームレートはその数倍あるいは数十倍、さらには数百倍のフレームレートとなる。
ハイフレームレートのサービスを行う場合、高速フレームシャッターでカメラ撮りされた動画像データを、それよりも低周波数の動画像シーケンスに変換して送信することが考えられる。しかし、高速フレームシャッターの画像は、動きボケを改善し、先鋭度の高い画質を実現する効果がある一方で、配信されるハイフレームレートに対してより低いフレームレートの動画像シーケンスを表示する受信再生側において、従来のフレーム補間技術に画質的な問題を引き起こす要素をもつ。
高速フレームシャッターで撮影された先鋭度の高い画像を用いたフレーム補間は、動きベクトル探索が適合する場合と適合しない場合との差が大きくなる。そのため、両者の差が顕著な画質劣化となって表示されるためである。フレーム補間時に、動きベクトル探索の精度を向上させるためには高負荷演算が要求されるが、受信機コストに影響及ぼす。
本出願人は、先に、高速フレームシャッターで撮影された画像による素材を変換して、ノーマルフレームレートのデコードを行う従来の受信機で一定以上の画品質で表示させる技術を提案した(特許文献1参照)。
国際公開第2015/076277号
本技術の目的は、ノーマルフレームレートおよびハイフレームレートの動画像データを良好に伝送することにある。
本技術の概念は、
第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して第2の動画像データを得る処理部を備え、
上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされ、
上記第2のフレームレートに対応したフレームの画像データを符号化して基本ストリームを得ると共に、残りのフレームの画像データを符号化して拡張ストリームを得る符号化部と、
上記基本ストリームおよび上記拡張ストリームを含むコンテナを送信する送信部をさらに備える
送信装置にある。
本技術において、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺のフレームの画像データを混合する処理が施されて第2の動画像データが得られる。ここで、第2の動画像データを構成する各フレームの画像データのうち少なくとも第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされる。例えば、第1のフレームレートは、いわゆるハイフレームレートで、120Hz、240Hzなどであり、第2のフレームレートは、いわゆるノーマルフレームレートで、60Hzなどである。
符号化部により、第2のフレームレートに対応したフレームの画像データが符号化されて基本ストリームが得られると共に、残りのフレームの画像データが符号化されて拡張ストリームが得られる。送信部により、基本ストリームおよび拡張ストリームを含むコンテナが送信される。
例えば、処理部は、処理対象フレームの画像データに周辺フレームの画像データを混合する処理を施す際に、処理対象フレームの画像データのデータレベルに基づいて混合割合を決定する、ようにされてもよい。また、例えば、処理部は、処理対象フレームの画像データに周辺フレームの画像データを混合する処理を施す際に、処理対象フレームおよび周辺フレームの画像データのデータレベルに基づいて混合割合を決定する、ようにされてもよい。
また、例えば、画像データのレンジ情報は、第1の閾値とこの第1の閾値より低い第2の閾値の情報を含み、第1の動画像データは、ハイダイナミックレンジの動画像データであり、第1の閾値は画像データのレベルがきらめき再現レベル範囲にあるか否かを判別するための閾値であり、第2の閾値は画像データのレベルが暗部再現レベル範囲にあるか否かを判別するための閾値である、ようにされてもよい。
このように本技術においては、第2の動画像データを構成する各フレームの画像データのうち少なくとも第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合されてシャッタ開口率が高められた状態とされており、この画像データが符号化されて得られた基本ストリームが送信される。
そのため、第2のフレームレートの動画像データを処理可能なデコード能力がある受信機の場合、基本ストリームを処理して第2のフレームレートの画像データを得ることで、動画像としてストロービング効果が緩和された滑らかな画像を表示でき、また、表示処理において低負荷演算によるフレーム補間処理で画質的な問題を引き起こすことが回避可能となる。
また、本技術においては、各フレームの画像データは、データレベルに応じた混合割合で周辺のフレームの画像データと混合される。そのため、混合処理によって、HDR(High Dynamic Range)感などの画像本来の質感が失われることが回避可能となる。
なお、本技術において、例えば、ビデオのレイヤまたはコンテナのレイヤに混合割合の情報および画像データのレンジ情報を挿入する挿入部をさらに備える、ようにされてもよい。この場合、例えば、基本ストリームおよび拡張ストリームはNALユニット構造を有し、挿入部は、混合割合の情報および画像データのレンジ情報を持つSEI NALユニットを基本ストリームおよび/または拡張ストリームに挿入する、ようにされてもよい。
このように混合割合の情報および画像データのレンジ情報が挿入されることで、受信側では、これらの情報に基づいて、基本ストリームおよび拡張ストリームを復号化して得られた動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得ることを容易かつ適切に行うことが可能となる。
また、本技術の他の概念は、
基本ストリームおよび拡張ストリームを含むコンテナを受信する受信部を備え、
上記基本ストリームは、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを構成する各画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データであって少なくとも周辺フレームの画像データと混合された状態にある画像データを符号化して得られたものであり、上記拡張ストリームは、残りのフレームの画像データを符号化して得られたものであり、
表示能力に応じて、上記基本ストリームを復号化して上記第2のフレームレートの動画像データを得るか、あるいは上記基本ストリームおよび上記拡張フレームを復号化して上記第2の動画像データを得、該第2の動画像データに逆混合処理を施して混合解除された第1のフレームレートの動画像データを得る処理部をさらに備える
受信装置にある。
本技術において、受信部により、基本ストリームおよび拡張ストリームを含むコンテナが受信される。基本ストリームは、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺のフレームの画像データを混合する処理を施して得られた第2の動画像データを構成する各画像データのうち第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データであって少なくとも周辺フレームの画像データと混合された状態にある画像データを符号化して得られたものである。拡張ストリームは、残りのフレームの画像データを符号化して得られたものである。
処理部により、基本ストリームのみが処理されて第2のフレームレートの動画像データが得られるか、あるいは基本ストリームおよび拡張ストリームの双方が処理されて、混合解除された第1のフレームレートの動画像データが得られる。
このように本技術においては、第2のフレームレートの動画像データを処理可能なデコード能力がある場合、基本ストリームのみが処理されて第2のフレームレートの動画像データが得られる。この第2のフレームレートの動画像データを構成する各フレームの画像データは、周辺フレームの画像データと混合されてシャッタ開口率が高められているので、動画像としてストロービング効果が緩和された滑らかな画像を表示でき、また、表示処理において低負荷演算によるフレーム補間処理で画質的な問題を引き起こすことが回避可能となる。また、各フレームの画像データは、データレベルに応じた混合割合で周辺のフレームの画像データと混合されているため、HDR感などの画像本来の質感が失われていないものとなる。
なお、本技術において、例えば、ビデオのレイヤおよび/またはコンテナのレイヤに混合割合の情報および画像データのレンジ情報を挿入されており、処理部は、混合割合の情報および画像データのレンジ情報に基づいて、第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得る、ようにされてもよい。このように送信側から送られてくる混合割合の情報および画像データのレンジ情報を用いることで、基本ストリームおよび拡張ストリームを復号化して得られた動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得ることを容易かつ適切に行うことが可能となる。
また、本技術の他の概念は、
第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを取得する取得部と、
上記第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を、伝送路を介して、外部機器に送信する送信部を備える
送信装置にある。
本技術において、取得部により、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺のフレームの画像データを混合する処理を施して得られた第2の動画像データが取得される。送信部により、第2の動画像データと、各フレームの混合割合の情報および画像データのレンジ情報が、伝送路を介して、外部機器に送信される。例えば、送信部は、混合割合の情報および画像データのレンジ情報をそれぞれ第2の動画像データの各フレームの画像データのブランキング期間に挿入して送信する、ようにされてもよい。
このように本技術においては、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データが、混合割合の情報および画像データのレンジ情報と共に、伝送路を介して、外部機器に送信される。そのため、外部機器では、第2の動画像データに混合割合の情報および画像データのレンジ情報に基づいて混合分離処理を施して、混合解除されたハイフレームレートの動画像データを容易に得ることができ、良好な動画像表示を行うことができる。
なお、本技術において、例えば、第2の動画像データの各フレームの画像データに混合割合の情報および画像データのレンジ情報に基づいて混合分離処理を施して第3の動画像データを得る処理部をさらに備え、送信部は、外部機器が混合分離処理の機能を持っていないとき、第2の動画像データの代わりに、第3の動画像データを送信する、ようにされてもよい。
また、本技術において、例えば、第2の動画像データは第1のフレームレートの動画像データであり、第2の動画像データを構成する各フレームの画像データのうち少なくとも第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態にあり、送信部は、外部機器の表示可能なフレームレートが第2のフレームレートであるとき、第2の動画像データの代わりに、第2のフレームレートに対応したフレームの画像データからなる第4の動画像データを送信する、ようにされてもよい。
また、本技術の他の概念は、
外部機器から、伝送路を介して、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を受信する受信部と、
上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて逆混合処理を施して混合解除された動画像データを得る処理部を備える
受信装置にある。
本技術において、受信部により、外部機器から、伝送路を介して、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データと、混合割合の情報および画像データのレンジ情報が受信される。処理部により、第2の動画像データの各フレームの画像データに混合割合の情報および画像データのレンジ情報に基づいて混合分離処理が施されて混合解除された動画像データ(混合処理前の動画像データ)が得られる。
このように本技術においては、外部機器から混合処理後の第2の画像データと共に各フレームの混合割合および画像データのレンジ情報の情報が受信され、第2の動画像データの各フレームの画像データに混合割合の情報および画像データのレンジ情報に基づいて混合分離処理が施されて混合解除された動画像データが得られる。そのため、混合処理前と同様の動画像データを適切に精度よく得ることができ、良好な動画像表示を行うことができる。
また、本技術の他の概念は、
第1のフレームレートの第1の動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信部と、
上記ビデオストリームを復号化して上記第1のフレームレートの第1の動画像データを得る復号化処理と、上記第1の動画像データを構成する各フレームの画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データに周辺フレームの画像データを混合する処理を施して上記第2のフレームレートの第2の動画像データを得るレート変換処理を制御する制御部を備える
受信装置にある。
本技術において、受信部により、第1のフレームレートの第1の動画像データを符号化して得られたビデオストリームを含むコンテナが受信される。制御部により、復号化処理と、レート変換処理が制御される。復号化処理では、ビデオストリームが復号化されて第1のフレームレートの第1の動画像データが得られる。レート変換処理では、第1の動画像データを構成する各フレームの画像データのうち第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データに周辺フレームの画像データを混合する処理が施されて第2のフレームレートの第2の動画像データが得られる。
このように本技術においては、第1の動画像データを構成する各フレームの画像データのうち第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データに周辺フレームの画像データを混合する処理が施されて第2のフレームレートの第2の動画像データが得られる。そのため、この第2のフレームレートの動画像データを構成する各フレームの画像データは、周辺フレームの画像データと混合されてシャッタ開口率が高められており、動画像としてストロービング効果が緩和された滑らかな画像を表示でき、また、表示処理において低負荷演算によるフレーム補間処理で画質的な問題を引き起こすことが回避可能となる。
なお、本技術において、例えば、レート変換処理では、第2のフレームレートに対応したフレームの画像データに周辺フレームの画像データがデータレベルに応じた混合割合で混合される、ようにされてもよい。これにより、HDR感などの画像本来の質感が失われることが回避可能となる。
本技術によれば、ノーマルフレームレートおよびハイフレームレートの動画像データを良好に伝送することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
第1の実施の形態としての送受信システムの構成例を示すブロック図である。 120Hzの動画像データに混合処理が施されて得られた60Hzの基本ストリームと、+60Hzの拡張ストリームの一例を示す図である。 HDRの光電変換特性の一例を示す図である。 送信装置およびテレビ受信機の処理の概要を示す図である。 送信側における混合と、受信側における混合分離(逆混合)の一例を模式的に示す図である。 混合割合の決定方法として従来方法を採用した場合におけるプリプロセッサとポストプロセッサの処理の概要を示す図である。 混合割合の決定方法として新規方法1を採用した場合におけるプリプロセッサとポストプロセッサの処理の概要を示す図である。 混合割合の決定方法として新規方法1を採用した場合におけるプリプロセッサにおける混合処理とポストプロセッサにおける混合分離処理(逆混合処理)の決定ロジックを示す図である。 混合割合の決定方法として新規方法2を採用した場合におけるプリプロセッサとポストプロセッサの処理の概要を示す図である。 混合割合の決定方法として新規方法2を採用した場合におけるプリプロセッサにおける混合処理とポストプロセッサにおける混合分離処理(逆混合処理)の決定ロジックを示す図である。 送信装置の構成例を示すブロック図である。 混合割合の決定方法として新規方法1を採用した場合におけるプリプロセッサの構成例を示すブロック図である。 ピクセル処理部で使用される上限値用テーブルの一例を示す図である。 ピクセル処理部で使用される下限値用テーブルの一例を示す図である。 制御部において画素単位で行われるセレクト信号の発生処理の手順の一例を示すフローチャートである。 混合割合の決定方法として新規方法2を採用した場合におけるプリプロセッサの構成例を示すブロック図である。 制御部において画素単位で行われるセレクト信号の発生処理の手順の一例を示すフローチャートである。 「Blend_and_range_information SEI message」の構造例を示す図である。 「Blend_and_range_information()」の構造例を示す図である。 「Blend_and_range_information()」の構造例における主要な情報の内容を示す図である。 HFR・デスクリプタの構造例を示す図である。 トランスポートストリームTSの構成例を示す図である。 ハイフレームレートの動画像データを処理可能なデコード能力があるテレビ受信機の構成例を示すブロック図である。 混合割合の決定方法として新規方法1を採用した場合におけるポストプロセッサの構成例を示すブロック図である。 制御部において画素単位で行われるセレクト信号の発生処理の手順の一例を示すフローチャートである。 混合割合の決定方法として新規方法2を採用した場合におけるポストプロセッサの構成例を示すブロック図である。 制御部において画素単位で行われるセレクト信号の発生処理の手順の一例を示すフローチャートである。 ノーマルフレームレートの動画像データを処理可能なデコード能力があるテレビ受信機の構成例を示すブロック図である。 第2の実施の形態としての送受信システムの構成例を示すブロック図である。 セットトップボックスの制御部(CPU)における制御処理手順の一例を示すフローチャートである。 送信装置、セットトップボックスおよびディスプレイの処理の概要を示す図である。 ディスプレイが逆混合処理(混合解除処理)の機能を持つ場合と持たない場合とを比較して示す図である。 HFR・ブレンディング・インフォフレームの構造例を示す図である。 HFR・ブレンディング・インフォフレームの構造例における主要な情報の内容を示す図である。 セットトップボックスの構成例を示すブロック図である。 ハイフレームレートの動画像データを取り扱うディスプレイの構成例を示すブロック図である。 ノーマルフレームレートの動画像データを取り扱うディスプレイの構成例を示すブロック図である。 第3の実施の形態としての送受信システムの構成例を示すブロック図である。 送信装置、セットトップボックスおよびディスプレイの処理の概要を示す図である。 送信装置の構成例を示すブロック図である。 セットトップボックスの構成例を示す図である。 混合割合の決定方法として新規方法1を採用した場合におけるポストプロセッサの構成例を示すブロック図である。 混合割合の決定方法として新規方法2を採用した場合におけるポストプロセッサの構成例を示すブロック図である。 ハイフレームレート(120Hz)の動画像データを取り扱うディスプレイの構成例を示すブロック図である。 ノーマルフレームレート(60Hz)の動画像データを取り扱うディスプレイの構成例を示す図である。 混合処理の一般形における、送信側における混合(blending)と、受信側における混合分離(unblending)の一例を模式的に示す図である。 混合処理の一般形における、SEIの配置方法を示す図である。 混合処理の一般形における、ブレンド・アンド・レンジ・インフォメーション・SEIメッセージの構造例を示す図である。 混合処理の一般形における、HFR・ブレンディング・インフォフレームの構造例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.変形例
<1.第1の実施の形態>
[送受信システム]
図1は、第1の実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、送信装置100と、テレビ受信機200を有する構成となっている。
送信装置100は、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。このトランスポートストリームTSには、120Hz、240Hz等のハイフレームレート、この実施の形態においては120Hzの動画像データが処理されて得られた基本ストリーム(基本ビデオストリーム)および拡張ストリーム(拡張ビデオストリーム)が含まれる。この実施の形態において、基本ストリームおよび拡張ストリームは、NALユニット構造を有するものとされる。
ここで、基本ストリームは、以下のようにして得られたものである。すなわち、混合前のハイフレームレートの動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して混合処理後の動画像データが得られる。
この混合処理後の動画像データを構成する各フレームの画像データのうち、少なくとも、ノーマルフレームレート、この実施の形態では60Hzに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされる。基本ストリームは、このノーマルフレームレートに対応したフレーム(基本フレーム)の画像データが符号化されて得られたものである。また、拡張ストリームは、残りのフレーム(拡張フレーム)の画像データが符号化されて得られたものである。
基本ストリームには、ノーマルフレームレートの各フレームの符号化画像データがアクセスユニットとして含まれる。また、拡張ストリームには、ハイフレームレートの各拡張フレームの符号化画像データがアクセスユニットとして含まれる。
図2(a),(b)は、120Hzの動画像データに混合処理が施されて得られた60Hzの基本ストリームと、+60Hzの拡張ストリームの一例を示している。基本ストリームを構成する一つのフレームと、それに続く拡張フレームの1つのフレームからなる2フレームによりフレームペア(Frame-pair)が構成されている。
図2(a)においては、各フレームペアにおいて、最初のフレームである基本ストリームのフレームの画像データは周辺フレームの画像データと混合された状態(混合状態)にあるが、それに続く拡張ストリームのフレームの画像データは周辺フレームの画像データと混合されていない状態(非混合状態)にある。また、図2(b)においては、各フレームペアにおいて、最初のフレームである基本ストリームのフレームの画像データは周辺フレームの画像データと混合された状態(混合状態)にあるが、それに続く拡張ストリームのフレームの画像データも周辺フレームの画像データと混合された状態(混合状態)にある。
ビデオ(ビデオストリーム)のレイヤおよび/またはコンテナのレイヤに、混合割合の情報および画像データのレンジ情報が挿入される。ここで、混合割合の情報は、混合処理に使用されるフィルタのタップ数分の係数のセットからなっている。例えば、mフレームの混合を行い得るmタップのフィルタが用いられる場合、各フレームの係数セットにはm個の係数が含まれる。
また、画像データのレンジ情報は、第1の閾値と、この第1の閾値より低い第2の閾値の情報を含んでいる。また、この実施の形態において、上述の120Hzの動画像データは、HDRの動画像データである。
図3は、HDRの光電変換特性の一例を示している。この図において、横軸は輝度を示し、縦軸は伝送符号値を示している。第1の閾値は、SDR(Standard Dynamic Range)相当の輝度(100cd/m)に対応するレベル値“Range_limit_High_value”とされ、画像データのレベルが特殊混合処理対象範囲であるきらめき再現レベルの範囲にあるか否かを判別するための閾値である。また、第2の閾値は、レベル値“Range_limit_low_value”とされ、画像データのレベルが特殊混合処理対象範囲である暗部再現レベルの範囲にあるか否かを判別するための閾値である。
上述したようにハイフレームレートの動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データが混合される。処理対象フレームの画像データに周辺フレームの画像データを混合する処理がされるとき、画素単位で、上述の“Range_limit_High_value”、“Range_limit_low_value”のレベル値が用いられて混合割合が決定される。
この混合割合の決定は、新規方法1あるいは新規方法2で行われる。新規方法1では、処理対象フレームの画像データに基づいて混合割合が決定される。一方、新規方法2では、処理対象フレームおよび周辺フレームの画像データに基づいて混合割合が決定される。
この実施の形態において、混合割合の情報(係数セット)および画像データのレンジ情報を持つSEI NALユニットが、基本ストリームや拡張ストリームに挿入される。受信側では、この混合割合の情報および画像データのレンジ情報に基づいて、基本ストリームおよび拡張ストリームの各フレームの画像データがいかなる割合で周辺フレームの画像データと混合されて得られたものであるかが把握可能となる。
図1に戻って、テレビ受信機200は、送信装置100から放送波に載せて送られてくる上述のトランスポートストリームTSを受信する。テレビ受信機200は、ノーマルフレームレート(60Hz)の動画像データを処理可能なデコード能力がある場合、トランスポートストリームTSに含まれる基本ストリームのみを処理して、ノーマルフレームレートの動画像データを得て、画像再生をする。
一方、テレビ受信機200は、ハイフレームレート(120Hz)の動画像データを処理可能なデコード能力がある場合、トランスポートストリームTSに含まれる基本ストリームおよび拡張ストリームの双方を処理して、ハイフレームレートの動画像データを得て、画像再生をする。テレビ受信機200は、ビデオ(ビデオストリーム)のレイヤおよび/またはコンテナのレイヤの挿入されている混合割合の情報および画像データのレンジ情報を取得し、これらの情報を用いて混合分離処理(逆混合処理)をする。
この場合、テレビ受信機200は、基本ストリームに復号化処理を施してノーマルフレームレートの各フレームの画像データを得ると共に、拡張ストリームに復号化処理を施してハイフレームレートの各拡張フレームの画像データを得た後、ノーマルフレームレートの各フレームの画像データとハイフレームレートの各拡張フレームの画像データを用い、混合割合の情報(係数セット)に基づいて、混合分離処理(逆混合処理)を行って、混合処理前と同様のハイフレームレートの動画像データを得る。
図4は、送信装置100およびテレビ受信機200(200A,200B)の処理の概要を示している。なお、送信装置100のプリプロセッサ102の出力の画像シーケンスP´(N)、P(N+1)とテレビ受信機200A,200Bのデコーダ204,204Bの出力の画像シーケンスP´(N)、P(N+1)とは、時系列的には同じものであるが、コーデックを通しているので両者の画質が異なる場合も含む。カメラ(撮像装置)81から出力されるより高いフレームレートの動画像データVaがHFRプロセッサ82に送られてハイフレームレート(120Hz)の動画像データVbが得られる。この動画像データVbが送信装置100に動画像データPとして入力される。
送信装置100では、プリプロセッサ102において、動画像データPを構成する各フレームの画像データに混合処理が施されて、ノーマルフレームレートの各フレームの画像データP´(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)が得られる。なお、この実施の形態において、画像データP(N+1)には、周辺フレームの画像データとの混合は行われていない。
送信装置100では、エンコーダ103において、画像データP´(N),P(N+1)に符号化処理が施されて、基本ストリームSTbと、拡張ストリームSTeが得られる。送信装置100からテレビ受信機200には、これらのストリームSTb,STeが送信される。なお、これらのストリームSTb,STeには、それぞれのフレームの画像データに関連付けて、対応するフレームの混合割合の情報および画像データのレンジ情報が挿入される。
ハイフレームレート対応の、つまりハイフレームレートの動画像データを処理可能なデコード能力があるテレビ受信機200Aでは、デコーダ204において、2つのストリームSTb,STeに復号化処理が施されて、ノーマルフレームレートの各フレームの画像データP´(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)が得られる。
そして、テレビ受信機200Aでは、ポストプロセッサ205において、各フレームの混合割合の情報および画像データのレンジ情報に基づいて、動画像データP´(N),P(N+1)に混合分離処理(逆混合処理)が施されて、送信側における動画像データPと同様のハイフレームレート(120Hz)の動画像データRが得られる。この動画像データRが、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部206でフレーム補間がされてフレームレートが高められて表示用動画像データとなる。
一方、ノーマルフレームレート対応の、つまりノーマルフレームレートの画像データを処理可能なデコード能力があるテレビ受信機200Bでは、デコーダ204Bにおいて、ストリームSTbに復号化処理が施されて、ノーマルフレームレートの各フレームの画像データP´(N)が得られる。そして、テレビ受信機200Bでは、このノーマルフレームレートの各フレームの画像データP´(N)からなる動画像データが、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部206Bでフレーム補間がされてフレームレートが高められて表示用動画像データとなる。
図5は、送信側における混合(blending)と、受信側における混合分離(unblending)の一例を模式的に示している。この例は、図2(a)の例に対応し、ピクチャ「N」とピクチャ「N+1」がフレームペアを構成しており、ピクチャ「N+2」とピクチャ「N+3」がフレームペアを構成している。なお、図示の例において、オブジェクトOa,Obは動きのないオブジェクトであり、オブジェクトOcは動きのあるオブジェクトである。
送信側の混合処理により、各フレームペアにおいて、最初のフレームである基本ストリームのフレームの画像データは周辺フレームの画像データと混合された状態(混合状態)とされ、それに続く拡張ストリームのフレームの画像データは周辺フレームの画像データと混合されていない状態(非混合状態)とされる。また、受信側の混合分離処理(逆混合処理)により、混合状態が解除される。
図6は、混合割合の決定方法として従来方法を採用した場合におけるプリプロセッサ102とポストプロセッサ205の処理の概要を示している。図6(a)は、プリプロセッサ102で混合処理がなされる前のピクチャ「N」の画像を示し、図6(b)は、プリプロセッサ102で混合処理がなされる前のピクチャ「N+1」の画像を示し、図6(c)は、プリプロセッサ102で混合処理がなされた後のピクチャ「N」の画像を示している。
ピクチャ「N」の画像上の点P(N)は、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と、以下のタイプ0(Type 0)の混合処理が行われ、P’(N)の値はP(N)、P(N+1)の算術平均(重みは許容)をとった値となる。点P(N)が高輝度で点P(N+1)が高輝度でない場合は算術平均をとることで混合結果としてのP’(N)の輝度レベルが下がる。ハイフレームレート対応でないテレビ受信機200Bでは、この混合結果による画像表示がなされるので、きらめき感が失われた画像が表示されることとなる。
[ Type0 混合処理 ]
P’(N) = (a/k) * P(N) + ( b/k ) * P(N+1) (a + b = k)
図6(d)は、ポストプロセッサ205で混合分離処理がなされた後のピクチャ「N」の画像を示し、図6(e)は、ポストプロセッサ205で用いられるピクチャ「N+1」の画像を示している。ハイフレームレート対応のテレビ受信機200Aでは、ポストプロセッサ205において、以下のタイプ0(Type 0)の混合分離処理が行われて、P”(N)の値が得られる。このように、ハイフレームレート対応のテレビ受信機200Aでは、混合分離処理により、きらめき感が復元される。
[ Type0 混合分離処理]
P”(N) = k/a * P'(N) - b/a * P(N+1) (a + b = k)
図7は、混合割合の決定方法として新規方法1を採用した場合におけるプリプロセッサ102とポストプロセッサ205の処理の概要を示している。図7(a)は、プリプロセッサ102で混合処理がなされる前のピクチャ「N」の画像を示し、図7(b)は、プリプロセッサ102で混合処理がなされる前のピクチャ「N+1」の画像を示し、図7(c)は、プリプロセッサ102で混合処理がなされた後のピクチャ「N」の画像を示している。
ピクチャ「N」上の点P(N)を、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と混合する際に、重要な輝度・色度感を維持しながら、画素の混合を行うようにする。維持する画素値のレベル範囲を特殊混合処理対象範囲とし、それに合致する画素については特殊混合を行う。すなわち、通常の混合処理「 Type0 混合処理 」とは混合割合を変えるか、あるいは混合を行わないようにする。
ピクチャ「N」の画像上の点P(N)の画素値が特殊混合処理対象範囲にないとき、ピクチャ「N」の画像上の点P(N)は、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と、以下のタイプ0(Type 0)の混合処理(通常混合処理)が行われ、P’(N)の値はP(N)、P(N+1)の算術平均(重みは許容)をとった値となる。
[ Type0 混合処理 ]
P’(N) = (a/k) * P(N) + ( b/k ) * P(N+1) (a + b = k)
一方、ピクチャ「N」の画像上の点P(N)の画素値が特殊混合処理対象範囲にあるとき、ピクチャ「N」の画像上の点P(N)は、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と、以下のタイプ1(Type 1)の混合処理(特殊混合処理)が行われ、P’(N)の値はP(N)、P(N+1)の算術平均(重みは許容)をとった値となる。これにより、通常輝度色度範囲については混合の効果が得られ、きらめき部分およびダーク部分での先鋭感が損なわれることなく、受信再生が可能となる。
[ Type1 混合処理 ]
P’(N) = (c/m) * P(N) + ( d/m ) * P(N+1) (c + d = m)
P’(N) = P(N) (c = m の場合)
図7(d)は、ポストプロセッサ205で混合分離処理がなされた後のピクチャ「N」の画像を示し、図7(e)は、ポストプロセッサ205で用いられるピクチャ「N+1」の画像を示している。
ハイフレームレート対応のテレビ受信機200Aでは、点P’(N)の画素値が特殊混合処理対象範囲にないとき、あるいは点P’(N)の画素値が特殊混合処理対象範囲にあり、かつ点P(N+1)が特殊混合処理対象範囲にあるとき、ポストプロセッサ205において、以下のタイプ0(Type 0)の混合分離処理が行われて、P”(N)の値が得られる。
[Type0 混合分離処理]
P”(N) = k/a * P’(N) - b/a * P(N+1) (a + b = k)
一方、ハイフレームレート対応のテレビ受信機200Aでは、点P’(N)の画素値が特殊混合処理対象範囲にあり、かつ点P(N+1)が特殊混合処理対象範囲にないとき、ポストプロセッサ205において、以下のタイプ1(Type 1)の混合分離処理が行われて、P”(N)の値が得られる。
[Type1 混合分離処理]
P”(N) = m/c * P’(N) - d/c * P(N+1) (c + d = m)
P”(N) = P’(N) ( c = m の場合)
図8は、上述したように混合割合の決定方法として新規方法1を採用した場合におけるプリプロセッサ102における混合処理とポストプロセッサ205における混合分離処理(逆混合処理)の決定ロジックを示している。
図において、“range_high”は、画像データのレベルが特殊混合処理対象範囲であるきらめき再現レベルの範囲にあるか否かを判別するための閾値であるレベル値“Range_limit_high_value”を示している。また、“range_low”は、画像データのレベルが特殊混合処理対象範囲である暗部再現レベルの範囲にあるか否かを判別するための閾値であるレベル値“Range_limit_low_value”を示している(図3参照)。
プリプロセッサ102における混合処理では、P(N)が「P(N) > range_high or P(N) < range_low」を満たすときは、「 Type1 混合処理(Type1_blending()) 」を行うように決定される。このときの処理結果であるP’(N)は、特殊混合処理対象範囲となる。また、プリプロセッサ102における混合処理では、その他のときは、「 Type0 混合処理(Type1_blending() )」を行うように決定される。このときの処理結果であるP’(N)が通常混合処理対象範囲に入るか否かは、P(N+1)に依存する。
また、ポストプロセッサ205における混合処理では、P’(N)が「P'(N) > range_high 」を満たす場合、P(N+1)が「P(N+1) =< range_high 」を満たすときは「 Type1 混合分離処理(Type1_reverse_blending()) 」を行うように決定され、その他のときは、「 Type0 混合分離処理(Type0_reverse_blending()) 」を行うように決定される。
また、ポストプロセッサ205における混合処理では、P’(N)が「P'(N) < range_low 」を満たす場合、P(N+1)が「P(N+1) >= range_low 」を満たすときは「 Type1 混合分離処理(Type1_reverse_blending()) 」を行うように決定され、その他のときは、「 Type0 混合分離処理(Type0_reverse_blending()) 」を行うように決定される。
また、ポストプロセッサ205における混合処理では、その他の場合、「 Type0 混合分離処理(Type0_reverse_blending()) 」を行うように決定される。
図9は、混合割合の決定方法として新規方法2を採用した場合におけるプリプロセッサ102とポストプロセッサ205の処理の概要を示している。図9(a)は、プリプロセッサ102で混合処理がなされる前のピクチャ「N」の画像を示し、図9(b)は、プリプロセッサ102で混合処理がなされる前のピクチャ「N+1」の画像を示し、図9(c)は、プリプロセッサ102で混合処理がなされた後のピクチャ「N」の画像を示している。
ピクチャ「N」上の点P(N)を、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と混合する際に、重要な輝度・色度感を維持しながら、画素の混合を行うようにする。維持する画素値のレベル範囲を特殊混合処理対象範囲とし、それに合致する画素については特殊混合を行う。すなわち、通常の混合処理「 Type0 混合処理 」とは混合割合を変えるか、あるいは混合を行わないようにする。
ピクチャ「N」の画像上の点P(N)の画素値が特殊混合処理対象範囲になく、かつピクチャ「N+1」の画像上の点P(N+1)の画素値が特殊混合処理対象範囲にないとき、ピクチャ「N」の画像上の点P(N)は、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と、以下のタイプ0(Type 0)の混合処理(通常混合処理)が行われ、P’(N)の値はP(N)、P(N+1)の算術平均(重みは許容)をとった値となる。
[ Type0 混合処理 ]
P’(N) = (a/k) * P(N) + ( b/k ) * P(N+1) (a + b = k)
一方、ピクチャ「N」の画像上の点P(N)の画素値が特殊混合処理対象範囲にあるとき、ピクチャ「N」の画像上の点P(N)aは、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)aと、以下のタイプ1(Type 1)の混合処理(特殊混合処理)が行われ、P’(N)の値はP(N)、P(N+1)の算術平均(重みは許容)をとった値となる。
[ Type1 混合処理 ]
P’(N) = (c/m) * P(N) + ( d/m ) * P(N+1) ( c + d = m)
P’(N) = P(N) (c = m の場合)
また、ピクチャ「N」の画像上の点P(N)の画素値が特殊混合処理対象範囲にないが、ピクチャ「N+1」の画像上の点P(N+1)の画素値が特殊混合処理対象範囲にあるとき、ピクチャ「N」の画像上の点P(N)bは、ピクチャ「N+1」上の同じ座標位置にある点P(N+1)と、以下のタイプ2(Type 2)の混合処理(特殊混合処理)が行われ、P’(N)の値はP(N)、P(N+1)の算術平均(重みは許容)をとった値となる。これにより、通常輝度色度範囲については混合の効果が得られ、きらめき部分およびダーク部分での先鋭感が損なわれることなく、受信再生が可能となる。
[ Type2 混合処理 ]
P’(N) = (e/s) * P(N) + (f/s)* P(N+1) (e < f かつe + f = s)
図9(d)は、ポストプロセッサ205で混合分離処理がなされた後のピクチャ「N」の画像を示し、図9(e)は、ポストプロセッサ205で用いられるピクチャ「N+1」の画像を示している。
ハイフレームレート対応のテレビ受信機200Aでは、点P’(N)の画素値が特殊混合処理対象範囲にないとき、ポストプロセッサ205において、以下のタイプ0(Type 0)の混合分離処理が行われて、P”(N)の値が得られる。
[Type0 混合分離処理]
P”(N) = k/a * P'(N) - b/a * P(N+1) (a + b = k)
一方、ハイフレームレート対応のテレビ受信機200Aでは、点P’(N)の画素値が特殊混合処理対象範囲にあり、かつ点P(N+1)の画素値が特殊混合処理対象範囲にないとき、ポストプロセッサ205において、以下のタイプ1(Type 1)の混合分離処理が行われて、P”(N)の値が得られる。
[Type1 混合分離処理]
P”(N) = m/c * P'(N) - d/c * P(N+1) (c + d = m)
P”(N) = P’(N) ( c = m の場合)
また、ハイフレームレート対応のテレビ受信機200Aでは、点P’(N)の画素値が特殊混合処理対象範囲にあり、かつ点P(N+1)の画素値が特殊混合処理対象範囲にあるとき、ポストプロセッサ205において、以下のタイプ2(Type 2)の混合分離処理が行われて、P”(N)の値が得られる。
[Type2 混合分離処理]
P”(N) = s/e * P'(N) - f/e * P(N+1) (e + f = s)
図10は、上述したように混合割合の決定方法として新規方法2を採用した場合におけるプリプロセッサ102における混合処理とポストプロセッサ205における混合分離処理(逆混合処理)の決定ロジックを示している。
図において、“range_high”は、画像データのレベルが特殊混合処理対象範囲であるきらめき再現レベルの範囲にあるか否かを判別するための閾値であるレベル値“Range_limit_high_value”を示している。また、“range_low”は、画像データのレベルが特殊混合処理対象範囲である暗部再現レベルの範囲にあるか否かを判別するための閾値であるレベル値“Range_limit_low_value”を示している(図3参照)。
プリプロセッサ102における混合処理では、P(N)が「P(N) > range_high or P(N) < range_low」を満たすときは、「 Type1 混合処理(Type1_blending) 」を行うように決定される。このときの処理結果であるP’(N)は、特殊混合処理対象範囲となる。また、プリプロセッサ102における混合処理では、P(N) が「range_low =< P(N) =< range_high 」を満たし、且つ、P(N+1)が「P(N+1) > range_high or P(N+1) < range_low 」を満たすときは、「 Type2 混合処理(Type2_blending) 」を行うように決定される。このときの処理結果であるP’(N)は、特殊混合処理対象範囲となる。また、その他のときは、「 Type0 混合処理(Type0_blending) 」を行うように決定される。このときの処理結果であるP’(N)は、通常混合処理対象範囲となる。
また、ポストプロセッサ205における混合処理では、P’(N)が「P’(N) > range_high」を満たし、且つ、P(N+1)が「P(N+1) > range_high」を満たすときは、「 Type2 混合分離処理(Type2_reverse_blending()) 」を行うように決定され、P’(N)が「P’(N) > range_high」を満たし、且つ、P(N+1)が「P(N+1) > range_high」を満たさないときは、「 Type1 混合分離処理(Type1_reverse_blending()) 」を行うように決定さる。
また、ポストプロセッサ205における混合処理では、P’(N)が「P’(N) < range_low」を満たし、且つ、P(N+1)が「P(N+1) < range_low」を満たすときは、「 Type2 混合分離処理(Type2_reverse_blending()) 」を行うように決定され、P’(N)が「P’(N) < range_low」を満たし、且つ、P(N+1)が「P(N+1) < range_low」を満たさないときは、「 Type1 混合分離処理(Type1_reverse_blending()) 」を行うように決定さる。
また、ポストプロセッサ205における混合処理では、その他の場合、「 Type0 混合分離処理(Type0_reverse_blending()) 」を行うように決定さる。
「送信装置の構成」
図11は、送信装置100の構成例を示している。この送信装置100は、制御部101と、プリプロセッサ102と、エンコーダ103と、マルチプレクサ104と、送信部105を有している。制御部101は、送信装置100の各部の動作を制御する。
プリプロセッサ102は、ハイフレームレート(120Hz)の動画像データPを入力して、ノーマルフレームレート(60Hz)の各フレームの画像データP’(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)を出力する。
ここで、プリプロセッサ102は、混合処理前のハイフレームレートの動画像データPの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して混合処理後の動画像データを得る。この動画像データのうち、ノーマルフレームレート(60Hz)に対応した各フレームの画像データがP’(N)となり、残りの各フレームの画像データがP(N+1)となる。この場合、少なくとも、画像データP’(N)は周辺フレームの画像データと混合された状態とされる。
図12は、プリプロセッサ102の構成例を示している。この例は、混合割合の決定方法として新規方法1を採用した場合における構成例である。このプリプロセッサ102は、ピクセル処理部120と、フレーム遅延部121と、係数器122,123,125,126と、加算部124,127と、スイッチ部128と、出力部129を有している。
ピクセル処理部120は、動画像データPの各フレームの画像データP(N),P(N+1)の値を調整して、“Range_limit_high_value”、“Range_limit_low_value”のレベル値による特殊混合処理対象範囲にあるか否かの判定処理を適切に行い得るようにする。
図13は、ピクセル処理部120で使用される上限値用テーブルの一例を示している。図14は、ピクセル処理部120で使用される下限値用テーブルの一例を示している。ここでは、画像データは10ビットデータを例にとり、下限値64、上限値940で説明する。
最初に、図13に示す上限値用テーブル例について説明する。このテーブル例は、“Range_limit_High_value”を700に設定する場合の例である。701〜705は705に変更され、706〜940はそのままの値が保持される。同様に、698〜700は698に変更され、64〜697は、そのままの値が保持される。
ここで、P(N)の値が705以上のとき、特殊混合処理対象範囲にあると判断され、プリプロセッサ102では「 Type1 混合処理 」の混合処理が行われる。この場合、P'(N)の値の最小値は、P(N+1)の値が64以上であることから、例えばP(N)とP(N+1)との混合割合が255:1に設定されるときには、以下の数式(1)から、702となる。
P’(N) = (705*255 + 64*1 )/256 = 702 ・・・(1)
そのため、ポストプロセッサ205側においても、P'(N)の値から、同様に、特殊混合処理対象範囲と判断することが可能となり、適切な混合分離処理(逆混合処理)を行うことが可能となる。なお、詳細説明は省略するが、“Range_limit_High_value”を700以外の値に設定する場合にあっても、画像データP(N),P(N+1)の値を調整することで、同様の効果を持たせることができる。
次に、図14に示す下限値用テーブル例について説明する。このテーブル例は、“Range_limit_Low_value”を100に設定する場合の例である。96〜99は96に変更され、64〜95はそのままの値が保持される。同様に、100〜102は102に変更され、103〜940は、そのままの値が保持される。
ここで、P(N)の値が96以下のとき、特殊混合処理対象範囲にあると判断され、プリプロセッサ102では「 Type1 混合処理 」の混合処理が行われる。この場合、P'(N)の値の最大値は、P(N+1)の値が940以下であることから、例えばP(N)とP(N+1)との混合割合が255:1に設定されるときには、以下の数式(2)から、99となる。
P’(N) = (96*255 + 940*1 )/256 = 99 ・・・(2)
そのため、ポストプロセッサ205側においても、P'(N)の値から、同様に、特殊混合処理対象範囲と判断することが可能となり、適切な混合分離処理(逆混合処理)を行うことが可能となる。なお、詳細説明は省略するが、“Range_limit_Low_value”を100以外の値に設定する場合にあっても、画像データP(N),P(N+1)の値を調整することで、同様の効果を持たせることができる。
なお、上述では、上限値用テーブルと下限値用テーブルを備えているように説明したが、これらの2つのテーブルは1つのテーブルとして構成することも可能である。
図12に戻って、フレーム遅延部121は、ピクセル処理部120で値が調整された画像データP(N),P(N+1)を入力し、120Hzにおける1フレームの遅延を与える。これにより、フレーム遅延部121の出力がピクチャ「N」の画像データP(N)となるとき、ピクセル処理部120の出力はピクチャ「N+1」の画像データP(N+1)となる。
フレーム遅延部121から得られる画像データP(N)は、係数器122と係数器125に入力される。また、ピクセル処理部120から得られる画像データP(N+1)は、係数器123と係数器126に入力される。
係数器122には制御部101から(a/k)の係数が設定されており、画像データP(N)にこの係数が掛け算される。また、係数器123には制御部101から(b/k)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器122,123の出力値は加算部124で加算される。ここで、係数器122,123および加算部124は、「 Type0 混合処理 」の混合処理を行うためのフィルタを構成しており、加算部124からは「 Type0 混合処理 」の混合処理で得られた画像データP’(N)が得られる。
また、係数器125には制御部101から(c/m)の係数が設定されており、画像データP(N)にこの係数が掛け算される。また、係数器126には制御部101から(d/m)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器125,126の出力値は加算部127で加算される。ここで、係数器125,126および加算部127は、「 Type1 混合処理 」の混合処理を行うためのフィルタを構成しており、加算部127からは「 Type1 混合処理 」の混合処理で得られた画像データP’(N)が得られる。
スイッチ部128には、加算部124,127で得られた画像データP’(N)が入力される。スイッチ部128は、制御部101からのセレクト信号に基づき、画素単位で、加算部124で得られた「 Type0 混合処理 」の画像データP’(N)または加算部127で得られた「 Type1 混合処理 」の画像データP’(N)を、選択的に出力する。
制御部101は、フレーム遅延部121から得られる画像データP(N)と、予め設定されている“Range_limit_High_value”、“Range_limit_low_value”のレベル値に基づいて、画素単位でセレクト信号を発生してスイッチ部128に送る。
図15のフローチャートは、制御部101において画素単位で行われるセレクト信号の発生処理の手順の一例を示している。まず、ステップST1において、制御部101は、処理を開始する。その後、制御部101は、ステップST2において、P(N)の画素を読み込む。次に、制御部101は、ステップST3において、P(N)は特殊混合処理対象範囲「P(N) > range_high, P(N) < range_low」にあるか否かを判定する。
制御部101は、特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、ステップST4において、「 Type0 混合処理 」の画像データP’(N)を選択するセレクト信号を発生し、その後に、ステップST5において、処理を終了する。一方、制御部101は、特殊混合処理対象範囲にあると判定するとき、ステップST6において、「 Type1 混合処理 」の画像データP’(N)を選択するセレクト信号を発生し、その後に、ステップST5において、処理を終了する。
図12に戻って、スイッチ部128で得られた画像データP’(N)と、ピクセル処理部120で得られた画像データP(N+1)は、出力部129に入力される。この出力部129には、60Hzのフレーム同期信号が供給される。出力部129は、このフレーム同期信号に同期して、60Hzのフレームレートで、ノーマルフレームレートの各フレームの画像データP´(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)を出力する。
図16は、プリプロセッサ102の他の構成例を示している。この例は、混合割合の決定方法として新規方法2を採用した場合における構成例である。この図16において、図12と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。このプリプロセッサ102は、ピクセル処理部120と、フレーム遅延部121と、係数器122,123,125,126,130,131と、加算部124,127,132と、スイッチ部133と、出力部129を有している。
フレーム遅延部121から得られる画像データP(N)は、係数器122と係数器125と係数器130に入力される。また、ピクセル処理部120から得られる画像データP(N+1)は、係数器123と係数器126と係数器131に入力される。
係数器122には制御部101から(a/k)の係数が設定されており、画像データP(N)にこの係数が掛け算される。また、係数器123には制御部101から(b/k)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器122,123の出力値は加算部124で加算される。ここで、係数器122,123および加算部124は、「 Type0 混合処理 」の混合処理を行うためのフィルタを構成しており、加算部124からは「 Type0 混合処理 」の混合処理で得られた画像データP’(N)が得られる。
また、係数器125には制御部101から(c/m)の係数が設定されており、画像データP(N)にこの係数が掛け算される。また、係数器126には制御部101から(d/m)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器125,126の出力値は加算部127で加算される。ここで、係数器125,126および加算部127は、「 Type1 混合処理 」の混合処理を行うためのフィルタを構成しており、加算部127からは「 Type1 混合処理 」の混合処理で得られた画像データP’(N)が得られる。
また、係数器130には制御部101から(e/s)の係数が設定されており、画像データP(N)にこの係数が掛け算される。また、係数器131には制御部101から(f/s)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器130,131の出力値は加算部132で加算される。ここで、係数器130,131および加算部132は、「 Type2 混合処理 」の混合処理を行うためのフィルタを構成しており、加算部132からは「 Type2 混合処理 」の混合処理で得られた画像データP’(N)が得られる。
スイッチ部133には、加算部124,127,132で得られた画像データP’(N)が入力される。スイッチ部133は、制御部101からのセレクト信号に基づき、画素単位で、加算部124で得られた「 Type0 混合処理 」の画像データP’(N)、加算部127で得られた「 Type1 混合処理 」の画像データP’(N)または加算部132で得られた「 Type2 混合処理 」の画像データP’(N)を、選択的に出力する。
制御部101は、フレーム遅延部121から得られる画像データP(N)およびピクセル処理部120から得られる画像データP(N+1)と、予め設定されている“Range_limit_High_value”、“Range_limit_low_value”のレベル値に基づいて、画素単位でセレクト信号を発生してスイッチ部133に送る。
図17のフローチャートは、制御部101において画素単位で行われるセレクト信号の発生処理の手順の一例を示している。まず、ステップST11において、制御部101は、処理を開始する。その後、制御部101は、ステップST12において、P(N),P(N+1)の画素を読み込む。次に、制御部101は、ステップST13において、P(N)は特殊混合処理対象範囲「P(N) > range_high, P(N) < range_low」にあるか否かを判定する。
制御部101は、P(N)が特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、ステップST14において、P(N+1)は特殊混合処理対象範囲「P(N+1) > range_high, P(N+1) < range_low」にあるか否かを判定する。
制御部101は、P(N+1)が特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、ステップST15において、「 Type0 混合処理 」の画像データP’(N)を選択するセレクト信号を発生し、その後に、ステップST16において、処理を終了する。一方、制御部101は、P(N+1)が特殊混合処理対象範囲にあると判定するとき、ステップST17において、「 Type2 混合処理 」の画像データP’(N)を選択するセレクト信号を発生し、その後に、ステップST16において、処理を終了する。
また、ステップST13でP(N+1)が特殊混合処理対象範囲にあると判定するとき、制御部101は、ステップST18において、「 Type0 混合処理 」の画像データP’(N)を選択するセレクト信号を発生し、その後に、ステップST16において、処理を終了する。
図16に戻って、スイッチ部133で得られた画像データP’(N)と、ピクセル処理部120で得られた画像データP(N+1)は、出力部129に入力される。この出力部129には、60Hzのフレーム同期信号が供給される。出力部129は、このフレーム同期信号に同期して、60Hzのフレームレートで、ノーマルフレームレートの各フレームの画像データP´(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)を出力する。
図11に戻って、エンコーダ103は、プリプロセッサ102で得られる画像データP’(N),P(N+1)に対して符号化処理を施して、基本ストリームSTbおよび拡張ストリームSTeを生成する。この場合、画像データP’(N),P(N+1)に対して、例えば、H.264/AVC、H.265/HEVCなどの予測符号化処理が施される。
エンコーダ102は、基本ストリームSTb、拡張ストリームSTeに混合割合の情報および画像データのレンジ情報を挿入する。受信側では、これらの情報に基づいて、基本ストリームの各フレームの画像データがいかなる割合で拡張フレームの画像データと混合されて得られたものであるかを画素単位で把握でき、混合分離処理(逆混合処理)を適切に行うことが可能となる。
この実施の形態においては、基本ストリームSTb、拡張ストリームSTeの各アクセスユニットに混合割合の情報および画像データのレンジ情報を持つSEI NALユニットが挿入される。この場合、エンコーダ103は、アクセスユニット(AU)の“SEIs”の部分に、新規定義する、ブレンド・アンド・レンジ・インフォメーション・SEIメッセージ(Blend_and_range_information SEI message)を挿入する。
この実施の形態においては、この画像データP'(N)の混合処理に係る混合割合の情報および画像データのレンジ情報を持つSEI NALユニットが、例えば、基本ストリームSTbおよび拡張ストリームSteの双方の各アクセスユニットに各々挿入される。なお、この混合処理に係る混合割合の情報および画像データのレンジ情報を、基本ストリームSTbの各アクセスユニットのみに挿入すること、あるいは拡張ストリームSTeの各アクセスユニットのみに挿入することも考えられる。
図18は、「Blend_and_range_information SEI message」の構造例(Syntax)を示している。「uuid_iso_iec_11578」は、“ISO/IEC 11578:1996 AnnexA.”で示されるUUID値を持つ。「user_data_payload_byte」のフィールドに、「Blend_and_range_information()」が挿入される。
図19は、「Blend_and_range_information()」の構造例(Syntax)を示し、図20は、その構造例における主要な情報の内容(Semantics)を示している。「bit_depth_information」の8ビットフィールドは、符号化画素ビット幅を示す。例えば、“0”は8ビット、“1”は10ビット、“2”は12ビット、“3”は16ビットを示す。
「range_limit_high_value」の16ビットフィールドは、通常混合処理対象範囲の上限のレベル値を示す。「range_limit_low_value」の16ビットフィールドは、通常混合処理対象範囲の下限のレベル値を示す。これらは、画像データのレンジ範囲情報を構成している。
「blending_mode」の8ビットフィールドは、混合処理のモードを示す。例えば、“0x0”はモード0(mode0)、つまり従来の通常混合処理のみを行うモードを示す。また、例えば、“0x1”はモード1(mode1)、つまり、ピクチャ「N」の画素判断による特殊混合処理を含む混合処理を行うモードを示す。また、例えば、“0x2”はモード2(mode2)、つまり、ピクチャ「N」、「N+1」の画素判断による特殊混合処理を含む混合処理を行うモードを示す。
「blending_mode」が“0x0”であるとき、「type_blending_coefficient_a」、「type0_blending_coefficient_b」の8ビットフィールドが存在する。また、「blending_mode」が“0x1”であるとき、「type_blending_coefficient_a」、「type0_blending_coefficient_b」、「type1_blending_coefficient_c」、「type1_blending_coefficient_d」の8ビットフィールドが存在する。また、「blending_mode」が“0x2”であるとき、「type_blending_coefficient_a」、「type0_blending_coefficient_b」、「type1_blending_coefficient_c」、「type1_blending_coefficient_d」、「type2_blending_coefficient_e」、「type2_blending_coefficient_f」の8ビットフィールドドが存在する。
「type0_blending_coefficient_a」の8ビットフィールドは、「Type0 混合処理」である通常混合処理における係数a(ベースレイヤ画素に対する係数)を示す。「type0_blending_coefficient_b」の8ビットフィールドは、「Type0 混合処理」である通常混合処理における係数b(エンハンスト画素に対する係数)を示す。
「type1_blending_coefficient_c」の8ビットフィールドは、「Type1 混合処理」である特殊混合処理における係数c(ベースレイヤ画素に対する係数)を示す。「type1_blending_coefficient_d」の8ビットフィールドは、「Type1 混合処理」である特殊混合処理における係数d(エンハンスト画素に対する係数)を示す。
「type2_blending_coefficient_e」の8ビットフィールドは、「Type2 混合処理」である特殊混合処理における係数e(ベースレイヤ画素に対する係数)を示す。「type2_blending_coefficient_f」の8ビットフィールドは、「Type2 混合処理」である特殊混合処理における係数f(エンハンスト画素に対する係数)を示す。上述の各係数は、混合処理に係る混合割合の情報を構成している。
図11に戻って、マルチプレクサ104は、エンコーダ103で生成された基本ストリームSTbおよび拡張ストリームSTeを、PES(Packetized Elementary Stream)パケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
また、マルチプレクサ104は、コンテナとしてのトランスポートストリームTSのレイヤに、混合割合の情報および画像データのレンジ情報を挿入する。この実施の形態においては、プログラムマップテーブルの配下に拡張ストリームに対応して配置されたビデオエレメンタリストリームループの中に、新規定義する、HFR・デスクリプタ(HFR_descriptor)を挿入する。なお、混合割合の情報および画像データのレンジ情報を上述したようにSEIに配置する場合は、ピクチャ毎、あるいはシーン毎に情報を切り替えることが可能となる。また、混合割合の情報および画像データのレンジ情報をコンテナのデスクリプタに配置する場合は、より長い期間、例えば番組毎、ないしは番組を分割した単位毎に情報を切り替えることが可能となる。
図21は、HFR・デスクリプタの構造例(Syntax)を示している。詳細説明は省略するが、このHFR・デスクリプタは、上述したブレンド・アンド・レンジ・インフォメーション・SEIメッセージ(図19参照)と同様の情報を持っている。HFR・デスクリプタを配置するメリットは、受信機がデコード処理を開始する前に、HFRピクチャデータに必要な処理タイプを把握でき、後段のポスト処理の準備を完成できることにある。
図22は、トランスポートストリームTSの構成例を示している。このトランスポートストリームTSには、基本ストリーム(ベースストリーム)STbと拡張ストリーム(エンハンスストリーム)STeの2つのビデオストリームが含まれている。すなわち、この構成例では、基本ストリームSTbのPESパケット「video PES1」が存在すると共に、拡張ストリームSTeのPESパケット「video PES2」が存在する。
PESパケット「video PES1」およびPESパケット「video PES2」でコンテナされる各ピクチャの符号化画像データには、ブレンド・アンド・レンジ・インフォメーション・SEIメッセージ(図19参照)が挿入される。なお、この例は、基本ストリームSTbおよび拡張ストリームSTeの双方に混合割合の情報および画像データのレンジ情報を挿入する例に対応している。
また、トランスポートストリームTSには、PSI(Program Specific Information)の一つとして、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。
PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。また、PMTには、各ビデオストリームに関連した情報を持つエレメンタリストリーム・ループが存在する。この構成例では、基本ストリームに対応したビデオエレメンタリストリームループ「video ES1 loop」が存在すると共に、拡張ストリームに対応したビデオエレメンタリストリームループ「video ES2 loop」が存在する。
「video ES1 loop」には、基本ストリーム(video PES1)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタ、例えばhevcデスクリプタや上述したHFRデスクリプタ(図21参照)も配置される。このストリームタイプは、HEVC符号化の場合、基本ストリームを示す“0x24”とされる。
また、「video ES2 loop」には、拡張ストリーム(video PES2)に対応して、ストリームタイプ、パケット識別子(PID)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタ、例えばhevcデスクリプタや上述したHFRデスクリプタ(図21参照)も配置される。このストリームタイプは、拡張ストリームを示す“0x25”とされる。
なお、図示の例は、HEVCの符号化が行われる場合について示しているが、ブレンド・アンド・レンジ・インフォメーション・SEIメッセージによるシグナリング情報の伝達は他のコーデックにも同様に適用可能である。他のコーデックの場合は、PMTに挿入するデスクリプタは別のものとなる。
図11に戻って、送信部105は、トランスポートストリームTSを、例えば、QPSK/OFDM等の放送に適した変調方式で変調し、RF変調信号を送信アンテナから送信する。
図11に示す送信装置100の動作を簡単に説明する。ハイフレームレート(120Hz)の動画像データPがプリプロセッサ102に入力される。このプリプロセッサ102では、動画像データPが処理されて、ノーマルフレームレート(60Hz)の各フレームの画像データP’(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)が得られる。
この場合、動画像データPの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理が施されて混合処理後の動画像データが得られる。そして、この動画像データのうち、ノーマルフレームレート(60Hz)に対応した各フレームの画像データがP’(N)とされ、残りの各フレームの画像データがP(N+1)とされる。ここで、画像データP’(N)は、画像データP(N)に画像データP(N+1)が混合されて得られたものである。
この実施の形態では、画素単位で、画像データP(N)、または画像データP(N),P(N+1)のデータレベルに応じた混合処理が選択的に用いられる。これにより、通常輝度色度範囲については混合の効果が得られ、きらめき部分およびダーク部分での先鋭感が損なわれることなく、受信再生が可能となる。
例えば、混合割合の決定方法として新規方法1を採用した場合には、画像データP(N)のデータレベルに応じて、通常混合処理である「 Type0 混合処理 」、あるいは特殊混合処理である「 Type1 混合処理 」が用いられる。また、混合割合の決定方法として新規方法2を採用した場合には、画像データP(N),P(N+1)のデータレベルに応じて、通常混合処理である「 Type0 混合処理 」、特殊混合処理である「 Type1 混合処理 」、あるいは特殊混合処理である「 Type2 混合処理 」が用いられる。
プリプロセッサ102で得られた画像データP’(N),P(N+1)は、エンコーダ103に供給される。エンコーダ103では、画像データP’(N),P(N+1)に対して符号化処理が施されて、基本ストリームSTbおよび拡張ストリームSTeが生成される。このエンコーダ103では、基本ストリームSTb、拡張ストリームSTeに、受信側における混合分離処理(逆混合処理)の便宜のために、混合処理に係る混合割合の情報および画像データのレンジ情報が挿入される。
エンコーダ103で生成された基本ストリームSTbおよび拡張ストリームSTeは、マルチプレクサ104に供給される。マルチプレクサ104では、基本ストリームSTbおよび拡張ストリームSTeが、PESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。また、マルチプレクサ104では、コンテナとしてのトランスポートストリームTSのレイヤに、混合割合の情報および画像データのレンジ情報を持つHFRデスクリプタが挿入される。
マルチプレクサ104で生成されたトランスポートストリームTSは、送信部105に送られる。送信部105では、このトランスポートストリームTSが、例えば、QPSK/OFDM等の放送に適した変調方式で変調され、RF変調信号が送信アンテナから送信される。
「テレビ受信機の構成」
図23は、ハイフレームレート(120Hz)の動画像データを処理可能なデコード能力があるテレビ受信機200Aの構成例を示している。このテレビ受信機200Aは、制御部201と、受信部202と、デマルチプレクサ203と、デコーダ204と、ポストプロセッサ205と、MCFI(Motion Compensated Frame Insertion)部206と、パネル表示部207を有している。また、デマルチプレクサ203は、トランスポートストリームTSのレイヤに含まれるセクション情報を抽出し、制御部201に送る。この場合、混合割合の情報および画像データのレンジ情報を持つHFRデスクリプタ(図21参照)も抽出される。
制御部201は、テレビ受信機200Aの各部の動作を制御する。受信部202は、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得する。デマルチプレクサ203は、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbおよび拡張ストリームSTeを取り出し、デコーダ204に供給する。
デコーダ204は、基本ストリームSTbに復号化処理を施してノーマルフレームレートの各フレームの画像データP’(N)を得ると共に、拡張ストリームSTeに復号化処理を施してハイフレームレートの各拡張フレームの画像データP(N+1)を得る。
また、デコーダ204は、基本ストリームSTb、拡張ストリームSTeを構成する各アクセスユニットに挿入されているパラメータセットやSEIを抽出し、制御部201に送る。この場合、混合割合の情報および画像データのレンジ情報を持つブレンド・アンド・レンジ・インフォメーション・SEI(図19参照)も抽出される。
制御部201は、混合割合の情報および画像データのレンジ情報に基づいて、混合分離処理(逆混合処理)をする際に、画素単位でどのタイプの混合分離処理(逆混合処理)を適用すべきかを適切に判定でき、また、各タイプの混合分離処理(逆混合処理)におけるフィルタ係数を適切に設定でき、後述するポストプロセッサ205の制御を良好に行うことが可能となる。
ポストプロセッサ205は、制御部201の制御のもと、デコーダ204で得られた画像データP'(N),P(N+1)に基づいて混合分離処理(逆混合処理)を施して、混合解除されたハイフレームレートの動画像データRを得る。
図24は、ポストプロセッサ102の構成例を示している。この例は、混合割合の決定方法として新規方法1を採用した場合における構成例である。このポストプロセッサ205は、係数器220,221,223,224と、加算部222,225と、スイッチ部226,227を有している。
ピクチャ「N」の画像データP’(N)は、係数器220と係数器223に入力される。また、ピクチャ「N+1」の画像データP(N+1)は、係数器221と係数器224に入力される。
係数器220には制御部201から(k/a)の係数が設定されており、画像データP’(N)にこの係数が掛け算される。また、係数器221には制御部201から(-b/a)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器220,221の出力値は加算部222で加算される。ここで、係数器220,221および加算部222は、「 Type0 混合分離処理 」の混合分離処理(逆混合処理)を行うためのフィルタを構成しており、加算部222からは「 Type0 混合分離処理 」の混合分離処理で得られた画像データP”(N)が得られる。
係数器223には制御部201から(m/c)の係数が設定されており、画像データP’(N)にこの係数が掛け算される。また、係数器224には制御部201から(-d/c)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器223,224の出力値は加算部225で加算される。ここで、係数器223,224および加算部225は、「 Type1 混合分離処理 」の混合分離処理(逆混合処理)を行うためのフィルタを構成しており、加算部25からは「 Type1 混合分離処理 」の混合分離処理で得られた画像データP”(N)が得られる。
スイッチ部226には、加算部222,225で得られた画像データP”(N)が入力される。スイッチ部226は、制御部201からのセレクト信号に基づき、画素単位で、加算部222で得られた「 Type0 混合分離処理 」の画像データP”(N)または加算部225で得られた「 Type1 混合分離処理 」の画像データP”(N)を、選択的に出力する。
制御部201は、画像データP’(N),P(N+1)と、画像データのレンジ情報としての“Range_limit_High_value”、“Range_limit_low_value”のレベル値に基づいて、画素単位でセレクト信号を発生してスイッチ部226に送る。
図25のフローチャートは、制御部201において画素単位で行われるセレクト信号の発生処理の手順の一例を示している。まず、ステップST21において、制御部201は、処理を開始する。その後、制御部201は、ステップST22において、P’(N),P(N+1)の画素を読み込む。次に、制御部201は、ステップST23において、P’(N)は特殊混合処理対象範囲「P’(N) > range_high, P’(N) < range_low」にあるか否かを判定する。
制御部201は、特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、ステップST24において、「 Type0 混合分離処理 」の画像データP”(N)を選択するセレクト信号を発生し、その後に、ステップST25において、処理を終了する。一方、制御部201は、特殊混合処理対象範囲にあると判定するとき、ステップST26の処理に移る。
ステップST26において、制御部201は、P(N+1)は特殊混合処理対象範囲「P(N+1) > range_high, P(N+1) < range_low」にあるか否かを判定する。特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、制御部201は、ステップST27において、「 Type1 混合分離処理 」の画像データP”(N)を選択するセレクト信号を発生し、その後に、ステップST25において、処理を終了する。
一方、制御部201は、特殊混合処理対象範囲にあると判定するとき、ステップST24において、「 Type0 混合分離処理 」の画像データP”(N)を選択するセレクト信号を発生し、その後に、ステップST25において、処理を終了する。
図24に戻って、スイッチ部226で得られた画像データP”(N)と、画像データP(N+1)は、スイッチ部227に入力される。このスイッチ部227には、120Hzのフレーム同期信号が供給される。スイッチ部227は、このフレーム同期信号に同期して、混合解除された画像データP”(N)と画像データP(N+1)を交互に取り出し、ハイフレームレート(120Hz)の動画像データRを出力する。
図26は、ポストプロセッサ205の他の構成例を示している。この例は、混合割合の決定方法として新規方法2を採用した場合における構成例である。この例は、混合割合の決定方法として新規方法2を採用した場合における構成例である。この図26において、図24と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。このポストプロセッサ205は、係数器220,221,223,224,230,231と、加算部222,225,232と、スイッチ部233,227を有している。
ピクチャ「N」の画像データP’(N)は、係数器220と係数器223と係数器230に入力される。また、ピクチャ「N+1」の画像データP(N+1)は、係数器221と係数器224と係数器231に入力される。
係数器220には制御部201から(k/a)の係数が設定されており、画像データP’(N)にこの係数が掛け算される。また、係数器221には制御部201から(-b/a)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器220,221の出力値は加算部222で加算される。ここで、係数器220,221および加算部222は、「 Type0 混合分離処理 」の混合分離処理(逆混合処理)を行うためのフィルタを構成しており、加算部222からは「 Type0 混合分離処理 」の混合分離処理で得られた画像データP”(N)が得られる。
係数器223には制御部201から(m/c)の係数が設定されており、画像データP’(N)にこの係数が掛け算される。また、係数器224には制御部201から(-d/c)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器223,224の出力値は加算部225で加算される。ここで、係数器223,224および加算部225は、「 Type1 混合分離処理 」の混合分離処理(逆混合処理)を行うためのフィルタを構成しており、加算部225からは「 Type1 混合分離処理 」の混合分離処理で得られた画像データP”(N)が得られる。
係数器230には制御部201から(e/s)の係数が設定されており、画像データP’(N)にこの係数が掛け算される。また、係数器231には制御部201から(-f/e)の係数が設定されており、画像データP(N+1)にこの係数が掛け算される。係数器231,232の出力値は加算部232で加算される。ここで、係数器231,232および加算部232は、「 Type2 混合分離処理 」の混合分離処理(逆混合処理)を行うためのフィルタを構成しており、加算部232からは「 Type1 混合分離処理 」の混合分離処理で得られた画像データP”(N)が得られる。
スイッチ部233には、加算部222,225,232で得られた画像データP”(N)が入力される。スイッチ部233は、制御部201からのセレクト信号に基づき、画素単位で、加算部222で得られた「 Type0 混合分離処理 」の画像データP”(N)、加算部225で得られた「 Type1 混合分離処理 」の画像データP”(N)または加算部232で得られた「 Type2 混合分離処理 」の画像データP”(N)を、選択的に出力する。
制御部201は、画像データP’(N),P(N+1)と、画像データのレンジ情報としての“Range_limit_High_value”、“Range_limit_low_value”のレベル値に基づいて、画素単位でセレクト信号を発生してスイッチ部233に送る。
図27のフローチャートは、制御部201において画素単位で行われるセレクト信号の発生処理の手順の一例を示している。まず、ステップST31において、制御部201は、処理を開始する。その後、制御部201は、ステップST32において、P’(N),P(N+1)の画素を読み込む。次に、制御部201は、ステップST33において、P’(N)は特殊混合処理対象範囲「P’(N) > range_high, P’(N) < range_low」にあるか否かを判定する。
制御部201は、特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、ステップST34において、「 Type0 混合分離処理 」の画像データP”(N)を選択するセレクト信号を発生し、その後に、ステップST35において、処理を終了する。
また、ステップST33で特殊混合処理対象範囲にあると判定するとき、制御部201は、ステップST36において、P(N+1)は特殊混合処理対象範囲「P(N+1) > range_high, P(N+1) < range_low」にあるか否かを判定する。特殊混合処理対象範囲ではなく通常混合処理対象範囲にあると判定するとき、制御部201は、ステップST37において、「 Type1 混合分離処理 」の画像データP”(N)を選択するセレクト信号を発生し、その後に、ステップST35において、処理を終了する。
また、ステップST36で特殊混合処理対象範囲にあると判定するとき、制御部201は、ステップST38において、「 Type2 混合分離処理 」の画像データP”(N)を選択するセレクト信号を発生し、その後に、ステップST35において、処理を終了する。
図26に戻って、スイッチ部233で得られた画像データP”(N)と、画像データP(N+1)は、スイッチ部227に入力される。このスイッチ部227には、120Hzのフレーム同期信号が供給される。スイッチ部227は、このフレーム同期信号に同期して、混合解除された画像データP”(N)と画像データP(N+1)を交互に取り出し、ハイフレームレート(120Hz)の動画像データRを出力する。
図23に戻って、MCFI部206は、ポストプロセッサ205で得られたハイフレームレートの動画像データRに、動き補償のフレーム補間処理を施して、フレームレートをさらに高めた動画像データを得る。なお、このMCFI部206を有していない場合もある。パネル表示部207は、ポストプロセッサ205で得られたハイフレームレートの動画像データRまたはMCFI部206でフレームレートが高められた動画像データによる画像表示をする。
図23に示すテレビ受信機200Aの動作を簡単に説明する。受信部202では、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。このトランスポートストリームTSは、デマルチプレクサ203に送られる。デマルチプレクサ203では、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbおよび拡張ストリームSTeが取り出され、デコーダ204に供給される。
デコーダ204では、基本ストリームSTbに復号化処理が施されてノーマルフレームレートの各フレームの画像データP’(N)が得られると共に、拡張ストリームSTeに復号化処理が施されてハイフレームレートの各拡張フレームの画像データP(N+1)が得られる。これらの画像データP’(N),P(N+1)は、ポストプロセッサ205に供給される。
また、デコーダ204では、基本ストリームSTb、拡張ストリームSTeを構成する各アクセスユニットに挿入されているパラメータセットやSEIが抽出され、制御部201に送られる。この場合、混合割合の情報および画像データのレンジ情報を持つブレンド・アンド・レンジ・インフォメーション・SEI(図19参照)も抽出される。
制御部201では、混合割合の情報および画像データのレンジ情報に基づいて、混合分離処理(逆混合処理)をする際に、画素単位でどのタイプの混合分離処理(逆混合処理)を適用すべきかを適切に判定でき、また、各タイプの混合分離処理(逆混合処理)におけるフィルタ係数を適切に設定することが可能となる。
ポストプロセッサ205では、制御部201の制御のもと、デコーダ204で得られた画像データP'(N),P(N+1)に基づいて、混合分離処理(逆混合処理)が施されて、混合解除されたハイフレームレートの動画像データRが得られる。
例えば、混合割合の決定方法として新規方法1が採用されている場合には、画像データP’(N),P(N+1)のデータレベルに応じて、通常混合分離処理である「 Type0 混合分離処理 」、あるいは特殊混合分離処理である「 Type1 混合分離処理 」が用いられる。また、混合割合の決定方法として新規方法2が採用されている場合には、画像データP’(N),P(N+1)のデータレベルに応じて、通常混合分離処理である「 Type0 混合分離処理 」、特殊混合処理である「 Type1 混合分離処理 」、あるいは特殊混合分離処理である「 Type2 混合分離処理 」が用いられる。
ホストプロセッサ205で得られたハイフレームレートの動画像データR、あるいはさらにMCFI部206でフレームレートが高められた動画像データはパネル表示部207に供給され、パネル表示部207には当該動画像データによる画像表示がされる。
図28は、ノーマルフレームレート(60Hz)の動画像データを処理可能なデコード能力があるテレビ受信機200Bの構成例を示している。このテレビ受信機200Bは、制御部201Bと、受信部202Bと、デマルチプレクサ203Bと、デコーダ204Bと、MCFI部206Bと、パネル表示部207Bを有している。
制御部201Bは、テレビ受信機200Bの各部の動作を制御する。受信部202Bは、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得する。デマルチプレクサ203Bは、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbを取り出し、デコーダ204Bに供給する。デコーダ204Bは、基本ストリームSTbに復号化処理を施して、ノーマルフレームレートの各フレームの画像データP’(N)を得る。
MCFI部206Bは、この画像データP’(N)に、動き補償のフレーム補間処理を施して、フレームレートをさらに高めた動画像データを得る。なお、このMCFI部206Bを有していない場合もある。パネル表示部207Bは、デコーダ204Bで得られたノーマルフレームレートの動画像データ(画像データP’(N))またはMCFI部206Bでフレームレートが高められた動画像データによる画像表示をする。
図28に示すテレビ受信機200Bの動作を簡単に説明する。受信部202Bでは、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。このトランスポートストリームTSは、デマルチプレクサ203Bに送られる。デマルチプレクサ203Bでは、トランスポートストリームTSから、PIDのフィルタリングによって、基本ストリームSTbが取り出され、デコーダ204Bに供給される。
デコーダ204Bでは、基本ストリームSTbに復号化処理が施されて、ノーマルフレームレートの各フレームの画像データP’(N)が得られる。デコーダ204Bで得られたノーマルフレームレートの動画像データ、あるいはさらにMCFI部206Bでフレームレートが高められた動画像データはパネル表示部207Bに供給され、パネル表示部207Bには当該動画像データによる画像表示がされる。
以上説明したように、図1に示す送受信システム10においては、ハイフレームレートの動画像データを構成する各フレームの画像データのうち少なくともノーマルフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合されてシャッタ開口率が高められた状態とされており、このノーマルフレームレートに対応したフレームの画像データが符号化されて得られた基本ストリームSTbが送信される。
そのため、ノーマルフレームレートの動画像データを処理可能なデコード能力があるテレビ受信機200Bの場合、基本ストリームSTbを処理してノーマルフレームレートの動画像データを得ることで、動画像として滑らかな画像を表示でき、また、表示処理において低負荷演算によるフレーム補間処理で画質的な問題を引き起こすことが回避可能となる。
また、図1に示す送受信システム10においては、各フレームの画像データは、データレベルに応じた混合割合で周辺フレームの画像データと混合される。そのため、混合処理によって、HDR(High Dynamic Range)感などの画像本来の質感が失われることが回避される。
また、図1に示す送受信システム10においては、基本ストリームSTbと共に、残りのフレームの画像データが符号化されて得られた拡張ストリームSTeが得られ、これらの基本ストリームSTbおよび拡張ストリームSTeにそれぞれのフレームの画像データに関連付けられて対応するフレームの混合割合の情報(係数セット)および画像データのレンジ情報が挿入されて送信される。そのため、受信側では、これらの情報に基づいて、基本ストリームおよび拡張ストリームを復号化して得られた動画像データに混合分離処理(逆混合処理)を施して混合解除された動画像データを得ることを容易かつ適切に行うことが可能となる。
なお、図1に示す送受信システム10においては、基本ストリームSTbや拡張ストリームSTeに各フレームの混合割合の情報および画像データのレンジ情報を挿入して、受信側に送る例を示しした。しかし、これに限定されることなく、その他の手段により、各フレームの混合割合の情報および画像データのレンジ情報を受信側に与える構成であってもよい。
<2.第2の実施の形態>
[送受信システム]
上述の実施の形態においては、送信装置100とテレビ受信機200からなる送受信システム10の例を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。テレビ受信機200の部分が、例えばHDMI(High-Definition Multimedia Interface)などのデジタルインタフェース(マルチメディアインタフェース)で接続されたセットトップボックスおよびディスプレイとされる場合も考えられる。なお、「HDMI」は登録商標である。
図29は、送受信システム10Aの構成例を示している。この送受信システム10Aは、送信装置100と、セットトップボックス(STB)200-1と、ディスプレイ200-2を有する構成となっている。セットトップボックス(STB)200-1とディスプレイ200-2はHDMIで接続されている。
送信装置100は、図1に示す送受信システム10における送信装置100と同じものであるので、その説明は省略する。セットトップボックス200-1は、送信装置100から放送波に載せて送られてくるトランスポートストリームTSを受信する。
セットトップボックス200-1は、ディスプレイ200-2がハイフレームレート(120Hz)の動画像データの取り扱いが可能である場合、トランスポートストリームTSに含まれる基本ストリームSTbおよび拡張ストリームSTeの双方を処理して、画像データP’(N),P(N+1)を得る。
セットトップボックス200-1は、ディスプレイ200-2が混合分離処理(逆混合処理)の機能を持つ場合には、フレーム毎に、混合処理されている画像データP’(N),P(N+1)と、混合割合の情報(係数セット)および画像データのレンジ情報を、HDMI伝送路を介して、ディスプレイ200-2に送る。
また、セットトップボックス200-1は、ディスプレイ200-2が混合分離処理(逆混合処理)の機能を持たない場合には、混合処理されている画像データP’(N),P(N+1)に対して混合割合の情報(係数セット)に基づいて混合分離処理(逆混合処理)を行って、混合解除されたハイフレームレートの動画像データRを得る。そして、セットトップボックス200-1は、このハイフレームレートの動画像データRを、HDMI伝送路を介して、ディスプレイ200-2に送る。
一方、セットトップボックス200-1は、ディスプレイ200-2がノーマルフレームレート(60Hz)の動画像データの取り扱いが可能である場合、トランスポートストリームTSに含まれる基本ストリームSTbのみを処理して、ノーマルフレームレートの各フレームの画像データP’(N)を得る。そして、セットトップボックス200-1は、この画像データP’(N)を、HDMI伝送路を介して、ディスプレイ200-2に送る。
ソース機器であるセットトップボックス200-1は、シンク機器であるディスプレイ200-2からEDIDを取得し、ディスプレイ200-2がハイフレームレート(120Hz)の動画像データの取り扱いが可能か否かの判断、さらにはディスプレイ200-2が混合分離処理(逆混合処理)の機能を持つか否かを判断する。
図30のフローチャートは、セットトップボックス200-1の制御部(CPU)における制御処理手順の一例を示している。まず、制御部は、ステップST41において、制御処理を開始する。次に、制御部は、ステップST42において、ディスプレイ200-2からEDIDを読み出してチェックする。そして、制御部は、ステップST43において、ディスプレイ200-2がハイフレームレート(120Hz)の動画像データの取り扱いが可能か否かを判断する。
取扱いが可能でないとき、制御部は、ステップST44において、基本ストリームSTbのみをデコードし、ノーマルフレームレート(60Hz)の各フレームの画像データP(N)をディスプレイ200-2に送信する。制御部は、このステップST44の処理の後、ステップST45において、制御処理を終了する。
また、ステップST43でディスプレイ200-2がハイフレームレートの動画像データの取り扱いが可能であるとき、制御部は、ステップST46において、基本ストリームSTbおよび拡張ストリームSTeをデコードする。
次に、制御部は、ステップST47において、ディスプレイ200-2が混合分離処理(逆混合処理)の機能を持つか否かを判断する。混合分離処理の機能を持たないとき、制御部は、ステップST48において、セットトップボックス200-1側で混合分離処理をすることに決定し、混合解除されたハイフレームレートの動画像データRをディスプレイ200-2に送信する。制御部は、このステップST48の処理の後、ステップST5において、制御処理を終了する。
また、ステップST47でディスプレイ200-2が混合分離処理の機能を持つとき、制御部は、ステップST49において、ディスプレイ200-2側で混合分離処理をすることに決定し、混合処理されている画像データP’(N),P(N+1)と、混合割合の情報(係数セット)および画像データのレンジ情報を、HDMI伝送路を介して、ディスプレイ200-2に送る。制御部は、このステップST49の処理の後、ステップST45において、制御処理を終了する。
図31は、送信装置100、セットトップボックス200-1およびディスプレイ200-2の処理の概要を示している。なお、送信装置100のプリプロセッサ102の出力の画像シーケンスP’(N)、P(N+1)とセットトップボックス200-1のデコーダ204の出力の画像シーケンスP’(N)、P(N+1)とは、時系列的には同じものであるが、コーデックを通しているので両者の画質が異なる場合も含む。
送信装置100については、図4で説明したと同様であるので、ここではその説明を省略する。セットトップボックス200-1では、ハイフレームレート(120Hz)の動画像データの取り扱いが可能なディスプレイ200-2Aが接続されている場合、デコーダ204において、2つのストリームSTb,STeに復号化処理が施されて、ノーマルフレームレートの各フレームの画像データP’(N)と、ハイフレームレートの各拡張フレームの画像データP(N+1)が得られる。
また、セットトップボックス200-1では、ディスプレイ200-2Aが混合分離処理(逆混合処理)の機能を持つ場合、画像データP’(N),P(N+1)と、各フレームの混合割合の情報(係数セット)および画像データのレンジ情報が、HDMI伝送路を介して、ディスプレイ200-2Aに送信される。図示の例は、ディスプレイ200-2Aがポストプロセッサ205を備えており、ディスプレイ200-2Aが混合分離処理(逆混合処理)の機能を持つ場合を示している。また、図32(a)は、この場合の状態を示している。
また、セットトップボックス200-1では、ディスプレイ200-2Aが混合分離処理(逆混合処理)の機能を持たない場合、自身が持つポストプロセッサ205により、画像データP’(N),P(N+1)に混合分離処理(逆混合処理)が施され、混合解除されたハイフレームレートの動画像データRが得られる。そして、セットトップボックス200-1では、この動画像データRが、HDMI伝送路を介して、ディスプレイ200-2Aに送信される。図32(b)は、この場合の状態を示している。
また、セットトップボックス200-1では、ノーマルフレームレート(60Hz)の動画像データの取り扱いが可能なディスプレイ200-2Bが接続されている場合、デコーダ204において、ストリームSTbに復号化処理が施されて、ノーマルフレームレートの各フレームの画像データP'(N)が得られる。そして、セットトップボックス200-1では、この画像データP'(N)が、HDMI伝送路を介して、ディスプレイ200-2Bに送信される。
セットトップボックス200-1は、上述したように、ハイフレームレート(120Hz)の動画像データの取り扱いが可能であって混合分離処理(逆混合処理)の機能を持つディスプレイ200-2Aに、混合処理がされている動画像データP’(N),P(N+1)と、各フレームの混合割合の情報(係数セット)および画像データのレンジ情報を、HDMI伝送路を介して、送信する。
この場合、混合割合の情報(係数セット)およびレンジ情報は、例えば、画像データP’(N),P(N+1)のブランキング期間に挿入されて送信される。ここでは、新規定義するHFR・ブレンディング・インフォフレーム(HFR Blending InfoFrame)を使用する。
図33は、HFR・ブレンディング・インフォフレームの構造例(Syntax)を示し、図34は、その構造例における主要な情報の内容(Semantics)を示している。このインフォフレームの最初の3バイトはヘッダ部分であり、インフォフレームタイプ、バージョンナンバー、データバイトのバイト長の情報が配置されている。
データバイト1(Data Byte 1)の第7ビットから第5ビットに「frame_rate」の3ビット情報が配置されている。この3ビット情報は、フレームレートを示す。例えば、“3”は120Hzを示す。また、データバイト1(Data Byte 1)の第4ビットに、「blending_flag」の1ビット情報が配置されている。この情報は、周辺画像データとの混合処理の適用があるか否かを示す。例えば、“0”は適用なしを示し、“1”は適用ありを示す。
また、データバイト1(Data Byte 1)の第0ビットに「Synchronized Frame (SF)」の1ビット情報が配置されている。この情報は、次のビデオフレームとの同期処理が必須であるか否かを示す。例えば、“0”は次のビデオフレームとの同期処理が必須でないことを示し、“1”は次のビデオフレームとの同期処理が必須であることを示す。
また、データバイト2(Data Byte 2)に「bit_depth_information」の8ビット情報が配置されている。この情報は、符号化画素ビット幅を示す。例えば、“0”は8ビット、“1”は10ビット、“2”は12ビット、“3”は16ビットを示す。
また、データバイト3(Data Byte 3)およびデータバイト4(Data Byte 4)に「range_limit_high_value」の16ビット情報が配置されている。この情報は、通常混合処理対象範囲の上限のレベル値を示す。また、データバイト5(Data Byte 5)およびデータバイト6(Data Byte 6)に「range_limit_low_value」の16ビット情報が配置されている。この情報は、通常混合処理対象範囲の下限のレベル値を示す。
また、データバイト7(Data Byte 7)に「Blending_mode」の8ビット情報が配置されている。この情報は、混合処理のモードを示す。例えば、“0x0”はモード0(mode0)、つまり従来の通常混合処理のみを行うモードを示す。また、例えば、“0x1”はモード1(mode1)、つまり、ピクチャ「N」の画素判断による特殊混合処理を含む混合処理を行うモードを示す。また、例えば、“0x2”はモード2(mode2)、つまり、ピクチャ「N」、「N+1」の画素判断による特殊混合処理を含む混合処理を行うモードを示す。
また、データバイト8(Data Byte 8)に「type_blending_coefficient_a」の8ビット情報が配置されている。この情報は、「Type0 混合処理」である通常混合処理における係数a(ベースレイヤ画素に対する係数)を示す。また、データバイト9(Data Byte 9)に「type_blending_coefficient_b」の8ビット情報が配置されている。この情報は、「Type0 混合処理」である通常混合処理における係数b(エンハンスト画素に対する係数)を示す。
また、データバイト10(Data Byte 10)に「type_blending_coefficient_c」の8ビット情報が配置されている。この情報は、「Type1 混合処理」である通常混合処理における係数c(ベースレイヤ画素に対する係数)を示す。また、データバイト11(Data Byte 11)に「type_blending_coefficient_d」の8ビット情報が配置されている。この情報は、「Type1 混合処理」である通常混合処理における係数d(エンハンスト画素に対する係数)を示す。
また、データバイト12(Data Byte 12)に「type_blending_coefficient_e」の8ビット情報が配置されている。この情報は、「Type2 混合処理」である通常混合処理における係数e(ベースレイヤ画素に対する係数)を示す。また、データバイト13(Data Byte 13)に「type_blending_coefficient_f」の8ビット情報が配置されている。この情報は、「Type2 混合処理」である通常混合処理における係数f(エンハンスト画素に対する係数)を示す。
図35は、セットトップボックス200-1の構成例を示している。この図35において、図23と対応する部分には同一符号を付して示している。このセットトップボックス200-1は、制御部201-1と、受信部202と、デマルチプレクサ203と、デコーダ204と、ポストプロセッサ205と、HDMI送信部208を有している。
制御部201-1は、セットトップボックス200-1の各部の動作を制御する。受信部202は、受信アンテナで受信されたRF変調信号を復調し、トランスポートストリームTSを取得し、デマルチプレクサ203に送る。
デマルチプレクサ203は、ディスプレイ200-2がハイフレームレート(120Hz)の動画像データの取り扱いが可能であるか否かにより、PIDのフィルタリングによって、基本ストリームSTbおよび拡張ストリームSTeの双方を取り出すか、基本ストリームSTbを取り出す。
デコーダ204は、デマルチプレクサ203で基本ストリームSTbおよび拡張ストリームSTeが取り出されるとき、基本ストリームSTbに復号化処理を施してノーマルフレームレートの各フレームの画像データP'(N)を得ると共に、拡張ストリームSTeに復号化処理を施してハイフレームレートの各拡張フレームの画像データP(N+1)を得る。
また、このとき、デコーダ204は、基本ストリームSTb、拡張ストリームSTeを構成する各アクセスユニットに挿入されているパラメータセットやSEIを抽出し、制御部201-1に送る。この場合、各フレームの混合割合(係数セット)の情報および画像データのレンジ情報を持つブレンド・アンド・レンジ・インフォメーション・SEI(図19参照)も抽出される。
これにより、制御部201-1は、各フレームの混合割合(係数セット)の情報および画像データのレンジ情報を認識し、ポストプロセッサ205で混合分離処理(逆混合処理)をする際には、画素単位でどのタイプの混合分離処理を適用すべきかを適切に判定でき、また、各タイプの混合分離処理におけるフィルタ係数を適切に設定することが可能となる。また、制御部201-1は、ディスプレイ200-2にHFR・ブレンディング・インフォフレームを送信するとき、それに配置する各種情報を、ブレンド・アンド・レンジ・インフォメーション・SEIから得ることが可能となる。
また、デコーダ204は、デマルチプレクサ203で基本ストリームSTbのみが取り出されるとき、この基本ストリームSTbに復号化処理を施して、ノーマルフレームレートの各フレームの画像データP’(N)を得る。
ポストプロセッサ205は、ディスプレイ200-2がハイフレームレートの動画像データの取り扱いが可能であって、混合分離処理の機能を持っていない場合に、デコーダ204で得られた画像データP’(N),P(N+1)に、混合分離処理を施して、混合解除されたハイフレームレートの動画像データRを得る。
HDMI送信部208は、HDMIに準拠した通信により、HDMI伝送路を介して、ディスプレイ200-2に非圧縮の動画像データを送信する。ここで、ディスプレイ200-2がハイフレームレートの動画像データの取り扱いが可能であって、混合分離処理の機能を持っていない場合には、ポストプロセッサ205で得られた混合解除されたハイフレームレートの動画像データRを、HDMI伝送路を介して、ディスプレイ200-2に送信する。
また、ディスプレイ200-2がハイフレームレートの動画像データの取り扱いが可能であって、混合分離処理の機能を持っている場合には、デコーダ204で得られた画像データP’(N),P(N+1)を、HDMI伝送路を介して、ディスプレイ200-2に送信する。この場合、ディスプレイ200-2側で混合分離処理をすることになるので、混合割合の情報を含むHFR・ブレンディング・インフォフレーム(図33参照)を、画像データP’(N),P(N+1)を構成する各フレームの画像データのブランキング期間に挿入して送信する。
また、ディスプレイ200-2がノーマルフレームレートの動画像データの取り扱いが可能である場合には、デコーダ204で得られたノーマルフレームレートの各フレームの画像データP’(N)を、HDMI伝送路を介して、ディスプレイ200-2に送信する。
図36は、ハイフレームレートの動画像データを取り扱うディスプレイ200-2Aの構成例を示している。この図36において、図23と対応する部分には同一符号を付して示している。このディスプレイ200-2Aは、制御部201-2Aと、HDMI受信部219と、ポストプロセッサ205と、MCFI部206と、パネル表示部207を有している。なお、ポストプロセッサ205を有しない場合もある
制御部201-2Aは、ディスプレイ200-2Aの各部の動作を制御する。HDMI受信部219は、HDMIに準拠した通信により、セットトップボックス200-1から、HDMI伝送路を介して、非圧縮のハイフレームレートの動画像データを受信する。ここで、ポストプロセッサ205が存在しない場合には、混合解除されたハイフレームレートの動画像データRを受信する。
一方、ポストプロセッサ205が存在する場合には、混合処理がされている画像データP’(N),P(N+1)を受信する。この場合、画像データP’(N),P(N+1)のブランキング期間に挿入されているHFR・ブレンディング・インフォフレーム(図33参照)が抽出され、制御部201-2Aに送られる。これにより、制御部201-2Aは、各フレームの混合割合(係数セット)の情報および画像データのレンジ情報を認識し、ポストプロセッサ205で混合分離処理(逆混合処理)をする際には、画素単位でどのタイプの混合分離処理を適用すべきかを適切に判定でき、また、各タイプの混合分離処理におけるフィルタ係数を適切に設定することが可能となる。
ポストプロセッサ205は、制御部201-2Aの制御のもと、HDMI受信部219で受信された画像データP’(N),P(N+1)に、混合分離処理(逆混合処理)を施して、混合解除されたハイフレームレートの動画像データRを得る。
MCFI部206は、HDMI受信部209で受信された、あるいはポストプロセッサ205で得られたハイフレームレートの動画像データRに、動き補償のフレーム補間処理を施して、フレームレートをさらに高めた動画像データを得る。なお、このMCFI部206を有していない場合もある。パネル表示部207は、ポストプロセッサ205で得られたハイフレームレートの動画像データRまたはMCFI部206でフレームレートが高められた動画像データによる画像表示をする。
図37は、ノーマルフレームレートの動画像データを取り扱うディスプレイ200-2Bの構成例を示している。この図37において、図23と対応する部分には同一符号を付して示している。このディスプレイ200-2Bは、制御部201-2Bと、HDMI受信部219Bと、MCFI部206Bと、パネル表示部207Bを有している。
制御部201-2Bは、ディスプレイ200-2Bの各部の動作を制御する。HDMI受信部219Bは、HDMIに準拠した通信により、セットトップボックス200-1から、HDMI伝送路を介して、非圧縮のノーマルフレームレートの動画像データP’(N)を受信する。
MCFI部206Bは、HDMI受信部219Bで受信されたノーマルフレームレートの動画像データP’(N)に、動き補償のフレーム補間処理を施して、フレームレートを高めた動画像データを得る。なお、このMCFI部206Bを有していない場合もある。パネル表示部207Bは、HDMI受信部219Bで受信されたノーマルフレームレートの動画像データまたはMCFI部206Bでフレームレートが高められた動画像データによる画像表示をする。
以上説明したように、図29に示す送受信システム10Aにおいては、ディスプレイ200-2に混合処理されている画像データP’(N),P(N+1)を送信する場合、各フレームの混合割合の情報を含むHFR・ブレンディング・インフォフレーム(図33参照)を同時に送信する。そのため、ディスプレイ200-2では、各フレームの混合割合の情報および画像データのレンジ情報に基づいて画像データP’(N),P(N+1)に混合分離処理を施して、混合解除された動画像データを容易に得ることができ、良好な動画像表示を行うことができる。
<3.第3の実施の形態>
[送受信システム]
上述の実施の形態においては、送信装置100にハイフレームの動画像データPに混合処理を施し、混合処理後の画像データP’(N),P(N+1)を送信するものである。しかし、送信側からはハイフレームの動画像データPをそのまま送信し、受信側においてノーマルフレームレートの動画像データを取り扱う場合には、受信側で混合処理を行ってフレームレートを変換することも考えられる。
図38は、送受信システム10´の構成例を示している。この送受信システム10´は、送信装置100´と、セットトップボックス(STB)200´-1と、ディスプレイ200´-2を有する構成となっている。セットトップボックス(STB)200´-1とディスプレイ200´-2はHDMIで接続されている。
送信装置100´は、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。このトランスポートストリームTSには、120Hz、240Hz等のハイフレームレート、この実施の形態においては120Hzの動画像データが符号化されて得られたビデオストリームが含まれる。
セットトップボックス200´-1は、送信装置100´から放送波に載せて送られてくる上述のトランスポートストリームTSを受信する。セットトップボックス200´-1は、ディスプレイ200´-2がハイフレームレート(120Hz)の動画像データを取り扱う場合、トランスポートストリームTSに含まれるビデオストリームを復号化してハイフレームレートの動画像データを得て、ディスプレイ200´-2に送る。
一方、セットトップボックス200´-1は、ディスプレイ200´-2がノーマルフレームレート(60Hz)の動画像データを取り扱う場合、トランスポートストリームTSに含まれるビデオストリームを復号化してハイフレームレート(120Hz)の動画像データを得た後に、レート変換を行ってノーマルフレームレートの動画像データを得て、ディスプレイ200´-2に送る。この場合、ノーマルフレームレートの画像データを得る際に、周辺フレームの画像データを混合する処理を施し、ストロービング効果の抑制等を図る。
図39は、送信装置100´、セットトップボックス200´-1およびディスプレイ200´-2(200´-2A,200´-2B)の処理の概要を示している。カメラ(撮像装置)81から出力されるより高いフレームレートの動画像データVaがHFRプロセッサ82に送られてハイフレームレート(120Hz)の動画像データVbが得られる。この動画像データVbが送信装置100´に動画像データPとして入力される。送信装置100´では、エンコーダ103において、動画像データPに符号化処理が施されて、ビデオストリームSTが得られる。送信装置100´からテレビ受信機200´には、このビデオストリームSTが送信される。
セットトップボックス200´-1Aでは、デコーダ204において、ビデオストリームSTに復号化処理が施されて、ハイフレームレートの動画像データPが得られる。セットトップボックス200´-1Aでは、ハイフレームレート(120Hz)の動画像データを取り扱うディスプレイ200´-2Aに対しては、この動画像データPがそのまま、HDMI伝送路を介して送信される。
また、セットトップボックス200´-1Aでは、ポストプロセッサ209Bにおいて、動画像データPを構成する各フレームのうち、ノーマルフレームレートに対応する各フレームの画像データに混合処理が施されて、ノーマルフレームレートの各フレームの画像データP´(N)が得られる。セットトップボックス200´-1Aでは、ノーマルフレームレート(60Hz)の動画像データを取り扱うディスプレイ200´-2Bに対しては、この画像データP´(N)が、HDMI伝送路を介して送信される。
ディスプレイ200´-2Aでは、動画像データPが、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部206でフレーム補間がされてフレームレートが高められて表示用動画像データとなる。また、ディスプレイ200´-2Aでは、画像データP´(N)からなる動画像データが、そのまま、あるいはMCFI(Motion Compensated Frame Insertion)部206Bでフレーム補間がされてフレームレートが高められて表示用動画像データとなる。
図40は、送信装置100´の構成例を示している。この図40において、図11と対応する部分には同一符号を付し手示している。この送信装置100´は、制御部101と、エンコーダ103と、マルチプレクサ104と、送信部105を有している。制御部101は、送信装置100´の各部の動作を制御する。
エンコーダ103では、ハイフレームレートの動画像データPに対して符号化処理が施されて、ビデオストリームSTが生成される。この場合、動画像データPに対して、例えば、H.264/AVC、H.265/HEVCなどの予測符号化処理が施される。
マルチプレクサ104では、エンコーダ103で生成されたビデオストリームSTが、PES(Packetized Elementary Stream)パケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。送信部105では、このトランスポートストリームTSが、例えば、QPSK/OFDM等の放送に適した変調方式で変調され、RF変調信号が送信アンテナから送信される。
図41は、セットトップボックス200´-1の構成例を示している。この図41において、図23、図35と対応している部分には同一符号を付して示している。このセットトップボックス200´-1は、制御部201´-1と、受信部202と、デマルチプレクサ203と、デコーダ204と、ポストプロセッサ209Bと、HDMI送信部208を有している。
制御部201´-1は、セットトップボックス200´-1の各部の動作を制御する。受信部202では、受信アンテナで受信されたRF変調信号が復調され、トランスポートストリームTSが取得される。デマルチプレクサ203では、トランスポートストリームTSから、PIDのフィルタリングによって、ビデオストリームSTが取り出され、デコーダ204に供給される。
デコーダ204では、ビデオストリームSTに復号化処理が施されてハイフレームレートの動画像データPが得られる。また、ポストプロセッサ209Bでは、動画像データPを構成する各フレームのうち、ノーマルフレームレートに対応する各フレームの画像データに混合処理が施されて、ノーマルフレームレートの各フレームの画像データP´(N)が得られる。
HDMI送信部208では、HDMIに準拠した通信により、HDMI伝送路を介して、ディスプレイ200´-2A,200´-2Bに非圧縮の動画像データが送信される。ここで、ハイフレームレート(120Hz)の動画像データを取り扱うディスプレイ200´-2Aに対しては、デコーダ204で得られた動画像データPが、HDMI伝送路を介して送信される。一方、ノーマルフレームレート(60Hz)の動画像データを取り扱うディスプレイ200´-2Bに対しては、ポストプロセッサ209Bで得られた画像データP´(N)が、HDMI伝送路を介して送信される。
図42は、ポストプロセッサ209Bの構成例を示している。このポストプロセッサ209Bは、詳細説明は省略するが、図12に示すプリプロセッサ102と、画像データP(N+1)の出力系がないことを除き、同様の構成で同様の動作がなされて、画像データP´(N)が得られる。なお、このポストプロセッサ209Bでは、図12のプリプロセッサ102とは異なって、画像データP´(N)による特殊混合処理対象範囲にあるか否かの判断を考慮する必要がない場合には、ピクセル処理部120はバイパスすることも可能である。
また、図43は、ポストプロセッサ209Bの他の構成例を示している。このポストプロセッサ209Bは、詳細説明は省略するが、図16に示すプリプロセッサ102と、画像データP(N+1)の出力系がないことを除き、同様の構成で同様の動作がなされて、画像データP´(N)が得られる。なお、このポストプロセッサ209Bでは、図16のプリプロセッサ102とは異なって、画像データP´(N)による特殊混合処理範囲にあるか否かの判断を考慮する必要がない場合には、ピクセル処理部120はバイパスすることも可能である。なお、209Bの出力には、Blend_and_range_information 情報を付けなくてもよい。
図44は、ハイフレームレート(120Hz)の動画像データを取り扱うディスプレイ200´-2Aの構成例を示している。このディスプレイ200´-2Aは、制御部201´-2Aと、HDMI受信部219と、MCFI部206と、パネル表示部207を有している。
制御部201´-2Aでは、ディスプレイ200´-2Aの各部の動作が制御される。HDMI受信部219では、HDMIに準拠した通信により、セットトップボックス200´-1から、HDMI伝送路を介して、非圧縮のハイフレームレートの動画像データPが受信される。
MCFI部206では、HDMI受信部219で受信された動画像データPに、動き補償のフレーム補間処理を施して、フレームレートを高めた動画像データを得る。なお、このMCFI部206を有していない場合もある。パネル表示部207では、HDMI受信部219で受信されたハイフレームレートの動画像データまたはMCFI部206でフレームレートが高められた動画像データによる画像表示が行われる。
図45は、ノーマルフレームレート(60Hz)の動画像データを取り扱うディスプレイ200´-2Bの構成例を示している。このディスプレイ200´-2Bは、制御部201´-2Bと、HDMI受信部219Bと、MCFI部206Bと、パネル表示部207Bを有している。このディスプレイ200´-2Bについては、上述した図37に示すディスプレイ200-2Bと同様の構成であるので、ここでは説明を省略する。
以上説明したように、図38に示す送受信システム10´においては、ポストプロセッサ209Bにおいて、ハイフレームレート(120Hz)の動画像データPを構成する各フレームのうち、ノーマルフレームレートに対応する各フレームの画像データに混合処理が施されて、ノーマルフレームレートの各フレームの画像データP´(N)が得られる。そのため、この画像データP´(N)が供給されるノーマルフレームレート(60Hz)の動画像データを取り扱うディスプレイ200´-2Bでは動画像として滑らかな画像を表示でき、また、表示処理において低負荷演算によるフレーム補間処理で画質的な問題を引き起こすことが回避可能となる。
また、ノーマルフレームレートに対応する各フレームの画像データP(N)がデータレベルに応じた混合割合で画像データP(N+1)と混合されることで、ノーマルフレームレートの各フレームの画像データP´(N)が得られる。そのため、混合処理によって、HDR(High Dynamic Range)感などの画像本来の質感が失われることが回避される。
<4.変形例>
なお、混合処理の一般形として、混合処理を行う対象は、P(N),P(N+1)のピクチャにおいて,P(N)だけに限定されるものではなく、P(N+1)に対しても行うことができる。
その際、P(N)を対象とする混合とP(N+1)を対象とする混合とは、各々独立した混合比率とすることが可能である。ここで、P(N)を混合対象とする場合のP(N)への“blending_coef_a”をA、P(N+1)への“blending_coef_b”をとし、P(N+1)を混合対象とする場合のP(N)への“blending_coef_a”をa、P(N+1)への“blending_coef_b”をbとすると、P'(N),P’(N+1)は、以下のようになる。
P’(N) = A * P(N) + B * P(N+1)
P’(N+1) = a * P(N) + b * P(N+1)
これを一般的な行列で表現すると、プリプロセッサ(Preproc)では、以下のようになる。
Figure 0006982990
また、ポストプロセッサ(Postproc)では、以下のようになる。
Figure 0006982990
“Blending_coef_c”、“Blending_coef_d”、“Blending_coef_e”、“Blending_coef_f” も同様の方法で表現できる。なお、フローチャート上、P(N)とP(N+1)が入れ替わるだけで、それ以外はP(N)が混合対象の場合と同様になる。
図46は、混合処理の一般形における、送信側における混合(blending)と、受信側における混合分離(unblending)の一例を模式的に示している。この例は、図2(b)の例に対応し、ピクチャ「N」とピクチャ「N+1」がフレームペアを構成しており、ピクチャ「N+2」とピクチャ「N+3」がフレームペアを構成している。なお、図示の例において、オブジェクトOa,Obは動きのないオブジェクトであり、オブジェクトOcは動きのあるオブジェクトである。
送信側の混合処理により、各フレームペアにおいて、最初のフレームである基本ストリームのフレームの画像データは拡張フレームの画像データと所定の混合割合で混合された状態(混合状態)とされ、同様に、それに続くフレームである拡張ストリームのフレームの画像データは基本フレームの画像データと所定の混合割合で混合された状態(混合状態)とされる。
図47は、混合処理の一般形における、SEIの配置方法を示している。図47(a)は、第1の方法を示している。この第1の方法は、P(N)を混合対象とするグループ(base sublayer )と、P(N+1)を混合対象とするグループ(enhanced sublayer)のSEIを各々のサブレイヤに配置する方法である。
図47(b)は、第2の方法を示している。この第2の方法は、P(N)を混合対象とするグループ(base sublayer ) と、P(N+1) を混合対象とするグループ(enhanced sublayer)
のSEIを一方のサブレイヤに配置する方法である。いずれの方法でも混合対象が識別できるよう、「blending_target 」の要素がSEIのシンタクスに定義される。
図48は、混合処理の一般形における、ブレンド・アンド・レンジ・インフォメーション・SEIメッセージの構造例を示している。この構造例は、「blending_target 」の要素が新たに定義されている他は、図19に示す構造例と同じである。例えば、“0”はベース・サブレイヤを示し、“1”は最初のエンハンスト・サブレイヤを示す。図49は、混合処理の一般形における、HFR・ブレンディング・インフォフレームの構造例を示している。この構造例は、「blending_target 」の要素が新たに定義されている他は、図33に示す構造例と同じである。
なお、上述実施の形態においては、ハイフレームレートが120Hzあるいは240Hzでノーマルフレームレートが60Hzの例を示したが、フレームレートの組み合わせは、これに限定されるものではない。例えば、100Hzあるいは200Hzと50fpsの組み合わせでも同様である。また、上述実施の形態においては、輝度中心の説明をしているが、カラーの場合、同様の処理がR,G,Bの各ドメインについて行われることになる。
また、上述実施の形態においては、送信装置100およびテレビ受信機200からなる送受信システム10、さらには送信装置100、セットトップボックス200-1およびディスプレイ200-2からなる送受信システム10Aを示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。
また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG−2 TS)である例を示した。しかし、本技術は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)あるいはMMT(MPEG Media Transport)、インターネット配信で使用されているISOBMFF(MP4)などの種々のフォーマットのコンテナが該当する。
また、本技術は、以下のような構成を取ることもできる。
(1)第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して第2の動画像データを得る処理部を備え、
上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされ、
上記第2のフレームレートに対応したフレームの画像データを符号化して基本ストリームを得ると共に、残りのフレームの画像データを符号化して拡張ストリームを得る符号化部と、
上記基本ストリームおよび上記拡張ストリームを含むコンテナを送信する送信部をさらに備える
送信装置。
(2)ビデオのレイヤまたはコンテナのレイヤに上記混合割合の情報および上記画像データのレンジ情報を挿入する挿入部をさらに備える
前記(1)に記載の送信装置。
(3)上記基本ストリームおよび上記拡張ストリームはNALユニット構造を有し、
上記挿入部は、上記混合割合の情報および上記画像データのレンジ情報を持つSEI NALユニットを上記基本ストリームおよび/または上記拡張ストリームに挿入する
前記(2)に記載の送信装置。
(4)上記処理部は、処理対象フレームの画像データに周辺フレームの画像データを混合する処理を施す際に、上記処理対象フレームの画像データのデータレベルに基づいて上記混合割合を決定する
前記(1)から(3)のいずれかに記載の送信装置。
(5)上記処理部は、処理対象フレームの画像データに周辺フレームの画像データを混合する処理を施す際に、上記処理対象フレームおよび上記周辺フレームの画像データのデータレベルに基づいて上記混合割合を決定する
前記(1)から(3)のいずれかに記載の送信装置。
(6)上記画像データのレンジ情報は、第1の閾値と該第1の閾値より低い第2の閾値の情報を含み、
上記第1の動画像データは、ハイダイナミックレンジの動画像データであり、
上記第1の閾値は、上記画像データのレベルがきらめき再現レベル範囲にあるか否かを判別するための閾値であり、
上記第2の閾値は、上記画像データのレベルが暗部再現レベル範囲にあるか否かを判別するための閾値である
前記(1)から(5)のいずれかに記載の送信装置。
(7)上記第1のフレームレートは120Hzまたは240Hzであり、上記第2のフレームレートは60Hzである
前記(1)から(6)のいずれかに記載の送信装置。
(8)処理部が、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して第2の動画像データを得るステップを有し、
上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされ、
符号化部が、上記第2のフレームレートに対応したフレームの画像データを符号化して基本ストリームを得ると共に、残りのフレームの画像データを符号化して拡張ストリームを得るステップと、
送信部が、上記基本ストリームおよび上記拡張ストリームを含むコンテナを送信するステップをさらに有する
送信方法。
(9)基本ストリームおよび拡張ストリームを含むコンテナを受信する受信部を備え、
上記基本ストリームは、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを構成する各画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データであって少なくとも周辺フレームの画像データと混合された状態にある画像データを符号化して得られたものであり、上記拡張ストリームは、残りのフレームの画像データを符号化して得られたものであり、
表示能力に応じて、上記基本ストリームを復号化して上記第2のフレームレートの動画像データを得るか、あるいは上記基本ストリームおよび上記拡張フレームを復号化して上記第2の動画像データを得、該第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得る処理部をさらに備える
受信装置。
(10)ビデオのレイヤまたはコンテナのレイヤに上記混合割合の情報および上記画像データのレンジ情報を挿入されており、
上記処理部は、上記混合割合の情報および上記画像データのレンジ情報に基づいて、上記第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得る
前記(9)に記載の受信装置。
(11)受信部が、基本ストリームおよび拡張ストリームを含むコンテナを受信するステップを有し、
上記基本ストリームは、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを構成する各画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データであって少なくとも周辺フレームの画像データと混合された状態にある画像データを符号化して得られたものであり、上記拡張ストリームは、残りのフレームの画像データを符号化して得られたものであり、
処理部が、表示能力に応じて、上記基本ストリームを復号化して上記第2のフレームレートの動画像データを得るか、あるいは上記基本ストリームおよび上記拡張フレームを復号化して上記第2の動画像データを得、該第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得るステップをさらに有する
受信方法。
(12)第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを取得する取得部と、
上記第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を、伝送路を介して、外部機器に送信する送信部を備える
送信装置。
(13)上記送信部は、上記混合割合の情報および上記画像データのレンジ情報を、それぞれ上記第2の動画像データの各フレームの画像データのブランキング期間に挿入して送信する
前記(12)に記載の送信装置。
(14)上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて混合分離処理を施して第3の動画像データを得る処理部をさらに備え、
上記送信部は、上記外部機器が上記混合分離処理の機能を持っていないとき、上記第2の動画像データの代わりに、上記第3の動画像データを送信する
前記(12)または(13)に記載の送信装置。
(15)上記第2の動画像データは第1のフレームレートの動画像データであり、
上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態にあり、
上記送信部は、上記外部機器の表示可能なフレームレートが上記第2のフレームレートであるとき、上記第2の動画像データの代わりに、上記第2のフレームレートに対応したフレームの画像データからなる第4の動画像データを送信する
前記(12)から(14)のいずれかに記載の送信装置。
(16)取得部が、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを取得するステップと、
送信部が、上記第2の動画像データと、上記各フレームの混合割合の情報および上記画像データのレンジ情報を、伝送路を介して、外部機器に送信するステップを有する
送信方法。
(17)外部機器から、伝送路を介して、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を受信する受信部と、
上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて混合分離処理を施して混合解除された動画像データを得る処理部を備える
受信装置。
(18)受信部が、外部機器から、伝送路を介して、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を受信するステップと、
処理部が、上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて混合分離処理を施して混合解除された動画像データを得るステップを有する
受信方法。
(19)第1のフレームレートの第1の動画像データを符号化して得られたビデオストリームを含むコンテナを受信する受信部と、
上記ビデオストリームを復号化して上記第1のフレームレートの第1の動画像データを得る復号化処理と、上記第1の動画像データを構成する各フレームの画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データに周辺フレームの画像データを混合する処理を施して上記第2のフレームレートの第2の動画像データを得るレート変換処理を制御する制御部を備える
受信装置。
(20)上記レート変換処理では、上記第2のフレームレートに対応したフレームの画像データに上記周辺フレームの画像データがデータレベルに応じた混合割合で混合される
前記19に記載の受信装置。
本技術の主な特徴は、ハイフレームレートの動画像データを構成する各フレームの画像データのうち少なくともノーマルフレームレートに対応したフレームの画像データを周辺フレームの画像データと混合して開口率を高めた状態として送信することで、ノーマルフレームレートの動画像データを処理可能なデコード能力がある受信機の場合、動画像としてストロービング効果が緩和された滑らかな画像の表示を可能としたことである(図5参照)。また、混合処理をする際に、画素単位でデータレベルに応じた混合割合で混合することで、混合処理によって、HDR感などの画像本来の質感が失われることを回避可能としたことである(図12、図16参照)。
10,10A,10´・・・送受信システム
81・・・カメラ
82・・・HFRプロセッサ
100,100´・・・送信装置
101・・・制御部
102・・・プリプロセッサ
103・・・エンコーダ
104・・・マルチプレクサ
105・・・送信部
120・・・ピクセル処理部
121・・・フレーム遅延部
122,125,126,130,131・・・係数器
124,127,132・・・加算部
128,133・・・スイッチ部
129・・・出力部
200,200A,200B,200´・・・テレビ受信機
200-1,200´-1・・・セットトップボックス
200-2,200-2A,200-2B,200´-2A,200´-2B・・・ディスプレイ
201,201B,201-1,201´-1,201-2A,201-2B,201´-2A,201´-2B・・・制御部
202,202B・・・受信部
203,203B・・・デマルチプレクサ
204,204B・・・デコーダ
205・・・ポストプロセッサ
206,206B・・・MCFI部
207,207B・・・パネル表示部
208・・・HDMI送信部
209B・・・ポストプロセッサ
219,219B・・・HDMI受信部
220,221,223,224,230,231・・・係数器
222,225,232・・・加算部
226,227,233・・・スイッチ部

Claims (18)

  1. 第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して第2の動画像データを得る処理部を備え、
    上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされ、
    上記第2のフレームレートに対応したフレームの画像データを符号化して基本ストリームを得ると共に、残りのフレームの画像データを符号化して拡張ストリームを得る符号化部と、
    上記基本ストリームおよび上記拡張ストリームを含むコンテナを送信する送信部をさらに備える
    送信装置。
  2. ビデオのレイヤおよび/またはコンテナのレイヤに上記混合割合の情報および上記画像データのレンジ情報を挿入する挿入部をさらに備える
    請求項1に記載の送信装置。
  3. 上記基本ストリームおよび上記拡張ストリームはNALユニット構造を有し、
    上記挿入部は、上記混合割合の情報および上記画像データのレンジ情報を持つSEI NALユニットを上記基本ストリームおよび/または上記拡張ストリームに挿入する
    請求項2に記載の送信装置。
  4. 上記処理部は、処理対象フレームの画像データに周辺フレームの画像データを混合する処理を施す際に、上記処理対象フレームの画像データのデータレベルに基づいて上記混合割合を決定する
    請求項1から3のいずれかに記載の送信装置。
  5. 上記処理部は、処理対象フレームの画像データに周辺フレームの画像データを混合する処理を施す際に、上記処理対象フレームおよび上記周辺フレームの画像データのデータレベルに基づいて上記混合割合を決定する
    請求項1から3のいずれかに記載の送信装置。
  6. 上記画像データのレンジ情報は、第1の閾値と該第1の閾値より低い第2の閾値の情報を含み、
    上記第1の動画像データは、ハイダイナミックレンジの動画像データであり、
    上記第1の閾値は、上記画像データのレベルがきらめき再現レベル範囲にあるか否かを判別するための閾値であり、
    上記第2の閾値は、上記画像データのレベルが暗部再現レベル範囲にあるか否かを判別するための閾値である
    請求項2または3に記載の送信装置。
  7. 上記第1のフレームレートは120Hzまたは240Hzであり、上記第2のフレームレートは60Hzである
    請求項1から6のいずれかに記載の送信装置。
  8. 処理部が、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して第2の動画像データを得るステップを有し、
    上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態とされ、
    符号化部が、上記第2のフレームレートに対応したフレームの画像データを符号化して基本ストリームを得ると共に、残りのフレームの画像データを符号化して拡張ストリームを得るステップと、
    送信部が、上記基本ストリームおよび上記拡張ストリームを含むコンテナを送信するステップをさらに有する
    送信方法。
  9. 基本ストリームおよび拡張ストリームを含むコンテナを受信する受信部を備え、
    上記基本ストリームは、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを構成する各画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データであって少なくとも周辺フレームの画像データと混合された状態にある画像データを符号化して得られたものであり、上記拡張ストリームは、残りのフレームの画像データを符号化して得られたものであり、
    表示能力に応じて、上記基本ストリームを復号化して上記第2のフレームレートの動画像データを得るか、あるいは上記基本ストリームおよび上記拡張フレームを復号化して上記第2の動画像データを得、該第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得る処理部をさらに備える
    受信装置。
  10. ビデオのレイヤまたはコンテナのレイヤに上記混合割合の情報および上記画像データのレンジ情報挿入されており、
    上記処理部は、上記混合割合の情報および上記画像データのレンジ情報に基づいて、上記第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得る
    請求項9に記載の受信装置。
  11. 受信部が、基本ストリームおよび拡張ストリームを含むコンテナを受信するステップを有し、
    上記基本ストリームは、第1のフレームレートの第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを構成する各画像データのうち上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データであって少なくとも周辺フレームの画像データと混合された状態にある画像データを符号化して得られたものであり、上記拡張ストリームは、残りのフレームの画像データを符号化して得られたものであり、
    処理部が、表示能力に応じて、上記基本ストリームを復号化して上記第2のフレームレートの動画像データを得るか、あるいは上記基本ストリームおよび上記拡張フレームを復号化して上記第2の動画像データを得、該第2の動画像データに混合分離処理を施して混合解除された第1のフレームレートの動画像データを得るステップをさらに有する
    受信方法。
  12. 第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを取得する取得部と、
    上記第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を、伝送路を介して、外部機器に送信する送信部を備える
    送信装置。
  13. 上記送信部は、上記混合割合の情報および上記画像データのレンジ情報を、それぞれ上記第2の動画像データの各フレームの画像データのブランキング期間に挿入して送信する
    請求項12に記載の送信装置。
  14. 上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて混合分離処理を施して第3の動画像データを得る処理部をさらに備え、
    上記送信部は、上記外部機器が上記混合分離処理の機能を持っていないとき、上記第2の動画像データの代わりに、上記第3の動画像データを送信する
    請求項12または13に記載の送信装置。
  15. 上記第2の動画像データは第1のフレームレートの動画像データであり、
    上記第2の動画像データを構成する各フレームの画像データのうち少なくとも上記第1のフレームレートより低い第2のフレームレートに対応したフレームの画像データは周辺フレームの画像データと混合された状態にあり、
    上記送信部は、上記外部機器の表示可能なフレームレートが上記第2のフレームレートであるとき、上記第2の動画像データの代わりに、上記第2のフレームレートに対応したフレームの画像データからなる第4の動画像データを送信する
    請求項12から14のいずれかに記載の送信装置。
  16. 取得部が、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データを取得するステップと、
    送信部が、上記第2の動画像データと、上記各フレームの混合割合の情報および上記画像データのレンジ情報を、伝送路を介して、外部機器に送信するステップを有する
    送信方法。
  17. 外部機器から、伝送路を介して、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を受信する受信部と、
    上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて混合分離処理を施して混合解除された動画像データを得る処理部を備える
    受信装置。
  18. 受信部が、外部機器から、伝送路を介して、第1の動画像データの各フレームの画像データにフレーム毎に独立しかつデータレベルに応じた混合割合で周辺フレームの画像データを混合する処理を施して得られた第2の動画像データと、上記混合割合の情報および上記画像データのレンジ情報を受信するステップと、
    処理部が、上記第2の動画像データの各フレームの画像データに上記混合割合の情報および上記画像データのレンジ情報に基づいて混合分離処理を施して混合解除された動画像データを得るステップを有する
    受信方法。
JP2017120026A 2017-06-19 2017-06-19 送信装置、送信方法、受信装置および受信方法 Active JP6982990B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017120026A JP6982990B2 (ja) 2017-06-19 2017-06-19 送信装置、送信方法、受信装置および受信方法
US16/621,437 US11350115B2 (en) 2017-06-19 2018-06-11 Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
EP18734646.5A EP3643071A1 (en) 2017-06-19 2018-06-11 Pixel-level adaptive blending for frame rate down conversion
PCT/JP2018/022288 WO2018235666A1 (en) 2017-06-19 2018-06-11 PIXEL LEVEL ADAPTIVE MIXING FOR FRAME FREQUENCY DOWN CONVERSION
US17/729,095 US11895309B2 (en) 2017-06-19 2022-04-26 Transmitting apparatus, transmitting method, receiving apparatus, and receiving method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120026A JP6982990B2 (ja) 2017-06-19 2017-06-19 送信装置、送信方法、受信装置および受信方法

Publications (3)

Publication Number Publication Date
JP2019004430A JP2019004430A (ja) 2019-01-10
JP2019004430A5 JP2019004430A5 (ja) 2020-07-16
JP6982990B2 true JP6982990B2 (ja) 2021-12-17

Family

ID=62751499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120026A Active JP6982990B2 (ja) 2017-06-19 2017-06-19 送信装置、送信方法、受信装置および受信方法

Country Status (4)

Country Link
US (2) US11350115B2 (ja)
EP (1) EP3643071A1 (ja)
JP (1) JP6982990B2 (ja)
WO (1) WO2018235666A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11418838B2 (en) 2018-05-30 2022-08-16 Saturn Licensing Llc Reception device, reception method, transmission device, and transmission method
US11234044B2 (en) 2018-12-28 2022-01-25 Sony Group Corporation Transmission apparatus, transmission method, encoding apparatus, encoding method, reception apparatus, and reception method
US11265580B2 (en) * 2019-03-22 2022-03-01 Tencent America LLC Supplemental enhancement information messages for neural network based video post processing

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5797041A (en) 1992-06-30 1998-08-18 Hitachi, Ltd. Communication control system utilizing a shared buffer composed of first and second descriptors which are managed by high and low level protocols
US6198505B1 (en) 1999-07-19 2001-03-06 Lockheed Martin Corp. High resolution, high speed digital camera
JP4187425B2 (ja) 2000-09-11 2008-11-26 富士フイルム株式会社 画像制御装置およびディジタルカメラ
US20040240543A1 (en) 2001-09-04 2004-12-02 Faroudja Yves C. Low bandwidth video compression
US7430335B2 (en) 2003-08-13 2008-09-30 Apple Inc Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering
JP4334533B2 (ja) * 2005-11-24 2009-09-30 株式会社東芝 動画像符号化/復号化方法および装置
JP2008164758A (ja) 2006-12-27 2008-07-17 Eastman Kodak Co 画像復元装置
US8160149B2 (en) 2007-04-03 2012-04-17 Gary Demos Flowfield motion compensation for video compression
US8045836B2 (en) * 2008-01-11 2011-10-25 Texas Instruments Incorporated System and method for recording high frame rate video, replaying slow-motion and replaying normal speed with audio-video synchronization
GB2459684A (en) 2008-04-30 2009-11-04 British Broadcasting Corp Television Signal having high frame rate
JP2010226258A (ja) 2009-03-19 2010-10-07 Fujitsu Ltd 情報取得システム、送信装置、データ捕捉装置、送信方法及びデータ捕捉方法
JP2010268441A (ja) 2009-04-16 2010-11-25 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び画像再生装置
KR101682147B1 (ko) 2010-04-05 2016-12-05 삼성전자주식회사 변환 및 역변환에 기초한 보간 방법 및 장치
US20120030682A1 (en) 2010-07-28 2012-02-02 Cisco Technology, Inc. Dynamic Priority Assessment of Multimedia for Allocation of Recording and Delivery Resources
CN103597839B (zh) 2011-05-31 2017-10-20 杜比实验室特许公司 视频压缩方法、视频重构方法和***、及编码器
KR20130037194A (ko) * 2011-10-05 2013-04-15 한국전자통신연구원 비디오 부호화/복호화 방법 및 그 장치
US20130187962A1 (en) 2012-01-23 2013-07-25 Pixel Qi Corporation Mixed Transmissive-Reflective-Transflective Liquid Crystal Display
US9451234B2 (en) 2012-03-01 2016-09-20 Sony Corporation Transmitting apparatus, transmitting method, and receiving apparatus
MX341101B (es) 2012-08-10 2016-08-08 Lg Electronics Inc Aparato transceptor de señales y metodo para transmitir y recibr señales.
US9479782B2 (en) 2012-09-28 2016-10-25 Qualcomm Incorporated Supplemental enhancement information message coding
US9438849B2 (en) 2012-10-17 2016-09-06 Dolby Laboratories Licensing Corporation Systems and methods for transmitting video frames
JP6605789B2 (ja) 2013-06-18 2019-11-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、および、受信装置
EP3070934A4 (en) 2013-11-13 2017-03-29 LG Electronics Inc. Broadcast signal transmission method and apparatus for providing hdr broadcast service
US10542259B2 (en) * 2013-11-22 2020-01-21 Sony Corporation Transmission device, transmission method, reception device, and reception method
US9915939B2 (en) 2013-12-13 2018-03-13 General Electric Company Systems and methods for providing multiple frame rates on a common physical network
US9414100B2 (en) 2014-03-31 2016-08-09 Arris Enterprises, Inc. Adaptive streaming transcoder synchronization
CN113613009B (zh) * 2015-02-27 2024-06-25 索尼公司 发送装置、发送方法、接收装置和接收方法
US9955191B2 (en) 2015-07-01 2018-04-24 At&T Intellectual Property I, L.P. Method and apparatus for managing bandwidth in providing communication services
MX2018002265A (es) * 2015-08-25 2018-03-23 Sony Corp Aparato de transmision, metodo de transmision, aparato de recepcion, y metodo de recepcion.
MY186845A (en) * 2015-09-01 2021-08-26 Sony Corp Transmission device, transmission method, reception device and reception method
KR20180052613A (ko) 2015-09-10 2018-05-18 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP5961317B2 (ja) 2015-11-30 2016-08-02 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US10341658B2 (en) * 2017-01-30 2019-07-02 Intel Corporation Motion, coding, and application aware temporal and spatial filtering for video pre-processing

Also Published As

Publication number Publication date
US11895309B2 (en) 2024-02-06
US20220385930A1 (en) 2022-12-01
WO2018235666A1 (en) 2018-12-27
EP3643071A1 (en) 2020-04-29
US20200195943A1 (en) 2020-06-18
US11350115B2 (en) 2022-05-31
JP2019004430A (ja) 2019-01-10

Similar Documents

Publication Publication Date Title
US11627367B2 (en) Transmitting device, transmitting method, receiving device, and receiving method
WO2015076277A1 (ja) 送信装置、送信方法、受信装置および受信方法
US11722636B2 (en) Transmission device, transmission method, reception device, and reception method
US11895309B2 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
JP7026450B2 (ja) 送信装置、送信方法、受信装置および受信方法
WO2019087789A1 (ja) 送信装置、送信方法、受信装置および受信方法
EP3905702A1 (en) Transmission device, transmission method, encoding device, encoding method, receiving device, and receiving method
US20230112314A1 (en) Reception device, reception method, transmission device, and transmission method
WO2020031782A1 (ja) 受信装置、受信方法、送信装置および送信方法
WO2020039973A1 (ja) 受信装置、受信方法、送信装置および送信方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6982990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150