JP6379636B2 - 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム - Google Patents

情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP6379636B2
JP6379636B2 JP2014093500A JP2014093500A JP6379636B2 JP 6379636 B2 JP6379636 B2 JP 6379636B2 JP 2014093500 A JP2014093500 A JP 2014093500A JP 2014093500 A JP2014093500 A JP 2014093500A JP 6379636 B2 JP6379636 B2 JP 6379636B2
Authority
JP
Japan
Prior art keywords
image
color space
sub
information
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014093500A
Other languages
English (en)
Other versions
JP2015211417A (ja
Inventor
山本 和夫
和夫 山本
しのぶ 服部
しのぶ 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014093500A priority Critical patent/JP6379636B2/ja
Priority to CN201580021061.9A priority patent/CN106233721A/zh
Priority to US15/127,922 priority patent/US10504484B2/en
Priority to PCT/JP2015/002152 priority patent/WO2015166644A1/en
Priority to EP15721353.9A priority patent/EP3097688A1/en
Priority to TW104112703A priority patent/TWI682382B/zh
Publication of JP2015211417A publication Critical patent/JP2015211417A/ja
Application granted granted Critical
Publication of JP6379636B2 publication Critical patent/JP6379636B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/06Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed using colour palettes, e.g. look-up tables
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6072Colour correction or control adapting to different types of images, e.g. characters, graphs, black and white image portions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/24High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0089Image display device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本開示は、情報処理装置、情報記録媒体、および画像処理方法、並びにプログラムに関する。さらに詳細には、複数画像を重畳表示する場合に、統一された色空間の画像として表示を行うことを可能とした情報処理装置、情報記録媒体、および画像処理方法、並びにプログラムに関する。
映画等の様々なコンテンツを記録する情報記録媒体(メディア)として、DVD(Digital Versatile Disc)や、BD(Blu−ray(登録商標) Disc)が多く利用されている。
これらの各ディスクには、予め規定されたデータ記録フォーマットで画像や、音声、さらに、字幕、その他のグラフィックデータ等が、記録される。
一方、これらのディスクに記録された画像を表示するためのテレビ等の表示装置は、近年、画素数の増加によって解像度が向上している。
例えば、従来のテレビは水平画素数×垂直画素数=720×480の画素数を有し、SD(Standard Definition)画像のみを表示可能であった。
これに対して、現在、広く普及しているハイビジョンテレビは、水平画素数×垂直画素数=1920×1080の画素数を持ち、HD(High Definition)画像(HDコンテンツ)の表示が可能である。
さらに、昨今、HD画像の4倍の画素、すなわち、例えば、水平画素数×垂直画素数=4096×2160の画素からなるいわゆる4K規格(4Kフォーマット)に従った画像を表示可能とした4Kテレビが開発され、現在、普及段階にある。
4Kテレビは、水平画素数×垂直画素数=4096×2160の表示部を有しており、HD画像の4倍の解像度の画像(4K画像(4Kコンテンツ))を表示することができる。さらに、高解像度の8K画像を表示する表示装置についても検討されている。
これらの各解像度の画像を持つコンテンツについては、利用する色空間について国際規格(ITU)の規定が設けられている。すなわち、出力可能色に対応した色空間を規定している。
SD画像とHD画像については、以下に示す色空間に従ったコンテンツとすることが規定されている。
SD画像は、BT.601、
HD画像は、BT.709、
さらに、4K画像については、BT.2020、およびBT.709、これら2つの色空間をサポートすること、すなわちこれら2つの色空間の少なくともいずれかに対応する色を出力可能なコンテンツとすることが求められている。
なお、BT.601よりBT.709の方がより広い色領域を持つ色空間を規定しており、さらにBT.2020は、BT.709より広い色空間を規定している。BT.2020の規定する色空間は、ほぼ肉眼で観察する色空間に近く、より高精度で自然な色の出力が実現される。
なお、これらの色空間を有するコンテンツの表示については、例えば特許文献1(特開2010−263598号公報)等に記載されている。
特開2010−263598号公報
BDに記録されるコンテンツは、現状において、HD画像、4K画像等、様々なコンテンツが混在している。従って、各コンテンツの色空間も上記の3種類の異なる設定のものが混在しているというのが現状である。
ここで問題となるのが、BT.709、BT.2020等、異なる色空間の色領域を持つ画像を重畳して表示する場合である。このように異なる色空間の画像コンテンツを混在させて出力すると、同じ「赤」の出力を行った場合でも微妙な色の違いが発生し、視聴者に違和感を与えてしまうことがある。
例えば、メイン画像である映画等の映像(Video)がBT.2020の色空間のコンテンツであり、その映像に重畳表示するコンテンツ、例えば、字幕コンテンツや、アイコンやアニメ等のグラフィックコンテンツがBT.709の色空間のコンテンツである場合、これらのコンテンツを重畳表示すると、視聴者は色の統一感のなさを感じ、違和感を発生させてしまうという問題がある。
本開示は、例えばこのような問題点に鑑みてなされたものであり、異なる色空間に対応する画像データを重畳して表示する場合に、視聴者に違和感を発生させない画像を生成して出力可能とした情報処理装置、情報記録媒体、および画像処理方法、並びにプログラムを提供するものである。
本開示の第1の側面は、
複数の画像データを重畳して表示画像を生成する画像処理部を有し、
前記画像処理部は、
メイン画像の色空間情報と、
前記メイン画像に重畳するサブ画像の色空間情報を取得し、
サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成し、生成した重畳用画像信号をメイン画像に重畳して出力画像信号を生成する情報処理装置にある。
本開示の第2の側面は、
メイン画像データと、
前記メイン画像の色空間情報と、
前記メイン画像に重畳するサブ画像データと、
前記サブ画像の色空間情報を格納した情報記録媒体であり、
前記メイン画像とサブ画像を重畳して表示画像を生成する再生装置に、
各画像の色空間情報を取得させて、各画像の色空間を一致させる色空間変換処理を行なわせることを可能とした情報記録媒体にある。
本開示の第3の側面は、
情報処理装置において実行する画像処理方法であり、
画像処理部が、
メイン画像の色空間情報と、前記メイン画像に重畳するサブ画像の色空間情報を取得する処理と、
サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成する処理と、
前記重畳用画像信号をメイン画像に重畳して出力画像信号を生成する処理を実行する画像処理方法にある。
本開示の第4の側面は、
情報処理装置において画像処理を実行させるプログラムであり、
前記プログラムは、画像処理部に、
メイン画像の色空間情報と、前記メイン画像に重畳するサブ画像の色空間情報を取得する処理と、
サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成する処理と、
前記重畳用画像信号をメイン画像に重畳して出力画像信号を生成する処理を実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、異なる色空間の画像データを重畳表示した場合の違和感を解消し、統一された色空間の重畳画像の表示が実現される。
具体的には、画像処理部がメイン画像の色空間情報と、メイン画像に重畳するサブ画像の色空間情報を取得する。さらに、サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成する。その後、生成した重畳用画像信号をメイン画像に重畳して出力する。画像処理部は、例えば、パレット要素識別子やRGB信号からなる画像信号に対して、ルックアップテーブルを利用した色空間変換を実行する。
本構成により、異なる色空間の画像データを重畳表示した場合の違和感が解消され、統一された色空間の重畳画像表示を実現することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
情報処理装置の利用例について説明する図である。 画像の重畳処理を伴う出力画像生成処理について説明する図である。 画像の重畳処理を伴う出力画像生成処理について説明する図である。 本開示の第1実施例に従って実行される画像の重畳処理を伴う出力画像生成処理について説明する図である。 色空間変換処理の一例について説明する図である。 本開示の第1実施例に従って実行される画像の重畳処理を伴う出力画像生成処理について説明する図である。 本開示の第1実施例に従って実行される画像の重畳処理を伴う出力画像生成処理について説明する図である。 本開示の第2実施例に従って実行される画像の重畳処理を伴う出力画像生成処理について説明する図である。 本開示の第2実施例に従って実行される画像の重畳処理を伴う出力画像生成処理について説明する図である。 BD−ROMの格納データの構成例について説明する図である。 プレイリストを適用した再生処理例について説明する図である。 プレイリストに従ったクリップ再生とBD−Jグラフィックスの重畳処理と再生処理例について説明する図である。 色空間情報の格納例について説明する図である。 情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 情報処理装置の構成例について説明する図である。
以下、図面を参照しながら本開示の情報処理装置、情報記録媒体、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
1.コンテンツ再生処理の概要について
2.本開示の画像処理の第1実施例について
3.本開示の画像処理の第2実施例について
4.情報記録媒体の格納データとデータ再生処理例について
5.複数のデータファイルを利用した重畳画像データの再生例について
6.色空間情報の格納領域について
7.再生処理対象となる画像について
8.情報処理装置の実行する処理シーケンスについて
9.情報処理装置の構成例について
10.本開示の構成のまとめ
[1.コンテンツ再生処理の概要について]
まず、コンテンツ再生処理の概要について説明する。
図1は、本開示の処理を適用可能なコンテンツ再生処理システムの一構成例を示す図である。図1には、再生対象となるコンテンツを格納した記録メディアである情報記録媒体101と、情報記録媒体101を装着し、情報記録媒体101に格納されたコンテンツの再生処理を実行する情報処理装置(再生装置)102、情報処理装置(再生装置)102が情報記録媒体101から読み出した再生コンテンツを表示する表示装置104を示している。
さらに、情報処理装置(再生装置)102に対して操作情報を出力する操作部(リモコン)103、情報処理装置(再生装置)102と表示装置104間のデータ伝送を行う、例えばHDMI(登録商標)ケーブル等の接続ケーブル105を示している。
図1に示す例では、コンテンツを格納した情報記録媒体101をBD(Blu−ray(登録商標) Disc)とし、情報処理装置(再生装置)102をBDプレーヤとした例を示している。ただし、これらはその他の記録メディアと再生装置の組み合わせとしてもよい。
例えば、コンテンツ格納メディアである情報記録媒体101をフラッシュメモリとして、情報処理装置(再生装置)102をフラッシュメモリからのデータ読み出しを実行するメモリ再生装置の組み合わせとしてもよい。
情報記録媒体101には再生対象となるコンテンツが記録されている。記録コンテンツには、例えば以下の画像コンテンツが含まれる。
(a)メインとなる映画等の映像データ=ビデオ画像
(b)ビデオ画像に重畳表示可能なグラフィックスデータ=BDグラフィックス
(c)ビデオ画像に重畳表示可能なJava(登録商標)グラフッィクスデータ=BD−Jグラフィックス
なお、(b)BDグラフィックは、例えばビットマップ構成の字幕データ等のプレゼンテーショングラフィックス(PG)、またはユーザ操作用のボタン等のアイコン等を構成するインタラクティブグラフィックス(IG)、またはテキストフォントのレンダリング処理によって生成する字幕データであるテキストサブタイトル(TST)等のデータによって構成される。
また、(c)BD−Jグラフィックスには、Java(登録商標)形式の画像データが含まれる。
上記(a),(b),(c)は独立したデータである。すなわち、それぞれ個別に生成可能なデータであり、情報記録媒体101に個別に記録可能である。これら(a),(b),(c)のデータは、カラー画像データであり、それぞれ特定の色空間に従ったカラー画像として生成される。
各画像データの色空間は、様々な設定があり得る。一例として、例えば、以下のような設定がある。
(a)ビデオ画像=BT.2020、
(b)BDグラフィックス=BT.709、
(c)BD−Jグラフィックス=BT.709、
なお、前述したように、BT.2020、BT.709等は、国際規格(ITU)において規定された色空間である。BT.2020は、BT.709より広い色空間を規定しており、BT.2020の規定する色空間は、ほぼ肉眼で観察する色空間に近く、より高精度で自然な色の出力が実現される。
しかし、前述したように、BT.709、BT.2020等、異なる色空間の色領域を持つ画像を混在させて表示を行うと、同じ「赤」の出力を行った場合でも微妙な色の違いが発生し、視聴者に違和感を与えてしまうことである。
例えば、上記のように、メインとなる映画等の(a)ビデオ画像がBT.2020の色空間のコンテンツであり、このビデオ画像に、BT.709の色空間を持つ上記の(b)BDグラフィックスや、(c)BD−Jグラフィックスを重畳して表示すると、色の統一感が損なわれ、視聴者に違和感を生じさせることになる。
上記(a)〜(c)の各コンテンツの重畳表示を行う場合の具体的な問題点について、図2を参照して説明する。
図2には、情報処理装置102の画像処理部が、情報記録媒体101から以下の3つの画像を読み出して、読み出した3つの画像データを重畳した画像を生成して表示装置に出力する場合の処理構成例を示している。
(a)映画等のビデオ画像に相当するメイン画像151、
(b)字幕等を構成するBDグラフィックスに相当する第1サブ画像152、
(c)Java(登録商標)形式の画像データを有するBD−Jグラフッイクスに相当する第2サブ画像153、
図2は、これら3つの画像の重畳画像を生成する処理を説明する図である。
なお、これら3つの画像は以下の色空間を持つカラー画像データであるとする。
メイン画像151は色空間BT.2020の画像データ、
第1サブ画像152は色空間BT.709の画像データ、
第2サブ画像153は色空間BT.709の画像データ、
上記設定であるとする。
情報処理装置102の画像処理部は、図2に示すように、メイン画像151から画像信号:YCrCb[BT.2020]161を取得する。
なお、以下の説明において、YCrCb[BT.2020]は、色空間BT.2020を有するYCrCb画像信号を示し、YCrCb[BT.709]は、色空間BT.709を有するYCrCb画像信号を示す。
第1サブ画像152は、各画素対応の色情報を例えば256色対応のパレット要素識別子(pallet entry id)として保持した画像データである。本例では、第1サブ画像152は色空間BT.709の画像データであり、パレット要素識別子も色空間BT.709の規定する色を指定する識別子によって構成される。
情報処理装置102の画像処理部は、図2に示すように、まず、第1サブ画像152から、パレット要素識別子(pallet entry id)162を取得し、色変換部154において、パレット要素識別子を画像信号YCrCb[BT.709]に変換する処理を行なう。
色変換部154は、パレット要素識別子(pallet entry id)と画像信号YCrCb[BT.709]との対応データを持つ色変換テーブル、すなわちカラールックアップテーブル(CLUT)を有し、この色変換テーブルを用いて、パレット要素識別子162を、画像信号YCrCb[BT.709]に変換する処理を行なう。
色変換部154は、変換データとしての画像信号YCrCb[BT.709]164を出力する。
また、第2サブ画像153は、例えばRGB画像信号を持つカラー画像として構成される。
本例では、第2サブ画像153は色空間BT.709の画像データであり、RGB画像信号も色空間BT.709の規定する色に対応するRGB信号値によって構成される。
情報処理装置102の画像処理部は、図2に示すように、まず、第2サブ画像153から、RGB画像信号163を取得し、色変換部155において、画像信号YCrCb[BT.709]に変換する処理を行なう。
色変換部155は、例えば予め規定された演算を実行して、RGB各信号値を適用して、YCrCb各信号の値を算出する。
なお、ここで算出するYCrCb各信号の値は、色空間BT.709に対応するYCrCb信号値である。
色変換部155は、変換データとしての画像信号YCrCb[BT.709]165を出力する。
重畳部156は、3つの画像信号の重畳処理を実行して1つの出力画像を生成する。
すなわち、以下の3つの画像の重畳処理を行なう。
(a)メイン画像151を構成する画像信号YCrCb[BT.2020]161、
(b)色変換部154の出力する第1サブ画像152を構成する画像信号YCrCb[BT.709]、
(c)色変換部155の出力する第2サブ画像153を構成する画像信号YCrCb[BT.709]、
これらの3つの画像信号を重畳する処理を行なう。なお、重畳位置は再生プログラムに従って予め決定される。
重畳部156の生成した重畳画像信号は、図に示す画像信号:(YCrCb[BT.2020]&YCrCb[BT.709])166である。すなわち、色空間BT.2020に従った色出力を行う画像領域と、色空間BT.709に従った色出力を行う画像領域とが混在した画像となる。
この画像が表示用画像データ(BD Video)157として、表示装置104に出力され、表示される。
この結果、表示装置104の表示画像は、色空間BT.2020に従った色出力を行う画像領域と、色空間BT.709に従った色出力を行う画像領域が混在した画像となる。
この結果、視聴者に色の統一感のなさを感じさせるといった問題を発生させることになる。
なお、図2に示す例は、
メイン画像151は色空間BT.2020の画像データ、
第1サブ画像152は色空間BT.709の画像データ、
第2サブ画像153は色空間BT.709の画像データ、
上記設定であり、メイン画像の出力画像領域は、色空間BT.2020の画像データとして出力され、第1サブ画像152と、第2サブ画像153の出力部分は、色空間BT.709の画像データとして出力される。
複数の画像を組み合わせて表示する場合の組み合わせパターンは様々であり、メイン画像が色空間BT.709に従った画像であり、サブ画像が色空間BT.2020に従った画像といった組み合わせの場合も、出力画像は視聴者に違和感を与える画像となる。
図3に示す例は、
メイン画像151は色空間BT.709の画像データ、
第1サブ画像152は色空間BT.2020の画像データ、
第2サブ画像153は色空間BT.709の画像データ、
上記設定とした構成における処理例を示している。
各処理部における処理は、図2を参照して説明したと同様の処理となる。
この図3に示す構成では、メイン画像の出力画像領域は、色空間BT.709の画像データとして出力され、第1サブ画像152の出力画像領域は色空間BT.2020の画像データ、第2サブ画像153の出力部分は、色空間BT.709の画像データとして出力される。
この場合も、出力画像の画像領域ごとに異なる色空間に対応した画素値が出力されることになり、視聴者に違和感を与える結果となる。
[2.本開示の画像処理の第1実施例について]
次に、図2、図3を参照して説明した問題点を解決する本開示の情報処理装置の実行する処理の一例について説明する。
図4には、先に説明した図2、図3と同様、情報処理装置102の画像処理部が、情報記録媒体101から以下の3つの画像を読み出して、読み出した3つの画像データを重畳して表示画像を生成する場合の処理構成例を示している。
(a)映画等のビデオ画像に相当するメイン画像201、
(b)字幕等を構成するBDグラフィックスに相当する第1サブ画像202、
(c)Java(登録商標)形式の画像データを有するBD−Jグラフッイクスに相当する第2サブ画像203、
図4は、これら3つの画像を重畳する処理を説明する図である。
図2を参照して説明したと同様、これら3つの画像は以下の色空間を持つカラー画像データであるとする。
メイン画像201は色空間BT.2020の画像データ、
第1サブ画像202は色空間BT.709の画像データ、
第2サブ画像203は色空間BT.709の画像データ、
上記設定であるとする。
情報処理装置102の画像処理部は、図4に示すように、メイン画像201から画像信号:YCrCb[BT.2020]211を取得する。
なお、前述したようにYCrCb[BT.2020]は、色空間BT.2020を有するYCrCb画像信号を示し、YCrCb[BT.709]は、色空間BT.709を有するYCrCb画像信号を示す。
なお、図4のYCrCb(V)[BT.2020]211中に示す(V)は、この画像信号がメイン画像201(=V:Video)の画像データの色空間と同一の色空間を持つ画像信号であることを意味する。
また、YCrCb(G)は、この画像信号が第1サブ画像(=G:Graphics)の画像データの色空間と同一の色空間を持つ画像信号であることを意味する。
同様に、YCrCb(B)は、この画像信号が第2サブ画像(=B:BD−J Graphics)の画像データをの色空間と同一の色空間を持つ画像信号であることを意味する。
図4に示す例では、YCrCb(V)は色空間BT.2020の画像信号であり、YCrCb(G)とYCrCb(B)は色空間BT.709の画像信号である。
第1サブ画像202は、各画素対応の色情報を例えば256色対応のパレット要素識別子(pallet entry id)として保持した画像データである。
情報処理装置102の画像処理部は、図4に示すように、まず、第1サブ画像202から、パレット要素識別子(pallet entry id)212を取得し、色変換部204において、画像信号YCrCb[BT.709]に変換する。
色変換部204は、パレット要素識別子(pallet entry id)と画像信号YCrCb[BT.709]との対応データを持つ色変換テーブル、すなわちカラールックアップテーブル(CLUT)を有し、この色変換テーブルを用いて、パレット要素識別子212を、画像信号YCrCb[BT.709]に変換する。
色変換部204は、変換データとしての画像信号YCrCb[BT.709]214を出力する。
色変換部204の出力した画像信号YCrCb[BT.709]214は、色空間変換部206に入力される。
色空間変換部206は、色空間BT.709の画像信号YCrCb[BT.709]を、メイン画像201の色空間に一致する色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を実行する。
この色空間BT.709の画像信号YCrCb[BT.709]を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理は、例えば図5に示すシーケンスに従って実行される。
図5に示す画像信号の色空間変換処理は、国際規格(ITU)に定められる仕様に従った変換処理である。
図5に示すステップS01〜S06を順次、実行して変換処理が行われる。
各ステップの処理は以下の通りである。
(ステップS01)
まず、色空間BT.709の画像信号YCrCb[BT.709]のYCrCb各信号値を、同じ色空間BT.709のR'G'B'各信号値に変換する。この変換処理は、国際規格の規定:ITU−R BT.709−5 Part−2/3.2.3.3に従って実行可能である。
(ステップS02)
次に、色空間BT.709のR'G'B'各信号値を、同じ色空間BT.709のRGB信号値に変換する。これは電気光学伝達関数(EOTF:Electro−Optical transfer function)を適用した処理として実行される。この変換処理は、国際規格の規定:ITU−R BT.709−5 Part−2/1.2に従って実行可能である。
(ステップS03)
次に、色空間BT.709の画像信号RGBの各信号値をXYZ各信号値に変換する。この変換処理は、国際規格の規定:ITU−R BT.709−5 Part−2/1.3.1.4に従って実行可能である。
なお、XYZ信号値は、デバイス非依存型のXYZ表色系に従った色信号値であり、BT.709等の色空間に依存しない信号値となる。
(ステップS04)
次に、XYZ表色系に従った画像信号XYZの各信号値を、色空間BT.2020のRGB各信号値に変換する。
ここで算出するRGB信号値は色空間BT.2020対応のRGB値となる。この変換処理は、国際規格の規定:ITU−R BT.2020 TABLE3に従って実行可能である。
(ステップS05)
次に、色空間BT.2020のRGB各信号値を、同じ色空間BT.2020のR'G'B'信号値に変換する。これは光学電気伝達関数(OETF:Optical−Electro transfer function)を適用した処理として実行される。この変換処理は、国際規格の規定:ITU−R BT.2020TABLE4に従って実行可能である。
(ステップS06)
次に、色空間BT.2020のR'G'B'各信号値を、同じ色空間BT.2020のYCrCb信号値に変換する。この変換処理は、国際規格の規定:ITU−R BT.2020TABLE4に従って実行可能である。
上記の処理ステップS01〜S06を実行することで、色空間BT.709の画像信号YCrCb[BT.709]を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換することができる。
図4に示す色空間変換部206は、例えば上記の処理に従って、色空間BT.709の画像信号YCrCb[BT.709]を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換する。
また、第2サブ画像203は、例えばRGB画像信号を持つカラー画像として構成される。
情報処理装置102の画像処理部は、図4に示すように、まず、第2サブ画像203から、RGB画像信号213を取得し、色変換部205において、画像信号YCrCb[BT.709]に変換する処理を行なう。
色変換部205は、例えば予め規定された演算を実行して、RGB各信号値を適用して、YCrCb各信号の値を算出する。
なお、ここで算出するYCrCb各信号の値は、色空間BT.709に対応するYCrCb信号値である。
色変換部205は、変換データとしての画像信号YCrCb[BT.709]215を出力する。
色変換部205の出力した画像信号YCrCb[BT.709]215は、色空間変換部207に入力される。
色空間変換部207は、色空間BT.709の画像信号YCrCb[BT.709]を、メイン画像201の色空間に一致する色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を実行する。
色空間変換部207は、色空間変換部206と同様、例えば図5に示すステップS01〜S06の各処理を実行するシーケンスに従って、色空間BT.709の画像信号YCrCb[BT.709]を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を実行する。
重畳部208は、3つの画像信号の重畳処理を実行して1つの出力画像を生成する。
すなわち、以下の3つの画像の重畳処理を行なう。
(a)メイン画像201を構成する画像信号YCrCb[BT.2020]211、
(b)色空間変換部206の出力する第1サブ画像202を構成する画像信号YCrCb[BT.2020]216、
(c)色空間変換部207の出力する第2サブ画像203を構成する画像信号YCrCb[BT.2020]217、
これらの3つの画像信号を重畳する処理を行なう。なお、重畳位置は再生プログラムに従って予め決定される。
重畳部206に入力する3つの画像信号は、いずれも色空間BT.2020の画像信号であり、この結果生成される画像信号YCrCb[BT.2020]218は、すべての画像領域が色空間BT.2020に従った色出力を行う画像となる。
この画像が表示用画像データ(BD Video)209として、表示装置104に出力され、表示される。
この結果、表示装置104の表示画像は、全ての画像領域が、色空間BT.2020に従った色出力を行う画像領域となり、統一された色空間に従って色出力がなされる画像となり、視聴者に違和感を発生させない色の統一感を感じさせる画像を提供することが可能となる。
なお、図4を参照して説明した例は、
メイン画像201は色空間BT.2020の画像データ、
第1サブ画像202は色空間BT.709の画像データ、
第2サブ画像203は色空間BT.709の画像データ、
上記設定の画像の重畳表示処理を行なう場合の処理例である。
情報処理装置102の画像処理部は、第1サブ画像202と、第2サブ画像203の色空間BT.709の画像信号を変換して、メイン画像201の色空間BT.2020に合わせる処理を実行している。
このように、メイン画像201の色空間にサブ画像の色空間を一致させることで、統一感のある画像を生成して出力することが可能となる。
ただし、複数画像を組み合わせて表示する場合の画像の組み合わせパターンは様々である。例えば、メイン画像が色空間BT.709に従った画像であり、サブ画像が色空間BT.2020に従った画像といった組み合わせの場合もある。
図6に示す例は、
メイン画像201が色空間BT.709の画像データ、
第1サブ画像202が色空間BT.2020の画像データ、
第2サブ画像203が色空間BT.709の画像データ、
上記設定とした構成における処理例を示している。
図6に示す設定における情報処理装置102の画像処理部の処理について説明する。
情報処理装置102の画像処理部は、図6に示すように、メイン画像201から画像信号:YCrCb[BT.709]211を取得する。
第1サブ画像202は、各画素対応の色情報を例えば256色対応のパレット要素識別子(pallet entry id)として保持した画像データとして構成されている。
なお、図6に示す例では第1サブ画像202は、色空間BT.2020の画像データであり、各画素対応の色情報は色空間BT.2020対応のパレットの要素識別子(id)によって構成される。
情報処理装置102の画像処理部は、図6に示すように、まず、第1サブ画像202から、パレット要素識別子(pallet entry id)212を取得し、色変換部204において、画像信号YCrCb[BT.2020]に変換する処理を行なう。
色変換部204は、パレット要素識別子(pallet entry id)と画像信号YCrCb[BT.2020]との対応データを持つ色変換テーブル、すなわちカラールックアップテーブル(CLUT)を有し、この色変換テーブルを用いて、パレット要素識別子212を、画像信号YCrCb[BT.2020]に変換する処理を行なう。
色変換部204は、変換データとしての画像信号YCrCb[BT.2020]214を出力する。
色変換部204の出力した画像信号YCrCb[BT.2020]214は、色空間変換部206に入力される。
色空間変換部206は、色空間BT.2020の画像信号YCrCb[BT.2020]を、メイン画像201の画像信号対応の色空間BT.709に合わせる処理を行なう。すなわち、色変換部204の出力した画像信号YCrCb[BT.2020]214を色空間BT.709の画像信号YCrCb[BT.709]に変換する処理を実行する。
色空間BT.2020の画像信号YCrCb[BT.2020]を、色空間BT.709の画像信号YCrCb[BT.709]に変換する処理は、先に説明した図5に示すシーケンスを逆に実行する処理となる。
図5に示す処理を逆に実行することで、色空間BT.2020の画像信号YCrCb[BT.2020]を、色空間BT.709の画像信号YCrCb[BT.709]に変換することができる。
図6に示す色空間変換部206は、例えば図5に示す処理を逆に実行することで、色空間BT.2020の画像信号YCrCb[BT.2020]を、色空間BT.709の画像信号YCrCb[BT.709]に変換する。
また、第2サブ画像203は、例えばRGB画像信号を持つカラー画像として構成される。
なお、この例では、第2サブ画像203は、色空間BT.709の画像信号を有し、RGB信号はBT.709対応の信号値を有する。
情報処理装置102の画像処理部は、図6に示すように、まず、第2サブ画像203から、RGB画像信号213を取得し、色変換部205において、画像信号YCrCb[BT.709]に変換する処理を行なう。
色変換部205は、例えば予め規定された演算を実行して、RGB各信号値を適用して、YCrCb各信号の値を算出する。
なお、ここで算出するYCrCb各信号の値は、色空間BT.709に対応するYCrCb信号値である。
色変換部205は、変換データとしての画像信号YCrCb[BT.709]215を出力する。
色変換部205の出力した画像信号YCrCb[BT.709]215は、色空間変換部207に入力される。
色空間変換部207は、色変換部205の出力した画像信号YCrCb[BT.709]215を、メイン画像201の画像信号対応の色空間BT.709に合わせる処理を行なう。本例では、色変換部205の出力した画像信号YCrCb[BT.709]215を、メイン画像201の画像信号対応の色空間BT.709に一致している。この場合、色空間変換部207は、色空間変換処理を行なうことなく、入力信号YCrCb[BT.709]215をそのまま出力する。
重畳部208は、3つの画像信号の重畳処理を実行して1つの出力画像を生成する。
すなわち、以下の3つの画像の重畳処理を行なう。
(a)メイン画像201を構成する画像信号YCrCb[BT.709]211、
(b)色空間変換部206の出力する第1サブ画像202を構成する画像信号YCrCb[BT.709]216、
(c)色空間変換部207の出力する第2サブ画像203を構成する画像信号YCrCb[BT.709]217、
これらの3つの画像信号を重畳する処理を行なう。なお、重畳位置は再生プログラムに従って予め決定される。
重畳部208に入力する3つの画像信号は、いずれも色空間BT.709の画像信号であり、この結果生成される画像信号YCrCb[BT.709]218は、すべての画像領域が色空間BT.709に従った色出力を行う画像となる。
この画像が表示用画像データ(BD Video)209として、表示装置104に出力され、表示される。
この結果、表示装置104の表示画像は、全ての画像領域が、色空間BT.709に従った色出力を行う画像領域となり、統一された色空間に従った色出力がなされ、視聴者に違和感を発生させない色の統一感を感じさせる画像を提供することが可能となる。
このように、情報処理装置102の画像処理部は、メイン画像の色空間に合わせるように、重畳するサブ画像の色空間を変更する処理を行なう。
図4、図6を参照して2つの具体的処理例について説明したが、より一般化した処理例として、以下のような色空間設定の場合の処理例について図7を参照して説明する。
図7に示す例は、
メイン画像201が色空間Vの画像データ、
第1サブ画像202が色空間Gの画像データ、
第2サブ画像203が色空間Bの画像データ、
上記設定とした構成における処理例を示している。
色空間V,G,Bは、例えばBT.2020、BT.709等の色空間に対応する。
図7に示す構成において、第1サブ画像202の色空間変換処理を実行する色空間変換部206は、第1サブ画像202の色空間Gを、メイン画像201の色空間Vに一致させる色空間変換処理を実行する。
すなわち、
第1サブ画像202の画像信号YCrCb(G)を画像信号YCrCb(V)に変換する。
また、第2サブ画像203の色空間変換処理を実行する色空間変換部207は、第2サブ画像203の色空間Bを、メイン画像201の色空間Vに一致させる色空間変換処理を実行する。
すなわち、
第2サブ画像203の画像信号YCrCb(B)を画像信号YCrCb(V)に変換する。
重畳部208は、3つの画像信号の重畳処理を実行して1つの出力画像を生成する。
すなわち、以下の3つの画像の重畳処理を行なう。
(a)メイン画像201を構成する画像信号YCrCb(V)211、
(b)色空間変換部206の出力する第1サブ画像202を構成する画像信号YCrCb(V)216、
(c)色空間変換部207の出力する第2サブ画像203を構成する画像信号YCrCb(V)217、
これらの3つの画像信号を重畳する処理を行なう。なお、重畳位置は再生プログラムに従って予め決定される。
重畳部206に入力する3つの画像信号は、いずれもメイン画像201の色空間Vと同じ色空間Vの画像信号であり、この結果生成される画像信号YCrCb(V)218は、すべての画像領域が同一の色空間Vに従った色出力を行う画像となる。
この画像が表示用画像データ(BD Video)209として、表示装置104に出力され、表示される。
この結果、表示装置104の表示画像は、全ての画像領域が、元々のメイン画像201の色空間Vに統一された色空間Vの色出力を行う画像領域となり、視聴者に違和感を発生させない色の統一感を感じさせる画像を出力することが可能となる。
[3.本開示の画像処理の第2実施例について]
次に、図8以下を参照して本開示の第2実施例について説明する。
図8には、先に説明した図4と同様、情報処理装置102の画像処理部が、情報記録媒体101から以下の3つの画像を読み出して、読み出した3つの画像データを重畳して表示画像を生成する場合の処理例を示している。
(a)映画等のビデオ画像に相当する色空間BT.2020のメイン画像201、
(b)字幕等を構成するBDグラフィックスに相当する色空間BT.709の第1サブ画像202、
(c)Java(登録商標)形式の画像データを有するBD−Jグラフッイクスに相当する色空間BT.709の第2サブ画像203、
図8は、これら3つの画像を重畳する処理を説明する図である。
この第2実施例では、パレット要素識別子(Palette entry id)によって構成される第1サブ画像202に対する処理のみが第1実施例と異なる処理となる。すなわち、図8に示す全色LUT301、色空間変換部302、全色LUT303、色変換部304が本実施例特有の処理を行なう。
その他の構成部における処理は第1実施例と同様である。
情報処理装置102の画像処理部は、図8に示すように、メイン画像201から画像信号:YCrCb[BT.2020]211を取得する。
なお、前述したようにYCrCb[BT.2020]は、色空間BT.2020を有するYCrCb画像信号を示し、YCrCb[BT.709]は、色空間BT.709を有するYCrCb画像信号を示す。
第1サブ画像202は、各画素対応の色情報を例えば256色対応のパレット要素識別子(pallet entry id)として保持した画像データである。
この第2実施例では、情報処理装置102の画像処理部は、図8に示すように、第1サブ画像202から、パレット要素識別子(pallet entry id)212を取得し、これを色変換部304において、画像信号YCrCb[BT.2020]に変換する処理を行なう。
図8に示す例において、第1サブ画像202は、色空間BT.709の画像信号であり、パレット要素識別子(pallet entry id)212も色空間BT.709に従って設定される色に対応する識別子である。
色変換部304は、この色空間BT.709のパレット要素識別子212を入力して、異なる色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を行なう。
本実施例において、色変換部304は、色空間BT.709対応のパレット要素識別子(pallet entry id)と、色空間BT.2020の画像信号YCrCb[BT.2020]との対応データを持つ色変換テーブル、すなわちカラールックアップテーブル(CLUT)を有する。
この色変換テーブルを用いて、色空間BT.709対応のパレット要素識別子212を、色空間BT.2020対応の画像信号YCrCb[BT.2020]に変換する処理を行なう。
この変換処理に適用するルックアップテーブルを生成するための構成が、図8に示す全色LUT301、色空間変換部302、全色LUT303である。
全色LUT301は、色空間BT.709対応のパレット要素識別子(pallet entry id)を、色空間BT.709の画像信号YCrCb[BT.709]に変換するためのルックアップテーブルであり、色空間BT.709対応のパレットの全要素(全id)と、色空間BT.709の画像信号YCrCb[BT.709]との対応データを持つルックアップテーブル(LUT)である。
色空間変換部302は、全色LUT301を入力し、このルックアップテーブルの各要素識別子(id)対応の色空間BT.709の画像信号YCrCb[BT.709]の値を、メイン画像201の色空間(本例ではBT.2020)に対応する信号値、すなわちYCrCb[BT.2020]に書き換える処理を実行する。
このテーブル書き換えの結果として生成した全色LUT303を色変換部304に出力する。
全色LUT303は、色空間BT.709対応のパレット要素識別子(pallet entry id)を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換するためのルックアップテーブルである。
色変換部304は、この全色LUT303を適用して、第1サブ画像202を構成する色空間BT.709のパレット要素識別子(pallet entry id)212を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を行なう。
色変換部304は、全色LUT303を適用して生成した変換データである色空間BT.2020の画像信号YCrCb[BT.2020]216を出力する。
また、第2サブ画像203は、例えばRGB画像信号を持つカラー画像として構成される。
情報処理装置102の画像処理部は、図8に示すように、まず、第2サブ画像203から、RGB画像信号213を取得し、色変換部205において、画像信号YCrCb[BT.709]に変換する処理を行なう。
色変換部205は、例えば予め規定された演算を実行して、RGB各信号値を適用して、YCrCb各信号の値を算出する。
なお、ここで算出するYCrCb各信号の値は、色空間BT.709に対応するYCrCb信号値である。
色変換部205は、変換データとしての画像信号YCrCb[BT.709]215を出力する。
色変換部205の出力した画像信号YCrCb[BT.709]215は、色空間変換部207に入力される。
色空間変換部207は、色空間BT.709の画像信号YCrCb[BT.709]を、異なる色空間である色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を実行する。
色空間変換部207は、例えば図5に示すステップS01〜S06の各処理を実行するシーケンスに従って、色空間BT.709の画像信号YCrCb[BT.709]を、色空間BT.2020の画像信号YCrCb[BT.2020]に変換する処理を実行する。
重畳部208は、3つの画像信号の重畳処理を実行して1つの出力画像を生成する。
すなわち、以下の3つの画像の重畳処理を行なう。
(a)メイン画像201を構成する画像信号YCrCb[BT.2020]211、
(b)色変換部304の出力する第1サブ画像202を構成する画像信号YCrCb[BT.2020]216、
(c)色空間変換部207の出力する第2サブ画像203を構成する画像信号YCrCb[BT.2020]217、
これらの3つの画像信号を重畳する処理を行なう。なお、重畳位置は再生プログラムに従って予め決定される。
重畳部206に入力する3つの画像信号は、いずれも色空間BT.2020の画像信号であり、この結果生成される画像信号YCrCb[BT.2020]218は、すべての画像領域が色空間BT.2020に従った色出力を行う画像となる。
この画像が表示用画像データ(BD Video)209として、表示装置104に出力され、表示される。
この結果、表示装置104の表示画像は、全ての画像領域が、色空間BT.2020に従った画像領域となる。すなわち、統一された色空間に従って色出力がなされ、視聴者に違和感を発生させない高品質な画像を出力することが可能となる。
このように、本実施例では、第1サブ画像202の色情報として設定されているパレット要素識別子212から、直接、メイン画像201の色空間と同じ色空間の画像信号に変換することを可能としたカラールックアップテーブル(CLUT)を利用して第1サブ画像202の色変換を実行する構成としている。
図8を参照して1つの具体的処理例について説明したが、より一般化した処理例として、以下のような色空間設定の場合の処理例について図9を参照して説明する。
図9に示す例は、
メイン画像201が色空間Vの画像データ、
第1サブ画像202が色空間Gの画像データ、
第2サブ画像203が色空間Bの画像データ、
上記設定とした構成における処理例を示している。
図9に示す構成において、第1サブ画像202の色変換を行う色変換部304は、第1サブ画像202から、色空間Gに従ったパレット要素識別子(pallet entry id)212を取得し、これを、メイン画像201の色空間Vに対応する画像信号YCrCb(V)に変換する処理を行なう。
図9に示す例において、第1サブ画像202は、色空間Gの画像信号であり、パレット要素識別子(pallet entry id)212も色空間Gに従って設定された色対応の識別子である。
色変換部304は、この色空間Gのパレット要素識別子212を入力して、異なる色空間Vの画像信号YCrCb(V)に変換する処理を行なう。
色変換部304は、色空間G対応のパレット要素識別子(pallet entry id)と、色空間Vの画像信号YCrCb(V)との対応データを持つ色変換テーブル、すなわちカラールックアップテーブル(CLUT)を有する。
このルックアップテーブルを生成するための構成が、全色LUT301、色空間変換部302、全色LUT303である。
全色LUT301は、色空間G対応のパレット要素識別子(pallet entry id)を、色空間Gの画像信号YCrCb(G)に変換するためのルックアップテーブルであり、色空間G対応のパレットの全要素(全id)と、色空間Gの画像信号YCrCb(G)との対応データを持つルックアップテーブル(LUT)である。
色空間変換部302は、全色LUT301を入力し、このルックアップテーブルの各要素識別子(id)対応の色空間Gの画像信号YCrCb(G)の値を、メイン画像201の色空間Vに対応する信号値、すなわちYCrCb(V)に書き換える処理を実行する。
このテーブル書き換えの結果として生成した全色LUT303を色変換部304に出力する。
全色LUT303は、色空間G対応のパレット要素識別子(pallet entry id)を、色空間Vの画像信号YCrCb(V)に変換するためのルックアップテーブルである。
色変換部304は、この全色LUT303を適用して、第1サブ画像202を構成する色空間Gのパレット要素識別子(pallet entry id)212を、色空間Vの画像信号YCrCb(V)に変換する。
色変換部304は、全色LUT303を適用して生成した変換データである色空間Vの画像信号YCrCb(V)216を出力する。
また、第2サブ画像203は、色空間B対応のRGB画像信号を持つカラー画像として構成される。
情報処理装置102の画像処理部は、図9に示すように、まず、第2サブ画像203から、RGB画像信号213を取得し、色変換部205において、画像信号YCrCb(B)に変換する処理を行なう。
色変換部205は、変換データとしての画像信号YCrCb(B)215を出力する。
色変換部205の出力した画像信号YCrCb(B)215は、色空間変換部207に入力される。
色空間変換部207は、色空間Bの画像信号YCrCb(B)を、メイン画像201の色空間Vに一致する色空間Vの画像信号YCrCb(V)に変換する処理を実行する。
色空間変換部207は、例えば図5に示すステップS01〜S06の各処理を実行するシーケンスに従って、色空間Bの画像信号YCrCb(B)を、メイン画像201の色空間に一致する色空間Vの画像信号YCrCb(V)に変換する処理を実行する。
重畳部208は、3つの画像信号の重畳処理を実行して1つの出力画像を生成する。
すなわち、以下の3つの画像の重畳処理を行なう。
(a)メイン画像201を構成する画像信号YCrCb(V)211、
(b)色変換部304の出力する第1サブ画像202を構成する画像信号YCrCb(V)216、
(c)色空間変換部207の出力する第2サブ画像203を構成する画像信号YCrCb(V)217、
これらの3つの画像信号を重畳する処理を行なう。なお、重畳位置は再生プログラムに従って予め決定される。
重畳部206に入力する3つの画像信号は、いずれも元々のメイン画像201の色空間Vと同じ色空間Vの画像信号であり、この結果生成される画像信号YCrCb(V)218は、すべての画像領域が色空間BT.2020に従った色出力を行う画像となる。
この画像が表示用画像データ(BD Video)209として、表示装置104に出力され、表示される。
この結果、表示装置104の表示画像は、全ての画像領域が、色空間Vに従った色出力を行う画像領域となり、統一された色空間に従って色出力がなされる。これにより、視聴者に違和感を発生させない色の統一感を感じさせる画像の出力が可能となる。
このように、本実施例では、第1サブ画像202の色情報として設定されているパレット要素識別子212を直接、メイン画像201の色空間と同じ色空間の画像信号に変換するカラールックアップテーブル(CLUT)を用いて色変換を実行する構成としている。
[4.情報記録媒体の格納データとデータ再生処理例について]
次に、再生対象データを格納した情報記録媒体、すなわち図1に示す情報記録媒体101の格納データの構成例と再生処理例について説明する。
図10は、情報記録媒体101の一例であるROM型のBD(Blu−ray(登録商標) Disc)に記録されたBDMVフォーマットに従った記録データのディレクトリを示す図である。
ディレクトリは図10に示すように管理情報設定部401(AACSディレクトリ)と、データ部402(BDMVディレクトリ)に分離されている。
管理情報設定部401(AACSディレクトリ)には、データの暗号化鍵であるCPSユニットキーファイルや利用制御情報ファイルなどが格納される。
一方、データ部402のBDMVディレクトリ以下には、
インデックスファイル、
プレイリストファイル、
クリップ情報ファイル、
クリップAVストリームファイル、
BDJOファイル、
例えば、これらのファイルが記録される。
インデックスファイルには、再生処理に適用するインデックス情報としてのタイトル情報が格納される。
プレイリストファイルは、タイトルによって指定されの再生プログラムのプログラム情報に従ったコンテンツの再生順等を規定したファイルであり、再生位置情報を持クリップ情報に対する指定情報を有する。
クリップ情報ファイルは、プレイリストファイルによつて指定されるファイルであり、クリップAVストリームファイルの再生位置情報等を有する。
クリップAVストリームファイルは、再生対象となるAVストリームデータを格納したファイルである。
BDJOファイルは、JAVA(登録商標)プログラム、コマンド等を格納したファイルの実行制御情報を格納したファイルである。
前述したBD−Jグラフッィクスは、BDJOファイル中の再生プログラムと再生データを利用して再生処理が行われる。
情報処理装置が情報記録媒体に記録されたコンテンツを再生するシーケンスは以下の通りである。
(a)まず、再生アプリケーションによってインデックスファイルから特定のタイトルを指定する。
(b)指定されたタイトルに関連付けられた再生プログラムが選択される。
(c)選択された再生プログラムのプログラム情報に従ってコンテンツの再生順等を規定したプレイリストが選択される。
(d)選択されたプレイリストに規定されたクリップ情報によって、コンテンツ実データとしてのAVストリームあるいはコマンドが読み出されて、AVストリームの再生や、コマンドの実行処理が行われる。
図11は、情報記録媒体101に記録される以下のデータ、すなわち、
プレイリストファイル、
クリップ情報ファイル、
クリップAVストリームファイル、
これらのデータの対応関係を説明する図である。
実際の再生対象データである画像と音声データからなるAVストリームはクリップAVストリーム(Clip AV Stream)ファイルとして記録され、さらに、これらのAVストリームの管理情報、再生制御情報ファイルとして、プレイリスト(PlayList)ファイルと、クリップ情報(Clip Information)ファイルが規定される。
これら複数のカテゴリのファイルは、図11に示すように、
プレイリスト(PlayList)ファイルを含むプレイリストレイヤ、
クリップAVストリーム(Clip AV Stream)ファイルと、クリップ情報(Clip Information)ファイルからなるクリップレイヤ、
これらの2つのレイヤに区分できる。
なお、一つのクリップAVストリーム(Clip AV Stream)ファイルには一つのクリップ情報(Clip Information)ファイルが対応付けられ、これらのペアを一つのオブジェクトと考え、これらをまとめてクリップ(Clip)と呼ぶ場合もある。
クリップAVストリームファイルに含まれるデータの再生に適用する制御情報は、プレイリストファイルやクリップ情報ファイルに記録される。
クリップAVストリーム(Clip AV Stream)ファイルは、例えばMPEG2TS(トランスポートストリーム)をBDMVフォーマットの規定構造に従って配置したデータを格納している。
また、クリップ情報(Clip Information)ファイルには、例えば、クリップAVストリームファイルのバイト列データのデータ位置と、時間軸上に展開した場合の再生開始ポイントである(エントリポイント:EP)等の再生時間位置等の対応データ等、クリップAVストリームファイルの格納データの再生開始位置などを取得するための管理情報を格納している。
例えば、コンテンツの開始点からの再生時間経過位置を示すタイムスタンプが与えられた時、クリップ情報ファイルを参照して、クリップAVストリームファイルのデータ読み出し位置、すなわち再生開始点としてのアドレスを取得することが可能となる。
プレイリスト(PlayList)ファイルは、クリップ(=クリップ情報ファイル+クリップAVストリームファイル)レイヤに含まれる再生可能データに対する再生区間の指定情報を有する。
プレイリスト(PlayList)ファイルには、1つ以上のプレイアイテム(PlayItem)が設定され、プレイアイテムの各々が、クリップ(=クリップ情報ファイル+クリップAVストリームファイル)レイヤに含まれる再生可能データに対する再生区間の指定情報を有する。
[5.複数のデータファイルを利用した重畳画像データの再生例について]
次に、複数のデータファイルを利用した重畳画像データの再生例について、図12を参照して説明する。
図12に示すデータ再生例は、映画等のメイン画像を格納したクリップAVストリームファイルと、BD−Jグラフィックスを併せて適用した再生処理シーケンスの一例である。
図12の最下段に示す時間軸(t)の左から右に時間が経過し、再生処理が進行する。
図12には、1つのプレイリストによって選択される3つのクリップを利用した再生処理例を示している。
なお、ここで、「クリップ」は、クリップAVストリームファイルとクリップ情報ファイルを含むものとして説明する。
クリップA1は、色空間BT.2020の画像データを格納したクリップである。
クリップA2は、色空間BT.709の画像データを格納したクリップである。
クリップA3は、色空間BT.2020の画像データを格納したクリップである。
これら3つのクリップを順次適用して再生処理が行われるものとする。
これらメイン画像を格納した3つのクリップを適用した映画等の再生処理に併せて、サブ画像であるBD−Jグラフィックスデータの重畳処理が実行されるものとする。
ここで、BD−J画像は、色空間BT.709の画像データであるとする。
データ再生処理を実行する情報処理装置102の画像処理部は、上述した実施例に従ってBD−J画像の色空間の変換処理を行なう。すなわち、メイン画像の色空間に一致させるようにたBD−J画像の色空間変換処理を実行する。
BD−J画像データは、色空間BT.709のRGBデータであるとする。
図12に示す例では、時間t1〜t2は、色空間BT.2020の画像データを格納したクリップA1の再生が実行される。
従って、この時間t1〜t2の期間において、画像処理部は、図12のステップS11に示す処理、すなわち、BD−J画像データであるBT.709のRGBデータをBT.2020のYCbCr信号に変換してBT.2020のメイン画像、すなわちクリップ格納画像に重畳して出力する処理を実行する。
次の時間t2〜t3は、色空間BT.709の画像データを格納したクリップA2の再生が実行される。
従って、この時間t2〜t3の期間において、画像処理部は、図12のステップS12に示す処理、すなわち、BD−J画像データであるBT.709のRGBデータの色空間変換を行うことなく、BT.709のYCrCb信号としてBT.709のメイン画像に重畳して出力する。
次の時間t3〜t4は、色空間BT.2020の画像データを格納したクリップA3の再生が実行される。
従って、この時間t3〜t4の期間において、画像処理部は、図12のステップS13に示す処理、すなわち、BD−J画像データであるBT.709のRGBデータをBT.2020のYCbCr信号に変換してBT.2020のメイン画像、すなわちクリップ格納画像に重畳して出力する処理を実行する。
このように、サブ画像の色空間を、メイン画像の色空間に一致させた重畳画像を生成して出力することで統一感のある画像を提供することが可能となる。
[6.色空間情報の格納領域について]
上述したように、本開示の情報処理装置102の画像処理部は、複数の異なるデータファイルに格納されたメイン画像、サブ画像を重畳した画像を生成して出力する際に、サブ画像の色空間をメイン画像の色空間に一致させる処理を実行する。
この色空間変換処理行うためには、メイン画像の色空間情報と、サブ画像の色空間情報を取得することが必要である。
すなわち、メイン画像や、サブ画像は、各画像の属性情報であるメタデータとして各画像データの色空間情報を保持する。
情報処理装置102の画像処理部は、各画像のメタデータを取得して、取得情報に従って各画像の色空間を判定し、判定結果に従って色空間変換処理を行なう。
図13は、色空間情報の格納構成の一例を説明する図である。
図13には、クリップ情報ファイルのデータ構成例を示している。
クリップ情報ファイルは、再生対象データ、すなわちクリップAVストリームファイルに格納した再生データに関する再生制御情報や属性情報を格納したファイルとして設定される。
このクリップ情報ファイルにクリップAVストリームファイルに格納したメイン画像やサブ画像の色空間情報を格納することが可能である。
具体的には、図13に示すように、クリップ情報ファイル中に設定される以下の各リザーブフィールド(reserved_fo_future_use)に各画像の色空間情報を格納する。
(a)メイン画像については、メイン画像の属性情報記録フィールドに設定されたリザーブフィールド(reserved_fo_future_use)にメイン画像の色空間情報を格納する。
(b)サブ画像であるプレゼンテーショングラフィックス(PG)、インタラクティブグラフィックス(IG)、テキストサブタイトル(TST)については、PG,IG,TST各々の属性情報記録フィールドに設定されたリザーブフィールド(reserved_fo_future_use)にこれら各サブ画像の色空間情報を格納する。
なお、もう1つのサブ画像であるBD−JグラフィックスについてはBDJOファイル中に色空間情報を記録する。
なお、図13に示す例は、クリップ情報ファイルに設定されるストリームコーディング情報(StreamCodingInfo)に設定されるリサーブフィールドに各画像の色空間情報を記録する例である。しかし、色空間情報の記録先は、図13に示す構成に限らず、その他のフィールドに記録する構成としてもよい。
図13に示すストリームコーディング情報(StreamCodingInfo)以外の、他の色空間情報の記録先候補としては、例えば、以下の候補がある。
クリップ情報ファイル中のターミナル情報(TerminalInfo)中に設定されるリサーブフィールド(reserved_fo_future_use)、
あるいは、クラスデバイス構成情報(Class Device Configulation)中に記録する等の設定が可能である。
なお、これらの様々な記録先に対する具体的な色空間情報の記録例としては、
画像がBT.709画像であるかBT.2020画像であるかに応じて異なるフラグや定数を記録する設定とすることなどが可能である。この場合、再生処理を実行する情報処理装置が実行する再生プログラムが、これらのフィールドの記録データを取得して取得データに基づいて色空間判定処理を実行する。
情報処理装置102の画像処理部は、各画像を読み出して、重畳画像を生成する際に、各画像の属性情報を読み出して、メイン画像の色空間とサブ画像の色空間が一致していない場合は、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換を実行する。その後、画像の重畳処理を実行して、1つの色空間に従った画像信号によって構成される画像を生成して出力する。
この他、例えば画像データがHEVC(High Efficiency Video Coding)データである場合、上述した色空間情報は、HEVCビデオストリーム中のメタデータ記録領域(例えばSEI(supplemental enhancement information)フィールド)に記録することが可能である。
なお、この場合、色空間情報、例えばBT.709、BT.2020等の情報を直接記録する設定に限らず、色情報を決定するためのパラメータを記録する設定としてもよい。具体的には、例えば以下の色情報パラメータである。
VUI/Color description
(a) color_primaries
(b) transfer_characterstics
(c) matrix_coeffs
例えば、色空間BT.709の画像データである場合は、上記パラメータの設定値を以下のように記録する。
(a)color_primaries=1
green:x=0.300,y=0.600
blue:x=0.150,y=0.060
red:x=0.640,y=0.330
whiteD65:x=0.3127,y=0.3290
(b)transfer_characterstics=1
V=1.099×Lc0.45−0.099 for 1≧Lc≧0.018
V=4.500×Lc for 0.018>Lc≧0
(c)matrix_coeffs=1
=0.2126, K=0.0722
例えば上記設定のパラメータをHEVCストリームの属性データ(メタデータ)として記録しておく。
再生処理を実行する情報処理装置の画像処理部は、これらのパラメータに基づいて、このHEVCストリーム画像が色空間BT.709の画像データであると判定する。
[7.再生処理対象となる画像について]
上述した実施例では、再生処理対象となる画像は、BD等の情報記録媒体に格納されたデータとして説明したが、この他、ハードディスク、あるいは外部装置、さらに、ネットワークや放送通信網等を介して外部サーバや放送局から受信するデータを再生する場合にも、本開示の処理が適用可能である。なお、画像データを外部から入力する場合には、その画像の色空間情報についても外部から入力する属性情報から取得することになる。
また、Webページ等を表示するために利用されるマークアップ言語であるHTMLやXMLに従って表示される画像に対しても本開示の処理を適用可能である。
例えばHTML5は基本的にsRGBの色空間を利用している。sRGB色空間はほぼBT.709の色空間に等しい色空間である。ただし、実際の表示に使われる色空間はHTML5ブラウザの環境依存となる。HTML5のビデオ(VIDEO)タグを使いビデオ再生を行なうと、ビデオストリームのVUI/COLOR PRIMARYを参照し適切な色空間変換を行う設定となっている。具体的には、HTML5ブラウザの表示用の色空間に変換される設定である。
従って、例えばHTML5自体に色空間の属性情報を追加することで、上述した本開始の処理を適用することができる。
[8.情報処理装置の実行する処理シーケンスについて]
次に、図14に示すフローチャートを参照して情報処理装置の実行する処理のシーケンスについて説明する。
図14に示すフローに従った処理は、情報処理装置102の画像処理部において実行される。情報処理装置の記憶部には、図14に示すフローに従った処理を実行させるプログラムを格納しており、例えば画像処理部のプログラム実行機能を持つCPUがこのプログラムを実行して、図14に示すフローに従った処理を実行する。
以下、各ステップの処理について説明する。
(ステップS101)
まず、画像処理部は、ステップS101において、重畳処理および再生対象となる複数の画像の属性情報(メタデータ)を取得し、各画像の色空間情報を取得する。
(ステップS102)
次に、ステップS102において、メイン画像の色空間と異なる色空間を持つサブ画像が存在するか否かを判定する。
メイン画像の色空間と異なる色空間を持つサブ画像が存在すると判定した場合はステップS103に進む。
一方、メイン画像の色空間と異なる色空間を持つサブ画像が存在しないと判定した場合は、ステップS104に進む。
(ステップS103)
ステップS102において、メイン画像の色空間と異なる色空間を持つサブ画像が存在すると判定した場合、ステップS103において、メイン画像の色空間と異なる色空間を持つサブ画像の色空間をメイン画像の色空間に一致させる処理を行う。すなわち、サブ画像に対する色空間変換処理を実行する。
(ステップS104)
ステップS102において、メイン画像の色空間と異なる色空間を持つサブ画像が存在しないと判定した場合、あるいは、ステップS102において、メイン画像の色空間と異なる色空間を持つサブ画像が存在すると判定し、ステップS103において、サブ画像の色空間変換処理が終了するとステップS104に進む。
ステップS104では、すべて同じ色空間に設定されたメイン画像とサブ画像の重畳処理を実行して出力画像を生成する。
(ステップS105)
最後に、ステップS105において、複数画像の重畳処理により生成した出力画像を表示部に出力する。
[9.情報処理装置の構成例について]
最後に、本開示の処理を実行する情報処理装置の構成例について、図15を参照して説明する。
図15に示す情報処理装置500は、図1に示す情報処理装置102に相当する。
例えば情報記録媒体からのデータ再生を実行し、再生画像を表示装置に出力する。
情報処理装置500は、例えば、再生コンテンツを記録した情報記録媒体であるメディア510を装着可能な構成を持つ。
メディアインタフェース503は、メディア510を利用したデータ再生処理に適用するインタフェースである。画像処理等を実行するデータ処理部501の要求に従って、メディア510を利用したデータ読み取り処理などを行う。
メディア510は、例えばBlu−ray(登録商標) DiscやDVD、ハードディスク、フラッシュメモリなど、各種のメデイア(情報記録媒体)によって構成される。
情報処理装置500は、さらに、図15に示すように、データ処理部(画像処理部)501、記憶部502、入力部504、出力部505、表示装置IF506、通信部507を有する。
データ処理部501は、プログラム実行機能を持つCPU等を有し、例えばデータ記録再生処理を実行する。さらに通信部507を介したデータ通信制御などを行う。具体的にはサーバ等の外部装置からデータを受信する場合の通信制御など、装置の実行する処理全般の制御を行う。
記憶部502は、RAM,ROM等によって構成され、データ処理部501において実行するプログラムや、各種パラメータ、受信データの格納領域などに利用される。
通信部507は、例えば、外部装置、サーバ、放送局等との通信処理に利用される。入力部504は、例えばユーザの操作部であり、データ記録または再生指示、コピー指示の入力など、様々な入力が行われる。なお、入力部504にはリモコン508も含まれ、リモコン操作情報の入力も可能である。出力部505は、ユーザに提示するメッセージの表示、警告音の出力等を行う表示部、スピーカ等によって構成される。
表示装置IF506は、テレビ等の表示装置520に対して再生画像、例えば複数の画像データを重畳して生成した画像等を出力する。
[10.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 複数の画像データを重畳して表示画像を生成する画像処理部を有し、
前記画像処理部は、
メイン画像の色空間情報と、
前記メイン画像に重畳するサブ画像の色空間情報を取得し、
サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成し、生成した重畳用画像信号をメイン画像に重畳して出力画像信号を生成する情報処理装置。
(2)前記画像処理部は、所定の色空間対応のパレットのパレット要素識別子を色情報として有するサブ画像をメイン画像に重畳する処理を実行する構成であり、前記サブ画像のパレット要素識別子を、前記パレットと同じ色空間対応の画像信号に変換する色変換部と、前記色変換部の生成した画像信号を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に変換する色空間変換部を有する前記(1)に記載の情報処理装置。
(3)前記画像処理部は、所定の色空間対応のRGB信号を色情報として有するサブ画像をメイン画像に重畳する処理を実行する構成であり、前記サブ画像のRGB信号を、前記RGB信号と同じ色空間対応の画像信号に変換する色変換部と、前記色変換部の生成した画像信号を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に変換する色空間変換部を有する前記(1)または(2)に記載の情報処理装置。
(4)前記画像処理部は、所定の色空間対応のパレットのパレット要素識別子を色情報として有するサブ画像をメイン画像に重畳する処理を実行する構成であり、前記サブ画像のパレット要素識別子を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に直接、変換する色変換部を有する前記(1)〜(3)いずれかに記載の情報処理装置。
(5)前記画像処理部は、前記サブ画像の色空間対応のパレットのパレット要素識別子と、前記サブ画像の色空間と異なるメイン画像の色空間の画像信号とを対応付けたルックアップテーブルを生成する色空間変換部を有し、前記色変換部は、前記色空間変換部の生成したルックアップテーブルを用いて、前記サブ画像のパレット要素識別子を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に直接、変換する前記(4)に記載の情報処理装置。
(6)前記メイン画像の色空間はBT.2020、またはBT.709であり、前記画像処理部は、前記サブ画像が、メイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間であるBT.2020、またはBT.709に一致させる色空間変換処理を実行する前記(1)〜(5)いずれかに記載の情報処理装置。
(7)前記画像処理部は、前記メイン画像、および前記サブ画像の色空間情報を各画像に対応する属性情報から取得する前記(1)〜(6)いずれかに記載の情報処理装置。
(8)前記メイン画像、およびサブ画像は、情報記録媒体に記録された画像データであり、前記画像処理部は、各画像の色空間情報を情報記録媒体に記録された属性情報記録ファイルから取得する前記(1)〜(7)いずれかに記載の情報処理装置。
(9)前記メイン画像、サブ画像はクリップAVストリームファイルに格納されており、前記画像処理部は、各画像の色空間情報を情報記録媒体に記録されたクリップ情報ファイルから取得する前記(8)に記載の情報処理装置。
(10)前記メイン画像、およびサブ画像の少なくともいずれかの画像は、外部から通信部を介して入力するデータであり、前記画像処理部は、外部から入力する画像の色空間情報を、外部から入力する属性情報から取得する前記(1)〜(7)いずれかに記載の情報処理装置。
(11)メイン画像データと、
前記メイン画像の色空間情報と、
前記メイン画像に重畳するサブ画像データと、
前記サブ画像の色空間情報を格納した情報記録媒体であり、
前記メイン画像とサブ画像を重畳して表示画像を生成する再生装置に、
各画像の色空間情報を取得させて、各画像の色空間を一致させる色空間変換処理を行なわせることを可能とした情報記録媒体。
(12) 情報処理装置において実行する画像処理方法であり、
画像処理部が、
メイン画像の色空間情報と、前記メイン画像に重畳するサブ画像の色空間情報を取得する処理と、
サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成する処理と、
前記重畳用画像信号をメイン画像に重畳して出力画像信号を生成する処理を実行する画像処理方法。
(13) 情報処理装置において画像処理を実行させるプログラムであり、
前記プログラムは、画像処理部に、
メイン画像の色空間情報と、前記メイン画像に重畳するサブ画像の色空間情報を取得する処理と、
サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成する処理と、
前記重畳用画像信号をメイン画像に重畳して出力画像信号を生成する処理を実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、異なる色空間の画像データを重畳表示した場合の違和感を解消し、統一された色空間の重畳画像の表示が実現される。
具体的には、画像処理部がメイン画像の色空間情報と、メイン画像に重畳するサブ画像の色空間情報を取得する。さらに、サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成する。その後、生成した重畳用画像信号をメイン画像に重畳して出力する。画像処理部は、例えば、パレット要素識別子やRGB信号からなる画像信号に対して、ルックアップテーブルを利用した色空間変換を実行する。
本構成により、異なる色空間の画像データを重畳表示した場合の違和感が解消され、統一された色空間の重畳画像表示を実現することができる。
101 情報記録媒体
102 情報処理装置
103 操作部(リモコン)
104 入力表示装置
105 接続ケーブル
151 メイン画像
152 第1サブ画像
153 第2サブ画像
154 色変換部
155 色変換部
156 重畳部
157 表示用画像データ
201 メイン画像
202 第1サブ画像
203 第2サブ画像
204 色変換部
205 色変換部
206 色空間変換部
207 色空間変換部
208 重畳部
209 表示用画像データ
301 全色LUT
302 色空間変換部
303 全色LUT
304 色変換部
500 情報処理装置
501 データ処理部
502 記憶部
503 メディアインタフェース
504 入力部
505 出力部
506 表示装置IF
507 通信部
508 リモコン

Claims (10)

  1. 複数の画像データを重畳して表示画像を生成する画像処理部を有し、
    前記画像処理部は、
    クリップAVストリームファイルに格納されたメイン画像の色空間情報を、前記クリップAVストリームファイルに対応する属性情報記録ファイルであるクリップ情報ファイルから取得し、
    メイン画像に重畳するサブ画像の色空間情報を、前記クリップ情報ファイル、または、別ファイルから取得し、
    メイン画像とサブ画像の色空間が異なるか否かを判定し、
    サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成し、生成した重畳用画像信号をメイン画像に重畳して出力画像信号を生成し、
    前記画像処理部は、さらに、
    メイン画像再生に利用するクリップAVストリームファイルが複数ある場合、
    メイン画像を格納したクリップAVストリームファイル単位で、サブ画像との色空間比較処理を実行し、色空間が異なる場合にのみサブ画像の色空間変換を実行するクリップAVストリームファイル単位のサブ画像色空間変換制御を行う情報処理装置。
  2. 前記画像処理部は、
    所定の色空間対応のパレットのパレット要素識別子を色情報として有するサブ画像をメイン画像に重畳する処理を実行する構成であり、
    前記サブ画像のパレット要素識別子を、前記パレットと同じ色空間対応の画像信号に変換する色変換部と、
    前記色変換部の生成した画像信号を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に変換する色空間変換部を有する請求項1に記載の情報処理装置。
  3. 前記画像処理部は、
    所定の色空間対応のRGB信号を色情報として有するサブ画像をメイン画像に重畳する処理を実行する構成であり、
    前記サブ画像のRGB信号を、前記RGB信号と同じ色空間対応の画像信号に変換する色変換部と、
    前記色変換部の生成した画像信号を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に変換する色空間変換部を有する請求項1に記載の情報処理装置。
  4. 前記画像処理部は、
    所定の色空間対応のパレットのパレット要素識別子を色情報として有するサブ画像をメイン画像に重畳する処理を実行する構成であり、
    前記サブ画像のパレット要素識別子を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に直接、変換する色変換部を有する請求項1に記載の情報処理装置。
  5. 前記画像処理部は、
    前記サブ画像の色空間対応のパレットのパレット要素識別子と、前記サブ画像の色空間と異なるメイン画像の色空間の画像信号とを対応付けたルックアップテーブルを生成する色空間変換部を有し、
    前記色変換部は、
    前記色空間変換部の生成したルックアップテーブルを用いて、前記サブ画像のパレット要素識別子を、前記メイン画像の色空間と同じ色空間を持つ重畳用画像信号に直接、変換する請求項4に記載の情報処理装置。
  6. 前記メイン画像の色空間はBT.2020、またはBT.709であり、
    前記画像処理部は、
    前記サブ画像が、メイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間であるBT.2020、またはBT.709に一致させる色空間変換処理を実行する請求項1に記載の情報処理装置。
  7. 前記メイン画像、およびサブ画像は、情報記録媒体に記録された画像データである請求項1に記載の情報処理装置。
  8. 前記メイン画像、およびサブ画像の少なくともいずれかの画像は、外部から通信部を介して入力するデータであり、
    前記画像処理部は、
    外部から入力する画像の色空間情報を、外部から入力する属性情報から取得する請求項1に記載の情報処理装置。
  9. 情報処理装置において実行する画像処理方法であり、
    画像処理部が、
    クリップAVストリームファイルに格納されたメイン画像の色空間情報を、前記クリップAVストリームファイルに対応する属性情報記録ファイルであるクリップ情報ファイルから取得し、
    メイン画像に重畳するサブ画像の色空間情報を、前記クリップ情報ファイル、または、別ファイルから取得し、
    メイン画像とサブ画像の色空間が異なるか否かを判定し、
    サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成し、生成した重畳用画像信号をメイン画像に重畳して出力画像信号を生成し、
    前記画像処理部が、さらに、
    メイン画像再生に利用するクリップAVストリームファイルが複数ある場合、
    メイン画像を格納したクリップAVストリームファイル単位で、サブ画像との色空間比較処理を実行し、色空間が異なる場合にのみサブ画像の色空間変換を実行するクリップAVストリームファイル単位のサブ画像色空間変換制御を行う画像処理方法。
  10. 情報処理装置において画像処理を実行させるプログラムであり、
    前記プログラムは、画像処理部に、
    クリップAVストリームファイルに格納されたメイン画像の色空間情報を、前記クリップAVストリームファイルに対応する属性情報記録ファイルであるクリップ情報ファイルから取得する処理と、
    メイン画像に重畳するサブ画像の色空間情報を、前記クリップ情報ファイル、または、別ファイルから取得する処理と、
    メイン画像とサブ画像の色空間が異なるか否かを判定する処理と、
    サブ画像の色空間がメイン画像の色空間と異なる場合に、サブ画像の色空間をメイン画像の色空間に一致させる色空間変換処理を実行して、メイン画像と同じ色空間を持つ重畳用画像信号を生成し、生成した重畳用画像信号をメイン画像に重畳して出力画像信号を生成する処理を実行させ、
    前記プログラムは、さらに、前記画像処理部に、
    メイン画像再生に利用するクリップAVストリームファイルが複数ある場合、
    メイン画像を格納したクリップAVストリームファイル単位で、サブ画像との色空間比較処理を実行させ、色空間が異なる場合にのみサブ画像の色空間変換を実行させるクリップAVストリームファイル単位のサブ画像色空間変換制御を行わせるプログラム。
JP2014093500A 2014-04-30 2014-04-30 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム Expired - Fee Related JP6379636B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014093500A JP6379636B2 (ja) 2014-04-30 2014-04-30 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム
CN201580021061.9A CN106233721A (zh) 2014-04-30 2015-04-20 信息处理设备、信息记录介质、图像处理方法以及程序
US15/127,922 US10504484B2 (en) 2014-04-30 2015-04-20 Information processing apparatus, information recording medium, image processing method, and program for converting a color space of an image
PCT/JP2015/002152 WO2015166644A1 (en) 2014-04-30 2015-04-20 Information processing apparatus, information recording medium, image processing method, and program
EP15721353.9A EP3097688A1 (en) 2014-04-30 2015-04-20 Information processing apparatus, information recording medium, image processing method, and program
TW104112703A TWI682382B (zh) 2014-04-30 2015-04-21 資訊處理裝置、資訊記錄媒體、影像處理方法及程式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014093500A JP6379636B2 (ja) 2014-04-30 2014-04-30 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2015211417A JP2015211417A (ja) 2015-11-24
JP6379636B2 true JP6379636B2 (ja) 2018-08-29

Family

ID=53059382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014093500A Expired - Fee Related JP6379636B2 (ja) 2014-04-30 2014-04-30 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US10504484B2 (ja)
EP (1) EP3097688A1 (ja)
JP (1) JP6379636B2 (ja)
CN (1) CN106233721A (ja)
TW (1) TWI682382B (ja)
WO (1) WO2015166644A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2977958A1 (en) * 2014-07-22 2016-01-27 Thomson Licensing Method and apparatus for processing image data
WO2017082175A1 (en) * 2015-11-12 2017-05-18 Sony Corporation Information processing apparatus, information recording medium, information processing method, and program
JP6872098B2 (ja) * 2015-11-12 2021-05-19 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US11252401B2 (en) 2017-08-07 2022-02-15 Dolby Laboratories Licensing Corporation Optically communicating display metadata
US11615763B2 (en) * 2020-11-05 2023-03-28 Samsung Electronics Co., Ltd. Color gamut compression and extension
CN115801976A (zh) * 2021-09-10 2023-03-14 北京字跳网络技术有限公司 视频处理方法、装置、设备及介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6034667A (en) * 1992-01-21 2000-03-07 Radius Inc. Method and apparatus for displaying YUV color information on a pseudo-color RGB display
JPH09298670A (ja) * 1996-04-30 1997-11-18 Canon Inc 画像処理装置及びその方法
JP3742167B2 (ja) * 1996-12-18 2006-02-01 株式会社東芝 画像表示制御装置
US6043804A (en) * 1997-03-21 2000-03-28 Alliance Semiconductor Corp. Color pixel format conversion incorporating color look-up table and post look-up arithmetic operation
US6903753B1 (en) * 2000-10-31 2005-06-07 Microsoft Corporation Compositing images from multiple sources
KR100517979B1 (ko) * 2002-12-10 2005-10-04 엘지전자 주식회사 이동 통신 단말기의 영상 오버레이 장치
JP2005130280A (ja) * 2003-10-24 2005-05-19 Canon Inc 画像処理システム、画像処理方法及びプログラム
JP4868749B2 (ja) * 2004-03-09 2012-02-01 オリンパス株式会社 表示制御装置及び表示制御方法
JP2006086728A (ja) * 2004-09-15 2006-03-30 Nec Viewtechnology Ltd 画像出力装置
CN102752638B (zh) 2005-07-18 2014-12-31 汤姆森许可贸易公司 使用元数据来处理多个视频流的方法和设备
CN101772961B (zh) * 2007-08-02 2012-07-11 索尼公司 图像处理装置
JP2009038682A (ja) * 2007-08-02 2009-02-19 Sony Corp 画像処理装置及び画像処理方法
US8917294B2 (en) * 2009-03-11 2014-12-23 Hewlett-Packard Development Company, L.P. Color space matching of video signals
JP5370761B2 (ja) 2009-04-10 2013-12-18 ソニー株式会社 映像信号処理装置および表示装置
DK2453661T3 (en) * 2009-07-10 2017-10-30 Panasonic Ip Man Co Ltd PLAYBACK, RECORDING PROCEDURE AND SYSTEM, INCLUDING A RECORDING MEDIUM AND PLAYBACK
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data

Also Published As

Publication number Publication date
TW201604863A (zh) 2016-02-01
US10504484B2 (en) 2019-12-10
TWI682382B (zh) 2020-01-11
US20170098427A1 (en) 2017-04-06
EP3097688A1 (en) 2016-11-30
WO2015166644A1 (en) 2015-11-05
JP2015211417A (ja) 2015-11-24
CN106233721A (zh) 2016-12-14

Similar Documents

Publication Publication Date Title
JP6379636B2 (ja) 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム
JP5684839B2 (ja) 三次元グラフィックスのデータの作成
JP6872098B2 (ja) 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US20160373712A1 (en) Reproduction device, reproduction method, and recording medium
JP6134076B2 (ja) 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5734282B2 (ja) ビデオデータ処理装置及び方法
JP6134075B2 (ja) 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP6241683B2 (ja) 再生装置、再生方法、および記録媒体
US8971692B2 (en) Information processing device, information processing method, and program
JP6255760B2 (ja) 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
CA2724869C (en) Information processing device, information processing method, and program
WO2016132836A1 (ja) 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP6536914B2 (ja) 再生装置、情報処理方法、およびプログラム
JP6703752B2 (ja) 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
WO2017082175A1 (en) Information processing apparatus, information recording medium, information processing method, and program
JP2016085769A (ja) 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP6583501B2 (ja) 再生装置、表示装置、情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180716

R151 Written notification of patent or utility model registration

Ref document number: 6379636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees