JP2011507416A - ビデオ処理を記述するための方法、装置および機械可読記録媒体 - Google Patents

ビデオ処理を記述するための方法、装置および機械可読記録媒体 Download PDF

Info

Publication number
JP2011507416A
JP2011507416A JP2010538296A JP2010538296A JP2011507416A JP 2011507416 A JP2011507416 A JP 2011507416A JP 2010538296 A JP2010538296 A JP 2010538296A JP 2010538296 A JP2010538296 A JP 2010538296A JP 2011507416 A JP2011507416 A JP 2011507416A
Authority
JP
Japan
Prior art keywords
video
metadata
processor
video data
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010538296A
Other languages
English (en)
Inventor
グレン デビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATI Technologies ULC
Original Assignee
ATI Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATI Technologies ULC filed Critical ATI Technologies ULC
Publication of JP2011507416A publication Critical patent/JP2011507416A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/083Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical and the horizontal blanking interval, e.g. MAC data signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0147Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation using an indication of film mode or an indication of a specific pattern, e.g. 3:2 pull-down pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Television Systems (AREA)
  • Picture Signal Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Receiver Circuits (AREA)

Abstract

上流のビデオプロセッサはビデオデータに対してビデオ処理を実行して処理されたビデオデータを作成する。ビデオ処理は色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、およびエッジエンハンスメントの少なくとも一つを含む。実行されたビデオ処理を示すメタデータも生成される。処理されたビデオデータ及びメタデータは下流のビデオプロセッサに受け渡され、メタデータは、もしあれば更なるビデオ処理を適用するかを決定するために用いられる。中間ビデオプロセッサはビデオデータとそれに対して上流のビデオプロセッサにより実行されたビデオ処理を示すメタデータとを受信する。受信したメタデータに基づき付加的なビデオ処理が実行され、付加的なビデオ処理を示す新たなメタデータが生成される。受信したメタデータ及び新たなメタデータから複合メタデータが生成され、処理されたビデオデータと共に下流のビデオプロセッサに受け渡され、もしあれば更なるビデオ処理を適用するかを決定するために用いられる。
【選択図】図7

Description

本発明は一般的にビデオ処理に関し、更に詳しくはビデオ処理を記述するための方法および装置に関するものである。
動画ビデオは典型的には所定のフレームレートで記録されあるいは符号化される。例えば、映画フィルムは通常24フレーム毎秒(fps)の固定レートで記録されている。一方、NTSC規格に従うテレビ受像機のための放送としてのビデオは30fpsで符号化される。欧州PAL又はSECAM規格に従うビデオ放送は25fpsで符号化される。
フレームレート間での変換が多くの課題を生み出してきている。ある一般的なフレームレート変換の技術は、フレームシーケンス内でのフレームの落とし(dropping)又は反復を伴う。例えば、テレシネ(telecine)変換(しばしば3:2プルダウンと称される)は、24fps動画ビデオを60フィールド毎秒(30fps)に変換するために用いられる。秒毎フレームは3ビデオフィールドをスパンする一方、他の秒毎フレームは2フィールドをスパンする。テレシネ変換は、例えば、チャールズ・ポイントン、デジタルビデオとHDTVアルゴリズムとインターフェース、(サンフランシスコ:モルガンカウフマンパブリッシャーズ、2002)(Charles Poynton, Digital Video and HDTV Algorithms and Interfaces, (San Francisco: Morgan Kaufmann Publishers, 2003))に詳しく、その内容は参照のためここに組み込まれる。
フレームレート変換のための他の様々な技術が、ジョン・ワトキンスン「技術者のための標準変換ガイド」、スネルとウィルコックス・ハンドブックシリーズ(John Watkinson "The Engineer's Guide to Standards Conversion", Snell and Wilcox Handbook Series)において論じられている。
もっと最近では、フレームレート変換は、フォーマット及び規格間の変換のためだけではなく、ビデオ品質全般を高めるためにも用いられてきている。例えば、従来のPALテレビ受像機につきものである認知可能なちらつきを低減するために、高フレームレート100フィールド毎秒(50fps)テレビ受像機が利用可能になっている。
将来的には、更に高いフレームレートが、より高品質なホームビデオを提供するための重要な要素になることであろう。しかしながら、既存のビデオは、そのような高いフレームレートをすぐに利用できるわけではない。そこで、フレームレート変換が必要になるであろう。そのような変換は、より高いレートのビデオを形成するために、受け入れたビデオを分析する必要性から少なくとも一部生じる多数の課題をリアルタイムで提示する。このことは、フレームレート変換と他のビデオ処理機能とが独立している現行のビデオ受信機では深刻になる。
ビデオ再生装置(例えばPC、DVD−ビデオプレーヤ、高密度HD−DVDプレーヤ、ブルーレイ(Blu-Ray)ディスクプレーヤ、又はセットトップボックス)内に見られるビデオプロセッサ等のビデオプロセッサは、ビデオ画像の見え方や品質を改善するためにビデオ信号に対して様々な種類のビデオ処理を適用することができる。例えば、あるビデオプロセッサは、色補正、ガンマ補正、コントラクト補正、鮮鋭度補正若しくはエッジ・エンハンスメント、又はこれらの組み合わせを適用することができる。適用されるビデオ処理は全体として又は部分的にユーザの好みに基いているであろう。一旦処理されたビデオ信号は、ディスプレイ装置(例えば液晶ディスプレイ(LCD)若しくはプラズマディスプレイ等のフラットパネルディスプレイ又はデジタルライトプロセシング(DLP)若しくは液晶オンシリコン(LCoS)ディスプレイ等のリアプロジェクションディスプレイ)等の下流のコンポーネントに受け渡されることがある。下流の装置は、上流のビデオプロセッサが実行可能なのと同様なビデオ処理の幾つか又はすべてを場合によっては上流のビデオプロセッサで不可能な更なるビデオ処理と共に実行可能なビデオプロセッサを有していてよい。しかしながら、上流及び下流のビデオプロセッサが独立して機能していることを考慮すると、下流のビデオプロセッサは、もしあればどの更なるビデオ処理を実行すべきかについて確定することが困難であるかもしれない。
上述した欠点の少なくとも一部を未然に防ぎ又は軽減する解決方法が要望されている。
一つの側面によると、ビデオプロセッサにおいて、処理されたビデオデータを作成するビデオ処理をビデオデータに対して実行するステップと、前記処理されたビデオデータと前記実行されたビデオ処理を示す生成されたメタデータとを下流のビデオプロセッサに受け渡すステップとを含む方法が提供される。
他の側面によると、ビデオプロセッサにおいて、ビデオデータを受信するステップと、上流のビデオプロセッサによって前記ビデオデータに対して実行されたビデオ処理を示すメタデータを受信するステップと、前記メタデータに基づいて更なるビデオ処理がもしあればそれを前記ビデオデータに適用することを決定するステップとを含む方法が提供される。
他の側面によると、中間ビデオプロセッサにおいて、ビデオデータを受信するステップと、上流のビデオプロセッサにより前記ビデオデータに対して先に実行されたビデオ処理を示すメタデータを受信するステップと、前記受信したメタデータに基づいて、付加的なビデオ処理を前記ビデオデータに対して実行し、処理されたビデオデータを作成するステップと、前記処理されたビデオデータと前記受信したメタデータ及び前記実行された付加的な処理を示す新たなメタデータに基づく複合メタデータとを下流のビデオプロセッサに受け渡すステップとを含む方法が提供される。
他の側面によると、プロセッサにより実行されたときに、処理されたビデオデータを作成するビデオ処理をビデオデータに対して実行するステップと、前記処理されたビデオデータと前記実行されたビデオ処理を示す生成されたメタデータとを下流のビデオプロセッサに受け渡すステップとを前記プロセッサに実行させる命令を記憶している機械可読記録媒体が提供される。
他の側面によると、プロセッサにより実行されたときに、ビデオデータを受信するステップと、上流のビデオプロセッサによって前記ビデオデータに対して実行されたビデオ処理を示すメタデータを受信するステップと、前記メタデータに基づいて更なるビデオ処理がもしあればそれを前記ビデオデータに適用することを決定するステップとを前記プロセッサに実行させる命令を記憶している機械可読記録媒体が提供される。
他の側面によると、プロセッサにより実行されたときに、ビデオデータを受信するステップと、上流のビデオプロセッサにより前記ビデオデータに対して先に実行されたビデオ処理を示すメタデータを受信するステップと、前記受信したメタデータに基づいて、付加的なビデオ処理を前記ビデオデータに対して実行し、処理されたビデオデータを作成するステップと、前記処理されたビデオデータと前記受信したメタデータおよび前記実行された付加的なビデオ処理を示す新たなメタデータに基づく複合メタデータとを下流のビデオプロセッサに受け渡すステップとを前記プロセッサに実行させる命令を記憶している機械可読記録媒体が提供される。
他の側面によると、処理されたビデオデータを作成するビデオ処理をビデオデータに対して実行するための少なくとも一つの機能ブロックと、前記実行されたビデオ処理を示すメタデータを生成し前記処理されたビデオデータと共に下流のビデオプロセッサに受け渡すためのメタデータフォーマッタとを備えたビデオプロセッサが提供される。
他の側面によると、ビデオデータを受信するためのバッファと、上流のビデオプロセッサによって前記ビデオデータに対して実行されたビデオ処理を示す受信したメタデータを復号化するためのメタデータ復号器と、更なるビデオ処理を前記ビデオデータに対して実行するための少なくとも一つの機能ブロックとを備え、前記更なるビデオ処理は少なくとも一部を前記メタデータにより決定されるビデオプロセッサが提供される。
他の側面によると、ビデオデータを受信するためのバッファと、上流のビデオプロセッサにより前記ビデオデータに対して先に実行されたビデオ処理を示す受信したメタデータを復号化するためのメタデータ復号器と、前記メタデータに基いて決定され、処理されたビデオデータを作成する更なるビデオ処理を前記ビデオデータに対して実行するための少なくとも一つの機能ブロックと、複合メタデータを生成し前記処理されたビデオデータとともに下流のビデオプロセッサに受け渡すためのメタデータフォーマッタとを備え、前記複合メタデータは前記受信したメタデータと前記実行された付加的なビデオ処理を示す新たなメタデータとに基づいている中間ビデオプロセッサが提供される。
本開示の更に他の側面及び特徴は、以下の具体的な実施形態の記述を添付図面と共に精査することにより、当業者に明らかなものとなるであろう。
本発明の実施形態を例示のみを目的として示す図面において:
ビデオ受信機の例を示す簡略化された概略ブロック図。 図1の装置の一部をなすビデオ復号器の簡略化された概略ブロック図。 図1の装置の一部をなすビデオプロセッサの簡略化された概略ブロック図。 図1の装置の一部をなすフレームレート変換器の簡略化された概略ブロック図。 フレームレート変換出力、符号化/処理された出力、及び元のビデオソースにおけるフレームを概略的に示す図。 符号化フレームシーケンスからのフレームレート変換されたビデオ出力におけるモーションを3:2プルダウンパターンとして示すモーショングラフ。 ビデオ受信機の代替例を示す簡略化された概略ブロック図。 図7の装置の一部をなすビデオプロセッサの簡略化された概略ブロック図。 図7の装置の一部をなすもう一つのビデオプロセッサの簡略化された概略ブロック図。 図8のビデオプロセッサの動作を示すフローチャート。 図9のビデオプロセッサの動作を示すフローチャート。 例示的なシステムの簡略化された概略ブロック図。 図12のシステム内の中間装置におけるビデオプロセッサの簡略化された概略ブロック図。 図13のビデオプロセッサの動作を示すフローチャート。
図1は例示的なビデオ受信機10の概略ブロック図である。図示されるように、ビデオ受信機10は、ビデオ復号器12と、ビデオプロセッサ14と、フレームレート変換器(FRC)16と、ディスプレイインタフェース18とを含む。ビデオ受信機10は、セットトップボックス、衛星放送受信機、地上波放送受信機、メディアプレーヤ(例えばDVD−ビデオプレーヤ)、メディア受信機、又は同種のものの形態であってよい。受信機10(又はその一部分)は、ディスプレイ装置、例えば、フラットパネルテレビ受像機、コンピュータモニタ、ポータブルテレビ受像機、携帯型装置(個人用デジタル補助器、携帯電話機、ビデオプレーヤ等)、又は同種のものにおいて随意的に一体化されていてよい。
受信機10は、カスタムハードウエアの形態であってよく、あるいはソフトウエア制御下でのカスタムハードウエアと汎用コンピュータハードウエアとの組み合わせであってよい。
以下明らかになるように、ビデオ受信機10は、ビデオ放送、デジタルビデオストリーム又は同種のものの形態にあるビデオを受信する。続いて復号器12は、受信したビデオを復号化してビデオフィールド又はフレームを形成する。ビデオプロセッサ14は、復号化されたフィールド又はフレームを処理して、受信したビデオについてスケーリング、デ・インターレーシングその他の操作を行う。FRC16は、復号化されたビデオのフレームレートとは異なる所望のフレームレートでビデオを生成するために、処理されたビデオのフレームレートを変換する。結果としてのより高いレートのフレームは、ディスプレイインタフェース18によって鑑賞のためにディスプレイ20上に提示される。ディスプレイインタフェース18は、FRC16により生成されたフレームビデオを抽出しあるいは受信して、表示のための画像を提示することができる。
ディスプレイインタフェース18は、例えば、標準的なランダムアクセスメモリデジタルアナログ変換器(RAMDAC)、VGA、S−ビデオ、コンポジットビデオ(CVBS)、コンポーネントビデオ、HDMI(商標)、DVI若しくはディスプレイポート(DisplayPort)(登録商標)規格に適合するシングルエンド若しくは差動の送信機、又はディスプレイ20上でのアナログ若しくはデジタルでの表示のためにデータを変換するのに好適なあらゆる他のインタフェースの形態であってよい。
ビデオが復号化されビデオプロセッサ14により処理されつつ、受信したビデオのフレームレート変換を実行するに際してのFRC16による使用に適したビデオ属性情報が抽出されてよい。属性情報はビデオプロセッサ14からFRC16へと下流に受け渡される。図示された実施形態では、二つの別個のチャネル22、24がビデオデータ及び属性情報をビデオプロセッサ14からFRC16に受け渡すために用いられてよい。FRC16は、次いで、受信した属性情報を用い、そして同一のあるいは類似の属性情報を得る(例えば抽出する、決定する、計算する等)ために、復号化されたビデオフレームを解析する必要はない。
より具体的には、ビデオ復号器12は受信したビデオ信号を画素値のストリームに復号化する。ビデオ復号器12に到着するビデオ信号は、あらゆる従来からのソース、例えば衛星、あるいはケーブルテレビチャネル、地上波放送チャネル、ローカルビデオアーカイブ又はDVD−ビデオプレーヤ等の周辺機器からのものであってよい。ビデオ信号はアナログ又はデジタルであってよい。従って、ビデオ復号器12は、数あるビデオ符号化/圧縮規格のうちのいずれか、例えば、MPEG、MPEG2、MPEG4、divX、ITU推奨ITU−H.264、HDMI(商標)、ATSC、PAL若しくはNTSCテレビ放送、デジタルビデオ(例えばITU BT.601)又は同種のものに適合する標準的なビデオ復号器の形態であってよい。
説明の容易化のため、例示的なビデオ復号器12はMPEG適合復号器として図2に示されており、従って、ビデオ復号器12は、標準的なMPEG復号器において見られ当業者に知られているように、受信したビデオストリームを構文解析するための構文解析器(parser)30と、可変長復号器(VLD)32と、モーション補償ブロック(MC)34と、ランレングス(run length)復号器及び逆量子化(inverse quantization)(RL&IQ)ブロック36と、逆離散的コサイン変換ブロック(IDCT)38と、画像再構成ブロック40と、フレーム/フィールドを記憶するためのメモリ42とを含む。復号器12はリンク26を経由してビデオプロセッサ14と通信する。リンク26はシリアル又はパラレルリンクであってよい。
ビデオプロセッサ14の例は図3に描かれている。図示されるように、ビデオプロセッサ14は、ビデオ復号器12から受信した画素値をバッファリングするためにメモリ58内に少なくとも一つのバッファを含む。例示的なビデオプロセッサ14は、ビデオを処理するための幾つかの機能ブロックを含む。各ブロックは単一の機能を実行することができる。ビデオプロセッサ14の例は、スケーラ(scaler)50と、デ・インターレーサ(de-interlacer)52と、色空間変換器54と、イフェクツ/オーバレイエンジン(effects/overlay engine)56と、ノイズ抑制ブロック48とを含む。当業者であれば、ビデオプロセッサ14が特に図示されていない付加的な機能ブロックを含んでよいことは容易に理解するであろう。
内部バス60はスケーラ50、デ・インターレーサ52、色空間変換器54、イフェクツ/オーバレイエンジン56、及びメモリ58を相互接続する。幾つかの実施形態では、それら構成部品を多重化内部バスが相互接続してよい。
属性フォーマッタ62が更にビデオプロセッサ14の他の機能ブロックと通信する。属性フォーマッタ62は、スケーラ50、デ・インターレーサ52、色変換器54、イフェクツ/オーバレイエンジン56、及びノイズ抑制器48からビデオ属性情報を受信する。更なるチャネル符号器64は、属性フォーマッタ62によりフォーマットされたようにして属性データを更にフォーマットし、チャネル24を介してFRC16(図1)へ送信する。
図4には、FRC16の例が更に詳しく描かれている。図示されるように、FRC16の例は、バッファ66と、フレームレート変換を可能にするためにバッファ66内でフレームを補間する補間器70とを含む。バッファ66は、補間器70により組み合わされることになる複数のシーケンシャルフレームを記憶するために用いられる先入れ先出しフレームバッファ又はリングバッファであってよい。バッファ66は、例えば4つのシーケンシャルフレームFを補間のために記憶することができる。フレームレート変換器16は、更に、チャネル符号器64及び属性符号器62に対して相補的となるチャネル復号器74及び属性復号器68を含む。
補間器70は、バッファ66内のフレームを補間するように機能し、スケーリングファクタSCALE_FREQUを乗じて、バッファ66での到着フレームの周波数に等しいフレームレート(周波数)で出力フレームを形成する。クロック信号(CLK)は、フレームの到着のタイミングを計ると共に、FRC16がそれを受け継いで結果としてのフレームレートを導き出すことを可能にする。FRC16が各受信したフレームに対して二つ以上のフレームを生成するとき、補間器70は、バッファ66内にバッファリングされたフレーム間のモーションを表す補間フレーム(interpolated frames)を形成するように機能する。そのようなモーション補償補間は、バッファ66における二つ以上の入力フレームからフレームレート変換器16によって実行される。
補間器70により実行されてよいモーション補償/補間技術は、一般的には、キース・ジャック、ビデオ、2005、デミスティファイド(デジタル技術者のためのハンドブック)、第4版(Keith Jack, Video, 2005, Demystified (A handbook for the Digital Engineer), 4th ed.)、及びワトキンスン、ジョン、標準的変換への技術者ガイド、スネルとウィルコックスハンドブックシリーズ(Watkinson, John, The Engineer's Guide to Standards Conversion, Snell and Wilcox Handbook Series (http://www.snellwilcox.com/community/knowledge center/engineering/estandard.pdf))において論じられており、両者の内容は本願に参照のため組み入れられ、更に具体的には本願発明者の名による米国特許出願番号11/616,192において論じられている。
明確化のため、ここで説明されるように、バッファされたフレーム(例えばビデオプロセッサ14により出力される復号化されたフレーム)はフレームF,F,F,…,Fとして参照され、一方ビデオソースにおける固有フレームはフレームS,S,S,…として参照される。このように、例えば、24fpsソースは、ソースフレームS,S,S,S…を有していてよく、そして、ビデオ復号器12によってフィールド又はフレームとして復号化及び/又は再構成されることとなり、次いで必要とあればビデオプロセッサ14によりデ・インターレーシングされてソースフレーム{S,S,S,S,S,S,S,S,S,S,…}に対応するフレーム{F,F,F,F,F,F,F,F,F,F,…}(60fpsでの)を形成することとなるテレシネフォーマットに変換されたものであってよい。テレシネ変換されたフレームF,F,…又はフィールドは、アナログ(例えばNTSC)フォーマット又はデジタルフォーマット(例えばMPEGストリーム等)で、DVD等の記録媒体に記憶されていてよく、地上波、衛星若しくはCATV放送技術を用いて放送されてよく、又は他の方法で提供されてよい。ここで詳しく説明されるように、変換されたフレームレートの出力フレームは、順にフレームf,f,f,…,fとして参照されてよく、フレームF,F,…から形成されたものであってよい。このことは模式的に図5に示されている。
また、ここで補間フレームはl{S,Sj+1,l/m}と表される。この表記は、SからSj+1への分数l/mモーションを表すように補間された、結果としてのモーション補間フレームを表し、元のフレームS,Sj+1間の中間フレームを意味している。例えば、補間フレームl{S,Sj+1,1/2}は、S及びSj+1の真ん中のモーションを表すように形成されたフレームである。このようなモーション補間は、フレームレート変換器16によってバッファ66内の二つの入力フレームから実行することができる。
図6は復号化/処理されたビデオフレーム及びフレームレート変換されたフレームを表現するグラフである。復号化/処理されたビデオフレームは点線に沿って示されており、補間されたビデオフレームは実線に沿って示されている。復号化/処理されたビデオフレームは円で表されており、一方、補間フレームは三角形で表されている。
すぐに理解されるであろうように、復号化/処理されたフレーム間の補間の程度は、どのフレームが補間器により補間されることになるのかと同様、復号化/処理されたビデオフレームFの律動(cadence)に依存している。例えば、3:2プルダウンパターン且つ周波数スケーリングレートが2(SCALE_FREQU=2)の場合には、補間器70は、各補間されたフレームのモーションを1/5前進させ、2:2プルダウンの場合には1/4前進させ、プルダウン無しの場合には1/2前進させる。
図6はビデオプロセッサ14による出力としてのフレームシーケンスの例におけるモーションを示している。より具体的には、図6はビデオプロセッサ14から出力されたフレームシーケンス例F,F,F,F,…の動きを示している。描かれたフレームシーケンスは、3:2プルダウンソースに由来しており、典型的には24フレーム毎秒(ソースフレームS,S,S,S…と示される)からインターレーシングされた60フィールド毎秒へ、更に60fpsフレームへの変換に起因するものである。従って、元の(映画)ソースにおける各秒フレームは2回サンプリングされる一方で、元のソースにおける一つおきの秒フレームは3回サンプリングされる。結果としてのフレームF,F,F,Fは、インターレーシングされたフィールドをデ・インターレーシングすることにより形成されるような3:2プルダウンパターンを示す。
結果としてのフレームシーケンスは、第3、第5、第8、第10等の復号化フレームの後だけのモーションに付随するぎこちない動き(「ジャダ(judder)」と称される)を示している。このジャダは、ビデオソースの律動には計上されないフレームレート変換の後にも残存する。
知覚可能なジャダを除去しあるいは低減するために、フレームレート変換器16は、隣り合うソースフレームを補間して、レート変換されたフレームシーケンスを形成する。
動作においては、ビデオストリームはビデオ復号器12により受信され、ビデオ復号器12は、次いでストリームを構文解析して所定の解像度を有する一連のフィールド又はフレームを形成する。一連のフィールド又はフレームは、画素ストリームとしてビデオプロセッサ14に供給される。復号化されたビデオのフォーマットは、典型的には符号化されたビデオのフォーマットによって決定されている。例えば、水平、垂直解像度;アスペクト比;色フォーマット;ビデオがフレーム又はフィールドとして供給されるか否かは、ビデオ符号化の時点で決定されている。
ビデオプロセッサ14では、スケーラ50、デ・インターレーサ52、色変換器54、及びオーバレイエンジン56が標準的な方法で動作し、出力ビデオのフレームを提供する。ビデオの処理に際して、スケーラ50、デ・インターレーサ52、色変換器54及びオーバレイエンジン56は、ビデオ属性データを抽出及び/又は創出する。スケーラ50、デ・インターレーサ52、色変換器54、及びオーバレイエンジン56の動作の順序は重要でなく、設計目的に基いて異なっていてよい。
例えば、スケーラ50は、復号化されたビデオを所望のサイズ及びアスペクト比に拡大縮小することができる。そのために、スケーラ50は、受信したフレームに対して随意的に別の解析を行って、受信したビデオのいずれかの領域が陰線(black bars)やビデオの周波数成分等を含むか否かを評価してよい。当該属性は、更に、復号化されたビデオをスケーラ50によって拡大縮小するために用いることができる。例えば、復号化されたフレームの周波数成分は、ヒストグラムを表すデータとして提供されてよく;マット化(matted)された(例えば文字用スペース(letter box))ビデオ画像の開始及び終了の行及び/又は列が提供されてよい。ビデオ復号器12から受信された属性データ及びスケーラ50により形成された属性データを含む属性データは、下流の属性フォーマッタ62に同じように受け渡される。
同様に、デ・インターレーサ52は、先ず受信したビデオフィールドのシーケンスを解析してそれらの律動を決定することによって、ビデオのインターレーシングされたフィールドをフレームに変換するために用いることができ、その例は米国特許出願番号10/837,835及び11/381,254に詳しい。当該律動情報を用いて、受信したフィールドをデ・インターレーサによって組み合わせて、デ・インターレーシングされたビデオのフレームを形成することができる。ビデオフィールドは、フレームを形成するために、例えば、ボブされ(bobbed)及び/又はウイーブされ(weaved)てよい。ビデオの一つのフレームが各二つのフィールドに対して形成されるので、フレームシーケンスの律動はフィールドシーケンスの律動を継続して反映するであろう。このことは、例えば、既に参照した米国特許出願番号11/616,192に詳しい。デ・インターレーサ52によって検出されたような律動情報は、属性フォーマッタ62に供給される。律動情報は、例えば、デ・インターレーサ52によって決定されたような律動を識別する数ビットを含んでいてよい。検出された律動の例は、3:2プルダウンパターン、2:2プルダウンパターン、3:3プルダウンパターン、又は同種のものを含むであろう。同様に、律動の不在(即ち律動無し)もまた属性フォーマッタ62に信号伝達されてよい。随意的には、画面変更(scene change)はデ・インターレーサによって属性フォーマッタ62に信号伝達されてよい。
また、色空間変換器54は、受信したビデオフィールド/フレームの色空間を所望の色空間に変換することができる。結果としての色空間を表すデータもまた、下流の属性フォーマッタ62に受け渡されてよい。同様にして、ビデオにおいてルマ(luma)又はガンマ(gamma)を表す指標等(例えばルマ分布のヒストグラム、ガンマ情報、その他としての)を表すデータも、色空間変換器54から属性フォーマッタ62に信号伝達されてよい。
オーバレイ/イフェクツエンジン56は、受信したビデオフィールド/フレームをフォーマットして、例としては、ピクチャー・イン・ピクチャー;ピクチャー・オン・ピクチャー;又は静止画像(例えばTVガイド等)との連結といった特定のフォーマットでビデオを提示する。属性フォーマッタ62は、各画像の座標や;各オーバレイの種類(例えば、コンピュータ生成、ビデオ、静止、映像等)を記述しているコンテキスト情報をオーバレイ/イフェクツエンジン56から受信することができる。
ノイズ抑制ブロック48は、受信したビデオをフィルタリングしてノイズ及び/又はアーティファクト欠陥(artifacts)を除去することができる。属性フォーマッタ62は、ノイズレベル、信号の種類、信号レベル等に関する情報をノイズ抑制ブロック48から受信することができる。
このように、属性フォーマッタ62は、他の機能ブロック、例えば、スケーラ50、デ・インターレーサ52、色変換器54、オーバレイエンジン56、及びノイズ抑制ブロック48からのビデオ属性を受信する。属性フォーマッタ62は、受信したビデオ属性がチャネル24上で符号化されて下流のFRC16に確実に受け渡されるように、それらを適切なフォーマットで形式を整えることができる。
属性フォーマッタ62は、適切なフォーマットで属性データの形式を整え、プロセッサ14で生成されたビデオフレームに添付する。例えば、各フレームに対して、属性フォーマッタ62は、当該フレームについての属性を符号化し、この情報をパケット化することができる。各パケットの実際のフォーマットはやや任意である。パケットは属性情報を表すビット又はバイトの形態をとっていてよい。あるいはまた、パケットは、興味の対象となっている属性を特定するテキストデータを含んでいてよく、又はXMLのようなフォーマット言語を用いてフォーマットされていてよい。代替的には、属性フォーマッタ62は、ITU推奨ITU−BT.1364−1、又は当業者に理解される他の方法に従って属性データをフォーマットすることができる。
いずれにしても、属性フォーマッタ62によりフォーマットされた属性データは、下流のチャネル符号器64に受け渡される。チャネル符号器64は、符号化されたデータがビデオプロセッサ14から出力されたフレームと引き続き同期するような方法で、補助チャネルにおいて属性データを符号化する。補助チャネルは任意の形態をとっていてよい。例えば、属性データは、別個の物理的リンクによって提供されることのある専用チャネル、又はビデオ若しくは他のデータと多重化されることのある専用チャネルを介して受け渡すことができる。属性データの一つ又は二つ以上のパケットが各フレームと共に生成されてよい。チャネル符号器64はマルチプレクサを含み、属性チャネルをフォーマットし、それをビデオデータと共に多重化し、ビデオデータの使用されていない部分(例えば垂直ブランク又は水平ブランクインターバル)等を占めるようにすることができる。同様に、チャネル符号器64は、何らかの方法でビデオデータと同期したデータを伝送可能な別個の物理的チャネルを符号化することができる。例えば、そのチャネルは、同期ストリームであってよく、あるいは各フレームと共に送信されたパケットの非同期伝送であってよい。
FRC16では、ビデオプロセッサ14からのビデオデータはバッファ66においてバッファリングされ、属性データはチャネル復号器74及び属性抽出器68によって属性チャネルから抽出される。結果としての属性情報は、補間器70に供給されてよく、随意的に律動検出器72に供給されてよい。
もし受け入れたフレームシーケンスについての律動情報を属性情報が含んでいれば、律動検出器72は機能しなくてよく、あるいはそこで生成された律動データは無視されてよい。一方、補助データがビデオについての律動情報を含んでいなければ、律動検出器72は、既出の米国特許出願11/616,192に詳述されているようにして、バッファ66にバッファリングされたフレームから律動情報を決定することができる。律動検出器72により決定された律動情報は、ある特定のフレームがバッファリングされた後にのみ決定可能であり、従ってビデオプロセッサ14から利用可能な律動情報を1フレーム分だけ遅れさせることがある。
好都合にも、属性抽出器68により抽出された他の属性データは、FRC16の動作パラメータを調整して補間を向上させるために、FRC16で用いることができる。例えば、オーバレイコンテキスト属性データは、FRCによってオーバレイ領域を独立して処理するために用いられてよい。ルマ(Luma)情報は、補間フレームをプリ・フィルタリングする(pre-filter)ために用いることができる(例えば、場面はそれらの暗さに基づいて異なるようにフィルタリングされてよい)。ガンマ情報は、最初にデ・ガンマ(de-gamma)を、次いでリ・ガンマ(re-gamma)を行うために用いることができる。ビデオについての周波数情報は、FRC16のフィルター及びFRC16の感度を調整しあるいは選択するために用いることができる。ノイズの種類及び信号レベルを反映する情報は、同様にフィルター及びFRC16の感度を調節するために用いることができる。FRC16による属性データの他の用途は、当業者に容易に明らかになるであろう。
特に、FRC16には、元のソースフレームからモーション補償された補間フレームを生成して補間を行うために、ビデオプロセッサ14によるプルダウンパターンの識別器が設けられている。正確に補間するために、律動インジケータを用いて、ソースにおいて異なるフレーム(繰り返されたフレームとは対照的に)を補間することができ、また、補間パラメータ(例えば補間フレームから補間フレームへの所望の分数モーション(fractional motion))を調節することができる。
図6は、フレームシーケンスF,F,F…に基きフレームレート変換器16により出力された所望の出力フレームシーケンスf,f,f,f…におけるモーションを示している。図6においては、モーションはフレーム番号の関数として図示されている。図示された例では、フレームレート変換器16はフレームレートを2倍にする(即ちSCALE_FREQU=2)。ビデオプロセッサ14により当初生成されたのより多くのフレームがフレームレート変換器16により出力されるので、フレームレート変換器16の補間器70(図2)は、標準的なモーション補償技術を用いて、その高いレートでの提示のためのフレームを生成している。図示された実施形態では、各補間フレームfはビデオプロセッサ14により出力されたフレームFに一致していているか、あるいは復号化されたフレームシーケンスにおける二つの隣り合うソースフレーム(例えばS,Si+1)から形成されている。勿論、補間フレームを生成するに際して二つよりも多くの隣り合うソースフレームが用いられてもよい。
図示された例では、モーション補償が実行されて、比較的に円滑なモーションが生成され、そしてジャダが減少している。モーションは、フレームf,f,f,fの各々の間の等しい動き等で線形的に補間される。シーケンシャルなソースフレームSは等しい時間間隔で復号化されてはいないから、任意の線形的に補間されたシーケンスf,f,f,f…は、ビデオプロセッサ14により同時に復号化されるときに、ソースにおけるフレームS,S,…に対応するフレームを典型的には含まないであろう。
特に、f,f,f,及びfがF(あるいは等価のフレームF又はF)及びFの補間(即ちソースフレームS及びSに基く補間)から算出されるとき、f=Fである。各補間されたフレームf,f,f,及びfは、FからFに(即ち元のソースのフレームSからフレームSに)モーションを進める。出力フレームfは元のソースフレームS(即ちフレームF/F)である。出力フレームf及びfは同様にして復号器フレームF/F及びF(ソースフレームS及びSに対応)から算出される。
3:2プルダウンパターンの場合、FRC16は、最大で3フレーム離れているバッファリングされたフレーム(即ちF及びF;F及びF)に頼り、FRC16は少なくともこの何フレームかの処理遅延を導入するであろう。このように、fはFの復号化より先には生成されない。同様にして、fはFの復号化より先には生成されず;f11はFの復号化より先には生成されない。
さて、3:2プルダウンで周波数スケーリングが2である場合、理想的には10の出力フレームが5つ(3+2)のバッファリングされたフレーム毎に対して生成される。このこともまた図6から明らかである。結果としてのフレームf,f,f,f,f,f…f10は、S,l{S,S,1/5},l{S,S,2/5},l{S,S,3/5},l{S,S,4/5},S,l{S,S,1/5},l{S,S,2/5},l{S,S,3/5},l{S,S,4/5},Sに対応する。
対照的に、2:2プルダウンソースに対する結果としてのフレームパターンf,f,f,f…f10は、S,l{S,S,1/4},l{S,S,1/2},l{S,S,3/4},S,l{S,S,1/4},l{S,S,1/2},l{S,S,3/4},S,l{S,S,1/4},l{S,S,1/2}…に対応することとなろう。即ち、4つの出力フレームがバッファリングされたフレーム毎に対して生成される。
同様にして、プルダウンパターン無しに対する結果としてのフレームパターン(即ちインターレーシングされたビデオに由来)は、S,l{S,S,1/2},S,l{S,S,1/2},S,l{S,S,1/2}…に対応することとなろう。即ち、2つの出力フレームがバッファリングされたフレーム毎に対して生成される。
言うまでもなく、復号化されたフレームFの律動に応じてバッファ66内でのソースフレームSの記憶場所は変わってよい。
標準的には、属性データは、ビデオプロセッサ14により受信されたような処理されたフレームと一緒に利用可能である。従って、FRC16は、供給された属性データに対して即座に反応することができる。例えば、ビデオプロセッサ14により供給されたビデオの律動が変化するにつれて、FRC16で用いられる補間パラメータは調整されてよい。このように、認識されたプルダウンパターンから律動無しへの変化が検出されてすぐに、補間は、ソースフレームS,l{S,S,1/2},S,l{S,S,1/2},S,l{S,S,1/2}…に対応する補間フレームの形成を進めてよい。
理解されるであろうように、FRC16に対して提供された属性データは、ビデオプロセッサ14に由来している必要はない。その代わりに、属性データは、FRC16の上流のどこか別の場所に由来していてよい。例えば、付加的な属性データあるいは既述した幾つかの属性データはビデオ復号器12によって得られたものでよい。実例としては、モーションベクトルデータは、復号器12を構成するのに用いられた任意のMPEG又は同様な復号器によって抽出されてよく;ソース及び/又はある種の復号化されたビデオ(CVBS、コンポーネント、デジタル、プログレッシブ、インターレーシングされた、VGA)は、属性データとして通過させられてよい。更に、FRC16の上流側で利用可能な他の属性データは、当業者にとって明らかであろう。
また、ビデオ受信機は復号器12を含む必要がないことも理解されるべきである。代替的には、外部ソースからの復号化されたビデオが、ビデオプロセッサ14、フレームレート変換器16、及び随意的なディスプレイインタフェース18のみを含む例示的なビデオ装置に供給されてよい。
同様に、ビデオプロセッサ14及びFRC16は異なる物理的デバイス内で構成されていてよい。例えば、ビデオプロセッサ14はビデオ受信機、ビデオプレーヤ、専用ビデオプロセッサ、又は同種のものの一部を構成していてよく、一方、FRC16はフラットパネルディスプレイ等のディスプレイ装置の一部を構成していてよい。そして、ビデオプロセッサ14及びFRC16間のリンクは、ビデオ相互接続規格、例えばDVI、HDMI(商標)又はディスプレイポート(登録商標)規格に適合する物理的リンクであってよい。従って、チャネル22及び24は相互接続により提供されてよい。例えば、チャネル22及び24はHDMI(商標)相互接続上で提供される。
更に、属性データは、同期的に提供されるものとして説明されてきたが、ビデオプロセッサ14でバッファリングされてもよく、FRC16又はなんらかの他のプロセッサ(例えばホストプロセッサ)によってビデオプロセッサ14から抽出され又は引き出されてよい。従って、ビデオプロセッサ14は、属性データを記憶するのに十分な記憶メモリを備えていてよく、データにクエリーを行う(querying the data)ための適切なインタフェース(例えばソフトウエアアプリケーションプログラマインタフェース(API))を提供してよい。随意的には、ビデオプロセッサ14は幾つかのフレームに対して属性データをバッファリングしてよい。属性データは次いで要求に応じてクエリーされる。
図7はビデオソース及びビデオシンクを含むシステム700の簡略化された概略ブロック図であり、代替的な実施形態を例示している。例示的なビデオソースはプレーヤ装置702であり、例示的なビデオシンクはディスプレイ装置704である。プレーヤ装置702は、例えば、PC、DVD−ビデオプレーヤ、HD−DVDプレーヤ、ブルーレイディスクプレーヤ、又はセットトップボックスであってよい。ディスプレイ装置704は、アナログ又はデジタル装置であることのあるモニタ又はテレビ受像機、例えば、陰極線管(CRT)、液晶ディスプレイ(LCD)若しくはプラズマディスプレイ等のフラットパネルディスプレイ、又はデジタルライトプロセシング(DLP)若しくは液晶オンシリコン(LCoS)ディスプレイ等のリアプロジェクションディスプレイであってよい。図示された実施形態においては、二つの装置は、ビデオ相互接続規格、例えば、DVI、HDMI(商標)、ディスプレイポート(Display Port)(登録商標)、オープンLVDSディスプレイインタフェース(Open LVDS Display Interface)(OpenLDI)、又はギガビットビデオインタフェース(Gigabit Video Interface)(GVIF)規格に適合する物理的リンクにより相互接続されていてよい。幾つかの実施形態では、インタフェースは専用信号プロトコルによって統制されていてよい。装置702及び704は、例えば家庭用娯楽システムのコンポーネントであってよい。
図7に示されるように、プレーヤ702はビデオプロセッサ706及びビデオインタフェース送信機709を含む。プレーヤ702の種類に応じて、プレーヤは例えば復号器及びフレーム変換器等の他の構成部品を更に含んでもよいが、明瞭のためビデオプロセッサ及びビデオインタフェース送信機のみが図7に示されている。
ビデオプロセッサ706は、ビデオデータ708を受信し、以下に説明するような種々の処理をビデオデータに対して実行してビデオ画像の見え方や質を向上させる。受信したビデオデータ708は、例えば入力ビデオ信号に基いてプレーヤ702の復号器構成部品(図示せず)が復号化して出力した復号化されたビデオ信号(例えば画素値のストリーム)であってよい。復号器構成部品は図1のビデオ復号器と同様なものであってよい。復号器により受信された入力ビデオ信号は、あらゆる従来からのソース、例えば衛星、あるいはケーブルテレビ放送チャネル、地上波放送チャネル、ローカルビデオアーカイブ又はメモリ、ハードディスク若しくは光学ディスクのような記憶媒体に由来していてよい。ビデオ信号はアナログ又はディジタルであってよい。ビデオプロセッサ706は二つの出力、即ち処理されたビデオデータ710及びメタデータ712を有する。処理されたビデオ710はビデオプロセッサ706によるビデオ処理の適用後のビデオデータ708である。メタデータ712はビデオプロセッサ706により適用されたビデオ処理についての情報である。ビデオプロセッサ706の詳細については後で説明する。
ビデオインタフェース送信機709は、処理されたビデオデータ710及びメタデータ712を受信し、それらをビデオプレーヤ装置702及びビデオディスプレイ装置704間の物理的リンクを介した伝送に適したフォーマットに符号化する。符号化されたビデオデータ710’及び符号化されたメタデータ712’の具体的なフォーマットは、装置702及び704間の物理的リンク(有線又は無線の物理的リンクであってよい)で有効に動作しているビデオ相互接続規格に依存する。例えば、有効なビデオ相互接続規格がDVI又はHDMI(商標)であれば、伝送最小化差動信号(Transmission Minimized Differential Signaling)(TMDS)プロトコルを用いることができる。符号化されたビデオデータ710’及び符号化されたメタデータ712’はリンクにおいて同一のチャネル又は異なるチャネルを占めていてよい。もし同一のチャネルが用いられていれば、符号化されたメタデータ712’は、例えばビデオデータストリームの使用されていない部分(例えば垂直又は水平ブランクインターバル)を占めるように、符号化されたビデオ710’と多重化されていてよい。もし多重化チャネルが用いられているならば、メタデータ712’はビデオデータ710’が伝送される主チャネルとは区別される補助チャネル(auxiliary channel)で符号化されてよい。例えば、もし有効なビデオ相互接続規格がDVI又はHDMI(商標)であれば、ディスプレイデータチャネル(Display Data Channel)(DDC)を採用可能である。もし有効なビデオ相互接続規格がHDMI(商標)であれば、随意的なコンシューマエレクトロニクスコントロール(Consumer Electronics Control)(CEC)チャネル(もし実装されていれば)をDDCチャネルに代えて(又はDDCチャネルと共に)用いることができる。ディスプレイポート(DisplayPort)(登録商標)の場合には、オーグジリアリチャネル(the Auxiliary Channel)を用いることができる。
更に図7に示されているように、ディスプレイ装置704はビデオインタフェース受信機713及びビデオプロセッサ714を含む。プレーヤ装置702と同様に、ディスプレイ装置704は更に例えばチューナ又は復調器等の他の構成部品を含んでいてよいが、明瞭のため上述した構成部品のみが図7に示されている。
ビデオインタフェース受信機713は物理的リンクを介してビデオデータ710’及びメタデータ712’を受信し、それらをビデオプロセッサ714で予定されているフォーマットに復調する。受信機713の機能はビデオプレーヤ702の送信機709の機能と相補的である。本実施形態では、復号化されたビデオ及びメタデータはビデオインタフェース送信機709に供給されたビデオデータ及びメタデータと同一のフォーマットを有しているので、ビデオディスプレイ装置704においてそれらを識別するために同一の参照符号710及び712が用いられている。このことは必ずしもすべての実施形態で正しいとは限らない。
本実施形態のビデオプロセッサ714は、ビデオプロセッサ706のビデオ処理能力に一致するビデオ処理能力を有している。このことは、ディスプレイ704及びプレーヤ702が、ビデオ処理機能が異なることのある他のディスプレイ又はプレーヤと相互接続可能であることが企図されているモジュラーコンポーネントであるという事実に起因し得る。つまり、プレーヤ702及びディスプレイ704の各々は、それが接続される相補的なコンポーネントのビデオ処理能力に頼ることが見込まれる使用のために、同一のビデオ処理機能機能を備えていてよい。しかしながら、ビデオプロセッサ706及び714の能力は、全ての実施形態で一致している必要はない。それらは代替的な実施形態では一部同じであってよくあるいは全部違っていてもよい。ビデオプロセッサ714は、処理されたビデオデータ710及びメタデータ712を受信機713から受け取り、種々の処理をビデオデータに対して実行する。以下明らかになるように、ビデオプロセッサ714により実行される処理の種類は、メタデータ712によって少なくとも部分的に決定される。処理が適用された後、処理されたビデオデータ716は、他の構成部品に向けてあるいは表示のために出力される。ビデオプロセッサ714は後ほど更に詳細に説明される。
図8はビデオプロセッサ706(「上流ビデオプロセッサ」)を更に詳細に示している。図示されるように、ビデオプロセッサ706は、バッファ800と、バス802と、ビデオを処理するための種々の機能ブロック、即ち色補正ブロック804、コントラスト補正ブロック806、ガンマ補正ブロック808、鮮鋭度エンハンスメントブロック810、及びエッジエンハンスメントブロック812と、加えてメタデータフォーマッタ814とを含む。ビデオプロセッサ706の特定の構成部品、例えばバッファ800及びバス802は、同じ名前のビデオプロセッサ14(図3)の構成部品、即ちそれぞれバッファ58及びバス60と類似しており、従ってここでは詳細には説明しない。他の構成部品を以下に説明する。
色補正ブロック804は、表示されたデータを見る人により知覚されることになる色を調整することを目的として、色ビデオデータに種々の動作を実行する。例えば、色補正は、見る人に所望の色合いを認知させるために、基本構成色(例えば赤、緑及び青)の輝度合成(intensity mix)を調整することを伴ってよい。もしビデオデータが例えばYCbCr色空間において表されるならば、色補正はCb及びCrの両方に定数を乗ずることによって実行可能である。
コントラスト補正ブロック806は、ビデオデータにコントラスト補正を実行する。当該技術分野で知られているように、コントラストは、ビデオ波形において「最も白らしい白(whitest whites)」が「最も黒らしい黒(blackest blacks)」からどれくらい離れているかを参照する。もしビデオデータが例えばYCbCr色空間において表されるならば、コントラスト補正は、場合によっては不所望な色シフトを回避するためのCb及びCrへの対応する調整を伴って、当該YCbCrデータに定数を乗じることにより実行可能である。
ガンマ補正ブロック808はビデオデータに対してガンマ補正を実行する。当該技術分野において知られているように、ガンマは、入力ビデオ信号の振幅における変化によりもたらされる表示輝度レベルの変化の度合いに関する、大抵の表示での変換特性の非線形性を参照する。ガンマ補正は一般的には非線形補正である。
鮮鋭度エンハンスメントブロック810は、ビデオデータの鮮鋭度を向上させる処理を行う。画像の鮮鋭度は、例えば高周波数輝度(high-frequency luminance)情報の振幅を増大することによって向上させることができる。
エッジエンハンスメントブロック812は、縁(edge)の見え方をビデオデータ内で強調する処理を行う。ビデオデータの範囲内で表される被写体の縁の見え方は、種々の技術を用いて、縁のぎざぎざした(jagged)見え方を低減することによって強調することができる。
機能ブロック804、806、808、810、及び812はすべての実施形態で必ずしも区別されている必要はなく、むしろ種々の方法において組み合わされていてよい。例えば、コントラスト及びガンマ補正ブロック806及び808は単一の機能ブロックに組み合わされてよく、あるいは鮮鋭度及びエッジ・エンハンスメントブロック810及び812は、単一の機能ブロックに組み合わされてよい。他の組み合わせは当業者によってなされ得るであろう。また、他の種類のビデオ処理を実行する機能ブロックが代替的実施形態において採用されてもよい。
機能ブロック804、806、808、810、及び812は、バッファ800に記憶されたビデオデータ708に対して動作し、処理されたビデオデータ710を生成する。幾つかの実施形態では、種々の機能ブロックによって実行される特定の動作は、ディスプレイ装置704上に提示されたグラフィカルユーザインタフェース(GUI)により設定可能であってよい。GUIインタフェースは、ユーザが個々の機能ブロックを起動し又は解除すること、あるいはそれとは別にユーザがGUIコントロールの操作を通して機能ブロックの動作を制御することを可能にする。ユーザは、例えばGUIコントロールが操作されたときに、表示された「テスト」画像上での設定の効果を観察することができるであろう。
機能ブロック804、806、808、810及び812により実行されたビデオ処理が標準的なものであってよいことは理解されるべきである。しかしながら、これらのブロックの各々は、ビデオ処理についてのそれが実行されているという情報をメタデータフォーマッタ814にも伝達し、メタデータフォーマッタ814は、次いでこの情報を後述するようにフォーマットしてディスプレイ装置704に伝送し、その情報は、もしあればどのような更なるビデオ処理が当該装置のビデオプロセッサ714によって実行されるべきかを決定する際に用いられる。
より具体的には、メタデータフォーマッタ814は、機能ブロック804、806、808、810及び812により実行されたビデオ処理を表すメタデータを生成する。メタデータは、機能ブロック804、806、808、810及び812の各々によってメタデータフォーマッタ814に提供された情報に基いて生成される。生成されたメタデータは、典型的には、実行されたビデオ処理の種類(例えば、色補正及び鮮鋭度エンハンスメント)と、実行された特定の調整(例えば、Cb及びCr値を増大減少して色補正を達成した乗数や、高周波数輝度情報の振幅を増大して鮮鋭度エンハンスメントを達成した増大量)との両方を示すが、このことは絶対的に要求されるわけではない。幾つかの実施形態では、実行されたビデオ処理の種類のみが示されてよい。メタデータフォーマッタ814は、適切なフォーマットでメタデータ712の形式を整え、処理されたビデオデータ710に添付する。メタデータのフォーマットは、例えばバイナリ又はテキスト的(textual)であってよい。メタデータ712はパケット化されてよく、あるいはデータ構造の形態をとってよい。幾つかの実施形態では、メタデータは、XMLのようなマークアップ言語で表現されてよい。幾つかの実施形態では、メタデータフォーマッタ814は、ITU推奨ITU−BT.1364−1に従って属性データをフォーマットしてよい。他のフォーマットが代替的実施形態において利用されてよい。
図9を参照すると、図7のビデオプロセッサ714(「下流ビデオプロセッサ」)が更に詳細に示されている。ビデオプロセッサ714は、バッファ900と、バス902と、ビデオを処理するための一連の機能ブロック904、906、908、910及び912と、メタデータ復号器916とを含む。
バッファ900は、上流のプレーヤ装置702から受信した処理されたビデオデータ710を記憶し、一方、機能ブロック904、906、908、910及び/又は912は、ビデオデータに対して動作して、処理されたビデオデータ716を作成する。
機能ブロック904、906、908、910及び912は、それぞれ機能ブロック804、806、808、810及び812に類似している。従って、ビデオプロセッサ714は、ビデオプロセッサ706と同様の種類のビデオ処理を実行可能である。しかしながら、ビデオプロセッサ706と異なり、プロセッサ714の機能ブロック904、906、908、910及び912により実行されたビデオ処理は、以下明らかになるように、プレーヤ装置702から受信したメタデータ712によって少なくとも部分的に決定される。
メタデータ復号器916は、ビデオインタフェース受信機713(図7)から受信したメタデータ712を復号化する。復号器916の動作はプレーヤ装置702(図8)のメタデータ符号器814の動作と相補的である。メタデータ復号器916は、メタデータの関連する部分を個々の機能ブロック904、906、908、910及び912に伝達する。例えば、もしメタデータ712が、ビデオプロセッサ706が色補正及び鮮鋭度エンハンスメントビデオ処理を既に適用したことを示し、且つ色補正及び鮮鋭度エンハンスメントを達成するために実行された特定の調整を示しているとすれば、色補正メタデータは色補正ブロック904に伝送されてよく、鮮鋭度エンハンスメント情報メタデータは鮮鋭度エンハンスメントブロック910に伝送されてよい。当該情報は、次いで機能ブロック904及び910によって、ビデオデータ710に適用されるべきビデオ処理の決定を支援するために用いられる。
本実施形態の動作は図10及び図11に示されている。図10はプレーヤ装置702内でのビデオプロセッサ706の動作1000を示し、一方、図11はディスプレイ装置704(図7)内でのビデオプロセッサ714の相補的な動作1100を示している。
図10を参照すると、ビデオデータはビデオプロセッサ706で受信され(S1002)、バッファ800(図8)に記憶される。その後、バッファ800からの受信したビデオデータに対して機能ブロック804、806、808、810及び812の一つ又は二つ以上が動作し、処理されたビデオデータ710を生成する(S1004)。適用されるビデオ処理は、ユーザの好み;ビデオ信号の特質(例えば判定されたその信号の品質);プレーヤ装置702における製造所での初期設定(presets);あるいはこれらの組み合わせに完全に又は部分的に基いていてよい。動作中の機能ブロックは、ビデオデータを処理しながら、実行されているビデオ処理の種類に関する情報をメタデータフォーマッタ814に伝達する。
次いで、フォーマッタ814は、機能ブロック804、806、808、810及び/又は812で実行されているビデオ処理を表すメタデータを生成する(S1006)。幾つかの実施形態では、メタデータはビデオプロセッサ706によるスクラッチ(scratch)から生成される。即ち、メタデータ712は、ビデオプロセッサ706に由来していてよく、ビデオプロセッサ706がビデオデータに適用したビデオ処理のみに基いていてよい。他の幾つかの実施形態では、ビデオプロセッサ706は、S1002(既出)で当初受信されたビデオデータを提供したのと同一のソースから「ソースメタデータ」を受信してよく、当該メタデータを補完し又は拡張してメタデータ712を生成してよい。一つの例においては、プレーヤ装置702は、DVD等の記憶媒体からビデオデータを読み込んでよく、当該記憶媒体からそのビデオデータと共にソースメタデータを読み込んでもよい(この場合、記憶媒体が「ソース」を構成する)。もう一つの例においては、ソースメタデータは異なるソース − ネットワーク(例えば、ローカルエリアネットワーク、ワイドエリアネットワーク、放送ネットワーク又はケーブルプロバイダネットワーク)から受信してよい。後者の場合においては、ビデオデータ及びメタデータは、衛星又は地上の送信機からプレーヤ装置702で受信することができる。ソースメタデータは、例えば、記憶媒体に記憶された又はネットワークから受信された(それぞれに適切であるように)ビデオデータに対して既に適用されているビデオ処理を例えば制作期間(during authoring)に記述してよい。そのような実施形態では、ビデオプロセッサ706のフォーマッタ814が「メタデータ712を生成」しているときに、フォーマッタは、ビデオプロセッサ706により実行されたビデオ処理を反映するように、受信したメタデータを補完し又はオーバーライドして(override)よい。この補完すること又はオーバーライドすることは、図12に示される中間装置1204によって実行される類似の処理と同様にして実行されてよく、このことは後で説明する。
メタデータ712が、ビデオプロセッサ706に由来し、あるいはビデオプロセッサ706によって補完され又はオーバーライドされた「ソースメタデータ」を構成しているかにかかわらず、処理されたビデオデータ710及びメタデータ712の両方は、次いでディスプレイ装置704に受け渡される(S1008、S1010)。ディスプレイ装置704への物理的リンクを介しての伝送に先立ち、ビデオデータ710及びメタデータ712はビデオインタフェース送信機709によって符号化されて、符号化されたビデオデータ710’及びメタデータ712’としてリンクを介して伝送される。
処理されたビデオデータ710と共にメタデータ712を符号化して、周知のビデオ相互接続規格に適合する物理的リンクを介して伝送する場合には、その規格に適合する下流の装置が受信することを予定しているビデオデータに影響を及ぼさないようにメタデータを符号化することが有益である(絶対的に要求されるものではないが)。これにより、もし下流のコンポーネントが、メタデータ712を利用不可能なあるいは受信することを予定さえされていない時代遅れのコンポーネントであっても、それでもなおそのコンポーネントは処理されたビデオデータ710を使用することができる。このことは、古いビデオディスプレイ装置に対するビデオプレーヤ装置702の後方互換性(backward compatibility)に貢献する。逆に、符号化されたメタデータを後で説明するように利用可能なビデオディスプレイ装置704のようなコンポーネントは、装置間の物理的リンクを介してメタデータが受信されないときにデフォルトな方法(例えば、画面上表示設定メカニズムを用いて指定されたユーザの好みに従う方法)でビデオ処理を単に適用可能な、この種のメタデータを生成しない古いプレーヤ装置に対して後方互換的に製造されてよい。
様々な機能ブロック804、806、808、810及び812により実行されたビデオ処理機能の特質は、必ずしもビデオフレーム毎に変わるものでないことが理解されるべきである。即ち、ビデオプロセッサ706により実行されるビデオ処理は、例外なくすべてのビデオフレームに適用されるであろう。従って、メタデータ712は、処理されたビデオデータ710の各出力フレームを必ずしも伴っている必要はない。例えば、メタデータ712は、システムの初期化ステップの期間に一回だけ、あるいは周期的に例えば所定の時間間隔で伝送されてよい。もちろん、もし帯域が許せば、メタデータは所望に応じてビデオデータの各フレームを伴ってよい。動作1000はこうして完結される。
図11を参照すると、符号化されたビデオデータ710’及びメタデータ712’は、ディスプレイ装置704のビデオインタフェース受信機713で受信され、復号化され、処理されたビデオデータ710及びメタデータ712として出力される。処理されたビデオデータ710は、ビデオプロセッサ714で受信され(S1102)、バッファ900に記憶される(図9)。メタデータ712も受信され(S1104)、メタデータ712はメタデータ復号器916によって復号化される。メタデータ復号器916は、メタデータの関連した部分を個々の機能ブロック904、906、908、910及び912に伝達する。この情報は、次いで、もしあればどのような更なるビデオ処理がビデオデータ710に適用されるべきかを機能ブロックが決定するために用いられる(S1106)。例えば、色補正ビデオ処理がビデオプロセッサ706の色補正ブロック804によって既に適用されていることをメタデータが示しているならば、ビデオプロセッサ714の色補正ブロック904は色補正を控えることで冗長な又は不要なビデオ処理を回避することができる。あるいはまた、もし上流の色補正ブロック804によって適用された色補正の種類が知られていれば、ビデオプロセッサ714の色補正ブロック904は、例えば結果としてのビデオ画像の品質に関してディスプレイ装置714で更なる利益を提供する他の色補正処理を実行するように選択することができる。例えば、プレーヤ装置702が下流のディスプレイ装置704の種類、モデル又は能力を認識していないとすると、ビデオプロセッサ714は、ディスプレイ装置704のカラー画像を提示する能力(例えば画素の数、ドットピッチ又は配置についての情報に基く能力)について上位の情報を有しているであろうから、色補正ブロック804によって先に実行された処理を補完する色補正ブロック904での更なる色補正処理が役に立つであろうことを判断することができる。
機能ブロック904、906、908、910及び/又は912がビデオデータ710に対してもしあれば更なる処理を一旦適用したら、処理されたビデオデータ716は下流のコンポーネントに受け渡され、最終的には表示される。こうして動作1100は完結する。
上述した動作はプレーヤ装置及びディスプレイ装置内のビデオプロセッサに限定されないことが理解されるべきである。同様な方法は他の種類の装置又はコンポーネント内の異なるビデオプロセッサのために用いられてよい。
図12は代替的な実施形態を例示するシステム1200の簡略化された概略ブロック図である。システム1200はビデオソース1202、中間装置1204、及びビデオシンク1206を含む。コンポーネント1202、1204及び1206は、周知のビデオ相互接続規格、例えばDVI、HDMI(商標)又はディスプレイポート(登録商標)に適合してよいコンポーネント間の物理的リンクによって、図12に示すように相互接続されている。コンポーネント1202及び1204間の相互接続はコンポーネント1204及び1206間の相互接続と同じビデオ相互接続規格に適合していてよい(が、必ずしも適合していない)。ビデオソース及びビデオシンク装置1202及び1204はそれぞれ図7のビデオソース及びビデオシンク装置702及び704に類似しているが、それらのビデオ処理能力は、記述のそれら装置に対して具体的に示した範囲を超えていてよい。システム1200における図7のシステム700との主要な相違点は、ビデオソース装置1202及びビデオシンク装置1206間に中間装置1204が存在することである。
ビデオソース1202はビデオプロセッサ1208を含み、ビデオプロセッサ1208は、プロセッサ1208のビデオ処理能力が必ずしも図7のビデオプロセッサ706の能力に限定されないことを除き、プロセッサ706と同様である。明確化のため、ビデオプロセッサ1208以外のビデオソース1202の構成部品、例えば復号器、フレームレート変換器及びビデオインタフェース送信機(図7のビデオインタフェース送信機709と類似していてよい)は省略されている。ビデオプロセッサ1208は、ビデオデータ1210を受信して、ビデオ画像の見え方又は品質を向上させるために、ビデオデータに対する種々の処理を実行する。ビデオ処理は、事実上すべての種類のビデオ処理、例えば、デ・インターレーシング、逆テレシネ(inverse telecine)、ノイズ除去、色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、又はエッジエンハンスメント等を含んでよい。処理されたビデオは処理されたビデオデータ1212として出力され、一方、ビデオプロセッサ1208により実行されたビデオ処理についての情報は、メタデータ1214として出力される。メタデータ1214は、既述のメタデータ712と同様にして生成されてよく、同様なフォーマットを有していてよい。ビデオプロセッサ1208の動作については、後で更に説明する
中間装置1204は、独立型(standalone)ビデオ処理コンポーネント、例えば、ここで説明されているように適合するアンカー・ベイ・テクノロジーズ、インク(Anchor Bay Technologies, Inc.)からのDVDO(登録商標)iScan(商標)VP50高解像度オーディオ/ビデオプロセッサ(High Definition audio/video processor)であり、その目的は、下流のビデオシンク装置1206に供給されることになるビデオストリームの画像品質を向上させることである。中間装置1204は、受信したメタデータ1214(例えば、上流のビデオソース1202によって適用されたビデオ処理を示すメタデータ)に基いて実行するビデオ処理を調整可能であるだけでなく、装置1204により実行された任意の付加的なビデオ処理を反映するように当該メタデータを補完し又はオーバーライドすることも可能である。
中間装置1204はビデオプロセッサ1220を含む。他の構成部品は明確化のために省略されている。ビデオプロセッサ1220は図13に更に詳細に示されている。
図13に示されるように、ビデオプロセッサ1220(「中間ビデオプロセッサ」)は、バッファ1300と、バス1302と、ビデオを処理するための種々の機能ブロック1304、1306及び1308と、メタデータ復号器1310と、メタデータフォーマッタ1312とを含む。バッファ1300及びバス1302は、図9のバッファ900及びバス902に類似しており、従ってここでは詳細には述べない。
機能ブロック1304、1306及び1308の各々は、プロセッサ1220により受信され(場合によっては装置1204内のビデオインタフェース受信機を経由して受信され)、バッファ1300に記憶されたビデオデータ1212に対してビデオ処理機能を実行することが可能である。それら機能は、例えば、デ・インターレーシング、逆テレシネ、ノイズ除去、スケーリング、色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、又はエッジエンハンスメントを含んでよい。ビデオ処理ブロックの数N及びNブロックにより実行されたビデオ処理の種類は、実施形態ごとに異なっていてよい。結果としての処理されたビデオ1316はビデオプロセッサ1220の出力の一方を構成する。
メタデータ復号器1310は、ビデオソース1202から受信された(ここでも場合によっては中間装置1204内にあってよいビデオインタフェース受信機を経由して受信された)メタデータ1214を復号化する。メタデータ復号器1310は、その動作において、メタデータの関連する部分を個々のビデオ処理機能ブロック1304、1306及び1308に伝達するということにおいて、図9のメタデータ復号器916と同様である。例えば、もし、メタデータ1314が、上流のビデオプロセッサ1208が既にデ・インターレーシング及び鮮鋭度エンハンスメントビデオ処理機能を適用したことを示しており、当該デ・インターレーシング及び鮮鋭度エンハンスメントを達成するために実行された特定の手続き又は調整を更に示しているとすれば、デ・インターレーシングメタデータはデ・インターレーシング機能ブロックに伝達されてよく、鮮鋭度エンハンスメント情報メタデータは鮮鋭度エンハンスメントブロックに伝達されてよい(それらのようなブロックがビデオプロセッサ1220に存在している限りにおいて)。この情報は、次いでビデオデータ1212に適用されるべきビデオ処理の決定を支援するために、それらの機能ブロックによって用いられる。
メタデータフォーマッタ1312は、それが一部をなしているビデオプロセッサにより目下実行されているビデオ処理を表すメタデータを生成することにおいて、図8のメタデータフォーマッタ814と同様である。メタデータは、典型的には、実行されたビデオ処理の種類及び実行された特定の調整の両方を表す。しかしながら、メタデータフォーマッタ1312は、更に踏み込んで、新たに生成されたメタデータを上流のビデオソース1202から受信したメタデータ1214と組み合わせて、上流のビデオプロセッサ1210又はインスタント(中間)プロセッサ1220のいずれかによって適用されたすべてのビデオ処理を反映する一連の複合メタデータ1318を生成する。複合メタデータはビデオプロセッサ1220の出力の他方を構成する。
ビデオプロセッサ1220により出力される処理されたビデオ1316及び複合メタデータ1318は、中間装置1204内のビデオインタフェース送信機(図示せず)を通ってからビデオシンク1206へ伝送される。
再び図12を参照すると、ビデオシンク装置1206はビデオプロセッサ1230を含む。図7のビデオシンク装置704と同様に、ビデオシンク装置1206は、他の構成部品、例えば中間装置1204との物理的リンクを介してデータを受信するためのビデオインタフェース受信機を更に含んでよいが、それらは明確化のために省略されている。ビデオプロセッサ1230は図9のビデオプロセッサ714と類似しているが、そのビデオ処理能力は必ずしもプロセッサ714のビデオ処理能力に限定されない。ビデオプロセッサ1230は、処理されたビデオデータ1316(図9の処理されたビデオデータ710に類似)を受信し、ビデオ画像の見え方又は品質を向上させるためにビデオデータに対して種々の処理を実行する。ビデオ処理は、ビデオプロセッサ1208又は1220のいずれか一方が可能な任意のビデオ処理、あるいはビデオ処理の他の形態を含んでよい。以下明らかになるように、ビデオプロセッサ1230により実行される処理の種類は、メタデータ1318によって少なくとも部分的に決定される。メタデータ1318は上流のビデオプロセッサ1208及び1220のいずれか一方又は両方によって実行されたビデオ処理を反映するので、ビデオシンク装置1206で実行されたビデオ処理は、直上流のコンポーネント1204によって実行されたビデオ処理により影響されるだけでなく、全ての上流のコンポーネント1202、1204による影響を受ける。この方法は、既に適用されたビデオ処理をビデオシンク装置1206で回避するという点における、あるいは上流の複数のコンポーネントにより実行された処理を考慮しながらビデオシンク装置1206でビデオ画像の最高品質を達成し得るビデオ処理を実行するという点における効率を更に促進することができる。プロセッサ1230がその処理を適用した後に、処理されたビデオデータ1320は他のコンポーネントに又は表示のために出力されてよい。
本実施形態の中間ビデオプロセッサ1220(図12、13)の動作1400は、図14に示されている。先ず、上流のビデオプロセッサ1208により少なくともあるビデオ処理が既に適用されたビデオデータ1212が、場合によっては中間装置1204内のビデオインタフェース受信機を介して、ビデオソース1202から受信される(S1402)。ビデオデータ1212はバッファ1300(図13)に記憶される。実行されたビデオ処理を示すメタデータ1214もまた受信され(S1404)、メタデータ復号器1310により復号化される。メタデータ1214のフォーマットは、例えば、バイナリ又はテキスト的;パケット化されたもの;データ構造;マークアップ言語のいずれであってもよく、あるいはITU推奨ITU−BT.1364−1に適合していてよい。
メタデータ復号器1310は、メタデータの関連する部分を個々の機能ブロック1304、1306及び/又は1308に伝達する。この情報は、次いで、もしあればどのような更なるビデオ処理がビデオデータに適用されるべきかを機能ブロックが決定するために用いられる(S1406)。例えば、もし色補正ビデオ処理がビデオプロセッサ1208によって既に適用されていることをメタデータが示しているならば、ビデオプロセッサ1220の色補正ブロックは、例えば結果としてのビデオ画像の品質に関して更なる利益を提供する、ビデオプロセッサ1208では実行されていない他の色補正処理を実行するように選択することができる。実行される付加的なビデオ処理もまた、ユーザの好みあるいは中間装置1204における製造所での初期設定に部分的に基いていてよい。
機能ブロック1304、1306及び/又は1308がビデオデータ1212に対して付加的なビデオ処理を実行する(S1408)のに伴い、目下実行中の付加的なビデオ処理に関する新たなメタデータが、関連するブロックにより生成されて(S1410)、メタデータフォーマッタ1312に伝達される。この新たに生成されたメタデータは、先に受信されたメタデータ1214と組み合わされて、上流のビデオプロセッサ1210又はインスタント(中間)プロセッサ1220のいずれかによって適用されたすべてのビデオ処理を反映する一連の複合メタデータ1318を生成する(S1412)。幾つかの場合には、プロセッサ1220により実行されたビデオ処理は、上流で実行されたビデオ処理をオーバーライドしてよい。そのような場合には、メタデータを組み合わせることは、少なくとも幾つかのメタデータ1214を新たなメタデータでオーバーライドすること(例えば上書き又は置換)を含んでよい。そのような場合における複合メタデータ1318は、プロセッサ1208及び1220のいずれかによって実行されたビデオ処理のすべてを実際には反映しておらず、ビデオ処理による効果がまだオーバーライドされていないもののみを反映するかもしれないことが理解されるであろう。オーバーライドされたビデオ処理に関連する任意のメタデータの省略は、複合メタデータ1318を含むメタデータの量を有利に低減するであろう。他の場合には、プロセッサ1220により実行されたビデオ処理は、上流で実行されたビデオ処理を補完してよい。そのような場合には、メタデータを組み合わせることは、既存のメタデータ1214に新たなメタデータを付加することを含んでよい。メタデータフォーマッタ1312は、結果としてのメタデータ1318を適切なフォーマットで形式を整えて、処理されたビデオデータ1316に添付する。メタデータ1318のフォーマットは、整合性のためにメタデータ1214のフォーマットと同じであってよいが、このことは必ずしも要求されない。幾つかの実施形態では、複合メタデータ1318は、複合メタデータ1318により示されているビデオ処理の各種類をいずれのコンポーネント(ビデオソース1202又は中間装置1204)が実行したかを、場合によってはこれら二つのコンポーネントに関する固有製品識別子を通じて、識別させることができる。
処理されたビデオ1316及び複合メタデータ1318は、次いで下流のビデオシンク装置1206に場合によってはビデオインタフェース送信機を介して受け渡される(S1414、S1416)。有利なことには、ビデオシンク装置1206は、次いで、もしあればどのような更なるビデオ処理を適用するかを、直上流のコンポーネント(中間装置1204)により実行されたビデオ処理に関する情報に基くだけでなく、ビデオソース1202により実行されたビデオ処理に関する情報にも基いて決定することが可能である。動作1400はこうして完了する。
上述した実施形態における「ビデオプロセッサ」という用語は、必ずしもハードウエア部品を排他的に参照するものではないことが理解されるであろう。当該用語は、それに代えてファームウエアコンポーネント、ソフトウエアコンポーネント(例えばソフトウエアモジュール又はプログラム)、あるいはこれらの組み合わせを参照してもよい。ビデオプロセッサがソフトウエア又はファームウエアコンポーネントである場合には、種々のビデオ処理動作を実行することが可能な機能ブロックは、当該コンポーネントのサブコンポーネント(例えばサブルーチン)であってよい。ソフトウエア又はファームウエアは、機械可読媒体815(図8)、917(図9)又は1313(図13)から読み込まれあるいは機械可読媒体に記憶されていてよく、機械可読媒体は、必要に応じて例えば光学ディスク、磁気記憶媒体、又はリードオンリメモリチップであってよい。幾つかの実施形態では、ソフトウエアは、例えばメモリに読み込まれて、ハードウエア(例えば一つ又は二つ以上の一般的なプロセッサ)に、ここで説明したような動作をさせることができる。また、ビデオプロセッサは、必ずしも専用のビデオプロセッサであることは必要でない。むしろ、ビデオプロセッサは、ビデオ処理と無関係であってよい他の種類の処理に加えてビデオ処理を実行する部品であってよい。
ここで用いられているような「上流」及び「下流」という用語は、システムを通してのあるいはコンポーネント間でのビデオデータの流れの一般的な方向に関連していることも理解されるべきである。
言うまでもなく、上述した実施形態は例示のみを意図したものであり、決して限定的なものではない。説明された実施形態は、形態、部品の配置、詳細及び動作の順序について様々な変更が可能である。むしろ、本発明は特許請求の範囲で定義されるような範囲に属するすべてのそのような変更を包含するものとして意図されている。

Claims (37)

  1. ビデオプロセッサにおいて実行される方法であって、
    処理されたビデオデータを作成するビデオ処理をビデオデータに対して実行するステップと、
    前記処理されたビデオデータと前記実行されたビデオ処理を示す生成されたメタデータとを下流のビデオプロセッサに受け渡すステップとを含む、方法。
  2. 前記ビデオデータはソースから受信され、前記生成されたメタデータは前記ソースから受信したメタデータを補完しまたはオーバーライドすることにより生成される、請求項1記載の方法。
  3. 前記ソースは記憶媒体またはネットワークである、請求項2記載の方法。
  4. 前記ビデオ処理は、色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、およびエッジエンハンスメントの少なくとも一つを含む、請求項1記載の方法。
  5. 前記ビデオプロセッサはビデオプレーヤ装置の一部である、請求項1記載の方法。
  6. 前記ビデオプレーヤ装置は、PC、DVDビデオプレーヤ、高密度HD−DVDプレーヤ、ブルーレイディスクプレーヤ、またはセットトップボックスである、請求項5記載の方法。
  7. 前記下流のビデオプロセッサはディスプレイ装置の一部である、請求項1記載の方法。
  8. ビデオプロセッサにおいて実行される方法であって、
    ビデオデータを受信するステップと、
    上流のビデオプロセッサによって前記ビデオデータに対して実行されたビデオ処理を示すメタデータを受信するステップと、
    前記メタデータに基いて、更なるビデオ処理がもしあればそれを前記ビデオデータに適用することを決定するステップとを含む、方法。
  9. 前記ビデオ処理は、色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、およびエッジエンハンスメントの少なくとも一つを含む、請求項8記載の方法。
  10. 前記ビデオプロセッサはディスプレイ装置の一部である、請求項8記載の方法。
  11. 前記上流のビデオプロセッサはビデオプレーヤ装置の一部である、請求項8記載の方法。
  12. 中間ビデオプロセッサにおいて実行される方法であって、
    ビデオデータを受信するステップと、
    上流のビデオプロセッサにより前記ビデオデータに対して先に実行されたビデオ処理を示すメタデータを受信するステップと、
    前記受信したメタデータに基いて、付加的なビデオ処理を前記ビデオデータに対して実行し、処理されたビデオデータを作成するステップと、
    前記処理されたビデオデータと前記受信したメタデータ及び前記実行された付加的な処理を示す新たなメタデータに基く複合メタデータとを下流のビデオプロセッサに受け渡すステップとを含む、方法。
  13. 前記付加的なビデオ処理が前記先に実行されたビデオ処理を補完する場合に前記新たなメタデータを前記受信したメタデータに付加することにより前記複合メタデータを創出するステップを更に含む、請求項12記載の方法。
  14. 前記付加的なビデオ処理が前記先に実行されたビデオ処理の少なくとも一部をオーバーライドする場合に、前記受信したメタデータの少なくとも一部分を前記新たなメタデータでオーバーライドすることにより前記複合メタデータを作成するステップを更に含む、請求項12記載の方法。
  15. 前記受信したメタデータの少なくとも一部分のオーバーライドは前記受信したメタデータの前記少なくとも一部分の置換を含む、請求項14記載の方法。
  16. プロセッサにより実行されたときに、
    処理されたビデオデータを作成するビデオ処理をビデオデータに対して実行するステップと、
    前記処理されたビデオデータと前記実行されたビデオ処理を示す生成されたメタデータとを下流のビデオプロセッサに受け渡すステップとを前記プロセッサに実行させる命令を記憶している、機械可読記録媒体。
  17. 前記ビデオデータはソースから受信され、前記生成されたメタデータは前記ソースから受信したメタデータを補完しまたはオーバーライドすることにより生成される、請求項16記載の機械可読記録媒体。
  18. 前記ソースは記憶媒体またはネットワークである、請求項17記載の機械可読記録媒体。
  19. 前記ビデオ処理は、色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、およびエッジエンハンスメントの少なくとも一つを含む、請求項16記載の機械可読記録媒体。
  20. 前記プロセッサはビデオプレーヤ装置の一部であり、前記下流のビデオプロセッサはディスプレイ装置の一部である、請求項16記載の機械可読記録媒体。
  21. プロセッサにより実行されたときに、
    ビデオデータを受信するステップと、
    上流のビデオプロセッサによって前記ビデオデータに対して実行されたビデオ処理を示すメタデータを受信するステップと、
    前記メタデータに基いて、更なるビデオ処理がもしあればそれを前記ビデオデータに適用することを決定するステップとを前記プロセッサに実行させる命令を記憶している、機械可読記録媒体。
  22. 前記ビデオ処理は、色補正、コントラスト補正、ガンマ補正、鮮鋭度エンハンスメント、およびエッジエンハンスメントの少なくとも一つを含む、請求項21記載の機械可読記録媒体。
  23. 前記プロセッサはディスプレイ装置の一部であり、前記上流のビデオプロセッサはビデオプレーヤ装置の一部である、請求項21記載の機械可読記録媒体。
  24. プロセッサにより実行されたときに、
    ビデオデータを受信するステップと、
    上流のビデオプロセッサにより前記ビデオデータに対して先に実行されたビデオ処理を示すメタデータを受信するステップと、
    前記受信したメタデータに基いて、付加的なビデオ処理を前記ビデオデータに対して実行し、処理されたビデオデータを作成するステップと、
    前記処理されたビデオデータと前記受信したメタデータ及び前記実行された付加的なビデオ処理を示す新たなメタデータに基づく複合メタデータとを下流のビデオプロセッサに受け渡すステップとを前記プロセッサに実行させる命令を記憶している、機械可読記録媒体。
  25. 前記付加的なビデオ処理が前記先に実行されたビデオ処理を補完する場合に前記新たなメタデータを前記受信したメタデータに付加することにより前記複合メタデータを創出するステップを前記命令が前記プロセッサに更に実行させる、請求項24記載の機械可読記録媒体。
  26. 前記付加的なビデオ処理が前記先に実行されたビデオ処理の少なくとも一部をオーバーライドする場合に、前記受信したメタデータの少なくとも一部分を前記新たなメタデータでオーバーライドすることにより前記複合メタデータを作成するステップを前記命令が前記プロセッサに更に実行させる、請求項24記載の機械可読記録媒体。
  27. 前記受信したメタデータの少なくとも一部分のオーバーライドは前記受信したメタデータの前記少なくとも一部分の置換を含む、請求項26記載の機械可読記録媒体。
  28. 処理されたビデオデータを作成するビデオ処理をビデオデータに対して実行するための少なくとも一つの機能ブロックと、
    前記実行されたビデオ処理を示すメタデータを生成し、前記処理されたビデオデータとともに下流のビデオプロセッサに受け渡すためのメタデータフォーマッタとを備える、ビデオプロセッサ。
  29. 前記少なくとも一つの機能ブロックは、色補正機能ブロック、コントラスト補正機能ブロック、ガンマ補正機能ブロック、鮮鋭度エンハンスメント機能ブロック、およびエッジエンハンスメント機能ブロックの少なくとも一つを含む、請求項28記載のビデオプロセッサ。
  30. 前記ビデオプロセッサはビデオプレーヤ装置の一部である、請求項28記載のビデオプロセッサ。
  31. 前記下流のビデオプロセッサはディスプレイ装置の一部である、請求項28記載のビデオプロセッサ。
  32. ビデオデータを受信するためのバッファと、
    上流のビデオプロセッサによって前記ビデオデータに対して実行されたビデオ処理を示す受信したメタデータを復号化するためのメタデータ復号器と、
    更なるビデオ処理を前記ビデオデータに対して実行するための少なくとも一つの機能ブロックとを備え、
    前記更なるビデオ処理は少なくとも部分的に前記メタデータに基いて決定される、ビデオプロセッサ。
  33. 前記少なくとも一つの機能ブロックは、色補正機能ブロック、コントラスト補正機能ブロック、ガンマ補正機能ブロック、鮮鋭度エンハンスメント機能ブロック、およびエッジエンハンスメント機能ブロックの少なくとも一つを含む、請求項32記載のビデオプロセッサ。
  34. 前記上流のビデオプロセッサはビデオプレーヤ装置の一部である、請求項32記載のビデオプロセッサ。
  35. ビデオデータを受信するためのバッファと、
    上流のビデオプロセッサにより前記ビデオデータに対して先に実行されたビデオ処理を示す受信したメタデータを復号化するためのメタデータ復号器と、
    前記メタデータに基づいて決定され、処理されたビデオデータを作成する更なるビデオ処理を前記ビデオデータに対して実行するための少なくとも一つの機能ブロックと、
    複合メタデータを生成し前記処理されたビデオデータとともに下流のビデオプロセッサに受け渡すためのメタデータフォーマッタとを備え、
    前記複合メタデータは前記受信したメタデータと前記実行された付加的なビデオ処理を示す新たなメタデータとに基いている、中間ビデオプロセッサ。
  36. 前記付加的なビデオ処理が前記先に実行されたビデオ処理を補完する場合に前記メタデータフォーマッタは前記新たなメタデータを前記受信したメタデータに付加することにより前記複合メタデータを作成する、請求項35記載の中間ビデオプロセッサ。
  37. 前記付加的なビデオ処理が前記先に実行されたビデオ処理の少なくとも一部をオーバーライドする場合に、前記メタデータフォーマッタは前記受信したメタデータの少なくとも一部分を前記新たなメタデータでオーバーライドすることにより前記複合メタデータを作成する、請求項35記載の中間ビデオプロセッサ。
JP2010538296A 2007-12-20 2008-12-16 ビデオ処理を記述するための方法、装置および機械可読記録媒体 Pending JP2011507416A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US1531307P 2007-12-20 2007-12-20
PCT/CA2008/002207 WO2009079760A1 (en) 2007-12-20 2008-12-16 Method, apparatus and machine-readable medium for describing video processing

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014157806A Division JP6290033B2 (ja) 2007-12-20 2014-08-01 ビデオ処理を記述するための方法、装置および機械可読記録媒体

Publications (1)

Publication Number Publication Date
JP2011507416A true JP2011507416A (ja) 2011-03-03

Family

ID=40788171

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010538296A Pending JP2011507416A (ja) 2007-12-20 2008-12-16 ビデオ処理を記述するための方法、装置および機械可読記録媒体
JP2014157806A Active JP6290033B2 (ja) 2007-12-20 2014-08-01 ビデオ処理を記述するための方法、装置および機械可読記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014157806A Active JP6290033B2 (ja) 2007-12-20 2014-08-01 ビデオ処理を記述するための方法、装置および機械可読記録媒体

Country Status (6)

Country Link
US (2) US20090161017A1 (ja)
EP (1) EP2235932A4 (ja)
JP (2) JP2011507416A (ja)
KR (1) KR101554685B1 (ja)
CN (1) CN101953150A (ja)
WO (1) WO2009079760A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101933094A (zh) * 2008-01-31 2010-12-29 汤姆逊许可证公司 用于观看数据定义和高清晰度多媒体接口上的传输的方法和***
US20110001873A1 (en) * 2008-08-06 2011-01-06 Daniel Doswald Frame rate converter for input frames with video and film content
US20100128181A1 (en) * 2008-11-25 2010-05-27 Advanced Micro Devices, Inc. Seam Based Scaling of Video Content
JP4922418B2 (ja) * 2010-02-16 2012-04-25 株式会社東芝 再生装置および再生装置の制御方法
US20110205397A1 (en) * 2010-02-24 2011-08-25 John Christopher Hahn Portable imaging device having display with improved visibility under adverse conditions
CA2696925A1 (en) * 2010-03-19 2011-09-19 Bertrand Nepveu Integrated field-configurable headset and system
CN101916553B (zh) * 2010-07-13 2012-03-07 深圳市长江力伟股份有限公司 一种彩色lcos显示芯片及其驱动控制方法
US8594002B2 (en) 2010-09-15 2013-11-26 Intel Corporation Method and system of mapping displayport over a wireless interface
DE102010049454A1 (de) 2010-10-23 2012-04-26 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Einrichtung zur hochdynamischen Bewegung des Wirkpunktes eines Strahls
DE102010049453A1 (de) 2010-10-23 2012-04-26 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Hochdynamisch translatorisch bewegbare Einrichtung zur Zusammenführung einer energetischen Strahlwirkung und eines Hilfsmediums an einem Wirkpunkt
TW202405797A (zh) 2010-12-03 2024-02-01 美商杜比實驗室特許公司 音頻解碼裝置、音頻解碼方法及音頻編碼方法
TWI538473B (zh) 2011-03-15 2016-06-11 杜比實驗室特許公司 影像資料轉換的方法與設備
JPWO2012131895A1 (ja) * 2011-03-29 2014-07-24 株式会社東芝 画像符号化装置、方法及びプログラム、画像復号化装置、方法及びプログラム
US8861894B2 (en) 2011-05-27 2014-10-14 Adobe Systems Incorporated Methods and apparatus for edge-aware pixel data generation
KR102602528B1 (ko) 2011-05-27 2023-11-16 돌비 레버러토리즈 라이쎈싱 코오포레이션 변하는 레벨들의 메타데이터을 포함하는 컬러 관리를 제어하기 위한 스케일러블 시스템들
US9024961B2 (en) 2011-12-19 2015-05-05 Dolby Laboratories Licensing Corporation Color grading apparatus and methods
US10521250B2 (en) * 2012-09-12 2019-12-31 The Directv Group, Inc. Method and system for communicating between a host device and user device through an intermediate device using a composite video signal
EP2989798B1 (en) 2013-04-23 2018-10-03 Dolby Laboratories Licensing Corporation Transmitting display management metadata over hdmi
WO2015050857A1 (en) 2013-10-02 2015-04-09 Dolby Laboratories Licensing Corporation Transmitting display management metadata over hdmi
US10368031B2 (en) 2014-02-27 2019-07-30 Dolby Laboratories Licensing Corporation Systems and methods to control judder visibility
WO2016054076A1 (en) 2014-10-02 2016-04-07 Dolby Laboratories Licensing Corporation Dual-ended metadata for judder visibility control
US10936996B2 (en) 2014-11-26 2021-03-02 Adobe Inc. Content creation, deployment collaboration, activity stream, and task management
US20160308738A1 (en) * 2015-04-14 2016-10-20 Sr Technologies, Inc. System and method for remote waveform analysis with associated metadata
CN105657487A (zh) * 2015-08-21 2016-06-08 乐视致新电子科技(天津)有限公司 音视频播放设备
JP6215898B2 (ja) 2015-11-16 2017-10-18 株式会社Pfu 映像処理装置、映像処理システム、および、映像処理方法
TWI720153B (zh) * 2016-03-29 2021-03-01 日商新力股份有限公司 送訊裝置、送訊方法、收訊裝置、收訊方法及收送訊系統
US10388247B2 (en) * 2016-03-29 2019-08-20 Bby Solutions, Inc. Dynamic display device adjustment for streamed video
US10334254B2 (en) * 2016-09-23 2019-06-25 Apple Inc. Feed-forward and feed-back metadata exchange in image processing pipelines to improve image quality
GB2558236B (en) 2016-12-22 2021-03-31 Apical Ltd Image data comprising encoded image data and additional data for modification of image
US10904607B2 (en) * 2017-07-10 2021-01-26 Dolby Laboratories Licensing Corporation Video content controller and associated method
TWI629661B (zh) * 2017-10-17 2018-07-11 冠捷投資有限公司 Overclocking display method and display
CN107707934A (zh) * 2017-10-24 2018-02-16 南昌黑鲨科技有限公司 一种视频数据处理方法、处理装置及计算机可读存储介质
US11303847B2 (en) 2019-07-17 2022-04-12 Home Box Office, Inc. Video frame pulldown based on frame analysis
KR102210097B1 (ko) * 2019-11-11 2021-02-02 주식회사 코난테크놀로지 비디오 메타데이터 증대를 위한 장치 또는 방법
KR20210066619A (ko) * 2019-11-28 2021-06-07 삼성전자주식회사 전자 장치 및 그 제어 방법
CN112995559B (zh) * 2019-12-18 2023-07-14 西安诺瓦星云科技股份有限公司 视频处理方法、装置及***、显示控制器和显示控制***
KR20220046728A (ko) * 2020-10-07 2022-04-15 한국전자통신연구원 센서 디바이스의 프로세서를 포함하는 네트워크 온 칩 및 센서 디바이스의 데이터 처리 방법
KR102469484B1 (ko) 2021-01-29 2022-11-22 엘지전자 주식회사 디스플레이 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007271A (ja) * 2002-05-31 2004-01-08 Matsushita Electric Ind Co Ltd オーサリング装置およびオーサリング方法
JP2004112695A (ja) * 2002-09-20 2004-04-08 Canon Inc 画像処理装置及びその処理方法
JP2006074533A (ja) * 2004-09-03 2006-03-16 Mitsubishi Electric Corp カラーエンコーディング方法及び信号処理方法
JP2006222958A (ja) * 2005-02-07 2006-08-24 Samsung Electronics Co Ltd 複数個のデータ処理装置を利用したデータ処理装置及びその方法、これを具現するためのプログラムが記録された記録媒体
JP2007082060A (ja) * 2005-09-16 2007-03-29 Ricoh Co Ltd 画像処理装置及び画像処理連結システム
JP2007257634A (ja) * 2006-03-16 2007-10-04 Dell Products Lp 情報取扱システムのための組込み型高精細媒体管理モジュール

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US5872565A (en) * 1996-11-26 1999-02-16 Play, Inc. Real-time video processing system
US6215485B1 (en) * 1998-04-03 2001-04-10 Avid Technology, Inc. Storing effects descriptions from a nonlinear editor using field chart and/or pixel coordinate data for use by a compositor
JP2003124898A (ja) * 2001-10-15 2003-04-25 Nippon Hoso Kyokai <Nhk> デジタル放送受信機及び送信機並びに番組配列情報蓄積方法及び番組配列情報更新方法
JP4048875B2 (ja) 2002-08-14 2008-02-20 宇部興産機械株式会社 射出成形制御方法及びその制御装置
US7643675B2 (en) * 2003-08-01 2010-01-05 Microsoft Corporation Strategies for processing image information using a color information data structure
JP4009634B2 (ja) 2004-03-04 2007-11-21 日本電気株式会社 アクセス制御方法、アクセス制御システム、メタデータ制御機、及び送信系装置
CA2581220C (en) * 2004-09-29 2013-04-23 Technicolor Inc. Method and apparatus for color decision metadata generation
JP2007080071A (ja) 2005-09-15 2007-03-29 Canon Inc 改変検知機能を有するシステム
US20070074265A1 (en) * 2005-09-26 2007-03-29 Bennett James D Video processor operable to produce motion picture expert group (MPEG) standard compliant video stream(s) from video data and metadata

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007271A (ja) * 2002-05-31 2004-01-08 Matsushita Electric Ind Co Ltd オーサリング装置およびオーサリング方法
JP2004112695A (ja) * 2002-09-20 2004-04-08 Canon Inc 画像処理装置及びその処理方法
JP2006074533A (ja) * 2004-09-03 2006-03-16 Mitsubishi Electric Corp カラーエンコーディング方法及び信号処理方法
JP2006222958A (ja) * 2005-02-07 2006-08-24 Samsung Electronics Co Ltd 複数個のデータ処理装置を利用したデータ処理装置及びその方法、これを具現するためのプログラムが記録された記録媒体
JP2007082060A (ja) * 2005-09-16 2007-03-29 Ricoh Co Ltd 画像処理装置及び画像処理連結システム
JP2007257634A (ja) * 2006-03-16 2007-10-04 Dell Products Lp 情報取扱システムのための組込み型高精細媒体管理モジュール

Also Published As

Publication number Publication date
EP2235932A1 (en) 2010-10-06
KR20100110832A (ko) 2010-10-13
CN101953150A (zh) 2011-01-19
KR101554685B1 (ko) 2015-09-21
US20140098295A1 (en) 2014-04-10
EP2235932A4 (en) 2013-01-23
WO2009079760A1 (en) 2009-07-02
JP6290033B2 (ja) 2018-03-07
JP2014239508A (ja) 2014-12-18
US9628740B2 (en) 2017-04-18
US20090161017A1 (en) 2009-06-25

Similar Documents

Publication Publication Date Title
JP6290033B2 (ja) ビデオ処理を記述するための方法、装置および機械可読記録媒体
US8134640B2 (en) Video processor architecture and method for frame rate conversion
US8269886B2 (en) Methods and systems for improving low-resolution video
JP5643964B2 (ja) ビデオ装置、及び、方法
KR101623890B1 (ko) 비디오 소스 디바이스와 비디오 싱크 디바이스를 구비하는 시스템에서의 비디오 프로세싱 조정
US6469744B1 (en) Methods and apparatus for encoding, decoding and displaying images in a manner that produces smooth motion
US20020140859A1 (en) Digital broadcast receiving apparatus and control method thereof
KR20050000956A (ko) 비디오 포맷 변환 장치
US7423693B2 (en) Video delay stabilization system and method
US20110001873A1 (en) Frame rate converter for input frames with video and film content
US7339959B2 (en) Signal transmitter and signal receiver
CN111479154B (zh) 音画同步的实现设备、方法及计算机可读存储介质
KR20070014192A (ko) 인터레이싱된 비디오 신호를 프로그레시브 비디오 신호로변환하는 방법, mpeg 디코더, 인터레이싱된 mpeg비디오 신호를 프로그레시브 비디오 신호로 변환하기 위한시스템
US8830393B2 (en) Method, apparatus and machine-readable medium for handling interpolated video content
JP2005045787A (ja) プログレッシブ及びインターレースビデオ信号の両方を生成するビデオ信号処理装置
JP5112528B2 (ja) 映像表示装置及び映像処理方法
US20110038596A1 (en) Video processing apparatus
KR100943902B1 (ko) 디지털 tv 모니터용 범용 영상 처리 장치
KR100531780B1 (ko) 선택 디코딩 및 다중 디스플레이를 위한 디지털 티브이 수신시스템 및 방법
KR20110009021A (ko) 디스플레이 장치 및 그 디스플레이 방법
KR100404218B1 (ko) 디지털 티브이의 영상 출력 장치
WO2017037971A1 (ja) 変換方法および変換装置
WO2001028245A1 (en) Method and system for eliminating edge effects at the end of lines in video signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130807

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131107

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140402