JP3776766B2 - Image data conversion method and apparatus - Google Patents

Image data conversion method and apparatus Download PDF

Info

Publication number
JP3776766B2
JP3776766B2 JP2001226467A JP2001226467A JP3776766B2 JP 3776766 B2 JP3776766 B2 JP 3776766B2 JP 2001226467 A JP2001226467 A JP 2001226467A JP 2001226467 A JP2001226467 A JP 2001226467A JP 3776766 B2 JP3776766 B2 JP 3776766B2
Authority
JP
Japan
Prior art keywords
data
gradation
image data
frame
output image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001226467A
Other languages
Japanese (ja)
Other versions
JP2003037845A (en
Inventor
和樹 平
雅裕 馬場
伊藤  剛
治彦 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001226467A priority Critical patent/JP3776766B2/en
Publication of JP2003037845A publication Critical patent/JP2003037845A/en
Application granted granted Critical
Publication of JP3776766B2 publication Critical patent/JP3776766B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像データの圧縮、伝送、表示に係る画像データの変換方法および装置に関する。
【0002】
【従来の技術】
近年、画像データを表示するための表示装置として、可搬性や携帯性が高い表示端末や「電子ペーパー」等の概念が提案されてきている。これらの表示装置はスタンドアロン(単独)で使用したり、表示装置同士でデータをやりとりするピアトゥーピア接続の形態で利用することが考えられるが、さらには、情報配信サーバから所望の画像データを引き出して表示したり、配信された画像データを表示するといった、サーバ/クライアント型の表示システムにおけるクライアント表示装置として使用される状況が増えると予想される。
【0003】
これらの表示装置には、消費電力や製品コストを低く抑える要求があるため、表示処理に多大な負担を割かないことが必要である。その反面、大画面化、高細精化に伴う表示容量の増大や動画表示への対応など、表示画像データ量は増加の一途を辿っている。
【0004】
また、サーバ/クライアント型の表示システムにおいては、サーバからクライアントへ表示画像データをできるだけ高速に伝送することが重要となる。処理負荷を増大させることなく画像データを高速に伝送する手法としては、表示に支障ない程度に画像データを削減し、圧縮する方法が一般に用いられる。このような画像圧縮技術としてはMPEG(Moving Picture Experts Group)などが代表的である。また、より低次の手法として、更新される画像データのみを抽出する階調データのビット削減なども画像データを圧縮するのに効果的である。
【0005】
画像データの圧縮、伝送、および表示に関連する従来技術として以下のようなものが知られている。
【0006】
第1に、画像データを可逆的に圧縮するアルゴリズムとしてRLE(Run Length Encoding)圧縮やLZW(Lempel-Ziv & Welch)圧縮が知られている。LZW圧縮はレンペル、ジブ、ウェルチらにより提唱された圧縮方法であり、GIFやTIFF等の画像フォーマットを可逆圧縮するものである。
【0007】
第2に、画像データを伝送する手法としてPV−Linkが提案されている。PV−Linkについては参考文献(Moriyoshi Ohara et al., "Digital link: High functional digital monitor interface, "SID 99 Digest(1999) pp. 118-121、Moriyoshi Ohara et al., "Digital PV link for a Next-Generation Video Interface, and Its System Architecture" SID 00 Digest(2000) pp. 38-41、Hiroshi Ishikawa, "Digital link that realizes QXGA," seminar note at "LCD/PDP International '98," October 28 (1998))の記載を参考にできる。
【0008】
PV−Linkは、画像データあるいはコマンドデータに所定のヘッダ、フッターデータを付加してパケット送信するプロトコルであり、このプロトコルを応用することにより様々なフォーマットで画像データを表示部側に伝送することが可能である。
【0009】
第3に、少ない表示階調数でも高い画像品位を保てる表示補償方法として、誤差拡散法が知られている。誤差拡散法はインクジェット印刷など、印刷の分野で一般的に使用されている。誤差拡散法の表示装置への応用例としては、フレーム間誤差拡散技術が知られている。参考文献(SID‘93 DIGEST(1993)475-478.)は、単独の画素では表示できない階調データを隣接画素及び次のフレームの同画素位置に拡散するフレーム間誤差拡散技術により、3ビット(8階調)の出力ドライバで6ビット(64階調)相当の画像を表示する例を開示する。
【0010】
図10は一般的な誤差拡散の処理を示すブロック図、図11は誤差拡散される隣接画素の位置関係を示す図である。
【0011】
誤差拡散処理ブロック(EDF;Error Diffusion Function)100は、画面位置座標(xi,yj)における入力画像データS(xi,yj)をビット削減により階調圧縮し、出力画像データS’(xi,yj)を出力する。また、この誤差拡散処理ブロック(EDF)100は、入力画像データS(xi,yj)と出力画像データS’(xi,yj)との差ΔEを階調誤差として、隣接する(xi+1,yj)、(xi-1,yj+1)、(xi,yj+1)、(xi+1,yj+1)の4画素に分配する。
【0012】
j+1行目に属する3隣接画素への階調誤差は、一旦、ラインメモリ(LM)101に保存され、当該j+1行目の画素に対する誤差拡散処理時に入力画像データに加算フィードバックされる。
【0013】
【発明が解決しようとする課題】
上記MPEGによる画像圧縮は高い圧縮率を実現できるものの、MPEGデコーダをクライアント表示端末に設けて実時間処理することは、高速な処理速度を必要とし、消費電力的にもコスト的にも不利である。また、単純にフレーム間の差分データ、あるいは書き換えを必要とする一部の画像データを抽出して伝送しようとすると、差分データの場合には符号ビットを付加する必要があり、一部の画像データを抽出するには画像の位置データを付加する必要があり、表示画像によっては原画像よりも画像データ量が増大する可能性が生じる。さらに、RLE圧縮においても、画像データが連続していない場合には画像データが圧縮前に比べ増大する可能性がある。また、単純に階調データを削減すると画像の劣化が顕著となる。
【0014】
本発明はこのような事情を考慮してなされたものであり、画質の劣化を招くことなく、簡便な方法で表示画像データ量を削減し、圧縮できる画像データの変換方法および装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
上記課題を解決し目的を達成するために、本発明は次のように構成されている。
【0016】
本発明の請求項1に係る画像データ変換方法は、1画面を構成する第1フレームおよび当該第1フレームの直前の第2フレームを入力し、当該第1フレームの画像データを出力画像データに変換する画像データの変換方法において、前記第1フレームを構成する画素の、周辺画素からの階調誤差配分を含めた階調データと、当該第1フレームの画素と同位置に相当する前記第2フレームの画素の階調データとの差分データを求めるステップと、前記差分データが所定の階調基準を下回る場合は、前記第2フレームの画素の階調データを前記出力画像データの階調データに決定するとともに、前記差分データに基づく階調誤差を周辺画素に加算配分するステップと、を具備することを特徴とする。
【0017】
また、本発明の請求項6に係る画像データの送信装置は、1画面を構成する第1フレームおよび当該第1フレームの直前の第2フレームを記憶する記憶手段と、前記記憶手段から前記第1フレームおよび第2フレームを読み出し、当該第1フレームを構成する画素の、周辺画素からの階調誤差配分を含めた階調データと、当該第1フレームの画素と同位置に相当する前記第2フレームの画素の階調データとの差分データを求める差分手段と、前記差分データが所定の階調基準を下回る場合は、前記第2フレームの画素の階調データを出力画像データの階調データに決定するとともに、前記差分データに基づく階調誤差を周辺画素に加算配分する誤差拡散処理手段と、前記出力画像データを伝送路を介して表示装置に送信する送信手段と、を具備することを特徴とする。
【0018】
また、本発明の請求項9に係る画像表示装置は、請求項6に記載の画像データの送信装置から前記伝送路を介して送信されてきた前記出力画像データを受信する受信手段と、受信した前記出力画像データを展開し、表示用の画像データを生成する展開手段と、前記表示用の画像データを表示する表示手段と、を具備することを特徴とする。
【0019】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態を説明する。
【0020】
本発明の実施形態に係る画像データの変換処理は、図1に示すように、データ配信装置(サーバ)1から表示端末(クライアント)2a〜2cへ画像データを伝送する際の前処理としてデータ配信装置内において行われることを想定する。本発明は必ずしもこのような実施形態に限定されない。例えば、画像データをメディアやファイルに蓄積する際の前処理として実施することもできる。具体的には、画像をMPEG変換する際の前処理として原画像の画像データを変換するような場合である。
【0021】
図1に示すようなサーバ/クライアント型の実施形態では、クライアント2a〜2cの表示画面に表示される画像データは、サーバ1から伝送される。サーバ1からクライアント2a〜2cへの画像データの伝送方式は、LVDS(Low Voltage Differential Signaling)、TMDS(Transition Minimized Differential Signaling)、GVIF(Gigabit Video Interface)などの有線方式としてもよい。または、Bluetooth(TM)、IEEE1394等の無線LAN、W−CDMA(Code Division Multiple Access)等の無線方式としてもよい。
【0022】
伝送された画像データはクライアント2a〜2cが備えるVRAM(ビデオRAM)等に書き込まれ、ディスプレイドライバを介して表示デバイスによって画面表示されるか、電子ファイルとしてRAMやHDD等の記憶手段に保存される。
【0023】
クライアント2a〜2cの表示デバイスとしては、良く知られている液晶ディスプレイ(LCD)や、有機材料を用いて構成したエレクトロルミネンス(EL)素子による表示デバイスなど、任意の表示デバイスを適用可能である。自発光型、透過型、あるいは反射型等、表示原理についても特に限定されない。但し、各画素において時間変調(PWM)を含む多階調表示が可能であることが必要である。
【0024】
表示される画像データは動画データでも静止画でも良く、カラー、モノクロの如何も問わない。但し、各画素に対する画像データは多階調であることが必要である。
【0025】
本実施形態の特徴に係る画像データ変換の基本手順を図2を参照しながら説明する。複数のフレームからなる画像データにおいて、第nフレーム中の画面位置(xi,yj)における入力階調データをS(n,xi,yj)と表わす。
【0026】
この表記法に倣い、1フレーム前の第n−1フレーム中の同位置における出力階調データをS(n−1,xi,yj)と表わす。
【0027】
今、第nフレームにおいて(xi,yj)に入力される階調データに着目し、入力階調データS(n,xi,yj)についての、1フレーム前のデータS(n−1,xi,yj)及び第nフレーム中の隣接画素において誤差拡散処理された際に(xi,yj)に蓄積された階調誤差データΔE(n,xi,yj)との差分、

Figure 0003776766
で表される。
【0028】
上記差分データΔSが所定の基準値ΔS0よりも小さい場合はデータを更新せず、1フレーム前のデータS(n−1,xi,yj)を第nフレームにおける画面位置(xi,yj)のデータとして出力する。その際、本来表示すべき階調データに対し生じる階調誤差ΔEを隣接画素に分配出力する。
【0029】
一方、差分データΔSが基準値ΔS0よりも大きい場合は、(xi,yj)の階調データを更新し、S(n,xi,yj)を出力する。
【0030】
以上のようにして全てのデータについて逐次に画像データの変換を行う。かかる画像データの変換処理は、換言すると、フレーム間の階調データの差分に基づきデータ更新の必要性の有無を判断し、一定範囲の階調差分について、データを更新しないことによって生じる階調誤差をフレーム内に誤差拡散する処理に相当する。
【0031】
なお、カラー画像を扱う場合、本処理はRGBの各カラープレーン毎に施すことが好ましい。即ち、隣接画素の階調データとして同一表示色のデータを参照して処理する。
【0032】
図2においては、説明の簡単のため、差分データΔSが基準値ΔS0よりも大きい場合は出力階調データを更新する、つまり新規の階調データS(n,xi,yj)に置き換えることとしたが、このとき、誤差拡散処理による階調圧縮(ビット削減処理、減色処理)が行われる場合もある。即ち、基準階調ΔS0に対して、ΔS<ΔS0のときはS(n−1,xi,yj)を出力(データを更新しない)し、ΔEを階調誤差として隣接画素に誤差拡散処理する。一方、ΔS≧ΔS0のときはS(n,xi,yj)をS’(n,xi,yj)に階調圧縮して出力し、S’−Sを階調誤差として隣接画素に誤差拡散する処理を行う。これは、特別な回路を付加することなく簡易な構成にて実現できる。
【0033】
以上のような画像データの変換処理を行うことで、画像の品位を損なうことなく、フレーム間の画像データの更新を必要最小限に留めることができる。したがって、画像データを差分データに変換したり、書き換えが必要なデータのみを抽出するなどして圧縮処理を施す際に、画像品位を損なわずに圧縮率を向上できる。
【0034】
図3は、本発明に係る画像データの変換処理手順を後段のデータ圧縮、伝送、展開処理を含めて示すフローチャートである。
【0035】
ステップS1乃至S5は、サーバ側の処理手順を示し、ステップS6は、サーバ側で処理された画像データをネットワークを介してクライアント側に伝送するステップを示している。ステップS7乃至S8は、クライアント側の処理手順を示している。このフローチャートからも分かるように、一定以上の処理速度が必要な本発明に係る画像データ変換を含めた画像処理は、高速なサーバ側で行うこととし、クライアント側では処理負担の少ない展開処理および表示を行うようにしている。
【0036】
サーバ側から伝送されてきた画像データは本発明に係る画像変換処理を受けた後、様々なフォーマットに変換されてクライアント側に伝送される(ステップS6)が、例えば、複数のフレームデータからなる画像データに対するフレーム差分データを伝送したり、画面の書き換えが必要なデータのみを画像データとして抽出し、画素の位置データを加えて伝送してもよい。
【0037】
また、これらのデータに、ハフマン符号化など可変長符号化やRLE、LZW圧縮などの可逆圧縮処理を施すことにより、データ量を更に削減してもよい。
【0038】
また、これらの画像データはサーバ/クライアント間で取り決めた特定プロトコルにしたがって伝送されるが、PV−Linkなどコマンドデータ、画像データをパケット化して伝送する手段を用いることにより、汎用性を保ちつつ効率的に伝送してもよい。
【0039】
ここで、以上のような画像データの変換処理手順を踏まえた具体的な実施形態を説明する。
【0040】
(第1実施形態)
図4は第1実施形態に係る処理ブロック図である。この第1実施形態は、フレーム間差分データを画像データとして出力し、伝送時に圧縮処理することを特徴とする。
【0041】
第nフレームの(xi,yj)位置における階調データS(n,xi,yj)が入力されると、この階調データS(n,xi,yj)と、前フレーム出力データであるS(n−1,xi,yj)及び隣接する画素からの階調誤差ΔEとの差分ΔSが生成され、入力階調データとして誤差拡散処理を行う処理ブロック(EDF;Error Diffusion Function)40に入力される。差分ΔSは併行して誤差拡散処理の判断を行うセレクタ(SLCT)41に入力される。セレクタ41は誤差拡散処理を行うかどうかの判断を行う。ここで、上記の差分ΔSは、
Figure 0003776766
として表される。
【0042】
誤差拡散処理ブロック(EDF)40からの出力階調データΔS’(n,xi,yj)は、所定の基準階調ΔS0と差分ΔSとの大小関係に応じて、
ΔS<ΔS0:ΔS’(n,xi,yj)=0 (4)
ΔS≧ΔS0:ΔS’(n,xi,yj)=ΔS (5)
とする。
【0043】
出力階調データΔS’(n,xi,yj)は、次段の圧縮処理ブロック(ENC)42に入力される。これと併行して出力階調データΔS’(n,xi,yj)はフレームメモリ(FM)44に加算され、次フレームの変換処理時に参照される。
【0044】
ΔS<ΔS0の場合、適正な階調データとの差分であるΔSを隣接画素に階調誤差ΔEとして分配する。本実施形態では、かかる分配比を例えば、
ΔE(n,xi+1,yj) =7ΔS/16 (6)
ΔE(n,xi+1,yj+1)=3ΔS/16 (7)
ΔE(n,xi,yj+1) =5ΔS/16 (8)
ΔE(n,xi-1,yj+1)=ΔS/16 (9)
とする。
【0045】
y+1行目への階調誤差(7)〜(9)はラインメモリ(LM)43に一時的に記憶され、j+1行目における変換処理データとして使用される。
【0046】
(xi+1,yj)列目への階調誤差(6)は、次の変換処理(xi+1,yj)への階調誤差として用いられる。
【0047】
このようにして出力された画像データは圧縮処理ブロック(ENC)42により圧縮され、ネットワークを介してクライアント側に伝送される。クライアント側では、サーバ側から伝送されてきた画像データを展開処理ブロック(DEC)45により展開処理し、これを差分画像データとしてVRAM46に加算するとともにディスプレイ(表示デバイス)47により表示する。
【0048】
図5及び図6は、本実施形態に従い、差分画像データを2種類の圧縮方法(LZW,RLE)で圧縮処理した結果を示した図である。評価画像にはハイビジョン・システム評価用デジタル標準画像データ(映像情報メディア学会監修)に収録されているCouple(雪の中の恋人)を使用し、画像全体をフレーム毎に1.0倍、1.01倍、1.02倍、…、1.05倍とズーミング処理したものを使用している。
【0049】
圧縮アルゴリズムとの関係上、1画素当たりの表示ビット数は7ビットとした。また、本実施形態の基準階調ΔS0を8、16、32の3種類とし、比較例(従来例)として、No.2〜6フレーム画像の非圧縮時、圧縮時、単純差分データの圧縮時におけるデータサイズを示した。非圧縮時におけるデータ―サイズは、1920×1035×3×7ビット=4.97Mバイト、差分データは符号ビットが付加されるため1920×1035×3×8ビット=5.69Mバイトとなる。圧縮方法はTIFF6.0におけるLZW圧縮アルゴリズム及びRLE圧縮アルゴリズムに準拠した。図5はLZW圧縮アルゴリズムによる圧縮時の結果を示し、図6はRLEアルゴリズムによる圧縮時の結果を示している。これら図5及び図6から分かるように、何れの圧縮処理においても、本実施形態による変換処理後の圧縮率が従来例よりも高くなる。
【0050】
特に、最も単純なRLE圧縮においても、原画像圧縮、単純差分画像圧縮ではバイト長情報の付加により非圧縮時よりも画像データが増大しているのに対し、本実施形態適用後では実用的に充分な圧縮が行えている。このような展開処理に負担の少ない圧縮方法は、処理速度の遅いクライアントでの展開処理に好適である。
【0051】
なお、特に例示しないが、基準階調ΔS0を8とした場合、画像品位の劣化は殆ど感じられない。また、ΔS0=32では画像品位劣化が若干認められる。
【0052】
(第2実施形態)
図7は本発明の第2の実施形態に係る処理ブロック図である。第2実施形態においては、画像データが更新された部分のみを抽出した部分画像データを階調圧縮し、伝送、表示する。
【0053】
第nフレームの(xi,yj)位置における階調データS(n,xi,yj)を入力階調データとし、この入力階調データS(n,xi,yj)及び、1フレーム前の出力階調データS(n−1,xi,yj)がセレクタ(SLCT)70に入力される。セレクタ70は、階調差分データΔSを基準階調ΔS0と比較し、この階調差分データΔSと新規な階調データS(n,xi,yj)とのどちらの信号を出力するか選択する。階調差分データΔSは第1実施形態と同様に上記(3)式で表される。
【0054】
ここで、ΔS≧ΔS0の場合、セレクタ70からは新規な階調データS(n,xi,yj)が出力され、階調圧縮処理のため誤差拡散処理ブロック(EDF)71に入力される。誤差拡散処理ブロック(EDF)71は階調圧縮を行い、ビット数削減されたS’(n,xi,yj)を出力階調データとして出力する。この出力階調データS’(n,xi,yj)は、一旦、バッファ(BUF)72に記憶される。
【0055】
ΔS=S’(n,xi,yj)−S(n,xi,yj) (10)
とすると、この階調差分データΔSは、隣接画素に上記(6)〜(9)式に従い階調誤差ΔEとして出力される。
【0056】
一方、ΔS<ΔS0の場合、出力階調データとしてS(n−1,xi,yj)が選択されるが、これは前フレームの画像データと同じであるから、画像データを出力せず、バッファ72に格納された出力階調データ列に位置情報を付加し、パケットデータを作成してクライアント側に伝送する。図8に示すように、このパケットデータは、例えば、ヘッダー80、画像データS’(xi,yj),S’(xi+1,yj),...81、フッター82から構成される。ヘッダー80は、ID801、位置情報(xi,yj)802、データ長803、およびチェックサム804を含む。また、フッター82はチェックサム821を含む。
【0057】
セレクタ70が上記(3)式で表されるΔSを選択し、これが誤差拡散処理ブロック(EDF)71に入力される場合、誤差拡散処理ブロック(EDF)71は隣接画素に対して(6)〜(9)式に従い階調誤差ΔEを出力する。
【0058】
なお、図7において、y+1行目への階調誤差をラインメモリ(LM)73に一時的に記憶し、これをj+1行目における変換処理データとして使用する処理、及び出力階調データΔS’(n,xi,yj)をフレームメモリ(FM)44に加算し、これを次フレームの変換処理時に参照する処理については第1実施形態と同様である。
【0059】
図9は、フレーム間相関の低い異なる画像情報を連続的に表示(シーンチェンジ)する場合において、本実施形態の画像データ変換処理を施した結果を示している。これは、第1フレーム画像をハイビジョン・システム評価用デジタル標準画像データ(映像情報メディア学会監修)中のChroma(クロマキーチャート)とし、第2フレーム画像をWoman(肌色チャート)とし、第3フレーム画像をHat(帽子屋)とし、第4フレーム画像をCoupleとして、これらフレーム画像を切り換えた際に画像データの更新を必要とする表示面積を%表示により示したものである。
【0060】
各評価画像における1画素毎の表示ビット数は8ビットとしている。各画像は全く表示内容が異なるため、本実施形態を適用しない場合(ΔS0=0)は、ほぼ画面全域を更新しなくてはならないが、本実施形態を適用することにより、ΔS0=32では画面の80%程度を更新することで所望の画像を表示することが可能であることが分かる。この結果は、例えば第1実施形態における評価画像のようにフレーム相関の高い画像では、容易に50%以下とすることが可能である。
【0061】
このような第2実施形態によれば、部分書き換え必要な面積を縮小でき、画像データ量を削減することができる。
【0062】
なお、本発明は上述した実施形態に限定されず種々変形して実施可能である。
【0063】
【発明の効果】
以上説明したように本発明によれば、質の劣化を招くことなく、簡便な方法で表示画像データ量を削減、圧縮する画像データの変換方法および装置を提供できる。
【図面の簡単な説明】
【図1】本発明の一実施形態の全体構成を概略的に示す図
【図2】本発明に係る画像データ変換処理の概念を説明するための図
【図3】本発明に係る画像データ変換処理の手順を示すフローチャート
【図4】本発明の第1の実施形態に係る画像データ変換処理のブロック図
【図5】第1の実施形態適用後にLZW法により画像データ圧縮を行った場合のデータサイズを示すグラフ
【図6】第1の実施形態適用後にRLE法により画像データ圧縮を行った場合のデータサイズを示すグラフ
【図7】本発明の第2の実施形態に係る画像データ変換の処理ブロック図
【図8】画像データをパケットデータとして伝送する際のデータ構造の一例を示す図
【図9】第2実施形態を評価画像に適用した際の基準階調毎の画面更新率を示すグラフ
【図10】従来例に係る誤差拡散法に基づく処理のブロック図
【図11】誤差拡散法における隣接画素との関係を示す図
【符号の説明】
1…情報配信装置(サーバ)
2a〜2c…表示端末(クライアント)
40…誤差拡散処理ブロック(EDF)
41…セレクタ(SLCT)
42…圧縮処理ブロック(ENC)
43…ラインメモリ(LM)
44…フレームメモリ(FM)
45…展開処理ブロック(DEC)
46…VRAM
47…ディスプレイ(表示デバイス)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data conversion method and apparatus related to compression, transmission and display of image data.
[0002]
[Prior art]
In recent years, concepts such as a display terminal having high portability and portability and “electronic paper” have been proposed as a display device for displaying image data. These display devices can be used stand-alone (single) or in the form of a peer-to-peer connection in which data is exchanged between display devices. Furthermore, desired image data is extracted from the information distribution server and displayed. In addition, it is expected that the situation of using as a client display device in a server / client type display system, such as displaying distributed image data, will increase.
[0003]
Since these display devices are required to reduce power consumption and product cost, it is necessary to avoid burdening display processing. On the other hand, the amount of display image data has been steadily increasing due to the increase in display capacity accompanying the increase in screen size and refinement and the support for moving image display.
[0004]
In a server / client type display system, it is important to transmit display image data from the server to the client as fast as possible. As a technique for transmitting image data at high speed without increasing the processing load, a method of reducing and compressing image data to such an extent that display is not hindered is generally used. A typical example of such an image compression technique is the Moving Picture Experts Group (MPEG). Further, as a lower order method, bit reduction of gradation data for extracting only updated image data is effective for compressing the image data.
[0005]
The following are known as conventional techniques related to compression, transmission, and display of image data.
[0006]
First, RLE (Run Length Encoding) compression and LZW (Lempel-Ziv & Welch) compression are known as algorithms for reversibly compressing image data. LZW compression is a compression method proposed by Rempel, Jib, Welch and others, and reversibly compresses image formats such as GIF and TIFF.
[0007]
Second, PV-Link has been proposed as a technique for transmitting image data. For PV-Link, refer to the reference (Moriyoshi Ohara et al., "Digital link: High functional digital monitor interface," SID 99 Digest (1999) pp. 118-121, Moriyoshi Ohara et al., "Digital PV link for a Next -Generation Video Interface, and Its System Architecture "SID 00 Digest (2000) pp. 38-41, Hiroshi Ishikawa," Digital link that realizes QXGA, "seminar note at" LCD / PDP International '98, "October 28 (1998) ) Can be referred to.
[0008]
PV-Link is a protocol for transmitting a packet by adding a predetermined header and footer data to image data or command data. By applying this protocol, image data can be transmitted to the display unit in various formats. Is possible.
[0009]
Thirdly, an error diffusion method is known as a display compensation method that can maintain high image quality even with a small number of display gradations. The error diffusion method is generally used in the field of printing such as inkjet printing. As an application example of the error diffusion method to a display device, an inter-frame error diffusion technique is known. The reference (SID '93 DIGEST (1993) 475-478.) Uses 3 bits (inter-frame error diffusion technology that diffuses grayscale data that cannot be displayed by a single pixel to the same pixel position in an adjacent pixel and the next frame ( An example of displaying an image corresponding to 6 bits (64 gradations) with an output driver of 8 gradations is disclosed.
[0010]
FIG. 10 is a block diagram showing a general error diffusion process, and FIG. 11 is a diagram showing the positional relationship between adjacent pixels subjected to error diffusion.
[0011]
An error diffusion processing block (EDF; Error Diffusion Function) 100 performs gradation compression on input image data S (xi, yj) at screen position coordinates (xi, yj) by bit reduction, and outputs image data S ′ (xi, yj). ) Is output. The error diffusion processing block (EDF) 100 is adjacent to (xi + 1, yj) with a difference ΔE between the input image data S (xi, yj) and the output image data S ′ (xi, yj) as a gradation error. yj), (xi-1, yj + 1), (xi, yj + 1), and (xi + 1, yj + 1).
[0012]
The gradation error for the three adjacent pixels belonging to the j + 1th row is temporarily stored in the line memory (LM) 101, and added back to the input image data during the error diffusion process for the pixel of the j + 1th row.
[0013]
[Problems to be solved by the invention]
Although the above-described MPEG image compression can achieve a high compression ratio, it is disadvantageous in terms of power consumption and cost to provide a high-speed processing speed by providing an MPEG decoder in the client display terminal for real-time processing. . In addition, when trying to extract and transmit difference data between frames or a part of image data that requires rewriting, it is necessary to add a sign bit in the case of difference data. Therefore, it is necessary to add position data of an image, and depending on the display image, there is a possibility that the amount of image data will be larger than the original image. Further, even in RLE compression, when image data is not continuous, the image data may increase compared to before compression. Further, when the gradation data is simply reduced, the deterioration of the image becomes remarkable.
[0014]
The present invention has been made in view of such circumstances, and provides an image data conversion method and apparatus capable of reducing the amount of display image data and compressing it by a simple method without causing deterioration in image quality. With the goal.
[0015]
[Means for Solving the Problems]
In order to solve the above problems and achieve the object, the present invention is configured as follows.
[0016]
An image data conversion method according to claim 1 of the present invention inputs a first frame constituting one screen and a second frame immediately before the first frame, and converts the image data of the first frame into output image data. In the image data conversion method, gradation data including gradation error distribution from surrounding pixels of the pixels constituting the first frame and the second frame corresponding to the same position as the pixels of the first frame Obtaining difference data with respect to the gradation data of the pixel of the second frame, and determining the gradation data of the pixel of the second frame as gradation data of the output image data when the difference data is below a predetermined gradation reference And a step of adding and distributing gradation errors based on the difference data to surrounding pixels.
[0017]
According to a sixth aspect of the present invention, there is provided an image data transmission device comprising: storage means for storing a first frame constituting one screen and a second frame immediately before the first frame; The second frame corresponding to the same position as the pixels of the first frame and the gradation data including the gradation error distribution from the surrounding pixels of the pixels constituting the first frame by reading the frame and the second frame Difference means for obtaining difference data with respect to the gradation data of the pixels of the second frame, and if the difference data is below a predetermined gradation reference, the gradation data of the pixels of the second frame is determined as gradation data of the output image data And error diffusion processing means for adding and distributing gradation errors based on the difference data to surrounding pixels, and transmission means for transmitting the output image data to a display device via a transmission path. Characterized in that it.
[0018]
According to a ninth aspect of the present invention, there is provided an image display apparatus comprising: a receiving unit configured to receive the output image data transmitted from the image data transmitting apparatus according to the sixth aspect via the transmission path; The image processing apparatus includes: an expansion unit that expands the output image data to generate display image data; and a display unit that displays the display image data.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
As shown in FIG. 1, the image data conversion processing according to the embodiment of the present invention is data distribution as preprocessing when image data is transmitted from the data distribution apparatus (server) 1 to the display terminals (clients) 2a to 2c. Assume that this is done within the device. The present invention is not necessarily limited to such an embodiment. For example, it can be implemented as preprocessing when image data is stored in a medium or file. Specifically, the image data of the original image is converted as preprocessing when converting the image into MPEG.
[0021]
In the server / client type embodiment as shown in FIG. 1, the image data displayed on the display screens of the clients 2 a to 2 c is transmitted from the server 1. The transmission method of the image data from the server 1 to the clients 2a to 2c may be a wired method such as LVDS (Low Voltage Differential Signaling), TMDS (Transition Minimized Differential Signaling), GVIF (Gigabit Video Interface). Or it is good also as wireless systems, such as wireless LAN, such as Bluetooth (TM) and IEEE1394, and W-CDMA (Code Division Multiple Access).
[0022]
The transmitted image data is written in a VRAM (video RAM) or the like provided in the clients 2a to 2c, and is displayed on the screen by a display device via a display driver, or is stored in a storage unit such as a RAM or HDD as an electronic file. .
[0023]
As a display device of the clients 2a to 2c, an arbitrary display device such as a well-known liquid crystal display (LCD) or a display device using an electroluminescence (EL) element formed using an organic material can be applied. . There is no particular limitation on the display principle such as a self-luminous type, a transmissive type, or a reflective type. However, it is necessary for each pixel to be capable of multi-gradation display including time modulation (PWM).
[0024]
The image data to be displayed may be moving image data or still image, and it does not matter whether it is color or monochrome. However, the image data for each pixel needs to have multiple gradations.
[0025]
The basic procedure of image data conversion according to the feature of this embodiment will be described with reference to FIG. In the image data composed of a plurality of frames, the input gradation data at the screen position (xi, yj) in the nth frame is represented as S (n, xi, yj).
[0026]
Following this notation, the output gradation data at the same position in the (n-1) th frame one frame before is represented as S (n-1, xi, yj).
[0027]
Now, paying attention to the gradation data input to (xi, yj) in the nth frame, the data S (n-1, xi, y, 1 frame previous) of the input gradation data S (n, xi, yj). yj) and a difference from gradation error data ΔE (n, xi, yj) accumulated in (xi, yj) when error diffusion processing is performed on adjacent pixels in the nth frame,
Figure 0003776766
It is represented by
[0028]
When the difference data ΔS is smaller than the predetermined reference value ΔS 0, the data is not updated, and the data S (n−1, xi, yj) one frame before is used as the data of the screen position (xi, yj) in the nth frame. Output as. At this time, the gradation error ΔE generated with respect to the gradation data to be originally displayed is distributed and output to adjacent pixels.
[0029]
On the other hand, if the difference data ΔS is larger than the reference value ΔS0, the gradation data of (xi, yj) is updated and S (n, xi, yj) is output.
[0030]
As described above, image data is sequentially converted for all data. In other words, the image data conversion process determines whether or not there is a need to update data based on the difference in gradation data between frames, and a gradation error caused by not updating the data for a certain range of gradation differences. Corresponds to the process of error diffusion in the frame.
[0031]
When a color image is handled, this processing is preferably performed for each RGB color plane. That is, processing is performed with reference to data of the same display color as gradation data of adjacent pixels.
[0032]
In FIG. 2, for simplicity of explanation, when the difference data ΔS is larger than the reference value ΔS 0, the output gradation data is updated, that is, replaced with new gradation data S (n, xi, yj). However, tone compression (bit reduction processing, color reduction processing) by error diffusion processing may be performed at this time. That is, when ΔS <ΔS 0 with respect to the reference gradation ΔS 0, S (n−1, xi, yj) is output (data is not updated), and error diffusion processing is performed on adjacent pixels with ΔE as a gradation error. On the other hand, when ΔS ≧ ΔS0, S (n, xi, yj) is gradation-compressed to S ′ (n, xi, yj) and output, and S′−S is error diffused to adjacent pixels as a gradation error. Process. This can be realized with a simple configuration without adding a special circuit.
[0033]
By performing the image data conversion process as described above, it is possible to minimize the update of the image data between frames without impairing the image quality. Therefore, when performing compression processing by converting image data into differential data or extracting only data that needs to be rewritten, the compression rate can be improved without impairing image quality.
[0034]
FIG. 3 is a flowchart showing the image data conversion processing procedure according to the present invention, including subsequent data compression, transmission, and decompression processing.
[0035]
Steps S1 to S5 show the processing procedure on the server side, and step S6 shows the step of transmitting the image data processed on the server side to the client side via the network. Steps S7 to S8 show the processing procedure on the client side. As can be seen from this flowchart, image processing including image data conversion according to the present invention, which requires a processing speed of a certain level or higher, is performed on the high-speed server side, and development processing and display with a low processing load on the client side. Like to do.
[0036]
The image data transmitted from the server side is subjected to the image conversion processing according to the present invention, then converted into various formats and transmitted to the client side (step S6). For example, an image composed of a plurality of frame data It is also possible to transmit frame difference data with respect to data or extract only data that requires screen rewriting as image data, and add pixel position data for transmission.
[0037]
The amount of data may be further reduced by subjecting these data to variable-length coding such as Huffman coding or lossless compression processing such as RLE or LZW compression.
[0038]
These image data are transmitted in accordance with a specific protocol decided between the server and the client. By using means for packetizing command data and image data such as PV-Link, the efficiency is maintained while maintaining versatility. May be transmitted automatically.
[0039]
Here, a specific embodiment based on the above-described image data conversion processing procedure will be described.
[0040]
(First embodiment)
FIG. 4 is a processing block diagram according to the first embodiment. The first embodiment is characterized in that inter-frame difference data is output as image data and compressed during transmission.
[0041]
When the gradation data S (n, xi, yj) at the (xi, yj) position of the nth frame is inputted, this gradation data S (n, xi, yj) and S (which is output data of the previous frame). n−1, xi, yj) and the difference ΔS from the gradation error ΔE from the adjacent pixel are generated and input as input gradation data to a processing block (EDF; Error Diffusion Function) 40 that performs error diffusion processing. . The difference ΔS is input to a selector (SLCT) 41 that determines the error diffusion process in parallel. The selector 41 determines whether to perform error diffusion processing. Here, the difference ΔS is
Figure 0003776766
Represented as:
[0042]
The output gradation data ΔS ′ (n, xi, yj) from the error diffusion processing block (EDF) 40 is in accordance with the magnitude relationship between a predetermined reference gradation ΔS0 and the difference ΔS.
ΔS <ΔS0: ΔS ′ (n, xi, yj) = 0 (4)
ΔS ≧ ΔS0: ΔS ′ (n, xi, yj) = ΔS (5)
And
[0043]
The output gradation data ΔS ′ (n, xi, yj) is input to the compression processing block (ENC) 42 at the next stage. At the same time, the output gradation data ΔS ′ (n, xi, yj) is added to the frame memory (FM) 44, and is referred to when the next frame is converted.
[0044]
When ΔS <ΔS 0, ΔS, which is a difference from appropriate gradation data, is distributed to adjacent pixels as a gradation error ΔE. In the present embodiment, such a distribution ratio is, for example,
ΔE (n, xi + 1, yj) = 7ΔS / 16 (6)
ΔE (n, xi + 1, yj + 1) = 3ΔS / 16 (7)
ΔE (n, xi, yj + 1) = 5ΔS / 16 (8)
ΔE (n, xi−1, yj + 1) = ΔS / 16 (9)
And
[0045]
The gradation errors (7) to (9) for the y + 1th row are temporarily stored in the line memory (LM) 43 and used as the conversion processing data for the j + 1th row.
[0046]
The gradation error (6) for the (xi + 1, yj) column is used as the gradation error for the next conversion process (xi + 1, yj).
[0047]
The image data output in this way is compressed by the compression processing block (ENC) 42 and transmitted to the client side via the network. On the client side, the image data transmitted from the server side is expanded by the expansion processing block (DEC) 45, added to the VRAM 46 as difference image data, and displayed on the display (display device) 47.
[0048]
FIG. 5 and FIG. 6 are diagrams showing the results of compression processing of differential image data by two types of compression methods (LZW, RLE) according to the present embodiment. For the evaluation image, a Couple (lover in the snow) recorded in the digital standard image data for high-definition system evaluation (supervised by the Institute of Image Information and Television Engineers) is used. A zooming process of 01 times, 1.02 times,..., 1.05 times is used.
[0049]
In relation to the compression algorithm, the number of display bits per pixel is 7 bits. Further, the reference gradation ΔS0 of the present embodiment is set to three types of 8, 16, and 32, and as a comparative example (conventional example), no. The data size at the time of non-compression of a 2-6 frame image, the time of compression, and the time of compression of simple difference data is shown. The uncompressed data size is 1920 × 1035 × 3 × 7 bits = 4.97 Mbytes, and the difference data is 1920 × 1035 × 3 × 8 bits = 5.69 Mbytes since a sign bit is added. The compression method conformed to the LZW compression algorithm and RLE compression algorithm in TIFF 6.0. FIG. 5 shows the result of compression by the LZW compression algorithm, and FIG. 6 shows the result of compression by the RLE algorithm. As can be seen from FIGS. 5 and 6, in any compression process, the compression rate after the conversion process according to the present embodiment is higher than in the conventional example.
[0050]
In particular, even in the simplest RLE compression, in the original image compression and the simple difference image compression, the image data is larger than that in the non-compression due to the addition of byte length information, but practically after applying this embodiment. Sufficient compression has been performed. Such a compression method with a small burden on the decompression process is suitable for the decompression process in a client having a low processing speed.
[0051]
Although not specifically illustrated, when the reference gradation ΔS0 is 8, almost no deterioration in image quality is felt. In addition, when ΔS0 = 32, the image quality is slightly deteriorated.
[0052]
(Second Embodiment)
FIG. 7 is a processing block diagram according to the second embodiment of the present invention. In the second embodiment, the partial image data obtained by extracting only the portion where the image data has been updated is tone-compressed, transmitted, and displayed.
[0053]
The gradation data S (n, xi, yj) at the (xi, yj) position of the nth frame is set as input gradation data, and this input gradation data S (n, xi, yj) and the output floor one frame before The key data S (n−1, xi, yj) is input to the selector (SLCT) 70. The selector 70 compares the gradation difference data ΔS with the reference gradation ΔS 0 and selects which signal of the gradation difference data ΔS or the new gradation data S (n, xi, yj) is output. The gradation difference data ΔS is expressed by the above equation (3) as in the first embodiment.
[0054]
Here, when ΔS ≧ ΔS 0, new gradation data S (n, xi, yj) is output from the selector 70 and input to the error diffusion processing block (EDF) 71 for gradation compression processing. The error diffusion processing block (EDF) 71 performs gradation compression and outputs S ′ (n, xi, yj) reduced in the number of bits as output gradation data. The output gradation data S ′ (n, xi, yj) is temporarily stored in the buffer (BUF) 72.
[0055]
ΔS = S ′ (n, xi, yj) −S (n, xi, yj) (10)
Then, the gradation difference data ΔS is output as a gradation error ΔE to the adjacent pixels according to the expressions (6) to (9).
[0056]
On the other hand, when ΔS <ΔS 0, S (n−1, xi, yj) is selected as the output gradation data. Since this is the same as the image data of the previous frame, the image data is not output and the buffer The position information is added to the output gradation data string stored in 72, packet data is created and transmitted to the client side. As shown in FIG. 8, this packet data includes, for example, a header 80, image data S ′ (xi, yj), S ′ (xi + 1, yj),. . . 81 and a footer 82. The header 80 includes an ID 801, position information (xi, yj) 802, a data length 803, and a checksum 804. The footer 82 includes a checksum 821.
[0057]
When the selector 70 selects ΔS represented by the above equation (3) and this is input to the error diffusion processing block (EDF) 71, the error diffusion processing block (EDF) 71 performs (6) to (6) to the adjacent pixels. A gradation error ΔE is output according to equation (9).
[0058]
In FIG. 7, the tone error for the y + 1th row is temporarily stored in the line memory (LM) 73, and this is used as the conversion processing data for the j + 1th row, and the output tone data ΔS ′ ( The process of adding (n, xi, yj) to the frame memory (FM) 44 and referring to this when converting the next frame is the same as in the first embodiment.
[0059]
FIG. 9 shows the result of performing the image data conversion processing of the present embodiment when different image information with low inter-frame correlation is continuously displayed (scene change). The first frame image is Chroma (chroma key chart) in the digital standard image data for HDTV system evaluation (supervised by the Video Information Media Society), the second frame image is Woman (skin color chart), and the third frame image is The display area that needs to be updated when the frame image is switched is indicated by% display when the frame image is switched to Hat (hat shop) and the fourth frame image is Coupled.
[0060]
The number of display bits per pixel in each evaluation image is 8 bits. Since the display contents of each image are completely different, when this embodiment is not applied (ΔS0 = 0), almost the entire screen must be updated. However, by applying this embodiment, the screen is displayed when ΔS0 = 32. It can be seen that it is possible to display a desired image by updating about 80%. This result can be easily reduced to 50% or less for an image having a high frame correlation such as the evaluation image in the first embodiment.
[0061]
According to the second embodiment, it is possible to reduce the area required for partial rewriting and reduce the amount of image data.
[0062]
The present invention is not limited to the above-described embodiment, and can be implemented with various modifications.
[0063]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an image data conversion method and apparatus for reducing and compressing the amount of display image data by a simple method without causing deterioration of quality.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing the overall configuration of an embodiment of the present invention. FIG. 2 is a diagram for explaining the concept of image data conversion processing according to the present invention. FIG. 4 is a block diagram of image data conversion processing according to the first embodiment of the present invention. FIG. 5 is data when image data compression is performed by the LZW method after applying the first embodiment. Graph showing size FIG. 6 is a graph showing data size when image data compression is performed by the RLE method after applying the first embodiment. FIG. 7 is an image data conversion process according to the second embodiment of the present invention. FIG. 8 is a diagram showing an example of a data structure when image data is transmitted as packet data. FIG. 9 is a graph showing a screen update rate for each reference gradation when the second embodiment is applied to an evaluation image. FIG. 10 Figure [EXPLANATION OF SYMBOLS] showing the relationship between the adjacent pixels in the block diagram of a processing based on the error diffusion method [11] error diffusion method according to come Examples
1 Information distribution device (server)
2a to 2c: Display terminal (client)
40: Error diffusion processing block (EDF)
41 ... Selector (SLCT)
42. Compression processing block (ENC)
43 ... Line memory (LM)
44 ... Frame memory (FM)
45 ... Development processing block (DEC)
46 ... VRAM
47. Display (display device)

Claims (6)

1画面を構成する第1フレームおよび当該第1フレームの直前の第2フレームを入力し、当該第1フレームの画像データを出力画像データに変換する画像データの変換方法において、
前記第1フレームを構成する画素の、周辺画素からの階調誤差配分を含めた階調データと、当該第1フレームの画素と同位置に相当する前記第2フレームの画素の階調データとの差分データを求めるステップと、
前記差分データが所定の階調基準を下回る場合は、前記第2フレームの画素の階調データを前記出力画像データの階調データに決定するとともに、前記差分データに基づく階調誤差を周辺画素に加算配分するステップと、
前記差分データが所定の階調基準と同じ又は該階調基準を上回る場合は、前記第1フレームを構成する画素の階調データを階調圧縮して前記出力画像データの階調データに決定するとともに、かかる階調圧縮に伴う階調誤差を周辺画素に加算配分するステップと、
を具備することを特徴とする画像データの変換方法。
In the image data conversion method of inputting the first frame constituting one screen and the second frame immediately before the first frame, and converting the image data of the first frame into output image data,
Gradation data including gradation error distribution from surrounding pixels of pixels constituting the first frame and gradation data of pixels of the second frame corresponding to the same position as the pixels of the first frame. Obtaining difference data; and
When the difference data falls below a predetermined gradation reference, the gradation data of the pixel of the second frame is determined as the gradation data of the output image data, and a gradation error based on the difference data is set to surrounding pixels. Adding and distributing, and
If the difference data is the same as or exceeds the predetermined gradation reference, the gradation data of the pixels constituting the first frame is gradation-compressed and determined as gradation data of the output image data. In addition, a step of adding and distributing gradation errors due to such gradation compression to surrounding pixels;
A method for converting image data, comprising:
変換された前記出力画像データについて、当該出力画像データと直前のフレームにおける前記出力画像データとの差分データを求めるステップと、
前記差分データを可逆圧縮するステップとをさらに具備することを特徴とする請求項1に記載の画像データの変換方法。
For the converted output image data, obtaining difference data between the output image data and the output image data in the immediately preceding frame;
The image data conversion method according to claim 1, further comprising a step of reversibly compressing the difference data.
変換された前記出力画像データを伝送路を介して伝送するためのパケットデータを作成するステップをさらに具備し、
前記パケットデータは、前記差分データが所定の階調基準と同じ又は該階調基準を上回ったことにより階調圧縮がなされた、画面の書き換えが必要な画素の位置データ及び該位置データについての前記出力画像データを含むことを特徴とする請求項1に記載の画像データの変換方法。
Creating packet data for transmitting the converted output image data via a transmission path;
The packet data includes pixel position data that needs to be rewritten and has undergone gradation compression when the difference data is equal to or exceeds a predetermined gradation reference, and the position data regarding the position data. The image data conversion method according to claim 1, further comprising output image data.
1画面を構成する第1フレームおよび当該第1フレームの直前の第2フレームを記憶する記憶手段と、
前記記憶手段から前記第1フレームおよび第2フレームを読み出し、当該第1フレームを構成する画素の、周辺画素からの階調誤差配分を含めた階調データと、当該第1フレームの画素と同位置に相当する前記第2フレームの画素の階調データとの差分データを求める差分手段と、
前記差分データが所定の階調基準を下回る場合は、前記第2フレームの画素の階調データを出力画像データの階調データに決定するとともに、前記差分データに基づく階調誤差を周辺画素に加算配分し、前記差分データが所定の階調基準と同じ又は該階調基準を上回る場合は、前記第1フレームを構成する画素の階調データを階調圧縮して前記出力画像データの階調データに決定するとともに、かかる階調圧縮に伴う階調誤差を周辺画素に加算配分する誤差拡散処理手段と、
前記出力画像データを伝送路を介して表示装置に送信する送信手段と、
を具備することを特徴とする画像データの送信装置。
Storage means for storing a first frame constituting one screen and a second frame immediately before the first frame;
The first frame and the second frame are read from the storage means, and gradation data including gradation error distribution from surrounding pixels of the pixels constituting the first frame and the same position as the pixels of the first frame Difference means for obtaining difference data from the gradation data of the pixels of the second frame corresponding to
When the difference data falls below a predetermined gradation reference, the gradation data of the pixel of the second frame is determined as the gradation data of the output image data, and the gradation error based on the difference data is added to surrounding pixels. When the difference data is the same as or exceeds the predetermined gradation reference, the gradation data of the pixels constituting the first frame is gradation-compressed and gradation data of the output image data is distributed. And error diffusion processing means for adding and distributing gradation errors due to such gradation compression to surrounding pixels,
Transmitting means for transmitting the output image data to a display device via a transmission path;
An image data transmitting apparatus comprising:
前記伝送路への送信に先だって、直前のフレームとの出力画像データの差分データを求め、該差分データを可逆圧縮する手段をさらに具備することを特徴とする請求項4に記載の画像データの送信装置。  5. The transmission of image data according to claim 4, further comprising means for obtaining difference data of output image data from the immediately preceding frame prior to transmission to the transmission path and reversibly compressing the difference data. apparatus. 前記出力画像データを前記伝送路を介し所定のパケット伝送プロトコルに従って伝送するためのパケットデータを作成する手段をさらに具備し、
前記パケットデータは、前記差分データが所定の階調基準と同じ又は該階調基準を上回ったことにより階調圧縮がなされた、画面の書き換えが必要な画素の位置データ及び該位置データについての前記出力画像データを含むことを特徴とする請求項5に記載の画像データの送信装置。
Means for creating packet data for transmitting the output image data through the transmission line according to a predetermined packet transmission protocol;
The packet data includes pixel position data that needs to be rewritten and has undergone gradation compression when the difference data is equal to or exceeds a predetermined gradation reference, and the position data regarding the position data. 6. The image data transmitting apparatus according to claim 5, further comprising output image data.
JP2001226467A 2001-07-26 2001-07-26 Image data conversion method and apparatus Expired - Fee Related JP3776766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001226467A JP3776766B2 (en) 2001-07-26 2001-07-26 Image data conversion method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001226467A JP3776766B2 (en) 2001-07-26 2001-07-26 Image data conversion method and apparatus

Publications (2)

Publication Number Publication Date
JP2003037845A JP2003037845A (en) 2003-02-07
JP3776766B2 true JP3776766B2 (en) 2006-05-17

Family

ID=19059278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001226467A Expired - Fee Related JP3776766B2 (en) 2001-07-26 2001-07-26 Image data conversion method and apparatus

Country Status (1)

Country Link
JP (1) JP3776766B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005305870A (en) * 2004-04-22 2005-11-04 Seiko Epson Corp Device of controlling access to memory means provided on liquid cartridge
KR100598119B1 (en) * 2005-01-17 2006-07-10 삼성전자주식회사 Display apparatus and control method thereof
JP5633046B2 (en) * 2012-08-31 2014-12-03 株式会社アクセル Image information processing method and image information processing system
CN111556612B (en) * 2020-06-04 2022-02-18 黄萍 Compressed gray control code protocol for power line carrier driving LED lamp body

Also Published As

Publication number Publication date
JP2003037845A (en) 2003-02-07

Similar Documents

Publication Publication Date Title
JP3620521B2 (en) Image processing apparatus, image transmission apparatus, image receiving apparatus, and image processing method
JP2003162272A5 (en)
TW409210B (en) Continuous tone compression/decompression apparatus and method, data process apparatus and device, and memory media for storing the programs executing these methods
JP2008532083A (en) New compression format and apparatus using new compression format for temporarily storing image data in frame memory
US8041130B2 (en) Compressive overdrive circuit and associated method
US6968012B1 (en) Methods for encoding digital video for decoding on low performance devices
US7492951B2 (en) Image processing method and apparatus, and computer-readable storage medium
CN101064816B (en) Image processing apparatus and method for preventing degradation of image quality when bit format of image is converted
JP3776766B2 (en) Image data conversion method and apparatus
JP4288398B2 (en) Image recording apparatus, image reproducing apparatus, and recording medium recording image processing program
JP6512741B2 (en) Image processing apparatus and image processing method
JP3267256B2 (en) Image display processing device
US20110110600A1 (en) Method for compressing images and a format for compressed images
WO2009122463A1 (en) Image data compression apparatus, decompression apparatus, compression method, decompression method, and program
US7031514B1 (en) Image compression method
CN109413445B (en) Video transmission method and device
JP3716855B2 (en) Image processing apparatus and image processing method
KR100798386B1 (en) Method of compressing and decompressing image and equipment thereof
KR101292039B1 (en) image data processing method for display device
JP3781039B2 (en) Image processing apparatus and image processing method
JP2004135254A (en) Image processing unit
JP2004206138A5 (en)
JP3345475B2 (en) Image data encoding method and restoration method and apparatus
KR20190091181A (en) Image processing device
JPH10313403A (en) Still image pickup device, color copying device and display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060223

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100303

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees