JP2005234904A - 画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体 - Google Patents

画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体 Download PDF

Info

Publication number
JP2005234904A
JP2005234904A JP2004043489A JP2004043489A JP2005234904A JP 2005234904 A JP2005234904 A JP 2005234904A JP 2004043489 A JP2004043489 A JP 2004043489A JP 2004043489 A JP2004043489 A JP 2004043489A JP 2005234904 A JP2005234904 A JP 2005234904A
Authority
JP
Japan
Prior art keywords
image signal
signal processing
motion vector
input
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004043489A
Other languages
English (en)
Other versions
JP4534518B2 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Hitoshi Mukai
仁志 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004043489A priority Critical patent/JP4534518B2/ja
Publication of JP2005234904A publication Critical patent/JP2005234904A/ja
Application granted granted Critical
Publication of JP4534518B2 publication Critical patent/JP4534518B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】回路規模を大きくすることなく、性能を向上できるようにする。
【解決手段】画像信号処理装置100は、オブジェクト抽出処理部110と、フレーム間画像生成処理部130とを有している。処理部110は、画像に含まれるオブジェクトの領域を示すオブジェクト領域データOADを取得する。この処理部110は、オブジェクト抽出処理を行う際に、処理部130からの、補助信号としての各画素の動きベクトルMVgを利用し、処理性能を上げる。処理部130は、入力画像信号Saのフレーム間に位置する新たなフレームの画像信号を生成し、出力画像信号Sbを取得する。この処理部130は、フレーム間画像生成処理を行う際に、処理部110からの、補助信号としてのオブジェクト領域データOADを利用し、処理性能を上げる。
【選択図】 図1

Description

この発明は、画像信号に対して処理をする画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体に関する。
詳しくは、この発明は、画像信号処理の際に利用することでより高品質な画像信号処理を行うことが可能となる補助信号が入力されるとき、当該補助信号を利用して画像信号処理を行う構成とすることによって、回路規模を大きくすることなく、性能を向上できる画像信号処理装置等に係るものである。
従来、画像信号に対して処理をする画像信号処理装置が種々提案されている。例えば、特許文献1には、入力画像信号に基づいて画像に含まれるオブジェクトの領域を示すオブジェクト領域データを得るオブジェクト抽出処理を行う画像信号処理装置が記載されている。また例えば、特許文献2には、入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出し、この検出された動きベクトルを用いて入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成するフレーム間画像生成処理を行う画像信号処理装置が記載されている。
特開2002−269568号公報 特開2002−199349号公報
従来の画像信号処理装置、例えば上述したオブジェクト抽出処理を行う装置、フレーム間画像生成処理を行う装置等は、それぞれ独立して存在する装置である。そのため、たとえそれらの装置を同時に利用することがあっても、互いの持つ情報を交換し合い、それぞれの情報を用いてそれぞれの性能を向上させる機構もしくは装置は存在しなかった。
この発明の目的は、回路規模を大きくすることなく、性能の向上を図ることにある。
この発明に係る画像信号処理装置は、入力画像信号が入力される入力手段と、この入力手段に入力される入力画像信号に対して第1の画像信号処理を行う第1の画像信号処理手段と、この第1の画像信号処理手段で得られる処理結果を出力する出力手段と、第1の画像信号処理の際に利用することによって、より高品質な第1の画像信号処理を行うことが可能となる補助信号が入力される補助信号入力手段とを備え、補助信号入力手段に補助信号が入力されるとき、第1の画像信号処理手段は、その補助信号を利用して、第1の画像信号処理を行うものである。
また、この発明に係る画像信号処理方法は、入力画像信号を入力するステップと、この入力された入力画像信号に対して第1の画像信号処理を行うステップと、この第1の画像信号処理で得られる処理結果を出力するステップと、第1の画像信号処理の際に利用することによって、より高品質な第1の画像信号処理を行うことが可能となる補助信号を入力するステップとを備え、第1の画像信号処理を行うステップでは、補助信号を入力するステップで補助信号が入力されるとき、この補助信号を利用して第1の画像信号処理を行うものである。
また、この発明に係るプログラムは、上述した画像信号処理方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
この発明においては、入力画像信号に対して第1の画像信号処理が行われる。補助信号が入力されるとき、この第1の画像信号処理は、当該補助信号を利用して行われる。第1の画像信号処理の際に、補助信号が利用されることによって、より高品質な第1の画像信号処理が行われる。この補助信号は、例えば、上述した入力画像信号に対して、上述の第1の画像信号処理とは異なる第2の画像信号処理を行う他の画像信号処理装置からの信号であって、第2の画像信号処理の過程で生成される。そして、第1の画像信号処理で得られる処理結果が出力される。
例えば、第1の画像信号処理は、入力画像信号に基づいて画像に含まれるオブジェクトの領域を示すオブジェクト領域データを得るオブジェクト抽出処理である。この場合、入力画像信号に基づいてフレーム毎に各画素の動きベクトル(第1の動きベクトル)が検出され、この検出された各画素の動きベクトルから信頼度が高い動きベクトルが抽出され、この抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域が抽出され、この抽出された類似した動きベクトルの画素が含まれる領域に基づいて、オブジェクト領域が判定される。
ここで、補助信号は、上述した第1の動きベクトルとは異なる方法で、フレーム毎に検出された各画素の動きベクトル(第2の動きベクトル)とされる。補助信号としての第2の動きベクトルの入力があるとき、第1の動きベクトルと第2の動きベクトルとの差分データに基づいて、第1の動きベクトルから信頼度が高い動きベクトルの抽出が行われ、この抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域が抽出される。なお、補助信号としての第2の動きベクトルの入力がないとき、第1の動きベクトルそのものに基づいて、類似した動きベクトルの画素が含まれる領域が抽出される。
例えば、このように第1の画像信号処理で得られる処理結果としてのオブジェクト領域データを補助信号として出力するようにしてもよい。この場合、第1の画像信号処理を行う画像信号処理装置は、他の画像信号処理装置に補助信号としてのオブジェクト領域データを供給できる。
例えば、第1の画像信号処理は、入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出し、この検出された動きベクトルを用いて入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成するフレーム間画像生成処理である。この場合、入力画像信号に基づいてフレーム毎に各画素の動きベクトル(第3の動きベクトル)が検出され、この検出された各画素の動きベクトルのうち、オブジェクト境界付近で間違って検出された動きベクトルがノイズとされ、このノイズが低減され、このノイズが低減された動きベクトルに基づいて、入力画像信号のフレーム間に位置する新たなフレームの画像信号が生成される。
ここで、補助信号は、入力画像信号の各フレームで抽出された、画像に含まれるオブジェクトの領域を示すオブジェクト領域データとされる。補助信号としてのオブジェクト領域データの入力があるとき、このオブジェクト領域データに基づいてオブジェクト境界付近で間違って検出された動きベクトル(ノイズ)が低減される。この場合例えば、オブジェクト境界付近の画素の動きベクトルが、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えられることで補正され、ノイズが低減される。なお、補助信号としてのオブジェクト領域データの入力がないとき、第3の動きベクトルそのものに基づいて、入力画像信号のフレーム間に位置する新たなフレームの画像信号が生成される。
例えば、上述したように検出された第3の動きベクトルを補助信号として出力するようにしてもよい。この場合、第1の画像信号処理を行う画像信号処理装置は、他の画像信号処理装置に補助信号としての動きベクトルを供給できる。
このように、この発明においては、画像信号処理の際に利用することでより高品質な画像信号処理を行うことが可能となる補助信号が入力されるとき、当該補助信号を利用して画像信号処理を行うものであり、性能を向上できる。
またこの場合、入力された補助信号を利用するものであり、当該補助信号を得る回路を持つ必要はなく、従って回路規模が大きくなるという不都合はない。つまり、この発明においては、予め補助信号の入力を想定して回路が作られており、補助信号の入力が有る場合と無い場合の両方で回路が動作するようになっているため、補助信号を得る回路を持つ必要はなく、回路規模を大きくしないで済む。
この発明に係る画像信号処理装置は、入力画像信号に対してそれぞれ異なる画像信号処理を行う複数の画像信号処理部を備え、複数の画像信号処理部に含まれる第1の画像信号処理部は、入力画像信号が入力される入力手段と、この入力手段に入力される入力画像信号に対して第1の画像信号処理を行う第1の画像信号処理手段と、この第1の画像信号処理手段で得られる処理結果を出力する出力手段と、第1の画像信号処理の際に利用することによって、より高品質な第1の画像信号処理を行うことが可能となる、複数の画像信号処理部に含まれる第2の画像信号処理部からの補助信号が入力される補助信号入力手段とを有し、第1の画像信号処理手段は、補助信号入力手段に入力される補助信号を利用して上記第1の画像信号処理を行うものである。
この発明においては、複数の画像信号処理部に含まれる第1の画像信号処理部で、入力画像信号に対して第1の画像信号処理が行われる。この第1の画像信号処理部では、複数の画像信号処理部に含まれる第2の画像信号処理部からの補助信号を利用して、第1の画像信号処理が行われる。補助信号が利用されることによって、より高品質な第1の画像信号処理が行われる。この補助信号は、例えば、第2の画像信号処理部で行われる第2の画像信号処理の過程で生成される。
このように、この発明においては、第1の画像信号処理部は、画像信号処理の際に利用することでより高品質な画像信号処理を行うことが可能となる補助信号を利用して第1の画像信号処理を行うものであり、当該補助信号を得る回路を持つことなく、従って回路規模を大きくすることなく、性能を向上できる。
この発明に係る画像信号処理装置は、入力画像信号に対してオブジェクト抽出処理を行って画像に含まれるオブジェクトの領域を示すオブジェクト領域データを得る第1の画像信号処理部と、入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出し、入力画像信号に対してこの検出された動きベクトルを用いたフレーム間画像生成処理を行って、入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成する第2の画像信号処理部とを備え、第1の画像信号処理部は、オブジェクト抽出処理を行う際に、第2の画像信号処理部からの上記動きベクトルを利用し、第2の画像信号処理部は、フレーム間画像生成処理を行う際に、第1の画像信号処理部からのオブジェクト領域データを利用するものである。
この発明においては、第1の画像信号処理部では、入力画像信号に対してオブジェクト抽出処理が行われて、画像に含まれるオブジェクトの領域を示すオブジェクト領域データが得られる。この場合例えば、入力画像信号に基づいてフレーム毎に各画素の動きベクトル(第1の動きベクトル)が検出され、この検出された各画素の動きベクトルから信頼度が高い動きベクトルが抽出され、この抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域が抽出され、この抽出された類似した動きベクトルの画素が含まれる領域に基づいて、オブジェクト領域が判定される。
ここで、補助信号は、上述した第1の動きベクトルとは異なる方法で、フレーム毎に検出された各画素の動きベクトル(第2の動きベクトル)とされる。第1の動きベクトルと第2の動きベクトルとの差分データに基づいて、第1の動きベクトルから信頼度が高い動きベクトルの抽出が行われ、この抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域が抽出される。
また、第2の画像信号処理部では、入力画像信号に基づいてフレーム毎に各画素の動きベクトルが検出され、入力画像信号に対してこの検出された動きベクトルを用いたフレーム間画像生成処理が行われて、入力画像信号のフレーム間に位置する新たなフレームの画像信号が生成される。この場合例えば、入力画像信号に基づいてフレーム毎に各画素の動きベクトル(第3の動きベクトル)が検出され、この検出された各画素の動きベクトルのうち、オブジェクト境界付近で間違って検出された動きベクトルがノイズとされ、このノイズが低減され、このノイズが低減された動きベクトルに基づいて、入力画像信号のフレーム間に位置する新たなフレームの画像信号が生成される。この場合例えば、オブジェクト境界付近の画素の動きベクトルが、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えられることで、ノイズが低減される。
このように、この発明においては、第1、第2の画像信号処理部は、互いに他の画像信号処理部からの動きベクトル、オブジェクト領域データを利用してオブジェクト抽出処理、フレーム間画像生成処理を行うものであり、それぞれ回路規模を大きくすることなく、性能を向上できる。
この発明によれば、画像信号処理の際に利用することでより高品質な画像信号処理を行うことが可能となる補助信号が入力されるとき、当該補助信号を利用して画像信号処理を行う構成とするものであり、当該補助信号を得る回路を持つことなく、つまり回路規模を大きくすることなく、性能を向上できる。
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としての画像信号処理装置100の構成を示している。
この画像信号処理装置100は、オブジェクト抽出処理部110と、フレーム間画像生成処理部130とを有している。これら処理部110,130は、それぞれ画像信号処理部を構成している。
オブジェクト抽出処理部110は、入力画像信号Saに対してオブジェクト抽出処理を行って、画像に含まれるオブジェクトの領域を示すオブジェクト領域データOADを取得する。このオブジェクト抽出処理部110は、オブジェクト抽出処理を行う際に、フレーム間画像生成処理部130からの、補助信号としての動きベクトルMVgを利用する。
フレーム間画像生成処理部130は、入力画像信号Saに基づいてフレーム毎に各画素の動きベクトルMVgを検出し、入力画像信号Saに対してこの動きベクトルMVgを用いたフレーム間画像生成処理を行って、入力画像信号Saのフレーム間に位置する新たなフレームの画像信号を生成し、出力画像信号Sbを取得する。このフレーム間画像生成処理部130は、フレーム間画像生成処理を行う際に、オブジェクト抽出処理部110からの、補助信号としてのオブジェクト領域データOADを利用する。
オブジェクト抽出処理部110の詳細を説明する。図2は、オブジェクト抽出処理部110の構成を示している。このオブジェクト抽出処理部110は、入力画像信号Saが入力される入力端子111と、類似色領域抽出部112と、エッジ包囲領域抽出部113と、類似動き領域抽出部114と、統合判定部118と、オブジェクト領域データOADが出力される出力端子119と、補助信号入力端子120と、補助信号出力端子121とを有している。
類似色領域抽出部112は、入力端子111に入力される入力画像信号Saに基づいて、画像内の同一もしくは類似した色を持つ領域を類似色領域として抽出する。この類似色領域抽出部112は、当該類似色領域を、例えば隣接する画素との色成分値の差分が適当な範囲内に収まる画素の集合として抽出する。
エッジ包囲領域抽出部113は、入力端子111に入力される入力画像信号Saに基づいて、画像内のエッジで囲まれる領域をエッジ包囲領域として抽出する。このエッジ包囲領域抽出部113は、当該エッジ包囲領域を、例えば近傍画素との色成分値の差分が適当なしきい値以上である画素をエッジとして検出し、このエッジで包囲される画素の集合として抽出する。
類似動き領域抽出部114は、入力端子111に入力される入力画像信号Saに基づいて、画像内の類似した動きを持つ領域を類似動き領域として抽出する。この類似動き領域抽出部114は、当該類似動き領域を、例えば近傍画素との動きベクトルの差分データが適当な範囲内に収まる画素の集合として抽出する。
統合判定部118は、類似色領域抽出部112からの類似色領域を示す領域データAD1、エッジ包囲領域抽出部113からのエッジ包囲領域を示す領域データAD2および類似動き領域を示す領域データAD3に基づいて、最終的に同一オブジェクトと推定される領域を判定し、その領域を示すオブジェクト領域データOADを出力端子119に出力する。例えば、統合判定部118は、3つの領域全てに含まれる画素の集合をオブジェクト領域と判定する。また例えば、統合判定部118は、それぞれの領域について抽出確度による重み付けを行い、その重みの和が一定のしきい値以上の画素の集合をオブジェクト領域と判定する。出力端子119には、総合判定部118で得られるオブジェクト領域データOADが出力される。
補助信号入力端子120には、フレーム間画像生成処理部130からの動きベクトルMVgが補助信号として入力される。補助信号出力端子121には、統合判定部118で得られたオブジェクト領域データOADが補助信号として出力される。
類似動き領域抽出部114についてさらに説明する。この類似動き領域抽出部114は、動きベクトル検出部115と、高信頼度動きベクトル抽出部116と、類似動きベクトル領域抽出部117とを有している。
動きベクトル検出部115は、入力画像信号Saに基づいて、フレーム毎に、各画素の動きベクトルMVbを検出する。この動きベクトルMVbの検出は、例えば従来周知のブロックマッチング法により行われる。
高信頼度動きベクトル抽出部116は、動きベクトル検出部115で検出された各画素の動きベクトルMVbから信頼度の高い動きベクトルを抽出する。この動きベクトル抽出部116は、補助信号入力端子120に入力された動きベクトルMVgを利用して、信頼度の高い動きベクトルを抽出する。ここで、動きベクトルMVgは、後述するように動きベクトルMVbとは異なる方法、例えば従来周知の勾配法により検出されたものである。
この場合、画素毎に、その画素における動きベクトルMVb,MVgの差分データをとれば、その差分データを、その画素における動きベクトルMVbがどの程度信頼できるかを示す指標として利用できる。つまり、差分データが小さければ信頼度が高いと考えられ、逆に差分データが大きければ信頼度が低いと考えられる。これは、動きベクトルの検出方法が異なっても同じあるいは略同じ動きベクトルが検出されるのであれば、その動きベクトルは確からしいと考えられるし、逆に検出方法が異なることで異なる動きベクトルが検出されるのであれば、その動きベクトルは検出方法に依存した結果であって十分には確からしいとは言えないからである。
動きベクトル抽出部116は、画素毎に、動きベクトルMVb,MVgの差分データを求め、その差分データが予め定められたしきい値より小さい場合、その動きベクトルMVbを、信頼度の高い動きベクトルとして抽出する。ここで、動きベクトルMVbが(hb,vb)で表され、動きベクトルMVgが(hg,vg)で表される場合、差分データΔdは、例えば以下の(1)式で算出される。
Δd=√{(hg−hb2+(vg−vb2} ・・・(1)
類似動きベクトル領域抽出部117は、動きベクトル抽出部116で抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域を類似動き領域として抽出し、その類似動き領域を示す領域データAD3を出力する。この場合、類似動きベクトル領域抽出部117は、類似動き領域を、近傍画素との動きベクトルの差分データ((1)式参照)が適当な範囲内に収まる画素の集合として抽出する。
なお、上述の動きベクトル抽出部120は、補助信号入力端子120に、動きベクトルMVgが入力されていないときは、動きベクトル検出部115で検出された動きベクトルMVbをそのまま出力し、実質的に、信頼度の高い動きベクトルを抽出する処理を行わない。この場合、類似動きベクトル領域抽出部117は、動きベクトル検出部115で検出された動きベクトルMVbに基づいて、類似動き領域を抽出する。
図2に示すオブジェクト抽出処理部110の動作を説明する。入力端子111に入力される入力画像信号Saは、類似色領域抽出部112、エッジ包囲領域抽出部113および類似動き領域抽出部114に供給される。
類似色領域抽出部112では、入力画像信号Saに基づいて、画像内の同一もしくは類似した色を持つ領域が類似色領域として抽出される。この類似色領域抽出部112から出力される類似色領域を示す領域データAD1は、統合判定部118に供給される。エッジ包囲領域抽出部113では、入力画像信号Saに基づいて、画像内のエッジで囲まれる領域がエッジ包囲領域として抽出される。このエッジ包囲領域抽出部113から出力されるエッジ包囲領域を示す領域データAD2は、統合判定部118に供給される。
また、類似動き領域抽出部114では、入力画像信号Saに基づいて、画像内の類似した動きを持つ領域が類似動き領域として抽出される。すなわち、動きベクトル検出部115では、入力画像信号Saに基づいて、フレーム毎に、各画素の動きベクトルMVbが、ブロックマッチング法により検出される。そして、高信頼度動きベクトル抽出部116では、補助信号入力端子120に入力された、勾配法により検出された動きベクトルMVgを利用して、動きベクトル検出部115で検出された各画素の動きベクトルMVbから、信頼度の高い動きベクトルが抽出される。そして、類似動きベクトル領域検出部117では、動きベクトル抽出部116で抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域が類似動き領域として抽出される。
この類似動き領域抽出部114、従って類似動きベクトル領域抽出部117から出力される類似動き領域を示す領域データAD3は、統合判定部118に供給される。なお、補助信号入力端子120に動きベクトルMVgが入力されていないときは、高信頼度動きベクトル抽出部116は信頼度の高い動きベクトルを抽出する処理を行わず、動きベクトル検出部115で検出された各画素の動きベクトルMVbがそのまま類似動きベクトル領域抽出部117に供給される。そして、類似動きベクトル領域抽出部117では、その動きベクトルMVbに基づいて、類似動き領域が抽出される。
統合判定部118では、抽出部112〜114からの領域データAD1〜AD3に基づいて、最終的に同一オブジェクトと推定される領域がオブジェクト領域として判定される。この統合判定部118から出力されるオブジェクト領域データOADは出力端子119に出力される。また、このオブジェクト領域データOADは、補助信号として補助信号出力端子121に出力される。この補助信号としてのオブジェクト領域データOADは、上述したようにフレーム間画像生成処理部130で利用される。
図3のフローチャートは、オブジェクト抽出処理部110の処理手順(1フレーム分)を示している。ステップST11で、処理を開始し、ステップST12で、入力画像信号Saを入力し、ステップST13で、類似動き領域を抽出する。
すなわち、ステップST14で、入力画像信号Saに基づいて、ブロックマッチング法により、各画素の動きベクトルMVbを検出する。そして、ステップST15で、補助信号としての動きベクトルMVgを入力する。そして、ステップST16で、動きベクトルMVgの入力があるか否かを判定する。動きベクトルMVgの入力があるときは、ステップST17で、この動きベクトルMVgを利用して、各画素の動きベクトルMVbから、信頼度の高い動きベクトルを抽出し、ステップST18で、その信頼度の高い動きベクトルに基づいて、類似動きベクトル領域を抽出し、その領域を類似動き領域とする。
なお、ステップST16で、動きベクトルMVgの入力がないときは、直ちにステップST18に進み、ステップST14で検出された各画素の動きベクトルMVbに基づいて、類似動きベクトル領域を抽出し、その領域を類似動き領域とする。
次に、ステップST19で、ステップST12で入力された入力画像信号Saに基づいて、類似色領域を抽出する。そして、ステップST20で、ステップST12で入力された入力画像信号Saに基づいて、エッジ包囲領域を抽出する。
次に、ステップST21で、ステップST13で抽出された類似動き領域、ステップST19で抽出された類似色領域、ステップST20で抽出されたエッジ包囲領域に基づいて、最終的に同一オブジェクトと推定されるオブジェクト領域を判定し、その領域を示すオブジェクト領域データOADを出力する。また、ステップST22で、そのオブジェクト領域データOADを補助信号として出力する。そして、ステップST23で、処理を終了する。
次に、フレーム間画像生成処理部130の詳細を説明する。図4は、フレーム間画像生成処理部130の構成を示している。このフレーム間画像生成処理部130は、上述したように、入力画像信号Saに対してフレーム間画像生成処理を行って、入力画像信号Saのフレーム間に位置する新たなフレームの画像信号を生成し、出力画像信号Sbを取得するものである。
ここでは、入力画像信号Saが525p/24フレームの画像信号であり、出力画像信号Sbが525p/60フレームの画像信号であるとする。なお、525p/24フレームの画像信号は、フレーム周波数が24Hzであって、1フレームのライン数が525本のプログレッシブ方式の画像信号である。また、525p/60フレームの画像信号は、フレーム周波数が60Hzであって、1フレームのライン数が525本のプログレッシブ方式の画像信号である。
このフレーム間画像生成処理部130は、入力画像信号Saが入力される入力端子131と、時間モード指定部132と、動きベクトル検出部133と、オブジェクト境界ノイズ低減処理部134と、タップ中心位置決定部135と、予測タップ選択部136と、クラスタップ選択部137と、クラス検出部138と、係数メモリ139と、推定予測演算部140と、出力画像信号Sbが出力される出力端子141と、補助信号入力端子142と、補助信号出力端子143とを有している。
時間モード指定部132は、画像信号Saのフレームに対する、画像信号Sbの生成すべきフレームの時間位置を示す時間モードを指定する。画像信号Saのフレーム周波数は24Hzであり、画像信号Sbのフレーム周波数は60Hzである。そのため、画像信号Saの各フレームに対して、画像信号Sbの各フレームの時間位置は、例えば図5に示すように、設定される。この場合、画像信号Saのフレームに対する画像信号Sbのフレームの時間位置を示す時間モードとしてモード0〜モード4が存在する。
この場合、画像信号Sbのモード0〜モード2のフレームは、画像信号Saのnフレームおよびn+1フレームから生成される。また、画像信号Sbのモード3、モード4のフレームは、画像信号Saのn+1フレームおよびn+2フレームから生成される。ここで画像信号Saの1フレーム期間を1とすると、画像信号Sbのモード0〜モード4のフレームは、それぞれ、画像信号Saの前後の2フレームから以下のように離れた時間位置にある。
すなわち、画像信号Sbのモード0のフレームは、画像信号Saのnフレームから0.1だけ離れると共に、画像信号Saのn+1フレームから0.9だけ離れた位置にある。画像信号Sbのモード1のフレームは、画像信号Saのnフレームから0.5だけ離れると共に、画像信号Saのn+1フレームから0.5だけ離れた位置にある。画像信号Sbのモード2のフレームは、画像信号Saのnフレームから0.9だけ離れると共に、画像信号Saのn+1フレームから0.1だけ離れた位置にある。画像信号Sbのモード3のフレームは、画像信号Saのn+1フレームから0.3だけ離れると共に、画像信号Saのn+2フレームから0.7だけ離れた位置にある。画像信号Sbのモード4のフレームは、画像信号Saのn+1フレームから0.7だけ離れると共に、画像信号Saのn+2フレームから0.3だけ離れた位置にある。
時間モード指定部132は、画像信号Sbの各フレームに同期させて、モード0〜モード4を、順次繰り返し指定し、その指定した時間モードを示すモード信号MODを出力する。なお、上述したように、画像信号Saのn〜n+2の3フレームから画像信号Sbのモード0〜モード4の5フレームが生成される。画像信号Sbの次のモード0〜モード4の5フレームは、上述のn+2フレームをnフレームとした、画像信号Saの次のn〜n+2の3フレームから生成される。
動きベクトル検出部133は、入力端子131に入力される画像信号Saに基づいて、フレーム毎に、各画素の動きベクトルMVgを検出する。この各画素の動きベクトルMVgの検出は、例えば従来周知の勾配法により行われる。
オブジェクト境界ノイズ低減処理部134は、動きベクトル検出部133で検出された各画素の動きベクトルMVgのうち、オブジェクト境界付近で間違って検出された動きベクトルをノイズとし、このノイズを低減する処理を行う。一般に、オブジェクトの境界付近に相当する画素における動きベクトルの検出は困難である。ノイズ低減処理部134は、後述するように補助信号入力端子142に入力された、オブジェクト領域データOADを利用してオブジェクトの境界を把握することで、上述したオブジェクト境界付近で間違って検出された動きベクトル、つまりノイズを低減する。
このノイズ低減処理部134は、例えばオブジェクト境界付近の画素の動きベクトルを、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えることで、ノイズを低減する。例えば、図6Aに示すように、画像にオブジェクトAとオブジェクトBが存在し、その境界付近の画素の動きベクトルが間違って検出されているものとする。この場合、図6Bに示すように、オブジェクト境界を把握し、オブジェクト境界付近の画素の動きベクトルを、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えることで補正し、オブジェクト境界付近で間違って検出された動きベクトル、つまりノイズが低減される。
このようにノイズ低減処理部134で処理されて得られる各画素の動きベクトルは、後述するタップ中心位置決定部135で使用される。なお、このノイズ低減処理部134は、補助信号入力端子142に、オブジェクト領域データOADが入力されていないときは、動きベクトル検出部133で検出された動きベクトルMVgをそのまま出力し、実質的に、ノイズ低減処理を行わない。この場合、タップ中心位置決定部135は、動きベクトル検出部133で検出された動きベクトルMVgそのものに基づいて、タップ中心位置を決定する。
タップ中心位置決定部135は、後述する予測タップおよびクラスタップの中心位置を決定する。すなわち、このタップ中心位置決定部135は、画像信号Sbのモード0〜モード2のフレームにおける注目画素位置の画素データを生成する際に、その注目画素位置に対応した、画像信号Saにおけるn+1フレームのnフレームに対する動きベクトルMVn+1(図7A参照)を用いて、画像信号Saのnフレームおよびn+1フレームに張る予測タップ、クラスタップの中心位置を決定し、タップ中心位置の情報CEPを出力する。この動きベクトルMVn+1として、ノイズ低減処理部134から出力される、画像信号Saのn+1フレームにおける各画素の動きベクトルが使用される。
また、タップ中心位置決定部135は、画像信号Sbのモード3、モード4のフレームにおける注目画素位置の画素データを生成する際に、その注目画素位置に対応した、画像信号Saにおけるn+2フレームのn+1フレームに対する動きベクトルMVn+2(図7A参照)を用いて、画像信号Saのn+1フレームおよびn+2フレームに張る予測タップ、クラスタップの中心位置を決定し、タップ中心位置の情報CEPを出力する。この動きベクトルMVn+2として、ノイズ低減処理部134から出力される、画像信号Saのn+2フレームにおける各画素の動きベクトルが使用される。
ここで、タップ中心位置決定の手順を、図7Bに示すように、例えば画像信号Sbのモード1のフレームにおける注目画素位置P0の画素データを生成する場合を例にとって説明する。まず、注目画素位置P0に対応するn+1フレームの画素位置P0n+1での動きベクトルMVn+1(実線図示)を取得する。
次に、この動きベクトルMVn+1を、モード1のフレームの、nフレームおよびn+1フレームに対する時間位置のずれに応じて割り振って、注目画素位置P0のnフレームに対する動きベクトルMVFと、注目画素位置P0のn+1フレームに対する動きベクトルMVRとを取得する。
次に、注目画素位置P0から動きベクトルMVF分ずれた画素位置を算出し、その画素位置を四捨五入、切り捨て、または切り上げによって、整数画素位置に丸めた画素位置Pnを、nフレームに張る予測タップ、クラスタップのタップ中心位置に決定する。
同様に、注目画素位置P0から動きベクトルMVR分ずれた画素位置を算出し、その画素位置を四捨五入、切り捨て、または切り上げによって、整数画素位置に丸めた画素位置Pn+1を、n+1フレームに張る予測タップ、クラスタップのタップ中心位置に決定する。
予測タップ選択部136、クラスタップ選択部137は、それぞれ、画像信号Sbのモード0〜モード2のフレームにおける注目画素位置の画素データを生成する場合には、画像信号Saのnフレームおよびn+1フレームのそれぞれから、複数の画素データを予測タップ、クラスタップのデータとして選択的に抽出する。この場合、予測タップ選択部136、クラスタップ選択部137は、それぞれ、タップ中心位置決定部135から供給されるタップ中心位置の情報CEPに基づき、nフレームおよびn+1フレームのそれぞれから、タップ中心位置として決定された画素位置を中心とした複数の画素データを選択的に抽出する。
また、予測タップ選択部136、クラスタップ選択部137は、それぞれ、画像信号Sbのモード3、モード4のフレームにおける注目画素位置の画素データを生成する場合には、画像信号Saのn+1フレームおよびn+2フレームのそれぞれから、複数の画素データを予測タップ、クラスタップのデータとして選択的に抽出する。この場合、予測タップ選択部136、クラスタップ選択部137は、それぞれ、タップ中心位置決定部135から供給されるタップ中心位置の情報CEPに基づき、n+1フレームおよびn+2フレームのそれぞれから、タップ中心位置として決定された画素位置を中心とした複数の画素データを選択的に抽出する。
図8Aは、画像信号Saの2フレームのそれぞれから選択的に抽出される、予測タップのデータとしての複数の画素データのパターン例を示している。図8Bは、画像信号Saの2フレームのそれぞれから選択的に抽出される、クラスタップのデータとしての複数の画素データ(実線部分)のパターン例を示している。
クラス検出部138は、クラスタップ選択部137で選択的に抽出されるクラスタップのデータとしての複数の画素データを処理して、注目画素位置の画素データが属するクラスを示すクラスコードCLを生成する。
すなわち、クラス検出部138は、まず、複数の画素データにADRC(Adaptive Dynamic Range Coding)のデータ圧縮処理を施し、例えば各画素データを8ビットデータから2ビットデータあるいは1ビットデータに圧縮する。この場合、複数の画素データの最大値をMAX、その最小値をMIN、複数の画素データのダイナミックレンジをDR(=MAX−MIN+1)、再量子化ビット数をPとすると、各画素データkiに対して、(2)式の演算により、圧縮データとしての再量子化コードqiが得られる。ただし、(2)式において、[ ]は切り捨て処理を意味している。クラスタップのデータとして、Na個の画素データがあるとき、i=1〜Naである。
qi=[(ki−MIN+0.5)*2P/DR] ・・・(2)
クラス検出部138は、次に、クラスタップのデータとしての複数の画素データのそれぞれに対して得られた上述の再量子化コードqiを用い、(3)式の演算により、クラスコードCLを生成する。
Figure 2005234904
係数メモリ139は、後述する推定予測演算部140で使用される推定式で用いられる係数データWi(i=1〜n)を、クラス毎に、格納している。この場合、各クラスの係数データWiは、それぞれ上述したモード0〜モード4のそれぞれの時間モードに対応した係数データWiからなっている。この係数データWiは、画像信号Sa(525p/24フレームの画像信号)を、画像信号Sb(525p/60フレームの画像信号)に変換するための情報である。
この係数メモリ139には、上述したクラス検出部138で生成されたクラスコードCL、および時間モード指定部132から出力されるモード信号MODが、読み出しアドレス情報として供給される。この係数メモリ139からは、クラスコードCLで示されるクラス、およびモード信号MODで指定される時間モードに対応した係数データWiが読み出され、その係数データWiが推定予測演算部140に供給される。
推定予測演算部140は、予測タップ選択部136で選択的に抽出された予測タップのデータとしての複数の画素データxiと、係数メモリ139から読み出された係数データWiとを用い、(4)式の推定式に基づいて、画像信号Sbの時間モード指定部321で指定されたモードのフレームにおける、注目画素位置の画素データyを求める。
Figure 2005234904
補助信号入力端子142には、オブジェクト抽出処理部110からのオブジェクト領域データOADが入力される。補助信号出力端子121には、動きベクトル検出部133で検出された各画素の動きベクトルMVgが補助信号として出力される。
図4に示すフレーム間画像生成処理部130の動作を説明する。
入力端子131に入力される入力画像信号Saは、動きベクトル検出部133に供給される。この動きベクトル検出部133では、入力画像信号Saに基づいて、フレーム毎に、各画素の動きベクトルMVgが、勾配法により検出される。そして、オブジェクト境界ノイズ低減処理部134では、補助信号入力端子142に入力されたオブジェクト領域データOADを利用して、オブジェクト境界付近で間違って検出された動きベクトル(ノイズ)が低減される。この場合例えば、オブジェクト領域データOADを利用してオブジェクトの境界が把握され、オブジェクト境界付近の画素の動きベクトルが、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えられることで補正される。
このように、ノイズ低減処理部134で処理されて得られる各画素の動きベクトルは、タップ中心位置決定部135に供給される。なお、補助信号入力端子142にオブジェクト領域データOADが入力されていないときは、ノイズ低減処理部134はノイズを低減する処理を行わず、従って動きベクトル検出部133で検出された各画素の動きベクトルMVgがそのままタップ中心位置決定部135に供給される。
以下、画像信号Sbのモード0のフレームを生成する場合の動作を説明する。この場合、時間モード指定部132からは、モード0を示すモード信号MODが出力される。このモード信号MODは、タップ中心位置決定部135に供給される。このタップ中心位置決定部135では、画像信号Sbのモード0のフレームにおける注目画素位置に対応した、画像信号Saにおけるn+1フレームのnフレームに対する動きベクトルMVn+1が使用され、画像信号Saのnフレームおよびn+1フレームに張る予測タップ、クラスタップの中心位置が決定される。
タップ中心位置決定部135から出力されるタップ中心位置の情報CEPは、予測タップ選択部136およびクラスタップ選択部137に供給される。クラスタップ選択部137では、タップ中心位置の情報CEPに基づき、画像信号Saのnフレームおよびn+1フレームのそれぞれから、タップ中心位置として決定された画素位置を中心とした複数の画素データが選択的に抽出される。この複数の画素データはクラス検出部138に供給される。クラス検出部138では、クラスタップのデータとしての複数の画素データkiのそれぞれに対してADRC処理が施されて再量子化コードqiが得られ、さらにこの再量子化コードqiを用いてクラスコードCLが生成される((2)式、(3)式参照)。
クラス検出部138で生成されるクラスコードCLは、係数メモリ139に読み出しアドレス情報として供給される。また、この係数メモリ139には、時間モード指定部132から出力されるモード信号MODも、読み出しアドレス情報として供給される。
予測タップ選択部136では、タップ中心位置の情報CEPに基づき、画像信号Saのnフレームおよびn+1フレームのそれぞれから、タップ中心位置として決定された画素位置を中心とした複数の画素データが選択的に抽出される。この複数の画素データは推定予測演算部140に供給される。
係数メモリ139からは、クラスコードCLで示されるクラス、およびモード信号MODで指定されるモード1に対応した係数データWiが読み出され、その係数データWiが推定予測演算部140に供給される。この推定予測演算部140では、予測タップ選択部136で選択的に抽出された予測タップのデータとしての複数の画素データxiと、係数メモリ139から読み出された係数データWiとが用いられ、(4)式の推定式に基づいて、画像信号Sbのモード0のフレームにおける注目画素位置の画素データyが求められる。
画像信号Sbのモード0のフレームにおける注目画素位置を、このフレームを構成する全画素位置に順次変化させることで、このフレームを構成する全画素位置の画素データyが求められ、従ってこのモード0のフレームが生成される。
また、画像信号Sbのモード1〜モード4のフレームも、時間モード指定部132で、それぞれモード1〜モード4を指定することで、上述したモード0のフレームと同様に生成される。これにより、フレーム間画像生成処理部130では、画像信号Sa(525p/24フレーム)が、画像信号Sb(525p/60フレームの画像信号)に変換される。
また、動きベクトル検出部133で検出された各画素の動きベクトルMVgは、補助信号として補助信号出力端子143に出力される。この補助信号としての各画素の動きベクトルMVgは、上述したようにオブジェクト抽出処理部110で利用される。
図9のフローチャートは、フレーム間画像生成処理部130の処理手順(モード0〜モード4の5フレーム分)を示している。
ステップST31で、処理を開始し、ステップST32で、入力画像信号Saのn〜n+2のフレームを入力する。そして、ステップST33で、入力画像信号Saのn〜n+2のフレームに基づいて、n+1フレームの各画素の動きベクトルMVgおよびn+2フレームの各画素の動きベクトルMVgを検出する。ここで、n+1フレームの各画素の動きベクトルMVgは、画像信号Sbのモード0〜モード2のフレームにおける注目画素位置に係るタップ中心位置を決定する際に使用される。また、n+2フレームの各画素の動きベクトルMVgは、画像信号Sbのモード3、モード4のフレームにおける注目画素位置に係るタップ中心位置を決定する際に使用される。
次に、ステップST34で、ステップST33で検出された各画素の動きベクトルMVgを補助信号として出力する。そして、ステップST35で、補助信号としてのn+1フレームおよびn+2フレームにおけるオブジェクト領域データOADを入力する。そして、ステップST36で、オブジェクト領域データOADの入力があるか否かを判定する。
オブジェクト領域データOADの入力があるときは、ステップST37で、このオブジェクト領域データOADを利用してオブジェクトの境界を把握し、ステップST33で検出された各画素の動きベクトルMVgのうち、オブジェクト境界付近で間違って検出された動きベクトル(ノイズ)を低減し、その後にステップST38に進む。ノイズの低減は、例えば、オブジェクト境界付近の画素の動きベクトルを、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えて補正することで行う。一方、オブジェクト領域データOADの入力がないときは、直ちにステップST38に進む。
ステップST38では、ステップST37の処理を経た、あるいはステップST33で検出されたままの動きベクトルを用いて、画像信号Sbのモード0〜モード4のフレームを生成して出力する。そして、このステップST38の処理の後に、ステップST39で、処理を終了する。
図10のフローチャートは、上述したステップST38における処理の詳細を示している。ステップST41で、処理を開始し、ステップST42で、時間モードを指定する。最初は、時間モード0を指定する。そして、ステップST43で、ステップST42で指定された時間モードのフレームの注目画素位置を選択する。そして、ステップST44で、ステップST43で選択された注目画素位置に対応した予測タップ、クラスタップのタップ中心位置を、その注目画素位置に対応した動きベクトルを用いて決定する。
次に、ステップST45で、ステップST44で決定されたタップ中心位置の情報に基づいて、ステップST42で指定された時間モードのフレームの前後に位置する画像信号Saのフレームから、複数の画素データをクラスタップのデータとして抽出する。そして、ステップST46で、この複数の画素データにADRC等のデータ圧縮処理を施し、注目画素位置の画素データが属するクラスを示すクラスコードCLを生成する。
次に、ステップST47で、ステップST44で決定されたタップ中心位置の情報に基づいて、ステップST42で指定された時間モードのフレームの前後に位置する画像信号Saのフレームから、複数の画素データを予測タップのデータとして抽出する。そして、ステップST48で、ステップST46で生成されたクラスコードCLで示されるクラス、およびステップST42で指定された時間モードに対応した係数データWiを選択する。そして、ステップST49で、ステップST47で選択的に抽出された予測タップのデータとしての複数の画素データxiと、ステップST48で選択された係数データWiとを用い、推定式((4)式参照)に基づいて、注目画素位置の画素データyを生成する。
次に、ステップST50で、ステップST42で指定された時間モードのフレームにおける全画素の画素データを生成したか否かを判定する。全画素の画素データを生成していないときは、ステップST43に戻って、次の注目画素位置を選択し、上述したと同様にして、当該次の注目画素位置の画素データyを生成する。
ステップST50で全画素の画素データを生成したときは、ステップST51に進む。このステップST51では、モード0〜モード4の全フレームを生成したか否かを判定する。全フレームを生成していないときは、ステップST42に戻って、次の時間モードを指定し、上述したと同様にして、当該次の時間モードのフレームを生成する。一方、全フレームを生成したときは、ステップST52で、処理を終了する。
ここで、上述したフレーム間画像生成処理部130の係数メモリ139(図4参照)に格納される、係数データWi(i=1〜n)の生成方法について説明する。この係数データWiは、学習によって生成される。
まず、学習方法について説明する。上述の(4)式において、学習前は係数データW1,W2,‥‥,Wnは未定係数である。学習は、クラス毎に、複数の学習データを用いることで行われる。学習データ数がmの場合、(4)式に従って、以下に示す(5)式が設定される。nは予測タップの数を示している。
k=W1×xk1+W2×xk2+‥‥+Wn×xkn ・・・(5)
(k=1,2,‥‥,m)
m>nの場合、係数データW1,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の(6)式で定義し、(7)式のe2を最小にする係数データを求める。いわゆる最小二乗法によって係数データを一意に定める。
k=yk−{W1×xk1+W2×xk2+‥‥+Wn×xkn} ・・・(6)
(k=1,2,‥‥m)
Figure 2005234904
(7)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(8)式に示すように、e2を係数データWi(i=1〜n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
Figure 2005234904
(9)式、(10)式のようにXji,Yiを定義すると、(8)式は、(11)式の行列式の形に書くことができる。この(11)式が、係数データを算出するための正規方程式である。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1〜n)を求めることができる。
Figure 2005234904
Figure 2005234904
次に、図11を参照して、係数データWiを生成する係数データ生成装置350を説明する。
この係数データ生成装置350は、上述した画像信号Sbに対応した教師信号としての525p/60フレームの画像信号が入力される入力端子351と、上述した画像信号Sbに対応した生徒信号としての525p/24フレームの画像信号が入力される入力端子352とを有している。
また、係数データ生成装置350は、時間モード指定部353を有している。この時間モード指定部353は、生徒信号のフレームに対する、教師信号のフレームの時間位置を示す時間モードを指定する。この時間モード指定部353は、上述したフレーム間画像生成処理部130の時間モード指定部132に対応するものである。この時間モード指定部353は、指定した時間モードを示すモード信号MODを出力する。
また、係数データ生成装置350は、動きベクトル検出部354を有している。この動きベクトル検出部354は、生徒信号のフレーム毎に、直前のフレームに対する動きベクトルを検出する。この場合、動きベクトルは、従来周知のブロックマッチング法あるいは勾配法等で検出され、画素毎に検出される。この動きベクトル検出部354は、上述したフレーム間画像生成処理部130の動きベクトル検出部133およびノイズ低減処理部134に対応するものであって、各画素の動きベクトルが高精度に検出されるものである。
また、係数データ生成装置350は、タップ中心位置決定部355を有している。このタップ中心位置決定部355は、予測タップおよびクラスタップの中心位置を決定する。すなわち、このタップ中心位置決定部355は、時間モード指定部353からのモード信号MODで指定される、教師信号の所定時間モードのフレームにおける注目画素位置に対応した、予測タップ、クラスタップの中心位置を、動きベクトル検出部354で検出された動きベクトルを使用して決定し、タップ中心位置の情報CEPを出力する。このタップ中心位置決定部355は、上述したフレーム間画像生成処理部130のタップ中心位置決定部135に対応するものである。
また、係数データ生成装置350は、予測タップ選択部356と、クラスタップ選択部357とを有している。これら予測タップ選択部356、クラスタップ選択部357は、それぞれ、タップ中心位置決定部355から供給されるタップ中心位置の情報CEPに基づき、生徒信号から、時間モード指定部353からのモード信号MODで指定される、教師信号の所定時間モードのフレームにおける注目画素位置に対応した、予測タップ、クラスタップのデータとしての複数の画素データを選択的に抽出する。この予測タップ選択部356、クラスタップ選択部357は、それぞれ、上述したフレーム間画像生成処理部130の予測タップ選択部136、クラスタップ選択部137に対応するものである。
また、係数データ生成装置350は、クラス検出部358を有している。このクラス検出部358は、クラスタップ選択部357で選択的に抽出されるクラスタップのデータとしての複数の画素データを処理して、時間モード指定部353からのモード信号MODで指定される、教師信号の所定時間モードのフレームにおける注目画素位置の画素データが属するクラスを示すクラスコードCLを生成する。このクラス検出部358は、上述したフレーム間画像生成処理部130のクラス検出部138に対応するものである。
また、係数データ生成装置350は、教師タップ選択部359を有している。この教師タップ選択部359は、教師信号から、時間モード指定部353からのモード信号MODで指定される所定時間モードのフレームにおける注目画素位置の画素データを選択的に抽出する。
また、係数データ生成装置350は、正規方程式生成部360を有している。この正規方程式生成部360は、教師タップ選択部359で選択的に抽出された、教師信号の所定時間モードのフレームにおける各注目画素位置の画素データyと、この各注目画素位置の画素データyにそれぞれ対応して予測タップ選択部356で選択的に抽出された、予測タップのデータとしての複数の画素データxiと、各注目画素位置の画素データyにそれぞれ対応してクラス検出部358で得られたクラスコードCLとから、クラス毎に、所定時間モードの係数データWiを得るための正規方程式((11)式参照)を生成する。
この場合、1個の画素データyとそれに対応する複数個の画素データxiとの組み合わせで1個の学習データが生成される。教師信号の所定時間モードのフレームと、それに対応した生徒信号のフレームとの間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部360では、クラス毎に、所定時間モードの係数データWiを得るための正規方程式が生成される。
また、係数データ生成装置350は、係数データ決定部361と、係数メモリ362とを有している。係数データ決定部361は、正規方程式生成部360から正規方程式のデータの供給を受け、当該正規方程式を掃き出し法等によって解き、所定時間モードの係数データWiを求める。係数メモリ362は、この所定時間モードの係数データWiを格納する。
図11に示す係数データ生成装置350の動作を説明する。
時間モードがモード0の係数データWiを生成する動作を説明する。この場合、時間モード指定部353からは、モード0を示すモード信号MODが出力される。このモード信号MODは、タップ中心位置決定部355、教師タップ選択部359および正規方程式生成部360に供給される。
タップ中心位置決定部355では、動きベクトル検出部354で検出される動きベクトルが使用されて、教師信号のモード0のフレームにおける注目画素位置に対応した、その教師信号のモード0のフレームの前後に位置する生徒信号の2フレームに張る予測タップおよびクラスタップの中心位置が決定される。このタップ中心位置決定部355から出力されるタップ中心位置の情報CEPは、予測タップ選択部356およびクラスタップ選択部357に供給される。
クラスタップ選択部357では、タップ中心位置の情報CEPに基づき、教師信号のモード0のフレームの前後に位置する生徒信号の2フレームから、教師信号のモード0のフレームにおける注目画素位置に対応した、クラスタップのデータとしての複数の画素データが選択的に抽出される。この複数の画素データはクラス検出部358に供給される。そして、クラス検出部358では、各画素データに対してADRC等のデータ圧縮処理が施されて、教師信号のモード0のフレームにおける注目画素位置の画素データが属するクラスを示すクラスコードCLが生成される((3)式参照)。このクラスコードCLは、正規方程式生成部360に供給される。
予測タップ選択部356では、タップ中心位置の情報CEPに基づき、教師信号のモード0のフレームの前後に位置する生徒信号の2フレームから、教師信号のモード0のフレームにおける注目画素位置に対応した、予測タップのデータとしての複数の画素データxiが選択的に抽出される。この複数の画素データxiは、正規方程式生成部360に供給される。また、教師タップ選択部359では、モード0のフレームにおける注目画素位置の画素データyが選択的に抽出される。この画素データyは、正規方程式生成部360に供給される。
そして、正規方程式生成部360では、教師信号のモード0のフレームにおける各注目画素位置の画素データyと、この各注目画素位置の画素データyにそれぞれ対応した、予測タップのデータとしての複数の画素データxiと、各注目画素位置の画素データyが属するクラスを示すクラスコードCLとから、クラス毎に、モード0の係数データWiを得るための正規方程式((11)式参照)が生成される。
この正規方程式360で生成される正規方程式のデータが係数データ決定部361に供給される。この係数データ決定部361では、それぞれ正規方程式が解かれ、クラス毎に、モード0の係数データWiが求められる。そして、この係数データWiは、係数メモリ362に格納される。
また、詳細説明は省略するが、時間モードがモード1〜モード4の係数データWiは、時間モード指定部353で、それぞれモード1〜モード4を指定することで、上述したモード0の係数データWiの生成動作と同様の動作で生成される。
このように、図11の係数データ生成装置350においては、上述したフレーム間画像生成処理部130の係数メモリ139に格納すべき、モード0〜モード4の係数データWiを生成できる。
上述したように、図1に示す画像信号処理装置100において、オブジェクト抽出処理部110は、オブジェクト抽出処理を行う際に、フレーム間画像生成処理部130からの、補助信号としての、勾配法により検出された動きベクトルMVgを利用する。つまり、オブジェクト抽出処理部110は、ブロックマッチング法により検出された各画素の動きベクトルMVbから、上述した動きベクトルMVgを利用して、信頼度の高い動きベクトルを抽出し、この抽出された信頼度の高い動きベクトルを用いて、類似動き領域を抽出する。
したがって、オブジェクト抽出処理部110は、補助信号としての動きベクトルMVgを利用することで、オブジェクト領域の抽出精度を上げることができ、性能が向上する。
この場合、オブジェクト抽出処理部110は、内部に動きベクトルMVgの検出部を備えるものではなく、回路規模が大きくなるという不都合はない。つまり、オブジェクト抽出処理部110は、予め補助信号としての動きベクトルMVgの入力を想定して回路が作られており、この動きベクトルMVgの入力が有る場合と無い場合の双方で回路が動作するようになっているため、内部に動きベクトルMVgの検出部を備える必要はなく、回路規模を大きくしないで済む。
また、図1に画像信号処理装置100において、フレーム間画像生成処理部130は、フレーム間画像生成処理を行う際に、オブジェクト抽出処理部110からの、補助信号としてのオブジェクト領域データOADを利用する。つまり、フレーム間画像生成処理部130は、オブジェクト領域データOADに基づいてオブジェクト境界を把握し、勾配法により検出された各画素の動きベクトルMVgのうち、オブジェクト境界付近で間違って検出された動きベクトルをノイズとして、このノイズを低減する処理を行い、ノイズ低減処理後の動きベクトルを用いてクラス分類適応処理における予測タップ、クラスタップのタップ中心位置を決定する。
したがって、フレーム間画像生成処理部130は、補助信号としてのオブジェクト領域データOADを利用することで、出力画像信号Sbの生成精度を上げることができ、性能が向上する。この場合、フレーム間画像生成処理部130は、内部にオブジェクト領域の抽出部を備えるものではなく、回路規模が大きくなるという不都合はない。つまり、フレーム間画像生成処理部130は、予め補助信号としてのオブジェクト領域データOADの入力を想定して回路が作られており、このオブジェクト領域データOADの入力が有る場合と無い場合の双方で回路が動作するようになっているため、内部にオブジェクト領域の抽出部を備える必要はなく、回路規模を大きくしないで済む。
なお、上述実施の形態における画像信号処理装置100は、オブジェクト抽出処理部110およびフレーム間画像生成処理部130を含むものである。この発明は、さらに多くの画像信号処理部を含む画像信号処理装置に同様に適用できる。その場合、第1の画像信号処理部で、第2の画像信号処理部からの補助信号を利用して画像信号処理を行うことで、第1の画像信号処理部については、回路規模を大きくすることなく、性能を向上できる。
また、上述実施の形態における処理部110,130は、それぞれ、適当なハードウェア(各種デバイス)を必要とするものの、その多くはソフトウェアによって実現できる。つまり、各部のコンピュータ(CPUあるいはMPU)に、上述実施の形態を実現するためのプログラムを供給し、このプログラムに従って各部のコンピュータが各種デバイスを動作させることで、上述実施の形態における処理部110,130を実現できる。プログラムを記憶するコンピュータ読み取り可能な媒体としては、フロッピー(登録商標)ディスク、光磁気ディスク、光ディスク、不揮発性メモリカード、ROM等を用いることができる。
この発明は、他の画像信号処理部からの補助信号を利用することで、回路規模を大きくすることなく、性能を向上できるものであり、複数の画像信号処理部を含む画像信号処理装置に適用できる。
実施の形態としての画像信号処理装置の構成を示すブロック図である。 オブジェクト抽出処理部の構成を示すブロック図である。 オブジェクト抽出処理部の処理手順を示すフローチャートである。 フレーム間画像生成処理部の構成を示すブロック図である。 フレーム間画像生成処理を説明するための図である。 オブジェクト境界のノイズ低減処理を説明するための図である。 タップ中心位置の決定の仕方を説明するための図である。 予測タップ、クラスタップのパターン例を示す図である。 フレーム間画像生成処理部の処理手順を示すフローチャートである。 フレーム間画像の生成、出力処理を示すフローチャートである。 係数データ生成装置の構成を示すブロック図である。
符号の説明
100・・・画像信号処理装置、110・・・オブジェクト抽出処理部、111・・・入力端子、112・・・類似色領域抽出部、113・・・エッジ包囲領域抽出部、114・・・類似動き領域抽出部、115・・・動きベクトル検出部、116・・・高信頼度動きベクトル抽出部、117・・・類似動きベクトル領域抽出部、118・・・統合判定部、119・・・出力端子、120・・・補助信号入力端子、121・・・補助信号出力端子、130・・・フレーム間画像生成処理部、131・・・入力端子、132・・・動きベクトル検出部、133・・・オブジェクト境界ノイズ低減処理部、134・・・時間モード指定部、135・・・タップ中心位置決定部、136・・・予測タップ選択部、137・・・クラスタップ選択部、138・・・クラス検出部、139・・・係数メモリ、140・・・推定予測演算部、141・・・出力端子、142・・・補助信号入力端子、143・・・補助信号出力端子、350・・・係数データ生成装置

Claims (18)

  1. 入力画像信号が入力される入力手段と、
    上記入力手段に入力される入力画像信号に対して第1の画像信号処理を行う第1の画像信号処理手段と、
    上記第1の画像信号処理手段で得られる処理結果を出力する出力手段と、
    上記第1の画像信号処理の際に利用することによって、より高品質な上記第1の画像信号処理を行うことが可能となる補助信号が入力される補助信号入力手段とを備え、
    上記補助信号入力手段に上記補助信号が入力されるとき、上記第1の画像信号処理手段は、上記補助信号を利用して、上記第1の画像信号処理を行う
    ことを特徴とする画像信号処理装置。
  2. 上記補助信号は、
    上記入力画像信号が入力される入力手段と、
    上記入力手段に入力される入力画像信号に対して上記第1の画像信号処理とは異なる第2の画像信号処理を行う第2の画像信号処理手段と、
    上記第2の画像信号処理手段で得られる処理結果を出力する出力手段と、を備える他の画像信号処理装置からの信号であって、
    上記第2の画像信号処理の過程で生成される信号である
    ことを特徴とする請求項1に記載の画像信号処理装置。
  3. 上記第1の画像信号処理は、上記入力画像信号に基づいて画像に含まれるオブジェクトの領域を示すオブジェクト領域データを得るオブジェクト抽出処理である
    ことを特徴とする請求項1に記載の画像信号処理装置。
  4. 上記第1の画像信号処理手段は、
    上記入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出する動きベクトル検出手段と、
    上記動きベクトル検出手段で検出された各画素の動きベクトルから、信頼度が高い動きベクトルを抽出する動きベクトル抽出手段と、
    上記動きベクトル抽出手段で抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域を抽出する領域抽出手段と、
    上記領域抽出手段で抽出された領域に基づいて、上記オブジェクトの領域を判定する領域判定手段とを有し、
    上記補助信号は、上記動きベクトル検出手段で検出される動きベクトルとは異なる方法でフレーム毎に検出される各画素の動きベクトルであり、
    上記動きベクトル抽出手段は、
    上記動きベクトル検出手段で検出された各画素の動きベクトルと上記補助信号としての各画素の動きベクトルとの差分データに基づいて、上記信頼度の高い動きベクトルを抽出する
    ことを特徴とする請求項3に記載の画像信号処理装置。
  5. 上記第1の画像信号処理手段で得られる処理結果としてのオブジェクト領域データを補助信号として出力する補助信号出力手段をさらに備える
    ことを特徴とする請求項3に記載の画像信号処理装置。
  6. 上記第1の画像信号処理は、上記入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出し、該検出された動きベクトルを用いて上記入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成するフレーム間画像生成処理である
    ことを特徴とする請求項1に記載の画像信号処理装置。
  7. 上記第1の画像信号処理手段は、
    上記入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出する動きベクトル検出手段と、
    上記動きベクトル検出手段で検出された各画素の動きベクトルのうち、オブジェクト境界付近で間違って検出された動きベクトルをノイズとし、該ノイズを低減するノイズ低減処理手段と、
    上記ノイズ低減処理手段でノイズが低減された動きベクトルに基づいて、上記入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成するフレーム間画像生成手段とを有し、
    上記補助信号は、上記入力画像信号の各フレームで抽出された、画像に含まれるオブジェクトの領域を示すオブジェクト領域データであり、
    上記ノイズ低減処理手段は、
    上記オブジェクト領域データに基づいてオブジェクト境界を把握し、上記ノイズを低減する
    ことを特徴とする請求項6に記載の画像信号処理装置。
  8. 上記ノイズ低減処理手段は、上記オブジェクト境界付近の画素の動きベクトルを、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えることで補正し、上記ノイズを低減する
    ことを特徴とする請求項7に記載の画像信号処理装置。
  9. 上記動きベクトル検出手段で検出される動きベクトルを補助信号として出力する補助信号出力手段をさらに備える
    ことを特徴とする請求項7に記載の画像信号処理装置。
  10. 入力画像信号を入力するステップと、
    上記入力される入力画像信号に対して第1の画像信号処理を行うステップと、
    上記第1の画像信号処理で得られる処理結果を出力するステップと、
    上記第1の画像信号処理の際に利用することによって、より高品質な上記第1の画像信号処理を行うことが可能となる補助信号を入力するステップとを備え、
    上記第1の画像信号処理を行うステップでは、上記補助信号を入力するステップで該補助信号が入力されるとき、該補助信号を利用して上記第1の画像信号処理を行う
    ことを特徴とする画像信号処理方法。
  11. 入力画像信号を入力するステップと、
    上記入力される入力画像信号に対して第1の画像信号処理を行うステップと、
    上記第1の画像信号処理で得られる処理結果を出力するステップと、
    上記第1の画像信号処理の際に利用することによって、より高品質な上記第1の画像信号処理を行うことが可能となる補助信号を入力するステップとを備え、
    上記第1の画像信号処理を行うステップでは、上記補助信号を入力するステップで該補助信号が入力されるとき、該補助信号を利用して上記第1の画像信号処理を行う画像信号処理方法をコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な媒体。
  12. 入力画像信号を入力するステップと、
    上記入力される入力画像信号に対して第1の画像信号処理を行うステップと、
    上記第1の画像信号処理で得られる処理結果を出力するステップと、
    上記第1の画像信号処理の際に利用することによって、より高品質な上記第1の画像信号処理を行うことが可能となる補助信号を入力するステップとを備え、
    上記第1の画像信号処理を行うステップでは、上記補助信号を入力するステップで該補助信号が入力されるとき、該補助信号を利用して上記第1の画像信号処理を行う画像信号処理方法をコンピュータに実行させるためのプログラム。
  13. 入力画像信号に対してそれぞれ異なる画像信号処理を行う複数の画像信号処理部を備え、
    上記複数の画像信号処理部に含まれる第1の画像信号処理部は、
    上記入力画像信号が入力される入力手段と、
    上記入力手段に入力される入力画像信号に対して第1の画像信号処理を行う第1の画像信号処理手段と、
    上記第1の画像信号処理手段で得られる処理結果を出力する出力手段と、
    上記第1の画像信号処理の際に利用することによって、より高品質な上記第1の画像信号処理を行うことが可能となる、上記複数の画像信号処理部に含まれる第2の画像信号処理部からの補助信号が入力される補助信号入力手段とを有し、
    上記第1の画像信号処理手段は、上記補助信号入力手段に入力される補助信号を利用して上記第1の画像信号処理を行う
    ことを特徴とする画像信号処理装置。
  14. 上記第2の画像信号処理部は、
    上記入力画像信号が入力される入力手段と、
    上記入力手段に入力される上記入力画像信号に対して上記第1の画像信号処理とは異なる第2の画像信号処理を行う第2の画像信号処理手段と、
    上記第2の画像信号処理手段で得られる処理結果を出力する出力手段とを有し、
    上記補助信号は上記第2の画像信号処理の過程で生成される信号である
    ことを特徴とする請求項13に記載の画像信号処理装置。
  15. 入力画像信号に対してオブジェクト抽出処理を行って画像に含まれるオブジェクトの領域を示すオブジェクト領域データを得る第1の画像信号処理部と、
    上記入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出し、上記入力画像信号に対して該検出された動きベクトルを用いたフレーム間画像生成処理を行って、上記入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成する第2の画像信号処理部とを備え、
    第1の画像信号処理部は、上記オブジェクト抽出処理を行う際に、上記第2の画像信号処理部からの上記動きベクトルを利用し、
    上記第2の画像信号処理部は、上記フレーム間画像生成処理を行う際に、上記第1の画像信号処理部からの上記オブジェクト領域データを利用する
    ことを特徴とする画像信号処理装置。
  16. 上記第1の画像信号処理部は、
    上記入力画像信号に基づいてフレーム毎に各画素の動きベクトルを、上記第2の画像信号処理部からの上記動きベクトルとは異なる方法で検出する動きベクトル検出手段と、
    上記動きベクトル検出手段で検出された各画素の動きベクトルから、上記第2の画像信号処理部からの上記各画素の動きベクトルに基づいて、信頼度が高い動きベクトルを抽出する動きベクトル抽出手段と、
    上記動きベクトル抽出手段で抽出された信頼度の高い動きベクトルに基づいて、類似した動きベクトルの画素が含まれる領域を抽出する領域抽出手段と、
    上記領域抽出手段で抽出された領域に基づいて、上記オブジェクトの領域を判定する領域判定手段とを有し、
    上記動きベクトル抽出手段は、
    上記動きベクトル検出手段で検出された各画素の動きベクトルと上記第2の画像信号処理部からの上記各画素の動きベクトルとの差分データに基づいて、上記信頼度の高い動きベクトルを抽出する
    ことを特徴とする請求項15に記載の画像信号処理装置。
  17. 上記第2の画像信号処理部は、
    上記入力画像信号に基づいてフレーム毎に各画素の動きベクトルを検出する動きベクトル検出手段と、
    上記第1の画像信号処理部からの上記オブジェクト領域データに基づいて、上記動きベクトル検出手段で検出された各画素の動きベクトルのうち、オブジェクト境界付近で間違って検出された動きベクトルをノイズとし、該ノイズを低減するノイズ低減処理手段と、
    上記ノイズ低減処理手段で上記ノイズが低減された動きベクトルに基づいて、上記入力画像信号のフレーム間に位置する新たなフレームの画像信号を生成するフレーム間画像生成手段とを有する
    ことを特徴とする請求項15に記載の画像信号処理装置。
  18. 上記ノイズ低減処理手段は、上記オブジェクト境界付近の画素の動きベクトルを、それぞれの画素が属するオブジェクト内の大多数を占める画素の動きベクトルで置き換えることで補正し、上記ノイズを低減する
    ことを特徴とする請求項17に記載の画像信号処理装置。
JP2004043489A 2004-02-19 2004-02-19 画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体 Expired - Fee Related JP4534518B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004043489A JP4534518B2 (ja) 2004-02-19 2004-02-19 画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004043489A JP4534518B2 (ja) 2004-02-19 2004-02-19 画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体

Publications (2)

Publication Number Publication Date
JP2005234904A true JP2005234904A (ja) 2005-09-02
JP4534518B2 JP4534518B2 (ja) 2010-09-01

Family

ID=35017801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004043489A Expired - Fee Related JP4534518B2 (ja) 2004-02-19 2004-02-19 画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体

Country Status (1)

Country Link
JP (1) JP4534518B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134587A (ja) * 2007-11-30 2009-06-18 Toyota Motor Corp 画像処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074369A (ja) * 2000-08-28 2002-03-15 Ntt Data Corp 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体
JP2003299035A (ja) * 2002-04-03 2003-10-17 Sony Corp 画素補間処理装置及び方法
JP2004032374A (ja) * 2002-06-26 2004-01-29 Fuji Photo Film Co Ltd シャープネス処理方法および装置並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074369A (ja) * 2000-08-28 2002-03-15 Ntt Data Corp 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体
JP2003299035A (ja) * 2002-04-03 2003-10-17 Sony Corp 画素補間処理装置及び方法
JP2004032374A (ja) * 2002-06-26 2004-01-29 Fuji Photo Film Co Ltd シャープネス処理方法および装置並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134587A (ja) * 2007-11-30 2009-06-18 Toyota Motor Corp 画像処理装置
JP4518139B2 (ja) * 2007-11-30 2010-08-04 トヨタ自動車株式会社 画像処理装置
US8107725B2 (en) 2007-11-30 2012-01-31 Toyota Jidosha Kabushiki Kaisha Image processor and image processing method

Also Published As

Publication number Publication date
JP4534518B2 (ja) 2010-09-01

Similar Documents

Publication Publication Date Title
JP4504230B2 (ja) 動画像処理装置、動画像処理方法、及び動画像処理プログラム
JP4696388B2 (ja) 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置、係数データ生成装置、並びに情報記録媒体
US20100080299A1 (en) Frame frequency conversion apparatus, frame frequency conversion method, program for achieving the method, computer readable recording medium recording the program, motion vector detection apparatus, and prediction coefficient generation apparatus
JP4277446B2 (ja) 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置および生成方法、並びに記録媒体
JP4534518B2 (ja) 画像信号処理装置、画像信号処理方法、並びにプログラムおよびそれを記録した媒体
KR101089853B1 (ko) 계수 데이터의 생성 장치 및 생성 방법, 계수종 데이터의 생성 장치 및 생성 방법, 정보 신호 처리 장치, 및 프로그램을 기록한 매체
JP4310689B2 (ja) 信号処理装置および方法、記録媒体、並びにプログラム
JP4622264B2 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
US6975770B2 (en) Image compression and decompression with predictor selection based on embedding data
US9277213B2 (en) Video encoding device
JP4622265B2 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにプログラム
JP4507639B2 (ja) 画像信号処理装置
JP4441860B2 (ja) 情報信号の処理装置および処理方法、並びにプログラムおよびそれを記録した媒体
JP4770711B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4265291B2 (ja) 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム
JP2017143425A (ja) 画像特徴記述子符号化装置、画像特徴記述子復号装置、画像特徴記述子符号化方法及び画像特徴記述子復号方法
JP2005260928A (ja) 画像処理装置と画像処理方法およびプログラム
JPH0851598A (ja) 画像情報変換装置
JP4501217B2 (ja) 画像信号変換装置、画像信号変換方法、およびそれを使用した画像表示装置
JP2003271970A (ja) テロップ領域抽出回路、テロップ領域抽出方法、その方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体、並びに画像信号処理回路
JP2011166266A (ja) 情報処理装置と情報処理方法およびプログラム
JP5305822B2 (ja) 映像信号処理装置、及び方法、プログラム
JP4207763B2 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP2005260929A (ja) 画像処理装置と画像処理方法およびプログラム
JP4099554B2 (ja) 画像情報変換装置および画像情報変換方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090918

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees