JP4051934B2 - INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM - Google Patents

INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM Download PDF

Info

Publication number
JP4051934B2
JP4051934B2 JP2002013146A JP2002013146A JP4051934B2 JP 4051934 B2 JP4051934 B2 JP 4051934B2 JP 2002013146 A JP2002013146 A JP 2002013146A JP 2002013146 A JP2002013146 A JP 2002013146A JP 4051934 B2 JP4051934 B2 JP 4051934B2
Authority
JP
Japan
Prior art keywords
information
data
signal
value
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002013146A
Other languages
Japanese (ja)
Other versions
JP2002359822A (en
Inventor
哲二郎 近藤
徹 三宅
通雅 尾花
眞介 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002013146A priority Critical patent/JP4051934B2/en
Publication of JP2002359822A publication Critical patent/JP2002359822A/en
Application granted granted Critical
Publication of JP4051934B2 publication Critical patent/JP4051934B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えばNTSC方式のビデオ信号をハイビジョンのビデオ信号に変換する際等に適用して好適な情報信号処理装置、情報信号処理方法およびそれを使用した画像処理装置および画像処理方法、並びに情報信号処理方法又は画像処理方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体に関する。
【0002】
詳しくは、解像度創造の手法を用いて第1の情報信号を第2の情報信号に変換する際に、第2の情報信号における注目位置の特徴量を検出し、第2の情報信号による出力の質を示すパラメータの他に、検出された特徴量をも参照して、第2の情報信号における注目位置の情報データを生成することによって、第2の情報信号による出力に不適切な質となる箇所が発生することを防止するようにした情報信号処理装置等に係るものである。
【0003】
【従来の技術】
従来、例えば525i信号というSD(Standard Definition)信号を、1050i信号というHD(High Definition)信号に変換するフォーマット変換が提案されている。525i信号は、ライン数が525本でインタレース方式の画像信号を意味し、1050i信号は、ライン数が1050本でインタレース方式の画像信号を意味する。
【0004】
図25は、525i信号と1050i信号の画素位置関係を示している。ここで、大きなドットが525i信号の画素であり、小さなドットが1050i信号の画素である。また、奇数フィールドの画素位置を実線で示し、偶数フィールドの画素位置を破線で示している。525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して1050i信号の4画素を得る必要がある。
【0005】
従来、上述したようなフォーマット変換を行うために、本出願人は、先に、525i信号の画素データより1050i信号の画素データを得る際、525i信号の画素に対する1050i信号の各画素の位相に対応した推定式の係数データをメモリに格納しておき、この係数データを用いて推定式によって1050i信号の画素データを求める、解像度創造の手法を用いることを提案した。
【特許文献1】
特開2001−238185号公報
【0006】
【発明が解決しようとする課題】
上述したように推定式によって1050i信号の画素データを求めるものにおいては、この1050i信号による画像の解像度は固定されており、従来のコントラストやシャープネス等の調整のように、画像内容等に応じて所望の解像度とすることができなかった。
そこで、本出願人は、先に、画像の解像度をユーザが所望の値に任意に調整し得る画像信号変換装置等を提案した(特許文献1参照)。
【0007】
しかしこの場合、全画面一様に、調整された解像度に対応した係数データを用いるものであり、適切な解像度となる箇所と、不適切な解像度となる箇所とが存在する。
例えば、高周波成分量が少ない箇所と高周波成分量が多い箇所において、適切な解像度となる場合と適切な解像度とならない場合が存在する。
【0008】
また例えば、動きのある箇所と動きのない箇所において、適切な解像度となる場合と適切な解像度とならない場合が存在する。以下に、動きのある箇所で生じる動きボケについて説明する。
図22に動きボケのモデルを示している。この図22において、vは垂直方向を示し、hは水平方向を示している。
【0009】
図22Aに示す動き無しの場合は、物体(黒い四角形)ははっきりと見え、画素値をグラフにしてみると、エッジが切り立っている(図の黒色は何らかの輝度値がそこに存在していることを表している)。
この物体がある速度で動き出した場合が、図22Bに示す動き小の場合である。物体が動いているために動きによるボケが生じる。画素値をグラフで見ると、図のようにエッジがなだらかになり、画像としても動き方向にぼやけた画像になる。このボケ方は動き量、すなわち物体の速度に依存する。
【0010】
次に、物体がもっと速く動いた場合を考える。図22C(左側)に示す動き大の場合である。物体の速度が速くなったことで物体はますますボケてしまい、画素値をグラフでみると、図のようにエッジが一層なだらかになる。これはシャッターやデバイスの特性などで区切られたある一定時間に蓄積された電荷またはフィルムの変化を画素値としているために生じるものであり、動き量によって生じる歪みである。
【0011】
ここで、このような動きボケを生じている動物体に解像度創造を行うことを考える。解像度創造においては画素密度を増やすと共に、制限されてしまった帯域を元に戻すという処理が行われる。
その結果、図22C(右側)のように、グラフが立ってしまう。静止部では勿論それでよい。しかし、動き部では結果的に動きによって自然に起こる動きボケ量を変化させてしまい、不自然な画像を作り上げてしまうことになる。
【0012】
また、図23Aに示すように、非常に大きな物体が移動していた場合を考える。この場合、解像度創造を行うと、静止部では現れないようなグラデーションが生じる。すなわち、予測タップのタップ範囲が充分でない場合、箇所箇所で解像度創造の処理が行われてしまい、図23Bに示すような波形に変化させてしまうことがある。
【0013】
また、解像度創造において、上述したように画像の解像度を任意に調整するものと同様にして、画像の輝度を任意に調整することも考えられる。この場合、全画面一様に、調整された輝度に対応した係数データを用いるものであり、適切な輝度となる箇所と、不適切な輝度となる箇所とが存在する。
【0014】
例えば、図24Aに示すような画像を考える。この画像は、左側の犬が体色が濃いことと家の影に入っていることとが重なって見にくい状態になっている。このようなときに、輝度を高くするように調整した場合、図24Bに示すように、画像全体が一辺に明るくなるので、体色の濃い犬周辺だけでなく、地面や屋根など、輝度を高くしなくても充分によく見える領域までも明るくなり、画像全体が白っぽく不自然なものとなる。
【0015】
なお、このような画像の輝度調整と同様のことが、音声信号の解像度創造において、音量の調整を行う場合にも生じる。すなわち、全区間一様に、調整された音量に対応した係数データを用いると、適切な音量となる区間と、不適切な音量となる区間とが存在するようになる。つまり、音量を高くするように調整した場合、全区間で音量が高くなるので、音量の低い区間だけでなく、音量を高くしなくても充分な音量がある区間までも音量が高くなり、音量の高い部分が聞き難いものとなる。
【0016】
そこで、この発明では、解像度創造の手法によって得られる情報信号による出力に不適切な質となる箇所が発生することを防止し得る情報信号処理装置等を提供することを目的とする。
【0017】
【課題を解決するための手段】
この発明に係る情報信号処理装置は、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報量の多い第2の情報信号に変換する情報信号処理装置であって、上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された複数の第1の情報データに所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度、動き量及び音量のいずれかを示す上記注目位置における特徴量を検出する特徴量検出手段と、上記第2の情報信号による出力の大きさを示す、上記特徴量に対応したパラメータの値が外部から入力されるパラメータ入力手段と、上記特徴量検出手段で検出された特徴量および上記パラメータ入力手段に入力されたパラメータの値に対応して、上記第2の情報信号における注目位置の情報データを生成する情報データ生成手段とを備え、上記情報データ生成手段は、上記パラメータ入力手段に入力されたパラメータの値に対応する複数の代表的な大きさごとに予め算出され、上記第1の情報信号を代入して積和演算することにより上記第2の情報信号を推定するための推定式の係数データの候補である係数データ候補を発生する係数データ候補発生手段と、上記特徴量検出手段で検出された特徴量と上記パラメータ入力手段に入力されたパラメータの値に基づいて、上記複数の代表的な大きさのうち一つの大きさを特定する大きさ特定手段と、上記係数データ候補発生手段で発生された係数データ候補の中から、上記大きさ特定手段で特定された大きさに対応する係数データを選択する係数データ選択手段と、上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第2のデータ選択手段と、上記第2のデータ選択手段で選択された複数の第1の情報データと上記係数データ選択手段で選択された係数データとを用いて、上記推定式に基づいて上記注目位置の情報データを算出する演算手段とを有し、上記大きさ特定手段は、画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する検出手段と、上記パラメータの各値に対応した、上記複数の特徴量領域における大きさ選択情報を格納する格納手段と、上記格納手段より上記パラメータ入力手段に入力されたパラメータの値および上記検出手段で検出された特徴量領域に対応した大きさ選択情報を取り出し、該大きさ選択情報に基づいて上記一つの大きさを特定する特定手段とを有するものである。
【0019】
また、この発明に係る情報信号処理方法は、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報量の多い第2の情報信号に変換する情報信号処理方法であって、上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、上記第1のステップで選択された複数の第1の情報データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度、動き量及び音量のいずれかを示す上記注目位置における特徴量を検出する第2のステップと、上記第2の情報信号による出力の大きさを示す、上記特徴量に対応したパラメータの値を外部から取得する第3のステップと、上記第2のステップで検出された特徴量および上記第3のステップで取得されたパラメータの値に対応して、上記第2の情報信号における注目位置の情報データを生成する第4のステップとを有し、上記第4のステップは、上記第3のステップで取得したパラメータの値に対応する複数の代表的な大きさごとに予め算出され、上記第1の情報信号を代入して積和演算することにより上記第2の情報信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、上記第2のステップで検出された特徴量と上記第3のステップで取得したパラメータの値に基づいて、上記複数の代表的な大きさのうち一つの大きさを特定する第6のステップと、上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された大きさに対応する係数データを選択する第7のステップと、上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第8のステップと、上記第8のステップで選択された複数の第1の情報データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の情報データを算出する第9のステップとを有し、上記第6のステップは、画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記第2のステップで検出される特徴量が含まれる特徴量領域を検出する第10のステップと、上記パラメータの各値に対応した、上記複数の特徴量領域における大きさ選択情報を格納する第11のステップと、上記第3のステップで取得したパラメータの値および上記第10のステップで検出した特徴量領域に対応した大きさ選択情報を取り出し、該大きさ選択情報に基づいて上記一つの大きさを特定する第12のステップとを有するものである。
【0020】
また、この発明に係る画像処理装置は、入力された複数の画素データからなる第1の画像信号を、複数の画素データからなる上記第1の画像信号より高解像度な第2の画像信号に変換して出力する画像信号処理装置において、上記第2の画像信号による画像の解像度又は輝度を示すパラメータの値が外部から入力されるパラメータ入力手段と、上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された複数の第1の画素データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度及び動き量のいずれかを示す上記注目位置における特徴量を検出する特徴量検出手段と、上記特徴量検出手段で検出された特徴量および上記パラメータ入力手段に入力された所定の上記パラメータの値に対応して、上記第2の画像信号における注目位置の画素データを生成する画素データ生成手段とを備え、上記画素データ生成手段は、上記パラメータ入力手段に入力されたパラメータの値に対応する複数の代表的な解像度ごとに予め算出され、上記第1の画像信号を代入して積和演算することにより上記第2の画像信号を推定するための推定式の係数データの候補である係数データ候補を発生する係数データ候補発生手段と、上記特徴量検出手段で検出された特徴量と上記パラメータ入力手段に入力されたパラメータの値に基づいて、上記複数の代表的な解像度のうち一つの解像度を特定する解像度特定手段と、上記係数データ候補発生手段で発生された係数データ候補の中から、上記解像度特定手段で特定された解像度に対応する係数データを選択する係数データ選択手段と、上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のデータ選択手段と、上記第2のデータ選択手段で選択された複数の第1の画素データと上記係数データ選択手段で選択された係数データとを用いて、上記推定式に基づいて上記注目位置の画素データを算出する演算手段とを有し、上記解像度特定手段は、画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する検出手段と、上記パラメータの各値に対応した、上記複数の特徴量領域における解像度選択情報を格納する格納手段と、上記格納手段より上記パラメータ入力手段に入力されたパラメータの値および上記検出手段で検出された特徴量領域に対応した解像度選択情報を取り出し、該解像度選択情報に基づいて上記一つの解像度を特定する特定手段とを有するものである。
また、この発明に係る画像処理方法は、入力された複数の画素データからなる第1の画像信号を、複数の画素データからなる上記第1の画像信号より高解像度な第2の画像信号に変換して出力する画像信号処理方法において、上記第2の画像信号による画像の解像度又は輝度を示すパラメータの値を外部から取得する第1のステップと、上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、上記第2のステップで選択された複数の第1の画素データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度及び動き量のいずれかを示す上記注目位置における特徴量を検出する第3のステップと、上記第3のステップで検出された特徴量および上記第1のステップで取得した所定の上記パラメータの値に対応して、上記第2の画像信号における注目位置の画素データを生成する第4のステップとを有し、上記第4のステップは、上記第1のステップで取得したパラメータの値に対応する複数の代表的な解像度ごとに予め算出され、上記第1の画像信号を代入して積和演算することにより上記第2の画像信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、上記第3のステップで検出された特徴量と上記第1のステップで取得したパラメータの値に基づいて、上記複数の代表的な解像度のうち一つの解像度を特定する第6のステップと、上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された解像度に対応する係数データを選択する第7のステップと、上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第8のステップと、上記第8のステップで選択された複数の第1の画素データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の画素データを算出する第9のステップとを有し、上記第6のステップは、画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する第10のステップと、上記パラメータの各値に対応した、上記複数の特徴量領域における解像度選択情報を格納する第11のステップと、上記第1のステップで取得したパラメータの値および上記第10のステップで検出された特徴量領域に対応した解像度選択情報を取り出し、該解像度選択情報に基づいて上記一つの解像度を特定する第12のステップとを有するものである。
【0021】
また、この発明におけるプログラムは、上述の情報信号処理方法又は画像処理方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0022】
この発明において、第1の情報信号に基づいて第2の情報信号における注目位置の周辺に位置する複数の第1の情報データが抽出され、この複数の第1の情報データに基づいて、この注目位置における特徴量が検出される。
【0023】
例えば、情報信号は画像信号であり、特徴量は注目位置の周辺における高周波成分量に関係する特徴量である。この特徴量は、例えば複数の第1の情報データ(画素データ)内の隣接画素の絶対値和と、複数の第1の情報データ内のダイナミックレンジとを使用して求められる。また例えば、情報信号は画像信号であり、特徴量は注目位置における動き量、あるいは輝度である。さらに例えば、情報信号は音声信号であり、特徴量は注目位置における音量である。
【0024】
また、パラメータ入力手段には、第2の情報信号による出力の質を示すパラメータの値が入力される。例えば、上述したように特徴量が注目位置の周辺における高周波成分量に関係する特徴量であるとき、パラメータの値は第2の情報信号による画像の解像度を示すものとされる。また例えば、上述したように特徴量が注目位置における動き量であるとき、パラメータの値は第2の情報信号による画像の解像度を示すものとされる。また例えば、上述したように特徴量が注目位置における輝度であるとき、パラメータの値は第2の情報信号による画像の輝度を示すものとされる。また例えば、上述したように特徴量が注目位置における音量であるとき、パラメータの値は第2の情報信号による音の音量を示すものとされる。
【0025】
そして、上述した特徴量とパラメータの値に対応して、第2の情報信号における注目位置の情報データが生成される。例えば、以下のようにして、情報データが生成される。
【0026】
すなわち、パラメータに対応する複数の代表的な質(この質は、解像度、輝度、音量等である)について、推定式の係数データの候補である係数データ候補が発生される。例えば、パラメータの値が、離散的な第1の値と第2の値との間にある場合、それら第1の値と第2の値に対応する質を得るための2つの推定式の係数データが係数データ候補として発生される。
【0027】
そして、特徴量とパラメータの値に基づいて、複数の代表的な質のうち一つの質が特定される。例えば、パラメータのそれぞれの値に対応した複数の特徴量領域における質選択情報が格納手段に格納されており、これを使用して質の特定が行われる。例えば、上述した第2の値に対応した質が第1の値に対応した質より高い場合、特徴量が小さい程、パラメータの値が小さくとも、第2の質に特定される確率が高くなる。
【0028】
そして、係数データ候補の中から、特定された質に対応する係数データが選択される。このように選択された係数データと、第1の情報信号に基づいて選択された第2の情報信号における注目位置の周辺に位置する複数の第2の情報データとを用いて、推定式に基づいて、第2の情報信号における注目位置の情報データが算出される。
【0029】
このように、解像度創造の手法によって第1の情報信号から第2の情報信号を得る際に、第2の情報信号における注目位置に係る特徴量により、パラメータの値に対応した複数の係数データ候補から一つの係数データを選択して使用するものであり、第2の情報信号による出力に不適切な質となる箇所が発生することを防止できるようになる。
【0030】
例えば、特徴量が注目位置の周辺における高周波成分量に関係する特徴量であるとき、画像の輪郭および画像の低周波領域に囲まれた高周波領域でその特徴量が大きくなるが、解像度の調整をする際に当該領域で不適切な解像度となることを防止できる。また例えば、特徴量が注目位置における動き量であるとき、画像の動き部で動き量が大きくなるが、解像度の調整をする際に当該動き部で不適切な解像度となることを防止できる。また例えば、特徴量が注目位置における輝度であるとき、輝度の高い領域で特徴量が大きくなるが、輝度の調整をする際に当該輝度の高い領域で輝度が高くなり過ぎることを防止できる。また例えば、特徴量が注目位置における音量であるとき、音量の大きな領域で特徴量が大きくなるが、音量の調整をする際に当該音量の大きな領域で音量が高くなり過ぎることを防止できる。
【0031】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのテレビ受信機100の構成を示している。このテレビ受信機100は、放送信号より525i信号というSD信号を得、この525i信号を1050i信号というHD信号に変換し、その1050i信号による画像を表示するものである。
【0032】
テレビ受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0033】
また、テレビ受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、中間周波増幅処理、検波処理等を行ってSD信号(525i信号)を得るチューナ106と、このチューナ106より出力されるSD信号を一時的に保存するためのバッファメモリ109とを有している。
【0034】
また、テレビ受信機100は、バッファメモリ109に一時的に保存されるSD信号(525i信号)を、HD信号(1050i信号)に変換する画像信号処理部110と、この画像信号処理部110より出力されるHD信号による画像を表示するディスプレイ部111と、このディスプレイ部111の画面上に文字、図形などの表示を行うための表示信号SCHを発生させるためのOSD(On Screen Display)回路112と、その表示信号SCHを上述した画像信号処理部110より出力されるHD信号に合成してディスプレイ部111に供給するための合成器113とを有している。ディスプレイ部111は、例えばCRT(cathode-ray tube)ディスプレイ、あるいはLCD(liquid crystal display)等のフラットパネルディスプレイで構成されている。
【0035】
図1に示すテレビ受信機100の動作を説明する。
チューナ106より出力されるSD信号(525i信号)は、バッファメモリ109に供給されて一時的に保存される。そして、このバッファメモリ109に一時的に記憶されたSD信号は画像信号処理部110に供給され、HD信号(1050i信号)に変換される。すなわち、画像信号処理部110では、SD信号を構成する画素データ(以下、「SD画素データ」という)から、HD信号を構成する画素データ(以下、「HD画素データ」という)が生成される。この画像信号処理部110より出力されるHD信号はディスプレイ部111に供給され、このディスプレイ部111の画面上にはそのHD信号による画像が表示される。
【0036】
また、ユーザは、リモコン送信機200の操作によって、ディスプレイ部111の画面上に表示される画像の解像度を調整できる。例えば、解像度選択モードで、アップキーおよびダウンキーの押圧操作、あるいはジョグダイヤル等のつまみの回転操作をすることで、システムコントローラ101から画像信号処理部110に供給される、解像度を示すパラメータQの値を変更できる。
【0037】
画像信号処理部110では、後述するように、HD画素データが推定式によって算出されるが、この推定式の係数データとして、上述したパラメータQの値に対応したものが使用される。これにより、画像信号処理部110から出力されるHD信号による画像の解像度は、パラメータQの値に対応したものとなる。
【0038】
なお、ユーザのリモコン送信機200の操作によってパラメータQの値の変更が行われている状態では、ディスプレイ部111の画面上に、パラメータQの値の表示が行われる。ここでは図示しないが、この表示は数値または棒グラフ等を用いて行われる。ユーザは、この表示を参照して、パラメータQの値を変更できる。
【0039】
このように画面上にパラメータQの値を表示する際、システムコントローラ101は表示データをOSD回路112に供給する。OSD回路112は、その表示データに基づいて表示信号SCHを発生し、この表示信号SCHを合成器113を介してディスプレイ部111に供給する。
【0040】
次に、画像信号処理部110の詳細を説明する。この画像信号処理部110は、バッファメモリ109に記憶されているSD信号(525i信号)より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する第1〜第3のタップ選択回路121〜123を有している。
【0041】
第1のタップ選択回路121は、予測に使用するSD画素(「予測タップ」と称する)のデータを選択的に取り出すものである。第2のタップ選択回路122は、SD画素データのレベル分布パターンに対応するクラス分類に使用するSD画素(「空間クラスタップ」と称する)のデータを選択的に取り出すものである。第3のタップ選択回路123は、動きに対応するクラス分類に使用するSD画素(「動きクラスタップ」と称する)のデータを選択的に取り出すものである。なお、空間クラスを複数フィールドに属するSD画素データを使用して決定する場合には、この空間クラスにも動き情報が含まれることになる。
【0042】
また、画像信号処理部110は、第2のタップ選択回路122で選択的に取り出される空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、そのクラス情報を出力する空間クラス検出回路124を有している。
【0043】
空間クラス検出回路124では、例えば、各SD画素データを、8ビットデータから2ビットデータに圧縮するような演算が行われる。そして、空間クラス検出回路124からは、各SD画素データに対応した圧縮データが空間クラスのクラス情報として出力される。本実施の形態においては、ADRC(Adaptive Dynamic Range Coding)によって、データ圧縮が行われる。なお、情報圧縮手段としては、ADRC以外にDPCM(予測符号化)、VQ(ベクトル量子化)等を用いてもよい。
【0044】
本来、ADRCは、VTR(Video Tape Recorder)向け高性能符号化用に開発された適応再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、上述したデータ圧縮に使用して好適なものである。ADRCを使用する場合、空間クラスタップのデータ(SD画素データ)の最大値をMAX、その最小値をMIN、空間クラスタップのデータのダイナミックレンジをDR(=MAX−MIN+1)、再量子化ビット数をPとすると、空間クラスタップのデータとしての各SD画素データkiに対して、(1)式の演算により、圧縮データとしての再量子化コードqiが空間クラスのクラス情報として得られる。ただし、(1)式において、[ ]は切り捨て処理を意味している。空間クラスタップのデータとして、Na個のSD画素データがあるとき、i=1〜Naである。
qi=[(ki−MIN+0.5).2P/DR] ・・・(1)
【0045】
また、画像信号処理部110は、第3のタップ選択回路123で選択的に取り出される動きクラスタップのデータ(SD画素データ)より、主に動きの程度を表すための動きクラスを検出し、そのクラス情報を出力する動きクラス検出回路125を有している。
【0046】
この動きクラス検出回路125では、第3のタップ選択回路123で選択的に取り出される動きクラスタップのデータ(SD画素データ)mi,niからフレーム間差分が算出され、さらにその差分の絶対値の平均値に対してしきい値処理が行われて動きの指標である動きクラスが検出される。すなわち、動きクラス検出回路125では、(2)式によって、差分の絶対値の平均値AVが算出される。第3のタップ選択回路123で、例えばクラスタップのデータとして、6個のSD画素データm1〜m6と、その1フレーム前の6個のSD画素データn1〜n6が取り出されるとき、(2)式におけるNbは6である。
【0047】
【数1】

Figure 0004051934
【0048】
そして、動きクラス検出回路125では、上述したように算出された平均値AVが1個または複数個のしきい値と比較されて動きクラスのクラス情報MVが得られる。例えば、3個のしきい値th1,th2,th3(th1<th2<th3)が用意され、4つの動きクラスを検出する場合、AV≦th1のときはMV=0、th1<AV≦th2のときはMV=1、th2<AV≦th3のときはMV=2、th3<AVのときはMV=3とされる。
【0049】
また、画像信号処理部110は、空間クラス検出回路124より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス検出回路125より出力される動きクラスのクラス情報MVに基づき、作成すべきHD信号(1050i信号)の画素データ(注目位置の画素データ)が属するクラスを示すクラスコードCLを得るためのクラス合成回路126を有している。
【0050】
このクラス合成回路126では、(3)式によって、クラスコードCLの演算が行われる。なお、(3)式において、Naは空間クラスタップのデータ(SD画素データ)の個数、PはADRCにおける再量子化ビット数を示している。
【0051】
【数2】
Figure 0004051934
【0052】
また、画像信号処理部110は、係数メモリ131を有している。この係数メモリ131は、後述する推定予測演算回路127で使用される推定式の係数データを格納するものである。この係数データは、SD信号(525i信号)を、HD信号(1050i信号)に変換する際に使用する情報である。この係数メモリ131には、クラス合成回路126より出力されるクラスコードCLおよび後述する係数選択回路133より出力される係数選択信号SELが、読み出しアドレス情報として供給される。この係数メモリ131からはクラスコードCLおよび係数選択信号SELに対応した係数データwiが読み出され、推定予測演算回路127に供給される。
【0053】
また、画像信号処理部110は、情報メモリバンク132を有している。本実施の形態においては、パラメータQは0〜8の間で変更可能とされる。情報メモリバンク132には、パラメータQの0,1,・・・,8の各離散値に対応した、9つの解像度における各クラスの係数データが予め蓄えられている。ここで、パラメータQの値が大きくなるほど解像度が高くなっていくものとする。この9つの解像度に対応する係数データの生成方法については後述する。
【0054】
なお、上述したように、525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して1050i信号の4画素を得る必要がある。そのため、ある解像度におけるあるクラスの係数データは、奇数、偶数のそれぞれのフィールドにおける1050i信号を構成する2×2の単位画素ブロック内の4画素に対応した係数データからなっている。この2×2の単位画素ブロック内の4画素は、525i信号の画素に対応して互いに異なる位相関係になっている。
【0055】
上述したように、ユーザは、リモコン送信機200の操作部において、アップキーおよびダウンキーの押圧操作、またはジョグダイヤル等のつまみの回転操作をすることで、システムコントローラ101から画像信号処理部110に供給されるパラメータQの値を変更できる。情報メモリバンク132には、そのパラメータQが供給され、この情報メモリバンク132から係数メモリ131には、パラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した、各クラスの係数データがロードされる。
【0056】
すなわち、0≦Q≦1であるときはQ=0,1に対応した各クラスの係数データが、1<Q≦2であるときはQ=1,2に対応した各クラスの係数データが、2<Q≦3であるときはQ=2,3に対応した各クラスの係数データが、3<Q≦4であるときはQ=3,4に対応した各クラスの係数データが、4<Q≦5であるときはQ=4,5に対応した各クラスの係数データが、5<Q≦6であるときはQ=5,6に対応した各クラスの係数データが、6<Q≦7であるときはQ=6,7に対応した各クラスの係数データが、7<Q≦8であるときはQ=7,8に対応した各クラスの係数データが、情報メモリバンク132から係数メモリ131にロードされる。
【0057】
また、画像信号処理部110は、係数選択信号SELを発生する係数選択回路133を有している。この係数選択信号SELは、上述したように係数メモリ131に読み出しアドレス情報として供給されるものであり、情報メモリバンク132から係数メモリ131にロードされて格納された、パラメータQの2つの離散値に対応した係数データのうち一つの係数データを選択するために使用される。
【0058】
図2は、係数選択回路133の構成を示している。この係数選択回路133は、特徴量検出部141、特徴量メモリ142、特徴量領域決定部143、領域検出部144および係数選択信号生成部145とからなっている。
【0059】
特徴量検出部141は、バッファメモリ109に一時的に記憶される各フィールドのSD信号(525i信号)を構成するSD画素毎に特徴量CHを検出するものである。本実施の形態において、あるSD画素(着目画素)に対応した特徴量CHは、そのSD画素を中心とした所定サイズのブロック内のダイナミックレンジDRとアクティビティACTの乗算値の平方根をとった値(√(DR×ACT)とする。ブロックサイズは、例えば5×5とする。
【0060】
ダイナミックレンジDRは、図3に示すように、着目画素を中心とした5×5のブロック内に含まれる25個のSD画素のデータxi-2,j+2〜xi+2,j-2の中で、最大値をMAX、最小値をMINとするとき、(4)式で定義される。図3では、着目画素の座標を(i,j)としている。
DR=MAX−MIN ・・・(4)
【0061】
アクティビティACTは、図4に示すように、着目画素の座標を(i,j)とし、この着目画素を中心とした5×5のブロック内に含まれる25個のSD画素のデータをxi-2,j+2〜xi+2,j-2とするとき、(5)式で定義される。ここで、i1=i−2,・・・,i+1、i2=i−2,・・・,i+2、j1=j−2,・・・,j+2、j2=j−2,・・・,j+1である。
【0062】
【数3】
Figure 0004051934
【0063】
図5は、ダイナミックレンジDRおよびアクティビティACTによる検出部分のモデルを示している。ダイナミックレンジDRを用いると、図5中の右上の太線で示したように、画像の輪郭が検出される。一方、アクティビティACTを用いると、図5中の右下の太い線で示したように、画像の低周波領域に囲まれた高周波領域が検出される。特徴量CHは上述したように、√(DR×ACT)で定義されるため、この特徴量CHを用いると、画像の輪郭および画像の低周波領域に囲まれた高周波領域の両方が検出されることとなる。
【0064】
上述したように、525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して、1050i信号の4画素を注目画素として、推定式で得るものである。したがって、特徴量検出部141にてSD信号(525i信号)を構成する各1画素に対応した特徴量CHを検出するということは、HD信号(1050i信号)を構成する各4画素(注目画素)の周辺における高周波成分量に関係する特徴量CHを検出していることになる。
【0065】
特徴量検出部141は、バッファメモリ109に記憶されるあるフィールドのSD信号に対する特徴量CHの検出処理を例えば垂直ブランキング期間で行う。特徴量メモリ142は、特徴量検出部141においてある垂直ブランキング期間に検出される1フィールド分の各SD画素に対応した特徴量CHを格納するものである。
【0066】
また、特徴量領域決定部143は、特徴量メモリ142に格納された、あるフィールドの全SD画素に対応する特徴量CHを用いて、特徴量CHの最小値から最大値までの範囲を4領域に分割して4つの特徴量領域を決定するものである。特徴量領域決定部143は、この特徴量領域の決定処理を垂直ブランキング期間で行う。この場合、全SD画素に対応する特徴量CHのうち各特徴量領域に含まれる個数が略等しくなるように、4つの特徴量領域が決定される。
【0067】
図6は、全SD画素に対応する特徴量CHのヒストグラムモデルを示している。CHminは特徴量CHの最小値、CHmaxは特徴量CHの最大値を示している。Ra,Rb,Rc,Rdは4つの特徴量領域であり、Na,Nb,Nc,Ndは全SD画素に対応する特徴量CHのうち各特徴量領域に含まれる個数を示している。この場合、個数Na,Nb,Nc,Ndが略等しくなるように、特徴量領域Ra,Rb,Rc,Rdが決定されることとなる。
【0068】
ここで、特徴量領域Ra,Rb,Rc,Rdの意義について考えてみる。Ra,Rb,Rc,Rdの順に、特徴量CHが大きく高周波成分量が多くなることから、画面全体で、同じ解像度を得るための係数データを用いてSD画素データからHD画素データを生成する場合、Rd側の特徴量領域内の特徴量CHが検出される箇所ほど不適切な解像度となりやすい。図7のa,b,c,dは、それぞれRa,Rb,Rc,Rdの特徴量領域内の特徴量CHが検出される画面内の箇所を示している。これら各箇所における不適切な解像度となる度合い(破綻度合い)をpa,pb,pc,pdとすると、pa<pb<pc<pdの関係となる。
【0069】
領域検出部144は、特徴量検出部141においてある垂直ブランキング期間に検出されて特徴量メモリ142に格納された各SD画素に対応する特徴量CHを、続く垂直有効走査期間で順次取り出し、各SD画素に対応する特徴量CHが、上述した特徴量領域決定部143で決定された特徴量領域Ra,Rb,Rc,Rdのいずれに含まれるかを検出し、その検出情報DETを出力するものである。
【0070】
係数選択信号生成部145は、領域検出部144からの検出情報DETと、システムコントローラ101から供給されるパラメータQの値とから、係数選択信号SELを生成するものである。
係数選択信号生成部145は、パラメータQの各値に対応した、上述の特徴量領域Ra,Rb,Rc,Rdにおける解像度選択情報RESが格納された格納手段としてのROM(read only memory)146を持っている。
【0071】
図8は、ROM146内に格納された解像度選択情報RESを模式的に表したものである。
この図において、「a」が記載された範囲(第1の範囲)では、特徴量CHが特徴量領域Raに含まれるときRES=1であり、特徴量CHが特徴量領域Rb,Rc,Rdに含まれるときRES=0であることを意味し、「a,b」が記載された範囲(第2の範囲)では、特徴量CHが特徴量領域Ra,Rbに含まれるときRES=1であり、特徴量CHが特徴量領域Rc,Rdに含まれるときRES=0であることを意味し、「a,b,c」が記載された範囲(第3の範囲)では、特徴量CHが特徴量領域Ra,Rb,Rcに含まれるときRES=1であり、特徴量CHが特徴量領域Rdに含まれるときRES=0であることを意味し、「a,b,c,d」が記載された範囲(第4の範囲)では、特徴量CHが特徴量領域Ra,Rb,Rc,Rdのいずれに含まれるときでもRES=1であることを意味する。
【0072】
また、この図において、i<Q≦(i+0.25)は第1の範囲に該当し、(i+0.25)<Q≦(i+0.5)は第2の範囲に該当し、(i+0.5)<Q≦(i+0.75)は第3の範囲に該当し、(i+0.75)<Q≦(i+1)は第4の範囲に該当する。ここで、i=0,1,・・・,7である。なお、Q=0であるときは、特徴量CHが特徴量領域Ra,Rb,Rc,Rdのいずれに含まれるときでもRES=0である。
【0073】
係数選択信号生成部145は、領域検出部144からの検出情報DETと、システムコントローラ101から供給されるパラメータQの値に対応した解像度選択情報RESをROM146より取り出し、この解像度選択情報RESを係数選択信号SELとして出力する。例えば、パラメータQの値が0.4で、検出情報DETが特徴量CHが特徴量領域Raに含まれていることを表しているとき、ROM146よりSEL=1が取り出され、係数選択信号SELとして1が出力される。
【0074】
この係数選択信号生成部145より出力される係数選択信号SELが、係数選択回路133の出力ともなる。このように、係数選択回路133より出力される係数選択信号SELは、上述したように係数メモリ131に読み出しアドレス情報として供給される。係数メモリ131(図1参照)には上述したように情報メモリバンク132からパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した係数データがロードされるが、SEL=0であるときは離散値mに対応した係数データが読み出し対象となり、SEL=1であるときは離散値m+1に対応した係数データが読み出し対象となる。
【0075】
図1に戻って、また、画像信号処理部110は、第1のタップ選択回路121で選択的に取り出される予測タップのデータ(SD画素データ)xiと、係数メモリ131より読み出される係数データwiとから、作成すべきHD信号の画素データ(注目位置の画素データ)yを演算する推定予測演算回路127を有している。
【0076】
上述したように、SD信号(525i信号)をHD信号(1050i信号)に変換する際には、SD信号の1画素に対してHD信号の4画素を得る必要があることから、この推定予測演算回路127では、HD信号を構成する2×2の単位画素ブロック毎に、HD画素データが生成される。
【0077】
すなわち、この推定予測演算回路127には、第1のタップ選択回路121より単位画素ブロック内の4画素のデータ(注目位置の画素データ)に対応した予測タップのデータxiと、係数メモリ131よりその単位画素ブロックを構成する4画素に対応した係数データwiとが供給され、単位画素ブロックを構成する4画素のデータy1〜y4は、それぞれ個別に(6)式の推定式で演算される。
【0078】
【数4】
Figure 0004051934
【0079】
また、画像信号処理部110は、推定予測演算回路127より順次出力される単位画素ブロックを構成する4画素のデータy1〜y4を、線順次化して1050i信号のフォーマットで出力する後処理回路128を有している。
【0080】
次に、画像信号処理部110の動作を説明する。
バッファメモリ109に記憶されているSD信号(525i信号)より、第2のタップ選択回路122で、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップのデータ(SD画素データ)が選択的に取り出される。この空間クラスタップのデータは空間クラス検出回路124に供給される。この空間クラス検出回路124では、空間クラスタップのデータとしての各SD画素データに対してADRC処理が施されて空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる((1)式参照)。
【0081】
また、バッファメモリ109に記憶されているSD信号(525i信号)より、第3のタップ選択回路123で、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップのデータ(SD画素データ)が選択的に取り出される。この動きクラスタップのデータは動きクラス検出回路125に供給される。この動きクラス検出回路125では、動きクラスタップのデータとしての各SD画素データより動きクラス(主に動きの程度を表すためのクラス分類)のクラス情報MVが得られる。
【0082】
このクラス情報MVと上述した再量子化コードqiはクラス合成回路126に供給される。このクラス合成回路126では、これらクラス情報MVと再量子化コードqiとから、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎に、その単位画素ブロック内の4画素のデータ(注目位置の画素データ)が属するクラスを示すクラスコードCLが得られる((3)式参照)。そして、このクラスコードCLは、係数メモリ131に読み出しアドレス情報として供給される。
【0083】
また、バッファメモリ109に記憶されているSD信号(525i信号)より、係数選択回路133で、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎にその単位画素ブロック内の4画素(注目位置の画素)に対応する係数選択信号SELが生成される。
【0084】
すなわち、図2に示すように、バッファメモリ109に記憶されるSD信号(525i信号)が係数選択回路133の特徴量検出部141に供給され、この特徴量検出部141では各フィールドのSD信号を構成するSD画素毎に特徴量CH=√(DR×ACT)が検出される。そして、特徴量検出部141で、ある垂直ブランキング期間で検出される1フィールド分のSD信号に対応する特徴量CHは特徴量メモリ142に格納される。
【0085】
また、特徴量領域決定部143において、ある垂直ブランキング期間に特徴量メモリ142に格納された1フィールド分のSD信号に対応する特徴量CHが使用されて、全SD画素に対応する特徴量CHの最小値CHminから最大値CHmaxまでの範囲を4領域に分割して4つの特徴量領域Ra,Rb,Rc,Rdが決定される(図6参照)。この場合、全SD画素に対応する特徴量CHのうち各特徴量領域に含まれる個数が略等しくなるように4つの特徴量領域Ra,Rb,Rc,Rdの範囲が決定される。
【0086】
そして、ある垂直ブランキング期間に特徴量メモリ142に格納された1フィールド分のSD信号が、続く垂直有効走査期間で順次取り出されて領域検出部144に供給され、各SD画素に対応する特徴量CHが、上述した特徴量領域Ra,Rb,Rc,Rdのいずれに含まれるかが検出される。この検出情報DETは係数選択信号生成部145に供給される。
【0087】
この係数選択信号生成部145には、さらにシステムコントローラ101からパラメータQが供給される。係数選択信号生成部145が持っているROM146には、上述したように、パラメータQの各値に対応した、特徴量領域Ra,Rb,Rc,Rdにおける解像度選択情報RESが格納されている。係数選択信号生成部145では、領域検出部144からの検出情報DETと、システムコントローラ101から供給されるパラメータQの値に対応した解像度選択情報RESがROM146より取り出される。
【0088】
そして、この取り出された解像度選択情報RESが、係数選択信号生成部145、従って係数選択回路133の出力である係数選択信号SELとなる。したがって、係数選択回路133からは、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎にその単位画素ブロック内の4画素(注目位置の画素)に対応する係数選択信号SELが出力される。この係数選択信号SELは、係数メモリ131に読み出しアドレス情報として供給される。
【0089】
係数メモリ131には、情報メモリバンク132から、パラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データがロードされている。このような係数データのロード動作は、例えば、パラメータQの値に変更があって、係数メモリ131に格納すべき係数データの変更が必要となる場合に行われる。
【0090】
係数メモリ131に上述したようにクラスコードCLおよび係数選択信号SELが読み出しアドレス情報として供給されることで、この係数メモリ131からクラスコードCLに対応し、かつ係数選択信号SELに対応した係数データwiが読み出されて推定予測演算回路127に供給される。この場合、SEL=0であるときは離散値mに対応した係数データが読み出され、SEL=1であるときは離散値m+1に対応した係数データが読み出される。
【0091】
また、第1のタップ選択回路121では、バッファメモリ109に記憶されているSD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する予測タップのデータ(SD画素データ)が選択的に取り出される。この予測タップのデータxiは推定予測演算回路127に供給される。
【0092】
推定予測演算回路127では、予測タップのデータ(SD画素データ)xiと、係数メモリ131より読み出される4画素分の係数データwiとから、作成すべきHD信号を構成する単位画素ブロック内の4画素のデータ(HD画素データ)y1〜y4がそれぞれ個別に演算される((6)式参照)。そして、この推定予測演算回路127より順次出力される4画素のデータy1〜y4は、後処理回路128に供給される。この後処理回路128は、推定予測演算回路127より順次出力される4画素のデータy1〜y4を線順次化し、1050i信号のフォーマットで出力する。つまり、この後処理回路128からは、HD信号としての1050i信号が出力される。
【0093】
上述したように、係数メモリ131にはシステムコントローラ101より供給されるパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データが情報メモリバンク132よりロードされる。そのため、ユーザがリモコン送信機200を操作してパラメータQの値を変更すると、それに伴って係数メモリ131に格納される係数データも変更され、推定予測演算回路127ではHD信号の画素データがパラメータQの値に対応して生成される。したがって、ユーザは、パラメータQの値を変更することで、HD信号による画像の解像度を、従来のコントラストやシャープネスの調整のように、所望の値に任意に調整できる。
【0094】
また、係数メモリ131に格納されるパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データのうち、推定予測演算回路127で実際にHD信号の画素データを生成する際に使用する係数データが、係数選択回路133で生成される係数選択信号SELに基づいて決定される。すなわち、作成すべきHD信号を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺における特徴量CHが、不適切な解像度となる度合い(破綻度合い)がいかなる特徴量領域に含まれるか、およびパラメータQの値がmからm+1までのいずれにあるかに応じて、離散値mに対応した係数データを使用するか、離散値m+1に対応した係数データを使用するか決定される。因に、離散値m+1に対応した係数データは、離散値mに対応した係数データより、高い解像度を得るためのものである。
【0095】
例えば、パラメータQの値がmに近くなる程、特徴量CHが不適切な解像度となる度合い(破綻度合い)が低い特徴量領域に含まれる場合だけ、離散値m+1に対応した係数データが使用される(図8参照)。
【0096】
このように、全画面一様に同一の係数データを用いるものではなく、注目位置の特徴量に応じて選択された係数データを用いて注目位置の画素データを生成するものである。これにより、パラメータQを変更して解像度を調整する際に、不適切な解像度となる度合い(破綻度合い)が高い特徴量領域に特徴量CHが含まれる箇所が不適切な解像度となることを防止でき、HD信号による画像の画質の向上を図ることができる。
【0097】
図9は、画面内の各箇所a〜dが、図7で説明したと同様の状態にある場合において、パラメータQの値がm〜m+1に変化した場合に、各箇所で離散値mあるいは離散値m+1のいずれに対応した係数データが使用されるかを示したものである。
【0098】
Q=mである場合には、図9(a)に示すように、a〜dの全ての箇所で離散値mに対応した係数データwmが使用される。m<Q≦m+0.25である場合には、図9(b)に示すように、aの箇所で離散値m+1に対応した係数データwm+1が使用され、b〜dの箇所で離散値mに対応した係数データwmが使用される。m+0.25<Q≦m+0.5である場合には、図9(c)に示すように、a,bの箇所で離散値m+1に対応した係数データwm+1が使用され、c,dの箇所で離散値mに対応した係数データwmが使用される。m+0.5<Q≦m+0.75である場合には、図9(d)に示すように、a〜cの箇所で離散値m+1に対応した係数データwm+1が使用され、dの箇所で離散値mに対応した係数データwmが使用される。さらに、m+0.75<Q≦m+1である場合には、図9(e)に示すように、a〜dの全て箇所で離散値m+1に対応した係数データwm+1が使用される。
【0099】
なお、上述実施の形態においては、注目画素の周辺における高周波成分量に関係する特徴量CHとして、√(DR×ACT)で表されるものを使用したものであるが、これに限定されるものではない。この特徴量CHとしては、同じ解像度を得るための係数データを使用してHD信号を得る場合に、不適切な解像度となる度合い(破綻度合い)を段階的に分類できるものであればよい。
【0100】
また、上述実施の形態においては、説明を簡単にするため、特徴量CHの最小値CHminから最大値CHmaxまでの範囲を4領域に分割して4つの特徴量領域Ra〜Rdを決定し(図6参照)、またそれに対応してパラメータQの各離散値の間を4つの範囲に分割した(図8参照)ものを示したが、これらの個数は実際にはもっと多くされ、例えば10とされる。
【0101】
また、上述実施の形態においては、全SD画素に対応する特徴量CHのうち各特徴量領域に含まれる個数Na,Nb,Nc,Ndが略等しくなるようにしたが、必ずしも等しくする必要はない。ただし、個数Na,Nb,Nc,Ndを略等しくすることで、パラメータQの値の変化に比例したHD画像の解像度変化を期待できる。
【0102】
次に、情報メモリバンク132に蓄積されるパラメータQの0,1,・・・,8の各離散値に対応した、9つの解像度に対応する係数データの生成方法について説明する。この係数データは、予め学習によって生成されたものである。
【0103】
まず、この学習方法について説明する。(6)式の推定式に基づく係数データwi(i=1〜n)を最小二乗法により求める例を示すものとする。一般化した例として、Xを入力データ、Wを係数データ、Yを予測値として、(7)式の観測方程式を考える。この(7)式において、mは学習データの数を示し、nは予測タップの数を示している。
【0104】
【数5】
Figure 0004051934
【0105】
(7)式の観測方程式により収集されたデータに最小二乗法を適用する。この(7)式の観測方程式をもとに、(8)式の残差方程式を考える。
【0106】
【数6】
Figure 0004051934
【0107】
(8)式の残差方程式から、各wiの最確値は、(9)式のe2を最小にする条件が成り立つ場合と考えられる。すなわち、(10)式の条件を考慮すればよいわけである。
【0108】
【数7】
Figure 0004051934
【0109】
つまり、(10)式のiに基づくn個の条件を考え、これを満たすw1,w2,・・・,wnを算出すればよい。そこで、(8)式の残差方程式から、(11)式が得られる。さらに、(11)式と(7)式とから、(12)式が得られる。
【0110】
【数8】
Figure 0004051934
【0111】
そして、(8)式と(12)式とから、(13)式の正規方程式が得られる。
【0112】
【数9】
Figure 0004051934
【0113】
(13)式の正規方程式は、未知数の数nと同じ数の方程式を立てることが可能であるので、各wiの最確値を求めることができる。この場合、掃き出し法(Gauss-Jordanの消去法)等を用いて連立方程式を解くことになる。
【0114】
図10は、上述した概念で係数データを生成する係数データ生成装置150を示している。この係数データ生成装置150は、教師信号としてのHD信号(1050i信号)が入力される入力端子151と、このHD信号に対して水平および垂直の間引き処理を行って、生徒信号としてのSD信号を得るSD信号生成回路152とを有している。
【0115】
このSD信号生成回路152には、パラメータQが制御信号として供給される。このパラメータQは、図1に示すテレビ受信機100で、ユーザのリモコン送信機200の操作によってシステムコントローラ101より出力されるパラメータQに対応したものである。ただし、ここでは、パラメータQの値として0,1,・・・,8の9つの離散値のみをとる。
【0116】
このSD信号生成回路152では、パラメータQの値に対応して、HD信号からSD信号を生成する際に使用されるフィルタの水平および垂直の帯域が可変される。このフィルタは、例えば水平帯域を制限する1次元ガウシアンフィルタと垂直帯域を制限する1次元ガウシアンフィルタとから構成される。この1次元ガウシアンフィルタは、(14)式で示される。
【0117】
【数10】
Figure 0004051934
【0118】
この場合、Qの離散的な値に対応して標準偏差σの値を段階的に変えることで、Qの離散的な値に対応した周波数特性を持つ1次元ガウシアンフィルタを得ることができる。この場合、パラメータQの値が大きくなる程、水平および垂直の帯域が狭くなるようにされる。これにより、パラメータQの値が大きくなる程、解像度の高いHD信号を得るための係数データを生成できる。
【0119】
また、係数データ生成装置150は、SD信号生成回路152より出力されるSD信号(525i信号)より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する第1〜第3のタップ選択回路153〜155を有している。これら第1〜第3のタップ選択回路153〜155は、上述した画像信号処理部110の第1〜第3のタップ選択回路121〜123と同様に構成される。
【0120】
また、係数データ生成装置150は、第2のタップ選択回路154で選択的に取り出される空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、そのクラス情報を出力する空間クラス検出回路157を有している。この空間クラス検出回路157は、上述した画像信号処理部110の空間クラス検出回路124と同様に構成される。この空間クラス検出回路157からは、空間クラスタップのデータとしての各SD画素データ毎の再量子化コードqiが空間クラスを示すクラス情報として出力される。
【0121】
また、係数データ生成装置150は、第3のタップ選択回路155で選択的に取り出される動きクラスタップのデータ(SD画素データ)より、主に動きの程度を表すための動きクラスを検出し、そのクラス情報MVを出力する動きクラス検出回路158を有している。この動きクラス検出回路158は、上述した画像信号処理部110の動きクラス検出回路125と同様に構成される。この動きクラス検出回路158では、第3のタップ選択回路155で選択的に取り出される動きクラスタップのデータ(SD画素データ)からフレーム間差分が算出され、さらにその差分の絶対値の平均値に対してしきい値処理が行われて動きの指標である動きクラスが検出される。
【0122】
また、係数データ生成装置150は、空間クラス検出回路157より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス検出回路158より出力される動きクラスのクラス情報MVに基づき、HD信号(1050i信号)における注目位置の画素データが属するクラスを示すクラスコードCLを得るためのクラス合成回路159を有している。このクラス合成回路159も、上述した画像信号処理部110のクラス合成回路126と同様に構成される。
【0123】
また、係数データ生成装置150は、入力端子151に供給されるHD信号より得られる注目位置の画素データとしての各HD画素データyと、この各HD画素データyにそれぞれ対応して第1のタップ選択回路153で選択的に取り出される予測タップのデータ(SD画素データ)xiと、各HD画素データyにそれぞれ対応してクラス合成回路159より出力されるクラスコードCLとから、クラス毎に、n個の係数データwiを得るための正規方程式((13)式参照)を生成する正規方程式生成部160を有している。
【0124】
この場合、1個のHD画素データyとそれに対応するn個の予測タップ画素データとの組み合わせで上述した1個の学習データが生成され、従って正規方程式生成部160では多くの学習データが登録された正規方程式が生成される。なお、図示せずも、第1のタップ選択回路153の前段に時間合わせ用の遅延回路を配置することで、この第1のタップ選択回路153から正規方程式生成部160に供給されるSD画素データxiのタイミング合わせが行われる。
【0125】
また、係数データ生成装置150は、正規方程式生成部160でクラス毎に生成された正規方程式のデータが供給され、クラス毎に生成された正規方程式を解いて、各クラスの係数データwiを求める係数データ決定部161と、この求められた係数データwiを記憶する係数メモリ162とを有している。係数データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数データwiが求められる。
【0126】
図10に示す係数データ生成装置150の動作を説明する。入力端子151には教師信号としてのHD信号(1050i信号)が供給され、そしてこのHD信号に対してSD信号生成回路152で水平および垂直の間引き処理が行われて生徒信号としてのSD信号(525i信号)が生成される。この場合、SD信号生成回路152には、パラメータQが制御信号として供給され、パラメータQの離散的な値に対応して、水平および垂直の帯域が段階的に変化した複数のSD信号が順次生成されていく。
【0127】
このSD信号(525i信号)より、第2のタップ選択回路154で、HD信号(1050i信号)における注目位置の周辺に位置する空間クラスタップのデータ(SD画素データ)が選択的に取り出される。この空間クラスタップのデータは空間クラス検出回路157に供給される。この空間クラス検出回路157では、空間クラスタップのデータとしての各SD画素データに対してADRC処理が施されて空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる((1)式参照)。
【0128】
また、SD信号生成回路152で生成されたSD信号より、第3のタップ選択回路155で、HD信号における注目位置の周辺に位置する動きクラスタップのデータ(SD画素データ)が選択的に取り出される。この動きクラスタップのデータは動きクラス検出回路158に供給される。この動きクラス検出回路158では、動きクラスタップのデータとしての各SD画素データより動きクラス(主に動きの程度を表すためのクラス分類)のクラス情報MVが得られる。
【0129】
このクラス情報MVと上述した再量子化コードqiはクラス合成回路159に供給される。このクラス合成回路159では、これらクラス情報MVと再量子化コードqiとから、HD信号(1050i信号)における注目位置の画素データが属するクラスを示すクラスコードCLが得られる((3)式参照)。
【0130】
また、SD信号生成回路152で生成されるSD信号より、第1のタップ選択回路153で、HD信号に係る注目画素の周辺に位置する予測タップのデータ(SD画素データ)が選択的に取り出される。そして、入力端子151に供給されるHD信号より得られる注目位置の画素データとしての各HD画素データyと、この各HD画素データyにそれぞれ対応して第1のタップ選択回路121で選択的に取り出される予測タップのデータ(SD画素データ)xiと、各HD画素データyにそれぞれ対応してクラス合成回路159より出力されるクラスコードCLとから、正規方程式生成部160では、クラス毎に、n個の係数データwiを生成するための正規方程式が生成される。
【0131】
そして、係数データ決定部161でその正規方程式が解かれ、各クラスの係数データwiが求められ、その係数データwiはクラス別にアドレス分割された係数メモリ162に記憶される。
【0132】
このように、図10に示す係数データ生成装置150においては、図1の画像信号処理部110の情報メモリバンク132に記憶される各クラスの係数データwiを生成できる。この場合、SD信号生成回路152で生成されるSD信号の水平および垂直の帯域をパラメータQの値によって段階的に変化させることができる。そのため、パラメータQの値を0,1,・・・,8に順次変化させてクラス毎の係数データwiを決定していくことで、パラメータQの0,1,・・・,8の離散的な値に対応した各クラスの係数データwiを生成できる。
【0133】
なお、図1の画像信号処理部110における処理を、例えば図11に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
まず、図11に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の動作プログラムや係数データ等が格納されたROM(read only memory)302と、CPU301の作業領域を構成するRAM(random access memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0134】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクをドライブするドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0135】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0136】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid crystal display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0137】
また、画像信号処理装置300は、SD信号を入力するための入力端子314と、HD信号を出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0138】
ここで、上述したようにROM302に処理プログラムや係数データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら処理プログラムや係数データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0139】
また、処理すべきSD信号を入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後のHD信号を出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0140】
図12のフローチャートを参照して、図11に示す画像信号処理装置300における、SD信号よりHD信号を得るため処理手順を説明する。
まず、ステップST1で、処理を開始し、ステップST2で、SD画素データをフィールド単位で入力する。このSD画素データが入力端子314より入力される場合には、このSD画素データをRAM303に一時的に格納する。また、このSD画素データがハードディスクに記録されている場合には、ハードディスクドライブ307でこのSD画素データを読み出し、RAM303に一時的に格納する。そして、ステップST3で、入力SD画素データの全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST4で、処理を終了する。一方、処理が終わっていないときは、ステップST5に進む。
【0141】
ステップST5では、ユーザがリモコン送信機200を操作して入力したパラメータQの値を例えばRAM303より読み込む。そして、ステップST6で、読み込んだパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データを読み出し、RAM303に一時的に格納する。
【0142】
次に、ステップST7で、ステップST2で入力された1フィールド分のSD画素データより、各SD画素の特徴量CH(√(DR×ACT))を求め、さらに各SD画素の特徴量CHを用いて、4つの特徴量領域Ra〜Rdを決定する(図6参照)。なお、各SD画素の特徴量CHは、後のステップでさらに使用するので、RAM303に格納しておく。
【0143】
次に、ステップST8で、ステップST2で入力されたSD画素データより、生成すべき各HD画素データ(注目画素データ)に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST9で、入力されたSD画素データの全領域においてHD画素データを得る処理が終了したか否かを判定する。処理が終了していないときは、ステップST10に進む。
【0144】
このステップST10では、生成すべき各HD画素データ(注目位置の画素データ)に対応するSD画素の特徴量CHが、上述の4つの特徴量領域Ra〜Rdのいずれに含まれるかを検出する。そして、ステップST11で、その検出情報DETとパラメータQの値とから、離散値m,m+1のいずれに対応した係数データを使用するかの係数選択信号SELを生成する。
【0145】
次に、ステップST12で、ステップST8で取得されたクラスタップのSD画素データからクラスコードCLを生成する。そして、ステップ13で、ステップST11で生成された係数選択信号SELで示される離散値に対応した係数データであって、ステップST12で生成されたクラスコードCLで示されるクラスの係数データと、予測タップのSD画素データを使用して、推定式((6)式参照)により、パラメータQの値に対応したHD画素データを生成し、その後にステップST8に戻って、上述したと同様の処理を繰り返す。
また、ステップST9で、処理が終了しているときは、ステップST2に戻り、次のフィールドのSD画素データの入力処理に移る。
【0146】
このように、図12に示すフローチャートに沿って処理をすることで、入力されたSD信号を構成するSD画素データを処理して、HD信号を構成するHD画素データを得ることができる。上述したように、このように処理して得られたHD信号は出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0147】
次に、この発明の他の実施の形態について説明する。図13は、実施の形態としてのテレビ受信機100Aの構成を示している。このテレビ受信機100Aも、放送信号より525i信号というSD信号を得、この525i信号を1050i信号というHD信号に変換し、その1050i信号による画像を表示するものである。この図13において、図1と対応する部分には同一符号を付し、その詳細説明は省略する。
【0148】
このテレビ受信機100Aは、図1のテレビ受信機100における画像信号処理部110の代わりに、画像信号処理部110Aが設けられたものである。この画像信号処理部110Aでは、注目位置における特徴量として注目位置における動き量を用いるものである。
【0149】
画像信号処理部110Aは、第2のタップ選択回路122で選択的に取り出される空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、クラスコードCLを出力する空間クラス検出回路124Aを有している。
【0150】
空間クラス検出回路124Aでは、以下の処理が行われてクラスコードCLが得られる。まず、図1の画像信号処理部110における空間クラス検出回路124と同様のADRC等の処理が行われ、第2のタップ選択回路122で取り出されたNa個の空間クラスタップのデータ(SD画素データ)に対する再量子化コードqi(i=1〜Na)が求められる。次に、この再量子化コードqi(i=1〜Na)が使用されて、(15)式によって、クラスコードCLの演算が行われる。
【0151】
【数11】
Figure 0004051934
【0152】
このように、画像信号処理部110Aでは、第2のタップ選択回路122で取り出された空間クラスタップのデータ(SD画素データ)のみからクラスコードCLが得られる。この場合、上述したように、注目位置における特徴量として注目位置における動き量を用いることから、クラスコードCLには動きクラスの情報を含めないこととしている。
【0153】
また、画像信号処理部110Aは、係数選択信号SELを発生する係数選択回路133Aを有している。この係数選択信号SELも、図1の画像信号処理部110における係数選択回路133で発生される係数選択信号SELと同様に、係数メモリ131に読み出しアドレス情報として供給されるものであり、情報メモリバンク132から係数メモリ131にロードされて格納された、パラメータQの2つの離散値に対応した係数データのうち一つの係数データを選択するために使用される。
【0154】
図14は、係数選択回路133Aの構成を示している。この図14において、図2と対応する部分には同一符号を付して示している。
この係数選択回路133Aは、動き量検出部141A、動き量メモリ142A、動き量領域決定部143A、領域検出部144Aおよび係数選択信号生成部145Aからなっている。
【0155】
動き量検出部141Aは、バッファメモリ109に一時的に記憶される各フィールドのSD信号(525i信号)を構成するSD画素毎に、動き量を検出するものである。この場合、あるSD画素(着目画素)に対応した動き量は、例えばそのSD画素を中心とした所定サイズのブロックを使用し、周知のブロックマッチング法により動きベクトルを求め、この動きベクトルの大きさとして検出される。なお、動きベクトルはブロックマッチング法ではなく、勾配法により求めてもよい。
【0156】
上述したように、525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して、1050i信号の4画素を注目画素として、推定式で得るものである。したがって、動き量検出部141AにおいてSD信号(525i信号)を構成する各1画素に対応した動き量CHを検出するということは、HD信号(1050i信号)を構成する各4画素(注目画素)の動き量CHを検出していることになる。
【0157】
動き量検出部141Aは、バッファメモリ109に記憶されるあるフィールドのSD信号に対する動き量CHの検出処理を例えば垂直ブランキング期間で行う。動き量メモリ142Aは、動き量検出部141Aにおいてある垂直ブランキング期間に検出される1フィールド分の各SD画素に対応した動き量CHを格納するものである。
【0158】
また、動き量領域決定部143Aは、動き量メモリ142Aに格納された、あるフィールドの全SD画素に対応する動き量CHを用いて、動き量CHの最小値から最大値までの範囲を4領域に分割して4つの動き量領域を決定するものである。動き量領域決定部143Aは、この動き量領域の決定処理を垂直ブランキング期間で行う。この場合、全SD画素に対応する動き量CHのうち各動き量領域に含まれる個数が略等しくなるように、4つの動き量領域が決定される。
【0159】
図15は、全SD画素に対応する動き量CHのヒストグラムモデルを示している。CHminは動き量CHの最小値、CHmaxは動き量CHの最大値を示している。Ra,Rb,Rc,Rdは4つの動き量領域であり、Na,Nb,Nc,Ndは全SD画素に対応する動き量CHのうち各動き量領域に含まれる個数を示している。この場合、個数Na,Nb,Nc,Ndが略等しくなるように、動き量領域Ra,Rb,Rc,Rdが決定されることとなる。
【0160】
ここで、動き量領域Ra,Rb,Rc,Rdの意義について考えてみる。Ra,Rb,Rc,Rdの順に、動き量CHが大きくなることから、画面全体で、同じ解像度を得るための係数データを用いてSD画素データからHD画素データを生成する場合、Rd側の動き量領域内の動き量CHが検出される箇所ほど不適切な解像度となりやすい。図16のa,b,c,dは、それぞれRa,Rb,Rc,Rdの動き量領域内の動き量CHが検出される画面内の箇所を示している。各箇所における不適切な解像度となる度合い(破綻度合い)をpa,pb,pc,pdとすると、pa<pb<pc<pdの関係となる。
【0161】
領域検出部144Aは、動き量検出部141Aにおいてある垂直ブランキング期間に検出されて動き量メモリ142Aに格納された各SD画素に対応する動き量CHを、続く垂直有効走査期間で順次取り出し、各SD画素に対応する動き量CHが、上述した動き量領域決定部143Aで決定された動き量領域Ra,Rb,Rc,Rdのいずれに含まれるかを検出し、その検出情報DETを出力するものである。
【0162】
係数選択信号生成部145Aは、領域検出部144Aからの検出情報DETと、システムコントローラ101から供給されるパラメータQの値とから、係数選択信号SELを生成するものである。係数選択信号生成部145Aは、パラメータQの各値に対応した、上述の動き量領域Ra,Rb,Rc,Rdにおける解像度選択情報RESが格納された格納手段としてのROM146を持っている。上述の図8は、ROM146内に格納された解像度選択情報RESを模式的に表している。
【0163】
この図において、「a」が記載された範囲(第1の範囲)では、動き量CHが動き量領域Raに含まれるときRES=1であり、動き量CHが動き量領域Rb,Rc,Rdに含まれるときRES=0であることを意味し、「a,b」が記載された範囲(第2の範囲)では、動き量CHが動き量領域Ra,Rbに含まれるときRES=1であり、動き量CHが動き量領域Rc,Rdに含まれるときRES=0であることを意味し、「a,b,c」が記載された範囲(第3の範囲)では、動き量CHが動き量領域Ra,Rb,Rcに含まれるときRES=1であり、動き量CHが動き量領域Rdに含まれるときRES=0であることを意味し、「a,b,c,d」が記載された範囲(第4の範囲)では、動き量CHが動き量領域Ra,Rb,Rc,Rdのいずれに含まれるときでもRES=1であることを意味する。
【0164】
また、この図において、i<Q≦(i+0.25)は第1の範囲に該当し、(i+0.25)<Q≦(i+0.5)は第2の範囲に該当し、(i+0.5)<Q≦(i+0.75)は第3の範囲に該当し、(i+0.75)<Q≦(i+1)は第4の範囲に該当する。ここで、i=0,1,・・・,7である。なお、Q=0であるときは、動き量CHが動き量領域Ra,Rb,Rc,Rdのいずれに含まれるときでもRES=0である。
【0165】
係数選択信号生成部145Aは、領域検出部144Aからの検出情報DETと、システムコントローラ101から供給されるパラメータQの値に対応した解像度選択情報RESをROM146より取り出し、この解像度選択情報RESを係数選択信号SELとして出力する。例えば、パラメータQの値が0.4で、検出情報DETが動き量CHが動き量領域Raに含まれていることを表しているとき、ROM146よりSEL=1が取り出され、係数選択信号SELとして1が出力される。
【0166】
この係数選択信号生成部145Aより出力される係数選択信号SELが、係数選択回路133Aの出力ともなる。このように、係数選択回路133Aより出力される係数選択信号SELは、上述したように係数メモリ131(図13参照)に読み出しアドレス情報として供給される。係数メモリ131には上述したように情報メモリバンク132からパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した係数データがロードされるが、SEL=0であるときは離散値mに対応した係数データが読み出し対象となり、SEL=1であるときは離散値m+1に対応した係数データが読み出し対象となる。
図13に示す画像信号処理部110Aのその他は、図1に示す画像信号処理部110と同様に構成される。
【0167】
次に、画像信号処理部110Aの動作を説明する。
バッファメモリ109に記憶されているSD信号(525i信号)より、第2のタップ選択回路122で、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップのデータ(SD画素データ)が選択的に取り出される。この空間クラスタップのデータは空間クラス検出回路124Aに供給される。この空間クラス検出回路124Aでは、空間クラスタップのデータとしての各SD画素データに対してADRC処理が施されてクラスコードCLが得られる((15)式参照)。このクラスコードCLは、係数メモリ131に読み出しアドレス情報として供給される。
【0168】
また、バッファメモリ109に記憶されているSD信号(525i信号)より、係数選択回路133Aで、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎にその単位画素ブロック内の4画素(注目位置の画素)に対応する係数選択信号SELが生成される。
【0169】
すなわち、図14に示すように、バッファメモリ109に記憶されるSD信号(525i信号)が係数選択回路133Aの動き量検出部141Aに供給され、この動き量検出部141Aでは各フィールドのSD信号を構成するSD画素毎に、ブロックマッチング法あるいは勾配法などにより動き量CHが検出される。そして、動き量検出部141Aで、ある垂直ブランキング期間で検出される1フィールド分のSD信号に対応する動き量CHは動き量メモリ142Aに格納される。
【0170】
また、動き量領域決定部143Aにおいて、ある垂直ブランキング期間に動き量メモリ142Aに格納された1フィールド分のSD信号に対応する動き量CHが使用されて、全SD画素に対応する動き量CHの最小値CHminから最大値CHmaxまでの範囲を4領域に分割して4つの動き量領域Ra,Rb,Rc,Rdが決定される(図15参照)。この場合、全SD画素に対応する動き量CHのうち各動き量領域に含まれる個数が略等しくなるように4つの動き量領域Ra,Rb,Rc,Rdの範囲が決定される。
【0171】
そして、ある垂直ブランキング期間に動き量メモリ142Aに格納された1フィールド分のSD信号が、続く垂直有効走査期間で順次取り出されて領域検出部144Aに供給され、各SD画素に対応する動き量CHが、上述した動き量領域Ra,Rb,Rc,Rdのいずれに含まれるかが検出される。この検出情報DETは係数選択信号生成部145Aに供給される。
【0172】
この係数選択信号生成部145Aには、さらにシステムコントローラ101からパラメータQが供給される。係数選択信号生成部145Aが持っているROM146には、上述したように、パラメータQの各値に対応した、動き量領域Ra,Rb,Rc,Rdにおける解像度選択情報RESが格納されている。係数選択信号生成部145Aでは、領域検出部144Aからの検出情報DETと、システムコントローラ101から供給されるパラメータQの値に対応した解像度選択情報RESがROM146より取り出される。
【0173】
そして、この取り出された解像度選択情報RESが、係数選択信号生成部145A、従って係数選択回路133Aの出力である係数選択信号SELとなる。したがって、係数選択回路133Aからは、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎にその単位画素ブロック内の4画素(注目位置の画素)に対応する係数選択信号SELが出力される。この係数選択信号SELは、係数メモリ131に読み出しアドレス情報として供給される。
【0174】
係数メモリ131には、情報メモリバンク132から、パラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データがロードされている。このような係数データのロード動作は、例えば、パラメータQの値に変更があって、係数メモリ131に格納すべき係数データの変更が必要となる場合に行われる。
【0175】
係数メモリ131に上述したようにクラスコードCLおよび係数選択信号SELが読み出しアドレス情報として供給されることで、この係数メモリ131からクラスコードCLに対応し、かつ係数選択信号SELに対応した係数データwiが読み出されて推定予測演算回路127に供給される。この場合、SEL=0であるときは離散値mに対応した係数データが読み出され、SEL=1であるときは離散値m+1に対応した係数データが読み出される。
【0176】
また、第1のタップ選択回路121では、バッファメモリ109に記憶されているSD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する予測タップのデータ(SD画素データ)が選択的に取り出される。この予測タップのデータxiは推定予測演算回路127に供給される。
【0177】
推定予測演算回路127では、予測タップのデータ(SD画素データ)xiと、係数メモリ131より読み出される4画素分の係数データwiとから、作成すべきHD信号を構成する単位画素ブロック内の4画素のデータ(HD画素データ)y1〜y4がそれぞれ個別に演算される((6)式参照)。そして、この推定予測演算回路127より順次出力される4画素のデータy1〜y4は、後処理回路128に供給される。この後処理回路128は、推定予測演算回路127より順次出力される4画素のデータy1〜y4を線順次化し、1050i信号のフォーマットで出力する。つまり、この後処理回路128からは、HD信号としての1050i信号が出力される。
【0178】
上述したように、係数メモリ131にはシステムコントローラ101より供給されるパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データが情報メモリバンク132よりロードされる。そのため、ユーザがリモコン送信機200を操作してパラメータQの値を変更すると、それに伴って係数メモリ131に格納される係数データも変更され、推定予測演算回路127ではHD信号の画素データがパラメータQの値に対応して生成される。したがって、ユーザは、パラメータQの値を変更することで、HD信号による画像の解像度を、従来のコントラストやシャープネスの調整のように、所望の値に任意に調整できる。
【0179】
また、係数メモリ131に格納されるパラメータQの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データのうち、推定予測演算回路127で実際にHD信号の画素データを生成する際に使用する係数データが、係数選択回路133Aで生成される係数選択信号SELに基づいて決定される。すなわち、作成すべきHD信号を構成する単位画素ブロック内の4画素(注目位置の画素)の動き量CHが、不適切な解像度となる度合い(破綻度合い)がいかなる動き量領域に含まれるか、およびパラメータQの値がmからm+1までのいずれにあるかに応じて、離散値mに対応した係数データを使用するか、離散値m+1に対応した係数データを使用するか決定される。因に、離散値m+1に対応した係数データは、離散値mに対応した係数データより、高い解像度を得るためのものである。
【0180】
例えば、パラメータQの値がmに近くなる程、動き量CHが不適切な解像度となる度合い(破綻度合い)が低い動き量領域に含まれる場合だけ、離散値m+1に対応した係数データが使用される(図8参照)。
【0181】
このように、全画面一様に同一の係数データを用いるものでなく、注目位置の動き量に応じて選択された係数データを用いて注目位置の画素データを生成するものである。これにより、パラメータQの値を変更して解像度を調整する際に、不適切な解像度となる度合い(破綻度合い)が高い動き量領域に動き量CHが含まれる箇所が、不適切な解像度となることを防止でき、HD信号による画像の画質の向上を図ることができる。
【0182】
なお、上述実施の形態においては、説明を簡単にするため、動き量CHの最小値CHminから最大値CHmaxまでの範囲を4領域に分割して4つの動き量領域Ra〜Rdを決定し(図15参照)、またそれに対応してパラメータQの各離散値の間を4つの範囲に分割した(図8参照)ものを示したが、これらの個数は実際にはもっと多くされ、例えば10とされる。
【0183】
また、上述実施の形態においては、全SD画素に対応する動き量CHのうち各動き量領域に含まれる個数Na,Nb,Nc,Ndが略等しくなるようにしたが、必ずしも等しくする必要はない。ただし、個数Na,Nb,Nc,Ndを略等しくすることで、パラメータQの値の変化に比例したHD画像の解像度変化を期待できる。
【0184】
また、図13の画像信号処理部110Aにおける処理も、例えば図11に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。その場合の画像信号処理は、基本的には、上述の図12に示すフローチャートに沿って行われる。
【0185】
ただし、図13の画像信号処理部110Aでは注目位置における特徴量として注目位置における動き量を用いるものであることから、ステップST7、ステップST10における処理は以下のようになるが、その他のステップにおける処理は上述したと同様である。
【0186】
ステップST7では、ステップST2で入力された1フィールド分のSD画素データより、各SD画素の動き量を求め、さらに各SD画素の動き量CHを用いて、4つの動き量領域Ra〜Rdを決定する(図15参照)。
【0187】
また、ステップST10では、生成すべき各HD画素データ(注目位置の画素データ)に対応するSD画素の動き量CHが、上述の4つの動き量領域Ra〜Rdのいずれに含まれるかを検出する。
【0188】
次に、この発明のさらに他の実施の形態について説明する。図17は、実施の形態としてのテレビ受信機100Bの構成を示している。このテレビ受信機100Bも、放送信号より525i信号というSD信号を得、この525i信号を1050i信号というHD信号に変換し、その1050i信号による画像を表示するものである。この図17において、図1と対応する部分には同一符号を付し、その詳細説明は省略する。
【0189】
このテレビ受信機100Bは、図1のテレビ受信機100における画像信号処理部110の代わりに、画像信号処理部110Bが設けられたものである。この画像信号処理部110Bでは、注目位置における特徴量として注目位置における輝度が用いられる。
【0190】
また、このテレビ受信機100Bにおいて、ユーザは、リモコン送信機200の操作によって、ディスプレイ部111の画面上に表示される画像の輝度を調整できる。例えば、輝度選択モードで、アップキーおよびダウンキーの押圧操作、あるいはジョグダイヤル等のつまみの回転操作をすることで、システムコントローラ101から画像信号処理部110Bに供給される、輝度を示すパラメータBの値を変更できる。
【0191】
画像信号処理部110Bでは、後述するように、HD画素データが推定式によって算出されるが、この推定式の係数データとして、上述したパラメータBの値に対応したものが使用される。これにより、画像信号処理部110Bから出力されるHD信号による画像の輝度は、パラメータBの値に対応したものとなる。
【0192】
なお、ユーザのリモコン送信機200の操作によってパラメータBの値の変更が行われている状態では、ディスプレイ部111の画面上に、パラメータBの値の表示が行われる。ここでは図示しないが、この表示は数値または棒グラフ等を用いて行われる。ユーザは、この表示を参照して、パラメータBの値を変更できる。
【0193】
画像信号処理部110Bは、情報メモリバンク132Bを有している。本実施の形態においては、パラメータBは0〜8の間で変更可能とされる。情報メモリバンク132Bには、パラメータBの0,1,・・・,8の各離散値に対応した、9つの輝度における各クラスの係数データが予め蓄えられている。ここで、パラメータQの値が大きくなるほど輝度が高くなっていくものとする。この9つの輝度に対応する係数データの生成方法については後述する。
【0194】
なお、上述したように、525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して1050i信号の4画素を得る必要がある。そのため、ある輝度におけるあるクラスの係数データは、奇数、偶数のそれぞれのフィールドにおける1050i信号を構成する2×2の単位画素ブロック内の4画素に対応した係数データからなっている。この2×2の単位画素ブロック内の4画素は、525i信号の画素に対応して互いに異なる位相関係になっている。
【0195】
上述したように、ユーザは、リモコン送信機200の操作部において、アップキーおよびダウンキーの押圧操作、またはジョグダイヤル等のつまみの回転操作をすることで、システムコントローラ101から画像信号処理部110Bに供給されるパラメータBの値を変更できる。情報メモリバンク132Bには、そのパラメータBが供給され、この情報メモリバンク132Bから係数メモリ131には、パラメータBの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した、各クラスの係数データがロードされる。
【0196】
すなわち、0≦B≦1であるときはB=0,1に対応した各クラスの係数データが、1<B≦2であるときはB=1,2に対応した各クラスの係数データが、2<B≦3であるときはB=2,3に対応した各クラスの係数データが、3<B≦4であるときはB=3,4に対応した各クラスの係数データが、4<B≦5であるときはB=4,5に対応した各クラスの係数データが、5<B≦6であるときはB=5,6に対応した各クラスの係数データが、6<B≦7であるときはB=6,7に対応した各クラスの係数データが、7<B≦8であるときはB=7,8に対応した各クラスの係数データが、情報メモリバンク132Bから係数メモリ131にロードされる。
【0197】
また、画像信号処理部110Bは、係数選択信号SELを発生する係数選択回路133Bを有している。この係数選択信号SELも、図1の画像信号処理部110における係数選択回路133で発生される係数選択信号SELと同様に、係数メモリ131に読み出しアドレス情報として供給されるものであり、情報メモリバンク132Bから係数メモリ131にロードされて格納された、パラメータBの2つの離散値に対応した係数データのうち一つの係数データを選択するために使用される。
【0198】
図18は、係数選択回路133Bの構成を示している。この図18において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この係数選択回路133Bは、輝度検出部141B、輝度メモリ142B、輝度領域決定部143B、領域検出部144Bおよび係数選択信号生成部145Bからなっている。
【0199】
輝度検出部141Bは、バッファメモリ109に一時的に記憶される各フィールドのSD信号(525i信号)を構成するSD画素毎に、輝度を検出するものである。この場合、あるSD画素(着目画素)に対応した輝度は、例えばそのSD画素を中心とした所定サイズのブロックを使用し、ブロック内の画素値の単純平均、あるいは重み付け平均により求められる。
【0200】
上述したように、525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して、1050i信号の4画素を注目画素として、推定式で得るものである。したがって、輝度検出部141BにおいてSD信号(525i信号)を構成する各1画素に対応した輝度を検出するということは、HD信号(1050i信号)を構成する各4画素(注目画素)の輝度を検出していることになる。
【0201】
輝度検出部141Bは、バッファメモリ109に記憶されるあるフィールドのSD信号に対する輝度CHの検出処理を例えば垂直ブランキング期間で行う。輝度メモリ142Bは、輝度検出部141Bにおいてある垂直ブランキング期間に検出される1フィールド分の各SD画素に対応した輝度CHを格納するものである。
【0202】
また、輝度領域決定部143Bは、輝度メモリ142Bに格納された、あるフィールドの全SD画素に対応する輝度CHを用いて、輝度CHの最小値から最大値までの範囲を4領域に分割して4つの輝度領域を決定するものである。輝度領域決定部143Bは、この輝度領域の決定処理を垂直ブランキング期間で行う。この場合、全SD画素に対応する輝度CHのうち各輝度領域に含まれる個数が略等しくなるように、4つの輝度領域が決定される。
【0203】
図19は、全SD画素に対応する輝度CHのヒストグラムモデルを示している。CHminは輝度CHの最小値、CHmaxは輝度CHの最大値を示している。Ra,Rb,Rc,Rdは4つの輝度領域であり、Na,Nb,Nc,Ndは全SD画素に対応する輝度CHのうち各輝度領域に含まれる個数を示している。この場合、個数Na,Nb,Nc,Ndが略等しくなるように、輝度領域Ra,Rb,Rc,Rdが決定されることとなる。
【0204】
ここで、輝度領域Ra,Rb,Rc,Rdの意義について考えてみる。Ra,Rb,Rc,Rdの順に、輝度CHが大きくなることから、画面全体で同じ輝度を得るための係数データを用いてSD画素データからHD画素データを生成する場合、Rd側の輝度領域内の輝度CHが検出される箇所ほど明るくなりすぎ、不適切な輝度となりやすい。図20のa,b,c,dは、それぞれRa,Rb,Rc,Rdの輝度領域内の輝度CHが検出される画面内の箇所を示している。各箇所における不適切な輝度となる度合い(破綻度合い)をpa,pb,pc,pdとすると、pa<pb<pc<pdの関係となる。
【0205】
領域検出部144Bは、輝度検出部141Bにおいてある垂直ブランキング期間に検出されて輝度メモリ142Bに格納された各SD画素に対応する輝度CHを、続く垂直有効走査期間で順次取り出し、各SD画素に対応する輝度CHが、上述した輝度領域決定部143Aで決定された輝度領域Ra,Rb,Rc,Rdのいずれに含まれるかを検出し、その検出情報DETを出力するものである。
【0206】
係数選択信号生成部145Bは、領域検出部144Bからの検出情報DETと、システムコントローラ101から供給されるパラメータBの値とから、係数選択信号SELを生成するものである。係数選択信号生成部145Bは、パラメータBの各値に対応した、上述の輝度領域Ra,Rb,Rc,Rdにおける輝度選択情報RESが格納された格納手段としてのROM146Bを持っている。図21は、ROM146B内に格納された輝度選択情報RESを模式的に表している。
【0207】
この図において、「a」が記載された範囲(第1の範囲)では、輝度CHが輝度領域Raに含まれるときRES=1であり、輝度CHが輝度領域Rb,Rc,Rdに含まれるときRES=0であることを意味し、「a,b」が記載された範囲(第2の範囲)では、輝度CHが輝度領域Ra,Rbに含まれるときRES=1であり、輝度CHが輝度領域Rc,Rdに含まれるときRES=0であることを意味し、「a,b,c」が記載された範囲(第3の範囲)では、輝度CHが輝度領域Ra,Rb,Rcに含まれるときRES=1であり、輝度CHが輝度領域Rdに含まれるときRES=0であることを意味し、「a,b,c,d」が記載された範囲(第4の範囲)では、輝度CHが輝度領域Ra,Rb,Rc,Rdのいずれに含まれるときでもRES=1であることを意味する。
【0208】
また、この図において、i<B≦(i+0.25)は第1の範囲に該当し、(i+0.25)<B≦(i+0.5)は第2の範囲に該当し、(i+0.5)<B≦(i+0.75)は第3の範囲に該当し、(i+0.75)<B≦(i+1)は第4の範囲に該当する。ここで、i=0,1,・・・,7である。なお、B=0であるときは、輝度CHが輝度領域Ra,Rb,Rc,Rdのいずれに含まれるときでもRES=0である。
【0209】
係数選択信号生成部145Bは、領域検出部144Bからの検出情報DETと、システムコントローラ101から供給されるパラメータBの値に対応した輝度選択情報RESをROM146Bより取り出し、この輝度選択情報RESを係数選択信号SELとして出力する。例えば、パラメータBの値が0.4で、検出情報DETが輝度CHが輝度領域Raに含まれていることを表しているとき、ROM146BよりSEL=1が取り出され、係数選択信号SELとして1が出力される。
【0210】
この係数選択信号生成部145Bより出力される係数選択信号SELが、係数選択回路133Bの出力ともなる。このように、係数選択回路133Bより出力される係数選択信号SELは、上述したように係数メモリ131(図17参照)に読み出しアドレス情報として供給される。係数メモリ131には上述したように情報メモリバンク132BからパラメータBの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した係数データがロードされるが、SEL=0であるときは離散値mに対応した係数データが読み出し対象となり、SEL=1であるときは離散値m+1に対応した係数データが読み出し対象となる。
図17に示す画像信号処理部110Bのその他は、図1に示す画像信号処理部110と同様に構成される。
【0211】
次に、画像信号処理部110Bの動作を説明する。
バッファメモリ109に記憶されているSD信号(525i信号)より、第2のタップ選択回路122で、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップのデータ(SD画素データ)が選択的に取り出される。空間クラス検出回路124では、この空間クラスタップのデータに基づいて、クラス情報としての再量子化コードqiが得られる((1)式参照)。
【0212】
また、バッファメモリ109に記憶されているSD信号より、第3のタップ選択回路123で、作成すべきHD信号を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップのデータ(SD画素データ)が選択的に取り出される。動きクラス検出回路125では、この動きクラスタップのデータに基づいて、動きクラスのクラス情報MVが得られる。
【0213】
このクラス情報MVと上述した再量子化コードqiはクラス合成回路126に供給される。クラス合成回路126では、これらクラス情報MVと再量子化コードqiとから、作成すべきHD信号を構成する単位画素ブロック毎に、その単位画素ブロック内の4画素のデータ(注目位置の画素データ)が属するクラスを示すクラスコードCLが得られる((3)式参照)。このクラスコードCLは、係数メモリ131に読み出しアドレス情報として供給される。
【0214】
また、バッファメモリ109に記憶されているSD信号より、係数選択回路133Bで、作成すべきHD信号を構成する単位画素ブロック毎に、その単位画素ブロック内の4画素(注目位置の画素)に対応する係数選択信号SELが生成される。
【0215】
すなわち、図18に示すように、バッファメモリ109に記憶されるSD信号(525i信号)が係数選択回路133Bの輝度検出部141Bに供給され、この輝度検出部141Bでは各フィールドのSD信号を構成するSD画素毎に、輝度CHが検出される。そして、輝度検出部141Bで、ある垂直ブランキング期間で検出される1フィールド分のSD信号に対応する輝度CHは輝度メモリ142Bに格納される。
【0216】
また、輝度領域決定部143Bにおいて、ある垂直ブランキング期間に輝度メモリ142Bに格納された1フィールド分のSD信号に対応する輝度CHが使用されて、全SD画素に対応する輝度CHの最小値CHminから最大値CHmaxまでの範囲を4領域に分割して4つの輝度領域Ra,Rb,Rc,Rdが決定される(図19参照)。この場合、全SD画素に対応する輝度CHのうち各輝度領域に含まれる個数が略等しくなるように4つの輝度領域Ra,Rb,Rc,Rdの範囲が決定される。
【0217】
そして、ある垂直ブランキング期間に輝度メモリ142Bに格納された1フィールド分のSD信号が、続く垂直有効走査期間で順次取り出されて領域検出部144Bに供給され、各SD画素に対応する輝度CHが、上述した輝度領域Ra,Rb,Rc,Rdのいずれに含まれるかが検出される。この検出情報DETは係数選択信号生成部145Bに供給される。
【0218】
この係数選択信号生成部145Bには、さらにシステムコントローラ101からパラメータBが供給される。係数選択信号生成部145Bが持っているROM146Bには、上述したように、パラメータBの各値に対応した、輝度領域Ra,Rb,Rc,Rdにおける輝度選択情報RESが格納されている。係数選択信号生成部145Bでは、領域検出部144Bからの検出情報DETと、システムコントローラ101から供給されるパラメータBの値に対応した輝度選択情報RESがROM146Bより取り出される。
【0219】
そして、この取り出された輝度選択情報RESが、係数選択信号生成部145B、従って係数選択回路133Bの出力である係数選択信号SELとなる。したがって、係数選択回路133Bからは、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎にその単位画素ブロック内の4画素(注目位置の画素)に対応する係数選択信号SELが出力される。この係数選択信号SELは、係数メモリ131に読み出しアドレス情報として供給される。
【0220】
係数メモリ131には、情報メモリバンク132Bから、パラメータBの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データがロードされている。このような係数データのロード動作は、例えば、パラメータBの値に変更があって、係数メモリ131に格納すべき係数データの変更が必要となる場合に行われる。
【0221】
係数メモリ131に上述したようにクラスコードCLおよび係数選択信号SELが読み出しアドレス情報として供給されることで、この係数メモリ131からクラスコードCLに対応し、かつ係数選択信号SELに対応した係数データwiが読み出されて推定予測演算回路127に供給される。この場合、SEL=0であるときは離散値mに対応した係数データが読み出され、SEL=1であるときは離散値m+1に対応した係数データが読み出される。
【0222】
また、第1のタップ選択回路121では、バッファメモリ109に記憶されているSD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する予測タップのデータ(SD画素データ)が選択的に取り出される。この予測タップのデータxiは推定予測演算回路127に供給される。
【0223】
推定予測演算回路127では、予測タップのデータxiと、係数メモリ131より読み出される4画素分の係数データwiとから、作成すべきHD信号を構成する単位画素ブロック内の4画素のデータ(HD画素データ)y1〜y4がそれぞれ個別に演算される((6)式参照)。そして、この推定予測演算回路127より順次出力される4画素のデータy1〜y4は、後処理回路128に供給される。この後処理回路128は、推定予測演算回路127より順次出力される4画素のデータy1〜y4を線順次化し、1050i信号のフォーマットで出力する。つまり、この後処理回路128からは、HD信号としての1050i信号が出力される。
【0224】
上述したように、係数メモリ131にはシステムコントローラ101より供給されるパラメータBの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データが情報メモリバンク132Bよりロードされる。そのため、ユーザがリモコン送信機200を操作してパラメータBの値を変更すると、それに伴って係数メモリ131に格納される係数データも変更され、推定予測演算回路127ではHD信号の画素データがパラメータBの値に対応して生成される。したがって、ユーザは、パラメータBの値を変更することで、HD信号による画像の輝度を所望の値に任意に調整できる。
【0225】
また、係数メモリ131に格納されるパラメータBの値の近傍に位置する2つの離散値m,m+1(m=0,1,・・・,7)に対応した各クラスの係数データのうち、推定予測演算回路127で実際にHD信号の画素データを生成する際に使用する係数データが、係数選択回路133Bで生成される係数選択信号SELに基づいて決定される。すなわち、作成すべきHD信号を構成する単位画素ブロック内の4画素(注目位置の画素)の輝度CHが、不適切な輝度となる度合い(破綻度合い)がいかなる輝度領域に含まれるか、およびパラメータBの値がmからm+1までのいずれにあるかに応じて、離散値mに対応した係数データを使用するか、離散値m+1に対応した係数データを使用するか決定される。因に、離散値m+1に対応した係数データは、離散値mに対応した係数データより、高い輝度を得るためのものである。
【0226】
例えば、パラメータBの値がmに近くなる程、輝度CHが不適切な輝度となる度合い(破綻度合い)が低い輝度領域に含まれる場合だけ、離散値m+1に対応した係数データが使用される(図21参照)。
【0227】
このように、全画面一様に同一の係数データを用いるものではなく、注目位置の輝度に応じて選択された係数データを用いて注目位置の画素データを生成するものである。これにより、パラメータBの値を変更して輝度を調整する際に、不適切な輝度となる度合い(破綻度合い)が高い輝度領域に輝度CHが含まれる箇所が、不適切な輝度となることを防止でき、HD信号による画像の画質の向上を図ることができる。
【0228】
例えば、図24Aに示すような画像を考える。この画像は、左側の犬が体色が濃いことと家の影に入っていることとが重なって見にくい状態になっている。このようなときに、輝度を高くするように調整した場合、最初は、図24Cに示すように、暗いところのみが明るくなる。そのため、体色の濃い犬周辺だけで明るくなり、犬が見えやすくなる。この場合、画像全体が明るくならないので、画像全体が白っぽく不自然なものとなることがない。さらに輝度を高くしていくと、図24Dに示すように、画像全体が明るく変化する。
【0229】
なお、上述実施の形態においては、説明を簡単にするため、輝度CHの最小値CHminから最大値CHmaxまでの範囲を4領域に分割して4つの輝度領域Ra〜Rdを決定し(図19参照)、またそれに対応してパラメータBの各離散値の間を4つの範囲に分割した(図21参照)ものを示したが、これらの個数は実際にはもっと多くされ、例えば10とされる。
【0230】
また、上述実施の形態においては、全SD画素に対応する輝度CHのうち各輝度領域に含まれる個数Na,Nb,Nc,Ndが略等しくなるようにしたが、必ずしも等しくする必要はない。ただし、個数Na,Nb,Nc,Ndを略等しくすることで、パラメータBの値の変化に比例したHD画像の輝度変化を期待できる。
【0231】
また、図17の画像信号処理部110Bにおける処理も、例えば図11に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。その場合の画像信号処理は、基本的には、上述の図12に示すフローチャートに沿って行われる。
ただし、図17の画像信号処理部110は画像の輝度を調整し得るものであることから、ステップST5では、パラメータQの代わりに、ユーザがリモコン送信機200を操作して入力したパラメータBの値を例えばRAM303より読み込む。
【0232】
また、図17の画像信号処理部110Bでは注目位置における特徴量として注目位置における輝度を用いるものであることから、ステップST7、ステップST10における処理は以下のようになるが、その他のステップにおける処理は上述したと同様である。
【0233】
ステップST7では、ステップST2で入力された1フィールド分のSD画素データより、各SD画素の輝度を求め、さらに各SD画素の輝度CHを用いて、4つの輝度領域Ra〜Rdを決定する(図19参照)。
【0234】
また、ステップST10では、生成すべき各HD画素データ(注目位置の画素データ)に対応するSD画素の輝度CHが、上述の4つの輝度領域Ra〜Rdのいずれに含まれるかを検出する。
【0235】
また、図17の画像信号処理部110Bにおける情報メモリバンク132Bに記憶される、パラメータBの0,1,・・・,8の離散的な値に対応した各クラスの係数データwiは、図10に示す係数データ生成装置150と同様の構成の係数データ生成装置により生成できる。その場合、SD信号生成回路152にはパラメータQの代わりにパラメータBを入力し、このパラメータBの値によってSD信号の輝度を段階的に変化させればよい。
【0236】
なお、上述実施の形態においては、HD信号を生成する際の推定式として線形一次方程式を使用したものを挙げたが、これに限定されるものではなく、例えば推定式として高次方程式を使用するものであってもよい。
【0237】
また、上述実施の形態においては、SD信号(525i信号)をHD信号(1050i信号)に変換する例を示したが、この発明はそれに限定されるものでなく、推定式を使用して第1の画像信号を第2の画像信号に変換するその他の場合にも同様に適用できることは勿論である。
【0238】
また、上述実施の形態においては、情報信号が画像信号である場合を示したが、この発明はこれに限定されない。例えば、情報信号が音声信号である場合にも、この発明を同様に適用することができる。音声信号の場合、例えばパラメータの値により音量を調整するものにあって、特徴量検出手段で検出される特徴量を注目位置の音量とすることが考えられる。この場合、上述した図17の画像信号処理部110Bにおける輝度と同様の関係となり、不適切な音量となる度合い(破綻度合い)が高い音量領域に音量が含まれる箇所が、音量が大きくなりすぎて不適切な音量となることを防止できる。
【0239】
また、この発明は、パラメータの値で調整される出力の質および検出される特徴量の対は上述実施の形態に限定されない。要は、第2の情報信号による出力の質を示すパラメータの値の他に、検出された注目位置にける特徴量をも参照して、第2の情報信号における注目位置の情報データを生成し、これにより第2の情報信号による出力に不適切な質となる箇所が発生することを防止することにある。
【0240】
【発明の効果】
この発明によれば、解像度創造の手法を用いて第1の情報信号を、当該第1の情報信号より高解像度な第2の情報信号に変換する際に、第2の情報信号の注目位置における特徴量を検出し、第2の情報信号による出力の質を示すパラメータの他に、検出された特徴量をも参照して、第2の情報信号における注目位置の情報データを生成するものであり、第2の情報信号による出力に不適切な質となる箇所が発生することを防止することができる。
【図面の簡単な説明】
【図1】実施の形態としてのテレビ受信機の構成を示すブロック図である。
【図2】係数選択回路の構成を示すブロック図である。
【図3】特徴量を構成するダイナミックレンジDRの説明に供する図である。
【図4】特徴量を構成するアクティビティACTの説明に供する図である。
【図5】ダイナミックレンジとアクティビティの検出部分のモデルを示す図である。
【図6】1フィールドの全SD画素に対応する特徴量のヒストグラムモデルを示す図である。
【図7】画面内の各特徴量領域内の箇所と破綻度合いの一例を示す図である。
【図8】係数選択信号生成部が持つROM内の解像度選択情報を模式的に表した図である。
【図9】解像度を示すパラメータQの値の変化に対する、画面内の各箇所で使用される係数データの変化を説明するための図である。
【図10】係数データ生成装置の構成を示すブロック図である。
【図11】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図12】画像信号処理の手順を示すフローチャートである。
【図13】他の実施の形態としてのテレビ受信機の構成を示すブロック図である。
【図14】係数選択回路の構成を示すブロック図である。
【図15】1フィールドの全SD画素に対応する動き量のヒストグラムモデルを示す図である。
【図16】画面内の各動き量領域内の箇所と破綻度合いの一例を示す図である。
【図17】他の実施の形態としてのテレビ受信機の構成を示すブロック図である。
【図18】係数選択回路の構成を示すブロック図である。
【図19】1フィールドの全SD画素に対応する輝度のヒストグラムモデルを示す図である。
【図20】画面内の各輝度領域内の箇所と破綻度合いの一例を示す図である。
【図21】係数選択信号生成部が持つROM内の輝度選択情報を模式的に表した図である。
【図22】動きボケを説明するためのモデル図である。
【図23】大きな物体の動きボケを説明するためのモデル図である。
【図24】明るさ調整時の画像変化を説明するための図である。
【図25】525i信号と1050i信号の画素位置関係を説明するための図である。
【符号の説明】
100,100A,100B・・・テレビ受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ、109・・・バッファメモリ、110,110A,110B・・・画像信号処理部、111・・・ディスプレイ部、121・・・第1のタップ選択回路、122・・・第2のタップ選択回路、123・・・第3のタップ選択回路、124,124A・・・空間クラス検出回路、125・・・動きクラス検出回路、126・・・クラス合成回路、127・・・推定予測演算回路、128・・・後処理回路、131・・・係数メモリ、132・・・情報メモリバンク、133,133A,133B・・・係数選択回路、141・・・特徴量検出部、141A・・・動き量検出部、141B・・・輝度検出部、142・・・特徴量メモリ、142A・・・動き量メモリ、142B・・・輝度メモリ、143・・・特徴量領域決定部、143A・・・動き量領域決定部、143B・・・輝度領域決定部、144,144A,144B・・・領域検出部、145,145A,145B・・・係数選択信号生成部、150・・・係数データ生成装置、151・・・入力端子、152・・・SD信号生成回路、153・・・第1のタップ選択回路、154・・・第2のタップ選択回路、155・・・第3のタップ選択回路、157・・・空間クラス検出回路、158・・・動きクラス検出回路、159・・・クラス合成回路、160・・・正規方程式生成部、161・・・係数データ決定部、162・・・係数メモリ、200・・・リモコン送信機、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention can be applied, for example, when converting an NTSC video signal to a high-definition video signal, etc., and an information signal processing apparatus, an information signal processing method, and an image using the same processing apparatus And image processing method And information signal processing method Or image processing method And a computer-readable medium storing the program.
[0002]
Specifically, when converting the first information signal to the second information signal using the resolution creation method, the feature amount of the target position in the second information signal is detected, and the output of the second information signal is output. In addition to the parameter indicating the quality, the detected feature value is also referred to to generate the information data of the target position in the second information signal, so that the quality becomes inappropriate for the output by the second information signal. The present invention relates to an information signal processing device or the like that prevents the occurrence of a location.
[0003]
[Prior art]
Conventionally, for example, a format conversion for converting an SD (Standard Definition) signal called a 525i signal into an HD (High Definition) signal called a 1050i signal has been proposed. The 525i signal means an interlaced image signal having 525 lines, and the 1050i signal means an interlaced image signal having 1050 lines.
[0004]
FIG. 25 shows the pixel position relationship between the 525i signal and the 1050i signal. Here, a large dot is a pixel of a 525i signal, and a small dot is a pixel of a 1050i signal. In addition, pixel positions in odd fields are indicated by solid lines, and pixel positions in even fields are indicated by broken lines. When converting a 525i signal to a 1050i signal, it is necessary to obtain four pixels of the 1050i signal corresponding to one pixel of the 525i signal in each of the odd and even fields.
[0005]
Conventionally, in order to perform the format conversion as described above, the applicant first corresponds to the phase of each pixel of the 1050i signal with respect to the pixel of the 525i signal when obtaining the pixel data of the 1050i signal from the pixel data of the 525i signal. It has been proposed to use a resolution creation technique in which coefficient data of the estimated expression is stored in a memory, and pixel data of a 1050i signal is obtained by the estimated expression using the coefficient data.
[Patent Document 1]
JP 2001-238185 A
[0006]
[Problems to be solved by the invention]
As described above, when the pixel data of the 1050i signal is obtained by the estimation formula, the resolution of the image by the 1050i signal is fixed, and it is desired depending on the image content and the like as in the conventional adjustment of contrast and sharpness. The resolution could not be achieved.
Therefore, the present applicant has previously proposed an image signal conversion device or the like that allows the user to arbitrarily adjust the image resolution to a desired value ( Patent Document 1 reference).
[0007]
However, in this case, the coefficient data corresponding to the adjusted resolution is used uniformly over the entire screen, and there are a portion having an appropriate resolution and a portion having an inappropriate resolution.
For example, there are cases where the resolution is appropriate and where the resolution is not appropriate at a location where the amount of high-frequency components is small and a location where the amount of high-frequency components is large.
[0008]
Further, for example, there are cases where the resolution is appropriate and where the resolution is not appropriate at a place where there is movement and a place where there is no movement. In the following, motion blur that occurs in places where there is motion will be described.
FIG. 22 shows a motion blur model. In FIG. 22, v indicates the vertical direction, and h indicates the horizontal direction.
[0009]
In the case of no movement shown in FIG. 22A, the object (black square) is clearly visible, and when the pixel values are graphed, the edges are steep (the black color in the figure indicates that some luminance value exists there). Represents).
The case where the object starts moving at a certain speed is the case where the movement is small as shown in FIG. 22B. Blurring due to movement occurs because the object is moving. When the pixel values are viewed in a graph, the edges become gentle as shown in the figure, and the image is also blurred in the movement direction. This blur depends on the amount of motion, that is, the speed of the object.
[0010]
Next, consider the case where the object moves faster. This is the case of the large movement shown in FIG. 22C (left side). As the speed of the object increases, the object becomes increasingly blurred, and when the pixel values are viewed in a graph, the edges become smoother as shown in the figure. This is caused by a change in the charge or film accumulated for a certain period of time divided by the shutter and device characteristics as a pixel value, and is a distortion caused by the amount of movement.
[0011]
Here, it is considered that resolution creation is performed on an animal that has such motion blur. In the resolution creation, a process of increasing the pixel density and restoring the limited band is performed.
As a result, a graph stands as shown in FIG. 22C (right side). Of course, that is sufficient for the stationary part. However, in the moving part, the amount of motion blur that occurs naturally due to the movement is changed as a result, and an unnatural image is created.
[0012]
Also, consider a case where a very large object is moving as shown in FIG. 23A. In this case, when the resolution creation is performed, a gradation that does not appear in the stationary portion is generated. That is, when the tap range of the prediction tap is not sufficient, resolution creation processing is performed at the location, and the waveform may be changed to a waveform as shown in FIG. 23B.
[0013]
In addition, in the resolution creation, it is also conceivable to arbitrarily adjust the luminance of the image in the same manner as described above for arbitrarily adjusting the resolution of the image. In this case, coefficient data corresponding to the adjusted brightness is used uniformly over the entire screen, and there are places where the brightness is appropriate and places where the brightness is inappropriate.
[0014]
For example, consider an image as shown in FIG. In this image, the dog on the left has a dark body color and is in the shadow of the house, making it difficult to see. In such a case, when the brightness is adjusted to be high, as shown in FIG. 24B, the entire image becomes brighter on one side, so that the brightness is increased not only around the dark-colored dog but also on the ground or roof. Even if it is not necessary, a sufficiently visible area is brightened, and the entire image becomes whitish and unnatural.
[0015]
It should be noted that the same thing as the adjustment of the brightness of the image also occurs when the volume is adjusted in the creation of the resolution of the audio signal. That is, when coefficient data corresponding to the adjusted sound volume is used uniformly throughout the entire section, there are a section having an appropriate volume and a section having an inappropriate volume. In other words, if the volume is adjusted to be high, the volume will increase in all sections, so the volume will increase not only in sections where the volume is low, but also in sections where there is sufficient volume without increasing the volume. The high part is difficult to hear.
[0016]
Accordingly, an object of the present invention is to provide an information signal processing device and the like that can prevent occurrence of a location having an inappropriate quality for output by an information signal obtained by a resolution creation technique.
[0017]
[Means for Solving the Problems]
The information signal processing apparatus according to the present invention provides a first information signal comprising a plurality of information data, Concerned First information signal More information An information signal processing device for converting to a second information signal, wherein a first information data is selected from a plurality of first information data located around a target position in the second information signal from the first information signal. A plurality of first information data selected by the data selection means and the first data selection means; Perform a predetermined operation on Calculated A feature value , Indicates at least one of the value obtained from the activity and dynamic range of the predetermined pixel value, brightness, amount of movement, and volume The feature amount detecting means for detecting the feature amount at the position of interest and the magnitude of the output by the second information signal are shown. Corresponding to the above features Parameter input means for inputting parameter values from the outside, the feature quantity detected by the feature quantity detection means, and the attention value in the second information signal corresponding to the parameter value inputted to the parameter input means Information data generation means for generating position information data, wherein the information data generation means is calculated in advance for each of a plurality of representative sizes corresponding to the parameter values input to the parameter input means, Coefficient data candidate generating means for generating coefficient data candidates that are candidates for coefficient data of an estimation formula for estimating the second information signal by substituting the first information signal and performing a product-sum operation; Based on the feature quantity detected by the quantity detection means and the parameter value input to the parameter input means, one of the plurality of representative sizes is large. A size specifying means for specifying the size, and a coefficient data selecting means for selecting coefficient data corresponding to the size specified by the size specifying means from the coefficient data candidates generated by the coefficient data candidate generating means And a second data selection means for selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal, and a selection by the second data selection means Computing means for calculating the information data of the position of interest based on the estimation formula using the plurality of first information data and the coefficient data selected by the coefficient data selection means, The size specifying unit detects a feature amount region including the feature amount detected by the feature amount detection unit from among a plurality of feature amount regions determined based on the feature amount detected over the entire screen. Output means; storage means for storing size selection information in the plurality of feature amount regions corresponding to each value of the parameter; parameter values input from the storage means to the parameter input means; and the detection means And a specifying means for taking out the size selection information corresponding to the feature amount area detected in step (b) and specifying the one size based on the size selection information.
[0019]
Moreover, the information signal processing method according to the present invention provides a first information signal comprising a plurality of information data, Concerned First information signal More information An information signal processing method for converting to a second information signal, the first information signal selecting a plurality of first information data located around a position of interest in the second information signal from the first information signal Step and a plurality of values of the first information data selected in the first step Perform a predetermined operation on Calculated A feature value , Indicates at least one of the value obtained from the activity and dynamic range of the predetermined pixel value, brightness, amount of movement, and volume A second step of detecting a feature amount at the position of interest and a magnitude of output by the second information signal; Corresponding to the above features A third step of acquiring a parameter value from the outside, a feature amount detected in the second step, and a parameter value acquired in the third step, in the second information signal A fourth step of generating information data of the target position, and the fourth step is calculated in advance for each of a plurality of representative sizes corresponding to the parameter values acquired in the third step. Generating a coefficient data candidate that is a candidate of coefficient data of an estimation formula for estimating the second information signal by substituting the first information signal and performing a product-sum operation; and A sixth step of identifying one of the plurality of representative sizes based on the feature value detected in the second step and the parameter value acquired in the third step; First A seventh step of selecting coefficient data corresponding to the size specified in the sixth step from among the coefficient data candidates generated in the step of the second step, and the second information from the first information signal. An eighth step of selecting a plurality of first information data located around a target position in the signal; a plurality of first information data selected in the eighth step; and the seventh step. And the ninth step of calculating the information data of the target position based on the estimation formula using the coefficient data, and the sixth step includes the feature amount detected over the entire screen. A tenth step of detecting a feature amount region including the feature amount detected in the second step among a plurality of feature amount regions determined based on the above, and corresponding to each value of the parameter, Multiple The eleventh step of storing size selection information in the feature amount region, the value of the parameter acquired in the third step, and the size selection information corresponding to the feature amount region detected in the tenth step are extracted, And a twelfth step of specifying the one size based on the size selection information.
[0020]
The image processing apparatus according to the present invention converts the input first image signal composed of a plurality of pixel data into a second image signal having a higher resolution than the first image signal composed of a plurality of pixel data. Output image signal processing apparatus, the resolution of the image by the second image signal Or brightness Parameter input means for inputting a parameter value indicative of the first, and a plurality of first pixel data located around the position of interest in the second image signal from the first image signal A plurality of first pixel data values selected by the data selection means and the first data selection means; Perform the prescribed calculation Calculated A feature value , Indicates at least one of the value obtained from the activity and dynamic range of the predetermined pixel value, brightness, and amount of motion Feature quantity detection means for detecting a feature quantity at the target position, feature quantity detected by the feature quantity detection means, and input to the parameter input means Given above Corresponding to the parameter value, pixel data generating means for generating pixel data at the position of interest in the second image signal, and the pixel data generating means sets the parameter value input to the parameter input means to It is calculated in advance for each of a plurality of corresponding representative resolutions and is a candidate for coefficient data of an estimation formula for estimating the second image signal by substituting the first image signal and performing a product-sum operation. One of the plurality of representative resolutions based on the coefficient data candidate generating means for generating coefficient data candidates, the feature amount detected by the feature amount detecting means, and the parameter value input to the parameter input means. From the resolution specifying means for specifying one resolution and the coefficient data candidates generated by the coefficient data candidate generating means, the resolution specified by the resolution specifying means is selected. Coefficient data selecting means for selecting corresponding coefficient data, and second data selecting means for selecting a plurality of first pixel data located around the position of interest in the second image signal from the first image signal And using the plurality of first pixel data selected by the second data selection unit and the coefficient data selected by the coefficient data selection unit, the pixel data of the target position is calculated based on the estimation formula. A calculation means for calculating, and the resolution specifying means is a feature detected by the feature quantity detection means among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen. Detecting means for detecting a feature quantity region including the quantity; storage means for storing resolution selection information in the plurality of feature quantity areas corresponding to each value of the parameter; and And specifying means for extracting resolution selection information corresponding to the value of the parameter input to the data input means and the feature amount area detected by the detection means, and specifying the one resolution based on the resolution selection information Is.
The image processing method according to the present invention converts a first image signal composed of a plurality of input pixel data into a second image signal having a higher resolution than the first image signal composed of a plurality of pixel data. In the image signal processing method to be output, the resolution of the image by the second image signal Or brightness And a second step of selecting a plurality of first pixel data located around the position of interest in the second image signal from the first image signal. And a plurality of first pixel data values selected in the second step Perform a predetermined operation on Calculated A feature value , Indicates at least one of the value obtained from the activity and dynamic range of the predetermined pixel value, brightness, and amount of motion A third step of detecting a feature amount at the target position, a feature amount detected in the third step, and the first step Given above A fourth step of generating pixel data of the target position in the second image signal corresponding to the parameter value, and the fourth step includes the parameter value acquired in the first step. Is calculated in advance for each of a plurality of representative resolutions corresponding to, and is a coefficient data candidate of an estimation formula for estimating the second image signal by substituting the first image signal and performing a product-sum operation. Based on the fifth step of generating a certain coefficient data candidate, the feature amount detected in the third step, and the parameter value acquired in the first step, one of the plurality of representative resolutions is selected. A sixth step of specifying one resolution and a seventh step of selecting coefficient data corresponding to the resolution specified in the sixth step from the coefficient data candidates generated in the fifth step. Selected in the eighth step and the eighth step of selecting a plurality of first pixel data located around the target position in the second image signal from the first image signal. Using a plurality of first pixel data and the coefficient data selected in the seventh step, calculating a pixel data of the target position based on the estimation formula, Step 6 detects a feature quantity region including a feature quantity detected by the feature quantity detection means from among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen. A tenth step, an eleventh step for storing resolution selection information in the plurality of feature amount regions corresponding to each value of the parameter, a parameter value obtained in the first step, and the tenth step The resolution selection information corresponding to the detected feature quantity region in step extraction and has a twelfth step of identifying said one resolution based on the resolution selection information.
[0021]
The program according to the present invention is the above-described information signal processing method. Or image processing method Is to make the computer execute. A computer-readable medium according to the present invention records the above-described program.
[0022]
In the present invention, a plurality of first information data located around a target position in the second information signal is extracted based on the first information signal, and the target information is extracted based on the plurality of first information data. A feature value at the position is detected.
[0023]
For example, the information signal is an image signal, and the feature amount is a feature amount related to a high-frequency component amount around the position of interest. This feature amount is obtained, for example, using the sum of absolute values of adjacent pixels in the plurality of first information data (pixel data) and the dynamic range in the plurality of first information data. Further, for example, the information signal is an image signal, and the feature amount is a motion amount or luminance at the position of interest. Further, for example, the information signal is an audio signal, and the feature amount is a volume at the position of interest.
[0024]
The parameter input means receives a parameter value indicating the output quality of the second information signal. For example, as described above, when the feature amount is a feature amount related to the high-frequency component amount around the target position, the value of the parameter indicates the resolution of the image by the second information signal. For example, as described above, when the feature amount is a motion amount at the position of interest, the value of the parameter indicates the resolution of the image based on the second information signal. For example, as described above, when the feature value is the luminance at the target position, the value of the parameter indicates the luminance of the image based on the second information signal. For example, as described above, when the feature amount is the sound volume at the position of interest, the value of the parameter indicates the sound volume of the second information signal.
[0025]
Then, information data of a target position in the second information signal is generated corresponding to the above-described feature amount and parameter value. For example, information data is generated as follows.
[0026]
That is, coefficient data candidates that are candidates for coefficient data of the estimation formula are generated for a plurality of representative qualities corresponding to the parameters (the qualities are resolution, luminance, volume, etc.). For example, when the value of the parameter is between the discrete first value and the second value, the coefficients of the two estimation formulas for obtaining the quality corresponding to the first value and the second value Data is generated as candidate coefficient data.
[0027]
Then, one quality among a plurality of representative qualities is specified based on the feature value and the parameter value. For example, quality selection information in a plurality of feature amount regions corresponding to respective values of the parameters is stored in the storage means, and the quality is specified using this. For example, when the quality corresponding to the second value described above is higher than the quality corresponding to the first value, the smaller the feature amount, the higher the probability of being identified as the second quality even if the parameter value is small. .
[0028]
Then, coefficient data corresponding to the specified quality is selected from the coefficient data candidates. Based on the estimation formula using the coefficient data selected in this way and a plurality of second information data located around the position of interest in the second information signal selected based on the first information signal Thus, the information data of the position of interest in the second information signal is calculated.
[0029]
As described above, when the second information signal is obtained from the first information signal by the resolution creation method, a plurality of coefficient data candidates corresponding to the parameter value are obtained based on the feature amount related to the target position in the second information signal. Thus, one coefficient data is selected and used, and it is possible to prevent occurrence of a portion having an inappropriate quality for output by the second information signal.
[0030]
For example, when the feature amount is a feature amount related to the high-frequency component amount around the position of interest, the feature amount increases in the high-frequency region surrounded by the contour of the image and the low-frequency region of the image. When doing so, it is possible to prevent an inappropriate resolution in the area. Also, for example, when the feature amount is the amount of motion at the position of interest, the amount of motion increases at the moving portion of the image, but it is possible to prevent an inappropriate resolution at the moving portion when adjusting the resolution. Further, for example, when the feature amount is the luminance at the target position, the feature amount increases in the high luminance region, but it is possible to prevent the luminance from being excessively high in the high luminance region when adjusting the luminance. Further, for example, when the feature amount is the volume at the position of interest, the feature amount increases in a region with a high volume, but when adjusting the volume, it is possible to prevent the volume from becoming too high in the region with a high volume.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a television receiver 100 as an embodiment. The television receiver 100 obtains an SD signal called a 525i signal from a broadcast signal, converts the 525i signal into an HD signal called a 1050i signal, and displays an image based on the 1050i signal.
[0032]
The television receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 that receives a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0033]
Further, the television receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulation signal) captured by the receiving antenna 105, and performs a channel selection process, an intermediate frequency amplification process, a detection process, and the like to generate an SD signal ( The tuner 106 for obtaining the 525i signal) and the buffer memory 109 for temporarily storing the SD signal output from the tuner 106 are provided.
[0034]
Further, the television receiver 100 converts the SD signal (525i signal) temporarily stored in the buffer memory 109 into an HD signal (1050i signal), and an output from the image signal processing unit 110. A display unit 111 for displaying an image based on the HD signal, an OSD (On Screen Display) circuit 112 for generating a display signal SCH for displaying characters, figures, etc. on the screen of the display unit 111; It has a synthesizer 113 for synthesizing the display signal SCH with the HD signal output from the image signal processing unit 110 and supplying it to the display unit 111. The display unit 111 is configured by a flat panel display such as a CRT (cathode-ray tube) display or an LCD (liquid crystal display).
[0035]
The operation of the television receiver 100 shown in FIG. 1 will be described.
The SD signal (525i signal) output from the tuner 106 is supplied to the buffer memory 109 and temporarily stored. The SD signal temporarily stored in the buffer memory 109 is supplied to the image signal processing unit 110 and converted into an HD signal (1050i signal). That is, the image signal processing unit 110 generates pixel data (hereinafter referred to as “HD pixel data”) that constitutes an HD signal from pixel data (hereinafter referred to as “SD pixel data”) that constitutes an SD signal. The HD signal output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the HD signal is displayed on the screen of the display unit 111.
[0036]
In addition, the user can adjust the resolution of the image displayed on the screen of the display unit 111 by operating the remote control transmitter 200. For example, in the resolution selection mode, the value of the parameter Q indicating the resolution supplied from the system controller 101 to the image signal processing unit 110 by pressing the up key and the down key or rotating the knob such as a jog dial. Can be changed.
[0037]
As will be described later, in the image signal processing unit 110, the HD pixel data is calculated by an estimation formula. As the coefficient data of the estimation formula, data corresponding to the value of the parameter Q described above is used. Thereby, the resolution of the image by the HD signal output from the image signal processing unit 110 corresponds to the value of the parameter Q.
[0038]
In the state where the value of the parameter Q is changed by the user's operation of the remote control transmitter 200, the value of the parameter Q is displayed on the screen of the display unit 111. Although not shown here, this display is performed using numerical values or bar graphs. The user can change the value of the parameter Q with reference to this display.
[0039]
Thus, when displaying the value of the parameter Q on the screen, the system controller 101 supplies display data to the OSD circuit 112. The OSD circuit 112 generates a display signal SCH based on the display data, and supplies the display signal SCH to the display unit 111 via the synthesizer 113.
[0040]
Next, details of the image signal processing unit 110 will be described. The image signal processing unit 110 selectively extracts data of a plurality of SD pixels located around the target position in the HD signal (1050i signal) from the SD signal (525i signal) stored in the buffer memory 109. The first to third tap selection circuits 121 to 123 for outputting are provided.
[0041]
The first tap selection circuit 121 selectively extracts data of SD pixels (referred to as “prediction taps”) used for prediction. The second tap selection circuit 122 selectively extracts data of SD pixels (referred to as “space class taps”) used for class classification corresponding to the level distribution pattern of the SD pixel data. The third tap selection circuit 123 selectively extracts data of SD pixels (referred to as “motion class taps”) used for class classification corresponding to motion. When the space class is determined using SD pixel data belonging to a plurality of fields, motion information is also included in this space class.
[0042]
Further, the image signal processing unit 110 detects the level distribution pattern of the space class tap data (SD pixel data) selectively extracted by the second tap selection circuit 122, and determines the space class based on the level distribution pattern. It has a spatial class detection circuit 124 that detects and outputs the class information.
[0043]
In the space class detection circuit 124, for example, an operation is performed to compress each SD pixel data from 8-bit data to 2-bit data. The space class detection circuit 124 outputs compressed data corresponding to each SD pixel data as class information of the space class. In the present embodiment, data compression is performed by ADRC (Adaptive Dynamic Range Coding). As the information compression means, DPCM (predictive coding), VQ (vector quantization), or the like may be used in addition to ADRC.
[0044]
Originally, ADRC is an adaptive requantization method developed for high-performance coding for VTR (Video Tape Recorder), but it can efficiently express a local pattern of signal level with a short word length. It is suitable for use in data compression. When ADRC is used, the maximum value of space class tap data (SD pixel data) is MAX, the minimum value is MIN, the dynamic range of space class tap data is DR (= MAX−MIN + 1), and the number of requantization bits Is P, the re-quantized code qi as the compressed data is obtained as the class information of the space class for each SD pixel data ki as the space class tap data by the calculation of the equation (1). However, in the expression (1), [] means a truncation process. When there are Na SD pixel data as the space class tap data, i = 1 to Na.
qi = [(ki-MIN + 0.5). 2 P / DR] (1)
[0045]
The image signal processing unit 110 detects a motion class mainly representing the degree of motion from the motion class tap data (SD pixel data) selectively extracted by the third tap selection circuit 123, and A motion class detection circuit 125 that outputs class information is provided.
[0046]
In the motion class detection circuit 125, the inter-frame difference is calculated from the motion class tap data (SD pixel data) mi, ni selectively extracted by the third tap selection circuit 123, and the average of absolute values of the differences is calculated. Threshold processing is performed on the value to detect a motion class that is an index of motion. That is, in the motion class detection circuit 125, the average value AV of the absolute value of the difference is calculated by the equation (2). When the third tap selection circuit 123 extracts, for example, six SD pixel data m1 to m6 and six SD pixel data n1 to n6 one frame before as class tap data, equation (2) Nb in is 6.
[0047]
[Expression 1]
Figure 0004051934
[0048]
Then, in the motion class detection circuit 125, the average value AV calculated as described above is compared with one or a plurality of threshold values to obtain class information MV of the motion class. For example, when three threshold values th1, th2, th3 (th1 <th2 <th3) are prepared and four motion classes are detected, MV = 0 when AV ≦ th1, and th1 <AV ≦ th2. MV = 1, MV = 2 when th2 <AV ≦ th3, and MV = 3 when th3 <AV.
[0049]
Also, the image signal processing unit 110 is based on the requantization code qi as the class information of the space class output from the space class detection circuit 124 and the class information MV of the motion class output from the motion class detection circuit 125. A class synthesis circuit 126 is provided for obtaining a class code CL indicating a class to which pixel data (pixel data of the target position) of the HD signal (1050i signal) to be created belongs.
[0050]
In the class synthesis circuit 126, the calculation of the class code CL is performed by the equation (3). In equation (3), Na represents the number of space class tap data (SD pixel data), and P represents the number of requantization bits in ADRC.
[0051]
[Expression 2]
Figure 0004051934
[0052]
The image signal processing unit 110 has a coefficient memory 131. The coefficient memory 131 stores coefficient data of an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data is information used when an SD signal (525i signal) is converted into an HD signal (1050i signal). The coefficient memory 131 is supplied with a class code CL output from the class synthesis circuit 126 and a coefficient selection signal SEL output from a coefficient selection circuit 133 described later as read address information. Coefficient data wi corresponding to the class code CL and the coefficient selection signal SEL is read from the coefficient memory 131 and supplied to the estimated prediction calculation circuit 127.
[0053]
The image signal processing unit 110 includes an information memory bank 132. In the present embodiment, the parameter Q can be changed between 0 and 8. In the information memory bank 132, coefficient data of each class at nine resolutions corresponding to the discrete values 0, 1,..., 8 of the parameter Q are stored in advance. Here, it is assumed that the resolution increases as the value of the parameter Q increases. A method of generating coefficient data corresponding to these nine resolutions will be described later.
[0054]
As described above, when the 525i signal is converted into the 1050i signal, it is necessary to obtain four pixels of the 1050i signal corresponding to one pixel of the 525i signal in each of the odd and even fields. Therefore, a certain class of coefficient data at a certain resolution is composed of coefficient data corresponding to four pixels in a 2 × 2 unit pixel block constituting a 1050i signal in each of odd and even fields. The four pixels in the 2 × 2 unit pixel block have different phase relationships corresponding to the pixels of the 525i signal.
[0055]
As described above, the user supplies the image signal processing unit 110 from the system controller 101 by pressing the up key and the down key or rotating a knob such as a jog dial in the operation unit of the remote control transmitter 200. The value of the parameter Q to be changed can be changed. The parameter Q is supplied to the information memory bank 132, and two discrete values m, m + 1 (m = 0, 1,...) Located in the vicinity of the value of the parameter Q are supplied from the information memory bank 132 to the coefficient memory 131. .., 7) corresponding to each class of coefficient data is loaded.
[0056]
That is, when 0 ≦ Q ≦ 1, the coefficient data of each class corresponding to Q = 0,1 is equal to the coefficient data of each class corresponding to Q = 1,2 when 1 <Q ≦ 2. When 2 <Q ≦ 3, the coefficient data of each class corresponding to Q = 2 and 3 is 3 <Q ≦ 4, and when 3 <Q ≦ 4, the coefficient data of each class corresponding to Q = 3 and 4 is 4 < When Q ≦ 5, the coefficient data of each class corresponding to Q = 4, 5 is 5 <Q ≦ 6. When 5 <Q ≦ 6, the coefficient data of each class corresponding to Q = 5, 6 is 6 <Q ≦ When 7 is satisfied, coefficient data of each class corresponding to Q = 6, 7 is obtained from the information memory bank 132, and when 7 <Q ≦ 8, coefficient data of each class corresponding to Q = 7, 8 is obtained from the information memory bank 132. It is loaded into the memory 131.
[0057]
In addition, the image signal processing unit 110 includes a coefficient selection circuit 133 that generates a coefficient selection signal SEL. The coefficient selection signal SEL is supplied to the coefficient memory 131 as read address information as described above, and is loaded into two discrete values of the parameter Q loaded from the information memory bank 132 and stored in the coefficient memory 131. This is used to select one coefficient data among the corresponding coefficient data.
[0058]
FIG. 2 shows the configuration of the coefficient selection circuit 133. The coefficient selection circuit 133 includes a feature amount detection unit 141, a feature amount memory 142, a feature amount region determination unit 143, a region detection unit 144, and a coefficient selection signal generation unit 145.
[0059]
The feature amount detection unit 141 detects the feature amount CH for each SD pixel constituting the SD signal (525i signal) of each field temporarily stored in the buffer memory 109. In the present embodiment, the feature amount CH corresponding to a certain SD pixel (target pixel) is a value obtained by taking the square root of the product of the dynamic range DR and the activity ACT in a block of a predetermined size centered on the SD pixel ( √ (DR × ACT) The block size is, for example, 5 × 5.
[0060]
As shown in FIG. 3, the dynamic range DR is data of 25 SD pixels included in a 5 × 5 block centered on the pixel of interest. i-2, j + 2 ~ X i + 2, j-2 In this case, when the maximum value is MAX and the minimum value is MIN, it is defined by equation (4). In FIG. 3, the coordinates of the pixel of interest are (i, j).
DR = MAX-MIN (4)
[0061]
In the activity ACT, as shown in FIG. 4, the coordinate of the pixel of interest is (i, j), and the data of 25 SD pixels included in a 5 × 5 block centered on the pixel of interest is x i-2, j + 2 ~ X i + 2, j-2 Is defined by equation (5). Where i 1 = I-2, ..., i + 1, i 2 = I-2, ..., i + 2, j 1 = J-2,..., J + 2, j 2 = J-2, ..., j + 1.
[0062]
[Equation 3]
Figure 0004051934
[0063]
FIG. 5 shows a model of the detection part by the dynamic range DR and activity ACT. When the dynamic range DR is used, the outline of the image is detected as indicated by the bold line at the upper right in FIG. On the other hand, when the activity ACT is used, a high frequency region surrounded by a low frequency region of an image is detected as indicated by a thick line at the lower right in FIG. Since the feature amount CH is defined by √ (DR × ACT) as described above, when this feature amount CH is used, both the contour of the image and the high frequency region surrounded by the low frequency region of the image are detected. It will be.
[0064]
As described above, when a 525i signal is converted into a 1050i signal, in the odd and even fields, corresponding to one pixel of the 525i signal, four pixels of the 1050i signal are obtained by an estimation formula using the target pixel. is there. Therefore, the feature amount detection unit 141 detects the feature amount CH corresponding to each pixel constituting the SD signal (525i signal) means that each of the four pixels (target pixel) constituting the HD signal (1050i signal). That is, the feature amount CH related to the high-frequency component amount in the vicinity of is detected.
[0065]
The feature amount detection unit 141 performs a feature amount CH detection process on an SD signal in a field stored in the buffer memory 109, for example, in a vertical blanking period. The feature amount memory 142 stores a feature amount CH corresponding to each SD pixel for one field detected in a certain vertical blanking period in the feature amount detection unit 141.
[0066]
In addition, the feature amount region determining unit 143 uses the feature amount CH stored in the feature amount memory 142 and corresponding to all SD pixels of a certain field, and ranges the range from the minimum value to the maximum value of the feature amount CH into four regions. The four feature amount regions are determined by dividing the image into four. The feature amount region determination unit 143 performs the feature amount region determination process in the vertical blanking period. In this case, the four feature amount regions are determined so that the number of feature amounts included in each feature amount region among the feature amounts CH corresponding to all SD pixels is substantially equal.
[0067]
FIG. 6 shows a histogram model of the feature amount CH corresponding to all SD pixels. CHmin indicates the minimum value of the feature amount CH, and CHmax indicates the maximum value of the feature amount CH. Ra, Rb, Rc, and Rd are four feature amount regions, and Na, Nb, Nc, and Nd indicate the number included in each feature amount region among the feature amounts CH corresponding to all SD pixels. In this case, the feature amount regions Ra, Rb, Rc, and Rd are determined so that the numbers Na, Nb, Nc, and Nd are substantially equal.
[0068]
Here, the significance of the feature amount regions Ra, Rb, Rc, and Rd will be considered. In the order of Ra, Rb, Rc, and Rd, the feature amount CH is large and the amount of high-frequency components is large, so that HD pixel data is generated from SD pixel data using coefficient data for obtaining the same resolution on the entire screen. The portion where the feature amount CH in the feature amount region on the Rd side is detected tends to have an inappropriate resolution. In FIG. 7, a, b, c, and d indicate locations on the screen where the feature amounts CH in the feature amount areas of Ra, Rb, Rc, and Rd are detected, respectively. If the degree of inappropriate resolution (failure degree) at each of these locations is pa, pb, pc, pd, the relationship is pa <pb <pc <pd.
[0069]
The region detection unit 144 sequentially extracts the feature amount CH corresponding to each SD pixel detected in the vertical blanking period in the feature amount detection unit 141 and stored in the feature amount memory 142 in the subsequent vertical effective scanning period. A feature amount CH corresponding to an SD pixel is detected as to which of the feature amount regions Ra, Rb, Rc, and Rd determined by the above-described feature amount region determining unit 143, and detection information DET is output. It is.
[0070]
The coefficient selection signal generation unit 145 generates a coefficient selection signal SEL from the detection information DET from the area detection unit 144 and the value of the parameter Q supplied from the system controller 101.
The coefficient selection signal generation unit 145 includes a ROM (read only memory) 146 serving as a storage unit that stores the resolution selection information RES corresponding to each value of the parameter Q in the above-described feature amount regions Ra, Rb, Rc, and Rd. have.
[0071]
FIG. 8 schematically shows the resolution selection information RES stored in the ROM 146.
In this figure, in the range (first range) in which “a” is described, RES = 1 when the feature amount CH is included in the feature amount region Ra, and the feature amount CH is the feature amount region Rb, Rc, Rd. Means that RES = 0, and in the range in which “a, b” is described (second range), RES = 1 when the feature amount CH is included in the feature amount regions Ra, Rb. Yes, this means that RES = 0 when the feature amount CH is included in the feature amount regions Rc and Rd, and in the range where “a, b, c” is described (third range), the feature amount CH is RES = 1 when included in the feature amount region Ra, Rb, Rc, and RES = 0 when the feature amount CH is included in the feature amount region Rd, and “a, b, c, d” In the described range (fourth range), the feature amount CH is the feature amount region Ra, Rb, Rc. Even when included in any of Rd means that a RES = 1.
[0072]
In this figure, i <Q ≦ (i + 0.25) corresponds to the first range, (i + 0.25) <Q ≦ (i + 0.5) corresponds to the second range, and (i + 0.5). ) <Q ≦ (i + 0.75) corresponds to the third range, and (i + 0.75) <Q ≦ (i + 1) corresponds to the fourth range. Here, i = 0, 1,... When Q = 0, RES = 0 even when the feature amount CH is included in any of the feature amount regions Ra, Rb, Rc, Rd.
[0073]
The coefficient selection signal generation unit 145 retrieves the detection information DET from the region detection unit 144 and the resolution selection information RES corresponding to the value of the parameter Q supplied from the system controller 101 from the ROM 146, and selects the resolution selection information RES as a coefficient. Output as signal SEL. For example, when the value of the parameter Q is 0.4 and the detection information DET indicates that the feature amount CH is included in the feature amount region Ra, SEL = 1 is extracted from the ROM 146 and is used as the coefficient selection signal SEL. 1 is output.
[0074]
The coefficient selection signal SEL output from the coefficient selection signal generation unit 145 also serves as the output of the coefficient selection circuit 133. As described above, the coefficient selection signal SEL output from the coefficient selection circuit 133 is supplied to the coefficient memory 131 as read address information as described above. The coefficient memory 131 (see FIG. 1) corresponds to two discrete values m, m + 1 (m = 0, 1,..., 7) located near the value of the parameter Q from the information memory bank 132 as described above. The coefficient data corresponding to the discrete value m is read when SEL = 0, and the coefficient data corresponding to the discrete value m + 1 is read when SEL = 1.
[0075]
Returning to FIG. 1, the image signal processing unit 110 also includes prediction tap data (SD pixel data) xi selectively extracted by the first tap selection circuit 121 and coefficient data wi read from the coefficient memory 131. Therefore, an estimated prediction calculation circuit 127 that calculates pixel data (pixel data of the target position) y of the HD signal to be generated is included.
[0076]
As described above, when the SD signal (525i signal) is converted to the HD signal (1050i signal), it is necessary to obtain four pixels of the HD signal for one pixel of the SD signal. In the circuit 127, HD pixel data is generated for each 2 × 2 unit pixel block constituting the HD signal.
[0077]
That is, the estimated prediction calculation circuit 127 includes the prediction tap data xi corresponding to the data of the four pixels in the unit pixel block (pixel data at the target position) from the first tap selection circuit 121, and the coefficient memory 131. The coefficient data wi corresponding to the four pixels constituting the unit pixel block is supplied, and the data y of the four pixels constituting the unit pixel block 1 ~ Y Four Are individually calculated by the estimation equation (6).
[0078]
[Expression 4]
Figure 0004051934
[0079]
In addition, the image signal processing unit 110 outputs the data y of four pixels constituting the unit pixel block that is sequentially output from the estimated prediction calculation circuit 127. 1 ~ Y Four Are processed in a line sequential manner and output in a 1050i signal format.
[0080]
Next, the operation of the image signal processing unit 110 will be described.
From the SD signal (525i signal) stored in the buffer memory 109, the second tap selection circuit 122 uses the four pixels in the unit pixel block constituting the HD signal (1050i signal) to be created (the pixel at the target position). The data of space class taps (SD pixel data) located in the vicinity of is selectively extracted. The space class tap data is supplied to the space class detection circuit 124. In this space class detection circuit 124, each of the SD pixel data as space class tap data is subjected to ADRC processing and re-used as class information of the space class (mainly class classification for waveform expression in space). A quantization code qi is obtained (see equation (1)).
[0081]
In addition, from the SD signal (525i signal) stored in the buffer memory 109, the third tap selection circuit 123 uses the four pixels in the unit pixel block constituting the HD signal (1050i signal) to be created (at the target position). The motion class tap data (SD pixel data) located around the (pixel) is selectively extracted. The motion class tap data is supplied to the motion class detection circuit 125. In this motion class detection circuit 125, class information MV of a motion class (mainly class classification for representing the degree of motion) is obtained from each SD pixel data as motion class tap data.
[0082]
The class information MV and the above-described requantization code qi are supplied to the class synthesis circuit 126. In this class synthesis circuit 126, for each unit pixel block constituting the HD signal (1050i signal) to be created from the class information MV and the requantization code qi, data of four pixels in the unit pixel block (attention) A class code CL indicating the class to which the pixel data at the position belongs is obtained (see equation (3)). The class code CL is supplied to the coefficient memory 131 as read address information.
[0083]
Further, from the SD signal (525i signal) stored in the buffer memory 109, the coefficient selection circuit 133 uses four pixels (in the unit pixel block) for each unit pixel block constituting the HD signal (1050i signal) to be created. A coefficient selection signal SEL corresponding to the pixel at the target position is generated.
[0084]
That is, as shown in FIG. 2, the SD signal (525i signal) stored in the buffer memory 109 is supplied to the feature amount detection unit 141 of the coefficient selection circuit 133, and the feature amount detection unit 141 converts the SD signal of each field. A feature amount CH = √ (DR × ACT) is detected for each SD pixel constituting the same. The feature quantity CH corresponding to the SD signal for one field detected in the vertical blanking period by the feature quantity detection unit 141 is stored in the feature quantity memory 142.
[0085]
Further, the feature amount region determination unit 143 uses the feature amount CH corresponding to the SD signal for one field stored in the feature amount memory 142 in a certain vertical blanking period, and the feature amount CH corresponding to all SD pixels. A range from the minimum value CHmin to the maximum value CHmax is divided into four regions, and four feature amount regions Ra, Rb, Rc, and Rd are determined (see FIG. 6). In this case, the ranges of the four feature amount regions Ra, Rb, Rc, and Rd are determined so that the number included in each feature amount region among the feature amounts CH corresponding to all SD pixels is substantially equal.
[0086]
Then, the SD signal for one field stored in the feature amount memory 142 in a certain vertical blanking period is sequentially extracted in the subsequent vertical effective scanning period and supplied to the region detection unit 144, and the feature amount corresponding to each SD pixel. It is detected which of the above-described feature amount areas Ra, Rb, Rc, and Rd is CH. The detection information DET is supplied to the coefficient selection signal generation unit 145.
[0087]
The coefficient selection signal generator 145 is further supplied with a parameter Q from the system controller 101. As described above, the resolution selection information RES in the feature amount regions Ra, Rb, Rc, and Rd corresponding to each value of the parameter Q is stored in the ROM 146 that the coefficient selection signal generation unit 145 has. In the coefficient selection signal generation unit 145, detection information DET from the region detection unit 144 and resolution selection information RES corresponding to the value of the parameter Q supplied from the system controller 101 are extracted from the ROM 146.
[0088]
The extracted resolution selection information RES becomes a coefficient selection signal SEL that is an output of the coefficient selection signal generation unit 145 and thus the coefficient selection circuit 133. Therefore, the coefficient selection circuit 133 outputs a coefficient selection signal SEL corresponding to four pixels (pixels at the target position) in the unit pixel block for each unit pixel block constituting the HD signal (1050i signal) to be created. The The coefficient selection signal SEL is supplied to the coefficient memory 131 as read address information.
[0089]
The coefficient memory 131 stores coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q from the information memory bank 132. Has been loaded. Such coefficient data loading operation is performed, for example, when the value of the parameter Q is changed and the coefficient data to be stored in the coefficient memory 131 needs to be changed.
[0090]
As described above, the class code CL and the coefficient selection signal SEL are supplied to the coefficient memory 131 as read address information, so that the coefficient data wi corresponding to the class code CL from the coefficient memory 131 and corresponding to the coefficient selection signal SEL. Is read and supplied to the estimated prediction calculation circuit 127. In this case, coefficient data corresponding to the discrete value m is read when SEL = 0, and coefficient data corresponding to the discrete value m + 1 is read when SEL = 1.
[0091]
Further, in the first tap selection circuit 121, four pixels (units of the target position) in the unit pixel block constituting the HD signal (1050i signal) to be created are generated from the SD signal (525i signal) stored in the buffer memory 109. Prediction tap data (SD pixel data) located around the (pixel) is selectively extracted. The prediction tap data xi is supplied to the estimated prediction calculation circuit 127.
[0092]
In the estimated prediction calculation circuit 127, four pixels in a unit pixel block constituting an HD signal to be created from prediction tap data (SD pixel data) xi and coefficient data wi for four pixels read from the coefficient memory 131. Data (HD pixel data) y 1 ~ Y Four Are calculated individually (see equation (6)). The 4-pixel data y sequentially output from the estimated prediction calculation circuit 127 1 ~ Y Four Is supplied to the post-processing circuit 128. The post-processing circuit 128 outputs 4-pixel data y sequentially output from the estimated prediction calculation circuit 127. 1 ~ Y Four Are line-sequentially output in a 1050i signal format. That is, the post-processing circuit 128 outputs a 1050i signal as an HD signal.
[0093]
As described above, each coefficient memory 131 corresponds to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q supplied from the system controller 101. Class coefficient data is loaded from the information memory bank 132. Therefore, when the user operates the remote control transmitter 200 to change the value of the parameter Q, the coefficient data stored in the coefficient memory 131 is changed accordingly, and the estimated prediction calculation circuit 127 changes the pixel data of the HD signal to the parameter Q. It is generated corresponding to the value of. Therefore, the user can arbitrarily adjust the resolution of the image by the HD signal to a desired value by changing the value of the parameter Q, as in the conventional adjustment of contrast and sharpness.
[0094]
Further, of the coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q stored in the coefficient memory 131, the estimation is performed. Coefficient data used when the prediction calculation circuit 127 actually generates pixel data of the HD signal is determined based on the coefficient selection signal SEL generated by the coefficient selection circuit 133. That is, in any feature amount region, the feature amount CH around the four pixels (the pixel at the target position) in the unit pixel block constituting the HD signal to be created has an inappropriate resolution (failure degree). Whether the coefficient data corresponding to the discrete value m or the coefficient data corresponding to the discrete value m + 1 is used is determined according to whether the value of the parameter Q is from m to m + 1. The coefficient data corresponding to the discrete value m + 1 is for obtaining a higher resolution than the coefficient data corresponding to the discrete value m.
[0095]
For example, the closer the value of parameter Q is to m, the coefficient data corresponding to the discrete value m + 1 is used only when the feature amount CH is included in the feature amount region where the degree of inappropriate resolution (failure degree) is low. (See FIG. 8).
[0096]
In this way, the same coefficient data is not used uniformly on the entire screen, but pixel data at the target position is generated using coefficient data selected according to the feature amount of the target position. As a result, when adjusting the resolution by changing the parameter Q, it is possible to prevent a portion where the feature amount CH is included in the feature amount region having a high degree of inappropriate resolution (failure degree) from becoming an inappropriate resolution. Therefore, the image quality of the HD signal can be improved.
[0097]
FIG. 9 shows a case where each of the locations a to d in the screen is in the same state as described with reference to FIG. 7, and when the value of the parameter Q changes from m to m + 1, the discrete value m or discrete at each location. This indicates which of the value m + 1 corresponds to which coefficient data is used.
[0098]
When Q = m, as shown in FIG. 9A, coefficient data wm corresponding to the discrete value m is used at all points a to d. When m <Q ≦ m + 0.25, as shown in FIG. 9B, coefficient data wm + 1 corresponding to the discrete value m + 1 is used at the location a, and the discrete value at locations b to d. Coefficient data wm corresponding to m is used. When m + 0.25 <Q ≦ m + 0.5, as shown in FIG. 9C, coefficient data wm + 1 corresponding to the discrete value m + 1 is used at points a and b, and c and d The coefficient data wm corresponding to the discrete value m is used at the location. When m + 0.5 <Q ≦ m + 0.75, as shown in FIG. 9D, coefficient data wm + 1 corresponding to the discrete value m + 1 is used at the positions a to c, and at the position d. Coefficient data wm corresponding to the discrete value m is used. Furthermore, when m + 0.75 <Q ≦ m + 1, as shown in FIG. 9E, coefficient data wm + 1 corresponding to the discrete value m + 1 is used at all points a to d.
[0099]
In the above-described embodiment, the feature amount CH related to the high-frequency component amount around the pixel of interest is represented by √ (DR × ACT), but is not limited to this. is not. The feature amount CH only needs to be capable of classifying the degree of inappropriate resolution (failure degree) in stages when obtaining HD signals using coefficient data for obtaining the same resolution.
[0100]
In the above-described embodiment, for simplicity of explanation, the range from the minimum value CHmin to the maximum value CHmax of the feature amount CH is divided into four regions to determine four feature amount regions Ra to Rd (see FIG. 6), and correspondingly, each of the discrete values of the parameter Q is divided into four ranges (see FIG. 8). However, these numbers are actually increased, for example, 10. The
[0101]
In the above-described embodiment, the number Na, Nb, Nc, Nd included in each feature amount region among the feature amounts CH corresponding to all SD pixels is made substantially equal, but it is not always necessary to make them equal. . However, by making the numbers Na, Nb, Nc, and Nd substantially equal, it is possible to expect a change in resolution of the HD image in proportion to a change in the value of the parameter Q.
[0102]
Next, a method for generating coefficient data corresponding to nine resolutions corresponding to discrete values 0, 1,..., 8 of the parameter Q stored in the information memory bank 132 will be described. This coefficient data is generated in advance by learning.
[0103]
First, this learning method will be described. An example in which coefficient data wi (i = 1 to n) based on the estimation formula (6) is obtained by the least square method will be shown. As a generalized example, consider the observation equation (7), where X is input data, W is coefficient data, and Y is a predicted value. In this equation (7), m represents the number of learning data, and n represents the number of prediction taps.
[0104]
[Equation 5]
Figure 0004051934
[0105]
The least square method is applied to the data collected by the observation equation (7). Based on the observation equation (7), the residual equation (8) is considered.
[0106]
[Formula 6]
Figure 0004051934
[0107]
From the residual equation of equation (8), the most probable value of each w i is e in equation (9). 2 It is considered that the condition for minimizing is satisfied. That is, the condition of equation (10) should be considered.
[0108]
[Expression 7]
Figure 0004051934
[0109]
That is, w conditions satisfying n conditions based on i in equation (10) are considered. 1 , W 2 , ..., w n May be calculated. Therefore, Equation (11) is obtained from the residual equation of Equation (8). Furthermore, the equation (12) is obtained from the equations (11) and (7).
[0110]
[Equation 8]
Figure 0004051934
[0111]
And the normal equation of (13) Formula is obtained from (8) Formula and (12) Formula.
[0112]
[Equation 9]
Figure 0004051934
[0113]
Since the number of equations equal to the number n of unknowns can be established as the normal equation of equation (13), the most probable value of each wi can be obtained. In this case, simultaneous equations are solved using a sweeping method (Gauss-Jordan elimination method) or the like.
[0114]
FIG. 10 shows a coefficient data generation device 150 that generates coefficient data based on the concept described above. The coefficient data generation apparatus 150 performs an horizontal thinning process and a vertical thinning process on an input terminal 151 to which an HD signal (1050i signal) as a teacher signal is input, and an SD signal as a student signal. And an SD signal generation circuit 152 to be obtained.
[0115]
The SD signal generation circuit 152 is supplied with a parameter Q as a control signal. This parameter Q corresponds to the parameter Q output from the system controller 101 by the user's operation of the remote control transmitter 200 in the television receiver 100 shown in FIG. However, here, only nine discrete values of 0, 1,.
[0116]
In the SD signal generation circuit 152, the horizontal and vertical bands of the filter used when generating the SD signal from the HD signal are varied according to the value of the parameter Q. This filter includes, for example, a one-dimensional Gaussian filter that limits the horizontal band and a one-dimensional Gaussian filter that limits the vertical band. This one-dimensional Gaussian filter is expressed by equation (14).
[0117]
[Expression 10]
Figure 0004051934
[0118]
In this case, a one-dimensional Gaussian filter having a frequency characteristic corresponding to the discrete value of Q can be obtained by stepwise changing the value of the standard deviation σ corresponding to the discrete value of Q. In this case, the horizontal and vertical bands are narrowed as the value of the parameter Q increases. As a result, the larger the value of the parameter Q, the more the coefficient data for obtaining a high-resolution HD signal can be generated.
[0119]
Further, the coefficient data generation device 150 selectively selects data of a plurality of SD pixels located around the target position in the HD signal (1050i signal) from the SD signal (525i signal) output from the SD signal generation circuit 152. First to third tap selection circuits 153 to 155 for taking out and outputting are provided. These first to third tap selection circuits 153 to 155 are configured similarly to the first to third tap selection circuits 121 to 123 of the image signal processing unit 110 described above.
[0120]
Further, the coefficient data generation device 150 detects a level distribution pattern of space class tap data (SD pixel data) selectively extracted by the second tap selection circuit 154, and determines a space class based on the level distribution pattern. It has a space class detection circuit 157 that detects and outputs the class information. The space class detection circuit 157 is configured in the same manner as the space class detection circuit 124 of the image signal processing unit 110 described above. From this space class detection circuit 157, a requantization code qi for each SD pixel data as space class tap data is output as class information indicating a space class.
[0121]
The coefficient data generation device 150 detects a motion class mainly representing the degree of motion from the motion class tap data (SD pixel data) selectively extracted by the third tap selection circuit 155, and A motion class detection circuit 158 that outputs class information MV is provided. The motion class detection circuit 158 is configured in the same manner as the motion class detection circuit 125 of the image signal processing unit 110 described above. In this motion class detection circuit 158, the inter-frame difference is calculated from the motion class tap data (SD pixel data) selectively extracted by the third tap selection circuit 155, and the difference between the absolute values of the absolute values of the difference is calculated. Then, threshold processing is performed to detect a motion class that is an index of motion.
[0122]
Also, the coefficient data generation device 150 is based on the requantization code qi as the class information of the space class output from the space class detection circuit 157 and the motion class class information MV output from the motion class detection circuit 158. A class synthesis circuit 159 for obtaining a class code CL indicating a class to which pixel data of the target position in the HD signal (1050i signal) belongs is provided. The class synthesis circuit 159 is also configured similarly to the class synthesis circuit 126 of the image signal processing unit 110 described above.
[0123]
Further, the coefficient data generation device 150 includes each HD pixel data y as pixel data of the target position obtained from the HD signal supplied to the input terminal 151, and a first tap corresponding to each HD pixel data y. From the prediction tap data (SD pixel data) xi selectively extracted by the selection circuit 153 and the class code CL output from the class synthesis circuit 159 corresponding to each HD pixel data y, n A normal equation generation unit 160 that generates a normal equation (see equation (13)) for obtaining the coefficient data wi is provided.
[0124]
In this case, one piece of learning data described above is generated by a combination of one piece of HD pixel data y and n pieces of predicted tap pixel data corresponding thereto, and therefore a large amount of learning data is registered in the normal equation generation unit 160. A normal equation is generated. Although not shown in the figure, SD pixel data supplied from the first tap selection circuit 153 to the normal equation generation unit 160 by arranging a delay circuit for time adjustment in the preceding stage of the first tap selection circuit 153. Timing adjustment of xi is performed.
[0125]
The coefficient data generation device 150 is supplied with the data of the normal equation generated for each class by the normal equation generation unit 160, solves the normal equation generated for each class, and obtains coefficient data wi for each class. A data determination unit 161 and a coefficient memory 162 that stores the obtained coefficient data wi are provided. In the coefficient data determination unit 161, the normal equation is solved by, for example, a sweeping method, and the coefficient data wi is obtained.
[0126]
The operation of the coefficient data generation device 150 shown in FIG. 10 will be described. An HD signal (1050i signal) as a teacher signal is supplied to the input terminal 151, and the HD signal is subjected to horizontal and vertical thinning processing by the SD signal generation circuit 152, and an SD signal (525i) as a student signal. Signal) is generated. In this case, the SD signal generation circuit 152 is supplied with the parameter Q as a control signal, and sequentially generates a plurality of SD signals whose horizontal and vertical bands are changed stepwise corresponding to the discrete values of the parameter Q. It will be done.
[0127]
From this SD signal (525i signal), the second tap selection circuit 154 selectively extracts data (SD pixel data) of the space class tap located around the position of interest in the HD signal (1050i signal). The space class tap data is supplied to the space class detection circuit 157. In this space class detection circuit 157, each SD pixel data as space class tap data is subjected to ADRC processing to be re-used as class information of a space class (mainly class classification for waveform expression in space). A quantization code qi is obtained (see equation (1)).
[0128]
Further, from the SD signal generated by the SD signal generation circuit 152, the third tap selection circuit 155 selectively extracts data of the motion class tap (SD pixel data) located around the target position in the HD signal. . The data of the motion class tap is supplied to the motion class detection circuit 158. In this motion class detection circuit 158, class information MV of a motion class (mainly class classification for representing the degree of motion) is obtained from each SD pixel data as motion class tap data.
[0129]
The class information MV and the above-described requantization code qi are supplied to the class synthesis circuit 159. The class synthesis circuit 159 obtains a class code CL indicating the class to which the pixel data at the position of interest in the HD signal (1050i signal) belongs from the class information MV and the requantization code qi (see equation (3)). .
[0130]
Further, from the SD signal generated by the SD signal generation circuit 152, the first tap selection circuit 153 selectively extracts data of prediction taps (SD pixel data) located around the target pixel related to the HD signal. . Then, each HD pixel data y as pixel data of the target position obtained from the HD signal supplied to the input terminal 151 and the first tap selection circuit 121 corresponding to each HD pixel data y are selectively selected. From the prediction tap data (SD pixel data) xi taken out and the class code CL output from the class synthesis circuit 159 corresponding to each HD pixel data y, the normal equation generation unit 160 sets n for each class. A normal equation for generating the coefficient data wi is generated.
[0131]
Then, the coefficient data determination unit 161 solves the normal equation to obtain the coefficient data wi of each class, and the coefficient data wi is stored in the coefficient memory 162 that is divided into addresses for each class.
[0132]
As described above, the coefficient data generation device 150 shown in FIG. 10 can generate the coefficient data wi of each class stored in the information memory bank 132 of the image signal processing unit 110 of FIG. In this case, the horizontal and vertical bands of the SD signal generated by the SD signal generation circuit 152 can be changed stepwise according to the value of the parameter Q. Therefore, by sequentially changing the value of the parameter Q to 0, 1,..., 8 and determining the coefficient data wi for each class, the discrete values of the parameters Q of 0, 1,. It is possible to generate coefficient data wi for each class corresponding to various values.
[0133]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG.
First, the image signal processing apparatus 300 shown in FIG. 11 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (read only memory) 302 that stores an operation program of the CPU 301, coefficient data, and the like, and a RAM (random) that forms a work area of the CPU 301. access memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.
[0134]
The image signal processing apparatus 300 also includes a drive (HDD) 305 that drives a hard disk as an external storage device, and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.
[0135]
In addition, the image signal processing apparatus 300 includes a communication unit 308 that is connected to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0136]
In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (liquid crystal display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.
[0137]
The image signal processing apparatus 300 also has an input terminal 314 for inputting an SD signal and an output terminal 315 for outputting an HD signal. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.
[0138]
Here, instead of storing the processing program, coefficient data, and the like in advance in the ROM 302 as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also Further, these processing programs, coefficient data, and the like may be provided on a floppy (registered trademark) disk 306.
[0139]
Further, instead of inputting the SD signal to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the communication network 400 such as the Internet via the communication unit 308. Also, instead of outputting the processed HD signal to the output terminal 315 or in parallel therewith, it is supplied to the display 311 to display an image, further stored in a hard disk, or via the communication unit 308 such as the Internet. It may be sent to the communication network 400.
[0140]
A processing procedure for obtaining an HD signal from an SD signal in the image signal processing apparatus 300 shown in FIG. 11 will be described with reference to the flowchart of FIG.
First, in step ST1, processing is started, and in step ST2, SD pixel data is input in field units. When the SD pixel data is input from the input terminal 314, the SD pixel data is temporarily stored in the RAM 303. Further, when the SD pixel data is recorded on the hard disk, the SD pixel data is read by the hard disk drive 307 and temporarily stored in the RAM 303. In step ST3, it is determined whether or not the processing of all fields of the input SD pixel data has been completed. When the process is finished, the process ends in step ST4. On the other hand, when the process is not finished, the process proceeds to step ST5.
[0141]
In step ST5, the value of the parameter Q input by the user operating the remote control transmitter 200 is read from the RAM 303, for example. In step ST6, coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the read parameter Q value is read out and stored in the RAM 303. Store temporarily.
[0142]
Next, in step ST7, the feature amount CH (√ (DR × ACT)) of each SD pixel is obtained from the SD pixel data for one field input in step ST2, and the feature amount CH of each SD pixel is used. Thus, four feature amount regions Ra to Rd are determined (see FIG. 6). Note that the feature amount CH of each SD pixel is stored in the RAM 303 for further use in a later step.
[0143]
Next, in step ST8, the pixel data of the class tap and the prediction tap are acquired from the SD pixel data input in step ST2 corresponding to each HD pixel data (target pixel data) to be generated. In step ST9, it is determined whether or not the processing for obtaining HD pixel data has been completed in all areas of the input SD pixel data. If the process has not ended, the process proceeds to step ST10.
[0144]
In this step ST10, it is detected which of the above-described four feature amount regions Ra to Rd the feature amount CH of the SD pixel corresponding to each HD pixel data to be generated (pixel data of the target position) is detected. In step ST11, a coefficient selection signal SEL is generated from the detection information DET and the value of the parameter Q to determine which coefficient data corresponding to the discrete value m or m + 1 is to be used.
[0145]
Next, in step ST12, a class code CL is generated from the SD pixel data of the class tap acquired in step ST8. In step 13, coefficient data corresponding to the discrete value indicated by the coefficient selection signal SEL generated in step ST11, the coefficient data of the class indicated by the class code CL generated in step ST12, and a prediction tap SD pixel data is used to generate HD pixel data corresponding to the value of the parameter Q using the estimation formula (see formula (6)), and then the process returns to step ST8 to repeat the same processing as described above. .
If the process is completed in step ST9, the process returns to step ST2 and proceeds to the input process of SD pixel data in the next field.
[0146]
In this way, by performing processing according to the flowchart shown in FIG. 12, it is possible to process the SD pixel data constituting the input SD signal and obtain HD pixel data constituting the HD signal. As described above, the HD signal obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be stored on the hard disk. It is recorded.
[0147]
Next, another embodiment of the present invention will be described. FIG. 13 shows a configuration of a television receiver 100A as an embodiment. The television receiver 100A also obtains an SD signal called a 525i signal from a broadcast signal, converts the 525i signal into an HD signal called a 1050i signal, and displays an image based on the 1050i signal. In FIG. 13, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0148]
The television receiver 100A is provided with an image signal processing unit 110A instead of the image signal processing unit 110 in the television receiver 100 of FIG. In the image signal processing unit 110A, the amount of motion at the target position is used as the feature amount at the target position.
[0149]
The image signal processing unit 110A detects the level distribution pattern of the space class tap data (SD pixel data) selectively extracted by the second tap selection circuit 122, and detects the space class based on the level distribution pattern. And a space class detection circuit 124A for outputting the class code CL.
[0150]
In the space class detection circuit 124A, the following processing is performed to obtain the class code CL. First, the processing of ADRC or the like similar to the space class detection circuit 124 in the image signal processing unit 110 of FIG. 1 is performed, and the data (SD pixel data) of Na space class taps extracted by the second tap selection circuit 122. ) For the re-quantization code qi (i = 1 to Na). Next, the requantized code qi (i = 1 to Na) is used, and the class code CL is calculated by the equation (15).
[0151]
[Expression 11]
Figure 0004051934
[0152]
Thus, in the image signal processing unit 110A, the class code CL is obtained only from the space class tap data (SD pixel data) extracted by the second tap selection circuit 122. In this case, as described above, since the motion amount at the target position is used as the feature amount at the target position, information on the motion class is not included in the class code CL.
[0153]
Further, the image signal processing unit 110A includes a coefficient selection circuit 133A that generates a coefficient selection signal SEL. This coefficient selection signal SEL is also supplied to the coefficient memory 131 as read address information, similar to the coefficient selection signal SEL generated by the coefficient selection circuit 133 in the image signal processing unit 110 of FIG. This is used to select one coefficient data among coefficient data corresponding to two discrete values of the parameter Q, which is loaded and stored from the coefficient memory 131 to the coefficient memory 131.
[0154]
FIG. 14 shows the configuration of the coefficient selection circuit 133A. In FIG. 14, parts corresponding to those in FIG.
The coefficient selection circuit 133A includes a motion amount detection unit 141A, a motion amount memory 142A, a motion amount region determination unit 143A, a region detection unit 144A, and a coefficient selection signal generation unit 145A.
[0155]
The motion amount detection unit 141A detects the motion amount for each SD pixel constituting the SD signal (525i signal) of each field temporarily stored in the buffer memory 109. In this case, the amount of motion corresponding to a certain SD pixel (pixel of interest) is obtained by using a block of a predetermined size centered on the SD pixel, for example, and obtaining a motion vector by a known block matching method. Detected as The motion vector may be obtained by a gradient method instead of the block matching method.
[0156]
As described above, when a 525i signal is converted into a 1050i signal, in the odd and even fields, corresponding to one pixel of the 525i signal, four pixels of the 1050i signal are obtained by an estimation formula using the target pixel. is there. Therefore, detecting the motion amount CH corresponding to each pixel constituting the SD signal (525i signal) in the motion amount detection unit 141A means that each of the four pixels (target pixel) constituting the HD signal (1050i signal) is detected. That is, the movement amount CH is detected.
[0157]
The motion amount detection unit 141A performs a motion amount CH detection process on an SD signal of a certain field stored in the buffer memory 109, for example, in a vertical blanking period. The motion amount memory 142A stores a motion amount CH corresponding to each SD pixel for one field detected in a vertical blanking period in the motion amount detection unit 141A.
[0158]
In addition, the motion amount region determining unit 143A uses the motion amount CH stored in the motion amount memory 142A and corresponding to all SD pixels in a certain field, and sets a range from the minimum value to the maximum value of the motion amount CH in four regions. The four motion amount regions are determined by dividing the region into four. The motion amount region determination unit 143A performs the motion amount region determination process in the vertical blanking period. In this case, four motion amount regions are determined so that the number of motion amount regions included in each motion amount region among the motion amounts CH corresponding to all SD pixels is substantially equal.
[0159]
FIG. 15 shows a histogram model of the motion amount CH corresponding to all SD pixels. CHmin represents the minimum value of the motion amount CH, and CHmax represents the maximum value of the motion amount CH. Ra, Rb, Rc, and Rd are four motion amount regions, and Na, Nb, Nc, and Nd indicate the number included in each motion amount region among the motion amounts CH corresponding to all SD pixels. In this case, the motion amount regions Ra, Rb, Rc, Rd are determined so that the numbers Na, Nb, Nc, Nd are substantially equal.
[0160]
Here, the significance of the motion amount regions Ra, Rb, Rc, Rd will be considered. Since the amount of motion CH increases in the order of Ra, Rb, Rc, and Rd, when generating HD pixel data from SD pixel data using coefficient data for obtaining the same resolution over the entire screen, the motion on the Rd side The part where the motion amount CH in the amount area is detected tends to have an inappropriate resolution. 16, a, b, c, and d indicate locations on the screen where the motion amount CH in the motion amount region of Ra, Rb, Rc, and Rd is detected, respectively. When the degree of inappropriate resolution (failure degree) at each location is pa, pb, pc, pd, the relationship is pa <pb <pc <pd.
[0161]
The region detection unit 144A sequentially extracts the motion amount CH corresponding to each SD pixel detected in the vertical blanking period and stored in the motion amount memory 142A in the motion amount detection unit 141A in the subsequent vertical effective scanning period. What detects whether the motion amount CH corresponding to the SD pixel is included in the motion amount regions Ra, Rb, Rc, Rd determined by the above-described motion amount region determination unit 143A, and outputs the detection information DET It is.
[0162]
The coefficient selection signal generation unit 145A generates a coefficient selection signal SEL from the detection information DET from the region detection unit 144A and the value of the parameter Q supplied from the system controller 101. The coefficient selection signal generation unit 145A is a storage unit that stores the resolution selection information RES in the above-described motion amount regions Ra, Rb, Rc, and Rd corresponding to each value of the parameter Q. ROM146 have. FIG. 8 described above schematically shows the resolution selection information RES stored in the ROM 146.
[0163]
In this figure, in the range (first range) in which “a” is described, RES = 1 when the motion amount CH is included in the motion amount region Ra, and the motion amount CH is the motion amount region Rb, Rc, Rd. Means that RES = 0, and in the range where “a, b” is written (second range), when the motion amount CH is included in the motion amount regions Ra, Rb, RES = 1. Yes, it means that RES = 0 when the motion amount CH is included in the motion amount regions Rc and Rd, and in the range where “a, b, c” is described (third range), the motion amount CH is RES = 1 when included in the motion amount regions Ra, Rb, Rc, and RES = 0 when the motion amount CH is included in the motion amount region Rd, and “a, b, c, d” In the described range (fourth range), the motion amount CH is the motion amount region Ra, Rb, Rc. Even when included in any of Rd means that a RES = 1.
[0164]
In this figure, i <Q ≦ (i + 0.25) corresponds to the first range, (i + 0.25) <Q ≦ (i + 0.5) corresponds to the second range, and (i + 0.5). ) <Q ≦ (i + 0.75) corresponds to the third range, and (i + 0.75) <Q ≦ (i + 1) corresponds to the fourth range. Here, i = 0, 1,... When Q = 0, RES = 0 even when the motion amount CH is included in any of the motion amount regions Ra, Rb, Rc, and Rd.
[0165]
The coefficient selection signal generation unit 145A takes out the detection information DET from the region detection unit 144A and the resolution selection information RES corresponding to the value of the parameter Q supplied from the system controller 101 from the ROM 146, and selects the resolution selection information RES as a coefficient. Output as signal SEL. For example, when the value of the parameter Q is 0.4 and the detection information DET indicates that the motion amount CH is included in the motion amount region Ra, SEL = 1 is extracted from the ROM 146 and is used as the coefficient selection signal SEL. 1 is output.
[0166]
The coefficient selection signal SEL output from the coefficient selection signal generation unit 145A is also the output of the coefficient selection circuit 133A. As described above, the coefficient selection signal SEL output from the coefficient selection circuit 133A is supplied to the coefficient memory 131 (see FIG. 13) as read address information as described above. As described above, coefficient data corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q is loaded from the information memory bank 132 to the coefficient memory 131. However, when SEL = 0, coefficient data corresponding to the discrete value m is to be read, and when SEL = 1, coefficient data corresponding to the discrete value m + 1 is to be read.
The rest of the image signal processing unit 110A shown in FIG. 13 is configured in the same manner as the image signal processing unit 110 shown in FIG.
[0167]
Next, the operation of the image signal processing unit 110A will be described.
From the SD signal (525i signal) stored in the buffer memory 109, the second tap selection circuit 122 uses the four pixels in the unit pixel block constituting the HD signal (1050i signal) to be created (the pixel at the target position). The data of space class taps (SD pixel data) located in the vicinity of is selectively extracted. The space class tap data is supplied to the space class detection circuit 124A. In this space class detection circuit 124A, each SD pixel data as space class tap data is subjected to ADRC processing to obtain a class code CL (see equation (15)). This class code CL is supplied to the coefficient memory 131 as read address information.
[0168]
Further, from the SD signal (525i signal) stored in the buffer memory 109, the coefficient selection circuit 133A uses four pixels (in the unit pixel block) for each unit pixel block constituting the HD signal (1050i signal) to be created. A coefficient selection signal SEL corresponding to the pixel at the target position is generated.
[0169]
That is, as shown in FIG. 14, the SD signal (525i signal) stored in the buffer memory 109 is supplied to the motion amount detection unit 141A of the coefficient selection circuit 133A, and the motion amount detection unit 141A converts the SD signal of each field. The motion amount CH is detected by the block matching method, the gradient method, or the like for each constituting SD pixel. Then, the motion amount CH corresponding to the SD signal for one field detected in a certain vertical blanking period by the motion amount detection unit 141A is stored in the motion amount memory 142A.
[0170]
Further, in the motion amount region determination unit 143A, the motion amount CH corresponding to the SD signal for one field stored in the motion amount memory 142A in a certain vertical blanking period is used, and the motion amount CH corresponding to all SD pixels is used. The range from the minimum value CHmin to the maximum value CHmax is divided into four regions to determine four motion amount regions Ra, Rb, Rc, Rd (see FIG. 15). In this case, the ranges of the four motion amount regions Ra, Rb, Rc, and Rd are determined so that the numbers included in each motion amount region among the motion amounts CH corresponding to all SD pixels are substantially equal.
[0171]
Then, the SD signal for one field stored in the motion amount memory 142A in a certain vertical blanking period is sequentially extracted in the subsequent vertical effective scanning period and supplied to the region detection unit 144A, and the motion amount corresponding to each SD pixel. It is detected which CH is included in any of the motion amount regions Ra, Rb, Rc, Rd described above. The detection information DET is supplied to the coefficient selection signal generation unit 145A.
[0172]
A parameter Q is further supplied from the system controller 101 to the coefficient selection signal generation unit 145A. As described above, the resolution selection information RES in the motion amount regions Ra, Rb, Rc, and Rd corresponding to each value of the parameter Q is stored in the ROM 146 included in the coefficient selection signal generation unit 145A. In the coefficient selection signal generation unit 145A, the detection information DET from the region detection unit 144A and the resolution selection information RES corresponding to the value of the parameter Q supplied from the system controller 101 are extracted from the ROM 146.
[0173]
The extracted resolution selection information RES becomes a coefficient selection signal SEL which is an output of the coefficient selection signal generation unit 145A and hence the coefficient selection circuit 133A. Therefore, the coefficient selection circuit 133A outputs a coefficient selection signal SEL corresponding to four pixels (pixels at the target position) in the unit pixel block for each unit pixel block constituting the HD signal (1050i signal) to be generated. The The coefficient selection signal SEL is supplied to the coefficient memory 131 as read address information.
[0174]
The coefficient memory 131 stores coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q from the information memory bank 132. Has been loaded. Such coefficient data loading operation is performed, for example, when the value of the parameter Q is changed and the coefficient data to be stored in the coefficient memory 131 needs to be changed.
[0175]
As described above, the class code CL and the coefficient selection signal SEL are supplied to the coefficient memory 131 as read address information, so that the coefficient data wi corresponding to the class code CL from the coefficient memory 131 and corresponding to the coefficient selection signal SEL. Is read and supplied to the estimated prediction calculation circuit 127. In this case, coefficient data corresponding to the discrete value m is read when SEL = 0, and coefficient data corresponding to the discrete value m + 1 is read when SEL = 1.
[0176]
Further, in the first tap selection circuit 121, four pixels (units of the target position) in the unit pixel block constituting the HD signal (1050i signal) to be created are generated from the SD signal (525i signal) stored in the buffer memory 109. Prediction tap data (SD pixel data) located around the (pixel) is selectively extracted. The prediction tap data xi is supplied to the estimated prediction calculation circuit 127.
[0177]
In the estimated prediction calculation circuit 127, four pixels in a unit pixel block constituting an HD signal to be created from prediction tap data (SD pixel data) xi and coefficient data wi for four pixels read from the coefficient memory 131. Data (HD pixel data) y 1 ~ Y Four Are calculated individually (see equation (6)). The 4-pixel data y sequentially output from the estimated prediction calculation circuit 127 1 ~ Y Four Is supplied to the post-processing circuit 128. The post-processing circuit 128 outputs 4-pixel data y sequentially output from the estimated prediction calculation circuit 127. 1 ~ Y Four Are line-sequentially output in a 1050i signal format. That is, the post-processing circuit 128 outputs a 1050i signal as an HD signal.
[0178]
As described above, each coefficient memory 131 corresponds to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q supplied from the system controller 101. Class coefficient data is loaded from the information memory bank 132. Therefore, when the user operates the remote control transmitter 200 to change the value of the parameter Q, the coefficient data stored in the coefficient memory 131 is changed accordingly, and the estimated prediction calculation circuit 127 changes the pixel data of the HD signal to the parameter Q. It is generated corresponding to the value of. Therefore, the user can arbitrarily adjust the resolution of the image by the HD signal to a desired value by changing the value of the parameter Q, as in the conventional adjustment of contrast and sharpness.
[0179]
Further, of the coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter Q stored in the coefficient memory 131, the estimation is performed. Coefficient data to be used when the prediction calculation circuit 127 actually generates pixel data of the HD signal is determined based on the coefficient selection signal SEL generated by the coefficient selection circuit 133A. That is, in which motion amount region the degree (destruction level) of the motion amount CH of the four pixels (the pixel at the target position) in the unit pixel block constituting the HD signal to be created has an inappropriate resolution is included, Whether coefficient data corresponding to the discrete value m or coefficient data corresponding to the discrete value m + 1 is used is determined depending on whether the value of the parameter Q is from m to m + 1. The coefficient data corresponding to the discrete value m + 1 is for obtaining a higher resolution than the coefficient data corresponding to the discrete value m.
[0180]
For example, the coefficient data corresponding to the discrete value m + 1 is used only when the value of the parameter Q is closer to m and the motion amount CH is included in the motion amount region where the degree of inappropriate resolution (failure degree) is included. (See FIG. 8).
[0181]
As described above, the pixel data at the target position is generated using the coefficient data selected according to the amount of movement of the target position, instead of using the same coefficient data uniformly over the entire screen. As a result, when the resolution is adjusted by changing the value of the parameter Q, a portion in which the motion amount CH is included in the motion amount region where the degree of inappropriate resolution (failure degree) is high becomes inappropriate. This can be prevented, and the image quality of the HD signal can be improved.
[0182]
In the above embodiment, in order to simplify the description, the range from the minimum value CHmin to the maximum value CHmax of the motion amount CH is divided into four regions to determine four motion amount regions Ra to Rd (see FIG. 15), and correspondingly, each of the discrete values of the parameter Q is divided into four ranges (see FIG. 8). However, these numbers are actually increased, for example, 10. The
[0183]
In the above-described embodiment, the numbers Na, Nb, Nc, and Nd included in each motion amount region among the motion amounts CH corresponding to all SD pixels are set to be substantially equal, but are not necessarily equal. . However, by making the numbers Na, Nb, Nc, and Nd substantially equal, it is possible to expect a change in resolution of the HD image in proportion to a change in the value of the parameter Q.
[0184]
Further, the processing in the image signal processing unit 110A of FIG. 13 can also be realized by software by an image signal processing device 300 as shown in FIG. The image signal processing in that case is basically performed according to the flowchart shown in FIG.
[0185]
However, since the image signal processing unit 110A in FIG. 13 uses the amount of motion at the target position as the feature amount at the target position, the processing in step ST7 and step ST10 is as follows, but the processing in the other steps Is the same as described above.
[0186]
In step ST7, the motion amount of each SD pixel is obtained from the SD pixel data for one field input in step ST2, and four motion amount regions Ra to Rd are determined using the motion amount CH of each SD pixel. (See FIG. 15).
[0187]
In step ST10, it is detected which of the above-described four motion amount regions Ra to Rd the motion amount CH of the SD pixel corresponding to each HD pixel data to be generated (pixel data of the target position) is included. .
[0188]
Next, still another embodiment of the present invention will be described. FIG. 17 shows a configuration of a television receiver 100B as an embodiment. The television receiver 100B also obtains an SD signal called a 525i signal from a broadcast signal, converts the 525i signal into an HD signal called a 1050i signal, and displays an image based on the 1050i signal. In FIG. 17, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0189]
This television receiver 100B is provided with an image signal processing unit 110B instead of the image signal processing unit 110 in the television receiver 100 of FIG. In the image signal processing unit 110B, the luminance at the target position is used as the feature amount at the target position.
[0190]
In the television receiver 100 </ b> B, the user can adjust the brightness of an image displayed on the screen of the display unit 111 by operating the remote control transmitter 200. For example, the value of the parameter B indicating the luminance supplied from the system controller 101 to the image signal processing unit 110B by pressing the up key and the down key or rotating the knob such as a jog dial in the luminance selection mode. Can be changed.
[0191]
As will be described later, in the image signal processing unit 110B, HD pixel data is calculated by an estimation formula. As the coefficient data of this estimation formula, data corresponding to the parameter B described above is used. Thereby, the brightness of the image by the HD signal output from the image signal processing unit 110B corresponds to the value of the parameter B.
[0192]
In the state where the value of parameter B is changed by the user's operation of remote control transmitter 200, the value of parameter B is displayed on the screen of display unit 111. Although not shown here, this display is performed using numerical values or bar graphs. The user can change the value of the parameter B with reference to this display.
[0193]
The image signal processor 110B has an information memory bank 132B. In the present embodiment, the parameter B can be changed between 0 and 8. In the information memory bank 132B, coefficient data of each class at nine luminances corresponding to the discrete values 0, 1,..., 8 of the parameter B are stored in advance. Here, it is assumed that the luminance increases as the value of the parameter Q increases. A method of generating coefficient data corresponding to these nine luminances will be described later.
[0194]
As described above, when the 525i signal is converted into the 1050i signal, it is necessary to obtain four pixels of the 1050i signal corresponding to one pixel of the 525i signal in each of the odd and even fields. Therefore, a certain class of coefficient data at a certain luminance is composed of coefficient data corresponding to four pixels in a 2 × 2 unit pixel block constituting a 1050i signal in each of odd and even fields. The four pixels in the 2 × 2 unit pixel block have different phase relationships corresponding to the pixels of the 525i signal.
[0195]
As described above, the user supplies the image signal processing unit 110B from the system controller 101 by pressing the up key and the down key or rotating a knob such as a jog dial in the operation unit of the remote control transmitter 200. The value of the parameter B to be changed can be changed. The parameter B is supplied to the information memory bank 132B, and two discrete values m, m + 1 (m = 0, 1,...) Located in the vicinity of the value of the parameter B are supplied from the information memory bank 132B to the coefficient memory 131. .., 7) corresponding to each class of coefficient data is loaded.
[0196]
That is, when 0 ≦ B ≦ 1, coefficient data of each class corresponding to B = 0, 1 is obtained, and when 1 <B ≦ 2, coefficient data of each class corresponding to B = 1, 2 is obtained. When 2 <B ≦ 3, the coefficient data of each class corresponding to B = 2, 3 is equal, and when 3 <B ≦ 4, the coefficient data of each class corresponding to B = 3, 4 is 4 < When B ≦ 5, the coefficient data of each class corresponding to B = 4, 5 is 5 <B ≦ 6. When 5 <B ≦ 6, the coefficient data of each class corresponding to B = 5, 6 is 6 <B ≦. When 7 is set, coefficient data of each class corresponding to B = 6, 7 is obtained, and when 7 <B ≦ 8, coefficient data of each class corresponding to B = 7, 8 is obtained from the information memory bank 132B. It is loaded into the memory 131.
[0197]
The image signal processing unit 110B includes a coefficient selection circuit 133B that generates a coefficient selection signal SEL. This coefficient selection signal SEL is also supplied to the coefficient memory 131 as read address information, similar to the coefficient selection signal SEL generated by the coefficient selection circuit 133 in the image signal processing unit 110 of FIG. This is used to select one coefficient data among the coefficient data corresponding to the two discrete values of the parameter B, which is loaded and stored in the coefficient memory 131 from 132B.
[0198]
FIG. 18 shows the configuration of the coefficient selection circuit 133B. In FIG. 18, the same reference numerals are given to the portions corresponding to those in FIG.
The coefficient selection circuit 133B includes a luminance detection unit 141B, a luminance memory 142B, a luminance region determination unit 143B, a region detection unit 144B, and a coefficient selection signal generation unit 145B.
[0199]
The luminance detector 141B detects the luminance for each SD pixel constituting the SD signal (525i signal) of each field temporarily stored in the buffer memory 109. In this case, the luminance corresponding to a certain SD pixel (pixel of interest) is obtained, for example, by using a block having a predetermined size centered on the SD pixel and by simple averaging or weighted averaging of pixel values in the block.
[0200]
As described above, when a 525i signal is converted into a 1050i signal, in the odd and even fields, corresponding to one pixel of the 525i signal, four pixels of the 1050i signal are obtained by an estimation formula using the target pixel. is there. Therefore, detecting the luminance corresponding to each pixel constituting the SD signal (525i signal) in the luminance detection unit 141B means detecting the luminance of each of the four pixels (target pixel) constituting the HD signal (1050i signal). Will be.
[0201]
The luminance detection unit 141B performs luminance CH detection processing on an SD signal of a certain field stored in the buffer memory 109, for example, in a vertical blanking period. The luminance memory 142B stores the luminance CH corresponding to each SD pixel for one field detected in a certain vertical blanking period in the luminance detection unit 141B.
[0202]
In addition, the luminance region determination unit 143B divides the range from the minimum value to the maximum value of the luminance CH into four regions using the luminance CH corresponding to all SD pixels in a certain field stored in the luminance memory 142B. Four luminance regions are determined. The luminance area determining unit 143B performs the luminance area determining process in the vertical blanking period. In this case, the four luminance regions are determined so that the numbers included in each luminance region among the luminance CH corresponding to all SD pixels are substantially equal.
[0203]
FIG. 19 shows a histogram model of luminance CH corresponding to all SD pixels. CHmin indicates the minimum value of the luminance CH, and CHmax indicates the maximum value of the luminance CH. Ra, Rb, Rc, and Rd are four luminance areas, and Na, Nb, Nc, and Nd indicate the number included in each luminance area among the luminance CH corresponding to all SD pixels. In this case, the luminance regions Ra, Rb, Rc, Rd are determined so that the numbers Na, Nb, Nc, Nd are substantially equal.
[0204]
Here, let us consider the significance of the luminance regions Ra, Rb, Rc, and Rd. Since luminance CH increases in the order of Ra, Rb, Rc, and Rd, when generating HD pixel data from SD pixel data using coefficient data for obtaining the same luminance in the entire screen, it is within the luminance region on the Rd side. The portion where the luminance CH is detected becomes too bright and tends to be inappropriate. 20, a, b, c, and d indicate locations in the screen where the luminance CH in the luminance regions of Ra, Rb, Rc, and Rd is detected, respectively. Assuming that the degree of inappropriate luminance (failure degree) at each location is pa, pb, pc, pd, the relationship is pa <pb <pc <pd.
[0205]
The area detection unit 144B sequentially extracts the luminance CH corresponding to each SD pixel detected in the vertical blanking period in the luminance detection unit 141B and stored in the luminance memory 142B in the subsequent vertical effective scanning period, and outputs the luminance CH to each SD pixel. It is detected whether the corresponding luminance CH is included in the luminance regions Ra, Rb, Rc, and Rd determined by the luminance region determining unit 143A, and the detection information DET is output.
[0206]
The coefficient selection signal generation unit 145B generates the coefficient selection signal SEL from the detection information DET from the region detection unit 144B and the value of the parameter B supplied from the system controller 101. The coefficient selection signal generation unit 145B has a ROM 146B as a storage unit that stores the luminance selection information RES in the luminance regions Ra, Rb, Rc, and Rd corresponding to each value of the parameter B. FIG. 21 schematically shows the luminance selection information RES stored in the ROM 146B.
[0207]
In this figure, in a range (first range) in which “a” is described, RES = 1 when the luminance CH is included in the luminance region Ra, and when the luminance CH is included in the luminance regions Rb, Rc, and Rd. This means that RES = 0, and in the range (second range) in which “a, b” is described, when the luminance CH is included in the luminance regions Ra, Rb, RES = 1, and the luminance CH is luminance. When included in the regions Rc and Rd, this means that RES = 0, and in the range where “a, b, c” is described (third range), the luminance CH is included in the luminance regions Ra, Rb, Rc. Means RES = 1, and when the luminance CH is included in the luminance region Rd, it means that RES = 0, and in the range in which “a, b, c, d” is described (fourth range), When the luminance CH is included in any of the luminance regions Ra, Rb, Rc, Rd It means it is also a RES = 1.
[0208]
In this figure, i <B ≦ (i + 0.25) corresponds to the first range, (i + 0.25) <B ≦ (i + 0.5) corresponds to the second range, and (i + 0.5). ) <B ≦ (i + 0.75) corresponds to the third range, and (i + 0.75) <B ≦ (i + 1) corresponds to the fourth range. Here, i = 0, 1,... When B = 0, RES = 0 even when the luminance CH is included in any of the luminance regions Ra, Rb, Rc, Rd.
[0209]
The coefficient selection signal generation unit 145B takes out the detection information DET from the area detection unit 144B and the luminance selection information RES corresponding to the value of the parameter B supplied from the system controller 101 from the ROM 146B, and selects the luminance selection information RES as a coefficient. Output as signal SEL. For example, when the value of the parameter B is 0.4 and the detection information DET indicates that the luminance CH is included in the luminance region Ra, SEL = 1 is extracted from the ROM 146B, and 1 is selected as the coefficient selection signal SEL. Is output.
[0210]
The coefficient selection signal SEL output from the coefficient selection signal generation unit 145B is also an output of the coefficient selection circuit 133B. As described above, the coefficient selection signal SEL output from the coefficient selection circuit 133B is supplied to the coefficient memory 131 (see FIG. 17) as read address information as described above. As described above, the coefficient memory 131 is loaded with coefficient data corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter B from the information memory bank 132B. However, when SEL = 0, coefficient data corresponding to the discrete value m is to be read, and when SEL = 1, coefficient data corresponding to the discrete value m + 1 is to be read.
The rest of the image signal processing unit 110B shown in FIG. 17 is configured in the same manner as the image signal processing unit 110 shown in FIG.
[0211]
Next, the operation of the image signal processing unit 110B will be described.
From the SD signal (525i signal) stored in the buffer memory 109, the second tap selection circuit 122 uses the four pixels in the unit pixel block constituting the HD signal (1050i signal) to be created (the pixel at the target position). The data of space class taps (SD pixel data) located in the vicinity of is selectively extracted. The space class detection circuit 124 obtains a requantization code qi as class information based on the space class tap data (see equation (1)).
[0212]
In addition, the third tap selection circuit 123 uses the SD signal stored in the buffer memory 109 to move around the four pixels (the pixel at the target position) in the unit pixel block constituting the HD signal to be created. Class tap data (SD pixel data) is selectively extracted. The motion class detection circuit 125 obtains class information MV of the motion class based on the data of the motion class tap.
[0213]
The class information MV and the above-described requantization code qi are supplied to the class synthesis circuit 126. In the class synthesis circuit 126, from the class information MV and the requantization code qi, for each unit pixel block constituting the HD signal to be created, data of four pixels in the unit pixel block (pixel data of the target position) A class code CL indicating the class to which the symbol belongs is obtained (see equation (3)). This class code CL is supplied to the coefficient memory 131 as read address information.
[0214]
Further, from the SD signal stored in the buffer memory 109, the coefficient selection circuit 133B corresponds to 4 pixels (pixel at the target position) in the unit pixel block for each unit pixel block constituting the HD signal to be created. A coefficient selection signal SEL to be generated is generated.
[0215]
That is, as shown in FIG. 18, the SD signal (525i signal) stored in the buffer memory 109 is supplied to the luminance detection unit 141B of the coefficient selection circuit 133B, and the luminance detection unit 141B constitutes the SD signal of each field. The luminance CH is detected for each SD pixel. Then, the luminance CH corresponding to the SD signal for one field detected in a certain vertical blanking period by the luminance detector 141B is stored in the luminance memory 142B.
[0216]
In addition, the luminance region determination unit 143B uses the luminance CH corresponding to the SD signal for one field stored in the luminance memory 142B during a certain vertical blanking period, and the minimum value CHmin of the luminance CH corresponding to all SD pixels. Is divided into four areas, and four luminance areas Ra, Rb, Rc, Rd are determined (see FIG. 19). In this case, the ranges of the four luminance regions Ra, Rb, Rc, and Rd are determined so that the numbers included in each luminance region out of the luminance CH corresponding to all SD pixels are substantially equal.
[0217]
Then, SD signals for one field stored in the luminance memory 142B in a certain vertical blanking period are sequentially taken out in the subsequent vertical effective scanning period and supplied to the area detection unit 144B, and the luminance CH corresponding to each SD pixel is obtained. , It is detected which of the above-described luminance regions Ra, Rb, Rc, Rd is included. This detection information DET is supplied to the coefficient selection signal generation unit 145B.
[0218]
The parameter B is further supplied from the system controller 101 to the coefficient selection signal generation unit 145B. As described above, the luminance selection information RES in the luminance regions Ra, Rb, Rc, and Rd corresponding to each value of the parameter B is stored in the ROM 146B included in the coefficient selection signal generation unit 145B. In the coefficient selection signal generation unit 145B, the detection information DET from the region detection unit 144B and the luminance selection information RES corresponding to the value of the parameter B supplied from the system controller 101 are extracted from the ROM 146B.
[0219]
The extracted luminance selection information RES becomes the coefficient selection signal SEL that is the output of the coefficient selection signal generation unit 145B and hence the coefficient selection circuit 133B. Therefore, the coefficient selection circuit 133B outputs a coefficient selection signal SEL corresponding to four pixels (pixels at the target position) in the unit pixel block for each unit pixel block constituting the HD signal (1050i signal) to be created. The The coefficient selection signal SEL is supplied to the coefficient memory 131 as read address information.
[0220]
The coefficient memory 131 stores coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter B from the information memory bank 132B. Has been loaded. Such a coefficient data loading operation is performed, for example, when the value of the parameter B is changed and the coefficient data to be stored in the coefficient memory 131 needs to be changed.
[0221]
As described above, the class code CL and the coefficient selection signal SEL are supplied to the coefficient memory 131 as read address information, so that the coefficient data wi corresponding to the class code CL from the coefficient memory 131 and corresponding to the coefficient selection signal SEL. Is read and supplied to the estimated prediction calculation circuit 127. In this case, coefficient data corresponding to the discrete value m is read when SEL = 0, and coefficient data corresponding to the discrete value m + 1 is read when SEL = 1.
[0222]
Further, in the first tap selection circuit 121, four pixels (units of the target position) in the unit pixel block constituting the HD signal (1050i signal) to be created are generated from the SD signal (525i signal) stored in the buffer memory 109. Prediction tap data (SD pixel data) located around the (pixel) is selectively extracted. The prediction tap data xi is supplied to the estimated prediction calculation circuit 127.
[0223]
In the estimated prediction calculation circuit 127, four pixel data (HD pixel) in the unit pixel block constituting the HD signal to be created from the prediction tap data xi and the coefficient data wi for four pixels read from the coefficient memory 131. Data) y 1 ~ Y Four Are calculated individually (see equation (6)). The 4-pixel data y sequentially output from the estimated prediction calculation circuit 127 1 ~ Y Four Is supplied to the post-processing circuit 128. The post-processing circuit 128 outputs 4-pixel data y sequentially output from the estimated prediction calculation circuit 127. 1 ~ Y Four Are line-sequentially output in a 1050i signal format. That is, the post-processing circuit 128 outputs a 1050i signal as an HD signal.
[0224]
As described above, each coefficient memory 131 corresponds to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter B supplied from the system controller 101. Class coefficient data is loaded from the information memory bank 132B. Therefore, when the user operates the remote control transmitter 200 to change the value of the parameter B, the coefficient data stored in the coefficient memory 131 is changed accordingly, and the estimated prediction calculation circuit 127 changes the pixel data of the HD signal to the parameter B. It is generated corresponding to the value of. Therefore, the user can arbitrarily adjust the brightness of the image by the HD signal to a desired value by changing the value of the parameter B.
[0225]
Further, of the coefficient data of each class corresponding to two discrete values m, m + 1 (m = 0, 1,..., 7) located in the vicinity of the value of the parameter B stored in the coefficient memory 131, the estimation is performed. Coefficient data used when the prediction calculation circuit 127 actually generates the pixel data of the HD signal is determined based on the coefficient selection signal SEL generated by the coefficient selection circuit 133B. In other words, in what luminance region the degree to which the luminance CH of the four pixels (the pixel at the target position) in the unit pixel block constituting the HD signal to be generated becomes inappropriate luminance (degree of failure) is included in the parameter Whether coefficient data corresponding to the discrete value m or coefficient data corresponding to the discrete value m + 1 is used is determined depending on whether the value of B is from m to m + 1. Incidentally, the coefficient data corresponding to the discrete value m + 1 is for obtaining higher luminance than the coefficient data corresponding to the discrete value m.
[0226]
For example, the coefficient data corresponding to the discrete value m + 1 is used only when the value of the parameter B is closer to m and the luminance CH is included in the luminance region where the degree of inappropriateness (failure degree) is low (degradation degree) ( (See FIG. 21).
[0227]
In this way, the same coefficient data is not used uniformly over the entire screen, but pixel data of the target position is generated using coefficient data selected according to the luminance of the target position. As a result, when adjusting the brightness by changing the value of parameter B, the location where the brightness CH is included in the brightness area where the degree of inappropriate brightness (failure degree) is high becomes inappropriate brightness. This can prevent the image quality of the HD signal.
[0228]
For example, consider an image as shown in FIG. In this image, the dog on the left has a dark body color and is in the shadow of the house, making it difficult to see. In such a case, when the brightness is adjusted to be high, at first, as shown in FIG. 24C, only a dark place becomes bright. Therefore, it becomes bright only around the dark-colored dog, making it easier to see the dog. In this case, since the entire image does not become bright, the entire image does not become whitish and unnatural. When the luminance is further increased, the entire image changes brightly as shown in FIG. 24D.
[0229]
In the above embodiment, in order to simplify the description, the range from the minimum value CHmin to the maximum value CHmax of the luminance CH is divided into four regions to determine four luminance regions Ra to Rd (see FIG. 19). ), And correspondingly, each of the discrete values of the parameter B is divided into four ranges (see FIG. 21). However, the number of these is actually increased, for example, 10.
[0230]
In the above-described embodiment, the numbers Na, Nb, Nc, and Nd included in each luminance region out of the luminance CH corresponding to all SD pixels are substantially equal, but it is not always necessary to be equal. However, by making the numbers Na, Nb, Nc, and Nd substantially equal, a change in the brightness of the HD image proportional to the change in the value of the parameter B can be expected.
[0231]
Further, the processing in the image signal processing unit 110B in FIG. 17 can also be realized by software by an image signal processing device 300 as shown in FIG. 11, for example. The image signal processing in that case is basically performed according to the flowchart shown in FIG.
However, since the image signal processing unit 110 in FIG. 17 can adjust the luminance of the image, the value of the parameter B input by the user operating the remote control transmitter 200 instead of the parameter Q in step ST5. Is read from the RAM 303, for example.
[0232]
In addition, since the image signal processing unit 110B in FIG. 17 uses the luminance at the target position as the feature amount at the target position, the processes in step ST7 and step ST10 are as follows, but the processes in other steps are as follows. The same as described above.
[0233]
In step ST7, the luminance of each SD pixel is obtained from the SD pixel data for one field input in step ST2, and four luminance regions Ra to Rd are determined using the luminance CH of each SD pixel (FIG. 19).
[0234]
In step ST10, it is detected which of the above four luminance areas Ra to Rd the luminance CH of the SD pixel corresponding to each HD pixel data to be generated (pixel data of the target position) is included.
[0235]
Also, the coefficient data wi of each class corresponding to the discrete values of parameter B 0, 1,..., 8 stored in the information memory bank 132B in the image signal processing unit 110B of FIG. Can be generated by a coefficient data generation device having the same configuration as the coefficient data generation device 150 shown in FIG. In this case, the parameter B may be input to the SD signal generation circuit 152 instead of the parameter Q, and the luminance of the SD signal may be changed stepwise depending on the value of the parameter B.
[0236]
In the above-described embodiment, the linear equation is used as the estimation equation when generating the HD signal. However, the present invention is not limited to this, and for example, a higher-order equation is used as the estimation equation. It may be a thing.
[0237]
In the above-described embodiment, an example in which an SD signal (525i signal) is converted into an HD signal (1050i signal) has been described. However, the present invention is not limited to this, and the first equation is estimated using an estimation formula. Of course, the present invention can be similarly applied to other cases in which the image signal is converted into the second image signal.
[0238]
Moreover, although the case where the information signal is an image signal has been described in the above embodiment, the present invention is not limited to this. For example, the present invention can be similarly applied when the information signal is an audio signal. In the case of an audio signal, for example, the volume is adjusted according to a parameter value, and the feature amount detected by the feature amount detection means may be set as the volume at the target position. In this case, the relationship is the same as the luminance in the image signal processing unit 110B of FIG. 17 described above, and the volume is too high in a portion where the volume is included in a volume area where the degree of inappropriate volume (destruction level) is high. It is possible to prevent the volume from becoming inappropriate.
[0239]
In the present invention, the output quality adjusted by the parameter value and the detected feature amount pair are not limited to the above-described embodiment. In short, in addition to the value of the parameter indicating the output quality of the second information signal, the feature data at the detected position of interest is also referenced to generate information data of the position of interest in the second information signal. This prevents the occurrence of a location having an inappropriate quality for output by the second information signal.
[0240]
【The invention's effect】
According to the present invention, the first information signal is converted into the first information signal using the resolution creation technique. Higher resolution When converting to the second information signal, the feature amount at the target position of the second information signal is detected, and in addition to the parameter indicating the quality of the output by the second information signal, the detected feature amount is also referred. Thus, the information data of the position of interest in the second information signal is generated, and it is possible to prevent the occurrence of a location having an inappropriate quality for the output by the second information signal.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a television receiver as an embodiment.
FIG. 2 is a block diagram showing a configuration of a coefficient selection circuit.
FIG. 3 is a diagram for explaining a dynamic range DR constituting a feature amount;
FIG. 4 is a diagram for explaining an activity ACT constituting a feature amount;
FIG. 5 is a diagram showing a model of a dynamic range and activity detection part;
FIG. 6 is a diagram illustrating a histogram model of feature amounts corresponding to all SD pixels in one field.
FIG. 7 is a diagram illustrating an example of a location in each feature amount area in a screen and a degree of failure.
FIG. 8 is a diagram schematically illustrating resolution selection information in a ROM included in a coefficient selection signal generation unit.
FIG. 9 is a diagram for explaining a change in coefficient data used at each location in the screen with respect to a change in the value of a parameter Q indicating resolution.
FIG. 10 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 11 is a block diagram illustrating a configuration example of an image signal processing device to be realized by software.
FIG. 12 is a flowchart showing a procedure of image signal processing.
FIG. 13 is a block diagram illustrating a configuration of a television receiver according to another embodiment.
FIG. 14 is a block diagram illustrating a configuration of a coefficient selection circuit.
FIG. 15 is a diagram showing a histogram model of the amount of motion corresponding to all SD pixels in one field.
FIG. 16 is a diagram illustrating an example of a location in each motion amount region on the screen and the degree of failure.
FIG. 17 is a block diagram illustrating a configuration of a television receiver according to another embodiment.
FIG. 18 is a block diagram illustrating a configuration of a coefficient selection circuit.
FIG. 19 is a diagram illustrating a histogram model of luminance corresponding to all SD pixels in one field.
FIG. 20 is a diagram illustrating an example of a location in each luminance region on the screen and the degree of failure.
FIG. 21 is a diagram schematically illustrating luminance selection information in a ROM included in a coefficient selection signal generation unit.
FIG. 22 is a model diagram for explaining motion blur.
FIG. 23 is a model diagram for explaining motion blur of a large object.
FIG. 24 is a diagram for describing image change during brightness adjustment;
FIG. 25 is a diagram for explaining a pixel positional relationship between a 525i signal and a 1050i signal.
[Explanation of symbols]
100, 100A, 100B ... TV receiver, 101 ... system controller, 102 ... remote control signal receiving circuit, 105 ... receiving antenna, 106 ... tuner, 109 ... buffer memory, 110, 110A, 110B ... Image signal processing unit, 111 ... Display unit, 121 ... First tap selection circuit, 122 ... Second tap selection circuit, 123 ... Third tap selection circuit , 124, 124A ... Spatial class detection circuit, 125 ... Motion class detection circuit, 126 ... Class synthesis circuit, 127 ... Estimated prediction calculation circuit, 128 ... Post-processing circuit, 131 ... Coefficient memory, 132 ... Information memory bank, 133, 133A, 133B ... Coefficient selection circuit, 141 ... Feature amount detection unit, 141A ... Amount detection unit, 141B ... Luminance detection unit, 142 ... Feature amount memory, 142A ... Motion amount memory, 142B ... Luminance memory, 143 ... Feature amount region determination unit, 143A ... Motion Quantity region determining unit, 143B ... Luminance region determining unit, 144, 144A, 144B ... Region detecting unit, 145, 145A, 145B ... Coefficient selection signal generating unit, 150 ... Coefficient data generating device, 151 ... Input terminal, 152 ... SD signal generation circuit, 153 ... first tap selection circuit, 154 ... second tap selection circuit, 155 ... third tap selection circuit, 157 ..Space class detection circuit, 158... Motion class detection circuit, 159... Class synthesis circuit, 160... Normal equation generation unit, 161 .. coefficient data determination unit, 162. 200 ... remote control transmitter, 300 ... image signal processing device

Claims (14)

複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報量の多い第2の情報信号に変換する情報信号処理装置であって、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の情報データに所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度、動き量及び音量のいずれかを示す上記注目位置における特徴量を検出する特徴量検出手段と、
上記第2の情報信号による出力の大きさを示す、上記特徴量に対応したパラメータの値が外部から入力されるパラメータ入力手段と、
上記特徴量検出手段で検出された特徴量および上記パラメータ入力手段に入力されたパラメータの値に対応して、上記第2の情報信号における注目位置の情報データを生成する情報データ生成手段とを備え、
上記情報データ生成手段は、
上記パラメータ入力手段に入力されたパラメータの値に対応する複数の代表的な大きさごとに予め算出され、上記第1の情報信号を代入して積和演算することにより上記第2の情報信号を推定するための推定式の係数データの候補である係数データ候補を発生する係数データ候補発生手段と、
上記特徴量検出手段で検出された特徴量と上記パラメータ入力手段に入力されたパラメータの値に基づいて、上記複数の代表的な大きさのうち一つの大きさを特定する大きさ特定手段と、
上記係数データ候補発生手段で発生された係数データ候補の中から、上記大きさ特定手段で特定された大きさに対応する係数データを選択する係数データ選択手段と、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第2のデータ選択手段と、
上記第2のデータ選択手段で選択された複数の第1の情報データと上記係数データ選択手段で選択された係数データとを用いて、上記推定式に基づいて上記注目位置の情報データを算出する演算手段とを有し、
上記大きさ特定手段は、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する検出手段と、
上記パラメータの各値に対応した、上記複数の特徴量領域における大きさ選択情報を格納する格納手段と、
上記格納手段より上記パラメータ入力手段に入力されたパラメータの値および上記検出手段で検出された特徴量領域に対応した大きさ選択情報を取り出し、該大きさ選択情報に基づいて上記一つの大きさを特定する特定手段と
を有することを特徴とする情報信号処理装置。
The first information signal comprising a plurality of information data, an information signal processing apparatus for converting to more second information signal amount of information than the first information signal,
First data selection means for selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal;
A feature amount calculated by performing a predetermined calculation on the plurality of first information data selected by the first data selection means, at least a value obtained from the activity and dynamic range of the predetermined pixel value, Feature quantity detection means for detecting a feature quantity at the position of interest indicating any one of luminance, amount of motion and volume ;
Parameter input means for externally inputting a parameter value corresponding to the feature amount, which indicates the magnitude of the output of the second information signal;
Information data generating means for generating information data of a position of interest in the second information signal corresponding to the feature value detected by the feature value detecting means and the value of the parameter input to the parameter input means. ,
The information data generating means includes
The second information signal is calculated in advance for each of a plurality of representative sizes corresponding to the value of the parameter input to the parameter input means, and the second information signal is calculated by substituting the first information signal for a product-sum operation. Coefficient data candidate generating means for generating coefficient data candidates that are candidates of coefficient data of an estimation formula for estimation;
A size specifying unit for specifying one of the plurality of representative sizes based on the feature amount detected by the feature amount detection unit and the value of the parameter input to the parameter input unit;
Coefficient data selecting means for selecting coefficient data corresponding to the size specified by the size specifying means from the coefficient data candidates generated by the coefficient data candidate generating means;
Second data selection means for selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal;
Using the plurality of first information data selected by the second data selection means and the coefficient data selected by the coefficient data selection means, the information data of the attention position is calculated based on the estimation formula. Computing means,
The size specifying means is:
Detecting means for detecting a feature quantity region including a feature quantity detected by the feature quantity detection means among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen;
Storage means for storing size selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The size selection information corresponding to the value of the parameter input to the parameter input means and the feature amount area detected by the detection means is extracted from the storage means, and the one size is determined based on the size selection information. An information signal processing apparatus comprising: a specifying means for specifying.
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第3のデータ選択手段と、
上記第3のデータ選択手段で選択された複数の第1の情報データのレベル分布パターンに基づいて、上記注目位置の情報データが属するクラスを検出するクラス検出手段とをさらに備え、
上記係数データ候補発生手段は、上記クラス毎に上記係数データ候補を発生し、
上記係数データ選択手段は、上記係数データ候補発生手段で発生された係数データ候補の中から、上記大きさ特定手段で特定された大きさおよび上記クラス検出手段で検出されたクラスに対応する係数データを選択する
ことを特徴とする請求項1に記載の情報信号処理装置。
Third data selection means for selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal;
Class detection means for detecting a class to which the information data of the target position belongs based on the level distribution pattern of the plurality of first information data selected by the third data selection means;
The coefficient data candidate generating means generates the coefficient data candidates for each class,
The coefficient data selecting means is coefficient data corresponding to the size specified by the size specifying means and the class detected by the class detecting means from the coefficient data candidates generated by the coefficient data candidate generating means. The information signal processing device according to claim 1, wherein the information signal processing device is selected.
上記情報信号は画像信号であり、
上記特徴量検出手段で検出される特徴量、上記注目位置における輝度の場合、
上記パラメータ入力手段に入力されるパラメータの値は、上記第2の情報信号による画像の輝度を示すものである
ことを特徴とする請求項1に記載の情報信号処理装置。
The information signal is an image signal,
Feature quantity detected by the feature quantity detecting means, when the luminance at the target position,
The information signal processing apparatus according to claim 1, wherein the value of the parameter input to the parameter input unit indicates a luminance of an image based on the second information signal.
上記情報信号は音声信号であり、
上記特徴量検出手段で検出される特徴量、上記注目位置における音量の場合、
上記パラメータ入力手段に入力されるパラメータの値は、上記第2の情報信号による音の音量を示すものである
ことを特徴とする請求項1に記載の情報信号処理装置。
The information signal is an audio signal,
Feature quantity detected by the feature quantity detecting means, when the volume in the target position,
The information signal processing apparatus according to claim 1, wherein the value of the parameter input to the parameter input means indicates a sound volume of the second information signal.
入力された複数の画素データからなる第1の画像信号を、複数の画素データからなる上記第1の画像信号より高解像度な第2の画像信号に変換して出力する画像信号処理装置において、
上記第2の画像信号による画像の解像度又は輝度を示すパラメータの値が外部から入力されるパラメータ入力手段と、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の画素データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度及び動き量のいずれかを示す上記注目位置における特徴量を検出する特徴量検出手段と、
上記特徴量検出手段で検出された特徴量および上記パラメータ入力手段に入力された所定の上記パラメータの値に対応して、上記第2の画像信号における注目位置の画素データを生成する画素データ生成手段とを備え、
上記画素データ生成手段は、
上記パラメータ入力手段に入力されたパラメータの値に対応する複数の代表的な解像度ごとに予め算出され、上記第1の画像信号を代入して積和演算することにより上記第2の画像信号を推定するための推定式の係数データの候補である係数データ候補を発生する係数データ候補発生手段と、
上記特徴量検出手段で検出された特徴量と上記パラメータ入力手段に入力されたパラメータの値に基づいて、上記複数の代表的な解像度のうち一つの解像度を特定する解像度特定手段と、
上記係数データ候補発生手段で発生された係数データ候補の中から、上記解像度特定手段で特定された解像度に対応する係数データを選択する係数データ選択手段と、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のデータ選択手段と、
上記第2のデータ選択手段で選択された複数の第1の画素データと上記係数データ選択手段で選択された係数データとを用いて、上記推定式に基づいて上記注目位置の画素データを算出する演算手段とを有し、
上記解像度特定手段は、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する検出手段と、
上記パラメータの各値に対応した、上記複数の特徴量領域における解像度選択情報を格納する格納手段と、
上記格納手段より上記パラメータ入力手段に入力されたパラメータの値および上記検出手段で検出された特徴量領域に対応した解像度選択情報を取り出し、該解像度選択情報に基づいて上記一つの解像度を特定する特定手段と
を有することを特徴とする画像処理装置。
In the image signal processing apparatus for converting the first image signal composed of a plurality of input pixel data into a second image signal having a higher resolution than the first image signal composed of a plurality of pixel data, and outputting the second image signal.
Parameter input means for inputting a value of a parameter indicating the resolution or luminance of the image by the second image signal from the outside;
First data selection means for selecting a plurality of first pixel data located around a target position in the second image signal from the first image signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first pixel data selected by the first data selection means, and is obtained from at least the activity and the dynamic range of the predetermined pixel value. A feature amount detecting means for detecting a feature amount at the position of interest indicating any one of a value, a luminance, and a motion amount ;
Pixel data generation means for generating pixel data of the target position in the second image signal in correspondence with the feature quantity detected by the feature quantity detection means and the value of the predetermined parameter input to the parameter input means And
The pixel data generation means includes
The second image signal is estimated by calculating in advance for each of a plurality of representative resolutions corresponding to the parameter values input to the parameter input means, and performing a product-sum operation by substituting the first image signal. Coefficient data candidate generating means for generating coefficient data candidates that are coefficient data candidates of the estimation formula for
A resolution specifying unit for specifying one of the plurality of representative resolutions based on the feature amount detected by the feature amount detection unit and the value of the parameter input to the parameter input unit;
Coefficient data selecting means for selecting coefficient data corresponding to the resolution specified by the resolution specifying means from the coefficient data candidates generated by the coefficient data candidate generating means;
Second data selection means for selecting a plurality of first pixel data located around a target position in the second image signal from the first image signal;
Using the plurality of first pixel data selected by the second data selection unit and the coefficient data selected by the coefficient data selection unit, the pixel data of the target position is calculated based on the estimation formula. Computing means,
The resolution specifying means is:
Detecting means for detecting a feature quantity region including a feature quantity detected by the feature quantity detection means among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen;
Storage means for storing resolution selection information in the plurality of feature amount regions corresponding to each value of the parameter;
A specification for extracting the resolution value corresponding to the parameter value input to the parameter input means and the feature amount area detected by the detection means from the storage means, and specifying the one resolution based on the resolution selection information And an image processing apparatus.
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第3のデータ選択手段と、
上記第3のデータ選択手段で選択された複数の第1の画素データのレベル分布パターンに基づいて、上記注目位置の画素データが属するクラスを検出するクラス検出手段とをさらに備え、
上記係数データ候補発生手段は、上記クラス毎に上記係数データ候補を発生し、
上記係数データ選択手段は、上記係数データ候補発生手段で発生された係数データ候補の中から、上記解像度特定手段で特定された解像度および上記クラス検出手段で検出されたクラスに対応する係数データを選択する
ことを特徴とする請求項5に記載の画像処理装置。
Third data selection means for selecting a plurality of first pixel data located around the position of interest in the second image signal from the first image signal;
Class detecting means for detecting a class to which the pixel data of the target position belongs based on the level distribution pattern of the plurality of first pixel data selected by the third data selecting means;
The coefficient data candidate generating means generates the coefficient data candidates for each class,
The coefficient data selecting means selects coefficient data corresponding to the resolution specified by the resolution specifying means and the class detected by the class detecting means from the coefficient data candidates generated by the coefficient data candidate generating means. The image processing apparatus according to claim 5, wherein:
上記特徴量検出手段は、上記複数の第1の画素データ内の隣接画素の絶対値和と、上記複数の第1の画素データ内のダイナミックレンジとを使用して、上記注目位置の周辺における高周波成分量に関係する特徴量を求める
ことを特徴とする請求項5に記載の画像処理装置。
The feature amount detection means uses a sum of absolute values of adjacent pixels in the plurality of first pixel data and a dynamic range in the plurality of first pixel data to generate a high frequency around the target position. The image processing apparatus according to claim 5, wherein a feature amount related to the component amount is obtained.
上記画像信号処理手段から出力される上記第2の画像信号による画像を画像表示素子に表示する画像表示手段をさらに備える
ことを特徴とする請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, further comprising image display means for displaying an image based on the second image signal output from the image signal processing means on an image display element.
複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報量の多い第2の情報信号に変換する情報信号処理方法であって、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度、動き量及び音量のいずれかを示す上記注目位置における特徴量を検出する第2のステップと、
上記第2の情報信号による出力の大きさを示す、上記特徴量に対応したパラメータの値を外部から取得する第3のステップと、
上記第2のステップで検出された特徴量および上記第3のステップで取得されたパラメータの値に対応して、上記第2の情報信号における注目位置の情報データを生成する第4のステップとを有し、
上記第4のステップは、
上記第3のステップで取得したパラメータの値に対応する複数の代表的な大きさごとに予め算出され、上記第1の情報信号を代入して積和演算することにより上記第2の情報信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、
上記第2のステップで検出された特徴量と上記第3のステップで取得したパラメータの値に基づいて、上記複数の代表的な大きさのうち一つの大きさを特定する第6のステップと、
上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された大きさに対応する係数データを選択する第7のステップと、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第8のステップと、
上記第8のステップで選択された複数の第1の情報データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の情報データを算出する第9のステップとを有し、
上記第6のステップは、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記第2のステップで検出される特徴量が含まれる特徴量領域を検出する第10のステップと、
上記パラメータの各値に対応した、上記複数の特徴量領域における大きさ選択情報を格納する第11のステップと、
上記第3のステップで取得したパラメータの値および上記第10のステップで検出した特徴量領域に対応した大きさ選択情報を取り出し、該大きさ選択情報に基づいて上記一つの大きさを特定する第12のステップと
を有することを特徴とする情報信号処理方法。
The first information signal comprising a plurality of information data, an information signal processing method for converting the second information signal greater amount of information than the first information signal,
A first step of selecting a plurality of first information data located around a position of interest in the second information signal from the first information signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first information data selected in the first step, at least a value obtained from an activity and a dynamic range of the predetermined pixel value; A second step of detecting a feature amount at the position of interest indicating any one of luminance, amount of motion, and volume ;
A third step of acquiring a value of a parameter corresponding to the feature amount, which indicates the magnitude of the output by the second information signal, from the outside;
A fourth step of generating information data of a target position in the second information signal corresponding to the feature amount detected in the second step and the parameter value obtained in the third step; Have
The fourth step is
The second information signal is calculated in advance for each of a plurality of representative sizes corresponding to the parameter values acquired in the third step, and the second information signal is calculated by substituting the first information signal for a product-sum operation A fifth step of generating coefficient data candidates that are coefficient data candidates of the estimation formula for estimation;
A sixth step of identifying one of the plurality of representative sizes based on the feature amount detected in the second step and the value of the parameter acquired in the third step;
A seventh step of selecting coefficient data corresponding to the size specified in the sixth step from the coefficient data candidates generated in the fifth step;
An eighth step of selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal;
Ninth information for calculating the information data of the attention position based on the estimation formula using the plurality of first information data selected in the eighth step and the coefficient data selected in the seventh step. And having steps of
The sixth step is
A tenth step of detecting a feature amount region including the feature amount detected in the second step among a plurality of feature amount regions determined based on the feature amount detected over the entire screen; ,
An eleventh step of storing size selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The size selection information corresponding to the parameter value acquired in the third step and the feature amount region detected in the tenth step is extracted, and the one size is specified based on the size selection information. 12. An information signal processing method comprising: twelve steps.
複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報量の多い第2の情報信号に変換するために、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度、動き量及び音量のいずれかを示す上記注目位置における特徴量を検出する第2のステップと、
上記第2の情報信号による出力の大きさを示す、上記特徴量に対応したパラメータの値を外部から取得する第3のステップと、
上記第2のステップで検出された特徴量と上記第3のステップで取得されたパラメータの値に対応して、上記第2の情報信号における注目位置の情報データを生成する第4のステップとを有し、
上記第4のステップは、
上記第3のステップで取得したパラメータの値に対応する複数の代表的な大きさごとに予め算出され、上記第1の情報信号を代入して積和演算することにより上記第2の情報信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、
上記第2のステップで検出された特徴量と上記第3のステップで取得したパラメータの値に基づいて、上記複数の代表的な大きさのうち一つの大きさを特定する第6のステップと、
上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された大きさに対応する係数データを選択する第7のステップと、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第8のステップと、
上記第8のステップで選択された複数の第1の情報データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の情報データを算出する第9のステップとを有し、
上記第6のステップは、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記第2のステップで検出される特徴量が含まれる特徴量領域を検出する第10のステップと、
上記パラメータの各値に対応した、上記複数の特徴量領域における大きさ選択情報を格納する第11のステップと、
上記第3のステップで取得したパラメータの値および上記第10のステップで検出した特徴量領域に対応した大きさ選択情報を取り出し、該大きさ選択情報に基づいて上記一つの大きさを特定する第12のステップとを有する情報信号処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
The first information signal comprising a plurality of information data, in order to convert to more second information signal amount of information than the first information signal,
A first step of selecting a plurality of first information data located around a position of interest in the second information signal from the first information signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first information data selected in the first step, at least a value obtained from an activity and a dynamic range of the predetermined pixel value; A second step of detecting a feature amount at the position of interest indicating any one of luminance, amount of motion, and volume ;
A third step of acquiring a value of a parameter corresponding to the feature amount, which indicates the magnitude of the output by the second information signal, from the outside;
A fourth step of generating information data of a position of interest in the second information signal corresponding to the feature amount detected in the second step and the value of the parameter acquired in the third step; Have
The fourth step is
The second information signal is calculated in advance for each of a plurality of representative sizes corresponding to the parameter values acquired in the third step, and the second information signal is calculated by substituting the first information signal for a product-sum operation A fifth step of generating coefficient data candidates that are coefficient data candidates of the estimation formula for estimation;
A sixth step of identifying one of the plurality of representative sizes based on the feature amount detected in the second step and the value of the parameter acquired in the third step;
A seventh step of selecting coefficient data corresponding to the size specified in the sixth step from the coefficient data candidates generated in the fifth step;
An eighth step of selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal;
Ninth information for calculating the information data of the attention position based on the estimation formula using the plurality of first information data selected in the eighth step and the coefficient data selected in the seventh step. And having steps of
The sixth step is
A tenth step of detecting a feature amount region including the feature amount detected in the second step among a plurality of feature amount regions determined based on the feature amount detected over the entire screen; ,
An eleventh step of storing size selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The size selection information corresponding to the parameter value acquired in the third step and the feature amount area detected in the tenth step is extracted, and the one size is specified based on the size selection information. A computer-readable medium storing a program for causing a computer to execute an information signal processing method having 12 steps.
複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報量の多い第2の情報信号に変換するために、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度、動き量及び音量のいずれかを示す上記注目位置における特徴量を検出する第2のステップと、
上記第2の情報信号による出力の大きさを示す、上記特徴量に対応したパラメータの値を外部から取得する第3のステップと、
上記第2のステップで検出された特徴量と上記第3のステップで取得されたパラメータに対応して、上記第2の情報信号における注目位置の情報データを生成する第4のステップとを有し、
上記第4のステップは、
上記第3のステップで取得したパラメータの値に対応する複数の代表的な大きさごとに予め算出され、上記第1の情報信号を代入して積和演算することにより上記第2の情報信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、
上記第2のステップで検出された特徴量と上記第3のステップで取得したパラメータの値に基づいて、上記複数の代表的な大きさのうち一つの大きさを特定する第6のステップと、
上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された大きさに対応する係数データを選択する第7のステップと、
上記第1の情報信号から上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第8のステップと、
上記第8のステップで選択された複数の第1の情報データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の情報データを算出する第9のステップとを有し、
上記第6のステップは、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記第2のステップで検出される特徴量が含まれる特徴量領域を検出する第10のステップと、
上記パラメータの各値に対応した、上記複数の特徴量領域における大きさ選択情報を格納する第11のステップと、
上記第3のステップで取得したパラメータの値および上記第10のステップで検出した特徴量領域に対応した大きさ選択情報を取り出し、該大きさ選択情報に基づいて上記一つの大きさを特定する第12のステップとを有する情報信号処理方法をコンピュータに実行させるためのプログラム。
The first information signal comprising a plurality of information data, in order to convert to more second information signal amount of information than the first information signal,
A first step of selecting a plurality of first information data located around a position of interest in the second information signal from the first information signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first information data selected in the first step, at least a value obtained from an activity and a dynamic range of the predetermined pixel value; A second step of detecting a feature amount at the position of interest indicating any one of luminance, amount of motion, and volume ;
A third step of acquiring a value of a parameter corresponding to the feature amount, which indicates the magnitude of the output by the second information signal, from the outside;
A fourth step of generating information data of a target position in the second information signal corresponding to the feature amount detected in the second step and the parameter acquired in the third step; ,
The fourth step is
The second information signal is calculated in advance for each of a plurality of representative sizes corresponding to the parameter values acquired in the third step, and the second information signal is calculated by substituting the first information signal for a product-sum operation A fifth step of generating coefficient data candidates that are coefficient data candidates of the estimation formula for estimation;
A sixth step of identifying one of the plurality of representative sizes based on the feature amount detected in the second step and the value of the parameter acquired in the third step;
A seventh step of selecting coefficient data corresponding to the size specified in the sixth step from the coefficient data candidates generated in the fifth step;
An eighth step of selecting a plurality of first information data located around the position of interest in the second information signal from the first information signal;
Ninth information for calculating the information data of the attention position based on the estimation formula using the plurality of first information data selected in the eighth step and the coefficient data selected in the seventh step. And having steps of
The sixth step is
A tenth step of detecting a feature amount region including the feature amount detected in the second step among a plurality of feature amount regions determined based on the feature amount detected over the entire screen; ,
An eleventh step of storing size selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The size selection information corresponding to the parameter value acquired in the third step and the feature amount area detected in the tenth step is extracted, and the one size is specified based on the size selection information. A program for causing a computer to execute an information signal processing method having 12 steps.
入力された複数の画素データからなる第1の画像信号を、複数の画素データからなる上記第1の画像信号より高解像度な第2の画像信号に変換して出力する画像信号処理方法において、
上記第2の画像信号による画像の解像度又は輝度を示すパラメータの値を外部から取得する第1のステップと、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度及び動き量のいずれかを示す上記注目位置における特徴量を検出する第3のステップと、
上記第3のステップで検出された特徴量および上記第1のステップで取得した所定の上記パラメータの値に対応して、上記第2の画像信号における注目位置の画素データを生成する第4のステップとを有し、
上記第4のステップは、
上記第1のステップで取得したパラメータの値に対応する複数の代表的な解像度ごとに予め算出され、上記第1の画像信号を代入して積和演算することにより上記第2の画像信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、
上記第3のステップで検出された特徴量と上記第1のステップで取得したパラメータの値に基づいて、上記複数の代表的な解像度のうち一つの解像度を特定する第6のステップと、
上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された解像度に対応する係数データを選択する第7のステップと、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第8のステップと、
上記第8のステップで選択された複数の第1の画素データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の画素データを算出する第9のステップとを有し、
上記第6のステップは、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する第10のステップと、
上記パラメータの各値に対応した、上記複数の特徴量領域における解像度選択情報を格納する第11のステップと、
上記第1のステップで取得したパラメータの値および上記第10のステップで検出された特徴量領域に対応した解像度選択情報を取り出し、該解像度選択情報に基づいて上記一つの解像度を特定する第12のステップと
を有することを特徴とする画像処理方法。
In an image signal processing method for converting a first image signal composed of a plurality of input pixel data into a second image signal having a higher resolution than the first image signal composed of a plurality of pixel data, and outputting the second image signal.
A first step of acquiring a value of a parameter indicating the resolution or luminance of an image based on the second image signal from the outside;
A second step of selecting a plurality of first pixel data located around a position of interest in the second image signal from the first image signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first pixel data selected in the second step, at least a value obtained from an activity and a dynamic range of the predetermined pixel value; A third step of detecting a feature amount at the target position indicating either luminance or motion amount ;
A fourth step of generating pixel data of a target position in the second image signal corresponding to the feature amount detected in the third step and the value of the predetermined parameter acquired in the first step; And
The fourth step is
The second image signal is estimated by calculating in advance for each of a plurality of representative resolutions corresponding to the parameter values obtained in the first step, and performing a product-sum operation by substituting the first image signal. A fifth step of generating coefficient data candidates that are candidate coefficient data of the estimation formula for
A sixth step of specifying one of the plurality of representative resolutions based on the feature amount detected in the third step and the value of the parameter acquired in the first step;
A seventh step of selecting coefficient data corresponding to the resolution specified in the sixth step from the coefficient data candidates generated in the fifth step;
An eighth step of selecting a plurality of first pixel data located around the position of interest in the second image signal from the first image signal;
A ninth pixel that calculates pixel data of the target position based on the estimation equation using the plurality of first pixel data selected in the eighth step and the coefficient data selected in the seventh step. And having steps of
The sixth step is
A tenth step of detecting a feature quantity region including a feature quantity detected by the feature quantity detection means among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen; ,
An eleventh step of storing resolution selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The resolution selection information corresponding to the parameter value acquired in the first step and the feature amount area detected in the tenth step is extracted, and the one resolution is specified based on the resolution selection information. An image processing method comprising: steps.
入力された複数の画素データからなる第1の画像信号を、複数の画素データからなる上記第1の画像信号より高解像度な第2の画像信号に変換するために、
上記第2の画像信号による画像の解像度又は輝度を示すパラメータの値を外部から取得する第1のステップと、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度及び動き量のいずれかを示す上記注目位置における特徴量を検出する第3のステップと、
上記第3のステップで検出された特徴量および上記第1のステップで取得した所定の上記パラメータの値に対応して、上記第2の画像信号における注目位置の画素データを生成する第4のステップとを有し、
上記第4のステップは、
上記第1のステップで取得したパラメータの値に対応する複数の代表的な解像度ごとに予め算出され、上記第1の画像信号を代入して積和演算することにより上記第2の画像信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、
上記第3のステップで検出された特徴量と上記第1のステップで取得したパラメータの値に基づいて、上記複数の代表的な解像度のうち一つの解像度を特定する第6のステップと、
上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された解像度に対応する係数データを選択する第7のステップと、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第8のステップと、
上記第8のステップで選択された複数の第1の画素データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の画素データを算出する第9のステップとを有し、
上記第6のステップは、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する第10のステップと、
上記パラメータの各値に対応した、上記複数の特徴量領域における解像度選択情報を格納する第11のステップと、
上記第1のステップで取得したパラメータの値および上記第10のステップで検出された特徴量領域に対応した解像度選択情報を取り出し、該解像度選択情報に基づいて上記一つの解像度を特定する第12のステップとを有する画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
In order to convert the input first image signal composed of a plurality of pixel data into a second image signal having a higher resolution than the first image signal composed of a plurality of pixel data,
A first step of acquiring a value of a parameter indicating the resolution or luminance of an image based on the second image signal from the outside;
A second step of selecting a plurality of first pixel data located around a position of interest in the second image signal from the first image signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first pixel data selected in the second step, at least a value obtained from an activity and a dynamic range of the predetermined pixel value; A third step of detecting a feature amount at the target position indicating either luminance or motion amount ;
A fourth step of generating pixel data of a target position in the second image signal corresponding to the feature amount detected in the third step and the value of the predetermined parameter acquired in the first step; And
The fourth step is
The second image signal is estimated by calculating in advance for each of a plurality of representative resolutions corresponding to the parameter values obtained in the first step, and performing a product-sum operation by substituting the first image signal. A fifth step of generating coefficient data candidates that are candidate coefficient data of the estimation formula for
A sixth step of specifying one of the plurality of representative resolutions based on the feature amount detected in the third step and the value of the parameter acquired in the first step;
A seventh step of selecting coefficient data corresponding to the resolution specified in the sixth step from the coefficient data candidates generated in the fifth step;
An eighth step of selecting a plurality of first pixel data located around the position of interest in the second image signal from the first image signal;
A ninth pixel that calculates pixel data of the target position based on the estimation equation using the plurality of first pixel data selected in the eighth step and the coefficient data selected in the seventh step. And having steps of
The sixth step is
A tenth step of detecting a feature quantity region including a feature quantity detected by the feature quantity detection means among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen; ,
An eleventh step of storing resolution selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The resolution selection information corresponding to the value of the parameter acquired in the first step and the feature amount area detected in the tenth step is extracted, and the twelfth resolution specifying the one resolution based on the resolution selection information A computer-readable medium having recorded thereon a program for causing a computer to execute an image processing method.
入力された複数の画素データからなる第1の画像信号を、複数の画素データからなる上記第1の画像信号より高解像度な第2の画像信号に変換するために、
上記第2の画像信号による画像の解像度又は輝度を示すパラメータの値を外部から取得する第1のステップと、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データの値に所定の演算を実施して算出される特徴量であって少なくとも、所定画素値のアクティビティとダイナミックレンジから求められる値、輝度及び動き量のいずれかを示す上記注目位置における特徴量を検出する第3のステップと、
上記第3のステップで検出された特徴量および上記第1のステップで取得した所定の上記パラメータの値に対応して、上記第2の画像信号における注目位置の画素データを生成する第4のステップとを有し、
上記第4のステップは、
上記第1のステップで取得したパラメータの値に対応する複数の代表的な解像度ごとに予め算出され、上記第1の画像信号を代入して積和演算することにより上記第2の画像信号を推定するための推定式の係数データの候補である係数データ候補を発生する第5のステップと、
上記第3のステップで検出された特徴量と上記第1のステップで取得したパラメータの値に基づいて、上記複数の代表的な解像度のうち一つの解像度を特定する第6のステップと、
上記第5のステップで発生された係数データ候補の中から、上記第6のステップで特定された解像度に対応する係数データを選択する第7のステップと、
上記第1の画像信号から上記第2の画像信号における注目位置の周辺に位置する複数の第1の画素データを選択する第8のステップと、
上記第8のステップで選択された複数の第1の画素データと上記第7のステップで選択された係数データとを用いて、上記推定式に基づいて上記注目位置の画素データを算出する第9のステップとを有し、
上記第6のステップは、
画面全体に亘って検出される上記特徴量に基づいて決定される複数の特徴量領域のうち、上記特徴量検出手段で検出される特徴量が含まれる特徴量領域を検出する第10のステップと、
上記パラメータの各値に対応した、上記複数の特徴量領域における解像度選択情報を格納する第11のステップと、
上記第1のステップで取得したパラメータの値および上記第10のステップで検出された特徴量領域に対応した解像度選択情報を取り出し、該解像度選択情報に基づいて上記一つの解像度を特定する第12のステップとを有する画像処理方法をコンピュータに実行させるためのプログラム。
In order to convert the input first image signal composed of a plurality of pixel data into a second image signal having a higher resolution than the first image signal composed of a plurality of pixel data,
A first step of acquiring a value of a parameter indicating the resolution or luminance of an image based on the second image signal from the outside;
A second step of selecting a plurality of first pixel data located around a position of interest in the second image signal from the first image signal;
A feature amount calculated by performing a predetermined calculation on the values of the plurality of first pixel data selected in the second step, at least a value obtained from an activity and a dynamic range of the predetermined pixel value; A third step of detecting a feature amount at the target position indicating either luminance or motion amount ;
A fourth step of generating pixel data of a target position in the second image signal corresponding to the feature amount detected in the third step and the value of the predetermined parameter acquired in the first step; And
The fourth step is
The second image signal is estimated by calculating in advance for each of a plurality of representative resolutions corresponding to the parameter values obtained in the first step, and performing a product-sum operation by substituting the first image signal. A fifth step of generating coefficient data candidates that are candidate coefficient data of the estimation formula for
A sixth step of specifying one of the plurality of representative resolutions based on the feature amount detected in the third step and the value of the parameter acquired in the first step;
A seventh step of selecting coefficient data corresponding to the resolution specified in the sixth step from the coefficient data candidates generated in the fifth step;
An eighth step of selecting a plurality of first pixel data located around the position of interest in the second image signal from the first image signal;
A ninth pixel that calculates pixel data of the target position based on the estimation equation using the plurality of first pixel data selected in the eighth step and the coefficient data selected in the seventh step. And having steps of
The sixth step is
A tenth step of detecting a feature quantity region including a feature quantity detected by the feature quantity detection means among a plurality of feature quantity areas determined based on the feature quantity detected over the entire screen; ,
An eleventh step of storing resolution selection information in the plurality of feature amount regions corresponding to each value of the parameter;
The resolution selection information corresponding to the parameter value acquired in the first step and the feature amount area detected in the tenth step is extracted, and the one resolution is specified based on the resolution selection information. A program for causing a computer to execute an image processing method including steps.
JP2002013146A 2001-03-30 2002-01-22 INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP4051934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002013146A JP4051934B2 (en) 2001-03-30 2002-01-22 INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-101573 2001-03-30
JP2001101573 2001-03-30
JP2002013146A JP4051934B2 (en) 2001-03-30 2002-01-22 INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2002359822A JP2002359822A (en) 2002-12-13
JP4051934B2 true JP4051934B2 (en) 2008-02-27

Family

ID=26612860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002013146A Expired - Fee Related JP4051934B2 (en) 2001-03-30 2002-01-22 INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP4051934B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4311166B2 (en) 2003-11-05 2009-08-12 ソニー株式会社 Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and medium recording the program

Also Published As

Publication number Publication date
JP2002359822A (en) 2002-12-13

Similar Documents

Publication Publication Date Title
KR100939736B1 (en) Device and method of generating coefficient data, device and method of processing information signal using the same, device and method of generating data for generating coefficients using therefor, and carrier for providing information
JP4026491B2 (en) Image signal processing apparatus, image signal processing method, program, and medium
US20070159553A1 (en) Information signal processor, method for processing information signal, image signal processor ang image display apparatus using the same, coefficient seed data production device used in the same, method for producing coefficient seed data set and information-providing medium
JP4696388B2 (en) Information signal processing apparatus, information signal processing method, image signal processing apparatus and image display apparatus using the same, coefficient seed data generation apparatus, coefficient data generation apparatus, and information recording medium
JP4277446B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE USING THE SAME
CN100367788C (en) Coefficient kind data generator and method thereof
KR100770067B1 (en) Information signal processing device, information signal processing method, image signal processing device, image display comprising the same, and information providing medium
JP4691835B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient data acquiring apparatus and acquiring method used therefor, and information recording medium
JP4051934B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE PROCESSING DEVICE USING THE SAME, IMAGE PROCESSING METHOD, PROGRAM FOR EXECUTING INFORMATION SIGNAL PROCESSING METHOD OR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE MEDIUM CONTAINING THE PROGRAM
JP4349086B2 (en) Information signal processing apparatus and processing method, program for executing the processing method, and medium storing the program
JP4311166B2 (en) Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and medium recording the program
JP4649812B2 (en) Image signal processing apparatus, image signal processing method and image display apparatus using the same, program for executing each image signal processing method, and computer-readable medium storing the program
JP4092921B2 (en) Information signal processing apparatus, information signal processing method and image display apparatus, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and program thereof Recorded computer-readable medium
JP4692800B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient seed data generating apparatus and generating method used therefor, and recording medium
JP4691849B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and information acquiring apparatus and acquiring method used therefor
JP4649786B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor
JP4692798B2 (en) Information signal processing device, information signal processing method, image signal processing device, image display device using the same, and recording medium
JP4691814B2 (en) Information signal processing apparatus, information signal processing method, and recording medium
JP4310847B2 (en) Image information conversion apparatus and conversion method
JP4232430B2 (en) Image processing apparatus and method, recording medium, and program
JP4692801B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient information generating apparatus and generating method used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131214

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees