JP4767240B2 - 映像の境界を検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体 - Google Patents

映像の境界を検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体 Download PDF

Info

Publication number
JP4767240B2
JP4767240B2 JP2007279199A JP2007279199A JP4767240B2 JP 4767240 B2 JP4767240 B2 JP 4767240B2 JP 2007279199 A JP2007279199 A JP 2007279199A JP 2007279199 A JP2007279199 A JP 2007279199A JP 4767240 B2 JP4767240 B2 JP 4767240B2
Authority
JP
Japan
Prior art keywords
image
brightness
boundary
skellam
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007279199A
Other languages
English (en)
Other versions
JP2008171392A (ja
Inventor
ヨン バエ フワン
ジュン シク キム
イン ソウ ケヲン
Original Assignee
コリア アドバンスト インスティチュート オブ サイエンス アンド テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コリア アドバンスト インスティチュート オブ サイエンス アンド テクノロジー filed Critical コリア アドバンスト インスティチュート オブ サイエンス アンド テクノロジー
Publication of JP2008171392A publication Critical patent/JP2008171392A/ja
Application granted granted Critical
Publication of JP4767240B2 publication Critical patent/JP4767240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体の映像内の境界を検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体{METHOD FOR DETECTING EDGE OF AN IMAGE AND APPARATUS THEREOF AND COMPUTER READABLE MEDIUM PROCESSING THE METHOD}に関する。
一般的に、従来技術による被写体の映像内の境界を検出する装置は、カメラによって撮影された映像に存在する雑音を緩和させるために、撮影された映像に平坦化(Smoothing)過程を行う。この時、平坦化過程を経た映像内のラインが異なる。すなわち、平坦化過程を経た映像内の角ラインの位置が実際の角ラインの位置と異なるように表示される。また、従来技術による映像の境界検出装置は、映像に平坦化過程を行う時、雑音のみならず映像内の微細な変化(微細な境界)も除去した。
一方、従来技術による映像の境界検出装置は、映像に対する境界の程度を使用者が決めた値によって区分する。例えば、従来技術による映像の境界検出装置は、使用者が設定した映像の明るさや場面及びカメラの設定に従って映像に対する境界を検出した。
本発明は、映像に対して平坦化過程を行わずにその映像の雑音分布を検出して、検出された雑音分布に基づいて映像内の境界を速くて正確に検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体を提供することを目的とする。
前述したような目的を達成するための本発明による映像の境界検出方法は、被写体の映像の雑音分布を検出する段階と、前記検出された雑音分布に基づいて前記映像内の境界を検出する段階とで構成されることを特徴とする。
前述したような目的を達成するための本発明による映像の境界検出装置は、被写体の映像の雑音分布を検出する雑音検出部と、前記検出された雑音分布に基づいて前記映像内の境界を検出する境界検出部とで構成されることを特徴とする。
また、本発明による記録媒体は、被写体の映像の雑音分布を検出する段階と、前記検出された雑音分布に基づいて前記映像内の境界を検出する段階を行うプログラムが収録される。
このような記録媒体は、コンピューターシステムによって読み取れるようにプログラム及びデータが貯蔵される全ての種類の記録媒体を含む。例えば、ロム(Read Only Memory)、ラム(Random Access Memory)、CD(Compact Disk)、DVD(Digital Video Disk)−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ貯蔵装置などがあって、さらに、キャリアウエーブ(例えば、インターネットを通じた送信)の形での具現も含む。また、このような記録媒体は、ネットワークで連結されたコンピューターシステムの内部に分散されて、分散方式によってコンピューターが読み取れるコードで貯蔵され、実行される。
本発明の実施例による境界検出方法及びその装置と、これを具現するコンピューターで読み取れる記録媒体は、従来の境界検出方法に比べると、自動化されたシステムに適用するにおいて、卓然な性能の差を有している。
従来の境界検出方法を産業用システムに適用するにおいて、最もな問題は、場面や照明などの変化に従って使用者が境界検出の媒介変数を修正することである。
ところが、本発明の実施例による境界検出方法及びその装置は、図16に示したように、照明の変化にも従来の境界検出器に比べて、強靭な
結果を見せている。例えば、本発明の実施例による境界検出方法及びその装置は、非常に暗くて人が認知できない映像に対しても場面の構造が分かって、非常に明るくて従来の境界検出器では映像の雑音が除去できなかった映像に対しても効果的に雑音を除去している。
また、従来の境界検出方法は、図15Aないし図15Fに示したように、平坦化のレベルに従って角部分が実際とは異に、直線ではなく曲線の形態になる問題があった。ところが、本発明の実施例による境界検出方法及びその装置は、平坦化過程が根本的に不必要であるため、角部分でも正確な境界検出が可能になって、場面の正確な構造が分かるシステムの開発においても、効果的に使用される。
以下、映像に平坦化過程を行わずに映像の雑音分布を検出して、検出された雑音分布に基づいて映像内の境界を速くて正確に検出できる方法及びその装置の望ましい実施例を、図1ないし図16Dを参照して詳しく説明する。
図1は、本発明の実施例による映像の境界検出装置10の構成を示した図である。
図1に示したように、本発明の実施例による映像内の境界検出装置10は、被写体の映像(Image)内の雑音分布(Noise distribution)を検出する雑音検出部11と、検出された雑音分布に基づいて映像内の境界(Edge or boundary)を検出する境界検出部12とで構成される。ここで、映像内の境界検出方法及びその装置は、CCD(charge-coupled device)カメラに適用することもできる。
雑音検出部11は、映像の雑音媒介変数等(Noise parameters)と映像の明るさとの間の線形関係に従って雑音分布を推定して、推定された雑音分布を境界検出部12へと出力する。
境界検出部12は、推定された雑音分布に基づいて映像内の境界を検出して、検出された境界を表示部20を通じて外部に表示される。この時、表示部20は、最初の映像に対する境界映像を画面上に表示する。
以下、CCDカメラで撮影した被写体の映像内の境界検出の概念と境界検出の結果を図2A及び図2Bを参照して説明する。
図2A及び図2Bは、本発明の実施例による映像内の境界検出方法及びその装置を説明するための境界検出の概念と境界検出の結果を示した図である。すなわち、図2A及び図2Bは、映像内の境界検出が行われる概略的な説明と境界検出の結果を示している。
図2A及び図2Bに示したように、雑音の媒介変数等(Skellam parameter:u1)とパッチのサンプルの平均(sample mean of patch)、すなわち、明るさとの線形性によって各明るさでの雑音の分布を決めて、これに従って明るさの許容範囲を決める。例えば、各ピクセルで明るさによる雑音の分布を決めると、これによる明るさの許容範囲によってピクセル間の差が雑音に基づいているか、実際の場面の変化に基づいているかが判断される。
以下、明るさの差の雑音モデリングのためのスケルラム(Skellam)の分布を説明する。
各ピクセルの映像の明るさがポアソン(Poisson)分布に従うとする場合、観察時間の間隔T秒の間、p光子に対する確率(probability)分布は、第1式のようなポアソン分布になる。
Figure 0004767240
ここで、pは、単位秒当たり測定された光子の比率である。平均と標準偏差は、以下の第2式及び第3式のように与えられる。
Figure 0004767240
Figure 0004767240
光子の数がピクセルの明るさを決めるため、光子の雑音は、信号から独立的ではない。また、光子の雑音は、ガウス(Gaussian)でもなく、付加的でもない。第2式及び第3式のようにμは、T区間の間の光子の数を意味する。明るいピクセルでの光子の数が暗いピクセルでの数より多いというのは当然なことである。このような簡単な事実から、明るさが増加するによってμが増加することが予測できる。このような予測は、次のセクションで立証される。
仮に、μが充分に大きいと、ポアソン分布をガウス分布に近似化することができる。この場合、二つのガウスの差は、ガウスに従うので、明るさの差の分布もガウスになる。ところが、μが明るさによって異なる。これは、暗いピクセルでは、ガウスの近似化が崩れる可能性があることを意味する。
誤ったガウスの近似化から脱して明るさの差を示すために、ポアソン分布を直接的に使用した。二つのポアソン確率変数の差は、スケルラム分布で定義される。スケルラム分布の確率密集関数(probability mass function)は、二つのポアソン確率変数間の差を意味するkの関数であって、第4式のように示される。
Figure 0004767240
ここで、μ1とμ2は、二つのポアソン分布の平均や期待値を意味して、Ikは、ベッセル関数(modified Bessel function of the first kind)を意味する。
以下、スケルラム分布の確率密集関数の例を図3を参照して説明する。
図3は、スケルラム分布の確率密集関数の例を示した図である。
μ1=μ2の特別な場合に大きい値を有するμとkに対してスケルラム分布は、ガウス分布になる傾向がある。μとkは、暗い明るさのピクセルに対して充分大きい値を有しないため、スケルラムをガウスに近似化することができない。これを図4Aないし図4Dを参照して説明する。
図4Aないし図4Dは、μ1とμ2によるスケルラムとガウス分布を示した図である。
図4Aは、μ1=μ2=0.1、σ=0.2の時のスケルラムとガウス分布、
図4Bは、μ1=μ2=0.5、σ=1.0の時のスケルラムとガウス分布、
図4Cは、μ1=μ2=1.0、σ=2.0の時のスケルラムとガウス分布、
図4Dは、μ1=μ2=3.0、σ=6.0の時のスケルラムとガウス分布、
を示している。
従って、スケルラム分布の統計学を利用すると、明るさの差のスケルラム媒介変数を簡単に推正することができる。スケルラム分布の平均μsと分散σs 2は、第5式及び第6式のように与えられる。
Figure 0004767240
Figure 0004767240
ここで、第5式及び第6式によってμ1とμ2を第7式及び第8式のように直接的に得ることができる。
Figure 0004767240
Figure 0004767240
ここで、μsとσs 2は、静的な場面の映像から第9式及び第10式のように得ることができる。
Figure 0004767240
Figure 0004767240
ここで、xt(i,j)は、フレームtで位置(i、j)の明るさを意味して、nは、映像全体の数である。多様なカラーでスケルラム媒介変数を推正するために、Gretag-Macbeth ColorCheckerの静的な場面に対して10,000個の映像を獲得した。カメラは、Pointgrey Scorpionカメラを利用した。この時、図5Aないし図5Cは、推定結果(映像解像度:1600x1200、露出時間:1/15s)である。
図5Aないし図5Cは、10,000枚の静的な映像を利用してスケルラム(Skellam)パラメーター推定結果を示した図である。図5Aは、ブラックパッチ(Black patch)(24th patch)に対するスケルラムパラメーター推定結果、図5Bは、グレーパッチ(Gray patch)(21th patch)に対するスケルラムパラメーター推定結果、図5Cは、レッドパッチ(Red patch)(15th patch)に対するスケルラムパラメーター推定結果を示している。
すなわち、スケルラムの媒介変数は、各々のパッチごとに異なる。ブラックパッチでは低いスケルラム媒介変数を有して、グレーパッチでは高いスケルラム媒介変数を有する。
これは、μ1とμ2が獲得時間の間、CCD素子での光子の数という事実から期待される。
また、図5Aないし図5Cは、他の重要な検証を示している。すなわち、スケルラム(Skellam)モデリングによって明るさの差の分布を正確に推正することができる。これは、本発明で仮定した光子の雑音が支配的であることを意味する。
図5Aないし図5Cに示したように、スケルラムモデリングを一般化させるために単一映像から雑音を推正する。本発明では、各々のピクセルが空間的ドメインから相互に独立的であると仮定した。これは、雑音の分布が空間的ドメインと時間的ドメインで同一であることを意味する。仮定を立証するために、空間的ドメインと時間的ドメインでの雑音分布を比較した。時間的ドメインでのモデリングの結果は、第9式と図10式によって得ることができる。空間的ドメインでの雑音をモデリングするために、カラーパターンの映像から単色のカラーパッチを選択した。このパッチ等を利用して空間的ドメインでの雑音モデリングを次の第11式及び第12式から得ることができる。
Figure 0004767240
Figure 0004767240
ここで、「(i,j)∈P」は、パッチでの全ての点を意味して、dx、dyは、水平方向及び垂直方向への不一致(disparity)を意味する。nは、パッチでのピクセル全体の数である。
以下、空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を図6Aないし図6Dを参照して説明する。
図6Aないし図6Dは、空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を示した図である。
図6Aは、オレンジパッチ(Orange)(7th patch)に対する空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果、図6Bは、ブルーパッチ(Blue)(13th patch)に対する空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果、図6Cは、グリーンパッチ(Green)(14th patch)に対する空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果、図6Dは、中間グレー(Medium Gray)(22th patch)に対する空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を示している。
ここで、空間的ドメイン及び時間的ドメインでのモデリングに使用されたカメラは、Pointgrey Scorpionカメラ(映像解像度:1600x1200、露出時間:1/7.5s)である。
図6Aないし図6Dに示したように、空間的ドメイン及び時間的ドメインでのスケルラム媒介変数は、殆ど同一であることを立証することができる。これは、明るさの差がエルゴード(ergodic)過程を見せている。不一致(disparity)が、1の時のスケルラム媒介変数が異なる推定結果よりさらに小さい。これがピクセル値の圧縮に基づいていると判断した。HITACHI HV-F22のような非圧縮RGB出力が可能なカメラでテストした時、このような現象がないことを確認した。空間的ドメインと時間的ドメインの結果の間に少しの差があるが、これは、時間的ドメインで分布を推正する時、パッチのうちの一つのピクセルのみを選択したからである。パッチからどのピクセルを選択したかによってスケルラム媒介変数の少しの変動があり得る。この実験では、水平方向の不一致、dxを1から10まで増加させたが、垂直方向の不一致も同一な結果を有する。提案したモデリング体系がエルゴード性(ergodicity)を満足するので、提案したモデリングを単一映像に対して適用することができる。
以下、スケルラム媒介変数を使用して、雑音統計値を推正する方法を説明する。
スケルラムモデリングは、時間的ドメインのみならず空間的ドメインにも適用できるが、ピクセルの明るさに対応する正確なスケルラム媒介変数が分かるように映像の明るさとスケルラム媒介変数間の線形性を利用する。
図7Aないし図7Cは、パッチのサンプルの平均とスケルラム媒介変数間の線形性を示した図である。すなわち、本発明では、映像のスケルラム媒介変数と明るさの間の線形関係によって映像の雑音分布を推正する。
図7Aは、レッドチャンネル(R channel)に対する映像のスケルラム媒介変数と明るさの間の線形関係、図7Bは、グリーンチャンネル(G channel)に対する映像のスケルラム媒介変数と明るさの間の線形関係、図7Cは、ブルーチャンネル(B channel)に対する映像のスケルラム媒介変数と明るさの間の線形関係を示している。ここで、単一ピクセルからは、平均と分散の意味ある統計値の抽出が難しいので、映像の明るさとスケルラム媒介変数の間の連関関係を見せるために、パターン映像を10,000枚獲得した。
図7Aないし図7Cに示したように、各パッチでの決められた位置でピクセル等のサンプルの平均に関するスケルラム媒介変数の散点度及び、サンプルの平均とスケルラム媒介変数の線形的関係を見せている。また、サンプルの平均とスケルラム媒介変数の線形関係に対応するラインを明るさ−スケルラムライン(Intensity-Skellam line)と言う。仮に、ピクセル値がサンプルの平均に近似化されて明るさ−スケルラムラインを有する傾向がある場合、スケルラム媒介変数を推正することができる。図7Aないし図7Cでの直線は、カメラの振幅利得(gain)のみに変化して、場面や照明には変化しない。また、明るさ−スケルラムラインを一度決めると、振幅利得が固定されている限り、変化なしにこの直線を使用することができる。
以下、与えられた二つの静的映像での明るさ−スケルラムラインを推正する方法を説明する。
映像のスケルラム媒介変数と明るさの値のペアを有すると、このペアに当たるラインを得ることができる。仮に、時間的ドメインで特定ピクセルのスケルラム媒介変数を得るとすると、計算される統計値が充分に安定するように、少なくとも10,000枚の映像を必要とする。ところが、室内、室外の環境でこの程度の静的映像を獲得することは非実用的である。
本発明では、必要な静的映像の数を2枚に減少できるように、明るさ−スケルラムラインの推定方法を提供する。これは、10,000枚の映像を獲得するよりさらに実用的である。映像での各ピクセルが相互に独立的である場合、二つの映像での対応するピクセル等の明るさの差を時間的ドメインでの明るさの差の集合であると看做される。従って、任意の明るさでのスケルラム媒介変数を推正するための十分なピクセル等を有するようになる。一つのチャンネルに対する線推定アルゴリズムは、次のようになる。
1.1番目のフレームで明るさのヒストグラムを得て、地域最大値(local maxima)を捜す。
m 1,m=0,1,...,M
2.地域最大値の周辺で第13式を満足する二つのフレームの対応するピクセ等の集合を捜す。
Figure 0004767240
3.各々のXmに対して集合スケルラム分布の平均と分散を第14式及び第15式と計算する。
Figure 0004767240
Figure 0004767240
4.第7式と第8式からスケルラム媒介変数、μ1とμ2を計算する。
5.一般的なRANSAC(RANdom SAmple Consensus)方法を使用して
(xm 1,μ1)と(xm 1,μ2)のペアに二つのラインを推正する。
パターン映像に対する2枚の実際の映像を獲得して、アルゴリズムに対する実験を行った。カラーパターンの映像を獲得したのは、多数の静的映像から実際の値(ground truth)に近い明るさ−スケルラムラインを求めて比べるためである。
以下、Rチャンネルでの明るさのヒストグラムと検出された地域最大値を図7を参照して説明する。
図8は、Rチャンネルでの明るさのヒストグラムと検出された地域最大値を示した図である。
図8に示したように、地域最大値から明るさとスケルラム媒介変数のペアを得ることができる。ここで、εの値は、1とした。また、RANSACを通じて明るさ−スケルラムラインを決めた。
以下、時間的ドメインで明るさ−スケルラムラインの推定結果を図9Aないし図9Cを参照して説明する。
図9Aないし図9Cは、各チャンネルでの明るさ−スケルラムラインの推定結果を示した図である。
図9Aは、Rチャンネルでの明るさ−スケルラムラインの推定結果、図9Bは、Gチャンネルでの明るさ−スケルラムラインの推定結果、図9Cは、Bチャンネルでの明るさ−スケルラムラインの推定結果を示している。ここで、明るさ−スケルラムラインの比較のため、10,000枚の静的映像から得た直線を示している。すなわち、推定された明るさ−スケルラムラインは、実際の値に比べる時、正確な結果を有する。明るさ−スケルラムラインを得る時に利用されたペアが殆ど推定されたラインの周辺にあるため、数の少ないペアを利用しても明るさ−スケルラムラインを得ることができる。
以下、単一映像での明るさ−スケルラムラインを推正する方法を説明する。
明るさ−スケルラムラインを推正するためには、少なくとも2枚の静的映像を必要とする。ところが、コンピュータービジョンでは、特徴点の抽出や映像分割のような単一映像を利用する分野がある。エルゴード(ergodic)の特徴に基づいて時間的ドメインの代わりに空間的ドメインでのサンプルを集めることができる。単一カラーを有するパッチを捜すと、その時のサンプルの平均に当たるスケルラム媒介変数を計算することができる。
また、本発明では、スケルラム媒介変数の特性を利用して適切なパッチを捜す。スケルラム(Skellam)平均は、第11式のように周辺のピクセルの明るさの差の平均で計算される。仮に、周辺のピクセル間にカラーが変化する部分がある場合、これは、スケルラム平均の変化をもたらす。これを図10A及び図10Bを参照して説明する。
図10A及び図10Bは、境界線でのスケルラム媒介変数の変化を示した図である。
図10A及び図10Bに示したように、境界線でのスケルラム媒介変数の変化を示すために、赤−黒の変化パッチを通じて実験を行った。すなわち、パッチが右側に移動(X position)するに従ってパッチが変化する部分を有する時、 スケルラム媒介変数が大きくなる。
映像が方向性を有する照明の条件で獲得されると、単一色のカラーを有するとしても、パッチでのスケルラム平均が少しずつ移動される。これを考慮するために、先ず、スケルラム平均のヒストグラムを得る。スケルラム平均のヒストグラムで最高点を捜して、この平均の移動現象を考慮する。照明が上の方向に位置しているが、実験上でスケルラム媒介変数の平均は、殆ど移動しなかった。
図11A及び図11Bは、スケルラム媒介変数間の差に対するヒストグラムを示した図である。すなわち、図11Bは、図11Aの入力映像に対するスケルラム平均のヒストグラムを示している。
図11A及び図11Bに示したように、最高点が簡単に捜せて、最高点周辺のスケルラム平均を有するパッチを利用した。パッチの明るさとスケルラム媒介変数のペアは、スケルラム媒介変数の変化のため、単一直線上に位置しない。さらに、フィルタリングされないことを特徴とする。
本発明では、直線を推正するために簡単なRANSACアルゴリズムを適用した。パッチの分布が殆ど中心に存在するので、直線が捜し易い。従って、パッチは、時間を短縮させるため任意に19×19のパッチ1000個を選択した。
図12Aないし図12Cは、単一映像で映像の明るさとスケルラムラインの推定結果を示した図である。すなわち、このような推定結果から提案された雑音モデリングを単一映像に対応することができる。
以下、明るさの許容範囲(Intensity allowance)を決める方法を説明する。
各々の明るさの値に対してスケルラム媒介変数を有するため、スケルラム媒介変数に従って正確な分布を有するようになる。この分布に基づいてセンサー雑音によって発生する明るさの変化の許容範囲を決める。明るさの許容範囲を決める方法は、与えられた信頼区間に対して仮説を検証することである。
仮説を検証するために、累積分布関数(cumulative distribution function)
を有するべきである。スケルラム分布の確率密集関数が定数に対してのみ定義されているため、累積分布関数を第16式のように計算することができる。
Figure 0004767240
臨界値(critical value)Iに対する採択域(acceptance region)は、第17式のようになる。
Figure 0004767240
明るさの許容範囲IAは、第18式のようになる。
Figure 0004767240
図13に示したように、αは、(1−α)*100%の信頼区間を有するための実際の棄却率(true rejection rate)を意味するI型エラーの大きさである。
図13は、与えられた確率密度関数の明るさの許容範囲を示した図である。ここで、1−αは、実線の長さの合、αは、点線の長さの合である。
以下、前述した雑音モデリングを境界検出に適用させる方法を説明する。
明るさの許容範囲を直接適用して境界検出に提案した雑音モデリングを適用する。
一般的な映像の境界検出方法及び装置は、映像雑音を軽減するために、前処理としてガウスカーネルによって映像を平坦化するが、本発明の実施例による雑音モデリングに基づいた境界検出方法及びその装置は、センサー雑音による明るさの変化の範囲を正確に分かるため、映像を平坦化させる必要がない。
本発明の実施例による雑音モデリングに基づいた境界検出方法及びその装置は、ガウス平坦化をしない代わりに、詳細な境界を捜すのみならず映像での雑音も軽減させることができる。
以下、映像内の境界を検出する方法と後処理過程を説明する。
スケルラム分布を利用して、雑音推定に基づいた正確な明るさの許容範囲を有するため、映像内の境界を簡単に検出することができる。すなわち、映像内の境界を検出する方法は、連続される映像での変化の検出方法と大変類似している。
例えば、境界検出部12は、隣接するピクセル等の差が明るさの許容範囲内にある場合、境界がないと判断して、隣接するピクセル等の差が明るさの許容範囲内にない場合、実際の場面でカラーの変化があるので、境界があると判断する。水平方向と垂直方向での境界の程度は、第19式及び第20式のように定義される。
Figure 0004767240
Figure 0004767240
ここで、IAは、ピクセルでの明るさの許容範囲を意味し、cは、RGBカラーの空間での赤色、緑色、青色のカラーチャンネルを意味して、x(i、j)は、映像の位置(i、j)でのピクセル値を意味する。境界の程度は、明るさの許容範囲から明るさの正規化された距離を測定する。全ての水平方向、垂直方向の境界の程度が負数である場合、そのピクセルは、エッジではないピクセルとして看做されて、負数でない場合、全ての垂直方向、水平方向の境界の程度を足す。結果的に、一つのピクセルで境界全体の程度は、第21式のようなる。
Figure 0004767240
この境界の程度は、センサー雑音による境界の程度を先行的に軽減する。
境界の程度が全てのピクセルに対して計算されると、実際の境界が単一直線になるように非最大軽減(nonmaximum suppression)を行う。最も使用されるキャニーエッジ(Canny edge)では、非最大軽減以後、境界を連結するためにヒステリシス分類をするための二つの値を必要とする。
ところが、本発明では、明るさの差が雑音の分布によって決められた明るさの許容範囲を超過するため、0ではない境界の程度は、既に境界ピクセルと看做している。
以下、本発明の実施例による映像の境界検出結果を図14Aないし図14F及び図15Aないし図15Fを参照して説明する。
図14Aないし図14Fは、本発明の実施例による映像の境界検出結果と キャニー(Canny)境界検出器の境界検出結果を比較して示した第1例示図である。
本発明の実施例による境界検出装置をMATLABで提供したキャニー境界検出器と比較した。ここで、本発明の実施例による境界検出装置は、信頼区間の一つの媒介変数のみを有する。
図14Aないし図14Fに示したように、キャニー境界検出器は、ガウス平坦化のスケール、ヒステリシス連結のための高い臨界値と低い臨界値の三種類の媒介変数を有している。この値を決めるのは、場合によって敏感であって、性能に大きい影響を与える。三種類の結果全てガウス平坦化のスケールは固定して、図14Dのように、自動の臨界値、図14Eのように、低い臨界値、図14Fのように、高い臨界値で設定した。
本発明の境界検出装置は、三種類のキャニー境界検出器を超える性能を有する。
低い臨界値または自動の臨界値によるキャニー境界検出器の結果に比べて本発明の境界検出結果は、誤って検出された境界の殆どを軽減させた。さらに、低い臨界値の結果に比べて、相対的に正確な細部を有している。これは、推定された雑音の分布によって各ピクセルが臨界値を異なるように決めるからである。
図15Aないし図15Fは、本発明の実施例による映像の境界検出結果と キャニー境界検出器の境界検出結果を比較して示した第2例示図である。
図15Aないし図15Fに示したように、キャニー境界検出器でガウス平坦化のスケールを変化させた時の境界検出結果を有する。キャニー(Canny)の臨界値は、MATLABから自動的に選択された。
本発明は、境界の位置の推定がよく保存されたが、キャニー境界検出器では、映像雑音による予測できなかった境界を軽減するに十分な程度の高いスケールの平坦化によって位置推定が完全にできなかった。
以下、多様な照明の変化による境界検出結果を図16Aないし図16Dを参照して説明する。
図16Aないし図16Dは、多様な照明の変化による境界検出結果を示した図である。
図16Aないし図16Dに示したように、キャニー境界検出器と本発明の境界検出結果は、正規化された境界程度を見せている。暗い映像に対してキャニー境界は、低い臨界値であっても境界が捜せなかったが、本発明は、微細な境界が捜せる。明るい入力映像に対しては、普通の照明の映像での結果に類似している反復的な境界を得ることができる。ところが、キャニー境界検出器は、単一色の部分で発生する誤警報が軽減できない。
従って、本発明の実施例による映像内の境界検出方法及びその装置は、多様な照明の変化に対しても高い反復な性能を見せている。
本発明が属する技術分野で通常の知識を有する者なら、本発明の本質的な特性から脱しない範囲内で、多様な修正及び変形ができる。従って、前述した実施例は、本発明の技術的思想に限られるのではない。
本発明の保護範囲は、請求範囲によって解釈されて、これと同等な範囲内にある全ての技術的思想は、本発明の権利範囲に含まれると解釈されるべきである。
本発明の実施例による映像の境界検出装置の構成を示した図である。 本発明による映像の境界検出の概念を示した図である。 本発明による映像の境界検出結果を示した図である。 スケルラム分布の確率密集関数の例を示した図である。 μ1とμ2によるスケルラムとガウス分布を示した図である。 μ1とμ2によるスケルラムとガウス分布を示した図である。 μ1とμ2によるスケルラムとガウス分布を示した図である。 μ1とμ2によるスケルラムとガウス分布を示した図である。 静的な映像を利用してスケルラムパラメーター推定結果を示した図である。 静的な映像を利用してスケルラムパラメーター推定結果を示した図である。 静的な映像を利用してスケルラムパラメーター推定結果を示した図である。 空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を示した図である。 空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を示した図である。 空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を示した図である。 空間的ドメイン及び時間的ドメインでのモデリングの結果に対する比較結果を示した図である。 パッチのサンプルの平均及びスケルラム媒介変数間の線形性を示した図である。 パッチのサンプルの平均及びスケルラム媒介変数間の線形性を示した図である。 パッチのサンプルの平均及びスケルラム媒介変数間の線形性を示した図である。 Rチャンネルに対する明るさのヒストグラム及び地域最大値を示した図である。 Rチャンネルでの明るさ−スケルラムラインの推定結果を示した図である。 Gチャンネルでの明るさ−スケルラムラインの推定結果を示した図である。 Bチャンネルでの明るさ−スケルラムラインの推定結果を示した図である。 赤−黒パッチの単一映像を示した図である。 赤−黒パッチの単一映像の境界線に対するスケルラム媒介変数の変化を示した図である。 入力映像を示した図である。 入力映像に対するスケルラム平均のヒストグラムを示した図である。 入力映像に対する映像の明るさ及びスケルラムラインの推定結果を示した図である。 入力映像に対する映像の明るさ及びスケルラムラインの推定結果を示した図である。 入力映像に対する映像の明るさ及びスケルラムラインの推定結果を示した図である。 与えられた確率密度関数の明るさの許容範囲を示した図である。 入力映像を示した図である。 本発明による映像の境界検出結果を示した図である。 本発明による映像の境界検出結果を示した図である。 キャニー境界検出器の境界検出結果を示した第1例示図である。 キャニー境界検出器の境界検出結果を示した第1例示図である。 キャニー境界検出器の境界検出結果を示した第1例示図である。 入力映像を示した図である。 本発明による映像の境界検出結果を示した図である。 本発明による映像の境界検出結果を示した図である。 キャニー境界検出器の境界検出結果を示した第2例示図である。 キャニー境界検出器の境界検出結果を示した第2例示図である。 キャニー境界検出器の境界検出結果を示した第2例示図である。 多様な照明の変化による入力映像を示した図である。 入力映像に対するキャニー境界検出結果を示した図である。 入力映像に対するキャニー境界検出結果を示した図である 入力映像に対する本発明による映像の境界検出結果を示した図である。
符号の説明
11:雑音検出部
12:境界検出部

Claims (13)

  1. 被写体の映像の雑音分布を検出する段階と、前記検出された雑音分布に基づいて映像の明るさの許容範囲を決定する段階と、前記検出された雑音分布に基づいて前記映像内の境界を検出する段階とを含む、映像の境界検出方法であって、
    前記雑音分布を検出する段階は、
    スケルラム(Skellam)媒介変数からなる前記映像の雑音媒介変数と、前記映像の明るさと、との線形性に基づいて前記雑音分布を算出し、
    前記明るさの許容範囲を決定する段階は、
    前記雑音分布に基づき、与えられた信頼区間に対して累積分布関数を用いて仮説を検証することによって、明るさの許容範囲を決定し、
    前記境界を検出する段階は、
    前記映像の隣接したピクセル間の明るさの差が明るさの許容範囲内に属する時、前記映像内の境界がないと判断して、
    前記映像の隣接したピクセル間の明るさの差が前記明るさの許容範囲内に属しない時、前記映像内の境界があると判断する、
    ことを特徴とする、映像の境界検出方法。
  2. 前記雑音媒介変数は、二つの静的な映像の同一な明るさを有するピクセルの集合のスケルラム媒介変数と明るさの値のペアから検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出方法。
  3. 前記雑音媒介変数は、前記映像のスケルラム分布のエルゴード特性を通じて前記映像内の色相が均一なパッチで検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出方法。
  4. 前記雑音媒介変数は、前記映像の雑音媒介変数と前記映像の明るさの間の線形性に基づいて前記映像の各ピクセルの赤色R、緑色G、青色Bに対して各々検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出方法。
  5. 前記雑音媒介変数は、前記映像の雑音媒介変数と前記映像の明るさの間の検出された関係に基づいて、前記映像の各ピクセルのRGBに対して各々検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出方法。
  6. 前記映像の一つのピクセルに対する境界の程度e(i,j)は、
    Figure 0004767240
    Figure 0004767240
    Figure 0004767240
    の式によって計算されて、ここで、前記IAは、前記映像のピクセルでの明るさの許容範囲であって、cは、カラー空間でのRGBチャンネルであり、x(i,j)は、映像の位置(i,j)でのピクセル値であることを特徴とする請求項1に記載の映像の境界検出方法。
  7. 請求項1ないし請求項のいずれかの請求項の方法を行うプログラムが収録されたコンピューターで読み取れることを特徴とする記録媒体。
  8. 被写体の映像の雑音分布を検出する雑音検出部と、前記検出された雑音分布に基づいて映像の明るさの許容範囲を決定し、前記明るさの許容範囲に基づいて前記映像内の境界を検出する境界検出部とを含む、映像の境界検出装置であって、
    前記雑音検出部は、
    スケルラム(Skellam)媒介変数からなる前記映像の雑音媒介変数と、前記映像の明るさと、との線形性に基づいて前記雑音分布を算出し、
    境界検出部は、
    前記雑音分布に基づき、与えられた信頼区間に対して累積分布関数を用いて仮説を検証することによって、明るさの許容範囲を決定し、
    前記映像の隣接したピクセル間の明るさの差が明るさの許容範囲内に属する時、前記映像内の境界がないと判断して、
    前記映像の隣接したピクセル間の明るさの差が前記明るさの許容範囲内に属しない時、前記映像内の境界があると判断する、
    ことを特徴とする、映像の境界検出装置。
  9. 前記雑音媒介変数は、前記映像の雑音媒介変数と前記映像の明るさの間の検出された関係に基づいて前記映像の各ピクセルのRGBに対して各々検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出装置。
  10. 前記雑音媒介変数は、二つの静的な映像の同一な明るさを有するピクセルの集合のスケルラム媒介変数と明るさの値のペアから検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出装置。
  11. 前記雑音媒介変数は、前記映像のスケルラム分布のエルゴード特性を通じて前記映像内の色相が均一なパッチで検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出装置。
  12. 前記雑音媒介変数は、前記映像の雑音媒介変数と前記映像の明るさの間の線形性に基づいて前記映像の各ピクセルのRGBに対して各々検出されたスケルラム媒介変数であることを特徴とする請求項に記載の映像の境界検出装置。
  13. 前記映像の一つのピクセルに対する境界の程度e(i,j)は、
    Figure 0004767240
    Figure 0004767240
    Figure 0004767240
    の式によって計算されて、ここで、前記IAは、前記映像のピクセルでの明るさの許容範囲であって、cは、カラー空間でのRGBチャンネルであり、x(i,j)は、映像の位置(i,j)でのピクセル値であることを特徴とする請求項に記載の映像の境界検出装置。
JP2007279199A 2007-01-15 2007-10-26 映像の境界を検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体 Active JP4767240B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070004262A KR100835380B1 (ko) 2007-01-15 2007-01-15 영상의 경계를 검출하는 방법 및 그 장치와 이를 구현할 수있는 컴퓨터로 읽을 수 있는 기록 매체
KR10-2007-0004262 2007-01-15

Publications (2)

Publication Number Publication Date
JP2008171392A JP2008171392A (ja) 2008-07-24
JP4767240B2 true JP4767240B2 (ja) 2011-09-07

Family

ID=39473258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007279199A Active JP4767240B2 (ja) 2007-01-15 2007-10-26 映像の境界を検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体

Country Status (4)

Country Link
US (1) US8121431B2 (ja)
EP (1) EP1944730A3 (ja)
JP (1) JP4767240B2 (ja)
KR (1) KR100835380B1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8420996B2 (en) * 2009-12-23 2013-04-16 Nokia Corporation Intensity estimation using binary sensor array with spatially varying thresholds
CN101950418B (zh) * 2010-08-26 2012-08-08 北京中创信测科技股份有限公司 一种图像质量评价方法和装置
KR101305405B1 (ko) * 2011-03-23 2013-09-06 (주)하기소닉 측면의 랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법
KR101931332B1 (ko) * 2012-06-29 2018-12-20 삼성전자주식회사 영상의 노이즈 제거 장치 및 방법
KR101207220B1 (ko) 2012-10-17 2012-12-04 국방과학연구소 고해상도 sar 진폭 영상의 경계선 정밀 추출 방법
US8971626B1 (en) * 2013-06-06 2015-03-03 The United States Of America As Represented By The Secretary Of The Navy Systems, methods, and articles of manufacture for generating an equalized image using signature standardization from Weibull space
US9904772B2 (en) * 2013-12-02 2018-02-27 Samsung Electronics Co., Ltd. Screening solid state ionic conductors for high ionic conductivity
KR102320824B1 (ko) * 2013-12-02 2021-11-03 삼성전자주식회사 입자들의 특성을 분석하는 방법 및 장치
CN106461464B (zh) * 2014-05-13 2018-04-20 柯尼卡美能达株式会社 测色装置以及测色方法
US10575789B2 (en) * 2014-12-05 2020-03-03 Ricoh Co., Ltd. Random forest based erythema grading for psoriasis
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
CN107223266B (zh) * 2017-04-27 2020-07-07 香港应用科技研究院有限公司 用于边缘检测的分数阶微分算子的核近似
US10210616B2 (en) * 2017-04-27 2019-02-19 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Kernal approximation on fractional differential operator for edge detection
CN110245668B (zh) * 2018-03-09 2023-06-27 腾讯科技(深圳)有限公司 基于图像识别的终端信息获取方法、获取装置及存储介质
US10970331B2 (en) * 2018-09-12 2021-04-06 International Business Machines Corporation Determining contextual confidence of images using associative deep learning
KR20210067021A (ko) * 2019-11-29 2021-06-08 한국전자기술연구원 Skellam 분포를 이용한 ToF 카메라 영상의 노이즈 모델링 방법 및 장치
CN111325802B (zh) * 2020-02-11 2023-04-25 中国空气动力研究与发展中心低速空气动力研究所 一种直升机风洞试验中圆形标记点识别匹配方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096957A (ja) * 1995-06-23 1997-01-10 Toshiba Corp 濃度画像の2値化方法および画像2値化装置
KR19980013760U (ko) * 1996-08-31 1998-06-05 배순훈 영상잡음 제거장치
KR19990004749A (ko) * 1997-06-30 1999-01-25 배순훈 윤곽 보정 방법 및 이를 수행하기 위한 윤곽 보정 회로
US6094508A (en) * 1997-12-08 2000-07-25 Intel Corporation Perceptual thresholding for gradient-based local edge detection
JP2003067757A (ja) 2001-08-30 2003-03-07 Casio Comput Co Ltd エッジ抽出装置、エッジ抽出方法およびエッジ抽出プログラム
US6933983B2 (en) * 2001-09-10 2005-08-23 Jaldi Semiconductor Corp. System and method for reducing noise in images
KR100485594B1 (ko) * 2004-08-26 2005-04-27 (주) 넥스트칩 영상에서의 잡음을 제거하기 위한 잡음 처리 방법 및 그시스템
US20060165292A1 (en) * 2005-01-26 2006-07-27 Xerox Corporation. Noise resistant edge detection
JP4496106B2 (ja) * 2005-02-28 2010-07-07 株式会社東芝 画像処理装置及び画像処理方法
JP2007140684A (ja) * 2005-11-15 2007-06-07 Toshiba Corp 画像処理装置、方法、プログラム

Also Published As

Publication number Publication date
EP1944730A3 (en) 2012-09-19
US8121431B2 (en) 2012-02-21
EP1944730A2 (en) 2008-07-16
KR100835380B1 (ko) 2008-06-05
US20080170796A1 (en) 2008-07-17
JP2008171392A (ja) 2008-07-24

Similar Documents

Publication Publication Date Title
JP4767240B2 (ja) 映像の境界を検出する方法及びその装置とこれを具現するコンピューターで読み取れる記録媒体
Lin et al. Determining the radiometric response function from a single grayscale image
US8149336B2 (en) Method for digital noise reduction in low light video
US8472744B2 (en) Device and method for estimating whether an image is blurred
JP7262021B2 (ja) 奥行取得装置、奥行取得方法およびプログラム
US10452922B2 (en) IR or thermal image enhancement method based on background information for video analysis
US9129188B2 (en) Image processing apparatus and control method thereof
US8189913B2 (en) Method for detecting shadow of object
Kim et al. A novel approach for denoising and enhancement of extremely low-light video
KR101664123B1 (ko) 필터링에 기반하여 고스트가 없는 hdri를 생성하는 장치 및 방법
JP2004522372A (ja) 時空間適応的雑音除去/高画質復元方法及びこれを応用した高画質映像入力装置
KR100791391B1 (ko) 노이즈 저감 방법 및 장치
US8355064B2 (en) Noise reduction for machine vision systems
JP2008523454A (ja) 背景領域および前景領域をモデリングする方法
WO2015070723A1 (zh) 眼部图像处理方法和装置
US10497107B1 (en) Method, computer program product and computer readable medium for generating a mask for a camera stream
Tico et al. Image enhancement method via blur and noisy image fusion
US20120075505A1 (en) Camera noise reduction for machine vision systems
Chen et al. Hybrid saliency detection for images
CN105809677B (zh) 一种基于双边滤波器的图像边缘检测方法及***
Sonawane et al. Image quality assessment techniques: An overview
Maalouf et al. Offline quality monitoring for legal evidence images in video-surveillance applications
KR101267279B1 (ko) 영상에서 비를 제거하기 위한 영상 처리 장치 및 방법
Guthier et al. Algorithms for a real-time HDR video system
TWI751460B (zh) 增強藉由熱像儀捕獲之影像之變化的方法、裝置及系統

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100928

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101007

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101026

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110614

R150 Certificate of patent or registration of utility model

Ref document number: 4767240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250