JP5362130B2 - イメージ処理方法及びそのための装置 - Google Patents

イメージ処理方法及びそのための装置 Download PDF

Info

Publication number
JP5362130B2
JP5362130B2 JP2012556997A JP2012556997A JP5362130B2 JP 5362130 B2 JP5362130 B2 JP 5362130B2 JP 2012556997 A JP2012556997 A JP 2012556997A JP 2012556997 A JP2012556997 A JP 2012556997A JP 5362130 B2 JP5362130 B2 JP 5362130B2
Authority
JP
Japan
Prior art keywords
image
image processing
feature
vector length
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012556997A
Other languages
English (en)
Other versions
JP2013511109A (ja
Inventor
スンヨン イ
ユンジン イ
ミンジョン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Academy Industry Foundation of POSTECH
Original Assignee
Academy Industry Foundation of POSTECH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Academy Industry Foundation of POSTECH filed Critical Academy Industry Foundation of POSTECH
Publication of JP2013511109A publication Critical patent/JP2013511109A/ja
Application granted granted Critical
Publication of JP5362130B2 publication Critical patent/JP5362130B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Description

本発明は、イメージ処理方法及びそのための装置に関し、より詳しくは、ストラクチャグリッドを用いてイメージを処理する方法及びそのための装置に関する。
ヘッドカットは、表現しようとする対象の特徴的な流れに沿って所定間隔に大きさの異なる点や線を並べて、対象を表現する芸術的な技法である。このようなヘッドカットは木板感覚の絵を描くために開発されており、特に新聞や雑誌などのような印刷媒体において肖像画を表現する場合に多く用いられている。また、ヘッドカットは表現しようとする対象を点や線に表現するので、そのスタイルが魅力的であって、それにより、印刷媒体は勿論、より多様な分野において活用されている。しかしながら、限られているアーティストの数では、ヘッドカットが手作業であるため長時間が必要であり、すべての分野において幅広く用いられることに無理があった。
このようなヘッドカットの特性は、対象となるトーンを表現するために大きさの異なる点や線を用い、このような点や線は対象の特徴的な方向に沿って並べられ、並べられた点や線などは、ある程度の所定間隔をもって配置され、さらに一枚のヘッドカット映像においても、これらの点や線が違和感なく混在して用いられる。これまでの研究では、そのような特徴をすべて満足するヘッドカット生成方法はなく、スティプリング(stippling)、ハッチング(hatching)が最も関連の深い研究である。
しかし、これらの方法は、ヘッドカットの特徴である対象のトーンを表現するために、大きさの異なる点や線を対象の特徴的な方向に沿って並べられ、その並べられた点や線などをある程度所定間隔をもって配置して生成されたヘッドカットの特徴に十分満足できないという問題があった。
上記のような問題点を解決するための本発明の第1の目的は、ストラクチャグリッドを用いてイメージを処理する装置を提供することである。
上記のような問題点を解決するための本発明の第2の目的は、ストラクチャグリッドを用いてイメージを処理する方法を提供することである。
本発明の第1の目的を達成するための本発明の一実施形態によるイメージ処理装置は、映像撮影機器により撮影したイメージ映像の特徴ピクセル及び前記特徴ピクセルの方向情報を用いて前記イメージ映像の形象を表現することができるベクトル長を生成する第1生成部と、前記ベクトル長を用いて前記イメージ映像の形象をレンダリングする構造を示すストラクチャグリッドを生成する第2生成部と、前記生成されたストラクチャグリッド上において所定のトーンを表現するプリミティブをレンダリングするレンダリング部、とを含んで構成することができる。
本発明の第2の目的を達成するための本発明の一実施形態によるイメージ処理方法は、映像撮影機器により撮影したイメージ映像の特徴ピクセル及び前記特徴ピクセルの方向情報を用いて前記イメージ映像の形象を表現することができるベクトル長ベクトル長を生成する段階と、前記ベクトル長を用いて前記イメージ映像の形象をレンダリングする構造を示すストラクチャグリッドを生成する段階と、前記生成されたストラクチャグリッド上において所定のトーンを表現するプリミティブをレンダリングする段階と、を含んで構成することができる。
このような本発明によるイメージ映像からアーティストが描いたものと同様な映像を生成する方法及びこれを実行する装置を用いた場合、一枚のイメージ映像から短時間に自動的に結果映像を生成することができる。これは、数限定のヘッドカットアーティストが長時間にかけて一枚のヘッドカットを完成していた限界から逸脱され誰でも写真一枚で容易にヘッドカットを生成することができる。
また、本発明のために定義された特徴ベクトル長、ストラクチャグリッド、プリミティブレンダリング方法などは、それぞれ独立的にも多様な映像処理技法として活用されることができる。特徴ベクトル長の生成は、映像の一部に定義された方向情報を反映しながら映像全体にかけてやさしく変化するベクトル長を生成して、方向を基盤とする多様な映像処理方法として活用されることができる。ストラクチャグリッドは映像でベクトル長に沿って所定間隔に繰り返されるストライプパターン、または複数のストライプパターンを重ねて生成する格子など、多様なパターンを生成することで、流れの視覚化など多くの分野に活用されることができる。ストラクチャグリッドを用いたレンダリング方法は、ピクセルを基盤に短時間に点や線など基礎的なプリミティブをレンダリングする基盤となれる。
図1は、本発明の一実施形態によるイメージ処理装置の内部構造を示すブロック図である。 図2は、本発明の一実施形態によるイメージ処理装置の第1生成部がベクトル長を生成する過程を説明するための例示図である。 図3は、本発明の一実施形態によるイメージ処理装置の第2生成部がストラクチャグリッドを生成する過程を説明するための例示図である。 図4は、本発明の一実施形態によるイメージ処理装置の第2生成部がストラクチャグリッドを生成する過程を説明するための例示図である。 図5は、本発明の一実施形態によるイメージ処理装置の第2生成部がストラクチャグリッドを生成する過程を説明するための例示図である。 図6は、本発明の一実施形態によるイメージ処理装置のレンダリング部がプリミティブレンダリングする例示図である。 図7は、本発明の一実施形態によるイメージ処理過程を説明するためのフローチャートである。
本発明は、多様な変更を加えることができ、多様な実施形態を有することができるため、特定の実施形態を図示して詳細な説明をする。しかし、これは本発明を特定の実施形態に対して限定するものではなく、本発明の属する技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然本発明の技術的範囲に属するものと了解されるべきである。なお、本明細書及び図面において、実質的に同一機能や構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
第1、第2、A、Bなどの用語は、多様な構成要素を説明するために用いられるが、前記構成要素は前記用語によって限定されない。前記用語は、1つの構成要素を他の構成要素により区別する目的だけで用いられる。例えば、本発明の権利範囲を超えないで、第1構成要素は第2構成要素として称することができ、同様に、第2構成要素も第1構成要素として称することができる。「及び/または」という用語は、複数の関係する項目の組み合わせまたは複数の関係する項目のうちのいずれかの項目を含む。
ある構成要素が他の構成要素に「連結されて」あるいは「接続されて」いると記載されている場合は、その他の構成要素に直接的に連結されているか、または接続されているとのことであるが、その間に他の構成要素が存在することもありうると理解すべきである。一方、ある構成要素が他の構成要素に「直接連結されて」あるいは「直接接続されて」いると記載されている場合は、その間に、他の構成要素が存在しないものと理解すべきである。
本願発明に用いられる用語は、ただ特定の実施形態を説明するために用いられたものであって、本願発明を限定しようとする意図ではない。単数の表現は、文脈上に明白に示さない限り複数の表現を含む。本願発明において、「含む」または「有する」などの用語は、明細書上に記載した特徴、数字、段階、動作、構成要素、部品またはそれらを組み合わせたものが存在することを指定するものであって、1つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部品またはそれらを組み合わせたものなどの存在または付加可能性を予め排除しないものとして理解すべきである。
特に定義されない限り、技術的また科学的な用語を含み、ここに用いられるすべての用語は、本発明が属する技術分野にて通常の知識を有する者によって一般的に理解されるものと同一意味を有する。一般的に用いられる、事前に定義されているものと同一の用語は関連技術の文脈上に有する意味と一致する意味を有するものとして解釈すべきであり、本願発明において明白に定義しない限り、理想的や過度に形式的な意味として解釈されるものではない。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態によるイメージ処理装置の内部構造を示すブロック図である。
図1に示すように、イメージ処理装置は、受信部101、第1生成部103、第2生成部105、レンダリング部107及び映像生成部109を含んで構成される。
受信部101は、複数個の映像撮影機器により撮影されたイメージ映像、例えば2次元イメージ映像を受信する。第1生成部103は、受信部101からイメージ映像を受信し、受信されたイメージ映像から特徴ピクセルに該当する特徴ラインマップ(feature line map)を生成し、生成された特徴ラインマップに該当する点の方向情報を定義した後、これを補間(interpolation)してイメージ映像に対するベクトル長を生成する。
ここで、第1生成部103は、特徴ラインマップに含まれない特徴ピクセルの方向情報を定義するために、特徴ラインマップに含まれている特徴ピクセルの方向情報を補間して使用する。これは、単純にイメージ映像に含まれているすべての特徴ピクセルのETF(Edge Tangent Field)情報を使用することに比べ滑らかでかつ安定的であって、特徴部分の情報を高く反映したベクトル長が得られるという長所がある。
本発明の一実施形態によれば、第1生成部103は散布データ補間法(scattered data interpolation)のうち多重レベルB−スプライン補間法(multi−level B−spline interpolation)を使用して特徴ラインマップに該当する点の方向情報を補間してイメージ映像に対するベクトル長を生成することができる。
また、本発明の一実施形態によれば、第1生成部103は反対方向を示すベクトル、例えば(1、0)及び(−1、0)を同一方向に処理するために、特徴ピクセルの方向情報を2×2構造テンソル(structure tensor)に変換した後、各項を補間し、補間された構造テンソルの固有ベクトル(engenvector)を算出して各ピクセルの方向に定義してイメージ映像に対するベクトル長を生成することができる。
第2生成部105は、第1生成部103から生成された特徴ベクトル長を用いて点や線のようなプリミティブを並べるために用いられるストラクチャグリッドを生成する。例えば、第2生成部105は、第1生成部103から生成されたベクトル長に沿って滑らかに変形して格子状の構造を有したストラクチャグリッドを生成することができる。
このような構造において、格子の交点部分には点を、格子線部分には線を絵として、スティプリングとハッチングまたはその混合を全部表現することができ、このように描かれたプリミティブは特徴方向及びその垂直方向すべてに沿って所定間隔で並べられる。
さらに、他の例として、第2生成部105は、特徴ピクセルの方向情報に従ってストライプパターンを繰り返し合成した結果である第1ストライプパターンと特徴ピクセルの方向情報に対して垂直方向でのストライプパターンを繰り返し合成した結果である第2ストライプパターンを結合してストラクチャグリッドを生成することができる。
レンダリング部107は、第2生成部105から生成されたストラクチャグリッド上に所定のトーンを表現するプリミティブをレンダリングする。ここで、プリミティブレンダリングは第2生成部105から生成されたストラクチャグリッド上に点や線のような基本プリミティブを、絵として最終結果映像を製作することを示す。映像生成部109は、第2生成部105によってプリミティブレンダリングされた結果に特徴線を追加して結果映像を生成する。次に、図2を参照して本発明の一実施形態によるイメージ処理装置の第1生成部がベクトル長を生成する過程を説明する。
図2は、本発明の一実施形態によるイメージ処理装置の第1生成部がベクトル長を生成する過程を説明するための例示図である。
図2に示すように、第1生成部103は、受信部101からイメージ映像を受信(202a)し、受信したイメージ映像から特徴ピクセルに該当する特徴ラインマップを生成(202b)する。本発明の一実施形態によれば、第1生成部103は、流れ基盤ラインドローイング技法(202b;黒線)を用いて特徴ラインマップを定義し、流れ基盤ラインドローイング技法は、スタイル化した特徴ラインを効果的に表現することができ、特徴ラインマップを生成する段階で得られるすべての特徴ピクセルのETF情報を特徴ピクセルの方向情報として利用することができるという長所がある。
第1生成部103は、生成した特徴ラインマップに該当する点の方向情報を定義した後、これを補間してイメージ映像に対するベクトル長(202cまたは202d)を生成する。ここで、ベクトル長202cは、第1生成部103が流れ基盤ラインドローイングだけで定義された特徴ラインマップを用いてベクトル長を生成した場合に該当し、ベクトル長202dは第1生成部103が等光線カーブ(isophote curve)をさらに用いてベクトル長を生成した場合に該当する。
本発明の一実施形態によれば、第1生成部103はイメージ映像を受信し、受信したイメージ映像が2次元映像の場合、物体の模様がある程度仮定できるように等光線カーブ(202b;青色線)を追加的に用いてベクトル長202dを生成することができ、第1生成部103は受信したイメージ映像の明るさ情報を使用者があらかじめ定義した数分の段階に量子化(quantization)した後、その境界を等光線カーブとして定義し、等光線カーブに該当する特徴ピクセルを追加的に特徴ラインマップに適用した後、特徴ラインマップを用いてベクトル長202dを生成することができる。次に、図3ないし図5を参照して、本発明の一実施形態によるイメージ処理装置の第2生成部がストラクチャグリッドを生成する過程を説明する。
図3ないし図5は、本発明の一実施形態によるイメージ処理装置の第2生成部がストラクチャグリッドを生成する過程を説明するための例示図である。
図3に示すように、第2生成部105は、第1生成部103から生成した特徴ベクトル長を用いてストラクチャグリッドを生成する。ここで、ストラクチャグリッドは点や線のようなプリミティブの羅列のために定義された構造である。
本発明の一実施形態によれば、第2生成部105は第1生成部103から生成されたベクトル長に沿って滑らかに変形して格子状の構造を有したストラクチャグリッド300aを生成することができる。
このような構造の上で、格子の交点部分には点を、格子線部分には線を、絵としてスティプリング300bとハッチング300cまたはその混合300dを全て表現することができ、このように描かれたプリミティブは特徴方向及びその垂直方向すべてに沿って所定間隔で並べることができる。
図4に示すように、第2生成部105は、第1生成部103から生成された特徴ベクトル長を用いてストラクチャグリッドを生成する。本発明の一実施形態によれば、第2生成部105は格子パターンを入力テクスチャサンプルとして定義し、ベクトル長をテクスチャ回転方向にテクスチャ合成(texture synthesis)してストラクチャグリッド400f、400hを生成することができるが、この場合、自由に変形されたベクトル長に沿うために格子交点または格子線部分が損傷される場合がある。このような問題点を解決するための本発明の一実施形態による第2生成部105は、特徴ピクセルの方向情報に従ってストライプパターンを繰り返し合成した結果である第1ストライプパターン401b、401c、401dと特徴ピクセルの方向情報に対して垂直方向でのストライプパターンを繰り返し合成した結果である第2ストライプパターン400b、400c、400dとを結合してストラクチャグリッド400e、400gを生成することができる。
第1ストライプパターン401b、401c、401dは、特徴ピクセルの方向情報に従ってストライプパターンを繰り返し合成した結果による変化を示す。特徴ピクセルの方向情報に従ってストライプパターンを合成した、1番目の結果である第1ストライプパターン401bでは、特徴線から距離として単純に示されるが、特徴ピクセルの方向情報に従ってストライプパターンを合成した2番目の結果である第1ストライプパターン401c及び3番目の結果である第1ストライプパターン401dでは、各部分の特徴ピクセルの方向情報に従ってストライプパターンが改善されている。
第2ストライプパターン400b、400c、400dは、特徴ピクセルの方向情報に対して垂直方向でのストライプパターンを繰り返し合成した結果による変化を示す。特徴ピクセルの方向情報に対して垂直方向でのストライプパターン合成した1番目の結果である第2ストライプパターン400bでは、乱数で開始して連関性がないように示されているが、特徴ピクセルの方向情報に対して垂直方向でのストライプパターン合成した2番目の結果である第2ストライプパターン400c及び3番目の結果である第2ストライプパターン400dではストライプパターンを確認することができる。このように、第2生成部105は、2回にかけて互いに垂直方向に生成したストライプパターン、例えば、第1ストライプパターン401dと第2ストライプパターン400dとを結合して、最終的にストラクチャグリッド400e、400gを生成することができる。
一方、本発明において、提示した1次元ストライプパターン合成を用いたストラクチャグリッド生成は、2次元テクスチャ合成に比べて、生成されたストラクチャグリッドの結果的側面から非常に優れている。さらに、2次元テクスチャ合成を行う場合、各ピクセルを1回アップデートする度に、
O(d(2r+1)
の演算が必要であるが、本発明にて提示した1次元ストライプパターン合成を用いてテクスチャ合成を行う場合は、各ピクセルを1回アップデートする度に、
2×O(d(2r+1))
の演算が必要なので、速度面から最も優れた性能を示す。
さらに、このように生成された第1ストライプパターンは、そのもでもベクトル長を効果的に示すのに効果的であるため、一実施形態として、流れ視覚化(flow visualization)などに用いられる。
第2生成部105が生成したストラクチャグリッドGは、ベクトル値を有するイメージ映像G:p→(t0、t1)として定義され得る。このとき、t0、t1はピクセルpから該当の特徴ピクセルの方向情報及びその垂直方向に最も近い格子線までの距離をそれぞれ示す。これは、各ピクセルが格子の有無ではなく格子までの距離情報を有することで、パターン全体がより多い情報を含むようにし、合成結果を向上させ、さらに、次の段階において該当距離情報を利用するためである。第2生成部105が生成したストラクチャグリッドから隣接する格子線間の所望する距離、すなわち、結果映像から所望する点または線の間隔がdであるとした場合、tiは[0、d/2]範囲で値を有することができ、所定間隔で繰り返される格子を反映するために周期的に反射される形態として定義される。そして、この場合、点は(0、0)に位置し、ハッチング線は(t0、0)または(0、t1)に位置する。
本発明の一実施形態によれば、第2生成部105は、特徴ピクセルの方向情報に従ってストライプパターンを繰り返し合成した結果である図4の第1ストライプパターン401dと特徴ピクセルの方向情報に対して垂直方向でのストライプパターンを繰り返し合成した結果である図4の第2ストライプパターン400dとを結合して図4のストラクチャグリッド400e、400gを生成することができる。このためのストライプパターンPは各ピクセルに対して定義された2つの距離値(t0、t1)のうちの1つに該当する定数値を有する映像P:p→tと定義することができる。
第2生成部105が生成したストラクチャグリッドのストライプパターンPは、ベクトル長Fまたはその垂直方向に沿って格子間隔dを有する。このとき、ストライプパターンPは、Pが有する距離値を局所最適化(local optimization)方法を介して繰り返しアップデートして合成される。
そのために、第2生成部105は、ストラクチャグリッドのストライプパターンに対して初期値を定義する。例えば、ベクトル長Fの垂直方向に沿うストライプパターンの場合Pの初期値を決定する明確な基準がないため、第2生成部105は[0、d/2]の間の乱数をストライプパターンPの初期値として決定する。一方、第2生成部105はベクトル長F方向でのストライプパターンの場合、各ピクセルに対して最も近い特徴線までの距離情報を用いて初期化する。
例えば、第2生成部105は、ジャンプ氾濫(jump−flooding)アルゴリズムを用いて各ピクセルに対して最も近い特徴線までの距離情報を算出することができ、数式1のように周期的に反射する形態を有する関数を用いて各ピクセルに対して最も近い格子線までの距離に変換して[0、d/2]間の実数値を有するように距離情報を算出することができる。
図5に示すように、第2生成部105は受信したイメージ映像のピクセルのうちの少なくとも1つのピクセルp(501)に対するストライプパターンPの最適値tを算出するために、イメージ映像のピクセルのうちの少なくとも1つのピクセルp(501)を中心にピクセルp(501)でのベクトル長Fまたはその垂直方向に方向が向けられた(2r+1)×(2r+1)大きさの隣接窓(neighbor window)W(502)を用いてストライプパターンPの値tを繰り返しアップデートする。このとき、rの値は一般的に結果映像において点間の所定間隔または線間の所定間隔を表す値dを用いる。
第2生成部105が隣接窓W(502)の各行の平均ピクセル値を算出して(2r+1)大きさの1次元配列(array)w(503)として定義すると、これはピクセルp(501)を中心とする現在周辺のストライプパターンPの値tの分布を意味し、w[i]、i=−r、…、rとして表現することができる。第2生成部105はこのように算出された1次元配列w(503)とストライプパターンの目標となる関数Sとを比較することで、ピクセルpに対する最適値tの値を定義することができる。そのために、第2生成部105はストライプパターンの目標となる関数Sからサンプリングを介してw[i]と同一大きさのテンプレートアレイ(template array)504、s[i]=S(i+x)、i=−r、…、r(0≦x<d)を定義してサンプリング位置xを異なるようし、1次元の配列w(503)とテンプレートアレイ504との間の元素別(element−by−element)差である
を最小化とするサンプリング位置のx値を捜す。しかし、この場合、数式1から定義されてs[i]に含まれたmin関数によって、直ちに最適値を捜すことはできないので、xの範囲を[m/2、m/2+0.5]、m=0、…、2d−1の部分範囲(subrange)で割って、各部分範囲ではs[i]からmin関数を除去してE(w、s)が単純な2次式(quadratic function)として表現されるようにする。
第2生成部105が各部分範囲から算出された最小E(w、s)を比較し、これらのうちの最小E(w、s)を有するx値を算出した場合、そのときのsがピクセルp(501)とその周辺情報を最もよく反映させたテンプレートアレイとすることができる。よって、第2生成部105は、ピクセルp(501)に対する現在最適値tをsの中心に該当するs[0]の値にアップデートする。第2生成部105は、このようなピクセル単位アップデートをすべてのピクセルに対して繰り返し行い、総反復実行回数は3回から8回までの間である。
一方、第2生成部105が本発明において提示した1次元ストライプパターン合成を用いてテクスチャ合成を行う場合、イメージ映像のピクセルのうちの少なくとも1つのピクセルp(501)をアップデートするために、隣接窓W(502)を定義する際、方向だけではなく追加的に隣接窓W(502)の割合も一緒に調節することができる。
このように、第2生成部105が隣接窓W(502)の割合を調節する場合、イメージ映像のピクセルのうちの少なくとも1つのピクセルp(501)に対して考慮する周辺ピクセルの領域が変化して結果的にストライプパターンの間隔が変わる。
このような理由で、第2生成部105はイメージ映像の各部分において点や線の間隔を少しずつ滑らかに調節することができ、アーティストが描いた映像のように、自由度の高いストラクチャグリッドを生成することができる。次に、図6を参照して、本発明の一実施形態によるイメージ処理装置のレンダリング部がプリミティブレンダリングを行う場合について説明する。
図6は、本発明の一実施形態によるイメージ処理装置のレンダリング部がプリミティブレンダリングを行う例示図である。
レンダリング部107は、第2生成部105から生成したストラクチャグリッドを受信し、受信したストラクチャグリッド上において所定のトーンを表現するプリミティブをレンダリングする。ここで、プリミティブレンダリングは、第2生成部105から生成したストラクチャグリッド上において点や線のような基本プリミティブを描くことによって結果映像を製作することを示す。
レンダリング部107はストラクチャグリッド上の値と受信されたイメージ映像から生成したトーンマップを用いてレンダリングするプリミティブの位置及び大きさなどを決定する。このとき、イメージ映像から生成したトーンマップはイメージ映像をグレースケール映像に変換し、ガウシアンスムージング(Gaussian smoothing)して生成することができ、変換されたガウシアンスムージング結果に追加的に明るさやガンマ(gamma)の調節など映像処理を行って生成される結果映像に表現しようとするトーンのマップを示す。
一方、格子状の構造を有するストラクチャグリッド上において格子の交点部分に点を配置したスティプリング300bを表現するための方法は、本発明の一実施形態によれば、ストラクチャグリッド値が(0、0)に該当する位置に円を描く方法がある。
しかし、この場合、結果映像が人為的すぎで、特徴ピクセルの方向情報の変形などによって位置が完全ではないと、目立ちやすいという問題がある。実際、ヘッドカットアーティストの描く点は不規則な模様を示していて、これは全体的に平温でありながら特徴ピクセルの方向情報の変形にも自然な結果映像を生成することができる。
このような問題点を解決するための本発明の一実施形態によるピクセル基盤スティプリング方法を用いるレンダリング部107は、イメージ映像のピクセルのうちの少なくとも1つのピクセルpが属することのできる点の位置、すなわちピクセルpの位置から最も近い点の位置を推定する。
このとき、レンダリング部107がピクセルpの位置から最も近い点にピクセルpが属するかどうかを推定するために必要な情報は、ピクセルpから最も近い点の中心までの距離と該当点の大きさである。
レンダリング部107は、ピクセルpの位置から最も近い点の中心までの距離dをストラクチャグリッド値から、
であると定義することができ、該当点の大きさを該当部分のトーン値に反比例して定義することができる。このとき、該当点を、中心においてd(602)×d(602)大きさの領域Ω(603)での平均トーンをbとした場合、トーンマップがスムージングされたことを考慮すれば、bは簡単にピクセルpでのトーンマップ値に近似化することができる。
これに基づいて、レンダリング部107がピクセルpの位置から最も近い点を中心にしてd(602)×d(602)大きさの領域Ω(603)にトーンbを表現するために必要な点の大きさs(601)を計算すると、数式2のようになる。このとき、点の大きさsがd/2より大きい場合、点間に重りが発生するので、レンダリング部107はこのような場合に対しては追加的に考慮した、点の大きさsを算出しなければならない。
数式2に示すように、bはピクセルpの位置から最も近い点を中心にd602×d602大きさの領域Ω(603)での平均トーンを示し、s(601)は領域Ω(603)での平均トーンを表現するために必要な点の大きさを示し、dは結果映像において点またはハッチング線間の所定間隔を表す値、すなわち、ストラクチャグリッドの間隔を示す。
レンダリング部107は、ピクセルpの位置から最も近い点の中心までの距離dと該当点の大きさsとを比較してピクセルpの明るさの値を決定する。このとき、線が凸凹となるエリアシング(aliasing)を防止するために、レンダリング部107はピクセルpの位置から最も近い点の周辺にδs厚さほどの境界に該当する領域を灰色部分であると定義し、dがs−δsよりも小さい場合にピクセルpの位置から最も近い点に該当する領域、例えば、黒色領域であると判断してピクセルpの明るさ値を0に決定し、dがsよりも大きい場合、ピクセルpの位置から最も近い点に該当しない領域、例えば、白色領域であると判断してピクセルpの明るさ値を1に決定する。
また、レンダリング部107は、ピクセルpの位置から最も近い点の周辺にδs厚さほどの境界に該当する、すなわち、dがs−δsとsとの間の値を有する領域ではピクセルpの明るさ値を補間した灰色である1−(s−d)/δsに決定し、δsは基本値として1を使用する。
一方、格子状の構造を有したストラクチャグリッド上において格子線部分に線を配置したハッチング300cを表現するための本発明の一実施形態によれば、ストラクチャグリッドにおいてピクセルpからピクセル特徴の方向情報及びその垂直方向に最も近い格子線までの距離をそれぞれ示すt0またはt1が0である格子線部分を連結し、ここに線を配置して生成することができる。
しかし、この場合、結果映像が人為的すぎで、特徴ピクセルの方向情報の変形などにより位置が完全ではないと目立ちやすいという問題がある。
このような問題点を解決するための本発明の一実施形態によるピクセル基盤ハッチング方法によるレンダリング部107は、イメージ映像のピクセルのうち少なくとも1つのピクセルpが属することができるハッチング線の位置、すなわち、ピクセルpの位置から最も近いハッチング線の位置を推定する。
このとき、レンダリング部107が、ピクセルpの位置から最も近いハッチング線にピクセルpが属するかどうかを推定するために必要な情報は、ピクセルpから最も近いハッチング線の中心までの距離と該当線の太さである。
レンダリング部107は、ピクセルpの位置から最も近いハッチング線の中心までの距離dをストラクチャグリッド値からmin{t0、t1}であると定義することができ、該当ハッチング線の太さを図6のスティプリングの場合と同様に該当ハッチング線のトーン値に反比例するように定義することができる。
このとき、該当のハッチング線を中心にd(605)×d(605)大きさの領域Ω(606)での平均トーンをbとする場合、領域Ω(606)においてトーンbを表現するために必要なハッチング線の太さh(604)は、数式3に従って計算する。
数式3に示すように、bはピクセルpの位置から最も近い点を中心にd(605)×d(605)大きさの領域Ω(606)での平均トーンを示し、h(604)は領域Ω(606)での平均トーンを表現するために必要なハッチング線の太さを示す。
レンダリング部107は、ピクセルpの位置から最も近いハッチング線までの距離dと該当線の太さh(604)とを比較してピクセルpの明るさ値を決定する。このとき、線が凸凹となるエリアシングを防止するために、レンダリング部107はピクセルpの位置から最も近いハッチング線の境界にδh厚さほどの線の境界に該当する領域を灰色部分として定義し、dがh−δhよりも小さい場合には、ピクセルpの位置から最も近いハッチング線に該当する領域、例えば、黒色領域であると判断してピクセルpの明るさ値を0に決定し、dがhよりも大きい場合には、ピクセルpの位置から最も近いハッチング線に該当しない領域、例えば、白色領域であると判断してピクセルpの明るさ値を1に決定する。
また、レンダリング部107は、ピクセルpの位置から最も近いハッチング線の境界にδh厚さほどの境界に該当する、すなわち、dがh−δhとhとの間の値を有する領域ではピクセルpの明るさ値を補間した灰色である1−(h−d)/δhに決定し、δhは基本値として1を使用する。
このように、本発明の一実施形態によるピクセル基盤のプリミティブレンダリング方法を用いてレンダリング部107がレンダリングを行う場合、各ピクセルが独立的な演算により短時間に自然な模様の点や線をレンダリングしながらも効果的にトーンマップのトーンを製作することができる。
また、このように定義されたスティプリング及びハッチングは、同一構造のストラクチャグリッド上においてすべてのピクセル基盤に生成されたため、2つのスタイルが混合(300d)されても違和感がない。したがって、実際レンダリングではこの2つのスタイルを混ぜて表現することで、従来では不可能であった、アーティストにより生成した結果映像に最も近い結果を生成することができる。
一般的にアーティストは、暗い部分を表現する際に、点が重なるスティプリングよりはハッチングを好む傾向がある。このような理由から本発明の一実施形態では最大許容点の大きさをsmaxであると定義し、演算された点の大きさsがsmaxよりも小さい領域でスティプリングを行い、演算された点の大きさsがsmaxよりも大きい領域ではハッチングを行うことで、スティプリング及びハッチングを混ぜて使用することができる。
このとき、smaxの基本値は点の重畳が開始される点の大きさであるd/2で定義され、smaxの値を0として定義する場合、ハッチングだけになっている結果映像を生成することができ、smaxの値が領域Ωを覆うことができるほどの大きい値に定義する場合、スティプリングだけになっている結果映像を生成することができる。
一方、生成したスティプリングだけで、ストラクチャグリッドにおいて特異点(singularity)など、ベクトル長が極端的に変化する部分では点の模様や間隔も変形しすぎることができるが、このような点の模様を改善したい場合はさらにストラクチャグリッドを改善する後処理過程を行うことができる。
まず、後処理部(図示せず)は、該当領域においてストラクチャグリッドの格子交点に該当する、例えば、
の地域的極小点を算出し、算出した地域的極小点からボロノイダイヤグラム(Voronoi diagranm)を算出する。
後処理部は、算出されたボロノイダイヤグラム上において各ピクセルから自分が属したボロノイセル(cell)の中心までの距離を特徴方向及び特徴方向の垂直方向に演算し、新たなt0、t1値を定義して修正されたストラクチャグリッドG’を生成することができる。
このとき、後処理部は、ボロノイセル境界部分に示される不連続を解決するために、修正されたストラクチャグリッドG’のt0、t1をそれぞれのストライプパターン合成を介してさらに定義してストラクチャグリッドG”を生成することができる。
最終的に、後処理部は各ピクセルに対してボロノイセル中心までの距離に反比例する加重値wを定義し、加重値wを用いて仮重合すると、アップデートされたストラクチャグリッドwG’(p)+(1-w)G”(p)を生成することができる。
このような過程を介して修正されたストラクチャグリッドを利用する場合、レンダリング部107は点の中心部分においてボロノイセルの中心部分を反映して位置や間隔がある程度強制されながらも自然な模様を有し、効果的にトーンを表現する点をレンダリングすることができる。また、レンダリング部107がボロノイダイヤグラムと関連する演算に対してジャンプ氾濫アルゴリズムを用いて演算するため、ピクセル基盤において早い実行が可能であるので追加的な時間消耗が殆どない。
図7は、本発明の一実施形態によるイメージ処理過程を説明するためのフローチャートである。
図7に示すように、イメージ処理装置は受信されたイメージ映像から特徴ピクセル及び特徴ピクセルの方向情報を用いてイメージ映像に対するベクトル長を生成する(S701)。ここで、イメージ処理装置は、特徴ラインマップに含まれない特徴ピクセルの方向情報を定義するため、特徴ラインマップに含まれた特徴ピクセルの方向情報を補間して使用する。これは単純にイメージ映像に含まれたすべての特徴ピクセルのETF情報を用いることに比較して滑らかでかつ安定的であって、特徴部分の情報を高く反映したベクトル長が得られるという長所がある。
本発明の一実施形態によれば、イメージ処理装置は散布データ補間法のうちの多重レベルB−スプライン補間法を用いて特徴ラインマップに該当する点の方向情報を補間してイメージ映像に対するベクトル長を生成することができる。本発明の一実施形態によれば、イメージ処理装置は反対方向を示すベクトル、例えば、(1、0)及び(−1、0)を同一方向に処理するために、特徴ピクセルの方向情報を2×2構造テンソル(structure tensor)に変換した後、各項を補間し、補間した構造テンソルの固有ベクトルを算出して各ピクセルの方向に定義してイメージ映像に対するベクトル長を生成することができる。
イメージ処理装置は、ベクトル長を用いてストラクチャグリッドを生成する(S702)。本発明の一実施形態によれば、イメージ処理装置は生成されたベクトル長に沿って滑らかに変形して格子状の構造を有したストラクチャグリッドを生成することができる。このような構造の上において格子の交点部分には点を、格子線部分には線を絵としてスティプリングとハッチングまたはその混合を全部表現することができ、このように描かれたプリミティブは特徴方向及びその垂直方向すべてに沿って所定間隔に並べることができる。
イメージ処理装置は、生成されたストラクチャグリッド上において所定のトーンを表現するプリミティブをレンダリングする(S703)。ここで、プリミティブレンダリングは、生成されたストラクチャグリッド上において点や線のような基本プリミティブを絵として最終結果映像を製作することを示す。イメージ処理装置はプリミティブレンダリング結果に特徴線を追加して結果映像を生成する(S704)。
上述では、本発明の好ましい実施形態を参照して説明したが、当該技術分野の熟練した当業者は、添付の特許請求範囲に記載された本発明の思想及び領域から逸脱しない範囲で、本発明を多様に修正及び変更させることができる。
101 受信部
103 第1生成部
105 第2生成部
107 レンダリング部
109 映像生成部

Claims (24)

  1. ストラクチャグリッドを用いてイメージ処理するイメージ処理装置において、
    イメージ映像の特徴ピクセル及び前記特徴ピクセルの方向情報を用いて前記イメージ映像の形象を表現することができるベクトル長を生成する第1生成部と、
    前記ベクトル長を用いて前記イメージ映像の形象をレンダリングする構造を示すストラクチャグリッドを生成する第2生成部と、
    前記生成されたストラクチャグリッドを用いて所定のトーンを表現するプリミティブをレンダリングするレンダリング部と、
    を含むことを特徴とするイメージ処理装置。
  2. 前記プリミティブレンダリング結果に前記イメージ映像の特徴を示す特徴線を追加して結果映像を生成する映像生成部をさらに含むことを特徴とする請求項1に記載のイメージ処理装置。
  3. 前記第1生成部は、
    前記特徴ピクセルに該当する特徴ラインマップを生成し、前記生成された特徴ラインマップに含まれた特徴ピクセルの方向情報を補間(interpolation)して前記イメージ映像に対するベクトル長を生成することを特徴とする請求項1に記載のイメージ処理装置。
  4. 前記第2生成部は、
    少なくとも1つのベクトル長を用いて前記ベクトル長の方向に沿って所定間隔に繰り返される少なくとも1つのストライプパターンを生成することを特徴とする請求項1に記載のイメージ処理装置。
  5. 前記第2生成部は、
    少なくとも1つのベクトル長を用いて前記ベクトル長の方向に対して任意の方向に沿って所定間隔に繰り返される少なくとも1つのストライプパターンを生成することを特徴とする請求項1に記載のイメージ処理装置。
  6. 前記ストラクチャグリッドにおいて格子交点及び格子線に該当する位置を推定する後処理部をさらに含むことを特徴とする請求項1に記載のイメージ処理装置。
  7. 前記後処理部は、
    前記推定された位置に該当する格子交点及び格子線を変形してストラクチャグリッドを補正することを特徴とする請求項6に記載のイメージ処理装置。
  8. 前記レンダリング部は、
    前記ストラクチャグリッド上の値と前記イメージ映像から生成されたトーンマップを用いてレンダリングするプリミティブの位置及び大きさを決定することを特徴とする請求項1に記載のイメージ処理装置。
  9. 前記レンダリング部は、
    前記イメージ映像の含まれたそれぞれのピクセルから最も近いストラクチャグリッドのグリッドラインまでの距離情報を用いて所定の大きさのプリミティブをレンダリングすることを特徴とする請求項8に記載のイメージ処理装置。
  10. 前記トーンマップは、
    前記結果映像として表現しようとするトーンのマップであることを特徴とする請求項8に記載のイメージ処理装置。
  11. 前記ベクトル長は、
    レンダリングすべきプリミティブの羅列方向情報を指示するベクトルであることを特徴とする請求項1に記載のイメージ処理装置。
  12. 前記ストラクチャグリッドは、
    レンダリングすべきプリミティブの位置情報を指示する構造体であることを特徴とする請求項1に記載のイメージ処理装置。
  13. ストラクチャグリッドを用いてイメージ処理するイメージ処理方法において、
    イメージ映像の特徴ピクセル及び前記特徴ピクセルの方向情報を用いて前記イメージ映像の形象を表現することができるベクトル長を生成する段階と、
    前記ベクトル長を用いて前記イメージ映像の形象をレンダリングする構造を示すストラクチャグリッドを生成する段階と、
    前記生成されたストラクチャグリッドを用いて所定のトーンを表現するプリミティブをレンダリングする段階と、
    を含むことを特徴とするイメージ処理方法。
  14. 前記イメージ処理方法は、
    前記プリミティブレンダリング結果に、前記イメージ映像の特徴を示す特徴線を追加して結果映像を生成する段階をさらに含むことを特徴とする請求項13に記載のイメージ処理方法。
  15. 前記ベクトル長を生成する段階は、
    前記特徴ピクセルに該当する特徴ラインマップを生成し、前記生成された特徴ラインマップに含まれた特徴ピクセルの方向情報を補間(interpolation)して前記イメージ映像に対するベクトル長を生成することを特徴とする請求項13に記載のイメージ処理方法。
  16. 前記ストラクチャグリッドを生成する段階は、
    少なくとも1つのベクトル長を用いて前記ベクトル長の方向に沿って所定間隔に繰り返される少なくとも1つのストライプパターンを生成することを特徴とする請求項13に記載のイメージ処理方法。
  17. 前記ストラクチャグリッドを生成する段階は、
    少なくとも1つのベクトル長を用いて前記ベクトル長の方向に対して任意の方向に沿って所定間隔に繰り返される少なくとも1つのストライプパターンを生成することを特徴とする請求項13に記載のイメージ処理方法。
  18. 前記イメージ処理方法は、
    前記ストラクチャグリッドにおいて格子交点及び格子線に該当する位置を推定する段階をさらに含むことを特徴とする請求項13に記載のイメージ処理方法。
  19. 前記位置を推定する段階は、
    前記推定した位置に該当する格子交点及び格子線を変形してストラクチャグリッドを補正することを特徴とする請求項18に記載のイメージ処理方法。
  20. 前記プリミティブをレンダリングする段階は、
    前記ストラクチャグリッド上の値と前記イメージ映像から生成したトーンマップを用いてレンダリングするプリミティブの位置及び大きさを決定することを特徴とする請求項13に記載のイメージ処理方法。
  21. 前記レンダリング段階は、
    前記イメージ映像の含まれたそれぞれのピクセルから最も近いストラクチャグリッドのグリッドラインまでの距離情報を用いて所定の大きさのプリミティブをレンダリングすることを特徴とする請求項20に記載のイメージ処理方法。
  22. 前記トーンマップは、
    前記結果映像として表現しようとするトーンのマップであることを特徴とする請求項20に記載のイメージ処理方法。
  23. 前記ベクトル長は、
    レンダリングすべきプリミティブの羅列方向情報を指示するベクトルであることを特徴とする請求項13に記載のイメージ処理方法。
  24. 前記ストラクチャグリッドは、
    レンダリングすべきプリミティブの位置情報を指示する構造体であることを特徴とする請求項13に記載のイメージ処理方法。
JP2012556997A 2011-02-08 2011-05-26 イメージ処理方法及びそのための装置 Expired - Fee Related JP5362130B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020110010978A KR101207084B1 (ko) 2011-02-08 2011-02-08 이미지 처리 방법 및 이를 위한 장치
KR10-2011-0010978 2011-02-08
PCT/KR2011/003880 WO2012108587A1 (ko) 2011-02-08 2011-05-26 이미지 처리 방법 및 이를 위한 장치

Publications (2)

Publication Number Publication Date
JP2013511109A JP2013511109A (ja) 2013-03-28
JP5362130B2 true JP5362130B2 (ja) 2013-12-11

Family

ID=46638788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012556997A Expired - Fee Related JP5362130B2 (ja) 2011-02-08 2011-05-26 イメージ処理方法及びそのための装置

Country Status (5)

Country Link
EP (1) EP2674909A4 (ja)
JP (1) JP5362130B2 (ja)
KR (1) KR101207084B1 (ja)
CN (1) CN103403755A (ja)
WO (1) WO2012108587A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210004085A (ko) * 2019-07-03 2021-01-13 제이피아이헬스케어 주식회사 X-선 영상 처리 방법 및 컴퓨터 판독 가능한 저장매체

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470357B1 (ko) * 2013-04-22 2014-12-09 중앙대학교 산학협력단 3차원 대상 객체의 헤드컷 렌더링 장치 및 방법
EP3410422A1 (en) * 2014-06-18 2018-12-05 James Collier Methods and apparatus for cryptography
WO2016072559A1 (ko) * 2014-11-05 2016-05-12 전자부품연구원 3d 콘텐츠 제작 방법 및 시스템
US11270474B2 (en) * 2018-12-05 2022-03-08 Sony Corporation Screen-tone look generator
CN109949384B (zh) * 2019-02-14 2024-01-26 云南大学 基于增量Voronoi序列即时生成彩色点画的方法
CN114092606A (zh) * 2021-11-30 2022-02-25 北京字节跳动网络技术有限公司 一种图像处理方法、装置、电子设备和存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243211A (ja) * 1997-02-28 1998-09-11 Sanyo Electric Co Ltd 画像処理装置及び方法並びに記録媒体
JP4392082B2 (ja) * 1999-08-06 2009-12-24 ヒューレット・パッカード・カンパニー 彫版風ハーフトーン画像生成方法・装置
JP4105378B2 (ja) * 2000-10-10 2008-06-25 富士フイルム株式会社 画像変換装置及び画像変換方法
JP3673478B2 (ja) * 2001-02-13 2005-07-20 ニューリー株式会社 手書き調画像出力プログラム
US7102636B2 (en) * 2001-03-31 2006-09-05 Intel Corporation Spatial patches for graphics rendering
US8289274B2 (en) * 2004-01-13 2012-10-16 Sliwa John W Microdroplet-based 3-D volumetric displays utilizing emitted and moving droplet projection screens
US8330756B2 (en) * 2005-03-30 2012-12-11 Japan Agency For Marine-Earth Science And Technology Method and program of visualizing structured grid data
JP4641957B2 (ja) * 2006-03-23 2011-03-02 彰 吉田 画像処理装置および画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210004085A (ko) * 2019-07-03 2021-01-13 제이피아이헬스케어 주식회사 X-선 영상 처리 방법 및 컴퓨터 판독 가능한 저장매체

Also Published As

Publication number Publication date
KR101207084B1 (ko) 2012-12-04
KR20120090508A (ko) 2012-08-17
CN103403755A (zh) 2013-11-20
WO2012108587A1 (ko) 2012-08-16
EP2674909A1 (en) 2013-12-18
EP2674909A4 (en) 2014-11-19
JP2013511109A (ja) 2013-03-28

Similar Documents

Publication Publication Date Title
JP5362130B2 (ja) イメージ処理方法及びそのための装置
US11055828B2 (en) Video inpainting with deep internal learning
US9922443B2 (en) Texturing a three-dimensional scanned model with localized patch colors
US7751641B2 (en) Method and system for digital image enhancement
JP3731577B2 (ja) 画像処理プログラム
KR100860968B1 (ko) 해상도 향상 장치 및 방법
CN106664368A (zh) 图像处理装置、图像处理方法、记录介质以及程序
CA2610262A1 (en) Content-based gaussian noise reduction for still image, video and film
US7064770B2 (en) Single-pass image resampling system and method with anisotropic filtering
KR101028699B1 (ko) 회화적 렌더링 장치 및 방법
CN101142614A (zh) 使用各向异性滤波的单通道图像变形***和方法
US9019303B2 (en) Method of processing image and apparatus for the same
CN111127337A (zh) 图像局部区域高光调整方法、介质、设备及装置
CN114640885A (zh) 视频插帧方法、训练方法、装置和电子设备
KR20210019835A (ko) 방향 적응형 병렬 신경망을 이용한 초해상도 영상 생성 장치 및 방법
US20040156556A1 (en) Image processing method
JP2011070283A (ja) 顔画像高解像度化装置、及びプログラム
US7734118B2 (en) Automatic image feature embedding
CN111383158A (zh) 遥感图像预处理方法
CN109887081A (zh) 一种地形生成方法
JP2016224629A (ja) 画像処理装置、画像処理方法及びプログラム
KR101098830B1 (ko) 서피스 텍스처 매핑 장치 및 그 방법
JP7262032B2 (ja) 画像処理装置
JP6375778B2 (ja) 画像処理方法および画像処理装置
Uasmith et al. Low-poly image stylization

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20111116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111025

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5362130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees