JP5795384B2 - 映像処理装置、照明処理装置及びその方法 - Google Patents

映像処理装置、照明処理装置及びその方法 Download PDF

Info

Publication number
JP5795384B2
JP5795384B2 JP2013543107A JP2013543107A JP5795384B2 JP 5795384 B2 JP5795384 B2 JP 5795384B2 JP 2013543107 A JP2013543107 A JP 2013543107A JP 2013543107 A JP2013543107 A JP 2013543107A JP 5795384 B2 JP5795384 B2 JP 5795384B2
Authority
JP
Japan
Prior art keywords
image
illumination
information
lighting
directional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013543107A
Other languages
English (en)
Other versions
JP2014502741A (ja
Inventor
ジョン シム,ヒョン
ジョン シム,ヒョン
ギュン キム,ド
ギュン キム,ド
ヒョン リ,テ
ヒョン リ,テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014502741A publication Critical patent/JP2014502741A/ja
Application granted granted Critical
Publication of JP5795384B2 publication Critical patent/JP5795384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

技術分野は映像から照明条件を生成し、生成された照明条件を映像に挿入する仮想オブジェクトに適用する映像処理に関する。
3次元(3D)グラフィックス技術及び関連ハードウェア技術の発達により3Dゲーム、3D映画、スマートフォンなどの様々な応用分野でオブジェクトを実感できるように表現するためのコンテンツが製作されている。オブジェクトを実感できるように表現する技術としてレンダリング技術が用いられる。レンダリング技術は、形状(Geometry)、材料特性(Material Property)、照明(Lighting)を正確にモデリングすることが求められる。
一実施形態において、照明処理装置は、現実のオブジェクトのカラー映像及び深さ映像を用いて前記オブジェクトに適用された拡散性照明情報を抽出する拡散性抽出部と、前記抽出された拡散性照明情報を用いて前記現実のオブジェクトに対する拡散反射映像を復元する拡散反射復元部と、前記復元された拡散反射映像と前記カラー映像を用いて鏡面反射映像及び影映像のうち少なくとも1つを生成する誤差映像分離部とを備える。
本発明によれば、補助装置を追加的に使用しなくても、現実のオブジェクトを撮影して取得したカラー映像と深さ映像から当該オブジェクトに適用された照明条件を取得することができる。
また、本発明によれば、映像に仮想オブジェクトを追加する場合、当該映像から取得した照明条件を仮想オブジェクトに適用することによって、より実感できるレンダリング結果を取得することができる。
一実施形態に係る照明処理装置を例示するブロック図である。 他の実施形態に係る照明処理装置を例示するブロック図である。 現実のオブジェクトに適用された照明条件を取得する照明処理装置の一実施形態を例示するブロック図である。 撮影部から出力されて入力映像として用いられるカラー映像と深さ映像の一例を示す図である。 深さ映像と深さ映像の法線マップに基づく低次基底関数(low order basis function)モデリング方式を例示する図である。 図3に示された拡散反射復元部をより具体的に示すブロック図である。 図3に示す誤差映像分離部によって行われる一連の過程を例示する図である。 鏡面反射映像に基づいて第1指向性照明情報を抽出する方法を例示する図である。 影映像に基づいて第2指向性照明情報を抽出する方法を例示する図である。 影映像に基づいて第2指向性照明情報を抽出する方法を例示する図である。 一実施形態に係る照明処理方法を例示するフローチャートである。 図11に示すステップ920をより具体的に説明するフローチャートである。 一実施形態に係る照明処理装置を含む映像処理装置の構成を例示する図である。
以下、本発明の実施形態について添付の図面を参照しながら詳細に説明する。
オブジェクトを実感できるように表現するレンダリング技術は、形状、材料特性、照明を正確にモデリングすることが求められる。形状モデリングの場合、深さ映像を撮影する深さカメラの発展により、リアルタイムで動く物体の形状情報を取得することができる。材料特性モデリングの場合、Lambertian、Phong、Torrance-Cook、Oren-Nayar、Emperical BSSRDF(Bidirectional Subsurface Scattering Distribution Function)、BRDF(Bidirectional Reflectance Distribution Function)などの様々な実験的/物理的モデルが提案されている。
光モデリングの場合、従来は、Lambertian物体またはChrome Ballなどの補助装置を用いてオブジェクトに適用された光モデル、すなわち、照明条件を抽出する。一方、図1、図2及び図3の照明処理装置100a、100b、200は補助装置を利用することなく、現実のオブジェクトのカラー映像と深さ映像を用いて照明条件を抽出する。図1、図2及び図3の照明処理装置100a、100b、200は、デジタルカメラ、携帯電話、スマートフォンなどのCE(Consumer Electronics)機器に適用されてもよい。ここで、「照明条件」は、「現実のオブジェクトに適用された照明方向に関する情報」及び「現実のオブジェクトに適用された照明の明るさに関する情報」を含んでもよい。
照明処理装置によって生成される照明条件は、例えば、拡散性(diffuse)照明情報と指向性(direction)照明情報を含んでもよい。すなわち、拡散性照明情報と指向性照明情報を結合すれば、オリジナルの照明条件を復元することができる。拡散性照明情報と指向性照明情報のいずれか1つを用いてオリジナルの照明条件を復元する実施形態も可能である。
拡散性照明情報を周波数領域で調べると、オリジナルの照明条件の低周波成分に対応する特性を示す。指向性照明情報を周波数領域で調べると、オリジナルの照明条件の高周波成分に対応する特性を示す。周波数領域において、拡散性照明情報は連続的な形態を有してもよく、指向性照明情報は不連続的な形態を有してもよい。
現実のオブジェクトは光を反射してもよい。例えば、現実のオブジェクトの表面で全方向性反射特性を有する拡散反射(diffuse reflection)や指向性反射特性を有する鏡面反射(specular reflection)が発生する。現実のオブジェクトを撮影した映像を用いると、拡散反射の影響を受けたピクセルからなる拡散反射映像を生成したり、鏡面反射の影響を受けたピクセルからなる鏡面反射映像を生成してもよい。また、現実のオブジェクトやその周辺には光の指向性特性に応じて影が生じることがあり、オリジナルの映像で影の影響を受けたピクセルからなる影映像を生成してもよい。
拡散性照明情報は、拡散反射映像から取得されてもよい。一方、指向性照明情報は、鏡面反射映像と影映像のうち少なくとも1つから抽出されてもよい。もちろん、拡散性照明情報を用いて拡散反射映像を生成したり、指向性照明情報を用いて鏡面反射映像や影映像を生成する実施形態も可能である。
一実施形態によれば、照明処理装置は、現実のオブジェクトのカラー映像及び深さ映像を用いて拡散性照明情報を抽出してもよい。照明処理装置は、抽出された拡散性照明情報を用いて拡散反射映像を生成してもよい。また、照明処理装置は、拡散反射映像とオリジナルの映像を用いて鏡面反射映像を生成してもよい。照明処理装置は、生成された鏡面反射映像から指向性照明情報を抽出してもよい。また、照明処理装置は、拡散反射映像とオリジナルの映像を用いて影映像を生成してもよい。照明処理装置は、生成された影映像から指向性照明情報を抽出してもよい。
照明処理装置は抽出された照明情報を用いて照明条件生成し、これを仮想オブジェクトに適用してもよい。すなわち、図1、図2及び図3に示す照明処理装置100a、100b、200を含む映像処理装置は、特定のシーンがある映像を用いて照明条件を生成し、生成された照明条件が適用された仮想オブジェクトを前記映像に挿入する。例えば、映像処理装置は、深さ映像及びカラー映像に基づいて指向性照明情報を抽出し、前記抽出された指向性照明情報に基づく照明条件が適用された仮想オブジェクトを前記カラー映像に合成してもよい。
図1は、一実施形態に係る照明処理装置を示すブロック図である。図1を参照すると、照明処理装置100aは、拡散反射抽出部105、拡散反射復元部115、及び指向性照明に基づく映像生成部125を備える。
拡散性抽出部105は、リアルオブジェクトのカラー映像及び深さ映像を用いて、リアルオブジェクトに適用された拡散性照明情報を抽出する。
拡散反射復元部115は、抽出された拡散性照明情報を用いて拡散反射映像を復元する。拡散性照明情報は、テクスチャー形態で格納されてもよい。
指向性照明に基づく映像生成部125は、拡散反射復元部115によって復元された拡散反射映像とカラー映像との間の誤差映像から鏡面反射映像を生成する。指向性照明に基づく映像生成部125は、復元された拡散反射映像とカラー映像との間の誤差映像から影映像を生成してもよい。
図2は、他の実施形態に係る照明処理装置を示すブロック図である。図2を参照すると、照明処理装置100bは、拡散反射復元部110、指向性照明情報抽出部120、及び照明条件決定部130を備える。
拡散反射復元部110は、現実のオブジェクトのカラー映像及び深さ映像を用いて現実のオブジェクトに適用された拡散性照明情報を抽出し、抽出された拡散性照明情報を用いて現実のオブジェクトに対する拡散反射映像を復元する。拡散性照明情報はテクスチャー形態で格納されてもよい。
指向性照明情報抽出部120は、拡散反射復元部110によって復元された拡散反射映像とカラー映像との間の誤差映像から指向性照明情報を抽出する。
照明条件決定部130は、抽出された拡散性照明情報、抽出された指向性照明情報、及び入力されたカラー映像を用いて現実のオブジェクトに適用された照明条件を決定する。
図3は、現実のオブジェクトに適用された照明条件を取得するための照明処理装置の一実施形態を示すブロック図である。図3を参照すると、照明処理装置200は、撮影部210、拡散反射復元部220、誤差映像分離部230、指向性照明情報抽出部240、及び照明条件決定部250を備える。
撮影部210は、任意の照明環境で現実のオブジェクトを撮影してカラー映像と深さ映像を出力する。撮影部210は、カラー映像を取得するためのカラーカメラと深さ映像を取得するための深さカメラをそれぞれ備えたり、または、カラーカメラと深くカメラが統合された形態のカメラで実現されてもよい。または、撮影部210は、ステレオまたは多視点カメラから深さ映像を取得した後、取得された深さ映像をカラー映像と共に出力してもよい。
図4は、撮影部210から出力されて入力映像として用いられるカラー映像と深さ映像の一例を示す図である。図4を参照すると、照明環境によって、現実のオブジェクトで拡散反射と鏡面反射が発生する。
拡散反射復元部220は、現実のオブジェクトのカラー映像及び深さ映像を用いて現実のオブジェクトに適用された拡散性照明情報を抽出し、抽出された拡散性照明情報を用いてオブジェクトに対する拡散反射映像を復元する。拡散反射復元部220は、拡散性照明情報を抽出するために深さ映像に基づく低次基底関数モデルを用いてもよい。
図5は、深さ映像と深さ映像のノーマルマップに基づく低次基底関数モデリング方式を説明する図である。図5に示された低次基底関数モデルを用いると、Convex Lambertian物体の場合、9個の低次基底関数を用いて多い(例えば、99%以上の)画素値を正確に復元することができる。低次基底関数モデルを用いると、拡散反射復元部220は、それぞれ異なる形状のオブジェクトごとに相異なる形状の各オブジェクトに適する低次基底関数モデルを生成してもよい。したがって、拡散反射復元部220は、図5に示すような低次基底関数モデルを用いてオブジェクトで発生した拡散反射をLambertian Lawによって定義及び表現してもよい。「Lambertian
Law」とは、「拡散反射は、光ベクトルlと物体表面の方向の法線ベクトルnの内積に比例する」という理論である。
図6は、図3に示された拡散反射復元部220をより具体的に示すブロック図である。図6を参照すると、拡散反射復元部220は、法線マップ生成部221、モデル生成部223、レンダリング部225、及び照明定数算出部227を備える。
法線マップ生成部221は、入力される深さ映像から深さ映像の法線マップを生成する。法線マップは、オブジェクトに対する法線ベクトルをテクスチャーに表したものである。モデル生成部223は、生成された法線マップから深さ映像の低次基底関数モデルを生成する。低次基底関数モデルの例として、図3に示すようなSHBF(Spherical Harmonics Basis Function)モデルが挙げられる。レンダリング部225は、深さ映像から生成された低次基底関数モデルをレンダリングする。
照明定数算出部227は、レンダリングされた低次基底関数モデルをカラー映像に適用し、カラー映像を最も近似するように再生成する1つ以上の拡散性照明定数を求めることができる。照明定数算出部227は、最適化過程によって1つ以上の拡散性照明定数を求める。照明定数算出部227は、低次基底関数モデルをカラー映像に適用し、拡散性照明定数を変更しながら臨時的なカラー映像を生成する最適化過程によって、1つ以上の拡散性照明定数を求めることができる。臨時的なカラー映像を生成する最適化過程において、数式(1)が用いられてもよい。
すなわち、照明定数算出部227は、
の結果を最小にするcを1つ以上求めてもよい。ここで、Iは入力されたカラー映像を示す。拡散性照明定数は、例えば、c〜c、すなわち、9個を算出してもよく、これに限定されない。数式(1)を参照すると、Idiffuseは映像を示すベクトルとして、ベクトルの各エレメントは映像をなすピクセルのカラー値を示す。cは拡散性照明定数、kは照明定数のインデックス、D(depth)はレンダリングされた低次基底関数モデルである。
拡散性照明情報は、1つ以上の拡散性照明定数の組合として表現されてもよい。したがって、照明定数算出部227は、1つ以上の拡散性照明定数からなる拡散性照明情報を用いて現実のオブジェクトに対する拡散反射映像を復元してもよい。復元された拡散反射映像は、1つ以上の拡散性照明定数を含む拡散性照明情報と低次基底関数モデルの組合せからなり得る。
図7は、図3に示す誤差映像分離部230によって行われる一連の過程を説明する図である。図3及び図7を参照すると、誤差映像分離部230は、拡散反射復元部220で復元された拡散反射映像とオリジナルの映像の明るさを比較し、明るさ値の誤差を示す誤差映像を求める。オリジナルの映像は、撮影部210によって出力されるカラー映像であってもよい。誤差映像分離部230は、復元された拡散反射映像とカラー映像との差値を算出し、差値を組み合わせて誤差映像を求める。差値は、復元された拡散反射映像とカラー映像で互いに同一の位置にあるピクセルの強度の差であってもよい。
誤差映像分離部230は誤差映像を分析し、誤差映像を鏡面反射映像と影映像に分離する。誤差映像分離部230は、予め設定された基準値を誤差映像に適用して誤差映像を鏡面反射映像と影映像に分離してもよい。すなわち、誤差映像分離部230は、誤差映像を基準値よりも明るいピクセルからなる鏡面反射映像と、基準値よりも暗いピクセルからなる影映像に分離する。誤差映像分離部230は、誤差映像の各ピクセル値の分布を示すヒストグラムに基準値を適用して誤差映像を分離してもよい。
再び図3を参照すると、指向性照明情報抽出部240は、拡散反射復元部220によって復元された拡散反射映像とカラー映像との間の誤差映像から指向性照明情報を抽出する。すなわち、指向性照明情報抽出部240は、誤差映像から分離された鏡面反射映像と影映像に基づいて指向性照明情報を求めることができる。
指向性照明情報抽出部240は、鏡面反射映像から第1指向性照明情報を抽出する第1抽出部241、影映像から第2指向性照明情報を抽出する第2抽出部243を備える。
第1抽出部241は、鏡面反射映像のうち最も明るい地点の法線ベクトル及び現実のオブジェクトを撮影した撮影部210の位置を用いてオブジェクトに適用された照明方向を逆追跡し、逆追跡された照明方向を用いて第1指向性照明情報を抽出する。
図8は、鏡面反射映像に基づいて第1指向性照明情報を抽出する方法を説明する図である。図8を参照すると、第1抽出部241は、鏡面反射映像の各ローカル領域で最も明るい地点を探索する。ローカル領域は、鏡面反射映像のうち地域的にさらに明るく形成される楕円または他の形状のクラスタを意味する。一実施形態において、ローカル領域は、周辺よりも閾値以上の明るさを示すピクセル集合であってもよい。例えば、ローカル領域は、図7に示す鏡面反射映像のうち円形状の白く表示された部分701、703、705であってもよい。第1抽出部241は、Gaussian Mean Fittingを用いてローカル領域を探索してもよい。第1抽出部241は、ローカル領域ごとに最も明るい地点の法線ベクトル及び撮影部210の位置を用いてオブジェクトに適用された照明の位置を逆追跡してもよい。逆追跡される照明の位置は、現実のオブジェクトに適用された照明の方向を示してもよい。
第1抽出部241は撮影部210の位置から視界(view)を把握することができ、ローカル領域内で最も明るい地点の法線ベクトル(normal)を把握することができる。したがって、第1抽出部241は鏡面反射映像の場合、法線ベクトルを基準として光の入射角θと反射角θが同一であるという原理を用いて照明方向を逆追跡することができる。照明方向を逆追跡するために、第1抽出部241は、Phong、Blinn-Phong、Torrance-Cook(Torrance-Sparrow)などの多様な鏡面反射モデルの1つを用いてもよい。
一方、第2抽出部243は、影映像をなす全てのピクセルごとに影を発生させた影線(ray)を生成し、生成された影の線のうち分布度が最も大きい影線に対応する方向を第2指向性照明情報として抽出してもよい。
図9及び図10は、影映像に基づいて第2指向性照明情報を抽出する方法を説明するための例示図である。図9を参照すると、二重線は影映像をなすピクセル、点線の矢印は影ピクセルに影を発生させ得る照明方向を仮想に表示したものであり、これを影線(ray)という。第2抽出部243は任意の光方向を変更しながら、影映像をなす各ピクセル(例えば、psh)ごとに影を発生させる影線を任意に生成してもよい。第2抽出部243は、Uniform、Random Samplingなどの技術を用いて影線を任意に生成してもよい。第2抽出部243は、生成された全ての影線の方向を図10に示すように、全ての影ピクセルに対して累積させて影線の分布度を求める。一実施形態において、影線は映像の撮影地点を中心とする半球形態の仮想空間を仮定し、照明が半球の表面にあると仮定する場合、撮影地点から照明のある地点まで0〜180°範囲の水平方向の角度θと0〜90°範囲の垂直方向の角度Φに表現されてもよい。第2抽出部243は、分布度が最も高い角度に該当する方向を指向性照明情報に含まれるものとして類推してもよい。図10に示すように、2つのピークに該当する角度θ、Φ、すなわち、照明の方向が指向性照明情報に含まれてもよい。
一実施形態において、第2抽出部243は、分布度が最も高い影線の角度を求めるとき、分布度のピークをより精密に探索するために分布度を任意の連続関数(例えば、Gaussian Mixture、Polynomialなど)に適用してサンプリングで選択されていない影rayも指向性照明情報として抽出してもよい。第2抽出部243は、抽出された1つ以上の鏡面反射照明を組み合わせて指向性照明情報を生成してもよい。
照明条件決定部250は、抽出された拡散性照明情報、抽出された指向性照明情報、及び入力されたカラー映像を用いてオブジェクトに適用された照明環境の明るさを決定する。一例として、抽出された拡散性照明情報は拡散性照明定数であってもよく、抽出された指向性照明情報は照明のベクトルであってもよい。照明条件決定部250は、数式(2)を用いて照明の明るさを決定する。
数式(2)において、sは照明の明るさ、Sは照明の全体数、Iは撮影部210から入力されたカラー映像、Lは前記拡散性照明情報をなす拡散性照明定数の全体数である。また、fは拡散反射を表現するモデル、fは鏡面反射を表現するモデル、cは拡散性照明定数、bは指向性照明情報をなす照明の方向、depthは深さ映像の深さ値、
は視点である。
数式(2)を参照すると、照明の明るさ決定部250は、
を最小化するパラメータを算出することによって、照明環境の明るさを求める。
また、照明条件決定部250は、指向性照明情報を照明方向に利用してもよい。指向性照明情報は複数の照明方向情報を含んでもよい。
図11は、一実施形態に係る照明処理方法を説明するフローチャートである。図11に示す照明処理方法は、図1、図2、または図3を参照して説明した照明処理装置100a、100b、200で各動作を制御または処理する制御部(図示せず)または少なくとも1つのプロセッサ(図示せず)によって動作されてもよい。
ステップ910において、照明情報処理装置はカメラを用いて現実のオブジェクトのカラー映像と深さ映像を取得する。ステップ920において、照明処理装置は、取得されたカラー映像及び深さ映像を用いて、現実のオブジェクトに適用された拡散性照明情報を抽出する。ステップ920は、深さ映像に基づく低次基底関数モデルを用いて拡散性照明情報を抽出してもよい。これは図12を参照してより詳しく説明する。
ステップ930において、照明処理装置は、抽出された拡散性照明情報を用いてオブジェクトに対する拡散反射映像を復元する。ステップ940において、照明処理装置は、復元された拡散反射映像とオリジナル映像(すなわち、取得されたカラー映像)の明るさを比較して誤差映像を算出する。
ステップ950において、照明処理装置は、算出された誤差映像を分析し、誤差映像を鏡面反射映像と影映像に分離する。鏡面反射映像は誤差映像のうち予め設定された基準値よりも明るいピクセルからなる映像であり、影映像は誤差映像のうち前記基準値よりも暗いピクセルからなる映像である。
ステップ960において、照明処理装置は、分離した鏡面反射映像から第1指向性照明情報を抽出する。例えば、照明処理装置は、鏡面反射映像の各ローカル領域で最も明るい地点の法線ベクトル及び現実のオブジェクトを撮影したカメラの位置を用いて現実のオブジェクトに適用された照明の方向を逆追跡し、逆追跡された照明の方向を第1指向性照明情報として抽出してもよい。
ステップ970において、照明処理装置は、分離された影映像から第2指向性照明情報を抽出する。例えば、照明処理装置は、影映像をなす全てのピクセルごとに影を発生させた影線(ray)を生成し、生成された影線のうち分布度が最も大きい影線に対応する方向を第2指向性照明情報として抽出してもよい。
ステップ980において、照明処理装置は、抽出された拡散性照明情報、抽出された第1及び第2指向性照明情報、及び取得されたカラー映像を数式(2)に適用し、オブジェクトに適用された照明環境の明るさを決定する。
図12は、図11に示すステップ920をより具体的に説明するためのフローチャートである。ステップ1010において、照明処理装置は、ステップ910で取得された深さ映像から深さ映像の法線マップを生成する。ステップ1020において、照明処理装置は、生成された法線マップから深さ映像の低次基底関数モデルを生成する。
ステップ1030において、照明処理装置は、深さ映像から導き出された低次基底関数モデルをレンダリングし、レンダリングされた低次基底関数モデルをカラー映像に適用し、カラー映像を最も近似するように再生成する1つ以上の拡散性照明定数を求める。
図13は、一実施形態に係る照明処理装置を含む映像処理装置の構成を示す図である。図13を参照すると、映像処理装置1100は、映像生成部1110、情報抽出部1120、及び映像合成部1130を備える。また、映像処理装置1100はディスプレイ1140をさらに備えてもよい。映像生成部1110は、カラー映像及び深さ映像に基づいて鏡面反射映像と影映像のうち少なくとも1つを生成する。すなわち、映像生成部1110は、図3に示す誤差映像分離部230の機能を行ってもよい。
照明情報抽出部1120は、鏡面反射映像と影映像のうち少なくとも1つから指向性照明情報を抽出する。また、照明情報抽出部1120は、カラー映像及び深さ映像に基づいて拡散性照明情報を抽出してもよい。
他の実施形態として、映像生成部1110が拡散性照明情報を抽出し、これを用いて拡散性映像を生成してもよい。映像合成部1130は、指向性照明情報及び拡散性照明情報のうち少なくとも1つを用いて照明条件を生成し、生成された照明条件が適用された仮想のオブジェクトをカラー映像に合成する。したがって、映像処理装置1100は、入力された映像の特定のシーンから照明条件を生成し、抽出された照明条件が適用された仮想のオブジェクトを前記特定のシーンに挿入してもよい。また、映像処理装置1100は、ディスプレイ1140によって仮想のオブジェクトが挿入された場面を表示する。
拡散性照明情報と指向性照明情報のいずれか1つのみを用いて照明条件を生成し、生成された照明条件が適用された仮想のオブジェクトをカラー映像に挿入する実施形態も可能である。また、鏡面反射映像と影映像のいずれか1つのみを用いて指向性照明情報を抽出する実施形態も可能である。これに適するように、先に説明した照明処理装置や映像処理装置の構成要素の機能が修正されてもよい。
本発明の実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるようなマシンコードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高水準コードを含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
100a,100b,200:照明処理装置
105:拡散性抽出部
115:拡散反射復元部
125:指向性照明に基づく映像生成部
110:拡散反射復元部
120:指向性照明情報抽出部
130:照明条件決定部
210:撮影部
220:拡散反射復元部
230:誤差映像分離部
240:指向性照明情報抽出部
241:第1抽出部
243:第2抽出部
250:照明条件決定部

Claims (22)

  1. 現実のオブジェクトのカラー映像及び深さ映像を用いて前記オブジェクトに適用された拡散性照明情報を抽出する拡散性抽出部と、
    前記抽出された拡散性照明情報を用いて前記現実のオブジェクトに対する拡散反射映像を復元する拡散反射復元部と、
    前記復元された拡散反射映像と前記カラー映像を用いて鏡面反射映像及び影映像のうち少なくとも1つを生成する誤差映像分離部と、
    を備え
    前記拡散反射復元部は、
    前記深さ映像の法線マップを生成する法線マップ生成部と、
    前記生成された法線マップから前記深さ映像の低次基底関数モデルを生成するモデル生成部と、
    前記低次基底関数モデルを前記カラー映像に適用して前記カラー映像を最も近似するように再生成する1つ以上の拡散性照明定数を求める照明定数算出部と、
    を備える、ことを特徴とする照明処理装置。
  2. 前記鏡面反射映像と前記影映像のうち少なくとも1つから指向性照明情報を抽出する指向性照明情報抽出部をさらに備える、
    ことを特徴とする請求項1に記載の照明処理装置。
  3. 前記抽出された拡散性照明情報、前記抽出された指向性照明情報、及び前記カラー映像を用いて前記現実のオブジェクトに適用された照明環境の明るさを決定する照明条件決定部をさらに備える、
    ことを特徴とする請求項2に記載の照明処理装置。
  4. 前記拡散性照明情報は、1つ以上の拡散性照明定数の組合せである、
    ことを特徴とする請求項1乃至の何れか一項に記載の照明処理装置。
  5. 前記誤差映像分離部は、前記拡散反射映像と前記カラー映像の明るさを比較して明るさ値誤差を示す誤差映像を生成し、前記誤差映像を鏡面反射映像と影映像に分離する誤差映像分離部をさらに備える、
    ことを特徴とする請求項1乃至の何れか一項に記載の照明処理装置。
  6. 前記鏡面反射映像は前記誤差映像で予め設定された基準値よりも明るいピクセルを含み、前記影映像は前記誤差映像で前記基準値よりも暗いピクセルを含む、
    ことを特徴とする請求項に記載の照明処理装置。
  7. 前記指向性照明情報抽出部は、前記鏡面反射映像のローカル領域ごとに最も明るい地点の法線ベクトル及び前記現実のオブジェクトを撮影したカメラの位置を用いて、前記現実のオブジェクトに適用された照明の方向を前記指向性照明情報として抽出する、
    ことを特徴とする請求項2又は3に記載の照明処理装置。
  8. 前記指向性照明情報抽出部は、前記影映像をなすピクセルごとに影を発生させた照明方向を抽出し、前記抽出された照明方向の分布度でピーク値を示す方向を前記指向性照明情報として抽出する、
    ことを特徴とする請求項2又は3に記載の照明処理装置。
  9. 前記照明条件決定部は、以下の数式
    を用いて前記照明の明るさを決定し、
    前記sは照明の明るさ、前記Sは照明の全体数、前記Iは前記カラー映像、Lは前記拡散性照明情報をなす拡散性照明定数の全体数、前記fは拡散反射を表現するモデル、前記fは鏡面反射を表現するモデル、前記cは前記拡散性照明定数、前記bは指向性照明情報をなす照明の方向、前記depthは前記深さ映像の深さ値、
    は視点である、
    ことを特徴とする請求項3に記載の照明処理装置。
  10. 現実のオブジェクトのカラー映像及び深さ映像を用いて前記オブジェクトに適用された拡散性照明情報を抽出し、前記抽出された拡散性照明情報を用いて前記現実のオブジェクトに対する拡散反射映像を復元するステップと、
    前記復元された拡散反射映像と前記カラー映像を用いて鏡面反射映像及び影映像のうち少なくとも1つを生成するステップと、
    を含み、
    前記拡散反射映像を復元するステップは、
    前記深さ映像の法線マップを生成するステップと、
    前記生成された法線マップから前記深さ映像の低次基底関数モデルを生成するステップと、
    前記低次基底関数モデルを前記カラー映像に適用して前記カラー映像を最も近似するように再生成する1つ以上の拡散性照明定数を求めるステップと、
    を含む、ことを特徴とする照明処理方法。
  11. 前記抽出された拡散性照明情報、前記抽出された指向性照明情報、及び前記カラー映像を用いて前記現実のオブジェクトに適用された照明環境の明るさを決定するステップをさらに含む、
    ことを特徴とする請求項10に記載の照明処理方法。
  12. 前記カラー映像及び深さ映像は、3次元映像に実際適用されるオブジェクトの映像である、
    ことを特徴とする請求項10又は11に記載の照明処理方法。
  13. 前記拡散性照明情報は、1つ以上の拡散性照明定数の組合せである、
    ことを特徴とする請求項10乃至12の何れか一項に記載の照明処理方法。
  14. 前記拡散反射映像と前記カラー映像の明るさを比較して明るさ値誤差を示す誤差映像を生成し、前記誤差映像を分析して前記誤差映像を鏡面反射映像と影映像に分離するステップをさらに含む、
    ことを特徴とする請求項10乃至13の何れか一項に記載の照明処理方法。
  15. 前記鏡面反射映像は前記誤差映像で予め設定された基準値よりも明るいピクセルを含み、前記影映像は前記誤差映像で前記基準値よりも暗いピクセルを含む、
    ことを特徴とする請求項14に記載の照明処理方法。
  16. 前記鏡面反射映像と前記影映像のうち少なくとも1つから指向性照明情報を抽出するステップをさらに含む、
    ことを特徴とする請求項10乃至15の何れか一項に記載の照明処理方法。
  17. 前記抽出された拡散性照明情報、前記抽出された指向性照明情報、及び前記カラー映像を用いて前記現実のオブジェクトに適用された照明環境の明るさを決定するステップをさらに含む、
    ことを特徴とする請求項16に記載の照明処理方法。
  18. 前記指向性照明情報を抽出するステップは、前記鏡面反射映像のローカル領域ごとに最も明るい地点の法線ベクトル及び前記現実のオブジェクトを撮影したカメラの位置を用いて、前記現実のオブジェクトに適用された照明の方向を前記指向性照明情報として抽出することを含む、
    ことを特徴とする請求項16又は17に記載の照明処理方法。
  19. 前記決定するステップは、以下の数式
    を用いて前記照明の明るさを決定し、
    前記sは照明の明るさ、前記Sは照明の全体数、前記Iは前記カラー映像、前記Lは前記拡散性照明情報をなす拡散性照明定数の全体数、前記fは拡散反射を表現するモデル、前記fは鏡面反射を表現するモデル、前記cは前記拡散性照明定数、前記bは指向性照明情報をなす照明の方向、前記depthは前記深さ映像の深さ値、
    は視点である、
    ことを特徴とする請求項11に記載の照明処理方法。
  20. カラー映像及び深さ映像に基づいて鏡面反射映像と影映像のうち少なくとも1つを生成する映像生成部と、
    前記生成された鏡面反射映像と影映像のうち少なくとも1つから指向性照明情報を抽出する照明情報抽出部と、
    を備え
    前記照明情報抽出部は、
    前記深さ映像の法線マップを生成する法線マップ生成部と、
    前記生成された法線マップから前記深さ映像の低次基底関数モデルを生成するモデル生成部と、
    前記低次基底関数モデルを前記カラー映像に適用して前記カラー映像を最も近似するように再生成する1つ以上の拡散性照明定数を求める照明定数算出部と、
    を備える、ことを特徴とする映像処理装置。
  21. 前記抽出された指向性照明情報に基づく照明条件が適用された仮想のオブジェクトを前記カラー映像に合成する映像合成部をさらに備える、
    ことを特徴とする請求項20に記載の映像処理装置。
  22. カラー映像及び深さ映像に基づいて前記カラー映像に適用された指向性照明情報を抽出する照明情報抽出部と、
    前記抽出された指向性照明情報に基づく照明条件が適用された仮想のオブジェクトを前記カラー映像に合成する映像合成部と、
    を備え
    前記照明情報抽出部は、
    前記深さ映像の法線マップを生成する法線マップ生成部と、
    前記生成された法線マップから前記深さ映像の低次基底関数モデルを生成するモデル生成部と、
    前記低次基底関数モデルを前記カラー映像に適用して前記カラー映像を最も近似するように再生成する1つ以上の拡散性照明定数を求める照明定数算出部と、
    を備える、ことを特徴とする映像処理装置。
JP2013543107A 2010-12-09 2011-12-09 映像処理装置、照明処理装置及びその方法 Active JP5795384B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US42135410P 2010-12-09 2010-12-09
US61/421,354 2010-12-09
KR10-2011-0003885 2011-01-14
KR20110003885 2011-01-14
PCT/KR2011/009506 WO2012078006A2 (ko) 2010-12-09 2011-12-09 영상 처리 장치, 조명 처리 장치 및 그 방법
KR10-2011-0131598 2011-12-09
KR1020110131598A KR101885090B1 (ko) 2010-12-09 2011-12-09 영상 처리 장치, 조명 처리 장치 및 그 방법

Publications (2)

Publication Number Publication Date
JP2014502741A JP2014502741A (ja) 2014-02-03
JP5795384B2 true JP5795384B2 (ja) 2015-10-14

Family

ID=46684677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013543107A Active JP5795384B2 (ja) 2010-12-09 2011-12-09 映像処理装置、照明処理装置及びその方法

Country Status (6)

Country Link
US (1) US9563959B2 (ja)
EP (1) EP2650843A4 (ja)
JP (1) JP5795384B2 (ja)
KR (1) KR101885090B1 (ja)
CN (1) CN103262126B (ja)
WO (1) WO2012078006A2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
JP6010004B2 (ja) * 2013-09-02 2016-10-19 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CA2931529C (en) * 2013-11-27 2022-08-23 Children's National Medical Center 3d corrected imaging
CN106031140B (zh) 2014-02-13 2019-05-14 日本电气株式会社 通信***、通信装置、通信方法和存储程序的非瞬时性计算机可读介质
CN104933390B (zh) * 2014-03-19 2018-02-13 富士通株式会社 生成皮肤图像的方法、装置以及电子设备
KR102273020B1 (ko) * 2014-06-18 2021-07-05 삼성전자주식회사 의료 영상 정합 방법 및 그 장치
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation
KR101863648B1 (ko) * 2017-01-11 2018-06-04 대양의료기(주) 척추 측만 정도 측정 장치 및 방법
KR102559202B1 (ko) * 2018-03-27 2023-07-25 삼성전자주식회사 3d 렌더링 방법 및 장치
CN110533707B (zh) 2018-05-24 2023-04-14 微软技术许可有限责任公司 照明估计
CN111612882B (zh) 2020-06-10 2023-04-07 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机存储介质及电子设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4144960B2 (ja) * 1999-03-18 2008-09-03 三洋電機株式会社 撮像装置及び画像合成装置並びに方法
JP2001014485A (ja) * 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 画像表示装置
US6707453B1 (en) * 2000-11-21 2004-03-16 Hewlett-Packard Development Company, L.P. Efficient rasterization of specular lighting in a computer graphics system
US6639594B2 (en) * 2001-06-03 2003-10-28 Microsoft Corporation View-dependent image synthesis
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
KR20030076470A (ko) 2003-06-19 2003-09-26 예원플라즈마 주식회사 전자제품의 보드내 플라스틱 캔을 이용한 이엠아이 및이에스디 차폐 장치 및 그 제조방법
US7262771B2 (en) 2003-10-10 2007-08-28 Microsoft Corporation Systems and methods for all-frequency relighting using spherical harmonics and point light distributions
WO2005124691A1 (ja) * 2004-06-16 2005-12-29 Techno Dream 21 Co., Ltd. 物体表面の反射特性をサンプリングして行う実時間レンダリングの方法及びテクスチャサイズを変換する方法
KR100609145B1 (ko) 2004-12-20 2006-08-08 한국전자통신연구원 실시간 전역조명 효과를 위한 렌더링 장치 및 그 방법
EP1887511A1 (en) * 2005-06-03 2008-02-13 NEC Corporation Image processing system, 3-dimensional shape estimation system, object position posture estimation system, and image generation system
JP3910618B2 (ja) * 2005-07-19 2007-04-25 株式会社ルネサステクノロジ 画像生成装置
WO2007139067A1 (ja) * 2006-05-29 2007-12-06 Panasonic Corporation 画像高解像度化装置、画像高解像度化方法、画像高解像度化プログラムおよび画像高解像度化システム
JP2008016918A (ja) * 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理システムおよび画像処理方法
JP4808600B2 (ja) * 2006-11-22 2011-11-02 デジタルファッション株式会社 レンダリングプログラム、レンダリング装置、及びレンダリング方法
CN100594519C (zh) * 2008-03-03 2010-03-17 北京航空航天大学 用球面全景摄像机实时生成增强现实环境光照模型的方法
CN102047651B (zh) * 2008-06-02 2013-03-13 松下电器产业株式会社 生成法线信息的图像处理装置、方法及视点变换图像生成装置
WO2009157129A1 (ja) * 2008-06-26 2009-12-30 パナソニック株式会社 画像処理装置、画像分割プログラムおよび画像合成方法
WO2010004677A1 (ja) * 2008-07-08 2010-01-14 パナソニック株式会社 画像処理方法、画像処理装置、画像処理プログラム、画像合成方法、および画像合成装置
WO2010026983A1 (ja) * 2008-09-03 2010-03-11 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
KR101100650B1 (ko) 2008-11-11 2012-01-03 한국전자통신연구원 맵데이터를 이용한 간접조명 표현과 다층 변위매핑 시스템 및 그 방법
KR101028697B1 (ko) 2008-12-30 2011-04-14 고려대학교 산학협력단 밝기 독립적인 텍스쳐 합성 장치 및 방법
CN101872491B (zh) * 2010-05-21 2011-12-28 清华大学 基于光度立体的自由视角重光照方法和***
CN101972491B (zh) 2010-09-25 2014-01-08 上海交通大学医学院附属瑞金医院 一种葡萄串状微囊体系及其制备方法

Also Published As

Publication number Publication date
EP2650843A2 (en) 2013-10-16
US20130251243A1 (en) 2013-09-26
KR20120064641A (ko) 2012-06-19
CN103262126A (zh) 2013-08-21
WO2012078006A3 (ko) 2012-10-04
WO2012078006A2 (ko) 2012-06-14
EP2650843A4 (en) 2018-03-28
US9563959B2 (en) 2017-02-07
KR101885090B1 (ko) 2018-08-03
JP2014502741A (ja) 2014-02-03
CN103262126B (zh) 2016-10-12

Similar Documents

Publication Publication Date Title
JP5795384B2 (ja) 映像処理装置、照明処理装置及びその方法
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US10818038B2 (en) Techniques for capturing dynamic appearance of skin
KR101671185B1 (ko) 렌더링을 위한 빛 및 질감 추출 장치 및 방법, 그리고, 빛 및 질감을 이용한 렌더링 장치
US9007422B1 (en) Method and system for mutual interaction using space based augmentation
Zollmann et al. Image-based ghostings for single layer occlusions in augmented reality
CN115699114B (zh) 用于分析的图像增广的方法和装置
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2010510571A (ja) 3d画像の色補正の方法及びそのシステム
KR20120003232A (ko) 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
KR100834157B1 (ko) 영상 합성을 위한 조명환경 재구성 방법 및 프로그램이기록된 기록매체
Meerits et al. Real-time diminished reality for dynamic scenes
Dos Santos et al. Real time ray tracing for augmented reality
JP2020198066A (ja) 拡張現実アプリケーション用システム及び方法
US8633926B2 (en) Mesoscopic geometry modulation
JP2019527355A (ja) デジタル画像における改善された光沢表現のためのコンピュータシステムおよび方法
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
Boom et al. Interactive light source position estimation for augmented reality with an RGB‐D camera
US20130194254A1 (en) Image processing apparatus, image processing method and program
JP2017102896A (ja) シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置
Noh et al. Soft shadow rendering based on real light source estimation in augmented reality
Brognara et al. Edge detection on polynomial texture maps
JP2014006658A (ja) 陰影情報導出装置、陰影情報導出方法及びプログラム
Boss et al. Single image brdf parameter estimation with a conditional adversarial network
Maia et al. A real-time x-ray mobile application using augmented reality and *** street view

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150812

R150 Certificate of patent or registration of utility model

Ref document number: 5795384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250