JP6515039B2 - 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 - Google Patents

連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 Download PDF

Info

Publication number
JP6515039B2
JP6515039B2 JP2016002279A JP2016002279A JP6515039B2 JP 6515039 B2 JP6515039 B2 JP 6515039B2 JP 2016002279 A JP2016002279 A JP 2016002279A JP 2016002279 A JP2016002279 A JP 2016002279A JP 6515039 B2 JP6515039 B2 JP 6515039B2
Authority
JP
Japan
Prior art keywords
image
normal vector
registration
computer
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016002279A
Other languages
English (en)
Other versions
JP2017123087A (ja
Inventor
小林 達也
達也 小林
加藤 晴久
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016002279A priority Critical patent/JP6515039B2/ja
Publication of JP2017123087A publication Critical patent/JP2017123087A/ja
Application granted granted Critical
Publication of JP6515039B2 publication Critical patent/JP6515039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、カメラによる撮影画像から平面物体の法線ベクトル(法線方向)を算出する技術に関する。
コンピュータビジョンやロボットビジョンの技術によれば、カメラによって撮影された映像を解析することによって、映像内に映り込む対象物体の位置姿勢を推定・追跡することができる。例えば、監視カメラの連続的な撮影画像に映る車両を追跡する技術がある(例えば特許文献1参照)。この技術によれば、フレーム毎に、画像中の対象物体をテンプレートマッチングによって追跡する。但し、画像に映る車両の位置を追跡するに過ぎず、向き(方向)を追跡することはできない。
これに対し、対象物体に仮想情報を重畳表示する拡張現実感技術によれば、カメラに対する対象物体の6自由度の位置姿勢を推定・追跡し、現実感の高い拡張現実を表示することができる。例えば、画像中で指定された対象物体に仮想オブジェクトを配置し、その対象物体の位置姿勢を推定・追跡することによって、仮想オブジェクトがあたかも指定された領域に存在するかのように表示することができる(例えば特許文献2参照)。
また、対象物体の3次元構造を3Dセンサでリアルタイムに取得し、その位置姿勢を推定/追跡する技術もある(例えば特許文献3参照)。
更に、単眼カメラのみで、撮影画像の3次元構造を推定する技術もある(例えば特許文献4参照)。
特許3651745号公報 特開2013−164697号公報 特開2014−511591号公報 特開2014−149582号公報 特開2015−069354号公報
A. Ruiz et al., "Practical planar metric rectification," In Proc. of British Machine Vision Conference, 2006. A Mulloni et al., "User friendly SLAM initialization," in Proc. of IEEE International Symposium on Mixed and Augmented Reality, 2013. F Yu et al., "3D Reconstruction from Accidental Motion," in Proc. of IEEE Conference on Computer Vision and Pattern Recognition, 2014.
しかしながら、前述した従来技術によれば、単眼カメラの連続的な撮影画像を用いて、対象物体の位置姿勢を推定・追跡する際に、対象物体の3次元構造が未知である場合、撮影角度の変化による見た目の変化を予測することができない。そのために、ロバスト(頑健)性が著しく損なわれる。
また、単眼カメラしか用いない場合、処理負荷や推定精度、カメラワーク(撮影中のカメラの動かし方)に対する制約が高い。例えば大きな視点変化を含む画像群を取得するようにカメラを動かす、ということが必要となる。
これに対し、撮影画像に映る対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下では、計算量を削減し且つ推定精度を高めることができる。対象物体の3次元構造の平面を、「法線ベクトル」で表すことによって、計算量に影響する未知パラメータ数を大幅に減らすことができる。
対象物体が平面であれば、例えば画像間のホモグラフィ行列から、対象物体の方向を推定することもできる(例えば非特許文献1参照)。
また、対象物体に複数の平面が含まれる場合に推定精度を向上させる技術もある(例えば特許文献5参照)。
しかしながら、これら技術についても、カメラワークに対する制約が存在する。
更に、既存技術のカメラワークの制約を解消する技術として、小さなカメラワークで撮影された連続画像から、バンドル調整を用いて撮影シーンの3次元構造を推定する技術がある(例えば非特許文献2、3参照)。これらの技術によれば、小さなカメラワークを前提とすることによって、推定するパラメータを制約し、初期パラメータの精度を向上させている。
しかしながら、この技術によれば、指定する対象物体の模様に制約があり、対象物体から万遍なく特徴点(画像特徴)が検出される場合にしか、実用的な精度を得ることができない。また、特徴点の追跡失敗に対するロバスト性に乏しい。
そこで、本発明は、対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下で、カメラワークの大きな制約無しに、連続的な撮影画像に映り込む平面物体の法線ベクトルを、できる限り少ない計算量で算出することができるプログラム、装置及び方法を提供する。
本発明によれば、撮影画像に映り込む平面物体の法線ベクトルを算出するようにコンピュータを機能させることを特徴とするプログラムにおいて、
連続的な撮影画像のNc個のフレームiと、
Nc個のフレームiの内のいずれかのフレームである登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)との両方を算出する法線ベクトル算出手段と
して機能させ、
法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ようにコンピュータを機能させることを特徴とする。
本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段は、基準点Xを、登録点pjの重心p(=[u,v]Tの逆投影(X=1/w[u,v,1]T)によって算出する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段について、再投影誤差関数は、以下の式によって表される
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
j=(nt・X/nt・pj')pj'
=(x+y+zn)/(xj+yj+z)[uj,vj,1]T
n 2+yn 2+zn 2=1
n=√(1−xn 2−yn 2)
j'(=[uj,vj,1]T):登録点pjの同次座標表現
i:撮影画像のNc個のフレームの番数
ij:フレームiに映るNp個の登録点pj毎の追跡座標
i及びti:フレームiのカメラ姿勢パラメータ
t:平面物体の法線ベクトル
:物体平面の通る基準点
proj(Ri,ti,Xj):3次元座標Xjの投影関数 [Ri|ti]Xj'
j':Xjの同次座標表現
i'及びti':フレームiのカメラ姿勢パラメータRi及びtiの推定値
t':平面物体の法線ベクトルntの推定値
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段について、再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、登録点に対する法線ベクトルnt(=[x,y,z]T,x +y +z =1)の2個とを合計した、6Nc+2個となる
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段は、撮影画像のカメラワークが微小であるとする前提条件の下、初期値として、カメラ姿勢パラメータのRiを単位行列とし、tiを零ベクトルとして、法線ベクトルを算出する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段について、再投影誤差関数は、バンドル調整における法線ベクトルの初期値を、光軸と平行な方向nt=[0,0,1]Tとする
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
登録画像の登録点と撮影画像の追跡座標との間のホモグラフィ行列を用いて、誤追跡された追跡座標を除外する画像特徴追跡手段と
して更にコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
撮影画像の中から、ユーザ操作に応じて平面物体が映る対象領域を特定し、該対象領域を登録画像として記憶する登録画像記憶手段と
して更にコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
登録画像記憶手段は、登録画像を、法線ベクトル算出手段によって算出された法線ベクトルによって正面化画像に幾何変換し、該正面化画像を登録画像として記憶する
ようにコンピュータを機能させることも好ましい。
本発明によれば、撮影画像に映り込む平面物体の法線ベクトルを算出する画像処理装置において、
連続的な撮影画像のNc個のフレームiと、
Nc個のフレームiの内のいずれかのフレームである登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)との両方を算出する法線ベクトル算出手
を有し、
法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ことを特徴とする。
本発明によれば、撮影画像に映り込む平面物体の法線ベクトルを算出する装置の法線ベクトル算出方法において、
装置は、
連続的な撮影画像のNc個のフレームiと、
Nc個のフレームiの内のいずれかのフレームである登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)との両方を算出するステップ
を実行し、
ステップは、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ことを特徴とする。



本発明のプログラム、装置及び方法によれば、対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下で、カメラワークの大きな制約無しに、連続的な撮影画像に映り込む平面物体の法線ベクトルを、大幅に少ない計算量で算出することができる。具体的には、法線ベクトルを算出するためのバンドル調整における未知パラメータの数を削減しているために、処理負荷を削減し、推定精度を高めることができる。また、ホモグラフィ行列を用いることによって、特徴点の追跡失敗に対するロバスト性も向上させることができる。
本発明における画像処理装置の機能構成図である。 登録画像及び正面化画像の法線ベクトルを表す説明図である。 法線ベクトルと正面化回転行列との関係を表す説明図である。 登録画像の登録点と撮影画像の追跡座標との間の対応関係を表す説明図である 登録点と追跡座標との対応を表す画像図である。 異なる未知パラメータの数で表現した特徴点(追跡座標)を表す画像図である。 登録点と基準点、法線ベクトル、対象物平面の幾何的関係を表す説明図である。 光軸中心と、画像平面上の登録画像の登録点と、撮影画像の法線ベクトルとの幾何的関係を表すグラフである。 バンドル調整に応じてフレーム数に対する法線ベクトルの収束及び処理時間を表すグラフである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
図1は、本発明における画像処理装置の機能構成図である。
図1の画像処理装置によれば、画像取得部10と、登録画像記憶部11と、画像特徴追跡部12と、法線ベクトル算出部13とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の法線ベクトル算出方法としても理解できる。
本発明によれば、連続的な撮影画像に映り込む平面物体の法線ベクトルを算出する際に、以下の2つの条件を前提とすることによって、3次元構造の未知のパラメータ数を削減し、できる限り少ない計算量で実行する。
(前提条件1)対象物体が、平面物体(又は概ね平面で近似可能な物体)である
(前提条件2)撮影画像のカメラワークが、微小である
撮影画像に映り込む「対象物体」とは、平面で且つ剛体の「平面物体」であり、時間経過に応じて変形するような物体を対象としていない。また、特徴点追跡によって法線ベクトルを推定するために、撮影画像に映る対象物体から、比較的多くの特徴点が検出されることを前提としている。但し、単一色の平面の場合は、特徴点が検出されにくい場合がある。対象物体としては、例えば雑誌やポスター、広告、トレーディングカード、建物の壁面が想定されている。
「カメラワーク」とは、ユーザによるカメラの動かし方を意味する。「カメラワークが微小である」ということは、ユーザがカメラをできる限り動かさないように把持して、対象物体を撮影している状態をいう。これに対し、「カメラワークが大きい」とは、ユーザがカメラを大きく動かして、対象物体を様々な位置と方向から撮影している状態をいう。
[画像取得部10]
画像取得部10は、カメラによる連続的な撮影画像を取得する。撮影画像は、予め録画されたものであってもよいし、インタフェースを介して外部から時系列に入力されるもの(例えばライブ映像)であってもよい。インタフェースは、ネットワークに接続する通信インタフェースであってもよいし、カメラからの入力インタフェースであってもよい。取得された撮影画像は、画像特徴追跡部12へ出力される。ここで、登録画像がユーザによって指定される場合、取得された撮影画像は、登録画像記憶部11へも出力される。
[登録画像記憶部11]
ユーザは、撮影画像中の平面物体の姿勢推定を開始する際に、ユーザインタフェースを介して登録画像を設定し、姿勢推定の開始を指示する。登録画像記憶部11は、画像取得部10から入力された撮影画像の中から、対象領域となる登録画像を記憶する。
登録画像記憶部11は、ユーザからユーザインタフェースを介して、平面物体が映る大まかな画像範囲の指示を受け付けることもできる。例えば、ユーザが、平面物体を包含する矩形領域や輪郭を、ポインティング操作に応じて指示する。ここで、登録画像には、その平面物体が、比較的大きく撮像されていることが好ましい。この登録画像が、連続して入力される撮影画像の中で追跡されていく。
登録画像記憶部11は、登録画像の画像範囲のトリミングや、画像範囲の外側の背景を単一色で塗りつぶすように画像処理を加えることによって、背景に対する画像特徴の追跡のロバスト性を高めることができる。また、対象物体を表すマスク画像(登録画像と同じ範囲で、対象領域の輝度値を255、それ以外の輝度値を0とすることで表現した画像)を保持し、そのマスク画像を用いて画像特徴追跡部12が、画像特徴を検出する範囲を制限してもよい。
図2は、登録画像及び正面化画像の法線ベクトルを表す説明図である。
図2によれば、登録画像について、法線ベクトル算出部13によって算出された法線ベクトルnt=[xn,yn,zn]Tを用いて幾何変換している。これによって、平面物体が映る登録画像を、正面化画像(平面物体を正面から撮像した際の画像をシミュレートした変換画像)に変換することができる。平面物体が正面から撮影されている場合、法線ベクトルは、画像平面と垂直、光軸と並行の関係になる。逆に、平面物体が真横から撮影されている場合、法線ベクトルは、光軸と垂直、画像平面と並行の関係になる。
登録画像記憶部11は、その正面化画像を記憶することができる。登録画像を正面化画像に変換することによって、画像認識や姿勢追跡の精度を向上させることができる。
図3は、法線ベクトルと正面化回転行列との関係を表す説明図である。
図3によれば、回転行列をRrecは、平面物体の法線ベクトルntが、光軸(Z軸)と並行なベクトルnZと一致するように変換するものである。
Rrec=RYY)RXX)
X:X軸周りの回転行列
Y:Y軸周りの回転行列
θX:ntのX軸に沿った角度
θY:ntのY軸に沿った角度
この回転行列Rrecを用いて、登録画像を正面化することができる。例えば以下のようなホモグラフィ行列Hrecによって、登録画像を正面化画像に変換することができる。
Hrec=[p1,p2,p4
Prec=[p1,p2,p3,p4]=A[Rrec|t]
t:登録画像中の平面物体の位置を調整する並進ベクトル
ここで、tは正面化画像中の平面物体が画像中央に来るように調整して設定することが望ましい。
カメラの内部パラメータAは、画像の歪みを無視した場合、以下のように表すことができる。
x、f:焦点距離、cx、cy:光軸のズレ
焦点距離fx、fy及び光軸のズレcx、cyは、事前のキャリブレーションによって算出しておくことができる。画像平面上の二次元ピクセル座標[u,v]Tは、内部パラメータを用いて、以下の式で正規化座標[u',v']Tに変換することができる。
u'=(u−cx)/fx , v'=(v−cy)/fy
このように、二次元座標を正規化座標で表現することにより、式を簡潔に記載することができる。そのために、本発明の登録点や特徴点の二次元座標は、正規化座標で記載していることに注意すべきである。
[画像特徴追跡部12]
画像特徴追跡部12は、連続的な撮影画像の中で、登録画像の登録点(画像特徴)を追跡する。
図4は、登録画像の登録点と撮影画像の追跡座標との間の対応関係を表す説明図である。
画像間で画像特徴を追跡するために、一般的に以下の2つの技術がある。
<特徴点追跡ベース>
<局所特徴量のマッチングベース>
画像特徴追跡部12は、2つのいずれか一方又は両方を用いて、登録画像(法線ベクトルnt)の登録点pj(=[u,v]T、j=1〜Np)に対応する撮影画像の追跡座標mij(=[uij,vij]T、i=1〜Nc)を取得する。
<特徴点追跡ベース>
特徴点追跡ベースの技術によれば、Harrisコーナー検出器や、FASTコーナー検出器によって、登録画像の登録点に対応する撮影画像の中の追跡座標を検出する。一般的に、KLT(Kanade-Lucas-Tomasi)アルゴリズムや、特徴点周囲局所領域を切り出したパッチのテンプレートマッチングの技術が用いられる。テンプレートマッチングの類似度算出方法としては、NCC(Normalized Cross Correlation)やSSD(Sum of Squared Difference)を用いることができる。
<局所特徴量のマッチングベース>
局所特徴量のマッチングベースの技術によれば、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)のような、位置や回転、歪みの変化に頑健な特徴量のマッチングによって画像間の点対応を取得する。SIFTは、1枚の画像からは128次元の特徴ベクトルの集合を抽出し、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる特徴ベクトルを記述する。SURFは、積分画像を利用することによってSIFTよりも高速処理が可能であって、1枚の画像から64次元の特徴ベクトルの集合を抽出する。また、バイナリ特徴ベクトル抽出アルゴリズムであるFAST(Features from Accelerated Segment Test)やFREAK(Fast Retina Keypoint)の場合、SIFTやSURFよりも高速且つコンパクトな特徴ベクトルを抽出することができる。
ここで、登録点と追跡座標との間で、背景画像が写りこむ場合や、照明変化、パターン模様等に起因して、誤追跡(アウトライア)される場合がある。後段の法線ベクトル算出部13に入力される登録点及び追跡座標には、アウトライアの対応点が入力されないことが好ましい。ここで、画像特徴追跡部12は、登録画像の登録点と撮影画像の追跡座標との間のホモグラフィ行列を用いて、誤追跡された追跡座標を除外する。即ち、アウトライアの追跡座標が除外され、インライアの追跡座標のみが、法線ベクトル算出部13へ出力される。
図5は、登録点と追跡座標との対応を表す画像図である。
図5によれば、対象物体が平面であると仮定して、幾何的な検証によって誤追跡を除外することができる。平面物体上の登録点の位置の変化は、ホモグラフィ変換で表現することができる。そのために、画像特徴追跡部12は、登録画像と撮影画像との間のホモグラフィ行列HRCを推定し、そのHRCに該当しない追跡座標を除外することによって、追跡のロバスト性を向上させることができる。
具体的には、各登録点pjについて、HRCを用いた変換位置と、実際の追跡座標mijの距離dijを、以下の式によって算出する。
ij=|mij−p'ij
P'ij ̄=HRCij
ij' ̄:pijの同次表現
ij:追跡座標mijのホモグラフィ行列HRCからの乖離度
ijが一定の閾値以上の追跡座標mijを除外することによって、追跡のロバスト性を向上させることができる。
一般に、ホモグラフィ行列の推定値は、登録点の投影誤差関数の最小化問題を解くことによって得られる。ここで、更に、RANSAC(RANdom SAmple Consensus)のようなロバスト推定を併用することによって、HRCに該当する追跡座標のインライアとアウトライアとを、ロバストに分離することができる。
登録画像の全面に平面物体が映る場合、画像間のホモグラフィ行列を高精度に推定することができる。一方で、登録画像の一部にしか平面物体が映らない場合(背景が写る場合)や、対象物体が一部立体的構造を含む場合、画像特徴の対応からホモグラフィ行列を一意に推定することができない。このとき、正しい追跡座標であっても、ホモグラフィ推定によってアウトライアとなることが起こりうる。これらの点は平面構造に合致しないため、追跡結果に含まれると法線ベクトルの推定精度の劣化要因となる。そのため、ロバスト推定で除外されることが好ましい。
このような点が少数であれば、ロバスト推定で正しく除外することができる。尚、背景に対して平面物体の面積が相対的に小さい場合は、アウトライアの除外に失敗し、誤ったホモグラフィ行列を算出してしまうことに留意すべきである。
<ホモグラフィ行列を用いた登録画像の画像範囲の推定>
ユーザの指示に応じて平面物体が映る登録画像から、ある程度、背景領域を除外することができる。しかしながら、ユーザが厳密に、平面物体を登録画像全体で指定することは難しく、登録画像の指定には誤差が含まれる。尚、本来、利便性の観点からは、対象領域をユーザに指定させる必要が無いことが好ましい。
ここで、画像特徴追跡部12は、登録画像中の対象領域を推定し、ホモグラフィ行列の算出に用いる画像特徴を制限することで、ホモグラフィ推定のロバスト性を向上させる。また、対象領域外の画像特徴に対して、ホモグラフィ行列と合致するかを検証することによって、画像特徴追跡のロバスト性を向上させる。最終的には、インライアとなった登録点のみを用いて対象領域を更新することができる。
<登録画像に映る平面物体の位置の推定>
平面物体は、登録画像の中央付近に写っていることが一般的に期待されており、対象領域の初期値として、登録画像の中央付近の領域を指定することが望ましい。ホモグラフィ行列に合致するインライアの取得後、インライアを包含する領域を対象領域として更新する。
<大きすぎるカメラワークに対する処理の中断>
追跡に成功した追跡座標(画像特徴)の数が著しく少ない場合、複数の原因がある。例えば、カメラワークが大きすぎるか、光源変化やフォーカスの変化によって画像特徴の追跡が著しく困難な画像が入力されたか、登録画像にノイズが乗っている場合がある。これらの場合、法線ベクトルを正確に算出することができない。そのために、画像特徴追跡部12は、追跡に成功した画像特徴の数が第1の所定閾値τnp以下の場合に、画像処理を中断して、画像登録からやり直す。
<少なすぎる追跡座標に対する処理の中断>
十分な数の追跡座標(画像特徴)が追跡できたにもかかわらず、ホモグラフィ行列に合致する(インライアとなる)追跡座標の数が著しく少ない場合、対象領域が平面で無い場合が想定される。この場合、画像特徴追跡部12は、追跡に成功した画像特徴の数が第2の所定閾値(<第1の所定閾値)以下の場合に、画像処理を中断して、「対象物体が平面で無い」旨をユーザに明示する。
<多面体の対象物体に対する繰り返し処理>
対象物体が複数平面で構成される場合は、第1の対象領域についてアウトライアとなった追跡座標のみから再度、RANSAC等のロバスト推定を用いて、第2の対象領域として、第1のHRCとは異なる第2のホモグラフィ行列HRCを算出し、そのインライアとなる追跡座標を抽出することも好ましい。3つ以上の対象領域についても、これを繰り返すことができる。
第2の対象領域以降の法線ベクトルは、法線ベクトル算出部13の処理によって、第1の対象領域の法線ベクトルを推定した後で同様の処理を繰り返していくか、又は、各対象領域に対して法線ベクトル算出部13の処理を並列に実行することもできる。並列的に実行する方が、法線ベクトルを高速に推定することができるが、処理負荷が高くなる。処理リソースに応じて、処理手順を選択することが好ましい。
[法線ベクトル算出部13]
法線ベクトル算出部13には、画像特徴追跡部12から、各撮影画像に対応する連続的な登録点pの群が入力される。法線ベクトル算出部13は、撮影画像に映り込む平面物体の法線ベクトルを算出するために、以下の要素を用いる。
i:連続的な撮影画像のNc個のフレームの番数
j(=[x,y,z]T):平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標
ij(=[uij,vij]T、i=1〜Nc):各フレームに映るNp個の登録点pj毎の追跡座標
そして、法線ベクトル算出部13は、再投影誤差関数(バンドル調整)を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出する。
このとき、本発明の法線ベクトル算出部13は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する。
これによって、Xj(=[x,y,z]T)を未知パラメータとすることなく、これに代えて、法線ベクトルntの2パラメータを未知パラメータとすることができる。
また、法線ベクトル算出部13は、基準点Xを、登録点pjの重心p(=[u,v]Tの逆投影(X=1/w[u,v,1]T)によって算出するものであってもよい。
物体平面の通る基準点X(=[x,y,z]T)は、再投影誤差関数の最小化計算の安定性の観点から、対象物平面の中心付近に設定することが好ましい。また、推定されるカメラ姿勢はスケール不定のため、Xの奥行きは任意の値に設定してもよい。例えば、X=[0,0,f]T(fは焦点距離f、fに近い値)と設定してもよい。
但し、対象物が画像中央に映るとは限らないため、登録点pjの重心p(=[u,v]T)を算出して、pの逆投影点X(=1/w[u,v,1]T)を算出してもよい。これにより、対象物が画面の端の方に映る場合における、法線ベクトル算出の安定性を向上することができる。この場合についても、奥行き1/wは任意の値(例えば焦点距離f、fに近い値)に設定してもよい。また、予め対象物平面までの距離が大まかに分かっている場合には、分かっている範囲に設定することも好ましい。
法線ベクトル算出部13について、再投影誤差関数(バンドル調整)は、以下の式によって表される。
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
j=(nt・X/nt・pj')pj'
=(x+y+zn)/(xj+yj+z)[uj,vj,1]T
n 2+yn 2+zn 2=1
n=√(1−xn 2−yn 2)
j'(=[uj,vj,1]T):登録点pjの同次座標表現
i:撮影画像のNc個のフレームの番数
ij:フレームiに映るNp個の登録点pj毎の追跡座標
i及びti:フレームiのカメラ姿勢パラメータ
t:平面物体の法線ベクトル
:物体平面の通る基準点
proj(Ri,ti,Xj):3次元座標Xjの投影関数 [Ri|ti]Xj'
j':Xjの同次座標表現
i'及びti':フレームiのカメラ姿勢パラメータRi及びtiの推定値
t':平面物体の法線ベクトルntの推定値
図6は、異なる未知パラメータの数で表現した特徴点(追跡座標)を表す画像図である。
既存技術に基づく3次元復元で用いられるバンドル調整の場合、Xj(=[x,y,z]T)を未知パラメータとしている。そのために、再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、Np個の3次元座標の登録点pjとなり、未知パラメータの数は、6Nc+3Np個となる。
i',ti',Xj'=arg minRi,ti,xjΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
これに対し、本発明によれば、Xj(=[x,y,z]T)に代えて、法線ベクトルntの2パラメータを未知パラメータnt’とする。そのために、再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、登録点pjに対する法線ベクトルnt(=[x,y,z]T,x +y +z =1)の2個とを合計した、6Nc+2個となる。
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
そのために、本発明によれば、パラメータ数を大幅に削減することができ、処理負荷の削減と、精度の向上との効果を得られる。
図7は、登録点と基準点、法線ベクトル、対象物平面の幾何的関係を表す説明図である。
法線ベクトルを算出できれば、平面物体の3次元構造を算出できる。ここで、法線ベクトルの推定対象となる平面物体は、事前に見た目やサイズに関する情報が全く与えられていないこととする。法線ベクトル算出部13の推定する平面物体の法線ベクトルとは、画像平面に対する平面物体の法線ベクトルの情報である。
また、法線ベクトル算出部13について、再投影誤差関数は、バンドル調整における法線ベクトルの初期値を、光軸と平行な方向とすることが好ましい。
再投影誤差関数の最小化は、ガウス・ニュートン法に代表される、非線形最小化問題の解法を用いることができる。
法線ベクトル算出部13は、撮影画像のカメラワークが微小であるとする前提条件の下、初期値として、カメラ姿勢パラメータのRiを単位行列とし、tiを零ベクトルとし、nt=[0,0,1]Tとして、法線ベクトルを算出する。回転行列Riは、以下の式で分解できるため、パラメータrx,ry,rzをパラメータとして用いる。
θ=||r||L2
r=[rx,ry,rz]T
特に、カメラワーク(視点変化)が小さいほど、回転行列Riは以下の式で近似できるため、θi xi yi zをパラメータとして用いてもよい。
最終的に、法線ベクトル算出部13は、推定した法線ベクトルntを、所定のアプリケーションへ出力することができる。また、法線ベクトルntは、登録画像記憶部11へ出力され、登録画像に対する正面化画像を記憶することもできる。
図8は、光軸中心と、画像平面上の登録画像の登録点と、撮影画像の法線ベクトルとの幾何的関係を表すグラフである。
図8によれば、400×400ピクセルの画像平面を、20ピクセル間隔でサンプリングし、441点の初期追跡点pjを取得したものである(Np=441)。
対象平面の法線ntを、z軸方向から角度45度以内でランダムに生成し、登録点pjを逆投影して3次元座標Xjを取得する。焦点距離fは、500mmに設定している。
そして、初期のカメラ姿勢r0=[0 0 0]T、t0=[0 0 0]Tにガウシアンノイズを加え、カメラ姿勢Ri及びti(i=1〜100)を生成する。
カメラ姿勢Ri及びtiによってXjを投影し、ガウシアンノイズを加えて、追跡点mij(j=1〜441)を生成する。
ijを入力として、法線方向nt'を推定する。
推定に使用するフレーム数を、2枚から100枚まで徐々に増やし、精度及び処理時間を評価する(Nc=2〜100)。
tを100セット用意し、精度及び処理時間の平均を算出する。
図9は、バンドル調整に応じてフレーム数に対する法線ベクトルの精度及び処理時間を表すグラフである。
図9によれば、異なるバンドル調整について比較している。
DE:従来のバンドル調整(パラメータ数6Nc+Np=453〜1041)で、3次元座標Xj'を主成分分析して、法線ベクトルnt'を算出する。
OE:本発明のバンドル調整(パラメータ数6Nc+2=14〜602)で、法線ベクトルを算出する。
図9(a)は、フレーム数に応じた法線ベクトルの推定精度を表すグラフである。ここでは、従来技術のバンドル調整DEと、本発明のバンドル調整OEとを比較して、法線ベクトルの精度は同じである。即ち、20フレーム程度で、法線ベクトルを高精度(角度誤差約2度)に算出できる。
図9(b)は、フレーム数に応じた法線ベクトルの処理時間を表すグラフである。ここでは、従来技術のバンドル調整DEと、本発明のバンドル調整OEとを比較して、法線ベクトルの推定処理時間は大きく異なっている。即ち、本発明のバンドル調整OEの処理時間が、極めて高速(短時間)であることが理解できる。具体的には、Nc=2で60倍、Nc=20で約12倍、Nc=100で約3倍の高速化が確認できる。
前述した実施形態によれば、1枚の平面で構成された平面物体について説明した。勿論、本発明によれば、複数の主要平面で構成された対象物体であっても、複数平面のそれぞれについて適用することもできる。即ち、本発明は、対象物体を構成する主要な平面数を1枚に限定するものではない。平面数を増やすことで、任意形状の対象物体に対して適用することができる。
以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下で、カメラワークの大きな制約無しに、連続的な撮影画像に映り込む平面物体の法線ベクトルを、大幅に少ない計算量で算出することができる。具体的には、法線ベクトルを算出するためのバンドル調整における未知パラメータの数を削減しているために、処理負荷を削減し、推定精度を高めることができる。また、ホモグラフィ行列を用いることによって、特徴点の追跡失敗に対するロバスト性も向上させることができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 画像処理装置
10 画像取得部
11 登録画像記憶部
12 画像特徴追跡部
13 法線ベクトル算出部

Claims (13)

  1. 撮影画像に映り込む平面物体の法線ベクトルを算出するようにコンピュータを機能させることを特徴とするプログラムにおいて、
    連続的な撮影画像のNc個のフレームiと、
    前記Nc個のフレームiの内のいずれかのフレームである登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
    各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
    再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)との両方を算出する法線ベクトル算出手段と
    して機能させ、
    前記法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
    ようにコンピュータを機能させることを特徴とするプログラム。
  2. 前記法線ベクトル算出手段は、基準点Xを、登録点pjの重心p(=[u,v]Tの逆投影(X=1/w[u,v,1]T)によって算出する
    ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。
  3. 前記法線ベクトル算出手段について、前記再投影誤差関数は、以下の式によって表される
    i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
    j=(nt・X/nt・pj')pj'
    =(x+y+zn)/(xj+yj+z)[uj,vj,1]T
    n 2+yn 2+zn 2=1
    n=√(1−xn 2−yn 2)
    j'(=[uj,vj,1]T):登録点pjの同次座標表現
    i:撮影画像のNc個のフレームの番数
    ij:フレームiに映るNp個の登録点pj毎の追跡座標
    i及びti:フレームiのカメラ姿勢パラメータ
    t:平面物体の法線ベクトル
    :物体平面の通る基準点
    proj(Ri,ti,Xj):3次元座標Xjの投影関数 [Ri|ti]Xj
    j':Xjの同次座標表現
    i'及びti':フレームiのカメラ姿勢パラメータRi及びtiの推定値
    t':平面物体の法線ベクトルntの推定値
    ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。
  4. 前記法線ベクトル算出手段について、前記再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、登録点に対する法線ベクトルnt(=[x,y,z]T,x +y +z =1)の2個とを合計した、6Nc+2個となる
    ようにコンピュータを機能させることを特徴とする請求項3に記載のプログラム。
  5. 前記法線ベクトル算出手段は、撮影画像のカメラワークが微小であるとする前提条件の下、初期値として、カメラ姿勢パラメータのRiを単位行列とし、tiを零ベクトルとして、前記法線ベクトルを算出する
    ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。
  6. 前記法線ベクトル算出手段について、前記再投影誤差関数は、バンドル調整における法線ベクトルの初期値を、光軸と平行な方向(nt=[0,0,1]T)とする
    ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。
  7. 登録画像の登録点と撮影画像の追跡座標との間のホモグラフィ行列を用いて、誤追跡された追跡座標を除外する画像特徴追跡手段と
    して更にコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。
  8. 撮影画像の中から、ユーザ操作に応じて平面物体が映る対象領域を特定し、該対象領域を登録画像として記憶する登録画像記憶手段と
    して更にコンピュータを機能させることを特徴とする請求項1から7のいずれか1項に記載のプログラム。
  9. 前記登録画像記憶手段は、登録画像を、前記法線ベクトル算出手段によって算出された法線ベクトルによって正面化画像に幾何変換し、該正面化画像を登録画像として記憶する
    ようにコンピュータを機能させることを特徴とする請求項8に記載のプログラム。
  10. 前記画像特徴追跡手段は、追跡に成功した画像特徴の数が第1の所定閾値以下の場合に、画像処理を中断して、画像登録からやり直す
    ようにコンピュータを機能させることを特徴とする請求項7に記載のプログラム。
  11. 前記画像特徴追跡手段は、追跡に成功した画像特徴の数が第2の所定閾値(<第1の所定閾値)以下の場合に、画像処理を中断して、「対象物体が平面で無い」旨をユーザに明示する
    ようにコンピュータを機能させることを特徴とする請求項10に記載のプログラム。
  12. 撮影画像に映り込む平面物体の法線ベクトルを算出する画像処理装置において、
    連続的な撮影画像のNc個のフレームiと、
    前記Nc個のフレームiの内のいずれかのフレームである登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
    各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
    再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)との両方を算出する法線ベクトル算出手
    を有し、
    法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
    ことを特徴とする画像処理装置。
  13. 撮影画像に映り込む平面物体の法線ベクトルを算出する装置の法線ベクトル算出方法において、
    装置は、
    連続的な撮影画像のNc個のフレームiと、
    前記Nc個のフレームiの内のいずれかのフレームである登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
    各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
    再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)との両方を算出するステップ
    を実行し、
    前記ステップは、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
    ことを特徴とする装置の法線ベクトル算出方法。
JP2016002279A 2016-01-08 2016-01-08 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 Active JP6515039B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016002279A JP6515039B2 (ja) 2016-01-08 2016-01-08 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016002279A JP6515039B2 (ja) 2016-01-08 2016-01-08 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP2017123087A JP2017123087A (ja) 2017-07-13
JP6515039B2 true JP6515039B2 (ja) 2019-05-15

Family

ID=59305922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016002279A Active JP6515039B2 (ja) 2016-01-08 2016-01-08 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法

Country Status (1)

Country Link
JP (1) JP6515039B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107392937B (zh) * 2017-07-14 2023-03-14 腾讯科技(深圳)有限公司 目标跟踪方法、装置及电子设备
JP6901386B2 (ja) * 2017-12-08 2021-07-14 株式会社東芝 勾配推定装置、勾配推定方法、プログラムおよび制御システム
JP6931267B2 (ja) * 2018-06-21 2021-09-01 Kddi株式会社 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法
CN110458870B (zh) * 2019-07-05 2020-06-02 北京迈格威科技有限公司 一种图像配准、融合、遮挡检测方法、装置和电子设备
CN110766756B (zh) * 2019-10-21 2022-09-30 大连理工大学 一种基于多方向投影的落点定位方法
CN112150558B (zh) 2020-09-15 2024-04-12 阿波罗智联(北京)科技有限公司 用于路侧计算设备的障碍物三维位置获取方法及装置
CN113077521B (zh) * 2021-03-19 2022-11-01 浙江华睿科技股份有限公司 一种相机标定方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6042146B2 (ja) * 2012-09-18 2016-12-14 株式会社東芝 対象物検出装置および対象物検出方法
JP5878454B2 (ja) * 2012-11-05 2016-03-08 日本電信電話株式会社 推定装置、推定方法及びコンピュータプログラム
CN105095905B (zh) * 2014-04-18 2018-06-22 株式会社理光 目标识别方法和目标识别装置

Also Published As

Publication number Publication date
JP2017123087A (ja) 2017-07-13

Similar Documents

Publication Publication Date Title
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
US10059002B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP6587421B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9235928B2 (en) 3D body modeling, from a single or multiple 3D cameras, in the presence of motion
KR101333871B1 (ko) 멀티-카메라 교정을 위한 방법 및 장치
US11568516B2 (en) Depth-based image stitching for handling parallax
CN108960045A (zh) 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体
US20100296724A1 (en) Method and System for Estimating 3D Pose of Specular Objects
JP5484133B2 (ja) 鏡面反射物体の3d姿勢を推定する方法
WO2018171008A1 (zh) 一种基于光场图像的高光区域修复方法
US8531505B2 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
KR20170092533A (ko) 얼굴 포즈 교정 방법 및 장치
US11403781B2 (en) Methods and systems for intra-capture camera calibration
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP2014095553A (ja) カメラポーズ推定装置、及びカメラポーズ推定プログラム
WO2016208404A1 (ja) 情報処理装置および方法、並びにプログラム
JP6272071B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8948461B1 (en) Method and system for estimating the three dimensional position of an object in a three dimensional physical space
US20150178927A1 (en) Method and system for determining a transformation associated with a capturing device
JP6579659B2 (ja) 光源推定装置及びプログラム
JP2022516298A (ja) 対象物を3d再構築するための方法
JP7326965B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
Paudel et al. Localization of 2D cameras in a known environment using direct 2D-3D registration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150