JP7378997B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7378997B2
JP7378997B2 JP2019134499A JP2019134499A JP7378997B2 JP 7378997 B2 JP7378997 B2 JP 7378997B2 JP 2019134499 A JP2019134499 A JP 2019134499A JP 2019134499 A JP2019134499 A JP 2019134499A JP 7378997 B2 JP7378997 B2 JP 7378997B2
Authority
JP
Japan
Prior art keywords
light source
imaging
image data
information processing
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019134499A
Other languages
English (en)
Other versions
JP2021018643A (ja
JP2021018643A5 (ja
Inventor
秀幸 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019134499A priority Critical patent/JP7378997B2/ja
Publication of JP2021018643A publication Critical patent/JP2021018643A/ja
Publication of JP2021018643A5 publication Critical patent/JP2021018643A5/ja
Application granted granted Critical
Publication of JP7378997B2 publication Critical patent/JP7378997B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体に光を照射する光源に関する情報を推定するための技術に関する。
従来、物体の周囲の環境における光源の方向や位置を推定する技術がある。特許文献1は、物体が配置された環境に鏡状球体を配置して鏡状球体を撮像して得られる画像を基に、光源を含む環境情報を作成する技術を開示している。
特開2010-243478号公報
しかし、特許文献1は、物体に光を照射する光源を含む環境に関する情報を得るために、鏡面球を撮像する必要があった。
本発明は、上記課題を鑑みてなされたものであり、鏡面球を撮像せずに、物体に光を照射する光源に関する情報を推定するための処理を提供することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、光源の位置を変化させながら物体を複数回撮像して得られる第1画像データ群を取得する第1取得手段と、前記物体を撮像する環境に配置された、表面が鏡面である球を、前記光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する第2取得手段と、前記第1画像データ群と第2画像データ群とを用いた機械学習によって、撮像環境における光源の方向を得るための学習モデルを生成する生成手段と、を有することを特徴とする。
本発明によれば、鏡面球を撮像せずに、物体に対して光源を照射する光源に関する情報を推定することができる。
生徒データを得るための撮像の様子を示す図 光の当たり方に応じた色の変化を説明するための図 教師データを得るための撮像の様子を示す図 撮像された画像内の鏡面球に写り込む光源を説明するための図 色評価システムのハードウェア構成を示すブロック図 色評価システムの機能構成を示すブロック図 ニューラルネットワークを説明するための図 参照物体を撮像する様子を示す図 情報処理装置が実行する処理を示すフローチャート 光源ベクトルを導出する処理を説明するための図 色の評価値を導出する処理を示すフローチャート 色参照テーブルから色情報を取得する処理を説明するための図 評価結果の表示例を示す図 光の当たり方に応じた色の変化を説明するための図
以下、本実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
[第1実施形態]
従来、物体を撮像して得られる画像を基に、物体の色を評価する技術がある。特に、光の当たり方に応じて色の見え方が異なる物体を評価する場合には、光源がどの方向から物体に対して光を照射しているかを特定する情報が必要となる。光源の方向を推定する技術として、評価対象の物体と鏡面球とを同じ撮像範囲に含めて撮像を行うことにより、評価対象の物体に光を照射する光源の方向を推定する技術がある。しかしこの技術では、物体の色を評価する度に鏡面球を画像内に写り込ませる必要がある。そこで、本実施形態においては、所定の物体を撮像して得られる画像データと、鏡面球を撮像して得られる画像データと、を学習データとして学習モデルを予め生成しておき、学習モデルから出力される情報を基に物体に対する光源の方向を推定する。これにより、鏡面球を毎度用意することなく、物体の色の評価を行うことができる。
本実施形態において色を評価する対象の物体は車である。よって、学習モデルに学習させる入力用の画像データ(以下、生徒データと呼ぶ)は、車を撮像して得られる画像データである。図1は、生徒データを得るための撮像の様子を示す図である。車3は、光源4の方向を変化させながら撮像装置5により撮像される。車のボディは、一般的に金属で作られているため、入射した光を鏡面反射しやすい。このため、車のボディに対する光の当たり方に応じて鏡面反射光がどの程度観察されるかが変わる。図2に光の当たり方に応じた色の見え方を示す。また、学習モデルに学習させる出力用の画像データ(以下、教師データと呼ぶ)は、鏡面球を車と同じ撮像条件において撮像して得られる画像データである。図3は、教師データを得るための撮像の様子を示す図である。鏡面球6は、図1の車3と同一位置に配置され、光源4の方向を変化させながら撮像装置5により撮像される。撮像により得られる画像内の鏡面球には、図4のように光源が写り込む。写り込んだ鏡面球内の光源の位置を基に、光源の方向を推定することができる。鏡面球に対する光の当たり方と車のボディの色味の変化との相関関係を学習モデルに学習させることによって、光源の方向を推定する学習モデルを生成する。具体的には、本実施形態における学習モデルは、物体の撮像画像データを入力とした場合に、該物体に光を照射する光源の方向を推定するために用いられる鏡面球の画像データを出力する学習モデルである。尚、本実施形態においては、光源の方向を変化させながら車と鏡面球とを同一位置に配置して撮像を行い、同じ撮像条件の生徒データと教師データとをセットとして機械学習に用いる。尚、本実施形態においては、車と鏡面球とを同一位置に配置したが、撮像の環境が同じであれば多少位置が異なっていてもよい。
<色評価システムの構成>
本実施形態における色評価システムは、図5(a)に示すように、学習モデルを生成する情報処理装置1と、学習モデルから出力される画像データを基に光源情報推定及び色の評価を行う情報処理装置2と、から構成される。
<情報処理装置のハードウェア構成>
図5(b)は、情報処理装置1のハードウェア構成を示すブロック図である。情報処理装置1は、CPU101、ROM102、RAM103を備える。また、情報処理装置1は、VC(ビデオカード)104、汎用I/F(インターフェース)105、SATA(シリアルATA)I/F106、NIC(ネットワークインターフェースカード)107を備える。CPU101は、RAM103をワークメモリとして、ROM102、HDD(ハードディスクドライブ)113などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU101は、システムバス108を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102やHDD113などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。VC104には、ディスプレイ115が接続される。汎用I/F105には、シリアルバス109を介して、マウスやキーボードなどの入力デバイス110や撮像装置111が接続される。SATAI/F106には、シリアルバス112を介して、HDD113や各種記録メディアの読み書きを行う汎用ドライブ114が接続される。NIC107は、外部装置との間で情報の入力及び出力を行う。CPU101は、HDD113や汎用ドライブ114にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU101は、プログラムによって提供されるGUI(グラフィカルユーザインターフェース)をディスプレイ115に表示し、入力デバイス110を介して受け付けるユーザ指示などの入力を受信する。尚、情報処理装置2も情報処理装置1と同様のハードウェア構成であるため説明を省略する。
<色評価システムの機能構成>
図6は、情報処理装置1と情報処理装置2とを含む色評価システムの機能構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102又はHDD113に格納されたプログラムを読み出して実行することによって、図6に示す機能構成として機能する。尚、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように色評価システムが構成されていても良い。
情報処理装置1は、学習画像取得部201、学習モデル生成部202を有する。学習画像取得部201は、学習モデルを生成するための学習に用いる生徒データと教師データとの複数のセットを取得する。生徒データは、上述したように、光源の位置を変化させながら車を複数回撮像して得られる画像データである。教師データは、上述したように、光源の位置を変化させながら車と同一位置に配置された鏡面球を複数回撮像して得られる画像データである。学習画像取得部201は、光源の位置が同じ条件において撮像された画像データをセットとして取得する。学習モデル生成部202は、生徒データと教師データとの複数のセットに基づいて、光源を含む環境に関する情報を推定するための学習モデルを生成する。本実施形態における学習モデルは、入力画像データから、入力画像データに対応する鏡面球の画像データを出力するニューラルネットワークに基づくネットワーク構造とそのパラメータである。
ここでニューラルネットワークについて説明する。尚、ニューラルネットワークの原理自体は公知であるため、簡単に説明する。図7は、ニューラルネットワークを説明する図である。図7では中間層を1層としているが、2層以上で中間層を構成することが望ましい。図7に示すニューラルネットワークでは、入力層はMi個のノード(n11、n12、…、n1Mi)を有し、中間層はMh個のノード(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のノード(n31、n32、…、n3Mo)を有している。そして、各層のノードは隣接する層の全てのノードと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。
入力層に画像を入力する場合、該入力層には、画素とノードとが1対1となるように、画素数分のノードを設ける。また、出力層においても出力する画素数分のノードが設定されている。例えば、16画素×16画素の画像が入力される場合、16画素×16画素の画素値を出力するため、入力層および出力層におけるノードは256個である。データは、図8の左から右へ、即ち、入力層、中間層、出力層の順で受け渡される。入力層の各ノードは中間層のすべてのノードに接続され、ノード間の接続はそれぞれ重みを持っている。一方のノードから結合を通して他方のノードに伝達される際の出力値は、結合の重みによって増強あるいは減衰される。このような接続に定められた重み係数、バイアス値の集合は学習モデルのパラメータである。なお活性化関数については特に限定しないが、ロジスティックシグモイド関数やRectified Linear Unit(ReLU)関数などを用いれば良い。学習方法としては、種々提案されているニューラルネットワークの学習方法を適用すれば良い。例えば、入力層に生徒データを入力してニューラルネットワークを動作させた場合に出力層から得られる出力と、該生徒データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整する。
情報処理装置2は、入力画像取得部211、球画像生成部212、推定部213、色評価部214を有する。入力画像取得部211は、評価対象の物体を撮像して得られる入力画像データを取得する。本実施形態における評価対象の物体は車である。球画像生成部212は、情報処理装置1が生成した学習モデルを用いて、鏡面球画像データを生成する。具体的には、学習モデルに入力画像取得部211が取得した入力画像データを入力することによって、学習モデルから出力される鏡面球画像データを取得する。推定部213は、鏡面球画像データに基づいて、評価対象の物体を撮像する際の環境に含まれる光源の情報を推定する。本実施形態において推定する光源の情報は、入力画像データを得るための撮像の際に、評価対象の物体に光を照射する光源の方向である。評価対象の物体に光を照射する光源の方向を推定する方法は後述する。
色評価部214は、データ取得部2141、評価値導出部2142、データ保持部2143、表示制御部2144を有する。データ取得部2141は、入力画像データと、光源データと、撮像方向データと、形状データと、を取得する。入力画像データは、入力画像取得部211により取得された画像データである。光源データは、推定部213が推定した光源の方向を表すデータである。撮像方向データは、入力画像データを得るための撮像の際の撮像方向を表すデータである。形状データは、評価対象の物体の形状を表すデータである。形状データは、予め物体の形状を測定することにより生成しておく。物体の形状を測定する方法には、公知の位相シフト法を用いても良いし、物体にマーカーを配置する方法を用いても良い。またCADデータを形状データとして用いても良い。
評価値導出部2142は、データ取得部2141が取得するデータとデータ保持部2143が保持する参照色テーブルとに基づいて、評価対象の物体に関する色の評価値を導出する。データ保持部2143が保持する参照色テーブルは、評価対象の物体と色を比較するための参照物体を撮像して得られる色を表すデータであり、予め生成しておく。図8は、参照物体を撮像する様子を示す図である。
図8(a)において、参照物体81は色の評価において評価対象の物体の比較対象となる平面状の板である。参照色テーブルは、参照物体81を撮像して得られるデータである。撮像の方法を図8(b)を用いて説明する。図8(b)に示すように、光源4の位置を固定して、撮像装置5を参照物体81に対して方位角0度から350度まで10度ずつ移動させ、移動させる度に撮像を行う。この撮像を参照物体81に対して仰角0度から90度まで10度毎に行う。次に、撮像装置5を移動させる度に行う撮像を、光源4を参照物体81に対して方位角0度から350度まで10度ずつ移動させて行う。さらに、この撮像を、光源4を参照物体81に対して仰角0度から90度まで10度ずつ移動させる度に行う。尚、撮像装置5の位置と光源4の位置とが重複する場合は、撮像は行わない。また、仰角90度の位置においては方位角を変えられないため、方位角方向の移動は行わない。参照物体81はどの領域も同じ色であるとして、撮像して得られた撮像画像の任意の画素に記録された色情報(RGB値)を各撮像条件における参照物体81の色情報とする。図8(c)は、各撮像条件における色情報(RGB値)が記録された参照色テーブルである。ここで撮像条件は、光源4の位置の方位角及び仰角と、撮像装置5の位置の方位角及び仰角と、によって決まる。尚、撮像装置5及び光源4を移動させる角度は10度ずつである必要はなく、1度毎にしても良い。また、光源4から参照物体81への光の鏡面反射方向の付近は反射強度が大きく変化するため、鏡面反射方向の付近においては1度毎の移動とし、鏡面反射方向から離れるにつれて移動させる角度を大きくしても良い。
表示制御部2144は、評価値導出部2142による色の評価結果をディスプレイ115に表示させる。
<情報処理装置1が実行する処理(学習モデルの生成)>
図9は、情報処理装置1が実行する処理を示すフローチャートである。以下、図9を参照して情報処理装置1の処理の詳細を説明する。図9のフローチャートが示す処理は、ユーザによって入力デバイス110を介して指示が入力され、CPU101が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。
S301において、学習画像取得部201は、生徒データと教師データとの複数のセットを取得する。S302において、学習モデル生成部202は、生徒データと教師データとの複数のセットに基づいて、光源の方向を推定するために用いられる学習モデルを生成する。S303において、学習モデル生成部202は、生成した学習モデルを情報処理装置2に出力する。
<情報処理装置2が実行する処理(光源情報の推定及び色の評価>
S311において、入力画像取得部211は、入力画像データを取得する。S312において、球画像生成部212は、入力画像データと学習モデルとに基づいて、鏡面球画像データを生成する。S313において、推定部213は、鏡面球画像データに基づいて、物体に対する光源の方向を推定する。以下に光源の方向を推定する方法の詳細を説明する。
鏡面球画像データが表す画像内の鏡面球には、図4のように光源が写り込んでいる。図10は、光源4から評価対象の物体へ照射する光の方向を表す光源ベクトルを導出する処理を説明するための図である。円1001は、鏡面球画像における鏡面球6であり、評価対象の物体の表面に対して方位角方向のどの角度に光源が存在するかを示している。半円1002は、評価対象の物体の表面に対して仰角方向のどの角度に光源が存在するかを示している。S313において、推定部213は、まず、鏡面球画像における鏡面球6に対応する領域の中心の画素位置を導出する。具体的には、鏡面球画像の画素値を2値化する。この2値化処理は、所定の閾値以上の画素値を有する画素を白、所定の閾値未満の画素値を有する画素を黒とする2値化処理である。2値化処理後の鏡面球画像において公知のキャニー法を用いてエッジ位置を抽出し、8つの近傍画素にエッジ位置がある画素を同一の輪郭とみなしてグループ化する輪郭抽出を行う。抽出した複数の輪郭グループの中から円又は楕円の輪郭を選択する。円又は楕円の輪郭が1つである場合は、その1つを鏡面球6に対応する領域とし、エッジ位置上において所定の距離以上離れた3点の重心を、鏡面球6に対応する領域の中心の画素位置とする。尚、重心の導出の方法は、エッジ位置上の少なくとも3点を用いればよく、より多くの点を用いることによって、より高精度に鏡面球6に対応する領域の中心の画素位置を導出できる。円又は楕円の輪郭が複数ある場合は、輪郭内の平均輝度が最も高い輪郭を、鏡面球6に対応する領域とする。次に、鏡面球6に映り込んだ光源4の中心の画素位置を導出する。ここでは、鏡面球画像における鏡面球6に対応する領域の中で、輝度が最も大きい画素を光源4の中心の画素位置とする。
次に、推定部213は、図10に示すxl、ylを算出する。xl、ylはそれぞれ、鏡面球6に対応する領域の中心の画素位置から、光源4の中心の画素位置までのx方向、y方向の画素数である。次に、式(1)を用いて、zlを導出する。
Figure 0007378997000001
ここで、rは鏡面球画像における鏡面球6の半径である。半径rは、鏡面球6に対応する領域の中心の画素位置から、鏡面球6に対応する領域のエッジ位置までの画素数とする。xl、yl、zlを導出した後に、光源ベクトル(xl,yl,zl)を各画素に記録した光源データを生成する。
S314において、データ取得部2141は、評価用のデータを取得する。ここで、評価用のデータは、入力画像データと、光源データと、撮像方向データと、形状データである。光源データは、光源ベクトル(xl,yl,zl)が各画素に記録されたデータであり、撮像方向データは、撮像装置から評価対象の物体への方向を表す撮像方向ベクトル(xc,yc,zc)が各画素に記録されたデータである。また、形状データは、評価対象の物体の表面における法線方向を表す法線ベクトル(xn,yn,zn)が各画素に記録されたデータである。
S315において、評価値導出部2142は、色の評価値を導出する。図11は、S315における処理を示すフローチャートである。以下において、S315における処理の流れを図11を用いて説明する。
S3151において、評価値導出部2142は、入力画像の各画素に記録された色情報(RGB値)をXYZ値に変換する。RGB値からXYZ値への変換は、公知の方法を用いて行う。S3152において、評価値導出部2142は、入力画像をディスプレイ115に表示し、入力画像における、ユーザにより指定された色の評価領域を表す情報を受け付ける。S3153において、評価値導出部2142は、入力画像における評価領域の色情報と比較するための、参照物体の色情報を参照色テーブルから取得する。以下に参照物体の色情報を取得する方法の詳細を説明する。まず、図12(a)に示すように、入力画像における評価領域内の各画素に対応する法線ベクトル(xn,yn,zn)、光源ベクトル(xl,yl,zl)、撮像方向ベクトル(xc,yc,zc)を取得する。
法線ベクトル(xn,yn,zn)は形状データから取得し、光源ベクトル(xl,yl,zl)は光源データから取得する。撮像方向ベクトルは、撮像装置5が撮像する面に対して正対しているため、(0,0,-1)となる。次に、図12(b)に示すように、法線ベクトルが真上を向く状態に回転させる回転行列を導出し、光源ベクトル、撮像方向ベクトルを導出した回転行列で回転させる。回転後の光源ベクトルを(xl’,yl’,zl’)とし、回転後の撮像方向ベクトルを(xc’,yc’,zc’)とする。法線ベクトルが真上を向く状態に回転させるのは、参照色テーブルを生成する際に、参照物体の表面の法線が真上を向いた状態において撮像を行っているためである。尚、法線ベクトルが真上を向く状態は、法線ベクトル(xn,yn,zn)が(0,0,√(xn+yn+zn))となる状態である。(xl’,yl’,zl’)と、(xc’,yc’,zc’)と、がそれぞれ表す光源の方向と、撮像の方向と、に最も近い撮像条件における撮像によって得られた参照物体の色情報を、参照色テーブルから取得する。尚、参照物体の色情報は、近い撮像条件の色情報を参照色テーブルから4つ抽出して補間処理によって導出してもよい。さらに、参照物体の色情報(RGB値)を、S3151における方法と同じ方法によって、XYZ値に変換する。
S3154において、評価値導出部2142は、入力画像における評価領域の各画素の色情報と、その色情報に対応する参照物体の色情報と、に基づいて、色の評価値を算出する。具体的には、まず、式(2)、(3)、(4)、(5)、(6)を用いて、XYZ値をL値を変換する。入力画像の色情報を(Xc,Yc,Zc)とし、参照物体の色情報を(Xb,Yb,Zb)とし、基準白色のXYZ値を(Xw,Yw,Zw)とする。基準白色のXYZ値には、予め設定されている値を用いる。式(2)~式(6)を用いて、(Xc,Yc,Zc)、(Xb,Yb,Zb)をそれぞれ(X,Y,Z)に代入した場合の、(Lc,ac,bc)、(Lb,ab,bb)をそれぞれ求める。
Figure 0007378997000002
導出した(Lc,ac,bc)、(Lb,ab,bb)を用いて、色差ΔE、明度差ΔL、Δa、Δb、彩度差ΔCのいずれかを評価値として導出する。評価値の導出は、以下の式(7)を用いる。本実施形態においては、色差ΔEを評価値とするように予め設定されているものとする。
Figure 0007378997000003
尚、上述した色差ΔE、明度差ΔL、Δa、Δb、彩度差ΔCを複数組み合わせた値を評価値としてもよい。また、ディスプレイ115に評価値の候補を表示させて、評価値をユーザに選択させてもよい。
S316において、表示制御部2144は、評価値導出部2142による色の評価結果をディスプレイ115に表示させる。図13に、評価結果の表示例を示す。領域1300は、ユーザにより指定された評価領域である。画面1301は評価領域1300に対する評価結果を表示する画面であり、スケール1302は評価値のスケールを表す。値1303は評価値スケールの最大値である。表示1304は、評価値が所定の閾値以下であり、検査が合格(OK)である場合の表示である。評価値が所定の閾値より大きく検査が不合格である場合はNGが表示される。尚、画面1301における表示の際、評価値が0の場合に評価値スケール1302の1番下の色、評価値が評価値スケールの最大値1303以上の場合に評価値スケール1302の1番上の色になるように表示する。0以上、かつ、評価値スケール1302の最大値以下の場合には線形補間で導出された中間の色を表示する。
<第1実施形態の効果>
以上説明したように、本実施形態における情報処理装置は、光源の位置を変化させながら物体を複数回撮像して得られる第1画像データ群を取得する。該物体を撮像した環境に配置された、表面が鏡面である球を、光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する。第1画像データ群と第2画像データ群とを用いた機械学習によって、学習モデルを生成する。学習モデルは、撮像画像を基に、撮像画像を得るための撮像の際の環境における、物体から光源への方向を推定するために用いられる。これにより、鏡面球を撮像せずに、物体に対して光源を照射する光源に関する情報を推定することができる。
[変形例]
上述した実施形態においては、情報処理装置1と情報処理装置2とが別々の装置であったが、1つの情報処理装置が、学習モデルの生成、光源情報の推定、色の評価を行っても良い。
上述した実施形態においては、生成した学習モデルから出力された鏡面球画像を基に光源の方向を推定したが、光源の位置や、物体の周囲にある光源の数、光源の色温度を推定しても良い。
上述した実施形態においては、評価対象の物体を車としたが、光の当たり方に応じて色の見え方が異なる物体であれば、車以外の物体であってもよい。例えば、人を評価対象としても良い。図14のような人の髪や肌、衣服の色味の変化と鏡面球に対する光の当たり方との相関関係を学習モデルに学習させることにより、光源の方向を推定できる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1 情報処理装置
201 学習画像取得部
202 学習モデル生成部

Claims (9)

  1. 光源の位置を変化させながら物体を複数回撮像して得られる第1画像データ群を取得する第1取得手段と、
    前記物体を撮像する環境に配置された、表面が鏡面である球を、前記光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する第2取得手段と、
    前記第1画像データ群と第2画像データ群とを用いた機械学習によって、撮像環境における光源の方向を得るための学習モデルを生成する生成手段と、
    を有することを特徴とする情報処理装置。
  2. 前記学習モデルから出力された画像に基づいて、前記撮像環境における光源の方向を推定する第1推定手段をさらに有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段は、前記第1画像データ群と前記第2画像データ群とのうち、撮像の条件が同じ画像データをセットにして、前記機械学習に用いることを特徴とする請求項1又は請求項2に記載の情報処理装置。
  4. 前記学習モデルは、前記撮像環境における光源の位置を推定するために用いられることを特徴とする請求項1乃至請求項3のいずれか一項に記載の情報処理装置。
  5. 複数の光源を映り込ませた鏡面球を撮像して得られる画像データを基にした前記学習モデルに基づいて、前記撮像環境における光源の数を推定する第2推定手段をさらに有することを特徴とする請求項1乃至請求項4のいずれか一項に記載の情報処理装置。
  6. 前記学習モデルに基づいて、前記撮像環境における光源の色温度を推定する第3推定手段をさらに有することを特徴とする請求項1乃至請求項5のいずれか一項に記載の情報処理装置。
  7. 前記学習モデルを基に推定された光源の方向に基づいて、物体の色を評価する評価手段をさらに有することを特徴とする請求項1乃至請求項6のいずれか一項に記載の情報処理装置。
  8. コンピュータを請求項1乃至請求項7のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
  9. 光源の位置を変化させながら物体を複数回撮像して得られる第1画像データ群を取得する第1取得ステップと、
    前記物体を撮像する環境に配置された、表面が鏡面である球を、前記光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する第2取得ステップと、
    前記第1画像データ群と第2画像データ群とを用いた機械学習によって、撮像環境における光源の方向を得るための学習モデルを生成する生成ステップと、
    を有することを特徴とする情報処理方法。
JP2019134499A 2019-07-22 2019-07-22 情報処理装置、情報処理方法及びプログラム Active JP7378997B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019134499A JP7378997B2 (ja) 2019-07-22 2019-07-22 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019134499A JP7378997B2 (ja) 2019-07-22 2019-07-22 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2021018643A JP2021018643A (ja) 2021-02-15
JP2021018643A5 JP2021018643A5 (ja) 2022-07-19
JP7378997B2 true JP7378997B2 (ja) 2023-11-14

Family

ID=74564338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019134499A Active JP7378997B2 (ja) 2019-07-22 2019-07-22 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7378997B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296750A (ja) 2002-03-21 2003-10-17 Microsoft Corp 低周波数ライティング環境の放射輝度自己伝達を用いたグラフィック画像レンダリング
JP2008016918A (ja) 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理システムおよび画像処理方法
JP2015185176A (ja) 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム
WO2015166684A1 (ja) 2014-04-30 2015-11-05 ソニー株式会社 画像処理装置と画像処理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10247256A (ja) * 1997-03-04 1998-09-14 Integra:Kk 光学的に複雑な特性を有する物体の美感設計をコンピュータ上で対話的に行う方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296750A (ja) 2002-03-21 2003-10-17 Microsoft Corp 低周波数ライティング環境の放射輝度自己伝達を用いたグラフィック画像レンダリング
JP2008016918A (ja) 2006-07-03 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理システムおよび画像処理方法
JP2015185176A (ja) 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム
WO2015166684A1 (ja) 2014-04-30 2015-11-05 ソニー株式会社 画像処理装置と画像処理方法

Also Published As

Publication number Publication date
JP2021018643A (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
Lassner et al. A generative model of people in clothing
Pishchulin et al. Building statistical shape spaces for 3d human modeling
US10380802B2 (en) Projecting augmentation images onto moving objects
US10133171B2 (en) Augmenting physical appearance using illumination
CN107818554B (zh) 信息处理设备和信息处理方法
TW201931179A (zh) 用於虛擬面部化妝之移除與模擬、快速面部偵測及標記追蹤、降低輸入視訊之延遲及振動的系統與方法,以及用於建議化妝之方法
WO2022095721A1 (zh) 参数估算模型的训练方法、装置、设备和存储介质
CN110310285B (zh) 一种精确的基于三维人体重建的烧伤面积计算方法
EP2899694A2 (en) Method for providing a threedimensional body model
CN108926355A (zh) 用于站立对象的x射线***和方法
CN109636831A (zh) 一种估计三维人体姿态及手部信息的方法
US20120250982A1 (en) Image processing apparatus, image processing method, program, and recording medium
CN107466411A (zh) 二维红外深度感测
EP3571667A1 (en) Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
Rambach et al. Learning 6dof object poses from synthetic single channel images
US20240193899A1 (en) Methods of estimating a bare body shape from a concealed scan of the body
Mei et al. LightPainter: interactive portrait relighting with freehand scribble
JP7433849B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7378997B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN113516755A (zh) 图像处理方法、图像处理装置、电子设备和存储介质
JP2021077299A (ja) 情報処理装置、情報処理方法及びプログラム
Rahman et al. Monitoring and alarming activity of islamic prayer (salat) posture using image processing
CN116993929B (zh) 基于人眼动态变化的三维人脸重建方法、装置及存储介质
Chik et al. Using an adaptive VAR model for motion prediction in 3D hand tracking
KR20210133735A (ko) 비디오 기반 실시간 얼굴 변형 및 합성 방법 그리고 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R151 Written notification of patent or utility model registration

Ref document number: 7378997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151