JP7378997B2 - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7378997B2 JP7378997B2 JP2019134499A JP2019134499A JP7378997B2 JP 7378997 B2 JP7378997 B2 JP 7378997B2 JP 2019134499 A JP2019134499 A JP 2019134499A JP 2019134499 A JP2019134499 A JP 2019134499A JP 7378997 B2 JP7378997 B2 JP 7378997B2
- Authority
- JP
- Japan
- Prior art keywords
- light source
- imaging
- image data
- information processing
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 36
- 238000003672 processing method Methods 0.000 title claims 2
- 238000003384 imaging method Methods 0.000 claims description 71
- 238000011156 evaluation Methods 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 9
- 239000003086 colorant Substances 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、物体に光を照射する光源に関する情報を推定するための技術に関する。 The present invention relates to a technique for estimating information regarding a light source that irradiates an object with light.
従来、物体の周囲の環境における光源の方向や位置を推定する技術がある。特許文献1は、物体が配置された環境に鏡状球体を配置して鏡状球体を撮像して得られる画像を基に、光源を含む環境情報を作成する技術を開示している。 Conventionally, there are techniques for estimating the direction and position of a light source in the environment surrounding an object. Patent Document 1 discloses a technique for creating environment information including a light source based on an image obtained by placing a mirror sphere in an environment where an object is placed and capturing an image of the mirror sphere.
しかし、特許文献1は、物体に光を照射する光源を含む環境に関する情報を得るために、鏡面球を撮像する必要があった。 However, in Patent Document 1, it was necessary to image a specular sphere in order to obtain information about the environment including a light source that irradiates an object with light.
本発明は、上記課題を鑑みてなされたものであり、鏡面球を撮像せずに、物体に光を照射する光源に関する情報を推定するための処理を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide processing for estimating information regarding a light source that irradiates an object with light without imaging a mirror sphere.
上記課題を解決するために、本発明に係る情報処理装置は、光源の位置を変化させながら物体を複数回撮像して得られる第1画像データ群を取得する第1取得手段と、前記物体を撮像する環境に配置された、表面が鏡面である球を、前記光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する第2取得手段と、前記第1画像データ群と第2画像データ群とを用いた機械学習によって、撮像環境における光源の方向を得るための学習モデルを生成する生成手段と、を有することを特徴とする。 In order to solve the above problems, an information processing device according to the present invention includes a first acquisition unit that acquires a first image data group obtained by imaging an object multiple times while changing the position of a light source; a second acquisition means for acquiring a second image data group obtained by imaging a sphere with a mirror surface placed in an imaging environment a plurality of times while changing the position of the light source; and the first image data and a generation means for generating a learning model for obtaining the direction of the light source in the imaging environment by machine learning using the group and the second image data group.
本発明によれば、鏡面球を撮像せずに、物体に対して光源を照射する光源に関する情報を推定することができる。 According to the present invention, it is possible to estimate information regarding a light source that irradiates an object without imaging a specular sphere.
以下、本実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 This embodiment will be described below with reference to the drawings. Note that the following embodiments do not necessarily limit the present invention. Furthermore, not all combinations of features described in this embodiment are essential to the solution of the present invention.
[第1実施形態]
従来、物体を撮像して得られる画像を基に、物体の色を評価する技術がある。特に、光の当たり方に応じて色の見え方が異なる物体を評価する場合には、光源がどの方向から物体に対して光を照射しているかを特定する情報が必要となる。光源の方向を推定する技術として、評価対象の物体と鏡面球とを同じ撮像範囲に含めて撮像を行うことにより、評価対象の物体に光を照射する光源の方向を推定する技術がある。しかしこの技術では、物体の色を評価する度に鏡面球を画像内に写り込ませる必要がある。そこで、本実施形態においては、所定の物体を撮像して得られる画像データと、鏡面球を撮像して得られる画像データと、を学習データとして学習モデルを予め生成しておき、学習モデルから出力される情報を基に物体に対する光源の方向を推定する。これにより、鏡面球を毎度用意することなく、物体の色の評価を行うことができる。
[First embodiment]
Conventionally, there is a technique for evaluating the color of an object based on an image obtained by capturing an image of the object. In particular, when evaluating objects whose colors appear differently depending on how the light hits them, information that specifies from which direction the light source is irradiating the object is required. As a technique for estimating the direction of a light source, there is a technique for estimating the direction of a light source that irradiates an object to be evaluated with light by capturing an image of the object to be evaluated and a specular sphere in the same imaging range. However, with this technique, it is necessary to include a mirrored sphere in the image every time the color of an object is evaluated. Therefore, in this embodiment, a learning model is generated in advance using image data obtained by imaging a predetermined object and image data obtained by imaging a specular sphere as learning data, and output from the learning model. The direction of the light source relative to the object is estimated based on the information provided. This makes it possible to evaluate the color of an object without having to prepare a specular sphere each time.
本実施形態において色を評価する対象の物体は車である。よって、学習モデルに学習させる入力用の画像データ(以下、生徒データと呼ぶ)は、車を撮像して得られる画像データである。図1は、生徒データを得るための撮像の様子を示す図である。車3は、光源4の方向を変化させながら撮像装置5により撮像される。車のボディは、一般的に金属で作られているため、入射した光を鏡面反射しやすい。このため、車のボディに対する光の当たり方に応じて鏡面反射光がどの程度観察されるかが変わる。図2に光の当たり方に応じた色の見え方を示す。また、学習モデルに学習させる出力用の画像データ(以下、教師データと呼ぶ)は、鏡面球を車と同じ撮像条件において撮像して得られる画像データである。図3は、教師データを得るための撮像の様子を示す図である。鏡面球6は、図1の車3と同一位置に配置され、光源4の方向を変化させながら撮像装置5により撮像される。撮像により得られる画像内の鏡面球には、図4のように光源が写り込む。写り込んだ鏡面球内の光源の位置を基に、光源の方向を推定することができる。鏡面球に対する光の当たり方と車のボディの色味の変化との相関関係を学習モデルに学習させることによって、光源の方向を推定する学習モデルを生成する。具体的には、本実施形態における学習モデルは、物体の撮像画像データを入力とした場合に、該物体に光を照射する光源の方向を推定するために用いられる鏡面球の画像データを出力する学習モデルである。尚、本実施形態においては、光源の方向を変化させながら車と鏡面球とを同一位置に配置して撮像を行い、同じ撮像条件の生徒データと教師データとをセットとして機械学習に用いる。尚、本実施形態においては、車と鏡面球とを同一位置に配置したが、撮像の環境が同じであれば多少位置が異なっていてもよい。
In this embodiment, the object whose color is to be evaluated is a car. Therefore, input image data (hereinafter referred to as student data) to be learned by the learning model is image data obtained by capturing an image of a car. FIG. 1 is a diagram showing how images are taken to obtain student data. The car 3 is imaged by the
<色評価システムの構成>
本実施形態における色評価システムは、図5(a)に示すように、学習モデルを生成する情報処理装置1と、学習モデルから出力される画像データを基に光源情報推定及び色の評価を行う情報処理装置2と、から構成される。
<Configuration of color evaluation system>
As shown in FIG. 5A, the color evaluation system in this embodiment includes an information processing device 1 that generates a learning model, and performs light source information estimation and color evaluation based on image data output from the learning model. It is composed of an
<情報処理装置のハードウェア構成>
図5(b)は、情報処理装置1のハードウェア構成を示すブロック図である。情報処理装置1は、CPU101、ROM102、RAM103を備える。また、情報処理装置1は、VC(ビデオカード)104、汎用I/F(インターフェース)105、SATA(シリアルATA)I/F106、NIC(ネットワークインターフェースカード)107を備える。CPU101は、RAM103をワークメモリとして、ROM102、HDD(ハードディスクドライブ)113などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。また、CPU101は、システムバス108を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102やHDD113などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。VC104には、ディスプレイ115が接続される。汎用I/F105には、シリアルバス109を介して、マウスやキーボードなどの入力デバイス110や撮像装置111が接続される。SATAI/F106には、シリアルバス112を介して、HDD113や各種記録メディアの読み書きを行う汎用ドライブ114が接続される。NIC107は、外部装置との間で情報の入力及び出力を行う。CPU101は、HDD113や汎用ドライブ114にマウントされた各種記録メディアを各種データの格納場所として使用する。CPU101は、プログラムによって提供されるGUI(グラフィカルユーザインターフェース)をディスプレイ115に表示し、入力デバイス110を介して受け付けるユーザ指示などの入力を受信する。尚、情報処理装置2も情報処理装置1と同様のハードウェア構成であるため説明を省略する。
<Hardware configuration of information processing device>
FIG. 5(b) is a block diagram showing the hardware configuration of the information processing device 1. The information processing device 1 includes a
<色評価システムの機能構成>
図6は、情報処理装置1と情報処理装置2とを含む色評価システムの機能構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102又はHDD113に格納されたプログラムを読み出して実行することによって、図6に示す機能構成として機能する。尚、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように色評価システムが構成されていても良い。
<Functional configuration of color evaluation system>
FIG. 6 is a block diagram showing the functional configuration of a color evaluation system including the information processing device 1 and the
情報処理装置1は、学習画像取得部201、学習モデル生成部202を有する。学習画像取得部201は、学習モデルを生成するための学習に用いる生徒データと教師データとの複数のセットを取得する。生徒データは、上述したように、光源の位置を変化させながら車を複数回撮像して得られる画像データである。教師データは、上述したように、光源の位置を変化させながら車と同一位置に配置された鏡面球を複数回撮像して得られる画像データである。学習画像取得部201は、光源の位置が同じ条件において撮像された画像データをセットとして取得する。学習モデル生成部202は、生徒データと教師データとの複数のセットに基づいて、光源を含む環境に関する情報を推定するための学習モデルを生成する。本実施形態における学習モデルは、入力画像データから、入力画像データに対応する鏡面球の画像データを出力するニューラルネットワークに基づくネットワーク構造とそのパラメータである。
The information processing device 1 includes a learning
ここでニューラルネットワークについて説明する。尚、ニューラルネットワークの原理自体は公知であるため、簡単に説明する。図7は、ニューラルネットワークを説明する図である。図7では中間層を1層としているが、2層以上で中間層を構成することが望ましい。図7に示すニューラルネットワークでは、入力層はMi個のノード(n11、n12、…、n1Mi)を有し、中間層はMh個のノード(n21、n22、…、n2Mh)を有し、出力層(最終層)はMo個のノード(n31、n32、…、n3Mo)を有している。そして、各層のノードは隣接する層の全てのノードと結合しており、階層間で情報伝達を行う3層の階層型ニューラルネットワークを構成している。 Here, neural networks will be explained. Incidentally, since the principle of the neural network itself is well known, it will be briefly explained. FIG. 7 is a diagram illustrating a neural network. In FIG. 7, the intermediate layer is one layer, but it is desirable to configure the intermediate layer with two or more layers. In the neural network shown in FIG. 7, the input layer has Mi nodes (n11, n12, ..., n1Mi), the middle layer has Mh nodes (n21, n22, ..., n2Mh), and the output layer (Final layer) has Mo nodes (n31, n32, . . . , n3Mo). The nodes of each layer are connected to all the nodes of adjacent layers, forming a three-layer hierarchical neural network that transmits information between layers.
入力層に画像を入力する場合、該入力層には、画素とノードとが1対1となるように、画素数分のノードを設ける。また、出力層においても出力する画素数分のノードが設定されている。例えば、16画素×16画素の画像が入力される場合、16画素×16画素の画素値を出力するため、入力層および出力層におけるノードは256個である。データは、図8の左から右へ、即ち、入力層、中間層、出力層の順で受け渡される。入力層の各ノードは中間層のすべてのノードに接続され、ノード間の接続はそれぞれ重みを持っている。一方のノードから結合を通して他方のノードに伝達される際の出力値は、結合の重みによって増強あるいは減衰される。このような接続に定められた重み係数、バイアス値の集合は学習モデルのパラメータである。なお活性化関数については特に限定しないが、ロジスティックシグモイド関数やRectified Linear Unit(ReLU)関数などを用いれば良い。学習方法としては、種々提案されているニューラルネットワークの学習方法を適用すれば良い。例えば、入力層に生徒データを入力してニューラルネットワークを動作させた場合に出力層から得られる出力と、該生徒データに予め対応づけられている教師データと、の差分を計算し、該差分を極小化するように、重み係数及びバイアス値を調整する。 When inputting an image to the input layer, nodes for the number of pixels are provided in the input layer so that there is a one-to-one relationship between pixels and nodes. Further, nodes for the number of pixels to be output are set in the output layer as well. For example, when an image of 16 pixels x 16 pixels is input, pixel values of 16 pixels x 16 pixels are output, so there are 256 nodes in the input layer and the output layer. Data is passed from left to right in FIG. 8, that is, in the order of input layer, intermediate layer, and output layer. Each node in the input layer is connected to all nodes in the hidden layer, and each connection between nodes has a weight. The output value transmitted from one node to another node through a connection is enhanced or attenuated by the weight of the connection. A set of weighting coefficients and bias values determined for such connections are parameters of the learning model. Note that the activation function is not particularly limited, but a logistic sigmoid function, a rectified linear unit (ReLU) function, or the like may be used. As a learning method, various neural network learning methods that have been proposed may be applied. For example, when student data is input to the input layer and a neural network is operated, the difference between the output obtained from the output layer and the teacher data that is previously associated with the student data is calculated, and the difference is calculated. The weighting coefficient and bias value are adjusted to minimize them.
情報処理装置2は、入力画像取得部211、球画像生成部212、推定部213、色評価部214を有する。入力画像取得部211は、評価対象の物体を撮像して得られる入力画像データを取得する。本実施形態における評価対象の物体は車である。球画像生成部212は、情報処理装置1が生成した学習モデルを用いて、鏡面球画像データを生成する。具体的には、学習モデルに入力画像取得部211が取得した入力画像データを入力することによって、学習モデルから出力される鏡面球画像データを取得する。推定部213は、鏡面球画像データに基づいて、評価対象の物体を撮像する際の環境に含まれる光源の情報を推定する。本実施形態において推定する光源の情報は、入力画像データを得るための撮像の際に、評価対象の物体に光を照射する光源の方向である。評価対象の物体に光を照射する光源の方向を推定する方法は後述する。
The
色評価部214は、データ取得部2141、評価値導出部2142、データ保持部2143、表示制御部2144を有する。データ取得部2141は、入力画像データと、光源データと、撮像方向データと、形状データと、を取得する。入力画像データは、入力画像取得部211により取得された画像データである。光源データは、推定部213が推定した光源の方向を表すデータである。撮像方向データは、入力画像データを得るための撮像の際の撮像方向を表すデータである。形状データは、評価対象の物体の形状を表すデータである。形状データは、予め物体の形状を測定することにより生成しておく。物体の形状を測定する方法には、公知の位相シフト法を用いても良いし、物体にマーカーを配置する方法を用いても良い。またCADデータを形状データとして用いても良い。
The
評価値導出部2142は、データ取得部2141が取得するデータとデータ保持部2143が保持する参照色テーブルとに基づいて、評価対象の物体に関する色の評価値を導出する。データ保持部2143が保持する参照色テーブルは、評価対象の物体と色を比較するための参照物体を撮像して得られる色を表すデータであり、予め生成しておく。図8は、参照物体を撮像する様子を示す図である。
The evaluation
図8(a)において、参照物体81は色の評価において評価対象の物体の比較対象となる平面状の板である。参照色テーブルは、参照物体81を撮像して得られるデータである。撮像の方法を図8(b)を用いて説明する。図8(b)に示すように、光源4の位置を固定して、撮像装置5を参照物体81に対して方位角0度から350度まで10度ずつ移動させ、移動させる度に撮像を行う。この撮像を参照物体81に対して仰角0度から90度まで10度毎に行う。次に、撮像装置5を移動させる度に行う撮像を、光源4を参照物体81に対して方位角0度から350度まで10度ずつ移動させて行う。さらに、この撮像を、光源4を参照物体81に対して仰角0度から90度まで10度ずつ移動させる度に行う。尚、撮像装置5の位置と光源4の位置とが重複する場合は、撮像は行わない。また、仰角90度の位置においては方位角を変えられないため、方位角方向の移動は行わない。参照物体81はどの領域も同じ色であるとして、撮像して得られた撮像画像の任意の画素に記録された色情報(RGB値)を各撮像条件における参照物体81の色情報とする。図8(c)は、各撮像条件における色情報(RGB値)が記録された参照色テーブルである。ここで撮像条件は、光源4の位置の方位角及び仰角と、撮像装置5の位置の方位角及び仰角と、によって決まる。尚、撮像装置5及び光源4を移動させる角度は10度ずつである必要はなく、1度毎にしても良い。また、光源4から参照物体81への光の鏡面反射方向の付近は反射強度が大きく変化するため、鏡面反射方向の付近においては1度毎の移動とし、鏡面反射方向から離れるにつれて移動させる角度を大きくしても良い。
In FIG. 8A, a
表示制御部2144は、評価値導出部2142による色の評価結果をディスプレイ115に表示させる。
The
<情報処理装置1が実行する処理(学習モデルの生成)>
図9は、情報処理装置1が実行する処理を示すフローチャートである。以下、図9を参照して情報処理装置1の処理の詳細を説明する。図9のフローチャートが示す処理は、ユーザによって入力デバイス110を介して指示が入力され、CPU101が入力された指示を受け付けることにより開始する。以下、各ステップ(工程)は符号の前にSをつけて表す。
<Processing executed by information processing device 1 (generation of learning model)>
FIG. 9 is a flowchart showing the processing executed by the information processing device 1. The details of the processing of the information processing device 1 will be described below with reference to FIG. The process shown in the flowchart of FIG. 9 starts when the user inputs an instruction via the
S301において、学習画像取得部201は、生徒データと教師データとの複数のセットを取得する。S302において、学習モデル生成部202は、生徒データと教師データとの複数のセットに基づいて、光源の方向を推定するために用いられる学習モデルを生成する。S303において、学習モデル生成部202は、生成した学習モデルを情報処理装置2に出力する。
In S301, the learning
<情報処理装置2が実行する処理(光源情報の推定及び色の評価>
S311において、入力画像取得部211は、入力画像データを取得する。S312において、球画像生成部212は、入力画像データと学習モデルとに基づいて、鏡面球画像データを生成する。S313において、推定部213は、鏡面球画像データに基づいて、物体に対する光源の方向を推定する。以下に光源の方向を推定する方法の詳細を説明する。
<Processing executed by the information processing device 2 (estimating light source information and evaluating color)
In S311, the input
鏡面球画像データが表す画像内の鏡面球には、図4のように光源が写り込んでいる。図10は、光源4から評価対象の物体へ照射する光の方向を表す光源ベクトルを導出する処理を説明するための図である。円1001は、鏡面球画像における鏡面球6であり、評価対象の物体の表面に対して方位角方向のどの角度に光源が存在するかを示している。半円1002は、評価対象の物体の表面に対して仰角方向のどの角度に光源が存在するかを示している。S313において、推定部213は、まず、鏡面球画像における鏡面球6に対応する領域の中心の画素位置を導出する。具体的には、鏡面球画像の画素値を2値化する。この2値化処理は、所定の閾値以上の画素値を有する画素を白、所定の閾値未満の画素値を有する画素を黒とする2値化処理である。2値化処理後の鏡面球画像において公知のキャニー法を用いてエッジ位置を抽出し、8つの近傍画素にエッジ位置がある画素を同一の輪郭とみなしてグループ化する輪郭抽出を行う。抽出した複数の輪郭グループの中から円又は楕円の輪郭を選択する。円又は楕円の輪郭が1つである場合は、その1つを鏡面球6に対応する領域とし、エッジ位置上において所定の距離以上離れた3点の重心を、鏡面球6に対応する領域の中心の画素位置とする。尚、重心の導出の方法は、エッジ位置上の少なくとも3点を用いればよく、より多くの点を用いることによって、より高精度に鏡面球6に対応する領域の中心の画素位置を導出できる。円又は楕円の輪郭が複数ある場合は、輪郭内の平均輝度が最も高い輪郭を、鏡面球6に対応する領域とする。次に、鏡面球6に映り込んだ光源4の中心の画素位置を導出する。ここでは、鏡面球画像における鏡面球6に対応する領域の中で、輝度が最も大きい画素を光源4の中心の画素位置とする。
A light source is reflected in the mirror sphere in the image represented by the mirror sphere image data, as shown in FIG. FIG. 10 is a diagram for explaining the process of deriving a light source vector representing the direction of light irradiated from the
次に、推定部213は、図10に示すxl、ylを算出する。xl、ylはそれぞれ、鏡面球6に対応する領域の中心の画素位置から、光源4の中心の画素位置までのx方向、y方向の画素数である。次に、式(1)を用いて、zlを導出する。
Next, the
ここで、rは鏡面球画像における鏡面球6の半径である。半径rは、鏡面球6に対応する領域の中心の画素位置から、鏡面球6に対応する領域のエッジ位置までの画素数とする。xl、yl、zlを導出した後に、光源ベクトル(xl,yl,zl)を各画素に記録した光源データを生成する。
Here, r is the radius of the
S314において、データ取得部2141は、評価用のデータを取得する。ここで、評価用のデータは、入力画像データと、光源データと、撮像方向データと、形状データである。光源データは、光源ベクトル(xl,yl,zl)が各画素に記録されたデータであり、撮像方向データは、撮像装置から評価対象の物体への方向を表す撮像方向ベクトル(xc,yc,zc)が各画素に記録されたデータである。また、形状データは、評価対象の物体の表面における法線方向を表す法線ベクトル(xn,yn,zn)が各画素に記録されたデータである。
In S314, the
S315において、評価値導出部2142は、色の評価値を導出する。図11は、S315における処理を示すフローチャートである。以下において、S315における処理の流れを図11を用いて説明する。
In S315, the evaluation
S3151において、評価値導出部2142は、入力画像の各画素に記録された色情報(RGB値)をXYZ値に変換する。RGB値からXYZ値への変換は、公知の方法を用いて行う。S3152において、評価値導出部2142は、入力画像をディスプレイ115に表示し、入力画像における、ユーザにより指定された色の評価領域を表す情報を受け付ける。S3153において、評価値導出部2142は、入力画像における評価領域の色情報と比較するための、参照物体の色情報を参照色テーブルから取得する。以下に参照物体の色情報を取得する方法の詳細を説明する。まず、図12(a)に示すように、入力画像における評価領域内の各画素に対応する法線ベクトル(xn,yn,zn)、光源ベクトル(xl,yl,zl)、撮像方向ベクトル(xc,yc,zc)を取得する。
In S3151, the evaluation
法線ベクトル(xn,yn,zn)は形状データから取得し、光源ベクトル(xl,yl,zl)は光源データから取得する。撮像方向ベクトルは、撮像装置5が撮像する面に対して正対しているため、(0,0,-1)となる。次に、図12(b)に示すように、法線ベクトルが真上を向く状態に回転させる回転行列を導出し、光源ベクトル、撮像方向ベクトルを導出した回転行列で回転させる。回転後の光源ベクトルを(xl’,yl’,zl’)とし、回転後の撮像方向ベクトルを(xc’,yc’,zc’)とする。法線ベクトルが真上を向く状態に回転させるのは、参照色テーブルを生成する際に、参照物体の表面の法線が真上を向いた状態において撮像を行っているためである。尚、法線ベクトルが真上を向く状態は、法線ベクトル(xn,yn,zn)が(0,0,√(xn2+yn2+zn2))となる状態である。(xl’,yl’,zl’)と、(xc’,yc’,zc’)と、がそれぞれ表す光源の方向と、撮像の方向と、に最も近い撮像条件における撮像によって得られた参照物体の色情報を、参照色テーブルから取得する。尚、参照物体の色情報は、近い撮像条件の色情報を参照色テーブルから4つ抽出して補間処理によって導出してもよい。さらに、参照物体の色情報(RGB値)を、S3151における方法と同じ方法によって、XYZ値に変換する。
The normal vector (xn, yn, zn) is obtained from the shape data, and the light source vector (xl, yl, zl) is obtained from the light source data. The imaging direction vector is (0, 0, -1) because the
S3154において、評価値導出部2142は、入力画像における評価領域の各画素の色情報と、その色情報に対応する参照物体の色情報と、に基づいて、色の評価値を算出する。具体的には、まず、式(2)、(3)、(4)、(5)、(6)を用いて、XYZ値をL*a*b*値を変換する。入力画像の色情報を(Xc,Yc,Zc)とし、参照物体の色情報を(Xb,Yb,Zb)とし、基準白色のXYZ値を(Xw,Yw,Zw)とする。基準白色のXYZ値には、予め設定されている値を用いる。式(2)~式(6)を用いて、(Xc,Yc,Zc)、(Xb,Yb,Zb)をそれぞれ(X,Y,Z)に代入した場合の、(L*c,a*c,b*c)、(L*b,a*b,b*b)をそれぞれ求める。
In S3154, the evaluation
導出した(L*c,a*c,b*c)、(L*b,a*b,b*b)を用いて、色差ΔE、明度差ΔL*、Δa*、Δb*、彩度差ΔCのいずれかを評価値として導出する。評価値の導出は、以下の式(7)を用いる。本実施形態においては、色差ΔEを評価値とするように予め設定されているものとする。 Using the derived (L * c, a * c, b * c) and (L * b, a * b, b * b), the color difference ΔE, lightness difference ΔL * , Δa * , Δb * , and saturation difference are calculated. One of ΔC is derived as an evaluation value. The following equation (7) is used to derive the evaluation value. In this embodiment, it is assumed that the color difference ΔE is set in advance as the evaluation value.
尚、上述した色差ΔE、明度差ΔL*、Δa*、Δb*、彩度差ΔCを複数組み合わせた値を評価値としてもよい。また、ディスプレイ115に評価値の候補を表示させて、評価値をユーザに選択させてもよい。 Note that the evaluation value may be a combination of a plurality of the color differences ΔE, brightness differences ΔL * , Δa * , Δb * , and saturation differences ΔC described above. Alternatively, evaluation value candidates may be displayed on the display 115 to allow the user to select an evaluation value.
S316において、表示制御部2144は、評価値導出部2142による色の評価結果をディスプレイ115に表示させる。図13に、評価結果の表示例を示す。領域1300は、ユーザにより指定された評価領域である。画面1301は評価領域1300に対する評価結果を表示する画面であり、スケール1302は評価値のスケールを表す。値1303は評価値スケールの最大値である。表示1304は、評価値が所定の閾値以下であり、検査が合格(OK)である場合の表示である。評価値が所定の閾値より大きく検査が不合格である場合はNGが表示される。尚、画面1301における表示の際、評価値が0の場合に評価値スケール1302の1番下の色、評価値が評価値スケールの最大値1303以上の場合に評価値スケール1302の1番上の色になるように表示する。0以上、かつ、評価値スケール1302の最大値以下の場合には線形補間で導出された中間の色を表示する。
In S316, the
<第1実施形態の効果>
以上説明したように、本実施形態における情報処理装置は、光源の位置を変化させながら物体を複数回撮像して得られる第1画像データ群を取得する。該物体を撮像した環境に配置された、表面が鏡面である球を、光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する。第1画像データ群と第2画像データ群とを用いた機械学習によって、学習モデルを生成する。学習モデルは、撮像画像を基に、撮像画像を得るための撮像の際の環境における、物体から光源への方向を推定するために用いられる。これにより、鏡面球を撮像せずに、物体に対して光源を照射する光源に関する情報を推定することができる。
<Effects of the first embodiment>
As described above, the information processing apparatus in this embodiment acquires the first image data group obtained by imaging the object multiple times while changing the position of the light source. A second image data group is obtained by imaging a sphere with a mirror surface placed in the environment in which the object was imaged a plurality of times while changing the position of the light source. A learning model is generated by machine learning using the first image data group and the second image data group. The learning model is used to estimate the direction from the object to the light source in the environment during imaging to obtain the captured image, based on the captured image. This makes it possible to estimate information regarding the light source that irradiates the object without imaging the specular sphere.
[変形例]
上述した実施形態においては、情報処理装置1と情報処理装置2とが別々の装置であったが、1つの情報処理装置が、学習モデルの生成、光源情報の推定、色の評価を行っても良い。
[Modified example]
In the embodiment described above, the information processing device 1 and the
上述した実施形態においては、生成した学習モデルから出力された鏡面球画像を基に光源の方向を推定したが、光源の位置や、物体の周囲にある光源の数、光源の色温度を推定しても良い。 In the embodiment described above, the direction of the light source was estimated based on the specular sphere image output from the generated learning model, but it is also possible to estimate the position of the light source, the number of light sources around the object, and the color temperature of the light source. It's okay.
上述した実施形態においては、評価対象の物体を車としたが、光の当たり方に応じて色の見え方が異なる物体であれば、車以外の物体であってもよい。例えば、人を評価対象としても良い。図14のような人の髪や肌、衣服の色味の変化と鏡面球に対する光の当たり方との相関関係を学習モデルに学習させることにより、光源の方向を推定できる。 In the embodiment described above, the object to be evaluated is a car, but any object other than a car may be used as long as the object has a different appearance of color depending on how the light hits it. For example, a person may be the subject of evaluation. The direction of the light source can be estimated by having a learning model learn the correlation between changes in the color of a person's hair, skin, and clothes and the way light hits the specular sphere, as shown in FIG.
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1 情報処理装置
201 学習画像取得部
202 学習モデル生成部
1
Claims (9)
前記物体を撮像する環境に配置された、表面が鏡面である球を、前記光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する第2取得手段と、
前記第1画像データ群と第2画像データ群とを用いた機械学習によって、撮像環境における光源の方向を得るための学習モデルを生成する生成手段と、
を有することを特徴とする情報処理装置。 a first acquisition means for acquiring a first image data group obtained by imaging the object multiple times while changing the position of the light source;
a second acquisition unit that acquires a second image data group obtained by imaging a sphere with a mirror surface placed in an environment where the object is imaged a plurality of times while changing the position of the light source;
generating means for generating a learning model for obtaining the direction of the light source in the imaging environment by machine learning using the first image data group and the second image data group;
An information processing device comprising:
前記物体を撮像する環境に配置された、表面が鏡面である球を、前記光源の位置を変化させながら複数回撮像して得られる第2画像データ群を取得する第2取得ステップと、
前記第1画像データ群と第2画像データ群とを用いた機械学習によって、撮像環境における光源の方向を得るための学習モデルを生成する生成ステップと、
を有することを特徴とする情報処理方法。 a first acquisition step of acquiring a first image data group obtained by imaging the object multiple times while changing the position of the light source;
a second acquisition step of acquiring a second image data group obtained by imaging a sphere with a mirror surface placed in an environment where the object is imaged a plurality of times while changing the position of the light source;
a generation step of generating a learning model for obtaining the direction of the light source in the imaging environment by machine learning using the first image data group and the second image data group;
An information processing method characterized by having the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134499A JP7378997B2 (en) | 2019-07-22 | 2019-07-22 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019134499A JP7378997B2 (en) | 2019-07-22 | 2019-07-22 | Information processing device, information processing method and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021018643A JP2021018643A (en) | 2021-02-15 |
JP2021018643A5 JP2021018643A5 (en) | 2022-07-19 |
JP7378997B2 true JP7378997B2 (en) | 2023-11-14 |
Family
ID=74564338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019134499A Active JP7378997B2 (en) | 2019-07-22 | 2019-07-22 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7378997B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296750A (en) | 2002-03-21 | 2003-10-17 | Microsoft Corp | Graphic image rendering using radiance autotransfer of low frequency lighting environment |
JP2008016918A (en) | 2006-07-03 | 2008-01-24 | Matsushita Electric Ind Co Ltd | Image processor, image processing system, and image processing method |
JP2015185176A (en) | 2014-03-25 | 2015-10-22 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | Expression method and system for virtual object in visual field of reality environment |
WO2015166684A1 (en) | 2014-04-30 | 2015-11-05 | ソニー株式会社 | Image processing apparatus and image processing method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10247256A (en) * | 1997-03-04 | 1998-09-14 | Integra:Kk | Method for interactively and aesthetically designing object having optially complicated characteristic on computer |
-
2019
- 2019-07-22 JP JP2019134499A patent/JP7378997B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296750A (en) | 2002-03-21 | 2003-10-17 | Microsoft Corp | Graphic image rendering using radiance autotransfer of low frequency lighting environment |
JP2008016918A (en) | 2006-07-03 | 2008-01-24 | Matsushita Electric Ind Co Ltd | Image processor, image processing system, and image processing method |
JP2015185176A (en) | 2014-03-25 | 2015-10-22 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | Expression method and system for virtual object in visual field of reality environment |
WO2015166684A1 (en) | 2014-04-30 | 2015-11-05 | ソニー株式会社 | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2021018643A (en) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7200139B2 (en) | Virtual face makeup removal, fast face detection and landmark tracking | |
Lassner et al. | A generative model of people in clothing | |
Pishchulin et al. | Building statistical shape spaces for 3d human modeling | |
US10380802B2 (en) | Projecting augmentation images onto moving objects | |
US10133171B2 (en) | Augmenting physical appearance using illumination | |
CN107818554B (en) | Information processing apparatus and information processing method | |
WO2022095721A1 (en) | Parameter estimation model training method and apparatus, and device and storage medium | |
CN110310285B (en) | Accurate burn area calculation method based on three-dimensional human body reconstruction | |
EP2899694A2 (en) | Method for providing a threedimensional body model | |
CN108926355A (en) | X-ray system and method for object of standing | |
US20120250982A1 (en) | Image processing apparatus, image processing method, program, and recording medium | |
CN107466411A (en) | Two-dimensional infrared depth sense | |
US11922593B2 (en) | Methods of estimating a bare body shape from a concealed scan of the body | |
CN104715238A (en) | Pedestrian detection method based on multi-feature fusion | |
Rambach et al. | Learning 6dof object poses from synthetic single channel images | |
JP2010211732A (en) | Object recognition device and method | |
Mei et al. | LightPainter: interactive portrait relighting with freehand scribble | |
JP7433849B2 (en) | Information processing device, information processing method and program | |
JP7378997B2 (en) | Information processing device, information processing method and program | |
CN113516755A (en) | Image processing method, image processing apparatus, electronic device, and storage medium | |
JP2021077299A (en) | Information processing apparatus, information processing method, and program | |
Rahman et al. | Monitoring and alarming activity of islamic prayer (salat) posture using image processing | |
Saito et al. | Face pose estimating system based on eigenspace analysis | |
Chik et al. | Using an adaptive VAR model for motion prediction in 3D hand tracking | |
KR20210133735A (en) | Method and apparatus for video based real-time face deformation and composition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220708 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7378997 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |