JP7343879B2 - Area configuration prediction method and area configuration prediction device - Google Patents

Area configuration prediction method and area configuration prediction device Download PDF

Info

Publication number
JP7343879B2
JP7343879B2 JP2020056246A JP2020056246A JP7343879B2 JP 7343879 B2 JP7343879 B2 JP 7343879B2 JP 2020056246 A JP2020056246 A JP 2020056246A JP 2020056246 A JP2020056246 A JP 2020056246A JP 7343879 B2 JP7343879 B2 JP 7343879B2
Authority
JP
Japan
Prior art keywords
texture
learning
configuration
region
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020056246A
Other languages
Japanese (ja)
Other versions
JP2021154570A (en
Inventor
航 荒井
邦夫 八角
徳道 津村
経太 平井
健亮 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
Mimaki Engineering Co Ltd
Original Assignee
Chiba University NUC
Mimaki Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC, Mimaki Engineering Co Ltd filed Critical Chiba University NUC
Priority to JP2020056246A priority Critical patent/JP7343879B2/en
Priority to PCT/JP2021/010304 priority patent/WO2021193185A1/en
Publication of JP2021154570A publication Critical patent/JP2021154570A/en
Application granted granted Critical
Publication of JP7343879B2 publication Critical patent/JP7343879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、領域構成予測方法及び領域構成予測装置に関する。 The present invention relates to a region configuration prediction method and a region configuration prediction device.

従来、インクジェットヘッドを用いて造形物を造形する造形装置(3Dプリンタ)が知られている(例えば、特許文献1参照。)。このような造形装置においては、例えば、インクジェットヘッドにより形成するインクの層を複数層重ねることにより、積層造形法で造形物を造形する。 2. Description of the Related Art Conventionally, modeling devices (3D printers) that create objects using inkjet heads have been known (for example, see Patent Document 1). In such a modeling apparatus, for example, a modeled object is modeled by a layered modeling method by stacking a plurality of ink layers formed by an inkjet head.

特開2015-071282号公報JP2015-071282A

造形装置で造形物を造形する場合、造形の材料(例えば、インク)で形成される領域(例えば、着色された層状の領域)の重なり方により、造形物の質感に違いが生じる場合がある。例えば、互いに異なる色の複数種類のインクを造形の材料として用い、様々な色の領域を重ねて色を表現する場合、領域の重ね方によって、造形物の表面における透明感等の質感に違いが生じる場合がある。 When a model is used to model a model, the texture of the model may vary depending on how regions (e.g., colored layered regions) formed using a model material (e.g., ink) overlap. For example, when using multiple types of ink of different colors as modeling materials and expressing colors by overlapping areas of various colors, the texture such as transparency on the surface of the model will differ depending on how the areas are overlapped. may occur.

そのため、このような場合、ユーザ(例えば、デザイナ等)の所望の質感が得られる構成で造形の材料の領域が重なるように、造形物の造形を行うことが望まれる。そして、この場合、例えば、領域の重ね方(領域構成)について、所望の質感が得られる構成を適切に予測することが望まれる。そこで、本発明は、上記の課題を解決できる領域構成予測方法及び領域構成予測装置を提供することを目的とする。 Therefore, in such a case, it is desirable to model the object so that the regions of the modeling material overlap in a configuration that provides the texture desired by the user (for example, a designer, etc.). In this case, for example, it is desirable to appropriately predict a configuration in which a desired texture can be obtained with respect to how regions are overlapped (region configuration). Therefore, an object of the present invention is to provide a region configuration prediction method and a region configuration prediction device that can solve the above problems.

造形物の造形時において、所望の質感が得られる領域構成を決定するためには、通常、実際に造形物を造形すること等で試行錯誤を行うことが必要である。しかし、造形物の造形には、多くの時間がかかるため、このような試行錯誤が必要になると、造形物の構成を決定するために要する手間が大きく増大することになる。 In order to determine a region configuration that provides a desired texture when forming an object, it is usually necessary to perform trial and error by actually forming the object. However, since it takes a lot of time to create a shaped object, if such trial and error becomes necessary, the effort required to determine the configuration of the shaped object will greatly increase.

これに対し、本願の発明者は、個々の造形物を造形する毎に試行錯誤を繰り返すのではなく、造形物の構成に対応する積層構成と質感との関係を予めコンピュータに機械学習させておき、所望の質感を入力することで対応する積層構成を出力させることを考えた。また、この場合において、互いに異なる構成で造形の材料の層を積層させた複数の試料を作成し、試料に対して所定の質感に対応する計測を行うことで、積層構成と質感との関係を取得し、その関係を学習する機械学習をコンピュータに行わせることを考えた。また、実際に様々な実験等を行うことで、このような方法で所望の質感に対応する領域構成を適切に決定できることを見出した。更には、このような方法に関し、本願の出願人は、特願2019-63003号として、出願を行った。 In contrast, instead of repeating trial and error each time an individual object is created, the inventor of the present application has made a computer machine learn in advance the relationship between the laminated structure and the texture that corresponds to the structure of the object. The idea was to input a desired texture and output the corresponding layered structure. In this case, by creating multiple samples in which layers of modeling materials are laminated with different configurations and performing measurements corresponding to a predetermined texture on the samples, the relationship between the laminated configuration and texture can be determined. We thought about having a computer perform machine learning to acquire information and learn the relationships between them. Moreover, by actually conducting various experiments, it was discovered that the region configuration corresponding to the desired texture can be appropriately determined using such a method. Furthermore, regarding such a method, the applicant of the present application filed an application as Japanese Patent Application No. 2019-63003.

このような方法で領域構成を決定する場合、例えば機械学習が完了した後においては、短時間で適切に領域構成を決定することができる。しかし、この場合も、機械学習に必要なデータを取得する段階において、多くの手間や時間を要することになる。より具体的に、例えば、上記のような方法で機械学習を行う場合、通常、多数の試料を作成して、それぞれの試料に対する計測を行うことが必要になる。そして、この場合、試料の作成や計測を行う段階において、多くの手間や時間を要することになる。 When determining the region configuration using such a method, for example, after machine learning is completed, the region configuration can be appropriately determined in a short time. However, in this case as well, a lot of effort and time will be required at the stage of acquiring the data necessary for machine learning. More specifically, for example, when performing machine learning using the method described above, it is usually necessary to create a large number of samples and perform measurements on each sample. In this case, much effort and time are required at the stage of sample preparation and measurement.

これに対し、本願の発明者は、更なる鋭意研究により、多数の試料を作成することなく、コンピュータシミュレーションにより、積層構成と質感との関係を予測することを考えた。また、実際に様々な実験等を行うことで、このような方法でも、所望の質感に対応する領域構成を適切に決定できることを見出した。 In response to this, the inventor of the present application, through further intensive research, came up with the idea of predicting the relationship between the laminated structure and texture by computer simulation without creating a large number of samples. Moreover, by actually conducting various experiments, it has been found that even with this method, a region configuration corresponding to a desired texture can be appropriately determined.

また、本願の発明者は、更なる鋭意研究により、このような効果を得るために必要な特徴を見出し、本発明に至った。上記の課題を解決するために、本発明は、複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する段階であり、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測する質感予測段階と、前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する段階であり、前記複数種類の積層構成に対して前記質感予測段階において予測した前記質感に基づいて前記学習済モデルを生成する学習段階と、所望の前記質感に対応する前記領域構成を予測する段階であり、前記学習段階で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階とを備えることを特徴とする。 In addition, the inventor of the present application further conducted extensive research and discovered the features necessary to obtain such effects, leading to the present invention. In order to solve the above-mentioned problems, the present invention provides a region configuration prediction method for predicting a region configuration, which is a configuration of a region formed using a plurality of colors of coloring materials. This is a step of predicting the relationship between a laminated structure, which is a plurality of overlapping structures, and a predetermined texture by computer simulation. a texture prediction step of predicting the texture, and a step of generating a trained model by machine learning, which is a learning model that has learned the relationship between the lamination configuration and the texture, and a learning step of generating the trained model based on the texture predicted in the texture prediction step; and a step of predicting the region configuration corresponding to the desired texture, and a step of predicting the region configuration corresponding to the desired texture, The present invention is characterized by comprising a region configuration prediction step of predicting the lamination configuration corresponding to the texture using a model, and predicting the area configuration corresponding to the desired texture based on the lamination configuration.

このように構成すれば、例えば、積層構成と質感との関係をコンピュータシミュレーションによって適切に予測することができる。また、様々な構成の積層構成について、積層構成と質感との関係を機械学習で学習させた学習済モデルを生成することで、所望の質感に対応する積層構成を適切に予測することができる。また、予測した積層構成に基づき、所望の質感を得るための領域構成を適切に予測することができる。また、この場合、例えば、実際に多数の試料を作成することや多数の試料に対する計測等を行うことなく、機械学習に必要な多数のデータ(学習データ)を適切に準備することができる。また、これにより、例えば、学習済モデルを生成するために要する手間や時間等を適切に低減することができる。 With this configuration, for example, the relationship between the laminated structure and the texture can be appropriately predicted by computer simulation. Furthermore, by generating a trained model that uses machine learning to learn the relationship between the laminated configuration and texture for various laminated configurations, it is possible to appropriately predict the laminated configuration that corresponds to the desired texture. Further, based on the predicted layered structure, it is possible to appropriately predict the region structure for obtaining the desired texture. Further, in this case, for example, a large amount of data (learning data) required for machine learning can be appropriately prepared without actually creating a large number of samples or performing measurements on a large number of samples. Further, thereby, for example, the effort and time required to generate a trained model can be appropriately reduced.

この構成において、複数色の着色用の材料としては、例えば、複数色の造形の材料を用いることが考えられる。この場合、領域構成について、例えば、複数色の造形の材料を用いて造形物を造形する造形装置において造形しようとする造形物の少なくとも一部の領域に対応する構成等と考えることができる。また、領域構成について、例えば、それぞれが着色された複数の層状の領域が造形物の表面での法線方向と平行な方向において重なる構成等と考えることもできる。このように構成すれば、例えば、積層構成に基づいて領域構成を適切に予測することができる。また、これにより、例えば、所望の質感を得るための造形物の構成を適切に予測することができる。 In this configuration, as the material for coloring in multiple colors, it is possible to use, for example, a material for modeling in multiple colors. In this case, the area configuration can be considered to be, for example, a configuration corresponding to at least a part of the area of the object to be modeled in a modeling device that models the object using modeling materials of a plurality of colors. Further, regarding the region configuration, for example, a plurality of colored layered regions can be considered to overlap in a direction parallel to the normal direction on the surface of the object. With this configuration, for example, the region configuration can be appropriately predicted based on the laminated configuration. Moreover, thereby, for example, it is possible to appropriately predict the configuration of a shaped object to obtain a desired texture.

尚、着色用の材料として造形の材料以外の材料を用いること等も考えられる。この場合、例えば、媒体(メディア)に対して印刷を行う印刷装置において用いるインク等について、着色用の材料と考えることもできる。また、この場合、印刷装置では、例えば、媒体上に様々な色のインクの層を複数重ねることで様々な質感を表現することが考えられる。そして、この場合、媒体上に重ねて形成されるインクの層の重なり方について、領域構成と考えることができる。また、印刷装置としては、媒体上にインクの層を重ねることで立体的な形状を形成する印刷装置(いわゆる、2.5Dプリンタ)を用いること等も考えられる。この場合、例えば、媒体上に形成される立体的な形状の表面の構成について、領域構成と考えることができる。 It is also conceivable to use a material other than the modeling material as the coloring material. In this case, for example, ink or the like used in a printing device that prints on a medium can also be considered as a coloring material. Further, in this case, the printing device may express various textures by, for example, stacking multiple layers of ink of various colors on the medium. In this case, the manner in which the ink layers formed on the medium overlap can be considered as the area configuration. Further, as the printing device, it is also possible to use a printing device (so-called 2.5D printer) that forms a three-dimensional shape by overlapping layers of ink on a medium. In this case, for example, the configuration of a three-dimensional surface formed on the medium can be considered as a region configuration.

また、この構成において、学習段階では、例えば、コンピュータに機械学習を行わせることで、学習済モデルを生成する。また、質感としては、例えば、複数の層状の領域が重なることで表現される透明感等を用いることが考えられる。この場合、質感予測段階において、質感を示すパラメータとしては、例えば、光の広がり方を示す関数を用いることが考えられる。また、より具体的に、このような質感を示すパラメータとしては、例えば、線広がり関数(LSF)等を好適に用いることができる。このように構成すれば、例えば、所望の透明感に対応する積層構成等の予測を適切に行うことができる。 Further, in this configuration, in the learning stage, a learned model is generated by, for example, having a computer perform machine learning. Further, as the texture, it is possible to use, for example, a sense of transparency expressed by overlapping a plurality of layered regions. In this case, in the texture prediction stage, for example, a function indicating how light spreads may be used as a parameter indicating the texture. Further, more specifically, as a parameter indicating such a texture, for example, a line spread function (LSF) or the like can be suitably used. With this configuration, it is possible to appropriately predict, for example, a laminated structure corresponding to a desired transparency.

また、この構成において、領域構成予測段階は、例えば、パラメータ算出段階及び積層構成取得段階を有する。この場合、パラメータ算出段階とは、例えば、所望の質感が設定されたコンピュータグラフィックス画像に基づき、当該コンピュータグラフィックス画像に設定されている質感に対応するパラメータである設定パラメータを算出する段階である。また、積層構成取得段階とは、例えば、学習済モデルに対する入力として設定パラメータ算出段階で算出した設定パラメータを用いて、積層構成を示す出力を取得する段階である。このように構成すれば、例えば、所望の質感の指定を適切に受け付け、その質感に対応する積層構成を適切に出力することができる。 Furthermore, in this configuration, the region configuration prediction step includes, for example, a parameter calculation step and a stacked structure acquisition step. In this case, the parameter calculation step is, for example, a step of calculating setting parameters, which are parameters corresponding to the texture set in the computer graphics image, based on a computer graphics image in which a desired texture has been set. . Further, the layered configuration acquisition step is, for example, a step in which the setting parameters calculated in the setting parameter calculation step are used as inputs to the trained model to obtain an output indicating the layered configuration. With this configuration, for example, it is possible to appropriately accept the designation of a desired texture and appropriately output a laminated structure corresponding to the texture.

また、質感予測段階においては、例えば、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を用いてコンピュータシミュレーションを行うことで、積層構成により表現される質感を予測する。このように構成すれば、例えば、積層構成に対応する質感の予測をコンピュータシミュレーションによって適切に行うことができる。質感予測段階では、例えば、公知のコンピュータシミュレーションの手法と同一又は同様の手法のコンピュータシミュレーションを用いることができる。例えば、質感予測段階では、光散乱モンテカルロシミュレーション法(MCML法)でのコンピュータシミュレーション等を好適に用いることができる。 Furthermore, in the texture prediction stage, the texture expressed by the laminated structure is predicted by, for example, performing a computer simulation using absorption coefficients and scattering coefficients corresponding to each of the plurality of coloring materials. With this configuration, for example, the texture corresponding to the laminated structure can be appropriately predicted by computer simulation. In the texture prediction step, for example, computer simulation using the same or similar method to a known computer simulation method can be used. For example, in the texture prediction stage, computer simulation using a light scattering Monte Carlo simulation method (MCML method) or the like can be suitably used.

また、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数については、例えば、少数の試料に対する計測等で取得することが考えられる。この場合、領域構成予測方法は、例えば、各色試料作成段階及び係数決定段階を更に備える。各色試料作成段階とは、例えば、それぞれの色の着色用の材料に対応する試料を作成する段階である。この場合、例えば、造形装置を用いて試料を作成することが考えられる。また、係数決定段階は、例えば、各色試料作成段階で作成した試料の光学的な特性を計測することで複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する段階である。また、この場合、質感予測段階では、例えば、係数決定段階で決定した吸収係数及び散乱係数を用いて、コンピュータシミュレーションを行う。このように構成すれば、例えば、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を適切に決定することができる。また、これにより、例えば、質感予測段階でのコンピュータシミュレーションを高い精度で適切に行うことができる。 Furthermore, the absorption coefficients and scattering coefficients corresponding to each of the plurality of coloring materials may be acquired by, for example, measurements on a small number of samples. In this case, the region configuration prediction method further includes, for example, a step of creating samples for each color and a step of determining coefficients. The step of creating each color sample is, for example, a step of creating a sample corresponding to the coloring material of each color. In this case, for example, it is conceivable to create a sample using a modeling device. Further, the coefficient determination stage is a stage in which, for example, the absorption coefficient and scattering coefficient corresponding to each of the plurality of coloring materials are determined by measuring the optical characteristics of the samples created in the each color sample creation stage. . Further, in this case, in the texture prediction stage, a computer simulation is performed using, for example, the absorption coefficient and scattering coefficient determined in the coefficient determination stage. With this configuration, for example, the absorption coefficient and scattering coefficient corresponding to each of the plurality of coloring materials can be appropriately determined. Moreover, thereby, for example, computer simulation at the texture prediction stage can be appropriately performed with high accuracy.

また、学習段階において、機械学習としては、例えば、深層学習(ディープラーニング)等を好適に用いることができる。この場合、学習段階について、例えば、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階等と考えることができる。また、この場合、学習対象ニューラルネットワークとしては、例えば、質感を示すパラメータを入力及び出力とし、積層構成を示すパラメータを中間出力とするニューラルネットワーク等を好適に用いることができる。また、より具体的に、このような学習対象ニューラルネットワークとしては、例えば、エンコーダ部及びデコーダ部を有するニューラルネットワーク等を好適に用いることができる。この場合、エンコーダ部について、例えば、質感を示すパラメータを入力とし、積層構成を示すパラメータを出力とするニューラルネットワーク等と考えることができる。また、デコーダ部について、例えば、積層構成を示すパラメータを入力とし、質感を示すパラメータを出力とするニューラルネットワーク等と考えることができる。このように構成すれば、例えば、積層構成と質感との関係を学習させた学習済モデルを適切に生成することができる。また、エンコーダ部及びデコーダ部のそれぞれとしては、例えば、3層以上の多層のニューラルネットワークを用いることが好ましい。 Further, in the learning stage, as machine learning, for example, deep learning or the like can be suitably used. In this case, the learning stage can be considered, for example, as a stage in which a neural network to be learned, which is a neural network to be learned, is caused to perform learning. Further, in this case, as the neural network to be learned, for example, a neural network having parameters indicating texture as input and output and parameters indicating the laminated structure as intermediate output can be suitably used. Further, more specifically, as such a learning target neural network, for example, a neural network having an encoder section and a decoder section, etc. can be suitably used. In this case, the encoder section can be thought of as, for example, a neural network that inputs parameters indicating the texture and outputs parameters indicating the laminated structure. Further, the decoder section can be thought of as, for example, a neural network or the like that inputs a parameter indicating the laminated structure and outputs a parameter indicating the texture. With this configuration, for example, it is possible to appropriately generate a trained model that has learned the relationship between the layered structure and the texture. Furthermore, it is preferable to use, for example, a multilayer neural network of three or more layers as each of the encoder section and the decoder section.

また、この場合、学習対象ニューラルネットワークについて、例えば、エンコーダ部とデコーダ部とをつなげたニューラルネットワーク等と考えることができる。また、このような学習対象ニューラルネットワークを用いる場合、例えば、先にデコーダ部に学習を行わせ、その後に学習対象ニューラルネットワークの全体に学習を行わせることが考えられる。より具体的に、この場合、学習段階は、例えば、デコーダ部学習段階及び全体学習段階を有する。デコーダ部学習段階については、例えば、積層構成と質感との関係の学習をデコーダ部に行わせることでデコーダ部における重みを決定する段階等と考えることができる。全体学習段階については、例えば、積層構成と質感との関係の学習を学習対象ニューラルネットワークの全体に行わせる段階等と考えることができる。また、この場合、全体学習段階では、例えば、デコーダ部学習段階で決定したデコーダ部における重みを固定して、学習対象ニューラルネットワークに学習を行わせる。このように構成すれば、例えば、学習済モデルの生成を適切に行うことができる。 Further, in this case, the learning target neural network can be considered as, for example, a neural network in which an encoder section and a decoder section are connected. Further, when using such a learning target neural network, for example, it is conceivable to have the decoder section perform learning first, and then have the entire learning target neural network perform learning. More specifically, in this case, the learning stage includes, for example, a decoder part learning stage and a whole learning stage. The decoder learning stage can be considered, for example, as a stage in which weights in the decoder are determined by having the decoder learn the relationship between the laminated structure and the texture. The overall learning stage can be considered, for example, as a stage in which the entire learning target neural network is made to learn the relationship between the layered structure and the texture. Further, in this case, in the overall learning stage, for example, the weights in the decoder section determined in the decoder section learning stage are fixed, and the learning target neural network is caused to perform learning. With this configuration, for example, a trained model can be appropriately generated.

ここで、ニューラルネットワークにおける重みとは、ニューラルネットワークを構成するニューロン間に設定される重みのことである。また、このような学習対象ニューラルネットワークを用いる場合、領域構成予測段階では、例えば、学習対象ニューラルネットワークに学習を行わせることで作成した学習済モデルを用いて、質感に対応する積層構成を予測する。このように構成すれば、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。 Here, the weights in the neural network are weights set between neurons that make up the neural network. In addition, when using such a learning target neural network, in the region configuration prediction stage, for example, a trained model created by training the learning target neural network is used to predict the layered configuration corresponding to the texture. . With this configuration, for example, it is possible to appropriately predict a laminated structure corresponding to a desired texture.

また、所望の質感に対応する積層構成の予測をより高い精度で行おうとする場合には、コンピュータシミュレーション以外の方法で取得したデータを更に用いること等も考えられる。この場合、例えば、様々な積層構成に対応する試料を実際に作成して、注目する質感に対応する計測を試料に対して行うこと等が考えられる。このように構成した場合も、コンピュータシミュレーションにより取得したデータを用いることで、例えば、必要な試料の数を大幅に削減することができる。 Furthermore, in order to predict a laminated structure corresponding to a desired texture with higher accuracy, it is conceivable to further use data obtained by a method other than computer simulation. In this case, for example, it is conceivable to actually create samples corresponding to various laminated configurations and perform measurements corresponding to the texture of interest on the samples. Even with this configuration, for example, the number of required samples can be significantly reduced by using data acquired by computer simulation.

また、より具体的に、この場合、学習段階では、例えば、シミュレーション取得データ及び計測取得データを用いて、学習済モデルを生成する。シミュレーション取得データとは、例えば、質感予測段階において予測した質感に基づいて積層構成と質感との関係を示すデータである。また、計測取得データとは、例えば、造形装置等を用いて作成した試料に対して光学的な特性を計測することで取得される積層構成と質感との関係を示すデータである。このように構成すれば、例えば、高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。 More specifically, in this case, in the learning stage, a learned model is generated using, for example, simulation acquisition data and measurement acquisition data. The simulation acquired data is, for example, data indicating the relationship between the laminated structure and the texture based on the texture predicted in the texture prediction stage. Furthermore, the measurement acquisition data is, for example, data indicating the relationship between the laminated structure and the texture, which is acquired by measuring the optical characteristics of a sample created using a modeling device or the like. With this configuration, for example, it is possible to appropriately generate a trained model that can predict the relationship between the texture and the laminated structure with high accuracy.

また、この場合、学習段階では、例えば、シミュレーション取得データと計測取得データとを区別せずに用いて、学習済モデルを生成することが考えられる。この場合、シミュレーション取得データと計測取得データとを区別せずに用いることについては、例えば、学習済モデルを生成するための学習時において、それぞれのデータがシミュレーション取得データ及び計測取得データのいずれであるかによって扱い方を変えずに、同じように扱うことである。また、このような動作については、例えば、計測取得データを追加することで学習に用いるデータの数を増やす動作等と考えることもできる。このように構成すれば、例えば、容易かつ適切にシミュレーション取得データ及び計測取得データを用いることができる。 Further, in this case, in the learning stage, it is conceivable to generate a trained model by using, for example, the simulation acquisition data and the measurement acquisition data without distinguishing them. In this case, regarding the use of simulation acquisition data and measurement acquisition data without distinction, for example, during learning to generate a trained model, each data is either simulation acquisition data or measurement acquisition data. The idea is to treat them in the same way, without changing the way they are handled. Further, such an operation can be considered as, for example, an operation of increasing the number of data used for learning by adding measurement acquisition data. With this configuration, for example, simulation acquisition data and measurement acquisition data can be used easily and appropriately.

また、シミュレーション取得データ及び計測取得データについては、それぞれの特徴を活かすように、異なる用い方で用いることも考えられる。より具体的に、シミュレーション取得データについては、例えば、多数のデータをより容易に作成できると考えることができる。また、計測取得データについては、例えば、質感と積層構成との関係をより高い精度で示していると考えることができる。そして、この場合、例えば、最初にシミュレーション取得データを用いた学習を行わせて学習を進めた学習モデルを生成し、その学習モデルに対して計測取得データを用いた学習を行わせること等が考えられる。また、このような動作については、例えば、シミュレーション取得データを反映した学習モデルに対する調整を計測取得データを用いて行う動作等と考えることもできる。 It is also conceivable that the simulation acquired data and the measurement acquired data may be used in different ways to take advantage of their respective characteristics. More specifically, regarding simulation acquisition data, for example, it can be considered that a large amount of data can be created more easily. Furthermore, the measured data can be considered to indicate, for example, the relationship between the texture and the laminated structure with higher accuracy. In this case, for example, it may be possible to generate a learning model that has been trained by first performing learning using simulation acquired data, and then having that learning model perform learning using measurement acquired data. It will be done. Furthermore, such an operation can be considered as, for example, an operation in which a learning model that reflects simulation acquisition data is adjusted using measurement acquisition data.

また、この場合、学習段階は、例えば、第1学習段階及び第2学習段階を有する。この場合、第1学習段階では、例えば、計測取得データを用いず、シミュレーション取得データを用いた学習を学習モデルに対して行わせることで、シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する。また、第2学習段階では、例えば、中間生成モデルに対して計測取得データを用いた学習を更に行わせることで学習済モデルを生成する。このように構成すれば、例えば、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすよう適切に用いることができる。また、これにより、例えば、より高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。 Further, in this case, the learning stage includes, for example, a first learning stage and a second learning stage. In this case, in the first learning stage, for example, the learning model is trained using the simulation acquisition data without using the measurement acquisition data, thereby creating an intermediate generation model that is a learning model that reflects the simulation acquisition data. generate. Furthermore, in the second learning stage, for example, a learned model is generated by further performing learning using the measurement acquisition data on the intermediate generation model. With this configuration, for example, simulation acquisition data and measurement acquisition data can be appropriately used to take advantage of their respective characteristics. Moreover, thereby, for example, it is possible to appropriately generate a learned model that can predict the relationship between the texture and the laminated structure with higher accuracy.

また、エンコーダ部及びデコーダ部を有する学習対象ニューラルネットワークを用いる場合、学習対象ニューラルネットワークの構成に合わせてシミュレーション取得データ及び計測取得データを用いること等も考えられる。より具体的に、この場合、例えば、先に行うデコーダ部学習段階において、計測取得データを用いた学習をデコーダ部に行わせることが考えられる。また、この場合、全体学習段階では、例えば、シミュレーション取得データを用いた学習を学習対象ニューラルネットワークに行わせる。このように構成すれば、例えば、実際に作成した試料の特性を学習済モデルにより適切に反映させることができる。また、更に具体的に、この場合、デコーダ部学習段階では、例えば、計測取得データを用い、かつ、シミュレーション取得データを用いずに、デコーダ部に学習を行わせる。また、全体学習段階では、例えば、シミュレーション取得データ及び計測取得データを用いて、学習対象ニューラルネットワークに学習を行わせる。このように構成すれば、例えば、実際に作成した試料の特性を学習済モデルにより適切に反映させることができる。 Further, when using a learning target neural network having an encoder section and a decoder section, it is also possible to use simulation acquired data and measurement acquired data in accordance with the configuration of the learning target neural network. More specifically, in this case, for example, it is conceivable to have the decoder section perform learning using measurement acquisition data in the decoder section learning step performed first. Further, in this case, in the overall learning stage, the learning target neural network is caused to perform learning using, for example, simulation acquired data. With this configuration, for example, the characteristics of an actually created sample can be more appropriately reflected in the learned model. Further, more specifically, in this case, in the decoder section learning stage, the decoder section is caused to perform learning using, for example, measurement acquisition data and without using simulation acquisition data. Further, in the overall learning stage, the learning target neural network is caused to perform learning using, for example, simulation acquired data and measurement acquired data. With this configuration, for example, the characteristics of an actually created sample can be more appropriately reflected in the learned model.

また、複数色の着色用の材料として複数色の造形の材料を用いる場合等において、所望の質感に対応する積層構成を予測した後には、例えば、予測結果に基づき、造形しようとする造形物を示す造形データを生成することが考えられる。この場合、領域構成予測方法は、例えば、造形データを生成する造形データ生成段階を更に備える。造形データとしては、例えば、領域構成予測段階で予測した領域構成で造形物の少なくとも一部が形成されるように造形装置に造形の材料を積層させるデータを生成することが考えられる。このように構成すれば、例えば、所望の質感が得られる造形物の造形を造形装置に適切に行わせることができる。 In addition, when using a multi-colored modeling material as a multi-colored coloring material, for example, after predicting the laminated structure corresponding to the desired texture, the modeled object to be printed can be adjusted based on the prediction results. It is conceivable to generate modeling data shown in the figure. In this case, the area configuration prediction method further includes, for example, a modeling data generation step of generating modeling data. As the modeling data, it is conceivable to generate, for example, data that causes the modeling device to layer materials for modeling so that at least a part of the object is formed in the area configuration predicted in the area configuration prediction step. With this configuration, for example, it is possible to cause the modeling apparatus to appropriately shape a modeled object that provides a desired texture.

また、本発明の構成として、上記の一部の特徴から構成される領域構成予測方法等を考えることもできる。この場合、例えば、領域構成予測段階の動作に着目した領域構成予測方法等を考えることもできる。また、本発明の構成として、例えば、上記の領域構成予測方法に対応する領域構成予測装置を用いること等も考えられる。これらの場合も、例えば、上記と同様の効果を得ることができる。 Further, as a configuration of the present invention, it is also possible to consider a region configuration prediction method or the like configured from some of the above characteristics. In this case, for example, it is also possible to consider an area configuration prediction method that focuses on the operation at the area configuration prediction stage. Further, as a configuration of the present invention, it is also possible to use, for example, a region configuration prediction device that corresponds to the above-described region configuration prediction method. In these cases, for example, the same effects as above can be obtained.

本発明によれば、例えば、所望の質感を得るための領域構成を適切に予測することができる。 According to the present invention, for example, a region configuration for obtaining a desired texture can be appropriately predicted.

本発明の一実施形態に係る領域構成予測方法を実行する造形システム10について説明をする図である。図1(a)は、造形システム10の構成の一例を示す。図1(b)は、造形装置12の要部の構成の一例を示す。図1(c)は、造形装置12におけるヘッド部102の構成の一例を示す。FIG. 1 is a diagram illustrating a modeling system 10 that executes a region configuration prediction method according to an embodiment of the present invention. FIG. 1(a) shows an example of the configuration of the modeling system 10. FIG. 1(b) shows an example of the configuration of the main parts of the modeling device 12. FIG. 1C shows an example of the configuration of the head section 102 in the modeling apparatus 12. 造形物50の構成について説明をする図である。図2(a)は、造形装置12において造形する造形物50の構成の一例を示す断面図である。図2(b)は、造形物50における着色領域154の構成の一例を示す。5 is a diagram illustrating the configuration of a shaped object 50. FIG. FIG. 2A is a cross-sectional view showing an example of the configuration of a modeled object 50 modeled in the modeler 12. FIG. 2(b) shows an example of the configuration of the colored area 154 in the shaped object 50. 着色領域154を用いて表現する造形物の質感の一例を示す図である。図3(a)は、人間の肌の構成を簡略化して示す断面図である。図3(b)は、肌の質感を表現する場合に用いる着色領域154の構成の一例を示す。図3(c)は、着色領域154を構成する各領域の層数を異ならせた例を示す。7 is a diagram illustrating an example of the texture of a shaped object expressed using a colored region 154. FIG. FIG. 3(a) is a cross-sectional view showing a simplified structure of human skin. FIG. 3(b) shows an example of the configuration of the colored area 154 used to express the texture of the skin. FIG. 3C shows an example in which the number of layers in each region constituting the colored region 154 is varied. 学習済モデルを用いて領域構成を予測する動作について説明をする図である。図4(a)は、制御PC14の構成の一例を示す。図4(b)は、制御PC14において造形データを生成する動作の一例を示すフローチャートである。FIG. 3 is a diagram illustrating an operation of predicting a region configuration using a learned model. FIG. 4(a) shows an example of the configuration of the control PC 14. FIG. 4(b) is a flowchart showing an example of an operation for generating modeling data in the control PC 14. 学習済モデルを生成する動作について説明をする図である。図5(a)は、学習済モデルを生成する動作の一例を示すフローチャートである。図5(b)は、ステップS102の動作をより詳細に示すフローチャートである。FIG. 3 is a diagram illustrating an operation of generating a trained model. FIG. 5(a) is a flowchart illustrating an example of an operation for generating a learned model. FIG. 5(b) is a flowchart showing the operation of step S102 in more detail. インクサンプルに対して行う計測等について更に詳しく説明をする図である。図6(a)は、インクサンプルの一例を示す写真である。図6(b)は、インクサンプルに対する計測時に撮影する写真の例を示す。図6(c)は、本例において用いるダイポールモデルを表す数式を示す。FIG. 3 is a diagram illustrating in more detail the measurement and the like performed on an ink sample. FIG. 6(a) is a photograph showing an example of an ink sample. FIG. 6(b) shows an example of a photograph taken when measuring an ink sample. FIG. 6(c) shows a mathematical formula representing the dipole model used in this example. 本例において行うシミュレーションについて更に詳しく説明をする図である。FIG. 3 is a diagram illustrating in more detail the simulation performed in this example. 本例において実行する機械学習で利用する学習モデルの構成の一例を示す図である。図8(a)は、学習モデルとして用いる深層ニューラルネットワーク(DNN)の構成の一例を示す。図8(b)は、学習モデルに対する入力、出力、及び中間出力の例を示す。FIG. 2 is a diagram illustrating an example of the configuration of a learning model used in machine learning executed in this example. FIG. 8(a) shows an example of the configuration of a deep neural network (DNN) used as a learning model. FIG. 8(b) shows an example of input, output, and intermediate output for the learning model. 本例において行う機械学習について説明をする図である。図9(a)は、学習モデルに学習を行わせる動作の一例を示すフローチャートである。図9(b)は、デコーダ部604の学習曲線の一例を示す。図9(c)は、エンコーダ部602の学習曲線の一例を示す。FIG. 2 is a diagram illustrating machine learning performed in this example. FIG. 9A is a flowchart illustrating an example of an operation for causing a learning model to perform learning. FIG. 9B shows an example of a learning curve of the decoder section 604. FIG. 9C shows an example of a learning curve of the encoder unit 602. シミュレーション取得データ及び計測取得データを用い方の変形例について説明をする図である。図10(a)は、シミュレーション取得データ及び計測取得データを用いて学習済モデルを生成する動作の変形例を示すフローチャートである。図10(b)は、シミュレーション取得データ及び計測取得データを用い方の更なる変形例を示す。FIG. 6 is a diagram illustrating a modification example of how to use simulation acquired data and measurement acquired data. FIG. 10A is a flowchart illustrating a modified example of the operation of generating a learned model using simulation acquired data and measurement acquired data. FIG. 10(b) shows a further modified example of how to use simulation acquired data and measurement acquired data.

以下、本発明に係る実施形態を、図面を参照しながら説明する。図1は、本発明の一実施形態に係る領域構成予測方法を実行する造形システム10について説明をする図である。図1(a)は、造形システム10の構成の一例を示す。以下において説明をする点を除き、造形システム10は、公知の造形システムと同一又は同様の特徴を有してよい。 Embodiments according to the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating a modeling system 10 that executes a region configuration prediction method according to an embodiment of the present invention. FIG. 1(a) shows an example of the configuration of the modeling system 10. Except as described below, the printing system 10 may have the same or similar features as known printing systems.

本例において、造形システム10は、立体的な造形物を造形するシステムであり、造形装置12及び制御PC14を備える。造形装置12は、造形物の造形を実行する装置であり、造形の材料としてインクを用い、インクの層を積層することにより、積層造形法で造形物を造形する。この場合、積層造形法とは、例えば、複数の層を重ねて造形物を造形する方法のことである。造形物とは、例えば、立体的な三次元構造物のことである。インクについては、例えば、機能性の液体等と考えることができる。また、本例において、インクは、造形の材料の一例である。インクについては、例えば、インクジェットヘッドから吐出する液体等と考えることもできる。この場合、インクジェットヘッドとは、インクジェット方式で液体を吐出する吐出ヘッドのことである。 In this example, the modeling system 10 is a system for modeling three-dimensional objects, and includes a modeling device 12 and a control PC 14. The modeling device 12 is a device that executes modeling of a modeled object, and uses ink as a modeling material and forms the object by layered modeling by laminating layers of ink. In this case, the additive manufacturing method is, for example, a method of forming a model by stacking a plurality of layers. The modeled object is, for example, a three-dimensional three-dimensional structure. Ink can be considered, for example, as a functional liquid. Furthermore, in this example, ink is an example of a modeling material. Ink can also be considered, for example, as a liquid ejected from an inkjet head. In this case, the inkjet head refers to an ejection head that ejects liquid using an inkjet method.

また、本例において、造形装置12は、互いに異なる色の複数色のインクを用いて、着色された造形物を造形する。このような造形装置12としては、例えば、公知の造形装置を好適に用いることができる。より具体的に、造形装置12としては、例えば、ミマキエンジニアリング社製の造形装置(3Dプリンタ)等を好適に用いることができる。また、本例において、インクとしては、紫外線の照射により液体状態から硬化する紫外線硬化型のインク(UVインク)を用いる。 Moreover, in this example, the modeling device 12 models a colored object using a plurality of mutually different colors of ink. As such a modeling device 12, for example, a known modeling device can be suitably used. More specifically, as the modeling device 12, for example, a modeling device (3D printer) manufactured by Mimaki Engineering Co., Ltd. can be suitably used. Further, in this example, as the ink, an ultraviolet curable ink (UV ink) that is cured from a liquid state by irradiation with ultraviolet rays is used.

制御PC14は、所定のプログラムに応じて動作するコンピュータであり、造形しようとする造形物を示す造形データを造形装置12へ供給することにより、造形装置12の動作を制御する。また、より具体的に、本例において、制御PC14は、造形しようとする造形物の形状等を示す立体データに対し、所望の質感の設定等を行って、造形データを生成する。この場合、制御PC14は、造形物を示すコンピュータグラフィック画像(以下、CG画像という)を立体データに基づいて生成し、立体データを作成したデザイナ等のユーザに対してCG画像を示しつつ、質感の設定等を、ユーザから受け付ける。そして、設定された質感で造形装置12に造形物を造形させる造形データを生成する。また、本例において、制御PC14は、領域構成予測装置の一例である。制御PC14において造形データを生成する動作については、後に更に詳しく説明をする。 The control PC 14 is a computer that operates according to a predetermined program, and controls the operation of the modeling device 12 by supplying modeling data indicating the object to be printed to the modeling device 12. More specifically, in this example, the control PC 14 generates modeling data by setting a desired texture and the like on three-dimensional data indicating the shape and the like of the object to be modeled. In this case, the control PC 14 generates a computer graphic image (hereinafter referred to as a CG image) showing the object based on the three-dimensional data, and while showing the CG image to the user such as the designer who created the three-dimensional data, Settings etc. are accepted from the user. Then, modeling data is generated that causes the modeling device 12 to model the object with the set texture. Furthermore, in this example, the control PC 14 is an example of a region configuration prediction device. The operation of generating modeling data in the control PC 14 will be explained in more detail later.

続いて、造形装置12のより具体的な構成や造形装置12において造形する造形物の構成等について、更に詳しく説明をする。図1(b)は、造形装置12の要部の構成の一例を示す。以下に説明をする点を除き、造形装置12は、公知の造形装置と同一又は同様の特徴を有してよい。より具体的に、以下に説明をする点を除き、造形装置12は、インクジェットヘッドを用いて造形物50の材料となる液滴を吐出することで造形を行う公知の造形装置と同一又は同様の特徴を有してよい。また、造形装置12は、図示した構成以外にも、例えば、造形物50の造形等に必要な各種構成を更に備えてよい。 Next, the more specific configuration of the modeling device 12 and the configuration of the object to be modeled in the modeling device 12 will be explained in more detail. FIG. 1(b) shows an example of the configuration of the main parts of the modeling device 12. The modeling device 12 may have the same or similar features as known modeling devices, except as described below. More specifically, except for the points explained below, the modeling device 12 is the same as or similar to a known modeling device that performs modeling by ejecting droplets that become the material of the modeled object 50 using an inkjet head. may have characteristics. In addition to the illustrated configuration, the modeling device 12 may further include various configurations necessary for, for example, modeling the object 50.

本例において、造形装置12は、積層造形法により立体的な造形物50を造形する造形装置(3Dプリンタ)であり、ヘッド部102、造形台104、走査駆動部106、及び制御部110を備える。ヘッド部102は、造形物50の材料を吐出する部分である。また、上記においても説明をしたように、本例において、造形物50の材料としては、紫外線硬化型のインクを用いる。この場合、紫外線硬化型のインクは、所定の条件に応じて硬化するインクの一例である。また、より具体的に、ヘッド部102は、造形物50の材料として、複数のインクジェットヘッドから、紫外線硬化型のインクを吐出する。そして、着弾後のインクを硬化させることにより、造形物50を構成する各層を重ねて形成する。また、ヘッド部102は、造形物50の材料に加え、サポート層52の材料を更に吐出する。これにより、ヘッド部102は、造形物50の周囲等に、必要に応じて、サポート層52を形成する。サポート層52とは、例えば、造形中の造形物50の少なくとも一部を支持する積層構造物のことである。サポート層52は、造形物50の造形時において、必要に応じて形成され、造形の完了後に除去される。 In this example, the modeling device 12 is a modeling device (3D printer) that creates a three-dimensional object 50 using the additive manufacturing method, and includes a head section 102, a modeling table 104, a scanning drive section 106, and a control section 110. . The head part 102 is a part that discharges the material of the modeled object 50. Furthermore, as explained above, in this example, ultraviolet curing ink is used as the material for the shaped object 50. In this case, the ultraviolet curable ink is an example of an ink that cures according to predetermined conditions. More specifically, the head unit 102 discharges ultraviolet curing ink as a material for the shaped object 50 from a plurality of inkjet heads. Then, by curing the ink after landing, the layers constituting the modeled object 50 are formed in an overlapping manner. In addition to the material for the shaped object 50, the head section 102 further discharges the material for the support layer 52. Thereby, the head section 102 forms the support layer 52 around the shaped object 50, etc., as necessary. The support layer 52 is, for example, a laminated structure that supports at least a portion of the object 50 being formed. The support layer 52 is formed as necessary during the modeling of the shaped object 50, and is removed after the modeling is completed.

造形台104は、造形中の造形物50を支持する台状部材であり、ヘッド部102におけるインクジェットヘッドと対向する位置に配設され、造形中の造形物50及びサポート層52を上面に載置する。また、本例において、造形台104は、少なくとも上面が積層方向(図中のZ方向)へ移動可能な構成を有しており、走査駆動部106に駆動されることにより、造形物50の造形の進行に合わせて、少なくとも上面を移動させる。この場合、積層方向については、例えば、積層造形法において造形の材料が積層される方向等と考えることができる。また、本例において、積層方向は、造形装置12において予め設定される主走査方向(図中のY方向)及び副走査方向(図中のX方向)と直交する方向である。 The modeling table 104 is a table-like member that supports the object 50 being modeled, and is disposed at a position facing the inkjet head in the head section 102, and places the object 50 being modeled and the support layer 52 on its upper surface. do. In addition, in this example, the modeling table 104 has a configuration in which at least its upper surface is movable in the stacking direction (Z direction in the figure), and is driven by the scanning drive unit 106 to form the object 50. At least the upper surface is moved in accordance with the progress of the movement. In this case, the lamination direction can be considered to be, for example, the direction in which modeling materials are laminated in an additive manufacturing method. Further, in this example, the stacking direction is a direction perpendicular to the main scanning direction (Y direction in the figure) and sub-scanning direction (X direction in the figure) that are preset in the modeling device 12.

走査駆動部106は、造形中の造形物50に対して相対的に移動する走査動作をヘッド部102に行わせる駆動部である。この場合、造形中の造形物50に対して相対的に移動するとは、例えば、造形台104に対して相対的に移動することである。また、ヘッド部102に走査動作を行わせるとは、例えば、ヘッド部102が有するインクジェットヘッドに走査動作を行わせることである。また、本例において、走査駆動部106は、走査動作として、主走査動作(Y走査)、副走査動作(X走査)、及び積層方向走査動作(Z走査)をヘッド部102に行わせる。主走査動作とは、例えば、造形中の造形物50に対して相対的に主走査方向へ移動しつつインクを吐出する動作のことである。また、副走査動作とは、例えば、主走査方向と直交する副走査方向へ造形中の造形物50に対して相対的に移動する動作のことである。副走査動作については、例えば、予め設定された送り量だけ副走査方向へ造形台104に対して相対的に移動する動作等と考えることもできる。本例において、走査駆動部106は、主走査動作の合間に、ヘッド部102に副走査動作を行わせる。また、積層方向走査動作とは、例えば、造形中の造形物50に対して相対的に積層方向へヘッド部102を移動させる動作のことである。走査駆動部106は、例えば、造形の動作の進行に合わせてヘッド部102に積層方向走査動作を行わせることにより、積層方向において、造形中の造形物50に対するインクジェットヘッドの相対位置を調整する。 The scanning drive unit 106 is a drive unit that causes the head unit 102 to perform a scanning operation to move relative to the object 50 being modeled. In this case, moving relative to the object 50 being modeled means moving relative to the modeling table 104, for example. Further, causing the head unit 102 to perform a scanning operation means, for example, causing an inkjet head included in the head unit 102 to perform a scanning operation. Further, in this example, the scan drive section 106 causes the head section 102 to perform a main scanning operation (Y scanning), a sub scanning operation (X scanning), and a stacking direction scanning operation (Z scanning) as scanning operations. The main scanning operation is, for example, an operation of discharging ink while moving in the main scanning direction relative to the object 50 being modeled. Further, the sub-scanning operation is, for example, an operation of moving relative to the object 50 being modeled in the sub-scanning direction orthogonal to the main scanning direction. The sub-scanning operation can also be considered as, for example, an operation of moving relative to the modeling table 104 in the sub-scanning direction by a preset feed amount. In this example, the scan drive section 106 causes the head section 102 to perform a sub-scanning operation between main scanning operations. Further, the stacking direction scanning operation is, for example, an operation of moving the head section 102 in the stacking direction relative to the object 50 being modeled. The scan drive unit 106 adjusts the relative position of the inkjet head with respect to the object 50 being modeled in the stacking direction by, for example, causing the head unit 102 to perform a scanning operation in the stacking direction as the modeling operation progresses.

制御部110は、例えば造形装置12のCPUを含む構成であり、造形装置12の各部を制御することにより、造形装置12における造形の動作を制御する。より具体的に、制御部110は、例えば造形すべき造形物50の形状情報や、カラー情報等に基づき、造形装置12の各部を制御する。本例によれば、造形物50を適切に造形できる。 The control unit 110 is configured to include, for example, a CPU of the modeling device 12, and controls the modeling operation in the modeling device 12 by controlling each part of the modeling device 12. More specifically, the control unit 110 controls each part of the modeling device 12 based on, for example, shape information, color information, etc. of the object 50 to be modeled. According to this example, the object 50 can be appropriately formed.

また、本例において、造形装置12におけるヘッド部102は、例えば図1(c)に示す構成を有する。図1(c)は、ヘッド部102の構成の一例を示す。本例において、ヘッド部102は、複数のインクジェットヘッド、複数の紫外線光源124、及び平坦化ローラ126を有する。また、複数のインクジェットヘッドとして、図中に示すように、インクジェットヘッド122s、インクジェットヘッド122w、インクジェットヘッド122y、インクジェットヘッド122m、インクジェットヘッド122c、インクジェットヘッド122k、及びインクジェットヘッド122tを有する。これらの複数のインクジェットヘッドは、例えば、副走査方向における位置を揃えて、主走査方向へ並べて配設される。また、それぞれのインクジェットヘッドは、造形台104と対向する面に、所定のノズル列方向へ複数のノズルが並ぶノズル列を有する。本例において、ノズル列方向は、副走査方向と平行な方向である。 Further, in this example, the head section 102 in the modeling device 12 has a configuration shown in FIG. 1(c), for example. FIG. 1(c) shows an example of the configuration of the head section 102. In this example, the head unit 102 includes a plurality of inkjet heads, a plurality of ultraviolet light sources 124, and a flattening roller 126. As shown in the figure, the plurality of inkjet heads include an inkjet head 122s, an inkjet head 122w, an inkjet head 122y, an inkjet head 122m, an inkjet head 122c, an inkjet head 122k, and an inkjet head 122t. These plurality of inkjet heads are, for example, aligned in the sub-scanning direction and arranged side by side in the main-scanning direction. Moreover, each inkjet head has a nozzle row in which a plurality of nozzles are lined up in a predetermined nozzle row direction on a surface facing the modeling table 104. In this example, the nozzle row direction is parallel to the sub-scanning direction.

また、これらのインクジェットヘッドのうち、インクジェットヘッド122sは、サポート層52の材料を吐出するインクジェットヘッドである。サポート層52の材料としては、例えば、サポート層用の公知の材料を好適に用いることができる。インクジェットヘッド122wは、白色(W色)のインクを吐出するインクジェットヘッドである。また、本例において、白色のインクは、光反射性のインクの一例であり、例えば造形物50において光を反射する性質の領域(光反射領域)を形成する場合に用いられる。この光反射領域は、例えば、造形物50表面に対してフルカラー表現での着色を行う場合に、造形物50の外部から入射する光を反射する。フルカラー表現については、例えば、プロセスカラーのインクによる減法混色法の可能な組み合わせで行う色の表現等と考えることができる。 Moreover, among these inkjet heads, the inkjet head 122s is an inkjet head that discharges the material of the support layer 52. As the material for the support layer 52, for example, known materials for support layers can be suitably used. The inkjet head 122w is an inkjet head that discharges white (W color) ink. Furthermore, in this example, the white ink is an example of a light-reflective ink, and is used, for example, when forming an area (light-reflecting area) that reflects light in the shaped object 50. For example, when the surface of the object 50 is colored in full color, this light reflection region reflects light incident from outside the object 50 . Full color expression can be thought of as, for example, color expression performed by possible combinations of subtractive color mixing using process color inks.

インクジェットヘッド122y、インクジェットヘッド122m、インクジェットヘッド122c、インクジェットヘッド122kは、着色された造形物50の造形時に用いられる着色用のインクジェットヘッドであり、着色に用いる複数色のインク(着色用のインク)のそれぞれのインクを吐出する。より具体的に、インクジェットヘッド122yは、イエロー色(Y色)のインクを吐出する。インクジェットヘッド122mは、マゼンタ色(M色)のインクを吐出する。インクジェットヘッド122cは、シアン色(C色)のインクを吐出する。また、インクジェットヘッド122kは、ブラック色(K色)のインクを吐出する。この場合、YMCKの各色は、フルカラー表現に用いるプロセスカラーの一例である。また、本例において、YMCKの各色のインクは、複数色の着色用の材料及び複数色の造形の材料の一例である。また、インクジェットヘッド122tは、クリアインクを吐出するインクジェットヘッドである。クリアインクとは、例えば、可視光に対して無色で透明(T)なインクのことである。 The inkjet head 122y, the inkjet head 122m, the inkjet head 122c, and the inkjet head 122k are inkjet heads for coloring that are used when modeling the colored object 50, and are inkjet heads for coloring that are used for coloring (coloring ink). Eject each ink. More specifically, the inkjet head 122y discharges yellow (Y color) ink. The inkjet head 122m discharges magenta (M color) ink. The inkjet head 122c discharges cyan (C color) ink. Further, the inkjet head 122k discharges black (K) ink. In this case, each YMCK color is an example of a process color used for full color expression. Further, in this example, the inks of each color of YMCK are an example of a multi-color coloring material and a multi-color modeling material. Further, the inkjet head 122t is an inkjet head that discharges clear ink. Clear ink is, for example, ink that is colorless and transparent (T) to visible light.

複数の紫外線光源124は、インクを硬化させるための光源(UV光源)であり、紫外線硬化型のインクを硬化させる紫外線を発生する。また、本例において、複数の紫外線光源124のそれぞれは、間にインクジェットヘッドの並びを挟むように、ヘッド部102における主走査方向の一端側及び他端側のそれぞれに配設される。紫外線光源124としては、例えば、UVLED(紫外LED)等を好適に用いることができる。また、紫外線光源124として、メタルハライドランプや水銀ランプ等を用いることも考えられる。平坦化ローラ126は、造形物50の造形中に形成されるインクの層を平坦化するための平坦化手段である。平坦化ローラ126は、例えば主走査動作時において、インクの層の表面と接触して、硬化前のインクの一部を除去することにより、インクの層を平坦化する。 The plurality of ultraviolet light sources 124 are light sources (UV light sources) for curing ink, and generate ultraviolet light for curing ultraviolet curable ink. Further, in this example, each of the plurality of ultraviolet light sources 124 is arranged at one end side and the other end side in the main scanning direction of the head section 102, with the row of inkjet heads sandwiched between them. As the ultraviolet light source 124, for example, a UVLED (ultraviolet LED) or the like can be suitably used. Further, it is also possible to use a metal halide lamp, a mercury lamp, or the like as the ultraviolet light source 124. The flattening roller 126 is a flattening means for flattening the ink layer formed during the modeling of the object 50. The flattening roller 126 flattens the ink layer by contacting the surface of the ink layer and removing a portion of the ink before hardening, for example during a main scanning operation.

以上のような構成のヘッド部102を用いることにより、例えば、造形物50を構成するインクの層を適切に形成できる。また、複数のインクの層を重ねて形成することにより、例えば、造形物50を適切に造形できる。また、ヘッド部102の具体的な構成については、上記において説明をした構成に限らず、様々に変形することもできる。例えば、ヘッド部102は、着色用のインクジェットヘッドとして、上記以外の色用のインクジェットヘッドを更に有してもよい。また、ヘッド部102における複数のインクジェットヘッドの並べ方についても、様々に変形可能である。例えば、一部のインクジェットヘッドについて、他のインクジェットヘッドと副走査方向における位置をずらしてもよい。 By using the head section 102 having the above configuration, for example, an ink layer constituting the modeled object 50 can be appropriately formed. Furthermore, by forming a plurality of ink layers in a stacked manner, the object 50 can be appropriately formed, for example. Furthermore, the specific configuration of the head section 102 is not limited to the configuration described above, and can be modified in various ways. For example, the head unit 102 may further include an inkjet head for colors other than those described above as an inkjet head for coloring. Furthermore, the arrangement of the plurality of inkjet heads in the head section 102 can also be modified in various ways. For example, some inkjet heads may be shifted in position from other inkjet heads in the sub-scanning direction.

続いて、本例の造形装置12において造形する造形物50の構成の例について、説明をする。図2は、造形物50の構成について説明をする図である。図2(a)は、造形装置12において造形する造形物50の構成の一例を示す断面図である。図2(b)は、造形物50における着色領域154の構成の一例を示す。本例において、造形装置12は、表面の少なくとも一部が着色された造形物50を造形する。この場合、造形物50の表面については、例えば、造形物50の外部から色彩を視認できる領域等と考えることができる。また、上記においても説明をしたように、本例において、造形装置12は、積層造形法で造形物50の造形を行う。そして、この場合、造形装置12は、所定の厚さのインクの層を積層方向へ重ねることで、造形物50の造形を行う。より具体的に、この場合、造形装置12は、例えば、図中において造形単位層502として示すインクの層を重ねて形成することで、造形物50の造形を行う。 Next, an example of the configuration of the modeled object 50 modeled by the modeler 12 of this example will be explained. FIG. 2 is a diagram illustrating the configuration of the shaped object 50. FIG. 2A is a cross-sectional view showing an example of the configuration of a modeled object 50 modeled in the modeler 12. FIG. 2(b) shows an example of the configuration of the colored area 154 in the shaped object 50. In this example, the modeling device 12 models a modeled object 50 whose surface is at least partially colored. In this case, the surface of the shaped object 50 can be considered, for example, as an area where the color can be visually recognized from the outside of the shaped object 50. Furthermore, as explained above, in this example, the modeling device 12 models the object 50 using the additive manufacturing method. In this case, the modeling device 12 forms the object 50 by stacking ink layers of a predetermined thickness in the stacking direction. More specifically, in this case, the modeling device 12 models the object 50 by, for example, forming layers of ink shown as a modeling unit layer 502 in the figure in an overlapping manner.

また、本例において、造形装置12は、例えば図中に示すように、内部領域152及び着色領域154を備える造形物50を造形する。内部領域152は、造形物50の内部を構成する領域であり、着色領域154により周囲を囲まれるように、造形物50の内部に形成される。また、本例において、内部領域152は、白色のインク等の光反射性のインクで形成されることで、光反射領域を兼ねた領域として形成される。造形物50の構成の変形例においては、内部領域152とは別に光反射領域を形成してもよい。この場合、内部領域152については、例えば、任意の色のインクで形成することができる。また、この場合、光反射領域は、例えば、内部領域152と着色領域154との間に形成される。 Further, in this example, the modeling device 12 models a modeled object 50 that includes an internal region 152 and a colored region 154, for example, as shown in the figure. The internal region 152 is a region constituting the inside of the object 50 and is formed inside the object 50 so as to be surrounded by the colored region 154 . Furthermore, in this example, the internal region 152 is formed with light-reflective ink such as white ink, so that it is formed as a region that also serves as a light-reflecting region. In a modification of the configuration of the shaped object 50, a light reflecting area may be formed separately from the internal area 152. In this case, the internal region 152 can be formed using ink of any color, for example. Further, in this case, the light reflecting area is formed between the internal area 152 and the colored area 154, for example.

着色領域154は、造形物50において着色がされる領域であり、着色用の複数色のインクを用いて、造形物50の表面における法線方向での厚さ(外周面からの深さ)が一定になるように造形物50の表面に形成されることで、様々な色に着色がされた状態で形成される。また、本例において、造形装置12は、例えば、CMYKの各色及びクリアインクを用いて、造形物50における着色領域154を形成する。また、造形装置12は、着色用のインクとして、例えばW色のインク等を更に用いてもよい。 The colored area 154 is an area where the object 50 is colored, and the thickness in the normal direction of the surface of the object 50 (depth from the outer circumferential surface) is adjusted using multiple color inks for coloring. By being formed on the surface of the modeled object 50 in a constant manner, it is formed in a state where it is colored in various colors. Further, in this example, the modeling device 12 forms the colored region 154 in the modeled object 50 using, for example, each color of CMYK and clear ink. Furthermore, the modeling device 12 may further use, for example, W-colored ink as the coloring ink.

また、本例において、造形装置12は、図2(b)に示すように、複数の層状領域202が重なる構成の着色領域154を形成する。また、この場合において、造形装置12は、それぞれの層状領域202について、個別に様々な色での着色を行って形成する。また、複数の層状領域202について、造形物50の表面における法線方向と平行な方向において重なるように形成する。この場合、造形物50の表面における法線方向については、例えば、造形物50の表面の各位置において表面と直交する方向等と考えることができる。このように構成すれば、例えば、着色領域154において多様な質感を表現することができる。また、図2(b)では、それぞれの層状領域202の色の違いについて、図示の便宜上、網掛け模様を異ならせて示している。 Furthermore, in this example, the modeling apparatus 12 forms a colored region 154 in which a plurality of layered regions 202 overlap, as shown in FIG. 2(b). Moreover, in this case, the modeling apparatus 12 individually colors and forms each layered region 202 with various colors. Further, the plurality of layered regions 202 are formed so as to overlap in a direction parallel to the normal direction on the surface of the shaped object 50. In this case, the normal direction on the surface of the object 50 can be considered to be, for example, a direction orthogonal to the surface at each position on the surface of the object 50. With this configuration, for example, various textures can be expressed in the colored area 154. Further, in FIG. 2(b), the different colors of the respective layered regions 202 are shown with different hatching patterns for convenience of illustration.

ここで、本例において、着色領域154を構成する層状領域202については、例えば、厚さが略一定であり、かつ、法線方向と直交する方向へ広がる領域等と考えることができる。また、上記においても説明をしたように、本例において、造形装置12は、積層造形法で造形物50の造形を行う。この場合、積層造形法での積層方向における上面側や下面側では、積層造形法で積層するそれぞれのインクの層である造形単位層502について、着色領域154を構成するそれぞれの層状領域202としてそのまま用いることが考えられる。また、上面や下面に対して交差する造形物50の側面において、着色領域154は、法線方向における厚さが一定になるように、側面に沿って形成される。また、この場合、着色領域154の構成は、側面に沿った層状領域202が複数重なる構成になる。そして、この場合、層状領域202について、造形単位層502とは別の層状の領域等と考えることができる。また、層状領域202については、例えば、着色領域154において質感を表現するための層状の領域等と考えることもできる。また、着色領域154を構成するそれぞれの層状領域202については、予め設定された一定の厚さで形成することが好ましい。そのため、本例においては、層状領域202の色の違いによって層状領域202の厚さに差が生じないように、無色で透明なインクであるクリアインクを用いて、適宜インクの量の補填を行う。この場合、クリアインクを用いた補填については、例えば、それぞれの層状領域202の色の違いによって生じる有色のインクの使用量の差に対する補填等と考えることができる。 Here, in this example, the layered region 202 constituting the colored region 154 can be considered, for example, to be a region having a substantially constant thickness and expanding in a direction orthogonal to the normal direction. Furthermore, as explained above, in this example, the modeling device 12 models the object 50 using the additive manufacturing method. In this case, on the upper surface side and the lower surface side in the stacking direction in the additive manufacturing method, the modeling unit layers 502, which are the respective ink layers stacked in the additive manufacturing method, remain as the respective layered regions 202 constituting the colored region 154. It is possible to use it. Further, on the side surface of the object 50 that intersects with the upper surface and the lower surface, the colored region 154 is formed along the side surface so that the thickness in the normal direction is constant. Furthermore, in this case, the colored region 154 has a structure in which a plurality of layered regions 202 along the side surface overlap. In this case, the layered region 202 can be considered as a layered region different from the modeling unit layer 502. Further, the layered area 202 can also be considered as a layered area for expressing texture in the colored area 154, for example. Further, each of the layered regions 202 constituting the colored region 154 is preferably formed with a predetermined constant thickness. Therefore, in this example, in order to prevent a difference in the thickness of the layered region 202 due to the difference in the color of the layered region 202, clear ink, which is a colorless and transparent ink, is used to compensate for the amount of ink as appropriate. . In this case, the compensation using clear ink can be considered as, for example, compensation for the difference in the amount of colored ink used due to the difference in color between the respective layered regions 202.

また、上記においても説明をしたように、本例によれば、複数の層状領域202を重ねた構成の着色領域154を形成することで、着色領域154において多様な質感を表現することができる。この場合、質感として、例えば、透明感等を表現することが考えられる。また、透明感を表現することで、例えば、人間の肌の質感等を高い品質で再現する着色領域154を形成すること等が考えられる。また、この場合、例えば、図3を用いて以下において説明をする構成の着色領域154を形成すること等が考えられる。 Further, as explained above, according to this example, by forming the colored region 154 having a structure in which a plurality of layered regions 202 are stacked, various textures can be expressed in the colored region 154. In this case, it is conceivable to express a sense of transparency, for example, as the texture. Furthermore, by expressing transparency, it is possible to form a colored region 154 that reproduces the texture of human skin with high quality, for example. Further, in this case, for example, it is conceivable to form a colored region 154 having the configuration described below with reference to FIG. 3.

図3は、着色領域154を用いて表現する造形物の質感の一例を示す図であり、人間の肌の質感を表現する場合の着色領域154の構成の一例を示す。図3(a)は、人間の肌の構成を簡略化して示す断面図である。図中に示すように、人間の肌は、皮下組織の上に真皮及び表皮が重なる多層構造を有している。そこで、本例においては、例えば、肌の多層構造を模した領域構成(層構造)で層状領域202を重ねた着色領域154を用いることで、肌の質感を再現する。この場合、領域構成については、例えば、造形物の少なくとも一部の領域に対応する構成等と考えることができる。 FIG. 3 is a diagram showing an example of the texture of a model expressed using the colored area 154, and shows an example of the configuration of the colored area 154 when expressing the texture of human skin. FIG. 3(a) is a cross-sectional view showing a simplified structure of human skin. As shown in the figure, human skin has a multilayered structure in which the dermis and epidermis overlap on the subcutaneous tissue. Therefore, in this example, the texture of the skin is reproduced by using, for example, the colored region 154 in which the layered regions 202 are overlapped in a region configuration (layered structure) that imitates the multilayer structure of the skin. In this case, the area configuration can be considered as, for example, a configuration corresponding to at least a part of the area of the object.

図3(b)は、肌の質感を表現する場合に用いる着色領域154の構成の一例を示す。この場合、着色領域154は、図中に示すように、真皮領域302、表皮領域304、及びクリア領域306を有する。真皮領域302は、人間の肌における真皮に対応する領域である。また、人間の肌において、真皮は、通常、皮下組織にある血管を流れる血液の影響等により、赤みを帯びた色になる。そのため、本例において、真皮領域302については、赤色系の色の層状領域202を重ねることで形成する。また、表皮領域304は、人間の肌における表皮に対応する領域である。この場合、表皮については、例えば、人間の肌の表面の色である肌色を示す領域と考えることができる。そのため、表皮領域304については、肌色系の色の層状領域202を重ねることで形成する。 FIG. 3(b) shows an example of the configuration of the colored area 154 used to express the texture of the skin. In this case, the colored region 154 has a dermis region 302, an epidermis region 304, and a clear region 306, as shown in the figure. The dermis region 302 corresponds to the dermis of human skin. Furthermore, in human skin, the dermis usually takes on a reddish color due to the influence of blood flowing through blood vessels in the subcutaneous tissue. Therefore, in this example, the dermis region 302 is formed by overlapping the layered regions 202 of reddish color. Further, the epidermal region 304 is a region corresponding to the epidermis of human skin. In this case, the epidermis can be considered, for example, as a region exhibiting skin color, which is the surface color of human skin. Therefore, the epidermis region 304 is formed by overlapping the layered regions 202 of flesh-colored colors.

また、人間の肌の質感においては、透明感が重要であると考えられる。そのため、本例においては、真皮領域302及び表皮領域304の上(外側)に、クリアインクで形成される領域であるクリア領域306を形成する。この場合、クリア領域306については、クリアインクのみで形成することが考えられる。また、求められる肌の質感によっては、クリア領域306について、例えば、微量の有色のインクを混ぜた状態で、主にクリアインクを用いて形成すること等も考えられる。また、この場合、真皮領域302、表皮領域304、及びクリア領域306のそれぞれを構成する層状領域202の層数や、それぞれの層状領域202の色を変化させることで、様々な質感を表現することができる。 Furthermore, transparency is considered to be important in the texture of human skin. Therefore, in this example, a clear region 306, which is a region formed with clear ink, is formed above (outside) the dermis region 302 and the epidermis region 304. In this case, the clear area 306 may be formed using only clear ink. Further, depending on the desired skin texture, the clear area 306 may be formed using mainly clear ink, for example, with a small amount of colored ink mixed therein. Furthermore, in this case, various textures can be expressed by changing the number of layers of the layered regions 202 constituting each of the dermal region 302, the epidermal region 304, and the clear region 306, and the color of each layered region 202. Can be done.

図3(c)は、着色領域154を構成する各領域の層数を異ならせた例を示す。図中において、左側の図は、真皮領域302を構成する層状領域202の層数を4とし、表皮領域304を構成する層状領域202の層数を2とし、クリア領域306を構成する層状領域202の層数を3とする場合の例を示す。また、右側の図は、真皮領域302を構成する層状領域202の層数を3とし、表皮領域304を構成する層状領域202の層数を5とし、クリア領域306を構成する層状領域202の層数を2とする場合の例を示す。本例によれば、例えば、各領域を構成する層状領域202の層数や色を変化させることで、様々な質感を表現することができる。また、求められる質感によっては、これらの領域のうちの一部を省略してもよい。 FIG. 3C shows an example in which the number of layers in each region constituting the colored region 154 is varied. In the diagram on the left, the number of layers of the stratified region 202 constituting the dermal region 302 is 4, the number of layers of the stratified region 202 constituting the epidermal region 304 is 2, and the number of stratified regions 202 constituting the clear region 306 is An example is shown in which the number of layers is 3. In addition, in the diagram on the right, the number of layers of the stratified region 202 that constitutes the dermal region 302 is 3, the number of layers of the stratified region 202 that constitutes the epidermal region 304 is 5, and the number of layers of the stratified region 202 that constitutes the clear region 306. An example where the number is 2 is shown. According to this example, various textures can be expressed by, for example, changing the number of layers and colors of the layered regions 202 that constitute each region. Also, depending on the desired texture, some of these areas may be omitted.

ここで、着色領域154を構成する層状領域202の層数が多すぎる場合、それぞれの層状領域202において吸収される光の量が多くなることで、着色領域154の色が暗くなることが考えられる。そのため、着色領域154における層状領域202の合計については、10層以下程度にすることが好ましい。また、本例においては、着色領域154を構成する層状領域202の合計について、10層に固定している。そのため、いずれかの領域を構成する層状領域202の数が増加又は減少した場合、他のいずれかの領域を構成する層状領域202の数が減少又は増加することになる。このように構成すれば、例えば、着色領域154により表現する質感が変化した場合にも、着色領域154の厚みを一定に保つことができる。 Here, if the number of layered regions 202 that constitute the colored region 154 is too large, the amount of light absorbed in each layered region 202 will increase, which may cause the color of the colored region 154 to become dark. . Therefore, the total number of layered regions 202 in the colored region 154 is preferably about 10 layers or less. Further, in this example, the total number of layered regions 202 constituting the colored region 154 is fixed at 10 layers. Therefore, when the number of layered regions 202 forming any region increases or decreases, the number of layered regions 202 forming any other region decreases or increases. With this configuration, for example, even when the texture expressed by the colored area 154 changes, the thickness of the colored area 154 can be kept constant.

また、真皮領域302を構成するそれぞれの層状領域202の色や、表皮領域304を構成するそれぞれの層状領域202の色については、予め用意された色群から選択することが考えられる。この場合、色群とは、例えば、複数の色を含む群のことである。また、本例において用いる色群については、例えば、造形装置12(図1参照)において表現可能な全ての色の一部の色のみを含む群等と考えることもできる。この場合、各領域に対応する色群として、互いに異なる組み合わせで色を含む色群を用いることが考えられる。より具体的に、例えば、真皮領域302を構成する層状領域202において用いる色を含む色群については、赤色系の複数の色を含む色群を用いることが考えられる。表皮領域304を構成する層状領域202において用いる色を含む色群としては、肌色系の複数の色を含む色群を用いることが考えられる。 Further, the color of each layered region 202 making up the dermis region 302 and the color of each layered region 202 making up the epidermis region 304 may be selected from a group of colors prepared in advance. In this case, the color group is, for example, a group that includes a plurality of colors. Further, the color group used in this example can be considered as a group that includes only some of all the colors that can be expressed by the modeling device 12 (see FIG. 1), for example. In this case, it is conceivable to use a color group that includes colors in different combinations as the color group corresponding to each area. More specifically, for example, for the color group including the colors used in the layered region 202 constituting the dermal region 302, it is possible to use a color group including a plurality of red colors. As the color group including the colors used in the layered region 202 constituting the epidermis region 304, it is possible to use a color group including a plurality of skin tone colors.

このように、本例においては、様々な色で着色された層状領域202を重ねた構成の着色領域154を形成することで、様々な質感を表現することができる。しかし、この場合、複数の層状領域202が重なる領域構成について取り得る構成が多様になることで、どのような領域構成によりどのような質感が得られるかについて、予測が難しくなることが考えられる。また、その結果、例えば、求められる質感に対応する領域構成を探すことが難しくなること等が考えられる。 In this way, in this example, various textures can be expressed by forming the colored region 154 in which layered regions 202 colored in various colors are overlapped. However, in this case, the possible configurations of the area configuration in which the plurality of layered areas 202 overlap becomes diverse, and it may become difficult to predict what kind of texture will be obtained by the area configuration. Further, as a result, for example, it may become difficult to search for a region configuration that corresponds to the desired texture.

これに対し、本例においては、領域構成における層状領域202の重なり方に対応する重なり方でインクの層が重なる積層構成と質感との関係についての機械学習を予め行わせることで作成した学習済モデルを用いて、所望の質感に対応する積層構成の予測を行う。また、積層構成の予測結果に基づき、積層構成に対応する領域構成の予測を行う。また、この場合において、学習済モデルを生成するためのデータとして、コンピュータシミュレーションを行うことで取得したデータ(以下、シミュレーション取得データという)を用いる。そこで、以下、学習済モデルを用いて領域構成を予測する動作や、シミュレーション取得データを用いて学習済モデルを生成する動作等について、説明をする。 On the other hand, in this example, a learned template created by performing machine learning in advance on the relationship between the texture and the layered structure in which ink layers overlap in an overlapping manner corresponding to the overlapping manner of the layered regions 202 in the region configuration. The model is used to predict the laminated structure that corresponds to the desired texture. Furthermore, based on the prediction result of the stacked structure, a region configuration corresponding to the stacked structure is predicted. Furthermore, in this case, data obtained by performing a computer simulation (hereinafter referred to as simulation obtained data) is used as data for generating the learned model. Therefore, the operation of predicting a region configuration using a trained model, the operation of generating a trained model using simulation acquired data, etc. will be explained below.

図4は、学習済モデルを用いて領域構成を予測する動作について説明をする図である。本例においては、例えば、造形システム10における制御PC14において、領域構成の予測を行う。そして、この場合、例えば図4(a)に示す構成の制御PC14を用いることが考えられる。図4(a)は、制御PC14の構成の一例を示す。本例において、制御PC14は、表示部402、受付部404、通信I/F部406、及び制御部408を有する。また、上記においても説明をしたように、制御PC14としては、例えば、所定のプログラムに応じて動作するコンピュータを用いることが考えられる。この場合、コンピュータの各部について、制御PC14の各部として動作すると考えることができる。 FIG. 4 is a diagram illustrating an operation of predicting a region configuration using a learned model. In this example, the region configuration is predicted, for example, in the control PC 14 in the modeling system 10. In this case, it is conceivable to use the control PC 14 having the configuration shown in FIG. 4(a), for example. FIG. 4(a) shows an example of the configuration of the control PC 14. In this example, the control PC 14 includes a display section 402, a reception section 404, a communication I/F section 406, and a control section 408. Further, as explained above, the control PC 14 may be, for example, a computer that operates according to a predetermined program. In this case, each part of the computer can be considered to operate as each part of the control PC 14.

表示部402は、文字や画像等を表示する表示装置である。表示部402としては、例えば、コンピュータのモニタ等を好適に用いることができる。また、本例において、表示部402は、例えば、造形装置12(図1参照)において造形しようとする造形物を示すCG画像等を表示する。受付部404は、ユーザの指示を受け付ける入力装置である。受付部404としては、例えば、コンピュータの入力装置(例えば、マウス、キーボード等)を好適に用いることができる。また、本例において、受付部404は、例えば、表示部402に表示しているCG画像に対し、質感を設定する指示をユーザから受け付ける。また、この場合、本例において、質感としては、透明感に対応する質感の設定を受け付ける。 The display unit 402 is a display device that displays characters, images, and the like. As the display unit 402, for example, a computer monitor or the like can be suitably used. Further, in this example, the display unit 402 displays, for example, a CG image or the like showing a modeled object to be modeled in the modeler 12 (see FIG. 1). The reception unit 404 is an input device that receives instructions from a user. As the reception unit 404, for example, a computer input device (eg, a mouse, a keyboard, etc.) can be suitably used. Further, in this example, the reception unit 404 receives, for example, an instruction from the user to set texture for the CG image displayed on the display unit 402. Further, in this case, in this example, the setting of a texture corresponding to transparency is accepted as the texture.

通信I/F部406は、制御PC14の外部の装置との通信を行うためのインターフェース部である。通信I/F部406としては、例えば、コンピュータにおける通信インターフェース部等を好適に用いることができる。また、本例において、制御PC14は、通信I/F部406を介して、造形装置12や、他のコンピュータとの通信を行う。この場合、造形装置12との通信では、例えば、造形データの供給等を行うことが考えられる。また、他のコンピュータとの通信としては、例えば、学習済モデルを格納しているコンピュータとの間で通信を行うこと等が考えられる。この場合、制御PC14は、通信I/F部406を介して他のコンピュータと通信することにより、例えば、CG画像に設定された質感に対して学習済モデルを用いて予測を行った予測結果を他のコンピュータから取得する。このように構成すれば、制御PC14において、例えば、学習済モデルを用いた予測の動作を適切に行うことができる。また、この場合、学習済モデルを用いた予測の動作については、例えば、機械学習の結果を利用した予測の動作等と考えることもできる。また、制御PC14は、例えば、他のコンピュータと通信を行うことなく、図示を省略した制御PC14の記憶部等に記憶した学習済モデルを用いて、学習済モデルを用いた予測を行ってもよい。 The communication I/F section 406 is an interface section for communicating with a device external to the control PC 14. As the communication I/F unit 406, for example, a communication interface unit in a computer or the like can be suitably used. Furthermore, in this example, the control PC 14 communicates with the modeling apparatus 12 and other computers via the communication I/F unit 406. In this case, communication with the modeling device 12 may include, for example, supplying modeling data. Further, as communication with other computers, for example, communication with a computer storing a trained model can be considered. In this case, the control PC 14 communicates with other computers via the communication I/F unit 406 to receive, for example, prediction results obtained by predicting the texture set in the CG image using the learned model. Get it from another computer. With this configuration, the control PC 14 can appropriately perform a prediction operation using a learned model, for example. Further, in this case, the prediction operation using the learned model can be considered as, for example, the prediction operation using the results of machine learning. Further, the control PC 14 may perform prediction using a learned model, for example, without communicating with other computers, using a learned model stored in a storage unit of the control PC 14 (not shown). .

制御部408は、制御PC14における各部の動作を制御する構成である。制御部408としては、例えば、コンピュータのCPU等を好適に用いることができる。また、本例において、制御PC14は、ユーザによりCG画像に対して設定される質感に基づき、造形データを生成する。この場合、制御部408は、例えば、学習済モデルを用いて行う予測の結果に基づき、ユーザにより指定される質感(所望の質感)に対応する造形物50の領域構成の予測を行う。そして、予測した領域構成に基づき、造形データを生成する。また、制御部408は、生成した造形データについて、通信I/F部406を介して、造形装置12へ供給(出力)する。このように構成すれば、例えば、所望の質感を再現する造形物の造形を造形装置12に適切に行わせることができる。 The control unit 408 is configured to control the operation of each unit in the control PC 14. As the control unit 408, for example, a CPU of a computer or the like can be suitably used. Furthermore, in this example, the control PC 14 generates modeling data based on the texture set for the CG image by the user. In this case, the control unit 408 predicts the area configuration of the object 50 corresponding to the texture (desired texture) specified by the user, for example, based on the result of prediction performed using the learned model. Then, modeling data is generated based on the predicted region configuration. Further, the control unit 408 supplies (outputs) the generated modeling data to the modeling apparatus 12 via the communication I/F unit 406. With this configuration, for example, it is possible to cause the modeling device 12 to appropriately shape a shaped object that reproduces a desired texture.

また、制御PC14においては、例えば図4(b)に示す動作を行うことで、質感の設定をユーザから受け付けて、造形データを生成する。図4(b)は、制御PC14において造形データを生成する動作の一例を示すフローチャートである。本例において造形データを生成する動作において、制御PC14は、先ず、造形物を示すCG画像を表示部402に表示して、受付部404を介して、質感を指定する指示をユーザから受け付ける(S102)。また、これにより、制御PC14は、CG画像に対し、質感の設定を行う。CG画像に質感を設定するとは、例えば、CG画像が示すオブジェクトの少なくとも一部に対して質感を設定することであってよい。また、本例において、CG画像に対して設定する質感としては、上記においても説明をしたように、透明感に対応する質感を用いる。また、この場合、制御PC14は、例えば、造形物の形状を示す立体データに基づき、造形物を示すCG画像を作成して、表示部402に表示する。この場合、立体データとしては、例えば、造形しようとする造形物の形状等を汎用の形式で示すデータ等を好適に用いることができる。制御PC14の動作の変形例においては、例えば、制御PC14において質感の設定をユーザから受け付けるのではなく、予め質感が設定されたCG画像を制御PC14の外部から受け取ってもよい。 Further, the control PC 14 receives texture settings from the user and generates modeling data by performing the operation shown in FIG. 4(b), for example. FIG. 4(b) is a flowchart showing an example of an operation for generating modeling data in the control PC 14. In the operation of generating modeling data in this example, the control PC 14 first displays a CG image showing the object on the display unit 402, and receives an instruction from the user to specify the texture via the reception unit 404 (S102 ). Furthermore, the control PC 14 sets texture for the CG image. Setting a texture to a CG image may mean, for example, setting a texture to at least a part of an object shown by the CG image. Furthermore, in this example, as the texture set for the CG image, as explained above, a texture corresponding to transparency is used. Further, in this case, the control PC 14 creates a CG image showing the object based on, for example, three-dimensional data showing the shape of the object, and displays it on the display unit 402. In this case, as the three-dimensional data, for example, data indicating the shape of the object to be modeled in a general-purpose format, etc. can be suitably used. In a modification of the operation of the control PC 14, for example, instead of receiving texture settings from the user in the control PC 14, a CG image with a texture set in advance may be received from outside the control PC 14.

また、ステップS102の動作に続いて、制御PC14は、質感が設定されたCG画像に基づき、CG画像に設定されている質感に対応するパラメータである設定パラメータの算出を行う(S104)。この場合、ステップS104の動作は、パラメータ算出段階の動作の一例である。また、ステップS104において、制御PC14は、例えば、CG画像に対して光を照射するシミュレーション(コンピュータシミュレーション)を行うことで、設定パラメータを算出する。また、より具体的に、本例において、質感に対応する設定パラメータとしては、光の広がり方を示す関数を用いる。パラメータとして所定の関数を用いることについては、例えば、所定の関数によって算出される値をパラメータとして用いること等と考えることができる。また、本例において、このような関数としては、線広がり関数(LSF)を用いる。 Further, following the operation in step S102, the control PC 14 calculates setting parameters, which are parameters corresponding to the texture set in the CG image, based on the CG image in which the texture has been set (S104). In this case, the operation in step S104 is an example of the operation in the parameter calculation stage. Further, in step S104, the control PC 14 calculates setting parameters by, for example, performing a simulation (computer simulation) of irradiating light onto a CG image. More specifically, in this example, a function indicating how light spreads is used as a setting parameter corresponding to texture. Using a predetermined function as a parameter can be considered, for example, to use a value calculated by a predetermined function as a parameter. Furthermore, in this example, a line spread function (LSF) is used as such a function.

また、この場合、設定パラメータを算出する動作については、例えば、ユーザにより指定される質感をCG画像に対して行った上で、質感に対応するLSFについて、シミュレーションによって取得する。また、より具体的に、この場合、例えば、質感が設定されているCG画像に対して光(例えば、レーザ光)を照射するシミュレーションを行うことで、質感に対応するLSFを取得する。また、このシミュレーションとしては、例えば、実際に作成した試料(パッチ)や造形物に対してLSFの計測を行う場合等と同様にして、線状の光を照射するシミュレーションを行うことが考えられる。また、実用上は、例えば、CG画像が示す物体の表面にスポットライトで点状の光を照射するシミュレーションを行うことでも、画素値の推移からLSFを適切に取得することができる。この場合、点状の光を照射するシミュレーションを行うことで点広がり関数(PSF)を算出し、点広がり関数に基づいてLSFを算出すること等が考えられる。 Further, in this case, for the operation of calculating the setting parameters, for example, the texture specified by the user is applied to the CG image, and then the LSF corresponding to the texture is obtained by simulation. More specifically, in this case, for example, a simulation is performed in which light (eg, laser light) is irradiated onto a CG image to which a texture has been set, thereby obtaining an LSF corresponding to the texture. Further, as this simulation, for example, it is possible to perform a simulation in which linear light is irradiated in the same manner as in the case where LSF measurement is performed on an actually created sample (patch) or shaped object. Furthermore, in practice, for example, the LSF can be appropriately acquired from the transition of pixel values by performing a simulation in which the surface of the object shown in the CG image is irradiated with dotted light from a spotlight. In this case, it is conceivable to calculate a point spread function (PSF) by performing a simulation of irradiating point-like light, and calculate the LSF based on the point spread function.

また、設定パラメータを算出した後、制御PC14は、予め作成された学習済モデルを用いて、設定パラメータに対応する積層構成(レイアウト)の取得を行う(S106)。この場合、積層構成については、例えば、着色された層状の領域が複数重なる構成等と考えることができる。また、この積層構成については、例えば、造形物50の着色領域154を構成する複数の層状領域202(図2参照)の重なり方を示すために学習済モデルの作成時に用いる構成等と考えることもできる。また、この積層構成については、例えば、造形時に積層するそれぞれの造形単位層502が着色領域154における1つの層状領域202に一致する場合における造形単位層502(図2参照)の重なり方に対応する構成等と考えることもできる。また、より具体的に、本例において、積層構成については、造形物50における着色領域154(図2参照)の領域構成に対応する重なり方でインクの層が重なる構成等と考えることができる。 Further, after calculating the setting parameters, the control PC 14 acquires a stacked configuration (layout) corresponding to the setting parameters using a learned model created in advance (S106). In this case, the laminated structure can be considered to be, for example, a structure in which a plurality of colored layered regions overlap. Further, this layered structure may be considered as a structure used when creating a trained model to show how the plurality of layered regions 202 (see FIG. 2) that constitute the colored region 154 of the modeled object 50 overlap, for example. can. Furthermore, this laminated structure corresponds to, for example, how the modeling unit layers 502 (see FIG. 2) overlap when each of the modeling unit layers 502 stacked during modeling corresponds to one layered area 202 in the colored area 154. It can also be thought of as a composition, etc. More specifically, in this example, the laminated structure can be considered as a structure in which ink layers overlap in an overlapping manner corresponding to the area structure of the colored region 154 (see FIG. 2) in the shaped object 50.

また、ステップS106の動作については、例えば、ステップS104において算出した設定パラメータを学習済モデルに対する入力として用いて、積層構成を示す出力を取得する動作等と考えることもできる。この場合、入力として設定パラメータを用いることについては、例えば、学習済モデルへ入力可能な形式で表現した設定パラメータを与えること等と考えることができる。このように構成すれば、例えば、CG画像に設定されている質感に対応する積層構成について、学習済モデルを利用して適切に取得することができる。また、これにより、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。 Further, the operation in step S106 can also be considered as, for example, an operation in which the setting parameters calculated in step S104 are used as input to the learned model to obtain an output indicating the stacked structure. In this case, using the setting parameters as input can be thought of as, for example, providing setting parameters expressed in a format that can be input to the trained model. With this configuration, for example, a laminated structure corresponding to the texture set in the CG image can be appropriately acquired using the learned model. Moreover, thereby, for example, it is possible to appropriately predict a laminated structure corresponding to a desired texture.

また、本例において、制御PC14は、積層構成の予測結果に基づき、造形物50の着色領域154において複数の層状領域202が重なる領域構成の予測を行う。この場合、領域構成を予測することについては、例えば、ユーザの指定された質感を表現するための着色領域154の構成を予測すること等と考えることができる。また、上記においても説明をしたように、本例において、学習済モデルを用いて予測する積層構成については、造形物50における着色領域154の領域構成に対応する重なり方でインクの層が重なる構成等と考えることができる。そして、この場合、制御PC14は、領域構成として、積層構成におけるインクの層の重なり方に対応する重なり方で複数の層状領域202が重なる構成を予測する。このように構成すれば、例えば、領域構成の予測を適切に行うことができる。また、この場合、制御PC14について、例えば、領域構成予測装置として機能していると考えることができる。また、本例において、ステップS106の動作は、積層構成取得段階の動作の一例である。また、ステップS104~S106において行う一連の動作は、領域構成予測段階の動作の一例である。この場合、領域構成予測段階とは、例えば、所望の質感に対応する領域構成を予測する段階のことである。また、領域構成予測段階については、例えば、学習済モデルを用いて質感に対応する積層構成を予測し、当該積層構成に基づき、所望の質感に対応する領域構成を予測する段階等と考えることもできる。また、本例においては、S102~S106において行う一連の動作について、領域構成予測段階の動作の一例と考えることもできる。 Furthermore, in this example, the control PC 14 predicts the area configuration in which the plurality of layered areas 202 overlap in the colored area 154 of the shaped object 50 based on the prediction result of the layered configuration. In this case, predicting the area configuration can be thought of as, for example, predicting the configuration of the colored area 154 for expressing the texture specified by the user. Furthermore, as explained above, in this example, the layered structure predicted using the learned model is a structure in which ink layers overlap in an overlapping manner corresponding to the region structure of the colored region 154 in the shaped object 50. etc. can be considered. In this case, the control PC 14 predicts, as the area configuration, a configuration in which the plurality of layered areas 202 overlap in an overlapping manner corresponding to the overlapping manner of the ink layers in the laminated configuration. With this configuration, for example, it is possible to appropriately predict the area configuration. Further, in this case, the control PC 14 can be considered to function as, for example, a region configuration prediction device. Furthermore, in this example, the operation in step S106 is an example of the operation in the layered structure acquisition stage. Furthermore, the series of operations performed in steps S104 to S106 are an example of operations in the region configuration prediction stage. In this case, the region configuration prediction step is, for example, a step of predicting a region configuration corresponding to a desired texture. Furthermore, the region configuration prediction step may be considered as a step in which, for example, a learned model is used to predict a layered structure corresponding to a texture, and based on the layered structure, a region structure corresponding to a desired texture is predicted. can. Further, in this example, the series of operations performed in S102 to S106 can be considered as an example of operations in the region configuration prediction stage.

また、ユーザにより指定される質感に対応する領域構成の予測を行った後、制御PC14は、予測結果に基づき、造形しようとする造形物を示す造形データを生成する(S108)。本例において、ステップS108の動作は、造形データ生成段階の動作の一例である。また、ステップS108において、制御PC14は、造形データとして、例えば、ステップS106で取得した領域構成で着色領域154が形成されるように造形装置12にインクの層を積層させるデータを生成する。本例によれば、例えば、所望の質感に対応する領域構成の予測を適切に行うことができる。また、領域構成の予測結果に基づいて造形データを生成することで、例えば、所望の質感が得られる造形物の造形を造形装置12に適切に行わせることができる。 After predicting the area configuration corresponding to the texture specified by the user, the control PC 14 generates modeling data indicating the object to be modeled based on the prediction result (S108). In this example, the operation in step S108 is an example of the operation in the modeling data generation stage. In addition, in step S108, the control PC 14 generates, as modeling data, for example, data that causes the modeling device 12 to stack ink layers so that the colored region 154 is formed in the region configuration acquired in step S106. According to this example, for example, it is possible to appropriately predict a region configuration corresponding to a desired texture. Furthermore, by generating modeling data based on the prediction result of the region configuration, it is possible to cause the modeling device 12 to appropriately model a molded object that provides a desired texture, for example.

続いて、学習済モデルを生成する動作等について、説明をする。図5は、学習済モデルを生成する動作について説明をする図である。図5(a)は、学習済モデルを生成する動作の一例を示すフローチャートである。上記においても説明をしたように、本例においては、学習済モデルを生成するためのデータとして、シミュレーション(コンピュータシミュレーション)を行うことで取得したシミュレーション取得データを用いる。また、この場合、シミュレーションにおいては、造形装置12(図1参照)において造形に使用するインクの特性を示すパラメータを用いる。そして、本例においては、このインクの特性について、各色のインクに対応する試料であるインクサンプル(3Dプリンタインクサンプル)を作成し、インクサンプルに対して所定の計測を行うことで取得する。 Next, the operation of generating a trained model, etc. will be explained. FIG. 5 is a diagram illustrating the operation of generating a learned model. FIG. 5(a) is a flowchart illustrating an example of an operation for generating a trained model. As explained above, in this example, simulation acquisition data obtained by performing a simulation (computer simulation) is used as data for generating a learned model. Furthermore, in this case, parameters indicating the characteristics of the ink used for modeling in the modeling apparatus 12 (see FIG. 1) are used in the simulation. In this example, the characteristics of this ink are obtained by creating ink samples (3D printer ink samples) corresponding to each color of ink, and performing predetermined measurements on the ink samples.

また、この場合、本例においては、先ず、造形装置12において用いる少なくとも一部の色のインクについてインクサンプルを作成し、インクサンプルに対する所定の計測を行うことで、インクの特性を取得する(S202)。より具体的に、本例において、ステップS202では、この計測の結果に基づき、インクの特性として、各色のインクの吸収係数及び散乱係数を決定する。また、この場合、インクの吸収係数及び散乱係数については、計測によって直接取得するのではなく、吸収係数及び散乱係数を反映した所定の状態を計測して、所定の算出処理を行うことで、取得する。 In this case, in this example, first, an ink sample is created for at least some of the colors of ink used in the modeling device 12, and the characteristics of the ink are acquired by performing a predetermined measurement on the ink sample (S202 ). More specifically, in this example, in step S202, the absorption coefficient and scattering coefficient of each color ink are determined as ink characteristics based on the measurement results. In this case, the absorption coefficient and scattering coefficient of the ink are not directly obtained by measurement, but are obtained by measuring a predetermined state that reflects the absorption coefficient and scattering coefficient and performing a predetermined calculation process. do.

そして、ステップS202に続いて、ステップS202において取得したインクの特性を利用して、シミュレーションを実行する(S204)。また、本例において、このシミュレーションでは、互いに異なる構成で着色された層状の領域が複数重なる複数種類の積層構成に対し、それぞれの積層構成により表現される質感の予測を行う。また、これにより、ステップS204では、積層構成と所定の質感との関係をシミュレーションにより予測する。 Then, following step S202, a simulation is performed using the ink characteristics acquired in step S202 (S204). Furthermore, in this example, the simulation predicts the texture expressed by each layered structure for a plurality of types of layered structures in which a plurality of layered areas colored with different compositions overlap. Furthermore, in step S204, the relationship between the laminated structure and the predetermined texture is predicted by simulation.

また、本例において、ステップS204の動作は、質感予測段階の動作の一例である。ステップS204において、質感としては、例えば、透明感に対応する質感を用いることが考えられる。この場合、透明感については、例えば、複数の層状の領域が重なることで表現される透明感等と考えることができる。また、本例において、積層構成により表現される質感を示すパラメータとしては、光の広がり方を示す関数を用いる。より具体的に、このような関数としては、線広がり関数(LSF)を用いる。また、本例においては、ステップS204において行うシミュレーションで予測した質感に基づいて積層構成と質感との関係を示すデータについて、シミュレーション取得データと考えることができる。また、本例において、シミュレーションについては、例えば、指定した入力に対応する状態の予測をコンピュータでの演算により行うこと等と考えることができる。また、この場合、コンピュータでの演算について、例えば、入力に対応する出力を予め指定し規則に従って計算する動作等と考えることができる。また、この規則については、例えば、数式により記述される規則等と考えることができる。 Further, in this example, the operation in step S204 is an example of the operation in the texture prediction stage. In step S204, for example, a texture corresponding to transparency may be used as the texture. In this case, the transparency can be considered to be, for example, a transparency expressed by overlapping a plurality of layered regions. Furthermore, in this example, a function indicating how light spreads is used as a parameter indicating the texture expressed by the laminated structure. More specifically, a line spread function (LSF) is used as such a function. Further, in this example, data indicating the relationship between the laminated structure and texture based on the texture predicted by the simulation performed in step S204 can be considered as simulation acquired data. Furthermore, in this example, simulation can be thought of as, for example, predicting a state corresponding to a specified input by calculation on a computer. Furthermore, in this case, calculations performed by the computer can be thought of as, for example, an operation in which an output corresponding to an input is specified in advance and calculated according to a rule. Further, this rule can be considered as a rule written by a mathematical formula, for example.

また、ステップS204でシミュレーションを行った後には、その結果を利用してコンピュータに機械学習を行わせることで、学習済モデルを生成する(S206)。また、より具体的に、本例において、ステップS206では、複数種類の積層構成に対してステップS204において予測した質感に基づき、学習済モデルを機械学習により生成する。この場合、学習済モデルについて、例えば、積層構成と質感との関係とを学習させた学習モデル等と考えることができる。また、本例において、ステップS206の動作は、学習段階の動作の一例である。ステップS206において、機械学習としては、例えば、深層学習(ディープラーニング)等を好適に用いることができる。この場合、ステップS206について、例えば、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階等と考えることができる。本例によれば、例えば、領域構成の予測に用いる学習済モデルを適切に作成することができる。 Further, after performing the simulation in step S204, a learned model is generated by causing the computer to perform machine learning using the simulation result (S206). More specifically, in this example, in step S206, a learned model is generated by machine learning based on the texture predicted in step S204 for a plurality of types of laminated configurations. In this case, the learned model can be considered to be, for example, a learning model that has learned the relationship between the layered structure and the texture. Further, in this example, the operation in step S206 is an example of an operation in the learning stage. In step S206, for example, deep learning can be suitably used as the machine learning. In this case, step S206 can be considered, for example, as a step in which the learning target neural network, which is the learning target neural network, performs learning. According to this example, for example, a learned model used for predicting the region configuration can be appropriately created.

続いて、図5(a)のフローチャートにおける各ステップの動作について、更に詳しく説明をする。図5(b)は、ステップS102の動作をより詳細に示すフローチャートである。上記においても説明をしたように、インクの特性の計測時には、造形装置12において用いる少なくとも一部の色のインクについてインクサンプルを作成する(S212)。また、本例においては、YMCKの各色のインク、及びクリアインクについて、インクサンプルを作成する。この場合、各色用のインクサンプルについて、例えば、計測対象の試料の一例と考えることができる。また、YMCKの各色のインクに対応するサンプルについては、例えば、着色用の材料に対応する試料の一例と考えることができる。また、本例において、ステップS212の動作は、各色試料作成段階の動作の一例である。各色試料作成段階については、例えば、それぞれの色の着色用の材料に対応する試料を作成する段階等と考えることができる。 Next, the operation of each step in the flowchart of FIG. 5(a) will be explained in more detail. FIG. 5(b) is a flowchart showing the operation of step S102 in more detail. As explained above, when measuring ink characteristics, ink samples are created for at least some of the colors of ink used in the modeling apparatus 12 (S212). Furthermore, in this example, ink samples are created for each YMCK color ink and clear ink. In this case, the ink samples for each color can be considered, for example, as an example of a sample to be measured. Further, samples corresponding to inks of each color of YMCK can be considered as examples of samples corresponding to coloring materials, for example. Furthermore, in this example, the operation in step S212 is an example of the operation in the step of preparing each color sample. The step of creating samples for each color can be considered, for example, as the step of creating a sample corresponding to the coloring material of each color.

また、インクサンプルを作成した後には、所定の計測を行うことで各色のインクの特性を取得し(S214)、その結果に基づき、各色のインクの吸収係数及び散乱係数を決定する(S216)。インクサンプルに対して行う計測や、吸収係数及び散乱係数の決定の仕方等については、後に更に詳しく説明をする。また、本例において、ステップS214及びS216において行う動作は、係数決定段階の動作の一例である。係数決定段階については、例えば、各色試料作成段階で作成した試料の光学的な特性を計測することで複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する段階等と考えることができる。本例によれば、例えば、少数のインクサンプルに対する計測を行うことで、それぞれの色のインクに対応する吸収係数及び散乱係数を適切に決定することができる。 Furthermore, after creating the ink sample, the characteristics of each color ink are acquired by performing predetermined measurements (S214), and based on the results, the absorption coefficient and scattering coefficient of each color ink are determined (S216). The measurements performed on the ink sample and how the absorption coefficient and scattering coefficient are determined will be explained in more detail later. Furthermore, in this example, the operations performed in steps S214 and S216 are examples of operations in the coefficient determination stage. The coefficient determination stage can be thought of as a stage in which, for example, the absorption coefficient and scattering coefficient corresponding to each of the coloring materials of multiple colors are determined by measuring the optical characteristics of the sample created in the each color sample creation stage. be able to. According to this example, for example, by performing measurements on a small number of ink samples, it is possible to appropriately determine the absorption coefficient and scattering coefficient corresponding to each color of ink.

図6は、インクサンプルに対して行う計測等について更に詳しく説明をする図である。図6(a)は、インクサンプルの一例を示す写真であり、本願の発明者が実際に作成したインクサンプルの例を示す。図6(b)は、インクサンプルに対する計測時に撮影する写真の例を示す。図6(c)は、本例において用いるダイポールモデルを表す数式を示す。 FIG. 6 is a diagram illustrating in more detail the measurement and the like performed on the ink sample. FIG. 6(a) is a photograph showing an example of an ink sample, and shows an example of an ink sample actually created by the inventor of the present application. FIG. 6(b) shows an example of a photograph taken when measuring an ink sample. FIG. 6(c) shows a mathematical formula representing the dipole model used in this example.

上記においても説明をしたように、本例においては、YMCKの各色のインク、及びクリアインクについて、インクサンプルを作成する。この場合、造形装置12(図1参照)において、それぞれの色のインクの層を複数重ねて形成することで、その色のインクサンプルを作成する。各色のインクサンプルについては、例えば、1つの色のインクの層を重ねた試料等と考えることもできる。また、インクサンプルとしては、上記以外の色用のサンプルを更に作成してもよい。この場合、例えば、白色用のインクサンプルを更に作成すること等が考えられる。 As explained above, in this example, ink samples are created for each YMCK color ink and clear ink. In this case, an ink sample of each color is created by forming a plurality of layers of ink of each color in the modeling apparatus 12 (see FIG. 1). The ink samples of each color can also be considered, for example, as samples in which layers of ink of one color are stacked. Furthermore, as ink samples, samples for colors other than those mentioned above may be created. In this case, for example, it may be possible to create an additional ink sample for white.

また、本例において、インクサンプルに対する計測としては、それぞれのインクサンプルの上面に対して点光源による光の照射を行って、インクサンプルの写真を撮影することで、光の散乱現状の計測を行う。また、より具体的に、この場合、点光源としては、レッド色(R色)、グリーン色(G色)、及びブルー色(B色)のレーザ光を用いる。そして、例えば、図6(b)に示すように、露光時間を1/1000秒、1/250秒、1/60秒、1/15秒、1/4秒、1秒、及び4秒のそれぞれに設定して、インクサンプルの写真の撮影を行う。レーザ光の光源としては、公知のスマートビームレーザプロジェクタ等を好適に用いることができる。また、撮影については、暗室にて、公知のデジタルカメラで行うことが考えられる。また、この場合、カメラのレンズの前に偏光板を装着して、表面反射成分の影響を低減することが好ましい。また、レーザ光の照射時には、画像中央部にのみ高い画素値を持つ画像をプロジェクタで投影し、かつ、例えばスリットで投影光を絞ることで、擬似的に点光源を再現することが考えられる。この場合、投影する画像の解像度については、プロジェクタの解像度に合わせることが考えられる。 In addition, in this example, to measure the ink samples, the top surface of each ink sample is irradiated with light from a point light source, and a photograph of the ink sample is taken to measure the current state of light scattering. . More specifically, in this case, red (R color), green (G color), and blue (B color) laser beams are used as point light sources. For example, as shown in FIG. 6(b), the exposure times are 1/1000 seconds, 1/250 seconds, 1/60 seconds, 1/15 seconds, 1/4 seconds, 1 second, and 4 seconds, respectively. , and take a photo of the ink sample. As a light source of laser light, a known smart beam laser projector or the like can be suitably used. Furthermore, it is conceivable that the photographing be performed in a darkroom using a known digital camera. Further, in this case, it is preferable to attach a polarizing plate in front of the camera lens to reduce the influence of surface reflection components. Furthermore, when irradiating laser light, it is conceivable to project an image having a high pixel value only in the center of the image using a projector, and to narrow down the projected light using, for example, a slit, thereby reproducing a pseudo point light source. In this case, the resolution of the image to be projected may be matched to the resolution of the projector.

また、本例においては、このようにしてインクサンプルの写真を撮影する動作について、インクサンプルに対する計測を行う動作と考えることができる。そして、このようにしてインクサンプルに対する計測を行った後には、撮影された写真に基づき、各色のインクの吸収係数及び散乱係数を決定する。また、本例においては、撮影された写真が示すデータをダイポールモデルに当てはめることで、吸収係数及び散乱係数を決定する。より具体的に、例えば、図6(c)に示す数式で表現されるダイポールモデルにおいて、散乱項は、吸収係数及び散乱係数をパラメータとして持つ項と考えることができる。そして、この場合、散乱現象を計測した結果をダイポールモデルで近似することで、吸収係数及び散乱係数を推定することができる。この場合、吸収係数及び散乱係数を決定する動作について、例えば、ダイポールモデルを利用して吸収係数及び散乱係数を推定する動作等と考えることができる。また、この場合、例えば、非等方性パラメータや相対屈折率等の値を所定の値に固定して、ダイポールモデルへのフィッティングを行うことで、吸収係数及び散乱係数を決定することが考えられる。 Further, in this example, the operation of taking a photograph of the ink sample in this manner can be considered as an operation of measuring the ink sample. After measuring the ink sample in this manner, the absorption coefficient and scattering coefficient of each color of ink are determined based on the photographed photograph. Furthermore, in this example, the absorption coefficient and scattering coefficient are determined by applying the data shown by the photographed photograph to a dipole model. More specifically, for example, in the dipole model expressed by the formula shown in FIG. 6(c), the scattering term can be considered as a term having an absorption coefficient and a scattering coefficient as parameters. In this case, the absorption coefficient and scattering coefficient can be estimated by approximating the results of measuring the scattering phenomenon using a dipole model. In this case, the operation of determining the absorption coefficient and scattering coefficient can be considered as, for example, the operation of estimating the absorption coefficient and scattering coefficient using a dipole model. In addition, in this case, for example, it is possible to determine the absorption coefficient and scattering coefficient by fixing the values of the anisotropic parameter, relative refractive index, etc. to predetermined values and fitting to the dipole model. .

また、ダイポールモデルへのフィッティング時には、必要に応じて、適宜補正を行ってもよい。このような補正としては、例えば、それぞれのインクサンプルの反射率を考慮した補正を行うことが考えられる。また、この場合、インクサンプルの反射率については、別途計測を行って取得することが考えられる。また、本例において、ダイポールモデルは、吸収係数及び散乱係数を用いてインクサンプルの特性を示すモデルの一例である。吸収係数及び散乱係数の決定の仕方の変形例においては、ダイポールモデル以外のモデルを用いてもよい。また、この場合、インクサンプルに対する計測について、使用するモデルに合わせた計測を行うことが考えられる。本例によれば、例えば、造形装置12において用いる各色のインクに対応する吸収係数及び散乱係数を適切に決定することができる。また、これにより、例えば、その後に行うシミュレーションにおいて、使用するインクの特性を反映したシミュレーションを適切に行うことができる。 Furthermore, when fitting to the dipole model, appropriate corrections may be made as necessary. As such a correction, for example, correction may be performed in consideration of the reflectance of each ink sample. Further, in this case, it is conceivable to separately measure and obtain the reflectance of the ink sample. Further, in this example, the dipole model is an example of a model that indicates the characteristics of an ink sample using an absorption coefficient and a scattering coefficient. In a modified example of how the absorption coefficient and scattering coefficient are determined, models other than the dipole model may be used. Furthermore, in this case, it is conceivable to perform measurements on the ink sample in accordance with the model used. According to this example, for example, the absorption coefficient and scattering coefficient corresponding to each color of ink used in the modeling device 12 can be appropriately determined. Furthermore, this allows, for example, a subsequent simulation to appropriately perform a simulation that reflects the characteristics of the ink to be used.

図7は、本例において行うシミュレーションについて更に詳しく説明をする図である。上記においても説明をしたように、本例においては、予め取得したインクの特性を利用して、シミュレーションを実行することで、質感の予測を行う。また、このシミュレーションでは、互いに異なる構成の複数種類の積層構成に対し、それぞれの積層構成により表現される質感の予測を行う。また、この場合、例えば図中に示すように、様々な色のインクの層が重ねられた積層構成を考え、それぞれの積層構成により得られる質感(積層構造により表現される質感)について、各色のインクの吸収係数及び散乱係数を用いて、コンピュータシミュレーションにより算出する。 FIG. 7 is a diagram illustrating in more detail the simulation performed in this example. As explained above, in this example, texture is predicted by executing a simulation using ink characteristics acquired in advance. Furthermore, in this simulation, the texture expressed by each laminated configuration is predicted for a plurality of types of laminated configurations having mutually different configurations. In this case, for example, as shown in the figure, consider a laminated structure in which layers of ink of various colors are stacked, and consider the texture obtained by each laminated structure (texture expressed by the laminated structure) of each color. It is calculated by computer simulation using the absorption coefficient and scattering coefficient of the ink.

また、本例において、積層構成としては、下地となる白色の層を最下層として、その上に所定の数の層が重なる構成を考える。また、この場合、最下層以外の各層の色として、造形装置12において使用する複数色のインクの組み合わせで表現可能な様々な色を用いる。この場合、積層構成における層の数については、造形物50の着色領域154(図2参照)を構成する層状領域202(図2参照)の数と同じにすることが考えられる。また、積層構成における各層の色については、予め用意された色群から選択することが考えられる。このような色群としては、層状領域202の色として用いる複数種類の色を含む色群を用いることが考えられる。より具体的に、図3等を用いて上記において説明をしたように、着色領域154としては、人間の肌の多層構造を模した領域構成で層状領域202を重ねた領域を用いることが考えられる。そして、この場合、図7に示す積層構成として、真皮領域302、表皮領域304、及びクリア領域306(図3参照)の各領域の層状領域202に対応する層が重なる構成を用いる。また、真皮領域302及び表皮領域304の層状領域202に対応する層の色について、真皮領域302用の色群及び表皮領域304用の色群に含まれる色から選択することが考えられる。 Further, in this example, a laminated structure is considered in which a white layer serving as a base is the bottom layer and a predetermined number of layers are stacked on top of it. Further, in this case, various colors that can be expressed by a combination of multiple color inks used in the modeling device 12 are used as the colors of each layer other than the bottom layer. In this case, the number of layers in the laminated structure may be the same as the number of layered regions 202 (see FIG. 2) that constitute the colored region 154 (see FIG. 2) of the shaped object 50. Furthermore, the color of each layer in the laminated structure may be selected from a group of colors prepared in advance. As such a color group, it is possible to use a color group that includes multiple types of colors used as the colors of the layered region 202. More specifically, as explained above using FIG. 3 and the like, it is conceivable to use an area in which layered areas 202 are overlapped with an area configuration that mimics the multilayered structure of human skin as the colored area 154. . In this case, as the laminated structure shown in FIG. 7, a structure in which layers corresponding to the layered regions 202 of each region of the dermal region 302, the epidermal region 304, and the clear region 306 (see FIG. 3) overlap is used. Further, it is conceivable that the color of the layer corresponding to the layered region 202 of the dermal region 302 and the epidermal region 304 is selected from the colors included in the color group for the dermal region 302 and the color group for the epidermal region 304.

また、造形物50の造形時に実際に着色領域154を形成する動作においては、各色のインクを吐出する吐出位置の割合を様々に変化させることで、それぞれの層状領域202の色について、面積的に表現を行う。しかし、本例において行うシミュレーションにおいて、このようにして面積的に色を表現しようとすると、必要な処理が複雑になると考えられる。そのため、本例において行うシミュレーションでの各層の色については、単位体積に含まれる各色のインクの比率により、体積的に表現する。 Furthermore, in the operation of actually forming the colored region 154 when modeling the object 50, by varying the ratio of the ejection positions at which ink of each color is ejected, the color of each layered region 202 can be adjusted in terms of area. Express. However, in the simulation performed in this example, if the color is expressed in terms of area in this way, the necessary processing will become complicated. Therefore, the color of each layer in the simulation performed in this example is expressed volumetrically by the ratio of ink of each color included in a unit volume.

また、本例において行うシミュレーションでは、各層の色が設定された積層構成に対し、各色のインクの吸収係数及び散乱係数を用いて、光散乱モンテカルロシミュレーション法(MCML法)により、その積層構成により得られる質感の予測を行う。光散乱モンテカルロシミュレーション法については、例えば、対象物質が多層混濁媒質である場合に輸送方程式の解を得るためのモンテカルロ法等と考えることができる。また、光散乱モンテカルロシミュレーション法においては、例えば図中に示すように、積層構成におけるそれぞれの層の中で入射光に対して生じる散乱及び吸収を確率的に計算して、反射光の予測を行う。積層構成に対する光散乱モンテカルロシミュレーション法の適用については、光散乱モンテカルロシミュレーション法の公知の利用の仕方と同一又は同様に行うことができる。 In addition, in the simulation performed in this example, the light scattering Monte Carlo simulation method (MCML method) is used for the laminated structure in which the color of each layer is set, using the absorption coefficient and scattering coefficient of the ink of each color. Predicts the texture that will appear. The light scattering Monte Carlo simulation method can be considered, for example, as a Monte Carlo method for obtaining a solution to a transport equation when the target substance is a multilayer turbid medium. In addition, in the light scattering Monte Carlo simulation method, for example, as shown in the figure, the reflected light is predicted by probabilistically calculating the scattering and absorption that occur in each layer of the laminated structure for the incident light. . Application of the light scattering Monte Carlo simulation method to the laminated structure can be performed in the same manner or in a manner similar to the known usage of the light scattering Monte Carlo simulation method.

また、上記においても説明をしたように、本例においては、このシミュレーションにより予測する質感を示すパラメータとして、光の広がり方を示す関数を用いる。また、このような関数として、線広がり関数(LSF)を用いる。本例によれば、例えば、積層構成に対応する試料の作成や試料に対する計測等を行うことなく、様々な積層構成に対し、対応する質感の予測を適切に行うことができる。また、これにより、例えば、多数の積層構成について、積層構成と質感との関係を示すデータを容易かつ適切に取得することができる。 Further, as explained above, in this example, a function indicating how light spreads is used as a parameter indicating the texture predicted by this simulation. Furthermore, a line spread function (LSF) is used as such a function. According to this example, it is possible to appropriately predict textures corresponding to various laminated configurations, for example, without creating a sample corresponding to the laminated configuration or measuring the sample. Moreover, thereby, for example, data indicating the relationship between the laminated structure and the texture can be easily and appropriately acquired for a large number of laminated structures.

続いて、本例において学習済モデルを生成する動作や、学習済モデルを利用する動作等について、更に詳しく説明をする。図8は、本例において実行する機械学習で利用する学習モデルの構成の一例を示す。図8(a)は、学習モデルとして用いる深層ニューラルネットワーク(DNN)の構成の一例を示す。図8(b)は、学習モデルに対する入力、出力、及び中間出力の例を示す。学習モデルについては、例えば、機械学習を行うことで変更されるパラメータを有するモデル等と考えることができる。また、学習済モデルについては、例えば、所定の学習を行わせることでパラメータの調整を行った後の学習モデル等と考えることができる。また、上記において説明をしたように、本例において、機械学習としては、深層学習を用いる。そして、学習モデルとしては、DNNを用いる。この場合、学習を行わせる学習モデルについて、学習対象ニューラルネットワークの一例と考えることができる。 Next, in this example, the operation of generating a trained model, the operation of using a trained model, etc. will be explained in more detail. FIG. 8 shows an example of the configuration of a learning model used in machine learning executed in this example. FIG. 8(a) shows an example of the configuration of a deep neural network (DNN) used as a learning model. FIG. 8(b) shows an example of input, output, and intermediate output for the learning model. The learning model can be considered, for example, as a model having parameters that are changed by performing machine learning. Furthermore, the learned model can be considered, for example, to be a learned model whose parameters have been adjusted by performing predetermined learning. Moreover, as explained above, in this example, deep learning is used as machine learning. DNN is used as the learning model. In this case, the learning model to be trained can be considered as an example of a learning target neural network.

また、本例において、学習モデルとしては、図8(a)に示すように、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを用いる。この場合、エンコーダ部602については、例えば、所定のパラメータを入力とし、入力とは異なる所定のパラメータを出力するニューラルネットワーク等と考えることができる。また、デコーダ部604については、例えば、エンコーダ部602が出力するパラメータを入力とし、エンコーダ部602の入力と同じパラメータを出力として出力するニューラルネットワーク等と考えることができる。また、この場合、本例において用いる学習モデルについて、例えば、エンコーダ部602とデコーダ部604とをつなげたニューラルネットワーク等と考えることもできる。エンコーダ部602及びデコーダ部604のそれぞれとしては、3層以上の多層のニューラルネットワークを用いることが考えられる。 Furthermore, in this example, a neural network having an encoder section 602 and a decoder section 604 is used as the learning model, as shown in FIG. 8(a). In this case, the encoder unit 602 can be thought of as, for example, a neural network that receives a predetermined parameter as input and outputs a predetermined parameter different from the input. Further, the decoder unit 604 can be considered, for example, as a neural network that receives parameters output from the encoder unit 602 as input and outputs the same parameters as input to the encoder unit 602 as output. Further, in this case, the learning model used in this example can be considered as, for example, a neural network in which the encoder section 602 and the decoder section 604 are connected. As each of the encoder section 602 and the decoder section 604, it is possible to use a multilayer neural network having three or more layers.

また、本例においては、エンコーダ部602への入力について、学習モデル(学習モデルの全体)に対する入力と考えることができる。エンコーダ部602の出力について、学習モデルにおける中間出力と考えることができる。また、デコーダ部604の出力について、学習モデルの出力と考えることができる。また、本例においては、学習モデルの入力及び出力として、図8(b)に示すように、線広がり関数(LSF)を用いる。この場合、図中に示すように、線広がり関数の値をR成分、G成分、及びB成分に分けて入力及び出力として用いることが考えられる。また、より具体的に、この場合、例えば、RGBの各成分を要素数100程度のベクトルで表して入力及び出力として用いることが考えられる。また、この場合、学習モデルの入力及び出力として用いるLSFについて、質感を示すパラメータの一例と考えることができる。 Furthermore, in this example, the input to the encoder unit 602 can be considered as input to the learning model (the entire learning model). The output of the encoder unit 602 can be considered as an intermediate output in the learning model. Further, the output of the decoder unit 604 can be considered as the output of the learning model. Furthermore, in this example, a line spread function (LSF) is used as the input and output of the learning model, as shown in FIG. 8(b). In this case, as shown in the figure, it is conceivable to divide the value of the line spread function into an R component, a G component, and a B component and use them as input and output. More specifically, in this case, for example, each RGB component may be represented by a vector with about 100 elements and used as input and output. Further, in this case, the LSF used as input and output of the learning model can be considered as an example of a parameter indicating texture.

また、本例において、学習モデルの中間出力となるエンコーダ部602の出力としては、積層構成(レイアウト)を示すパラメータを用いる。この場合、積層構成とは、図7を用いて説明をしたシミュレーションで質感の予測を用いるために用いた積層構成である。また、この場合、積層構成を示すパラメータとしては、積層構成で重ねられるそれぞれの層の色を示すパラメータを用いる。より具体的に、本例においては、積層構成で積層される層数を一定にして、それぞれの層の色を示す番号(色番号)により構成されるベクトルを用いて、積層構成を示す。この場合、色番号については、例えば、複数の色を含む色群を用意して、色群に含まれるそれぞれの色に番号を対応付けることが考えられる。また、図8(b)においては、図示の便宜上、それぞれの層の色の違いについて、網掛け模様を異ならせて図示をしている。 Furthermore, in this example, a parameter indicating the stacked configuration (layout) is used as the output of the encoder unit 602, which is the intermediate output of the learning model. In this case, the laminated structure is the laminated structure used to predict texture in the simulation described using FIG. 7. Further, in this case, as the parameter indicating the laminated configuration, a parameter indicating the color of each layer stacked in the laminated configuration is used. More specifically, in this example, the number of layers stacked in the stacked configuration is kept constant, and the stacked configuration is shown using a vector composed of numbers (color numbers) indicating the color of each layer. In this case, regarding the color number, for example, it is possible to prepare a color group including a plurality of colors and associate a number with each color included in the color group. Further, in FIG. 8(b), for convenience of illustration, the different colors of the respective layers are illustrated with different hatching patterns.

また、積層構成での層の数については、例えば10層程度にすることが考えられる。また、また、本例において、色番号としては、それぞれの色に対応付けられる整数値を用いる。そのため、エンコーダ部602においては、出力される値が整数値に近い値になるように、出力の直前に、ソフト量子化層を設けている。ソフト量子化層については、例えば、微分可能な関数によって出力値を整数値に近づける構成等と考えることができる。ソフト量子化層としては、このような目的で用いられる公知の関数を好適に用いることができる。例えば、ソフト量子化層として、微分可能なように滑らかに変化する略階段状の関数を用いること等が考えられる。 Further, the number of layers in the laminated structure may be, for example, about 10 layers. Furthermore, in this example, integer values associated with each color are used as color numbers. Therefore, in the encoder unit 602, a soft quantization layer is provided immediately before the output so that the output value is close to an integer value. The soft quantization layer can be considered, for example, to have a configuration in which the output value approaches an integer value using a differentiable function. As the soft quantization layer, a known function used for such purposes can be suitably used. For example, it is conceivable to use a substantially step-like function that changes smoothly so as to be differentiable as the soft quantization layer.

また、本例においては、このような学習モデルに対し、上記においても説明をしたように、図7等を用いて説明をしたシミュレーションにより取得されるシミュレーション取得データを用いて、機械学習を行わせる。図9は、本例において行う機械学習について説明をする図である。図9(a)は、学習モデルに学習を行わせる動作の一例を示すフローチャートである。本例において、学習モデルに学習を行わせる場合、先にデコーダ部604に学習を行わせ、その後に、学習モデルの全体に学習を行わせる。 In addition, in this example, as explained above, machine learning is performed on such a learning model using simulation acquired data obtained by the simulation explained using Fig. 7 etc. . FIG. 9 is a diagram illustrating machine learning performed in this example. FIG. 9A is a flowchart illustrating an example of an operation for causing a learning model to perform learning. In this example, when the learning model is made to perform learning, the decoder unit 604 is made to perform learning first, and then the entire learning model is made to perform learning.

より具体的に、この場合、先ず、シミュレーション取得データを用いて、積層構成と質感との関係の学習をデコーダ部604に行わせることでデコーダ部604における重みを決定する(S302)。この場合、積層構成と質感との関係の学習をデコーダ部604に行わせることについては、例えば、様々な積層構成に対してシミュレーションによって計算された質感に基づき、積層構成と質感との対応関係を再現するようにデコーダ部604の重みを調整すること等と考えることができる。また、エンコーダ部602及びデコーダ部604のようなニューラルネットワークにおける重みとは、ニューラルネットワークを構成するニューロン間に設定される重みのことである。また、デコーダ部604に学習を行わせる動作については、例えば、図8(a)に示す学習モデルの全体における中間出力と出力との関係がシミュレーション取得データを反映させるように学習モデルに学習を行わせる動作等と考えることもできる。また、本例において、ステップS302の動作は、デコーダ部学習段階の一例である。 More specifically, in this case, first, the weights in the decoder unit 604 are determined by having the decoder unit 604 learn the relationship between the laminated structure and the texture using simulation acquired data (S302). In this case, in order to have the decoder unit 604 learn the relationship between the lamination configuration and the texture, for example, the correspondence relationship between the lamination configuration and the texture may be learned based on the textures calculated by simulation for various lamination configurations. This can be thought of as adjusting the weights of the decoder unit 604 so as to reproduce the image. Furthermore, the weights in a neural network such as the encoder section 602 and the decoder section 604 are weights set between neurons forming the neural network. Regarding the operation of causing the decoder unit 604 to perform learning, for example, the learning model is trained so that the relationship between the intermediate output and the output in the entire learning model shown in FIG. 8(a) reflects the simulation acquired data. It can also be thought of as an action to move. Further, in this example, the operation in step S302 is an example of a decoder unit learning stage.

また、デコーダ部604に対して学習を行わせた後には、エンコーダ部602とデコーダ部604とを結合して(S304)、積層構成と質感との関係の学習を学習モデルの全体に行わせる(S306)。より具体的に、本例において、ステップS306では、ステップS302で決定したデコーダ部604における重みを固定して、学習モデルの全体に学習を行わせる。また、この場合において、エンコーダ部602への入力とデコーダ部604からの出力とが同じになるように、エンコーダ部602における重みの調整を行う。 Further, after the decoder unit 604 is made to perform learning, the encoder unit 602 and decoder unit 604 are combined (S304), and the entire learning model is made to learn the relationship between the layered structure and the texture ( S306). More specifically, in this example, in step S306, the weights determined in step S302 in the decoder unit 604 are fixed, and the entire learning model is caused to perform learning. Furthermore, in this case, the weights in the encoder section 602 are adjusted so that the input to the encoder section 602 and the output from the decoder section 604 are the same.

このように構成すれば、例えば、デコーダ部604に学習させた積層構成と質感との関係を保持しつつ、シミュレーション取得データが示す積層構成と質感との関係を反映するように、エンコーダ部602における重みの調整を行うことができる。また、これにより、例えば、学習モデルの全体に対し、シミュレーション取得データに基づく学習を適切に行わせることができる。また、本例において、ステップS306の動作は、全体学習段階の動作の一例である。また、この場合、このようにして学習を行わせた学習モデルについて、積層構成の予測時に用いる学習済モデルと考えることができる。 With this configuration, for example, the encoder unit 602 can maintain the relationship between the laminated structure and the texture that the decoder unit 604 has learned, and reflect the relationship between the laminated structure and the texture indicated by the simulation acquisition data. Weights can be adjusted. Moreover, thereby, for example, it is possible to appropriately perform learning based on simulation acquired data on the entire learning model. Furthermore, in this example, the operation in step S306 is an example of the operation in the overall learning stage. Further, in this case, the learning model trained in this manner can be considered as a trained model used when predicting the stacked structure.

ここで、上記においても説明をしたように、本例においては、積層構成を示すパラメータについて、学習モデルにおける中間出力として用いている。そのため、積層構成の予測時には、積層構成を示す値として、この中間出力を用いることが考えられる。このように構成すれば、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。また、この中間出力は、学習モデルにおけるエンコーダ部602の出力になっている。そのため、積層構成の予測時には、学習済のエンコーダ部602を学習済モデルとして使用してもよい。この場合も、学習済モデルの作成時には、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを学習対象ニューラルネットワークとして用いることが好ましい。このように構成した場合も、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。 Here, as explained above, in this example, parameters indicating the stacked structure are used as intermediate outputs in the learning model. Therefore, when predicting the laminated structure, it is conceivable to use this intermediate output as a value indicating the laminated structure. With this configuration, for example, it is possible to appropriately predict a laminated structure corresponding to a desired texture. Further, this intermediate output is the output of the encoder section 602 in the learning model. Therefore, when predicting the stacked structure, the learned encoder unit 602 may be used as a learned model. In this case as well, when creating a trained model, it is preferable to use a neural network having an encoder section 602 and a decoder section 604 as a learning target neural network. Even with this configuration, for example, it is possible to appropriately predict a laminated structure corresponding to a desired texture.

尚、学習済のエンコーダ部602を学習済モデルとして使用する場合、わざわざデコーダ部604を用いずに、エンコーダ部602のみに対し、シミュレーション取得データに基づく学習を行わせればよいようにも思われる。しかし、デコーダ部604を用いずに、シミュレーション取得データに基づく学習をエンコーダ部602に直接行わせる場合、学習が完了するまでの時間がより多くかかることが考えられる。また、例えば、必要なシミュレーション取得データの数が大幅に増大すること等も考えられる。また、この場合、シミュレーション取得データの数を大幅に増やしたとしても、適切に学習が完了しなくなるおそれもある。これに対し、本例によれば、例えば、先にデコーダ部604の重みを設定して、その後にエンコーダ部602の重みを調整することで、エンコーダ部602の学習を効率的かつ適切に行わせることができる。 Incidentally, when using the trained encoder section 602 as a trained model, it may be possible to make only the encoder section 602 perform learning based on simulation acquired data without taking the trouble of using the decoder section 604. However, if the encoder unit 602 directly performs learning based on simulation acquired data without using the decoder unit 604, it may take more time to complete the learning. Furthermore, for example, it is also conceivable that the number of required simulation acquisition data will increase significantly. Furthermore, in this case, even if the number of simulation acquisition data is significantly increased, there is a risk that learning will not be completed appropriately. On the other hand, according to this example, for example, by first setting the weight of the decoder section 604 and then adjusting the weight of the encoder section 602, the learning of the encoder section 602 is performed efficiently and appropriately. be able to.

また、本願の発明者は、実際に、積層構成(レイアウト)と質感(LSF)との関係について、1413組のデータをシミュレーション取得データとして準備して、デコーダ部604及び学習モデルの全体に対し、学習を行わせた。また、この場合において、8割のデータを学習データとして用い、2割のデータをテストデータとして用いた。図9(b)は、デコーダ部604の学習曲線の一例を示す。図9(c)は、エンコーダ部602の学習曲線の一例を示す。図9(b)、(c)において、横軸は、エポック数である。縦軸は、損失関数の出力結果を示す。また、この場合、エンコーダ部602の学習曲線については、例えば、エンコーダ部602とデコーダ部604とを結合した学習モデル全体の学習曲線等と考えることもできる。 In addition, the inventor of the present application actually prepared 1413 sets of data as simulation acquisition data regarding the relationship between the stacked structure (layout) and the texture (LSF), and I let them learn. Furthermore, in this case, 80% of the data was used as learning data, and 20% of the data was used as test data. FIG. 9B shows an example of a learning curve of the decoder section 604. FIG. 9C shows an example of a learning curve of the encoder unit 602. In FIGS. 9(b) and 9(c), the horizontal axis is the number of epochs. The vertical axis shows the output result of the loss function. Further, in this case, the learning curve of the encoder section 602 can be considered as, for example, the learning curve of the entire learning model combining the encoder section 602 and the decoder section 604.

図示した学習曲線等から理解できるように、デコーダ部604においては、早々に学習が収束していることがわかる。また、エンコーダ部602においても、エポック数が20に差し掛かるあたりで収束していることがわかる。更に、エンコーダ部602及びデコーダ部604の両方において、バリデーションデータに対しも十分に高い精度での推定ができていることがわかる。また、先に分割しておいたテストデータに対するロス値は、0.1460であり、未知のデータに対しても学習データと同程度の精度で推定を行うことが可能であった。また、エンコーダ部602に学習が収束した時点でのロス値も十分に小さく、積層構成の予測を適切に行えていることが確認できた。 As can be understood from the illustrated learning curve, etc., it can be seen that learning converges quickly in the decoder section 604. Furthermore, it can be seen that the encoder unit 602 also converges when the number of epochs approaches 20. Furthermore, it can be seen that both the encoder section 602 and the decoder section 604 can estimate validation data with sufficiently high accuracy. Furthermore, the loss value for the previously divided test data was 0.1460, and it was possible to estimate unknown data with the same degree of accuracy as the learning data. Furthermore, it was confirmed that the loss value at the time when learning converged in the encoder unit 602 was sufficiently small, and that the stacked structure could be predicted appropriately.

このように、本例によれば、例えば、積層構成と質感との関係を適切に学習させた学習済モデルを適切に生成することができる。また、このような学習済モデルを用いることで、例えば、透明感等の質感について、所望の質感に対応する積層構成の予測等を適切に行うことができる。また、上記においても説明をしたように、本例においては、シミュレーションにより取得するシミュレーション取得データを用いて、学習済モデルを生成する。そして、この場合、例えば、実際に多数の試料を作成することや多数の試料に対する計測等を行うことなく、学習に必要な多数のデータを適切に準備することができる。また、これにより、例えば、学習済モデルを生成するために要する手間や時間等を適切に低減することができる。 In this manner, according to the present example, it is possible to appropriately generate a trained model that has appropriately learned the relationship between the layered structure and the texture. Further, by using such a learned model, it is possible to appropriately predict a laminated structure corresponding to a desired texture, for example, with respect to texture such as transparency. Further, as explained above, in this example, a trained model is generated using simulation acquired data acquired through simulation. In this case, for example, a large amount of data necessary for learning can be appropriately prepared without actually creating a large number of samples or performing measurements on a large number of samples. Further, thereby, for example, the effort and time required to generate a trained model can be appropriately reduced.

また、上記においては、主に、学習データとしてシミュレーション取得データのみを用いて学習済モデルを生成する動作の例について、説明をした。しかし、学習済モデルを生成する動作の変形例においては、シミュレーション取得データ以外のデータを更に用いて、学習済モデルを生成してもよい。例えば、所望の質感に対応する積層構成の予測をより高い精度で行おうとする場合等において、実際に試料(パッチ)を作成して計測を行うことで取得されたデータ(以下、計測取得データという)を更に用いること等も考えられる。この場合、例えば、様々な積層構成に対応する試料を実際に作成して、透明感等の質感(注目する質感)に対応する計測を試料に対して行うことで、計測取得データを取得する。そして、シミュレーション取得データ及び計測取得データを用いて学習モデルに学習を行わせることで、学習済モデルを生成する。このように構成した場合も、シミュレーション取得データを用いることで、例えば計測取得データのみを用いて学習済モデルを生成する場合等と比べ、必要な試料の数を大幅に削減することができる。 Further, in the above, an example of the operation of generating a trained model using only simulation acquired data as learning data has been mainly described. However, in a modified example of the operation of generating the trained model, the trained model may be generated by further using data other than the simulation acquired data. For example, when trying to predict the laminated structure corresponding to a desired texture with higher accuracy, data obtained by actually creating a sample (patch) and measuring it (hereinafter referred to as measurement data) is used. ) may also be used. In this case, for example, samples corresponding to various laminated configurations are actually created, and measurements corresponding to textures such as transparency (textures of interest) are performed on the samples to obtain measurement data. Then, a trained model is generated by causing the learning model to perform learning using the simulation acquired data and measurement acquired data. Even with this configuration, by using simulation acquired data, the number of required samples can be significantly reduced compared to, for example, a case where a trained model is generated using only measurement acquired data.

また、計測取得データについては、例えば、造形装置等を用いて作成した試料に対して光学的な特性を計測することで取得される積層構成と質感との関係を示すデータ等と考えることができる。また、学習モデルの作成時には、例えば、シミュレーション取得データと計測取得データとを区別せずに用いて、学習済モデルを生成することが考えられる。この場合、シミュレーション取得データと計測取得データとを区別せずに用いることについては、例えば、学習済モデルを生成するための学習時において、それぞれのデータがシミュレーション取得データ及び計測取得データのいずれであるかによって扱い方を変えずに、同じように扱うことである。また、このような動作については、例えば、計測取得データを追加することで学習に用いるデータの数を増やす動作等と考えることもできる。このように構成すれば、例えば、容易かつ適切にシミュレーション取得データ及び計測取得データを用いることができる。 In addition, the measurement data can be considered to be, for example, data indicating the relationship between the laminated structure and texture, which is obtained by measuring the optical characteristics of a sample created using a modeling device or the like. . Furthermore, when creating a learning model, it is conceivable to generate a trained model by using, for example, simulation acquisition data and measurement acquisition data without distinction. In this case, regarding the use of simulation acquisition data and measurement acquisition data without distinction, for example, during learning to generate a trained model, each data is either simulation acquisition data or measurement acquisition data. The idea is to treat them in the same way, without changing the way they are handled. Further, such an operation can be considered as, for example, an operation of increasing the number of data used for learning by adding measurement acquisition data. With this configuration, for example, simulation acquisition data and measurement acquisition data can be used easily and appropriately.

尚、機械学習として深層学習を用いる場合において、シミュレーション取得データと計測取得データとの間でデータの傾向の差が大きい場合、両者を区別せずに用いると、データ全体でのデータの傾向が薄まることで、学習の精度が低下する場合もある。そのため、シミュレーション取得データと計測取得データとの間でデータの傾向の差が大きい場合には、計測取得データを用いずに、シミュレーション取得データのみを用いて学習済モデルを生成することが好ましい。これに対しシミュレーション取得データと計測取得データとの間でデータの傾向の差が小さい場合には、上記のようにシミュレーション取得データ及び計測取得データを用いることで、例えば、高い精度での学習を適切に行うことができる。また、これにより、例えば、高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。 In addition, when using deep learning as machine learning, if there is a large difference in data trends between simulation acquired data and measurement acquired data, if the two are used without distinguishing between them, the data trends in the entire data will be weakened. This may reduce learning accuracy. Therefore, if there is a large difference in data trends between the simulation acquisition data and the measurement acquisition data, it is preferable to generate a trained model using only the simulation acquisition data without using the measurement acquisition data. On the other hand, if the difference in data trends between the simulation acquired data and the measurement acquired data is small, by using the simulation acquired data and the measured acquired data as described above, for example, learning with high accuracy can be performed appropriately. can be done. Moreover, thereby, for example, a trained model that can predict the relationship between texture and laminated structure with high accuracy can be appropriately generated.

シミュレーション取得データ及び計測取得データを用いる場合、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすように、異なる用い方で用いることが考えられる。この場合、シミュレーション取得データについては、例えば、多数のデータをより容易に作成できるデータ等と考えることができる。また、計測取得データについては、例えば、質感と積層構成との関係をより高い精度で示しているデータ等と考えることができる。そして、この場合、例えば図10に示すように、シミュレーション取得データ及び計測取得データを用いることが考えられる。図10は、シミュレーション取得データ及び計測取得データを用い方の変形例について説明をする図である。図10(a)は、シミュレーション取得データ及び計測取得データを用いて学習済モデルを生成する動作の変形例を示すフローチャートである。 When using simulation acquisition data and measurement acquisition data, it is conceivable to use the simulation acquisition data and measurement acquisition data in different ways to take advantage of their respective characteristics. In this case, the simulation acquired data can be considered, for example, as data that allows a large amount of data to be created more easily. Furthermore, the measurement data can be considered to be, for example, data showing the relationship between the texture and the laminated structure with higher accuracy. In this case, it is conceivable to use simulation acquisition data and measurement acquisition data, as shown in FIG. 10, for example. FIG. 10 is a diagram illustrating a modified example of how to use simulation acquired data and measurement acquired data. FIG. 10A is a flowchart illustrating a modified example of the operation of generating a trained model using simulation acquired data and measurement acquired data.

本変形例においては、最初にシミュレーション取得データを用いた学習(初期学習)を行わせて学習を進めた学習モデルを生成し(S402)、その学習モデルに対して計測取得データを用いた学習(追加学習)を行わせる(S404)。このような動作については、例えば、シミュレーション取得データを反映した学習モデルに対する調整を計測取得データを用いて行う動作等と考えることもできる。また、この場合、ステップS402の動作は、第1学習段階の動作の一例である。第1学習段階については、例えば、計測取得データを用いず、シミュレーション取得データを用いた学習を学習モデルに対して行わせる段階等と考えることができる。また、本変形例において、ステップS402では、計測取得データを用いる学習により、シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する。また、ステップS404の動作は、第2学習段階の動作の一例である。第2学習段階については、例えば、第1学習段階の後に計測取得データを用いた学習を学習モデルに対して行わせる段階等と考えることができる。また、本変形例において、ステップS404では、ステップS402で生成した中間生成モデルに対して計測取得データを用いた学習を更に行わせることで学習済モデルを生成する。 In this modification, a learning model is generated by first performing learning using simulation acquired data (initial learning) (S402), and learning (initial learning) using measurement acquired data is performed on the learning model (S402). (additional learning) (S404). Such an operation can be considered, for example, as an operation in which a learning model that reflects simulation acquisition data is adjusted using measurement acquisition data. Further, in this case, the operation in step S402 is an example of the operation in the first learning stage. The first learning stage can be considered, for example, as a stage in which the learning model is made to perform learning using simulated acquired data without using measured acquired data. Furthermore, in this modification, in step S402, an intermediate generation model that is a learning model that reflects the simulation acquisition data is generated by learning using the measurement acquisition data. Further, the operation in step S404 is an example of the operation in the second learning stage. The second learning stage can be considered, for example, as a stage in which the learning model is made to perform learning using measurement acquisition data after the first learning stage. Further, in this modification, in step S404, a learned model is generated by further performing learning using measurement acquisition data on the intermediate generation model generated in step S402.

本変形例によれば、例えば、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすよう適切に用いることができる。また、これにより、例えば、実際に作成した試料の特性を反映させた学習済モデルを効率的に作成することができる。また、例えば、より高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。また、本変形例において学習済モデルを生成する動作については、例えば、転移学習を行う動作等と考えることができる。この場合、ステップS402で生成される中間生成モデルについて、例えば、シミュレーション取得データを用いた学習により生成される第1の学習済モデルと考えることができる。また、ステップS402で生成される学習済モデルについて、計測取得データ及び第1の学習済モデルを用いた転移学習により生成される第2の学習済モデル等と考えることができる。また、この場合、このような方法で転移学習を行うことで、例えば計測取得済データのみを用いた学習を行う場合等と比べ、計測取得データを反映した学習済モデルを効率的かつ適切に作成することができる。 According to this modification, for example, simulation acquisition data and measurement acquisition data can be appropriately used to take advantage of their respective characteristics. Moreover, this makes it possible, for example, to efficiently create a learned model that reflects the characteristics of an actually created sample. Further, for example, it is possible to appropriately generate a trained model that can predict the relationship between the texture and the laminated structure with higher accuracy. Further, in this modification, the operation of generating a trained model can be considered, for example, as an operation of performing transfer learning. In this case, the intermediate generated model generated in step S402 can be considered, for example, as a first trained model generated by learning using simulation acquired data. Further, the trained model generated in step S402 can be considered as a second trained model generated by transfer learning using the measurement acquisition data and the first trained model. In addition, in this case, by performing transfer learning using this method, compared to, for example, learning using only measured data, it is possible to efficiently and appropriately create a trained model that reflects the measured data. can do.

また、例えば図8(a)に示すようなエンコーダ部602及びデコーダ部604(図8参照)を有するニューラルネットワークを学習モデルとして用いる場合、学習モデルの構成に合わせてシミュレーション取得データ及び計測取得データを用いること等も考えられる。この場合、ステップS402において、計測取得データを用いた学習をデコーダ部604に行わせること等が考えられる。また、ステップS404において、シミュレーション取得データを用いた学習を学習モデルの全体に行わせることが考えられる。また、この場合、ステップS402の動作について、デコーダ部学習段階の一例にもなっていると考えることができる。ステップS404の動作について、全体学習段階の一例にもなっていると考えることができる。このように構成すれば、例えば、学習モデルの構成に合わせて、シミュレーション取得データ及び計測取得データを適切に用いることができる。また、これにより、例えば、実際に作成した試料の特性を反映させた学習済モデルを効率的に作成することができる。 For example, when using a neural network having an encoder section 602 and a decoder section 604 (see FIG. 8) as shown in FIG. 8(a) as a learning model, simulation acquisition data and measurement acquisition data are It is also possible to use it. In this case, in step S402, it is conceivable to have the decoder unit 604 perform learning using the measurement acquisition data. Further, in step S404, it is conceivable to cause the entire learning model to undergo learning using the simulation acquired data. Further, in this case, the operation in step S402 can be considered to be an example of the decoder unit learning stage. The operation in step S404 can be considered as an example of the overall learning stage. With this configuration, for example, simulation acquisition data and measurement acquisition data can be used appropriately in accordance with the configuration of the learning model. Moreover, this makes it possible, for example, to efficiently create a learned model that reflects the characteristics of an actually created sample.

また、上記においても説明をしたように、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを用いる場合、デコーダ部604の学習については、比較的早期に収束すると考えられる。そのため、例えばシミュレーション取得データと比べて数の少ない計測取得データのみを用いる場合でも、デコーダ部604については、学習を適切に行わせることが可能である。そのため、ステップS404では、例えば、計測取得データを用い、かつ、シミュレーション取得データを用いずに、デコーダ部604に学習を行わせることが考えられる。このように構成すれば、例えば、先に重みを決定するデコーダ部604について、計測取得データをより適切に反映した学習を行わせることができる。また、この場合、その後に行うステップS404での学習では、上記においても説明をしたように、デコーダ部604の重みを固定して学習を行う。そのため、このように構成すれば、ステップS404において行う学習においても、計測取得データを反映した学習を適切に行うことができる。また、ステップS404において学習モデルの全体に対して行う学習においては、学習データの数が多い方が好ましいと考えられる。そのため、ステップS404においては、シミュレーション取得データ及び計測取得データを用いて、学習モデルに学習を行わせることが考えられる。また、学習の目的等に応じて、ステップS404では、シミュレーション取得データを用い、かつ、計測取得データを用いずに、学習モデルに学習を行わせてもよい。 Further, as explained above, when using a neural network having the encoder section 602 and the decoder section 604, the learning of the decoder section 604 is considered to converge relatively quickly. Therefore, for example, even when using only measurement acquisition data that is smaller in number than simulation acquisition data, it is possible to cause the decoder unit 604 to appropriately perform learning. Therefore, in step S404, for example, it is possible to cause the decoder unit 604 to perform learning using the measurement acquisition data and without using the simulation acquisition data. With this configuration, for example, the decoder unit 604, which determines the weights first, can perform learning that more appropriately reflects the measurement acquisition data. Furthermore, in this case, in the subsequent learning in step S404, the weight of the decoder unit 604 is fixed and the learning is performed, as explained above. Therefore, with this configuration, even in the learning performed in step S404, learning that reflects the measurement acquisition data can be appropriately performed. Furthermore, in the learning performed on the entire learning model in step S404, it is considered preferable to have a large number of learning data. Therefore, in step S404, it is conceivable to cause the learning model to perform learning using the simulation acquisition data and the measurement acquisition data. Further, depending on the purpose of learning, etc., the learning model may be caused to perform learning in step S404 using the simulation acquisition data and without using the measurement acquisition data.

また、シミュレーション取得データ及び計測取得データについては、同じ学習モデルの学習用データとして用いるのではなく、例えば図10(b)に示すように、互いに異なる学習モデルに対する学習用データとして用いてもよい。図10(b)は、シミュレーション取得データ及び計測取得データを用い方の更なる変形例を示す。 Further, the simulation acquired data and the measurement acquired data may not be used as learning data for the same learning model, but may be used as learning data for mutually different learning models, as shown in FIG. 10(b), for example. FIG. 10(b) shows a further modified example of how to use simulation acquired data and measurement acquired data.

本変形例において、学習済モデルとしては、質感(LSF等)から積層構成(レイアウト)を予測するために用いる予測用モデルと、積層構成に対応する質感を確認するために用いる確認用モデルとを用いる。この場合、予測用モデルとしては、例えば、上記において説明をした積層構成の予測用の学習済モデルを好適に用いることができる。本変形例において、予測用モデルの作成時には、シミュレーション取得データを用い、かつ、計測取得データを用いずに、学習モデルに学習を行わせる。また、より具体的に、予測用モデルとしては、例えば図8等を用いて説明した学習モデルに対してシミュレーション取得データを用いた学習を行わせることで作成する学習済モデル等を好適に用いることができる。また、本変形例において、確認用モデルは、予測用モデルでの予測の結果を確認するために用いる学習済モデルである。確認用モデルとしては、例えば、図8等を用いて説明をした学習モデルにおけるデコーダ部604に対応するニューラルネットワーク等を好適に用いることができる。また、本変形例において、確認用モデルの作成時には、計測取得データを用い、かつ、シミュレーション取得データを用いずに、学習モデルに学習を行わせる。 In this modification, the learned models include a prediction model used to predict the stacking structure (layout) from the texture (LSF, etc.) and a confirmation model used to confirm the texture corresponding to the stacking structure. use In this case, as the prediction model, for example, the learned model for prediction of the stacked structure described above can be suitably used. In this modification, when creating a prediction model, the learning model is made to perform learning using simulation acquisition data and without using measurement acquisition data. More specifically, as a prediction model, it is preferable to use a trained model, etc., which is created by performing learning using simulated data on the learning model described using FIG. 8, etc. I can do it. Furthermore, in this modification, the confirmation model is a trained model used to confirm the prediction result of the prediction model. As the confirmation model, for example, a neural network corresponding to the decoder section 604 in the learning model described using FIG. 8 etc. can be suitably used. Furthermore, in this modification, when creating a confirmation model, the learning model is caused to perform learning using measurement acquisition data and without using simulation acquisition data.

また、本変形例では、例えば、積層構成の予測時において、予測用モデルを用いて積層構成の予測を行った上で、更に、確認用モデルを用いて予測結果の確認を行うことが考えられる。より具体的に、この場合、例えば、予測用モデルが出力する積層構成について、確認用モデルの入力として更に用いることが考えられる。そして、確認用モデルの出力について、予測用モデルの入力として用いた所望の質感(LSF等)と比較を行うことが考えられる。このように構成すれば、例えば、予測用モデルを用いて行う積層構成の予測の結果について、所望の質感が得られる結果であるか否かについて、より適切に確認をすることができる。また、この場合、必要に応じて、例えば所望の質感が得られるように、積層構成の予測の結果を調整すること等が考えられる。このように構成すれば、例えば、所望の質感に対応する積層構成をより適切に取得することができる。 Furthermore, in this modification, for example, when predicting the laminated structure, it is conceivable to predict the laminated structure using the prediction model, and then further confirm the prediction result using the confirmation model. . More specifically, in this case, for example, it is conceivable that the stacked structure output by the prediction model is further used as input to the confirmation model. Then, it is conceivable to compare the output of the confirmation model with the desired texture (such as LSF) used as the input of the prediction model. With this configuration, for example, it is possible to more appropriately confirm whether or not the result of predicting the laminated structure using the prediction model provides a desired texture. Further, in this case, it is conceivable to adjust the result of prediction of the laminated structure as necessary, for example, so as to obtain a desired texture. With this configuration, for example, a laminated structure corresponding to a desired texture can be more appropriately obtained.

また、シミュレーション取得データ及び計測取得データの用い方の更なる変形例においては、例えば、シミュレーション取得データを用いて行う学習を行った後に、学習結果を利用して、計測の対象とする試料の作成を行うこと等も考えられる。より具体的に、この場合、例えば、シミュレーション取得データを用いた学習を行うことで、学習を行うために必要な学習データの量を確認することが考えられる。また、この場合、確認した学習データの必要量に合わせて、計測取得データを取得するために用いる試料を作成することが考えられる。このように構成すれば、例えば、必要以上に多くの試料を作成することなく、学習に必要な量の計測取得データを適切に取得することができる。また、この場合、所望の質感に対応する層構成を予測するための学習済モデルについて、シミュレーション取得データを用いずに、計測取得データのみを用いて作成することが考えられる。このように構成した場合も、シミュレーション取得データ及び計測取得データを用いて、所望の質感に対応する層構成の予測等を適切に行うことができる。 In addition, in a further variation of how to use simulation acquired data and measurement acquired data, for example, after performing learning using simulation acquired data, the learning results are used to create a sample to be measured. It is also possible to do this. More specifically, in this case, for example, it is possible to check the amount of learning data required for learning by performing learning using simulation acquired data. Furthermore, in this case, it is conceivable to create a sample to be used for acquiring measurement acquisition data in accordance with the confirmed necessary amount of learning data. With this configuration, for example, the amount of measurement data required for learning can be appropriately acquired without creating more samples than necessary. Further, in this case, it is conceivable to create a learned model for predicting the layer configuration corresponding to the desired texture using only the measurement acquisition data without using the simulation acquisition data. Even with this configuration, it is possible to appropriately predict the layer structure corresponding to the desired texture using the simulation acquisition data and the measurement acquisition data.

続いて、上記において説明をした各構成に関する補足説明等を行う。また、以下においては、説明の便宜上、上記において説明をした変形例等も含めて、本例という。上記においても説明をしたように、本例において、制御PC14(図1参照)は、領域構成予測装置の一例である。また、例えば図4(a)に図示をしたように、本例において、制御PC14は、表示部402、受付部404、通信I/F部406、及び制御部408を有する。この場合、制御部408は、例えば、所定のプログラムに従って動作することで、領域構成予測装置の各部として動作する。より具体的に、制御部408は、所定のプログラムに従って動作することで、例えば、質感予測部、学習済モデル作成部、領域構成予測部、及び造形データ生成部等として動作する。この場合、質感予測部については、例えば、質感予測段階の動作を実行する構成等と考えることができる。学習済モデル作成部については、例えば、学習段階の動作を実行する構成等と考えることができる。領域構成予測部については、例えば、領域構成予測段階の動作を実行する構成等と考えることができる。また、造形データ生成部については、例えば、造形データ生成段階の動作を実行する構成等と考えることができる。また、制御部408は、制御PC14における他の構成について、領域構成予測装置の各構成として動作させてもよい。 Next, supplementary explanations regarding each of the configurations explained above will be given. Further, in the following description, for convenience of explanation, the present example will also include the modified examples explained above. As explained above, in this example, the control PC 14 (see FIG. 1) is an example of a region configuration prediction device. Furthermore, as illustrated in FIG. 4A, in this example, the control PC 14 includes a display section 402, a reception section 404, a communication I/F section 406, and a control section 408. In this case, the control unit 408 operates as each unit of the area configuration prediction device, for example, by operating according to a predetermined program. More specifically, the control unit 408 operates as, for example, a texture prediction unit, a learned model creation unit, a region configuration prediction unit, a modeling data generation unit, etc. by operating according to a predetermined program. In this case, the texture prediction unit can be considered to have a configuration that executes operations at the texture prediction stage, for example. The trained model creation unit can be considered, for example, as a configuration that executes operations in the learning stage. The area configuration prediction unit can be considered, for example, as a configuration that executes operations at the area configuration prediction stage. Furthermore, the modeling data generation section can be considered as having a configuration that executes operations at the modeling data generation stage, for example. Further, the control unit 408 may cause other components of the control PC 14 to operate as respective components of the area configuration prediction device.

また、上記においては、積層構成を予測する動作に関し、主に、造形装置12(図1参照)において造形する造形物の一部の領域構成に対応する積層構成を予測する動作について、説明をした。しかし、積層構成を予測する動作の変形例においては、このような造形物以外の物の少なくとも一部の領域構成に対応する積層構成の予測を行ってもよい。例えば、2次元の画像を印刷する印刷装置(例えば、インクジェットプリンタ)においては、印刷対象の媒体(メディア)上に様々な色のインクの層を複数重ねることで様々な質感を表現すること等も考えられる。そして、この場合、例えば、媒体上に重ねて形成されるインクの層の重なり方を領域構成と考えて、このような領域構成に対応する積層構成の予測を行ってもよい。また、例えば媒体上にインクの層を重ねることで立体的な形状を形成する印刷装置(いわゆる、2.5Dプリンタ)を用いる場合、媒体上に形成される立体的な形状の表面の構成を領域構成と考えて、このような領域構成に対応する積層構成の予測を行ってもよい。これらの場合にも、上記と同様にして作成した学習済モデルを用いることで、積層構成の予測等を適切に行うことができる。 Furthermore, in the above description, regarding the operation of predicting the laminated configuration, the explanation has mainly been given regarding the operation of predicting the laminated configuration corresponding to the area configuration of a part of the object to be manufactured by the modeling device 12 (see FIG. 1). . However, in a modified example of the operation of predicting the laminated structure, the laminated structure corresponding to the area configuration of at least a portion of an object other than such a shaped object may be predicted. For example, in a printing device that prints two-dimensional images (such as an inkjet printer), various textures can be expressed by overlapping multiple layers of ink of various colors on the printing target medium (media). Conceivable. In this case, for example, the layered structure corresponding to such a region structure may be predicted by considering the overlapping manner of ink layers formed on the medium as the region structure. For example, when using a printing device (so-called 2.5D printer) that forms a three-dimensional shape by overlapping layers of ink on a medium, the structure of the surface of the three-dimensional shape formed on the medium can be It is also possible to predict a laminated structure corresponding to such a region structure. In these cases as well, by using a trained model created in the same manner as above, it is possible to appropriately predict the stacked structure.

本発明は、例えば領域構成予測方法に好適に利用できる。 INDUSTRIAL APPLICATION This invention can be conveniently utilized for the area structure prediction method, for example.

10・・・造形システム、12・・・造形装置、14・・・制御PC、50・・・造形物、52・・・サポート層、102・・・ヘッド部、104・・・造形台、106・・・走査駆動部、110・・・制御部、122・・・インクジェットヘッド、124・・・紫外線光源、126・・・平坦化ローラ、152・・・内部領域、154・・・着色領域、202・・・層状領域、302・・・真皮領域、304・・・表皮領域、306・・・クリア領域、402・・・表示部、404・・・受付部、406・・・通信I/F部、408・・・制御部、502・・・造形単位層、602・・・エンコーダ部、604・・・デコーダ部 DESCRIPTION OF SYMBOLS 10... Modeling system, 12... Modeling device, 14... Control PC, 50... Modeled object, 52... Support layer, 102... Head portion, 104... Modeling table, 106 ... Scanning drive section, 110 ... Control section, 122 ... Inkjet head, 124 ... Ultraviolet light source, 126 ... Flattening roller, 152 ... Internal region, 154 ... Coloring region, 202... Layered area, 302... Dermis area, 304... Epidermal area, 306... Clear area, 402... Display section, 404... Reception section, 406... Communication I/F Section, 408... Control section, 502... Modeling unit layer, 602... Encoder section, 604... Decoder section

Claims (19)

複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、
着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する段階
であり、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測する質感予測段階と、
前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する段階であり、前記複数種類の積層構成に対して前記質感予測段階において予測した前記質感に基づいて前記学習済モデルを生成する学習段階と、
所望の前記質感に対応する前記領域構成を予測する段階であり、前記学習段階で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階と
を備えることを特徴とする領域構成予測方法。
A region configuration prediction method for predicting a region configuration that is a configuration of a region formed using a plurality of coloring materials, the method comprising:
This step is a step of predicting the relationship between a laminated structure, which is a configuration in which a plurality of colored layered areas overlap, and a predetermined texture, by computer simulation, and for each of a plurality of types of laminated configurations in which the layered areas overlap in different configurations. a texture prediction step of predicting the texture expressed by the laminated structure;
This step is a step of generating a trained model by machine learning, which is a learning model that has learned the relationship between the laminated structure and the texture, and the step is to generate a learned model by machine learning, which is a learned model that has learned the relationship between the laminated structure and the texture, and to generate a learned model that is a learned model that has learned the relationship between the laminated structure and the texture, and to generate a learned model that is a learned model that has learned the relationship between the laminated structure and the texture, and to generate the learned model that is a learned model that has learned the relationship between the laminated structure and the texture, and to a learning step of generating the trained model based on the trained model;
This is a step of predicting the area configuration corresponding to the desired texture, in which the learned model generated in the learning step is used to predict the lamination configuration corresponding to the texture, and based on the lamination configuration, the desired area configuration is predicted. a region structure prediction step of predicting the region structure corresponding to the texture of the image.
前記複数色の着色用の材料は、複数色の造形の材料であり、
前記領域構成は、前記複数色の造形の材料を用いて造形物を造形する造形装置において造形しようとする前記造形物の少なくとも一部の領域に対応する構成であることを特徴とする請求項1に記載の領域構成予測方法。
The multi-colored coloring material is a multi-colored modeling material,
Claim 1, wherein the area configuration corresponds to at least a partial area of the object to be modeled in a modeling device that forms the object using the modeling materials of the plurality of colors. The area configuration prediction method described in .
前記領域構成は、それぞれが着色された複数の層状の領域が前記造形物の表面での法線方向と平行な方向において重なる構成であることを特徴とする請求項2に記載の領域構成予測方法。 The area configuration prediction method according to claim 2, wherein the area configuration is such that a plurality of colored layered areas overlap in a direction parallel to a normal direction on the surface of the modeled object. . 前記領域構成予測段階は、
前記所望の質感が設定されたコンピュータグラフィックス画像に基づき、当該コンピュータグラフィックス画像に設定されている前記質感に対応するパラメータである設定パラメータを算出する設定パラメータ算出段階と、
前記学習済モデルに対する入力として前記設定パラメータ算出段階で算出した前記設定パラメータを用いて、前記積層構成を示す出力を取得する積層構成取得段階と
を有することを特徴とする請求項1から3のいずれかに記載の領域構成予測方法。
The region configuration prediction step includes:
a setting parameter calculation step of calculating a setting parameter that is a parameter corresponding to the texture set in the computer graphics image based on the computer graphics image in which the desired texture is set;
and a layered structure obtaining step of obtaining an output indicating the layered structure using the setting parameters calculated in the setting parameter calculating step as input to the trained model. A region configuration prediction method described in .
前記質感は、複数の前記層状の領域が重なることで表現される透明感であり、
前記質感予測段階において、前記質感を示すパラメータとして、光の広がり方を示す関数を用いることを特徴とする請求項1から4のいずれかに記載の領域構成予測方法。
The texture is a transparent feeling expressed by overlapping a plurality of layered regions,
5. The area configuration prediction method according to claim 1, wherein in the texture prediction step, a function indicating how light spreads is used as a parameter indicating the texture.
前記質感を示すパラメータとして、線広がり関数(LSF)を用いることを特徴とする請求項5に記載の領域構成予測方法。 6. The area configuration prediction method according to claim 5, wherein a line spread function (LSF) is used as the parameter indicating the texture. 前記質感予測段階において、前記複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を用いてコンピュータシミュレーションを行うことで、前記積層構成により表現される前記質感を予測することを特徴とする請求項1から6のいずれかに記載の領域構成予測方法。 In the texture prediction step, the texture expressed by the laminated structure is predicted by performing a computer simulation using absorption coefficients and scattering coefficients corresponding to each of the plurality of coloring materials. The area configuration prediction method according to any one of claims 1 to 6. それぞれの色の前記着色用の材料に対応する試料を作成する各色試料作成段階と、
前記各色試料作成段階で作成した前記試料の光学的な特性を計測することで前記複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する係数決定段階と
を更に備え、
前記質感予測段階において、前記係数決定段階で決定した吸収係数及び散乱係数を用いて、コンピュータシミュレーションを行うことを特徴とする請求項7に記載の領域構成予測方法。
a step of creating a sample for each color, creating a sample corresponding to the coloring material of each color;
further comprising a coefficient determining step of determining an absorption coefficient and a scattering coefficient corresponding to each of the plurality of coloring materials by measuring the optical characteristics of the sample created in the each color sample creating step,
8. The area configuration prediction method according to claim 7, wherein in the texture prediction step, a computer simulation is performed using the absorption coefficient and scattering coefficient determined in the coefficient determination step.
前記学習段階は、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階であり、
前記学習対象ニューラルネットワークは、前記質感を示すパラメータを入力及び出力とし、前記積層構成を示すパラメータを中間出力とするニューラルネットワークであり、
前記質感を示すパラメータを入力とし、前記積層構成を示すパラメータを出力とするニューラルネットワークであるエンコーダ部と、
前記積層構成を示すパラメータを入力とし、前記質感を示すパラメータを出力とするニューラルネットワークであるデコーダ部と
を有することを特徴とする請求項1から8のいずれかに記載の領域構成予測方法。
The learning step is a step of causing a learning target neural network, which is a learning target neural network, to perform learning,
The learning target neural network is a neural network that uses the parameter indicating the texture as input and output, and uses the parameter indicating the layered structure as an intermediate output,
an encoder section that is a neural network that receives a parameter indicating the texture as an input and outputs a parameter indicating the layered structure;
9. The area structure prediction method according to claim 1, further comprising a decoder section that is a neural network that receives a parameter indicating the laminated structure as an input and outputs a parameter indicating the texture as an output.
前記学習対象ニューラルネットワークは、前記エンコーダ部と前記デコーダ部とをつなげたニューラルネットワークであり、
前記学習段階は、
前記積層構成と前記質感との関係の学習を前記デコーダ部に行わせることで前記デコーダ部における重みを決定するデコーダ部学習段階と、
前記デコーダ部学習段階で決定した前記デコーダ部における重みを固定して前記学習対象ニューラルネットワークに学習を行わせる全体学習段階と
を有することを特徴とする請求項9に記載の領域構成予測方法。
The learning target neural network is a neural network that connects the encoder section and the decoder section,
The learning stage includes:
a decoder unit learning step of determining weights in the decoder unit by causing the decoder unit to learn the relationship between the laminated structure and the texture;
10. The area configuration prediction method according to claim 9, further comprising a whole learning step in which the learning target neural network is made to perform learning by fixing the weights in the decoder section determined in the decoder section learning step.
前記学習段階において、
前記質感予測段階において予測した前記質感に基づいて前記積層構成と前記質感との関係を示すデータであるシミュレーション取得データと、作成した試料に対して光学的な特性を計測することで取得される前記積層構成と前記質感との関係を示すデータである計測取得データとを用いて、前記学習済モデルを生成することを特徴とする請求項1から10のいずれかに記載の領域構成予測方法。
In the learning stage,
Simulation acquisition data, which is data indicating the relationship between the laminated structure and the texture based on the texture predicted in the texture prediction step, and the simulation acquisition data, which is data obtained by measuring optical characteristics of the prepared sample. 11. The area configuration prediction method according to claim 1, wherein the learned model is generated using measurement acquisition data that is data indicating a relationship between a layer configuration and the texture.
前記学習段階において、前記シミュレーション取得データと前記計測取得データとを区別せずに用いて、前記学習済モデルを生成することを特徴とする請求項11に記載の領域構成予測方法。 12. The area configuration prediction method according to claim 11, wherein in the learning step, the learned model is generated by using the simulation acquisition data and the measurement acquisition data without distinguishing them. 前記学習段階は、
前記計測取得データを用いず、前記シミュレーション取得データを用いた学習を学習モデルに対して行わせることで前記シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する第1学習段階と、
前記中間生成モデルに対して前記計測取得データを用いた学習を更に行わせることで前記学習済モデルを生成する第2学習段階と
を有することを特徴とする請求項11に記載の領域構成予測方法。
The learning stage includes:
a first learning step of generating an intermediate generation model that is a learning model that reflects the simulation acquisition data by causing the learning model to perform learning using the simulation acquisition data without using the measurement acquisition data;
The area configuration prediction method according to claim 11, further comprising a second learning step of generating the learned model by causing the intermediate generation model to further perform learning using the measurement acquisition data. .
前記学習段階は、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階であり、
前記学習対象ニューラルネットワークは、
前記質感を示すパラメータを入力とし、前記積層構成を示すパラメータを出力とするニューラルネットワークであるエンコーダ部と、
前記積層構成を示すパラメータを入力とし、前記質感を示すパラメータを出力とするニューラルネットワークであるデコーダ部と
をつなげたニューラルネットワークであり、前記質感を示すパラメータを入力及び出力とし、前記積層構成を示すパラメータを中間出力とし、
前記学習段階は、
前記積層構成と前記質感との関係の学習を前記デコーダ部に行わせることで前記デコーダ部における重みを決定する段階であるデコーダ部学習段階と、
前記デコーダ部学習段階で決定した前記デコーダ部における重みを固定して前記学習対象ニューラルネットワークに学習を行わせる全体学習段階と
を有し、
前記デコーダ部学習段階において、前記計測取得データを用いた学習を前記デコーダ部に行わせ、
前記全体学習段階において、前記シミュレーション取得データを用いた学習を前記学習対象ニューラルネットワークに行わせることを特徴とする請求項11に記載の領域構成予測方法。
The learning step is a step of causing a learning target neural network, which is a learning target neural network, to perform learning,
The learning target neural network is
an encoder section that is a neural network that receives a parameter indicating the texture as an input and outputs a parameter indicating the layered structure;
A neural network is connected to a decoder section which is a neural network that takes a parameter indicating the layered structure as input and outputs a parameter indicating the texture, and uses the parameter indicating the texture as input and output to indicate the layered structure. Let the parameter be the intermediate output,
The learning stage includes:
a decoder section learning step, which is a step of determining weights in the decoder section by causing the decoder section to learn the relationship between the laminated structure and the texture;
an overall learning step in which the learning target neural network is made to perform learning by fixing the weights in the decoder section determined in the decoder section learning step;
in the decoder unit learning step, causing the decoder unit to perform learning using the measurement acquisition data;
12. The area configuration prediction method according to claim 11, wherein in the overall learning step, the learning target neural network is caused to perform learning using the simulation acquired data.
前記デコーダ部学習段階において、前記計測取得データを用い、かつ、前記シミュレーション取得データを用いずに、前記デコーダ部に学習を行わせ、
前記全体学習段階において、前記シミュレーション取得データ及び前記計測取得データを用いて、前記学習対象ニューラルネットワークに学習を行わせることを特徴とする請求項14に記載の領域構成予測方法。
in the decoder unit learning step, causing the decoder unit to perform learning using the measurement acquisition data and without using the simulation acquisition data;
15. The area configuration prediction method according to claim 14, wherein in the overall learning step, the learning target neural network is caused to perform learning using the simulation acquired data and the measurement acquired data.
造形装置において造形しようとする造形物を示す造形データを生成する造形データ生成段階を更に備え、
前記造形データは、前記領域構成予測段階で予測した前記領域構成に基づく重ね方で前記造形装置に造形の材料を積層させるデータであることを特徴とする請求項1から15のいずれかに記載の領域構成予測方法。
further comprising a modeling data generation step for generating modeling data indicating a modeled object to be modeled in the modeling device;
16. The modeling data is data that causes the modeling device to layer materials for modeling in a stacking manner based on the area configuration predicted in the area configuration prediction step. Area configuration prediction method.
複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、
所望の質感に対応する前記領域構成を予測する段階であり、着色された層状の領域が複数重なる構成である積層構成と所定の前記質感との関係をコンピュータシミュレーションにより予測した結果を学習することで生成された学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階を備えることを特徴とする領域構成予測方法。
A region configuration prediction method for predicting a region configuration that is a configuration of a region formed using a plurality of coloring materials, the method comprising:
This is a step of predicting the region configuration corresponding to the desired texture, and by learning the results of predicting the relationship between the predetermined texture and the laminated structure, which is a configuration in which a plurality of colored layered regions overlap, by computer simulation. The method further comprises a region configuration prediction step of predicting the lamination configuration corresponding to the texture using the generated trained model, and predicting the area configuration corresponding to the desired texture based on the lamination configuration. A region composition prediction method.
複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測装置であって、
着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する質感予測部と、
前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する学習済モデル作成部と、
所望の前記質感に対応する前記領域構成を予測する領域構成予測部と
を備え、
前記質感予測部は、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測し、
前記学習済モデル作成部は、前記複数種類の積層構成に対して前記質感予測部において予測した前記質感に基づいて前記学習済モデルを生成し、
前記領域構成予測部は、前記学習済モデル作成部で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測することを特徴とする領域構成予測装置。
An area configuration prediction device that predicts an area configuration that is a configuration of an area formed using a plurality of colors of coloring materials,
a texture prediction unit that predicts the relationship between a predetermined texture and a laminated structure in which a plurality of colored layered regions overlap, by computer simulation;
a learned model creation unit that uses machine learning to generate a learned model that is a learned model that has learned the relationship between the layered structure and the texture;
an area configuration prediction unit that predicts the area configuration corresponding to the desired texture;
The texture prediction unit predicts the texture expressed by each of the laminated configurations for a plurality of types of laminated configurations in which the layered regions overlap with each other with different configurations,
The learned model creation unit generates the learned model based on the texture predicted by the texture prediction unit for the plurality of types of laminated configurations,
The area configuration prediction unit predicts the lamination configuration corresponding to the texture using the learned model generated by the learned model creation unit, and based on the lamination configuration, predicts the area corresponding to the desired texture. An area configuration prediction device characterized by predicting a configuration.
複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測装置であって、
所望の質感に対応する前記領域構成を予測する領域構成予測部を備え、
前記領域構成予測部は、着色された層状の領域が複数重なる構成である積層構成と所定の前記質感との関係をコンピュータシミュレーションにより予測した結果を学習することで生成された学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測することを特徴とする領域構成予測装置。
An area configuration prediction device that predicts an area configuration that is a configuration of an area formed using a plurality of colors of coloring materials,
comprising an area configuration prediction unit that predicts the area configuration corresponding to a desired texture;
The area configuration prediction unit uses a learned model generated by learning the results of predicting the relationship between a layered configuration in which a plurality of colored layered areas overlap and the predetermined texture using a computer simulation. An area configuration prediction device characterized by predicting the laminated configuration corresponding to the texture, and predicting the area configuration corresponding to the desired texture based on the laminated configuration.
JP2020056246A 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device Active JP7343879B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020056246A JP7343879B2 (en) 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device
PCT/JP2021/010304 WO2021193185A1 (en) 2020-03-26 2021-03-15 Region configuration prediction method, region configuration prediction device, method for generating shaping data, shaping method, shaping data generation device, shaping system, method for generating printing data, printing method, printing data generation device, and printing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056246A JP7343879B2 (en) 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device

Publications (2)

Publication Number Publication Date
JP2021154570A JP2021154570A (en) 2021-10-07
JP7343879B2 true JP7343879B2 (en) 2023-09-13

Family

ID=77916582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056246A Active JP7343879B2 (en) 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device

Country Status (1)

Country Link
JP (1) JP7343879B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002248692A (en) 2001-02-23 2002-09-03 Minolta Co Ltd Three-dimensional shaping system, three-dimensional shaping center, program, memory medium and method for ordering three-dimensional shaping
JP2010114506A (en) 2008-11-04 2010-05-20 Seiko Epson Corp Texture information data acquiring device and display control system with the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002248692A (en) 2001-02-23 2002-09-03 Minolta Co Ltd Three-dimensional shaping system, three-dimensional shaping center, program, memory medium and method for ordering three-dimensional shaping
JP2010114506A (en) 2008-11-04 2010-05-20 Seiko Epson Corp Texture information data acquiring device and display control system with the same

Also Published As

Publication number Publication date
JP2021154570A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
EP1649409B1 (en) Prediction model for color separation, calibration and control of printers
JP6902365B2 (en) 3D modeling method and 3D printer
JP6816442B2 (en) Data processing equipment, 3D modeling system and programs
US8773716B2 (en) Print color predicting apparatus, print color predicting method, and recording medium
US20180162056A1 (en) Shaping method, shaping system, and shaping device
CN102689507A (en) Printing apparatus, printing method, and program
WO2017069245A1 (en) Shaping system, method for controlling shaping operation, shaping control device, and program
JP6705007B2 (en) Molding system, molding method, and manufacturing method of molded article
TWI674965B (en) Method of slicing and printing multi-colour 3d object
JP6621873B2 (en) Stereolithography color 3D printing method
JP7343879B2 (en) Area configuration prediction method and area configuration prediction device
US20170015107A1 (en) Method for limiting amount of ink discharged, method for creating color conversion table, gloss determination device, recording medium having recorded therein gloss determination program, and gloss determination method
JP7357879B2 (en) Colored product manufacturing method and ink ejection device
EP2903253A2 (en) Simulation of preprinted forms
JP7162219B2 (en) Layer structure prediction method and layer structure prediction device
US11716437B2 (en) Converting texture information of object into ink amount information, using values of an MTF as internal scattering and color signal information, to reproduce the object and its texture on a medium
WO2021193185A1 (en) Region configuration prediction method, region configuration prediction device, method for generating shaping data, shaping method, shaping data generation device, shaping system, method for generating printing data, printing method, printing data generation device, and printing system
JP6494242B2 (en) Control apparatus, control method, and computer program for printing apparatus
Nagasawa et al. Layout Estimation for Layered Ink of 3D Printer to Reproduce the Desired Line Spread Function of Skin using Simulated Data.
JP2023146218A (en) Preparation method of molding data, molding data generator, and molding system
JP6922470B2 (en) Information processing device, 3D modeling device, 3D modeling system, setting method, and program
JP2012039320A (en) Image processing system and image processing method
JP6828348B2 (en) Image forming apparatus, image forming system, image forming method, and program
JP6973214B2 (en) Information processing equipment, information processing methods, programs and 3D modeling systems
JP7271379B2 (en) Modeling apparatus and modeling method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230824

R150 Certificate of patent or registration of utility model

Ref document number: 7343879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150