JP7428053B2 - Information processing device, 3D modeling system, 3D data generation method and program - Google Patents

Information processing device, 3D modeling system, 3D data generation method and program Download PDF

Info

Publication number
JP7428053B2
JP7428053B2 JP2020064514A JP2020064514A JP7428053B2 JP 7428053 B2 JP7428053 B2 JP 7428053B2 JP 2020064514 A JP2020064514 A JP 2020064514A JP 2020064514 A JP2020064514 A JP 2020064514A JP 7428053 B2 JP7428053 B2 JP 7428053B2
Authority
JP
Japan
Prior art keywords
unit
layer
dimensional
height information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020064514A
Other languages
Japanese (ja)
Other versions
JP2021163229A (en
Inventor
頼史 土田
伸一 畑中
宏亘 村井
健太 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020064514A priority Critical patent/JP7428053B2/en
Publication of JP2021163229A publication Critical patent/JP2021163229A/en
Application granted granted Critical
Publication of JP7428053B2 publication Critical patent/JP7428053B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置、立体造形システム、立体データ生成方法およびプログラムに関する。 The present invention relates to an information processing device, a three-dimensional modeling system, a three-dimensional data generation method, and a program.

従来、3次元の立体物を造形する立体造形手法として、インクジェット法、溶融物堆積法、ラピッド・プロトタイピング法、インクジェットバインダ法、光造形法、および粉末焼結法等が知られている。このような立体造形手法では、造形対象の立体物の3次元の形状を示す3次元形状情報を用いて、当該立体物を造形することが一般的である。 Conventionally, inkjet methods, melt deposition methods, rapid prototyping methods, inkjet binder methods, stereolithography, powder sintering methods, and the like are known as three-dimensional modeling methods for modeling three-dimensional objects. In such a three-dimensional modeling method, it is common to model a three-dimensional object using three-dimensional shape information indicating the three-dimensional shape of the three-dimensional object.

上述した3次元形状情報の作成手法としては、造形対象の立体物の見本となる造形物を測定して作成する方法、造形対象の立体物を示す3次元の画像データから作成する方法、および造形対象の立体物を示す2次元の画像データに高さ情報を付与して作成する方法等が挙げられる。 The above-mentioned three-dimensional shape information creation methods include a method of measuring and creating a model of a three-dimensional object to be modeled, a method of creating it from three-dimensional image data representing the three-dimensional object to be modeled, and a method of creating three-dimensional shape information from three-dimensional image data representing the three-dimensional object to be modeled. Examples include a method of creating two-dimensional image data showing a target three-dimensional object by adding height information.

このような3次元形状情報を作成する技術として、2次元の画像データにより示される平面形状の内部に1つの頂点と、この頂点の高さとを指定することで、平面形状の周囲部から頂点へ向けて高さが変化する立体形状のデータを生成する技術が開示されている(例えば特許文献1)。 As a technology for creating such three-dimensional shape information, by specifying one vertex and the height of this vertex inside the planar shape represented by two-dimensional image data, it is possible to move from the periphery of the planar shape to the vertex. A technique for generating data of a three-dimensional shape whose height changes toward the object has been disclosed (for example, Patent Document 1).

しかしながら、特許文献1に記載された技術では、1つの頂点を指定し、周辺部から1つの頂点に向けて高さが変化する錐状の立体形状(例えば円錐形状等)しか生成することができないという問題がある。 However, with the technology described in Patent Document 1, it is only possible to specify one vertex and generate only a conical three-dimensional shape (for example, a conical shape) whose height changes from the periphery toward the one vertex. There is a problem.

本発明は、上述の問題点に鑑みてなされたものであって、簡便な操作で自由度の高い立体データを生成することができる情報処理装置、立体造形システム、立体データ生成方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides an information processing device, a three-dimensional modeling system, a three-dimensional data generation method, and a program that can generate three-dimensional data with a high degree of freedom with simple operations. The purpose is to

上述した課題を解決し、目的を達成するために、本発明は、立体物の画像データから分割された複数のレイヤ画像を、表示部に表示させる表示制御部と、前記各レイヤ画像について、立体形状を造形するための高さ情報を生成する生成部と、前記生成部により生成された前記各レイヤ画像の前記高さ情報を合成する合成部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the objects, the present invention provides a display control unit that displays a plurality of layer images divided from image data of a three-dimensional object on a display unit, and a display control unit that displays a plurality of layer images divided from image data of a three-dimensional object, and a The present invention is characterized in that it includes a generation section that generates height information for modeling a shape, and a synthesis section that synthesizes the height information of the layer images generated by the generation section.

本発明によれば、簡便な操作で自由度の高い立体データを生成することができる。 According to the present invention, stereoscopic data with a high degree of freedom can be generated with simple operations.

図1は、実施形態に係る立体造形システムの全体の外観の一例を示す図である。FIG. 1 is a diagram showing an example of the overall appearance of a three-dimensional modeling system according to an embodiment. 図2は、実施形態に係る立体造形装置の平面図である。FIG. 2 is a plan view of the three-dimensional modeling apparatus according to the embodiment. 図3は、実施形態に係る立体造形装置の側面図である。FIG. 3 is a side view of the three-dimensional modeling apparatus according to the embodiment. 図4は、実施形態に係る立体造形装置の正面図である。FIG. 4 is a front view of the three-dimensional modeling apparatus according to the embodiment. 図5は、実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of the hardware configuration of the information processing device according to the embodiment. 図6は、実施形態に係る立体造形装置のハードウェア構成に一例を示す図である。FIG. 6 is a diagram showing an example of the hardware configuration of the three-dimensional modeling apparatus according to the embodiment. 図7は、実施形態に係る立体造形システムの機能ブロックの構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of the configuration of functional blocks of the three-dimensional modeling system according to the embodiment. 図8は、立体物の画像データから各レイヤの画像に分割する動作を説明する図である。FIG. 8 is a diagram illustrating an operation of dividing image data of a three-dimensional object into images of each layer. 図9は、レイヤを合成して3次元データを得るためのメイン画面の一例を示す図である。FIG. 9 is a diagram showing an example of a main screen for combining layers to obtain three-dimensional data. 図10は、高さ情報設定画面の一例を示す図である。FIG. 10 is a diagram showing an example of a height information setting screen. 図11は、高さ情報を説明する図である。FIG. 11 is a diagram illustrating height information. 図12は、高さ情報の生成方法の一例を説明する図である。FIG. 12 is a diagram illustrating an example of a method for generating height information. 図13は、高さ情報の生成方法の一例を説明する図である。FIG. 13 is a diagram illustrating an example of a method for generating height information. 図14は、対象領域の任意の一点から輪郭までの距離を説明する図である。FIG. 14 is a diagram illustrating the distance from an arbitrary point in the target area to the contour. 図15は、高さ情報を加算する動作の一例を説明する図である。FIG. 15 is a diagram illustrating an example of the operation of adding height information. 図16は、高さ情報を加算する動作の一例を説明する図である。FIG. 16 is a diagram illustrating an example of the operation of adding height information. 図17は、高さ情報を加算する動作の一例を説明する図である。FIG. 17 is a diagram illustrating an example of the operation of adding height information. 図18は、高さ情報を減算する動作の一例を説明する図である。FIG. 18 is a diagram illustrating an example of an operation for subtracting height information. 図19は、色情報の一例を示す図である。FIG. 19 is a diagram showing an example of color information. 図20は、高さ情報を概念的に表した図である。FIG. 20 is a diagram conceptually representing height information. 図21は、層情報の生成方法を説明する図である。FIG. 21 is a diagram illustrating a method of generating layer information. 図22は、立体物の造形方法の一例を示す図である。FIG. 22 is a diagram illustrating an example of a method for modeling a three-dimensional object. 図23は、立体物の造形方法の一例を示す図である。FIG. 23 is a diagram illustrating an example of a method for modeling a three-dimensional object. 図24は、立体物の造形方法の一例を示す図である。FIG. 24 is a diagram illustrating an example of a method for modeling a three-dimensional object. 図25は、立体物の造形方法の一例を示す図である。FIG. 25 is a diagram illustrating an example of a method for modeling a three-dimensional object. 図26は、実施形態に係る情報処理装置の高さ情報の生成処理の流れの一例を示すフローチャートである。FIG. 26 is a flowchart illustrating an example of the flow of height information generation processing of the information processing apparatus according to the embodiment. 図27は、実施形態に係る立体造形装置の立体物の造形動作の流れの一例を示すフローチャートである。FIG. 27 is a flowchart showing an example of the flow of the three-dimensional object modeling operation of the three-dimensional modeling apparatus according to the embodiment. 図28は、実施形態に係る立体造形装置の立体物の造形動作における造形処理の流れの一例を示すフローチャートである。FIG. 28 is a flowchart illustrating an example of the flow of modeling processing in the three-dimensional object modeling operation of the three-dimensional modeling apparatus according to the embodiment. 図29は、変形例に係る立体造形装置のヘッドユニットの構成の一例を示す図である。FIG. 29 is a diagram illustrating an example of the configuration of a head unit of a three-dimensional modeling apparatus according to a modification.

以下に、図1~図29を参照しながら、本発明に係る情報処理装置、立体造形システム、立体データ生成方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Embodiments of an information processing device, a three-dimensional modeling system, a three-dimensional data generation method, and a program according to the present invention will be described in detail below with reference to FIGS. 1 to 29. Further, the present invention is not limited to the following embodiments, and the constituent elements in the following embodiments include those that can be easily conceived by a person skilled in the art, those that are substantially the same, and those that are within the so-called equivalent range. is included. Furthermore, various omissions, substitutions, changes, and combinations of constituent elements can be made without departing from the gist of the following embodiments.

(立体造形システムの全体構成)
図1は、実施形態に係る立体造形システムの全体の外観の一例を示す図である。図1を参照しながら、本実施形態に係る立体造形システム1の全体構成について説明する。
(Overall configuration of 3D printing system)
FIG. 1 is a diagram showing an example of the overall appearance of a three-dimensional modeling system according to an embodiment. The overall configuration of a three-dimensional modeling system 1 according to this embodiment will be described with reference to FIG. 1.

図1に示すように、立体造形システム1は、情報処理装置10と、立体造形装置20と、を含む。 As shown in FIG. 1, the three-dimensional modeling system 1 includes an information processing device 10 and a three-dimensional modeling device 20.

情報処理装置10は、立体造形装置20で立体物を造形するための3次元データを生成するための情報処理装置である。情報処理装置10は、例えば、PC(Personal Computer)、またはタブレット端末等の汎用の情報処理装置であってもよく、または、立体造形装置20の専用の情報処理装置であってもよい。なお、情報処理装置10は、立体造形装置20に内蔵されているものとしてもよい。 The information processing device 10 is an information processing device for generating three-dimensional data for modeling a three-dimensional object with the three-dimensional modeling device 20. The information processing device 10 may be a general-purpose information processing device such as a PC (Personal Computer) or a tablet terminal, or may be an information processing device dedicated to the three-dimensional modeling device 20. Note that the information processing device 10 may be built into the three-dimensional modeling device 20.

また、情報処理装置10は、例えばUSB(Universal Serial Bus)規格のケーブルによって、立体造形装置20に接続される。なお、情報処理装置10は、TCP(Transmission Control Protocol)/IP(Internet Protocol)に準拠したイーサネット(登録商標)のケーブルによって、インターネットまたはLAN(Local Area Network)等のネットワークを介して、立体造形装置20とデータ通信が可能となるように接続されるものとしてもよい。情報処理装置10は、上述の接続態様に基づく通信により、生成した3次元データを、立体造形装置20へ送信する。 Further, the information processing device 10 is connected to the three-dimensional modeling device 20 by, for example, a USB (Universal Serial Bus) standard cable. Note that the information processing device 10 connects to the three-dimensional modeling device via a network such as the Internet or a LAN (Local Area Network) using an Ethernet (registered trademark) cable that is compliant with TCP (Transmission Control Protocol)/IP (Internet Protocol). It may also be connected to enable data communication with 20. The information processing device 10 transmits the generated three-dimensional data to the three-dimensional modeling device 20 through communication based on the connection mode described above.

立体造形装置20は、インクジェット方式の立体物の造形装置である。立体造形装置20は、再現する立体物のデータ(3次元データ)に基づいて、ガイド部材692に沿って副走査方向に移動するステージ695上の記録媒体Pに液体の紫外線硬化インクIを吐出するヘッドユニット670を備えている。 The three-dimensional modeling device 20 is an inkjet type three-dimensional object modeling device. The three-dimensional modeling apparatus 20 discharges liquid ultraviolet curable ink I onto a recording medium P on a stage 695 that moves in the sub-scanning direction along a guide member 692 based on data (three-dimensional data) of a three-dimensional object to be reproduced. A head unit 670 is provided.

ヘッドユニット670は、記録媒体Pに吐出された紫外線硬化インクIに紫外線を照射して硬化させて造形層Lを形成する照射装置672を備えている。また、ヘッドユニット670は、ガイド部材691に沿って主走査方向に移動するキャリッジ693により支持されている。また、ヘッドユニット670は、供給チューブ662を経由して、吐出する紫外線硬化インクIが供給される。そして、立体造形装置20は、紫外線硬化インクIを造形層L上に吐出して、照射装置672の紫外線による硬化処理を繰り返すことによって、立体物を造形する。 The head unit 670 includes an irradiation device 672 that irradiates the ultraviolet curable ink I ejected onto the recording medium P with ultraviolet rays to cure the ink and form the modeling layer L. Further, the head unit 670 is supported by a carriage 693 that moves in the main scanning direction along a guide member 691. Further, the head unit 670 is supplied with the ultraviolet curing ink I to be ejected via the supply tube 662 . Then, the three-dimensional modeling apparatus 20 models a three-dimensional object by discharging the ultraviolet curable ink I onto the modeling layer L and repeating the curing process using the ultraviolet rays of the irradiation device 672.

記録媒体Pとしては、ヘッドユニット670から吐出された紫外線硬化インクIが定着する任意の材料が用いられる。例えば、記録媒体Pは、記録紙等の紙、キャンバス等の布、またはシート等のプラスチックである。 As the recording medium P, any material to which the ultraviolet curing ink I discharged from the head unit 670 is fixed is used. For example, the recording medium P is paper such as recording paper, cloth such as canvas, or plastic such as a sheet.

(立体造形装置の全体構成)
図2は、実施形態に係る立体造形装置の平面図である。図3は、実施形態に係る立体造形装置の側面図である。図4は、実施形態に係る立体造形装置の正面図である。図2~図4を参照しながら、本実施形態に係る立体造形装置20の全体構成について説明する。
(Overall configuration of three-dimensional modeling device)
FIG. 2 is a plan view of the three-dimensional modeling apparatus according to the embodiment. FIG. 3 is a side view of the three-dimensional modeling apparatus according to the embodiment. FIG. 4 is a front view of the three-dimensional modeling apparatus according to the embodiment. The overall configuration of the three-dimensional modeling apparatus 20 according to this embodiment will be described with reference to FIGS. 2 to 4.

図2~図4に示すように、立体造形装置20は、ヘッドユニット670と、ステージ695と、タンク機構660と、メンテナンス機構680と、を備えている。 As shown in FIGS. 2 to 4, the three-dimensional modeling apparatus 20 includes a head unit 670, a stage 695, a tank mechanism 660, and a maintenance mechanism 680.

ヘッドユニット670は、上述のように、ステージ695上の記録媒体Pに液体の紫外線硬化インクIを吐出するユニットである。ヘッドユニット670は、ガイド部材691に沿って図2および図4に示すX方向(主走査方向)に移動するキャリッジ693に支持されている。ガイド部材691は、立体造形装置20の筐体の両側の側面650によって保持されている。キャリッジ693は、モータによってプーリおよびベルトを介して、主走査方向に往復移動される。また、ヘッドユニット670は、モータによって図3および図4に示すZ方向(高さ方向)に移動可能なように、キャリッジ693に支持されている。 The head unit 670 is a unit that discharges liquid ultraviolet curable ink I onto the recording medium P on the stage 695, as described above. The head unit 670 is supported by a carriage 693 that moves in the X direction (main scanning direction) shown in FIGS. 2 and 4 along a guide member 691. The guide member 691 is held by the side surfaces 650 on both sides of the casing of the three-dimensional modeling apparatus 20. The carriage 693 is reciprocated in the main scanning direction by a motor via a pulley and a belt. Further, the head unit 670 is supported by a carriage 693 so as to be movable in the Z direction (height direction) shown in FIGS. 3 and 4 by a motor.

ヘッドユニット670には、6種の紫外線硬化インクI(以下、単に「インク」と称する場合がある)をそれぞれ吐出する吐出ヘッド671K、671C、671M、671Y、671CL、671Wが、X方向に沿って順に配置されている。なお、吐出ヘッド671K、671C、671M、671Y、671CL、671Wについて、任意の吐出ヘッドを示す場合、または総称する場合、単に「吐出ヘッド671」と称するものとする。また、ヘッドユニット670は、6種のインクをそれぞれ吐出する吐出ヘッド671を備えるものとしているが、これに限定されるものではなく、インクは6種に限られず、画像の再現上、必要な色の種類に応じて1種以上の任意の種類であってもよい。この場合、インクの種類に応じて1以上の吐出ヘッド671を備えるものとしてもよい。例えば、インクの種類が7以上である場合、ヘッドユニット670に追加の吐出ヘッド671を設けてもよく、また、インクの種類が5以下である場合、いずれのかの吐出ヘッド671を稼動させないか、搭載しなくてもよい。 The head unit 670 includes ejection heads 671K, 671C, 671M, 671Y, 671CL, and 671W that eject six types of ultraviolet curable ink I (hereinafter sometimes simply referred to as "ink"), respectively, along the X direction. They are arranged in order. Note that the ejection heads 671K, 671C, 671M, 671Y, 671CL, and 671W are simply referred to as "ejection heads 671" when referring to any ejection head or when collectively referring to them. Furthermore, the head unit 670 is equipped with an ejection head 671 that ejects each of six types of ink, but the invention is not limited to this. It may be one or more arbitrary types depending on the type. In this case, one or more ejection heads 671 may be provided depending on the type of ink. For example, if the types of ink are 7 or more, an additional ejection head 671 may be provided in the head unit 670, and if the type of ink is 5 or less, either one of the ejection heads 671 may not be operated. It does not need to be installed.

吐出ヘッド671Kは、キープレートとしてのブラック(K)の紫外線硬化インクを吐出する。吐出ヘッド671Cは、シアン(C)の紫外線硬化インクを吐出する。吐出ヘッド671Mは、マゼンタ(M)の紫外線硬化インクを吐出する。吐出ヘッド671Yは、イエロー(Y)の紫外線硬化インクを吐出する。吐出ヘッド671CLは、クリア(CL)の紫外線硬化インクを吐出する。吐出ヘッド671Wは、ホワイト(W)の紫外線硬化インクを吐出する。各吐出ヘッド671は、ノズルまたはノズル列を有しており、タンク機構660から供給された紫外線硬化インクを吐出する。 The ejection head 671K ejects black (K) ultraviolet curing ink as a key plate. The ejection head 671C ejects cyan (C) ultraviolet curing ink. The ejection head 671M ejects magenta (M) ultraviolet curing ink. The ejection head 671Y ejects yellow (Y) ultraviolet curing ink. The ejection head 671CL ejects clear (CL) ultraviolet curing ink. The ejection head 671W ejects white (W) ultraviolet curing ink. Each ejection head 671 has a nozzle or a nozzle array, and ejects the ultraviolet curing ink supplied from the tank mechanism 660.

また、ヘッドユニット670には、6つの吐出ヘッド671の両側にそれぞれ照射装置672が配置されている。照射装置672は、吐出ヘッド671から記録媒体Pへ吐出された紫外線硬化インクを硬化するための紫外線を照射する紫外線照射装置である。なお、紫外線硬化インクを硬化させることが可能であれば、電子線照射装置等のその他の照射装置であってもよい。また、照射装置の種類としては、高圧水銀灯、超高圧水銀灯、メタルハライドランプ等が挙げられる。超高圧水銀灯は、点光源であるが、光学系と組み合わせて光利用効率を高くした短波長領域の照射が可能である。メタルハライドランプは、波長領域が広いため有効である。メタルハライドランプには、インクに含まれる光開始剤の吸収スペクトルに応じてPb、Sn、Fe等の金属のハロゲン化物が用いられる。また、照射装置672には、紫外線等の照射により発生するオゾンを除去する機構が具備されていることが好ましい。また、照射装置672の数は2つに限定されず、例えば、ヘッドユニット670を往復させて造形するか否か等に応じて、任意の数を配置してもよい。また、2つの照射装置672のうち1つだけ稼働させてもよい。 Further, in the head unit 670, irradiation devices 672 are arranged on both sides of the six ejection heads 671, respectively. The irradiation device 672 is an ultraviolet irradiation device that irradiates ultraviolet rays for curing the ultraviolet curable ink ejected from the ejection head 671 onto the recording medium P. Note that any other irradiation device such as an electron beam irradiation device may be used as long as it is capable of curing the ultraviolet curable ink. Further, examples of the types of irradiation devices include high-pressure mercury lamps, ultra-high-pressure mercury lamps, metal halide lamps, and the like. Ultra-high-pressure mercury lamps are point light sources, but when combined with an optical system, they can emit light in a short wavelength range with high light utilization efficiency. Metal halide lamps are effective because they have a wide wavelength range. Metal halides such as Pb, Sn, and Fe are used in metal halide lamps depending on the absorption spectrum of the photoinitiator contained in the ink. Further, it is preferable that the irradiation device 672 is equipped with a mechanism for removing ozone generated by irradiation with ultraviolet rays or the like. Further, the number of irradiation devices 672 is not limited to two, and any number may be arranged depending on, for example, whether or not the head unit 670 is moved back and forth to perform modeling. Alternatively, only one of the two irradiation devices 672 may be operated.

ステージ695は、図2および図3に示すY方向(副走査方向)に延びる2つのガイド部材692に沿って、モータによってプーリおよびベルトを介して副走査方向に往復移動される。ステージ695には、吐出ヘッド671からと吐出されるインクによって立体物を造形するための記録媒体Pが配置される。 The stage 695 is reciprocated in the sub-scanning direction by a motor via a pulley and a belt along two guide members 692 extending in the Y direction (sub-scanning direction) shown in FIGS. 2 and 3. A recording medium P for modeling a three-dimensional object using ink ejected from the ejection head 671 is placed on the stage 695 .

タンク機構660は、ブラック(K)、シアン(C)、マゼンタ(M)、イエロー(Y)、クリア(CL)およびホワイト(W)の各インクを収容した複数のタンク661が搭載されている。タンク661に収容された各インクは、6つの供給チューブ662を介して、各吐出ヘッド671へ供給される。 The tank mechanism 660 is equipped with a plurality of tanks 661 containing black (K), cyan (C), magenta (M), yellow (Y), clear (CL), and white (W) inks. Each ink contained in the tank 661 is supplied to each ejection head 671 via six supply tubes 662.

メンテナンス機構680は、吐出ヘッド671の維持回復を行うユニットであり、立体造形装置20においてX方向の一方側に配置されている。メンテナンス機構680は、図2に示すように、キャップ682と、ワイパ683と、を有する。キャップ682は、吐出ヘッド671のノズル面(ノズルが形成された面)に密着して、メンテナンス機構680によるノズル内のインクの吸引により、ノズルに詰まった高粘度化したインクを排出させるための部材である。ワイパ683は、ノズルのメニスカスの形成のため、ノズル面をワイピング(払拭)する部材である。メンテナンス機構680は、吐出ヘッド671によるインクの吐出が行われない場合に、当該吐出ヘッド671のノズル面をキャップ682で覆い、インクが乾燥することを防止する。 The maintenance mechanism 680 is a unit that maintains and recovers the ejection head 671, and is arranged on one side of the three-dimensional modeling apparatus 20 in the X direction. The maintenance mechanism 680 includes a cap 682 and a wiper 683, as shown in FIG. The cap 682 is a member that is in close contact with the nozzle surface (the surface on which the nozzles are formed) of the ejection head 671 and allows the maintenance mechanism 680 to suction the ink inside the nozzle to discharge highly viscous ink that has become clogged in the nozzle. It is. The wiper 683 is a member that wipes the nozzle surface in order to form a meniscus of the nozzle. When the ejection head 671 does not eject ink, the maintenance mechanism 680 covers the nozzle surface of the ejection head 671 with a cap 682 to prevent the ink from drying out.

(情報処理装置のハードウェア構成)
図5は、実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。図5を参照しながら、本実施形態に係る情報処理装置10のハードウェア構成について説明する。
(Hardware configuration of information processing device)
FIG. 5 is a diagram illustrating an example of the hardware configuration of the information processing device according to the embodiment. The hardware configuration of the information processing device 10 according to this embodiment will be described with reference to FIG. 5.

図5に示すように、情報処理装置10は、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、補助記憶装置505と、メディアドライブ507と、ディスプレイ508(表示装置)と、ネットワークI/F509(受信部)と、キーボード511と、マウス512と、DVD(Digital Versatile Disc)ドライブ514と、外部I/F515と、を備えている。 As shown in FIG. 5, the information processing device 10 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an auxiliary storage device 505, and a media drive 507. , a display 508 (display device), a network I/F 509 (reception unit), a keyboard 511, a mouse 512, a DVD (Digital Versatile Disc) drive 514, and an external I/F 515.

CPU501は、情報処理装置10全体の動作を制御する演算装置である。ROM502は、情報処理装置10用のプログラムを記憶している不揮発性記憶装置である。RAM503は、CPU501のワークエリアとして使用される揮発性記憶装置である。 The CPU 501 is a calculation device that controls the overall operation of the information processing device 10 . The ROM 502 is a nonvolatile storage device that stores programs for the information processing device 10. The RAM 503 is a volatile storage device used as a work area for the CPU 501.

補助記憶装置505は、造形対象となる3次元データの基となる立体物の画像データ等、およびプログラム等を記憶するHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の記憶装置である。メディアドライブ507は、CPU501の制御に従って、フラッシュメモリ等の記録メディア506に対するデータの読み出しおよび書き込みを制御する装置である。 The auxiliary storage device 505 is a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores image data of a three-dimensional object, which is the basis of three-dimensional data to be modeled, and programs. The media drive 507 is a device that controls reading and writing of data to and from a recording medium 506 such as a flash memory under the control of the CPU 501.

ディスプレイ508は、カーソル、メニュー、ウィンドウ、文字または画像等の各種情報を表示する液晶または有機EL(Electro-Luminescence)等によって構成された表示装置である。 The display 508 is a display device configured with a liquid crystal, an organic EL (Electro-Luminescence), or the like that displays various information such as a cursor, menu, window, characters, or images.

ネットワークI/F509は、ネットワークを利用して立体造形装置20等の外部装置とデータを通信するためのインターフェースである。ネットワークI/F509は、例えば、イーサネットに対応し、TCP/IP等に準拠した通信が可能なNIC(Network Interface Card)等である。 The network I/F 509 is an interface for communicating data with an external device such as the three-dimensional modeling apparatus 20 using a network. The network I/F 509 is, for example, a NIC (Network Interface Card) that is compatible with Ethernet and capable of communication based on TCP/IP or the like.

キーボード511は、文字、数字、各種指示の選択、およびカーソルの移動等を行う入力装置である。マウス512は、各種指示の選択および実行、処理対象の選択、ならびにカーソルの移動等を行うための入力装置である。 The keyboard 511 is an input device for selecting letters, numbers, various instructions, moving a cursor, and the like. The mouse 512 is an input device for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like.

DVDドライブ514は、着脱自在な記憶媒体の一例としてのDVD-ROMまたはDVD-R(Digital Versatile Disk Recordable)等のDVD513に対するデータの読み出しおよび書き込みを制御する装置である。 The DVD drive 514 is a device that controls reading and writing of data to and from a DVD 513 such as a DVD-ROM or a DVD-R (Digital Versatile Disk Recordable), which is an example of a removable storage medium.

外部I/F515は、外部装置(例えば立体造形装置20等)とデータ通信を行うためのUSB(Universal Serial Bus)等の規格に対応したインターフェースである。 The external I/F 515 is an interface compatible with standards such as USB (Universal Serial Bus) for data communication with an external device (for example, the three-dimensional modeling apparatus 20, etc.).

上述のCPU501、ROM502、RAM503、補助記憶装置505、メディアドライブ507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、DVDドライブ514および外部I/F515は、アドレスバスおよびデータバス等のバス510によって互いに通信可能に接続されている。 The above-mentioned CPU 501, ROM 502, RAM 503, auxiliary storage device 505, media drive 507, display 508, network I/F 509, keyboard 511, mouse 512, DVD drive 514, and external I/F 515 are connected to a bus 510 such as an address bus and a data bus. are communicably connected to each other.

なお、図5に示した情報処理装置10のハードウェア構成は一例を示すものであり、図5に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。また、情報処理装置10は、図5に示す単一の情報処理装置で構成されていることに限定されず、複数の情報処理装置等の複数のネットワーク機器により構成されているものとしてもよい。 Note that the hardware configuration of the information processing device 10 shown in FIG. 5 is an example, and it is not necessary to include all the components shown in FIG. 5, or it may include other components. Further, the information processing device 10 is not limited to being configured by a single information processing device shown in FIG. 5, but may be configured by a plurality of network devices such as a plurality of information processing devices.

(立体造形装置のハードウェア構成)
図6は、実施形態に係る立体造形装置のハードウェア構成に一例を示す図である。図6を参照しながら、本実施形態に係る立体造形装置20のハードウェア構成について説明する。
(Hardware configuration of 3D modeling device)
FIG. 6 is a diagram showing an example of the hardware configuration of the three-dimensional modeling apparatus according to the embodiment. The hardware configuration of the three-dimensional modeling apparatus 20 according to this embodiment will be described with reference to FIG. 6.

図6に示すように、立体造形装置20は、制御部600と、操作パネル621と、センサ622と、を備えている。また、立体造形装置20が、ヘッドユニット670と、メンテナンス機構680と、を備えているのは上述した通りである。 As shown in FIG. 6, the three-dimensional modeling apparatus 20 includes a control section 600, an operation panel 621, and a sensor 622. Further, as described above, the three-dimensional modeling apparatus 20 includes the head unit 670 and the maintenance mechanism 680.

制御部600は、立体造形装置20全体の動作を制御する装置である。制御部600は、図6に示すように、CPU601と、ROM602と、RAM603と、NVRAM(Non-Volatile RAM)604と、ASIC(Application Specific Integrated Circuit)605と、I/O606と、ホストI/F607と、ヘッド駆動部611と、照射駆動部612と、モータ駆動部613と、メンテナンス駆動部614と、を備えている。 The control unit 600 is a device that controls the operation of the three-dimensional modeling apparatus 20 as a whole. As shown in FIG. 6, the control unit 600 includes a CPU 601, a ROM 602, a RAM 603, an NVRAM (Non-Volatile RAM) 604, an ASIC (Application Specific Integrated Circuit) 605, and an I/O 606. , host I/F607 , a head drive section 611 , an irradiation drive section 612 , a motor drive section 613 , and a maintenance drive section 614 .

CPU601は、立体造形装置20全体の動作制御を司る演算装置である。ROM602は、立体造形装置20の電源が遮断されている間もデータおよびプログラムを保持している不揮発性メモリである。RAM603は、CPU601のワークエリア(作業領域)として機能する揮発性メモリである。NVRAM604は、印刷データ(3次元データ)、設定情報、および各種プログラム等を記憶する不揮発性記憶装置である。 The CPU 601 is a calculation device that controls the operation of the three-dimensional modeling apparatus 20 as a whole. The ROM 602 is a nonvolatile memory that retains data and programs even when the power to the three-dimensional modeling apparatus 20 is cut off. The RAM 603 is a volatile memory that functions as a work area for the CPU 601. The NVRAM 604 is a nonvolatile storage device that stores print data (three-dimensional data), setting information, various programs, and the like.

ASIC605は、印刷データに対する各種信号処理、および並び替え等を行なう画像処理、またはその他立体造形装置20全体を制御するための入出力信号を処理する集積回路である。 The ASIC 605 is an integrated circuit that performs various signal processing on print data, image processing such as sorting, and other input/output signals for controlling the entire three-dimensional modeling apparatus 20.

I/O606は、各種センサ(センサ622等)からの検出信号を入力するインターフェースである。ホストI/F607は、外部機器(例えば情報処理装置10)との間でデータ(3次元データ等)および信号の送受を行うインターフェースである。ホストI/F607は、例えば、TCP/IPに準拠したネットワークインターフェース、または、USB等のインターフェースであってもよい。 I/O 606 is an interface that inputs detection signals from various sensors (sensor 622, etc.). The host I/F 607 is an interface that sends and receives data (such as three-dimensional data) and signals to and from an external device (for example, the information processing device 10). The host I/F 607 may be, for example, a TCP/IP compliant network interface or a USB interface.

ヘッド駆動部611は、吐出ヘッド671を駆動制御する。ヘッド駆動部611は、印刷データ(3次元データに基づく情報)をシリアルデータで吐出ヘッド671内部の駆動回路へ転送する。このとき、ヘッド駆動部611は、印刷データの転送および転送の確定等に必要な転送クロックおよびラッチ信号、ならびに、吐出ヘッド671からインクを吐出する際に使用する駆動波形を生成し、吐出ヘッド671内部の駆動回路へ出力する。吐出ヘッド671内部の駆動回路は、入力した印刷データに対応する駆動波形を選択的に、吐出ヘッド671の各ノズルの圧電素子(アクチュエータ)に入力する。 The head driving section 611 drives and controls the ejection head 671. The head drive unit 611 transfers print data (information based on three-dimensional data) to the drive circuit inside the ejection head 671 as serial data. At this time, the head drive unit 611 generates a transfer clock and latch signal necessary for transferring print data and confirming the transfer, as well as a drive waveform used when ejecting ink from the ejection head 671. Output to internal drive circuit. The drive circuit inside the ejection head 671 selectively inputs a drive waveform corresponding to the input print data to the piezoelectric element (actuator) of each nozzle of the ejection head 671 .

照射駆動部612は、CPU601の制御下で、照射装置672による紫外線の照射制御を行う。具体的には、照射駆動部612は、紫外線の照射タイミング、照度、および照射時間(光量)等を制御する。 The irradiation drive unit 612 controls the irradiation of ultraviolet rays by the irradiation device 672 under the control of the CPU 601 . Specifically, the irradiation drive unit 612 controls the irradiation timing, illumination intensity, irradiation time (light amount), etc. of ultraviolet rays.

モータ駆動部613は、ヘッドユニット670のキャリッジ693をX方向(主走査方向)に移動させるX方向走査機構696のモータへ駆動電圧を出力することにより、当該モータを駆動する。また、モータ駆動部613は、ステージ695をY方向(副走査方向)に移動させるY方向走査機構697のモータへ駆動電圧を出力することにより、当該モータを駆動する。さらに、モータ駆動部613は、ヘッドユニット670をZ方向(高さ方向)に移動させることによりZ方向走査記憶698のモータへ駆動電圧を出力することにより、当該モータを駆動する。 The motor drive unit 613 outputs a drive voltage to the motor of an X-direction scanning mechanism 696 that moves the carriage 693 of the head unit 670 in the X direction (main scanning direction), thereby driving the motor. Furthermore, the motor drive unit 613 outputs a drive voltage to the motor of the Y-direction scanning mechanism 697 that moves the stage 695 in the Y direction (sub-scanning direction), thereby driving the motor. Further, the motor drive section 613 outputs a drive voltage to the motor of the Z-direction scanning memory 698 by moving the head unit 670 in the Z direction (height direction), thereby driving the motor.

メンテナンス駆動部614は、メンテナンス機構680へ駆動信号を出力することにより、メンテナンス機構680を駆動する。 The maintenance drive unit 614 drives the maintenance mechanism 680 by outputting a drive signal to the maintenance mechanism 680.

操作パネル621は、ユーザの操作に応じた各種の入力を受け付けると共に、各種の情報(例えば、受け付けた操作に応じた情報、立体造形装置20の動作状況を示す情報、および設定画面等)を表示する、入力機能および表示機能を有した装置である。操作パネル621は、例えば、タッチパネル機能を搭載した液晶表示装置(LCD:Liquid Crystal Display)で構成される。なお、操作パネル621は、液晶表示装置に限定されるものではなく、例えば、タッチパネル機能が搭載された有機ELの表示装置で構成されていてもよい。また、操作パネル621は、タッチパネル機能に加えてまたはこれに代えて、ハードウェアキー等の操作部、またはランプ等の表示部を設けることもできる。 The operation panel 621 receives various inputs according to the user's operations, and displays various information (for example, information according to the received operations, information indicating the operating status of the three-dimensional modeling apparatus 20, a setting screen, etc.) This device has an input function and a display function. The operation panel 621 includes, for example, a liquid crystal display (LCD) equipped with a touch panel function. Note that the operation panel 621 is not limited to a liquid crystal display device, and may be configured with, for example, an organic EL display device equipped with a touch panel function. In addition to or in place of the touch panel function, the operation panel 621 can also be provided with an operation section such as a hardware key, or a display section such as a lamp.

なお、図6に示した立体造形装置20のハードウェア構成は、一例を示すものであり、図6に示した構成要素を全て含む必要はなく、または、その他の構成要素を含むものとしてもよい。 Note that the hardware configuration of the three-dimensional modeling apparatus 20 shown in FIG. 6 is an example, and does not need to include all the components shown in FIG. 6, or may include other components. .

(立体造形システムの機能ブロックの構成および動作)
図7は、実施形態に係る立体造形システムの機能ブロックの構成の一例を示す図である。図8は、立体物の画像データから各レイヤの画像に分割する動作を説明する図である。図7および図8を参照しながら、本実施形態に係る立体造形システム1の機能ブロックの構成および動作について説明する。
(Configuration and operation of functional blocks of 3D printing system)
FIG. 7 is a diagram illustrating an example of the configuration of functional blocks of the three-dimensional modeling system according to the embodiment. FIG. 8 is a diagram illustrating an operation of dividing image data of a three-dimensional object into images of each layer. The configuration and operation of the functional blocks of the three-dimensional modeling system 1 according to this embodiment will be described with reference to FIGS. 7 and 8.

図7に示すように、立体造形システム1の情報処理装置10は、通信部101と、入力部102と、分割部103と、表示制御部104と、表示部105と、対象領域抽出部106(抽出部)と、高さ情報生成部107(生成部)と、合成部108と、出力部109と、記憶部110と、を有する。 As shown in FIG. 7, the information processing device 10 of the three-dimensional modeling system 1 includes a communication section 101, an input section 102, a division section 103, a display control section 104, a display section 105, and a target area extraction section 106 ( (extracting section), a height information generating section 107 (generating section), a combining section 108, an output section 109, and a storage section 110.

通信部101は、立体造形装置20との間で各種データ(例えば3次元データ等)の通信を行う機能部である。通信部101は、図5に示すCPU501によるプログラムの実行、およびネットワークI/F509または外部I/F515によって実現される。 The communication unit 101 is a functional unit that communicates various data (for example, three-dimensional data, etc.) with the three-dimensional modeling apparatus 20. The communication unit 101 is realized by the execution of a program by the CPU 501 shown in FIG. 5, and by the network I/F 509 or the external I/F 515.

入力部102は、ユーザからのデータの入力操作を受け付ける機能部である。入力部102は、例えば、図5に示すキーボード511およびマウス512によって実現される。 The input unit 102 is a functional unit that accepts data input operations from the user. The input unit 102 is realized by, for example, a keyboard 511 and a mouse 512 shown in FIG. 5.

分割部103は、立体物の画像データ(2次元の画像データ)について、複数のモノクロ(グレースケール)の画像データに分割する機能部である。ここで、立体物の画像データは、例えば、立体物を撮像した画像データとしてもよく、立体物を描画した画像データ等であってもよい。また、立体物の画像データは、通信部101により受信された画像データであってもよく、記憶部110に記憶された画像データであってもよい。また、本実施形態においては、立体物の画像データは、例えばR(赤)、G(緑)、B(青)のカラー画像データであるものとする。また、分割部103による分割の対象となる立体物の画像データは、通信部101により受信された画像データであってもよく、記憶部110に記憶された画像データであってもよい。また、分割部103により分割されたグレーススケールの画像データは、各画素の画素値として、例えば8ビット(0~255)の階調で示される明度を含む。なお、分割部103により分割されたグレースケールの画像データ(レイヤ画像の一例)を、以下では「レイヤ」と称する場合がある。 The dividing unit 103 is a functional unit that divides image data (two-dimensional image data) of a three-dimensional object into a plurality of monochrome (grayscale) image data. Here, the image data of the three-dimensional object may be, for example, image data obtained by capturing an image of the three-dimensional object, or may be image data obtained by drawing the three-dimensional object. Furthermore, the image data of the three-dimensional object may be image data received by the communication unit 101 or may be image data stored in the storage unit 110. Further, in this embodiment, it is assumed that the image data of the three-dimensional object is, for example, color image data of R (red), G (green), and B (blue). Further, the image data of the three-dimensional object to be divided by the dividing unit 103 may be image data received by the communication unit 101 or may be image data stored in the storage unit 110. Furthermore, the gray scale image data divided by the dividing unit 103 includes brightness indicated by, for example, an 8-bit (0 to 255) gradation as a pixel value of each pixel. Note that the grayscale image data (an example of a layer image) divided by the dividing unit 103 may be referred to as a "layer" below.

図8に示す例では、分割部103は、花の立体物の画像を含む画像データIMGを分割して、2つのレイヤL1、L2に分割している。レイヤL2は、元の画像データIMGに含まれる花群のうち中央の花部分の画像を抽出してグレースケールの画像データとして分割されたものである。レイヤL1は、元の画像データIMGに含まれる花群のうち中央の花部分の画像が除かれたグレースケールの画像データとして分割されたものである。なお、この場合、図8では、レイヤL1において、除かれた中央の花の部分が、明度が「0」(黒)として描画されているが、これに限定されるものではなく、明度が「255」(白)とする画素値で構成されるものとしてもよい。また、分割部103の分割動作の説明上、レイヤL1において、除かれた中央の花の部分が、レイヤL2として描画され、当該レイヤL1の当該部分には画像が描画されていない明度が「0」または「255」の領域となっているが、これに限定されるものではない。例えば、レイヤL1の画像が描画されていない部分にも、新たに画像を追加する処理等によって、画像が含まれているものとしてもよい。 In the example shown in FIG. 8, the dividing unit 103 divides the image data IMG including an image of a three-dimensional flower object into two layers L1 and L2. Layer L2 is obtained by extracting an image of a central flower part from a group of flowers included in the original image data IMG and dividing the extracted image into grayscale image data. The layer L1 is obtained by dividing the original image data IMG into grayscale image data from which the image of the central flower part is removed from the group of flowers. In this case, in FIG. 8, in layer L1, the removed center flower part is drawn with a brightness of "0" (black), but the brightness is not limited to this, and the brightness is "0" (black). 255'' (white). Furthermore, in order to explain the dividing operation of the dividing unit 103, in layer L1, the removed center flower part is drawn as layer L2, and the brightness of the part of layer L1 where no image is drawn is "0". ” or “255”, but it is not limited to this. For example, an image may be included even in a portion of layer L1 where no image is drawn, through a process of adding a new image.

分割部103は、分割したレイヤを、記憶部110に記憶させる。分割部103は、例えば、図5に示すCPU501によるプログラムの実行によって実現される。なお、立体物の画像データから分割された複数のレイヤについては、通信部101を介して外部装置から取得されるものとしてもよい。すなわち、分割部103の機能は当該外部装置のプログラムの実行によって実現されるものとしてもよい。 The dividing unit 103 stores the divided layers in the storage unit 110. The dividing unit 103 is realized, for example, by executing a program by the CPU 501 shown in FIG. Note that the plurality of layers divided from the image data of the three-dimensional object may be acquired from an external device via the communication unit 101. That is, the functions of the dividing unit 103 may be realized by executing a program of the external device.

表示制御部104は、表示部105の表示動作を制御する機能部である。表示制御部104は、例えば、後述する図9に示すメイン画面1000、および、図10に示す高さ情報設定画面1100を、表示部105に表示させる。表示制御部104は、例えば、図5に示すCPU501によるプログラムの実行によって実現される。表示部105は、図5に示すディスプレイ508によって実現される。 The display control unit 104 is a functional unit that controls the display operation of the display unit 105. The display control unit 104 causes the display unit 105 to display, for example, a main screen 1000 shown in FIG. 9 and a height information setting screen 1100 shown in FIG. 10, which will be described later. The display control unit 104 is realized, for example, by executing a program by the CPU 501 shown in FIG. The display unit 105 is realized by a display 508 shown in FIG.

対象領域抽出部106は、後述する図10に示す高さ情報設定画面1100において表示された特定のレイヤの画像において、ユーザによる入力部102を介した操作に従って、立体形状を生成する対象領域を抽出する機能部である。対象領域抽出部106は、例えば、図5に示すCPU501によるプログラムの実行によって実現される。 The target area extracting unit 106 extracts a target area for generating a three-dimensional shape according to the user's operation via the input unit 102 in the image of a specific layer displayed on the height information setting screen 1100 shown in FIG. 10 described later. It is a functional section that performs The target area extraction unit 106 is realized, for example, by executing a program by the CPU 501 shown in FIG.

高さ情報生成部107は、特定のレイヤにおいて対象領域抽出部106により抽出された対象領域において、当該対象領域の画素ごとに高さ情報を生成する機能部である。高さ情報の生成方法については、後述の図10~図14で詳細に説明する。高さ情報生成部107は、例えば、図5に示すCPU501によるプログラムの実行によって実現される。 The height information generation unit 107 is a functional unit that generates height information for each pixel of the target area extracted by the target area extraction unit 106 in a specific layer. The method of generating height information will be explained in detail with reference to FIGS. 10 to 14, which will be described later. The height information generation unit 107 is realized, for example, by executing a program by the CPU 501 shown in FIG.

合成部108は、後述する図9に示すメイン画面1000において、ユーザによる入力部102を介した操作に従って、各レイヤの高さ情報を合成(マージ)する機能部である。具体的には、合成部108は、各レイヤの対応する画素の高さ情報について、加算、減算、乗算、または除算、すなわち四則演算をすることによって、画素ごとに1つの合成された高さ情報を求める。合成部108は、例えば、図5に示すCPU501によるプログラムの実行によって実現される。 The synthesizing unit 108 is a functional unit that synthesizes (merges) the height information of each layer according to the user's operation via the input unit 102 on the main screen 1000 shown in FIG. 9, which will be described later. Specifically, the combining unit 108 performs addition, subtraction, multiplication, or division, that is, four arithmetic operations, on the height information of the corresponding pixels of each layer, thereby generating one piece of combined height information for each pixel. seek. The synthesis unit 108 is realized, for example, by executing a program by the CPU 501 shown in FIG.

出力部109は、分割部103による分割の対象となった立体物の画像データ、および合成部108により合成された高さ情報を、立体造形装置20へ出力する機能部である。出力部109は、例えば、立体物の画像データおよび高さ情報を通信部101を介して、立体造形装置20へ出力するものとすればよい。 The output unit 109 is a functional unit that outputs the image data of the three-dimensional object to be divided by the dividing unit 103 and the height information combined by the combining unit 108 to the three-dimensional modeling apparatus 20. The output unit 109 may output image data and height information of the three-dimensional object to the three-dimensional modeling apparatus 20 via the communication unit 101, for example.

なお、立体物の画像データと、高さ情報とを1つのデータとして扱ってもよい。例えば、立体物の画像データの画素に、画素値としてのRGBの色値だけでなく、高さ情報を関連付けたデータとして扱ってもよい。また、上述の3次元データとは、合成部108により合成された高さ情報と捉えることもでき、上述のように立体物の画像データと高さ情報とが1つのデータとして扱われる場合の当該データと捉えることもできる。 Note that the image data of the three-dimensional object and the height information may be treated as one data. For example, pixels of image data of a three-dimensional object may be handled as data in which not only RGB color values as pixel values but also height information is associated. Furthermore, the above-mentioned three-dimensional data can also be regarded as height information synthesized by the synthesis unit 108, and when the image data and height information of a three-dimensional object are treated as one data as described above. It can also be considered as data.

出力部109は、例えば、図5に示すCPU501によるプログラムの実行によって実現される。 The output unit 109 is realized, for example, by executing a program by the CPU 501 shown in FIG.

記憶部110は、立体物の画像データ、当該画像データに基づく複数のレイヤ、および当該レイヤを合成することにより得られた3次元データ(高さ情報等)を記憶する機能部である。記憶部110は、図5に示す補助記憶装置505によって実現される。 The storage unit 110 is a functional unit that stores image data of a three-dimensional object, a plurality of layers based on the image data, and three-dimensional data (height information, etc.) obtained by combining the layers. The storage unit 110 is realized by the auxiliary storage device 505 shown in FIG.

なお、分割部103、表示制御部104、対象領域抽出部106、高さ情報生成部107、合成部108および出力部109の一部または全部は、ソフトウェアであるプログラムではなく、FPGA(Field-Programmable Gate Array)等のハードウェア回路(集積回路等)によって実現されてもよい。 Note that part or all of the dividing unit 103, display control unit 104, target area extraction unit 106, height information generation unit 107, composition unit 108, and output unit 109 are not software programs, but are FPGA (Field-Programmable It may also be realized by a hardware circuit (integrated circuit, etc.) such as a gate array).

また、図7に示した情報処理装置10の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図7に示した情報処理装置10で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図7に示した情報処理装置10での1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Furthermore, the functions of each functional unit of the information processing device 10 shown in FIG. 7 are conceptually shown, and the structure is not limited to this. For example, a plurality of functional units illustrated as independent functional units in the information processing device 10 shown in FIG. 7 may be configured as one functional unit. On the other hand, the function of one functional unit in the information processing device 10 shown in FIG. 7 may be divided into a plurality of functions and configured as a plurality of functional units.

図7に示すように、立体造形システム1の立体造形装置20は、取得部201と、色情報生成部202と、層情報生成部203と、搬送制御部204と、移動制御部205と、造形部206と、を有する。 As shown in FIG. 7, the three-dimensional modeling apparatus 20 of the three-dimensional modeling system 1 includes an acquisition section 201, a color information generation section 202, a layer information generation section 203, a transport control section 204, a movement control section 205, and a 206.

取得部201は、情報処理装置10から、立体物の画像データおよび高さ情報を取得する機能部である。例えば、取得部201は、情報処理装置10に対して立体物の画像データおよび高さ情報の取得要求を送信し、当該取得要求に対する応答として、情報処理装置10から当該立体物の画像データおよび高さ情報を取得するものとすればよい。または、取得部201は、情報処理装置10からの造形指令と共に、立体物の画像データおよび高さ情報を取得するものとしてもよい。取得部201は、例えば、図6に示すCPU601によるプログラムの実行、およびホストI/F607によって実現される。 The acquisition unit 201 is a functional unit that acquires image data and height information of a three-dimensional object from the information processing device 10. For example, the acquisition unit 201 transmits a request to acquire image data and height information of a three-dimensional object to the information processing device 10, and in response to the acquisition request, the acquisition unit 201 sends the image data and height information of the three-dimensional object from the information processing device 10. It is sufficient if the information is acquired. Alternatively, the acquisition unit 201 may acquire image data and height information of a three-dimensional object along with a modeling command from the information processing apparatus 10. The acquisition unit 201 is realized, for example, by the execution of a program by the CPU 601 and the host I/F 607 shown in FIG.

色情報生成部202は、取得部201により取得された立体物の画像データに基づいて、当該立体物の画像の画素毎のRGBの色値に基づいて色情報を生成する機能部である。例えば、色情報生成部202は、取得部201により取得された立体物の画像データのRGB値をCMYK値に変換することによって、色情報を生成する。色情報生成部202は、例えば、図6に示すCPU601によるプログラムの実行によって実現される。 The color information generation unit 202 is a functional unit that generates color information based on the image data of the three-dimensional object acquired by the acquisition unit 201, based on RGB color values for each pixel of the image of the three-dimensional object. For example, the color information generation unit 202 generates color information by converting the RGB values of the image data of the three-dimensional object acquired by the acquisition unit 201 into CMYK values. The color information generation unit 202 is realized, for example, by executing a program by the CPU 601 shown in FIG.

層情報生成部203は、取得部201により取得された高さ情報と、色情報生成部202により生成された色情報とを用いて、立体物を造形するための層毎の画素の配置を層情報(スライス情報)を生成する機能部である。層情報生成部203による層情報の生成動作については、後述の図21で詳細に説明する。層情報生成部203は、例えば、図6に示すCPU601によるプログラムの実行によって実現される。 The layer information generation unit 203 uses the height information acquired by the acquisition unit 201 and the color information generated by the color information generation unit 202 to determine the arrangement of pixels for each layer for modeling a three-dimensional object. This is a functional unit that generates information (slice information). The layer information generation operation by the layer information generation unit 203 will be described in detail with reference to FIG. 21, which will be described later. The layer information generation unit 203 is realized, for example, by executing a program by the CPU 601 shown in FIG.

搬送制御部204は、ヘッドユニット670により立体物の造形が行われる記録媒体Pが載置されたステージ695の副走査方向(Y方向)の往復移動をさせるために、モータ駆動部613(Y方向走査機構697)の動作を制御する機能部である。搬送制御部204は、例えば、図6に示すCPU601によるプログラムの実行によって実現される。 The conveyance control unit 204 controls the motor drive unit 613 (in the Y direction) to reciprocate in the sub-scanning direction (Y direction) the stage 695 on which the recording medium P on which the three-dimensional object is formed by the head unit 670 is placed. This is a functional unit that controls the operation of the scanning mechanism 697). The transport control unit 204 is realized, for example, by executing a program by the CPU 601 shown in FIG.

移動制御部205は、ヘッドユニット670による立体物の造形動作において、当該ヘッドユニット670の主走査方向(X方向)および高さ方向(Z方向)の往復移動をさせるために、モータ駆動部613(X方向走査機構696、Z方向走査記憶698)の動作を制御する機能部である。移動制御部205は、例えば、図6に示すCPU601によるプログラムの実行によって実現される。 The movement control unit 205 controls the motor drive unit 613 ( This is a functional unit that controls the operations of the X-direction scanning mechanism 696 and the Z-direction scanning memory 698). The movement control unit 205 is realized, for example, by executing a program by the CPU 601 shown in FIG.

造形部206は、層情報生成部203により生成された層毎の層情報に基づいて、記録媒体P上に紫外線硬化インクを積層させ、立体物を造形する機能部である。また、造形部206は、立体物の形状を造形する場合には、色情報が示す色とは異なる色の紫外線硬化インクを用いて造形する。例えば、造形部206は、立体物の形状の造形には、ホワイト(W)、クリア(CL)またはこれらを混合した紫外線硬化インクを用いるものとすればよい。造形部206による立体物の造形処理については、後述の図22~図25で詳細に説明する。造形部206は、図6に示すヘッド駆動部611、照射駆動部612およびヘッドユニット670によって実現される。 The modeling unit 206 is a functional unit that forms a three-dimensional object by laminating ultraviolet curing ink on the recording medium P based on the layer information for each layer generated by the layer information generation unit 203. Furthermore, when modeling the shape of a three-dimensional object, the modeling unit 206 uses ultraviolet curing ink of a different color from the color indicated by the color information. For example, the modeling unit 206 may use white (W), clear (CL), or an ultraviolet curing ink containing a mixture thereof to create the shape of a three-dimensional object. The modeling process of a three-dimensional object by the modeling unit 206 will be described in detail with reference to FIGS. 22 to 25, which will be described later. The modeling section 206 is realized by a head drive section 611, an irradiation drive section 612, and a head unit 670 shown in FIG.

なお、色情報生成部202、層情報生成部203、搬送制御部204および移動制御部205の一部または全部は、ソフトウェアであるプログラムではなく、FPGA等のハードウェア回路(集積回路等)によって実現されてもよい。 Note that part or all of the color information generation unit 202, layer information generation unit 203, transport control unit 204, and movement control unit 205 are realized not by a software program but by a hardware circuit (integrated circuit, etc.) such as an FPGA. may be done.

また、図7に示した立体造形装置20の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図7に示した立体造形装置20で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図7に示した立体造形装置20での1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Moreover, each functional part of the three-dimensional modeling apparatus 20 shown in FIG. 7 shows the function conceptually, and is not limited to such a configuration. For example, a plurality of functional units illustrated as independent functional units in the three-dimensional modeling apparatus 20 shown in FIG. 7 may be configured as one functional unit. On the other hand, the function of one functional section in the three-dimensional modeling apparatus 20 shown in FIG. 7 may be divided into a plurality of parts and configured as a plurality of functional parts.

(画面操作について)
図9は、レイヤを合成して3次元データを得るためのメイン画面の一例を示す図である。図10は、高さ情報設定画面の一例を示す図である。図11は、高さ情報を説明する図である。図12および図13は、高さ情報の生成方法の一例を説明する図である。図14は、対象領域の任意の一点から輪郭までの距離を説明する図である。図9~図14を参照しながら、本実施形態に係る情報処理装置10で表示される各種画面の操作および機能について説明する。
(About screen operations)
FIG. 9 is a diagram showing an example of a main screen for combining layers to obtain three-dimensional data. FIG. 10 is a diagram showing an example of a height information setting screen. FIG. 11 is a diagram illustrating height information. FIGS. 12 and 13 are diagrams illustrating an example of a method for generating height information. FIG. 14 is a diagram illustrating the distance from an arbitrary point in the target area to the contour. Operations and functions of various screens displayed on the information processing device 10 according to the present embodiment will be explained with reference to FIGS. 9 to 14.

表示制御部104は、ユーザによる入力部102を介した操作に従って、表示部105に、図9に示すようなメイン画面1000を表示させる。メイン画面1000は、分割部103により立体物の画像データから分割された各レイヤについての編集、および、当該各レイヤを合成して3次元データを生成するための画面である。メイン画面1000は、図9に示すように、メニューバー1001と、立体表示領域1002と、ステータスバー1003と、更新ボタン1004と、リスト表示切替ボタン1005と、操作ボタン群1006と、レイヤ一覧表示領域1007と、を含む。 The display control unit 104 causes the display unit 105 to display a main screen 1000 as shown in FIG. 9 in accordance with the user's operation via the input unit 102. The main screen 1000 is a screen for editing each layer divided from the image data of a three-dimensional object by the dividing unit 103, and for synthesizing the respective layers to generate three-dimensional data. As shown in FIG. 9, the main screen 1000 includes a menu bar 1001, a stereoscopic display area 1002, a status bar 1003, an update button 1004, a list display switching button 1005, an operation button group 1006, and a layer list display area. 1007.

メニューバー1001は、各種操作を行うためのメニューボタンは配置された領域である。 The menu bar 1001 is an area in which menu buttons for performing various operations are arranged.

立体表示領域1002は、レイヤ一覧表示領域1007で一覧表示されたレイヤを合成した3次元データの画像(3Dオブジェクト)を表示する領域である。 The stereoscopic display area 1002 is an area for displaying an image of three-dimensional data (3D object) obtained by combining the layers listed in the layer list display area 1007.

ステータスバー1003は、各種ステータス情報を表示する領域である。表示させるステータス情報としては、例えば、読み込まれた立体物の画像データのファイル名、当該画像データのサイズ、当該画像データの読み込み時に指定した解像度(dpi)、解像度に対応した画像のサイズ(mm×mm)、ならびに、レイヤ一覧表示領域1007において現在選択されているレイヤの番号および全レイヤ数等が挙げられる。 The status bar 1003 is an area that displays various status information. The status information to be displayed includes, for example, the file name of the image data of the three-dimensional object that has been read, the size of the image data, the resolution (dpi) specified when reading the image data, and the size of the image corresponding to the resolution (mm x mm), the number of the layer currently selected in the layer list display area 1007, the total number of layers, etc.

更新ボタン1004は、レイヤ一覧表示領域1007で選択されているレイヤの合計の高さを表示させるためのボタンである。リスト表示切替ボタン1005は、レイヤ一覧表示領域1007でレイヤを一覧表示(リスト表示)をさせる場合の表示形式を切り替えるためのボタンである。 The update button 1004 is a button for displaying the total height of the layers selected in the layer list display area 1007. The list display switching button 1005 is a button for switching the display format when the layers are displayed as a list (list display) in the layer list display area 1007.

操作ボタン群1006は、レイヤ一覧表示領域1007に表示されたレイヤ、および、立体表示領域1002に表示された3Dオブジェクトに対して各種操作を行うためのボタンである。例えば、合成部108は、ユーザによる入力部102を介した操作ボタン群1006に対する操作に従って、レイヤ一覧表示領域1007で選択された複数のレイヤの高さ情報を、四則演算によって合成(マージ)する。また、表示制御部104は、ユーザによる入力部102を介した操作ボタン群1006に対する操作に従って、レイヤ一覧表示領域1007によって選択されたレイヤを編集するための図10に示す高さ情報設定画面1100を表示部105に表示させる。 The operation button group 1006 is a button for performing various operations on the layer displayed in the layer list display area 1007 and the 3D object displayed in the stereoscopic display area 1002. For example, the synthesizing unit 108 synthesizes (merges) height information of a plurality of layers selected in the layer list display area 1007 according to the user's operation on the operation button group 1006 via the input unit 102 using four arithmetic operations. The display control unit 104 also displays a height information setting screen 1100 shown in FIG. 10 for editing the layer selected in the layer list display area 1007 in accordance with the user's operation on the operation button group 1006 via the input unit 102. It is displayed on the display unit 105.

レイヤ一覧表示領域1007は、分割部103により立体物の画像データから分割された各レイヤを一覧表示する領域である。レイヤ一覧表示領域1007では、各レイヤにチェックボックスが付いており、当該チェックボックスにチェックを入れることで、対応するレイヤを選択状態にすることができる。なお、表示制御部104は、レイヤ一覧表示領域1007で一覧表示されたレイヤのうち、所望するレイヤに対して入力部102を介した操作(例えばマウス512によるダブルクリック操作)がなされることによって、当該レイヤを編集するための図10に示す高さ情報設定画面1100を表示部105に表示させるものとしてもよい。 The layer list display area 1007 is an area that displays a list of each layer divided from the three-dimensional object image data by the dividing unit 103. In the layer list display area 1007, each layer has a checkbox, and by checking the checkbox, the corresponding layer can be selected. Note that the display control unit 104 performs an operation on a desired layer from among the layers displayed in a list in the layer list display area 1007 via the input unit 102 (for example, a double-click operation using the mouse 512). A height information setting screen 1100 shown in FIG. 10 for editing the layer may be displayed on the display unit 105.

図10に、所望するレイヤについて編集(高さ情報の生成等)するための高さ情報設定画面1100を示す。高さ情報設定画面1100は、図10に示すように、領域Aと、領域Bと、領域Cと、を含む。 FIG. 10 shows a height information setting screen 1100 for editing (generating height information, etc.) a desired layer. Height information setting screen 1100 includes area A, area B, and area C, as shown in FIG.

領域Aは、メイン画面1000のレイヤ一覧表示領域1007に表示されたレイヤのうち操作対象とされたレイヤを2次元表示し、対象領域抽出部106による抽出対象となる対象領域を指定するための領域である。領域Bは、レイヤの各画素に高さ情報を与えるための曲線を編集するための領域である。領域Cは、領域Aで指定された対象領域について、領域Bでの曲線に基づいて生成された高さ情報に基づく立体形状の画像を表示する領域である。 Area A is an area for two-dimensionally displaying a layer targeted for operation among the layers displayed in the layer list display area 1007 of the main screen 1000, and for specifying a target area to be extracted by the target area extraction unit 106. It is. Area B is an area for editing a curve for giving height information to each pixel of the layer. Area C is an area for displaying a three-dimensional image based on height information generated based on the curve in area B for the target area specified in area A.

ここで、図11を参照しながら、レイヤの対象領域の各画素について生成される高さ情報について説明する。図11は説明を簡便にするために、レイヤの対象領域の画素についての高さ情報を2次元で表示している。図11に示す白い各矩形の高さが、対象領域の画素ごとの高さ情報を示しており、1画素に対応する高さ情報は、例えば8ビット(0~255)で表されるものとする。したがって、図11に示す例では、対象領域のうち、「201」に対応する画素が最も高さが高く、「24」に対応する画素が最も高さ低い。また、高さ情報生成部107により生成される各レイヤの高さ情報は、上述の画素ごとに対応する8ビットの値としてもよく、所定の高さを基準にして変換された実際の高さとしてもよい。所定の高さを基準にして変換された実際の高さとして、例えば、8ビットの値の最高値である「255」を、各レイヤの高さとして設定された設定値に対応させ、対象領域の各画素の8ビットの値の「255」に対する割合を当該設定値に乗算することによって求めた値としてもよい。この場合、例えば、特定のレイヤの高さ(実際の高さ)が25.5[mm]に設定されている場合、8ビット値の「255」を25.5[mm]に対応させ、対象領域の特定の画素の8ビットの値が例えば「128」であるとき、当該画素の高さ情報としては、25.5×(128/255)=12.8[mm]となる。または、所定の高さを基準にして変換された実際の高さとして、例えば、対象領域の各画素の8ビットの値の最高値(図11の例では「201」)を、実際の高さとして設定した値に対応させ、対象領域の各画素の8ビットの値の当該最高値に対する割合を当該設定した値に乗算することによって求めた値としてもよい。この場合、例えば、特定のレイヤの対象領域における各画素の8ビットの値の最高値が、図11に示すように「201」である場合、この最高値に対して実際の高さとして20.1[mm]を設定した場合、対象領域の特定の画素の8ビットの値が例えば「112」であるとき、当該画素の高さ情報としては、20.1×(111/201)=11.2[mm]となる。 Here, height information generated for each pixel in the target area of the layer will be described with reference to FIG. 11. In order to simplify the explanation, FIG. 11 shows height information about pixels in the target area of the layer in two dimensions. The height of each white rectangle shown in FIG. 11 indicates the height information for each pixel in the target area, and the height information corresponding to one pixel is expressed by, for example, 8 bits (0 to 255). do. Therefore, in the example shown in FIG. 11, in the target area, the pixel corresponding to "201" has the highest height, and the pixel corresponding to "24" has the lowest height. Further, the height information of each layer generated by the height information generation unit 107 may be an 8-bit value corresponding to each pixel described above, and may be an actual height converted based on a predetermined height. You can also use it as As the actual height converted based on the predetermined height, for example, "255", which is the highest value of the 8-bit value, is made to correspond to the setting value set as the height of each layer, and the target area is The value may be determined by multiplying the set value by the ratio of the 8-bit value of each pixel to "255". In this case, for example, if the height (actual height) of a specific layer is set to 25.5 [mm], the 8-bit value "255" will correspond to 25.5 [mm], and the target For example, when the 8-bit value of a specific pixel in the area is "128", the height information of the pixel is 25.5×(128/255)=12.8 [mm]. Alternatively, as the actual height converted based on a predetermined height, for example, the highest value of the 8-bit values of each pixel in the target area ("201" in the example of FIG. 11) can be used as the actual height. The value may be determined by multiplying the set value by the ratio of the 8-bit value of each pixel in the target area to the maximum value. In this case, for example, if the highest value of the 8-bit value of each pixel in the target area of a specific layer is "201" as shown in FIG. 11, the actual height of this highest value is 20. When 1 [mm] is set and the 8-bit value of a specific pixel in the target area is, for example, "112", the height information of the pixel is 20.1 x (111/201) = 11. It becomes 2 [mm].

次に、レイヤの対象領域における高さ情報の生成方法の一例として、第1の方法および第2の方法について説明する。まず、当該生成方法の第1の方法について、図12~図14を参照しながら説明する。 Next, a first method and a second method will be described as examples of methods for generating height information in the target region of a layer. First, the first generation method will be explained with reference to FIGS. 12 to 14.

ユーザは、高さ情報設定画面1100の領域Aにおいて表示された立体物の画像データから分割された特定のレイヤであるレイヤL11において、入力部102を介した操作により、対象領域とする領域を指定する。対象領域抽出部106は、例えば、図12(a)に示すように、当該操作により指定された領域を、対象領域TR11として抽出する。ここで、対象領域TR11の輪郭を、輪郭O11とする。 The user specifies an area to be a target area by operating the input unit 102 on layer L11, which is a specific layer divided from the image data of the three-dimensional object displayed in area A of the height information setting screen 1100. do. The target region extracting unit 106 extracts the region specified by the operation as the target region TR11, for example, as shown in FIG. 12(a). Here, the outline of the target region TR11 is defined as an outline O11.

そして、高さ情報生成部107は、対象領域抽出部106により抽出された対象領域TR11内の各位置のうち、輪郭O11から最も離れている位置と輪郭O11との距離(最大距離)を算出する。また、表示制御部104は、高さ情報設定画面1100の領域Bに、0から最大距離までを横軸とし、高さを縦軸として、対象領域における立体形状を規定するための曲線のグラフを表示させる。なお、当該曲線として、デフォルトでは、図12(a)に示すように、横軸および縦軸の原点から、横軸および縦軸の最大値の点までを結ぶ直線をグラフとして表示されるものとしてもよい。また、高さ情報生成部107は、最大距離を算出せずに、ユーザによる入力部102を介した操作により入力された値(距離)を、領域Bの横軸の最大値に設定するものとしてもよい。 Then, the height information generation unit 107 calculates the distance (maximum distance) between the contour O11 and the position furthest from the contour O11 among each position in the target area TR11 extracted by the target area extraction unit 106. . The display control unit 104 also displays a graph of a curve for defining the three-dimensional shape in the target area in area B of the height information setting screen 1100, with the horizontal axis from 0 to the maximum distance and the vertical axis the height. display. By default, the curve is a straight line connecting the origin of the horizontal and vertical axes to the maximum point of the horizontal and vertical axes, as shown in Figure 12(a). Good too. Further, the height information generation unit 107 does not calculate the maximum distance, but sets the value (distance) input by the user's operation via the input unit 102 as the maximum value on the horizontal axis of the area B. Good too.

そして、表示制御部104は、ユーザによる入力部102を介した操作に従って、領域Bのグラフとしての直線を、曲線等に編集された結果(図12(a)の例では曲線C11a)を表示させる。ここで、編集される線(グラフ)は、曲線、直線、または折り曲げ線等が含まれるように編集されるものとしてもよい。また、例えば、ユーザは、入力部102を介して、デフォルトの直線の任意の一点を選択して移動することによって、直線を変形させて曲線とすることもできる。なお、ユーザは、入力部102の一例であるマウス512の操作に基づいて、領域B上を移動するポインタの軌跡を曲線として入力できるものとしてもよい。このように、ユーザは、高さ情報設定画面1100の領域Bを用いて曲線を自由に入力することができ、曲線を極めて簡易に入力することができる。 Then, the display control unit 104 displays the result of editing the straight line as a graph of area B into a curve or the like (curve C11a in the example of FIG. 12(a)) according to the user's operation via the input unit 102. . Here, the line (graph) to be edited may be edited to include a curve, a straight line, a folded line, or the like. Furthermore, for example, the user can select and move any point on the default straight line via the input unit 102 to transform the straight line into a curved line. Note that the user may be able to input the locus of the pointer moving on the area B as a curved line based on the operation of the mouse 512, which is an example of the input unit 102. In this way, the user can freely input a curve using area B of the height information setting screen 1100, and can input a curve extremely easily.

そして、高さ情報生成部107は、ユーザにより入力部102を介して編集された曲線のグラフに基づいて、図12(a)に示すように、対象領域の輪郭からの距離に応じて高さが変化する立体形状のデータである立体形状S11aを生成する。そして、表示制御部104は、高さ情報生成部107により生成された立体形状S11aを、領域Cに表示させる。すなわち、高さ情報生成部107は、入力された曲線に基づいて、対象領域の位置ごとに、各位置と輪郭の一点との距離に応じた高さを求め、当該高さに基づいて対象領域において立体形状のデータである立体形状S11aを生成する。 Based on the curve graph edited by the user via the input unit 102, the height information generation unit 107 generates a height according to the distance from the contour of the target area, as shown in FIG. 12(a). A three-dimensional shape S11a is generated which is data of a three-dimensional shape in which the shape changes. Then, the display control unit 104 causes the three-dimensional shape S11a generated by the height information generation unit 107 to be displayed in the area C. That is, the height information generation unit 107 calculates the height corresponding to the distance between each position and one point of the contour for each position of the target area based on the input curve, and calculates the height of the target area based on the height. In this step, a three-dimensional shape S11a, which is three-dimensional shape data, is generated.

そして、高さ情報生成部107は、生成した対象領域の立体形状S11aに基づいて、当該対象領域について高さ情報を生成する。高さ情報の生成方法は、上述の図11で説明した通りである。 Then, the height information generation unit 107 generates height information for the target area based on the generated three-dimensional shape S11a of the target area. The height information generation method is as explained in FIG. 11 above.

図12(a)に示す例では、領域Bに入力された曲線C11aは、輪郭O11から中心部に向けて高さが高くなり、途中で高さが低くなり、再び、中心部に向けて高さが高くなっている。そして、高さ情報生成部107は、対象領域TR11の画素毎に、輪郭O11までの最小距離をグラフに当てはめ、その画素の位置での高さを求める。その結果、図12(a)では、輪郭O11で示される対象領域TR11を底面とし、輪郭O11から中心部に向けて高さが高くなり、途中で高さが低くなり、再び、中心部に向けて高さが高くなる立体形状S11aが、領域Cに表示される。 In the example shown in FIG. 12(a), the curve C11a input to the area B increases in height from the contour O11 toward the center, decreases in height, and then increases again toward the center. The height is high. Then, the height information generation unit 107 applies the minimum distance to the contour O11 to the graph for each pixel of the target region TR11, and calculates the height at the position of that pixel. As a result, in FIG. 12(a), the target region TR11 indicated by the outline O11 is the bottom surface, and the height increases from the outline O11 toward the center, decreases in the middle, and then returns toward the center. A three-dimensional shape S11a whose height increases is displayed in area C.

図12(b)に示す例では、領域Bに入力された曲線C11bは、輪郭O11から中心部に向けて高さが山なりに変化している。そして、高さ情報生成部107は、対象領域TR11の画素毎に、輪郭O11までの最小距離をグラフに当てはめ、その画素の位置での高さを求める。その結果、図12(b)では、輪郭O11で示される対象領域TR11を底面とし、輪郭O11から中心部に向けて高さが一度高くなった後に低くなる中央部が凹んだ立体形状S11bが、領域Cに表示される。 In the example shown in FIG. 12(b), the height of the curve C11b input to the region B changes like a mountain from the outline O11 toward the center. Then, the height information generation unit 107 applies the minimum distance to the contour O11 to the graph for each pixel of the target region TR11, and calculates the height at the position of that pixel. As a result, in FIG. 12(b), a three-dimensional shape S11b whose bottom surface is the target region TR11 indicated by the outline O11 and whose height increases once toward the center from the outline O11 and then becomes lower is concave at the center. Displayed in area C.

図12に示すように、対象領域TR11が円形状の場合、輪郭O11からの距離は、円の中心が最も大きく、輪郭O11に近づくほど小さくなる。このため、立体形状の表面の形状は、距離が最大側の縦軸を軸としてグラフを回転したときに当該グラフの軌跡に対応した形状となる。したがって、ユーザは、入力する曲線と立体形状との対応関係を容易に認識することができる。また、図12に示すように、高さの変化を示す曲線を自由かつ簡易に入力できるため、対象領域から頂点に向けて高さが徐々に大きくなる立体形状だけでなく、高さの上昇または下降が途中で変化する立体形状を容易に生成することができる。 As shown in FIG. 12, when the target region TR11 has a circular shape, the distance from the outline O11 is greatest at the center of the circle, and becomes smaller as it approaches the outline O11. Therefore, the shape of the surface of the three-dimensional shape corresponds to the locus of the graph when the graph is rotated around the vertical axis on the side with the maximum distance. Therefore, the user can easily recognize the correspondence between the input curve and the three-dimensional shape. In addition, as shown in Figure 12, it is possible to freely and easily input a curve that shows a change in height, so you can create not only a three-dimensional shape that gradually increases in height from the target area toward the apex, but also a curve that shows a rise in height or It is possible to easily generate a three-dimensional shape in which the descent changes midway.

図13に示す例では、領域Aにおいて表示された立体物の画像データから分割された特定のレイヤであるレイヤL12において、ユーザによる入力部102を介した操作により、対象領域として、2つの円の一部を重複させた形状である対象領域TR12が抽出された状態を示している。ここで、対象領域TR12の輪郭を、輪郭O12とする。 In the example shown in FIG. 13, in layer L12, which is a specific layer divided from the image data of the three-dimensional object displayed in area A, two circles are selected as target areas by the user's operation via the input unit 102. A state in which a target region TR12 having a partially overlapping shape is extracted is shown. Here, the outline of the target region TR12 is defined as an outline O12.

図13(a)の例では、領域Bにおいて、図12(a)の曲線C11aと同じ曲線である曲線C12aが入力され、図13(b)に示す例では、領域Bにおいて、図12(b)の曲線C11bと同じ曲線である曲線C12bが入力されている。 In the example of FIG. 13(a), a curve C12a which is the same curve as the curve C11a of FIG. 12(a) is input in area B, and in the example shown in FIG. A curve C12b, which is the same curve as the curve C11b of ), is input.

そして、高さ情報生成部107は、対象領域抽出部106により抽出された対象領域TR12内の各位置のうち、輪郭O12から最も離れている位置と輪郭O12との距離(最大距離)を算出する。図13に示す例の場合、対象領域TR12の形状において、領域Bでの横軸の最大値は、輪郭O12から2つの円のそれぞれの中心までの距離に等しい。そして、高さ情報生成部107は、対象領域TR12の画素毎に、輪郭O12までの最小距離をグラフ(曲線C12a、C12b)に当てはめ、その画素の位置での高さを求める。その結果、図13(a)では、輪郭O12で示される対象領域TR12を底面とし、輪郭O12から中心部に向けて高さが高くなり、途中で高さが低くなり、再び、中心部に向けて高さが高くなる立体形状S12aが、領域Cに表示される。また、図13(b)では、輪郭O12で示される対象領域TR12を底面とし、輪郭O12から中心部に向けて高さが一度高くなった後に低くなる中央部が凹んだ八の字形状の立体形状S12bが、領域Cに表示される。そして、高さ情報生成部107は、生成した対象領域の立体形状S12a、S12bに基づいて、当該対象領域について高さ情報を生成する。高さ情報の生成方法は、上述の図11で説明した通りである。 Then, the height information generation unit 107 calculates the distance (maximum distance) between the contour O12 and the position furthest from the contour O12 among each position in the target area TR12 extracted by the target area extraction unit 106. . In the case of the example shown in FIG. 13, in the shape of the target region TR12, the maximum value of the horizontal axis in the region B is equal to the distance from the contour O12 to the center of each of the two circles. Then, the height information generation unit 107 applies the minimum distance to the contour O12 to the graph (curves C12a, C12b) for each pixel in the target region TR12, and calculates the height at the position of that pixel. As a result, in FIG. 13(a), the target region TR12 indicated by the outline O12 is the bottom surface, and the height increases from the outline O12 toward the center, decreases in the middle, and then returns toward the center. A three-dimensional shape S12a whose height increases is displayed in area C. In addition, in FIG. 13(b), the target region TR12 indicated by the outline O12 is the bottom surface, and the height increases once toward the center from the outline O12, and then becomes lower. Shape S12b is displayed in area C. Then, the height information generation unit 107 generates height information for the target area based on the generated three-dimensional shapes S12a and S12b of the target area. The height information generation method is as explained in FIG. 11 above.

そして、高さ情報生成部107により生成されたレイヤごとの高さ情報は、各レイヤの基となる立体物の画像データと共に、記憶部110に記憶される。 The height information for each layer generated by the height information generation unit 107 is stored in the storage unit 110 together with the image data of the three-dimensional object that is the basis of each layer.

また、図14に示すように、対象領域TRにおいて、任意の一点(例えば画素)から輪郭までの距離は複数ある。上述のように、任意の一点の高さを輪郭からの距離に応じて決定するため、考えられる複数の距離から1つの距離を決定する必要がある。上述の図12および図13の例では、高さ情報生成部107は、対象領域の各点について、輪郭を形成する複数の点までの距離のうち、最も小さい距離を求め、求めた距離をグラフに当てはめ、その点での高さを求めるものとしている。ここで、高さ情報生成部107は、対象領域の各画素について、輪郭を形成する複数の点までの距離のうち、最も大きい距離を求め、当該距離をグラフに当てはめ、その画素の位置での高さを求めるものとしてもよい。また、高さ情報生成部107は、対象領域の各画素について、輪郭を形成する複数の点までの距離の平均値をグラフに当てはめ、その画素の位置での高さを求めるものとしてもよい。 Further, as shown in FIG. 14, in the target region TR, there are a plurality of distances from an arbitrary point (for example, a pixel) to the contour. As described above, in order to determine the height of any one point according to the distance from the contour, it is necessary to determine one distance from a plurality of possible distances. In the examples of FIGS. 12 and 13 described above, the height information generation unit 107 calculates the smallest distance among the distances to the plurality of points forming the contour for each point in the target area, and graphs the calculated distance. , and find the height at that point. Here, the height information generation unit 107 calculates the largest distance among the distances to the plurality of points forming the outline for each pixel in the target area, applies the distance to the graph, and calculates the distance at the position of the pixel. It may also be used to determine height. Further, the height information generation unit 107 may apply the average value of the distances to a plurality of points forming the outline for each pixel in the target area to a graph, and calculate the height at the position of that pixel.

また、図14に示すように、対象領域の各画素から輪郭を形成する複数の点の距離については、直線で結んだ距離であるユークリッド距離を想定しているが、これに限定されるものではなく、横軸および縦軸に平行移動しながら算出されるマンハッタン距離を用いるものとしてもよい。距離の算出方法は、対象領域内の各点における高さの決定方法に関係し、距離の算出方法によって、各点での高さの値は異なるため、最終的に生成される立体形状も異なってくる。 Further, as shown in FIG. 14, the distance between each pixel of the target area and the plurality of points forming the outline is assumed to be the Euclidean distance, which is the distance connected by a straight line, but this is not limited to this. Instead, the Manhattan distance calculated while moving parallel to the horizontal and vertical axes may be used. The method of calculating distance is related to the method of determining the height at each point within the target area, and because the height value at each point differs depending on the distance calculation method, the final three-dimensional shape generated will also differ. It's coming.

次に、レイヤの対象領域における高さ情報の生成方法として、第2の方法について説明する。上述のように、分割部103は、立体物の画像データ(2次元の画像データ)について、複数のモノクロ(グレースケール)の画像データ(レイヤ)に分割する。そして、このレイヤは、各画素の画素値として、例えば8ビット(0~255)の階調で示される明度を含む。当該第2の方法では、各レイヤの各画素の明度を、そのまま高さ情報の生成に用いる。すなわち、高さ情報生成部107は、特定のレイヤにおいて対象領域抽出部106により抽出された対象領域において、当該対象領域の各画素の明度に基づいて、高さ情報を生成する。具体的な高さ情報の生成方法は、上述の図11で説明した通りである。 Next, a second method will be described as a method for generating height information in the target region of a layer. As described above, the dividing unit 103 divides the image data (two-dimensional image data) of a three-dimensional object into a plurality of monochrome (grayscale) image data (layers). This layer includes, as a pixel value of each pixel, brightness indicated by, for example, an 8-bit (0 to 255) gradation. In the second method, the brightness of each pixel in each layer is used as is to generate height information. That is, the height information generation unit 107 generates height information based on the brightness of each pixel in the target area extracted by the target area extraction unit 106 in a specific layer. The specific method for generating height information is as explained in FIG. 11 above.

これによって、分割部103により分割されたレイヤにおけるグレースケールの濃淡をそのまま立体形状に反映させることができる。また、レイヤの明度を高さ情報の生成に用いる場合、上述の第1の方法における図12および図13で示したような、高さ情報を生成するために用いる領域Bにおける曲線の入力および編集操作を必要としないため、作業の手間を省くことができる。なお、第2の方法においても、図10の高さ情報設定画面1100に準じた画面によって、高さ情報の基となる対象領域における各画素の明度を編集できるものとしてもよい。 Thereby, the grayscale shading in the layer divided by the dividing unit 103 can be directly reflected in the three-dimensional shape. In addition, when using the brightness of a layer to generate height information, input and edit the curve in area B used to generate height information, as shown in FIGS. 12 and 13 in the first method described above. Since no operation is required, the work effort can be saved. Note that in the second method as well, the brightness of each pixel in the target area, which is the basis of the height information, may be edited using a screen similar to the height information setting screen 1100 in FIG.

(レイヤの高さ情報に対する四則演算による合成動作)
図15~図17は、高さ情報を加算する動作の一例を説明する図である。図18は、高さ情報を減算する動作の一例を説明する図である。図15~図18を参照しながら、合成部108による各レイヤの高さ情報を合成(マージ)する動作について説明する。
(Composition operation using four arithmetic operations on layer height information)
FIGS. 15 to 17 are diagrams illustrating an example of the operation of adding height information. FIG. 18 is a diagram illustrating an example of an operation for subtracting height information. The operation of combining (merging) the height information of each layer by the combining unit 108 will be described with reference to FIGS. 15 to 18.

上述の図11~図14で説明したように、立体物の画像データから分割部103により分割された各レイヤについて、高さ情報生成部107により高さ情報がそれぞれ生成される。そして、合成部108は、メイン画面1000において、ユーザによる入力部102を介した操作ボタン群1006の操作に従って、各レイヤの高さ情報を合成(マージ)する。具体的には、合成部108は、各レイヤの対応する画素の高さ情報について、加算、減算、乗算、または除算、すなわち四則演算を行うことによって、画素ごとに1つの合成された高さ情報を求める。 As described with reference to FIGS. 11 to 14 above, the height information generation unit 107 generates height information for each layer divided by the division unit 103 from the image data of the three-dimensional object. Then, on the main screen 1000, the synthesis unit 108 synthesizes (merges) the height information of each layer according to the user's operation of the operation button group 1006 via the input unit 102. Specifically, the synthesis unit 108 performs addition, subtraction, multiplication, or division, that is, four arithmetic operations, on the height information of the corresponding pixels of each layer, thereby generating one piece of synthesized height information for each pixel. seek.

図15~図17は、各レイヤの高さ情報を加算することによって合成する動作の一例を示している。ここで、上述の図8に示したレイヤL1、L2についての合成を考える。そして、レイヤL1において、除かれた中央の花の部分について明度が「0」(黒)であるものする。ここでは、レイヤの明度が高さ情報であるものとして説明する。そして、合成部108により、レイヤL1の高さ情報と、レイヤL2の高さ情報とが加算によって合成された状態を、概念的に示したのが図15である。図15において、白の矩形で示される部分がレイヤL1に対応し、ハッチングの矩形で示される部分がレイヤL2に対応している。レイヤL1における除かれた花の部分が、明度が「0」である真中の部分に相当する。そして、レイヤL1の高さ情報とレイヤL2の高さ情報との加算により、このレイヤL1における明度が「0」の部分に対して、レイヤL2の高さ情報が加算されるため、合成された高さ情報における、レイヤL1の除かれた花の部分に相当する部分は、レイヤL2の高さ情報と一致することになる。 FIGS. 15 to 17 show an example of an operation of composing by adding the height information of each layer. Here, consider the combination of layers L1 and L2 shown in FIG. 8 described above. In layer L1, it is assumed that the brightness of the removed central flower portion is "0" (black). Here, the description will be made assuming that the brightness of a layer is height information. FIG. 15 conceptually shows a state in which the height information of the layer L1 and the height information of the layer L2 are combined by addition by the combining unit 108. In FIG. 15, a portion indicated by a white rectangle corresponds to layer L1, and a portion indicated by a hatched rectangle corresponds to layer L2. The removed flower part in layer L1 corresponds to the middle part where the brightness is "0". Then, by adding the height information of layer L1 and the height information of layer L2, the height information of layer L2 is added to the part where the brightness is "0" in this layer L1, so The portion of the height information corresponding to the removed flower portion of layer L1 matches the height information of layer L2.

また、レイヤL1において、除かれた中央の花の部分について明度が「255」(白)である場合を考える。そして、合成部108により、レイヤL1の高さ情報と、レイヤL2の高さ情報とが加算によって合成された状態を、概念的に示したのが図16である。レイヤL1における除かれた花の部分が、明度が「255」である真中の部分に相当する。そして、レイヤL1の高さ情報とレイヤL2の高さ情報との加算により、このレイヤL1における明度が「255」の部分に対して、レイヤL2の高さ情報が加算されるため、合成された高さ情報における、レイヤL1の除かれた花の部分に相当する部分は、明度「255」に対して、さらにレイヤL2の高さ情報が加算された状態となる。これによって、レイヤL1に描画されている花に対して、レイヤL2に描画されている花が飛び出したような立体形状を造形することが可能となる。 Also, consider a case where the brightness of the removed center flower part in layer L1 is "255" (white). FIG. 16 conceptually shows a state in which the height information of the layer L1 and the height information of the layer L2 are combined by addition by the combining unit 108. The removed flower part in layer L1 corresponds to the middle part whose brightness is "255". Then, by adding the height information of layer L1 and the height information of layer L2, the height information of layer L2 is added to the part where the brightness is "255" in this layer L1, so it is synthesized. The portion of the height information corresponding to the removed flower portion of layer L1 has a brightness of “255” and the height information of layer L2 is further added thereto. As a result, it is possible to create a three-dimensional shape in which the flower drawn on the layer L2 pops out from the flower drawn on the layer L1.

また、レイヤL1において、除かれた中央の花の部分について、新たに画像を追加する処理等が行われ、「1」以上の明度が加わっている場合を考える。そして、合成部108により、レイヤL1の高さ情報と、レイヤL2の高さ情報とが加算によって合成された状態を、概念的に示したのが図17である。レイヤL1における除かれた花の部分に新たに画像を追加する処理等が行われた部分が、真中に位置する明度が「110」、「160」、「125」、「127」、「87」である部分(以下、新たな画像部分と称する)に相当する。そして、レイヤL1の高さ情報とレイヤL2の高さ情報との加算により、このレイヤL1における新たな画像部分に対して、レイヤL2の高さ情報が加算されるため、合成された高さ情報における、レイヤL1の除かれた花の部分に相当する部分は、新たな画像部分の高さ情報に対して、さらにレイヤL2の高さ情報が加算された状態となる。 Also, consider a case where, in layer L1, a process of adding a new image or the like is performed on the removed center flower part, and a brightness of "1" or more is added. FIG. 17 conceptually shows a state in which the height information of the layer L1 and the height information of the layer L2 are combined by addition by the combining unit 108. The brightness of the part in the middle of layer L1 where processing such as adding a new image to the removed flower part is "110", "160", "125", "127", "87" (hereinafter referred to as a new image portion). Then, by adding the height information of layer L1 and the height information of layer L2, the height information of layer L2 is added to the new image part in layer L1, so the combined height information In the portion corresponding to the removed flower portion of layer L1, the height information of layer L2 is further added to the height information of the new image portion.

また、図18は、レイヤの高さ情報を減算することによって合成する動作の一例を示している。ここで、上述の図8に示したレイヤL1、L2についての合成を考える。そして、レイヤL1において、除かれた中央の花の部分について明度が「255」(白)であるものする。そして、合成部108により、レイヤL1の高さ情報から、レイヤL2の高さ情報が減算されることによって合成された状態を、概念的に示したのが図18である。レイヤL1の高さ情報からレイヤL2の高さ情報が減算されることにより、このレイヤL1における明度が「255」の部分から、レイヤL2の高さ情報が減算されるため、合成された高さ情報における、レイヤL1の除かれた花の部分に相当する部分は、凹んだ形状を示す高さ情報となる。 Further, FIG. 18 shows an example of an operation of compositing by subtracting layer height information. Here, consider the combination of layers L1 and L2 shown in FIG. 8 described above. In layer L1, it is assumed that the brightness of the removed central flower portion is "255" (white). FIG. 18 conceptually shows a state in which the height information of the layer L2 is subtracted from the height information of the layer L1 by the combining unit 108 to combine the layers. By subtracting the height information of layer L2 from the height information of layer L1, the height information of layer L2 is subtracted from the part where the brightness in layer L1 is "255", so the combined height The portion of the information corresponding to the removed flower portion of layer L1 becomes height information indicating a concave shape.

なお、図15~図18では、四則演算のうち加算および減算を用いて、各レイヤの高さ情報を合成する例を説明したが、同様の態様によって、各レイヤの高さ情報について乗算、または除算により合成することも可能である。また、合成する方法は、四則演算に限定されるものではなく、例えば、各レイヤに重みを付けて加重和を行うことにより合成するものとしてもよい。 In addition, in FIGS. 15 to 18, an example was explained in which the height information of each layer is synthesized using addition and subtraction among the four arithmetic operations, but in a similar manner, the height information of each layer can be multiplied or It is also possible to combine by division. Furthermore, the method of combining is not limited to the four arithmetic operations, but may be performed by, for example, adding weight to each layer and performing a weighted sum.

また、合成部108による各レイヤの高さ情報の合成は、四則演算のうち、予め定められた演算方法によって行われるものとしてもよく、あるいは、レイヤごとに四則演算のうち特定の演算方法を割り当てることができるものとしてもよい。各レイヤへの演算方法の割り当ては、図9に示したメイン画面1000において設定ができるものとすればよい。この場合、合成部108は、各レイヤに割り当てられた演算方法に従って、各レイヤの高さ情報の合成を行うものとすればよい。 Further, the composition of the height information of each layer by the composition unit 108 may be performed by a predetermined calculation method among the four arithmetic operations, or a specific calculation method among the four arithmetic operations may be assigned for each layer. It may be possible to do so. The assignment of calculation methods to each layer may be set on the main screen 1000 shown in FIG. 9. In this case, the combining unit 108 may combine the height information of each layer according to the calculation method assigned to each layer.

そして、表示制御部104は、合成部108により合成された高さ情報に基づいて生成した立体形状の画像を、メイン画面1000における立体表示領域1002に表示させる。 Then, the display control unit 104 causes the stereoscopic image generated based on the height information synthesized by the synthesizing unit 108 to be displayed in the stereoscopic display area 1002 on the main screen 1000.

以上のように、本実施形態では、立体物の画像データから分割部103により分割されたレイヤごとに高さ情報生成部107により高さ情報が生成されたうえで、合成部108により四則演算により1つの高さ情報に合成されるものとしている。これによって、レイヤごとに簡便な操作に基づいて生成された高さ情報を、四則演算により合成することができるので、簡便な操作性を維持したまま、複雑な構成の高さ情報を生成することができ、複雑な立体物の造形が可能となる。 As described above, in this embodiment, height information is generated by the height information generation section 107 for each layer divided by the division section 103 from the image data of a three-dimensional object, and then the composition section 108 performs four arithmetic operations. It is assumed that the height information is combined into one piece of height information. As a result, height information generated based on simple operations for each layer can be synthesized using four arithmetic operations, making it possible to generate height information with complex configurations while maintaining simple operability. This makes it possible to create complex three-dimensional objects.

(3次元データを用いた造形動作について)
図19は、色情報の一例を示す図である。図20は、高さ情報を概念的に表した図である。図21は、層情報の生成方法を説明する図である。図22~図25は、立体物の造形方法の一例を示す図である。図19~図25を参照しながら、3次元データを用いた造形動作について説明する。
(About modeling operations using 3D data)
FIG. 19 is a diagram showing an example of color information. FIG. 20 is a diagram conceptually representing height information. FIG. 21 is a diagram illustrating a method of generating layer information. FIGS. 22 to 25 are diagrams showing an example of a method for modeling a three-dimensional object. A modeling operation using three-dimensional data will be described with reference to FIGS. 19 to 25.

上述のように、取得部201は、情報処理装置10から、3次元データとして、立体物の画像データ、および合成部108により合成された高さ情報を取得する。そして、色情報生成部202は、取得部201により取得された立体物の画像データに基づいて、当該立体物の画像の画素毎のRGBの色値に基づいて色情報を生成する。例えば、色情報生成部202は、取得部201により取得された立体物の画像データのRGB値をCMYK値に変換することによって、色情報を生成する。図19に、色情報生成部202により生成された色情報の一例を概念的に示す。図19に示す例では、符号Yは、画素(以下、「ドット」と称する場合がある)の色がイエローであることを示し、符号Cは、画素の色がシアンであることを示し、符号Mは、画素の色がマゼンタであることを示し、符号Kは、画素の色がブラックであることを示す。以下では、符号Yが付された画素と同一模様の画素の色はイエローを示し、符号Cが付された画素と同一模様の画素の色はシアンを示し、符号Mが付された画素と同一模様の画素の色はマゼンタを示し、符号Kが付された画素と同一模様の画素の色はブラックを示すものとする。 As described above, the acquisition unit 201 acquires the image data of the three-dimensional object and the height information synthesized by the synthesis unit 108 as three-dimensional data from the information processing device 10. Then, the color information generation unit 202 generates color information based on the image data of the three-dimensional object acquired by the acquisition unit 201, based on the RGB color values for each pixel of the image of the three-dimensional object. For example, the color information generation unit 202 generates color information by converting the RGB values of the image data of the three-dimensional object acquired by the acquisition unit 201 into CMYK values. FIG. 19 conceptually shows an example of color information generated by the color information generation unit 202. In the example shown in FIG. 19, the code Y indicates that the color of the pixel (hereinafter sometimes referred to as "dot") is yellow, and the code C indicates that the color of the pixel is cyan, and the code C indicates that the color of the pixel is cyan. M indicates that the pixel color is magenta, and K indicates that the pixel color is black. In the following, the color of the pixel with the same pattern as the pixel with the symbol Y is yellow, and the color of the pixel with the same pattern as the pixel with the symbol C is cyan, which is the same as the pixel with the symbol M. It is assumed that the color of the pixel of the pattern is magenta, and the color of the pixel of the same pattern as the pixel to which the symbol K is attached is black.

図20に、合成部108により合成された高さ情報を概念的に示す。図20に示すように、高さ情報は、複数層の情報である。すなわち、高さ情報は、3次元の情報であり(ただし、図20では、簡略に説明するため2次元で図示している)、図20では、簡便のため高さ情報がピラミッド形状を示す情報として説明する。 FIG. 20 conceptually shows height information synthesized by the synthesis unit 108. As shown in FIG. 20, the height information is information on multiple layers. That is, the height information is three-dimensional information (however, in FIG. 20, it is illustrated in two dimensions for the sake of brevity), and in FIG. 20, for the sake of simplicity, the height information is information indicating a pyramid shape. It will be explained as follows.

次に、図21を参照しながら、層情報の生成方法を概念的に説明する。層情報生成部203は、図20に示した高さ情報を示すドット上に、色情報生成部202により生成された色情報が示すドットを配置することによって、層情報の基となる立体画像情報を生成する。そして、層情報生成部203は、図21に示すように、立体画像情報を層毎に分離することによって、層毎の画素の配置を示す層情報(図21に示す例では4層の層情報)を生成する。さらに、層情報生成部203は、生成した層情報を、形状用のドットの配置を示す形状層情報と、色用のドットの配置を示す色層情報と、に分離する。なお、図21に示す例では、最上位の4層目の層情報は、色層情報のみで構成されている。 Next, a method for generating layer information will be conceptually explained with reference to FIG. 21. The layer information generation unit 203 generates stereoscopic image information, which is the basis of the layer information, by arranging the dots indicated by the color information generated by the color information generation unit 202 on the dots indicating the height information shown in FIG. generate. Then, as shown in FIG. 21, the layer information generation unit 203 separates the stereoscopic image information into layers, thereby generating layer information indicating the arrangement of pixels in each layer (layer information of four layers in the example shown in FIG. 21). ) is generated. Furthermore, the layer information generation unit 203 separates the generated layer information into shape layer information indicating the arrangement of shape dots and color layer information indicating the arrangement of color dots. Note that in the example shown in FIG. 21, the layer information of the fourth layer at the highest level is composed of only color layer information.

造形部206は、色層情報に基づく紫外線硬化インクの積層を、同一層の形状層情報よりもm(1以上の自然数)層分遅らせて行う。ここでは、図21に示す層情報を例に取り、m=1の場合の積層手法について説明する。なお、積層手法についてはこれに限定されるものではない。 The modeling unit 206 performs the lamination of the ultraviolet curing ink based on the color layer information with a delay of m layers (a natural number of 1 or more) than the shape layer information of the same layer. Here, the layer information shown in FIG. 21 is taken as an example, and a stacking method when m=1 will be described. Note that the lamination method is not limited to this.

まず、造形部206は、図22に示すように、ホワイト(W)の紫外線硬化インクを用いて、1層目の形状層情報が示すドット441を記録媒体P上に積層する。 First, as shown in FIG. 22, the modeling unit 206 stacks dots 441 indicated by the shape layer information of the first layer on the recording medium P using white (W) ultraviolet curing ink.

次に、造形部206は、図23に示すように、ホワイト(W)の紫外線硬化インクを用いて、2層目の形状層情報が示すドット451をドット441上に積層すると共に、イエロー(Y)の紫外線硬化インクを用いて、1層目の色層情報が示すドット442を記録媒体P上に積層する。 Next, as shown in FIG. 23, the modeling unit 206 uses white (W) ultraviolet curing ink to stack the dots 451 indicated by the second layer shape layer information on the dots 441, and also uses yellow (Y) ultraviolet curing ink. ) Dots 442 indicated by the color layer information of the first layer are laminated on the recording medium P using the ultraviolet curable ink.

次に、造形部206は、図24に示すように、ホワイト(W)の紫外線硬化インクを用いて、3層目の形状層情報が示すドット461をドット451上に積層すると共に、イエロー(Y)の紫外線硬化インクを用いて、2層目の色層情報が示すドット452をドット441上に積層する。 Next, as shown in FIG. 24, the modeling unit 206 uses white (W) ultraviolet curing ink to stack the dots 461 indicated by the shape layer information of the third layer on the dots 451, and also layers the dots 461 indicated by the shape layer information of the third layer on the dots 451. ) Dots 452 indicated by the color layer information of the second layer are laminated on dots 441 using ultraviolet curing ink.

最後に、造形部206は、図25に示すように、シアン(C)の紫外線硬化インクを用いて、3層目の色層情報が示すドット462をドット451上に積層すると共に、マゼンタ(M)の紫外線硬化インクを用いて、4層目の色層情報が示すドット472をドット461上に積層する。 Finally, as shown in FIG. 25, the modeling unit 206 uses cyan (C) ultraviolet curing ink to stack dots 462 indicated by the color layer information of the third layer on the dots 451, and also stacks magenta (M ) Dots 472 indicated by the color layer information of the fourth layer are laminated on dots 461 using ultraviolet curing ink.

なお、上述の図22~図25の例では、形状層情報に基づいてホワイト(W)の紫外線硬化インクを積層する例を示したが、これに限定されるものではなく、他の色(例えばクリア(CL))の紫外線硬化インクを積層するものとしてもよい。また、形状層情報に基づいてホワイト(W)以外の他の色(例えばクリア(CL))で積層して立体物の形状を形成し、その上にホワイト(W)で白色層を形成し、そして、色層情報に基づいて色用のドットを配置する(色層を形成する)ものとしてもよい。 In addition, in the examples of FIGS. 22 to 25 described above, an example was shown in which white (W) ultraviolet curing ink is laminated based on the shape layer information, but the invention is not limited to this, and other colors (for example, Clear (CL) ultraviolet curing ink may be laminated. Also, based on the shape layer information, a color other than white (W) (for example, clear (CL)) is laminated to form the shape of a three-dimensional object, and a white layer is formed with white (W) on top of the layer. Then, color dots may be arranged (forming a color layer) based on the color layer information.

(高さ情報の生成処理の流れ)
図26は、実施形態に係る情報処理装置の高さ情報の生成処理の流れの一例を示すフローチャートである。図26を参照しながら、本実施形態に係る情報処理装置10の高さ情報の生成処理の流れについて説明する。なお、立体物の画像データについては、予め分割部103により複数のレイヤに分割されているものとする。また、レイヤの対象領域における高さ情報の生成方法として、上述の第1の方法を採用した場合について説明する。
(Flow of height information generation process)
FIG. 26 is a flowchart illustrating an example of the flow of height information generation processing of the information processing apparatus according to the embodiment. The flow of the height information generation process of the information processing apparatus 10 according to the present embodiment will be described with reference to FIG. 26. Note that it is assumed that the image data of the three-dimensional object is divided into a plurality of layers by the dividing unit 103 in advance. Furthermore, a case will be described in which the above-described first method is adopted as a method for generating height information in the target region of a layer.

<ステップS11>
表示制御部104は、記憶部110に記憶されている、分割部103により分割された画像データであるレイヤを読み込む。レイヤが読み込まれた場合(ステップS11:Yes)、ステップS12へ移行し、読み込まれない場合(ステップS11:No)、待機する。
<Step S11>
The display control unit 104 reads the layer, which is the image data divided by the division unit 103, stored in the storage unit 110. If the layer is read (step S11: Yes), the process moves to step S12, and if the layer is not read (step S11: No), the process waits.

<ステップS12>
表示制御部104は、メイン画面1000を表示部105に表示させ、読み込んだレイヤに基づいて、レイヤ一覧表示領域1007にレイヤを一覧表示させる。また、表示制御部104は、ユーザによる入力部102を介した操作ボタン群1006に対する操作に従って、レイヤ一覧表示領域1007によって選択されたレイヤを編集するための図10に示した高さ情報設定画面1100を表示部105に表示させる。そして、ステップS13へ移行する。
<Step S12>
The display control unit 104 displays the main screen 1000 on the display unit 105, and displays a list of layers in the layer list display area 1007 based on the read layers. The display control unit 104 also displays the height information setting screen 1100 shown in FIG. 10 for editing the layer selected in the layer list display area 1007 according to the user's operation on the operation button group 1006 via the input unit 102. is displayed on the display unit 105. Then, the process moves to step S13.

<ステップS13>
対象領域抽出部106は、高さ情報設定画面1100において表示された特定のレイヤ(メイン画面1000で選択されたレイヤ)の画像において、ユーザによる入力部102を介した操作に従って、立体形状を生成する対象領域を抽出する。そして、ステップS14へ移行する。
<Step S13>
The target area extraction unit 106 generates a three-dimensional shape in the image of a specific layer (the layer selected on the main screen 1000) displayed on the height information setting screen 1100 according to the user's operation via the input unit 102. Extract the target area. Then, the process moves to step S14.

<ステップS14>
表示制御部104は、高さ情報設定画面1100の領域Aに表示されたレイヤの画像において、対象領域抽出部106により抽出された対象領域の輪郭を表示させる。また、高さ情報生成部107は、対象領域抽出部106により抽出された対象領域内の各位置のうち、輪郭から最も離れている位置と輪郭との距離(最大距離)を算出する。そして、表示制御部104は、高さ情報設定画面1100の領域Bに、0から最大距離までを横軸とし、高さを縦軸として、対象領域における立体形状を規定するための曲線のグラフを表示させる。なお、当該曲線として、デフォルトでは、横軸および縦軸の原点から、横軸および縦軸の最大値の点までを結ぶ直線をグラフとして表示されるものとしてもよい。そして、ステップS15へ移行する。
<Step S14>
The display control unit 104 displays the outline of the target area extracted by the target area extraction unit 106 in the layer image displayed in area A of the height information setting screen 1100. In addition, the height information generation unit 107 calculates the distance (maximum distance) between the contour and the position furthest from the contour among each position in the target area extracted by the target area extraction unit 106. Then, the display control unit 104 displays a graph of a curve for defining the three-dimensional shape in the target area in area B of the height information setting screen 1100, with the horizontal axis from 0 to the maximum distance and the vertical axis the height. Display. Note that, by default, the curve may be displayed as a straight line connecting the origin of the horizontal and vertical axes to the maximum value point of the horizontal and vertical axes. Then, the process moves to step S15.

<ステップS15>
ユーザによる入力部102を介した操作に従って、領域Bのグラフとしての直線を、曲線等に編集された(曲線等が入力された)場合(ステップS15:Yes)、ステップS16へ移行し、曲線等が入力されていない場合(ステップS15:No)、入力されるまで待機する。
<Step S15>
If the straight line as a graph of area B is edited into a curve, etc. (a curve, etc. is input) according to the user's operation via the input unit 102 (step S15: Yes), the process moves to step S16, and the curve, etc. If it has not been input (step S15: No), it waits until it is input.

<ステップS16>
高さ情報生成部107は、ユーザにより入力部102を介して編集された曲線のグラフに基づいて、対象領域の輪郭からの距離に応じて高さが変化する立体形状のデータである立体形状を生成する。そして、表示制御部104は、高さ情報生成部107により生成された立体形状を、高さ情報設定画面1100の領域Cに表示させる。そして、ステップS17へ移行する。
<Step S16>
The height information generation unit 107 generates a three-dimensional shape, which is data of a three-dimensional shape whose height changes depending on the distance from the outline of the target area, based on the curve graph edited by the user via the input unit 102. generate. Then, the display control unit 104 displays the three-dimensional shape generated by the height information generation unit 107 in area C of the height information setting screen 1100. Then, the process moves to step S17.

<ステップS17>
ユーザによる入力部102を介した操作に従って、領域Bのグラフとしての曲線が再度編集された(曲線が再入力された)場合(ステップS17:Yes)、ステップS15へ戻り、曲線が再入力されない場合(ステップS17:No)、ステップS18へ移行する。
<Step S17>
If the curve as a graph of area B is edited again (the curve is re-input) according to the user's operation via the input unit 102 (step S17: Yes), the process returns to step S15, and if the curve is not re-input. (Step S17: No), the process moves to step S18.

<ステップS18>
そして、高さ情報生成部107は、生成した対象領域の立体形状に基づいて、当該対象領域について高さ情報を生成する。高さ情報設定画面1100において、すべてのレイヤについて対象領域の曲線の編集が終了した場合(ステップS18:Yes)、ステップS19へ移行し、終了していない場合(ステップS18:No)、ステップS12へ戻る。
<Step S18>
Then, the height information generation unit 107 generates height information for the target area based on the generated three-dimensional shape of the target area. In the height information setting screen 1100, if the editing of the curve of the target area for all layers has been completed (step S18: Yes), the process moves to step S19, and if it has not been completed (step S18: No), the process moves to step S12. return.

<ステップS19>
合成部108は、メイン画面1000において、ユーザによる入力部102を介した操作ボタン群1006の操作に従って、各レイヤの高さ情報を合成(マージ)する。具体的には、合成部108は、各レイヤの対応する画素の高さ情報について、加算、減算、乗算、または除算、すなわち四則演算を行うことによって、画素ごとに1つの合成された高さ情報を生成する。そして、高さ情報の生成処理を終了する。
<Step S19>
The synthesizing unit 108 synthesizes (merges) the height information of each layer on the main screen 1000 according to the user's operation of the operation button group 1006 via the input unit 102. Specifically, the synthesis unit 108 performs addition, subtraction, multiplication, or division, that is, four arithmetic operations, on the height information of the corresponding pixels of each layer, thereby generating one piece of synthesized height information for each pixel. generate. Then, the height information generation process ends.

(立体物の造形動作の流れ)
図27は、実施形態に係る立体造形装置の立体物の造形動作の流れの一例を示すフローチャートである。図28は、実施形態に係る立体造形装置の立体物の造形動作における造形処理の流れの一例を示すフローチャートである。図27および図28を参照しながら、本実施形態に係る情報処理装置10の立体物の造形動作の流れについて説明する。
(Flow of modeling operation of three-dimensional object)
FIG. 27 is a flowchart showing an example of the flow of the three-dimensional object modeling operation of the three-dimensional modeling apparatus according to the embodiment. FIG. 28 is a flowchart illustrating an example of the flow of modeling processing in the three-dimensional object modeling operation of the three-dimensional modeling apparatus according to the embodiment. The flow of the three-dimensional object modeling operation of the information processing apparatus 10 according to the present embodiment will be described with reference to FIGS. 27 and 28.

<ステップS21>
まず、取得部201は、情報処理装置10から、立体物の画像データおよび高さ情報を取得する。そして、ステップS22へ移行する。
<Step S21>
First, the acquisition unit 201 acquires image data and height information of a three-dimensional object from the information processing device 10. Then, the process moves to step S22.

<ステップS22>
続いて、色情報生成部202は、取得部201により取得された立体物の画像データに基づいて、当該立体物の画像の画素毎のRGBの色値に基づいて色情報を生成する。そして、ステップS23へ移行する。
<Step S22>
Next, the color information generation unit 202 generates color information based on the image data of the three-dimensional object acquired by the acquisition unit 201, based on the RGB color values for each pixel of the image of the three-dimensional object. Then, the process moves to step S23.

<ステップS23>
続いて、層情報生成部203は、高さ情報を示すドット上に、色情報生成部202により生成された色情報が示すドットを配置することによって、層情報の基となる立体画像情報を生成する。そして、層情報生成部203は、立体画像情報を層毎に分離することによって、層毎の画素の配置を示す層情報を生成する。さらに、層情報生成部203は、生成した層情報を、形状用のドットの配置を示す形状層情報と、色用のドットの配置を示す色層情報と、に分離する。そして、ステップS24へ移行する。
<Step S23>
Next, the layer information generation unit 203 generates stereoscopic image information that is the basis of the layer information by arranging dots indicated by the color information generated by the color information generation unit 202 on the dots indicating the height information. do. The layer information generation unit 203 then generates layer information indicating the arrangement of pixels in each layer by separating the stereoscopic image information into layers. Furthermore, the layer information generation unit 203 separates the generated layer information into shape layer information indicating the arrangement of shape dots and color layer information indicating the arrangement of color dots. Then, the process moves to step S24.

<ステップS24>
造形部206は、層情報生成部203により生成された層毎の層情報に基づいて、記録媒体P上に紫外線硬化インクを積層させて立体物を造形する図28に示す造形処理(ステップS241~S244)を実行する。なお、図28に示す例では、i(iは2 以上の自然数)-mが0以下の場合、色層情報に基づく紫外線硬化インクの積層は行われないものとする。また、nは最上位層であり、mは、上述の通り、1以上の自然数である。
<Step S24>
The modeling unit 206 performs the modeling process shown in FIG. 28 (from step S241 to S244) is executed. In the example shown in FIG. 28, if i (i is a natural number of 2 or more) - m is 0 or less, the ultraviolet curing ink is not laminated based on the color layer information. Further, n is the highest layer, and m is a natural number of 1 or more, as described above.

<<ステップS241>>
まず、造形部206は、紫外線硬化インクを用いて、1層目の形状層情報が示すドットを記録媒体上に積層する。そして、ステップS242へ移行する。
<<Step S241>>
First, the modeling unit 206 uses ultraviolet curing ink to stack dots indicated by the shape layer information of the first layer on the recording medium. Then, the process moves to step S242.

<<ステップS242>>
続いて、造形部206は、紫外線硬化インクを用いて、2層目の形状層情報が示すドットを1層目の形状層情報が示すドット上に積層すると共に、2-m層目の色層情報が示すドットを記録媒体P上に積層する。
<<Step S242>>
Next, the modeling unit 206 uses ultraviolet curing ink to stack the dots indicated by the shape layer information of the second layer on the dots indicated by the shape layer information of the first layer, and also laminates the dots indicated by the shape layer information of the 2-mth layer. Dots indicated by the information are stacked on the recording medium P.

以下、造形部206は、i=n-1となるまで、紫外線硬化インクを用いて、i層目の形状層情報が示すドットをi-1層目の形状層情報が示すドット上に積層すると共に、i-m層目の色層情報が示すドットを記録媒体P、またはi-m-1層目の形状層情報が示すドット上に積層する。ここでは、iは3から始まり、処理が行われる毎に、値がインクリメントされる。そして、ステップS242へ移行する。 Thereafter, the modeling unit 206 uses ultraviolet curing ink to stack the dots indicated by the shape layer information of the i-th layer on the dots indicated by the shape layer information of the i-1th layer until i=n-1. At the same time, the dots indicated by the color layer information of the im-th layer are stacked on the recording medium P or the dots indicated by the shape layer information of the im-1th layer. Here, i starts from 3 and is incremented each time a process is performed. Then, the process moves to step S242.

<<ステップS243>>
続いて、造形部206は、紫外線硬化インクを用いて、n層目の形状層情報が示すドットをn-1層目の形状層情報が示すドット上に積層すると共に、n-m層目の色層情報が示すドットをn-m-1層目の形状層情報が示すドット上に積層する。そして、ステップS244へ移行する。
<<Step S243>>
Next, the modeling unit 206 uses ultraviolet curable ink to stack the dots indicated by the shape layer information of the n-th layer on the dots indicated by the shape layer information of the n−1 layer, and also stacks the dots indicated by the shape layer information of the The dots indicated by the color layer information are stacked on the dots indicated by the shape layer information of the nm-1st layer. Then, the process moves to step S244.

<<ステップS244>>
最後に、造形部206は、紫外線硬化インクを用いて、n-m+1層目の色層情報が示すドット~n層目の色層情報が示すドットをそれぞれ、n-m層目の形状層情報が示すドット上~n-1層目の形状層情報が示すドット上に積層する。そして、立体物の造形動作を終了する。
<<Step S244>>
Finally, the modeling unit 206 uses ultraviolet curing ink to convert the dots indicated by the color layer information of the nm+1st layer to the dots indicated by the color layer information of the nth layer into shape layer information of the nmth layer. Lays on the dots indicated by the shape layer information of the (n-1)th layer above the dots indicated by . Then, the three-dimensional object modeling operation ends.

以上のように、本実施形態に係る情報処理装置10では、立体物の画像データから分割部103により分割されたレイヤごとに高さ情報生成部107により高さ情報が生成されたうえで、合成部108により四則演算により1つの高さ情報に合成されるものとしている。これによって、レイヤごとに簡便な操作に基づいて生成された高さ情報を、四則演算により合成することができるので、簡便な操作性を維持したまま、複雑な構成の高さ情報を生成することができ、複雑な立体物の造形が可能となり、簡便な操作で自由度の高い立体データを生成することができる。 As described above, in the information processing device 10 according to the present embodiment, height information is generated by the height information generation unit 107 for each layer divided by the division unit 103 from the image data of a three-dimensional object, and then the height information is It is assumed that the unit 108 combines the height information into one piece of height information by performing four arithmetic operations. As a result, height information generated based on simple operations for each layer can be synthesized using four arithmetic operations, making it possible to generate height information with complex configurations while maintaining simple operability. It is possible to create complex three-dimensional objects, and it is possible to generate three-dimensional data with a high degree of freedom with simple operations.

また、レイヤの対象領域における高さ情報の生成方法の方法として上述の第2の方法を採用した場合、分割部103により分割されたレイヤにおけるグレースケールの濃淡をそのまま立体形状に反映させることができる。また、レイヤの明度を高さ情報の生成に用いる場合、上述の第1の方法における図12および図13で示したような、高さ情報を生成するために用いる領域Bにおける曲線の入力および編集操作を必要としないため、作業の手間を省くことができる。 Furthermore, when the second method described above is adopted as a method for generating height information in the target area of a layer, the gray scale shading of the layer divided by the dividing unit 103 can be directly reflected in the three-dimensional shape. . In addition, when using the brightness of a layer to generate height information, input and edit the curve in area B used to generate height information, as shown in FIGS. 12 and 13 in the first method described above. Since no operation is required, the work effort can be saved.

(変形例)
変形例に係る立体造形システム1について、上述の実施形態に係る立体造形システム1と相違する点を中心に説明する。
(Modified example)
The three-dimensional modeling system 1 according to the modified example will be described with a focus on the points that are different from the three-dimensional modeling system 1 according to the above-described embodiment.

図29は、変形例に係る立体造形装置のヘッドユニットの構成の一例を示す図である。図29を参照しながら、本変形例に係る立体造形システム1の立体造形装置20のヘッドユニット1670について説明する。 FIG. 29 is a diagram illustrating an example of the configuration of a head unit of a three-dimensional modeling apparatus according to a modification. The head unit 1670 of the three-dimensional printing apparatus 20 of the three-dimensional printing system 1 according to this modification will be described with reference to FIG. 29.

本変形例に係る立体造形システム1の立体造形装置20は、上述の実施形態に係る立体造形装置20のヘッドユニット670の代わりに、溶融(サーマル)式のヘッドユニット1670を有する。ヘッドユニット1670は、溶融(サーマル)ヘッド1671を有する。 The three-dimensional printer 20 of the three-dimensional printer system 1 according to this modification includes a thermal head unit 1670 instead of the head unit 670 of the three-dimensional printer 20 according to the above-described embodiment. Head unit 1670 has a melting (thermal) head 1671.

溶融ヘッド1671は、溶融インクIaを有し、溶融インクIaを加熱することにより、記録媒体Pに対し、溶融インクIaを吐出する。溶融インクIaは、インクジェット方式と同様、ホワイト(W)、クリア(CL)、イエロー(Y)、シアン(C)、マゼンタ(M)、およびブラック(K)の溶融インクで構成される。 The melting head 1671 has the melted ink Ia, and ejects the melted ink Ia onto the recording medium P by heating the melted ink Ia. The molten ink Ia is composed of white (W), clear (CL), yellow (Y), cyan (C), magenta (M), and black (K) molten ink, similar to the inkjet method.

このような、溶融(サーマル)式のヘッドユニット1670を有する構成においても、上述の実施形態に係る構成と同様の効果を奏する。 Even in a configuration including such a melting (thermal) type head unit 1670, the same effects as in the configuration according to the above-described embodiment can be achieved.

なお、上述の実施形態および変形例において、情報処理装置10および立体造形装置20の各機能部の少なくともいずれかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。また、上述の実施形態および変形例に係る情報処理装置10および立体造形装置20で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk-Recordable)、またはDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態および変形例に係る情報処理装置10および立体造形装置20で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態および変形例に係る情報処理装置10および立体造形装置20で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述の実施形態および変形例に係る情報処理装置10および立体造形装置20で実行されるプログラムは、上述した各機能部のうち少なくともいずれかを含むモジュール構成となっており、実際のハードウェアとしてはCPU501(CPU601)が上述の記憶装置(補助記憶装置505またはNVRAM604)からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置(例えば、RAM503またはRAM603)上にロードされて生成されるようになっている。 In addition, in the above-described embodiments and modified examples, when at least one of the functional units of the information processing device 10 and the three-dimensional modeling device 20 is realized by executing a program, the program is provided by being pre-installed in a ROM or the like. be done. Furthermore, the programs executed by the information processing device 10 and the three-dimensional modeling device 20 according to the embodiments and modifications described above are files in an installable format or an executable format and are stored on a CD-ROM (Compact Disc Read Only Memory), It may be configured to be recorded and provided on a computer-readable recording medium such as a flexible disk (FD), a CD-R (Compact Disk-Recordable), or a DVD (Digital Versatile Disc). Further, the programs executed by the information processing device 10 and the three-dimensional modeling device 20 according to the above-described embodiments and modifications are stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network. It may be configured as follows. Further, the programs executed by the information processing device 10 and the three-dimensional modeling device 20 according to the above-described embodiments and modifications may be configured to be provided or distributed via a network such as the Internet. Further, the programs executed by the information processing device 10 and the three-dimensional modeling device 20 according to the above-described embodiments and modifications have a module configuration that includes at least one of the above-mentioned functional units, and are implemented using actual hardware. As a result, the CPU 501 (CPU 601) reads and executes the program from the storage device (auxiliary storage device 505 or NVRAM 604), so that each of the functional units described above is loaded onto the main storage device (for example, RAM 503 or RAM 603). It is now generated.

1 立体造形システム
10 情報処理装置
20 立体造形装置
101 通信部
102 入力部
103 分割部
104 表示制御部
105 表示部
106 対象領域抽出部
107 高さ情報生成部
108 合成部
109 出力部
110 記憶部
201 取得部
202 色情報生成部
203 層情報生成部
204 搬送制御部
205 移動制御部
206 造形部
441、442、451、452、461、462、472 ドット
501 CPU
502 ROM
503 RAM
505 補助記憶装置
506 記録メディア
507 メディアドライブ
508 ディスプレイ
509 ネットワークI/F
510 バス
511 キーボード
512 マウス
513 DVD
514 DVDドライブ
515 外部I/F
600 制御部
601 CPU
602 ROM
603 RAM
604 NVRAM
605 ASIC
606 I/O
607 ホストI/F
611 ヘッド駆動部
612 照射駆動部
613 モータ駆動部
614 メンテナンス駆動部
621 操作パネル
622 センサ
650 側面
660 タンク機構
661 タンク
662 供給チューブ
670 ヘッドユニット
671、671C、671CL、671M、671K、671W、671Y 吐出ヘッド
672 照射装置
680 メンテナンス機構
682 キャップ
683 ワイパ
691 ガイド部材
692 ガイド部材
693 キャリッジ
695 ステージ
696 X方向走査機構
697 Y方向走査機構
698 Z方向走査機構
1000 メイン画面
1001 メニューバー
1002 立体表示領域
1003 ステータスバー
1004 更新ボタン
1005 リスト表示切替ボタン
1006 操作ボタン群
1007 レイヤ一覧表示領域
1100 高さ情報設定画面
1670 ヘッドユニット
1671 溶融ヘッド
A~C 領域
C11a、C11b、C12a、C12b 曲線
I 紫外線硬化インク
Ia 溶融インク
IMG 画像データ
L 造形層
L1、L2 レイヤ
L11、L12 レイヤ
O11、O12 輪郭
P 記録媒体
S11a、S11b、S12a、S12b 立体形状
TR、TR11、TR12 対象領域
1 3D modeling system 10 Information processing device 20 3D modeling device 101 Communication unit 102 Input unit 103 Division unit 104 Display control unit 105 Display unit 106 Target area extraction unit 107 Height information generation unit 108 Synthesis unit 109 Output unit 110 Storage unit 201 Acquisition Section 202 Color information generation section 203 Layer information generation section 204 Conveyance control section 205 Movement control section 206 Modeling section 441, 442, 451, 452, 461, 462, 472 Dots 501 CPU
502 ROM
503 RAM
505 Auxiliary storage device 506 Recording media 507 Media drive 508 Display 509 Network I/F
510 Bus 511 Keyboard 512 Mouse 513 DVD
514 DVD drive 515 External I/F
600 Control unit 601 CPU
602 ROM
603 RAM
604 NVRAM
605 ASIC
606 I/O
607 Host I/F
611 Head drive section 612 Irradiation drive section 613 Motor drive section 614 Maintenance drive section 621 Operation panel 622 Sensor 650 Side surface 660 Tank mechanism 661 Tank 662 Supply tube 670 Head unit 671, 671C, 671CL, 671M, 671K, 671W, 671Y Discharge head 672 Irradiation device 680 Maintenance mechanism 682 Cap 683 Wiper 691 Guide member 692 Guide member 693 Carriage 695 Stage 696 X direction scanning mechanism 697 Y direction scanning mechanism 698 Z direction scanning mechanism 1000 Main screen 1001 Menu bar 1002 3D display area 1003 Status bar 1004 Update button 1005 List display switching button 1006 Operation button group 1007 Layer list display area 1100 Height information setting screen 1670 Head unit 1671 Melting head A to C area C11a, C11b, C12a, C12b Curve I Ultraviolet curing ink Ia Melting ink IMG Image data L Modeling Layer L1, L2 Layer L11, L12 Layer O11, O12 Contour P Recording medium S11a, S11b, S12a, S12b Three-dimensional shape TR, TR11, TR12 Target area

特開2017-120571号公報Japanese Patent Application Publication No. 2017-120571

Claims (14)

立体物の画像データから分割された複数のレイヤ画像を、表示部に表示させる表示制御部と、
前記各レイヤ画像について、立体形状を造形するための高さ情報を生成する生成部と、
前記生成部により生成された前記各レイヤ画像の前記高さ情報を合成する合成部と、
を備えた情報処理装置。
a display control unit that displays a plurality of layered images divided from image data of a three-dimensional object on a display unit;
a generation unit that generates height information for modeling a three-dimensional shape for each layer image;
a combining unit that combines the height information of each of the layer images generated by the generating unit;
An information processing device equipped with
前記レイヤ画像から、前記高さ情報の生成の対象となる対象領域を抽出する抽出部を、さらに備え、
前記生成部は、前記各レイヤ画像の前記対象領域において、前記高さ情報を生成する請求項1に記載の情報処理装置。
further comprising an extraction unit that extracts a target area for generating the height information from the layer image,
The information processing apparatus according to claim 1, wherein the generation unit generates the height information in the target area of each layer image.
前記レイヤ画像は、グレースケールの画像であり、
前記生成部は、前記レイヤ画像の明度に基づいて、前記高さ情報を生成する請求項1または2に記載の情報処理装置。
The layer image is a grayscale image,
The information processing apparatus according to claim 1 or 2, wherein the generation unit generates the height information based on the brightness of the layer image.
前記生成部は、入力部により入力された、前記対象領域の輪郭から該対象領域内の各位置までの距離と高さとの関係を示す曲線に基づいて、前記対象領域内の位置毎に、各位置と前記輪郭の一点との距離に応じた高さを求め、該高さに基づいて前記対象領域の前記高さ情報を生成する請求項2に記載の情報処理装置。 The generation unit is configured to generate each position in the target area for each position in the target area based on a curve inputted by the input unit and indicating the relationship between the distance and height from the outline of the target area to each position in the target area. The information processing apparatus according to claim 2, wherein a height is determined according to a distance between a position and a point on the contour, and the height information of the target area is generated based on the determined height. 前記対象領域の各位置に対応する前記輪郭の一点は、前記各位置に最も近い前記輪郭上の点である請求項4に記載の情報処理装置。 5. The information processing apparatus according to claim 4, wherein one point on the contour corresponding to each position of the target area is a point on the contour closest to each position. 前記対象領域の各位置に対応する前記輪郭の一点は、前記各位置に最も遠い前記輪郭上の点である請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, wherein one point on the contour corresponding to each position of the target area is a point on the contour furthest from each position. 前記立体物の画像データから、前記複数のレイヤ画像に分割する分割部を、さらに備えた請求項1~6のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, further comprising a dividing unit that divides the image data of the three-dimensional object into the plurality of layer images. 前記合成部は、前記各レイヤ画像の前記高さ情報について、四則演算の少なくともいずれかを行うことによって合成する請求項1~7のいずれか一項に記載の情報処理装置。 8. The information processing apparatus according to claim 1, wherein the compositing unit performs compositing by performing at least one of four arithmetic operations on the height information of each layer image. 前記レイヤ画像ごとに、予め四則演算のうちいずれかの演算方法が割り当てられており、
前記合成部は、前記レイヤ画像ごとに割り当てられた前記演算方法に従って、前記各レイヤ画像の前記高さ情報を合成する請求項1~8のいずれか一項に記載の情報処理装置。
For each layer image, one of the four arithmetic operations is assigned in advance,
The information processing device according to any one of claims 1 to 8, wherein the combining unit combines the height information of each of the layer images according to the calculation method assigned to each layer image.
前記表示制御部は、前記合成部により合成された前記高さ情報に基づいて生成した立体形状の画像を、前記表示部に表示させる請求項1~9のいずれか一項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 9, wherein the display control unit causes the display unit to display a three-dimensional image generated based on the height information synthesized by the synthesis unit. . 立体物の画像データから分割された複数のレイヤ画像を、表示部に表示させる表示制御部と、
前記各レイヤ画像について、立体形状を造形するための高さ情報を生成する生成部と、
前記生成部により生成された前記各レイヤ画像の前記高さ情報を合成する合成部と、
前記合成部により合成された前記高さ情報と、前記立体物の画像データとに基づいて、該立体物を造形する造形部と、
を備えた立体造形システム。
a display control unit that displays a plurality of layered images divided from image data of a three-dimensional object on a display unit;
a generation unit that generates height information for modeling a three-dimensional shape for each layer image;
a combining unit that combines the height information of each of the layer images generated by the generating unit;
a modeling unit that models the three-dimensional object based on the height information synthesized by the synthesis unit and image data of the three-dimensional object;
A three-dimensional printing system equipped with
前記立体造形システムは、情報処理装置と、立体造形装置と、を備え、
前記情報処理装置は、前記表示制御部と、前記生成部と、前記合成部とを備え、
前記立体造形装置は、前記造形部を備えた請求項11に記載の立体造形システム。
The three-dimensional printing system includes an information processing device and a three-dimensional printing device,
The information processing device includes the display control section, the generation section, and the synthesis section,
The three-dimensional modeling system according to claim 11, wherein the three-dimensional modeling apparatus includes the three-dimensional modeling unit.
立体物の画像データから分割された複数のレイヤ画像を、表示部に表示させる表示制御ステップと、
前記各レイヤ画像について、立体形状を造形するための高さ情報を生成する生成ステップと、
生成した前記各レイヤ画像の前記高さ情報を合成する合成ステップと、
を有する立体データ生成方法。
a display control step of displaying a plurality of layer images divided from image data of a three-dimensional object on a display unit;
a generation step of generating height information for modeling a three-dimensional shape for each layer image;
a compositing step of composing the height information of each of the generated layer images;
A three-dimensional data generation method having the following.
コンピュータに、
立体物の画像データから分割された複数のレイヤ画像を、表示部に表示させる表示制御ステップと、
前記各レイヤ画像について、立体形状を造形するための高さ情報を生成する生成ステップと、
生成した前記各レイヤ画像の前記高さ情報を合成する合成ステップと、
を実行させるためのプログラム。
to the computer,
a display control step of displaying a plurality of layer images divided from image data of a three-dimensional object on a display unit;
a generation step of generating height information for modeling a three-dimensional shape for each layer image;
a compositing step of composing the height information of each of the generated layer images;
A program to run.
JP2020064514A 2020-03-31 2020-03-31 Information processing device, 3D modeling system, 3D data generation method and program Active JP7428053B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020064514A JP7428053B2 (en) 2020-03-31 2020-03-31 Information processing device, 3D modeling system, 3D data generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020064514A JP7428053B2 (en) 2020-03-31 2020-03-31 Information processing device, 3D modeling system, 3D data generation method and program

Publications (2)

Publication Number Publication Date
JP2021163229A JP2021163229A (en) 2021-10-11
JP7428053B2 true JP7428053B2 (en) 2024-02-06

Family

ID=78003543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020064514A Active JP7428053B2 (en) 2020-03-31 2020-03-31 Information processing device, 3D modeling system, 3D data generation method and program

Country Status (1)

Country Link
JP (1) JP7428053B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532243A (en) 2006-04-03 2009-09-10 ストラタシス・インコーポレイテッド Automatic end calibration in extrusion equipment.
JP2015098165A (en) 2013-11-18 2015-05-28 三緯國際立體列印科技股▲フン▼有限公司 Three-d printing method
JP2017120571A (en) 2015-12-28 2017-07-06 株式会社リコー Information processing apparatus, three-dimensional modeling device, and three-dimensional modeling system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532243A (en) 2006-04-03 2009-09-10 ストラタシス・インコーポレイテッド Automatic end calibration in extrusion equipment.
JP2015098165A (en) 2013-11-18 2015-05-28 三緯國際立體列印科技股▲フン▼有限公司 Three-d printing method
JP2017120571A (en) 2015-12-28 2017-07-06 株式会社リコー Information processing apparatus, three-dimensional modeling device, and three-dimensional modeling system

Also Published As

Publication number Publication date
JP2021163229A (en) 2021-10-11

Similar Documents

Publication Publication Date Title
JP5516249B2 (en) Printing apparatus and printing method
JP5899665B2 (en) Printing apparatus, printing method, and program
JP5742154B2 (en) Printing device
JP6031809B2 (en) Print control apparatus and print image control method
JP5444664B2 (en) Printing method and apparatus
JP4998352B2 (en) Print data creation apparatus, print data creation program, and computer-readable recording medium
JP6801254B2 (en) Image forming device, stereoscopic image modeling method and program
JP5779953B2 (en) Printing apparatus, printing method, and program
JP6736882B2 (en) 3D modeling device
JP6840941B2 (en) Liquid discharge device, image processing device, program and liquid discharge method
JP7428053B2 (en) Information processing device, 3D modeling system, 3D data generation method and program
JP6355419B2 (en) Image processing apparatus and image processing method
US10996653B2 (en) Three-dimensional object building device, three-dimensional object building method, and method of producing three-dimensional object
JP6922470B2 (en) Information processing device, 3D modeling device, 3D modeling system, setting method, and program
JP6559035B2 (en) RECORDING DATA GENERATION DEVICE AND RECORDING DATA GENERATION METHOD
JP6828348B2 (en) Image forming apparatus, image forming system, image forming method, and program
JP2021189775A (en) Information processing unit, solid molding system, solid data generation method and program
EP3301900B1 (en) Information processing apparatus, three-dimensional fabrication apparatus, three-dimensional fabrication system, setting method, and computer program
JP5632681B2 (en) Control apparatus and method
JP6079820B2 (en) Print head
JP2014128901A (en) Image processing device and image processing method
JP2017016648A (en) Image processing apparatus, image processing method, and program
JP7000923B2 (en) Liquid discharge device, liquid discharge method, program, and liquid discharge system
JP6385109B2 (en) Image forming apparatus, image forming method, and program
JP2021115773A (en) Printer and printing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240108

R151 Written notification of patent or utility model registration

Ref document number: 7428053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151