JP6844145B2 - Position detection device, droplet ejection device, program, position detection method - Google Patents

Position detection device, droplet ejection device, program, position detection method Download PDF

Info

Publication number
JP6844145B2
JP6844145B2 JP2016153799A JP2016153799A JP6844145B2 JP 6844145 B2 JP6844145 B2 JP 6844145B2 JP 2016153799 A JP2016153799 A JP 2016153799A JP 2016153799 A JP2016153799 A JP 2016153799A JP 6844145 B2 JP6844145 B2 JP 6844145B2
Authority
JP
Japan
Prior art keywords
distance
detecting
movement amount
posture
hmp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016153799A
Other languages
Japanese (ja)
Other versions
JP2018021844A (en
Inventor
俊介 下岡
俊介 下岡
泰成 原田
泰成 原田
順 渡辺
順 渡辺
哲美 中田
哲美 中田
裕貴 田中
裕貴 田中
俊彰 細川
俊彰 細川
榎並 崇史
崇史 榎並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016153799A priority Critical patent/JP6844145B2/en
Publication of JP2018021844A publication Critical patent/JP2018021844A/en
Application granted granted Critical
Publication of JP6844145B2 publication Critical patent/JP6844145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Printers Characterized By Their Purpose (AREA)
  • Ink Jet (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、位置検出装置、液滴吐出装置、プログラム及び位置検出方法に関する。 The present invention relates to a position detection device, a droplet ejection device, a program and a position detection method.

用紙を搬送させて用紙が画像の形成位置に到達したタイミングでインクなどを吐出して画像を形成するプリンタが知られている。これに対し、携帯が容易なスマートデバイスの普及などにより、プリンタに関してもユーザが出先などで手軽に印刷したいというニーズが高まっている。そこで、ユーザが紙面上を移動させてインクを吐出させるプリンタ(以下、HMP:ハンディモバイルプリンタという)が実用化されつつある。HMPには紙搬送システムが搭載されていないので小型化が可能である。 There are known printers that form an image by conveying the paper and ejecting ink or the like at the timing when the paper reaches the image forming position. On the other hand, with the spread of smart devices that are easy to carry, there is an increasing need for printers to be easily printed by users on the go. Therefore, a printer (hereinafter referred to as HMP: handy mobile printer) in which a user moves on a paper surface to eject ink is being put into practical use. Since the HMP is not equipped with a paper transport system, it can be miniaturized.

HMPは紙面上における自分の位置を検出して位置に応じた画像を形成するためのインクを吐出する。この位置を検出するための機構として、従来、底面に2つのナビゲーションセンサが配置されているHMPが知られている(例えば、特許文献1参照。)。ナビゲーションセンサは光学的に紙面の微小なエッジを検出してサイクル時間ごとの移動量を検出するセンサである。 The HMP detects its position on the paper surface and ejects ink for forming an image according to the position. Conventionally, as a mechanism for detecting this position, an HMP in which two navigation sensors are arranged on the bottom surface is known (see, for example, Patent Document 1). The navigation sensor is a sensor that optically detects minute edges on the paper surface to detect the amount of movement for each cycle time.

しかしながら、2つのナビゲーションセンサを用いて位置を算出する方法では、ナビゲーションセンサの組み付け位置のずれによって位置に誤差が生じるという問題がある。すなわち、HMPは2つのナビゲーションセンサのそれぞれの移動量の違いから回転角度を算出しているが、理想的な組み付け位置(設計値)に対し実際の組み付け位置がずれていると、算出される回転角度も実際とは異なった値になり、HMPの位置に誤差が生じる。また、この誤差は累積され徐々に大きくなる。 However, the method of calculating the position using the two navigation sensors has a problem that an error occurs in the position due to the deviation of the assembled position of the navigation sensor. That is, the HMP calculates the rotation angle from the difference in the amount of movement of each of the two navigation sensors, but if the actual assembly position deviates from the ideal assembly position (design value), the calculated rotation The angle will also be different from the actual value, and an error will occur in the position of the HMP. In addition, this error is accumulated and gradually increases.

紙面上の絶対位置を検出できればHMPの位置を補正できるが、絶対位置を検出するには精度の高い補正用のパターンが紙面に形成されており、かつ、HMPにもパターンを読み取る機能が搭載されている必要がある。 If the absolute position on the paper can be detected, the position of the HMP can be corrected, but in order to detect the absolute position, a highly accurate correction pattern is formed on the paper, and the HMP also has a function to read the pattern. Must be.

本発明は、上記課題に鑑み、位置の誤差を低減できる位置検出装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a position detecting device capable of reducing a position error.

本発明は、移動量と姿勢とに基づいて移動面における位置を検出する位置検出装置であって、前記移動量を検出する少なくとも2つの移動量検出手段と、前記位置検出装置の姿勢に関する情報を取得する姿勢情報取得手段と、前記移動量と前記姿勢に関する情報を用いて前記2つの移動量検出手段の間の距離を求める検出手段位置算出手段と、
を有し、前記検出手段位置算出手段が算出した前記距離を用いて前記位置検出装置の位置を算出する。
The present invention is a position detecting device that detects a position on a moving surface based on a moving amount and a posture, and provides information on at least two moving amount detecting means for detecting the moving amount and the posture of the position detecting device. The posture information acquisition means to be acquired, the detection means position calculation means for obtaining the distance between the two movement amount detection means using the movement amount and the information related to the posture, and the detection means position calculation means.
The position of the position detection device is calculated using the distance calculated by the detection means position calculation means.

位置の誤差を低減できる位置検出装置を提供することができる。 It is possible to provide a position detecting device capable of reducing a position error.

2つのナビゲーションセンサ間の距離の補正の概略を説明する図の一例である。It is an example of the figure explaining the outline of the correction of the distance between two navigation sensors. HMPによる画像形成を模式的に示す図の一例である。This is an example of a diagram schematically showing image formation by HMP. HMPのハードウェア構成図の一例である。This is an example of the hardware configuration diagram of HMP. 制御部の構成を説明する図の一例である。This is an example of a diagram for explaining the configuration of the control unit. 画像読取部の構成図の一例である。This is an example of a configuration diagram of an image reading unit. ナビゲーションセンサのハードウェア構成の構成例を示す図である。It is a figure which shows the configuration example of the hardware configuration of a navigation sensor. ナビゲーションセンサによる移動量の検出方法を説明する図である。It is a figure explaining the method of detecting the movement amount by a navigation sensor. IJ記録ヘッドにおけるノズル位置を説明する図の一例である。It is an example of the figure explaining the nozzle position in the IJ recording head. HMPの座標系と位置の算出方法を説明する図の一例である。It is an example of the figure explaining the calculation method of the coordinate system and the position of HMP. 画像形成中に生じるHMPの回転角度の求め方を説明する図の一例である。This is an example of a diagram for explaining how to obtain the rotation angle of HMP generated during image formation. ノズルの位置の算出を説明する図の一例である。This is an example of a diagram for explaining the calculation of the nozzle position. HMPの機能ブロック図の一例である。This is an example of a functional block diagram of HMP. 画像データ出力器とHMPの動作手順を説明するフローチャート図の一例である。This is an example of a flowchart for explaining the operation procedure of the image data output device and the HMP. 画像形成の開始前に行われる距離の補正処理の手順を説明するフローチャート図の一例である。This is an example of a flowchart for explaining the procedure of the distance correction process performed before the start of image formation. 画像形成の開始前に行われる距離の補正処理の手順を説明するフローチャート図の一例である。This is an example of a flowchart for explaining the procedure of the distance correction process performed before the start of image formation. 画像データ出力器とHMPの動作手順を説明するフローチャート図の一例である。This is an example of a flowchart for explaining the operation procedure of the image data output device and the HMP. 補正システムの概略構成図の一例である。This is an example of a schematic configuration diagram of a correction system. 補正システムの機能ブロック図の一例である。This is an example of a functional block diagram of the correction system. 補正システムの動作手順を説明するシーケンス図の一例である。This is an example of a sequence diagram for explaining the operation procedure of the correction system.

以下、本発明を実施するための形態について図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<取り付け位置の補正の概略>
図1は、2つのナビゲーションセンサ間の距離Lの補正の概略を説明する図の一例である。HMP(ハンディモバイルプリンタ)20はHMP20の底面に距離Lをおいて配置された少なくとも2つのナビゲーションセンサS、Sを有している。また、本実施形態のHMP20はジャイロセンサ31を有している。このジャイロセンサ31は、2つのナビゲーションセンサS、Sが検出する移動量に基づいた回転角変化量dθnaviよりも精度よくHMP20の回転角変化量dθgyroを検出する。
<Outline of correction of mounting position>
FIG. 1 is an example of a diagram illustrating an outline of correction of a distance L between two navigation sensors. The HMP (Handy Mobile Printer) 20 has at least two navigation sensors S 0 and S 1 arranged at a distance L on the bottom surface of the HMP 20. Further, the HMP 20 of the present embodiment has a gyro sensor 31. The gyro sensor 31, two navigation sensors S 0, S 1 detects the rotation angle variation d [theta] Gyro accurately HMP20 than the rotation angle variation d [theta] navi based on the movement amount detecting.

制御部25には2つのナビゲーションセンサS、Sから周期ごとの移動量ΔX´0、ΔX´1が出力される。また、制御部25にはジャイロセンサ31から周期ごとの回転角変化量dθgyroが出力される。従来から、制御部25は、移動量ΔX´0、ΔX´1と距離Lをパラメータとする式「f(ΔX´0、ΔX´1、L)」によりdθnaviを算出している。しかし、この距離LがナビゲーションセンサS、Sの取り付け誤差により正確にはLでない可能性がある。一方、ジャイロセンサ31が検出する回転角変化量dθgyroは一定以上の精度(ナビゲーションセンサ以上の精度)が保証されている。 The two navigation sensors S 0 and S 1 output to the control unit 25 the movement amounts ΔX ′ 0 and ΔX ′ 1 for each cycle. Further, the control unit 25 the rotation angle change amount d [theta] Gyro per cycle from the gyro sensor 31 is outputted. Conventionally, the control unit 25 calculates dθ navi by the equation “f (ΔX ′ 0 , ΔX ′ 1 , L)” in which the movement amounts ΔX ′ 0 , ΔX ′ 1 and the distance L are parameters. However, this distance L may not be exactly L due to the mounting error of the navigation sensors S 0 and S 1. On the other hand, the rotation angle variation d [theta] Gyro gyro sensor 31 detects the certain level of accuracy (navigation sensors or precision) is guaranteed.

そこで、制御部25は、dθnaviを検出する上式fにdθgyroを代入し距離Lを算出する。すなわち、与えられた設計値としての距離Lではなく、移動量ΔX´0、ΔX´1とdθgyroから、ナビゲーションセンサSとSの実際の間隔を推定する。 Therefore, the control unit 25 substitutes dθ gyro into the above equation f for detecting dθ navi and calculates the distance L. That is, the actual distance between the navigation sensors S 0 and S 1 is estimated from the movement amounts ΔX ′ 0 , ΔX ′ 1 and dθ gyro instead of the distance L as the given design value.

ナビゲーションセンサS、Sが取り付けられた後の距離Lは、画像形成中にはほとんど変化しないので、制御部25はこのようにして算出した距離Lを用いて、画像形成中のdθnaviを算出する。このように、より正確な距離Lを用いてdθnaviを算出するので、ナビゲーションセンサS,Sの位置の誤差が低減され精度が向上する。また、画質の低下も抑制できる。 Since the distance L after the navigation sensors S 0 and S 1 are attached hardly changes during image formation, the control unit 25 uses the distance L calculated in this way to set dθ navi during image formation. calculate. In this way, since the dθ navi is calculated using the more accurate distance L, the error in the positions of the navigation sensors S 0 and S 1 is reduced and the accuracy is improved. In addition, deterioration of image quality can be suppressed.

<用語について>
位置検出装置とは位置検出方法により自機の位置を検出する装置である。位置は任意の起点に対する相対的な位置でも、絶対的な位置でもよい。また、本実施形態では、HMP20のうち画像形成機能を除いた部分を位置検出装置という。また、位置検出装置は移動した距離を検出することができるため距離測定器と呼ばれていてもよい。
<Terminology>
The position detection device is a device that detects the position of the own machine by a position detection method. The position may be a position relative to an arbitrary starting point or an absolute position. Further, in the present embodiment, the portion of the HMP 20 excluding the image forming function is referred to as a position detecting device. Further, the position detecting device may be called a distance measuring device because it can detect the distance traveled.

移動面は、HMP20が移動できる面であればよく、平面の他、曲面も含まれる。具体的には印刷媒体12が挙げられるがこれには限られない。 The moving surface may be any surface on which the HMP 20 can move, and includes a curved surface as well as a flat surface. Specific examples thereof include, but are not limited to, the print medium 12.

位置を算出するとは、何らかのデータに演算を施すことにより位置に関する情報を得ることであり、位置を検出するとは、プロセスを問わずに位置に関する情報を得ることをいう。ただし、両者は位置に関する情報が得られる点で同じであり本実施形態では位置の算出と位置の検出を厳密には区別しない。 To calculate the position means to obtain information about the position by performing an operation on some data, and to detect the position means to obtain the information about the position regardless of the process. However, both are the same in that information on the position can be obtained, and in the present embodiment, the calculation of the position and the detection of the position are not strictly distinguished.

位置検出装置の姿勢に関する情報とは、剛体の自由度のうち回転に関する回転量や回転角変化量をいう。本実施形態では一例として移動面に垂直な軸に対する回転角変化量dθを例にして説明する。姿勢に関する情報は、位置検出装置の内側又は位置検出装置の外側のどちらから取得されてもよい。 The information regarding the posture of the position detection device refers to the amount of rotation and the amount of change in the angle of rotation related to rotation among the degrees of freedom of the rigid body. In this embodiment, as an example, the amount of change in the angle of rotation dθ with respect to the axis perpendicular to the moving surface will be described as an example. Posture information may be obtained either from inside the position detector or outside the position detector.

移動量検出手段の位置に関する情報は、2つの移動量検出手段の相対的な位置を特定する情報である。2つの移動量検出手段のうち一方の位置が固定であれば、他方の位置が定まる。より具体的には2つの移動量検出手段の距離である。 The information regarding the position of the movement amount detecting means is the information for specifying the relative position of the two movement amount detecting means. If the position of one of the two movement amount detecting means is fixed, the position of the other is determined. More specifically, it is the distance between the two movement amount detecting means.

また、本実施形態において、画像形成、記録、印字、印写、印刷、造形等はいずれも同義語とする。 Further, in the present embodiment, image formation, recording, printing, printing, printing, modeling, etc. are all synonymous terms.

<HMP20による画像形成>
図2は、HMP20による画像形成を模式的に示す図の一例である。HMP20には、例えばスマートフォンやPC(Personal Computer)等の画像データ出力器11から画像データが送信される。ユーザはHMP20を把持して、印刷媒体12(例えば定形用紙やノートなど)から浮き上がらないようにフリーハンドで走査させる。
<Image formation by HMP20>
FIG. 2 is an example of a diagram schematically showing image formation by HMP20. Image data is transmitted to the HMP 20 from an image data output device 11 such as a smartphone or a PC (Personal Computer). The user grabs the HMP 20 and scans it freehand so that it does not rise from the print medium 12 (for example, standard paper or notebook).

HMP20は後述するようにナビゲーションセンサS、Sで位置を検出し、HMP20が目標吐出位置に移動すると、目標吐出位置で吐出すべき色のインクを吐出する。すでにインクを吐出した場所はマスクされるので(インクの吐出の対象とならないので)、ユーザは印刷媒体12上で任意の方向にHMP20を走査させることで画像を形成できる。 As will be described later , the HMP 20 detects the position with the navigation sensors S 0 and S 1 , and when the HMP 20 moves to the target ejection position, the ink of the color to be ejected at the target ejection position is ejected. Since the place where the ink has already been ejected is masked (because it is not the target of ink ejection), the user can form an image by scanning the HMP 20 in an arbitrary direction on the print medium 12.

印刷媒体12からHMP20が浮き上がらないことが好ましいのは、ナビゲーションセンサS、Sが印刷媒体12からの反射光を利用して移動量を検出するためである。印刷媒体12からHMP20が浮き上がると反射光を検出できなくなり移動量を検出できない。また、印刷媒体12からナビゲーションセンサS、Sがはみ出した場合も、印刷媒体12の厚みにより反射光を検出できなくなったり、検出できても位置がずれる場合がある。このため、2つのナビゲーションセンサS、Sが印刷媒体12上で走査されることが好ましい。 It is preferable that the HMP 20 does not float from the print medium 12 because the navigation sensors S 0 and S 1 detect the movement amount by using the reflected light from the print medium 12. When the HMP 20 floats from the print medium 12, the reflected light cannot be detected and the movement amount cannot be detected. Further, when the navigation sensors S 0 and S 1 protrude from the print medium 12, the reflected light may not be detected depending on the thickness of the print medium 12, or the position may shift even if the reflected light can be detected. Therefore, it is preferable that the two navigation sensors S 0 and S 1 are scanned on the print medium 12.

<構成例>
図3は、HMP20のハードウェア構成図の一例を示す。HMP20は、印刷媒体12に画像を形成する画像形成装置の一例である。あるいは、液滴吐出装置、プリンタ又は画像処理装置等と呼ばれてもよい。HMP20は、制御部25によって全体の動作が制御され、制御部25には通信IF27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、ジャイロセンサ31及び、2つのナビゲーションセンサS,S(符号は30)が電気的に接続されている。また、HMP20は電力により駆動されるため、電源22と電源回路21を有している。電源回路21が生成する電力は、点線22aで示す配線などにより、通信IF27、IJ記録ヘッド駆動回路23、OPU26、ROM28、DRAM29、IJ記録ヘッド24、制御部25、ジャイロセンサ31、及び、2つのナビゲーションセンサS,Sに供給されている。
<Configuration example>
FIG. 3 shows an example of the hardware configuration diagram of the HMP 20. The HMP 20 is an example of an image forming apparatus that forms an image on the print medium 12. Alternatively, it may be called a droplet ejection device, a printer, an image processing device, or the like. The entire operation of the HMP 20 is controlled by the control unit 25, and the control unit 25 includes a communication IF 27, an IJ recording head drive circuit 23, an OPU 26, a ROM 28, a DRAM 29, a gyro sensor 31, and two navigation sensors S 0 , S 1 ( The reference numeral 30) is electrically connected. Further, since the HMP 20 is driven by electric power, it has a power supply 22 and a power supply circuit 21. The electric power generated by the power supply circuit 21 is the communication IF27, the IJ recording head drive circuit 23, the OPU26, the ROM28, the DRAM29, the IJ recording head 24, the control unit 25, the gyro sensor 31, and two by wiring shown by the dotted line 22a. It is supplied to the navigation sensors S 0 and S 1.

位置検出装置は、このうちSoC50,ナビゲーションセンサI/F42及びジャイロセンサI/F45をいう。 The position detection device refers to the SoC50, the navigation sensor I / F42, and the gyro sensor I / F45.

電源22は主に電池(バッテリー)が利用される。太陽電池や商用電源(交流電源)、燃料電池等が用いられてもよい。電源回路21は、電源22が供給する電力をHMP20の各部に分配する。また、電源22の電圧を各部に適した電圧に降圧や昇圧する。また、電源22が電池で充電可能である場合、電源回路21は交流電源の接続を検出して電池の充電回路に接続し、電源22の充電を可能にする。 A battery is mainly used as the power source 22. A solar cell, a commercial power source (AC power source), a fuel cell, or the like may be used. The power supply circuit 21 distributes the electric power supplied by the power supply 22 to each part of the HMP 20. Further, the voltage of the power supply 22 is stepped down or boosted to a voltage suitable for each part. When the power supply 22 can be charged by a battery, the power supply circuit 21 detects the connection of the AC power supply and connects to the battery charging circuit to enable charging of the power supply 22.

通信IF27は、スマートフォンやPC(Personal Computer)等の画像データ出力器11から画像データの受信等を行う。通信IF27は例えば無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、赤外線、3G(携帯電話)、又は、LTE(Long Term Evolution)等の通信規格に対応した通信装置である。また、このような無線通信の他、有線LAN、USBケーブルなどを用いた有線通信に対応した通信装置であってもよい。 The communication IF 27 receives image data from an image data output device 11 such as a smartphone or a PC (Personal Computer). The communication IF27 is a communication device compatible with communication standards such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), infrared rays, 3G (mobile phone), and LTE (Long Term Evolution). Further, in addition to such wireless communication, a communication device that supports wired communication using a wired LAN, a USB cable, or the like may be used.

ROM28は、HMP20のハードウェア制御を行うファームウェアや、IJ記録ヘッド24の駆動波形データ(液滴を吐出するための電圧変化を規定するデータ)や、HMP20の初期設定データ等を格納している。 The ROM 28 stores firmware for controlling the hardware of the HMP 20, drive waveform data of the IJ recording head 24 (data defining a voltage change for ejecting droplets), initial setting data of the HMP 20, and the like.

DRAM29は通信IF27が受信した画像データを記憶したり、ROM28から展開されたファームウェアの格納のために使用される。したがって、CPU33がファームウェアを実行する際のワークメモリとして使用される。 The DRAM 29 is used for storing the image data received by the communication IF 27 and for storing the firmware expanded from the ROM 28. Therefore, it is used as a work memory when the CPU 33 executes the firmware.

ナビゲーションセンサS,Sは、所定のサイクル時間ごとにHMP20の移動量を検出するセンサである。なお、ナビゲーションセンサS,Sは2つでありそれぞれの機能は同じであるが、違いがあるとしても本実施形態の説明の上で支障がないものとする。ナビゲーションセンサS,Sは、例えば、発光ダイオード(LED)やレーザ等の光源と、印刷媒体12を撮像する撮像センサを有している。HMP20が印刷媒体12上を走査されると、印刷媒体12の微小なエッジが次々に検出され(撮像され)エッジ間の距離を解析することで移動量が得られる。本実施形態では、ナビゲーションセンサS,Sは、HMP20の底面に2つ搭載されている。なお、ナビゲーションセンサS,Sとして、さらに多軸の加速度センサを用いてもよく、HMP20は加速度センサのみでHMP20の位置を検出してもよい。 The navigation sensors S 0 and S 1 are sensors that detect the movement amount of the HMP 20 at predetermined cycle times. The navigation sensors S 0 and S 1 are two and have the same functions, but even if there are differences, there is no problem in the explanation of the present embodiment. The navigation sensors S 0 and S 1 have, for example, a light source such as a light emitting diode (LED) or a laser, and an image sensor that images the print medium 12. When the HMP 20 is scanned on the print medium 12, minute edges of the print medium 12 are detected (imaged) one after another, and the movement amount is obtained by analyzing the distance between the edges. In this embodiment, two navigation sensors S 0 and S 1 are mounted on the bottom surface of the HMP 20. As the navigation sensors S 0 and S 1 , a multi-axis acceleration sensor may be used, and the HMP 20 may detect the position of the HMP 20 only by the acceleration sensor.

ジャイロセンサ31は、印刷媒体12に垂直な軸を中心にHMP20が回転した際の角速度(ヨー角の角速度)を検出するセンサである。ジャイロセンサ31は、3軸の角速度を検出できるものでもよい。これにより、HMP20の印刷媒体12からの浮きを検出しやすくなる。角速度を検出する周期(微小時間)を角速度に乗じるとこの周期の間の回転角変化量dθが得られる。 The gyro sensor 31 is a sensor that detects the angular velocity (yaw angular velocity) when the HMP 20 rotates about an axis perpendicular to the print medium 12. The gyro sensor 31 may be capable of detecting the angular velocities of the three axes. This makes it easier to detect the floating of the HMP 20 from the print medium 12. Multiplying the angular velocity by the period for detecting the angular velocity (minute time) gives the amount of change in the angle of rotation dθ during this period.

OPU(Operation panel Unit)26は、HMP20の状態を表示するLED、ユーザがHMP20に画像形成を指示するためのスイッチ等を有している。ただし、これに限定するものではなく、液晶ディスプレイを有していてよく、さらにタッチパネルを有していてもよい。また、音声入力機能を有していてもよい。 The OPU (Operation panel Unit) 26 has an LED for displaying the state of the HMP 20, a switch for the user to instruct the HMP 20 to form an image, and the like. However, the present invention is not limited to this, and a liquid crystal display may be provided, and a touch panel may be provided. Further, it may have a voice input function.

IJ記録ヘッド駆動回路23は上記の駆動波形データを用いて、IJ記録ヘッド24を駆動するための駆動波形(電圧)を生成する。インクの液滴のサイズなどに応じた駆動波形を生成できる。 The IJ recording head drive circuit 23 uses the above drive waveform data to generate a drive waveform (voltage) for driving the IJ recording head 24. It is possible to generate a drive waveform according to the size of ink droplets.

IJ記録ヘッド24は、インクを吐出するためのヘッドである。図ではCMYKの4色のインクを吐出可能になっているが、単色でもよく5色以上の吐出が可能でもよい。各色ごとに一列(二列以上でもよい)に並んだ複数のインク吐出用のノズル61が配置されている。また、インクの吐出方式はピエゾ方式でもサーマル方式でもよく、静電方式などの他の方式でもよい。 The IJ recording head 24 is a head for ejecting ink. In the figure, four colors of CMYK ink can be ejected, but a single color or five or more colors may be ejected. A plurality of ink ejection nozzles 61 arranged in a row (or two or more rows) are arranged for each color. Further, the ink ejection method may be a piezo method, a thermal method, or another method such as an electrostatic method.

IJ記録ヘッド24は、ノズル61から液体を吐出・噴射する機能部品である。吐出される液体は、IJ記録ヘッド24から吐出可能な粘度や表面張力を有するものであればよく、特に限定されないが、常温、常圧下において、又は加熱、冷却により粘度が30mPa・s以下となるものであることが好ましい。より具体的には、水や有機溶媒等の溶媒、染料や顔料等の着色剤、重合性化合物、樹脂、界面活性剤等の機能性付与材料、DNA、アミノ酸やたんぱく質、カルシウム等の生体適合材料、天然色素等の可食材料、などを含む溶液、懸濁液、エマルジョンなどであり、これらは例えば、インクジェット用インク、表面処理液、電子素子や発光素子の構成要素や電子回路レジストパターンの形成用液、3次元造形用材料液等の用途で用いることができる。 The IJ recording head 24 is a functional component that discharges and ejects a liquid from the nozzle 61. The liquid to be discharged may have a viscosity and surface tension that can be discharged from the IJ recording head 24, and is not particularly limited, but the viscosity becomes 30 mPa · s or less at room temperature, under normal pressure, or by heating or cooling. It is preferable that it is a thing. More specifically, solvents such as water and organic solvents, colorants such as dyes and pigments, functionalizing materials such as polymerizable compounds, resins and surfactants, biocompatible materials such as DNA, amino acids and proteins, and calcium. , Solvents, suspensions, emulsions, etc. containing edible materials such as natural dyes, etc., for example, inks for inkjets, surface treatment liquids, constituents of electronic elements and light emitting elements, and formation of electronic circuit resist patterns. It can be used for applications such as liquids for three-dimensional modeling.

制御部25はCPU33を有しHMP20の全体を制御する。制御部25は、ナビゲーションセンサS,Sにより検出される移動量及びとジャイロセンサ31により検出される角速度を元に、IJ記録ヘッド24の各ノズルの位置、該位置に応じて形成する画像の決定、後述する吐出ノズル可否判定等を行う。制御部25について詳細は次述する。 The control unit 25 has a CPU 33 and controls the entire HMP 20. The control unit 25 forms an image according to the position of each nozzle of the IJ recording head 24 and the position of each nozzle of the IJ recording head 24 based on the movement amount detected by the navigation sensors S 0 and S 1 and the angular velocity detected by the gyro sensor 31. Is determined, and whether or not the discharge nozzle is possible, which will be described later, is determined. The details of the control unit 25 will be described below.

図4は、制御部25の構成を説明する図の一例である。制御部25はSoC50とASIC/FPGA40を有している。SoC50とASIC/FPGA40はバス46,47を介して通信する。ASIC/FPGA40はどちらの実装技術で設計されてもよいことを意味し、ASIC/FPGA40以外の他の実装技術で構成されてよい。また、SoC50とASIC/FPGA40を別のチップにすることなく1つのチップや基板で構成してもよい。あるいは、3つ以上のチップや基板で実装してもよい。 FIG. 4 is an example of a diagram illustrating the configuration of the control unit 25. The control unit 25 has a SoC50 and an ASIC / FPGA40. The SoC50 and the ASIC / FPGA40 communicate via buses 46 and 47. The ASIC / FPGA 40 means that it may be designed by either mounting technology, and may be configured by a mounting technology other than the ASIC / FPGA 40. Further, the SoC50 and the ASIC / FPGA 40 may be configured by one chip or a substrate without using separate chips. Alternatively, it may be mounted on three or more chips or substrates.

SoC50は、バス47を介して接続されたCPU33、位置算出回路34、メモリCTL(コントローラ)35、及び、ROM CTL(コントローラ)36等の機能を有している。なお、SoC50が有する構成要素はこれらに限られない。 The SoC 50 has functions such as a CPU 33 connected via a bus 47, a position calculation circuit 34, a memory CTL (controller) 35, and a ROM CTL (controller) 36. The components of the SoC50 are not limited to these.

また、ASIC/FPGA40は、バス46を介して接続された、画像読取部38、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、ジャイロセンサI/F45、及び、IJ記録ヘッド制御部44を有している。なお、ASIC/FPGA40が有する構成要素はこれらに限られない。 Further, the ASIC / FPGA 40 is connected to the image reading unit 38, the interrupt controller 41, the navigation sensor I / F42, the printing / sensor timing generation unit 43, the gyro sensor I / F45, and the IJ recording head, which are connected via the bus 46. It has a control unit 44. The components of the ASIC / FPGA 40 are not limited to these.

CPU33は、ROM28からDRAM29に展開されたファームウェア(プログラム)などを実行し、SoC50内の位置算出回路34、メモリCTL35、及び、ROM CTL36の動作を制御する。また、ASIC/FPGA40内の画像読取部38、割込みコントローラ41、ナビゲーションセンサI/F42、印字/センサタイミング生成部43、ジャイロセンサI/F45、及び、IJ記録ヘッド制御部44等の動作を制御する。 The CPU 33 executes the firmware (program) developed from the ROM 28 to the DRAM 29, and controls the operations of the position calculation circuit 34, the memory CTL35, and the ROM CTL36 in the SoC50. It also controls the operations of the image reading unit 38, interrupt controller 41, navigation sensor I / F 42, print / sensor timing generation unit 43, gyro sensor I / F 45, IJ recording head control unit 44, etc. in the ASIC / FPGA 40. ..

位置算出回路34は、HMP20の位置(座標情報)を算出する。具体的には、位置算出回路34は、2つのナビゲーションセンサS、Sのうち少なくとも1つの移動量を使用し、2つのナビゲーションセンサS、Sの移動量に基づく姿勢(回転角)に基づいてHMP20の位置を算出する。HMP20の位置とは、厳密にはノズル61の位置であるが、ナビゲーションセンサS,Sの位置が分かればHMP20はノズル61の位置を算出できる。また、位置算出回路34は目標吐出位置を算出する。位置算出回路34をCPU33がソフト的に実現してもよい。 The position calculation circuit 34 calculates the position (coordinate information) of the HMP 20. Specifically, the position calculating circuit 34, two using at least one moving amount of the navigation sensors S 0, S 1, two navigation sensors S 0, based on the moving amount of S 1 posture (rotation angle) The position of the HMP 20 is calculated based on. Strictly speaking, the position of the HMP 20 is the position of the nozzle 61, but if the positions of the navigation sensors S 0 and S 1 are known, the HMP 20 can calculate the position of the nozzle 61. Further, the position calculation circuit 34 calculates the target discharge position. The position calculation circuit 34 may be realized by the CPU 33 in software.

ナビゲーションセンサS,Sの位置は、後述するように例えば所定の原点(画像形成が開始される時のHMP20の初期位置)を基準に算出されている。また、位置算出回路34は、過去の位置と最も新しい位置の差に基づいて加速度や移動方向を推定し、例えば次回のインクの吐出タイミングにおける位置を予測する。こうすることで、ユーザの走査に対する遅れを抑制してインクを吐出できる。 The positions of the navigation sensors S 0 and S 1 are calculated based on, for example, a predetermined origin (the initial position of the HMP 20 when image formation is started), as will be described later. Further, the position calculation circuit 34 estimates the acceleration and the moving direction based on the difference between the past position and the newest position, and predicts the position at the next ink ejection timing, for example. By doing so, it is possible to suppress the delay with respect to the scanning of the user and eject the ink.

メモリCTL35は、DRAM29とのインタフェースであり、DRAM29に対しデータを要求し、取得したファームウェアをCPU33に送出したり、取得した画像データをASIC/FPGA40に送出する。 The memory CTL 35 is an interface with the DRAM 29, requests data from the DRAM 29, sends the acquired firmware to the CPU 33, and sends the acquired image data to the ASIC / FPGA 40.

ROM CTL36は、ROM28とのインタフェースであり、ROM28に対しデータを要求し、取得したデータをCPU33やASIC/FPGA40に送出する。 The ROM CTL 36 is an interface with the ROM 28, requests data from the ROM 28, and sends the acquired data to the CPU 33 and the ASIC / FPGA 40.

位置算出回路34が算出したナビゲーションセンサS,Sの位置をCPUが画像読取部38に入力する。画像読取部38は、ナビゲーションセンサS,Sとノズル61の相対位置に基づき各ノズルの位置を算出する。そして、ノズルの位置に応じた画像データをDRAMから読み出し、IJ記録ヘッド24が要求する並び順で画像データを並べて送信する。 The CPU inputs the positions of the navigation sensors S 0 and S 1 calculated by the position calculation circuit 34 to the image reading unit 38. The image reading unit 38 calculates the position of each nozzle based on the relative positions of the navigation sensors S 0 and S 1 and the nozzle 61. Then, the image data corresponding to the position of the nozzle is read from the DRAM, and the image data is arranged and transmitted in the arrangement order required by the IJ recording head 24.

印字/センサタイミング生成部43は、ナビゲーションセンサI/F42が情報を読み取るタイミングをナビゲーションセンサI/Fに通知し、IJ記録ヘッド制御部44に駆動タイミングを通知する。また、ジャイロセンサI/F45が情報を読み取るタイミングをジャイロセンサI/F45に通知する。なお、情報を読み取るタイミングの周期はインクの吐出タイミングの周期よりも長い。 The print / sensor timing generation unit 43 notifies the navigation sensor I / F of the timing at which the navigation sensor I / F 42 reads information, and notifies the IJ recording head control unit 44 of the drive timing. Further, the gyro sensor I / F45 is notified of the timing at which the gyro sensor I / F45 reads the information. The cycle of the timing for reading the information is longer than the cycle of the ink ejection timing.

IJ記録ヘッド制御部44は、印字/センサタイミング生成部43が通知したタイミングで画像データに基づいてインクを吐出する。IJ記録ヘッド駆動回路23は上記のように制御信号に対応した駆動波形データを用いて、駆動波形(電圧)を生成する。なお、IJ記録ヘッド制御部44は吐出ノズル可否判定を行い、インクを吐出すべき目標吐出位置があればインクを吐出し、目標吐出位置がなければ吐出しないと判定する。 The IJ recording head control unit 44 ejects ink based on the image data at the timing notified by the print / sensor timing generation unit 43. The IJ recording head drive circuit 23 generates a drive waveform (voltage) using the drive waveform data corresponding to the control signal as described above. The IJ recording head control unit 44 determines whether or not the ejection nozzle is possible, and determines that the ink is ejected if there is a target ejection position to eject the ink, and that the ink is not ejected if there is no target ejection position.

ナビゲーションセンサI/F42は、ナビゲーションセンサS,Sと通信し、ナビゲーションセンサS,Sからの情報として移動量ΔX´、ΔY´(これらについては後述する)を受信し、その値をレジスタに格納する。ナビゲーションセンサS,Sからの情報は、その他、反射光の読み取りが良好かどうかなどを示すステータス通知機能(後述するセンサ信頼度情報が含まれる)も有する。 Navigation sensor I / F 42 communicates with the navigation sensors S 0, S 1, the moving amount ΔX' as information from the navigation sensors S 0, S 1, receives ΔY' the (these will be described later), the value Store in a register. Information from the navigation sensors S 0, S 1 is other reading of the reflected light (including sensor reliability information to be described later) status notification function indicating, for example, whether better with.

ジャイロセンサI/F45は印字/センサタイミング生成部43により生成されたタイミングになるとジャイロセンサ31が検出する角速度を取得してその値をレジスタに格納する。 The gyro sensor I / F45 acquires the angular velocity detected by the gyro sensor 31 at the timing generated by the print / sensor timing generation unit 43, and stores the value in the register.

割込みコントローラ41は、ナビゲーションセンサI/F42がナビゲーションセンサS,Sとの通信が完了したことを検知して、SoC50へそれを通知するための割込み信号を出力する。CPU33はこの割込みにより、ナビゲーションセンサI/F42がレジスタに記憶するΔX´、ΔY´を取得する。また、ジャイロセンサ31についても同様に、割込みコントローラ41は、ジャイロセンサI/F45がジャイロセンサ31との通信が完了したことを検知して、SoC50へそれを通知するための割込み信号を出力する。 The interrupt controller 41 detects that the navigation sensors I / F 42 have completed communication with the navigation sensors S 0 and S 1, and outputs an interrupt signal for notifying the SoC 50. By this interrupt, the CPU 33 acquires ΔX ′ and ΔY ′ stored in the register by the navigation sensor I / F42. Similarly, for the gyro sensor 31, the interrupt controller 41 detects that the communication with the gyro sensor 31 is completed by the gyro sensor I / F45, and outputs an interrupt signal for notifying the SoC 50.

図5は、画像読取部38の構成図の一例を示す。画像読取部38は、CPU I/F381、ノズル位置生成部382、アドレス生成部383、出力I/F384、データ蓄積部385、及び、テーブル管理部386を有する。CPU I/F381はCPU33とのインタフェースとなる回路である。CPU I/F381はCPU33から幅方向の画像の解像度、縦方向の画像の解像度など各種設定を受け付ける。また、IJ記録ヘッド制御部44から吐出タイミングを取得して、吐出タイミングにおけるナビゲーションセンサS,Sの位置をCPU33から受け付ける。 FIG. 5 shows an example of a configuration diagram of the image reading unit 38. The image reading unit 38 includes a CPU I / F381, a nozzle position generation unit 382, an address generation unit 383, an output I / F384, a data storage unit 385, and a table management unit 386. The CPU I / F 381 is a circuit that serves as an interface with the CPU 33. The CPU I / F 381 accepts various settings from the CPU 33, such as the image resolution in the width direction and the image resolution in the vertical direction. Further, the discharge timing is acquired from the IJ recording head control unit 44, and the positions of the navigation sensors S 0 and S 1 at the discharge timing are received from the CPU 33.

ノズル位置生成部382は、ナビゲーションセンサS,Sの位置から各ノズルの位置を生成する。ナビゲーションセンサS,Sの位置を1回受け取る毎に、ノズル数分の位置を生成して、アドレス生成部383に出力する。また、ノズル位置生成部382は、印刷モードや吐出ノズル数制限などに対応して、各ノズルの有効/無効フラグを出力する。 The nozzle position generation unit 382 generates the position of each nozzle from the positions of the navigation sensors S 0 and S 1. Every time the positions of the navigation sensors S 0 and S 1 are received once, the positions corresponding to the number of nozzles are generated and output to the address generation unit 383. Further, the nozzle position generation unit 382 outputs the enable / invalid flag of each nozzle in accordance with the print mode, the limitation on the number of ejection nozzles, and the like.

アドレス生成部383は、ノズル位置生成部382により得られた各ノズルの位置を元に、そのデータが格納されているメモリアドレスを生成する。データ蓄積部385はメモリCTL35から取得した画像データを蓄積する。また、DRAM29に書き込むデータを一時的に蓄積する。 The address generation unit 383 generates a memory address in which the data is stored based on the position of each nozzle obtained by the nozzle position generation unit 382. The data storage unit 385 stores image data acquired from the memory CTL 35. In addition, the data to be written in the DRAM 29 is temporarily stored.

テーブル管理部386は、アドレス生成部383により生成されたアドレスとデータ蓄積部385に蓄積されたデータとの対応付けを行う。テーブル管理部386は、アドレス生成部383により生成されたアドレスに対応付けられているデータをアドレス生成部383に出力する。 The table management unit 386 associates the address generated by the address generation unit 383 with the data stored in the data storage unit 385. The table management unit 386 outputs the data associated with the address generated by the address generation unit 383 to the address generation unit 383.

出力I/F384は、テーブル管理部386から取得した画像データをIJ記録ヘッド制御部44の要求する形式に変換する。また、画像データをバッファリングし、要求に応じてIJ記録ヘッド制御部44に画像データを出力する。 The output I / F 384 converts the image data acquired from the table management unit 386 into the format required by the IJ recording head control unit 44. Further, the image data is buffered, and the image data is output to the IJ recording head control unit 44 as requested.

<ナビゲーションセンサについて>
図6は、ナビゲーションセンサのハードウェア構成の構成例を示す図である。ナビゲーションセンサS、Sは同じ構造である。ナビゲーションセンサS,Sは、ホストI/F301、イメージプロセッサ302、LEDドライバ303、2つのレンズ304、306及び、イメージアレイ305を有する。LEDドライバ303は、LEDと制御回路が一体となっておりイメージプロセッサ302からの命令によりLED光を照射する。イメージアレイ305は、印刷媒体12からのLED光の反射光をレンズ304を介して受光する。2つのレンズ304,306は、印刷媒体12の表面に対して光学的に焦点が合うように設置されている。
<About navigation sensor>
FIG. 6 is a diagram showing a configuration example of the hardware configuration of the navigation sensor. The navigation sensors S 0 and S 1 have the same structure. The navigation sensors S 0 and S 1 have a host I / F 301, an image processor 302, an LED driver 303, two lenses 304 and 306, and an image array 305. In the LED driver 303, the LED and the control circuit are integrated, and the LED light is emitted by a command from the image processor 302. The image array 305 receives the reflected light of the LED light from the print medium 12 through the lens 304. The two lenses 304 and 306 are installed so as to be optically focused on the surface of the print medium 12.

イメージアレイ305は、LED光の波長に感度を有するフォトダイオードなどを有し、受光したLED光からイメージデータを生成する。イメージプロセッサ302はイメージデータを取得して、イメージデータからナビゲーションセンサの移動距離(上記のΔX´、ΔY´)を算出する。イメージプロセッサ302は、算出した移動距離を、ホストI/F301を介して制御部25へ出力する。 The image array 305 has a photodiode or the like having sensitivity to the wavelength of the LED light, and generates image data from the received LED light. The image processor 302 acquires the image data and calculates the moving distance of the navigation sensor (ΔX', ΔY' above) from the image data. The image processor 302 outputs the calculated movement distance to the control unit 25 via the host I / F 301.

光源として使用される発光ダイオード(LED)は、表面が粗い印刷媒体12、例えば紙を使用する場合に有用である。これは、表面が粗い場合、影が発生するため、その影を特徴部分として、X軸方向及びY軸方向の移動距離を正確に算出することが可能になるからである。一方、表面が滑らか、あるいは透明な印刷媒体12に対しては、光源としてレーザ光を発生させる半導体レーザ(LD)を使用することができる。半導体レーザで、印刷媒体12上に例えば縞模様等を形成することで特徴部分を作ることができ、それを基に正確に移動距離を算出することができるからである。 The light emitting diode (LED) used as a light source is useful when a printing medium 12 having a rough surface, for example, paper is used. This is because when the surface is rough, a shadow is generated, and the movement distance in the X-axis direction and the Y-axis direction can be accurately calculated by using the shadow as a feature portion. On the other hand, for the print medium 12 having a smooth or transparent surface, a semiconductor laser (LD) that generates a laser beam can be used as a light source. This is because a feature portion can be formed by forming, for example, a striped pattern on the print medium 12 with a semiconductor laser, and the moving distance can be accurately calculated based on the characteristic portion.

次に、図7を用いて、ナビゲーションセンサS,Sの動作について説明する。図7はナビゲーションセンサS,Sによる移動量の検出方法を説明する図である。LEDドライバ303が照射した光は、レンズ306を介して印刷媒体12の表面に照射される。印刷媒体12の表面は、図7(a)に示すように様々な形状の微小な凹凸を有している。このため、様々な形の影が発生する。 Next, the operation of the navigation sensors S 0 and S 1 will be described with reference to FIG. 7. FIG. 7 is a diagram illustrating a method of detecting the movement amount by the navigation sensors S 0 and S 1. The light emitted by the LED driver 303 is applied to the surface of the print medium 12 via the lens 306. As shown in FIG. 7A, the surface of the print medium 12 has minute irregularities having various shapes. For this reason, shadows of various shapes are generated.

イメージプロセッサ302は、予め決められたサンプリングタイミング毎に、レンズ304及びイメージアレイ305を介して反射光を受光し、イメージデータ310を取得する。図7(b)に示すように生成したイメージデータ310を、イメージプロセッサ302は規定の分解能単位でマトリクス化する。すなわち、イメージデータ310を複数の矩形領域に分割する。そして、イメージプロセッサ302は、前回のサンプリングタイミングで得られたイメージデータ310と、今回のサンプリングタイミングで得られたイメージデータ310とを比較してイメージデータ310が移動した矩形領域の数を検出し、それを移動距離として算出する。図7(b)で図示するΔX方向にHMP20が移動したとする。t=0とt=1のイメージデータ310を比較すると、右端にある形状が中央の形状と一致する。したがって、形状は−X方向に移動しているので、HMP20がX方向に一マス分移動したことが分かる。時刻t=1とt=2についても同様である。 The image processor 302 receives the reflected light through the lens 304 and the image array 305 at each predetermined sampling timing, and acquires the image data 310. The image processor 302 matrixes the generated image data 310 as shown in FIG. 7B in a specified resolution unit. That is, the image data 310 is divided into a plurality of rectangular areas. Then, the image processor 302 compares the image data 310 obtained at the previous sampling timing with the image data 310 obtained at the current sampling timing, and detects the number of rectangular regions to which the image data 310 has moved. Calculate it as the moving distance. It is assumed that the HMP 20 moves in the ΔX direction shown in FIG. 7 (b). Comparing the image data 310 with t = 0 and t = 1, the shape at the right end matches the shape at the center. Therefore, since the shape is moving in the −X direction, it can be seen that the HMP 20 has moved by one square in the X direction. The same applies to the times t = 1 and t = 2.

<IJ記録ヘッドにおけるノズル位置について>
次に、図8を用いて、IJ記録ヘッド24におけるノズル位置等について説明する。図8(a)は、HMP20の平面図の一例である。図8(b)はIJ記録ヘッド24のみを説明する図の一例である。図示されている面が印刷媒体12に対向する面である。
<Nozzle position in IJ recording head>
Next, the nozzle position and the like in the IJ recording head 24 will be described with reference to FIG. FIG. 8A is an example of a plan view of the HMP 20. FIG. 8B is an example of a diagram illustrating only the IJ recording head 24. The surface shown is the surface facing the print medium 12.

本実施形態のHMP20は、2つのナビゲーションセンサS,Sを有している。2つのナビゲーションセンサS,Sの間の長さは距離Lである。距離Lは長いほどよい。これは、距離Lが長いほど検出可能な最小の回転角変化量dθが小さくなり、HMP20の位置の誤差が少なくなるからである。 The HMP 20 of this embodiment has two navigation sensors S 0 and S 1 . The length between the two navigation sensors S 0 and S 1 is the distance L. The longer the distance L, the better. This is because the longer the distance L, the smaller the minimum amount of change in rotation angle dθ that can be detected, and the smaller the error in the position of the HMP 20.

ナビゲーションセンサS,SからIJ記録ヘッド24までの距離はそれぞれ距離a、bである。距離aと、距離bは等しくてもよいし、ゼロでもよい(この場合は、ナビゲーションセンサS,SとIJ記録ヘッド24に接している)。したがって、図示するナビゲーションセンサS、Sの位置は一例である。例えば、IJ記録ヘッド24とナビゲーションセンサS、Sの距離又は距離Lが短いことでHMP20の底面のサイズを削減しやすくなる。 The distances from the navigation sensors S 0 and S 1 to the IJ recording head 24 are distances a and b, respectively. The distance a and the distance b may be equal or zero (in this case, they are in contact with the navigation sensors S 0 , S 1 and the IJ recording head 24). Therefore, the positions of the navigation sensors S 0 and S 1 shown in the figure are examples. For example, if the distance or distance L between the IJ recording head 24 and the navigation sensors S 0 and S 1 is short, the size of the bottom surface of the HMP 20 can be easily reduced.

図8(b)に示すように、IJ記録ヘッド24の端から最初のノズル61までの距離は距離d、隣接するノズル間の距離は距離eである。a〜eの値はROM28などに予め記憶されている。 As shown in FIG. 8B, the distance from the end of the IJ recording head 24 to the first nozzle 61 is a distance d, and the distance between adjacent nozzles is a distance e. The values a to e are stored in advance in the ROM 28 or the like.

位置算出回路34などがナビゲーションセンサSの位置を算出すれば、距離a(距離b)、距離d及び距離eを用いて、位置算出回路34はノズル61の位置を算出できる。 In such position calculating circuit 34 by calculating the position of the navigation sensors S 0, the distance a (distance b), using the distance d and the distance e, the position calculating circuit 34 can calculate the position of the nozzle 61.

<印刷媒体12におけるHMP20の位置について>
図9は、HMP20の座標系と位置の算出方法を説明する図の一例である。本実施形態では、印刷媒体12に水平な方向をX軸、垂直な方向をY軸に設定する。原点は画像形成が開始された際のナビゲーションセンサSの位置である。この座標を印刷媒体座標と称することにする。これに対し、ナビゲーションセンサSは図9の座標軸(X´軸、Y´軸)で移動量を出力する。すなわち、ノズル61の配列方向をY´軸、Y´軸に直交する方向をX´軸として移動量を出力する。
<About the position of HMP 20 on the print medium 12>
FIG. 9 is an example of a diagram illustrating a method of calculating the coordinate system and position of the HMP 20. In the present embodiment, the direction horizontal to the print medium 12 is set to the X-axis, and the direction perpendicular to the print medium 12 is set to the Y-axis. The origin is the position of the navigation sensor S 0 when image formation is started. These coordinates will be referred to as print medium coordinates. On the other hand, the navigation sensor S 0 outputs the movement amount on the coordinate axes (X'axis, Y'axis) of FIG. That is, the movement amount is output with the arrangement direction of the nozzles 61 as the Y'axis and the direction orthogonal to the Y'axis as the X'axis.

図9(a)に示したように、印刷媒体12に対しHMP20が時計回りにθ回転している場合を例にして説明する。ユーザがHMP20を印刷媒体座標に対し全く傾けることなく走査させることは困難でゼロでないθが生じると考えられる。全く回転していなければ、X=X´、Y=Y´である。しかし、HMP20が印刷媒体12に対し回転角度θ、回転した場合、ナビゲーションセンサSの出力とHMP20の印刷媒体12における実際の位置が一致しなくなる。回転角度θは時計回りが正、X、X´は右方向が正、Y、Y´は上方向が正である。 As shown in FIG. 9A, a case where the HMP 20 is rotated by θ clockwise with respect to the print medium 12 will be described as an example. It is considered difficult for the user to scan the HMP 20 without tilting it with respect to the print medium coordinates, resulting in a non-zero θ. If it is not rotating at all, then X = X'and Y = Y'. However, when the HMP 20 is rotated by a rotation angle θ with respect to the print medium 12, the output of the navigation sensor S 0 and the actual position of the HMP 20 on the print medium 12 do not match. The rotation angle θ is positive in the clockwise direction, positive in the right direction for X and X', and positive in the upward direction for Y and Y'.

図9(a)はHMP20のX座標を説明する図の一例である。図9(a)では回転角度θのHMP20がX方向にのみ同じ回転角度θのまま移動した場合のナビゲーションセンサSが検出する移動量ΔX´、ΔY´とX,Yの対応を示している。なお、2つのナビゲーションセンサS、Sの相対位置は固定なので2つのナビゲーションセンサS、Sの出力(移動量)は同じである。ナビゲーションセンサSのX座標はX1+X2であり、X1+X2はΔX´、ΔY´及び回転角度θから求められる。 FIG. 9A is an example of a diagram illustrating the X coordinate of the HMP 20. FIG. 9A shows the correspondence between the movement amounts ΔX ′, ΔY ′ and X, Y detected by the navigation sensor S 0 when the HMP 20 having the rotation angle θ moves only in the X direction with the same rotation angle θ. .. Since the relative positions of the two navigation sensors S 0 and S 1 are fixed, the outputs (movement amounts) of the two navigation sensors S 0 and S 1 are the same. The X coordinate of the navigation sensor S 0 is X1 + X2, and X1 + X2 is obtained from ΔX ′, ΔY ′ and the rotation angle θ.

図9(b)は回転角度θのHMP20がY方向にのみ同じ回転角度θのまま移動した場合のナビゲーションセンサSが検出する移動量ΔX´、ΔY´とX,Yの対応を示している。ナビゲーションセンサSのY座標はY1+Y2であり、Y1+Y2は−ΔX´、ΔY´及び回転角度θから求められる。 FIG. 9B shows the correspondence between the movement amounts ΔX ′, ΔY ′ and X, Y detected by the navigation sensor S 0 when the HMP 20 having the rotation angle θ moves only in the Y direction with the same rotation angle θ. .. The Y coordinate of the navigation sensor S 0 is Y1 + Y2, and Y1 + Y2 is obtained from −ΔX ′, ΔY ′ and the rotation angle θ.

したがって、HMP20がX方向及びY方向に回転角度θのまま移動した場合、ナビゲーションセンサSが出力するΔX´、ΔY´は印刷媒体座標のX,Yに以下のように変換できる。
X=ΔX´cosθ+ΔY´sinθ …(1)
Y=−ΔX´sinθ+ΔY´cosθ …(2)
<<回転角変化量dθの検出>>
図10を用いて、ナビゲーションセンサS,Sが出力する移動量を用いた回転角変化量dθの算出方法を説明する。図10は、画像形成中に生じるHMP20の回転角変化量(回転角の変化量)dθの求め方を説明する図の一例である。回転角変化量dθは2つのナビゲーションセンサS,Sが検出する移動量ΔX´を用いて算出される(ΔY´を用いてもよい)。印刷媒体12の上側のナビゲーションセンサSが検出する移動量ΔX´0、ナビゲーションセンサSが検出する移動量をΔX´1とする。なお、図10ではすでに得られている回転角をθとしている。
Therefore, when the HMP 20 moves in the X and Y directions with the rotation angle θ, the ΔX ′ and ΔY ′ output by the navigation sensor S 0 can be converted into the print medium coordinates X and Y as follows.
X = ΔX'cosθ + ΔY'sinθ ... (1)
Y = −ΔX ´sinθ + ΔY´cosθ… (2)
<< Detection of rotation angle change amount dθ >>
With reference to FIG. 10, a method of calculating the rotation angle variation dθ be described using the amount of movement of navigation sensors S 0, S 1 is output. FIG. 10 is an example of a diagram for explaining how to obtain the rotation angle change amount (rotation angle change amount) dθ of the HMP 20 that occurs during image formation. Rotation angle variation dθ is calculated using the amount of movement ΔX' the two navigation sensors S 0, S 1 is detected (may be used ΔY'). Movement amount ΔX'0 the upper navigation sensors S 0 of the printing medium 12 is detected, the moving amount of the navigation sensor S 1 is detected with ΔX' 1. In FIG. 10, the rotation angle already obtained is θ.

HMP20が平行移動しながらdθ回転した場合、移動量ΔX´0とΔX´1は一致しない。しかし、どちらの出力も2つのナビゲーションセンサS,Sを結ぶ直線に垂直な方向の移動量なので、移動量ΔX´0とΔX´1の差は「ΔX´0−ΔX´1」として求めることができる。この差はHMP20がdθ回転したことにより生じた値である。また、「ΔX´0−ΔX´1」、L、及び、dθに図10に示す関係があることから、dθは以下のように表すことができる。
dθ=arcsin{(ΔX´0−ΔX´1)/L} …(3)
位置算出回路34がこの回転角変化量dθを積算することで回転角度θを求めることができる。式(1)(2)に示すように、回転角度θを用いてHMP20は位置を検出できる。また、式(3)から分かるように、より小さいdθを検出するには距離Lを大きくすることが好ましい。また、このLとして設計値が与えられているが、製造時にナビゲーションセンサS,Sの取り付け誤差が生じ、ナビゲーションセンサSとSの実際の間隔が設計値(距離L)とならない場合がある。Lが設計値と異なると回転角変化量dθが異なってしまう。そこで、本実施形態では、ジャイロセンサ31を用いて式(3)の距離Lを補正する。
When the HMP 20 rotates dθ while moving in parallel, the movement amounts ΔX ′ 0 and ΔX ′ 1 do not match. However, since both outputs are movement amounts in the direction perpendicular to the straight line connecting the two navigation sensors S 0 and S 1 , the difference between the movement amounts ΔX ′ 0 and ΔX ′ 1 is obtained as “ΔX ′ 0 − ΔX ′ 1 ”. be able to. This difference is a value caused by the rotation of HMP20 by dθ. Further, since “ΔX ′ 0 − ΔX ′ 1 ”, L, and dθ have the relationship shown in FIG. 10, dθ can be expressed as follows.
dθ = arcsin {(ΔX ′ 0 − ΔX ′ 1 ) / L}… (3)
The position calculation circuit 34 can obtain the rotation angle θ by integrating the amount of change in the rotation angle dθ. As shown in equations (1) and (2), the HMP 20 can detect the position using the rotation angle θ. Further, as can be seen from the equation (3), it is preferable to increase the distance L in order to detect a smaller dθ. Although design values are given as the L, the mounting error of the navigation sensors S 0, S 1 is generated during production, if the actual spacing of the navigation sensors S 0 and S 1 is not a design value (distance L) There is. If L is different from the design value, the amount of change in the rotation angle dθ will be different. Therefore, in the present embodiment, the distance L of the equation (3) is corrected by using the gyro sensor 31.

<ノズルの位置>
図11(a)はノズルの位置の算出を説明する図の一例である。ナビゲーションセンサの位置が1つでも分かり回転角度θが分かると、ノズル位置生成部382は各ノズル61の位置を算出できる。図11(a)のノズル61−1を例にして説明する。ナビゲーションセンサSとIJ記録ヘッド24の間隔がa、IJ記録ヘッド24の端からノズル61−1までの距離がdである。また、印刷媒体12に垂直な軸に対する回転角度がθである。これらから、ノズル61−1の座標(X,Y)を求めることができる。
<Nozzle position>
FIG. 11A is an example of a diagram for explaining the calculation of the nozzle position. If even one position of the navigation sensor is known and the rotation angle θ is known, the nozzle position generation unit 382 can calculate the position of each nozzle 61. The nozzle 61-1 of FIG. 11A will be described as an example. The distance between the navigation sensor S 0 and the IJ recording head 24 is a, and the distance from the end of the IJ recording head 24 to the nozzle 61-1 is d. Further, the rotation angle with respect to the axis perpendicular to the print medium 12 is θ. From these, the coordinates (X, Y) of the nozzle 61-1 can be obtained.

X=X0-(a+d)×sinθ
Y=Y0-(a+d)×cosθ
また、図11(b)は2つのナビゲーションセンサS,Sを結ぶ直線上にないノズル61の位置を説明する図である。IJ記録ヘッド24がカラー印刷のために多色のノズル61を有する場合、ノズル列Y,Cは2つのナビゲーションセンサS,Sを結ぶ直線上にない場合がある。
X = X0- (a + d) × sinθ
Y = Y0- (a + d) × cosθ
Further, FIG. 11 (b) is a diagram for explaining the position of the two navigation sensors S 0, not on a straight line connecting S 1 nozzle 61. When the IJ recording head 24 has a multicolor nozzle 61 for color printing, the nozzle rows Y and C may not be on the straight line connecting the two navigation sensors S 0 and S 1.

ノズル列Yとノズル列Cの距離をfとすると、図11(b)のノズル列Cのノズル61−1cの座標は以下のように求めることができる。 Assuming that the distance between the nozzle row Y and the nozzle row C is f, the coordinates of the nozzle 61-1c of the nozzle row C in FIG. 11B can be obtained as follows.

X=X0-(a+d)×sinθ+ f×cosθ
Y=Y0-(a+d)×cosθ- f×sinθ
<HMP20の機能について>
図12は、HMP20の機能ブロック図の一例を示す。HMP20は補正処理部51、センサ値取得部52、及び距離算出部53、を有する。これらは、図4に示したCPU33がROM28に記憶されたファームウェア(プログラム)をDRAM29に展開して実行することで得られる機能又は手段である。
X = X0- (a + d) × sinθ + f × cosθ
Y = Y0- (a + d) × cos θ- f × sin θ
<About the function of HMP20>
FIG. 12 shows an example of a functional block diagram of the HMP 20. The HMP 20 has a correction processing unit 51, a sensor value acquisition unit 52, and a distance calculation unit 53. These are functions or means obtained by the CPU 33 shown in FIG. 4 deploying the firmware (program) stored in the ROM 28 to the DRAM 29 and executing the firmware (program).

補正処理部51は、ナビゲーションセンサS,Sの間の距離Lを補正する処理に関する制御を行う。すなわち、距離Lの補正を行うタイミングを検出したり、距離Lの補正を行うか否かを判定したりする。また、補正処理部51は、位置算出回路34が距離Lを読み取るレジスタ又は不揮発性メモリなどに距離Lnew55を設定する。これにより、位置算出回路34は距離Lnew55を式(3)に代入して回転角変化量dθnaviを算出できる。 The correction processing unit 51 controls the processing for correcting the distance L between the navigation sensors S 0 and S 1. That is, the timing for correcting the distance L is detected, and it is determined whether or not the distance L is corrected. Further, the correction processing unit 51 sets the distance Lnew 55 in a register or a non-volatile memory in which the position calculation circuit 34 reads the distance L. As a result, the position calculation circuit 34 can calculate the rotation angle change amount dθ navi by substituting the distance Lnew55 into the equation (3).

センサ値取得部52は、補正に使用するジャイロセンサ31が検出する角速度とナビゲーションセンサS,Sが検出する移動量ΔX´0、ΔX´1を取得する。角速度と移動量をセンサ値と称する場合がある。 The sensor value acquisition unit 52 acquires the angular velocity detected by the gyro sensor 31 used for correction and the movement amounts ΔX ′ 0 and ΔX ′ 1 detected by the navigation sensors S 0 and S 1 . The angular velocity and the amount of movement may be referred to as sensor values.

距離算出部53は式(3)の左辺にジャイロセンサ31が検出する角速度から算出した回転角変化量dθgyroを代入し、右辺にナビゲーションセンサS,Sが検出する移動量ΔX´0、ΔX´1を代入して距離Lを算出する。算出された距離Lを設計値の距離Lと区別するため、距離Lnew55と称する。 Distance calculating unit 53 is moving amount DerutaX' 0 of the gyro sensor 31 is substituted into the rotation angle variation d [theta] Gyro calculated from the angular velocity detecting the left, navigation sensors S 0, S 1 is detected on the right-hand side of Equation (3), The distance L is calculated by substituting ΔX ′ 1. In order to distinguish the calculated distance L from the design value distance L, it is referred to as a distance Lnew55.

<動作手順>
図13は、画像データ出力器11とHMP20の動作手順を説明するフローチャート図の一例である。まず、ユーザは画像データ出力器11の電源ボタンを押下する(U101)。画像データ出力器11はそれを受け付け、電池等から電源が供給されて起動する。
<Operation procedure>
FIG. 13 is an example of a flowchart for explaining the operation procedure of the image data output device 11 and the HMP 20. First, the user presses the power button of the image data output device 11 (U101). The image data output device 11 receives the image data output device 11 and is activated by being supplied with power from a battery or the like.

ユーザは、印字前にナビゲーションセンサS,Sの間の距離Lの補正を行うか行わないかを選択する(U102)。すなわち、OPU26に補正の有無を設定する。 The user selects whether or not to correct the distance L between the navigation sensors S 0 and S 1 before printing (U102). That is, the presence or absence of correction is set in the OPU 26.

補正を行うと選択した場合、ユーザは補正のためにHMP20を印刷媒体12上で走査させる(U103)。まだ、印刷開始されていないため、ナビゲーションセンサS,S(ノズル61)の初期位置は決定されていないため、HMP20が走査されてもノズル61の位置情報には影響はない。 If selected to perform correction, the user scans the HMP 20 on the print medium 12 for correction (U103). Since printing has not started yet, the initial positions of the navigation sensors S 0 and S 1 (nozzle 61) have not been determined. Therefore, even if the HMP 20 is scanned, the position information of the nozzle 61 is not affected.

距離Lの補正が終わると、ユーザは画像データ出力器11で出力したい画像を選択する(U104)。画像データ出力器11は画像の選択を受け付ける。ワープロアプリケーションのようなソフトウェアの文書データが画像として選択されてもよいし、JPEGなどの画像データが選択されてもよい。必要であればプリンタドライバが画像データ以外のデータを画像に変更してよい。 When the correction of the distance L is completed, the user selects an image to be output by the image data output device 11 (U104). The image data output device 11 accepts the selection of an image. Document data of software such as a word processor application may be selected as an image, or image data such as JPEG may be selected. If necessary, the printer driver may change data other than image data to images.

ユーザは選択した画像をHMP20で印刷する操作を行う(U105)。HMP20は印刷ジョブの実行の要求を受け付ける。印刷ジョブの要求により画像データがHMP20へ送信される。 The user performs an operation of printing the selected image with the HMP 20 (U105). The HMP 20 accepts a request to execute a print job. Image data is transmitted to the HMP 20 at the request of the print job.

ユーザは、HMP20を持ち、印刷媒体12(例えばノート)の上で初期位置を決定する(U106)。 The user holds the HMP 20 and determines the initial position on the print medium 12 (eg, notebook) (U106).

そして、ユーザはHMP20の印刷開始ボタンを押下する(U107)。HMP20は印刷開始ボタンの押下を受け付ける。 Then, the user presses the print start button of the HMP 20 (U107). The HMP 20 accepts the press of the print start button.

ユーザはHMP20を印刷媒体12の上で滑らせるように自由に走査する(U108)。 The user is free to scan the HMP 20 so that it slides on the print medium 12 (U108).

続いて、HMP20の動作を説明する。以下の動作はCPU33がファームウェアを実行することで行われる。 Subsequently, the operation of the HMP 20 will be described. The following operations are performed by the CPU 33 executing the firmware.

HMP20も電源のONにより起動する。HMP20のCPU33は、HMP20に内蔵されている図3,4のハードウェア要素を初期化する(S101)。例えば、ナビゲーションセンサI/F42のレジスタを初期化したり、印字/センサタイミング生成部43にタイミング値を設定したりする。また、HMP20と画像データ出力器11との間の通信を確立する。 HMP20 is also activated by turning on the power. The CPU 33 of the HMP 20 initializes the hardware elements of FIGS. 3 and 4 built in the HMP 20 (S101). For example, the register of the navigation sensor I / F42 is initialized, or the timing value is set in the print / sensor timing generation unit 43. It also establishes communication between the HMP 20 and the image data output device 11.

HMP20のCPU33は初期化が完了したかどうかを判定し、完了していない場合はこの判定を繰り返す(S102)。 The CPU 33 of the HMP 20 determines whether or not the initialization is completed, and if not, repeats this determination (S102).

初期化が完了すると(S102のYes)、HMP20のCPU33は、OPU26の例えばLED点灯によりユーザに印刷可能な状態であることを報知する(S103)。これにより、ユーザは印刷可能な状態であることを把握し、上記のように印刷ジョブの実行を要求する。 When the initialization is completed (Yes in S102), the CPU 33 of the HMP 20 notifies the user that the OPU 26 is ready for printing, for example, by lighting the LED (S103). As a result, the user grasps that the printable state is available and requests the execution of the print job as described above.

次に、OPU26は距離Lを補正するか否かをユーザに選択させ選択結果を受け付けるためのユーザインタフェースを表示する。これに対し、ユーザはステップU102のように補正するかどうかを設定する。補正処理部51はユーザの選択が補正するか否かのどちらであるかを判定する(S104)。 Next, the OPU 26 displays a user interface for allowing the user to select whether or not to correct the distance L and accepting the selection result. On the other hand, the user sets whether or not to make a correction as in step U102. The correction processing unit 51 determines whether or not the user's selection is corrected (S104).

ユーザが補正すると判定した場合(S04のYes)、上記の補正処理部51が補正処理を実行する(S105)。ステップS105の補正処理については図14にて説明する。 If the user determines that the corrected (Yes in S 1 04), the above-described correction processing unit 51 executes a correction process (S105). The correction process in step S105 will be described with reference to FIG.

補正処理が終了した後の処理を説明する。
印刷ジョブの実行の要求により、HMP20の通信IF27は画像データ出力器11から画像データの入力を受け付け、画像が入力された旨をOPU26のLEDを点滅させる等によりユーザに対し報知する(S106)。
The processing after the correction processing is completed will be described.
Upon request for execution of the print job, the communication IF27 of the HMP 20 accepts the input of the image data from the image data output device 11 and notifies the user that the image has been input by blinking the LED of the OPU 26 or the like (S106).

ユーザが印刷媒体12上でHMP20の初期位置を決め印刷開始ボタンを押下すると、HMP20のOPU26はこの操作を受け付け、CPU33がナビゲーションセンサI/F42に位置を読み取らせる(S107)。これにより、ナビゲーションセンサI/F42はナビゲーションセンサS、Sと通信し、ナビゲーションセンサS、Sが検出した移動量を取得しレジスタなどに格納しておく(S1001)。CPU33はナビゲーションセンサI/F42から移動量を読み出す。 When the user determines the initial position of the HMP 20 on the print medium 12 and presses the print start button, the OPU 26 of the HMP 20 accepts this operation, and the CPU 33 causes the navigation sensor I / F 42 to read the position (S107). Thus, the navigation sensor I / F 42 is storing communicating with navigation sensors S 0, S 1, etc. navigation sensors S 0, obtains the movement amount S 1 is detected register (S1001). The CPU 33 reads the movement amount from the navigation sensor I / F42.

ユーザが印刷開始ボタンを押下した直後に取得された移動量はゼロであるがゼロでないとしても、CPU33は例えば座標(0,0)の初期位置としてDRAM29やCPU33のレジスタなどに格納する(S108)。 Even if the amount of movement acquired immediately after the user presses the print start button is zero but is not zero, the CPU 33 stores, for example, the initial position of the coordinates (0,0) in the register of the DRAM 29 or the CPU 33 (S108). ..

また、初期位置を取得すると印字/センサタイミング生成部43がタイミングの生成を開始する(S109)。印字/センサタイミング生成部43は、初期化で設定されたナビゲーションセンサS、Sの移動量の取得タイミングに達するとナビゲーションセンサI/F42にタイミングを指示する。画像形成時にはジャイロセンサ31の角速度は不要であるがジャイロセンサ31の角速度を取得してもよい。 Further, when the initial position is acquired, the print / sensor timing generation unit 43 starts generating the timing (S109). The print / sensor timing generation unit 43 instructs the navigation sensor I / F 42 of the timing when the acquisition timing of the movement amount of the navigation sensors S 0 and S 1 set in the initialization is reached. The angular velocity of the gyro sensor 31 is not required at the time of image formation, but the angular velocity of the gyro sensor 31 may be acquired.

HMP20のCPU33は、移動量を取得するタイミングであるか否かを判定する(S110)。この判定は、割込みコントローラ41からの通知により行うが、印字/センサタイミング生成部43と同じタイミングをCPU33がカウントすることで判定してもよい。 The CPU 33 of the HMP 20 determines whether or not it is the timing to acquire the movement amount (S110). This determination is made by the notification from the interrupt controller 41, but it may be determined by the CPU 33 counting the same timing as the print / sensor timing generation unit 43.

移動量を取得するタイミングになると、HMP20のCPU33はナビゲーションセンサI/F42から2つのナビゲーションセンサS、Sの移動量をそれぞれ取得する(S111)。 When it is time to acquire the movement amount, the CPU 33 of the HMP 20 acquires the movement amounts of the two navigation sensors S 0 and S 1 from the navigation sensors I / F 42, respectively (S111).

次に、位置算出回路34は、前回のサンプリング周期で算出した位置(X,Y)と、今回のサンプリング周期で取得した移動量(ΔX´、ΔY´)から、現在の位置を算出し記憶部59に記憶させる(S112)。 Next, the position calculation circuit 34 calculates the current position from the position (X, Y) calculated in the previous sampling cycle and the movement amount (ΔX ′, ΔY ′) acquired in the current sampling cycle, and stores the storage unit. It is stored in 59 (S112).

次に、位置算出回路34は、ステップS110で決定されたナビゲーションセンサの現在の位置を用いて各ノズル61の現在の位置を算出する(S113)。 Next, the position calculation circuit 34 calculates the current position of each nozzle 61 using the current position of the navigation sensor determined in step S110 (S113).

次に、CPU33は画像読取部38に画像を読み取らせる。画像読取部38は算出した各ノズル61の位置を基に、各ノズル61の周辺画像の画像データをDRAM29から読み取る(S114)。 Next, the CPU 33 causes the image reading unit 38 to read the image. The image reading unit 38 reads the image data of the peripheral image of each nozzle 61 from the DRAM 29 based on the calculated position of each nozzle 61 (S114).

次に、IJ記録ヘッド制御部44は周辺画像を構成する各画像要素の位置座標と、各ノズル61の位置座標とを比較する(S115)。位置算出回路34は、ノズル61の過去の位置と現在の位置を用いてノズル61の加速度を算出している。これにより、位置算出回路34は、ナビゲーションセンサI/F42が移動量を取得する周期よりも短いIJ記録ヘッド24のインク吐出周期ごとにノズル61の位置を算出している。IJ記録ヘッド制御部44は、位置算出回路34が算出するノズル61の位置から所定範囲内に画像要素の位置座標が含まれるか否かを判定する(S116:吐出ノズル可否判定)。 Next, the IJ recording head control unit 44 compares the position coordinates of each image element constituting the peripheral image with the position coordinates of each nozzle 61 (S115). The position calculation circuit 34 calculates the acceleration of the nozzle 61 using the past position and the current position of the nozzle 61. As a result, the position calculation circuit 34 calculates the position of the nozzle 61 for each ink ejection cycle of the IJ recording head 24, which is shorter than the cycle in which the navigation sensor I / F 42 acquires the movement amount. The IJ recording head control unit 44 determines whether or not the position coordinates of the image element are included within a predetermined range from the position of the nozzle 61 calculated by the position calculation circuit 34 (S116: determination of whether or not the ejection nozzle is possible).

吐出条件を満たさない場合(S116のNo)、処理はステップS110に戻る。吐出条件を満たす場合、IJ記録ヘッド制御部44はノズル61ごとに画像要素のデータをIJ記録ヘッド駆動回路23に出力する(S117)。これにより、印刷媒体12にはインクが吐出される。 If the discharge condition is not satisfied (No in S116), the process returns to step S110. When the ejection condition is satisfied, the IJ recording head control unit 44 outputs image element data to the IJ recording head drive circuit 23 for each nozzle 61 (S117). As a result, the ink is ejected to the print medium 12.

次に、CPU33は全画像データを出力したかを判定する(S118)。出力していない場合、ステップS110からS118までの処理を繰り返す。 Next, the CPU 33 determines whether or not all the image data has been output (S118). If no output is made, the processes from steps S110 to S118 are repeated.

全画像データを出力した場合、CPU33は、例えばOPU26のLEDを点灯させユーザに印刷が終了したことを報知する(S119)。 When all the image data is output, the CPU 33 turns on, for example, the LED of the OPU 26 to notify the user that printing is completed (S119).

なお、全画像データを出力しなくても、ユーザが十分と判定した場合には、ユーザは印刷完了ボタンを押下し、OPU26がそれを受け付けて、印刷を終了してよい。印刷終了後、ユーザが電源をOFFにすることもできるし、印刷が終了した時点で、自動で電源がOFFにされるようになっていてもよい。 If the user determines that all the image data is not output, the user may press the print completion button, the OPU 26 accepts the button, and the printing may be terminated. The power may be turned off by the user after the printing is completed, or the power may be automatically turned off when the printing is completed.

<<距離Lの補正処理>>
図14は、画像形成の開始前に行われる距離Lの補正処理の手順を説明するフローチャート図の一例である。
<< Distance L correction processing >>
FIG. 14 is an example of a flowchart for explaining the procedure of the distance L correction process performed before the start of image formation.

HMP20の補正処理部51は、補正開始のタイミングが否かを判定する(S10)。上記のように、OPU26へのユーザの入力(スイッチ操作、タッチパネル操作)だけでなく、電源投入後に必ず補正処理を行ってもよいし、ナビゲーションセンサS,Sからの移動量又はジャイロセンサ31から角速度が入力された場合に該タイミングであると判定してもよい。 The correction processing unit 51 of the HMP 20 determines whether or not the correction start timing is present (S10). As described above, not only the user input (switch operation, touch panel operation) to the OPU 26, but also the correction process may be performed without fail after the power is turned on, and the movement amount from the navigation sensors S 0 and S 1 or the gyro sensor 31 When the angular velocity is input from, it may be determined that the timing is reached.

ステップS10の判定がYesの場合、HMP20の補正処理部51はHMP20の回転を検出するまで待機する(S20)。補正処理部51はナビゲーションセンサS,Sの移動量から検出した回転角変化量dθnavi、又は、ジャイロセンサ31の角速度から検出した回転角変化量dθgyroが閾値以上であるか否かを判定する。ある程度、HMP20が大きく回転しないと、補正後の距離Lnew55が誤差を含むおそれがあるためである。 If the determination in step S10 is Yes, the correction processing unit 51 of the HMP 20 waits until the rotation of the HMP 20 is detected (S20). The correction processing unit 51 determines whether or not the rotation angle change amount dθ navi detected from the movement amount of the navigation sensors S 0 and S 1 or the rotation angle change amount dθ gyro detected from the angular velocity of the gyro sensor 31 is equal to or more than the threshold value. judge. This is because if the HMP 20 does not rotate significantly to some extent, the corrected distance Lnew55 may include an error.

ステップS20の判定がYesの場合、センサ値取得部52が距離Lの補正に必要なセンサ値を取得する(S30)。例えば、HMP20の移動が停止した時の移動後のセンサ値(ナビゲーションセンサS,Sの移動量、及び、ジャイロセンサ31の角速度)を取得する。回転を伴う移動が停止した時に得られたセンサ値を用いてもよい。また、一定期間後に得られたセンサ値を用いてもよい。このように、センサ値の取得のタイミングが決まっているため、センサ値取得部52はセンサ値を取得できるまで待機する。 If the determination in step S20 is Yes, the sensor value acquisition unit 52 acquires the sensor value required for correcting the distance L (S30). For example, when the movement of the HMP 20 is stopped, the sensor value after the movement ( the movement amount of the navigation sensors S 0 and S 1 and the angular velocity of the gyro sensor 31) is acquired. The sensor value obtained when the movement accompanied by rotation is stopped may be used. Moreover, you may use the sensor value obtained after a certain period of time. Since the timing of acquiring the sensor value is determined in this way, the sensor value acquisition unit 52 waits until the sensor value can be acquired.

センサ値を取得できると、距離算出部53はナビゲーションセンサS,Sの間の距離Lnewを算出する(S40)。まず、ジャイロセンサ31から得られた角速度を積分して回転角変化量dθgyroを算出し、式(3)の左辺にdθgyroを代入し、式(3)の右辺にナビゲーションセンサS又はSの移動量ΔX´0、ΔX´1を代入し、ナビゲーションセンサS,Sの間の距離Lの補正値である距離Lnew55を算出する。 When the sensor value can be acquired, the distance calculation unit 53 calculates the distance Lnew between the navigation sensors S 0 and S 1 (S40). First, the angular velocity obtained from the gyro sensor 31 is integrated to calculate the amount of change in rotation angle dθ gyro , dθ gyro is substituted on the left side of equation (3), and the navigation sensor S 0 or S is assigned to the right side of equation (3). 1 movement amount ΔX' 0, substituting DerutaX' 1, calculates the distance Lnew55 is a correction value of the distance L between the navigation sensors S 0, S 1.

次に、補正処理部51は、位置算出回路34が使用する距離Lを、距離Lnew55に更新する(S50)。 Next, the correction processing unit 51 updates the distance L used by the position calculation circuit 34 to the distance Lnew55 (S50).

なお、補正処理部51は、ナビゲーションセンサS、Sの移動量ΔX´0、ΔX´1を式(3)に適用して回転角変化量dθnaviを算出して、dθgyroとdθnaviを比較し、ジャイロセンサ31の誤差レベルの相違しかなかった場合(閾値以下の相違しかない場合)、距離Lを更新しなくてもよい。これにより、距離Lを更新した方がよい場合にだけ距離Lを更新できる。 The correction processing unit 51 applies the movement amounts ΔX ′ 0 and ΔX ′ 1 of the navigation sensors S 0 and S 1 to the equation (3) to calculate the rotation angle change amount dθ navi , and dθ gyro and dθ navi. If there is only a difference in the error level of the gyro sensor 31 (if there is only a difference below the threshold value), the distance L need not be updated. As a result, the distance L can be updated only when it is better to update the distance L.

このように、本実施例のHMP20はナビゲーションセンサS、Sよりも精度のよいジャイロセンサ31を用いることで、ナビゲーションセンサS,Sの取り付けにより生じる距離Lの誤差を補正できる。したがって、HMP20の位置の精度を向上でき、画質を向上できる。 Thus, HMP20 of this embodiment by using a navigation sensor S 0, the gyro sensor 31 good precision than S 1, can correct an error of the distance L caused by mounting of navigation sensors S 0, S 1. Therefore, the accuracy of the position of the HMP 20 can be improved, and the image quality can be improved.

本実施例では、ジャイロセンサ31によって複数回、得られた角速度から複数のナビゲーションセンサ間の距離Lnew55を求め、距離Lnew55の精度が向上されたHMP20について説明する。なお、ハードウェア構成図や機能ブロック図は実施例1と同様でよい。 In this embodiment, the distance Lnew55 between the plurality of navigation sensors is obtained from the angular velocities obtained by the gyro sensor 31 multiple times, and the HMP 20 in which the accuracy of the distance Lnew55 is improved will be described. The hardware configuration diagram and the functional block diagram may be the same as those in the first embodiment.

図15は、本実施例において画像形成の開始前に行われる距離Lの補正処理の手順を説明するフローチャート図の一例である。なお、図15では主に図14との相違を説明する。 FIG. 15 is an example of a flowchart for explaining the procedure of the distance L correction process performed before the start of image formation in this embodiment. Note that FIG. 15 mainly describes the difference from FIG.

補正処理が始まるとステップS5において、補正処理部51は補正のためのセンサ値を取得する回数を決定する(S5)。例えば、ユーザがOPU26から設定する。あるいは、この回数として予め一定値が設定されていてもよいし、距離Lnew55がある範囲に収束するまで繰り返してもよい。 When the correction process starts, in step S5, the correction processing unit 51 determines the number of times to acquire the sensor value for correction (S5). For example, the user sets from OPU26. Alternatively, a constant value may be set in advance as this number of times, or the distance Lnew55 may be repeated until it converges to a certain range.

次のステップS10〜S40、S50の処理は図14と同様である。 The processing of the next steps S10 to S40 and S50 is the same as in FIG.

距離Lnew55を算出すると、補正処理部51は、ステップS5で決定した回数だけ距離Lnew55を算出したか否かを判定する(S42)。 When the distance Lnew55 is calculated, the correction processing unit 51 determines whether or not the distance Lnew55 has been calculated the number of times determined in step S5 (S42).

ステップS42の判定がYesの場合、補正処理部51は、得られた複数個の距離Lnew55から更新に使用する距離Lnew55を決定する(S44)。補正処理部51は、複数個の距離Lnew55に統計処理を施して更新に使用する距離Lnew55を決定する。複数個の距離Lnew55の平均値を算出してもよいし、中央値や最頻値でもよい。 If the determination in step S42 is Yes, the correction processing unit 51 determines the distance Lnew55 to be used for updating from the obtained plurality of distances Lnew55 (S44). The correction processing unit 51 performs statistical processing on a plurality of distances Lnew55 to determine the distance Lnew55 to be used for updating. The average value of a plurality of distances Lnew55 may be calculated, or may be the median value or the mode value.

また、以前の補正処理で算出した距離Lnew55を新しい距離Lnew55の決定に使用してもよい。補正処理部は51は最後に算出した距離Lnew55を好ましくは不揮発性のメモリ(例えばROM28)に記憶しておく。例えば、以前の距離Lnew55から最も変化が少なくなる距離Lnew55に決定する。また、距離Lnew55との差が閾値以上の場合は距離Lnew55の更新を中止してもよい。距離Lは大きく変化しないので、以前の補正処理で算出した距離Lnew55と比較することで、算出された距離Lnew55が妥当かどうかを判定できる。 Further, the distance Lnew55 calculated in the previous correction process may be used to determine the new distance Lnew55. The correction processing unit 51 stores the last calculated distance Lnew55 in a preferably non-volatile memory (for example, ROM 28). For example, the distance Lnew55 with the least change from the previous distance Lnew55 is determined. If the difference from the distance Lnew55 is equal to or greater than the threshold value, the update of the distance Lnew55 may be stopped. Since the distance L does not change significantly, it can be determined whether or not the calculated distance Lnew55 is appropriate by comparing it with the distance Lnew55 calculated in the previous correction process.

したがって、本実施例によれば、複数回、距離Lnew55が算出されるので、距離Lnew55の精度を向上できる。 Therefore, according to this embodiment, the distance Lnew55 is calculated a plurality of times, so that the accuracy of the distance Lnew55 can be improved.

本実施例では、画像形成の開始前でなく、画像形成の開始を補正処理のトリガとし、画像形成中に補正処理を実行するHMP20について説明する。 In this embodiment, the HMP 20 that executes the correction process during the image formation with the start of the image formation as the trigger of the correction process, not before the start of the image formation, will be described.

このような構成によれば、画像形成と補正処理を並行に実行できるので、補正処理に要する時間を画像形成に要する時間に隠蔽することができる。なお、ハードウェア構成図や機能ブロック図は実施例1と同様でよい。 According to such a configuration, since the image formation and the correction process can be executed in parallel, the time required for the correction process can be hidden by the time required for the image formation. The hardware configuration diagram and the functional block diagram may be the same as those in the first embodiment.

図16は、画像データ出力器11とHMP20の動作手順を説明するフローチャート図の一例である。図16では主に図13との相違を説明する。 FIG. 16 is an example of a flowchart for explaining the operation procedure of the image data output device 11 and the HMP 20. FIG. 16 mainly describes the difference from FIG. 13.

まず、図13のステップU103の補正処理のための走査が不要になる。また、補正処理はステップS105ではなく、ステップS111に続いて実行される。 First, scanning for the correction process of step U103 in FIG. 13 becomes unnecessary. Further, the correction process is executed after step S111 instead of step S105.

ステップS111−2で補正処理を行うか否かが判定される。この処理は図13のステップS104と同様である。 It is determined in step S111-2 whether or not to perform the correction process. This process is the same as in step S104 of FIG.

ステップS111−3では、センサ値取得部52が補正処理用にジャイロセンサ31の角速度を取得する(S111−3)。 In step S111-3, the sensor value acquisition unit 52 acquires the angular velocity of the gyro sensor 31 for correction processing (S111-3).

次に、距離算出部53は、ナビゲーションセンサS,Sの移動量と、ジャイロセンサ31の角速度から、距離Lnew55を算出する(S111−4)。また、補正処理部51は、この距離Lnew55で位置算出回路34が参照する距離Lを更新する。このように、画像形成のためにユーザがHMP20を走査させて生じるナビゲーションセンサS,Sの移動量により距離Lnew55が算出される。 Next, the distance calculation unit 53 calculates the distance Lnew55 from the movement amount of the navigation sensors S 0 and S 1 and the angular velocity of the gyro sensor 31 (S111-4). Further, the correction processing unit 51 updates the distance L referred to by the position calculation circuit 34 at this distance Lnew55. Thus, the distance Lnew55 is calculated by the moving amount of the navigation sensors S 0, S 1 the user generated by scanning the HMP20 for imaging.

したがって、位置算出回路34は、補正されたナビゲーションセンサS、Sの距離Lnew55でナビゲーションセンサS,Sの位置を算出できる(S112)。以降の処理は図13と同様でよい。 Therefore, the position calculation circuit 34 can calculate the positions of the navigation sensors S 0 and S 1 with the corrected distance Lnew 55 of the navigation sensors S 0 and S 1 (S112). Subsequent processing may be the same as in FIG.

なお、図16では、ナビゲーションセンサS、Sの移動量を取得するタイミングになると補正処理が実行されているが、補正処理の実行は画像形成開始後に1回のみ行えばよい。 In FIG. 16, the correction process is executed at the timing of acquiring the movement amount of the navigation sensors S 0 and S 1 , but the correction process may be executed only once after the start of image formation.

このように、画像形成中に補正処理を実行するので、補正処理に要する時間をユーザに意識させにくくすることができる。 In this way, since the correction process is executed during the image formation, it is possible to make it difficult for the user to be aware of the time required for the correction process.

一方、画像形成開始時にナビゲーションセンサS,Sの間の距離Lと実際の距離と間に大きなずれがあった場合、画像形成開始から補正処理が行われるまでに出力された画像は画質が低下するおそれがある。このため、画像形成開始直後に、余白や同一色のベタ画像(ナビゲーションセンサS,Sの位置の誤差が画質に影響しにくい)があるなどの画像を形成する際に本実施例が利用されることが望ましい。画像形成が開始される時のHMP20の初期位置の周囲にどのような画像データがあるかは画像データの画素値を解析して得られる輝度勾配などにより判断される。 On the other hand, if there is a large deviation between the distance L between the navigation sensors S 0 and S 1 and the actual distance at the start of image formation, the image quality of the image output from the start of image formation to the correction processing is high. It may decrease. Therefore, immediately after the image formation start, this embodiment is utilized in forming an image such as is margins and same color solid image (navigation sensors S 0, hardly affects the image quality error position S 1) It is desirable to be done. What kind of image data exists around the initial position of the HMP 20 when the image formation is started is determined by the brightness gradient obtained by analyzing the pixel value of the image data.

本実施例では、HMP20ではなくHMP20と通信する補正装置が距離Lnew55を算出し、この距離Lnew55をHMP20に送信する補正システム100について説明する。 In this embodiment, the correction system 100 in which the correction device communicating with the HMP 20 instead of the HMP 20 calculates the distance Lnew55 and transmits the distance Lnew55 to the HMP20 will be described.

図17は、補正システム100の概略構成図の一例を示す。補正システム100は、補正装置70、回転部72、回転量センサ73、及び、通信IF74を有する。回転部72は、補正装置70の制御により補正装置70を中心に平面に水平に揺動する。回転部72はモータとカム機構を有しロッド71を一定範囲で繰り返し揺動させるアクチュエータである。すなわち、HMP20に回転成分を検出できる動きを与える。 FIG. 17 shows an example of a schematic configuration diagram of the correction system 100. The correction system 100 includes a correction device 70, a rotation unit 72, a rotation amount sensor 73, and a communication IF 74. The rotating unit 72 swings horizontally around the correction device 70 in a plane under the control of the correction device 70. The rotating portion 72 is an actuator that has a motor and a cam mechanism and repeatedly swings the rod 71 within a certain range. That is, the HMP 20 is given a motion capable of detecting a rotation component.

回転量センサ73は、回転部72の回転角変化量を検出する。例えば、ジャイロセンサ31、ロータリーエンコーダなど、HMP20に生じる回転角変化量を検出できるセンサであればよい。 The rotation amount sensor 73 detects the amount of change in the rotation angle of the rotation unit 72. For example, a sensor such as a gyro sensor 31 or a rotary encoder that can detect the amount of change in the rotation angle generated in the HMP 20 may be used.

通信IF74は、HMP20と通信し、補正処理の開始のトリガを送受信したり、回転部72の回転角変化量をHMP20に送信するために使用される。例えば、Bluetooth(登録商標)、無線LAN又はNFCなどの通信規格で通信する。 The communication IF 74 communicates with the HMP 20 and is used to send and receive a trigger for starting the correction process and to transmit the amount of change in the rotation angle of the rotating unit 72 to the HMP 20. For example, communication is performed using a communication standard such as Bluetooth (registered trademark), wireless LAN, or NFC.

したがって、補正システム100によりHMP20がジャイロセンサ31を有していなくても、HMP20が補正装置70から回転角変化量を取得して、距離Lnew55を算出できる。 Therefore, even if the HMP 20 does not have the gyro sensor 31 by the correction system 100, the HMP 20 can acquire the amount of change in the rotation angle from the correction device 70 and calculate the distance Lnew55.

なお、図17の構成は説明のための構成であって、HMP20とは別に用意されている記録ヘッドのメンテナンス装置(IJ記録ヘッド24の状態を正常に保つ)や充電スタンドなどと一体化させてもよい。また、補正システム100の形状は上記の機能を有していれば、どのような形状でもよい。例えば、ターンテーブル上でHMP20を回転させてもよい。 The configuration of FIG. 17 is for the purpose of explanation, and is integrated with a recording head maintenance device (keeping the state of the IJ recording head 24 normal), a charging stand, etc., which are prepared separately from the HMP 20. May be good. Further, the shape of the correction system 100 may be any shape as long as it has the above functions. For example, the HMP 20 may be rotated on the turntable.

図18は、補正システム100の機能ブロック図の一例である。補正装置70はマイコンなど情報処理装置の構成を有している。例えば、CPU、RAM、ROM、各インタフェース、通信IF、ユーザとのインタフェースとなる入出力装置などの機能を有する。 FIG. 18 is an example of a functional block diagram of the correction system 100. The correction device 70 has a configuration of an information processing device such as a microcomputer. For example, it has functions such as a CPU, RAM, ROM, each interface, a communication IF, and an input / output device that serves as an interface with a user.

補正装置70は、通信部81、回転制御部82、及び、回転角度検出部83を有する。通信部81は、CPUがプログラムを実行したり通信I/F74等により実現される。回転制御部82は、CPUがプログラムを実行したり回転部72を制御することで実現される。回転角度検出部83は、CPUがプログラムを実行したり回転量センサ73を制御することで実現される。 The correction device 70 includes a communication unit 81, a rotation control unit 82, and a rotation angle detection unit 83. The communication unit 81 is realized by the CPU executing a program, communication I / F74, or the like. The rotation control unit 82 is realized by the CPU executing a program or controlling the rotation unit 72. The rotation angle detection unit 83 is realized by the CPU executing a program or controlling the rotation amount sensor 73.

また、HMP20は図12の構成に加え通信部56を有している。この通信部56は、通信IF27等により実現される。通信部56は補正装置70の通信部81と通信する。 Further, the HMP 20 has a communication unit 56 in addition to the configuration shown in FIG. The communication unit 56 is realized by a communication IF27 or the like. The communication unit 56 communicates with the communication unit 81 of the correction device 70.

図19は、補正システム100の動作手順を説明するシーケンス図の一例である。ユーザは回転部72にHMP20を装着し、補正処理を開始する操作を行う。
S1:一例として、HMP20の補正処理部51は補正処理を行うタイミングを検出すると通信部56を介して補正処理開始を補正装置70に送信する。
S2:補正装置70の通信部81は補正処理開始の通知を受信し、回転制御部82が回転部72を回転させる。
S3:これにより、HMP20のナビゲーションセンサS,Sが移動量を検出する。
S4:また、補正装置70の回転角度検出部83は回転部72の回転角変化量dθturnを検出する。
S5:補正装置70の通信部81は、回転角変化量dθturnをHMP20に送信する。
S6:HMP20の通信部56は回転角変化量dθturnを受信し、補正処理部51が距離算出部53に送出する。これにより、実施例1〜3と同様に、距離算出部53がナビゲーションセンサS,Sの移動量と回転角変化量dθturnを用いて距離Lnew55を算出できる。また、補正処理部51は距離Lを更新できる。
FIG. 19 is an example of a sequence diagram for explaining the operation procedure of the correction system 100. The user attaches the HMP 20 to the rotating portion 72 and performs an operation to start the correction process.
S1: As an example, when the correction processing unit 51 of the HMP 20 detects the timing of performing the correction processing, the correction processing start is transmitted to the correction device 70 via the communication unit 56.
S2: The communication unit 81 of the correction device 70 receives the notification of the start of the correction process, and the rotation control unit 82 rotates the rotation unit 72.
S3: As a result, the navigation sensors S 0 and S 1 of the HMP 20 detect the movement amount.
S4: Further, the rotation angle detection unit 83 of the correction device 70 detects the rotation angle change amount dθturn of the rotation unit 72.
S5: The communication unit 81 of the correction device 70 transmits the rotation angle change amount dθturn to the HMP 20.
S6: The communication unit 56 of the HMP 20 receives the rotation angle change amount dθturn, and the correction processing unit 51 sends it to the distance calculation unit 53. As a result, the distance calculation unit 53 can calculate the distance Lnew 55 by using the movement amount of the navigation sensors S 0 and S 1 and the rotation angle change amount dθturn as in the first to third embodiments. Further, the correction processing unit 51 can update the distance L.

したがって、本実施例によれば、HMP20がジャイロセンサ31を有していなくても距離Lを補正することができる。補正装置70がメンテナンス装置や充電スタンドなどと一体であれば、ユーザはHMP20を保管しておくことで距離Lを更新できる。 Therefore, according to this embodiment, the distance L can be corrected even if the HMP 20 does not have the gyro sensor 31. If the correction device 70 is integrated with a maintenance device, a charging stand, or the like, the user can update the distance L by storing the HMP 20.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、本実施形態ではナビゲーションセンサが2つであると説明したが、ナビゲーションセンサが3つ以上の場合も、これらのナビゲーションセンサ間の距離でナビゲーションセンサの位置が算出される婆葉、同様に適用できる。 For example, in the present embodiment, it has been explained that there are two navigation sensors, but even when there are three or more navigation sensors, the same applies to the old woman whose position is calculated by the distance between these navigation sensors. it can.

また、本実施形態ではジャイロセンサで回転角変化量を検出したが、回転角変化量を検出できればどのようなセンサでもよい。 Further, in the present embodiment, the amount of change in the angle of rotation is detected by the gyro sensor, but any sensor may be used as long as the amount of change in the angle of rotation can be detected.

また、上記したSoC50、ASIC/FPGA40の構成要素は、CPU性能やASIC/FPGA40の回路規模等により、どちらに含まれていてもよい。 Further, the components of the SoC50 and the ASIC / FPGA40 described above may be included in either of them depending on the CPU performance, the circuit scale of the ASIC / FPGA40, and the like.

また、本実施形態ではインクを吐出して画像を形成すると説明したが、可視光、紫外線、赤外線、レーザなどを照射して画像を形成してもよい。この場合、印刷媒体12として例えば熱や光に反応するものが用いられる。また、透明な液体を吐出してもよい。この場合、特定の波長域の光が照射されると可視情報が得られる。また、金属ペーストや樹脂などを吐出してもよい。 Further, in the present embodiment, it has been described that ink is ejected to form an image, but an image may be formed by irradiating visible light, ultraviolet rays, infrared rays, a laser, or the like. In this case, as the print medium 12, for example, a medium that reacts with heat or light is used. Further, a transparent liquid may be discharged. In this case, visible information can be obtained when light in a specific wavelength range is irradiated. Further, a metal paste, a resin or the like may be discharged.

なお、ナビゲーションセンサ30は移動量検出手段の一例であり、センサ値取得部52は姿勢情報取得手段の一例であり、距離算出部53は検出手段位置算出手段の一例であり、補正処理部51は補正手段の一例であり、位置算出回路34は位置算出手段の一例であり、IJ記録ヘッド制御部44は液滴吐出手段の一例である。 The navigation sensor 30 is an example of the movement amount detecting means, the sensor value acquiring unit 52 is an example of the posture information acquiring means, the distance calculating unit 53 is an example of the detecting means position calculating means, and the correction processing unit 51 is an example. The position calculation circuit 34 is an example of the position calculation means, and the IJ recording head control unit 44 is an example of the droplet ejection means.

11 画像データ出力器
30 ナビゲーションセンサ
31 ジャイロセンサ
51 補正処理部
52 センサ値取得部
53 距離算出部
70 補正装置
100 補正システム
11 Image data output device 30 Navigation sensor 31 Gyro sensor 51 Correction processing unit 52 Sensor value acquisition unit 53 Distance calculation unit 70 Correction device 100 Correction system

特許5033247号公報Japanese Patent No. 5033247

Claims (10)

移動量と姿勢とに基づいて移動面における位置を検出する位置検出装置であって、
前記移動量を検出する少なくとも2つの移動量検出手段と、
前記位置検出装置の姿勢に関する情報を取得する姿勢情報取得手段と、
前記移動量と前記姿勢に関する情報を用いて前記2つの移動量検出手段の間の距離を求める検出手段位置算出手段と、を有し、
前記検出手段位置算出手段が算出した前記距離を用いて前記位置検出装置の位置を算出する位置検出装置。
A position detection device that detects a position on a moving surface based on the amount of movement and posture.
At least two movement amount detecting means for detecting the movement amount, and
A posture information acquisition means for acquiring information on the posture of the position detection device, and
It has a detecting means position calculating means for obtaining a distance between the two moving amount detecting means by using the moving amount and the information about the posture.
A position detection device that calculates the position of the position detection device using the distance calculated by the detection means position calculation means.
記2つの移動量検出手段がそれぞれ検出した前記移動量及び前記2つの移動量検出手段の間の距離を用いて前記位置検出装置の位置を算出する位置算出手段を有し、
記2つの移動量検出手段の間の距離を、前記検出手段位置算出手段が算出した前記距離で補正する補正手段を有する請求項1に記載の位置検出装置。
A position calculation means for calculating the position of the position detecting device using the distance between the moving amount and the two displacement detection means before Symbol two moving amount detecting means detects respectively,
Distance, position detecting apparatus according to claim 1 having a correction means for correcting by the distance which the detector position calculating means is calculated between the previous SL two moving amount detecting means.
前記位置検出装置の位置に応じて該位置の画像を形成するための液滴を吐出する液滴吐出手段を有し、
前記補正手段は、前記液滴吐出手段が画像を形成するための液滴の吐出を開始する前に前記移動量を検出する移動量検出手段の位置を補正する請求項2に記載の位置検出装置。
It has a droplet ejection means for ejecting droplets for forming an image of the position according to the position of the position detecting device.
The position detection device according to claim 2, wherein the correction means corrects the position of the movement amount detecting means for detecting the movement amount before the droplet ejection means starts ejecting droplets for forming an image. ..
前記位置検出装置の位置に応じて該位置の画像を形成するための液滴を吐出する液滴吐出手段を有し、
前記検出手段位置算出手段は、前記液滴吐出手段が画像を形成するための液滴の吐出を開始してから、前記位置検出装置の位置の算出のために前記移動量を検出する移動量検出手段が検出した前記移動量を用いて、前記距離を算出し、
前記補正手段は、前記検出手段位置算出手段が算出した前記距離で前記移動量検出手段の位置を補正する請求項2に記載の位置検出装置。
It has a droplet ejection means for ejecting droplets for forming an image of the position according to the position of the position detecting device.
The detection means position calculation means moves amount detection that detects the movement amount for calculating the position of the position detection device after the droplet ejection means starts ejecting droplets for forming an image. Using the movement amount detected by the means, the distance is calculated.
The position detecting device according to claim 2, wherein the correction means corrects the position of the movement amount detecting means by the distance calculated by the detecting means position calculating means.
前記移動量を検出する移動量検出手段は複数の前記移動量を検出し、前記姿勢情報取得手段は複数の前記姿勢に関する情報を検出し、
前記検出手段位置算出手段は、前記移動量と前記姿勢に関する情報を用いて前記2つの移動量検出手段の距離を複数回、算出し、
前記補正手段は、複数の前記距離に統計処理を施して得た前記距離で前記移動量検出手段の位置を補正する請求項2〜4のいずれか1項に記載の位置検出装置。
The movement amount detecting means for detecting the movement amount detects a plurality of the movement amounts, and the posture information acquisition means detects information on the plurality of the postures.
The detection means position calculation means calculates the distance between the two movement amount detection means a plurality of times using the information on the movement amount and the posture.
Said correction means, the position detecting apparatus according to any one of claims 2-4 for correcting the position of said moving amount detecting means by the distance obtained by applying a statistical process to a plurality of said distance.
前記補正手段は、補正に用いた前記距離を記憶しておき、
前記検出手段位置算出手段が算出した複数の前記距離のうち、記憶している前記距離との差が最も少なくなる前記距離で、前記移動量検出手段の位置を補正する請求項5に記載の位置検出装置。
The correction means stores the distance used for correction, and stores the distance.
Among the plurality of the distance which the detector position calculating means is calculated, with the distance difference between the distance that is stored is minimized, the position according to claim 5 for correcting the position of said moving amount detecting means Detection device.
前記補正手段は、前記2つの移動量検出手段がそれぞれ検出した前記移動量及び前記2つの移動量検出手段の間の距離を用いて、前記姿勢に関する情報を算出し、
前記姿勢情報取得手段が取得した前記姿勢に関する情報と算出された前記姿勢に関する情報との差が閾値以下の場合、前記補正手段は、前記移動量を検出する移動量検出手段の位置を補正しないことを特徴とする請求項2〜6のいずれか1項に記載の位置検出装置。
Wherein the correction means uses a distance between the moving amount and the two displacement detection means for the two moving amount detecting unit detects respectively, and calculates information relating to the position,
When the difference between the information about the posture acquired by the posture information acquisition means and the calculated information about the posture is equal to or less than the threshold value, the correction means does not correct the position of the movement amount detecting means for detecting the movement amount. The position detecting apparatus according to any one of claims 2 to 6.
請求項1〜7のいずれか1項に記載の位置検出装置と、
前記位置検出装置の位置に応じて該位置の画像を形成するための液滴を吐出する液滴吐出手段と、を有する液滴吐出装置。
The position detection device according to any one of claims 1 to 7.
A droplet ejection device comprising a droplet ejection means for ejecting droplets for forming an image of the position according to the position of the position detecting apparatus.
姿勢と移動量に基づいて移動面における位置を検出する情報処理装置を、
前記移動量を検出する少なくとも2つの移動量検出手段と、
前記情報処理装置の姿勢に関する情報を取得する姿勢情報取得手段と、
前記移動量と前記姿勢に関する情報を用いて前記2つの移動量検出手段の間の距離を求める検出手段位置算出手段、として機能させ
前記検出手段位置算出手段が算出した前記距離を用いて前記情報処理装置の位置を算出するプログラム。
An information processing device that detects the position on the moving surface based on the posture and the amount of movement.
At least two movement amount detecting means for detecting the movement amount, and
A posture information acquisition means for acquiring information on the posture of the information processing device, and
It said detecting means position calculating means asking you to distance between the two moving amount detecting means by using the information about the amount of movement and the posture, to function as,
A program that calculates the position of the information processing device using the distance calculated by the detection means position calculation means.
姿勢と移動量に基づいて位置検出装置が移動面における位置を検出する位置検出方法であって、
少なくとも2つの移動量検出手段が、前記移動量を検出するステップと、
姿勢情報取得手段が、前記位置検出装置の姿勢に関する情報を取得するステップと、
検出手段位置算出手段が、前記移動量と前記姿勢に関する情報を用いて前記2つの移動量検出手段の間の距離を求めるステップと、
前記検出手段位置算出手段が算出した前記距離を用いて前記位置検出装置の位置を算出するステップと、を有する位置検出方法。
A position detection method in which a position detection device detects a position on a moving surface based on a posture and a movement amount.
A step in which at least two movement amount detecting means detect the movement amount, and
A step in which the posture information acquisition means acquires information regarding the posture of the position detection device, and
A step in which the detection means position calculating means obtains a distance between the two movement amount detecting means using the information on the movement amount and the posture, and
A position detection method comprising a step of calculating the position of the position detection device using the distance calculated by the detection means position calculation means.
JP2016153799A 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method Active JP6844145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016153799A JP6844145B2 (en) 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016153799A JP6844145B2 (en) 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method

Publications (2)

Publication Number Publication Date
JP2018021844A JP2018021844A (en) 2018-02-08
JP6844145B2 true JP6844145B2 (en) 2021-03-17

Family

ID=61165575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016153799A Active JP6844145B2 (en) 2016-08-04 2016-08-04 Position detection device, droplet ejection device, program, position detection method

Country Status (1)

Country Link
JP (1) JP6844145B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7172658B2 (en) * 2019-01-28 2022-11-16 株式会社リコー Position detection device, handheld device, position detection method, and program
JP7380271B2 (en) 2020-02-03 2023-11-15 セイコーエプソン株式会社 Printing devices, programs and printed matter production methods

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008109543A1 (en) * 2007-03-02 2008-09-12 Marvell World Trade Ltd. Position correction for handheld printer
JP6384262B2 (en) * 2014-10-20 2018-09-05 株式会社リコー Printing apparatus, method and program

Also Published As

Publication number Publication date
JP2018021844A (en) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6897167B2 (en) Droplet ejection device, droplet ejection method, program
JP6409435B2 (en) Printing apparatus, printing system, and printing method
JP6953815B2 (en) Program, information processing device, display method, droplet ejection device, droplet ejection system
JP6926535B2 (en) Droplet ejection device, droplet ejection method, program
USRE49057E1 (en) Position detection apparatus, droplet discharging apparatus, method for detecting position, and medium
JP7120348B2 (en) image forming device
JP2016215472A (en) Image forming apparatus, image forming method and program
JP2017170634A (en) Position detector, droplet ejection device, and program
US20210070039A1 (en) Droplet discharge apparatus and droplet discharge method
JP6717042B2 (en) Position detection device, droplet discharge device
JP6844145B2 (en) Position detection device, droplet ejection device, program, position detection method
JP6402585B2 (en) Printing apparatus, method and program
US10596813B2 (en) Liquid discharge apparatus and liquid discharge method
JP2016137621A (en) Handheld recorder
JP2017105122A (en) Liquid discharge device, liquid discharge method, program
JP2019162860A (en) Droplet discharge device, droplet discharge method, and program
JP7183838B2 (en) LIQUID EJECTING APPARATUS, LIQUID EJECTING METHOD, AND PROGRAM
JP7172658B2 (en) Position detection device, handheld device, position detection method, and program
JP7206974B2 (en) LIQUID EJECTING APPARATUS, LIQUID EJECTING METHOD, AND PROGRAM
JP7127564B2 (en) POSITION INFORMATION ADJUSTMENT DEVICE, HANDY TYPE DROP EJECTING DEVICE INCLUDING THE POSITION INFORMATION ADJUSTMENT DEVICE, POSITION INFORMATION ADJUSTMENT METHOD IN A HANDY DEVICE, AND POSITION INFORMATION ADJUSTMENT PROGRAM IN A HANDY DEVICE
JP6582873B2 (en) Image forming apparatus, program, and method
JP2019010778A (en) Printer and printing method
JP2020100151A (en) Printer, printing system, and printing method
JP2019022989A (en) Printer, printing system and printing method
JP2022056896A (en) Hand-held printer and print guide output program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R151 Written notification of patent or utility model registration

Ref document number: 6844145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151