JP2017194832A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2017194832A
JP2017194832A JP2016084572A JP2016084572A JP2017194832A JP 2017194832 A JP2017194832 A JP 2017194832A JP 2016084572 A JP2016084572 A JP 2016084572A JP 2016084572 A JP2016084572 A JP 2016084572A JP 2017194832 A JP2017194832 A JP 2017194832A
Authority
JP
Japan
Prior art keywords
image processing
characters
marking
image data
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016084572A
Other languages
Japanese (ja)
Other versions
JP6504104B2 (en
Inventor
和司 新谷
Kazushi Shintani
和司 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016084572A priority Critical patent/JP6504104B2/en
Priority to US15/482,209 priority patent/US20170308507A1/en
Publication of JP2017194832A publication Critical patent/JP2017194832A/en
Application granted granted Critical
Publication of JP6504104B2 publication Critical patent/JP6504104B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress the filling out of an answer column becoming difficult.SOLUTION: An image processing device includes: an input part for inputting image data of a manuscript including a document; and an image processing part for generating the image data of a vermin problem and distinguishing a marking area from among the image data of the manuscript and converting the marking area into an answer column. The image processing part obtains the number of pixel lumps which is the lumps of the pixel greater than or equal to a threshold value in pixel value by performing a labelling process for the marking area when the image data of the vermin problem is generated, and recognizes the number of pixel lumps as the number of letters of the marking area, obtains the number of letters adding the number of margins to the number of letters of the marking area as the number of answer column letters, and changes the size of the answer column to the size corresponding to the number of answer column letters.SELECTED DRAWING: Figure 9

Description

本発明は、虫食い問題の画像データを生成する画像処理装置に関する。   The present invention relates to an image processing apparatus that generates image data of a worm-eaten problem.

従来、虫食い問題の基となる原稿(教科書など)を読み取り、当該原稿の読み取りによって得られた画像データを用いて、虫食い問題の画像データを生成する技術が知られている。このような技術は、たとえば、特許文献1に開示されている。   2. Description of the Related Art Conventionally, a technique is known in which a manuscript (textbook or the like) that is a basis for a worm-eating problem is read and image data for a worm-eating problem is generated using image data obtained by reading the manuscript. Such a technique is disclosed in Patent Document 1, for example.

特許文献1では、虫食い問題の基となる原稿の画像データのうち、対象文字画像(解答者に問題として提示する文字列の画像)を空白の解答欄に変換できるようになっている。具体的には、虫食い問題の基となる原稿の画像データのうち、対象文字画像に目隠しデータが貼り付けられ、その目隠しデータの貼り付け箇所が解答欄とされる。   In Patent Document 1, the target character image (the image of the character string presented as a problem to the answerer) among the image data of the manuscript that is the basis of the worm-eating problem can be converted into a blank answer column. Specifically, among the image data of the manuscript that is the basis of the worm-eaten problem, blindfold data is pasted on the target character image, and the pasting location of the blindfold data is used as an answer column.

特開2002−287607号公報JP 2002-287607 A

虫食い問題の画像データの使用方法は様々である。たとえば、虫食い問題をディスプレイ上に表示することができる。あるいは、虫食い問題の画像データを生成した後、当該生成した画像データに基づき虫食い問題を用紙に印刷することもできる。   There are various methods of using image data for worm-eating problems. For example, worm-eating problems can be displayed on the display. Alternatively, after the image data of the worm-eaten problem is generated, the worm-eaten problem can be printed on a sheet based on the generated image data.

通常、虫食い問題を用紙に印刷する場合には、虫食い問題用紙の解答欄に文字を記入させることを前提としている。しかし、対象文字画像(解答者に問題として提示する文字列の画像)を単に空白の解答欄に変換しただけでは、その虫食い問題を用紙に印刷すると、虫食い問題用紙の解答欄のサイズが小さくなる場合がある(虫食い問題の基となる原稿の文字サイズが小さいほど、解答欄のサイズが小さくなる)。仮に、解答欄のサイズが小さくなり過ぎると、解答欄への文字の記入が行い難くなるという不都合が生じる。   Usually, when printing a worm-eaten problem on paper, it is assumed that characters are entered in the answer column of the worm-eaten problem paper. However, if the target character image (the image of the character string presented as a question to the answerer) is simply converted into a blank answer field, the size of the answer field on the worm-eaten problem sheet is reduced when the worm-eaten problem is printed on paper. In some cases (the smaller the text size of the manuscript that is the basis for the worm-eating problem, the smaller the size of the answer column). If the size of the answer column becomes too small, there is a disadvantage that it becomes difficult to enter characters in the answer column.

本発明は、上記課題を解決するため、解答欄への文字の記入が行い難くなるのを抑制することが可能な画像処理装置を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide an image processing apparatus capable of suppressing the difficulty of entering characters in an answer column.

上記目的を達成するために、本発明の画像処理装置は、文書を含む原稿の画像データを画像処理装置に入力するための入力部と、原稿の画像データのうちユーザーによりマーキングされたマーキング領域を判別し、マーキング領域を空白の解答欄に変換した虫食い問題の画像データを生成する画像処理部と、を備える。画像処理部は、虫食い問題の画像データを生成するとき、マーキング領域に対してラベリング処理を行うことによって、画素値が予め定められた閾値以上の画素の塊である画素塊の数を求めるとともに、当該求めた画素塊の数をマーキング領域の文字数として認識し、マーキング領域の文字数にマージン数を加えた文字数を解答欄文字数として求め、文字を書き進める方向である第1方向における解答欄のサイズを解答欄文字数に応じたサイズに変更する。   In order to achieve the above object, an image processing apparatus of the present invention includes an input unit for inputting image data of a document including a document to the image processing apparatus, and a marking area marked by a user in the image data of the document. And an image processing unit that generates image data of a worm-eaten problem by determining and converting the marking area into a blank answer field. The image processing unit obtains the number of pixel blocks that are pixel blocks whose pixel values are equal to or higher than a predetermined threshold by performing a labeling process on the marking area when generating image data of the worm-eaten problem, The number of pixel blocks obtained is recognized as the number of characters in the marking region, the number of characters obtained by adding the number of margins to the number of characters in the marking region is obtained as the number of characters in the answer column, and the size of the answer column in the first direction, which is the direction in which characters are written Change the size according to the number of characters in the answer field.

本発明の構成では、解答欄の第1方向のサイズが解答欄文字数に応じたサイズに変更される。ここで、解答欄文字数はマーキング領域の文字数にマージン数を加えた文字数であるので、解答欄文字数はマーキング領域の文字数よりも多くなる。このため、解答欄の第1方向のサイズを解答欄文字数に応じたサイズに変更すると、解答欄の第1方向のサイズはマーキング領域の第1方向のサイズよりも大きくなる。言い換えると、解答欄の第1方向のサイズはマーキング領域の第1方向のサイズ以下になることはない。これにより、虫食い問題の画像データに基づき印刷された虫食い問題用紙の解答欄のサイズが小さ過ぎることに起因して解答欄への文字の記入が行い難くなる、という不都合が生じるのを抑制することができる。   In the configuration of the present invention, the size in the first direction of the answer column is changed to a size corresponding to the number of characters in the answer column. Here, since the number of characters in the answer field is the number of characters in the marking area plus the number of margins, the number of characters in the answer field is larger than the number of characters in the marking area. For this reason, if the size of the answer column in the first direction is changed to a size corresponding to the number of characters in the answer column, the size of the answer column in the first direction becomes larger than the size of the marking area in the first direction. In other words, the size in the first direction of the answer column does not become smaller than the size in the first direction of the marking area. This prevents the inconvenience that it becomes difficult to enter characters in the answer field due to the size of the answer field of the worm-eaten problem sheet printed based on the image data of the worm-eaten problem Can do.

本発明の構成では、解答欄への文字の記入が行い難くなるのを抑制することができる。   In the configuration of the present invention, it is possible to suppress difficulty in entering characters in the answer column.

本発明の一実施形態による複合機を示す図The figure which shows the multifunctional device by one Embodiment of this invention. 本発明の一実施形態による複合機のハードウェア構成を示す図The figure which shows the hardware constitutions of the multifunctional device by one Embodiment of this invention ラベリング処理について説明するための図Diagram for explaining the labeling process 本発明の一実施形態による複合機の操作パネルに表示される設定画面(虫食い問題作成モードに関する設定を行うための画面)の一例を示す図The figure which shows an example of the setting screen (screen for performing the setting regarding a worm-eaten problem creation mode) displayed on the operation panel of the multifunction machine according to the embodiment of the present invention. 本発明の一実施形態による複合機が生成する虫食い問題の画像データの基となる原稿の画像データの一例を示す図FIG. 3 is a diagram illustrating an example of image data of an original document that is a basis of image data of a worm-feeding problem generated by a multifunction peripheral according to an embodiment of the present invention. 本発明の一実施形態による複合機が虫食い問題の画像データを生成するときに行うラベリング処理について説明するための図The figure for demonstrating the labeling process performed when the multifunctional device by one Embodiment of this invention produces | generates the image data of a worm-eaten problem. 本発明の一実施形態による複合機が虫食い問題の画像データを生成するときに行うラベリング処理について説明するための図The figure for demonstrating the labeling process performed when the multifunctional device by one Embodiment of this invention produces | generates the image data of a worm-eaten problem. 本発明の一実施形態による複合機が生成する虫食い問題の画像データの一例を示す図The figure which shows an example of the image data of the worm-eaten problem which the multifunctional device by one Embodiment of this invention produces | generates 本発明の一実施形態による複合機が虫食い問題の画像データを生成するときに行う解答欄の拡大処理について説明するための図The figure for demonstrating the expansion process of the answer column performed when the multifunctional device by one Embodiment of this invention produces | generates the image data of a worm-eaten problem 本発明の一実施形態による複合機が虫食い問題の画像データを生成するときに行う画像の移動処理について説明するための図The figure for demonstrating the image movement process performed when the multifunctional device by one Embodiment of this invention produces | generates the image data of a worm-eaten problem 本発明の一実施形態による複合機が虫食い問題の画像データを生成するときに行う画像の移動処理について説明するための図The figure for demonstrating the image movement process performed when the multifunctional device by one Embodiment of this invention produces | generates the image data of a worm-eaten problem 本発明の一実施形態による複合機が虫食い問題の画像データを生成するときに行う処理の流れについて説明するためのフローチャート7 is a flowchart for explaining a flow of processing performed when the multifunction peripheral according to an embodiment of the present invention generates image data of a worm-eaten problem.

以下に、本発明の一実施形態による画像処理装置について、コピー機能など複数種の機能が搭載された複合機(画像形成装置)を例にとって説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described by taking a multifunction peripheral (image forming apparatus) equipped with a plurality of functions such as a copy function as an example.

<複合機の全体構成>
図1に示すように、本実施形態の複合機100は、画像読取部1および印刷部2を備える。画像読取部1は、原稿を読み取り、その原稿の画像データを生成する。印刷部2は、用紙搬送路20に沿って用紙を搬送しつつ、画像データに基づきトナー像を形成する。そして、印刷部2は、搬送中の用紙にトナー像を転写(印刷)する。
<Overall configuration of MFP>
As illustrated in FIG. 1, the multifunction peripheral 100 according to the present embodiment includes an image reading unit 1 and a printing unit 2. The image reading unit 1 reads a document and generates image data of the document. The printing unit 2 forms a toner image based on the image data while conveying the sheet along the sheet conveying path 20. Then, the printing unit 2 transfers (prints) the toner image onto the sheet being conveyed.

印刷部2は、給紙部3、用紙搬送部4、画像形成部5および定着部6によって構成される。給紙部3は、ピックアップローラー31および給紙ローラー対32を含み、用紙カセット33に収容された用紙を用紙搬送路20に供給する。用紙搬送部4は、複数の搬送ローラー対41を含み、用紙搬送路20に沿って用紙を搬送する。   The printing unit 2 includes a paper feeding unit 3, a paper transport unit 4, an image forming unit 5, and a fixing unit 6. The paper feed unit 3 includes a pickup roller 31 and a paper feed roller pair 32, and supplies the paper stored in the paper cassette 33 to the paper transport path 20. The paper transport unit 4 includes a plurality of transport roller pairs 41 and transports the paper along the paper transport path 20.

画像形成部5は、感光体ドラム51、帯電装置52、露光装置53、現像装置54、転写ローラー55およびクリーニング装置56を含む。そして、画像形成部5は、画像データに基づきトナー像を形成し、そのトナー像を用紙に転写する。定着部6は、加熱ローラー61および加圧ローラー62を含み、用紙に転写されたトナー像を加熱および加圧して定着させる。   The image forming unit 5 includes a photosensitive drum 51, a charging device 52, an exposure device 53, a developing device 54, a transfer roller 55, and a cleaning device 56. The image forming unit 5 forms a toner image based on the image data, and transfers the toner image to a sheet. The fixing unit 6 includes a heating roller 61 and a pressure roller 62, and fixes the toner image transferred onto the sheet by heating and pressing.

また、複合機100は、操作パネル7を備える。操作パネル7には、タッチパネルディスプレイ71が設けられる。たとえば、タッチパネルディスプレイ71は、各種設定を受け付けるためのソフトウェアキーを表示し、各種設定をユーザーから受け付ける(ソフトウェアキーに対するタッチ操作を受け付ける)。さらに、操作パネル7には、スタートキーやテンキーなどのハードウェアキー72も設けられる。   The multifunction device 100 also includes an operation panel 7. The operation panel 7 is provided with a touch panel display 71. For example, the touch panel display 71 displays software keys for accepting various settings and accepts various settings from the user (accepts touch operations on the software keys). Further, the operation panel 7 is also provided with hardware keys 72 such as a start key and a numeric keypad.

<複合機のハードウェア構成>
図2に示すように、複合機100は、制御部110を備える。制御部110は、CPU111、メモリー112および画像処理部113を含む。CPU111は、制御用のプログラムやデータに基づき動作する。メモリー112は、ROMやRAMを含む。CPU111を動作させるための制御用のプログラムやデータは、ROMに記憶され、RAMに展開される。そして、制御部110(CPU111)は、制御用のプログラムやデータに基づき、画像読取部1および印刷部2(給紙部3、用紙搬送部4、画像形成部5および定着部6)の動作を制御する。また、制御部110は、操作パネル7の動作を制御する。
<Hardware configuration of MFP>
As shown in FIG. 2, the multifunction peripheral 100 includes a control unit 110. The control unit 110 includes a CPU 111, a memory 112, and an image processing unit 113. The CPU 111 operates based on a control program and data. The memory 112 includes a ROM and a RAM. Control programs and data for operating the CPU 111 are stored in the ROM and expanded in the RAM. Then, the control unit 110 (CPU 111) performs operations of the image reading unit 1 and the printing unit 2 (the paper feeding unit 3, the paper transport unit 4, the image forming unit 5, and the fixing unit 6) based on a control program and data. Control. Further, the control unit 110 controls the operation of the operation panel 7.

画像処理部113は、画像処理回路114や画像処理メモリー115を含む。そして、画像処理部113は、画像データに対して、拡大/縮小、濃度変換およびデータ形式変換など種々の画像処理を施す。   The image processing unit 113 includes an image processing circuit 114 and an image processing memory 115. The image processing unit 113 performs various image processing such as enlargement / reduction, density conversion, and data format conversion on the image data.

ここで、画像処理部113は、画像データを予め定められた閾値で2値化し、2値化した画像データに対してラベリング処理を行う。ラベリング処理を行うとき、画像処理部113は、2値化した画像データをラスタースキャンし、画素値が前記閾値以上の画素を検索する。なお、画像データを2値化するときに用いる閾値は任意に変更可能である。   Here, the image processing unit 113 binarizes the image data with a predetermined threshold value, and performs a labeling process on the binarized image data. When performing the labeling process, the image processing unit 113 performs a raster scan on the binarized image data and searches for a pixel having a pixel value equal to or greater than the threshold value. Note that the threshold value used when binarizing the image data can be arbitrarily changed.

そして、画像処理部113は、図3に示すように、画素値が前記閾値以上の画素の塊(画素塊)に対してラベル番号を割り振る(同一の画素塊を構成する各画素に対して同一のラベル番号を割り振る)。これにより、各画素塊に割り振ったラベル数に基づき、画像データに存在する画素塊の数を求めることができる。なお、図3では、1マスが1画素に相当し、画素に割り振られたラベル番号をマス内に示す。また、各画素塊を太線で囲む。   Then, as shown in FIG. 3, the image processing unit 113 assigns a label number to a pixel block (pixel block) having a pixel value equal to or larger than the threshold (the same for each pixel constituting the same pixel block). Assigned label number). Thus, the number of pixel blocks existing in the image data can be obtained based on the number of labels assigned to each pixel block. In FIG. 3, one square corresponds to one pixel, and the label number assigned to the pixel is shown in the square. Each pixel block is surrounded by a thick line.

図2に戻って、制御部110は、通信部120と接続される。通信部120は、外部機器200と通信可能に接続される。たとえば、通信部120には、ユーザーにより使用されるパーソナルコンピューター(PC)がLANを介して接続される。これにより、複合機100にて生成された画像データを外部機器200に送信することができる。また、外部機器200から複合機100へのデータ送信も可能となる。   Returning to FIG. 2, the control unit 110 is connected to the communication unit 120. The communication unit 120 is communicably connected to the external device 200. For example, a personal computer (PC) used by a user is connected to the communication unit 120 via a LAN. As a result, the image data generated by the MFP 100 can be transmitted to the external device 200. In addition, data transmission from the external device 200 to the multifunction device 100 is also possible.

<虫食い問題の作成>
本実施形態の複合機100は、文書の一部が空白の解答欄とされた虫食い問題を作成するための虫食い問題作成モードを搭載する。なお、虫食い問題作成モードを利用した虫食い問題の作成では、ユーザーによって、虫食い問題の基となる原稿が準備され、当該原稿の文書のうち空白の解答欄とする部分に蛍光ペンなどでマーキングが施される。そして、複合機100に対して、虫食い問題作成モードに関する各種設定が行われる。
<Creation of bug-eating problem>
The multi-function device 100 of this embodiment is equipped with a worm-eaten problem creation mode for creating a worm-eaten problem in which a part of the document is a blank answer column. When creating a worm-eaten problem using the worm-eaten problem creation mode, the user prepares a manuscript that is the basis for the worm-eaten problem, and places a blank answer column in the manuscript document with a highlighter or other means. Is done. Then, various settings relating to the worm-eaten problem creation mode are performed on the multifunction peripheral 100.

たとえば、制御部110は、虫食い問題作成モードに移行するための予め定められた操作が操作パネル7に対して行われると、虫食い問題作成モードに移行する。そして、このとき、制御部110は、虫食い問題作成モードに関する各種設定を受け付けるための設定画面700(図4参照)を操作パネル7に表示させる。この設定画面700では、たとえば、虫食い問題の解答欄のサイズに関する設定(マージン数の設定および文字サイズの設定など)を行える。   For example, when a predetermined operation for shifting to the worm eating problem creation mode is performed on the operation panel 7, the control unit 110 transitions to the worm eating problem creation mode. At this time, the control unit 110 causes the operation panel 7 to display a setting screen 700 (see FIG. 4) for accepting various settings related to the worm-eaten problem creation mode. On this setting screen 700, for example, settings relating to the size of the answer column for worm-feeding questions (setting of the number of margins, setting of the character size, etc.) can be performed.

設定画面700には、図4に示すように、入力欄701および702が配される。入力欄701は、ユーザーによって設定されたマージン数が表記される欄であり、入力欄702は、ユーザーによって設定された文字サイズが表記される欄である。たとえば、入力欄701をタッチすると設定対象がマージン数となり、その状態で、操作パネル7のテンキーを用いて数値を入力することにより、入力数値がマージン数として設定される(入力欄701に入力数値が表記される)。また、入力欄702をタッチすると設定対象が文字サイズとなり、その状態で、操作パネル7のテンキーを用いて数値を入力することにより、入力数値が文字サイズとして設定される(入力欄702に入力数値が表記される)。この構成では、操作パネル7が「受付部」に相当する。   As shown in FIG. 4, input fields 701 and 702 are arranged on the setting screen 700. The input field 701 is a field in which the number of margins set by the user is written, and the input field 702 is a field in which the character size set by the user is written. For example, when the input field 701 is touched, the setting target is the number of margins, and in this state, the numerical value is input using the numeric keypad of the operation panel 7 to set the input numerical value as the number of margins (the input numerical value in the input field 701). Is written). When the input field 702 is touched, the setting object becomes the character size, and in this state, the numerical value is input using the numeric keypad of the operation panel 7 to set the input numerical value as the character size (the input numerical value in the input field 702). Is written). In this configuration, the operation panel 7 corresponds to a “reception unit”.

なお、後で詳細に説明するが、マージン数の設定値を大きくするほど、解答欄の書字方向(文字を書き進める方向)のサイズを大きくすることができる。また、文字サイズの設定値を大きくするほど、解答欄の書字方向のサイズを大きくすることができ、かつ、解答欄の書字方向と直交する方向のサイズを大きくすることができる。   As will be described in detail later, the larger the setting value of the number of margins, the larger the size of the answer column in the writing direction (direction in which characters are written). Further, as the set value of the character size is increased, the size of the answer column in the writing direction can be increased, and the size of the answer column in the direction orthogonal to the writing direction can be increased.

また、設定画面700には、決定キー703が配される。制御部110は、決定キー703に対するタッチ操作を検知すると、入力欄701に入力されている数値をマージン数として確定するとともに、入力欄702に入力されている数値を文字サイズとして確定する。そして、制御部110は、虫食い問題の基となる原稿(文書の一部にマーキングが施された原稿)の画像データを複合機100に入力するよう促す旨の報知を操作パネル7に行わせる。以下の説明では、虫食い問題の基となる原稿の画像データを対象画像データと称する場合がある。   In addition, a determination key 703 is arranged on the setting screen 700. When the control unit 110 detects a touch operation on the enter key 703, the numerical value input in the input field 701 is determined as the number of margins, and the numerical value input in the input field 702 is determined as the character size. Then, the control unit 110 causes the operation panel 7 to notify that the image data of the manuscript (a manuscript on which a part of the document is marked) as a basis for the worm-eating problem is urged to be input. In the following description, the image data of the manuscript that is the basis of the worm-eating problem may be referred to as target image data.

対象画像データの複合機100への入力は、虫食い問題の基となる原稿を画像読取部1により読み取ることによって行える。この構成では、画像読取部1が「入力部」に相当する。あるいは、通信部120を介して、対象画像データを複合機100に入力することもできる。この構成では、通信部120が「入力部」に相当する。   The target image data can be input to the multi-function peripheral 100 by reading a document that is a source of the worm-feeding problem by the image reading unit 1. In this configuration, the image reading unit 1 corresponds to an “input unit”. Alternatively, the target image data can be input to the multifunction device 100 via the communication unit 120. In this configuration, the communication unit 120 corresponds to an “input unit”.

制御部110は、対象画像データが複合機100に入力されると、対象画像データを画像処理部113の画像処理メモリー115に転送する。また、制御部110は、虫食い問題の画像データの作成命令を画像処理部113に与える。この命令を受けた画像処理部113は、画像処理メモリー115に記憶された対象画像データを用いて、虫食い問題の画像データを生成する。   When the target image data is input to the multifunction peripheral 100, the control unit 110 transfers the target image data to the image processing memory 115 of the image processing unit 113. In addition, the control unit 110 gives the image processing unit 113 a command to create image data for the worm-eaten problem. Upon receiving this command, the image processing unit 113 uses the target image data stored in the image processing memory 115 to generate image data for the worm-eaten problem.

以下、画像処理部113によって行われる虫食い問題の画像データの生成について、図5に示すような対象画像データD1が複合機100に入力された場合を例にとって説明する。なお、図5では、ユーザーによりマーキングされた領域に符号8を付す。そして、以下の説明では、マーキングされた領域をマーキング領域8と称する。また、文書の書字方向(行方向)を第1方向と称し、第1方向と直交する方向を第2方向と称する。ここで、文書が横書きの場合(図5参照)には、書字方向が左右方向となる。一方で、文書が縦書きの場合(図示せず)には、書字方向が上下方向となる。   Hereinafter, the generation of the image data of the worm-feeding problem performed by the image processing unit 113 will be described by taking as an example the case where the target image data D1 as shown in FIG. In FIG. 5, reference numeral 8 is attached to the area marked by the user. In the following description, the marked area is referred to as a marking area 8. Further, the writing direction (row direction) of the document is referred to as a first direction, and the direction orthogonal to the first direction is referred to as a second direction. Here, when the document is written horizontally (see FIG. 5), the writing direction is the left-right direction. On the other hand, when the document is written vertically (not shown), the writing direction is the vertical direction.

画像処理部113は、虫食い問題の画像データを生成するとき、対象画像データD1に存在するマーキング領域8を判別する。なお、マーキング領域8の判別は、対象画像データD1の各画素の画素値(濃度値)に基づき行われる。特に限定されないが、背景画像の画素よりも濃度が濃い画素からなる画素列を検索し、当該画素列が列方向と直交する方向に連続して並ぶ領域をマーキング領域8として判別してもよい。   The image processing unit 113 determines the marking region 8 present in the target image data D1 when generating image data of the worm-eaten problem. The marking area 8 is determined based on the pixel value (density value) of each pixel of the target image data D1. Although not particularly limited, a pixel column composed of pixels having a higher density than the pixels of the background image may be searched, and a region in which the pixel column is continuously arranged in a direction orthogonal to the column direction may be determined as the marking region 8.

マーキング領域8を判別すると、画像処理部113は、マーキング領域8に対してラベリング処理を行う。これにより、画像処理部113は、マーキング領域8に存在する画素塊(画素値が予め定められた閾値以上の画素の塊)の数を求める。すなわち、画像処理部113は、マーキング領域8に対してラベリング処理を行うことによって得られるラベル数を取得する。そして、画像処理部113は、当該求めた画素塊の数(ラベル数)をマーキング領域8の文字数として認識する。   When the marking area 8 is determined, the image processing unit 113 performs a labeling process on the marking area 8. As a result, the image processing unit 113 obtains the number of pixel clusters (pixel clusters having pixel values equal to or larger than a predetermined threshold) existing in the marking area 8. That is, the image processing unit 113 acquires the number of labels obtained by performing the labeling process on the marking area 8. Then, the image processing unit 113 recognizes the obtained number of pixel blocks (number of labels) as the number of characters in the marking area 8.

たとえば、図5に示す例において、「終わり」という文字列を含むマーキング領域8(以下、マーキング領域8aと称する)に対するラベリング処理が画像処理部113によって行われた場合には、図6に示すように、実線の丸枠で囲まれた複数の領域内に存在する各画素塊(各文字画像)にそれぞれラベル番号が割り振られる。すなわち、ラベル数は「3」となる。このため、画像処理部113は、マーキング領域8aの文字数が「3」であると認識する。   For example, in the example shown in FIG. 5, when the labeling process for the marking area 8 including the character string “end” (hereinafter referred to as the marking area 8a) is performed by the image processing unit 113, as shown in FIG. In addition, a label number is assigned to each pixel block (each character image) existing in a plurality of regions surrounded by a solid circle. That is, the number of labels is “3”. Therefore, the image processing unit 113 recognizes that the number of characters in the marking area 8a is “3”.

また、図5に示す例において、「上昇した」という文字列を含むマーキング領域8(以下、マーキング領域8bと称する)に対するラベリング処理が画像処理部113によって行われた場合には、図7に示すように、実線の丸枠で囲まれた複数の領域内に存在する各画素塊(文字画像)にそれぞれラベル番号が割り振られる。すなわち、ラベル数は「4」となる。このため、画像処理部113は、マーキング領域8bの文字数が「4」であると認識する。   Further, in the example shown in FIG. 5, when the image processing unit 113 performs a labeling process on the marking area 8 including the character string “raised” (hereinafter, referred to as the marking area 8 b), it is shown in FIG. 7. In this way, a label number is assigned to each pixel block (character image) existing in a plurality of regions surrounded by a solid circle. That is, the number of labels is “4”. Therefore, the image processing unit 113 recognizes that the number of characters in the marking area 8b is “4”.

なお、文字の種類や、対象画像データD1を2値化するときの閾値の設定によっては、1文字分の文字画像に対して複数のラベル番号が割り振られることがある。たとえば、マーキング領域8aの「り」という文字画像に着目すると、1文字分の文字画像が左側の画素塊と右側の画素塊とに分類され、各画素塊に別々のラベル番号が割り振られる場合がある。同様に、マーキング領域8aの「終」という文字画像や、マーキング領域8bの「た」という文字画像についても、1文字分の文字画像が複数の画素塊に分類される場合がある。その結果、マーキング領域8の実際の文字数に対して、画像処理部113により認識されるマーキング領域8の文字数が多くなる。以下の説明では、便宜上、1文字分の文字画像に対して単一のラベル番号が割り振られるものとする。   Note that a plurality of label numbers may be assigned to a character image for one character depending on the type of character and the setting of a threshold when binarizing the target image data D1. For example, focusing on the character image “RI” in the marking area 8a, the character image for one character may be classified into a left pixel block and a right pixel block, and a separate label number may be assigned to each pixel block. is there. Similarly, for the character image “End” in the marking region 8a and the character image “Ta” in the marking region 8b, the character image for one character may be classified into a plurality of pixel blocks. As a result, the number of characters in the marking area 8 recognized by the image processing unit 113 is larger than the actual number of characters in the marking area 8. In the following description, for convenience, it is assumed that a single label number is assigned to a character image for one character.

また、画像処理部113は、マーキング領域8の第2方向の両側の領域のうち一方側(上側)の領域であってマーキング領域8の近傍の領域であるマーキング近傍領域9に対して、マーキング領域8に対して行ったラベリング処理と同様のラベリング処理を行う(マーキング近傍領域9に存在する画素塊の数を求める)。たとえば、画像処理部113は、マーキング領域8の第2方向の端部位置から第2方向(上方向)に向かって予め定められた画素数分離れた位置までの範囲をマーキング近傍領域9として設定する。以下の説明では、マーキング領域8aに対応するマーキング近傍領域9に符号9aを付し、マーキング領域8bに対応するマーキング近傍領域9に符号9bを付す。   In addition, the image processing unit 113 performs the marking region with respect to the marking vicinity region 9 that is one region (upper side) of the regions on both sides in the second direction of the marking region 8 and is a region in the vicinity of the marking region 8. A labeling process similar to the labeling process performed on 8 is performed (the number of pixel blocks existing in the marking vicinity region 9 is obtained). For example, the image processing unit 113 sets the range from the end position in the second direction of the marking area 8 to the position separated by a predetermined number of pixels in the second direction (upward) as the marking vicinity area 9. To do. In the following description, the marking vicinity area 9 corresponding to the marking area 8a is denoted by reference numeral 9a, and the marking vicinity area 9 corresponding to the marking area 8b is denoted by reference numeral 9b.

たとえば、図7に示すように、マーキング領域8bの「上昇」という文字列には、「じょうしょう」という文字列がルビとして付されている。言い換えると、マーキング近傍領域9bに画素塊が存在する。この場合、画像処理部113は、マーキング近傍領域9bに存在する画素塊(当該画素塊を破線の丸枠で囲む)の数を文字数として認識する。なお、画像処理部113により認識されるマーキング近傍領域9bの文字数は「6」となる。   For example, as shown in FIG. 7, the character string “Jyosho” is attached as a ruby to the character string “rising” in the marking region 8 b. In other words, a pixel block exists in the marking vicinity region 9b. In this case, the image processing unit 113 recognizes the number of pixel blocks present in the marking vicinity region 9b (the pixel block is surrounded by a broken-line circle) as the number of characters. Note that the number of characters in the marking vicinity area 9b recognized by the image processing unit 113 is “6”.

一方で、図6に示すように、マーキング領域8aの文字列にはルビが付されていない(マーキング近傍領域9aに画素塊が存在しない)。したがって、画像処理部113は、マーキング近傍領域9aの文字数を「0」と認識する。   On the other hand, as shown in FIG. 6, the character string in the marking area 8a is not attached with ruby (no pixel block exists in the marking vicinity area 9a). Therefore, the image processing unit 113 recognizes the number of characters in the marking vicinity area 9a as “0”.

ラベリング処理を行った後(マーキング領域8およびマーキング近傍領域9の各文字数を認識した後)、画像処理部113は、図8に示すような虫食い問題の画像データD2を生成する。この虫食い問題の画像データD2は、図5に示した対象画像データD1のマーキング領域8を空白の解答欄10に変換した画像データである。具体的には、マーキング領域8の画像が消され、その代わりに、内側が空白とされた枠画像が挿入される。なお、このとき、マーキング近傍領域9の画像も消される。以下の説明では、マーキング領域8aに対応する解答欄10に符号10aを付し、マーキング領域8bに対応する解答欄10に符号10bを付す。   After performing the labeling process (after recognizing the number of characters in the marking area 8 and the marking vicinity area 9), the image processing unit 113 generates image data D2 of the worm-eaten problem as shown in FIG. The image data D2 of the worm-eaten problem is image data obtained by converting the marking area 8 of the target image data D1 shown in FIG. Specifically, the image of the marking area 8 is erased, and a frame image with a blank inside is inserted instead. At this time, the image in the marking vicinity region 9 is also erased. In the following description, the answer column 10 corresponding to the marking region 8a is denoted by reference numeral 10a, and the answer column 10 corresponding to the marking region 8b is denoted by reference numeral 10b.

虫食い問題の画像データD2の生成に際し、画像処理部113は、解答欄10に記入され得る予測文字数にマージンを加えた解答欄文字数を求める。この解答欄文字数は、マーキング領域8の文字数とマーキング近傍領域9の文字数との合計にマージン数を加えた文字数である。   When generating the image data D2 of the worm-eaten problem, the image processing unit 113 obtains the number of answer column characters by adding a margin to the predicted number of characters that can be entered in the answer column 10. The number of characters in the answer column is the number of characters obtained by adding the number of margins to the total number of characters in the marking area 8 and the number of characters in the marking vicinity area 9.

たとえば、設定画面700(図4参照)にて設定されたマージン数が「2」であったとする。この場合、マーキング領域8aの文字数が「3」であり、マーキング近傍領域9aの文字数が「0」であるので、解答欄10aの解答欄文字数は「5(=3+0+2)」となる。また、マーキング領域8bの文字数が「4」であり、マーキング近傍領域9bの文字数が「6」であるので、解答欄10bの解答欄文字数は「12(=4+6+2)」となる。   For example, assume that the number of margins set on the setting screen 700 (see FIG. 4) is “2”. In this case, since the number of characters in the marking area 8a is “3” and the number of characters in the marking vicinity area 9a is “0”, the number of characters in the answer field of the answer field 10a is “5 (= 3 + 0 + 2)”. Further, since the number of characters in the marking area 8b is “4” and the number of characters in the marking vicinity area 9b is “6”, the number of characters in the answer field in the answer field 10b is “12 (= 4 + 6 + 2)”.

そして、図9に示すように、マーキング領域8を解答欄10に変換するとき、画像処理部113は、解答欄10の第1方向のサイズをマーキング領域8の第1方向のサイズよりも大きくする。さらに、画像処理部113は、解答欄10の第2方向のサイズをマーキング領域8の第2方向のサイズよりも大きくする。   Then, as shown in FIG. 9, when converting the marking area 8 into the answer column 10, the image processing unit 113 makes the size of the answer field 10 in the first direction larger than the size of the marking area 8 in the first direction. . Further, the image processing unit 113 makes the size of the answer column 10 in the second direction larger than the size of the marking region 8 in the second direction.

まず、解答欄10の第1方向のサイズは、解答欄文字数に応じたサイズに変更される。たとえば、画像処理部113は、マーキング領域8の第1方向のサイズをマーキング領域8の文字数で除した第1の値(1文字あたりの第1方向のサイズ)を求め、第1の値に解答欄文字数を乗じた第2の値を解答欄10の第1方向のサイズとする。これにより、解答欄10の第1方向のサイズはマーキング領域8の第1方向のサイズよりも大きくなる。   First, the size of the answer column 10 in the first direction is changed to a size corresponding to the number of characters in the answer column. For example, the image processing unit 113 obtains a first value (size in the first direction per character) obtained by dividing the size in the first direction of the marking region 8 by the number of characters in the marking region 8, and answers the first value. The second value multiplied by the number of characters in the column is set as the size of the answer column 10 in the first direction. As a result, the size of the answer column 10 in the first direction is larger than the size of the marking region 8 in the first direction.

あるいは、画像処理部113は、設定画面700(図4参照)にて設定された1文字あたりの幅方向のサイズが第1の値よりも大きい場合、設定画面700にて設定された1文字あたりの幅方向のサイズに解答欄文字数を乗じた値を解答欄10の第1方向のサイズとする。この場合には、設定画面700にて設定された1文字あたりの幅方向のサイズが大きいほど、解答欄10の第1方向のサイズが大きくなる。   Alternatively, when the size in the width direction per character set on the setting screen 700 (see FIG. 4) is larger than the first value, the image processing unit 113 per character set on the setting screen 700 A value obtained by multiplying the size in the width direction by the number of characters in the answer column is set as the size in the first direction of the answer column 10. In this case, the larger the size in the width direction per character set on the setting screen 700 is, the larger the size in the first direction of the answer column 10 is.

ここで、虫食い問題用紙に記入される文字の種類は様々であり、ひらがな(カタカナ)だけで解答を記入する解答者もいれば、ひらがなと漢字とを併用して解答を記入する解答者もいる。たとえば、ひらがなだけで解答を記入する場合には、ひらがなと漢字とを併用して解答を記入する場合に比べて文字数が多くなる。したがって、解答欄10の第1方向のサイズは、対応するマーキング領域8の第1方向のサイズよりも大きいサイズに変更しておくことが好ましい。このため、仮に、マーキング領域8の実際の文字数に対して、画像処理部113により認識されるマーキング領域8の文字数が多くなっても(画像処理部113により求められる解答欄文字数が多くなっても)、特に問題はない。   Here, there are various types of characters on the worm-eaten question form, and some respondents enter answers using only hiragana (katakana), and some respondents enter answers using both hiragana and kanji. . For example, when an answer is written using only hiragana, the number of characters is larger than when an answer is written using both hiragana and kanji. Therefore, it is preferable to change the size of the answer column 10 in the first direction to a size larger than the size of the corresponding marking region 8 in the first direction. For this reason, even if the number of characters in the marking region 8 recognized by the image processing unit 113 is larger than the actual number of characters in the marking region 8 (even if the number of answer column characters required by the image processing unit 113 is large). ) No particular problem.

次に、解答欄10の第2方向のサイズは、設定画面700(図4参照)にて設定された1文字あたりの高さ方向のサイズに応じたサイズに変更される。たとえば、画像処理部113は、設定画面700にて設定された1文字あたりの高さ方向のサイズを解答欄10の第2方向のサイズとする。これにより、設定画面700にて設定された1文字あたりの高さ方向のサイズが大きいほど、解答欄10の第2方向のサイズが大きくなる。なお、設定画面700にて設定された1文字あたりの高さ方向のサイズが小さ過ぎると、解答欄10の第2方向のサイズがマーキング領域8の第2方向のサイズよりも小さくなってしまう場合がある。この場合、設定画面700での設定を無効とし、解答欄10の第2方向のサイズをマーキング領域8の第2方向のサイズよりも大きくしてもよい。   Next, the size in the second direction of the answer column 10 is changed to a size corresponding to the size in the height direction per character set on the setting screen 700 (see FIG. 4). For example, the image processing unit 113 sets the size in the height direction per character set on the setting screen 700 as the size in the second direction of the answer column 10. Thereby, the size in the second direction of the answer column 10 increases as the size in the height direction per character set on the setting screen 700 increases. When the size in the height direction per character set on the setting screen 700 is too small, the size in the second direction of the answer column 10 becomes smaller than the size in the second direction of the marking area 8. There is. In this case, the setting on the setting screen 700 may be invalidated, and the size in the second direction of the answer column 10 may be made larger than the size of the marking region 8 in the second direction.

また、図10に示すように、マーキング領域8を解答欄10に変換するとき、画像処理部113は、マーキング領域8の第1方向の前後に存在する第1画像80Aおよび第2画像80Bが解答欄10と重ならないように、第1画像80Aと第2画像80Bとの間の距離L1をより大きくする。たとえば、画像処理部113は、第2画像80Bをマーキング領域8から離れる方向D11に移動させる。   As shown in FIG. 10, when converting the marking area 8 into the answer column 10, the image processing unit 113 answers the first image 80 </ b> A and the second image 80 </ b> B existing before and after the marking area 8 in the first direction. The distance L1 between the first image 80A and the second image 80B is made larger so as not to overlap the column 10. For example, the image processing unit 113 moves the second image 80B in the direction D11 away from the marking area 8.

さらに、図11に示すように、画像処理部113は、マーキング領域8の第2方向の前後に存在する第3画像80Cおよび第4画像80Dが解答欄10と重ならないように、第3画像80Cと第4画像80Dとの間の距離L2をより大きくする。たとえば、画像処理部113は、第4画像80Dを含む行全体をマーキング領域8から離れる方向D12に移動させる。そして、画像処理部113は、第3画像80Cを含む行と第4画像80Dを含む行との間における第2方向の中間位置にマーキング領域8を含む行を配置する(マーキング領域8を含む行全体を第3画像80Cから離れる方向D12に移動させる)。   Further, as shown in FIG. 11, the image processing unit 113 causes the third image 80C to prevent the third image 80C and the fourth image 80D existing before and after the marking region 8 in the second direction from overlapping the answer column 10. And the fourth image 80D are further increased in distance L2. For example, the image processing unit 113 moves the entire row including the fourth image 80D in the direction D12 away from the marking area 8. Then, the image processing unit 113 arranges a line including the marking area 8 at a middle position in the second direction between the line including the third image 80C and the line including the fourth image 80D (the line including the marking area 8). The whole is moved in the direction D12 away from the third image 80C).

これにより、図8に示すような虫食い問題の画像データD2が生成される。また、虫食い問題の画像データD2は印刷部2に出力される。なお、印刷部2に出力される虫食い問題の画像データD2は、露光装置53を制御するための露光制御用データに変換される。そして、印刷部2は、虫食い問題の画像データD2(露光制御用データ)に基づき、虫食い問題を用紙に印刷する。   Thereby, image data D2 of the worm-eaten problem as shown in FIG. 8 is generated. Also, the image data D2 of the worm-eaten problem is output to the printing unit 2. Note that the worm-eaten problem image data D <b> 2 output to the printing unit 2 is converted into exposure control data for controlling the exposure device 53. Then, the printing unit 2 prints the worm-eaten problem on a sheet based on the worm-eaten problem image data D2 (exposure control data).

なお、図10および図11に示したように、マーキング領域8の第1方向の後側に存在する画像80Bは方向D11にずらされ、マーキング領域8を含む行および当該行の第2方向の後側に存在する行は方向D12にずらされる。このため、虫食い問題が印刷される用紙の用紙サイズは、虫食い問題の基となる原稿の原稿サイズよりも大きくなる。   As shown in FIGS. 10 and 11, the image 80B existing behind the marking region 8 in the first direction is shifted in the direction D11, and the row including the marking region 8 and the rear of the row in the second direction. The existing row is shifted in the direction D12. For this reason, the paper size of the paper on which the worm-eaten problem is printed is larger than the document size of the document on which the worm-eaten problem is based.

以下、図12に示すフローチャートを参照し、虫食い問題の画像データD2を生成するときの処理の流れについて説明する。図12に示すフローチャートは、対象画像データD1(虫食い問題の基となる原稿の画像データ)が画像処理部113に転送され、制御部110が画像処理部113に対して虫食い問題の画像データD2の作成命令を与えたときにスタートする。   Hereinafter, with reference to the flowchart shown in FIG. 12, the flow of processing when generating image data D2 for a worm-eaten problem will be described. In the flowchart shown in FIG. 12, target image data D1 (image data of a document that is a basis for the worm-feeding problem) is transferred to the image processing unit 113, and the control unit 110 sends the image data D2 of the worm-feeding problem to the image processing unit 113. Starts when a creation command is given.

ステップS1において、画像処理部113は、対象画像データD1のうちからマーキング領域8を判別する。続いて、ステップS2において、画像処理部113は、マーキング領域8およびマーキング近傍領域9に対してラベリング処理を行う。これにより、画像処理部113は、マーキング領域8の画素塊の数(ラベル数)を求めるとともに、マーキング近傍領域9の画素塊の数(ラベル数)を求める。そして、ステップS3において、画像処理部113は、マーキング領域8のラベル数をマーキング領域8の文字数(マーキング領域8に存在する文字の数)と認識し、マーキング近傍領域9のラベル数をマーキング近傍領域9の文字数(マーキング近傍領域9に存在する文字の数)と認識する。   In step S1, the image processing unit 113 determines the marking area 8 from the target image data D1. Subsequently, in step S <b> 2, the image processing unit 113 performs a labeling process on the marking area 8 and the marking vicinity area 9. Thereby, the image processing unit 113 calculates the number of pixel blocks (number of labels) in the marking area 8 and the number of pixel blocks (number of labels) in the marking vicinity area 9. In step S3, the image processing unit 113 recognizes the number of labels in the marking area 8 as the number of characters in the marking area 8 (the number of characters existing in the marking area 8), and determines the number of labels in the marking vicinity area 9 as the marking vicinity area. The number of characters is recognized as 9 (the number of characters existing in the marking vicinity region 9).

ステップS4において、画像処理部113は、マーキング領域8の文字数とマーキング近傍領域9の文字数とを合計し、その合計値にマージン数を加えた文字数を解答欄文字数として求める。その後、ステップS5において、画像処理部113は、解答欄文字数および設定画面700(図4参照)にて設定された文字サイズに基づき、解答欄10のサイズを決定する。   In step S4, the image processing unit 113 adds up the number of characters in the marking area 8 and the number of characters in the marking vicinity area 9, and obtains the number of characters by adding the number of margins to the total value as the number of answer column characters. Thereafter, in step S5, the image processing unit 113 determines the size of the answer column 10 based on the number of characters in the answer column and the character size set on the setting screen 700 (see FIG. 4).

ステップS6において、画像処理部113は、対象画像データD1のマーキング領域8を解答欄10に変換する。これにより、虫食い問題の画像データD2が生成される。そして、ステップS7において、画像処理部113は、虫食い問題の画像データD2(露光制御用データ)を印刷部2に出力する。画像データD2を受けた印刷部2は、虫食い問題を用紙に印刷し、その用紙を出力する。   In step S <b> 6, the image processing unit 113 converts the marking area 8 of the target image data D <b> 1 into the answer column 10. Thereby, the image data D2 of the worm-eaten problem is generated. In step S <b> 7, the image processing unit 113 outputs the image data D <b> 2 (exposure control data) for the worm-eaten problem to the printing unit 2. Receiving the image data D2, the printing unit 2 prints the worm-eaten problem on a sheet and outputs the sheet.

本実施形態の複合機100(画像処理装置)は、上記のように、対象画像データD1(文書を含む原稿の画像データ)を複合機100に入力するための画像読取部1(入力部)および通信部120(入力部)と、対象画像データD1のうちユーザーによりマーキングされたマーキング領域8を判別し、マーキング領域8を空白の解答欄10に変換した虫食い問題の画像データD2を生成する画像処理部113と、を備える。そして、画像処理部113は、虫食い問題の画像データD2を生成するとき、マーキング領域8に対してラベリング処理を行うことによって、画素値が予め定められた閾値以上の画素の塊である画素塊の数(ラベル数)を求めるとともに、当該求めた画素塊の数をマーキング領域8の文字数として認識し、マーキング領域8の文字数にマージン数を加えた文字数を解答欄文字数として求め、文字を書き進める方向である第1方向における解答欄10のサイズを解答欄文字数に応じたサイズに変更する。   As described above, the MFP 100 (image processing apparatus) of the present embodiment includes the image reading unit 1 (input unit) for inputting the target image data D1 (image data of a document including a document) to the MFP 100, and Image processing for determining the marking area 8 marked by the user from the communication section 120 (input section) and the target image data D1, and generating image data D2 of the worm-eaten problem in which the marking area 8 is converted into a blank answer column 10 Unit 113. When the image processing unit 113 generates the worm-eaten problem image data D <b> 2, the image processing unit 113 performs a labeling process on the marking region 8, thereby generating a pixel block that is a pixel block having a pixel value equal to or greater than a predetermined threshold. The number of labels (number of labels) is calculated, the number of pixel blocks obtained is recognized as the number of characters in the marking area 8, the number of characters obtained by adding the number of margins to the number of characters in the marking area 8 is determined as the number of characters in the answer column, and the characters are written The size of the answer column 10 in the first direction is changed to a size corresponding to the number of characters in the answer column.

本実施形態の構成では、解答欄10の第1方向のサイズが解答欄文字数に応じたサイズに変更される。ここで、解答欄文字数はマーキング領域8の文字数にマージン数を加えた文字数であるので、解答欄文字数はマーキング領域8の文字数よりも多くなる。したがって、解答欄10の第1方向のサイズを解答欄文字数に応じたサイズに変更すると、解答欄10の第1方向のサイズはマーキング領域8の第1方向のサイズよりも大きくなる。言い換えると、解答欄10の第1方向のサイズはマーキング領域8の第1方向のサイズ以下になることはない。これにより、虫食い問題の画像データD2に基づき印刷された虫食い問題用紙の解答欄10のサイズが小さ過ぎることに起因して解答欄10への文字の記入が行い難くなる、という不都合が生じるのを抑制することができる。   In the configuration of the present embodiment, the size in the first direction of the answer column 10 is changed to a size corresponding to the number of characters in the answer column. Here, since the number of characters in the answer column is the number of characters obtained by adding the number of margins to the number of characters in the marking region 8, the number of characters in the answer column is larger than the number of characters in the marking region 8. Therefore, when the size of the answer column 10 in the first direction is changed to a size corresponding to the number of characters in the answer column, the size of the answer column 10 in the first direction becomes larger than the size of the marking region 8 in the first direction. In other words, the size of the answer column 10 in the first direction does not become smaller than the size of the marking area 8 in the first direction. As a result, there is a disadvantage that it becomes difficult to enter characters in the answer column 10 due to the size of the answer column 10 of the worm-eaten problem sheet printed based on the worm-eaten problem image data D2 being too small. Can be suppressed.

また、本実施形態では、上記のように、画像処理部113は、マーキング領域8の第1方向と直交する第2方向の両側の領域のうち一方側の領域であってマーキング領域8の近傍の領域であるマーキング近傍領域9に対してラベリング処理を行い、マーキング近傍領域9に画素塊が存在すれば、マーキング近傍領域9に存在する画素塊の数を文字数として認識し、マーキング領域8の文字数とマーキング近傍領域9の文字数との合計にマージン数を加えた文字数を解答欄文字数として求める。この構成によると、たとえば、ルビ付き漢字がマーキングされていれば、解答欄文字数にルビの文字数が加算されるので、解答欄10の第1方向のサイズがより大きくなる(ルビの文字数が多いほど、解答欄10の第1方向のサイズが大きくなる)。これにより、ルビ付き漢字に対応する文字をひらがなで記入する場合に、解答欄10の記入スペースが足りなくなるという不都合が生じるのを抑制することができる。   In the present embodiment, as described above, the image processing unit 113 is one of the two regions in the second direction orthogonal to the first direction of the marking region 8 and in the vicinity of the marking region 8. If the labeling process is performed on the marking vicinity area 9 that is an area, and a pixel block exists in the marking vicinity area 9, the number of pixel blocks existing in the marking vicinity area 9 is recognized as the number of characters. The number of characters obtained by adding the number of margins to the total number of characters in the marking vicinity region 9 is obtained as the number of characters in the answer column. According to this configuration, for example, if a kanji with ruby is marked, the number of ruby characters is added to the number of characters in the answer field, so the size of the answer field 10 in the first direction becomes larger (the more the number of ruby characters is, , The size of the answer column 10 in the first direction is increased). Thereby, when writing the character corresponding to the kanji with the ruby with the hiragana, it is possible to suppress the inconvenience that the space for the answer column 10 is insufficient.

また、本実施形態では、上記のように、操作パネル7(受付部)は、マージン数の設定をユーザーから受け付ける。そして、画像処理部113は、解答欄文字数を求めるとき、操作パネル7が受け付けたマージン数を用いる。この構成によると、解答欄10の第1方向のサイズ調整(マージン数の変更)を簡単に行うことができるので、問題作成者の利便性が向上する。たとえば、解答欄10の第1方向のサイズをより大きくしたい場合には、設定画面700の入力欄701に入力する値を大きくするだけでよい。   In the present embodiment, as described above, the operation panel 7 (accepting unit) accepts the setting of the number of margins from the user. Then, the image processing unit 113 uses the number of margins received by the operation panel 7 when determining the number of characters in the answer column. According to this configuration, it is possible to easily adjust the size of the answer column 10 in the first direction (change the number of margins), so that the convenience of the problem creator is improved. For example, if it is desired to increase the size of the answer column 10 in the first direction, the value input in the input column 701 of the setting screen 700 need only be increased.

また、本実施形態では、上記のように、操作パネル7は、文字サイズの設定をユーザーから受け付ける。そして、画像処理部113は、操作パネル7が受け付けた文字サイズが大きいほど、解答欄10の第2方向のサイズを大きくする。この構成によると、解答欄10の第2方向のサイズ調整(文字サイズの変更)を簡単に行うことができるので、問題作成者の利便性が向上する。たとえば、解答欄10の第2方向のサイズをより大きくしたい場合には、設定画面700の入力欄702に入力する値を大きくするだけでよい。   In the present embodiment, as described above, the operation panel 7 receives a character size setting from the user. Then, the image processing unit 113 increases the size of the answer column 10 in the second direction as the character size received by the operation panel 7 increases. According to this configuration, the size adjustment (change of the character size) in the second direction of the answer column 10 can be easily performed, so that the convenience of the problem creator is improved. For example, when it is desired to increase the size of the answer column 10 in the second direction, it is only necessary to increase the value input to the input column 702 of the setting screen 700.

また、本実施形態では、上記のように、画像処理部113は、マーキング領域8を解答欄10に変換するとき、マーキング領域8の第1方向の前後に存在する画像間の距離を現在の距離よりも大きくするとともに、マーキング領域8の第2方向に存在する画像間の距離を現在の距離よりも大きくする。これにより、解答欄10のサイズがマーキング領域8のサイズに対して拡大されても、解答欄10が他の画像に重なることはない。   In the present embodiment, as described above, when the image processing unit 113 converts the marking area 8 into the answer column 10, the distance between the images existing before and after the marking area 8 in the first direction is determined as the current distance. And the distance between images existing in the second direction of the marking area 8 is made larger than the current distance. Thereby, even if the size of the answer column 10 is enlarged with respect to the size of the marking area 8, the answer column 10 does not overlap other images.

今回開示された実施形態は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記実施形態の説明ではなく特許請求の範囲によって示され、さらに、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。   It should be thought that embodiment disclosed this time is an illustration and restrictive at no points. The scope of the present invention is shown not by the description of the above-described embodiment but by the scope of claims for patent, and further includes meanings equivalent to the scope of claims for patent and all modifications within the scope.

1 画像読取部(入力部)
2 印刷部
7 操作パネル(受付部)
8 マーキング領域
9 マーキング近傍領域
10 解答欄
113 画像処理部
120 通信部(入力部)
1 Image reading unit (input unit)
2 Printing Department 7 Operation Panel (Reception Department)
8 Marking area 9 Marking vicinity area 10 Answer field 113 Image processing part 120 Communication part (input part)

Claims (6)

文書を含む原稿の画像データを画像処理装置に入力するための入力部と、
前記原稿の画像データのうちユーザーによってマーキングされたマーキング領域を判別し、前記マーキング領域を空白の解答欄に変換した虫食い問題の画像データを生成する画像処理部と、を備え、
前記画像処理部は、前記虫食い問題の画像データを生成するとき、前記マーキング領域に対してラベリング処理を行うことによって、画素値が予め定められた閾値以上の画素の塊である画素塊の数を求めるとともに、当該求めた前記画素塊の数を前記マーキング領域の文字数として認識し、前記マーキング領域の文字数にマージン数を加えた文字数を解答欄文字数として求め、文字を書き進める方向である第1方向における前記解答欄のサイズを前記解答欄文字数に応じたサイズに変更することを特徴とする画像処理装置。
An input unit for inputting image data of a document including a document to the image processing apparatus;
An image processing unit that determines a marking area marked by a user from the image data of the document and generates image data of a worm-eaten problem in which the marking area is converted into a blank answer field;
When the image processing unit generates the image data of the worm-feeding problem, the image processing unit performs a labeling process on the marking area, thereby determining the number of pixel blocks that are pixel blocks having a pixel value equal to or greater than a predetermined threshold. A first direction which is a direction in which the number of pixel blocks obtained is recognized as the number of characters in the marking area, the number of characters obtained by adding a margin number to the number of characters in the marking area is obtained as the number of answer column characters, and characters are written The image processing apparatus according to claim 1, wherein the size of the answer field is changed to a size corresponding to the number of characters in the answer field.
前記画像処理部は、前記マーキング領域の前記第1方向と直交する第2方向の両側の領域のうち一方側の領域であって前記マーキング領域の近傍の領域であるマーキング近傍領域に対して前記ラベリング処理を行い、前記マーキング近傍領域に前記画素塊が存在すれば、前記マーキング近傍領域に存在する前記画素塊の数を文字数として認識し、前記マーキング領域の文字数と前記マーキング近傍領域の文字数との合計に前記マージン数を加えた文字数を前記解答欄文字数として求めることを特徴とする請求項1に記載の画像処理装置。   The image processing unit is configured to perform the labeling with respect to a marking vicinity region that is one of the regions on both sides in the second direction orthogonal to the first direction of the marking region and is a region in the vicinity of the marking region. If processing is performed and the pixel block is present in the marking vicinity region, the number of pixel blocks existing in the marking vicinity region is recognized as the number of characters, and the sum of the number of characters in the marking region and the number of characters in the marking vicinity region The image processing apparatus according to claim 1, wherein the number of characters obtained by adding the margin number to the answer field character number is obtained. 前記マージン数の設定をユーザーから受け付けるための受付部を備え、
前記画像処理部は、前記解答欄文字数を求めるとき、前記受付部が受け付けた前記マージン数を用いることを特徴とする請求項1または2に記載の画像処理装置。
A reception unit for receiving a setting of the margin number from a user;
The image processing apparatus according to claim 1, wherein the image processing unit uses the number of margins received by the reception unit when determining the number of characters in the answer column.
文字サイズの設定をユーザーから受け付ける受付部を備え、
前記画像処理部は、前記受付部が受け付けた前記文字サイズが大きいほど、前記解答欄の前記第1方向と直交する第2方向のサイズを大きくすることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
It has a reception unit that accepts text size settings from users,
The said image processing part enlarges the size of the 2nd direction orthogonal to the said 1st direction of the said answer column, so that the said character size received by the said reception part is large. The image processing apparatus according to claim 1.
前記画像処理部は、前記マーキング領域を前記解答欄に変換するとき、前記マーキング領域の前記第1方向の前後に存在する画像間の距離を現在の距離よりも大きくするとともに、前記マーキング領域の前記第1方向と直交する第2方向に存在する画像間の距離を現在の距離よりも大きくすることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。   The image processing unit, when converting the marking area into the answer column, makes the distance between images existing before and after the marking area in the first direction larger than the current distance, and the marking area of the marking area The image processing apparatus according to claim 1, wherein a distance between images existing in a second direction orthogonal to the first direction is made larger than a current distance. 前記画像処理部が生成した前記虫食い問題の画像データに基づき印刷を行う印刷部を備えることを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a printing unit that performs printing based on the image data of the worm-eaten problem generated by the image processing unit.
JP2016084572A 2016-04-20 2016-04-20 Image processing device Expired - Fee Related JP6504104B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016084572A JP6504104B2 (en) 2016-04-20 2016-04-20 Image processing device
US15/482,209 US20170308507A1 (en) 2016-04-20 2017-04-07 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016084572A JP6504104B2 (en) 2016-04-20 2016-04-20 Image processing device

Publications (2)

Publication Number Publication Date
JP2017194832A true JP2017194832A (en) 2017-10-26
JP6504104B2 JP6504104B2 (en) 2019-04-24

Family

ID=60154829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016084572A Expired - Fee Related JP6504104B2 (en) 2016-04-20 2016-04-20 Image processing device

Country Status (1)

Country Link
JP (1) JP6504104B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342326A (en) * 1992-06-09 1993-12-24 Fuji Xerox Co Ltd Document processor
JPH1031716A (en) * 1996-05-13 1998-02-03 Matsushita Electric Ind Co Ltd Method and device for extracting character line
JP2001034763A (en) * 1999-03-01 2001-02-09 Matsushita Electric Ind Co Ltd Document image processor, method for extracting its document title and method for attaching document tag information
JP2007004523A (en) * 2005-06-24 2007-01-11 Fuji Xerox Co Ltd Apparatus and method for preparing question sheet

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342326A (en) * 1992-06-09 1993-12-24 Fuji Xerox Co Ltd Document processor
JPH1031716A (en) * 1996-05-13 1998-02-03 Matsushita Electric Ind Co Ltd Method and device for extracting character line
JP2001034763A (en) * 1999-03-01 2001-02-09 Matsushita Electric Ind Co Ltd Document image processor, method for extracting its document title and method for attaching document tag information
JP2007004523A (en) * 2005-06-24 2007-01-11 Fuji Xerox Co Ltd Apparatus and method for preparing question sheet

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅井洋樹, 外1名: ""強調表記を利用した手書きドキュメント検索スニペット生成"", 情報処理学会研究報告 2012(平成24)年度▲3▼, JPN6019005536, 15 October 2012 (2012-10-15), JP, pages 1 - 7, ISSN: 0003980455 *

Also Published As

Publication number Publication date
JP6504104B2 (en) 2019-04-24

Similar Documents

Publication Publication Date Title
JP2008026381A (en) Image forming device
JP6332083B2 (en) Image forming apparatus and character display method in image forming apparatus
JP2006261821A (en) Image forming apparatus and image apparatus
JP6504104B2 (en) Image processing device
US20170308507A1 (en) Image processing apparatus
JP5739295B2 (en) Image forming apparatus and printer driver program
JP6477577B2 (en) Image processing device
US9167110B2 (en) Input device capable of converting character style of input character, image forming apparatus having the input device, and electronic apparatus having the input device
JP5656953B2 (en) Display input device and image forming apparatus
US20200242433A1 (en) Image forming apparatus that acquires fixed data and plurality of pieces of variable data according to user&#39;s instruction, and executes variable printing
US9652149B2 (en) Input device and electronic device
JP6569602B2 (en) Printing system and printing apparatus
JP2009206685A (en) Image forming apparatus
JP2020127142A (en) Image forming apparatus
JP6002646B2 (en) Character input device, character input program, and image forming apparatus
JP6295997B2 (en) Image forming apparatus
US10884600B2 (en) Display apparatus scrolling first image and second image in accordance with speed of scroll operation
JP6686957B2 (en) Image forming device
JP2018187870A (en) Image forming apparatus and image forming system
US9323477B2 (en) Operating device and image formation device
JP7409102B2 (en) Information processing device and image forming device
JP2012058996A (en) Display processor and computer program
US20210160383A1 (en) Image reading apparatus and information processing apparatus that reads documents and generates image data
JP2016171379A (en) Document reader, display control method and display control program
JP2021164123A (en) Image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190311

R150 Certificate of patent or registration of utility model

Ref document number: 6504104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees