JPH11196255A - Image reader, image data processing method, and recording medium recording image data and readable by computer - Google Patents

Image reader, image data processing method, and recording medium recording image data and readable by computer

Info

Publication number
JPH11196255A
JPH11196255A JP9360173A JP36017397A JPH11196255A JP H11196255 A JPH11196255 A JP H11196255A JP 9360173 A JP9360173 A JP 9360173A JP 36017397 A JP36017397 A JP 36017397A JP H11196255 A JPH11196255 A JP H11196255A
Authority
JP
Japan
Prior art keywords
character
image
data
boundary
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9360173A
Other languages
Japanese (ja)
Inventor
Shinya Matsuda
伸也 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP9360173A priority Critical patent/JPH11196255A/en
Publication of JPH11196255A publication Critical patent/JPH11196255A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Studio Circuits (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image reader that synthesizes images including characters more accurately. SOLUTION: Character codes and their positions are detected at a border circumferential part L where images in partial areas A1-A4 photographed by an image pickup unit with sequential magnification are overlapped with each other. The photographed images of the partial areas A1-A4 are jointed based on the cross reference between the character codes and the positions to synthesize the entire synthesis image of a photographed area S.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像読み取り装
置、画像データ処理方法および画像データ処理プログラ
ムを記録したコンピュータ読み取り可能な記録媒体に関
し、特に文字を含む画像に好適な画像読み取り装置、画
像データ処理方法および画像データ処理プログラムを記
録したコンピュータ読み取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus, an image data processing method, and a computer-readable recording medium storing an image data processing program, and more particularly to an image reading apparatus and an image data processing method suitable for images containing characters. The present invention relates to a method and a computer-readable recording medium recording an image data processing program.

【0002】[0002]

【従来の技術】従来、被写領域を複数の部分領域に分割
し、各部分領域を撮像素子(たとえば、エリアセンサや
ラインセンサ)を用いて、それぞれ何回かに分けて拡大
撮影する、すなわち画像を読み取るタイプの画像読み取
り装置として、たとえばデジタルカメラやデジタルスキ
ャナが提案されている。このタイプの画像読み取り装置
は、後で各部分領域の読み取り画像をつなぎ合わせ、被
写領域全体の一画像(“全体合成画像”ともいう)を合
成できるように、各部分領域を撮影する。各部分領域の
画像は、撮像素子全体をできるだけ有効に用いて拡大撮
影するので、高解像度となる。したがって、このタイプ
の画像読み取り装置は、被写領域全体を同じ撮像素子を
用いて1回で撮影する場合に比べて、高解像度の全体合
成画像を低コストで得ることが可能となる。
2. Description of the Related Art Conventionally, a subject area is divided into a plurality of partial areas, and each partial area is enlarged and photographed several times using an image sensor (for example, an area sensor or a line sensor). For example, digital cameras and digital scanners have been proposed as image reading apparatuses that read images. This type of image reading apparatus captures each partial area so that the read images of the respective partial areas are later joined together and one image of the entire subject area (also referred to as an “entire combined image”) can be combined. Since the image of each partial region is enlarged and photographed by using the entire image sensor as effectively as possible, the resolution is high. Therefore, this type of image reading apparatus can obtain a high-resolution whole composite image at low cost as compared with a case where the entire subject area is photographed once using the same image sensor.

【0003】ところで、各部分領域について読み取った
画像をつなぎ合わせて合成する方法としては、たとえば
特開平6−98242号公報に開示されたように、原稿
台上など画像とは別のところに位置マークを設け、これ
を基準に画像をつなぎ合わせて合成する方法や、たとえ
ば特開平7−284013号公報に開示されたように、
部分領域同士の重なり部分に存在する線や角などの画像
の特徴部分を基準として画像をつなぎ合わせて合成する
方法が知られている。
[0003] As a method of combining the images read from the respective partial areas and combining them, for example, as disclosed in Japanese Patent Application Laid-Open No. 6-98242, a position mark is placed on a platen other than the image, such as on a platen. A method of combining images based on the reference, and a method of combining images, for example, as disclosed in Japanese Patent Application Laid-Open No. 7-284013,
2. Description of the Related Art There is known a method of connecting and combining images based on characteristic portions of the image, such as lines and corners, existing in overlapping portions of partial regions.

【0004】しかし、たとえば、展示パネルや掲示され
たポスターの文字をメモ代わりに撮影するような場合に
は、原稿台を用いることができないので、前者の方法は
適用できない。また、一般に、文字については、線や角
などの画像の特徴部分は多くの文字に共通して存在する
ため、風景の場合に比べて、画像のつなぎ合わせを間違
える可能性が高い。
[0004] However, for example, in the case where characters on an exhibition panel or a posted poster are photographed instead of a memo, the former method cannot be applied because a document table cannot be used. In general, for characters, since characteristic portions of an image such as lines and corners are commonly present in many characters, there is a high possibility that images are connected incorrectly as compared with the case of landscape.

【0005】[0005]

【発明が解決しようとする課題】したがって、本発明の
解決すべき技術的課題は、文字を含む画像をより正確に
合成することができる画像読み取り装置、画像データ処
理方法および画像データ処理プログラムを記録したコン
ピュータ読み取り可能な記録媒体を提供することであ
る。
SUMMARY OF THE INVENTION Therefore, the technical problem to be solved by the present invention is to record an image reading apparatus, an image data processing method and an image data processing program capable of more accurately synthesizing an image including characters. To provide a computer-readable recording medium.

【0006】[0006]

【課題を解決するための手段および作用・効果】上記の
技術的課題を解決するため、本発明は、以下の構成の画
像読み取り装置を提供する。
In order to solve the above technical problems, the present invention provides an image reading apparatus having the following configuration.

【0007】本発明の画像読み取り装置は、分割境界周
辺部分が互いに重なり合うように被写領域全体を複数の
部分領域に分割して順に撮影し、この各撮影画像から上
記被写領域全体の全体合成画像を合成して出力する画像
読み取り装置であって、光学系および撮像素子を有し、
上記各部分領域に対向したときにその各部分領域をそれ
ぞれ撮影することができる変角型撮像ユニットと、この
撮像ユニットを上記各部分領域に所定順序で対向すべく
駆動する走査駆動ユニットと、上記撮像ユニットおよび
上記走査駆動ユニットの動作を制御する制御手段とを備
えたタイプのものである。画像読み取り装置は、文字認
識手段と、画像合成手段とを備える。上記文字認識手段
は、互いに隣接する上記部分領域の上記撮影画像につい
て、互いに重なり合う上記分割境界周辺部分にある文字
の文字コードおよび位置を認識する。上記画像合成手段
は、上記文字認識手段が認識した上記文字コードおよび
位置に基づき、互いに隣接する上記部分領域の互いに重
なり合う上記分割境界周辺部分における上記文字画像の
対応関係を検出して、その部分領域の上記撮影画像を、
上記分割境界周辺部分において不連続が生じないように
つなぎ合わせ、上記全体合成画像を合成する。
The image reading apparatus according to the present invention divides the entire subject area into a plurality of partial areas so that the peripheral portions of the division boundaries overlap each other, takes pictures in order, and synthesizes the entire subject area from each photographed image. An image reading device that synthesizes and outputs an image, having an optical system and an image sensor,
A variable-angle imaging unit capable of capturing an image of each of the partial areas when facing each of the partial areas; a scanning drive unit for driving the imaging unit to face each of the partial areas in a predetermined order; This is a type including an imaging unit and control means for controlling the operation of the scanning drive unit. The image reading device includes a character recognition unit and an image combining unit. The character recognizing means recognizes a character code and a position of a character in the vicinity of the division boundary overlapping each other with respect to the captured images of the partial areas adjacent to each other. The image synthesizing unit detects the correspondence between the character images in the vicinity of the divided boundary where the partial regions adjacent to each other overlap with each other, based on the character code and the position recognized by the character recognition unit. The above captured image of
The whole composite image is synthesized by connecting the divided boundaries so that discontinuity does not occur around the boundary.

【0008】上記構成において、走査駆動ユニットは、
所定順序で、撮像ユニットを所定の部分領域に向ける。
撮像ユニットは、対向した部分領域の被写体像を光学系
を介して撮像素子の有効領域にできるだけ大きく結像
し、その部分領域をそれぞれ撮影する。各部分領域の撮
影画像は、隣接する部分領域と互いに重なり合う分割境
界周辺部分にある文字について、その文字の文字コード
とその文字の位置とが文字認識手段によって認識され
る。ここで、文字の“位置”は、正確な座標データであ
ってもよいし、たとえば上から3文字目、左に2文字目
とするような文字配列中の相対的な位置であってもよ
い。画像合成手段は、文字認識手段による上記した認識
結果に基づいて、互いに隣接する部分領域の互いに重な
り合う分割境界周辺部分における文字の対応関係を検出
して、その部分領域の撮影画像を、分割境界周辺部分に
おいて不連続が生じないように、すなわち撮影画像の重
複や欠けが生じないように合成し、被写領域の全体合成
画像を作成する。なお、画像読み取り装置は、作成した
全体合成画像の各画素の輝度等の画像データをそのまま
記録媒体や表示装置等に出力しても、あるいは、全体合
成画像を文字コードに変換して記録媒体や表示装置等に
出力してもよい。
[0008] In the above configuration, the scanning drive unit includes:
The imaging unit is directed to a predetermined partial area in a predetermined order.
The imaging unit forms an image of the subject in the opposing partial area as large as possible on the effective area of the image sensor via the optical system, and photographs each of the partial areas. In the captured image of each partial area, the character code of the character and the position of the character are recognized by the character recognizing means for the character in the vicinity of the division boundary overlapping with the adjacent partial area. Here, the “position” of a character may be accurate coordinate data, or may be a relative position in a character array such as a third character from the top and a second character to the left. . The image synthesizing unit detects a correspondence between characters in a part of the divided boundary adjacent to each other adjacent to each other on the basis of the recognition result obtained by the character recognizing unit. Compositing is performed so that discontinuity does not occur in a portion, that is, overlapping or lack of captured images does not occur, and an entire composite image of the object area is created. Note that the image reading device may output image data such as luminance of each pixel of the created overall composite image to a recording medium or a display device as it is, or may convert the overall composite image to a character code and output the image data to a recording medium or the like. It may be output to a display device or the like.

【0009】上記構成によれば、線や角などの画像の特
徴部分が多くの文字に共通して存在していても、文字認
識手段により、文字ごとに異なる文字コードを認識でき
る。画像合成手段は、文字コードの対応関係によって、
部分領域の分割境界周辺部分の重なり状態を検出するの
で、撮影画像のつなぎ合わせを間違える可能性は非常に
小さい。
According to the above arrangement, even if characteristic parts of an image such as lines and corners are common to many characters, different character codes can be recognized by the character recognition means. The image synthesizing means, based on the correspondence between the character codes,
Since the overlapping state around the divisional boundary of the partial area is detected, the possibility of mistakenly joining the captured images is very small.

【0010】したがって、文字を含む画像をより正確に
合成することができる。
Therefore, an image including characters can be synthesized more accurately.

【0011】また、本発明は、以下の他の構成の画像読
み取り装置を提供する。
The present invention also provides an image reading apparatus having the following other configuration.

【0012】本発明の画像読み取り装置は、分割境界周
辺部分が互いに重なり合うように被写領域全体を複数の
部分領域に分割して順に撮影し、この各撮影画像から上
記被写領域全体の全体文字配列についての文字コードの
データ列を出力する画像読み取り装置であって、光学系
および撮像素子を有し、上記各部分領域に対向したとき
にその各部分領域をそれぞれ撮影することができる変角
型撮像ユニットと、この撮像ユニットを上記各部分領域
に所定順序で対向すべく駆動する走査駆動ユニットと、
上記撮像ユニットおよび上記走査駆動ユニットの動作を
制御する制御手段とを備えたタイプのものである。画像
読み取り装置は、文字コード変換手段と、文字コード合
成手段とを備える。上記文字コード変換手段は、上記各
部分領域の上記撮影画像中の文字の文字コードを認識
し、その文字コードのデータ列を作成する。上記文字コ
ード合成手段は、上記文字コード変換手段が作成した上
記文字コードのデータ列に基づき、互いに隣接する上記
部分領域の互いに重なり合う上記分割境界周辺部分にお
ける上記文字の対応関係を検出して、その部分領域の上
記文字コードのデータ列を、上記分割境界周辺部分にお
いて不連続が生じないようにつなぎ合わせ、上記全体文
字配列についての文字コードのデータ列を合成する。
The image reading apparatus of the present invention divides the entire subject area into a plurality of partial areas so that the peripheral portions of the division boundaries overlap with each other and sequentially photographs the partial areas. What is claimed is: 1. An image reading apparatus for outputting a data string of character codes for an array, comprising: an optical system and an image sensor, wherein each of the partial areas can be photographed when facing each of the partial areas. An imaging unit, a scanning drive unit that drives the imaging unit to face each of the partial areas in a predetermined order,
And a control unit for controlling operations of the imaging unit and the scanning drive unit. The image reading device includes a character code conversion unit and a character code combining unit. The character code conversion means recognizes a character code of a character in the captured image in each of the partial areas, and creates a data string of the character code. The character code synthesizing unit detects a correspondence between the characters in the vicinity of the division boundary overlapping each other in the partial regions adjacent to each other, based on the data sequence of the character code created by the character code conversion unit. The data strings of the character codes in the partial areas are connected so that no discontinuity occurs around the division boundary, and the data strings of the character codes for the entire character array are synthesized.

【0013】上記構成において、文字コード変換手段
は、撮像ユニットが撮影した各部分領域の撮影画像の全
範囲について文字を文字コードに変換し、文字コードの
データ列を作成する。文字コード合成手段は、各部分領
域の文字コードのデータ列から隣接する部分領域の互い
に重なり合う分割境界周辺部分における文字の対応関係
を検出し、それに基づいて被写領域全体の全体文字配列
についての文字コードのデータ列を合成する。
In the above arrangement, the character code conversion means converts characters into character codes for the entire range of the captured image of each partial area captured by the imaging unit, and creates a character code data string. The character code synthesizing means detects the correspondence of characters in the vicinity of the overlapping divided boundary of the adjacent partial regions from the data string of the character code of each partial region, and based on the detected character correspondence, determines the character of the entire character array of the entire subject region. Synthesize the data sequence of the code.

【0014】上記構成によれば、線や角などの画像の特
徴部分が多くの文字に共通して存在していても、文字コ
ード変換手段により、文字ごとに異なる文字コードを認
識できる。文字コード合成手段は、文字コードの対応関
係によって分割境界周辺部分の重なり状態を検出するの
で、各部分領域の文字コードのつなぎ合わせを間違える
可能性は非常に小さい。
According to the above configuration, even if characteristic parts of an image such as lines and corners are common to many characters, different character codes can be recognized for each character by the character code conversion means. Since the character code synthesizing unit detects the overlapping state of the portions around the division boundary based on the correspondence relationship between the character codes, the possibility of mistakenly joining the character codes of the respective partial regions is very small.

【0015】したがって、文字を含む画像をより正確に
合成することができる。
Therefore, an image including characters can be synthesized more accurately.

【0016】また、各部分領域の撮影画像を直接文字コ
ードに変換し、その文字コードを処理してデータを合成
すので、各部分領域の撮影画像の画像データ、たとえば
画素ごとの輝度等データを用いて全体合成画像を合成す
る場合に比べ、データ処理量が少なく、したがって、高
速処理が可能である。
Further, since the photographed image of each partial area is directly converted into a character code, and the character code is processed to synthesize data, the image data of the photographed image of each partial area, for example, data such as luminance for each pixel is obtained. The data processing amount is smaller than in the case of combining the entire synthesized image using the image data, and therefore high-speed processing is possible.

【0017】さらに、本発明は、以下の画像データ処理
方法を提供する。
Further, the present invention provides the following image data processing method.

【0018】本発明の画像データ合成方法は、境界周辺
部分が互いに重なり合う複数の部分領域の各画像のデー
タから、上記各画像を上記境界周辺部分において不連続
が生じないようにつなぎ合わせた全体合成画像のデータ
を合成するタイプのものである。画像データ処理方法
は、第1ステップと、第2ステップと、第3ステップと
を備える。上記第1ステップにおいて、互いに隣接する
上記部分領域の上記画像について、互いに重なり合う上
記境界周辺部分にある文字の文字コードおよび位置を認
識する。上記第2ステップにおいて、上記第1ステップ
で認識した上記文字コードおよび位置に基づき、互いに
隣接する上記部分領域の互いに重なり合う上記境界周辺
部分における上記文字の対応関係を検出する。上記第3
ステップにおいて、上記第2ステップで検出した上記境
界周辺部分における上記文字の対応関係に基づいて、上
記部分領域の上記画像のデータを、上記境界周辺部分に
おいて不連続が生じないようにつなぎ合わせ、上記全体
合成画像のデータを合成する。
The image data synthesizing method according to the present invention is an overall synthesizing method in which the above images are joined together from the data of the images in a plurality of partial areas where the peripheral portions overlap each other so that no discontinuity occurs in the peripheral portions. This is a type that combines image data. The image data processing method includes a first step, a second step, and a third step. In the first step, a character code and a position of a character in the vicinity of the boundary overlapping with each other are recognized for the images of the partial regions adjacent to each other. In the second step, based on the character code and the position recognized in the first step, a correspondence between the characters in the overlapping peripheral portions of the adjacent partial regions is detected. The third above
In the step, based on the correspondence between the characters in the peripheral portion detected in the second step, the image data of the partial area is joined so that discontinuity does not occur in the peripheral portion, The data of the whole composite image is combined.

【0019】上記方法によれば、文字コードの対応関係
によって部分領域の分割境界周辺部分の重なり状態を検
出し、それに基づいて部分領域の画像をつなぎ合わせ
る。文字ごとに異なる文字コードを認識するので、画像
のつなぎ合わせを間違える可能性は非常に小さい。した
がって、文字を含む部分領域の画像のデータから全体合
成画像のデータをより正確に合成することができる。
According to the above-described method, the overlapping state around the division boundary of the partial area is detected based on the correspondence between the character codes, and the images of the partial areas are joined based on the detected state. Since different character codes are recognized for each character, the possibility of erroneously joining images is very small. Therefore, it is possible to more accurately combine the data of the entire composite image from the data of the image of the partial region including the character.

【0020】また、本発明は、以下の他の画像データ処
理方法を提供する。
The present invention also provides the following other image data processing method.

【0021】本発明の画像データ合成方法は、境界周辺
部分が互いに重なり合う複数の部分領域の各画像のデー
タから、上記各画像を上記境界周辺部分において不連続
が生じないようにつなぎ合わせた全体合成画像中にある
べき全体文字配列の文字コードのデータ列を合成するタ
イプのものである。画像データ処理方法は、第1ステッ
プと第2ステップと、第3ステップとを備える。上記第
1ステップにおいて、上記各部分領域の上記画像中にあ
る文字の文字コードを認識し、その文字コードのデータ
列を作成する。上記第2ステップにおいて、上記第1ス
テップで作成した上記文字コードのデータ列に基づき、
互いに隣接する上記部分領域の互いに重なり合う上記境
界周辺部分における上記文字の対応関係を検出する。上
記第3ステップにおいて、上記第2ステップで検出した
上記境界周辺部分における上記文字の対応関係に基づい
て、上記各部分領域の上記文字コードのデータ列を、上
記分割境界周辺部分において不連続が生じないようにつ
なぎ合わせ、上記全体文字配列についての文字の文字コ
ードのデータ列を合成する。
According to the image data synthesizing method of the present invention, the whole image is formed by joining the images from the data of the images of the plurality of partial areas whose peripheral portions overlap each other so that no discontinuity occurs in the peripheral portions. This is a type that combines a data string of character codes of the entire character array that should be present in the image. The image data processing method includes a first step, a second step, and a third step. In the first step, a character code of a character in the image of each of the partial areas is recognized, and a data string of the character code is created. In the second step, based on the data string of the character code created in the first step,
The correspondence between the characters in the overlapping peripheral portion of the adjacent partial regions is detected. In the third step, based on the correspondence between the characters in the peripheral portion detected in the second step, the data string of the character code in each of the partial areas is discontinued in the peripheral portion of the divided boundary. The data strings of the character codes of the characters in the entire character array are combined.

【0022】上記方法によれば、文字コードの対応関係
によって部分領域の分割境界周辺部分の重なり状態を検
出し、それに基づいて全体文字配列についての文字コー
ドのデータ列を合成する。文字ごとに異なる文字コード
を認識するので、各部分領域の文字コードのつなぎ合わ
せを間違える可能性は非常に小さい。したがって、文字
を含む部分領域の画像から、全体文字配列についての文
字コードのデータ列をより正確に合成することができ
る。また、各部分領域の画像を直接文字コードに変換
し、その文字コードを処理してデータを合成するので、
各部分領域の画像の画像データ、たとえば画素ごとの輝
度等データをそのまま用いて全体合成画像を合成する場
合に比べて処理するデータ量が少なく、したがって、高
速処理が可能である。
According to the above-mentioned method, the overlapping state around the division boundary of the partial area is detected based on the correspondence between the character codes, and the character code data sequence for the entire character array is synthesized based on the detected state. Since a different character code is recognized for each character, there is a very small possibility that the character codes of the respective partial areas will be connected incorrectly. Therefore, a character string data string for the entire character array can be synthesized more accurately from the image of the partial region including the character. In addition, since the image of each partial area is directly converted to a character code, and the character code is processed to synthesize data,
The amount of data to be processed is smaller than in the case of combining the entire combined image using the image data of the image of each partial area, for example, data such as the luminance of each pixel as it is, and therefore high-speed processing is possible.

【0023】上記した各方法の画像データ処理は、それ
ぞれ、画像データ処理プログラムにより実現され、該プ
ログラムは記録媒体に記録して提供される。
The image data processing of each of the above methods is realized by an image data processing program, and the program is provided by being recorded on a recording medium.

【0024】[0024]

【発明の実施の形態】以下に、図1〜図6に示した本発
明の一実施形態に係るデジタルカメラについて詳細に説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A digital camera according to an embodiment of the present invention shown in FIGS. 1 to 6 will be described below in detail.

【0025】デジタルカメラ10は、図1の透視図に示
すように、大略、眼を模した撮像ユニット20および走
査駆動ユニットと、距離センサ14と、撮影開始ボタン
12とを備え、被写領域全体の一画像である全体合成画
像を後に合成できるように、被写領域を複数の部分領域
に分割して順に拡大撮影することができる。
As shown in the perspective view of FIG. 1, the digital camera 10 generally includes an imaging unit 20 and a scanning drive unit imitating an eye, a distance sensor 14, and a shooting start button 12, and includes The subject region can be divided into a plurality of partial regions and enlarged and photographed in order so that the whole combined image, which is one image, can be combined later.

【0026】撮像ユニット20は、ズームレンズ16
と、ズームレンズ16を駆動するズームモータ17と、
撮像センサ18とを備え、大略球形に一体的に構成され
ている。ズームレンズ16は、被写体像の撮影倍率を変
化させて撮像センサ18上に結像する。ズームレンズ1
6は、ズームモータ17の駆動によって撮影倍率が変化
するようになっている。撮影倍率は、被写領域の分割数
に応じて、被写領域の全体画面から各部分領域の分割画
像までを撮像センサ18に結像できる倍率範囲を備えて
いる。たとえば、被写領域を縦3×横3の9つの部分領
域に分割する場合には、3倍の倍率範囲が必要となる。
ズームモータ17は、ズームレンズ16の撮影倍率を変
化させる。撮像センサ18は、CCDエリアセンサであ
り、被写体像の光信号を電気信号に変換する。
The imaging unit 20 includes a zoom lens 16
A zoom motor 17 for driving a zoom lens 16;
An image sensor 18 is provided, and is integrally formed in a substantially spherical shape. The zoom lens 16 changes the photographing magnification of the subject image to form an image on the image sensor 18. Zoom lens 1
Reference numeral 6 indicates that the photographing magnification changes when the zoom motor 17 is driven. The photographing magnification has a magnification range in which from the entire screen of the object area to the divided image of each partial area can be formed on the image sensor 18 according to the number of divisions of the object area. For example, when dividing the subject area into nine partial areas of 3 × 3, a magnification range of 3 times is required.
The zoom motor 17 changes the photographing magnification of the zoom lens 16. The imaging sensor 18 is a CCD area sensor, and converts an optical signal of a subject image into an electric signal.

【0027】走査駆動ユニットは、図2の斜視図に示す
ように、U字状ガイド23と、上下方向に延在しU字状
ガイド23の下部を回転自在に支持する回転軸21と、
水平方向に延在しU字状ガイド23の上部に回転自在に
支持され、かつ撮像ユニット20を回転自在に支持する
回転軸25と、各回転軸21,25にそれぞれ結合され
たモータおよび角度センサ22,24とを備え、各回転
軸21,25の回転によって、撮像ユニット20の撮影
方向をX,Y方向に任意に制御できるようになってい
る。
As shown in the perspective view of FIG. 2, the scanning drive unit includes a U-shaped guide 23, a rotating shaft 21 extending vertically and rotatably supporting a lower portion of the U-shaped guide 23,
A rotating shaft 25 extending in the horizontal direction and rotatably supported above the U-shaped guide 23 and rotatably supporting the imaging unit 20; a motor and an angle sensor respectively coupled to the rotating shafts 21 and 25 22 and 24, and the imaging direction of the imaging unit 20 can be arbitrarily controlled in the X and Y directions by the rotation of the rotation shafts 21 and 25.

【0028】距離センサ14は、各部分領域のそれぞれ
の略中央に位置する被写体までの距離を計測するもので
あり、公知の多点測距機構と同様に構成される。
The distance sensor 14 measures the distance to the subject located substantially at the center of each of the partial areas, and is configured similarly to a known multipoint distance measuring mechanism.

【0029】撮影開始ボタン12は、撮影開始操作のた
めのものである。
The shooting start button 12 is used for a shooting start operation.

【0030】さらに、デジタルカメラ10は、その本体
裏面に、不図示の画像表示部36(図5には図示)およ
びモード設定部が設けられている。画像表示部36は液
晶パネルを含み、撮影範囲、すなわち被写領域の撮影画
像を表示できるようになっている。モード設定部によ
り、文字を含む画像を撮影する文字撮影モードと、一般
の自然風景等を撮影する風景撮影モードとを選択でき
る。
Further, the digital camera 10 is provided with an image display unit 36 (not shown in FIG. 5) and a mode setting unit (not shown) on the back surface of the main body. The image display unit 36 includes a liquid crystal panel, and is capable of displaying a photographed range, that is, a photographed image of a subject area. The mode setting unit can select a character photographing mode for photographing an image including characters and a landscape photographing mode for photographing a general natural scenery or the like.

【0031】デジタルカメラ10は、本体裏面の画像表
示部36を見ながら撮影範囲と構図を決め、撮影開始ボ
タン12を押すことによって、被写領域を複数の部分領
域に分割して撮影することができる。
The digital camera 10 determines the photographing range and composition while looking at the image display section 36 on the rear surface of the main body, and presses the photographing start button 12 to divide the photographed region into a plurality of partial regions for photographing. it can.

【0032】詳しくは、撮影前には、ズームレンズ16
はワイド(短焦点距離、すなわち広角)状態であり、た
とえば図3(I)に示すように、被写領域S全体を画像
表示部36に表示する。撮影開始ボタン12を押すと、
ズームレンズ16はテレ(長焦点距離、すなわち望遠)
状態となり、図3(II)に示すように、被写領域S全体
を2×2分割した部分領域A1〜A4を所定順序で撮影
する。隣接する部分領域A1〜A4は、それぞれの分割
境界周辺部分Lが互いに重なり合うように分割される。
Specifically, before photographing, the zoom lens 16
Is in a wide (short focal length, that is, wide angle) state, and displays the entire subject area S on the image display unit 36, for example, as shown in FIG. When the shooting start button 12 is pressed,
The zoom lens 16 is telephoto (long focal length, ie, telephoto)
In this state, as shown in FIG. 3 (II), partial regions A1 to A4 obtained by dividing the entire subject region S by 2 × 2 are photographed in a predetermined order. The adjacent partial areas A1 to A4 are divided such that the respective peripheral portions L of the division boundary overlap with each other.

【0033】次に、部分領域A1〜A4の撮影画像の分
割境界周辺部分Lについて、一般的な文字認識の方法に
より文字を認識する。たとえば図4に示すように、前処
理、文字分離、文字認識、後処理の各工程を順に実行す
る。
Next, characters are recognized by a general character recognition method for a portion L around the division boundary of the captured image of the partial areas A1 to A4. For example, as shown in FIG. 4, the respective steps of pre-processing, character separation, character recognition, and post-processing are sequentially executed.

【0034】まず、前処理工程において、撮影画像から
ノイズなどを除去し、下地と文字とを分離するため、画
像のコントラストを拡大した後、適当なしきい値で2値
化する。
First, in the pre-processing step, in order to remove noise and the like from the photographed image and to separate the background from the characters, the contrast of the image is enlarged and then binarized with an appropriate threshold value.

【0035】次に、文字分離工程において、2値化した
画像データをX,Y方向に射影し、黒画素の存在しない
余白部分を検出して、X,Y方向の余白に囲まれた部分
を文字部分として設定する。なお、撮影画像が傾斜して
いる場合には、画像を少しずつ回転させながら同様に余
白部分の検出を行い、余白部分が検出されるまで動作を
繰り返す。また、漢字の部首など1文字でもその間に余
白が検出される場合もあるので、複数の文字部分からそ
の大きさの平均値を求め、平均値に対して所定以下の大
きさのものは隣接する文字部分と統合する。
Next, in the character separation step, the binarized image data is projected in the X and Y directions, a blank portion where no black pixel exists is detected, and the portion surrounded by the X and Y blanks is detected. Set as character part. When the captured image is inclined, the margin is similarly detected while rotating the image little by little, and the operation is repeated until the margin is detected. In addition, a margin may be detected between even one character such as a radical of a kanji character. Therefore, an average value of the size is obtained from a plurality of character portions. Integrate with the character part.

【0036】次に、文字認識工程において、各文字部分
Mについてあらかじめ記憶した全ての文字パターンPと
比較することにより文字の種類を識別する。これは、ア
ルファベットや数字など文字の種類が少ない場合に特に
有効な手法である。具体的には、図4(IV)に示すよう
に、先に分離した文字部分Mの大きさを縦・横方向に変
倍し、装置が記憶している文字パターンPと同じサイズ
にした後、文字パターンPを順次読み出し、両者の差分
が最小となる文字を探し、差分が最小となった文字の文
字コードを付与する。
Next, in the character recognition step, the type of character is identified by comparing each character portion M with all the character patterns P stored in advance. This is a particularly effective method when there are few types of characters such as alphabets and numbers. More specifically, as shown in FIG. 4 (IV), the size of the previously separated character portion M is scaled in the vertical and horizontal directions so that the size of the character portion M becomes the same as the character pattern P stored in the device. , The character pattern P is sequentially read out, a character having a minimum difference between the two is searched for, and a character code of the character having the minimum difference is assigned.

【0037】次に、後処理工程において、各文字部分の
座標(X,Y)を求め、認識した文字コードと併せて記
憶する。座標を記憶するのは、文字コードをもとにして
撮影画像のつなぎ合わせを行うためである。座標値は、
まず、前述した文字分離工程において求めたひとつの文
字部分の上下、左右の大きさを用いて、この中心をその
文字の仮の座標とする。同じ文字サイズであっても、文
字の種類によって文字部分の上下、左右の大きさはばら
つくことを考慮して、文字の座標を再配置する。たとえ
ば、横書きの印刷文字の場合、左右方向の間隔は文字の
種類により差があるが、上下方向の間隔(行間)は一定
である。したがって、上で求めた仮の文字座標の上下方
向の間隔が一定となるように座標を再配置して、これを
文字の最終的な座標とする。再配置の方法は、仮座標値
の平均を用いてもよいし、その最頻度の値を用いてもよ
い。
Next, in a post-processing step, the coordinates (X, Y) of each character portion are obtained and stored together with the recognized character code. Coordinates are stored in order to connect captured images based on character codes. The coordinate values are
First, using the top, bottom, left, and right sizes of one character portion obtained in the above-described character separation step, the center is set as temporary coordinates of the character. Even if the character size is the same, the coordinates of the character are rearranged in consideration of the fact that the size of the character portion in the vertical and horizontal directions varies depending on the type of character. For example, in the case of horizontally-printed characters, the interval in the left-right direction differs depending on the type of character, but the interval (line spacing) in the up-down direction is constant. Therefore, the coordinates are rearranged so that the vertical interval of the temporary character coordinates obtained above becomes constant, and this is set as the final coordinates of the character. The rearrangement method may use the average of the provisional coordinate values or the most frequent value.

【0038】なお、たとえば分割境界周辺部分に写真画
像などがある場合には、公知の領域判別技術を用いて文
字画像のみについて上記の文字認識を行う。そして、写
真画像は、その範囲を示す座標データと画像データとの
組み合わせとして記憶する。
If, for example, a photographic image is present in the vicinity of the division boundary, the above-described character recognition is performed only on the character image by using a known area discriminating technique. The photographic image is stored as a combination of the coordinate data indicating the range and the image data.

【0039】以上のようにして各部分領域の撮影画像デ
ータについて求めた文字コードと座標の組み合わせデー
タを用いて、撮影画像のどの位置に、どのコードの文字
が存在するかを認識し、撮影画像をつなぎ合わせること
ができる。
Using the character code and coordinate combination data obtained for the photographed image data of each partial area as described above, it is recognized which position of the photographed image has a character of which code, and the photographed image is recognized. Can be joined together.

【0039】次に、部分領域の撮影画像の分割境界周辺
部分に含まれる文字の文字コードを対照することによ
り、撮影画像の重ね合わせを行う方法について説明す
る。
Next, a method of superimposing photographed images by comparing the character codes of the characters included in the vicinity of the division boundary of the photographed image in the partial area will be described.

【0040】たとえば図3に示した例では、まず、分割
領域A1の分割境界周辺部分Lの右辺部分の文字コード
を縦に数個読み出す。読み出した文字コードは、文字の
並び“E,N”を表わすものである。同様に、分割領域
A2の分割境界周辺部分の左辺部分の文字コードを縦方
向に順に読み出し、同じ文字コードの並びを備えた文字
の並びを探す。該当する文字の並びが見つかると、各々
の文字の位置が一致するように分割領域A2の画像を移
動、回転、変倍し、分割領域A1の画像につなぎ合わせ
る。同様にして、分割領域A2とA3、A3とA4、A
4とA1をそれぞれつなぎ合わせることにより1枚の全
体合成画像を得る。
For example, in the example shown in FIG. 3, first, several character codes are read vertically on the right side of the peripheral portion L of the division boundary of the division area A1. The read character code represents the character sequence "E, N". Similarly, the character codes in the left side portion around the division boundary of the division area A2 are sequentially read out in the vertical direction, and a character arrangement having the same character code arrangement is searched. When the corresponding character arrangement is found, the image of the divided area A2 is moved, rotated, and scaled so that the position of each character matches, and is joined to the image of the divided area A1. Similarly, the divided areas A2 and A3, A3 and A4, A
4 and A1 are connected to each other to obtain one entire composite image.

【0041】デジタルカメラ10は、最終的に、全体合
成画像について所望のデータを出力する。たとえば、文
字の存在する位置に関する詳しい情報が必要なく、書か
れている内容だけを知りたいような場合には、文字の順
序だけが分かればよいので、全体合成画像中の文字を文
字コードに変換し、文字コードのデータ列のみを出力す
る。文字の存在する位置に関する詳しい情報も必要な場
合には、文字コードとともに文字の座標データも出力す
る。
The digital camera 10 finally outputs desired data for the entire composite image. For example, if you do not need detailed information on the location of the characters and just want to know what is written, you only need to know the order of the characters. , And output only the character string data string. When detailed information on the position where the character exists is also required, character coordinate data is output together with the character code.

【0042】次に、図5のブロック図を参照しながら、
デジタルカメラ10の構成について、さらに説明する。
デジタルカメラ10は、撮像系と制御系とに大別でき
る。
Next, referring to the block diagram of FIG.
The configuration of the digital camera 10 will be further described.
The digital camera 10 can be roughly classified into an imaging system and a control system.

【0043】撮像系は、撮像センサ18と、撮像センサ
18からのアナログ信号をデジタル信号に変換するA/
D変換器42と、A/D変換器42からのデジタル信号
を蓄積して画像データを一時的に記憶する画像メモリ4
5と、画像メモリ45から各部分領域の画像データを読
み出して文字を認識してその文字コードおよび座標のデ
ータ列を出力する文字認識部47とが、直列に接続され
ている。
The imaging system includes an imaging sensor 18 and an A / A converter for converting an analog signal from the imaging sensor 18 into a digital signal.
A D converter 42 and an image memory 4 for storing digital signals from the A / D converter 42 and temporarily storing image data
5, and a character recognition unit 47 that reads out image data of each partial area from the image memory 45, recognizes characters, and outputs a character string and a data string of coordinates thereof are connected in series.

【0044】制御系は、データバスを介して、CPU3
0と、撮像センサ18の動作を制御する撮影制御部32
と、走査駆動ユニットのモータおよび角度センサ22,
24と、撮像ユニット20のズームモータ17と、距離
センサ14と、撮影開始ボタン12やモード設定部を含
む操作部34と、撮影画像を表示する画像表示部36
と、隣接する部分領域の互いに重なり合う分割境界周辺
部分について、文字認識部47から出力された文字コー
ドを比較する文字コード比較部41と、文字コード比較
部41の比較結果にもとづいて、各部分領域の画像デー
タから被写領域全体の全体合成画像を合成し、全体合成
画像中の文字を文字コードに変換する文字コード合成部
43とが相互に接続されている。CPU30には、文字
パターンと文字コード等を記憶しておく内部メモリ38
が接続されている。文字コード合成部43には、被写領
域全体の全体文字配列の文字コードのデータ列を記録媒
体に出力する出力部49が接続されている。制御系は、
撮像ユニット20の撮影制御、ズームモータ17による
ズームレンズ16の倍率制御、走査駆動ユニットの走査
制御、距離センサ14の検出制御、画像データの処理・
合成、撮影開始やモード切り換えなどの操作制御を行
い、これらの制御は、CPU30が統括する。
The control system is connected to the CPU 3 via a data bus.
0, a photographing control unit 32 for controlling the operation of the image sensor 18
And a motor of the scanning drive unit and the angle sensor 22,
24, a zoom motor 17 of the imaging unit 20, a distance sensor 14, an operation unit 34 including a shooting start button 12 and a mode setting unit, and an image display unit 36 for displaying a shot image.
Based on the comparison result of the character code comparison unit 41 and the character code comparison unit 41 comparing the character codes output from the character recognition unit 47 with respect to the overlapping boundary peripheral portions of the adjacent partial regions overlapping each other, And a character code synthesizing unit 43 for synthesizing a whole synthesized image of the entire subject area from the image data of the above and converting characters in the whole synthesized image into character codes. The CPU 30 has an internal memory 38 for storing character patterns, character codes, and the like.
Is connected. The character code synthesizing unit 43 is connected to an output unit 49 that outputs a character string data string of the entire character array of the entire subject area to a recording medium. The control system is
Image capturing control of the imaging unit 20, magnification control of the zoom lens 16 by the zoom motor 17, scanning control of the scanning drive unit, detection control of the distance sensor 14, processing of image data
Operation control such as synthesis, shooting start, and mode switching is performed, and these controls are controlled by the CPU 30.

【0045】次に、デジタルカメラ10の動作につい
て、図6のフローチャート図を参照しながら説明する。
Next, the operation of the digital camera 10 will be described with reference to the flowchart of FIG.

【0046】デジタルカメラ10は、ステップ#10に
おいて、ズームモータ17がズームレレンズ16をワイ
ド側に駆動し、ステップ#12において、撮像ユニット
20が被写領域全体を撮影し、撮影した画像が画像表示
部36に表示され、ステップ#14において、撮影開始
ボタン12が押されるのを待つ。すなわち、撮影開始ボ
タンが12が押されるまで、上記ステップ#12を繰り
返す。
In the digital camera 10, in step # 10, the zoom motor 17 drives the zoom lens 16 to the wide side, and in step # 12, the imaging unit 20 photographs the entire subject area. It is displayed on the display unit 36, and waits for the photographing start button 12 to be pressed in step # 14. That is, the step # 12 is repeated until the shooting start button 12 is pressed.

【0047】撮影開始ボタン12が押されると、ステッ
プ#16において、ズームモータ17はズームレンズ1
6をテレ側に駆動し、ステップ#18において、走査駆
動ユニットは撮像ユニット20を所定の部分領域に向
け、ステップ#20において、撮影ユニット20は対向
する部分領域を撮影し、その撮影画像のデータは画像メ
モリ45に記憶される。ステップ#22において、全て
の部分領域の撮影が終了するまで、上記ステップ#18
および#20を繰り返し、各部分領域を所定順に撮影す
る。
When the photographing start button 12 is pressed, in step # 16, the zoom motor 17
6 is driven to the telephoto side, and in step # 18, the scanning drive unit directs the image pickup unit 20 to a predetermined partial area. In step # 20, the image pickup unit 20 takes an image of the opposing partial area. Are stored in the image memory 45. In step # 22, the above step # 18 is performed until the photographing of all the partial areas is completed.
And # 20 are repeated to photograph each partial area in a predetermined order.

【0048】全ての部分領域の撮影が終了した後、ステ
ップ#24において、文字認識部47は、画像メモリ4
5に記憶した部分領域の撮影画像のデータを読み出し、
ステップ#26において、分割境界周辺部分について、
前述した前処理工程を実行し、ステップ#28におい
て、前述した文字分離工程を実行し、文字部分を切り出
す。ステップ#30および#32において、前述した文
字認識工程を実行する。すなわち、各文字部分につい
て、それぞれ全ての文字パターンと比較し、文字コード
を認識する。ステップ#34において、全ての部分領域
について、上記ステップ#24〜#32を繰り返す。
After the photographing of all the partial areas is completed, in step # 24, the character recognition section 47
5. Read the data of the captured image of the partial area stored in 5
In step # 26, the part around the division boundary is
The above-described pre-processing step is executed, and in step # 28, the above-described character separation step is executed to cut out a character portion. In steps # 30 and # 32, the above-described character recognition process is executed. That is, each character portion is compared with all the character patterns to recognize the character code. In step # 34, steps # 24 to # 32 are repeated for all partial areas.

【0049】全ての部分領域のについて、文字パターン
比較が終了すると、ステップ#36および#38におい
て、文字コード比較部51は、互いに隣接する部分領域
の互いに重なり合う境界周辺部分の一方について文字コ
ードを読み出し、読み出した文字コードの並びと一致す
るまで、他方の境界周辺部分の文字コードを読み出し、
重なり合う部分の文字コードの対応関係を検出する。ス
テップ#40において、全ての部分領域の重なり合う部
分について、上記ステップ#36および#38を繰り返
す。全ての部分領域の重なり合う部分について上記処理
が終了すると、ステップ#42において、重なり合う部
分の文字コードの対応関係の検出結果をもとに、各部分
領域の撮影画像をつなぎ合わせ、被写領域全体の全体合
成画像を合成する。そして、ステップ#44において、
全体合成画像中の文字の文字コードを識別し、ステップ
#46において、その文字コードのデータ列を出力す
る。
When the character pattern comparison has been completed for all the partial areas, in steps # 36 and # 38, the character code comparison section 51 reads out the character codes for one of the overlapping peripheral portions of the adjacent partial areas. Read out the character code in the vicinity of the other boundary until it matches the arrangement of the read character code,
The correspondence between the character codes of the overlapping portions is detected. In step # 40, the above steps # 36 and # 38 are repeated for the overlapping part of all the partial areas. When the above processing is completed for the overlapping portions of all the partial regions, in step # 42, the captured images of the respective partial regions are joined based on the detection result of the correspondence between the character codes of the overlapping portions, and The whole composite image is combined. Then, in step # 44,
The character code of the character in the whole composite image is identified, and in step # 46, a data string of the character code is output.

【0050】以上説明したように、デジタルカメラ10
は、線や角などの画像の特徴部分が多くの文字に共通し
て存在していても、文字ごとに異なる文字コードの対応
関係を利用することによって、文字を含む画像をより正
確に合成することができる。
As described above, the digital camera 10
Uses the correspondence of different character codes for each character, even if the characteristic parts of the image such as lines and corners are common to many characters, to synthesize images containing characters more accurately be able to.

【0051】なお、本発明は上記実施形態に限定される
ものではなく、その他種々の態様で実施可能である。
It should be noted that the present invention is not limited to the above embodiment, but can be embodied in various other modes.

【0052】たとえば、各部分領域の撮影画像につい
て、文字認識部47が、分割境界周辺部分のみならず、
各部分領域全体について文字コードを識別し、文字コー
ド比較部41が同様に隣接する部分領域の互いに重なり
合う分割境界周辺部分の文字コードの対応関係を検出
し、その検出結果にもとづいて、文字コード合成部43
が、各部分領域の文字コードのデータ列を不連続が生じ
ないようにつなぎ合わせ、被写領域全体の文字コードの
データ列を合成することも可能である。また、撮像した
画像をホストコンピュータに出力し、ホストコンピュー
タで画像をつなぎあわせるように構成してもよい。この
場合、図6の#24以降の処理は、ホストコンピュータ
上のソフトウエアで行われる。なお、このソフトウエア
は、フロッピーディスクのような記憶媒体から読み出さ
れる。
For example, for the photographed image of each partial area, the character recognizing unit 47 may determine not only the area around the division boundary,
A character code is identified for the entire partial area, and the character code comparing unit 41 similarly detects the correspondence between the character codes in the vicinity of the overlapping division boundary of the adjacent partial areas, and based on the detection result, performs character code synthesis. Part 43
However, it is also possible to combine the data strings of the character codes of the respective partial areas so that no discontinuity occurs, and to combine the data strings of the character codes of the entire subject area. Further, a configuration may be adopted in which a captured image is output to a host computer, and the images are connected by the host computer. In this case, the processes after # 24 in FIG. 6 are performed by software on the host computer. This software is read from a storage medium such as a floppy disk.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態のデジタルカメラの透視
図である。
FIG. 1 is a perspective view of a digital camera according to an embodiment of the present invention.

【図2】 図1のデジタルカメラの走査駆動ユニットの
斜視図である。
FIG. 2 is a perspective view of a scanning drive unit of the digital camera in FIG.

【図3】 図1のデジタルカメラの撮影動作の説明図で
ある。
FIG. 3 is an explanatory diagram of a photographing operation of the digital camera in FIG. 1;

【図4】 図1のデジタルカメラの文字認識の説明図で
ある。
FIG. 4 is an explanatory diagram of character recognition of the digital camera in FIG. 1;

【図5】 図1のデジタルカメラのブロック構成図であ
る。
FIG. 5 is a block diagram of the digital camera shown in FIG. 1;

【図6】 図1のデジタルカメラの動作のフローチャー
ト図である。
FIG. 6 is a flowchart of the operation of the digital camera in FIG. 1;

【符号の説明】[Explanation of symbols]

10 デジタルカメラ(画像読み取り装置) 12 撮影開始ボタン 14 距離センサ 16 ズームレンズ(光学系) 17 ズームモータ 18 撮像センサ(撮像素子) 20 撮像ユニット 21 回転軸 22 モータおよび角度センサ 23 U字状ガイド 24 モータおよび角度センサ 25 回転軸 30 CPU(制御手段) 32 撮影制御部(制御手段) 34 操作部 36 画像表示部 38 内部メモリ 41 文字コード比較部(画像合成手段、文字コード合
成手段) 42 A/D変換器 43 文字コード合成部(画像合成手段、文字コード合
成手段) 45 画像メモリ 47 文字認識部(文字認識手段、文字コード変換手
段) 49 出力部 A1,A2,A3,A4 部分領域 L 分割境界周辺部分 M 文字部分 P 文字パターン S 被写領域
DESCRIPTION OF SYMBOLS 10 Digital camera (image reading apparatus) 12 Shooting start button 14 Distance sensor 16 Zoom lens (optical system) 17 Zoom motor 18 Image sensor (Imaging element) 20 Imaging unit 21 Rotation axis 22 Motor and angle sensor 23 U-shaped guide 24 Motor And angle sensor 25 rotation axis 30 CPU (control means) 32 shooting control section (control means) 34 operation section 36 image display section 38 internal memory 41 character code comparison section (image synthesis means, character code synthesis means) 42 A / D conversion Device 43 character code synthesizing unit (image synthesizing unit, character code synthesizing unit) 45 image memory 47 character recognizing unit (character recognizing unit, character code converting unit) 49 output unit A1, A2, A3, A4 partial area L peripheral part of division boundary M character part P character pattern S subject area

フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 5/66 G06F 15/66 470 Continued on the front page (51) Int.Cl. 6 identification code FI H04N 5/66 G06F 15/66 470

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 分割境界周辺部分が互いに重なり合うよ
うに被写領域全体を複数の部分領域に分割して順に撮影
し、該各撮影画像から上記被写領域全体の全体合成画像
を合成して出力する画像読み取り装置であって、光学系
および撮像素子を有し、上記各部分領域に対向したとき
に該各部分領域をそれぞれ撮影することができる変角型
撮像ユニットと、該撮像ユニットを上記各部分領域に所
定順序で対向すべく駆動する走査駆動ユニットと、上記
撮像ユニットおよび上記走査駆動ユニットの動作を制御
する制御手段とを備えた画像読み取り装置において、 互いに隣接する上記部分領域の上記撮影画像について、
互いに重なり合う上記分割境界周辺部分にある文字の文
字コードおよび位置を認識する文字認識手段と、 該文字認識手段が認識した上記文字コードおよび位置に
基づき、互いに隣接する上記部分領域の互いに重なり合
う上記分割境界周辺部分における上記文字の対応関係を
検出して、該部分領域の上記撮影画像を、上記分割境界
周辺部分において不連続が生じないようにつなぎ合わ
せ、上記全体合成画像を合成する画像合成手段とを備え
たことを特徴とする画像読み取り装置。
1. An image processing apparatus according to claim 1, further comprising: dividing the entire subject area into a plurality of partial areas so that peripheral portions around the division boundary overlap with each other; photographing the partial areas in order; A variable-angle imaging unit having an optical system and an image sensor, and capable of capturing each of the partial areas when facing each of the partial areas; and An image reading apparatus comprising: a scanning drive unit that drives to face a partial area in a predetermined order; and a control unit that controls operations of the imaging unit and the scan drive unit; wherein the captured images of the partial areas adjacent to each other are provided. about,
Character recognition means for recognizing a character code and a position of a character in the vicinity of the division boundary overlapping with each other; and the division boundary of the partial areas adjacent to each other based on the character code and position recognized by the character recognition means. Image synthesizing means for detecting the correspondence between the characters in the peripheral portion, joining the photographed images of the partial region so that discontinuity does not occur in the peripheral portion of the division boundary, and synthesizing the entire synthetic image. An image reading device, comprising:
【請求項2】 分割境界周辺部分が互いに重なり合うよ
うに被写領域全体を複数の部分領域に分割して順に撮影
し、該各撮影画像から上記被写領域全体の全体文字配列
についての文字コードのデータ列を出力する画像読み取
り装置であって、光学系および撮像素子を有し、上記各
部分領域に対向したときに該各部分領域をそれぞれ撮影
することができる変角型撮像ユニットと、該撮像ユニッ
トを上記各部分領域に所定順序で対向すべく駆動する走
査駆動ユニットと、上記撮像ユニットおよび上記走査駆
動ユニットの動作を制御する制御手段とを備えた画像読
み取り装置において、 上記各部分領域の上記撮影画像中にある文字の文字コー
ドを認識し、該文字コードのデータ列を作成する文字コ
ード変換手段と、 該文字コード変換手段が作成した上記文字コードのデー
タ列に基づき、互いに隣接する上記部分領域の互いに重
なり合う上記分割境界周辺部分における上記文字の対応
関係を検出して、該部分領域の上記文字コードのデータ
列を、上記分割境界周辺部分において不連続が生じない
ようにつなぎ合わせ、上記全体文字列についての文字コ
ードのデータ列を合成する文字コード合成手段とを備え
たことを特徴とする画像読み取り装置。
2. The whole subject area is divided into a plurality of partial areas so that peripheral parts around the division boundary overlap each other, and photographed in order, and the character code of the entire character array of the whole subject area is obtained from each photographed image. A variable-angle imaging unit having an optical system and an image sensor, and capable of capturing an image of each of the partial areas when facing the partial area, comprising: A scanning drive unit that drives the unit to face each of the partial areas in a predetermined order; and an image reading apparatus that includes control means for controlling operations of the imaging unit and the scan drive unit. Character code conversion means for recognizing a character code of a character in a photographed image and creating a data string of the character code; Based on the data string of the character code, the correspondence between the characters in the overlapping part surrounding the divided boundary of the partial areas adjacent to each other is detected, and the data string of the character code of the partial area is divided around the divided boundary. An image reading apparatus, comprising: a character code synthesizing unit that stitches portions so that discontinuity does not occur, and synthesizes a character string data string for the entire character string.
【請求項3】 境界周辺部分が互いに重なり合う複数の
部分領域の各画像のデータから、上記各画像を上記境界
周辺部分において不連続が生じないようにつなぎ合わせ
た全体合成画像のデータを合成する画像データ処理方法
において、 互いに隣接する上記部分領域の上記画像について、互い
に重なり合う上記境界周辺部分にある文字の文字コード
および位置を認識する第1ステップと、 該認識した上記文字コードおよび位置に基づき、互いに
隣接する上記部分領域の互いに重なり合う上記境界周辺
部分における上記文字の対応関係を検出する第2ステッ
プと、 該検出した上記境界周辺部分における上記文字の対応関
係に基づいて、上記部分領域の上記画像のデータを、上
記境界周辺部分において不連続が生じないようにつなぎ
合わせ、上記全体合成画像のデータを合成する第3ステ
ップとを備えたことを特徴とする画像データ処理方法。
3. An image for synthesizing data of an overall composite image obtained by connecting the images so that discontinuity does not occur in the peripheral portion of the image from the data of the images of the plurality of partial regions where the peripheral portion of the boundary overlaps with each other. In the data processing method, a first step of recognizing a character code and a position of a character in the vicinity of the boundary overlapping with each other with respect to the images of the partial regions adjacent to each other, based on the recognized character code and position, A second step of detecting a correspondence between the characters in the boundary surrounding portion where the adjacent partial regions overlap with each other; and, based on the detected correspondence between the characters in the boundary surrounding portion, the image of the image of the partial region is detected. The data is joined so that no discontinuity occurs around the boundary, A third step of synthesizing the data of the body synthesized image.
【請求項4】 境界周辺部分が互いに重なり合う複数の
部分領域の各画像のデータから、上記各画像を上記境界
周辺部分において不連続が生じないようにつなぎ合わせ
た全体合成画像中にあるべき全体文字配列の文字コード
のデータ列を合成する画像データ処理方法において、 上記各部分領域の上記画像中にある文字の文字コードを
認識し、該文字コードのデータ列を作成する第1ステッ
プと、 該作成した上記文字コードのデータ列に基づき、互いに
隣接する上記部分領域の互いに重なり合う上記境界周辺
部分における上記文字の対応関係を検出する第2ステッ
プと、 該検出した上記境界周辺部分における上記文字の対応関
係に基づいて、上記各部分領域の上記文字コードのデー
タ列を、上記分割境界周辺部分において不連続が生じな
いようにつなぎ合わせ、上記全体文字配列についての文
字の文字コードのデータ列を合成する第3ステップとを
備えたことを特徴とする、画像データ処理方法。
4. A whole character to be included in a whole synthesized image obtained by joining the images from data of images of a plurality of partial regions where the peripheral part of the boundary overlaps each other so that discontinuity does not occur in the peripheral part of the boundary. An image data processing method for synthesizing a data string of an array of character codes, comprising: a first step of recognizing a character code of a character in the image of each of the partial areas and creating a data string of the character code; A second step of detecting, based on the data sequence of the character code, the correspondence between the characters in the border peripheral portion overlapping each other in the adjacent partial regions; and the correspondence of the character in the detected border peripheral portion. The data string of the character code in each of the partial areas is set so that discontinuity does not occur around the division boundary based on And synthesizing a data sequence of character codes of the characters in the entire character array.
【請求項5】 コンピュータによって、境界周辺部分が
互いに重なり合う複数の部分領域の各画像のデータか
ら、上記各画像を上記境界周辺部分において不連続が生
じないようにつなぎ合わせた全体合成画像のデータを合
成する画像データ処理プログラムを記録したコンピュー
タ読み取り可能な記録媒体において、 互いに隣接する上記部分領域の上記画像について、互い
に重なり合う上記境界周辺部分にある文字の文字コード
および位置を認識させる手順と、 該認識させた上記文字コードおよび位置に基づき、互い
に隣接する上記部分領域の互いに重なり合う上記境界周
辺部分における上記文字の対応関係を検出させる手順
と、 該検出させた上記境界周辺部分における上記文字の対応
関係に基づいて、上記部分領域の上記画像データを、上
記境界周辺部分において不連続が生じないようにつなぎ
合わせ、上記全体合成画像のデータを合成させる手順と
をコンピュータに実行させる画像データ処理プログラム
を記録したコンピュータ読み取り可能な記録媒体。
5. A computer generates, from data of images of a plurality of partial regions whose peripheral portions overlap each other, data of an overall composite image obtained by connecting the images so that discontinuity does not occur in the peripheral portions. A computer-readable recording medium on which an image data processing program to be combined is recorded, wherein, for the images in the partial areas adjacent to each other, a character code and a position of a character in the vicinity of the boundary overlapping each other are recognized; A step of detecting the correspondence of the characters in the overlapping boundary peripheral portion of the adjacent partial regions based on the character code and the position, and the detected correspondence of the characters in the detected boundary peripheral portion. Based on the image data of the partial area, A computer-readable recording medium having recorded thereon an image data processing program for causing a computer to execute a procedure of joining together data of the entire combined image so that discontinuity does not occur in a peripheral portion of the boundary.
【請求項6】 コンピュータによって、境界周辺部分が
互いに重なり合う複数の部分領域の各画像のデータか
ら、上記各画像を上記境界周辺部分において不連続が生
じないようにつなぎ合わせた全体合成画像中にあるべき
全体文字配列について文字の文字コードのデータ列を合
成する画像データ処理プログラムを記録したコンピュー
タ読み取り可能な記録媒体において、 上記各部分領域の上記画像中にある文字の文字コードを
認識させ、該文字コードのデータ列を作成させる手順
と、 該作成させた上記文字コードのデータ列に基づき、互い
に隣接する上記部分領域の互いに重なり合う上記境界周
辺部分における上記文字の対応関係を検出させる手順
と、 該検出させた上記境界周辺部分における上記文字の対応
関係に基づいて、上記各部分領域の上記文字コードのデ
ータ列を、上記分割境界周辺部分において不連続が生じ
ないようにつなぎ合わせ、上記全体文字配列についての
文字コードのデータ列を合成させる手順とをコンピュー
タに実行させる画像データ処理プログラムを記録したコ
ンピュータ読み取り可能な記録媒体。
6. A whole composite image obtained by connecting, by a computer, data of respective images of a plurality of partial regions whose peripheral portions overlap each other so that discontinuity does not occur in the peripheral portions. A computer-readable recording medium storing an image data processing program for synthesizing a character string data sequence of a character with respect to a whole character array to be recognized, wherein the character code of the character in the image of each of the partial areas is recognized, A procedure for creating a data string of codes, a procedure for detecting the correspondence of the characters in the vicinity of the boundary where the adjacent partial areas overlap each other, based on the data string of the created character codes; Each of the partial areas is determined based on the correspondence between the characters in the boundary surrounding portion. Connecting the data strings of the character codes of the above so that discontinuity does not occur in the vicinity of the division boundary, and synthesizing a data string of the character codes for the entire character array with a computer. A computer-readable recording medium on which is recorded.
JP9360173A 1997-12-26 1997-12-26 Image reader, image data processing method, and recording medium recording image data and readable by computer Pending JPH11196255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9360173A JPH11196255A (en) 1997-12-26 1997-12-26 Image reader, image data processing method, and recording medium recording image data and readable by computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9360173A JPH11196255A (en) 1997-12-26 1997-12-26 Image reader, image data processing method, and recording medium recording image data and readable by computer

Publications (1)

Publication Number Publication Date
JPH11196255A true JPH11196255A (en) 1999-07-21

Family

ID=18468232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9360173A Pending JPH11196255A (en) 1997-12-26 1997-12-26 Image reader, image data processing method, and recording medium recording image data and readable by computer

Country Status (1)

Country Link
JP (1) JPH11196255A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7194144B1 (en) * 1999-01-18 2007-03-20 Fujitsu Limited Document image processing device, document image merging method, and storage medium recording a document image merging program
US7221796B2 (en) 2002-03-08 2007-05-22 Nec Corporation Character input device, character input method and character input program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7194144B1 (en) * 1999-01-18 2007-03-20 Fujitsu Limited Document image processing device, document image merging method, and storage medium recording a document image merging program
US7221796B2 (en) 2002-03-08 2007-05-22 Nec Corporation Character input device, character input method and character input program

Similar Documents

Publication Publication Date Title
JP4130641B2 (en) Digital still camera and control method thereof
JP6089461B2 (en) Projector, image display system, and projector control method
JP4715888B2 (en) Image processing apparatus and computer program
US20050078192A1 (en) Imaging apparatus and image processing method therefor
US20040218833A1 (en) System and method for displaying an image indicating a positional relation between partially overlapping images
US10585344B1 (en) Camera system with a plurality of image sensors
US8125544B2 (en) Image processing apparatus for extracting quadrangle area in image
US6037915A (en) Optical reproducing system for multimedia information
JP2002057879A (en) Apparatus and method for image processing, and computer readable recording medium
JP2009089220A (en) Imaging apparatus
JP2001034737A (en) Device and method for synthesizing image and computer readable recording medium with image synthetic processing program recorded thereon
JP4363154B2 (en) Imaging apparatus, image processing method thereof, and program
JP5267279B2 (en) Image composition apparatus and program
JPH07282192A (en) Photographing device
JP2001119625A (en) Image-processing method and image processor
JPH11196255A (en) Image reader, image data processing method, and recording medium recording image data and readable by computer
JP3704932B2 (en) Image reading device
JPH1115951A (en) Deviation detector and image synthesizer
JP2004072297A (en) Image pickup device
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JPH11225291A (en) Image reader
JP2002042125A (en) Image synthesizing device, image synthesizing method, and computer readable recording medium recording image synthesizing program
JP2000236434A (en) Image forming device
JP3240899B2 (en) Document image input device
JP2011135437A (en) Imaging apparatus, image combining method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613