JPH0554072A - Digital translation device - Google Patents

Digital translation device

Info

Publication number
JPH0554072A
JPH0554072A JP3211711A JP21171191A JPH0554072A JP H0554072 A JPH0554072 A JP H0554072A JP 3211711 A JP3211711 A JP 3211711A JP 21171191 A JP21171191 A JP 21171191A JP H0554072 A JPH0554072 A JP H0554072A
Authority
JP
Japan
Prior art keywords
character
image
word
information
translation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3211711A
Other languages
Japanese (ja)
Inventor
Hitoshi Nakamura
村 仁 中
Takashi Sato
藤 隆 佐
Masumi Sato
藤 眞 澄 佐
Kenichi Hasegawa
谷 川 健 一 長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP3211711A priority Critical patent/JPH0554072A/en
Publication of JPH0554072A publication Critical patent/JPH0554072A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PURPOSE:To shorten translation time and to make a translation result easy to be read by recognizing only a character in a designated area and to perform translation on a recognized character when a sentence original is read optically and the character is recognized. CONSTITUTION:A mark area detecting part 4 extracts image information in accordance with a word in a mark-designated area from image information stored in a storage means 3. Also, a character recognition means 5 recognizes the character in word unit by segmenting information in character unit in an image extracted at the detecting part 4, and extracting word information from the gap of segmented information in character unit. Furthermore, a translation means 6 translates a recognized word, and an output image forming means 8 writes the character image of a translated word on output image memory, and outputs written information, thereby, a translation image in accordance with a mark-specified original image can be formed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はデジタル翻訳装置に関
し、特に文章原稿を光学的に読取って文字を認識する際
に、指定した領域の文字のみを認識し、認識した文字に
対して翻訳を行なうデジタル翻訳装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital translation device, and more particularly, when optically reading a text original to recognize characters, only the characters in a designated area are recognized and the recognized characters are translated. Digital translation device

【0002】[0002]

【従来の技術】翻訳装置においては、例えば、翻訳した
い文章原稿を光学的に読取り、読み取った画像から文字
認識し、この認識結果から辞書検索を行ない翻訳処理を
行なう。この時、入力されたイメージ文字の認識はOC
R(文字認識装置)を用いて行なっている。一般的なO
CRでは、標準文字が登録された標準辞書を用い、読取
った文字画像と標準辞書の文字との類似率より、文字を
認識する。
2. Description of the Related Art In a translation apparatus, for example, a text original to be translated is optically read, characters are recognized from the read image, and a dictionary search is performed from the recognition result to perform translation processing. At this time, the recognition of the input image character is OC
This is performed using R (character recognition device). General O
In CR, a standard dictionary in which standard characters are registered is used, and characters are recognized based on the similarity between the read character image and the characters in the standard dictionary.

【0003】[0003]

【発明が解決しようとする課題】ところで、従来の翻訳
装置においては、読取った画像のすべての文字に対して
翻訳処理を行なうため、翻訳処理の必要ない単語や、一
度翻訳した単語に対しても翻訳処理を行ない、翻訳に時
間がかかっていた。また、翻訳結果を出力する際に、原
稿文字の下に翻訳結果を表示するスペースを作成し、翻
訳結果の文字長に合わせて原稿文字をずらして表示する
ため、翻訳結果が非常に見づらかった。
By the way, in the conventional translation apparatus, since the translation processing is performed for all the characters in the read image, even a word that does not need to be translated or a word that has been translated once is not translated. It took a long time to do the translation process. In addition, when the translation result is output, a space for displaying the translation result is created below the manuscript character, and the manuscript character is shifted and displayed according to the character length of the translation result, so that the translation result is very difficult to see.

【0004】本発明は上記問題を解決すべく考案された
もので、翻訳時間を短縮し、さらに翻訳結果を見やすく
することを目的とする。
The present invention was devised to solve the above problems, and an object of the present invention is to shorten the translation time and make the translation result easier to see.

【0005】[0005]

【課題を解決するための手段】本発明のデジタル翻訳装
置は、原稿画像を読み取る原稿読取手段(2);原稿読取
手段(2)が読み取った原稿の画像情報を格納する記憶手
段(3);記憶手段(3)に格納された画像情報から、マーク
指定された領域の画像情報を抽出する抽出手段(4);抽
出手段(4)で抽出した画像の文字単位の情報を切り出
し、切り出した文字単位の情報の間隔から単語情報を抽
出して、単語単位で文字を認識する文字認識手段(5);
認識した単語を翻訳する翻訳手段(6);および、翻訳し
た単語の文字画像を出力画像メモリに書込み、書込んだ
情報を出力する出力画像形成手段(8);を備える。なお
カッコ内の記号は後述する実施例の対応要素である。
A digital translation apparatus of the present invention comprises a document reading unit (2) for reading a document image; a storage unit (3) for storing image information of a document read by the document reading unit (2); Extraction means (4) for extracting the image information of the marked area from the image information stored in the storage means (3); the character-by-character information of the image extracted by the extraction means (4) is cut out, and the cut out character is extracted. Character recognition means (5) for recognizing characters in word units by extracting word information from the unit information interval;
A translation means (6) for translating the recognized word; and an output image forming means (8) for writing a character image of the translated word in an output image memory and outputting the written information. The symbols in parentheses are the corresponding elements of the examples described later.

【0006】[0006]

【作用】これによれば、まず、原稿読取手段(2)が原稿
画像を読み取り、記憶手段(3)が、原稿読取手段(2)が読
み取った原稿の画像情報を格納する。さらに抽出手段
(4)が、記憶手段(3)に格納された画像情報から、マーク
指定された領域の単語に対応する画像情報を抽出し、文
字認識手段(5)が、抽出手段(4)で抽出した画像の文字単
位の情報を切り出し、切り出した文字単位の情報の間隔
から単語情報を抽出して、単語単位で文字を認識する。
従って例えば、任意の単語に対してマーク処理が施こさ
れた英文章の原稿に対して、まず、マーク処理が施こさ
れた部分の画像のみを抽出し、その後、抽出された領域
において、アルファベット単位の文字情報の切り出しを
行ない、これを基に単語単位で文字を認識することが可
能である。また、翻訳手段(5)が認識した単語を翻訳
し、出力画像形成手段(8)が翻訳した単語の文字画像を
出力画像メモリに書込み、書込んだ情報を出力するの
で、マーク指定された原稿画像に対応したが翻訳画像形
成される。
According to this, first, the document reading unit (2) reads the document image, and the storage unit (3) stores the image information of the document read by the document reading unit (2). Further extraction means
(4) extracts the image information corresponding to the word in the marked area from the image information stored in the storage means (3), and the character recognition means (5) extracts it by the extraction means (4). Information in character units of an image is cut out, word information is extracted from an interval of the cut out information in character units, and characters are recognized in word units.
Therefore, for example, for an English document in which an arbitrary word has been marked, only the image of the marked part is first extracted, and then the alphabet in the extracted area is extracted. It is possible to cut out character information in units and recognize characters in word units based on this. Further, since the word recognized by the translation means (5) is translated, the character image of the word translated by the output image forming means (8) is written in the output image memory, and the written information is output, so that the mark-designated original document is output. A translated image is formed although it corresponds to the image.

【0007】以上のように本発明では、マーク処理を施
こした必要な単語以外の文字認識処理および翻訳処理を
省略することができるので、翻訳にかかる処理時間の短
縮が図れる。
As described above, according to the present invention, the character recognition process and the translation process other than the necessary words to which the mark process is applied can be omitted, so that the processing time required for the translation can be shortened.

【0008】また、本発明の好ましい実施例では、原稿
画像の任意の領域に対するマーク指定を入力する領域指
定入力手段(14);を備える。これにより、原稿画像に
対して直接マーク処理を施こす必要がなく、操作により
容易に原稿画像の任意の領域に対するマーク指定を行な
うことができる。
Further, in a preferred embodiment of the present invention, an area designation input means (14) for inputting a mark designation for an arbitrary area of the original image is provided. As a result, it is not necessary to directly perform the mark processing on the original image, and it is possible to easily perform the mark designation for an arbitrary area of the original image by the operation.

【0009】さらに、本発明の好ましい実施例では、出
力画像形成手段(8)は、原稿画像の指定された全ての領
域に対する文字の、翻訳した単語の文字画像を所定の書
式に従って表形式で出力する。例えばこの書式を、指定
された領域の原稿文字と翻訳された文字が対応する表に
することにより、非常に見やすい翻訳結果出力が得られ
る。本発明の他の目的および特徴は図面を参照した以下
の実施例の説明により明らかになろう。
Further, in a preferred embodiment of the present invention, the output image forming means (8) outputs the character images of the translated words of the characters for all the designated areas of the original image in a tabular format according to a predetermined format. To do. For example, by converting this format into a table in which manuscript characters in a designated area correspond to translated characters, a very easy-to-read translation result output can be obtained. Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the drawings.

【0010】[0010]

【実施例】【Example】

(実施例1)図1に本発明のデジタル翻訳装置の構成概
略のブロック図を示す。図1において、1は装置全体を
制御するCPU、2は翻訳する原稿を読み込むためのス
キャナ、3はスキャナ2により読取った画像データを格
納する画像メモリ、4は画像メモリ3に格納した画像デ
ータを読出しマークペンでマークした領域の検出を行な
うマーク領域検出部、5はマーク領域検出部4より検出
したマーク領域の文字を切り出して文字認識を行なう文
字認識部、6は文字認識部5で認識した文字を単語とし
て切り出し翻訳を行なう翻訳部、7はスキャナ2におい
て原稿の読取りなどを指示する操作部、8は翻訳した結
果を出力する出力部である。
(Embodiment 1) FIG. 1 shows a schematic block diagram of a digital translation apparatus of the present invention. In FIG. 1, 1 is a CPU for controlling the entire apparatus, 2 is a scanner for reading a document to be translated, 3 is an image memory for storing image data read by the scanner 2, and 4 is image data stored in the image memory 3. A mark area detecting unit for detecting an area marked by a reading mark pen, a character recognizing section for recognizing a character in the mark area detected by the mark area detecting section 4, and a character recognizing section for recognizing the character. A translation unit that cuts out and translates characters as words, 7 is an operation unit that instructs the scanner 2 to read a document, and 8 is an output unit that outputs a translation result.

【0011】図2に、操作部7に対応したCPU1の制
御動作の概要を示す。スキャナ2の原稿設置台(図示し
ない)にマークペンで領域指定された英文文章原稿(翻
訳を行ないたい部分をマークペンで塗りつぶした原稿)
がセットされ、操作部7に「スタート」入力があると、
CPU1はまず、セットされた原稿をスキャナ2の原稿
読取り部により読取って、例えば、図3に示すような原
稿対応の画像を得る(ステップ100:以下カッコ内で
はサブルーチンとかステップと言う語を省略し、それに
付した番号数字のみを記す)。なお、図3において四角
で囲まれた単語は、マークペンで指定された(塗りつぶ
された)単語を示す。
FIG. 2 shows an outline of the control operation of the CPU 1 corresponding to the operation unit 7. An English text manuscript whose area is specified by the mark pen on the manuscript stand (not shown) of the scanner 2 (the manuscript in which the part to be translated is painted with the mark pen)
Is set and there is a “start” input on the operation unit 7,
First, the CPU 1 reads the set original by the original reading unit of the scanner 2 to obtain an image corresponding to the original as shown in FIG. 3 (step 100: hereinafter, the word "subroutine" or "step" is omitted in parentheses). , Only the numbers attached to it are noted). Note that the words surrounded by squares in FIG. 3 indicate the words designated (filled in) by the mark pen.

【0012】次にマーク領域検出部4により、マーク領
域の検出処理を行なう(200)。このマーク領域の検
出処理(200)では、ステップ100で読取った画像
に対し、まず、図4に示すように主走査方向の黒画素の
ヒストグラムを計算し、文字画像を行単位で切り出す。
次に、行単位で切り出した1行分の画像において、図5
に示すように、その中心(主走査方向の中心)を通るラ
イン(副走査方向に1画素分のライン)10の濃度値を
検出する。行単位で切り出した画像には、文字画像の領
域,マークペンでマークした領域,および画像のない領
域、の3種類の画像領域があるが、図5において、11
は文字画像の領域、12はマークペンでマークした領
域、13は画像のない領域の濃度13、をそれぞれ示し
ている。3種類の画像領域の副走査方向の1ラインの濃
度値は、それぞれの領域において異なることがわかる。
従って、この濃度の違いにより、原稿のマーク領域の単
語の画像のみを抽出することができる。
Next, the mark area detecting section 4 performs a mark area detecting process (200). In the mark area detection processing (200), a histogram of black pixels in the main scanning direction is first calculated for the image read in step 100 as shown in FIG. 4, and character images are cut out line by line.
Next, in the image for one line cut out line by line,
As shown in, the density value of a line (a line for one pixel in the sub-scanning direction) 10 passing through the center (the center in the main scanning direction) is detected. The image cut out in units of lines has three types of image areas: a character image area, an area marked with a marking pen, and an area without an image.
Indicates an area of a character image, 12 indicates an area marked with a mark pen, and 13 indicates density 13 of an area without an image. It can be seen that the density values of one line in the sub-scanning direction of the three types of image areas are different in each area.
Therefore, due to this difference in density, it is possible to extract only the image of the word in the mark area of the document.

【0013】さらに文字検出部5において、図6に示す
ように抽出したマーク領域の文字画像において副走査方
向に黒画素のヒストグラムを計算し、1文字単位の文字
画像を切り出す(300)。なお、1文字単位で切り出
された文字画像の例を図7に示す。また、文字認識部5
において、切り出したある文字単位の画像とその次の文
字単位画像との距離(文字間)が1文字分の距離以上の
場合、そこを単語の切れ目と判断し、1文字単位の文字
画像をグループ化して単語を抽出する(400)。この
抽出した単語の例を図8に示す。その後、文字認識部5
でグループ化した単語の1文字ずつの文字認識を行なう
(500)。
Further, in the character detecting section 5, a histogram of black pixels in the sub-scanning direction is calculated in the extracted character image of the mark area as shown in FIG. 6, and the character image of each character is cut out (300). Note that FIG. 7 shows an example of a character image cut out in units of one character. In addition, the character recognition unit 5
In, if the distance (between characters) between a cut-out image in one character unit and the next character unit image is more than one character, it is judged as a word break, and the character image in one character unit is grouped. It is converted into words and extracted (400). An example of this extracted word is shown in FIG. After that, the character recognition unit 5
Character recognition is performed for each character of the words grouped in (500).

【0014】翻訳部6において、文字認識部5で認識し
た単語単位の文字コードに相当する日本語を翻訳辞書か
ら検索し、翻訳結果を出力する(600)。さらに翻訳
結果の文字コードを文字画像に変換して出力部8が有す
る出力画像メモリに画像を形成する(700)。指定さ
れた単語のすべての出力画像(翻訳画像)が形成される
まで、ステップ300〜700の処理を繰返し、指定さ
れた全ての単語の出力画像が形成されると(800)、
出力画像メモリに書き込みれた出力画像を紙に転写して
排出する(900)。
The translation unit 6 searches the translation dictionary for Japanese corresponding to the character code of each word recognized by the character recognition unit 5, and outputs the translation result (600). Furthermore, the character code of the translation result is converted into a character image and an image is formed in the output image memory of the output unit 8 (700). The processes of steps 300 to 700 are repeated until all output images (translated images) of the specified word are formed, and when output images of all the specified words are formed (800),
The output image written in the output image memory is transferred onto paper and discharged (900).

【0015】以上のようにあらかじめ原稿にマークペン
で領域指定を行なえば、このマーク領域の単語のみを抽
出して翻訳を行なうので、翻訳する必要のない単語を翻
訳する分の時間が短縮される。
As described above, if the area is designated on the manuscript with the mark pen in advance, only the words in the marked area are extracted and translated, so that the time required to translate the words that do not need to be translated is shortened. ..

【0016】(実施例2)実施例1においては、マーク
ペンにより原稿に直接マークを行ない、翻訳する領域を
指定したが、実施例2では操作入力により翻訳する領域
を指定する。
(Embodiment 2) In the first embodiment, the area to be translated is designated by directly marking the original with the mark pen, but in the second embodiment, the area to be translated is designated by the operation input.

【0017】図9に本発明(実施例2)のデジタル翻訳
装置の構成概略のブロック図を示す。図9において、C
PU1、スキャナ2、画像メモリ3、文字認識部5、翻
訳部6、操作部7、符出力部8、図1に示す各部と同一
の構成および動作であり、マーク領域検出部4において
そのマーク指定動作が異なる。また付号14は、マーク
領域を指定するための表示部一体型のタブレット(領域
指操作部&表示部)であり、位置指定を行なうためのス
タイラスペンを備えている。
FIG. 9 shows a block diagram of a schematic configuration of a digital translation apparatus of the present invention (Example 2). In FIG. 9, C
The PU 1, the scanner 2, the image memory 3, the character recognition unit 5, the translation unit 6, the operation unit 7, the code output unit 8 and the components shown in FIG. 1 have the same configuration and operation, and the mark area detection unit 4 designates the mark. The behavior is different. Reference numeral 14 is a display unit integrated tablet (region finger operation unit & display unit) for designating a mark region, and is provided with a stylus pen for designating a position.

【0018】図10に、操作部7に対応したCPU1の
制御動作の概要を示す。スキャナ2の原稿設置台(図示
しない)に英文文章原稿がセットされ、操作部7に「ス
タート」入力があると、CPU1はまず、セットされた
原稿をスキャナ2の原稿読取り部により読取って、例え
ば、図3に示すような原稿対応の画像を得る(ステップ
100:以下カッコ内ではサブルーチンとかステップと
言う語を省略し、それに付した番号数字のみを記す)。
なお、図3において四角で囲まれたマーク領域はこの実
施例2では付加されていないものとする。
FIG. 10 shows an outline of the control operation of the CPU 1 corresponding to the operation unit 7. When an English text document is set on the document setting table (not shown) of the scanner 2 and a “start” input is made on the operation unit 7, the CPU 1 first reads the set document by the document reading unit of the scanner 2 and, for example, An image corresponding to the original document as shown in FIG. 3 is obtained (step 100: hereinafter, in parentheses, the word "subroutine" or "step" is omitted, and only the numbers attached to it are described).
The mark area surrounded by a square in FIG. 3 is not added in the second embodiment.

【0019】次に、翻訳単語の指定処理を行なう(20
0a)。この処理(200a)では、まず、ステップ1
00で読取った画像に対し、マーク領域検出部4の文字
切出し手段により、主走査方向の黒画素のヒストグラム
を計算し文字画像を行単位で切り出す。切り出した行単
位の文字画像の全行(原稿画像と同一の画像)を表示部
一体型タブレット14に表示する。この表示された画像
に対してスタイラスペン(図示しない)を用いて翻訳し
たい領域の位置指定を行なうと、指定された領域(位置
情報)を記憶する。
Next, a translation word designation process is performed (20).
0a). In this process (200a), first, step 1
With respect to the image read at 00, the character cutting-out means of the mark area detecting unit 4 calculates a histogram of black pixels in the main scanning direction and cuts out the character image line by line. All lines of the cut-out line-by-line character image (the same image as the original image) are displayed on the display unit integrated tablet 14. When the position of the region to be translated is designated on the displayed image using a stylus pen (not shown), the designated region (position information) is stored.

【0020】指定された領域の画像に対して、文字認識
部5で、副走査方向に黒画素のヒストグラムを計算し、
1文字単位の文字画像を切り出す(300)。また、文
字認識部5において、切り出したある文字単位の画像と
その次の文字単位画像との距離(文字間)が1文字分の
距離以上の場合、そこを単語の切れ目と判断し、1文字
単位の文字画像をグループ化して単語を抽出する(40
0)。その後、文字認識部5でグループ化した単語の1
文字ずつの文字認識を行なう(500)。
For the image of the designated area, the character recognition unit 5 calculates a histogram of black pixels in the sub-scanning direction,
The character image of each character is cut out (300). In addition, in the character recognition unit 5, when the distance (between characters) between a cut-out image of one character unit and the next character-unit image is one character or more, it is determined as a word break and one character The words are extracted by grouping the character images of the units (40
0). After that, one of the words grouped by the character recognition unit 5
Character recognition is performed for each character (500).

【0021】翻訳部6において、文字認識部5で認識し
た単語単位の文字コードに相当する日本語を翻訳辞書か
ら検索し、翻訳結果を出力する(600)。さらに翻訳
結果の文字コードを文字画像に変換して出力部8が有す
る出力画像メモリに画像を形成する(700)。指定さ
れた単語のすべての出力画像(翻訳画像)が形成される
まで、ステップ300〜700の処理を繰返し、指定さ
れた全ての単語の出力画像が形成されると(800)、
出力画像メモリに書き込みれた出力画像を紙に転写して
排出する(900)。
The translation unit 6 searches the translation dictionary for Japanese corresponding to the character code of each word recognized by the character recognition unit 5, and outputs the translation result (600). Furthermore, the character code of the translation result is converted into a character image and an image is formed in the output image memory of the output unit 8 (700). The processes of steps 300 to 700 are repeated until all output images (translated images) of the specified word are formed, and when output images of all the specified words are formed (800),
The output image written in the output image memory is transferred onto paper and discharged (900).

【0022】以上のように、読取った原稿画像を表示部
一体型のタブレット14に表示し、この表示に基づいて
翻訳したい単語のみの領域指定を行なえば、指定領域の
単語のみを抽出して翻訳を行なうので、翻訳する必要の
ない単語を翻訳する分の時間が短縮される。
As described above, the read original image is displayed on the tablet 14 integrated with the display unit, and based on this display, only the words to be translated are designated, and only the words in the designated area are extracted and translated. Therefore, it takes less time to translate a word that does not need to be translated.

【0023】ここで翻訳結果の出力形態につてい説明す
る。出力形態には、 (1)入力文章に対応して英単語のすぐ下に翻訳結果を
出力する方法 (2)出力用紙の下半分や右半分に翻訳結果を出力した
り、翻訳結果のみを出力する方法、 等があるが、(1)の出力形態では、翻訳結果をための
領域を英文1行の下に作成し、更に英単語に対する日本
語(翻訳結果)の出力する画像の長さ(領域)が長い場
合、英文をずらして出力するため、入力原稿と比べ、単
語間が延び縮みするため非常に見ずらい。また、(2)
出力形態では、使用者が翻訳結果を見る場合、英単語と
翻訳結果の対応がわかりにくい。以上の点から本実施例
1および実施例2においては、図13に示すように、領
域検出した英単語とそれに対する翻訳結果を表形式で出
力するようにしている。これは実施例1および実施例2
のステップ700において、翻訳結果の文字コードを文
字画像に変換して出力部8が有する出力画像メモリに画
像を形成する際に、位置指定(アドレス指定)を行なう
だけで容易に実施することができる。
The output form of the translation result will be described here. The output form is as follows: (1) Output the translation result just below the English word corresponding to the input sentence. (2) Output the translation result on the lower half or right half of the output paper, or output only the translation result. However, in the output form of (1), a region for the translation result is created under one line of English sentence, and the length of the image (Japanese translation result) for the English word output ( When the area is long, the English sentence is shifted and output, so the words are stretched and contracted compared to the input manuscript, which is very difficult to see. Also, (2)
In the output form, when the user views the translation result, it is difficult to understand the correspondence between the English words and the translation result. From the above points, in the first and second embodiments, as shown in FIG. 13, the region-detected English words and the translation results for them are output in a tabular format. This is Example 1 and Example 2.
In step 700 of 1., when the character code of the translation result is converted into a character image and an image is formed in the output image memory of the output unit 8, it can be easily performed only by specifying the position (addressing). ..

【0024】[0024]

【発明の効果】以上のように本発明によれば、まず、原
稿読取手段(2)が原稿画像を読み取り、記憶手段(3)が、
原稿読取手段(2)が読み取った原稿の画像情報を格納す
る。さらに抽出手段(4)が、記憶手段(3)に格納された画
像情報から、マーク指定された領域の単語に対応する画
像情報を抽出し、文字認識手段(5)が、抽出手段(4)で抽
出した画像の文字単位の情報を切り出し、切り出した文
字単位の情報の間隔から単語情報を抽出して、単語単位
で文字を認識する。従って例えば、任意の単語に対して
マーク処理が施こされた英文章の原稿に対して、まず、
マーク処理が施こされた部分の画像のみを抽出し、その
後、抽出された領域において、アルファベット単位の文
字情報の切り出しを行ない、これを基に単語単位で文字
を認識することが可能である。また、翻訳手段(5)が認
識した単語を翻訳し、出力画像形成手段(8)が翻訳した
単語の文字画像を出力画像メモリに書込み、書込んだ情
報を出力するので、マーク指定された原稿画像に対応し
たが翻訳画像形成される。
As described above, according to the present invention, first, the document reading means (2) reads the document image and the storage means (3):
The image information of the document read by the document reading means (2) is stored. Further, the extraction means (4) extracts image information corresponding to the word in the marked area from the image information stored in the storage means (3), and the character recognition means (5) extracts the extraction means (4). The character-by-character information of the image extracted in step 1 is cut out, word information is extracted from the interval of the cut-out character-by-character information, and the character is recognized word by word. Therefore, for example, for an English manuscript in which mark processing is applied to an arbitrary word, first,
It is possible to extract only the image of the portion that has been subjected to the mark processing, and then cut out character information in alphabetical units in the extracted region, and recognize characters in word units based on this. Further, since the word recognized by the translation means (5) is translated, the character image of the word translated by the output image forming means (8) is written in the output image memory, and the written information is output, so that the mark-designated original document is output. A translated image is formed although it corresponds to the image.

【0025】以上のように本発明では、マーク処理を施
こした必要な単語以外の文字認識処理および翻訳処理を
省略することができるので、翻訳にかかる処理時間の短
縮が図れる。
As described above, according to the present invention, the character recognition process and the translation process other than the necessary words to which the mark process is applied can be omitted, so that the processing time required for the translation can be shortened.

【0026】また、原稿画像の任意の領域に対するマー
ク指定を入力する領域指定入力手段(14)を備えるの
で、原稿画像に対して直接マーク処理を施こす必要がな
く、操作により容易に原稿画像の任意の領域に対するマ
ーク指定を行なうことができる。
Further, since the area designation input means (14) for inputting the mark designation for an arbitrary area of the original image is provided, it is not necessary to directly perform the mark processing on the original image, and the original image can be easily operated by the operation. Marks can be specified for any area.

【0027】さらに、出力画像形成手段(8)は、原稿画
像の指定された全ての領域に対する文字の、翻訳した単
語の文字画像を所定の書式に従って表形式で出力する。
従って、例えばこの書式を、指定された領域の原稿文字
と翻訳された文字が対応する表にすることにより、非常
に見やすい翻訳結果出力が得られる。
Further, the output image forming means (8) outputs the character images of the translated words of the characters for all the designated areas of the original image in a tabular format according to a predetermined format.
Therefore, for example, by converting this format into a table in which the original characters in the designated area and the translated characters correspond to each other, a very easy-to-read translation result output can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明のデジタル翻訳装置の構成概略のブロ
ック図である。
FIG. 1 is a block diagram of a schematic configuration of a digital translation device of the present invention.

【図2】 図1に示す操作部7に対応したCPU1の制
御動作の概要を示すフローチャートである。
FIG. 2 is a flowchart showing an outline of a control operation of a CPU 1 corresponding to the operation unit 7 shown in FIG.

【図3】 原稿対応の画像の一例を示す平面図である。FIG. 3 is a plan view showing an example of an image corresponding to a document.

【図4】 図3に示す原稿画像に対して、主走査方向の
黒画素のヒストグラムを計算し文字画像を行単位で切り
出す際の、原稿対応の画像の一例を示す平面図である。
FIG. 4 is a plan view showing an example of an image corresponding to an original when a histogram of black pixels in the main scanning direction is calculated for the original image shown in FIG.

【図5】 行単位で切り出した1行分の画像において、
画像の中心(主走査方向の中心)を通るライン(副走査
方向に1画素分のライン)10の濃度値を示すグラフで
ある。
FIG. 5: In an image for one line cut out in line units,
6 is a graph showing the density value of a line (a line for one pixel in the sub-scanning direction) 10 that passes through the center of the image (center in the main scanning direction).

【図6】 図4に示した行単位で切り出したの文字画像
を、副走査方向に黒画素のヒストグラムを計算し1文字
単位の文字画像を切り出す際の、原稿対応の画像の一例
を示す平面図である。
FIG. 6 is a plan view showing an example of an image corresponding to a document when a character image cut out in units of lines shown in FIG. 4 is cut out in a character image by calculating a histogram of black pixels in the sub-scanning direction. It is a figure.

【図7】 1文字単位で切り出された文字画像の一例を
示す平面図である。
FIG. 7 is a plan view showing an example of a character image cut out in units of one character.

【図8】 1文字単位の文字画像をグループ化して単語
単位で抽出した一例を示す平面図である。
FIG. 8 is a plan view showing an example in which character images of one character are grouped and extracted in word units.

【図9】 図1に示すデジタル翻訳装置(実施例1)と
別の、デジタル翻訳装置(実施例2)の構成概略のブロ
ック図である。
9 is a block diagram of a schematic configuration of a digital translation apparatus (Example 2) different from the digital translation apparatus (Example 1) shown in FIG.

【図10】 図9に示す操作部7に対応したCPU1の
制御動作の概要を示すフローチャートである。
10 is a flowchart showing an outline of a control operation of CPU 1 corresponding to operation unit 7 shown in FIG.

【図11】 図9に示すタブレット14を示す平面図で
ある。
11 is a plan view showing the tablet 14 shown in FIG. 9. FIG.

【図12】 翻訳出力の一例を示す平面図である。FIG. 12 is a plan view showing an example of translation output.

【符号の説明】[Explanation of symbols]

1:CPU 2:スキャナ(画稿
読取手段) 3:画像メモリ(記憶手段) 4:マーク領域検出
部(抽出手段) 5:文字認識部(文字認識手段) 6:翻訳部(翻訳手
段) 7:操作部 8:出力部(出力画
像形成手段) 14:表示部一体型タブレット(領域指定入力手段)
1: CPU 2: Scanner (image reading means) 3: Image memory (storage means) 4: Mark area detection part (extraction means) 5: Character recognition part (character recognition means) 6: Translation part (translation means) 7: Operation Part 8: Output unit (output image forming means) 14: Display unit integrated tablet (area designation input means)

フロントページの続き (72)発明者 長 谷 川 健 一 東京都大田区中馬込1丁目3番6号 株式 会社リコ−内Front Page Continuation (72) Inventor Kenichi Hasegawa 1-3-6 Nakamagome, Ota-ku, Tokyo Reco Ltd.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】原稿画像を読み取る原稿読取手段;原稿読
取手段が読み取った原稿の画像情報を格納する記憶手
段;記憶手段に格納された画像情報から、マーク指定さ
れた領域の画像情報を抽出する抽出手段;抽出手段で抽
出した画像の文字単位の情報を切り出し、切り出した文
字単位の情報の間隔から単語情報を抽出して、単語単位
で文字を認識する文字認識手段;認識した単語を翻訳す
る翻訳手段;および、 翻訳した単語の文字画像を出力画像メモリに書込み、書
込んだ情報を出力する出力画像形成手段;を備える、デ
ジタル翻訳装置。
1. An original reading means for reading an original image; a storage means for storing image information of an original read by the original reading means; image information of a marked area is extracted from the image information stored in the storage means. Extraction means: Character-by-character information of the image extracted by the extraction means is cut out, word information is extracted from the interval of the cut-out character-by-character information, and character recognition means for recognizing characters in word units; A digital translation device comprising: a translation unit; and an output image forming unit that writes a character image of a translated word in an output image memory and outputs the written information.
【請求項2】原稿画像の任意の領域に対するマーク指定
を入力する領域指定入力手段;を備えることを特徴とす
る、前記請求項1記載のデジタル翻訳装置。
2. The digital translation apparatus according to claim 1, further comprising area designation input means for inputting a mark designation for an arbitrary area of an original image.
【請求項3】出力画像形成手段は、原稿画像の指定され
た全ての領域に対する文字の、翻訳した単語の文字画像
を所定の書式に従って表形式で出力することを特徴とす
る、前記請求項1または請求項2記載のデジタル翻訳装
置。
3. The output image forming means outputs the character images of the translated words of the characters for all designated areas of the original image in a tabular format according to a predetermined format. Alternatively, the digital translation device according to claim 2.
JP3211711A 1991-08-23 1991-08-23 Digital translation device Pending JPH0554072A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3211711A JPH0554072A (en) 1991-08-23 1991-08-23 Digital translation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3211711A JPH0554072A (en) 1991-08-23 1991-08-23 Digital translation device

Publications (1)

Publication Number Publication Date
JPH0554072A true JPH0554072A (en) 1993-03-05

Family

ID=16610336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3211711A Pending JPH0554072A (en) 1991-08-23 1991-08-23 Digital translation device

Country Status (1)

Country Link
JP (1) JPH0554072A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165753A (en) * 1997-08-27 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Character string input method and device and storage medium storing character string input program
JP2005014237A (en) * 2003-06-23 2005-01-20 Toshiba Corp Translation method at copying machine, program and copying machine with external translation function part
US7643986B2 (en) * 2005-03-25 2010-01-05 Fuji Xerox Co., Ltd. Language translation device, method and storage medium for translating abbreviations
EP2159736A3 (en) * 2008-08-28 2010-12-22 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and image processing program
JP2015210611A (en) * 2014-04-25 2015-11-24 京セラドキュメントソリューションズ株式会社 Document management device and document management program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165753A (en) * 1997-08-27 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Character string input method and device and storage medium storing character string input program
JP2005014237A (en) * 2003-06-23 2005-01-20 Toshiba Corp Translation method at copying machine, program and copying machine with external translation function part
US7643986B2 (en) * 2005-03-25 2010-01-05 Fuji Xerox Co., Ltd. Language translation device, method and storage medium for translating abbreviations
EP2159736A3 (en) * 2008-08-28 2010-12-22 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and image processing program
US8260064B2 (en) 2008-08-28 2012-09-04 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, computer-readable medium and computer data signal
JP2015210611A (en) * 2014-04-25 2015-11-24 京セラドキュメントソリューションズ株式会社 Document management device and document management program

Similar Documents

Publication Publication Date Title
JP2713622B2 (en) Tabular document reader
JPH05282488A (en) Method for automatically changing semantically important part of document without decoding document picture
JPH07200745A (en) Comparison method of at least two image sections
JPH04195692A (en) Document reader
JPH0554072A (en) Digital translation device
US5854860A (en) Image filing apparatus having a character recognition function
JPH05303619A (en) Electronic scrap book
JPH0388062A (en) Device for preparing document
JP3171626B2 (en) Character recognition processing area / processing condition specification method
JPH08153110A (en) Device and method for filing document
JPH0728935A (en) Document image processor
JP3060248B2 (en) Table recognition device
JPH0528319A (en) Method and device for processing image
US8340434B2 (en) Image processing apparatus, image processing system and computer readable medium
JPH0581318A (en) Digital translating device
JP2977247B2 (en) Inter-character space processing method
JPH06274551A (en) Image filing device
JP3424942B2 (en) Bilingual image forming device
JP2829186B2 (en) Optical character reader
JP2923004B2 (en) Image generation device
JPH08297718A (en) Character segmentation device and character recognition device
JPH04302070A (en) Character recognizing device
JPH0554071A (en) Digital translation device
JPH0728934A (en) Document image processor
JPH08185475A (en) Picture recognition device