JPH0981566A - Method and device for translation - Google Patents

Method and device for translation

Info

Publication number
JPH0981566A
JPH0981566A JP7231621A JP23162195A JPH0981566A JP H0981566 A JPH0981566 A JP H0981566A JP 7231621 A JP7231621 A JP 7231621A JP 23162195 A JP23162195 A JP 23162195A JP H0981566 A JPH0981566 A JP H0981566A
Authority
JP
Japan
Prior art keywords
translation
area
translated
sentence
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7231621A
Other languages
Japanese (ja)
Inventor
Akira Kumano
明 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7231621A priority Critical patent/JPH0981566A/en
Priority to DE69630928T priority patent/DE69630928T2/en
Priority to EP96306410A priority patent/EP0762298B1/en
Priority to US08/709,544 priority patent/US5978754A/en
Publication of JPH0981566A publication Critical patent/JPH0981566A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation

Abstract

PROBLEM TO BE SOLVED: To obtain a translation without directly handling a document as the translation object and to save a user moving his sight for the purpose of seeing the translation. SOLUTION: A translation area indicating part 101 which indicates a translation area indicating a part as the translation object on a display picture, an area extraction part 102 which extracts the part of the original in a first language in the translation area indicated by the translation area indicating part 101, a translation part 105 which translates the original extracted by the area extraction part 102 to a translation in a second language, and a translation display part 107 which displays the translation obtained by translation part 105 in the translation area indicated by the translation area indicating part 101 on the display picture are provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、電子計算機を用い
て自然言語文書を翻訳する翻訳装置及び翻訳方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a translation device and a translation method for translating a natural language document using an electronic computer.

【0002】[0002]

【従来の技術】近年、電子計算機による自然言語処理技
術の進歩に伴い、ある言語の文書を他の言語に翻訳する
機械翻訳装置が一般に利用されるようになっている。従
来の機械翻訳装置は、マニュアルなどの大量の文書を短
時間で効率良く翻訳することを支援するための装置とし
て用いられている。翻訳専用機として機械翻訳装置が構
成されている場合、翻訳の対象とする文書を専用機に転
送した上で翻訳を実行させる。また、電子計算機で翻訳
プログラムを稼働させることで機械翻訳装置が構成され
ている場合、同電子計算機上で翻訳対象とする文書の文
書ファイル名を指定することで翻訳を実行させる。
2. Description of the Related Art In recent years, with the progress of natural language processing technology using electronic computers, machine translation devices for translating documents in one language into another language have come into general use. A conventional machine translation device is used as a device for supporting efficient translation of a large amount of documents such as a manual in a short time. When the machine translation device is configured as a dedicated translation machine, the document to be translated is transferred to the dedicated machine and then translated. Further, when the machine translation device is configured by operating the translation program on the electronic computer, the translation is executed by designating the document file name of the document to be translated on the electronic computer.

【0003】従来では、文書の翻訳を実行するために前
述のような作業が必要となっているが、大量の文書の翻
訳を行なうことを前提としているため、全体の処理に占
める割合が少なく、大きな問題とはならなかった。
Conventionally, the above-mentioned work has been required to execute the translation of a document, but since it is premised on the translation of a large amount of documents, the ratio to the whole processing is small, It wasn't a big problem.

【0004】しかしながら、文書中の特定の文や、電子
メールで送られてきた文書を翻訳しようという場合に翻
訳専用機を使用すると、翻訳処理自体に要する処理負担
と比較して、ユーザが翻訳対象の文書(文)を専用機に
転送する手間が大きくなってしまう。また、自電子計算
機で翻訳プログラムを稼働させている場合であっても、
文書ファイル名を入力して文書を特定し、翻訳対象とす
る文を指定するか、文書中の文を翻訳プログラムに直接
入力する必要があるために、同様に手間がかかってしま
う。
However, when a translation-dedicated machine is used when translating a specific sentence in a document or a document sent by electronic mail, the user is required to translate in comparison with the processing load required for the translation process itself. It takes a lot of time and effort to transfer the document (sentence) to the dedicated machine. Also, even if you are running the translation program on your own computer,
Similarly, it is necessary to specify the document by inputting the document file name and specify the sentence to be translated, or to directly input the sentence in the document to the translation program, which is also troublesome.

【0005】さらに、従来の機械翻訳装置では、翻訳し
ようとする文が僅か、仮に1単語であっても、その文字
列を指示して、翻訳プログラムによる処理に供する、ま
たはクリップボードなどの中間バッファに複写する必要
があり、その際、訳文を提示するための表示画面上に設
けられたウィンドウ等と別の場所で行なう必要があり、
視線の移動をかなり伴うものとなっている。
Further, in the conventional machine translation device, even if the sentence to be translated is only one word, even if it is one word, the character string is instructed and provided for processing by the translation program, or in an intermediate buffer such as a clipboard. It is necessary to copy it, and at that time, it must be done in a different place from the window etc. provided on the display screen for presenting the translated text,
It is accompanied by considerable movement of the line of sight.

【0006】[0006]

【発明が解決しようとする課題】このように従来の機械
翻訳装置においては、翻訳対象とする文書(文)の量が
僅かであっても、大量の文書の翻訳を行なう場合と同様
に、翻訳するファイルや文字を移動する手続きを伴わな
ければならず、作業負担が大きかった。
As described above, in the conventional machine translation apparatus, even if the amount of documents (sentences) to be translated is small, translation is performed in the same manner as when translating a large amount of documents. This involved a procedure to move the files and characters to be used, and the work load was heavy.

【0007】また、翻訳処理によって得られた訳文を提
示する場所と、翻訳対象とする文字列を指定する場所と
が異なるため、視線の移動を伴い、操作負担を強いるも
のとなっていた。
Further, since the location where the translated text obtained by the translation processing is presented is different from the location where the character string to be translated is designated, the line of sight is moved and the operation load is imposed.

【0008】本発明は前記のような事情を考慮してなさ
れたもので、翻訳対象とする文書を直接扱わなくても訳
文を得ることができ、かつ訳文を見るために視線の移動
を伴わない翻訳装置及び翻訳方法を提供することを目的
とする。
The present invention has been made in consideration of the above circumstances, and a translated sentence can be obtained without directly handling a document to be translated, and the line of sight for seeing the translated sentence is not moved. An object is to provide a translation device and a translation method.

【0009】[0009]

【課題を解決するための手段】本発明は、表示画面上の
翻訳対象とする部分を示す翻訳領域を指示する翻訳領域
指示手段と、前記翻訳領域指示手段によって指示された
翻訳領域内に表示された第一言語による原文を抽出する
領域抽出手段と、前記領域抽出手段によって抽出された
原文を、第二言語による訳文に翻訳する翻訳手段と、前
記翻訳手段によって得られた訳文を、前記翻訳領域指示
手段によって指示された表示画面上の翻訳領域に表示さ
せる訳文表示手段とを具備するので、翻訳対象とする原
文を翻訳に供するために、文書ファイル名を指定する、
あるいは原文を入力するといった原文そのものを扱う必
要がない。また、表示画面上で翻訳対象とする原文が指
定された領域(翻訳領域)に翻訳結果が表示されること
から、翻訳領域を指定する時の視線を動かさずに、その
ままで訳文を見ることができる。
According to the present invention, a translation area designating means for designating a translation area showing a portion to be translated on a display screen and a translation area designated by the translation area designating means are displayed. A region extracting means for extracting an original sentence in the first language, a translating means for translating the original sentence extracted by the region extracting means into a translated sentence in a second language, and a translated sentence obtained by the translating means for the translated region. Since the translated text display means for displaying in the translation area on the display screen designated by the designating means is provided, the document file name is designated in order to provide the translation of the original text to be translated,
Alternatively, it is not necessary to handle the original text itself such as inputting the original text. In addition, since the translation result is displayed in the area (translation area) where the original text to be translated is specified on the display screen, you can see the translated text as it is without moving your line of sight when specifying the translation area. it can.

【0010】また前記翻訳手段は、前記領域抽出手段に
よって抽出された翻訳領域内の原文について、意味的に
完全な部分について翻訳するので、翻訳領域を指定する
際に領域の境界が文の途中や単語の途中であっても、正
しい訳文が得られる。
Further, since the translating means translates the semantically complete part of the original sentence in the translation area extracted by the area extracting means, when the translation area is designated, the boundary of the area is in the middle of the sentence or You can get the correct translation even in the middle of a word.

【0011】また本発明は、表示画面上の翻訳対象とす
る部分を示す翻訳領域を指示する翻訳領域指示手段と、
前記翻訳領域指示手段によって翻訳領域が指示された表
示画面内の第一言語による原文の全てを抽出する領域抽
出手段と、前記領域抽出手段によって抽出された原文
を、第二言語による訳文に翻訳する翻訳手段と、前記翻
訳手段によって得られた全ての原文についての訳文か
ら、前記翻訳領域指示手段によって指示された翻訳領域
に対応する訳文を取り出し、前記翻訳領域に表示させる
訳文表示手段とを具備するので、一度、翻訳領域が指定
されると、原文全てに対応する訳文を保存しておくの
で、その後に翻訳領域が指定された際に、その都度、翻
訳処理を行なう必要がない。
The present invention further comprises a translation area designating means for designating a translation area showing a portion to be translated on the display screen,
A region extraction unit that extracts all original sentences in the first language in the display screen whose translation region is designated by the translation region designation unit, and the source sentence extracted by the region extraction unit is translated into a translated sentence in the second language. And a translation display unit for extracting a translation corresponding to the translation region designated by the translation region designating unit from the translations of all the original sentences obtained by the translation unit and displaying the translation in the translation region. Therefore, once the translation region is designated, the translated sentences corresponding to all the original sentences are saved, so that it is not necessary to perform the translation process each time the translation region is designated.

【0012】また、前記領域抽出手段は、表示画面上の
翻訳領域における表示内容に応じて、テキストデータあ
るいは画像データを抽出するので、文字列が表示された
画面に対してだけでなく、イメージ中の文字についての
訳文を得ることができる。
Further, since the area extracting means extracts the text data or the image data according to the display contents in the translation area on the display screen, not only the screen on which the character string is displayed but also the image You can get translations for the characters.

【0013】また、画像データから文字に該当する部分
を抽出して文字認識する文字認識手段をさらに具備し、
前記領域抽出手段によって画像データが抽出された場合
に、画像中の文字を示すテキストデータを取得するの
で、イメージ中の文字についてもテキストデータ(文字
コード)を得て、翻訳処理に供することができる。
Further, the apparatus further comprises character recognition means for recognizing a character by extracting a portion corresponding to a character from the image data,
When the image data is extracted by the area extracting means, the text data indicating the characters in the image is obtained, so that the text data (character code) can be obtained for the characters in the image and used for the translation process. .

【0014】また、前記翻訳領域指示手段によって指示
される翻訳領域の大きさは任意に変更可能であるので、
訳文が必要な文、あるいは単語といった任意の文字列単
位での指定や、表示画面中の全ての原文を指定すること
ができる。
Since the size of the translation region designated by the translation region designating means can be arbitrarily changed,
It is possible to specify a sentence that requires a translated sentence, an arbitrary character string unit such as a word, or all original sentences on the display screen.

【0015】また前記翻訳領域指示手段によって指示さ
れる翻訳領域の位置は、前記訳文表示手段によって訳文
を表示させながら任意に移動可能であるので、表示画面
中での訳文を必要とする部分の指定が極めて容易とな
る。
Further, since the position of the translation area designated by the translation area designating means can be arbitrarily moved while the translated text is displayed by the translated text display means, designation of a portion requiring the translated text on the display screen Becomes extremely easy.

【0016】また、前記領域抽出手段によって抽出され
た原文の全てを格納する原文メモリと、前記翻訳手段に
よる翻訳で得られた原文の全てに対応する訳文を格納す
るための訳文メモリと、前記原文メモリに格納された原
文と、前記訳文メモリに格納された訳文との対応関係を
示す情報を格納するための対応関係メモリとを具備し、
前記訳文表示手段は、前記対応関係メモリに格納された
情報をもとに訳文を取り出し、表示させる。
An original sentence memory for storing all the original sentences extracted by the area extracting means, a translated sentence memory for storing translated sentences corresponding to all the original sentences obtained by the translation by the translation means, and the original sentence. And a correspondence relation memory for storing information indicating a correspondence relation between the original sentence stored in the memory and the translated sentence stored in the translated sentence memory,
The translated text display means extracts and displays a translated text based on the information stored in the correspondence memory.

【0017】また前記対応関係メモリには、所定の文字
列単位毎に、前記原文メモリに格納された原文の表示画
面上における位置と、前記訳文メモリに格納された訳文
の位置とを対応づけた情報が格納される。
In the correspondence memory, the position on the display screen of the original sentence stored in the original sentence memory and the position of the translated sentence stored in the translated sentence memory are associated with each other in units of a predetermined character string. Information is stored.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。 (第1実施形態)図1は、本発明の第1実施形態に係る
英日機械翻訳装置の構成を示すブロック図である。図1
に示すように、第1実施形態の英日機械翻訳装置は、翻
訳領域指示部101、領域抽出部102、画面メモリ1
02a、文字認識部103、文字認識知識辞書104、
翻訳部105、翻訳知識辞書106、及び訳文表示部1
07によって構成されている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a block diagram showing the arrangement of an English-Japanese machine translation apparatus according to the first embodiment of the present invention. FIG.
As shown in FIG. 1, the English-Japanese machine translation apparatus according to the first embodiment has a translation region designating unit 101, a region extracting unit 102, and a screen memory 1.
02a, a character recognition unit 103, a character recognition knowledge dictionary 104,
Translation unit 105, translation knowledge dictionary 106, and translated sentence display unit 1
It is composed of 07.

【0019】翻訳領域指示部101は、表示装置(図示
せず)の表示画面上において、ユーザがマウス、キーボ
ード等の入力装置(図示せず)を操作することによって
指定した領域、すなわち翻訳対象とする部分(翻訳領
域)を示す指示を入力し、この翻訳領域を領域抽出部1
02に指示するものである。指示する部分は、画面上の
表示内容(イメージ、テキスト)の全体でも一部でもか
まわない。翻訳対象とする部分だけを指定することがで
きる。
The translation area instructing unit 101 designates an area designated by a user operating an input device (not shown) such as a mouse or a keyboard on a display screen of a display device (not shown), that is, a translation target. Input an instruction indicating the portion to be translated (translation region), and extract this translation region from the region extraction unit 1.
02. The part to be instructed may be all or part of the display contents (image, text) on the screen. Only the part to be translated can be specified.

【0020】領域抽出部102は、翻訳領域指示部10
1から入力された指示に従って、表示画面の内容を保持
している画面メモリ102aから指定部分の内容を抽出
する。ここで、領域指示された部分がテキストデータを
もとに表示された場合のように、画面メモリ102aに
格納された内容に対応するテキストデータ(文字コー
ド)を直接取り出すことが可能ならば、その文字コード
を翻訳部105に出力する。また、画面メモリ102a
の内容が画像(ビットパターン)であれば、その画像デ
ータを文字認識部103に出力する。
The area extracting unit 102 includes a translation area designating unit 10
According to the instruction input from 1, the content of the designated portion is extracted from the screen memory 102a holding the content of the display screen. Here, if the text data (character code) corresponding to the contents stored in the screen memory 102a can be directly taken out as in the case where the area-designated portion is displayed based on the text data, the The character code is output to the translation unit 105. Also, the screen memory 102a
Is the image (bit pattern), the image data is output to the character recognition unit 103.

【0021】文字認識部103は、領域抽出部102に
よって抽出された翻訳領域内のデータが画像データであ
る場合に、画像データから文字に該当する部分を抽出し
て文字認識知識辞書104を用いて文字の認識を行な
い、認識結果(文字コードからなるテキストデータ)を
翻訳部105に出力する。文字認識部103における文
字認識方法には何れの方法を用いても良い。
When the data in the translation area extracted by the area extraction unit 102 is image data, the character recognition unit 103 extracts a portion corresponding to a character from the image data and uses the character recognition knowledge dictionary 104. Characters are recognized and the recognition result (text data consisting of character codes) is output to the translation unit 105. Any method may be used as the character recognition method in the character recognition unit 103.

【0022】文字認識知識辞書104は、文字認識部1
03における文字認識処理により、画像データ中の文字
を検出するための辞書データ(文字認識知識)が登録さ
れたものである。文字認識部103における文字認識方
法が、例えばパターンマッチングであれば、認識対象と
する文字の標準パターン等が登録されている。
The character recognition knowledge dictionary 104 includes a character recognition unit 1
The dictionary data (character recognition knowledge) for detecting the characters in the image data is registered by the character recognition processing in 03. If the character recognition method in the character recognition unit 103 is, for example, pattern matching, a standard pattern or the like of the character to be recognized is registered.

【0023】翻訳部105は、領域抽出部102あるい
は文字認識部103から受けたテキストデータ(文、単
語などを表わす文字コード列)を、翻訳知識辞書106
を利用して日本語に翻訳し、訳文を訳文表示部107に
出力する。翻訳部105における翻訳方法には何れの方
法を用いても良い。なお、領域抽出部102によって抽
出された翻訳領域に、単語の一部分、あるいは一文の途
中までを含む場合には、領域抽出部102または文字認
識部103から翻訳部105に出力される文字コード列
に意味不明な部分が存在することになり、翻訳結果が完
全にならないことがある。従って、このような場合は、
文字コード列について、単語や文の切れ目となる位置を
前後に検索して求め、意味的に完全な単語・文について
翻訳を実行するようにしても良い。
The translation unit 105 translates the text data (character code string representing a sentence, word, etc.) received from the area extraction unit 102 or the character recognition unit 103 into a translation knowledge dictionary 106.
Is used to translate into Japanese and the translated text is output to the translated text display unit 107. As the translation method in the translation unit 105, any method may be used. When the translation area extracted by the area extraction unit 102 includes a part of a word or the middle of a sentence, the character code string output from the area extraction unit 102 or the character recognition unit 103 to the translation unit 105 is used. The translation result may not be complete because there is a meaningless part. Therefore, in such cases,
For the character code string, the positions of the breaks of words or sentences may be searched back and forth, and the translation may be performed for semantically complete words or sentences.

【0024】訳文表示部107は、翻訳部105の出力
(訳文)を、翻訳領域指示部101によって指示入力さ
れた表示画面上の領域に表示させる。翻訳対象として指
示された英文に対して、日本語の訳文が長くなる場合に
は、訳文の文字の文字サイズ・文字間隔等を変更して、
指示された領域内に訳文全てが表示されるようにする。
The translated sentence display unit 107 displays the output (translated sentence) of the translation unit 105 in the area on the display screen instructed and input by the translation area instruction unit 101. If the Japanese translation becomes longer than the English sentence specified as the translation target, change the character size, character spacing, etc. of the characters in the translation,
Display all translated texts in the designated area.

【0025】次に、本発明の第1実施形態の動作につい
て、図2に示すフローチャート、図3、図4に示す表示
例を参照しながら説明する。図3(a)は、英文のテキ
ストが、表示画面中に設けられたあるウィンドウに表示
されている状況を示している。表示されている英文のテ
キストは、例えばテキストエディタによる制御により、
テキストデータに基づいて表示されているものとする。
Next, the operation of the first embodiment of the present invention will be described with reference to the flowchart shown in FIG. 2 and the display examples shown in FIGS. FIG. 3A shows a situation where English text is displayed in a window provided on the display screen. The displayed English text, for example, by the control of the text editor,
It is supposed to be displayed based on the text data.

【0026】図4(a)は、英文が含まれている画像
が、表示画面中に設けられたあるウィンドウに表示され
ている状況を示している。まず、翻訳領域指示部101
は、図3(a)あるいは図4(a)に示す表示画面上に
おいてユーザにより指示された領域を翻訳領域として入
力し、領域抽出部102に通知する(ステップA0
1)。翻訳領域の指示の方法は、特に限定されないが、
例えば領域を示す枠(ウィンドウ)を任意のサイズで設
け、そのウィンドウを表示画面上で任意に移動させるこ
とによって指示することができる。
FIG. 4A shows a situation in which an image containing an English sentence is displayed in a window provided on the display screen. First, the translation area instruction unit 101
Inputs an area designated by the user as a translation area on the display screen shown in FIG. 3A or FIG. 4A, and notifies the area extraction unit 102 (step A0).
1). The method of designating the translation area is not particularly limited,
For example, a frame (window) indicating an area can be provided with an arbitrary size, and the window can be moved on the display screen to give an instruction.

【0027】領域抽出部102は、ステップA01で指
示された翻訳領域について、画面メモリ102aの内容
を抽出し、そのデータの種類を調べる(ステップA0
2,A03)。
The area extraction unit 102 extracts the contents of the screen memory 102a for the translation area designated in step A01 and checks the type of the data (step A0).
2, A03).

【0028】ここで、図4(a)に示すような画像に対
して翻訳が指示された場合であり、データの種類が画像
データであれば、領域抽出部102から文字認識部10
3に対して翻訳領域に対応する画像データが出力され、
ステップA04の処理に進む。
Here, in the case where translation is instructed for an image as shown in FIG. 4A, and the type of data is image data, the area extraction unit 102 to the character recognition unit 10
The image data corresponding to the translation area is output for 3,
The process proceeds to step A04.

【0029】また、図3(a)に示すようなテキストに
対して翻訳が指示された場合であり、データの種類が文
字コード(テキスト)であれば、領域抽出部102から
翻訳部105に対して翻訳領域内の文字列に対応する文
字コード列が出力され、ステップA05の処理に進む
(ステップA03)。
Further, in the case where the translation is instructed to the text as shown in FIG. 3A, and the type of data is the character code (text), the area extraction unit 102 instructs the translation unit 105. A character code string corresponding to the character string in the translation area is output, and the process proceeds to step A05 (step A03).

【0030】文字認識部103は、領域抽出部102か
ら入力した画像データについて文字認識を行なう(ステ
ップA04)。すなわち、文字認識部103は、画像デ
ータ中から1文字毎の文字パターンを切り出し、各文字
パターンについて文字認識知識辞書104の文字認識知
識を参照して文字を特定し、文字コード(テキスト)を
出力する。
The character recognition unit 103 performs character recognition on the image data input from the area extraction unit 102 (step A04). That is, the character recognition unit 103 cuts out a character pattern for each character from the image data, identifies the character for each character pattern by referring to the character recognition knowledge of the character recognition knowledge dictionary 104, and outputs a character code (text). To do.

【0031】ステップA05において翻訳部105は、
領域抽出部102、または文字認識部103から出力さ
れた文字コード列(テキスト)について、翻訳知識辞書
106の翻訳知識を参照して翻訳し、訳文を生成する。
In step A05, the translation unit 105
The character code string (text) output from the area extraction unit 102 or the character recognition unit 103 is translated by referring to the translation knowledge of the translation knowledge dictionary 106, and a translated sentence is generated.

【0032】訳文表示部107は、翻訳部105によっ
て生成された訳文を入力し、翻訳領域に表示させる(ス
テップA06)。すなわち、翻訳領域内の翻訳対象とし
ていた英文にかえて、同じ位置に訳文を表示させる。
The translated sentence display unit 107 inputs the translated sentence generated by the translation unit 105 and displays it in the translation area (step A06). That is, the translated sentence is displayed at the same position as the translated sentence in the translation area.

【0033】図3(b)に示すように、図3(a)のテ
キストが表示された画面において翻訳したい部分(翻訳
領域)を指定した結果、指定したと同じ場所に、訳文が
表示されている。また、図4(b)に示すように、図4
(a)に示す画像について翻訳を指定した結果、英文
「We Love Peace」があった同じ場所に、
その英文の訳文「私たちは平和を愛する」が表示されて
いる。
As shown in FIG. 3B, as a result of designating a portion (translation area) to be translated on the screen in which the text of FIG. 3A is displayed, the translated text is displayed at the same location as designated. There is. In addition, as shown in FIG.
As a result of specifying the translation for the image shown in (a), at the same place where the English sentence "We Love Peace" was found,
The English translation "We love peace" is displayed.

【0034】このようにして、翻訳対象とする原文を直
接扱うことなく、表示画面上で翻訳領域を指定するだけ
で、翻訳領域内の文字列に対して翻訳が実行され訳文が
得られる。また、翻訳結果の訳文は、指定した翻訳領域
に、原文の表示にかえて表示されるので、視線の移動を
全く必要としない。
In this way, by directly designating the translation area on the display screen without directly handling the original text to be translated, the translation is executed for the character string in the translation area and the translated text is obtained. Further, since the translated text of the translation result is displayed in the designated translation area instead of displaying the original text, it is not necessary to move the line of sight at all.

【0035】また、第1実施形態では、表示画面上のテ
キストの一部を含む翻訳領域が翻訳領域指示部101に
よって指示された場合には、全テキストのうち該当する
一部分のみを翻訳するだけでよく、翻訳領域を指示して
から訳文を表示するまでの処理を高速に行なうことがで
きる。
Further, in the first embodiment, when a translation area including a part of the text on the display screen is instructed by the translation area instructing unit 101, only the relevant part of the entire text is translated. Often, the processing from the designation of the translation area to the display of the translated text can be performed at high speed.

【0036】なお、前述した第1実施形態において、ス
テップA01(翻訳領域指示部101)の処理からステ
ップA06(訳文表示部107)の処理までは、時々刻
々実行しても良い。例えば、表示画面上で任意に設けた
ウィンドウを移動させて翻訳領域を指示できる場合、ウ
ィンドウの移動に伴って変更される翻訳領域内の原文に
対して、リアルタイムに翻訳を実行して、訳文を翻訳領
域内に表示させる。また、ユーザからの指示により翻訳
領域の位置が決定され、例えばボタンが押されて翻訳開
始が指示された瞬間から、翻訳処理を開始するようにし
てもよい。 (第2実施形態)次に、本発明の第2実施形態について
説明する。図5は、本発明の第2実施形態に係る英日機
械翻訳装置の構成を示すブロック図である。図5に示す
ように、第2実施形態の英日機械翻訳装置は、翻訳領域
指示部201、テキスト抽出部202、文字認識部20
3、文字認識知識辞書204、翻訳部205、翻訳知識
辞書206、訳文表示部207、原文メモリ210、訳
文メモリ220、及び対応関係メモリ230によって構
成されている。
In the above-described first embodiment, the processing from step A01 (translation area designating section 101) to step A06 (translation display section 107) may be executed every moment. For example, if you can move a window on the display screen to point to the translation area, you can translate the original text in the translation area that changes as the window moves in real time to Display in the translation area. Alternatively, the translation process may be started at the moment when the position of the translation region is determined by an instruction from the user and the translation start is instructed by pressing a button, for example. (Second Embodiment) Next, a second embodiment of the present invention will be described. FIG. 5 is a block diagram showing the configuration of an English-Japanese machine translation device according to the second embodiment of the present invention. As shown in FIG. 5, the English-Japanese machine translation apparatus according to the second embodiment has a translation area designating unit 201, a text extracting unit 202, and a character recognizing unit 20.
3, a character recognition knowledge dictionary 204, a translation unit 205, a translation knowledge dictionary 206, a translated text display unit 207, an original text memory 210, a translated text memory 220, and a correspondence memory 230.

【0037】翻訳領域指示部201は、表示装置(図示
せず)の表示画面上において、ユーザがマウス、キーボ
ード等の入力装置(図示せず)を操作することによって
指定した領域、すなわち翻訳対象とする部分(翻訳領
域)を示す指示を入力し、テキスト抽出部202に通知
するものである。指示する部分は、画面上の表示内容
(イメージ、テキスト)の全体でも一部でもかまわな
い。
The translation area instructing unit 201 indicates an area designated by the user operating an input device (not shown) such as a mouse or a keyboard on the display screen of the display device (not shown), that is, a translation target. The text extraction unit 202 is notified by inputting an instruction indicating a portion (translation area) to be performed. The part to be instructed may be all or part of the display contents (image, text) on the screen.

【0038】テキスト抽出部202は、翻訳領域指示部
201から通知された翻訳領域に関連するテキストデー
タ全体の抽出を行ない、原文文字データとして原文メモ
リ210に出力する。翻訳領域指示部201が翻訳領域
によって、テキスト領域の一部を指定しても、ここでは
翻訳領域を含むテキスト領域全体を抽出する。また、翻
訳領域指示部201が画像データを指定した場合は、一
部を指定した場合でも全体を指定した場合でも、画像全
体を文字認識部203に出力し、文字認識部203にお
ける処理結果を得る。テキスト抽出部202は、文字認
識部203の処理結果を原文文字データとして原文メモ
リ210に出力する。
The text extraction unit 202 extracts the entire text data related to the translation area notified by the translation area instruction unit 201, and outputs it as original text character data to the original text memory 210. Even if the translation area designating unit 201 specifies a part of the text area by the translation area, the entire text area including the translation area is extracted here. When the translation area designating unit 201 designates image data, the entire image is output to the character recognizing unit 203 and the processing result in the character recognizing unit 203 is obtained whether the partial region or the entire region is designated. . The text extraction unit 202 outputs the processing result of the character recognition unit 203 to the original text memory 210 as original text character data.

【0039】文字認識部203は、テキスト抽出部20
2から入力された画像全体を処理対象とし、英文文字列
として認め得る部分を抽出し、文字認識知識辞書204
を利用して文字を認識し、その認識結果を文字認識部2
03に出力する。文字認識部203における文字認識方
法には何れの方法を用いても良い。
The character recognition unit 203 is a text extraction unit 20.
The entire image input from 2 is processed, the part that can be recognized as an English character string is extracted, and the character recognition knowledge dictionary 204
Character is recognized by using the character recognition unit 2
Output to 03. Any method may be used for the character recognition method in the character recognition unit 203.

【0040】翻訳部205は、原文メモリ210に格納
されている原文文字データを、翻訳知識辞書206を利
用して日本語に翻訳し、訳文を訳文メモリ220に格納
する。この際、原文メモリ210中の原文文字データ
(英文テキストデータ)と、訳文メモリ220中の訳文
テキストデータとの、文ごとの対応関係を対応関係メモ
リ230に保持しておく。翻訳部205における翻訳方
法には何れの方法を用いても良い。
The translation unit 205 translates the original text character data stored in the original text memory 210 into Japanese using the translation knowledge dictionary 206, and stores the translated text in the translation text memory 220. At this time, the correspondence relationship between the original text character data (English text data) in the original text memory 210 and the translated text data in the translated text memory 220 is stored in the correspondence relationship memory 230. As the translation method in the translation unit 205, any method may be used.

【0041】訳文表示部207は、原文メモリ210、
訳文メモリ220、対応関係メモリ230の内容を参照
し、翻訳領域指示部201が直接指定している原文の部
分に相当する訳文テキストデータを訳文メモリ220か
ら取り出し、翻訳領域指示部201によって指示された
翻訳領域と同じ場所に表示させる。
The translated sentence display unit 207 is provided with an original sentence memory 210,
By referring to the contents of the translated text memory 220 and the correspondence memory 230, the translated text data corresponding to the part of the original sentence directly designated by the translation area designating unit 201 is retrieved from the translation text memory 220 and designated by the translation area designating unit 201. Display in the same place as the translation area.

【0042】図6は、図5中に示す原文メモリ210、
訳文メモリ220、対応関係メモリ230の内容を示す
ものである。図6(a)は、原文メモリ210に格納さ
れる内容を示すもので、テキスト抽出部202によって
抽出された原文文字データが、1行ごとに区切られて格
納されている。図6(b)は、訳文メモリ220の内容
を示すもので、翻訳部205の出力(訳文データ)が連
続した一次元の文字列として格納されている。図6
(c)は、対応関係メモリ230の内容を示すもので、
文番号の情報、原文の情報、訳文の情報が対応づけられ
て格納されている。文番号の情報は、原文メモリ210
に格納された原文文字データの各文(一文毎)に順次付
された連続番号である。原文の情報は、文番号に対応す
る一文が、原文メモリ210に格納されている位置(開
始位置)を示す行数・文字位置である。訳文の情報は、
文番号及び原文に対応する訳文が、訳文メモリ220に
格納されている位置(開始位置)を示す訳文文字位置で
ある。この情報を用いることにより、任意の原文に対応
する訳文を訳文メモリ220から取り出して、訳文表示
部207によって翻訳領域に表示させることができる。
FIG. 6 shows the original text memory 210 shown in FIG.
The contents of the translated text memory 220 and the correspondence memory 230 are shown. FIG. 6A shows the contents stored in the original text memory 210, in which the original text character data extracted by the text extraction unit 202 is stored line by line. FIG. 6B shows the contents of the translated text memory 220, in which the output (translated text data) of the translation unit 205 is stored as a continuous one-dimensional character string. Figure 6
(C) shows the contents of the correspondence memory 230.
Sentence number information, original sentence information, and translated sentence information are stored in association with each other. The sentence number information is stored in the original text memory 210.
It is a serial number sequentially added to each sentence (one sentence) of the original sentence character data stored in. The information of the original sentence is the number of lines / character position where one sentence corresponding to the sentence number indicates the position (start position) stored in the original sentence memory 210. The translation information is
The translated text corresponding to the sentence number and the original text is the translated text character position indicating the position (start position) stored in the translated text memory 220. By using this information, a translated sentence corresponding to an arbitrary original sentence can be taken out from the translated sentence memory 220 and displayed in the translated area by the translated sentence display unit 207.

【0043】次に、第2実施形態の動作について、図7
(a)(b)(c)に示すフローチャートを参照しなが
ら説明する。まず、翻訳領域指示部201は、表示画面
上においてユーザにより指示された領域を翻訳領域とし
て入力し、テキスト抽出部202に通知する(ステップ
B01)。
Next, the operation of the second embodiment will be described with reference to FIG.
This will be described with reference to the flowcharts shown in (a), (b) and (c). First, the translation area instructing unit 201 inputs the area instructed by the user on the display screen as a translation area and notifies the text extracting unit 202 (step B01).

【0044】テキスト抽出部202は、ステップB01
で指示された翻訳領域について、関連するテキストデー
タ全体を抽出し、その内容を原文メモリ210に蓄積す
る(ステップB02)。
The text extracting unit 202 determines in step B01.
With respect to the translation area designated in step 3, the entire related text data is extracted and the content is stored in the original text memory 210 (step B02).

【0045】図7(b)には、ステップB02の処理を
詳しく表わすフローチャートを示している。ステップB
02では、テキスト抽出部202は、ステップB01で
指示された翻訳領域について、領域内のデータ(領域デ
ータ)の種類を調べる(ステップB11)。ここで領域
データが画像データであればステップB12に進み、文
字コード(テキスト)であればステップB13に進む。
FIG. 7B shows a flow chart showing the process of step B02 in detail. Step B
In 02, the text extracting unit 202 checks the type of data (area data) in the area for the translation area instructed in step B01 (step B11). If the area data is image data, the process proceeds to step B12, and if it is a character code (text), the process proceeds to step B13.

【0046】ここで領域データが文字コード(テキス
ト)であれば、テキスト抽出部202は、全ての文字デ
ータを原文文字データとして、原文メモリ210に格納
する(ステップB13)。
If the area data is a character code (text), the text extracting unit 202 stores all the character data as original text character data in the original text memory 210 (step B13).

【0047】また、領域データが画像データであれば、
テキスト抽出部202は、画像全体を文字認識部203
に出力して、文字認識部203により文字認識させる。
文字認識部203は、画像データから英文文字列の部分
を全て抽出して、それぞれについて文字認識し、認識結
果である文字コード(テキスト)をテキスト抽出部20
2に出力する(ステップB12)。テキスト抽出部20
2は、文字認識部203による文字認識で得た、全ての
文字データを原文文字データとして、原文メモリ210
に格納する(ステップB13)。
If the area data is image data,
The text extraction unit 202 uses the entire image as a character recognition unit 203.
And the character is recognized by the character recognition unit 203.
The character recognition unit 203 extracts all the parts of the English character string from the image data, performs character recognition on each of them, and outputs the character code (text) as the recognition result to the text extraction unit 20.
2 (step B12). Text extraction unit 20
Reference numeral 2 denotes the original text memory 210 as all original character data obtained by character recognition by the character recognition unit 203 as original text data.
(Step B13).

【0048】次に、翻訳部205は、原文メモリ210
に格納された原文文字データ(英文テキストデータ)を
日本語に翻訳し、訳文を図6(b)に示すようにして訳
文メモリ220に格納する(ステップB03)。
Next, the translation unit 205 uses the source text memory 210.
The original sentence character data (English text data) stored in is translated into Japanese and the translated sentence is stored in the translated sentence memory 220 as shown in FIG. 6B (step B03).

【0049】この際、翻訳部205は、原文メモリ21
0に格納された原文文字データの各文について翻訳を行
ない、訳文を訳文メモリ220に格納する度に、図6
(c)に示すように、対応関係メモリ230に原文と訳
文との対応関係、すなわち原文の位置と訳文文字位置と
を対応づけて格納しておく。
At this time, the translation unit 205 uses the source text memory 21.
Each time the original text data stored in 0 is translated, the translated text is stored in the translated text memory 220.
As shown in (c), the correspondence relation memory 230 stores the correspondence relation between the original sentence and the translated sentence, that is, the position of the original sentence and the translated sentence character position in association with each other.

【0050】訳文表示部207は、原文メモリ210、
訳文メモリ220、対応関係メモリ230の内容を参照
し、翻訳領域指示部201が直接指定している翻訳領域
に対応する訳文を抽出する(ステップB04)。
The translated sentence display section 207 is provided with an original sentence memory 210,
By referring to the contents of the translated text memory 220 and the correspondence memory 230, the translated text corresponding to the translation area directly designated by the translation area designating unit 201 is extracted (step B04).

【0051】図7(c)には、ステップB04の処理を
詳しく表わすフローチャートを示している。訳文表示部
207は、翻訳領域指示部201によって指示された翻
訳領域を示す位置情報(開始位置、終了位置)を取り出
す(ステップB21)。例えば、図6(a)に示す例に
おいて「 A tarfile is usually a magnetic tape, but
itcan be any file.」を含む翻訳領域が指示されたと
すると、途中となっている文を除き、意味的に完全な文
の開始位置として「行=2、文字位置=32」、終了位
置として「行=3、文字位置=47」が得られる。
FIG. 7C shows a flow chart showing the process of step B04 in detail. The translated text display unit 207 extracts the position information (start position, end position) indicating the translation region designated by the translation region designation unit 201 (step B21). For example, in the example shown in FIG. 6A, “A tarfile is usually a magnetic tape, but
If a translation area including "it can be any file." is specified, "line = 2, character position = 32" is set as the end position and "end = 32" as the start position of the sentence that is semantically complete, excluding the sentence in the middle. Line = 3, character position = 47 ”is obtained.

【0052】訳文表示部207は、対応関係メモリ23
0の中で、ステップB21で得られた位置情報に対応す
る文番号を検索する(ステップB22)。この例では、
開始位置「行=2、文字位置=32」が、文番号2の原
文の情報に一致し、終了位置「行=3、文字位置=4
7」が文番号3の原文の情報の直前であることから「文
番号=2」が得られる。
The translated sentence display unit 207 is provided in the correspondence memory 23.
In 0, the sentence number corresponding to the position information obtained in step B21 is searched (step B22). In this example,
The start position “line = 2, character position = 32” matches the information of the original sentence of sentence number 2, and the end position “line = 3, character position = 4”.
Since "7" is immediately before the information of the original sentence of sentence number 3, "sentence number = 2" is obtained.

【0053】次に、訳文表示部207は、取り出した文
番号に対応する訳文文字の位置情報(開始位置、終了位
置)を取り出す(ステップB23)。この例では、開始
位置として「文字位置=49」、終了位置として次文
(文番号=3)の開始位置の直前である「文字位置=8
8」が得られる。
Next, the translated text display unit 207 extracts the position information (start position, end position) of the translated text corresponding to the extracted sentence number (step B23). In this example, the start position is “character position = 49”, and the end position is “character position = 8” immediately before the start position of the next sentence (sentence number = 3).
8 "is obtained.

【0054】訳文表示部207は、訳文文字位置の位置
情報をもとに訳文メモリ220を検索する(ステップB
24)。この例では、図6(b)の49文字目から88
文字目の「通常、tarfile は磁気テープですが、その他
のファイルであってもかまいません。」の訳文が得られ
る。ステップB25では、得られた訳文を出力し、ステ
ップB05に戻る。
The translated sentence display unit 207 searches the translated sentence memory 220 based on the position information of the translated sentence character position (step B).
24). In this example, 88 from the 49th character in FIG.
The translation of the first letter is "usually the tarfile is a magnetic tape, but it can be any other file." In step B25, the obtained translated text is output, and the process returns to step B05.

【0055】最後にステップB05では、訳文表示部2
07は、訳文を翻訳領域指示部201によって指定され
た翻訳領域に表示して終了する。表示の形態は、第1実
施形態の説明で用いた、図3(b)または図4(b)と
同様である。
Finally, in step B05, the translated sentence display unit 2
In 07, the translated text is displayed in the translation area designated by the translation area designating unit 201, and the processing ends. The display form is the same as that shown in FIG. 3B or 4B used in the description of the first embodiment.

【0056】また、翻訳対象として指示された英文に対
して、日本語訳文が長くなる場合には、訳文の文字の文
字サイズ・文字間隔を小さくするなど、表示用のフォー
マットを変更して、指示された領域内に訳文が表示され
るようにする。
When the Japanese translation becomes longer than the English sentence designated as the translation target, the display format is changed, for example, by reducing the character size and character spacing of the translated sentence. The translated text is displayed in the specified area.

【0057】なお、新たに表示画面上で翻訳領域が指定
された場合には、訳文メモリ220に該当する訳文が格
納されているので、文字認識部203による文字認識、
翻訳部205による翻訳処理が不要である。訳文表示部
207は、図7(c)のフローチャートに従って訳文を
得て、指定された翻訳領域に表示させる。
When a translation area is newly designated on the display screen, since the corresponding translated text is stored in the translated text memory 220, character recognition by the character recognition unit 203 is performed.
The translation processing by the translation unit 205 is unnecessary. The translated text display unit 207 obtains a translated text according to the flowchart of FIG. 7C and displays it in the designated translation area.

【0058】このようにして、翻訳対象とする原文を直
接扱うことなく、表示画面上で翻訳領域を指定するだけ
で、翻訳領域内の文字列に対して翻訳が実行され訳文が
得られる。また、翻訳結果の訳文は、指定した翻訳領域
に、原文の表示にかえて表示されるので、視線の移動を
全く必要としない。
In this way, by directly designating the translation area on the display screen without directly handling the original text to be translated, the translation is executed on the character string in the translation area and the translated text is obtained. Further, since the translated text of the translation result is displayed in the designated translation area instead of displaying the original text, it is not necessary to move the line of sight at all.

【0059】さらに、第2実施形態の英日機械翻訳装置
では、表示画面の一部が翻訳領域として指示された場合
でも、予めテキストあるいは画像の全部について翻訳処
理しておくので、同じテキストの別の部分を指示し直し
た場合には改めて翻訳する必要はなく、訳文メモリ22
0に蓄積されている訳文を取り出して表示するだけでよ
い。従って、翻訳領域を指示してから訳文を表示するま
での処理を高速に実行することができる。
Further, in the English-Japanese machine translation apparatus of the second embodiment, even if a part of the display screen is designated as a translation area, the text or the entire image is translated in advance. If the part of is re-instructed, it is not necessary to translate it again.
All you have to do is extract and display the translations stored in 0. Therefore, it is possible to perform the processing from the designation of the translation area to the display of the translated text at high speed.

【0060】なお、本発明は前述した第1、第2実施形
態に限定されるものではない。翻訳する言語は、ドイツ
語から日本語など、他の言語間で行なってもよく、日本
語から英語など、逆方向でもかまわない。
The present invention is not limited to the above-described first and second embodiments. The language to be translated may be between other languages, such as German to Japanese, or vice versa, such as Japanese to English.

【0061】また、第1実施形態と第2実施形態の英日
機械翻訳装置の構成及び方法を両方持つ構成とし、何れ
かを適宜切り替えて実行するようにしてもよい。要する
に、本発明の主旨を逸脱しない範囲で種々変形して実施
することができる。
Further, it may be configured to have both the configuration and the method of the English-Japanese machine translation apparatus of the first embodiment and the second embodiment, and either one may be appropriately switched and executed. In short, various modifications can be made without departing from the gist of the present invention.

【0062】[0062]

【発明の効果】以上詳述したように本発明によれば、計
算機画面に向かっている人が、画面上のテキスト(文、
単語など)を翻訳したいと思ったときに、その部分を翻
訳対象を示すウィンドウで指示することにより手軽に訳
文(訳語)を見ることができ、また表示画面を見ている
ときの視線を動かすことなく訳文を見ることが出来るた
め、大幅に作業負担が軽減される。
As described in detail above, according to the present invention, a person who is heading to the computer screen can display text (sentence, text) on the screen.
When you want to translate a word, etc.), you can easily see the translated sentence (translated word) by pointing to that part in the window that shows the translation target, and you can move your line of sight when looking at the display screen. Since the translated text can be viewed without any effort, the work load is greatly reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施形態に係る英日機械翻訳装置
の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an English-Japanese machine translation device according to a first embodiment of the present invention.

【図2】第1実施形態の動作について説明するためのフ
ローチャート。
FIG. 2 is a flowchart for explaining the operation of the first embodiment.

【図3】翻訳対象がテキストである場合の表示形態の一
例を示す図。
FIG. 3 is a diagram showing an example of a display form when a translation target is text.

【図4】翻訳対象が画像である場合の表示形態の一例を
示す図。
FIG. 4 is a diagram showing an example of a display form when a translation target is an image.

【図5】本発明の第2実施形態に係る英日機械翻訳装置
の構成を示すブロック図。
FIG. 5 is a block diagram showing a configuration of an English-Japanese machine translation device according to a second embodiment of the present invention.

【図6】図5中に示す原文メモリ210、訳文メモリ2
20、対応関係メモリ230の内容を示す図。
6 is an original text memory 210 and a translated text memory 2 shown in FIG.
20, a diagram showing the contents of the correspondence memory 230.

【図7】第2実施形態の動作について説明するためのフ
ローチャート。
FIG. 7 is a flowchart for explaining the operation of the second embodiment.

【符号の説明】[Explanation of symbols]

101…翻訳領域指示部 102…領域抽出部 103…文字認識部 104…文字認識知識辞書 105…翻訳部 106…翻訳知識辞書辞書 107…訳文表示部 201…翻訳領域指示部 202…テキスト抽出部 203…文字認識部 204…文字認識知識辞書 205…翻訳部 206…翻訳知識辞書 207…訳文表示部 210…原文メモリ 220…訳文メモリ 230…対応関係メモリ 101 ... Translation area instruction section 102 ... Area extraction section 103 ... Character recognition section 104 ... Character recognition knowledge dictionary 105 ... Translation section 106 ... Translation knowledge dictionary dictionary 107 ... Translation display section 201 ... Translation area instruction section 202 ... Text extraction section 203 ... Character recognition unit 204 ... Character recognition knowledge dictionary 205 ... Translation unit 206 ... Translation knowledge dictionary 207 ... Translated sentence display unit 210 ... Original sentence memory 220 ... Translated sentence memory 230 ... Correspondence relation memory

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 表示画面上の翻訳対象とする部分を示す
翻訳領域を指示する翻訳領域指示手段と、 前記翻訳領域指示手段によって指示された翻訳領域内に
表示された第一言語による原文を抽出する領域抽出手段
と、 前記領域抽出手段によって抽出された原文を、第二言語
による訳文に翻訳する翻訳手段と、 前記翻訳手段によって得られた訳文を、前記翻訳領域指
示手段によって指示された表示画面上の翻訳領域内に表
示させる訳文表示手段とを具備したことを特徴とする翻
訳装置。
1. A translation area instructing means for instructing a translation area indicating a portion to be translated on a display screen, and an original sentence in a first language displayed in the translation area instructed by the translation area instructing means. Area extraction means, a translation means for translating the original sentence extracted by the area extraction means into a translated sentence in a second language, and a translation screen obtained by the translation area instruction means for the translated text obtained by the translation means. A translation device, comprising: a translated text display means for displaying in the above translation area.
【請求項2】 前記翻訳手段は、前記領域抽出手段によ
って抽出された翻訳領域内の原文について、意味的に完
全な部分について翻訳することを特徴とする請求項1記
載の翻訳装置。
2. The translation device according to claim 1, wherein the translation unit translates a semantically complete portion of the original sentence in the translation region extracted by the region extraction unit.
【請求項3】 表示画面上の翻訳対象とする部分を示す
翻訳領域を指示する翻訳領域指示手段と、 前記翻訳領域指示手段によって翻訳領域が指示された表
示画面内の第一言語による原文の全てを抽出する領域抽
出手段と、 前記領域抽出手段によって抽出された原文を、第二言語
による訳文に翻訳する翻訳手段と、 前記翻訳手段によって得られた全ての原文についての訳
文から、前記翻訳領域指示手段によって指示された翻訳
領域に対応する訳文を取り出し、前記翻訳領域に表示さ
せる訳文表示手段とを具備したことを特徴とする翻訳装
置。
3. A translation area instructing means for instructing a translation area indicating a portion to be translated on the display screen, and all original sentences in the first language in the display screen in which the translation area is instructed by the translation area instructing means. A region extracting means for extracting the original sentence extracted by the region extracting means, a translating means for translating the original sentence into a translated sentence in a second language, and a translated region instruction from the translated sentences for all the original sentences obtained by the translating means. A translation device, comprising: a translated text display means for extracting a translated text corresponding to the translation area designated by the means and displaying the translated text in the translation area.
【請求項4】 前記領域抽出手段は、表示画面上の翻訳
領域における表示内容に応じて、テキストデータあるい
は画像データを抽出することを特徴とする請求項1また
は請求項3記載の翻訳装置。
4. The translation device according to claim 1, wherein the area extracting unit extracts text data or image data according to the display content in the translation area on the display screen.
【請求項5】 画像データから文字に該当する部分を抽
出して文字認識する文字認識手段をさらに具備し、 前記領域抽出手段によって画像データが抽出された場合
に、画像中の文字を示すテキストデータを取得すること
を特徴とする請求項4記載の翻訳装置。
5. Text data indicating a character in an image when the image data is extracted by the area extracting means, further comprising character recognizing means for recognizing a character corresponding to a character extracted from the image data. 5. The translation device according to claim 4, wherein
【請求項6】 前記翻訳領域指示手段によって指示され
る翻訳領域の大きさは任意に変更可能であることを特徴
とする請求項1または請求項3記載の翻訳装置。
6. The translation device according to claim 1, wherein the size of the translation region designated by the translation region designating means can be arbitrarily changed.
【請求項7】 前記翻訳領域指示手段によって指示され
る翻訳領域の位置は、前記訳文表示手段によって訳文を
表示させながら任意に移動可能であることを特徴とする
請求項1または請求項3記載の翻訳装置。
7. The position of the translation area designated by the translation area designating means can be arbitrarily moved while the translated text is displayed by the translated text display means. Translation device.
【請求項8】 前記領域抽出手段によって抽出された原
文の全てを格納する原文メモリと、 前記翻訳手段による翻訳で得られた原文の全てに対応す
る訳文を格納するための訳文メモリと、 前記原文メモリに格納された原文と、前記訳文メモリに
格納された訳文との対応関係を示す情報を格納するため
の対応関係メモリと、 を具備し、 前記訳文表示手段は、前記対応関係メモリに格納された
情報をもとに訳文を取り出し、表示させることを特徴と
する請求項3記載の翻訳装置。
8. An original sentence memory for storing all of the original sentences extracted by the area extracting unit, a translated sentence memory for storing translated sentences corresponding to all of the original sentences obtained by the translation by the translation unit, and the original sentence. A translation relation memory for storing information indicating a correspondence relation between the original sentence stored in the memory and the translation sentence stored in the translation sentence memory, wherein the translation sentence display means is stored in the correspondence relation memory. 4. The translation device according to claim 3, wherein the translated text is extracted based on the information obtained and displayed.
【請求項9】 前記対応関係メモリには、所定の文字列
単位毎に、前記原文メモリに格納された原文の表示画面
上における位置と、前記訳文メモリに格納された訳文の
位置とを対応づけた情報が格納されることを特徴とする
請求項3記載の翻訳装置。
9. The correspondence memory associates, for each predetermined character string unit, the position on the display screen of the original sentence stored in the original sentence memory with the position of the translated sentence stored in the translation sentence memory. The translation device according to claim 3, wherein the information stored is stored.
【請求項10】 表示画面上の翻訳対象とする部分を示
す翻訳領域の指示を入力し、 入力した指示による翻訳領域内の第一言語による原文の
部分を抽出し、 抽出した原文を第二言語による訳文に翻訳し、 この翻訳によって得られた訳文を、表示画面上の翻訳領
域に表示させることを特徴とする翻訳方法。
10. A translation area instruction indicating a portion to be translated on a display screen is input, an original text portion in the first language in the translation area is extracted by the input instruction, and the extracted original sentence is converted into a second language. A translation method characterized by translating the translated text into a translated text, and displaying the translated text obtained by this translation in the translation area on the display screen.
【請求項11】 表示画面上の翻訳対象とする部分を示
す翻訳領域の指示を入力し、 翻訳領域が指示された表示画面内の第一言語による原文
の全てを抽出し、 抽出した原文を第二言語による訳文に翻訳し、 この翻訳によって得られた全ての原文についての訳文か
ら、指示された翻訳領域に対応する訳文を取り出して、
表示画面上の翻訳領域に表示させることを特徴とする翻
訳方法。
11. A translation area instruction indicating a portion to be translated on the display screen is input, all original texts in the first language in the display screen in which the translation area is designated are extracted, and the extracted original texts are extracted. Translated into bilingual translations, and from the translations of all original texts obtained by this translation, extract the translations corresponding to the designated translation area,
A translation method characterized by displaying in a translation area on a display screen.
JP7231621A 1995-09-08 1995-09-08 Method and device for translation Pending JPH0981566A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP7231621A JPH0981566A (en) 1995-09-08 1995-09-08 Method and device for translation
DE69630928T DE69630928T2 (en) 1995-09-08 1996-09-04 Device and method for displaying a translation
EP96306410A EP0762298B1 (en) 1995-09-08 1996-09-04 Translation display apparatus and method
US08/709,544 US5978754A (en) 1995-09-08 1996-09-06 Translation display apparatus and method having designated windows on the display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7231621A JPH0981566A (en) 1995-09-08 1995-09-08 Method and device for translation

Publications (1)

Publication Number Publication Date
JPH0981566A true JPH0981566A (en) 1997-03-28

Family

ID=16926386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7231621A Pending JPH0981566A (en) 1995-09-08 1995-09-08 Method and device for translation

Country Status (4)

Country Link
US (1) US5978754A (en)
EP (1) EP0762298B1 (en)
JP (1) JPH0981566A (en)
DE (1) DE69630928T2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079946A (en) * 2005-09-14 2007-03-29 Fuji Xerox Co Ltd Display device and method of displaying translation result
US11847314B2 (en) 2019-09-20 2023-12-19 Huawei Technologies Co., Ltd. Machine translation method and electronic device

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL121457A (en) * 1997-08-03 2004-06-01 Guru Internat Inc Computerized dictionary and thesaurus applications
DE59801557D1 (en) * 1997-12-29 2001-10-25 Oce Printing Systems Gmbh METHOD AND SYSTEM FOR CONTROLLING A USER INTERFACE WITH GRAPHICS AND TEXTS CONTAINING TEXT
GB9727322D0 (en) 1997-12-29 1998-02-25 Xerox Corp Multilingual information retrieval
JP3666005B2 (en) * 1998-03-03 2005-06-29 マツダ株式会社 Patent information search system, patent information search device, information search relay device, and patent information search method
US7099876B1 (en) 1998-12-15 2006-08-29 International Business Machines Corporation Method, system and computer program product for storing transliteration and/or phonetic spelling information in a text string class
US6496844B1 (en) 1998-12-15 2002-12-17 International Business Machines Corporation Method, system and computer program product for providing a user interface with alternative display language choices
AU6405900A (en) * 1999-06-21 2001-01-09 Cleverlearn.Com Language teaching and translation system and method
US20040205671A1 (en) * 2000-09-13 2004-10-14 Tatsuya Sukehiro Natural-language processing system
US20020133523A1 (en) * 2001-03-16 2002-09-19 Anthony Ambler Multilingual graphic user interface system and method
US20030040899A1 (en) * 2001-08-13 2003-02-27 Ogilvie John W.L. Tools and techniques for reader-guided incremental immersion in a foreign language text
US6993473B2 (en) * 2001-08-31 2006-01-31 Equality Translation Services Productivity tool for language translators
DE10147920A1 (en) * 2001-09-28 2003-04-17 Siemens Ag Digital imaging unit includes writing recognition system to extract and translate text content for display in received image
US7536294B1 (en) * 2002-01-08 2009-05-19 Oracle International Corporation Method and apparatus for translating computer programs
US20030200078A1 (en) * 2002-04-19 2003-10-23 Huitao Luo System and method for language translation of character strings occurring in captured image data
US7209915B1 (en) 2002-06-28 2007-04-24 Microsoft Corporation Method, system and apparatus for routing a query to one or more providers
SG125908A1 (en) * 2002-12-30 2006-10-30 Singapore Airlines Ltd Multi-language communication method and system
US8170863B2 (en) * 2003-04-01 2012-05-01 International Business Machines Corporation System, method and program product for portlet-based translation of web content
US7558841B2 (en) * 2003-05-14 2009-07-07 Microsoft Corporation Method, system, and computer-readable medium for communicating results to a data query in a computer network
US20050086699A1 (en) * 2003-10-16 2005-04-21 Hamilton Relay, Inc. Video relay system and method
US20050111651A1 (en) * 2003-11-21 2005-05-26 Armando Chavez Script translation
US7245705B2 (en) * 2004-02-26 2007-07-17 Hamilton Relay, Inc. Internet protocol (IP) relay system and method
US7669198B2 (en) * 2004-11-18 2010-02-23 International Business Machines Corporation On-demand translator for localized operating systems
JP2006276918A (en) * 2005-03-25 2006-10-12 Fuji Xerox Co Ltd Translating device, translating method and program
US20070048076A1 (en) * 2005-08-31 2007-03-01 To Chun Y Fastening system for a ring binder mechanism
US7992085B2 (en) 2005-09-26 2011-08-02 Microsoft Corporation Lightweight reference user interface
US7788590B2 (en) 2005-09-26 2010-08-31 Microsoft Corporation Lightweight reference user interface
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US9953032B2 (en) 2005-10-26 2018-04-24 Cortica, Ltd. System and method for characterization of multimedia content signals using cores of a natural liquid architecture system
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US9286623B2 (en) 2005-10-26 2016-03-15 Cortica, Ltd. Method for determining an area within a multimedia content element over which an advertisement can be displayed
US9639532B2 (en) 2005-10-26 2017-05-02 Cortica, Ltd. Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US10698939B2 (en) 2005-10-26 2020-06-30 Cortica Ltd System and method for customizing images
US9529984B2 (en) 2005-10-26 2016-12-27 Cortica, Ltd. System and method for verification of user identification based on multimedia content elements
US9558449B2 (en) 2005-10-26 2017-01-31 Cortica, Ltd. System and method for identifying a target area in a multimedia content element
US10535192B2 (en) 2005-10-26 2020-01-14 Cortica Ltd. System and method for generating a customized augmented reality environment to a user
US9087049B2 (en) * 2005-10-26 2015-07-21 Cortica, Ltd. System and method for context translation of natural language
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US9477658B2 (en) 2005-10-26 2016-10-25 Cortica, Ltd. Systems and method for speech to speech translation using cores of a natural liquid architecture system
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US10191976B2 (en) 2005-10-26 2019-01-29 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US10380164B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for using on-image gestures and multimedia content elements as search queries
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US9489431B2 (en) 2005-10-26 2016-11-08 Cortica, Ltd. System and method for distributed search-by-content
US10635640B2 (en) 2005-10-26 2020-04-28 Cortica, Ltd. System and method for enriching a concept database
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US9767143B2 (en) 2005-10-26 2017-09-19 Cortica, Ltd. System and method for caching of concept structures
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US10180942B2 (en) 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US9235557B2 (en) 2005-10-26 2016-01-12 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US9466068B2 (en) 2005-10-26 2016-10-11 Cortica, Ltd. System and method for determining a pupillary response to a multimedia data element
US10360253B2 (en) 2005-10-26 2019-07-23 Cortica, Ltd. Systems and methods for generation of searchable structures respective of multimedia data content
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US9330189B2 (en) 2005-10-26 2016-05-03 Cortica, Ltd. System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US9218606B2 (en) 2005-10-26 2015-12-22 Cortica, Ltd. System and method for brand monitoring and trend analysis based on deep-content-classification
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US8312031B2 (en) 2005-10-26 2012-11-13 Cortica Ltd. System and method for generation of complex signatures for multimedia data content
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US9191626B2 (en) 2005-10-26 2015-11-17 Cortica, Ltd. System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto
US9396435B2 (en) 2005-10-26 2016-07-19 Cortica, Ltd. System and method for identification of deviations from periodic behavior patterns in multimedia content
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US9256668B2 (en) 2005-10-26 2016-02-09 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US8266185B2 (en) 2005-10-26 2012-09-11 Cortica Ltd. System and methods thereof for generation of searchable structures respective of multimedia data content
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US9031999B2 (en) 2005-10-26 2015-05-12 Cortica, Ltd. System and methods for generation of a concept based database
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US20080213734A1 (en) * 2006-04-02 2008-09-04 Steve George Guide Method for Decoding Pictographic Signs Present on Ancient Artifacts
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
JP4256891B2 (en) * 2006-10-27 2009-04-22 インターナショナル・ビジネス・マシーンズ・コーポレーション Technology to improve machine translation accuracy
US20080168049A1 (en) * 2007-01-08 2008-07-10 Microsoft Corporation Automatic acquisition of a parallel corpus from a network
US20090162818A1 (en) * 2007-12-21 2009-06-25 Martin Kosakowski Method for the determination of supplementary content in an electronic device
JP4626777B2 (en) * 2008-03-14 2011-02-09 富士ゼロックス株式会社 Information processing apparatus and information processing program
WO2011146934A2 (en) 2010-05-21 2011-11-24 Western Standard Publishing Company, Inc. Apparatus, system, and method for computer aided translation
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
US8862255B2 (en) 2011-03-23 2014-10-14 Audible, Inc. Managing playback of synchronized content
US9760920B2 (en) 2011-03-23 2017-09-12 Audible, Inc. Synchronizing digital content
US8855797B2 (en) 2011-03-23 2014-10-07 Audible, Inc. Managing playback of synchronized content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US9706247B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Synchronized digital content samples
US9189476B2 (en) * 2012-04-04 2015-11-17 Electronics And Telecommunications Research Institute Translation apparatus and method thereof for helping a user to more easily input a sentence to be translated
US9075760B2 (en) 2012-05-07 2015-07-07 Audible, Inc. Narration settings distribution for content customization
US9317500B2 (en) * 2012-05-30 2016-04-19 Audible, Inc. Synchronizing translated digital content
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US8972265B1 (en) 2012-06-18 2015-03-03 Audible, Inc. Multiple voices in audio content
JP5708569B2 (en) * 2012-06-18 2015-04-30 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program
KR20130143320A (en) * 2012-06-21 2013-12-31 한국전자통신연구원 Apparatus and method for language translation interface using vision tracking
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US10109278B2 (en) 2012-08-02 2018-10-23 Audible, Inc. Aligning body matter across content formats
US8996354B1 (en) * 2012-09-10 2015-03-31 Kabam, Inc. Facilitating localization of linguistic assets of a virtual space
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9170714B2 (en) 2012-10-31 2015-10-27 Google Technology Holdings LLC Mixed type text extraction and distribution
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
CN103294194B (en) * 2013-04-28 2016-12-28 小米科技有限责任公司 A kind of interpretation method based on eye tracking and system
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
KR102135358B1 (en) * 2013-11-05 2020-07-17 엘지전자 주식회사 The mobile terminal and the control method thereof
JP6328409B2 (en) * 2013-11-28 2018-05-23 シャープ株式会社 Translation device
US11037015B2 (en) 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
KR101861006B1 (en) * 2016-08-18 2018-05-28 주식회사 하이퍼커넥트 Device and method of translating a language into another language
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. Driving policies determination
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US10748038B1 (en) 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11270132B2 (en) 2018-10-26 2022-03-08 Cartica Ai Ltd Vehicle to vehicle communication and signatures
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
CN109918685B (en) * 2019-03-18 2023-10-17 百度在线网络技术(北京)有限公司 Computer-aided translation method, device, computer equipment and storage medium
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351189A (en) * 1985-03-29 1994-09-27 Kabushiki Kaisha Toshiba Machine translation system including separated side-by-side display of original and corresponding translated sentences
JPS6244877A (en) * 1985-08-22 1987-02-26 Toshiba Corp Machine translator
GB2199680A (en) * 1986-11-28 1988-07-13 Sharp Kk Translating apparatus
US5005127A (en) * 1987-10-26 1991-04-02 Sharp Kabushiki Kaisha System including means to translate only selected portions of an input sentence and means to translate selected portions according to distinct rules
US5276616A (en) * 1989-10-16 1994-01-04 Sharp Kabushiki Kaisha Apparatus for automatically generating index
JP2758952B2 (en) * 1989-12-28 1998-05-28 富士通株式会社 Display Method for Japanese Document Reading and Translation System at Correction
US5251130A (en) * 1991-04-18 1993-10-05 International Business Machines Corporation Method and apparatus for facilitating contextual language translation within an interactive software application
JPH05120324A (en) * 1991-10-30 1993-05-18 Sharp Corp Language processing system
US5275569A (en) * 1992-01-30 1994-01-04 Watkins C Kay Foreign language teaching aid and method
JPH08227423A (en) * 1995-02-20 1996-09-03 Matsushita Electric Ind Co Ltd Machine translation device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079946A (en) * 2005-09-14 2007-03-29 Fuji Xerox Co Ltd Display device and method of displaying translation result
JP4735148B2 (en) * 2005-09-14 2011-07-27 富士ゼロックス株式会社 Display device and translation result display method
US11847314B2 (en) 2019-09-20 2023-12-19 Huawei Technologies Co., Ltd. Machine translation method and electronic device

Also Published As

Publication number Publication date
EP0762298A3 (en) 2002-01-09
US5978754A (en) 1999-11-02
EP0762298B1 (en) 2003-12-03
DE69630928D1 (en) 2004-01-15
DE69630928T2 (en) 2004-10-28
EP0762298A2 (en) 1997-03-12

Similar Documents

Publication Publication Date Title
JPH0981566A (en) Method and device for translation
JP3038079B2 (en) Automatic translation device
JPS62203273A (en) Mechanical translation system
JPH02140868A (en) Machine translating system
JP2000148748A (en) Japanese syllbary-to-chinese character conversion and image retrieval and display system
JP3352799B2 (en) Machine translation method and machine translation device
JPS5969829A (en) Device for documentation
JP2838984B2 (en) General-purpose reference device
JP3034295B2 (en) Machine translation method and machine translation device
JP2894064B2 (en) Machine translation equipment
JP2635551B2 (en) Machine translation system
JPH087749B2 (en) Machine translation device
JPH06266753A (en) Word processor
JPH08297659A (en) Character string conversion processing system
JPH07152763A (en) Machine translation system and its translating method
JPH07182344A (en) Machine translation system
JPH0844745A (en) Machine translation device
JPH0773185A (en) Machine translation system and method therefor
JPH0443464A (en) Dictionary retrieval processing system
JPH06266765A (en) Sentence retrieving device
JPH09153038A (en) Document preparation device
JPH02297151A (en) Document editing device
JPH0656612B2 (en) Machine translation system
JPS62203271A (en) Mechanical translation system
JPH04551A (en) Character/code input system