WO2005106706A2 - Verfahren sowie anordnung zum automatischen übersetzen eines textes - Google Patents

Verfahren sowie anordnung zum automatischen übersetzen eines textes Download PDF

Info

Publication number
WO2005106706A2
WO2005106706A2 PCT/EP2005/051630 EP2005051630W WO2005106706A2 WO 2005106706 A2 WO2005106706 A2 WO 2005106706A2 EP 2005051630 W EP2005051630 W EP 2005051630W WO 2005106706 A2 WO2005106706 A2 WO 2005106706A2
Authority
WO
WIPO (PCT)
Prior art keywords
mobile terminal
text
terminal
target language
output
Prior art date
Application number
PCT/EP2005/051630
Other languages
English (en)
French (fr)
Other versions
WO2005106706A3 (de
Inventor
Vivek Kulkarni
Aditya Mavlankar
Vishal Sankhla
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2005106706A2 publication Critical patent/WO2005106706A2/de
Publication of WO2005106706A3 publication Critical patent/WO2005106706A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Definitions

  • the invention relates to a method for automatically translating a text according to the preamble of claim 1 and an arrangement for automatically translating a text according to the preamble of claim 14.
  • a disadvantage of this system is that scanning devices are usually used to capture the text, onto which a respective template with the text has to be placed for scanning the text, and which generally have to be connected to a data processing device.
  • the object on which the invention is based is to specify a method and an arrangement which implement a more flexible system for the automatic translation of texts.
  • a template containing the text is recorded by means of a digital camera assigned to a mobile terminal. Furthermore, parts of the text are recorded within this recording, followed by a translation of the parts of the text recorded from the source language of the texts in accordance with a set of information into a target language, and output of the translated parts of the text on the mobile terminal device.
  • a digital camera assigned to the mobile terminal By using a digital camera assigned to the mobile terminal, increased mobility in the automatic translation of texts is achieved.
  • a template does not have to be placed directly on a recording device or placed in front of it, but there is the possibility of also capturing text from a distance, whereby the zoom functions of the digital camera make it possible to cover a recorded area to narrow it down more precisely or to increase the detection probability of the text so that the text parts can be successfully captured within the recording.
  • the output is preferably carried out by displaying the translated text parts on an image display device, in particular the display of the terminal, so that the translation can be read.
  • the output can also take place by sound output of voice signals by means of a sound output device, in particular the integrated loudspeaker of the terminal or a headset assigned to the terminal, the voice signals being generated by feeding the translated text parts to a voice generator. Due to the creation of electronic text output data required for the output on a display or the aforementioned sound output, it is also possible to have this data transmitted to other terminals by the mobile terminal.
  • the recorded text is preferably filtered for edge detection. This enables the digital image to be narrowed down to text elements, with filtering preferably being carried out according to the Sobel algorithm.
  • coherent text units for example meaningful words
  • the terminal is enabled to select the suitable databases, what ultimately leads to faster translation implementation.
  • the mobile terminal is operated as part of a cordless communication arrangement in which the mobile terminal is connected to a plurality of terminals for data exchange via a radio link with at least one stationary terminal on a network.
  • the device can transmit its results to other communication participants at any time, so that a further increase in flexibility is realized.
  • a first of the plurality of end devices is operated as a database such that a vocabulary of the source language and a vocabulary of at least one target language are stored so that they can be referenced.
  • This variant relieves the burden on a mobile terminal device in that it does not require extensive memory to record vocabulary.
  • a further development in which the mobile terminal is relieved, is formed when the recorded template is transmitted to the first and / or a second of the plurality of stationary terminals, the detection and / or translation in the first terminal and / or in second terminal is carried out and the output of the translated text parts is based on the results obtained in the previous step.
  • the effort of translating by the mobile end device is reduced only to the inclusion of a template and a transfer thereof, so that there is almost complete relief.
  • a further very advantageous development is given if at least when establishing a radio connection to the network at least one language valid from the geographical area of the network is communicated to the terminal as the target language, and the preliminary information is formed at least in part on the basis of the message.
  • a memory assigned to the mobile terminal is operated as a database, in such a way that a vocabulary of the source language and a vocabulary of at least one target language are stored therein in a reference manner.
  • This embodiment variant is particularly advantageous when the mobile terminal has no radio connection to networks of any kind.
  • the acquisition and / or translation is then preferably carried out in the mobile terminal.
  • the arrangement for automatically translating a text is characterized by a mobile terminal with a camera assigned to the terminal, a detection device for detecting text parts within a photograph, a translation device for translating detected text parts from a source language of the texts according to preliminary information into a target language and output means for outputting translated parts of text on the mobile device.
  • the arrangement according to the invention enables a particularly simple implementation of the method according to the invention.
  • This figure shows a flow chart of the method according to the invention.
  • an embodiment of the method according to the invention is shown, which is carried out by a handset in which a digital camera is integrated.
  • This digital camera initially records a text in a first step S1.
  • the user simply points the camera at the desired text, possibly zooming in on the text in order to make it easier to read the text or to limit the area to be translated.
  • the method according to the invention goes from this first step S1 to a second step S2, in which segmentation and detection of text blocks takes place.
  • the captured image goes through processes that filter the picture, in such a way that an edge detection takes place.
  • a very suitable filter here is, for example, the Sobel filter.
  • more suitable segmentation algorithms can also be used.
  • a character recognition is carried out in a third step S3.
  • a support for the recognition method in the form of training by a neural network is also made available in a fourth step S4, the results of this training for future runs are available and a gradual improvement of the translation is guaranteed.
  • step S5 following the third step S3 or fourth step S4, the text passages are now translated, with a corresponding word meaning analysis being carried out, of course.
  • this step advantageously makes use of a particularly outsourced language database which contains at least one target language in the form of referable vocabulary.
  • the method steps from the third step S3 to the sixth step S6 are repeated until the text block detected in the second step has been completely translated, so that the translation can be output in a seventh step S7.
  • a seventh step S7 there are the possibilities of visual output by means of the display of the mobile part or auditory output by loudspeakers or headphones of the mobile part, in particular cell phones.
  • These generated outputs can of course then be transmitted to other users in a known manner, for example as a multimedia message and / or SMS, by means of the wireless connection of the handset or cell phone to its network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren sowie eine Anordnung zum automatischen Übersetzen eines Textes bei dem eine Aufnahme einer den Text enthaltenden Vorlage mittels einer einem mobilen Endgerät zugeordneten digitalen Kamera erfolgt. Des Weiteren erfolgt ein Erfassen von Textteilen innerhalb dieser Aufnahme, anschliessend eine Übersetzung der erfassten Textteile von der Quellsprache der Texte gemäss einer Vorgabeinformation in eine Zielsprache sowie eine Ausgabe der überset- zen Textteile auf dem mobilen Endgerät zugeordneten Ausgabemitteln.

Description

Beschreibung
Verfahren sowie Anordnung zum automatischen Übersetzen eines Textes
Die Erfindung betrifft ein Verfahren zum automatischen Übersetzen eines Textes gemäß dem Gattungsbegriff des Anspruchs 1 sowie eine Anordnung zum automatischen Übersetzen eines Textes gemäß dem Gattungsbegriff des Anspruchs 14.
Das Problem, Texte in eine andere Sprache übersetzen zu müssen, existiert schon sehr lange. Derzeit wird in der Regel eine derartige Übersetzung durch hierfür ausgebildete geschulte Menschen durchgeführt. Durch die fortlaufende Ent— wicklung der Computertechnologie wird seit einiger Zeit aber auch ein Verfahren bereitgestellt, welches das Detektieren und Erkennen von Texten ermöglicht. Der Einsatz eines solchen als Optical Character Recognition OCR bekannten Verfahrens ist inzwischen durch alle gängigen sogenannten Scannern (Scan—Einrichtungen) unterstützt.
Nachteilig bei diesem System ist es, dass in der Regel zum Erfassen des Textes Scan-Einrichtungen verwendet werden, auf die für eine Abtastung des Textes eine jeweilige Vorlage mit dem Text gelegt werden muss, und welche in der Regel mit einem Datenverarbeitungseinrichtung verbunden sein müssen.
Die der Erfindung zugrundeliegende Aufgabe ist es, ein Verfahren und eine Anordnung anzugeben, die ein flexibleres Sys— tem zur automatischen Übersetzung von Texten realisieren.
Diese Aufgabe wird ausgehend von den Merkmalen des Oberbegriffs des Verfahrensanspruchs 1 durch dessen kennzeichnende Merkmale sowie ausgehend von den Merkmalen des Oberbegriffs des Anordnungsanspruchs 15 durch dessen kennzeichnende Merkmale gelöst. Bei dem er indungsgemäßen Verfahren zum automatischen Übersetzen eines Textes erfolgt eine Aufnahme einer den Text enthaltenden Vorlage mittels einer einem mobilen Endgerät zugeordneten digitalen Kamera. Des Weiteren erfolgt ein Erfassen von Textteilen innerhalb dieser Aufnahme, anschließend eine Übersetzung der erfassten Textteile von der Quellsprache der Texte gemäß einer Vorgabeinformation in eine Zielsprache sowie eine Ausgabe der übersetzen Textteile auf dem mobilen Endgerät zugeordneten Ausgabemitteln.
Durch Verwenden einer der dem mobilen Endgerät zugeordneten digitalen Kamera wird eine erhöhte Mobilität bei der automatischen Übersetzung von Texten erreicht. Zudem muss im Vergleich zu Scan-Einrichtungen eine Vorlage nicht direkt auf eine Erfassungseinrichtung gelegt werden oder vor ihr platziert werden, sondern es besteht die Möglichkeit, auch aus der Ferne Texte zu erfassen, wobei durch Zoomfunktionalitäten der digitalen Kamera die Möglichkeit besteht, ein erfasstes Gebiet genauer einzugrenzen bzw. die Detektionswahrschein— lichkeit des Textes zu erhöhen, so dass das Erfassen der Textteile innerhalb der Aufnahme erfolgreich durchgeführt werden kann. Durch die Übersetzung dieser Textteile und Ausgabe derselben auf dem mobilen Endgerät zugeordneten Ausgabe— mitteln kann ein Nutzer eines derartigen Endgerätes an jedem beliebigen Ort Übersetzungen generieren.
Vorzugsweise erfolgt hierbei die Ausgabe durch Anzeige der übersetzten Textteile auf einer Bildwiedergabevorrichtung, insbesondere Display des Endgerätes, so dass ein Ablesen der Übersetzung möglich ist. Alternativ und ergänzend hierzu kann die Ausgabe auch durch Schallabgabe von Sprachsignalen mittels einer Schallabgabevorrichtung, insbesondere dem integrierten Lautsprecher des Endgerätes oder einem dem Endgerät zugeordneten Headsets, erfolgen, wobei die Sprachsignale durch Zuführen der übersetzten Textteile an einen Sprachgenerator erzeugt werden. Durch die für die Ausgabe auf einer Anzeige oder die genannte Schallabgabe erforderlicher Erstellung einer elektronischen Textausgabedaten ist es möglich diese vorliegenden Daten auch durch das mobile Endgerät anderen Endgeräten übermitteln zu lassen.
Vorzugsweise erfolgt eine Filterung des aufgenommenen Textes zur Randdetektion. Hierdurch wird aus dem digitalen Bild ein Eingrenzen auf Textelemente möglich, wobei bevorzugt hierzu eine Filterung gemäß dem Sobel-Algorithmus durchgeführt wird.
Wird das Ergebnis der Filterung einer Analyse zur Zeichenerkennung zugeführt, können zusammenhängende Texteinheiten, beispielsweise sinnbehaftete Worte, ermittelt werden.
Hierbei ist es von Vorteil, wenn die Zeichenerkennung gestützt auf einem neuronalen Netzwerk durchgeführt wird, da hierdurch eine Art künstliche Intelligenz die Erkennungswahrscheinlichkeit erhöht.
Wird durch das mobile Endgerät einem Nutzer des mobilen Endgerätes eine Aufforderung zur Eingabe einer Quell— und oder zumindest einer Zielsprache ausgegeben und die Vorabinforma— tion zumindest teilweise auf Grundlage der Eingabe gebildet, wird das Endgerät in die Lage versetzt, die geeigneten Datenbanken auszuwählen, was letztendlich zu einer schnelleren Umsetzung der Übersetzung führt .
Besonders vorteilhaft ist es, wenn das mobile Endgerät als Teil einer Schnurlos-Kommunikationsanordnung betrieben wird, bei der das mobile Endgerät über eine Funkverbindung mit zumindest einem stationären Endgerät an einem Netzwerk mit einer Vielzahl von Endgeräten zum Datenaustausch verbunden ist. Hierdurch kann das Gerät jederzeit seine Ergebnisse an andere Kommunikationsteilnehmer übermitteln, so dass eine weitere Flexibilitätssteigerung realisiert ist. Des Weiteren ist es möglich, zumindest Teile der für die Erkennung des Textes zu- ständigen Prozesse auf die in dem Netzwerk vorhandenen stationären Endgeräte zu verteilen, welche zumeist über eine höhere Rechenkapazität verfügen als derzeitige mobile Endgeräte. Dies führt letztendlich zu einer weiteren Beschleunigung des Verfahrens und zu einer Entlastung bzw. Ressourcenschonung mobiler Endgeräte.
Vorzugsweise wird aber ein erstes der Vielzahl der Endgeräte als Datenbasis derart betrieben, dass ein Wortschatz der Quellsprache und ein Wortschatz zumindest einer Zielsprache referenzierbar abgelegt wird. Durch diese Variante wird ein mobiles Endgerät dahingehend entlastet, dass es keinen umfangreichen Speicher zur Aufnahme von Vokabeln benötigt . Zudem wird hierdurch eine weitere Flexibilitäts Steigerung er— zielt, da nun auf eine Vielzahl von in Datenbasen abgelegten Sprachwortschätzen zugegriffen werden kann, da diese Vielzahl von Endgeräten quasi ein Wissensnetzwerk bilden.
Eine Weiterbildung, bei der eine angesprochene Entlastung des mobilen Endgerätes erfolgt, wird gebildet, wenn die aufgenommene Vorlage an das erste und/oder ein zweites der Vielzahl der stationären Endgeräte übertragen wird, das Erfassen und/oder die Übersetzung im ersten Endgerät und/oder im zweiten Endgerät durchgeführt wird und die Ausgabe letztendlich der übersetzten Textteile auf Grundlage von den im vorangegangenen Schritt erzielten Ergebnissen erfolgt. Hierdurch reduziert sich der Aufwand des Übersetzens durch das mobile Ξndgerät lediglich auf die Aufnahme einer Vorlage sowie ein Übertragen derselben, so dass eine nahezu vollständige Ent— lastung gegeben ist.
Eine weitere sehr vorteilhafte Weiterbildung ist gegeben, wenn zumindest beim erstmaligen Aufbau einer Funkverbindung mit dem Netzwerk zumindest eine von dem geografischen Gebiet des Netzwerks gültige Sprache dem Endgerät als Zielsprache mitgeteilt wird, sowie die Vorabinformation zumindest teilweise auf Grundlage der Mitteilung gebildet wird. Durch diese Weiterbildung lässt sich eine automatische Übersetzung erzielen, die angepasst an das jeweilige Land, in dem sich ein Nutzer des mobilen Endgerätes befindet, eine in dem jeweiligen Land gültige Amtssprache oder Landessprache bzw. gültige Amtssprachen automatisch als Zielsprache einstellt bzw. dem Nutzer als eine der möglichen Zielsprachen anbietet.
Alternativ zur Auslagerung der Datenbasis innerhalb eines Netzwerks ist es von Vorteil, wenn ein dem mobilen Endgerät zugeordneter Speicher als Datenbasis betrieben wird und zwar derart, dass ein Wortschatz der Quellsprache und ein Wortschatz zumindest einer Zielsprache darin referenzierbar abgelegt ist. Diese Ausführungsvariante ist insbesondere dann von Vorteil, wenn das mobile Endgerät über keine Funkverbindung zu Netzen irgendeiner Art aufweist. Vorzugsweise wird dann bei diesem System auch die Erfassung und/oder die Übersetzung im mobilen Endgerät durchgeführt .
Die Anordnung zum automatischen Übersetzen eines Textes ist gekennzeichnet durch ein mobiles Endgerät mit einer dem Endgerät zugeordneten Kamera, einer Erfassungseinrichtung zum Erfassen von Textteilen innerhalb einer fotografischen Aufnahme, einer Übersetzungseinrichtung zur Übersetzung erfass- ter Textteile von einer Quellsprache der Texte gemäß einer Vorabinformation in eine Zielsprache sowie Ausgabemittel zur Ausgabe übersetzter Textteile auf dem mobilen Endgerät. Durch die erfindungsgemäße Anordnung ist eine besonders einfache Umsetzung des erfindungsgemäßen Verfahrens möglich.
Weitere Vorteile und Einzelheiten der Erfindung werden anhand des in der einzigen Figur dargestellten Ausführungsbeispiels erläutert .
Diese Figur zeigt ein Ablaufdiagramm des erfindungsgemäßen Verfahrens.
In der Figur ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens dargestellt, welches durch ein Mobilteil ausgeführt wird, in das eine digitale Kamera integriert ist. Durch diese digitale Kamera erfolgt zunächst in einem ersten Schritt Sl eine Aufnahme eines Textes. Hierzu richtet der Nutzer die Kamera einfach auf den gewünschten Text, eventuell zoomt er den Text heran, um eine bessere Erfassbarkeit des Textes zu ermöglichen bzw. den Bereich, der übersetzt werden soll, einzugrenzen.
Ausgelöst durch die Aufnahme geht das erfindungsgemäße Verfahren von diesem ersten Schritt Sl in einen zweiten Schritt S2, in dem eine Segmentation sowie eine Detektion von Text— blocken erfolgt. Hierbei durchläuft das erfasste Bild Prozes- se, die die Aufnahme filtern, und zwar dahingehend, dass eine Randdetektion erfolgt. Ein hier sehr gut geeigneter Filter ist beispielsweise der Sobel—Filter. Je nach verfügbarer Rechenkapazität können aber auch besser geeignete Segmenta tionsalgorithmen verwendet werden.
Ist auf diese Art ein Textblock detektiert, wird in einem dritten Schritt S3 eine Zeichenerkennung durchge ührt. Hierbei ist es besonders von Vorteil, wenn zusätzlich zu einem simplen Vergleich zwischen gespeicherten und erfassten Zei- chen in einem vierten Schritt S4 als Option auch eine Unterstützung des Erkennungsverfahrens in Form eines Trainings durch ein neuronales Netzwerk zur Verfügung gestellt wird, wobei Ergebnisse dieses Trainings für zukünftige Durchläufe zur Verfügung stehen und somit eine schrittweise Verbesserung der Übersetzung gewährleistet ist.
In einem dem dritten Schritt S3 bzw. vierten Schritt S4 folgenden fünften Schritt S5 erfolgt nun eine Übersetzung der erfassten Textstellen, wobei hierzu natürlich eine entspre— chende Wortbedeutungsanalyse erfolgt. Vorteilhaft greift dabei dieser Schritt in einem sechsten Schritt S6 auf eine insbesondere ausgelagerte Sprachdatenbank zurück, welche zu in- dest eine Zielsprache in Form von referenzierbaren Vokabeln enthält .
Die Verfahrensschritte vom dritten Schritt S3 bis hin zum sechsten Schritt S6 werden solange wiederholt, bis der in dem zweiten Schritt detektierte Textblock vollständig übersetzt ist, so dass in einem siebten Schritt S7 eine Ausgabe der Ü— bersetzung erfolgen kann. Hierzu bestehen erfindungsgemäß die Möglichkeiten der visuellen Ausgabe mittels Display des Mo— bilteils oder der auditiven Ausgabe durch Lautsprecher oder Kopfhörer des Mobilteils, insbesondere Handys. Diese erzeugten Ausgaben können natürlich dann mittels der drahtlosen An— bindung des Mobilteils bzw. Handys an sein Netz an andere Nutzer in bekannter Art und Weise beispielsweise als Multime- dia Nachricht und/oder SMS übertragen werden.

Claims

Patentansprüche
1. Verfahren zum automatischen Übersetzen eines Textes mit den folgenden Schritten: a) Aufnahme einer den Text enthaltenden Vorlage mittels einer einem mobilen Endgerät zugeordneten digitalen Kamera, b) Erfassen von Textteilen innerhalb der Aufnahme, c) Übersetzung der erfassten Textteile von der Quellspra- ehe der Texte gemäß einer Vorgabeinformation in eine Zielsprache, d) Ausgabe der übersetzten Textteile auf dem mobilen Endgerät zugeordneten Ausgabemitteln.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Ausgabe durch Anzeige der übersetzten Textteile auf einer Bildausgabevorrichtung erfolgt.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Ausgabe durch Schallabgabe von Sprachsignalen mittels einer Schallabgabevorrichtung erfolgt, wobei die Sprach— Signale durch Zuführen der übersetzten Textteile an einen Sprachgenerator erzeugt werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Filterung zur Randdetek— tion innerhalb der Aufnahme erfolgt .
5. Verfahren nach dem vorangegangenen Anspruch, dadurch ge- kennzeichnet, dass die Filterung gemäß dem Sobel Algorithmus erfolgt .
6. Verfahren nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass das Ergebnis der Filterung einer Ana— lyse zur Zeichenerkennung zugeführt wird.
7. Verfahren nach dem vorangegangenen Anspruch, dadurch gekennzeichnet, dass Zeichenerkennung gestützt auf ein neuronales Netzwerk durchgeführt wird.
8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass a) durch das mobile Endgerät einem Nutzer des mobilen Endgerätes eine Aufforderung zur Eingabe einer Quell- und/oder zumindest einer Zielsprache ausgegeben wird, b) die Vorabinformation zumindest teilweise auf Grundlage der Eingabe gebildet wird.
9. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das mobile Endgerät als Teil einer Schnurlos—Kommunikationsanordnung betrieben wird, bei der das mobile Endgerät über eine Funkverbindung mit zumindest einem stationären Ξndgerät an ein Netzwerk mit einer Vielzahl von Endgeräten zum Datenaustausch verbunden wird.
10.Verfahren nach dem vorangegangenen Anspruch, dadurch gekennzeichnet, dass eines erstes der Vielzahl der Endgeräte als Datenbasis derart betrieben wird, dass ein Wortschatz der Quellsprache und ein Wortschatz zumindest ei— ner Zielsprache referenzierbar abgelegt wird.
11.Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass a) die aufgenommene Vorlage an das erste und/oder ein zweites der Vielzahl der Endgeräte übertragen wird, b) das Erfassen und/oder die Übersetzung im ersten Endgerät und/oder im zweiten Endgerät durchgeführt wird, c) die Ausgabe der übersetzten Textteile auf Grundlage von im Schritt b) erzielten Ergebnissen erfolgt.
12.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass a) zumindest bei erstmaligem Aufbau einer Funkverbindung mit dem Netzwerk zumindest eine von in dem geographischen Gebiet des Netzwerks gültige Sprache als Endgerät als Zielsprache mitgeteilt wird, b) die Vorabinformation zumindest teilweise auf Grundlage der Mitteilung gebildet wird.
13.Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass ein dem mobilen Endgerät zugeordneter Speicher als Datenbasis derart betrieben wird, dass ein Wortschatz der Quellsprache und ein Wortschatz zumindest einer Zielsprache referenzierbar abgelegt wird.
14.Verfahren nach dem vorhergehenden Anspruch, dadurch ge— kennzeichnet, dass die Erfassung und/oder Übersetzung im mobilen Endgerät durchgeführt wird.
PCT/EP2005/051630 2004-04-27 2005-04-13 Verfahren sowie anordnung zum automatischen übersetzen eines textes WO2005106706A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004020536 2004-04-27
DE102004020536.1 2004-04-27

Publications (2)

Publication Number Publication Date
WO2005106706A2 true WO2005106706A2 (de) 2005-11-10
WO2005106706A3 WO2005106706A3 (de) 2006-05-04

Family

ID=35044880

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/051630 WO2005106706A2 (de) 2004-04-27 2005-04-13 Verfahren sowie anordnung zum automatischen übersetzen eines textes

Country Status (1)

Country Link
WO (1) WO2005106706A2 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1804175A1 (de) * 2005-12-29 2007-07-04 Mauro Barutto Akustisches und visuelles Gerät zur simultanes Dolmetschen
WO2008053265A1 (en) * 2006-10-31 2008-05-08 Nokia Corporation Method, apparatus and computer program product for implementing an index-based search algorithm for use with a translation program
US20090245752A1 (en) * 2008-03-27 2009-10-01 Tatsunobu Koike Imaging apparatus, character information association method and character information association program
EP2587389A1 (de) * 2011-10-28 2013-05-01 Alcatel Lucent System und Verfahren zur Erzeugung übersetzter touristischer Informationen
CN107766336A (zh) * 2017-09-12 2018-03-06 吉志勇 远程实时翻译运营***及其运营方法
DE102019133535A1 (de) * 2019-12-09 2021-06-10 Fresenius Medical Care Deutschland Gmbh Medizinisches System und Verfahren zum Darstellen von Informationen betreffend eine Blutbehandlung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1079331A1 (de) * 1999-08-25 2001-02-28 Only Solutions GmbH Einfügung in digitale Bilder der Übersetzungen ursprünglicher Textelemente
US20010032070A1 (en) * 2000-01-10 2001-10-18 Mordechai Teicher Apparatus and method for translating visual text
US20010056342A1 (en) * 2000-02-24 2001-12-27 Piehn Thomas Barry Voice enabled digital camera and language translator
DE10147920A1 (de) * 2001-09-28 2003-04-17 Siemens Ag Digitales Bildaufnahmegerät
US20030120478A1 (en) * 2001-12-21 2003-06-26 Robert Palmquist Network-based translation system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2574262B2 (ja) * 1986-11-20 1997-01-22 松下電器産業株式会社 ナンバ−プレ−ト自動認識装置
JPH06111067A (ja) * 1992-09-30 1994-04-22 Glory Ltd 文字認識方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1079331A1 (de) * 1999-08-25 2001-02-28 Only Solutions GmbH Einfügung in digitale Bilder der Übersetzungen ursprünglicher Textelemente
US20010032070A1 (en) * 2000-01-10 2001-10-18 Mordechai Teicher Apparatus and method for translating visual text
US20010056342A1 (en) * 2000-02-24 2001-12-27 Piehn Thomas Barry Voice enabled digital camera and language translator
DE10147920A1 (de) * 2001-09-28 2003-04-17 Siemens Ag Digitales Bildaufnahmegerät
US20030120478A1 (en) * 2001-12-21 2003-06-26 Robert Palmquist Network-based translation system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN Bd. 012, Nr. 388 (P-771), 17. Oktober 1988 (1988-10-17) & JP 63 131281 A (MATSUSHITA ELECTRIC IND CO LTD), 3. Juni 1988 (1988-06-03) *
PATENT ABSTRACTS OF JAPAN Bd. 018, Nr. 394 (P-1775), 22. Juli 1994 (1994-07-22) & JP 06 111067 A (GLORY LTD), 22. April 1994 (1994-04-22) *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1804175A1 (de) * 2005-12-29 2007-07-04 Mauro Barutto Akustisches und visuelles Gerät zur simultanes Dolmetschen
WO2008053265A1 (en) * 2006-10-31 2008-05-08 Nokia Corporation Method, apparatus and computer program product for implementing an index-based search algorithm for use with a translation program
US20090245752A1 (en) * 2008-03-27 2009-10-01 Tatsunobu Koike Imaging apparatus, character information association method and character information association program
US8705878B2 (en) * 2008-03-27 2014-04-22 Sony Corporation Imaging apparatus, character information association method and character information association program
EP2587389A1 (de) * 2011-10-28 2013-05-01 Alcatel Lucent System und Verfahren zur Erzeugung übersetzter touristischer Informationen
CN107766336A (zh) * 2017-09-12 2018-03-06 吉志勇 远程实时翻译运营***及其运营方法
DE102019133535A1 (de) * 2019-12-09 2021-06-10 Fresenius Medical Care Deutschland Gmbh Medizinisches System und Verfahren zum Darstellen von Informationen betreffend eine Blutbehandlung

Also Published As

Publication number Publication date
WO2005106706A3 (de) 2006-05-04

Similar Documents

Publication Publication Date Title
DE10220524B4 (de) Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
EP1912474B1 (de) Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
DE102019200954A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
EP0814611A2 (de) Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
WO2005106706A2 (de) Verfahren sowie anordnung zum automatischen übersetzen eines textes
EP2389753B1 (de) Konferenzsystem und zugeordnetes signalgebungsverfahren
DE112019007677T5 (de) Posenvorhersageverfahren, Modelltrainingsverfahren und Vorrichtung
DE10054583C2 (de) Verfahren und Vorrichtung zum Aufzeichnen, Suchen und Wiedergeben von Notizen
DE102005013639A1 (de) Verfahren und System zum Ausgeben von Daten
CN111133507A (zh) 一种语音合成方法、装置、智能终端及可读介质
DE102019200956A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
DE102011085361A1 (de) Mikrofoneinrichtung
DE10220521A1 (de) Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
EP2047668B1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
EP1361740A1 (de) Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs
WO2004070485A1 (de) Projektion von synthetischer information
EP0045941B1 (de) Wählverfahren zum Verbindungsaufbau in einem Fernsprechvermittlungssystem mit digitaler Sprachübertragung
EP3940692A1 (de) Verfahren zum automatischen lippenlesen mittels einer funktionskomponente und zum bereitstellen der funktionskomponente
DE4243181C2 (de) Sprachgesteuerte Vorrichtung und Verfahren zu deren Betrieb
EP1361738A1 (de) Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
CN115333879A (zh) 一种远程会议方法及***
CN111508500B (zh) 一种语音情绪识别方法、***、装置和存储介质
EP1554898A2 (de) Konverter für mobilfunknetze zur erzeugung von einheitsformaten
EP1363271A1 (de) Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
CN113160942A (zh) 影像数据质量评估方法、装置、终端设备及可读存储介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase