DE112016006504T5 - Sprachführungseinrichtung und Sprachführungsverfahren - Google Patents

Sprachführungseinrichtung und Sprachführungsverfahren Download PDF

Info

Publication number
DE112016006504T5
DE112016006504T5 DE112016006504.3T DE112016006504T DE112016006504T5 DE 112016006504 T5 DE112016006504 T5 DE 112016006504T5 DE 112016006504 T DE112016006504 T DE 112016006504T DE 112016006504 T5 DE112016006504 T5 DE 112016006504T5
Authority
DE
Germany
Prior art keywords
guide
attribute
visual recognition
unit
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112016006504.3T
Other languages
English (en)
Other versions
DE112016006504B4 (de
Inventor
Hayato UCHIDE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016006504T5 publication Critical patent/DE112016006504T5/de
Application granted granted Critical
Publication of DE112016006504B4 publication Critical patent/DE112016006504B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Sprachführungseinrichtung umfasst: eine Führungsobjektbestimmungseinheit zum Ausgeben eines Führungsobjekts, zu welchem eine Sichtlinie eines Benutzers geführt wird; eine visuelles-Erkennungsobjekt-Erfassungseinheit zum Erfassen eines visuellen Erkennungsobjekts, welches der Benutzer betrachtet, aus Informationen, anzeigend eine Richtung der Sichtlinie des Benutzers; eine Differenzerfassungseinheit zum Erfassen einer Differenz zwischen einem Attribut des visuellen Erkennungsobjekts und einem Attribut des Führungsobjekts; eine Generierungseinheit zum Generieren eines Führungssatzes, aufweisend das Attribut des Führungsobjekts; und eine Syntheseeinheit, zum, wenn eine Differenz zwischen dem Attribut des in dem Führungssatz enthaltenen Führungsobjekts und dem Attribut des visuellen Erkennungsobjekts vorhanden ist, Synthetisieren und Ausgeben von Sprache des Führungssatzes, betonend ein Wort des Attributs, das die Differenz aufweist. Daher ist es möglich, den Benutzer in einer leicht erkennbaren Weise darüber zu informieren, dass sich das visuelle Erkennungsobjekt des Benutzers vom Führungsobjekt unterscheidet, wenn das visuelle Erkennungsobjekt des Benutzers und das Führungsobjekt unterschiedlich sind.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Sprachführungseinrichtung zum Bereitstellen von Informationen für einen Benutzer durch Sprache.
  • HINTERGRUND ZUM STAND DER TECHNIK
  • Seit den letzten Jahren werden Routenführungseinrichtungen für Fahrzeuge weithin eingesetzt. Routenführungseinrichtungen werden auch als Navigationseinrichtungen bezeichnet. Wenn ein Ziel von einem Benutzer eingegeben wird, stellt eine Routenführungseinrichtung eine optimale Route von der aktuellen Position zu dem Ziel ein und stellt eine Führung entlang der eingestellten optimalen Route bereit, um den Benutzer zu dem Ziel zu führen. Darüber hinaus kann ein externes Informationszentrum Karteninformationen und zugehörige Informationen über das Internet an die Routenführungseinrichtung verteilen.
  • Daher kann die Routenführungseinrichtung eine Routenführung unter Verwendung der neuesten Karteninformationen und zugehöriger Informationen bereitstellen.
  • Es wird eine Routenführungseinrichtung mit einer visuellen Erkennungsführungseinrichtung zum Erfassen einer Sichtlinienrichtung eines Fahrers und eines Sichtobjekts unter Verwendung einer vor einem Fahrersitz eines Fahrzeugs angebrachten Augenkamera offenbart, zum Beurteilen, ob die Sichtlinienrichtung des Fahrers und das Sichtobjekt in Bezug auf eine Route korrekt sind, und zum Durchführen einer positiven Sprachführung in einem Fall, wenn sie korrekt sind, und zum Führen der Sichtlinie des Fahrers in einem Fall, wenn sie inkorrekt sind. In einem Fall, wenn die Sichtrichtung des Fahrers und das Sichtobjekt in Bezug auf die Route inkorrekt sind, führt die visuelle Erkennungsführungseinrichtung eine Sprachführung durch, um die Sichtlinie des Fahrers zu einer abzweigenden Straße zu führen, auf der geführt werden soll, unter Verwendung eines Objekts, das der Fahrer als eine Referenz betrachtet (siehe Patentliteratur 1 unten).
  • LISTE ZITIERTER SCHRIFTEN
  • PATENTLITERATUR
  • Patentliteratur 1: JP 2004-37151 A
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • TECHNISCHES PROBLEM
  • In Patentliteratur 1 wird in einem Fall, bei dem die Sichtlinienrichtung des Fahrers und das Sichtobjekt in Bezug auf die Route inkorrekt sind, eine Sprachführung durchgeführt, um die Sichtlinie des Fahrers zu einer abzweigenden Straße zu führen, auf der geführt werden soll, unter Verwendung des Objekts, das der Fahrer als eine Referenz betrachtet. Da es sich bei der Sprachführung jedoch um eine normale Lesesprache handelt, besteht das Problem, dass es für den Fahrer schwierig ist, zu erkennen, dass der Fahrer ein anderes Objekt betrachtet als die abzweigende Straße, auf der geführt werden soll.
  • Die vorliegende Erfindung wurde entwickelt, um die oben genannten Probleme zu lösen, und eine Aufgabe der vorliegenden Erfindung besteht darin, eine Sprachführungseinrichtung bereitzustellen, die einen Benutzer in einer leicht erkennbaren Weise darüber informiert, dass sich das visuelle Erkennungsobjekt des Benutzers von einem Führungsobjekt unterscheidet, wenn das visuelle Erkennungsobjekt des Benutzers und das Führungsobjekt unterschiedlich sind.
  • LÖSUNG DES PROBLEMS
  • Folgendes ist umfasst: eine Führungsobjektbestimmungseinheit zum Ausgeben eines Führungsobjekts, zu welchem eine Sichtlinie eines Benutzers geführt wird; eine visuelles-Erkennungsobjekt-Erfassungseinheit zum Erfassen eines visuellen Erkennungsobjekts, welches der Benutzer betrachtet, aus Informationen, anzeigend eine Richtung der Sichtlinie des Benutzers; eine Differenz-Erfassungseinheit zum Erfassen einer Differenz zwischen einem Attribut des visuellen Erkennungsobjekts und einem Attribut des Führungsobjekts; eine Generierungseinheit zum Generieren eines Führungssatzes, aufweisend das Attribut des Führungsobjekts; und eine Syntheseeinheit, zum, wenn eine Differenz zwischen dem im Führungssatz enthaltenem Attribut des Führungsobjekts und dem Attribut des visuellen Erkennungsobjekts vorhanden ist, Synthetisieren und Ausgeben von Sprache des Führungssatzes, betonend ein Wort des Attributs, das die Differenz aufweist.
  • VORTEILHAFTE WIRKUNGEN DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung ist es möglich, einen Benutzer in einer leicht erkennbaren Weise darüber zu informieren, dass sich das visuelle Erkennungsobjekt des Benutzers von einem Führungsobjekt unterscheidet, wenn das visuelle Erkennungsobjekt des Benutzers und das Führungsobjekt unterschiedlich sind.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration einer Routenführungseinrichtung mit einer Sprachführungseinrichtung gemäß einer ersten Ausführungsform darstellt.
    • 2 ist eine Tabelle, die ein Beispiel für Attributinformationen darstellt, die von einer Attributinformationsspeichereinheit gemäß der ersten Ausführungsform gespeichert werden.
    • 3 ist ein Blockdiagramm, das ein Beispiel für eine Hardwarekonfiguration der Sprachführungseinrichtung gemäß der ersten Ausführungsform darstellt.
    • 4 ist ein Flussdiagramm, das die Verarbeitung der Sprachführungseinrichtung gemäß der ersten Ausführungsform darstellt.
    • 5 ist ein Flussdiagramm, das die Verarbeitung einer Führungsobjektbestimmungseinheit gemäß der ersten Ausführungsform darstellt.
    • 6 ist ein Flussdiagramm, das die Verarbeitung einer visuelles-Erkennungsobjekt-Erfassungseinheit gemäß der ersten Ausführungsform darstellt.
    • 7 ist ein Flussdiagramm, das die Verarbeitung einer Differenzerfassungseinheit gemäß der ersten Ausführungsform darstellt.
    • 8 ist eine Tabelle, die ein Beispiel für Attributinformationen eines Führungsobjekts gemäß der ersten Ausführungsform darstellt.
    • 9 ist ein schematisches Diagramm, das ein Beispiel für einen festen Satz der Führung darstellt, der von einer Generierungseinheit gemäß der ersten Ausführungsform erzeugt wird.
    • 10 ist ein Flussdiagramm, das die Verarbeitung der Generierungseinheit gemäß der ersten Ausführungsform darstellt.
    • 11 ist ein Flussdiagramm, das die Verarbeitung einer Syntheseeinheit gemäß der ersten Ausführungsform darstellt.
    • 12 ist ein schematisches Diagramm, das ein Beispiel für eine Karte von einer Route darstellt, auf der durch die Sprachführungseinrichtung gemäß der ersten Ausführungsform geführt werden soll.
    • 13 ist eine Tabelle, die Attributinformationen von einem Knotenpunkt B gemäß der ersten Ausführungsform darstellt.
    • 14 ist eine Tabelle, die Attributinformationen von einem Knotenpunkt A gemäß der ersten Ausführungsform darstellt.
    • 15 ist eine Tabelle, die Differenzinformationen gemäß der ersten Ausführungsform darstellt.
    • 16 ist ein schematisches Diagramm, das ein Beispiel für einen Führungssatz darstellt, der von der Syntheseeinheit gemäß der ersten Ausführungsform generiert wird.
    • 17 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration einer Routenführungseinrichtung mit einer Sprachführungseinrichtung gemäß einer zweiten Ausführungsform darstellt.
    • 18 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration einer Sprachführungseinrichtung gemäß einer dritten Ausführungsform darstellt.
    • 19 ist ein schematisches Diagramm, das ein Beispiel für eine Platinenoberfläche von einer Schaltplatine gemäß der dritten Ausführungsform darstellt.
    • 20 ist eine Tabelle, die Attributinformationen eines Schalters gemäß der dritten Ausführungsform darstellt.
    • 21 ist eine Tabelle, die Attributinformationen eines Schalters gemäß der dritten Ausführungsform darstellt.
    • 22 ist ein schematisches Diagramm, das ein Beispiel für einen Führungssatz darstellt, der von einer Syntheseeinheit gemäß der dritten Ausführungsform erzeugt wird.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ausführungsformen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die Zeichnungen beschrieben. Es ist zu beachten, dass in den Zeichnungen, auf die Bezug genommen wird, die gleichen oder korrespondierenden Teile mit dem gleichen Symbol bezeichnet sind.
  • Erste Ausführungsform
  • In dieser Ausführungsform erfolgt eine Erläuterung anhand eines Beispiels, in dem eine Sprachführungseinrichtung gemäß der vorliegenden Erfindung auf eine an einem Fahrzeug angebrachte Routenführungseinrichtung angewendet wird.
  • 1 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration einer Sprachführungseinrichtung 1 gemäß der ersten Ausführungsform darstellt. 1 umfasst auch die Darstellung eines Beispiels einer funktionalen Konfiguration einer Routenführungseinrichtung 2 mit der Sprachführungseinrichtung 1. Die Sprachführungseinrichtung 1 umfasst eine Führungsobjektbestimmungseinheit 11, eine visuelles-Erkennungsobjekt-Erfassungseinheit 12, eine Differenzerfassungseinheit 13, eine Generierungseinheit 14, eine Syntheseeinheit 15 und eine Attributinformationsspeichereinheit 16. Die Sprachführungseinrichtung 1 empfängt Eingaben von einer Augenkamera 3 und einem GPS-Empfänger 4 und gibt synthetisierte Sprache an einen Lautsprecher 5 aus.
  • Die Routenführungseinrichtung 2 umfasst die Sprachführungseinrichtung 1, eine Routensucheinheit 21, eine Routenführungseinheit 22, eine Anzeigeeinheit 23 und eine Karteninformationsspeichereinheit 24. Wenn ein Objekt von einem Benutzer eingegeben wird, erwirbt die Routensucheinheit 21 die aktuellen Positionsinformationen des Fahrzeugs des Benutzers vom GPS-Empfänger 4. Die Routensucheinheit 21 sucht nach einer Route von der aktuellen Position zu dem Objekt unter Bezugnahme auf Karteninformationen, die in der Karteninformationsspeichereinheit 24 gespeichert sind. Die Routensucheinheit 21 gibt die Route an die Führungsobjektbestimmungseinheit 11 und die Routenführungseinheit 22 aus. Die Routenführungseinheit 22 erwirbt die aktuellen Positionsinformationen des Fahrzeugs des Benutzers vom GPS-Empfänger 4 und gibt an die Anzeigeeinheit 23 abhängig von einer Änderung der Positionsinformationen Informationen über die Route aus, auf der geführt werden soll. Die Anzeigeeinheit 23 generiert ein Bild, das die Route anzeigt, auf der geführt werden soll, und gibt das Bild auf einer Anzeige 6 aus.
  • Die Augenkamera 3 erfasst die Bewegung der Augen des Benutzers und gibt Winkelinformationen, die eine Richtung von einer Sichtlinie des Benutzers anzeigen, an die visuelles-Erkennungsobjekt-Erfassungseinheit 12 aus. Um die Richtung der Sichtlinie des Benutzers zu erfassen, genügt es, eine vorhandene Technologie zu nutzen. Es gibt beispielsweise verschiedene Techniken, wie ein Elektrookulogramm-(EOG)-Verfahren, ein photoelektrisches-Elementtyp-photoelektrisches-Okulographie-(P-EOG)-Verfahren, ein Hornhautreflexionsverfahren, ein erstes und viertes Purkinje-Bild-Erfassungsverfahren, ein Kontaktlinsenverfahren, ein Suchspulenverfahren und ein Infrarot-Funduskamera-Verfahren.
  • Der Empfänger 4 des globalen Positionsbestimmungssystems (GPS) erfasst die aktuelle Position des Fahrzeugs, das der Benutzer fährt, und gibt die erfassten aktuellen Positionsinformationen an die visuelles-Erkennungsobjekt-Erfassungseinheit 12 der Sprachführungseinrichtung 1 und die Routensucheinheit 21 und die Routenführungseinheit 22 der Routenführungseinrichtung 2 aus.
  • Die Führungsobjektbestimmungseinheit 11 der Sprachführungseinrichtung 1 empfängt eine Route zu einem Objekt von der Routensucheinheit 21. Die Führungsobjektbestimmungseinheit 11 bestimmt ein Führungsobjekt, zu dem die Sichtlinie des Benutzers geführt wird. In der vorliegenden Ausführungsform ist ein Führungsobjekt ein Orientierungspunkt auf einer Route. Ein Führungsobjekt ist beispielsweise ein Gebäude in der Nähe eines Knotenpunktes, der ein Verzweigungspunkt auf einer Route zu einem Objekt ist. Die Führungsobjektbestimmungseinheit 11 gibt das Führungsobjekt an die Differenzerfassungseinheit 13 aus. Die Führungsobjektbestimmungseinheit 11 benachrichtigt die visuelles-Erkennungsobjekt-Erfassungseinheit 12 weiterhin darüber, dass das Führungsobjekt bestimmt wurde.
  • Nachdem sie von der Führungsobjektbestimmungseinheit 11 darüber benachrichtigt wurde, dass das Führungsobjekt bestimmt wurde, erfasst die visuelles-Erkennungsobjekt-Erfassungseinheit 12 ein visuelles Erkennungsobjekt, das der Benutzer betrachtet, aus Informationen, die die Richtung der Sichtlinie des Benutzers angeben. Die visuelles-Erkennungsobjekt-Erfassungseinheit 12 empfängt Winkelinformationen, die die Sichtlinie des Benutzers anzeigen, von der Augenkamera 3 und die aktuellen Positionsinformationen des Fahrzeugs des Benutzers vom GPS-Empfänger 4. Unter Verwendung der Winkelinformationen, der Positionsinformationen und der in der Karteninformationsspeichereinheit 24 gespeicherten Karteninformationen erfasst die visuelles-Erkennungsobjekt-Erfassungseinheit 12 das visuelle Erkennungsobjekt und gibt das visuelle Erkennungsobjekt an die Differenzerfassungseinheit 13 aus.
  • Die Differenzerfassungseinheit 13 empfängt das Führungsobjekt von der Führungsobjektbestimmungseinheit 11 und das visuelle Erkennungsobjekt von der visuelles-Erkennungsobjekt-Erfassungseinheit 12. Die Differenzerfassungseinheit 13 bezieht sich auf in der Attributinformationsspeichereinheit 16 gespeicherte Attributinformationen und erwirbt Attributinformationen des Führungsobjekts und Attributinformationen des visuellen Erkennungsobjekts. Attributinformationen sind Informationen, die Merkmale eines Objekts anzeigen. Die Differenzerfassungseinheit 13 erfasst Differenzen zwischen jeweiligen Attributen der Attributinformationen des visuellen Erkennungsobjekts und entsprechenden Attributen der Attributinformationen des Führungsobjekts. Wenn eine Differenz vorhanden ist, gibt die Differenzerfassungseinheit 13 an die Generierungseinheit 14 Differenzinformationen aus, die ein Attribut anzeigen, das die Differenz zwischen den Attributinformationen des visuellen Erkennungsobjekts und den Attributinformationen des Führungsobjekts aufweist. Die Differenzerfassungseinheit 13 gibt weiterhin die Attributinformationen des Führungsobjekts an die Generierungseinheit 14 aus.
  • Die Generierungseinheit 14 erzeugt einen Führungssatz aus den Attributinformationen des Führungsobjekts. Die Generierungseinheit 14 speichert im Voraus einen Satz, der Abschnitte aufweist, die als ein fester Führungssatz auszufüllen sind. Die Generierungseinheit 14 gibt den erzeugten Führungssatz und die Differenzinformationen an die Syntheseeinheit 15 aus.
  • Die Syntheseeinheit 15 synthetisiert Sprache des von der Generierungseinheit 14 eingegebenen Führungssatzes. Darüber hinaus synthetisiert die Syntheseeinheit 15 Lesesprache, die ein Wort eines Attributs betont, das durch die Differenzinformationen angezeigt ist, und gibt die synthetisierte Sprache aus.
  • In der vorliegenden Ausführungsform speichert die Attributinformationsspeichereinheit 16 Attributinformationen, in welchen Knotenpunkte Gebäuden in deren Umgebung zugeordnet sind.
  • 2 ist eine Tabelle, die ein Beispiel für Attributinformationen 31 darstellt, die von der Attributinformationsspeichereinheit 16 gemäß der ersten Ausführungsform gespeichert werden. Die Attributinformationen 31 umfassen Namen von Knotenpunkten, Straßenformen der Knotenpunkte, Namen von umliegenden Gebäuden in der Nähe der Knotenpunkte und Positionen. Ein Name eines umliegenden Gebäudes ist ein Gebäude, das sich in der Nähe eines Knotenpunkts befindet und als ein Orientierungspunkt des Knotenpunkts dient. Eine Position ist ein zweidimensionaler Koordinatendatensatz. Beispielsweise beinhalten Attributinformationen eines Knotenpunkts A einen Namen davon, welcher Knotenpunkt A ist, eine Straßenform davon, die eine Drei-Wege-Kreuzung mit einer Y-Buchstabenform ist, einen Namen eines umliegenden Gebäudes, welches eine Feuerwache ist, und die Position davon, welche der Längengrad x1 und Breitengrad y1 ist.
  • 3 ist ein Blockdiagramm, das ein Beispiel für eine Hardwarekonfiguration der Sprachführungseinrichtung 1 gemäß der ersten Ausführungsform darstellt. Die Sprachführungseinrichtung 1 umfasst einen Speicher 101, einen Prozessor 102 und eine Sprachausgabeschnittstelle 103.
  • Der Speicher 101 speichert ein Programm und Daten zur Implementierung der Funktionen der Führungsobjektbestimmungseinheit 11, der visuelles-Erkennungsobjekt-Erfassungseinheit 12, der Differenzerfassungseinheit 13, der Generierungseinheit 14, der Syntheseeinheit 15 und der Attributinformationsspeichereinheit 16. Der Speicher 101 umfasst beispielsweise einen Nur-Lese-Speicher (ROM), einen Direktzugriffsspeicher (RAM), eine Festplatte (HDD) und eine Solid-State-Festplatte (SSD).
  • Der Prozessor 102 liest das Programm und die im Speicher 101 gespeicherten Daten und implementiert die Funktionen der Führungsobjektbestimmungseinheit 11, der visuelles-Erkennungsobjekt-Erfassungseinheit 12, der Differenzerfassungseinheit 13, der Generierungseinheit 14 und der Syntheseeinheit 15. Der Prozessor 102 wird durch eine Verarbeitungsschaltung, wie eine CPU und ein Großintegrationssystem (LSI) implementiert, das das im Speicher 101 gespeicherte Programm ausführt.
  • Es ist zu beachten, dass eine Vielzahl von Verarbeitungsschaltungen zusammenwirken können, um die Funktionen der Führungsobjektbestimmungseinheit 11, der visuelles-Erkennungsobjekt-Erfassungseinheit 12, der Differenzerfassungseinheit 13, der Generierungseinheit 14 und der Syntheseeinheit 15 auszuführen.
  • Die Sprachausgabeschnittstelle 103 implementiert die Funktion der Syntheseeinheit 15.
  • Als nächstes werden die Funktionsweisen beschrieben.
  • 4 ist ein Flussdiagramm, das die Verarbeitung der Sprachführungseinrichtung 1 gemäß der ersten Ausführungsform darstellt.
  • Die Sprachführungseinrichtung 1 beginnt mit der Verarbeitung, wenn eine Route von der Routenführungseinrichtung 2 in die Führungsobjektbestimmungseinheit 11 eingegeben wird. Die Führungsobjektbestimmungseinheit 11 bestimmt ein Gebäude in der Nähe eines Knotenpunktes, welcher ein Verzweigungspunkt auf der Route zu einem Objekt ist, das von der Routenführungseinrichtung 2 eingegeben wird, als ein Führungsobjekt und gibt das Führungsobjekt an die Differenzerfassungseinheit 13 aus (Schritt S11). Anschließend erfasst die visuelles-Erkennungsobjekt-Erfassungseinheit 12 das visuelle Erkennungsobjekt unter Verwendung von Winkelinformationen, die eine Richtung von einer Sichtlinie des Benutzers anzeigen, die von der Augenkamera 3 eingegeben wird, und gibt das visuelle Erkennungsobjekt an die Differenzerfassungseinheit 13 aus (Schritt S12).
  • Anschließend bezieht sich die Differenzerfassungseinheit 13 auf die Attributinformationsspeichereinheit 16 und sucht nach Attributinformationen des visuellen Erkennungsobjekts und Attributinformationen des Führungsobjekts. Die Differenzerfassungseinheit 13 gibt die Attributinformationen des Führungsobjekts an die Generierungseinheit 14 aus. Die Differenzerfassungseinheit 13 erfasst weiterhin eine Differenz zwischen den Attributinformationen des visuellen Erkennungsobjekts und den Attributinformationen des Führungsobjekts. Wenn eine Differenz vorhanden ist, werden Differenzinformationen an die Generierungseinheit 14 ausgegeben (Schritt S13). Anschließend erzeugt die Generierungseinheit 14 unter Verwendung der Attributinformationen des Führungsobjekts einen Führungssatz und gibt den Führungssatz an die Syntheseeinheit 15 aus. Wenn die Differenzinformationen von der Differenzerfassungseinheit 13 eingegeben werden, gibt die Generierungseinheit 14 auch die Differenzinformationen an die Syntheseeinheit 15 aus (Schritt S14). Anschließend synthetisiert die Syntheseeinheit 15 die Sprache des von der Generierungseinheit 14 eingegebenen Führungssatzes. Darüber hinaus synthetisiert die Syntheseeinheit 15 Lesesprache, die ein Wort betont, das eine Differenz zwischen dem Attribut des visuellen Erkennungsobjekts und dem des Führungsobjekts aufweist, aus den Attributinformationen, und gibt die synthetisierte Sprache aus. Die Sprachführungseinrichtung 1 beendet die Verarbeitung (Schritt S15).
  • Als nächstes werden die Einzelheiten der einzelnen Schritte S11 bis S15 in 4 erläutert.
  • Zunächst werden die Einzelheiten des Schrittes S11 in 4 unter Bezugnahme auf 5 beschrieben.
  • 5 ist ein Flussdiagramm, das die Verarbeitung der Führungsobjektbestimmungseinheit 11 gemäß der ersten Ausführungsform darstellt.
  • Die Führungsobjektbestimmungseinheit 11 beginnt mit der Verarbeitung, wenn eine von der Routensucheinheit 21 gesuchte Route von der Routensucheinheit 21 eingegeben wird. Die Führungsobjektbestimmungseinheit 11 erwirbt die aktuellen Positionsinformationen und eine Fahrtrichtung des Fahrzeugs des Benutzers vom GPS-Empfänger 4 (Schritt S21). Anschließend wählt die Führungsobjektbestimmungseinheit 11 einen Knotenpunkt aus, welcher ein Verzweigungspunkt ist, der zur aktuellen Position des Fahrzeugs des Benutzers am nächsten liegt, und erwirbt die Positionsinformationen des Knotenpunkts (Schritt S22).
  • Anschließend bezieht sich die Führungsobjektbestimmungseinheit 11 auf die Karteninformationen der Karteninformationsspeichereinheit 24 und bestimmt, als ein Führungsobjekt, ein Gebäude in der Nähe des Knotenpunktes, welcher der Verzweigungspunkt ist (Schritt S23). Als nächstes berechnet die Führungsobjektbestimmungseinheit 11 eine Entfernung von der aktuellen Position des Fahrzeugs des Benutzers zum Führungsobjekt und eine Richtung, die angibt, ob sich das Führungsobjekt entweder auf der linken oder rechten Straßenseite in der Fahrtrichtung befindet (Schritt S24). Als nächstes gibt die Führungsobjektbestimmungseinheit 11 Informationen über das Führungsobjekt an die Differenzerfassungseinheit 13 aus. Die Informationen über das Führungsobjekts sind z.B. der Name des Gebäudes, die Positionsinformationen des Gebäudes sowie eine Entfernung und eine Richtung von der aktuellen Position (Schritt S25). Anschließend meldet die Führungsobjektbestimmungseinheit 11 der visuelles-Erkennungsobjekt-Erfassungseinheit 12, dass das Führungsobjekt bestimmt ist und beendet die Verarbeitung (Schritt S26).
  • Anschließend werden Einzelheiten des Schrittes S12 in 4 unter Bezugnahme auf 6 beschrieben.
  • 6 ist ein Flussdiagramm, das die Verarbeitung der visuelles-Erkennungsobjekt-Erfassungseinheit 12 gemäß der ersten Ausführungsform darstellt.
  • Die visuelles-Erkennungsobjekt-Erfassungseinheit 12 beginnt mit der Verarbeitung, wenn sie von der Führungsobjektbestimmungseinheit 11 benachrichtigt wird, dass das Führungsobjekt bestimmt wurde. Die visuelles-Erkennungsobjekt-Erfassungseinheit 12 erfasst die aktuellen Positionsinformationen und die Fahrtrichtung des Fahrzeugs des Benutzers vom GPS-Empfänger 4 (Schritt S31). Die visuelles-Erkennungsobjekt-Erfassungseinheit 12 empfängt Winkelinformationen, die eine Richtung von einer Sichtlinie des Benutzers anzeigen, von der Augenkamera 3. Die visuelles-Erkennungsobjekt-Erfassungseinheit 12 erfasst ein Gebäude in Richtung der Sichtlinie des Benutzers als visuelles Erkennungsobjekt aus den Positionsinformationen, den Winkelinformationen und den Karteninformationen der Karteninformationsspeichereinheit 24 (Schritt S32). Anschließend berechnet die visuelles-Erkennungsobjekt-Erfassungseinheit 12 eine Entfernung von der aktuellen Position des Fahrzeugs des Benutzers zum visuellen Erkennungsobjekt und eine Richtung, die angibt, ob sich das visuelle Erkennungsobjekt entweder auf der linken oder rechten Straßenseite in der Fahrtrichtung befindet (Schritt S33). Anschließend gibt die visuelles-Erkennungsobjekt-Erfassungseinheit 12 Informationen über das visuelle Erkennungsobjekt an die Differenzerfassungseinheit 13 aus und beendet die Verarbeitung. Die Informationen des visuellen Erkennungsobjekts sind z.B. der Name des Gebäudes, Positionsinformationen des Gebäudes sowie eine Entfernung und eine Richtung von der aktuellen Position (Schritt S34).
  • Anschließend werden die Einzelheiten des Schrittes S13 in 4 unter Bezugnahme auf die 7 bis 8 beschrieben.
  • 7 ist ein Flussdiagramm, das die Verarbeitung der Differenzerfassungseinheit 13 gemäß der ersten Ausführungsform darstellt.
  • Die Differenzerfassungseinheit 13 beginnt mit der Verarbeitung, wenn sie die Informationen des Führungsobjekts von der Führungsobjektbestimmungseinheit 11 und die Informationen des visuellen Erkennungsobjekts von der visuelles-Erkennungsobjekt-Erfassungseinheit 12 empfängt. Die Differenzerfassungseinheit 13 bezieht sich auf die von der Attributinformationsspeichereinheit 16 gespeicherten Attributinformationen und liest Attribute von Attributinformationen jeweils des Führungsobjekts und des visuellen Erkennungsobjekts (Schritt S41). Anschließend erfasst die Differenzerfassungseinheit 13 eine Differenz zwischen den Attributinformationen des Führungsobjekts und den Attributinformationen des visuellen Erkennungsobjekts. Zu diesem Zeitpunkt erfasst die Differenzerfassungseinheit 13 eine Differenz als Attributinformationen auch für die Entfernung und die Richtung von der aktuellen Position zum Führungsobjekt, das von der Führungsobjektbestimmungseinheit 11 eingegeben wurde, sowie die Entfernung und die Richtung von der aktuellen Position zum visuellen Erkennungsobjekt, das von der visuelles-Erkennungsobjekt-Erfassungseinheit 12 eingegeben wurde (Schritt S42). Wenn eine Differenz vorliegt, gibt die Differenzerfassungseinheit 13 Differenzinformationen an die Generierungseinheit Maus. Die Differenzinformationen zeigen einen Wert des Attributs des Führungsobjekts an, der eine Differenz zu einem Wert des Attributs des visuellen Erkennungsobjekts aufweist (Schritt S43). Anschließend gibt die Differenzerfassungseinheit 13 die Attributinformationen des Führungsobjekts an die Generierungseinheit 14 aus und beendet die Verarbeitung. Die Attributinformationen des Führungsobjekts werden erhalten, indem die Entfernung von der aktuellen Position zu den aus der Attributinformationsspeichereinheit 16 ausgelesenen Attributinformationen addiert wird (Schritt S44).
  • 8 ist eine Tabelle, die ein Beispiel für Attributinformationen 32 über ein Führungsobjekt gemäß der ersten Ausführungsform darstellt. Die Attributinformationen 32 umfassen als Attribute den Namen eines Knotenpunktes, die Form von einer Straße, den Namen eines umliegenden Gebäudes, eine Position, eine Entfernung und eine Richtung.
  • Anschließend werden die Einzelheiten des Schrittes S14 in 4 unter Bezugnahme auf die 9 bis 10 beschrieben.
  • 9 ist ein schematisches Diagramm, das ein Beispiel für einen festen Satz 41 der von der Generierungseinheit 14 generierten Führung gemäß der ersten Ausführungsform darstellt. Die Generierungseinheit 14 speichert im Voraus als einen Führungssatz den festen Satz 41, der mit auszufüllenden Abschnitten festgelegt ist. Die Generierungseinheit 14 setzt den Wert des Attributs in einen eizufügenden Abschnitt des festen Satzes 41. Jede von[Entfernung], [Richtung], [Name von umliegendem Gebäude] und [Name von Knotenpunkt] zeigt ein Attribut der Attributinformationen an. So setzt beispielsweise die Generierungseinheit 14 einen Wert für die Entfernung „200 m voraus“ der Attributinformationen des Führungsobjekts in [Entfernung] des festen Satzes 41. Es ist zu beachten, dass der „rechts abbiegen“ Abschnitt des festen Satzes 41 der Führung in Abhängigkeit von der Route, auf der geführt werden soll, geändert wird.
  • 10 ist ein Flussdiagramm, das die Verarbeitung der Generierungseinheit 14 gemäß der ersten Ausführungsform darstellt.
  • Die Generierungseinheit 14 startet die Verarbeitung, wenn sie die Attributinformationen über das Führungsobjekt empfängt. Die Generierungseinheit 14 liest den festen Satz 41 der Führung und setzt die Attributinformationen des Führungsobjekts in die Abschnitte, die zu füllen sind (Schritt S51). Anschließend bestimmt die Generierungseinheit 14 in einem Fall, wenn die Differenzinformationen von der Differenzerfassungseinheit 13 eingegeben werden, das Attribut, das durch die Differenzinformationen als ein zu betonender Abschnitt angezeigt wird (Schritt S52). Die Generierungseinheit 14 gibt den generierten Führungssatz und die Differenzinformationen an die Syntheseeinheit 15 aus und beendet die Verarbeitung (Schritt S53).
  • Anschließend werden Einzelheiten des Schrittes S15 in 4 unter Bezugnahme auf 11 beschrieben.
  • 11 ist ein Flussdiagramm, das die Verarbeitung der Syntheseeinheit 15 gemäß der ersten Ausführungsform darstellt.
  • Die Syntheseeinheit 15 startet die Verarbeitung, wenn sie den Führungssatz von der Generierungseinheit 14 empfängt. Zunächst führt die Syntheseeinheit 15 die Sprachverarbeitung des Führungssatzes durch. In der Sprachverarbeitung wird Verarbeitung, wie morphologische Analyse, Syntaxanalyse, semantische Analyse und Kontextanalyse durchgeführt (Schritt S61). Anschließend bestimmt die Syntheseeinheit 15, ob Differenzinformationen über Attributinformationen von der Generierungseinheit 14 eingegeben wurden (Schritt S62). Wenn Differenzinformationen über die Attributinformationen von der Generierungseinheit 14 eingegeben werden, erzeugt die Syntheseeinheit 15 eine Prosodie für die Betonungssprache für ein Wort, das durch die Differenzinformationen angezeigt wird, während eine normale Prosodie für andere Wörter erzeugt wird (Schritt S63). Wenn Differenzinformationen über die Attributinformationen nicht von der Generierungseinheit 14 eingegeben werden, erzeugt die Syntheseeinheit 15 eine normale Prosodie (Schritt S64). Anschließend erzeugt die Syntheseeinheit 15 auf der Grundlage des Ergebnisses der Prosodieerzeugung eine Sprachwellenform, gibt die Wellenformdaten der synthetisierten Sprache an den Lautsprecher 5 aus und beendet die Verarbeitung (Schritt S65).
  • Anschließend werden Funktionsweisen der Sprachführungseinrichtung 1 unter Verwendung eines konkreten Beispiels beschrieben.
  • 12 ist ein schematisches Diagramm, das ein Beispiel für eine Karte einer von der Sprachführungseinrichtung 1 geführten Route gemäß der ersten Ausführungsform darstellt. Ein Benutzer A fährt in einem Fahrzeug auf einer Straße, die von der Routenführungseinrichtung 2 geführt wird, in der Zeichnung von unten nach oben. Es gibt einen Knotenpunkt A und einen Knotenpunkt B in einer kurzen Entfernung. Eine Sichtlinie A des Benutzers A ist in eine Richtung „Polizeistation“ an einer abzweigenden Straße A gerichtet. Die Routenführungseinrichtung 2 stellt eine abzweigende Straße B ein, um an dem Knotenpunkt B als eine Fahrtrichtung auf einer Route zu einem Objekt nach rechts abzubiegen (Straße zum Rechtsabbiegen). Es gibt den Knotenpunkt A vor dem Knotenpunkt B und die abzweigende Straße A verläuft in der gleichen Richtung wie die abzweigende Straße B, so dass es für den Benutzer A schwierig ist, die abzweigende Straße B zu erkennen.
  • Zunächst bestimmt die Führungsobjektbestimmungseinheit 11 eine „Feuerwache“ als das Führungsobjekt. Die Führungsobjektbestimmungseinheit 11 berechnet weiterhin eine Entfernung und eine Richtung von der aktuellen Position zum Führungsobjekt und gibt die Entfernung „100 m voraus“ und die Richtung „rechte Richtung“ an die Differenzerfassungseinheit 13 aus. Als nächstes erfasst die visuelles-Erkennungsobjekt-Erfassungseinheit 12 ein Objekt, das von dem Benutzer A betrachtet wird, unter Verwendung der der Augenkamera 3. Der Benutzer A betrachtet eine „Polizeiwache“, wie durch die Sichtlinie A angezeigt ist, und die visuelles-Erkennungsobjekt-Erfassungseinheit 12 erfasst die „Polizeiwache“ als ein visuelles Erkennungsobjekt. Die Differenzerfassungseinheit 13 empfängt die „Feuerwache“ als das Führungsobjekt von der Führungsobjektbestimmungseinheit 11 und die „Polizeiwache“ als das visuelle Erkennungsobjekt von der visuelles-Erkennungsobjekt-Bestimmungseinheit 12. Anschließend liest die Differenzerfassungseinheit 13 aus der Attributinformationsspeichereinheit 16 Attributinformationen über die „Polizeiwache“ und die „Feuerwache“ aus.
  • 13 ist eine Tabelle, die die Attributinformationen 33 der „Feuerwache“ gemäß der ersten Ausführungsform darstellt.
  • 14 ist eine Tabelle, die die Attributinformationen 34 der „Polizeiwache“ gemäß der ersten Ausführungsform darstellt.
  • In jeder der Attributinformationen 33 und 34 werden die Entfernung und die Richtung zu den aus der Attributinformationsspeichereinheit 16 ausgelesenen Attributen addiert.
  • 15 ist ein schematisches Diagramm, das die Differenzinformationen 39 gemäß der ersten Ausführungsform darstellt.
  • Die Differenzerfassungseinheit 13 vergleicht die Attributinformationen 33 über die „Feuerwache“, die das Führungsobjekt ist, mit den Attributinformationen 34 über die „Polizeiwache“, die das visuelle Erkennungsobjekt ist, und erfasst Differenzen zwischen diesen. Die Differenzen sind der Name des Knotenpunktes, der Name des umliegenden Gebäudes, die Position und die Entfernung.
  • Die Differenzerfassungseinheit 13 gibt die Differenzinformationen 39 an die Generierungseinheit 14 aus. Die Differenzerfassungseinheit 13 gibt auch die Attributinformationen 33 über das Führungsobjekt an die Generierungseinheit 14 aus.
  • Die Generierungseinheit 14 setzt die Attribute über die Attributinformationen 34 des Führungsobjekts in die auszufüllenden Abschnitte des festen Satzes 41 der in 9 dargestellten Führung. Die Generierungseinheit 14 gibt den ausgefüllten Führungssatz und die Differenzinformationen 39 an die Syntheseeinheit 15 aus. Die Syntheseeinheit 15 erzeugt synthetische Sprache, die den Namen der Knotenpunktes „Knotenpunkt B“, den Namen des umliegenden Gebäudes „Feuerwache“ und die Entfernung „100 m vorwärts“, die durch die Differenzinformationen 39 angezeigt sind, betont. Da die Richtung nicht in den Differenzinformationen 39 enthalten ist, synthetisiert die Syntheseeinheit 15 die zu lesende Sprache wie bisher, ohne die Richtung „rechte Richtung“ zu betonen. Die Syntheseeinheit 15 gibt die synthetisierte Sprache an den Lautsprecher aus.
  • 16 ist ein schematisches Diagramm, das ein Beispiel für einen Führungssatz 42 darstellt, der von der Syntheseeinheit 15 gemäß der ersten Ausführungsform erzeugt wird. Ein durch [] oder <> eingeschlossenes Wort bezeichnet einen auszufüllenden Abschnitt des festen Satzes 41 der Führung. Die Syntheseeinheit 15 erzeugt eine zu lesende Sprache mit einer Betonung auf einem Wort, das von <> eingeschlossen ist.
  • Der Benutzer, der den Führungssatz gehört hat, bewegt seine Sichtlinie von einer Sichtlinie A zu einer Sichtlinie B in 12 und kann so die „Feuerwache“ erkennen.
  • Es ist zu beachten, dass in der vorliegenden Ausführungsform die Führungsobjektbestimmungseinheit 11 die Entfernung von der aktuellen Position zum Führungsobjekt berechnet; wobei die Attributinformationsspeichereinheit 16 jedoch im Voraus die Entfernung von einem Gebäude zu einem Knotenpunkt als Attributinformationen des Knotenpunktes speichern kann, und die Führungsobjektbestimmungseinheit 11 die Entfernung von der aktuellen Position zum Führungsobjekt nicht berechnen kann. Der Führungssatz kann „Knotenpunkt xx m vor einem Gebäude“ lauten.
  • Darüber hinaus bestimmt die Führungsobjektbestimmungseinheit 11 in der vorliegenden Ausführungsform als das Führungsobjekt ein Gebäude in der Nähe eines Knotenpunktes, welcher ein Verzweigungspunkt von einer Route von der Route ist, die in diese eingegeben ist; jedoch kann ein Objekt, das in die Führungsobjektbestimmungseinheit 11 eingebeben wird, als das Führungsobjekt bestimmt werden.
  • Darüber hinaus wurde in der vorliegenden Ausführungsform die Funktionsweise der Sprachführungseinrichtung 1 beschrieben, wenn eine Route von der Routensucheinheit 21 an die Führungsobjektbestimmungseinheit 11 eingegeben wird. Wenn das Fahrzeug des Benutzers jedoch den Verzweigungspunkt passiert hat, während das Fahrzeug des Benutzers entlang der Route fährt, ist es nur erforderlich, dass die Führungsobjektbestimmungseinheit 11 ein Führungsobjekt für den nächsten Verzweigungspunkt bestimmt, und dass die Sprachführungseinrichtung 1 Sprachführung durchführt.
  • Darüber hinaus erfasst die visuelle-Erkennungsobjekt-Erfassungseinheit 12 in der vorliegenden Ausführungsform das visuelle Erkennungsobjekt unter Verwendung der Winkelinformationen, die die Sichtlinie des Benutzers anzeigen, der aktuellen Positionsinformationen des Fahrzeugs des Benutzers und der Karteninformationen; wobei das visuelle Erkennungsobjekt allerdings durch Erfassung einer Außenansicht des Fahrzeugs und Verwendung des erfassten Bildes, der Winkelinformationen, die die Sichtlinie des Benutzers anzeigen, und der Karteninformationen erfasst werden kann.
  • Darüber hinaus wird in der vorliegenden Ausführungsform der Fall verwendet, bei dem ein Knotenpunkt und ein umliegendes Gebäude in den Attributinformationen einander zugeordnet sind; wobei jedoch eine Vielzahl von umliegenden Gebäuden einem Knotenpunkt zugeordnet sein kann.
  • Darüber hinaus wird in der vorliegenden Ausführungsform ein Name eines Knotenpunktes verwendet, um den Führungssatz auszufüllen; wobei allerdings die Form einer Straße oder ein anderes Attributs verwendet werden können. Alternativ kann eine Vielzahl von Attributen verwendet werden.
  • Darüber hinaus gibt die Syntheseeinheit 15 in der vorliegenden Ausführungsform die synthetisierte Sprache an den Lautsprecher 5 aus; wobei die synthetisierten Sprachdaten jedoch auch in ein analoges Signal umgewandelt werden können und dann das analoge Signal an den Lautsprecher 5 ausgegeben werden kann. Darüber hinaus kann ein generierter synthetisierter Sprachwellenformdatensatz ausgegeben werden und als eine Datei oder Stream-Daten in den Speicher geschrieben werden.
  • Darüber hinaus wurde in der vorliegenden Ausführungsform beschrieben, dass die Syntheseeinheit 15 Sprache aus dem Führungssatz synthetisiert; die Syntheseeinheit 15 kann jedoch eine Vielzahl von Funktionseinheiten aufweisen. In einem Fall, bei dem Sprache aus einem Text synthetisiert wird, wie beispielsweise in dem japanischen Patent Nr. 5393546 beschrieben, kann die Syntheseeinheit eine Sprachverarbeitungseinheit, eine Prosodie-Generierungseinheit und eine Sprachwellenform-Generierungseinheit umfassen.
  • Wie vorstehend beschrieben, sind in der vorliegenden Ausführungsform enthalten: die Führungsobjektbestimmungseinheit 11 zum Ausgeben eines Führungsobjekts, zu dem eine Sichtlinie des Benutzers geführt wird; die visuelles-Erkennungsobjekt-Bestimmungseinheit 12 zum Erfassen eines visuellen Erkennungsobjekts, das der Benutzer betrachtet, aus Informationen, die eine Richtung der Sichtlinie des Benutzers anzeigen; die DifferenzErfassungseinheit 13 zum Erfassen einer Differenz zwischen einem Attribut des visuellen Erkennungsobjekts und einem Attribut des Führungsobjekts; die Generierungseinheit 14 zum Generieren eines Führungssatzes, der das Attribut des Führungsobjekts aufweist; und die Syntheseeinheit 15, zum, wenn eine Differenz zwischen dem Attribut des im Führungssatz enthaltenen Führungsobjekts und dem Attribut des visuellen Erkennungsobjekts vorhanden ist, Synthetisieren und Ausgeben der Sprache des Führungssatzes, der ein Wort eines Attributs, das die Differenz aufweist, betont. Daher ist es möglich, den Benutzer in einer leicht erkennbaren Weise darüber zu informieren, dass sich das visuelle Erkennungsobjekt des Benutzers vom Führungsobjekt unterscheidet, wenn sich das visuelle Erkennungsobjekt des Benutzers vom Führungsobjekt unterscheidet. Der Benutzer kann intuitiv erkennen, dass sich das visuelle Erkennungsobjekt vom Führungsobjekt unterscheidet, aus der Differenz in der Prosodie des Führungssatzes. Dies ermöglicht es, Fälle zu reduzieren, bei denen der Benutzer immer wieder ein fehlerhaftes Führungsobjekt erkennt.
  • Zweite Ausführungsform
  • In der vorstehend beschriebenen ersten Ausführungsform gibt die Sprachführungseinrichtung 1 einen Führungssatz aus, der gelesen wird, während sie eine Differenz zwischen einem Attribut des visuellen Erkennungsobjekts und dem des Führungsobjekts betont. In der vorliegenden Ausführungsform wird jedoch eine Ausführungsform beschrieben, bei der eine Struktur eines Führungssatzes aufgrund der Bekanntheit eines in einem Attribut enthaltenen Wortes geändert wird.
  • Es ist zu beachten, dass in der vorliegenden Ausführungsform Teile, außer einer Generierungseinheit 14 und einer Bekanntheitsinformationsspeichereinheit 17, die gleichen sind wie in der ersten Ausführungsform, so dass auf deren Beschreibung verzichtet wird.
  • 17 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration einer Routenführungseinrichtung 2 mit einer Sprachführungseinrichtung 1 gemäß einer zweiten Ausführungsform darstellt. Ein Unterschied zu 1 der ersten Ausführungsform besteht darin, dass die Bekanntheitsinformationsspeichereinheit 17 hinzugefügt wird. Die Bekanntheitsinformationsspeichereinheit 17 speichert im Voraus Bekanntheitsinformationen, die die Bekanntheit eines Wortes anzeigen. Bekanntheit ist ein Index, der angibt, wie sehr ein bestimmtes Wort im Bereich der Sprachverarbeitung einer Person bekannt vorkommt. Ein höherer Wert zeigt an, dass es der Person bekannter vorkommt. Die von der Bekanntheitsinformationsspeichereinheit 17 gespeicherten Bekanntheitsinformationen sind voreingestellte Informationen. Ein Programm und Daten zur Implementierung der Funktion der Bekanntheitsinformationsspeichereinheit 17 werden im Speicher 101 gespeichert.
  • Eine Generierungseinheit 14 liest einen festen Führungssatz aus, setzt die Attributinformationen eines Führungsobjekts in auszufüllende Abschnitte und erzeugt einen Führungssatz „<100 m voraus>, biege rechts ab bei <Knotenpunkt B> mit einer <Feuerwache>.“ Zu diesem Zeitpunkt bezieht sich die Generierungseinheit 14 auf die Bekanntheitsinformationsspeichereinheit 17 und liest die Bekanntheit jedes der Wörter aus. Es wird davon ausgegangen, dass die Bekanntheit von „Feuerwache“ geringer ist als ein vorherbestimmter Schwellenwert. Die Generierungseinheit 14 bewegt „mit einer Feuerwache“ zum Kopf des Führungssatzes und gibt „<mit einer Feuerwache“, biege rechts ab an [Knotenpunkt B] [100 m voraus] aus."Wörter, die durch [] oder <> eingeschlossen sind, sind auszufüllende Abschnitte des festen Satz 41 der Führung. Das von <> eingeschlossene Wort wird von der Syntheseeinheit 15 ausgegeben, wobei es in betonter Sprache ist.
  • Alternativ kann die Generierungseinheit 14 ein Wort mit geringer Bekanntheit aus dem Führungssatz ausschließen, ein nicht bekanntes Wort zu sein. Die Generierungseinheit 14 löscht „mit einer Feuerwache“ aus dem Führungssatz und gibt „biege ab [in rechte Richtung] an [Knotenpunkt B][100 m voraus]‟ als einen Führungssatz aus. Im Allgemeinen hören sich für den Benutzer Wörter mit geringer Bekanntheit häufig nicht bekannt an und sind daher selbst beim Lesen der Wörter schwer zu verstehen. Indem Wörter mit geringer Bekanntheit aus dem Führungssatz ausgeschlossen werden, wird es für den Benutzer einfacher, den Führungssatz zu verstehen und das Führungsobjekt zu finden.
  • Wenn die Bekanntheit im Voraus eingestellt wird, kann die Bekanntheit eines Wortes, das eine Farbe, wie Rot und Gelb anzeigt, auf einen hohen Wert (100) gesetzt werden, und die Bekanntheit eines Eigennamens, wie einem Namen eines Gebäudes, auf einen niedrigen Wert (0) gesetzt werden.
  • Wie vorstehend beschrieben, ist in der vorliegenden Ausführungsform die Bekanntheitsinformationsspeichereinheit 17 zum Speichern von Bekanntheitsinformationen für eine Vielzahl von Wörtern, wobei die Bekanntheit, die einen Grad der Bekanntheit des Benutzers anzeigt, für jedes der Vielzahl von Wörtern eingestellt ist, enthalten, und die Generierungseinheit ändert einen Führungssatz in Abhängigkeit von einem Wert der Bekanntheit eines im Führungssatz enthaltenen Wortes. Daher ist es möglich, einen Benutzer in einer leichter erkennbaren Weise darüber zu informieren, dass sich das visuelle Erkennungsobjekt des Benutzers von einem Führungsobjekt unterscheidet. Der Benutzer kann das Führungsobjekt leichter finden.
  • In einem Fall, bei dem der Wert der Bekanntheit eines im Führungssatz enthaltenen Wortes geringer als der vorherbestimmte Schwellenwert, bewegt die Generierungseinheit das Wort an den Kopf des Führungssatzes, und die Generierungseinheit kann somit dem Benutzer die Differenz der Attribute zu einem früheren Zeitpunkt präsentieren. Dadurch kann der Benutzer die Sichtlinie sofort auf das Führungsobjekt bewegen.
  • Auch in einem Fall, bei dem der Wert der Bekanntheit des im Führungssatz enthaltenen Wortes geringer ist als der vorherbestimmte Schwellenwert, löscht die Generierungseinheit das Wort aus dem Führungssatz, so dass keine unklaren Informationen präsentiert werden, was für den Benutzer nicht unpraktisch ist. Dadurch wird es für den Benutzer einfacher, den Führungssatz zu verstehen.
  • Dritte Ausführungsform
  • In der ersten vorstehend beschriebenen Ausführungsform wird die Sprachführungseinrichtung 1 auf die an einem Fahrzeug angebrachte Routenführungseinrichtung 2 angewandt; die vorliegende Ausführungsform stellt jedoch dar, dass eine Sprachführungseinrichtung 1 auf Inspektionsarbeiten an einer Schaltplatine angewendet wird.
  • Es ist zu beachten, dass in der vorliegenden Ausführungsform Teile, außer einer Führungsobjektbestimmungseinheit 11, einer visuelles-Erkennungsobjekt-Erfassungseinheit 12 und einer Betriebsinformationsspeichereinheit 25, gleich sind wie diejenigen in der ersten Ausführungsform, so dass auf deren Beschreibung verzichtet wird.
  • Die Beschreibung wird mit einem Beispiel für Inspektionsarbeiten an einer Schaltplatine bereitgestellt.
  • 18 ist ein Blockdiagramm, das ein Beispiel für eine funktionale Konfiguration einer Sprachführungseinrichtung 1 gemäß einer dritten Ausführungsform darstellt. Unterschiede zur Sprachführungseinrichtung 1 gemäß der ersten Ausführungsform bestehen darin, dass Winkelinformationen, die die Sichtlinie des Benutzers anzeigen, von einem tragbaren Gerät vom Glastyp 7 in die visuelles-Erkennungsobjekt-Erfassungseinheit 12 eingegeben werden, und dass sich die Führungsobjektbestimmungseinheit 11 und die visuelles-Erkennungsobjekt-Erfassungseinheit 12 auf Betriebsinformationen beziehen, die von der Betriebsinformationsspeichereinheit 25 gespeichert werden.
  • Die Betriebsinformationsspeichereinheit 25 speichert Anordnungsinformationen von Schaltern, die auf der Platinenoberfläche der Schaltplatine angeordnet sind, und einen Betriebsvorgang der Inspektionsarbeiten. Der Betriebsvorgang ist der der Schalter bei der Inspektionsarbeit.
  • 19 ist ein schematisches Diagramm, das ein Beispiel für eine Platinenoberfläche einer Schaltplatine 51 gemäß der dritten Ausführungsform darstellt. Die Schalter 52a bis 52d sind auf einer oberen linken Seite der Platinenoberfläche der Schaltplatine 51 angeordnet. Die Schalter 52e bis 52h sind auf einer oberen rechten Seite der Platinenoberfläche der Schaltplatine 51 angeordnet. Die Schalter 52i bis 52j sind auf einer unteren Seite der Platinenoberfläche der Schaltplatine 51 angeordnet.
  • Die Funktionsweise der Sprachführungseinrichtung 1 wird anhand des Flussdiagramms gemäß 4 beschrieben.
  • Wenn der Benutzer eingibt, dass die Inspektionsarbeit X durchzuführen sind, startet die Führungsobjektbestimmungseinheit 11 die Verarbeitung. Die Führungsobjektbestimmungseinheit 11 bezieht sich auf die Betriebsinformationsspeichereinheit 25 und liest einen der Inspektionsarbeit X entsprechenden Betriebsvorgang aus. In einem Fall, bei dem ein dem ersten Vorgang entsprechender Schalter der Schalter 52i ist, bestimmt die Führungsobjektbestimmungseinheit 11 den Schalter 52i als ein Führungsobjekt. Die Führungsobjektbestimmungseinheit 11 benachrichtigt die visuelles-Erkennungsobjekt-Erfassungseinheit 12 darüber, dass das Führungsobjekt bestimmt wurde (Schritt S11). Als nächstes erfasst die visuelles-Erkennungsobjekt-Erfassungseinheit 12 ein visuelles Erkennungsobjekt des Benutzers aus den Winkelinformationen, die die Sichtlinie des Benutzers anzeigt, die von dem tragbaren Gerät 7 eingegeben wird, und den Anordnungsinformationen der Schalter, die von der Betriebsinformationsspeichereinheit 25 gespeichert sind. Es wird angenommen, dass das erfasste visuelle Erkennungsobjekt der Schalter 52b (Schritt S12) ist. Anschließend bezieht sich die Differenzerfassungseinheit 13 auf die von der Attributinformationsspeichereinheit 16 gespeicherten Attributinformationen und erfasst eine Differenz zwischen Attributinformationen des visuellen Erkennungsobjekts und denen des Führungsobjekts (Schritt S13).
  • 20 ist eine Tabelle, die die Attributinformationen 35 des Schalters 52b gemäß der dritten Ausführungsform darstellt.
  • 21 ist eine Tabelle, die die Attributinformationen 36 des Schalters 52i gemäß der dritten Ausführungsform darstellt.
  • 22 ist ein schematisches Diagramm, das ein Beispiel für einen Führungssatz 43 darstellt, der von einer Syntheseeinheit 15 gemäß der dritten Ausführungsform erzeugt wird.
  • Wenn eine Differenz zwischen den Attributinformationen des visuellen Erkennungsobjekts und denen des Führungsobjekts vorhanden ist, werden die Differenzinformationen an die Generierungseinheit 14 ausgegeben. Die Attribute des Namens des Schalters und der Position sind unterschiedlich (Schritt S14). Anschließend erzeugt die Generierungseinheit 14 unter Verwendung der Attributinformationen des Führungsobjekts den Führungssatz 43 und gibt den Führungssatz 43 an die Syntheseeinheit 15 aus. Anschließend synthetisiert die Syntheseeinheit 15 die Sprache des Führungssatzes 43, der von der Generierungseinheit 14 eingegeben wird. In einem Fall, bei dem die Differenzinformationen eingegeben werden, synthetisiert die Syntheseeinheit 15 eine Lesesprache, die ein Wort eines durch die Differenzinformationen angezeigten Attributs betont, und gibt die synthetisierte Sprache aus. Die Sprachführungseinrichtung 1 beendet die Verarbeitung (Schritt S16).
  • Es ist zu beachten, dass in der vorliegenden Ausführungsform ein Beispiel beschrieben wurde, in dem die Sprachführungseinrichtung 1 auf Inspektionsarbeiten an einer Schaltplatine angewendet wird; es ist jedoch auch möglich, die Sprachführungseinrichtung 1 auf den Betrieb einer Fernsteuerung eines Haushaltsgeräts anzuwenden. Es ist nur erforderlich, dass die Betriebsinformationsspeichereinheit 25 einen Betriebsvorgang des Haushaltsgeräts und die Informationen über die Positionen der auf einer Oberfläche der Fernsteuerung angeordneten Tasten speichert.
  • Bezugszeichenliste
  • 1: Sprachführungseinrichtung, 2: Routenführungseinrichtung, 3: Augenkamera, 4: GPS-Empfänger, 5: Lautsprecher, 6: Anzeige, 7: tragbares Gerät, 11: Führungsobjektbestimmungseinheit, 12: Visuelles-Erkennungsobjekt-Erfassungseinheit, 13: Differenzerfassungseinheit, 14: Generierungseinheit, 15: Syntheseeinheit, 16: Attributinformationsspeichereinheit, 17: Bekanntheitsinformationsspeichereinheit, 21: Routensucheinheit, 22: Routenführungseinheit, 23: Anzeigeeinheit, 24: Karteninformationsspeichereinheit, 25: Betriebsinformationsspeichereinheit, 31, 32, 33, 34, 35, 36: Attributinformationen, 39: Differenzinformationen, 41: Fester Führungssatz, 42, 43: Führungssatz, 51: Schaltplatine, 52a bis 52j: Schalter, 101: Speicher, 102: Prozessor, 103: Sprachausgabeschnittstelle
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2004037151 A [0005]
    • JP 5393546 [0069]

Claims (7)

  1. Sprachführungseinrichtung, umfassend: eine Führungsobjektbestimmungseinheit zum Ausgeben eines Führungsobjekts, zu dem eine Sichtlinie eines Benutzers geführt wird; eine visuelles-Erkennungsobjekt-Erfassungseinheit zum Erfassen eines visuellen Erkennungsobjekts, welches der Benutzer betrachtet, aus Informationen, anzeigend eine Richtung der Sichtlinie des Benutzers; eine Differenzerfassungseinheit zum Erfassen einer Differenz zwischen einem Attribut des visuellen Erkennungsobjekts und einem Attribut des Führungsobjekts; eine Generierungseinheit zum Generieren eines Führungssatzes, aufweisend das Attribut des Führungsobjekts; und eine Syntheseeinheit zum, wenn eine Differenz zwischen dem Attribut des im Führungssatz enthaltenen Führungsobjekts und dem Attribut des visuellen Erkennungsobjekts vorhanden ist, Synthetisieren und Ausgeben von Sprache des Führungssatzes, betonend ein Wort des Attributs, das die Differenz aufweist.
  2. Sprachführungseinrichtung nach Anspruch 1, ferner umfassend: eine Bekanntheitsinformationsspeichereinheit zum Speichern von Bekanntheitsinformationen für eine Vielzahl von Wörtern, in welchen Bekanntheit, anzeigend einen Grad von Bekanntheit seitens des Benutzers, für jedes von der Vielzahl von Wörtern eingestellt ist, wobei die Generierungseinheit den Führungssatz ändert in Abhängigkeit von einem Wert von Bekanntheit eines Wortes, das im Führungssatz enthalten ist.
  3. Sprachführungseinrichtung nach Anspruch 2, wobei die Generierungseinheit, wenn der Wert von Bekanntheit des Wortes, das im Führungssatz enthalten ist, geringer ist als ein vorherbestimmter Schwellenwert, das Wort zu einem Kopf des Führungssatzes bewegt.
  4. Sprachführungseinrichtung nach Anspruch 2, wobei die Generierungseinheit, wenn der Wert von Bekanntheit des Wortes, das im Führungssatz enthalten ist, geringer ist als ein vorherbestimmter Schwellenwert, das Wort aus dem Führungssatz löscht.
  5. Sprachführungseinrichtung nach einem der Ansprüche 2 bis 4, wobei die Bekanntheitsinformationsspeichereinheit die Bekanntheitsinformationen speichert, wobei ein hoher Wert für ein Wort eingestellt ist, das eine Farbe anzeigt.
  6. Sprachführungseinrichtung nach einem der Ansprüche 2 bis 5, wobei die Bekanntheitsinformationsspeichereinheit die Bekanntheitsinformationen speichert, wobei ein geringer Wert für ein Wort eingestellt ist, das einen Eigennamen anzeigt.
  7. Sprachführungsverfahren, umfassend die folgenden Schritte: einen Führungsobjektbestimmungsschritt des Ausgebens eines Führungsobjekts, zu dem eine Sichtlinie eines Benutzers geführt wird; einen visuelles-Erkennungsobjekt-Erfassungsschritt des Erfassens eines visuellen Erkennungsobjekts, welches der Benutzer betrachtet, aus Informationen, anzeigend eine Richtung der Sichtlinie des Benutzers; einen Differenzerfassungsschritt des Erfassens einer Differenz zwischen einem Attribut des visuellen Erkennungsobjekts und einem Attribut des Führungsobjekts; einen Generierungsschritt des Generierens eines Führungssatzes, aufweisend das Attribut des Führungsobjekts; und einen Syntheseschritt des, wenn eine Differenz zwischen dem Attribut des im Führungssatz enthaltenen Führungsobjekts und dem Attribut des visuellen Erkennungsobjekts vorhanden ist, Synthetisierens und Ausgebens von Sprache des Führungssatzes, betonend ein Wort des Attributs, das die Differenz aufweist.
DE112016006504.3T 2016-03-29 2016-03-29 Sprachführungseinrichtung und Sprachführungsverfahren Active DE112016006504B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/060026 WO2017168543A1 (ja) 2016-03-29 2016-03-29 音声案内装置及び音声案内方法

Publications (2)

Publication Number Publication Date
DE112016006504T5 true DE112016006504T5 (de) 2019-01-03
DE112016006504B4 DE112016006504B4 (de) 2021-02-04

Family

ID=59962695

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006504.3T Active DE112016006504B4 (de) 2016-03-29 2016-03-29 Sprachführungseinrichtung und Sprachführungsverfahren

Country Status (5)

Country Link
US (1) US10571293B2 (de)
JP (1) JP6272594B1 (de)
CN (1) CN108885117A (de)
DE (1) DE112016006504B4 (de)
WO (1) WO2017168543A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019079144A (ja) * 2017-10-20 2019-05-23 オリンパス株式会社 作業支援システム,撮像装置,ウェアラブル装置,作業支援方法
US20220130173A1 (en) * 2019-03-14 2022-04-28 Nec Corporation Information processing device, information processing system, information processing method, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5393546A (en) 1977-01-21 1978-08-16 Otis Elevator Co Elevator controller
JP2004037151A (ja) 2002-07-01 2004-02-05 Mazda Motor Corp 経路誘導装置、経路誘導方法、及び、経路誘導用プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2509523B2 (ja) * 1993-06-25 1996-06-19 株式会社エクォス・リサーチ 車輌用音声出力装置
US5729109A (en) * 1995-07-19 1998-03-17 Matsushita Electric Industrial Co., Ltd. Navigation system and intersection guidance method
JP3919855B2 (ja) * 1996-10-17 2007-05-30 株式会社ザナヴィ・インフォマティクス ナビゲーション装置
EP1378724B1 (de) * 2002-07-01 2006-03-29 Mazda Motor Corporation Zielführungssystem basiert auf visueller Tätigkeit des Fahrers
JP4684583B2 (ja) * 2004-07-08 2011-05-18 三菱電機株式会社 対話装置
JP4870418B2 (ja) * 2005-12-01 2012-02-08 クラリオン株式会社 地図表示装置及び地図表示方法
JP4315211B2 (ja) * 2007-05-01 2009-08-19 ソニー株式会社 携帯情報端末及び制御方法、並びにプログラム
US8983775B2 (en) * 2008-09-03 2015-03-17 Flextronics Ap, Llc Systems and methods for connecting and operating portable GPS enabled devices in automobiles
JP2011174723A (ja) * 2010-02-23 2011-09-08 Pioneer Electronic Corp 案内誘導装置及び案内誘導方法
JP5393546B2 (ja) 2010-03-15 2014-01-22 三菱電機株式会社 韻律作成装置及び韻律作成方法
CN102947677B (zh) * 2010-06-14 2016-03-30 三菱电机株式会社 导航装置
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
CN103033193A (zh) * 2011-09-29 2013-04-10 北京四维图新科技股份有限公司 一种语音导航方法及语音导航装置
DE102011084664A1 (de) * 2011-10-18 2013-04-18 Robert Bosch Gmbh Verfahren zum Betrieb eines Navigationssystems, insbesondere Verfahren zur Steuerung von auf einem Anzeigemittel des Navigationssystems anzeigbaren Informationen
WO2013069060A1 (ja) * 2011-11-10 2013-05-16 三菱電機株式会社 ナビゲーション装置および方法
DE112013007522T5 (de) * 2013-10-25 2016-07-07 Mitsubishi Electric Corporation Fahrassistenzgerät und Fahrassistenzverfahren

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5393546A (en) 1977-01-21 1978-08-16 Otis Elevator Co Elevator controller
JP2004037151A (ja) 2002-07-01 2004-02-05 Mazda Motor Corp 経路誘導装置、経路誘導方法、及び、経路誘導用プログラム

Also Published As

Publication number Publication date
US20180356246A1 (en) 2018-12-13
US10571293B2 (en) 2020-02-25
DE112016006504B4 (de) 2021-02-04
JPWO2017168543A1 (ja) 2018-04-05
WO2017168543A1 (ja) 2017-10-05
JP6272594B1 (ja) 2018-01-31
CN108885117A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
DE60109979T2 (de) Navigationssystem
DE102020205786B4 (de) Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze
DE112014002819B4 (de) System und Verfahren zur Erkennung von Sprache
DE112017004374T5 (de) System und Verfahren zur Spracherkennung
DE112014007015B4 (de) Spracherkennungssystem
DE102012205316B4 (de) Navigationssystem und Anzeigeverfahren hiervon
DE102015102113B4 (de) Verfahren zum warnen eines benutzers über einen abstand zwischen augen des benutzers und einem bildschirm und elektronische vorrichtung
DE112017004397T5 (de) System und Verfahren zur Einstufung von hybriden Spracherkennungsergebnissen mit neuronalen Netzwerken
DE69514298T2 (de) Navigationsvorrichtung eines sich bewegenden Objektes
DE69726662T2 (de) Landfahrzeugsnavigationsgerät mit lokaler Routenführungsselektivität und Speichermedium dafür
DE112015006585B4 (de) Fahr-Assistenzvorrichtung, Fahr-Assistenzserver und Fahr-Assistenzsystem
DE10300636A1 (de) Navigationsvorrichtung, Karteninformations-Speichermedium und Verfahren zum Bilden von Informationen über einen Bereich, der hinter einer Kreuzung liegt
DE102007044578A1 (de) Vorrichtung zur Erkennung eines beobachteten Objekts und Verfahren zur Erkennung eines beobachteten Objekts
DE112017007284B4 (de) Mitteilungssteuereinrichtung und Verfahren für Steuern von Mitteilung
DE102006014878A1 (de) Navigationssystem
DE112019007677T5 (de) Posenvorhersageverfahren, Modelltrainingsverfahren und Vorrichtung
DE112013007522T5 (de) Fahrassistenzgerät und Fahrassistenzverfahren
DE112009005114T5 (de) Einrichtungssuchvorrichtung
DE102016003850A1 (de) Empfehlen von Formularfragmenten
DE112008000915T5 (de) Navigationssystem
DE112020003033T5 (de) Verfahren und Vorrichtung zum Verbessern einer Geolokalisierungsdatenbank
DE60216013T2 (de) Navigationssystem
DE112018004108T5 (de) Bildsammelsystem, bildsammelverfahren, bildsammelvorrichtung, aufzeichnungsmedium und fahrzeugkommunikationsvorrichtung
DE112011103419B4 (de) Verfahren, Einheit und Computerprogramm zum Abbilden einer Bewegungsrichtung durch Töne
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R018 Grant decision by examination section/examining division
R020 Patent grant now final