ES2298681T3 - Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. - Google Patents

Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. Download PDF

Info

Publication number
ES2298681T3
ES2298681T3 ES04101533T ES04101533T ES2298681T3 ES 2298681 T3 ES2298681 T3 ES 2298681T3 ES 04101533 T ES04101533 T ES 04101533T ES 04101533 T ES04101533 T ES 04101533T ES 2298681 T3 ES2298681 T3 ES 2298681T3
Authority
ES
Spain
Prior art keywords
signals
route guidance
display
objects
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES04101533T
Other languages
English (en)
Inventor
Claus Brenner
Jens Faenger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Application granted granted Critical
Publication of ES2298681T3 publication Critical patent/ES2298681T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • G08G1/096861Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver where the immediate route instructions are output to the driver, e.g. arrow signs for next turn
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

Procedimiento para la representación de información para el conductor, con al menos las siguientes etapas: generar señales (ZF) de guía de ruta a partir de señales (Z) de datos de destino introducidas, señales (P) de posición y señales (K) de mapas, determinar al menos un primer objeto (G1) de guía de ruta a partir de las señales (ZF) de guía de ruta, las señales (K) de mapa y las señales (P) de posición, determinar un objeto (ZO) de visualización de guía de ruta para su representación en posición correcta en un campo (10, 20) de visualización, determinándose el objeto (ZO) de visualización de guía de ruta a partir del primer objeto (G1) de guía de ruta y conteniendo datos acerca de su posición en el campo (10, 20) de visualización, y emitir el al menos un objeto (ZO) de visualización de guía de ruta en el campo (10, 20) de visualización, generándose el objeto (ZO) de visualización de guía de ruta eliminando al menos una zona (TB) parcial del primer objeto (G1) de guía de ruta o un objeto de visualización de guía de ruta generado a partir del primer objeto (G1) de guía de ruta en función de las señales (K) de mapa y las señales (P) de posición, eliminándose una zona (TB) parcial del objeto (G1) de guía de ruta cuando basándose en las señales (P) de posición y las señales (K) de mapa se determina que entre la posición del vehículo y una posición geográfica de la zona (TB) parcial está dispuesto un objeto (V1, V2, V3) de ocultamiento, caracterizado porque como objetos de ocultamiento se reconocen otros objetos móviles, por ejemplo vehículos, que se detectan por al menos un sensor del vehículo, por ejemplo un sensor de radar, de imagen estereográfica, imagen monográfica, de infrarrojos, de ultrasonidos.

Description

Procedimiento y dispositivo para la representación de información para el conductor teniendo en cuenta otros objetos móviles.
La invención se refiere a un procedimiento y a un dispositivo para la representación de información para el conductor, especialmente para un sistema de navegación para vehículos.
Los sistemas de navegación para vehículos determinan, a partir de datos de destino introducidos por el conductor, datos de posición y datos de mapas, indicaciones de guía de ruta que llevan al conductor al destino siguiendo una ruta segura, rápida y directa. Las indicaciones de guía de ruta, especialmente las maniobras que deben realizarse, se emiten por el sistema de navegación de manera acústica u óptica mediante la aparición de flechas en un dispositivo de visualización en la zona del salpicadero del vehículo. Además pueden determinarse en parte mediante sensores de distancia las velocidades del propio vehículo y otros usuarios de la carretera y de este modo reconocerse situaciones de peligro.
En el caso de la emisión óptica de indicaciones de guía de ruta con la representación en un campo de visualización de un dispositivo de visualización se emiten en general representaciones de situaciones de conducción generalizadas, especialmente abstractas o simplificadas, por ejemplo representaciones de cruces, en las que se destacan las maniobras de conducción que deben realizarse, por ejemplo realizar un giro.
Mediante la representación generalizada de la situación de conducción y las indicaciones de guía de ruta destacadas gráficamente, se mantiene ciertamente reducida la distracción del conductor con respecto a situaciones del tráfico y se limita el esfuerzo técnico de la búsqueda en mapas actual y la determinación de las señales de guía de ruta que deben mostrarse. Sin embargo, la atención del conductor se ve perjudicada por la necesidad de mirar cada cierto tiempo al dispositivo de visualización, en el que primero debe orientarse nuevamente cada vez y debe trasladar la información mostrada a su entorno de conducción, su posición y orientación, lo que lleva a una reducción de la seguridad de la conducción. Es cierto que también pueden emitirse situaciones de peligro reconocidas por el dispositivo de control del sistema de navegación en el dispositivo de visualización y, dado el caso, acústicamente; sin embargo de este modo el conductor que observa el entorno de conducción a menudo no puede asociar esta información con suficiente rapidez a la situación real y por tanto, dado el caso, no puede reaccionar con suficiente rapidez de manera correspondiente a la situación de peligro. La emisión súbita de señales de peligro y advertencia puede llevar incluso a una confusión del conductor en situaciones de conducción difíciles que perjudican su atención.
Además, especialmente en caso de geometrías de cruce poco claras resulta problemático el proporcionar las indicaciones de guía de ruta, ya que a menudo el dispositivo de visualización debe trasladar de manera adecuada a la situación de la carretera por ejemplo maniobras de giro para el conductor sólo con dificultad; por tanto entonces en caso de geometrías de cruce complejas, un conductor a menudo percibe una posibilidad de giro demasiado prematura o demasiado tardía. Ciertamente para ello pueden emitirse adicionalmente datos de distancia o representaciones de la distancia con barras decrecientes, sin embargo también deben trasladarse este tipo de datos adicionales a la situación de conducción real a menudo sólo con dificultad para el conductor y pueden perjudicar adicionalmente su atención, especialmente en caso de una conducción en curva difícil, circulación en sentido opuesto y otros usuarios de la carretera que pueden detectarse con dificultad como ciclistas y peatones.
En caso de dispositivos de visualización con representación de mapa tridimensional, se representan de manera destacada por ejemplo la trayectoria que ha de recorrerse, letreros indicadores o el propio destino. De este modo puede escogerse un punto fijo de observación del conductor orientado en la dirección de conducción a una altura por regla general seleccionable sobre el vehículo. Debido especialmente a la dificultad técnica el contenido representado es sin embargo a menudo muy abstracto y se mantiene incompleto. Por ello y debido a las desviaciones del ángulo de visión libremente seleccionable con respecto a la perspectiva real del conductor, resulta difícil para el conductor crear un contexto con la situación de conducción percibida realmente por él.
Además, se conocen procedimientos y sistemas en los que se muestra directamente al conductor información relevante, por ejemplo mediante gafas de datos o visualizaciones Head-up (a la altura de la vista), en su campo de visión. De este modo el conductor puede mantener su vista orientada siempre a la carretera y a la situación de la carretera del entorno y recibir información complementaria. El documento US 5.883.739 describe un procedimiento en el que se forman imágenes del campo de visión izquierdo y derecho y se solapan para formar una imagen estereoscópica sobre un cristal de visión dispuesto detrás del parabrisas. De este modo pueden mostrarse por ejemplo flechas como objetos de guía de ruta.
Por el documento Int. J. of Vehicle Design, vol. 19, nº 2, 1998, A. Steinfeld y P. Green "Driver responses to navigation information on full-windshield, head-up displays" se conoce o bien reproducir información de navegación en un dispositivo de visualización del panel de instrumentos o bien superponer la escena de la carretera en el cristal del parabrisas. En caso de una superposición de este tipo se consiguen tiempos de reacción más cortos del conductor que con la emisión en el dispositivo de visualización adicional.
El documento DE 198 52 662 A1 muestra un procedimiento para la navegación basada en multimedia de un vehículo en una red de carreteras, en el que se emiten indicaciones de conducción que se refieren a objetos destacados a lo largo de la ruta, de manera acústica mediante emisiones de voz y mediante una emisión óptica para el conductor. Un dispositivo informático para la determinación de rutas determina una ruta a partir de un mapa digital y la posición determinada por un sistema de posicionamiento global. Un dispositivo informático para la emisión de indicaciones de conducción determina objetos destacados que se interrelacionan con las indicaciones de conducción. La emisión óptica puede realizarse especialmente aplicando el objeto sobre un dispositivo de visualización.
Por el documento DE 100 23 160 A1 se conoce un dispositivo de visualización de mapas con el que se muestran edificios y carreteras tridimensionalmente. Una línea de guiado de ruta se representa sobre una carretera sobre el mapa mostrado tridimensionalmente. Cuando la línea de guiado de ruta se tapa por un edificio, una unidad de control muestra la zona solapada de la línea de guiado de ruta en un color que es diferente del color de las zonas que no se solapa. Especialmente, la línea de guiado de ruta puede mostrarse en este caso de manera semitransparente y solapar por ejemplo un edificio representado en el mapa. La unidad de visualización está realizada para ello especialmente como una pantalla de cristal líquido.
El procedimiento según la invención y el dispositivo según la invención ofrecen por el contrario especialmente la ventaja de que pueden transmitirse al conductor indicaciones de guía de ruta de manera realista sin una carga y distracción cognitiva demasiado grande con respecto a la situación del tráfico. De este modo, las indicaciones para el conductor se utilizan como objetos de guía de ruta y ventajosamente la información adicional como objetos de información en posición correcta en una imagen real o realista del entorno de conducción.
Los objetos de guía de ruta emitidos según la invención sirven como indicaciones de guía de ruta, pueden ser especialmente datos de dirección de conducción, por ejemplo flechas que se extienden a través de giros, cruces o sistemas de rotondas o cruces completos. Puede emitirse información adicional especialmente acerca de objetos del entorno, por ejemplo indicaciones de edificios, su importancia histórica, funciones o de aspectos locales como ríos, montañas, mares, paisajes.
El conductor puede según la invención mantener la vista sobre la situación del tráfico y asociar las indicaciones de guía de ruta y, dado el caso, información adicional, directamente con las posiciones reales en la situación del tráfico debido a la asociación de posición correcta, sin tener que realizar abstracciones de la información mostrada mediante por ejemplo transformación de una simbología de flechas en situaciones de cruce reales. Por tanto, tiene una carga cognitiva menor y está más seguro en sus decisiones.
Según la invención, los objetos de guía de ruta mostrados pueden formarse teniendo en cuenta objetos de ocultamiento o zonas de ocultamiento visibles adicionalmente en el campo de visión del conductor. De este modo se recortan los primeros objetos de salida de guía de ruta, teniendo en cuenta zonas de ocultamiento que se calculan a partir de datos de mapas o según la invención a partir de obstáculos determinados por un sensor del vehículo. De los primeros objetos de salida de guía de ruta se cortan con esto aquellas zonas parciales que se encuentran en el campo de visión del conductor por detrás de zonas de ocultamiento u objetos de ocultamiento. Por tanto se consigue una representación realista con la que los objetos de guía de ruta mostrados y, dado el caso, también otros objetos de información, se insertan en el entorno de conducción visible por el conductor y por tanto pueden asociarse sin transformación teórica adicional por parte del conductor al entorno de conducción.
Los objetos de ocultamiento que, dado el caso, han de tenerse en cuenta pueden determinarse directamente a partir de los datos de mapas o mediante sensores adicionales del vehículo, por ejemplo sensores de distancia por ultrasonidos, infrarrojos o radar, así como mediante el análisis de imágenes estereoscópicas, especialmente mediante fotogrametría.
Según la invención pueden mostrarse los objetos de guía de ruta y, dado el caso, otros objetos de información, ventajosamente en un cristal de visión transparente en el campo de visión del conductor entre su entorno de conducción y su posición, especialmente en el propio cristal del parabrisas o en un cristal de visión dispuesto detrás. Para ello, puede realizarse especialmente una proyección en el cristal del parabrisas o un cristal de visión transparente dispuesto detrás; además puede realizarse la representación también en un cristal de visión que lleva el propio conductor, por ejemplo en unas gafas de datos o en una visera abatible de un casco.
Además, también es posible una representación de los objetos de guía de ruta sobre un dispositivo de visualización, por ejemplo en la zona del salpicadero del vehículo. De este modo se capta el entorno de conducción o la escena de conducción percibida realmente por el conductor mediante, por ejemplo, una cámara fijada al o en el vehículo y se reproduce como representación en mapa en el campo de visualización del dispositivo de visualización junto con los objetos de guía de ruta y, dado el caso, objetos de información. El conductor debe ciertamente, con esta forma de realización según la invención, apartar la vista brevemente del campo de visión de la situación de la carretera; sin embargo, puesto que en el campo de visualización del dispositivo de visualización vuelve a encontrar de manera realista directamente el entorno de conducción que también ve él, puede asociar directamente las señales de guía de ruta mostradas y, dado el caso, otra información de objetos.
Los datos de mapas pueden obtenerse tanto a partir de una memoria de mapas que se encuentra en el vehículo, por ejemplo un soporte de información digital como un CD-ROM, como también mediante transmisión remota de datos. Los datos de posición pueden determinarse, de una manera conocida en sí misma, por un sistema de posicionamiento global, un sensor de distancia recorrida o un sensor de velocidad de rotación o una combinación de los mismos. De este modo se determinan la posición y la orientación, es decir, la dirección de conducción del vehículo, y se asocian a los datos de mapas de manera clara. Las indicaciones de guía de ruta se determinan de una manera conocida mediante algoritmos de navegación a partir de los datos de destino introducidos por el conductor y los datos de posición del vehículo.
La invención se explicará a continuación más detalladamente con ayuda de los dibujos adjuntos en algunas formas de realización. Muestran:
la figura 1, un diagrama de bloques de un dispositivo según una forma de realización con un campo de visualización en el campo de visión del conductor;
la figura 2, un diagrama de bloques según otra forma de realización con visualización en un campo de visualización de un dispositivo de visualización;
la figura 3, un diagrama de bloques según otra forma de realización teniendo en cuenta ocultamientos;
las figuras 4a, b representaciones que puede ver el conductor en las visualizaciones en a) las formas de realización de las figuras 1, 2 y b) de la figura 3.
Un dispositivo 1 para la representación de información para el conductor para un vehículo F presenta una memoria 2 de mapas, por ejemplo un medio de almacenamiento digital en el automóvil F o una base de datos de mapas prevista de manera externa, en conexión a través de transmisión remota de datos con el automóvil F. A partir de la memoria 2 de mapas se emiten señales K de mapa a un dispositivo 3 de navegación. El dispositivo 3 de navegación recibe además desde un sensor 4 de posición de un sistema de posicionamiento global (GPS) señales P de posición y desde un dispositivo 5 de entrada, datos Z de destino, por ejemplo coordenadas de destino introducidas por el conductor o datos de nombre de un lugar de destino. El dispositivo 3 de navegación calcula de una manera conocida en sí misma indicaciones de guía de ruta y emite señales ZF de guía de ruta correspondientes, que comprenden una señal de orientación para la asociación de la dirección de conducción, en un dispositivo 6 de determinación. El dispositivo 6 de determinación recibe además datos P de posición del sensor 4 de posición y datos K de mapas de la memoria 2 de mapas y determina a partir de los mismos primeros objetos G1 de guía de ruta que corresponden a una representación del entorno de conducción en un mapa.
Además pueden determinarse por el dispositivo 3 de navegación objetos relevantes, por ejemplo, edificios, paisajes, lugares de interés, en el campo de visión del conductor basándose en los datos K de mapas y las señales P de posición y pueden emitirse señales I de información con información sobre estos objetos, por ejemplo su nombre y sus funciones, al dispositivo 6 de determinación. El dispositivo 6 de determinación determina objetos IO de información, por ejemplo tablas con datos sobre los objetos.
Un dispositivo 7 de cálculo recibe los primeros objetos G1 de guía de ruta, los datos K de mapas y los datos P de posición y determina objetos ZO de visualización de guía de ruta que contienen datos acerca de la forma, tamaño y coordenadas en un campo 10 de visualización. Los objetos ZO de visualización de guía de ruta pueden formarse especialmente como imágenes de proyección de los objetos G1 de guía de ruta desde la perspectiva del conductor. Además, los objetos IO de información se retransmiten al dispositivo 7 de cálculo, que calcula las coordenadas de los objetos IO de información en el campo 10 de visualización; de este modo pueden modificarse los objetos IO de información.
El dispositivo 7 de cálculo retransmite los objetos ZO de visualización de guía de ruta y los objetos IO de información incluyendo sus coordenadas a un dispositivo 8 de proyección, que los arroja a su vez, en esta forma de realización, como señales luminosas sobre un campo 10 de visualización de un cristal 9 de visión transparente. El cristal 9 de visión está dispuesto en este caso entre el conductor y el entorno de conducción observado por él, es decir en el camp de visión del conductor; puede ser por ejemplo el propio cristal del parabrisas o un cristal 9 de visión transparente dispuesto detrás del cristal del parabrisas. El conductor percibe por tanto el objeto ZO de visualización de guía de ruta, en la forma de realización mostrada una flecha ZO que muestra un giro a la izquierda, en su posición correcta en el entorno del vehículo que él ve a través del camp 10 de visualización por lo demás transparente. El dispositivo 3 de navegación, el dispositivo 6 de determinación y el dispositivo 7 de cálculo pueden estar configurados de manera integrada como un dispositivo 11 de control.
En la forma de realización de la figura 2 se realiza una representación sobre un dispositivo 22 de visualización separado. Para ello, los primeros objetos G1 de guía de ruta y los objetos de IO de información se determinan como en la primera forma de realización y se emiten a un dispositivo 14 de generación de imágenes. Una monocámara o dos cámaras 12a, 12b, que están dispuestas por ejemplo dentro del vehículo F por debajo del techo, captan el entorno de conducción en la dirección de visión del conductor y emiten señales U1, U2 de imágenes del entorno a un dispositivo 15 de análisis, que emite primeras señales U de imágenes al dispositivo 14 de generación de imágenes. El dispositivo 14 de generación de imágenes determina a su vez objetos ZO de visualización de guía de ruta y los superpone junto con los objetos IO de información a las primeras señales U de imágenes y emite segundas señales B de imágenes a un campo 20 de visualización del dispositivo 22 de visualización. También en esta forma de realización el conductor puede por tanto reconocer el escenario de conducción que le es familiar en ese momento en una imagen real o adaptada a la realidad y de este modo asociar objetos ZO de visualización de guía de ruta y objetos IO de información directamente al tráfico de la carretera, aunque para ello deba dirigir su mirada desde el entorno de conducción al dispositivo 22 de visualización. En la segunda forma de realización de la figura 2, el dispositivo 3 de navegación, el dispositivo 6 de determinación, el dispositivo 15 de análisis y el dispositivo 14 de generación de imágenes pueden estar configurados de manera integrada como un dispositivo 16 de control con programación correspondiente.
En la forma de realización de la figura 3, al contrario que en las dos primeras formas de realización de las figuras 1, 2, se emiten los objetos ZO de visualización de guía de ruta y los objetos IO de información de manera correspondientemente recortada, para adaptar su percepción de manera real a ocultamientos parciales por objetos de ocultamiento en el entorno de conducción/campo de visión que puede ver el conductor. La operación de recorte, es decir, eliminar zonas parciales, puede realizarse o bien como se muestra en la figura 3 en el mapa, es decir en los objetos G1, IO de la representación de mapa, o también en los objetos ZO de visualización de guía de ruta y en los objetos IO de información que han de representarse en el campo 10, 20 de visualización.
Los primeros objetos G1 de guía de ruta y objetos IO1 de información se emiten por el dispositivo 6 de determinación en primer lugar a un dispositivo 21 de recorte. El dispositivo 21 de recorte determina zonas TB parciales de los objetos G1 de guía de ruta y los objetos IO1 de información que se encuentran en la dirección de visión, en línea recta, por detrás de un objetos de ocultamiento, es decir, entre las mismas y la posición del conductor se encuentra al menos un objeto V1, V2 de ocultamiento. Puesto que una zona TB parcial se oculta debido a la posición anterior del objeto V1 de ocultamiento, ésta se elimina o se representa como zona oculta de otra manera, por ejemplo con otro color, luminosidad, sombreado o líneas perimetrales discontinuas. De este modo se determinan segundos objetos G2 de guía de ruta y segundos objetos IO2 de información, que se introducen a continuación a su vez en el dispositivo 7 de cálculo o el dispositivo 14 de generación de imágenes y, como en las formas de realización anteriores de las figuras 1 o 2, se representan objetos ZO de visualización de guía de ruta y objetos IO de información en un campo 10 o 20 de visualización.
Alternativamente a la forma de realización mostrada, el dispositivo 21 de recorte puede estar dispuesto básicamente también detrás del dispositivo 7 de proyección y por tanto reconocer y eliminar directamente ocultamientos en la imagen que va a mostrarse como solapamientos de las zonas de superficie bidimensionales. El dispositivo 3 de navegación, el dispositivo 6 de determinación, el dispositivo 15 de recorte y el dispositivo 7 de cálculo pueden estar configurados de manera integrada como un dispositivo 23 de control con programación correspondiente.
En todas las formas de realización pueden emitirse de manera complementaria señales acústicas. Especialmente en la figura 2 pueden emitirse señales acústicas en el momento de la emisión de objetos ZO de visualización de guía de ruta y/u objetos IO de información o también en el momento de la modificación de estos objetos ZO, IO, para que el conductor dirija brevemente la mirada al campo 20 de visualización.

Claims (8)

1. Procedimiento para la representación de información para el conductor, con al menos las siguientes etapas: generar señales (ZF) de guía de ruta a partir de señales (Z) de datos de destino introducidas, señales (P) de posición y señales (K) de mapas, determinar al menos un primer objeto (G1) de guía de ruta a partir de las señales (ZF) de guía de ruta, las señales (K) de mapa y las señales (P) de posición, determinar un objeto (ZO) de visualización de guía de ruta para su representación en posición correcta en un campo (10, 20) de visualización, determinándose el objeto (ZO) de visualización de guía de ruta a partir del primer objeto (G1) de guía de ruta y conteniendo datos acerca de su posición en el campo (10, 20) de visualización, y emitir el al menos un objeto (ZO) de visualización de guía de ruta en el campo (10, 20) de visualización, generándose el objeto (ZO) de visualización de guía de ruta eliminando al menos una zona (TB) parcial del primer objeto (G1) de guía de ruta o un objeto de visualización de guía de ruta generado a partir del primer objeto (G1) de guía de ruta en función de las señales (K) de mapa y las señales (P) de posición, eliminándose una zona (TB) parcial del objeto (G1) de guía de ruta cuando basándose en las señales (P) de posición y las señales (K) de mapa se determina que entre la posición del vehículo y una posición geográfica de la zona (TB) parcial está dispuesto un objeto (V1, V2, V3) de ocultamiento, caracterizado porque como objetos de ocultamiento se reconocen otros objetos móviles, por ejemplo vehículos, que se detectan por al menos un sensor del vehículo, por ejemplo un sensor de radar, de imagen estereográfica, imagen monográfica, de infrarrojos, de ultrasonidos.
2. Procedimiento según la reivindicación 1, caracterizado porque a partir de las señales (K) de mapa y las señales (P) de posición se determinan al menos un objeto (IO) de información y se emiten en el campo (10, 20) de visualización.
3. Procedimiento según la reivindicación 2, caracterizado porque el objeto (IO) de información se determina generando, a partir de las señales (K) de mapa y las señales (P) de posición, señales (I) de información a partir de las cuales se genera al menos un primer objeto (IO1) de información del que se elimina una zona (TB) parcial cuando, basándose en las señales (P) de posición y las señales (K) de mapa, se determina que entre la posición del vehículo y una posición geográfica de la zona (TB) parcial está dispuesto un objeto (V1, V2, V3) de ocultamiento.
4. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque las señales (P) de posición se emiten por al menos un sensor (4), por ejemplo un sensor (4) de un sistema de posicionamiento global (GPS) y/o un contador de distancia recorrida y/o un sensor de velocidad de rotación.
5. Procedimiento según una de las reivindicaciones anteriores, caracterizado porque el campo (10) de visualización es una superficie transparente en la zona de visión entre el conductor y una zona de conducción de su vehículo.
6. Procedimiento según la reivindicación 5, caracterizado porque el campo (10) de visualización es una parte del cristal del parabrisas del vehículo, un cristal (9) de visión transparente detrás del cristal del parabrisas del vehículo o parte de un dispositivo de visera que lleva el conductor, por ejemplo unas gafas o una visera abatible de un casco.
7. Procedimiento según una de las reivindicaciones 1 a 4, caracterizado porque el campo (20) de visualización está previsto en un dispositivo (22) de visualización, por ejemplo en la zona del salpicadero del vehículo, emitiéndose en el campo (20) de visualización señales (B) de imagen que comprenden los objetos (ZO) de guía de ruta y señales (U) de imágenes del entorno emitidas por un dispositivo (12a, 12b) de cámara del vehículo.
8. Dispositivo para la representación de información para el conductor, con un dispositivo (3) de navegación, un dispositivo (6) para determinar un primer objeto (G1) de guía de ruta, un dispositivo (7, 14) para calcular un objeto (ZO) de visualización de guía de ruta y un dispositivo (8, 9, 10; 20, 22) para representar el objeto (ZO) de visualización de guía de ruta, estando previsto un dispositivo (21) de recorte que elimina de los primeros objetos (ZO) de guía de ruta y/o de los objetos (IO1) de información al menos una zona (TB) parcial cuando entre la zona (TB) parcial y la posición del conductor se determina un objeto (V1, V2) de ocultamiento, caracterizado por al menos un sensor del vehículo para detectar otros objetos móviles como objetos de ocultamiento.
ES04101533T 2004-04-15 2004-04-15 Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. Expired - Lifetime ES2298681T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP20040101533 EP1586861B1 (de) 2004-04-15 2004-04-15 Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen unter Berücksichtigung anderer beweglicher Objekte

Publications (1)

Publication Number Publication Date
ES2298681T3 true ES2298681T3 (es) 2008-05-16

Family

ID=34928957

Family Applications (1)

Application Number Title Priority Date Filing Date
ES04101533T Expired - Lifetime ES2298681T3 (es) 2004-04-15 2004-04-15 Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles.

Country Status (2)

Country Link
EP (1) EP1586861B1 (es)
ES (1) ES2298681T3 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006054323A1 (de) * 2006-11-17 2008-05-21 Robert Bosch Gmbh Verfahren zum Orten eines Objekts
DE102007030243A1 (de) * 2007-06-29 2009-01-08 Robert Bosch Gmbh Verfahren und Vorrichtung zur Übermittlung von Informationen an Fahrzeuginsassen
CN101910793B (zh) 2007-12-28 2012-11-28 三菱电机株式会社 导航装置
US20100245561A1 (en) * 2007-12-28 2010-09-30 Yoshihisa Yamaguchi Navigation device
WO2013113500A1 (de) 2012-02-02 2013-08-08 Audi Ag Fahrerassistenzsystem und verfahren zur virtuellen darstellung eines strassenverlaufs bei verdeckung und/oder schlechten sichtverhältnissen
DE102012020568A1 (de) * 2012-10-19 2014-04-24 Audi Ag Verfahren zum Betreiben einer Navigationseinrichtung und zur Erfassung einer wahrnehmbaren Umwelt
DE102013207063A1 (de) 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille
DE102013207064A1 (de) * 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Auswahl einer Informationsquelle zur Anzeige auf einer Datenbrille
DE102013011311B4 (de) 2013-07-06 2018-08-09 Audi Ag Verfahren zum Betreiben eines Informationssystems eines Kraftwagens und Informationssystem für einen Kraftwagen
DE102015007246B4 (de) * 2015-06-05 2019-12-05 Audi Ag Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem für ein Kraftfahrzeug
DE102016220521A1 (de) 2016-10-19 2018-04-19 Volkswagen Aktiengesellschaft Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs sowie Fahrerassistenzsystem für ein Kraftfahrzeug
DE102018133669A1 (de) 2018-12-28 2020-07-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Wiedergabe von Navigationshinweisen
DE102021124098A1 (de) 2021-09-17 2023-03-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8901695A (nl) * 1989-07-04 1991-02-01 Koninkl Philips Electronics Nv Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem.
EP1426910A3 (en) * 1996-04-16 2006-11-02 Xanavi Informatics Corporation Map display device, navigation device and map display method
JP3390624B2 (ja) * 1997-03-27 2003-03-24 富士通テン株式会社 ナビゲーション装置
DE19813300C2 (de) * 1998-03-26 2003-12-11 Bosch Gmbh Robert Anzeigevorrichtung
US6285317B1 (en) * 1998-05-01 2001-09-04 Lucent Technologies Inc. Navigation system with three-dimensional display
US6710774B1 (en) * 1999-05-12 2004-03-23 Denso Corporation Map display device
DE29913292U1 (de) * 1999-07-29 1999-12-09 Bruce-Boye, Cecil O., Dr., 23558 Lübeck GPS-Verkehrsteilnehmerleitgerät mit dreidimensionaler Darstellung als Navigationssystem
DE10037573B4 (de) * 2000-08-02 2005-05-19 Robert Bosch Gmbh Navigationsverfahren in einem Kraftfahrzeug
JP4672190B2 (ja) * 2001-04-26 2011-04-20 三菱電機株式会社 映像ナビゲーション装置
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen

Also Published As

Publication number Publication date
EP1586861A1 (de) 2005-10-19
EP1586861B1 (de) 2008-02-20

Similar Documents

Publication Publication Date Title
ES2959475T3 (es) Método, dispositivo y medio de almacenamiento legible por ordenador con instrucciones para el control de una visualización de un dispositivo de visualización de realidad aumentada para un vehículo de motor
US9482540B2 (en) Navigation display method and system
US10591738B2 (en) Heads-up display with variable focal plane
EP1195578A2 (en) Vehicle navigation system with stereoscopic display
CN106687327B (zh) 车辆显示装置
ES2330351T3 (es) Dispositivo de navegacion con informacion de camara.
US20080091338A1 (en) Navigation System And Indicator Image Display System
ES2298681T3 (es) Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles.
US6208933B1 (en) Cartographic overlay on sensor video
JP3908419B2 (ja) ナビゲーション装置
RU2677999C1 (ru) Устройство отображения транспортного средства
KR20200042166A (ko) 컨텐츠를 시각화하는 장치 및 방법
TWI728117B (zh) 動態信息系統及動態信息系統的操作方法
WO2019097762A1 (ja) 重畳画像表示装置及びコンピュータプログラム
US11294456B2 (en) Perspective or gaze based visual identification and location system
WO2016102304A1 (en) Method for presenting an image overlay element in an image with 3d information, driver assistance system and motor vehicle
US9423267B2 (en) Navigation device and display control method
US9159301B2 (en) Slanted map
JP6549893B2 (ja) 情報表示装置および情報表示方法
JP6448806B2 (ja) 表示制御装置、表示装置及び表示制御方法
JP2007309823A (ja) 車載用ナビゲーション装置
JP2005241653A (ja) ナビゲーションシステムのユーザを目的地誘導するための方法及びナビゲーションシステム
JP2005201635A (ja) 車両用ナビゲーションシステム
Hsu et al. The effects of different navigation maps on driving performance
JP2000113389A (ja) 移動体用経路案内装置